KR101345544B1 - Multi-view video coding system, decoding system, bitstream extracting system for decoding base view and supporting view random access - Google Patents

Multi-view video coding system, decoding system, bitstream extracting system for decoding base view and supporting view random access Download PDF

Info

Publication number
KR101345544B1
KR101345544B1 KR1020080040079A KR20080040079A KR101345544B1 KR 101345544 B1 KR101345544 B1 KR 101345544B1 KR 1020080040079 A KR1020080040079 A KR 1020080040079A KR 20080040079 A KR20080040079 A KR 20080040079A KR 101345544 B1 KR101345544 B1 KR 101345544B1
Authority
KR
South Korea
Prior art keywords
video signal
view
bitstream
encoded
independent
Prior art date
Application number
KR1020080040079A
Other languages
Korean (ko)
Other versions
KR20080114500A (en
Inventor
조숙희
허남호
김진웅
이수인
이영렬
임성창
Original Assignee
세종대학교산학협력단
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단, 한국전자통신연구원 filed Critical 세종대학교산학협력단
Priority to US12/142,863 priority Critical patent/US20080317124A1/en
Priority to PCT/KR2008/003628 priority patent/WO2009002088A1/en
Publication of KR20080114500A publication Critical patent/KR20080114500A/en
Application granted granted Critical
Publication of KR101345544B1 publication Critical patent/KR101345544B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

기본시점 복호 및 시점 임의 접근을 지원하기 위한 다시점 비디오 부호화 시스템, 복호화 시스템 및 비트스트림 추출 시스템을 개시한다. 다시점 비디오 부호화 시스템은, 상기 비디오 신호를 기본시점 및 다시점으로 부호화하는 부호화부 및 상기 기본시점에 대한 기본시점 식별자를 다시점 비디오 부호화를 위해 확장된 파라미터 셋에 추가하는 기본시점 식별자 추가부를 포함한다.A multiview video encoding system, a decoding system, and a bitstream extraction system for supporting base view decoding and view random access are disclosed. The multiview video encoding system includes an encoder for encoding the video signal into a base view and a multiview and a base view identifier adder for adding a base view identifier for the base view to an extended parameter set for multiview video encoding. do.

MVC(Multi-view Video Coding), AVC(Advanced Video Coding), 기본시점, 시점 랜덤 억세스, 부호화, 복호화 Multi-view Video Coding (MVC), Advanced Video Coding (AVC), Base View, View Random Access, Encoding, Decoding

Description

기본시점 복호 및 시점 임의 접근을 지원하기 위한 다시점 비디오 부호화 시스템, 복호화 시스템 및 비트스트림 추출 시스템{MULTI-VIEW VIDEO CODING SYSTEM, DECODING SYSTEM, BITSTREAM EXTRACTING SYSTEM FOR DECODING BASE VIEW AND SUPPORTING VIEW RANDOM ACCESS}MULTI-VIEW VIDEO CODING SYSTEM, DECODING SYSTEM, BITSTREAM EXTRACTING SYSTEM FOR DECODING BASE VIEW AND SUPPORTING VIEW RANDOM ACCESS}

본 발명은 기본시점 복호 및 시점 임의 접근을 지원하기 위한 다시점 비디오 부호화 시스템, 복호화 시스템 및 비트스트림 추출 시스템에 관한 것이다.The present invention relates to a multiview video encoding system, a decoding system and a bitstream extraction system for supporting base view decoding and view random access.

본 발명은 정보통신부 및 정보통신연구진흥원의 IT성장동력기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2007-S-004-01, 과제명: 무안경 개인형 3D 방송기술개발].The present invention is derived from the research conducted as part of the IT growth engine technology development project of the Ministry of Information and Communication and the Ministry of Information and Telecommunications Research and Development. [Task Management Number: 2007-S-004-01] Development].

다시점 비디오 부호화(MVC: Multi-view Video Coding)는 사용자에게 보다 실감나는 입체감을 제공하기 위해 개발되고 있는 다시점 비디오는 두 대 이상의 카메라를 이용하여 촬영한 영상들을 기하학적으로 교정하고 공간적으로 처리하여 여러 방향의 다양한 시점 영상을 사용자에게 제공하는 3차원 영상처리 기술의 새로운 분야이다. 이러한 다시점 비디오는 사용자에게 시청 시점을 자유롭게 선택할 수 있는 기회를 주고 넓은 화면을 통한 3차원 입체감을 느낄 수 있는 장점을 가진다. 그러나 다시점 비디오는 시점 수가 증가하는 만큼 데이터 양도 증가하므로 효율적인 데이터 처리 방법이 요구된다.Multi-view Video Coding (MVC) is being developed to provide a more realistic three-dimensional experience to users. Multi-view Video Coding (MVC) is designed to geometrically correct and spatially process images captured by two or more cameras. It is a new field of 3D image processing technology that provides users with various viewpoint images in various directions. Such a multi-view video gives the user the opportunity to freely select a viewing point and has the advantage of being able to feel three-dimensional three-dimensional effect through a wide screen. However, multi-view video requires an efficient data processing method as the amount of data increases as the number of viewpoints increases.

현재 동화상전문가그룹(MPEG: Moving Picture Experts Group) 및 연합비디오팀(JVT: Joint Video Team)에서 진행중인 다시점 비디오 부호화(MVC: Multi-view Video Coding) 표준화의 요구사항 정의에서 기본시점(base view)이 기존 어드밴스드 비디오 부호화(AVC: Advanced Video Coding)의 복호화기에서 복호가 가능하도록 하기 위한 역호환성(backward compatibility)을 언급하고 있다.Base view in defining requirements for multi-view video coding (MVC) standardization currently underway in the Moving Picture Experts Group (MPEG) and Joint Video Team (JVT). Reference is made to backward compatibility to enable decoding in the decoder of the existing Advanced Video Coding (AVC).

즉, 어떤 임의의 시간축상에서, 한 개의 시점에 대응하는 비트스트림은 어드밴스드 비디오 부호화에 따라야 한다. 다시 말해, 다시점 비디오 부호화기에서 부호화되는 N개의 시점에 대한 영상 중에서 1개의 시점에 대한 영상이 어드밴스드 비디오 부호화에 의하여 복호화가 가능하도록 함으로써, 기존 단말을 가진 사용자에게도 다시점 비디오 콘텐츠가 공유될 수 있도록 할 수 있다.That is, on any arbitrary time axis, the bitstream corresponding to one time point must follow Advanced Video Coding. In other words, the multi-view video encoder can decode the video of one view from among the N views encoded by the advanced video encoding so that the multi-view video content can be shared among users with existing terminals. can do.

또한, 시점 임의 접근(view random access)에 대해서도 언급하고 있다. 즉, 다시점 비디오 부호화는 시점에서의 임의 접근을 지원하여야 한다. 예를 들어, 다른 시점에 있는 프레임의 최소 복호에 의하여 원하는 시점에 있는 프레임에 접근할 수 있어야 한다. 이러한 시점 임의 접근은 사용자의 요구에 따라 원하는 시간대에 있는 임의 시점에 대한 영상으로 짧은 시간에 접근할 수 있도록 하여 사용자에게 보다 원활한 콘텐츠를 제공하기 위하여 필요하다.It also mentions view random access. In other words, multi-view video encoding should support random access in view. For example, it should be possible to access a frame at a desired point in time by minimal decoding of a frame at a different point in time. Such random point of view access is necessary to provide a smoother content to the user by allowing a short time to be accessed by an image of a random point of time in a desired time zone according to the user's request.

본 발명은 역호환성(backward compatibility)을 제공을 위해 다시점 비디오 부호화(MVC: Multi-view Video Coding)에서 기본시점(base view)으로 부호화된 영상이 기존 어드밴스드 비디오 부호화(AVC: Advanced Video Coding)의 복호화기에서 복호가 가능하도록 하는 다시점 비디오 부호화 시스템을 제공한다.In order to provide backward compatibility, an embodiment of the present invention provides an image encoded with a base view in multi-view video coding (MVC) to provide an advanced video coding (AVC). Provided is a multiview video encoding system that enables decoding in a decoder.

본 발명은 다른 시점으로부터의 참조 없이 부호화되는 독립시점을 별도로 정의하여 독립적으로 복호화해야 하는 시점이 복수 개 존재하는 응용을 지원하고, 시점 임의 접근(view random access)을 용이하게 지원하기 위한 다시점 비디오 부호화 시스템을 제공한다.The present invention supports an application in which a plurality of viewpoints that must be independently decoded by separately defining independent viewpoints encoded without reference from other viewpoints, and a multiview video for easily supporting view random access. Provide an encoding system.

본 발명의 일실시예에 따른 다시점 비디오 부호화 시스템은 상기 비디오 신호를 기본시점 및 다시점으로 부호화하는 부호화부 및 상기 기본시점에 대한 기본시점 식별자를 파라미터 셋에 추가하는 기본시점 식별자 추가부를 포함한다. 여기서, 상기 기본시점은 전체 시점 중 하나의 시점으로 한정될 수 있다.A multiview video encoding system according to an embodiment of the present invention includes an encoder for encoding the video signal into a base view and a multiview and a base view identifier adder for adding a base view identifier for the base view to a parameter set. . Here, the base view may be limited to one view of all views.

본 발명의 일측면에 따르면, 상기 파라미터 셋은 상기 부호화된 비디오 신호에 선행하여 복호화 시스템으로 전송될 수 있다. 이때, 상기 기본시점으로 부호화된 비디오 신호는 선행하여 전송된 파라미터 셋의 기본시점 식별자에 기초하여 상기 복호화 시스템에서 확인될 수 있다.According to an aspect of the present invention, the parameter set may be transmitted to a decoding system prior to the encoded video signal. In this case, the video signal encoded with the base view may be identified in the decoding system based on the base view identifier of the previously transmitted parameter set.

본 발명이 일측면에 따르면, 상기 파라미터 셋은 상기 부호화된 비디오 신호 의 전송 시 실제 부호화된 비디오 신호에 대한 네트워크 추상 계층(Network Abstraction Layer, NAL) 보다 선행하여 전송되는 네트워크 추상 계층에 포함될 수 있다.According to an aspect of the present invention, the parameter set may be included in a network abstraction layer that is transmitted before a network abstraction layer (NAL) for an actual encoded video signal when the encoded video signal is transmitted.

본 발명의 일측면에 따르면, 상기 부호화부는 상기 비디오 신호를 독립시점으로 더 부호화할 수 있고, 이때, 상기 다시점 비디오 부호화 시스템은 상기 독립시점에 대한 독립시점 플래그를 네트워크 추상 계층 유닛(NAL unit)의 헤더에 추가하는 독립시점 플래그 추가부를 더 포함할 수 있다. 여기서, 상기 독립시점으로 부호화되는 비디오 신호는 다른 시점으로부터의 참조 없이 부호화될 수 있고, 상기 독립시점 플래그는 상기 네트워크 추상 계층 유닛에 해당하는 비디오 신호의 독립시점 여부를 나타낼 수 있다.According to an aspect of the present invention, the encoder may further encode the video signal to an independent view, wherein the multiview video encoding system sets an independent view flag for the independent view to a network abstract layer unit (NAL unit). It may further include an independent view flag adding unit added to the header of the. Here, the video signal encoded in the independent view may be encoded without a reference from another view, and the independent view flag may indicate whether the video signal corresponding to the network abstraction layer unit is independent.

본 발명의 일측면에 따르면, 상기 다시점 비디오 부호화 시스템은 상기 파라미터 셋에 대한 제1 네트워크 추상 계층 및 상기 부호화된 비디오 신호에 대한 제2 네트워크 추상 계층을 적어도 포함하는 비트스트림을 생성하는 비트스트림 생성부를 더 포함할 수 있고, 상기 제1 네트워크 추상 계층은 상기 제2 네트워크 추상 계층에 선행하여 전송될 수 있다.According to an aspect of the present invention, the multi-view video encoding system generates a bitstream that generates a bitstream including at least a first network abstraction layer for the parameter set and a second network abstraction layer for the encoded video signal. It may further comprise a portion, wherein the first network abstraction layer may be transmitted in advance of the second network abstraction layer.

본 발명의 일실시예에 따른 복호화 시스템은 상기 부호화된 비디오 신호에 대한 비트스트림을 수신하는 비트스트림 수신부 및 상기 수신된 비트스트림에 포함된 파라미터 셋에 기초하여 기본시점에 해당하는 비트스트림을 복호화하는 복호화부를 포함한다.A decoding system according to an embodiment of the present invention decodes a bitstream corresponding to a base view based on a bitstream receiver for receiving a bitstream of the encoded video signal and a parameter set included in the received bitstream. It includes a decoding unit.

본 발명의 일실시예에 따른 비트스트림 추출 시스템은 다시점 비디오 부호화 시스템으로부터 비트스트림을 수신하는 수신부, 파라미터 셋 및 네트워크 추상 계층 유닛의 헤더 중 적어도 하나에 기초하여 상기 비트스트림 중 적어도 일부의 비트스트림을 추출하는 비트스트림 추출부 및 상기 추출된 적어도 일부의 비트스트림을 해당하는 복호화 시스템으로 전송하는 전송부를 포함한다.A bitstream extraction system according to an embodiment of the present invention is a bitstream of at least a portion of the bitstream based on at least one of a receiver, a parameter set, and a header of a network abstract layer unit, which receives the bitstream from a multiview video encoding system. And a bitstream extracting unit for extracting the extracted bitstream and transmitting the extracted at least some bitstreams to a corresponding decoding system.

본 발명에 따르면, 역호환성(backward compatibility)을 제공을 위해 다시점 비디오 부호화(MVC: Multi-view Video Coding)에서 기본시점(base view)으로 부호화된 영상이 기존 어드밴스드 비디오 부호화(AVC: Advanced Video Coding)의 복호화기에서 복호가 가능하도록 할 수 있다.According to the present invention, in order to provide backward compatibility, an image encoded with a base view in multi-view video coding (MVC) is converted to conventional advanced video coding (AVC). Can be decoded by the decoder.

본 발명에 따르면, 다른 시점으로부터의 참조 없이 부호화되는 독립시점을 별도로 정의하여 독립적으로 복호화해야 하는 시점이 복수 개 존재하는 응용을 지원하고, 시점 임의 접근(view random access)을 용이하게 지원할 수 있다.According to the present invention, it is possible to support an application in which a plurality of viewpoints to be independently decoded by separately defining independent viewpoints encoded without reference from other viewpoints, and easily support view random access.

이하 첨부된 도면을 참조하여 본 발명에 따른 다양한 실시예를 상세히 설명하기로 한다.Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.

본 명세서에서 '어드밴스드 비디오 부호화(Advanced Video Coding, AVC)'라 함은 AVC/H.264의 규격에 따른 부호화 방법을 의미할 수 있다. AVC/H.264에서는 네트워크 이식성 향상을 위해 네트워크 추상 계층(Network Abstraction Layer, 이하 NAL)을 채택하고 있다. 상기 NAL의 채택으로 AVC/H.264에서의 비트스트림은 여러 다양한 네트워크를 통해 쉽게 전송될 수 있다. 즉, AVC/H.264는 다양한 네트워 크에서 자유롭게 이용될 수 있도록, 특히 서로 다른 이종 네트워크 간에 손쉬운 데이터 이동이 일어날 수 있도록 하기 위해서 동영상 신호를 압축하는 기능을 담당하는 계층과 이 정보를 네트워크 상에서 전송될 수 있는 형태로 데이터를 특정한 형태로 변환하는 기능을 담당하는 계층으로 분할하였다. 이 중 압축기능을 담당하는 계층을 비디오 코딩 계층(Video Coding Layer, 이하 VCL)이라고 부르며, 네트워크 적In the present specification, "Advanced Video Coding (AVC)" may mean an encoding method according to the standard of AVC / H.264. AVC / H.264 adopts Network Abstraction Layer (NAL) to improve network portability. The adoption of the NAL allows bitstreams in AVC / H.264 to be easily transmitted over many different networks. In other words, AVC / H.264 transmits this information on the network and the layer responsible for compressing the video signal so that it can be freely used in various networks, in particular, to facilitate data movement between different heterogeneous networks. It is divided into hierarchies that are responsible for converting data into specific forms. Among these, the compression layer is called a video coding layer (VCL).

응기능을 담당하는 계층을 NAL이라고 부른다. 이때, 다양한 종류의 네트워크를 통해 비트스트림 혹은 패킷 형태의 압축 데이터가 전송될 수 있는데, 이 데이터는 모든 네트워크에 걸쳐 동일한 데이터 형식인 NAL 유닛(unit)으로 재구성되어 있다. 아래 표 1은 AVC/H.264의 규격에서 네트워크 추상 계층 유닛 타입(이하, nal_unit_type) 코드들과 그 코드들의 정의 내용을 보이고 있다. 하기 표 1에서 1부터 5까지의 nal_unit_type을 갖는 NAL 유닛을 VCL NAL 유닛이라 하고, 그 나머지 NAL 유닛은 non-VCL 유닛이라 한다.The hierarchy responsible for responding is called NAL. At this time, compressed data in the form of a bitstream or a packet may be transmitted through various types of networks. The data is reconstructed in NAL units having the same data format over all networks. Table 1 below shows network abstract layer unit type codes (hereinafter, nal_unit_type) codes and their definitions in the AVC / H.264 standard. In Table 1 below, a NAL unit having a nal_unit_type of 1 to 5 is referred to as a VCL NAL unit, and the remaining NAL units are referred to as non-VCL units.


nal_unit_type

nal_unit_type

NAL 유닛의 내용과 RBSP 구문 구조

NAL unit contents and RBSP syntax structure

C

C

0

0

Unspecified

Unspecified


1

One
Coded slice of a non-IDR picture
slice_layer_without _partitioning_rbsp()
Coded slice of a non-IDR picture
slice_layer_without _partitioning_rbsp ()

2, 3, 4

2, 3, 4

2

2
Coded slice data partition A
slice_data_partition _a_layer_rbsp()
Coded slice data partition A
slice_data_partition _a_layer_rbsp ()

2

2

3

3
Coded slice data partition B
slice_data_partition _b_layer_rbsp()
Coded slice data partition B
slice_data_partition _b_layer_rbsp ()

3

3

4

4
Coded slice data partition C
slice_data_partition _c_layer_rbsp()
Coded slice data partition C
slice_data_partition _c_layer_rbsp ()

4

4

5

5
Coded slice of an IDR picture
slice_layer_without _partitioning_rbsp()
Coded slice of an IDR picture
slice_layer_without _partitioning_rbsp ()

2, 3

2, 3

6

6
supplemental enhancement information (SEI)
sei_rbsp()
supplemental enhancement information (SEI)
sei_rbsp ()

5

5

7

7
Sequence parameter set
seq_parameter _set_rbsp()
Sequence parameter set
seq_parameter _set_rbsp ()

0

0

8

8
Picture parameter set
pic_parameter _set_rbsp()
Picture parameter set
pic_parameter _set_rbsp ()

1

One

9

9
Access unit delimiter
access_unit_delimiter _rbsp()
Access unit delimiter
access_unit_delimiter _rbsp ()

6

6

10

10
End of sequence
end_of_seq_rbsp()
End of sequence
end_of_seq_rbsp ()

7

7

11

11
End of stream
end_of_stream_rbsp()
End of stream
end_of_stream_rbsp ()

8

8

12

12
Filter data
filter_data_rbsp()
Filter data
filter_data_rbsp ()

9

9

3...23

3 ... 23

Reserved

Reserved

23...31

23 ... 31

Unspecified

Unspecified

다시점 비디오 부호화(Multi-view Video Coding, MVC)를 이용하는 콘텐츠는 부호화된 비트스트림이 한 시점의 비디오만을 디코딩하는 어드밴스드 비디오 부호화의 복호화기 또는 다시점 비디오를 전부 디코딩하는 다시점 비디오 부호화의 복호화기로 입력될 수 있다. 이때, 상기 비트스트림의 형태는 아래와 같이 2가지 경우로 분류될 수 있다.Content using Multi-view Video Coding (MVC) can be a decoder of Advanced Video Coding in which the encoded bitstream decodes only video of one view or a decoder of Multiview Video Coding in decoding all of multiview video. Can be entered. In this case, the form of the bitstream may be classified into two cases as follows.

1. 다시점 비디오 부호화에 의해 부호화된 비트스트림이 전체적으로 한 개의 비트스트림으로 복호화기에 입력되는 경우(비트스트림 추출기(bitstream extractor)가 없는 경우).1. When a bitstream encoded by multi-view video encoding is input to the decoder as a whole bitstream (no bitstream extractor).

2. 다시점 비디오 부호화에 의해 부호화된 비트스트림이 NAL 유닛에 대한 정보를 이용하여 필요한 NAL만이 추출된 비트스트림으로 복호화기에 입력되는 경우(비트스트림 추출기가 있는 경우).2. The bitstream encoded by multi-view video encoding is input to the decoder as a bitstream in which only the required NAL is extracted using information on the NAL unit (if there is a bitstream extractor).

도 1은 다시점 비디오 부호화에 의해 부호화된 비트스트림이 전체적으로 한 개의 비트스트림으로 복호화기에 입력되는 응용시스템의 일례이다. 즉, 도 1은 상술한 두 가지 경우 중 첫 번째 경우를 나타내는 일례로서 다시점 비디오 부호화 부호화기(101)의 후단이나 다시점 비디오 부호화 복호화기(102) 또는 어드밴스드 비디오 부호화 복호화기(103)의 전단에 비트스트림 추출기가 없는 경우를 나타낸다. 이때, 다시점 비디오 부호화 복호화기(102)는 입력되는 상기 부호화된 비트스트림을 아무런 문제 없이 복호할 수 있다.1 is an example of an application system in which a bitstream encoded by multiview video encoding is input to a decoder as a whole. That is, FIG. 1 is an example showing the first case of the two cases described above, and is located at the rear end of the multiview video encoding encoder 101 or the front end of the multiview video encoding decoder 102 or the advanced video encoding decoder 103. The case where there is no bitstream extractor. In this case, the multi-view video encoding decoder 102 may decode the input bitstream without any problem.

그러나, 어드밴스드 비디오 부호화 복호화기(103)는 입력되는 상기 부호화된 비트스트림 내에서 기본시점(base view)의 수가 복수이면 한 시점의 복호가 불가능하다. 이는 기본시점에 대한 부호화된 슬라이스 유닛(coded slices unit)에 프리픽스(prefix) NAL 유닛이 선행하기 때문이다. 도 2는 부호화된 슬라이스 유닛의 일례이다. 즉, 다시점 비디오 부호화에서는 'nal_unit_type = 1~5'(201)로 설정되는 기본시점의 부호화된 슬라이스 유닛(coded slices unit)은 도 2에서와 같이 'nal_unit_type = 14'(202)와 같은 타입의 프리픽스 NAL 유닛이 선행된다. 여기서, 'nal_unit_type = 14'(202)는 NAL 유닛의 종류를 나타내는 식별자인 nal_unit_type 중에서 예약된 nal_unit_type을 통해 다시점 비디오 부호화에서 기본시점에 대한 부호화된 슬라이스 유닛을 나타내기 위해 정의될 수 있고, 'nal_unit_header_svc_mvc_extention()'만 설정될 수 있다.However, the advanced video encoding decoder 103 is unable to decode at one time when the number of base views in the encoded bitstream is input. This is because a prefix NAL unit is preceded by a coded slices unit for the base view. 2 is an example of an encoded slice unit. That is, in multi-view video encoding, the coded slices unit of the base view set to 'nal_unit_type = 1 to 5' 201 is of the same type as 'nal_unit_type = 14' (202) as shown in FIG. 2. The prefix NAL unit is preceded. Here, 'nal_unit_type = 14' 202 may be defined to indicate an encoded slice unit for a base view in multi-view video encoding through nal_unit_type reserved among nal_unit_type which is an identifier indicating a type of NAL unit, and may be defined as' nal_unit_header_svc_mvc_extention. Only () 'can be set.

다시 말해, 다시점 비디오 부호화 부호화기(101)에서 도 2의 일례와 같이 상기 프리픽스 NAL 유닛이 정의되면, 다시점 비디오 복호화에 필요한 헤더 정보를 정의하는 'nal_unit_header_svc_mvc_extension()' 구문을 실행하게 되며, 상기 프리픽스 NAL 유닛에 뒤이어 오는 상기 기본시점의 상기 부호화된 슬라이스 유닛에서 시점 식별자 'view_id'의 정보를 얻게 된다. 그러나, 어드밴스드 비디오 부호화 복호화기(103)는 표 1의 15행에서와 같이 상기 프리픽스 NAL 유닛을 인식하지 못하기 때문에 뒤이어 입력되는 NAL 유닛에 대한 상기 시점 식별자를 얻지 못하고, 단순히 'nal_unit_type = 1~5'(201)로 설정된 부호화된 슬라이스 유닛을 복호하게 된다. 이때, 상술한 바와 같이 상기 기본시점의 수가 복수이면, 'nal_unit_type = 1~5'(201)로 설정된 상기 부호화된 슬라이스 유닛이 2개 이상의 시점에 대한 비트스트림이 서로 참조를 통해 부호화되었기 때문에 어드밴스드 비디오 부호화 복호화기(103)는 상기 비트스트림을 정상적으로 복호하지 못하게 된다. 따라서, 다시점 비디오 부호화에서 기본시점은 한 개로만 설정되어야 한다. 그러나, 다시점 비디오 부호화의 응용에 따라서, 독립적으로 복호화되어야 하는 시점이 복수 개 존재해야 하는 응용이 존재한다.In other words, when the prefix NAL unit is defined in the multi-view video encoding encoder 101 as shown in the example of FIG. 2, the 'nal_unit_header_svc_mvc_extension ()' syntax, which defines header information required for multi-view video decoding, is executed. Information of a view identifier 'view_id' is obtained from the encoded slice unit of the base view following the NAL unit. However, since the advanced video encoding decoder 103 does not recognize the prefix NAL unit as shown in row 15 of Table 1, the advanced video encoding decoder 103 does not obtain the viewpoint identifier for a subsequent NAL unit, and simply 'nal_unit_type = 1 to 5'. The encoded slice unit set to '201 is decoded. In this case, when the number of the base views is plural as described above, the encoded slice units set to 'nal_unit_type = 1 to 5' 201 are advanced video because bitstreams of two or more views are encoded with reference to each other. The encoding decoder 103 cannot normally decode the bitstream. Therefore, in multi-view video encoding, only one base view should be set. However, depending on the application of multi-view video encoding, there are applications in which a plurality of viewpoints to be independently decoded exist.

도 3은 다시점 비디오 부호화에 의해 부호화된 비트스트림이 NAL 유닛에 대한 정보를 이용하여 필요한 NAL만이 추출된 비트스트림으로 복호화기에 입력되는 응용 시스템의 일례이다. 즉, 도 3은 상술한 두 가지 경우 중 두 번째 경우를 나타내는 일례로서 다시점 비디오 부호화 부호화기(101)의 후단이나 다시점 비디오 부호화 복호화기(102) 또는 어드밴스드 비디오 부호화 복호화기(103)의 전단에 비트스트림 추출기가 존재하는 경우를 나타낸다. 이 경우, 상술한 바와 같이 다시점 비디오 부호화 부호화기(301)에서 부호화된 비트스트림은 비트스트림 추출기(302)에서 NAL 유닛에 대한 정보를 이용하여 필요한 NAL에 대한 비트스트림이 추출되어 다시점 비디오 부호화 복호화기(303) 또는 어드밴스드 비디오 부호화 복호화기(304)로 입력된다.FIG. 3 is an example of an application system in which a bitstream encoded by multi-view video encoding is input to a decoder as a bitstream from which only necessary NALs are extracted using information on a NAL unit. That is, FIG. 3 is an example showing the second case of the two cases described above, and is located at the rear end of the multiview video encoding encoder 101 or the front end of the multiview video encoding decoder 102 or the advanced video encoding decoder 103. It shows the case where the bitstream extractor is present. In this case, as described above, in the bitstream encoded by the multiview video encoding encoder 301, a bitstream for a required NAL is extracted by using the information on the NAL unit in the bitstream extractor 302 to decode the multiview video encoding. Is input to the device 303 or the advanced video encoding decoder 304.

이 경우에도 다시점 비디오 부호화 부호화기(301)에서 출력되는 비트스트림이 다시점 비디오 부호화 복호화기(303)로 입력될 때는 상기 비트스트림을 아무런 문제없이 복호할 수 있고, 어드밴스드 비디오 부호화 복호화기(304)에서 독립적으로 복호화해야 하는 시점이 복수 개 존재하는 응용을 지원하도록 하기 위해서는, 상기 독립시점에 대한 정보를 통해 비트스트림 추출기(302)에서 상기 독립시점으로 부호화된 비디오 신호에 대한 비트스트림을 추출하여 어드밴스드 비디오 부호화 복호화기(304)로 입력될 수 있도록 지원해야 한다.Even in this case, when the bitstream output from the multiview video encoding encoder 301 is input to the multiview video encoding decoder 303, the bitstream may be decoded without any problem, and the advanced video encoding decoder 304 may be used. In order to support an application in which a plurality of time points that need to be independently decoded are supported, the bitstream extractor 302 extracts a bitstream of a video signal encoded to the independent time point through the information on the independent time point. It must be supported to be input to the video encoding decoder 304.

따라서, 본 발명의 일실시예에서는 기본시점에 대한 기본시점 식별자를 다시점 비디오 부호화를 위해 확장된 시퀀스 파라미터 셋에 추가하여 어드밴스드 비디오 부호화와의 역호환성을 지원한다. 또한, 기본시점과 마찬가지로 다른 시점으로부터의 참조 없이 부호화되는 독립시점을 별도로 정의함으로써 복호화해야 하는 시점이 복수 개 존재해야 하는 응용도 지원하고, 시점 임의 접근이 용이하도록 지원한다.Therefore, in an embodiment of the present invention, the base view identifier for the base view is added to the extended sequence parameter set for the multiview video encoding to support backward compatibility with the advanced video encoding. In addition, similarly to the base view, an independent view that is encoded without a reference from another view is separately defined to support an application that requires a plurality of views to be decoded, and to facilitate access of a view randomly.

도 4는 본 발명의 일실시예에 있어서, 다시점 비디오 부호화 시스템의 내부 구성을 설명하기 위한 블록도이다. 여기서, 본 발명의 일실시예에 따른 다시점 비디오 부호화 시스템(400)은 복수의 카메라를 통해 촬영된 비디오 신호를 다시점 비디오 부호화를 통해 부호화한다. 이때, 다시점 비디오 부호화 시스템(400)은 도 4에 도시된 바와 같이 부호화부(401), 기본시점 식별자 추가부(402) 및 독립시점 플래그 추가부(403)를 포함한다.4 is a block diagram illustrating an internal configuration of a multiview video encoding system according to an embodiment of the present invention. Here, the multi-view video encoding system 400 according to an embodiment of the present invention encodes video signals photographed through a plurality of cameras through multi-view video encoding. In this case, the multi-view video encoding system 400 includes an encoder 401, a base view identifier adder 402, and an independent view flag adder 403, as shown in FIG. 4.

부호화부(401)는 상기 비디오 신호를 기본시점 및 다시점으로 부호화한다. 이때, 상기 기본시점은 전체 시점 중 하나의 시점으로 한정될 수 있고, 상기 기본시점에 해당하는 비디오 신호는 다른 시점으로부터의 참조 없이 부호화될 수 있다.The encoder 401 encodes the video signal into a base view and a multiview. In this case, the base view may be limited to one view of all views, and a video signal corresponding to the base view may be encoded without reference from another view.

기본시점 식별자 추가부(402)는 상기 기본시점에 대한 기본시점 식별자를 파라미터 셋에 추가한다. 이때, 상기 파라미터 셋은 상기 부호화된 비디오 신호에 선행하여 복호화 시스템(410)으로 전송될 수 있다. 즉, 상기 기본시점으로 부호화된 비디오 신호는 선행하여 전송된 파라미터 셋의 기본시점 식별자에 기초하여 상기 복호화 시스템에서 확인될 수 있다. 보다 자세하게, 상기 파라미터 셋은 상기 부호화된 비디오 신호의 전송 시 실제 부호화된 비디오 신호에 대한 NAL 보다 선행하여 전송되는 NAL에 포함될 수 있다.The base view identifier adder 402 adds a base view identifier for the base view to the parameter set. In this case, the parameter set may be transmitted to the decoding system 410 prior to the encoded video signal. That is, the video signal encoded with the base view can be identified in the decoding system based on the base view identifier of the previously transmitted parameter set. In more detail, the parameter set may be included in the NAL transmitted before the NAL for the actual encoded video signal when the encoded video signal is transmitted.

도 5는 비트스트림 구조의 일례이다. 도 5에서 비트스트림(500)은 5개의 NAL로 구성되어 있고, 각각의 NAL은 NAL 유닛과 RBSP(Raw Byte Sequence Payload)로 구성되어 있다. 여기서, 상기 RBSP에는 SPS(Sequence Parameter Set) 및 PPS(Picture Parameter Set) 등의 정보를 알려주는 파라미터 셋이나 VCL에 해당하는 슬라이스 데이터가 포함될 수 있다. 또한, 상기 NAL 유닛의 헤더에는 해당하는 비디오 신호의 시점 식별자가 포함될 수 있다.5 is an example of a bitstream structure. In FIG. 5, the bitstream 500 includes five NALs, and each NAL includes a NAL unit and a raw byte sequence payload (RBSP). Here, the RBSP may include a slice set corresponding to a parameter set or a VCL indicating information such as a sequence parameter set (SPS) and a picture parameter set (PPS). In addition, the header of the NAL unit may include a view identifier of a corresponding video signal.

즉, 기본시점 식별자 추가부(402)에서 실제 부호화된 비디오 신호에 대한 NAL 보다 먼저 전송되는 상기 SPS와 같은 파라미터 셋에 상기 기본시점에 대한 기본시점 식별자를 추가함으로써, 이후 비트스트림을 수신한 복호화 시스템(410)이 상기 기본시점 식별자를 얻은 후 상기 NAL 유닛의 헤더의 시점 식별자와 비교하여 기본시점으로 부호화된 비디오 신호에 대한 NAL을 효율적으로 확인할 수 있다.In other words, the base view identifier adder 402 adds the base view identifier for the base view to the same parameter set as the SPS transmitted before the NAL for the actual encoded video signal, thereby receiving the bitstream. After 410 obtains the base view identifier, it may compare the view identifier of the header of the NAL unit to efficiently check the NAL for the video signal encoded at the base view.

표 2는 동화상전문가그룹(Moving Picture Experts Group, MPEG) 및 연합비디오팀(Joint Video Team, JVT)에서 정의한 연합 다시점 비디오 모델(Joint Multi-view Video Model, JMVM)의 구문 중 'seq_parameter_set_mvc_extension()' 구문에 한 개의 시점으로 한정된 기본시점에 대한 기본시점 식별자(base_view_id)를 정의(표 2의 3행)하고 있다. 즉, 표 2에서와 같이 기존의 어드밴스드 비디오 부호화 복호화기에서 상기 기본시점 식별자를 통해 기본시점으로 부호화된 비디오 신호의 싱(parsing)하지 않고도 복호화할 수 있게 된다. 즉, 효율적으로 다시점 비디오 부호화와 어드밴스드 비디오 부호화간의 역호환성(backward compatibility)를 제공할 수 있게 된다.Table 2 shows the 'seq_parameter_set_mvc_extension ()' syntax of the Joint Multi-view Video Model (JMVM) as defined by the Moving Picture Experts Group (MPEG) and the Joint Video Team (JVT). The syntax defines a base view identifier (base_view_id) for a base view limited to one view (line 3 in Table 2). That is, as shown in Table 2, the conventional advanced video encoder can decode the video signal encoded at the base view through the base view identifier without parsing. That is, it is possible to efficiently provide backward compatibility between multiview video encoding and advanced video encoding.

seq_parameter_set_mvc_extension(){seq_parameter_set_mvc_extension () { CC DescriptorDescriptor mummum __ viewsviews __ minusminus _1_One ue(v)ue (v) basebase __ viewview __ idid ue(v)ue (v) for(i = 0; i <= num_views_minus_1; i++)  for (i = 0; i <= num_views_minus_1; i ++) viewview __ idid [i][i] ue(v)ue (v) for(i = 0; i <= num_views_minus_1; i++){  for (i = 0; i <= num_views_minus_1; i ++) { numnum __ anchoranchor __ refsrefs __ l0l0 [i][i] ue(v)ue (v) for(j = 0; j <= num_anchor_refs_l0[i]; j++)    for (j = 0; j <= num_anchor_refs_l0 [i]; j ++) anchoranchor __ refref __ l0l0 [i][j][i] [j] ue(v)ue (v) numnum __ anchoranchor __ refsrefs __ l1l1 [i][i] ue(v)ue (v) for(j = 0; j <= num_anchor_refs_l1[i]; j++)    for (j = 0; j <= num_anchor_refs_l1 [i]; j ++) anchoranchor __ refref __ l0l0 [i][j][i] [j] ue(v)ue (v) }  } for(i = 0; i <= num_views_minus_1; i++){  for (i = 0; i <= num_views_minus_1; i ++) { numnum __ nonnon __ anchoranchor __ refsrefs __ l0l0 [i][i] ue(v)ue (v) for(j = 0; j <= num_ non_anchor_refs_l0[i]; j++)    for (j = 0; j <= num_ non_anchor_refs_l0 [i]; j ++) nonnon __ anchoranchor __ refref __ l0l0 [i][j][i] [j] ue(v)ue (v) numnum _ _ nonnon __ anchoranchor __ refsrefs __ l1l1 [i][i] ue(v)ue (v) for(j = 0; j <= num_ non_anchor_refs_l1[i]; j++)    for (j = 0; j <= num_ non_anchor_refs_l1 [i]; j ++) nonnon __ anchoranchor __ refref __ l1l1 [i][j][i] [j] ue(v)ue (v) }  } }}

여기서, 상기 'num_views_minus_1'는 상기 비트스트림에서 부호화된 시점의 전체 수보다 1 작은 수를 의미할 수 있다. 예를 들어, 상기 'num_views_minus_1'는 0에서 1023의 범위에 속한 수를 의미할 수 있다.Here, 'num_views_minus_1' may mean a number smaller than the total number of views encoded in the bitstream. For example, the 'num_views_minus_1' may mean a number in a range of 0 to 1023.

또한, 상기 'base_view_id'는 상기 기본 시점의 'view_id'를 의미할 수 있고, 상기 'view_id[i]'는 변수 'i'에 의해 지시되는 부호화 순서를 갖는 시점의 'view_id'를 나타낼 수 있다.In addition, the 'base_view_id' may mean 'view_id' of the base view, and the 'view_id [i]' may represent 'view_id' of a view having an encoding order indicated by the variable 'i'.

상기 'num_anchor_refs_ l0[i]'는 'RefPicList()'를 위해 가능한 내부-시점 예측 참조의 수를 나타낼 수 있고, 상기 'RefPicList()'는 상기 'view_id[i]'와 동일한 'view_id'를 갖는 앵커 픽쳐(anchor ficture)를 위해 이용되는 구문을 의미할 수 있다. 이때, 상기 'num_anchor_refs_ l0[i]'의 값은 참조 프레임의 수인 'num_ref_frames' 이하일 수 있다.'Num_anchor_refs_' l0 [i] 'may represent the number of possible inner-view prediction references for' RefPicList () ', and' RefPicList () 'is the anchor picture having the same' view_id 'as the' view_id [i] '. It can mean a syntax used for anchor ficture). At this time, the 'num_anchor_refs_ The value of l0 [i] 'may be equal to or less than'num_ref_frames', which is the number of reference frames.

상기 'ue(v)'는 v-비트를 가진 부호가 없는 정수형 Exp-Golomb 코드를 의미할 수 있다.'Ue (v)' may mean an unsigned integer Exp-Golomb code with v-bits.

또한, 부호화부(401)는 상기 비디오 신호를 독립시점으로 더 부호화할 수 있고, 이때, 도 4에 도시된 독립시점 플래그 추가부(403)는 상기 독립시점에 대한 독립시점 플래그를 NAL 유닛의 헤더에 추가한다. 여기서, 상기 독립시점으로 부호화되는 비디오 신호는 다른 시점으로부터의 참조 없이 부호화될 수 있다. 이는 독립적으로 복호화해야 하는 시점이 다수개 존재하는 응용이 존재하고, 상기 응용에 대해 시점 랜덤 억세스를 지원하기 위함이다.In addition, the encoder 401 may further encode the video signal to an independent view. In this case, the independent view flag adder 403 illustrated in FIG. 4 may set an independent view flag for the independent view as a header of a NAL unit. Add to In this case, the video signal encoded in the independent view may be encoded without reference from another view. This is because there are applications having a plurality of time points that need to be independently decoded, and to support view point random access for the applications.

표 3은 동화상전물가그룹 및 연합비디오팀에서 정의한 연합 다시점 비디오 모델의 구문 중 'nal_unit_header_svc_mvc_extension()' 구문을 나타내고, 표 4는 'nal_unit_header_svc_mvc_extension()' 구문을 변경하여 독립시점 플래그를 추가한 일례를 나타낸다. 즉, 표 4는 본 발명의 일실시예에 따른 다시점 비디오 부호화 시스템(400)에서 헤더 정보에 상기 독립시점 플래그를 추가한 일례를 나타낸다.Table 3 shows the syntax of 'nal_unit_header_svc_mvc_extension ()' among the syntaxes of the federated multi-view video model defined by the moving image group and the federation video team. Indicates. That is, Table 4 shows an example in which the independent view flag is added to header information in the multi-view video encoding system 400 according to an embodiment of the present invention.

nal_unit_header_svc_mvc_extension(){nal_unit_header_svc_mvc_extension () { CC DescriptorDescriptor svcsvc __ mvcmvc __ flagflag ALLALL u(1)u (1) if(!svc_mvc_flag){  if (! svc_mvc_flag) { idridr __ flagflag ALLALL u(1)u (1) prioritypriority __ idid ALLALL u(6)u (6) temporaltemporal __ idid ALLALL u(3)u (3) dependencydependency __ idid ALLALL u(3)u (3) qualityquality __ idid ALLALL u(2)u (2) layerlayer __ basebase __ flagflag ALLALL u(1)u (1) useuse __ basebase __ predictionprediction __ flagflag ALLALL u(1)u (1) discardablediscardable __ flagflag ALLALL u(1)u (1) outputoutput __ flagflag ALLALL u(1)u (1) reservedreserved __ zerozero __ fourfour __ bitsbits ALLALL u(3)u (3) }else{  } else { prioritypriority __ idid ALLALL u(6)u (6) temporaltemporal __ idid ALLALL u(3)u (3) anchoranchor __ picpic __ flagflag ALLALL u(1)u (1) viewview __ idid ALLALL u(10)u (10) idridr __ flagflag ALLALL u(1)u (1) interinter __ viewview __ flagflag ALLALL u(1)u (1) reservedreserved __ zerozero __ oneone __ bitbit ALLALL u(1)u (1) }  } nalUnitHeaderBytes += 3  nalUnitHeaderBytes + = 3 }}

nal_unit_header_svc_mvc_extension(){nal_unit_header_svc_mvc_extension () { CC DescriptorDescriptor svcsvc __ mvcmvc __ flagflag ALLALL u(1)u (1) if(!svc_mvc_flag){  if (! svc_mvc_flag) { idridr __ flagflag ALLALL u(1)u (1) prioritypriority __ idid ALLALL u(6)u (6) temporaltemporal __ idid ALLALL u(3)u (3) dependencydependency __ idid ALLALL u(3)u (3) qualityquality __ idid ALLALL u(2)u (2) layerlayer __ basebase __ flagflag ALLALL u(1)u (1) useuse __ basebase __ predictionprediction __ flagflag ALLALL u(1)u (1) discardablediscardable __ flagflag ALLALL u(1)u (1) outputoutput __ flagflag ALLALL u(1)u (1) reservedreserved __ zerozero __ fourfour __ bitsbits ALLALL u(3)u (3) nalUnitHeaderBytes += 3    nalUnitHeaderBytes + = 3 }else{  } else { prioritypriority __ idid ALLALL u(6)u (6) temporaltemporal __ idid ALLALL u(3)u (3) interinter __ viewview __ flagflag ALLALL u(1)u (1) If(nal_unit_type == 20){If (nal_unit_type == 20) { anchoranchor __ picpic __ flagflag ALLALL u(1)u (1) viewview __ idid ALLALL u(10)u (10) idridr __ flagflag ALLALL u(1)u (1) IndependentIndependent __ viewview __ flagflag ALLALL u(1)u (1) nalUnitHeaderBytes += 3nalUnitHeaderBytes + = 3 }else{} else { reservedreserved __ zerozero __ fivefive __ bitsbits ALLALL u(5)u (5) nalUnitHeaderBytes += 2nalUnitHeaderBytes + = 2 }} }  } }}

여기서, 상기 'priority_id'는 상기 NAL 유닛을 위한 우선순위를 나타낼 수 있다. 상기 'priority_id'는 값이 작을수록 더 높은 우선순위를 의미할 수 있다. 상기 NAL 유닛이 프리픽스(prefix) NAL 유닛인 경우, 상기 우선순위 식별자는 복호화 순서에서 상기 프리픽스 NAL 유닛에 바로 뒤따르는 조합된 NAL 유닛에 적용될 수 있다. 상기 'priority_id'의 가능한 어떤 값을 'pid'라고 하면, non-VCL(video coding layer) NAL 유닛 및 SEI(Supplemental Enhancement Information) 메시지뿐만 아니라 상기 'pid' 보다 큰 'priority_id'를 갖는 모든 VCL NAL 유닛을 폐기함으로써 얻어질 수 있는 비트스트림은 추천 국제 표준을 따를 수 있다.Here, the 'priority_id' may indicate a priority for the NAL unit. The smaller 'priority_id' may mean higher priority. If the NAL unit is a prefix NAL unit, the priority identifier may be applied to the combined NAL unit immediately following the prefix NAL unit in decoding order. When any possible value of the 'priority_id' is called 'pid', all VCL NAL units having a 'priority_id' greater than the 'pid' as well as a non-VCL (Video Coding Layer) NAL unit and a Supplemental Enhancement Information (SEI) message The bitstream obtainable by discarding may follow the recommended international standard.

상기 'temporal_id'는 상기 NAL 유닛의 일시적인 확장성의 레벨을 의미할 수 있다. 하나의 NAL을 위한 'temporal_id'가 존재하지 않는다면, 상기 'temporal_id'의 값은 조합된 프리픽스 네트워크 계층 단계의 'temporal_id'의 값으로 추정될 수 있다.The 'temporal_id' may mean a level of temporary scalability of the NAL unit. If there is no 'temporal_id' for one NAL, the value of 'temporal_id' may be estimated as the value of 'temporal_id' of the combined prefix network layer step.

상기 'inter_view_flag'는 0의 값을 가질 때 현재 NAL 유닛에서 부호화된 픽쳐(picture)가 내부 시점 예측에 이용되지 않음을, 1의 값을 가질 때 상기 부호화된 픽쳐가 상기 내부 시점 예측에 이용됨을 각각 의미할 수 있다.When the 'inter_view_flag' has a value of 0, the picture encoded in the current NAL unit is not used for internal view prediction. When the 'inter_view_flag' has a value of 1, the encoded picture is used for the internal view prediction. Can mean.

상기 'reserved_zero_one_bit' 및 상기 'reserved_zero_five_bit'는 0의 값을 가질 것이다. 상기 'reserved_zero_one_bit' 및 상기 'reserved_zero_five_bit'의 다른 값은 후에 ITU-T | ISO/IEC에 의해 정의될 수 있다. 디코더는 상기 'reserved_zero_one_bit' 및 상기 'reserved_zero_five_bit'의 값을 무시할 수 있다.The 'reserved_zero_one_bit' and the 'reserved_zero_five_bit' will have a value of zero. The other values of the 'reserved_zero_one_bit' and the 'reserved_zero_five_bit' are later described in ITU-T | Can be defined by ISO / IEC. The decoder may ignore the values of 'reserved_zero_one_bit' and 'reserved_zero_five_bit'.

상기 기본시점이 한 개의 시점으로 한정되면, 표 3에서와 같이 기존에 'nal_unit_header_svc_mvc_extension()' 구문에 정의되어 있는 'anchor_pic_flag(1bit)', 'view_id(10bit)' 및 'idr_flag(1bit)'는 NAL 유닛에 대한 유형을 나타내는 'nal_unit_type'값에 의하여 알 수 있는 값이므로 표 4와 같이 변경함으로써 부호화 비트를 줄일 수 있다.When the basic time point is limited to one time point, 'anchor_pic_flag (1bit)', 'view_id (10bit)', and 'idr_flag (1bit)', which are previously defined in the syntax 'nal_unit_header_svc_mvc_extension ()', as shown in Table 3, are NAL. Since the value can be known by the 'nal_unit_type' value indicating the type of the unit, the coded bit can be reduced by changing as shown in Table 4.

즉, 'nal_unit_type = 14'로 설정되는 프리픽스 NAL 유닛을 따르는 'nal_unit_type = 1~5'로 설정된 NAL에서 슬라이스 유형을 나타내는 'slice_type'에 의하여 상기 'anchor_pic_flag(1bit)'에 대한 정보를 얻을 수 있다. 예를 들어, 상기 'slice_type'의 값이 2, 4, 7 및 9인 경우에 상기 'anchor_pic_flag'의 값은 1을, 그렇지 않은 경우에 상기 'anchor_pic_flag'의 값은 0을 갖게 된다.That is, information about the 'anchor_pic_flag (1bit)' may be obtained by 'slice_type' indicating a slice type in the NAL set to 'nal_unit_type = 1 to 5' along the prefix NAL unit set to 'nal_unit_type = 14'. For example, when the values of 'slice_type' are 2, 4, 7, and 9, the value of 'anchor_pic_flag' has a value of 1, and if not, the value of 'anchor_pic_flag' has a value of 0.

또한, 상기 'seq_parameter_set_mvc_extension()' 구문이 상기 기본시점의 기본시점 식별자를 위한 정보를 포함한다면, 'nal_unit_type = 1~5'로 설정된 NAL 유닛의 헤더를 통해 해당 NAL이 상기 기본시점에 대응됨을 간편하게 알 수 있다. 따라서, 상기 프리픽스 NAL 유닛이 상기 기본시점 식별자를 위한 정보를 필요로 하지 않게 된다.In addition, if the 'seq_parameter_set_mvc_extension ()' syntax includes information for the basic time identifier of the basic time, it is easy to know that the corresponding NAL corresponds to the basic time through the header of the NAL unit set to 'nal_unit_type = 1 to 5'. Can be. Thus, the prefix NAL unit does not need information for the base view identifier.

뿐만 아니라, 상기 'idr_flag(1bit)'는 상기 'nal_unit_type = 14'를 따르는 'nal_unit_type'에 의해 알 수 있다. 즉, 상기 'nal_unit_type = 5'인 경우 슬라이스는 IDR(Instantaneous Decoding Refresh) 픽쳐이고, 그렇지 않은 경우, non-IDR 픽쳐이다.In addition, the 'idr_flag (1 bit)' can be known by the 'nal_unit_type' following the 'nal_unit_type = 14'. That is, when the 'nal_unit_type = 5', the slice is an Instantaneous Decoding Refresh (IDR) picture, otherwise, the slice is a non-IDR picture.

내부-시점 예측(inter-view prediction) 없이 독립적으로 부호화된 독립시점의 NAL 유닛은 예약된 nal_unit_type 중 하나인 'nal_unit_type = 20'으로 설정될 수 있고, 이 경우, NAL 유닛의 헤더만을 체크함으로써 독립시점 여부를 확인할 수 있다. 기본시점으로 부호화된 NAL 유닛은 'nal_unit_type = 1~5'와 같이 설정될 수 있다. 따라서, NAL 유닛 헤더는 표 3에서와 같이 시점이 독립시점인지 여부를 확인하기 위한 독립시점 플래그를 포함할 수 있다. 여기서, 상기 독립시점 플래그는 표 4에서와 같이 'independent_view_flag'로 표현될 수 있다. 즉, 상기 독립시점 플래그를 통해 본 발명의 일실시예에 따른 비트스트림 추출 시스템이 'nal_unit_header_svc_mvc_extension()' 구문과 같은 헤더 정보에서 시점 종속성 정보 전체를 파싱하지 않고도 특정 독립시점을 쉽게 관리하여 처리할 수 있게 된다.The independent NAL unit encoded independently without inter-view prediction may be set to 'nal_unit_type = 20', which is one of the reserved nal_unit_type, in which case the independent point is checked by checking only the header of the NAL unit. You can check whether or not. The NAL unit encoded at the base view may be set as 'nal_unit_type = 1 to 5'. Therefore, the NAL unit header may include an independent view flag for checking whether the viewpoint is an independent view as shown in Table 3. Here, the independent view flag may be expressed as 'independent_view_flag' as shown in Table 4. That is, the independent stream flag enables the bitstream extraction system according to an embodiment of the present invention to easily manage and process a specific independent view point without parsing the entire view dependency information from header information such as 'nal_unit_header_svc_mvc_extension ()' syntax. Will be.

또한, 상기 독립시점 플래그는 NAL 유닛의 종류가 'nal_unit_type = 20'인 경우 독립시점을 발견하는데 유용하다. 만약, 어드밴스드 비디오 부호화 복호화기와 같은 복호화 시스템에서 상기 NAL 유닛의 종류가 'nal_unit_type = 20'이고, 독립시점인 하나의 시점을 골라 복호화하고자 하는 경우, 상기 비트스트림 추출 시스템에서 상기 독립시점 플래그, 상기 'idr_flag' 및 시점 식별자에 기초하여 'nal_unit_type = 20'을 'nal_unit_type = 1~5'으로 재설정함으로써, 해당 시점이 어드밴스드 비디오 부호화 복호화기와 같은 복호화 시스템에서 기본시점과 동일하게 복호화되도록 할 수 있다.In addition, the independent time flag is useful for finding independent time when the type of NAL unit is 'nal_unit_type = 20'. If the type of the NAL unit is' nal_unit_type = 20 'in a decoding system such as an advanced video encoding decoder, and is to be decoded by selecting one time point that is an independent view, the independent view flag, the' By resetting 'nal_unit_type = 20' to 'nal_unit_type = 1 to 5' based on the idr_flag 'and the view identifier, the view can be decoded in the same way as the base view in a decoding system such as an advanced video encoding decoder.

상기 'u(n)'는 n-비트를 가진 부호가 없는 정수형을 의미할 수 있다.'U (n)' may mean an unsigned integer having n-bits.

표 5는 상기 동화상전문가그룹 및 상기 연합비디오팀에서 정의한 연합 다시점 비디오 모델의 구문 중 기존의 'nal_unit()' 구문을, 표 6는 상기 표 4와 같이 변경하여 부호화비트를 줄임에 따라 상기 기존의 'nal_unit()' 구문을 변경한 구문을 각각 나타낸다.Table 5 shows the existing 'nal_unit ()' syntax among the syntaxes of the combined multi-view video model defined by the moving picture expert group and the combined video team, and Table 6 changes the existing code according to the reduced coding bit as shown in Table 4 above. Represents a syntax change from the 'nal_unit ()' syntax.

nal_unit(NumBytesInNALunit){nal_unit (NumBytesInNALunit) { CC DescriptorDescriptor forbiddenforbidden __ zerozero __ bitbit ALLALL f(1)f (1) nalnal __ refref __ idcidc ALLALL u(2)u (2) nalnal __ unitunit __ typetype ALLALL u(5)u (5) nalUnitHeaderBytes = 1  nalUnitHeaderBytes = 1 if(nal_unit_type == 14 || nal_unit_type == 20){  if (nal_unit_type == 14 nal_unit_type == 20) { nal_unit_header_svc_mvc_extension()    nal_unit_header_svc_mvc_extension () nalUnitHeaderBytes += 3    nalUnitHeaderBytes + = 3 }  } NumBytesInRBSP = 0  NumBytesInRBSP = 0 for(I = nalUnitHeaderBytes; i < NumBytesInNALunit; i++){  for (I = nalUnitHeaderBytes; i <NumBytesInNALunit; i ++) { if(i+2 < NumBytesInNALunit && next_bits(24) == 0x000003){    if (i + 2 <NumBytesInNALunit && next_bits (24) == 0x000003) { rbsprbsp __ bytebyte [ [ NumBytesInRBSPNumBytesInRBSP ++]++] ALLALL b(8)b (8) rbsprbsp __ bytebyte [ [ NumBytesInRBSPNumBytesInRBSP ++]++] ALLALL b(8)b (8) i += 2      i + = 2 emulation_prevention_three_byte /* equal to 0x03 */      emulation_prevention_three_byte / * equal to 0x03 * / ALLALL f(8)f (8) }else    } else rbsprbsp __ bytebyte [ [ NumBytesInRBSPNumBytesInRBSP ++]++] ALLALL b(8)b (8) }  } }}

nal_unit(NumBytesInNALunit){nal_unit (NumBytesInNALunit) { CC DescriptorDescriptor forbiddenforbidden __ zerozero __ bitbit ALLALL f(1)f (1) nalnal __ refref __ idcidc ALLALL u(2)u (2) nalnal __ unitunit __ typetype ALLALL u(5)u (5) nalUnitHeaderBytes = 1  nalUnitHeaderBytes = 1 if(nal_unit_type == 14 || nal_unit_type == 20){  if (nal_unit_type == 14 nal_unit_type == 20) { nal_unit_header_svc_mvc_extension()    nal_unit_header_svc_mvc_extension () if(nal_unit_type == 14)if (nal_unit_type == 14) nalUnitHeaderBytes += 2nalUnitHeaderBytes + = 2 elseelse nalUnitHeaderBytes += 3nalUnitHeaderBytes + = 3 }  } NumBytesInRBSP = 0  NumBytesInRBSP = 0 for(I = nalUnitHeaderBytes; i < NumBytesInNALunit; i++){  for (I = nalUnitHeaderBytes; i <NumBytesInNALunit; i ++) { if(i+2 < NumBytesInNALunit && next_bits(24) == 0x000003){    if (i + 2 <NumBytesInNALunit && next_bits (24) == 0x000003) { rbsprbsp __ bytebyte [ [ NumBytesInRBSPNumBytesInRBSP ++]++] ALLALL b(8)b (8) rbsprbsp __ bytebyte [ [ NumBytesInRBSPNumBytesInRBSP ++]++] ALLALL b(8)b (8) i += 2      i + = 2 emulation _ prevention _ three _ byte /* equal to 0x03 */ emulation _ prevention _ three _ byte / * equal to 0x03 * / ALLALL f(8)f (8) }else    } else rbsprbsp __ bytebyte [ [ NumBytesInRBSPNumBytesInRBSP ++]++] ALLALL b(8)b (8) }  } }}

여기서, 상기 'f(n)'은 n-비트를 갖는 고정된 패턴의 데이터를, 상기 'b(8)'은 8-비트를 갖는 바이트 타입의 데이터를 각각 의미할 수 있다.Here, 'f (n)' may mean data of a fixed pattern having n-bits, and 'b (8)' may mean data of a byte type having 8-bits.

다시점 비디오 부호화 시스템(400)은 상기 파라미터 셋에 대한 제1 NAL 및 상기 부호화된 비디오 신호에 대한 제2 NAL을 적어도 포함하는 비트스트림을 생성하는 비트스트림 생성부(미도시)를 더 포함할 수 있다. 이와 같이 생성된 상기 비트스트림은 본 발명의 일실시예에 다른 복호화 시스템(410)으로 직접 전송되거나 또는, 비트스트림 추출 시스템(미도시)을 거쳐 복호화 시스템(410)으로 전송될 수 있다. 이때, 상기 제1 NAL은 상기 제2 NAL에 선행하여 전송될 수 있다.The multi-view video encoding system 400 may further include a bitstream generator (not shown) for generating a bitstream including at least a first NAL for the parameter set and a second NAL for the encoded video signal. have. The bitstream generated as described above may be directly transmitted to another decoding system 410 according to an embodiment of the present invention, or may be transmitted to the decoding system 410 through a bitstream extraction system (not shown). In this case, the first NAL may be transmitted in advance of the second NAL.

도 6은 본 발명의 일실시예에 있어서, 복호화 시스템의 내부 구성을 설명하기 위한 블록도이다. 도 6에 도시된 바와 같이 본 발명의 일실시예에 따른 복호화 시스템(600)은 비트스트림 수신부(601) 및 복호화부(602)를 포함할 수 있다.6 is a block diagram illustrating an internal configuration of a decoding system according to an embodiment of the present invention. As illustrated in FIG. 6, the decoding system 600 according to an embodiment of the present invention may include a bitstream receiver 601 and a decoder 602.

비트스트림 수신부(601)는 상기 부호화된 신호에 대한 비트스트림을 수신한다. 이때, 상기 수신된 비트스트림은 다시점 비디오 부호화 시스템(610)에서 최초 전송되는 상기 부호화된 신호에 대한 전체 비트스트림 및 NAL 유닛에 대한 정보를 이용하여 필요한 NAL만이 추출된 비트스트림 중 하나의 비트스트림을 포함할 수 있다. 또한, 또한, 상기 수신된 비트스트림은 NAL 유닛을 포함하는 NAL을 포함할 수 있다.The bitstream receiver 601 receives a bitstream of the encoded signal. In this case, the received bitstream is one bitstream of the bitstream from which only the required NAL is extracted by using the entire bitstream for the encoded signal initially transmitted from the multiview video encoding system 610 and the information on the NAL unit. It may include. In addition, the received bitstream may also include a NAL including a NAL unit.

복호화부(602)는 상기 수신된 비트스트림에 포함된 파라미터 셋에 기초하여 기본시점에 해당하는 비트스트림을 복호화한다. 이때, 상기 파라미터 셋에 대한 비트스트림은 상기 부호화된 비디오 신호에 대한 비트스트림에 선행하여 수신될 수 있다. 또한, 상기 파라미터 셋은 상기 기본시점으로 부호화된 비디오 신호에 대한 기본시점 식별자를 포함할 수 있고, 이때, 복호화부(602)는 상기 기본시점 식별자를 통해 상기 비트스트림에서 상기 부호화된 비디오 신호 중 상기 기본시점으로 부호화된 비디오 신호를 확인하여 복호화할 수 있다. 즉, 상기 파라미터 셋에 포함된 기본시점 식별자를 통해 상기 기본시점으로 부호화된 비디오 신호에 대한 비트스트림을 간편하게 찾아 복호화할 수 있다.The decoder 602 decodes the bitstream corresponding to the base view based on the parameter set included in the received bitstream. In this case, the bitstream for the parameter set may be received prior to the bitstream for the encoded video signal. In addition, the parameter set may include a base view identifier for the video signal encoded as the base view, wherein the decoder 602 uses the base view identifier to perform the encoding of the encoded video signal in the bitstream. The video signal encoded at the base view may be identified and decoded. That is, it is possible to easily find and decode the bitstream of the video signal encoded at the base view through the base view identifier included in the parameter set.

또한, 복호화부(602)는 상기 NAL 유닛의 헤더에 포함된 독립시점 플래그에 기초하여 상기 비트스트림에서 상기 부호화된 비디오 신호 중 독립시점으로 부호화된 비디오 신호를 확인하여 선택적으로 복호화할 수 있다. 즉, 기본시점은 한 개로만 설정되나 독립적으로 복호화해야 하는 시점이 다수개 존재해야 하는 응용이 필요하기 때문에 타 시점으로부터의 참조 없이 부호화되는 독립시점을 상기 독립시점 플래그를 통해 확인함으로써, 상기 응용을 지원할 수 있고 시점 랜덤 억세스 역시 지원할 수 있다.In addition, the decoder 602 may selectively identify and decode a video signal encoded at an independent view among the encoded video signals in the bitstream based on the independent view flag included in the header of the NAL unit. That is, since only one basic view is set, but an application that requires a plurality of independently decoded views is required, the independent view that is encoded without a reference from another view is checked through the independent view flag. It can also support point-in-time random access.

따라서, 복호화 시스템(600)이 어드밴스드 비디오 부호화를 이용한다 하더라도 다시점 비디오 부호화를 통해 부호화된 콘텐트를 복호화할 수 있게 된다. 또한, 상기 독립시점은 부호화 시 시점의 개수가 제한되지 않기 때문에 독립적으로 복호화해야 하는 시점이 복수 개가 필요한 응용을 지원할 수 있게 되고, 시점 임의 접근 역시 용이해진다.Therefore, even if the decoding system 600 uses advanced video encoding, the encoded content can be decoded through multi-view video encoding. In addition, since the number of viewpoints during encoding is not limited, the independent viewpoint can support an application that requires a plurality of viewpoints to be independently decoded, and an arbitrary viewpoint random access is also easy.

도 7은 본 발명의 일실시예에 있어서, 비트스트림 추출 시스템의 내부 구성을 설명하기 위한 블록도이다. 도 7에 도시된 바와 같이 본 발명의 일실시예에 따른 비트스트림 추출 시스템(700)은 수신부(701), 비트스트림 추출부(702) 및 전송부(703)를 포함한다.7 is a block diagram illustrating an internal configuration of a bitstream extraction system according to an embodiment of the present invention. As shown in FIG. 7, the non-stream stream extracting system 700 according to an embodiment of the present invention includes a receiver 701, a bitstream extractor 702, and a transmitter 703.

수신부(701)는 다시점 비디오 부호화 시스템(710)으로부터 부호화된 비트스트림을 수신한다. 이때, 상기 부호화된 비트스트림은 적어도 하나의 NAL을 포함The receiver 701 receives the encoded bitstream from the multi-view video encoding system 710. In this case, the encoded bitstream includes at least one NAL.

비트스트림 추출부(702)는 파라미터 셋 및 NAL 유닛의 헤더 중 적어도 하나에 기초하여 상기 비트스트림 중 적어도 일부의 비트스트림을 추출한다. 여기서, 상기 파라미터 셋은 실제 부호화된 비디오 신호에 대한 NAL 보다 선행하여 전송되는 NAL에 포함될 수 있다. 또한, 상기 파라미터 셋은 기본시점으로 부호화된 비디오 신호에 대한 기본시점 식별자를 포함할 수 있고, 이 경우 상기 비트스트림 추출부(702)는 상기 기본시점 식별자에 기초하여 상기 기본시점으로 부호화된 비디오 신호에 대한 비트스트림을 추출할 수 있다. 이에 더해, 상기 헤더는 독립시점으로 부호화된 비디오 신호에 대한 독립시점 플래그를 포함할 수 있고, 상기 독립시점 플래그는, 상기 NAL 유닛에 대응하는 부호화된 비디오 신호의 독립시점 여부를 나타낼 수 있다. 이 경우, 비트스트림 추출부(702)는 상기 독립시점 플래그에 기초하여 독립시점으로 부호화된 비디오 신호에 대한 비트스트림을 추출할 수 있다.The bitstream extractor 702 extracts a bitstream of at least a portion of the bitstream based on at least one of a parameter set and a header of the NAL unit. Here, the parameter set may be included in the NAL transmitted before the NAL for the actual encoded video signal. Also, the parameter set may include a base view identifier for a video signal encoded with a base view, and in this case, the bitstream extractor 702 may encode a video signal encoded with the base view based on the base view identifier. It is possible to extract a bitstream for. In addition, the header may include an independent view flag for the video signal encoded at the independent view, and the independent view flag may indicate whether the encoded video signal corresponding to the NAL unit is independent. In this case, the bitstream extractor 702 may extract a bitstream of the video signal encoded at the independent view based on the independent view flag.

전송부(703)는 상기 추출된 적어도 일부의 비트스트림을 해당하는 복호화 시스템(720)으로 전송한다. 즉, 복호화 시스템(720)이 상기 어드밴스드 비디오 복호화 시스템인 경우에도 독립적으로 부호화된 상기 기본시점 또는 역시 독립적으로 부호화된 상기 독립시점에 대한 비트스트림을 수신하기 때문에 기본시점으로 부호화된 비트스트림을 정상적으로 복호화하거나, 독립적으로 복호화해야 하는 시점이 복수 개 존재하는 응용에 대한 지원 및 시점 임의 접근에 대한 지원이 용이해진다.The transmitter 703 transmits the extracted at least some bitstreams to the corresponding decoding system 720. That is, even when the decoding system 720 receives the advanced video decoding system, the decoding system 720 normally receives the bitstream for the independently encoded base view or the independently encoded independent view. Or support for an application having a plurality of time points that need to be independently decoded and support for a random access time point.

또한, 비트스트림 추출 시스템(700)은 상기 독립시점으로 부호화된 비디오 신호에 대한 NAL 유닛의 타입을 변경하는 타입 변경부(미도시)를 더 포함할 수 있다. 즉, 선택적으로 상기 독립시점으로 부호화된 비디오 신호에 대한 NAL 유닛의 타입을 기본시점으로 부호화된 비디오 신호에 대한 NAL 유닛의 타입으로 변경함으로써, 복호화 시스템(720)에서 상기 독립시점으로 부호화된 비디오 신호가 기본시점으로 부호화된 비디오 신호와 동일하게 복호화되도록 할 수 있다.In addition, the bitstream extraction system 700 may further include a type change unit (not shown) for changing the type of the NAL unit for the video signal encoded at the independent view. That is, by selectively changing the type of the NAL unit for the video signal encoded in the independent view to the type of the NAL unit for the video signal encoded in the base view, the video signal encoded in the independent view in the decoding system 720 May be decoded in the same manner as the video signal encoded at the base view.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by specific embodiments such as specific components and the like. For those skilled in the art, various modifications and variations are possible from these descriptions.

따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the following claims, belong to the scope of the present invention .

도 1은 다시점 비디오 부호화에 의해 부호화된 비트스트림이 전체적으로 한 개의 비트스트림으로 복호화기에 입력되는 응용시스템의 일례이다.1 is an example of an application system in which a bitstream encoded by multiview video encoding is input to a decoder as a whole.

도 2는 부호화된 슬라이스 유닛의 일례이다.2 is an example of an encoded slice unit.

도 3은 다시점 비디오 부호화에 의해 부호화된 비트스트림이 NAL 유닛에 대한 정보를 이용하여 필요한 NAL만이 추출된 비트스트림으로 복호화기에 입력되는 응용 시스템의 일례이다.FIG. 3 is an example of an application system in which a bitstream encoded by multi-view video encoding is input to a decoder as a bitstream from which only necessary NALs are extracted using information on a NAL unit.

도 4는 본 발명의 일실시예에 있어서, 다시점 비디오 부호화 시스템의 내부 구성을 설명하기 위한 블록도이다.4 is a block diagram illustrating an internal configuration of a multiview video encoding system according to an embodiment of the present invention.

도 5는 비트스트림 구조의 일례이다.5 is an example of a bitstream structure.

도 6은 본 발명의 일실시예에 있어서, 복호화 시스템의 내부 구성을 설명하기 위한 블록도이다.6 is a block diagram illustrating an internal configuration of a decoding system according to an embodiment of the present invention.

도 7은 본 발명의 일실시예에 있어서, 비트스트림 추출 시스템의 내부 구성을 설명하기 위한 블록도이다.7 is a block diagram illustrating an internal configuration of a bitstream extraction system according to an embodiment of the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

400: 다시점 비디오 부호화 시스템400: Multiview Video Coding System

401: 부호화부401: encoder

402: 기본시점 식별자 추가부402: adding a base view identifier

403: 독립시점 플래그 추가부403: Independence view flag addition unit

Claims (24)

복수의 카메라를 통해 촬영된 비디오 신호를 다시점 비디오 부호화를 통해 부호화하는 다시점 비디오 부호화 시스템에 있어서,In a multiview video encoding system for encoding a video signal photographed through a plurality of cameras through a multiview video encoding, 상기 비디오 신호를 기본시점 및 다시점으로 부호화하는 부호화부; 및An encoder which encodes the video signal into a base view and a multiview; And 상기 기본시점의 비디오 신호를 식별하기 위한 기본시점 식별자를 파라미터 셋에 추가하는 기본시점 식별자 추가부를 포함하고,A base view identifier adding unit for adding a base view identifier for identifying a video signal of the base view to a parameter set, 상기 기본시점의 비디오 신호는, 다른 시점의 비디오 신호를 이용하지 않고 부호화되는 비디오 신호인, 다시점 비디오 부호화 시스템.The video signal of the basic view is a video signal that is encoded without using the video signal of another viewpoint. 제1항에 있어서,The method of claim 1, 상기 파라미터 셋은 상기 부호화된 비디오 신호에 선행하여 복호화 시스템으로 전송되는, 다시점 비디오 부호화 시스템.The parameter set is transmitted to a decoding system prior to the encoded video signal. 제2항에 있어서,3. The method of claim 2, 상기 기본시점으로 부호화된 비디오 신호는 선행하여 전송된 파라미터 셋의 기본시점 식별자에 기초하여 상기 복호화 시스템에서 확인되는, 다시점 비디오 부호화 시스템.And the video signal encoded with the base view is identified in the decoding system based on a base view identifier of a previously transmitted parameter set. 제1항에 있어서,The method of claim 1, 상기 파라미터 셋은 상기 부호화된 비디오 신호의 전송 시 실제 부호화된 비 디오 신호에 대한 네트워크 추상 계층(Network Abstraction Layer, NAL) 보다 선행하여 전송되는 네트워크 추상 계층에 포함되는, 다시점 비디오 부호화 시스템.And the parameter set is included in a network abstraction layer transmitted in advance of a network abstraction layer (NAL) for an actual encoded video signal upon transmission of the encoded video signal. 제4항에 있어서,5. The method of claim 4, 상기 파라미터 셋은 시퀀스 파라미터 셋(Sequence Parameter Set, SPS)을 포함하고,The parameter set includes a sequence parameter set (SPS), 상기 시퀀스 파라미터 셋은 상기 부호화된 비디오 신호에 대한 비트스트림 전송 시 가장 먼저 전송되는 네트워크 추상 계층인, 다시점 비디오 부호화 시스템.And the sequence parameter set is a network abstraction layer that is first transmitted upon bitstream transmission for the encoded video signal. 삭제delete 삭제delete 삭제delete 제1항에 있어서,The method of claim 1, 상기 기본시점은 전체 시점 중 하나의 시점으로 한정되는 것을 특징으로 하는 다시점 비디오 부호화 시스템.The base view is a multi-view video encoding system, characterized in that it is limited to one of the viewpoints. 제1항에 있어서,The method of claim 1, 상기 파라미터 셋에 대한 제1 네트워크 추상 계층 및 상기 부호화된 비디오 신호에 대한 제2 네트워크 추상 계층을 적어도 포함하는 비트스트림을 생성하는 비트스트림 생성부A bitstream generator for generating a bitstream including at least a first network abstraction layer for the parameter set and a second network abstraction layer for the encoded video signal 를 더 포함하고,More, 상기 제1 네트워크 추상 계층은 상기 제2 네트워크 추상 계층에 선행하여 전송되는, 다시점 비디오 부호화 시스템.And wherein the first network abstraction layer is transmitted prior to the second network abstraction layer. 다시점 비디오 부호화를 통해 부호화된 비디오 신호를 복호화하는 복호화 시스템에 있어서,A decoding system for decoding a video signal encoded through multiview video encoding, 상기 부호화된 비디오 신호의 비트스트림을 수신하는 비트스트림 수신부; 및A bitstream receiver configured to receive a bitstream of the encoded video signal; And 상기 수신된 비트스트림에 포함된 파라미터 셋에 기초하여 기본시점으로 부호화된 비디오 신호를 복호화하는 복호화부를 포함하고,A decoder configured to decode a video signal encoded at a base view based on a parameter set included in the received bitstream, 상기 복호화부는, 상기 파라미터 셋에 포함된 기본시점 식별자를 이용하여 상기 비트스트림에서 상기 기본시점으로 부호화된 비디오 신호를 식별하고,The decoder may identify a video signal encoded with the base view in the bitstream by using a base view identifier included in the parameter set, 상기 기본시점으로 부호화된 비디오 신호는, 다른 시점의 비디오 신호를 이용하지 않고 부호화된 비디오 신호인, 복호화 시스템.And the video signal encoded at the base view is a video signal encoded without using video signals at different views. 제11항에 있어서,12. The method of claim 11, 상기 파라미터 셋에 대한 비트스트림은 상기 부호화된 비디오 신호에 대한 비트스트림에 선행하여 수신되는, 복호화 시스템.And the bitstream for the parameter set is received prior to the bitstream for the encoded video signal. 삭제delete 삭제delete 제11항에 있어서,12. The method of claim 11, 상기 수신된 비트스트림은 상기 부호화된 신호에 대한 전체 비트스트림 및 네트워크 추상 계층 유닛에 대한 정보를 이용하여 필요한 네트워크 추상 계층만이 추출된 비트스트림 중 하나의 비트스트림을 포함하는, 복호화 시스템.And the received bitstream comprises one bitstream of the entire bitstream for the encoded signal and a bitstream from which only the necessary network abstraction layer is extracted using information about a network abstraction layer unit. 다시점 비디오 부호화 시스템으로부터 비트스트림을 수신하는 수신부;A receiver for receiving a bitstream from a multiview video encoding system; 파라미터 셋 및 네트워크 추상 계층 유닛의 헤더 중 적어도 하나에 기초하여 상기 비트스트림 중 적어도 일부의 비트스트림을 추출하는 비트스트림 추출부; 및A bitstream extracting unit for extracting a bitstream of at least a portion of the bitstream based on at least one of a parameter set and a header of a network abstract layer unit; And 상기 추출된 적어도 일부의 비트스트림을 해당하는 복호화 시스템으로 전송하는 전송부를 포함하고,And a transmitter for transmitting the extracted at least some bitstreams to a corresponding decoding system. 상기 파라미터 셋은, 기본시점으로 부호화된 비디오 신호를 식별하기 위한 기본시점 식별자를 포함하고,The parameter set includes a base view identifier for identifying a video signal encoded with a base view, 상기 기본시점으로 부호화된 비디오 신호는, 다른 시점의 비디오 신호를 이용하지 않고 부호화된 비디오 신호인, 비트스트림 추출 시스템.And the video signal encoded at the base view is a video signal encoded without using a video signal of another view. 제16항에 있어서,17. The method of claim 16, 상기 부호화된 비트스트림은 적어도 하나의 네트워크 추상 계층을 포함하고,The encoded bitstream includes at least one network abstraction layer, 상기 파라미터 셋은 실제 부호화된 비디오 신호에 대한 네트워크 추상 계층 보다 선행하여 전송되는 네트워크 추상 계층에 포함되는, 비트스트림 추출 시스템.And the parameter set is included in a network abstraction layer that is transmitted prior to the network abstraction layer for the actual coded video signal. 제16항에 있어서,17. The method of claim 16, 상기 비트스트림 추출부는,The bit stream extractor, 상기 기본시점 식별자에 기초하여 상기 기본시점으로 부호화된 비디오 신호에 대한 비트스트림을 추출하는, 비트스트림 추출 시스템.And extracting a bitstream for the video signal encoded with the base view based on the base view identifier. 제16항에 있어서,17. The method of claim 16, 상기 헤더는 독립시점으로 부호화된 비디오 신호에 대한 독립시점 플래그를 포함하고,The header includes an independent view flag for a video signal encoded with independent view, 상기 독립시점 플래그는, 상기 네트워크 추상 계층 유닛에 대응하는 부호화된 비디오 신호의 독립시점 여부를 나타내는, 비트스트림 추출 시스템.And the independent view flag indicates whether the encoded video signal corresponding to the network abstract layer unit is independent. 제19항에 있어서,20. The method of claim 19, 상기 비트스트림 추출부는,The bit stream extractor, 상기 독립시점 플래그에 기초하여 독립시점으로 부호화된 비디오 신호에 대한 비트스트림을 추출하는, 비트스트림 추출 시스템.And extracting a bitstream for a video signal encoded with independent time based on the independent time flag. 제19항에 있어서,20. The method of claim 19, 상기 독립시점으로 부호화된 비디오 신호에 대한 네트워크 추상 계층 유닛의 타입을 변경하는 타입 변경부A type change unit for changing a type of a network abstraction layer unit for the video signal encoded in the independent view 를 더 포함하는 비트스트림 추출 시스템.Bitstream extraction system further comprising. 복수의 카메라를 통해 촬영된 비디오 신호를 다시점 비디오 부호화를 통해 부호화하는 다시점 비디오 부호화 시스템에 있어서,In a multiview video encoding system for encoding a video signal photographed through a plurality of cameras through a multiview video encoding, 상기 비디오 신호를 다시점 및 독립시점으로 부호화하는 부호화부;An encoder which encodes the video signal into a multiview and an independent view; 상기 독립시점의 비디오 신호를 식별하기 위한 독립시점 플래그를 네트워크 추상 계층 유닛(NAL unit)의 헤더에 추가하는 독립시점 플래그 추가부를 포함하고,An independent view flag adding unit for adding an independent view flag for identifying the independent video signal to a header of a network abstract layer unit (NAL unit), 상기 독립시점의 비디오 신호는, 다른 시점의 비디오 신호를 이용하지 않고 부호화되는 비디오 신호인, 다시점 비디오 부호화 시스템.The independent video signal is a multi-view video encoding system, which is a video signal encoded without using a video signal of another viewpoint. 제22항에 있어서,23. The method of claim 22, 상기 독립시점 플래그는, 상기 네트워크 추상 계층 유닛에 해당하는 비디오 신호의 독립시점 여부를 나타내는, 다시점 비디오 부호화 시스템.The independent view flag indicates whether or not the video signal corresponding to the network abstraction layer unit is independent. 다시점 비디오 부호화를 통해 부호화된 비디오 신호를 복호화하는 복호화 시스템에 있어서,A decoding system for decoding a video signal encoded through multiview video encoding, 상기 부호화된 비디오 신호의 비트스트림을 수신하는 비트스트림 수신부; 및A bitstream receiver configured to receive a bitstream of the encoded video signal; And 상기 수신된 비트스트림에 포함된 독립시점으로 부호화된 비디오 신호를 선택적으로 복호화하는 복호화부를 포함하고,A decoder configured to selectively decode a video signal encoded at an independent view included in the received bitstream, 상기 복호화부는, 네트워크 추상 계층 유닛의 헤더에 포함된 독립시점 플래그에 기초하여 상기 비트스트림에서 상기 독립시점으로 부호화된 비디오 신호를 식별하고,The decoder may identify a video signal encoded with the independent view in the bitstream based on an independent view flag included in a header of a network abstract layer unit, 상기 독립시점으로 부호화된 비디오 신호는, 다른 시점의 비디오 신호를 이용하지 않고 부호화된 비디오 신호인, 복호화 시스템.The video signal encoded at the independent time point is a video signal coded without using video signals at different time points.
KR1020080040079A 2007-06-25 2008-04-29 Multi-view video coding system, decoding system, bitstream extracting system for decoding base view and supporting view random access KR101345544B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/142,863 US20080317124A1 (en) 2007-06-25 2008-06-20 Multi-view video coding system, decoding system, bitstream extraction system for decoding base view and supporting view random access
PCT/KR2008/003628 WO2009002088A1 (en) 2007-06-25 2008-06-25 Multi-view video coding system, decoding system, bitstream extraction system for decoding base view and supporting view random access

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US94596507P 2007-06-25 2007-06-25
US60/945,965 2007-06-25

Publications (2)

Publication Number Publication Date
KR20080114500A KR20080114500A (en) 2008-12-31
KR101345544B1 true KR101345544B1 (en) 2013-12-26

Family

ID=40371569

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080040079A KR101345544B1 (en) 2007-06-25 2008-04-29 Multi-view video coding system, decoding system, bitstream extracting system for decoding base view and supporting view random access

Country Status (1)

Country Link
KR (1) KR101345544B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105765978A (en) * 2013-10-11 2016-07-13 韩国电子通信研究院 Method for encoding/decoding image and device using same

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2838262A4 (en) * 2012-04-16 2016-01-06 Samsung Electronics Co Ltd Method for multi-view video encoding based on tree structure encoding unit and apparatus for same, and method for multi-view video decoding based on tree structure encoding unit and apparatus for same
EP2843944A4 (en) 2012-04-23 2015-09-23 Samsung Electronics Co Ltd Multiview video encoding method and device, and multiview video decoding method and device
KR102219907B1 (en) * 2012-04-23 2021-02-25 삼성전자주식회사 Method and apparatus for multi-view video encoding, method and apparatus for multi-view decoding
WO2014010955A1 (en) * 2012-07-11 2014-01-16 한국전자통신연구원 Method and system for processing mpeg data
KR102185384B1 (en) 2012-07-11 2020-12-02 한국전자통신연구원 Method and system for supporting random access of mpeg data
KR102147475B1 (en) 2012-07-11 2020-08-26 한국전자통신연구원 Method and system for processing mpeg data
WO2014010894A1 (en) * 2012-07-11 2014-01-16 한국전자통신연구원 Method and system for supporting random access of mpeg data
WO2015053525A1 (en) * 2013-10-11 2015-04-16 한국전자통신연구원 Method for encoding/decoding image and device using same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040228409A1 (en) 2003-05-13 2004-11-18 Lg Electronics Inc. Apparatus and method for encoding and decoding a moving picture using digital watermarking
US20060146138A1 (en) 2004-12-17 2006-07-06 Jun Xin Method and system for synthesizing multiview videos
US20060233241A1 (en) 2005-04-13 2006-10-19 Nokia Corporation FGS identification in scalable video coding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040228409A1 (en) 2003-05-13 2004-11-18 Lg Electronics Inc. Apparatus and method for encoding and decoding a moving picture using digital watermarking
US20060146138A1 (en) 2004-12-17 2006-07-06 Jun Xin Method and system for synthesizing multiview videos
US20060233241A1 (en) 2005-04-13 2006-10-19 Nokia Corporation FGS identification in scalable video coding

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105765978A (en) * 2013-10-11 2016-07-13 韩国电子通信研究院 Method for encoding/decoding image and device using same
US10142638B2 (en) 2013-10-11 2018-11-27 Electronics And Telecommunications Research Institute Method for encoding/decoding image and device using same
CN105765978B (en) * 2013-10-11 2019-01-29 韩国电子通信研究院 Method for encoding/decoding image and the device using it
US10306244B2 (en) 2013-10-11 2019-05-28 Electronics And Telecommunications Research Institute Method for encoding/decoding image and device using same

Also Published As

Publication number Publication date
KR20080114500A (en) 2008-12-31

Similar Documents

Publication Publication Date Title
KR101345544B1 (en) Multi-view video coding system, decoding system, bitstream extracting system for decoding base view and supporting view random access
CA2762337C (en) Multiview video coding over mpeg-2 systems
KR101293425B1 (en) Signaling characteristics of an mvc operation point
KR102315232B1 (en) Carriage of video coding standard extension bitstream data using mpeg-2 systems
US8780999B2 (en) Assembling multiview video coding sub-BITSTREAMS in MPEG-2 systems
KR102140860B1 (en) Operation point for carriage of layered hevc bitstreams
US10567804B2 (en) Carriage of HEVC extension bitstreams and buffer model with MPEG-2 systems
KR101560956B1 (en) Indicating bit stream subsets
US20080317124A1 (en) Multi-view video coding system, decoding system, bitstream extraction system for decoding base view and supporting view random access
US20150103924A1 (en) On operation of decoded picture buffer for interlayer pictures

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee