KR20050038054A - Apparatus for adaptive multiplexing/demultiplexing for 3d multiview video processing and its method - Google Patents

Apparatus for adaptive multiplexing/demultiplexing for 3d multiview video processing and its method Download PDF

Info

Publication number
KR20050038054A
KR20050038054A KR1020030073241A KR20030073241A KR20050038054A KR 20050038054 A KR20050038054 A KR 20050038054A KR 1020030073241 A KR1020030073241 A KR 1020030073241A KR 20030073241 A KR20030073241 A KR 20030073241A KR 20050038054 A KR20050038054 A KR 20050038054A
Authority
KR
South Korea
Prior art keywords
image
view
video
information
packet
Prior art date
Application number
KR1020030073241A
Other languages
Korean (ko)
Other versions
KR100566100B1 (en
Inventor
김제우
정혁구
최병호
김태완
김용환
송혁
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020030073241A priority Critical patent/KR100566100B1/en
Publication of KR20050038054A publication Critical patent/KR20050038054A/en
Application granted granted Critical
Publication of KR100566100B1 publication Critical patent/KR100566100B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/12Systems in which the television signal is transmitted via one channel or a plurality of parallel channels, the bandwidth of each channel being less than the bandwidth of the television signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 3차원 다시점 멀티미디어 처리용 적응형 다중화/역다중화 장치 및 그 방법에 관한 것으로, 보다 자세하게는 디지털 방송과 같은 응용분야에서와 같이 다시점 영상을 효율적으로 원격지의 수신기에게 보내고 원격지의 수신기에서 효율적으로 다시점 영상을 복원할 수 있는 장치 및 그 방법에 관한 것이다.The present invention relates to an adaptive multiplexing / demultiplexing apparatus and method for three-dimensional multiview multimedia processing, and more particularly, to efficiently send a multiview image to a remote receiver as in an application field such as digital broadcasting. The present invention relates to an apparatus and a method for efficiently reconstructing a multiview image.

본 발명의 3차원 다시점 멀티미디어 처리용 적응형 다중화 방법은 소정의 카메라로부터 입력된 다시점 영상에 대해 카메라의 특성차로 인한 파라메타 등을 보정하고 노이즈를 제거하는 전처리 단계; 각 카메라에서 출력되는 영상들간의 시간적, 공간적 중복성을 제거하여 압축하는 다시점 영상 압축 단계 및 상기 압축된 각각의 영상 스트림에 시간 및 동기 정보를 추가하고 AU 단위로 나누어 SL 패킷을 생성하는 단계, 여러 개의 SL 패킷들로부터 하나의 스트림인 플렉스 멀티플렉서 패킷을 생성하는 단계, 상기 플렉스 멀티플렉서 패킷을 엠펙-2 시스템의 규격에 맞게 각각 AU 단위로 분리하고 시간 및 동기 정보를 획득하여 PES 패킷을 생성하는 단계 및 상기 PES 패킷을 188 바이트의 TS 패킷화하여 수신부로 전송하는 단계를 포함하여 이루어지는 다중화 단계로 이루어짐에 기술적 특징이 있다.The adaptive multiplexing method for 3D multi-view multimedia processing of the present invention includes a preprocessing step of correcting a parameter or the like due to a characteristic difference of a camera with respect to a multi-view image input from a predetermined camera and removing noise; A multi-view image compression step of removing and compressing temporal and spatial redundancy between images output from each camera, and adding time and synchronization information to each of the compressed video streams, and generating an SL packet by dividing by AU units. Generating a flex multiplexer packet, which is one stream from the SL packets, separating the flex multiplexer packet into AU units according to the specifications of the MPEG-2 system, and obtaining time and synchronization information to generate a PES packet; The PES packet has a technical feature in that it consists of a multiplexing step including the step of transmitting a TS packet of 188 bytes to the receiver.

따라서, 본 발명의 3차원 다시점 멀티미디어 처리용 적응형 다중화/역다중화 장치 및 그 방법은 다시점 영상에서 획득한 영상을 효과적으로 전송할 수 있는 장점이 있고, 종래의 시스템과 호환이 가능하여 효율적으로 다시점 영상을 규격화할 수 있는 효과가 있다.Accordingly, the adaptive multiplexing / demultiplexing apparatus and method for three-dimensional multiview multimedia processing of the present invention have an advantage of effectively transmitting an image obtained from a multiview image, and are compatible with a conventional system and efficiently again. The point image can be normalized.

Description

3차원 다시점 멀티미디어 처리용 적응형 다중화/역다중화 장치 및 그 방법{Apparatus for adaptive multiplexing/demultiplexing for 3D multiview video processing and its method} Apparatus for adaptive multiplexing / demultiplexing for 3D multiview video processing and its method

본 발명은 3차원 다시점 멀티미디어 처리용 적응형 다중화/역다중화 장치 및 그 방법에 관한 것으로, 보다 자세하게는 디지털 방송과 같은 응용분야에서와 같이 다시점 영상을 효율적으로 원격지의 수신기에게 보내고 원격지의 수신기에서 효율적으로 다시점 영상을 복원할 수 있는 장치 및 그 방법에 관한 것이다.The present invention relates to an adaptive multiplexing / demultiplexing apparatus and method for three-dimensional multiview multimedia processing, and more particularly, to efficiently send a multiview image to a remote receiver as in an application field such as digital broadcasting. The present invention relates to an apparatus and a method for efficiently reconstructing a multiview image.

인간이 인지하는 3차원 공간을 그대로 TV 또는 영화 등에서 보기 위한 3차원 영상에 대한 수요가 최근 급증하고 있다. 특히, 디지털 방송이 상용화된 이후 3D TV 및 3D 정보 단말기 등과 같은 분야에서 3D 영상에 대한 많은 연구가 있었다. 현재에는 사람의 눈과 같이 편광 등의 안경을 사용한 양안식(카메라 2대) 스테레오 영상을 통한 3D TV가 구현되고 있다. 그러나, 상기와 같은 양안식 방식은 항상 안경을 사용하여야 하고, 초점 등의 문제와 많은 사람이 동시에 보기가 어려운 문제점을 가지고 있었다. The demand for three-dimensional images for viewing a three-dimensional space that is perceived by human beings on TV or a movie is increasing rapidly. In particular, since digital broadcasting has been commercialized, there have been many studies on 3D video in fields such as 3D TV and 3D information terminal. Currently, 3D TVs through binocular (two cameras) stereo images using polarized glasses such as human eyes are being implemented. However, the binocular system as described above should always use glasses, problems such as focusing and many people at the same time difficult to see.

도 1은 종래기술인 양안식 스테레오 영상 시스템을 나타내는 블럭도이다. 도 1을 살펴보면, 시스템 구성은 좌안용 동작보상 DCT(Discrete Cosine Transform) 인코더(1)와 우안용 동작보상 DCT 인코더(2), 부동 추정기(Disparity Estimator, DE)(3), 부동 보상기(Disparity Compensator, DC)(4) 등으로 구성된 동작 및 부동 보상 DCT 인코더(10)와 시스템 다중화기(5)를 포함하는 입체 인코더 모듈과 좌안용 동작보상 DCT 디코더(6)와 우안용 동작보상 DCT 디코더(7), 부동 보상기(8) 등으로 구성된 동작 및 부동 보상 DCT 디코더(11)와 시스템 역다중화기(9)를 포함한 입체 디코더 모듈로 구성된다.1 is a block diagram illustrating a prior art binocular stereo imaging system. Referring to FIG. 1, a system configuration includes a left eye motion compensated DCT encoder 1 and a right eye motion compensated DCT encoder 2, a disparity estimator DE, and a disparity compensator. And a stereoscopic encoder module comprising a motion and floating compensation DCT encoder 10 and a system multiplexer 5 and a left eye motion compensation DCT decoder 6 and a right eye motion compensation DCT decoder 7. And a three-dimensional decoder module including a floating compensation DCT decoder 11 and a system demultiplexer 9.

상기 시스템의 동작을 설명하면 다음과 같다. 시스템의 동작은 좌측영상을 기본 영상으로 선정하고, 좌안용 동작보상 DCT 인코더(1)에서 엠펙-2 표준 알고리즘으로 부호화한 후 시스템 다중화기(5)로 부호화된 스트림을 전송한다. 한편 상기 좌안용 동작보상 DCT 인코더(1)에서는 다음 영상 및 우측영상의 부호화를 위해 복원영상을 생성하여 부동 추정기(3) 및 부동 보상기(4)로 전달한다. 우측 원영상은 우안용 동작보상 DCT 인코더(2)와 부동 추정기(3)로 전달되는데 부동 추정기 블럭(3)에서는 좌측 영상의 복원영상과 우측영상의 원영상을 비교 평가하여 부동벡타(Disparity vector, DV)를 구하고 이를 우안동작보상 DCT 인코더 블럭(2)과 부동 보상기 블럭(4)으로 전달한다. 부동 보상기 블럭(4)으로 전달된 DV는 좌측복원영상을 참조하여 다음 우측영상에 대한 보상영상을 생성하고 우안동작보상 DCT 인코더 블럭(2)으로 전달된 DV는 엠펙-2 표준의 MV와 동일하게 부호화된다. 그리고 우안동작보상 DCT 인코더 블럭(2)에서는 부동 보상기 블럭(4)에서 생성된 보상영상과 우측 원영상과의 차영상에 대한 DCT를 이용한 엠펙-2 부호화 알고리즘을 통해 우측 원영상은 부호화된다. 우측영상에 대한 부호화 스트림은 좌측영상과 동일하게 시스템 다중화기(5)로 개별적으로 전달된다. 상기 시스템 다중화기(5)는 엠펙-2 시스템의 규격을 따른다. 상기 시스템 다중화기(5)에서 다중화된 스트림은 시스템 역다중화기(9)로 전달되고 역다중화되어 다시 두 개의 영상부호화 스트림으로 복원되고 각각의 스트림은 좌안동작보상 DCT 디코더 블럭(6)과 우안동작보상 DCT 디코더 블럭(7)으로 전달된다. 좌측영상의 부호화 스트림을 획득한 좌안동작보상 DCT 디코더 블럭(6)은 엠펙-2 표준을 만족하는 알고리즘으로 영상을 복원하고, 복원된 영상을 출력 및 부동 보상기 블럭(8)으로 전달한다. 또 우측영상에 대한 부호화 스트림을 전달받은 우안동작보상 DCT 디코더 블럭(7)은 스트림을 복원하여 DV와 부동 보상기 블럭(8)에서 생성되는 좌측영상을 참조로 한 보상영상과 원영상과의 차영상을 획득한다. 획득된 DV는 부동 보상기 블럭(8)으로 전달되어 이전에 복원된 좌측영상을 참조하여 보상영상을 생성하고, 상기 부동 보상기 블럭(8)에서 생성된 보상영상은 다시 우안동작보상 DCT 디코더 블럭(7)으로 전달되어 복원된 차영상과 합성되어 우측영상을 복원한다.The operation of the system is as follows. In operation of the system, the left image is selected as the base image, the left eye motion compensation DCT encoder 1 is encoded by the MPEG-2 standard algorithm, and then the encoded stream is transmitted to the system multiplexer 5. Meanwhile, the left eye motion compensation DCT encoder 1 generates a reconstructed image for encoding the next image and the right image, and transmits the reconstructed image to the floating estimator 3 and the floating compensator 4. The right original image is passed to the motion compensation DCT encoder 2 and the floating estimator 3 for the right eye. In the floating estimator block 3, the reconstructed image of the left image and the original image of the right image are compared and evaluated with a disparity vector, DV) and pass it to the right eye compensation DCT encoder block (2) and floating compensator block (4). The DV delivered to the floating compensator block 4 generates a compensation image for the next right image by referring to the left restored image and the DV delivered to the right eye compensation DCT encoder block 2 is the same as the MV of the MPEG-2 standard. Is encoded. In the right eye motion compensation DCT encoder block 2, the right original image is encoded by an MPEG-2 encoding algorithm using DCT for the difference image between the compensation image generated in the floating compensator block 4 and the right original image. The encoded stream for the right picture is separately transmitted to the system multiplexer 5 in the same manner as the left picture. The system multiplexer 5 follows the specifications of the MPEG-2 system. The multiplexed streams from the system multiplexer 5 are passed to the system demultiplexer 9 and demultiplexed into two video encoding streams, each of which is left-eye motion compensation DCT decoder block 6 and right eye motion compensation. It is passed to the DCT decoder block 7. The left eye motion compensation DCT decoder block 6 that obtains the encoded stream of the left image reconstructs the image by an algorithm satisfying the MPEG-2 standard, and transfers the reconstructed image to the output and floating compensator block 8. In addition, the right eye motion compensation DCT decoder block 7 having received the encoded stream for the right picture reconstructs the stream to obtain a difference picture between the original picture and the compensation picture referring to the left picture generated by the DV and the floating compensator block 8. Acquire. The obtained DV is transferred to the floating compensator block 8 to generate a compensation image by referring to the previously restored left image, and the compensation image generated by the floating compensator block 8 is again a right eye motion compensation DCT decoder block 7. ) And the right image is reconstructed by combining with the reconstructed difference image.

도 2는 종래기술인 디지털 방송 기술에서의 다중화/역다중화 장치를 나타내는 블럭도이다. 상기 다중화 장치의 동작을 설명하기로 한다. 비디오 인코더(12)와 오디오 인코더(14)의 출력인 비디오 기초 스트림(Elementary Stream : ES)과 오디오 기초 스트림은 각각 비디오 패킷타이저(13)와 오디오 패킷타이저(15)로 입력되어 AU(Access Unit) 단위로 나뉘어지고 시간 및 동기 정보가 추가되어 패킷화된 ES(Packetized Elementary Stream : PES)로 만들어져 PES 패킷 단위로 출력된다. 상기 PES 패킷들은 TS(Transport Stream) 다중화기 또는 PS(Program Stream) 다중화기로 입력된다. TS 다중화기로 입력이 되는 경우 188 바이트의 TS 패킷으로 만들어져 출력된다. PS 다중화기는 여러 개의 비디오 PES와 오디오 PES를 하나 또는 여러 개의 팩으로 만들어 출력한다. 상기 역다중화 장치는 다중화 장치 동작의 역순으로 하나 또는 여러 개의 부호화된 스트림으로 복원한다.2 is a block diagram illustrating a multiplexing / demultiplexing apparatus in a conventional digital broadcasting technique. The operation of the multiplexing device will be described. The video elementary stream (ES) and the audio elementary stream, which are the outputs of the video encoder 12 and the audio encoder 14, are input to the video packetizer 13 and the audio packetizer 15, respectively, to access AU (Access). It is divided into units, and time and synchronization information is added to make a packetized elementary stream (ES), which is output in units of PES packets. The PES packets are input to a transport stream (TS) multiplexer or a program stream (PS) multiplexer. When input to a TS multiplexer, a TS packet of 188 bytes is generated and output. The PS multiplexer outputs multiple video PES and audio PES in one or multiple packs. The demultiplexer reconstructs one or more encoded streams in the reverse order of the multiplexer operation.

그러나, 상기와 같이 종래기술인 엠펙-2 시스템은 27MHz의 시스템 클럭으로 동작하기 때문에 그 이상의 데이터율을 가진 시스템이 동작할 수 없고, 다시점 영상을 포함하는 여러개의 비디오 ES를 처리할 수 없으며, 다시점 영상을 수신부(디코더, 단말기)에서 효율적으로 복원할 수 없다는 문제점이 있었다.However, as described above, the MPEG-2 system of the related art cannot operate a system having a data rate higher than 27 MHz, and cannot process multiple video ESs including multiview images, because the MPEG-2 system operates at a system clock of 27 MHz. There was a problem in that the point image cannot be efficiently restored by the receiver (decoder, terminal).

따라서, 본 발명은 상기와 같은 종래 기술의 제반 단점과 문제점을 해결하기 위한 것으로, 안경을 사용하지 않고 많은 사람들이 동시에 3차원 영상을 즐길 수 있는 다시점 영상 전송 시스템을 기반으로 하여 여러 개의 카메라에서 획득된 다시점 영상을 효과적으로 전송할 수 있고, 종래의 디지털 방송 시스템과 호환이 가능한 적응형의 다중화/역다중화 장치 및 그 동작 방법을 제공함에 본 발명의 목적이 있다. Accordingly, the present invention is to solve the above-mentioned disadvantages and problems of the prior art, based on a multi-view image transmission system that can enjoy a three-dimensional image at the same time without a pair of glasses in multiple cameras SUMMARY OF THE INVENTION An object of the present invention is to provide an adaptive multiplexing / demultiplexing apparatus capable of effectively transmitting a multiview image obtained and compatible with a conventional digital broadcasting system, and an operation method thereof.

본 발명의 상기 목적은 소정의 카메라로부터 입력된 다시점 영상에 대해 카메라의 특성차로 인한 파라메타 등을 보정하고 노이즈를 제거하는 전처리 단계; 각 카메라에서 출력되는 영상들간의 시간적, 공간적 중복성을 제거하여 압축하는 다시점 영상 압축 단계 및 상기 압축된 각각의 영상 스트림에 시간 및 동기 정보를 추가하고 AU 단위로 나누어 SL 패킷을 생성하는 단계, 여러 개의 SL 패킷들로부터 하나의 스트림인 플렉스 멀티플렉서 패킷을 생성하는 단계, 상기 플렉스 멀티플렉서 패킷을 엠펙-2 시스템의 규격에 맞게 각각 AU 단위로 분리하고 시간 및 동기 정보를 획득하여 PES 패킷을 생성하는 단계 및 상기 PES 패킷을 188 바이트의 TS 패킷화하여 수신부로 전송하는 단계를 포함하여 이루어지는 다중화 단계로 이루어진 3차원 다시점 멀티미디어 처리용 적응형 다중화 방법에 의해 달성된다.The above object of the present invention is a pre-processing step of correcting a parameter due to the characteristic difference of the camera and the like to remove the noise for the multi-view image input from a predetermined camera; A multi-view image compression step of removing and compressing temporal and spatial redundancy between images output from each camera, and adding time and synchronization information to each of the compressed video streams, and generating an SL packet by dividing by AU units. Generating a flex multiplexer packet, which is one stream from the SL packets, separating the flex multiplexer packet into AU units according to the specifications of the MPEG-2 system, and obtaining time and synchronization information to generate a PES packet; The PES packet is achieved by an adaptive multiplexing method for three-dimensional multi-view multimedia processing, which comprises a multiplexing step comprising transmitting a 188-byte TS packet to a receiving unit.

본 발명의 다른 목적은 송신부로부터 전송된 TS로부터 TS 패킷을 추출하여 PES를 생성하는 단계, 상기 PES로부터 엠펙-4 시스템의 규격에 맞게 플렉스 멀티플렉서 패킷을 추출하는 단계, 상기 플렉스 멀티플렉서 패킷에서 SL 패킷을 추출하는 단계 및 상기 SL 패킷에서 비디오 영상 스트림을 복원하는 단계를 포함하여 이루어지는 역다중화 단계; 압축된 각각의 영상을 복원하는 다시점 영상 복원 단계 및 상기 다시점 영상 복원 단계에서 복원된 영상을 합성하는 다시점 영상 합성 단계로 이루어진 3차원 다시점 멀티미디어 처리용 적응형 역다중화 방법에 의해서도 달성된다.Another object of the present invention is to extract a TS packet from the TS transmitted from the transmitter to generate a PES, extracting a flex multiplexer packet from the PES in accordance with the specification of the MPEG-4 system, SL packet from the flex multiplexer packet Demultiplexing comprising extracting and restoring a video image stream from the SL packet; It is also achieved by an adaptive demultiplexing method for three-dimensional multi-view multimedia processing, which comprises a multi-view image restoration step of restoring each compressed image and a multi-view image synthesis step of synthesizing the restored images in the multi-view image restoration step. .

또한, 본 발명의 또 다른 목적은 비디오 영상 스트림에 시간 및 동기 정보를 추가하고 AU 단위로 나누어 SL 패킷을 생성하는 SL 패킷타이저; 상기 SL 패들로부터 하나의 스트림인 플렉스 멀티플렉서 패킷을 생성하는 중간 단계의 다중화를 수행하는 플렉스 멀티플렉서; 상기 플렉스 멀티플렉서 패킷을 AU 단위로 분리하고 시간과 동기 정보를 획득하여 PES 패킷을 생성하는 PES 패킷타이저 및 상기 PES 패킷을 188 바이트로 TS 패킷화하여 전송하는 TS 멀티플렉서로 구성된 3차원 다시점 멀티미디어 처리용 적응형 다중화 장치에 의해서도 달성된다.In addition, another object of the present invention is to add a time packet and synchronization information to the video image stream and the SL packetizer for generating an SL packet divided by AU unit; A flex multiplexer performing an intermediate multiplexing to generate a multiplexer packet, which is a stream from the SL paddle; 3D multi-view multimedia processing consisting of a PES packetizer for separating the PLEX packet into AU units, obtaining time and synchronization information, generating a PES packet, and a TS multiplexer for transmitting the TS packet into 188 bytes It is also achieved by an adaptive multiplexing device.

또한, 본 발명의 또 다른 목적은 TS로부터 TS 패킷을 추출하여 각 시점의 비디오 영상을 포함하고 있는 PES를 생성하는 TS 디멀티플렉서; 상기 비디오 PES로부터 플렉스 멀티플렉서 패킷을 추출하는 PES 디패킷타이저; 상기 플렉스 멀티플렉서 패킷에서 SL 패킷을 추출하는 디플렉스 멀티플렉서 및 상기 SL 패킷에서 비디오 영상 스트림을 복원하는 SL 디패킷타이저로 구성된 3차원 다시점 멀티미디어 처리용 적응형 역다중화 장치에 의해서도 달성된다.Still another object of the present invention is a TS demultiplexer for generating a PES including a video image of each view by extracting a TS packet from the TS; A PES depacketizer for extracting a flex multiplexer packet from the video PES; It is also achieved by an adaptive demultiplexer for three-dimensional multi-view multimedia processing comprising a deplex multiplexer extracting an SL packet from the flex multiplexer packet and an SL depacketizer reconstructing a video image stream from the SL packet.

또한, 본 발명의 또 다른 목적은 소정의 카메라로부터 입력된 다시점 영상에 대해 카메라의 특성차이로 인한 파라메타 등의 보정과 노이즈를 제거하는 전처리 단계와 각 카메라에서 출력되는 영상들간의 시간적, 공간적 중복성을 제거하는 영상압축 단계 및 각각의 독립된 영상스트림을 하나의 다중화된 스트림으로 생성하는 다중화 단계로 이루어진 다시점을 이용한 비디오 다중화 방법에 있어서, 상기 다시점 영상은 다시점 영상 시스템 표현자, 다시점 영상 표현자 및 카메라 표현자를 가지는 것을 특징으로 하는 3차원 다시점 멀티미디어 처리용 적응형 다중화 방법에 의해서도 달성된다.In addition, another object of the present invention is a pre-processing step for removing noise and correction of parameters due to the difference in characteristics of the camera for the multi-view image input from a predetermined camera and the temporal and spatial redundancy between the images output from each camera In the video multiplexing method using a multiview consisting of a video compression step of removing a and a multiplexing step of generating each independent video stream into a single multiplexed stream, the multiview image is a multiview image system presenter, a multiview image It is also achieved by an adaptive multiplexing method for three-dimensional multi-view multimedia processing, characterized by having a presenter and a camera presenter.

또한, 본 발명의 또 다른 목적은 다중화된 영상스트림을 각각의 독립된 영상스트림으로 복원하는 역다중화 단계와 압축된 각각의 영상을 복원하는 다시점 영상 복원 단계 및 상기 다시점 영상 복원 단계에서 복원된 영상을 합성하는 다시점 영상 합성 단계로 이루어진 다시점을 이용한 비디오 역다중화 방법에 있어서, 상기 다시점 영상은 다시점 영상 시스템 표현자, 다시점 영상 표현자 및 카메라 표현자를 가지는 것을 특징으로 하는 3차원 다시점 멀티미디어 처리용 적응형 역다중화 방법에 의해서도 달성된다.In addition, another object of the present invention is a demultiplexing step of restoring a multiplexed video stream to each independent video stream, a multi-view image restoring step of restoring each compressed image, and an image restored in the multi-view image restoring step. In the multi-view video demultiplexing method using a multi-view image synthesis step of synthesizing the multi-view image, wherein the multi-view image has a multi-view image system presenter, a multi-view image presenter and a camera presenter It is also achieved by an adaptive demultiplexing method for point multimedia processing.

다중화/역다중화 장치의 기능은 크게 두 가지로 나뉘어지는데 첫번째는 물리적 논리적으로 여러 개의 데이터를 하나의 논리적 채널로 보내는 다중화이고, 두번째는 여러 개의 입력된 데이터들에 대한 동기화를 시키는 것이다. 상기의 기능은 각각 적용되는 환경, 즉 네트워크 환경과 응용분야에 따라서 그 방법을 달리하고 있다. The function of the multiplexing / demultiplexing device is divided into two parts. The first is the multiplexing which physically and logically sends several data to one logical channel, and the second is synchronizing several inputted data. The above functions vary depending on the environment to which they are applied, that is, the network environment and the application field.

본 발명의 상기 목적과 기술적 구성 및 그에 따른 작용효과에 관한 자세한 사항은 본 발명의 바람직한 실시예를 도시하고 있는 도면을 참조한 이하 상세한 설명에 의해 보다 명확하게 이해될 것이다.Details of the above object and technical configuration of the present invention and the effects thereof according to the present invention will be more clearly understood by the following detailed description with reference to the drawings showing preferred embodiments of the present invention.

도 3은 본 발명에 따른 3차원 다시점 영상 전송 시스템을 나타내는 블럭도이다. 도 3과 같이, 여러 개의 카메라(115)로부터 영상을 입력받아 전처리기(110)에서 카메라의 특성 차이로 인한 파라메타(Parameter) 등의 보정을 하고, 각 시점의 영상들의 중복성을 최대한 제거하여 다시점 비디오 압축기(105)에서 여러 개의 비디오 영상 스트림(Elementary Stream : ES)으로 압축하며, 이를 다시점 비디오 다중화 장치(100)로 입력하여 각각의 독립된 영상 스트림을 하나의 다중화된 스트림으로 생성한다.3 is a block diagram illustrating a three-dimensional multi-view image transmission system according to the present invention. As shown in FIG. 3, images are input from multiple cameras 115, and the preprocessor 110 corrects parameters due to differences in camera characteristics, and removes the redundancy of the images at each viewpoint as much as possible. The video compressor 105 compresses the video streams into elementary streams (ES), and inputs them to the multi-view video multiplexer 100 to generate each independent video stream as one multiplexed stream.

수신부에서는 다시점 비디오 역다중화 장치(120)에서 효율적으로 다중화된 다시점 영상을 역다중화하여 각각의 비디오 영상 스트림을 수신부의 다시점 비디오 복원기(125) 내에 존재하는 각 시점에 맞는 비디오 디코더로 입력하여 상기 압축기(105)에서 압축된 각각의 영상을 복원한다. 다시점 비디오 합성기(130)에서 상기 복원된 다시점 영상간의 중간영상을 생성하고, 디스플레이 제어부(135)에서 제어하여 디스플레이(140)에 출력한다.The receiver demultiplexes the multiplexed multiview image efficiently by the multiview video demultiplexer 120 and inputs each video image stream to a video decoder for each view existing in the multiview video decompressor 125 of the receiver. To restore each image compressed by the compressor 105. The multi-view video synthesizer 130 generates an intermediate image between the restored multi-view images, controls the display control unit 135, and outputs the intermediate image to the display 140.

상기 전처리기(110)는 휘도 및 색도 등의 보정을 하는 불균형 감소필터와 노이즈를 제거한 영상신호를 다시점 비디오 압축기(105)에 전달하는 노이즈 감소필터로 구성되어 있다. 상기 다시점 비디오 압축기(105)는 각각의 카메라에서 연속적으로 입력되는 영상 프레임에 대하여 동시간에서 가장 인접한 카메라 영상간의 동질성에 따른 시간적, 공간적 중복성(Redundancy)을 부호화하고 엠펙-2 표준을 만족하는 부호화를 통해 압축한다.The preprocessor 110 includes an imbalance reduction filter for correcting luminance and chromaticity, and a noise reduction filter for transmitting a video signal from which the noise is removed to the multi-view video compressor 105. The multi-view video compressor 105 encodes temporal and spatial redundancy according to the homogeneity between the closest camera images at the same time with respect to image frames continuously input from each camera and encodes the MPEG-2 standard. Compress through.

상기 다시점 비디오 다중화 장치(100)는 다시점 비디오 압축기(105)에서 압축한 독립된 영상 스트림을 하나의 다중화된 스트림으로 만드는 장치로 각각의 독립된 영상 스트림에 대해 식별자, 시간 정보, 프로그램 정보 등을 추가한다. 상기 다시점 비디오 다중화 장치(100)의 상세한 구성은 도 4와 같다.The multi-view video multiplexing apparatus 100 is a device for making an independent video stream compressed by the multi-view video compressor 105 into one multiplexed stream, and adds an identifier, time information, program information, etc. to each independent video stream. do. The detailed configuration of the multi-view video multiplexing device 100 is shown in FIG. 4.

도 4는 본 발명에 따른 3차원 다중화/역다중화 장치를 나타내는 블럭도이다. 도 4(가)는 다시점 비디오 다중화 장치의 부분 블럭도로서, 엠펙-4 시스템의 SL(Synchronization Layer)-패킷타이저(150)와 플렉스(Flex) 멀티플렉서(155), 엠펙-2 시스템의 PES 패킷타이저(160) 및 TS 멀티플렉서(165)로 구성된다. 우선은 비디오만을 고려하였으나, 오디오로도 확장이 가능하다. 4 is a block diagram illustrating a three-dimensional multiplexing / demultiplexing apparatus according to the present invention. FIG. 4A is a partial block diagram of a multiview video multiplexing device, including the Synchronization Layer (SL) -packetizer 150 of the MPEG-4 system, the Flex multiplexer 155, and the PES of the MPEG-2 system. It consists of a packetizer 160 and a TS multiplexer 165. At first, only video is considered, but it can be extended to audio.

각 시점의 비디오 영상 스트림은 먼저 SL 패킷타이저(150)에서 시간 및 동기 정보가 추가되고 AU 단위로 나누어져 SL 패킷을 생성하며, 여러 개의 SL 패킷들을 하나의 스트림으로 만드는 중간단계의 다중화를 수행하는 플렉스 멀티플렉서(155)를 통과하여 플렉스 멀티플렉서 패킷을 생성한다. 상기 플렉스 멀티플렉서 패킷은 PES 패킷타이저(160)로 들어가 엠펙-2 시스템의 규격에 맞게 각각 AU 단위로 분리되어 시간/동기 정보를 획득하여 PES 패킷을 생성한다. 상기 PES 패킷을 TS 멀티플렉서(165)에서 188 바이트의 TS 패킷으로 생성하여 수신부로 전송한다. In the video image stream at each time point, the SL packetizer 150 first adds time and synchronization information and divides the data into AU units to generate an SL packet, and performs an intermediate multiplexing process to make several SL packets into one stream. The multiplexer 155 passes through the multiplexer 155 to generate a flex multiplexer packet. The flex multiplexer packet enters the PES packetizer 160 and is separated into AU units according to the specifications of the MPEG-2 system to obtain time / synchronization information to generate a PES packet. The PES packet is generated by the TS multiplexer 165 as a TS packet of 188 bytes and transmitted to the receiver.

도 4(나)는 다시점 비디오 역다중화 장치의 부분 블럭도로서, 그 구성은 엠펙-4 시스템의 SL 디패킷타이저(170)와 디플렉스 멀티플렉서(175), 엠펙-2 시스템의 PES 디패킷타이저(180) 및 TS 디멀티플렉서(185)로 이루어져 있다. 수신부에서는 송신부로부터 전송된 TS를 입력으로 하여 TS 디멀티플렉서(185)에서 TS 패킷을 추출하여 각 시점의 비디오 영상을 포함하고 있는 비디오 PES들과 프로그램 정보, 다시점 영상 정보 및 암호화 정보 등을 포함하고 있는 PSI(Program Specific Information) 정보들을 획득한다. 상기 PSI는 프로그램에 대한 정보를 갖고 있는 테이블로 PAT(Program Association Table), PMT(Program Map Table), NIT(Network Information Table), CAT(Conditional Access Table) 등의 4 종류로 나뉘어진다. PSI의 각 테이블들은 각기 서로 다른 PID를 가지며, 한 종류의 테이블만을 전송한다. 4 (b) is a partial block diagram of a multi-view video demultiplexer, the configuration of which is the SL depacketizer 170, the deplex multiplexer 175 of the MPEG-4 system, and the PES depacket of the MPEG-2 system. It is composed of a riser 180 and a TS demultiplexer 185. The receiver extracts TS packets from the TS demultiplexer 185 using the TS transmitted from the transmitter, and includes video PESs including program video, program information, multi-view video information, encryption information, and the like. Obtain Program Specific Information (PSI) information. The PSI is a table having information on a program and is divided into four types: a program association table (PAT), a program map table (PMT), a network information table (NIT), and a conditional access table (CAT). Each table in the PSI has a different PID and transmits only one type of table.

상기 비디오 PES들은 PES 디패킷타이저(180)에서 엠펙-4 시스템의 규격에 맞게 플렉스 멀티플렉서 패킷으로 추출되고, 상기 플렉스 멀티플렉서 패킷은 디플렉스 멀티플렉서(175)에서 SL 패킷으로 추출되어 SL 디패킷타이저(170)에서 비디오 영상 스트림으로 복원된다.The video PESs are extracted from the PES depacketizer 180 into the flex multiplexer packet according to the specifications of the MPEG-4 system, and the flex multiplexer packets are extracted into the SL packets from the deplex multiplexer 175 to be the SL depacketizer. The video image stream is restored at 170.

상기와 같이 본 발명은 엠펙-2와 엠펙-4 시스템을 모두 포함하는 방식이고, 비디오 압축 방식에 따라서 선택적으로 엠펙-2 시스템 또는 엠펙-4 시스템만을 적용할 수도 있다. 물론 엠펙-2 시스템과 엠펙-4 시스템을 그대로 적용하는 것은 아니고, 본 발명에서 정의된 새로운 규격을 포함하여야 한다.As described above, the present invention includes both the MPEG-2 and MPEG-4 systems, and may selectively apply only the MPEG-2 system or the MPEG-4 system according to the video compression method. Of course, the MPEG-2 system and the MPEG-4 system are not applied as they are, and should include the new standard defined in the present invention.

도 5는 본 발명에 따른 3차원 다시점 영상의 전송 및 수신 방법을 나타내는 흐름도이다. 먼저, 다시점 영상을 효율적으로 전송하고, 이를 복원하기 위해서는 다시점 영상의 특징에 대한 정의가 필요하다. 이를 위해서 본 발명에서는 다시점 영상 시스템 측면에서 본 multi_view_system_descriptor, 각각의 시점 영상에 대한 mutli_view_video_descriptor, 각각의 카메라가 가지는 특징을 정의하는 camera_descriptor 등을 정의한다. 상기 정의된 표현자(Descriptor)들은 엠펙-2와 엠펙-4 시스템 모두에 적용이 가능하므로, 적응적으로 사용할 수 있다.5 is a flowchart illustrating a method of transmitting and receiving a 3D multiview image according to the present invention. First, in order to efficiently transmit and reconstruct a multiview image, it is necessary to define a feature of the multiview image. To this end, the present invention defines a multi_view_system_descriptor viewed from the perspective of a multiview image system, a mutli_view_video_descriptor for each viewpoint image, a camera_descriptor for defining characteristics of each camera, and the like. Descriptors defined above are applicable to both MPEG-2 and MPEG-4 systems and can be used adaptively.

상기 정의된 표현자들을 중심으로 본 발명에 따른 3차원 다시점 영상의 전송 방법을 설명한다. 먼저, 여러 개의 카메라로부터 입력된 다시점 영상들은 카메라의 특성차로 인한 파라메타 등을 보정하고 노이즈를 제거하는 전처리 단계를 거친다. 그리고 각 카메라에서 출력되는 영상들간의 시간적, 공간적 중복성을 제거하여 압축하는 다시점 영상 압축 단계를 거쳐 압축된 각각의 독립된 영상 스트림들이 하나의 다중화된 스트림으로 다중화하는 다중화 단계로 되어 있다. 여기서 다시점 영상 압축을 하는 압축기에서 다시점 영상들을 압축하는 방법은 양안식, 3안식 및 5안식 등이 있고, 입력되는 다시점 영상의 시점 수도 다양할 수 있다. 상기 다중화 단계는 각 영상스트림에 시간 및 동기 정보를 추가하고 AU 단위로 나누어 SL 패킷을 생성하고, 여러 개의 SL 패킷들로부터 전송 스트림의 오버헤드를 줄이기 위한 하나의 스트림인 플렉스 멀티플렉서 패킷을 생성하며, 엠펙-2 시스템의 규격에 맞게 각각 AU 단위로 분리한 후 시간 및 동기 정보를 획득하여 PES 패킷을 생성하고 이를 188 바이트의 TS 패킷화하여 수신부로 전송한다. A method of transmitting a 3D multiview image according to the present invention will be described based on the above-described presenters. First, multi-view images input from multiple cameras undergo a preprocessing step of correcting a parameter due to a camera characteristic difference and removing noise. The multiplexing step consists of multiplexing each independent video stream into a single multiplexed stream through a multi-view video compression step of removing and compressing temporal and spatial redundancy between images output from each camera. Here, the multi-view images may be compressed by a compressor for multiview image compression, such as a binocular, a three-eye and a five-eye, and the number of viewpoints of the input multiview image may vary. In the multiplexing step, an SL packet is generated by adding time and synchronization information to each video stream and dividing it by AU units, and generating a multiplexer packet, which is a stream to reduce overhead of a transport stream from multiple SL packets. After separating the AU unit according to the specifications of the MPEG-2 system, the PES packet is generated by acquiring time and synchronization information, and is transmitted to the receiving unit by converting the packet into a TS packet of 188 bytes.

이러한 정보들을 적응형 다중화 장치의 multi_view_system_descriptor의 비디오 수에 대한 Num_Video, 오디오 수에 대한 Num_Audio, 압축방식에 대한 Coding_Type 등의 필드를 이용하여 기술하고, 다시점 영상 전송 시스템에서 수신부의 역다중화 장치는 먼저 상기 multi_view_system_descriptor의 정보들을 이용하여 수신부에서 디코딩을 할 수 있는 프로그램 즉, 다시점 영상의 묶음인지를 판단한다. 그리고, 다시점 영상들을 압축할 때, 그 방법에 따라 기준 영상 또는 참조 영상이 되기도 하고, 기준 영상의 시점에 대한 구별 등의 정보가 필요하다. 상기 정보들은 multi_view_video_descriptor의 카메라 번호에 대한 camera_number, 참조 영상을 포함하는 카메라 번호에 대한 ref_camera_number, 현 비디오 영상이 기준 영상인지 판단하는 independence 등의 필드를 이용하여 기술한다. 디코더 시스템에서 각 시점 영상을 디코딩할 때 각 영상 스트림과 다시점 영상 복원을 디코더와의 매핑 및 디코더간의 상호 연결을 위해서 사용한다. 그리고 각 시점 영상을 디코딩할 때 기준 영상과 참조 영상간의 시간적인 동기 유지가 필요하다. This information is described using fields such as Num_Video for video number of multi_view_system_descriptor of adaptive multiplexing device, Num_Audio for audio number, Coding_Type for compression method, and the like. The information of the multi_view_system_descriptor is used to determine whether the decoding unit is a bundle of multiview images. When the multiview images are compressed, a reference image or a reference image may be used according to the method, and information such as distinguishing a viewpoint of the reference image may be needed. The above information is described using fields such as camera_number for a camera number of multi_view_video_descriptor, ref_camera_number for a camera number including a reference image, and independence for determining whether the current video image is a reference image. When decoding each viewpoint image in the decoder system, each image stream and multiview image reconstruction are used for mapping with the decoder and interconnection between the decoders. When decoding each view image, it is necessary to maintain temporal synchronization between the reference image and the reference image.

이를 위해서 적응형 다중화/역다중화 장치는 PES 패킷 헤더 내의 frame_number 필드를 새로 정의하고, SL 패킷 헤더 내에 AU_sequence_Number 필드의 용법을 재정의함으로써 이를 가능하게 하였다. 또한 디코딩된 영상을 효율적으로 디스플레이하기 위해서 필요한 각 시점 영상을 획득하기 위한 카메라 정보 및 기하학 정보는 다중화/역다중화 장치에서 camera_descriptor를 이용하여 전송한다.To this end, the adaptive multiplexing / demultiplexing apparatus makes this possible by newly defining the frame_number field in the PES packet header and redefining the usage of the AU_sequence_Number field in the SL packet header. In addition, camera information and geometry information for obtaining each view image necessary for efficiently displaying the decoded image are transmitted by using the camera_descriptor in the multiplexing / demultiplexing apparatus.

다음으로, 본 발명에 따른 3차원 다시점 영상의 수신 방법을 설명한다. 먼저, 송신부로부터 전송된 TS를 입력으로 하여 다중화된 영상 스트림을 각각의 독립된 영상스트림으로 복원하는 역다중화 단계를 거친다. 그리고 압축된 각각의 영상을 복원하는 다시점 영상 복원 단계를 거쳐 상기 다시점 영상 복원 단계에서 복원된 영상을 합성하는 다시점 영상 합성 단계를 거친다. Next, a method of receiving a 3D multiview image according to the present invention will be described. First, a demultiplexing step of reconstructing a multiplexed video stream into each independent video stream is performed using the TS transmitted from the transmitter. A multi-view image restoration step of restoring each compressed image is performed, followed by a multi-view image synthesis step of synthesizing the restored image in the multi-view image restoration step.

마지막으로, 상기 다시점 영상 합성 단계를 거쳐 디스플레이 제어부에서 제어된 영상을 출력한다. 여기서 상기 역다중화 단계는 TS 디멀티플렉서에서 TS 패킷을 추출하고, PES 디패킷타이저에서 플렉스 멀티플렉서 패킷을 추출한 후, 디플렉스 멀티플렉서에서 SL 패킷으로 추출하여 SL 디패킷타이저에서 비디오 영상 스트림을 복원한다.Finally, the image is controlled by the display controller through the multi-view image synthesis step. In the demultiplexing step, the TS packet is extracted from the TS demultiplexer, the flex multiplexer packet is extracted from the PES depacketizer, and the SL packet is extracted from the deplex multiplexer to restore the video image stream from the SL depacketizer.

상세히 살펴보면, 먼저 엠펙-2 TS 기반의 패킷들을 받아들이며, 0×47의 동기화 바이트를 찾는다. 그리고, PID=0×0000인 PAT를 찾아서 프로그램 테이블과 선택된 프로그램과 매핑을 수행한다. 상기 매핑된 프로그램에서 multi_view_system_descriptor에 기술된 정보와 수신부의 성능과 비교하여 수신 및 디코딩이 가능한지의 여부를 판단한다. 상기 PAT는 현재 전송되고 있는 프로그램에 대한 정보를 나타내는 테이블로서, 프로그램 번호와 그 프로그램을 구성하는 비디오와 오디오 등의 PID를 갖고 있는 PMT의 PID를 포함하고 있다.In detail, it first accepts MPEG-2 TS-based packets and finds a synchronization byte of 0x47. Then, the PAT with PID = 0 × 0000 is found and the program table is mapped with the selected program. The mapped program compares the information described in the multi_view_system_descriptor with the performance of the receiver to determine whether reception and decoding are possible. The PAT is a table indicating information on a program currently being transmitted, and includes a PID of a PMT having a program number and PIDs such as video and audio constituting the program.

그 후, PMT를 찾아서 각 시점 영상의 압축된 스트림들에 대한 ES_PID를 획득하고, 이와 동시에 각 시점 영상들이 갖고 있는 다시점 영상의 복원 방법 및 그 복원 방법에 따른 디코더와 다시점 영상 스트림간의 매핑에 대한 정보를 multi_view_video_descriptor를 통해서 획득한다. 이 정보들은 다시점 영상 디코더와 연결되는 디코딩 버퍼, 트랜스포트(Transport) 버퍼와 각각의 압축된 스트림과의 매핑에 사용된다. 또한 각 시점 영상의 기하학 정보와 카메라 정보 등을 기술하고 있는 camera_descriptor를 획득하여 디스플레이 장치에 디코딩된 다시점 영상이 정확히 디스플레이되도록 정보를 제공한다. After that, the PMT is found and ES_PIDs are obtained for the compressed streams of the respective view images, and at the same time, the decoder and the multiview image streams according to the reconstruction method and the reconstruction method of each view image are obtained. Get information about the multi_view_video_descriptor. This information is used for mapping between the decoding buffer, the transport buffer, and the respective compressed stream which are connected to the multi-view video decoder. In addition, the camera_descriptor describing the geometry information and the camera information of each viewpoint image is obtained to provide information so that the decoded multiview image is correctly displayed on the display device.

ES_PID들을 이용하여 각각의 영상 스트림들은 PES 디패킷 단계, 디플렉스 멀티플렉서 단계, SL 디패킷 단계를 통하여 디코딩 버퍼에 순수 영상 스트림으로서 저장된다. 그리고 나서, 각 영상 스트림들은 다시점 영상 디코더에서 PES의 frame_number 필드 또는 SL 패킷의 AU_sequence_Number 필드에서 획득된 시간적 동기정보를 이용하여 각 기준 영상과 참조 영상간의 동기를 맞추고 디코딩을 수행한다. 각 디코딩된 영상들은 PMT 내에서 획득된 camera_descriptor를 이용하여 효율적으로 영상을 디스플레이한다.Each of the video streams using ES_PIDs is stored as a pure video stream in the decoding buffer through the PES depacket step, the deplex multiplexer step, and the SL depacket step. Then, each video stream synchronizes and decodes each reference video and the reference video by using temporal synchronization information obtained from the frame_number field of the PES or the AU_sequence_Number field of the SL packet in the multi-view video decoder. Each decoded image displays the image efficiently by using the camera_descriptor obtained in the PMT.

마지막으로, 다시점 영상을 효율적으로 전송하기 위해서 규격화한 특징들에 대한 내용은 도 6에 설명되어 있다.Finally, the details of the standardized features for efficiently transmitting a multiview image are described in FIG. 6.

도 6은 본 발명에 따른 동작 모듈에서의 구문(Syntax)을 나타내는 도면이다. 도 6(가)는 multi_view_system_descriptor 즉, 다시점 영상 시스템 표현자의 구문을 설명하는 도로서, descriptor_tag는 표현자의 종류 정보, descriptor_length는 표현자의 길이 정보를 의미한다. 또한, Num_Video는 다시점 영상의 수 정보, 즉 카메라의 수를 의미하고, Num_Audio는 오디오 정보이며, reserved는 영상 구별 정보로서 2차원 동영상 스트림의 경우는 '0', 3차원 동영상 스트림의 경우는 '1'로 세팅한다.6 is a diagram illustrating syntax in an operation module according to the present invention. FIG. 6A is a diagram illustrating a syntax of a multi_view_system_descriptor, that is, a multiview image system presenter, where descriptor_tag means type information of a descriptor, and descriptor_length means length information of a descriptor. In addition, Num_Video refers to the number information of the multi-view video, that is, the number of cameras, Num_Audio is audio information, reserved is video discrimination information, '0' for the two-dimensional video stream, '' for the three-dimensional video stream Set to 1 '.

도 6(나)는 multi_view_video_descriptor 즉, 다시점 영상 표현자의 구문을 설명하는 도로서, descriptor_tag는 표현자의 종류 정보, descriptor_length는 표현자의 길이 정보를 의미한다. Camera_number는 다시점 영상의 공간적인 시점을 의미하는 카메라 번호 정보, ref_Camera_number는 부동 추정기에 의한 참조 영상을 포함하는 카메라 번호 정보이다. independence는 현 비디오 영상이 기준 영상인지를 판단하는 기준 영상 정보이고, reserved는 영상 구별 정보이다.FIG. 6B illustrates multi_view_video_descriptor, that is, syntax of a multiview image presenter, where descriptor_tag means type information of a descriptor and descriptor_length means length information of a descriptor. Camera_number is camera number information indicating a spatial view of a multiview image, and ref_Camera_number is camera number information including a reference image by a floating estimator. Independence is reference image information for determining whether the current video image is a reference image, and reserved is image discrimination information.

도 6(다)는 camera_descriptor 즉 카메라 표현자의 구문을 설명하는 도로서, descriptor_tag는 표현자의 종류 정보, descriptor_length는 표현자의 길이 정보를 의미한다. Camera_id는 카메라 번호 정보, height_of_image_device는 카메라를 통해 영상을 바라볼 때 카메라에 보이는 1/1000 mm 단위인 영상의 높이 정보, vertical_angle_of_view는 1/10000 각도 단위인 시야의 수직각 정보를 의미한다. 카메라를 통해 영상을 바라볼 때, 카메라에 보이는 영상을 image plane이라고 정의하면, image_plane_center_X는 사용자에 의해 정의된 좌표계에서 image plane의 중앙의 1/1000 mm 단위인 가로 좌표 정보, image_plane_center_Y는 사용자에 의해 정의된 좌표계에서 image plane의 중앙의 세로 좌표 정보, image_plane_center_Z는 사용자에 의해 정의된 좌표계에서 image plane의 중앙의 Z축 좌표 정보이다. 6 (c) is a diagram illustrating a syntax of a camera_descriptor, that is, a camera descriptor, where descriptor_tag denotes type information of a descriptor and descriptor_length denotes length information of a descriptor. Camera_id refers to camera number information, height_of_image_device refers to height information of an image displayed in a camera by 1/1000 mm when viewing an image through a camera, and vertical_angle_of_view refers to vertical angle information of a field of view to a 1/10000 angle unit. When looking at the image through the camera, if the image seen by the camera is defined as the image plane, image_plane_center_X is the horizontal coordinate information of 1/1000 mm of the center of the image plane in the coordinate system defined by the user, and image_plane_center_Y is defined by the user. The vertical coordinate information of the center of the image plane in the coordinate system, image_plane_center_Z is Z-axis coordinate information of the center of the image plane in the coordinate system defined by the user.

optical_center_X는 image plane의 상이 카메라 렌즈의 한 점에 맺힐 때 중심점의 X축 좌표 정보이고, optical_center_Y는 image plane의 상이 카메라 렌즈의 한 점에 맺힐 때 중심점의 Y축 좌표 정보이며, optical_center_Z는 image plane의 상이 카메라 렌즈의 한 점에 맺힐 때 중심점의 Z축 좌표 정보이다. 마지막으로 image_plane_vertical_X, Y, Z는 image plane 중앙에서 시작하여 중심선(axis)에 수직하고, image plane의 모서리에 평행한 벡터를 이루는 공간상의 좌표 정보이다.optical_center_X is the X-axis coordinate information of the center point when the image plane image is at one point of the camera lens, optical_center_Y is the Y-axis coordinate information of the center point when the image plane image is at the point of the camera lens, and optical_center_Z is the image plane Z-axis coordinate information of the center point when the lens is attached to a point of the camera lens. Finally, image_plane_vertical_X, Y, and Z are spatial coordinate information forming a vector perpendicular to the axis of the image plane starting from the center of the image plane and parallel to the edge of the image plane.

본 발명은 기존의 엠펙-2 시스템을 사용하는 디지털 방송에도 적용이 가능하고, 인터넷 스트리밍이나 기타 멀티미디어 서비스에 사용되는 엠펙-4 시스템에도 적용이 가능하다. 또한, 기존의 규격을 3차원 영상의 전송, 복원 및 디스플레이할 수 있도록 확장을 한 것이다.The present invention can be applied to digital broadcasting using the existing MPEG-2 system, and also to the MPEG-4 system used for internet streaming or other multimedia services. In addition, the existing standard has been extended to transmit, restore, and display three-dimensional images.

본 발명은 이상에서 살펴본 바와 같이 바람직한 실시 예를 들어 도시하고 설명하였으나, 상기한 실시 예에 한정되지 아니하며 본 발명의 정신을 벗어나지 않는 범위 내에서 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변경과 수정이 가능할 것이다.Although the present invention has been shown and described with reference to preferred embodiments as described above, it is not limited to the above-described embodiments and those skilled in the art without departing from the spirit of the present invention. Various changes and modifications will be possible.

따라서, 본 발명의 3차원 다시점 멀티미디어 처리용 적응형 다중화/역다중화 장치 및 그 방법은 다시점 영상에서 획득한 영상을 효과적으로 전송할 수 있는 장점이 있고, 종래의 시스템과 호환이 가능하여 효율적으로 다시점 영상을 규격화할 수 있는 효과가 있다.Accordingly, the adaptive multiplexing / demultiplexing apparatus and method for three-dimensional multiview multimedia processing of the present invention have an advantage of effectively transmitting an image obtained from a multiview image, and are compatible with a conventional system and efficiently again. The point image can be normalized.

도 1은 종래기술인 양안식 스테레오 영상 시스템을 나타내는 블럭도이다.1 is a block diagram illustrating a prior art binocular stereo imaging system.

도 2는 종래기술인 디지털 방송 기술에서의 다중화/역다중화 장치를 나타내는 블럭도이다.2 is a block diagram illustrating a multiplexing / demultiplexing apparatus in a conventional digital broadcasting technique.

도 3은 본 발명에 따른 3차원 다시점 영상 전송 시스템을 나타내는 블럭도이다.3 is a block diagram illustrating a three-dimensional multi-view image transmission system according to the present invention.

도 4는 본 발명에 따른 3차원 다중화/역다중화 장치를 나타내는 블럭도이다.4 is a block diagram illustrating a three-dimensional multiplexing / demultiplexing apparatus according to the present invention.

도 5는 본 발명에 따른 3차원 다시점 영상의 전송 및 수신 방법을 나타내는 흐름도이다.5 is a flowchart illustrating a method of transmitting and receiving a 3D multiview image according to the present invention.

도 6은 본 발명에 따른 동작 모듈에서의 구문을 나타내는 도면이다.6 is a diagram illustrating syntax in an operation module according to the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

100. 다시점 비디오 다중화 장치 105. 다시점 비디오 압축기100. Multiview Video Multiplexer 105. Multiview Video Compressor

110. 다시점 비디오 전처리기 115. 카메라110. Multiview Video Preprocessor 115. Camera

120. 다시점 비디오 역다중화 장치 125. 다시점 비디오 복원기120. Multiview Video Demultiplexer 125. Multiview Video Restorer

130. 다시점 비디오 합성기 135. 디스플레이 제어부130. Multiview Video Synthesizer 135. Display Controls

140. 디스플레이 150. SL 패킷타이저140.Display 150.SL Packetizer

155. 플렉스 멀티플렉서 160. PES 패킷타이저155. Flex Multiplexer 160. PES Packetizer

165. TS 멀티플렉서 170. SL 디패킷타이저165.TS Multiplexer 170.SL Depacketizer

175. 디플렉스 멀티플렉서 180. PES 디패킷타이저175. Deplex Multiplexer 180.PES Depacketizer

185. TS 디멀티플렉서185.TS Demultiplexer

Claims (12)

다시점을 이용한 비디오 다중화 방법에 있어서, In the video multiplexing method using multi-view, 소정의 카메라로부터 입력된 다시점 영상에 대해 카메라의 특성차로 인한 파라메타 등을 보정하고 노이즈를 제거하는 전처리 단계;A preprocessing step of correcting a parameter or the like due to a characteristic difference of the camera with respect to a multi-view image input from a predetermined camera and removing noise; 각 카메라에서 출력되는 영상들간의 시간적, 공간적 중복성을 제거하여 압축하는 다시점 영상 압축 단계; 및A multi-view image compression step of removing and compressing temporal and spatial redundancy between images output from each camera; And 상기 압축된 각각의 영상 스트림에 시간 및 동기 정보를 추가하고 AU 단위로 나누어 SL 패킷을 생성하는 단계, 여러 개의 SL 패킷들로부터 하나의 스트림인 플렉스 멀티플렉서 패킷을 생성하는 단계, 상기 플렉스 멀티플렉서 패킷을 엠펙-2 시스템의 규격에 맞게 각각 AU 단위로 분리하고 시간 및 동기 정보를 획득하여 PES 패킷을 생성하는 단계 및 상기 PES 패킷을 188 바이트의 TS 패킷화하여 수신부로 전송하는 단계를 포함하여 이루어지는 다중화 단계Adding time and synchronization information to each of the compressed video streams and dividing them by AU to generate an SL packet, generating a flex multiplexer packet as one stream from a plurality of SL packets, and emplexing the flex multiplexer packet -2 a multiplexing step comprising separating each AU unit according to a standard of the system, obtaining time and synchronization information, generating a PES packet, and transmitting the PES packet into a 188-byte TS packet to a receiver; 를 포함하여 이루어짐을 특징으로 하는 3차원 다시점 멀티미디어 처리용 적응형 다중화 방법.Adaptive multiplexing method for 3D multi-view multimedia processing, characterized in that comprises a. 소정의 카메라로부터 입력된 다시점 영상에 대해 카메라의 특성차이로 인한 파라메타 등의 보정과 노이즈를 제거하는 전처리 단계와 각 카메라에서 출력되는 영상들간의 시간적, 공간적 중복성을 제거하는 영상압축 단계 및 각각의 독립된 영상스트림을 하나의 다중화된 스트림으로 생성하는 다중화 단계로 이루어진 다시점을 이용한 비디오 다중화 방법에 있어서,The preprocessing step of removing noise and parameter due to the camera's characteristic difference and the image compression step of removing temporal and spatial redundancy between the images output from each camera, In the video multiplexing method using a multi-view consisting of a multiplexing step of generating an independent video stream as a single multiplexed stream, 상기 다시점 영상은 다시점 영상 시스템 표현자, 다시점 영상 표현자 및 카메라 표현자를 가지는 것을 특징으로 하는 3차원 다시점 멀티미디어 처리용 적응형 다중화 방법.And said multiview image has a multiview image system presenter, a multiview image presenter and a camera presenter. 제 2항에 있어서,The method of claim 2, 상기 다시점 영상 시스템 표현자는 표현자 종류 정보, 표현자 길이 정보, 비디오 수 정보, 오디오 수 정보 및 영상 스트림이 2차원 또는 3차원 동영상 데이터인지를 나타내는 영상 구별 정보를 포함하여 구성됨을 특징으로 하는 3차원 다시점 멀티미디어 처리용 적응형 다중화 방법.The multiview video system presenter may include presenter type information, presenter length information, video number information, audio number information, and image discrimination information indicating whether the video stream is two-dimensional or three-dimensional video data. Adaptive Multiplexing Method for Dimensional Multiview Multimedia Processing. 제 2항에 있어서,The method of claim 2, 상기 다시점 영상 표현자는 표현자 종류 정보, 표현자 길이 정보, 카메라 번호 정보, 참조 영상을 포함하는 카메라 번호를 나타내는 참조 카메라 번호 정보, 현 비디오 영상이 기준 영상인지를 판단하는 기준 영상 정보 및 영상 스트림이 2차원 또는 3차원 동영상 데이터인지를 나타내는 영상 구별 정보를 포함하여 구성됨을 특징으로 하는 3차원 다시점 멀티미디어 처리용 적응형 다중화 방법.The multiview image presenter may include presenter type information, presenter length information, camera number information, reference camera number information indicating a camera number including a reference image, reference image information and an image stream for determining whether the current video image is a reference image. Adaptive multiplexing method for 3D multi-view multimedia processing, characterized in that it comprises image discrimination information indicating whether the two-dimensional or three-dimensional video data. 제 2항에 있어서,The method of claim 2, 상기 카메라 표현자는 표현자 종류 정보, 표현자 길이 정보, 카메라 번호 정보, 영상 높이 정보, 시야의 수직각 정보, image plane의 중앙의 가로, 세로 및 Z축 좌표 정보, image plane의 상이 카메라 렌즈의 한 점에 맺힐 때 중심점의 X, Y 및 Z축 좌표 정보, image plane 중앙에서 시작하여 중심선에 수직하고 image plane의 모서리에 평행한 벡터를 이루는 공간상의 X, Y 및 Z축 좌표 정보를 포함하여 구성됨을 특징으로 하는 3차원 다시점 멀티미디어 처리용 적응형 다중화 방법.The camera presenter may include presenter type information, presenter length information, camera number information, image height information, vertical angle information of the field of view, horizontal, vertical and Z-axis coordinate information of the center of the image plane, and one of the different camera lenses. The coordinates of the X, Y, and Z axes of the center point, and the X, Y, and Z coordinate information in space, starting from the center of the image plane and forming a vector perpendicular to the center line and parallel to the edges of the image plane. Adaptive Multiplexing Method for 3D Multi-view Multimedia Processing. 다시점을 이용한 비디오 역다중화 방법에 있어서,In the video demultiplexing method using multi-view, 송신부로부터 전송된 TS로부터 TS 패킷을 추출하여 PES를 생성하는 단계, 상기 PES로부터 엠펙-4 시스템의 규격에 맞게 플렉스 멀티플렉서 패킷을 추출하는 단계, 상기 플렉스 멀티플렉서 패킷에서 SL 패킷을 추출하는 단계 및 상기 SL 패킷에서 비디오 영상 스트림을 복원하는 단계를 포함하여 이루어지는 역다중화 단계; Extracting a TS packet from a TS transmitted from a transmitter to generate a PES, extracting a flex multiplexer packet from the PES according to the specification of an MPEG-4 system, extracting an SL packet from the flex multiplexer packet, and the SL A demultiplexing step comprising restoring a video image stream in the packet; 압축된 각각의 영상을 복원하는 다시점 영상 복원 단계; 및A multi-view image reconstruction step of reconstructing each compressed image; And 상기 다시점 영상 복원 단계에서 복원된 영상을 합성하는 다시점 영상 합성 단계A multiview image synthesis step of synthesizing the restored image in the multiview image restoration step 를 포함하여 이루어짐을 특징으로 하는 3차원 다시점 멀티미디어 처리용 적응형 역다중화 방법.Adaptive demultiplexing method for 3D multi-view multimedia processing, characterized in that comprises a. 다중화된 영상스트림을 각각의 독립된 영상스트림으로 복원하는 역다중화 단계와 압축된 각각의 영상을 복원하는 다시점 영상 복원 단계 및 상기 다시점 영상 복원 단계에서 복원된 영상을 합성하는 다시점 영상 합성 단계로 이루어진 다시점을 이용한 비디오 역다중화 방법에 있어서,A demultiplexing step of restoring the multiplexed image streams into respective independent image streams, a multi-view image restoring step of restoring each compressed image, and a multi-view image synthesizing step of synthesizing the restored images in the multi-view image restoring step In the video demultiplexing method using a multi-view made, 상기 다시점 영상은 다시점 영상 시스템 표현자, 다시점 영상 표현자 및 카메라 표현자를 가지는 것을 특징으로 하는 3차원 다시점 멀티미디어 처리용 적응형 역다중화 방법.The multi-view image has a multi-view image system presenter, a multi-view image presenter and a camera presenter, adaptive demultiplexing method for 3D multi-view multimedia processing. 제 7항에 있어서,The method of claim 7, wherein 상기 다시점 영상 시스템 표현자는 표현자 종류 정보, 표현자 길이 정보, 비디오 수 정보, 오디오 수 정보 및 영상 스트림이 2차원 또는 3차원 동영상 데이터인지를 나타내는 영상 구별 정보를 포함하여 구성됨을 특징으로 하는 3차원 다시점 멀티미디어 처리용 적응형 역다중화 방법.The multiview video system presenter may include presenter type information, presenter length information, video number information, audio number information, and image discrimination information indicating whether the video stream is two-dimensional or three-dimensional video data. Adaptive Demultiplexing Method for Dimensional Multiview Multimedia Processing. 제 7항에 있어서,The method of claim 7, wherein 상기 다시점 영상 표현자는 표현자 종류 정보, 표현자 길이 정보, 카메라 번호 정보, 참조 영상을 포함하는 카메라 번호를 나타내는 참조 카메라 번호 정보, 현 비디오 영상이 기준 영상인지를 판단하는 기준 영상 정보 및 영상 스트림이 2차원 또는 3차원 동영상 데이터인지를 나타내는 영상 구별 정보를 포함하여 구성됨을 특징으로 하는 3차원 다시점 멀티미디어 처리용 적응형 역다중화 방법.The multiview image presenter may include presenter type information, presenter length information, camera number information, reference camera number information indicating a camera number including a reference image, reference image information and an image stream for determining whether the current video image is a reference image. Adaptive demultiplexing method for 3D multi-view multimedia processing, characterized in that it comprises image discrimination information indicating whether the two-dimensional or three-dimensional video data. 제 7항에 있어서,The method of claim 7, wherein 상기 카메라 표현자는 표현자 종류 정보, 표현자 길이 정보, 카메라 번호 정보, 영상 높이 정보, 시야의 수직각 정보, image plane의 중앙의 가로, 세로 및 Z축 좌표 정보, image plane의 상이 카메라 렌즈의 한 점에 맺힐 때 중심점의 X, Y 및 Z축 좌표 정보, image plane 중앙에서 시작하여 중심선에 수직하고 image plane의 모서리에 평행한 벡터를 이루는 공간상의 X, Y 및 Z축 좌표 정보를 포함하여 구성됨을 특징으로 하는 3차원 다시점 멀티미디어 처리용 적응형 역다중화 방법.The camera presenter may include presenter type information, presenter length information, camera number information, image height information, vertical angle information of the field of view, horizontal, vertical and Z-axis coordinate information of the center of the image plane, and one of the different camera lenses. The coordinates of the X, Y, and Z axes of the center point, and the X, Y, and Z coordinate information in space, starting from the center of the image plane and forming a vector perpendicular to the center line and parallel to the edges of the image plane. Adaptive demultiplexing method for 3D multi-view multimedia processing. 다시점을 이용한 비디오 다중화 장치에 있어서,In the video multiplexing apparatus using multi-view, 비디오 영상 스트림에 시간 및 동기 정보를 추가하고 AU 단위로 나누어 SL 패킷을 생성하는 SL 패킷타이저;An SL packetizer for adding time and synchronization information to a video image stream and dividing the information into AU units to generate an SL packet; 상기 SL 패들로부터 하나의 스트림인 플렉스 멀티플렉서 패킷을 생성하는 중간 단계의 다중화를 수행하는 플렉스 멀티플렉서;A flex multiplexer performing an intermediate multiplexing to generate a multiplexer packet, which is a stream from the SL paddle; 상기 플렉스 멀티플렉서 패킷을 AU 단위로 분리하고 시간과 동기 정보를 획득하여 PES 패킷을 생성하는 PES 패킷타이저; 및A PES packetizer for splitting the flex multiplexer packet into AU units and generating a PES packet by obtaining time and synchronization information; And 상기 PES 패킷을 188 바이트로 TS 패킷화하여 전송하는 TS 멀티플렉서TS multiplexer for TS-forming the PES packet into 188 bytes 를 포함하여 구성됨을 특징으로 하는 3차원 다시점 멀티미디어 처리용 적응형 다중화 장치.Adaptive multiplexing device for three-dimensional multi-view multimedia processing, characterized in that comprises a. 다시점을 이용한 비디오 역다중화 장치에 있어서,In the video demultiplexing apparatus using multi-view, TS로부터 TS 패킷을 추출하여 각 시점의 비디오 영상을 포함하고 있는 PES를 생성하는 TS 디멀티플렉서; A TS demultiplexer for extracting TS packets from the TS and generating a PES including a video image of each view; 상기 비디오 PES로부터 플렉스 멀티플렉서 패킷을 추출하는 PES 디패킷타이저; A PES depacketizer for extracting a flex multiplexer packet from the video PES; 상기 플렉스 멀티플렉서 패킷에서 SL 패킷을 추출하는 디플렉스 멀티플렉서; 및 A deplex multiplexer for extracting an SL packet from the flex multiplexer packet; And 상기 SL 패킷에서 비디오 영상 스트림을 복원하는 SL 디패킷타이저SL depacketizer for restoring a video image stream from the SL packet 를 포함하여 구성됨을 특징으로 하는 3차원 다시점 멀티미디어 처리용 적응형 역다중화 장치.Adaptive demultiplexer for three-dimensional multi-view multimedia processing, characterized in that configured to include.
KR1020030073241A 2003-10-21 2003-10-21 Apparatus for adaptive multiplexing/demultiplexing for 3D multiview video processing and its method KR100566100B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030073241A KR100566100B1 (en) 2003-10-21 2003-10-21 Apparatus for adaptive multiplexing/demultiplexing for 3D multiview video processing and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030073241A KR100566100B1 (en) 2003-10-21 2003-10-21 Apparatus for adaptive multiplexing/demultiplexing for 3D multiview video processing and its method

Publications (2)

Publication Number Publication Date
KR20050038054A true KR20050038054A (en) 2005-04-27
KR100566100B1 KR100566100B1 (en) 2006-03-31

Family

ID=37240549

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030073241A KR100566100B1 (en) 2003-10-21 2003-10-21 Apparatus for adaptive multiplexing/demultiplexing for 3D multiview video processing and its method

Country Status (1)

Country Link
KR (1) KR100566100B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006129914A1 (en) * 2005-05-31 2006-12-07 Samsung Electronics Co., Ltd. Multi-view image system and method for compressing and decompressing applied to the same
KR100658222B1 (en) * 2004-08-09 2006-12-15 한국전자통신연구원 3 Dimension Digital Multimedia Broadcasting System
KR100763441B1 (en) * 2006-09-30 2007-10-04 광주과학기술원 Synchronized multiplexing method, device therefor, demultiplexing method and device therefor
KR100810539B1 (en) * 2005-10-07 2008-03-10 한국전자통신연구원 Method for encoding and decoding hopping default view for multiple cameras system, and apparatus thereof
WO2008147103A1 (en) * 2007-05-29 2008-12-04 Electronics And Telecommunications Research Institute Method for describing and multiplexing objects for 3d still image service based on dmb, and apparatus and decoding apparatus and method thereof
CN102625125A (en) * 2012-03-15 2012-08-01 天津大学 Method for transmitting high-resolution and multi-view stereoscopic video in real time
KR101371064B1 (en) * 2007-05-07 2014-03-10 한국전자통신연구원 Method for transmitting broadcasting signal
CN109547768A (en) * 2018-11-05 2019-03-29 万维科研有限公司 The method for generating the accurate depth map of 3 D video

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11677922B2 (en) 2018-08-12 2023-06-13 Lg Electronics Inc. Apparatus for transmitting a video, a method for transmitting a video, an apparatus for receiving a video, and a method for receiving a video

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100658222B1 (en) * 2004-08-09 2006-12-15 한국전자통신연구원 3 Dimension Digital Multimedia Broadcasting System
WO2006129914A1 (en) * 2005-05-31 2006-12-07 Samsung Electronics Co., Ltd. Multi-view image system and method for compressing and decompressing applied to the same
US8130836B2 (en) 2005-05-31 2012-03-06 Samsung Electronics Co., Ltd. Multi-view stereo imaging system and compression/decompression method applied thereto
KR100810539B1 (en) * 2005-10-07 2008-03-10 한국전자통신연구원 Method for encoding and decoding hopping default view for multiple cameras system, and apparatus thereof
KR100763441B1 (en) * 2006-09-30 2007-10-04 광주과학기술원 Synchronized multiplexing method, device therefor, demultiplexing method and device therefor
KR101371064B1 (en) * 2007-05-07 2014-03-10 한국전자통신연구원 Method for transmitting broadcasting signal
KR101372377B1 (en) * 2007-05-07 2014-03-12 한국전자통신연구원 Method for receiving broadcasting signal
WO2008147103A1 (en) * 2007-05-29 2008-12-04 Electronics And Telecommunications Research Institute Method for describing and multiplexing objects for 3d still image service based on dmb, and apparatus and decoding apparatus and method thereof
CN102625125A (en) * 2012-03-15 2012-08-01 天津大学 Method for transmitting high-resolution and multi-view stereoscopic video in real time
CN109547768A (en) * 2018-11-05 2019-03-29 万维科研有限公司 The method for generating the accurate depth map of 3 D video

Also Published As

Publication number Publication date
KR100566100B1 (en) 2006-03-31

Similar Documents

Publication Publication Date Title
KR100375708B1 (en) 3D Stereosc opic Multiview Video System and Manufacturing Method
US5619256A (en) Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
US5612735A (en) Digital 3D/stereoscopic video compression technique utilizing two disparity estimates
KR100970649B1 (en) Receiving system and method of processing data
US6111596A (en) Gain and offset correction for efficient stereoscopic coding and improved display
KR100556826B1 (en) System and Method of Internet Broadcasting for MPEG4 based Stereoscopic Video
US6055012A (en) Digital multi-view video compression with complexity and compatibility constraints
JP4417421B2 (en) Binocular / multi-view 3D moving image processing system and method
EP0838959B1 (en) Synchronization of a stereoscopic video sequence
KR101664419B1 (en) Reception system and data processing method
US8947504B2 (en) Broadcast receiver and video data processing method thereof
KR102343700B1 (en) Video transmission based on independently encoded background updates
KR100424401B1 (en) 3D Stereoscopic Multiview video system include Searching function
KR20120036848A (en) Broadcast transmitter, broadcast receiver and 3d video processing method thereof
KR20110064161A (en) Method and apparatus for encoding a stereoscopic 3d image, and display apparatus and system for displaying a stereoscopic 3d image
WO2013105401A1 (en) Transmission device, transmission method, receiving device, and receiving method
US9544661B2 (en) Cable broadcast receiver and 3D video data processing method thereof
KR101960315B1 (en) Method and apparatus for processing a 3d service
US20120307006A1 (en) Receiving apparatus, transmitting apparatus, communication system, receiving apparatus control method, and program
KR100566100B1 (en) Apparatus for adaptive multiplexing/demultiplexing for 3D multiview video processing and its method
WO2013073455A1 (en) Image data transmitting device, image data transmitting method, image data receiving device, and image data receiving method
KR101233161B1 (en) Method for transmission and reception of 3-dimensional moving picture in DMB mobile terminal
WO2007007923A1 (en) Apparatus for encoding and decoding multi-view image
KR101556149B1 (en) Receiving system and method of processing data
Gagnon et al. 3D MPEG-2 video transmission over broadband network and broadcast channels

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130111

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20131231

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee