KR20070011341A - 입체적 3d-비디오 이미지 디지털 디코딩 시스템 및 방법 - Google Patents

입체적 3d-비디오 이미지 디지털 디코딩 시스템 및 방법 Download PDF

Info

Publication number
KR20070011341A
KR20070011341A KR1020067020051A KR20067020051A KR20070011341A KR 20070011341 A KR20070011341 A KR 20070011341A KR 1020067020051 A KR1020067020051 A KR 1020067020051A KR 20067020051 A KR20067020051 A KR 20067020051A KR 20070011341 A KR20070011341 A KR 20070011341A
Authority
KR
South Korea
Prior art keywords
video
sequence
image
tdvision
picture
Prior art date
Application number
KR1020067020051A
Other languages
English (en)
Inventor
마누엘 라파엘 구티에레즈 노벨로
Original Assignee
티디비전 코포레이션 에스.에이. 데 씨.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 티디비전 코포레이션 에스.에이. 데 씨.브이. filed Critical 티디비전 코포레이션 에스.에이. 데 씨.브이.
Priority to KR1020067020051A priority Critical patent/KR20070011341A/ko
Publication of KR20070011341A publication Critical patent/KR20070011341A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 자신의 코딩 알고리즘을 사용하는 MPEG-2 호환성 입체적 3D-비디오 이미지 디지털 디코딩 방법과 시스템에 관한 것이다. 디지털 비디오 스트림으로부터 3D-이미지들을 얻기 위해,디코딩 프로세스의 다른 부분들에서의 소프트웨어와 하드웨어 변화들에 의해,변형이 현재의 MPEG2 디코더들에 행해졌다.즉,비디오 데이터 스트림의 비디오 시퀀스(video_sequence) 구조들은 TDVision® 기술 내의 이미지 형태의 비트 레벨에서 필요한 플래그들을 포함하기 위해 소프트웨어를 통하여 변형되고; 변형은 소프트웨어와 하드웨어를 통해 정보를 디코딩할 때와 마찬가지로 디코딩 프로세스에서 행해지며; 여기서 이중 출력 버퍼가 활성화되고, 병렬 및 차이 디코딩 셀렉터가 활성화되고, 감압 프로세스가 실행되며, 대응하는 출력 버퍼가 디스플레이되고; 디코더는 각각이 TDVision® 입체적 식별자를 갖는 2개의 독립적인 프로그램 스트림을 동시에 수신 및 디코드하기 위해서 소프트웨어를 통하여 프로그램되어야 한다.
코딩 알고리즘, MPEG-2 호환성 입체적 3D-비디오 디지털 디코딩, 디지털 비디오 스트림, 3D-이미지, 디코딩 프로세스, MPEG2 디코더, 비디오 데이터 스트림의 비디오 시퀀스(video_sequence) 구조, TDVision® 기술, 비트 레벨, 플래그, 이중 출력 버퍼, 차이 디코딩 셀렉터, 디코더, TDVision® 입체적 식별자

Description

입체적 3D-비디오 이미지 디지털 디코딩 시스템 및 방법{METHOD AND SYSTEM FOR DIGITAL DECODING 3D STEREOSCOPIC VIDEO IMAGES}
본 발명은 3DVisor® 장치에서 입체적 비디오 이미지 디스플레이, 특히 표준화된 압축 기술들을 사용하여 3차원의 정보 저장을 허용하는 디지털 데이터 압축 시스템에 의한 비디오 이미지 디코딩 방법에 관한 것이다.
현재, 데이터 압축 기술들은 이미지 또는 일련의 이미지들의 표현에서 비트 소모를 감소시키기 위해 사용된다.표준화 작업들은 국제 표준 기구(International Standardization Organization)의 전문가들의 그룹에 의해 수행되었다.현재,이 방법들은 보통 JPEG(Joint Photographic Expert Group)와 MPEG(Moving Pictures Expert Group)로서 알려져 있다.
이 기술들의 공통적인 특징은 이미지 블록들이 블록들에 적절한 변환을 적용함으로써 처리된다는 것인데, 이것은 보통 이산 여현 변환(Discrete Cosine Transform;DCT)으로서 알려져 있다.형성된 블록들은 양자화 처리에 제공되고, 그 때 가변 길이 코드로 코딩된다.
가변 길이 코드는 가역 처리인데, 이는 가변 길이 코드로 코딩된 것의 정확한 재구성을 허용한다.
디지털 비디오 신호의 디스플레이는 30 내지 75 Hz의 주파수로 연속해서 표시되거나 표현되는 특정 수의 이미지 프레임(30 내지 96 fps)들을 포함한다.각 이미지 프레임은 특별한 시스템의 디스플레이 해상도에 따라,픽셀 어레이에 의해 형성된 이미지이다.예로서,VHS 시스템은 320개의 컬럼들과 480개의 로우들의 디스플레이 해상도를 갖고,NTSC 시스템은 720개의 컬럼들과 486개의 로우들의 디스플레이 해상도를 갖고,그리고 고해상도 텔레비전 시스템(HDTV)은 1360개의 컬럼들과 1020개의 로우들의 디스플레이 해상도를 갖는다.저해상도, 즉 320개의 컬럼 X 480개의 로우 VHS 포맷의 디지털화 형태를 기준으로, 2시간의 긴 영화는 100 기가바이트의 디지털 비디오 정보와 같을 수 있다. 비교시에, 종래의 콤팩트 광 디스크는 대략 0.6 기가바이트 정도의 용량을 갖고, 자기 하드 디스크는 1 내지 2 기가바이트 용량을 가지며, 현재의 콤팩트 광 디스크들은 8 기가바이트 내지 그 이상의 용량을 갖는다.
우리들이 영화관과 TV 스크린들에서 보는 모든 이미지들은 완전한 이미지들(정적인 이미지, 사진과 같은)을 고속으로 제공하는 원리에 근거한다.이들이 30 프레임/초의 속도(30 fps)로 빠르고 연속적인 방법으로 제공될 때 우리는 그들을 인간의 눈의 잔상 때문에 활동성 있는 이미지로 지각한다.
연속적인 방법으로 표현될 이미지들을 분류하고 비디오 신호들을 형성하기 위해서, 각 이미지는 로우들로 나눠질 필요가 있는데, 여기서 각 라인은 차례대로 화소 또는 픽셀로 나눠지고, 각 픽셀은 2개의 관련된 값,즉 루마(luma) 및 크로마(chroma)를 갖는다. 루마는 각 포인트에서 광 세기를 나타내고, 반면에 3 바이트 에 의해 표현될 수 있는 규정된 컬러 공간(RGB)의 기능으로서 컬러를 나타낸다.
이미지들은 수평-수직 래스터, 상하 및 좌우로 그리고 주기적으로 스크린 상에 표시된다.디스플레이의 라인 수와 주파수는 NTSC,PAL 또는 SECAM 같이,포맷의 기능으로서 바뀔 수 있다.
비디오 신호들은,표준적인 텔레비전 세트 또는 3DVisor® 같은,디스플레이 장치에서 표시되기 위해 전송되고, 수신되고, 디코딩된 후, 디지털 포맷으로 저장되기 위해 디지털화될 수 있는데, 이러한 프로세스는 아날로그 대 디지털 비디오 신호 코딩-디코딩으로서 알려진다.
정의에 의하면,MPEG는 시스템 스트림에서 비디오와 오디오를 인터레이싱하기 위한 2개의 다른 방법들을 가진다.
간섭에 민감한 위성 시스템들 같이,전송 스트림은 더 큰 에러 가능성을 갖는 시스템들에서 사용된다.
각 패키지는 길이 188 바이트이고, 식별 헤더에서 시작하는데, 이는 갭들을 인정하고,가능한 에러들을 수리하게 한다.여러 가지 음성과 비디오 프로그램들은 한 개의 전송 스트림 상에서 동시에 전송 스트림 위에 전송될 수 있고; 헤더로 인해, 이들은 독립적으로 그리고 개별적으로 디코딩될 수 있고,많은 프로그램들에 통합될 수 있다.
프로그램 스트림은 DVD 플레이에서와 같이, 더 작은 에러 가능성을 갖는 시스템들에 사용된다.이 경우,패키지들은 가변-길이와 실질적으로 전송 스트림에서 사용된 패키지들보다 큰 사이즈를 가진다.주된 특징으로서,프로그램 스트림은 한 개의 프로그램 내용만을 허용한다.
전송과 프로그램 스트림들이 다른 패키지들을 처리하는 때에도,비디오와 음성 포맷들은 동일한 형태로 디코딩된다.
순번대로,3개의 압축 형태들이 있는데, 이것은 상기 패키지들,예를 들면 시간 예측,압축 및 공간 압축에 적용된다.
디코딩하는 것은 오랜 수학적 처리와 관련되는데, 그 목적은 정보량을 감소시키는 것이다.
전체 프레임의 완전한 이미지는 소위 매크로블록(macroblock)으로 불리우는 유닛에 의해 나뉘고, 각 매크로블록은 16 픽셀 x 16 픽셀 매트릭스로 만들어지며, 상하 및 죄우로 순서가 정해지고 명명된다.
심지어 스크린 상의 매트릭스 어레이로,정보 스트림 위에 보내진 정보가 특별한 순차적 시퀀스를 따르고, 즉 매크로블록들은 오름 차순으로, 매크로블록0, 매크로블록1 등으로 순서화된다.
연속적인 매크로블록들의 세트는 슬라이스를 표현하고; 매크로블록들이 한 개의 로우에 속한다는 사실하에 슬라이스 내에서 소정 수의 매크로블록들이 될 수 있다.매크로블록들에서와 같이,슬라이스들은 좌측부터 오른쪽으로 그리고 하부로부터 상부로 번호가 매겨진다.이것이 MPEG2가 비디오를 압축하는 형태인 것처럼 슬라이스들은 전체의 이미지를 커버해야만 하고, 코딩된 이미지는 각 픽셀마다 샘플을 반드시 필요로 하지는 않는다.몇몇 MPEG 프로필들은 단단한 슬라이스 구조를 처리할 것을 요구하는데, 그것에 의해 전체의 이미지를 커버해야 한다.
Katata 등에게 1999년 10월 5일 특허된 USP No. 5,963,257호는 위치 영역들과 이미지 형태, 하부 층 코드,예측 코딩 상부 층 코드에 의해 코딩된 데이터를 분리하기 위한 수단으로 평면 비디오 이미지 디코딩 장치를 보호하고, 따라서 코딩된 데이터들의 계층적인 구조를 얻으며; 디코더는 고품질 이미지를 얻기 위해 계층적인 구조에서 코딩된 데이터들을 분리하기 위한 수단을 갖는다.
센(Shen) 등에게 2001년 9월 18일에 특허된 USP No. 6,292,588호는 재구성되는 예측의 평면 이미지들의 데이터가 상기 이미지에 대한 작은 영역 이미지 데이터와 최적의 예측 데이터의 합계로부터 생성되는 방식으로,작은 영역으로부터 디코딩되고 재구성된 예측 평면 이미지들을 코딩하는 장치 및 방법을 보호한다. 이미지 데이터 스트림에 대한 상기 예측 디코딩 장치는 1차원(unidimensional) DCT 계수들을 위한 가변-길이 코드를 포함한다.분(Boon)에게 2002년 4월 9일에 특허된 USP No. 6,370,276호는 상기와 유사한 디코딩 방법을 사용한다.
라자로(Lazzaro) 등에게 2002년 9월 24일에 특허된 USP No. 6,456,432호는 입체적 3D-이미지 디스플레이 시스템을 보호하는데, 이는 이미지들을 2개의 원근법들로부터 잡고,CRT 상에 이들을 표시하며,관찰자의 두 눈에 깜박임없이 필드-순차적 방법으로 이미지들을 다중화한다.
듀로즈(Duruoz) 등에게 2003년 12월 2일에 특허된 USP No. 6,658,056호는 출력 메모리에서 지정되는 장소들의 디지털 비디오 필드를 얻기 위해 "근접 필드" 명령에 응답하는 논리적인 디스플레이 섹션을 포함하는 디지털 비디오 디코더를 보호한다.디지털 비디오 디스플레이 시스템은 MPEG2 비디오 디코더를 갖추고 있다. 이미지들은 메모리 버퍼로서 디코딩되고, 메모리 버퍼는 최적화되어 보상 변수 테이블들을 유지하고,데이터 필드로서 표시된 고정 메모리 포인터 테이블들에 접근하고 있다.
분(Boon)에게 2003년 12월 16일에 특허된 USP No. 6,665,445호는 이미지 전송을 위한 데이터 구조,평면 이미지 코딩 방법 및 평면 이미지 디코딩 방법을 보호한다.디코딩 방법은 2개의 부분으로 구성되는데, 첫번째 부분은 이미지-형태 정보 데이터 스트림을 체계화하는 것이고, 두번째 부분은 이미지 데이터 스트림의 픽셀 값에 대한 디코딩 프로세스이며, 두 부분 다 평면 이미지 신호 코딩에 따라 스위치될 수 있다.
모틴(Moutin) 등에게 2004년 1월 13일에 특허된 USP No. 6,678,331호는 MPEG 디코더를 보호하는데, 이는 공유된 메모리를 사용한다.실제로,회로는 마이크로 프로세서, 평면 이미지 시퀀스를 디코딩하는 MPEG 디코더, 마이크로프로세서용 공통 메모리, 및 디코더를 포함한다.이는 또한 디코더 딜레이를 평가하기 위한 회로, 및 마이크로 프로세서 또는 디코더를 위한 메모리 우선도를 결정하기 위한 제어 회로를 포함한다.
퍼거슨(Ferguson)에게 2004년 1월 13일에 특허된 USP No. 6,678,424호는 실시간 인간 비전 시스템에 대한 행동 모델을 보호하고; 실제로,그것은 2개의 치수들에서 2개의 이미지 신호들을 처리하는데, 하나는 다른 채널들에서 다른 것으로부터 유도된다.
본 발명의 목적은 소프트웨어의 변화들과 하드웨어의 변화들로부터 이루어진 입체적 3D-비디오 이미지 디지털 디코딩 시스템과 방법을 제공하는 것이다.
본 발명의 추가 목적은 정규 비디오 시퀀스(video_sequence) 프로세스가 코딩된 이미지 데이터, 즉 가변 길이 디코딩(variable_length_decoding(VLD)), 역 주사(rse_scan), 역 양자화(inverse_quantization),역 이산 여현 변환(inverse_discrete_cosine_transform(IDCT)), 및 모션 보상(motion_compensation)들에 적용되는 디코딩 방법을 제공하는 것이다.
본 발명의 목적은 또한, 비디오 포맷, 2D-이미지 MPEG2 역방향 호환성의 식별을 디코딩하고, TDVision®형 이미지를 구별하고,최종 이미지 버퍼를 저장하고, 정보 디코딩을 적용하고,에러 정정을 적용하고,그 결과들을 각각의 채널 버퍼에 저장하기 위해 소프트웨어 정보의 변화들을 만드는 것이다.
본 발명의 또 다른 목적은 TDVision®형 이미지가 발견될 때,최종 완전한 이미지의 버퍼가 좌측 또는 오른쪽 채널 버퍼들에 저장되는 그런 방법으로, 비디오 시퀀스(video_sequence) 프로세스 정규 형태를 갖는 디코딩 방법을 제공하는 것이다.
본 발명의 또 다른 목적은 2개의 상호 의존형 (차이)비디오 신호들이 동일한 비디오 시퀀스(video_sequence) 내에 보내어질 수 있는 디코딩 프로세스를 제공하는 것인데, 여기서 정보 디코딩이 적용되고,B형 프레임으로서 저장된다.
본 발명의 또 다른 목적은 에러 정정이 움직임과 색 보정 벡터들이 적용될 때 최종 얻어진 이미지에 적용되는 디코딩 프로세스를 제공하는 것이다.
본 발명의 목적은 또한, 2개의 독립적인 프로그램 스트림들을 동시에 수신하고 체계화하기 위해,소프트웨어에 의해 디코더를 프로그램하는 것이다.
본 발명의 또 다른 목적은 2중 출력 버퍼가 활성화되는 하드웨어를 통하여 3D-이미지 정보를 디코딩-디코딩 시스템을 제공하는 것이다.
본 발명의 또 다른 목적은 병렬로 그리고 차이에 의해 이미지-디코딩 선택기를 활성화시키는 3D-이미지 정보의 디코딩 시스템을 제공하는 것이다.
본 발명의 또 다른 목적은 감압 프로세스를 실행하고,상응하는 출력 버퍼를 표시하는 3D-이미지 정보 디코딩 시스템을 제공하는 것이다.
도 1은 본 발명이 속하는 기술 가지의 맵을 도시한 도.
도 2는 프로세스의 스텝들이 개설되는 순서도를 도시한 도.
도 3은 수정되어야 하는 구조들을 도시한 도.
도 4는 입체적 3D-비디오 이미지의 컴파일을 위한 소프트웨어 포맷을 도시한 도.
도 5는 입체적 3D-비디오 이미지의 컴파일을 위한 하드웨어 포맷을 도시한 도.
하드웨어와 소프트웨어 알고리즘들의 조합은 입체적 3D-이미지 정보 압축을 가능하게 하는데, 그것은 입체적인 쌍 식별자들을 갖는 2개의 동시적 프로그램들을 보내므로써, 코딩-디코딩 프로세스를 촉진하는 것에 의해,2개의 독립적인 비디오 신호로서 수신되지만, 3Dvisionon® 카메라로부터 오는 좌우 신호들에 대응하는 동일한 시간 코드(time_code)를 갖는다. 또한,2개의 상호 의존적 비디오 신호들은 그들의 차이를 얻는 것에 의해 처리될 수 있는데, 그것은 이미지 형태 식별자를 갖는 "B"형 프레임으로서 저장된다.코딩 프로세스가 기술적인 발전을 촉진하기 위해 오픈 상태로 남아 있었기 때문에, 이는 디코딩 프로세스, 즉 상당한 감소가 얻어지지만, 룩-업 테이블이 디코딩을 실행하는데 반드시 사용되어야 하는 경우에 가변-길이 디코딩을 코딩된 데이터에 적용하는 단계; 역의 주사 프로세스를 적용하는 단계; 각 데이터에 스칼라를 곱하게 되는 역 양자화 프로세스를 적용하는 단계; 역의 코사인 변환 기능을 적용하는 단계; 에러 정정 또는 모션 보상 스테이지를 적용하고 결국에는 디코딩된 이미지를 얻는 단계를 따르기 위해 필요할 뿐이다.
도 1은 본 발명의 주 목적이 속하는 기술 맵을 도시한다.그것은 입체적 3D-이미지 코딩 및 디코딩 시스템 및 상응하는 방법을 나타낸다.이미지들은 입체 카메라(32)에서 전달되고, 그 정보는 컴파일되며(31), 소정의 적절한 시스템(30 또는 33)에서 표시된다.정보는 코딩되고(34),그 다음 (35)에서와 같은 적절한 이전의 디코딩 스테이지를 가지고 있는 시스템에 전송될 수 있는데, 이 시스템은 케이블 시스템(36), 위성 시스템(37),고해상도 텔레비전 시스템(38)또는 TDVision®의 3DVisors®(39) 같은 입체적 비전 시스템일 수 있다.
도 2는 프로세스의 스텝들이 개설되는 순서도를 나타낸다.그 목적은 현재의 MPEG2 디코더들에 변형을 가하고 디코딩 프로세스(2)에서 소프트웨어(3)와 하드웨어(4)에 변화를 가하므로써 디지털 비디오 스트림으로부터 삼차원의 이미지들을 얻 는 것이고,디코더(1)은 MPEG2-4와 호환되어야 한다.
도 3은 비트 레벨에서 TDVision® 기술 이미지 형태를 식별하기 위한 데이터 스트림의 비디오 시퀀스(video_sequence) 및 변형되어야 하는 구조들을 개설한다.
디코딩 프로세스의 스테이지들의 각각은 다음에 상술된다(20):
코딩된 데이터(10)는 블록 정보,매크로블록,필드,프레임, 및 MPEG2 포맷 비디오 이미지를 가진 바이트들이다.
가변 길이 디코딩(Variable_length_decoding)(11)(VLC, Variable-length Decoder)는 가장 빈번한 패턴들이 더 짧은 코드들로 대체되고 자주 일어나지 않는 것들은 긴 코드들로 대체되는 압축 알고리즘이다.이 정보의 압축된 버전은 더 적은 공간을 점유하고,네트워크에 의해 더 빨리 전송될 수 있다.그러나,그것은 쉽게 편집 가능한 포맷이 아니고,룩-업 테이블을 사용하는 감압을 필요로 한다.
예를 들면,단어 BEETLE
문자 ASCII 코드 VLC
B 01000010 0000 0010 10
E 0110 0101 11
L 0110 1100 0001 01
T 0111 0100 0100
그러므로,단어에 대한 ASCII 코드는 다음과 같다:
0100 0010 0110 0101 0110 0101 0111 01000 0110 1100 0110 0101
VLC에서:0000 0010 10 11 11 0100 00010 01 11.
상당한 감소는 주목되나, VLC로부터 단어 'Beetle'로 돌아기 위해서, 룩-업 테이블에서의 검색은 비트 스트림을 디코딩할 필요가 있고, 이것은 판독된 비트의 정확한 비교에 의해 만들어진다.
역 주사(12):
정보는 블록들에 의해 그룹화 되어야 하고, VLC로 정보를 코딩하는 것에 의해 선형 스트림은 얻어진다.블록들은 8x8 데이터 매트릭스들이고, 그래서 정방형의 8x8 매트릭스들로 선형 정보를 변환하는 것이 필요하다.이것은 내림순 지그재그 방법, 즉 단계적 이미지 또는 혼용 이미지인 지에 따라, 2가지 시퀀스 형태로 상하 및 좌우로 만들어진다.
역 양자화(13):
이것은 단지 각 데이터 값에 계수를 곱하는 것이다.체계화되면, 블록들의 대부분의 데이터가 인간의 눈이 인지할 수 없는 정보를 제거하기 위해 양자화되고, 양자화는 더 큰 MPEG2 스트림 전환을 얻도록 허용하며, 이것은 또한 디코딩 프로세스에서 처리를 역 프로세스(역 양자화)를 실행하는 것이 요구된다.
역 이산 여현 변환(14)(IDCT, inverse_discrete_cosine_transform):
각 블록내에서 처리되는 데이터는 주파수 도메인에 관련되고, 이러한 역 이산 여현 변환은 공간 도메인의 샘플로 복귀되도록 허용한다. IDCT의 데이터가 변형되면,픽셀,컬러 및 컬러 보정들이 얻어질 수 있다.
모션 보상(15)은 MPEG 포맷의 디코딩 스테이지 전에 발생된 약간의 에러들을 정정하는 것을 허용하고, 모션 보상은 참조로서 이전의 프레임을 취하고,픽셀들에 대한 모션 벡터를 계산하고 (이것은 최고 4개의 벡터까지 계산할 수 있다), 새로운 이미지를 만드는 이들을 사용한다.이러한 모션 보상은 P 및 B형 이미지들에 적용되는데, 여기서 이미지 위치는 참조 이미지로부터 "t" 시간에 걸쳐서 위치한다. 모션 보상에 추가적으로, 에러 정정이 또한 적용되는데, 이는 특별한 픽셀의 위치를 예측하는데 충분하지 않기 때문인데, 그러나 그 컬러에서의 변화가 또한 존재할 수 있다.이와 같이,디코딩된 이미지가 얻어진다(16).
P 또는 B형 이미지를 디코딩하기 위해서, 참조 이미지가 취해지고, 모션 벡터들이 다음 이미지를 계산하기 위해서 대수적으로 추가되며, 마지막으로 에러 정정 데이터가 적용되어, 성공적으로 디코딩된 이미지를 생성한다.실제로,비디오 시퀀스(video_sequence) 내에서,2개의 상호 의존적 비디오 신호들이 존재하고,"R-L= 델타,델타 차이는 TDVision® 식별자를 갖는 B형 입체적 쌍 프레임으로서 저장되고, 이미지로부터의 차이들에 의한 디코딩의 순간에 구성된다.이것은 R-delta = L 및 L-delta = R이고, 좌측 이미지는 우측 이미지와의 차이로부터 만들어지는데, 이는 차례대로 좌측 이미지와의 차이로부터 만들어진다.
이전의 프로세스는 좌측이거나 우측 신호들이 취해지고 둘 다 임시 버퍼에 저장된 다음, 좌우측 신호들 간의 차이가 계산되고, 그 다음 이것은 상기 이미지로부터의 차이들에 의해 나중에 디코딩되는 비디오 시퀀스(video_sequence)에 저장된 B형 이미지로서 코딩되는 방식으로 개설된다.
디코딩 프로세스에서, VLC 스테이지에 의해 입력된 데이터가 동일한 스테이지에 의해 출력된 데이터보다 매우 작은 것이 공제될 수 있다.
MPEG 비디오 시퀀스 구조:
이것은 MPEG2 포맷에서 사용된 최대 구조이고,이하의 포맷을 가진다:
비디오 시퀀스(Video_Sequence)
시퀀스 헤더(Sequence_Header)
시퀀스 확장(Sequence_Extension)
사용자 데이터(0)와 확장(Extension_and_User_Data(0))
이미지 그룹 헤더(Group_of_Picture_Header)
사용자 데이터(1)와 확장(Extension_and_User_Data(1))
이미지 헤더(Picture_Header)
코딩된 이미지 확장(Picture_Coding_Extension)
사용자 데이터(2와 확장(Extension_and_User_Data(2))
이미지 데이터 (Picture_Data)
슬라이스 (Slice)
매크로블록(Macroblock)
모션 벡터(Motion_Vectors)
코딩된 블록 패턴 (Coded_Block_Pattern)
블록(Block)
최종 시퀀스 코드(Sequence_end_Code)
이들 구조는 비디오 시퀀스를 만든다. 비디오 시퀀스는 시퀀스 헤더 직후 시퀀스 확장이 존재한다는 검증이 있어야 하는 각 버전을 차등화하기 위해서 MPEG 포맷에 적용되고; 시퀀스 확장이 헤더를 따르지 않으면, 스트림은 MPEG1 포맷 내에 있다.
비디오 시퀀스의 처음에,시퀀스 헤더(sequence_header)와 시퀀스 확장(segquence_extension)은 비디오 시퀀스(video_sequence)에 나타난다.시퀀스 확장(sequence_extension) 반복들은 첫번째 시도와 동일하여야 하고, 시퀀스 헤더의 "s" 반복들은 첫번째 발생에 비해 거의 변함이 없고, 양자화 매트릭스들을 한정하는 부분만이 변한다. 시퀀스 반복이 비디오 스트림에 랜덤 액세스를 허용한다면, 즉 디코더가 비디오 스트림의 중간에서 플레이를 시작하기를 원한다면,이것은 단지 다음의 이미지들을 디코딩하기 위해 그 순간 이전에 시퀀스 헤더(sequence_header)와 시퀀스 확장(sequence_extension)을 발견할 필요가 있기 때문에, 행해질 수 있다. 이는 또한 전송 시간 이후 작동하는 위성 디코더 같이,처음부터 시작될수 없었던 비디오 스트림들을 위해 발생한다.
전(full) 비디오 신호 코딩-디코딩 프로세스는 이하의 스텝들로 이루어진다:
NTSC,PAL 또는 SECAM 포맷으로 행해질 수 있는 비디오 신호의 디지털화하는 단계.
비디오 신호를 디지털 형태로 저장하는 단계.
신호를 전송하는 단계.
물리적 매체(DVD, VCD, MniDV)에 디지털 비디오 스트림을 기록하는 단계.
신호를 수신하는 단계.
비디오 스트림을 플레이하는 단계.
신호를 디코딩하는 단계.
신호를 표시하는 단계.
적절한 DSP에 의해 처리될 메모리를 2배로 하고, 최대 8개의 출력 버퍼까지 배치할 수 있는 것이 기본적인데, 이는 TDVision®의 3DVisor® 같은 장치 위에 입체적 이미지를 이전에 및 동시에 표현하는 것을 허용한다.
실제로, 2개의 채널들은 예를 들어, 텍사스 인스트루먼츠 TMS320C62X DSP의 실례가 되는 경우로서, DSP의 프로그래밍 API를 호출할 때 초기화되어야 한다.
MPEG2VDEC_create
(const IMPEG2VDEC_fxns*fxns, const MEPG2VDEC_Params*params).
여기서, IMPEG2VDEC_fxns y MEPG2VDEC_Params은 각 비디오 채널에 대해 동작 매개 변수들을 정의하는 포인터 구조들인데, 예를 들면 다음과 같다:
3DLhandle=MPEG2VDEC_create(fxns3DLEFT,Params3DLEFT).
3DRhandle=MPEG2VDEC_create(fxns3DRIGHT,Params3DRIGHT).
이것에 의해 2개의 비디오 채널들이 디코딩되게 하고, 2개의 비디오 핸들러를 얻게 하는데, 하나는 좌-우 입체적 채널을 위한 것이다.
2중 디스플레이 출력 버퍼들이 필요하고,소프트웨어에 의해,2개의 버퍼들 중 어느 쪽이 AP 기능을 호출하는 것에 의해 출력을 표시해야 하느냐가 정의된다:
즉, MPEG2VDEC_APPLY(3DRhandle,inputR1,inputR2,inputR3,
3doutright_pb, 3doutright_fb).
MPEG2VDEC_APPLY(3DLhandle,inputL1,inputL2,inputL3,3doutleft_pb,
3doutleft_fb).
이 같은 동일한 절차는 유사하는 기능들을 갖는 소정의 DSP,마이크로프로세서 또는 전자 장치에 대해 실현될 수 있다.
3DLhandle가 DSP의 생성 기능에 의해 복귀된 핸들에의 포인터인 경우, input1 매개 변수는 FUNC_DECODE_FRAME 또는 FUNC_START_PARA 어드레스이고, input2는 외부의 입력된 버퍼 어드레스에 대한 포인터이며, input3는 외부의 입력 버퍼 사이즈의 크기이다.
3doutleft_pb는 매개 변수 버퍼의 어드레스이고,3doutleft_fb는 디코딩된 이미지가 저장될 출력 버퍼의 처음이다.
타임코드(timecode)와 타임스탬프(timestamp)는 시퀀스적이고 동기화된 방식으로 최종적인 장치에 출력을 위해 사용된다.
DSP에 의해 처리될 메모리를 2배로 하고, 최대 8개의 출력 버퍼까지 배치할 수 있는 것이 기본적인데, 이는 TDVision® 회사의 3DVisor® 같은 장치 위에 입체적 이미지를 이전에 및 동시에 표시하는 것을 허용한다.
소프트웨어와 하드웨어 프로세스들의 통합은 DSP로서 알려진 장치들로 수행되는데, 이는 대부분의 하드웨어 프로세스들을 실행한다.이들 DSP는 제조업자에 의해 제공된 C 및 어셈블리 언어 하이브리드에 의해 프로그램된다.각 DSP는 자신의 API를 가지고,DSP에 위치하고 소프트웨어에 의해 호출된 기능 리스트 또는 절차 호출들로 이루어져 있다.
이 참조 정보로,MPEG2 포맷-호환성 3D-이미지 디코딩을 위한 현재의 출원이 만들어진다.
실제로,비디오 시퀀스의 처음에, 시퀀스 헤더(sequence_header)와 시퀀스 확장은 항상 나타난다.시퀀스 확장의 반복들은 처음과 동일해야 한다.이에 반하여,시퀀스 헤더 반복들은 첫번째 발생과 비교하여 약간 바뀌고,양자화 매트릭스들을 한정하는 부분만이 변한다.
도 4는 TDVision® 디코딩 방법(40)에 대한 컴파일 소프트웨어 포맷을 도시하는데, 여기서 디지털 입체적 이미지 비디오 스트림의 비디오 시퀀스(video_sequence)(41)이 식별되는데, 이는 시퀀스 헤더(sequence_header)(42)내에서,종속적이거나 독립적 (병렬 이미지)일 수 있다.이미지가 TDVision®이면, 2중 버퍼는 활성적으로 되다,종횡비 정보(aspect_ratio_information)의 변화들은 식별된다.여기에서 발견될 수 있는 이미지에 대응하는 정보는 사용자 데이터(user_data)(43)에서 판독된다.시퀀스 스케일러블 확장(sequence_scalable_extension)(44)은 내부에 및 베이스 및 보완계층들 내에 포함된 정보를 식별하고, 비디오 시퀀스(video_sequence)는 여기에 위치할 수 있으며, 스케일러블 모드(scalable_mode)와 층 식별자를 정의한다.엑스트라 비트 픽처(extra_bit_picture)(45)는 픽처 구조(picture_structure)를 식별하고,픽처 헤더(picture_header)와 픽처 코딩 확장(picture_coding_extension)(46)은 "B"형 이미지들을 판독하며, 그것이 TDVision®형 이미지이면, 제2 버퍼를 디코딩한다.픽처 임시 스케일러블 확장(picture_temporal_scalable_extension)(47)은 임시 스케일러빌러티를 갖는 경우에, B형 이미지들을 디코딩하는데 사용된다.
즉,시퀀스 헤더(sequence_header)는 각각에 대응하는 비트의 수를 명확히 하기 위해 비디오 스트림 상에 더 높은 정보 레벨을 제공하고, 최상위 비트는 시퀀스 확장(Sequence_Extension)구조 내에 위치하며, 이는 이하의 구조들에 의해 형성된다:
Sequense_Header
Figure 112006070491775-PCT00001
Figure 112006070491775-PCT00002
Figure 112006070491775-PCT00003
Figure 112006070491775-PCT00004
Picture _ coding _ extension
Figure 112006070491775-PCT00005
Figure 112006070491775-PCT00006
Figure 112006070491775-PCT00007
Figure 112006070491775-PCT00008
Picture _ temporal _ scalable _ extension ()
2개의 공간 해상도 스트림은 임시 스케일러빌러티를 갖는 경우에 존재하고, 하부층은 비디오 프레임들의 더 작은 인덱스 버전을 제공하며,반면에 상부층은 동일한 비디오의 프레임들의 더 큰 인덱스 버전을 끌어내기 위해 사용될 수 있다.임시 스케일러빌러티는 낮은 품질,저비용 또는 자유 디코더들에 의해 사용될 수 있는 반면, 초당 더 큰 프레임들은 비용을 위해 사용된다.
Picture_temporal_scalable_extension()
Figure 112006070491775-PCT00009
Figure 112006070491775-PCT00010
Picture_spatial_scalable_extension()
이미지 공간 스케일러빌러티의 경우, 보완계층은 데이터를 포함하는데, 이는 기본계층의 양호한 해상도를 허용하여, 재구성될 수 있게 한다. 보완계층이 모션 보상을 위한 참조로서 기본계층의 기능으로서 사용될 때,하부층은 보완계층의 더 큰 해상도를 얻기 위해 확대되고 오프셋되어야 한다.
Figure 112006070491775-PCT00011
Figure 112006070491775-PCT00012
이는 단순한 구조이고,자체 내에 필드를 갖지 않는다.
Slice()
동일한 수직 위치의 하나 이상의 매크로블록 상의 정보를 포함.
Figure 112006070491775-PCT00013
EXTENSION_AND_USER_DATA(2)
이미지는 다음에서 표시될 수 있다:
DVD (디지털 비디오 디스크)
DTV (디지털 텔레비전)
HDTV (고해상도 텔레비전)
CABLE (DVB 디지털 비디오 방송)
SATELLITE (DSS 디지털 위성 시스템); 그리고 이는 소프트웨어와 하드웨어 프로세스 통합이다.
도 5의 하드웨어(50)부의 디코딩 컴파일 포맷은 DSP 입력 메모리에서 복사되고, 동시에 2개의 독립적인 또는 종속적인 비디오 신호의 동시성 입력은 입체적 TDVision® 카메라에 의해 잡혀진 좌-우 입체적 기존 신호에 대응하여, 허용된다. 절차에서, 비디오 시퀀스(video_sequence)(51)은 좌우 프레임들을 교호시키거나 이들을 병렬로 전송시키기 위해 검출되고, 시퀀스 헤더(sequence_header)가 식별되고(52), 이미지 형태가 식별되며(53), 이는 정상 비디오 스트림(54)에 통과되고, 그 다음 이는 에러 보정 프로세스에 전달되고(55), 비디오 이미지 정보가 출력 버퍼(56)에 전송되는데, 이는 차례로 상기 채널 내의 좌측 채널(57) 및 우측 채널(58)에 정보를 분할 및 분산시키고, 비디오 스트림 정보는 3D 또는 2D로 표시된다.
2개의 독립적인 비디오 스트림으로서 동시적 형태로, 그러나 동일한 시간 코드(time_code)와 동기되는 형태로 L(좌측)과 R(우측)비디오 스트림들을 저장하므로, 이들은 나중에 디코딩될 수 있고, 큰 출력 버퍼 내에서 병렬로 재생된다. 이들은 또한 차이에 의해 독립적이고 디코딩될 수 있다.
하드웨어에 관해서,대부분의 프로세스는 DSP(디지털 신호 프로세서)로서 알려진 장치들로 실행된다.예로서, 즉 모토로라와 텍사스 인스트루먼츠 (TMS320C62X)모델들이 사용될 수 있다.
이들 DSP는 해당 제조업자에 의해 제공된 C 및 어셈블리 언어로부터의 복합형 언어에 의해 프로그램된다.각 DSP는 자신의 API를 가지고,소프트웨어에 의해 호출될 DSP 내에 위치한 절차 호출들 또는 기능 리스트로 이루어져 있다.이 참조 정보로부터,3D-이미지들은 코딩되는데, 이는 MPEG2 포맷과 호환되고 그들 자신의 코딩 알고리즘과 호환성을 가진다.정보가 코딩될 때,MPEG2 압축 비디오 스트림을 형성하기 위해서, DSP는 예측,비교,양자화 및 DCT 기능 적용 프로세스들의 실행을 담당한다.
디지털 비디오 스트림으로부터 삼차원의 이미지들을 얻기 위해,디코딩 프로세스의 다른 부분에서의 소프트웨어와 하드웨어 변화들에 의해,특정한 변형들이 현재의 MPEG2 디코더들에 행해졌다.비디오 데이터 스트림의 구조및 비디오 시퀀스(video_sequence)는 TDVision® 기술 이미지 형태를 비트 레벨에서 식별하기 위해 필요한 플래그들을 포함하도록 변형되어야 한다.
변형들은 다음 디코딩 스텝들에서 이루어진다.
소프트웨어:
- 비디오 포맷 식별.
- TDVision®가 아닌 경우에 MPEG2 역방향 호환성을 위해 논리 "and"의 적용.
- 정상 방식 (이전의 기술)으로 비디오 시퀀스(video_sequence)를 스캐닝하는 이미지 디코딩.
- TDVision®형 이미지의 경우:
_ 이들이 종속적이거나 독립적인 비디오 신호들 인지를 판별.
_ 최종 완전한 이미지 버퍼를 좌측이거나 우측 채널 버퍼에 저장.
_ B형 프레임 정보 디코딩을 적용.
_ 모션과 컬러 보정 벡터들을 적용하는 것에 의해 최종 얻어진 이미지에 에러 정정을 적용.
_ 결과들을 그들 각각의 채널 버퍼에 저장.
_ 비디오 시퀀스 판독을 지속.
하드웨어:
정보가 하드웨어를 통해 디코딩되면;
_ 이미지가 2D 또는 3D 인지를 판별한다.
_ 이중 출력 버퍼를 활성화시킨다 (메모리는 증가).
- 차이 디코딩 셀렉터는 활성화된다.
- 병렬 디코딩 셀렉터는 활성화된다.
- 감압 프로세스는 실행된다.
_ 이미지는 그 상응하는 출력 버퍼에서 표시된다.
이하의 구조,서브-구조 및 시퀀스는 특정 방식으로 사용되고; 이들은 MPEG2 역방향 호환성 TDVision® 기술의 하드웨어 실현을 위해 비디오 비디오 시퀀 스(video_sequence) 구조에 속한다.
실제로:
시퀀스 헤더(Sequence_header)
종횡비 정보(Aspect_ratio_information)
1001 TDVision®에서 n/a
1010 TDVision®에서 4:3
1011 TDVision®에서 16:9
1100 TDVision®에서 2.21:1
논리 "and"는 2D 시스템들과의 역방향 호환성을 얻기 위해 0111로 실행되고, 이것이 발생하면, 명령은 입체적인 쌍(좌측 또는 우측)의 버퍼들이 소스와 반드시 같은 DSP에 지시가 전달되고, 따라서 모든 디코딩된 이미지는 출력 버퍼 둘 다에 보내어져 소정의 장치에서의 이미지 디스플레이를 허용한다.
프레임 비율 코드(Frame_rate_code)
1001 TDVision® 포맷에서 24,000/101(23.976)
1010 TDVision® 포맷에서 24
1011 TDVision® 포맷에서 25
1100 TDVision® 포맷에서 30,000/1,001(29.97)
1101 TDVision® 포맷에서 30
1110 TDVision® 포맷에서 50
1111 TDVision® 포맷에서 60,000/1001(59.94)
0111를 갖는 논리 "and"는 2D 시스템들과의 역방향 호환성을 얻기 위해 실행된다.
사용자 데이터(User_data())
시퀀스 스케일러블 확장(Sequence_scalable_extension)
픽처 헤더(Picture_header)
엑스트라 비트 픽처(Extra_bit_picture)
0 = TDVision®
1 = 정상
픽처 코딩 확장(Picture_coding_extension)
픽처 구조(Picture-structure)
00 = 는 TDVision® 포맷에서의 이미지
픽처 임시 스케일러블 확장(Picture_temporal_scalable_extension())
정보를 코딩하는 순간에, 예측,비교 및 양자화 프로세스들을 실행하는 것을 담당하고,MPEG2 압축 비디오 스트림을 형성하기 위해 DCT를 적용하며, 2D 또는 3D-이미지들을 판별하는 DSP가 사용된다.
2개의 비디오 신호들은 동일한 시간 코드(time_code)를 갖지만 독립적인 형태로 코딩되고, 좌측 신호 및 우측 신호에 대응하는 신호들은 TDVision® 카 메라로부터 전송되며, TDVision® 입체적 쌍 식별자들로 프로그램 둘 다를 동시에 전송한다.이러한 형태의 디코딩은 "병렬 이미지 방식(by parallel images)"으로서 알려져 있고, 동기화된 시간 코드(time_code-synchronized)를 갖지만 2개의 동립적인 비디오 스트림으로서 동시에 좌우측 (L 및 R) 비디오 스트림 둘 다를 저장한다. 나중에,이들은 디코딩되고 병렬로 재생된다.디코딩 소프트웨어만이 디코딩되어야 하고, 전송 스트림의 코딩과 압축 알고리즘은 현재의 것과 동일하게 된다.
디코더에서의 소프트웨어 변형.
디코더에서,2개의 프로그램 스트림들은 동시에 프로그램되어야 하고, 또는 2개의 상호 의존적 비디오 신호들은, 즉 TMS320C62X 패밀리 텍사스 인스트루먼츠 DSP의 이용시에, 예의 경우에서와 같이 프로그래밍 API 후에,식별자를 갖는 B형 프레임으로서 둘 다 저장된 것들 간의 차이로부터 구성된다.
DSP의 프로그래밍 알고리즘과 방법.
_ DSP를 작동할 때 2개의 프로세스 채널들을 생성한다 (1차 및 2차 버퍼 또는 API를 호출할 때 좌우측 버퍼).
_ 각 채널마다 RAM 메모리 포인터들을 취득한다(메모리 맵의 RAM 어드레스)
_ TDVision®형 비디오 시퀀스가 얻어지면,
이는 B형으로서 취해진다.
이미지가 실시간으로 디코딩된다.
변화 또는 차이가 상보적인 버퍼에 적용된다.
결과는 2차 버퍼 내에 저장된다.
비디오 시퀀스(video_sequence) 데이터 스트림에서 소프트웨어에 관련하여, 2개의 옵션들은 실현된다:
1. - 하나는 소프트웨어만을 변형하고,입체적 신호를 재생하도록 허용하는 에러 정정을 저장하기 위해 사용자 데이터(user_data()) 섹션을 사용한다.
2. - 다른 하나는 MPEG2-호환성 판독기에 투명하고,TDVision® 호환성 DSP에 의해 디코딩될 수 있는 픽처 데이터(PICTURE_DATA3D()) 기능을 하드웨어에 의해 가능하게 한다.
MPEG2 디코더가 사용자 데이터(user_data()) 코드를 검출하는 순간에, 3DVISION_START_IDENTIFIER = 0X000ABCD 32-비트 식별자를 조사하는데, 이는 매우 상위이며 코드를 재생하기가 어렵거나, 데이터를 나타내지 못한다.그 다음,판독될 3D 블록 길이는 고려되지 않는데, 이는 32-비트의 "n" 데이터이다.이 정보가 사용자 데이터(USER_DATA()) 내에서 검출되면,특별한 디코딩 기능에 대한 호출이 이루어지는데, 이는 출력 버퍼와 비교되고, 비디오 시퀀스(video_sequence)의 현재 판독된 오프셋으로부터 적용되며, n 바이트는 전형적인 정정으로서 B형 프레임들을 위한 것이다.이러한 정정의 출력은 다른 출력 어드레스에 전송되는데, 이는 전자 디스플레이 장치에 존재하는 것에 추가적인 비디오 출력에 직접 관련된다.
만일 픽처 데이터(PICTURE_DATA3D()) 구조가 인지되면,그것은 디코더에 의해 직접 정보를 판독하는 것으로 진행되지만; 그것은 2차 출력 버퍼 내에 정보를 기록하는데, 이는 또한 전자 디스플레이 장치에 존재하는 것에 추가적인 비디오 출력에 접속된다.
프로그램 스트림의 경우에,2개의 신호(좌우)가 시간 코드(time_code)에 의해 동기화되는데, 이는 충분한 동시성 다중 비디오 채널 디코딩 능력을 갖는 MPEG 디코더에 의해 병렬로 디코딩되고, 또는 동일한 비디오 시퀀스(video_sequence) 내의 2개의 상호 의존적인 비디오 신호, 예를 들면 "R-L = 델타"를 전송할 수 있는데, 여기서 델타는 입체적 쌍 TDVision® 식별자를 가진 "B"형 프레임으로서의 차이 저장들이고, 예시적이지만 예에 국한되지 않는, 상기 텍사스 인스트루먼츠 DSP 의 경우에서와 같이, 이미지로부터의 차이, 즉 "R-델타 = L" 또는 "L-델타 = R"에 의한 디코딩의 순간에 재구성될 수 있다.
싱글 비디오 시퀀스를 포함하는 비디오는 또한 구현되지만; 초당 60 프레임 (각 30 프레임)에서 좌우의 프레임들을 교체하고, 디코딩될 때,비디오 버퍼 이미지를 대응하는 좌측 또는 우측 채널에 배치한다.
그것은 또한 신호가 TDVision® 형태인 경우에 하드웨어를 통한 검출 능력을 갖고, 이것이 그 경우이라면, 이는 초당 60 프레임에서 전송 스트림,프로그램 스트림 또는 좌우 멀티플렉션 인지가 식별된다.
전송 스트림의 경우,DSP가 소정의 TDVision® 또는 이전 기술의 장치에서 이미지를 표시하기 위해 디스에이블된 경우에, 2D에서만 3D 특징 없이 동일한 비디오를 표시하는 능력을 갖는, 현재의 디코더들에서 역방향 호환성 시스템이 이용가능하다.
프로그램 스트림의 경우,위성 통신 시스템들에서 현재 사용되는 것들과 같이, 변형되지 않은 코더들이 사용되지만; 리셉터 및 디코더는 TDVision® 플래그 식별 시스템을 가지므로써, 2차 비디오 버퍼가 좌우 쌍을 형성하게 한다.
마지막으로,다중화된 비디오의 경우,2개의 비디오 버퍼들(좌우)를 가진 MPEG 디코더가 인에이블되어, 적절한 프레임들을 식별하고,초당 30 프레임에서 각 신호를 분리하므로써, 비디오 스트림이 일정하고그리고 인간의 눈의 특징적 잔상으로 인해 멀티플레션 효과가 평가되지 않는 때문에 이와 같이 깜박임 없는 이미지를 제공한다.
발명의 특별한 구체화들이 도시되고 기술하게 되었지만,본 발명의 범위를 벗어나지 않는 한도에서 본 분야의 숙련자들에게는 다양하게 변형 또는 변화될 수 있는 것들은 명백할 것이다.모든 그러한 변형들과 변화들은 본 발명의 범위내에서 다음의 청구범위에 의해 커버된다.

Claims (10)

  1. 비디오 데이터 스트림의 비디오 시퀀스(video_sequence)의 구조가 이미지 형태를 위해 비트 레벨에서 필요한 플래그를 갖도록 소프트웨어를 통해 변형되는 입체적 3D-비디오 이미지 디지털 디코딩 시스템 및 방법에 있어서, 소프트웨어를 단지 변형하고,그리고 입체적 비디오 신호를 재생하도록 허용하는 에러 정정을 저장하기 위해 사용자 데이터(user_data()) 섹션을 사용하는 것을 특징으로 하고, 이것에 의해 실제로 비디오 포맷을 식별하고; TDVision® 비디오가 아닌 경우에 MPEG2 역방향 호환성을 위해 논리 "and"를 적용하고; 전형적으로 비디오 시퀀스(video_sequence)를 스캔하므로써 디코딩되며; 이미지가 TDVision® 이미지이면:
    a) 최종 완전한 이미지 버퍼를 좌측 또는 우측 채널 버퍼에 저장하고,
    b) B형 프레임 정보를 위해 차이 또는 병렬 디코딩을 적용하며,
    c) 모션과 컬러 보정 벡터들의 적용에 의해 얻어진 최종 이미지에 에러 정정을 적용하고,
    d) 그 결과들을 그들 각각의 채널 버퍼에 저장하며,
    e) 비디오 시퀀스(video_sequence) 판독을 계속하는
    것을 특징으로 하는 입체적 3D-비디오 이미지 디지털 디코딩 시스템 및 방법.
  2. 제1항에 있어서, 비디오 데이터 스트림의 비디오 시퀀스 구조는 이미지 형태 의 비트 레벨에서 필요한 플래그를 포함하기 위해 소프트웨어를 통해 변형되고, 디코더 컴파일 포맷은
    a) 비디오 시퀀스(video_sequence)를 판독하고,
    b) TDVision® 이미지가 식별되고, 그 다음 이중 버퍼를 활성화하는 경우에, 시퀀스 헤더(sequence_header)를 판별하며,
    c) 상기 구조에 포함된 경우에, 사용자 데이터(user_data)에서 이미지를 판독하고,
    d) 비디오 시퀀스(video_sequence) MPEG에 시퀀스 스케일러블 확장 (sequence_scalable_extension) 정보를 더하고, 상기 정보는 상기 구조 내에 포함되며,
    e) 엑스트라 비트 픽처(extra_bit_picture) 내의 TDVision® 이미지 식별자를 픽처 헤더(picture_header) 내에서 찾고,
    f) 픽처 코딩 확장(picture_coding_extension) 내의 "B"형 이미지를 판독하고, 이것이 TDVision®형 이미지이면,그 때 2차 버퍼를 디코딩하며,
    g) 만일 이미지가 일시적으로 스케일러블하면, 디코더에 "B"를 적용하는 것을 더 특징으로 하는 입체적 3D-비디오 이미지 디지털 디코딩 시스템 및 방법.
  3. 제1항에 있어서, 비디오 데이터 스트림의 비디오 시퀀스 구조는 이미지 형태의 비트 레벨에서 필요한 플래그를 포함하기 위해 소프트웨어를 통해 변형되고, 디코더가 사용자 데이터(user_data()) 코드를 검출하면,그것이 32-비트 3DVision® _start_identifier = 0x000ABCD 식별자를 검색하고, 이러한 정보를 검출함에 따라 출력 버퍼를 비교하고 비디오 시퀀스(video_sequence)의 현재 판독 오프셋으로부터 그것을 적용하는 특별한 디코딩 기능에 호출이 행해지는 것을 더 특징으로 하는 입체적 3D-비디오 이미지 디지털 디코딩 시스템 및 방법.
  4. 제1항에 있어서, 비디오 데이터 스트림의 비디오 시퀀스 구조는 이미지 형태의 비트 레벨에서 필요한 플래그를 포함하기 위해 소프트웨어를 통해 변형되고, 디코더가 동시에 2개의 프로그램 스트림들을 수신하고 디코딩하기 위해 소프트웨어를 통하여 프로그램되어야 하는 것을 더 특징으로 하는 입체적 3D-비디오 이미지 디지털 디코딩 시스템 및 방법.
  5. 제1항에 있어서, 비디오 데이터 스트림의 비디오 시퀀스 구조는 이미지 형태의 비트 레벨에서 필요한 플래그를 포함하기 위해 소프트웨어를 통해 변형되고, 2개의 상호 의존적 비디오 신호들이 동일한 비디오 시퀀스(video_sequence) 내에 전송될 수 있고; 하나를 의존하는 상기 신호는 다른 하나를 형성하고, TDVision® 카메라로부터 전송되며; 그들의 대수적 추가(R-L=delta)의 견지에서, 각 신호는 B형 프레임으로서 저장되는데, 디코딩은 그들 중 하나로부터의 차이에 의해 행해지는 것을 더 특징으로 하는 입체적 3D-비디오 이미지 디지털 디코딩 시스템 및 방법.
  6. 제1항에 있어서, 비디오 데이터 스트림의 비디오 시퀀스 구조는 이미지 형태 의 비트 레벨에서 필요한 플래그를 포함하기 위해 소프트웨어를 통해 변형되고, 2개의 독립적인 비디오 스트림 L과 R이 동일한 시간 코드(time_code)로 동기화되고, 병렬로 디코딩되고 표시되지만, 동시성 형태로 저장되는 것을 더 특징으로 하는 입체적 3D-비디오 이미지 디지털 디코딩 시스템 및 방법.
  7. 비디오 데이터 스트림의 비디오 시퀀스(video_sequence) 구조가 하드웨어를 통해 변형되는 입체적 3D-비디오 이미지 디지털 디코딩 시스템 및 방법에 있어서, MPEG2 역방향 호환성 TDVision® 기술을 하드웨어를 통해 구현하기 위해 비디오 시퀀스(video_sequence)에 속하는 구조, 서브 구조 및 시퀀스들의 특정 사용을 특징으로 하고, 실제로, 신호가 2S 또는 3D 신호인 지를 판별하고, 이중 출력 버퍼 (추가 메모리)를 활성화하며, 병렬 디코딩 셀렉터를 활성화하고, 차이-디코딩 셀렉터를 활성화하며, 이미지 감압 프로세스를 실행하고, 대응하는 출력 버퍼 내의 이미지를 표시하며; 호환성 MPEG2 판독기에 투명한 픽처 데이터(PICTURE_DATA3D()) 기능을 인에이블시키는 것을 더 특징으로 하는 입체적 3D-비디오 이미지 디지털 디코딩 시스템 및 방법.
  8. 제7항에 있어서, MPEG2 역방향 호환성 TDVision® 기술을 하드웨어를 통해 구현하기 위해 비디오 시퀀스(video_sequence)에 속하는 구조, 서브 구조 및 시퀀스들의 다음의 특정한 사용을 특징으로 하고 비디오 데이터 스트림의 비디오 시퀀스(video_sequence) 구조가 하드웨어를 통해 변형되는 입체적 3D-비디오 이미지 디 지털 디코딩 시스템 및 방법.
    a) 시퀀스 헤더(Sequence_header)
    종횡비 정보(Aspect_ratio_information)
    1001 TDVision®에서 n/a
    1010 TDVision®에서 4:3
    1011 TDVision®에서 16:9
    1100 TDVision®에서 2.21:1
    0111을 갖는 논리 "and"는 2D 시스템들과의 역방향 호환성을 얻기 위해 실행되고, 여기서 명령은 입체적인 쌍(좌측 또는 우측)의 버퍼들이 소스와 반드시 같다는 것을 나타내는 DSP에 지시가 전달되고;
    b) 프레임 비율 코드(Frame_rate_code)
    1001 TDVision® 포맷에서 24,000/1001(23.976)
    1010 TDVision® 포맷에서 24
    1011 TDVision® 포맷에서 25
    1100 TDVision® 포맷에서 30,000/1001(29.97)
    1101 TDVision® 포맷에서 30
    1110 TDVision® 포맷에서 50
    1111 TDVision® 포맷에서 60,000/1001(59.94)
    0111를 갖는 논리 "and"는 2D 시스템들과의 역방향 호환성을 얻기 위해 실행되는데, 여기서 명령은 입체적인 쌍(좌측 또는 우측)의 버퍼들이 소스와 반드시 같다는 것을 나타내는 DSP에 지시가 전달되며;
    c) 사용자 데이터(User_data())
    시퀀스 스케일러블 확장(Sequence_scalable_extension)
    d) 픽처 헤더(Picture_header)
    엑스트라 비트 픽처(Extra_bit_picture)
    0 = TDVision®
    1 = 정상
    e) 픽처 코딩 확장(Picture_coding_extension)
    픽처 구조(Picture-structure)
    00 = TDVision® 포맷에서의 이미지
    f) 픽처 임시 스케일러블 확장(Picture_temporal_scalable_extension()).
  9. 제7항에 있어서, 픽처 데이터(PICTURE_DATA3D()) 구조가 인지되면,그것은 디코더에 의해 직접 정보를 판독하는 것으로 진행되지만;
    그것은 전자 디스플레이 장치에 존재하는 것에 추가적인 비디오 출력에도 접속되는 2차 출력 버퍼 내에 정보를 기록하는 것을 특징으로 하고 비디오 데이터 스트림의 비디오 시퀀스(video_sequence) 구조가 하드웨어를 통해 변형되는 입체적 3D-비디오 이미지 디지털 디코딩 시스템 및 방법.
  10. 제7항에 있어서, 신호가 TDVision® 형태인 경우에, 그것이 초당 60 프레임에서 전송 스트림,프로그램 스트림 또는 좌우 멀티플렉션 인지가 식별되고;
    전송 스트림인 경우,현재의 2D 코더들에서 역방향 호환성을 가지며;
    여기서 명령은 입체적인 쌍(좌측 또는 우측)의 버퍼들이 소스와 반드시 같다는 것을 나타내는 DSP에 지시가 전달되며, TDVision®의 3D 특징 없이 비디오를 표시하는 능력을 가지고 있는 것을 특징으로 하고 비디오 데이터 스트림의 비디오 시퀀스(video_sequence) 구조가 하드웨어를 통해 변형되는 입체적 3D-비디오 이미지 디지털 디코딩 시스템 및 방법.
KR1020067020051A 2006-09-27 2004-02-27 입체적 3d-비디오 이미지 디지털 디코딩 시스템 및 방법 KR20070011341A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020067020051A KR20070011341A (ko) 2006-09-27 2004-02-27 입체적 3d-비디오 이미지 디지털 디코딩 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020067020051A KR20070011341A (ko) 2006-09-27 2004-02-27 입체적 3d-비디오 이미지 디지털 디코딩 시스템 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020117022035A Division KR101177663B1 (ko) 2004-02-27 2004-02-27 입체적 3d-비디오 이미지 디지털 디코딩 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20070011341A true KR20070011341A (ko) 2007-01-24

Family

ID=38012223

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067020051A KR20070011341A (ko) 2006-09-27 2004-02-27 입체적 3d-비디오 이미지 디지털 디코딩 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR20070011341A (ko)

Similar Documents

Publication Publication Date Title
KR101177663B1 (ko) 입체적 3d-비디오 이미지 디지털 디코딩 시스템 및 방법
KR101187550B1 (ko) 입체적 3d-비디오 이미지 디지털 코딩 시스템 및 방법
US6642934B2 (en) Color mapped and direct color OSD region processor with support for 4:2:2 profile decode function
US6088047A (en) Motion compensated digital video decoding with buffered picture storage memory map
JP3395166B2 (ja) 統合ビデオ復号化システム、フレーム・バッファ、符号化ストリーム処理方法、フレーム・バッファ割当て方法及び記憶媒体
US5592299A (en) Method and apparatus for reducing the amount of data required to represent a video frame
US7227589B1 (en) Method and apparatus for video decoding on a multiprocessor system
JP2003517796A (ja) 「ムラのあるピクチャ」効果を減らす方法
US20100014585A1 (en) Method and system for encoding a video signal, encoded video signal, method and system for decoding a video signal
Forman et al. A novel coding scheme for full parallax 3D-TV pictures
JP5228077B2 (ja) 立体3dビデオイメージディジタルデコーディングのシステムおよび方法
KR20070011341A (ko) 입체적 3d-비디오 이미지 디지털 디코딩 시스템 및 방법
KR20070011340A (ko) 입체적 3d-비디오 이미지 디지털 코딩 시스템 및 방법
JPH10145788A (ja) 映像再生装置
LGGGGGG C ZIT źd d': http:% pic. gc. ca-Ottawa-Hull KlA 0C9-http://cipo. gc. ca () PI
JP5227439B2 (ja) 立体3dビデオイメージディジタルコーディングのシステムおよび方法
MXPA06009734A (es) Metodo y sistema de decodificacion digital de imagenes de video 3d estereoscopicas.
CN101917616A (zh) 用于数字编码3d立体视频图像的方法和系统
MXPA06009733A (es) Metodo y sistema de codificacion digital de imagenes de video 3d estereoscopicas.
JPH07123271A (ja) 画像データの圧縮方法及び伸長方法
CN101917617A (zh) 立体3d视频图像的解码系统和方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
A107 Divisional application of patent
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20110823

Effective date: 20121217