KR20120089604A - Method and system for error protection of 3d video - Google Patents

Method and system for error protection of 3d video Download PDF

Info

Publication number
KR20120089604A
KR20120089604A KR1020120011159A KR20120011159A KR20120089604A KR 20120089604 A KR20120089604 A KR 20120089604A KR 1020120011159 A KR1020120011159 A KR 1020120011159A KR 20120011159 A KR20120011159 A KR 20120011159A KR 20120089604 A KR20120089604 A KR 20120089604A
Authority
KR
South Korea
Prior art keywords
video
error protection
video frame
regions
error
Prior art date
Application number
KR1020120011159A
Other languages
Korean (ko)
Inventor
제이한 카라오구즈
쉐민 첸
남비 세샤드리
크리스 보로스
Original Assignee
브로드콤 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/077,886 external-priority patent/US20120054575A1/en
Application filed by 브로드콤 코포레이션 filed Critical 브로드콤 코포레이션
Publication of KR20120089604A publication Critical patent/KR20120089604A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PURPOSE: A method for preventing an error in a 3D video and a system thereof are provided to variously protect areas of a 3D video frame with different depths from errors. CONSTITUTION: A 3D video camera(202) encodes a plurality of areas of a captured 3D video frame. The areas are related to different depths. The encoding process variously protects the areas from errors based on the different depths. At least one interest area is identified from the areas of the 3D video frame. A higher level for error prevention uses an error-correction code longer than an error-correction code used for providing a lower level of error prevention.

Description

3D 비디오의 오류 보호를 위한 방법 및 시스템{METHOD AND SYSTEM FOR ERROR PROTECTION OF 3D VIDEO}METHOD AND SYSTEM FOR ERROR PROTECTION OF 3D VIDEO}

관련 출원들에 대한 상호-참조/참조에 의한 통합Integration by cross-reference / reference to related applications

본 특허 출원은, 2010년 8월 27일에 출원된 미국 특허 가출원 제61/377,867호 및 2011년 2월 3일에 출원된 미국 특허 가출원 제61/439,130호를 참조하고, 우선권을 주장하며, 그로부터의 이익을 주장한다.This patent application refers to U.S. Provisional Application No. 61 / 377,867, filed Aug. 27, 2010 and U.S. Provisional Application No. 61 / 439,130, filed Feb. 3, 2011, and claims priority therefrom. Claim the interests of

본 출원은 또한 다음을 참조한다:This application also refers to:

2011년 2월 3일에 출원된 미국 특허 가출원 61/439,193;US Provisional Application No. 61 / 439,193, filed February 3, 2011;

2011년 3월 31일에 출원된 미국 특허 가출원 ______(Attorney Docket No. 23461US03);United States Patent Provisional Application ______ (Attorney Docket No. 23461US03), filed March 31, 2011;

2011년 2월 3일에 출원된 미국 특허 가출원 61/439,274;United States Patent Provisional Application 61 / 439,274, filed February 3, 2011;

2011년 3월 31일에 출원된 미국 특허 가출원 ______(Attorney Docket No. 23462US03);US Patent Provisional Application ______ (Attorney Docket No. 23462US03), filed March 31, 2011;

2011년 2월 3일에 출원된 미국 특허 가출원 61/439,283;United States Patent Provisional Application 61 / 439,283, filed February 3, 2011;

2011년 3월 31일에 출원된 미국 특허 가출원 ______(Attorney Docket No. 23463US03);United States Patent Provisional Application ______ (Attorney Docket No. 23463US03), filed March 31, 2011;

2011년 2월 3일에 출원된 미국 특허 가출원 61/439,130;United States Patent Provisional Application 61 / 439,130, filed February 3, 2011;

2011년 3월 31일에 출원된 미국 특허 가출원 ______(Attorney Docket No. 23464US03);United States Patent Provisional Application ______ (Attorney Docket No. 23464US03), filed March 31, 2011;

2011년 2월 3일에 출원된 미국 특허 가출원 61/439,290;US Provisional Application No. 61 / 439,290, filed February 3, 2011;

2011년 3월 31일에 출원된 미국 특허 가출원 ______(Attorney Docket No. 23465US03);United States Patent Provisional Application ______ (Attorney Docket No. 23465US03), filed March 31, 2011;

2011년 2월 3일에 출원된 미국 특허 가출원 61/439,119;US Provisional Application No. 61 / 439,119, filed February 3, 2011;

2011년 3월 31일에 출원된 미국 특허 가출원 ______(Attorney Docket No. 23466US03);United States Patent Provisional Application ______ (Attorney Docket No. 23466US03), filed March 31, 2011;

2011년 2월 3일에 출원된 미국 특허 가출원 61/439,297;US Provisional Application No. 61 / 439,297, filed February 3, 2011;

2011년 3월 31일에 출원된 미국 특허 가출원 ______(Attorney Docket No. 23467US03);United States Patent Provisional Application ______ (Attorney Docket No. 23467US03), filed March 31, 2011;

2011년 2월 3일에 출원된 미국 특허 가출원 61/439,201;United States Patent Provisional Application 61 / 439,201, filed February 3, 2011;

2011년 2월 3일에 출원된 미국 특허 가출원 61/439,209;US Provisional Application No. 61 / 439,209, filed February 3, 2011;

2011년 2월 3일에 출원된 미국 특허 가출원 61/439,113;United States Patent Provisional Application 61 / 439,113, filed February 3, 2011;

2011년 3월 31일에 출원된 미국 특허 가출원 ______(Attorney Docket No. 23472US03);United States Patent Provisional Application ______ (Attorney Docket No. 23472US03), filed March 31, 2011;

2011년 2월 3일에 출원된 미국 특허 가출원 61/439,103;United States Patent Provisional Application 61 / 439,103, filed February 3, 2011;

2011년 3월 31일에 출원된 미국 특허 가출원 ______(Attorney Docket No. 23473US03);United States Patent Provisional Application ______ (Attorney Docket No. 23473US03), filed March 31, 2011;

2011년 2월 3일에 출원된 미국 특허 가출원 61/439,083; US Provisional Application No. 61 / 439,083, filed February 3, 2011;

2011년 3월 31일에 출원된 미국 특허 가출원 ______(Attorney Docket No. 23474US03);United States Patent Provisional Application ______ (Attorney Docket No. 23474US03), filed March 31, 2011;

2011년 2월 3일에 출원된 미국 특허 가출원 61/439,301; 및US Provisional Application No. 61 / 439,301, filed February 3, 2011; And

2011년 3월 31일에 출원된 미국 특허 가출원 ______(Attorney Docket No. 23475US03).
United States patent provisional application ______, filed March 31, 2011 (Attorney Docket No. 23475US03).

위에 언급된 출원들 각각은 여기에 의해 그 전체를 참조로서 여기에 포함된다.
Each of the applications mentioned above is hereby incorporated by reference in its entirety.

본 발명의 일부 실시예들은 비디오 프로세싱에 관한 것이다. 더욱 구체적으로, 본 발명의 일부 실시예들은 3D 비디오의 오류 보호를 위한 방법 및 시스템에 관한 것이다.Some embodiments of the present invention relate to video processing. More specifically, some embodiments of the present invention relate to methods and systems for error protection of 3D video.

디지털 비디오 성능들(capabilities)은 예를 들어, 디지털 텔레비젼들, 디지털 직접 방송 시스템들, 디지털 기록 디바이스들 등과 같은 폭넓은 범위의 디바이스들에 포함될 수 있다. 디지털 비디오 디바이스들은 비디오 시퀀스들을 프로세싱하고 전송하여 증가된 대역폭 효율로 통상의 아날로그 비디오 시스템들에 비해 상당한 개선들을 제공할 수 있다.Digital video capabilities can be included in a wide range of devices such as, for example, digital televisions, digital direct broadcast systems, digital recording devices, and the like. Digital video devices can process and transmit video sequences to provide significant improvements over conventional analog video systems with increased bandwidth efficiency.

비디오 콘텐츠는 2-차원(2D) 포맷 혹은 3-차원(3D) 포맷으로 기록될 수 있다. 예를 들어, DVD 영화들 및 디지털 TV(DTV)와 같은 다양한 애플리케이션들에서, 3D 비디오는 종종 이에 대응하는 2D에 비해 관람자들에게 더 현실감이 있기 때문에 종종 바람직하다. 3D 비디오는 좌측 시점 영상(left view video) 및 우측 시점 영상(right view video)을 포함한다.Video content may be recorded in two-dimensional (2D) format or three-dimensional (3D) format. For example, in various applications such as DVD movies and digital TV (DTV), 3D video is often desirable because it is more realistic for viewers than the corresponding 2D. The 3D video includes a left view video and a right view video.

다양한 비디오 인코딩 표준들, 예를 들어, MPEG-1, MPEG-2, MPEG-4, MPEG-C 파트 3, H.263, H.264/MPEG-4 AVC(Advanced video coding), MVC(Multiview video coding) 및 SVC(Scalable video coding)가 압축 방식에서 디지털 비디오 시퀀스들를 인코딩하기 위해 확립되어 왔다. 예를 들어, 상기 H.264/MPEG-4 AVC 표준의 확장인 상기 MVC 표준은 3D 비디오의 효과적인 코딩을 제공할 수 있다. 또한 상기 H.264/MPEG-4 AVC 표준의 확장인 상기 SVC 표준은 H.264/MPEG-4 AVC를 사용하여 얻어지는 것과 유사한 복원 품질(reconstruction quality)을 유지하면서도 일시적 또는 공간적 해상도가 더 낮거나 충실도(fidelity)가 감소된 비디오 서비스들을 제공하기 위해 부분적인 비트스트림들의 전송 및 디코딩이 가능하도록 할 수 있다.Various video encoding standards, for example MPEG-1, MPEG-2, MPEG-4, MPEG-C Part 3, H.263, H.264 / MPEG-4 Advanced video coding (AVC), Multiview video coding and scalable video coding (SVC) have been established for encoding digital video sequences in a compression scheme. For example, the MVC standard, an extension of the H.264 / MPEG-4 AVC standard, can provide efficient coding of 3D video. The SVC standard, which is an extension of the H.264 / MPEG-4 AVC standard, also has lower or fidelity of temporary or spatial resolution while maintaining reconstruction quality similar to that obtained using H.264 / MPEG-4 AVC. It is possible to enable transmission and decoding of partial bitstreams to provide video services with reduced fidelity.

통상적이고 일반적인 접근 방법들이 갖는 추가적인 한계점들 및 단점들은 본 발명의 도면들을 참조하여 본원에서 이하 기술되는 본 발명과 이러한 시스템들의 비교를 통해 당업자에게 분명해질 것이다.Additional limitations and disadvantages with conventional and general approaches will become apparent to those skilled in the art through a comparison of these systems with the present invention described herein below with reference to the drawings of the present invention.

그러므로, 본 발명의 목적은 비디오 프로세싱에 있어서, 3D 비디오의 오류 보호를 위해 3D 비디오 프레임에서 상이한 깊이를 갖는 복수의 영역들에 대해 다양한 오류 보호를 적용하는 3D 비디오의 오류 보호를 위한 방법 및 시스템을 제공하는 것이다.Therefore, it is an object of the present invention to provide a method and system for error protection of 3D video in which various error protection is applied to a plurality of regions having different depths in a 3D video frame for error protection of 3D video. To provide.

적어도 하나의 도면들과 연결하여 실질적으로 도시된 및/또는 기술된 바와 같은, 청구항들에서 보다 완전히 나타낸 바와 같은, 3D 비디오의 오류 보호를 위한 시스템 및/또는 방법이 제공된다.
A system and / or method is provided for error protection of 3D video, as more fully shown in the claims, as substantially shown and / or described in connection with at least one of the figures.

본 발명의 일 측면에 따라, 비디오를 프로세싱하기 위한 방법이 제공되며, 상기 방법은,According to one aspect of the invention, a method for processing video is provided, the method comprising:

3차원(3D) 비디오 생성 디바이스에서,In a three-dimensional (3D) video generation device,

캡쳐된 3D 비디오 프레임의 복수의 영역들을 인코딩하는 단계를 포함하며, 상기 복수의 영역들은 상이한 깊이들과 관련되고, 상기 인코딩은 상기 관련된 상이한 깊이들에 기반하여 상기 복수의 영역들에 다양한 오류 보호를 적용한다.
Encoding a plurality of regions of the captured 3D video frame, wherein the plurality of regions are associated with different depths, and the encoding provides various error protections to the plurality of regions based on the associated different depths. Apply.

바람직하게는, 상기 방법은 상기 캡쳐된 3D 비디오 프레임의 상기 복수의 영역들로부터 하나 이상의 관심 영역들을 식별(identify)하는 단계를 더 포함한다.
Advantageously, the method further comprises identifying one or more regions of interest from said plurality of regions of said captured 3D video frame.

바람직하게는, 상기 오류 보호의 더 높은 레벨은 상기 오류 보호의 더 낮은 레벨을 제공하기 위해 이용되는 오류-정정 코드보다 더 긴 오류-정정 코드를 이용한다.
Advantageously, the higher level of error protection uses a longer error-correction code than the error-correction code used to provide a lower level of error protection.

바람직하게는, 상기 3D 비디오 생성 디바이스는 하나 이상의 깊이 센서들을 갖는 단안 3D 비디오 생성 디바이스를 포함하며, 상기 3D 비디오 프레임은 2-차원(2D) 비디오 프레임 및 대응하는 깊이 정보를 포함한다.
Advantageously, said 3D video generation device comprises a monocular 3D video generation device having one or more depth sensors, said 3D video frame comprising a two-dimensional (2D) video frame and corresponding depth information.

바람직하게는, 상기 오류 보호의 하나 이상의 더 높은 레벨들은 상기 2D 비디오 프레임 내의 하나 이상의 관심 영역들에 적용되고, 상기 오류 보호의 하나 이상의 더 낮은 레벨들은 상기 2D 비디오 프레임 내의 하나 이상의 다른 영역들에 적용된다.
Advantageously, one or more higher levels of error protection apply to one or more areas of interest in the 2D video frame, and one or more lower levels of error protection apply to one or more other areas in the 2D video frame. do.

바람직하게는, 상기 오류 보호의 하나 이상의 더 높은 레벨들은 상기 2D 비디오 프레임 내의 하나 이상의 관심 영역들과 관련된 상기 대응하는 깊이 정보에 적용되고, 상기 오류 보호의 하나 이상의 더 낮은 레벨들은 상기 2D 비디오 프레임 내의 하나 이상의 다른 영역들과 관련된 상기 대응하는 깊이 정보에 적용된다.
Advantageously, one or more higher levels of error protection are applied to the corresponding depth information associated with one or more regions of interest in the 2D video frame, and one or more lower levels of error protection are within the 2D video frame. Applies to the corresponding depth information associated with one or more other areas.

바람직하게는, 상기 오류 보호의 더 높은 레벨은 상기 2D 비디오 프레임 내의 상기 복수의 영역들 각각에 적용되고, 상기 오류 보호의 더 낮은 레벨은 상기 2D 비디오 프레임 내의 상기 복수의 영역들 각각에 관련된 상기 대응하는 깊이 정보에 적용된다.
Advantageously, a higher level of error protection is applied to each of the plurality of regions within the 2D video frame, and a lower level of error protection is associated with each of the plurality of regions within the 2D video frame. Applied to depth information.

바람직하게는, 상기 오류 보호의 제1 유형은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 관심 영역들에 적용되고, 상기 오류 보호의 제2 유형은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 다른 영역들에 적용된다.
Advantageously, said first type of error protection is applied to one or more regions of interest in said captured 2D video frame, and said second type of error protection is applied to one or more other regions in said captured 2D video frame. do.

바람직하게는, 상기 오류 보호의 제1 유형은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 관심 영역들과 관련된 상기 대응하는 깊이 정보에 적용되고, 상기 오류 보호의 제2 유형은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 다른 영역들과 관련된 상기 대응하는 깊이 정보에 적용된다.
Advantageously, said first type of error protection is applied to said corresponding depth information associated with one or more regions of interest in said captured 2D video frame, and said second type of error protection is within said captured 2D video frame. Applies to the corresponding depth information associated with one or more other areas.

바람직하게는, 상기 방법은 3D 비디오 렌더링(rendering) 및/또는 디스플레이를 위해 상기 오류 보호된 3D 비디오 프레임을 3D 비디오 렌더링 디바이스로 전송하는 단계를 더 포함한다.
Advantageously, the method further comprises transmitting said error protected 3D video frame to a 3D video rendering device for 3D video rendering and / or display.

일 양태에 따라서, 비디오를 프로세싱하기 위한 시스템은, 3-차원(3D) 비디오 생성 디바이스에서 사용하기 위한 하나 이상의 프로세서들 및/또는 회로들을 포함하며, 상기 하나 이상의 프로세서들 및/또는 회로들은,According to one aspect, a system for processing video includes one or more processors and / or circuits for use in a three-dimensional (3D) video generation device, wherein the one or more processors and / or circuits are:

캡쳐된 3D 비디오 프레임의 복수의 영역들을 인코딩하도록 동작될 수 있으며, 여기서, 상기 복수의 영역들은 상이한 깊이들과 관련되고, 상기 인코딩은 상기 관련된 상이한 깊이들에 기반하여 상기 복수의 영역들에 다양한 오류 보호를 적용한다.
May be operable to encode a plurality of regions of a captured 3D video frame, wherein the plurality of regions are associated with different depths, and the encoding is in error in the plurality of regions based on the associated different depths. Apply protection.

바람직하게는, 상기 하나 이상의 프로세서들 및/또는 회로들은 상기 캡쳐된 3D 비디오 프레임의 상기 복수의 영역들로부터 하나 이상의 관심 영역들을 식별하도록 동작될 수 있다.
Advantageously, said one or more processors and / or circuits may be operable to identify one or more regions of interest from said plurality of regions of said captured 3D video frame.

바람직하게는, 상기 오류 보호의 더 높은 레벨은 상기 오류 보호의 더 낮은 레벨을 제공하기 위해 사용되는 오류-정정 코드보다 더 긴 오류-정정 코드를 사용한다.
Advantageously, the higher level of error protection uses a longer error-correction code than the error-correction code used to provide a lower level of error protection.

바람직하게는, 상기 3D 비디오 생성 디바이스는 하나 이상의 깊이 센서들을 갖는 단안 3D 비디오 생성 디바이스를 포함하고, 상기 3D 비디오 프레임은 2-차원(2D) 비디오 프레임 및 대응하는 깊이 정보를 포함한다.
Advantageously, said 3D video generation device comprises a monocular 3D video generation device having one or more depth sensors, said 3D video frame comprising a two-dimensional (2D) video frame and corresponding depth information.

바람직하게는, 상기 오류 보호의 하나 이상의 더 높은 레벨들은 상기 2D 비디오 프레임 내의 하나 이상의 관심 영역들에 적용되고, 상기 오류 보호의 하나 이상의 더 낮은 레벨들은 상기 2D 비디오 프레임 내의 하나 이상의 다른 영역들에 적용된다.
Advantageously, one or more higher levels of error protection apply to one or more areas of interest in the 2D video frame, and one or more lower levels of error protection apply to one or more other areas in the 2D video frame. do.

바람직하게는, 상기 오류 보호의 하나 이상의 더 높은 레벨들은 상기 2D 비디오 프레임 내의 하나 이상의 관심 영역들과 관련된 대응하는 깊이 정보에 적용되고, 상기 오류 보호의 하나 이상의 더 낮은 레벨들은 상기 2D 비디오 프레임 내의 하나 이상의 다른 영역들과 관련된 상기 대응하는 깊이 정보에 적용된다.
Advantageously, one or more higher levels of error protection are applied to corresponding depth information associated with one or more regions of interest in the 2D video frame, and one or more lower levels of error protection are one in the 2D video frame. The above applies to the corresponding depth information relating to the other areas.

바람직하게는, 상기 오류 보호의 더 높은 레벨은 상기 2D 비디오 프레임 내의 상기 복수의 영역들 각각에 적용되고, 상기 오류 보호의 더 낮은 레벨은 상기 2D 비디오 프레임 내의 상기 복수의 영역들 각각에 관련된 상기 대응하는 깊이 정보에 적용된다.
Advantageously, a higher level of error protection is applied to each of the plurality of regions within the 2D video frame, and a lower level of error protection is associated with each of the plurality of regions within the 2D video frame. Applied to depth information.

바람직하게는, 상기 오류 보호의 제1 유형은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 관심 영역들에 적용되고, 상기 오류 보호의 제2 유형은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 다른 영역들에 적용된다.
Advantageously, said first type of error protection is applied to one or more regions of interest in said captured 2D video frame, and said second type of error protection is applied to one or more other regions in said captured 2D video frame. do.

바람직하게는, 상기 오류 보호의 제1 유형은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 관심 영역들과 관련된 상기 대응하는 깊이 정보에 적용되고, 상기 오류 보호의 제2 유형은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 다른 영역들과 관련된 상기 대응하는 깊이 정보에 적용된다.
Advantageously, said first type of error protection is applied to said corresponding depth information associated with one or more regions of interest in said captured 2D video frame, and said second type of error protection is within said captured 2D video frame. Applies to the corresponding depth information associated with one or more other areas.

바람직하게는, 상기 하나 이상의 프로세서들 및/또는 회로들은 3D 비디오 렌더링 및/또는 디스플레이를 위해 상기 오류 보호된 3D 비디오 프레임을 3D 비디오 렌더링 디바이스로 전송하도록 동작할 수 있다.
Advantageously, said one or more processors and / or circuits may be operable to transmit said error protected 3D video frame to a 3D video rendering device for 3D video rendering and / or display.

그 설명된 실시예의 상세들뿐만 아니라 본 발명의 다양한 이점들, 측면들 및 신규한 특징들은 이하 설명 및 도면들로부터 완전히 이해될 것이다.The various advantages, aspects and novel features of the present invention as well as the details of the described embodiment will be fully understood from the following description and drawings.

그러므로, 본 발명은 3D 비디오의 오류 보호를 위해 3D 비디오 프레임에서 상이한 깊이를 갖는 복수의 영역들에 대해 다양한 오류 보호를 적용함으로써 한정된 대역폭에서 대용량의 3D 비디오 프레임을 높은 해상도의 품질로 제공할 수 있는 장점이 있다.Therefore, the present invention can provide a large-scale 3D video frame with a high resolution quality at a limited bandwidth by applying various error protection for a plurality of regions having different depths in the 3D video frame for error protection of the 3D video. There is an advantage.

도 1a는 통상적인 입체 비디오 카메라와 비교하여 본 발명의 측면들을 구현시킨 예시적인 단안 3D 비디오 카메라를 나타내는 블록도이다.
도 1b는 본 발명의 일 실시예에 따라, 3D 이미지를 생성하기 위한 깊이 정보와 2D 색상 정보의 예시적인 프로세싱을 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따라, 3D 비디오에 대해 오류 보호를 제공하도록 동작할 수 있는 예시적인 비디오 통신 시스템을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따라, 단일 시각(view) 및 깊이 정보를 이용하여 생성되는 3D 비디오에 대해 오류 보호를 제공하도록 동작할 수 있는 일 예시적인 단안 3D 비디오 카메라를 나타내는 블록도이다.
도 4a 내지 4d는 각각 본 발명의 일 실시예에 따라, 2D 비디오 프레임 및 대응하는 깊이 정보에 대해 예시적인 오류 보호를 나타내는 블록도이다.
도 5는 본 발명의 일 실시예에 따라, 3D 비디오에 대해 오류 보호를 제공하는 예시적인 단계들을 나타내는 흐름도이다.
1A is a block diagram illustrating an exemplary monocular 3D video camera implementing aspects of the present invention as compared to a conventional stereoscopic video camera.
1B is a block diagram illustrating exemplary processing of depth information and 2D color information for generating a 3D image, in accordance with an embodiment of the present invention.
2 is a block diagram illustrating an example video communication system that can operate to provide error protection for 3D video, in accordance with an embodiment of the invention.
3 is a block diagram illustrating an exemplary monocular 3D video camera that can be operable to provide error protection for 3D video generated using a single view and depth information, in accordance with an embodiment of the invention. .
4A-4D are block diagrams illustrating exemplary error protection for 2D video frames and corresponding depth information, respectively, in accordance with one embodiment of the present invention.
5 is a flow diagram illustrating exemplary steps for providing error protection for 3D video, in accordance with an embodiment of the present invention.

본 발명의 특정 실시예들은 3D 비디오 오류 보호를 위한 방법 및 시스템에서 발견될 수 있다. 본 발명의 다양한 실시예들에서, 3-차원(3D) 비디오 생성 디바이스는 캡쳐된 3D 비디오 프레임의 복수의 영역들을 인코딩하거나 압축하도록 동작할 수 있다. 이와 관련하여, 상기 복수의 영역들은 상이한 깊이들과 관련될 수 있다. 상기 인코딩은 상기 관련된 상이한 깊이들에 기반하여 상기 복수의 영역들에 다양한 오류 보호를 적용할 수 있다. 상기 오류 보호는 예를 들어, 순방향 오류 정정(forward error correction; FEC)을 포함할 수 있다. 상기 오류 보호의 더 높은 레벨은 상기 오류 보호의 더 낮은 레벨을 제공하는 데 이용되는 오류-정정 코드보다 더 긴 오류-정정 코드를 이용할 수 있다. 이와 관련하여, 상기 더 긴 오류-정정 코드는 더 짧은 오류-정정 코드보다 보다 강력한 오류 보호를 제공할 수 있다. 상기 3D 비디오 생성 디바이스는 상기 캡쳐된 3D 비디오 프레임의 상기 복수의 영역들로부터 하나 이상의 관심 영역들을 식별하도록 동작할 수 있다.
Certain embodiments of the present invention may be found in a method and system for 3D video error protection. In various embodiments of the invention, the three-dimensional (3D) video generation device may be operable to encode or compress a plurality of regions of the captured 3D video frame. In this regard, the plurality of regions may be associated with different depths. The encoding may apply various error protections to the plurality of regions based on the associated different depths. The error protection may include, for example, forward error correction (FEC). The higher level of error protection may use a longer error-correcting code than the error-correcting code used to provide a lower level of error protection. In this regard, the longer error-correcting code may provide stronger error protection than the shorter error-correcting code. The 3D video generation device may be operable to identify one or more regions of interest from the plurality of regions of the captured 3D video frame.

본 발명의 일 예시적인 실시예에서, 상기 3D 비디오 생성 디바이스는 예를 들어, 하나 이상의 깊이 센서들을 갖는 단안 3D 비디오 생성 디바이스를 포함할 수 있다. 상기 3D 비디오 프레임은 2-차원(2D) 비디오 프레임 및 대응하는 깊이 정보를 포함할 수 있다. 상기 대응하는 깊이 정보는 상기 단안 3D 비디오 생성 디바이스에서 상기 하나 이상의 깊이 센서들에 의해 캡쳐될 수 있다.In one exemplary embodiment of the invention, the 3D video generation device may comprise, for example, a monocular 3D video generation device having one or more depth sensors. The 3D video frame may comprise a two-dimensional (2D) video frame and corresponding depth information. The corresponding depth information may be captured by the one or more depth sensors at the monocular 3D video generation device.

본 발명의 일 예시적인 실시예에서, 상기 오류 보호의 하나 이상의 더 높은 레벨들은 상기 2D 비디오 프레임 내의 하나 이상의 관심 영역들에 적용될 수 있으며, 상기 오류 보호의 하나 이상의 더 낮은 레벨들은 관심도가 더 떨어지는 것으로 여겨지는 상기 2D 비디오 프레임 내의 하나 이상의 다른 영역들에 적용될 수 있다. 상기 오류 보호의 더 높은 레벨들은 상기 2D 비디오 프레임 내의 하나 이상의 관심 영역들과 관련된 상기 대응하는 깊이 정보에 적용될 수 있으며, 상기 오류 보호의 하나 이상의 더 낮은 레벨들은 관심도가 떨어지는 것으로 여겨지는 상기 2D 비디오 프레임 내의 하나 이상의 다른 영역들과 관련된 상기 대응하는 깊이 정보에 적용될 수 있다. 다른 예에서, 상기 오류 보호의 더 높은 레벨이 상기 2D 비디오 프레임 내의 상기 복수의 영역들 각각에 적용될 수 있고, 상기 오류 보호의 더 낮은 레벨이 예를 들어 상기 2D 비디오 프레임 내의 상기 복수의 영역들 각각과 관련된 상기 대응하는 깊이 정보에 적용될 수 있다.In one exemplary embodiment of the invention, one or more higher levels of error protection may be applied to one or more regions of interest in the 2D video frame, wherein one or more lower levels of error protection are considered to be of less interest. It can be applied to one or more other areas within the 2D video frame that are considered. Higher levels of the error protection may be applied to the corresponding depth information associated with one or more regions of interest in the 2D video frame, and one or more lower levels of the error protection are considered less interested. May be applied to the corresponding depth information associated with one or more other areas in the apparatus. In another example, a higher level of error protection may be applied to each of the plurality of areas within the 2D video frame, and a lower level of error protection may be applied to each of the plurality of areas within the 2D video frame, for example. May be applied to the corresponding depth information associated with the.

본 발명의 일 예시적인 실시예에서, 상기 오류 보호의 제1 유형은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 관심 영역들에 적용될 수 있고, 상기 오류 보호의 제2 유형은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 다른 영역들에 적용될 수 있다. 상기 오류 보호의 제1 유형은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 관심 영역들과 관련된 상기 대응하는 깊이 정보에 적용될 수 있고, 상기 오류 보호의 제2 유형은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 다른 영역들과 관련된 상기 대응하는 깊이 정보에 적용될 수 있다.In one exemplary embodiment of the present invention, the first type of error protection can be applied to one or more regions of interest in the captured 2D video frame, and the second type of error protection is within the captured 2D video frame. It can be applied to one or more other areas. The first type of error protection can be applied to the corresponding depth information associated with one or more regions of interest in the captured 2D video frame, and the second type of error protection is one or more other in the captured 2D video frame. May be applied to the corresponding depth information associated with the areas.

본 발명의 일 예시적인 실시예에서, 상기 3D 비디오 생성 디바이스는 3D 비디오 렌더링 및/또는 디스플레이를 위해 상기 오류 보호된 3D 비디오 프레임을 3D 비디오 렌더링 디바이스로 전송하도록 동작할 수 있다.In one exemplary embodiment of the invention, the 3D video generation device may be operable to send the error protected 3D video frame to a 3D video rendering device for 3D video rendering and / or display.

도 1a는 통상적인 입체 비디오 카메라와 비교하여 본 발명의 측면들을 구현시킨 예시적인 단안 3D 비디오 카메라를 나타내는 블록도이다. 도 1a를 참조하면 입체 비디오 카메라(100)와 단안 3D 비디오 카메라(102)가 도시되어 있다. 상기 입체 비디오 카메라(100)는 2개의 렌즈들(101a 및 101b)을 포함할 수 있다. 상기 각각의 렌즈들(101a 및 101b)은 상이한 관점(viewpoint)으로부터 이미지들을 캡쳐할 수 있으며, 상기 2개의 렌즈들(101a 및 101b)을 통해 캡쳐된 이미지들은 3D 이미지를 생성시키기 위해 결합될 수 있다. 이와 관련하여, 가시 스펙트럼 내의 전자기(EM)파들은 상기 렌즈들(101a)(및 관련 옵틱스)에 의해 하나 이상의 제1 이미지 센서들 상에 초점이 맞춰질 수 있고, 상기 가시 스펙트럼 내의 EM 파들은 상기 렌즈들(101b)(및 관련 옵틱스)에 의해 하나 이상의 제2 이미지 센서들 상에 초점이 맞춰질 수 있다.1A is a block diagram illustrating an exemplary monocular 3D video camera implementing aspects of the present invention as compared to a conventional stereoscopic video camera. Referring to FIG. 1A, a stereoscopic video camera 100 and a monocular 3D video camera 102 are shown. The stereoscopic video camera 100 may include two lenses 101a and 101b. Each of the lenses 101a and 101b can capture images from different viewpoints, and the images captured through the two lenses 101a and 101b can be combined to produce a 3D image. . In this regard, electromagnetic (EM) waves in the visible spectrum may be focused on one or more first image sensors by the lenses 101a (and associated optics), and EM waves in the visible spectrum may be focused on the lens. Can be focused on one or more second image sensors by means of the 101b (and associated optics).

상기 단안 3D 비디오 카메라(102)는 프로세서(104), 메모리(106), 하나 이상의 깊이 센서들(108) 및 하나 이상의 이미지 센서들(114)을 포함할 수 있다. 상기 단안 3D 또는 단일-뷰 비디오 카메라(102)는 렌즈(101c)에 대응하는 단일 관점을 통해 이미지들을 캡쳐할 수 있다. 이와 관련하여, 가시 스펙트럼 내의 EM 파들은 상기 렌즈(101c)에 의해 하나 이상의 이미지 센서들(114) 상에 초점이 맞춰질 수 있다. 상기 단안 3D 비디오 카메라(102)는 또한 상기 렌즈(101c)(및 관련 옵틱스)를 통해 깊이 정보를 캡쳐할 수 있다.The monocular 3D video camera 102 may include a processor 104, a memory 106, one or more depth sensors 108, and one or more image sensors 114. The monocular 3D or single-view video camera 102 may capture images through a single perspective corresponding to lens 101c. In this regard, EM waves in the visible spectrum may be focused on one or more image sensors 114 by the lens 101c. The monocular 3D video camera 102 may also capture depth information through the lens 101c (and associated optics).

상기 프로세서(104)는 상기 단안 3D 비디오 카메라(102)의 다양한 구성요소들(components)의 동작을 관리하고 다양한 컴퓨팅 및 프로세싱 태스크들을 수행하도록 동작할 수 있는, 적합한 로직(logic), 회로, 인터페이스들 및/또는 코드를 포함할 수 있다.The processor 104 is operable to manage the operation of various components of the monocular 3D video camera 102 and to perform various computing and processing tasks. And / or code.

상기 메모리(106)는 예를 들어, DRAM, SRAM, 플래쉬 메모리, 하드 드라이브 또는 기타 자기 스토리지, 또는 소정의 다른 적합한 메모리 디바이스들을 포함할 수 있다. 예를 들어, 상기 프로세서(104)에 의해 이용된 및/또는 생성된 데이터를 저장하기 위해서는 SRAM이 사용될 수 있고, 기록된 이미지 데이터 및 깊이 데이터를 저장하기 위해서는 하드-드라이브 및/또는 플레쉬 메모리가 이용될 수 있다.The memory 106 may include, for example, DRAM, SRAM, flash memory, hard drive or other magnetic storage, or some other suitable memory device. For example, an SRAM may be used to store data used and / or generated by the processor 104, and a hard-drive and / or flash memory may be used to store recorded image data and depth data. Can be.

상기 깊이 센서(들)(108)는 각각, 적외선 스펙트럼 내에서 EM 파들을 검출하고 반사된 적외선에 기반하여 깊이 정보를 결정(determine)하도록 동작할 수 있는, 적합한 로직, 회로, 인터페이스들 및/또는 코드를 포함할 수 있다. 예를 들어, 깊이 정보는 상기 단안 3D 비디오 카메라(102) 내의 이미터(도시되지 않음)에 의해 전송되고 상기 깊이 센서(들)(108)에 반사되어 돌아온 적외선의 전파 시간(time-of-flight)에 기반하여 결정될 수 있다. 깊이 정보는 또한 예를 들어 구조형 광 방법(structured light method)을 사용하여 결정될 수 있다. 그러한 예로, 적외선파의 그리드(grid)와 같은 광 패턴이 프로젝터와 같은 광원에 의해 대상물에 알려진 각도로 투사될 수 있다. 상기 깊이 센서(들)(108)는 상기 대상물 상의 상기 적외선 광 패턴과 같은 광 패턴의 변형을 감지할 수 있다. 따라서, 장면(scene)에 대한 깊이 정보는 예를 들어 삼각 측량 기술을 사용하여 결정되거나 계산될 수 있다.The depth sensor (s) 108 may each be operable to detect EM waves within the infrared spectrum and to determine depth information based on reflected infrared light. May contain code. For example, depth information is transmitted by an emitter (not shown) in the monocular 3D video camera 102 and is time-of-flight of infrared light reflected back to the depth sensor (s) 108. Can be determined based on Depth information may also be determined using a structured light method, for example. As such an example, a light pattern such as a grid of infrared waves may be projected at a known angle to the object by a light source such as a projector. The depth sensor (s) 108 may detect deformation of a light pattern, such as the infrared light pattern on the object. Thus, depth information for a scene can be determined or calculated using, for example, triangulation techniques.

상기 이미지 센서(들)(114)는 각각, 광학적 신호들을 전기적 신호들로 변환하도록 동작할 수 있는, 적합한 로직, 회로, 인터페이스들 및/또는 코드를 포함할 수 있다. 각각의 이미지 센서(114)는 예를 들어, CCD(charge coupled device) 이미지 센서 또는 CMOS(complimentary metal oxide semiconductor) 이미지 센서를 포함할 수 있다. 각 이미지 센서(114)는 밝기, 휘도 및/또는 색도 정보를 캡쳐할 수 있다.The image sensor (s) 114 may each include suitable logic, circuitry, interfaces, and / or code, which may be operable to convert optical signals into electrical signals. Each image sensor 114 may include, for example, a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor. Each image sensor 114 may capture brightness, brightness and / or chromaticity information.

도 1b는 본 발명의 일 실시예에 따라, 3D 이미지를 생성시키기 위한 깊이 정보와 2D 색상 정보의 예시적인 프로세싱을 나타내는 블록도이다. 도 1b를 참조하면, 깊이 정보 프레임(130), 2D 색상 정보 프레임(134) 및 3D 이미지 프레임(136)이 도시된다. 상기 깊이 정보 프레임(130)은 상기 깊이 센서(들)(108)에 의해 캡쳐될 수 있고, 상기 2D 색상 정보 프레임(134)은 상기 이미지 센서(들)(114)에 의해 캡쳐될 수 있다. 상기 깊이 정보 프레임(130)은 상기 3D 이미지 프레임(136)을 생성시키기 위해 상기 프로세서(104)에 의해 상기 2D 색상 정보 프레임(134)을 프로세싱하는 동안 이용될 수 있다. 상기 점선(132)은 상기 3D 이미지를 나타내기 위한 참조 평면을 가리킬 수 있다. 상기 깊이 정보 프레임(130)에서, 선의 굵기는 깊이를 나타내는 데 사용된다. 이와 관련하여, 예를 들어, 선이 더 굵을수록 상기 프레임(130) 부분이 상기 단안 3D 비디오 카메라(102)에 더 가깝다. 따라서, 대상물(138)이 상기 단안 3D 비디오 카메라(102)로부터 가장 멀리 있고, 대상물(142)은 상기 단안 3D 비디오 카메라에 가장 가까이 있으며, 대상물(140)은 중간 깊이에 위치한다. 본 발명의 다양한 실시예들에서, 상기 깊이 정보는 상기 프로세서(104)에 의해 회색 톤(grayscale) 또는 의사-회색 톤(pseudo-grayscale) 이미지로 맵핑(mapping)될 수 있다.1B is a block diagram illustrating exemplary processing of depth information and 2D color information for generating a 3D image, in accordance with an embodiment of the present invention. Referring to FIG. 1B, a depth information frame 130, a 2D color information frame 134, and a 3D image frame 136 are shown. The depth information frame 130 may be captured by the depth sensor (s) 108, and the 2D color information frame 134 may be captured by the image sensor (s) 114. The depth information frame 130 may be used while processing the 2D color information frame 134 by the processor 104 to generate the 3D image frame 136. The dotted line 132 may indicate a reference plane for representing the 3D image. In the depth information frame 130, the thickness of the line is used to indicate the depth. In this regard, for example, the thicker the line, the closer the portion of frame 130 is to the monocular 3D video camera 102. Thus, object 138 is furthest from the monocular 3D video camera 102, object 142 is closest to the monocular 3D video camera, and object 140 is located at a medium depth. In various embodiments of the present invention, the depth information may be mapped by the processor 104 into a grayscale or pseudo-grayscale image.

상기 프레임(134)에서의 이미지는 통상적인 2D 이미지이다. 상기 프레임(134)의 관찰자(viewer)는 상기 관찰자와 상기 각각의 대상물들(138, 140 및 142) 사이를 동일한 깊이로 인식한다. 즉, 각각의 대상물들(138, 140 및 142)은 상기 참조 평면(132) 상에 존재하는 것으로 보인다. 상기 프레임(136)의 이미지는 3D 이미지이다. 상기 프레임(136)의 관찰자는 대상물(138)이 상기 관찰자로부터 더 멀리 있으며, 대상물(142)은 상기 관찰자에 가장 가까우며, 대상물(140)은 중간 깊이에 있는 것으로 인식한다. 이와 관련하여, 대상물(138)은 참조 평면(132)의 뒤에 위치하는 것으로 보이며, 대상물(140)은 참조 평면(132) 상에 존재하는 것으로 보이며, 대상물(142)은 참조 평면(132)의 앞에 위치하는 것으로 보인다.The image in the frame 134 is a typical 2D image. The viewer of the frame 134 perceives the viewer and the respective objects 138, 140, and 142 at the same depth. That is, each of the objects 138, 140, and 142 appear to be on the reference plane 132. The image of the frame 136 is a 3D image. The observer of frame 136 recognizes that object 138 is further away from the observer, object 142 is closest to the observer, and object 140 is at intermediate depth. In this regard, object 138 appears to be behind reference plane 132, object 140 appears to be present on reference plane 132, and object 142 is in front of reference plane 132. It seems to be located.

도 2는 본 발명의 일 실시예에 따른, 3D 비디오에 대해 오류 보호를 제공하도록 동작할 수 있는 예시적인 비디오 통신 시스템을 나타내는 블록도이다. 도 2를 참조하면, 비디오 통신 시스템(200)이 도시된다. 상기 비디오 통신 시스템(200)은 3D 비디오 카메라(202) 및 3D 비디오 렌더링 디바이스(204)를 포함할 수 있다.2 is a block diagram illustrating an example video communication system that can operate to provide error protection for 3D video, in accordance with an embodiment of the invention. 2, a video communication system 200 is shown. The video communication system 200 may include a 3D video camera 202 and a 3D video rendering device 204.

상기 3D 비디오 카메라(202)는 3D 비디오 프레임들을 캡쳐하도록 동작할 수 있는, 적합한 로직, 회로, 인터페이스들 및/또는 코드를 포함할 수 있다. 본 발명의 예시적인 실시예에서, 상기 3D 비디오 카메라(202)는 예를 들어, 단안 3D 비디오 카메라(202a)를 포함할 수 있다. 이와 관련하여, 상기 단안 3D 비디오 카메라(202a)는 도 1a의 단안 3D 비디오 카메라(102)와 실질적으로 유사할 수 있다. 본 발명의 일 예시적인 실시예에서, 상기 3D 비디오 카메라(202)는 상기 3D 비디오 렌더링 디바이스(204)와 같은 3D 비디오 렌더링 디바이스로의 전송을 위해, 관련된 상이한 깊이들에 기반하여 인코딩된 3D 비디오 프레임의 복수의 영역들에 다양한 오류 보호를 적용하도록 동작할 수 있다.The 3D video camera 202 may include suitable logic, circuitry, interfaces and / or code that may be operable to capture 3D video frames. In an exemplary embodiment of the invention, the 3D video camera 202 may comprise, for example, a monocular 3D video camera 202a. In this regard, the monocular 3D video camera 202a may be substantially similar to the monocular 3D video camera 102 of FIG. 1A. In one exemplary embodiment of the invention, the 3D video camera 202 is encoded 3D video frame based on different depths involved for transmission to a 3D video rendering device, such as the 3D video rendering device 204. Operate to apply various error protections to a plurality of regions of a.

상기 3D 비디오 렌더링 디바이스(204)는 상기 3D 비디오 카메라(202)로부터 오류 보호된 상기 3D 비디오 프레임들을 포함할 수 있는 인코딩되거나 압축된 비디오 스트림을 수신하도록 동작할 수 있는, 적합한 로직, 회로, 인터페이스들 및/또는 코드를 포함할 수 있다. 예를 들어, 셋톱 박스(STB) 및/또는 디지털 TV(DTV)와 같은 상기 3D 비디오 렌더링 디바이스(204)는 3D 비디오 포맷으로 렌더링 및/또는 디스플레이하기 위한 상기 수신된 비디오 스트림을 처리할 수 있다.Appropriate logic, circuitry, interfaces, the 3D video rendering device 204 may be operable to receive an encoded or compressed video stream that may include the error protected 3D video frames from the 3D video camera 202. And / or code. For example, the 3D video rendering device 204, such as a set top box (STB) and / or a digital TV (DTV), can process the received video stream for rendering and / or displaying in a 3D video format.

동작중에서, 상기 3D 비디오 카메라(202)는 3D 비디오 프레임들의 시퀀스를 캡쳐하도록 동작할 수 있다. 캡쳐된 3D 비디오 프레임은 상기 3D 비디오 카메라(202)에 의해 인코딩되거나 압축될 수 있다. 상기 인코딩은 상기 3D 비디오 프레임의 복수의 영역들에 다양한 오류 보호를 적용할 수 있다. 상기 복수의 영역들은 상이한 깊이들과 관련될 수 있고, 상기 인코딩은 상기 관련된 상이한 깊이들에 기반하여 상기 복수의 영역들에 다양한 오류 보호를 적용할 수 있다.In operation, the 3D video camera 202 may be operable to capture a sequence of 3D video frames. The captured 3D video frame may be encoded or compressed by the 3D video camera 202. The encoding may apply various error protections to a plurality of regions of the 3D video frame. The plurality of regions may be associated with different depths, and the encoding may apply various error protection to the plurality of regions based on the associated different depths.

상기 오류 보호는 예를 들어, 순방향 오류 정정(Forward Error Correction)을 포함할 수 있다. 상기 오류 보호는 차등 오류 보호일 수 있으며, 여기서, 상기 3D 비디오 카메라(202)는, 관심 영역 또는 중요 영역이 다른 부분들보다 더 높은 레벨의 오류 보호를 받을 수 있는 방법으로 상기 3D 비디오 비트스트림들에 잉여 데이터 또는 오류-정정 코드를 부가한다. 그러한 예로, 예를 들어, 더 높은 레벨의 오류 보호는 더 낮은 레벨의 오류 보호를 위한 오류-정정 코드보다 더 긴 오류-정정 코드를 포함할 수 있다. 상기 오류-정정 코드는 예를 들어, 리드-솔로몬(Reed-Solomon; RS) 코드, 저밀도 패러티 검사(Low-Density Parity-Check; LDPC) 코드, 해밍 코드(hamming code), 터보 코드, 컨볼루셔널 코드(convolutional code) 및/또는 다른 유형의 오류-정정 코드들을 포함할 수 있다.The error protection may include, for example, forward error correction. The error protection may be differential error protection wherein the 3D video camera 202 receives the 3D video bitstreams in such a way that the region of interest or region of interest may receive a higher level of error protection than other portions. Add redundant data or error-correction codes to. As such an example, higher levels of error protection may include longer error-correcting codes than error-correcting codes for lower levels of error protection. The error-correction code may be, for example, a Reed-Solomon (RS) code, a low-density parity-check (LDPC) code, a hamming code, a turbo code, a convolutional code. Code and / or other types of error-correcting codes.

상기 3D 비디오 카메라(202)는 상기 캡쳐된 3D 비디오 프레임의 복수의 영역들로부터 하나 이상의 관심 영역들을 식별(identify)할 수 있다. 이와 관련하여, 관심 영역은 상기 관련된 깊이 정보 및/또는 상기 비디오 프레임의 주요 초점을 이루는 영역 또는 대상물을 기반으로 하여 식별되거나 선택될 수 있다. 예를 들어, 상기 깊이 정보에 기반하여, 가장 짧은 깊이를 가지며 상기 3D 비디오 카메라(202)에 가장 가까운 영역이 관심 영역으로 간주되거나 선택될 수 있다. 신체를 포함한 영역, 차 또는 달리는 사람이 또한 예를 들어 관심 영역으로 간주될 수 있다.The 3D video camera 202 may identify one or more regions of interest from a plurality of regions of the captured 3D video frame. In this regard, the region of interest may be identified or selected based on the associated depth information and / or the region or object that is the primary focus of the video frame. For example, based on the depth information, the region having the shortest depth and closest to the 3D video camera 202 may be considered or selected as the region of interest. Areas including the body, cars or runners may also be considered areas of interest, for example.

본 발명의 일 예시적인 실시예에서, 상기 3D 비디오 카메라(202)는 3D 비디오 렌더링 및/또는 디스플레이를 위해, 상기 오류 보호된 3D 비디오 프레임을 상기 3D 비디오 렌더링 디바이스(204)로 전송하도록 동작할 수 있다.In one exemplary embodiment of the invention, the 3D video camera 202 may be operable to send the error protected 3D video frame to the 3D video rendering device 204 for 3D video rendering and / or display. have.

본 발명의 일 예시적인 실시예에서, 상기 3D 비디오 카메라(202)는 예를 들어, 단안 3D 비디오 카메라(202a)를 포함할 수 있다. 그러한 예로, 상기 캡쳐된 3D 비디오 프레임은 2D 비디오 프레임 및 대응하는 깊이 정보를 포함할 수 있다.In one exemplary embodiment of the invention, the 3D video camera 202 may comprise, for example, a monocular 3D video camera 202a. As such, the captured 3D video frame may include a 2D video frame and corresponding depth information.

본 발명의 일 예시적인 실시예에서, 다양한 레벨의 동일한 오류 보호 유형이 상기 캡쳐된 2D 비디오 프레임의 복수의 영역들 및/또는 상기 복수의 영역들에 대한 대응하는 상기 깊이 정보에 적용될 수 있다. 이와 관련하여, 예를 들어, 하나 이상의 더 높은 레벨들의 상기 오류 보호가 상기 2D 비디오 프레임 내의 하나 이상의 관심 영역들에 적용될 수 있고, 하나 이상의 더 낮은 레벨의 상기 오류 보호가 상기 2D 비디오 프레임 내의 하나 이상의 다른 영역들에 적용될 수 있다. 하나 이상의 더 높은 레벨의 상기 오류 보호가 상기 2D 비디오 프레임 내의 하나 이상의 관심 영역들과 관련된 상기 대응하는 깊이 정보에 적용될 수 있고, 하나 이상의 더 낮은 레벨의 상기 오류 보호가 상기 2D 비디오 프레임 내의 하나 이상의 다른 영역들과 관련된 상기 대응하는 깊이 정보에 적용될 수 있다. 다른 예에서, 더 높은 레벨의 상기 오류 보호가 상기 2D 비디오 프레임 내의 상기 복수의 영역들 각각에 적용될 수 있고, 더 낮은 레벨의 상기 오류 보호가 예를 들어, 상기 2D 비디오 프레임 내의 상기 복수의 영역들 각각과 관련된 상기 대응하는 깊이 정보에 적용될 수 있다.In one exemplary embodiment of the present invention, the same type of error protection of various levels may be applied to a plurality of regions of the captured 2D video frame and / or corresponding depth information for the plurality of regions. In this regard, for example, one or more higher levels of the error protection may be applied to one or more regions of interest in the 2D video frame, and one or more lower levels of the error protection may be applied to one or more within the 2D video frame. It can be applied to other areas. One or more higher levels of the error protection may be applied to the corresponding depth information associated with one or more regions of interest in the 2D video frame, and one or more lower levels of the error protection may be applied to one or more other in the 2D video frame. May be applied to the corresponding depth information associated with the areas. In another example, a higher level of the error protection may be applied to each of the plurality of areas within the 2D video frame, and a lower level of the error protection may be applied, for example, to the plurality of areas within the 2D video frame. May be applied to the corresponding depth information associated with each.

본 발명의 다른 예시적인 실시예에서, 오류 보호의 다양한 유형들이 상기 캡쳐된 2D 비디오 프레임의 상기 복수의 영역들 및/또는 상기 복수의 영역들에 대해 상기 대응하는 깊이 정보에 적용될 수 있다. 이와 관련하여, 예를 들어, 제1 유형의 오류 보호가 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 관심 영역들에 적용될 수 있고, 제2 유형의 오류 보호가 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 다른 영역들에 적용될 수 있다. 제1 유형의 오류 보호가 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 관심 영역들과 관련된 상기 대응하는 깊이 정보에 적용될 수 있고, 제2 유형의 오류 보호가 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 다른 영역들과 관련된 상기 대응하는 깊이 정보에 적용될 수 있다.In another exemplary embodiment of the invention, various types of error protection may be applied to the corresponding depth information for the plurality of regions and / or the plurality of regions of the captured 2D video frame. In this regard, for example, a first type of error protection may be applied to one or more regions of interest in the captured 2D video frame, and a second type of error protection may be applied to one or more other areas in the captured 2D video frame. Can be applied. A first type of error protection can be applied to the corresponding depth information associated with one or more regions of interest in the captured 2D video frame, and a second type of error protection is applied to one or more other areas in the captured 2D video frame. May be applied to the corresponding depth information associated with the.

상기 단안 3D 비디오 카메라(202a)와 같은 3D 비디오 카메라(202)가 도 2에 도시되어 있지만, 본 발명은 이것으로 제한되지 않을 수 있다. 따라서, 본 발명의 다양한 실시예들의 사상 및 범위를 벗어나지 않으면서, 관련된 깊이들을 갖는 3D 비디오 프레임들을 생성시키는 임의의 유형의 3D 비디오 생성 디바이스가 예시될 수 있다. 예를 들어, 2D-플러스-깊이 포맷들로 3D 비디오 콘텐츠를 생성시키는, 단안 3D 캠코더와 같은 3D 비디오 생성 디바이스가 예시될 수 있다. 또한, 입체 비디오 카메라(100)와 같은 입체 비디오 카메라가 예를 들어 예시될 수 있다.Although a 3D video camera 202 such as the monocular 3D video camera 202a is shown in FIG. 2, the present invention may not be limited thereto. Thus, any type of 3D video generation device may be illustrated that produces 3D video frames having associated depths without departing from the spirit and scope of various embodiments of the present invention. For example, a 3D video generation device, such as a monocular 3D camcorder, that generates 3D video content in 2D-plus-depth formats may be illustrated. Also, a stereoscopic video camera such as stereoscopic video camera 100 may be illustrated, for example.

도 3은 본 발명의 일 실시예에 따른, 단일 뷰(view) 및 깊이 정보를 이용하여 생성되는 3D 비디오에 대해 오류 보호를 제공하도록 동작할 수 있는 일 예시적인 단안 3D 비디오 카메라를 나타내는 블록도이다. 도 3을 참조하면, 단안 3D 비디오 카메라(300)가 도시된다. 상기 단안 3D 비디오 카메라(300)는 프로세서(304), 메모리(306), 하나 이상의 깊이 센서들(308), 이미터(309), 이미지 신호 프로세서(ISP)(310), 입/출력(I/O) 모듈(312), 하나 이상의 이미지 센서들(314), 옵틱스(316), 스피커(311), 마이크로폰(313), 비디오/오디오 인코더(307), 비디오/오디오 디코더(317), 오디오 모듈(305), 오류 보호 모듈(315), 렌즈(318), 복수의 제어들(322), 광학 뷰파인더(324) 및 디스플레이(320)를 포함할 수 있다. 상기 단안 3D 비디오 카메라(300)는 도 1a의 단안 3D 비디오 카메라(102)와 실질적으로 유사할 수 있다.3 is a block diagram illustrating an exemplary monocular 3D video camera that can be operable to provide error protection for 3D video generated using a single view and depth information, in accordance with an embodiment of the invention. . Referring to FIG. 3, a monocular 3D video camera 300 is shown. The monocular 3D video camera 300 includes a processor 304, a memory 306, one or more depth sensors 308, an emitter 309, an image signal processor (ISP) 310, input / output (I / I). O) module 312, one or more image sensors 314, optics 316, speakers 311, microphone 313, video / audio encoder 307, video / audio decoder 317, audio module ( 305, error protection module 315, lens 318, a plurality of controls 322, optical viewfinder 324, and display 320. The monocular 3D video camera 300 may be substantially similar to the monocular 3D video camera 102 of FIG. 1A.

상기 프로세서(304)는 상기 단안 3D 비디오 카메라(300)의 다양한 구성요소들의 동작을 조정하도록 동작할 수 있는, 적합한 로직, 회로, 인터페이스들 및/또는 코드를 포함할 수 있다. 상기 프로세서(304)는 예를 들어, 상기 단안 3D 비디오 카메라(300)의 운영 체제(operation system)를 실행시키고, 상기 단안 3D 비디오 카메라(300)의 구성요소들 사이에서 정보 및 신호들의 통신을 제어할 수 있다. 상기 프로세서(304)는 상기 메모리(306) 내에 저장된 코드를 실행시킬 수 있다. 본 발명의 일 예시적인 실시예에서, 상기 프로세서(304)는 2D 비디오 프레임 내의 하나 이상의 관심 영역들을 식별하거나 선택할 수 있다. 상기 식별 또는 선택은 예를 들어 상기 캡쳐된 대응하는 깊이 데이터 및/또는 상기 비디오 프레임 내의 주요 초점 영역 또는 대상물에 기반할 수 있다.The processor 304 may include suitable logic, circuitry, interfaces and / or code that may be operable to coordinate the operation of various components of the monocular 3D video camera 300. The processor 304, for example, runs an operating system of the monocular 3D video camera 300 and controls the communication of information and signals between components of the monocular 3D video camera 300. can do. The processor 304 may execute code stored in the memory 306. In one exemplary embodiment of the present invention, the processor 304 may identify or select one or more regions of interest within the 2D video frame. The identification or selection may, for example, be based on the captured corresponding depth data and / or the main focal region or object within the video frame.

상기 메모리(306)는 예를 들어, DRAM, SRAM, 플래쉬 메모리, 하드 드라이브 또는 기타 자기 스토리지 또는 임의의 기타 적합한 메모리 디바이스들을 포함할 수 있다. 예를 들어, 상기 프로세서(304)에 의해 이용 및/또는 생성되는 데이터를 저장하기 위해 SRAM이 이용될 수 있으며, 기록된 이미지 데이터 및 깊이 데이터를 저장하기 위해서 하드-드라이브 및/또는 플래쉬 메모리가 이용될 수 있다.The memory 306 may include, for example, DRAM, SRAM, flash memory, hard drive or other magnetic storage or any other suitable memory devices. For example, an SRAM may be used to store data used and / or generated by the processor 304, and a hard-drive and / or flash memory may be used to store recorded image data and depth data. Can be.

상기 깊이 센서(들)(308)는 각각, 적외선 스펙트럼 내에서 EM 파들을 감지하고 반사된 적외선 파에 기반하여 깊이 정보를 결정하도록 동작할 수 있는, 적합한 로직, 회로, 인터페이스들 및/또는 코드를 포함할 수 있다. 예를 들어, 깊이 정보는 상기 이미터(309)에 의해 전송되고 상기 깊이 센서(들)(308)에 반사되어 돌아온 적외선의 전파 시간에 기반하여 결정될 수 있다. 깊이 정보는 또한 예를 들어 구조형 광 방법을 사용하여 결정할 수 있다. 그러한 예로, 적외선파의 그리드(grid)와 같은 광 패턴이 프로젝터와 같은 광원에 의해 대상물에 알려진 각도로 투사될 수 있다. 상기 깊이 센서(들)(308)는 상기 대상물 상의 상기 적외선 광 패턴과 같은 광 패턴의 변형을 감지할 수 있다. 따라서, 장면에 대한 깊이 정보는 예를 들어 삼각 측량 기술을 사용하여 결정되거나 계산될 수 있다.The depth sensor (s) 308 may each be adapted to suitable logic, circuitry, interfaces and / or code that may be operable to sense EM waves within the infrared spectrum and determine depth information based on the reflected infrared waves. It may include. For example, depth information may be determined based on the propagation time of the infrared light transmitted by the emitter 309 and reflected back to the depth sensor (s) 308. Depth information can also be determined using, for example, structured light methods. As such an example, a light pattern such as a grid of infrared waves may be projected at a known angle to the object by a light source such as a projector. The depth sensor (s) 308 may detect deformation of a light pattern, such as the infrared light pattern on the object. Thus, depth information for the scene can be determined or calculated using, for example, triangulation techniques.

상기 이미지 신호 프로세서 또는 이미지 센서 프로세서(ISP)(310)는 캡쳐된 이미지 데이터 및 캡쳐된 대응하는 깊이 데이터의 복잡한 프로세싱을 수행하도록 동작할 수 있는, 적합한 로직, 회로, 인터페이스들 및/또는 코드를 포함할 수 있다. 상기 ISP(310)는 예를 들어, 필터링, 데모자익(demosaic), 바이어 보간(Bayer interpolation), 렌즈 명암 정정(lens shading correction), 불완전한 픽셀 보정, 화이트 밸런스, 이미지 보상, 색상 변형 및/또는 후처리 필터링(post filtering)을 포함하는 복수의 프로세싱 기술들을 수행할 수 있다.The image signal processor or image sensor processor (ISP) 310 includes suitable logic, circuitry, interfaces and / or code that can be operable to perform complex processing of captured image data and corresponding corresponding depth data. can do. The ISP 310 may, for example, filter, demosaiic, Bayer interpolation, lens shading correction, incomplete pixel correction, white balance, image compensation, color distortion, and / or post-processing. A plurality of processing techniques may be performed including post filtering.

상기 오디오 모듈(305)은 상기 단안 3D 비디오 카메라(300)의 다양한 오디오 기능들을 수행하도록 동작할 수 있는, 적합한 로직, 회로, 인터페이스들 및/또는 코드를 포함할 수 있다. 본 발명의 일 예시적인 실시예에서, 상기 오디오 모듈(305)은 소음 제거 및/또는 3D 장면에 대한 오디오 볼륨 레벨 조정을 수행할 수 있다.The audio module 305 may include suitable logic, circuitry, interfaces and / or code that may be operable to perform various audio functions of the monocular 3D video camera 300. In one exemplary embodiment of the present invention, the audio module 305 may perform noise reduction and / or audio volume level adjustment for 3D scenes.

상기 비디오/오디오 인코더(307)는 비디오 인코딩 및/또는 오디오 인코딩 기능들을 수행하도록 동작할 수 있는, 적합한 로직, 회로, 인터페이스들 및/또는 코드를 포함할 수 있다. 예를 들어, 상기 비디오/오디오 인코더(307)는, 상기 3D 비디오 렌더링 디바이스(204)와 같은 3D 비디오 렌더링 디바이스에 전송하기 위한, 캡쳐된 2D 비디오 프레임들 및 대응하는 깊이 정보 및/또는 전송을 위한 오디오 데이터를 인코딩하거나 압축할 수 있다.The video / audio encoder 307 may include suitable logic, circuitry, interfaces and / or code that may be operable to perform video encoding and / or audio encoding functions. For example, the video / audio encoder 307 may be configured to transmit captured 2D video frames and corresponding depth information and / or for transmission to a 3D video rendering device, such as the 3D video rendering device 204. Audio data can be encoded or compressed.

상기 비디오/오디오 디코더(317)는 비디오 디코딩 및/또는 오디오 디코딩 기능들을 수행하도록 동작할 수 있는, 적합한 로직, 회로, 인터페이스들 및/또는 코드를 포함할 수 있다.The video / audio decoder 317 may include suitable logic, circuitry, interfaces and / or code that may be operable to perform video decoding and / or audio decoding functions.

상기 오류 보호 모듈(315)은 상기 단안 3D 비디오 카메라(300)에 대해 오류 보호 기능들을 수행하도록 동작할 수 있는, 적합한 로직, 회로, 인터페이스들 및/또는 코드를 포함할 수 있다. 예를 들어, 상기 오류 보호 모듈(315)은, 상기 3D 비디오 렌더링 디바이스(204)와 같은 3D 비디오 렌더링 디바이스에 전송하기 위한 인코딩된 2D 비디오 프레임들 및 대응하는 깊이 정보 및/또는 인코딩된 오디오 데이터에 오류 보호를 제공할 수 있다. 본 발명의 예시적인 실시예에서, 상기 오류 보호 모듈(315)은 캡쳐된 2D 비디오 프레임의 복수의 영역들에 및/또는 상기 복수의 영역들에 대한 대응하는 깊이 정보 또는 데이터에 다양한 오류 보호를 적용할 수 있다.The error protection module 315 may include suitable logic, circuitry, interfaces and / or code that may be operable to perform error protection functions on the monocular 3D video camera 300. For example, the error protection module 315 may be configured to encode encoded 2D video frames and corresponding depth information and / or encoded audio data for transmission to a 3D video rendering device, such as the 3D video rendering device 204. Error protection can be provided. In an exemplary embodiment of the invention, the error protection module 315 applies various error protections to a plurality of regions of the captured 2D video frame and / or to corresponding depth information or data for the plurality of regions. can do.

상기 입/출력(I/O) 모듈(312)은 상기 단안 3D 비디오 카메라(300)가, USB, PCI-X, IEEE 1394, HDMI, 디스플레이포트, 및/또는 아날로그 오디오 및/또는 아날로그 비디오 표준들과 같은 하나 이상의 표준들에 따라 다른 디바이스들과 인터페이싱하도록 할 수 있는, 적합한 로직, 회로, 인터페이스들 및/또는 코드를 포함할 수 있다. 예를 들어, 상기 I/O 모듈(312)은 제어들(322)로부터 신호들을 송신 및 수신; 비디오를 디스플레이(320)로 출력; 오디오를 스피커(311)로 출력; 마이크로폰(313)으로부터 오디오 입력을 처리; 카세트, 플래쉬 카드, 솔리드 스테이트 드라이브들(solid state drives), 하드 디스크 드라이브들 또는 상기 단안 3D 비디오 카메라(300)에 부착된 기타 외부 메모리를 판독하고 여기에 기록; 및/또는 전송 및/또는 렌더링을 위해 IEEE 1394 포트, HDMI 및/또는 USB 포트와 같은 하나 이상의 포트들을 통해 오디오 및/또는 비디오를 외부로 출력하도록 동작할 수 있다.The input / output (I / O) module 312 allows the monocular 3D video camera 300 to include USB, PCI-X, IEEE 1394, HDMI, DisplayPort, and / or analog audio and / or analog video standards. Suitable logic, circuitry, interfaces, and / or code, which may enable interfacing with other devices in accordance with one or more standards, such as; For example, the I / O module 312 may transmit and receive signals from the controls 322; Output video to display 320; Output audio to the speaker 311; Process audio input from microphone 313; Read and write to a cassette, flash card, solid state drives, hard disk drives or other external memory attached to the monocular 3D video camera 300; And / or output audio and / or video externally through one or more ports, such as an IEEE 1394 port, an HDMI, and / or a USB port for transmission and / or rendering.

상기 이미지 센서(들)(314)는 각각, 광학적 신호들을 전기적 신호들로 변환시키도록 동작할 수 있는, 적합한 로직, 회로, 인터페이스들 및/또는 코드를 포함할 수 있다. 각각의 이미지 센서(314)는 예를 들어, CCD(charge coupled device) 이미지 센서 또는 CMOS(complimentary metal oxide semiconductor) 이미지 센서를 포함할 수 있다. 각 이미지 센서(314)는 밝기, 휘도 및/또는 색도 정보를 캡쳐할 수 있다. The image sensor (s) 314 may each include suitable logic, circuitry, interfaces and / or code, which may be operable to convert optical signals into electrical signals. Each image sensor 314 may include, for example, a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor. Each image sensor 314 may capture brightness, brightness and / or chromaticity information.

상기 옵틱스(316)는 렌즈(318)를 통해 수신된 EM 파를 조절(conditioning) 및 유도(directing)하기 위한 다양한 광학 디바이스들을 포함할 수 있다. 상기 옵틱스(316)는 가시 스펙트럼에서의 EM 파를 이미지 센서(들)(314)로 유도하고, 자외선 스펙트럼에서 EM 파를 깊이 센서(들)(308)로 유도할 수 있다. 상기 옵틱스(316)는 예를 들어, 하나 이상의 렌즈들, 프리즘들, 루미넌스 및/또는 컬러 필터들 및/또는 거울들을 포함할 수 있다.The optics 316 may include various optical devices for conditioning and directing EM waves received through the lens 318. The optics 316 may direct EM waves in the visible spectrum to the image sensor (s) 314 and guide EM waves in the ultraviolet spectrum to the depth sensor (s) 308. The optics 316 may include, for example, one or more lenses, prisms, luminance and / or color filters and / or mirrors.

상기 렌즈(318)는 가시광선 및 적외선 스펙트럼에서 전자기(EM) 파들을 수집하고 충분히 포커싱하도록 동작할 수 있다. The lens 318 may be operable to collect and fully focus electromagnetic (EM) waves in the visible and infrared spectra.

상기 디스플레이(320)는 상기 단안 3D 비디오 카메라(300)를 통해 기록된 이미지들이 디스플레이될 수 있는 LCD 디스플레이, LED 디스플레이, 유기 LED(OLED) 디스플레이 및/또는 기타 디지털 디스플레이를 포함할 수 있다. 본 발명의 일 실시예에서, 상기 디스플레이(320)는 3D 이미지들을 디스플레이하도록 동작될 수 있다.The display 320 may include an LCD display, an LED display, an organic LED (OLED) display, and / or other digital display on which images recorded via the monocular 3D video camera 300 may be displayed. In one embodiment of the invention, the display 320 may be operated to display 3D images.

상기 제어들(322)은 사용자가 상기 단안 3D 비디오 카메라(300)와 상호 작용할 수 있도록 하는 적합한 로직, 회로, 인터페이스들 및/또는 코드를 포함할 수 있다. 예를 들어, 상기 제어들(322)로 인해 사용자가 기록(recoding) 및 재생(playback)을 제어할 수 있다. 본 발명의 일 실시예에서, 상기 제어들(322)로 인해 사용자가 단안 3D 비디오 카메라(300)의 기록 모드를 2D 모드 또는 3D 모드로 선택할 수 있다.The controls 322 may include suitable logic, circuitry, interfaces, and / or code to enable a user to interact with the monocular 3D video camera 300. For example, the controls 322 allow a user to control recording and playback. In one embodiment of the invention, the controls 322 allow the user to select the recording mode of the monocular 3D video camera 300 as a 2D mode or a 3D mode.

상기 광학 뷰파인더(324)는 사용자로 하여금 렌즈(318)가 "보는" 것, 즉, "프레임 상"에 있는 것을 관찰(view) 또는 보도록(see) 할 수 있다.The optical viewfinder 324 may allow a user to view or see what the lens 318 is "seeing", ie, "on a frame."

동작중에, 상기 이미지 센서(들)(314)는 2D 비디오 프레임과 관련된 밝기, 휘도 및/또는 색도 정보를 캡쳐할 수 있고, 상기 깊이 센서(들)(308)는 대응하는 깊이 정보를 캡쳐할 수 있다. 본 발명의 다양한 실시예들에서, RGB 또는 YCrCb와 같은 다양한 색상 포맷들이 사용될 수 있다. 상기 깊이 정보는 메타데이터로서 또는 추가적 정보 층으로서 상기 메모리(306)에 저장될 수 있으며, 이는 상기 2D 비디오 프레임 정보로부터 3D 비디오 프레임을 렌더링할 때 이용될 수 있다.In operation, the image sensor (s) 314 may capture brightness, luminance and / or chromaticity information associated with a 2D video frame, and the depth sensor (s) 308 may capture corresponding depth information. have. In various embodiments of the present invention, various color formats may be used, such as RGB or YCrCb. The depth information may be stored in the memory 306 as metadata or as an additional layer of information, which may be used when rendering a 3D video frame from the 2D video frame information.

본 발명의 일 예시적인 실시예에서, 상기 프로세서(304)는 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 관심 영역들을 식별하도록 동작할 수 있다. 관심 영역은 예를 들어, 상기 캡쳐된 대응하는 깊이 정보 및/또는 상기 비디오 프레임 내의 주요 초점 영역 또는 대상물들을 기반으로 하여 식별되거나 선택될 수 있다. 상기 캡쳐된 2D 비디오 프레임 및 상기 캡쳐된 대응하는 깊이 정보는 상기 비디오/오디오 인코더(307)에 의해 인코딩되거나 압축될 수 있다. 상기 인코딩은 상기 오류 보호 모듈(315)을 이용하여, 상기 2D 비디오 프레임의 복수의 영역들 및/또는 상기 복수의 영역들에 대한 대응하는 깊이 정보에 다양한 오류 보호를 적용할 수 있다. 이와 관련하여, 예를 들어, 상기 오류 보호 모듈(315)은 상기 2D 비디오 프레임 내의 하나 이상의 관심 영역들에 하나 이상의 더 높은 레벨의 오류 보호를 적용할 수 있다. 하나 이상의 더 낮은 레벨의 오류 보호는 관심도가 더 떨어지는 것으로 여겨진 상기 2D 비디오 프레임 내의 하나 이상의 다른 영역들에 적용될 수 있다. 상기 오류 보호 모듈(315)은 상기 2D 비디오 프레임 내의 하나 이상의 관심 영역들과 관련된 대응하는 깊이 정보에 하나 이상의 더 높은 레벨의 오류 보호를 적용할 수 있다. 하나 이상의 더 낮은 레벨의 오류 보호는 보다 더 관심도가 떨어지는 것으로 여겨지는 상기 2D 비디오 프레임 내의 하나 이상의 다른 영역들과 관련된 대응하는 깊이 정보에 적용될 수 있다. 다른 예에서, 상기 오류 보호 모듈(315)은 상기 2D 비디오 프레임 내의 각 영역에 더 높은 레벨의 오류 보호를 적용할 수 있고, 더 낮은 레벨의 오류 보호를 예를 들어, 상기 2D 비디오 프레임 내의 각 영역과 관련된 상기 대응하는 깊이 정보에 적용할 수 있다.In one exemplary embodiment of the present invention, the processor 304 may be operable to identify one or more regions of interest within the captured 2D video frame. The region of interest may be identified or selected based on, for example, the captured corresponding depth information and / or the main focal region or objects within the video frame. The captured 2D video frame and the captured corresponding depth information may be encoded or compressed by the video / audio encoder 307. The encoding may use the error protection module 315 to apply various error protections to a plurality of regions and / or corresponding depth information for the plurality of regions of the 2D video frame. In this regard, for example, the error protection module 315 may apply one or more higher levels of error protection to one or more regions of interest within the 2D video frame. One or more lower levels of error protection may be applied to one or more other areas within the 2D video frame that are considered of less interest. The error protection module 315 may apply one or more higher levels of error protection to corresponding depth information associated with one or more regions of interest in the 2D video frame. One or more lower levels of error protection may be applied to corresponding depth information associated with one or more other regions within the 2D video frame that are considered to be of less interest. In another example, the error protection module 315 may apply a higher level of error protection to each area within the 2D video frame, and a lower level of error protection, for example, each area within the 2D video frame. Apply to the corresponding depth information associated with the.

다양한 유형의 오류 보호가 상기 캡쳐된 2D 비디오 프레임의 상이한 영역들 및/또는 상기 상이한 영역들에 대한 상기 대응하는 깊이 정보에 적용될 수 있다. 예를 들어, 관심 영역 내의 높은 상세들을 갖는 영역에 대해, 제1 유형의 오류-정정 코드가 사용될 수 있는 반면, 변화가 거의 없거나 더 낮은 상세를 갖는 영역에는 제2 유형의 오류-정정 코드가 사용될 수 있다. 이와 관련하여, 상기 오류 보호 모듈(315)은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 관심 영역들에 상기 제1 유형의 오류 보호를 적용할 수 있다. 상기 제2 유형의 오류 보호는 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 다른 영역들에 적용될 수 있다. 상기 오류 보호 모듈(315)은 상기 제1 유형의 오류 보호를 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 관심 영역들과 관련된 상기 대응하는 깊이 정보에 적용할 수 있다. 상기 제2 유형의 오류 보호는 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 다른 영역들과 관련된 상기 대응하는 깊이 정보에 적용될 수 있다.Various types of error protection can be applied to different regions of the captured 2D video frame and / or the corresponding depth information for the different regions. For example, for regions with high details in the region of interest, a first type of error-correction code may be used, while a region with little or no change may use a second type of error-correction code. Can be. In this regard, the error protection module 315 may apply the first type of error protection to one or more regions of interest in the captured 2D video frame. The second type of error protection may be applied to one or more other areas within the captured 2D video frame. The error protection module 315 may apply the first type of error protection to the corresponding depth information associated with one or more regions of interest in the captured 2D video frame. The second type of error protection may be applied to the corresponding depth information associated with one or more other regions within the captured 2D video frame.

본 발명의 일 예시적인 실시예에서, 상기 I/O 모듈(312)은 상기 오류 보호된 2D 비디오 프레임 및 상기 오류 보호된 대응하는 깊이 정보를 3D 비디오 렌더링 및/또는 디스플레이를 위한 상기 3D 비디오 렌더링 디바이스(204)에 전송하거나 출력하도록 동작할 수 있다.In one exemplary embodiment of the present invention, the I / O module 312 is configured to render the error protected 2D video frame and the error protected corresponding depth information for the 3D video rendering device for 3D video rendering and / or display. And send to or output to 204.

도 4a 내지 4d는 각각 본 발명의 일 실시예에 따른 2D 비디오 프레임 및 대응하는 깊이 정보에 대한 예시적인 오류 보호를 나타내는 블록도이다. 이러한 시나리오들은 한정의 목적이 아닌 예시적 도면으로 제공된다. 도 4a 내지 4d 각각을 참조하면, 단안 3D 비디오 카메라(402), 3D 비디오 렌더링 디바이스(404)가 도시된다. 또한, 2D 비디오 프레임(434) 및 대응하는 깊이 정보 프레임(430)이 도시된다. 상기 단안 3D 비디오 카메라(402)는 도 2의 상기 단안 3D 비디오 카메라(202)와 실질적으로 유사할 수 있다. 상기 3D 비디오 렌더링 디바이스(404)는 도 2의 3D 비디오 렌더링 디바이스(204)와 실질적으로 유사할 수 있다. 상기 2D 비디오 프레임(434)은 식별된 관심 영역(434a) 및 다른 영역(434b)을 포함할 수 있다. 상기 깊이 정보 프레임(430)은 상기 2D 비디오 프레임(434) 내의 상기 관심 영역(434a)에 대응하는 영역(430a)을 포함할 수 있다. 상기 깊이 정보 프레임(430) 내의 영역(430b)은 상기 2D 비디오 프레임(434) 내의 다른 영역(434b)에 대응된다.4A-4D are block diagrams illustrating exemplary error protection for 2D video frames and corresponding depth information, respectively, according to one embodiment of the invention. These scenarios are provided by way of example and not for purposes of limitation. Referring to each of FIGS. 4A-4D, a monocular 3D video camera 402 and a 3D video rendering device 404 are shown. Also shown is a 2D video frame 434 and a corresponding depth information frame 430. The monocular 3D video camera 402 may be substantially similar to the monocular 3D video camera 202 of FIG. 2. The 3D video rendering device 404 may be substantially similar to the 3D video rendering device 204 of FIG. 2. The 2D video frame 434 may include an identified region of interest 434a and another region 434b. The depth information frame 430 may include an area 430a corresponding to the ROI 434a in the 2D video frame 434. An area 430b in the depth information frame 430 corresponds to another area 434b in the 2D video frame 434.

도 4a는 단안 3D 비디오 카메라(402)가, 상기 2D 비디오 프레임(434) 및 상기 대응하는 깊이 정보 프레임(430)을 상기 3D 비디오 렌더링 디바이스(404)에 전송하기 위해, 제1 레벨의 오류 보호(411)를 상기 영역들(434a, 430a)에 적용하고, 제2 레벨의 오류 보호(412)를 상기 영역들(434b, 430b)에 적용하도록 동작할 수 있는 제1 시나리오를 나타낸다. 이러한 시나리오에서, 상기 제1 레벨의 오류 보호(411)는 더 높은 레벨의 오류 보호이고, 상기 제2 레벨의 오류 보호(412)는 더 낮은 레벨의 오류 보호일 수 있다. 이와 관련하여, 상기 제1 레벨의 오류 보호(411)는 예를 들어, 제2 레벨의 오류 보호(412)에 의해 이용되는 오류-정정 코드보다 더 긴 오류-정정 코드를 이용할 수 있다.4A shows a first level of error protection for the monocular 3D video camera 402 to transmit the 2D video frame 434 and the corresponding depth information frame 430 to the 3D video rendering device 404. 411 is applied to the regions 434a and 430a and a first scenario can be operated to apply a second level of error protection 412 to the regions 434b and 430b. In such a scenario, the first level of error protection 411 may be a higher level of error protection, and the second level of error protection 412 may be a lower level of error protection. In this regard, the first level of error protection 411 may use, for example, a longer error-correction code than the error-correction code used by the second level of error protection 412.

도 4b는 단안 3D 비디오 카메라(402)가, 상기 2D 비디오 프레임(434) 및 대응하는 깊이 정보 프레임(430)을 상기 3D 비디오 렌더링 디바이스(404)에 전송하기 위해, 제1 레벨의 오류 보호(411)를 상기 영역(434a)에 적용하고, 제2 레벨의 오류 보호(412)를 상기 영역(434b)에 적용하고, 제3 레벨의 오류 보호(413)를 상기 영역(430a)에 적용하고, 제4 레벨의 오류 보호(414)를 상기 영역(430b)에 적용하도록 동작할 수 있는 제2 시나리오를 나타낸다. 이러한 시나리오에서, 제1 레벨의 오류 보호(411)는 가장 높은 레벨의 오류 보호일 수 있고, 반면 제4 레벨의 오류 보호(414)는 예를 들어 가장 낮은 레벨의 오류 보호이거나 오류 보호를 전혀 갖지 않을 수 있다. 제2 레벨의 오류 보호(412)는 상기 제1 레벨의 오류 보호(411)보다 더 낮은 오류 보호 레벨일 수 있다. 제3 레벨의 오류 보호(413)는 예를 들어 상기 제2 레벨의 오류 보호(412)보다 더 낮은 오류 보호 레벨일 수 있다.4B shows a first level of error protection 411 for the monocular 3D video camera 402 to send the 2D video frame 434 and the corresponding depth information frame 430 to the 3D video rendering device 404. ) Is applied to the area 434a, a second level of error protection 412 is applied to the area 434b, a third level of error protection 413 is applied to the area 430a, and A second scenario may be operative to apply four levels of error protection 414 to the area 430b. In such a scenario, the first level of error protection 411 may be the highest level of error protection, while the fourth level of error protection 414 may be, for example, the lowest level of error protection or no error protection. You may not. The second level of error protection 412 may be a lower level of error protection than the first level of error protection 411. The third level of error protection 413 may be, for example, a lower level of error protection than the second level of error protection 412.

도 4c는 단안 3D 비디오 카메라(402)가, 상기 2D 비디오 프레임(434) 및 상기 대응하는 깊이 정보 프레임(430)을 상기 3D 비디오 렌더링 디바이스(404)에 전송하기 위해, 제1 레벨의 오류 보호(411)를 상기 영역들(434a, 434b)에 적용하고, 제2 레벨의 오류 보호(412)를 상기 영역들(430a, 430b)에 적용하도록 동작할 수 있는 제3 시나리오를 도시한다. 이러한 시나리오에서, 제1 레벨의 오류 보호(411)는 더 높은 레벨의 오류 보호일 수 있고, 제2 레벨의 오류 보호(412)는 더 낮은 레벨의 오류 보호일 수 있다. 이와 관련하여, 예를 들어, 상기 2D 비디오 프레임(434) 및 상기 대응하는 깊이 정보 프레임(430)은 2개의 상이하거나 계층화된 비트스트림들을 통해 상기 3D 비디오 렌더링 디바이스(404)로 구분하여 전송될 수 있다. 상기 2D 비디오 프레임(434)은 더 높은 레벨의 오류 보호인 상기 제1 레벨의 오류 보호(411)로 보호될 수 있는 반면, 대응하는 깊이 정보 프레임(430)은 더 낮은 레벨의 오류 보호인 상기 제2 레벨의 오류 보호(412)로 보호될 수 있다.4C shows a first level of error protection for the monocular 3D video camera 402 to transmit the 2D video frame 434 and the corresponding depth information frame 430 to the 3D video rendering device 404. A third scenario is shown that may be operative to apply 411 to the regions 434a and 434b and to apply a second level of error protection 412 to the regions 430a and 430b. In such a scenario, the first level of error protection 411 may be a higher level of error protection, and the second level of error protection 412 may be a lower level of error protection. In this regard, for example, the 2D video frame 434 and the corresponding depth information frame 430 may be transmitted separately to the 3D video rendering device 404 via two different or layered bitstreams. have. The 2D video frame 434 may be protected with the first level of error protection 411, which is a higher level of error protection, while the corresponding depth information frame 430 is the lower level of error protection. Two levels of error protection 412 may be protected.

도 4d는 단안 3D 비디오 카메라(402)가, 상기 2D 비디오 프레임(434) 및 대응하는 깊이 정보 프레임(430)을 상기 3D 비디오 렌더링 디바이스(404)로 전송하기 위해, 제1 유형의 오류 보호(414)를 상기 영역들(434a, 430a)에 적용하고, 제2 유형의 오류 보호(415)를 상기 영역들(434b, 430b)에 적용하도록 동작할 수 있는 제4 시나리오를 나타낸다. 이러한 시나리오에서, 예를 들어, 상기 제1 유형의 오류 보호(414)는 리드-솔로몬(Reed-Solomon; RS) 코드를 사용하는 반면, 상기 제2 유형의 오류 보호(415)는 다른 유형의 오류-정정 코드를 사용할 수 있다.4D shows a first type of error protection 414 for the monocular 3D video camera 402 to send the 2D video frame 434 and the corresponding depth information frame 430 to the 3D video rendering device 404. ) Is applied to the regions 434a and 430a, and a fourth scenario may be operated to apply a second type of error protection 415 to the regions 434b and 430b. In such a scenario, for example, the first type of error protection 414 uses a Reed-Solomon (RS) code, while the second type of error protection 415 uses other types of errors. Correction code can be used.

도 5는 본 발명의 일 실시예에 따른, 3D 비디오를 위해 오류 보호를 제공하기 위한 예시적 단계들을 나타내는 흐름도이다. 5를 참조하면, 상기 예시적인 단계들은 단계(501)에서 시작된다. 단계(502)에서, 상기 3D 비디오 카메라(202)는 캡쳐된 3D 비디오 프레임 내의 하나 이상의 깊이들과 관련된 하나 이상의 관심 영역들을 식별하도록 동작할 수 있다. 상기 식별은 예를 들어, 상기 관련된 깊이 정보 및/또는 상기 비디오 프레임 내의 주요 초점 영역 또는 대상물을 기반으로 한 것일 수 있다.5 illustrates exemplary steps for providing error protection for 3D video, in accordance with an embodiment of the present invention. It is a flow chart. Degree Referring to 5, the exemplary steps begin at step 501. In step 502, the 3D video camera 202 may be operable to identify one or more regions of interest associated with one or more depths within the captured 3D video frame. The identification may be based, for example, on the relevant depth information and / or the main focal region or object within the video frame.

단계(503)에서, 상기 캡쳐된 3D 비디오 프레임은 상기 3D 비디오 카메라(202)에 의해 인코딩되거나 압축될 수 있다. 단계(504)에서, 상기 인코딩 중, 상기 3D 비디오 카메라(202)는 예를 들어, 상기 관련된 깊이들에 기반하여 다양한 오류 보호를 상기 3D 비디오 프레임의 복수의 영역들에 적용할 수 있다. 예를 들어, 상기 3D 비디오 카메라(202)는 상기 3D 비디오 프레임 내의 하나 이상의 관심 영역들에 하나 이상의 더 높은 레벨의 오류 보호를 적용할 수 있고, 상기 3D 비디오 프레임 내의 하나 이상의 다른 영역들에 하나 이상의 더 낮은 레벨의 오류 보호를 적용할 수 있다. 다른 예에서, 예를 들어, 상기 3D 비디오 카메라(202)는 상기 캡쳐된 3D 비디오 프레임 내의 하나 이상의 관심 영역들에 제1 유형의 오류 보호를 적용할 수 있고, 상기 캡쳐된 3D 비디오 프레임 내의 하나 이상의 다른 영역들에 제2 유형의 오류 보호를 적용할 수 있다.In step 503, the captured 3D video frame may be encoded or compressed by the 3D video camera 202. In step 504, during the encoding, the 3D video camera 202 may apply various error protections to a plurality of regions of the 3D video frame, for example based on the associated depths. For example, the 3D video camera 202 may apply one or more higher levels of error protection to one or more regions of interest within the 3D video frame, and one or more other regions within the 3D video frame. Lower levels of fault protection can be applied. In another example, for example, the 3D video camera 202 may apply a first type of error protection to one or more regions of interest within the captured 3D video frame, and one or more within the captured 3D video frame. A second type of error protection can be applied to other areas.

단계(505)에서, 상기 오류 보호된 3D 비디오 프레임은 3D 비디오 렌더링 및/또는 디스플레이를 위해 상기 3D 비디오 카메라(202)에 의해 상기 3D 비디오 렌더링 디바이스(204)와 같은 3D 비디오 렌더링 디바이스로 전송되거나 출력될 수 있다. 상기 예시적 단계들은 최종 단계(506)로 진행될 수 있다.In step 505, the error protected 3D video frame is transmitted or output by the 3D video camera 202 to a 3D video rendering device such as the 3D video rendering device 204 for 3D video rendering and / or display. Can be. The exemplary steps may proceed to final step 506.

본 발명의 다양한 실시예들에서, 상기 3D 비디오 카메라(202)와 같은 3D 비디오 생성 디바이스는 캡쳐된 3D 비디오 프레임의 복수의 영역들을 인코딩하거나 압축하도록 동작할 수 있다. 이와 관련하여, 상기 복수의 영역들은 상이한 깊이들과 관련될 수 있다. 상기 인코딩은 상기 관련된 상이한 깊이들에 기반하여 상기 복수의 영역들에 다양한 오류 보호를 적용할 수 있다. 상기 오류 보호는, 예를 들어, 순방향 오류 정정(FEC)을 포함할 수 있다. 더 높은 레벨의 오류 보호는 더 낮은 레벨의 오류 보호를 제공하기 위해 이용되는 오류-정정 코드보다 더 긴 오류-정정 코드를 이용할 수 있다. 이와 관련하여, 상기 더 긴 오류-정정 코드는 더 짧은 오류-정정 코드보다 더 강력한 오류 보호를 제공할 수 있다. 상기 3D 비디오 카메라(202)는 상기 캡쳐된 3D 비디오 프레임의 복수의 영역들로부터 하나 이상의 관심 영역들을 식별하도록 동작할 수 있다. 이와 관련하여, 상기 관심 영역은 예를 들어, 상기 관련된 깊이 정보 및/또는 주요 초점의 영역 또는 대상물에 기반하여 식별되거나 선택될 수 있다.In various embodiments of the invention, a 3D video generation device, such as the 3D video camera 202, may be operable to encode or compress a plurality of regions of the captured 3D video frame. In this regard, the plurality of regions may be associated with different depths. The encoding may apply various error protections to the plurality of regions based on the associated different depths. The error protection may include, for example, forward error correction (FEC). Higher levels of error protection may use longer error-correcting codes than error-correcting codes used to provide lower levels of error protection. In this regard, the longer error-correcting code can provide stronger error protection than the shorter error-correcting code. The 3D video camera 202 may be operable to identify one or more regions of interest from a plurality of regions of the captured 3D video frame. In this regard, the region of interest may be identified or selected, for example, based on the relevant depth information and / or the region or object of primary focus.

본 발명의 일 예시적인 실시예에서, 상기 3D 비디오 카메라(202)는 3D 비디오 렌더링 및/또는 디스플레이를 위해 상기 오류 보호된 3D 비디오 프레임을 3D 비디오 렌더링 디바이스(204)와 같은 3D 비디오 렌더링 디바이스로 전송하도록 동작할 수 있다. In one exemplary embodiment of the invention, the 3D video camera 202 transmits the error protected 3D video frame to a 3D video rendering device such as 3D video rendering device 204 for 3D video rendering and / or display. To operate.

본 발명의 예시적 일 실시예에서, 상기 3D 비디오 카메라(202)는 예를 들어 하나 이상의 깊이 센서들(308)을 갖는 상기 단안 3D 비디오 카메라(300)와 같은 단안 3D 비디오 카메라를 포함할 수 있다. 이와 관련하여, 상기 캡쳐된 3D 비디오 프레임은 2D 비디오 프레임(434) 및 대응하는 깊이 정보(430)를 포함할 수 있다. 상기 대응하는 깊이 정보(430)는 상기 단안 3D 비디오 카메라(300) 내의 하나 이상의 깊이 센서들(308)에 의해 캡쳐될 수 있다.In one exemplary embodiment of the invention, the 3D video camera 202 may comprise a monocular 3D video camera, such as the monocular 3D video camera 300 having one or more depth sensors 308, for example. . In this regard, the captured 3D video frame may include a 2D video frame 434 and corresponding depth information 430. The corresponding depth information 430 may be captured by one or more depth sensors 308 in the monocular 3D video camera 300.

본 발명의 일 예시적인 실시예에서, 상기 단안 비디오 카메라(300)의 오류 보호 모듈(315)은 상기 하나 이상의 더 높은 레벨의 오류 보호를 상기 2D 비디오 프레임(434) 내의 영역(434a)과 같은 하나 이상의 관심 영역들에 적용하도록 동작할 수 있고, 상기 하나 이상의 더 낮은 레벨의 오류 보호를 상기 2D 비디오 프레임(434) 내의 영역(434b)과 같은 하나 이상의 다른 영역들에 적용하도록 동작할 수 있다. 상기 오류 보호 모듈(315)은 하나 이상의 더 높은 레벨의 오류 보호를 상기 대응하는 깊이 정보(430) 내의 영역(430a)과 같은 하나 이상의 관심 영역들에 적용하고, 하나 이상의 더 낮은 레벨의 오류 보호를 상기 대응하는 깊이 정보(430) 내의 영역(430b)과 같은 하나 이상의 다른 영역들에 적용하도록 동작할 수 있다. 다른 예에서, 상기 오류 보호 모듈(315)은 상기 2D 비디오 프레임(434) 내의 각각의 영역에 더 높은 레벨의 오류 보호를 적용하고, 더 낮은 레벨의 오류 보호를 예를 들어, 대응하는 깊이 정보(430) 내의 각각의 영역에 적용하도록 동작할 수 있다.In one exemplary embodiment of the present invention, the error protection module 315 of the monocular video camera 300 provides one or more higher levels of error protection, such as an area 434a in the 2D video frame 434. And to apply the one or more lower levels of error protection to one or more other areas, such as area 434b in the 2D video frame 434. The error protection module 315 applies one or more higher levels of error protection to one or more areas of interest, such as area 430a in the corresponding depth information 430, and applies one or more lower levels of error protection. And apply to one or more other areas, such as area 430b in the corresponding depth information 430. In another example, the error protection module 315 applies a higher level of error protection to each area within the 2D video frame 434 and uses a lower level of error protection, e. 430 may be adapted to apply to each area within.

본 발명의 일 예시적인 실시예에서, 상기 오류 보호 모듈(315)은 상기 제1 유형의 오류 보호를 상기 2D 비디오 프레임(434) 내의 영역(434a)과 같은 하나 이상의 관심 영역들에 적용하고, 상기 제2 유형의 오류 보호를 상기 2D 비디오 프레임(434) 내의 영역(434b)과 같은 하나 이상의 다른 영역들에 적용하도록 동작할 수 있다. 상기 오류 보호 모듈(315)은 상기 제1 유형의 오류 보호를 대응하는 깊이 정보(430) 내의 영역(430a)과 같은 하나 이상의 관심 영역들에 적용하고, 상기 제2 유형의 오류 보호를 대응하는 깊이 정보(430) 내의 영역(430b)과 같은 하나 이상의 다른 영역들에 적용하도록 동작할 수 있다.In one exemplary embodiment of the present invention, the error protection module 315 applies the first type of error protection to one or more areas of interest, such as area 434a in the 2D video frame 434, and It may be operable to apply a second type of error protection to one or more other areas, such as area 434b in the 2D video frame 434. The error protection module 315 applies the first type of error protection to one or more areas of interest, such as area 430a in corresponding depth information 430, and applies the second type of error protection to a corresponding depth. Operate to apply to one or more other areas, such as area 430b in information 430.

본 발명의 다른 실시예들은 비-일시적 컴퓨터 판독가능 매체 및/또는 저장 매체, 및/또는 이에 저장하는 비-일시적 머신(machine) 판독가능한 매체 및/또는 저장 매체, 머신 코드 및/또는 머신 및/또는 컴퓨터에 의해 실행가능한 하나 이상의 코드 섹션을 갖는 컴퓨터 프로그램을 제공할 수 있으며, 이로써 상기 머신 및/또는 컴퓨터로 하여금 3D 비디오의 오류 보호를 위한 여기에 기술된 바와 같은 상기 단계들을 수행하도록 할 수 있다.Other embodiments of the invention are non-transitory computer readable media and / or storage media, and / or non-transitory machine readable media and / or storage media, machine code and / or machines and / or storing therein. Or a computer program having one or more sections of code executable by a computer, thereby allowing the machine and / or computer to perform the steps as described herein for error protection of 3D video. .

따라서, 본 발명은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 실현될 수 있다. 본 발명은 적어도 하나의 컴퓨터 시스템에서 집중화된 방식으로 또는 상이한 구성요소들이 몇 개의 상호연결된 컴퓨터 시스템들에 걸쳐 퍼져 있는 분포된 방식으로 실현될 수 있다. 본원에 기술된 방법들을 실행하기 위해 채택된 임의 종류의 컴퓨터 시스템 또는 기타 장치가 맞추어진다. 하드웨어와 소프트웨어의 전형적 조합은 로딩되거나 실행될 때 컴퓨터 시스템이 본원에 기술된 방법들을 실행하도록 제어하는 컴퓨터 프로그램을 갖는 범용 컴퓨터 시스템일 수 있다. Thus, the present invention can be realized in hardware, software or a combination of hardware and software. The invention can be realized in a centralized manner in at least one computer system or in a distributed manner in which different components are spread across several interconnected computer systems. Any kind of computer system or other apparatus adapted to carry out the methods described herein is tailored. A typical combination of hardware and software may be a general purpose computer system having a computer program that, when loaded or executed, controls the computer system to execute the methods described herein.

또한, 본 발명은 여기 기술된 방법들을 구현할 수 있도록 하는 모든 특징들을 포함하고 컴퓨터 시스템에 로딩되었을 때 이들 방법들을 수행할 수 있는 컴퓨터 프로그램 제품에 내장될 수 있다. 본 맥락에서 컴퓨터 프로그램은 정보 처리 능력이 있는 시스템이 직접 또는 a) 다른 언어, 코드 또는 표기로 변환, b) 다른 자료 형태로 재생 중 하나 혹은 둘 다를 행한 후에 특정 기능을 수행하도록 하는 한 세트의 지시들의 임의의 언어, 코드 또는 표기로 된 임의의 표현을 의미한다.In addition, the present invention may be embedded in a computer program product that includes all the features that make it possible to implement the methods described herein and that may perform these methods when loaded into a computer system. In this context, a computer program is a set of instructions that allows an information processing system to perform a particular function either directly or after a) conversion to another language, code or notation, b) playback in other data formats, or both. Means any expression in any language, code or notation.

본 발명이 일부 실시예들에 관련하여 기술되었으나, 본 발명의 범위를 벗어나지 않고 다양한 변경들이 행해질 수 있고 등가물들이 대치될 수 있음은 당업자에 의해 이해될 것이다. 추가로, 본 발명의 범위를 벗어나지 않고 본 발명의 교시된 바들에 대해 특정 상황 또는 자료에 적합하도록 많은 수정들이 행해질 수 있다. 그러므로, 본 발명은 개시된 특정 실시예로 제한되지 않으며, 오히려 본 발명은 상기 첨부된 청구항들의 범위 내에 속하는 모든 실시예들을 포함할 것이다.While the invention has been described in connection with some embodiments, it will be understood by those skilled in the art that various changes may be made and equivalents may be substituted without departing from the scope of the invention. In addition, many modifications may be made to adapt a particular situation or material to the teachings of the invention without departing from its scope. Therefore, it is intended that the invention not be limited to the particular embodiment disclosed, but rather that the invention will include all embodiments falling within the scope of the appended claims.

Claims (15)

비디오 프로세싱을 위한 방법으로서,
3차원(3D) 비디오 생성 디바이스에서,
캡쳐된 3D 비디오 프레임의 복수의 영역들을 인코딩하는 단계로서, 상기 복수의 영역들은 상이한 깊이들과 관련되고, 상기 인코딩은 상기 관련된 상이한 깊이들에 기반하여 상기 복수의 영역들에 다양한 오류 보호를 적용하는, 상기 인코딩하는 단계를 포함하는, 방법.
As a method for video processing,
In a three-dimensional (3D) video generation device,
Encoding a plurality of regions of a captured 3D video frame, wherein the plurality of regions are associated with different depths, the encoding applying various error protection to the plurality of regions based on the associated different depths. And the encoding.
청구항 1에 있어서, 상기 캡쳐된 3D 비디오 프레임의 상기 복수의 영역들로부터 하나 이상의 관심 영역들을 식별하는(identifying) 단계를 더 포함하는, 방법.
The method of claim 1, further comprising identifying one or more regions of interest from the plurality of regions of the captured 3D video frame.
청구항 1에 있어서, 상기 오류 보호의 더 높은 레벨은, 상기 오류 보호의 더 낮은 레벨을 제공하기 위해 이용되는 오류-정정 코드보다 더 긴 오류-정정 코드를 이용하는, 방법.
The method of claim 1, wherein the higher level of error protection uses a longer error-correction code than the error-correction code used to provide a lower level of error protection.
청구항 1에 있어서, 상기 3D 비디오 생성 디바이스가 하나 이상의 깊이 센서들을 갖는 단안 3D 비디오 생성 디바이스를 포함하며, 상기 3D 비디오 프레임은 2-차원(2D) 비디오 프레임 및 대응하는 깊이 정보를 포함하는, 방법.
The method of claim 1, wherein the 3D video generation device comprises a monocular 3D video generation device having one or more depth sensors, wherein the 3D video frame includes a two-dimensional (2D) video frame and corresponding depth information.
청구항 4에 있어서, 상기 오류 보호의 하나 이상의 더 높은 레벨들은 상기 2D 비디오 프레임 내의 하나 이상의 관심 영역들에 적용되고, 상기 오류 보호의 하나 이상의 더 낮은 레벨들은 상기 2D 비디오 프레임 내의 하나 이상의 다른 영역들에 적용되는, 방법.
The method of claim 4, wherein one or more higher levels of error protection are applied to one or more regions of interest in the 2D video frame, and one or more lower levels of error protection are applied to one or more other regions in the 2D video frame. Applied, method.
청구항 4에 있어서, 상기 오류 보호의 하나 이상의 더 높은 레벨들은 상기 2D 비디오 프레임 내의 하나 이상의 관심 영역들과 관련된 상기 대응하는 깊이 정보에 적용되고, 상기 오류 보호의 하나 이상의 더 낮은 레벨들은 상기 2D 비디오 프레임 내의 하나 이상의 다른 영역들과 관련된 상기 대응하는 깊이 정보에 적용되는, 방법.
The method of claim 4, wherein the one or more higher levels of error protection are applied to the corresponding depth information associated with one or more regions of interest in the 2D video frame, and the one or more lower levels of error protection are applied to the 2D video frame. Apply to the corresponding depth information associated with one or more other regions in the apparatus.
청구항 4에 있어서, 상기 오류 보호의 더 높은 레벨은 상기 2D 비디오 프레임 내의 상기 복수의 영역들 각각에 적용되고, 상기 오류 보호의 더 낮은 레벨은 상기 2D 비디오 프레임 내의 상기 복수의 영역들 각각과 관련된 상기 대응하는 깊이 정보에 적용되는, 방법.
The method of claim 4, wherein a higher level of error protection is applied to each of the plurality of regions within the 2D video frame, and a lower level of error protection is associated with each of the plurality of regions within the 2D video frame. Method applied to corresponding depth information.
청구항 4에 있어서, 상기 오류 보호의 제1 유형은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 관심 영역들에 적용되고, 상기 오류 보호의 제2 유형은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 다른 영역들에 적용되는, 방법.
The method of claim 4, wherein the first type of error protection is applied to one or more areas of interest in the captured 2D video frame, and the second type of error protection is applied to one or more other areas in the captured 2D video frame. Applied, method.
청구항 4에 있어서, 상기 오류 보호의 제1 유형은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 관심 영역들과 관련된 상기 대응하는 깊이 정보에 적용되고, 상기 오류 보호의 제2 유형은 상기 캡쳐된 2D 비디오 프레임 내의 하나 이상의 다른 영역들과 관련된 상기 대응하는 깊이 정보에 적용되는, 방법.
The method of claim 4, wherein the first type of error protection is applied to the corresponding depth information associated with one or more regions of interest in the captured 2D video frame, and the second type of error protection is the captured 2D video frame. Apply to the corresponding depth information associated with one or more other regions in the apparatus.
청구항 1에 있어서, 3D 비디오 렌더링(rendering) 및/또는 디스플레이를 위해 상기 오류 보호된 3D 비디오 프레임을 3D 비디오 렌더링 디바이스로 전송하는 단계를 더 포함하는, 방법.
The method of claim 1, further comprising transmitting the error protected 3D video frame to a 3D video rendering device for 3D video rendering and / or display.
비디오를 프로세싱하기 위한 시스템으로서,
상기 시스템은 3-차원(3D) 비디오 생성 디바이스에서 사용하기 위한 하나 이상의 프로세서들 및/또는 회로들을 포함하며,
상기 하나 이상의 프로세서들 및/또는 회로들은,
캡쳐된 3D 비디오 프레임의 복수의 영역들을 인코딩하도록 동작될 수 있으며,
상기 복수의 영역들은 상이한 깊이들과 관련되고, 상기 인코딩은 상기 관련된 상이한 깊이들에 기반하여 상기 복수의 영역들에 다양한 오류 보호를 적용하는, 시스템.
A system for processing video,
The system includes one or more processors and / or circuits for use in a three-dimensional (3D) video generation device,
The one or more processors and / or circuits,
May be operable to encode a plurality of regions of the captured 3D video frame,
And the plurality of regions are associated with different depths, and the encoding applies various error protections to the plurality of regions based on the associated different depths.
청구항 11에 있어서, 상기 하나 이상의 프로세서들 및/또는 회로들은 상기 캡쳐된 3D 비디오 프레임의 상기 복수의 영역들로부터 하나 이상의 관심 영역들을 식별하도록 동작될 수 있는, 시스템.
The system of claim 11, wherein the one or more processors and / or circuits are operable to identify one or more regions of interest from the plurality of regions of the captured 3D video frame.
청구항 11에 있어서, 상기 오류 보호의 더 높은 레벨은 상기 오류 보호의 더 낮은 레벨을 제공하기 위해 사용되는 오류-정정 코드보다 더 긴 오류-정정 코드를 사용하는, 시스템.
The system of claim 11, wherein the higher level of error protection uses a longer error-correction code than the error-correction code used to provide a lower level of error protection.
청구항 11에 있어서, 상기 3D 비디오 생성 디바이스는 하나 이상의 깊이 센서들을 갖는 단안 3D 비디오 생성 디바이스를 포함하고, 상기 3D 비디오 프레임은 2-차원(2D) 비디오 프레임 및 대응하는 깊이 정보를 포함하는, 시스템.
The system of claim 11, wherein the 3D video generation device comprises a monocular 3D video generation device having one or more depth sensors, wherein the 3D video frame includes a two-dimensional (2D) video frame and corresponding depth information.
청구항 14에 있어서, 상기 오류 보호의 하나 이상의 더 높은 레벨들은 상기 2D 비디오 프레임 내의 하나 이상의 관심 영역들에 적용되고, 상기 오류 보호의 하나 이상의 더 낮은 레벨들은 상기 2D 비디오 프레임 내의 하나 이상의 다른 영역들에 적용되는, 시스템.15. The method of claim 14, wherein one or more higher levels of error protection are applied to one or more regions of interest in the 2D video frame, and one or more lower levels of error protection are applied to one or more other regions in the 2D video frame. Applied, system.
KR1020120011159A 2011-02-03 2012-02-03 Method and system for error protection of 3d video KR20120089604A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161439130P 2011-02-03 2011-02-03
US61/439,130 2011-02-03
US13/077,886 US20120054575A1 (en) 2010-08-27 2011-03-31 Method and system for error protection of 3d video
US13/077,886 2011-03-31

Publications (1)

Publication Number Publication Date
KR20120089604A true KR20120089604A (en) 2012-08-13

Family

ID=46874287

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120011159A KR20120089604A (en) 2011-02-03 2012-02-03 Method and system for error protection of 3d video

Country Status (1)

Country Link
KR (1) KR20120089604A (en)

Similar Documents

Publication Publication Date Title
US20120054575A1 (en) Method and system for error protection of 3d video
US8810565B2 (en) Method and system for utilizing depth information as an enhancement layer
US20120050478A1 (en) Method and System for Utilizing Multiple 3D Source Views for Generating 3D Image
JP5763184B2 (en) Calculation of parallax for 3D images
RU2528080C2 (en) Encoder for three-dimensional video signals
US7660472B2 (en) System and method for managing stereoscopic viewing
US8994792B2 (en) Method and system for creating a 3D video from a monoscopic 2D video and corresponding depth information
TWI549475B (en) Dimensional image coding apparatus, stereoscopic image decoding apparatus, stereo image coding method, stereo image decoding method, stereo image coding program, and stereo image decoding program
US20110298898A1 (en) Three dimensional image generating system and method accomodating multi-view imaging
US20120050482A1 (en) Method and system for utilizing image sensor pipeline (isp) for scaling 3d images based on z-depth information
KR101245214B1 (en) Method and system for generating three-dimensional video utilizing a monoscopic camera
US20120050477A1 (en) Method and System for Utilizing Depth Information for Providing Security Monitoring
US20120050491A1 (en) Method and system for adjusting audio based on captured depth information
TWI524730B (en) Method and system for utilizing depth information as an enhancement layer
US20120050495A1 (en) Method and system for multi-view 3d video rendering
JP2012100019A (en) Multi-viewpoint image encoding device and multi-viewpoint image decoding device
JP2012034215A (en) Image processing apparatus and method and program
EP2485493A2 (en) Method and system for error protection of 3D video
US20140072271A1 (en) Recording apparatus, recording method, reproduction apparatus, reproduction method, program, and recording reproduction apparatus
KR20120089604A (en) Method and system for error protection of 3d video
TWI526044B (en) Method and system for creating a 3d video from a monoscopic 2d video and corresponding depth information
KR101303719B1 (en) Method and system for utilizing depth information as an enhancement layer
KR101419419B1 (en) Method and system for creating a 3d video from a monoscopic 2d video and corresponding depth information
Hewage et al. A study on the impact of compression and packet losses on rendered 3D views
JP2013085063A (en) Multi-viewpoint image encoding device, multi-viewpoint image decoding device, multi-viewpoint image encoding method, and multi-viewpoint image decoding method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right