KR20110088515A - 가상 뷰 이미지 합성 방법 및 장치 - Google Patents

가상 뷰 이미지 합성 방법 및 장치 Download PDF

Info

Publication number
KR20110088515A
KR20110088515A KR1020117010322A KR20117010322A KR20110088515A KR 20110088515 A KR20110088515 A KR 20110088515A KR 1020117010322 A KR1020117010322 A KR 1020117010322A KR 20117010322 A KR20117010322 A KR 20117010322A KR 20110088515 A KR20110088515 A KR 20110088515A
Authority
KR
South Korea
Prior art keywords
picture
view
pixel
depth
information
Prior art date
Application number
KR1020117010322A
Other languages
English (en)
Other versions
KR101697598B1 (ko
Inventor
성재원
전용준
전병문
임재현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20110088515A publication Critical patent/KR20110088515A/ko
Application granted granted Critical
Publication of KR101697598B1 publication Critical patent/KR101697598B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명에 따른 가상 뷰 이미지 합성 방법은 제 1시점의 레퍼런스 픽쳐와 제 2시점의 레퍼런스 픽쳐를 와핑함으로써 제 1시점의 중간 픽쳐와 제 2시점의 중간 픽쳐를 생성하고, 상기 제 1시점의 중간 픽쳐에 홀이 존재하는지를 판별하며, 상기 제 1시점의 중간 픽쳐에 홀이 존재하는 경우, 상기 홀의 위치에 근거하여 상기 제 2시점의 중간 픽쳐의 픽셀값을 획득하고, 상기 제 2시점의 중간 픽쳐의 픽셀값을 상기 홀에 할당하되, 상기 홀은 상기 제 1시점의 중간 픽쳐에 픽셀값이 할당되지 않은 영역인 것을 특징으로 한다. 레퍼런스 픽쳐를 이용하여 가상 픽쳐를 합성함으로써 가상 시점의 픽쳐를 코딩함에 따른 정보량을 줄일 수 있어서 영상 신호 처리를 효율적으로 할 수 있다.

Description

가상 뷰 이미지 합성 방법 및 장치{VIRTUAL VIEW IMAGE SYNTHESIS METHOD AND APPARATUS}
본 발명은 비디오 신호의 코딩에 관한 기술이다.
압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하는 일련의 신호 처리 기술을 의미한다. 압축 부호화의 대상에는 음성, 영상, 문자 등의 대상이 존재하며, 특히 영상을 대상으로 압축 부호화를 수행하는 기술을 비디오 영상 압축이라고 일컫는다. 비디오 영상의 일반적인 특징은 공간적 중복성, 시간적 중복성을 지니고 있는 점에 특징이 있다.
본 발명의 목적은 비디오 신호의 코딩 효율을 높이고자 함에 있다.
본 발명은 레퍼런스 픽쳐를 와핑하여 중간 픽쳐를 생성하고, 상기 중간 픽쳐를 병합하여 가상 픽쳐를 생성하는 것을 특징으로 한다.
본 발명은 레퍼런스 픽쳐를 와핑함에 있어서, 상기 레퍼런스 픽쳐의 픽셀에 대응하는 뎁스 정보를 이용하여 상기 레퍼런스 픽쳐의 픽셀을 상기 중간 픽쳐의 픽셀로 와핑하는 것을 특징으로 한다.
본 발명은 레퍼런스 픽쳐를 와핑함에 있어서 하나의 중간 픽쳐의 픽셀에 하나 이상의 레퍼런스 픽쳐의 픽셀들이 대응되는 경우, 상기 하나 이상의 레퍼런스 픽쳐의 픽셀에 대응하는 뎁스 정보를 비교하고, 상기 비교 결과 선택된 상기 레퍼런스 픽쳐의 픽셀을 상기 중간 픽쳐의 픽셀로 와핑하는 것을 특징으로 한다.
본 발명은 제 1시점의 중간 픽쳐에 홀이 있는 경우, 상기 홀과 동일 위치에 있는 제 2시점의 중간 픽쳐의 픽셀을 이용하여 상기 홀을 채우는 것을 특징으로 한다.
본 발명은 제 1시점의 중간 픽쳐에 홀이 있는 경우, 상기 홀에 인접한 픽셀과, 상기 홀에 인접한 픽셀과 동일 위치에 있는 제 2시점의 중간 픽쳐의 픽셀을 이용하여 상기 홀을 채우는 것을 특징으로 한다.
레퍼런스 픽쳐를 이용하여 가상 픽쳐를 합성함으로써 가상 시점의 픽쳐를 코딩함에 따른 정보량을 줄일 수 있어서 영상 신호 처리를 효율적으로 할 수 있다. 또한, 하나의 중간 픽쳐의 픽셀에 하나 이상의 레퍼런스 픽쳐의 픽셀이 대응되는 경우, 상기 하나 이상의 레퍼런스 픽쳐의 픽셀에 대한 뎁스 정보에 근거하여 상기 중간 픽쳐의 픽셀로 와핑된 레퍼런스 픽쳐의 픽셀을 선택함으로써, 상대적으로 원거리에 있는 픽셀은 와핑하지 아니하고 상대적으로 근거리에 있는 픽셀만을 와핑함으로써 가상 시점의 픽쳐를 정확하게 합성할 수 있다. 그리고, 제 1시점의 중간 픽쳐에 홀이 있는 경우, 상기 홀에 인접한 픽셀과, 상기 홀에 인접한 픽셀과 동일 위치에 있는 제 2시점의 중간 픽쳐의 픽셀간의 픽셀값 차이를 획득하고, 상기 픽셀값 차이값과 상기 홀과 동일 위치에 있는 제 2시점의 중간 픽쳐의 픽셀값의 합을 상기 홀에 할당함으로써, 더 정확한 가상 픽쳐를 합성할 수 있다.
도 1은 본 발명이 적용되는 실시예로서, 뎁스(depth)의 개념을 설명하기 위해 나타낸 것이다.
도 2는 본 발명이 적용되는 실시예로서, 뎁스 코딩이 적용되는 방송 수신기의 내부 블록도를 나타낸다.
도 3은 본 발명이 적용되는 실시예로서, 비디오 디코더의 개략적인 블록도를 나타낸다.
도 4는 가상 픽쳐에 이웃한 픽쳐로부터 가상 픽쳐를 합성하는 과정을 도시한 것이다.
도 5는 레퍼런스 픽쳐의 픽셀 위치에 대응하는 중간 픽쳐의 픽셀 위치를 획득하는 방법을 도시한 것이다.
도 6 및 도 7은 중간 픽쳐의 하나의 픽셀에 레퍼런스 픽쳐의 수개의 픽셀이 대응되는 경우에 와핑하는 방법을 도시한 것이다.
도 8은 제 2시점의 중간 픽쳐를 이용하여 제 1시점의 중간 픽쳐의 홀을 채우는 신택스의 실시예이다.
[발명의 실시를 위한 최선의 형태]
상기와 같은 목적을 달성하기 위하여 본 발명에 따른 가상 뷰 이미지 합성 방법은 제 1시점의 레퍼런스 픽쳐와 제 2시점의 레퍼런스 픽쳐를 와핑함으로써 제 1시점의 중간 픽쳐와 제 2시점의 중간 픽쳐를 생성하고, 상기 제 1시점의 중간 픽쳐에 홀이 존재하는지를 판별하며, 상기 제 1시점의 중간 픽쳐에 홀이 존재하는 경우, 상기 홀의 위치에 근거하여 상기 제 2시점의 중간 픽쳐의 픽셀값을 획득하고, 상기 제 2시점의 중간 픽쳐의 픽셀값을 상기 홀에 할당하되, 상기 홀은 상기 제 1시점의 중간 픽쳐에 픽셀값이 할당되지 않은 영역인 것을 특징으로 한다.
본 발명에 따르면, 제 1시점의 레퍼런스 픽쳐와 제 2시점의 레퍼런스 픽쳐는 시점 정보에 의해 구별되며, 상기 시점 정보라 함은 레퍼런스 픽쳐가 속해있는 시점을 식별하는 정보인 것을 특징으로 한다.
본 발명에 따르면, 상기 제 2시점의 가상 픽쳐의 픽셀값은 상기 홀의 위치와 동일 위치에 있는 픽셀로부터 획득되는 것을 특징으로 한다.
본 발명에 따르면, 제 2시점의 중간 픽쳐 픽쳐의 픽셀값을 상기 홀에 할당하는 방법은 상기 홀에 인접한 픽셀과 상기 홀에 인접한 픽셀과 동일 위치에 있는 상기 제 2시점의 중간 픽쳐의 픽셀간의 픽셀값 차이를 획득하되, 상기 상기 픽셀값 차이를 이용하여 상기 홀에 할당하는 것을 특징으로 한다.
본 발명에 따르면, 상기 홀에 인접한 픽셀은 상기 홀의 좌측, 우측, 상단, 하단, 좌측 상단, 좌측 하단, 우측 상단, 및 우측 하단에 위치한 픽셀을 포함하는 것을 특징으로 한다.
본 발명에 따르면, 상기 홀은 상기 픽셀값 차이간의 평균값과 상기 제 2시점의 중간 픽쳐의 픽셀값의 합이 할당되는 것을 특징으로 한다.
본 발명에 따르면, 제 1시점의 레퍼런스 픽쳐와 제 2시점의 레퍼런스 픽쳐를 와핑함으로써 제 1시점의 중간 픽쳐와 제 2시점의 중간 픽쳐를 생성하는 방법은 상기 제 1시점의 중간 픽쳐의 픽셀에 하나 이상의 상기 제 1시점의 레퍼런스 픽쳐의 픽셀들이 대응되는 경우, 상기 하나 이상의 상기 제 1시점의 레퍼런스 픽쳐의 픽셀값들의 평균값을 상기 제 1시점의 중간 픽쳐의 픽셀값으로 와핑하는 것을 특징으로 한다.
본 발명에 따르면, 제 1시점의 레퍼런스 픽쳐와 제 2시점의 레퍼런스 픽쳐를 와핑함으로써 제 1시점의 중간 픽쳐와 제 2시점의 중간 픽쳐를 생성하는 방법은 상기 제 1시점의 중간 픽쳐의 픽셀에 하나 이상의 상기 제 1시점의 레퍼런스 픽쳐의 픽셀들이 대응되는 경우, 하나 이상의 상기 제 1시점의 레퍼런스 픽쳐의 픽셀의 뎁스 정보를 비교하고, 상기 뎁스 정보 중에서 가장 작은 뎁스 정보를 가진 상기 제 1시점의 레퍼런스 픽쳐의 픽셀을 상기 제 1시점의 중간 픽쳐의 픽셀로 와핑하는 것을 특징으로 한다.
[발명의 실시를 위한 형태]
비디오 신호 데이터를 압축 부호화하는 기술은 공간적 중복성, 시간적 중복성, 스케일러블한 중복성, 시점간 존재하는 중복성을 고려하고 있다. 그 중 다시점 영상을 사용하는 3차원 디스플레이를 구현하기 위해 뎁스 픽쳐(depth picture)를 코딩함에 있어서, 공간적 중복성, 시간적 중복성 등을 고려하여 압축 코딩을 할 수 있다. 이러한 압축 코딩에 대한 기술은 뎁스 픽쳐들로 구성된 영상 시퀀스뿐만 아니라, 컬러 픽쳐들로 구성된 영상 시퀀스 또는 컬러 픽쳐와 뎁스 픽쳐로 구성된 영상 시퀀스에 적용될 수 있다. 여기서, 뎁스(depth)라 함은, 시점 차이로 인해 생기는 변이 차이를 의미할 수 있으며, 이에 대한 구체적인 설명은 도 1에서 하도록 한다. 또한, 본 명세서 내에서 뎁스 정보, 뎁스 데이터, 뎁스 픽쳐, 뎁스 시퀀스, 뎁스 코딩, 뎁스 비트스트림 등과 같은 용어들은 상기 뎁스의 정의에 따라 뎁스에 관련된 정보로 유연하게 해석될 수 있을 것이다. 또한, 본 명세서에서 코딩이라 함은 인코딩과 디코딩의 개념을 모두 포함할 수 있고, 본 발명의 기술적 사상 및 기술적 범위에 따라 유연하게 해석할 수 있을 것이다.
비디오 신호의 비트열 구성을 살펴보면, 동영상 부호화 처리 그 자체를 다루는 VCL(Video Coding Layer, 비디오 부호화 계층)과 부호화된 정보를 전송하고 저장하는 하위 시스템과의 사이에 있는 NAL(Network Abstraction Layer, 네트워크 추상 계층)이라는 분리된 계층 구조로 정의되어 있다. 부호화 과정의 출력은 VCL 데이터이고 전송하거나 저장하기 전에 NAL 단위로 맵핑된다. 각 NAL 단위는 압축된 비디오 데이터 또는 헤더 정보에 해당하는 데이터인 RBSP(Raw Byte Sequence Payload, 동영상 압축의 결과데이터)를 포함한다.
NAL 단위는 기본적으로 NAL헤더와 RBSP의 두 부분으로 구성된다. NAL 헤더에는 그 NAL 단위의 참조 픽쳐가 되는 슬라이스가 포함되어 있는지 여부를 나타내는 플래그 정보(nal_ref_idc)와 NAL 단위의 종류를 나타내는 식별자(nal_unit_type)가 포함되어 있다. RBSP 에는 압축된 원본의 데이터를 저장하며, RBSP 의 길이를 8비트의 배수로 표현하기 위해 RBSP 의 마지막에 RBSP 채워넣기 비트(RBSP trailing bit)를 첨가한다. 이러한 NAL 단위의 종류에는 IDR (Instantaneous Decoding Refresh, 순간 복호 리프레쉬) 픽쳐, SPS (Sequence Parameter Set, 시퀀스 파라미터 세트), PPS (Picture Parameter Set, 픽쳐 파라미터 세트), SEI (Supplemental Enhancement Information, 보충적 부가정보) 등이 있다.
또한, 규격에서는 대상 제품을 적당한 비용으로 구현 가능하도록 여러가지 프로파일 및 레벨로 제약하고 있는데, 복호기는 해당 프로파일과 레벨에서 정해진 제약을 만족시켜야 한다. 이처럼 복호기가 어떤 압축 영상의 범위까지 대응할 수 있는지 그 기능 또는 파라미터를 나타내기 위해 프로파일과 레벨이라는 두 가지의 개념이 정의되었다. 비트스트림이 어떤 프로파일에 기초하는 것인가는 프로파일 식별자(profile_idc)로 식별할 수 있다. 프로파일 식별자란, 비트스트림이 기반을 둔 프로파일을 나타내는 플래그를 의미한다. 예를 들어, H.264/AVC 에서는 프로파일 식별자가 66 이면 베이스라인 프로파일에 기초함을 의미하고, 77 이면 메인 프로파일에 기초함을 의미하며, 88 이면 확장 프로파일에 기초함을 의미한다. 상기 프로파일 식별자는 시퀀스 파라미터 세트에 포함될 수 있다.
따라서, 뎁스 픽쳐를 포함하는 영상 시퀀스(이하, 뎁스 시퀀스라 한다)를 다루기 위해서는 입력되는 비트스트림이 뎁스 시퀀스의 프로파일(Profile)에 대한 것인지 여부를 식별하고, 뎁스 시퀀스의 프로파일로 식별되면 뎁스 코딩에 관련된 적어도 하나의 추가 정보를 전송할 수 있도록 신택스를 추가할 필요가 있다. 여기서 뎁스 시퀀스의 프로파일이란, H.264/AVC의 추가 기술로서 뎁스 픽쳐(depth picture)를 다루는 프로파일 모드(profile mode)를 나타낼 수 있으며, 또는 뎁스 픽쳐를 포함하는 다시점 비디오(multiview video)에 관한 프로파일 모드(profile mode)를 나타낼 수 있다. 뎁스 코딩은 기존 AVC 기술에 대한 추가 기술이므로 무조건적인 신택스보다는 뎁스 코딩 모드인 경우에 대한 추가 정보로서 신택스를 추가하는 것이 더 효율적일 수 있다. 예를 들어, AVC의 프로파일 식별자가 뎁스 시퀀스의 프로파일을 나타낼 때 뎁스 코딩에 대한 정보를 추가하면 부호화 효율을 높일 수 있다.
시퀀스 파라미터 세트란, 프로파일, 레벨 등 시퀀스 전체의 부호화에 걸쳐있는 정보가 포함되어 있는 헤더 정보를 말한다. 압축된 동영상 전체, 즉 시퀀스는 반드시 시퀀스 헤더로부터 시작하여야 하므로 헤더 정보에 상당하는 시퀀스 파라미터 세트는 그 파라미터 세트를 참조하는 데이터보다 먼저 복호기에 도착하여야 한다. 결국, 시퀀스 파라미터 세트 RBSP 는 동영상 압축의 결과 데이터에 대한 헤더 정보로써의 역할을 한다. 비트스트림이 입력되면, 먼저 프로파일 식별자는 입력된 비트스트림이 복수개의 프로파일 중에서 어떤 프로파일에 기초하는 것인지를 식별하게 된다. 따라서, 입력되는 비트스트림이 뎁스 시퀀스의 프로파일에 대한 것인지 여부를 판단하는(예를 들어, " If ( profile_idc == DEPTH_PROFILE )") 부분을 신택스 상에 추가함으로써, 입력된 비트스트림이 뎁스 시퀀스의 프로파일에 대한 것인지 여부를 판별하고, 뎁스 시퀀스의 프로파일에 대한 것으로 인정되는 경우에만 여러 가지 속성 정보들을 추가할 수 있게 된다. 예를 들어, 뎁스 시퀀스의 전체 시점의 개수, 뎁스-뷰(depth-view) 참조 픽쳐의 개수, 뎁스-뷰 참조 픽쳐의 시점 식별 번호 등을 추가할 수 있다. 또한, 복호 픽쳐 버퍼에서는 참조 픽쳐 리스트를 생성 및 관리하기 위하여 뎁스-뷰 참조 픽쳐에 대한 정보들을 이용할 수 있다.
도 1은 본 발명이 적용되는 실시예로서, 뎁스(depth)의 개념을 설명하기 위해 나타낸 것이다.
앞서 설명한 바와 같이, 뎁스(depth)라 함은 복수개의 카메라로 촬영된 영상 시퀀스에 있어서 시점 차이로 인해 생기는 변이 차이를 의미한다. 상기 도 1을 참조하면, 카메라의 위치(Oc)는 3차원 카메라 좌표계의 원점을 나타내며, Z축(optical axis)은 눈이 바라보는 방향과 일직선이 된다. 카메라 좌표계의 임의의 한 점 P=(X,Y,Z)는 Z축에 수직인 2차원 이미지 평면의 임의의 한 점 p=(x,y)으로 투영될 수 있다.
이때, 2차원 이미지 평면 상의 p=(x,y)는 3차원 좌표계의 P=(X,Y,Z)의 컬러값으로 표현될 수 있으며, 이 때의 2차원 이미지 평면은 컬러 픽쳐를 의미할 수 있다. 또한, 2차원 이미지 평면 상의 p=(x,y)는 3차원 좌표계의 P=(X,Y,Z)의 Z 값으로 표현될 수 있으며, 이 때의 2차원 이미지 평면은 뎁스 픽쳐를 의미할 수 있다. 여기서, 초점 길이(f)는 카메라의 위치와 이미지 평면간의 거리를 의미할 수 있다.
또한, 상기 3차원 좌표계의 P=(X,Y,Z)는 카메라 좌표계의 임의의 한 점을 나타내나, 복수개의 카메라로 촬영된 경우 상기 복수개의 카메라들에 대한 공통의 기준 좌표계가 필요할 수 있다. 상기 도 1에서, Ow 점을 기준으로 하는 기준 좌표계의 임의의 점을 Pw=(Xw, Yw, Zw)라 할 수 있고, 상기 Pw=(Xw,Yw,Zw)는 3x3 로테이션 매트릭스(rotation matrix) R과 3x1 변환 벡터(translation vector) T를 이용하여 카메라 좌표계의 임의의 한 점 P=(X,Y,Z)으로 변환할 수 있다. 예를 들어, 상기 P는 수학식 1과 같이 획득될 수 있다.
[수학식 1]
P=R*Pw+T
상기의 설명에 기초하여 뎁스 픽쳐(depth picture) 또는 뎁스 맵(depth map)을 다시 정의하면, 카메라의 위치를 기준으로 카메라의 위치와 실물 간의 거리를 상대적인 값으로 수치화한 정보들의 집합이라 할 수 있고, 이는 픽쳐 단위, 슬라이스 단위 등으로 표현될 수 있다. 그리고, 상기 뎁스 픽쳐 또는 뎁스 맵 내에서 뎁스 정보는 픽셀 단위로 표현될 수 있다.
상기 뎁스 픽쳐의 뎁스 정보는 컬러 픽쳐의 픽셀에 대응하는 카메라 좌표계 상의 3차원 좌표 P=(X,Y,Z)의 Z 값으로부터 획득할 수 있다. 상기 Z 값은 실수 범위에 속하는 값이며, 이를 정수 범위에 속하는 값으로 양자화시켜 뎁스 픽쳐의 뎁스 정보로 이용할 수도 있다. 예를 들어, 상기 뎁스 픽쳐의 뎁스 정보는 다음 수학식 2 또는 수학식 3와 같이 양자화될 수 있다.
[수학식 2]
Zq = round(255*(Z-Znear)/(Zfar-Znear))
[수학식 3]
Zq = round(255*(1/Z-1/Zfar)/(1/Znear-1/Zfar))
상기 수학식 2 또는 수학식 3에서 Zq는 양자화된 뎁스 정보를 의미하며, 상기 도 1의 [Top view]를 참조하면, Znear는 Z 좌표값의 하한(the lower limit)을, Zfar는 Z 좌표값의 상한(the upper limit)을 의미한다. 상기 수학식 2 또는 수학식 3에 따라 상기 양자화된 뎁스 정보는 0∼255 범위 내의 정수값을 가질 수 있다.
이처럼, 뎁스 픽쳐 또는 뎁스 맵은 컬러 픽쳐의 영상 시퀀스와 함께 또는 별개의 시퀀스로 코딩될 수 있으며, 이러한 경우 기존의 코덱과의 호환을 위해 다양한 실시예들이 적용될 수 있다. 예를 들어, H.264 코덱과 호환될 수 있도록 뎁스 코딩 기술이 부가 기술로 적용될 수 있으며, 또는 H.264/AVC 다시점 비디오 코딩 내에서 확장 기술로 적용될 수 있으며, 또는 H.264/AVC 스케일러블 비디오 코딩 내에서 확장 기술로 적용될 수 있다. 또한, 뎁스 픽쳐를 포함하는 영상 시퀀스만을 코딩하는 별개의 코덱 기술로 이용될 수도 있다. 이하에서는 뎁스 코딩에 대한 구체적인 실시예들을 살펴보며, 뎁스 코딩의 구체적인 실시예들은 앞서 설명한 바와 같이 다양한 경우에 있어서 모두 활용할 수 있다.
도 2는 본 발명이 적용되는 실시예로서, 뎁스 코딩이 적용되는 방송 수신기의 내부 블록도를 나타낸다.
본 실시예에 따른 방송 수신기는 공중파 방송신호를 수신하여 영상을 재생하기 위한 것이다. 상기 방송 수신기는 수신된 뎁스 관련 정보들을 이용하여 3차원 콘텐츠를 생성할 수 있다. 상기 방송 수신기는 튜너(200), 복조/채널 디코더(202), 트랜스포트 역다중화부(204), 패킷 해제부(206), 오디오 디코더(208), 비디오 디코더(210), PSI/PSIP 처리부(214), 3D 렌더링부(216), 포맷터(220) 및 디스플레이부(222)를 포함한다.
튜너(200)는 안테나(미도시)를 통해 입력되는 다수의 방송 신호들 중에서 사용자가 선국한 어느 한 채널의 방송 신호를 선택하여 출력한다. 복조/채널 디코더(202)는 튜너(200)로부터의 방송 신호를 복조하고 복조된 신호에 대하여 에러 정정 디코딩을 수행하여 트랜스포트 스트림(TS)을 출력한다. 트랜스포트 역다중화부(204)는 트랜스포트 스트림을 역다중화하여, 비디오 PES와 오디오 PES를 분리하고, PSI/PSIP 정보를 추출해낸다. 패킷 해제부(206)는 비디오 PES와 오디오 PES에 대하여 패킷을 해제하여 비디오 ES와 오디오 ES를 복원한다. 오디오 디코더(208)는 오디오 ES를 디코딩하여 오디오 비트스트림을 출력한다. 오디오 비트스트림은 디지털-아날로그 변환기(미도시)에 의해 아날로그 음성신호로 변환되고, 증폭기(미도시됨)에 의해 증폭된 후, 스피커(미도시됨)를 통해 출력된다. 비디오 디코더(210)는 비디오 ES를 디코딩하여 원래의 영상을 복원한다. 상기 오디오 디코더(208) 및 상기 비디오 디코더(210)의 디코딩 과정은 PSI/PSIP 처리부(214)에 의해 확인되는 패킷 ID(PID)를 토대로 진행될 수 있다. 디코딩 과정에서, 상기 비디오 디코더(210)는 뎁스 정보를 추출할 수 있다. 또한, 가상 카메라 시점의 영상을 생성하는데 필요한 부가 정보, 예를 들어, 카메라 정보, 또는 상대적으로 앞에 있는 객체에 의해 가려지는 영역(Occlusion)을 추정하기 위한 정보(예컨대, 객체 윤곽선 등 기하학적 정보, 객체 투명도 정보 및 컬러 정보) 등을 추출하여 3D 렌더링부(216)에 제공할 수 있다. 그러나, 본 발명의 다른 실시예에 있어서는, 상기 뎁스 정보 및/또는 부가 정보가 트랜스포트 역다중화부(204)에 의해 분리될 수도 있다.
PSI/PSIP 처리부(214)는 트랜스포트 역다중화부(204)로부터의 PSI/PSIP 정보를 받아들이고, 이를 파싱하여 메모리(미도시) 또는 레지스터에 저장함으로써, 저장된 정보를 토대로 방송이 재생되도록 한다. 3D 렌더링부(216)는 복원된 영상, 뎁스 정보, 부가 정보 및 카메라 파라미터를 이용하여, 가상 카메라 위치에서의 컬러 정보, 뎁스 정보 등을 생성할 수 있다.
또한, 3D 렌더링부(216)는 복원된 영상과, 상기 복원된 영상에 대한 뎁스 정보를 이용하여 3D 와핑(Warping)을 수행함으로써, 가상 카메라 위치에서의 가상 영상을 생성한다. 본 실시예에서는 상기 3D 렌더링부(216)가 상기 비디오 디코더(210)와 별개의 블록으로 구성되어 설명되고 있지만, 이는 일실시예에 불과하며, 상기 3D 렌더링부(216)는 상기 비디오 디코더(210)에 포함되어 수행될 수도 있다.
포맷터(220)는 디코딩 과정에서 복원한 영상 즉, 실제 카메라에 의하여 촬영된 영상과, 3D 렌더링부(216)에 의하여 생성된 가상 영상을 해당 수신기에서의 디스플레이 방식에 맞게 포맷팅하여, 디스플레이부(222)를 통해 3D 영상이 표시되도록 하게 된다. 여기서, 상기 3D 렌더링부(216)에 의한 가상 카메라 위치에서의 뎁스 정보 및 가상 영상의 합성, 그리고 포맷터(220)에 의한 영상 포맷팅이 사용자의 명령에 응답하여 선택적으로 수행될 수도 있다. 즉, 시청자는 리모콘(미도시)을 조작하여 합성 영상이 표시되지 않도록 할 수도 있고, 영상 합성이 이루어질 시점을 지정할 수도 있다.
상기에서 살펴본 바와 같이, 3D 영상을 생성하기 위해 뎁스 정보는 3D 렌더링부(216)에서 이용되고 있지만, 다른 실시예로서 상기 비디오 디코더(210)에서 이용될 수도 있다. 이하에서는 상기 비디오 디코더(210)에서 뎁스 정보를 이용하는 다양한 실시예들을 살펴보도록 한다.
도 3은 본 발명이 적용되는 실시예로서, 비디오 디코더의 개략적인 블록도를 나타낸다.
도 3을 참조하면, 상기 비디오 디코더(210)는 크게 엔트로피 디코딩부(310), 역양자화부(320), 역변환부(330), 디블로킹 필터부(340), 복호 픽쳐 버퍼부(350), 인터 예측부(360) 및 인트라 예측부(370)를 포함할 수 있다. 여기서, 실선은 컬러 픽쳐 데이터의 흐름을 의미하며, 점선은 뎁스 픽쳐 데이터의 흐름을 의미한다. 이와 같이, 상기 도 3에서는 컬러 픽쳐 데이터와 뎁스 픽쳐 데이터를 구분하여 표시하였지만, 이는 별개의 비트스트림을 의미할 수 있고, 또는 하나의 비트스트림 내에서 데이터의 흐름만을 구분한 것으로 볼 수도 있다. 즉, 상기 컬러 픽쳐 데이터와 상기 뎁스 픽쳐 데이터는 하나의 비트스트림, 또는 별개의 비트스트림으로 전송될 수 있고, 도 3에서는 데이터의 흐름을 나타낼 뿐 하나의 디코더 내에서 모두 수행되는 것으로 한정되지 않는다.
먼저, 수신된 뎁스 비트스트림(300)을 복호하기 위하여 NAL 단위로 파싱을 수행한다. 이 때 NAL 헤더 영역, NAL 헤더의 확장 영역, 시퀀스 헤더 영역(예를 들어, 시퀀스 파라미터 세트), 시퀀스 헤더의 확장 영역, 픽쳐 헤더 영역(예를 들어, 픽쳐 파라미터 세트), 픽쳐 헤더의 확장 영역, 슬라이스 헤더 영역, 슬라이스 헤더의 확장 영역, 슬라이스 데이터 영역, 또는 매크로 블록 영역에는 뎁스에 관련된 여러 가지 속성 정보가 포함될 수 있다. 뎁스 코딩은 별개의 코덱으로 이용될 수 있지만, 기존 코덱과의 호환을 이루는 경우라면 뎁스 비트스트림인 경우에 한해 뎁스에 관련된 여러 가지 속성 정보들을 추가하는 것이 더 효율적일 수 있다. 예를 들어, 상기 시퀀스 헤더 영역(예를 들어, 시퀀스 파라미터 세트) 또는 시퀀스 헤더의 확장 영역에서 뎁스 비트스트림인지 여부를 식별할 수 있는 뎁스 식별 정보를 추가할 수 있다. 상기 뎁스 식별 정보에 따라, 입력된 비트스트림이 뎁스 코딩된 비트스트림일 경우에 한해 뎁스 시퀀스에 대한 속성 정보들을 추가할 수 있다.
파싱된 뎁스 비트스트림(300)은 엔트로피 디코딩부(310)를 통하여 엔트로피 디코딩되고, 각 매크로블록의 계수, 움직임 벡터 등이 추출된다. 역양자화부(320)에서는 수신된 양자화된 값에 일정한 상수를 곱하여 변환된 계수값을 획득하고, 역변환부(330)에서는 상기 계수값을 역변환하여 뎁스 픽쳐의 뎁스 정보를 복원하게 된다. 인트라 예측부(370)에서는 현재 뎁스 픽쳐의 복원된 뎁스 정보를 이용하여 화면내 예측을 수행하게 된다. 한편, 디블로킹 필터부(340)에서는 블록 왜곡 현상을 감소시키기 위해 각각의 코딩된 매크로블록에 디블로킹 필터링을 적용한다. 필터는 블록의 가장자리를 부드럽게 하여 디코딩된 프레임의 화질을 향상시킨다. 필터링 과정의 선택은 경계 세기(boundary strenth)와 경계 주위의 이미지 샘플의 변화(gradient)에 의해 좌우된다. 필터링을 거친 뎁스 픽쳐들은 출력되거나 참조 픽쳐로 이용하기 위해 복호 픽쳐 버퍼부(350)에 저장된다.
복호 픽쳐 버퍼부(Decoded Picture Buffer unit)(350)에서는 화면간 예측을 수행하기 위해서 이전에 코딩된 뎁스 픽쳐들을 저장하거나 개방하는 역할 등을 수행한다. 이 때 복호 픽쳐 버퍼부(350)에 저장하거나 개방하기 위해서 각 픽쳐의 frame_num 과 POC(Picture Order Count)를 이용하게 된다. 따라서, 뎁스 코딩에 있어서 상기 이전에 코딩된 픽쳐들 중에는 현재 뎁스 픽쳐와 다른 시점에 있는 뎁스 픽쳐들도 있으므로, 이러한 픽쳐들을 참조 픽쳐로서 활용하기 위해서는 상기 frame_num 과 POC 뿐만 아니라 뎁스 픽쳐의 시점을 식별하는 뎁스 시점 정보도 함께 이용할 수 있다.
또한, 상기 복호 픽쳐 버퍼부(350)는 뎁스 픽쳐의 시점간 예측을 위한 참조 픽쳐 리스트를 생성하기 위하여 뎁스 시점에 대한 정보를 이용할 수 있다. 예를 들어, 뎁스-뷰 참조 정보(depth-view reference information)를 이용할 수 있다. 뎁스-뷰 참조 정보란, 뎁스 픽쳐들의 시점간 의존 관계를 나타내기 위해 이용되는 정보들을 말한다. 예를 들어, 전체 뎁스 시점의 개수, 뎁스 시점 식별 번호, 뎁스-뷰 참조 픽쳐의 개수, 뎁스-뷰 참조 픽쳐의 뎁스 시점 식별 번호 등이 있을 수 있다.
상기 복호 픽쳐 버퍼부(350)는 보다 유연하게 화면간 예측을 실현하기 위하여 참조 픽쳐를 관리한다. 예를 들어, 적응 메모리 관리 방법(Memory Management Control Operation Method)과 이동 윈도우 방법(Sliding Window Method)이 이용될 수 있다. 이는 참조 픽쳐와 비참조 픽쳐의 메모리를 하나의 메모리로 통일하여 관리하고 적은 메모리로 효율적으로 관리하기 위함이다. 뎁스 코딩에 있어서, 뎁스 픽쳐들은 복호 픽쳐 버퍼부 내에서 컬러 픽쳐들과 구별하기 위하여 별도의 표시로 마킹될 수 있고, 상기 마킹 과정에서 각 뎁스 픽쳐를 식별해주기 위한 정보가 이용될 수 있다. 이러한 과정을 통해 관리되는 참조 픽쳐들은 인터 예측부(360)에서 뎁스 코딩을 위해 이용될 수 있다.
도 3을 참조하면, 인터 예측부(360)는 움직임 보상부(361), 가상시점 합성부(362) 및 뎁스 픽쳐 예측부(363)를 포함할 수 있다.
움직임 보상부(361)에서는 엔트로피 디코딩부(310)로부터 전송된 정보들을 이용하여 현재 블록의 움직임을 보상한다. 비디오 신호로부터 현재 블록에 이웃하는 블록들의 움직임 벡터를 추출하고, 상기 현재 블록의 움직임 벡터 예측값을 획득한다. 상기 움직임 벡터 예측값과 상기 비디오 신호로부터 추출되는 차분 벡터를 이용하여 현재 블록의 움직임을 보상한다. 또한, 이러한 움직임 보상은 하나의 참조 픽쳐를 이용하여 수행될 수도 있고, 복수의 픽쳐를 이용하여 수행될 수도 있다. 뎁스 코딩에 있어서, 현재 뎁스 픽쳐가 다른 시점에 있는 뎁스 픽쳐를 참조하게 되는 경우, 상기 복호 픽쳐 버퍼부(350)에 저장되어 있는 뎁스 픽쳐의 시점간 예측을 위한 참조 픽쳐 리스트에 대한 정보를 이용하여 움직임 보상을 수행할 수 있다. 또한, 그 뎁스 픽쳐의 시점을 식별하는 뎁스 시점 정보를 이용하여 움직임 보상을 수행할 수도 있다.
또한, 가상 시점 합성부(Virtual View Synthesizing Unit)(362)는 현재 컬러 픽쳐의 시점에 이웃하는 시점의 컬러 픽쳐를 이용하여 가상 시점의 컬러 픽쳐를 합성한다. 서로 이웃하는 시점의 컬러 픽쳐들을 이용하기 위해 또는 원하는 특정 시점의 컬러 픽쳐들을 이용하기 위해, 상기 컬러 픽쳐의 시점을 나타내는 시점 식별 정보가 이용될 수 있다. 상기 가상 시점의 컬러 픽쳐를 생성할 경우, 상기 가상 시점의 컬러 픽쳐를 생성할지 여부를 지시하는 플래그 정보를 정의할 수 있다. 상기 플래그 정보가 상기 가상 시점의 컬러 픽쳐를 생성할 것을 지시하는 경우, 상기 시점 식별 정보를 이용하여 가상 시점의 컬러 픽쳐를 생성할 수 있다. 상기 가상 시점 합성부(362)를 통해 획득된 가상 시점의 컬러 픽쳐는 레퍼런스 픽쳐로 사용될 수도 있으며, 이 경우 상기 가상 시점의 컬러 픽쳐에도 상기 시점 식별 정보를 할당할 수 있음은 물론이다.
다른 실시예로, 상기 가상 시점 합성부(362)는 현재 뎁스 픽쳐의 시점에 이웃하는 시점에 있는 뎁스 픽쳐를 이용하여 가상 시점의 뎁스 픽쳐를 합성할 수 있다. 마찬가지로, 뎁스 픽쳐의 시점을 나타내기 위해 뎁스 시점 식별 정보가 이용될 수 있다. 여기서, 상기 뎁스 시점 식별 정보는 대응되는 컬러 픽쳐의 시점 식별 정보로부터 유도될 수 있다. 예를 들어, 상기 대응되는 컬러 픽쳐는 현재 뎁스 픽쳐와 동일한 픽쳐 출력 순서 정보 및 동일한 시점 식별 정보를 가질 수 있다.
뎁스 픽쳐 생성부(363)는 뎁스 코딩 정보를 이용하여 현재 뎁스 픽쳐를 생성할 수 있다. 여기서, 상기 뎁스 코딩 정보는 카메라와 객체간의 거리를 나타내는 거리 변수(예를 들어, 카메라 좌표계상의 Z좌표값 등), 뎁스 코딩을 위한 매크로블록 타입 정보, 뎁스 픽쳐 내의 경계선 식별 정보, RBSP내의 데이터가 뎁스 코딩된 데이터를 포함하고 있는지 여부를 나타내는 정보, 또는 데이터 타입이 뎁스 픽쳐 데이터인지 컬러 픽쳐 데이터인지 또는 패러렉스 데이터인지 여부를 나타내는 정보 등을 포함할 수 있다. 또한, 상기 뎁스 코딩 정보를 이용하여 현재 뎁스 픽쳐를 예측할 수도 있다. 즉, 현재 뎁스 픽쳐에 이웃하는 뎁스 픽쳐를 이용한 인터 예측이 가능하며, 현재 뎁스 픽쳐내 디코딩된 뎁스 정보를 이용한 인트라 예측이 가능할 것이다.
이하, 가상 픽쳐를 합성하는 방법에 대해서 구체적으로 살펴보기로 한다.
도 4는 가상 픽쳐에 이웃한 픽쳐로부터 가상 픽쳐를 합성하는 과정을 도시한 것이다.
먼저, 상기 가상 픽쳐에 이웃한 픽쳐(이하, 레퍼런스 픽쳐라 한다.)를 와핑한다(S400). 상기 와핑된 레퍼런스 픽쳐(이하, 중간 픽쳐라 한다.)를 병합함으로써 합성할 수 있다(S420). 이하, 상기 레퍼런스 픽쳐에는 이미 합성된 다른 가상 픽쳐가 포함되는 것으로 이해하여야 할 것이다. 또한, 픽쳐의 타입을 기준으로 볼 때, 상기 레퍼런스 픽쳐는 레퍼런스 컬러 픽쳐 또는 레퍼런스 뎁스 픽쳐를 의미할 수 있으며, 동시에 상기 가상 픽쳐는 가상 컬러 픽쳐 또는 가상 뎁스 픽쳐를 의미할 수 있음을 이해하여야 한다.
상기 와핑이라 함은 레퍼런스 픽쳐의 픽셀 위치에 대응하는 중간 픽쳐의 픽셀 위치를 획득하고, 상기 레퍼런스 픽쳐의 픽셀값을 이용하여 상기 중간 픽쳐의 대응 픽셀값을 결정하는 과정으로 정의할 수 있다. 이하 픽셀값이라 함은 상기 픽셀 위치에 할당된 컬러 정보 또는 뎁스 정보를 포함하는 개념으로 이해하여야 한다.
도 5는 레퍼런스 픽쳐의 픽셀 위치에 대응하는 중간 픽쳐의 픽셀 위치를 획득하는 방법을 도시한 것이다.
도 5를 참조하면, 제 1시점의 레퍼런스 픽쳐의 픽셀 위치와 상기 레퍼런스 픽쳐의 픽셀 위치와 동일 위치에 있는 레퍼런스 픽쳐의 뎁스 정보를 이용하여 제 1시점의 공간적 위치를 획득할 수 있다. 상기 제 1시점의 공간적 위치 정보는 제 1시점을 기준으로 제 1시점의 레퍼런스 픽쳐의 픽셀이 매핑되는 3차원상의 위치를 의미한다. 예를 들어, 제 1시점의 레퍼런스 픽쳐의 2차원 좌표 p=(x, y)이고, 상기 p에 대응하는 레퍼런스 픽쳐의 뎁스 정보가 Z(p)일 경우, 카메라 좌표계 상의 3차원 좌표 P를 획득할 수 있다. 상기 3차원 좌표 P는 다음 수학식 4와 같이 획득될 수 있다.
[수학식 4]
Figure pct00001
상기 수학식 4에서 K는 제 1시점 카메라의 3x3 내부 파라미터를 의미하며,
Figure pct00002
는 p의 호모지니어스 좌표를 의미한다.
상기 제 1 시점의 공간적 위치는 제 1시점을 기준으로 한 객체의 위치 정보이므로, 상기 제 1시점의 공간적 위치를 가상 시점을 기준으로 한 3차원상의 위치(이하, 가상 시점의 공간적 위치라 한다.)로 변환할 필요가 있다. 예를 들어, 상기 가상 시점의 공간적 위치를 P' 라고 할 때, 상기 P' 는 3x3 로테이션 매트릭스(rotation matrix) R과 3x1 변환 벡터(translation vector) T를 이용하여 다음 수학식 5와 같이 유도될 수 있다.
[수학식 5]
P' (X' ,Y' ,Z' )=R*P+T
그리고, 상기 가상 시점의 공간적 위치가 중간 픽쳐에 투영되는 위치(이하, 중간 픽쳐의 대응 픽셀 위치라 한다.)를 획득한다. 예를 들어, 상기 중간 픽쳐의 대응 픽셀 위치를 p' =(x' ,y' )라 할 때, 상기 p' 는 상기 P' 와 가상 시점 카메라의 내부 파라미터 K' 를 이용하여 다음 수학식 6과 같이 유도될 수 있다.
[수학식 6]
Figure pct00003
따라서, 상기 위치에 근거하여 제 1시점의 레퍼런스 픽쳐의 픽셀값을 중간 픽쳐의 대응 픽셀에 할당함으로써 와핑할 수 있다.
제 1시점의 레퍼런스 픽쳐로부터 중간 픽쳐를 와핑하는 다른 실시예를 살펴보기로 한다.
다시점이 존재하는 경우, 상기 다시점은 카메라 좌표계의 동일한 x축상에 놓여있고, 서로 평행한 z축을 가지는 것을 전제로 설명하기로 한다. 이 경우, 제 1시점의 레퍼런스 픽쳐의 픽셀 위치 p=(x, y)와 중간 픽쳐의 대응 픽셀 위치 p' =(x' , y)를 비교하면, y값은 동일하고, x값에서 차이를 가질 것이다. 따라서, 상기 x값 간의 차이값(이하, d라 한다.)을 이용하여 제 1시점의 레퍼런스 픽쳐의 픽셀 위치로부터 중간 픽쳐의 대응 픽셀 위치를 획득할 수 있다. 예를 들어, 상기 d는 제 1시점 카메라의 초점 길이(f), 제 1시점 카메라와 가상 시점 카메라간의 거리(B)를 이용하여 다음 수학식 7과 같이 유도될 수 있다.
[수학식 7]
d=(f*B)/Z
상기 수학식 7에서 Z는 제 1시점의 레퍼런스 컬러 픽쳐의 픽셀에 대응하는 제 1시점의 레퍼런스 뎁스 픽쳐의 뎁스 정보를 의미한다. 제 1시점의 레퍼런스 뎁스 픽쳐의 뎁스 정보로서 양자화된 뎁스 정보가 이용된 경우, 상기 Z는 상기 양자화된 뎁스 정보를 이용하여 다음 수학식 8과 같이 유도될 수 있다.
[수학식 8]
Z= 1/{ Zq/255*(1/Znear-1/Zfar)}
상기 수학식 8에서 Znear는 상기 카메라 좌표계상의 3차원 좌표 P의 Z좌표값의 하한(the lower limit)을, Zfar는 Z좌표값의 상한(the upper limit)을 의미한다.
제 1시점의 레퍼런스 픽쳐의 픽셀에 대응하는 중간 픽쳐의 픽셀 위치는 상기 d를 이용하여 획득할 수 있다. 예를 들어, 제 1시점의 레퍼런스 픽쳐의 2차원 좌표 (x, y)에 대응하는 중간 픽쳐의 2차원 좌표 (x' , y)는 상기 2차원 좌표 (x, y)에 상기 d를 합산함으로써 획득할 수 있다. 즉, x' =x+d 로 나타낼 수 있다. 다만, 상기 중간 픽쳐의 픽셀 위치는 상기 d에 의해 결정된 2차원 좌표 (x' , y)로 결정될 수도 있고, 상기 (x' , y)와 가장 가까운 픽셀 위치로 결정될 수도 있다. 상기 x' 이 정수인 경우에는 상기 2차원 좌표 (x' , y)를, 상기 x' 이 정수가 아닌 실수인 경우에는 x' 을 반올림 연산을 수행하여 얻은 2차원 좌표를, 상기 중간 픽쳐의 픽셀 위치로 결정할 수 있다. 상기 중간 픽쳐의 픽셀에는 상기 제 1시점의 레퍼런스 픽쳐의 픽셀값이 할당된다.
다만, 중간 픽쳐의 하나의 픽셀에 레퍼런스 픽쳐의 수개의 픽셀이 대응되는 경우가 있다. 이 경우 상기 레퍼런스 픽쳐의 픽셀에 대응하는 상기 중간 픽쳐의 2차원 좌표를 고려하여 와핑할 수 있다.
도 6 및 도 7은 중간 픽쳐의 하나의 픽셀에 레퍼런스 픽쳐의 수개의 픽셀이 대응되는 경우에 와핑하는 방법을 도시한 것이다.
도 6을 참조하면, 레퍼런스 픽쳐의 픽셀 (10, y), (11, y)이 중간 픽쳐의 픽셀 (11, y)로 와핑되는 경우이다. 중간 픽쳐의 픽셀의 컬러 정보는 상기 가상 픽쳐의 픽셀로 와핑되는 레퍼런스 픽쳐의 픽셀의 개수 및 상기 레퍼런스 픽쳐의 픽셀의 컬러 정보의 합을 이용한 평균값으로 와핑될 수 있다. 레퍼런스 픽쳐의 픽셀 (10, y)의 컬러 정보가 70이고, 레퍼런스 픽쳐의 픽셀 (11, y)의 컬러 정보가 120인 경우, 상기 중간 픽쳐의 픽셀 (11, y)의 컬러 정보는 95로 와핑될 것이다.
또는, 상기 레퍼런스 픽쳐의 픽셀에 대응하는 상기 중간 픽쳐의 2차원 좌표를 고려하여 상기 레퍼런스 픽쳐의 픽셀값에 가중치를 부가하여 와핑할 수도 있다. 도 6을 참조하면, 레퍼런스 픽쳐의 픽셀 (10, y)에 대응되는 중간 픽쳐의 2차원 좌표가 (10.8, y)이고, 레퍼런스 픽쳐의 픽셀 (11, y)에 대응되는 중간 픽쳐의 2차원 좌표가 (11.2, y)인 경우, 중간 픽쳐의 픽셀 (11, y)의 컬러 정보는 다음 수학식 9와 같다.
[수학식 9]
L[11]=(uB-11)/(uB-uA)*70+(11-uA)/(uB-uA)*120
상기 수학식 9에서 L[11]는 중간 픽쳐의 픽셀 (11, y)의 컬러 정보를 나타내며, uA는 레퍼런스 픽쳐의 픽셀(10, y)에 대응하는 중간 픽쳐의 2차원 좌표를 나타내고, uB는 레퍼런스 픽쳐의 픽셀 (11, y)에 대응하는 중간 픽쳐의 2차원 좌표를 나타낸다.
또는, 상기 레퍼런스 픽쳐의 수개의 픽셀의 컬러 정보간의 평균값과 상기 레퍼런스 픽쳐의 픽셀에 대응하는 중간 픽쳐의 2차원 좌표를 동시에 고려하여 와핑할 수도 있다. 도 7을 참조하면, 레퍼런스 픽쳐의 픽셀 (11, y)이 중간 픽쳐의 픽셀 (10, y)로 대응되고, 중간 픽쳐의 픽셀 (10, y)은 이전에 수행된 와핑에 의해 컬러 정보가 30인 경우이다. 레퍼런스 픽쳐의 픽셀 (11, y)에 대응되는 중간 픽쳐의 2차원 좌표가 (9.7, y)인 경우, 중간 픽쳐의 픽셀 (10, y)은 (9.7, y)부터 (10.5, y)까지 범위내에서 상기 레퍼런스 픽쳐의 픽셀 (11, y)의 컬러 정보의 영향을 받으므로, 이에 따른 가중치를 고려하여 와핑을 수행할 수 있다. 예를 들어, 상기 중간 픽쳐의 픽셀 (10, y)의 컬러 정보는 다음 수학식 10과 같다.
[수학식 10]
L[10]=round(a * L[10]' + (1-a) * color_sum/color_count)
상기 수학식에서 L[10]은 상기 중간 픽쳐의 픽셀 (10, y)의 컬러정보를 나타내며, L[10]' 은 이전 와핑에 의한 중간 픽쳐의 픽셀 (10, y)의 컬러 정보를 나타낸다. color_sum은 이전 와핑에 의한 중간 픽쳐의 픽셀의 컬러 정보와 상기 중간 픽쳐의 픽셀로 와핑되는 레퍼런스 픽쳐의 픽셀의 컬러 정보의 합을 나타낸다. color_count는 상기 중간 픽쳐의 픽셀 및 이에 와핑되는 레퍼런스 픽쳐의 픽셀의 개수를 나타낸다. 상기 a는 이전 와핑에 의한 중간 픽쳐의 픽셀의 컬러 정보가 현재 와핑에서 상기 중간 픽쳐의 픽셀의 컬러 정보에 영향을 미치는 비율을 나타낸다.
그러나, 중간 픽쳐의 픽셀로 레퍼런스 픽쳐의 수개의 픽셀이 대응되는 경우, 상기 레퍼런스 픽쳐의 픽셀 가운데 카메라로부터 상대적으로 원거리에 있는 레퍼런스 픽쳐의 픽셀은 상대적으로 근거리에 있는 레퍼런스 픽쳐의 픽셀에 의해 가려지므로, 상대적으로 근거리에 있는 레퍼런스 픽쳐의 픽셀의 컬러 정보, 뎁스 정보 등을 이용하여 상기 중간 픽쳐의 픽셀을 와핑해야할 것이다. 이를 위해 레퍼런스 픽쳐의 픽셀의 뎁스 정보에 근거하여 상대적으로 근거리에 있는 레퍼런스 픽쳐의 픽셀의 정보(예를 들어, 컬러 정보, 뎁스 정보, 거리 변수 등)를 와핑에 이용할 수 있다. 예를 들어, 중간 픽쳐의 픽셀로 레퍼런스 픽쳐의 제 1픽셀과 레퍼런스 픽쳐의 제 2픽셀이 대응되는 경우, 먼저 레퍼런스 픽쳐의 제 1픽셀에 대한 컬러 정보, 뎁스 정보가 상기 중간 픽쳐의 픽셀에 대한 컬러 정보, 뎁스 정보로 와핑된다. 다음, 레퍼런스 픽쳐의 제 2픽셀에 대한 컬러 정보, 뎁스 정보를 상기 중간 픽쳐의 픽셀에 대한 컬러 정보, 뎁스 정보로 재와핑한다. 이때, 상기 레퍼런스 픽쳐의 제 1픽셀에 대한 뎁스 정보가 상기 레퍼런스 픽쳐의 제 2픽셀에 대한 뎁스 정보보다 크다면, 상기 레퍼런스 픽쳐의 제 1픽셀은 레퍼런스 픽쳐의 제 2픽셀보다 상대적으로 원거리에 있는 픽셀을 의미한다고 볼 수 있다. 따라서, 상기 중간 픽쳐의 픽셀에 대한 컬러 정보, 뎁스 정보는 레퍼런스 픽쳐의 제 2픽셀에 대한 컬러 정보, 뎁스 정보로 대체될 것이다.
가상 픽쳐의 합성을 위해서 다시점의 레퍼런스 픽쳐가 이용된 경우,제 1시점의 레퍼런스 픽쳐로부터 와핑된 중간 픽쳐(이하, 제 1시점의 중간 픽쳐라 한다.)에 홀이 있다면, 제 2시점의 레퍼런스 픽쳐로부터 와핑된 중간 픽쳐(제 2시점의 중간 픽쳐라 한다.)의 픽셀값을 이용하여 상기 홀을 채울 수 있다(S410). 상기 홀이라 함은 레퍼런스 픽쳐의 픽셀에 대응하는 중간 픽쳐의 픽셀에 대하여 상기 레퍼런스 픽쳐의 픽셀값을 할당하는 과정에서 중간 픽쳐상에 픽셀값이 할당되지 않는 영역을 의미한다. 상기 홀은 하나의 픽셀일 수 있고, 다수의 픽셀을 포함한 영역이 될 수도 있다. 상기 제 1시점의 레퍼런스 픽쳐와 상기 제 2시점의 레퍼런스 픽쳐는 시점 정보에 의해 구별되며, 상기 시점 정보라 함은 레퍼런스 픽쳐가 속해있는 시점을 식별하는 정보를 의미할 수 있다. 상기 제 2시점의 중간 픽쳐의 픽셀은 제 1시점의 중간 픽쳐의 픽셀과 동일 위치에 있는 픽셀일 수 있다.
도 8은 제 2시점의 중간 픽쳐를 이용하여 제 1시점의 중간 픽쳐의 홀을 채우는 신택스의 실시예이다.
먼저, 제 1시점의 중간 픽쳐에 홀이 존재하는지를 판별할 수 있다. 예를 들어, 상기 제 1시점의 중간 픽쳐에 픽셀값이 할당되지 않은 영역에 대하여 픽셀값으로 1을 할당할 수 있으며, 이로써 상기 홀의 위치를 특정할 수 있다(S800). 상기 제 1시점의 중간 픽쳐의 홀은 상기 제 1시점의 중간 픽쳐의 홀에 인접한 픽셀을 이용하여 채울 수도 있다. 상기 인접한 픽셀이라 함은 상기 홀에 접해있는 픽셀일 수 있으나, 물론 이에 한정하지 아니하며, 상기 홀 주변에 있는 픽셀을 포함할 수 있다. 예를 들어, S810와 같이 인접한 픽셀의 범위를 특정할 수 있다. 그리고, 상기 제 1시점의 중간 픽쳐의 홀에 인접한 픽셀과 제 2시점의 중간 픽쳐의 픽셀간의 픽셀값 차이(color offset value)를 획득할 수 있다(S820). 상기 제 2시점의 중간 픽쳐의 픽셀은 상기 제 1시점의 중간 픽쳐의 홀에 인접한 픽셀과 동일 위치에 있는 픽셀일 수 있다. 상기 제 1시점의 중간 픽쳐의 홀은 상기 제 2시점의 중간 픽쳐의 픽셀값에 상기 픽셀값 차이를 합산하여 채울 수 있다(S830). 여기서 상기 픽셀값 차이가 수개 존재할 경우에는 상기 픽셀값 차이 중에서 어느 하나를 선택해서 이용할 수 있고, 빈도수가 높은 픽셀값 차이를 이용할 수도 있으나, 바람직하게는 상기 픽셀값 차이의 평균값을 이용할 수 있다(S820).
상기 제 1시점의 중간 픽쳐와 상기 제 2시점의 중간 픽쳐를 병합함으로써 가상 픽쳐를 합성할 수 있다(S420). 다만, 상기 병합함에 있어서, 가상 시점의 위치에 따른 가중치를 고려하여 상기 제 1시점의 중간 픽쳐와 상기 제 2시점의 중간 픽쳐를 병합할 수 있다. 예를 들어, 가상 시점의 위치가 제 1시점에 가까운지, 제 2시점에 가까운지를 고려하여 병합할 수 있으며, 이 경우 상기 가중치는 다음 수학식 11로부터 유도될 수 있다.
[수학식 11]
Figure pct00004
상기 수학식 11에서 a는 가중치를 의미하며, Ltx는 x축상의 제 1시점의 위치를, Rtx는 x축상의 제 2시점의 위치를, 그리고 Vtx는 x축상의 가상 시점의 위치를 나타낸다.
따라서, 가상 픽쳐의 픽셀값은 다음 수학식 12로부터 획득될 수 있다.
[수학식 12]
VC' (x,y)=a*LC' (x,y)+(1-a)*RC' (x,y)
상기 수학식에서 VC' (x,y)는 가상 픽쳐의 2차원 좌표 (x,y)의 픽셀값을 의미하며, LC' (x,y)는 제 1시점의 중간 픽쳐의 2차원 좌표 (x,y)의 픽셀값을, RC' (x,y)는 제 2시점의 중간 픽쳐의 2차원 좌표 (x,y)의 픽셀값을 의미한다.
가상 픽쳐의 픽셀의 컬러 정보 또는 상기 가상 뎁스 픽쳐의 뎁스 정보를 비교함으로써, 부정확한 뎁스 정보를 가진 레퍼런스 뎁스 픽쳐의 픽셀 위치를 찾을 수 있다. 예를 들어, 제 1시점의 중간 픽쳐의 픽셀의 컬러 정보와 제 2시점의 중간 픽쳐의 픽셀의 컬러 정보간의 차이가 컬러 차이의 한계치를 넘어서는 경우, 또는 제 1시점의 중간 픽쳐의 픽셀에 대한 뎁스 정보와 제 2시점의 중간 픽쳐의 픽셀에 대한 뎁스 정보의 차이가 뎁스 정보 차이의 한계치를 넘어서는 경우, 상기 제 1시점의 중간 픽쳐의 픽셀의 뎁스 정보와 상기 제 2시점의 중간 픽쳐의 픽셀의 뎁스 정보는 부정확한 것으로 볼 수 있다. 결국, 상기 제 1시점의 중간 픽쳐의 픽셀과 상기 제 2시점의 중간 픽쳐의 픽셀간의 합성에 의한 가상 뎁스 픽쳐의 픽셀은 부정확한 뎁스 정보를 가질 것이다. 상기 색채 차이의 한계치 또는 거리 변수 차이의 한계치는 임의로 결정된 상수이며, 거리 변수 최대값과 거리 변수 최소값간의 차이에 근거하여 결정될 수 있다.
따라서, 제 1시점의 레퍼런스 픽쳐의 픽셀의 컬러 정보와 제 2시점의 레퍼런스 픽쳐의 픽셀의 컬러 정보간의 차이를 최소로 하는 뎁스 정보(이하, 수정된 뎁스 정보라 한다.)를 획득하고, 상기 수정된 뎁스 정보를 상기 가상 뎁스 픽쳐의 픽셀의 뎁스 정보로 이용할 수 있다. 예를 들어, 상기 수정된 뎁스 정보가 결정되면, 상기 수정된 뎁스 정보에 따라 제 1시점의 또는 제 2시점의 레퍼런스 픽쳐의 픽셀의 위치가 결정될 수 있다. 그리고, 상기 결정된 제 1시점의 또는 제 2시점의 레퍼런스 픽쳐의 픽셀의 컬러 정보를 이용하여 가상 픽쳐의 대응 픽셀의 컬러 정보로 할당할 수 있으며, 바람직하게는 상기 제 1시점 및 제 2시점 레퍼런스 픽쳐의 픽셀의 컬러 정보의 평균값을 상기 가상 픽쳐의 대응 픽셀의 컬러 정보로 할당할 수 있다.
이상에서 설명한 바와 같이, 본 발명이 적용되는 디코딩/인코딩 장치는 DMB(Digital Multimedia Broadcasting)과 같은 멀티미디어 방송 송/수신 장치에 구비되어, 비디오 신호 및 데이터 신호 등을 복호화하는데 사용될 수 있다. 또한 상기 멀티미디어 방송 송/수신 장치는 이동통신 단말기를 포함할 수 있다.
또한, 본 발명이 적용되는 디코딩/인코딩 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 인코딩 방법에 의해 생성된 비트스트림은 컴퓨터가 읽을 수 있는 기록 매체에 저장되거나, 유/무선 통신망을 이용해 전송될 수 있다.
[산업상이용가능성]
본 발명은 가상 픽쳐를 합성하는데 이용할 수 있다.

Claims (8)

  1. 제 1시점의 레퍼런스 픽쳐와 제 2시점의 레퍼런스 픽쳐를 와핑함으로써 제 1시점의 중간 픽쳐와 제 2시점의 중간 픽쳐를 생성하는 단계;
    상기 제 1시점의 중간 픽쳐에 홀이 존재하는지를 판별하는 단계;
    상기 제 1시점의 중간 픽쳐에 홀이 존재하는 경우, 상기 홀의 위치를 특정하는 단계;
    상기 홀의 위치에 근거하여 상기 제 2시점의 중간 픽쳐의 픽셀값을 획득하는 단계; 및
    상기 제 2시점의 중간 픽쳐의 픽셀값을 상기 홀에 할당하는 단계를 포함하되,
    상기 홀은 상기 제 1시점의 중간 픽쳐에 픽셀값이 할당되지 않은 영역인 것을 특징으로 하는 가상 뷰 이미지 합성 방법.
  2. 상기 1항에 있어서, 제 1시점의 레퍼런스 픽쳐와 제 2시점의 레퍼런스 픽쳐는 시점 정보에 의해 구별되며, 상기 시점 정보라 함은 레퍼런스 픽쳐가 속해있는 시점을 식별하는 정보인 것을 특징으로 하는 가상 뷰 이미지 합성 방법.
  3. 제 1항에 있어서, 상기 제 2시점의 가상 픽쳐의 픽셀값은 상기 홀의 위치와 동일 위치에 있는 픽셀로부터 획득되는 것을 특징으로 하는 가상 뷰 이미지 합성 방법.
  4. 제 1항에 있어서, 상기 제 2시점의 중간 픽쳐 픽쳐의 픽셀값을 상기 홀에 할당하는 단계는
    상기 홀에 인접한 픽셀과 상기 홀에 인접한 픽셀과 동일 위치에 있는 상기 제 2시점의 중간 픽쳐의 픽셀간의 픽셀값 차이를 획득하는 단계를 더 포함하되,
    상기 상기 픽셀값 차이를 이용하여 상기 홀에 할당하는 것을 특징으로 하는 가상 뷰 이미지 합성 방법.
  5. 제 4항에 있어서, 상기 홀에 인접한 픽셀은 상기 홀의 좌측, 우측, 상단, 하단, 좌측 상단, 좌측 하단, 우측 상단, 및 우측 하단에 위치한 픽셀을 포함하는 것을 특징으로 하는 가상 뷰 이미지 합성 방법.
  6. 제 4항에 있어서, 상기 홀은 상기 픽셀값 차이간의 평균값과 상기 제 2시점의 중간 픽쳐의 픽셀값의 합이 할당되는 것을 특징으로 하는 가상 뷰 이미지 합성 방법.
  7. 제 1항에 있어서, 제 1시점의 레퍼런스 픽쳐와 제 2시점의 레퍼런스 픽쳐를 와핑함으로써 제 1시점의 중간 픽쳐와 제 2시점의 중간 픽쳐를 생성하는 단계는
    상기 제 1시점의 중간 픽쳐의 픽셀에 하나 이상의 상기 제 1시점의 레퍼런스 픽쳐의 픽셀들이 대응되는 경우, 상기 하나 이상의 상기 제 1시점의 레퍼런스 픽쳐의 픽셀값들의 평균값을 상기 제 1시점의 중간 픽쳐의 픽셀값으로 와핑하는 것을 특징으로 하는 가상 뷰 이미지 합성 방법.
  8. 제 1항에 있어서, 제 1시점의 레퍼런스 픽쳐와 제 2시점의 레퍼런스 픽쳐를 와핑함으로써 제 1시점의 중간 픽쳐와 제 2시점의 중간 픽쳐를 생성하는 단계는
    상기 제 1시점의 중간 픽쳐의 픽셀에 하나 이상의 상기 제 1시점의 레퍼런스 픽쳐의 픽셀들이 대응되는 경우, 하나 이상의 상기 제 1시점의 레퍼런스 픽쳐의 픽셀의 뎁스 정보를 비교하는 단계;
    상기 뎁스 정보 중에서 가장 작은 뎁스 정보를 가진 상기 제 1시점의 레퍼런스 픽쳐의 픽셀을 상기 제 1시점의 중간 픽쳐의 픽셀로 와핑하는 단계를 더 포함하는 것을 특징으로 하는 가상 뷰 이미지 합성 방법.
KR1020117010322A 2008-10-27 2009-10-27 가상 뷰 이미지 합성 방법 및 장치 KR101697598B1 (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US10885608P 2008-10-27 2008-10-27
US61/108,856 2008-10-27
US16932109P 2009-04-15 2009-04-15
US61/169,321 2009-04-15
US18012009P 2009-05-20 2009-05-20
US61/180,120 2009-05-20
PCT/KR2009/006229 WO2010050728A2 (ko) 2008-10-27 2009-10-27 가상 뷰 이미지 합성 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20110088515A true KR20110088515A (ko) 2011-08-03
KR101697598B1 KR101697598B1 (ko) 2017-02-01

Family

ID=42129449

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117010322A KR101697598B1 (ko) 2008-10-27 2009-10-27 가상 뷰 이미지 합성 방법 및 장치

Country Status (4)

Country Link
US (1) US8913657B2 (ko)
EP (1) EP2348733A4 (ko)
KR (1) KR101697598B1 (ko)
WO (1) WO2010050728A2 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9191677B2 (en) 2011-10-28 2015-11-17 Samsung Electronics Co., Ltd. Method and apparatus for encoding image and method and appartus for decoding image
WO2017142130A1 (ko) * 2016-02-19 2017-08-24 삼성전자 주식회사 가상 현실을 제공하기 위한 이미지 처리 방법 및 가상 현실 디바이스
KR20190091500A (ko) * 2016-12-06 2019-08-06 코닌클리케 필립스 엔.브이. 광 강도 이미지를 생성하기 위한 장치 및 방법
KR20200020879A (ko) * 2017-06-23 2020-02-26 코닌클리케 필립스 엔.브이. 텍스처 맵들 및 메시들에 기초한 3d 이미지 정보의 처리
US10586306B2 (en) 2017-03-31 2020-03-10 Korea Advanced Institute Of Science And Technology Immersive display apparatus and method for creation of peripheral view corresponding to input video

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
KR101733443B1 (ko) 2008-05-20 2017-05-10 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
JP5829604B2 (ja) * 2009-05-18 2015-12-09 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 3dトリックプレイのためのエントリー・ポイント
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
KR101598855B1 (ko) * 2010-05-11 2016-03-14 삼성전자주식회사 입체영상 부호화 장치 및 방법
US8928793B2 (en) 2010-05-12 2015-01-06 Pelican Imaging Corporation Imager array interfaces
EP2609575B1 (en) * 2010-08-27 2019-02-27 Samsung Electronics Co., Ltd. Rendering apparatus and method for generating multi-views
JP5707412B2 (ja) * 2010-09-29 2015-04-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラムおよび集積回路
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US8705852B2 (en) * 2011-01-27 2014-04-22 Samsung Electronics Co., Ltd. Image processing apparatus and method for defining distortion function for synthesized image of intermediate view
JPWO2012121052A1 (ja) * 2011-03-08 2014-07-17 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
CN107197227B (zh) * 2011-03-18 2019-05-10 索尼公司 图像处理设备、图像处理方法和计算机可读存储介质
WO2012147740A1 (ja) * 2011-04-25 2012-11-01 シャープ株式会社 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム
US8705620B1 (en) * 2011-04-28 2014-04-22 Google Inc. Method and apparatus for encoding anchor frame by encoding features using layers
US9749638B1 (en) 2011-04-28 2017-08-29 Google Inc. Method and apparatus for encoding video with dynamic quality improvement
JP2014519741A (ja) 2011-05-11 2014-08-14 ペリカン イメージング コーポレイション アレイカメラ画像データを伝送および受信するためのシステムおよび方法
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
KR20140045458A (ko) 2011-06-28 2014-04-16 펠리칸 이매징 코포레이션 어레이 카메라와 함께 사용하는 광학 장치
KR20140057269A (ko) 2011-08-31 2014-05-12 소니 주식회사 부호화 장치 및 부호화 방법, 복호 장치 및 복호 방법
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
JP6140709B2 (ja) 2011-09-28 2017-05-31 ペリカン イメージング コーポレイション 明視野画像ファイルを符号化および復号するためのシステムおよび方法
EP2777266B1 (en) * 2011-11-11 2018-07-25 GE Video Compression, LLC Multi-view coding with exploitation of renderable portions
WO2013068493A1 (en) 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-view coding with effective handling of renderable portions
KR102318349B1 (ko) 2011-11-11 2021-10-27 지이 비디오 컴프레션, 엘엘씨 깊이-맵 추정 및 업데이트를 사용한 효율적인 멀티-뷰 코딩
EP2777273B1 (en) 2011-11-11 2019-09-04 GE Video Compression, LLC Efficient multi-view coding using depth-map estimate for a dependent view
EP2781091B1 (en) * 2011-11-18 2020-04-08 GE Video Compression, LLC Multi-view coding with efficient residual handling
TWI478095B (zh) * 2012-02-07 2015-03-21 Nat Univ Chung Cheng Check the depth of mismatch and compensation depth error of the perspective synthesis method
US9412206B2 (en) 2012-02-21 2016-08-09 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
JP6131546B2 (ja) * 2012-03-16 2017-05-24 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
CN103369331B (zh) * 2012-03-27 2016-12-21 北京数码视讯科技股份有限公司 图像空洞的填补方法和装置及视频图像的处理方法和装置
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
EP2670146A1 (en) * 2012-06-01 2013-12-04 Alcatel Lucent Method and apparatus for encoding and decoding a multiview video stream
US9781447B1 (en) 2012-06-21 2017-10-03 Google Inc. Correlation based inter-plane prediction encoding and decoding
CN104508681B (zh) 2012-06-28 2018-10-30 Fotonation开曼有限公司 用于检测有缺陷的相机阵列、光学器件阵列和传感器的系统及方法
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US9167268B1 (en) 2012-08-09 2015-10-20 Google Inc. Second-order orthogonal spatial intra prediction
US9344742B2 (en) 2012-08-10 2016-05-17 Google Inc. Transform-domain intra prediction
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
US9357195B2 (en) * 2012-08-16 2016-05-31 Qualcomm Incorporated Inter-view predicted motion vector for 3D video
SG11201500910RA (en) 2012-08-21 2015-03-30 Pelican Imaging Corp Systems and methods for parallax detection and correction in images captured using array cameras
CN104685513B (zh) 2012-08-23 2018-04-27 派力肯影像公司 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计
US9214013B2 (en) 2012-09-14 2015-12-15 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
CN103716607B (zh) * 2012-09-28 2017-02-08 中兴通讯股份有限公司 一种应用于HEVC‑based 3DVC的编码方法和装置
EP2901671A4 (en) * 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
KR102657912B1 (ko) 2012-10-01 2024-04-15 지이 비디오 컴프레션, 엘엘씨 향상 레이어에서 변환 계수 블록들의 서브블록-기반 코딩을 이용한 스케일러블 비디오 코딩
US9369732B2 (en) 2012-10-08 2016-06-14 Google Inc. Lossless intra-prediction video coding
KR20140048783A (ko) 2012-10-09 2014-04-24 한국전자통신연구원 깊이정보값을 공유하여 움직임 정보를 유도하는 방법 및 장치
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
US9894385B2 (en) * 2013-01-02 2018-02-13 Lg Electronics Inc. Video signal processing method and device
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
US9225979B1 (en) 2013-01-30 2015-12-29 Google Inc. Remote access encoding
EP2765775A1 (en) * 2013-02-06 2014-08-13 Koninklijke Philips N.V. System for generating intermediate view images
EP2765774A1 (en) 2013-02-06 2014-08-13 Koninklijke Philips N.V. System for generating an intermediate view image
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
US10271034B2 (en) 2013-03-05 2019-04-23 Qualcomm Incorporated Simplified depth coding
US9917998B2 (en) 2013-03-08 2018-03-13 Fotonation Cayman Limited Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014150856A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Array camera implementing quantum dot color filters
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
JP2016524125A (ja) 2013-03-15 2016-08-12 ペリカン イメージング コーポレイション カメラアレイを用いた立体撮像のためのシステムおよび方法
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9247251B1 (en) 2013-07-26 2016-01-26 Google Inc. Right-edge extension for quad-tree intra-prediction
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
WO2015070105A1 (en) 2013-11-07 2015-05-14 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US9456134B2 (en) 2013-11-26 2016-09-27 Pelican Imaging Corporation Array camera configurations incorporating constituent array cameras and constituent cameras
US10244223B2 (en) 2014-01-10 2019-03-26 Ostendo Technologies, Inc. Methods for full parallax compressed light field 3D imaging systems
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
JP2017531976A (ja) 2014-09-29 2017-10-26 フォトネイション ケイマン リミテッド アレイカメラを動的に較正するためのシステム及び方法
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
EP3286916A1 (en) 2015-04-23 2018-02-28 Ostendo Technologies, Inc. Methods and apparatus for full parallax light field display systems
EP3286737A1 (en) * 2015-04-23 2018-02-28 Ostendo Technologies, Inc. Methods for full parallax compressed light field synthesis utilizing depth information
JP6585371B2 (ja) * 2015-04-24 2019-10-02 株式会社デンソーテン 画像処理装置、画像処理方法および車載装置
US10448030B2 (en) 2015-11-16 2019-10-15 Ostendo Technologies, Inc. Content adaptive light field compression
US10453431B2 (en) 2016-04-28 2019-10-22 Ostendo Technologies, Inc. Integrated near-far light field display systems
GB2558893A (en) * 2017-01-17 2018-07-25 Nokia Technologies Oy Method for processing media content and technical equipment for the same
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
KR102564729B1 (ko) * 2018-04-05 2023-08-09 삼성전자주식회사 복수의 뷰포인트들을 포함하는 3차원 컨텐트에 대한 정보를 전송하기 위한 방법 및 장치
JP7164813B2 (ja) * 2018-11-21 2022-11-02 日本電信電話株式会社 予測装置、予測方法、及びプログラム。
JP7218801B2 (ja) * 2019-05-31 2023-02-07 日本電信電話株式会社 画像生成装置、画像生成方法、プログラム
US12014472B1 (en) * 2019-09-03 2024-06-18 Apple Inc. Methods and devices for improved inverse iterative warping
US11270110B2 (en) 2019-09-17 2022-03-08 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
CN114766003B (zh) 2019-10-07 2024-03-26 波士顿偏振测定公司 用于利用偏振增强传感器系统和成像系统的系统和方法
DE112020005932T5 (de) 2019-11-30 2023-01-05 Boston Polarimetrics, Inc. Systeme und verfahren zur segmentierung von transparenten objekten mittels polarisationsmerkmalen
WO2021154386A1 (en) 2020-01-29 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11055879B1 (en) * 2020-04-03 2021-07-06 Varjo Technologies Oy Encoder and encoding method for mitigating discrepancies in reconstructed images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US20220038654A1 (en) * 2020-07-30 2022-02-03 Nvidia Corporation Techniques to generate interpolated video frames
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060029134A1 (en) * 2004-08-03 2006-02-09 Microsoft Corporation System and process for compressing and decompressing multiple, layered, video streams employing spatial and temporal encoding
US7221366B2 (en) * 2004-08-03 2007-05-22 Microsoft Corporation Real-time rendering system and process for interactive viewpoint video

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7728877B2 (en) * 2004-12-17 2010-06-01 Mitsubishi Electric Research Laboratories, Inc. Method and system for synthesizing multiview videos
US7471292B2 (en) 2005-11-15 2008-12-30 Sharp Laboratories Of America, Inc. Virtual view specification and synthesis in free viewpoint
DE202007019458U1 (de) 2006-03-30 2012-09-13 Lg Electronics Inc. Vorrichtung zum Decodieren/Codieren eines Videosignals
KR20080015713A (ko) 2006-08-16 2008-02-20 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060029134A1 (en) * 2004-08-03 2006-02-09 Microsoft Corporation System and process for compressing and decompressing multiple, layered, video streams employing spatial and temporal encoding
US7221366B2 (en) * 2004-08-03 2007-05-22 Microsoft Corporation Real-time rendering system and process for interactive viewpoint video

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9191677B2 (en) 2011-10-28 2015-11-17 Samsung Electronics Co., Ltd. Method and apparatus for encoding image and method and appartus for decoding image
WO2017142130A1 (ko) * 2016-02-19 2017-08-24 삼성전자 주식회사 가상 현실을 제공하기 위한 이미지 처리 방법 및 가상 현실 디바이스
KR20170098017A (ko) * 2016-02-19 2017-08-29 삼성전자주식회사 가상 현실을 제공하기 위한 이미지 처리 방법 및 가상 현실 디바이스
US10992914B2 (en) 2016-02-19 2021-04-27 Samsung Electronics Co., Ltd. Image processing method for providing virtual reality, and virtual reality device
KR20190091500A (ko) * 2016-12-06 2019-08-06 코닌클리케 필립스 엔.브이. 광 강도 이미지를 생성하기 위한 장치 및 방법
US10586306B2 (en) 2017-03-31 2020-03-10 Korea Advanced Institute Of Science And Technology Immersive display apparatus and method for creation of peripheral view corresponding to input video
KR20200020879A (ko) * 2017-06-23 2020-02-26 코닌클리케 필립스 엔.브이. 텍스처 맵들 및 메시들에 기초한 3d 이미지 정보의 처리

Also Published As

Publication number Publication date
WO2010050728A3 (ko) 2010-08-05
US8913657B2 (en) 2014-12-16
EP2348733A4 (en) 2012-09-12
KR101697598B1 (ko) 2017-02-01
EP2348733A2 (en) 2011-07-27
WO2010050728A2 (ko) 2010-05-06
US20110255592A1 (en) 2011-10-20

Similar Documents

Publication Publication Date Title
KR101697598B1 (ko) 가상 뷰 이미지 합성 방법 및 장치
KR101619450B1 (ko) 뎁스 정보를 이용한 비디오 신호 처리 방법 및 장치
KR101619448B1 (ko) 영상 신호 처리 방법 및 장치
US9196059B2 (en) Method and apparatus for processing video signals using boundary intra coding
KR101625058B1 (ko) 시점간 예측을 이용한 비디오 신호 처리 방법 및 장치
KR20160034259A (ko) 비디오 신호 처리 방법 및 장치
US10123007B2 (en) Method and apparatus for processing video signal
KR102248074B1 (ko) 비디오 신호 처리 방법 및 장치
US9955166B2 (en) Method and device for processing video signal
EP3024241A1 (en) Method and apparatus for processing video signal
US9781442B2 (en) Method and apparatus for processing video signal
KR101753592B1 (ko) 비디오 신호 처리 방법 및 장치
KR20150095679A (ko) 비디오 신호 처리 방법 및 장치
US20160050438A1 (en) Video signal processing method and device
KR102300036B1 (ko) 비디오 신호 처리 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant