KR20120093243A - 3d 비디오에서 추가 뷰들을 생성하기 위한 뷰포인트들을 선택하는 방법 - Google Patents

3d 비디오에서 추가 뷰들을 생성하기 위한 뷰포인트들을 선택하는 방법 Download PDF

Info

Publication number
KR20120093243A
KR20120093243A KR1020127011133A KR20127011133A KR20120093243A KR 20120093243 A KR20120093243 A KR 20120093243A KR 1020127011133 A KR1020127011133 A KR 1020127011133A KR 20127011133 A KR20127011133 A KR 20127011133A KR 20120093243 A KR20120093243 A KR 20120093243A
Authority
KR
South Korea
Prior art keywords
viewpoint
video data
data signal
rendering
image
Prior art date
Application number
KR1020127011133A
Other languages
English (en)
Other versions
KR101727094B1 (ko
Inventor
후네비크 레이니르 베르나르두스 마리아 클레인
윌헬머스 헨드리쿠스 알폰수스 브룰스
패트릭 루크 이. 판데발레
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20120093243A publication Critical patent/KR20120093243A/ko
Application granted granted Critical
Publication of KR101727094B1 publication Critical patent/KR101727094B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

비디오 데이터 신호(15)를 인코딩하는 방법이 제공되며, 이 방법은 제 1 뷰포인트로부터 보이는 장면(100)의 적어도 제 1 이미지를 제공하는 단계(21), 렌더링 뷰포인트로부터 보이는 장면(100)의 적어도 하나의 렌더링된 이미지의 생성을 가능하게 하기 위한 렌더링 정보를 제공하는 단계(22), 제 1 뷰포인트에 대한 렌더링 뷰포인트의 양호한 배향(preferred orientation)을 규정하는 양호한 방향 표시자를 제공하는 단계(23), 및 제 1 이미지, 렌더링 정보 및 양호한 방향 표시자를 표현하는 인코딩된 데이터를 포함하는 비디오 데이터 신호(15)를 생성하는 단계(24)를 포함한다.

Description

3D 비디오에서 추가 뷰들을 생성하기 위한 뷰포인트들을 선택하는 방법{SELECTING VIEWPOINTS FOR GENERATING ADDITIONAL VIEWS IN 3D VIDEO}
본 발명은, 제 1 뷰포인트로부터 보이는 장면의 적어도 제 1 이미지를 제공하는 단계, 렌더링 뷰포인트로부터 보이는 장면의 적어도 하나의 렌더링된 이미지의 생성을 가능하게 하기 위한 렌더링 정보를 제공하는 단계, 및 제 1 이미지 및 렌더링 정보를 표현하는 인코딩된 데이터를 포함하는 비디오 데이터 신호를 생성하는 단계를 포함하는 비디오 데이터 신호를 인코딩하는 방법에 관한 것이다.
본 발명은 또한, 비디오 데이터 신호를 디코딩하는 방법, 인코더, 디코더, 비디오 데이터 신호 및 디지털 데이터 캐리어를 인코딩 또는 디코딩하기 위한 컴퓨터 프로그램 제품들에 관한 것이다.
3차원(3D) 비디오의 신종 분야에서, 3차원을 비디오 데이터 신호로 인코딩하기 위한 다양한 방법들이 존재한다. 일반적으로, 이것은 뷰어의 눈에 시청되는 장면의 상이한 뷰들을 제공함으로써 행해진다. 3D 비디오를 표현하기 위한 인기있는 방식은 하나 이상의 2차원(2D) 이미지들에 3차원의 정보를 제공하는 심도 표현(depth representation)을 더한 것을 이용하는 것이다. 이 방식은 또한 2D 이미지들이, 3D 비디오 신호에 포함되는 2D 이미지들과는 상이한 뷰포인트들 및 시야각들을 가지고 생성되도록 허용한다. 이러한 방식은 추가 뷰들이 비교적 낮은 복잡도로 생성되도록 허용하는 단계 및 효율적인 데이터 표현을 제공하는 단계를 포함하고, 그에 의해 예를 들면 3D 비디오 신호들에 대한 저장 및 통신 리소스 요건들을 감소시키는 다수의 이점들을 제공한다. 바람직하게, 비디오 데이터는 이용 가능한 뷰포인트들로부터 보이는 것이 아니라, 약간 상이한 뷰포인트로부터 보이게 되는 데이터로 연장된다. 이 데이터는 오클루젼(occlusion) 또는 배경 데이터라고 칭해진다. 실제로, 오클루젼 데이터는 상이한 뷰포인트들에서 다수의 카메라들로 장면을 캡처함으로써 획득되는 멀티뷰 데이터로부터 생성된다.
새롭게 생성된 뷰들에서의 디-오클루딩된 오브젝트들을 재구성하기 위한 데이터의 가용성이 프레임마다 상이할 수 있거나 심지어 프레임 내에서도 상이할 수 있다는 점이 상술된 방식들의 문제이다. 결과적으로, 상이한 뷰포인트들에 대해 생성된 이미지들의 품질이 가변할 수 있다.
본 발명의 목적은 개시부에 기술된 비디오 데이터 신호를 인코딩하는 방법을 제공하는 것이고, 이 방법은 상이한 뷰포인트들을 가지고 더 높은 품질의 이미지들을 생성하는 것을 가능하게 한다.
본 발명의 제 1 양태에 따라, 이 목적은, 제 1 뷰포인트로부터 보이는 장면의 적어도 제 1 이미지를 제공하는 단계, 렌더링 뷰포인트로부터 보이는 장면의 적어도 하나의 렌더링된 이미지의 생성을 가능하게 하기 위한 렌더링 정보를 제공하는 단계, 제 1 뷰포인트에 대한 렌더링 뷰포인트의 양호한 배향(preferred orientation)을 규정하는 양호한 방향 표시자를 제공하는 단계, 및 제 1 이미지, 렌더링 정보 및 양호한 방향 표시자를 표현하는 인코딩된 데이터를 포함하는 비디오 데이터 신호를 생성하는 단계를 포함하는, 비디오 데이터 신호를 인코딩하는 방법을 제공함으로써 달성된다.
상기에 설명된 바와 같이, 상이한 뷰잉 포인트들로부터 생성되는 이미지들의 품질은 디-오클루딩된 오브젝트들의 재구성에 필요한 데이터의 가용성에 관련된다. 데이터가 뷰포인트를 좌측으로 이동하는데 이용가능할 뿐 뷰 포인트를 우측으로 이동하는데는 이용 가능하지 않은 상황을 고려한다. 결과적으로, 뷰포인트를 좌측으로 이동하는 것은 뷰포인트를 우측으로 이동하는 것과는 상이한 품질을 가진 생성 이미지를 유발할 수 있다.
품질의 유사한 차이는 불충분한 디-오클루젼 정보 또는 오클루젼 없는 정보가 디-오클루딩된 영역들에 채우기에 이용 가능할 때 발생할 수 있다. 이러한 경우, 디-오클루딩된 영역들은 소위 홀-채움 알고리즘들(hole-filling algorithms)을 이용하여 채워질 수 있다. 일반적으로, 이러한 알고리즘들은 디-오클루딩된 영역의 직접적인 주변에서 정보를 보간한다. 결과적으로, 뷰포인트를 좌측으로 이동하는 것은 뷰포인트를 우측으로 이동하는 것과는 상이한 품질을 가진 생성 이미지를 유발할 수 있다.
이러한 품질 차이들은 요구된 데이터의 가용성에 의할 뿐만 아니라 뷰포인트를 이동할 때 디-오클루딩되는 표면적의 크기 및 속성에 의해서도 영향을 받는다. 결과적으로, 3D 비디오 또는 이미지의 품질은 새롭게 선택된 뷰포인트에 따라 가변할 수 있다. 이것은, 예를 들면, 이미 이용 가능한 제 1 이미지의 뷰포인트를 좌측 또는 우측에서 새로운 뷰가 생성되는지가 중요할 수 있다.
본 발명에 따라, 솔루션은 양호한 방향 표시자를 생성하고 비디오 신호에 이를 포함하는 것이다. 양호한 방향 표시자는 비디오 신호에 이미 포함된 이미지의 오리지널 뷰포인트에 대해 추가 뷰를 위해 렌더링 뷰포인트의 양호한 배향을 규정한다. 비디오 신호가 디코딩될 때, 양호한 방향 표시자는 렌더링 뷰포인트를 선택하고 선택된 뷰포인트로부터 장면의 렌더링된 이미지를 생성하기 위해 이용될 수 있다.
비디오 데이터 신호는 모든 프레임, 프레임들의 모든 그룹, 모든 장면 또는 심지어 전체 비디오 시퀀스에 대해서도 양호한 방향 표시자를 포함할 수 있다. 더 거친 입도(coarser granularity)에 기초하기보다는 프레임마다 기초하여 이러한 정보를 인코딩하는 것은 랜덤 액세스를 가능하게 한다; 예를 들면, 트릭 플레이를 지원하기 위해. 흔히 양호한 렌더링 표시자가 다양한 프레임들에 대해 일정하고 인코딩된 비디오 신호의 크기가 통상적으로 적절함에 따라, 이중 표시자들의 양은 프레임의 그룹에 기초하여 정보를 대신 인코딩함으로써 감소될 수 있다. 훨씬 더 효율적인 인코딩은 양호하게 렌더링의 양호한 방향이 장면 전반에 걸쳐 동일하게 유지될 때 장면마다 기초하여 양호한 방향을 인코딩하는 것이고, 그에 의해 장면 내에서의 연속성을 보장한다.
선택적으로, 인코딩된 신호의 크기가 덜 중요할 때, 표시자들이 서로에 따라 설정되는 한, 정보는 프레임, 프레임의 그룹 및 비슷한 장면 레벨에 대해 인코딩될 수 있다.
렌더링 뷰포인트의 선택의 변경들이 렌더링에서 컨텐트의 지각된 연속성에 영향을 미칠 수 있으므로, 양호한 방향 표시자가 여러 프레임들에 대해 일정하게 유지되는 것이 바람직하다. 그것은 예를 들면, 프레임들의 그룹 전반에 걸쳐 또는 대안적으로 장면 전반에 걸쳐 일정하게 유지될 수 있다. 양호한 방향 표시자가 여러 프레임들에 대해 일정하게 유지될 때에도, 또한 랜덤 액세스를 용이하게 하는 것을 필수로 하는 것보다 작은 입도에 대해 일정한 양호한 방향 표시자를 인코딩하는 것이 유리할 수 있음을 유념한다.
양호한 배향은 좌측, 우측, 상측, 하측 또는 이들 방향들의 임의의 조합일 수 있다. 배향 외에도, 양호한 거리 또는 양호한 최대 거리가 양호한 방향 표시와 함께 제공될 수 있다. 제 1 이미지에서 오클루딩된 오브젝트들 및/또는 오브젝트들의 심도값들에 관한 충분한 정보가 이용 가능한 경우, 오리지널 뷰포인트로부터 멀리 떨어질 수 있는 뷰포인트들로부터 다수의 고품질의 추가 뷰들을 생성하는 것이 가능할 수 있다.
렌더링 정보는 예를 들면, 제 1 이미지에서 전경 오브젝트들에 의해 오클루딩되는 배경 오브젝트들을 표현하는 오클루젼 데이터, 제 1 이미지에서의 오브젝트들의 심도값들을 제공하는 심도 맵 또는 이들 오브젝트들에 대한 투명도 데이터를 포함할 수 있다.
양호한 방향 표시자는 어떤 가능한 렌더링 뷰포인트에서 최상의 렌더링 정보가 이용 가능한지를 표시한다. 적층된 심도 이미지들의 렌더링에 관한 더 많은 정보에 대해, 예를 들면 국제 출원 제WO2007/063477호를 참조하며, 이것은 본 명세서에 참조로서 포함된다. 적층된 심도 이미지들을 렌더링할 때 디-오클루딩된 영역들을 채우는데 이용하기 위한 홀 채움 알고리즘들에 관한 더 많은 정보에 대해, 예를 들면 제WO2007/099465호를 참조하며, 이것은 본 명세서에 참조로서 포함된다.
본 발명의 다른 양태에 따라, 비디오 데이터 신호를 디코딩하는 방법이 제공되며, 비디오 데이터 신호는 제 1 뷰포인트로부터 보이는 장면의 제 1 이미지, 렌더링 뷰포인트로부터 보이는 장면의 적어도 하나의 렌더링된 이미지의 생성을 가능하게 하기 위한 렌더링 정보, 및 제 1 뷰포인트에 대한 렌더링 뷰포인트의 양호한 배향을 규정하는 양호한 방향 표시자를 표현하는 인코딩된 데이터를 포함한다. 디코딩 방법은 비디오 데이터 신호를 수신하는 단계, 양호한 방향 표시자에 의존하여, 렌더링 뷰포인트를 선택하는 단계, 및 선택된 렌더링 뷰포인트에서 보이는 장면의 렌더링된 이미지를 생성하는 단계를 포함한다.
본 발명의 이들 및 다른 양태들은 이후 기술되는 실시예들로부터 및 이들을 참조하여 명확해질 것이다.
본 발명에 의하면, 상이한 뷰포인트들을 가지고 더 높은 품질의 이미지들을 생성할 수 있다.
도 1은 본 발명에 따른 비디오 데이터를 인코딩하기 위한 시스템의 블록도.
도 2는 본 발명에 따른 인코딩 방법의 흐름도.
도 3은 본 발명에 따른 비디오 데이터를 디코딩하기 위한 시스템의 블록도.
도 4는 본 발명에 따른 디코딩 방법의 흐름도.
도 1은 본 발명에 따른 비디오 데이터를 인코딩하기 위한 시스템의 블록도를 도시한다. 시스템은 2개의 디지털 비디오 카메라들(11, 12)과 인코더(10)를 포함한다. 제 1 카메라(11) 및 제 2 카메라(12)는 약간 상이한 위치에서 및 따라서 또한 약간 상이한 각도에서 동일한 장면(100)을 기록한다. 두 비디오 카메라들(11, 12)로부터 기록된 디지털 비디오 신호들은 인코더(10)에 전송된다. 인코더는 예를 들면 전용 인코딩 박스, 컴퓨터에서의 비디오 카드, 또는 범용 마이크로프로세서에 의해 실행될 소프트웨어 구현 기능의 부분일 수 있다. 대안적으로, 비디오 카메라(11, 12)는 아날로그 비디오 카메라들이고, 아날로그 비디오 신호들은 이들이 인코더(10)에 대한 입력으로서 제공되기 전에 디지털 비디오 신호들로 변환된다. 비디오 카메라들이 인코더(10)에 결합되는 경우, 인코딩은 장면(100)의 기록 중에 발생할 수 있다. 또한, 먼저 장면(100)을 기록하고 나중에 기록된 비디오 데이터를 인코더(10)에 제공하는 것도 또한 가능하다.
인코더(10)는 비디오 카메라들(11, 12)로부터 디지털 비디오 데이터를 직접 또는 간접적으로 수신하고, 두 디지털 비디오 신호들을 하나의 3D 비디오 신호(15)로 조합한다. 두 비디오 카메라들(11, 12)이 하나의 3D 비디오 카메라로 조합될 수 있음을 유념한다. 또한, 2개보다 많은 뷰포인트들로부터 장면(100)을 캡처하기 위해 2개보다 많은 비디오 카메라들을 이용하는 것도 가능하다.
도 2는 본 발명에 따른 인코딩 방법의 흐름도를 도시한다. 이 인코딩 방법은 도 1의 시스템의 인코더(10)에 의해 수행될 수 있다. 인코딩 방법은 카메라들(11, 12)로부터 기록된 디지털 비디오 데이터를 이용하고 본 발명에 따라 비디오 데이터 신호(15)를 제공한다. 베이스 이미지 제공 단계(21)에서, 장면의 적어도 제 1 이미지가 비디오 데이터 신호(15)에 포함하기 위해 제공된다. 이 베이스 이미지는 2개의 카메라들(11, 12) 중 하나로부터 나오는 표준 2D 비디오 데이터일 수 있다. 인코더(10)는 또한 2개의 베이스 이미지들을 이용할 수 있다; 제 1 카메라(11)로부터의 베이스 이미지 및 제 2 카메라(12)로부터의 베이스 이미지. 베이스 이미지들로부터, 기록된 비디오의 각각의 프레임에서 모든 픽셀들의 컬러값들이 도출될 수 있다. 베이스 이미지들은 특정 뷰포인트에서 보이는 특정 시간 순간의 장면을 표현한다. 다음에서, 이 특정 뷰포인트는 베이스 뷰포인트라고 칭해질 것이다.
3D 인에이블링 단계(22)에서, 비디오 카메라들(11, 12)로부터 들어오는 비디오 데이터는 베이스 이미지에 정보를 추가하기 위해 이용된다. 이 추가된 정보는 디코더가 상이한 뷰포인트로부터의 동일한 장면의 렌더링 이미지를 생성할 수 있게 해야 한다. 다음에서, 이 추가된 정보는 렌더링 정보라고 칭해진다. 렌더링 정보는 예를 들면, 베이스 이미지에서 오브젝트들의 심도 정보 또는 투명도 값들을 포함할 수 있다. 렌더링 정보는 또한 베이스 이미지에서 보이는 오브젝트들에 의해 베이스 뷰포인트로부터 보이는 것이 차단되는 오브젝트들을 기술할 수 있다. 인코더는 기록된 정규 비디오 데이터로부터 이 렌더링 정보를 도출하기 위한 알려진, 바람직하게는 표준화된 방법들을 이용한다.
방향 표시 단계(23)에서, 인코더(10)는 또한 렌더링 정보에 양호한 방향 표시자를 추가한다. 양호한 방향 표시자는 베이스 뷰포인트에 대한 추가 뷰에 대해 렌더링 뷰포인트의 양호한 배향을 규정한다. 나중에 비디오 신호가 디코딩될 때, 양호한 방향 표시자는, 렌더링 뷰포인트를 선택하고 선택된 뷰포인트로부터 장면(100)의 렌더링된 이미지를 생성하기 위해 이용될 수 있다. 상술된 바와 같이, 3D 비디오 또는 이미지의 품질은 새롭게 선택된 뷰포인트에 따라 가변할 수 있다. 이것은, 예를 들면, 이미 이용 가능한 제 1 이미지의 뷰포인트의 좌측에 또는 우측에 새로운 뷰가 생성되는지가 중요하다. 렌더링 정보에 추가되는 양호한 방향 표시자는 예를 들면 좌측 또는 우측 방향을 표시하는 단일 비트일 수 있다. 더욱 개선된 양호한 방향 표시자는 또한 베이스 뷰포인트에 대한 새로운 뷰포인트의 상측 또는 하측 방향 및/또는 양호한 또는 최대 거리를 표시할 수 있다.
대안적으로, 양호한 방향 표시자는 제 1 뷰포인트에 대한 다수의 렌더링 뷰포인트들의 양호한 배향 및/또는 거리를 제공할 수 있다. 예를 들면, 제 1 뷰포인트의 동일측에서 2개의 렌더링 뷰포인트들 또는 각측에서 하나를 생성하는 것이 바람직할 수 있다. 제 1 뷰포인트에 대한 렌더링 뷰포인트(들)의 양호한 위치(들)는 2개의 포인트들 사이의 거리에 의존할 수 있다. 예를 들면, 두 뷰포인트들이 서로 가까울 때 제 1 뷰포인트의 좌측에서의 뷰포인트로부터 이미지를 렌더링하는 것이 더 양호할 수 있고; 제 1 뷰포인트의 좌측에 대한 두 뷰포인트들 사이의 더 큰 거리들에 대해 렌더링 뷰포인트를 생성하기가 더욱 적합할 수 있다.
특정 방향이 더욱 유리한 것에 대한 판단은 자동으로 결정될 수 있다; 예를 들면, 이미지, 심도 및 오클루젼 표현을 이용하여 적층된 심도 이미지로서 스테레오 쌍을 인코딩할 때, 적층된 심도 이미지의 이미지로서 좌측 또는 우측 이미지를 이용하고, 이에 기초하여 다른 이미지를 재구성하는 것이 가능하다. 후속적으로, 두 대안들에 대한 차이 매트릭이 계산될 수 있고, 양호한 인코딩 및 방향이 그에 기초하여 결정될 수 있다.
바람직하게, 차이들은 인간의 시각적 지각 시스템의 모델에 기초하여 가중된다. 대안적으로, 특히 전문적인 설정 내에서 양호한 방향은 사용자-상호작용에 기초하여 선택될 수 있다.
신호 생성 단계(24)에서, 이전 단계들(21, 22, 23)에서 제공된 정보는 본 발명에 따라 비디오 데이터 신호(15)를 생성하기 위해 이용된다. 비디오 데이터 신호(15)는 적어도 제 1 이미지, 렌더링 정보 및 양호한 방향 표시자를 표현한다. 양호한 방향 표시자는 각각의 프레임에 대해, 프레임들의 그룹에 대해, 또는 전체 장면, 또는 전체 비디오에 대해 제공될 수 있다. 장면 동안 렌더링 뷰포인트의 위치를 변경하는 것은 지각된 3D 이미지 품질에 악영향을 미칠 수 있지만, 한편, 상이한 방향들에 대한 렌더링 정보의 가용성이 상당히 변경되는 경우에는 필수적일 수 있다.
도 3은 본 발명에 따른 비디오 데이터를 디코딩하기 위한 시스템의 블록도를 도시한다. 시스템은 비디오 데이터 신호(15)를 수신하고 비디오 데이터 신호(15)를 디스플레이(31)에 의해 디스플레이되기 적합한 디스플레이 신호로 변환하기 위한 디코더(30)를 포함한다. 비디오 데이터 신호(15)는 예를 들면 케이블 또는 위성 전송을 통해 브로드캐스팅된 신호의 일부로서 디코더(30)에 도달할 수 있다. 비디오 데이터 신호(15)는 또한, 예를 들면 인터넷을 통한 또는 주문형 비디오 서비스를 통한 요청시 제공될 수 있다. 대안적으로, 비디오 데이터 신호(15)는 DVD 또는 블루-레이 디스크와 같이 디지털 데이터 캐리어 상에 제공된다.
디스플레이(31)는 도 1의 시스템의 인코더(10)에 의해 캡처 및 인코딩된 장면(100)의 3D 표시를 제공할 수 있다. 디스플레이(31)는 디코더(30)를 포함할 수 있거나 또는 디코더(30)에 결합될 수 있다. 예를 들면, 디코더(30)는 하나 이상의 정규 텔레비전 또는 컴퓨터 디스플레이들에 결합되는 3D 비디오 수신기의 일부일 수 있다. 바람직하게, 디스플레이는 뷰어의 상이한 눈들에 상이한 뷰들을 제공할 수 있는 전용 3D 디스플레이(31)이다.
도 4는 도 3의 디코더(30)에 의해 수행될 수 있는 디코딩 방법의 흐름도를 도시한다. 비디오 데이터 수신 단계(41)에서, 인코더(10)에 의해 인코딩된 비디오 데이터 신호(15)는 디코더(30)의 입력에서 수신된다. 수신된 비디오 데이터 신호(15)는 장면(100)의 적어도 제 1 이미지, 렌더링 정보 및 양호한 방향 표시자를 표현하는 인코딩된 데이터를 포함한다.
또한 뷰포인트 선택 단계(42)에서, 양호한 방향 표시자는 각각의 추가 뷰에 대한 적어도 하나의 추가 뷰포인트를 선택하기 위해 이용된다. 추가 뷰 렌더링 단계(43)에서, 선택된 뷰포인트 또는 뷰포인트들로부터의 하나 이상의 추가 뷰들이 생성된다. 디스플레이 단계(44)에서, 상이한 뷰포인트들로부터의 2개 이상의 뷰들은 그 후에 3D의 장면(100)을 보여주기 위한 디스플레이(31)에 제공될 수 있다.
본 발명은 또한 본 발명을 실행하도록 적응된 컴퓨터 프로그램들, 특히 캐리어 상의 또는 내의 컴퓨터 프로그램들로 확장될 수 있음을 알 것이다. 프로그램은 부분적으로 컴파일된 형태, 또는 본 발명에 따른 방법의 구현에 이용하기에 적합한 임의의 다른 형태와 같이, 소스 코드, 오브젝트 코드, 코드 중간 소스 및 오브젝트 코드의 형태일 수 있다. 이러한 프로그램은 많은 상이한 아키텍처 설계들을 가질 수 있음을 또한 알 것이다. 예를 들면, 본 발명에 따른 방법 또는 시스템의 기능을 구현하는 프로그램 코드가 하나 이상의 서브루틴들로 세분될 수 있다. 이들 서브루틴들 사이에 기능을 분배하기 위한 많은 상이한 방식들은 통상의 기술자에게 명백할 것이다. 서브루틴들은 자체-포함된 프로그램을 형성하기 위해 하나의 실행 가능한 파일로 함께 저장될 수 있다. 이러한 실행 가능한 파일은 컴퓨터 실행 가능한 명령들, 예를 들면 처리기 명령들 및/또는 해석기 명령들(예를 들면, 자바 해석기 명령들)을 포함할 수 있다. 대안적으로, 서브루틴들의 하나 이상 또는 전부는 적어도 하나의 외부 라이브러리 파일에 저장될 수 있고 예를 들면 실행-시간에 정적으로 또는 동적으로 주 프로그램과 링크될 수 있다. 주 프로그램은 서브루틴들 중 적어도 하나에 대한 적어도 하나의 호출을 포함한다. 또한, 서브루틴들은 서로에 대한 함수 호출들을 포함할 수 있다. 컴퓨터 프로그램 제품에 관한 실시예는 기재된 방법들 중 적어도 하나의 처리 단계들의 각각에 대응하는 컴퓨터 실행 가능한 명령들을 포함한다. 이들 명령들은 서브루틴들로 세분될 수 있고 및/또는 정적 또는 동적으로 링크될 수 있는 하나 이상의 파일들에 저장될 수 있다. 컴퓨터 프로그램 제품에 관한 다른 실시예는 기재된 시스템들 및/또는 제품들 중 적어도 하나의 수단의 각각에 대응하는 컴퓨터 실행 가능한 명령들을 포함한다. 이들 명령들은 서브루틴들로 세분될 수 있고 및/또는 정적 또는 동적으로 링크될 수 있는 하나 이상의 파일들에 저장될 수 있다.
컴퓨터 프로그램의 캐리어는 프로그램을 실행할 수 있는 엔티티 또는 디바이스일 수 있다. 예를 들면, 캐리어는, 예를 들면 CD ROM 또는 반도체 ROM인 ROM 또는 예를 들면 플로피 디스크 또는 하드 디스크인 자기 기록 매체와 같은 저장 매체를 포함할 수 있다. 또한, 캐리어는, 전기 또는 광 케이블을 통해 또는 무선 또는 다른 수단에 의해 전달될 수 있는 전기 또는 광 신호와 같은 전송 가능한 캐리어일 수 있다. 프로그램이 이러한 신호로 구현될 때, 캐리어는 이러한 케이블 또는 다른 디바이스나 수단에 의해 구성될 수 있다. 대안적으로, 캐리어는 프로그램이 임베딩된 집적 회로일 수 있고, 집적 회로는 관련 방법을 수행하도록, 또는 관련 방법의 수행에 이용하도록 구성된다.
상술된 실시예들은 본 발명을 제한하기보다는 예시하기 위한 것이고, 본 기술분야의 통상의 기술자는 첨부된 특허청구범위의 범위를 벗어나지 않고 많은 대안적인 실시예들을 설계할 수 있을 것임을 유념한다. 특허청구범위에서, 괄호 속에 있는 임의의 참조 부호들은 특허청구범위를 제한하는 것으로 해석되어서는 안된다. 동사 "포함한다(comprise)" 및 그 파생어들은 특허청구범위에 기재된 요소들 또는 단계들 이외의 요소들 또는 단계들의 존재를 배제하지 않는다. 요소 앞의 부정관사는 이러한 요소의 복수의 존재를 배제하지 않는다. 본 발명은 여러 개별 요소들을 포함하는 하드웨어에 의해, 적합하게 프로그래밍된 컴퓨터에 의해 구현될 수 있다. 여러 수단을 나열하는 장치 청구항에서, 이들 수단들 중 여러 개는 하나 및 동일 항목의 하드웨어로 구현될 수 있다. 특정 방법들이 상이한 종속 청구항들에 상호 인용된 사실만으로 이들 방법들의 조합이 유리하게 이용될 수 없다는 것을 나타내지 않는다.
10; 인코더 11, 12: 디지털 비디오 카메라
30 : 디코더

Claims (15)

  1. 비디오 데이터 신호(15)를 인코딩하는 방법에 있어서:
    제 1 뷰포인트로부터 보이는 장면(100)의 적어도 제 1 이미지를 제공하는 단계(21),
    렌더링 뷰포인트로부터 보이는 장면(100)의 적어도 하나의 렌더링된 이미지의 생성을 가능하게 하기 위한 렌더링 정보를 제공하는 단계(22),
    상기 제 1 뷰포인트에 대한 상기 렌더링 뷰포인트의 양호한 배향(preferred orientation)을 규정하는 양호한 방향 표시자를 제공하는 단계(23), 및
    상기 제 1 이미지, 상기 렌더링 정보 및 상기 양호한 방향 표시자를 표현하는 인코딩된 데이터를 포함하는 상기 비디오 데이터 신호(15)를 생성하는 단계(24)를 포함하는, 비디오 데이터 신호(15)를 인코딩하는 방법.
  2. 제 1 항에 있어서,
    상기 양호한 방향 표시자는 상기 제 1 뷰포인트에 대한 상기 렌더링 뷰포인트의 상기 양호한 배향이 상기 제 1 뷰포인트의 좌측 또는 우측인지를 규정하기 위한 단일 비트를 포함하는, 비디오 데이터 신호(15)를 인코딩하는 방법.
  3. 제 1 항에 있어서,
    상기 양호한 방향 표시자는:
    양호한 방향 표시자가 모든 프레임에 대해 인코딩되는 옵션;
    양호한 방향 표시자가 모든 프레임들의 그룹에 대해 인코딩되는 옵션;
    양호한 방향 표시자가 모든 장면에 대해 인코딩되는 옵션 중 적어도 하나를 이용하여 상기 비디오 데이터 신호(15)로 인코딩되는, 비디오 데이터 신호(15)를 인코딩하는 방법.
  4. 제 3 항에 있어서,
    상기 양호한 방향 표시자의 값은:
    프레임들의 그룹, 및
    장면 중 하나에 대해 일정한, 비디오 데이터 신호(15)를 인코딩하는 방법.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 양호한 배향은 상기 제 1 뷰포인트와 상기 렌더링 뷰포인트 사이의 거리에 의존하는, 비디오 데이터 신호(15)를 인코딩하는 방법.
  6. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 렌더링 정보는 상기 제 1 이미지에서 픽셀들에 대한 심도 표시값들(depth indication values)을 포함하는, 비디오 데이터 신호(15)를 인코딩하는 방법.
  7. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 렌더링 정보는 상기 제 1 이미지에서의 픽셀들에 대한 알파값들을 포함하고, 상기 알파값들은 상기 각각의 픽셀들의 투명도를 나타내는, 비디오 데이터 신호(15)를 인코딩하는 방법.
  8. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 렌더링 정보는 상기 제 1 뷰포인트로부터 오클루딩되는 데이터를 표현하는 오클루젼 데이터(occlusion data)를 포함하는, 비디오 데이터 신호(15)를 인코딩하는 방법.
  9. 비디오 데이터 신호(15)를 디코딩하는 방법으로서, 상기 비디오 데이터 신호(15)는 제 1 뷰포인트로부터 보이는 장면(100)의 제 1 이미지, 렌더링 뷰포인트로부터 보이는 장면(100)의 적어도 하나의 렌더링된 이미지의 생성을 가능하게 하기 위한 렌더링 정보, 및 상기 제 1 뷰포인트에 대한 상기 렌더링 뷰포인트의 양호한 배향을 규정하는 양호한 방향 표시자를 표현하는 인코딩된 데이터를 포함하는, 상기 비디오 데이터 신호(15)를 디코딩하는 방법에 있어서:
    상기 비디오 데이터 신호를 수신하는 단계(41),
    상기 양호한 방향 표시자에 의존하여, 상기 렌더링 뷰포인트를 선택하는 단계(42), 및
    상기 선택된 렌더링 뷰포인트에서 보이는 상기 장면(100)의 상기 렌더링된 이미지를 생성하는 단계(43)를 포함하는, 비디오 데이터 신호(15)를 디코딩하는 방법.
  10. 비디오 데이터 신호(15)를 인코딩하기 위한 인코더(10)에 있어서:
    제 1 뷰포인트로부터 보이는 장면(100)의 적어도 제 1 이미지, 렌더링 뷰포인트로부터 보이는 장면(100)의 렌더링된 이미지의 생성을 가능하게 하기 위한 렌더링 정보, 및 상기 제 1 뷰포인트에 대한 상기 렌더링 뷰포인트의 양호한 배향을 규정하는 양호한 방향 표시자를 제공하기 위한 제공 수단,
    상기 제 1 이미지, 상기 렌더링 정보 및 상기 양호한 방향 표시자를 표현하는 인코딩된 데이터를 포함하는 상기 비디오 데이터 신호(15)를 생성하기 위한 수단, 및
    상기 비디오 데이터 신호(15)를 제공하기 위한 출력을 포함하는, 비디오 데이터 신호(15)를 인코딩하기 위한 인코더(10).
  11. 비디오 데이터 신호(15)를 디코딩하기 위한 디코더(30)에 있어서:
    비디오 데이터 신호(15)를 수신하기 위한 입력으로서, 상기 비디오 데이터 신호(15)는 제 1 뷰포인트로부터 보이는 장면(100)의 제 1 이미지, 렌더링 뷰포인트로부터 보이는 장면(100)의 렌더링된 이미지의 생성을 가능하게 하기 위한 렌더링 정보, 및 상기 제 1 뷰포인트에 대한 상기 렌더링 뷰포인트의 양호한 배향을 규정하는 양호한 방향 표시자를 표현하는 인코딩된 데이터를 포함하는, 상기 입력,
    상기 양호한 방향 표시자에 의존하여, 상기 렌더링 뷰포인트를 선택하기 위한 수단,
    상기 선택된 렌더링 뷰포인트에서 보이는 상기 장면(100)의 상기 렌더링된 이미지를 생성하기 위한 수단, 및
    상기 렌더링된 이미지를 제공하기 위한 출력을 포함하는, 비디오 데이터 신호(15)를 디코딩하기 위한 디코더(30).
  12. 비디오 데이터 신호를 인코딩하기 위한 컴퓨터 프로그램 제품으로서, 프로그램이 처리기로 하여금 제 1 항에 청구된 방법을 수행하게 하도록 동작하는, 컴퓨터 프로그램 제품.
  13. 비디오 데이터 신호를 디코딩하기 위한 컴퓨터 프로그램 제품으로서, 프로그램이 처리기로 하여금 제 9 항에 청구된 방법을 수행하게 하도록 동작하는, 컴퓨터 프로그램 제품.
  14. 인코딩된 데이터를 포함하는 비디오 데이터 신호(15)에 있어서,
    상기 인코딩된 데이터는:
    제 1 뷰포인트로부터 보이는 장면(100)의 적어도 제 1 이미지,
    렌더링 뷰포인트로부터 보이는 장면(100)의 렌더링된 이미지의 생성을 가능하게 하기 위한 렌더링 정보, 및
    상기 제 1 뷰포인트에 대한 상기 렌더링 뷰포인트의 양호한 배향을 규정하는 양호한 방향 표시자를 표현하는, 비디오 데이터 신호(15).
  15. 제 14 항에 청구된 비디오 데이터 신호(15)가 인코딩된, 디지털 데이터 캐리어.
KR1020127011133A 2009-10-02 2010-09-21 3d 비디오에서 추가 뷰들을 생성하기 위한 뷰포인트들을 선택하는 방법 KR101727094B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP09172096 2009-10-02
EP09172096.1 2009-10-02
PCT/IB2010/054251 WO2011039679A1 (en) 2009-10-02 2010-09-21 Selecting viewpoints for generating additional views in 3d video

Publications (2)

Publication Number Publication Date
KR20120093243A true KR20120093243A (ko) 2012-08-22
KR101727094B1 KR101727094B1 (ko) 2017-04-17

Family

ID=43129795

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127011133A KR101727094B1 (ko) 2009-10-02 2010-09-21 3d 비디오에서 추가 뷰들을 생성하기 위한 뷰포인트들을 선택하는 방법

Country Status (8)

Country Link
US (1) US9167226B2 (ko)
EP (1) EP2483750B1 (ko)
JP (1) JP5859441B2 (ko)
KR (1) KR101727094B1 (ko)
CN (1) CN102549507B (ko)
BR (1) BR112012007115A2 (ko)
RU (1) RU2551789C2 (ko)
WO (1) WO2011039679A1 (ko)

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2438783B8 (en) * 2005-03-16 2011-12-28 Lucasfilm Entertainment Co Ltd Three-dimensional motion capture
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
EP4336447A1 (en) 2008-05-20 2024-03-13 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011143501A1 (en) 2010-05-12 2011-11-17 Pelican Imaging Corporation Architectures for imager arrays and array cameras
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
WO2012155119A1 (en) 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
US8542933B2 (en) 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
KR20150023907A (ko) 2012-06-28 2015-03-05 펠리칸 이매징 코포레이션 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
EP2888720B1 (en) 2012-08-21 2021-03-17 FotoNation Limited System and method for depth estimation from images captured using array cameras
EP2888698A4 (en) 2012-08-23 2016-06-29 Pelican Imaging Corp PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE
CZ308335B6 (cs) * 2012-08-29 2020-05-27 Awe Spol. S R.O. Způsob popisu bodů předmětů předmětového prostoru a zapojení k jeho provádění
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
CN104335579B (zh) * 2013-02-06 2017-11-14 皇家飞利浦有限公司 对供多视图立体显示设备所用的视频数据信号进行编码的方法
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9253380B2 (en) 2013-02-24 2016-02-02 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
WO2014145722A2 (en) * 2013-03-15 2014-09-18 Digimarc Corporation Cooperative photography
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
ITRM20130244A1 (it) * 2013-04-23 2014-10-25 MAIOR Srl Metodo per la riproduzione di un film
WO2014181220A1 (en) 2013-05-10 2014-11-13 Koninklijke Philips N.V. Method of encoding a video data signal for use with a multi-view rendering device
WO2015048694A2 (en) * 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
US9264592B2 (en) 2013-11-07 2016-02-16 Pelican Imaging Corporation Array camera modules incorporating independently aligned lens stacks
US9578074B2 (en) 2013-11-11 2017-02-21 Amazon Technologies, Inc. Adaptive content transmission
US9374552B2 (en) * 2013-11-11 2016-06-21 Amazon Technologies, Inc. Streaming game server video recorder
US9582904B2 (en) 2013-11-11 2017-02-28 Amazon Technologies, Inc. Image composition based on remote object data
US9805479B2 (en) 2013-11-11 2017-10-31 Amazon Technologies, Inc. Session idle optimization for streaming server
US9634942B2 (en) 2013-11-11 2017-04-25 Amazon Technologies, Inc. Adaptive scene complexity based on service quality
US9641592B2 (en) 2013-11-11 2017-05-02 Amazon Technologies, Inc. Location of actor resources
US9604139B2 (en) 2013-11-11 2017-03-28 Amazon Technologies, Inc. Service for generating graphics object data
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
EP2960864B1 (en) * 2014-06-23 2018-12-05 Harman Becker Automotive Systems GmbH Device and method for processing a stream of video data
CN113256730B (zh) 2014-09-29 2023-09-05 快图有限公司 用于阵列相机的动态校准的系统和方法
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US10204449B2 (en) * 2015-09-01 2019-02-12 Siemens Healthcare Gmbh Video-based interactive viewing along a path in medical imaging
EP3273686A1 (en) * 2016-07-21 2018-01-24 Thomson Licensing A method for generating layered depth data of a scene
US10353946B2 (en) * 2017-01-18 2019-07-16 Fyusion, Inc. Client-server communication for live search using multi-view digital media representations
RU2019137581A (ru) * 2017-05-30 2021-05-24 Сони Корпорейшн Устройство и способ обработки изображений, устройство и способ генерирования файлов и программа
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
CN110622215B (zh) 2017-12-14 2021-07-23 佳能株式会社 三维模型的生成装置、生成方法和程序
US10965928B2 (en) * 2018-07-31 2021-03-30 Lg Electronics Inc. Method for 360 video processing based on multiple viewpoints and apparatus therefor
WO2020097750A1 (en) * 2018-11-12 2020-05-22 Intel Corporation Automated field of view estimation from game participant perspectives
MX2022003020A (es) 2019-09-17 2022-06-14 Boston Polarimetrics Inc Sistemas y metodos para modelado de superficie usando se?ales de polarizacion.
EP4042101A4 (en) 2019-10-07 2023-11-22 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION
IT201900021645A1 (it) * 2019-11-19 2021-05-19 Sacmi Apparato per l’ispezione ottica di sanitari
JP7329143B2 (ja) 2019-11-30 2023-08-17 ボストン ポーラリメトリックス,インコーポレイティド 偏光キューを用いた透明な物体のセグメンテーションのためのシステム及び方法
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
CN115428028A (zh) 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的系统和方法
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6327381B1 (en) * 1994-12-29 2001-12-04 Worldscape, Llc Image transformation and synthesis methods
US6088006A (en) * 1995-12-20 2000-07-11 Olympus Optical Co., Ltd. Stereoscopic image generating system for substantially matching visual range with vergence distance
US6222551B1 (en) * 1999-01-13 2001-04-24 International Business Machines Corporation Methods and apparatus for providing 3D viewpoint selection in a server/client arrangement
RU2237283C2 (ru) * 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Устройство и способ представления трехмерного объекта на основе изображений с глубиной
JP4174001B2 (ja) 2002-09-27 2008-10-29 シャープ株式会社 立体画像表示装置、記録方法、及び伝送方法
EP1431919B1 (en) * 2002-12-05 2010-03-03 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding three-dimensional object data by using octrees
JP4188968B2 (ja) 2003-01-20 2008-12-03 三洋電機株式会社 立体視用映像提供方法及び立体映像表示装置
JP4324435B2 (ja) * 2003-04-18 2009-09-02 三洋電機株式会社 立体視用映像提供方法及び立体映像表示装置
US20060200744A1 (en) * 2003-12-08 2006-09-07 Adrian Bourke Distributing and displaying still photos in a multimedia distribution system
GB0415223D0 (en) 2004-07-07 2004-08-11 Sensornet Ltd Intervention rod
JP2006041811A (ja) * 2004-07-26 2006-02-09 Kddi Corp 自由視点画像ストリーミング方式
US7843470B2 (en) * 2005-01-31 2010-11-30 Canon Kabushiki Kaisha System, image processing apparatus, and information processing method
EP1934945A4 (en) * 2005-10-11 2016-01-20 Apple Inc METHOD AND SYSTEM FOR RECONSTRUCTING AN OBJECT
KR100714672B1 (ko) * 2005-11-09 2007-05-07 삼성전자주식회사 스플렛을 이용한 깊이 기반의 영상 렌더링 방법 및 그방법을 채용한 시스템
US8094928B2 (en) * 2005-11-14 2012-01-10 Microsoft Corporation Stereo video for gaming
CN101395634B (zh) 2006-02-28 2012-05-16 皇家飞利浦电子股份有限公司 图像中的定向孔洞填充
US8594180B2 (en) 2007-02-21 2013-11-26 Qualcomm Incorporated 3D video encoding
GB0712690D0 (en) * 2007-06-29 2007-08-08 Imp Innovations Ltd Imagee processing
WO2009009465A1 (en) 2007-07-06 2009-01-15 Christopher William Heiss Electrocoagulation reactor and water treatment system and method
JP2009075869A (ja) * 2007-09-20 2009-04-09 Toshiba Corp 多視点画像描画装置、方法及びプログラム
MY162861A (en) 2007-09-24 2017-07-31 Koninl Philips Electronics Nv Method and system for encoding a video data signal, encoded video data signal, method and system for decoding a video data signal
WO2009047681A1 (en) * 2007-10-11 2009-04-16 Koninklijke Philips Electronics N.V. Method and device for processing a depth-map
JP4703635B2 (ja) * 2007-12-12 2011-06-15 株式会社日立製作所 立体視画像生成方法、その装置、及び立体視画像表示装置
CN101257641A (zh) * 2008-03-14 2008-09-03 清华大学 基于人机交互的平面视频转立体视频的方法
JP4827881B2 (ja) 2008-04-30 2011-11-30 三洋電機株式会社 映像ファイル処理方法及び映像送受信再生システム

Also Published As

Publication number Publication date
RU2551789C2 (ru) 2015-05-27
KR101727094B1 (ko) 2017-04-17
JP5859441B2 (ja) 2016-02-10
EP2483750A1 (en) 2012-08-08
CN102549507B (zh) 2014-08-20
BR112012007115A2 (pt) 2020-02-27
WO2011039679A1 (en) 2011-04-07
EP2483750B1 (en) 2018-09-12
CN102549507A (zh) 2012-07-04
US9167226B2 (en) 2015-10-20
RU2012117572A (ru) 2013-11-10
JP2013507026A (ja) 2013-02-28
US20120188341A1 (en) 2012-07-26

Similar Documents

Publication Publication Date Title
KR101727094B1 (ko) 3d 비디오에서 추가 뷰들을 생성하기 위한 뷰포인트들을 선택하는 방법
US8488869B2 (en) Image processing method and apparatus
JP6258923B2 (ja) 3d映像を処理するための品質メトリク
KR101484487B1 (ko) 깊이-맵을 프로세싱하는 방법 및 디바이스
US8717355B2 (en) Image processor for overlaying a graphics object
JP5544361B2 (ja) 三次元ビデオ信号を符号化するための方法及びシステム、三次元ビデオ信号を符号化するための符号器、三次元ビデオ信号を復号するための方法及びシステム、三次元ビデオ信号を復号するための復号器、およびコンピュータ・プログラム
US9596446B2 (en) Method of encoding a video data signal for use with a multi-view stereoscopic display device
TW201010409A (en) Versatile 3-D picture format
US9654759B2 (en) Metadata for depth filtering
US9584794B2 (en) Depth helper data
US20150062296A1 (en) Depth signaling data

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant