KR100934006B1 - 2차원 및 3차원 양안식 비디오신호의 적응변환 장치 및 그방법 - Google Patents

2차원 및 3차원 양안식 비디오신호의 적응변환 장치 및 그방법 Download PDF

Info

Publication number
KR100934006B1
KR100934006B1 KR1020057000677A KR20057000677A KR100934006B1 KR 100934006 B1 KR100934006 B1 KR 100934006B1 KR 1020057000677 A KR1020057000677 A KR 1020057000677A KR 20057000677 A KR20057000677 A KR 20057000677A KR 100934006 B1 KR100934006 B1 KR 100934006B1
Authority
KR
South Korea
Prior art keywords
video
user
binocular
dimensional
preference
Prior art date
Application number
KR1020057000677A
Other languages
English (en)
Other versions
KR20050026959A (ko
Inventor
남제호
김만배
홍진우
김진웅
김재준
김형중
조남익
김인철
김해광
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20050026959A publication Critical patent/KR20050026959A/ko
Application granted granted Critical
Publication of KR100934006B1 publication Critical patent/KR100934006B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25825Management of client data involving client display capabilities, e.g. screen resolution of a mobile phone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25891Management of end-user data being end-user preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities

Abstract

본 발명은 2차원 및 3차원 양안식 비디오신호의 적응변환 장치 및 그 방법이다. 2차원 및 3차원 양안식 비디오신호의 적응변환 장치는 디지털 컨텐츠들을 사용자특성 및 단말특성을 포함하는 다양한 사용 환경에 적응변환시킴으로써 사용자에게 최상의 디지털 컨텐츠 경험을 제공한다. 이러한 본 발명에 따른 장치는 사용자의 적응변환 요청과 관련된 비디오 컨텐츠의 효율적인 전송을 가능하게 한다.

Description

2차원 및 3차원 양안식 비디오신호의 적응변환 장치 및 그 방법 {APPARATUS AND METHOD FOR ADAPTING 2D AND 3D STEREOSCOPIC VIDEO SIGNAL}
본 발명은 2차원 및 3차원 양안식 비디오신호의 적응변환 장치 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것으로, 더욱 상세하게는 다양한 사용 환경, 즉 사용자 특성 및 사용자 단말 특성에 부합하도록 2차원 및 3차원 양안식 비디오신호를 적응변환(ADAPTATION)시키는 장치 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.
MPEG은 MPEG-21의 새로운 표준 작업 항목(STANDARD WORKING ITEM)인 디지털 아이템 적응변환(DIGITAL ITEM ADAPTATION, DIA)을 제시하였다. 디지털 아이템(DIGITAL ITEM, DI)은 표준화된 표현, 식별 및 메타데이터를 갖는 구조화된 디지털 객체(STRUCTURED DIGITAL OBJECT WITH A STANDARD REPRESENTATION, IDENTIFICATION AND META-DATA)를 의미하며, DIA은 DI이 리소스 적응변환 엔진(RESOURCE ADAPTATION ENGINE) 또는 기술자 적응변환 엔진(DESCRIPTOR ADAPTATION ENGINE)에서 처리되어 적응변환된(ADAPTED) DI을 생성하는 프로세스를 의미한다.
여기서 리소스(RESOURCE)는 비디오 또는 오디오 클립, 이미지 또는 텍스트 항목과 같이 개별적으로 식별가능한 항목을 의미하며, 물리적인 객체를 의미할 수도 있다. 기술자(DESCRIPTOR)는 DI 내의 항목 또는 컴포넌트에 관련된 정보를 의미한다.
또한 사용자는 DI의 생산자, 권리자, 분배자 및 소비자 등을 모두 포함한다. 미디어 리소스(MEDIA RESOURCE)는 직접적으로 디지털 표현이 가능한 컨텐츠를 의미한다. 본 명세서에서 컨텐츠라는 용어는 DI, 미디어 리소스 및 리소스와 동일한 의미로 사용된다.
지금까지는 2차원(2D) 비디오가 일반적인 미디어였으나, 3차원(3D) 비디오도 정보통신 분야에 도입되었다. 양안식(Stereoscopic) 이미지 및 비디오는 인터넷 사이트, DVD 타이틀 등에서 많이 볼 수 있다. 이러한 현 상황에 따라 MPEG은 양안식 비디오 처리에 관심을 갖게 되었다. 양안식 비디오의 압축형식은 MPEG-2(MPEG, "Final Text of 12818-2/AMD 13(MPEG-2 Multiview profile)" , ISO/IEC JTC1/SC29/WG11)에 표준화되어 있다. MPEG-2 Multiview profile(MVP)은 MPEG-2 표준에 대한 수정안으로서 양안식 TV를 주요 적용분야로 하여 1996년에 정의되었다. 불균형-보상 예측(disparity-compensated prediction)을 암시적으로 정의함으로써, MVP는 공지의 하이브리드 코딩을 인터-뷰채널 리던던시(inter-viewchannel redundancies)의 활용으로 확장시켰다. 멀티-카메라 시퀀스에 대한 시간 스케일러빌리티(temporal scalability, TS) 모드 사용의 정의 및 MPEG-2 신택스에서 획득 파라미터의 정의가 주요하고 새로운 요소이다. TS 모드는 원래 추가적인 비디오 프레임으로 구성된 강화계층 스트림과 적은 프레임 레이트의 기저계층 스트림을 결합 하여 인코딩하기 위해 개발된 것이다. 두개의 스트림을 모두 사용할 수 있는 경우, 디코딩된 비디오는 최대 프레임 레이트로 재생될 수 있을 것이다. TS 모드에서, 강화계층 매크로블럭의 시간적 예측은 기저계층의 프레임 또는 최근에 재구성된 강화계층의 프레임을 기초로 수행될 것이다.
일반적으로, 양안식 비디오는 좌측 및 우측 카메라를 쌍으로 갖는 양안식 카메라를 이용하여 생성된다. 양안식 비디오는 저장되거나 사용자에게 전송된다. 양안식 비디오와는 달리, 2차원 비디오의 3차원 양안식 비디오로의 변환(2D/3D 양안식 비디오 변환)은 사용자로 하여금 원 2차원 비디오 데이터로부터 3차원 양안식 비디오를 볼 수 있도록 한다. 예를 들어, 사용자는 TV, VCD, DVD 등으로부터 3차원 양안식 영화를 즐길 수 있다. 양안식 카메라에 의해 획득된 일반적인 양안식 이미지와 달리, 양안식 변환의 주된 차이점은 하나의 2차원 이미지로부터 양안식 이미지를 생성한다는 점이다. 또한, 양안식 카메라에 의해 획득된 3차원 양안식 비디오로부터 2차원 비디오가 추출될 수 있다(3D 양안식/2D 비디오 변환).
종래기술에 따르면, 비디오컨텐츠를 소비하는 사용 환경(USAGE ENVIRONMENT), 즉 사용자 특성 및 사용자 단말 특성에 대한 정보를 이용하여 하나의 비디오컨텐츠를 각기 다른 사용 환경에 부합할 수 있도록 적응변환처리를 할 수 있는 단일소스 복수사용(Single-Source Multi-Use) 환경을 제공할 수 없다는 문제점이 있다.
"단일소스(Single Source)"는 멀티미디어 소스에서 생성된 한 개의 컨텐츠를 의미하고, "복수사용(Multi-Use)"은 다양한 사용환경의 사용자 단말들이 "단일소스(Single Source)"를 각각의 사용환경에 맞게 소비함을 의미한다.
단일소스 복수사용 환경의 장점은 다양한 사용 환경에 부합하도록 하나의 컨텐츠를 재가공 함으로써, 상이한 사용 환경에 적응변환 되어진 다양한 형태의 컨텐츠를 제공할 수 있으며, 나아가 다양한 사용 환경에 적응변환된 단일소스를 사용자단말로 제공함에 있어, 네트워크 대역폭을 효율적으로 사용하거나 감소시킬 수 있다는 것이다.
따라서, 컨텐츠 제공자 입장에서는 다양한 사용 환경에 비디오신호를 부합시키기 위하여 복수의 컨텐츠를 제작하거나 전송하는 과정에서 발생하는 불필요한 비용을 절감할 수 있으며, 컨텐츠 소비자 입장에서는 사용자 자신의 비디오 소비 특성 및 사용자 단말 특성을 최대한 만족시킬 수 있는 최적의 비디오컨텐츠를 소비할 수 있게 된다.
그러나, 종래기술에 따르면, 단일소스 복수사용 환경을 지원할 수 있는 범용적 멀티미디어 액세스(UNIVERSAL MULTIMEDIA ACCESS, UMA) 환경에서도 단일소스 복수사용 환경의 장점을 활용하지 못한다.
즉 멀티미디어 소스는 사용자 특성 및 사용자 단말 특성과 같은 사용환경을 고려하지 않고 일률적으로 비디오컨텐츠를 전송하고, 비디오 플레이어 어플리케이션이 탑재된 사용자 단말은 멀티미디어 소스로부터 수신한 형식 그대로 비디오컨텐츠를 소비하기 때문에 단일소스 복수사용 환경에 부합하지 아니한다.
이러한 종래기술의 문제점을 극복하고 단일소스 복수사용 환경을 지원하기 위해, 멀티미디어 소스가 다양한 사용 환경을 모두 고려하여 멀티미디어 컨텐츠를 제공하게 되면, 컨텐츠의 생성 및 전송에 있어서 많은 부담이 존재한다.
본 발명은, 상기와 같은 종래 기술의 문제점을 해결하기 위해 제안된 것으로서, 2차원 및 3차원 양안식 비디오컨텐츠를 소비하는 사용자 단말의 사용환경을 미리 기술(description)한 정보를 이용하여, 사용환경에 부합하도록 비디오컨텐츠를 적응변환시키는 2차원 및 3차원 양안식 비디오신호의 적응변환 장치 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 그 목적이 있다.
본 발명이 속한 기술 분야에서 통상의 지식을 가진 자는 본 명세서의 도면, 발명의 상세한 설명 및 특허청구범위로부터 본 발명의 다른 목적 및 장점을 쉽게 인식할 수 있다.
상기의 목적을 달성하기 위한 본 발명은, 단일소스 복수사용을 위한 2차원 비디오신호 또는 3차원 양안식 비디오신호의 비디오 적응변환 장치에 있어서, 비디오신호에 대한 사용자특성을 기술하는 사용자특성정보를 사용자 단말로부터 수집하여 기술하고 관리하는 비디오 사용환경정보 관리수단 및 상기 비디오 사용환경정보에 부합하는 2차원 비디오신호 또는 3차원 양안식 비디오신호가 상기 사용자 단말로 출력되도록, 비디오신호를 적응변환시키는 비디오 적응변환 수단을 포함하는 비디오 적응변환 장치를 제공한다.
그리고, 본 발명은, 단일소스 복수사용을 위한 2차원 비디오신호 또는 3차원 양안식 비디오신호의 비디오 적응변환 장치에 있어서, 비디오신호 처리에 대한 사 용자 단말특성을 기술하는 사용자단말특성정보를 사용자 단말로부터 수집하여 기술하고 관리하는 비디오 사용환경정보 관리수단 및 상기 비디오 사용환경정보에 부합하는 2차원 비디오신호 또는 3차원 양안식 비디오신호가 상기 사용자 단말로 출력되도록, 비디오신호를 적응변환시키는 비디오 적응변환 수단을 포함하는 비디오 적응변환 장치를 제공한다.
또한, 본 발명은, 단일소스 복수사용을 위한 2차원 비디오신호 또는 3차원 양안식 비디오신호의 비디오 적응변환 방법에 있어서, 비디오신호에 대한 사용자특성을 기술하는 사용자특성정보를 사용자 단말로부터 수집하여 기술하고 관리하는 제1단계 및 상기 비디오 사용환경정보에 부합하는 2차원 비디오신호 또는 3차원 양안식 비디오신호가 상기 사용자 단말로 출력되도록, 비디오신호를 적응변환시키는 제2단계를 포함하는 비디오 적응변환 방법을 제공한다.
또한, 본 발명은, 단일소스 복수사용을 위한 2차원 비디오신호 또는 3차원 양안식 비디오신호의 비디오 적응변환 방법에 있어서, 비디오신호 처리에 대한 사용자 단말특성을 기술하는 사용자단말특성정보를 사용자 단말로부터 수집하여 기술하고 관리하는 비디오 사용환경정보 관리수단 및 상기 비디오 사용환경정보에 부합하는 2차원 비디오신호 또는 3차원 양안식 비디오신호가 상기 사용자 단말로 출력되도륵, 비디오신호를 적응변환시키는 비디오 적응변환 수단을 포함하는 비디오 적응변환 방법을 제공한다.
또한, 본 발명은, 단일소스 복수사용을 위한 2차원 비디오신호 또는 3차원 양안식 비디오신호의 비디오 적응변환을 위해, 프로세서를 구비한 비디오 적응변환 시스템에, 비디오신호에 대한 사용자특성을 기술하는 사용자특성정보를 사용자 단말로부터 수집하여 기술하고 관리하는 비디오 사용환경정보관리기능 및 상기 비디오 사용환경정보에 부합하는 2차원 비디오신호 또는 3차원 양안식 비디오신호가 상기 사용자 단말로 출력되도록, 비디오신호를 적응변환시키는 비디오 적응변환 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 판독가능한 기록매체를 제공한다.
또한, 본 발명은, 단일소스 복수사용을 위한 2차원 비디오신호 또는 3차원 양안식 비디오신호의 비디오 적응변환을 위해, 프로세서를 구비한 비디오 적응변환 시스템에, 비디오신호 처리에 대한 사용자 단말특성을 기술하는 사용자단말특성정보를 사용자 단말로부터 수집하여 기술하고 관리하는 비디오 사용환경정보 관리기능 및 상기 비디오 사용환경정보에 부합하는 2차원 비디오신호 또는 3차원 양안식 비디오신호가 상기 사용자 단말로 출력되도록, 비디오신호를 적응변환시키는 비디오 적응변환 기능을 실현시키기 위한 프로그램을 기록한 컴퓨터로 판독가능한 기록매체를 제공한다.
본 발명에 따르면 비디오컨텐츠를 소비하는 사용환경, 즉 사용자 특성 및 사용자 단말 특성 정보를 이용하여 하나의 비디오컨텐츠를 다양한 사용환경에 부합할 수 있도록 적응변환처리를 할 수 있는 단일소스 복수사용 환경을 제공할 수 있다.
도1은 본 발명의 일실시예에 따른 비디오 적응변환 장치를 개략적으로 나타내는 블럭도이다.
도2는 도1의 비디오 적응변환 장치로서 구현 가능한 일실시예를 개략적으로 나타내는 블럭도이다.
도3은 도1의 비디오 적응변환 장치에서 수행되는 비디오 적응변환 프로세스를 설명하기 위한 흐름도이다.
도4는 도3의 적응변환 프로세스를 설명하기 위한 흐름도이다.
도5는 본 발명에 따른 2차원 및 3차원 양안식 비디오신호의 적응변환장치에 적용 가능한 2차원 비디오신호의 3차원 양안식 비디오신호로의 적응변환을 설명하기 위한 일실시예 설명도이다.
도6은 입체감을 설명하기 위한 예시도이다.
도7은 깊이감을 설명하기 위한 예시도이다.
도8은 3차원 양안식 비디오신호의 렌더링 방식에 대한 예시도이다.
발명의 실시를 위한 최선의 형태
이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.
또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아 니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.
따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.
프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.
또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.
본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수 단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다.
이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.
상술한 목적, 특징 및 장점들은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이다. 우선 각 도면의 구성요소들에 참조 번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명한다.
도1은 본 발명의 일실시예에 따른 비디오 적응변환 장치를 개략적으로 나타내는 블럭도이다. 도1에 도시된 바와 같이 본 발명의 일실시예에 따른 비디오적응변환장치(100)는 비디오적응변환수단(103) 및 비디오사용환경정보관리수단(107)을 포함한다. 비디오적응변환수단(103) 및 비디오사용환경정보관리수단(107) 각각은 상호 독립적으로 비디오처리시스템에 탑재될 수 있다.
비디오처리시스템은 랩탑 컴퓨터, 노트북 컴퓨터, 데스크탑 컴퓨터, 워크스테이션, 메인프레임 또는 다른 형태의 컴퓨터를 포함한다. 개인휴대정보단말기(Personal Digital Assistant, PDA), 이동통신 모바일 스테이션과 같은 다른 형태의 데이터 처리 또는 신호 처리 시스템도 비디오처리시스템에 포함된다.
비디오처리시스템은 네트워크 경로를 구성하는 모든 노드, 즉 멀티미디어 소스 노드 시스템, 멀티미디어 중계 노드 시스템 및 최종 사용자 단말(end user terminal) 중에서 임의의 노드 시스템일 수 있다.
최종 사용자 단말은 WINDOWS MEDIA PLAYER, REAL PLAYER 등과 같은 비디오 플레이어가 탑재되어 있다.
예를 들어, 비디오적응변환장치(100)가 멀티미디어 소스 노드 시스템에 탑재되어 동작하는 경우, 비디오컨텐츠를 소비하는 사용 환경을 미리 기술한 정보를 이용하여 사용 환경에 부합하도록 비디오컨텐츠를 적응변환시키기 위해서는 사용 환경에 대한 정보를 최종 사용자 단말로부터 수신하고, 수신된 사용 환경에 기초하여 적응변환된 컨텐츠를 최종 사용자 단말로 전송한다.
본 발명에 따른 비디오적응변환장치(100)가 비디오 데이터를 처리하는 프로세스, 예를 들어 비디오 인코딩 프로세스에 대하여, ISO(International Organisation for Standardisation)/IEC(International Electrotechnical Commission)의 기술위원회(Technical Committee)의 ISO/IEC 표준문서는 본 발명의 바람직한 실시예의 각 구성요소의 기능과 동작을 설명하는데 도움이 되는 범위에서 본 명세서의 일부로서 포함될 수 있다.
비디오데이터소스수단(101)은 멀티미디어 소스로부터 생성된 비디오 데이터를 수신한다. 비디오데이터소스수단(101)은 멀티미디어 소스 노드 시스템에 포함될 수도 있고, 멀티미디어 소스 노드 시스템으로부터 유/무선 네트워크를 통해 전송된 비디오 데이터를 수신하는 멀티미디어 중계 노드 시스템 또는 최종 사용자 단말에 포함될 수도 있다.
비디오적응변환수단(103)은 비디오데이터소스수단(101)으로부터 비디오데이터를 수신하고, 비디오사용환경정보관리수단(107)이 사용 환경 즉 사용자 특성 및 사용자 단말 특성을 미리 기술한 정보를 이용하여, 사용 환경에 부합하도록 비디오 데이터를 적응변환시킨다.
비디오사용환경정보관리수단(107)은 사용자 및 사용자 단말로부터 정보를 수집하여 사용 환경 정보를 미리 기술하고 관리한다.
비디오데이터출력수단(105)은 비디오적응변환수단(103)에 의해 적응변환된 비디오데이터를 출력한다. 출력된 비디오데이터는 최종 사용자 단말의 비디오 플레이어로 전송될 수도 있고, 유/무선 네트워크를 통해 멀티미디어 중계 노드 시스템 또는 최종 사용자 단말로 전송될 수도 있다.
도2는 도1의 비디오 적응변환 장치로서 구현 가능한 일실시예를 개략적으로 나타내는 블럭도이다. 도2에 도시된 바와 같이, 비디오데이터소스수단(101)은 비디오메타데이터(201) 및 비디오컨텐츠(203)를 포함할 수 있다.
비디오데이터소스수단(101)은 멀티미디어 소스로부터 생성된 비디오컨텐츠 및 메타데이터를 수집하여 저장한다. 즉, 지상파, 위성 및 케이블 TV 신호 및 인터넷 등의 네트워크 및 VCR, CD, DVD 등의 기록매체 등을 통하여 획득되는 다양한 비디오 컨텐츠 및 메타데이터를 수집하여 저장한다.
이때, 전달되는 비디오컨텐츠는 저장 혹은 방송 및 스트리밍 형태로 전송되는 입체감이 없는 2차원 비디오신호와 입체감을 느낄 수 있는 3차원 양안식 비디오 포맷을 포함한다.
비디오메타데이터(201)는 2차원 비디오 및 3차원 양안식 비디오 컨텐츠의 부호화 방식 종류, 파일 크기, 비트율(Bit-Rate), 초당 프레임 수(Frame/Second), 해상도(Resolution) 등의 비디오 미디어 정보와 비디오 컨텐츠의 제목, 제작자, 제작 장소 및 일시, 장르, 등급 등의 제작 및 분류 정보 등과 같은, 대응되는 비디오컨텐츠에 관련된 정보로서 XML(eXtensible Markup Language) 스키마(schema)에 의해 정의되고 기술될 수 있다.
비디오사용환경정보관리수단(107)은 사용자특성정보관리부(207), 사용자특성정보입력부(217), 비디오단말특성정보관리부(209) 및 비디오단말특성정보입력부(219)를 포함할 수 있다.
사용자특성정보관리부(207)는 사용자특성정보입력부(217)를 통해 사용자 단말로부터 사용자의 취향 및 선호도에 따라 3차원 양안식 비디오 컨텐츠의 입체 깊이(depth)와 범위, 양음 입체방식(Parallax) 등의 선호 입체감 정보(2차원 비디오 컨텐츠를 3차원 양안식 비디오 컨텐츠로 적응변환시킬 경우) 및 3차원 양안식 비디오의 좌, 우 혹은 합성 프레임 선택 등의 정보(3차원 양안식 비디오 컨텐츠를 2차 원 비디오로 적응변환시킬 경우)와 같은 2차원 비디오 또는 3차원 양안식 비디오 변환에 적용되는 사용자 취향 및 선호정보를 수신하고 관리한다. 입력된 사용자 특성정보는 예를 들어 XML 형식의 기계판독 가능한 언어로 관리된다.
비디오단말특성정보관리부(209)는 비디오단말특성정보입력부(219)를 통해 단말 특성정보를 수신하고 관리한다. 입력된 단말 능력정보는 예를 들어 XML 형식의 기계판독 가능한 언어로 관리된다.
비디오단말특성정보입력부(219)는 사용자 단말에 미리 설정되어 있거나, 사용자에 의해 입력되는 단말 특성 정보를 비디오단말특성정보관리부(209)로 전송할 수 있다. 사용자 단말기에서 3차원 양안식 비디오신호를 재생하고자 할 때, 사용자 단말처리의 표시장치 하드웨어가 단안식(monoscopic) 혹은 양안식(stereoscopic) 표시장치 중 어느 표시장치인지, 또한 3차원 양안식 비디오신호를 재생하는데 필요한 3차원 양안식 비디오 복호화기의 종류(예를 들어, 양안식 MPEG-2, 양안식 MPEG-4, 양안식 AVI 비디오 복호화기 등)를 지시하는 정보 및 3차원 양안식 비디오신호의 재생 시 필요한 렌더링(Rendering) 방식의 종류(예를 들어, Interlaced, Sync-Double, Page-Flipping, Red-Blue Anaglyph, Red-Cyan Anaglyph, Red-Yellow Anaglyph 등) 등의 3차원 양안식 비디오신호의 재생 시 필요한 사용자 단말특성 정보를 수집하여 사용자단말특성 정보 관리부(170)로 전송할 수 있다.
비디오적응변환수단(103)은 비디오메타데이터 적응변환처리부(213) 및 비디오컨텐츠 적응변환처리부(215)를 포함할 수 있다.
비디오컨텐츠 적응변환처리부(215)는 사용자 특성정보관리부(217) 및 비디오 단말특성정보관리부(209)에서 관리되는 사용자 특성정보 및 비디오단말특성정보를 파싱(Parsing) 한 후 비디오컨텐츠가 사용자 특성 및 단말특성에 부합하도록 비디오신호를 적응변환시킨다.
즉, 상기 사용자 특성정보 관리부(207)로부터 전달받은 사용자 특성정보를 파싱(Parsing)한 후, 2차원 비디오신호를 입체감 깊이(depth), 음양 입체감(parallax), 최대 지연프레임 수 등의 3차원 양안식 비디오 컨텐츠에 대한 사용자 선호도를 반영한 적응변환 신호처리 과정을 거쳐 3차원 양안식 비디오로 변환처리한다.
또한, 입력 비디오 컨텐츠인 3차원 양안식 비디오신호를 2차원 비디오 신호로 변환처리하는 경우에 필요한, 입력 3차원 양안식 비디오신호의 좌측 영상 혹은 우측 영상 혹은 좌우 영상으로부터 합성되어 얻어진 합성 영상 등을 선택하는 사용자 특성정보를 반영하여 3차원 양안식 비디오신호를 2차원 비디오신호로 사용자 취향정보에 부합하는 적응변환한다.
또한, 비디오컨텐츠 적응변환처리부(215)는 XML 형식의 상기 사용자단말특성 정보를 사용자 단말특성 정보 관리부(209)로부터 입력받아 관련 정보를 파싱(Parsing) 한 후, 3차원 양안식 비디오 컨텐츠를 단/양안식 표시장치, 3차원 양안식 비디오 복호화기의 종류, 3차원 양안식 비디오신호의 렌더링 방식의 종류 등의 사용자 단말특성 정보에 부합하도록 3차원 양안식 비디오신호의 적응변환처리를 수행한다.
비디오메타데이터 적응변환처리부(213)는 비디오컨텐츠 적응변환과정에서 필 요한 메타데이터를 비디오컨텐츠 적응변환처리부(215)로 제공하며, 비디오컨텐츠 적응변환처리 결과에 따라 대응하는 비디오메타데이터 정보의 내용을 적응변환시킨다.
즉, 상기 2차원 및 3차원 양안식 비디오 컨텐츠 적응변환처리 과정 중에 필요한 비디오 메타데이터를 비디오컨텐츠 적응변환처리부(215)로 제공하며, 또한 2차원 및 3차원 양안식 비디오 컨텐츠 적응변환처리 결과에 따른 관련 해당 메타데이터 정보의 내용을 갱신, 기록, 저장하는 2차원 및 3차원 양안식 비디오 메타데이터 적응변환처리 기능을 수행한다.
비디오 컨텐츠/메타데이터 출력부(105)는 사용자 취향 및 선호의 사용자 특성정보와 사용자 단말특성 정보에 따라 적응변환된 2차원 및 3차원 양안식 컨텐츠 및 메타데이터를 출력한다.
도3은 도1의 비디오 적응변환 장치에서 수행되는 비디오 적응변환 프로세스를 설명하기 위한 흐름도이다. 도3에 도시된 바와 같이, 본 발명에 따른 프로세스는 비디오사용환경정보관리수단(107)이 사용자 및 단말로부터 비디오사용 환경 정보를 수집하여 사용자 특성 및 사용자 단말 특성 정보를 미리 기술하는 것으로 시작한다(S301).
다음으로 비디오데이터소스수단(101)이 비디오 데이터를 수신하면 (S303), 비디오적응변환수단(103)은 단계 S301에서 기술한 사용 환경 정보를 이용하여, 단계 S303에서 수신한 비디오 데이터를 사용 환경 즉 사용자 특성 및 사용자 단말 특성에 부합하도록 비디오컨텐츠를 2차원 또는 3차원 양안식 비디오로 적응변환시킨 다(S305).
비디오데이터출력수단(105)은 단계 S305에서 2차원 또는 3차원 양안식 비디오로 적응변환된 비디오데이터를 출력한다(S307).
도4는 도3의 적응변환 프로세스(S305)를 설명하기 위한 흐름도이다. 도4에 도시된 바와 같이, 비디오적응변환수단(103)은 비디오데이터소스수단(101)이 수신한 2차원 또는 3차원 양안식 비디오컨텐츠 및 비디오메타데이터를 확인하여(S401) 2차원 또는 3차원 양안식 비디오로 적응변환될 필요가 있는 비디오컨텐츠를 사용자 특성 및 사용자 단말 특성에 부합하도록 2차원 또는 3차원 양안식 비디오로 적응변환시키고(S403), 단계 S403의 비디오컨텐츠 적응변환처리 결과에 따라, 대응하는 비디오메타데이터 정보의 내용을 적응변환시킨다(S405).
도5는 본 발명에 따른 2차원 및 3차원 양안식 비디오신호의 적응변환장치에 적용 가능한 2차원 비디오신호의 3차원 양안식 비디오신호로의 적응변환을 설명하기 위한 일실시예 설명도이다.
도5에 도시된 바와 같이, 인코딩된 MPEG 비디오신호(501)를 수신한 디코더(502)는 현재 이미지의 각 (16 X 16) 매크로블럭(MB)에서 움직임 벡터(motion vector)를 추출하고, 이미지 타입 분석(503) 및 모션 타입 분석(504)을 수행한다.
이미지 타입 분석(503)에서는 정지 이미지(static image), 평면(horizontal) 모션 이미지, 비평면(Non-horizontal) 모션 이미지 및 빠른(fast) 모션 이미지 등이 결정된다.
모션 타입 분석(504)에서는 움직이는 이미지에 대해 카메라의 움직임 및 객체가 결정된다.
상기의 이미지 타입 분석(503) 및 모션 타입 분석(504)의 출력을 통해 2차원 비디오의 3차원 양안식 비디오가 생성된다(505).
정지 이미지(static image)에서는 강도(intensity), 질감(texture) 및 다른 특징에 기초하여 이미지 픽셀 또는 블럭당 3차원 깊이(depth) 정보가 도출된다. 도출된 깊이 정보를 이용하여 우측 및 좌측 영상이 구성된다.
평면(horizontal)의 모션 이미지에서는 현재 이미지 및 지연된 이미지가 선택된다. 모션 타입 분석(504)에 의해 결정된 평면(horizontal) 모션 이미지의 모션 타입에 따라, 선택된 이미지가 적절하게 사용자의 좌측 및 우측 눈으로 디스플레이된다.
비평면(Non-horizontal) 모션 이미지에서는 움직임 및 깊이 정보를 이용하여 양안식 이미지가 생성된다.
이하에서는 비디오사용환경정보관리수단(107)에서 관리되는 기술 정보구조가 개시된다.
본 발명에 따라 2차원 또는 3차원 양안식 비디오컨텐츠를 소비하는 사용자 특성 및 사용자 단말 특성의 사용 환경을 미리 기술한 정보를 이용하여, 사용 환경에 부합하도록 비디오컨텐츠를 2차원 또는 3차원 양안식 비디오로 적응변환시키기 위해서는 사용자특성에 대한 정보(StereoscopicVideoConversionType) 및 단말특성에 대한 정보(StereoscopicVideoDisplayType)가 관리되어야 한다.
사용자특성에 대한 정보는 2차원 또는 3차원 양안식 비디오 변환에 대한 사용자 선호도를 기술한다. 도1의 비디오사용환경정보관리수단(107)에서 관리하는 사용자특성의 기술 정보 구조로서, 예시적으로 XML 스키마 정의에 따라 표현한 구문 은 다음과 같다.
Figure 112005002038114-pct00001
상기 사용자특성의 구성요소를 정리하면 다음의 표1과 같다.
[표1]
Figure 112005002038114-pct00002
상기 예시적으로 XML 스키마 정의에 따라 표현된 구문과 같이, 본 발명에 따른 사용자특성은 2차원 비디오를 3차원 양안식 비디오로 변환하는 경우(From2DTo3DStereoscopic)와 3차원 양안식 비디오를 2차원 비디오로 변환하는 경우(From3DStereoscopicTo2D)의 2가지로 구분될 수 있다.
2차원 비디오신호를 3차원 양안식 비디오신호로 적응변환시킬 경우, ParallaxType은 음의 입체감(negative Parallax) 및 양의 입체감(positive parallax) 즉 입체감의 종류에 대한 사용자 선호를 기술한다.
도6은 입체감을 설명하기 위한 예시도로서, 도면에 도시된 A는 음의 입체감을 나타내고, B는 양의 입체감을 나타낸다. 즉, 음의 입체감은 객체(object)-3개의 원-의 3차원 깊이(3D depth)를 모니터 스크린과 사용자의 눈 사이에서 느낄 수 있도록 하고, 양의 입체감은 객체의 3차원 깊이(3D depth)를 모니터 스크린 뒤에서 느낄 수 있도록 한다.
또한, 2차원 비디오신호를 3차원 양안식 비디오신호로 적응변환시킬 경우, DeptRange는 적응변환될 3차원 양안식 비디오신호의 입체감의 깊이에 대한 사용자 선호를 기술한다. 깊이 범주의 지정에 따라 깊이감이 증가하거나 감소할 수 있다.
도7은 깊이감을 설명하기 위한 예시도로서, 도면에 도시된 바와 같이 수렴점 A에서는 B에 비해 더 깊이감을 느낄수 있다(wider Depth).
그리고, 2차원 비디오신호를 3차원 양안식 비디오신호로 적응변환시킬 경우, MaxDelayedFrame은 최대 지연프레임 수에 대한 사용자 선호를 기술한다. MaxDelayedFrame은 2차원 비디오신호를 3차원 양안식 비디오신호로 적응변환시키기 위해 2차원 비디오신호의 지연된(이전의) 이미지를 사용하는 과정에서 필요한 파라미터를 정의한다. 즉, 2차원 비디오신호의 이미지 시퀀스가 {..., I k-3 , I k-2 , I k-1 , I k , ...}로서, I k 가 현재의 프레임이라고 하면, 이전 프레임{..., I k-3 , I k-2 , I k-1 } 중의 하나인 I k-n (n≥1)가 선택되어 I k I k-n 에 의해 3차원 양안식 비디오가 구성된다. MaxDelayedFrame에 의해 최대 지연프레임 수인 n에 대한 사용자 선호가 결정된다.
한편, 3차원 양안식 비디오를 2차원 비디오로 변환하는 경우,
LeftRightInterVideo는 3차원 양안식 비디오신호 중 좌측영상(Left), 우측영상(Right) 또는 보다 나은 품질의 영상신호를 얻기 위한 좌우영상의 합성영상(Intermediate)의 세 가지 경우 중 어느 영상 신호를 2차원 비디오신호로 할 것인지에 대한 사용자 선호를 기술한다.
사용자 단말특성에 대한 정보는 단안식(monoscopic) 또는 양안식 표시장치 여부 및 양안식 MPEG-1, 양안식 MPEG-2, 양안식 MPEG-4, 양안식 AVI 등을 포함하는 3차원 양안식 비디오 복호화기의 종류 및 "Interlaced", "Syn-Double", "Page-Flipping", "Red-Blue Anaglyph", "Red-Cyan Anaglyph", "Red-Yellow Anaglyph" 등의 3차원 양안식 비디오신호의 렌더링 방식의 종류 등의 특성정보를 기술한다.
도1의 비디오사용환경정보관리수단(107)에서 관리하는 사용자 단말특성의 기술 정보 구조로서, 예시적으로 XML 스키마 정의에 따라 표현한 구문은 다음과 같 다.
Figure 112005002038114-pct00003
상기된 사용자 단말특성 정보의 구성 요소를 정리하면 다음의 표2와 같다.
[표2]
Figure 112005002038114-pct00004
DisplayType은 사용자 단말이 지원하는 표시장치가 단안식(monoscopic) 표시장치인지 또는 양안식 표시장치인지 여부를 나타내는 정보이다.
StereoscopicDecoderType은 사용자 단말이 지원하는 3차원 양안식 비디오 디코더가 양안식 MPEG-1, 양안식 MPEG-2, 양안식 MPEG-4, 양안식 AVI 등을 포함하는 3차원 양안식 비디오 디코더 중 어느 것인지 여부를 나타내는 정보이다.
RederingFormat은 사용자 단말이 지원하는 3차원 양안식 비디오신호 랜더링 방식이 "Interlaced", "Syn-Double", "Page-Flipping", "Red-Blue Anaglyph", "Red-Cyan Anaglyph", "Red-Yellow Anaglyph" 등을 포함하는 렌더링 방식 중 어느 것인지 여부를 나타내는 정보이다.
도8은 3차원 양안식 비디오신호의 렌더링 방식에 대한 예시도로서, 3차원 양안식 비디오신호의 렌더링 방식의 종류 중 "Interlaced", "Syn-Double" 및 "Page-Flipping"의 예를 나타낸다.
아래의 예시는 2차원 비디오의 3차원 양안식 비디오신호로 사용자의 선호정보에 부합하는 적응변환 처리를 발생시키는 사용자 취향 및 선호 등의 사용자 특성 정보를 기술한 일례를 나타낸다.
아래의 예시에서는 2차원 비디오신호의 3차원 양안식 비디오신호로 적응변환 시 설정된 사용자의 선호정보로서 "ParallaxType"으로는 음(Negative Parallax) 타입을, 입체감의 깊이를 나타내는 "DepthRange"로는 0.7의 값으로, 최대 지연프레임 수는 15개로 설정하였음을 나타낸다.
또한, 3차원 양안식 비디오신호의 2차원 비디오신호로 적응변환 시에는 3차원 양안식 비디오신호 중 좌우 영상의 합성영상으로 선택한 사용자 선호정보의 설정 일례를 나타낸다.
Figure 112005002038114-pct00005
또한, 아래의 예시에서는 3차원 양안식 비디오신호의 사용자 단말특성을 고려한 적응변환 처리 시 사용자 단말처리 특성정보를 기술한 일례를 나타낸다.
아래의 예시에서 사용자 단말처리 특성으로 현재 사용자 단말은 단안식 표시장치만을 지원하며, 사용자 단말에 탑재된 디코더로는 양안식 MPEG-1 비디오 디코더를 지원하며, 3차원 양안식 비디오의 렌더링 방식으로는 "Anaglyph"를 지원하는 사용자 단말처리기의 특성정보를 기술한다. 이러한 사용자 단말 특성정보는 3차원 양안식 비디오의 사용자 단말특성에 부합하는 적응변환 시에 사용되어진다.
Figure 112005002038114-pct00006
상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.
이와 같이 본 발명에 따르면 사용자의 취향 및 선호 정보와 사용자 단말기 특성 정보를 이용하여 하나의 2차원 비디오 컨텐츠를 3차원 양안식 비디오 컨텐츠로, 혹은 3차원 양안식 비디오 컨텐츠를 2차원 비디오 컨텐츠로, 각기 다른 사용 환경과 다양한 사용자의 특성과 취향에 부합할 수 있도록 적응, 변환처리를 할 수 있는 서비스 환경을 제공할 수 있는 효과가 있다.
또한, 본 발명에 따라 제공되는 단일소스 복수사용 환경은 다양한 사용 단말기의 성능 및 제공 기능 범위, 상이한 사용 환경 및 다양한 사용자 특성 등에 부합 할 수 있도록 단일의 비디오 컨텐츠를 재가공 하여 상이한 환경과 사용자 요구에 적응변환되어진 다양한 형태의 비디오 컨텐츠들로 신속하게 제공되어질 수 있게 됨으로써, 복수의 비디오 컨텐츠 제작 및 전송 등에서 발생하는 불필요한 비용을 절감할 수 있으며, 사용자는 자신이 위치한 장소 및 환경의 공간적 제약성을 극복하고 동시에 사용자 자신의 취향을 최대한 만족시킬 수 있는 최적의 비디오 컨텐츠의 서비스가 가능하게 되는 효과가 있다.

Claims (34)

  1. 비디오 콘텐츠를 소비하는 단말의 사용자 특성을 기술하는 사용환경 정보에 포함된 사용자 재생(presentation)선호도 정보에 기초하여 비디오 데이터소스를 양안식 변환하는 단계; 및
    상기 변환된 비디오 데이터 소스를 출력하는 단계를 포함하고,
    상기 사용자 재생 선호도 정보는 상기 비디오 콘텐츠에 대한 사용자의 양안식 재생 선호도특성을 기술하는, 양안식 비디오 적응변환 방법.
  2. 제1항에 있어서,
    상기 비디오 데이터 소스는 비디오 콘텐츠 및 상기 비디오 콘텐츠에 대한 정보를 기술하는 콘텐츠 메타데이터를 포함하는, 양안식 비디오 적응변환 방법.
  3. 제1항에 있어서,
    상기 양안식 변환단계는 2차원 비디오를 3차원 양안식 비디오로 변환하고,
    상기 사용자 재생선호도 정보는 입체감에 대한 사용자 재생선호도를 포함하는, 양안식 비디오 적응변환 방법.
  4. 제1항에 있어서,
    상기 양안식 변환단계는 2차원 비디오를 3차원 양안식 비디오로 변환하고,
    상기 사용자 재생선호도 정보는 지연프레임의 최대 간격에 대한 사용자 재생선호도를 포함하는, 양안식 비디오 적응변환 방법.
  5. 제1항에 있어서,
    상기 양안식 변환단계는 2차원 비디오를 3차원 양안식 비디오로 변환하고,
    상기 사용자 재생선호도 정보는 3차원 깊이의 범주에 대한 사용자 재생선호도를 포함하는, 양안식 비디오 적응변환 방법.
  6. 제5항에 있어서,
    상기 범주는 3차원에서의 객체와 모니터 스크린 사이의 거리인, 양안식 비디오 적응변환 방법.
  7. 제1항에 있어서,
    상기 양안식 변환단계는 3차원 양안식 비디오를 2차원 비디오로 변환하고,
    상기 사용자 재생선호도 정보는 상기 3차원 양안식 비디오의 좌측비디오와 우측비디오 사이의 비디오에 대한 사용자 재생선호도를 포함하는, 양안식 비디오 적응변환 방법.
  8. 제1항에 있어서,
    상기 사용환경 정보는 사용자 단말 특성 정보를 포함하고,
    상기 사용자 단말 특성 정보는 사용자 단말의 양안식 여부에 대한 특성 정보를 포함하는, 양안식 비디오 적응변환 방법.
  9. 제1항에 있어서,
    상기 사용환경 정보는 사용자 단말 특성 정보를 포함하고,
    상기 사용자 단말 특성 정보는 사용자 단말의 복호화 성능, 랜더링(rendering) 방식에 대한 특성 정보를 포함하는, 양안식 비디오 적응변환 방법.
  10. 제9항에 있어서,
    상기 랜더링 방식은 인터레이스트(Interlaced), 싱크-더블(Sync-Double), 페이지-플리핑(Page-Flipping), 레드-블루 에너글리프(Red-Blue Anaglyph), 레드-사이엔 에너글리프(Red-Cyan Anaglyph), 레드-옐로우 에너글리프(Red-Yellow Anaglyph)를 포함하는 분류그룹 중 어느 하나인, 양안식 비디오 적응변환 방법.
  11. 비디오 콘텐츠를 소비하는 단말의 사용자 특성을 기술하는 사용환경 정보에 포함된 사용자 재생(presentation)선호도 정보에 기초하여 비디오 데이터소스를 양안식 비디오 변환하는 변환부; 및
    상기 변환된 비디오 데이터 소스를 출력하는 출력부를 포함하고,
    상기 사용자 재생 선호도 정보는 상기 비디오 콘텐츠에 대한 사용자의 양안식 재생 선호도특성을 기술하는, 양안식 비디오 적응변환 장치.
  12. 제11항에 있어서,
    상기 비디오 데이터 소스는 비디오 콘텐츠 및 상기 비디오 콘텐츠에 대한 정보를 기술하는 콘텐츠 메타데이터를 포함하는, 양안식 비디오 적응변환 장치.
  13. 제11항에 있어서,
    상기 변환부는 2차원 비디오를 3차원 양안식 비디오로 변환하고,
    상기 사용자 재생선호도 정보는 입체감에 대한 사용자 재생선호도를 포함하는, 양안식 비디오 적응변환 장치.
  14. 제11항에 있어서,
    상기 변환부는 2차원 비디오를 3차원 양안식 비디오로 변환하고,
    상기 사용자 재생선호도 정보는 지연프레임의 최대 간격에 대한 사용자 재생선호도를 포함하는, 양안식 비디오 적응변환 장치.
  15. 제11항에 있어서,
    상기 변환부는 2차원 비디오를 3차원 양안식 비디오로 변환하고,
    상기 사용자 재생선호도 정보는 3차원 깊이의 범주에 대한 사용자 재생선호도를 포함하는, 양안식 비디오 적응변환 장치.
  16. 제15항에 있어서,
    상기 범주는 3차원에서의 객체와 모니터 스크린 사이의 거리인, 양안식 비디오 적응변환 장치.
  17. 제11항에 있어서,
    상기 변환부는 3차원 양안식 비디오를 2차원 비디오로 변환하고,
    상기 사용자 재생선호도 정보는 상기 3차원 양안식 비디오의 좌측비디오와 우측비디오 사이의 비디오에 대한 사용자 재생선호도를 포함하는, 양안식 비디오 적응변환 장치.
  18. 제11항에 있어서,
    상기 사용환경 정보는 사용자 단말 특성 정보를 포함하고,
    상기 사용자 단말 특성 정보는 사용자 단말의 양안식 여부에 대한 특성 정보를 포함하는, 양안식 비디오 적응변환 장치.
  19. 제11항에 있어서,
    상기 사용환경 정보는 사용자 단말 특성 정보를 포함하고,
    상기 사용자 단말 특성 정보는 사용자 단말의 복호화 성능, 랜더링(rendering) 방식에 대한 특성 정보를 포함하는, 양안식 비디오 적응변환 장치.
  20. 제19항에 있어서,
    상기 랜더링 방식은 인터레이스트(Interlaced), 싱크-더블(Sync-Double), 페이지-플리핑(Page-Flipping), 레드-블루 에너글리프(Red-Blue Anaglyph), 레드-사이엔 에너글리프(Red-Cyan Anaglyph), 레드-옐로우 에너글리프(Red-Yellow Anaglyph)를 포함하는 분류그룹 중 어느 하나인, 양안식 비디오 적응변환 장치.
  21. 메타데이터가 기록된 컴퓨터로 읽을 수 있는 기록매체에 있어서,
    상기 메타데이터는 비디오 콘텐츠를 소비하는 단말의 사용자 특성을 기술하는 사용자 재생(presentation)선호도 정보를 포함하는 사용환경 정보를 포함하고,
    상기 사용자 재생선호도 정보에 기초하여 비디오 데이터 소스가 양안식 변환되고,
    상기 사용자 재생 선호도 정보는 상기 비디오 콘텐츠에 대한 사용자의 양안식 재생 선호도특성을 기술하는, 컴퓨터로 읽을 수 있는 기록매체.
  22. 제21항에 있어서,
    상기 비디오 데이터 소스는 비디오 콘텐츠 및 상기 비디오 콘텐츠에 대한 정보를 기술하는 콘텐츠 메타데이터를 포함하는, 컴퓨터로 읽을 수 있는 기록매체.
  23. 제21항에 있어서,
    상기 양안식 변환에 의해 2차원 비디오가 3차원 양안식 비디오로 변환되고,
    상기 사용자 재생선호도 정보는 입체감에 대한 사용자 재생선호도를 포함하는, 컴퓨터로 읽을 수 있는 기록매체.
  24. 제21항에 있어서,
    상기 양안식 변환에 의해 2차원 비디오가 3차원 양안식 비디오로 변환되고,
    상기 사용자 재생선호도 정보는 지연프레임의 최대 간격에 대한 사용자 재생선호도를 포함하는, 컴퓨터로 읽을 수 있는 기록매체.
  25. 제21항에 있어서,
    상기 양안식 변환에 의해 2차원 비디오가 3차원 양안식 비디오로 변환되고,
    상기 사용자 재생선호도 정보는 3차원 깊이의 범주에 대한 사용자 재생선호도를 포함하는, 컴퓨터로 읽을 수 있는 기록매체.
  26. 제25항에 있어서,
    상기 범주는 3차원에서의 객체와 모니터 스크린 사이의 거리인, 컴퓨터로 읽을 수 있는 기록매체.
  27. 제21항에 있어서,
    상기 양안식 변환에 의해 3차원 양안식 비디오가 2차원 비디오로 변환되고,
    상기 사용자 재생선호도 정보는 상기 3차원 양안식 비디오의 좌측비디오와 우측비디오 사이의 비디오에 대한 사용자 재생선호도를 포함하는, 컴퓨터로 읽을 수 있는 기록매체.
  28. 제21항에 있어서,
    상기 사용환경 정보는 사용자 단말 특성 정보를 포함하고,
    상기 사용자 단말 특성 정보는 사용자 단말의 양안식 여부에 대한 특성 정보를 포함하는, 컴퓨터로 읽을 수 있는 기록매체.
  29. 제21항에 있어서,
    상기 사용환경 정보는 사용자 단말 특성 정보를 포함하고,
    상기 사용자 단말 특성 정보는 사용자 단말의 복호화 성능, 랜더링(rendering) 방식에 대한 특성 정보를 포함하는, 컴퓨터로 읽을 수 있는 기록매체.
  30. 제29항에 있어서,
    상기 랜더링 방식은 인터레이스트(Interlaced), 싱크-더블(Sync-Double), 페이지-플리핑(Page-Flipping), 레드-블루 에너글리프(Red-Blue Anaglyph), 레드-사이엔 에너글리프(Red-Cyan Anaglyph), 레드-옐로우 에너글리프(Red-Yellow Anaglyph)를 포함하는 분류그룹 중 어느 하나인, 컴퓨터로 읽을 수 있는 기록매체.
  31. 삭제
  32. 삭제
  33. 삭제
  34. 삭제
KR1020057000677A 2002-07-16 2003-07-16 2차원 및 3차원 양안식 비디오신호의 적응변환 장치 및 그방법 KR100934006B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020020041731 2002-07-16
KR20020041731 2002-07-16
PCT/KR2003/001411 WO2004008768A1 (en) 2002-07-16 2003-07-16 Apparatus and method for adapting 2d and 3d stereoscopic video signal

Publications (2)

Publication Number Publication Date
KR20050026959A KR20050026959A (ko) 2005-03-16
KR100934006B1 true KR100934006B1 (ko) 2009-12-28

Family

ID=30113190

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020057000677A KR100934006B1 (ko) 2002-07-16 2003-07-16 2차원 및 3차원 양안식 비디오신호의 적응변환 장치 및 그방법

Country Status (7)

Country Link
US (1) US20050259147A1 (ko)
EP (1) EP1529400A4 (ko)
JP (1) JP4362105B2 (ko)
KR (1) KR100934006B1 (ko)
CN (2) CN1682539A (ko)
AU (1) AU2003281138A1 (ko)
WO (1) WO2004008768A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101396473B1 (ko) * 2011-10-17 2014-05-21 에이스텔 주식회사 셋톱박스에서 서브 단말기로 초고화질 영상을 제공하는 시스템 및 그 방법

Families Citing this family (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8042132B2 (en) 2002-03-15 2011-10-18 Tvworks, Llc System and method for construction, delivery and display of iTV content
US11388451B2 (en) 2001-11-27 2022-07-12 Comcast Cable Communications Management, Llc Method and system for enabling data-rich interactive television using broadcast database
US8413205B2 (en) 2001-09-19 2013-04-02 Tvworks, Llc System and method for construction, delivery and display of iTV content
US8365230B2 (en) 2001-09-19 2013-01-29 Tvworks, Llc Interactive user interface for television applications
US7703116B1 (en) 2003-07-11 2010-04-20 Tvworks, Llc System and method for construction, delivery and display of iTV applications that blend programming information of on-demand and broadcast service offerings
US11381875B2 (en) 2003-03-14 2022-07-05 Comcast Cable Communications Management, Llc Causing display of user-selectable content types
US8578411B1 (en) 2003-03-14 2013-11-05 Tvworks, Llc System and method for controlling iTV application behaviors through the use of application profile filters
US10664138B2 (en) 2003-03-14 2020-05-26 Comcast Cable Communications, Llc Providing supplemental content for a second screen experience
US8819734B2 (en) 2003-09-16 2014-08-26 Tvworks, Llc Contextual navigational control for digital television
US7660472B2 (en) * 2004-02-10 2010-02-09 Headplay (Barbados) Inc. System and method for managing stereoscopic viewing
EP1742488B1 (en) 2004-04-26 2014-10-15 Olympus Corporation Image file reproducing apparatus and method
EP1766978A4 (en) 2004-06-24 2011-05-18 Korea Electronics Telecomm EXTENDED DESCRIPTION FOR TARGETING MECHANISM AND METHOD AND ANYTIME TV SYSTEM COMPRISING THE SAME
US8243123B1 (en) * 2005-02-02 2012-08-14 Geshwind David M Three-dimensional camera adjunct
US7818667B2 (en) 2005-05-03 2010-10-19 Tv Works Llc Verification of semantic constraints in multimedia data and in its announcement, signaling and interchange
KR20070121049A (ko) * 2005-05-18 2007-12-26 닛본 덴끼 가부시끼가이샤 콘텐츠표시시스템 및 콘텐츠표시방법
JP4638783B2 (ja) 2005-07-19 2011-02-23 オリンパスイメージング株式会社 3d画像ファイルの生成装置、撮像装置、画像再生装置、画像加工装置、及び3d画像ファイルの生成方法
KR100740922B1 (ko) * 2005-10-04 2007-07-19 광주과학기술원 Mpeg-21 기반의 다시점 3차원 영상을 위한 비디오 적응변환 시스템
US9137497B2 (en) * 2007-04-11 2015-09-15 At&T Intellectual Property I, Lp Method and system for video stream personalization
EP2158769B1 (en) * 2007-05-15 2014-07-30 Warner Bros. Entertainment Inc. Method and apparatus for providing additional functionality to a dvd player
US8237776B2 (en) * 2007-10-19 2012-08-07 Warner Bros. Entertainment Inc. Method and apparatus for generating stereoscopic images from a DVD disc
US8594484B2 (en) * 2007-05-15 2013-11-26 Warner Bros. Entertainment Inc. DVD player with external connection for increased functionality
US8487982B2 (en) * 2007-06-07 2013-07-16 Reald Inc. Stereoplexing for film and video applications
US8755672B2 (en) * 2007-06-26 2014-06-17 Lg Electronics Inc. Media file format based on, method and apparatus for reproducing the same, and apparatus for generating the same
KR101362647B1 (ko) * 2007-09-07 2014-02-12 삼성전자주식회사 2d 영상을 포함하는 3d 입체영상 파일을 생성 및재생하기 위한 시스템 및 방법
WO2009048309A2 (en) * 2007-10-13 2009-04-16 Samsung Electronics Co., Ltd. Apparatus and method for providing stereoscopic three-dimensional image/video contents on terminal based on lightweight application scene representation
CN101897195B (zh) 2007-12-14 2013-03-06 皇家飞利浦电子股份有限公司 用于视频重放的3d模式选择机制
GB0806183D0 (en) * 2008-04-04 2008-05-14 Picsel Res Ltd Presentation of objects in 3D displays
KR101591085B1 (ko) * 2008-05-19 2016-02-02 삼성전자주식회사 영상 파일 생성 및 재생 장치 및 방법
WO2009157707A2 (en) * 2008-06-24 2009-12-30 Samsung Electronics Co,. Ltd. Image processing method and apparatus
KR20100002032A (ko) * 2008-06-24 2010-01-06 삼성전자주식회사 영상 생성 방법, 영상 처리 방법, 및 그 장치
US20090315980A1 (en) * 2008-06-24 2009-12-24 Samsung Electronics Co., Image processing method and apparatus
US20090317062A1 (en) * 2008-06-24 2009-12-24 Samsung Electronics Co., Ltd. Image processing method and apparatus
KR101520620B1 (ko) * 2008-08-18 2015-05-18 삼성전자주식회사 2차원/3차원 재생 모드 결정 방법 및 장치
CN101662677B (zh) * 2008-08-29 2011-08-10 华为终端有限公司 码流转换系统及方法、码流识别单元和方案确定单元
EP2319247A4 (en) * 2008-10-27 2012-05-09 Samsung Electronics Co Ltd METHODS AND APPARATUS FOR PROCESSING AND DISPLAYING IMAGE
US11832024B2 (en) 2008-11-20 2023-11-28 Comcast Cable Communications, Llc Method and apparatus for delivering video and video-related content at sub-asset level
KR101574068B1 (ko) 2008-12-26 2015-12-03 삼성전자주식회사 영상 처리 방법 및 장치
JP5877065B2 (ja) * 2009-01-26 2016-03-02 トムソン ライセンシングThomson Licensing ビデオ符号化のためのフレーム・パッキング
EP2434763A4 (en) * 2009-05-18 2014-02-26 Lg Electronics Inc 3D IMAGE RECORDING DEVICE AND METHOD FOR SELECTING 3D MODE FOR 3D PICTURES
JP5463747B2 (ja) * 2009-06-15 2014-04-09 ソニー株式会社 受信装置、送信装置、通信システム、表示制御方法、プログラム、及びデータ構造
EP2445224B1 (en) * 2009-06-17 2017-05-03 Panasonic Intellectual Property Management Co., Ltd. Information recording medium for reproducing 3d video, and reproduction device
JP5250491B2 (ja) * 2009-06-30 2013-07-31 株式会社日立製作所 記録再生装置
JP5647242B2 (ja) * 2009-07-27 2014-12-24 コーニンクレッカ フィリップス エヌ ヴェ 3dビデオ及び補助データの結合
US9083958B2 (en) * 2009-08-06 2015-07-14 Qualcomm Incorporated Transforming video data in accordance with three dimensional input formats
US8629899B2 (en) * 2009-08-06 2014-01-14 Qualcomm Incorporated Transforming video data in accordance with human visual system feedback metrics
US9131279B2 (en) 2009-08-06 2015-09-08 Qualcomm Incorporated Preparing video data in accordance with a wireless display protocol
JP5604827B2 (ja) * 2009-08-21 2014-10-15 ソニー株式会社 送信装置、受信装置、プログラム、及び通信システム
JP5428697B2 (ja) * 2009-09-16 2014-02-26 ソニー株式会社 受信装置、受信方法、送信装置およびコンピュータプログラム
US20110085023A1 (en) * 2009-10-13 2011-04-14 Samir Hulyalkar Method And System For Communicating 3D Video Via A Wireless Communication Link
MX2012004315A (es) * 2009-10-30 2012-05-29 Samsung Electronics Co Ltd Aparato visualizador de imagen bidimensional/tridimensional y metodo para manejar el mismo.
US8687046B2 (en) * 2009-11-06 2014-04-01 Sony Corporation Three-dimensional (3D) video for two-dimensional (2D) video messenger applications
US20110138018A1 (en) * 2009-12-04 2011-06-09 Qualcomm Incorporated Mobile media server
JP5387399B2 (ja) * 2009-12-28 2014-01-15 ソニー株式会社 情報処理装置および情報処理方法
US20120287233A1 (en) * 2009-12-29 2012-11-15 Haohong Wang Personalizing 3dtv viewing experience
US20110157322A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Controlling a pixel array to support an adaptable light manipulator
US9247286B2 (en) * 2009-12-31 2016-01-26 Broadcom Corporation Frame formatting supporting mixed two and three dimensional video data communication
US8823782B2 (en) 2009-12-31 2014-09-02 Broadcom Corporation Remote control with integrated position, viewer identification and optical and audio test
US8854531B2 (en) * 2009-12-31 2014-10-07 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2D/3D display
US8743178B2 (en) * 2010-01-05 2014-06-03 Dolby Laboratories Licensing Corporation Multi-view video format control
WO2011087303A2 (ko) * 2010-01-18 2011-07-21 엘지전자 주식회사 방송 신호 수신기 및 비디오 데이터 처리 방법
US9491432B2 (en) * 2010-01-27 2016-11-08 Mediatek Inc. Video processing apparatus for generating video output satisfying display capability of display device according to video input and related method thereof
MX2012010268A (es) * 2010-03-05 2012-10-05 Gen Instrument Corp Metodo y aparato para convertir contenido de video bidimensional para insercion en contenido de video tridimensional.
US8878913B2 (en) * 2010-03-12 2014-11-04 Sony Corporation Extended command stream for closed caption disparity
US9237366B2 (en) 2010-04-16 2016-01-12 Google Technology Holdings LLC Method and apparatus for distribution of 3D television program materials
US9414042B2 (en) * 2010-05-05 2016-08-09 Google Technology Holdings LLC Program guide graphics and video in window for 3DTV
US20110304693A1 (en) * 2010-06-09 2011-12-15 Border John N Forming video with perceived depth
US8631047B2 (en) * 2010-06-15 2014-01-14 Apple Inc. Editing 3D video
EP2608547B1 (en) * 2010-08-17 2018-03-21 LG Electronics Inc. Apparatus and method for receiving digital broadcasting signal
JP5483357B2 (ja) * 2010-08-27 2014-05-07 アルパイン株式会社 デジタルテレビ受信装置及びデジタルテレビ受信装置を設けた車載装置
US20120062712A1 (en) * 2010-09-11 2012-03-15 Spatial View Inc. Delivery of device-specific stereo 3d content
US8537201B2 (en) * 2010-10-18 2013-09-17 Silicon Image, Inc. Combining video data streams of differing dimensionality for concurrent display
JP5302285B2 (ja) * 2010-10-28 2013-10-02 シャープ株式会社 立体映像出力装置、立体映像出力方法、立体映像出力プログラムおよびコンピュータ読み取り可能な記録媒体、ならびに、立体映像表示装置
JP2012114575A (ja) * 2010-11-22 2012-06-14 Sony Corp 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
US8860785B2 (en) 2010-12-17 2014-10-14 Microsoft Corporation Stereo 3D video support in computing devices
US20120154559A1 (en) * 2010-12-21 2012-06-21 Voss Shane D Generate Media
JP2012134893A (ja) * 2010-12-24 2012-07-12 Hitachi Consumer Electronics Co Ltd 受信装置
US9386294B2 (en) * 2011-01-05 2016-07-05 Google Technology Holdings LLC Method and apparatus for 3DTV image adjustment
US9117385B2 (en) * 2011-02-09 2015-08-25 Dolby Laboratories Licensing Corporation Resolution management for multi-view display technologies
US8963998B2 (en) * 2011-04-15 2015-02-24 Tektronix, Inc. Full reference system for predicting subjective quality of three-dimensional video
CN102801990B (zh) * 2011-05-24 2016-09-07 传线网络科技(上海)有限公司 基于互联网服务端立体视频实时转码方法及系统
CN102801989B (zh) * 2011-05-24 2015-02-11 传线网络科技(上海)有限公司 基于互联网客户端立体视频实时转码方法及系统
US20140192150A1 (en) * 2011-06-02 2014-07-10 Sharp Kabushiki Kaisha Image processing device, method for controlling image processing device, control program, and computer-readable recording medium which records the control program
EP2742693A4 (en) * 2011-08-12 2015-04-08 Motorola Mobility Inc METHOD AND DEVICE FOR CODING AND TRANSMITTING 3D VIDEO SEQUENCES IN A WIRELESS COMMUNICATION SYSTEM
CN102984529A (zh) * 2011-09-05 2013-03-20 宏碁股份有限公司 眼镜式立体显示器及其显示方法
JP2013090016A (ja) * 2011-10-13 2013-05-13 Sony Corp 送信装置、送信方法、受信装置および受信方法
US8687470B2 (en) 2011-10-24 2014-04-01 Lsi Corporation Optical disk playback device with three-dimensional playback functionality
KR101348867B1 (ko) * 2011-12-14 2014-01-07 두산동아 주식회사 콘텐츠 재생 환경에 맞게 자동 변환하는 레이어 기반 디지털 교과서 표시 장치 및 방법
EP2871842A4 (en) * 2012-07-09 2016-06-29 Lg Electronics Inc APPARATUS AND METHOD FOR PROCESSING IMPROVED 3-DIMENSIONAL AUDIO / VIDEO CONTENT (3D)
US10764649B2 (en) 2012-08-17 2020-09-01 Google Technology Holdings LLC Falling back from three-dimensional video
US9554146B2 (en) 2012-09-21 2017-01-24 Qualcomm Incorporated Indication and activation of parameter sets for video coding
US11115722B2 (en) 2012-11-08 2021-09-07 Comcast Cable Communications, Llc Crowdsourcing supplemental content
US10880609B2 (en) 2013-03-14 2020-12-29 Comcast Cable Communications, Llc Content event messaging
EP3038358A1 (en) 2014-12-22 2016-06-29 Thomson Licensing A method for adapting a number of views delivered by an auto-stereoscopic display device, and corresponding computer program product and electronic device
KR101634967B1 (ko) * 2016-04-05 2016-06-30 삼성지투비 주식회사 3차원 영상 변환 기반의 앱 호환형 악천후 지역의 모니터링 시스템 및 그 방법
CN107465939B (zh) * 2016-06-03 2019-12-06 杭州海康机器人技术有限公司 视频图像数据流的处理方法及装置
US10616566B2 (en) * 2016-07-22 2020-04-07 Korea Institute Of Science And Technology 3D image display system and method
US10735707B2 (en) 2017-08-15 2020-08-04 International Business Machines Corporation Generating three-dimensional imagery
US11570227B2 (en) 2020-12-04 2023-01-31 Tencent America LLC Set up and distribution of immersive media to heterogenous client end-points

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016609A (ja) * 1999-06-05 2001-01-19 Soft Foo Deii:Kk Mpegデータを用いた立体映像生成装置及び方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69429933T2 (de) * 1993-11-09 2002-08-29 Canon Kk Signalverarbeitungsvorrichtung für Stereoskopische Anzeigevorrichtung
US5510832A (en) * 1993-12-01 1996-04-23 Medi-Vision Technologies, Inc. Synthesized stereoscopic imaging system and method
US5739844A (en) * 1994-02-04 1998-04-14 Sanyo Electric Co. Ltd. Method of converting two-dimensional image into three-dimensional image
US5661518A (en) * 1994-11-03 1997-08-26 Synthonics Incorporated Methods and apparatus for the creation and transmission of 3-dimensional images
US6384859B1 (en) * 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
JPH0937301A (ja) * 1995-07-17 1997-02-07 Sanyo Electric Co Ltd 立体映像変換回路
US6249285B1 (en) * 1998-04-06 2001-06-19 Synapix, Inc. Computer assisted mark-up and parameterization for scene analysis
US6157396A (en) * 1999-02-16 2000-12-05 Pixonics Llc System and method for using bitstream information to process images for use in digital display systems
KR100334722B1 (ko) * 1999-06-05 2002-05-04 강호석 Mpeg 데이터를 이용한 입체영상생성방법 및 그 장치
CN1236628C (zh) * 2000-03-14 2006-01-11 株式会社索夫特4D 产生立体图像的方法和装置
AU2001266862A1 (en) * 2000-06-12 2001-12-24 Vrex, Inc. Electronic stereoscopic media delivery system
JP2002095018A (ja) * 2000-09-12 2002-03-29 Canon Inc 画像表示制御装置及び画像表示システム、並びに画像データの表示方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016609A (ja) * 1999-06-05 2001-01-19 Soft Foo Deii:Kk Mpegデータを用いた立体映像生成装置及び方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101396473B1 (ko) * 2011-10-17 2014-05-21 에이스텔 주식회사 셋톱박스에서 서브 단말기로 초고화질 영상을 제공하는 시스템 및 그 방법

Also Published As

Publication number Publication date
JP4362105B2 (ja) 2009-11-11
CN1682539A (zh) 2005-10-12
EP1529400A4 (en) 2009-09-23
US20050259147A1 (en) 2005-11-24
WO2004008768A1 (en) 2004-01-22
KR20050026959A (ko) 2005-03-16
AU2003281138A1 (en) 2004-02-02
EP1529400A1 (en) 2005-05-11
JP2005533433A (ja) 2005-11-04
CN101982979A (zh) 2011-03-02
CN101982979B (zh) 2013-01-02

Similar Documents

Publication Publication Date Title
KR100934006B1 (ko) 2차원 및 3차원 양안식 비디오신호의 적응변환 장치 및 그방법
KR101575138B1 (ko) 무선 3d 스트리밍 서버
JP5059766B2 (ja) 視差ベクトルの予測方法、その方法を利用して多視点動画を符号化及び復号化する方法及び装置
JP6013920B2 (ja) ビデオコンテンツを処理するための装置および方法
EP2369842B1 (en) Supplying, generating, converting and reading video content
KR101227601B1 (ko) 시차 벡터 예측 방법, 그 방법을 이용하여 다시점 동영상을부호화 및 복호화하는 방법 및 장치
US20120269267A1 (en) Method and apparatus for unified scalable video encoding for multi-view video and method and apparatus for unified scalable video decoding for multi-view video
JP4160563B2 (ja) 映像コンテンツの適応変換装置及びその方法
KR101265990B1 (ko) 비디오 파일 처리 시스템 및 방법
US20110149020A1 (en) Method and system for video post-processing based on 3d data
US20230059516A1 (en) Apparatus, a method and a computer program for omnidirectional video
US9118895B2 (en) Data structure, image processing apparatus, image processing method, and program
WO2018135321A1 (ja) 画像処理装置および方法
Angelides et al. The handbook of MPEG applications: standards in practice
KR101386651B1 (ko) 다시점 비디오 인코딩 및 디코딩 방법 및 이를 이용한 인코딩 및 디코딩 장치
EP4131959A1 (en) Image encoding/decoding method and apparatus based on wrap-around motion compensation, and recording medium storing bitstream
JP2012175626A (ja) 配信映像の超解像化装置および超解像映像再生装置
JP2002044622A (ja) コンテンツ供給装置および方法、記録媒体、信号生成装置および方法、変換装置および方法、並びに再生端末および方法
US20110150355A1 (en) Method and system for dynamic contrast processing for 3d video
Kurutepe et al. A standards-based, flexible, end-to-end multi-view video streaming architecture
CN116057931A (zh) 针对缩放性的基于子比特流提取的图像编码设备和方法
CN116134821A (zh) 用于在图像/视频编码系统中处理高级语法的方法和设备
KR20090019499A (ko) 콘텐츠 정보 생성 방법 및 콘텐츠 정보를 이용한 콘텐츠처리 장치
CN116057932A (zh) 基于层信息信令的图像编码设备和方法
KR100740922B1 (ko) Mpeg-21 기반의 다시점 3차원 영상을 위한 비디오 적응변환 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121129

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131128

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20141205

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee