KR101315081B1 - 서브타이틀들의 3d 디스플레이 처리 - Google Patents

서브타이틀들의 3d 디스플레이 처리 Download PDF

Info

Publication number
KR101315081B1
KR101315081B1 KR1020117018100A KR20117018100A KR101315081B1 KR 101315081 B1 KR101315081 B1 KR 101315081B1 KR 1020117018100 A KR1020117018100 A KR 1020117018100A KR 20117018100 A KR20117018100 A KR 20117018100A KR 101315081 B1 KR101315081 B1 KR 101315081B1
Authority
KR
South Korea
Prior art keywords
component
text
dimensional image
image
based
Prior art date
Application number
KR1020117018100A
Other languages
English (en)
Other versions
KR20110102497A (ko
Inventor
필립 에스. 뉴턴
알. 예이. 볼리오 데니스 데이.
프란치스코 스카로리
테이. 반데어하이덴 헤라르두스 웨이.
페이. 엠. 반 도버렌 헨리쿠스 에프.
한 위베 데
헨드릭 에프. 몰
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to EP08161152.7 priority Critical
Priority to EP08161152 priority
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority to PCT/IB2009/053116 priority patent/WO2010010499A1/en
Publication of KR20110102497A publication Critical patent/KR20110102497A/ko
Application granted granted Critical
Publication of KR101315081B1 publication Critical patent/KR101315081B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS, OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Abstract

3-차원 영상 신호를 생성하는 방법은 제 1 영상 성분을 수신하는 단계; 제 1 영상 성분과 조합하여 3-차원 영상을 생성하는 제 2 성분을 수신하는 단계; 3-차원 영상에 포함되는 텍스트 성분을 수신하는 단계; 3-차원 영상내의 텍스트 성분의 위치를 기술하는 위치 정보를 포함하는 데이터 성분을 수신하는 단계; 및 제 1 영상 성분, 제 2 성분, 텍스트 성분, 및 데이터 성분을 포함하는 3-차원 영상 신호를 생성하는 단계를 포함한다. 신호는 제 1 영상 성분 및 제 2 성분으로부터 3-차원 영상을 렌더링함으로써 렌더링되고, 상기 렌더링은 3-차원 영상에 텍스트 성분을 렌더링하는 것을 포함하고, 텍스트 성분의 렌더링은 렌더링된 텍스트 성분의 위치에서 3-차원 영상의 3-차원 파라미터들을 조절하는 것을 포함한다.

Description

서브타이틀들의 3D 디스플레이 처리{3D display handling of subtitles}

본 발명은 3-차원(3D) 영상 신호의 생성 및 렌더링에 관한 것이다. 일 실시예에서, 본 발명은 시청자의 피로를 약화시키는 3D 디스플레이상의 서브타이틀의 자동적인 최적의 포지셔닝을 제공한다.

현재, 3D 텔레비전에서의 관심의 부흥이 존재하고, 이는 다수의 시청자들을 위해 3D 비디오의 양호한 재생을 허용하는 디스플레이 기술의 최근의 약진과 관련된다. 이들 중 하나는 자동입체적인 3D 렌티큘러 디스플레이(autostereoscopic 3D lenticular display)이지만, 자동입체적인 배리어 기반 디스플레이 및 후방 프로젝션 기술을 기반으로 한 시간-다중화된 스테레오 디스플레이와 같은 다른 디스플레이 형태들이 또한 존재한다. 통상적으로, 이러한 디스플레이 형태들은 입력으로서 2개의 기본적인 비디오 포맷들 중 하나를 이용하여 시청자에게 3D 임프레션을 생성한다. 스테레오 기반 디스플레이들은 각 눈에 대해 하나씩 2개의 개별적인 뷰들을 생성하도록 시간 순차적인 인터리빙 및 안경들을 이용하고, 그러므로 입력으로서 스테레오 비디오를 기대한다. 이것들의 예들은 시간-다중화된 후방 프로젝션 기반 스테레오 디스플레이들이고, 이 시스템의 형태는 3D 영화에서 또한 이용된다. 이것에 대한 주요 대안은 안경들을 필요로 하지 않고 종종 3D 임프레션을 생성하기 위해 입력으로서 영상 + 깊이로서 알려진 입력 포맷을 이용하는 다중-뷰 자동입체적 디스플레이들이다. 3D 디스플레이 기술에 관한 더 많은 정보는 Oliver Shreer 등의 "3D video communication - Algorithms, concepts and real time systems in human centered communication"의 챕터 13(Wiley 2005)에서 찾을 수 있다.

스테레오 비디오 포맷은 각 눈에 대해 하나씩 2개의 영상들을 제공하기 때문에 단순하다. 통상적으로 이들 2개의 영상들은 공간적으로 또는 시간-순차적인 방식으로 인터리빙되고, 그 후 디스플레이에 공급된다. 영상 + 깊이라 칭하는 대안적인 포맷은 2D 영상과 이른바 "깊이" 또는 디스패리티 맵(disparity map)의 조합, 이라는 점에서 상이하다. 이는 통상적으로 그레이 스케일 영상이고, 이에 의해 화상의 그레이 스케일 값은 연관된 2D 영상에서 대응하는 화소에 대한 디스패리티의 양(또는 깊이 맵의 경우 깊이)을 나타낸다. 3D 영상의 렌더링 시에 디스플레이는 입력으로서 2D 영상을 취하는 부가적인 뷰들을 산출하기 위해 디스패리티 또는 깊이 맵을 이용한다. 이는 다양한 방식들로 이루어질 수 있는데, 가장 단순한 형태에서, 해당 화소들에 연관된 디스패리티 값에 의존하여 좌측 또는 우측으로 화소들을 이동시키는 것이다. Chirstoph Fen의 "Depth image based rendering, compression and transmission for a new approach on 3D TV"라는 제목의 논문이 이 기술의 개관을 제공한다.

자동입체적 및 (시간 순차적 기반) 스테레오 3D 디스플레이 갖는 문제점은 조절-수렴 미스매치(accommodation-convergence mismatch)라 칭해지는 것이다. 이는 시청자의 눈들이 디스플레이되는 객체들의 가상 위치상에서 수렴되고 동시에 눈들은 스스로 디스플레이의 표면상에 (영상 윤곽을 보도록) 조절된다는 문제이다. 이 미스매치는 두통들 및 멀미와 연관된 다른 증상들을 야기할 수 있다. 또한 좌측 및 우측 눈들에 대한 뷰들간의 임의의 기하학적(특히 임의의 수직 시차) 및 전기적(밝기, 콘트라스트 등) 차이들은 부가적으로 시각적인 피로를 야기할 수 있다. 그러나, 디스패리티의 양이 작게 유지되는 경우, 즉 1도 더 작게 되면, 이 문제들은 거의 심각하지 않고, 사용자들은 큰 문제없이 콘텐트를 볼 수 있다. 더 많은 상세를 위해서는 Sumio Yano 등의 "Two factors in visual fatigue caused by stereoscopic HDTV images" 디스플레이 2004, 페이지 141 내지 150, Elsevier를 참조한다.

상기 문제점들과 유사한 문제가 렌더링 디바이스가 서브타이틀들(subtitles) 또는 자막방송(closed captioning)과 같은 텍스트를 디스플레이할 때 발생할 수 있다. 디스플레이 형태 및 설정들에 의존하는 텍스트가 스크린상에 적절히 위치되지 않는 경우, 텍스트는 예를 들어, 좌측 및 우측 눈 뷰들간의 크로스토크로 인해 흐릿하게 나타날 수 있고, 시청자는 피로를 느낄 수 있다. 또한, 흐릿해짐이 텍스트의 판독성에 영향을 미칠 수 있는 경우도 있다. E.Legge(Gordon E.Legge 등의 "Psychophysics of Reading: I. Normal Vision", Vision Research, Vol 25, No.2, 페이지 239 내지 252, 1985를 참조)에 따르면, 텍스트의 대역폭이 문자당 2 사이클 이하인 경우 판독이 나빠진다. 흐릿해짐은 통상적으로 해상도가 다수의 뷰들을 생성하기 위해 희생되기 때문에 자동입체 디스플레이가 갖는 문제이고, 일반 스테레오 디스플레이들에 대해, 영상들의 흐릿해짐을 더할 수 있는 2개의 뷰들간의 차선의 분할이 갖는 문제점이 존재한다. 또한, Yano(위에서 언급함)에 따르면, 깊이 움직임은 시각적인 피로를 증가시킨다.

예상되는 또 다른 문제는 시청자들이 3D 텔레비전에서 깊이 평면의 디스패리티의 양 및 상대적 위치를 조절(예를 들어, 그들의 원격 제어상의 일부 버튼들을 통해)할 수 있다는 것이다. 이들 조절들은 깊이 중립 위치로부터 멀어지게 이동하기 때문에 텍스트가 흐릿해질 수 있거나, 또는 "깊이"를 증가시킨다는 것을 의미하고 이에 따라 시각적인 피로를 야기한다.

미합중국 특허 출원 공개 US 2005/0140676은 3차원 맵에서 다중-레벨 텍스트 데이터를 디스플레이하는 방법을 개시한다. 이 공개문헌에 기술된 시스템에서, 3-차원 맵은 스크린상에 디스플레이되고, 상이한 밀도 레벨들을 갖는 텍스트 데이터는 디스플레이되는 3-차원 맵의 시점으로부터 텍스트 데이터가 디스플레이될 노드들로의 거리들에 따라 디스플레이되어 텍스트 데이터의 판독성을 개선한다. 또한, 스크린상에 텍스트 데이터의 밀도를 국부적으로 조절함으로써 텍스트 데이터를 디스플레이하는 것이 가능하다. 3-차원 맵은 지각적인 프로젝션 방법에 의해 2차원 좌표들을 갖는 맵 데이터를 3차원 좌표들을 갖는 것으로 변환함으로써 디스플레이 패널의 스크린상에 디스플레이된다. 3-차원 맵과 함께 디스플레이되는 텍스트 데이터는 3-차원 맵의 시점에 의해 규정된 원점(origin)을 갖는 3-차원 좌표 시스템의 텍스트 데이터로 변환된다. 변환된 텍스트 데이터는 스크린 좌표들을 갖는 텍스트 데이터로 변환되도록 2-차원 평면상에 프로젝팅된다. 그러면, 디스플레이되는 3-차원 맵의 시점으로부터 텍스트 데이터가 디스플레이될 노드들까지의 거리들이 분류된다. 분류된 거리들은 스크린 좌표들을 갖는 변환된 텍스트 데이터에 대해 결정된다. 결정된 거리들에 대응하는 레벨들의 텍스트 데이터는 3-차원 맵이 디스플레이되는 디스플레이 패널의 스크린상에 디스플레이된다.

2-차원 디스플레이 디바이스상에서의 3-차원 맵의 표현의 문맥에서, 이 공개문헌에 따른 텍스트 데이터의 처리는 사용자에 대해 의미있는 방식으로 포지셔닝 및 스케일링되지만, 3-차원 디스플레이 디바이스에서 텍스트의 디스플레이에 관련된 상기 식별된 이슈들 중 임의의 이슈는 다루지 못한다.

문서 JP2004-274125는 3D 신호 생성을 개시한다. 멀티플렉서는 2개의 영상 성분들과 수신단에서 겹쳐지는(superimposed) 문자 데이터를 멀티플렉싱한다. 상기 3D 영상 신호는 텍스트 데이터의 개별 스트림을 갖는다.

문서 EP 0905988은 예를 들어 비디오 및 제 2 신호가 겹쳐지는 문자 데이터와 같은 2개의 3D 영상 신호들을 수신하는 3D 영상 디스플레이 장치를 개시한다. 최대 깊이 값은 1 신호로부터 획득된다. 제 2 신호의 시차는 제 1 신호 전에 제어된다.

문서 WO2008/038205는 메뉴 정보와 조합된 3D 신호 디스플레이를 개시한다. 이는 상이한 3D 신호들을 디스플레이하기 위한 구획(subrange)의 디스플레이의 3D 깊이 영역을 세분하도록 제안된다.

문서 WO2006/111893은 텍스트 정보와 조합된 비디오를 디스플레이하기 위한 3D 깊이 인식을 개시한다. 3D 비디오 신호는 오버레이 데이터(텍스트)가 포함되고, 오버레이 지표 맵을 갖도록 생성된다. 오버레이 정보는 화소가 오버레이인지 또는 오버레이가 아닌지(즉, 비디오)의 여부를 나타낸다. 오버레이 화소들은 렌더링 디바이스에서 상이한 깊이에 포지셔닝된다. 오버레이 정보는 단지 오버레이(텍스트) 자체를 나타내고, 상기 텍스트 자체는 렌더링 디바이스에서 수정가능하다.

그러므로, 본 발명의 목적은 알려진 기술을 개선하는 것이다.

본 발명의 제 1 양상에 따르면, 청구항 1에 정의된 바와 같은 방법, 청구항 10에 정의된 바와 같은 방법, 청구항 11에 정의된 바와 같은 디바이스, 청구항 12에 정의된 바와 같은 디바이스, 및 청구항 13에 정의된 바와 같은 3-차원 영상 신호가 제공된다. 유리하게는, 텍스트-기반 및 프리젠테이션-그래픽-기반 서브타이틀들 모두에 대한 Z-위치는 동일하며, 단지 스트림당 한 번(즉, 서브타이틀 언어당) 저장될 필요가 있다. 예로서, BD 디스크 상에 이러한 서브타이틀들의 공유된 Z-위치를 저장하기 위한 실제적인 실시예들이 종속 청구항들에 정의된다.

본 발명의 추가적인 양상에 따라, 디스플레이 상에 렌더링하기 위한 3-차원 영상 신호를 생성하는 방법이 제공되며, 상기 방법은 제 1 영상 성분을 수신하는 단계; 상기 제 1 영상 성분과 조합하여 3-차원 영상을 생성하는 제 2 성분을 수신하는 단계; 상기 3-차원 영상에 포함되는 텍스트 성분을 수신하는 단계; 상기 3-차원 영상내의 상기 텍스트 성분의 위치를 기술하는 위치 정보를 포함하는 데이터 성분을 수신하는 단계; 및 상기 제 1 영상 성분 및 상기 제 2 성분을 포함하는 3-차원 영상 신호를 생성하는 단계로서, 상기 3-차원 영상 신호를 생성하는 단계는 상기 제 1 영상 성분에 상기 텍스트 성분을 포함시키는 단계를 포함하고, 상기 영상의 나머지와 상이한 텍스트를 포함하는 상기 영상의 부분을 취급하기 위해 상기 렌더링된 텍스트 성분의 위치에서 상기 3-차원 영상의 3-차원 파라미터들을 상기 디스플레이로 하여금 조절 가능하게 하기 위해 상기 3-차원 영상 신호에 상기 데이터 성분을 포함시키는 단계를 포함하는, 상기 3-차원 영상 신호 생성 단계를 포함한다.

본 발명의 추가적인 양상에 따라, 디스플레이 상에 렌더링하기 위한 3-차원 영상 신호를 생성하는 디바이스가 제공되며, 상기 디바이스는, 제 1 영상 성분, 상기 제 1 영상 성분과 조합하여 3-차원 영상을 생성하는 제 2 성분, 상기 3-차원 영상에 포함되는 텍스트 성분, 및 상기 3-차원 영상 내의 상기 텍스트 성분의 위치를 기술하는 위치 정보를 포함하는 데이터 성분을 수신하도록 구성된 수신기; 및 상기 제 1 영상 성분 및 상기 제 2 성분을 포함하는 3-차원 영상 신호를 생성하도록 구성된 멀티플렉서로서, 상기 생성은 상기 제 1 영상 성분에 상기 텍스트 성분을 포함시키는 것을 포함하고, 상기 3-차원 영상 신호의 생성은 상기 영상의 나머지와 상이한 텍스트를 포함하는 상기 영상의 부분을 취급하기 위해 상기 렌더링된 텍스트 성분의 위치에서 상기 3-차원 영상의 3-차원 파라미터들을 상기 디스플레이로 하여금 조절 가능하게 하기 위해 상기 3-차원 영상 신호에 상기 데이터 성분을 포함시키는 단계를 포함하는, 상기 멀티플렉서를 포함한다.

본 발명의 추가적인 양상에 따라, 디스플레이 상에 렌더링하기 위한 3-차원 영상 신호로서, 상기 3-차원 영상 신호는 제 1 영상 성분, 상기 제 1 영상 성분과 조합하여 3-차원 영상을 생성하는 제 2 성분, 및 상기 제 1 영상 성분에 포함된 텍스트 성분을 포함하고, 상기 영상의 나머지와 상이한 텍스트를 포함하는 상기 영상의 부분을 취급하기 위해 상기 렌더링된 텍스트 성분의 위치에서 상기 3-차원 영상의 3-차원 파라미터들을 상기 디스플레이로 하여금 조절 가능하게 하기 위해 상기 3-차원 영상 내의 상기 텍스트 성분의 상기 위치를 기술하는 위치 정보를 포함하는 데이터 성분을 포함하는 3-차원 영상 신호가 제공된다.

본 발명의 추가적인 양상에 따라, 3-차원 영상 신호를 렌더링하는 방법이 제공되며, 상기에 규정된 바와 같은 상기 3-차원 영상 신호를 수신하는 단계; 상기 제 1 영상 성분 및 상기 제 2 성분으로부터 3-차원 영상을 렌더링하는 단계를 포함하고, 상기 렌더링은 상기 영상의 나머지와 상이한 텍스트를 포함하는 상기 영상의 부분을 취급하기 위해 상기 렌더링된 텍스트 성분의 위치에서 상기 3-차원 영상의 3-차원 파라미터들을 조절하는 단계를 포함한다.

본 발명의 추가적인 양상에 따라, 3-차원 영상 신호를 렌더링하는 디바이스가 제공되고, 상기에 규정된 바와 같은 상기 3-차원 영상 신호를 수신하도록 구성된 수신기; 상기 제 1 영상 성분 및 상기 제 2 성분으로부터 3-차원 영상을 렌더링하도록 구성된 디스플레이를 포함하고, 상기 렌더링은 상기 영상의 나머지와 상이한 텍스트를 포함하는 상기 영상의 부분을 취급하기 위해 상기 렌더링된 텍스트 성분의 위치에서 상기 3-차원 영상의 3-차원 파라미터들을 조절하는 것을 포함한다.

본 발명의 추가적인 양상에 따라, 디스플레이 상에 렌더링하기 위한 3-차원 영상 신호를 생성하기 위한 컴퓨터 판독가능 매체상의 컴퓨터 프로그램 제품에 있어서, 제 1 영상 성분을 수신하고; 상기 제 1 영상 성분과 조합하여 3-차원 영상을 생성하는 제 2 성분을 수신하고; 상기 3-차원 영상에 포함되는 텍스트 성분을 수신하고; 상기 3-차원 영상 내의 상기 텍스트 성분의 위치를 기술하는 위치 정보를 포함하는 데이터 성분을 수신하고, 및 상기 제 1 영상 성분 및 상기 제 2 성분을 포함하는 3-차원 영상 신호를 생성하기 위한 명령들을 포함하고, 3-차원 영상 신호를 생성하기 위한 명령은 상기 영상의 나머지와 상이한 텍스트를 포함하는 상기 영상의 부분을 취급하기 위해 상기 렌더링된 텍스트 성분의 위치에서 상기 3-차원 영상의 3-차원 파라미터들을 상기 디스플레이로 하여금 조절 가능하게 하기 위해 상기 3-차원 영상 신호에 상기 데이터 성분을 포함시키는 것을 포함하는, 컴퓨터 프로그램 제품이 제공된다.

본 발명의 추가적인 양상에 따라, 디스플레이 상에 렌더링하기 위한 3-차원 영상 신호를 렌더링하기 위한 컴퓨터 판독가능 매체상의 컴퓨터 프로그램 제품에 있어서, 상기에 규정된 바와 같은 3-차원 영상 신호를 수신하고; 상기 제 1 영상 성분 및 상기 제 2 성분으로부터 3-차원 영상을 렌더링하는 명령들을 포함하고, 상기 렌더링은 상기 영상의 나머지와 상이한 텍스트를 포함하는 상기 영상의 부분을 취급하기 위해 상기 렌더링된 텍스트 성분의 위치에서 상기 3-차원 영상의 3-차원 파라미터들을 조절하는 것을 포함하는, 컴퓨터 프로그램 제품이 제공된다.

본 발명으로 인해, 3D 디스플레이상에 서브타이틀들과 같은 텍스트의 판독가능성이 개선되는 것이 가능하다. 개선된 판독가능성은 서브타이틀들을 포함하는 영상의 일부를 디스플레이가 영상의 나머지와 상이하게 취급할 수 있도록 부가적인 파라미터들이 3D 디스플레이로 송신된다는 사실을 기초로 한다. 그 후, 디스플레이는 서브타이틀들이 깊이, 선명도 및 텍스트의 일반적인 판독가능성에 관해 최고의 방식으로 자동으로 위치되는 것을 보장할 수 있다. 본 발명의 적용은 3D 디스플레이에 접속되고, 3D 콘텐트 및 연관된 서브타이틀들을 보여주는 블루-레이 디스크 재생기 및 DVD 또는 HD-DVD 재생기와 같은 시스템들에 적용 가능하다. 영상 신호는 추가로 인터넷, 또는 인트라넷과 같은 디지털 네트워크를 통해 부분적으로 또는 완전히 얻어질 수 있다는 것이 당업자에게 자명할 것이다.

텍스트, 특히 서브타이틀들은 스크린으로부터 깊이의 제한된 영역 내에 디스플레이되어야 하고, 이들은 전체 프리젠테이션 동안 깊이가 변경되지 않아야 한다. 텍스트의 깊이가 일정하게 남아있어야 하는 경우, 비디오의 깊이는 변할 수 있기 때문에, 포지셔닝에 대한 문제가 또한 제기되고, 이에 따라 특정한 장면들 동안 텍스트의 부분들이 가려진다. 요약하면, 3D 자동입체 디스플레이상에 서브타이틀들 또는 자막 방송을 디스플레이할 때, 이하의 요인들이 고려되어야만 하고, 디스패리티의 양은 1도(one degree) 더 작아야 하고, 텍스트의 대역폭은 문자당 2 사이클 이상 유지해야 하고, 텍스트는 스크린에 비해 일정한 깊이로 남아있어야 하고, 텍스트는 비디오 객체들에 의해 모호해지지 말아야 한다.

이들 조건들은 본 발명에 따라 개선된 시스템에 의해 충족될 수 있다. 디스패리티의 양의 제어는 서브타이틀들 또는 자막 방송의 위치에 관한 "깊이" 맵의 부분을 조절함으로써 완료될 수 있다. 일부 디스플레이들은 스테레오 입력을 필요로 하고, 이 경우 재생기에서 디스패리티의 양을 제어하는 것이 더 어렵긴 하지만 여전히 가능하다.

대역폭 제약들을 충족하기 위해, 재생기는 텍스트의 해상도가 충분히 높고, 잔상(ghosting)이 최소로 유지되고 이동하는 텍스트의 속도가 너무 빠르지 않다는 것을 보장해야 한다. 이 요인들을 충족하기 위해, 재생 디바이스는 디스플레이에 충분한 해상도로 서브타이틀들 또는 자막 방송들을 송신해야 하고, 잔상이 최소가 되도록 깊이를 조절해야 한다. 이는 통상적으로 텍스트의 깊이가 중립(가능한 한 스크린에 가깝게)을 유지해야 한다는 것을 의미한다. 그러나, 이는 비디오의 깊이가 동적으로 변하기 때문에 비디오의 부분들이 텍스트의 부분들을 가리는 것과 같은 문제를 야기할 수 있다. 이는 텍스트의 깊이를 동적으로 조절하여 앞에 남아있는 것을 보장함으로써 해결된다. 그러나, 이는 텍스트가 깊이면에서 변할 것이라는 것을 의미하고, 이는 Yano에 따르면 시각적인 피로를 야기할 수 있다. 텍스트의 위치에 관한 정보를 전송하고, 텍스트의 위치에서 3D 영상의 3D 파라미터들을 조절함으로써, 이 문제들을 극복한다.

텍스트의 깊이는 보다 긴 시간 기간들 동안 고정되는 것이 바람직하지만, 예를 들어, 특정한 3D 효과들을 달성하기 위해 변동들이 허용될 수 있다.

유리하게는, 3D 영상 신호를 생성하는 단계는 제 1 영상 성분에 텍스트 성분을 포함시키는 것을 포함한다. 텍스트 성분(예를 들어, 서브타이틀)은 제 1 영상 성분에 직접 포함될 수 있고, 개별 성분으로서 전송될 필요가 없다. 3D 영상을 렌더링할 수신 장치는 해당 서브타이틀이 신호의 제 1 영상 성분에 임베딩된 경우조차도 해당 서브타이틀의 영역에서 3D 디스플레이 파라미터들을 여전히 제어할 수 있다.

바람직하게는, 3-차원 영상 신호를 생성하는 단계는 제 1 영상 성분, 제 2 성분, 텍스트 성분 및 데이터 성분을 포함하는 단일의 영상 프레임을 생성하는 단계를 포함한다. 신호내의 성분들 모두는 단일의 영상 프레임으로 조합될 수 있고, 신호의 상이한 성분들은 영상 프레임의 상이한 부분들을 차지한다. 이는 신호를 구성하는 요소들을 조합하는 편리한 방법이고, 비교적 높은 프레임 해상도를 지원하는 HDTV와 같은 기존의 표준들의 이점을 취하는데 이용될 수 있다. 궁극의 신호내의 텍스트 성분의 위치를 규정하는 데이터 성분과 같은 성분은 프레임의 실제 영상 데이터 내가 아니라, 영상 프레임의 헤더에 포함될 수 있다.

이상적으로는, 3-차원 영상 신호를 생성하는 단계는 제 1 영상 성분 및 제 2 성분 각각에 대한 배경 정보를 포함하는 것을 포함한다. 최종 결과의 품질은 렌더링 디바이스의 출력이 배경 정보를 또한 포함하는 경우 개선될 수 있다. 이는 배경 정보의 데이터에 기초하여, 서브타이틀들의 포지셔닝이 비교적 관심도가 낮은 3D 디스플레이 영역의 부분에 서브타이틀들을 배치하도록 조절되는 것을 허용한다.

바람직하게는, 렌더링되는 텍스트 성분의 위치에서 3-차원 영상의 3-차원 파라미터들을 조절하는 단계는 렌더링되는 텍스트의 위치에서 3-차원 영상의 지각되는 깊이를 감소시키는 것을 포함한다. 렌더링 디바이스는 예를 들어, 깊이 맵으로서 기술된 바와 같이 요청된 깊이를 무시함으로써 서브타이틀들의 위치에서 3D 영상의 지각된 깊이를 조절할 수 있다. 그러면, 실제로 서브타이틀들을 포함할 3D 디스플레이 디바이스의 특정 영역에서, 디스플레이된 콘텐트의 지각된 깊이는 관람자의 눈에 대한 임의의 부담을 약화시키기 위해 감소될 수 있다.

유리하게는, 렌더링되는 텍스트 성분의 위치에서 3-차원 영상의 3-차원 파라미터들을 조절하는 단계는 렌더링되는 텍스트의 위치에서 3-차원 영상의 뷰들의 수를 감소시키는 것을 포함한다. 3D 디스플레이 디바이스에 의해 보여지는 뷰들의 수를 감소시킴으로써, 텍스트의 잔상 또는 흐릿해짐이 감소될 수 있다. 또한, 국부적으로 스위칭 가능한 렌즈들의 구성을 갖는 렌티큘러 디스플레이에서, 렌즈들은 서브타이틀들이 위치하는 디스플레이 부분에서 스위치 오프될 수 있다. 이는 서브타이틀들을 포함하는 3D 영상의 해당 부분에서 영상이 보다 분명히 디스플레이되게 하고, 관람자의 눈들에 가해진 부담이 대응하여 감소된다.

이상적으로는, 렌더링되는 텍스트 성분의 위치에서 3-차원 영상의 3-차원 파라미터들을 조절하는 단계는 렌더링된 텍스트의 위치에서 미리 결정된 문턱값 미만으로 3차원 영상의 디스패리티를 유지하는 것을 포함한다. 1도와 같은 특정 문턱값이 서브타이틀들을 포함하는 3D 영상의 영역에서 허용되는 디스패리티의 양에 관한 제한으로서 설정될 수 있다. 이는 관람자의 눈이 과도하게 긴장하지 않고 관람자가 서브타이틀을 지각하는 것을 도울 것이데, 그 이유는 디스패리티의 감소는 3D 디스플레이 디바이스의 관람자에게 관람을 더 편안하게 할 것이기 때문이다.

본 발명의 실시예들은 단지 예시로서 첨부 도면들을 참조하여 이제 기술될 것이고, 여기서 유사한 번호들은 유사한 요소들 또는 기능들을 지시하는데 이용된다.

본 발명은 시청자의 피로를 약화시키는 3D 디스플레이상의 서브타이틀의 자동적인 최적의 포지셔닝을 제공한다.

도 1은 3D 영상의 생성을 예시하는 개략도.
도 2는 3D 재생 시스템의 개략도.
도 3은 3D 재생 시스템에서 콘텐트 및 데이터 흐름을 도시하는 개략도.
도 4는 3D 재생 시스템의 재생 디바이스의 개략도.
도 5는 출력의 생성에 있어서 평면들의 사용을 도시하는 개략도.
도 6은 3D 영상 신호의 개략도.
도 7은 개선된 3D 영상 신호의 개략도.
도 8은 더욱 개선된 3D 영상 신호의 개략도.
도 9는 도 4와 유사한 재생 디바이스의 제 2 실시예의 개략도.
도 10은 3D 영상에 배치된 텍스트의 개략도.

3-차원 영상의 생성이 도 1에서 개략적으로 예시된다. 본질적으로, 최종 렌더링 디스플레이 디바이스가 자동입체적인지, 또는 스테레오 쌍(stereo pair)(사용자가 특수한 안경을 착용할 것을 필요로 함) 상에서 구동하는지 간에, 처리는 동일하다. 제 1 영상 성분(10) 및 제 2 성분(12)이 3-차원 영상(14)을 생성하기 위해 제공된다. 제 1 영상 성분(10)과 조합하는 제 2 성분(12)은 최종 출력(14)을 생성하기 위해 함께 처리된다. 모든 시스템들에서, 제 1 영상 성분(10)은 임의의 적합한 표준의 종래의 2-차원 영상이다. 스테레오 쌍 시스템에서, 제 2 성분(12) 또한 영상이고, 자동입체 시스템들에서, 제 2 성분(12)은 깊이 맵, 또는 디스패리티 맵이다.

최종 출력(14)은 반드시 단일 프레임일 필요가 없다는 것을 이해하는 것이 중요하다. 예를 들어, 스테레오 쌍 시스템(영상(10)은 좌안용, 및 영상(12)은 우안용임)에서, 이들 두 성분들(10 및 12)은 순차적으로 도시될 수 있다. 비-시간 순차적 자동입체 시스템들에서, 영상(10) 및 깊이 맵(12)은 영상(10)으로부터 다수의 유사한 뷰들을 생성하는데 이용되고, 깊이 맵은 개별적인 뷰들을 만드는데 필요한 영상(10)에 대한 변경들을 생성하는데 이용된다. 그 후, 이 뷰들은 단일 프레임(14)으로 합쳐진다. 예를 들어, 궁극의 렌더링 디스플레이 디바이스는 모두가 동일한 영상(10)으로부터 생성된 4개의 개별적인 뷰들을 도시하도록 제어될 수 있다. 그 후, 이 뷰들은 각각이 디스플레의 디바이스의 해상도의 1/4인 해상도를 갖는 줄무늬들로 함께 꼬아진다(splice).

제 1 영상 성분(10)은 예를 들어, 스테레오-뷰 콘텐트, 다중-뷰 콘텐트 또는 영상+깊이 콘텐트의 경우, 예를 들어, 장면의 뷰를 표현하는 RGB 또는 YUV 정보를 포함하는 화소 요소들/영상의 2-차원 어레이를 포함할 수 있다. 위에서 언급한 바와 같이, 제 2 성분(12)은 화소 요소들/영상의 2차원 어레이일 수 있다. 스테레오-뷰 콘텐트들 또는 다중-뷰 콘텐트들의 경우에, 이는 동일한 장면의 추가의 뷰일 수 있고, 영상+깊이 콘텐트의 경우 디스패리티 또는 깊이 정보를 포함하는 이른바 디스패리티/깊이 맵일 수 있다. 영상 출력(14)은 예를 들어, 시간에 걸쳐 하나 이상의 장면들을 표현하는 다중 프레임들을 이용하는 비디오 영상 신호를 포함할 수 있다.

도 2는 예를 들어, 3D 필름을 위해 제 1 및 제 2 성분들(10 및 12)을 포함하는 디스크(16)가 제공되는 3D 재생 시스템을 예시한다. 디스크(16)는 예를 들어, 블루-레이 표준 DVD일 수 있다. 디스크(16)는 블루-레이 DVD 재생기와 같은 재생 디바이스(18)에 의해 재생된다. 비디오 인터페이스(20)는 성분들(10 및 12)을 3D 텔레비전(22)에 통신하는데 이용된다. 텔레비전(22)은 3D 출력(14)(위에서 언급한 도 1에 따름)을 생성하도록 실시간으로 성분들(10 및 12)을 처리하는 렌더링 스테이지(24)를 포함한다. 사용자(26)는 렌더링 디스플레이 디바이스(22)를 관람하고, 적절한 사용자 인터페이스 및 원격 제어 디바이스(도시되지 않음)를 통해 사용자 설정들(28)을 디바이스(22)에 공급할 수 있다.

이러한 시스템들에서, 서브타이틀들(또는 사실상 메뉴들과 같은 임의의 텍스트)의 사용은 재생 디바이스(18)에 의해 지원된다. 예를 들어, 디스크(16)가 디스크(16)상에 저장된 정보의 데이터부들내에 외국어 서브타이틀들과 같은 서브타이틀을 포함하는 것이 일반적이다. 이들은 디스크(16)상의 실제 필름 콘텐트의 재생을 시작하기 전에 온-스크린 메뉴를 통해 사용자에 의해 선택될 수 있다. 그러면 이 서브타이틀들은 렌더링되고 있는 3D 콘텐트를 오버레이하여 디스플레이 디바이스(22)에 의해 디스플레이된다. 위에서 논의된 바와 같이, 종래 기술을 고려하여, 다수의 상황들에서, 3D 디스플레이 시스템의 서브타이틀들의 디스플레이는 사용자 눈에 부담 및 피로를 야기할 수 있다. 본 발명의 시스템은 종래 기술의 문제점들이 개선되는 방식으로 서브타이틀들(또는 사실상 임의의 텍스트)을 보여주는 방법을 제공한다.

제공된 해결책은 디스플레이(22)가 인입하는 비디오 스트림에서 텍스트(예를 들어, 서브타이틀들)를 식별하는 것을 허용하고, 이에 따라 텍스트를 잔여 비디오 신호와 상이한 방식으로 취급하는 것이다. 디바이스(22)는 예를 들어, 텍스트가 비디오 앞에 남아있거나, 또는 텍스트가 돌출되지 않는 것을 보장하기 위해 비디오 신호의 깊이를 압박 및 후퇴시키는 것을 보장할 수 있다(국제 특허 출원 공개 WO 2008/038205에 기술된 바와 같이). 또한, 디스플레이(22)는 예를 들어, 스위칭 가능하게 됨으로써 또는 보다 적은 수의 뷰를 지원함으로써 상이한 렌즈 구성(렌티큘러 디스플레이의 경우)을 갖는 텍스트를 보여주도록 특별히 설계된 스크린의 섹션을 제공할 수 있다. 3D 자동입체 디바이스상의 텍스트의 판독가능성은 대부분 자동입체 디스플레이 기술에 고유한 문제이기 때문에, 인입하는 비디오 신호에서 서브타이틀들을 식별할 수 있게 되는 것으로부터 혜택을 받는 디스플레이에서의 추가로 현재 예상되지 않는 개선들에 대한 기대가 존재한다.

서브타이틀들 용 텍스트를 디스플레이에 개별적으로 송신하는 한 방법은 Ceefax 또는 Teletext를 위해 유럽(PAL)에서 이용되는 NTSC용 아날로그 비디오의 라인(21)에 포함된 자막 방송 정보와 같은 텍스트의 전송에 의한다. 그러나, 자막 방송 정보는 현재 HDMI를 통한 고-선명 비디오의 전송시에 지원되지 않는다. 현재 이를 해결하기 위해, DVD 또는 블루-레이 디스크 재생기들과 같은 재생 디바이스들은 MPEG 스트림에 위치한 자막 방송 정보를 디코딩하고 이를 디스플레이로 전송하기 전에 비디오의 상부에 오버레이한다. 이러한 해결책을 이용하기 위해서는 자막 방송 정보의 전송을 포함하도록 HDMI 사양을 확장하는 것을 필요로 할 것이다. 상기는 다른 디지털 디스플레이 인터페이스들에도 또한 적용될 수 있다는 것이 당업자에게 자명할 것이다.

다른 해결책은 사용자가 디스플레이(22)의 깊이 설정들을 조절할 때, 재생 디바이스(18)가 이러한 변경을 통지받도록 재생 디바이스(18)와 디스플레이(22)간에 양방향 통신 링크를 제공하는 것이다. 그 결과, 재생 디바이스(18)는 서브타이틀들의 포지셔닝을 조절할 수 있다. 양호한 실시예는 재생 디바이스(18)로 하여금 비디오상에 서브타이틀들의 포지셔닝 및 오버레이를 처리하고 디스플레이(22)에 서브타이틀들이 존재한다는 사실 및 서브타이틀들이 위치한 곳을 지시하도록 한다. 그 후 디스플레이(22)는 서브타이틀들과 연관된 "깊이"값이 특정 디스플레이(22)에 대해 가장 최적이고 사용자 설정들(28)과 연관된 깊이로 맵핑되는 것을 보장할 수 있다. 이는 디스플레이(22)가 렌더링 스테이지에 서브타이틀 또는 자막 방송 디코더를 필요로 하지 않는다는 부가적인 장점을 갖는다.

일 실시예에서, 시스템의 개선이 달성되고, 그에 의해, 도 2에서 도시된 바와 같이 재생기 디바이스(18)는 1도 이하의 디스패리티 양을 유지하면서 텍스트가 비디오 앞에 있도록 서브타이틀들의 포지셔닝을 조절한다. 바람직하게는, 재생기 디바이스(18)는 디스플레이의 프로젝션 볼륨에서 서브타이틀들이 x, y, 및 z("깊이") 위치에 관해 위치되는 경우 디스플레이 디바이스(22)에 대해 식별하는 출력 스트림 메타데이터 정보에 삽입한다. 이 경우, 디스플레이 디바이스(22)의 렌더링 스테이지(24)는 잔상을 최소로 유지하고 디스패리티의 양을 1도 이하로 유지하도록 포지셔닝을 유지하면서, 앞서 언급한 메타데이터 정보 및 사용자 우선 설정들(28)(디스패리티의 양 및 상대적 위치에 관해)에 의존하여 디스플레이의 프로젝션 볼륨에서 서브타이틀들의 포지셔닝을 조절한다. 또한, 디스플레이(22)는 장비되는 경우, 2D 및 3D 사이에서 스위칭 가능하거나, 잔상이 거의 없고 더 높은 광학 해상도(예를 들어, 보다 적은 뷰들을, 또는 제한된 디스패리티 양을 지원함으로써)를 지원하는 디스플레이 표면의 특정 부분상에 서브타이틀들을 위치시킨다.

일 실시예에서, 텍스트 성분(30)은 실질적으로 평탄하고, 및/또는 깊이 영역이 텍스트(30)와 연관될 때, 해당 깊이 영역은 예를 들어, 1 내지 2 화소들과 같이 미리 결정된 영역일 수 있는 특정 영역으로 각 뷰들간의 디스패리티가 제한되도록 문턱값에 의해 제한된다. 텍스트 성분(30)이 실질적으로 평탄한 양호한 실시예에서, 텍스트 성분은 비트맵-기반 텍스트 성분이 아니라 텍스트-기반 텍스트 성분이고; 이에 의해 텍스트 성분(30)의 특히 간결한 표현을 가능하게 한다.

도 2의 시스템의 콘텐트 및 데이터 흐름이 도 3에서 예시된다. 디스크(16)는 제 1 영상 성분 및 제 2 성분, 및 서브타이틀들이 되는 텍스트 성분(30)을 포함한다. 사용자가 그들이 관람할 3D 필름과 함께 서브타이틀(30)이 재생되기를 원한다는 것을 지시하는 사용자 명령(32)이 재생 디바이스(18)에 의해 수신된다. 재생 디바이스(18)는 서브타이틀들과 함께 성분들(10 및 12), 및 궁극의 3D 영상(14)내의 텍스트 성분(30)의 위치를 기술하는 위치 정보를 포함하는 데이터 성분(34)을 렌더링기(24)에 제공한다. 재생 디바이스는 그들의 각 소스들로부터 다양한 성분들을 수신하는 수신기 및 이들 4개의 요소들(10, 12, 30, 34)을 렌더링기(24)에 의해 수신되는 3-차원 영상 신호(36)로 조합하는 멀티플렉서를 포함한다.

서브타이틀 정보(34)는 영상 데이터(10 및 12)와 별개로, 즉 아마도 활성 영상 영역이 아니라 헤더에서, 또는 데이터 아일랜드들에서, 또는 영상 데이터를 포함하지 않는 프레임 부분에서 렌더링기(24)에 송신될 수 있다. 예를 들어, 보통 프레임 레이트의 2배로 비디오 스트림이 송신될 수 있는데, 여기서 하나의 프레임은 영상 데이터(10 및 12)를 포함하고, 다른 프레임은 깊이(선택적으로는 차폐 회피(de-occlusion)를 포함함) 정보를 포함하고 서브타이틀(30) 및 위치 정보(34)에 대한 특별 영역을 또한 포함한다.

그러면, 렌더링기(24)는 제 1 영상 성분(10) 및 제 2 성분(12)으로부터 3-차원 영상(14)을 렌더링하도록 구성되고, 상기 렌더링은 3-차원 영상(14)에서 텍스트 성분(30)의 렌더링을 포함하고, 텍스트 성분(30)의 렌더링은 렌더링되는 텍스트 성분(30)의 위치에서 3-차원 영상(14)의 하나 이상의 3-차원 파라미터들을 조절하는 것을 포함한다. 텍스트 성분(30) 자체는 렌더링기(24)에 의해 이루어지는 조절들에 의해 전체적으로 변경되지 않을 수 있다. 중요한 요인은 텍스트(30)의 위치에 디 스플레이되는 영상(14)의 부분들의 파라미터들을 렌더링기가 조절할 것이라는 것이다. 이는 영상(14)의 상기 영역에서 3D 영상의 지각된 깊이를 감소시키는 것을 포함할 수 있고, 또는 뷰들의 수(자동입체 디스플레이 디바이스에서) 또는 2개 이상의 조절들의 조합을 감소시키는 것을 포함할 수 있다. 또한, 렌더링기(24)는 서브타이틀들(30)이 디스플레이되는 영역의 깊이를 변경하지 않을 뿐 아니라, 전체 깊이 범위를 전방 또는 후방으로 이동시키기 위해 오프셋을 또한 포함하는 것이 가능하다. 이 오프셋은 잔여 영상 데이터(14)로부터 서브타이틀들(30)에 대해 개별적으로 제어될 수 있다.

자동입체 디스플레이를 이용하는 실시예에서, 제 2 성분(12)은 깊이 맵을 포함하고, 3D 영상(14)을 렌더링하는 방법은 데이터 성분(34)에 의해 지정된 위치에 텍스트 성분(30)을 배치하는 것을 가능하게 하기 위해, 3-차원 영상(14)을 렌더링하기 전에 제 2 성분(12)을 스케일링하는 것을 포함한다. 이 경우, 렌더링기는 제 2 성분(12)의 추천된 스케일링을 포함하는 추천기 성분을 추가로 수신할 수 있어서, 위치 정보는 다수의 연속적인 영상들에 대해 동일하게 유지될 수 있다. 이 추천기 성분의 사용의 결과로서, 서브타이틀들/그래픽들이 오프로 스위치될 때 및 서브타이틀들/그래픽들이 온으로 스위치될 때 서브타이틀들/그래픽들을 포함하는 콘텐트를 렌더링하기 위해, 영상 신호로 튜닝된 미리-결정된 스케일링 성분을 이용하도록 장면의 깊이를 최대화하는 것이 가능하게 된다.

프리젠테이션 평면들의 사용 및 디코딩을 보여주는 블루-레이 디스크 디코더(18)인 재생 디바이스(18)의 예가 도 4에 도시된다. 롬 드라이브(ROM drive;38)는 디스크(16)를 수용하고 성분(40)에 의해 복조된 콘텐트 및 디코더를 판독한다. 병렬 버퍼(42)의 세트는 디코딩된 신호의 상이한 성분들을 저장하고, 이를 병렬 디코더들(44)의 세트에 전달하여 디스플레이(22)에 의해 디스플레이될 표준 비디오(46) 및 오버레이 콘텐트(46)(서브타이틀들 및 메뉴 등)인 출력을 제공한다.

블루-레이 시스템에서, 디스크 서브타이틀들은 비트맵 기반 또는 텍스트 및 관련 폰트들을 기반으로 할 수 있고, 추가적으로 재생기(18)는 자막 방송 정보에 대한 지원을 제공한다. 기술적으로 방송 자막들이 종종 더 많은 정보를 제공하고 청각 장애를 위해 특별히 제공되지만, 두 시스템들은 다소 유사하다. 두 텍스트 기반 서브타이틀 및 비트맵 기반 및 자막 방송들은 디코딩되고 블루-레이 디스크의 프리젠테이션 평면들 중 하나상에 프리젠테이션된다. 도 4는 디코더(18) 및 비디오와 조합된 텍스의 예를 도시하는 평면들을 보여준다. 텍스트는 프리젠테이션 그래픽들(PG) 평면상에 항상 프리젠테이션되는데; 이 평면은 재생 디바이스(18)에서 비디오(평면들)상에 오버레이되고, 하나의 조합된 프리젠테이션으로서 출력상에 제공된다. 도 5는 조합된 프리젠테이션(50)의 예를 보여준다. 이 출력(50)은 주 무비 평면(52), 프리젠테이션 평면(54) 및 상호작용 평면(56)으로 구성된다. 도 5에 도시된 출력(50)은 비디오 인터페이스(20)(도 2에 도시됨)를 통해 디스플레이(22)에 송신된다. 양호한 실시예에서, 재생 디바이스(18)는 출력(50) 외에, 3D 데이터(34)를 포함하는 부가적인 정보를 디스플레이(22)에 송신할 수 있다. 이는 3D 디스플레이(22)가 재생 디바이스(18)의 조합된 비디오, 텍스트 및 그래픽 출력의 3D 표현을 보여주는 것을 가능하게 한다.

도 6은 3D 디스플레이(22)에 송신하기 위한 상기 조합된 출력의 예를 도시한다. 사용되는 3D 시스템은 영상 및 깊이 출력의 예이다. 제 1 영상 성분(10) 및 제 2 성분(12)(깊이 맵)은 디스플레이 디바이스(22)에 의해 3D 영상을 형성하도록 조합될 것이다. 텍스트 성분(30)은 제 1 성분(10)내에 포함되고, 사실상 전체 콘텐트(3개의 성분들(10, 12 및 30))는 단일의 고-선명 프레임으로서 구성될 수 있다.

도 7은 서브타이틀들(30)의 위치를 지시하는 헤더의 부가를 도시한다. 헤더는 3-차원 영상내의 텍스트 성분의 위치를 기술하는 위치 정보(58)를 포함하는 데이터 성분(34)을 포함하고, 여기서 z 성분이 깊이 맵(12)의 콘텐트 때문에 제시될 것이지만, x 및 y 좌표들로서 도시된다. 헤더는 궁극의 렌더링 디바이스가 서브타이틀들(30)의 존재를 고려하기 위해 3D 출력에 대해 조절들을 형성하는 것을 허용한다.

전송되는 추가적인 파라미터들은 국제특허 출원 공개 WO2006/137000A1와 비슷한 또는, 예를 들어, HDMI 표준의 데이터 아일랜드에서와 같이, 필립스 3D 솔루션들, (http://www.business-sites.philips.com/assets/Downloadablefile/Philips-3D-Interface-White-Paper-13725.pdf)의 "3D interface Specifications-white paper"에 기술된 바와 같이 영상 데이터 위에 있는 헤더에 포함될 수 있다. 이 파라미터들은 서브타이틀들이 존재하는지에 관한 지시 및 도 7에 도시된 바와 같이 입력 비디오에서 그들의 위치로 구성된다. 그 후, 디스플레이 디바이스(22)는, 입력 명령을 통해 사용자가 디스플레이 디바이스(22)에 의해 보여지는 디스패리티의 양을 증가시킬지라도 이 위치에 위치한 영상의 부분의 디스패리티가 1 도를 초과하지 않고 일정하게 유지한다는 것을 보장할 수 있다.

최종적인 결과의 품질은 재생기(18)의 출력이 차폐(occlusion) 또는 배경 정보를 또한 포함하는 경우 개선될 수 있다. 이는 도 8에 도시된다. 결함들을 방지하기 위해, 서브타이틀(30)은 예를 들어, 상부 또는 하부와 같이 영상의 최고 활성부 바깥에 위치되어야 한다. 도 8은 영상, 깊이 및 배경 출력 포맷을 도시한다. 배경 성분들(60 및 62)은 제 1 영상 성분(10) 및 제 2 성분(12) 각각에 대해 제공된다.

최종 영상(14)내의 서브타이틀들(30)의 위치는 서브타이틀들의 Z 위치에 대한 참조를 포함할 수 있다. 예를 들어, 원래 콘텐트 저자가 3D 디스플레이의 Z 방향 프로젝션 공간에서 서브타이틀들이 위치되어야 하는 곳을 지시할 수 있도록 Z 위치로 블루-레이 디스크 텍스트 서브타이틀 디코더 모델 및 연관된 합성 정보(구체적으로, 다이얼로그 스타일 세트, 섹션 9.15.4.2.2)를 확장하는 것이 가능하다. 블루-레이 디스크 표준에서, 텍스트 서브타이틀 디코더 및 관련 스트림이 규정된다. 텍스트 서브타이틀 디코더는 섹션 8.9에서 규정되고, 다양한 처리 요소들 및 버퍼들로 구성된다. 도 9는 서브타이틀(30)과 같이 연관된 텍스트 성분을 갖는 3D 영상들을 처리하도록 확장된 디코더 모델의 단순화된 화상을 도시한다.

도 9는 3D 텍스트 서브타이틀 디코더 모델을 도시한다. 좌에서 우로, 텍스트 서브타이틀 세그먼트들은 디코더(18)에 진입하고, 여기서 텍스트 스트림 처리기(64)에 의해 처리 및 디코딩된다. 디코딩된 텍스트 데이터는 다이얼로그 버퍼(66)에 넣어지고, 한편 디코딩된 텍스트 서브타이틀 합성 정보는 합성 버퍼(72)에 넣어진다. 제어기(74)는 합성 정보를 해석하고, 이를 텍스트 렌더링기(68)(폰트 파일(80)을 이용함)에 의해 렌더링된 이후 텍스트에 적용하고, 그 결과를 비트맵 버퍼(70)에 넣는다. 최종 단계에서, 비트맵 영상들은 적절한 그래픽 평면들상에서 재생기(18)에 의해 합성된다. 예를 들어, 디스플레이의 깊이 파라미터들에 영향을 미칠 수 있는 사용자 입력(78) 또한 제어기(78)에 의해 수신된다.

텍스트-기반 서브타이틀들 외에, 블루-레이 디스크(BD)는 소위 프리젠테이션 그래픽들(PG)이라 불리는 비트맵-영상들을 기반으로 한 서브타이틀들을 또한 지원한다. 유사하게, PG-서브타이틀들의 Z-위치는 디스크상에서, 바람직하게는 이미 규정된 X,Y-위치 정보 가까이에 특정될 필요가 있다. 후자는 composition_object() structure로 저장되기 때문에, 예를 들어, 오프셋 비트(26)에서 시작하는 보존된 비트들을 이용함으로써 서브타이틀들의 Z-위치로 확장하는 것이 논리적이다. 본 명세서 전반에 걸쳐서 사용된 용어 텍스트 성분은 텍스트-기반 서브타이틀들 및/또는 이러한 비트맵-영상들을 참조하는데 이용된다.

디코더(18)는 Z-방향에서 텍스트 서브타이틀(30)이 위치되어야 하는 곳을 지시하는 깊이 또는 디스패리티 맵을 보유하는 부가적인 비트맵 버퍼(76)로 확장된다. 깊이 또는 디스패리티 정보는 블루-레이 사양에서 규정된 바와 같은 다이얼로그 스타일 세트에 포함될 수 있다. 이것을 달성하는 한 방법은 다이얼로그 스타일 세트가 영역_깊이_위치로 확장되는 것이다. 영역_깊이_위치는 0 및 255사이의 값들을 갖는 8비트 필드이지만, 미래에 이것은 확장될 수 있다. 제어기(74)는 영역_깊이_위치 필드의 값에 기초하여 정확한 깊이 또는 디스패리티 맵 화소 값들을 결정한다. 이 값을 깊이 또는 디스패리티 맵에 대한 컬러값으로 변환하는 것은 재생목록의 3D_메타데이터 필드에 포함되는 또는 MPEG-2 프로그램 맵 표(ISO/IEC 13818-1)에 포함되는 3D 메타데이터에 의존한다. 이 정보의 신택스는 ISO/IEC 23002-3의 MPEG에 의해 규정된다.

그 후, 서브타이틀들(30)의 Z 위치는 3D 디스플레이 디바이스(22)에 의한 디스플레이를 위해 3D 영상(14)을 렌더링할 때 서브타이틀들(30)의 Z 위치를 고려할 수 있는 렌더링기(24)에 제공된다. 도 10은 영역_깊이_위치 필드의 사용을 통해 깊이의 포지셔닝을 갖는 3D 공간의 예를 도시한다. 영상(14)은 평면(82)에 위치한 서브타이틀(30)을 포함한다. 평면(82)은 0 깊이로 공간의 위치를 가리키고, 다른선들은 3D 공간에서 3개의 방향들(x,y, 및 z)을 지시한다.

서브타이틀들이 위치되어야 하는 공간의 영역을 가리키기 위해 깊이 영역을 포함하는 것 외에, 더 나아가서 텍스트(30) 자체에 대한 개별적인 깊이를 부가하고, 공간에서 평면이 아닌 입방체로서 영역을 명세하는 것 또한 가능하다. 이는 예를 들어, 다이얼로그 스타일 세트의 영역 위치 필드를 영역_깊이_위치 및 영역_깊이_길이로 확장함으로써 이루어질 수 있다. 영역 내부의 텍스트의 정확한 위치를 지시하는 텍스트 박스 위치들에 대해 동일하게 이루어질 수 있다.

폰트 파일(80)은 양각 폰트 스타일을 포함하도록 이용될 수 있는데, 그 이유는 이것이 3D의 결과적인 텍스트의 판독가능성을 개선하기 때문이다. 폰트 스타일들은 블루-레이 사양의 표 9-75에 기술되고, 대안으로 폰트 외곽선 두께 필드는 이러한 이유로 이용되고, 이는 블루-레이 사양의 표 9-76에 있다. 이 두 개의 표들은 결국 이러한 목적을 위해 이용될 수 있는 보존된 필드들을 갖는다. 양각 폰트 스타일은 표 9-75의 값(0x08)일 수 있고, 양각 폰트 외곽선 두께에 대해, 표(9-76)의 값(0x04)일 수 있다.

유리하게는, 텍스트 기반 및 PG 기반 서브타이틀들 모두에 대한 Z-위치는 동일하고, 단지 스트림 당 한번 저장(즉, 서브타이틀 언어당)될 필요가 있다. 서브타이틀들의 이 공유된 Z-위치를 저장하기 위해 BD 디스크상의 다수의 대안적인 위치들이 존재한다는 것이 당업자에게 자명하다. 이러한 대안적인 위치들의 예들을 아래에 기술된다. 여기서 참고자료로서 포함된 인터넷 리소스 http://www.bluraydisc.com/Assets/Downloadablefile/2b_bdrom_audiovisualapplication_0305-12955-l5269.pdf를 통해 이용가능한 문서 "White paper Blu-ray Disk Format 2.B Audio Visual Application Format Specifications for BD-ROM March 2005"는 BD 포맷상의 추가 배경 정보 및 아래에 참조되는 포맷의 구조들을 포함한다.

서브타이틀들의 공유된 Z-위치는 예를 들어, 재생목록의 확장 데이터로서 규정된 새로운 표에 저장될 수 있다. BD 사양의 재생 목록은 영화와 같이 제목의 프리젠테이션을 함께 형성하는 오디오-비주얼 콘텐트 아이템의 시퀀스를 지시하는 목록이다. 이 재생 목록 구조는 그 확장 데이터를 통해 미래의 확장을 위한 메커니즘을 제공한다. 다양한 언어 스트림들에 대한 서브타이틀들 평면(PG-평면)의 "Z" 위치는 오프셋_메타데이터 표로서 칭해지는 새로운 표에 포함될 수 있다. 표 1은 이 표의 상세들을 도시한다.

또한, 자동입체 다중-앵글 비디오 데이터의 재생을 허용하는 재생항목들을 재생 목록이 포함할 때, 서브타이틀들과 같은 그래픽들의 오버레이를 위한 "Z" 위치는 모든 자동입체 다중-앵글 비디오 클립에 대해 상이할 수 있다. 그러므로, 오프셋-메타데이터는 재생항목에 참조된 모든 자동입체 다중-앵글 비디오 클립에 대해 상이한 "Z" 위치들을 또한 허용해야 한다. 이러한 경우, 오프셋-메타데이터 표는 모든 자동입체 다중-앵글 비디오 클립에 대한 서브타이틀들의 오버레이를 위한 상이한 "Z" 위치들을 포함한다. 상이한 "Z" 위치들은 서브타이틀들의 오버레이를 위해 상이한 "Z" 위치를 필요로 하는 모든 다중-앵글 비디오 클립에 대한 식별자를 참조할 수 있다. 표 2는 표 1이 상이한 자동입체 다중-앵글 비디오 클립들에 대한 상이한 "Z" 위치들을 지원하도록 확장되는 방법의 예를 보여준다. 스트림 ID 및 앵글 ID는 디스크상의 기초 스트림(서브타이틀 콘텐트를 포함) 및 (다중)-앵글 자동입체 비디오 클립 각각의 고유한 식별자들로서 작용하는 표 1 및 표 2를 참조한다.

확장 데이터를 사용하는 대신, 특히 3D 스트림들의 재생에 대한 새로운 재생목록 표 구조를 규정하고, "Z" 위치 파라미터들을 거기에 포함시키는 것 또한 가능하다. 종래의 재생기들의 재생이 갖는 문제점들은 디스크상에 새로운 인덱스 표(사용자 선택 가능한 제목들의 목록)를 제공함으로써 또는 3D 가능 재생기에 의해서만 재생 가능한 제목들을 나열하는 인덱스 표의 확장 데이터를 이용함으로써 방지될 수 있다.

대안으로, 재생목록의 기존의 표에 정보가 제공되어야 하는 경우, STN_Table_SS()에 포함될 수 있다. 이는 재생항목에 연관된 비디오 및 -그래픽들 스트림들을 나열하는 표이다. 재생항목 당, 모든 텍스트 및 비트맵 서브타이틀 스트림에 대한 스트림 코딩 정보(속성들)를 갖는 루프를 포함한다. 우리는 스트림 속성 정보로서 동일한 루프에 "Z" 위치 정보를 포함시키는 것을 제안한다.

모든 서브타이틀 스트림들에 대한 "Z" 파라미터들을 저장하기 위해 재생목록을 이용하는 것이 갖는 문제점은 데이터의 복제이다. 다수의 재생목록들은 동일한 서브타이틀 스트림들을 참조할 수 있다. 이 제한은 클립 정보 파일에 "Z" 위치 메타데이터를 포함함으로써 극복될 수 있다. 클립 정보 파일은 A/V 콘텐트 및 서브타이틀 스트림들을 포함하는 MPEG 전송 스트림에 관련된 메타데이터를 나열한다. 클립 정보 파일은 재생 목록 확장 데이터를 위해 제안된 것과 유사한 표로 확장될 수 있다. 그러나, MPEG 전송 스트림에 클립 정보 파일이 연관될 수 있기 때문에, 패킷 식별자(PID)에 의해 서브타이틀 기초 스트림들을 나열한다. 그러므로, 우리는 "Z" 위치 메타데이터가 서브타이틀 스트림의 PID를 지시하는 모든 PID 목록에 대해 제공된다는 것을 제안한다.

대안으로, 확장 데이터에 새로운 표를 규정하는 대신, "Z" 위치가 클립 정보 파일에 프로그램정보(ProgramInfo) 표에 저장된다. 프로그램정보 표는 A/V 콘텐트의 프리젠테이션을 함께 형성하는 기초 스트림들의 목록을 제공한다. 이는 MPEG 시스템들 ISO/IEC 13818-1에 규정된 PMT 표와 유사한 정보를 포함한다. 서브타이틀 정보를 포함하는 모든 기초 스트림에 대해 "Z" 위치 메타데이터를 제공하는 것을 제안한다. 메타데이터는 프로그램정보 자체에 또는 프로그램정보 표, 스트림코딩정보(StreamCodingInfo) 표의 서브표(subtable)에 포함될 수 있다. 이는 전송 스트림에 존재하는 서브타이틀 스트림에 대한 코딩 및 언어 코드들에 관한 상세들을 제공한다. 스트림코딩정보 표는 또한 일부 보존된 필드들을 가질 수 있고, 우리는 이러한 보존된 필드들을 이용하여 특정 언어 코드에 대한 서브타이틀 스트림에 연관된 "Z" 위치 파라미터들을 포함하는 것을 제안한다.

"Z" 위치가 매 수초마다 변경되도록 요구되는 경우, 클립 정보 파일의 CPI() 표가 이용되어야 한다. CPI 정보는 트릭 재생을 위해 비디오 스트림들로의 엔트리 지점들을 나열하는 표이다. 엔트리 지점들의 나열은 매 엔트리 지점마다 서브타이틀들과 같은 임의의 그래픽들을 오버레이하는 위치의 "깊이"를 지시하는 "Z" 위치 파라미터로 확장될 수 있다.

대안으로, "Z" 위치 정보가 정확한 프레임인 경우, 의존 비디오 스트림의 SEI 메시지들에 포함되어야 한다. SEI(Supplemental Enhancement Infomration, 사인 메시지들로 칭함)은 콘텐트를 디코딩하는 것을 원조하도록 디코더에 의해 이용될 수 있는 파라미터들을 포함하는 MPEG 기초 스트림에 임베딩된 패킷들이다. MPEG은 또한 개인 사용자 데이터 SEI 메시지들을 임베딩하는 것을 또한 허용하는데; 이는 표준 디코더들에 의해 무시될 것이지만, 변형된 디코더에 의해 이용될 수 있다. 사용자 데이터 SEI 메시지는 서브타이틀들과 같이 비디오상에 오버레이되어야 하는 임의의 오버레이의 "Z" 위치를 포함하도록 규정될 수 있다. (언어) 스트림 당 "Z" 정보를 제공하기 위해, 우리는 디스크상에 제공된 모든 서브타이틀들 스트림들에 대한 "Z" 값들을 열거하도록 제안한다.

Figure 112011059739717-pat00001

표 1, 오프셋 메타데이터를 저장하는 표의 예

3D 영상들의 렌더링과 같은 처리 단계들, 또는 멀티플렉싱 단계들이 폭넓은 처리 플랫폼들상에서 구현될 수 있다는 것이 당업자에게 자명할 것이다. 이 처리 플랫폼들은 전용 회로들 및/또는 반도체 디바이스들, 프로그래밍 가능한 논리 회로들, 디지털 신호 처리기들 또는 심지어 범용 처리기들의 범위에 있을 수 있다. 마찬가지로 조합된 소프트웨어 및 하드웨어 구현들이 유리하게 이용될 수도 있다.

본 발명은 도면들 및 앞선 설명들로 상세히 예시 및 기술되었지만, 이러한 예시 및 설명은 제한적이 아니라 예시적이라고 고려되어야 하고, 본 발명은 개시된 실시예들로 제한되지 않는다.

Figure 112011059739717-pat00002

표 2, 자동입체 다중-앵글 비디오 세그먼트 당 상이한 서브타이틀 "Z" 위치 메타데이터로 확장되는 오프셋 메타데이터를 저장하는 표의 예

개시된 실시예들에 대한 다른 변동들은 도면들, 개시, 및 첨부된 청구범위들을 연구하여 청구된 발명을 실시하는데 있어 당업자에 의해 이해 및 영향을 줄 수 있다. 청구범위에서, 단어 "포함하는"은 다른 요소들 또는 단계들을 배제하지 않고, 요소들의 단수로 표현한 것이 복수성을 배제하는 것은 아니다. 단일 처리기 또는 다른 유닛은 청구범위에서 인용된 몇 개의 항목들의 기능을 이행할 수 있다. 특정한 측정치들이 상이한 종속 청구항들에서 상호 인용되었다는 단순한 사실이 이러한 측정치의 조합이 유리하게 이용될 수 없다는 것을 지시하지 않는다. 컴퓨터 프로그램은 광학 저장 매체 또는 다른 하드웨어의 일부와 함께 또는 다른 하드웨어의 일부로서 공급되는 고상-매체와 같은 적절한 매체상에 저장/분포될 수 있고, 예를 들어, 인터넷 또는 다른 유선 또는 무선 통신 시스템들을 통해 다른 형태들로 분포될 수도 있다. 청구범위에서 임의의 참조 부호들은 그 범위를 제한하는 것으로서 해석되지 말아야 한다.

10 : 제 1 영상 성분 12 : 제 2 성분
16 : 디스크 18 : 재생 디바이스
20 : 비디오 인터페이스 22 : 디스플레이
24 : 렌더링 스테이지 28 : 사용자 설정들

Claims (27)

  1. 3-차원 영상 신호를 생성하는 방법에 있어서,
    - 제 1 영상 성분을 수신하는 단계;
    - 상기 제 1 영상 성분과 조합하여 3-차원 영상을 생성하기 위한 제 2 성분을 수신하는 단계;
    - 제 1 텍스트 성분 및 제 2 텍스트 성분을 수신하는 단계로서, 상기 제 1 및 제 2 텍스트 성분 각각은 상기 3-차원 영상에 포함되기 위한 텍스트-기반 서브타이틀들 및/또는 프리젠테이션 그래픽-기반 비트맵 영상들을 포함하는, 상기 제 1 및 제 2 텍스트 성분 수신 단계;
    - 상기 제 1 텍스트 성분 및 상기 제 2 텍스트 성분 모두의 상기 텍스트-기반 서브타이틀들 및/또는 상기 프리젠테이션 그래픽-기반 비트맵 영상들의 Z-위치를 기술하는 Z-위치 정보를 포함하는 공유된 Z-위치 성분을 수신하는 단계; 및
    - 상기 제 1 영상 성분, 상기 제 2 성분, 상기 제 1 및 제 2 텍스트 성분들, 및 상기 공유된 Z-위치 성분을 포함하는 3-차원 영상 신호를 생성하는 단계를 포함하는, 3-차원 영상 신호 생성 방법.
  2. 제 1 항에 있어서,
    상기 3 차원 영상에 포함되기 위해 상기 제 1 텍스트 성분은 텍스트-기반 서브타이틀들을 포함하고, 상기 제 2 테스트 성분은 프리젠테이션 그래픽-기반 비트맵 영상들을 포함하는, 3-차원 영상 신호 생성 방법.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 Z-위치 정보는, 타이틀을 함께 형성하는 오디오-비주얼 콘텐트 아이템들의 시퀀스를 나타내는 목록의 확장 데이터로서 규정된 표에서 상기 3-차원 영상 신호에 포함되는, 3-차원 영상 신호 생성 방법.
  4. 제 3 항에 있어서,
    상기 표는 다양한 언어 스트림들에 대한 서브타이틀들의 상이한 Z-위치들을 포함하는 오프셋 메타데이터 표인, 3-차원 영상 신호 생성 방법.
  5. 제 3 항에 있어서,
    상기 목록은 입체 다중-앵글 비디오 클립들을 포함하는 입체 다중-앵글 비디오 데이터의 재생을 허용하는 아이템들을 포함하고, 각각의 Z-위치 정보는 모든 입체 다중-앵글 비디오 클립에 대한 표에 저장되는, 3-차원 영상 신호 생성 방법.
  6. 제 5 항에 있어서,
    상기 표는 모든 입체 다중-앵글 비디오 클립을 위한 서브타이틀들의 오버레이에 대한 상이한 Z-위치들을 포함하는 오프셋 메타데이터 표인, 3-차원 영상 신호 생성 방법.
  7. 제 1 항 또는 제 2 항에 있어서,
    상기 Z-위치 정보는 각각의 프레임에 제공되며 오디오-비주얼 콘텐트의 기초 스트림에 임베딩된 패킷들인 사인 메시지들[SEI]에서 상기 3-차원 영상 신호에 포함되고, 상기 패킷들은 상기 콘텐트를 디코딩하기 위한 디코더에 의해 사용될 수 있는 파라미터들을 운반하는, 3-차원 영상 신호 생성 방법.
  8. 제 7 항에 있어서,
    상기 Z-위치 정보는 상기 텍스트 성분에 포함된 데이터 스트림들에 대한 열거된 Z 값들을 포함하는, 3-차원 영상 신호 생성 방법.
  9. 제 1 항 또는 제 2 항에 있어서,
    상기 Z-위치 정보는,
    - 타이틀을 함께 형성하는 3차원 오디오-비주얼 콘텐트 아이템들의 시퀀스를 나타내는 목록으로서 규정된 표; 및
    - 타이틀을 함께 형성하는 오디오-비주얼 콘텐트 아이템들의 시퀀스를 나타내는 목록에서의 표로서, 상기 표는 각각의 오디오-비주얼 콘텐트 아이템에 연관된 비디오 및 그래픽 스트림들을 나열하는, 상기 표 중 어느 하나의 상기 3-차원 영상 신호에 포함되는, 3-차원 영상 신호 생성 방법.
  10. 제 1 항 또는 제 2 항에 있어서
    상기 Z-위치 정보는,
    - 오디오-비주얼 콘텐트 및 서브타이틀 스트림들을 포함하는 전송 스트림에 연관된 메타데이터를 나열하는 파일;
    - 파일에서의 프로그램 정보표로서, 상기 프로그램 정보표는 오디오-비주얼 콘텐트의 프리젠테이션을 함께 형성하는 기초 스트림들의 목록을 제공하는, 상기 프로그램 정보표; 및
    - 트릭 재생을 위한 상기 오디오-비주얼 콘텐트로 엔트리 지점들을 나열하는 특징적 지점 정보 [CPI] 표 중 어느 하나의 상기 3-차원 영상 신호에 포함되는, 3-차원 영상 신호 생성 방법.
  11. 3-차원 영상 신호를 렌더링하는 방법에 있어서,
    - 제 1 영상 성분, 상기 제 1 영상 성분과 조합하여 3-차원 영상 생성하기 위한 제 2 성분, 상기 3-차원 영상에 포함되기 위한 텍스트-기반 서브타이틀들 및/또는 프리젠테이션 그래픽-기반 비트맵 영상들을 각각 포함하는 제 1 텍스트 성분 및 제 2 텍스트 성분, 및 상기 제 1 텍스트 성분 및 제 2 텍스트 성분 모두의 상기 텍스트-기반 서브타이틀들 및/또는 상기 프리젠테이션 그래픽 기반 비트맵 영상들의 Z-위치를 기술하는 Z-위치 정보를 포함하는 공유된 Z-위치 성분을 포함하는 3-차원 영상 신호를 수신하는 단계;
    - 3-차원 영상을 제공하기 위한 상기 제 1 영상 성분 및 상기 제 2 성분을 렌더링하는 단계로서, 상기 렌더링 단계는 상기 3-차원 영상에 상기 텍스트-기반 서브타이틀들 및/또는 프리젠테이션 그래픽-기반 비트맵 영상들을 렌더링하는 단계를 포함하고, 상기 텍스트-기반 서브타이틀들 및/또는 프리젠테이션 그래픽-기반 비트맵 영상들의 렌더링은 상기 공유된 Z-위치 성분에 기초하여 상기 제 1 텍스트 성분 및 제 2 텍스트 성분 모두의 상기 텍스트-기반 서브타이틀들 및/또는 프리젠테이션 그래픽-기반 비트맵 영상들의 상기 Z-위치를 조정하는 단계를 포함하는, 3-차원 영상 신호 렌더링 방법.
  12. 제 11 항에 있어서,
    상기 3-차 영상에 포함되기 위해, 상기 제 1 텍스트 성분은 텍스트-기반 서브타이틀들을 포함하고, 상기 제 2 텍스트 성분은 프리젠테이션 그래픽-기반 비트맵 영상들을 포함하는, 3-차원 영상 신호 렌더링 방법.
  13. 3-차원 영상 신호를 생성하기 위한 디바이스에 있어서,
    - 제 1 영상 성분, 상기 제 1 영상 성분과 조합하여 3-차원 영상을 생성하기 위한 제 2 성분, 및 상기 3-차원 영상에 포함되기 위한 텍스트-기반 서브타이틀들 및/또는 프리젠테이션 그래픽-기반 비트맵 영상들을 각각 포함하는 제 1 텍스트 성분 및 제 2 텍스트 성분을 수신하도록 구성된 수신기로서, 상기 수신기는 상기 제 1 텍스트 성분 및 제 2 텍스트 성분 모두의 상기 텍스트-기반 서브타이틀들 및/또는 상기 프리젠테이션 그래픽 기반 비트맵 영상들의 Z-위치를 기술하는 Z-위치 정보를 포함하는 공유된 Z-위치 성분을 수신하도록 구성된, 상기 수신기; 및
    - 상기 제 1 영상 성분, 상기 제 2 성분, 상기 텍스트 성분, 및 상기 공유된 Z-위치 성분을 포함하는 3-차원 영상 신호를 생성하도록 구성된 멀티플렉서를 포함하는, 3-차원 영상 신호를 생성하기 위한 디바이스.
  14. 제 13 항에 있어서,
    상기 3-차 영상에 포함되기 위해, 상기 제 1 텍스트 성분은 텍스트-기반 서브타이틀들을 포함하고, 상기 제 2 텍스트 성분은 프리젠테이션 그래픽-기반 비트맵 영상들을 포함하는, 3-차원 영상 신호를 생성하기 위한 디바이스.
  15. 3-차원 영상 신호를 렌더링하기 위한 디바이스에 있어서,
    - 제 1 영상 성분, 상기 제 1 영상 성분과 조합하여 3-차원 영상을 생성하기 위한 제 2 성분, 상기 3-차원 영상에 포함되기 위한 텍스트-기반 서브타이틀들 및/또는 프리젠테이션 그래픽-기반 비트맵 영상들을 각각 포함하는 제 1 텍스트 성분 및 제 2 텍스트 성분, 및 상기 제 1 텍스트 성분 및 제 2 텍스트 성분 모두의 상기 텍스트-기반 서브타이틀들 및 상기 프리젠테이션 그래픽 기반 비트맵 영상들의 Z-위치를 기술하는 Z-위치 정보를 포함하는 공유된 Z-위치 성분을 수신하도록 구성된 수신기(18);
    - 3-차원 영상을 제공하기 위한 상기 제 1 영상 성분 및 상기 제 2 성분을 렌더링하도록 구성된 렌더링기(24)로서, 상기 렌더링은 상기 3-차원 영상에서 상기 텍스트-기반 서브타이틀들 및/또는 프리젠테이션 그래픽-기반 비트맵 영상들을 렌더링하는 것을 포함하고, 상기 텍스트-기반 서브타이틀들 및/또는 프리젠테이션 그래픽-기반 비트맵 영상들의 렌더링은 상기 공유된 Z-위치 성분에 기초하여 상기 제 1 텍스트 성분 및 제 2 텍스트 성분 모두의 상기 텍스트-기반 서브타이틀들 및/또는 프리젠테이션 그래픽-기반 비트맵 영상들의 Z-위치를 조정하는 것을 포함하는, 상기 렌더링기를 포함하는, 3-차원 영상 신호를 렌더링하기 위한 디바이스.
  16. 제 15 항에 있어서,
    상기 3-차 영상에 포함되기 위해, 상기 제 1 텍스트 성분은 텍스트-기반 서브타이틀들을 포함하고, 상기 제 2 텍스트 성분은 프리젠테이션 그래픽-기반 비트맵 영상들을 포함하는, 3-차원 영상 신호를 렌더링하기 위한 디바이스.
  17. 제 15 항에 있어서,
    상기 Z-위치 정보는, 타이틀을 함께 형성하는 오디오-비주얼 콘텐트 아이템들의 시퀀스를 나타내는 목록의 확장 데이터로서 규정된 표에서 상기 3-차원 영상 신호에 포함되는, 3-차원 영상 신호를 렌더링하기 위한 디바이스.
  18. 제 17 항에 있어서,
    상기 표는 다양한 언어 스트림들에 대한 서브타이틀들의 상이한 Z-위치들을 포함하는 오프셋 메타데이터 표인, 3-차원 영상 신호를 렌더링하기 위한 디바이스.
  19. 제 17 항에 있어서,
    상기 목록은 입체 다중-앵글 비디오 클립들을 포함하는 입체 다중-앵글 비디오 데이터의 재생을 허용하는 아이템들을 포함하고, 각각의 Z-위치 정보는 모든 입체 다중-앵글 비디오 클립에 대한 표에 저장되는, 3-차원 영상 신호를 렌더링하기 위한 디바이스.
  20. 제 19 항에 있어서,
    상기 표는 모든 입체 다중-앵글 비디오 클립을 위한 서브타이틀들의 오버레이에 대한 상이한 Z-위치들을 포함하는 오프셋 메타데이터 표인,3-차원 영상 신호를 렌더링하기 위한 디바이스.
  21. 제 15 항 또는 제 16 항에 있어서,
    상기 Z-위치 정보는 각각의 프레임에 제공되며 오디오-비주얼 콘텐트의 기초 스트림에 임베딩된 패킷들인 사인 메시지들[SEI]에서 상기 3-차원 영상 신호에 포함되고, 상기 패킷들은 상기 콘텐트를 디코딩하기 위한 디코더에 의해 사용될 수 있는 파라미터들을 운반하는, 3-차원 영상 신호를 렌더링하기 위한 디바이스.
  22. 제 21 항에 있어서,
    상기 Z-위치 정보는 상기 텍스트 성분에 포함된 데이터 스트림들에 대한 열거된 Z 값들을 포함하는, 3-차원 영상 신호를 렌더링하기 위한 디바이스.
  23. 제 15 항 또는 제 16 항에 있어서,
    상기 Z-위치 정보는,
    - 타이틀을 함께 형성하는 3차원 오디오-비주얼 콘텐트 아이템들의 시퀀스를 나타내는 목록으로서 규정된 표; 및
    - 타이틀을 함께 형성하는 오디오-비주얼 콘텐트 아이템들의 시퀀스를 나타내는 목록에서의 표로서, 상기 표는 각각의 오디오-비주얼 콘텐트 아이템에 연관된 비디오 및 그래픽 스트림들을 나열하는, 상기 표 중 어느 하나의 상기 3-차원 영상 신호에 포함되는, 3-차원 영상 신호를 렌더링하기 위한 디바이스.
  24. 제 15 항 또는 제 16 항에 있어서,
    상기 Z-위치 정보는,
    - 오디오-비주얼 콘텐트 및 서브타이틀 스트림들을 포함하는 전송 스트림에 연관된 메타데이터를 나열하는 파일;
    - 파일에서의 프로그램 정보표로서, 상기 프로그램 정보표는 오디오-비주얼 콘텐트의 프리젠테이션을 함께 형성하는 기초 스트림들의 목록을 제공하는, 상기 프로그램 정보표; 및
    - 트릭 재생을 위한 상기 오디오-비주얼 콘텐트로 엔트리 지점들을 나열하는 특징적 지점 정보 [CPI] 표 중 어느 하나의 상기 3-차원 영상 신호에 포함되는, 3-차원 영상 신호를 렌더링하기 위한 디바이스.
  25. 3-차원 재생 시스템에 의해 판독되는 3-차원 영상 정보가 기록된 컴퓨터 판독 가능 기록 매체에 있어서,
    상기 컴퓨터 판독 가능 기록 매체는 상기 3-차원 영상 정보를 포함하고, 상기 3-차원 영상 정보는 제 1 영상 성분, 상기 제 1 영상 성분과 조합하여 3-차원 영상을 생성하기 위한 제 2 성분, 및 상기 3-차원 영상에 포함되기 위한 텍스트-기반 서브타이틀들 및/또는 프리젠테이션 그래픽-기반 비트맵 영상들을 각각 포함하는 제 1 텍스트 성분 및 제 2 텍스트 성분을 포함하고, 상기 3-차원 영상 정보는 상기 제 1 텍스트 성분 및 제 2 텍스트 성분 모두의 상기 텍스트-기반 서브타이틀들 및/또는 상기 프리젠테이션 그래픽 기반 비트맵 영상들의 Z-위치를 설명하는 Z-위치 정보를 포함하는 공유된 Z-위치 성분을 포함하며, 상기 3-차원 영상 정보가 3-차원 재생 시스템에 의해 렌더링될 때, 상기 제 1 영상 성분, 상기 제 2 영상 성분, 상기 제 1 텍스트 성분, 상기 제 2 텍스트 성분, 및 상기 공유된 Z-위치 성분은 상기 3-차원 영상 정보를 렌더링하기 위한 상기 3-차원 재생 시스템에 의해 사용될 수 있는, 컴퓨터 판독 가능 기록 매체.
  26. 제 25 항에 있어서,
    상기 Z-위치 정보는 각각의 프레임에 제공되며, 오디오-비주얼 콘텐트의 기초 스트림에 임베딩된 패킷들인 사인 메시지들[SEI]에서 상기 3-차원 영상 정보에 포함되고, 상기 3-차원 영상 정보가 3-차원 재생 시스템에 의해 렌더링될 때, 상기 패킷들은 상기 3-차원 영상 정보를 렌더링하기 위한 3-차원 재생 시스템에 의해 사용될 수 있는 파라미터들을 운반하는, 컴퓨터 판독 가능 기록 매체.
  27. 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능 기록 매체에 있어서,
    상기 컴퓨터 프로그램은 컴퓨터상에서 동작될 때, 제 1 항 또는 제 2 항에서 청구된 방법들의 단계들을 수행하기 위한 명령들을 포함하는, 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능 기록 매체.
KR1020117018100A 2008-07-25 2009-07-17 서브타이틀들의 3d 디스플레이 처리 KR101315081B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP08161152.7 2008-07-25
EP08161152 2008-07-25
PCT/IB2009/053116 WO2010010499A1 (en) 2008-07-25 2009-07-17 3d display handling of subtitles

Publications (2)

Publication Number Publication Date
KR20110102497A KR20110102497A (ko) 2011-09-16
KR101315081B1 true KR101315081B1 (ko) 2013-10-14

Family

ID=41010400

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020117018100A KR101315081B1 (ko) 2008-07-25 2009-07-17 서브타이틀들의 3d 디스플레이 처리
KR1020117004128A KR20110053431A (ko) 2008-07-25 2009-07-17 서브타이틀들의 3d 디스플레이 처리

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020117004128A KR20110053431A (ko) 2008-07-25 2009-07-17 서브타이틀들의 3d 디스플레이 처리

Country Status (13)

Country Link
US (2) US8508582B2 (ko)
EP (3) EP2362671B1 (ko)
JP (1) JP5792064B2 (ko)
KR (2) KR101315081B1 (ko)
CN (2) CN102137270B (ko)
AU (1) AU2009275163B2 (ko)
BR (1) BRPI0911014A2 (ko)
ES (1) ES2435669T3 (ko)
MX (1) MX2011000785A (ko)
MY (1) MY158412A (ko)
PL (1) PL2362671T3 (ko)
RU (1) RU2517402C2 (ko)
WO (1) WO2010010499A1 (ko)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100955578B1 (ko) * 2007-12-18 2010-04-30 한국전자통신연구원 스테레오스코픽 콘텐츠 장면 재생 방법 및 그 장치
US20110234754A1 (en) * 2008-11-24 2011-09-29 Koninklijke Philips Electronics N.V. Combining 3d video and auxiliary data
WO2010134316A1 (ja) 2009-05-19 2010-11-25 パナソニック株式会社 記録媒体、再生装置、符号化装置、集積回路、及び再生出力装置
JP2011019202A (ja) * 2009-07-10 2011-01-27 Sony Corp 映像信号処理装置および映像表示装置
KR101716636B1 (ko) * 2009-07-27 2017-03-15 코닌클리케 필립스 엔.브이. 3d 비디오 및 보조 데이터의 결합
KR20110018261A (ko) * 2009-08-17 2011-02-23 삼성전자주식회사 텍스트 서브타이틀 데이터 처리 방법 및 재생 장치
JP4875127B2 (ja) * 2009-09-28 2012-02-15 パナソニック株式会社 三次元画像処理装置
EP2320667A1 (en) * 2009-10-20 2011-05-11 Koninklijke Philips Electronics N.V. Combining 3D video auxiliary data
US9030533B2 (en) * 2009-11-06 2015-05-12 Sony Corporation Stereoscopic overlay offset creation and editing
KR20110053159A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 재생을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
US20110157329A1 (en) * 2009-12-28 2011-06-30 Acer Incorporated Method for switching to display three-dimensional images and digital display system
US8565516B2 (en) * 2010-02-05 2013-10-22 Sony Corporation Image processing apparatus, image processing method, and program
US9398289B2 (en) * 2010-02-09 2016-07-19 Samsung Electronics Co., Ltd. Method and apparatus for converting an overlay area into a 3D image
EP2540087A1 (en) * 2010-02-24 2013-01-02 Thomson Licensing Subtitling for stereoscopic images
CN102812711B (zh) * 2010-02-25 2016-11-02 汤姆森特许公司 利用视差估计和视差时间变化限制的立体字幕加载
US8878913B2 (en) 2010-03-12 2014-11-04 Sony Corporation Extended command stream for closed caption disparity
EP2524513A4 (en) * 2010-03-12 2014-06-25 Sony Corp Service linkage to caption disparity data transport
WO2011114739A1 (ja) * 2010-03-17 2011-09-22 パナソニック株式会社 再生装置
JP2011216937A (ja) * 2010-03-31 2011-10-27 Hitachi Consumer Electronics Co Ltd 立体画像表示装置
KR101329065B1 (ko) * 2010-03-31 2013-11-14 한국전자통신연구원 영상 시스템에서 영상 데이터 제공 장치 및 방법
EP2553931A1 (en) * 2010-04-01 2013-02-06 Thomson Licensing Subtitles in three-dimensional (3d) presentation
EP2547101A4 (en) * 2010-04-14 2013-12-18 Samsung Electronics Co Ltd Method and apparatus for generating a broadcast bit stream for digital broadcasting with captions, and method and apparatus for receiving a broadcast bit stream for digital broadcasting with captions
JP5143856B2 (ja) * 2010-04-16 2013-02-13 株式会社ソニー・コンピュータエンタテインメント 3次元画像表示装置、および3次元画像表示方法
JP2011239169A (ja) 2010-05-10 2011-11-24 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2011244218A (ja) * 2010-05-18 2011-12-01 Sony Corp データ伝送システム
JP5754080B2 (ja) * 2010-05-21 2015-07-22 ソニー株式会社 データ送信装置、データ受信装置、データ送信方法およびデータ受信方法
US8866886B2 (en) * 2010-05-30 2014-10-21 Lg Electronics Inc. Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional subtitle
JP5505637B2 (ja) * 2010-06-24 2014-05-28 ソニー株式会社 立体表示装置および立体表示装置の表示方法
CA2802668C (en) * 2010-06-27 2016-03-29 Lg Electronics Inc. Digital receiver and method for processing caption data in the digital receiver
CN102300106B (zh) * 2010-06-28 2014-03-12 瑞昱半导体股份有限公司 三维处理电路及处理方法
CN101902582B (zh) * 2010-07-09 2012-12-19 清华大学 一种立体视频字幕添加方法及装置
CN103329542A (zh) * 2010-07-21 2013-09-25 汤姆森特许公司 在3d通信系统中提供补充内容的方法和设备
JP2013535889A (ja) * 2010-07-21 2013-09-12 トムソン ライセンシングThomson Licensing 3次元通信システムにおいて補助コンテンツを提供する方法及び装置
US10134150B2 (en) 2010-08-10 2018-11-20 Monotype Imaging Inc. Displaying graphics in multi-view scenes
CN102137264B (zh) * 2010-08-25 2013-03-13 华为技术有限公司 一种三维电视中图形文本显示的控制方法及设备、系统
JP5668385B2 (ja) * 2010-09-17 2015-02-12 ソニー株式会社 情報処理装置、プログラムおよび情報処理方法
US20120092364A1 (en) * 2010-10-14 2012-04-19 Microsoft Corporation Presenting two-dimensional elements in three-dimensional stereo applications
GB2485140A (en) * 2010-10-26 2012-05-09 Sony Corp A Method and Apparatus For Inserting Object Data into a Stereoscopic Image
US20130207971A1 (en) * 2010-10-29 2013-08-15 Thomson Licensing Method for generation of three-dimensional images encrusting a graphic object in the image and an associated display device
GB2485532A (en) * 2010-11-12 2012-05-23 Sony Corp Three dimensional (3D) image duration-related metadata encoding of apparent minimum observer distances (disparity)
BR112013013486A2 (pt) * 2010-12-03 2016-10-11 Koninkl Philips Electronics Nv dispositivo de fonte em 3d para a emissão de um sinal de imagem tridimensional, dispositivo alvo em 3d para a recepção de um sinal de imagem tridimensional, método de produção de um sinal de imagem tridimensiona, método de consumo de um sinal d eimagem tridimensional, programa de computador, produto de programa de computador e sinal de imagem tridimensional
JP4908624B1 (ja) 2010-12-14 2012-04-04 株式会社東芝 立体映像信号処理装置及び方法
WO2012100434A1 (en) * 2011-01-30 2012-08-02 Nokia Corporation Method, apparatus and computer program product for three-dimensional stereo display
CN102186023B (zh) * 2011-04-27 2013-01-02 四川长虹电器股份有限公司 一种双目立体字幕处理方法
US20120293636A1 (en) * 2011-05-19 2012-11-22 Comcast Cable Communications, Llc Automatic 3-Dimensional Z-Axis Settings
WO2012177160A1 (en) * 2011-06-22 2012-12-27 General Instrument Corporation Method and apparatus for processing and displaying multiple captions superimposed on video images
JP2013051660A (ja) * 2011-08-04 2013-03-14 Sony Corp 送信装置、送信方法および受信装置
CN102510558B (zh) * 2011-10-13 2018-03-27 中兴通讯股份有限公司 一种信息显示方法及系统、发送模块与接收模块
JP5127973B1 (ja) * 2011-10-21 2013-01-23 株式会社東芝 映像処理装置、映像処理方法および映像表示装置
CN102447863A (zh) * 2011-12-20 2012-05-09 四川长虹电器股份有限公司 一种多视点立体视频字幕处理方法
US9829715B2 (en) 2012-01-23 2017-11-28 Nvidia Corporation Eyewear device for transmitting signal and communication method thereof
CN102663665B (zh) * 2012-03-02 2014-04-09 清华大学 具有自适应深度的立体图像图文标签的显示和编辑方法
JP5289606B2 (ja) * 2012-06-20 2013-09-11 株式会社東芝 立体映像表示装置及び方法
WO2014013405A1 (en) 2012-07-20 2014-01-23 Koninklijke Philips N.V. Metadata for depth filtering
US9781409B2 (en) * 2012-08-17 2017-10-03 Nec Corporation Portable terminal device and program
CN103679127B (zh) * 2012-09-24 2017-08-04 株式会社理光 检测道路路面的可行驶区域的方法和装置
JP5903023B2 (ja) * 2012-10-04 2016-04-13 株式会社ジオ技術研究所 立体視地図表示システム
NL2009616C2 (en) * 2012-10-11 2014-04-14 Ultra D Co Peratief U A Adjusting depth in a three-dimensional image signal.
US10203839B2 (en) * 2012-12-27 2019-02-12 Avaya Inc. Three-dimensional generalized space
US9118911B2 (en) * 2013-02-07 2015-08-25 Delphi Technologies, Inc. Variable disparity three-dimensional (3D) display system and method of operating the same
US9197947B2 (en) * 2013-03-14 2015-11-24 Arris Technology, Inc. Devices and methods for dynamic video processing
US20150213640A1 (en) * 2014-01-24 2015-07-30 Nvidia Corporation Hybrid virtual 3d rendering approach to stereovision
US20150334367A1 (en) * 2014-05-13 2015-11-19 Nagravision S.A. Techniques for displaying three dimensional objects
CN106296781A (zh) * 2015-05-27 2017-01-04 深圳超多维光电子有限公司 特效图像生成方法及电子设备
US10511882B2 (en) * 2016-01-26 2019-12-17 Sony Corporation Reception apparatus, reception method, and transmission apparatus
US10230812B1 (en) * 2016-01-29 2019-03-12 Amazon Technologies, Inc. Dynamic allocation of subtitle packaging
CN106412718A (zh) * 2016-09-18 2017-02-15 乐视控股(北京)有限公司 一种字幕在3d空间中的渲染方法及其装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020036371A (ko) * 2000-11-09 2002-05-16 김춘호 3차원 디스플레이 시스템을 이용한 3차원 메시징 방법 및장치
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
KR20060054872A (ko) * 2004-11-16 2006-05-23 한국전자통신연구원 입체 방송 서비스를 위한 디지털 방송 송신 장치 및 그 방법

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5715383A (en) 1992-09-28 1998-02-03 Eastman Kodak Company Compound depth image display system
US5559942A (en) * 1993-05-10 1996-09-24 Apple Computer, Inc. Method and apparatus for providing a note for an application program
US5790086A (en) * 1995-01-04 1998-08-04 Visualabs Inc. 3-D imaging system
US5784097A (en) * 1995-03-29 1998-07-21 Sanyo Electric Co., Ltd. Three-dimensional image display device
RU2097940C1 (ru) * 1995-04-18 1997-11-27 Акционерное общество закрытого типа "Ракурс-ЗД" Способ получения и воспроизведения объемного изображения и устройство для его реализации
TW436777B (en) 1995-09-29 2001-05-28 Matsushita Electric Ind Co Ltd A method and an apparatus for reproducing bitstream having non-sequential system clock data seamlessly therebetween
JPH11113028A (ja) 1997-09-30 1999-04-23 Toshiba Corp 3次元映像表示装置
WO2003092303A1 (en) * 2002-04-25 2003-11-06 Sharp Kabushiki Kaisha Multimedia information generation method and multimedia information reproduction device
US20040081434A1 (en) * 2002-10-15 2004-04-29 Samsung Electronics Co., Ltd. Information storage medium containing subtitle data for multiple languages using text data and downloadable fonts and apparatus therefor
JP2004201004A (ja) * 2002-12-18 2004-07-15 Nippon Telegr & Teleph Corp <Ntt> 3次元映像表示装置、プログラム、及び記録媒体
JP2004208014A (ja) 2002-12-25 2004-07-22 Mitsubishi Electric Corp 字幕表示装置及び字幕表示プログラム
KR20040099058A (ko) 2003-05-17 2004-11-26 삼성전자주식회사 서브타이틀 처리 방법, 그 재생 장치 및 그 정보저장매체
US7650036B2 (en) * 2003-10-16 2010-01-19 Sharp Laboratories Of America, Inc. System and method for three-dimensional video coding
KR100520707B1 (ko) 2003-10-20 2005-10-17 엘지전자 주식회사 3차원 지도에서의 다중레벨 텍스트데이터 표시방법
WO2005046223A1 (en) 2003-11-10 2005-05-19 Koninklijke Philips Electronics, N.V. Adaptation of close-captioned text based on surrounding video content
AT416443T (de) * 2005-04-19 2008-12-15 Koninkl Philips Electronics Nv Tiefenwahrnehmung
PL1897056T3 (pl) 2005-06-23 2017-01-31 Koninklijke Philips N.V. Połączona wymiana danych obrazu i powiązanych
JP4463215B2 (ja) 2006-01-30 2010-05-19 Nec液晶テクノロジー株式会社 立体化処理装置及び立体情報端末
US7916934B2 (en) * 2006-04-04 2011-03-29 Mitsubishi Electric Research Laboratories, Inc. Method and system for acquiring, encoding, decoding and displaying 3D light fields
CN101523924B (zh) 2006-09-28 2011-07-06 皇家飞利浦电子股份有限公司 3d菜单显示
CN101682793B (zh) * 2006-10-11 2012-09-26 皇家飞利浦电子股份有限公司 创建三维图形数据
JP4755565B2 (ja) * 2006-10-17 2011-08-24 シャープ株式会社 立体画像処理装置
KR101842622B1 (ko) * 2007-03-16 2018-03-27 톰슨 라이센싱 3차원 콘텐츠와 텍스트를 조합하기 위한 시스템 및 방법
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
MY148196A (en) * 2008-01-17 2013-03-15 Panasonic Corp Information recording medium, device and method for playing back 3d images
RU2516463C2 (ru) * 2008-02-15 2014-05-20 Панасоник Корпорэйшн Устройство воспроизведения, записывающее устройство, способ воспроизведения и способ записи
US20090273711A1 (en) * 2008-04-30 2009-11-05 Centre De Recherche Informatique De Montreal (Crim) Method and apparatus for caption production

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020036371A (ko) * 2000-11-09 2002-05-16 김춘호 3차원 디스플레이 시스템을 이용한 3차원 메시징 방법 및장치
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
KR20060054872A (ko) * 2004-11-16 2006-05-23 한국전자통신연구원 입체 방송 서비스를 위한 디지털 방송 송신 장치 및 그 방법

Also Published As

Publication number Publication date
EP2362671A1 (en) 2011-08-31
CN102137270A (zh) 2011-07-27
AU2009275163B2 (en) 2015-11-05
MY158412A (en) 2016-10-14
AU2009275163A1 (en) 2010-01-28
JP5792064B2 (ja) 2015-10-07
US9979902B2 (en) 2018-05-22
EP2308240A1 (en) 2011-04-13
US8508582B2 (en) 2013-08-13
US20110128351A1 (en) 2011-06-02
MX2011000785A (es) 2011-02-24
US20110292189A1 (en) 2011-12-01
CN102106153B (zh) 2013-12-18
PL2362671T3 (pl) 2014-05-30
RU2011106942A (ru) 2012-08-27
EP2362671B1 (en) 2013-09-11
RU2517402C2 (ru) 2014-05-27
CN102137270B (zh) 2014-09-03
WO2010010499A1 (en) 2010-01-28
CN102106153A (zh) 2011-06-22
BRPI0911014A2 (pt) 2018-01-23
EP3454549A1 (en) 2019-03-13
ES2435669T3 (es) 2013-12-20
KR20110102497A (ko) 2011-09-16
JP2011529286A (ja) 2011-12-01
KR20110053431A (ko) 2011-05-23

Similar Documents

Publication Publication Date Title
US10341643B2 (en) Process and system for encoding and playback of stereoscopic video sequences
US9485489B2 (en) Broadcasting receiver and method for displaying 3D images
US9338428B2 (en) 3D mode selection mechanism for video playback
US10419740B2 (en) Switching between 3D and 2D video
US9355455B2 (en) Image data processing method and stereoscopic image display using the same
AU2010270951B2 (en) Insertion of 3D objects in a stereoscopic image at relative depth
US9148646B2 (en) Apparatus and method for processing video content
US9021399B2 (en) Stereoscopic image reproduction device and method for providing 3D user interface
US20170013255A1 (en) Method and apparatus for combining 3d image and graphical data
KR101377736B1 (ko) 3차원 그래픽 데이터의 생성
US10567728B2 (en) Versatile 3-D picture format
KR101667723B1 (ko) 3차원 영상신호 전송 방법과, 3차원 영상표시 장치 및 그에 있어서의 신호 처리 방법
US10158841B2 (en) Method and device for overlaying 3D graphics over 3D video
RU2516499C2 (ru) Передача данных стереоскопического изображения через интерфейс устройства отображения
US10390000B2 (en) Systems and methods for providing closed captioning in three-dimensional imagery
JP2013059043A (ja) 立体視映像再生装置
KR101651442B1 (ko) 이미지 기반 3d 비디오 포맷
US9094657B2 (en) Electronic apparatus and method
US9161023B2 (en) Method and system for response time compensation for 3D video processing
KR101716636B1 (ko) 3d 비디오 및 보조 데이터의 결합
ES2670663T3 (es) Datos auxiliares en difusión de vídeo en 3D
US8570360B2 (en) Stereoscopic parameter embedding device and stereoscopic image reproducer
US9124858B2 (en) Content processing apparatus for processing high resolution content and content processing method thereof
JPWO2012017643A1 (ja) 符号化方法、表示装置、及び復号方法
EP2247116A2 (en) Stereoscopic video and audio recording method, stereoscopic video and audio reproducing method, stereoscopic video and audio recording apparatus, stereoscopic video and audio reproducing apparatus, and stereoscopic video and audio recording medium

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160920

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170921

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180920

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190918

Year of fee payment: 7