KR20110112823A - 3차원 이미지에서의 방송 자막을 제공하는 시스템 및 방법 - Google Patents

3차원 이미지에서의 방송 자막을 제공하는 시스템 및 방법 Download PDF

Info

Publication number
KR20110112823A
KR20110112823A KR1020117017446A KR20117017446A KR20110112823A KR 20110112823 A KR20110112823 A KR 20110112823A KR 1020117017446 A KR1020117017446 A KR 1020117017446A KR 20117017446 A KR20117017446 A KR 20117017446A KR 20110112823 A KR20110112823 A KR 20110112823A
Authority
KR
South Korea
Prior art keywords
programming
dimensional
location
dimensional programming
subtitle
Prior art date
Application number
KR1020117017446A
Other languages
English (en)
Other versions
KR101289542B1 (ko
Inventor
존 앤소니 카드
Original Assignee
에코스타 테크놀로지스 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에코스타 테크놀로지스 엘엘씨 filed Critical 에코스타 테크놀로지스 엘엘씨
Publication of KR20110112823A publication Critical patent/KR20110112823A/ko
Application granted granted Critical
Publication of KR101289542B1 publication Critical patent/KR101289542B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information

Abstract

3차원 (3D 또는 3-D) 또는 유사 3D 프로그래밍을 처리하는 시스템 및 방법이 제공된다. 프로그래밍은 자막 데이터 및 3D 프로그래밍 내의 자막 데이터에 대한 위치를 특정하는 위치 식별자를 포함하는 방송 자막 (CC) 정보를 포함한다. 프로그래밍 정보는 자막 데이터를 특정된 위치에 랜더링하며, 디스플레이 상에 프로그래밍을 제공하도록 처리된다. 위치 식별 정보를 3차원 프로그래밍으로 인코딩함으로써, 높은 수준의 조합성이 제공될 수 있으며, 3D 경험이 자막이 디스플레이되는 동안 유지될 수 있다.

Description

3차원 이미지에서의 방송 자막을 제공하는 시스템 및 방법{SYSTEMS AND METHODS FOR PROVIDING CLOSED CAPTIONING IN THREE-DIMENSIONAL IMAGERY}
관련 출원에 대한 상호 참조
본 발명은 2009년 1월 27일에 제출된 미국 특허 출원 제 12/360,659 호에 대해 우선권을 주장한다.
기술 분야
아래의 논의는 디스플레이된 3차원 (3D) 이미지에서의 방송 자막 정보의 표시에 관한 것이다.
방송 자막은 텔레비전 또는 다른 디스플레이 상에 텍스트를 수신, 포맷, 및 디스플레이하여, 이에 의해 시청자가 프로그래밍 콘텐츠에 대한 부가적 또는 해석적 정보에 액세스하도록 하는 임의의 시스템을 지칭한다. 방송 자막은 일반적으로 프로그램 진행으로서 프로그램의 오디오 부분의 표기를 디스플레이하여, 이에 이해 청각 장애인 또는 다른 이들이 프로그래밍과 관련된 오디오 트랙을 청취하지 않고 프로그래밍 콘텐츠를 따라가도록 한다.
연방법은 미국 내의 모든 텔레비전 방송 프로그래밍은 방송 자막 정보를 포함하도록 지시한다. 종래의 아날로그 NTSC 프로그래밍에 대해, 자막은 방송 신호의 수직 귀선 소거 기간 (VBI; vertical blanking interval)의 라인 21로 "인코딩"된다. 종래 디지털 (예를 들어, ATSC) 프로그래밍에 대해, 몇몇 스트림은 통상적으로 EIA-708 포맷에서 인코딩된 63개의 자막 스트림 세트를 포함하는 디지털 멀티플렉스에서 인코딩된다. 다른 방송 자막 포맷들 또는 표준들은 미국 등에서 구현될 수도 있다. 일반적으로, 방송 자막 텍스트에는 프로그래밍 콘텐츠가 제공되며, 수신기는 "스크롤링", "팝업", 또는 "페인트 온" 방법으로 수신된 이미지 위에 겹치는 텍스트를 생성한다. 동영상, 비디오 디스크 (예를 들어, DVD) 콘텐츠, 스트리밍된 오디오/비디오, 비디오 게임 등은 임의의 수의 표준 또는 비표준 기술을 사용하여 방송 자막을 유사하게 포함한다.
그러나 몇몇 이유 때문에, 3차원 (또는 유사 3차원적인) 디스플레이에서 종래의 방송 자막 기술을 적용하는 것은 어렵다. 우선, 이미지는 2차원 이상에서 처리되기 때문에, 방송 자막 정보를 제공하는데 적합한 디스플레이 이미지의 표준 2차원 영역을 식별하는 것이 점차 어려워진다. 또한, 3차원 디스플레이는 시청자 환경 및 선호도에 대해 종종 상당히 변경 가능하기 때문에, 방송 자막 데이터에 대한 표준 위치를 식별하는 것이 어렵다. 따라서, 3차원 디스플레이 및 콘텐츠 프로그래밍이 더욱 일반적이 됨에 따라, 2차원 시청 공간에 방송 자막을 제공하는데 사용된 종래 기술은 적합하지 않을 수도 있다.
따라서, 3차원 유형 디스플레이에서 효율적인 방송 자막을 제공하는 것이 바람직하다. 이들 및 다른 바람직한 특징 및 특성들이 첨부된 도면 및 이러한 배경 섹션과 함께 취해진 이하의 발명의 상세한 설명 및 첨부된 특허청구범위로부터 명백해질 것이다.
다양한 예시적인 실시예에 따라, 시스템 및 방법들이 3차원 (3D) 또는 유사 (pseudo) 3D 프로그래밍에 대해 제공된다. 프로그래밍은 자막 데이터 및 3D 프로그래밍 내의 자막 데이터에 대한 위치를 특정하는 위치 식별자를 포함하는 방송 자막 정보를 포함한다. 프로그래밍 정보는 특정 위치에 자막을 제공하며, 디스플레이 상에 프로그래밍을 제공한다. 위치 식별 정보를 3차원 프로그래밍으로 인코딩함으로써, 높은 수준의 조합성이 제공될 수 있으며, 3D 경험이 자막이 디스플레이되는 동안 유지될 수 있다.
다른 실시예에서, 3차원 프로그래밍을 디스플레이하는 시스템이 제공된다. 시스템은 수신기 인터페이스 및 프로세서를 적절히 포함한다. 수신기는 3차원 프로그래밍을 수신하도록 구성되며, 3차원 프로그래밍은 자막 데이터 및 3차원 프로그래밍 내에서 자막 데이터에 대한 위치를 특정하는 위치 식별자를 포함하는 방송 자막 정보를 포함한다. 프로세서는 3차원 프로그래밍에 대응하는 이미지를 제공하도록 구성되며, 이미지는 3차원 프로그래밍 내의 특정 위치에서 제공되는 자막 데이터를 포함한다.
또한, 다른 실시예는 3차원 프로그래밍을 생성하는 방법과 관련된다. 방법은 3차원 프로그래밍 내에 자막 데이터를 제공하는 적합한 위치를 결정하는 단계, 위치 식별자로 적합한 위치 각각을 식별하는 단계, 방송 자막을 정보를 3차원 프로그래밍으로 인코딩하는 단계를 적절히 포함하며, 방송 자막은 자막 데이터 및 3차원 프로그래밍 내에서 자막에 대한 적합한 위치를 특정하는 위치 식별자를 포함한다. 이 방법은 프로그래밍 자체의 생성 또는 생성 이후 동안 실행될 수도 있거나, 임의의 종류의 지상 방송, 위성, 케이블 또는 다른 전송 매체상에서의 프로그래밍의 전송 이전에 실행될 수도 있다.
다양한 실시예, 양태 및 다른 특징들을 더욱 상세히 설명한다.
예시적인 실시예가 동일한 부호는 동일한 구성요소를 지시하는 다음의 도면과 함께 이하 설명된다.
도 1은 3차원 (또는 유사 3차원) 프로그래밍에 방송 자막 정보를 제공하는 예시적인 시스템의 블록도이다.
도 2는 자막 박스의 가림을 표시하는 예시적인 이미지의 도면이다.
도 3은 3차원 방송 자막 정보를 수행하는 적합한 예시적인 데이터 구조도이다.
도 4는 방송 자막 정보를 포함하는 3차원 프로그래밍을 제공하는 예시적인 프로세스의 흐름도이다.
도 5는 방송 자막 정보를 포함하는 3차원 프로그래밍을 제공하는 예시적인 프로세스의 흐름도이다.
이하의 상세한 설명은 단지 본질적으로 예시적이며 본 발명 또는 본 발명의 적용 및 사용을 제한하도록 의도되는 것이 아니다. 또한, 전술한 배경기술 또는 이하의 상세한 설명에서 제공된 임의의 이론에 의한 한정의 의도는 없다.
다양한 실시예에 따라, 방송 자막 정보는 3차원 디스플레이에서의 표현을 허용하는 방식으로 3차원 ("3D" 또는 "3-D") 프로그래밍 스트림에 제공된다. 방송 자막 텍스트와 함께 제공된 정보는 3-D 또는 유사 3D 포맷으로 제공하는데 적합한 위치를 특정하는 위치 정보를 포함할 수도 있다. 위치 정보는 3차원 공간에서 예를 들어, 방송 자막 텍스트를 디스플레이하는데 적합한 앵커 포인트 (anchor point) 또는 폴리곤 (polygon)을 특정할 수도 있다. 방송 자막 정보는 사용자 선호도 (예를 들어, 시차 (parallax) 설정, 폰트 사이즈, 컬러, 투명도 등)를 고려하는 방식으로 디스플레이 상에 특정 위치에 제공될 수 있다. 또한, 다양한 실시예는 방송 자막 데이터의 이미지 가림과 같은 추가적인 특징을 허용한다. 사용되는 경우, 방송 자막 데이터의 가림은 3차원의 인식을 향상시키는 새로운 효과를 유발할 수 있다. 이들 및 다른 특징들이 이하 더욱 상세히 설명된다.
용어 "3차원", "3-D", "3D" 등은 서로 상호교환적으로 사용되도록 의도되며, 2차원 큰 이미지를 처리, 디스플레이, 및/또는 그 외에 고려하는 임의의 유형의 표현 또는 디스플레이를 의미한다. 이러한 디스플레이는 2차원 방식으로 이미지를 제공하지만, 근본적인 3차원 폴리곤, 객체 또는 다른 데이터에 기반하여 2차원 이미지를 랜더링할 수 있는 소위 "유사 3d"를 포함할 수도 있다. 또한, 이하의 논의가 주로 텔레비전 방송 자원에 주로 초점을 맞추지만, 균등한 실시예가 동일한 특징을 임의의 종류의 위성, 케이블, 지상 또는 다른 전송가능 포맷뿐만 아니라 임의의 종류의 저장 매체 포맷 (예를 들어, 종래의 DVD 포맷을 포함하는 DVD뿐만 아니라 임의의 종류의 BLU-RAY 또는 다른 고화질 디스크 포맷), 스트리밍 비디오 포맷 (예를 들어, 인터넷 또는 다른 네트워크를 통한 스트리밍 비디오뿐만 아니라 전화기 또는 다른 무선 네트워크를 통한 스트리밍), 시네마 포맷 등을 포함하는 임의의 다른 맥락에 적용할 수 있다.
도 1을 참조하면, 방송 자막 정보를 가지는 3차원 이미지를 제작하는 예시적인 시스템 (100)은 제작 시스템 (102), 분배 시스템 (104), 및 전송 시스템 (106)을 적절히 포함한다. 콘텐츠는, 생성된 경우, 매체 수신기 (110)에서의 랜더링 및 임의의 종류의 디스플레이 (120) 상에서의 디스플레이를 위해 임의의 종류의 방송 또는 다른 분배 채널 (108)을 통해 시청자에게 제공된다. 도 1에 도시된 바와 같이, 방송 자막 정보 (105)는 제작 (102), 분배 (104) 및/또는 전송 (106) 중 임의의 단계에서 프로그래밍에 삽입되어, 3-D 효과를 보존하는 방식으로 제공될 자막 데이터를 효과적으로 제공하는 방법으로 방송 자막을 제공하게 한다. 도 1의 디스플레이 (120)에서 제공된 이미지에서, 예를 들어, 자막 텍스트는 디스플레이 (120) 상에 배열될 수 있는 객체 (122) 내부에 디스플레이되어 다른 객체 (예를 들어, 배우 객체 (124), 검 객체 (126))는 3-D (또는 유사 3-D) 방식으로 자막 객체 (122) 주변에 제공된다. 도 1은, 예를 들어, 자막 객체 (122)의 위치를 가로막는 검 객체 (126)의 위치를 도시하여, 이에 의해 검 (126)이 자막 텍스트 "앞에" 있는 착각을 일으킨다. 또한, 자막 객체 (122)는 사용자 설정 또는 시차 (예를 들어, 3-D 효과를 생성하는데 사용된 2개의 입체 이미지 사이의 거리), 폰트, 텍스트 사이즈 등에 대한 선호도를 포함하는 사용자 선호도에 응답하여 위치하고, 사이즈 조정되며 및/또는 그렇지 않은 경우 디스플레이될 수도 있다.
자막 텍스트를 디스플레이 (122) 상의 고정된 위치에 단순히 제공하지 않고, 자막 객체 (122)의 위치는 디스플레이 (120) 상에 제공된 3차원 공간의 임의의 장소에 다양하고 설정가능하게 위치할 수도 있다. 자막 객체 (122)의 특정 위치는 임의의 방식으로 규정될 수도 있다. 다양한 실시예에서, 자막 객체 (122)는 프로그램 콘텐츠의 제작 (102), 분배 (104) 및/또는 전송 (106) 동안 프로그래밍 데이터에 삽입되는 위치 정보에 기반하여 배치된다. 예를 들어, 작가 또는 제작자는 자막 데이터를 제공하는데 적합할 수 있는 2차원 또는 3차원 공간에서 특정 위치를 식별할 수도 있다. 이들 위치는 그 후 현재 스크린 이미지에 기반할 수도 있으며, 원하는 바에 따라 종종 변경될 수도 있다. 따라서, 자막 텍스트는 프로그래밍 과정에 따라 디스플레이 (120) 상에 상이한 위치에 제공될 수도 있다.
자막 위치 식별자는 인코딩되어 임의의 방법으로 수신기 (110)에 제공될 수도 있다. 다양한 실시예에서, 프로그래밍 내에 (예를 들어, 방송 또는 네트워크 스트림 내에, 또는 임의의 매체에 저장된 인코딩된 데이터 내에) 제공된 방송 자막 정보는 자막 텍스트 및 디스플레이 (120) 상의 자막 텍스트를 제공하는 자막 객체 (122)의 위치를 특정하는 위치 식별자를 모두 포함한다. 객체 (122)의 위치는 임의의 방법으로 규정될 수도 있다. 2개의 입체 이미지를 이용하여 3-D 효과를 제공하는 실시예에서, 예를 들어, 자막의 위치는 앵커 포인트, 폴리곤 및/또는 이미지들 중 하나 또는 모두에서의 다른 기준에 관하여 규정될 수도 있다. 깊이 맵 (depth map) 등을 사용하여 3-D 효과를 제공하는 실시예에서, 박스 또는 다른 폴리곤은 자막 텍스트를 제공하는 위치와 통신할 수 있으며, 깊이 정보는 자막 박스를 포함하는 이미지에 대해 제공될 수도 있다. 폴리곤은, 예를 들어, 다른 실시예들이 폴리곤을 임의의 다른 방법으로 규정할지라도, 디스플레이 표면에 팽행하도록 규정될 수도 있다. 몇몇 실시예에서, 개별적인 깊이 정보는 자막 박스가 활성화되지 않는 경우 이미지를 랜더링하는데 제공될 수도 있다.
제작 시스템 (102), 분배 시스템 (104), 및 전송 시스템 (106)은 각각 프로그램 콘텐츠를 제작, 분배 및/또는 전송할 수 있는 임의의 시스템, 디바이스 또는 구조물을 나타낸다. 전술한 바와 같이, 방송 자막 정보 (105)는 제작, 분배, 및/또는 전송 중 임의의 단계에서 임의의 방법으로 프로그래밍 콘텐츠에 삽입될 수도 있다. 다양한 실시예에서, 작가, 편집자, 제작자, 또는 다른 자가 프로그램에 의해 제공된 3차원 공간 내에 자막 이미지 (122)에 대한 하나 이상의 적합한 위치를 선택할 수 있는 제작 단계에서, 자막 정보가 프로그래밍으로 인코딩된다. 이러한 정보는 종래의 "제작 이후" 단계 등 동안과 같이, 임의의 방법으로 임의의 종류의 프로그래밍으로 인코딩될 수도 있다. 제작 동안 또는 제작 직후의 자막 정보의 삽입은 시네마 프로그래밍, 텔레비전 프로그래밍, 또는 플레이어/수신기 디바이스 (110)에 의해 랜더링될 수 있는 임의의 형태의 MPEG 포맷과 같은 임의의 형태의 표준 포맷으로 전달되는 임의의 다른 프로그래밍을 포함하는 임의의 종류의 프로그래밍에 적합할 수도 있다. 그러나 다른 실시예들에서, 자막 정보 (105)는 중간 분배 (예를 들어, DVD들 또는 다른 휴대 매체에 저장되거나, 그렇지 않은 경우, 네트워크 계열, 방송 및/또는 임의의 다른 것에 분배되는 프로그래밍의 인코딩 또는 전송) 동안 프로그래밍에 부가될 수도 있다. 다른 실시예에서, 자막 정보 (105)는 현재 자막 데이터가 현재 2차원 방송에 인코딩되는 만큼, 방송 또는 다른 전송 직전에 프로그램 스트림에 삽입될 수도 있다.
그 결과, 분배 채널 (108)은 데이터 링크, 방송 또는 다른 무선 접속, 물리적 매체, 및/또는 프로그래밍 콘텐츠를 전달하는 다른 길 중 임의의 종류를 나타낼 수도 있다. 분배 채널의 예들은 방송 텔레비전, 초소형 지구국 (very small aperture terminal; VSAT) 위성 (예를 들어, 영화 분배를 위함), 직접 방송 위성 (direct broadcasting satellite; DBS), 케이블 텔레비전, 셀룰러 또는 다른 무선 텔레비전 네트워크, 인터넷 또는 다른 데이터 통신 네트워크 등을 포함하지만 이에 한정되지는 않는다. 또한, 방송 자막 정보 (105)는 프로그래밍 콘텐츠의 제작, 제작 이후, 분배, 및/또는 전달 중 임의의 단계에서 임의의 방법으로 프로그래밍 콘텐츠로 삽입되거나 프로그래밍 콘텐츠로 인코딩될 수도 있다.
수신기 (110)는 프로그래밍 콘텐츠를 수신 및 처리할 수 있는 임의의 디바이스, 구성요소, 회로 또는 로직이다. 도 1에 도시된 바와 같이, 수신기 (110)는 수신기 인터페이스 (112), 메모리 (118)와 관련된 프로세서 (116), 및 디스플레이 인터페이스 (114)를 적절히 포함한다. 다양한 실시예에서, 수신기 (110)는 분배 채널 (108)을 통해 신호를 수신하여 시청자에게 디스플레이될 수 있는 출력 신호 (115)를 제공할 수 있는 텔레비전 수신기 (예를 들어, 방송, 위성, 및/또는 케이블 텔레비전 수신기)이다. 다양한 실시예에서, 수신기 (110) 및 디스플레이 (120)는 종래의 텔레비전을 구성한다. 그러나 다른 실시예에서, 디스플레이 (120)는 임의의 종류의 텔레비전 또는 셋톱 박스, 디코더, 또는 다른 외부 수신기 (110)로부터 필요에 따라 프로그램 신호 (115)를 수신할 수 있는 다른 모니터이다. 수신기 (110)는 DVD 또는 임의의 광학, 자기적 및/또는 다른 휴대용 매체에 저장된 콘텐츠를 랜더링할 수 있는 다른 플레이어와 균등하게 구현될 수도 있다. 다른 실시예에서, 수신기 (110)는 통신 네트워크 (예를 들어, 인터넷, 근거리 영역 또는 광역 네트워크, 및/또는 임의의 종류의 무선 전화 네트워크)를 통해 매체 스트림을 수신할 수 있는 매체 플레이어이다. 이러한 실시예에서, 수신기 (110)는 개인 컴퓨터, 개인 휴대 정보 단말기, 이동 전화기, 비디오 게임 플레이어 등과 같은 종래의 컴퓨터 하드웨어 상에서 실행하는 소프트웨어 프로그램일 수도 있다.
수신기 인터페이스 (112)는 프로그래밍 콘텐츠를 수신할 수 있는 임의의 하드웨어, 펌웨어, 및/또는 소프트웨어 인터페이스이다. 다양한 실시예에서, 수신기 인터페이스는 방송, 위성, 및/또는 케이블 프로그래밍 링크를 통해 디지털 텔레비전 프로그래밍을 수신 및 변조하는 변조기/디코더 특성을 구현한다. 다른 실시예에서, 수신기 인터페이스 (112)는 인터넷, 또는 임의의 근거리 영역, 전화기 및/또는 인터넷으로의 접속을 가지는 다른 네트워크와 같은 디지털 네트워크에 대한 종래의 네트워크 인터페이서이다. 전술한 바와 같이, 수신기 인터페이스 (112)는 DVD 또는 다른 휴대용 매체, 또는 임의의 다른 자원으로부터 필요에 따라 프로그래밍을 균등하게 수신할 수도 있다.
도 1에 구체적으로 도시되지는 않았지만, 다수의 실시예들이 또한 (또는 대체로) 디지털 비디오 기록기 (DVR) 또는 나중의 시청을 위해 콘텐츠를 저장하는 다른 기록 특성을 제공할 수도 있다. 이러한 콘텐츠는 자막 정보(105)와 함께 저장되어 기록기에 저장된 프로그래밍이 랜더링시에, 콘텐츠 텍스트의 디코딩 및 시청을 허용한다.
프로세서 (116)는 수신기 인터페이스 (112) 및 디스플레이 (120) 상에서 시청자에게 이미지를 제공하는 디스플레이 인터페이스 (114)와 상호작용하는 임의의 종류의 제어기 등이다. 프로세서 (116)는 임의의 종류의 마이크로프로세서, 마이크로제어기, 디지털 신호 프로세서, 또는 수신기 (110)의 동작 및 처리를 총괄할 수 있는 다른 로직을 사용하여 구현될 수도 있다. 통상적으로, 프로세서 (116)는 임의의 종류의 정적 메모리, 동적 메모리, 플래시 메모리 또는 프로세서 (116)에 의해 처리되는 프로그래밍 명령 및/또는 데이터를 저장할 수 있는 다른 메모리와 같은 임의의 종류의 메모리 (118)와 관련될 것이다. 다양한 실시예에서, 수신기 (110)는 메모리 (118)를 갖는 하이브리드 마이크로제어기 (116), 입력/출력 및/또는 수신기 (110)의 동작 및 다양한 신호 처리를 수행하는 다른 특성을 포함하는 "시스템 온 칩 (SoC)" 구현에 기반한다. 다양한 SoC 및 다른 집적 하드웨어 구현은 텍사스 인스트루먼트, 커넥선트 시스템, 브로드컴 Inc, 및 다수의 다른 공급회사로부터 적절히 이용가능하다. 다른 구현들은 임의의 종류의 주문형 반도체 (ASIC; application specific integrated circuit) 등을 사용하여 프로세서 (116) 및/또는 메모리 (118)를 구현할 수도 있다. 다른 구현은 임의의 수의 개별 및/또는 집적된 처리 구성요소 (예를 들어, 임의의 종류의 마이크로프로세서 또는 마이크로제어기), 메모리 (118), 입력/출력 특성 및/또는 다른 특성으로 필요에 따라 프로세서 (116) 및/또는 수신기 (110)의 다른 특성을 구현할 수도 있다.
디지털 인터페이스 (114)는 디스플레이 (120)에 대한 임의의 물리적 및/또는 논리적 인터페이스이다. 전술한 바와 같이, 몇몇 실시예에서, 수신기 (110) 및 디스플레이 (120)는 집적 제품 (예를 들어, 종래의 텔레비전)에 제공된다. 다른 실시예에서, 수신기 (100)는 외부 디스플레이 (104)에 비디오 출력 신호 (115)를 제공하며, 이러한 신호 (115)는 임의의 호환가능한 포맷으로 제공될 수도 있다. 디스플레이 (120)가 종래의 텔레비전인 실시예에서, 예를 들어, 디스플레이 인터페이스 (114)는 컴포넌트 비디오, 복합 비디오, S-비디오, 고화질 멀티미디어 인터페이스 (HDMI; High Definition Multimedia Interface), 디지털 비주얼 인터페이스 (DVI; digital visual interface), IEEE 1394, 및/또는 필요에 따른 임의의 다른 포맷과 같은 임의의 종래의 포맷으로 비디오 출력 신호 (115)를 제공할 수도 있다.
디스플레이 (120)는 임의의 종류의 텔레비전, 모니터, 및/또는 3D 또는 유사 3D 이미지를 시청자에게 나타낼 수 있는 다른 디스플레이이다. 다양한 실시예에서, 디스플레이 (120)는 수신기 (110)와 함께 동작하여 임의의 방법으로 3D 이미지를 생성한다. 3D 디스플레이 기술의 예는 인터레이스된 이미지 (예를 들어, 수평, 수직, 체커판 및/또는 다른 인터레이싱을 이용함), 임의의 종류의 깊이 맵과 조합되어 제공된 이미지, 스테레오 이미지 등에 기반한 임의의 종류의 디스플레이를 포함하지만 이에 한정되지는 않는다. 이러한 이미지는 임의의 종류의 애너글리픽 (anaglyphic) 기술, 또는 편광 필터, 파장 다중화, 필드 순차 보기, 렌티큘러 스크린, 시차 장벽 등을 사용하는 임의의 종류의 보기 기술을 사용하여 보여질 수도 있다.
그 후, 실질적으로, 수신기 (110)는 임의의 포맷 또는 매체로 3-D 유형의 프로그래밍을 적절히 수신한다. 프로그래밍은 임의의 방송 또는 다른 전송원으로부터, 임의의 종류의 스트리밍 또는 휴대용 매체, 및/또는 임의의 다른 분배 채널 (108)로부터 인터페이스 (112)에서 수신될 수도 있다. 3-D 프로그래밍에는 자막 텍스트뿐만 아니라 자막 텍스트를 나타내는데 적합한 3차원 공간에서의 위치를 식별하는 위치 식별자 정보를 포함하는 자막 정보가 제공된다. 이 정보는 임의의 방법으로 프로그래밍 스트림으로부터 추출되어, 사용자 선호도 또는 디스플레이 (120) 상의 적합한 이미지를 생성하는 다른 정보와 함께 더 처리될 수도 있다. 다양한 실시예에서, 수신기 (110)는 자막 객체 (122)의 가림을 처리할 수 있어, 디스플레이 (120) 내의 다른 객체들은 자막 객체의 "앞에" 적절히 나타난다. 또한, 자막 객체 (122)의 위치는 이하 더욱 상세히 설명하는 바와 같이, 사용자 시차 및/또는 다른 설정과 일치하는 방법으로 랜더링될 수도 있다. 프로그래밍 콘텐츠 자체와 함께 방송 자막 텍스트에 대한 위치 정보를 제공함으로써, 보는 경험이 상당히 향상될 수 있다.
도 2는 다양한 프로그래밍 객체를 포함하는 프로그램을 나타내는 예시적인 디스플레이 (120)를 도시하는 도면이다. 이 예에서, 배우 또는 여배우를 나타내는 2개의 캐릭터 객체 (124A, 124B)는 검 (126A, 126B)을 사용하는 결투에 열중이다. 캐릭터들이 결투중에, 객체들 (124A, 124B) 및/또는 (126A, 126B)은 가끔 자막 객체 (122)를 가리며, 이에 의해 시청자에게 가리는 객체가 자막 객체 (122)의 앞에 있다는 인상을 준다. 이는 임의의 방법으로 달성될 수도 있으며, 다양한 실시예에서, 각각의 객체들 (124A, 124B, 126A, 126B 및 122)은 임의의 종류의 3차원 좌표계에 관하여 설명된다. 따라서, 객체들은 자신의 할당된 3차원 공간에서 랜더링되며, "앞의" 객체는 뒤의 객체를 가린다. 도 2에 도시된 예시적인 디스플레이 (120)에서, 예를 들어, 검 객체 (126B)는 자막 객체 (122)의 "앞에서" 도시되며, 객체들 (124A, 124B 및 126)은 자막 객체 (122)의 "뒤에서" 도시된다. 따라서, 도시된 바와 같이 이 예에서, 객체 (126B)는 객체 (122)의 일부를 가리고, 객체 (122)는 객체 (124A, 124B, 및 126A)의 일부를 가린다. 유사한 개념이 임의의 수 또는 유형의 객체에 적용될 수 있다. 즉, 디스플레이 (120)에서의 다른 객체에 관하여 자막 텍스트 객체 (122)를 규정함으로써, 객체 (122)는 3차원 공간의 적절한 위치에서 교체되어 효과적인 보기를 허용할 수 있다.
전술한 바와 같이, 자막 객체 (122)에 대한 특정 위치는 임의의 방법으로 구성되며, 프로그램의 지속을 통해 변경될 수도 있다. 도 2는 자막 객체 (122)를 디스플레이의 주요 객체들과 중첩하는 상대적인 "앞 및 중앙" 방법으로 나타내었지만, 자막은 또한 위치 (202 및/또는 204)와 같은 다른 위치에 나타날 수도 있다. 자막 데이터는 예를 들어, 배우에 의해 말해진 대화와 배우 객체 (124A 및 124B)를 부분적으로 연관시키는 방법으로 나타날 수 있다. 즉, 원하는 바에 따라 배우 객체 (124A)에 의해 제공된 대화는 영역 (202)에 제공되며, 배우 객체 (124B)로부터의 대화는 영역 (204)에 제공될 수 있다. 이러한 대화는 대화 박스 (예를 들어, 만화책 유형의 "풍선") 등을 격려하는 방법으로 제공될 수 있다.
도 1 및 도 2가 자막 객체 (122)를 3차원 공간에서 객체 (122)의 뒤에 위치하는 다른 객체를 가리는 박으로서 도시하지만, 다른 실시예들이 형태화되고, 사이즈가 조절되며 그렇지 않은 경우 임의의 방법으로 제공될 수도 있다. 객체 (122)는 뒤에 있는 객체를 가리는 솔리드 (solid) 객체일 필요는 없으며, 반대로 객체 (122)는 가림을 최소화하도록 상대적으로 투명할 수도 있다. 이러한 실시예에서, 자막 텍스트는 다른 이미지의 일부 또는 전부를 중첩하도록 제공될 수도 있으며, 객체 (122)의 나머지는 시청자에게 불투명하거나 투명하다. 객체 (122) 자체는 차원화되고 임의의 방법으로 형상화된다. 도 1 및 도 2는 객체 (122)를 직사각형 박스로 도시하였지만, 객체 (122)는 디스플레이 (120) 상에서 임의의 규칙적이거나 불규칙한 형태 (예를 들어, 전술한 대화 "풍선") 로서 균등하게 제공될 수도 있다.
자막 객체(들) (122)에 대한 특정 위치들은 임의의 기술을 사용하는 임의의 사람에 의해 결정될 수도 있다. 다양한 실시예에서, 작가, 편집자, 제작자, 또는 다른 사람은 프로그램의 제작 동안 위치를 결정할 수 있다. 이 규정은 디지털 컴퓨터 또는 임의의 다른 방법으로 실행하는 편집 소프트웨어를 사용하여 달성될 수도 있다.
다양한 실시예에서, 자막 텍스트를 나타내는 위치(들)는 평균 시차 값 또는 디스플레이된 이미지에 관련된 다른 파라미터에 기반하여 규정될 수도 있다. 예를 들어, 평균 시차 설정은 이미지의 평균 시차에 상대적으로 적절히 배치된 자막과 함께 (예를 들어, 임의의 종류의 가중되거나 가중되지 않은 평균화 기술을 사용하여) 계산될 수 있다. 시차 평균화는 적절히 배치된 자막과 함께 수신기에서 동적으로 수행될 수도 있다.
위치가 결정된 이후, 결정된 위치는 임의의 방법으로 규정되고 및/또는 설명될 수도 있다. 다양한 실시예에서, 자막의 위치는 프로그래밍 자체가 제공된 하나 이상의 위치 식별자에 의해 규정된다. 도 3을 참조하면, 텔레비전 또는 다른 프로그래밍을 제공하는 예시적인 데이터 구조 (300)는 프로그램 데이터에 대한 공간 (304)뿐만 아니라, 방송 자막 정보 (306)를 적절히 포함하는 임의의 종류의 데이터 필드 (302)를 적절히 포함한다. 방송 자막 정보 (306)는 시간 정보 (308), 위치 정보 (310), 및/또는 자막 텍스트 (312)를 적절히 포함할 수도 있다. 데이터 필드 (302)는 예를 들어, MPEG-규정된 또는 다른 헤더, 또는 임의의 다른 데이터 필드 또는 위치에 필요에 따라 포함될 수도 있다. 다양한 실시예에서, 방송 자막 정보 (306)는, 이러한 정보가 주요 비디오 이미지 (예를 들어, 프로그램 스트림에서 인코딩된 3차원 정보로) 또는 임의의 다른 관련된 위치 또는 합당한 위치로서 동일한 프로그램 스트림으로 균등하게 인코딩될지라도, MPEG 멀티플렉스 등 내의 보조적 또는 다른 프로그램 스트림으로서 제공된다. 자막 정보가 프로그래밍 자체와 개별적으로 제공되는 실시예에서, 방송 자막 정보는 프로그램 클럭 기준 (PCR) 또는 프로그램 내의 대화 및/또는 다른 액션과 함께 자막 텍스트 (312)의 좌표를 허용하는 다른 시간 식별자와 관련될 수도 있다.
위치 정보 (310)는 프로그램 데이터 (304) 내에 제공된 이미지의 유형에 의존하여 임의의 방법으로 규정될 수도 있다. 예를 들어, 종래 입체 이미지에서는, 위치 정보 (310)는 3차원 또는 유사 3D 공간에서 앵커 위치를 단순히 설명할 수도 있다. 즉, 정보 (310)는 자막 텍스트 (312)를 제공하는데 적합한 평면 영역 또는 다른 2차원 또는 3차원 폴리곤을 규정할 수도 있다. 이 폴리곤은 단일의 포인트, 또는 임의의 수의 포인트에 대하여 규정될 수도 있다. 예를 들어, 단일 포인트는 코너, 중앙 포인트, 또는 다른 기준을 규정할 수 있으며, 폴리곤의 나머지는 자막 텍스트 (312)의 콘텐츠, 및/또는 임의의 수의 초기값에 의해 규정된다. 폴리콘의 사이즈는 특정 자막 텍스트 (312)의 표현에 대한 단지 충분한 공간을 제공하도록 규정될 수도 있으며, 예를 들어, 사이즈는 임의의 해당 시간에 제공된 텍스트 (312)의 양에 응답하여 변한다. 다른 실시예에서, 복수의 포인트는 임의의 방법으로 규칙적인 형상의 폴리톤의 마주보는 코너들, 중앙 포인트들, 사이드 및/또는 다른 포인트들을 규정할 수 있다. 다른 실시예에서, 3개의 포인트는 평면 또는 디스플레이 (120) 상의 자막 텍스트 (312)를 나타내는데 적합한 다른 영역을 규정할 수 있다. 예를 들어, 다양한 포인트들 각각은 디스플레이에서의 화소 및/또는 오리진 (origin)의 포인트 또는 기준을 필요에 따라 사용하여 임의의 다른 유형의 절대 및/또는 상대 좌표에 관하여 임의의 방법으로 규정될 수도 있다.
다른 실시예에서, 입체적인 이미지 대신에 (또는 이에 부가하여) 깊이 맵 또는 다른 3차원 규정들을 사용하는 다른 실시예에서, 자막 위치 정보 (310)는 임의의 방법으로 폴리곤 또는 다른 결합 객체를 규정할 수 있다. 위치 정보 (310)는 자막 객체 (122)가 활성화되는 경우 및 자막이 활성화되지 않아 프로그래밍 스트림에서 다양한 객체의 정확한 공간 랜더링을 허용하는 경우 모두 어느 경우에도, 이미지를 설명하는 깊이 맵 정보를 더 포함할 수 있다. 또한, 위치 정보 (310)는 특정 실시예에 대해 적절히 임의의 종류의 포맷 또는 구조를 사용하여, 임의의 방법으로 자막 텍스트 (312)를 표현하는 위치를 규정할 수도 있다.
다양한 추가적인 특징들이 임의의 수의 추가적인 실시예에 제공될 수도 있다. 예를 들어, 둘 이상의 자막 데이터 (306) 세트가 제공되어 복수의 언어 또는 다른 포맷에서 자막을 수용할 수 있다. 자막 데이터 (306) 세트는 자신의 위치 정보 (310)를 가지기 때문에, 자막은 시청자에 의해 선택된 데이터 (306) 세트에 의존하여 상이한 위치들에서 디스플레이될 수 있다. 이 특징은 상이한 문자 세트들을 갖는 언어, 예를 들어, 수직적 방법 또는 다른 언어에서 상이한 공간적 방법으로 가장 편리한 일본, 히브리, 아랍 등과 같은 언어를 수용하기에 유용할 수도 있다. 즉, 영어 자막은 디스플레이 (120)의 바닥 또는 중앙에 표현될 수 있지만, 수직 언어의 자막은 디스플레이 (120)의 좌측 또는 우측을 향해 필요에 따라 표현될 수도 있다. 이 특징은 3-D 또는 유사 3D 디스플레이뿐만 아니라 본 명세서에서 개시된 다른 특징을 제공하지 않을 수도 있는 2차원 디스플레이에서 유용할 수도 있다. 2차원 디스플레이는, 따라서, 이러한 디스플레이가 3차원으로 이미지를 필수적으로 랜더링하지 않을 수도 있을지라도, 자막 데이터 (306) 내에 포함된 공간 정보 (310)를 일부 사용할 수도 있다.
도 4를 참조하면, 방송 자막 정보를 포함하는 3D 프로그래밍을 표현하는 예시적인 방법 (400)은 프로그래밍을 수신하는 단계 (단계 402), 자막 데이터 및 3차원 프로그래밍 내에서 자막 데이터에 대한 위치를 식별하는 위치 식별자를 포함하는 방송 자막 정보를 획득하는 단계 (단계 406), 및 디스플레이 (120) 상에 이미지를 랜더링하는 단계 (단계 414)를 적절히 포함한다. 다른 실시예들은 부가적으로 객체의 가림을 처리하고 (단계 410 및 412), 및/또는 사용자 선호도 및/또는 다른 정보를 적절히 사용하여 디스플레이 (120) 상에 자막 정보의 특정 위치를 결정할 수도 있다 (단계 408). 다양한 다른 단계 및 다른 특징들이 아래의 증가된 세부사항에서 개시하는 바와 같이 제공될 수도 있다.
일반적으로 언급하는 경우, 방법 (400)의 다양한 단계 및 특징은 임의의 플랫폼상에서 실행 및/또는 저장되는 임의의 종류의 하드웨어, 소프트웨어, 및/또는 펌웨어 로직으로 수행될 수도 있다. 방법 (400)의 일부 또는 전부는 예를 들어, 도 1의 수신기 (110) 내의 로직 실행에 의해 수행될 수도 있다. 일 실시예에서, 프로세서 (116)는 도 4에 도시된 다양한 단계 각각을 수행하는 소프트웨어 로직을 실행한다. 이러한 로직은 메모리 (118) 또는 프로세서 (116)에 이용가능한 임의의 다른 저장소에 필요에 따라 저장될 수도 있다. 따라서, 도 4에 도시된 임의의 다양한 단계를 구현하는 특정 로직 및 하드웨어는 본 명세서에서 주어진 다양한 특징, 시나리오, 및 구조에 따라 텍스트에서 텍스트, 구현에서 구현, 및 실시예에서 실시예로 변경될 수도 있다. 도 4에 도시된 다양한 단계들 각각을 구현하는데 사용된 특정 수단은 임의의 포맷으로 종래의 소프트웨어 로직을 실행할 수 있는 임의의 종류의 처리 구조일 수 있다. 이러한 처리 하드웨어는 도 1의 수신기 (110)의 프로세서 (116) 또는 다른 구성요소뿐만 아니라, 임의의 종래의 텔레비전, 수신기, 매체 플레이어 등과 관련된 임의의 다른 프로세서 또는 다른 구성요소를 포함할 수도 있다.
프로그래밍은 임의의 방법으로 수신될 수도 있다 (단계 402). 전술한 바와 같이, 다양한 실시예는 임의의 종류의 지상, 위성, 및/또는 케이블 방송으로부터 수신된 신호를 포함하는 방송 신호를 처리할 수도 있다. 다른 실시예들은 휴대용 매체, 또는 임의의 자원으로부터 수신된 임의의 종류의 스트리밍 또는 파일 기반 매체상에 저장된 프로그래밍을 처리할 수도 있다. 프로그래밍은 수신기에 의해 (예를 들어, 수신기 인터페이스 (112)에서) 적절히 수신되어, 디스플레이 (120) 상의 3D 이미지의 후속 처리 및 랜더링을 허용한다.
다양한 실시예들은 모드 (modal) 또는 유사한 방법으로 방송 자막 특징을 처리할 수도 있다 (단계 404). 즉, 방송 자막은 하나의 모드에서는 표시되며 또 다른 모드에서는 표시되지 않을 수도 있다. 자막은 시청자에 의해 임의의 종래의 방법으로 활성화되거나 활성화되지 않을 수도 있다.
전술한 바와 같이, 프로그램 정보는 자막 텍스트 (312) 및 자막 위치 정보 (310)을 포함하는 자막 정보 (306)와 함께 적절히 수신된다 (단계 406). 자막이 활성화되는 경우, 수신기 (110)는 자막 정보 (306)를 적절히 추출 및 처리하여, 원하는 방법으로 방송 자막 텍스트를 디스플레이한다. 이러한 정보는 전술한 바와 같이, 데이터 구조 (300) 또는 프로그램 콘텐츠 (304)를 전송하는데 사용된 다른 스트림으로부터 추출될 수도 있다. 이러한 정보는 종래의 MPEG 또는 다른 디코딩 기술을 적절히 사용하여 추출, 디코딩, 및/또는 그렇지 않은 경우 처리될 수도 있다.
방송 자막 정보의 위치는 임의의 적합한 방법으로 결정된다 (단계 408). 다양한 실시예에서, 자막 객체 (122)는 자막 데이터 (306)에 포함된 위치 식별 정보 (310)에 의해 적어도 부분적으로 규정된다. 전술한 바와 같이, 자막은 평면 또는 임의의 방법으로 규정될 수도 있는 다른 영역에 제공될 수도 있다. 또한, 자막은 특정 평면 또는 이미지 내의 다른 영역에 대하여 제공될 수도 있다. 양 케이스 중 하나에서, 영역의 특정 위치는 디스플레이 표면에 평행하거나 평행하지 않을 수도 있다. 이 위치는 사용자 선호도 정보 및/또는 다른 요소에 적절히 응답하여 더 수정될 수도 있다. 자막 정보 (306) 내에 포함된 기본 위치 정보는 몇몇 예가 되는 이미지 가림, 시차 설정, 시청자 위치, 사용된 장비, 3D 이미지의 평균 깊이, 동적 콘텐츠 자체, 다른 사용자 선호도 등에 응답하여 조정될 수도 있다. 사용자 정보는 임의의 인터페이스를 사용하여 입력될 수도 있으며, 예를 들어, 메모리 (118) 또는 그 외에 저장될 수도 있다.
수행될 수 있는 수정의 종류의 예로서, 자막 객체 (122) 등의 위치는 3D 디스플레이 (120) 상에 제공된 두 개의 입체 이미지 사이의 거리에 영향을 미치는 사용자에 의해 이루어진 시차 설정에 응답하여 조정될 수 있다. 시청자가 디스플레이 (120)에 상대적으로 근접하는 경우, 예를 들어, 디스플레이에 의해 생성된 3D 효과를 개선하기 위해 시청자가 디스플레이로부터 멀리 떨어지는 경우보다 더 낮은 시차 설정을 사용하는 것이 바람직하다. 즉, 입체 이미지가 더욱 서로 근접하는 경우, 먼 거리의 시청자보다 근접한 시청자가 더 양호한 경험을 가질 수도 있다. 결과적으로, 다수의 3D 디스플레이들은 시청자에 의해 조정될 수 있는 조정가능한 시차 설정을 제공할 수도 있다. 다양한 유형의 "3D" 설정은 균등한 특징을 제공할 수 있다. 종래의 시차 설정 대신에 3D 좌표를 사용하는 시스템에서, 예를 들어, 객체 위치는 이미지의 평균 시차, 이미지의 평균 깊이, 및/또는 임의의 다른 "3D" 파라미터에 비해 적절히 용이하게 번역가능하다. 시청자에 의해 이루어진 3D 유형의 조정 또는 설정은 본 명세서에서 개시된 시차 설정에 균등한 것으로 인식되어, 이러한 설정은 이미지의 평균 시차에 기반하여 객체 위치에 대한 절대적 또는 상대적 조정에 수학적으로 연관될 수 있다.
이러한 설정은 자막 텍스트를 제공하는데 사용된 자막 객체 (122)의 위치를 조정하는데 더 사용될 수 있다. 다양한 실시예들은 디스플레이된 이미지의 평균 시차를 결정하며, 평균 시차에 상대적으로 자막 텍스트의 위치를 원하는 데로 조정할 수 있다. 예를 들어, 객체 (122)가 디스플레이 (120)의 중앙선으로부터 멀리 위치한 경우, 중앙선으로부터의 교체는 시차 설정이 증가함에 따라 증가할 수도 있다. 대조적으로, 시차가 감소함에 따라 위치가 디스플레이 (120)의 중앙선에 근접하여 이동할 수도 있다. 다른 실시예에서, 객체 (122)의 명백한 위치는 제자리에 유지될 수도 있지만, 입체적 이미지의 상대적인 위치는 시차 설정에 기반하여 더 멀게 이동할 수도 있어, 개선된 시청 경험을 개선한다. 시차 설정에 응답하여 적용된 상대적인 거리 조정은 임의의 선형 또는 비선형 함수에 따라 원하는 바데로 규정될 수도 있다.
다른 실시예는 시차 설정에 부가하거나 대신하는 요소에 기반하여 자막 객체 (122)의 위치 및/또는 사이즈를 유사하게 조정할 수도 있다. 예를 들어, 디스플레이 (120)가 일반적이지 않은 형태 또는 사이즈인 경우, 조정은 정보 (306)에서 특정된 특정 위치에 이루어져, 사용가능한 특정 장비상에서의 시청을 개선한다. 고려될 수도 있는 다른 옵션은 시청자에 의해 선택된 폰트 유형 또는 사이즈, 시청자 또는 다른 이들에 의해 설정될 수도 있는 컬러 설정 및/또는 임의의 다른 파라미터를 적절히 포함한다. 프로그램 작가/제작자에 의해 제공된 일반 정보는 다양한 실시예에서 시청자 선호도에 의해 향상, 수정 또는 무시될 수 있다.
전술한 바와 같이, 가림 효과가 사용되어 3D 시청 경험을 더욱 향상시킬 수도 있다 (단계 410, 412). 다양한 실시예에서, 자막 객체 (122)는 시청자의 관점으로부터 다른 옵션이 객체 (122)의 "앞에" 또는 "뒤에" 위치하게 하는 방법으로 3차원 공간에서 규정된다. 다른 객체들의 앞의 객체들은 전술한 바와 같이 가리는 객체 뒤에 위치한 이미지의 일부 또는 모두 가리거나 방해할 수 있다. 다양한 실시예에서, 자막 객체 (122)는 종래의 사진 측량 기술을 사용하여 처리된 가림으로, 디스플레이 (120) 상에 제공된 임의의 다른 3차원 객체와 동일한 방법으로 단순히 규정된다. 즉, 디스플레이 (120) 상에 제공된 다양한 객체의 사용가능한 다양한 측정 데이터를 사용하여, 3-D 또는 유사한 이미지가 인테그랄 (integral) 방법으로 방송 자막 정보를 제공하는 디스플레이상에 구축될 수 있다.
처리된 이미지는 임의의 방법으로 랜더링될 수도 있다 (단계 414). 다양한 실시예에서, 이미지는 셋톱 박스, 미디어 플레이어, 다른 수신기 (110)로부터 임의의 종류의 인터페이스 (114) (예를 들어, HDMI 인터페이스)를 사용하는 외부 디스플레이 (120)로 제공된다. 다른 실시예에서, 인터페이스 (114)는 집적된 디스플레이 (120)를 구동할 수 있는 임의의 신호 생성 특성을 간단히 표현한다. 예를 들어, 종래의 텔레비전 등에서, 수신기 (110) 및 디스플레이 (120)의 기능은 공통 디바이스에 집적될 수도 있다. 따라서, 디스플레이 (120) 상의 표현을 위한 이미지의 랜더링은 임의의 종류의 디코딩, 이미지 처리, 이미지 랜더링, 압축해제, 및/또는 종래 매체 처리와 보통 관련된 다른 특징일 수도 있다.
도 5는 3D 콘텐츠를 생성하는 단계 (단계 502), 자막 데이터의 위치를 결정하는 단계 (단계 504), 위치 정보를 식별 및 인코딩하는 단계 (단계 506 및 단계 508), 및 인코딩된 프로그래밍을 원하는 데로 분배하는 단계 (단계 510)를 포함하는 3D 프로그래밍을 제작하는 예시적인 프로세스 (500)를 도시한다. 프로세스 (500)는 임의의 종류의 소프트웨어를 적절히 실행하는 임의의 종류의 디지털 컴퓨터상에서 부분적으로 또는 전체적으로 수행될 수도 있다. 전술한 바와 같이, 프로세스 (500)는 프로그램 콘텐츠의 제작, 분재, 및/또는 전송 동안 수행될 수도 있다.
콘텐츠를 생성하는 단계 (단계 502)는 3D 타입의 콘텐츠를 임의의 방법으로 생성하는 단계를 적절히 포함한다. 예를 들어, 콘텐츠는 라이브 카메라 공급 (feed), 또는 임의의 종래의 텔레비전, 시네마 또는 다른 매체 제작 기술로부터 제작될 수도 있다. 자막 이미지는 편집된 프로그램 제품을 생성하도록 임의의 방법으로 제작될 수도 있으며, 임의의 방송, 시네마, 스트리밍, 또는 저장된 매체 상에서의 분배를 위해 제작될 수도 있다. 제작된 콘텐츠는 디지털 포맷 또는 디지털 매체 (예를 들어, 메모리 또는 하드 드라이브) 상에 저장될 수 있으며, 후속 처리를 위해 편집 프로그램에 부분적이거나 전체적으로 로딩될 수 있는 임의의 다른 포맷으로 표현될 수도 있다. 콘텐츠를 생성하는 단계 502는, 제작된 콘텐츠를 디지털 편집 시스템 등으로 로딩하는 단계를 균등하게 의미할 수도 있다.
자막에 대한 위치는 임의의 방법으로 결정될 수도 있다 (단계 504). 다양한 실시예에서, 편집 소프트웨어는 제작된 콘텐츠를 디스플레이하며, 편집자 또는 제작자가 콘텐츠 표현에 적합한 스크린상의 디스플레이의 부분을 선택하게 한다. 이러한 부분은 임의의 종류의 마우스 구동 또는 그래픽 사용자 입력에 기반한 유사한 툴을 포함하는 임의의 종류의 선택 툴, 또는 그림 (drawing) 툴을 사용하여 선택될 수도 있다. 다양한 실시예에서, 자막의 위치는 평균 시차 및/또는 다른 요소에 적절히 응답하여 할당될 수도 있다. 예로서, 인코딩 시스템은 디스플레이된 이미지의 평균 시차를 결정하며, 연산된 평균 시차에 대하여 자막 데이터를 제공하기 위한 위치를 선택할 수 있다.
전술한 바와 같이, 특정 자막 위치는 임의의 방법 (단계 506)으로 식별될 수도 있다. 예를 들어, 위치 식별자는 이미지 내부의 절대적 또는 상대적 좌표에 관련될 수도 있거나, 적절한 깊이 정보 등으로 공간 객체를 간단히 규정할 수도 있다. 식별자는 수신기 (110)에 의해 디코딩될 수 있는 임의의 포맷으로 생성될 수도 있다.
그 후, 프로그램 정보는 자막 위치 식별자로 적절히 인코딩된다. 상기 도 3에 대해 언급한 바와 같이, 자막 위치 식별자는 임의의 방법으로 프로그래밍 스트림으로 인코딩될 수도 있다. 인코딩된 프로그래밍 스트림은 전송되거나 그렇지 않은 경우 임의의 방법으로 후속 보기를 위해 분배될 수도 있다.
전술한 일반 시스템, 구조, 및 기술은 내부 결합되고, 향상되고, 수정되며, 및/또는 그렇지 않은 경우 개선되어 임의의 수의 상이한 특징을 제공할 수도 있다. 특히, 용어 "예시적인"은 임의의 수의 대체물을 가질 수도 있는 하나의 예, 예시 또는 설명을 나타내기 위해 본 명세서에서 사용된다. 본 명세서에서 "예시적인"으로 설명된 구현은 다른 구현에 대해 선호되거나 유리하게 이해되어서는 안된다. 몇몇 예시적인 실시예가 상세한 설명에 제공되었지만, 균등한 변형물 이외의 다수의 대체물이 존재하며, 본 명세서에서 제공된 예들은 본 발명의 범위, 적용 가능성, 또는 구성을 어떠한 방법으로도 제한하는 것으로 의도되지 않는다. 대조적으로, 특허청구범위 및 이들의 법적 균등물의 범위로부터 벗어나지 않고, 다양한 변형물이 본 명세서에서 개시된 다양한 특징의 기능 및 배열로 이루어질 수도 있다.

Claims (33)

  1. 자막 데이터 및 3차원 프로그래밍 내의 상기 자막 데이터의 위치를 특정하는 위치 식별자를 포함하는 방송 자막 (closed caption) 정보를 포함하는 상기 3차원 프로그래밍을 수신하도록 구성된 수신기 인터페이스;
    상기 3차원 프로그래밍에 대응하는 이미지를 랜더링하도록 구성된 프로세서를 포함하며, 상기 이미지는 상기 3차원 프로그래밍 내의 특정 위치에 랜더링된 자막 데이터를 포함하는, 3차원 프로그래밍 디스플레이 시스템.
  2. 제 1항에 있어서,
    상기 프로세서는 상기 3차원 프로그래밍 내의 상기 자막 데이터의 가림을 처리하도록 더 구성되는, 3차원 프로그래밍 디스플레이 시스템.
  3. 제 2항에 있어서,
    상기 프로세서는 상기 위치 식별자에 응답하여 상기 3차원 프로그래밍 내의 상기 자막 데이터의 위치를 결정하며, 상기 자막 데이터를 가리는 상기 3차원 프로그래밍 내의 가림 객체들을 식별함으로써, 상기 자막 데이터의 가림을 처리하도록 구성되는, 3차원 프로그래밍 디스플레이 시스템.
  4. 제 3항에 있어서,
    상기 프로세서는 상기 자막 데이터의 적어도 일부를 가리는 방법으로 상기 가림 객체들을 제공함으로써, 상기 3차원 프로그래밍에 대응하는 이미지를 랜더링하도록 더 구성되는, 3차원 프로그래밍 디스플레이 시스템.
  5. 제 4항에 있어서,
    시차 (parallax) 설정을 포함하는 사용자 구성 정보를 저장하도록 구성된 메모리를 더 포함하며, 상기 프로세서는 상기 3차원 프로그래밍 내의 상기 자막 데이터의 위치를 상기 시차 설정의 함수로서 결정하도록 더 구성되는, 3차원 프로그래밍 디스플레이 시스템.
  6. 제 1항에 있어서,
    상기 프로세서는 상기 3차원 프로그래밍의 평균 시차를 결정하며, 상기 평균 시차에 관한 상기 자막 데이터를 포함하는 상기 이미지를 랜더링하도록 더 구성되는, 3차원 프로그래밍 디스플레이 시스템.
  7. 제 6항에 있어서,
    상기 프로세서는 상기 평균 시차에 관하여 규정된 평면 영역에 관한 상기 자막 데이터를 랜더링하도록 다 구성되는, 3차원 프로그래밍 디스플레이 시스템.
  8. 제 1항에 있어서,
    시차 설정을 포함하는 사용자 구성 정보를 저장하도록 구성된 메모리를 더 포함하며, 상기 프로세서는 상기 3차원 프로그래밍 내의 상기 자막 데이터를 상기 시차 설정의 함수로서 랜더링하도록 더 구성되는, 3차원 프로그래밍 디스플레이 시스템.
  9. 제 1항에 있어서,
    디스플레이 인터페이스를 더 포함하며, 상기 프로세서는 상기 랜더링된 이미지에 대응하는 출력 신호들을 생성하도록 더 구성되는, 3차원 프로그래밍 디스플레이 시스템.
  10. 제 1항에 있어서,
    상기 3차원 프로그래밍에 대응하는 상기 랜더링된 이미지를 제공하도록 구성된 디스플레이를 더 포함하는, 3차원 프로그래밍 디스플레이 시스템.
  11. 제 10항에 있어서,
    상기 디스플레이는 3차원 디스플레이 및 유사 3차원 디스플레이 중 하나인, 3차원 프로그래밍 디스플레이 시스템.
  12. 제 1항에 있어서,
    상기 위치 식별자는 상기 3차원 프로그래밍 내의 폴리곤 (polygon)을 규정하는, 3차원 프로그래밍 디스플레이 시스템.
  13. 제 12항에 있어서,
    상기 폴리곤은 상기 디스플레이에 평행하는, 3차원 프로그래밍 디스플레이 시스템.
  14. 제 1항에 있어서,
    상기 위치 식별자는 상기 3차원 프로그래밍 내의 평면 영역을 규정하는, 3차원 프로그래밍 디스플레이 시스템.
  15. 제 1항에 있어서,
    상기 위치 식별자는 제 1 이미지의 제 1 위치 및 제 2 이미지의 제 2 위치를 규정하는, 3차원 프로그래밍 디스플레이 시스템.
  16. 제 1항에 있어서,
    위치 식별자는 3차원 디스플레이 공간의 좌표를 규정하는, 3차원 프로그래밍 디스플레이 시스템.
  17. 자막 데이터 및 3차원 프로그래밍 내의 상기 자막 데이터의 위치를 특정하는 위치 식별자를 포함하는 방송 자막 (closed caption) 정보를 포함하는 상기 3차원 프로그래밍을 수신하는 단계;
    상기 3차원 프로그래밍 내의 특정 위치에 상기 자막 데이터를 랜더링하도록 상기 수신된 3차원 프로그래밍을 처리하는 단계; 및
    상기 3차원 프로그래밍을 디스플레이상에 제공하는 단계를 포함하는, 디스플레이상의 3차원 프로그래밍 제공 방법.
  18. 제 17항에 있어서,
    상기 처리하는 단계는, 상기 3차원 프로그래밍 내의 상기 자막 데이터의 가림을 처리하는 단계를 포함하는, 디스플레이상의 3차원 프로그래밍 제공 방법.
  19. 제 18항에 있어서,
    상기 자막 데이터의 가림을 처리하는 단계는,
    상기 위치 식별자에 응답하여 상기 3차원 프로그래밍 내의 상기 자막 데이터의 위치를 결정하는 단계, 및 상기 자막 데이터를 가리는 상기 3차원 프로그래밍 내의 가림 객체들을 식별하는 단계를 포함하는, 디스플레이상의 3차원 프로그래밍 제공 방법.
  20. 제 19항에 있어서,
    상기 처리하는 단계는, 상기 자막 데이터의 적어도 일부를 가리는 방법으로 상기 가림 객체들을 제공함으로써, 상기 3차원 프로그래밍에 대응하는 이미지를 랜더링하는 단계를 포함하는, 디스플레이상의 3차원 프로그래밍 제공 방법.
  21. 제 17항에 있어서,
    상기 처리하는 단계는, 상기 3차원 프로그래밍 내의 상기 자막 데이터의 위치를 사용자에 의해 특정된 시차 설정의 함수로서 결정하는 단계를 포함하는, 디스플레이상의 3차원 프로그래밍 제공 방법.
  22. 제 17항에 있어서,
    상기 처리하는 단계는, 상기 이미지의 평균 시차를 계산하여 상기 평균 시차에 관해 자막을 배치하는 단계를 포함하는, 디스플레이상의 3차원 프로그래밍 제공 방법.
  23. 제 17항에 있어서,
    상기 위치 식별자는 상기 3차원 프로그래밍 내의 폴리곤을 규정하는, 디스플레이상의 3차원 프로그래밍 제공 방법.
  24. 제 17항에 있어서,
    상기 위치 식별자는 상기 3차원 프로그래밍 내의 평면 영역을 규정하는, 디스플레이상의 3차원 프로그래밍 제공 방법.
  25. 제 17항에 있어서,
    상기 위치 식별자는 제 1 이미지의 제 1 위치 및 제 2 이미지의 제 2 위치를 규정하는, 디스플레이상의 3차원 프로그래밍 제공 방법.
  26. 3차원 프로그래밍 내에 자막 데이터를 제공하는 적합한 위치들을 결정하는 단계;
    위치 식별자로 상기 적합한 위치들 각각을 식별하는 단계; 및
    상기 3차원 프로그래밍으로 방송 자막 (closed caption) 정보를 인코딩하는 단계를 포함하며,
    상기 방송 자막 정보는 자막 데이터 및 3차원 프로그래밍 내의 상기 자막 데이터에 대한 적합한 위치를 특정하는 위치 식별자를 포함하는, 3차원 프로그래밍 제작 방법.
  27. 제 26항에 있어서,
    상기 위치 식별자는 상기 3차원 프로그래밍 내의 폴리곤을 규정하는, 3차원 프로그래밍 제작 방법.
  28. 제 26항에 있어서,
    상기 위치 식별자는 상기 3차원 프로그래밍 내의 평면 영역을 규정하는, 3차원 프로그래밍 제작 방법.
  29. 제 26항에 있어서,
    상기 위치 식별자는 제 1 이미지의 제 1 위치 및 제 2 이미지의 제 2 위치를 규정하는, 3차원 프로그래밍 제작 방법.
  30. 제 26항에 있어서,
    상기 인코딩된 방송 자막 정보를 갖는 상기 3차원 프로그래밍을 저장 매체에 저장하는 단계를 더 포함하는, 3차원 프로그래밍 제작 방법.
  31. 제 26항에 있어서,
    상기 인코딩된 방송 자막 정보를 갖는 상기 3차원 프로그래밍을 수신기에 전송하는 단계를 더 포함하는, 3차원 프로그래밍 제작 방법.
  32. 제 26항에 있어서,
    상기 인코딩된 방송 자막 정보를 갖는 상기 3차원 프로그래밍이 지상 텔레비전 방송, 위성 방송, 및 케이블 텔레비전 링크 중 적어도 하나를 통해 전송되는, 3차원 프로그래밍 제작 방법.
  33. 제 26항에 있어서,
    상기 결정하는 단계는, 상기 3차원 프로그래밍의 평균 시차를 계산하는 단계, 및 상기 평균 시차에 관해 상기 자막 데이터를 제공하기 위한 위치를 선택하는 단계를 포함하는, 3차원 프로그래밍 제작 방법.
KR1020117017446A 2009-01-27 2010-01-15 3차원 이미지에서의 방송 자막을 제공하는 시스템 및 방법 KR101289542B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/360,659 2009-01-27
US12/360,659 US8269821B2 (en) 2009-01-27 2009-01-27 Systems and methods for providing closed captioning in three-dimensional imagery
PCT/US2010/021171 WO2010088070A1 (en) 2009-01-27 2010-01-15 Systems and methods for providing closed captioning in three-dimensional imagery

Publications (2)

Publication Number Publication Date
KR20110112823A true KR20110112823A (ko) 2011-10-13
KR101289542B1 KR101289542B1 (ko) 2013-07-24

Family

ID=42026754

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117017446A KR101289542B1 (ko) 2009-01-27 2010-01-15 3차원 이미지에서의 방송 자막을 제공하는 시스템 및 방법

Country Status (14)

Country Link
US (3) US8269821B2 (ko)
EP (1) EP2392133B1 (ko)
JP (1) JP5321694B2 (ko)
KR (1) KR101289542B1 (ko)
CN (1) CN102292977B (ko)
AU (1) AU2010208541B2 (ko)
BR (1) BRPI1007396A2 (ko)
CA (1) CA2750615C (ko)
IL (1) IL213941A (ko)
MX (1) MX2011007249A (ko)
MY (1) MY154094A (ko)
SG (1) SG173136A1 (ko)
TW (1) TWI445405B (ko)
WO (1) WO2010088070A1 (ko)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8358331B2 (en) 2008-12-02 2013-01-22 Lg Electronics Inc. 3D caption display method and 3D display apparatus for implementing the same
US8269821B2 (en) 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery
CN102439980B (zh) * 2009-02-12 2014-12-10 Lg电子株式会社 广播接收机及其3d字幕数据处理方法
JP2010268431A (ja) * 2009-04-15 2010-11-25 Sony Corp データ構造、記録媒体、再生装置および再生方法、並びにプログラム
JP5369952B2 (ja) * 2009-07-10 2013-12-18 ソニー株式会社 情報処理装置および情報処理方法
WO2011008821A1 (en) * 2009-07-15 2011-01-20 Home Box Office, Inc. Identification of 3d format and graphics rendering on 3d displays
CN102474638B (zh) * 2009-07-27 2015-07-01 皇家飞利浦电子股份有限公司 组合3d视频与辅助数据
JP2011097441A (ja) * 2009-10-30 2011-05-12 Sony Corp 情報処理装置、画像表示方法及びコンピュータプログラム
KR20110053159A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 재생을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
KR101631451B1 (ko) * 2009-11-16 2016-06-20 엘지전자 주식회사 영상표시장치 및 그 동작방법
US10462414B2 (en) 2009-12-31 2019-10-29 Cable Television Laboratories, Inc. Method and system for generation of captions over stereoscopic 3D images
US9049431B2 (en) * 2009-12-31 2015-06-02 Cable Television Laboratories, Inc. Method and system for generation of captions over stereoscopic 3D images
US20130002656A1 (en) * 2010-01-13 2013-01-03 Thomson Licensing System and method for combining 3d text with 3d content
CN102812711B (zh) * 2010-02-25 2016-11-02 汤姆森特许公司 利用视差估计和视差时间变化限制的立体字幕加载
US8817072B2 (en) * 2010-03-12 2014-08-26 Sony Corporation Disparity data transport and signaling
US8760498B2 (en) 2011-03-14 2014-06-24 Sony Corporation Disparity data transport in standard caption service
JP5143856B2 (ja) * 2010-04-16 2013-02-13 株式会社ソニー・コンピュータエンタテインメント 3次元画像表示装置、および3次元画像表示方法
KR20110138151A (ko) * 2010-06-18 2011-12-26 삼성전자주식회사 자막 서비스를 포함하는 디지털 방송 서비스를 제공하기 위한 비디오 데이터스트림 전송 방법 및 그 장치, 자막 서비스를 포함하는 디지털 방송 서비스를 제공하는 비디오 데이터스트림 수신 방법 및 그 장치
JP4996720B2 (ja) * 2010-06-30 2012-08-08 株式会社東芝 画像処理装置、画像処理プログラム、及び画像処理方法
US8922631B1 (en) * 2010-07-06 2014-12-30 Lucasfilm Entertainment Company Ltd. Presenting multiple viewer content on a single screen
KR20120004203A (ko) * 2010-07-06 2012-01-12 삼성전자주식회사 디스플레이 방법 및 장치
US8528017B2 (en) * 2010-07-20 2013-09-03 Sony Corporation Carriage of closed data through digital interface using packets
IT1401367B1 (it) * 2010-07-28 2013-07-18 Sisvel Technology Srl Metodo per combinare immagini riferentesi ad un contenuto tridimensionale.
US9571811B2 (en) 2010-07-28 2017-02-14 S.I.Sv.El. Societa' Italiana Per Lo Sviluppo Dell'elettronica S.P.A. Method and device for multiplexing and demultiplexing composite images relating to a three-dimensional content
US8605136B2 (en) * 2010-08-10 2013-12-10 Sony Corporation 2D to 3D user interface content data conversion
US10134150B2 (en) 2010-08-10 2018-11-20 Monotype Imaging Inc. Displaying graphics in multi-view scenes
KR101816846B1 (ko) * 2010-08-19 2018-01-12 삼성전자주식회사 디스플레이 장치 및 이에 적용되는 osd 제공방법
CN102137264B (zh) * 2010-08-25 2013-03-13 华为技术有限公司 一种三维电视中图形文本显示的控制方法及设备、系统
JP5545140B2 (ja) * 2010-09-07 2014-07-09 ソニー株式会社 表示制御装置、表示制御方法、及びプログラム
JP5364666B2 (ja) * 2010-09-13 2013-12-11 株式会社東芝 立体画像表示装置、方法およびプログラム
JP5477349B2 (ja) * 2010-09-30 2014-04-23 カシオ計算機株式会社 画像合成装置、及び画像検索方法、プログラム
JP5209082B2 (ja) * 2011-04-19 2013-06-12 株式会社東芝 情報処理装置、情報処理方法およびプログラム
US20120293636A1 (en) * 2011-05-19 2012-11-22 Comcast Cable Communications, Llc Automatic 3-Dimensional Z-Axis Settings
JP2013064996A (ja) * 2011-08-26 2013-04-11 Nikon Corp 三次元画像表示装置
JP5439455B2 (ja) * 2011-10-21 2014-03-12 富士フイルム株式会社 電子コミック編集装置、方法及びプログラム
JP2013118468A (ja) * 2011-12-02 2013-06-13 Sony Corp 画像処理装置および画像処理方法
EP2627093A3 (en) 2012-02-13 2013-10-02 Thomson Licensing Method and device for inserting a 3D graphics animation in a 3D stereo content
US20150113558A1 (en) * 2012-03-14 2015-04-23 Panasonic Corporation Receiver apparatus, broadcast/communication-cooperation system, and broadcast/communication-cooperation method
US9628865B2 (en) * 2012-09-10 2017-04-18 Apple Inc. Enhanced closed caption feature
CN103796060B (zh) * 2012-11-26 2017-07-28 深圳Tcl新技术有限公司 电视机及其cc模式识别显示方法、装置
US9668015B2 (en) * 2012-11-28 2017-05-30 Sony Corporation Using extra space on ultra high definition display presenting high definition video
CN103065606A (zh) * 2012-12-20 2013-04-24 苏州佳世达电通有限公司 显示画面的特定区域的遮挡方法及遮挡系统
US9131280B2 (en) * 2013-03-15 2015-09-08 Sony Corporation Customizing the display of information by parsing descriptive closed caption data
US9173004B2 (en) 2013-04-03 2015-10-27 Sony Corporation Reproducing device, reproducing method, program, and transmitting device
CN104581341B (zh) * 2013-10-24 2018-05-29 华为终端有限公司 一种字幕显示方法及字幕显示设备
US10158847B2 (en) * 2014-06-19 2018-12-18 Vefxi Corporation Real—time stereo 3D and autostereoscopic 3D video and image editing
US9992441B2 (en) * 2015-01-05 2018-06-05 Lattice Semiconductor Corporation Displaying multiple videos on sink device using display information of source device
US20170345192A1 (en) * 2015-09-10 2017-11-30 Apple Inc. Systems and methods for displaying content of digital media
CN105447812B (zh) * 2015-11-10 2018-11-27 南京大学 一种基于线状阵列的三维活动图像显示及信息隐藏方法
JP6841230B2 (ja) * 2015-12-18 2021-03-10 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
CN108924636A (zh) * 2018-06-29 2018-11-30 北京优酷科技有限公司 字幕显示方法及装置
WO2022016306A1 (en) * 2020-07-20 2022-01-27 Arris Enterprises Llc Method and system for displaying an electronic program guide in a bullet screen format

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5148272A (en) * 1991-02-27 1992-09-15 Rca Thomson Licensing Corporation Apparatus for recombining prioritized video data
US5400401A (en) * 1992-10-30 1995-03-21 Scientific Atlanta, Inc. System and method for transmitting a plurality of digital services
US5493339A (en) * 1993-01-21 1996-02-20 Scientific-Atlanta, Inc. System and method for transmitting a plurality of digital services including compressed imaging services and associated ancillary data services
US5745184A (en) * 1993-08-20 1998-04-28 Thomson Consumer Electronics, Inc. Closed caption system for use with compressed digital video transmission
EP0641132B1 (en) * 1993-08-26 1999-04-14 Matsushita Electric Industrial Co., Ltd. Stereoscopic image pickup apparatus
JP3771964B2 (ja) * 1996-03-12 2006-05-10 オリンパス株式会社 立体映像ディスプレイ装置
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
US6057847A (en) 1996-12-20 2000-05-02 Jenkins; Barry System and method of image generation and encoding using primitive reprojection
JPH11289555A (ja) * 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
US6466185B2 (en) * 1998-04-20 2002-10-15 Alan Sullivan Multi-planar volumetric display system and method of operation using psychological vision cues
JP3708001B2 (ja) * 2000-07-25 2005-10-19 株式会社クボタ 作業車の動力取り出し部構造
US7720308B2 (en) * 2002-09-27 2010-05-18 Sharp Kabushiki Kaisha 3-D image display unit, 3-D image recording device and 3-D image recording method
CN1703915A (zh) 2002-09-27 2005-11-30 夏普株式会社 3-d图像显示单元,3-d图像记录装置和3-d图像记录方法
JP2004274125A (ja) 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
DE602004008794T2 (de) 2003-09-30 2008-06-12 Koninklijke Philips Electronics N.V. Bildwiedergabe mit interaktiver bewegungsparallaxe
JP3919790B2 (ja) 2005-03-14 2007-05-30 株式会社コナミデジタルエンタテインメント メッセージ画像表示装置、メッセージ画像表示装置の制御方法及びプログラム
US8305398B2 (en) * 2005-07-01 2012-11-06 Microsoft Corporation Rendering and compositing multiple applications in an interactive media environment
US8108787B2 (en) * 2005-07-01 2012-01-31 Microsoft Corporation Distributing input events to multiple applications in an interactive media environment
KR100753517B1 (ko) 2005-10-12 2007-08-31 엘지전자 주식회사 입체 영상 디스플레이 기능을 갖는 이동통신 단말기 및이를 이용한 입체 영상 디스플레이 방법
JP4463215B2 (ja) * 2006-01-30 2010-05-19 日本電気株式会社 立体化処理装置及び立体情報端末
WO2008011522A2 (en) 2006-07-19 2008-01-24 Indiana University Research And Technology Corporation Integrated and optimized distributed generation and interconnect system controller
CN101653011A (zh) * 2007-03-16 2010-02-17 汤姆森许可贸易公司 用于将文本与三维内容相结合的系统和方法
KR100884664B1 (ko) * 2007-05-30 2009-02-18 주식회사 휴맥스 디지털 방송 수신기에서의 서브타이틀 표시 장치 및 방법
KR101362647B1 (ko) * 2007-09-07 2014-02-12 삼성전자주식회사 2d 영상을 포함하는 3d 입체영상 파일을 생성 및재생하기 위한 시스템 및 방법
EP2211347B1 (en) * 2007-11-01 2013-01-16 Panasonic Corporation Recording medium, reproducing device, recording device, reproducing method, and recording method
JP5697989B2 (ja) * 2007-12-26 2015-04-08 コーニンクレッカ フィリップス エヌ ヴェ グラフィックスオブジェクトを重ね合わせるための画像プロセッサ
US8547382B2 (en) * 2008-05-30 2013-10-01 Advanced Micro Devices, Inc. Video graphics system and method of pixel data compression
US8233241B2 (en) * 2008-07-31 2012-07-31 Hitachi Global Storage Technologies, Netherlands B.V. Positioning weight assemblies along a dynamic loop section of a flex cable to reduce flex cable oscillation
US8269821B2 (en) 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery

Also Published As

Publication number Publication date
US20100188572A1 (en) 2010-07-29
US20160182878A1 (en) 2016-06-23
EP2392133A1 (en) 2011-12-07
WO2010088070A1 (en) 2010-08-05
IL213941A0 (en) 2011-07-31
US10390000B2 (en) 2019-08-20
SG173136A1 (en) 2011-08-29
CN102292977A (zh) 2011-12-21
AU2010208541B2 (en) 2014-05-08
TW201036437A (en) 2010-10-01
CA2750615A1 (en) 2010-08-05
JP2012516505A (ja) 2012-07-19
TWI445405B (zh) 2014-07-11
CN102292977B (zh) 2014-06-18
MX2011007249A (es) 2011-08-03
EP2392133B1 (en) 2017-03-01
KR101289542B1 (ko) 2013-07-24
US8269821B2 (en) 2012-09-18
US9300894B2 (en) 2016-03-29
US20130002833A1 (en) 2013-01-03
IL213941A (en) 2016-02-29
CA2750615C (en) 2015-05-26
JP5321694B2 (ja) 2013-10-23
BRPI1007396A2 (pt) 2016-02-16
MY154094A (en) 2015-04-30
AU2010208541A1 (en) 2011-07-28

Similar Documents

Publication Publication Date Title
KR101289542B1 (ko) 3차원 이미지에서의 방송 자막을 제공하는 시스템 및 방법
US10158841B2 (en) Method and device for overlaying 3D graphics over 3D video
KR101315081B1 (ko) 서브타이틀들의 3d 디스플레이 처리
KR101987820B1 (ko) 고 해상도 컨텐츠를 처리하는 컨텐츠 처리 장치 및 그 방법
KR101834263B1 (ko) 3차원(3d) 프리젠테이션에서의 서브타이틀들
US20110293240A1 (en) Method and system for transmitting over a video interface and for compositing 3d video and 3d overlays
KR20110018262A (ko) 부가 데이터의 3차원 재생을 위한 신호 처리 방법 및 장치
WO2013046281A1 (ja) 映像処理装置及び映像処理方法
AU2011202552B2 (en) 3D display handling of subtitles
KR20160118076A (ko) 디지털 방송에서 자막 처리 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160616

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170616

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190617

Year of fee payment: 7