KR101295451B1 - 시차 데이터 전송 및 시그널링 - Google Patents

시차 데이터 전송 및 시그널링 Download PDF

Info

Publication number
KR101295451B1
KR101295451B1 KR1020117010282A KR20117010282A KR101295451B1 KR 101295451 B1 KR101295451 B1 KR 101295451B1 KR 1020117010282 A KR1020117010282 A KR 1020117010282A KR 20117010282 A KR20117010282 A KR 20117010282A KR 101295451 B1 KR101295451 B1 KR 101295451B1
Authority
KR
South Korea
Prior art keywords
parallax
closed caption
data
caption
value
Prior art date
Application number
KR1020117010282A
Other languages
English (en)
Other versions
KR20120042711A (ko
Inventor
마크 케네스 아이어
이꾸오 쯔까고시
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20120042711A publication Critical patent/KR20120042711A/ko
Application granted granted Critical
Publication of KR101295451B1 publication Critical patent/KR101295451B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

클로즈 캡션 시차 데이터를 디코딩하는 방법은 TV 수신기가 프레임 간격/기울기 변화 쌍의 시퀀스로서 인코딩된 3D 디스플레이에 대한 클로즈 캡션 시차 데이터를 수신하는 단계 - 프레임 간격은 시차를 나타내는 각각의 선형 함수가 이전 세그먼트의 기울기로부터의 기울기 변화를 나타내는 값과 쌍으로 적용되는 지정된 프레임 수를 나타냄 - 를 포함한다. 시퀀스에서의 첫번째 세그먼트는 참조로서 소정의 기울기를 가정한다. 캡션 데이터 패킷의 시퀀스는 클로즈 캡션 텍스트를 포함하는 클로즈 캡션 디스플레이 창을 지정한다. 클로즈 캡션 디스플레이 창의 인지된 z-축 위치를 설정하는 CC 디스플레이의 좌안 뷰 및 우안 뷰의 수평 오프셋을 결정하기 위해 각각의 프레임에서 시차 값이 사용된다. 다른 실시예들이 이 요약에 기술된 특징들로부터 벗어날 수 있기 때문에, 이 요약이 제한하는 것으로 생각되어서는 안된다.

Description

시차 데이터 전송 및 시그널링{DISPARITY DATA TRANSPORT AND SIGNALING}
관련 문서의 상호 참조
본 출원은 2010년 11월 22일자로 출원된 발명의 명칭이 "Service Linkage to Caption Disparity Data Transport(캡션 시차 데이터 전송에 대한 서비스 연계)"인 Mark Eyer 등의 미국 가특허 출원 제61/415,924호를 기초로 우선권을 주장하고, 본 출원은 미국 가특허 출원인, 2010년 11월 19일자로 출원된 발명의 명칭이 “Disparity Data Signaling and Transport for 3D Captioning(3D 캡션에 대한 시차 데이터 시그널링 및 전송)”인 Mark Eyer 등의 제61/415,457호, 2010년 5월 20일자로 출원된 발명의 명칭이 “Disparity Data Transport(시차 데이터 전송)”인 Mark Eyer 등의 제61/346,652호, 및 2010년 3월 12일자로 출원된 Mark Eyer 등의 제61/313,612호를 기초로 우선권을 주장하며, 본 출원은 2010년 3월 23일자로 출원된 발명의 명칭이 "Extended Command Stream for CEA-708 Captions(CEA-708 캡션에 대한 확장 명령 스트림)"인 Mark Eyer 등의 미국 가특허 출원 제61/316,733호를 기초로 우선권을 주장하고, 본 출원은 2010년 8월 31일자로 출원된 발명의 명칭이 "Efficient Transport of Frame-by-Frame Change in Captioning Disparity Data(캡션 시차 데이터의 프레임별 변화의 효율적 전송)"인 Mark Eyer의 미국 가특허 출원 제61/378,792호를 기초로 우선권을 주장하며, 이들 미국 가특허 출원 각각은 참조 문헌으로서 그 전체 내용이 본 명세서에 포함된다.
저작권 고지
이 특허 문서의 개시 내용의 일부분은 저작권 보호를 받는 내용을 포함하고 있다. 저작권 소유자는 특허청의 특허 파일 또는 기록에 나와 있는 그대로 특허 문서 또는 특허 개시 내용을 팩시밀리 재현하는 것에 대해서는 이의를 제기하지 않지만, 그렇지 않은 어떤 경우에도 모든 저작권을 보유한다.
텔레비전 프로그램에서 텔레비전 시청자에게 가시 텍스트(visible text)[일반적으로 음성 및 사운드의 기록(transcription)]를 제공하기 위해 클로즈 캡션(Closed Captioning)이 사용된다. 클로즈 캡션(CC)은 청각 장애인에게 특히 도움이 된다. 기술 표준 CEA-608 및 CEA-708에 정의된 다양한 버전 및 구현을 포함하는 다양한 기술 표준에서 정의되는 기법을 사용하여 텔레비전 프로그램에서 CC 데이터가 제공된다.
안타깝게도, 3차원(3D) 입체 텔레비전(3DTV)의 등장으로, 종래의 기법은 3DTV 환경에서 캡션을 보기 위한 최적의 메커니즘을 제공하지 않는데, 그 이유는 캡션이 일반적으로 캡션의 전방에 또는 후방에 있는 것으로 보일 수 있는 다른 비디오 객체에 대해 불편한 z-축 위치(깊이)에 나올 수 있기 때문이다.
목적 및 장점과 함께, 동작의 구성 및 방법을 설명하는 예시적인 특정 실시예가 첨부 도면과 관련하여 기술된 이하의 상세한 설명을 참조함으로써 가장 잘 이해될 수 있을 것이다.
도 1은 본 발명의 특정 실시예에 따른 캡션 시차 데이터의 전송을 나타낸 도면.
도 2는 본 발명의 특정 실시예에 따른 예시적인 인코더를 나타낸 도면.
도 3은 본 발명의 특정 실시예에 따른 예시적인 디코더를 나타낸 도면.
도 4는 본 발명의 특정 실시예에 따른 예시적인 텔레비전 수신기 장치를 나타낸 도면.
도 5는 본 발명의 특정 실시예에 따른 프로세서의 다양한 동작을 나타낸 예시적인 블록도.
도 6은 본 발명의 특정 실시예에 따른 작성된 시차 데이터를 나타내는 예시적인 곡선을 나타낸 그래프.
도 7은 본 발명의 특정 실시예에 따른 작성된 시차 곡선의 구분적 선형 근사(piecewise linear approximation)의 일례를 나타낸 그래프.
도 8은 본 발명의 특정 실시예에 따른 작성된 시차 데이터의 예시적인 구분적 선형 근사를 나타낸 도면.
도 9는 본 발명의 특정 실시예에 따른 방법의 예시적인 구현예의 플로우차트.
도 10은 본 발명의 특정 실시예에 따른 방법의 보다 상세한 예시적인 구현예의 플로우차트.
본 발명이 많은 서로 다른 형태로 구현될 수 있지만, 구체적인 실시예가 도면에 도시되고 본 명세서에 상세히 기술될 것이며, 이러한 실시예의 본 개시 내용이 본 발명을 도시되고 기술된 구체적인 실시예로 제한하기 위한 것이 아니라 본 발명의 원리의 일례로서 생각되어야 한다는 것을 잘 알 것이다. 이하의 설명에서, 몇개의 도면에서 동일하거나 유사하거나 대응하는 부분을 설명하는 데 동일한 참조 번호가 사용된다.
본 명세서에서 사용되는 "한" 또는 "하나"라는 용어는 '하나 또는 둘 이상'으로서 정의된다. 본 명세서에서 사용되는 "복수"라는 용어는 '둘 또는 셋 이상'으로서 정의된다. 본 명세서에서 사용되는 "또 하나의"라는 용어는 '적어도 제2 또는 추가의'로서 정의된다. 본 명세서에서 사용되는 "구비하는" 및/또는 "갖는"이라는 용어는 '포함하는'(즉, 개방형 문언)으로서 정의된다. 본 명세서에서 사용되는 "결합된"이라는 용어는 '연결된'으로서 정의되지만, 반드시 직접 연결될 필요가 없고 또한 반드시 기계적으로 연결될 필요가 없다. 본 명세서에서 사용되는 "프로그램" 또는 "컴퓨터 프로그램"이라는 용어 또는 유사한 용어는 컴퓨터 시스템 상에서 실행되도록 설계된 명령어 시퀀스로서 정의된다. "프로그램" 또는 "컴퓨터 프로그램"은 서브루틴, 함수, 프로그램 모듈, 스크립트, 프로시저, 객체 메서드, 객체 구현, 실행가능 응용 프로그램, 애플릿, 서블릿, 소스 코드, 오브젝트 코드, 공유 라이브러리/DLL(dynamic load library) 및/또는 컴퓨터 시스템 상에서 실행되도록 설계된 기타 명령어 시퀀스를 포함할 수 있다.
본 명세서에서 사용되는 "프로그램"이라는 용어는 또한 제2 문맥으로도 사용될 수 있다(상기한 정의는 제1 문맥에 대한 것임). 제2 문맥에서, 이 용어는 "텔레비전 프로그램"의 의미로 사용된다. 이 문맥에서, 이 용어는, 콘텐츠가 영화, 스포츠 경기, 여러 편의 시리즈(multi-part series) 중 단편, 뉴스 방송, 기타인지에 상관없이, 하나의 텔레비전 프로그램으로서 해석되고 EPG(electronic program guide)에서 하나의 텔레비전 프로그램으로서 보고되는 것과 같은 임의의 일관성있는 오디오 비디오 콘텐츠 시퀀스를 의미하는 데 사용된다. 이 용어는 또한 EPG(electronic program guide)에서 프로그램으로서 보고되지 않을 수 있는 광고 스팟(commercial spot) 및 기타 프로그램-유사 콘텐츠를 포괄하도록 해석될 수 있다.
본 문서 전반에 걸쳐 언급되는 "일 실시예", "특정 실시예", "실시예", "구현예", "일례" 또는 유사한 용어는 그 실시예와 관련하여 기술된 특정의 특징, 구조 또는 특성이 본 발명의 적어도 하나의 실시예에 포함된다는 것을 의미한다. 따라서, 본 명세서 전반에 걸쳐 여러 곳에서 나오는 이러한 문구가 모두 동일한 실시예를 말하는 것은 아니다. 게다가, 특정의 특징, 구조 또는 특성이 하나 이상의 실시예에서 임의의 적절한 방식으로 결합될 수 있지만, 이들로 제한되지 않는다.
본 명세서에서 사용되는 "또는"이라는 용어는 포함적이거나 임의의 하나 또는 임의의 조합을 의미하는 것으로 해석되어야 한다. 따라서, "A, B 또는 C"는 "A, B, C, A와 B, A와 C, B와 C, A와 B와 C 중 임의의 것"을 의미한다. 요소, 기능, 단계 또는 동작의 조합이 어떤 면에서 본질적으로 상호 배타적일 때에만 이 정의에 대한 예외가 될 것이다.
본 발명의 실시예에 따른 구현예는 일반적으로 3D 비디오 상에 클로즈 캡션을 렌더링하는 데 사용되는 데이터의 전송 및 형식에 관한 것이다.
전술한 바와 같이, 3D 비디오 프로그램의 디스플레이에 클로즈 캡션이 렌더링될 때, CC 창 및 텍스트를 상이한 보다 적절한 인지된 깊이에 나타나도록 렌더링하기 위한 조치가 취해지지 않는 한, CC 창 및 관련 텍스트가 화면의 평면에 렌더링될 가능성이 있다. 3D 콘텐츠 내에서 장면에 있는 객체가 디스플레이 화면의 평면으로부터 전방으로 얼마간 떨어져 있는 것처럼 시청자에게 보이도록 제시될 수 있다. 깊이에서 디스플레이의 평면에 위치하는 캡션 창이 그 객체의 전방에 배치되는 경우, "깊이 위반(depth violation)"이 일어날 것이다. 이러한 경우에, 시청자는 충돌하는 깊이 단서(depth cue)를 제시받으며, 이 상황은 눈의 피로 및 불편을 야기한다. 캡션이 단지 화면 평면에 위치하는 경우 z-축에서 장면에 있는 콘텐츠와 교차할 수 있기 때문에, 캡션의 제시는 바람직하게는 비디오 제시의 내용에 맞게 개별적으로 작성된다. 이것을 달성하기 위해서는, 효과적인 제시를 위해 그리고 장면에 있는 객체를 방해하지 않기 위해, 캡션 텍스트를 포함하는 창의 z-축에서의 인지된 배치(화면의 평면으로부터 전방 또는 후방으로 지정된 거리)를 정의하기 위해 부가 정보가 캡션과 함께 송신될 수 있다. 이 정보를 제공하기 위해 다수의 기법이 고안될 수 있지만, 많은 기법이 단점을 가지고 있다.
입체 3D 텔레비전은, 시청자의 각각의 눈이 그 눈에 보이도록 되어 있는 이미지만을 볼 수 있게 해주는 방법과 함께, 좌안 및 우안에 대한 개별적인 뷰를 디스플레이 화면에 전달하는 것을 필요로 한다. 주어진 객체에 대해, 그 객체의 배치의 수평 위치에서 좌안 뷰(left-eye view)와 우안 뷰(right-eye view)가 다를 때 깊이감(illusion of depth)이 얻어진다. 3차원 디스플레이 시스템에 관계된 기초 기술의 개요는 Nick Holliman 박사의 "3D Display Systems", Department of Computer Science, University of Durham, Science Laboratories, South Road, Durham DH1 3LE, UK(특히 10-11 페이지 및 그림 5를 참조할 것)에 기술되어 있으며, 이 문서는 참조 문헌으로서 그 전체 내용이 본 명세서에 포함된다.
"시차(disparity)"라는 용어는, 본 명세서에서 사용되는 바와 같이, 보다 공식적으로는 "망막 시차(retinal disparity)"와 구분되는 "화면 시차(screen disparity)"(즉, 화면 상에서 측정되는 것)를 말하는 것일 수 있으며, 화면 상에 디스플레이되는 한 쌍의 정렬된 입체 이미지에서 좌측 이미지와 우측 이미지에서의 대응하는 점의 실제 x 좌표의 차이로서 정의된다. 간단함을 위해, "시차"라는 덜 공식적인 용어가 본 명세서에서 사용될 것이다. 관례에 따르면, 시차가 마이너스일 때(예를 들어, 좌안 이미지가 화면 상에서 우안 이미지의 우측에 렌더링될 때), 객체는 화면의 평면으로부터 전방에 있는 것으로 인지된다. 시차가 플러스일 때(예를 들어, 좌안 이미지가 화면 상에서 우안 이미지의 좌측에 렌더링될 때), 객체는 화면의 평면으로부터 후방에 있는 것으로 인지된다.
"시차 데이터"라는 용어는 주어진 그래픽 객체(캡션 창 및 그의 관련 텍스트 등)를 렌더링하는 데 사용될 시차 값을 나타내는 어떤 데이터라도 말하는 것일 수 있다. 이 용어가 또한 보다 일반적으로는 현재의 장면에 있는 객체의 z-축 위치를 반영하는 데이터를 말하는 데 사용될 수 있다. 화면 영역이 범위들에 매핑될 수 있고, 시청자에게 가장 가까운 각각의 범위에서의 객체의 z-축 위치가 맵에서 좌표로서 기록된다. 이러한 맵을 "시차 맵(disparity map)" 또는 "깊이 맵(depth map)"이라고 할 수 있다. 시차 맵은 프레임별로 변화될 수 있으며, 다수의 방식으로 표현될 수 있다. 유의할 점은, 시차가 좌안 이미지와 우안 이미지의 수평 오프셋(horizontal offset)의 척도이지만, 소수 픽셀 오프셋(fractional pixel offset)이 완벽하게 허용되기 때문에, 이 오프셋이 정수개의 픽셀일 필요는 없다는 것이다.
디스플레이하기 위한 3D 비디오 및 CC 콘텐츠를 전달하는 것과 관련하여, 시차는 일반적으로 부수하는 비디오의 폭의 퍼센트로서 표현된다. 그에 따라, 시차는 무차원수(dimensionless number)이다. 예를 들어, 시그널링 방식은 한 단위의 시차가 (일반적으로 디스플레이 화면의 폭과 일치하도록 렌더링되는) 비디오 콘텐츠의 폭의 1/1920이도록 지정할 수 있다. 그러나, 1/1920의 시차가 1920의 화면 폭에서조차도 실제 시차에서의 최소 증분은 아니다. 이 정의에 따르면, 7의 시차는 비디오 콘텐츠의 폭의 7/1920인 거리를 말한다. 다시 말하지만, 이 정의에 따르면, 1920 픽셀의 수평 해상도를 가지는 화면의 특수한 경우에, 이것은 하나의 완전 시차 단위(full unit of disparity)가 하나의 디스플레이 픽셀과 동일한 폭이도록 잘 동작하지만, 이것은 특수한 경우로 생각될 것이다. 디스플레이 화면이 1920보다 적은 수의 수평 픽셀, 예를 들어, 1600 수평 픽셀인 경우, 시차가 그에 따라 스케일링되며 7의 시차는 (7/1920)(1600) = 5.83 픽셀이다. 따라서, 시차는 한 쌍의 정렬된 입체 이미지의 좌안 이미지 및 우안 이미지에서 대응하는 지점의 x-축(수평)을 따라 화면 상에서의 실제 위치의 차이로 보는 것이 가장 적절할 것이다. 또한, 주목할만한 점은, CC 창이 일반적으로 z-축을 따라 배치되고 디스플레이 화면의 평면에 평행인 평면에 있는 것으로 인지되는 2차원 창이라는 것이다.
CEA-708 호환 구문을 사용하여 특정의 CEA-708 캡션 창에서 인지된 z-축 또는 깊이를 설정하기 위해 시차 데이터를 추가하는 방식에 대한 제안이 표준 위원회에 제출되었다. 한 방식은 ETX1 방법이라고 하는 CEA-708에서의 명령 확장 방법(command extension method)을 사용함으로써 임의의 주어진 CEA-708 캡션 창에 대한 시차 데이터를 제공한다. 이 제안은 단점들이 있지만, 시차 데이터를 전송하는 몇가지 다른 가능한 방법이 고안될 수 있다. 한 일례에서, 캡션 시차 데이터는 개별적인 화상 user_data() 패킷에 배치될 수 있으며, 따라서, 캡션 스트림 내부에서 전달되는 경우 당면하게 되는 버퍼링 및 타이밍 문제로부터 이를 분리시킬 수 있다. 이것이 도 1에 도시된 다이어그램에 나타내어져 있다.
도 1은 DTV 비트스트림(100)을, DTV 정보를 물리 채널을 통해 수신자 디지털 텔레비전 수신기 장치(즉, TV, 셋톱 박스 등)로 전달하는 데 사용되는 다양한 요소를 전송하는 데 사용되는 데이터를 전달하는 "데이터 파이프"로서 나타내고 있다. 본 발명에 따른 실시예의 한 구현예에서, 캡션 시차 데이터는 다른 유형의 user_data()로서 정의될 수 있고 이 일례에서 캡션 시차 데이터(110)로서 도시되어 있다. 이것은 시차 데이터가 그 자체로서 DTVCC 전송 채널(120) 외부에서 전송될 수 있게 해주고, 그 자체로서 DTVCC 캡션 서비스에 할당되지 않은 부가의 대역폭을 사용할 수 있게 해준다.
이제 도 2를 참조하면, 방송국 등의 서비스 공급자의 기본 다이어그램이 도시되어 있다. 일반적으로 말하면, 단일 서비스 공급자가 하나 이상의 전송 스트림을 통해 다수의 프로그램을 제공할 수 있다. 오디오, 비디오 및 캡션 데이터가 인코더에 제공되고, 인코더는 데이터를 배포에 적합한 패킷(상기한 캡션 데이터 패킷을 포함함)으로 인코딩한다. 도시된 바와 같이, 프로그램 A 및 프로그램 B는 인코더(202, 204)에 의해 인코딩된 다음에, 전송 스트림 멀티플렉서(transport stream multiplexer)(210)에 제공되고, 이어서 전송 스트림 멀티플렉서(210)는 지상, 케이블 또는 위성 방송 등의 물리 채널 매체를 통해 배포될 수 있는 출력을 제공한다. 이 논의에서, “프로그램”이라는 용어의 사용은 MPEG-2 Systems 표준(ISO/IEC 13818-1)의 프로그램과 일치한다. MPEG-2 프로그램은, 예를 들어, 비디오 기본 스트림(video Elementary Stream) 및 하나 이상의 오디오 기본 스트림(audio Elementary Stream) 등의 연관된 기본 스트림 성분을 가진다. 전술한 구현예에 따르면, 캡션 시차 데이터(110)는 비디오 기본 스트림 내에서 user_data()로서 제공되지만, 이것이 제한하는 것으로 생각되어서는 안되는데, 그 이유는 다른 구현예가 이후에 기술되거나 참조되는 다른 전송 메커니즘에서 캡션 시차 데이터를 전달하기 때문이다. 그렇지만, 유의할 점은 캡션 시차 데이터가 제한 없이 본 전송 메커니즘을 사용하여 임의의 적합한 방식으로 인코딩될 수 있다는 것이다. 이와 유사하게, 나중에 기술하게 되는 바와 같이 인코딩되는 시차 데이터는 임의의 적합한 전송 메커니즘(이것으로 제한되지 않음)을 사용하여 전송될 수 있다.
물리 채널로부터의 이 인코딩된 데이터는 도 3에 나타낸 바와 같은 텔레비전 수신기 장치(예를 들어, 텔레비전 또는 셋톱 박스)에 수신된다. 전송 스트림이 전송 스트림 디멀티플렉서(304)에서 디멀티플렉싱되어, 오디오, 비디오(캡션 데이터가 포함되어 있음)는 물론 도시되지 않은 다른 데이터를 비롯한 하나 이상의 기본 스트림을 생성한다. 비디오 파서(308)는 비디오 기본 스트림으로부터 압축된 비디오 데이터를 추출하고 디코딩을 위해 이를 비디오 디코더(314)로 전송한다. 비디오 파서(308)는 비디오 기본 스트림으로부터 user_data() 블록을 추출하고 이를 사용자 데이터 파서(310)로 전송한다. 전송 스트림 디멀티플렉서(304)는 오디오 패킷을 선택하고 이를 오디오 디코더(312)로 전달하여 오디오 데이터를 출력으로서 생성한다. 상기 전송 메커니즘을 사용할 때, 사용자 데이터 파서(310)는 비디오 스트림의 user_data() 부분을 검사하고 DTVCC 전송 채널 및 캡션 시차 데이터를 분리시킨다. DTVCC 및 시차 데이터에 대해 다른 전송이 사용될 때, 전송과 부합하는 적합한 파싱 메커니즘을 사용하여 CC 데이터 및 시차가 파싱되어 나온다.
클로즈 캡션 관련 데이터는 캡션 프로세서(316)에서 처리된다. 캡션 프로세서는 좌안 이미지와 우안 이미지의 x-축 간격을 정의하는 시차 데이터를 사용하여 캡션 텍스트를 렌더링하여, 캡션 텍스트 및 그의 관련 창의 인지된 z-축 위치를 생성한다. 얻어진 캡션 이미지는 이어서 합성기(320)에서 비디오 데이터와 합성되어, x, y 및 z 평면에서 캡션 데이터 패킷 내의 데이터에 따라 캡션이 배치되어 있는 3D 비디오를 생성한다. 이러한 데이터는 캡션 데이터의 작성에 따라 정적 방식으로(z-축 위치가 주어진 캡션 세그먼트의 디스플레이 동안 일정하게 유지됨) 또는 동적으로(z-축 위치가 시간상 디스플레이 동안 움직임) 캡션을 배치할 수 있다. 캡션 데이터는 이어서 프로그램 비디오와 함께 비디오 디스플레이(도시 생략) 상에 렌더링될 수 있다.
수신기 장치는 도 4에 더 상세히 나타내어져 있으며, 여기서 콘텐츠는 지상 방송, 케이블 또는 위성 등의 임의의 적당한 소스를 통해 수신기(400)의 튜너/복조기(402)에 수신된다. 튜너/복조기(402)로부터의 캡션 데이터를 포함하는 전송 스트림은 디멀티플렉서(406)에서 오디오 및 비디오 스트림으로 디멀티플렉싱된다. 오디오는 오디오 디코더(410)에서 디코딩되는 반면, 비디오는 비디오 디코더(414)에서 디코딩된다. 미압축 A/V 데이터는 또한 선택적으로 이용될 수 있는 미압축 A/V 인터페이스(418)를 통해 수신될 수 있다.
A/V 콘텐츠는 또한 IP 텔레비전 콘텐츠 디코딩을 위해 인터넷(422)을 거쳐 네트워크 인터페이스(426)를 통해 수신될 수 있다. 그에 부가하여, NRT(non-real time) 저장 콘텐츠에 대한 저장 장치(430)가 제공될 수 있다. NRT 콘텐츠는 다른 콘텐츠 소스와 유사한 방식으로 406에서 디멀티플렉싱함으로써 재생될 수 있다. 수신기는 일반적으로 작업 메모리(440) 및 프로그램 메모리(442)에는 물론 하나 이상의 버스(450 등)를 통해 그래픽 서브시스템(444)에 상호연결되어 있는 CPU(438) 등의 프로세서의 제어 하에서 동작한다.
CPU(438)는 어느 전송 메커니즘에 의하든지간에(예를 들어, 전술한 캡션 데이터 패킷 또는 이하에서 언급하는 기타 메커니즘을 통해) 디멀티플렉서(406)로부터의 클로즈 캡션 데이터는 물론 시차 데이터도 수신하고, 그 데이터를 파싱함으로써 캡션 데이터를 위치시킬 z-축 위치는 물론 x 및 y 위치의 인지를 생성하기 위해 좌안 위치와 우안 위치의 어느 수평 간격이 사용되어야 하는지를 결정한다. 이 정보는 그래픽 서브시스템(444)으로 전달되고, 이미지는 합성기(460)에서 합성되어, 비디오 디스플레이 상에 디스플레이하기에 적합한 출력을 생성한다.
따라서, 클로즈 캡션 데이터를 텔레비전 수신기 장치로 전달하는 방법은 클로즈 캡션 텍스트를 디지털 텔레비전 캡션 채널 패킷 스트림에 패키징하는 단계, 디지털 텔레비전 사용자 데이터 패킷 스트림 내에서 클로즈 캡션과 함께 디스플레이되는 각각의 비디오 프레임에 대한 클로즈 캡션 텍스트의 z-축 위치를 정의하는 시차 데이터를 전송 및 전달하는 단계, 디지털 텔레비전 캡션 채널 패킷 스트림을 클로즈 캡션 텍스트와 연관된 오디오/비디오 데이터를 전달하는 전송 스트림의 일부로서 텔레비전 수신기 장치로 전송하는 단계, 및 시차 데이터를 포함하는 디지털 텔레비전 사용자 데이터 패킷 스트림을 클로즈 캡션 텍스트와 연관된 오디오/비디오 데이터를 전달하는 전송 스트림 외부에서 텔레비전 수신기 장치로 전송하는 단계를 포함한다.
그리고, 텔레비전 수신기 장치에서 클로즈 캡션 데이터를 처리하는 방법은 디지털 텔레비전 캡션 채널 패킷 스트림을 클로즈 캡션 텍스트와 연관된 오디오/비디오 데이터를 전달하는 전송 스트림의 일부로서 텔레비전 수신기 장치로 수신하는 단계, 시차 데이터를 포함하는 디지털 텔레비전 사용자 데이터 패킷 스트림을 클로즈 캡션 텍스트와 연관된 오디오/비디오 데이터를 전달하는 전송 스트림 외부에서 텔레비전 수신기 장치로 수신하는 단계, 및 3차원 비디오 디스플레이 상에 디스플레이하기 위해 클로즈 캡션 창에 클로즈 캡션 텍스트를 배치하는 단계 - 클로즈 캡션 창은 z-축을 따라 시차 데이터에 의해 정의된 위치에 배치됨 - 를 포함한다.
도 5는 본 명세서에 기술된 방식으로 제공되는 캡션 데이터를 처리하는 데 사용되는 프로그램 모듈의 한 구현예를 나타낸 것이다. 이 예시적인 구현예에서, 프로그램 메모리(442)로부터의 프로그램 제어 하에서 작업 메모리(440)를 사용하여 동작하는 CPU(438)는 (임의의 적합한 전송 메커니즘을 통해) 디멀티플렉서(406)로부터 디멀티플렉싱된 전송 스트림을 수신하고, 파서 모듈(504)은 캡션 데이터(즉, 캡션 텍스트 및 캡션 창을 생성하고 배치하는 관련 명령)(508)를 생성하고 시차 데이터를 시차 데이터 처리 모듈(512)로 전송하며, 시차 데이터 처리 모듈(512)에서는 캡션 렌더러(514)에서 처리하는 데 사용하기 위해 시차 데이터가 추출된다. 기타 데이터가 파서(504)에서 파싱되어 기타 데이터 처리 모듈(506으로 나타냄)로 보내질 수 있다. 처리된 캡션 데이터는 이어서 합성기(460)에서 디멀티플렉서(406)로부터의 비디오 데이터와 합성되어, 디스플레이할 데이터를 생성하며, 이 때 CC 데이터의 위치는 시차 데이터에 명시된 대로 배치된다.
본 발명의 실시예에 따른 특정 구현예에서, z-위치를 정의하는 데 사용되는 데이터의 양이 최소화되고 캡션 텍스트 및 DTV 전송 스트림의 비디오 부분과 함께 또는 전술한 바와 같이 user_data() 패킷으로 전송될 수 있다.
시차 데이터가 DTV 전송 채널 외부에서 전달될 때, 캡션 시차 데이터는 DTVCC 버퍼 모델 또는 데이터 레이트에 영향을 주지 않으며, 캡션 데이터와 별도로 비디오에 멀티플렉싱될 수 있다. 유의할 점: AFD(active format description) 및 바 데이터(Bar Data) 등의 다른 유형의 사용자 데이터가 표준에 정의되어 있다. 본 발명에 따른 특정 실시예에 따르면, 캡션 시차 데이터는 일종의 화상 사용자 데이터(picture user data)로서 전송될 수 있다. 그렇지만, 이것이 제한하는 것으로 간주되어서는 안되는데, 그 이유는 전술한 전송 메커니즘이 나중에 기술하는 방식으로 인코딩되는 시차 데이터를 전송하는 몇가지 메커니즘 중 단지 하나에 불과하기 때문이다. 예를 들어, 시차 데이터는 본 출원과 동시에 출원된 발명의 명칭이 “Service Linkage to Caption Disparity Transport(캡션 시차 전송에 대한 서비스 연계)”인 Eyer의 미국 특허 출원 제13/022,828호 또는 본 출원과 동시에 출원된 발명의 명칭이 “Extended Command Stream for Closed Caption Disparity(클로즈 캡션 시차에 대한 확장 명령 스트림)”인 Eyer의 미국 특허 출원 제13/022,810호에 기술된 기법을 사용하여 전송될 수 있으며, 이들 미국 출원 둘다는 참조 문헌으로서 본 명세서에 포함되며 제한없이 사용될 수 있다.
바람직한 특정 실시예에 따르면, 나중에 기술할 것인 바와 같이, 전송 메커니즘과 상관없이 캡션 서비스의 가용 대역폭에 대한 영향을 최소화하기 위해 시차 데이터를 전송하는 데 사용되는 데이터의 양이 극적으로 감소될 수 있다.
이하에 나타낸 바와 같이, 기술 표준 규격에서 정의를 설명할 때의 데이터 구조를 정의하기 위해, ATSC A/72 Part 1, (ATSC의) AVC Video 및 A/53의 프레임워크에 적합한 예시적인 데이터 구조가 제공된다. A/72 Part 1 및 A/53 Part 4의 내용을 여기에 그대로 옮겨 놓았다. 본 발명의 이 예시적인 구현예에서의 시차 데이터의 제시를 수용하기 위해 수정되어 있는 규격의 일부가 이하의 부분에 설명되어 있다:
Figure 112011033325327-pct00001
표 1은 A/72 Part 1 (2008)에서의 표 6.4에 대응한다.
Figure 112011033325327-pct00002
표 2는 A/72 Part 1 (2008)에서의 표 6.5에 대응한다.
Figure 112011033325327-pct00003
표 3은 A/52 Part 4 (2009)에서의 표 6.8에 대응한다.
Figure 112011033325327-pct00004
표 4는 A/52 Part 4 (2009)에서의 표 6.9에 대응하며, 새로운 코드 포인트(code point)가 여기에 추가되어 있다(user_data_type_code_value 0x07).
Figure 112011033325327-pct00005
표 5 내지 표 7은 원래의 것이다.
Figure 112011033325327-pct00006
이하의 표 5에 관한 모든 정의(service_number, extended_service_number 등)는 원래의 것이다.
Figure 112011033325327-pct00007
이하의 표 6에 관한 모든 정의(disparity(i), offset_precision 등)는 원래의 것이다.
이들 변화를 염두에 두고서, 이하에 샘플 표준으로서 제시되고 이상의 설명에 따라 캡션의 전달을 표준화하기 위한 기초로서 사용되는 것과 유사한 캡션 데이터를 전달하는 규격이 개발될 수 있다:
예 1 - 샘플 표준 텍스트
[표 1]
SEI 구문
Figure 112011033325327-pct00008
itu_t_t35_country_code - 고정 8-비트 필드로서, 그의 값은 ITU-T T.35의 요구사항에 따라 할당된 0xB5이다.
itu_t_35_provider_code - 고정 16-비트 필드로서, 그의 값은 ITU-T T.35의 요구사항에 따라 할당된 0x0031이다.
user_identifier - 이것은 ATSC A/53 Part 4의 표 6.7에 나타낸 바와 같이 user_structure( )의 구문(syntax) 및 의미(semantics)를 나타내는 32 비트 코드이다.
user_structure( ) - 이것은 user_identifier의 값 및 표 2에 의해 정의되는 가변 길이 데이터 구조이다.
[표 2]
user_identifier
Figure 112011033325327-pct00009
ATSC_user_data( ) 구문 및 의미는 “ATSC_user_data( )” 구조에 대한 표 3에 주어진 것이다. 이들 구문 및 의미가 공칭상 MPEG-2에 고유한 것이지만, 이들이 AVC에 완전히 적용가능하다.
[표 3]
ATSC_user_data 구문
Figure 112011033325327-pct00010
user_data_type_code - 이것은 user_data_type_structure()에서 뒤따라올 ATSC 사용자 데이터의 유형을 식별해주는 8-비트 값이고 표 4에 따라 설정된다.
[표 4]
user_data_type_code 값 할당
Figure 112011033325327-pct00011
예시적인 캡션 시차 데이터 구문이 표 5에 나타내어져 있다.
[표 5]
캡션 시차 데이터 구문
Figure 112011033325327-pct00012
service_number - 0 내지 15의 범위에 있는 이 4-비트 부호 없는 정수 값은, 1 내지 14의 범위에 있을 때, 이 일련의 시차 데이터와 연관된 CEA-708 캡션 서비스 번호를 나타낸다. 값 0은 포함된 시차 데이터가 모든 캡션 서비스에 똑같이 적용된다는 것을 나타낸다. 값 15는 서비스 번호가 15 내지 63의 범위에 있다는 것을 나타내고, extended_service_number 필드에 지정된다.
extended_service_number - 15 내지 63의 범위에 있는 이 6-비트 부호 없는 정수 값은 이 일련의 시차 데이터와 연관된 CEA-708 캡션 서비스 번호를 나타낸다.
caption_window_count - 1 내지 63의 범위에 있는 이 6-비트 부호 없는 정수 값은 이 caption_disparity_data() 인스턴스에 존재하는 일련의 시차 데이터의 수를 나타낸다.
caption_window_id[i] - 0 내지 7의 범위에 있는 이 3-비트 부호 없는 정수 값은 "for" 루프의 이 인스턴스에서의 시차 데이터가 적용되는 CEA-708 캡션 창 ID를 나타낸다.
temporal_extension_flag - 이 1-비트 플래그는, '1'로 설정되어 있을 때, 시간 확장 데이터가 caption_window_count “for” 루프의 이 인스턴스에 포함되어 있다는 것을 나타낸다. temporal_extension_flag에서의 '0'의 값은 caption_window_count “for” 루프의 이 인스턴스에 시간 확장 데이터가 포함되어 있지 않다는 것을 나타낸다.
data_valid - 이 1-비트 플래그는, '0으로 설정되어 있을 때, disparity[i] 데이터, select_view_shift 및 그 다음에 오는 시간 확장 데이터(존재하는 경우)가 아무런 의미도 갖지 않는다는 것을 나타낸다. data_valid가 '1'로 설정되어 있을 때, disparity[i] 데이터(및 존재하는 경우, 그 다음에 오는 시간 확장 데이터)는 의미를 가진다. 유의할 점: data_valid = '0'은 유효한 시차 데이터의 삽입의 다중 업스트림(multiplex, up-stream)에 자리 표시자 사용자 데이터(place-holder user data)를 생성하는 데 사용될 수 있다.
select _ view _ shift - 이 2-비트 양은 이하의 표에 따라 좌측 뷰 및 우측 뷰에 시차를 적용하는 데 사용되는 방법을 지정한다.
[표 6]
select_view_shift 코딩
Figure 112011033325327-pct00013
disparity[i] - 이 9-비트 부호 있는 정수 값은 1920-단위 수평 격자에 대한 좌측 뷰 및 우측 뷰 간의 시차 단위(unit of disparity)의 수를 나타낸다. 플러스 값은 우측 뷰가 좌측 뷰의 오른쪽으로 천이되어 있다는 것을 나타낸다. 마이너스 값은 우측 뷰가 좌측 뷰의 왼쪽으로 천이되어 있다는 것을 나타낸다.
offset_precision - 이 1-비트 플래그는 caption_window_count "for" 루프의 이 반복에서 offset_sequence[i,k]에 명시된 값의 정밀도를 나타낸다. '0'으로 설정되어 있을 때, offset_precision은 1-픽셀 정밀도를 나타낸다. '1'로 설정되어 있을 때, offset_precision은 2-픽셀 정밀도를 나타낸다.
offset_sequence[i,k] - 이 일련의 11개 2-비트 값은 11-프레임 기간에 걸쳐 프레임별 시차 변화를 나타낸다. offset_sequence[i,0]은 현재 프레임과 그 다음 프레임 간의 시차 값의 델타를 나타내고, offset_sequence[i,1]은 그 프레임과 그 다음 프레임 간의 시차 값의 델타를 나타내며, 이하 마찬가지이다. 각각의 프레임에서의 변화의 양은 이하의 표에 나타낸 바와 같이 offset_sequence[i,k]의 코딩에 의해 나타내어져 있다.
[표 7]
offset_sequence[i,k] 코딩
Figure 112011033325327-pct00014
상기 예 1에서, 시차 데이터는 1-단위 또는 2-단위 정밀도를 가지는 오프셋으로서 정의되고 인코딩된다. 그렇지만, 시차에서의 이 정밀도 레벨은 프레임별로 원할지도 모를 정도로 정밀하지 않다. 화면 폭의 1/1920의 정밀도를 가지는 시차 값으로 초기 배치하는 것으로 어쩌면 충분할 때, 깊이 평면(depth plane)에서의 매끄러운 움직임은 높은 분해능을 필요로 한다.
이 예 1의 방법에서, 캡션 시차 데이터는 user_data_identifier_code(표 4)의 고유 값을 사용하여 user_data() 패킷 내에서 전송된다. 이 예는, 도 1에 나타낸 바와 같이 캡션 시차 데이터(110)를 전송하기 위해, DTVCC 전송 채널 외부에서 user_data()로서 전송될 수 있는 한 유형의 시차 데이터에 대한 설명으로서 유용하다.
상기 예는 캡션 시차 데이터의 인코딩 및 전송을 제공하지만, 안타깝게도, 시간에 따라 z-축 방향으로 움직이는 캡션 창의 경우, 캡션 시차 데이터가 가장 효율적인 방식으로 인코딩되지 않으며 상당한 양의 대역폭을 전송할 것을 필요로 할지도 모른다. 그에 부가하여, 프레임별 시차 샘플에 대해 화면 폭의 1/1920의 시차 분해능(disparity resolution)은 너무 거친(coarse) 것으로 밝혀졌다. 시간에 따라 깊이에 있어서 매끄럽게 움직이는 물체에 대해 시차를 지정할 때 더 미세한 세분성(finer granularity)이 필요하다.
일반적으로, 다른 물체가 캡션 디스플레이와 교차하지 않도록 비디오 프레임에서 z-축에서의 적절한 위치에 캡션을 배치할 수 있게 해주기 위해 시차 및 캡션 데이터를 얼마간 동시에 작성하고자 할지도 모른다. 환언하면, 장면을 적절히 렌더링하기 위해서는, 캡션 창이 겹쳐 있는 임의의 물체보다 캡션 창이 시청자에 더 가깝게 있어야 한다. z-축에서 캡션 창과 캡션 창이 겹쳐 있는 물체가 교차하는 것은 시청자를 피곤하게 만드는데, 그 이유는 물체와 캡션 창에 의해 주어지는 깊이 단서가 서로 모순되고 있기 때문이다.
캡션은 일반적으로 비디오에서 표현되는 대화 또는 기타 사운드에 기초하여 렌더링될 수 있다. 따라서, 예컨대, (예를 들어, 한 배우로부터의) 각각의 대화 세그먼트가 개별적인 캡션 텍스트 창에 나올지도 모른다. 수신기가 (예를 들어, 불충분한 CPU 또는 그래픽 처리 능력으로 인해) z-축 위치를 동적으로 조정할 수 없는 경우, 그 창이 정적 위치에 렌더링될 수 있다.
바람직하게는, 캡션 데이터가 각각의 대화 세그먼트와 연관된 각각의 개별 프레임에 대해 z-축 위치로 표현되도록 작성된다. 이러한 방식으로, 그의 디스플레이 동안, 주어진 클로즈 캡션 창 및 그의 관련 텍스트가 캡션 작성자가 원하는 방식으로 시청자에게 더 가깝게 또는 시청자로부터 더 멀리 이동될 수 있다. 주어진 클로즈 캡션 창의 x 및 y 위치는 CEA-708-D 표준에 따라 정의될 수 있지만, z-위치는 z-축을 따라 인지된 움직임을 정의하는 메커니즘을 채택함으로써 동적으로 변경될 수 있다.
시간에 따라(다수의 순차적 비디오 프레임에 걸쳐) 인지된 z-축 위치를 도 6에 도시된 바와 같이 그래프로 나타내면, 시차가 z-축에서의 창의 움직임을 나타내는 곡선으로 표현될 수 있다(마이너스 값으로 표현되는 경우 디스플레이의 시청자 쪽에 있고[마이너스 시차 값은 디스플레이의 전방에 있는 것으로 인지된 위치를 나타냄] 플러스 값으로 표현되는 경우 사용자로부터 멀어져 디스플레이 쪽으로 이동하여 궁극적으로 디스플레이 후방에 있는 것으로 보임[플러스 숫자는 디스플레이 후방의 위치를 나타내고, 디스플레이 화면 자체는 z-축 위치 0에 있음]). 따라서, 곡선(600)은 물체가 좌측 먼곳에 있는 시작 깊이(starting depth)에서 시작하여 먼저 곡선(600)의 하단에 도달될 때[이 지점에서 시차 데이터는 플러스 기울기(깊이에 있어서 시청자로부터 멀어지는 쪽으로의 움직임)를 가짐]까지 시청자 쪽으로 이동하는 것을 나타낸 것일 수 있다. z-축에서의 이러한 작성된 시차 위치는 캡션 텍스트를 포함하는 창이 장면에서 물체를 뒤쫓아가도록 비디오 디스플레이에서 매끄럽게 이동하여 다른 물체를 방해하지 않도록 해줄 수 있다. 각각의 비디오 프레임에 대해 이러한 개별 정보[예를 들어, 각각의 프레임에서의 곡선의 값의 샘플 등]를 전달하기 위해, 상당한 양의 데이터가 필요할 수 있다.
나중의 개시 내용으로부터 명백하게 될 것인 바와 같이, 일부 저성능 수신기는 600의 작성된 시차 곡선을 따라가는 방식으로 시차를 동적으로 조정하는 기능을 갖추고 있지 않을 수 있다. 이들 경우에, 604 등의 고정된 시차 값이 나중에 기술하는 방식으로 특정의 캡션 창에 대한 z-축에 정적으로 위치하는 "대안의 시차(alternate disparity)"로서 제공될 수 있다. 인지된 깊이에서 캡션 창과 다른 화면 물체 간의 간섭이 없도록 하기 위해, 604로 나타낸 캡션 창의 인지된 거리가 대략적으로 시차 곡선(600)의 가장 가까운 인지된 레벨에 있도록 대안의 시차가 설정될 수 있다. 이 고정된 대안의 시차 값은 나중에 기술하는 바와 같이 제공될 수 있다. 본 발명에 따른 특정 구현예에 따르면, 작성된 시차를 나타내는 동적으로 변하는 일련의 데이터 및 대안의 정적 시차 값 둘다가 모두 TV 수신기로 전송되어 TV 수신기에 의해 수신될 수 있다. 이러한 방식으로, 예를 들어, TV 수신기 장치가 프레임별 시차 변화를 처리하기에 충분한 처리 능력을 가지고 있지 않은 경우, TV 수신기 장치는 대안의 정적 시차를 이용할 수 있다. 또한, 유의할 점은, 디스플레이 위치가 동적으로 변하든 정적이든 간에, 수반하는 비디오에서 캡션이 대화 및 기타 사운드 또는 설명(commentary)과 일치하는 방식으로 디스플레이된다. 따라서, CC 창에 대한 x-y 및 z 위치가 어구별로 또는 기타 빈도수로 변할 수 있는데 그 이유는 CC 창이 A/V 콘텐츠에 수반되고 각각의 CC 창이 일반적으로 몇초 정도만 디스플레이될 것이기 때문이다. 따라서, 각각의 CC 데이터 창이 동적으로 작성된 시차 및 대안의 정적 시차를 기술하는 그 자신의 데이터 시퀀스를 가질 것이다.
곡선(600)의 데이터는 도 7에 도시된 바와 같이 구분적 선형 근사(700)로서 근사화될 수 있다. (유의할 점은, 도 7에 제시된 근사화가 설명의 간명함을 위해 사용되는 개략적인 근사화이며, 곡선(600)의 훨씬 더 나은 근사화가 가능하다. 그에 부가하여, 수신기가 이러한 성능을 가지는 경우 구분적 선형 근사를 저역 통과 필터링함으로써 렌더링이 향상될 수 있다.) 이 일례에서, 이 설명에서 다수의 세그먼트(700A, 700B, 700C, 700D, 700E)를 가지는 곡선(700)은 시차 곡선(600)을, 하나의 라인 세그먼트로부터 그 다음 라인 세그먼트로의 변화(예를 들어, 700B로부터 700C로의 변화)를 정의하는 구분점에서 일어나는 기울기 변화로 근사화시킨다. 정의된 시작 시차 값 및 기울기를 가정하고(또는 시작 값 및 기울기를 제공하고) 이어서 특정의 세그먼트가 특정의 기울기를 갖는 것으로 근사화하는 것이 유효한 것으로 간주되는 프레임의 수 및 그 시점에서의 기울기 변화의 양을 인코딩함으로써, 이 구분적 선형 근사가 인코딩될 수 있다. 따라서, 일 구현예에서, 각각의 구분점을 설정하기 위해 전송될 필요가 있는 유일한 정보는 프레임의 수 및 이전 기울기로부터의 기울기 변화이다. 기울기의 시작 값을 0으로 가정할 수 있다. 하나의 기울기 단위(unit of slope)가 프레임으로 지정되는 소정의 시간 간격에 걸친 시차 변화 단위(disparity unit of change)의 수로서 정의될 수 있다. 소정의 시간 간격이 2의 거듭제곱으로서 지정되는 경우 수신기에서 요구되는 계산이 단순화된다. 예를 들어, 소정의 시간 간격이 25, 즉 32인 경우, 임의의 주어진 프레임에서의 계산된 시차 값은 항상 소수점 오른쪽 5 비트가 유지되는 이진 산술로 표현될 수 있다. 동일한 이점을 도출하기 위해 제한 없이 다른 2의 거듭제곱도 사용될 수 있다.
전송되는 데이터의 양을 최소화하기 위해 기울기 변화를 작은 숫자로 표현하는 것이 편리하다. 예를 들어, 지정된 수의 프레임에 걸쳐 적용할 기울기 변화의 양을 나타내는 -16 내지 +15 범위의 5-비트 2의 보수 부호 있는 정수(5-bit 2's complement signed integer)가 사용될 수 있다.
다시 말하지만, 구현의 편의상, 하나의 시차 단위를 화면 폭의 1/1920으로서 표현하는 것이 편리할 수 있다. 이것을 선택하는 경우, 디스플레이 해상도가 수평으로 1920 픽셀일 때, 하나의 시차 단위는 하나의 픽셀의 폭과 같지만, 이렇다고 하여 렌더링된 시차 값이 항상 1 픽셀의 분해능을 가진다는 것은 아니다.
앞서 언급한 바와 같이, 2개의 곡선을 흑백 라인 드로잉으로 명확하게 알아볼 수 있도록 도 7의 표현이 구분적 선형 모델의 과장된 근사화를 나타내고 있지만, 라인 세그먼트의 기울기 및 구분점을 더 잘 선택함으로써 근사화가 도시된 것보다 더 가까울 수 있다. 또한 유의할 점은, 수신기에 의해 수신되면, 원하는 경우 본질적으로 구분점에서 발생하는 급격한 기울기 변화를, 작성된 시차 곡선에 더 가까와지는 평탄한 곡선으로 변환하게 될 저역 통과 필터링에 의해 구분적 선형 근사가 향상될 수 있다는 것이다. 또한 유의할 점은, 이 근사화가 또한 캡션 창 및 관련 클로즈 캡션 텍스트의 z-축 위치에 대한 동적 변화의 소수-단위 세분성도 제공한다는 것이다.
이하의 예는 캡션 텍스트에 대한 주 서비스 번호(main service number)로부터 매핑되는 확장 서비스를 사용하여 전송되는 시차 데이터를 제공한다. 이 매핑은 본 출원과 동일자로 출원된 발명의 명칭이 “Service Linkage to Caption Disparity Transport(캡션 시차 전송에 대한 서비스 연계)”인 Eyer 등의 미국 특허 출원 제61/415,924호(이는 참조 문헌으로서 본 명세서에 포함됨)에서 더 상세히 논의된다.
예 2 - 시차 인코딩에 대한 표준 보충
증강 서비스(Augmentation Service)
주어진 캡션 서비스에 대한 캡션 시차 데이터가 "증강 서비스"에서 전달된다. 증강 서비스는 그와 연관되어 있는 캡션 서비스에 대한 부가의 명령 및 데이터를 제공하는 캡션 서비스인 것으로 간주된다. 증강 서비스 연관 관계는 표 I에 나타낸 바와 같다. 나타낸 바와 같이, 확장 서비스 #49에서 전송되는 명령 및 데이터는 사실상 서비스 #1의 일부인 것으로 간주되고, 확장 서비스 #50에서 전송되는 명령 및 데이터는 표준 서비스 #2의 일부인 것으로 간주되며, 이하 마찬가지이다.
[표 I]
Figure 112011033325327-pct00015
< 증강 서비스 번호 연관 관계>
증강 서비스는 표준 캡션 서비스 #1 내지 #6에 대해서만 정의되어 있다.
SET DISPARITY - (DISP)
명칭: SetDisparity - 3D 캡션에 대한 시차를 지정함
형식: 가변 길이
명령 코딩: EXT1, 90h, caption_disparity_data()
Figure 112011033325327-pct00016
desDescription: 캡션 시차 데이터는 이하에 정의되는 구문 및 의미를 사용하여 증강 서비스 내에서 SetDisparity 명령으로 전송된다. SetDisparity는, 입체 3D 프로그램에서 캡션이 사용될 때, 하나 이상의 캡션 창에 대한 좌안 뷰와 우안 뷰 사이의 수평 오프셋의 양(시차)을 지정한다.
캡션 시차 데이터
Caption_disparity_data()의 구문은 표 II에 나타낸 바와 같다.
[표 II]
Figure 112011033325327-pct00017
유의할 점: 이 구현예에서, 상기 표를 참조하여, win_info는 다음과 같은 것을 사용하여 정의된다:
caption_window_count - caption_disparity_data()의 이 인스턴스에 포함된 캡션 창의 수를 나타내는 1 내지 7의 범위에 있는 3-비트 부호 없는 정수.
caption_window_id - "for" 루프의 이 반복에서 시차 데이터가 주어지는 대응하는 서비스에서 창 ID를 식별해주는 3-비트 부호 없는 정수.
temporal_extension_flag - "1"로 설정될 때, 시변 시차 경로(time-varying disparity path)를 식별해주는 데이터가 포함되어 있다는 것을 나타내는 1-비트 플래그. “0”으로 설정되어 있을 때, 이 플래그는 명령에 존재하는 마지막 필드가 disparity[i]라는 것을 나타낸다.
disparity[i] - 1920 수평 픽셀에 대한 관련 캡션 창 i(caption_window_id에서 주어짐)의 시차 값을 나타내는 9-비트 2의 보수 부호 있는 정수. 값 0은 화면 평면을 나타낸다. 마이너스 값은 화면으로부터 전방으로 인지된 깊이에 대응한다. 플러스 값은 화면으로부터 후방으로 인지된 깊이에 대응한다.
alternate_disparity[i] - disparity[i]와 동일하게 코딩되는 9-비트 2의 보수 부호 있는 정수; 이는 시변 캡션 창(time-varying caption window)을 렌더링할 수 없는 디코더에 의해 구분적 선형 경로(piecewise-linear path)에서 주어지는 값 대신에 사용될 수 있는 시차 값을 지정한다.
segment_count - 뒤따라 오는 세그먼트의 수를 나타내는 1 내지 31 범위의 5-비트 부호 없는 정수.
frame_count - 바로 다음에 오는 segment_slope_change 필드의 적용 이전에 경과하는 비디오 프레임의 수를 나타내는 0 내지 31 범위의 5-비트 부호 없는 정수
segment_slope_change - frame_count에 표시된 프레임에서 적용할 기울기 변화량을 나타내는 -16 내지 +15 범위의 5-비트 2의 보수 부호 있는 정수. 기울기는 32 프레임에 걸친 시차 단위의 수로 지정된다. 시변 경로의 시작점에서 0의 기울기 값이 가정된다.
도 8은 시변 캡션 시차 데이터의 특정 예를 나타낸 것이다. 도 8은 이하의 예 2의 데이터 구조를 사용하여 시차 곡선의 구분적 선형 근사를 나타낸 것이다. 예 2에서, 하나의 기울기 단위는 32 프레임의 시간 간격에 걸친 하나의 시차 단위의 변화와 같은 것으로 정의된다. 도 8은 다음과 같은 프레임 개수(frame_count) 및 시차 기울기 변화(segment_slope_change) 파라미터의 시퀀스로부터 얻어지는 타임 라인을 나타낸 것이다: (2,-7),(10,-9),(8,+9) 및 (10,+7). 좌측의 첫번째 세그먼트에서, s=0는 0으로 사전 정의되어 있는 기울기를 가진다. 처음 2개의 기울기 변화는 마이너스이며, 이는 캡션 창이 사용자 쪽으로 이동하고 있음을 나타내며, 여기서 시차 값은 0에서 시작하여 제3 세그먼트와 제4 세그먼트의 접합점에서 -2.1875으로부터 -6.1875으로 된다. 그 다음 2개의 세그먼트에서의 플러스 기울기 변화로부터, z-축에서 시청자 쪽으로의 움직임이 느려진다는 것을 나타내는 기울기가 얻어지고, 궁극적으로 마지막 세그먼트에서 창은 디스플레이의 전방에서 -8.4375의 일정한 시차로 멈추게 된다.
이 예에서, 시차 곡선의 기울기는 0의 값에서 시작하는 것으로 정의된다. 이 예에서, 2개의 프레임 후에, 기울기가 -7 시차 단위/32 프레임으로 변한다. 10개의 프레임 후에, 시차는 다시 -16 시차 단위/32 프레임으로 변한다. 8개 프레임 이후에, 시차는 다시 -7로 변하고, 그로부터 10개 프레임 후에, 다시 0으로 변한다.
각각의 프레임에서의 시차가 소수점 오른쪽에 있는 5개의 이진 숫자(1/32 시차 단위의 정밀도)를 산출하는 이진 산술을 사용하여 정확하게 계산될 수 있다. 렌더링에서 1/32 시차 단위 정밀도를 지원하지 않는 수신기는, 어느 렌더링 정밀도를 지원하든 간에 그 정밀도(1/16, 1/8, 1/4 픽셀 기타 등등)로, 각각의 프레임에서 결과를 반올림할 것으로 예상된다. 누적 오차를 피하기 위해, 각각의 프레임에서의 시차의 계산이 바람직하게는 전체 정밀도(1/32 단위)로 수행되고 그 후에 반올림(있는 경우)이 수행될 것으로 예상된다.
또한 유의할 점은, 동적 시변 시차 변화를 지원하지 않는 일부 수신기가 제공될 수 있다는 것이다. 이 때문에, 덜 최신의 수신기에 대한 대안으로서 사용될 수 있는 도 6에 나타낸 바와 같은 고정 시차를 지정하는 것도 바람직하다. 이것은 "대안의 시차" 값으로서 지정된다.
이 개념의 구현을 달성하기 위해, 시차 데이터를 나타내는 데이터 구조가 채택된다. 상기 표 II는 이 데이터 구조의 구현예를 나타낸 것이다. 30 바이트 내에서, 이 데이터 구조는 최대 10개의 세그먼트를 가지는 2개의 창을 수용한다: 2 바이트(win_info) + 2 바이트(seg_info) + segment _count * 1.25 바이트(frm_info) = 16.5 바이트/창.
전술한 시차 데이터는 본 발명에 따른 특정 실시예의 구현예에 따른 개시 내용을 벗어나지 않고 임의의 적절한 방식으로 전달될 수 있다. 이러한 한 구현예에서는, 서비스 번호를 확장 서비스 번호 또는 증강 서비스 번호에 매핑하는 것이 바람직한 반면, 다른 구현예에서는, 임의의 방식으로(예를 들어, 클로즈 캡션 텍스트 및 관련 비디오와 동시에, 또는 대역 내 또는 대역 외에서 하나 이상의 데이터 블록으로서 미리) 시차 데이터가 전달될 수 있다.
시차 인코딩의 예시적인 특정 구현예에 따른 전체적인 프로세스는 804에서 시작하는 도 9의 플로우차트(802)에 나타내어져 있다. 808에서, 캡션 창 정의와 텍스트(예를 들어, 대화의 각각의 부분을 나타냄) 및 시차 데이터를 포함하는 작성된 캡션 데이터가 수신된다. 이 데이터는 시간에 따른(몇개의 프레임에 걸쳐) 시차의 곡선으로서 표현될 수 있고, 812에서 구분적 선형 모델 근사에 의해 근사화된다. 수동 근사화에서 곡선의 구분적 선형 근사를 생성하는 임의의 수학적 알고리즘에 이르는 임의의 메커니즘이 제한없이 사용될 수 있다. 이어서, 816에서, 근사화에서의 각각의 세그먼트에 대해, 시차가 각각의 라인 세그먼트에 대한 프레임의 수 및 그 수의 프레임에 대한 이전의 라인 세그먼트에 걸친 기울기 변화로서 인코딩된다. 초기 라인 세그먼트는 0의 기울기를 갖는 것으로 가정된다.
수신기에서 수행되는 프로세스는 도 10의 프로세스(900)로서 도시된 것과 같은 예시적인 프로세스를 사용하여 더 상세히 나타내어질 수 있다. 이 프로세스(900)는 902에서 캡션 창을 정의하는 명령(CEA-708에서, 이것은 DefineWindow 명령임)을 수신하는 것으로 시작한다. 904에서, 전술한 바와 같은 프레임의 수/기울기 변화의 시퀀스로서 시차 데이터가 수신된다. 그 다음에, 906에서 첫번째 라인 세그먼트에 대한 시차가 초기화된다. 910에서, 명령에서 커버하는 시간 간격 내에서 각각의 프레임에 대한 시차의 값을 계산하기 위해 데이터 시퀀스가 확장된다. 915에서, 구분점을 평탄화하기 위해 경로에 대해 저역 통과 필터 동작이 선택적으로 수행될 수 있다. 클로즈 캡션 텍스트가 수신될 때까지 그리고 캡션 창의 상태가 "보임(visible)"으로 설정될 때까지, 캡션 렌더링이 일어나지 않는다. 920에서, 캡션 텍스트가 수신되고, 930에서, (가시성 속성이 이미 참으로 설정된 상태로 캡션 창이 초기화되지 않은 경우) 캡션 창이 보임으로 설정된다.
텍스트가 이용가능하고 창이 보이면, 각각의 프레임에서 계산된 시차의 값을 사용하여 캡션 창 및 텍스트가 렌더링될 수 있다(950). 각각의 연속적인 프레임에서(960), 마지막 프레임에 도달될 때까지[테스트(970)] 계산된 시차의 그 다음 값이 렌더링된다. 마지막 프레임에 도달될 때, 또는 캡션 창이 삭제되거나 보이지 않음(invisible)으로 설정될 때(도시 생략), 프로세스가 980에서 종료한다.
이들 이벤트가 연속적인 흐름을 나타낼 수 있고, 텍스트 및 캡션 데이터가 계속적으로 수신되며, 따라서 여기서의 설명이 시간을 정확하게 나타내는 것으로 해석되어서는 안된다는 것을 잘 알 것이다. 도 10에서 다양한 동작들의 순서가 구현자의 선택에 따라 다를 수 있다. 예를 들어, 기울기를 0으로 초기화하는 것, 경로를 계산하는 것, 및 저역 통과 필터링하는 것(906, 910, 915)이 창이 보이게 된 후에(930) 또는 프레임 개수가 초기화된 후에(940) 실행될 수 있다. 다른 구현에서, 적당한 시그널링을 사용하여, 캡션 시차 데이터가 캡션 창의 정의보다 앞서 수신될 수 있고, 따라서 이 플로우차트(900)에 도시된 타이밍은 순전히 이해의 편의를 위해 이러한 방식으로 도시되어 있다.
본 개시 내용을 고려하면, 당업자에게는 이 프로세스의 많은 변형이 명백하게 될 것이다.
따라서, 디스플레이 상에 디스플레이하기 위한 클로즈 캡션 텍스트를 포함하는 창(화면에 평행인 2차원 창)의 z-축 위치를 정의하는 작성된 클로즈 캡션 시차 데이터의 세그먼트를 시차 데이터의 인코딩된 근사(encoded approximation)로 변환하는 방법은 작성된 3차원 클로즈 캡션 시차 데이터의 세그먼트를, 프레임 시퀀스에 걸쳐 적용가능한 순서 있는 선형 세그먼트의 시퀀스로 이루어진 구분적 선형 근사로서 근사화하는 단계 - 각각의 세그먼트가 구분점에서 후속 세그먼트에 연결되어 있음 -, 및 인코더에서, 구분적 선형 근사를, 각각의 선형 세그먼트가 적용되어야 하는 지정된 수의 프레임 및 시퀀스에서의 이전 세그먼트의 기울기로부터의 기울기 변화로서 인코딩하여 시차 데이터의 인코딩된 근사를 생성하는 단계를 포함하며, 시퀀스에서의 첫번째 세그먼트는 기울기 변화에 대한 참조로서 소정의 기울기를 가정한다.
소정의 초기 기울기는 바람직하게는 0이지만, 관례에 의해 또는 전달된 정보에 의해 임의의 다른 시작점일 수 있다. 기울기는 분수의 분자의 표현으로서 주어질 수 있고, 여기서 분수의 분모는 소정의 값 2N(단, N은 정수임)이며, 따라서 분자가 분수의 값을 전달해야 한다. 한 바람직한 구현예에서, N=5이고, 분자는 -16 내지 +15의 값으로 표현될 수 있고, 하나의 기울기 단위는 32 프레임의 시간 간격에 걸친 하나의 시차 단위의 변화로서 정의된다. 그 경우에, 2N은 32이고, 지정된 수의 프레임에 걸쳐 적용할 기울기 변화량을 나타내는 데 -16 내지 +15 범위의 5-비트 2의 보수 부호 있는 정수가 사용될 수 있다.
이 방법은 또한 클로즈 캡션 텍스트를 디지털 텔레비전 캡션 채널 패킷 스트림에 패키징하는 단계, 및 인코딩된 클로즈 캡션 시차 데이터를 클로즈 캡션 텍스트와 연관된 비디오 데이터를 전달하는 디지털 텔레비전 사용자 데이터 패킷 스트림 내에 패키징하는 단계를 포함할 수 있다. 당업자라면, 본 개시 내용을 고려하여, 기울기가 적용되어야 할 프레임의 수를 사용하는 인코딩이 본 발명에 따른 구현예를 벗어나지 않고 임의의 적절한 방식으로 수신기로 전송될 수 있다는 것을 잘 알 것이다.
이 방법은 또한 클로즈 캡션 텍스트의 고정된 z-축 위치를 설정하는 대안의 고정된 시차 값을 설정하는 단계, 및 대안의 z-축 위치로서 사용하기 위한 인코딩된 클로즈 캡션 시차 데이터와 함께 대안의 고정된 시차 값을 패키징하는 단계를 포함할 수 있다.
이 방법은 또한 인코딩된 시차 데이터를 수신하고, 구분점에서의 천이를 평탄화하기 위해, 인코딩된 3차원 시차 데이터를 저역 통과 필터링하는 단계를 포함할 수 있다.
이 방법은 또한 클로즈 캡션 텍스트를 디지털 텔레비전 캡션 채널 패킷 스트림에 패키징하는 단계, 및 인코딩된 클로즈 캡션 시차 데이터를 클로즈 캡션 텍스트와 연관된 오디오/비디오 데이터를 전달하는 디지털 텔레비전 전송 스트림 패킷의 스트림 내에 명령 확장으로서 패키징하는 단계를 포함할 수 있다. 이 방법은 또한 디지털 텔레비전 캡션 채널 패킷 스트림 및 인코딩된 클로즈 캡션 시차 데이터와 클로즈 캡션 텍스트를 임의의 적절한 방식으로 클로즈 캡션 텍스트와 연관된 오디오/비디오 데이터를 전달하는 전송 스트림의 일부로서 텔레비전 수신기 장치로 전송하는 단계를 포함할 수 있다.
따라서, 특정 구현예에서, 클로즈 캡션 시차 데이터를 디코딩하는 방법은 텔레비전 수신기 장치에서, 하나 이상의 프레임 간격/기울기 변화 쌍의 시퀀스로서 인코딩된 클로즈 캡션 시차 데이터를 수신하는 단계 - 프레임 간격은 시차를 나타내는 각각의 선형 함수가 이전 세그먼트의 기울기로부터의 기울기 변화를 나타내는 값과 쌍으로 적용되는 지정된 수의 프레임을 나타냄 - 를 포함한다. 시차 값의 시퀀스에서의 제1 세그먼트는 차후의 기울기 변화에 대한 기준으로서 0의 기울기를 가정하고, 캡션 데이터 패킷의 시퀀스를 수신하며, 여기서 캡션 데이터 패킷의 시퀀스는 클로즈 캡션 텍스트를 포함하는 클로즈 캡션 디스플레이 창을 지정하고, 클로즈 캡션 데이터는 디지털 텔레비전 캡션 채널 패킷 스트림에 패키징된다. 창의 인지된 z-축 위치를 설정하는 수평 오프셋을 설정하기 위해 클로즈 캡션 디스플레이의 좌안 뷰 및 우안 뷰의 3D 렌더링 시에 각각의 프레임에서 시차 값이 사용된다. 이 방법은 또한 대안의 인지된 z-축 위치로서 사용하기 위한 인코딩된 3차원 클로즈 캡션 시차 데이터와 함께 패키징되는 클로즈 캡션 디스플레이에 대한 고정된 시차를 설정하는 대안의 고정된 시차 값을 수신한다. 시차 값의 천이를 평탄화하기 위해 인코딩된 3차원 시차 데이터를 필터링하기 위해 저역 통과 필터링이 사용된다. 캡션 텍스트 및 시차 데이터가 처리되어, 시차 데이터에 의해 정의된 인지된 z-축 위치에서 캡션 텍스트의 디스플레이 상에 3차원 이미지의 렌더링을 정의하기에 적당한 출력을 생성한다.
클로즈 캡션 시차 데이터를 디코딩하는 다른 방법은 텔레비전 수신기 장치에서, 하나 이상의 프레임 간격/기울기 변화 쌍의 시퀀스로서 인코딩된 클로즈 캡션 시차 데이터를 수신하는 단계 - 프레임 간격은 시차를 나타내는 각각의 선형 함수가 이전 세그먼트의 기울기로부터의 기울기 변화를 나타내는 값과 쌍으로 적용되는 지정된 수의 프레임을 나타냄 - 를 포함한다. 시차 값의 시퀀스에서의 첫번째 세그먼트는 차후의 기울기 변화에 대한 참조로서 소정의 기울기를 가정한다. 캡션 데이터 패킷의 시퀀스가 수신되고, 여기서 캡션 데이터 패킷의 시퀀스는 클로즈 캡션 텍스트를 포함하는 클로즈 캡션 디스플레이 창을 지정한다. 클로즈 캡션 디스플레이 창의 인지된 z-축 위치를 설정하는 클로즈 캡션 디스플레이의 좌안 뷰 및 우안 뷰의 수평 오프셋을 결정하기 위해 각각의 프레임에서 시차 값이 사용된다.
특정 구현예에서, 소정의 기울기는 0이다. 특정 구현예에서, 기울기 변화는 2N(단, N은 정수)개 프레임에 걸친 시차 변화를 나타내는 값으로서 주어진다. 특정 구현예에서, N=5이다. 특정 구현예에서, 기울기 변화는 지정된 프레임 간격에 걸쳐 적용할 기울기 변화량을 나타내는 -16 내지 +15 범위의 값으로서 표시된다. 특정 구현예에서, 이 방법은 대안의 z-축 위치로서 사용하기 위한 인코딩된 3차원 클로즈 캡션 시차 데이터와 함께 패키징되는 클로즈 캡션 디스플레이에 대한 고정된 인지된 z-축 위치를 설정하는 대안의 고정된 시차 값을 수신하는 단계를 포함한다. 특정 구현예에서, 이 방법은 시차 값에서의 천이를 평탄화하기 위해, 인코딩된 3차원 시차 데이터를 저역 통과 필터링하는 단계를 포함한다. 특정 구현예에서, 이 방법은 캡션 텍스트 및 시차 데이터를 처리하여, 시차 데이터에 의해 정의된 인지된 z-축 위치에서 캡션 텍스트의 디스플레이 상에 3차원 이미지의 렌더링을 정의하기에 적당한 출력을 생성하는 단계를 포함한다.
비일시적 저장 매체 등의 컴퓨터 판독가능 전자 저장 장치는 하나 이상의 프로그램된 프로세서 상에서 실행될 때 본 명세서에 기술된 프로세스들 중 임의의 프로세스를 수행하는 명령어를 저장하는 데 사용될 수 있다.
특정 구현예에 따른 방식으로 클로즈 캡션의 시차 데이터를 처리하는 텔레비전 수신기 장치는 하나 이상의 프레임 간격/기울기 변화 쌍의 시퀀스로서 인코딩된 클로즈 캡션 시차 데이터를 수신하는 디코더 - 프레임 간격은 시차를 나타내는 각각의 선형 함수가 이전 세그먼트의 기울기로부터의 기울기 변화를 나타내는 값과 쌍으로 적용되는 지정된 수의 프레임을 나타냄 - 를 포함한다. 시차 값의 시퀀스에서의 첫번째 세그먼트는 차후의 기울기 변화에 대한 참조로서 소정의 기울기를 가정한다. 파서는 하나 이상의 신호로부터 시차 데이터 및 클로즈 캡션 텍스트를 파싱한다. 합성기는 시차 데이터 및 클로즈 캡션 텍스트를 수신하고, 클로즈 캡션 텍스트를 포함하는 클로즈 캡션 디스플레이 창을 포함하는 비디오 프레임 신호의 시퀀스를 생성하며, 여기서 클로즈 캡션 디스플레이 창은 시차 값에 의해 정의되는 각각의 프레임에서의 인지된 z-축 위치를 가진다.
특정 구현예에서, 소정의 기울기는 0이다. 특정 구현예에서, 프레임 간격은 2N(단, N은 정수)개 프레임의 소정의 값으로서 주어진다. 특정 구현예에서, 기울기 변화는 32개 프레임에 걸친 시차 변화를 나타내는 값으로서 주어진다. 특정 구현예에서, 기울기 변화는 지정된 프레임 간격에 걸쳐 적용할 기울기 변화의 양을 나타내는 -16 내지 +15 범위의 값으로서 표시된다. 특정 구현예에서, 기울기 변화는 지정된 프레임 간격에 걸쳐 적용할 기울기 변화의 양을 나타내는 -16 내지 +15 범위의 값으로서 표시된다. 특정 구현예에서, 디코더는 또한 대안의 인지된 z-축 위치로서 사용하기 위한 인코딩된 클로즈 캡션 시차 데이터와 함께 패키징되는 클로즈 캡션 디스플레이의 일부분에 대한 고정된 z-축 위치를 설정하는 대안의 고정된 시차 값을 수신한다. 특정 구현예에서, 저역 통과 필터는 시차 값에서의 천이를 평탄화하기 위해, 인코딩된 3차원 시차 데이터를 처리한다. 특정 구현예에서, 합성기는 또한 캡션 텍스트 및 시차 데이터를 처리하여, 시차 데이터에 의해 정의된 인지된 z-축 위치에서 캡션 텍스트의 디스플레이 상에 3차원 이미지의 렌더링을 정의하기에 적당한 출력을 생성한다.
당업자라면, 이상의 개시 내용을 고려하여, 상기 예시적인 실시예들 중의 일부가 프로그램된 프로세서의 사용에 기초하고 있다는 것을 잘 알 것이다. 그렇지만, 본 발명이 이러한 예시적인 실시예로 제한되지 않는데, 그 이유는 특수 목적 하드웨어 및/또는 전용 프로세서 등의 하드웨어 구성요소 등가물을 사용하여 다른 실시예가 구현될 수 있기 때문이다. 마찬가지로, 범용 컴퓨터, 마이크로프로세서-기반 컴퓨터, 마이크로제어기, 광 컴퓨터, 아날로그 컴퓨터, 전용 프로세서, 주문형 반도체(application specific circuit) 및/또는 전용의 하드 와이어드 논리(dedicated hard wired logic)가 대안의 등가 실시예를 구성하는 데 사용될 수 있다.
당업자라면, 이상의 개시 내용을 고려하여, 상기한 실시예들 중 일부를 구현하는 데 사용되는 프로그램 동작 및 프로세스와 연관된 데이터가, 본 발명의 특정 실시예를 벗어나지 않고, 디스크 저장 장치는 물론 기타 형태의 저장 장치[예를 들어, ROM(Read Only Memory) 장치, RAM(Random Access Memory) 장치, 네트워크 메모리 장치, 광 저장 요소, 자기 저장 요소, 광자기 저장 요소, 플래시 메모리, 코어 메모리 및/또는 기타 등가의 휘발성 및 비휘발성 저장 기술을 비롯한 비일시적 저장 장치 등]를 사용하여 구현될 수 있다는 것을 잘 알 것이다. '비일시적'이라는 용어는 정보가 전원의 제거 또는 기타 조치에 의해 상실될 수 없다는 것을 암시하지는 않는다. 이러한 대안의 저장 장치가 등가인 것으로 생각되어야 한다.
본 명세서에 기술된 특정 실시예가, 임의의 적합한 전자 또는 컴퓨터 판독가능 저장 매체에 저장될 수 있는, 플로우차트 형태로 이상에서 대체로 설명되어 있는 프로그래밍 명령어를 실행하는 프로그램된 프로세서를 사용하여 구현되거나 구현될 수 있다. 그렇지만, 당업자라면, 이 개시 내용을 고려하여, 상기한 프로세스들이, 본 발명의 실시예들로부터 벗어나지 않고, 다수의 변형으로 또 많은 적합한 프로그래밍 언어로 구현될 수 있다는 것을 잘 알 것이다. 예를 들어, 본 발명의 특정 실시예들로부터 벗어나지 않고, 수행되는 특정 동작들의 순서가 종종 변화될 수 있거나, 부가의 동작들이 추가될 수 있거나, 동작들이 삭제될 수 있다. 본 발명의 특정 실시예로부터 벗어나지 않고, 오류 포착(error trapping)이 추가 및/또는 개선될 수 있고 동작 흐름, 사용자 인터페이스 및 정보 제시에 변동이 행해질 수 있다. 이러한 변동이 생각되고 등가물로 간주된다.
특정 예시적인 실시예가 기술되어 있지만, 이상의 설명을 바탕으로 많은 대안, 수정, 치환 및 변동이 당업자에게는 자명하게 될 것임이 명백하다.

Claims (25)

  1. 클로즈 캡션 시차 데이터를 디코딩하는 방법으로서,
    텔레비전 수신기 장치에서, 하나 이상의 프레임 간격/기울기 변화 쌍의 시퀀스로서 인코딩된 클로즈 캡션 시차 데이터를 수신하는 단계 - 상기 프레임 간격은 시차를 나타내는 각각의 선형 함수가 이전 세그먼트의 기울기로부터의 기울기 변화를 나타내는 값과 쌍으로 적용되는 지정된 수의 프레임을 나타내고,
    시차 값의 시퀀스에서의 첫번째 세그먼트는 차후의 기울기 변화에 대한 참조로서 0의 기울기를 가정함 -,
    캡션 데이터 패킷의 시퀀스를 수신하는 단계 - 상기 캡션 데이터 패킷의 시퀀스는 클로즈 캡션 텍스트를 포함하는 클로즈 캡션 디스플레이 창을 지정하고, 클로즈 캡션 데이터는 디지털 텔레비전 캡션 채널 패킷 스트림에 패키징되며,
    상기 창의 인지된 z-축 위치를 설정하는 수평 오프셋을 설정하기 위해 클로즈 캡션 디스플레이의 좌안 뷰 및 우안 뷰의 3D 렌더링 시에 각각의 프레임에서 상기 시차 값이 사용됨 -,
    대안의 인지된 z-축 위치로서 사용하기 위한 인코딩된 클로즈 캡션 시차 데이터와 함께 패키징되는 상기 클로즈 캡션 디스플레이에 대한 고정된 시차를 설정하는 대안의 고정된 시차 값을 수신하는 단계,
    시차 값의 천이를 평탄화하기 위해 상기 인코딩된 클로즈 캡션 시차 데이터를 저역 통과 필터링하는 단계, 및
    상기 캡션 텍스트 및 시차 데이터를 처리하여, 상기 시차 데이터에 의해 정의된 인지된 z-축 위치에서 상기 캡션 텍스트의 디스플레이 상에 3차원 이미지의 렌더링을 정의하는 출력을 생성하는 단계를 포함하는, 클로즈 캡션 시차 데이터를 디코딩하는 방법.
  2. 클로즈 캡션 시차 데이터를 디코딩하는 방법으로서,
    텔레비전 수신기 장치에서, 하나 이상의 프레임 간격/기울기 변화 쌍의 시퀀스로서 인코딩된 클로즈 캡션 시차 데이터를 수신하는 단계 - 상기 프레임 간격은 시차를 나타내는 각각의 선형 함수가 이전 세그먼트의 기울기로부터의 기울기 변화를 나타내는 값과 쌍으로 적용되는 지정된 수의 프레임을 나타내고,
    시차 값의 시퀀스에서의 첫번째 세그먼트는 차후의 기울기 변화에 대한 참조로서 소정의 기울기를 가정함 -, 및
    캡션 데이터 패킷의 시퀀스를 수신하는 단계 - 상기 캡션 데이터 패킷의 시퀀스는 클로즈 캡션 텍스트를 포함하는 클로즈 캡션 디스플레이 창을 지정하고,
    상기 클로즈 캡션 디스플레이 창의 인지된 z-축 위치를 설정하는 클로즈 캡션 디스플레이의 좌안 뷰 및 우안 뷰의 수평 오프셋을 결정하기 위해 각각의 프레임에서 상기 시차 값이 사용됨 - 를 포함하는, 클로즈 캡션 시차 데이터를 디코딩하는 방법.
  3. 제2항에 있어서, 상기 소정의 기울기가 0인, 클로즈 캡션 시차 데이터를 디코딩하는 방법.
  4. 제2항에 있어서, 상기 기울기 변화가 2N(단, N은 정수)개 프레임에 걸친 시차 변화를 나타내는 값으로서 주어지는 것인, 클로즈 캡션 시차 데이터를 디코딩하는 방법.
  5. 제4항에 있어서, N=5인, 클로즈 캡션 시차 데이터를 디코딩하는 방법.
  6. 제2항에 있어서, 상기 기울기 변화가 지정된 상기 프레임 간격에 걸쳐 적용할 기울기 변화의 양을 나타내는 -16 내지 +15 범위의 값으로서 표시되는 것인, 클로즈 캡션 시차 데이터를 디코딩하는 방법.
  7. 제2항에 있어서, 대안의 z-축 위치로서 사용하기 위한 인코딩된 3차원 클로즈 캡션 시차 데이터와 함께 패키징되는 상기 클로즈 캡션 디스플레이에 대한 고정된 인지된 z-축 위치를 설정하는 대안의 고정된 시차 값을 수신하는 단계를 더 포함하는, 클로즈 캡션 시차 데이터를 디코딩하는 방법.
  8. 제2항에 있어서, 시차 값의 천이를 평탄화하기 위해 상기 인코딩된 클로즈 캡션 시차 데이터를 저역 통과 필터링하는 단계를 더 포함하는, 클로즈 캡션 시차 데이터를 디코딩하는 방법.
  9. 제2항에 있어서, 상기 캡션 텍스트 및 시차 데이터를 처리하여, 상기 시차 데이터에 의해 정의된 인지된 z-축 위치에서 상기 캡션 텍스트의 디스플레이 상에 3차원 이미지의 렌더링을 정의하는 출력을 생성하는 단계를 더 포함하는, 클로즈 캡션 시차 데이터를 디코딩하는 방법.
  10. 하나 이상의 프로그램된 프로세서 상에서 실행될 때, 제2항의 방법을 수행하는 프로그램이 저장된, 컴퓨터 판독가능 기록 매체.
  11. 클로즈 캡션의 시차 데이터를 처리하는 텔레비전 수신기 장치로서,
    하나 이상의 프레임 간격/기울기 변화 쌍의 시퀀스로서 인코딩된 클로즈 캡션 시차 데이터를 수신하는 디코더 - 상기 프레임 간격은 시차를 나타내는 각각의 선형 함수가 이전 세그먼트의 기울기로부터의 기울기 변화를 나타내는 값과 쌍으로 적용되는 지정된 수의 프레임을 나타내고,
    시차 값의 시퀀스에서의 첫번째 세그먼트는 차후의 기울기 변화에 대한 참조로서 소정의 기울기를 가정함 -, 및
    하나 이상의 신호로부터 상기 시차 데이터 및 클로즈 캡션 텍스트를 파싱하는 파서(parser), 및
    상기 시차 데이터 및 클로즈 캡션 텍스트를 수신하고, 클로즈 캡션 텍스트를 포함하는 클로즈 캡션 디스플레이 창을 포함하는 비디오 프레임 신호의 시퀀스를 생성하는 합성기 - 상기 클로즈 캡션 디스플레이 창은 상기 시차 값에 의해 정의되는 각각의 프레임에서의 인지된 z-축 위치를 가짐 - 를 포함하는, 텔레비전 수신기 장치.
  12. 제11항에 있어서, 상기 소정의 기울기가 0인, 텔레비전 수신기 장치.
  13. 제11항에 있어서, 상기 프레임 간격이 2N(단, N은 정수)개 프레임의 소정의 값으로서 주어지는 것인, 텔레비전 수신기 장치.
  14. 제11항에 있어서, 상기 기울기 변화가 32개 프레임에 걸친 시차 변화를 나타내는 값으로서 주어지는 것인, 텔레비전 수신기 장치.
  15. 제14항에 있어서, 상기 기울기 변화가, 지정된 상기 프레임 간격에 걸쳐 적용할 기울기 변화의 양을 나타내는 -16 내지 +15 범위의 값으로서 표시되는 것인, 텔레비전 수신기 장치.
  16. 제11항에 있어서, 상기 기울기 변화가, 지정된 상기 프레임 간격에 걸쳐 적용할 기울기 변화의 양을 나타내는 -16 내지 +15 범위의 값으로서 표시되는 것인, 텔레비전 수신기 장치.
  17. 제11항에 있어서, 상기 디코더가 또한 대안의 인지된 z-축 위치로서 사용하기 위한 상기 인코딩된 클로즈 캡션 시차 데이터와 함께 패키징되는 클로즈 캡션 디스플레이의 일부분에 대한 고정된 z-축 위치를 설정하는 대안의 고정된 시차 값을 수신하는 것인, 텔레비전 수신기 장치.
  18. 제11항에 있어서, 시차 값에서의 천이를 평탄화하기 위해 상기 인코딩된 클로즈 캡션 시차 데이터를 처리하는 저역 통과 필터를 더 포함하는, 텔레비전 수신기 장치.
  19. 제11항에 있어서, 상기 합성기가 또한 상기 캡션 텍스트 및 시차 데이터를 처리하여, 상기 시차 데이터에 의해 정의된 인지된 z-축 위치에서 상기 캡션 텍스트의 디스플레이 상에 3차원 이미지의 렌더링을 정의하는 출력을 생성하는 것인, 텔레비전 수신기 장치.
  20. 클로즈 캡션 시차 데이터를 디코딩하는 방법으로서,
    텔레비전 수신기 장치에서, 비디오 프레임의 시퀀스에 대해 프레임별로 변하는 클로즈 캡션 디스플레이 창에 대한 인지된 z-축 위치를 결정하는 인코딩된 동적 클로즈 캡션 시차 데이터를 수신하는 단계,
    상기 텔레비전 수신기 장치에서, 상기 비디오 프레임의 시퀀스에 대해 정적인 상기 클로즈 캡션 디스플레이 창에 대한 상기 인지된 z-축 위치를 설정하는 인코딩된 대안의 클로즈 캡션 시차 값을 수신하는 단계, 및
    캡션 데이터 패킷의 시퀀스를 수신하는 단계 - 상기 캡션 데이터 패킷의 시퀀스는 클로즈 캡션 텍스트를 포함하는 클로즈 캡션 디스플레이 창을 지정함 - 를 포함하고,
    상기 클로즈 캡션 디스플레이 창의 인지된 z-축 위치를 설정하는 클로즈 캡션 디스플레이의 좌안 뷰 및 우안 뷰의 수평 오프셋을 결정하기 위해 상기 비디오 프레임의 시퀀스에 대한 각각의 프레임에서 상기 인코딩된 동적 클로즈 캡션 시차 데이터 및 상기 대안의 클로즈 캡션 시차 값 중 하나가 사용되는 것인, 클로즈 캡션 시차 데이터를 디코딩하며,
    상기 인코딩된 동적 클로즈 캡션 시차 데이터가 하나 이상의 프레임 간격/기울기 변화 쌍의 시퀀스로서 인코딩되고, 상기 프레임 간격은 시차를 나타내는 각각의 선형 함수가 이전 세그먼트의 기울기로부터의 기울기 변화를 나타내는 값과 쌍으로 적용되는 지정된 수의 프레임을 나타내고,
    시차 값의 시퀀스에서의 첫번째 세그먼트는 차후의 기울기 변화에 대한 참조로서 소정의 기울기를 가정하는 것인, 클로즈 캡션 시차 데이터를 디코딩하는 방법.
  21. 삭제
  22. 제20항에 있어서, 상기 소정의 기울기가 0인, 클로즈 캡션 시차 데이터를 디코딩하는 방법.
  23. 제20항에 있어서, 시차 값의 천이를 평탄화하기 위해 상기 인코딩된 동적 클로즈 캡션 시차 데이터를 저역 통과 필터링하는 단계를 더 포함하는, 클로즈 캡션 시차 데이터를 디코딩하는 방법.
  24. 제20항에 있어서, 상기 캡션 텍스트 및 시차 데이터를 처리하여, 상기 시차 데이터에 의해 정의된 인지된 z-축 위치에서 상기 캡션 텍스트의 디스플레이 상에 3차원 이미지의 렌더링을 정의하는 출력을 생성하는 단계를 추가로 포함하는, 클로즈 캡션 시차 데이터를 디코딩하는 방법.
  25. 하나 이상의 프로그램된 프로세서 상에서 실행될 때, 제20항의 방법을 수행하는 프로그램이 저장된, 컴퓨터 판독가능 기록 매체.
KR1020117010282A 2010-03-12 2011-02-25 시차 데이터 전송 및 시그널링 KR101295451B1 (ko)

Applications Claiming Priority (15)

Application Number Priority Date Filing Date Title
US31361210P 2010-03-12 2010-03-12
US61/313,612 2010-03-12
US31673310P 2010-03-23 2010-03-23
US61/316,733 2010-03-23
US34665210P 2010-05-20 2010-05-20
US61/346,652 2010-05-20
US37879210P 2010-08-31 2010-08-31
US61/378,792 2010-08-31
US41545710P 2010-11-19 2010-11-19
US61/415,457 2010-11-19
US41592410P 2010-11-22 2010-11-22
US61/415,924 2010-11-22
US13/022,817 US8817072B2 (en) 2010-03-12 2011-02-08 Disparity data transport and signaling
US13/022,817 2011-02-08
PCT/US2011/026291 WO2011112370A1 (en) 2010-03-12 2011-02-25 Disparity data transport and signaling

Publications (2)

Publication Number Publication Date
KR20120042711A KR20120042711A (ko) 2012-05-03
KR101295451B1 true KR101295451B1 (ko) 2013-08-09

Family

ID=44559593

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020117010282A KR101295451B1 (ko) 2010-03-12 2011-02-25 시차 데이터 전송 및 시그널링
KR1020117009707A KR101323424B1 (ko) 2010-03-12 2011-02-28 클로즈 캡션 시차에 대한 확장 명령 스트림
KR1020117008421A KR101320175B1 (ko) 2010-03-12 2011-03-01 캡션 시차 데이터 전송에 대한 서비스 연계

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020117009707A KR101323424B1 (ko) 2010-03-12 2011-02-28 클로즈 캡션 시차에 대한 확장 명령 스트림
KR1020117008421A KR101320175B1 (ko) 2010-03-12 2011-03-01 캡션 시차 데이터 전송에 대한 서비스 연계

Country Status (8)

Country Link
US (5) US8730301B2 (ko)
EP (2) EP2545705A4 (ko)
JP (1) JP5545605B2 (ko)
KR (3) KR101295451B1 (ko)
CN (1) CN102783159B (ko)
CA (1) CA2791916A1 (ko)
MX (1) MX2012010002A (ko)
WO (3) WO2011112370A1 (ko)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8941779B2 (en) * 2012-03-21 2015-01-27 Sony Corporation Non-closed caption data transport in standard caption service
US8839338B2 (en) 2012-03-28 2014-09-16 Sony Corporation Service usage reporting data transport
US8730301B2 (en) * 2010-03-12 2014-05-20 Sony Corporation Service linkage to caption disparity data transport
US8760498B2 (en) 2011-03-14 2014-06-24 Sony Corporation Disparity data transport in standard caption service
US8866886B2 (en) * 2010-05-30 2014-10-21 Lg Electronics Inc. Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional subtitle
US8863171B2 (en) 2010-06-14 2014-10-14 Sony Corporation Announcement of program synchronized triggered declarative objects
US8898723B2 (en) 2010-08-20 2014-11-25 Sony Corporation Virtual channel declarative script binding
US8893210B2 (en) 2010-08-20 2014-11-18 Sony Corporation Server load balancing for interactive television
US8909694B2 (en) 2010-08-27 2014-12-09 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
US8875169B2 (en) 2010-08-27 2014-10-28 Sony Corporation Transmission and reception apparatus, methods, and systems for filtering content
US9179188B2 (en) 2010-08-30 2015-11-03 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
US8918801B2 (en) 2010-08-30 2014-12-23 Sony Corporation Transmission apparatus, transmission method, reception apparatus, reception method, program, and broadcasting system
US8595783B2 (en) 2010-08-30 2013-11-26 Sony Corporation Receiving device, receiving method, program, and broadcasting system
US8908103B2 (en) 2010-10-01 2014-12-09 Sony Corporation Content supplying apparatus, content supplying method, content reproduction apparatus, content reproduction method, program and content viewing system
US9179198B2 (en) 2010-10-01 2015-11-03 Sony Corporation Receiving apparatus, receiving method, and program
US8872888B2 (en) 2010-10-01 2014-10-28 Sony Corporation Content transmission apparatus, content transmission method, content reproduction apparatus, content reproduction method, program and content delivery system
US9078031B2 (en) 2010-10-01 2015-07-07 Sony Corporation Reception apparatus, reception method, and program
TWI545955B (zh) 2011-04-28 2016-08-11 Sony Corp Signal receiving apparatus and method, a signal transmission apparatus and method, and program
US20130002812A1 (en) * 2011-06-29 2013-01-03 General Instrument Corporation Encoding and/or decoding 3d information
US9554175B2 (en) 2011-07-20 2017-01-24 Sony Corporation Method, computer program, reception apparatus, and information providing apparatus for trigger compaction
US8917358B2 (en) 2011-07-27 2014-12-23 Sony Corporation Reception apparatus, terminal apparatus, control method, program, and communication system
KR102060449B1 (ko) 2011-08-05 2019-12-30 소니 주식회사 수신 장치, 수신 방법, 프로그램 및 정보 처리 시스템
TWI528749B (zh) * 2011-09-06 2016-04-01 Sony Corp A signal receiving device, a signal receiving method, an information processing program and an information processing system
US9015785B2 (en) 2011-11-29 2015-04-21 Sony Corporation Terminal apparatus, server apparatus, information processing method, program, and linking application supply system
US8930988B2 (en) 2011-12-21 2015-01-06 Sony Corporation Reception apparatus, reception method, program, and information processing system
US9113230B2 (en) 2011-12-21 2015-08-18 Sony Corporation Method, computer program, and reception apparatus for delivery of supplemental content
EP3771209A1 (en) * 2011-12-28 2021-01-27 JVC KENWOOD Corporation Moving picture coding device, moving picture coding method, moving picture decoding device and moving picture decoding method
US9936231B2 (en) 2012-03-21 2018-04-03 Saturn Licensing Llc Trigger compaction
JP2015517236A (ja) * 2012-04-10 2015-06-18 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 表示オブジェクトの表示位置を提供し、3次元シーン内の表示オブジェクトを表示するための方法および装置
JP6092525B2 (ja) * 2012-05-14 2017-03-08 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置、情報処理システム、画像処理方法およびプログラム
KR102222166B1 (ko) 2012-06-19 2021-03-04 소니 주식회사 대화형 텔레비전을 위한 트리거 파라미터 테이블의 확장
MY177736A (en) 2012-07-12 2020-09-23 Sony Corp Parameterized services descriptor for advanced television services
US9154840B2 (en) 2012-07-31 2015-10-06 Sony Corporation Reception apparatus, reception method, transmission apparatus, and transmission method
DE112013004029B4 (de) * 2012-09-12 2018-06-14 Lg Electronics Inc. Vorrichtung und Verfahren zum Verarbeiten eines interaktiven Dienstes
US9253518B2 (en) 2012-11-09 2016-02-02 Sony Corporation On-demand access to scheduled content
US9148676B2 (en) 2012-12-04 2015-09-29 Sony Corporation Broadcast transition channel
US10244203B1 (en) * 2013-03-15 2019-03-26 Amazon Technologies, Inc. Adaptable captioning in a video broadcast
US20160029012A1 (en) * 2013-04-05 2016-01-28 Koninklijke Philips N.V. Re-targeting a three-dimensional image signal
US9137566B2 (en) 2013-06-28 2015-09-15 Sony Corporation Distribution system, reception apparatus, and methods for transitioning to new services
US9038095B2 (en) 2013-07-03 2015-05-19 Sony Corporation Methods, information providing system, and reception apparatus for distribution of at least one content version
US8884800B1 (en) 2013-07-31 2014-11-11 Sony Corporation Method and apparatus for performing analog-to-digital conversion on multiple input signals
CA3077488C (en) 2014-04-27 2022-08-16 Lg Electronics Inc. Apparatus for transmitting broadcast signal, apparatus for receiving broadcast signal, method for transmitting broadcast signal, and method for receiving broadcast signal
US9326295B1 (en) 2014-12-10 2016-04-26 Sony Corporation Method and apparatus for transmitting a-priori information in a communication system
US20160204804A1 (en) 2015-01-13 2016-07-14 Sony Corporation Data processing apparatus and method
US9762354B2 (en) 2015-01-27 2017-09-12 Sony Corporation Signaling methods and apparatus
CA2973328C (en) 2015-01-30 2019-11-26 Sharp Kabushiki Kaisha System for service usage reporting
US9912986B2 (en) 2015-03-19 2018-03-06 Sony Corporation System for distributing metadata embedded in video
US9756401B2 (en) 2015-04-07 2017-09-05 Sony Corporation Processing and providing an image in which a plurality of symbols are encoded
US9590782B2 (en) 2015-06-22 2017-03-07 Sony Corporation Signaling methods and apparatus
US10205991B2 (en) 2015-07-27 2019-02-12 Sony Corporation Hidden replaceable media slots
US10299008B1 (en) 2017-11-21 2019-05-21 International Business Machines Corporation Smart closed caption positioning system for video content
CN111955020B (zh) * 2018-04-11 2022-08-23 杜比国际公司 用于音频渲染的预渲染信号的方法、设备和系统
KR102109514B1 (ko) * 2018-12-12 2020-06-12 유니마이크로텍(주) 동기화 패킷 송신 방법 및 수신 방법
US11625928B1 (en) * 2020-09-01 2023-04-11 Amazon Technologies, Inc. Language agnostic drift correction
CN114286154A (zh) * 2021-09-23 2022-04-05 腾讯科技(深圳)有限公司 多媒体文件的字幕处理方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010021141A1 (en) 1998-10-13 2001-09-13 Fujitsu Limited Semiconductor device
US20030035063A1 (en) 2001-08-20 2003-02-20 Orr Stephen J. System and method for conversion of text embedded in a video stream
US20090315979A1 (en) 2008-06-24 2009-12-24 Samsung Electronics Co., Ltd. Method and apparatus for processing 3d video image
WO2010010499A1 (en) * 2008-07-25 2010-01-28 Koninklijke Philips Electronics N.V. 3d display handling of subtitles

Family Cites Families (166)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0230704B1 (en) * 1986-01-23 1990-12-27 Donald J. Imsand Three dimensional television system
US5200823A (en) * 1991-03-29 1993-04-06 Scientific-Atlanta, Inc. Virtual channels for a multiplexed analog component (mac) television system
US5294982A (en) 1991-12-24 1994-03-15 National Captioning Institute, Inc. Method and apparatus for providing dual language captioning of a television program
US5418782A (en) * 1992-10-30 1995-05-23 Scientific-Atlanta, Inc. Methods and apparatus for providing virtual service selection in a multi-service communications system
US6269363B1 (en) * 1994-01-24 2001-07-31 Yossi Matias Method of accessing data using approximate data structures by relaxing the operations that define same
US5534941A (en) * 1994-05-20 1996-07-09 Encore Media Corporation System for dynamic real-time television channel expansion
US5841433A (en) * 1994-12-23 1998-11-24 Thomson Consumer Electronics, Inc. Digital television system channel guide having a limited lifetime
JP3472659B2 (ja) * 1995-02-20 2003-12-02 株式会社日立製作所 映像供給方法および映像供給システム
CN1192602C (zh) * 1996-05-03 2005-03-09 三星电子株式会社 适于音节文字的观众选择型字幕播放和接收方法及其装置
JP3854691B2 (ja) * 1997-01-14 2006-12-06 キヤノン株式会社 無線通信システムおよび無線通信装置
US6043838A (en) * 1997-11-07 2000-03-28 General Instrument Corporation View offset estimation for stereoscopic video coding
US6252596B1 (en) * 1998-03-31 2001-06-26 Canon Kabushiki Kaisha Command entry highlight editing for a menu selection system and method
US6433835B1 (en) * 1998-04-17 2002-08-13 Encamera Sciences Corporation Expanded information capacity for existing communication transmission systems
US7446774B1 (en) * 1998-11-09 2008-11-04 Broadcom Corporation Video and graphics system with an integrated system bridge controller
US6480819B1 (en) * 1999-02-25 2002-11-12 Matsushita Electric Industrial Co., Ltd. Automatic search of audio channels by matching viewer-spoken words against closed-caption/audio content for interactive television
US6266094B1 (en) * 1999-06-14 2001-07-24 Medialink Worldwide Incorporated Method and apparatus for the aggregation and selective retrieval of television closed caption word content originating from multiple geographic locations
EP1968321B1 (en) * 2000-02-28 2015-06-17 Hitachi Kokusai Electric Inc. Intruding object monitoring method and intruding object monitoring system
US7035292B1 (en) * 2000-03-17 2006-04-25 Applied Micro Circuits Corporation Transposable frame synchronization structure
US20040125877A1 (en) * 2000-07-17 2004-07-01 Shin-Fu Chang Method and system for indexing and content-based adaptive streaming of digital video content
JP4194289B2 (ja) * 2001-04-06 2008-12-10 キヤノン株式会社 画像処理方法
US8051212B2 (en) * 2001-04-11 2011-11-01 Mellanox Technologies Ltd. Network interface adapter with shared data send resources
US7110664B2 (en) * 2001-04-20 2006-09-19 Front Porch Digital, Inc. Methods and apparatus for indexing and archiving encoded audio-video data
US20030066081A1 (en) * 2001-07-27 2003-04-03 Barone Samuel T. Command protocol for interactive TV production tools
AUPR676201A0 (en) * 2001-08-01 2001-08-23 Canon Kabushiki Kaisha Video feature tracking with loss-of-track detection
US8880709B2 (en) * 2001-09-12 2014-11-04 Ericsson Television Inc. Method and system for scheduled streaming of best effort data
US7319720B2 (en) * 2002-01-28 2008-01-15 Microsoft Corporation Stereoscopic video
US20040017831A1 (en) * 2002-04-05 2004-01-29 Jian Shen System and method for processing SI data from multiple input transport streams
US7614066B2 (en) * 2002-05-03 2009-11-03 Time Warner Interactive Video Group Inc. Use of multiple embedded messages in program signal streams
KR100468163B1 (ko) * 2002-06-22 2005-01-26 삼성전자주식회사 디지털 비디오 수신기 및 그 스트림 생성방법
CN101982979B (zh) * 2002-07-16 2013-01-02 韩国电子通信研究院 立体适配方法和立体适配装置
EP1570436B1 (en) * 2002-11-27 2009-06-10 Vision III Imaging, Inc. Parallax scanning through scene object position manipulation
KR100751422B1 (ko) * 2002-12-27 2007-08-23 한국전자통신연구원 스테레오스코픽 비디오 부호화 및 복호화 방법, 부호화 및복호화 장치
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
US7606391B2 (en) * 2003-07-25 2009-10-20 Sony Corporation Video content scene change determination
JP2007504495A (ja) * 2003-08-26 2007-03-01 クリアプレイ,インク. 音響信号の演奏を制御する方法と装置
EP1665788A4 (en) * 2003-09-05 2011-12-14 Thomson Licensing SYSTEM FOR PROCESSING AUXILIARY INFORMATION
KR100565614B1 (ko) 2003-09-17 2006-03-29 엘지전자 주식회사 캡션 송수신 방법
EP1700474A4 (en) * 2003-12-08 2008-02-13 Thomson Licensing TELEVISION SIGNAL RECEIVER FOR DISPLAYING DIGITAL OR ANALOGUE CODED SUBTITLES
US8094927B2 (en) * 2004-02-27 2012-01-10 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
US20060067592A1 (en) * 2004-05-27 2006-03-30 Walmsley Simon R Configurable image processor
JP2006033677A (ja) * 2004-07-21 2006-02-02 Matsushita Electric Ind Co Ltd 映像再生出力装置及び映像再生出力方法
KR100995042B1 (ko) * 2004-07-23 2010-11-22 엘지전자 주식회사 디지털 방송 수신기 및 그의 긴급 경고 메시지 처리 방법
JP3753726B1 (ja) * 2004-10-13 2006-03-08 シャープ株式会社 動画像再符号化装置、動画像編集装置、プログラム、及び記録媒体
KR101041814B1 (ko) * 2005-02-15 2011-06-17 엘지전자 주식회사 무선 이동통신 시스템에서 점대다 멀티미디어 서비스 제공방법
US8745687B2 (en) 2005-02-15 2014-06-03 Sony Corporation Digital closed caption transport in standalone stream
WO2006092993A1 (ja) * 2005-02-28 2006-09-08 Matsushita Electric Industrial Co., Ltd. 字幕表示装置
US8013873B2 (en) * 2005-04-19 2011-09-06 Koninklijke Philips Electronics N.V. Depth perception
US7492752B2 (en) * 2005-05-25 2009-02-17 Motorola, Inc. Method and apparatus for improved channel maintenance signaling
JP2007097090A (ja) * 2005-09-30 2007-04-12 Fujifilm Corp 画像表示装置および方法ならびにプログラム、さらに写真プリント注文受付装置
US20070124768A1 (en) * 2005-11-30 2007-05-31 Microsoft Corporation Media content menu navigation and customization
US20100225808A1 (en) * 2006-01-27 2010-09-09 Thomson Licensing Closed-Captioning System and Method
KR101249988B1 (ko) * 2006-01-27 2013-04-01 삼성전자주식회사 사용자의 위치에 따른 영상을 디스플레이하는 장치 및 방법
KR20070079258A (ko) * 2006-02-01 2007-08-06 엘지전자 주식회사 데이터 방송을 수신할 수 있는 방송 수신기의 사용자 선호옵션 제어 방법, 클래스와 인터페이스 구조 및 이를 위한방송 수신기
US8576882B2 (en) * 2006-05-11 2013-11-05 Blackberry Limited Media access control protocol for multi-hop network systems and method therefore
JP2009540667A (ja) * 2006-06-08 2009-11-19 トムソン ライセンシング シーン変化を検出する方法及び装置
KR100771244B1 (ko) * 2006-06-12 2007-10-29 삼성전자주식회사 동영상 데이터 처리 방법 및 장치
EP1870813B1 (en) * 2006-06-19 2013-01-30 Texas Instruments France Page processing circuits, devices, methods and systems for secure demand paging and other operations
US7664108B2 (en) * 2006-10-10 2010-02-16 Abdullah Ali Bahattab Route once and cross-connect many
KR20080036329A (ko) * 2006-10-23 2008-04-28 엘지전자 주식회사 캡션 디스플레이 장치 및 방법
US7999820B1 (en) * 2006-10-23 2011-08-16 Nvidia Corporation Methods and systems for reusing memory addresses in a graphics system
US20080098433A1 (en) * 2006-10-23 2008-04-24 Hardacker Robert L User managed internet links from TV
EP2129108A4 (en) * 2006-12-18 2011-10-26 Sony Corp IMAGING DEVICE AND METHOD, RECORDING DEVICE AND METHOD, AND REPRODUCING DEVICE AND METHOD
WO2008079301A2 (en) * 2006-12-21 2008-07-03 Massachusetts Institute Of Technology Methods and apparatus for 3d surface imaging using active wave-front sampling
US20080180572A1 (en) * 2007-01-29 2008-07-31 Microsoft Corporation Enabling access to closed captioning data present in a broadcast stream
JP4331217B2 (ja) * 2007-02-19 2009-09-16 株式会社東芝 映像再生装置および方法
BRPI0721452B1 (pt) 2007-03-16 2020-03-03 Interdigital Ce Patent Holdings Sistema e método para combinar texto com conteúdo de imagem tridimensional
KR20070050419A (ko) * 2007-04-23 2007-05-15 삼성전자주식회사 캡션 표시 장치 및 그 방법
KR100962696B1 (ko) * 2007-06-07 2010-06-11 주식회사 이시티 부호화된 스테레오스코픽 영상 데이터 파일의 구성방법
US20080316303A1 (en) * 2007-06-08 2008-12-25 Joseph Chiu Display Device
US9209937B2 (en) * 2007-06-28 2015-12-08 Telefonaktiebolaget L M Ericsson (Publ) Reliable decoding of a high-speed shared control channel
KR20090004661A (ko) * 2007-07-04 2009-01-12 엘지전자 주식회사 디지털 방송 시스템 및 데이터 처리 방법
JP4793339B2 (ja) * 2007-07-09 2011-10-12 ソニー株式会社 動画像変換装置、動画像復元装置、および方法、並びにコンピュータ・プログラム
US8958486B2 (en) * 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
US20090060055A1 (en) 2007-08-29 2009-03-05 Sony Corporation Method and apparatus for encoding metadata into a digital program stream
KR101456633B1 (ko) * 2008-01-21 2014-11-06 삼성전자주식회사 방송 신호의 부가 데이터를 처리하는 방법 및 장치, 방송신호를 녹화하는 방법 및 장치, 녹화된 방송 신호를재생하는 방법 및 장치
CN101534377A (zh) * 2008-03-13 2009-09-16 扬智科技股份有限公司 根据节目内容自动改变字幕设定的方法与系统
US8621505B2 (en) * 2008-03-31 2013-12-31 At&T Intellectual Property I, L.P. Method and system for closed caption processing
JP5500066B2 (ja) * 2008-04-03 2014-05-21 Nltテクノロジー株式会社 画像処理方法、画像処理装置及びプログラム
CN102027752B (zh) 2008-05-12 2016-02-17 汤姆森特许公司 用于测量立体运动画面的潜在眼睛疲劳的系统和方法
US20090315981A1 (en) * 2008-06-24 2009-12-24 Samsung Electronics Co., Ltd. Image processing method and apparatus
US20100002134A1 (en) * 2008-07-03 2010-01-07 Sony Corporation Communication system with display status
JP4792127B2 (ja) * 2008-07-24 2011-10-12 パナソニック株式会社 立体視再生が可能な再生装置、再生方法、プログラム
US20100039558A1 (en) * 2008-08-12 2010-02-18 Richard Detore Real time high definition caption correction
US8442831B2 (en) * 2008-10-31 2013-05-14 International Business Machines Corporation Sound envelope deconstruction to identify words in continuous speech
KR101622688B1 (ko) 2008-12-02 2016-05-19 엘지전자 주식회사 3차원 캡션 디스플레이 방법 및 이를 구현하기 위한 3차원 디스플레이 장치
US8339441B2 (en) * 2008-12-26 2012-12-25 Kabushiki Kaisha Toshiba Frame processing device, television receiving apparatus and frame processing method
CA2749064C (en) * 2009-01-08 2015-02-17 Lg Electronics Inc. 3d caption signal transmission method and 3d caption display method
US8265450B2 (en) * 2009-01-16 2012-09-11 Apple Inc. Capturing and inserting closed captioning data in digital video
WO2010085074A2 (en) 2009-01-20 2010-07-29 Lg Electronics Inc. Three-dimensional subtitle display method and three-dimensional display device for implementing the same
US8269821B2 (en) * 2009-01-27 2012-09-18 EchoStar Technologies, L.L.C. Systems and methods for providing closed captioning in three-dimensional imagery
EP2521364B1 (en) * 2009-02-19 2014-07-23 Panasonic Corporation Recording medium, playback device and recording method
FI20095273A0 (fi) * 2009-03-17 2009-03-17 On2 Technologies Finland Oy Digitaalinen videokoodaus
JP2010250562A (ja) * 2009-04-15 2010-11-04 Sony Corp データ構造、記録媒体、再生装置および再生方法、並びにプログラム
JP5414357B2 (ja) * 2009-05-20 2014-02-12 キヤノン株式会社 撮像装置および再生装置
JP5429034B2 (ja) * 2009-06-29 2014-02-26 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP4934701B2 (ja) * 2009-06-30 2012-05-16 株式会社日立製作所 ステレオ画像処理装置およびステレオ画像処理方法
DK2453661T3 (en) * 2009-07-10 2017-10-30 Panasonic Ip Man Co Ltd PLAYBACK, RECORDING PROCEDURE AND SYSTEM, INCLUDING A RECORDING MEDIUM AND PLAYBACK
US8428122B2 (en) * 2009-09-16 2013-04-23 Broadcom Corporation Method and system for frame buffer compression and memory resource reduction for 3D video
US8705933B2 (en) 2009-09-25 2014-04-22 Sony Corporation Video bookmarking
US20110081133A1 (en) * 2009-10-05 2011-04-07 Xuemin Chen Method and system for a fast channel change in 3d video
US9277183B2 (en) 2009-10-13 2016-03-01 Sony Corporation System and method for distributing auxiliary data embedded in video data
US8941779B2 (en) 2012-03-21 2015-01-27 Sony Corporation Non-closed caption data transport in standard caption service
US8730301B2 (en) * 2010-03-12 2014-05-20 Sony Corporation Service linkage to caption disparity data transport
US8839338B2 (en) 2012-03-28 2014-09-16 Sony Corporation Service usage reporting data transport
US9706158B2 (en) 2010-04-01 2017-07-11 Saturn Licensing Llc Receiver and method for reporting the usage of advanced television services
JP6068329B2 (ja) * 2010-04-01 2017-01-25 トムソン ライセンシングThomson Licensing 立体表示用のサブタイトルを生成する方法及びシステム
US9723360B2 (en) 2010-04-01 2017-08-01 Saturn Licensing Llc Interests and demographics profile for advanced broadcast services
US20110247028A1 (en) 2010-04-01 2011-10-06 Mark Eyer Receiver and System Using an Electronic Questionnaire for Advanced Broadcast Services
JP2011239169A (ja) * 2010-05-10 2011-11-24 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2011249945A (ja) * 2010-05-24 2011-12-08 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US20110302599A1 (en) 2010-06-07 2011-12-08 Mark Kenneth Eyer TV-Centric Actions in Triggered Declarative Objects
US8863171B2 (en) 2010-06-14 2014-10-14 Sony Corporation Announcement of program synchronized triggered declarative objects
WO2012002690A2 (ko) * 2010-06-27 2012-01-05 엘지전자 주식회사 디지털 수신기 및 디지털 수신기에서의 캡션 데이터 처리 방법
US8893210B2 (en) 2010-08-20 2014-11-18 Sony Corporation Server load balancing for interactive television
US8898723B2 (en) 2010-08-20 2014-11-25 Sony Corporation Virtual channel declarative script binding
US8875169B2 (en) 2010-08-27 2014-10-28 Sony Corporation Transmission and reception apparatus, methods, and systems for filtering content
US8909694B2 (en) 2010-08-27 2014-12-09 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
JP5765558B2 (ja) 2010-08-27 2015-08-19 ソニー株式会社 受信装置、受信方法、送信装置、送信方法、プログラム、および放送システム
US20120050619A1 (en) 2010-08-30 2012-03-01 Sony Corporation Reception apparatus, reception method, transmission apparatus, transmission method, program, and broadcasting system
US9179188B2 (en) 2010-08-30 2015-11-03 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
US8918801B2 (en) 2010-08-30 2014-12-23 Sony Corporation Transmission apparatus, transmission method, reception apparatus, reception method, program, and broadcasting system
KR101878511B1 (ko) 2010-08-30 2018-07-13 소니 주식회사 수신 장치, 수신 방법 및 프로그램
US8595783B2 (en) 2010-08-30 2013-11-26 Sony Corporation Receiving device, receiving method, program, and broadcasting system
US10511887B2 (en) 2010-08-30 2019-12-17 Saturn Licensing Llc Reception apparatus, reception method, transmission apparatus, transmission method, program, and broadcasting system
US8892636B2 (en) 2010-08-30 2014-11-18 Sony Corporation Transmission apparatus and method, reception apparatus and method, and transmission and reception system
KR101875615B1 (ko) * 2010-09-01 2018-07-06 엘지전자 주식회사 삼차원 디스플레이를 위한 디지털 방송 신호를 처리하는 방법 및 장치
JP5757075B2 (ja) 2010-09-15 2015-07-29 ソニー株式会社 送信装置、送信方法、受信装置、受信方法、プログラム、および放送システム
US9986270B2 (en) 2010-09-21 2018-05-29 Saturn Licensing Llc Reception and transmission of trigger information for application program control
JP5703664B2 (ja) 2010-09-30 2015-04-22 ソニー株式会社 受信装置、受信方法、送信装置、送信方法、プログラム、および放送システム
US9078031B2 (en) 2010-10-01 2015-07-07 Sony Corporation Reception apparatus, reception method, and program
JP6210684B2 (ja) 2010-10-01 2017-10-11 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置、情報処理方法、及びプログラム
US8872888B2 (en) 2010-10-01 2014-10-28 Sony Corporation Content transmission apparatus, content transmission method, content reproduction apparatus, content reproduction method, program and content delivery system
US9179198B2 (en) 2010-10-01 2015-11-03 Sony Corporation Receiving apparatus, receiving method, and program
US8842974B2 (en) 2010-10-01 2014-09-23 Sony Corporation Content transmission apparatus, content transmission method, content reproduction apparatus, content reproduction method, program, and content delivery system
US8908103B2 (en) 2010-10-01 2014-12-09 Sony Corporation Content supplying apparatus, content supplying method, content reproduction apparatus, content reproduction method, program and content viewing system
US20120185888A1 (en) 2011-01-19 2012-07-19 Sony Corporation Schema for interests and demographics profile for advanced broadcast services
JP5783402B2 (ja) 2011-01-25 2015-09-24 ソニー株式会社 受信装置、受信方法、供給装置、供給方法、プログラム、および放送システム
JP5793871B2 (ja) 2011-01-25 2015-10-14 ソニー株式会社 受信装置、受信方法、供給装置、供給方法、プログラム、および放送システム
JP5668512B2 (ja) 2011-02-15 2015-02-12 ソニー株式会社 情報処理装置、及び、情報処理方法
TWI574565B (zh) 2011-03-31 2017-03-11 Sony Corp A transmitting apparatus, a transmitting method, a receiving apparatus, a receiving method, a computer-readable medium, and a broadcasting system
US8886009B2 (en) 2011-04-26 2014-11-11 Sony Corporation Creation of video bookmarks via scripted interactivity in advanced digital television
TWI545955B (zh) 2011-04-28 2016-08-11 Sony Corp Signal receiving apparatus and method, a signal transmission apparatus and method, and program
US9554175B2 (en) 2011-07-20 2017-01-24 Sony Corporation Method, computer program, reception apparatus, and information providing apparatus for trigger compaction
US8917358B2 (en) 2011-07-27 2014-12-23 Sony Corporation Reception apparatus, terminal apparatus, control method, program, and communication system
US10491966B2 (en) 2011-08-04 2019-11-26 Saturn Licensing Llc Reception apparatus, method, computer program, and information providing apparatus for providing an alert service
KR102060449B1 (ko) 2011-08-05 2019-12-30 소니 주식회사 수신 장치, 수신 방법, 프로그램 및 정보 처리 시스템
JP6040154B2 (ja) 2011-08-24 2016-12-07 サターン ライセンシング エルエルシーSaturn Licensing LLC 受信装置、受信方法、プログラム、及び情報処理システム
US20130055313A1 (en) 2011-08-31 2013-02-28 Sony Corporation Method, computer program, reception apparatus, and information providing apparatus for accessing content from a plurality of content sources
TWI528749B (zh) 2011-09-06 2016-04-01 Sony Corp A signal receiving device, a signal receiving method, an information processing program and an information processing system
US9374620B2 (en) 2011-10-21 2016-06-21 Sony Corporation Terminal apparatus, server apparatus, information processing method, program, and interlocked application feed system
US9015785B2 (en) 2011-11-29 2015-04-21 Sony Corporation Terminal apparatus, server apparatus, information processing method, program, and linking application supply system
US8930988B2 (en) 2011-12-21 2015-01-06 Sony Corporation Reception apparatus, reception method, program, and information processing system
US9113230B2 (en) 2011-12-21 2015-08-18 Sony Corporation Method, computer program, and reception apparatus for delivery of supplemental content
JP6082946B2 (ja) 2012-01-24 2017-02-22 サターン ライセンシング エルエルシーSaturn Licensing LLC 受信装置、受信方法、プログラム、及び情報処理システム
CN104081759B (zh) 2012-02-07 2018-01-16 索尼公司 接收设备和接收方法
US9936231B2 (en) 2012-03-21 2018-04-03 Saturn Licensing Llc Trigger compaction
US20130282870A1 (en) 2012-04-18 2013-10-24 Sony Corporation Reception apparatus, reception method, transmission apparatus, transmission method, and program
KR102222166B1 (ko) 2012-06-19 2021-03-04 소니 주식회사 대화형 텔레비전을 위한 트리거 파라미터 테이블의 확장
US9456245B2 (en) 2012-07-05 2016-09-27 Sony Corporation Receiving device, receiving method, transmitting device, and transmitting method for controlling applications
MY177736A (en) 2012-07-12 2020-09-23 Sony Corp Parameterized services descriptor for advanced television services
US9154840B2 (en) 2012-07-31 2015-10-06 Sony Corporation Reception apparatus, reception method, transmission apparatus, and transmission method
US9432744B2 (en) 2012-07-31 2016-08-30 Sony Corporation Receiving device, receiving method, transmitting device, and transmitting method
US9883247B2 (en) 2012-08-13 2018-01-30 Saturn Licensing Llc Reception apparatus, reception method, transmission apparatus, and transmission method
KR20150043295A (ko) 2012-08-15 2015-04-22 소니 주식회사 향상된 tv 서비스를 위한 개인화 정보의 광대역 전달
US9264648B2 (en) 2012-10-09 2016-02-16 Sony Corporation Receiving device, receiving method, transmitting device, and transmitting method
US10002206B2 (en) 2012-10-26 2018-06-19 Saturn Licensing Llc Information processing device and information processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010021141A1 (en) 1998-10-13 2001-09-13 Fujitsu Limited Semiconductor device
US20030035063A1 (en) 2001-08-20 2003-02-20 Orr Stephen J. System and method for conversion of text embedded in a video stream
US20090315979A1 (en) 2008-06-24 2009-12-24 Samsung Electronics Co., Ltd. Method and apparatus for processing 3d video image
WO2010010499A1 (en) * 2008-07-25 2010-01-28 Koninklijke Philips Electronics N.V. 3d display handling of subtitles

Also Published As

Publication number Publication date
WO2011112370A1 (en) 2011-09-15
WO2011112370A8 (en) 2011-12-08
US9521394B2 (en) 2016-12-13
WO2011112392A1 (en) 2011-09-15
MX2012010002A (es) 2012-10-01
US20140218475A1 (en) 2014-08-07
US8817072B2 (en) 2014-08-26
US20110221873A1 (en) 2011-09-15
WO2011112381A1 (en) 2011-09-15
US20110221863A1 (en) 2011-09-15
US20110221862A1 (en) 2011-09-15
EP2545705A1 (en) 2013-01-16
JP5545605B2 (ja) 2014-07-09
KR20120039506A (ko) 2012-04-25
US8730301B2 (en) 2014-05-20
CN102783159A (zh) 2012-11-14
KR101323424B1 (ko) 2013-10-29
EP2545705A4 (en) 2014-06-25
EP2524512A1 (en) 2012-11-21
JP2013521708A (ja) 2013-06-10
KR101320175B1 (ko) 2013-10-23
US20140253683A1 (en) 2014-09-11
CA2791916A1 (en) 2011-09-15
EP2524512A4 (en) 2014-06-25
US8878913B2 (en) 2014-11-04
CN102783159B (zh) 2015-06-17
KR20120039505A (ko) 2012-04-25
KR20120042711A (ko) 2012-05-03

Similar Documents

Publication Publication Date Title
KR101295451B1 (ko) 시차 데이터 전송 및 시그널링
KR101865983B1 (ko) 표준 캡션 서비스에서의 시차 데이터 전송
US9961325B2 (en) 3D caption display method and 3D display apparatus for implementing the same
KR101819736B1 (ko) 3d 비디오 방송에서의 보조 데이터
KR20110139189A (ko) 3d 비디오 신호 처리 방법 및 이와 같은 기능을 수행하는 디지털 방송 수신기
JP5955851B2 (ja) 3d画像データの転送
US9357200B2 (en) Video processing device and video processing method
EP2524513A1 (en) Service linkage to caption disparity data transport

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160720

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170719

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180718

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190806

Year of fee payment: 7