KR20210025508A - Atsc 3.0 기반의 방송 콘텐츠 전송 장치 및 방법과, 방송 콘텐츠 수신 장치 및 방법 - Google Patents

Atsc 3.0 기반의 방송 콘텐츠 전송 장치 및 방법과, 방송 콘텐츠 수신 장치 및 방법 Download PDF

Info

Publication number
KR20210025508A
KR20210025508A KR1020200108474A KR20200108474A KR20210025508A KR 20210025508 A KR20210025508 A KR 20210025508A KR 1020200108474 A KR1020200108474 A KR 1020200108474A KR 20200108474 A KR20200108474 A KR 20200108474A KR 20210025508 A KR20210025508 A KR 20210025508A
Authority
KR
South Korea
Prior art keywords
moving
broadcast content
caption
information
data
Prior art date
Application number
KR1020200108474A
Other languages
English (en)
Other versions
KR102600762B1 (ko
Inventor
김성훈
안충현
김동호
서봉석
현창종
Original Assignee
한국전자통신연구원
서울과학기술대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원, 서울과학기술대학교 산학협력단 filed Critical 한국전자통신연구원
Priority to US17/004,318 priority Critical patent/US11368730B2/en
Publication of KR20210025508A publication Critical patent/KR20210025508A/ko
Application granted granted Critical
Publication of KR102600762B1 publication Critical patent/KR102600762B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)

Abstract

방송 콘텐츠 전송 방법이 개시된다. 본 개시의 일 실시 예에 따른 방송 콘텐츠 전송 방법은 움직이는 자막 데이터의 입력을 확인하는 과정과, 방송 서비스 시스템에서 정의하는 시그널링 및 디스크립션에 기초하여, 상기 움직이는 자막 데이터에 대한 시그널링 정보를 구성하는 과정과, 상기 움직이는 자막 데이터에 대한 시그널링 정보를 삽입한 방송 콘텐츠 데이터를 구성하는 과정과, 상기 움직이는 자막 데이터에 대한 시그널링 정보를 삽입한 방송 콘텐츠 데이터를 전송하는 과정을 포함할 수 있다.

Description

ATSC 3.0 기반의 방송 콘텐츠 전송 장치 및 방법과, 방송 콘텐츠 수신 장치 및 방법{APPARATUS AND METHOD FOR TRANSMITTING BROADCASTING CONTENT BASED ON ATSC 3.0, AND APPARATUS AND METHOD FOR RECEIVING BROADCASTING CONTENT BASED ON ATSC 3.0}
본 개시는 ATSC 3.0 기반의 차세대 지상파 방송 시스템에 관한 것이며, 보다 구체적으로는 차세대 지상파 방송 시스템에서 움직이는 이미지 자막 정보를 송수신하는 방법 및 장치에 대한 것이다.
휴대기기의 발전에 따라, 모바일 기기에서도 방송의 송/수신이 가능하게 되었다. 따라서, 모바일 방송 환경에 적합한 방송 신호 송신 시스템이 구축되고 있다.
방송 신호 송신 시스템은 기본적으로 방송 콘텐츠에 포함된 자막을 전송하기 위한 구성을 포함하고 있으며, 방송 콘텐츠에 포함된 자막을 전송하기 시그널링이나 디스크립션을 정의하고 있다.
그러나, 일반적으로 방송 콘텐츠에 포함된 자막은 텍스트 형태의 데이터만을 포함하고 있어, 다양한 형태의 자막 데이터를 전송하지 못하는 문제가 있다.
모바일 방송 시스템, 특히, ATSC 3.0에서는 이미지 형태의 자막을 전송하는 구성을 포함하고 있지만, 이미지 형태의 자막은 방송 콘텐츠내 특정상황 Scene 등에 대한 상황설명 또는 출연 배우 등의 감정 및 감성표현 정보를 충분히 반영하지 못하는 문제가 있다.
본 개시의 기술적 과제는 ATSC 3.0에서 사용되는 시그널링 및 디스크립션을 사용하여 움직이는 이미지 자막 서비스 제공하는 제공할 수 있는 방송 콘텐츠 전송 장치 및 방법과, 방송 콘텐츠 수신 장치 및 방법을 제공하는데 있다.
본 개시의 다른 기술적 과제는 기존 자막파일 표준의 이미지 규격과 호환성 유지가 가능한 움직이는 이미지 파일 전송을 통해 시청자에게 움직이는 이미지 자막 서비스를 제공할 수 있는 방송 콘텐츠 전송 장치 및 방법과, 방송 콘텐츠 수신 장치 및 방법을 제공하는데 있다.
본 개시의 또 다른 기술적 과제는 움직이는 이미지 파일 전송을 통해 감정표현 및 상황설명을 정확하게 전달할 수 있는 방송 콘텐츠 전송 장치 및 방법과, 방송 콘텐츠 수신 장치 및 방법을 제공하는데 있다.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시의 일 양상에 따르면 방송 콘텐츠 전송 방법이 제공될 수 있다. 상기 방법은 움직이는 자막 데이터의 입력을 확인하는 과정과, 방송 서비스 시스템에서 정의하는 시그널링 및 디스크립션에 기초하여, 상기 움직이는 자막 데이터에 대한 시그널링 정보를 구성하는 과정과, 상기 움직이는 자막 데이터에 대한 시그널링 정보를 삽입한 방송 콘텐츠 데이터를 구성하는 과정과, 상기 움직이는 자막 데이터에 대한 시그널링 정보를 삽입한 방송 콘텐츠 데이터를 전송하는 과정을 포함할 수 있다.
본 개시의 다른 양상에 따르면 방송 콘텐츠 전송 장치가 제공될 수 있다. 상기 장치는 적어도 하나의 프로세서 및 적어도 하나의 저장매체를 포함하는 방송 콘텐츠 전송 장치에 있어서, 상기 적어도 하나의 프로세서는, 움직이는 자막 데이터의 입력을 확인하고, 방송 서비스 시스템에서 정의하는 시그널링 및 디스크립션에 기초하여, 상기 움직이는 자막 데이터에 대한 시그널링 정보를 구성하고, 상기 움직이는 자막 데이터에 대한 시그널링 정보를 삽입한 방송 콘텐츠 데이터를 구성하고, 상기 움직이는 자막 데이터에 대한 시그널링 정보를 삽입한 방송 콘텐츠 데이터를 전송하는 동작을 포함하여 수행할 수 있다.
본 개시의 또 다른 양상에 따르면 방송 콘텐츠 수신 방법이 제공될 수 있다. 상기 방법은 방송 서비스 시스템에서 정의하는 시그널링 및 디스크립션에 기초하여, 상기 움직이는 자막 데이터에 대한 시그널링 정보를 확인하는 과정과, 상기 움직이는 자막 데이터에 대한 시그널링 정보에 기초하여, 상기 움직이는 자막 데이터를 확인하는 과정과, 상기 방송 콘텐츠 및 상기 움직이는 자막 데이터를 재생하는 과정을 포함할 수 있다.
본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.
본 개시에 따르면, ATSC 3.0에서 사용되는 시그널링 및 디스크립션을 사용하여 움직이는 이미지 자막 서비스 제공하는 제공할 수 있는 방송 콘텐츠 전송 장치 및 방법과, 방송 콘텐츠 수신 장치 및 방법이 제공될 수 있다.
또한, 본 개시에 따르면, 기존 자막파일 표준의 이미지 규격과 호환성 유지가 가능한 움직이는 이미지 파일 전송을 통해 시청자에게 움직이는 이미지 자막 서비스를 제공할 수 있는 방송 콘텐츠 전송 장치 및 방법과, 방송 콘텐츠 수신 장치 및 방법이 제공될 수 있다.
또한, 본 개시에 따르면, 움직이는 이미지 파일 전송을 통해 감정표현 및 상황설명을 정확하게 전달할 수 있는 방송 콘텐츠 전송 장치 및 방법과, 방송 콘텐츠 수신 장치 및 방법이 제공될 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은, 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치가 적용되는 방송 시스템의 일 예시도이다.
도 2a는 도 1의 방송 시스템에서 사용되는 IP 전송 방식의 프로토콜 스택을 예시하는 도면이다.
도 2b는 도 1의 방송 시스템에서 사용되는 ROUTE 상세 시그널링 정보를 예시하는 도면이다.
도 2c는 도 1의 방송 시스템에서 사용되는 MMT 상세 시그널링 정보를 예시하는 도면이다.
도 3a는, 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치에 사용되는 DASH의 구조를 예시하는 도면이다.
도 3b 및 도 3c는, 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치에 사용되는 DASH의 구조를 예시하는 도면이다.
도 4는 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치에 사용되는 MPD를 예시하는 도면이다.
도 5a는 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치에 사용되는 USBD를 예시하는 도면이다.
도 5b는 도 5a의 USBD에 사용되는 요소의 속성을 정의하는 디스크립션(Discription)을 예시하는 도면이다.
도 6a는 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치에 사용되는 MMT 상세 시그널링을 예시하는 도면이다.
도 6b는 도 6a의 MMT 상세 시그널링에 사용되는 요소의 속성을 정의하는 디스크립션(Discription)을 예시하는 도면이다.
도 7a는 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치에 사용되는caption_asset_descriptor에 대한 신텍스를 예시하는 도면이다.
도 7b는 도 7a의 신텍스에 caption_asset_descriptor의 속성을 예시하는 도면이다.
도 8은 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치에 사용되는 감정표현 태그(tag)를 예시하는 도면이다.
도 9는, 본 개시의 일 실시예에 따른 방송 콘텐츠 수신 장치의 세부 구성을 예시하는 도면이다.
도 10은 도 9에 구비된 브라우저의 상세 동작을 예시하는 도면이다.
도 11은 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치, 방송 콘텐츠 수신 장치, 방송 콘텐츠 전송 방법, 및 방송 콘텐츠 수신 방법을 실행하는 컴퓨팅 시스템을 예시하는 블록도이다.
이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다.
본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다.
이하, 첨부한 도면을 참조하여 본 개시의 실시 예들에 대해서 설명한다.
도 1은, 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치가 적용되는 방송 시스템의 일 예시도이다.
도 1을 참조하면, 방송 시스템(1)은, DASH 서버(10), 방송 서버(20), 통신 서버(30), 및 방송 콘텐츠 수신 장치(40)를 포함한다.
DASH 서버(10)는, MPEG-DASH(Dynamic Adaptive Streaming over HTTP)에 대응하는 서비스를 제공하는 서버이다. 여기서, MPEG-DASH는, OTT-V(Over The Top Video)에 따른 스트리밍 배신 규격으로서, HTTP(Hypertext Transfer Protocol)를 베이스로 한 스트리밍 프로토콜을 사용한 어댑티브 스트리밍 전송에 관한 규격을 포함할 수 있다.
MPEG-DASH의 규격에서는, 동영상이나 음성의 파일 관리 정보인 메타데이터를 기술(記述)하기 위한 매니페스트 파일과, 동영상의 콘텐츠를 전송하기 위한 파일 포맷이 규정되어 있다. 이때, 매니페스트 파일은, "MPD(Media Presentation Description)"로 지칭할 수 있다. 또한, 동영상의 콘텐츠를 전송하기 위한 파일 포맷은, "세그먼트 포맷"으로 지칭할 수 있다.
DASH 서버(10)는, 프로그램의 콘텐츠 세그먼트(이하, 'DASH 세그먼트'라고도 함)의 파일을 생성하고, 방송 서버(20) 또는 통신 서버(30)에 전송할 수 있다. 또한, DASH 서버(10)는, MPD 메타데이터를 생성하고, 방송 서버(20) 또는 통신 서버(30)에 전송할 수 있다.
또한, DASH 서버(10)는, 애플리케이션을 생성하고, 방송 서버(20) 또는 통신 서버(30)에 전송한다. 예컨대, 애플리케이션은 스크립트(Script)를 실행 가능한 스크립트 애플리케이션을 포함할 수 있따. 또한, 스크립트 애플리케이션은, 예를 들어 HTML5(HyperText Markup Language 5) 등의 마크업 언어나, JavaScript(등록상표) 등의 스크립트 언어로 개발된 애플리케이션을 포함할 수 있다.
방송 서버(20)는, ATSC 3.0 등의 디지털 방송의 규격에 준거한 데이터 전송을 행하는 것이 가능한 송신기이다. 방송 서버(20)는, DASH 서버(10)로부터 수신되는 DASH 세그먼트, MPD 메타데이터, 애플리케이션의 파일을 처리하고, 시그널링과 함께, 전송로(80)를 통해 전송할 수 있다.
또한, 방송 서버(20)에는, NRT 콘텐츠가 입력된다. NRT 콘텐츠는, NRT(Non Real Time) 방송에 의해 전송되는 콘텐츠로서, 방송 콘텐츠 수신 장치(40)의 스토리지에 일단 축적된 후에 재생될 수 있다. 방송 서버(20)는, NRT 콘텐츠의 파일을 처리하고, 전송로(80)를 통해 전송할 수 있다.
통신 서버(30)는, 인터넷(90)에 접속된 방송 콘텐츠 수신 장치(40)로부터의 요구에 응답하여, 인터넷(90)을 통해 각종 데이터를 제공하는 서버이다. 통신 서버(30)는, DASH 서버(10)로부터 수신되는 DASH 세그먼트, MPD 메타데이터, 애플리케이션의 파일을 처리한다. 그리고, 통신 서버(30)는, 방송 콘텐츠 수신 장치(40)로부터의 요구에 응답하여, 인터넷(90)을 통해 각종 파일을 전송한다.
방송 콘텐츠 수신 장치(40)는, ATSC 3.0 등의 디지털 방송의 규격에 준거한 전송 데이터를 수신 가능한 수신기이다. 예를 들어, 방송 콘텐츠 수신 장치(40)는, 텔레비전 수상기나 셋톱 박스 등의 고정 수신기, 혹은 스마트폰이나 휴대 전화기, 태블릿형 컴퓨터 등의 모바일 수신기이다. 다른 예로서, 방송 콘텐츠 수신 장치(40)는 차량용 TV 등과 같이 자동차에 탑재되는 전자기기를 포함할 수 있다.
방송 콘텐츠 수신 장치(40)는, 방송 서버(20)로부터 전송로(80)를 통해 수신되는 DASH 세그먼트, 시그널링, MPD 메타데이터, 애플리케이션, NRT 콘텐츠 등의 파일을 수신하여 처리함으로써, 영상이나 음성을 포함하는 방송 프로그램 또는 콘텐츠를 출력한다.
또한, 방송 콘텐츠 수신 장치(40)는, 통신 기능을 갖는 경우, 인터넷(90)을 통해 통신 서버(30)에 액세스하고, 각종 파일을 취득할 수 있다. 예를 들어, 방송 콘텐츠 수신 장치(40)는, 통신 서버(30)로부터 인터넷(90)을 통해 수신(적응적으로 스트리밍 방식으로 수신)되는, DASH 세그먼트, MPD 메타데이터 등의 파일을 처리함으로써, VOD(Video On Demand) 프로그램이나 광고 등의 콘텐츠의 영상이나 음성을 출력한다.
또한, 방송 시스템(1)에 있어서, 전송로(80)는, 지상파(지상파 방송) 외에, 예를 들어 방송위성(BS: Broadcasting Satellite)이나 통신위성(CS: Communications Satellite)을 이용한 위성 방송, 혹은 케이블을 사용한 유선 방송(CATV) 등을 포함할 수 있다.
도 2a는 도 1의 방송 시스템에서 사용되는 IP 전송 방식의 프로토콜 스택을 예시하는 도면이다.
도 2a에 있어서, 가장 하위의 계층은, 물리층(Physical Layer)일 수 있다. ATSC 3.0 등의 IP 전송 방식의 디지털 방송에서는, 일방향의 방송을 이용한 전송으로 한정되지 않고, 일부의 데이터를, 쌍방향의 통신을 이용하여 전송하는 경우가 있지만, 방송을 이용하는 경우, 그 물리층(Broadcast)은, 서비스(채널)를 위해 할당된 방송파의 주파수 대역이 대응하게 된다.
물리층(Broadcast)의 상위의 계층으로서, IP층이 포함될 수 있다. IP층은, 통신의 계층 모델에 있어서의 네트워크층에 상당하는 것이며, IP 어드레스에 의해 IP 패킷이 특정된다. IP층에 인접하는 상위 계층으로서, UDP(User Datagram Protocol)층 및 TCP(Transmission Control Protocol)이 포함될 수 있다.
우선, UDP층의 상위의 계층으로서, ROUTE(Real-time Object Delivery over Unidirectional Transport) 또는 MMTP(MPEG Media Transport Protocol)가 포함될 수 있다.
또한, UDP층의 상위의 계층, 즉 UDP 패킷을 포함하는 IP 패킷에는, SLT 메타데이터가 수록 및 전송될 수 있다. 이때, SLS 메타데이터는, 서비스의 선국에 필요한 정보(선국 정보), 및 방송 네트워크에 있어서의 스트림이나 서비스의 구성을 나타내는 기본 정보를 포함하는 LLS(Link Layer Signaling) 시그널링을 포함할 수 있다. 또한, LLS 시그널링은, SLS(Service Layer Signaling) 시그널링에 선행하여 취득되는 시그널링으로서, LLS 시그널링에 포함되는 정보에 따라 SLS 시그널링이 취득될 수 있다.
ROUTE는, 스트리밍 파일 전송용 프로토콜일 수 있다.
ROUTE에 인접하는 상위 계층으로서 ROUTE 상세 시그널링(ROUTE specific Signaling)과 NRT 콘텐츠(NRT Files)가 포함될 수 있다. 이 시그널링은, SLS 시그널링으로서, 예를 들어 USBD(User Service Bundle Description), S-TSID(Service-based Transport Session Instance Description), MPD(Media Presentation Description), AST(Application Signaling Table) 등의 메타데이터가 포함될 수 있다.
이때, USD 메타데이터는, 다른 메타데이터의 취득처 등의 정보를 포함한다. S-TSID 메타데이터는, LSID(LCT Session Instance Description)를 ATSC 3.0용으로 확장한 것으로서, ROUTE 프로토콜의 제어 정보를 포함할 수 있다. MPD 메타데이터는, 스트리밍 방식으로 전동되는 동영상이나 음성 파일의 관리 정보를 포함할 수 있다. AST는, 애플리케이션의 제어 정보를 포함할 수 있다.
특히, ROUTE 상세 시그널링은 움직이는 자막 서비스를 제공하기 위한 시그널링 정보를 포함할 수 있다. 이를 위해, ROUTE 상세 시그널링은 S-TSID(210), USBD(220), MPD(230) 등을 포함할 수 있으며, S-TSID(210), USBD(220), MPD(230) 등에 움직이는 자막 서비스에 대한 시그널링 정보 등을 수록할 수 있다.
ROUTE 상세 시그널링은 DASH를 기반으로 제공되는 시그널링 요소이기 때문에 대부분의 시그널링 요소는 MPD에 수록될 수 있다. 이때, URL 확인 및 콘텐츠 정보를 위한 USBD와 각 세그먼트가 LCT 채널에 어느 위치에서 전송되는지 정보를 제공하는 정보를 제공한다. 이때, USBD와 MPD는 각각 콘텐츠에 대한 부가 요소에 대한 정보를 수록하지만, S-TSID는 콘텐츠에 대한 정보를 부가적으로 수록하지 않는다. 따라서, 본 개시의 일 실시예에서는, ROUTE 상세 시그널링에서, USBD와 MPD에 대한 요소를 중심으로 설명한다. 한편, 본 개시의 일 실시예의 ROUTE 상세 시그널링에서, S-TSID는 ATSC 3.0 표준 스펙에서 제시하고 있는 요소를 참조한다.
NRT 콘텐츠는, ROUTE 세션을 통해 전송되는 콘텐츠의 일례이며, 예를 들어 애플리케이션이나 전자 서비스 가이드(ESG: Electronic Service Guide) 등을 포함할 수 있다. 다른 예로서, NRT 콘텐츠는 ROUTE 세션을 통해 전송될 수도 있다.
ROUTE에 인접하는 상위 계층은, DASH 세그먼트(ISO BMFF)를 포함할 수 있다. 또한, DASH 세그먼트(ISO BMFF)에 인접하는 상위 계층은, DASH 플레이어/디코더를 포함할 수 있다. 즉, 트랜스포트 프로토콜로서 ROUTE를 사용하는 경우, 방송 프로그램 등의 콘텐츠를 구성하는 서비스 컴포넌트(비디오나 오디오, 자막 등)의 스트림 데이터는, DASH 세그먼트 단위로, ROUTE 세션에 의해 전송될 수 있다. 이때, DASH 세그먼트는 ISO BMFF(ISO Base Media File Format)의 규격에 준하여 구성될 수 있다.
한편, MMTP는, 스트리밍 파일을 전송하기 위한 프로토콜이다. MMTP에 인접하는 상위 계층은, MMT 상세 시그널링(MMT specific Signaling)을 포함할 수 있다. 이 MMT 상세 시그널링(MMT specific Signaling)은, 예를 들어 USBD(User Service Bundle Description)(240)이나 MPT(MMT Package Table)(250) 등의 메타데이터를 포함할 수 있다.
특히, MMT 상세 시그널링은 움직이는 자막 서비스 제공을 위한 시그널링 정보를 포함할 수 있다. 이때, 움직이는 자막 서비스 제공을 위한 시그널링 정보 등은 USBD(240)나 MPT(250)를 통해 수록될 수 있다. 나아가, USBD(240)나 MPT(250)에 수록되는 정보는 하기의 도6a, 도 6b, 도 7a, 도 7b 등을 통해 상세히 설명한다.
또한, MMTP에 인접하는 상위 계층은, MPU(Media Processing Unit)(ISO BMFF)를 포함할 수 있다. 또한, MPU(ISO BMFF)에 인접하는 상위 계층은, DASH 플레이어/디코더로 구성될 수 있다. 즉, 트랜스포트 프로토콜로서 MMT를 사용하는 경우에는, 방송 프로그램 등의 콘텐츠를 구성하는 서비스 컴포넌트(비디오나 오디오, 자막 등)의 스트림 데이터가, MPU 단위로, MMTP 세션에 의해 전송될 수 있다. 이때, MPU는 ISO BMFF(ISO Base Media File Format)의 규격에 준하여 구성될 수 있다.
이와 같이, 도 2a의 프로토콜 스택에 있어서는, 트랜스포트 프로토콜로서, ROUTE와 MMTP가 병기되어 있기 때문에, 일방향의 방송계 스트리밍 전송시에는, DASH 세그먼트(ISO BMFF)의 파일을 전송하는 ROUTE 프로토콜이거나, 혹은 MPU(ISO BMFF)의 파일을 전송하는 MMTP 중, 어느 한쪽의 프로토콜을 사용할 수 있다.
한편, 쌍방향의 통신을 이용하는 경우, 그 물리층(Broadband)의 상위의 계층은, 네트워크층에 상당하는 IP층으로 된다. 또한, IP층에 인접하는 상위 계층은, 트랜스포트층에 상당하는 TCP(Transmission Control Protocol)층으로 되고, 또한, TCP층에 인접하는 상위 계층은, 애플리케이션층에 상당하는 HTTP층으로 구성될 수 있다. 즉, 이들 계층에 의해, 인터넷(90) 등의 네트워크에서 가동하는 TCP/IP 등의 프로토콜이 구성될 수 있다.
HTTP층에 인접하는 상위 계층은, 시그널링(All Signaling Objects)과 NRT 콘텐츠(NRT Files)를 포함할 수 있다. 이때, 시그널링(All Signaling Objects)은, 전술한 ROUTE나 MMTP에 의해 전송되는 시그널링을 포함할 수 있다. 또한, NRT 콘텐츠는, 통신 경유로 취득되는 콘텐츠를 포함할 수 있다. 다른 예로서, NRT 콘텐츠는 애플리케이션 등의 콘텐츠를 통해 전송되도록 구성될 수도 있다.
HTTP층에 인접하는 상위 계층은은, DASH 세그먼트(ISO BMFF)를 포함할 수 있으며, 이 DASH 세그먼트(ISO BMFF)에 인접하는 상위 계층은, DASH 플레이어/디코더를 포함할 수 있따. 즉, 쌍방향의 통신계의 스트리밍 전송에서는, VOD 프로그램 등의 콘텐츠를 구성하는 서비스 컴포넌트(비디오나 오디오, 자막 등)의 스트림 데이터가, DASH 세그먼트 단위로 구성 및 전송될 수 있다. 이때, DASH 세그먼트는 ISO BMFF의 규격에 준하여 구성될 수 있다.
전술한 구성에서 제시하고 있는, 일방향 방송의 ROUTE 또는 MMTP 등의 프로토콜이나, 쌍방향 통신의 TCP/IP 프로토콜 등을 사용하여, 애플리케이션(Applications)을 전송할 수 있다. 이때, 애플리케이션은, HTML5나 JS(JavaScript(등록상표)) 등에 의해 개발된 애플리케이션 등을 포함할 수 있다.
나아가, 애플리케이션에 의해, DASH 세그먼트(ISO BMFF)의 파일을 취득하는 경우, 방송 콘텐츠 수신 장치(40)에 수록된 방송 미들웨어가, HTTP 서버로서 기능할 수 있다. ROUTE층은 HTTP 프록시(HTTP Proxy)를 포함할 수 있다.
콘텐츠 보호의 시큐리티 프레임 워크로서, W3C(World Wide Web Consortium)와 MPEG(Moving Picture Experts Group)에 준거한 EME/CENC(Encrypted Media Extension/Common Encryption Scheme)가 사용될 수 있으며, 이를 고려하여, DASH 세그먼트(ISO BMFF)와, MPU(ISO BMFF)은 EME/CENC를 포함할 수 있다.
또한, LLS 시그널링으로서의 SLT 메타데이터나, SLS 시그널링으로서의 USBD, S-TSID, MPD, AST 등의 메타데이터는, XML(Extensible Markup Language) 등의 마크업 언어에 의해 기술될 수 있다.
이상과 같이, 본 기술의 IP 전송 방식의 프로토콜 스택에 있어서는, 일방향의 방송계의 계층과, 쌍방향의 통신계의 계층의 일부가 공통의 프로토콜로 되어, 일방향의 방송과 쌍방향의 통신을 통해, 콘텐츠를 구성하는 서비스 컴포넌트의 스트림 데이터를, ISO BMFF의 규격에 준한 DASH 세그먼트 단위로 전송할 수 있다. 그로 인해, 일방향의 방송계의 스트리밍 전송과, 쌍방향의 통신계의 스트리밍 전송의 양쪽을 행하는 경우에 있어서, 상위 계층의 프로토콜이 공통화되어 있기 때문에, 예를 들어 방송 서버(20)나 방송 콘텐츠 수신 장치(40)에서는, 실장의 부담이나 처리의 부담을 경감시킬 수 있다.
도 3a는, 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치에 사용되는 DASH의 구조를 예시하는 도면이다.
도 3a를 참조하면, DASH는 계층적 구조로 이루어질 수 있다. 예컨대, DASH는 컨텐츠의 구간(Period) 단위로 구성될 수 있으며, 구간(Period) 단위의 하위 단위로서 적응 셋(Adaptation Set) 단위를 구성하고, 적응 셋(Adaptation Set) 단위의 하위 단위로서 대표(Representation) 단위를 구성하고, 대표(Representation) 단위의 하위 단위로서 세그먼트(Segment) 단위를 구성할 수 있다. 이때, 구간(Period) 단위는, 콘텐츠 등의 서비스의 구성을 기술하는 단위일 수 있으며, 적응 셋(Adaptation Set) 단위와 대표(Representation) 단위는, 비디오나 오디오, 자막 등의 서비스 컴포넌트의 스트림으로 구성되는 단위일 수 있으며, 각각의 스트림의 속성을 기술하도록 구성될 수 있다.
특히, 움직이는 자막 서비스를 제공하는 단위는 콘텐츠의 성질에 따라 구분할 수 있다. 따라서, 움직이는 자막 서비스는 적응 셋(Adaptation Set) 단위에 대응하여 구성되는 것이 바람직하다. 이에 따라, DASH 구성 시, 적응 셋(Adaptation Set) 단위별로 구분하여 움직이는 자막 서비스의 속성 정보(이하, '움직이는 자막 속성 정보'라 함)를 구성하여 삽입할 수 있다.
이때, 움직이는 자막 서비스는 콘텐츠 내용의 상황을 설명하는 자막 데이터, 감정 및 감성표현 정보를 전달하기 위한 자막 데이터 등을 포함할 수 있다. 이하, 콘텐츠 내용의 상황을 설명하는 자막 서비스, 감정 및 감성표현 정보를 전달하기 위한 자막 서비스 등에 대한 정보는 '감성자막 속성 정보'라 지칭한다.
나아가, 움직이는 자막 속성 정보는 적응 셋(Adaptation Set) 단위에 후속되어 수록될 수 있다.
움직이는 자막 속성 정보는 자막의 특징을 설명하는 요소를 제시하고, Value 값에 미리 정의되어 있는 값들 중 한가지를 기록하도록 구성할 수 있다. 예컨대, 움직이는 이미지 파일인 APNG를 위해 설정되는 profile값을 "1"로 설정하여 image profile을 사용함을 기록할 수 있다.
일예로, 움직이는 자막 속성 정보는 MPD(400, 도 4a 참조)에 수록될 수 있다. 구체적으로, MPD(400)의 기본 속성정보를 수록하는 요소(401)에서, 자막의 profile을 설명하는 profile 속성(411)에 수록되는 값을 "0" 또는 "1로 설정하여 감성자막 속성 정보를 나타낼 수 있다. 예컨대, profile 속성(411)에 수록되는 값이 "0" 일 경우, Text로 구성된 자막임을 지시하고, profile 속성(411)에 수록되는 값이 "1" 일 경우, 움직이는 이미지 파일인 APNG로 구성된 자막임을 지시할 수 있다.
APNG가 자체적으로 하위 호환을 유지하는 포맷이므로 시그널링에서 추가요소 없이 기존 시그널링을 활용하여 전송할 수 있다. 다만, 이 경우, 움직임 없는 이미지로 구성된 기존 PNG 자막만을 보내는 서비스와 다른 요소가 없어 움직이는 이미지 파일로 구성된 자막인지(또는 움직임 없는 이미지로 구성된 자막인지)를 식별할 수 없으므로, URL에 기록되는 파일 이름으로 구분할 수 있도록 파일이름 요소(413)를 추가적으로 수록할 필요가 있다. 이때, USBD에서 제공하는 Basepattern으로 URL을 확인할 수 있다.
도 5a는 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치에 사용되는 USBD를 예시하는 도면이고, 도 5b는 도 5a의 USBD에 사용되는 요소의 속성을 정의하는 디스크립션(Discription)을 예시하는 도면이다.
도 5a를 참조하면, 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치에 사용되는 USBD(500)는 ROUTE 프로토콜에 사용되는 포맷으로서, xml 파일 형태로 구성될 수 있다. USBD(500)는 방송 서비스의 전송에 대한 정보를 정의하는 요소(510)를 포함할 수 있으며, 방송 서비스를 정의하는 요소(510)는 베이스패턴(basepattern)을 정의하는 요소를 통해, 비디오, 오디오, 일반자막, 움직이는 자막(예, APNG 자막)에 대한 정보를 수록할 수 있다. 특히, 방송 서비스를 정의하는 요소(510)는 움직이는 자막(예, APNG 자막)에 대한 정보를 수록하는 요소(511)를 포함할 수 있다.
한편, 디스크립션(520)을 통해, 방송 서비스의 베이스패턴(basepattern) 정의(521)가 제공될 수 있으며, 방송 콘텐츠 수신 장치는 디스크립션(520)을 참조하여, 방송 데이터를 처리하는 동작을 수행할 수 있다. 예를 들어, 방송 콘텐츠 수신 장치는 디스크립션(520)를 기반으로, ROUTE 프로토콜에 기초한 USBD(500)에 수록된 정보 중, 방송 서비스를 정의하는 요소(520) 내의 베이스패턴(basepattern) 요소(521)를 확인할 수 있다. 이때, 방송 콘텐츠 수신 장치는 String 데이터로 지정된 파일이름 값을 확인할 수 있고, 파일이름 값이 "APNG-caption"으로 구성될 경우, 움직이는 자막이 수록되었음을 확인할 수 있다.
비록, 베이스패턴(basepattern) 요소를 "APNG-caption"으로 설정하여 움직이는 자막의 수록 여부를 표시하는 것을 예시하였으나, 본 개시가 이를 한정하는 것은 아니며, 움직이는 자막의 수록 여부를 표시하는 다양한 방법이 사용될 수 있다.
도 6a는 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치에 사용되는 MMT 상세 시그널링을 예시하는 도면이고, 도 6b는 도 6a의 MMT 상세 시그널링에 사용되는 요소의 속성을 정의하는 디스크립션(Discription)을 예시하는 도면이다.
우선, 도 6을 참조하면, 본 개시의 일 실시예에서 MMT 상세 시그널링(600)은 MMTP를 기반으로 하는 시그널링으로서, 콘텐츠의 형태와 역할을 설명하는 ComponentRole(611)과 ComponentType(612)을 수록할 수 있다. 이때, ComponentRole(611)은 콤포넌트의 역할을 설정하며, 기본, 특수효과 등의 역할을 지시하는 정보를 수록할 수 있다. 예컨대, ComponentRole(611)의 값이 "0"으로 설정될 경우, "기본" 역할을 지시하며, "1"로 설정될 경우, "특수효과" 역할을 지시한다. 그리고, ComponentType(612)은 콤포넌트 자막의 형태를 설정하며, 비디오, 오디오, 자막 등의 형태를 지시하는 정보를 수록할 수 있다. 예컨대, ComponentType(612)이 "0"으로 설정될 경우 "비디오"를 나타내며, "1"로 설정될 경우, "오디오"를 나타내며, "2"로 설정될 경우, "자막"을 나타낸다. 예컨대, 기본 자막과 움직이는 자막이 동시에 송출되는 경우, ComponentType(612)은 "2"로 설정되며, ComponentRole(611)은 "0"으로 설정된다.
도 7a는 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치에 사용되는caption_asset_descriptor에 대한 신텍스를 예시하는 도면이고, 도 7b는 도 7a의 신텍스에 caption_asset_descriptor의 속성을 예시하는 도면이다.
도 7a에 예시된는 caption_asset_descriptor에 대한 신텍스(710)는 MMTP에서 움직이는 자막의 추가 설정을 전달하기 위해 제공될 수 있다. caption_asset_descriptor에 대한 신텍스(710)는 움직이는 자막의 설정에 대해 알리는 요소들을 포함할 수 있는데, MPD에 설명되는 easyReader, ratio, profile 등의 요소(720)를 포함할 수 있다.
나아가, 움직이는 자막을 전송하기 위해서는 profile 요소에, image profile임을 알리는 값을 수록해야 한다. 이때, MMTP에서는 profile에 2bit가 할당되므로, "01" 값을 설정하여 image profile임을 의미함을 나타낼 수 있다.
한편, 본 개시의 일 실시예에 따른 방송 콘텐츠 수신 장치는 caption_asset_descriptor에 대한 신텍스(710)를 수신하더라도, Caption_asset_descriptor에서 정의하는 바를 알지 못하면, 신텍스(710)에 수록된 정보를 확인할 수 없다. 따라서, 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치는 Caption_asset_descriptor를 방송 콘텐츠 수신 장치로 전송할 필요가 있다. 이때, Caption_asset_descriptor는 mmt_atsc3_message의 페이로드인 atsc3_message_content에 수록되어 방송 콘텐츠 수신 장치로 전달될 수 있다. 나아가, atsc3_message_content_type 요소(730)의 값을 "0x0008"로 설정함으로써, Caption_asset_descriptor의 전송을 나타낼 수 있다.
도 8은 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치에 사용되는 감정표현 태그(tag)를 예시하는 도면이다.
도 8을 참조하면, 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치는 움직이는 자막을 전송하기 위해서 감정표현 태그(800)를 사용할 수도 있다. 감정표현 태그(800)는 감정표현을 위한 이미지가 자막에 포함됨을 나타내는 정보를 포함할 수 있는데, 이 정보는 div 요소(810)로 구성될 수 있다. div 요소(810)는 감정표현을 위한 이미지 파일 지시자(backgroundImage), 이미지가 표시되는 영역의 지시자(region), 이미지가 표시되는 시작지점을 지시하는 표시자(begin), 이미지가 표시되는 종료지점을 지시하는 표시자(end) 등을 포함할 수 있다.
특히, div 요소(810)는 하위 요소로서 메타데이터(820)를 포함할 수 있으며, 메타데이터(820)는 ittm:altText 요소(821)를 포함할 수 있다. 이때, ittm:altText 요소(821)는 이미지 사용이 불가할 경우, 이미지를 대체하여 표시할 텍스트를 수록할 수 있다. 또한, 메타데이터(820)는 감정표현을 나타내는 요소(Eotion)(822)를 포함할 수 있다. 감정표현을 나타내는 요소(Eotion)(822)는 String type으로 구성될 수 있다. 예컨대, 감정표현을 나타내는 요소(Eotion)의 String type은 하기의 표 1과 같이 정의할 수 있다.
String type
Happiness
Anger
Surprise
Sadness
Fear
Neutral
Disgust
Excitement
추가적으로, 감정표현을 나타내는 요소(Eotion)의 String type은 진동 전화벨 등과 같은 의성어 계열의 특정장면에 대한 상황설명을 나타내는 정보를 포함할 수 있다.전술한 바에 기초하여, 방송 콘텐츠 수신 장치는 감정표현을 나타내는 요소(Eotion)를 확인하고, 감정표현을 나타내는 요소(Eotion)를 직접적으로 출력할 수 있다.
비록, 본 개시의 일 실시예에서, 방송 콘텐츠 수신 장치는 감정표현을 나타내는 요소(Eotion)를 확인하고, 감정표현을 나타내는 요소(Eotion)를 직접적으로 출력하는 것을 예시하였으나, 본 개시가 이를 한정하는 것은 아니며 감정표현을 나타내는 요소(Eotion)에 대응하여 감정표현 정보를 출력하는 다양한 방식이 사용될 수 있다. 예컨대, 방송 콘텐츠 수신 장치는 감정표현을 나타내는 요소(Eotion)를 확인하고, 방송 콘텐츠 수신 장치에 미리 저장된 감정표현 데이터 중, 감정표현을 나타내는 요소(Eotion)에 대응되는 데이터를 추출하여 출력할 수도 있다.
도 9는, 본 개시의 일 실시예에 따른 방송 콘텐츠 수신 장치의 세부 구성을 예시하는 도면이다.
방송 콘텐츠 수신 장치(90)는, 제어부(91), 수신부(92), 방송 미들웨어(93), 로컬 캐시(91), 브라우저(95), 출력부(96), 및 통신부(97)를 포함한다.
제어부(91)는, 방송 콘텐츠 수신 장치(90)의 각 부의 동작을 제어한다.
수신부(92)는, 안테나(911)에 의해, 방송 서버(20)로부터 전송로(80)를 통해 송신되는 방송파(디지털 방송 신호)를 수신하여 처리하고, 그것에 의해 얻어지는 데이터를, 방송 미들웨어(93)에 공급한다. 또한, 수신부(92)는, 튜너 등을 포함하여 구성될 수 있다.
방송 미들웨어(93)는, 수신부(92)로부터 공급되는 데이터를 처리하고, 제어부(91) 또는 로컬 캐시(94)에 공급한다. 여기서, 처리 대상의 데이터 중, DASH 세그먼트, 스크립트 애플리케이션, 및 MPD 메타 데이터는, 로컬 캐시(94)에 공급된다. 또한, 시그널링은, 제어부(91)에 공급된다.
제어부(91)는, 캐시 제어부(91A) 및 재생 제어부(91B)를 포함한다. 캐시 제어부(91A)는, 방송 미들웨어(93)로부터 공급되는 시그널링이나, 브라우저(95)로부터의 요구 등에 기초하여 로컬 캐시(94)를 제어한다.
또한, 재생 제어부(91B)는, 방송 미들웨어(93)로부터 공급되는 시그널링 등에 기초하여 브라우저(95)를 제어한다.
특히, 재생 제어부(91B)는 ROUTH 프로토콜에 기반한 시그널링을 확인하고, 확인된 시그널링에 기초하여 감성자막과 관련된 데이터의 재생을 제어한다. 예컨대, 재생 제어부(91B)는 USDB에 수록된 방송 서비스를 정의하는 요소(520, 도 5a 참조) 내의 베이스패턴(basepattern) 요소(521)를 확인할 수 있다. 이때, 재생 제어부(91B)는 String 데이터로 지정된 파일이름 값을 확인할 수 있고, 파일이름 값이 "APNG-caption"으로 구성될 경우, 움직이는 자막이 수록되었음을 확인할 수 있다. 이에 대응하여, 재생 제어부(91B)는 해당 단위(예, 적응 셋(Adaptation Set) 단위)에 대한 움직이는 자막 출력을 제어할 수 있다.
다른 예로서, 재생 제어부(91B)는 MMTP에 기반한 시그널링을 확인하고, 확인된 시그널링에 기초하여 움직이는 자막과 관련된 데이터의 재생을 제어한다. 예컨대, 재생 제어부(91B)는 MMT 상세 시그널링에 수록된 ComponentRole(611, 도 6a 참조)과 ComponentType(612)에 설정된 요소값을 확인할 수 있다. 재생 제어부(91B)는 ComponentRole(611)의 값이 "0"으로 설정될 경우, "기본" 역할을 지시하며, "1"로 설정될 경우, "특수효과" 역할을 지시하는 것으로 결정할 수 있다. 그리고, 재생 제어부(91B)는, ComponentType(612)이 "0"으로 설정될 경우 "비디오"를 나타내며, "1"로 설정될 경우, "오디오"를 나타내며, "2"로 설정될 경우, "자막"을 나타내는 것으로 결정할 수 있다. 또한, 재생 제어부(91B)는 ComponentRole(611)과 ComponentType(612)에 설정된 요소값에 따라, 움직이는 자막과 관련된 데이터의 재생을 제어할 수 있다.
또 다른 예로서, 재생 제어부(91B)는 MMTP에 기반한 시그널링을 확인하되, MPD를 통해 전달되는 추가 정보를 확인할 수 있다. 재생 제어부(91B)는 MPD에 수록된 요소 중, profile 요소를 확인할 수 있으며, profile 요소가 "01" 값을 설정됨을 확인하고, 전송되는 데이터가 image profile임을 확인할 수 있다. 또한, 재생 제어부(91B)는 image profile을 사용하여 움직이는 자막과 관련된 데이터의 재생을 제어한다. 한편, 재생 제어부(91B)는 atsc3_message_content_type 요소(730)의 값에 기초하여, descriptor를 확인할 수 있으며, 확인된 descriptor를 기반으로 MPD에 수록된 정보를 확인할 수 있다.
로컬 캐시(94)는, 예를 들어 온 메모리(On Memory)나 SSD(Solid State Drive) 등의 로컬 파일 시스템상에 실현된다.
로컬 캐시(94)는, 캐시 제어부(91A)로부터의 제어에 따라서, 방송 미들웨어(93)로부터 공급되는 데이터(파일)를 캐시한다. 이 로컬 캐시(94)에는, DASH 세그먼트, 스크립트 애플리케이션, 및 MPD 메타데이터 등의 데이터가 캐시된다. 또한, 로컬 캐시(94)는, 통상 캐시(94A) 및 영속 캐시(94B)를 포함한다.
여기서, 통상 캐시(94A)는, 통상의 캐시로서, 거기에 캐시된 데이터는, 적당한 시간(그다지 길지 않은 시간)을 경과한 후에 소거된다. 한편, 영속 캐시(404B)는, 특별한 캐시로서, 거기에 캐시되는 데이터는, 우선적인 영속성을 갖고, 통상 캐시(94A)에 캐시되는 데이터보다도 오랜 시간 캐시되게 된다.
캐시 제어부(91A)는, 방송 미들웨어(93)로부터의 시그널링(에 포함되는 SLT 메타데이터, USBD 메타데이터, S-TSID 메타데이터, 또는 AST 메타데이터에 정의된 quotaDomain 속성)에, (캐시 쿼터 도메인의) 쿼터 도메인 식별자가 지정되어 있는 경우로서, 브라우저(95)(의 스크립트 실행부(95A))로부터, 대상의 DASH 세그먼트 등의 영속 캐시(94B)로의 인입 요구가 있었을 때, 대상의 DASH 세그먼트 등(의 파일)을, 통상 캐시(94A)로부터 영속 캐시(94B)에 인입한다.
이에 의해, 영속 캐시(94B)에 캐시되는 DASH 세그먼트 등의 파일군은, 쿼터 도메인 식별자에 의해 결부되어 있으므로, 동일한 캐시 쿼터 도메인에 속하는 복수의 서비스에 있어서, DASH 세그먼트 등의 파일을 공유하는 것이 가능해진다.
브라우저(95)는, HTML5나 JavaScript(등록상표) 등에 대응한 브라우저이다. 브라우저(95)는, 재생 제어부(91B)로부터의 제어에 따라서, 로컬 캐시(94)로부터 판독한 데이터(파일)를 처리한다. 브라우저(95)는, 스크립트 실행부(95A) 및 DASH 클라이언트(95B)를 포함한다.
스크립트 실행부(95A)는, JavaScript(등록상표) 등의 스크립트 언어로 기술된 스크립트를 실행할 수 있다. 예를 들어, 스크립트 실행부(95A)는, 로컬 캐시(94)(의 통상 캐시(94A) 또는 영속 캐시(94B))로부터 스크립트 애플리케이션을 판독하여, 실행할 수 있다.
또한, 스크립트 실행부(95A)는, 스크립트 애플리케이션에 기술된 CacheStorage API(Application Programming Interface)를 실행함으로써, 캐시 제어부(91A)에 의한 로컬 캐시(94)의 제어를 실행시킨다.
스크립트 실행부(95A)는, DASH 클라이언트(95B)로부터의 XLink의 해결 요구에 응답하여, 유저 프리퍼런스 등에 따른 피리어드 파일을 생성하고, DASH 클라이언트(95B)에 응답한다.
DASH 클라이언트(95B)는, 로컬 캐시(94)(의 통상 캐시(94A))로부터 MPD 메타데이터(의 파일)를 판독하여 파싱(구문 해석)한다. DASH 클라이언트(95B)는, MPD 메타데이터의 해석 결과에 따라서, 로컬 캐시(94)(의 통상 캐시(94A) 또는 영속 캐시(94B))로부터, DASH 세그먼트(의 파일)를 판독하여 재생한다.
DASH 클라이언트(95B)에 의해 재생된 DASH 세그먼트의 데이터는, 출력부(96)에 공급된다.
출력부(96)는, 재생 제어부(91B)로부터의 제어에 따라서, DASH 클라이언트(95B)로부터 공급되는 데이터를 출력한다. 이에 의해, 방송 프로그램이나 콘텐츠가 재생되고, 그 영상이나 음성이 출력되게 된다.
통신부(97)는, 제어부(91)로부터의 제어에 따라서, 인터넷을 통해 통신 서버와 데이터의 교환을 행한다. 통신부(97)에 의해 수신되는 데이터 중, DASH 세그먼트, 스크립트 애플리케이션, 및 MPD 메타데이터는, 로컬 캐시(94)에 공급된다. 또한, 시그널링은 제어부(91)에 공급된다. 이들 통신 경유로 취득된 데이터에 대한 처리는, 전술한 방송 경유로 취득된 데이터와 마찬가지이기 때문에, 그 설명은 생략한다.
도 10은 도 9에 구비된 브라우저의 상세 동작을 예시하는 도면이다.
도 10을 참조하면, 브라우저(95)는 움직이는 이미지를 포함하는 자막파일을 수신할 수 있으며(S1001), 자막 디코더가 처리가능한 요소에 따라 출력부(96)를 통해 출력되는 정보를 다르게 구성할 수 있다.
예를 들어, 브라우저(95)(또는 출력부(96))가, APNG를 디코딩할 수 있는 자막 디코더를 구비할 경우(S1002-Y), 브라우저(95)는 화면에 움직이는 이미지 자막을 출력부(96)를 통해 출력할 수 있다(S1003)
만약, 브라우저(95)(또는 출력부(96))에 구비된 자막 디코더가 APNG 자막은 지원하지 않지만(S1002-N) 기본적인 IMSC1 혹은 TTML 규격을 만족하여 PNG 디코더를 보유하고 있는 경우(S1004-Y), 브라우저(95)(또는 출력부(96))는 화면에 움직이는 이미지가 아닌 이미지의 첫 프레임만 화면에 표출할 수 있다(S1005).
다른 예로서, 브라우저(95)(또는 출력부(96))에 구비된 자막 디코더가 PNG 형태로 전송되는 이미지를 디코딩할 수 없는 경우(S1004-N), 감정표현 태그(800)의 ittm:altText 요소(821, 도 8 참조)에 수록된 문자열을 확인하고, 확인된 문자열을 출력부(96)를 통해 출력할 수 있다(S1006).
도 11은 본 개시의 일 실시예에 따른 방송 콘텐츠 전송 장치, 방송 콘텐츠 수신 장치, 방송 콘텐츠 전송 방법, 및 방송 콘텐츠 수신 방법을 실행하는 컴퓨팅 시스템을 예시하는 블록도이다.
도 11을 참조하면, 컴퓨팅 시스템(1000)은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다.
프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다.
따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.
본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.
본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.
또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.

Claims (20)

  1. 방송 콘텐츠 전송 방법에 있어서,
    움직이는 자막 데이터의 입력을 확인하는 과정과,
    방송 서비스 시스템에서 정의하는 시그널링 및 디스크립션에 기초하여, 상기 움직이는 자막 데이터에 대한 시그널링 정보를 구성하는 과정과,
    상기 움직이는 자막 데이터에 대한 시그널링 정보를 삽입한 방송 콘텐츠 데이터를 구성하는 과정과,
    상기 움직이는 자막 데이터에 대한 시그널링 정보를 삽입한 방송 콘텐츠 데이터를 전송하는 과정을 포함하는 방송 콘텐츠 전송 방법.
  2. 제1항에 있어서,
    상기 움직이는 자막 데이터에 대한 시그널링 정보를 구성하는 과정은,
    ROUTH 프로토콜에 기초하여, MPD(Media Presentation Description) 요소에 움직이는 자막 속성 정보를 수록하는 과정을 포함하는 방송 콘텐츠 전송 방법.
  3. 제2항에 있어서,
    상기 MPD(Media Presentation Description) 요소에 움직이는 자막 속성 정보를 수록하는 과정은,
    상기 MPD 요소에 포함된 프로파일(profile) 속성에 텍스트(Text)로 구성된 자막 또는 움직이는 이미지 자막을 지시하는 지시자를 수록하는 과정을 포함하는 방송 콘텐츠 전송 방법.
  4. 제1항에 있어서,
    상기 움직이는 자막 데이터에 대한 시그널링 정보를 구성하는 과정은,
    ROUTH 프로토콜에 기초하여, USBD(User Service Bundle Description) 내의 베이스패턴(basepattern)을 정의하는 요소를 사용하여, 움직이는 이미지 자막을 지시하는 지시자를 수록하는 과정을 포함하는 방송 콘텐츠 전송 방법.
  5. 제4항에 있어서,
    상기 베이스패턴(basepattern)을 정의하는 요소는,
    방송 서비스의 전송에 대한 정보를 정의하는 요소(broadcastAppService)에 구비되는 방송 콘텐츠 전송 방법.
  6. 제1항에 있어서,
    상기 움직이는 자막 데이터에 대한 시그널링 정보를 구성하는 과정은,
    MMTP(MPEG Media Transport Protocol)에 기초하여, USBD(User Service Bundle Description) 내의 콘텐츠 정보를 정의하는 요소를 사용하여, 움직이는 이미지 자막을 지시하는 지시자를 수록하는 과정을 포함하는 방송 콘텐츠 전송 방법.
  7. 제6항에 있어서,
    상기 USBD(User Service Bundle Description) 내의 콘텐츠 정보를 정의하는 요소는, 콤포넌트의 역할을 설정하는 요소(ComponentRole)를 포함하며,
    상기 콤포넌트의 역할을 설정하는 요소(ComponentRole)는 "기본" 역할을 지시하는 지시자 또는 "특수효과" 역할을 지시하는 지시자를 수록하는 방송 콘텐츠 전송 방법.
  8. 제7항에 있어서,
    상기 USBD(User Service Bundle Description) 내의 콘텐츠 정보를 정의하는 요소는, 콤포넌트 자막의 형태를 설정하는 요소(ComponentType)를 포함하며,
    상기 콤포넌트 자막의 형태를 설정하는 요소(ComponentType)는 "비디오"를 나타내는 지시자, "오디오"를 나타내는 지시자, "자막"을 나타내는 지시자 중 적어도 하나를 수록하는 방송 콘텐츠 전송 방법.
  9. 제8항에 있어서,
    상기 움직이는 자막 데이터에 대한 시그널링 정보를 구성하는 과정은,
    상기 콤포넌트 자막의 형태를 설정하는 요소(ComponentType)를 "자막"을 나타내는 지시자로 설정하는 과정과,
    상기 콤포넌트의 역할을 설정하는 요소(ComponentRole)를 ""특수효과" 역할을 지시하는 지시자로 설정하는 과정을 포함하는 방송 콘텐츠 전송 방법.
  10. 제1항에 있어서,
    상기 움직이는 자막 데이터에 대한 시그널링 정보를 구성하는 과정은,
    MMTP(MPEG Media Transport Protocol)에 기초하여, MPD(Media Presentation Description) 요소에 움직이는 자막 속성 정보를 수록하는 과정을 포함하는 방송 콘텐츠 전송 방법.
  11. 제10항에 있어서,
    상기 MPD(Media Presentation Description) 요소에 수록된 프로파일(profile)요소를 image profile임을 나타내는 지시자로 설정하는 과정을 포함하는 방송 콘텐츠 전송 방법.
  12. 제11항에 있어서,
    상기 움직이는 자막 데이터에 대한 시그널링 정보를 구성하는 과정은, Caption_asset_descriptor를 구성하는 과정을 포함하되,
    상기 Caption_asset_descriptor는 mmt_atsc3_message의 페이로드인 atsc3_message_content에 수록되는 방송 콘텐츠 전송 방법.
  13. 제12항에 있어서,
    상기 atsc3_message_content에 atsc3_message_content_type 요소의 값을 제어하여, Caption_asset_descriptor의 전송에 대한 정보를 수록하는 방송 콘텐츠 전송 방법.
  14. 제1항에 있어서,
    상기 움직이는 자막 데이터에 대한 시그널링 정보를 구성하는 과정은,
    div 요소에 움직이는 이미지 자막에 대한 정보를 수록하는 과정과,
    상기 div 요소의 하위 요소로서, 상기 이미지 자막의 재생을 대체할 텍스트 자막 요소(ittm:altText)를 수록하는 과정을 포함하는 방송 콘텐츠 전송 방법.
  15. 제14항에 있어서,
    상기 움직이는 자막 데이터에 대한 시그널링 정보를 구성하는 과정은,
    상기 div 요소의 하위 요소로서, 감정표현의 종류를 지시하는 요소(Emotion)를 수록하는 과정을 포함하는 방송 콘텐츠 전송 방법.
  16. 적어도 하나의 프로세서 및 적어도 하나의 저장매체를 포함하는 방송 콘텐츠 전송 장치에 있어서,
    상기 적어도 하나의 프로세서는,
    움직이는 자막 데이터의 입력을 확인하고,
    방송 서비스 시스템에서 정의하는 시그널링 및 디스크립션에 기초하여, 상기 움직이는 자막 데이터에 대한 시그널링 정보를 구성하고,
    상기 움직이는 자막 데이터에 대한 시그널링 정보를 삽입한 방송 콘텐츠 데이터를 구성하고,
    상기 움직이는 자막 데이터에 대한 시그널링 정보를 삽입한 방송 콘텐츠 데이터를 전송하는 동작을 포함하여 수행하는 방송 콘텐츠 전송 장치.
  17. 방송 콘텐츠 수신 방법에 있어서,
    방송 서비스 시스템에서 정의하는 시그널링 및 디스크립션에 기초하여, 상기 움직이는 자막 데이터에 대한 시그널링 정보를 확인하는 과정과,
    상기 움직이는 자막 데이터에 대한 시그널링 정보에 기초하여, 상기 움직이는 자막 데이터를 확인하는 과정과,
    상기 방송 콘텐츠 및 상기 움직이는 자막 데이터를 재생하는 과정을 포함하는 방송 콘텐츠 수신 방법.
  18. 제17항에 있어서,
    ROUTH 프로토콜에 기초하여, MPD(Media Presentation Description) 요소에 수록된 움직이는 자막 속성 정보를 확인하는 과정을 포함하는 방송 콘텐츠 수신 방법.
  19. 제17항에 있어서,
    MMTP(MPEG Media Transport Protocol)에 기초하여, USBD(User Service Bundle Description) 내의 콘텐츠 정보를 정의하는 요소에 수록된 움직이는 자막 속성 정보를 확인하는 과정을 포함하는 방송 콘텐츠 수신 방법.
  20. 제17항에 있어서,
    MMTP(MPEG Media Transport Protocol)에 기초하여, MPD(Media Presentation Description) 요소에 수록된 움직이는 자막 속성 정보를 확인하는 과정을 포함하는 방송 콘텐츠 수신 방법.
KR1020200108474A 2019-08-27 2020-08-27 Atsc 3.0 기반의 방송 콘텐츠 전송 장치 및 방법과, 방송 콘텐츠 수신 장치 및 방법 KR102600762B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/004,318 US11368730B2 (en) 2019-08-27 2020-08-27 Apparatus and method for transmitting broadcast content based on ATSC 3.0, and apparatus and method for receiving broadcast content based ATSC 3.0

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20190105277 2019-08-27
KR1020190105277 2019-08-27
KR1020190130220 2019-10-18
KR20190130220 2019-10-18

Publications (2)

Publication Number Publication Date
KR20210025508A true KR20210025508A (ko) 2021-03-09
KR102600762B1 KR102600762B1 (ko) 2023-11-13

Family

ID=75179993

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200108474A KR102600762B1 (ko) 2019-08-27 2020-08-27 Atsc 3.0 기반의 방송 콘텐츠 전송 장치 및 방법과, 방송 콘텐츠 수신 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102600762B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130088741A (ko) * 2010-06-27 2013-08-08 엘지전자 주식회사 디지털 수신기 및 디지털 수신기에서의 캡션 데이터 처리 방법
US8782721B1 (en) * 2013-04-05 2014-07-15 Wowza Media Systems, LLC Closed captions for live streams
KR20170142993A (ko) * 2015-07-06 2017-12-28 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US20180249167A1 (en) * 2015-09-04 2018-08-30 Sharp Kabushiki Kaisha Systems and methods for signaling of video parameters and information associated with caption services

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130088741A (ko) * 2010-06-27 2013-08-08 엘지전자 주식회사 디지털 수신기 및 디지털 수신기에서의 캡션 데이터 처리 방법
US8782721B1 (en) * 2013-04-05 2014-07-15 Wowza Media Systems, LLC Closed captions for live streams
KR20170142993A (ko) * 2015-07-06 2017-12-28 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US20180249167A1 (en) * 2015-09-04 2018-08-30 Sharp Kabushiki Kaisha Systems and methods for signaling of video parameters and information associated with caption services

Also Published As

Publication number Publication date
KR102600762B1 (ko) 2023-11-13

Similar Documents

Publication Publication Date Title
US11785289B2 (en) Receiving device, transmitting device, and data processing method
KR102637023B1 (ko) 수신 장치, 송신 장치, 및 데이터 처리 방법
KR102499231B1 (ko) 수신 장치, 송신 장치 및 데이터 처리 방법
US10469919B2 (en) Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method, and broadcast signal reception method
KR102443060B1 (ko) 정보 처리 장치 및 정보 처리 방법
US10885555B2 (en) Reception apparatus, transmission apparatus, and data processing method
US11622088B2 (en) Reception apparatus, transmission apparatus, and data processing method
US11012761B1 (en) Techniques for replacement content signaling in advanced television systems committee (ATSC) 3.0 television
KR102600762B1 (ko) Atsc 3.0 기반의 방송 콘텐츠 전송 장치 및 방법과, 방송 콘텐츠 수신 장치 및 방법
US20150067749A1 (en) Method and apparatus for providing extended tv data
US11368730B2 (en) Apparatus and method for transmitting broadcast content based on ATSC 3.0, and apparatus and method for receiving broadcast content based ATSC 3.0
KR102491466B1 (ko) 수신 장치, 송신 장치, 및 데이터 처리 방법
KR102408267B1 (ko) 수신 장치, 송신 장치 및 데이터 처리 방법
US11606528B2 (en) Advanced television systems committee (ATSC) 3.0 latency-free display of content attribute
US11895345B2 (en) Obfuscating replaceable content in advanced television systems committee (ATSC) 3.0 system
KR102619590B1 (ko) 수신 장치, 송신 장치 및 데이터 처리 방법
WO2021116839A1 (en) Advanced television systems committee (atsc) 3.0 latency-free display of content attribute
JP2022183550A (ja) 受信装置、クライアント端末装置、およびプログラム
US20200053406A1 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant