KR102535290B1 - 수신 장치, 송신 장치 및 데이터 처리 방법 - Google Patents

수신 장치, 송신 장치 및 데이터 처리 방법 Download PDF

Info

Publication number
KR102535290B1
KR102535290B1 KR1020187004804A KR20187004804A KR102535290B1 KR 102535290 B1 KR102535290 B1 KR 102535290B1 KR 1020187004804 A KR1020187004804 A KR 1020187004804A KR 20187004804 A KR20187004804 A KR 20187004804A KR 102535290 B1 KR102535290 B1 KR 102535290B1
Authority
KR
South Korea
Prior art keywords
emergency information
information
emergency
video data
text
Prior art date
Application number
KR1020187004804A
Other languages
English (en)
Other versions
KR20180044903A (ko
Inventor
준 기타하라
나오히사 기타자토
야스아키 야마기시
다케토시 야마네
Original Assignee
소니그룹주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니그룹주식회사 filed Critical 소니그룹주식회사
Publication of KR20180044903A publication Critical patent/KR20180044903A/ko
Application granted granted Critical
Publication of KR102535290B1 publication Critical patent/KR102535290B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/53Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers
    • H04H20/59Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers for emergency or urgency
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/814Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts comprising emergency warnings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/28Arrangements for simultaneous broadcast of plural pieces of information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4882Data services, e.g. news ticker for displaying messages, e.g. warnings, reminders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/76Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet
    • H04H60/81Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by the transmission system itself
    • H04H60/82Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by the transmission system itself the transmission system being the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP

Abstract

본 기술은, 긴급 시에 통지되는 긴급 정보를 적절한 위치에 표시할 수 있도록 하는 수신 장치, 송신 장치 및 데이터 처리 방법에 관한 것이다. 수신 장치는, 디지털 방송 신호로 전송되는 메타데이터이며, 긴급히 고지할 필요가 있는 정보인 제1 긴급 정보와, 비압축된 비디오 데이터에 제2 긴급 정보가 삽입되어 있는지 여부를 나타냄과 함께, 제2 긴급 정보가 비압축된 비디오 데이터에 삽입되어 있는 경우에 그 화면 상의 표시 위치를 나타내는 표시 위치 정보를 포함하는 메타데이터를 취득하고, 메타데이터를 처리하여, 제2 긴급 정보가 비압축된 비디오 데이터에 삽입되어 있는 경우, 제2 긴급 정보의 화면 상의 표시 위치와 상이한 위치에, 제1 긴급 정보를 표시시킨다. 본 기술은, 예를 들어, 텔레비전 수상기에 적용할 수 있다.

Description

수신 장치, 송신 장치 및 데이터 처리 방법
본 기술은, 수신 장치, 송신 장치 및 데이터 처리 방법에 관한 것이며, 특히, 긴급 시에 통지되는 긴급 정보를 적절한 위치에 표시할 수 있도록 한 수신 장치, 송신 장치 및 데이터 처리 방법에 관한 것이다.
디지털 방송의 분야에서는, 긴급 시에 있어서, 긴급히 고지할 필요가 있는 정보인 긴급 정보를 통지하기 위한 각종 제안이 행해져 있다(예를 들어, 특허문헌 1 참조).
일본 특허 공개 제2015-104055호 공보
그런데, 긴급 시에 있어서, 복수의 방식으로 긴급 정보를 통지하는 경우에, 긴급 정보를 적절한 위치에 표시하지 못할 가능성이 있기 때문에, 긴급 정보를 적절한 위치에 표시하기 위한 제안이 요청되고 있었다.
본 기술은 이러한 상황을 감안하여 이루어진 것이며, 긴급 시에 통지되는 긴급 정보를 적절한 위치에 표시할 수 있도록 하는 것이다.
본 기술의 제1 측면의 수신 장치는, 디지털 방송 신호를 수신하는 수신부와, 상기 디지털 방송 신호로 전송되는 메타데이터이며, 긴급히 고지할 필요가 있는 정보인 제1 긴급 정보와, 비압축된 비디오 데이터에 제2 긴급 정보가 삽입되어 있는지 여부를 나타냄과 함께, 상기 제2 긴급 정보가 상기 비압축된 비디오 데이터에 삽입되어 있는 경우에 그 화면 상의 표시 위치를 나타내는 표시 위치 정보를 포함하는 상기 메타데이터를 취득하는 취득부와, 상기 메타데이터를 처리하여, 상기 제2 긴급 정보가 상기 비압축된 비디오 데이터에 삽입되어 있는 경우, 상기 제2 긴급 정보의 화면 상의 표시 위치와 상이한 위치에, 상기 제1 긴급 정보를 표시시키는 처리부를 구비하는 수신 장치이다.
본 기술의 제1 측면의 수신 장치는, 독립된 장치여도 되고, 하나의 장치를 구성하고 있는 내부 블록이어도 된다. 또한, 본 기술의 제1 측면의 데이터 처리 방법은, 상술한 본 기술의 제1 측면의 수신 장치에 대응하는 데이터 처리 방법이다.
본 기술의 제1 측면의 수신 장치 및 데이터 처리 방법에 있어서는, 디지털 방송 신호가 수신되고, 상기 디지털 방송 신호로 전송되는 메타데이터이며, 긴급히 고지할 필요가 있는 정보인 제1 긴급 정보와, 비압축된 비디오 데이터에 제2 긴급 정보가 삽입되어 있는지 여부를 나타냄과 함께, 상기 제2 긴급 정보가 상기 비압축된 비디오 데이터에 삽입되어 있는 경우에 그 화면 상의 표시 위치를 나타내는 표시 위치 정보를 포함하는 상기 메타데이터가 취득되고, 상기 메타데이터가 처리되어, 상기 제2 긴급 정보가 상기 비압축된 비디오 데이터에 삽입되어 있는 경우, 상기 제2 긴급 정보의 화면 상의 표시 위치와 상이한 위치에, 상기 제1 긴급 정보가 표시된다.
본 기술의 제2 측면의 송신 장치는, 긴급히 고지할 필요가 있는 정보인 제1 긴급 정보와, 비압축된 비디오 데이터에 제2 긴급 정보가 삽입되어 있는지 여부를 나타냄과 함께, 상기 제2 긴급 정보가 상기 비압축된 비디오 데이터에 삽입되어 있는 경우에 수신 장치의 화면 상의 표시 위치를 나타내는 표시 위치 정보를 포함하는 메타데이터를 생성하는 생성부와, 상기 메타데이터를, 디지털 방송 신호로서 송신하는 송신부를 구비하는 송신 장치이다.
본 기술의 제2 측면의 송신 장치는, 독립된 장치여도 되고, 하나의 장치를 구성하고 있는 내부 블록이어도 된다. 또한, 본 기술의 제2 측면의 데이터 처리 방법은, 상술한 본 기술의 제2 측면의 송신 장치에 대응하는 데이터 처리 방법이다.
본 기술의 제2 측면의 송신 장치 및 데이터 처리 방법에 있어서는, 긴급히 고지할 필요가 있는 정보인 제1 긴급 정보와, 비압축된 비디오 데이터에 제2 긴급 정보가 삽입되어 있는지 여부를 나타냄과 함께, 상기 제2 긴급 정보가 상기 비압축된 비디오 데이터에 삽입되어 있는 경우에 수신 장치의 화면 상의 표시 위치를 나타내는 표시 위치 정보를 포함하는 메타데이터가 생성되고, 상기 메타데이터가, 디지털 방송 신호로서 송신된다.
본 기술의 제1 측면 및 제2 측면에 의하면, 긴급 시에 통지되는 긴급 정보를 적절한 위치에 표시할 수 있다.
또한, 여기에 기재된 효과는 반드시 한정되는 것은 아니며, 본 개시 중에 기재된 어느 효과여도 된다.
도 1은 본 기술을 적용한 전송 시스템의 일 실시 형태의 구성을 도시하는 도면이다.
도 2는 IP 전송 방식의 디지털 방송을 채용한 경우의 긴급 정보의 전송 방식의 개요를 도시하는 도면이다.
도 3은 LLS 테이블의 신택스의 예를 나타내는 도면이다.
도 4는 긴급 정보의 표시예를 도시하는 도면이다.
도 5는 배너 텍스트의 표시예를 도시하는 도면이다.
도 6은 EAT 메타데이터의 신택스의 예를 나타내는 도면이다.
도 7은 전송 시스템의 각 장치의 구성예를 도시하는 도면이다.
도 8은 송신 처리의 흐름을 설명하는 흐름도이다.
도 9는 전원 오프·대기 상태 시의 수신 처리의 흐름을 설명하는 흐름도이다.
도 10은 전원 오프 상태 시의 수신 처리의 흐름을 설명하는 흐름도이다.
도 11은 방송 스트림 수신 처리의 흐름을 설명하는 흐름도이다.
도 12는 EAT 수신 처리의 흐름을 설명하는 흐름도이다.
도 13은 배너 텍스트 표시 처리의 흐름을 설명하는 흐름도이다.
도 14는 컴퓨터의 구성예를 도시하는 도면이다.
이하, 도면을 참조하면서 본 기술의 실시 형태에 대하여 설명한다. 또한, 설명은 이하의 순서로 행하는 것으로 한다.
1. 본 기술을 적용한 전송 시스템의 운용
2. 신택스의 예
3. 각 장치의 구성
4. 각 장치에서 실행되는 처리의 흐름
5. 변형예
6. 컴퓨터의 구성
<1. 본 기술을 적용한 전송 시스템의 운용>
(전송 시스템의 구성예)
도 1은, 본 기술을 적용한 전송 시스템의 일 실시 형태의 구성을 도시하는 도면이다. 또한, 시스템이란, 복수의 장치가 논리적으로 집합한 것을 말한다.
전송 시스템(1)에 있어서, 각 방송국(Broadcaster)은, 송신 장치(10)(예를 들어, 송신 장치(10-1)나 송신 장치(10-2))를 설치하고 있다. 송신 장치(10)는, 텔레비전 프로그램 등의 콘텐츠를 포함하는 방송 스트림을, 디지털 방송 신호로서 송신한다.
송신 장치(10)로부터의 디지털 방송 신호는, 전파탑(30) 등을 경유하여, 전송로(80)를 통하여 수신 장치(20)에 의하여 수신된다. 수신 장치(20)는, 고정 수신기(예를 들어, 수신 장치(20-1))나 모바일 수신기(예를 들어, 수신 장치(20-2)나 수신 장치(20-3))이다. 수신 장치(20)는, 디지털 방송 신호로부터 얻어지는 방송 스트림을 처리하여, 텔레비전 프로그램 등의 콘텐츠의 영상이나 음성을 재생한다.
또한, 도 1에 있어서, 전송 시스템(1)은, 미국에서 구축되어 있는 EAS(Emergency Alerting System)라 칭해지는 긴급 고지의 시스템에 대응하는 구성을 포함하고 있으며, 긴급 시에는, 각 방송국 등이, 수신 장치(20)에 대하여, 긴급히 고지할 필요가 있는 정보인 긴급 정보(긴급 경보 정보)을 제공(통지)하게 된다.
구체적으로는, 전송 시스템(1)에서는, 긴급 시에, 미국 연방 긴급 사태 관리청(FEMA: Federal Emergency Management Agency)이나 대통령 관저 등의 긴급 정보원으로부터 통지되는 긴급 정보원 정보(예를 들어 재해 시에 발행되는 긴급 경보 등)가, CAP 정보로 변환되어, 각 방송국(의 송신 장치(10))에 제공된다.
또한, CAP 정보는, 구조화 정보 표준 촉진 협회(OASIS: Organization for the Advancement of Structured Information Standards)에서 규정되어 있는 CAP(Common Alerting Protocol)에 준거한 것으로 된다. 즉, 미국에서는, EAS라 칭해지는 긴급 고지의 시스템이 정비되어 있으므로, 이 EAS를 이용하여, 대통령으로부터의 최우선 사항으로부터 국지적인 고지 사항까지, 다양한 레벨의 긴급 정보(CAP 정보)가, 다양한 미디어(예를 들어 방송 경유나 통신 경유 등)에 의하여 고지(통지)되게 된다.
방송국(의 송신 장치(10))은, 예를 들어, 긴급 정보원으로부터의 긴급 정보원 정보에 따른 CAP 정보를, 텔레비전 프로그램의 영상(비압축된 비디오 데이터)에 삽입하여 인코딩하거나, 또는 소정의 포맷(예를 들어, 후술하는 EAT 메타데이터)으로 변환하거나 함으로써, 긴급 정보를 생성한다. 그리고, 방송국(의 송신 장치(10))은, 생성된 긴급 정보를, 방송 에어리어 내의 다수의 수신 장치(20)(예를 들어, 수신 장치(20-1 내지 20-3))에 대하여 송신한다.
이것에 의하여, 수신 장치(20)에서는, 텔레비전 프로그램의 영상에, 긴급 정보가 중첩되어 표시되게 된다. 그 결과, 유저는, 수신 장치(20)의 화면에 표시된 긴급 정보(예를 들어 텍스트 정보)를 확인할 수 있다.
또한, 이하의 설명에서는, 수신 장치(20)의 화면에 표시되는 긴급 정보(텍스트 정보) 중, 텔레비전 프로그램 등의 콘텐츠의 영상(비압축된 비디오 데이터)에 삽입하여 인코딩된 긴급 정보를, 번드 텍스트라고 칭한다. 이 번드 텍스트는, 「Burned EA Message」 또는 「EA text」라고도 기술된다.
한편, 수신 장치(20)의 화면에 표시되는 긴급 정보(텍스트 정보) 중, CAP 정보를 소정의 포맷(예를 들어, 후술하는 EAT 메타데이터)으로 변환하여 얻어진 긴급 정보를, 배너 텍스트라 칭한다. 이 배너 텍스트는, 「banner text」라고도 기술된다.
또한, 방송국(의 송신 장치(10))은, 긴급 정보원으로부터의 긴급 정보원 정보에 따른 CAP 정보에 기초하여, 긴급 정보 애플리케이션(예를 들어, 긴급 정보에 관한 보다 상세한 정보)을 생성하여, EA 서버(40)에 제공할 수 있다. 또한, 이 긴급 정보 애플리케이션은, 「EA APP」라고도 기술된다.
수신 장치(20)는, 통신 기능을 갖고 있는 경우, 인터넷이나 휴대 전화망 등의 통신 회선(90)을 통하여 EA 서버(40)에 액세스하여, 긴급 정보 애플리케이션을 요구할 수 있다. 그리고, 수신 장치(20)는, 통신 회선(90)을 통하여 EA 서버(40)로부터 배신되는 긴급 정보 애플리케이션을 수신하여 실행할 수 있다. 이것에 의하여, 수신 장치(20)의 화면에는, 예를 들어, 긴급 정보에 관한 보다 상세한 정보가 표시되게 된다.
또한, 방송국(의 송신 장치(10))에 있어서, 긴급 정보의 생성 방법으로서는, 상술한 방법에 한정되지 않으며, 예를 들어, CAP 정보를 그대로의 형식으로 사용하는 등, 다른 생성 방법을 이용하도록 해도 된다. 또한, 긴급 정보를 생성하기 위한 정보로서의 CAP 정보는 일례이며, 긴급 정보원 정보를 다른 방식에 준거한 형식으로 변환하여 얻어지는 정보 등을 사용하여, 긴급 정보가 생성되도록 해도 된다.
그런데, 각국의 디지털 방송 규격에서는, 전송 방식으로서 MPEG2-TS(Moving Picture Experts Group phase 2-Transport Stream) 방식이 채용되고 있지만, 앞으로는, 통신의 분야에서 사용되고 있는 IP(Internet Protocol) 패킷을 디지털 방송에 사용한 IP 전송 방식을 도입함으로써, 보다 고도의 서비스를 제공하는 것이 상정되어 있다.
특히, 현재 책정이 진행되고 있는 미국의 차세대 방송 규격인 ATSC(Advanced Television Systems Committee) 3.0에서는, IP 전송 방식을 사용한 디지털 방송의 채용이 결정되어 있다. 예를 들어, 도 1의 전송 시스템(1)에 있어서, 송신 장치(10)와 수신 장치(20)는, 전송로(80)를 통하여 ATSC 3.0에 준거한 데이터 전송이 행해지도록 할 수 있다.
(IP 전송 방식의 긴급 정보의 전송 방법)
도 2는, IP 전송 방식의 디지털 방송을 채용한 경우의 긴급 정보의 전송 방식의 개요를 도시하는 도면이다.
도 2에 있어서, 좌측에 도시한 파이프도는, IP 전송 방식의 디지털 방송 시스템 파이프 모델을 도시하고 있다. 이 시스템 파이프 모델에 있어서, 소정의 주파수 대역(예를 들어 6㎒)의 방송 스트림(Broadcast Stream)에는, 하나 또는 복수의 PLP 스트림(PLP Stream)이 포함된다. 또한, 각 PLP 스트림에는, 시그널링이나 서비스마다의 스트림이 포함된다.
또한, 소정의 주파수 대역의 방송 스트림은, 브로드캐스트 스트림 ID(Broadcast Stream ID)에 의하여 식별된다. 또한, 각 PLP 스트림은, PLP ID에 의하여 식별된다. 또한, 각 서비스는, 서비스 ID(Service ID)에 의하여 식별된다.
여기서, LLS(Link Layer Signaling) 시그널링은, IP/UDP 패킷에 저장되어 전송된다. LLS 시그널링은, SLS(Service Layer Signaling) 시그널링에 선행하여 취득되는 시그널링이며, LLS 시그널링의 정보에 따라, SLS 시그널링이 취득된다.
이 LLS 시그널링으로서는, 예를 들어, SLT(Service List Table)나 RRT(Region Rating Table), EAT(Emergency Alerting Table) 등의 메타데이터가 포함된다. SLT 메타데이터는, 서비스의 선국에 필요한 정보(선국 정보) 등, 방송 네트워크에 있어서의 스트림이나 서비스의 구성을 나타내는 정보를 포함한다. RRT 메타데이터는, 레이팅에 관한 정보를 포함한다. EAT 메타데이터는, 긴급히 고지할 필요가 있는 정보인 긴급 정보(긴급 경보 정보)에 관한 정보를 포함한다.
또한, SLT나 EAT 등의 메타데이터는, XML(Extensible Markup Language) 등의 마크업 언어에 의하여 기술된다.
또한, 서비스마다의 스트림은, ROUTE(Real-Time Object Delivery over Unidirectional Transport) 세션에서 전송된다. 여기서, ROUTE란, 파일을 일 방향으로 멀티캐스트 전송하는 데 적합한 프로토콜인 FLUTE(File Delivery over Unidirectional Transport)를 확장한 프로토콜이다. 서비스마다의 스트림에서는, ROUTE 세션에 의하여, SLS 시그널링이나 컴포넌트(Component), LCC(Locally Cached Content) 콘텐츠의 스트림이 전송된다.
이 SLS 시그널링으로서는, 예를 들어, USD(User Service Description), S-TSID(Service-based Transport Session Instance Description), MPD(Media Presentation Description) 등의 메타데이터가 포함된다. USD 메타데이터는, 다른 메타데이터의 취득처 등의 정보를 포함한다. S-TSID 메타데이터는, LSID(LCT Session Instance Description)를 ATSC 3.0용으로 확장한 것이며, ROUTE 프로토콜의 제어 정보이다. MPD 메타데이터는, 컴포넌트의 스트림의 재생을 관리하기 위한 제어 정보이다.
또한, USD, S-TSID, MPD 등의 메타데이터는, XML 등의 마크업 언어에 의하여 기술된다. 또한, MPD 메타데이터는, MPEG-DASH(Dynamic Adaptive Streaming over HTTP)의 규격에 준해 있다.
컴포넌트는, 비디오나 오디오, 자막 등의 콘텐츠를 구성하는 데이터이다. 또한, LCC 콘텐츠는, 수신 장치(20)의 스토리지에 축적(다운로드)되고 나서 처리되는 콘텐츠이다. 단, LCC는, NRT(Non Real Time)라 칭해지는 경우가 있다.
또한, 설명의 간략화를 위하여 생략하고 있지만, PLP 스트림에 있어서는, 시각 정보로서의 NTP(Network Time Protocol)나, 전자 서비스 가이드로서의 ESG(Electronic Service Guide) 서비스 등의 스트림도 전송되게 된다.
도 2의 파이프도에 있어서, 방송 스트림에는, 상이한 PLP ID로 되는 2개의 PLP 스트림이 포함되어 있지만, 한쪽(도면 중의 상방) PLP 스트림은, 통상의 PLP 스트림으로 되고, 다른 쪽(도면 중의 하방) PLP 스트림은, 고(高)로버스트니스의 PLP 스트림으로 된다.
이 예에서는, 통상의 PLP 스트림으로, 서비스의 컴포넌트와 SLS 시그널링이 전송되고, 고로버스트니스의 PLP 스트림으로, LLS 시그널링과 LCC 콘텐츠의 스트림이 전송된다. 따라서, LLS 시그널링이나 LCC 콘텐츠를, 확실히 전송할 수 있다. 또한, 이 예에서는, LLS 시그널링은, 복수의 서비스에서 공통으로 사용된다.
여기서, 도면 중의 점선 L로 둘러싼 부분, 즉, LLS 시그널링을 전송하는 스트림에 주목하면, 긴급 시에 있어서, LLS 시그널링으로서의 EAT 메타데이터는, 다음과 같이 전송되게 된다.
여기서, IP 전송 방식의 프로토콜 스택에 있어서, 가장 하위 계층은, 물리층(L1: Layer1)으로 되고, 이 물리층에 인접하는 상위 계층은, 레이어 2의 계층(L2: Layer2)으로 되고, 거기에다 레이어 2의 계층에 인접하는 상위 계층은, IP층으로 되고, IP층에 인접하는 상위 계층은, UDP층으로 된다.
즉, 도 2의 우측의 프레임(패킷)의 구조도에 도시한 바와 같이, 물리층의 L1 프레임(L1 Frame)은 L1 헤더와 L1 페이로드로 구성된다. 이 L1 헤더에는, 긴급 시에 전원 오프이고, 또한, 대기 상태의 수신 장치(20)를 기동시키기 위한 웨이크업 플래그(wake-up flag)가 포함된다. 또한, L1 페이로드에는, 복수의 ALP(ATSC Link-layer Protocol) 패킷이 배치된다.
이 ALP 패킷은, 레이어 2의 계층 전송 패킷이며, 그 ALP 페이로드에, LLS 테이블이 배치된다. 즉, LLS 테이블은, IP/UDP 패킷에 포함되어 전송되기 때문에, 그 헤더로서, LLS 헤더(LLS_H) 외에, IP 헤더(IP_H)와 UDP 헤더(UDP_H)가 부가되어 있다. 또한, LLS 테이블에는, LLS 시그널링의 데이터, 즉, 이 예에서는, EAT 메타데이터가 배치된다.
여기서, 도 3에는, LLS 테이블의 신택스의 예를 나타내고 있다. 도 3의 LLS 테이블에 있어서, 8비트의 LLS_table_id에는, LLS 테이블을 식별하기 위한 LLS 테이블 ID가 지정된다. 또한, 8비트의 LLS_table_version에는, LLS 테이블의 버전이 지정된다. 또한, LLS_table_id와 LLS_table_version은, LLS 헤더에 포함된다.
또한, switch문에 의하여, LLS 테이블 ID로서, "0x01"이 지정된 경우, LLS 시그널링의 데이터로서, SLT 메타데이터가 배치되는 것을 나타내고 있다. 또한, LLS 테이블 ID로서, "0x02"가 지정된 경우에는, LLS 시그널링의 데이터로서, RRT 메타데이터가 배치되고, "0x03"이 지정된 경우에는, LLS 시그널링의 데이터로서, EAT 메타데이터가 배치되는 것을 나타내고 있다.
도 2의 설명으로 되돌아가, LLS 테이블에 포함되는 EAT 메타데이터에는, 긴급 정보에 관한 정보가 포함된다. 수신 장치(20)는, EAT 메타데이터에 배너 텍스트가 포함되는 경우, EAT 메타데이터에 기초하여, 그 배너 텍스트를 표시한다.
단, EAT 메타데이터에는, 번드 텍스트의 유무를 나타내는 요소가 있으며, 그 요소는, 번드 텍스트가 존재하는 경우, 그 번드 텍스트의 표시 위치를 나타내는 정보(표시 위치 정보)가 포함되어 있다. 이 경우, 수신 장치(20)는, 당해 EAT 메타데이터에 기초하여, 번드 텍스트(EA text)의 화면 상의 표시 위치와 상이한 위치에, 배너 텍스트(banner text)를 표시시킨다(S11).
또한, EAT 메타데이터에는, LCC 콘텐츠로서, 긴급 정보의 상세 정보(긴급 상세 정보)를 포함하는 긴급 정보 애플리케이션이 제공되는 경우, 긴급 정보 애플리케이션에 관한 정보가 포함되어 있다. 이 경우, 수신 장치(20)는, 당해 EAT 메타데이터에 기초하여, ROUTE 세션에서 전송되는 긴급 정보 애플리케이션(EA APP)을 취득하여 실행하여, 긴급 상세 정보를 표시할 수 있다(S12).
또한, EAT 메타데이터에는, EA 서버(40)에 의하여 긴급 상세 정보가 제공되는 경우, 그 EA 서버(40)의 URL(Uniform Resource Locator)을 나타내는 정보가 포함되어 있다. 이 경우, 수신 장치(20)는, 당해 EAT 메타데이터에 기초하여, 통신 회선(90)(Internet)을 통하여 EA 서버(40)에 액세스하여, 긴급 상세 정보를 요구한다(S13, S14). 그리고, 수신 장치(20)는, EA 서버(40)로부터 배신되는 긴급 상세 정보를 표시할 수 있다(S14, S13). 단, EA 서버(40)로부터 배신되는 긴급 상세 정보는, 긴급 정보 애플리케이션(EA APP)으로서 제공할 수 있다.
또한, 도 2의 예에서는, 트랜스포트층의 전송 프로토콜(트랜스포트 프로토콜)로서, ROUTE를 사용하는 경우를 설명했지만, 다른 트랜스포트 프로토콜을 사용하도록 해도 된다. 예를 들어, 현재 책정 중인 ATSC 3.0에서는, 트랜스포트 프로토콜로서, ROUTE와 MMT(MPEG Media Transport)가 병존하는 것이 상정되어 있지만, ROUTE 세션 외에, MMT 세션을 사용하여 컴포넌트나 시그널링의 스트림이 전송되도록 해도 된다.
이상과 같이, ATSC 3.0 등의 IP 전송 방식의 디지털 방송에 있어서, 트랜스포트 프로토콜로서, ROUTE 또는 MMT를 사용한 경우에, 긴급 시에, 긴급 정보원(예를 들어 미국 연방 긴급 사태 관리청(FEMA))으로부터의 긴급 정보원 정보(예를 들어 재해 시에 발행되는 긴급 경보 등)에 따른 긴급 정보를, 수신 장치(20)에 대하여 제공(통지)할 수 있다.
여기서, 긴급 정보는, 많은 수신 장치(20)가 신속히 표시하기 위한 정보와, 그 상세 정보의 2종류로 분류할 수 있는데, 전자는, 주로, 「토네이도 주의」나 「지진 주의」 등의 짧은 텍스트 정보나, 시각 장애자용의 음성 낭독 등에 의하여 제공된다. 한편, 후자는, 주로, HTML5(HyperText Markup Language 5)에 대응한 애플리케이션이나 정지 화상 등의 복수의 모노미디어 파일, 멀티미디어 파일에 의하여 제공된다.
전자에 대해서는, 상술한 바와 같이, 방송국(의 송신 장치(10))이, 텔레비전 프로그램의 영상에, 긴급 정보(텍스트 정보)를 삽입한 번드 텍스트를 전송하는 방법과, 방송국(의 송신 장치(10))이, 텔레비전 프로그램의 영상이나 음성과는 별도로 긴급 정보(텍스트 정보)를 전송하고, 수신 장치(20)가, 텔레비전 프로그램의 영상에 배너 텍스트를 중첩 표시시키는 방법이 있다. 그리고, 수신 장치(20)에서는, 번드 텍스트와 배너 텍스트 중 어느 한쪽을 표시할 뿐 아니라, 송신 장치(10)로부터, 번드 텍스트와 배너 텍스트의 양쪽을 수신했을 때는, 번드 텍스트와 배너 텍스트의 양자를 동시에 표시시키는 경우가 있다.
이 경우에, 수신 장치(20)의 화면 상에 있어서, 배너 텍스트가, 번드 텍스트의 표시를 방해하지 않고 표시되도록 할 것이 요구된다. 그래서, 본 기술에서는, EAT 메타데이터에, 번드 텍스트의 유무를 나타내고, 번드 텍스트가 있는 경우에, 그 번드 텍스트의 표시 위치 정보(배너 텍스트의 표시 금지 영역 정보)를 포함함으로써, 수신 장치(20)가, 당해 EAT 메타데이터에 포함되는 표시 위치 정보에 기초하여, 번드 텍스트의 표시 위치와 상이한 위치에, 배너 텍스트를 표시시킬 수 있도록 하고 있다.
이것에 의하여, 수신 장치(20)에서는, 번드 텍스트와 배너 텍스트를 동시에 표시할 때, 이들 긴급 정보를 적절한 위치에 표시하기 위한 제어를 행하는 것이 가능해진다. 또한, 예를 들어, 프로그램 제작자에 따라서는, 긴급 정보를 비디오 스케일링 표시가 아니라, 오버레이 표시되기를 바라는 경우 등이 상정되지만, 이러한 경우에도, 프로그램 제작자의 의도를 반영하여 긴급 정보를 표시할 수 있다. 또한, 시청자가 보기 쉬운 레이아웃으로, 긴급 정보를 제시하는 것이 가능하다. 또한, 방송국측으로서는, 긴급 정보로서, 상이한 방식으로 전송되는 번드 텍스트와 배너 텍스트의 양자를 동시에 표시시킬 수 있으므로, 긴급 정보의 전송 수단의 선택지가 늘어나게 된다. 이는, 예를 들어 현재 책정 중인 ATSC 3.0의 방송 서비스를 개시할 시에, 도입 설비나 도입 방법의 선택지가 늘어나는 것으로 이어지기 때문에, 결과적으로, 도입 비용을 낮출 수 있다는 등의 장점이 얻어지게 된다.
또한, 후자에 대해서는, ROUTE 세션에 의하여 LCC 콘텐츠로서 전송되는 긴급 정보 애플리케이션이나, EA 서버(40)로부터 배신되는 긴급 정보 애플리케이션 등에 의하여, 긴급 상세 정보가 제공되므로, 예를 들어, 수신 장치(20)는, 긴급 정보 애플리케이션을 취득함으로써, 긴급 상세 정보를 표시시킬 수 있다.
(긴급 정보의 표시예)
도 4는, 긴급 정보의 표시예를 도시하는 도면이다.
긴급 정보를 화면 상에 표시하기 위한 방식으로서는, 번드 텍스트만이 표시되는 제1 방식과, 배너 텍스트만이 표시되는 제2 방식과, 번드 텍스트와 배너 텍스트의 양자를 동시에 표시하는 제3 방식의 3개의 방식이 있다.
도 4에 있어서는, 야구 중계 프로그램의 시청 중에 긴급 정보가 통지되어, 제1 방식 내지 제3 방식 중 어느 방식에 따라, 긴급 정보가 표시되는 모습이 모식적으로 도시되어 있다.
제1 방식(1. Burned EA Message in uncompressed video)에서는, 도면 중의 상단에 도시한 바와 같이, 긴급 정보(토네이도 경보: 「Tornado Warning」)가, 야구 중계 프로그램의 영상(비압축된 비디오 데이터)에 삽입되어, 번드 텍스트로서 표시되어 있다.
제2 방식(2. banner text)에서는, 도면 중의 중단에 도시한 바와 같이, 긴급 정보(토네이도 경보: 「Tornado Warning」, 경보의 장소와 시각 정보: 「Fairfield CT. 06/30/15 13:43:00 EDT.」)가, 배너 텍스트로서 표시되어 있다. 여기서, 제2 방식의 표시 레이아웃으로서는, 오버레이 표시(overlay)와, 비디오 스케일링 표시(video scaling)의 2종류가 있다.
제2 방식에서 오버레이 표시가 채용되는 경우, 긴급 정보는, 배너 텍스트로서, 야구 중계 프로그램의 영상의 일부에 중첩되어 표시된다. 이하, 제2 방식이고, 또한, 배너 텍스트가 오버레이 표시되는 경우를, 「제2 방식 A」라고도 칭하여 설명한다.
한편, 제2 방식에서 비디오 스케일링 표시가 채용되는 경우, 야구 중계 프로그램의 영상의 가로세로 사이즈가 축소되고, 그것에 의하여 생긴 역L자형의 영역에, 긴급 정보가, 배너 텍스트로서 표시된다. 이하, 제2 방식이고, 또한, 배너 텍스트가 비디오 스케일링 표시되는 경우를, 「제2 방식 B」라고도 칭하여 설명한다.
제3 방식(3. Mixing burned EA Message and banner text)에서는, 도면 중의 하단에 도시한 바와 같이, 긴급 정보(토네이도 경보: 「Tornado Warning」)가, 야구 중계 프로그램의 영상(비압축된 비디오 데이터)에 삽입되어, 번드 텍스트로서 표시되어 있다. 또한, 제3 방식에서는, 긴급 정보(경보의 장소와 시각 정보: 「Fairfield CT. 06/30/15 13:43:00 EDT.」)가, 배너 텍스트로서 표시되어 있다.
여기서, 제3 방식의 표시 레이아웃으로서는, 제2 방식의 표시 레이아웃과 마찬가지로, 오버레이 표시(overlay)와, 비디오 스케일링 표시(video scaling)의 2종류가 있다.
제3 방식에서 오버레이 표시가 채용되는 경우, 긴급 정보(경보의 장소와 시각 정보: 「Fairfield CT. 06/30/15 13:43:00 EDT.」)는, 배너 텍스트로서, 야구 중계 프로그램의 영상의 일부에 중첩되어 표시된다. 이하, 제3 방식이고, 또한, 배너 텍스트가 오버레이 표시되는 경우를, 「제3 방식 A」라고도 칭하여 설명한다.
한편, 제3 방식에서 비디오 스케일링 표시가 채용되는 경우, 야구 중계 프로그램의 영상의 가로세로 사이즈가 축소되고, 그것에 의하여 생긴 역L자형의 영역에, 긴급 정보가, 배너 텍스트로서 표시된다. 이하, 제3 방식이고, 또한, 배너 텍스트가 비디오 스케일링 표시되는 경우를, 「제3 방식 B」라고도 칭하여 설명한다.
본 기술에서는, 수신 장치(20)에 있어서, 번드 텍스트와 배너 텍스트의 양자를 동시에 표시시키는 경우에, EAT 메타데이터에 포함되는 번드 텍스트의 표시 위치 정보(배너 텍스트의 표시 금지 영역 정보)에 기초하여, 번드 텍스트의 표시 위치와 상이한 위치에, 배너 텍스트를 표시시키도록 하고 있지만, 이러한 장면이 상정되는 것은, 제3 방식 A의 케이스이다.
또한, 배너 텍스트가, 오버레이 표시되는지, 비디오 스케일링 표시되는지를 나타내는 정보(표시 레이아웃 정보)는, EAT 메타데이터에 포함할 수 있다. 또한, 배너 텍스트의 표시 레이아웃은, 오버레이 표시와 비디오 스케일링 표시에 한정되지 않으며, 다른 표시 형태여도 된다. 또한, 상술한 제2 방식 B와 제3 방식 B의 비디오 스케일링 표시의 표시 형태는 일례이며, 역L자형에 한정되지 않고, 예를 들어, L자형등, 배너 텍스트를 표시하기 위한 영역을 확보할 수 있는 것이면, 다른 표시 형태를 채용해도 된다.
(배너 텍스트의 표시예)
도 5는, 배너 텍스트의 표시예를 도시하는 도면이다.
배너 텍스트로서는, 배너 메시지와, 배너 설명문의 2단계로 긴급 정보를 제공할 수 있다. 여기서, 배너 메시지는, 긴급 정보의 표제이며, 예를 들어, 단문으로 긴급 정보의 종류 등을 통지하기 위한 것이다. 또한, 배너 설명문은, 긴급 정보의 상세문(상세 정보)을 통지하기 위한 것이다.
또한, 배너 메시지와, 배너 설명문은, 표시 형태가 상이하도록 할 수 있다. 예를 들어, 배너 메시지를 강조하여 표시하는 한편, 배너 설명문을, 배너 메시지보다도 작은 문자로 표시하는 등의 표시 형태를 채용하는 것이 가능하다.
예를 들어, 도 5의 A에서는, 텔레비전 프로그램에, 배너 텍스트가 중첩 표시되어 있다. 이 배너 텍스트에서는, 배너 메시지로서, 긴급 정보가, 기상 정보인 것을 나타내는 표제(「Severe Thunderstorm Warning」)가 강조되어 표시되고, 배너 설명문으로서, 그 기상 정보의 상세한 내용(「The National Weather …」)이, 표제보다도 작은 문자로 표시되어 있다.
마찬가지로, 도 5의 B에서는, 예를 들어, 배너 메시지로서, 긴급 정보가, 앰버 경고(AMBER Alert)인 것을 나타내는 표제(「Child Abduction Emergency」)가 강조 표시되고, 배너 설명문으로서, 그 앰버 경고의 상세한 내용(「Civil Authorities have …」)이 표제보다도 작은 문자로 표시되어 있다.
<2. 신택스의 예>
도 6은, XML 형식의 EAT 메타데이터의 신택스의 예를 나타내는 도면이다. 또한, 도 6에 있어서, 요소와 속성 중, 속성에는 「@」이 붙여져 있다. 또한, 인덴트된 요소와 속성은, 그 상위의 요소에 대하여 지정된 것으로 된다.
도 6에 나타낸 바와 같이, 루트 요소로서의 EAT 요소는, AutomaticTuningService 요소, BurnedInMessageRegion 요소, MessageLayoutPolicy 요소 및 EaMessage 요소의 상위 요소로 된다.
AutomaticTuningService 요소에는, 수신 장치(20)를 강제적으로 기동시키는 경우에 있어서, 기동 시에 선국되는 서비스(자동 선국 서비스(ATS: Automatic Tuning Service))에 관한 정보가 지정된다.
AutomaticTuningService 요소는, broadcastStreamID 속성 및 serviceId 속성의 상위 요소로 된다. broadcastStreamID 속성에는, 자동 선국 서비스의 브로드캐스트 스트림 ID가 지정된다. serviceId 속성에는, 자동 선국 서비스의 서비스 ID가 지정된다.
BurnedInMessageRegion 요소에는, 번드 텍스트가 존재하는 경우에, 그 번드 텍스트의 표시 위치를 나타내는 정보(표시 위치 정보)가 지정된다. 여기서, BurnedInMessageRegion 요소는, 그 출현 수(Cardinality)가 "0..n"으로 되므로, 하나 또는 복수의 BurnedInMessageRegion 요소를 기술할 수 있을 뿐 아니라, BurnedInMessageRegion 요소를 기술하지 않아도 된다.
하나 또는 복수의 BurnedInMessageRegion 요소가 기술되는 경우에는, 번드 텍스트가 존재하는 것을 나타내고, 또한, 그 요소의 값으로서, 대상의 번드 텍스트의 표시 위치 정보가 지정되게 된다. 즉, 제1 방식 또는 제3 방식이 채용되는 경우에는, 하나 또는 복수의 BurnedInMessageRegion 요소가 기술된다.
한편, BurnedInMessageRegion 요소가 기술되어 있지 않은 경우에는, 번드 텍스트가 존재하지 않는 것을 나타내고 있다. 즉, 제2 방식이 채용되는 경우에는, BurnedInMessageRegion 요소가 기술되는 일은 없다.
BurnedInMessageRegion 요소는, type 속성의 상위 요소로 된다. type 속성에는, 번드 텍스트의 표시 위치의 형식을 나타내는 타입 정보가 지정된다. 이 type 속성으로서는, 예를 들어 "coordinates"나 "upper/middle/bottom"이 지정된다.
"coordinates"는, 번드 텍스트의 표시 위치가, 예를 들어, 수신 장치(20)의 화면의 좌측 상방을 원점으로 하여, XY 좌표로 표시되는 것을 나타내고 있다. 또한, "upper/middle/bottom"은, 수신 장치(20)의 화면을 수평 방향으로 3개의 영역으로 분할했을 때의 상측 영역(upper), 정중앙 영역(middle) 및 하측 영역(bottom)을 나타내고 있으며, 그 중 어느 영역을 지정함으로써, 그 지정 영역에, 번드 텍스트가 표시되는 것을 나타내고 있다.
또한, 복수의 BurnedInMessageRegion 요소가 기술되는 경우, 수신 장치(20)의 화면 상의 복수의 영역에, 번드 텍스트가 표시되게 된다. 또한, 번드 텍스트의 표시 위치를 나타내는 정보의 형식으로서는, 상술한 좌표 등에 한정되지 않으며, 번드 텍스트의 표시 위치를 특정할 수 있는 정보라면, 다른 형식을 채용하도록 해도 된다(예를 들어, 절대적인 위치나 상대적인 위치, 퍼센트 표시 등).
MessageLayoutPolicy 요소에는, 배너 텍스트의 표시 레이아웃에 관한 정보(표시 레이아웃 정보)가 지정된다. 이 MessageLayoutPolicy 요소로서는, 예를 들어 "overlay"나 "scaling"이 지정된다.
"overlay"는, 배너 텍스트가, 오버레이 표시되는 것을 나타내고 있다. 즉, 제2 방식 A 또는 제3 방식 A가 채용되는 경우, MessageLayoutPolicy 요소로서, "overlay"가 지정된다. 또한, "scaling"은, 배너 텍스트가 비디오 스케일링 표시되는 것을 나타내고 있다. 즉, 제2 방식 B 또는 제3 방식 B가 채용되는 경우, MessageLayoutPolicy 요소로서, "scaling"이 지정된다.
EaMessage 요소에는, 긴급 정보에 관한 정보가 지정된다. EaMessage 요소는, eaMessageId 속성, eaCategory 속성, EaGeolocation 요소, EaBannerMessage 요소, EaBannerDescription 요소, SpeechInfo 요소, SpeechInfoURI 요소, EaApplication 요소, EaService 요소, EaAudio 요소 및 EaWww 요소의 상위 요소로 된다.
eaMessageId 속성에는, 긴급 정보의 식별자로서, 메시지 ID가 지정된다. eaCategory 속성에는, 긴급 정보의 카테고리가 지정된다.
EaGeolocation 요소에는, 긴급 정보의 대상 지역에 관한 정보가 지정된다. EaGeolocation 요소는, type 속성의 상위 요소로 된다. type 속성에는, 긴급 정보의 대상 지역을 나타내는 정보가 지정된다. 이 type 속성으로서는, 예를 들어 "zip"이나, "latitude/longitude"가 지정된다.
"zip"은, 예를 들어 미국 우정 공사(USPS)가 사용하는 5자리 또는 9자리의 우편번호(ZIP code)에 의하여 대상 지역이 지정되는 것을 나타내고 있다. 또한, "latitude/longitude"는, 위도와 경도에 의하여 대상 지역이 지정되는 것을 나타내고 있다.
EaBannerMessage 요소에는, 긴급 정보가 배너 텍스트로서 제공되는 경우에, 그 배너 텍스트의 배너 메시지가 지정된다. 또한, 이 배너 메시지는, 도 5의 배너 메시지에 대응하고 있다.
EaBannerMessage 요소는, type 속성의 상위 요소로 된다. type 속성에는, 배너 텍스트의 배너 메시지의 종별을 나타내는 타입 정보가 지정된다. 이 type 속성으로서는, 예를 들어 "CAP"이나 "text", "EEE code", "TTML"이 지정된다.
"CAP"은, 배너 메시지로서, 긴급 정보원(EA Authority)이 발행하는 긴급 정보원 정보(긴급 경보 메시지)로서의 CAP 정보의 전부 또는 일부가 제공되는 것을 나타내고 있다. "text"는, 배너 메시지가, 텍스트 정보인 것을 나타내고 있다. "EEE code"는, 배너 메시지가, 미국 연방 통신 위원회(FCC: Federal Communications Commission)에서 규정되는 EEE 코드에 준거하고 있는 것을 나타내고 있다. "TTML"은, 배너 메시지가, TTML(Timed Text Markup Language) 형식으로 기술되어 있는 것을 나타내고 있다.
EaBannerDescription 요소에는, 긴급 정보가 배너 텍스트로서 제공되는 경우에, 그 배너 텍스트의 배너 설명문이 지정된다. 또한, 이 배너 설명문은, 도 5의 배너 설명문에 대응하고 있다.
즉, 제2 방식과 제3 방식이 채용되는 경우에, EaBannerMessage 요소로서, 배너 메시지가 기술되고, 또한, EaBannerDescription 요소로서, 배너 설명문이 기술되게 된다.
SpeechInfo 요소는, 음성 발화 메타데이터가 제공되는 경우에, 음성 발화 메타데이터의 내용 그 자체가 기술된다. 여기서, 음성 발화 메타데이터란, 긴급 정보에 대한 제작자가 의도한 대로의 음성 발화가 행해지도록 하기 위하여, 제작자가 의도하는 음성의 발화에 관한 정보이다. 예를 들어, 이 음성 발화 메타데이터의 내용은, 음성 합성 마크업 언어인 SSML(Speech Synthesis Markup Language) 형식으로 기술된다. 이 음성 발화 메타데이터를 사용하여, 시각장애자용의 음성 낭독이 행해진다.
SpeechInfo 요소는, content-type 속성 및 content-enc 속성의 상위 요소로 된다. content-type 속성에는, SpeechInfo 요소에 기술되는 음성 발화 메타데이터의 종별을 나타내는 타입 정보가 지정된다. 이 content-type 속성으로서는, 예를 들어 "SSML"이 지정된다. 또한, content-enc 속성에는, SpeechInfo 요소에 기술되는 음성 발화 메타데이터의 부호화 방식을 나타내는 정보가 지정된다. 이 content-enc 속성으로서는, 예를 들어 "zip"이 지정된다.
SpeechInfoURI 요소는, 음성 발화 메타데이터가 제공되는 경우에, 음성 발화 메타데이터를 취득하기 위한 어드레스 정보(예를 들어, URI(Uniform Resource Identifier))가 지정된다. 예를 들어, 음성 발화 메타데이터 파일이, 인터넷 등의 통신 회선(90)에 접속된 EA 서버(40)로부터 제공되는 경우, 이 EA 서버(40)에 액세스하기 위한 URL이, 어드레스 정보로서 지정된다.
SpeechInfoURI 요소는, content-type 속성 및 content-enc 속성의 상위 요소로 된다. content-type 속성에는, URI 등의 어드레스 정보를 참조함으로써 취득되는 음성 발화 메타데이터의 종별을 나타내는 타입 정보가 지정된다. 이 content-type 속성으로서는, 예를 들어 "SSML"이 지정된다. 또한, content-enc 속성에는, URI 등의 어드레스 정보를 참조함으로써 취득되는 음성 발화 메타데이터의 부호화 방식을 나타내는 정보가 지정된다. 이 content-enc 속성으로서는, 예를 들어 "zip"이 지정된다.
EaApplication 요소에는, 긴급 상세 정보를 포함하는 긴급 정보 애플리케이션이 제공되는 경우에, 그 긴급 정보 애플리케이션에 관한 정보가 지정된다. EaApplication 요소는, applicationId 속성의 상위 요소로 된다. applicationId 속성에는, 긴급 정보 애플리케이션의 애플리케이션 ID가 지정된다. 또한, 이 애플리케이션 ID는, AIT(Application Information Table) 등의 애플리케이션 제어 정보에서 관리되는 애플리케이션의 식별자에 관련지어진다.
EaService 요소에는, 긴급 상세 정보가, 긴급 정보 서비스로서 제공되는 경우에, 그 긴급 정보 서비스에 관한 정보가 지정된다. EaService 요소는, serviceId 속성의 상위 요소로 된다. serviceId 속성에는, 긴급 정보 서비스의 서비스 ID가 지정된다.
EaAudio 요소에는, 긴급 정보(긴급 상세 정보)가, 음성 정보로서, 다른 서비스와 공유되는 쉐어드 오디오의 컴포넌트에 의하여 제공되는 경우에, 그 쉐어드 오디오에 관한 정보가 지정된다. EaAudio 요소는, id 속성의 상위 요소로 된다. id 속성에는, 오디오의 컴포넌트를 식별하기 위한 컴포넌트 ID가 지정된다.
EaWww 요소에는, 긴급 상세 정보가, 인터넷 등의 통신 회선(90)에 접속된 EA 서버(40)에 의하여 제공되는 경우에, 이 EA 서버(40)에 관한 정보가 지정된다. EaWww 요소는, uri 속성의 상위 요소로 된다. uri 속성에는, 긴급 상세 정보를 제공하는 EA 서버(40)의 URL이 지정된다. 또한, EA 서버(40)는, 긴급 상세 정보로서, 긴급 정보 애플리케이션을 제공할 수 있다.
또한, 도 6에 있어서, 출현 수(Cardinality)에 관하여, "1"이 지정된 경우에는 그 요소 또는 속성은 반드시 1만 지정되고, "0..1"이 지정된 경우에는, 그 요소 또는 속성을 지정할지 여부는 임의이다. 또한, "1..n"이 지정된 경우에는, 그 요소 또는 속성은 1 이상 지정되고, "0..n"이 지정된 경우에는, 그 요소 또는 속성을 1 이상 지정할지 여부는 임의이다.
또한, Data Type으로서, "integer"이 지정된 경우에는, 그 요소 또는 속성의 값이, 정수형인 것을 나타내고, "string"이 지정된 경우에는, 그 요소 또는 속성의 값이, 문자열형인 것을 나타내고 있다. 또한, Data Type으로서, "anyURI"이 지정된 경우, 그 요소 또는 속성의 값이, anyURI 데이터형인 것을 나타내고 있다.
또한, 도 6에 나타낸 EAT 메타데이터의 신택스는, 일례이며, 예를 들어, 다른 요소나 속성을 추가하는 등, 다른 신택스를 채용해도 된다. 또한, EAT 메타데이터는, XML 형식에 한정되지 않으며, 다른 마크업 언어에 의하여 기술해도 되고, 또는 섹션 형식이어도 된다.
<3. 각 장치의 구성>
다음으로, 도 1의 전송 시스템(1)을 구성하는 각 장치의 상세한 구성에 대하여 설명한다. 여기서는, 방송국에 의하여 설치되는 송신 장치(10)의 구성과, 유저에 의하여 설치되는 수신 장치(20)의 구성을 중심으로 하여 설명한다.
도 7은, 전송 시스템(1)의 각 장치의 구성예를 도시하는 도면이다.
도 7에 있어서, 송신 장치(10)는, EA 파서(101), 라이브 콘텐츠 취득부(102), 스토리지(103), 컴포넌트 처리부(104), 시그널링 처리부(105), LCC 처리부(106), 인코더(107), 멀티플렉서(108), 변조부(109) 및 RF부(110)로 구성된다.
EA 파서(101)는, 긴급 시에, 긴급 정보원(EA Authority)으로부터 통지되는 긴급 정보원 정보로서의 CAP 정보를 취득하여, 해석한다. EA 파서(101)는, CAP 정보의 해석 결과(긴급 정보)를, 컴포넌트 처리부(104), 시그널링 처리부(105), 또는 LCC 처리부(106)에 공급한다.
라이브 콘텐츠 취득부(102)는, 컴포넌트 처리부(104)로부터의 요구에 따라, 예를 들어, 중계 장소로부터 전송로나 통신 회선을 통하여 보내져 오는 라이브 콘텐츠(예를 들어, 스포츠 중계 등의 생방송 프로그램)의 데이터를 취득하여, 컴포넌트 처리부(104)에 공급한다. 이 라이브 콘텐츠는, 비디오나 오디오, 자막 등의 컴포넌트로 구성된다.
스토리지(103)는, 예를 들어, 수록 완료된 콘텐츠(예를 들어, 드라마 등의 사전 수록 프로그램)를 축적하고 있다. 스토리지(103)는, 컴포넌트 처리부(104)로부터의 요구에 따라, 축적하고 있는 수록 완료된 콘텐츠를, 컴포넌트 처리부(104)에 공급한다. 이 수록 완료된 콘텐츠는, 비디오나 오디오, 자막 등의 컴포넌트로 구성된다.
컴포넌트 처리부(104)는, 라이브 콘텐츠 취득부(102)로부터의 라이브 콘텐츠, 또는 스토리지(103)로부터의 수록 완료된 콘텐츠를 취득하고, 취득된 콘텐츠를 구성하는 비디오나 오디오의 컴포넌트를 처리하여, 인코더(107)에 공급한다.
인코더(107)는, 컴포넌트 처리부(104)로부터 공급되는, 비디오나 오디오의 컴포넌트 데이터를, 소정의 부호화 방식에 따라 인코딩하여, 멀티플렉서(108)에 공급한다.
또한, 긴급 시에 있어서, 제1 방식 또는 제3 방식이 채용되고 있는 경우, 수신 장치(20)의 화면에, 번드 텍스트(EA Text)를 표시시키므로, EA 파서(101)로부터의 긴급 정보가, 컴포넌트 처리부(104)에 공급된다. 컴포넌트 처리부(104)는, EA 파서(101)로부터 긴급 정보가 공급된 경우, 콘텐츠(예를 들어 생방송 프로그램이나 사전 수록 프로그램)의 영상(비압축된 비디오 데이터)에, EA 파서(101)로부터의 긴급 정보(텍스트 정보)를 삽입한다. 그리고, 인코더(107)는, 소정의 부호화 방식에 따라, 긴급 정보(텍스트 정보)가 삽입된 비디오 데이터를 인코딩하게 된다.
시그널링 처리부(105)는, LLS 시그널링이나 SLS 시그널링 등의 시그널링을 생성하여, 멀티플렉서(108)에 공급한다. 예를 들어, LLS 시그널링으로서는, SLT 메타데이터 등이 생성된다. 또한, SLS 시그널링으로서는, USD, S-TSID, MPD 등의 메타데이터가 생성된다.
또한, 시그널링 처리부(105)는, 긴급 시에, EA 파서(101)로부터 긴급 정보가 공급된 경우, 긴급 정보에 따른 EAT 메타데이터를 생성하여, 멀티플렉서(108)에 공급한다. 단, 제2 방식 또는 제3 방식이 채용되고 있는 경우, 수신 장치(20)의 화면에, 배너 텍스트(banner text)를 표시시키므로, EA 파서(101)로부터의 긴급 정보에 대응하는 배너 메시지나 배너 설명문이, EAT 메타데이터에 포함된다.
LCC 처리부(106)는, LCC 콘텐츠가 제공되는 경우에, LCC 콘텐츠를 생성하여, 멀티플렉서(108)에 공급한다. 또한, LCC 처리부(106)는, 긴급 시에, EA 파서(101)로부터 긴급 정보가 공급된 경우, 당해 긴급 정보에 기초하여, 긴급 정보 애플리케이션을 생성하여, 멀티플렉서(108)에 공급한다.
멀티플렉서(108)는, 인코더(107)로부터 공급되는 컴포넌트의 스트림과, 시그널링 처리부(105)로부터 공급되는 시그널링의 스트림을 다중화하여, 다중화 스트림을 생성하여, 변조부(109)에 공급한다. 또한, 멀티플렉서(108)는, LCC 콘텐츠(긴급 정보 애플리케이션)가 제공되는 경우에는, 컴포넌트와 시그널링의 스트림에 추가하여, LCC 처리부(106)로부터 공급되는 LCC 콘텐츠(긴급 정보 애플리케이션)의 스트림을 다중화하여, 다중화 스트림을 생성한다.
변조부(109)는, 멀티플렉서(108)로부터 공급되는 다중화 스트림의 데이터에 대한 오류 정정 부호화 처리(예를 들어, BCH 부호화나 LDPC 부호화 등)나 변조 처리(예를 들어, OFDM(Orthogonal Frequency Division Multiplexing) 변조 등)을 행하고, 그 처리의 결과 얻어지는 신호를, RF부(110)에 공급한다.
RF부(110)는, 변조부(109)로부터 공급되는 신호를, RF(Radio Frequency) 신호로 변환하고, 안테나(도시하지 않음)를 통하여, IP 전송 방식의 디지털 방송 신호로서, 송신한다.
송신 장치(10)는, 이상과 같이 구성된다. 또한, 도 7에 있어서는, 설명의 사정상, 송신측의 장치가, 송신 장치(10), 즉, 하나의 장치로 구성되는 경우를 도시하고 있지만, 도 7의 블록의 각 기능을 갖는 복수의 장치를 포함하는 송신 시스템으로서 구성되도록 해도 된다. 또한, 송신 장치(10)가 통신 기능을 갖도록 함으로써, 긴급 정보 애플리케이션(EA APP)이나 음성 발화 메타데이터(SpeechInfo)가, 송신 장치(10)로부터 EA 서버(40)에 제공되도록 해도 된다.
또한, 도 7에 있어서, 수신 장치(20)는, RF부(201), 복조부(202), 처리부(203), 출력부(204) 및 통신 I/F(205)로 구성된다.
RF부(201)는, 안테나(도시하지 않음)를 통하여, IP 전송 방식의 디지털 방송 신호를 수신하고, RF신호를, IF(Intermediate Frequency) 신호로 주파수 변환하여, 복조부(202)에 공급한다. 또한, RF부(201)는, RF IC(Integrated Circuit)로서 구성된다.
복조부(202)는, RF부(201)로부터 공급되는 신호에 대한 복조 처리(예를 들어 OFDM 복조 등)를 행한다. 또한, 복조부(202)는, 복조 처리에서 얻어지는 복조 신호에 대하여, 오류 정정 복호 처리(예를 들어 LDPC 복호나 BCH 복호 등)를 실시하고, 그 처리의 결과 얻어지는 신호를, 처리부(203)에 공급한다. 또한, 복조부(202)는, 예를 들어, 복조 LSI(Large Scale Integration)로서 구성된다.
처리부(203)는, 복조부(202)로부터 공급되는 신호에 대한 처리(예를 들어 디코딩 처리 등)를 행하고, 그 처리의 결과 얻어지는 비디오나 오디오의 데이터를, 출력부(204)에 공급한다.
또한, 처리부(203)는, 예를 들어, 메인 SoC(System on Chip)로서 구성된다. 즉, 복조 LSI로서의 복조부(202)와, 메인 SoC로서의 처리부(203)는, 상이한 칩(Chip)으로서 구성되며, 소정의 인터페이스를 통하여 접속되어 있다.
처리부(203)는, FW/HW부(211), 컴포넌트 처리부(212), MW부(213) 및 브라우저(214)로 구성된다.
FW/HW부(211)는, 펌웨어(FW: Firmware) 또는 하드웨어(HW: Hardware)에 의하여 구성되며, 복조부(202)로부터의 신호에 대한 처리를 행한다. FW/HW부(211)는, 디멀티플렉서(221) 및 디코더(222)를 포함하여 구성된다.
디멀티플렉서(221)에는, 복조부(202)로부터 공급되는 신호로서, 다중화 스트림이 입력된다. 디멀티플렉서(221)는, 다중화 스트림을, 비디오나 오디오 등의 컴포넌트의 스트림과, 시그널링의 스트림으로 분리하여, 디코더(222)와, MW부(213)에 공급한다. 또한, 디멀티플렉서(221)는, 다중화 스트림에, LCC 콘텐츠(긴급 정보 애플리케이션)의 스트림이 포함되는 경우, LCC 콘텐츠(긴급 정보 애플리케이션)의 스트림을 분리하여, 브라우저(214)에 공급한다.
디코더(222)는, 디멀티플렉서(221)로부터 공급되는 컴포넌트의 스트림에 기초하여, 비디오나 오디오의 컴포넌트 데이터를 디코딩하여, 컴포넌트 처리부(212)에 공급한다.
컴포넌트 처리부(212)는, 디코더(222)로부터 공급되는 비디오나 오디오의 데이터를 처리하여, 출력부(204)에 공급한다.
단, 긴급 시에 있어서, 제1 방식 또는 제3 방식이 채용되고 있는 경우, 콘텐츠(예를 들어 생방송 프로그램이나 사전 수록 프로그램)의 영상(비압축된 비디오 데이터)에는, 긴급 정보(텍스트 정보)가 삽입되어 있으며, 이것이, 번드 텍스트(EA Text)로서 표시되게 된다.
MW부(213)는, 미들웨어(MW: Middleware)에 의하여 구성되며, 디멀티플렉서(221)로부터 공급되는 시그널링의 스트림에 대한 처리를 행한다. MW부(213)는, 파서(231) 및 필터(232)로 구성된다. 파서(231)는, 대상의 시그널링의 해석 처리를 행한다. 필터(232)는, 대상의 시그널링의 추출 처리를 행한다. 그리고, 처리부(203)에서는, MW부(213)에서 처리된 시그널링에 기초하여, 컴포넌트나 애플리케이션 등에 대한 처리가 행해진다.
단, 긴급 시에 있어서는, 송신 장치(10)로부터 EAT 메타데이터가 통지되므로, MW부(213)는, 당해 EAT 메타데이터를 취득하여, 처리하게 된다. 또한, 제2 방식 또는 제3 방식이 채용되고 있는 경우, EAT 메타데이터에 배너 메시지나 배너 설명문이 포함되어 있으며, 이것이, 배너 텍스트(banner text)로서 표시되게 된다.
브라우저(214)는, 예를 들어, HTML5에 대응한 브라우저이며, 디멀티플렉서(221)로부터 공급되는, 긴급 정보 애플리케이션을 실행한다. 이 긴급 정보 애플리케이션(EA APP)에 의하여, 예를 들어, 긴급 상세 정보가 표시되게 된다.
출력부(204)는, 컴포넌트 처리부(212)로부터 공급되는 비디오 데이터를 처리하여, 표시부(도시하지 않음)에 출력한다. 또한, 출력부(204)는, 컴포넌트 처리부(212)로부터 공급되는 오디오 데이터를 처리하여, 스피커(도시하지 않음)에 출력한다. 이것에 의하여, 표시부에서는, 생방송 프로그램이나 사전 수록 프로그램 등의 콘텐츠의 영상이 표시되고, 그 영상에 동기한 음성이, 스피커로부터 출력된다.
단, 긴급 시에 있어서, 제1 방식 또는 제3 방식이 채용되고 있는 경우, 표시부에는, 긴급 정보에 따른 번드 텍스트(EA Text)가 삽입된, 생방송 프로그램 등의 콘텐츠의 영상이 표시되게 된다. 또한, 긴급 시에 있어서, 제2 방식 또는 제3 방식이 채용되고 있는 경우, 표시부에는, 생방송 프로그램 등의 콘텐츠의 영상에, 배너 메시지나 배너 설명문을 포함하는 배너 텍스트(banner text)가 중첩 표시되게 된다. 또한, 브라우저(214)에 의하여 긴급 정보 애플리케이션(EA APP)이 실행된 경우, 그 긴급 상세 정보가 표시되게 된다.
통신 I/F(205)는, 인터넷 등의 통신 회선(90)을 통하여, EA 서버(40)와 각종 데이터를 주고받는다.
예를 들어, 통신 I/F(205)는, EAT 메타데이터의 해석 결과에 따라, 통신 회선(90)을 통하여 EA 서버(40)에 대하여, 긴급 정보 애플리케이션(EA APP)을 요구함으로써, EA 서버(40)로부터 배신되는 긴급 정보 애플리케이션(EA APP)을 수신하여, 처리부(203)의 브라우저(214)에 공급할 수 있다. 이것에 의하여, 브라우저(214)는, EA 서버(40)로부터 배신되는 긴급 정보 애플리케이션(EA APP)을 실행할 수 있다.
또한, 예를 들어, 통신 I/F(205)는, EAT 메타데이터의 해석 결과에 따라, 통신 회선(90)을 통하여 EA 서버(40)에 대하여, 음성 발화 메타데이터(SpeechInfo)를 요구함으로써, EA 서버(40)로부터 배신되는 음성 발화 메타데이터(SpeechInfo)를 수신하여, 처리부(203)의 FW/HW부(211)의 디코더(222)에 공급할 수 있다. 이것에 의하여, 디코더(222)(의 TTS 엔진)는, 음성 발화 메타데이터(SpeechInfo)에 기초하여, 긴급 정보(텍스트 정보)를 낭독할 수 있다. 또한, TTS 엔진은, 텍스트 정보로부터, 인간의 음성을 인공적으로 만들어낼 수 있는 음성 합성기(Text To Speech Synthesizer)이다.
수신 장치(20)는, 이상과 같이 구성된다. 또한, 수신 장치(20)는, 텔레비전 수상기, 셋톱 박스(STB: Set Top Box), 또는 녹화기 등의 고정 수신기 외에, 휴대 전화기, 스마트폰, 또는 태블릿 단말기 등의 모바일 수신기여도 된다. 또한, 수신 장치(20)는, 차량에 탑재되는 차량 탑재 기기여도 된다. 또한, 도 7의 수신 장치(20)의 구성에서는, 표시부와 스피커가, 외부에 설치되는 구성을 도시했지만, 표시부와 스피커는, 수신 장치(20)의 내부에 설치되도록 해도 된다.
<4. 각 장치에서 실행되는 처리의 흐름>
다음으로, 도 8 내지 도 13의 흐름도를 참조하여, 도 1의 전송 시스템(1)을 구성하는 각 장치에서 실행되는 처리의 흐름에 대하여 설명한다.
(송신 처리의 흐름)
먼저, 도 8의 흐름도를 참조하여, 도 7의 송신 장치(10)에 의하여 실행되는 송신 처리의 흐름에 대하여 설명한다.
스텝 S101에 있어서, 컴포넌트 처리부(104) 및 인코더(107)는, 컴포넌트 처리를 행한다.
이 컴포넌트 처리에서는, 라이브 콘텐츠 취득부(102)에 의하여 취득되는 라이브 콘텐츠(예를 들어 생방송 프로그램), 또는 스토리지(103)에 축적되어 있는 수록 완료된 콘텐츠(예를 들어 사전 수록 프로그램)가 취득되고, 취득된 콘텐츠를 구성하는 비디오나 오디오의 컴포넌트에 대하여, 소정의 부호화 방식에 따른 인코딩 등의 처리가 행해진다.
또한, 긴급 시에 있어서, 제1 방식 또는 제3 방식이 채용되고 있는 경우, 수신 장치(20)의 화면에, 번드 텍스트를 표시시키므로, 컴포넌트 처리에서는, 콘텐츠(예를 들어 생방송 프로그램이나 사전 수록 프로그램)의 영상(비압축된 비디오 데이터)에, EA 파서(101)로부터의 긴급 정보(텍스트 정보)를 삽입하고 나서, 인코딩이 행해진다. 또한, 제2 방식이 채용되고 있는 경우에는, 배너 텍스트만을 표시시키기 위하여, 콘텐츠의 영상에 긴급 정보를 삽입할 필요는 없다.
스텝 S102에 있어서, 시그널링 처리부(105)는, 시그널링 처리를 행한다.
이 시그널링 처리에서는, LLS 시그널링이나 SLS 시그널링 등의 시그널링이 생성되어, 처리된다.
또한, 긴급 시에 있어서, 시그널링 처리에서는, LLS 시그널링으로서, EA 파서(101)로부터의 긴급 정보에 따른 EAT 메타데이터가 생성된다.
여기서, 제1 방식이 채용되고 있는 경우, 번드 텍스트만을 표시시키므로, EAT 메타데이터에는, 배너 텍스트에 관한 정보를 기술할 필요는 없다. 또한, 제2 방식이 채용되고 있는 경우, 배너 텍스트만을 표시시키므로, EAT 메타데이터에는, 번드 텍스트에 관한 정보(예를 들어 번드 텍스트의 표시 위치 정보)를 기술할 필요는 없다. 또한, 제3 방식이 채용되고 있는 경우, EAT 메타데이터에는, 번드 텍스트의 표시 위치 정보와, 배너 텍스트의 표시 레이아웃 정보가 기술된다.
스텝 S103에 있어서, LCC 처리부(106)는, 애플리케이션 처리를 행한다.
이 애플리케이션 처리는, 예를 들어, 긴급 시이며, 긴급 정보 애플리케이션을 전송하는 경우에 실행되며, EA 파서(101)로부터의 긴급 정보에 따른 긴급 정보 애플리케이션이 생성된다.
스텝 S104에 있어서, 멀티플렉서(108)는, 다중화 스트림 생성 처리를 행한다.
이 다중화 스트림 생성 처리에서는, 스텝 S101의 처리에서 얻어지는 컴포넌트의 스트림과, 스텝 S102의 처리에서 얻어지는 시그널링의 스트림이 다중화되어, 다중화 스트림이 생성된다. 단, 긴급 시에 있어서는, 시그널링에, EAT 메타데이터가 포함된다. 또한, 긴급 정보 애플리케이션이 생성된 경우에는, 그 스트림도 다중화된다.
스텝 S105에 있어서, 변조부(109) 및 RF부(110)는, 방송 스트림 송신 처리를 행한다.
이 방송 스트림 송신 처리에서는, 스텝 S104의 처리에서 생성된 다중화 스트림이, IP 전송 방식의 디지털 방송 신호로서 송신된다.
스텝 S105의 처리가 종료되면, 도 8의 송신 처리는 종료된다.
이상, 송신 처리의 흐름에 대하여 설명하였다.
(전원 오프·대기 상태 시의 수신 처리의 흐름)
다음으로, 도 9의 흐름도를 참조하여, 도 7의 수신 장치(20)에 의하여 실행되는, 전원 오프·대기 상태 시에 있어서의 수신 처리의 흐름에 대하여 설명한다. 단, 도 9의 흐름도의 처리가 실행되는 전제로서, 수신 장치(20)가, 전원 오프이고, 또한, 대기 상태, 즉, 수신 장치(20)에 있어서, RF부(201) 및 복조부(202)만이 동작 가능한 상태인 것으로 한다.
스텝 S201에 있어서, RF부(201) 및 복조부(202)는, L1 패킷 수신 처리를 행한다.
이 L1 패킷 수신 처리에서는, 송신 장치(10)로부터의 디지털 방송 신호가 수신되고, 디지털 방송 신호로서 전송되는 L1 프레임이 취득된다.
스텝 S202에 있어서, 복조부(202)는, 스텝 S201의 처리에서 취득되는 L1 프레임의 L1 헤더에 포함되는 웨이크업 플래그(wake-up flag)를 감시한다.
스텝 S203에 있어서는, 스텝 S202의 감시 결과에 기초하여, 웨이크업 플래그가, "TRUE"인지 여부가 판정된다. 스텝 S203에 있어서, 웨이크업 플래그가, "FALSE"라고 판정된 경우, 처리는, 스텝 S201로 되돌아가, 스텝 S201 내지 S203의 처리가 반복된다.
그리고, 스텝 S203에 있어서, 웨이크업 플래그가, "TRUE"라고 판정된 경우, 처리는, 스텝 S204로 나아간다. 스텝 S204에 있어서는, 수신 장치(20)의 전원이 온된다. 이것에 의하여, 수신 장치(20)에 있어서는, 처리부(203)나 출력부(204) 등, RF부(201) 및 복조부(202) 이외의 다른 블록에 대해서도 동작 가능한 상태로 된다.
스텝 S204의 처리에 의하여, 수신 장치(20)의 모든 기능이 실행 가능해지면 처리는, 스텝 S205로 나아간다. 스텝 S205에 있어서는, 방송 스트림 수신 처리가 행해진다.
이 방송 스트림 수신 처리에서는, 시그널링에 기초하여, 비디오나 오디오의 컴포넌트가 처리되어, 콘텐츠의 영상과 음성이 재생된다. 또한, 긴급 시에 있어서는, 번드 텍스트나 배너 텍스트 등의 긴급 정보가 표시된다. 또한, 이 방송 스트림 수신 처리의 상세한 내용에 대해서는, 도 11의 흐름도를 참조하여 후술한다.
스텝 S206에 있어서는, 스텝 S205의 방송 스트림 수신 처리를 종료할지 여부가 판정된다. 스텝 S206에 있어서, 방송 스트림 수신 처리를 계속한다고 판정된 경우, 처리는, 스텝 S205로 되돌아가, 스텝 S205 내지 S206의 처리가 반복된다. 한편, 스텝 S206에 있어서, 방송 스트림 수신 처리를 종료한다고 판정된 경우, 도 9의 전원 오프·대기 상태 시에 있어서의 수신 처리는, 종료된다.
이상, 전원 오프·대기 상태 시에 있어서의 수신 처리의 흐름에 대하여 설명하였다.
(전원 오프 상태 시의 수신 처리의 흐름)
다음으로, 도 10의 흐름도를 참조하여, 도 7의 수신 장치(20)에 의하여 실행되는, 전원 오프 상태 시에 있어서의 수신 처리의 흐름에 대하여 설명한다. 단, 도 10의 흐름도의 처리가 실행되는 전제로서, 수신 장치(20)가, 전원 오프 상태, 즉, 수신 장치(20)에 있어서, 모든 기능이 실행 불가능한 상태인 것으로 한다.
스텝 S211에 있어서는, 예를 들어, 유저의 조작에 따라, 수신 장치(20)의 전원이 온된다.
스텝 S211의 처리에 의하여, 수신 장치(20)의 모든 기능이 실행 가능해지면, 처리는, 스텝 S212로 나아간다. 스텝 S212에 있어서는, 방송 스트림 수신 처리가 행해진다.
이 방송 스트림 수신 처리에서는, 시그널링에 기초하여, 비디오나 오디오의 컴포넌트가 처리되어, 콘텐츠의 영상과 음성이 재생된다. 또한, 긴급 시에 있어서는, 번드 텍스트나 배너 텍스트 등의 긴급 정보가 표시된다. 또한, 이 방송 스트림 수신 처리의 상세한 내용에 대해서는, 도 11의 흐름도를 참조하여 후술한다.
스텝 S213에 있어서는, 스텝 S212의 방송 스트림 수신 처리를 종료할지 여부가 판정된다. 스텝 S213에 있어서, 방송 스트림 수신 처리를 계속한다고 판정된 경우, 처리는, 스텝 S212로 되돌아가, 스텝 S212 내지 S213의 처리가 반복된다. 한편, 스텝 S213에 있어서, 방송 스트림 수신 처리를 종료한다고 판정된 경우, 도 10의 전원 오프 상태 시에 있어서의 수신 처리는, 종료된다.
이상, 전원 오프 상태 시에 있어서의 수신 처리의 흐름에 대하여 설명하였다.
(방송 스트림 수신 처리의 흐름)
다음으로, 도 11의 흐름도를 참조하여, 도 9의 스텝 S205의 처리 또는 도 10의 스텝 S212의 처리에 대응하는, 방송 스트림 수신 처리의 흐름에 대하여 설명한다.
스텝 S221에 있어서, 디멀티플렉서(221)는, 패킷 수신 처리를 행한다. 이 패킷 수신 처리에서는, 복조부(202)에 의하여 처리된 L1 프레임으로부터, ALP 패킷이나 IP/UDP 패킷이 처리된다.
스텝 S222에 있어서는, 스텝 S221의 처리에서 얻어지는 패킷에 기초하여, LLS 시그널링(LLS 테이블)이 취득되었는지 여부가 판정된다. 스텝 S222에 있어서, LLS 시그널링이 취득되었다고 판정된 경우, 처리는, 스텝 S223으로 나아간다.
스텝 S223에 있어서, MW부(213)는, LLS 시그널링의 종별과 버전을 판별한다. 여기서는, 상술한 도 3을 참조하여 설명한 바와 같이, LLS 테이블(의 LL 헤더)에 포함되는 LLS 테이블 ID와 LLS 테이블의 버전을 해석함으로써, LLS 시그널링의 종별과 버전이 판별된다.
스텝 S224에 있어서, MW부(213)는, 스텝 S223의 판별 결과에 기초하여, LLS 시그널링이 갱신되어 있는지 여부를 판정한다. 스텝 S224에 있어서, LLS 시그널링이 갱신되어 있다고 판정된 경우, 처리는, 스텝 S225로 나아간다.
스텝 S225에 있어서, MW부(213)는, 스텝 S223의 판별 결과에 기초하여, LLS 시그널링이, EAT 메타데이터인지 여부를 판정한다. 스텝 S225에 있어서, LLS 시그널링이 EAT 메타데이터라고 판정된 경우, 처리는, 스텝 S226으로 나아간다.
스텝 S226에 있어서는, EAT 수신 처리가 행해진다. 이 EAT 수신 처리에서는, EAT 메타데이터에 따른 긴급 정보에 관한 처리가 행해진다. 또한, 이 EAT 수신 처리의 상세한 내용에 대해서는, 도 12의 흐름도를 참조하여 후술한다.
한편, 스텝 S225에 있어서, LLS 시그널링이 EAT 메타데이터가 아니라고 판정된 경우, 처리는, 스텝 S227로 나아간다. 스텝 S227에 있어서는, 다른 LLS 시그널링 수신 처리가 행해진다. 이 LLS 시그널링 수신 처리에서는, SLT 메타데이터 등의 EAT 메타데이터 이외의 LLS 시그널링에 대한 처리가 행해진다.
또한, 스텝 S224에 있어서, LLS 시그널링이 갱신되지 않았다고 판정된 경우, LLS 시그널링에 대한 처리를 행할 필요는 없으므로, 스텝 S225 내지 S227의 처리는 스킵된다. 또한, 스텝 S226 또는 스텝 S227의 처리가 종료되면, 도 11의 방송 스트림 수신 처리는 종료되고, 처리는, 도 9의 스텝 S205 또는 도 10의 스텝 S212로 되돌아가, 그 이후의 처리가 실행된다.
또한, 스텝 S222에 있어서, LLS 시그널링이 취득되지 않았다고 판정된 경우, 처리는, 스텝 S228로 나아간다. 스텝 S228에 있어서는, 대상의 ROUTE 세션의 종별이 판정된다. 또한, 상술한 바와 같이, ATSC 3.0의 경우, 컴포넌트나 시그널링이 MMT 세션에서 전송되는 경우도 있지만, 여기서는, 설명의 간략화를 위하여, ROUTE 세션이 사용되는 경우에 대하여만 설명한다.
스텝 S228에 있어서, ROUTE 세션의 종별이, 비디오나 오디오 등의 컴포넌트라고 판정된 경우, 처리는, 스텝 S229로 나아간다. 스텝 S229 내지 S230에 있어서는, ROUTE 세션에서 전송되는 컴포넌트에 관한 처리가 행해진다.
구체적으로는, 스텝 S229에 있어서, 디코더(222) 및 컴포넌트 처리부(212)는, 컴포넌트 수신 처리를 행한다. 이 컴포넌트 수신 처리에서는, 텔레비전 프로그램 등의 콘텐츠를 구성하는 비디오나 오디오의 컴포넌트에 대하여, 소정의 복호 방식에 따른 디코딩 등의 처리가 행해진다.
스텝 S230에 있어서, 출력부(204)는, 렌더링 처리를 행한다. 이 렌더링 처리에서는, 스텝 S229의 처리 결과에 기초하여, 텔레비전 프로그램 등의 콘텐츠의 영상과 음성이 재생되어, 출력된다.
또한, 스텝 S228에 있어서, ROUTE 세션의 종별이, SLS 시그널링이라고 판정된 경우, 처리는, 스텝 S231로 나아간다. 스텝 S231 내지 S233에 있어서는, ROUTE 세션에서 전송되는 SLS 시그널링에 관한 처리가 행해진다.
구체적으로는, 스텝 S231에 있어서, MW부(213)는, SLS 시그널링 수신 해석 처리를 행한다. 이 SLS 시그널링 수신 해석 처리에서는, ROUTE 세션에서 전송되는, USD 메타데이터나 S-TSID 메타데이터 등의 SLS 시그널링이 취득되어, 해석된다.
스텝 S232에 있어서는, 스텝 S231의 해석 결과에 기초하여, SLS 시그널링이 갱신되었는지 여부가 판정된다. 스텝 S232에 있어서, SLS 시그널링이 갱신되어 있다고 판정된 경우, 처리는, 스텝 S233으로 나아간다.
스텝 S233에 있어서는, 스텝 S231의 해석 결과에 기초하여, SLS 시그널링의 갱신 내용이 반영된다. 또한, 스텝 S232에 있어서, SLS 시그널링이 갱신되지 않았다고 판정된 경우, 스텝 S233의 처리는 스킵된다.
또한, 스텝 S228에 있어서, ROUTE 세션의 종별이, LCC 콘텐츠라고 판정된 경우, 처리는, 스텝 S234로 나아간다. 스텝 S234 내지 S235에 있어서는, ROUTE 세션에서 전송되는 LCC 콘텐츠에 관한 처리가 행해진다.
구체적으로는, 스텝 S234에 있어서는, LCC 콘텐츠 수신 처리가 행해지며, 예를 들어 애플리케이션 등의 LCC 콘텐츠가 취득된다. 스텝 S235에 있어서는, 로컬 캐시 처리가 행해지며, 스텝 S234의 처리에서 취득된 LCC 콘텐츠가, 스토리지(도시하지 않음)에 축적(다운로드)된다.
스텝 S230, S233, 또는 S235의 처리가 종료되면, 도 11의 방송 스트림 수신 처리는 종료되고, 처리는, 도 9의 스텝 S205 또는 도 10의 스텝 S212로 되돌아가, 그 이후의 처리가 실행된다.
이상, 방송 스트림 수신 처리의 흐름에 대하여 설명하였다.
(EAT 수신 처리의 흐름)
다음으로, 도 12의 흐름도를 참조하여, 도 11의 스텝 S226의 처리에 대응하는, EAT 수신 처리의 흐름에 대하여 설명한다.
스텝 S241에 있어서, MW부(213)는, EAT 메타데이터를 취득한다.
스텝 S242에 있어서, MW부(213)는, 스텝 S241의 처리에서 취득된 EAT 메타데이터의 해석 처리를 행한다.
스텝 S243에 있어서, MW부(213)는, 스텝 S242의 해석 결과에 기초하여, 자동 선국 처리를 행할지 여부를 판정한다. 여기서는, XML 형식의 EAT 메타데이터에 기술되는 AutomaticTuningService 요소에서 지정되는 자동 선국 서비스에 관한 정보에 기초하여, 자동 선국 처리의 실행이 판정된다.
스텝 S243에 있어서, 자동 선국 처리를 행한다고 판정된 경우, 처리는, 스텝 S244로 나아간다. 스텝 S244에 있어서는, 긴급 방송의 선국 처리가 행해진다. 여기서는, EAT 메타데이터에 기술되는 AutomaticTuningService 요소의 broadcastStreamID 속성과, serviceId 속성에서 지정되는 자동 선국 서비스의 브로드캐스트 스트림 ID와, 서비스 ID에 기초하여, 긴급 방송의 선국 처리가 행해진다.
스텝 S244의 처리가 종료되면, 도 12의 EAT 수신 처리는 종료되고, 처리는, 도 11의 스텝 S226의 처리로 되돌아가, 그 이후의 처리가 실행된다.
한편, 스텝 S243에 있어서, 자동 선국 처리를 행하지 않는다고 판정된 경우, 처리는, 스텝 S245로 나아간다.
스텝 S245에 있어서, MW부(213)는, 스텝 S242의 해석 결과에 기초하여, 긴급 정보의 대상 지역인지 여부를 판정한다. 여기서는, EAT 메타데이터에 기술되는 EaGeolocation 요소에서 지정되는 긴급 정보의 대상 지역에 관한 정보에 기초하여, 긴급 정보의 대상 지역인지 여부의 판정 처리가 행해진다.
스텝 S245에 있어서, 긴급 정보의 대상 지역이라고 판정된 경우, 처리는, 스텝 S246으로 나아간다. 스텝 S246에 있어서, MW부(213)는, 스텝 S242의 해석 결과에 기초하여, 배너 텍스트를 포함하는지 여부를 판정한다. 여기서는, EAT 메타데이터에 기술되는 EaMessage 요소의 EaBannerMessage 요소와 EaBannerDescription 요소에서 지정되는 배너 텍스트에 관한 정보에 기초하여, EAT 메타데이터에, 배너 텍스트를 포함하는지 여부의 판정 처리가 행해진다.
스텝 S246에 있어서, 배너 텍스트를 포함한다고 판정된 경우, 처리는, 스텝 S247로 나아간다. 스텝 S247에 있어서, MW부(213) 및 출력부(204) 등은, 배너 텍스트 표시 처리를 행한다. 이 배너 텍스트 표시 처리에서는, EAT 메타데이터에 기초하여, 번드 텍스트의 표시 위치에 따라 배너 텍스트가 표시되게 된다. 또한, 이 배너 텍스트 표시 처리의 상세한 내용에 대해서는, 도 13의 흐름도를 참조하여 후술한다.
스텝 S247의 처리가 종료되면, 처리는, 스텝 S248로 나아간다. 또한, 스텝 S246에 있어서, 배너 텍스트를 포함하지 않는다고 판정된 경우, 스텝 S247의 처리는 스킵되고, 처리는, 스텝 S248로 나아간다.
스텝 S248에 있어서, MW부(213)는, 스텝 S242의 해석 결과에 기초하여, EAT 메타데이터에, 음성 정보를 포함하는지 여부를 판정한다. 여기서는, EAT 메타데이터에 기술되는 SpeechInfo 요소 또는 SpeechInfoURI 요소에서 지정되는 음성 발화 메타데이터에 관한 정보에 기초하여, 음성 정보를 포함하는지 여부의 판정 처리가 행해진다.
스텝 S248에 있어서, 음성 정보를 포함한다고 판정된 경우, 처리는, 스텝 S249로 나아간다. 스텝 S249에 있어서, MW부(213) 및 출력부(204) 등은, 음성 출력 처리를 행한다. 이 음성 출력 처리에서는, 음성 발화 메타데이터에 기초하여, 긴급 정보(텍스트 정보)의 낭독이 행해진다.
스텝 S249의 처리가 종료되면, 처리는, 스텝 S250으로 나아간다. 또한, 스텝 S248에 있어서, 음성 정보를 포함하지 않는다고 판정된 경우, 스텝 S249의 처리는 스킵되고, 처리는, 스텝 S250으로 나아간다.
스텝 S250에 있어서, MW부(213)는, 스텝 S242의 해석 결과에 기초하여, EAT 메타데이터에, 긴급 정보 애플리케이션을 포함하는지 여부를 판정한다. 여기서는, EAT 메타데이터에 기술되는 EaApplication 요소에서 지정되는 긴급 정보 애플리케이션에 관한 정보에 기초하여, 긴급 정보 애플리케이션을 포함하는지 여부의 판정 처리가 행해진다.
스텝 S250에 있어서, 긴급 정보 애플리케이션을 포함한다고 판정된 경우, 처리는, 스텝 S251로 나아간다. 스텝 S251에 있어서, 브라우저(214) 및 출력부(204) 등은, 긴급 정보 애플리케이션 출력 처리를 행한다. 이 긴급 정보 애플리케이션 출력 처리에서는, EAT 메타데이터에 기술되는 EaApplication 요소에서 지정되는 정보에 기초하여, ROUTE 세션에서 전송되는 긴급 정보 애플리케이션(LCC 콘텐츠)이 취득되어, 실행된다.
스텝 S251의 처리가 종료되면, 도 12의 EAT 수신 처리는 종료된다. 또한, 스텝 S250에 있어서, 긴급 정보 애플리케이션을 포함하지 않는다고 판정된 경우, 스텝 S251의 처리는 스킵되고, 도 12의 EAT 수신 처리는 종료된다. 또한, 스텝 S245에 있어서, 긴급 정보의 대상 지역이 아니라고 판정된 경우, 스텝 S246 내지 S251의 처리는 스킵되고, 도 12의 EAT 수신 처리는 종료된다. 그리고, 도 12의 EAT 수신 처리가 종료되면, 처리는, 도 11의 스텝 S226의 처리로 되돌아가, 그 이후의 처리가 실행된다.
이상, EAT 수신 처리의 흐름에 대하여 설명하였다.
(배너 텍스트 표시 처리의 흐름)
끝으로, 도 13의 흐름도를 참조하여, 도 12의 스텝 S247의 처리에 대응하는, 배너 텍스트 표시 처리의 흐름에 대하여 설명한다.
스텝 S261에 있어서, MW부(213)는, 스텝 S242(도 12)의 해석 결과에 기초하여, 번드 텍스트가 존재하는지 여부를 판정한다. 여기서는, EAT 메타데이터에, BurnedInMessageRegion 요소가 기술되어 있는지 여부에 의하여, 번드 텍스트가 존재하는지 여부의 판정 처리가 행해진다.
스텝 S261에 있어서, 번드 텍스트가 존재하는, 즉, EAT 메타데이터에, 하나 이상의 BurnedInMessageRegion 요소가 기술되어 있다고 판정된 경우, 처리는, 스텝 S262로 나아간다.
스텝 S262에 있어서, MW부(213)는, 스텝 S242(도 12)의 해석 결과에 기초하여, 비디오 스케일링을 행하고 있는지 여부를 판정한다. 여기서는, EAT 메타데이터에 기술되는 MessageLayoutPolicy 요소에서 지정되는 배너 텍스트의 표시 레이아웃 정보에 기초하여, 예를 들어 배너 텍스트가 비디오 스케일링 표시되는지 여부에 의하여, 비디오 스케일링을 행하고 있는지 여부의 판정 처리가 행해진다.
스텝 S262에 있어서, 비디오 스케일링을 행하고 있다고 판정된 경우, 즉, EAT 메타데이터의 MessageLayoutPolicy 요소에서, 배너 텍스트의 표시 레이아웃 정보로서, 비디오 스케일링 표시가 지정되어 있는 경우, 처리는, 스텝 S263으로 나아간다.
스텝 S263에 있어서, 컴포넌트 처리부(212)는, 비디오 스케일링 처리를 행하여, 텔레비전 프로그램 등의 콘텐츠의 영상의 가로세로 사이즈를 축소한다. 예를 들어, 제3 방식 B가 채용되고 있는 경우, 배너 텍스트가 비디오 스케일링 표시되므로, 비디오 스케일링 처리가 행해진다. 스텝 S263의 처리가 종료되면, 처리는, 스텝 S265로 나아간다.
한편, 스텝 S262에 있어서, 비디오 스케일링을 행하지 않았다고 판정된 경우, 즉, EAT 메타데이터의 MessageLayoutPolicy 요소에서, 배너 텍스트의 표시 레이아웃 정보로서, 오버레이 표시가 지정되어 있는 경우, 처리는, 스텝 S264로 나아간다.
스텝 S264에 있어서, MW부(213)는, 스텝 S242(도 12)의 해석 결과에 기초하여, 번드 텍스트의 표시 위치 정보를 취득한다. 여기서는, EAT 메타데이터에 기술되는 BurnedInMessageRegion 요소의 값으로서, 대상의 번드 텍스트의 표시 위치 정보가 지정되어 있으므로, 이 표시 위치 정보를 취득할 수 있다. 예를 들어, 제3 방식 A가 채용되고 있는 경우에는, 번드 텍스트의 표시 위치 정보가 취득된다.
스텝 S264의 처리가 종료되면, 처리는, 스텝 S265로 나아간다. 또한, 스텝 S261에 있어서, 번드 텍스트가 존재하지 않는, 즉, EAT 메타데이터에, BurnedInMessageRegion 요소가 기술되어 있지 않다고 판정된 경우, 스텝 S262 내지 S264의 처리는 스킵되고, 처리는, 스텝 S265로 나아간다.
스텝 S265에 있어서, MW부(213)는, 스텝 S261 내지 S264의 처리 결과에 기초하여, 배너 텍스트의 표시 위치를 결정한다.
구체적으로는, 번드 텍스트가 존재하지 않는 경우(S261의 「아니오」), 이 케이스는, 제2 방식(제2 방식 A, 제2 방식 B)에 상당하며, 배너 텍스트가, 번드 텍스트를 방해하는 일은 없으므로, 배너 텍스트의 표시 위치로서는, 예를 들어, 화면의 하측 영역 등, 임의의 영역을 표시 위치로 할 수 있다.
또한, 번드 텍스트가 존재하고(S261의 「예」), 또한, 비디오 스케일링을 행하고 있는 경우(S262의 「예」), 이 케이스는, 제3 방식 B에 상당하며, 배너 텍스트의 표시 위치로서는, 스텝 S263의 처리(비디오 스케일링 처리)에서 발생한 영역 내의 임의의 영역을 표시 위치로 할 수 있다. 또한, 이 경우, 배너 텍스트는, 비디오 스케일링 처리에서 발생한 영역에 표시되는 점에서, 번드 텍스트를 방해하는 일은 없다.
또한, 번드 텍스트가 존재하고(S261의 「예」), 또한, 비디오 스케일링을 행하지 않은 경우(S262의 「아니오」), 이 케이스는, 제3 방식 A에 상당하며, 배너 텍스트가 텔레비전 프로그램의 영상에 중첩 표시되기 때문에, 배너 텍스트를 임의의 영역에 표시하면, 번드 텍스트를 방해해 버릴 가능성이 있다. 이 경우, 스텝 S264의 처리가 실행되며, EAT 메타데이터로부터, 번드 텍스트의 표시 위치 정보가 취득되어 있으므로, 이 표시 위치 정보가 나타내는 영역에는, 배너 텍스트가 표시되지 않도록 한다(배너 텍스트의 표시를 금지함).
구체적으로는, 예를 들어, 번드 텍스트의 표시 위치 정보로서, 번드 텍스트의 표시 영역의 좌표가 지정되어 있는 경우에는, 당해 좌표에서 지정되는 표시 영역 외의 영역에, 배너 텍스트의 표시 위치가 결정되도록 한다. 또한, 예를 들어, 번드 텍스트의 표시 위치 정보로서, 화면의 하측 영역(bottom)이 지정되어 있는 경우에는, 배너 텍스트의 표시 위치로서, 화면의 상측 영역(upper) 또는 정중앙 영역(middle)이 결정되도록 한다.
스텝 S265의 처리에서 배너 텍스트의 표시 위치가 결정되면, 처리는, 스텝 S266으로 나아간다. 스텝 S266에 있어서, 출력부(204)는, 스텝 S265의 결정 결과에 기초하여, 배너 텍스트를 표시한다. 예를 들어, 제3 방식 A가 채용된 경우에는, 번드 텍스트와 배너 텍스트의 양자가 동시에 표시되게 되지만, 배너 텍스트는, 번드 텍스트의 표시 위치와는 상이한 위치에 표시되기 때문에, 배너 텍스트가, 번드 텍스트를 방해해 버리는 일은 없다.
스텝 S266의 처리가 종료되면, 도 13의 배너 텍스트 표시 처리는 종료된다. 그리고, 처리는, 도 12의 스텝 S247의 처리로 되돌아가, 그 이후의 처리가 실행된다.
이상, 배너 텍스트 표시 처리의 흐름에 대하여 설명하였다.
<5. 변형예>
상술한 설명으로서는, 디지털 방송의 규격으로서, 미국 등에서 채용되고 있는 방식인 ATSC(특히, ATSC 3.0)를 설명했지만, 본 기술은, 일본 등이 채용하는 방식인 ISDB(Integrated Services Digital Broadcasting)나, 유럽의 각국 등이 채용하는 방식인 DVB(Digital Video Broadcasting) 등에 적용하도록 해도 된다. 또한, 전송 시스템(1)에 있어서, 전송로(80)는, 지상파 방송에 한정되지 않으며, 예를 들어, 방송 위성(BS: Broadcasting Satellite)이나 통신 위성(CS: Communications Satellite)을 이용한 위성 방송, 또는 케이블을 사용한 유선 방송(CATV) 등이어도 된다. 또한, 상술한 설명에서는, 미국의 긴급 고지의 시스템(EAS)을 일례로 들어 설명했지만, 각국에서 구축되어 있는 마찬가지의 시스템에 적용하도록 해도 된다.
또한, 상술한 LLS나 SLS 등의 시그널링 정보의 명칭은, 일례이며, 다른 명칭이 사용되는 경우가 있다. 단, 이들의 명칭의 차이는, 형식적인 차이이지, 각 시그널링 정보의 실질적인 내용이 상이한 것은 아니다. 또한, 시그널링 정보가 XML 등의 마크업 언어에 의하여 기술되는 경우에 있어서, 그들의 요소나 속성의 명칭은 일례이며, 다른 명칭이 채용되도록 해도 된다. 단, 이들의 명칭의 차이는, 형식적인 차이이지, 그들의 요소나 속성의 실질적인 내용이 상이한 것은 아니다. 또한, LCC(Locally Cached Content)는, NRT(Non Real Time)라 칭해지는 경우가 있지만, 실질적인 내용이 상이한 것은 아니다.
또한, 상술한 설명에서는, 번드 텍스트와 배너 텍스트의 표시 위치에 대하여 설명했지만, 텍스트 정보에 한정되지 않으며, 예를 들어, 화상이나 영상 등, 텍스트 정보 이외의 정보에 대해서도 마찬가지로, 본 기술을 적용할 수 있다. 또한, 상술한 설명에서는, 긴급 정보는 비디오 데이터에 삽입된다고 하여 설명했지만, 긴급 정보가 오디오 데이터에 삽입되도록 해도 된다.
<6. 컴퓨터의 구성>
상술한 일련의 처리는, 하드웨어에 의하여 실행할 수도 있고, 소프트웨어에 의하여 실행할 수도 있다. 일련의 처리를 소프트웨어에 의하여 실행하는 경우에는, 그 소프트웨어를 구성하는 프로그램이, 컴퓨터에 인스톨된다. 도 14는, 상술한 일련의 처리를 프로그램에 의하여 실행하는 컴퓨터의 하드웨어의 구성예를 도시하는 도면이다.
컴퓨터(900)에 있어서, CPU(Central Processing Unit)(901), ROM(Read Only Memory)(902), RAM(Random Access Memory)(903)은, 버스(904)에 의하여 서로 접속되어 있다. 버스(904)에는, 또한, 입출력 인터페이스(905)가 접속되어 있다. 입출력 인터페이스(905)에는, 입력부(906), 출력부(907), 기록부(908), 통신부(909) 및 드라이브(910)가 접속되어 있다.
입력부(906)는, 키보드, 마우스, 마이크로폰 등을 포함한다. 출력부(907)는, 디스플레이, 스피커 등을 포함한다. 기록부(908)는, 하드 디스크나 불휘발성 메모리 등을 포함한다. 통신부(909)는, 네트워크 인터페이스 등을 포함한다. 드라이브(910)는, 자기 디스크, 광 디스크, 광 자기 디스크, 또는 반도체 메모리 등의 리무버블 미디어(911)를 구동한다.
이상과 같이 구성되는 컴퓨터(900)에서는, CPU(901)가, ROM(902)이나 기록부(908)에 기록되어 있는 프로그램을, 입출력 인터페이스(905) 및 버스(904)를 통하여, RAM(903)에 로드하여 실행함으로써, 상술한 일련의 처리가 행해진다.
컴퓨터(900)(CPU(901))가 실행하는 프로그램은, 예를 들어, 패키지 미디어 등으로서의 리무버블 미디어(911)에 기록하여 제공할 수 있다. 또한, 프로그램은, 로컬 에어리어 네트워크, 인터넷, 디지털 위성 방송 등의, 유선 또는 무선의 전송 매체를 통하여 제공할 수 있다.
컴퓨터(900)에서는, 프로그램은, 리무버블 미디어(911)를 드라이브(910)에 장착함으로써, 입출력 인터페이스(905)를 통하여, 기록부(908)에 인스톨할 수 있다. 또한, 프로그램은, 유선 또는 무선의 전송 매체를 통하여, 통신부(909)에서 수신하고, 기록부(908)에 인스톨할 수 있다. 그 외에, 프로그램은, ROM(902)이나 기록부(908)에, 미리 인스톨해 둘 수 있다.
여기서, 본 명세서에 있어서, 컴퓨터가 프로그램에 따라 행하는 처리는, 반드시 흐름도로서 기재된 순서에 따라 시계열로 행해질 필요는 없다. 즉, 컴퓨터가 프로그램에 따라 행하는 처리는, 병렬적 또는 개별적으로 실행되는 처리(예를 들어, 병렬 처리 또는 오브젝트에 의한 처리)도 포함한다. 또한, 프로그램은, 하나의 컴퓨터(프로세서)에 의하여 처리되는 것이어도 되고, 복수의 컴퓨터에 의하여 분산 처리되는 것이어도 된다.
또한, 본 기술의 실시 형태는, 상술한 실시 형태에 한정되는 것은 아니며, 본 기술의 요지를 일탈하지 않는 범위에 있어서 다양한 변경이 가능하다.
또한, 본 기술은, 이하와 같은 구성을 취할 수 있다.
(1)
디지털 방송 신호를 수신하는 수신부와,
상기 디지털 방송 신호로 전송되는 메타데이터이며, 긴급히 고지할 필요가 있는 정보인 제1 긴급 정보와, 비압축된 비디오 데이터에 제2 긴급 정보가 삽입되어 있는지 여부를 나타냄과 함께, 상기 제2 긴급 정보가 상기 비압축된 비디오 데이터에 삽입되어 있는 경우에 그 화면 상의 표시 위치를 나타내는 표시 위치 정보를 포함하는 상기 메타데이터를 취득하는 취득부와,
상기 메타데이터를 처리하여, 상기 제2 긴급 정보가 상기 비압축된 비디오 데이터에 삽입되어 있는 경우, 상기 제2 긴급 정보의 화면 상의 표시 위치와 상이한 위치에, 상기 제1 긴급 정보를 표시시키는 처리부
를 구비하는 수신 장치.
(2)
상기 제1 긴급 정보는, 상기 메타데이터에 포함하여 전송되는 텍스트 정보이고,
상기 제2 긴급 정보는, 상기 비디오 데이터에 삽입되어 전송되는 텍스트 정보인,
(1)에 기재된 수신 장치.
(3)
상기 제1 긴급 정보는, 긴급히 고지할 필요가 있는 정보의 표제인 메시지와, 그 상세한 내용인 설명문으로 구성되는,
(2)에 기재된 수신 장치.
(4)
상기 메시지와, 상기 설명문은, 상이한 레이아웃으로 표시되는,
(3)에 기재된 수신 장치.
(5)
상기 메타데이터는, 상기 제1 긴급 정보의 표시 레이아웃에 관한 표시 레이아웃 정보를 더 포함하고,
상기 처리부는, 상기 표시 레이아웃 정보에 기초하여, 상기 제1 긴급 정보가, 상기 비디오 데이터에 대응하는 영상에 중첩 표시되는 경우에만, 상기 제1 긴급 정보를, 상기 제2 긴급 정보의 화면 상의 표시 위치와 상이한 위치에 표시시키는,
(1) 내지 (4) 중 어느 하나에 기재된 수신 장치.
(6)
상기 표시 위치 정보는, 상기 제2 긴급 정보가 표시되는 화면 상의 좌표, 또는 화면 상의 소정의 영역을 나타내는 정보인,
(1) 내지 (5) 중 어느 하나에 기재된 수신 장치.
(7)
상기 수신부는, IP(Internet Protocol) 전송 방식의 디지털 방송 신호를 수신하는,
(1) 내지 (6) 중 어느 하나에 기재된 수신 장치.
(8)
수신 장치의 데이터 처리 방법에 있어서,
상기 수신 장치가,
디지털 방송 신호를 수신하고,
상기 디지털 방송 신호로 전송되는 메타데이터이며, 긴급히 고지할 필요가 있는 정보인 제1 긴급 정보와, 비압축된 비디오 데이터에 제2 긴급 정보가 삽입되어 있는지 여부를 나타냄과 함께, 상기 제2 긴급 정보가 상기 비압축된 비디오 데이터에 삽입되어 있는 경우에 그 화면 상의 표시 위치를 나타내는 표시 위치 정보를 포함하는 상기 메타데이터를 취득하고,
상기 메타데이터를 처리하여, 상기 제2 긴급 정보가 상기 비압축된 비디오 데이터에 삽입되어 있는 경우, 상기 제2 긴급 정보의 화면 상의 표시 위치와 상이한 위치에, 상기 제1 긴급 정보를 표시시키는
스텝을 포함하는 데이터 처리 방법.
(9)
긴급히 고지할 필요가 있는 정보인 제1 긴급 정보와, 비압축된 비디오 데이터에 제2 긴급 정보가 삽입되어 있는지 여부를 나타냄과 함께, 상기 제2 긴급 정보가 상기 비압축된 비디오 데이터에 삽입되어 있는 경우에 수신 장치의 화면 상의 표시 위치를 나타내는 표시 위치 정보를 포함하는 메타데이터를 생성하는 생성부와,
상기 메타데이터를, 디지털 방송 신호로서 송신하는 송신부
를 구비하는 송신 장치.
(10)
상기 제1 긴급 정보는, 상기 메타데이터에 포함하여 전송되는 텍스트 정보이고,
상기 제2 긴급 정보는, 상기 비디오 데이터에 삽입되어 전송되는 텍스트 정보인,
(9)에 기재된 송신 장치.
(11)
상기 제1 긴급 정보는, 긴급히 고지할 필요가 있는 정보의 표제인 메시지와, 그 상세한 내용인 설명문으로 구성되는,
(10)에 기재된 송신 장치.
(12)
상기 메시지와, 상기 설명문은, 상이한 레이아웃으로 표시되는,
(11)에 기재된 송신 장치.
(13)
상기 메타데이터는, 상기 제1 긴급 정보의 표시 레이아웃에 관한 표시 레이아웃 정보를 더 포함하는,
(9) 내지 (12) 중 어느 한 항에 기재된 송신 장치.
(14)
상기 표시 위치 정보는, 상기 제2 긴급 정보가 표시되는 화면 상의 좌표, 또는 화면 상의 소정의 영역을 나타내는 정보인,
(9) 내지 (13) 중 어느 한 항에 기재된 송신 장치.
(15)
상기 송신부는, 상기 메타데이터를, IP 전송 방식의 디지털 방송 신호로서 송신하는,
(9) 내지 (14) 중 어느 한 항에 기재된 송신 장치.
(16)
송신 장치의 데이터 처리 방법에 있어서,
상기 송신 장치가,
긴급히 고지할 필요가 있는 정보인 제1 긴급 정보와, 비압축된 비디오 데이터에 제2 긴급 정보가 삽입되어 있는지 여부를 나타냄과 함께, 상기 제2 긴급 정보가 상기 비압축된 비디오 데이터에 삽입되어 있는 경우에 수신 장치의 화면 상의 표시 위치를 나타내는 표시 위치 정보를 포함하는 메타데이터를 생성하고,
상기 메타데이터를, 디지털 방송 신호로서 송신하는
스텝을 포함하는 데이터 처리 방법.
1: 전송 시스템
10-1, 10-2, 10: 송신 장치
20, 20-1, 20-2, 20-3: 수신 장치
30: 전파탑
40: EA 서버
80: 전송로
90: 통신 회선
101: EA 파서
102: 라이브 콘텐츠 취득부
103: 스토리지
104: 컴포넌트 처리부
105: 시그널링 처리부
106: LCC 처리부
107: 인코더
108: 멀티플렉서
109: 변조부
110: RF부
201: RF부
202: 복조부
203: 처리부
204: 출력부
205: 통신 I/F
211: FW/HW부
212: 컴포넌트 처리부
213: MW부
214: 브라우저
221: 디멀티플렉서
222: 디코더
231: 파서
232: 필터
900: 컴퓨터
901: CPU

Claims (16)

  1. 수신 장치로서,
    회로를 포함하고,
    상기 회로는,
    긴급 정보가 삽입된 비디오 데이터를 포함하는 디지털 방송 신호를 수신하고;
    상기 디지털 방송 신호에서 전송되는 긴급 데이터를 취득하고 - 상기 긴급 데이터는 (i) 상기 비디오 데이터에 삽입된 상기 긴급 정보의 존재를 나타내는 제1 긴급 정보, 및 (ii) 상기 긴급 정보가 삽입된 상기 비디오 데이터를 화면 상에 유지할지 여부를 나타내는 제2 긴급 정보를 포함함 -;
    상기 긴급 데이터를 처리하여, 상기 비디오 데이터를 유지할지 여부를 결정하고;
    상기 결정에 따라 상기 화면 상에 상기 비디오 데이터를 표시하도록 - 상기 긴급 정보가 삽입된 상기 비디오 데이터는, 상기 비디오 데이터를 유지하지 않기로 상기 제2 긴급 정보가 나타낼 때 축소되어, 상기 긴급 정보가 삽입되는 축소된 비디오 데이터가 상기 화면 상에 포함된 추가 정보와 겹치지 않게 함 -
    구성되는, 수신 장치.
  2. 제1항에 있어서,
    상기 제1 긴급 정보는 긴급 경보 서비스 식별 정보인, 수신 장치.
  3. 제2항에 있어서,
    상기 제2 긴급 정보는 레이아웃 정보를 포함하는, 수신 장치.
  4. 제1항에 있어서,
    상기 디지털 방송 신호는 IP(internet protocol) 전송 방식에 준거하는, 수신 장치.
  5. 제1항에 있어서,
    상기 비디오 데이터에 삽입된 상기 긴급 정보는 텍스트 정보를 포함하는, 수신 장치.
  6. 제5항에 있어서,
    상기 비디오 데이터를 유지할지 여부의 결정은, 상기 텍스트 정보의 위치의 기술(description)이 데이터 요소에 대해 제공되는지의 결정에 기초하는, 수신 장치.
  7. 제1항에 있어서,
    상기 추가 정보는 상기 비디오 데이터 및 상기 긴급 정보와 함께 축소되지 않는, 수신 장치.
  8. 수신 장치와 함께 이용하기 위한 데이터 처리 방법으로서,
    상기 수신 장치로 하여금, 긴급 정보가 삽입된 비디오 데이터를 포함하는 디지털 방송 신호를 수신하게 하는 단계;
    상기 수신 장치로 하여금, 상기 디지털 방송 신호에서 전송되는 긴급 데이터를 취득하게 하는 단계 - 상기 긴급 데이터는 (i) 상기 비디오 데이터에 삽입된 상기 긴급 정보의 존재를 나타내는 제1 긴급 정보, 및 (ii) 상기 긴급 정보가 삽입된 상기 비디오 데이터를 화면 상에 유지할지 여부를 나타내는 제2 긴급 정보를 포함함 -;
    상기 수신 장치로 하여금, 상기 긴급 데이터를 처리하여, 상기 비디오 데이터를 유지할지 여부를 결정하게 하는 단계; 및
    상기 수신 장치로 하여금, 상기 결정에 따라 상기 화면 상에 상기 비디오 데이터를 표시하게 하는 단계 - 상기 긴급 정보가 삽입된 상기 비디오 데이터는, 상기 비디오 데이터를 유지하지 않기로 상기 제2 긴급 정보가 나타낼 때 축소되어, 상기 긴급 정보가 삽입되는 축소된 비디오 데이터가 상기 화면 상에 포함된 추가 정보와 겹치지 않게 함 -
    를 포함하는, 데이터 처리 방법.
  9. 송신 장치로서,
    회로를 포함하고,
    상기 회로는,
    (i) 비디오 데이터에 삽입된 긴급 정보의 존재를 나타내는 제1 긴급 정보 및 (ii) 상기 비디오 데이터를 화면 상에 유지할지 여부를 나타내는 제2 긴급 정보를 포함하는 긴급 데이터를 생성하고;
    상기 긴급 정보가 삽입된 상기 비디오 데이터를 디지털 방송 신호에서 송신하도록 - 상기 긴급 정보가 삽입된 상기 비디오 데이터는, 상기 비디오 데이터를 유지하지 않기로 상기 제2 긴급 정보가 나타낼 때 축소되어, 상기 긴급 정보가 삽입되는 축소된 비디오 데이터가 상기 화면 상에 포함된 추가 정보와 겹치지 않게 함 -
    구성되는, 송신 장치.
  10. 제9항에 있어서,
    상기 제1 긴급 정보는 긴급 경보 서비스 식별 정보인, 송신 장치.
  11. 제10항에 있어서,
    상기 제2 긴급 정보는 레이아웃 정보를 포함하는, 송신 장치.
  12. 제9항에 있어서,
    상기 디지털 방송 신호는 IP 전송 방식에 준거하는, 송신 장치.
  13. 송신 장치와 함께 이용하기 위한 데이터 처리 방법으로서,
    상기 송신 장치로 하여금, (i) 비디오 데이터에 삽입된 긴급 정보의 존재를 나타내는 제1 긴급 정보 및 (ii) 상기 비디오 데이터를 화면 상에 유지할지 여부를 나타내는 제2 긴급 정보를 포함하는 긴급 데이터를 생성하게 하는 단계; 및
    상기 송신 장치로 하여금, 상기 긴급 정보가 삽입된 상기 비디오 데이터를 디지털 방송 신호에서 송신하게 하는 단계 - 상기 긴급 정보가 삽입된 상기 비디오 데이터는, 상기 비디오 데이터를 유지하지 않기로 상기 제2 긴급 정보가 나타낼 때 축소되어, 상기 긴급 정보가 삽입되는 축소된 비디오 데이터가 상기 화면 상에 포함된 추가 정보와 겹치지 않게 함 -
    를 포함하는, 데이터 처리 방법.
  14. 삭제
  15. 삭제
  16. 삭제
KR1020187004804A 2015-09-01 2016-08-18 수신 장치, 송신 장치 및 데이터 처리 방법 KR102535290B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2015-172366 2015-09-01
JP2015172366 2015-09-01
PCT/JP2016/074106 WO2017038482A1 (ja) 2015-09-01 2016-08-18 受信装置、送信装置、及び、データ処理方法

Publications (2)

Publication Number Publication Date
KR20180044903A KR20180044903A (ko) 2018-05-03
KR102535290B1 true KR102535290B1 (ko) 2023-05-22

Family

ID=58187390

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187004804A KR102535290B1 (ko) 2015-09-01 2016-08-18 수신 장치, 송신 장치 및 데이터 처리 방법

Country Status (9)

Country Link
US (1) US11330344B2 (ko)
EP (1) EP3346713A4 (ko)
JP (1) JPWO2017038482A1 (ko)
KR (1) KR102535290B1 (ko)
BR (1) BR112018003441A2 (ko)
CA (1) CA2996276C (ko)
MX (1) MX2018002271A (ko)
TW (1) TWI751112B (ko)
WO (1) WO2017038482A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3190764A4 (en) * 2014-09-03 2018-04-25 LG Electronics Inc. Broadcast signal transmission device, broadcast signal reception device, broadcast signal transmission method and broadcast signal reception method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130191861A1 (en) * 2011-08-11 2013-07-25 Taiji Sasaki Broadcasting-communications collaboration system, data generating apparatus, and receiving apparatus

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7148909B2 (en) * 1998-05-27 2006-12-12 Canon Kabushiki Kaisha Image display system capable of displaying and scaling images on plurality of image sources and display control method therefor
WO2000074279A1 (fr) * 1999-05-28 2000-12-07 Matsushita Electric Industrial Co., Ltd. Systeme de radiodiffusion
US7308697B1 (en) * 1999-07-14 2007-12-11 Scientific-Atlanta, Inc. Systems and methods for multimedia messaging in a cable or satellite subscriber system
JP2001313911A (ja) 2000-04-28 2001-11-09 Nippon Hoso Kyokai <Nhk> テレビジョン送信装置およびテレビジョン受信機
JP2004023641A (ja) 2002-06-19 2004-01-22 Fujitsu Ltd ホームページ表示装置
KR20050086642A (ko) * 2002-11-15 2005-08-30 톰슨 라이센싱 에스.에이. 긴급 경계 기능을 갖는 장치를 제어하기 위한 방법
US7486337B2 (en) 2003-12-22 2009-02-03 Intel Corporation Controlling the overlay of multiple video signals
KR101053596B1 (ko) * 2004-07-15 2011-08-03 엘지전자 주식회사 디지털 케이블 방송 수신기 및 긴급 경고 메시지 처리 방법
KR100995042B1 (ko) * 2004-07-23 2010-11-22 엘지전자 주식회사 디지털 방송 수신기 및 그의 긴급 경고 메시지 처리 방법
KR101108053B1 (ko) * 2005-10-21 2012-02-06 엘지전자 주식회사 지상파 방송의 비상 사태 채널 설정 방법, 데이터 구조 및이를 위한 방송 수신기
WO2008030069A1 (en) * 2006-09-08 2008-03-13 Lg Electronics Inc. Broadcasting receiver and method of processing emergency alert message
KR20080046325A (ko) * 2006-11-22 2008-05-27 엘지전자 주식회사 지상파 방송의 비상 사태 경보와 관련된 방송 신호, 이를처리하는 방법 및 이를 위한 방송 수신기
CN101355582B (zh) 2008-08-28 2011-08-24 中兴通讯股份有限公司 一种网页点击拨号的鉴权方法及系统
JP5463747B2 (ja) 2009-06-15 2014-04-09 ソニー株式会社 受信装置、送信装置、通信システム、表示制御方法、プログラム、及びデータ構造
US20110037590A1 (en) * 2009-08-12 2011-02-17 Qualcomm Incorporated System and apparatus for delivering emergency alert messages as a service content in a broadcast network
JP2012015930A (ja) 2010-07-05 2012-01-19 Hitachi Consumer Electronics Co Ltd デジタル放送受信装置およびデジタル放送受信方法
JP2013009335A (ja) 2011-05-20 2013-01-10 Nippon Hoso Kyokai <Nhk> 受信機
CN103703764A (zh) 2011-05-25 2014-04-02 Lg电子株式会社 发送/接收系统和处理广播信号的方法
KR101989900B1 (ko) * 2012-03-02 2019-06-17 엘지전자 주식회사 모바일 방송을 통하여 긴급 경보 서비스를 제공하는 장치 및 방법
JP5717931B2 (ja) 2012-11-19 2015-05-13 三菱電機株式会社 デジタル放送受信装置およびデジタル放送受信方法
US9165203B2 (en) * 2013-03-15 2015-10-20 Arris Technology, Inc. Legibility enhancement for a logo, text or other region of interest in video
EP2866436A1 (en) 2013-10-23 2015-04-29 Thomson Licensing Method and apparatus for transmission and reception of media data
JP2015104055A (ja) 2013-11-27 2015-06-04 ソニー株式会社 受信装置、受信方法、送信装置、及び、送信方法
KR101984066B1 (ko) * 2014-01-24 2019-09-03 한국전자통신연구원 방송 시스템을 이용한 재해 조기경보 방법 및 시스템
MX367680B (es) * 2014-07-17 2019-09-02 Lg Electronics Inc Dispositivo de transmision de difusion, metodo por el cual el dispositivo de transmision de difusion procesa datos, dispositivo de recepcion de difusion y metodo por el cual el dispositivo de recepcion de difusion procesa datos.
US20160127439A1 (en) * 2014-11-03 2016-05-05 Qualcomm Incorporated Interfacing multimedia public warning system alerts

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130191861A1 (en) * 2011-08-11 2013-07-25 Taiji Sasaki Broadcasting-communications collaboration system, data generating apparatus, and receiving apparatus

Also Published As

Publication number Publication date
EP3346713A1 (en) 2018-07-11
TW201724787A (zh) 2017-07-01
KR20180044903A (ko) 2018-05-03
BR112018003441A2 (pt) 2018-11-27
MX2018002271A (es) 2018-03-23
US11330344B2 (en) 2022-05-10
WO2017038482A1 (ja) 2017-03-09
EP3346713A4 (en) 2019-01-16
TWI751112B (zh) 2022-01-01
CA2996276C (en) 2023-08-01
CA2996276A1 (en) 2017-03-09
JPWO2017038482A1 (ja) 2018-06-21
US20180213298A1 (en) 2018-07-26

Similar Documents

Publication Publication Date Title
US11374993B2 (en) Reception device, reception method, transmission device, and transmission method
US20190200095A1 (en) Receiving device, receiving method, transmitting device, and transmitting method
US20220312175A1 (en) Reception apparatus, reception method, transmission apparatus, and transmission method
KR102332387B1 (ko) 수신 장치, 수신 방법, 송신 장치 및 송신 방법
KR102527738B1 (ko) 비상 정보의 로케이션 기반 필터링을 위한 수신 장치, 수신 방법, 송신 장치 및 송신 방법
US11184095B2 (en) Receiving apparatus, transmitting apparatus, and data processing method
KR102535290B1 (ko) 수신 장치, 송신 장치 및 데이터 처리 방법
KR102384709B1 (ko) 수신 장치, 수신 방법, 송신 장치, 및 송신 방법
WO2015107930A1 (ja) 受信装置、受信方法、送信装置、及び、送信方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant