KR20170134414A - 전송 디바이스, 전송 방법, 수신 디바이스, 및 수신 방법 - Google Patents

전송 디바이스, 전송 방법, 수신 디바이스, 및 수신 방법 Download PDF

Info

Publication number
KR20170134414A
KR20170134414A KR1020177027439A KR20177027439A KR20170134414A KR 20170134414 A KR20170134414 A KR 20170134414A KR 1020177027439 A KR1020177027439 A KR 1020177027439A KR 20177027439 A KR20177027439 A KR 20177027439A KR 20170134414 A KR20170134414 A KR 20170134414A
Authority
KR
South Korea
Prior art keywords
information
message
cap
metadata
emergency
Prior art date
Application number
KR1020177027439A
Other languages
English (en)
Inventor
다케토시 야마네
야스아키 야마기시
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20170134414A publication Critical patent/KR20170134414A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/53Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers
    • H04H20/59Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers for emergency or urgency
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • H04M11/04Telephonic communication systems specially adapted for combination with other electrical systems with alarm systems, e.g. fire, police or burglar alarm systems
    • H04M11/045Telephonic communication systems specially adapted for combination with other electrical systems with alarm systems, e.g. fire, police or burglar alarm systems using recorded signals, e.g. speech
    • H04W4/22
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/06Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/90Services for handling of emergency or hazardous situations, e.g. earthquake and tsunami warning systems [ETWS]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L2013/083Special characters, e.g. punctuation marks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/39Electronic components, circuits, software, systems or apparatus used in telephone systems using speech synthesis

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Public Health (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Alarm Systems (AREA)

Abstract

메시지의 미리결정된 발음에 관련된 메타데이터를 포함하는 경보 정보를 수신하도록 구성된 회로를 포함하는 전송 디바이스가 제공된다. 이 회로는 경보 정보에 포함된 메타데이터에 기초하여 메시지에 대한 음성 정보를 생성하도록 구성된다. 이 회로는 또한, 메시지 및 이 메시지에 대한 생성된 음성 정보를 포함하는 비상 정보를 전송하도록 구성된다.

Description

전송 디바이스, 전송 방법, 수신 디바이스, 및 수신 방법
본 기술은, 전송 디바이스, 전송 방법, 수신 디바이스, 및 수신 방법에 관한 것으로, 더 구체적으로는, 시각 장애인을 위한 접근성(accessibility)을 향상시킬 수 있는 전송 디바이스, 전송 방법, 수신 디바이스, 및 수신 방법에 관한 것이다.
<관련 출원의 상호참조>
본 출원은 그 전체 내용이 참조로 본 명세서에 포함되는 2015년 4월 8일 출원된 일본 우선권 특허 출원 JP 2015-079603호의 우선권을 주장한다.
디지털 방송 분야에서, 시각 장애인을 위한 접근성이 요구되고 있다(예를 들어, PTL 1 참조).
특히, 미국에서는 2010년 21세기 통신 및 비디오 접근성 법령(CVAA; Communications and Video Accessibility Act)이 수립되었으며, 이 법령에 기초한 비디오 프로그램의 접근성에 관련된 다양한 규정들이 연방 통신위원회(FCC; Federal Communications Commission)에 의해 발표되었다.
인용 목록
특허 문헌
PTL 1: JP 2009-204711A
한편, 미국에서는, 비상 경보 시스템(Emergency Alert System, EAS)이라 알려진 비상 통보 시스템이 구축되어, 대통령의 최우선 사항으로부터 다양한 언론을 통한 지역 통보에 이르기까지 다양한 수준의 비상 정보를 통보할 수 있다.
디지털 방송에서는, 이러한 비상 정보가 통보되더라도, 시각 장애인을 위한 접근성의 필요성에도 불구하고, 기존의 TTS(텍스트 대 음성 변환) 엔진은, 텍스트 정보가 비상 정보 생산자의 의도에 따라 큰 소리로 읽혀지지 않을 수도 있기 때문에, 시각 장애인이 다른 사람과 동일한 정보를 얻을 수 있다는 것을 보장하지 않는다. 이러한 이유로, 비상 정보 생산자가 의도한 대로 발성을 신뢰성있게 생성함으로써 시각 장애인이 다른 사람들과 동일한 정보를 얻도록 허용하는 기술에 대한 요구가 있어 왔다.
본 기술은 상기 사항에 비추어 이루어진 것으로, 비상 정보 생산자가 의도한 발성을 신뢰성있게 생성함으로써 시각 장애인을 위한 접근성을 향상시키는 것이 바람직하다.
본 기술의 제1 실시예에 따르면, 메시지의 미리결정된 발음에 관련된 메타데이터를 포함하는 경보 정보를 수신하도록 구성된 회로를 포함하는 전송 디바이스가 제공된다. 이 회로는 경보 정보에 포함된 메타데이터에 기초하여 메시지에 대한 음성 정보를 생성하도록 구성된다. 이 회로는 또한, 메시지 및 이 메시지에 대한 생성된 음성 정보를 포함하는 비상 정보를 전송하도록 구성된다.
본 기술의 제1 실시예에 따른 전송 디바이스는 독립된 디바이스 또는 하나의 디바이스를 구성하는 내부 블록일 수 있다. 본 기술의 제1 실시예에 따른 전송 방법은, 본 기술의 제1 실시예에 따른 전송 디바이스에 대응하는 전송 방법이다. 예를 들어, 비상 정보를 전송하기 위한 전송 디바이스의 방법은, 전송 디바이스의 회로에 의해, 메시지의 미리결정된 발음에 관련된 메타데이터를 포함하는 경보 정보를 취득하는 단계를 포함한다. 이 방법은, 전송 디바이스의 회로에 의해, 경보 정보에 포함된 메타데이터에 기초하여 메시지에 대한 음성 정보를 생성하는 단계를 포함한다. 이 방법은, 전송 디바이스의 회로에 의해, 메시지 및 이 메시지에 대한 생성된 음성 정보를 포함하는 비상 정보를 전송하는 단계를 더 포함한다.
본 기술의 제1 실시예에 따른 전송 디바이스 및 전송 방법에서, 메시지의 미리결정된 발음에 관련된 메타데이터를 포함하는 경보 정보가 수신되고, 이 경보 정보에 포함된 메타데이터에 기초하여 메시지에 대한 음성 정보가 생성되며, 메시지 및 이 메시지에 대한 생성된 음성 정보를 포함하는 비상 정보가 전송된다.
본 기술의 제2 실시예에 따르면, 메시지 및 이 메시지에 대한 음성 정보를 포함하는 비상 정보를 수신하도록 구성된 회로를 포함하는 수신 디바이스가 제공된다. 비상 정보는 전송 디바이스로부터 전송된다. 이 회로는 또한, 디스플레이를 위해 메시지를 출력하고 메시지에 대한 음성 정보에 기초하여 메시지의 미리결정된 발음에 따라 사운드를 출력하도록 구성된다.
본 기술의 제2 실시예에 따른 수신 디바이스는 독립된 디바이스 또는 하나의 디바이스를 구성하는 내부 블록일 수 있다. 본 기술의 제2 실시예에 따른 수신 방법은, 본 기술의 제2 실시예에 따른 수신 디바이스에 대응하는 수신 방법이다. 예를 들어, 비상 정보를 처리하기 위한 수신 디바이스의 방법은, 수신 디바이스의 회로에 의해, 메시지 및 이 메시지에 대한 음성 정보를 포함하는 비상 정보를 수신하는 단계를 포함한다. 비상 정보는 전송 디바이스로부터 전송된다. 이 방법은, 수신 디바이스의 회로에 의해, 디스플레이를 위해 메시지를 출력하는 단계를 포함한다. 이 방법은, 수신 디바이스의 회로에 의해, 메시지에 대한 음성 정보에 기초하여 메시지의 미리결정된 발음에 따라 사운드를 출력하는 단계를 더 포함한다.
본 기술의 제2 실시예에 따른 수신 디바이스 및 수신 방법은, 전송 디바이스로부터 전송된 메시지 및 이 메시지에 대한 음성 정보를 포함하는 비상 정보가 수신되고, 메시지는 디스플레이를 위해 출력되고, 이 메시지에 대한 음성 정보에 기초하여 메시지의 미리결정된 발음에 따라 사운드가 출력된다.
본 기술의 제1 및 제2 실시예에 따르면, 시각 장애인을 위한 접근성을 향상시키는 것이 가능하다.
여기서 설명된 효과는 반드시 제한되는 것은 아니며, 본 개시내용에서 설명된 임의의 효과를 포함할 수 있다.
도 1은 비상 정보의 전송의 개요를 나타내는 도면이다.
도 2는 비상 정보의 디스플레이 예를 나타내는 도면이다.
도 3은 텍스트 정보를 큰 소리로 읽는 관련 기술의 TTS 엔진의 예를 설명하기 위한 도면이다.
도 4는 텍스트 정보를 큰 소리로 읽는 관련 기술의 TTS 엔진의 예를 설명하기 위한 도면이다.
도 5는 본 기술의 한 실시예가 적용되는 텍스트 정보를 큰 소리로 읽는 TTS 엔진의 한 예를 설명하기 위한 도면이다.
도 6는 본 기술의 한 실시예가 적용되는 텍스트 정보를 큰 소리로 읽는 TTS 엔진의 한 예를 설명하기 위한 도면이다.
도 7은 본 기술의 한 실시예가 적용되는 방송 시스템의 구성 예를 나타내는 도면이다.
도 8은 본 기술의 한 실시예가 적용되는 전송 디바이스의 구성 예를 나타내는 도면이다.
도 9는 본 기술의 한 실시예가 적용되는 수신 디바이스의 구성 예를 나타내는 도면이다.
도 10은 CAP 정보의 구조의 한 예를 나타내는 도면이다.
도 11은 CAP 정보의 설명 예를 나타내는 도면(Common Alerting Protocol Version 1.201 July, 2010, Appendix A에서 발췌)이다.
도 12는 확장된 CAP 정보에 의해 추가된 요소 및 속성의 예를 나타내는 도면이다.
도 13은 확장된 CAP 정보의 XML 스키마(XML schema)의 설명 예를 나타내는 도면이다.
도 14는 확장된 CAP 정보 내의 명칭 공간의 지정을 설명하기 위한 도면이다.
도 15는 확장된 CAP 정보의 설명 예를 나타내는 도면이다.
도 16은 전송 프로세스를 설명하기 위한 플로차트이다.
도 17은 수신 프로세스를 설명하기 위한 플로차트이다.
도 18은 컴퓨터의 구성 예를 나타내는 도면이다.
이하에서부터, 첨부된 도면을 참조하여 본 기술의 실시예들이 설명된다. 설명은 다음 순서로 진행될 것이다.
1. 현재 기술의 음성 발성 메타데이터의 개요
2. 시스템의 구성
3. CAP 정보의 확장에 의한 음성 발성 메타데이터의 배치
4. 디바이스에 의해 실행되는 프로세스의 흐름
5. 수정된 예
6. 컴퓨터의 구성
<1. 현재 기술의 음성 발성 메타데이터 개요>
CVAA에 관련된 FCC의 규정에 따르면, 방송사(서비스 제공업체)는 시각 장애인이 정보에 액세스하도록 허용하기 위하여 메시지 등의 텍스트 정보와는 별개로 비상 정보(비상 경보)를 음성 정보로서 전송해야 한다.
FCC의 규정에서, TTS 엔진의 이용은 음성 정보로서의 비상 정보를 생성하는 한 방법으로서 인식되지만, TTS 엔진에 의해 생성되는 사운드의 명료성 및 정확한 발음이 요구된다. 여기서, TTS 엔진은, 텍스트 정보로부터 인간의 음성을 인위적으로 생성할 수 있는 텍스트 대 음성 합성기이다.
한편, 비상 정보는, CAP(Common Alerting Protocol) 방식의 비상 통보 정보(이하 "CAP 정보"라고도 함)로서 방송국에 전송된다. 즉, 미국에서는, EAS라는 비상 통보 시스템을 구축한 이래로, 대통령의 최우선 사항으로부터 지역 통보에 이르기까지 다양한 수준의 비상 정보(CAP 정보)가 EAS를 이용하여 다양한 언론 매체를 통해 통보되어 왔다.
CAP 정보는, OASIS(Organization for the Advancement of Structured Information Standard)에 의해 명시된 CAP을 준수하는 정보이다.
예를 들어, 도 1을 참조하면, 경보 소스(Alerting Source)들에 의해 보고된 경보 소스 정보는 CAP 정보로 변환되고, CAP 정보는 방송국(방송국의 비상 경보 시스템)(의 EAS 시스템)에 제공된다. 방송국(의 EAS 시스템)에서는, 경보 소스들로부터 수신된 CAP 정보에 관해 렌더링, 인코딩 또는 미리결정된 포맷으로의 변환이 수행되고, 그 결과가 지역 방송국(Local Broadcast)에 제공되거나 CAP 정보가 포맷 변경없이 방송국(Local Broadcast)에 제공된다. 그 다음, 지역 방송국(의 전송기)은 전술된 바와 같이 전송된 비상 정보를 방송 영역 내의 복수의 수신기에 전송한다.
예를 들어, 경보 소스는 기상 서비스를 제공하는 국가 기관(예를 들어, 국립 기상 서비스(NWS))에 대응하며, 기상 경보를 제공한다. 이 경우, 방송국 및 방송국(의 전송기)으로부터 비상 정보를 수신한 수신기는, 방송 프로그램에 중첩된 기상 경보를 디스플레이한다(도 2a). 또한, 예를 들어, 경보 소스가 지역 기관 등에 대응할 때, 경보 소스는 그 지역에 관련된 경보 소스 정보를 제공한다. 이 경우, 방송국 및 방송국(의 전송기)으로부터 비상 정보를 수신한 수신기는 방송 프로그램에 중첩된 영역에 관한 비상 정보를 디스플레이한다(도 2b).
여기서, 방송국에서, TTS 엔진을 이용하여 CAP 정보로부터 음성 비상 정보가 생성될 때, FCC의 규정에 의해 요구되는 명확하고 정확한 발음을 보장하기 어렵다는 문제점이 있다. 즉, TTS 엔진에서는, 텍스트 정보는 비상 정보 생산자의 의도에 따라 큰소리로 읽혀지지 못할 수도 있기 때문에 시각 장애인이 다른 사람과 동일한 정보를 얻을 수 있다는 보장이 없다.
구체적으로는, 도 3에 나타낸 바와 같이, 예를 들어, "AAA"의 텍스트 정보는 "트리플 A" 또는 "A A A"로 읽혀질 수 있고, 읽는 방식이 고유하게 결정되지 않기 때문에, TTS 엔진이 그것을 읽는 방식을 결정하기 어렵고, 따라서 텍스트 정보가 생산자가 의도한 대로 읽혀지지 않을 가능성이 있다.
또한, 도 4에 나타낸 바와 같이, 예를 들어, "Caius College"의 텍스트 정보는 발음이 어려운 고유 명사이기 때문에, TTS 엔진이 그것을 읽는 방식을 결정하기 어렵고, 그에 따라 그 텍스트 정보가 생산자가 의도한 대로 읽혀지지 않을 가능성이 있다.
전술된 바와 같이, 텍스트 정보(비상 정보의 메시지)를 읽는 고유하게 결정된 방식이 없거나, 텍스트 정보가 발음이 어려운 고유 명사 등일 때, 그 텍스트 정보는 생산자가 의도한 대로 읽혀지지 않을 것이고, 그에 따라, 생산자가 의도한 대로 발성을 신뢰성있게 생성함으로써 시각 장애인이 다른 사람과 동일한 정보를 얻도록 보장하는 기술이 요구되고 있다.
이와 관련하여, 본 기술의 한 실시예에서, 비상 정보가 생산자가 의도한 대로 음성을 통해 신뢰성있게 발성되도록 하기 위해, 생산자가 의도한 음성 발성에 관련된 정보(이하, "음성 발성 메타데이터"라고 함)가 TTS 엔진에 제공되고, TTS 엔진은 생산자가 의도한 음성 발성을 생성한다. 음성 발성 메타데이터는 CAP 정보의 일부로서 제공될 수 있다.
구체적으로는, 도 5에 나타낸 바와 같이, 예를 들어, 음성을 통한 "AAA"라는 텍스트 정보를 읽는 방식을 나타내는 "트리플 A"가 음성 발성 메타데이터로서 TTS 엔진에 제공되므로, TTS 엔진은 음성 발성 메타데이터에 기초하여 "트리플 A"라고 읽을 수 있다.
바꾸어 말하면, 도 3에서, "AAA"라는 텍스트 정보가 입력되면, TTS 엔진은 "트리플 A" 및 "A A A"중 어느 것이 정확한 판독인지를 결정하기 어렵지만, 도 5에서는, "트리플 A"가 음성 발성 메타데이터로 입력되기 때문에, TTS 엔진은 음성 발성 메타데이터에 따라 이것을 "트리플 A"라고 읽을 수 있다. 그 결과, 생산자가 의도한 음성 발성이 생성된다.
또한, 도 6에 나타낸 바와 같이, 예를 들어, "Caius College"라는 텍스트 정보의 음소 정보(phonemic information)가 음성 발성 메타데이터로서 TTS 엔진에 제공되므로, TTS 엔진은 음성 발성 메타데이터에 기초하여 "keys college"라고 읽을 수 있다.
즉, 도 4에서, "Caius College"라는 텍스트 정보가 입력되면, 이 텍스트는 발음이 어려운 고유 명사이기 때문에, TTS 엔진이 정확하게 읽는 방법을 결정하는 것이 어렵지만, 도 6에서는, 음소 정보가 음성 발성 메타데이터로서 입력되기 때문에, TTS 엔진이 음성 발성 메타데이터에 따라 "keys college"라고 읽을 수 있다. 그 결과, 생산자가 의도한 음성 발성이 생성된다.
전술된 바와 같이, 음성 발성 메타데이터가 TTS 엔진에 제공되기 때문에, 예를 들어, 텍스트 정보(비상 정보의 메시지)를 읽는 고유하게 결정된 방식이 없거나, 발음이 어려운 고유 명사의 경우인 경우에도, 텍스트 정보는 생산자가 의도한 대로 읽혀짐으로써, 시각 장애인이 다른 사람과 동일한 정보를 얻을 수 있다.
2. 시스템의 구성
방송 시스템의 구성 예
도 7은 본 기술의 실시예가 적용되는 방송 시스템의 구성 예를 나타내는 도면이다.
도 7을 참조하면, 방송 시스템(1)은, 방송 프로그램 등의 콘텐츠를 제공하고 통보가 시급한 정보로서의 비상 정보에 시각 장애인이 액세스하는 것을 허용하는 시스템이다. 방송 시스템(1)은 전송 측에 배치된 전송 디바이스(10) 및 CAP 정보 제공 디바이스(11)와 수신 측의 수신 디바이스(20)를 포함한다. 수신 디바이스(20)는 인터넷(50)을 통해 서버(40)와 통신할 수 있다.
예를 들어, 전송 디바이스(10)는 디지털 지상파 방송 서비스를 제공하는 방송국에 의해 운영된다. 전송 디바이스(10)는 디지털 방송 신호를 통해 방송 프로그램 등의 콘텐츠를 전송한다. 전송 디바이스(10)는 도 1의 방송국(Station) 및 지역 방송국(Local Broadcast)에 대응한다.
비상시, CAP 정보 제공 디바이스(11)는 음성 발성 메타데이터를 포함하는 CAP 정보(이하, "확장된 CAP 정보"라고도 함)를 생성하여 확장된 CAP 정보를 전송 디바이스(10)에 전송한다. CAP 정보 제공 디바이스(11)에 의해 생성된 확장된 CAP 정보는, 도 1의 경보 소스(Alerting Source)로부터의 CAP 정보에 대응한다.
비상시에, 전송 디바이스(10)는 CAP 정보 제공 디바이스(11)로부터 전송된 확장된 CAP 정보를 수신하고, 확장된 CAP 정보에 기초하여 미리결정된 데이터 포맷의 비상 정보를 디지털 방송 신호에 포함시켜, 그 결과의 디지털 방송 신호를 전송한다.
여기서, FCC의 규정을 준수하기 위해서, 시각 장애인이 비상 정보의 메시지(텍스트 정보)에 액세스하는 것을 허용하기 위하여 메시지의 음성 정보를 전송하는 것이 필요하다. 이와 관련하여, 본 기술의 한 실시예에서, 비상 정보의 메시지의 음성 정보를 전송하는 방식으로서 다음과 같은 3가지 방식이 제안된다.
제1 방식에서, 확장된 CAP 정보에 포함된 메시지가 비디오로서 수신 디바이스(20의 스크린 상에 디스플레이되게 하기 위한 렌더링 또는 인코딩 등의 프로세스가 확장된 CAP 정보에 포함된 메시지에 관해 수행되고, 그 결과의 정보가 비상 정보로서 전송된다.
이 때, 비상 정보로서 전송된 메시지의 음성 정보를 생성하기 위한 디코딩 등의 처리가 확장된 CAP 정보에 관해 수행되고, 획득된 음성 정보는 비상 정보로서 전송된다. 즉, 제1 방식에서는, 메시지와 함께 음성 정보(음성에 관련된 정보)가 비상 정보로서 전송된다.
이 경우, 전송 측의 전송 디바이스(10)의 TTS 엔진은 확장된 CAP 정보에 포함된 음성 발성 메타데이터에 따라 메시지를 읽음으로써, 텍스트 정보를 읽는 고유하게 결정된 방식이 없거나 텍스트 정보가 발음이 어려운 고유 명사인 경우에도, 텍스트 정보가 생산자가 의도한 대로 신뢰성있게 읽혀진다.
제2 방식에서, 확장된 CAP 정보는 미국의 디지털 방송 표준인 ATSC(Advanced Television Systems Committee)에 의해 명시된 미리결정된 포맷을 준수하는 포맷으로 변환되고, 이런 방식으로 획득된 ATSC의 규정에 대응하는 정보(이하, "ATSC 시그널링 정보"라고 함)가 비상 정보로서 전송된다. 여기서, 예를 들어, 미국의 차세대 디지털 방송 표준인 ATSC 3.0에 명시된 포맷이 이용될 수 있다. 즉, 제2 방식에서는, 메시지 및 음성 발성 메타데이터(음성에 관련된 정보)를 포함하는 ATSC 시그널링 정보가 비상 정보로서 전송된다.
제3 방식에서, 확장된 CAP 정보는 포맷 변경없이 비상 정보로서 전송된다. 즉, 제3 방식에서는, 메시지 및 음성 발성 메타데이터(음성에 관련된 정보)를 포함하는 확장된 CAP 정보가 비상 정보로서 전송된다.
예를 들어, 수신 디바이스(20)는, 텔레비전 수신기, 셋탑 박스, 비디오 레코더 등과 함께 구성되어, 사용자의 주택 등에 설치된다. 수신 디바이스(20)는, 전송 디바이스(10)로부터 전송 경로(30)를 통해 전송된 디지털 방송 신호를 수신하고, 방송 프로그램 등의 콘텐츠의 비디오 및 오디오를 출력한다.
비상시에, 전송 디바이스(10)로부터 전송된 비상 정보가 수신되면, 수신 디바이스(20)는 비상 정보의 메시지를 디스플레이한다. 이 경우, 전송 디바이스(10)로부터 전송된 비상 정보는 제1 내지 제3 방식 중 어느 하나를 통해 전송된다.
제1 방식에서는, 비디오에 중첩된 메시지의 음성 정보가 전송되므로, 수신 디바이스(20)는 음성 정보에 대응하는 사운드를 출력한다. 이 경우, 전송 측의 전송 디바이스(10)에서는, TTS 엔진이 음성 발성 메타데이터에 따라 음성 정보를 읽기 때문에, 비디오에 중첩된 메시지가 생산자가 의도한 대로 읽혀진다.
제2 방식에서는, 확장된 CAP 정보를 변환함으로써 획득된 ATSC 시그널링 정보가 전송되므로, 수신 디바이스(20)는 ATSC 시그널링 정보에 포함된 음성 발성 메타데이터에 따라 디스플레이되고 있는 ATSC 시그널링 정보에 포함된 메시지를 읽을 수 있다. 또한, 제3 방식에서는, 확장된 CAP 정보가 전송되므로, 수신 디바이스(20)는 확장된 CAP 정보에 포함된 음성 발성 메타데이터에 따라 디스플레이되고 있는 확장된 CAP 정보에 포함된 메시지를 읽을 수 있다.
여기서, 제2 방식 및 제3 방식에서, 수신 측의 수신 디바이스(20)의 TTS 엔진은 음성 발성 메타데이터에 따라 비상 정보의 메시지를 읽고, 그에 따라, 예를 들어, 텍스트 정보를 읽는 고유하게 결정된 방식이 없거나 텍스트 정보가 발음이 어려운 고유 명사인 경우에도, 텍스트 정보가 생산자가 의도한 대로 읽혀진다.
또한, ATSC 시그널링 정보 또는 확장된 CAP 정보에 저장된 음성 발성 메타데이터로서, 2가지 타입, 즉, 음성 발성 메타데이터를 취득하기 위한 주소 정보를 설명하는 메타데이터와 발성 메타데이터의 콘텐츠를 설명하는 메타데이터가 있다. 또한, 주소 정보가 음성 발성 메타데이터에 포함될 때, 음성 발성 메타데이터의 콘텐츠는 주소 정보에 따라 취득된 파일(이하, "음성 발성 메타데이터 파일"이라고 함)에서 설명된다.
주소 정보로서는, 예를 들어, 인터넷(50) 상의 서버(40)에 액세스하기 위한 URL(Uniform Resource Locator)이 지정된다. 여기서, 서버(40)는 음성 발성 메타데이터 파일을 관리한다. 수신 디바이스(20)는, ATSC 시그널링 정보 또는 확장된 CAP 정보에 포함된 음성 발성 메타데이터에 설명된 주소 정보(예를 들어, URL)에 따라 인터넷(50)을 통해 서버(40)에 접속하여, 음성 발성 메타데이터 파일을 취득할 수 있다.
제1 내지 제3 방식은, 비상 정보로서 전송된 메시지의 음성 정보를 전송하기 위한 데이터 포맷의 예이며, 다른 임의의 데이터 포맷도 이용될 수 있다. 또한, 제1 방식 또는 제2 방식이 이용될 때, 각각의 지역 방송국의 정보는 비상 정보로서의 지형 데이터 등의 지역 정보에 기초하여 생성될 수 있다.
도 7의 방송 시스템(1)에서는, 하나의 전송 디바이스(10)만이 예시되어 있지만, 실제로는, 복수의 방송국 각각에 대해 전송 디바이스(10)가 설치되고, 전송 디바이스(10)들 각각은 CAP 정보 제공 디바이스(11)로부터 공급된 확장된 CAP 정보를 취득한다. 마찬가지로, 도 7의 방송 시스템(1)에서는, 하나의 수신 디바이스(20)만이 예시되어 있지만, 실제로는, 복수의 사용자들의 각각의 주택에 대해 수신 디바이스(20)가 설치된다.
(전송 측의 구성 예)
도 8은 도 7의 전송 측의 전송 디바이스(10) 및 CAP 정보 제공 디바이스(11)의 구성 예를 나타내는 도면이다.
도 8을 참조하면, 전송 디바이스(10)는, 콘텐츠 취득 유닛(111), 스트림 생성 유닛(112), 전송 유닛(113), CAP 정보 취득 유닛(114), TTS 엔진(115), 및 비상 정보 포맷 변환 유닛(116)을 포함한다.
콘텐츠 취득 유닛(111)은 방송 프로그램 등의 콘텐츠를 취득하고, 취득된 콘텐츠를 스트림 생성 유닛(112)에 공급한다. 콘텐츠 취득 유닛(111)은, 예를 들어, 콘텐츠에 관한 인코딩, 포맷 변환 프로세스 등을 실행할 수 있다.
또한, 예를 들어, 콘텐츠 취득 유닛(111)은, 방송 시간대에 따라, 이미 기록되어 있는 콘텐츠의 저장 위치로부터 대응하는 콘텐츠를 취득하거나, 스튜디오 또는 사이트로부터 라이브 콘텐츠를 취득한다.
스트림 생성 유닛(112)은, 시그널링 데이터 등을 콘텐츠 취득 유닛(111)으로부터 공급된 콘텐츠 데이터 내에 멀티플렉싱함으로써 ATSC의 규정에 따른 스트림을 생성하고, 생성된 스트림을 전송 유닛(113)에 공급한다.
전송 유닛(113)은, 스트림 생성 유닛(112)으로부터 공급된 스트림에 관해, 디지털 변조 등의 프로세스를 수행하고, 그 결과의 스트림을 안테나(117)를 통해 디지털 방송 신호로서 전송한다.
여기서, 비상시에는, CAP 정보 제공 디바이스(11)로부터 공급된 확장된 CAP 정보가 전송 디바이스(10)에 전송된다. 도 8을 참조하면, CAP 정보 제공 디바이스(11)는, 음성 발성 메타데이터 생성 유닛(131), CAP 정보 생성 유닛(132), 및 전송 유닛(133)을 포함한다.
비상시에, 음성 발성 메타데이터 생성 유닛(131)은, 예를 들어, 비상 정보 생산자로부터의 지시에 따라, 음성 발성 메타데이터를 생성하여, 음성 발성 메타데이터를 CAP 정보 생성 유닛(132)에 공급한다. 음성 발성 메타데이터로서는, 예를 들어, 텍스트가 발음이 어려운 고유 명사 등인 경우에 텍스트 정보 또는 텍스트 정보의 음소 정보를 읽는 고유하게 결정된 방식이 없는 경우에 음성을 통해 텍스트 정보를 판독하는 방법을 나타내는 정보가 생성된다.
비상시, CAP 정보 생성 유닛(132)은 경보 소스로부터 전송된 경보 소스 정보에 기초하여 확장된 CAP 정보를 생성하고, 확장된 CAP 정보를 전송 유닛(133)에 공급한다. 여기서, 예를 들어, CAP 정보 생성 유닛(132)은, 음성 발성 메타데이터 생성 유닛(131)으로부터 공급된 음성 발성 메타데이터를 비상 정보의 메시지를 포함하는 CAP 정보에 저장(배치)함으로써, 확장된 CAP 정보를 생성한다. 전송 유닛(133)은, 음성 발성 메타데이터를 포함하는 확장된 CAP 정보를 전송 디바이스(10)에 전송한다.
전송 디바이스(10)에서, 비상시, CAP 정보 취득 유닛(114)은 CAP 정보 제공 디바이스(11)로부터 전송된 확장된 CAP 정보를 취득(수신)한다. CAP 정보 취득 유닛(114)은 확장된 CAP 정보를 스트림 생성 유닛(112), TTS 엔진(115), 또는 비상 정보 포맷 변환 유닛(116)에 공급한다.
여기서, 전술된 바와 같이, FCC의 규정을 준수하기 위해서는, 제1 내지 제3 방식 중 임의의 하나를 이용하여 비상 정보의 메시지의 음성 정보를 전송하는 것이 필요하다.
구체적으로는, 제1 방식이 이용될 때, CAP 정보 취득 유닛(114)으로부터 공급된 확장된 CAP 정보는 스트림 생성 유닛(112) 및 TTS 엔진(115)에 공급된다. TTS 엔진(115)은 확장된 CAP 정보에 포함된 음성 발성 메타데이터에 기초하여 확장된 CAP 정보에 포함된 메시지를 디코딩(판독)함으로써 획득된 음성 정보(음성에 관련된 정보)를 비상 정보로서 스트림 생성 유닛(112)에 공급한다. 이 경우, TTS 엔진(115)은 음성 발성 메타데이터에 따라 텍스트 정보를 판독하기 때문에, 텍스트 정보는 생산자가 의도한 대로 신뢰성있게 읽혀진다.
그 다음, 스트림 생성 유닛(112)은, TTS 엔진(115)으로부터 공급된 음성 정보를, CAP 정보 취득 유닛(114)으로부터 공급된 확장된 CAP 정보에 포함되는 메시지가 중첩되는 비디오의 콘텐츠 데이터를 포함하는 스트림 내에 추가로 멀티플렉싱함으로써, ATSC의 규정을 준수하는 스트림을 생성한다.
또한, 제2 방식이 이용될 때, CAP 정보 취득 유닛(114)로부터 공급된 확장된 CAP 정보는 비상 정보 포맷 변환 유닛(116)에 공급된다. 비상 정보 포맷 변환 유닛(116)은, 확장된 CAP 정보를 ATSC(예를 들어, ATSC3.0)에 의해 명시된 미리결정된 포맷에 따른 포맷으로 변환하고, 이러한 방식으로 획득된 메시지 및 음성 발성 메타데이터(음성에 관련된 정보)를 포함하는 ATSC 시그널링 정보를 비상 정보로서 스트림 생성 유닛(112)에 공급한다. 그 다음, 스트림 생성 유닛(112)은, 비상 정보 포맷 변환 유닛(116)으로부터 공급된 비상 정보를 콘텐츠 데이터 및 시그널링 데이터 등과 멀티플렉싱함으로써 ATSC의 규정을 준수하는 스트림을 생성한다.
또한, 제3 방식이 이용될 때, CAP 정보 취득 유닛(114)으로부터 공급된 확장된 CAP 정보(메시지 및 음성 발성 메타데이터(음성에 관련된 정보)를 포함하는 확장된 CAP 정보)는 포맷 변경 없이 비상 정보로서 스트림 생성 유닛(112)에 공급된다. 그 다음, 스트림 생성 유닛(112)은, CAP 정보 취득 유닛(114)으로부터 공급된 비상 정보를 콘텐츠 데이터 및 시그널링 데이터 등과 멀티플렉싱함으로써, ATSC의 규정을 준수하는 스트림을 생성한다.
비상시에, 전송 유닛(113)은 스트림 생성 유닛(112)으로부터 공급되는 비상 정보를 포함하는 스트림을 안테나(117)를 통해 디지털 방송 신호로서 전송한다.
도 8의 전송 디바이스(10)는 도 1의 방송국(Station) 및 지역 방송국(Local Broadcast)에 대응하지만, 예를 들어, 비상 정보에 관련된 프로세스는 도 1의 방송국 측에서 수행되는 프로세스이고, 디지털 방송 신호를 수신 디바이스(20)에 전송하는 프로세스는 도 1의 지역 방송국 측에서 수행되는 프로세스이다. 그러나, 본 기술의 내용은, 도 8의 전송 디바이스(10)에 의해 수행되는 프로세스가 도 1의 방송국 측 또는 지역 방송국 측에서 수행되는지의 여부에 의해 제한되지 않는다.
또한, 도 8의 전송 디바이스(10) 및 CAP 정보 제공 디바이스(11)에서, 모든 기능 블록들은 단일 디바이스 내에 배치될 필요는 없고, 적어도 일부의 기능 블록들은 다른 기능 블록들과는 독립된 디바이스로서 구성될 수도 있다. 예를 들어, 음성 발성 메타데이터 생성 유닛(131) 또는 CAP 정보 생성 유닛(132)은 인터넷(50) 상의 서버(예를 들어, 서버(40))의 기능으로서 제공될 수 있다. 이 경우, 전송 디바이스(10) 또는 CAP 정보 제공 디바이스(11)는 서버로부터 제공된 음성 발성 메타데이터 또는 CAP 정보(확장된 CAP 정보)를 취득하여 처리한다.
(수신 측의 구성 예)
도 9는 도 7의 수신 측의 수신 디바이스(20)의 구성 예를 나타내는 도면이다.
도 9를 참조하면, 수신 디바이스(20)는, 수신 유닛(212), 스트림 분리 유닛(213), 재생 유닛(214), 디스플레이 유닛(215), 스피커(216), 비상 정보 취득 유닛(217), 음성 발성 메타데이터 취득 유닛(218), TTS 엔진(219), 및 통신 유닛(220)을 포함한다.
수신 유닛(212)은 안테나(211)에 의해 수신된 디지털 방송 신호에 관해 예를 들어 변조 프로세스를 수행하여, 이런 방식으로 획득된 스트림을 스트림 분리 유닛(213)에 공급한다. 스트림 분리 유닛(213)은 수신 유닛(212)으로부터 공급된 스트림으로부터 시그널링 데이터 및 콘텐츠 데이터를 분리하고, 시그널링 데이터 및 콘텐츠 데이터를 재생 유닛(214)에 공급한다.
재생 유닛(214)은 스트림 분리 유닛(213)으로부터 공급되는 콘텐츠 데이터의 비디오가 디스플레이 유닛(215)에 디스플레이되게 하고, 스트림 분리 유닛(213)에 의해 분리된 시그널링 데이터에 기초하여 콘텐츠 데이터의 오디오를 스피커(216)를 통해 출력한다. 그 결과, 방송 프로그램 등의 콘텐츠가 재생된다.
또한, 비상시에는, 스트림 분리 유닛(213)은 수신 유닛(212)으로부터 공급된 스트림으로부터 예를 들어 콘텐츠 데이터 및 확장된 CAP 정보를 분리하여, 콘텐츠 데이터 및 확장된 CAP 정보를 각각 재생 유닛(214) 및 비상 정보 취득 유닛(217)에 공급한다. 여기서, 비상시에는, 전송 측에서 이용되는 제1 내지 제3 방식 중 하나에 대응하는 프로세스가 수행된다.
구체적으로는, 제1 방식이 이용될 때, 스트림 분리 유닛(213)에 의해 분리된 스트림에 포함된 콘텐츠 데이터의 비디오에 비상 정보의 메시지가 중첩되므로, 재생 유닛(214)은 메시지(의 자막)가 디스플레이 유닛(215)에 디스플레이되게 한다. 또한, 스트림 분리 유닛(213)에 의해 분리된 스트림에는 비상 정보의 메시지의 음성 정보(음성에 관련된 정보)가 포함되어 있기 때문에, 재생 유닛(214)은 음성 정보에 대응하는 사운드를 스피커(216)를 통해 출력한다.
또한, 음성 정보는 전송 측의 전송 디바이스(10)의 확장된 CAP 정보에 포함된 음성 발성 메타데이터에 따라 메시지를 디코딩(판독)하는 TTS 엔진(115)에 의해 획득된 정보이기 때문에, 디스플레이 유닛(215) 상에 디스플레이되는 메시지(의 자막)는 생산자가 의도한 대로 읽혀진다.
또한, 제2 방식이 이용될 때, 비상 정보 취득 유닛(217)은 스트림 분리 유닛(213)에 의해 분리된 비상 정보(ATSC 시그널링 정보)를 취득한다. 비상 정보 취득 유닛(217)은 ATSC 시그널링 정보를 처리하고, 비상 정보의 메시지를 재생 유닛(214)에 공급한다. 재생 유닛(214)은 비상 정보 취득 유닛(217)으로부터 공급된 메시지(의 자막)가 디스플레이 유닛(215) 상에 디스플레이되게 한다.
비상 정보 취득 유닛(217)은 ATSC 시그널링 정보에 포함된 음성 발성 메타데이터를 음성 발성 메타데이터 취득 유닛(218)에 공급한다. 음성 발성 메타데이터 취득 유닛(218)은 비상 정보 취득 유닛(217)으로부터 공급된 음성 발성 메타데이터를 취득하여 처리한다.
여기서, 전술된 바와 같이, 음성 발성 메타데이터로서는, 2가지 타입, 즉, 음성 발성 메타데이터를 취득하기 위한 주소 정보를 설명하는 메타데이터와, 음성 발성 메타데이터의 콘텐츠를 설명하는 메타데이터가 있다.
즉, 음성 발성 메타데이터가 그 콘텐츠를 포함할 때, 음성 발성 메타데이터 취득 유닛(218)은 음성 발성 메타데이터를 변경없이 TTS 엔진(219)에 공급한다. 반면, 주소 정보가 음성 발성 메타데이터에 포함되어 있을 때, 음성 발성 메타데이터 취득 유닛(218)은 통신 유닛(220)을 제어하고, 주소 정보(예를 들어 URL)에 따라 인터넷(50)을 통해 서버(40)에 액세스하고, 음성 발성 메타데이터 파일을 취득한다. 음성 발성 메타데이터 취득 유닛(218)은, 음성 발성 메타데이터 파일로부터 획득된 콘텐츠를 포함하는 음성 발성 메타데이터를 TTS 엔진(219)에 공급한다.
TTS 엔진(219)은 음성 발성 메타데이터 취득 유닛(218)으로부터 공급된 음성 발성 메타데이터에 기초하여 ATSC 시그널링 정보에 포함된 메시지를 읽어 그 사운드를 스피커(216)를 통해 출력한다. 이 사운드는 디스플레이 유닛(215) 상에 디스플레이 중인 메시지(의 자막)에 대응하는 사운드이며, 음성 발성 메타데이터에 따라 TTS 엔진(219)에 의해 읽혀지고, 그에 따라, 메시지는 생산자가 의도한 대로 음성을 통해 읽혀진다.
또한, 제3 방식이 이용될 때, 비상 정보 취득 유닛(217)은 스트림 분리 유닛(213)에 의해 분리된 비상 정보(확장된 CAP 정보)를 취득한다. 비상 정보 취득 유닛(217)은 확장된 CAP 정보를 처리하고, 비상 정보의 메시지를 재생 유닛(214)에 공급한다. 재생 유닛(214)은 비상 정보 취득 유닛(217)으로부터 공급된 메시지(의 자막)가 디스플레이 유닛(215) 상에 디스플레이되게 한다.
비상 정보 취득 유닛(217)은 확장된 CAP 정보에 포함된 음성 발성 메타데이터를 음성 발성 메타데이터 취득 유닛(218)에 공급한다. 음성 발성 메타데이터 취득 유닛(218)은 비상 정보 취득 유닛(217)으로부터 공급된 음성 발성 메타데이터를 취득하여 처리한다.
음성 발성 메타데이터가 그 콘텐츠를 포함할 때, 음성 발성 메타데이터 취득 유닛(218)은 음성 발성 메타데이터를 변경없이 TTS 엔진(219)에 공급한다. 반면, 음성 발성 메타데이터가 주소 정보(예를 들어, URL)를 포함할 때, 음성 발성 메타데이터 취득 유닛(218)은 통신 유닛(220)을 제어하고, 인터넷(50) 상의 서버(40)로부터 음성 발성 메타데이터 파일을 취득하고, 이러한 방식으로 획득된 음성 발성 메타데이터를 TTS 엔진(219)에 공급한다.
TTS 엔진(219)은 음성 발성 메타데이터 취득 유닛(218)으로부터 공급된 음성 발성 메타데이터에 기초하여 확장된 CAP 정보에 포함된 메시지를 읽어, 그 사운드를 스피커(216)를 통해 출력한다. 이 사운드는 디스플레이 유닛(215) 상에 디스플레이 중인 메시지(의 자막)에 대응하는 사운드이며, 음성 발성 메타데이터에 따라 TTS 엔진(219)에 의해 읽혀지고, 그에 따라, 메시지는 생산자가 의도한 대로 음성을 통해 읽혀진다.
예를 들어, 제2 방식 및 제3 방식에서, 도 2a 및 도 2b의 비상 정보의 메시지(의 자막) 들이 디스플레이 유닛(215) 상에 디스플레이되고 있을 때, 시각 장애인이 그 메시지에 액세스하는 것을 허용하기 위하여, TTS 엔진(219)은, 메시지가 읽혀질 때 텍스트 정보를 읽는 고유하게 결정된 방식이 없을 때에도 음성 발성 메타데이터에 따라 생산자가 의도한 대로 텍스트 정보가 읽혀지게 한다. 그 결과, 시각 장애인은 다른 사람들과 동일한 정보를 얻을 수 있다.
도 9의 수신 디바이스(20)에는 디스플레이 유닛(215) 및 스피커(216)가 배치되어 있지만, 예를 들어 수신 디바이스(20)가 셋탑 박스, 비디오 레코더 등일 때, 디스플레이 유닛(215) 및 스피커(216)는 별개의 외부 디바이스들로서 배치될 수 있다.
<3. CAP 정보 확장에 의한 음성 발성 메타데이터의 배치>
(CAP의 구조)
도 10은 CAP 정보의 구조의 한 예를 나타내는 도면이다. CAP 정보는 OASIS에 의해 명시된 정보이다. CAP 정보는 경보 소스 정보의 한 예이다.
도 10에 나타낸 바와 같이, CAP 정보는, 경보(alert) 세그먼트, 정보(info) 세그먼트, 자원(resource) 세그먼트, 및 영역(area) 세그먼트로 구성된다. 하나 이상의 정보 세그먼트가 경보 세그먼트에 포함될 수 있다. 자원 세그먼트와 영역 세그먼트가 정보 세그먼트에 포함되는지의 여부는 임의적이다.
경보 세그먼트에서, 경보 요소는, identifier 요소, sender 요소, sent 요소, status 요소, msgType 요소, source 요소, scope 요소, restriction 요소, addresses 요소, code 요소, note 요소, references 요소, 및 incidents 요소를 자식 요소로서 포함한다.
CAP 정보에 관련된 기본 정보는 경보 요소에서 설명된다. 즉, 경보 요소는 CAP 정보를 구성하는 모든 컴포넌트들의 컨테이너로서 기능한다. 경보 요소는 필요 요소로서 간주된다.
CAP 정보를 식별하는 ID는 identifier 요소에서 지정된다. CAP 정보의 공급자를 식별하는 ID는 sender 요소에서 지정된다. CAP 정보의 공급 날짜 및 시간은 sent 요소에서 지정된다. CAP 정보의 처리를 나타내는 코드는 status 요소에서 지정된다.
status 요소의 코드로서, "실제", "연습", "시스템", "테스트, "또는 "드래프트"가 지정된다.
CAP 정보의 타입을 나타내는 코드는 msgType 요소에서 지정된다. msgType 요소의 코드로서, "경보", "업데이트", "취소", "승인" 또는 "에러"가 지정된다. CAP 정보의 소스를 나타내는 정보는 source 요소에서 지정된다. CAP 정보의 범위를 나타내는 코드는 scope 요소에서 지정된다. scope 요소의 코드로서, "공개", "제한됨" 또는 "개인"이 지정된다.
제한된 CAP 정보의 배포를 제한하기 위한 제약이 restriction 요소에서 지정된다. CAP 정보를 수신하는 사용자 그룹들의 목록은 addresses 요소에서 지정된다. CAP 정보의 특별한 처리를 나타내는 코드는 code 요소에서 지정된다. CAP 정보의 목적 또는 중요성을 설명하는 정보는 note 요소에서 지정된다. CAP 정보의 참조 목적지의 메시지에 관련된 정보는 references 요소에서 지정된다. CAP 정보의 명명 규칙에 관련된 정보는 incidents 요소에서 지정된다.
정보 세그먼트에서, 정보 요소는, language 요소, category 요소, event 요소, responseType 요소, urgency 요소, severity 요소, certainty 요소, audience 요소, eventCode 요소, effective 요소, onset 요소, expires 요소, senderName 요소, headline 요소, description 요소, instruction 요소, web 요소, contact 요소, 및 parameter 요소를 자식 요소로서 포함한다.
CAP 정보에 관련된 실질적인 정보는 정보 요소에서 설명된다. 즉, 정보 요소는 CAP 정보의 정보 요소를 구성하는 모든 컴포넌트(자식 요소들)의 컨테이너로서 기능한다. 정보 요소는 선택사항적 요소로 간주되지만, 적어도 하나의 정보 요소가 대부분의 경보 요소에 포함된다.
CAP 정보의 하위 요소(sub element)의 언어를 나타내는 코드는 language 요소에서 지정된다. RFC 3066에서 명시된 코드를 언어 코드라고 한다. CAP 정보의 범주를 나타내는 코드는 category 요소에서 지정된다. category 요소의 코드로서, "Geo(지구물리)", "Met(기상)", "안전(Safety)", "보안(Security)", "구조(Rescue)", "화재(Fire)", "건강(Health)", "환경(Env)(오염 및 기타의 환경), "운송(Transport)(공공 및 민간 운송)", "인프라(Infra)(유틸리티, 통신, 기타의 비-운송 인프라)", "CBRNE(화학적, 생물학적, 방사능, 핵 또는 고성능 폭발물 위협 또는 공격), 또는 "기타(Other)"가 지정된다.
CAP 정보의 이벤트의 타입을 나타내는 정보는 event 요소에서 지정된다. 사용자에게 권장되는 행동을 나타내는 코드는 responseType 요소에서 지정된다. responseType 요소의 코드로서, "대피소", "피난", "준비", "실행", "회피", "모니터", "평가", "상황 종료" 또는 "해당없음"이 지정된다. CAP 정보의 긴급성의 정도를 나타내는 코드는 urgency 요소에서 지정된다. urgency 요소의 코드로서, "즉시", "예상됨", "미래", "과거" 또는 "알 수 없음"이 지정된다.
CAP 정보의 심각도를 나타내는 코드는 severity 요소에서 지정된다. severity 요소의 코드로서, "매우 심각", "심각", "보통", "사소함" 또는 "알 수 없음"이 지정된다. CAP 정보의 확실성을 나타내는 코드는 certainty 요소에서 지정된다. certainty 요소의 코드로서, "관찰됨", "가능성 높음", "가능성 있음", "가능성 거의 없음" 또는 "알 수 없음"이 지정된다.
CAP 정보의 타겟 역할을 하는 사용자를 설명하는 정보는 audience 요소에서 지정된다. CAP 정보의 이벤트 타입을 식별하는 시스템-고유의 ID는 eventCode 요소에서 지정된다. CAP 정보의 콘텐츠의 유효 기간을 나타내는 정보는 effective 요소에서 지정된다. CAP 정보의 이벤트의 스케쥴링된 시작 시간을 나타내는 정보는 onset 요소에서 지정된다. CAP 정보 콘텐츠의 만료 날짜를 나타내는 정보는 expires 요소에서 지정된다.
CAP 정보의 제공자의 이름을 나타내는 정보(텍스트 정보)는 senderName 요소에서 지정된다. CAP 정보의 콘텐츠의 헤드라인을 나타내는 정보(텍스트 정보)는 headline 요소에서 지정된다. CAP 정보의 콘텐츠의 상세사항을 나타내는 정보(텍스트 정보)는 description 요소에서 지정된다. CAP 정보를 체크한 사용자가 취해야 하는 행동(사용자에게 추전되는 행동)을 나타내는 정보(텍스트 정보)는 instruction 요소에서 지정된다.
CAP 정보의 추가 정보의 취득 목적지를 나타내는 URL은 web 요소에서 지정된다. CAP 정보의 후속 또는 체크 연락처를 나타내는 정보는 contact 요소에서 지정된다. CAP 정보와 연관된 추가 파라미터는 parameter 요소에서 지정된다.
자원 세그먼트에서, 자원 요소는, resourceDesc 요소, mimeType 요소, size 요소, uri 요소, derefUri 요소, 및 digest 요소를 자식 요소로서 포함한다.
자원 요소는, 정보 요소에서 설명된 정보와 연관된 추가 정보로서 이미지 파일 또는 비디오 파일 등의 자원 파일을 제공한다. 즉, 자원 요소는 CAP 정보의 자원 요소를 구성하는 모든 컴포넌트(자식 요소들)의 컨테이너로서 기능한다. 자원 요소는 선택사항적 요소로서 간주된다.
자원 파일의 타입 및 콘텐츠를 나타내는 정보(텍스트 정보)는 resourceDesc 요소에서 지정된다. 자원 파일의 MIME 타입은 mimeType 요소에서 지정된다. RFC 2046에서 지정된 타입을 MIME 타입이라고 한다.
자원 파일의 크기를 나타내는 값은 size 요소에서 지정된다. 자원 파일의 취득 목적지의 URI(Uniform Resource Identifier)는 uri 요소에서 지정된다. Base 64로 인코딩된 자원 파일에 관련된 정보는 derefUri 요소에서 지정된다. 자원 파일에서 요구된 해시 값을 나타내는 코드는 digest 요소에서 지정된다.
영역 세그먼트에서, 영역 요소는, areaDesc 요소, polygon 요소, circle 요소, geocode 요소, altitude 요소, 및 ceiling 요소를 자식 요소로서 포함한다.
영역 요소는, 정보 요소에서 설명된 정보와 연관된 지리적 범위에 관련된 정보를 제공한다. 즉, 영역 요소는 CAP 정보의 영역 요소를 구성하는 모든 컴포넌트(자식 요소들)의 컨테이너로서 기능한다. 영역 요소는 선택사항적 요소로서 간주된다.
CAP 정보에 의해 영향을 받는 영역에 관련된 정보는 areaDesc 요소에서 지정된다. 폴리곤을 통해 CAP 정보에 의해 영향을 받는 영역을 정의하는 정보는 polygon 요소에서 지정된다. 반경을 통해 CAP 정보에 의해 영향을 받는 영역을 정의하는 정보는 circle 요소에서 지정된다. 지역 코드(위치 정보)를 통해 CAP 정보에 의해 영향을 받는 영역을 정의하는 정보는 geocode 요소에서 지정된다.
CAP 정보에 의해 영향을 받는 지역의 특정한 고도 또는 최저 고도를 나타내는 정보는 altitude 요소에서 지정된다. CAP 정보에 의해 영향을 받는 지역의 최고 고도를 나타내는 정보는 ceiling 요소에서 지정된다.
(CAP 정보의 설명 예)
여기서, 도 11은 XML(Extensible Markup Language) 문서로서 설명된 CAP 정보의 설명 예를 나타낸다. 도 11의 경보 요소의 정보 요소에서, CAP 정보의 제공자의 이름은 senderName 요소에서 설명되고, CAP 정보의 콘텐츠의 헤드라인은 headline 요소에서 설명되며, CAP 정보의 콘텐츠의 상세사항은 description 요소에서 설명된다. 또한, CAP 정보를 체크한 사용자가 취해야 할 행동(사용자에게 권장되는 행동)을 나타내는 정보는 경보 요소 내의 정보 요소의 instruction 요소에서 설명된다.
여기서, 수신 디바이스(20)에서, 텍스트 정보가 디스플레이될 때 시각 장애인이 텍스트 정보에 액세스하는 것을 허용하기 위해 TTS 엔진을 통해 텍스트 정보를 읽는 것이 필요하지만, 예를 들어, 전술된 바와 같이, 텍스트 정보를 읽는 고유하게 결정된 방식이 없거나 텍스트 정보가 발음이 어려운 고유 명사인 경우에는 생산자가 의도한 대로 텍스트 정보가 읽히지 않을 가능성이 있다.
또한, 본 기술의 한 실시예에서, 음성 발성 메타데이터가 TTS 엔진에 제공되어 텍스트 정보가 생산자가 의도한 대로 읽혀질 수 있지만, 음성 발성 메타데이터는 확장된 CAP 정보에 저장(배치)된다. 그 다음, 음성 발성 메타데이터가 배치된 CAP 정보(확장된 CAP 정보)의 상세한 구성이 설명된다.
(확장된 CAP 정보의 구성 예)
도 12는, 음성 발성 메타데이터 또는 그 취득 목적지를 나타내는 주소 정보를 저장하기 위해 확장된 CAP 정보에 추가된 요소들 및 속성들의 예를 나타내는 도면이다. 도 12의 확장된 CAP 정보에 추가된 요소들 및 속성들은, 예를 들어, 정보 요소의 senderName 요소, headline 요소, description 요소, 및 instruction 요소 등의 요소들이다.
즉, 확장된 CAP 정보에서, senderName 요소, headline 요소, description 요소 또는 instruction 요소의 자식 요소로서 SpeechInfoURI 요소 또는 SpeechInfo 요소를 추가하는 확장이 수행된다.
음성 발성 메타데이터를 취득하기 위한 주소 정보는 SpeechInfoURI 요소에서 지정된다. 예를 들어, URI가 주소 정보로서 지정된다. 또한, 예를 들어, 음성 발성 메타데이터 파일이 인터넷(50) 상의 서버(40)으로부터 취득되는 경우, 서버(40)에 액세스하기 위한 URL이 주소 정보로서 지정된다.
음성 발성 메타데이터는 SSML(Speech Synthesis Markup Language)로 기술될 수 있다. SSML은 고품질 음성 합성 기능의 이용을 가능하게 할 목적으로 W3C(World Wide Web Consortium)에 의해 권장된다. SSML을 이용하면, 발음, 음량, 음색 등의 음성 합성에 필요한 요소를 민감하고 적절하게 제어할 수 있다.
콘텐츠-타입(Content-type) 속성과 콘텐츠-인코딩(Content-enc) 속성은 SpeechInfoURI 요소와 쌍으로서 이용된다. URI 등의 주소 정보를 참조함으로써 취득된 음성 발성 메타데이터의 타입을 나타내는 타입 정보는 Content-type 속성에서 지정된다. 또한, 주소 정보를 참조함으로써 취득된 음성 발성 메타데이터의 인코딩 방식을 나타내는 정보는 Content-enc 속성에서 지정된다.
음성 발성 메타데이터의 콘텐츠는 SpeechInfo 요소에서 설명된다. 예를 들어, 음성 발성 메타데이터의 콘텐츠는 SSML에서 설명된다. 또한, 한 쌍으로 이용되는 Content-type 속성과 Content-enc 속성은 SpeechInfo 요소에서 지정될 수 있다. SpeechInfo 요소에서 설명된 음성 발성 메타데이터의 타입을 나타내는 타입 정보는 Content-type 속성에서 지정된다. 또한, SpeechInfo 요소에서 설명된 음성 발성 메타데이터의 인코딩 방식을 나타내는 정보는 Content-enc 속성에서 지정된다.
도 12에서, 카디널리티(cardinality)로서 "0..N"이 지정되어 있는 경우, 요소 또는 속성이 1회 이상 지정되어 있는지의 여부는 임의적이다. 또한, "0..1"이 지정되어 있는 경우, 요소 또는 속성이 지정되어 있는지의 여부는 임의적이다.
따라서, SpeechInfoURI 요소 및 SpeechInfo 요소는 선택사항적인 요소이고, SpeechInfoURI 요소 및 SpeechInfo 요소는 요소들 중 하나 또는 요소들 양쪽 모두에 배치될 수 있다. 또한, SpeechInfoURI 요소 및 SpeechInfo 요소에 첨부된 Content-type 속성 및 Content-enc 속성이 배치되어 있는지의 여부는 임의적이다.
(XML 스키마의 설명 예)
도 13은 XML 문서(XML 인스턴스)로서 역할하는 확장된 CAP 정보의 구조를 정의하는 XML 스키마(CAP의 XML 스키마)의 설명 예를 나타내는 도면이다.
도 13을 참조하면, 요소의 타입 정의는 ComplexType 요소에 의해 수행된다. 즉, "XXXXType"은 xsd : sequence 요소의 콘텐츠(시작 태그와 종료 태그 사이의 콘텐츠)에 추가될 자식 요소 및 속성을 지정하기 위한 타입으로서 정의된다.
제3 라인의 xs : element 요소의 명칭 속성(name attribute)에서, "SpeechInfoURI"가 지정되고 SpeechInfoURI 요소가 선언된다. SpeechInfoURI 요소는 minOccurs 속성을 통해 최소 카디널리티가 "0"임을 선언하고, maxOccurs 속성을 통해 최대 카디널리티가 제한되지 않음을 선언한다.
"content-type"은 제7 라인의 속성 요소(attribute element)의 명칭 속성(name attribute)에서 지정되고, Content-type 속성은 SpeechInfoURI 요소의 속성으로서 선언된다. Content-type 속성은 이것이 타입 속성(type attribute)을 통해 문자열 타입(String)임을 선언하고, 이용 속성(use attribute)을 통해 선택사항적 속성임을 선언한다.
"content-enc"는 제8 라인의 속성 요소의 명칭 속성에서 지정되고, Content-enc 속성은 SpeechInfoURI 요소의 속성으로서 선언된다. Content-enc 속성은 이것이 타입 속성(type attribute)을 통해 문자열 타입(String)임을 선언하고, 이용 속성(use attribute)을 통해 선택사항적 속성임을 선언한다.
제13 라인의 xs : element 요소의 명칭 속성에서 "SpeechInfo"가 지정되고, SpeechInfo 요소가 선언된다. SpeechInfo 요소는 minOccurs 속성을 통해 최소 카디널리티가 "0"임을 선언하고, maxOccurs 속성을 통해 최대 카디널리티가 제한되지 않음을 선언한다.
"content-type"은 제17 라인의 속성 요소의 명칭 속성에서 지정되고, SpeechInfo 요소의 Content-type 속성이 선언된다. Content-type 속성은 이것이 타입 속성(type attribute)을 통해 문자열 타입(String)임을 선언하고, 이용 속성(use attribute)을 통해 선택사항적 속성임을 선언한다.
"content-enc"는 제18 라인의 속성 요소의 명칭 속성에서 지정되고, SpeechInfo 요소의 Content-enc 속성이 선언된다. Content-enc 속성은 이것이 타입 속성(type attribute)을 통해 문자열 타입(String)임을 선언하고, 이용 속성(use attribute)을 통해 선택사항적 속성임을 선언한다.
(XML 스키마의 명칭 공간의 지정)
XML 스키마의 명칭 공간의 지정은 도 14의 XML 스키마에서와 같이 기술될 수 있다. 도 14의 XML 스키마에서, 도 13의 ComplexType 요소의 콘텐츠(시작 태그와 종료 태그 사이의 콘텐츠)는 ComplexType 요소에 의해 정의된 요소의 타입을 설명하는 영역(50)에서 설명된다.
도 14에서, XML 스키마가 확장된 CAP 정보의 구조를 정의한다는 것이 스키마 요소의 targetNamespace 속성에 의해 지정된다. 여기서, 현재 CAP 정보(비-확장된 CAP 정보)의 명칭 공간(Namespace)이 "urn : oasis : names : tc : emergency : cap : 1.2"로 표시될 때, 본 기술의 실시예에 의해 제안된 확장된 CAP 정보의 명칭 공간은 "urn : oasis : names : tc : emergency : cap : 1.3"에 의해 정의된다. 또한, 확장된 CAP 정보로서 이용되는 XML 스키마의 명칭 공간 접두사는 "cap"이라는 것이 "xmlns : cap"에 의해 선언된다.
또한, 도 14에 있어서, 경보 요소, 정보 요소, 자원 요소, 영역 요소 등의 요소들은, element 요소에 의해 선언된다. 또한, element 요소에서, senderName 요소, headline 요소, description 요소, 및 instruction 요소가 선언된다.
여기서, "cap : XXXXType"은 senderName 요소에서 타입 속성으로서 지정되고, 이것은 senderName 요소에 첨부된 요소, 속성 등의 콘텐츠가 XML 스키마의의 ComplexType 요소에 의해 정의된 "XXXXType"의 타입에 의해 지정됨을 의미한다.
도 14의 XML 스키마에서, 도 13의 ComplexType 요소의 콘텐츠는 ComplexType 요소에 의해 정의된 요소의 타입을 설명하는 영역(50)에서 설명되기 때문에, SpeechInfoURI 요소 또는 SpeechInfo 요소는 senderName 요소에서 그것의 자식 요소로서 지정될 수 있다. 또한, Content-type 속성 및 Content-enc 속성은 SpeechInfoURI 요소 및 SpeechInfo 요소에서 지정될 수 있다. 또한, element 요소의 minOccurs 속성은 senderName 요소의 최소 카디널리티가 "0"임을 나타낸다.
유사하게, SpeechInfoURI 요소 또는 SpeechInfo 요소는, XML 스키마의 ComplexType 요소에 의해 정의된 "XXXXType"의 타입에 따라, headline 요소, description 요소 및 instruction 요소에서 그 자식 요소로서 지정될 수 있다. 또한, Content-type 속성 및 Content-enc 속성은 SpeechInfoURI 요소 및 SpeechInfo 요소에서 지정될 수 있다.
전술된 바와 같이 XML 스키마를 정의하고, 예를 들어, "um : oasis : names : tc : emergency : cap : 1.2"로부터 제2 라인의 경보 요소의 xmlns 속성에 의해 지정된 명칭 공간을 도 11에 나타낸 CAP 정보의 설명 예에의 "um:oasis:names:tc:emergency:cap:1.3"으로 변경함으로써, 도 14의 XML 스키마(CAP의 XML 스키마)에 의해 정의된 "XXXXType"을 이용할 수 있다. 이 경우, senderName 요소, headline 요소, description 요소 및 instruction 요소에서, SpeechInfoURI 요소 또는 SpeechInfo 요소를 지정할 수 있으며, CAP 정보는 확장된 CAP 정보로 확장된다. 확장된 CAP 정보의 설명 예가 도 15에 도시되어 있다.
전술된 바와 같이, SpeechInfoURI 요소 또는 SpeechInfo 요소는, 정보 요소의 senderName 요소, headline 요소, description 요소, 및 instruction 요소의 자식 요소로서 지정되기 때문에, 생산자가 의도한 음성 발성에 관련된 정보로서 역할하는 음성 발성 메타데이터를 텍스트 정보가 지정되는 요소로서 설정할 수 있다.
따라서, 비상시, 수신 디바이스(20)에서, 예를 들어, 비상 정보의 제공자 이름을 나타내는 정보, 비상 정보의 콘텐츠의 헤드라인, 비상 정보의 콘텐츠의 상세사항 등을 나타내는 시청가능한 메시지(텍스트 정보), 또는 확장된 CAP 정보를 처리함으로써 획득되는 사용자가 취해야 할 행동이 디스플레이될 때, 생산자가 의도한 음성 발성 메타데이터에 따라 메시지(텍스트 정보)가 읽혀진다. 그 결과, 시각 장애인은 다른 사람들과 동일한 정보를 얻을 수 있기 때문에, 시각 장애인의 접근성이 향상될 수 있다.
상기 설명에서는, 정보 요소의 senderName 요소, headline 요소, description 요소, 및 instruction 요소가 SpeechInfoURI 요소 또는 SpeechInfo 요소가 지정될 수 있는 요소들로서 설명되었지만, 확장된 CAP 정보 내의 resourceDesc 요소 등의 메시지(텍스트 정보)가 지정되는 요소 또는 속성은 그 요소 또는 속성의 메시지(텍스트 정보)가 읽혀지는 타겟으로서 간주될 수 있다.
<4. 디바이스에 의해 실행되는 프로세스의 흐름>
그 다음, 도 7의 방송 시스템(1)을 구성하는 전송 디바이스(10) 및 수신 디바이스(20)에 의해 수행되는 프로세스의 흐름이 설명될 것이다.
(전송 프로세스)
우선, 도 7의 전송 디바이스(10)에 의한 전송 프로세스의 흐름이 도 16의 플로차트를 참조하여 설명될 것이다. 도 16의 전송 프로세스는, 비상시에 전송 디바이스(10)가 CAP 정보 제공 디바이스(11)로부터 확장된 CAP 정보를 수신할 때 수행되는 프로세스이다.
단계 S111에서, CAP 정보 취득 유닛(114)은, CAP 정보 제공 디바이스(11)로부터 전송된 확장된 CAP 정보를 취득(수신)한다.
단계 S112에서, 단계 S111의 프로세스에서 취득된 확장된 CAP 정보는 제1 내지 제3 방식들 중 임의의 하나에 따라 처리된다.
구체적으로는, 제1 방식이 이용될 때, TTS 엔진(115)은, 단계 S111의 프로세스에서 취득된 확장된 CAP 정보에 포함된 음성 발성 메타데이터에 기초하여 확장된 CAP 정보에 포함된 메시지를 디코딩(판독)함으로써 획득된 음성 정보(음성에 관련된 정보)를 비상 정보로서 스트림 생성 유닛(112)에 공급한다. 스트림 생성 유닛(112)은 TTS 엔진(115)으로부터 공급된 음성 정보를, 확장된 CAP 정보에 포함된 메시지가 중첩되는 비디오의 콘텐츠 데이터를 포함하는 스트림 내에 추가로 멀티플렉싱함으로써, ATSC의 규정을 준수하는 스트림을 생성한다.
또한, 제2 방식이 이용될 때, 비상 정보 포맷 변환 유닛(116)은, 단계 S111의 프로세스에서 취득된 확장된 CAP 정보를 ATSC에 의해 명시된 미리결정된 포맷으로 변환하고, 이러한 방식으로 획득된 메시지 및 음성 발성 메타데이터를 포함하는 ATSC 시그널링 정보(음성에 관련된 정보)를 비상 정보로서 스트림 생성 유닛(112)에 공급한다. 스트림 생성 유닛(112)은, 비상 정보 포맷 변환 유닛(116)으로부터 공급된 비상 정보를 콘텐츠 데이터 및 시그널링 데이터 등과 멀티플렉싱함으로써 ATSC의 규정을 준수하는 스트림을 생성한다.
또한, 제3 방식이 이용될 때, CAP 정보 취득 유닛(114)은, 단계 S111의 프로세스에서 취득된 확장된 CAP 정보(메시지 및 음성 발성 메타데이터(음성에 관련된 정보)를 포함하는 확장된 CAP 정보)를 포맷 변경없이 비상 정보로서 스트림 생성 유닛(112)에 공급한다. 스트림 생성 유닛(112)은, CAP 정보 취득 유닛(114)으로부터 공급된 비상 정보를 콘텐츠 데이터 및 시그널링 데이터 등과 멀티플렉싱함으로써, ATSC의 규정을 준수하는 스트림을 생성한다.
단계 S113에서, 전송 유닛(113)은 단계 S112의 프로세스에서 확장된 CAP 정보를 처리함으로써 획득된 비상 정보(정보를 포함하는 스트림)을 디지털 방송 신호로서 안테나(117)를 통해 전송한다.
또한, 그 콘텐츠가 단계 S111의 프로세스에서 취득된 확장된 CAP 정보에 포함된 음성 발성 메타데이터에서 설명되지 않은 경우, 인터넷(50) 상의 서버(40)에 액세스하기 위한 URL이 음성 발성 메타데이터 파일을 취득하기 위한 주소 정보로서 설명된다.
비상시의 전송 프로세스의 흐름이 상기에서 설명되었다. 전송 프로세스에서, 생산자가 의도한 음성 발언에 관련된 음성 발언 메타데이터 또는 확장된 CAP 정보에 포함된 음성 발성 메타데이터에 따른 음성 정보를 포함하는 ATSC 시그널링 정보는 비상 정보로서 전송된다.
따라서, 수신 측의 수신 디바이스(20)는, 음성 발성 메타데이터에 따라 음성 정보에 대응하는 사운드를 출력하거나, 음성 발성 메타데이터에 따라 메시지를 읽으므로, 예를 들어, 비상 정보의 메시지를 읽는 고유하게 결정된 방식이 없거나 텍스트 정보가 발음이 어려운 고유 명사 등인 경우에도, 텍스트 정보가 생산자가 의도한 대로 신뢰성있게 읽혀진다. 그 결과, 시각 장애인은 다른 사람들과 동일한 정보(비상 정보)를 얻는다.
(수신 프로세스)
그 다음, 도 7의 수신 디바이스(20)에 의해 수행되는 수신 프로세스의 흐름이 도 17의 플로차트를 참조하여 설명될 것이다. 도 17의 수신 프로세스는, 사용자에 의해 선택된 방송 프로그램 등의 콘텐츠가 재생되는 동안 비상사태가 발생하고, 전송 디바이스(10)로부터 전송된 비상 정보가 수신될 때 수행되는 프로세스이다.
단계 S211에서, 비상시에, 비상 정보 취득 유닛(217)은 스트림 분리 유닛(213)으로부터 공급된 비상 정보를 수신(취득)한다.
단계 S212에서, 단계 S211의 프로세스에서 취득된 비상 정보는 전송 측에서 이용된 제1 내지 제3 방식들 중 하나에 따라 처리된다. 단계 S213에서, 단계 S212의 프로세스의 비상 정보의 처리 결과에 따라 비상 정보가 출력된다.
구체적으로는, 제1 방식이 이용될 때, 스트림 분리 유닛(213)에 의해 분리된 스트림에 포함된 콘텐츠 데이터의 비디오에 비상 정보로서 비상 정보의 메시지가 중첩되므로, 재생 유닛(214)은 메시지(의 자막)가 디스플레이 유닛(215)에 디스플레이되게 한다(S212, S213). 또한, 스트림 분리 유닛(213)에 의해 분리된 스트림에는 비상 정보의 메시지의 음성 정보(음성에 관련된 정보)가 포함되어 있기 때문에, 재생 유닛(214)은 음성 정보에 대응하는 사운드를 스피커(216)를 통해 출력한다(S212, S213).
또한, 제2 방식이 이용될 때, ATSC 시그널링 정보가 비상 정보로서 취득되기 때문에, 비상 정보 취득 유닛(217)은 ATSC 시그널링 정보를 처리하고, 비상 정보의 메시지를 재생 유닛(214)에 공급한다. 재생 유닛(214)은 비상 정보 취득 유닛(217)으로부터 공급된 비상 정보의 메시지(의 자막)가 디스플레이 유닛(215) 상에 디스플레이되게 한다(S212 및 S213).
한편, 비상 정보 취득 유닛(217)은 ATSC 시그널링 정보에 포함된 음성 발성 메타데이터를 음성 발성 메타데이터 취득 유닛(218)에 공급한다. 음성 발성 메타데이터 취득 유닛(218)은 비상 정보 취득 유닛(217)으로부터 공급된 음성 발성 메타데이터를 취득하여 처리한다(S212). 그 다음, TTS 엔진(219)은 음성 발성 메타데이터 취득 유닛(218)으로부터 공급된 음성 발성 메타데이터에 기초하여 ATSC 시그널링 정보에 포함된 메시지를 읽어 그 사운드를 스피커(216)를 통해 출력한다(S213).
또한, 제3 방식이 이용될 때, 확장된 CAP 정보가 비상 정보로서 취득되기 때문에, 비상 정보 취득 유닛(217)은 확장된 CAP 정보를 처리하고, 비상 정보의 메시지를 재생 유닛(214)에 공급한다. 재생 유닛(214)은 비상 정보 취득 유닛(217)으로부터 공급된 비상 정보의 메시지(의 자막)가 디스플레이 유닛(215) 상에 디스플레이되게 한다(S212 및 S213).
한편, 비상 정보 취득 유닛(217)은 확장된 CAP 정보에 포함된 음성 발성 메타데이터를 음성 발성 메타데이터 취득 유닛(218)에 공급한다. 음성 발성 메타데이터 취득 유닛(218)은 비상 정보 취득 유닛(217)으로부터 공급된 음성 발성 메타데이터를 취득하여 처리한다(S212). 그 다음, TTS 엔진(219)은 음성 발성 메타데이터 취득 유닛(218)으로부터 공급된 음성 발성 메타데이터에 기초하여 확장된 CAP 정보에 포함된 메시지를 읽어 그 사운드를 스피커(216)를 통해 출력한다(S213).
또한, 제2 방식 및 제3 방식에서, 단계 S211의 프로세스에서 취득된 비상 정보(ATSC 시그널링 정보 또는 확장된 CAP 정보)에 포함된 음성 발성 메타데이터에 콘텐츠가 설명되어 있지 않은 경우에는, 음성 발성 메타데이터 파일을 취득하기 위한 주소 정보가 설명된다. 이 경우, 음성 발성 메타데이터 취득 유닛(218)은 통신 유닛(220)을 제어하고, 주소 정보(예를 들어, URL)에 따라 인터넷(50)을 통해 서버(40)에 액세스하며, 음성 발성 메타데이터 파일을 취득하고, 이러한 방식으로 획득된 콘텐츠를 포함하는 음성 발성 메타데이터를 TTS 엔진(219)에 공급한다.
비상시의 수신 프로세스의 흐름이 상기에서 설명되었다. 수신 프로세스에서, 생산자가 의도한 음성 발성에 관련된 음성 발성 메타데이터 또는 전송 측의 전송 디바이스(10)로부터 전송되는 확장된 CAP 정보에 포함된 음성 발언 메타데이터에 따른 음성 정보를 포함하는 ATSC 시그널링 정보가 비상 정보로서 수신된다.
따라서, 수신 디바이스(20)는, 음성 발성 메타데이터에 따라 음성 정보에 대응하는 사운드를 출력하거나, 음성 발성 메타데이터에 따라 메시지를 읽으므로, 예를 들어, 비상 정보의 메시지를 읽는 고유하게 결정된 방식이 없거나 텍스트 정보가 발음이 어려운 고유 명사 등인 경우에도, 텍스트 정보가 생산자가 의도한 대로 신뢰성있게 읽혀진다. 그 결과, 시각 장애인은 다른 사람들과 동일한 정보(비상 정보)를 얻는다.
<5. 수정된 예>
상기 설명에서는, 미국 등에서 이용되고 있는 ATSC(예를 들어, ATSC3.0)가 디지털 텔레비전 방송의 표준으로서 설명되었지만, 본 기술은 일본 등에서 이용되는 ISDB(Integrated Services Digital Broadcasting), 일부 유럽 국가들 등에서 이용되는 DVB(Digital Video Broadcasting)에도 적용될 수 있다. 전송 경로(30)(도 7)는 디지털 지상파 텔레비전 방송으로 제한되지 않으며, 디지털 위성 텔레비전 방송, 디지털 케이블 텔레비전 방송 등에도 이용될 수 있다.
또한, 상기 설명에서, 확장된 CAP 정보는, CAP 정보 제공 디바이스(11)에 의해 생성되는 것으로 설명되었지만, 본 기술은 CAP 정보 제공 디바이스(11)로 제한되지 않으며, 예를 들어, 전송 디바이스(10), 서버(40) 등은 경보 소스로부터 전송된 경보 소스 정보에 기초하여 확장된 CAP 정보를 생성할 수 있다. 또한, 확장된 CAP 정보가 전송 측의 전송 디바이스(10)에서 처리될 때, 음성 발성 메타데이터 파일을 취득하기 위한 주소 정보가 음성 발성 메타데이터에서 설명되어 있다면, 전송 디바이스(10)는 주소 정보(예를 들어, URL)에 따라 인터넷(50)을 통해 서버(40)에 액세스하여 음성 발성 메타데이터 파일을 취득할 수 있다.
또한, 상기 설명에서는, 미국에서 적용되는 CAP 방식의 정보가 경보 소스 정보로서 전송되는 것으로 설명되었지만, 본 기술은 CAP 방식의 정보로 제한되지 않으며, 기타 임의의 포맷의 경보 소스 정보가 이용될 수 있다. 예를 들어, 시각 장애인을 위한 접근성은 일본 및 유럽 국가에서 요구되는 것으로 간주되며, 이러한 경우, CAP 정보(확장된 CAP 정보) 이외의 해당 국가에 적합한 다른 포맷의 경보 소스 정보가 이용될 수 있다.
또한, 상기 설명에서, 주소 정보(예를 들어, URL)가 음성 발성 메타데이터에 포함되는 경우, 음성 발성 메타데이터 파일은 인터넷(50) 상의 서버(40)로부터 취득되지만, 음성 발성 메타데이터 파일은 디지털 방송 신호에 포함된 다음 전송될 수도 있다. 즉, 음성 발성 메타데이터 파일은 방송 또는 통신에 의해 전달되어 수신 디바이스(20)에 의해 수신된다. 여기서, 음성 발성 메타데이터 파일이 방송을 통해 전달되는 경우, 예를 들어, 음성 발성 메타데이터 파일은 단방향 전송 세션을 통한 실시간 객체 전달(ROUTE; Real-time Object Delivery over Unidirectional Transport)을 통해 전송될 수 있다. ROUTE는, 멀티캐스트 방식으로 한 방향으로 2진 파일을 전송하기에 적합한 프로토콜로서 역할하는 단방향 전송을 통한 파일 전송(FLUTE; File Delivery over Unidirectional Transport)으로부터 확장된 프로토콜이다.
또한, 상기 설명에서는, 음성 발성 메타데이터가 SSML로 설명되었지만, 본 기술은 SSML에 제한되지 않으며, 음성 발성 메타데이터는 기타 임의의 마크업 언어로 설명될 수도 있다. 여기서, 음성 발성 메타데이터가 SSML로 설명되는 경우, SSML에서 명시된 하위 요소, 음소 요소, 또는 오디오 요소, 및 속성 등의 요소가 이용될 수 있다. W3C에서 권장하는 SSML의 상세정보는 다음과 같은 웹 사이트에서 찾을 수 있다: Speech Synthesis Markup Language (the SSML) Version 1.1, W3C Recommendation 7 September 2010, URL: "http://www.w3.org/TR/speech-synthesis11/"
또한, 상기 설명에서는, 수신 디바이스(20)가, 텔레비전 수신기, 셋탑 박스, 비디오 레코더 등의 고정 수신기인 것으로서 설명되었지만, 수신 디바이스(20)는 고정 수신기로 제한되지 않으며, 예를 들어, 스마트폰, 모바일 전화, 태블릿 타입 컴퓨터, 랩탑 퍼스널 컴퓨터, 또는 자동차에서 이용되는 단말기 등의 모바일 수신기일 수 있다.
<6. 컴퓨터의 구성>
전술된 일련의 프로세스는, 하드웨어에 의해 실행되거나, 소프트웨어에 의해 실행될 수 있다. 일련의 프로세스가 소프트웨어에 의해 실행되는 경우, 이러한 소프트웨어를 구성하는 프로그램이 컴퓨터에 설치된다. 도 18은 전술된 일련의 프로세스를 프로그램에 따라 실행하는 컴퓨터의 하드웨어의 구성 예를 도시하는 도면이다.
컴퓨터(900)에서, CPU(Central Processing Unit)(901), ROM(Read Only Memory)(902), 및 RAM(Random Access Memory)(903)은 버스(904)에 의해 상호 접속된다. 입력/출력 인터페이스(905)도 역시 버스(904)에 접속된다. 입력 유닛(906), 출력 유닛(907), 기록 유닛(908), 통신 유닛(909), 및 드라이브(910)는 입력/출력 인터페이스(905)에 접속된다.
입력 유닛(906)은, 키보드, 마우스, 마이크로폰 등으로서 구성된다. 출력 유닛(907)은, 디스플레이, 스피커 등으로서 구성된다. 기록 유닛(908)은, 하드 디스크, 비휘발성 메모리 등으로서 구성된다. 통신 유닛(909)은 네트워크 인터페이스 등으로서 구성된다. 드라이브(910)는, 자기 디스크, 광 디스크, 광자기 디스크, 반도체 메모리 등의 착탈식 매체(911)를 구동한다.
전술된 바와 같이 구성된 컴퓨터(900)에서, 전술된 일련의 프로세스는, CPU(901)가 입력/출력 인터페이스(905) 및 버스(904)를 통해 ROM(902) 또는 기록 유닛(908)에 기록된 프로그램을 RAM(903) 내에 로딩하여 그 프로그램을 실행하도록 수행된다.
예를 들어, 컴퓨터(900)(CPU(901))에 의해 실행되는 프로그램은, 팩키징된 매체 등으로서 착탈식 매체(911)에 기록되어 제공될 수 있다. 프로그램은 또한, 근거리 통신망, 인터넷 또는 디지털 위성 방송 등의, 유선 또는 무선 전송 매체를 통해 제공될 수도 있다.
컴퓨터(900)에 있어서, 착탈식 매체(911)가 드라이브(910)에 로딩되면, 프로그램은 입력/출력 인터페이스(905)를 통해 기록 유닛(908)에 설치될 수 있다. 또한, 통신 유닛(909)을 이용하여 유선 또는 무선의 전송 매체로부터 프로그램을 수신하여, 이 프로그램을 기록 유닛(908)에 설치하는 것도 가능하다. 또 다른 대안으로서, 프로그램은 ROM(902) 또는 기록 유닛(908)에 미리 설치될 수 있다.
또한, 프로그램에 따라 컴퓨터에 의해 실행되는 프로세스는, 본 명세서의 플로차트에 기재된 순서로 시계열로 실행되는 프로세스일 필요는 없다는 점에 유의한다. 즉, 프로그램에 따라 컴퓨터에 의해 수행되는 프로세스는 병렬로 또는 개별적으로 실행되는 프로세스들(예를 들어, 병렬 프로세스들 또는 객체들에 의한 프로세스들)을 포함한다. 또한, 프로그램은 단일 컴퓨터(프로세서)에 의해 처리되거나 복수의 컴퓨터에 의해 분산 처리될 수도 있다.
본 기술의 실시예들은 전술된 실시예들로 제한되지 않으며, 본 기술의 요지를 벗어나지 않는 범위에서 다양한 변경이 이루어질 수 있다.
추가적으로, 본 기술은 또한 하기와 같이 구성될 수도 있다.
(1)
전송 디바이스로서,
회로를 포함하고, 상기 회로는,
메시지의 미리결정된 발음에 관련된 메타데이터를 포함하는 경보 정보를 수신하고;
상기 경보 정보에 포함된 메타데이터에 기초하여 상기 메시지에 대한 음성 정보를 생성하며;
상기 메시지 및 상기 메시지에 대한 상기 생성된 음성 정보를 포함하는 비상 정보를 전송하도록 구성된, 전송 디바이스.
(2)
제(1)항에 있어서,
상기 메타데이터는 상이한 방식들로 판독가능한 문자열 또는 상기 문자열에 포함된 단어의 철자법과는 상이한 방식으로 발성되는 상기 문자열의 미리결정된 발음을 나타내는, 전송 디바이스.
(3)
제(1)항 또는 제(2)항에 있어서, 상기 경보 정보는 상기 메시지를 포함하고,
상기 비상 정보를 수신한 수신 디바이스는 상기 메시지를 디스플레이하고, 상기 음성 정보에 기초하여 상기 메시지의 상기 미리결정된 발음에 따라 사운드를 출력하는, 전송 디바이스.
(4)
제(1)항 내지 제(3)항 중 어느 한 항에 있어서, 상기 회로는 또한 :
콘텐츠를 수신하고,
상기 콘텐츠를 포함하는 디지털 방송 신호를 전송하고, 상기 비상 정보를 전송하도록 구성된, 전송 디바이스.
(5)
제(1)항 내지 제(4)항 중 어느 한 항에 있어서,
상기 경보 정보는 OASIS(Organization for the Advancement of Structured Information Standard)에 의해 명시된 CAP(Common Alerting Protocol)을 준수하는 CAP 정보이고,
상기 CAP 정보는 상기 메타데이터 또는 상기 메타데이터의 파일의 위치를 나타내는 주소 정보를 포함하는, 전송 디바이스.
(6)
제(5)항에 있어서,
상기 비상 정보에 포함된 음성 정보는, 상기 CAP 정보에 포함된 메타데이터에 기초하여 상기 CAP 정보에 포함된 메시지를 음성으로 변환함으로써 생성되는, 전송 디바이스.
(7)
제(5)항에 있어서,
상기 메시지 및 상기 메타데이터를 포함하는 상기 비상 정보는, 상기 CAP 정보를 ATSC(Advanced Television Systems Committee)에 의해 명시된 미리결정된 포맷을 준수하는 포맷으로 변환함으로써 생성되는, 전송 디바이스.
(8)
제(5)항에 있어서,
상기 비상 정보는 상기 메시지 및 상기 메타데이터를 포함하는 상기 CAP 정보인, 전송 디바이스.
(9)
비상 정보를 전송하기 위한 전송 디바이스의 방법으로서,
상기 전송 디바이스의 회로에 의해, 메시지의 미리결정된 발음에 관련된 메타데이터를 포함하는 경보 정보를 취득하는 단계;
상기 전송 디바이스의 회로에 의해, 상기 경보 정보에 포함된 메타데이터에 기초하여 상기 메시지에 대한 음성 정보를 생성하는 단계; 및
상기 전송 디바이스의 회로에 의해, 상기 메시지 및 상기 메시지에 대한 상기 생성된 음성 정보를 포함하는 비상 정보를 전송하는 단계
를 포함하는, 방법.
(10)
수신 디바이스로서,
회로를 포함하고, 상기 회로는,
메시지 및 상기 메시지에 대한 음성 정보를 포함하는 비상 정보 ―상기 비상 정보는 전송 디바이스로부터 전송됨― 를 수신하고;
상기 메시지를 디스플레이를 위해 출력하며;
상기 메시지에 대한 상기 음성 정보에 기초하여 상기 메시지의 미리결정된 발음에 따라 사운드를 출력하도록 구성된, 수신 디바이스.
(11)
제(10)항에 있어서,
상기 비상 정보는, 상기 메시지, 및 상기 메시지의 미리결정된 발음에 관련된 메타데이터 또는 상기 메타데이터에 대한 참조 중 하나를 포함하는 경보 정보에 기초하여 생성되는, 수신 디바이스.
(12)
제(10)항 또는 제(11)항에 있어서,
상기 메타데이터는 상이한 방식들로 판독가능한 문자열 또는 상기 문자열에 포함된 단어의 철자법과는 상이한 방식으로 발성되는 상기 문자열의 미리결정된 발음을 나타내는, 수신 디바이스.
(13)
제(10)항 내지 제(12)항 중 어느 한 항에 있어서,
상기 회로는, 콘텐츠를 포함하고 상기 전송 디바이스로부터 전송되는 디지털 방송 신호를 수신하고 상기 비상 정보를 수신하도록 구성된, 수신 디바이스.
(14)
제(10)항 내지 제(13)항 중 어느 한 항에 있어서,
상기 경보 정보는 OASIS에 의해 명시된 CAP을 준수하는 CAP 정보이고,
상기 CAP 정보는 상기 메타데이터 또는 상기 메타데이터에 대한 참조를 포함하며, 상기 메타데이터에 대한 참조는 상기 메타데이터의 파일의 위치 또는 상기 메타데이터의 콘텐츠를 나타내는 주소 정보인, 수신 디바이스.
(15)
제(14)항에 있어서,
상기 비상 정보에 포함된 음성 정보는, 상기 전송 디바이스의 상기 CAP 정보에 포함된 상기 메타데이터에 기초하여 상기 CAP 정보에 포함된 상기 메시지를 음성으로 변환함으로써 생성되고, 상기 회로는 상기 음성 정보에 대응하는 사운드를 출력하는, 수신 디바이스.
(16)
제(14)항에 있어서,
상기 비상 정보는, 상기 CAP 정보를 ATSC에 의해 명시된 미리결정된 포맷을 준수하는 포맷으로 변환함으로써 생성되고,
상기 회로는, 상기 비상 정보에 포함된 상기 메타데이터에 기초하여 상기 비상 정보에 포함된 상기 메시지를 음성으로 변환하도록 구성된, 수신 디바이스.
(17)
제(14)항에 있어서,
상기 비상 정보는 상기 CAP 정보이고,
상기 회로는, 상기 CAP 정보에 포함된 상기 메타데이터에 기초하여 상기 CAP 정보에 포함된 상기 메시지를 음성으로 변환하도록 구성된, 수신 디바이스.
(18)
비상 정보를 처리하기 위한 수신 디바이스의 방법으로서,
상기 수신 디바이스의 회로에 의해, 메시지 및 상기 메시지에 대한 음성 정보를 포함하는 비상 정보 ―상기 비상 정보는 전송 디바이스로부터 전송됨― 를 수신하는 단계;
상기 수신 디바이스의 회로에 의해, 상기 메시지를 디스플레이를 위해 출력하는 단계; 및
상기 수신 디바이스의 회로에 의해, 상기 메시지에 대한 상기 음성 정보에 기초하여 상기 메시지의 미리결정된 발음에 따라 사운드를 출력하는 단계
를 포함하는 방법.
(19)
전송 디바이스로서,
비상시 통보가 시급한 비상 정보의 메시지 생산자가 의도한 음성 발성에 관련된 메타데이터를 포함하는 경보 소스 정보를 취득하도록 구성된 경보 소스 정보 취득 유닛; 상기 경보 소스 정보를 처리하도록 구성된 처리 유닛; 및 상기 경보 소스 정보를 처리함으로써 획득된 상기 메시지의 음성 정보를 상기 메시지와 함께 상기 비상 정보로서 전송하도록 구성된 전송 유닛을 포함하는 전송 디바이스.
(20)
제(19)항에 있어서,
상기 메타데이터는, 고유하게 결정된 읽는 방식이 없거나 발음하기 어려운 문자열의 발성에 관련된 정보를 포함하는, 전송 디바이스.
(21)
제(19)항 또는 제(20)항에 있어서,
상기 경보 소스 정보는 상기 메시지를 포함하고,
상기 비상 정보를 수신한 수신 디바이스는 상기 메시지를 디스플레이하고, 상기 메시지의 음성 정보에 기초하여 상기 메시지의 생산자가 의도한 음성 발성에 따라 사운드를 출력하는, 전송 디바이스.
(22)
제(19)항 내지 제(21)항 중 어느 한 항에 있어서, 콘텐츠를 취득하도록 구성된 콘텐츠 취득 유닛을 더 포함하고,
상기 전송 유닛은 상기 콘텐츠를 디지털 방송 신호로서 전송하고, 비상 상황 발생시 상기 비상 정보를 전송하는, 전송 디바이스.
(23)
제(19)항 내지 제(22)항 중 어느 한 항에 있어서,
상기 경보 소스 정보는 OASIS에 의해 명시된 CAP을 준수하는 CAP 정보이고,
상기 CAP 정보는 상기 메타데이터의 파일 또는 상기 메타데이터의 콘텐츠의 취득 목적지를 나타내는 주소 정보를 포함하는, 전송 디바이스.
(24)
제(23)항에 있어서,
상기 비상 정보는, 상기 CAP 정보에 포함된 상기 메타데이터에 기초하여 상기 CAP 정보에 포함된 상기 메시지를 읽음으로써 획득되는 음성 정보를 포함하는, 전송 디바이스.
(25)
제(23)항에 있어서,
상기 비상 정보는, 상기 메시지 및 상기 CAP 정보를 ATSC에 의해 명시된 미리결정된 포맷을 준수하는 포맷으로 변환함으로써 획득되는 메타데이터를 포함하는 시그널링 정보인, 전송 디바이스.
(26)
제(23)항에 있어서, 상기 비상 정보는 상기 메시지 및 상기 메타데이터를 포함하는 CAP 정보인, 전송 디바이스.
(27)
전송 디바이스의 전송 방법으로서,
상기 전송 디바이스에 의해, 비상시 통보가 시급한 비상 정보의 메시지 생산자가 의도한 음성 발성에 관련된 메타데이터를 포함하는 경보 소스 정보를 취득하는 단계; 상기 전송 디바이스에 의해, 상기 경보 소스 정보를 처리하는 단계; 및 상기 전송 디바이스에 의해, 상기 경보 소스 정보를 처리함으로써 획득된 상기 메시지의 음성 정보를 상기 메시지와 함께 상기 비상 정보로서 전송하는 단계를 포함하는 방법.
(28)
수신 디바이스로서,
통보가 시급한 비상 정보의 메시지 및 상기 메시지의 음성 정보를 포함하는 상기 비상 정보 ―상기 비상 정보는 비상시에 전송 디바이스로부터 전송됨― 를 수신하도록 구성된 수신 유닛; 및
상기 비상 정보를 처리하고, 상기 메시지를 디스플레이하며, 상기 메시지의 음성 정보에 기초하여 상기 메시지의 생산자가 의도한 음성 발성에 따라 사운드를 출력하도록 구성된 처리 유닛
을 포함하는 수신 디바이스.
(29)
제(28)항에 있어서,
상기 비상 정보는 상기 메시지 및 상기 메시지의 생산자가 의도한 음성 발성에 관련된 메타데이터를 포함하는 경보 소스 정보를 처리함으로써 획득되는, 수신 디바이스.
(30)
제(28)항 또는 제(29)항에 있어서,
상기 메타데이터는, 고유하게 결정된 읽는 방식이 없거나 발음하기 어려운 문자열의 발성에 관련된 정보를 포함하는, 수신 디바이스.
(31)
제(28)항 내지 제(30)항 중 어느 한 항에 있어서,
상기 수신 유닛은, 상기 전송 디바이스로부터 전송된 디지털 방송 신호로서의 콘텐츠를 수신하고, 비상 상황이 발생할 때 전송된 상기 비상 정보를 수신하는, 수신 디바이스.
(32)
제(28)항 내지 제(31)항 중 어느 한 항에 있어서,
상기 경보 소스 정보는 OASIS에 의해 명시된 CAP을 준수하는 CAP 정보이고,
상기 CAP 정보는 상기 메타데이터의 파일 또는 상기 메타데이터의 콘텐츠의 취득 목적지를 나타내는 주소 정보를 포함하는, 수신 디바이스.
(33)
제(32)항에 있어서,
상기 비상 정보는, 상기 전송 디바이스의 상기 CAP 정보에 포함된 상기 메타데이터에 기초하여 상기 CAP 정보에 포함된 메시지를 읽음으로써 획득되는 음성 정보를 포함하고,
상기 처리 유닛은 상기 음성 정보에 대응하는 사운드를 출력하는, 수신 디바이스.
(34)
제(32)항에 있어서,
상기 비상 정보는 상기 CAP 정보를 ATSC에 의해 명시된 미리결정된 포맷을 준수하는 포맷으로 변환함으로써 획득되는 시그널링 정보이고, 상기 수신 디바이스는 상기 시그널링 정보에 포함된 메타데이터에 기초하여 상기 시그널링 정보에 포함된 메시지를 읽도록 구성된 음성 읽기 유닛을 더 포함하는, 수신 디바이스.
(35)
제(32)항에 있어서,
상기 비상 정보는 상기 CAP 정보이고, 상기 수신 디바이스는 상기 CAP 정보에 포함된 상기 메타데이터에 기초하여 상기 CAP 정보에 포함된 상기 메시지를 읽도록 구성된 음성 읽기 유닛을 더 포함하는, 수신 디바이스.
(36)
수신 디바이스의 수신 방법으로서,
상기 수신 디바이스에 의해, 통보가 시급한 비상 정보의 메시지 및 상기 메시지의 음성 정보를 포함하는 상기 비상 정보 ―상기 비상 정보는 비상시에 전송 디바이스로부터 전송됨― 를 수신하는 단계; 및
상기 수신 디바이스에 의해, 상기 비상 정보를 처리하고, 상기 메시지를 디스플레이하며, 상기 메시지의 음성 정보에 기초하여 상기 메시지의 생산자가 의도한 음성 발성에 따라 사운드를 출력하는 단계
를 포함하는 방법.
1: 방송 시스템
10: 전송 디바이스
20: 수신 디바이스
30: 전송 경로
40: 서버
50: 인터넷
111: 콘텐츠 취득 유닛
112: 스트림 생성 유닛
113: 전송 유닛
114: CAP 정보 취득 유닛
115: TTS 엔진
116: 비상 정보 포맷 변환 유닛
131: 음성 발성 메타데이터 생성 유닛
132: CAP 정보 생성 유닛
133: 전송 유닛
212: 수신 유닛
213: 스트림 분리 유닛
214: 재생 유닛
215: 디스플레이 유닛
216: 스피커
217: 비상 정보 취득 유닛
218: 음성 발성 메타데이터 취득 유닛
219: TTS 엔진
220: 통신 유닛
900: 컴퓨터
901: CPU

Claims (18)

  1. 전송 디바이스로서,
    회로를 포함하고, 상기 회로는,
    메시지의 미리결정된 발음에 관련된 메타데이터를 포함하는 경보 정보를 수신하고;
    상기 경보 정보에 포함된 상기 메타데이터에 기초하여 상기 메시지에 대한 음성 정보를 생성하며;
    상기 메시지 및 상기 메시지에 대한 상기 생성된 음성 정보를 포함하는 비상 정보를 전송하도록 구성된, 전송 디바이스.
  2. 제1항에 있어서, 상기 메타데이터는 상이한 방식들로 판독가능한 문자열 또는 상기 문자열에 포함된 단어의 철자법과는 상이한 방식으로 발성되는 상기 문자열의 상기 미리결정된 발음을 나타내는, 전송 디바이스.
  3. 제1항에 있어서, 상기 경보 정보는 상기 메시지를 포함하고, 상기 비상 정보를 수신한 수신 디바이스는 상기 메시지를 디스플레이하고, 상기 음성 정보에 기초하여 상기 메시지의 상기 미리결정된 발음에 따라 사운드를 출력하는, 전송 디바이스.
  4. 제1항에 있어서, 상기 회로는 또한:
    콘텐츠를 수신하고,
    상기 콘텐츠를 포함하는 디지털 방송 신호를 전송하며,
    상기 비상 정보를 전송하도록 구성된, 전송 디바이스.
  5. 제1항에 있어서,
    상기 경보 정보는 OASIS(Organization for the Advancement of Structured Information Standard)에 의해 명시된 CAP(Common Alerting Protocol)을 준수하는 CAP 정보이고, 상기 CAP 정보는 상기 메타데이터 또는 상기 메타데이터의 파일의 위치를 나타내는 주소 정보를 포함하는, 전송 디바이스.
  6. 제5항에 있어서,
    상기 비상 정보에 포함된 음성 정보는, 상기 CAP 정보에 포함된 상기 메타데이터에 기초하여 상기 CAP 정보에 포함된 상기 메시지를 음성으로 변환함으로써 생성되는, 전송 디바이스.
  7. 제5항에 있어서, 상기 메시지 및 상기 메타데이터를 포함하는 상기 비상 정보는, 상기 CAP 정보를 ATSC(Advanced Television Systems Committee)에 의해 명시된 미리결정된 포맷을 준수하는 포맷으로 변환함으로써 생성되는, 전송 디바이스.
  8. 제5항에 있어서,
    상기 비상 정보는 상기 메시지 및 상기 메타데이터를 포함하는 상기 CAP 정보인, 전송 디바이스.
  9. 비상 정보를 전송하기 위한 전송 디바이스의 방법으로서,
    상기 전송 디바이스의 회로에 의해, 메시지의 미리결정된 발음에 관련된 메타데이터를 포함하는 경보 정보를 취득하는 단계;
    상기 전송 디바이스의 회로에 의해, 상기 경보 정보에 포함된 상기 메타데이터에 기초하여 상기 메시지에 대한 음성 정보를 생성하는 단계; 및
    상기 전송 디바이스의 회로에 의해, 상기 메시지 및 상기 메시지에 대한 상기 생성된 음성 정보를 포함하는 상기 비상 정보를 전송하는 단계
    를 포함하는 방법.
  10. 수신 디바이스로서,
    회로를 포함하고, 상기 회로는,
    메시지 및 상기 메시지에 대한 음성 정보를 포함하는 비상 정보 ―상기 비상 정보는 전송 디바이스로부터 전송됨― 를 수신하고;
    상기 메시지를 디스플레이를 위해 출력하며;
    상기 메시지에 대한 상기 음성 정보에 기초하여 상기 메시지의 미리결정된 발음에 따라 사운드를 출력하도록 구성된, 수신 디바이스.
  11. 제10항에 있어서,
    상기 비상 정보는, 상기 메시지, 및 상기 메시지의 상기 미리결정된 발음에 관련된 메타데이터 또는 상기 메타데이터에 대한 참조 중 하나를 포함하는 경보 정보에 기초하여 생성되는, 수신 디바이스.
  12. 제11항에 있어서,
    상기 메타데이터는 상이한 방식들로 판독가능한 문자열 또는 상기 문자열에 포함된 단어의 철자법과는 상이한 방식으로 발성되는 상기 문자열의 미리결정된 발음을 나타내는, 수신 디바이스.
  13. 제10항에 있어서,
    상기 회로는, 콘텐츠를 포함하고 또한 상기 전송 디바이스로부터 전송되는 디지털 방송 신호를 수신하고, 상기 비상 정보를 수신하도록 구성된, 수신 디바이스.
  14. 제11항에 있어서,
    상기 경보 정보는 OASIS에 의해 명시된 CAP을 준수하는 CAP 정보이고, 상기 CAP 정보는 상기 메타데이터 또는 상기 메타데이터에 대한 참조를 포함하고, 상기 메타데이터에 대한 참조는 상기 메타데이터의 파일의 위치 또는 상기 메타데이터의 콘텐츠를 나타내는 주소 정보인, 수신 디바이스.
  15. 제14항에 있어서,
    상기 비상 정보에 포함된 음성 정보는, 상기 전송 디바이스의 상기 CAP 정보에 포함된 상기 메타데이터에 기초하여 상기 CAP 정보에 포함된 상기 메시지를 음성으로 변환함으로써 생성되고,
    상기 회로는 상기 음성 정보에 대응하는 사운드를 출력하는, 수신 디바이스.
  16. 제14항에 있어서,
    상기 비상 정보는 상기 CAP 정보를 ATSC(Advanced Television Systems Committee)에 의해 명시된 미리결정된 포맷을 준수하는 포맷으로 변환함으로써 생성되고, 상기 회로는 상기 비상 정보에 포함된 상기 메타데이터에 기초하여 상기 비상 정보에 포함된 상기 메시지를 음성으로 변환하도록 구성된, 수신 디바이스.
  17. 제14항에 있어서, 상기 비상 정보는 상기 CAP 정보이고, 상기 회로는 상기 CAP 정보에 포함된 상기 메타데이터에 기초하여 상기 CAP 정보에 포함된 상기 메시지를 음성으로 변환하도록 구성된, 수신 디바이스.
  18. 비상 정보를 처리하기 위한 수신 디바이스의 방법으로서,
    상기 수신 디바이스의 회로에 의해, 메시지 및 상기 메시지에 대한 음성 정보를 포함하는 비상 정보 ―상기 비상 정보는 전송 디바이스로부터 전송됨― 를 수신하는 단계;
    상기 수신 디바이스의 회로에 의해, 디스플레이를 위해 상기 메시지를 출력하는 단계; 및
    상기 수신 디바이스의 회로에 의해, 상기 메시지에 대한 상기 음성 정보에 기초하여 상기 메시지의 미리결정된 발음에 따라 사운드를 출력하는 단계
    를 포함하는 방법.
KR1020177027439A 2015-04-08 2016-03-28 전송 디바이스, 전송 방법, 수신 디바이스, 및 수신 방법 KR20170134414A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2015-079603 2015-04-08
JP2015079603A JP6596891B2 (ja) 2015-04-08 2015-04-08 送信装置、送信方法、受信装置、及び、受信方法
PCT/JP2016/001777 WO2016163098A1 (en) 2015-04-08 2016-03-28 Transmission device, transmission method, reception device, and reception method

Publications (1)

Publication Number Publication Date
KR20170134414A true KR20170134414A (ko) 2017-12-06

Family

ID=55752672

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177027439A KR20170134414A (ko) 2015-04-08 2016-03-28 전송 디바이스, 전송 방법, 수신 디바이스, 및 수신 방법

Country Status (7)

Country Link
US (1) US20180062777A1 (ko)
EP (1) EP3281193A1 (ko)
JP (1) JP6596891B2 (ko)
KR (1) KR20170134414A (ko)
CA (1) CA2980694A1 (ko)
MX (1) MX2017012465A (ko)
WO (1) WO2016163098A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10297117B2 (en) * 2016-11-21 2019-05-21 Textspeak Corporation Notification terminal with text-to-speech amplifier
US11430305B2 (en) 2016-11-21 2022-08-30 Textspeak Corporation Notification terminal with text-to-speech amplifier
CN107437413B (zh) * 2017-07-05 2020-09-25 百度在线网络技术(北京)有限公司 语音播报方法及装置
JP2019135806A (ja) * 2018-02-05 2019-08-15 ソニーセミコンダクタソリューションズ株式会社 復調回路、処理回路、処理方法、および処理装置
CN116679889B (zh) * 2023-07-31 2023-11-03 苏州浪潮智能科技有限公司 Raid设备配置信息的确定方法及装置、存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09258763A (ja) * 1996-03-18 1997-10-03 Nec Corp 音声合成装置
JPH09305198A (ja) * 1996-05-10 1997-11-28 Daihatsu Motor Co Ltd 情報送信装置及び情報受信装置
JP3115232B2 (ja) * 1996-06-11 2000-12-04 富士通テン株式会社 受信した文字データを音声に合成する音声合成装置
JP2004312507A (ja) * 2003-04-09 2004-11-04 Matsushita Electric Ind Co Ltd 情報受信装置
JP2005309164A (ja) * 2004-04-23 2005-11-04 Nippon Hoso Kyokai <Nhk> 読み上げ用データ符号化装置および読み上げ用データ符号化プログラム
WO2008008408A2 (en) * 2006-07-12 2008-01-17 Spectrarep System and method for managing emergency notifications over a network
US8138915B2 (en) * 2007-11-15 2012-03-20 Ibiquity Digital Corporation Systems and methods for rendering alert information for digital radio broadcast, and active digital radio broadcast receiver
US9330720B2 (en) * 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
JP4972011B2 (ja) * 2008-02-26 2012-07-11 日本放送協会 触覚提示装置及び触覚提示方法
US20110273627A1 (en) * 2009-09-29 2011-11-10 Atsuhiro Tsuji Display device
US8407736B2 (en) * 2010-08-04 2013-03-26 At&T Intellectual Property I, L.P. Apparatus and method for providing emergency communications
JP2012080475A (ja) * 2010-10-06 2012-04-19 Hitachi Consumer Electronics Co Ltd デジタル放送受信装置およびデジタル放送受信方法
US9202465B2 (en) * 2011-03-25 2015-12-01 General Motors Llc Speech recognition dependent on text message content
US9368104B2 (en) * 2012-04-30 2016-06-14 Src, Inc. System and method for synthesizing human speech using multiple speakers and context
US9570066B2 (en) * 2012-07-16 2017-02-14 General Motors Llc Sender-responsive text-to-speech processing
US20140163948A1 (en) * 2012-12-10 2014-06-12 At&T Intellectual Property I, L.P. Message language conversion
JP6266253B2 (ja) * 2013-07-26 2018-01-24 ホーチキ株式会社 告知放送システム
US9877178B2 (en) * 2014-06-16 2018-01-23 United States Cellular Corporation System and method for delivering wireless emergency alerts to residential phones

Also Published As

Publication number Publication date
JP6596891B2 (ja) 2019-10-30
EP3281193A1 (en) 2018-02-14
MX2017012465A (es) 2018-03-07
JP2016201643A (ja) 2016-12-01
US20180062777A1 (en) 2018-03-01
WO2016163098A1 (en) 2016-10-13
CA2980694A1 (en) 2016-10-13

Similar Documents

Publication Publication Date Title
KR20170134414A (ko) 전송 디바이스, 전송 방법, 수신 디바이스, 및 수신 방법
CN100366075C (zh) 在节目分发网络中传播的警报消息的转换
US8677409B2 (en) Methods, systems, and computer program products for categorizing/rating content uploaded to a network for broadcasting
US20200288216A1 (en) Systems and methods for signaling of emergency alert messages
CA2978235C (en) Reception apparatus, reception method, transmission apparatus, and transmission method for a location based filtering of emergency information
US20060031582A1 (en) Conversion of alert messages for dissemination in a program distribution network
US11197048B2 (en) Transmission device, transmission method, reception device, and reception method
KR20140072994A (ko) 재난경보 제공 시스템 및 그 운용 방법
CA3044996A1 (en) Systems and methods for signaling of emergency alert messages
US11330344B2 (en) Receiving apparatus, transmitting apparatus, and data processing method
KR20240091501A (ko) Atsc 3.0 기반의 재난정보를 미디어 콘텐츠로 변환하기위한 방법 및 장치
KR20060062743A (ko) 데이터 방송 서비스에서의 컨텐츠 기술을 위한 데이터 및이를 이용한 컨텐츠 제공 장치
BR112017000101B1 (pt) Dispositivos e métodos de transmissão e de recepção.
KR20050066488A (ko) 디지털 방송 수신용 데이터 서비스 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
WITB Written withdrawal of application