JP6596891B2 - 送信装置、送信方法、受信装置、及び、受信方法 - Google Patents

送信装置、送信方法、受信装置、及び、受信方法 Download PDF

Info

Publication number
JP6596891B2
JP6596891B2 JP2015079603A JP2015079603A JP6596891B2 JP 6596891 B2 JP6596891 B2 JP 6596891B2 JP 2015079603 A JP2015079603 A JP 2015079603A JP 2015079603 A JP2015079603 A JP 2015079603A JP 6596891 B2 JP6596891 B2 JP 6596891B2
Authority
JP
Japan
Prior art keywords
information
emergency
message
cap
emergency information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015079603A
Other languages
English (en)
Other versions
JP2016201643A5 (ja
JP2016201643A (ja
Inventor
武敏 山根
靖明 山岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2015079603A priority Critical patent/JP6596891B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to EP16716300.5A priority patent/EP3281193A1/en
Priority to PCT/JP2016/001777 priority patent/WO2016163098A1/en
Priority to KR1020177027439A priority patent/KR20170134414A/ko
Priority to MX2017012465A priority patent/MX2017012465A/es
Priority to US15/557,481 priority patent/US20180062777A1/en
Priority to CA2980694A priority patent/CA2980694A1/en
Publication of JP2016201643A publication Critical patent/JP2016201643A/ja
Publication of JP2016201643A5 publication Critical patent/JP2016201643A5/ja
Application granted granted Critical
Publication of JP6596891B2 publication Critical patent/JP6596891B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/53Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers
    • H04H20/59Arrangements specially adapted for specific applications, e.g. for traffic information or for mobile receivers for emergency or urgency
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • H04M11/04Telephonic communication systems specially adapted for combination with other electrical systems with alarm systems, e.g. fire, police or burglar alarm systems
    • H04M11/045Telephonic communication systems specially adapted for combination with other electrical systems with alarm systems, e.g. fire, police or burglar alarm systems using recorded signals, e.g. speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/06Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/90Services for handling of emergency or hazardous situations, e.g. earthquake and tsunami warning systems [ETWS]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L2013/083Special characters, e.g. punctuation marks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/39Electronic components, circuits, software, systems or apparatus used in telephone systems using speech synthesis

Description

本技術は、送信装置、送信方法、受信装置、及び、受信方法に関し、特に、視覚障がい者に対するアクセシビリティを向上させることができるようにした送信装置、送信方法、受信装置、及び、受信方法に関する。
デジタル放送の分野では、視覚障がい者に対するアクセシビリティが求められている(例えば、特許文献1参照)。
特に、米国では、いわゆる米国アクセシビリティ法(CVAA:The 21st Century Communications and Video Accessibility Act of 2010)が制定され、連邦通信委員会(FCC:Federal Communications Commission)により、この法律をベースとした映像番組のアクセシビリティに関する様々な規制が発表されている。
特開2009−204711号公報
ところで、米国では、EAS(Emergency Alerting System)と呼ばれる緊急告知のシステムが整備されており、大統領からの最優先事項からローカルな告知事項まで、様々なレベルの緊急情報を、様々なメディアにより告知できるようになっている。
デジタル放送において、このような緊急情報を告知する場合にも、視覚障がい者に対するアクセシビリティが求められるが、既存のTTS(Text To Speech)エンジンでは、緊急情報の制作者が意図した通りに、テキスト情報が読み上げられるとは限らず、視覚障がい者が、健常者と同等の情報を得られる保証がない。そのため、確実に、緊急情報の制作者が意図した通りの発話が行われて、視覚障がい者が、健常者と同様の情報を得られるようにするための技術が求められていた。
本技術はこのような状況に鑑みてなされたものであり、確実に、緊急情報の制作者が意図した通りの発話が行われるようにすることで、視覚障がい者に対するアクセシビリティを向上させることができるようにするものである。
本技術の第1の側面の送信装置は、緊急時において、緊急に告知する必要がある緊急情報のメッセージに対する制作者が意図する音声の発話に関するメタデータを含む緊急情報源情報を取得する緊急情報源情報取得部と、前記緊急情報源情報を処理する処理部と、前記緊急情報として、前記メッセージとともに、前記緊急情報源情報を処理して得られるアドレス情報を放送信号に含めて送信する送信部とを備え、前記メタデータは、前記緊急情報のメッセージに対する制作者が意図する音声の発話に関するファイルの取得先を示す前記アドレス情報を含み、前記アドレス情報は、通信経由で配信される前記ファイルの取得先を含む送信装置である。
本技術の第1の側面の送信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。また、本技術の第1の側面の送信方法は、上述した本技術の第1の側面の送信装置に対応する送信方法である。
本技術の第1の側面の送信装置、及び、送信方法においては、緊急時において、緊急に告知する必要がある緊急情報のメッセージに対する制作者が意図する音声の発話に関するメタデータを含む緊急情報源情報が取得され、前記緊急情報源情報が処理され、前記緊急情報として、前記メッセージとともに、前記緊急情報源情報を処理して得られるアドレス情報が放送信号に含めて送信される。また、前記メタデータには、前記緊急情報のメッセージに対する制作者が意図する音声の発話に関するファイルの取得先を示す前記アドレス情報が含まれ、前記アドレス情報には、通信経由で配信される前記ファイルの取得先が含まれる。
本技術の第2の側面の受信装置は、緊急時において、送信装置から放送信号として送信されてくる、緊急に告知する必要がある緊急情報のメッセージと、アドレス情報を含む前記緊急情報を受信する受信部と、前記緊急情報を処理して、前記メッセージを表示させるとともに、前記アドレス情報に基づいて取得された前記メッセージに対する制作者が意図する音声の発話に応じた音声を出力させる処理部とを備え、前記緊急情報は、前記メッセージと、前記メッセージに対する制作者が意図する音声の発話に関するメタデータを含む緊急情報源情報を処理することで得られ、前記メタデータは、前記メッセージに対する制作者が意図する音声の発話に関するファイルの取得先を示す前記アドレス情報を含み、前記アドレス情報は、通信経由で配信される前記ファイルの取得先を含む受信装置である。
本技術の第2の側面の受信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。また、本技術の第2の側面の受信方法は、上述した本技術の第2の側面の受信装置に対応する受信方法である。
本技術の第2の側面の受信装置、及び、受信方法においては、緊急時において、送信装置から放送信号として送信されてくる、緊急に告知する必要がある緊急情報のメッセージと、アドレス情報を含む前記緊急情報が受信され、前記緊急情報を処理して、前記メッセージが表示されるとともに、前記アドレス情報に基づいて取得された前記メッセージに対する制作者が意図する音声の発話に応じた音声が出力される。また、前記緊急情報は、前記メッセージと、前記メッセージに対する制作者が意図する音声の発話に関するメタデータを含む緊急情報源情報を処理することで得られ、前記メタデータには、前記メッセージに対する制作者が意図する音声の発話に関するファイルの取得先を示す前記アドレス情報が含まれ、前記アドレス情報には、通信経由で配信される前記ファイルの取得先が含まれる。
本技術の第1の側面、及び、第2の側面によれば、視覚障がい者に対するアクセシビリティを向上させることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
緊急情報の伝送の概要を示す図である。 緊急情報の表示例を示す図である。 従来のTTSエンジンによるテキスト情報の読み上げ例を説明する図である。 従来のTTSエンジンによるテキスト情報の読み上げ例を説明する図である。 本技術を適用したTTSエンジンによるテキスト情報の読み上げ例を説明する図である。 本技術を適用したTTSエンジンによるテキスト情報の読み上げ例を説明する図である。 本技術を適用した放送システムの構成例を示す図である。 本技術を適用した送信装置の構成例を示す図である。 本技術を適用した受信装置の構成例を示す図である。 CAP情報の構造の例を示す図である。 CAP情報の記述例を示す図である(Common Alerting Protocol Version 1.2 01 July 2010 Appendix A より抜粋)。 拡張CAP情報で追加される要素と属性の例を示す図である。 拡張CAP情報のXMLスキーマの記述例を示す図である。 拡張CAP情報における名前空間の指定を説明する図である。 拡張CAP情報の記述例を示す図である。 送信処理を説明するフローチャートである。 受信処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
以下、図面を参照しながら本技術の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.本技術の音声発話メタデータの概要
2.システムの構成
3.CAP情報の拡張による音声発話メタデータの配置
4.各装置で実行される処理の流れ
5.変形例
6.コンピュータの構成
<1.本技術の音声発話メタデータの概要>
米国アクセシビリティ法に関係する連邦通信委員会(FCC)の規制では、放送事業者(サービス事業者)に対して緊急情報(Emergency Alerts)を、視覚障がい者に対してアクセシブルにするために、メッセージ等のテキスト情報とは別に、音声情報での送信を義務づけている。
連邦通信委員会(FCC)の規制では、この音声情報を用いた緊急情報の生成方法として、TTS(Text To Speech)エンジンの使用を認めているが、このTTSエンジンで生成された音声については、明瞭さと正しい発音が求められている。ここで、TTSエンジンは、テキスト情報から、人間の音声を人工的に作り出すことができる音声合成機(Text To Speech Synthesizer)である。
一方で、緊急情報は、CAP(Common Alerting Protocol)方式の緊急告知の情報(以下、「CAP情報」ともいう)として、放送局に伝達されることになる。すなわち、米国では、EASと呼ばれる緊急告知のシステムが整備されているので、このEASを利用して、大統領からの最優先事項からローカルな告知事項まで、様々なレベルの緊急情報(CAP情報)が、様々なメディアにより告知(通知)されることになる。
なお、CAP情報は、構造化情報標準促進協会(OASIS:Organization for the Advancement of Structured Information Standards)で規定されているCAPに準拠したものとなる。
例えば、図1において、緊急情報源(Alerting Sources)から告知(通知)される緊急情報源情報がCAP情報に変換され、放送局(のEASシステム)(Emergency Alert System at Station)に提供される。放送局(のEASシステム)は、緊急情報源からのCAP情報を、緊急情報の映像(メッセージ)や音声情報としてレンダリングやエンコードするか、あるいは所定のフォーマットに変換するか、あるいはそのままの形式で、ローカル放送局(Local Broadcast)に提供する。そして、ローカル放送局(の送信機)は、このようにして伝達されてくる緊急情報を、放送エリア内の多数の受信機に対して送信することになる。
例えば、緊急情報源には、気象業務を担当する国家機関(例えば米国国立気象局(NWS:National Weather Service))等が該当し、気象警報を提供する。この場合、放送局、又は放送局(の送信機)からの緊急情報を受信した受信機では、放送番組に、気象警報を重畳表示させることになる(図2A)。また、例えば、緊急情報源が、ある地方の機関等が該当する場合、その地方に関する緊急情報源情報を提供する。この場合、放送局、又は放送局(の送信機)からの緊急情報を受信した受信機では、放送番組に、その地方に関する緊急情報を重畳表示させることになる(図2B)。
ここで、放送局側で、CAP情報を用い、TTSエンジンを使用した音声での緊急情報を生成する場合に、連邦通信委員会(FCC)の規制で要求されている、明瞭で正しい発音が保証できないという問題がある。すなわち、TTSエンジンでは、緊急情報の制作者が意図した通りに、テキスト情報が読み上げられるとは限らず、視覚障がい者が、健常者と同等の情報が得られる保証はない。
具体的には、図3に示すように、例えば、"AAA"であるテキスト情報は、"triple A"又は"A A A"と読めるため、その読み方が一意に定まらないので、TTSエンジンでは、どのように読み上げてよいかを判断できず、結果として、制作者が意図した通りに、テキスト情報が読み上げられない可能性が出てくる。
また、図4に示すように、例えば、"Caius College"であるテキスト情報は、その発音が難解な固有名詞等であるため、TTSエンジンでは、どのように読み上げていいのかが判断できず、制作者が意図した通りに、テキスト情報が読み上げられない可能性がある。
このように、テキスト情報(緊急情報のメッセージ)の読み方が一意に定まらない場合や、発音が難解な固有名詞等である場合などには、制作者が意図した通りにテキスト情報が読み上げられない可能性があるため、確実に、制作者が意図した通りの発話が行われて、視覚障がい者が、健常者と同等の緊急情報を得られるようにする技術が求められていた。
そこで、本技術では、確実に、緊急情報に対する制作者が意図した通りの音声の発話が行われるようにするために、制作者が意図する音声の発話に関する情報(以下、「音声発話メタデータ」という)を、TTSエンジンに提供して、当該TTSエンジンが、制作者が意図する音声を発話できるようにする。なお、当該音声発話メタデータは、CAP情報に含めて提供することができる。
具体的には、図5に示すように、例えば、"AAA"であるテキスト情報について、その音声の読み方を示した"triple A"を、音声発話メタデータとして、TTSエンジンに提供されるようにすることで、当該TTSエンジンは、音声発話メタデータに基づいて、"triple A"と読み上げることができる。
すなわち、図3において、"AAA"であるテキスト情報を入力した場合、TTSエンジンは、"triple A"と、"A A A"のどちらで読み上げるのが正しいかを判断することができなかったが、図5においては、音声発話メタデータとしての"triple A"を入力することで、TTSエンジンは、音声発話メタデータに従い、"triple A"を読み上げることができる。その結果、制作者が意図する音声が発話されることになる。
また、図6に示すように、例えば、"Caius College"であるテキスト情報について、その音素情報を、音声発話メタデータとして、TTSエンジンに提供されるようにすることで、当該TTSエンジンは、音声発話メタデータに基づいて、"keys college"と読み上げることができる。
すなわち、図4において、"Caius College"であるテキスト情報を入力した場合、TTSエンジンは、その発音が難解な固有名詞等であるため、どのように読み上げるのが正しいかを判断することができなかったが、図6においては、音声発話メタデータとしての音素情報を入力することで、TTSエンジンは、音声発話メタデータに従い、"keys college"と読み上げることができる。その結果、制作者が意図する音声が発話されることになる。
このように、音声発話メタデータをTTSエンジンに提供することで、例えば、テキスト情報(緊急情報のメッセージ)の読み方が一意に定まらない場合や、発音が難解な固有名詞等である場合などであっても、確実に、制作者が意図した通りにテキスト情報が読み上げられるため、視覚障がい者が、健常者と同等の情報を得られるようになる。
<2.システムの構成>
(放送システムの構成例)
図7は、本技術を適用した放送システムの構成例を示す図である。
図7において、放送システム1は、放送番組等のコンテンツを提供するとともに、緊急に告知する必要がある情報である緊急情報を、視覚障がい者に対してアクセシブルにすることが可能なシステムである。放送システム1は、送信側の送信装置10及びCAP情報提供装置11と、受信側の受信装置20から構成される。ただし、受信装置20は、インターネット50を介してサーバ40と相互に通信することが可能である。
送信装置10は、例えば地上デジタル放送サービスを提供する放送局により運営される。送信装置10は、放送番組等のコンテンツを、デジタル放送信号により送信する。この送信装置10は、図1の放送局(Station)とローカル放送局(Local Broadcast)に相当するものである。
CAP情報提供装置11は、緊急時において、音声発話メタデータを含むCAP情報(以下、「拡張CAP情報」ともいう)を生成して、送信装置10に送信する。なお、CAP情報提供装置11により生成される拡張CAP情報は、図1の緊急情報源(Alerting Sources)からのCAP情報に相当するものである。
緊急時において、送信装置10は、CAP情報提供装置11から送信されてくる拡張CAP情報を受信し、当該拡張CAP情報に基づいた所定のデータ形式の緊急情報を、デジタル放送信号に含めて送信する。ただし、上述した連邦通信委員会(FCC)の規制に対応するためには、緊急情報のメッセージ(テキスト情報)を、視覚障がい者に対してアクセシブルにするために、当該メッセージの音声に関する情報を送信する必要がある。そこで、本技術では、緊急情報のメッセージの音声に関する情報を送信するための方式として、次の3つの方式を提案するものとする。
第1の方式としては、拡張CAP情報に含まれるメッセージに対して、映像として受信装置20の画面に表示させるためのレンダリングやエンコード等の処理を行い、緊急情報として送信されるようにする。また、このとき、拡張CAP情報に基づいて、緊急情報として送信されるメッセージの音声情報を生成するためのデコード等の処理を行い、それにより得られる音声情報が、緊急情報として送信されるようにする。すなわち、第1の方式では、緊急情報として、メッセージとともにその音声情報(音声に関する情報)が送信されることになる。
なお、この場合、送信側の送信装置10のTTSエンジンが、拡張CAP情報に含まれる音声発話メタデータに従い、メッセージを読み上げることになるため、例えば、テキスト情報の読み方が一意に定まらない場合や、発音が難解な固有名詞等である場合などであっても、確実に、制作者が意図した通りに読み上げられることになる。
第2の方式としては、拡張CAP情報を、米国のデジタル放送規格であるATSC(Advanced Television Systems Committee)で規定される所定のフォーマットに準拠した形式に変換して、それにより得られるATSCの規定に対応した情報(以下、「ATSCシグナリング情報」という)が、緊急情報として送信されるようにする。なお、ここでは、例えば、米国の次世代デジタル放送規格であるATSC3.0に規定されるフォーマットを採用することができる。すなわち、第2の方式では、緊急情報として、メッセージとその音声発話メタデータ(音声に関する情報)を含むATSCシグナリング情報が送信されることになる。
第3の方式としては、拡張CAP情報が、そのままの形式で、緊急情報として送信されるようにする。すなわち、第3の方式では、緊急情報として、メッセージとその音声発話メタデータ(音声に関する情報)を含む拡張CAP情報が送信されることになる。
受信装置20は、例えばテレビ受像機やセットトップボックス、録画機等から構成され、ユーザの各家庭等に設置される。受信装置20は、伝送路30を介して、送信装置10から送信されてくるデジタル放送信号を受信し、放送番組等のコンテンツの映像や音声を出力する。
また、緊急時において、受信装置20は、送信装置10から送信されてくる緊急情報を受信した場合、その緊急情報のメッセージを表示する。この場合に、送信装置10からの緊急情報は、上述した第1の方式乃至第3の方式のいずれかの方式で伝送されてくることになる。
第1の方式では、映像に重畳されたメッセージの音声情報が送信されてくるので、受信装置20は、当該音声情報に対応した音声を出力することになる。この場合、当該音声情報は、送信側の送信装置10において、音声発話メタデータに従い、TTSエンジンが読み上げたものとなるので、映像に重畳表示されたメッセージは、制作者が意図した通りに読み上げられることになる。
第2の方式では、拡張CAP情報を変換して得られる、ATSCシグナリング情報が送信されてくるので、受信装置20は、ATSCシグナリング情報に含まれる音声発話メタデータに従い、ATSCシグナリング情報に含まれるメッセージであって、表示中のメッセージを読み上げることができる。また、第3の方式では、拡張CAP情報が送信されてくるので、受信装置20は、拡張CAP情報に含まれる音声発話メタデータに従い、拡張CAP情報に含まれるメッセージであって、表示中のメッセージを読み上げることができる。
ここで、第2の方式と第3の方式においては、受信側の受信装置20のTTSエンジンが、音声発話メタデータに従い、緊急情報のメッセージを読み上げることになるため、例えば、テキスト情報の読み方が一意に定まらない場合や、発音が難解な固有名詞等である場合などであっても、確実に、制作者が意図した通りに読み上げられることになる。
また、ATSCシグナリング情報又は拡張CAP情報に格納される音声発話メタデータとしては、音声発話メタデータを取得するためのアドレス情報を記述したものと、音声発話メタデータの内容そのものを記述したものの2種類が存在する。そして、音声発話メタデータに、アドレス情報を記述した場合には、音声発話メタデータの内容は、当該アドレス情報に従い取得されるファイル(以下、「音声発話メタデータファイル」という)に記述されていることになる。
このアドレス情報としては、例えば、インターネット50上のサーバ40にアクセスするためのURL(Uniform Resource Locator)が指定される。ここで、サーバ40は、音声発話メタデータファイルを管理している。受信装置20は、ATSCシグナリング情報又は拡張CAP情報に含まれる音声発話メタデータに記述されたアドレス情報(例えばURL)に従い、インターネット50を介してサーバ40にアクセスし、音声発話メタデータファイルを取得することができる。
なお、上述した第1の方式乃至第3の方式は、緊急情報として送信されるメッセージの音声に関する情報を送信するためのデータ形式の一例であって、他のデータ形式を採用してもよい。また、第1の方式又は第2の方式を採用する場合には、緊急情報として、地理データ等の地域情報に基づいた、ローカル放送局ごとの情報が生成されるようにしてもよい。
また、図7の放送システム1では、1台の送信装置10のみを図示しているが、実際には、複数の放送局ごとに送信装置10が設置され、各送信装置10が、CAP情報提供装置11から供給される拡張CAP情報を取得することになる。同様に、図7の放送システム1では、1台の受信装置20のみを図示しているが、実際には、複数のユーザの家庭ごとに、受信装置20が設置されている。
(送信側の構成例)
図8は、図7の送信側の送信装置10とCAP情報提供装置11の構成例を示す図である。
図8において、送信装置10は、コンテンツ取得部111、ストリーム生成部112、送信部113、CAP情報取得部114、TTSエンジン115、及び、緊急情報フォーマット変換部116から構成される。
コンテンツ取得部111は、放送番組等のコンテンツを取得して、ストリーム生成部112に供給する。また、コンテンツ取得部111は、コンテンツに対して、例えばエンコードやフォーマット形式の変換処理などを実行することができる。
なお、コンテンツ取得部111においては、例えば、既に収録されたコンテンツの保管場所から、放送時間帯に応じて該当するコンテンツが取得されたり、あるいはスタジオやロケーション場所からライブのコンテンツが取得されたりする。
ストリーム生成部112は、コンテンツ取得部111から供給されるコンテンツデータに、シグナリングデータなどを多重化することで、ATSCの規定に準拠したストリームを生成し、送信部113に供給する。
送信部113は、ストリーム生成部112から供給されるストリームに対して、例えばデジタル変調等の処理を施して、アンテナ117を介して、デジタル放送信号として送信する。
ここで、緊急時においては、CAP情報提供装置11からの拡張CAP情報が、送信装置10に送信される。図8において、CAP情報提供装置11は、音声発話メタデータ生成部131、CAP情報生成部132、及び、送信部133から構成される。
音声発話メタデータ生成部131は、緊急時に、例えば緊急情報の制作者等からの指示に従い、音声発話メタデータを生成して、CAP情報生成部132に供給する。なお、音声発話メタデータとしては、例えば、テキスト情報の読み方が一意に定まらない場合にその音声の読み方を示した情報や、発音が難解な固有名詞等である場合にその音素情報が生成される。
CAP情報生成部132は、緊急時において、緊急情報源から伝達されてくる緊急情報源情報に基づいて、拡張CAP情報を生成し、送信部133に供給する。ここでは、例えば、CAP情報生成部132によって、緊急情報のメッセージを含むCAP情報に、音声発話メタデータ生成部131から供給される音声発話メタデータが格納(配置)されることで、拡張CAP情報が生成される。送信部133は、音声発話メタデータを含む拡張CAP情報を、送信装置10に送信する。
送信装置10において、CAP情報取得部114は、緊急時に、CAP情報提供装置11から送信されてくる拡張CAP情報を取得(受信)する。CAP情報取得部114は、拡張CAP情報を、ストリーム生成部112、TTSエンジン115、又は緊急情報フォーマット変換部116に供給する。
ここで、先に述べた通り、連邦通信委員会(FCC)の規制に対応するためには、上述した第1の方式乃至第3の方式のうちのいずれかの方式を用いて、緊急情報のメッセージの音声に関する情報を送信する必要がある。
具体的には、第1の方式を採用する場合、CAP情報取得部114からの拡張CAP情報は、ストリーム生成部112とTTSエンジン115に供給される。TTSエンジン115は、拡張CAP情報に含まれる音声発話メタデータに基づいて、拡張CAP情報に含まれるメッセージをデコードする(読み上げる)ことで得られる音声情報(音声に関する情報)を、緊急情報としてストリーム生成部112に供給する。この場合、TTSエンジン115が、音声発話メタデータに従い、テキスト情報を読み上げることになるため、確実に、制作者が意図した通りに読み上げられることになる。
そして、ストリーム生成部112は、CAP情報取得部114からの拡張CAP情報に含まれるメッセージが重畳された映像のコンテンツデータ等を含むストリームに、TTSエンジン115からの音声情報をさらに多重化して、ATSCの規定に準拠したストリームを生成する。
また、第2の方式を採用する場合、CAP情報取得部114からの拡張CAP情報は、緊急情報フォーマット変換部116に供給される。緊急情報フォーマット変換部116は、拡張CAP情報を、ATSC(例えばATSC3.0)で規定される所定のフォーマットに準拠した形式に変換して、それにより得られる、メッセージとその音声発話メタデータ(音声に関する情報)を含むATSCシグナリング情報を、緊急情報として、ストリーム生成部112に供給する。そして、ストリーム生成部112は、緊急情報フォーマット変換部116から供給される緊急情報を、コンテンツデータやシグナリングデータなどとともに多重化して、ATSCの規定に準拠したストリームを生成する。
また、第3の方式を採用する場合、CAP情報取得部114からの拡張CAP情報(メッセージとその音声発話メタデータ(音声に関する情報)を含む拡張CAP情報)は、そのままの形式で、緊急情報として、ストリーム生成部112に供給される。そして、ストリーム生成部112は、CAP情報取得部114から供給される緊急情報を、コンテンツデータやシグナリングデータなどとともに多重化して、ATSCの規定に準拠したストリームを生成する。
送信部113は、緊急時に、ストリーム生成部112から供給される、緊急情報を含むストリームを、アンテナ117を介して、デジタル放送信号として送信する。
なお、図8の送信装置10は、図1の放送局(Station)とローカル放送局(Local Broadcast)に相当するが、例えば、緊急情報に関する処理は、図1の放送局側で行われる処理であり、受信装置20に対してデジタル放送信号を送信する処理は、図1のローカル放送局側で行われる処理である。ただし、図8の送信装置10で行われる処理が、図1の放送局側又はローカル放送局側で行われるかどうかによって、本技術の内容が限定されるものではない。
また、図8の送信装置10とCAP情報提供装置11においては、すべての機能ブロックが、単一の装置内に配置される必要はなく、少なくとも一部の機能ブロックが他の機能ブロックとは独立した装置として構成されるようにしてもよい。例えば、音声発話メタデータ生成部131やCAP情報生成部132は、インターネット50上のサーバ(例えばサーバ40)の機能として提供されるようにしてもよい。その場合、送信装置10やCAP情報提供装置11は、当該サーバから提供される音声発話メタデータやCAP情報(拡張CAP情報)を取得して処理することになる。
(受信側の構成例)
図9は、図7の受信側の受信装置20の構成例を示す図である。
図9において、受信装置20は、受信部212、ストリーム分離部213、再生部214、表示部215、スピーカ216、緊急情報取得部217、音声発話メタデータ取得部218、TTSエンジン219、及び、通信部220から構成される。
受信部212は、アンテナ211で受信されたデジタル放送信号に対して復調処理等を行い、それにより得られるストリームを、ストリーム分離部213に供給する。ストリーム分離部213は、受信部212から供給されるストリームから、シグナリングデータとコンテンツデータを分離して、再生部214に供給する。
再生部214は、ストリーム分離部213により分離されたシグナリングデータに基づいて、ストリーム分離部213から供給されるコンテンツデータの映像を表示部215に表示させるとともに、コンテンツデータの音声をスピーカ216から出力させる。これにより、放送番組等のコンテンツの再生が行われる。
また、緊急時において、ストリーム分離部213は、受信部212から供給されるストリームから、コンテンツデータなどと、拡張CAP情報を分離して、コンテンツデータを再生部214に、拡張CAP情報を緊急情報取得部217にそれぞれ供給する。ここで、緊急時においては、上述した送信側で採用される第1の方式乃至第3の方式に対応した処理が行われる。
具体的には、第1の方式を採用した場合、ストリーム分離部213により分離されるストリームに含まれるコンテンツデータの映像には、緊急情報のメッセージが重畳されているので、再生部214は、メッセージ(の字幕)を、表示部215に表示させる。また、ストリーム分離部213により分離されるストリームには、緊急情報のメッセージの音声情報(音声に関する情報)が含まれているので、再生部214は、当該音声情報に対応する音声を、スピーカ216から出力する。
なお、この音声情報は、送信側の送信装置10において、拡張CAP情報に含まれる音声発話メタデータに従い、TTSエンジン115が、メッセージをデコードした(読み上げた)ものとなるので、表示部215に表示されているメッセージ(の字幕)は、制作者が意図した通りに読み上げられることになる。
また、第2の方式を採用した場合、緊急情報取得部217は、ストリーム分離部213により分離された緊急情報(ATSCシグナリング情報)を取得する。緊急情報取得部217は、ATSCシグナリング情報を処理して、緊急情報のメッセージを、再生部214に供給する。再生部214は、緊急情報取得部217から供給されるメッセージ(の字幕)を、表示部215に表示させる。
緊急情報取得部217は、ATSCシグナリング情報に含まれる音声発話メタデータを、音声発話メタデータ取得部218に供給する。音声発話メタデータ取得部218は、緊急情報取得部217から供給される音声発話メタデータを取得して処理する。
ここで、音声発話メタデータには、音声発話メタデータを取得するためのアドレス情報を記述したものと、音声発話メタデータの内容そのものを記述したものの2種類が存在するのは、先に述べた通りである。
すなわち、音声発話メタデータ取得部218は、音声発話メタデータがその内容を含んでいる場合には、当該音声発話メタデータをそのまま、TTSエンジン219に供給する。一方、音声発話メタデータ取得部218は、音声発話メタデータにアドレス情報が含まれている場合、通信部220を制御して、当該アドレス情報(例えばURL)に従い、インターネット50を介してサーバ40にアクセスし、音声発話メタデータファイルを取得する。音声発話メタデータ取得部218は、音声発話メタデータファイルから得られる内容を含んでいる音声発話メタデータをTTSエンジン219に供給する。
TTSエンジン219は、音声発話メタデータ取得部218から供給される音声発話メタデータに基づいて、ATSCシグナリング情報に含まれるメッセージを読み上げて、その音声を、スピーカ216から出力する。この音声は、表示部215に表示されているメッセージ(の字幕)に対応した音声であって、音声発話メタデータに従い、TTSエンジン219が読み上げたものとなるので、制作者が意図した通りに読み上げられることになる。
また、第3の方式を採用した場合、緊急情報取得部217は、ストリーム分離部213により分離された緊急情報(拡張CAP情報)を取得する。緊急情報取得部217は、拡張CAP情報を処理して、緊急情報のメッセージを再生部214に供給する。再生部214は、緊急情報取得部217から供給されるメッセージ(の字幕)を、表示部215に表示させる。
また、緊急情報取得部217は、拡張CAP情報に含まれる音声発話メタデータを、音声発話メタデータ取得部218に供給する。音声発話メタデータ取得部218は、緊急情報取得部217から供給される音声発話メタデータを取得して処理する。
音声発話メタデータ取得部218は、音声発話メタデータがその内容を含んでいる場合には、当該音声発話メタデータをそのまま、TTSエンジン219に供給する。一方、音声発話メタデータ取得部218は、音声発話メタデータにアドレス情報(例えばURL)が含まれている場合には、通信部220を制御して、インターネット50上のサーバ40から音声発話メタデータファイルを取得し、そこから得られる内容を含んでいる音声発話メタデータをTTSエンジン219に供給する。
TTSエンジン219は、音声発話メタデータ取得部218から供給される音声発話メタデータに基づいて、拡張CAP情報に含まれるメッセージを読み上げて、その音声を、スピーカ216から出力する。この音声は、表示部215に表示されているメッセージ(の字幕)に対応した音声であって、音声発話メタデータに従い、TTSエンジン219が読み上げたものとなるので、制作者が意図した通りに読み上げられることになる。
例えば、第2の方式と第3の方式においては、図2Aや図2Bなどの緊急情報のメッセージ(の字幕)が表示部215に表示されている場合において、視覚障がい者に対してアクセシブルにするために、そのメッセージを読み上げるに際して、テキスト情報の読み方が一意に定まらないときなどに、TTSエンジン219は、音声発話メタデータに従い、テキスト情報が、制作者の意図した通りに読み上げられるようにする。これにより、視覚障がい者が、健常者と同等の情報を得られるようになる。
なお、図9の受信装置20においては、表示部215とスピーカ216が内部に設けられている構成を示したが、例えば受信装置20がセットトップボックスや録画機などである場合には、表示部215とスピーカ216は、外部の別の装置として設けられるようにしてもよい。
<3.CAP情報の拡張による音声発話メタデータの配置>
(CAPの構造)
図10は、CAP情報の構造の例を示す図である。なお、このCAP情報は、構造化情報標準促進協会(OASIS)により策定されたものである。また、CAP情報は、緊急情報源情報の一例である。
図10に示すように、CAP情報は、alertセグメント、infoセグメント、resourceセグメント、及び、areaセグメントから構成される。なお、alertセグメントには、1以上のinfoセグメントを含めることができる。また、resourceセグメントとareaセグメントを、infoセグメントに含めるかどうかは任意である。
alertセグメントにおいて、alert要素は、その子要素として、identifier要素、sender要素、sent要素、status要素、msgType要素、source要素、scope要素、restriction要素、addresses要素、code要素、note要素、references要素、及び、incidents要素を有している。
alert要素には、CAP情報に関する基本的な情報が記述される。すなわち、alert要素は、CAP情報を構成する全てのコンポーネントのコンテナとなる。なお、alert要素は、必須の要素とされる。
identifier要素は、CAP情報を識別するためのIDが指定される。sender要素は、CAP情報の提供者を識別するIDが指定される。sent要素は、CAP情報の提供日時が指定される。status要素は、CAP情報の取り扱いを示すコードが指定される。このstatus要素のコードとしては、"Actual","Exercise","System","Test","Draft"が指定される。
msgType要素は、CAP情報のタイプを示すコードが指定される。このmsgType要素のコードとしては、"Alert","Update","Cancel","Ack","Error"が指定される。source要素は、CAP情報のソースを示す情報が指定される。scope要素は、CAP情報の範囲を示すコードが指定される。このscope要素のコードとしては、"Public","Restricted","Private"が指定される。
restriction要素は、制限されたCAP情報の配布を制限するための規則が指定される。addresses要素は、CAP情報を受信するユーザのグループのリストが指定される。code要素は、CAP情報の特別な処理を表すコードが指定される。note要素は、CAP情報の目的や意義を説明する情報が指定される。references要素は、CAP情報の参照先のメッセージに関する情報が指定される。incidents要素は、CAP情報の命名規則に関する情報が指定される。
infoセグメントにおいて、info要素は、その子要素として、language要素、category要素、event要素、responseType要素、urgency要素、severity要素、certainty要素、audience要素、eventCode要素、effective要素、onset要素、expires要素、senderName要素、headline要素、description要素、instruction要素、web要素、contact要素、及び、parameter要素を有している。
info要素は、CAP情報に関する実体的な情報が記述される。すなわち、info要素は、CAP情報のinfo要素を構成する全てのコンポーネント(子要素)のコンテナとなる。なお、info要素は、オプショナルな要素とされるが、ほとんどのalert要素には、少なくとも1つのinfo要素が含まれている。
language要素は、CAP情報のサブ要素の言語を表すコードが指定される。なお、この言語コードとしては、RFC 3066に規定されたコードが参照されることになる。category要素は、CAP情報のカテゴリを示すコードが指定される。このcategory要素のコードとしては、"Geo(Geophysical)","Met(Meteorological)","Safety","Security","Rescue","Fire","Health","Env(Pollution and other environmental)","Transport(Public and private transportation)","Infra(Utility, telecommunication, other non-transport infrastructure)","CBRNE(Chemical, Biological, Radiological, Nuclear or High-Yield Explosive threat or attack)","Other"が指定される。
event要素は、CAP情報のイベントのタイプを示す情報が指定される。responseType要素は、ユーザに推奨される行動を表すコードが指定される。このresponseType要素のコードとしては、"Shelter","Evacuate","Prepare","Execute","Avoid","Monitor","Assess","All Clear","None"が指定される。urgency要素は、CAP情報の緊急度を表すコードが指定される。このurgency要素のコードとしては、"Immediate","Expected","Future","Past","Unknown"が指定される。
severity要素は、CAP情報の深刻度を表すコードが指定される。このseverity要素のコードとしては、"Extreme","Severe","Moderate","Minor","Unknown"が指定される。certainty要素は、CAP情報の確実性を表すコードが指定される。このcertainty要素のコードとしては、"Observed","Likely","Possible","Unlikely","Unknown"が指定される。
audience要素は、CAP情報の対象となるユーザを説明する情報が指定される。eventCode要素は、CAP情報のイベントのタイプを識別するシステム固有の識別子が指定される。effective要素は、CAP情報の内容の有効期間を示す情報が指定される。onset要素は、CAP情報のイベントの開始予定時刻を示す情報が指定される。expires要素は、CAP情報の内容の有効期限を示す情報が指定される。
senderName要素は、CAP情報の提供者の名称を示す情報(テキスト情報)が指定される。headline要素は、CAP情報の内容の見出しを示す情報(テキスト情報)が指定される。description要素は、CAP情報の内容の詳細を示す情報(テキスト情報)が指定される。instruction要素は、CAP情報を確認したユーザがとるべき行動(推奨される行動)を示す情報(テキスト情報)が指定される。
web要素は、CAP情報の追加情報の取得先を示すURLが指定される。contact要素は、CAP情報のフォローアップや確認の連絡先を示す情報が指定される。parameter要素は、CAP情報に関連付けられる追加のパラメータが指定される。
resourceセグメントにおいて、resource要素は、その子要素として、resourceDesc要素、mimeType要素、size要素、uri要素、derefUri要素、及び、digest要素を有している。
resource要素は、info要素に記述される情報に関連する追加情報として、画像や音声ファイル等のリソースファイルを提供する。すなわち、resource要素は、CAP情報のresource要素を構成する全てのコンポーネント(子要素)のコンテナとなる。なお、resource要素は、オプショナルな要素とされる。
resourceDesc要素は、リソースファイルの種類と内容を示す情報(テキスト情報)が指定される。mimeType要素は、リソースファイルのMIMEタイプが指定される。なお、このMIMEタイプとしては、RFC 2046に規定されたタイプが参照されることになる。
size要素は、リソースファイルのサイズを示す値が指定される。uri要素は、リソースファイルの取得先のURI(Uniform Resource Identifier)が指定される。derefUri要素は、Base64で符号化されたリソースファイルに関する情報が指定される。digest要素は、リソースファイルから求められるハッシュ値を表すコードが指定される。
areaセグメントにおいて、area要素は、その子要素として、areaDesc要素、polygon要素、circle要素、geocode要素、altitude要素、及び、ceiling要素を有している。
area要素は、info要素に記述される情報に関連する地域的範囲に関する情報を提供する。すなわち、area要素は、CAP情報のarea要素を構成する全てのコンポーネント(子要素)のコンテナとなる。なお、area要素は、オプショナルな要素とされる。
areaDesc要素は、CAP情報の影響を受ける地域に関する情報が指定される。polygon要素は、CAP情報の影響を受ける地域をポリゴンにより定義した情報が指定される。circle要素は、CAP情報の影響を受ける地域を半径(radius)により定義した情報が指定される。geocode要素は、CAP情報の影響を受ける地域を地域コード(位置情報)により定義した情報が指定される。
altitude要素は、CAP情報の影響を受ける地域の特定の高度又は最低の高度を示す情報が指定される。ceiling要素は、CAP情報の影響を受ける地域の最高の高度を示す情報が指定される。
(CAP情報の記述例)
ここで、図11には、XML(Extensible Markup Language)文書として記述されるCAP情報の記述例が示されている。図11のalert要素内のinfo要素において、senderName要素には、CAP情報の提供者の名称が記述され、headline要素には、CAP情報の内容の見出しが記述され、description要素には、CAP情報の内容の詳細が記述されている。また、alert要素内のinfo要素のinstruction要素には、CAP情報を確認したユーザがとるべき行動(推奨される行動)を示す情報が記述されている。
ここで、受信装置20においては、これらのテキスト情報を表示する際には、視覚障がい者に対してアクセシブルにするために、TTSエンジンにより読み上げる必要があるが、例えば、テキスト情報の読み方が一意に定まらない場合や、発音が難解な固有名詞等である場合に、制作者が意図した通りにテキスト情報が読み上げられない可能性があることは、先に述べた通りである。
そして、本技術では、音声発話メタデータをTTSエンジンに提供することで、制作者が意図した通りにテキスト情報が読み上げられるようにするが、この音声発話メタデータは、CAP情報を拡張して格納(配置)されるようにしている。以下、音声発話メタデータが配置されたCAP情報(拡張CAP情報)の詳細な構成について説明する。
(拡張CAP情報の構成例)
図12は、音声発話メタデータ又はその取得先を示すアドレス情報を格納するために拡張CAP情報で追加される要素と属性の例を示す図である。なお、図12の拡張CAP情報で追加される要素や属性は、例えば、info要素のsenderName要素、headline要素、description要素、及び、instruction要素などの要素が対象とされる。
すなわち、拡張CAP情報においては、これらのsenderName要素、headline要素、description要素、又は、instruction要素などの子要素として、SpeechInfoURI要素又はSpeechInfo要素を追加する拡張が行われるようにする。
SpeechInfoURI要素は、音声発話メタデータを取得するためのアドレス情報が指定される。このアドレス情報としては、例えば、URIが指定される。また、例えば、音声発話メタデータファイルが、インターネット50上のサーバ40から取得される場合には、サーバ40にアクセスするためのURLが、アドレス情報として指定される。
なお、音声発話メタデータは、音声合成マークアップ言語である、SSML(Speech Synthesis Markup Language)により記述することができる。このSSMLは、W3C(World Wide Web Consortium)によって、より高品質な音声合成機能を利用可能にすることを目的として勧告されたものである。SSMLを用いることで、発音や音量、調子など、音声合成に必要な要素をきめ細かく、かつ適度に制御することが可能となる。
Content-type属性と、Content-enc属性は、SpeechInfoURI要素とペアで使用される。Content-type属性は、URI等のアドレス情報を参照することで取得される音声発話メタデータの種別を示すタイプ情報が指定される。また、Content-enc属性は、アドレス情報を参照することで取得される音声発話メタデータの符号化方式を示す情報が指定される。
SpeechInfo要素は、音声発話メタデータの内容そのものが記述される。例えば、この音声発話メタデータの内容は、SSMLで記述される。また、SpeechInfo要素にも、ペアで使用されるContent-type属性と、Content-enc属性が指定可能である。Content-type属性は、SpeechInfo要素に記述される音声発話メタデータの種別を示すタイプ情報が指定される。また、Content-enc属性は、SpeechInfo要素に記述される音声発話メタデータの符号化方式を示す情報が指定される。
なお、図12において、出現数(Cardinality)であるが、"0..N"が指定された場合には、その要素又は属性を1以上指定するかどうかは任意である。また、"0..1"が指定された場合には、その要素又は属性を指定するかどうかは任意である。したがって、SpeechInfoURI要素とSpeechInfo要素は、オプショナルな要素であって、SpeechInfoURI要素とSpeechInfo要素は、一方の要素のみが配置されるだけでなく、その両方の要素が配置されるようにしてもよい。また、SpeechInfoURI要素及びSpeechInfo要素に付随するContent-type属性とContent-enc属性を配置するかどうかも任意である。
(XMLスキーマの記述例)
図13は、XML文書(XMLインスタンス)としての拡張CAP情報の構造を定義するXMLスキーマ(CAPのXMLスキーマ)の記述例を示す図である。
図13においては、ComplexType要素により要素の型定義を行っている。すなわち、xsd:sequence要素の内容(開始タグと終了タグの間の内容)に、追加する子要素と属性を指定するための型として、"XXXXType"を定義している。
3行目のxs:element要素のname属性には、"SpeechInfoURI"が指定されており、SpeechInfoURI要素が宣言されている。このSpeechInfoURI要素は、minOccurs属性により最低出現回数が"0"であることと、maxOccurs属性により最高出現回数に制限がないことが宣言されている。
7行目のattribute要素のname属性には、"content-type"が指定されており、SpeechInfoURI要素の属性として、Content-type属性が宣言されている。このContent-type属性は、type属性により文字列型(String)であることと、use属性によりオプショナルな属性であることが宣言されている。
8行目のattribute要素のname属性には、"content-enc"が指定されており、SpeechInfoURI要素の属性として、Content-enc属性が宣言されている。このContent-enc属性は、type属性により文字列型(String)であることと、use属性によりオプショナルな属性であることが宣言されている。
13行目のxs:element要素のname属性には、"SpeechInfo"が指定されており、SpeechInfo要素が宣言されている。このSpeechInfo要素は、minOccurs属性により最低出現回数が"0"であることと、maxOccurs属性により最高出現回数に制限がないことが宣言されている。
17行目のattribute要素のname属性には、"content-type"が指定されており、SpeechInfo要素のContent-type属性が宣言されている。このContent-type属性は、type属性により文字列型(String)であることと、use属性によりオプショナルな属性であることが宣言されている。
18行目のattribute要素のname属性には、"content-enc"が指定されており、SpeechInfo要素のContent-enc属性が宣言されている。このContent-enc属性は、type属性により文字列型(String)であることと、use属性によりオプショナルな属性であることが宣言されている。
(XMLスキーマの名前空間の指定)
また、XMLスキーマの名前空間の指定であるが、例えば、図14のXMLスキーマのように記述することができる。なお、図14のXMLスキーマにおいて、ComplexType要素により定義される要素の型を記述する領域50には、上述した図13のComplexType要素の内容(開始タグと終了タグの間の内容)が記述される。
図14において、schema要素のtargetNamespace属性により、当該XMLスキーマが、拡張CAP情報の構造を定義していることが指定されている。ここでは、現状のCAP情報(拡張していないCAP情報)の名前空間(Namespace)が、"urn:oasis:names:tc:emergency:cap:1.2"で表される場合に、本技術で提案する拡張CAP情報の名前空間が、"urn:oasis:names:tc:emergency:cap:1.3"で定義されるものとする。また、"xmlns:cap"により、拡張CAP情報として用いられるXMLスキーマの名前空間接頭辞が、「cap」であることを宣言している。
また、図14においては、element要素により、alert要素、info要素、resource要素、及び、area要素などの要素が宣言される。また、element要素では、senderName要素、headline要素、description要素、及び、instruction要素が宣言されている。
ここで、senderName要素には、type属性として、"cap:XXXXType"が指定されており、senderName要素に付随する要素や属性などの内容は、当該XMLスキーマのComplexType要素で定義された"XXXXType"の型により指定されることを意味している。
図14のXMLスキーマにおいては、ComplexType要素により定義される要素の型を記述する領域50に、上述した図13のComplexType要素の内容が記述されているので、senderName要素には、その子要素として、SpeechInfoURI要素又はSpeechInfo要素を指定することが可能となる。また、SpeechInfoURI要素とSpeechInfo要素には、Content-type属性及びContent-enc属性を指定することができる。なお、element要素のminOccurs属性は、senderName要素の最低出現回数が"0"であることを表している。
同様に、headline要素、description要素、及び、instruction要素についても、当該XMLスキーマのComplexType要素で定義された"XXXXType"の型に従い、その子要素として、SpeechInfoURI要素又はSpeechInfo要素を指定することができる。また、SpeechInfoURI要素とSpeechInfo要素には、Content-type属性及びContent-enc属性を指定することができる。
このようなXMLスキーマを定義することで、例えば、図11に示したCAP情報の記述例において、2行目のalert要素のxmlns属性で指定される名前空間を、"urn:oasis:names:tc:emergency:cap:1.2"から、"urn:oasis:names:tc:emergency:cap:1.3"に変更することで、図14のXMLスキーマ(CAPのXMLスキーマ)で定義された"XXXXType"を利用することが可能となる。この場合、senderName要素、headline要素、description要素、及び、instruction要素において、SpeechInfoURI要素又はSpeechInfo要素を指定することが可能となり、いわば、CAP情報が、拡張CAP情報に拡張されたことになる。この拡張CAP情報の記述例を、図15に示している。
以上のようにして、info要素のsenderName要素、headline要素、description要素、及び、instruction要素の子要素として、SpeechInfoURI要素又はSpeechInfo要素が指定されるようにすることで、これらのテキスト情報が指定される要素に対して、制作者が意図する音声の発話に関する情報としての音声発話メタデータを設定することができるようにしている。
これにより、緊急時において、受信装置20では、例えば、拡張CAP情報を処理することで得られる緊急情報の提供者の名称、緊急情報の内容の見出し、緊急情報の内容の詳細、又はユーザが取るべき行動を示す情報などの視認可能なメッセージ(テキスト情報)を表示する際に、音声発話メタデータに従い、制作者が意図した通りにメッセージ(テキスト情報)が読み上げられることになる。その結果、視覚障がい者は、健常者と同等の情報を得ることができるため、視覚障がい者に対するアクセシビリティを向上させることができる。
なお、上述した説明では、SpeechInfoURI要素又はSpeechInfo要素を指定可能な要素として、info要素のsenderName要素、headline要素、description要素、及び、instruction要素を一例に説明したが、拡張CAP情報において、例えばresourceDesc要素などのメッセージ(テキスト情報)が指定される要素や属性であれば、それらの要素や属性のメッセージ(テキスト情報)が読み上げられる対象とされるようにしてもよい。
<4.各装置で実行される処理の流れ>
次に、図7の放送システム1を構成する送信装置10と受信装置20で実行される処理の流れを説明する。
(送信処理)
まず、図16のフローチャートを参照して、図7の送信装置10により実行される、送信処理の流れを説明する。ただし、図16の送信処理は、送信装置10において、緊急時となる場合に、CAP情報提供装置11からの拡張CAP情報が送信されてきたときの処理とされる。
ステップS111において、CAP情報取得部114は、CAP情報提供装置11から送信されてくる拡張CAP情報を取得(受信)する。
ステップS112においては、上述した第1の方式乃至第3の方式のいずれかの方式に応じて、ステップS111の処理で取得された拡張CAP情報が処理される。
具体的には、第1の方式を採用する場合、TTSエンジン115は、ステップS111の処理で取得された拡張CAP情報に含まれる音声発話メタデータに基づいて、拡張CAP情報に含まれるメッセージをデコードする(読み上げる)ことで得られる音声情報(音声に関する情報)を、緊急情報としてストリーム生成部112に供給する。ストリーム生成部112は、拡張CAP情報に含まれるメッセージが重畳された映像のコンテンツデータ等を含むストリームに、TTSエンジン115からの音声情報をさらに多重化して、ATSCの規定に準拠したストリームを生成する。
また、第2の方式を採用する場合、緊急情報フォーマット変換部116は、ステップS111の処理で取得された拡張CAP情報を、ATSCで規定される所定のフォーマット形式に変換して、それにより得られる、メッセージとその音声発話メタデータ(音声に関する情報)を含むATSCシグナリング情報を、緊急情報としてストリーム生成部112に供給する。ストリーム生成部112は、緊急情報フォーマット変換部116から供給される緊急情報を、コンテンツデータやシグナリングデータなどとともに多重化して、ATSCの規定に準拠したストリームを生成する。
また、第3の方式を採用する場合、CAP情報取得部114は、ステップS111の処理で取得された拡張CAP情報(メッセージとその音声発話メタデータ(音声に関する情報)を含む拡張CAP情報)を、そのままの形式で、緊急情報としてストリーム生成部112に供給する。ストリーム生成部112は、CAP情報取得部114から供給される緊急情報を、コンテンツデータやシグナリングデータなどとともに多重化して、ATSCの規定に準拠したストリームを生成する。
ステップS113において、送信部113は、ステップS112の処理で拡張CAP情報を処理することで得られる緊急情報(を含むストリーム)を、アンテナ117を介して、デジタル放送信号として送信する。
なお、ステップS111の処理で取得される拡張CAP情報に含まれる音声発話メタデータに、その内容が記述されていない場合には、音声発話メタデータファイルを取得するためのアドレス情報として、インターネット50上のサーバ40にアクセスするためのURLが記述されることになる。
以上、緊急時の送信処理の流れについて説明した。この送信処理では、拡張CAP情報に含まれる、制作者が意図する音声の発話に関する音声発話メタデータに応じた音声情報、又は音声発話メタデータを含むATSCシグナリング情報若しくは拡張CAP情報が、緊急情報として送信される。
これにより、受信側の受信装置20では、音声発話メタデータに応じた音声情報に対応した音声を出力するか、又は、音声発話メタデータに従ってメッセージを読み上げるので、例えば、緊急情報のメッセージの読み方が一意に定まらない場合や、発音が難解な固有名詞等である場合などであっても、確実に、制作者が意図した通りにテキスト情報が読み上げられる。その結果、視覚障がい者が、健常者と同等の情報(緊急情報)を得られるようになる。
(受信処理)
次に、図17のフローチャートを参照して、図7の受信装置20により実行される、受信処理の流れを説明する。ただし、図17の受信処理は、ユーザにより選局された放送番組等のコンテンツを再生中に、緊急時となって、送信装置10から送信されてくる緊急情報を受信したときの処理とされる。
ステップS211において、緊急情報取得部217は、緊急時に、ストリーム分離部213から供給される緊急情報を受信(取得)する。
ステップS212においては、上述した送信側で採用される第1の方式乃至第3の方式のいずれかの方式に応じて、ステップS211の処理で取得された緊急情報が処理される。また、ステップS213においては、ステップS212の処理での緊急情報の処理結果に応じて、緊急情報が出力される。
具体的には、第1の方式を採用した場合、ストリーム分離部213により分離されるストリームに含まれるコンテンツデータの映像には、緊急情報として、緊急情報のメッセージが重畳されているので、再生部214は、メッセージ(の字幕)を、表示部215に表示させる(S212,S213)。また、ストリーム分離部213により分離されるストリームには、緊急情報のメッセージの音声情報(音声に関する情報)が含まれているので、再生部214は、当該音声情報に対応する音声を、スピーカ216から出力する(S212,S213)。
また、第2の方式を採用した場合、緊急情報として、ATSCシグナリング情報が取得されるので、緊急情報取得部217は、ATSCシグナリング情報を処理して、緊急情報のメッセージを、再生部214に供給する。再生部214は、緊急情報取得部217から供給される緊急情報のメッセージ(の字幕)を、表示部215に表示させる(S212,S213)。
一方で、緊急情報取得部217は、ATSCシグナリング情報に含まれる音声発話メタデータを、音声発話メタデータ取得部218に供給する。音声発話メタデータ取得部218は、緊急情報取得部217から供給される音声発話メタデータを取得して処理する(S212)。そして、TTSエンジン219は、音声発話メタデータ取得部218から供給される音声発話メタデータに基づいて、ATSCシグナリング情報に含まれるメッセージを読み上げて、その音声を、スピーカ216から出力する(S213)。
また、第3の方式を採用した場合、緊急情報として、拡張CAP情報が取得されるので、緊急情報取得部217は、拡張CAP情報を処理して、緊急情報のメッセージを、再生部214に供給する。再生部214は、緊急情報取得部217から供給される緊急情報のメッセージ(の字幕)を、表示部215に表示させる(S212,S213)。
一方で、緊急情報取得部217は、拡張CAP情報に含まれる音声発話メタデータを、音声発話メタデータ取得部218に供給する。音声発話メタデータ取得部218は、緊急情報取得部217から供給される音声発話メタデータを取得して処理する(S212)。そして、TTSエンジン219は、音声発話メタデータ取得部218から供給される音声発話メタデータに基づいて、拡張CAP情報に含まれるメッセージを読み上げて、その音声を、スピーカ216から出力する(S213)。
なお、第2の方式と第3の方式において、ステップS211の処理で取得される緊急情報(ATSCシグナリング情報又は拡張CAP情報)に含まれる音声発話メタデータに、その内容が記述されていない場合には、音声発話メタデータファイルを取得するためのアドレス情報が記述されている。この場合、音声発話メタデータ取得部218は、通信部220を制御して、当該アドレス情報(例えばURL)に従い、インターネット50を介してサーバ40にアクセスし、音声発話メタデータファイルを取得し、そこから得られる内容を含んでいる音声発話メタデータをTTSエンジン219に供給する。
以上、緊急時の受信処理の流れについて説明した。この受信処理では、送信側の送信装置10から送信されてくる、制作者が意図する音声の発話に関する音声発話メタデータに応じた音声情報、又は音声発話メタデータを含むATSCシグナリング情報若しくは拡張CAP情報が、緊急情報として受信される。
これにより、受信装置20では、音声発話メタデータに応じた音声情報に対応した音声を出力するか、又は、音声発話メタデータに従ってメッセージを読み上げるので、例えば、緊急情報のメッセージの読み方が一意に定まらない場合や、発音が難解な固有名詞等である場合などであっても、確実に、制作者が意図した通りにテキスト情報が読み上げられる。その結果、視覚障がい者が、健常者と同等の情報(緊急情報)を得られるようになる。
<5.変形例>
上述した説明としては、デジタルテレビ放送の規格として、米国等で採用されている方式であるATSC(例えばATSC3.0)を説明したが、日本等が採用する方式であるISDB(Integrated Services Digital Broadcasting)や、欧州の各国等が採用する方式であるDVB(Digital Video Broadcasting)などに適用するようにしてもよい。また、伝送路30(図7)としては、地上デジタルテレビ放送に限らず、衛星デジタルテレビ放送やデジタル有線テレビ放送などで採用するようにしてもよい。
また、上述した説明では、CAP情報提供装置11により拡張CAP情報が生成されるとして説明したが、CAP情報提供装置11に限らず、例えば、送信装置10やサーバ40等が、緊急情報源伝達されてくる緊急情報源情報に基づいて、拡張CAP情報を生成するようにしてもよい。なお、送信側の送信装置10において、拡張CAP情報を処理する際に、音声発話メタデータに音声発話メタデータファイルを取得するためのアドレス情報が記述されている場合には、当該アドレス情報(例えばURL)に従い、インターネット50を介してサーバ40にアクセスし、音声発話メタデータファイルを取得するようにしてもよい。
さらにまた、上述した説明では、緊急情報源情報として、米国で運用されているCAP方式の情報が伝達される場合を説明したが、CAP方式の情報に限らず、他のフォーマットの緊急情報源情報を利用するようにしてもよい。例えば、日本や欧州の各国でも、視覚障がい者に対するアクセシビリティが求められることが想定されるが、その場合には、CAP情報(拡張CAP情報)ではなく、その国に適合した他のフォーマットの緊急情報源情報が用いられるようにすることができる。
また、上述した説明では、音声発話メタデータにアドレス情報(例えばURL)が含まれている場合には、インターネット50上のサーバ40から音声発話メタデータファイルが取得されるとして説明したが、音声発話メタデータファイルは、デジタル放送信号に含めて送信されるようにしてもよい。すなわち、音声発話メタデータファイルは、放送経由又は通信経由で配信され、受信装置20により受信されることになる。ここで、音声発話メタデータファイルが放送経由で配信される場合には、例えば、ROUTE(Real-time Object Delivery over Unidirectional Transport)セッションで伝送されるようにすることができる。なお、ROUTEは、バイナリファイルを一方向でマルチキャスト転送するのに適したプロトコルであるFLUTE(File Delivery over Unidirectional Transport)を拡張したプロトコルである。
さらに、上述した説明では、音声発話メタデータは、SSMLにより記述されるとして説明したが、SSMLに限らず、他のマークアップ言語により記述されるようにしてもよい。ただし、音声発話メタデータをSSMLにより記述する場合には、SSMLで規定されているsub要素、phoneme要素、又はaudio要素などの要素や属性を用いることができる。なお、W3Cにより勧告されているSSMLの詳細な内容については、下記のウェブサイトに公開されている。
Speech Synthesis Markup Language (SSML) Version 1.1,W3C Recommendation 7 September 2010,URL:"http://www.w3.org/TR/speech-synthesis11/"
また、上述した説明では、受信装置20は、テレビ受像機やセットトップボックス、録画機などの固定受信機であるとして説明したが、受信装置20としては、固定受信機に限らず、例えば、スマートフォンや携帯電話機、タブレット型コンピュータ、ノート型のパーソナルコンピュータ、自動車内で利用される端末などのモバイル受信機であってもよい。
<6.コンピュータの構成>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。図18は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示す図である。
コンピュータ900において、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。バス904には、さらに、入出力インターフェース905が接続されている。入出力インターフェース905には、入力部906、出力部907、記録部908、通信部909、及び、ドライブ910が接続されている。
入力部906は、キーボード、マウス、マイクロフォンなどよりなる。出力部907は、ディスプレイ、スピーカなどよりなる。記録部908は、ハードディスクや不揮発性のメモリなどよりなる。通信部909は、ネットワークインターフェースなどよりなる。ドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア911を駆動する。
以上のように構成されるコンピュータ900では、CPU901が、ROM902や記録部908に記録されているプログラムを、入出力インターフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ900(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア911に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
コンピュータ900では、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インターフェース905を介して、記録部908にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部909で受信し、記録部908にインストールすることができる。その他、プログラムは、ROM902や記録部908に、あらかじめインストールしておくことができる。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
また、本技術は、以下のような構成をとることができる。
(1)
緊急時において、緊急に告知する必要がある緊急情報のメッセージに対する制作者が意図する音声の発話に関するメタデータを含む緊急情報源情報を取得する緊急情報源情報取得部と、
前記緊急情報源情報を処理する処理部と、
前記緊急情報として、前記メッセージとともに、前記緊急情報源情報を処理して得られる前記メッセージの音声に関する情報を送信する送信部と
を備える送信装置。
(2)
前記メタデータは、読み方が一意に定まらない文字列、又は発音が難解な文字列の発話に関する情報を含んでいる
(1)に記載の送信装置。
(3)
前記緊急情報源情報は、前記メッセージを含み、
前記緊急情報を受信する受信装置において、前記メッセージが表示されるとともに、前記メッセージの音声に関する情報に基づいた前記メッセージに対する制作者が意図する音声の発話に応じた音声が出力される
(1)又は(2)に記載の送信装置。
(4)
コンテンツを取得するコンテンツ取得部をさらに備え、
前記送信部は、デジタル放送信号として、前記コンテンツを送信するとともに、緊急時となった場合には、前記緊急情報を送信する
(1)乃至(3)のいずれかに記載の送信装置。
(5)
前記緊急情報源情報は、
OASIS(Organization for the Advancement of Structured Information Standards)で規定されたCAP(Common Alerting Protocol)に準拠したCAP情報であり、
前記CAP情報は、前記メタデータのファイルの取得先を示すアドレス情報、又は前記メタデータの内容そのものを含む
(1)乃至(4)のいずれかに記載の送信装置。
(6)
前記緊急情報は、前記CAP情報に含まれる前記メタデータに基づいて、前記CAP情報に含まれる前記メッセージを読み上げることで得られる音声情報を含んでいる
(5)に記載の送信装置。
(7)
前記緊急情報は、前記CAP情報を、ATSC(Advanced Television Systems Committee)で規定される所定のフォーマットに準拠した形式に変換して得られる、前記メッセージと前記メタデータを含むシグナリング情報である
(5)に記載の送信装置。
(8)
前記緊急情報は、前記メッセージと前記メタデータを含む前記CAP情報である
(5)に記載の送信装置。
(9)
送信装置の送信方法において、
前記送信装置が、
緊急時において、緊急に告知する必要がある緊急情報のメッセージに対する制作者が意図する音声の発話に関するメタデータを含む緊急情報源情報を取得し、
前記緊急情報源情報を処理し、
前記緊急情報として、前記メッセージとともに、前記緊急情報源情報を処理して得られる前記メッセージの音声に関する情報を送信する
ステップを含む送信方法。
(10)
緊急時において、送信装置から送信されてくる、緊急に告知する必要がある緊急情報のメッセージと、前記メッセージの音声に関する情報を含む前記緊急情報を受信する受信部と、
前記緊急情報を処理して、前記メッセージを表示させるとともに、前記メッセージの音声に関する情報に基づいた前記メッセージに対する制作者が意図する音声の発話に応じた音声を出力させる処理部と
を備える受信装置。
(11)
前記緊急情報は、前記メッセージと、前記メッセージに対する制作者が意図する音声の発話に関するメタデータを含む緊急情報源情報を処理することで得られる
(10)に記載の受信装置。
(12)
前記メタデータは、読み方が一意に定まらない文字列、又は発音が難解な文字列の発話に関する情報を含んでいる
(11)又は(12)に記載の受信装置。
(13)
前記受信部は、前記送信装置から送信されてくるデジタル放送信号として、コンテンツを受信するとともに、緊急時となった場合に送信されてくる前記緊急情報を受信する
(10)乃至(12)のいずれかに記載の受信装置。
(14)
前記緊急情報源情報は、
OASISで規定されたCAPに準拠したCAP情報であり、
前記CAP情報は、前記メタデータのファイルの取得先を示すアドレス情報、又は前記メタデータの内容そのものを含む
(11)乃至(13)のいずれかに記載の受信装置。
(15)
前記緊急情報は、前記送信装置において、前記CAP情報に含まれる前記メタデータに基づいて、前記CAP情報に含まれる前記メッセージを読み上げることで得られた音声情報を含んでおり、
前記処理部は、前記音声情報に対応する音声を出力させる
(14)に記載の受信装置。
(16)
前記緊急情報は、前記CAP情報を、ATSCで規定される所定のフォーマットに準拠した形式に変換して得られるシグナリング情報であり、
前記シグナリング情報に含まれる前記メタデータに基づいて、前記シグナリング情報に含まれる前記メッセージを読み上げる音声読み上げ部をさらに備える
(14)に記載の受信装置。
(17)
前記緊急情報は、前記CAP情報であり、
前記CAP情報に含まれる前記メタデータに基づいて、前記CAP情報に含まれる前記メッセージを読み上げる音声読み上げ部をさらに備える
(14)に記載の受信装置。
(18)
受信装置の受信方法において、
前記受信装置が、
緊急時において、送信装置から送信されてくる、緊急に告知する必要がある緊急情報のメッセージと、前記メッセージの音声に関する情報を含む前記緊急情報を受信し、
前記緊急情報を処理して、前記メッセージを表示させるとともに、前記メッセージの音声に関する情報に基づいた前記メッセージに対する制作者が意図する音声の発話に応じた音声を出力させる
ステップを含む受信方法。
1 放送システム, 10 送信装置, 20 受信装置, 30 伝送路, 40 サーバ, 50 インターネット, 111 コンテンツ取得部, 112 ストリーム生成部, 113 送信部, 114 CAP情報取得部, 115 TTSエンジン, 116 緊急情報フォーマット変換部, 131 音声発話メタデータ生成部, 132 CAP情報生成部, 133 送信部, 212 受信部, 213 ストリーム分離部, 214 再生部, 215 表示部, 216 スピーカ, 217 緊急情報取得部, 218 音声発話メタデータ取得部, 219 TTSエンジン, 220 通信部, 900 コンピュータ, 901 CPU

Claims (15)

  1. 緊急時において、緊急に告知する必要がある緊急情報のメッセージに対する制作者が意図する音声の発話に関するメタデータを含む緊急情報源情報を取得する緊急情報源情報取得部と、
    前記緊急情報源情報を処理する処理部と、
    前記緊急情報として、前記メッセージとともに、前記緊急情報源情報を処理して得られるアドレス情報を放送信号に含めて送信する送信部と
    を備え、
    前記メタデータは、前記緊急情報のメッセージに対する制作者が意図する音声の発話に関するファイルの取得先を示す前記アドレス情報を含み
    前記アドレス情報は、通信経由で配信される前記ファイルの取得先を含む
    送信装置。
  2. 前記メタデータは、読み方が一意に定まらない文字列、又は固有名詞の発話に関するファイルの取得先を示す前記アドレス情報を含んでいる
    請求項1に記載の送信装置。
  3. 前記緊急情報源情報は、前記メッセージを含み、
    前記緊急情報を受信する受信装置において、前記メッセージが表示されるとともに、前記アドレス情報に基づいて取得された前記メッセージに対する制作者が意図する音声の発話に応じた音声が出力される
    請求項2に記載の送信装置。
  4. コンテンツを取得するコンテンツ取得部をさらに備え、
    前記送信部は、放送信号として、前記コンテンツを送信するとともに、緊急時となった場合には、前記緊急情報を送信する
    請求項3に記載の送信装置。
  5. 前記緊急情報源情報は、OASIS(Organization for the Advancement of Structured Information Standards)で規定されたCAP(Common Alerting Protocol)に準拠したCAP情報である
    請求項1に記載の送信装置。
  6. 前記緊急情報は、前記CAP情報を、ATSC(Advanced Television Systems Committee)で規定される所定のフォーマットに準拠した形式に変換して得られる、前記メッセージと前記アドレス情報を含むシグナリング情報である
    請求項5に記載の送信装置。
  7. 前記緊急情報は、前記メッセージと前記アドレス情報を含む前記CAP情報である
    請求項5に記載の送信装置。
  8. 送信装置の送信方法において、
    前記送信装置が、
    緊急時において、緊急に告知する必要がある緊急情報のメッセージに対する制作者が意図する音声の発話に関するメタデータを含む緊急情報源情報を取得し、
    前記緊急情報源情報を処理し、
    前記緊急情報として、前記メッセージとともに、前記緊急情報源情報を処理して得られるアドレス情報を放送信号に含めて送信する
    ステップを含み、
    前記メタデータは、前記緊急情報のメッセージに対する制作者が意図する音声の発話に関するファイルの取得先を示す前記アドレス情報を含み
    前記アドレス情報は、通信経由で配信される前記ファイルの取得先を含む
    送信方法。
  9. 緊急時において、送信装置から放送信号として送信されてくる、緊急に告知する必要がある緊急情報のメッセージと、アドレス情報を含む前記緊急情報を受信する受信部と、
    前記緊急情報を処理して、前記メッセージを表示させるとともに、前記アドレス情報に基づいて取得された前記メッセージに対する制作者が意図する音声の発話に応じた音声を出力させる処理部と
    を備え、
    前記緊急情報は、前記メッセージと、前記メッセージに対する制作者が意図する音声の発話に関するメタデータを含む緊急情報源情報を処理することで得られ、
    前記メタデータは、前記メッセージに対する制作者が意図する音声の発話に関するファイルの取得先を示す前記アドレス情報を含み
    前記アドレス情報は、通信経由で配信される前記ファイルの取得先を含む
    受信装置。
  10. 前記メタデータは、読み方が一意に定まらない文字列、又は固有名詞の発話に関するファイルの取得先を示す前記アドレス情報を含んでいる
    請求項に記載の受信装置。
  11. 前記受信部は、前記送信装置から送信されてくる放送信号として、コンテンツを受信するとともに、緊急時となった場合に送信されてくる前記緊急情報を受信する
    請求項10に記載の受信装置。
  12. 前記緊急情報源情報は、OASISで規定されたCAPに準拠したCAP情報である
    請求項に記載の受信装置。
  13. 前記緊急情報は、前記CAP情報を、ATSCで規定される所定のフォーマットに準拠した形式に変換して得られるシグナリング情報であり、
    前記シグナリング情報に含まれる前記アドレス情報に基づいて取得された前記メッセージに対する制作者が意図する音声の発話に応じて、前記シグナリング情報に含まれる前記メッセージを読み上げる音声読み上げ部をさらに備える
    請求項12に記載の受信装置。
  14. 前記緊急情報は、前記CAP情報であり、
    前記CAP情報に含まれる前記アドレス情報に基づいて取得された前記メッセージに対する制作者が意図する音声の発話に応じて、前記CAP情報に含まれる前記メッセージを読み上げる音声読み上げ部をさらに備える
    請求項12に記載の受信装置。
  15. 受信装置の受信方法において、
    前記受信装置が、
    緊急時において、送信装置から放送信号として送信されてくる、緊急に告知する必要がある緊急情報のメッセージと、アドレス情報を含む前記緊急情報を受信し、
    前記緊急情報を処理して、前記メッセージを表示させるとともに、前記アドレス情報に基づいて取得された前記メッセージに対する制作者が意図する音声の発話に応じた音声を出力させる
    ステップを含み、
    前記緊急情報は、前記メッセージと、前記メッセージに対する制作者が意図する音声の発話に関するメタデータを含む緊急情報源情報を処理することで得られ、
    前記メタデータは、前記メッセージに対する制作者が意図する音声の発話に関するファイルの取得先を示す前記アドレス情報を含み
    前記アドレス情報は、通信経由で配信される前記ファイルの取得先を含む
    受信方法。
JP2015079603A 2015-04-08 2015-04-08 送信装置、送信方法、受信装置、及び、受信方法 Active JP6596891B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2015079603A JP6596891B2 (ja) 2015-04-08 2015-04-08 送信装置、送信方法、受信装置、及び、受信方法
PCT/JP2016/001777 WO2016163098A1 (en) 2015-04-08 2016-03-28 Transmission device, transmission method, reception device, and reception method
KR1020177027439A KR20170134414A (ko) 2015-04-08 2016-03-28 전송 디바이스, 전송 방법, 수신 디바이스, 및 수신 방법
MX2017012465A MX2017012465A (es) 2015-04-08 2016-03-28 Dispositivo de transmision, metodo de transmision, dispositivo de recepcion, y metodo de recepcion.
EP16716300.5A EP3281193A1 (en) 2015-04-08 2016-03-28 Transmission device, transmission method, reception device, and reception method
US15/557,481 US20180062777A1 (en) 2015-04-08 2016-03-28 Transmission device, transmission method, reception device, and reception method
CA2980694A CA2980694A1 (en) 2015-04-08 2016-03-28 Transmission device, transmission method, reception device, and reception method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015079603A JP6596891B2 (ja) 2015-04-08 2015-04-08 送信装置、送信方法、受信装置、及び、受信方法

Publications (3)

Publication Number Publication Date
JP2016201643A JP2016201643A (ja) 2016-12-01
JP2016201643A5 JP2016201643A5 (ja) 2018-05-17
JP6596891B2 true JP6596891B2 (ja) 2019-10-30

Family

ID=55752672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015079603A Active JP6596891B2 (ja) 2015-04-08 2015-04-08 送信装置、送信方法、受信装置、及び、受信方法

Country Status (7)

Country Link
US (1) US20180062777A1 (ja)
EP (1) EP3281193A1 (ja)
JP (1) JP6596891B2 (ja)
KR (1) KR20170134414A (ja)
CA (1) CA2980694A1 (ja)
MX (1) MX2017012465A (ja)
WO (1) WO2016163098A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10297117B2 (en) * 2016-11-21 2019-05-21 Textspeak Corporation Notification terminal with text-to-speech amplifier
US11430305B2 (en) 2016-11-21 2022-08-30 Textspeak Corporation Notification terminal with text-to-speech amplifier
CN107437413B (zh) * 2017-07-05 2020-09-25 百度在线网络技术(北京)有限公司 语音播报方法及装置
JP2019135806A (ja) * 2018-02-05 2019-08-15 ソニーセミコンダクタソリューションズ株式会社 復調回路、処理回路、処理方法、および処理装置
CN116679889B (zh) * 2023-07-31 2023-11-03 苏州浪潮智能科技有限公司 Raid设备配置信息的确定方法及装置、存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09258763A (ja) * 1996-03-18 1997-10-03 Nec Corp 音声合成装置
JPH09305198A (ja) * 1996-05-10 1997-11-28 Daihatsu Motor Co Ltd 情報送信装置及び情報受信装置
JP3115232B2 (ja) * 1996-06-11 2000-12-04 富士通テン株式会社 受信した文字データを音声に合成する音声合成装置
JP2004312507A (ja) * 2003-04-09 2004-11-04 Matsushita Electric Ind Co Ltd 情報受信装置
JP2005309164A (ja) * 2004-04-23 2005-11-04 Nippon Hoso Kyokai <Nhk> 読み上げ用データ符号化装置および読み上げ用データ符号化プログラム
US20080034114A1 (en) * 2006-07-12 2008-02-07 Spectrarep System and method for managing emergency notifications over network
US8138915B2 (en) * 2007-11-15 2012-03-20 Ibiquity Digital Corporation Systems and methods for rendering alert information for digital radio broadcast, and active digital radio broadcast receiver
US9330720B2 (en) * 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
JP4972011B2 (ja) * 2008-02-26 2012-07-11 日本放送協会 触覚提示装置及び触覚提示方法
US20110273627A1 (en) * 2009-09-29 2011-11-10 Atsuhiro Tsuji Display device
US8407736B2 (en) * 2010-08-04 2013-03-26 At&T Intellectual Property I, L.P. Apparatus and method for providing emergency communications
JP2012080475A (ja) * 2010-10-06 2012-04-19 Hitachi Consumer Electronics Co Ltd デジタル放送受信装置およびデジタル放送受信方法
US9202465B2 (en) * 2011-03-25 2015-12-01 General Motors Llc Speech recognition dependent on text message content
US9368104B2 (en) * 2012-04-30 2016-06-14 Src, Inc. System and method for synthesizing human speech using multiple speakers and context
US9570066B2 (en) * 2012-07-16 2017-02-14 General Motors Llc Sender-responsive text-to-speech processing
US20140163948A1 (en) * 2012-12-10 2014-06-12 At&T Intellectual Property I, L.P. Message language conversion
JP6266253B2 (ja) * 2013-07-26 2018-01-24 ホーチキ株式会社 告知放送システム
US9877178B2 (en) * 2014-06-16 2018-01-23 United States Cellular Corporation System and method for delivering wireless emergency alerts to residential phones

Also Published As

Publication number Publication date
MX2017012465A (es) 2018-03-07
US20180062777A1 (en) 2018-03-01
EP3281193A1 (en) 2018-02-14
CA2980694A1 (en) 2016-10-13
WO2016163098A1 (en) 2016-10-13
JP2016201643A (ja) 2016-12-01
KR20170134414A (ko) 2017-12-06

Similar Documents

Publication Publication Date Title
JP6596891B2 (ja) 送信装置、送信方法、受信装置、及び、受信方法
US11006189B2 (en) Primary device, companion device and method
CA2978235C (en) Reception apparatus, reception method, transmission apparatus, and transmission method for a location based filtering of emergency information
TWI787218B (zh) 用於以信號發送與一緊急警報訊息相關聯之資訊之方法、裝置、設備、記錄媒體、剖析與一緊急警報訊息相關聯之資訊之裝置、用於以信號發送及剖析與一緊急警報訊息相關聯之資訊之系統、用於擷取與一緊急警報訊息相關聯之一媒體資源之方法及用於基於一緊急警報訊息而執行一動作之方法
US11197048B2 (en) Transmission device, transmission method, reception device, and reception method
TWI640962B (zh) 用於緊急警報訊息之傳訊之系統及方法
US11330344B2 (en) Receiving apparatus, transmitting apparatus, and data processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190111

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190627

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190916

R151 Written notification of patent or utility model registration

Ref document number: 6596891

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250