JP6927942B2 - Broadcasting equipment, broadcasting systems, and computer programs - Google Patents

Broadcasting equipment, broadcasting systems, and computer programs Download PDF

Info

Publication number
JP6927942B2
JP6927942B2 JP2018199051A JP2018199051A JP6927942B2 JP 6927942 B2 JP6927942 B2 JP 6927942B2 JP 2018199051 A JP2018199051 A JP 2018199051A JP 2018199051 A JP2018199051 A JP 2018199051A JP 6927942 B2 JP6927942 B2 JP 6927942B2
Authority
JP
Japan
Prior art keywords
identification information
broadcasting
information
terminal device
guidance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018199051A
Other languages
Japanese (ja)
Other versions
JP2020068427A (en
Inventor
山本 隆一
隆一 山本
貴彦 伊藤
貴彦 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toa Corp
Original Assignee
Toa Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=70388684&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6927942(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Toa Corp filed Critical Toa Corp
Priority to JP2018199051A priority Critical patent/JP6927942B2/en
Publication of JP2020068427A publication Critical patent/JP2020068427A/en
Application granted granted Critical
Publication of JP6927942B2 publication Critical patent/JP6927942B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、放送装置、放送システム、及びコンピュータプログラムに関する。 The present invention relates to broadcasting devices, broadcasting systems, and computer programs.

放送システムが使用される施設や交通機関においては、必要な情報を音声で放送したり、BGM等を放送したりする。かかる放送システムの中には、音声透かし技術を用いて放送音に識別情報を埋め込んで放送し、ユーザの端末装置により収音した放送音から識別情報を取得し、識別情報に基づき関連情報を端末装置に提示するシステムが知られている(例えば、特許文献1、特許文献2、特許文献3参照)。 In facilities and transportation facilities where broadcasting systems are used, necessary information is broadcast by voice, BGM, etc. are broadcast. In such a broadcasting system, identification information is embedded in the broadcast sound by using voice watermark technology and broadcast, the identification information is acquired from the broadcast sound collected by the user's terminal device, and the related information is output to the terminal based on the identification information. The system presented to the device is known (see, for example, Patent Document 1, Patent Document 2, and Patent Document 3).

特開2014−92885号Japanese Unexamined Patent Publication No. 2014-92885 特開2017−107532号JP-A-2017-107532 特開2016−136363号Japanese Unexamined Patent Publication No. 2016-136363

従来の放送システムにおいては、端末装置に提供される関連情報(例えば、広告情報)は、放送音に埋め込まれた識別情報と一対一で対応する。しかし、識別情報が同じでも、提供される関連情報は、ユーザのいる場所に応じて異ならせる必要がある場合がある。例えば、特許文献3においては、各エリアに配されたスピーカーの識別情報に応じて提供する関連情報(広告情報等)を異ならせている。しかし、バスや電車等の乗り物内に設置された放送システムにおいては、乗り物の移動によって、移動先の場所と提供される関連情報との対応がとれなくなる可能性がある。 In a conventional broadcasting system, related information (for example, advertising information) provided to a terminal device has a one-to-one correspondence with identification information embedded in a broadcasting sound. However, even if the identification information is the same, the related information provided may need to be different depending on where the user is. For example, in Patent Document 3, related information (advertising information, etc.) to be provided is different depending on the identification information of the speakers arranged in each area. However, in a broadcasting system installed in a vehicle such as a bus or a train, there is a possibility that the location of the destination and the related information provided cannot be matched due to the movement of the vehicle.

上述した観点に鑑み、本発明の目的は、放送エリアにいるユーザに対し、適切な情報を迅速に提供することができる放送装置、放送システム、及びコンピュータプログラムを提供することである。 In view of the above viewpoint, an object of the present invention is to provide a broadcasting device, a broadcasting system, and a computer program capable of promptly providing appropriate information to a user in a broadcasting area.

上記課題を解決するため、本発明の一の観点によれば、放送装置は、一以上のスピーカーから音声を出力する放送装置であって、音声取得部と音声出力制御部とを備える。音声取得部は、第1音声信号に対応するコンテンツを識別する第1識別情報と、第1識別情報とは異なる第2識別情報とを第1音声信号に埋め込んだ第2音声信号を取得する。音声出力制御部は、第2音声信号を、スピーカーから出力させる。このため、放送装置は、コンテンツとその他の情報、例えば放送エリアを識別するための二つの異なる識別情報に応じた案内情報をユーザに提供可能になる。よって、放送エリアにおけるユーザの位置に変更があっても、当該エリアに則した情報をユーザに提供でき、同じ放送コンテンツであってもエリアに応じた情報をユーザに提供できる。 In order to solve the above problems, according to one aspect of the present invention, the broadcasting device is a broadcasting device that outputs audio from one or more speakers, and includes an audio acquisition unit and an audio output control unit. The voice acquisition unit acquires a second voice signal in which the first identification information for identifying the content corresponding to the first voice signal and the second identification information different from the first identification information are embedded in the first voice signal. The audio output control unit outputs the second audio signal from the speaker. Therefore, the broadcasting device can provide the user with guidance information corresponding to the content and other information, for example, two different identification information for identifying the broadcasting area. Therefore, even if the position of the user in the broadcast area is changed, the information according to the area can be provided to the user, and even if the broadcast content is the same, the information according to the area can be provided to the user.

本発明の他の観点によれば、放送システムは、上記放送装置と、一以上のスピーカーと、一以上のスピーカーから第2音声信号を収音する端末装置と、端末装置と通信可能に接続される管理装置と、を備える。 According to another aspect of the present invention, the broadcasting system is communicably connected to the broadcasting device, one or more speakers, a terminal device that collects a second audio signal from the one or more speakers, and the terminal device. It is equipped with a management device.

本発明の他の観点によれば、コンピュータプログラムは、第1音声信号に、第1音声信号に対応するコンテンツを識別する第1識別情報と、第1識別情報とは異なる第2識別情報とを埋め込んだ第2音声信号を収音し、第2音声信号から第1識別情報と第2識別情報とを抽出し、第1識別情報と第2識別情報との組み合わせによって異なる案内情報を出力する。 According to another aspect of the present invention, the computer program provides the first voice signal with the first identification information for identifying the content corresponding to the first voice signal and the second identification information different from the first identification information. The embedded second voice signal is picked up, the first identification information and the second identification information are extracted from the second voice signal, and different guidance information is output depending on the combination of the first identification information and the second identification information.

本発明に係る放送装置、放送システム、及びコンピュータプログラムによれば、放送エリアにいるユーザに対し、適切な情報を迅速に提供することができる。 According to the broadcasting device, the broadcasting system, and the computer program according to the present invention, appropriate information can be promptly provided to the user in the broadcasting area.

一実施形態に係る放送システムの全体構成を示す図。The figure which shows the whole structure of the broadcasting system which concerns on one Embodiment. 一実施形態に係る放送装置の構成を示す図。The figure which shows the structure of the broadcasting apparatus which concerns on one Embodiment. コンテンツとその識別情報の例を示す図。The figure which shows the example of the content and the identification information. スピーカーの位置情報とその識別情報の例を示す図。The figure which shows the example of the position information of a speaker and the identification information. 一実施形態に係る管理装置の構成を示す図。The figure which shows the structure of the management apparatus which concerns on one Embodiment. 案内情報の例を示す図。The figure which shows the example of the guidance information. 一実施形態に係る端末装置の構成を示す図。The figure which shows the structure of the terminal apparatus which concerns on one Embodiment. 放送装置の動作を示すフローチャート。A flowchart showing the operation of the broadcasting device. 音声透かし処理の説明図。Explanatory drawing of voice watermark processing. 音声透かし処理の説明図。Explanatory drawing of voice watermark processing. 管理装置の動作を示すフローチャート。A flowchart showing the operation of the management device. 端末装置の動作を示すフローチャート。A flowchart showing the operation of the terminal device. 一実施形態に係る放送システムによる案内情報の出力例を示す図。The figure which shows the output example of the guidance information by the broadcasting system which concerns on one Embodiment. 同放送システムによる案内情報の他の出力例を示す図。The figure which shows the other output example of the guidance information by the broadcasting system. 他の実施形態に係るコンテンツとその識別情報の例を示す図。The figure which shows the example of the content and the identification information which concerns on other embodiment. 他の実施形態に係る案内情報の例を示す図。The figure which shows the example of the guidance information which concerns on other embodiment. 他の実施形態に係る放送システムによる案内情報の出力例を示す図。The figure which shows the output example of the guidance information by the broadcasting system which concerns on another embodiment.

(実施の形態)
以下、本発明の一実施形態における放送システムの構成及びその機能について説明する。放送システムは、商業施設や公共施設、電車やバス等の乗り物内に適用される放送システムである。
(Embodiment)
Hereinafter, the configuration of the broadcasting system and its functions according to the embodiment of the present invention will be described. The broadcasting system is a broadcasting system applied to commercial facilities, public facilities, and vehicles such as trains and buses.

(1−1.構成)
(1−1−1.放送システムの構成)
以下、放送システム1がバス会社の放送システムに適用される場合の例を説明する。
(1-1. Configuration)
(1-1-1. Configuration of broadcasting system)
Hereinafter, an example in which the broadcasting system 1 is applied to the broadcasting system of a bus company will be described.

図1に示すように、放送システム1は、一例として、スピーカー20が接続される放送装置10と、主にバス乗客であるユーザが携帯し、各放送装置10の音声信号を収音可能な端末装置50と、端末装置50とネットワークNWを介して通信可能な管理装置30とを備える。ネットワークNWは、移動体通信網、施設内のLAN、インターネット等の通信網である。 As shown in FIG. 1, the broadcasting system 1 is, for example, a broadcasting device 10 to which a speaker 20 is connected and a terminal that is carried by a user who is mainly a bus passenger and can collect audio signals of each broadcasting device 10. It includes a device 50, a terminal device 50, and a management device 30 capable of communicating via a network NW. The network NW is a communication network such as a mobile communication network, a LAN in a facility, and the Internet.

図1において、放送装置10Aは、例えば、バスの車内エリアであるエリアA1内に設置され、スピーカー20aを介して所定の放送音を出力する。放送装置10Bは、バス停エリアであるエリアA2に設置され、スピーカー20bを介して所定の放送音を出力する。放送装置10Cは、他のバス停エリアであるエリアA3に設置され、スピーカー20cを介して所定の放送音を出力する。 In FIG. 1, the broadcasting device 10A is installed in, for example, an area A1 which is an area inside a bus, and outputs a predetermined broadcasting sound via a speaker 20a. The broadcasting device 10B is installed in the area A2, which is a bus stop area, and outputs a predetermined broadcasting sound via the speaker 20b. The broadcasting device 10C is installed in the area A3, which is another bus stop area, and outputs a predetermined broadcasting sound via the speaker 20c.

なお、各放送装置10は複数のチャンネルを備え、複数のスピーカー20を接続してもよい。また、端末装置50は一つのエリア内にいるユーザの人数に対応して一又は複数接続される。 Each broadcasting device 10 includes a plurality of channels, and a plurality of speakers 20 may be connected. Further, the terminal device 50 is connected one or more according to the number of users in one area.

(1−1−2.放送装置の構成)
図2は、放送装置10の構成を概略的に示す。放送装置10は、所定の音源データや入力された音声を各スピーカー20に出力させる。放送装置10は、プロセッサ11、記憶部13、D/A変換部15、アンプ16、及び通信部17を備える。
(1-1-2. Configuration of broadcasting equipment)
FIG. 2 schematically shows the configuration of the broadcasting device 10. The broadcasting device 10 causes each speaker 20 to output predetermined sound source data and input audio. The broadcasting device 10 includes a processor 11, a storage unit 13, a D / A conversion unit 15, an amplifier 16, and a communication unit 17.

プロセッサ11は、CPU、DSP等の信号処理回路である。プロセッサ11は、ROM(図示省略)や記憶部13に記憶されたプログラムをRAM(図示省略)に読み出して実行することにより、放送装置10の各部を制御する。プロセッサ11は、プログラムに従って、例えば、音声透かし処理部111、音声取得部113、及び音声出力制御部115の機能を実行する。音声透かし処理部111は、後述するように、音源データから得た第1音声信号に各放送エリアを表す識別情報ID2(第2識別情報の一例)を埋め込む処理を実行する。第1音声信号には、予めコンテンツの識別情報ID1(第1識別情報の一例)が埋め込まれている。音声取得部113は、音声透かし処理部111の埋め込み処理により生成される第2音声信号を取得する。音声出力制御部115は、取得された第2音声信号を、対応するスピーカー20から出力させる。 The processor 11 is a signal processing circuit such as a CPU and a DSP. The processor 11 controls each part of the broadcasting device 10 by reading a program stored in a ROM (not shown) or a storage unit 13 into a RAM (not shown) and executing the program. The processor 11 executes the functions of, for example, the voice watermark processing unit 111, the voice acquisition unit 113, and the voice output control unit 115 according to the program. As will be described later, the audio watermark processing unit 111 executes a process of embedding identification information ID 2 (an example of the second identification information) representing each broadcasting area in the first audio signal obtained from the sound source data. Content identification information ID 1 (an example of the first identification information) is embedded in the first voice signal in advance. The voice acquisition unit 113 acquires a second voice signal generated by the embedding process of the voice watermark processing unit 111. The audio output control unit 115 outputs the acquired second audio signal from the corresponding speaker 20.

記憶部13は、半導体メモリや磁気ディスク等により構成され、音源データ記憶部131と、放送エリア情報記憶部133と、を含む。音源データ記憶部131は、予め決められた放送内容に相当する音源データとその識別情報ID1とを記憶する。音源データは、例えば、図3Aに示すように、バス車内のエリアA1やバス停のエリアA2で放送されるコンテンツに相当する。放送エリア情報記憶部133は、図3Bに示すように、各放送エリアの識別情報ID2とスピーカー20が設置されている位置情報とを対応させて記憶する。 The storage unit 13 is composed of a semiconductor memory, a magnetic disk, or the like, and includes a sound source data storage unit 131 and a broadcast area information storage unit 133. The sound source data storage unit 131 stores sound source data corresponding to a predetermined broadcast content and its identification information ID1. As shown in FIG. 3A, the sound source data corresponds to the content broadcast in the area A1 in the bus or the area A2 in the bus stop. As shown in FIG. 3B, the broadcast area information storage unit 133 stores the identification information ID 2 of each broadcast area and the position information in which the speaker 20 is installed in correspondence with each other.

D/A変換部15は、取得された第2音声信号をアナログ音声信号に変換する。アンプ16は、アナログ音声信号を増幅して、スピーカー20より出力する。 The D / A conversion unit 15 converts the acquired second audio signal into an analog audio signal. The amplifier 16 amplifies the analog audio signal and outputs it from the speaker 20.

通信部17は、ネットワークNWに接続するためのインターフェースであり、例えばネットワークカード等である。通信部17は、LAN等の施設内のネットワークを介してインターネットに接続される。 The communication unit 17 is an interface for connecting to the network NW, for example, a network card or the like. The communication unit 17 is connected to the Internet via a network in the facility such as a LAN.

なお、放送装置10は、単体のコンピュータ装置に限定されず、複数のコンピュータ装置を含んでいてもよい。 The broadcasting device 10 is not limited to a single computer device, and may include a plurality of computer devices.

(1−1−3.管理装置の構成)
図4は、管理装置30の構成を概略的に示す。管理装置30は、サーバとして機能するコンピュータ装置であり、端末装置50からの要求に応じて、案内情報を端末装置50に送信する。管理装置30は、プロセッサ31、記憶部33、及び通信部37を備える。
(1-1-3. Configuration of management device)
FIG. 4 schematically shows the configuration of the management device 30. The management device 30 is a computer device that functions as a server, and transmits guidance information to the terminal device 50 in response to a request from the terminal device 50. The management device 30 includes a processor 31, a storage unit 33, and a communication unit 37.

プロセッサ31は、CPU、DSP等の信号処理回路である。プロセッサ31は、ROM(図示省略)や記憶部33に記憶されたプログラムをRAM(図示省略)に読み出して実行することにより、管理装置30の各部を制御する。プロセッサ31は、例えば、プログラムに従って、案内情報判定部311の機能を実行する。案内情報判定部311は、後述するように、案内情報テーブル331を参照して、端末装置50からの要求に応じた案内情報を判定する。 The processor 31 is a signal processing circuit such as a CPU and a DSP. The processor 31 controls each unit of the management device 30 by reading a program stored in a ROM (not shown) or a storage unit 33 into a RAM (not shown) and executing the program. The processor 31 executes the function of the guidance information determination unit 311 according to the program, for example. As will be described later, the guidance information determination unit 311 determines the guidance information in response to the request from the terminal device 50 with reference to the guidance information table 331.

記憶部33は、半導体メモリや磁気ディスク等により構成され、案内情報テーブル331を記憶する。案内情報テーブル331は、図5に示すように、音源データの識別情報ID1と放送エリアの識別情報ID2との組み合わせに対応した案内情報データを格納する。案内情報判定部311は、端末装置50からの要求によって特定される識別情報ID1、ID2に応じて案内情報テーブル331から所定の案内情報を取得する。 The storage unit 33 is composed of a semiconductor memory, a magnetic disk, or the like, and stores the guidance information table 331. As shown in FIG. 5, the guidance information table 331 stores the guidance information data corresponding to the combination of the identification information ID 1 of the sound source data and the identification information ID 2 of the broadcasting area. The guidance information determination unit 311 acquires predetermined guidance information from the guidance information table 331 according to the identification information ID1 and ID2 specified by the request from the terminal device 50.

通信部37は、ネットワークNWに接続するためのインターフェースであり、例えばネットワークカード等である。通信部37は、LAN等、管理装置30が設置される構内ネットワークを介してインターネットに接続される。 The communication unit 37 is an interface for connecting to the network NW, for example, a network card or the like. The communication unit 37 is connected to the Internet via a local network such as a LAN on which the management device 30 is installed.

(1−1−4.端末装置の構成)
図6は、端末装置50の構成を概略的に示す。端末装置50は、例えばスマートフォンやその他の携帯端末であり、バスの乗客であるユーザによって携帯されたり使用されたりするコンピュータ装置である。端末装置50は、プロセッサ51、記憶部53、音声入力部55、表示部56、通信部57、入力操作部58、音声出力部59を備える。
(1-1-4. Configuration of terminal device)
FIG. 6 schematically shows the configuration of the terminal device 50. The terminal device 50 is, for example, a smartphone or other mobile terminal, and is a computer device carried or used by a user who is a passenger of a bus. The terminal device 50 includes a processor 51, a storage unit 53, a voice input unit 55, a display unit 56, a communication unit 57, an input operation unit 58, and a voice output unit 59.

プロセッサ51は、CPU、DSP等の信号処理回路である。プロセッサ51は、ROM(図示省略)や記憶部53に記憶されたアプリケーションプログラムをRAM(図示省略)に読み出して実行することにより、端末装置50の各部を制御する。プロセッサ51は、例えば、プログラムに従って、識別情報抽出部511と、案内情報要求生成部513と、案内情報取得部515の機能を実行する。識別情報抽出部511は、後述するように、スピーカー20から取得した音声信号に含まれる識別情報ID1、ID2を抽出する。案内情報要求生成部513は、抽出した識別情報ID1,ID2を特定する情報を含む要求を生成し、通信部57を介して管理装置30に送信する。 The processor 51 is a signal processing circuit for a CPU, DSP, and the like. The processor 51 controls each part of the terminal device 50 by reading the application program stored in the ROM (not shown) or the storage unit 53 into the RAM (not shown) and executing the application program. The processor 51 executes the functions of the identification information extraction unit 511, the guidance information request generation unit 513, and the guidance information acquisition unit 515 according to the program, for example. The identification information extraction unit 511 extracts the identification information ID1 and ID2 included in the voice signal acquired from the speaker 20, as will be described later. The guidance information request generation unit 513 generates a request including information that identifies the extracted identification information ID1 and ID2, and transmits the request to the management device 30 via the communication unit 57.

記憶部53は、半導体メモリ等により構成され、識別情報記憶部531、案内情報記憶部533、アプリ記憶部535を含む。識別情報記憶部531は、識別情報抽出部511により抽出した識別情報ID1,ID2を記憶する。案内情報記憶部533は、要求に応じて管理装置30から受信した案内情報を記憶する。アプリ記憶部535は、上記識別情報抽出部511と、案内情報要求生成部513と、案内情報取得部515の機能を実行するプログラムを格納する。 The storage unit 53 is composed of a semiconductor memory or the like, and includes an identification information storage unit 531, a guidance information storage unit 533, and an application storage unit 535. The identification information storage unit 531 stores the identification information ID1 and ID2 extracted by the identification information extraction unit 511. The guidance information storage unit 533 stores the guidance information received from the management device 30 in response to the request. The application storage unit 535 stores a program that executes the functions of the identification information extraction unit 511, the guidance information request generation unit 513, and the guidance information acquisition unit 515.

音声入力部55は、マイク等であり、スピーカー20からの音声を収音する。表示部56は、プロセッサ51で取得又は生成された情報を表示するLCDや有機ELディスプレイ等の表示画面を含む。例えば、表示部56は、管理装置30から取得した図5に示す案内情報を表示する。 The voice input unit 55 is a microphone or the like, and collects sound from the speaker 20. The display unit 56 includes a display screen such as an LCD or an organic EL display that displays information acquired or generated by the processor 51. For example, the display unit 56 displays the guidance information shown in FIG. 5 acquired from the management device 30.

通信部57は、ネットワークNWに接続するためのインターフェースであり、例えば無線通信用のアンテナである。通信部57は、ネットワークNWを介して管理装置30に接続される。 The communication unit 57 is an interface for connecting to the network NW, and is, for example, an antenna for wireless communication. The communication unit 57 is connected to the management device 30 via the network NW.

入力操作部58は、ユーザからの指示入力を受け付ける手段であって、例えば、キーボード、マウス、スイッチ、表示画面上のタッチパネル等である。音声出力部59は、スピーカー等であり、例えば図5に示す案内情報を音声で出力する。 The input operation unit 58 is a means for receiving an instruction input from a user, and is, for example, a keyboard, a mouse, a switch, a touch panel on a display screen, or the like. The voice output unit 59 is a speaker or the like, and outputs, for example, the guidance information shown in FIG. 5 by voice.

(1−2.動作)
(1−2−1.放送装置の動作)
図7及び図8を参照しながら、放送装置10の動作について説明する。音声取得部113は、音源データ記憶部131より第1音声信号に対応する音源データを取得する(S111)。第1音声信号には、予め識別情報ID1が埋め込まれている。音声透かし処理部111は、第1音声信号に、識別情報ID2を埋め込み、第2音声信号を生成する(S112)。
(1-2. Operation)
(1-2-1. Operation of broadcasting equipment)
The operation of the broadcasting device 10 will be described with reference to FIGS. 7 and 8. The voice acquisition unit 113 acquires sound source data corresponding to the first voice signal from the sound source data storage unit 131 (S111). Identification information ID1 is embedded in the first audio signal in advance. The voice watermark processing unit 111 embeds the identification information ID 2 in the first voice signal to generate the second voice signal (S112).

音声透かし処理部111は、例えば公知のエコー拡散法を用いて第1音声信号に、識別情報ID2を埋め込む。エコー拡散法は、元の音声信号に対し、人間が感知できない程度の遅延時間のエコーをかけ、遅延時間を付加データとして送る手法である。エコー拡散法で、図8Aに示すように、2つの異なる遅延量でエコーカーネルを重畳することで、各遅延量を例えば“0”か“1”として、畳み込み演算により第1音声信号S1に埋め込む。なお、第1音声信号S1に予め識別情報ID1が埋め込まれ、さらに識別情報ID2を埋め込む場合、図8Bに示すように、識別情報ID1とID2を重畳するフレームを分けておく。これにより、第1音声信号S1に識別情報ID1とID2が重畳され、第2音声信号S2が生成される。 The voice watermark processing unit 111 embeds the identification information ID 2 in the first voice signal by using, for example, a known echo diffusion method. The echo diffusion method is a method in which an echo with a delay time that cannot be perceived by humans is applied to the original voice signal, and the delay time is sent as additional data. In the echo diffusion method, as shown in FIG. 8A, by superimposing echo kernels with two different delay amounts, each delay amount is set to, for example, "0" or "1" and embedded in the first audio signal S1 by a convolution operation. .. When the identification information ID1 is embedded in the first audio signal S1 in advance and the identification information ID2 is further embedded, as shown in FIG. 8B, the frames on which the identification information ID1 and the ID2 are superimposed are separated. As a result, the identification information ID1 and ID2 are superimposed on the first audio signal S1, and the second audio signal S2 is generated.

音声取得部113は、生成された第2音声信号を取得し、音声出力制御部115は、スピーカー20(埋め込んだ識別情報ID2に対応するスピーカー)に対し、生成された第2音声信号を出力する(S113)。なお、第1音声信号に対して第2音声信号は、人間の聴覚レベルでは、違いがわかりにくい音声として聞き取られる。 The voice acquisition unit 113 acquires the generated second voice signal, and the voice output control unit 115 outputs the generated second voice signal to the speaker 20 (speaker corresponding to the embedded identification information ID 2). (S113). It should be noted that the second voice signal is heard as a voice whose difference is difficult to understand at the human auditory level with respect to the first voice signal.

(1−2−2.管理装置の動作)
図9を参照しながら、管理装置30の動作について説明する。管理装置30は、端末装置50より要求を受信した場合(S121のYes)、案内情報判定部311により案内情報テーブル331を参照する(S122)。要求には、端末装置50が抽出した識別情報ID1,ID2を特定する情報が含まれる。案内情報判定部311は、要求に含まれる識別情報ID1,ID2の組み合わせに対応する案内情報を取得する(S123)。管理装置30は、通信部37を介して端末装置50に取得した案内情報を送信する(S124)。
(1-2-2. Operation of management device)
The operation of the management device 30 will be described with reference to FIG. When the management device 30 receives the request from the terminal device 50 (Yes in S121), the guidance information determination unit 311 refers to the guidance information table 331 (S122). The request includes information for identifying the identification information ID1 and ID2 extracted by the terminal device 50. The guidance information determination unit 311 acquires guidance information corresponding to the combination of the identification information ID1 and ID2 included in the request (S123). The management device 30 transmits the guidance information acquired to the terminal device 50 via the communication unit 37 (S124).

なお、管理装置30は、端末装置50から要求を受信したとき、予め登録されたユーザ情報に応じて、端末装置50の認証処理を行ってもよい。 When the management device 30 receives the request from the terminal device 50, the management device 30 may perform the authentication process of the terminal device 50 according to the user information registered in advance.

(1−2−3.端末装置の動作)
図10を参照しながら、端末装置50の動作について説明する。端末装置50は、スピーカー20から音声信号(第2音声信号)を収音した場合(S131のYes)、当該音声信号から識別情報ID1,ID2の抽出処理を行う(S132)。この抽出処理は、公知のエコー拡散法の抽出によって行われる。
(1-2-3. Operation of terminal device)
The operation of the terminal device 50 will be described with reference to FIG. When the voice signal (second voice signal) is picked up from the speaker 20 (Yes in S131), the terminal device 50 extracts the identification information ID1 and ID2 from the voice signal (S132). This extraction process is performed by extraction by a known echo diffusion method.

具体的には、識別情報抽出部511は、スピーカー20から取得した第2音声信号を取得し、窓関数をかけて、FFT(高速フーリエ変換)後に対数をとり、さらに逆FFTの演算を実行して、いわゆるケプストラムを求める。このケプストラムとエコー成分の相互相関を窓長毎に計算することにより、埋め込んだ音声透かし情報である識別情報ID1,ID2が再現され、抽出される。 Specifically, the identification information extraction unit 511 acquires the second audio signal acquired from the speaker 20, applies a window function, takes a logarithm after FFT (Fast Fourier Transform), and further executes an inverse FFT calculation. And seek the so-called cepstrum. By calculating the cross-correlation between the cepstrum and the echo component for each window length, the embedded audio watermark information ID1 and ID2 are reproduced and extracted.

識別情報抽出部511が、識別情報ID1,ID2を抽出できた場合(S133のYes)、案内情報要求生成部513により要求を生成し、通信部57を介して管理装置30に送信する(S134)。要求には、識別情報ID1,ID2を特定する情報が含まれる。識別情報抽出部511が、識別情報ID1,ID2を抽出できなかった場合(S133のNo)、処理を終了する。つまり、案内情報は出力されない。管理装置30から案内情報を受信した場合(S135のYes)、案内情報取得部515により案内情報を取得し、表示部56により表示する(S136)。 When the identification information extraction unit 511 can extract the identification information ID1 and ID2 (Yes in S133), the guidance information request generation unit 513 generates a request and transmits the request to the management device 30 via the communication unit 57 (S134). .. The request includes information that identifies the identification information ID1 and ID2. When the identification information extraction unit 511 cannot extract the identification information ID1 and ID2 (No in S133), the process ends. That is, the guidance information is not output. When the guidance information is received from the management device 30 (Yes in S135), the guidance information acquisition unit 515 acquires the guidance information and the display unit 56 displays the guidance information (S136).

なお、案内情報は、音声出力部59から音声として出力されてもよい。 The guidance information may be output as voice from the voice output unit 59.

(1−2−4.放送システムによる出力例)
図11は、バスの車内を示すエリアA1における案内情報の出力例を示す。
(1-2-4. Output example by broadcasting system)
FIG. 11 shows an output example of guidance information in the area A1 showing the inside of the bus.

図11に示すエリアA1において、例えば、バスの発車後、「ご乗車ありがとうございます。このバスは、〇〇駅行きバスです。運賃は、バスを降りる際、運賃箱でご精算頂きますようお願い致します。」(図3AのID1“001”)がスピーカー20a(図3BのID2“1001”)から放送されるとする。この場合、放送装置10A(図1)はまず、コンテンツの識別情報ID1“001”が予め埋め込まれた第1音声信号に対し、上述した音声透かし処理により、識別情報ID2“1001”を埋め込み、第2音声信号を生成する。第2音声信号は、スピーカー20aから出力される。エリアA1内の端末装置50aは、第2音声信号を収音し、上述したように第2音声信号から識別情報ID1,ID2の抽出処理を行う。端末装置50aは、抽出された識別情報ID1,ID2に基づき要求を生成し、管理装置30にネットワークNWを介して送信する。管理装置30は、端末装置50aからの要求に対し、図5に示す案内情報テーブルを参照し、識別情報ID1“001”、ID2“1001”の組み合わせに対応する案内情報を判定し、端末装置50aに送信する。バス車内のエリアA1内の端末装置50aは、管理装置30から受信した案内情報「大阪名物と言えば、たこ焼き♪こちらのページから購入できます。画像情報:https://www.@@@@@.jp/たこ焼き」を表示部56に表示する。 In area A1 shown in Fig. 11, for example, after the bus departs, "Thank you for boarding. This bus is for XX station. Please pay the fare in the fare box when you get off the bus. I will do it. ”(ID1“ 001 ”in FIG. 3A) is broadcast from the speaker 20a (ID2“ 1001 ”in FIG. 3B). In this case, the broadcasting device 10A (FIG. 1) first embeds the identification information ID 2 "1001" in the first audio signal in which the content identification information ID 1 "001" is embedded in advance by the above-mentioned audio watermark processing. 2 Generate a voice signal. The second audio signal is output from the speaker 20a. The terminal device 50a in the area A1 collects the second voice signal and extracts the identification information ID1 and ID2 from the second voice signal as described above. The terminal device 50a generates a request based on the extracted identification information ID1 and ID2, and transmits the request to the management device 30 via the network NW. In response to the request from the terminal device 50a, the management device 30 refers to the guidance information table shown in FIG. 5, determines the guidance information corresponding to the combination of the identification information ID1 "001" and ID2 "1001", and determines the guidance information corresponding to the combination of the identification information ID1 "001" and the ID2 "1001", and determines the guidance information corresponding to the combination of the identification information ID1 "001" and the ID2 "1001". Send to. The terminal device 50a in the area A1 inside the bus is the guidance information received from the management device 30 "Speaking of Osaka's specialty, takoyaki ♪ You can purchase it from this page. Image information: https://www.@@@@ "@ .jp / Takoyaki" is displayed on the display unit 56.

次に、図11の下段に示すように、バスが移動して所定のバス停に近づいたとき、「次は、□□です。お降りの方は降車ボタンを押してください。」(図3AのID1“002”)がスピーカー20a(図3BのID2“1001”)から放送される。放送装置10Aは、コンテンツの識別情報ID1“002”が予め埋め込まれた第1音声信号に対し、上述した音声透かし処理により、識別情報ID2“1001”を埋め込む。第2音声信号は、スピーカー20aから出力される。エリアA1内の端末装置50aは、第2音声信号を収音し、上述したように第2音声信号から識別情報ID1,ID2の抽出処理を行う。端末装置50aは、抽出された識別情報ID1,ID2に基づき要求を生成し、管理装置30にネットワークNWを介して送信する。管理装置30は、端末装置50からの要求に対し、図5に示す案内情報テーブルを参照し、識別情報ID1“002”、ID2“1001”の組み合わせに対応する案内情報を判定し、端末装置50aに送信する。バス車内のエリアA1内の端末装置50aは、管理装置30から受信した案内情報「次のバス停の近くに「デカタコ」店舗がございます。地図情報:https://www.map.jp/地図11」を表示部56に表示する。 Next, as shown in the lower part of Fig. 11, when the bus moves and approaches the designated bus stop, "Next is □□. If you want to get off, please press the get-off button." (ID1 in Fig. 3A) “002”) is broadcast from the speaker 20a (ID2 “1001” in FIG. 3B). The broadcasting device 10A embeds the identification information ID 2 "1001" in the first audio signal in which the content identification information ID 1 "002" is embedded in advance by the above-mentioned audio watermark processing. The second audio signal is output from the speaker 20a. The terminal device 50a in the area A1 collects the second voice signal and extracts the identification information ID1 and ID2 from the second voice signal as described above. The terminal device 50a generates a request based on the extracted identification information ID1 and ID2, and transmits the request to the management device 30 via the network NW. In response to the request from the terminal device 50, the management device 30 refers to the guidance information table shown in FIG. 5, determines the guidance information corresponding to the combination of the identification information ID1 “002” and ID2 “1001”, and determines the guidance information corresponding to the combination of the identification information ID1 “002” and ID2 “1001”, and determines the guidance information corresponding to the combination of the identification information ID1 “002” and ID2 “1001”. Send to. The terminal device 50a in the area A1 inside the bus has the guidance information "Dekatako" store near the next bus stop received from the management device 30. Map information: https://www.map.jp/ Map 11 ”is displayed on the display unit 56.

以上のように、バスの移動によりユーザが存在するエリアA1の位置が変わってコンテンツを変更することに合わせて、当該エリアに則した案内情報をユーザに提供することができる。 As described above, it is possible to provide the user with guidance information according to the area when the position of the area A1 where the user exists changes due to the movement of the bus and the content is changed.

図12は、異なる位置にあるバス停のエリアA2、A3における案内情報の出力例を示す。 FIG. 12 shows an output example of guidance information in areas A2 and A3 of bus stops at different positions.

図12に示すエリアA2のバス停において、例えば、「間もなくバスが到着します。」(図3AのID1“003”)がスピーカー20b(図3BのID2“1002”)から放送されるとする。この場合、放送装置10B(図1)はまず、コンテンツの識別情報ID1“003”が予め埋め込まれた第1音声信号に対し、上述した音声透かし処理により、識別情報ID2“1002”を埋め込む。第2音声信号は、スピーカー20bから出力される。エリアA2のバス停にいるユーザの端末装置50bは、第2音声信号を収音し、上述したように第2音声信号から識別情報ID1,ID2の抽出処理を行う。端末装置50bは、抽出された識別情報ID1,ID2に基づき要求を生成し、管理装置30にネットワークNWを介して送信する。管理装置30は、端末装置50bからの要求に対し、図5に示す案内情報テーブルを参照し、識別情報ID1“003”、ID2“1002”の組み合わせに対応する案内情報を判定し、端末装置50bに送信する。エリアA2のバス停の端末装置50bは、管理装置30から受信した案内情報「間もなく到着のバスは、〇〇駅行きバスです。バスが混雑している場合、次のバスは5分後に到着予定ですので、次のバスをお待ち頂きますようお願いいたします。」を表示部56に表示する。 At the bus stop in area A2 shown in FIG. 12, for example, "the bus will arrive soon" (ID1 "003" in FIG. 3A) is broadcast from the speaker 20b (ID2 "1002" in FIG. 3B). In this case, the broadcasting device 10B (FIG. 1) first embeds the identification information ID 2 "1002" in the first audio signal in which the content identification information ID 1 "003" is embedded in advance by the above-mentioned audio watermark processing. The second audio signal is output from the speaker 20b. The terminal device 50b of the user at the bus stop in the area A2 picks up the second voice signal and extracts the identification information ID1 and ID2 from the second voice signal as described above. The terminal device 50b generates a request based on the extracted identification information ID1 and ID2, and transmits the request to the management device 30 via the network NW. In response to the request from the terminal device 50b, the management device 30 refers to the guidance information table shown in FIG. 5, determines the guidance information corresponding to the combination of the identification information ID1 "003" and ID2 "1002", and determines the guidance information corresponding to the combination of the identification information ID1 "003" and the ID2 "1002", and determines the guidance information corresponding to the combination of the identification information ID1 "003" and the ID2 "1002". Send to. The terminal device 50b at the bus stop in area A2 has the guidance information "The bus arriving soon is the bus bound for XX station. If the bus is crowded, the next bus will arrive in 5 minutes. Please wait for the next bus. ”Is displayed on the display unit 56.

一方、図12に示すエリアA3のバス停においては、エリアA2と同じく「間もなくバスが到着します。」(図3AのID1“003”)がスピーカー20c(図3BのID2“1003”)から放送されるとする。この場合、放送装置10C(図1)はまず、コンテンツの識別情報ID1“003”が予め埋め込まれた第1音声信号に対し、音声透かし処理により、識別情報ID2“1003”を埋め込む。第2音声信号は、スピーカー20cから出力される。エリアA3のバス停にいるユーザの端末装置50cは、第2音声信号を収音し、上述したように第2音声信号から識別情報ID1,ID2の抽出処理を行う。端末装置50cは、抽出された識別情報ID1,ID2に基づき管理装置30に要求を生成し、ネットワークNWを介して送信する。管理装置30は、端末装置50cからの要求に対し、図5に示す案内情報テーブルを参照し、識別情報ID1“003”、ID2“1003”の組み合わせに対応する案内情報を判定し、端末装置50cに送信する。エリアA3のバス停の端末装置50cは、管理装置30から受信した案内情報「間もなく到着のバスは、当バス停止まりです。到着後、車庫に行きますので、乗車はお控え下さい。」を表示部56に表示する。 On the other hand, at the bus stop in area A3 shown in FIG. 12, "the bus will arrive soon" (ID1 "003" in FIG. 3A) is broadcast from the speaker 20c (ID2 "1003" in FIG. 3B) as in area A2. Suppose. In this case, the broadcasting device 10C (FIG. 1) first embeds the identification information ID 2 "1003" in the first audio signal in which the content identification information ID 1 "003" is embedded in advance by voice watermark processing. The second audio signal is output from the speaker 20c. The terminal device 50c of the user at the bus stop in the area A3 picks up the second voice signal and extracts the identification information ID1 and ID2 from the second voice signal as described above. The terminal device 50c generates a request to the management device 30 based on the extracted identification information ID1 and ID2, and transmits the request via the network NW. In response to the request from the terminal device 50c, the management device 30 refers to the guidance information table shown in FIG. 5, determines the guidance information corresponding to the combination of the identification information ID1 “003” and ID2 “1003”, and determines the guidance information corresponding to the combination of the identification information ID1 “003” and ID2 “1003”, and determines the guidance information corresponding to the combination of the identification information ID1 “003” and ID2 “1003”. Send to. The terminal device 50c at the bus stop in area A3 displays the guidance information "The bus arriving soon will stop at this bus. Please refrain from boarding as we will go to the garage after arrival." indicate.

以上のように、放送する内容(コンテンツ)が同じであっても、ユーザが存在するエリアが異なれば、当該エリアに則した情報をユーザに提供することができる。 As described above, even if the content to be broadcast is the same, if the area in which the user exists is different, information according to the area can be provided to the user.

(1−3.特徴等)
上記実施形態に係る放送装置10又は放送システム1は、音源データに対応するコンテンツを識別する識別情報ID1を予め埋め込んだ第1音声信号に、放送エリアを識別する識別情報ID2を埋め込んで、第2音声信号を生成し、スピーカー20から出力させる。このため、二つの異なる識別情報に応じた案内情報をユーザに提供可能になる。よって、乗り物の移動等によりユーザがいるエリアの位置に変更があってコンテンツを変更することに合わせて、当該エリアに則した情報をユーザに提供できる。また、同じコンテンツであっても、異なるエリアであれば、異なる案内情報をユーザに提供できる。よって、放送エリアにいるユーザに対し、適切な情報を迅速に提供することができる。
(1-3. Features, etc.)
The broadcasting device 10 or the broadcasting system 1 according to the above embodiment embeds the identification information ID 2 that identifies the broadcasting area in the first audio signal in which the identification information ID 1 that identifies the content corresponding to the sound source data is embedded in advance, and the second An audio signal is generated and output from the speaker 20. Therefore, it becomes possible to provide the user with guidance information corresponding to two different identification information. Therefore, it is possible to provide the user with information according to the area when the position of the area where the user is located is changed due to the movement of the vehicle or the like and the content is changed. Further, even if the content is the same, different guidance information can be provided to the user in different areas. Therefore, it is possible to promptly provide appropriate information to the user in the broadcasting area.

(その他実施形態)
図1に示す放送システム1は、例えば、避難誘導システムに適用できる。例えば、図1のA1〜A3が異なる地域(例えば、西側地域と東側地域と海岸沿い地域)を示すエリアとして、避難誘導システムに適用される放送システム1について図13及び図14を参照しながら説明する。
(Other embodiments)
The broadcasting system 1 shown in FIG. 1 can be applied to, for example, an evacuation guidance system. For example, the broadcasting system 1 applied to the evacuation guidance system will be described with reference to FIGS. 13 and 14 as areas in which A1 to A3 in FIG. 1 indicate different areas (for example, a western region, an eastern region, and a coastal region). do.

図13Aは、放送内容とその識別情報の例を示す図である。 FIG. 13A is a diagram showing an example of broadcast content and its identification information.

図13Bは、識別情報と対応付けられて管理されている案内情報を示す図である。 FIG. 13B is a diagram showing guidance information that is managed in association with the identification information.

図14は、避難誘導を行う放送システムによる放送と、各放送エリアで表示される識別情報に基づく案内情報の出力例を示す図である。 FIG. 14 is a diagram showing an example of broadcasting by a broadcasting system that guides evacuation and output of guidance information based on identification information displayed in each broadcasting area.

図14に示すエリアA1では、スピーカー20aから「津波が来ます。」という放送がされている。図1に示す放送装置10Aはまず、コンテンツの識別情報ID1“001”が予め埋め込まれた第1音声信号に対し、上述した音声透かし処理により、識別情報ID2“1001”を埋め込み、第2音声信号を生成する。第2音声信号は、スピーカー20aから音声として放音される。エリアA1内の端末装置50aは、スピーカー20aから放音された音声である第2音声信号を収音し、上述したように第2音声信号から識別情報ID1,ID2の抽出処理を行う。端末装置50aは、抽出された識別情報ID1,ID2に基づき要求を生成し、管理装置30にネットワークNWを介して送信する。管理装置30は、端末装置50からの要求に対し、図13Bに示す案内情報テーブルを参照し、識別情報ID1“001”、ID2“1001”の組み合わせに対応する案内情報を判定し、端末装置50aに送信する。エリアA1内の端末装置50aは、管理装置30から受信した案内情報「津波が来ます。西山の避難所に逃げてください。画像情報:https://www.aaaaa.jp/西地域」を表示部56に表示する。 In area A1 shown in FIG. 14, the speaker 20a broadcasts "A tsunami is coming." The broadcasting device 10A shown in FIG. 1 first embeds the identification information ID 2 “1001” in the first audio signal in which the content identification information ID 1 “001” is embedded in advance by the above-mentioned audio watermark processing, and then embeds the identification information ID 2 “1001” in the second audio signal. To generate. The second voice signal is emitted as voice from the speaker 20a. The terminal device 50a in the area A1 collects the second voice signal which is the voice emitted from the speaker 20a, and extracts the identification information ID1 and ID2 from the second voice signal as described above. The terminal device 50a generates a request based on the extracted identification information ID1 and ID2, and transmits the request to the management device 30 via the network NW. In response to the request from the terminal device 50, the management device 30 refers to the guidance information table shown in FIG. 13B, determines the guidance information corresponding to the combination of the identification information ID1 “001” and ID2 “1001”, and determines the guidance information corresponding to the combination of the identification information ID1 “001” and ID2 “1001”, and determines the guidance information corresponding to the combination of the identification information ID1 “001” and ID2 “1001”. Send to. The terminal device 50a in area A1 displays the guidance information "Tsunami is coming. Please escape to the evacuation center in Nishiyama. Image information: https://www.aaaaa.jp/West area" received from the management device 30. It is displayed on the part 56.

一方、図14に示すエリアA2では、エリアA1の放送内容と同じである「津波が来ます。」という放送が、スピーカー20bから放送される。放送装置10B(図1)はまず、コンテンツの識別情報ID1“001”が予め埋め込まれた第1音声信号に対し、上述した音声透かし処理により、識別情報ID2“1002”を埋め込む。第2音声信号は、スピーカー20bから音声として放送される。エリアA2内の端末装置50bは、スピーカー20bから放音された音声である第2音声信号を収音し、上述したように第2音声信号から識別情報ID1,ID2の抽出処理を行う。端末装置50bは、抽出された識別情報ID1,ID2に基づき要求を生成し、管理装置30にネットワークNWを介して送信する。管理装置30は、端末装置50からの要求に対し、図13Bに示す案内情報テーブルを参照し、識別情報ID1“001”、ID2“1002”の組み合わせに対応する案内情報を判定し、端末装置50bに送信する。エリアA2内の端末装置50bは、管理装置30から受信した案内情報「津波が来ます。東山の避難所に逃げてください。画像情報:https://www.bbbbb.jp/東地域」を表示部56に表示する。 On the other hand, in the area A2 shown in FIG. 14, the broadcast "Tsunami is coming", which is the same as the broadcast content of the area A1, is broadcast from the speaker 20b. First, the broadcasting device 10B (FIG. 1) embeds the identification information ID 2 "1002" in the first audio signal in which the content identification information ID 1 "001" is embedded in advance by the above-mentioned audio watermark processing. The second audio signal is broadcast as audio from the speaker 20b. The terminal device 50b in the area A2 collects the second voice signal which is the voice emitted from the speaker 20b, and extracts the identification information ID1 and ID2 from the second voice signal as described above. The terminal device 50b generates a request based on the extracted identification information ID1 and ID2, and transmits the request to the management device 30 via the network NW. In response to the request from the terminal device 50, the management device 30 refers to the guidance information table shown in FIG. 13B, determines the guidance information corresponding to the combination of the identification information ID1 “001” and ID2 “1002”, and determines the guidance information corresponding to the combination of the identification information ID1 “001” and ID2 “1002”, and determines the guidance information corresponding to the combination of the identification information ID1 “001” and ID2 “1002”. Send to. The terminal device 50b in area A2 displays the guidance information "Tsunami is coming. Please escape to the evacuation center in Higashiyama. Image information: https://www.bbbbb.jp/ East area" received from the management device 30. It is displayed on the part 56.

図14に示すエリアA3では、エリアA1の放送内容と同じである「津波が来ます。」という放送が、スピーカー20c(図3Bの“1003”)から放送される。放送装置10C(図1)はまず、コンテンツの識別情報ID1“001”が予め埋め込まれた第1音声信号に対し、上述した音声透かし処理により、識別情報ID2“1003”を埋め込む。第2音声信号は、スピーカー20cから音声として放送される。エリアA3内の端末装置50cは、スピーカー20cから放音された音声である第2音声信号を収音し、上述したように第2音声信号から識別情報ID1,ID2の抽出処理を行う。端末装置50cは、抽出された識別情報ID1,ID2に基づき要求を生成し、管理装置30にネットワークNWを介して送信する。管理装置30は、端末装置50cからの要求に対し、図13Bに示す案内情報テーブルを参照し、識別情報ID1“001”、ID2“1003”の組み合わせに対応する案内情報を判定し、端末装置50cに送信する。エリアA3内の端末装置50cは、管理装置30から受信した案内情報「津波が来ます。海岸に近づかず、待機してください。http://www.ccccc.jp/海岸」を表示部56に表示する。 In area A3 shown in FIG. 14, a broadcast “Tsunami is coming”, which is the same as the broadcast content in area A1, is broadcast from the speaker 20c (“1003” in FIG. 3B). First, the broadcasting device 10C (FIG. 1) embeds the identification information ID 2 "1003" in the first audio signal in which the content identification information ID 1 "001" is embedded in advance by the above-mentioned audio watermark processing. The second audio signal is broadcast as audio from the speaker 20c. The terminal device 50c in the area A3 picks up the second voice signal which is the voice emitted from the speaker 20c, and performs the extraction processing of the identification information ID1 and ID2 from the second voice signal as described above. The terminal device 50c generates a request based on the extracted identification information ID1 and ID2, and transmits the request to the management device 30 via the network NW. In response to the request from the terminal device 50c, the management device 30 refers to the guidance information table shown in FIG. 13B, determines the guidance information corresponding to the combination of the identification information ID1 “001” and ID2 “1003”, and determines the guidance information corresponding to the combination of the identification information ID1 “001” and ID2 “1003”, and determines the guidance information corresponding to the combination of the identification information ID1 “001” and ID2 “1003”. Send to. The terminal device 50c in area A3 displays the guidance information "Tsunami is coming. Please wait, stay away from the coast. Http://www.ccccc.jp/ Coast" received from the management device 30 on the display unit 56. indicate.

以上のように、放送システム1は、地域における避難誘導システムにも適用できる。また、商業施設や公共施設、乗り物内における避難誘導システムにも適用できる。放送システム1は、ユーザのいるエリアに応じた案内情報を判定し、ユーザに提供することができるため、より安全性の高い避難誘導システムを実現できる。 As described above, the broadcasting system 1 can also be applied to the evacuation guidance system in the area. It can also be applied to evacuation guidance systems in commercial facilities, public facilities, and vehicles. Since the broadcasting system 1 can determine the guidance information according to the area where the user is and provide it to the user, a more safe evacuation guidance system can be realized.

本開示における技術は、上述した形態に限定されず、例えば、以下の形態が可能である。 The technique in the present disclosure is not limited to the above-described form, and for example, the following forms are possible.

(1)
識別情報ID2は、単一のスピーカーの識別情報に限定されず、同一エリア(例えば、地域や建物の同一階)に設置されている複数のスピーカーに対応するものであってもよい。つまり、複数のスピーカー20が共通の識別情報ID2を有していてもよい。例えば、建物の同一階に設置された複数のスピーカー20に対しては、同じ案内情報を提供するものとし、階が異なる複数のスピーカー20に対しては同じコンテンツに対し異なる案内情報を提供することができる。
(1)
The identification information ID 2 is not limited to the identification information of a single speaker, and may correspond to a plurality of speakers installed in the same area (for example, the same floor of an area or a building). That is, a plurality of speakers 20 may have a common identification information ID 2. For example, the same guidance information shall be provided to a plurality of speakers 20 installed on the same floor of a building, and different guidance information may be provided for the same content to a plurality of speakers 20 on different floors. Can be done.

識別情報ID2は、スピーカー20自体の識別情報を含む必要はなく、音声の出力場所を特定する情報を含むものであればよい。 The identification information ID 2 does not need to include the identification information of the speaker 20 itself, and may include information for specifying the audio output location.

識別情報ID2は、放送エリアを示す情報に限定されず、他方のコンテンツの識別情報ID1とは異なる情報であれば、他の種類の情報であってもよい。 The identification information ID 2 is not limited to the information indicating the broadcasting area, and may be other types of information as long as the information is different from the identification information ID 1 of the other content.

(2)
上記実施形態においては、音声透かし処理としてエコー拡散法を例にしているがこれに限定されない。公知の周期的位相変調法、或いは公知のスペクトル拡散法等を用いて音声透かし処理を実行してもよい。
(2)
In the above embodiment, the echo diffusion method is taken as an example of the voice watermark processing, but the present invention is not limited to this. The voice watermarking process may be performed using a known periodic phase modulation method, a known spectral diffusion method, or the like.

(3)
上記実施形態においては、予めコンテンツの識別情報ID1が埋め込まれた第1音声信号に、放送エリアを示す識別情報ID2を埋め込んでいるが、これに限定されない。音源データの音声信号に識別情報ID1とID2を同時に埋め込んでもよい。
(3)
In the above embodiment, the identification information ID 2 indicating the broadcasting area is embedded in the first voice signal in which the content identification information ID 1 is embedded in advance, but the present invention is not limited to this. Identification information ID1 and ID2 may be embedded in the audio signal of the sound source data at the same time.

また、音声透かし処理部111は、管理装置30と放送装置10それぞれに設けてもよい。この場合、管理装置30の音声透かし処理部において音源データの第1音声信号に識別情報ID1を埋め込み、ID1を埋め込んだ音声信号を放送装置10に送信する。放送装置10の音声透かし処理部111は、ID1を埋め込んだ音声信号にID2を埋め込み、第2音声信号を生成する。 Further, the audio watermark processing unit 111 may be provided in each of the management device 30 and the broadcasting device 10. In this case, the voice watermark processing unit of the management device 30 embeds the identification information ID1 in the first voice signal of the sound source data, and transmits the voice signal in which the ID1 is embedded to the broadcasting device 10. The audio watermark processing unit 111 of the broadcasting device 10 embeds ID2 in the audio signal in which ID1 is embedded to generate a second audio signal.

また、音声透かし処理部111は、予め音源データの第1音声信号に識別情報ID1を埋め込み、ID1を埋め込んだ音声信号を記憶部13に記憶しておき、その後、放送時にそのID1を埋め込んだ音声信号にID2を埋め込み、第2音声信号を生成するようにしてもよい。 Further, the audio watermark processing unit 111 embeds the identification information ID1 in the first audio signal of the sound source data in advance, stores the audio signal in which the ID1 is embedded in the storage unit 13, and then embeds the ID1 at the time of broadcasting. ID2 may be embedded in the signal to generate a second audio signal.

また、音声透かし処理部111の配置に応じて、記憶部13の音源データ記憶部131及び放送エリア情報記憶部133のうち少なくとも一方を、管理装置30に設けてもよい。 Further, depending on the arrangement of the voice watermark processing unit 111, at least one of the sound source data storage unit 131 and the broadcast area information storage unit 133 of the storage unit 13 may be provided in the management device 30.

上記実施形態においては、識別情報抽出部511を端末装置50に設けているが、管理装置30に設けてもよい。この場合、端末装置50はスピーカー20から収音した第2音声信号を管理装置30に送信し、管理装置30が第2音声信号から識別情報ID1,ID2を抽出する。管理装置30は、抽出した識別情報ID1,ID2に応じた案内情報を端末装置50に送信する。 In the above embodiment, the identification information extraction unit 511 is provided in the terminal device 50, but it may be provided in the management device 30. In this case, the terminal device 50 transmits the second voice signal picked up from the speaker 20 to the management device 30, and the management device 30 extracts the identification information ID1 and ID2 from the second voice signal. The management device 30 transmits the guidance information corresponding to the extracted identification information ID1 and ID2 to the terminal device 50.

管理装置30は、サーバに代えて、クラウドコンピューティングを実現する複数の装置であってもよい。 The management device 30 may be a plurality of devices that realize cloud computing instead of the server.

(4)
端末装置50は、最初に管理装置30に要求を送信したとき、管理装置30から案内情報テーブルを一括して受信して、記憶部53に保存しておいてもよい。これにより、端末装置50は、スピーカー20から収音した音声信号から識別情報を抽出する度に管理装置30にアクセスする必要がなく、案内情報の出力を迅速に行うことができる。
(4)
When the terminal device 50 first transmits a request to the management device 30, the terminal device 50 may collectively receive the guidance information table from the management device 30 and store it in the storage unit 53. As a result, the terminal device 50 does not need to access the management device 30 every time the identification information is extracted from the voice signal picked up from the speaker 20, and the guidance information can be output quickly.

(5)
音源データは放送装置10でなく、管理装置30が記憶し、放送装置10からの要求に応じて送信するようにしてもよい。
(5)
The sound source data may be stored in the management device 30 instead of the broadcasting device 10 and transmitted in response to a request from the broadcasting device 10.

音源データはまた、マイクから入力された音声をリアルタイムに出力する音声であってもよい。この場合、取得された音源データは放送装置10や管理装置30で識別情報を埋め込む処理を行い、出力される。 The sound source data may also be voice that outputs the voice input from the microphone in real time. In this case, the acquired sound source data is output after being processed by the broadcasting device 10 or the management device 30 to embed the identification information.

(6)
管理装置30は、遠隔に配置されていてもよいし、放送システム1が適用される施設や乗り物に設置されてもよい。
(6)
The management device 30 may be located remotely, or may be installed in a facility or vehicle to which the broadcasting system 1 is applied.

本発明は、施設や交通機関において利用される放送システムとして適用可能である。 The present invention is applicable as a broadcasting system used in facilities and transportation.

1…放送システム、10…放送装置、10A…放送装置、10B…放送装置、10C…放送装置、11,31,51…プロセッサ、13,33,53…記憶部、15…D/A変換部、16…アンプ、17,37,57…通信部、20…スピーカー、30…管理装置、50…端末装置、55…音声入力部、56…表示部、58…入力操作部、59…音声出力部、111…音声透かし処理部、113…音声取得部、115…音声出力制御部、131…音源データ記憶部、133…放送エリア情報記憶部、311…案内情報判定部、331…案内情報テーブル、511…識別情報抽出部、513…案内情報要求生成部、515…案内情報取得部、531…識別情報記憶部、533…案内情報記憶部、535…アプリ記憶部 1 ... Broadcast system, 10 ... Broadcast device, 10A ... Broadcast device, 10B ... Broadcast device, 10C ... Broadcast device, 11,31,51 ... Processor, 13,33,53 ... Storage unit, 15 ... D / A conversion unit, 16 ... amplifier, 17,37,57 ... communication unit, 20 ... speaker, 30 ... management device, 50 ... terminal device, 55 ... audio input unit, 56 ... display unit, 58 ... input operation unit, 59 ... audio output unit, 111 ... Audio watermark processing unit, 113 ... Audio acquisition unit, 115 ... Audio output control unit, 131 ... Sound source data storage unit, 133 ... Broadcast area information storage unit, 311 ... Guidance information determination unit, 331 ... Guidance information table, 511 ... Identification information extraction unit, 513 ... Guidance information request generation unit, 515 ... Guidance information acquisition unit, 513 ... Identification information storage unit, 533 ... Guidance information storage unit, 535 ... App storage unit

Claims (5)

一以上のスピーカーから音声を出力する放送装置であって、
第1音声信号に対応するコンテンツを識別する第1識別情報と、前記第1識別情報とは異なる第2識別情報とを前記第1音声信号に埋め込んだ第2音声信号を取得する音声取得部と、
前記第2音声信号を、前記スピーカーから出力させる音声出力制御部と、
を含む放送装置と
前記第2音声信号を収音する端末装置と通信可能に接続され、前記第1識別情報及び前記第2識別情報の組み合わせと前記端末装置において出力する案内情報とを関連付けた案内情報データを提供する管理装置と、
を備え、
前記第2識別情報は、前記スピーカーの放送エリアを識別する識別情報であり、
前記案内情報データを参照して、前記端末装置において、前記放送エリアに応じた前記案内情報を出力させる
放送システム
A broadcasting device that outputs audio from one or more speakers.
A voice acquisition unit that acquires a second voice signal in which the first identification information for identifying the content corresponding to the first voice signal and the second identification information different from the first identification information are embedded in the first voice signal. ,
An audio output control unit that outputs the second audio signal from the speaker,
Broadcasting equipment, including
It is communicably connected to the terminal device that collects the second voice signal, and provides guidance information data in which the combination of the first identification information and the second identification information is associated with the guidance information output by the terminal device. Management device and
With
The second identification information is identification information for identifying the broadcasting area of the speaker.
With reference to the guidance information data, in the terminal apparatus causes outputting the guidance information corresponding to the broadcast area,
Broadcast system .
前記第1音声信号には、前記第1識別情報が予め埋め込まれており、
前記放送装置は、当該第1音声信号に前記第2識別情報を埋め込む処理を実行して前記第2音声信号を生成する一以上の音声透かし処理部備える、
請求項1に記載の放送システム
The first identification information is embedded in the first audio signal in advance.
The broadcasting device includes one or more audio watermark processing units that execute a process of embedding the second identification information in the first audio signal to generate the second audio signal.
The broadcasting system according to claim 1.
前記端末装置を更に備え、
前記端末装置は、前記第2音声信号から前記第1識別情報と前記第2識別情報とを抽出する、
請求項1又は2に記載の放送システム。
Further equipped with the terminal device
The terminal device extracts the first identification information and the second identification information from the second voice signal.
The broadcasting system according to claim 1 or 2.
前記管理装置は、
前記案内情報データを記憶し、
前記案内情報データを、前記端末装置からの要求に応じて前記端末装置に送信する、
請求項1から3のいずれかに記載の放送システム。
The management device is
The guidance information data is stored and
The guidance information data is transmitted to the terminal device in response to a request from the terminal device.
The broadcasting system according to any one of claims 1 to 3.
一以上のスピーカーから収音した音声であって、前記音声のコンテンツを識別する第1識別情報と前記第1識別情報とは異なる第2識別情報であってスピーカーの放送エリアを識別する第2識別情報とを含む音声から、前記第1識別情報と前記第2識別情報とを抽出し、
前記第1識別情報及び前記第2識別情報の組み合わせと端末装置において出力する案内情報とを関連付けた案内情報データを提供し、
前記案内情報データを参照して、前記端末装置において前記放送エリアに応じた前記案内情報を出力させる
機能をコンピュータに実行させるためのプログラム。
A second identification that is sound picked up from one or more speakers and is different from the first identification information that identifies the content of the voice and the first identification information and that identifies the broadcast area of the speaker. The first identification information and the second identification information are extracted from the voice including the information, and the first identification information and the second identification information are extracted.
Provided guidance information data in which the combination of the first identification information and the second identification information and the guidance information output by the terminal device are associated with each other.
With reference to the guidance information data, the terminal device is made to output the guidance information according to the broadcasting area .
A program that lets a computer perform a function.
JP2018199051A 2018-10-23 2018-10-23 Broadcasting equipment, broadcasting systems, and computer programs Active JP6927942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018199051A JP6927942B2 (en) 2018-10-23 2018-10-23 Broadcasting equipment, broadcasting systems, and computer programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018199051A JP6927942B2 (en) 2018-10-23 2018-10-23 Broadcasting equipment, broadcasting systems, and computer programs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020139072A Division JP2021005871A (en) 2020-08-20 2020-08-20 Broadcasting device, broadcasting system, and computer program

Publications (2)

Publication Number Publication Date
JP2020068427A JP2020068427A (en) 2020-04-30
JP6927942B2 true JP6927942B2 (en) 2021-09-01

Family

ID=70388684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018199051A Active JP6927942B2 (en) 2018-10-23 2018-10-23 Broadcasting equipment, broadcasting systems, and computer programs

Country Status (1)

Country Link
JP (1) JP6927942B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7463174B2 (en) 2020-04-06 2024-04-08 三菱重工業株式会社 SOLID CARBON GENERATION APPARATUS AND SOLID CARBON GENERATION METHOD
JP7407758B2 (en) * 2021-03-19 2024-01-04 Lineヤフー株式会社 Information processing system and information processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009205485A (en) * 2008-02-28 2009-09-10 Fujitsu Fsas Inc Vehicle getting-on/off notification method and vehicle getting-on/off notification system
JP2013218066A (en) * 2012-04-06 2013-10-24 Yamaha Corp Server device and music performance system
JP6160794B1 (en) * 2015-10-15 2017-07-12 ヤマハ株式会社 Information management system and information management method
JP6776645B2 (en) * 2015-11-30 2020-10-28 株式会社リコー Information provision system, on-board equipment, information processing equipment, information provision method, and program

Also Published As

Publication number Publication date
JP2020068427A (en) 2020-04-30

Similar Documents

Publication Publication Date Title
US10275210B2 (en) Privacy protection in collective feedforward
US9736264B2 (en) Personal audio system using processing parameters learned from user feedback
JP6927942B2 (en) Broadcasting equipment, broadcasting systems, and computer programs
US10275209B2 (en) Sharing of custom audio processing parameters
JP6955452B2 (en) Broadcast sound forming device and information presentation system
US20170245069A1 (en) Audio processing device and method of providing information
US10853025B2 (en) Sharing of custom audio processing parameters
CN111128212A (en) Mixed voice separation method and device
JPWO2018079624A1 (en) PROCESSING DEVICE, SERVER DEVICE, OUTPUT METHOD, AND PROGRAM
JP2021005871A (en) Broadcasting device, broadcasting system, and computer program
JP2016173413A (en) Information provision system
JP6778240B2 (en) Broadcast system and computer program
WO2018079623A1 (en) Processing device, server device, output method, and program
US9826377B2 (en) Information processing apparatus, information processing system, and information processing method
CN111145774A (en) Voice separation method and device
CN118053447A (en) Sound signal processing method and device, electronic equipment and storage medium
CN107209901B (en) Information providing system, information providing method, and management device
JP6771520B2 (en) Broadcasting system and information presentation device
US20170255615A1 (en) Information transmission device, information transmission method, guide system, and communication system
US9678709B1 (en) Processing sound using collective feedforward
JP2014197771A (en) Broadcast system sound output controller and method for controlling sound output
JP6844308B2 (en) Service provision system, information terminal, information processing method, and program
US11145320B2 (en) Privacy protection in collective feedforward
JP7480497B2 (en) Terminal device, information provision system, information provision method, and program
WO2020246205A1 (en) Program, terminal device, and method for operating terminal device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200306

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200306

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200306

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200422

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200820

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200820

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200831

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200901

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20201009

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20201013

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210413

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210629

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210803

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210805

R150 Certificate of patent or registration of utility model

Ref document number: 6927942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250