JP6597156B2 - Information generation system - Google Patents

Information generation system Download PDF

Info

Publication number
JP6597156B2
JP6597156B2 JP2015203864A JP2015203864A JP6597156B2 JP 6597156 B2 JP6597156 B2 JP 6597156B2 JP 2015203864 A JP2015203864 A JP 2015203864A JP 2015203864 A JP2015203864 A JP 2015203864A JP 6597156 B2 JP6597156 B2 JP 6597156B2
Authority
JP
Japan
Prior art keywords
information
character string
character strings
guidance
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015203864A
Other languages
Japanese (ja)
Other versions
JP2017076279A (en
Inventor
貴裕 岩田
優樹 瀬戸
友美子 越智
哲朗 石田
翔太 森口
裕之 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015203864A priority Critical patent/JP6597156B2/en
Publication of JP2017076279A publication Critical patent/JP2017076279A/en
Application granted granted Critical
Publication of JP6597156B2 publication Critical patent/JP6597156B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、案内音声から情報を生成する技術に関する。   The present invention relates to a technique for generating information from guidance voice.

発話音声に対する音声認識の結果に応じて各種の情報を利用者に提供する技術が従来から提案されている。例えば、特許文献1には、利用者の発話音声に対する音声認識を実行して、音声認識の結果として特定された目標地点を中心として地図の表示領域や表示縮尺等を指示する構成が開示されている。   Techniques have been conventionally proposed that provide various types of information to users according to the results of speech recognition for uttered speech. For example, Patent Literature 1 discloses a configuration in which voice recognition is performed on a user's uttered voice and a map display area, a display scale, and the like are instructed around a target point specified as a result of voice recognition. Yes.

特開平03―175478号公報Japanese Patent Laid-Open No. 03-175478

ところで、例えばショッピングモール等の商業施設で放送される案内音声を音声認識し、認識結果の文字列やその翻訳文等の関連情報を施設の来場者の端末装置に提供できれば、案内音声の聴取が困難な難聴者や案内音声の言語を理解できない外国人にとって便利である。しかし、完全な音声認識の実現は実際には困難であり、例えば個々の発話者に特有の発話の特徴(くせ)や収音時の背景雑音等に起因して誤認識が発生する場合がある。以上の事情を考慮して、本発明は、案内音声に応じた適正な関連情報を利用者に提供することを目的とする。   By the way, for example, if the guidance voice broadcast in a commercial facility such as a shopping mall can be recognized and related information such as a character string of the recognition result and its translation can be provided to the terminal device of the facility visitor, the guidance voice can be heard. Useful for people who have difficulty hearing or who cannot understand the language of the guidance voice. However, it is actually difficult to realize complete speech recognition. For example, erroneous recognition may occur due to utterance characteristics peculiar to individual speakers or background noise at the time of sound collection. . In view of the above circumstances, an object of the present invention is to provide a user with relevant information appropriate to a guidance voice.

以上の課題を解決するために、本発明に係る情報生成システムは、案内音声に関連する関連情報を端末装置が利用者に提示するために当該端末装置に送信される配信情報を生成するシステムであって、案内音声に対する音声認識で解析された複数の認識文字列の各々について、相異なる発音内容を表す複数の登録文字列のうち認識文字列に類似する当該登録文字列を特定する文字列特定部と、複数の登録文字列の相異なる組合せを指定する複数の対応情報のうち、文字列特定部が特定した複数の登録文字列の組合せに対応する対応情報に応じた関連情報を端末装置が利用者に提示するための配信情報を生成する情報生成部とを具備する。以上の構成では、複数の登録文字列のうち、案内音声に対する音声認識で解析された認識文字列に類似する登録文字列が特定される。したがって、案内音声に対する音声認識で解析された複数の認識文字列に応じた関連情報を利用者に提示するための配信情報を生成する構成と比較して、音声認識の誤認識の影響を含まない関連情報を利用者に提示するための配信情報を生成することが可能である。また、複数の登録文字列の相異なる組合せを指定する対応情報に応じた関連情報を端末装置が利用者に提示するための配信情報が生成されるので、文字列特定部が特定した複数の登録文字列に応じた関連情報を利用者に提示するための配信情報を生成する構成と比較して、案内者が例えば文単位で案内音声の発音を誤った場合(例えば、必要な文の発音を忘れた場合や不要な文を発音した場合)でも、案内音声の認識結果から特定される複数の登録文字列の組合せに対応する対応情報に応じた適切な関連情報を利用者に提示するための配信情報を生成することが可能である。   In order to solve the above problems, an information generation system according to the present invention is a system that generates distribution information transmitted to a terminal device so that the terminal device presents related information related to the guidance voice to the user. In addition, for each of a plurality of recognized character strings analyzed by voice recognition for the guidance voice, a character string specification that identifies the registered character string that is similar to the recognized character string among a plurality of registered character strings that represent different pronunciation contents And the terminal device provides related information corresponding to the correspondence information corresponding to the combination of the plurality of registered character strings specified by the character string specifying unit among the plurality of pieces of correspondence information designating different combinations of the plurality of registered character strings. An information generation unit that generates distribution information to be presented to the user. In the above configuration, a registered character string similar to a recognized character string analyzed by voice recognition for the guidance voice is specified from among a plurality of registered character strings. Therefore, it does not include the influence of misrecognition of voice recognition, compared with a configuration that generates distribution information for presenting related information according to a plurality of recognized character strings analyzed by voice recognition to the guidance voice. It is possible to generate distribution information for presenting related information to the user. In addition, since distribution information for the terminal device to present to the user related information corresponding to correspondence information specifying different combinations of a plurality of registered character strings is generated, a plurality of registrations specified by the character string specifying unit Compared to a configuration that generates distribution information for presenting relevant information according to a character string to the user, for example, when the guide mispronounces the guidance voice in units of sentences (for example, to pronounce the necessary sentences) For presenting appropriate related information according to the corresponding information corresponding to the combination of multiple registered character strings specified from the recognition result of the guidance voice, even when forgetting or when an unnecessary sentence is pronounced) Distribution information can be generated.

本発明の好適な態様において、情報生成部は、各対応情報について用意された複数の案内文のうち、文字列特定部が特定した複数の登録文字列の組合せに対応する対応情報の案内文を示す関連情報を端末装置が利用者に提示するための配信情報を生成する。以上の構成では、文字列特定部が特定した複数の登録文字列の組合せに対応する対応情報の案内文を示す関連情報を端末装置が利用者に提示するための配信情報が生成される。したがって、対応情報が指定する登録文字列の組合せとは独立に用意された案内文を示す関連情報を利用者に提示するための配信情報を生成することが可能である。   In a preferred aspect of the present invention, the information generation unit generates a guide sentence of correspondence information corresponding to a combination of a plurality of registered character strings specified by the character string specifying part among a plurality of guide sentences prepared for each piece of correspondence information. Distribution information for the terminal device to present the related information to be shown to the user is generated. In the above configuration, distribution information is generated for the terminal device to present related information indicating the guidance text of the corresponding information corresponding to the combination of the plurality of registered character strings specified by the character string specifying unit to the user. Therefore, it is possible to generate distribution information for presenting the user with related information indicating a guide sentence prepared independently of the combination of registered character strings designated by the correspondence information.

本発明の好適な態様において、情報生成部は、文字列特定部が特定した複数の登録文字列の組合せに対応する対応情報が指定する複数の登録文字列を示す関連情報を端末装置が利用者に提示するための配信情報を生成する。以上の構成では、対応情報が指定する複数の登録文字列を示す関連情報を端末装置が利用者に提示するための配信情報が生成される。したがって、文字列特定部が特定した複数の登録文字列の組合せに対応する対応情報の案内文を示す関連情報を利用者に提示するための配信情報を生成する構成と比較して、案内文を一意に指定するための情報が不要になるという利点がある。   In a preferred aspect of the present invention, the information generation unit is configured such that the terminal device displays related information indicating a plurality of registered character strings specified by correspondence information corresponding to a combination of a plurality of registered character strings specified by the character string specifying unit. To generate distribution information for presentation. With the above configuration, distribution information for the terminal device to present related information indicating a plurality of registered character strings designated by the correspondence information to the user is generated. Therefore, in comparison with the configuration for generating the distribution information for presenting the related information indicating the guidance text of the corresponding information corresponding to the combination of the plurality of registered character strings identified by the character string identification section, the guidance text is There is an advantage that information for uniquely specifying is unnecessary.

本発明の好適な態様において、対応情報は、複数の登録文字列の組合せと、当該組合せに係る複数の登録文字列の順序とを指定し、情報生成部は、対応情報が指定する順序で配列された複数の登録文字列を示す関連情報を端末装置が利用者に提示するための配信情報を生成する。以上の構成では、対応情報が指定する順序で配列された複数の登録文字列を示す関連情報を端末装置が利用者に提示するための配信情報が生成される。したがって、案内音声を構成する複数の文の発音の順序に関わらず、対応情報があらかじめ指定した順序で配列された複数の登録文字列を示す関連情報を利用者に提示するための配信情報を生成することが可能である。   In a preferred aspect of the present invention, the correspondence information specifies a combination of a plurality of registered character strings and an order of the plurality of registered character strings related to the combination, and the information generation unit is arranged in the order specified by the correspondence information The terminal device generates distribution information for presenting the relevant information indicating the plurality of registered character strings to the user. In the above configuration, distribution information for the terminal device to present related information indicating a plurality of registered character strings arranged in the order designated by the correspondence information to the user is generated. Therefore, regardless of the order of pronunciation of the plurality of sentences constituting the guidance voice, the distribution information for presenting the related information indicating the plurality of registered character strings in which the correspondence information is arranged in the order specified in advance is generated. Is possible.

本発明の好適な態様において、案内音声と、配信情報を示す音響とを放音する放音部を具備する。以上の構成では、案内音声を放音する放音部が、配信情報の音響の放音(すなわち空気振動たる音響を伝送媒体とする音響通信)に流用される。したがって、案内音声の放音に使用する放音装置とは別個の放音装置を配信情報を示す音響の放音に利用する構成と比較して、情報生成システムの構成を簡素化することが可能である。   The suitable aspect of this invention comprises the sound emission part which emits a guidance audio | voice and the sound which shows delivery information. In the above configuration, the sound emitting unit that emits the guidance voice is used for sound emission of distribution information (that is, acoustic communication using sound that is air vibration as a transmission medium). Therefore, it is possible to simplify the configuration of the information generation system as compared to a configuration in which a sound emitting device separate from the sound emitting device used for sounding the guidance voice is used for sound emission indicating the distribution information. It is.

第1実施形態に係る情報生成システムの概略図である。1 is a schematic diagram of an information generation system according to a first embodiment. 音声案内システムおよび管理装置の構成図である。It is a block diagram of a voice guidance system and a management apparatus. 案内音声の解析結果を複数の認識文字列に分割する動作の説明図である。It is explanatory drawing of the operation | movement which divides | segments the analysis result of a guidance voice into a some recognition character string. 文字列テーブルの模式図である。It is a schematic diagram of a character string table. 案内テーブルの模式図である。It is a schematic diagram of a guidance table. 端末装置の構成図である。It is a block diagram of a terminal device. 情報生成システムの動作の説明図である。It is explanatory drawing of operation | movement of an information generation system. 第2実施形態に係る案内テーブルの模式図である。It is a schematic diagram of the guidance table which concerns on 2nd Embodiment.

<第1実施形態>
図1は、本発明の第1実施形態に係る情報生成システム1の構成図である。第1実施形態の情報生成システム1は、ショッピングモール等の商業施設300内にいる利用者Uに提供する情報を生成するためのコンピュータシステムであり、音声案内システム100と管理装置10とを具備する。音声案内システム100は、例えば商業施設300内に設置され、インターネット等を含む通信網200を介して管理装置10と通信する。管理装置10は、例えば通信網200に接続されたサーバ(例えばウェブサーバ)である。利用者Uは、端末装置30を携帯して商業施設300に来場する。端末装置30は、例えば携帯電話機やスマートフォン等の可搬型の情報処理装置である。なお、実際には商業施設300内にいる複数の利用者Uが情報生成システム1のサービスを利用し得るが、以下の説明では便宜的に1個の端末装置30に着目する。
<First Embodiment>
FIG. 1 is a configuration diagram of an information generation system 1 according to the first embodiment of the present invention. The information generation system 1 of the first embodiment is a computer system for generating information to be provided to a user U in a commercial facility 300 such as a shopping mall, and includes a voice guidance system 100 and a management device 10. . The voice guidance system 100 is installed in, for example, a commercial facility 300 and communicates with the management apparatus 10 via a communication network 200 including the Internet. The management device 10 is a server (for example, a web server) connected to the communication network 200, for example. The user U carries the terminal device 30 and visits the commercial facility 300. The terminal device 30 is a portable information processing device such as a mobile phone or a smartphone. In practice, a plurality of users U in the commercial facility 300 can use the service of the information generation system 1, but in the following description, attention is focused on one terminal device 30 for convenience.

商業施設300の従業員等の案内者OPは、来場者である利用者Uを案内する各種の音声(以下「案内音声」という)Vを発音する。第1実施形態では、複数の文から構成される商業施設300の来場者向けの情報、例えば「本日はお越しくださいまして誠にありがとうございます。間もなく閉店のお時間となります。お気をつけてお帰りください。」等の音声が案内音声Vとして発音される。第1実施形態では、案内音声Vの発音時に参照するアナウンスブック等に事前に収録された複数の文章の何れかを案内者OPが選択的に案内音声Vとして発音する場合を想定する。複数の文章の各々は、相異なる発話内容を表す1文単位の文字列(以下「登録文字列」という)を組合せて構成される。   The guide OP, such as an employee of the commercial facility 300, produces various voices (hereinafter referred to as “guide voice”) V that guide the user U who is a visitor. In the first embodiment, information for visitors of the commercial facility 300 composed of a plurality of sentences, for example, “Thank you for coming today. It will be closing time soon. Please be careful. Is pronounced as the guidance voice V. In the first embodiment, it is assumed that the guider OP selectively pronounces any of a plurality of sentences recorded in advance in an announcement book or the like to be referred to when the guidance voice V is sounded as the guidance voice V. Each of the plurality of sentences is configured by combining one sentence-unit character string (hereinafter referred to as “registered character string”) representing different utterance contents.

情報生成システム1は、案内者OPが発音した案内音声Vに関連する情報(以下「関連情報」という)Zを利用者Uに提示するための情報(以下「配信情報」)Qを生成する。例えば、関連情報Zは、案内音声Vの発音内容を表現した文字列や当該発音内容の言語を他言語に翻訳した文字列または音声等の各種の情報である。第1実施形態では、案内音声Vに関連する予め用意された各種の案内文A(A1,A2,……)を関連情報Zとして利用者Uに提示するための配信情報Qを生成する。   The information generation system 1 generates information (hereinafter referred to as “distribution information”) Q for presenting information (hereinafter referred to as “related information”) Z related to the guidance voice V pronounced by the guide OP to the user U. For example, the related information Z is various information such as a character string expressing the pronunciation content of the guidance voice V, a character string translated from the language of the pronunciation content into another language, or a voice. In the first embodiment, distribution information Q for presenting various guidance sentences A (A1, A2,...) Prepared in advance related to the guidance voice V as related information Z to the user U is generated.

<音声案内システム100>
図2は、音声案内システム100および管理装置10の構成図である。図2に例示される通り、音声案内システム100は、配信端末20と収音装置22と加算器24と放音装置26とを含んで構成される。
<Voice guidance system 100>
FIG. 2 is a configuration diagram of the voice guidance system 100 and the management device 10. As illustrated in FIG. 2, the voice guidance system 100 includes a distribution terminal 20, a sound collection device 22, an adder 24, and a sound emission device 26.

収音装置22は、周囲の音響を収音する音響機器(マイクロホン)である。案内者OPは、案内音声Vの発音時に参照するアナウンスブック等に事前に収録された複数の文章を、例えば案内したい情報に応じて選択的に案内音声Vとして発音する。すなわち、案内音声Vは、基本的には、案内者OPが内容を任意に決定できるものではなく、事前に用意された既知の内容である。   The sound collection device 22 is an acoustic device (microphone) that collects ambient sounds. The guide OP selectively pronounces a plurality of sentences recorded in advance in an announcement book or the like to be referred to when the guidance voice V is sounded, for example, as the guidance voice V according to information to be guided. That is, the guidance voice V is basically a known content prepared in advance, not the content that the guide OP can arbitrarily determine.

収音装置22は、案内者OPが発音した案内音声Vを収音して、当該案内音声Vの時間波形を表す音声信号SGを生成する。なお、収音装置22が生成した音声信号SGをアナログからデジタルに変換するA/D変換器の図示は便宜的に省略されている。   The sound collection device 22 collects the guidance voice V generated by the guider OP and generates a voice signal SG representing the time waveform of the guidance voice V. Note that an A / D converter that converts the audio signal SG generated by the sound collection device 22 from analog to digital is not shown for convenience.

収音装置22が生成した音声信号SGは、加算器24を経由して音響信号S1として放音装置26に供給される。放音装置26は、加算器24から供給される音響信号S1に応じた音響を放音する音響機器(スピーカ)である。例えば、音声信号SGが表す案内音声Vが放音装置26から利用者Uに放音される。なお、音響信号S1をデジタルからアナログに変換するD/A変換器の図示は便宜的に省略されている。   The sound signal SG generated by the sound collecting device 22 is supplied to the sound emitting device 26 via the adder 24 as an acoustic signal S1. The sound emitting device 26 is an acoustic device (speaker) that emits sound according to the acoustic signal S 1 supplied from the adder 24. For example, the guidance voice V represented by the voice signal SG is emitted from the sound emitting device 26 to the user U. The D / A converter that converts the acoustic signal S1 from digital to analog is not shown for convenience.

以上の説明から理解される通り、音声案内システム100は、収音装置22が収音した案内音声Vを放音装置26から放送する既存の館内放送システムに配信端末20と加算器24とを接続した音響システムである。ただし、音声案内システム100の形態は任意であり、例えば配信端末20の各要素と収音装置22と加算器24と放音装置26とを単体の装置に搭載することや収音装置22を配信端末20に搭載することも可能である。   As understood from the above description, the voice guidance system 100 connects the distribution terminal 20 and the adder 24 to an existing in-house broadcasting system that broadcasts the guidance voice V picked up by the sound pickup device 22 from the sound output device 26. Sound system. However, the form of the voice guidance system 100 is arbitrary. For example, each element of the distribution terminal 20, the sound collecting device 22, the adder 24, and the sound emitting device 26 are mounted on a single device, or the sound collecting device 22 is distributed. It can also be mounted on the terminal 20.

収音装置22が生成した音声信号SGは、収音装置22と加算器24との間の経路から分岐して配信端末20に供給される。なお、音声信号SGを無線により配信端末20に供給することも可能である。   The audio signal SG generated by the sound collection device 22 is branched from the path between the sound collection device 22 and the adder 24 and supplied to the distribution terminal 20. It is also possible to supply the audio signal SG to the distribution terminal 20 wirelessly.

配信端末20は、収音装置22から供給される音声信号SGの案内音声Vに対応した配信情報Qを端末装置30に提供するための機器であり、例えば、携帯電話機やスマートフォン等の可搬型の端末装置で実現される。配信端末20は、図2に例示される通り、制御装置210と通信装置220とを含んで構成される。   The distribution terminal 20 is a device for providing the terminal device 30 with distribution information Q corresponding to the guidance voice V of the audio signal SG supplied from the sound collection device 22, and is, for example, a portable type such as a mobile phone or a smartphone. Realized by a terminal device. As illustrated in FIG. 2, the distribution terminal 20 includes a control device 210 and a communication device 220.

通信装置220は、図2に例示される通り、通信網200を介して管理装置10と通信する機器である。通信装置220は、音声信号SGを管理装置10に送信するとともに、音声信号SGに対して管理装置10から配信された配信情報Qを受信する。   As illustrated in FIG. 2, the communication device 220 is a device that communicates with the management device 10 via the communication network 200. The communication device 220 transmits the audio signal SG to the management device 10 and receives the distribution information Q distributed from the management device 10 to the audio signal SG.

制御装置210は、例えばCPU(Central Processing Unit)等の処理装置で構成され、配信端末20の全体的な動作を制御する。具体的には、図2に例示される通り、半導体記録媒体や磁気記録媒体等の公知の記録媒体(図示略)に記憶されたプログラムを制御装置210が実行することで、案内音声Vに対応した配信情報Qの取得および配信するための複数の機能(音声取得部212,信号処理部214)が実現される。   The control device 210 is configured by a processing device such as a CPU (Central Processing Unit), for example, and controls the overall operation of the distribution terminal 20. Specifically, as illustrated in FIG. 2, the control device 210 executes a program stored in a known recording medium (not shown) such as a semiconductor recording medium or a magnetic recording medium, so that the guidance voice V can be handled. A plurality of functions (voice acquisition unit 212, signal processing unit 214) for acquiring and distributing the distributed information Q are realized.

音声取得部212は、案内音声Vの音声信号SGを収音装置22から取得し、当該音声信号SGを通信装置220から通信網200を介して管理装置10に送信する。管理装置10は、音声案内システム100から送信された音声信号SGを受信し、当該音声信号SGの案内音声Vに対応する関連情報Zを利用者Uに提示するための配信情報Qを生成する。管理装置10が生成した配信情報Qは、管理装置10から音声案内システム100に送信される。通信装置220は、管理装置10から送信された配信情報Qを通信網200から受信する。   The voice acquisition unit 212 acquires the voice signal SG of the guidance voice V from the sound collection device 22 and transmits the voice signal SG from the communication device 220 to the management device 10 via the communication network 200. The management apparatus 10 receives the voice signal SG transmitted from the voice guidance system 100 and generates distribution information Q for presenting the user U with related information Z corresponding to the guidance voice V of the voice signal SG. The distribution information Q generated by the management device 10 is transmitted from the management device 10 to the voice guidance system 100. The communication device 220 receives the distribution information Q transmitted from the management device 10 from the communication network 200.

信号処理部214は、通信装置220が管理装置10から受信した配信情報Qを含む音響の音響信号SQを生成する。音響信号SQは、配信情報Qを所定の周波数帯域の音響成分として含有する。具体的には、音響信号SQの周波数帯域は、放音装置26による放音と端末装置30による収音とが可能な周波数帯域であり、かつ、利用者Uが通常の環境で聴取する音声(例えば案内音声V)や楽音等の音響の周波数帯域を上回る周波数帯域(例えば18kHz以上かつ20kHz以下)の範囲内に包含される。信号処理部214による音響信号SQの生成には公知の技術が任意に採用され得るが、例えば、所定の周波数の正弦波等の搬送波を配信情報Qで周波数変調することで音響信号SQを生成する構成や、拡散符号を利用した配信情報Qの拡散変調と所定の周波数の搬送波を利用した周波数変換とを順次に実行して音響信号SQを生成する構成が採用され得る。   The signal processing unit 214 generates an acoustic signal SQ including the distribution information Q received by the communication device 220 from the management device 10. The acoustic signal SQ contains the distribution information Q as an acoustic component in a predetermined frequency band. Specifically, the frequency band of the acoustic signal SQ is a frequency band in which sound emission by the sound emission device 26 and sound collection by the terminal device 30 can be performed, and the sound that the user U listens in a normal environment ( For example, it is included in the range of a frequency band (for example, 18 kHz or more and 20 kHz or less) exceeding the frequency band of sound such as guidance voice V) or musical sound. A known technique can be arbitrarily employed to generate the acoustic signal SQ by the signal processing unit 214. For example, the acoustic signal SQ is generated by frequency-modulating a carrier wave such as a sine wave having a predetermined frequency with the distribution information Q. A configuration or a configuration in which the acoustic signal SQ is generated by sequentially executing the spread modulation of the distribution information Q using a spread code and the frequency conversion using a carrier wave of a predetermined frequency may be employed.

音声案内システム100の加算器24は、信号処理部214が生成した音響信号SQと、収音装置22が生成した音声信号SGとを加算することで音響信号S1を生成する。したがって、案内者OPが発音した案内音声Vとともに配信情報Qの音響成分が放音装置26から放音される。以上の説明から理解される通り、放音装置26は、空気振動としての音響(音波)を伝送媒体とする音響通信で配信情報Qを端末装置30に送信する要素として機能する。すなわち、収音装置22が収音した案内音声Vを放音する放音装置26が配信情報Qの送信に流用される。したがって、案内音声Vの放音に使用する放音装置26とは別個の放音装置26を配信情報Qを示す音響の放音に利用する構成と比較して、情報生成システム1の構成を簡素化することが可能である。   The adder 24 of the voice guidance system 100 generates the acoustic signal S1 by adding the acoustic signal SQ generated by the signal processing unit 214 and the voice signal SG generated by the sound collecting device 22. Therefore, the sound component of the distribution information Q is emitted from the sound emitting device 26 together with the guidance voice V that is generated by the guide OP. As understood from the above description, the sound emitting device 26 functions as an element that transmits the distribution information Q to the terminal device 30 by acoustic communication using sound (sound wave) as air vibration as a transmission medium. That is, the sound emitting device 26 that emits the guidance voice V collected by the sound collecting device 22 is used for transmission of the distribution information Q. Therefore, the configuration of the information generation system 1 is simplified compared to the configuration in which the sound emitting device 26 that is different from the sound emitting device 26 used for sounding the guidance voice V is used for sound emission of the sound indicating the distribution information Q. It is possible to

<管理装置10>
管理装置10は、音声案内システム100に送信される配信情報Qを管理する装置であり、図2に例示される通り、制御装置110と記憶装置120と通信装置130とを具備する。管理装置10は、単体の装置として実現されるほか、相互に別体で構成された複数の装置でも実現され得る。例えば、管理装置10とは別体で記憶装置120(クラウドストレージ)を設置し、制御装置110が例えば通信網200を介して記憶装置120に対する読出/書込を実行することも可能である。すなわち、記憶装置120は管理装置10から省略され得る。
<Management device 10>
The management device 10 is a device that manages the distribution information Q transmitted to the voice guidance system 100, and includes a control device 110, a storage device 120, and a communication device 130 as illustrated in FIG. The management device 10 can be realized as a single device or a plurality of devices configured separately from each other. For example, the storage device 120 (cloud storage) may be installed separately from the management device 10 and the control device 110 may execute read / write with respect to the storage device 120 via the communication network 200, for example. That is, the storage device 120 can be omitted from the management device 10.

通信装置130は、通信網200を介して配信端末20と通信する。具体的には、通信装置130は、配信端末20から送信された音声信号SGを受信するとともに、音声信号SGに対して制御装置110が生成した配信情報Qを配信端末20に送信する。   The communication device 130 communicates with the distribution terminal 20 via the communication network 200. Specifically, the communication device 130 receives the audio signal SG transmitted from the distribution terminal 20 and transmits the distribution information Q generated by the control device 110 to the distribution terminal 20 in response to the audio signal SG.

制御装置110は、例えばCPU等の処理装置で構成され、記憶装置120に記憶されたプログラムを実行することで、図2に例示される通り、配信情報Qの生成を制御する複数の要素(音声解析部112、文字列特定部114、情報生成部116)として機能する。なお、制御装置110の一部の機能を専用の電子回路で実現した構成や、制御装置110の機能を複数の装置に分散した構成も採用され得る。   The control device 110 is configured by a processing device such as a CPU, for example, and executes a program stored in the storage device 120 to execute a plurality of elements (voices) that control generation of the distribution information Q as illustrated in FIG. It functions as an analysis unit 112, a character string specifying unit 114, and an information generation unit 116). A configuration in which a part of the function of the control device 110 is realized by a dedicated electronic circuit, or a configuration in which the function of the control device 110 is distributed to a plurality of devices may be employed.

図2の音声解析部112は、案内音声Vの発音内容を表す文字列を複数に分割した認識文字列Lを生成する。具体的には、音声解析部112は、通信装置130が配信端末20から受信した音声信号SGに対する音声認識で案内音声Vの発音内容を解析した結果(以下「解析結果」という)Kを文単位で複数の認識文字列Lに分割する。図3は、案内音声Vの解析結果Kを複数の認識文字列Lに分割する動作の説明図である。図3に例示される通り、解析結果K(K1,K2,K3)は文単位で複数の認識文字列Lに分割され得る。音声信号SGの音声認識には、例えばHMM(Hidden Markov Model)等の音響モデルと言語的な制約を示す言語モデルとを利用した認識技術等の公知の技術が任意に採用され得る。また、解析結果Kの分割には、形態素解析等の公知の技術が任意に採用され得る。   The voice analysis unit 112 in FIG. 2 generates a recognized character string L obtained by dividing a character string representing the pronunciation content of the guidance voice V into a plurality of parts. Specifically, the voice analysis unit 112 analyzes a result K (hereinafter referred to as “analysis result”) K obtained by analyzing the pronunciation content of the guidance voice V by voice recognition with respect to the voice signal SG received from the distribution terminal 20 by the communication device 130 in sentence units. Is divided into a plurality of recognized character strings L. FIG. 3 is an explanatory diagram of an operation of dividing the analysis result K of the guidance voice V into a plurality of recognized character strings L. As illustrated in FIG. 3, the analysis result K (K1, K2, K3) can be divided into a plurality of recognized character strings L in units of sentences. For voice recognition of the voice signal SG, a known technique such as a recognition technique using an acoustic model such as an HMM (Hidden Markov Model) and a language model indicating linguistic restrictions can be arbitrarily employed. For dividing the analysis result K, a known technique such as morphological analysis can be arbitrarily employed.

記憶装置120は、制御装置110が実行するプログラムや制御装置110が使用する各種のデータを記憶する。例えば、半導体記録媒体や磁気記録媒体等の公知の記録媒体または複数種の記録媒体の組合せが記憶装置120として任意に採用される。記憶装置120は、図2に例示される通り、文字列テーブルTAと案内テーブルTBとを記憶する。   The storage device 120 stores a program executed by the control device 110 and various data used by the control device 110. For example, a known recording medium such as a semiconductor recording medium or a magnetic recording medium or a combination of a plurality of types of recording media is arbitrarily employed as the storage device 120. As illustrated in FIG. 2, the storage device 120 stores a character string table TA and a guide table TB.

図4は、文字列テーブルTAの模式図である。図4に例示される通り、文字列テーブルTAは、案内音声Vとして想定される相異なる文章を構成する複数の登録文字列Xが登録されたデータテーブルである。各登録文字列Xには、当該登録文字列Xを一意に識別するための識別情報DX(DX1,DX2,……)が対応付けられる。アナウンスブック等に収録された複数種の文章の各々を構成する複数の登録文字列X(案内者OPによる発音が予定される文字列)が文字列テーブルTAに登録される。   FIG. 4 is a schematic diagram of the character string table TA. As illustrated in FIG. 4, the character string table TA is a data table in which a plurality of registered character strings X constituting different sentences assumed as the guidance voice V are registered. Each registered character string X is associated with identification information DX (DX1, DX2,...) For uniquely identifying the registered character string X. A plurality of registered character strings X (character strings expected to be pronounced by the guide OP) constituting each of a plurality of types of sentences recorded in the announcement book or the like are registered in the character string table TA.

前述の通り、アナウンスブック等に事前に収録された複数の文章の各々は、複数の登録文字列Xを組合せて構成されている。複数の文章の間で登録文字列Xは共通し得る。例えば、「本日はお越しくださいまして誠にありがとうございます。」という文は、図3で例示される通り、閉店を通知する文章や迷子を通知する文章の間で共通する。図4で例示される通り、文字列テーブルTAの登録文字列Xを1文単位とすることで共通の登録文字列Xを重複して文字列テーブルTAに登録する必要がない。したがって、相異なる複数の案内音声Vの文章を個別に文字列テーブルTAに登録する構成よりも、文字列テーブルTAのデータ量を削減することが可能である。   As described above, each of a plurality of sentences recorded in advance in an announcement book or the like is configured by combining a plurality of registered character strings X. The registered character string X may be common among a plurality of sentences. For example, the sentence “Thank you very much for coming today” is common between the sentence notifying the closing of the store and the sentence notifying the lost child as illustrated in FIG. As illustrated in FIG. 4, the registered character string X of the character string table TA is set to one sentence unit, so that it is not necessary to register the common registered character string X in the character string table TA in duplicate. Therefore, the data amount of the character string table TA can be reduced as compared with the configuration in which sentences of a plurality of different guidance voices V are individually registered in the character string table TA.

図2の文字列特定部114は、音声解析部112が解析した複数の認識文字列Lの各々について、文字列テーブルTAに登録された複数の登録文字列Xのうち当該認識文字列Lに類似する登録文字列Xを特定する。具体的には、文字列特定部114は、文字列テーブルTAの複数の登録文字列Xの各々について認識文字列Lとの類似度の指標(以下「類似指標」という)を算定し、複数の登録文字列Xのうち類似指標が示す類似度が最大となる1個の登録文字列X(すなわち認識文字列Lに最も類似する登録文字列X)を特定する。   The character string specifying unit 114 in FIG. 2 is similar to the recognized character string L among the plurality of registered character strings X registered in the character string table TA for each of the plurality of recognized character strings L analyzed by the voice analysis unit 112. The registered character string X to be specified is specified. Specifically, the character string specifying unit 114 calculates an index of similarity to the recognized character string L (hereinafter referred to as “similar index”) for each of the plurality of registered character strings X in the character string table TA, and Among the registered character strings X, one registered character string X (ie, the registered character string X most similar to the recognized character string L) having the maximum similarity indicated by the similarity index is specified.

前述の通り、案内者OPは発音時に参照するアナウンスブック等に事前に収録された文章(複数の登録文字列Xの組合せで構成される文章)を発音するから、理想的には、音声解析部112が音声信号SGから生成する複数の認識文字列Lの各々は、文字列テーブルTAに登録された何れかの登録文字列Xと一致する。しかし、実際には、個々の案内者OPに特有の発話の特徴(くせ)や商業施設300内の背景雑音等に起因して音声解析部112による解析には誤認識が発生し得る。したがって、各認識文字列Lと登録文字列Xとは、相互に類似するけれども必ずしも一致しない場合がある。例えば、案内者OPが登録文字列X4「お気をつけてお帰りください。」を含む文章を発音しても、実際に音声解析部112が生成する認識文字列Lは、図3に例示される通り、登録文字列Xに類似するけれども完全には一致しない「…おくをつけたおかいりください。」というような認識文字列Lを含んだ解析結果K1になり得る。第1実施形態では、認識文字列Lに類似する登録文字列Xを特定するので、図4に例示される通り、音声認識の誤認識の影響を含まない登録文字列X4が特定され得る。   As described above, since the guide OP pronounces sentences (sentences composed of a combination of a plurality of registered character strings X) recorded in advance in an announcement book or the like to be referred to at the time of pronunciation, ideally a voice analysis unit Each of the plurality of recognized character strings L that 112 generates from the speech signal SG coincides with any registered character string X registered in the character string table TA. However, actually, erroneous recognition may occur in the analysis by the voice analysis unit 112 due to the utterance characteristics (feces) unique to each guider OP, background noise in the commercial facility 300, and the like. Therefore, each recognized character string L and registered character string X are similar to each other, but may not necessarily match. For example, the recognized character string L actually generated by the voice analysis unit 112 is exemplified in FIG. 3 even if the guider OP pronounces a sentence including the registered character string X4 “Please come home carefully”. As can be seen, it can be an analysis result K1 including a recognized character string L that is similar to the registered character string X but does not completely match, such as “... In the first embodiment, since the registered character string X similar to the recognized character string L is specified, as illustrated in FIG. 4, the registered character string X4 that does not include the influence of the misrecognition of voice recognition can be specified.

類似指標の種類は任意であるが、例えば文字列間の類似性を評価するための編集距離(レーベンシュタイン距離)等の公知の指標が類似指標として任意に採用され得る。文字列特定部114による登録文字列Xの特定は、音声解析部112が生成した複数の認識文字列Lの各々を、当該認識文字列Lに類似する登録文字列Xに補正する処理とも換言され得る。文字列特定部114は、以上の手順で特定した複数の登録文字列Xの各々について識別情報DXを文字列テーブルTAから取得する。   The type of the similarity index is arbitrary, but a known index such as an edit distance (Levenstein distance) for evaluating the similarity between character strings can be arbitrarily adopted as the similarity index. The specification of the registered character string X by the character string specifying unit 114 is also referred to as a process of correcting each of the plurality of recognized character strings L generated by the speech analysis unit 112 to a registered character string X similar to the recognized character string L. obtain. The character string specifying unit 114 acquires the identification information DX from the character string table TA for each of the plurality of registered character strings X specified by the above procedure.

図5は、案内テーブルTBの模式図である。図5に例示される通り、案内テーブルTBは、案内者OPによる発音が想定される相異なる文章(複数の文の組合せ)に対応する複数の対応情報Cを含む。任意の1個の文章に対応する対応情報Cは、当該文章を構成する複数の登録文字列Xの識別情報DXの組合せを指定する。例えば、「本日はお越しくださいまして誠にありがとうございます。緊急のお知らせがございます。お車のヘッドライトがついたままになっております。」という文章に対応する対応情報C2は、第1文の登録文字列X1の識別情報DX1と、第2文の登録文字列X3の識別情報DX3と、第3文の登録文字列X6の識別情報DX6との組合せを指定する。案内テーブルTBにおいて複数の対応情報Cの各々には識別情報DZ(DZ1,DZ2,……)が対応付けられる。識別情報DZは、案内音声Vに関連する予め用意された各種の案内文Aを指定する。案内文Aは、アナウンスブック等に事前に収録された適正な文章である。具体的には、任意の1個の対応情報Cに対応する識別情報DZは、当該対応情報Cが識別情報DXを指定する複数の登録文字列Xで構成される案内文Aを指定する。なお、案内文Aを構成する所定の単位(例えば、文)ごとに識別情報DZを有し、複数の識別情報DZが1個の案内文Aを指定することも可能である。   FIG. 5 is a schematic diagram of the guide table TB. As illustrated in FIG. 5, the guide table TB includes a plurality of pieces of correspondence information C corresponding to different sentences (combination of a plurality of sentences) expected to be pronounced by the guide OP. Correspondence information C corresponding to an arbitrary sentence specifies a combination of identification information DX of a plurality of registered character strings X constituting the sentence. For example, correspondence information C2 corresponding to the sentence "Thank you for coming today. There is an urgent notice. Your car's headlight is still on." A combination of identification information DX1 of registered character string X1, identification information DX3 of registered character string X3 of the second sentence, and identification information DX6 of registered character string X6 of the third sentence is designated. Identification information DZ (DZ1, DZ2,...) Is associated with each of the plurality of correspondence information C in the guide table TB. The identification information DZ designates various guidance sentences A prepared in advance related to the guidance voice V. The guidance sentence A is an appropriate sentence recorded in advance in an announcement book or the like. Specifically, the identification information DZ corresponding to any one piece of correspondence information C designates a guide sentence A composed of a plurality of registered character strings X in which the correspondence information C designates the identification information DX. Note that it is also possible to have identification information DZ for each predetermined unit (for example, sentence) constituting the guidance sentence A, and a plurality of identification information DZ can designate one guidance sentence A.

図2の情報生成部116は、複数の登録文字列Xの相異なる組合せを指定する複数の対応情報Cのうち、文字列特定部114が取得した複数の登録文字列Xの組合せに対応する対応情報Cに応じた関連情報Zを端末装置30が利用者Uに提示するための配信情報Qを生成する。具体的には、情報生成部116は、複数の対応情報Cのうち、文字列特定部114が取得した複数の識別情報DXの組合せに類似または合致する組合せを指定する対応情報Cを特定し、案内テーブルTBから、特定した対応情報Cの識別情報DZを取得する。すなわち、情報生成部116は、文字列特定部114が取得した複数の識別情報DXと同様の組合せを指定する対応情報Cを特定するほか、アナウンスブック等に事前に収録された文章を文単位で発音を案内者OPが誤った場合(例えば、必要な文の発音を忘れた場合や不要な文を発音してしまった場合)、情報生成部116は、当該文章の複数の識別情報DXに類似する組合せを指定する対応情報Cを特定し、案内テーブルTBから、特定した対応情報Cの識別情報DZを取得する。   The information generation unit 116 in FIG. 2 corresponds to a combination of a plurality of registered character strings X acquired by the character string specifying unit 114 among a plurality of pieces of correspondence information C that specify different combinations of the plurality of registered character strings X. The distribution information Q for the terminal device 30 to present to the user U the related information Z corresponding to the information C is generated. Specifically, the information generation unit 116 specifies correspondence information C that specifies a combination that is similar to or matches the combination of the plurality of pieces of identification information DX acquired by the character string specification unit 114 among the plurality of pieces of correspondence information C. The identification information DZ of the identified correspondence information C is acquired from the guidance table TB. In other words, the information generation unit 116 specifies correspondence information C that specifies the same combination as the plurality of identification information DX acquired by the character string specifying unit 114, and also sentences previously recorded in the announcement book or the like in sentence units. When the guide OP makes a mistake in pronunciation (for example, when the pronunciation of a necessary sentence is forgotten or an unnecessary sentence is pronounced), the information generation unit 116 resembles a plurality of pieces of identification information DX of the sentence. Correspondence information C specifying the combination to be identified is identified, and identification information DZ of the identified correspondence information C is acquired from the guidance table TB.

例えば、アナウンスブック等に収録されている「本日はお越しくださいまして誠にありがとうございます。緊急のお知らせがございます。お車のヘッドライトがついたままになっております。」という文章を案内者OPが正確に発音した場合、図4に例示される通り、文字列特定部114は、文字列テーブルTAから、識別情報DX1、DX3、およびDX6を取得する。図5に例示される通り、文字列特定部114が取得した識別情報DX1、DX3、およびDX6と対応情報C2が指定する識別情報DX1、DX3、およびDX6とが合致するので、情報生成部116は、案内テーブルTBから、対応情報C2の識別情報DZ2を取得する。他方、「緊急のお知らせがございます。本日はお越しくださいまして誠にありがとうございます。お車のヘッドライトがついたままになっております。」と文の順序を間違えて案内者OPが発音した場合でも、情報生成部116は、案内テーブルTBから、対応情報C2の識別情報DZ2を取得することができる。また、「緊急のお知らせがございます。」の文を抜かして「本日はお越しくださいまして誠にありがとうございます。お車のヘッドライトがついたままになっております。」と案内者OPが誤って発音した場合、図4に例示される通り、文字列特定部114は、文字列テーブルTAから、識別情報DX1とDX6とを取得する。識別情報DX1とDX6との両方を含む対応情報Cが識別情報DX1、DX3、およびDX6を指定する対応情報C2しか存在しない場合、情報生成部116は、案内テーブルTBから、対応情報C2の識別情報DZ2を取得する。したがって、適切な案内文A2が対応づけられている識別情報DZ2を取得することができる。   For example, in the announcement book, the text “Thank you for coming today. There is an urgent notice. The car headlight remains on.” 4 is accurately pronounced, the character string specifying unit 114 acquires identification information DX1, DX3, and DX6 from the character string table TA, as illustrated in FIG. As illustrated in FIG. 5, since the identification information DX1, DX3, and DX6 acquired by the character string specifying unit 114 matches the identification information DX1, DX3, and DX6 specified by the correspondence information C2, the information generation unit 116 The identification information DZ2 of the correspondence information C2 is acquired from the guidance table TB. On the other hand, if there is an urgent notice, thank you for coming today. The car headlight is still on. However, the information generation unit 116 can acquire the identification information DZ2 of the correspondence information C2 from the guidance table TB. Also, the message “I have an urgent notice” is overwritten. “Thank you for coming today. Your car ’s headlight is still on.” In the case of pronunciation, as illustrated in FIG. 4, the character string specifying unit 114 acquires the identification information DX1 and DX6 from the character string table TA. When the correspondence information C including both the identification information DX1 and DX6 includes only the correspondence information C2 specifying the identification information DX1, DX3, and DX6, the information generating unit 116 identifies the identification information of the correspondence information C2 from the guidance table TB. Get DZ2. Therefore, it is possible to obtain the identification information DZ2 associated with the appropriate guide sentence A2.

図2の情報生成部116は、以上の手順で取得した識別情報DZを含む配信情報Qを生成し、通信装置130を介して配信端末20に配信情報Qを送信する。   The information generation unit 116 in FIG. 2 generates distribution information Q including the identification information DZ acquired by the above procedure, and transmits the distribution information Q to the distribution terminal 20 via the communication device 130.

以上の説明から理解される通り、対応情報Cが指定する識別情報DXの組合せとは独立に用意された案内文Aを示す関連情報Zを利用者Uに提示するための配信情報Qを生成することが可能である。前述の通り、案内文Aは、アナウンスブック等に事前に収録された文章(つまり対応情報Cが指定する登録文字列Xの組合せで構成される文章)が想定されるが、アナウンスブック等に事前に収録された文章とは異なる文章を案内文Aとすることも可能である。例えば、アナウンスブック等に事前に収録された文章「本日はお越しくださいまして誠にありがとうございます。(=X1)間もなく閉店のお時間となります。(=X2)お気をつけてお帰りください。(=X4)」を構成する3つの登録文字列Xの組合せを示す対応情報C1の識別情報DZ1に対応する案内文A1を「間もなく閉店のお時間となるので、お気をつけてお帰りください。」といった内容にすることも可能である。つまり、アナウンスブック等に事前に収録された文章とは異なる文章を案内文Aとすることも可能である。   As understood from the above description, the distribution information Q for presenting the user U with the related information Z indicating the guidance sentence A prepared independently of the combination of the identification information DX designated by the correspondence information C is generated. It is possible. As described above, the guidance sentence A is assumed to be a sentence recorded in advance in an announcement book or the like (that is, a sentence composed of a combination of registered character strings X specified by the correspondence information C). It is also possible to use a sentence different from the sentence recorded in the guide sentence A. For example, the text recorded in the announcement book etc. "Thank you for coming today. (= X1) It will be closed soon. (= X2) Please be careful. ) "A guide sentence A1 corresponding to the identification information DZ1 of the correspondence information C1 indicating the combination of the three registered character strings X that constitute") "content such as" Please be careful, as it will be closing time soon. " It is also possible to make it. That is, a sentence different from the sentence recorded in advance in the announcement book or the like can be used as the guide sentence A.

図2の音声案内システム100では、管理装置10から通信装置220が受信した配信情報Qの音響成分と案内音声Vとが放音装置26から放音される。案内者OPによる案内音声Vの発話の終了後に制御装置110で行われる処理により配信情報Qの生成が実行されるから、放音装置26からは、案内音声Vの放音から遅延して配信情報Qの音響成分が放音される。   In the voice guidance system 100 of FIG. 2, the acoustic component of the distribution information Q and the guidance voice V received by the communication device 220 from the management device 10 are emitted from the sound emitting device 26. Since the delivery information Q is generated by the process performed by the control device 110 after the utterance of the guidance voice V by the guider OP, the delivery information is delayed from the sound emission of the guidance voice V from the sound emitting device 26. The Q acoustic component is emitted.

<端末装置30>
図6は、端末装置30の構成図である。図6に例示される通り、端末装置30は、収音装置310と制御装置320と記憶装置330と提示装置340とを含んで構成される。
<Terminal device 30>
FIG. 6 is a configuration diagram of the terminal device 30. As illustrated in FIG. 6, the terminal device 30 includes a sound collection device 310, a control device 320, a storage device 330, and a presentation device 340.

記憶装置330は、制御装置320が実行するプログラムや制御装置320が使用する各種のデータを記憶する。記憶装置330は、図6に例示される通り、提示テーブルTCを記憶する。第1実施形態の提示テーブルTCは、相異なる案内音声Vに対応する複数の案内文A(A1,A2,……)の各々に識別情報DZ(DZ1,DZ2,……)が対応付けられたデータテーブルである。例えば、半導体記録媒体や磁気記録媒体等の公知の記録媒体または複数種の記録媒体の組合せが記憶装置330として任意に採用される。   The storage device 330 stores a program executed by the control device 320 and various data used by the control device 320. The storage device 330 stores a presentation table TC as illustrated in FIG. In the presentation table TC of the first embodiment, identification information DZ (DZ1, DZ2,...) Is associated with each of a plurality of guidance sentences A (A1, A2,...) Corresponding to different guidance voices V. It is a data table. For example, a known recording medium such as a semiconductor recording medium or a magnetic recording medium or a combination of a plurality of types of recording media is arbitrarily employed as the storage device 330.

収音装置310は、周囲の音響を収音する音響機器(マイクロホン)であり、配信端末20の放音装置26から放音される音響を収音して音響信号S2を生成する。音響信号S2は、配信情報Qの音響成分(音響信号SQ)を含有する。なお、収音装置310が生成した音響信号S2をアナログからデジタルに変換するA/D変換器の図示は便宜的に省略されている。   The sound collecting device 310 is an acoustic device (microphone) that picks up surrounding sounds, and collects sound emitted from the sound emitting device 26 of the distribution terminal 20 to generate an acoustic signal S2. The acoustic signal S2 contains the acoustic component (acoustic signal SQ) of the distribution information Q. The A / D converter that converts the acoustic signal S2 generated by the sound pickup device 310 from analog to digital is not shown for convenience.

制御装置320は、例えばCPU等の処理装置で構成され、記憶装置330に記憶されたプログラムを実行することで、提示テーブルTCに登録された複数の案内文Aのうち配信情報Qにより指定される案内文Aを関連情報Zとして利用者Uに提示するための複数の機能(情報抽出部322および情報管理部324)を実現する。   The control device 320 is constituted by a processing device such as a CPU, for example, and is designated by the distribution information Q among a plurality of guidance sentences A registered in the presentation table TC by executing a program stored in the storage device 330. A plurality of functions (information extraction unit 322 and information management unit 324) for presenting the guidance sentence A to the user U as related information Z are realized.

情報抽出部322は、収音装置310が生成した音響信号S2の復調で配信情報Qを抽出する。具体的には、情報抽出部322は、音響信号S2のうち配信情報Qを含む周波数帯域の帯域成分を例えば帯域通過フィルタで強調し、配信情報Qの拡散変調に利用された拡散符号を係数とする整合フィルタを通過させることで配信情報Qを抽出する。   The information extraction unit 322 extracts the distribution information Q by demodulating the acoustic signal S2 generated by the sound collection device 310. Specifically, the information extraction unit 322 emphasizes the band component of the frequency band including the distribution information Q in the acoustic signal S2 with, for example, a band pass filter, and uses the spreading code used for the spread modulation of the distribution information Q as the coefficient. The distribution information Q is extracted by passing the matched filter.

情報管理部324は、提示テーブルTCの複数の案内文Aのうち、情報抽出部322が抽出した配信情報Qに含まれる識別情報DZに対応する案内文Aを選択する。すなわち、案内者OPが発音した案内音声Vに関連する案内文Aが関連情報Zとして選択される。   The information management unit 324 selects the guide sentence A corresponding to the identification information DZ included in the distribution information Q extracted by the information extraction unit 322 from among the plurality of guide sentences A in the presentation table TC. That is, the guidance sentence A related to the guidance voice V pronounced by the guider OP is selected as the related information Z.

提示装置340は、情報管理部324が選択した案内文Aを関連情報Zとして端末装置30の利用者Uに提示する。提示装置340は、関連情報Zが示す案内文Aを表示する表示装置(例えば液晶表示パネル等)である。以上の説明から理解される通り、案内者OPが発音した案内音声Vの発話内容に対応する案内文Aが関連情報Zとして提示装置340により利用者Uに提示される。利用者Uは、提示装置340に提示された関連情報Zを視認することで、案内者OPが発音して放音装置26から放音された案内音声Vに関連する関連情報Zを視覚的に確認することが可能である。   The presentation device 340 presents the guidance sentence A selected by the information management unit 324 to the user U of the terminal device 30 as related information Z. The presentation device 340 is a display device (for example, a liquid crystal display panel) that displays the guidance sentence A indicated by the related information Z. As understood from the above description, the guidance sentence A corresponding to the utterance content of the guidance voice V pronounced by the guide OP is presented to the user U by the presentation device 340 as the related information Z. The user U visually recognizes the related information Z presented on the presentation device 340, so that the related information Z related to the guidance voice V generated by the guide OP and emitted from the sound emitting device 26 is visually displayed. It is possible to confirm.

図7は、情報生成システム1の全体的な動作の説明図である。案内者OPがアナウンスブック等に事前に収録された文章に対応する案内音声Vを発音すると、音声案内システム100の収音装置22は、案内音声Vを収音して音声信号SGを生成する(SA1)。収音装置22が生成した音声信号SGは、収音装置22から放音装置26に出力されて放音される一方(SA2)、音声取得部212によって取得されて通信装置220から通信網200に送信される(SA3)。   FIG. 7 is an explanatory diagram of the overall operation of the information generation system 1. When the guider OP generates a guidance voice V corresponding to a sentence recorded in advance in an announcement book or the like, the sound collection device 22 of the voice guidance system 100 collects the guidance voice V and generates a voice signal SG ( SA1). The sound signal SG generated by the sound collection device 22 is output from the sound collection device 22 to the sound emission device 26 and emitted (SA2), while being acquired by the sound acquisition unit 212 and transmitted from the communication device 220 to the communication network 200. It is transmitted (SA3).

配信端末20から送信された音声信号SGを通信装置130が通信網200から受信すると、管理装置10の音声解析部112は、案内音声Vの音声信号SGに対する音声認識で案内音声Vの発音内容を表す複数の認識文字列Lを生成する(SA4)。文字列特定部114は、文字列テーブルTAの複数の登録文字列Xから、音声解析部112が生成した複数の認識文字列Lの各々に類似する登録文字列Xを特定する(SA5)。すなわち、認識文字列Lが、当該音声解析部112による誤認識を解消した登録文字列Xに補正される。情報生成部116は、案内テーブルTBの複数の対応情報Cから、文字列特定部114が特定した複数の登録文字列Xの組合せに対応する対応情報Cを特定し(SA6)、特定した対応情報Cの識別情報DZを含む配信情報Qを生成する(SA7)。通信装置130は、情報生成部116が生成した配信情報Qを配信端末20に送信する(SA8)。   When the communication device 130 receives the voice signal SG transmitted from the distribution terminal 20 from the communication network 200, the voice analysis unit 112 of the management device 10 generates the pronunciation content of the guidance voice V by voice recognition for the voice signal SG of the guidance voice V. A plurality of recognized character strings L to be represented are generated (SA4). The character string specifying unit 114 specifies a registered character string X similar to each of the plurality of recognized character strings L generated by the speech analysis unit 112 from the plurality of registered character strings X in the character string table TA (SA5). That is, the recognized character string L is corrected to the registered character string X in which erroneous recognition by the voice analysis unit 112 is eliminated. The information generation unit 116 identifies the correspondence information C corresponding to the combination of the plurality of registered character strings X identified by the character string identification unit 114 from the plurality of correspondence information C in the guidance table TB (SA6), and the identified correspondence information Delivery information Q including C identification information DZ is generated (SA7). The communication device 130 transmits the distribution information Q generated by the information generation unit 116 to the distribution terminal 20 (SA8).

管理装置10から送信された配信情報Qを通信装置220が受信すると、配信端末20の信号処理部214は、配信情報Qを音響成分として含有する音響信号SQを生成する(SA9)。配信端末20の加算器24は、収音装置22が生成した音声信号SGと信号処理部214が生成した音響信号SQとを加算することで音響信号S1を生成する(SA10)。放音装置26は、音響信号S1に応じた音響を放音する(SA11)。すなわち、収音装置22が収音した案内音声Vと、配信情報Qの音響成分が放音装置26から放音される。   When the communication device 220 receives the distribution information Q transmitted from the management device 10, the signal processing unit 214 of the distribution terminal 20 generates an acoustic signal SQ containing the distribution information Q as an acoustic component (SA9). The adder 24 of the distribution terminal 20 generates the acoustic signal S1 by adding the audio signal SG generated by the sound collection device 22 and the acoustic signal SQ generated by the signal processing unit 214 (SA10). The sound emitting device 26 emits sound according to the acoustic signal S1 (SA11). That is, the guidance voice V picked up by the sound pickup device 22 and the acoustic component of the distribution information Q are emitted from the sound emission device 26.

端末装置30の収音装置310は、放音装置26から放音された音響を収音して音響信号S2を生成する(SA12)。情報抽出部322は、収音装置310が生成した音響信号S2の復調で配信情報Qを抽出する(SA13)。情報管理部324は、情報抽出部322が抽出した配信情報Qに含まれる識別情報DZに対応する案内文Aを提示テーブルTCから選択する。提示装置340は、情報管理部324が選択した案内文Aが示す文字列を関連情報Zとして表示させることで利用者Uに視覚的に提示する(SA14)。   The sound collecting device 310 of the terminal device 30 collects the sound emitted from the sound emitting device 26 and generates an acoustic signal S2 (SA12). The information extraction unit 322 extracts the distribution information Q by demodulating the acoustic signal S2 generated by the sound collection device 310 (SA13). The information management unit 324 selects the guidance sentence A corresponding to the identification information DZ included in the distribution information Q extracted by the information extraction unit 322 from the presentation table TC. The presentation device 340 visually presents to the user U by displaying the character string indicated by the guidance sentence A selected by the information management unit 324 as the related information Z (SA14).

以上の説明から理解される通り、第1実施形態では、複数の登録文字列Xのうち、案内音声Vに対する音声認識で解析された認識文字列Lに類似する登録文字列Xが特定されるので、音声認識の誤認識の影響を含まない関連情報Zを利用者Uに提示するための配信情報Qを生成することが可能である。また、複数の登録文字列Xの相異なる組合せを指定する対応情報Cに応じた関連情報Zを利用者Uに提示するための配信情報Qが生成されるので、案内者が例えば文単位で案内音声Vの発音を誤った場合(例えば、必要な文の発音を忘れた場合や不要な文を発音した場合)でも、案内音声Vの解析結果Kから特定される複数の登録文字列Xの組合せに対応する対応情報Cに応じた適切な関連情報Zを利用者Uに提示するための配信情報Qを生成することが可能である。   As understood from the above description, in the first embodiment, among the plurality of registered character strings X, the registered character string X similar to the recognized character string L analyzed by the speech recognition for the guidance voice V is specified. It is possible to generate distribution information Q for presenting related information Z that does not include the influence of misrecognition of voice recognition to the user U. Further, since the distribution information Q for presenting the user U with the related information Z corresponding to the correspondence information C designating different combinations of the plurality of registered character strings X is generated, the guide guides for example in sentence units. A combination of a plurality of registered character strings X identified from the analysis result K of the guidance voice V even when the pronunciation of the voice V is wrong (for example, when a necessary sentence is forgotten or an unnecessary sentence is pronounced) It is possible to generate distribution information Q for presenting relevant information Z corresponding to the correspondence information C corresponding to the user U to the user U.

<第2実施形態>
本発明の第2実施形態を説明する。以下に例示する各態様において作用や機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
Second Embodiment
A second embodiment of the present invention will be described. Regarding the elements whose functions and functions are the same as those of the first embodiment in each aspect exemplified below, the detailed description of each is appropriately omitted by using the reference numerals used in the description of the first embodiment.

第1実施形態の情報生成部116は、文字列特定部114が特定した複数の登録文字列Xの組合せを指定する対応情報Cの識別情報DZに応じた案内文Aを関連情報Zとして利用者Uに提示するための配信情報Qを生成した。第2実施形態における情報生成部116は、文字列特定部114が特定した複数の登録文字列Xの組合せに対応する対応情報Cが指定する複数の登録文字列Xを示す関連情報Zを端末装置30が利用者Uに提示するための配信情報Qを生成する。   The information generation unit 116 according to the first embodiment uses the guidance sentence A corresponding to the identification information DZ of the correspondence information C that specifies a combination of a plurality of registered character strings X specified by the character string specifying unit 114 as related information Z. Distribution information Q to be presented to U is generated. The information generation unit 116 according to the second embodiment displays the related information Z indicating the plurality of registered character strings X specified by the correspondence information C corresponding to the combination of the plurality of registered character strings X specified by the character string specifying unit 114. 30 generates distribution information Q for presentation to the user U.

図8は、第2実施形態に係る案内テーブルTBの模式図である。図8に例示される通り、第2実施形態に係る案内テーブルTBは、案内者OPによる発音が想定される相異なる文章に対応する複数の対応情報Cを含む。任意の1個の文章に対応する対応情報Cは、当該文章を構成する複数の登録文字列Xの識別情報DXの組合せを指定する。例えば、「本日はお越しくださいまして誠にありがとうございます。緊急のお知らせがございます。お車のヘッドライトがついたままになっております。」という文章に対応する対応情報C2は、第1文の登録文字列X1の識別情報DX1と、第2文の登録文字列X3の識別情報DX3と、第3文の登録文字列X6の識別情報DX6との組合せを指定する。図5の第1実施形態に係る案内テーブルTBと比較して、第2実施形態に係る案内テーブルTBは、任意の1個の対応情報Cに対応する識別情報DZを有していない。   FIG. 8 is a schematic diagram of a guide table TB according to the second embodiment. As illustrated in FIG. 8, the guide table TB according to the second embodiment includes a plurality of pieces of correspondence information C corresponding to different sentences assumed to be pronounced by the guide OP. Correspondence information C corresponding to an arbitrary sentence specifies a combination of identification information DX of a plurality of registered character strings X constituting the sentence. For example, correspondence information C2 corresponding to the sentence "Thank you for coming today. There is an urgent notice. Your car's headlight is still on." A combination of identification information DX1 of registered character string X1, identification information DX3 of registered character string X3 of the second sentence, and identification information DX6 of registered character string X6 of the third sentence is designated. Compared with the guide table TB according to the first embodiment of FIG. 5, the guide table TB according to the second embodiment does not have the identification information DZ corresponding to any one correspondence information C.

情報生成部116は、第1実施形態と同様に、複数の対応情報Cから文字列特定部114が取得した複数の識別情報DXに対応する対応情報Cを特定する。情報生成部116は、案内テーブルTBから、特定した対応情報Cが指定する複数の識別情報DXを取得し、当該複数の識別情報DXを含む配信情報Qを生成する。例えば、対応情報C2を特定した場合、情報生成部116は、識別情報DX1と識別情報DX3と識別情報DX6とを含む配信情報Qを生成し、通信装置130を介して配信端末20に配信情報Qを送信する。   The information generation unit 116 specifies correspondence information C corresponding to the plurality of pieces of identification information DX acquired by the character string specification unit 114 from the plurality of pieces of correspondence information C, as in the first embodiment. The information generation unit 116 acquires a plurality of pieces of identification information DX designated by the identified correspondence information C from the guidance table TB, and generates distribution information Q including the plurality of pieces of identification information DX. For example, when the correspondence information C2 is specified, the information generation unit 116 generates the distribution information Q including the identification information DX1, the identification information DX3, and the identification information DX6, and transmits the distribution information Q to the distribution terminal 20 via the communication device 130. Send.

端末装置30において、配信端末20の放音装置26から放音される音響を収音装置310が収音して音響信号S2を生成し、情報抽出部322が音響信号S2から配信情報Qを抽出する構成および動作は、第1実施形態と同様である。   In the terminal device 30, the sound collecting device 310 picks up the sound emitted from the sound emitting device 26 of the distribution terminal 20 to generate the sound signal S 2, and the information extraction unit 322 extracts the distribution information Q from the sound signal S 2. The configuration and operation are the same as those in the first embodiment.

第2実施形態において端末装置30の記憶装置330が記憶する提示テーブルTCは、図4に例示した文字列テーブルTAと同様に、複数の登録文字列Xの各々について識別情報DXを対応させたデータテーブルである。情報管理部324は、情報抽出部322が抽出した配信情報Qが指定する各識別情報DXの登録文字列Xを提示テーブルTCから取得し、提示装置340は、情報管理部324が選択した複数の登録文字列Xを関連情報Zとして利用者Uに提示する。   In the second embodiment, the presentation table TC stored in the storage device 330 of the terminal device 30 is data in which the identification information DX is associated with each of the plurality of registered character strings X, similarly to the character string table TA illustrated in FIG. It is a table. The information management unit 324 acquires the registered character string X of each identification information DX specified by the distribution information Q extracted by the information extraction unit 322 from the presentation table TC, and the presentation device 340 includes a plurality of information selected by the information management unit 324. The registered character string X is presented to the user U as related information Z.

なお、前述の例示では、提示テーブルTCを文字列テーブルTAと同様の内容としたが、提示テーブルTCを文字列テーブルTAとは異なる内容とすることも可能である。例えば、文字列テーブルTAの識別情報DX5に対応する登録文字列X5は「迷子のお知らせを申し上げます。」であるが、提示テーブルTCの識別情報DX5に対応する文字列は「迷子のお知らせ。」とすることも可能である。情報管理部324は、提示テーブルTCの複数の識別情報DXのうち、配信情報Qに含まれる複数の識別情報DXの各々が示す登録文字列Xを選択し、当該選択した複数の登録文字列Xを組み合わせた文章を関連情報Zとして生成する。提示装置340は、情報管理部324が生成した関連情報Zを端末装置30の利用者Uに提示する。   In the above example, the presentation table TC has the same contents as the character string table TA, but the presentation table TC may have different contents from the character string table TA. For example, the registered character string X5 corresponding to the identification information DX5 of the character string table TA is “I will give you a notification of lost child”, but the character string corresponding to the identification information DX5 of the presentation table TC is “Notice of lost child”. It is also possible. The information management unit 324 selects a registered character string X indicated by each of the plurality of identification information DX included in the distribution information Q from among the plurality of identification information DX in the presentation table TC, and selects the selected plurality of registered character strings X. Is generated as related information Z. The presentation device 340 presents the related information Z generated by the information management unit 324 to the user U of the terminal device 30.

第2実施形態においても第1実施形態と同様の効果が実現される。また、第2実施形態では、対応情報Cが指定する複数の登録文字列Xを示す関連情報Zを利用者Uに提示するための配信情報Qが生成される。図5の第1実施形態に係る案内テーブルTBと比較すると、前述の通り、第2実施形態に係る案内テーブルTBは、任意の1個の対応情報Cに対応する識別情報DZを有していない。したがって、文字列特定部114が特定した複数の登録文字列Xの組合せに対応する対応情報Cの案内文Aを示す関連情報Zを利用者Uに提示するための配信情報Qを生成する第1実施形態の構成と比較して、案内文Aを一意に指定するための情報(つまり識別情報DZ)が不要になるという利点がある。一方で、第1実施形態では、文字列特定部114が特定した複数の登録文字列Xの組合せに対応する対応情報Cの案内文Aを示す関連情報Zを利用者Uに提示するための配信情報Qが生成される。したがって、対応情報Cが指定する登録文字列Xの組合せとは独立に用意された案内文Aを示す関連情報Zを利用者Uに提示するための配信情報Qを生成することが可能である。   In the second embodiment, the same effect as in the first embodiment is realized. In the second embodiment, distribution information Q for presenting the user U with related information Z indicating a plurality of registered character strings X designated by the correspondence information C is generated. Compared with the guidance table TB according to the first embodiment of FIG. 5, as described above, the guidance table TB according to the second embodiment does not have the identification information DZ corresponding to any one correspondence information C. . Therefore, the distribution information Q for presenting the user U with the related information Z indicating the guidance sentence A of the correspondence information C corresponding to the combination of the plurality of registered character strings X specified by the character string specifying unit 114 is generated. Compared with the configuration of the embodiment, there is an advantage that information for uniquely designating the guidance sentence A (that is, identification information DZ) is not required. On the other hand, in the first embodiment, distribution for presenting the user U with related information Z indicating the guidance sentence A of the corresponding information C corresponding to the combination of the plurality of registered character strings X specified by the character string specifying unit 114. Information Q is generated. Accordingly, it is possible to generate the distribution information Q for presenting the user U with the related information Z indicating the guidance sentence A prepared independently of the combination of the registered character strings X designated by the correspondence information C.

<第3実施形態>
第2実施形態の対応情報Cは、複数の登録文字列Xの組合せを指定し、情報生成部116は、対応情報Cが指定した複数の登録文字列Xを示す関連情報Zを端末装置30の利用者Uに提示するための配信情報Qを生成した。第3実施形態の対応情報Cは、複数の登録文字列Xの組合せと、当該組合せに係る複数の登録文字列Xの順序とを指定し、情報生成部116は、対応情報Cが指定する順序で配列された複数の登録文字列Xを示す関連情報Zを端末装置30が利用者Uに提示するための配信情報Qを生成する。
<Third Embodiment>
The correspondence information C of the second embodiment designates a combination of a plurality of registered character strings X, and the information generation unit 116 provides related information Z indicating the plurality of registered character strings X designated by the correspondence information C to the terminal device 30. The distribution information Q to be presented to the user U is generated. The correspondence information C of the third embodiment designates a combination of a plurality of registered character strings X and the order of the plurality of registered character strings X related to the combination, and the information generation unit 116 designates the order designated by the correspondence information C. The distribution information Q for the terminal device 30 to present to the user U the related information Z indicating the plurality of registered character strings X arranged in the above is generated.

第3実施形態に係る案内テーブルTBは、案内者OPによる発音が想定される相異なる文章に対応する複数の対応情報Cを含む。任意の1個の文章に対応する対応情報Cは、当該文章を構成する複数の登録文字列Xの識別情報DXの組合せと当該複数の識別情報DXの各々が示す登録文字列Xが文章を構成する順序とを指定する。具体的には、任意の1個の対応情報Cは、当該対応情報Cに対応する文章を構成する複数の登録文字列Xの正規の順序で各登録文字列Xの識別情報DXを配列した情報である。ただし、複数の登録文字列Xの順序を指定する方法は以上の例示に限定されない。例えば、対応情報Cが指定する組合せに係る複数の登録文字列Xの各々の識別情報DXに、当該組合せ内の登録文字列Xの順序を示す情報を付加することも可能である。   The guide table TB according to the third embodiment includes a plurality of pieces of correspondence information C corresponding to different sentences that are supposed to be pronounced by the guide OP. Correspondence information C corresponding to an arbitrary sentence is composed of a combination of identification information DX of a plurality of registered character strings X constituting the sentence and a registered character string X indicated by each of the plurality of identification information DX. Specify the order to perform. Specifically, any one piece of correspondence information C is information in which identification information DX of each registered character string X is arranged in a regular order of a plurality of registered character strings X constituting a sentence corresponding to the correspondence information C. It is. However, the method of designating the order of the plurality of registered character strings X is not limited to the above examples. For example, it is possible to add information indicating the order of the registered character strings X in the combination to the identification information DX of each of the plurality of registered character strings X related to the combination designated by the correspondence information C.

第3実施形態に係る情報生成部116は、対応情報Cが指定する複数の識別情報DXを、対応情報Cが指定する順序で配列して配信情報Qを生成する。例えば、「緊急のお知らせがございます。(=DX3)本日はお越しくださいまして誠にありがとうございます。(=DX1)お車のヘッドライトがついたままになっております。(=DX6)」と案内者OPが発音した場合、対応情報Cが、「識別情報DX1:1番、識別情報DX3:2番、識別情報DX6:3番」という順序を指定していれば、「本日はお越しくださいまして誠にありがとうございます。(=DX1)緊急のお知らせがございます。(=DX3)お車のヘッドライトがついたままになっております。(=DX6)」という関連情報Zを端末装置30が利用者Uに提示するための配信情報Qが生成される。   The information generation unit 116 according to the third embodiment generates the distribution information Q by arranging a plurality of pieces of identification information DX designated by the correspondence information C in the order designated by the correspondence information C. For example, “There is an urgent notice. (= DX3) Thank you very much for coming today. (= DX1) Your car headlight remains on. (= DX6)” If the correspondence information C specifies the order of “identification information DX1: No.1, identification information DX3: No.2, identification information DX6: No.3” Thank you. (= DX1) There is an urgent notice. (= DX3) The car headlight is still on. (= DX6) Distribution information Q for presentation to U is generated.

第3実施形態においても第2実施形態と同様の効果が実現される。また、対応情報Cが指定する順序で配列された複数の登録文字列Xを示す関連情報Zを端末装置30が利用者Uに提示するための配信情報Qが生成される。したがって、案内音声Vを構成する複数の文の発音の順序に関わらず、対応情報Cがあらかじめ指定した順序で配列された複数の登録文字列Xを示す関連情報Zを端末装置30が利用者Uに提示するための配信情報Qを生成することが可能である。   In the third embodiment, the same effect as in the second embodiment is realized. Also, distribution information Q for the terminal device 30 to present to the user U related information Z indicating a plurality of registered character strings X arranged in the order specified by the correspondence information C is generated. Therefore, regardless of the order of pronunciation of the plurality of sentences constituting the guidance voice V, the terminal device 30 displays the related information Z indicating the plurality of registered character strings X in which the correspondence information C is arranged in a predetermined order. It is possible to generate distribution information Q for presentation to the user.

<第4実施形態>
第1実施形態から第3実施形態では、関連情報Zの提示を指示する配信情報Qを情報生成システム1から端末装置30に送信した。第4実施形態では、案内音声Vに対応する関連情報Zを情報生成システム1が生成して利用者Uに提供する。音声解析部112および文字列特定部114の動作と情報生成部116が対応情報Cを特定する動作とは、前述の各形態と同様である。したがって、前述の各形態と同様に、音声認識の誤認識の影響を低減した、対応情報Cに応じた適切な関連情報Zを利用者Uに提示することが可能である。
<Fourth embodiment>
In the first to third embodiments, the distribution information Q instructing the presentation of the related information Z is transmitted from the information generation system 1 to the terminal device 30. In the fourth embodiment, the information generation system 1 generates related information Z corresponding to the guidance voice V and provides it to the user U. The operations of the voice analysis unit 112 and the character string specifying unit 114 and the operation of the information generating unit 116 specifying the correspondence information C are the same as in the above-described embodiments. Therefore, similarly to each of the above-described embodiments, it is possible to present the user U with appropriate related information Z corresponding to the correspondence information C, in which the influence of erroneous recognition of voice recognition is reduced.

第4実施形態の情報生成部116は、特定した対応情報Cの識別情報DZが示す案内文Aを他言語に翻訳した文字列を関連情報Zとして生成する。なお、文字列の翻訳には、例えば公知の機械翻訳が任意に採用され得る。情報生成部116が生成した関連情報Zは、音声案内システム100の配信端末20に送信される。   The information generation unit 116 according to the fourth embodiment generates, as related information Z, a character string obtained by translating the guidance sentence A indicated by the identification information DZ of the identified correspondence information C into another language. For example, a known machine translation can be arbitrarily adopted for the translation of the character string. The related information Z generated by the information generation unit 116 is transmitted to the distribution terminal 20 of the voice guidance system 100.

配信端末20の信号処理部214は、関連情報Zを適用した音声合成で音響信号SQを生成する。第4実施形態の音響信号SQは、関連情報Zが指定する文字列を発音した音声を表す信号である。音響信号SQの生成には、公知の音声合成が任意に採用され得る。信号処理部214が生成した音響信号SQは、加算器24を経由して放音装置26に供給される。したがって、関連情報Zが指定する文字列を発音した音声が放音装置26から放音される。すなわち、案内者OPが発音した案内音声Vの放音に引続いて、当該案内音声Vを他言語に翻訳した音声が放音装置26から利用者Uに対して放音される。例えば、案内文Aの翻訳文が関連情報Zとして生成された場合には、案内音声Vに相当する案内文Aの翻訳文の音声が当該案内音声Vに引続き放音される。   The signal processing unit 214 of the distribution terminal 20 generates the acoustic signal SQ by voice synthesis using the related information Z. The acoustic signal SQ according to the fourth embodiment is a signal representing a voice that is produced by sounding a character string designated by the related information Z. For the generation of the acoustic signal SQ, known speech synthesis can be arbitrarily adopted. The acoustic signal SQ generated by the signal processing unit 214 is supplied to the sound emitting device 26 via the adder 24. Therefore, the sound that pronounces the character string specified by the related information Z is emitted from the sound emitting device 26. That is, following the sound emission of the guidance voice V pronounced by the guide OP, a voice obtained by translating the guidance voice V into another language is emitted from the sound emission device 26 to the user U. For example, when the translated sentence of the guide sentence A is generated as the related information Z, the voice of the translated sentence of the guide sentence A corresponding to the guide voice V is emitted following the guide voice V.

なお、以上の説明では、第1実施形態を基礎とした構成を例示したが、第2実施形態または第3実施形態における文字列の特定を第4実施形態に適用することも可能である。例えば、第4実施形態の情報生成部116は、特定した対応情報Cが指定する複数の識別情報DXの各々が示す登録文字列Xを組み合わせた文章を他言語に翻訳した文字列を関連情報Zとして生成する。したがって、複数の登録文字列Xを組み合わせた文章の翻訳文の音声が案内音声Vに引続いて放音装置26から放音される。また、第3実施形態を想定すると、特定した対応情報Cが指定する複数の識別情報DXの各々が示す登録文字列Xを対応情報Cが指定する順序で配列した文章を他言語に翻訳した文字列を表す関連情報Zを情報生成部116が生成することも可能である。以上の構成では、複数の登録文字列Xを対応情報Cがあらかじめ指定した順序で配列した文章の翻訳文の音声が当該案内音声Vに引続いて放音装置26から放音される。   In the above description, the configuration based on the first embodiment has been exemplified. However, it is also possible to apply the character string specification in the second embodiment or the third embodiment to the fourth embodiment. For example, the information generation unit 116 according to the fourth embodiment converts a character string obtained by translating a sentence in which a registered character string X indicated by each of a plurality of pieces of identification information DX specified by the identified correspondence information C into another language is related information Z. Generate as Accordingly, the voice of the translated sentence of the sentence in which the plurality of registered character strings X are combined is emitted from the sound emitting device 26 following the guidance voice V. Further, assuming the third embodiment, a character obtained by translating a sentence in which a registered character string X indicated by each of a plurality of identification information DX designated by the identified correspondence information C is arranged in the order designated by the correspondence information C into another language It is also possible for the information generating unit 116 to generate related information Z representing a column. In the above-described configuration, the translated speech of a sentence in which a plurality of registered character strings X are arranged in the order designated by the correspondence information C is emitted from the sound emitting device 26 following the guidance voice V.

以上の説明から理解される通り、第4実施形態の情報生成システム1は、案内音声Vに関連する関連情報Zを生成(および利用者Uに提供)するシステムであり、案内音声Vに対する音声認識で解析された複数の認識文字列Lの各々について、相異なる発音内容を表す複数の登録文字列Xのうち認識文字列Lに類似する当該登録文字列Xを特定する文字列特定部114と、複数の登録文字列Xの相異なる組合せを指定する複数の対応情報Cのうち、文字列特定部114が特定した複数の登録文字列Xの組合せに対応する対応情報Cに応じた関連情報Zを生成する情報生成部116とを具備する。対応情報Cに応じた関連情報Zの典型例は、第1実施形態で例示した案内文Aの翻訳文、および、対応情報Cが示す複数の登録文字列Xから構成される文章(第2実施形態または第3実施形態)の翻訳文である。なお、関連情報Zが示す文字列の音声を放音装置26から放音する構成を以上の説明では例示したが、関連情報Zの出力方法は以上の例示に限定されない。例えば関連情報Zが示す文字列を表示装置により表示することも可能である。
<変形例>
以上に例示した各態様は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
As understood from the above description, the information generation system 1 of the fourth embodiment is a system that generates (and provides to the user U) related information Z related to the guidance voice V, and recognizes the voice for the guidance voice V. A character string specifying unit 114 that specifies the registered character string X similar to the recognized character string L among the plurality of registered character strings X representing different pronunciation contents for each of the plurality of recognized character strings L analyzed in Related information Z corresponding to the correspondence information C corresponding to the combination of the plurality of registered character strings X identified by the character string identifying unit 114 among the plurality of correspondence information C designating different combinations of the plurality of registered character strings X And an information generation unit 116 to be generated. A typical example of the related information Z corresponding to the correspondence information C is a sentence composed of the translated sentence of the guidance sentence A exemplified in the first embodiment and a plurality of registered character strings X indicated by the correspondence information C (second embodiment). Or a translated sentence of the third embodiment). In addition, although the structure which emits the sound of the character string which the related information Z shows from the sound emission apparatus 26 was illustrated in the above description, the output method of the related information Z is not limited to the above illustration. For example, a character string indicated by the related information Z can be displayed on the display device.
<Modification>
Each aspect illustrated above can be variously modified. Specific modifications are exemplified below. Two or more modes arbitrarily selected from the following examples can be appropriately combined within a range that does not contradict each other.

(1)第1実施形態から第3実施形態では、情報生成部116は、案内音声Vの発音内容を示す文字列の識別情報DZ(第2実施形態や第3実施形態では識別情報DX)を配信情報Qとして生成したが、配信情報Qの内容は以上の例示に限定されない。例えば、案内音声Vの発音内容を示す文字列そのものや案内音声Vの発音内容を他言語に翻訳した文字列を提示装置340が表示することも可能である。ただし、利用者Uに対する提示の方法は、表示に限定されない。例えば、配信情報Qで指定された案内文Aや登録文字列Xを音声として放音する放音装置を提示装置340として利用することも可能である。以上の例示から理解される通り、配信情報Qは、案内音声Vに関する情報として包括的に表現される。 (1) In the first to third embodiments, the information generating unit 116 uses character string identification information DZ (identification information DX in the second and third embodiments) indicating the pronunciation of the guidance voice V. Although generated as distribution information Q, the contents of distribution information Q are not limited to the above examples. For example, the presentation device 340 can display a character string indicating the pronunciation content of the guidance voice V or a character string obtained by translating the pronunciation content of the guidance voice V into another language. However, the method of presentation to the user U is not limited to display. For example, a sound emitting device that emits the guidance sentence A or the registered character string X designated by the distribution information Q as sound can be used as the presentation device 340. As understood from the above examples, the distribution information Q is comprehensively expressed as information on the guidance voice V.

(2)前述の各形態では、情報生成部116が対応情報Cを特定した上で配信情報Q(第4実施形態では関連情報Z)を生成したが、配信情報Qの生成に対応情報Cを特定できない場合を加味することも可能である。例えば、第1実施形態から第3実施形態の構成を基礎として、情報生成部116が対応情報Cを特定できない場合、案内音声Vの解析結果Kを配信情報Qとする構成や配信情報Qを生成しない構成も可能である。また、第4実施形態の構成を基礎として、情報生成部116が対応情報Cを特定できない場合、案内音声Vの解析結果Kの文字列の翻訳文を関連情報Zとする構成や関連情報Zを生成しない構成も可能である。 (2) In each of the above-described forms, the information generation unit 116 specifies the correspondence information C and then generates the distribution information Q (related information Z in the fourth embodiment). It is also possible to consider the case where it cannot be specified. For example, on the basis of the configuration of the first to third embodiments, when the information generating unit 116 cannot identify the correspondence information C, the configuration or distribution information Q is generated with the analysis result K of the guidance voice V as the distribution information Q. A configuration without this is also possible. Further, on the basis of the configuration of the fourth embodiment, when the information generation unit 116 cannot identify the correspondence information C, a configuration in which the translated information of the character string of the analysis result K of the guidance voice V is the related information Z and the related information Z are A configuration without generation is also possible.

(3)前述の各形態では、アナウンスブック等に収録された文章を構成する文を登録文字列Xとしたが、挿入区間を設けた定型句と挿入句とから構成される文を登録文字列Xとすることも可能である。例えば、解析結果Kに類似する定型句に、解析結果Kの挿入区間に対応する部分に類似する挿入句を挿入した文を登録文字列Xとする。以上の構成では、1個の定型句が複数の解析結果Kにわたり共用される(複数の案内音声Vにわたり共通する文字列を文字列テーブルTAの個々の登録文字列Xに含ませる必要がない)から、文字列テーブルTAのデータ量が削減されるという利点がある。 (3) In each of the above-described forms, a sentence constituting a sentence recorded in an announcement book or the like is a registered character string X. However, a sentence composed of a fixed phrase provided with an insertion section and an insertion phrase is a registered character string. X can also be used. For example, a registered character string X is a sentence in which an insertion phrase similar to a portion corresponding to the insertion section of the analysis result K is inserted into a fixed phrase similar to the analysis result K. In the above configuration, one fixed phrase is shared over a plurality of analysis results K (a character string common to a plurality of guidance voices V need not be included in each registered character string X of the character string table TA). Therefore, there is an advantage that the data amount of the character string table TA is reduced.

(4)前述の各形態では、管理装置10が音声解析部112と文字列特定部114と情報生成部116とを具備する構成を例示したが、管理装置10の一部または全部の機能を音声案内システム100に搭載することも可能である。例えば、第1実施形態から第3実施形態の構成を基礎として、音声解析部112と文字列特定部114と情報生成部116とを配信端末20に搭載した構成では、音声信号SGの解析(音声解析部112)と、登録文字列Xの特定(文字列特定部114)と、配信情報Qの生成(情報生成部116)とが配信端末20にて実行され、配信情報Qが放音装置26から端末装置30に送信される。この構成では、音声案内システム100と管理装置10との間の通信が不要であるから、通信網200を利用した通信ができない環境でも配信情報Qを端末装置30に提供することが可能である。他方、第4実施形態の構成を基礎として、音声解析部112と文字列特定部114と情報生成部116とを配信端末20に搭載した構成では、音声信号SGの解析(音声解析部112)と、登録文字列Xの特定(文字列特定部114)と、関連情報Zの生成(情報生成部116)とが配信端末20にて実行され、関連情報Zが放音装置26から放音される。 (4) In each of the above-described embodiments, the configuration in which the management device 10 includes the voice analysis unit 112, the character string specifying unit 114, and the information generation unit 116 is illustrated. However, some or all of the functions of the management device 10 are voiced. It can also be installed in the guidance system 100. For example, in the configuration in which the voice analysis unit 112, the character string specifying unit 114, and the information generation unit 116 are mounted on the distribution terminal 20 on the basis of the configuration of the first to third embodiments, the analysis of the voice signal SG (voice The analysis unit 112), identification of the registered character string X (character string identification unit 114), and generation of distribution information Q (information generation unit 116) are executed by the distribution terminal 20, and the distribution information Q is output from the sound emitting device 26. To the terminal device 30. In this configuration, since communication between the voice guidance system 100 and the management device 10 is unnecessary, it is possible to provide the distribution information Q to the terminal device 30 even in an environment where communication using the communication network 200 is not possible. On the other hand, in the configuration in which the speech analysis unit 112, the character string specifying unit 114, and the information generation unit 116 are mounted on the distribution terminal 20 on the basis of the configuration of the fourth embodiment, the analysis of the speech signal SG (speech analysis unit 112) and The identification of the registered character string X (character string specifying unit 114) and the generation of the related information Z (information generating unit 116) are executed by the distribution terminal 20, and the related information Z is emitted from the sound emitting device 26. .

(5)第1実施形態から第3実施形態では、提示テーブルTCを端末装置30の記憶装置330が記憶したが、提示テーブルTCの記憶先は以上の例示に限定されない。例えば、移動体通信網やインターネット等の通信網を介して端末装置30と通信する配信サーバ装置に提示テーブルTCを記憶することも可能である。端末装置30は、配信情報Qに含まれる識別情報DZ(第2実施形態や第3実施形態では識別情報DX)を指定した情報要求を配信サーバ装置に送信し、配信サーバ装置は、情報要求で指定された識別情報DZに対応する案内文Aを要求元の端末装置30に送信する。端末装置30の提示装置340は、配信サーバ装置から受信した案内文Aを利用者Uに提示する。以上の説明から理解される通り、提示テーブルTCを端末装置30の記憶装置330に記憶することは必須ではない。 (5) In the first embodiment to the third embodiment, the storage device 330 of the terminal device 30 stores the presentation table TC, but the storage destination of the presentation table TC is not limited to the above examples. For example, the presentation table TC can be stored in a distribution server device that communicates with the terminal device 30 via a communication network such as a mobile communication network or the Internet. The terminal device 30 transmits an information request specifying the identification information DZ (identification information DX in the second and third embodiments) included in the distribution information Q to the distribution server device. The guidance sentence A corresponding to the specified identification information DZ is transmitted to the requesting terminal device 30. The presentation device 340 of the terminal device 30 presents the guidance sentence A received from the distribution server device to the user U. As understood from the above description, it is not essential to store the presentation table TC in the storage device 330 of the terminal device 30.

(6)前述の各形態では、音声認識による案内音声Vの解析結果Kを音声解析部112が文単位に分割したが、解析結果Kを分割する単位は以上の例示に限定されない。例えば、文節や単語単位に解析結果Kを分割することも可能である。また、所定数の文を単位として解析結果Kを分割してもよい。 (6) In each of the above embodiments, the speech analysis unit 112 divides the analysis result K of the guidance voice V by speech recognition into sentence units, but the unit for dividing the analysis result K is not limited to the above examples. For example, the analysis result K can be divided into phrases or words. The analysis result K may be divided in units of a predetermined number of sentences.

(7)前述の各形態では、ショッピングモール等の商業施設300で情報生成システム1を利用したが、情報生成システム1を利用する場所は以上の例示に限定されない。例えば、バスや電車等の交通機関の案内に情報生成システム1を利用することも可能である。 (7) In each above-mentioned form, although information generation system 1 was used in commercial facilities 300, such as a shopping mall, the place which uses information generation system 1 is not limited to the above illustration. For example, the information generation system 1 can be used for guidance of transportation facilities such as buses and trains.

(8)第1実施形態から第3実施形態では、端末装置30に対する配信情報Qの配信に音響通信を利用したが、配信情報Qを端末装置30に配信する通信の方式は以上の例示に限定されない。例えば、赤外線や電波を利用した無線通信(例えば近距離無線通信)で端末装置30に配信情報Qを配信することも可能である。 (8) In the first to third embodiments, acoustic communication is used for distributing the distribution information Q to the terminal device 30. However, the communication method for distributing the distribution information Q to the terminal device 30 is limited to the above examples. Not. For example, the distribution information Q can be distributed to the terminal device 30 by wireless communication (for example, short-range wireless communication) using infrared rays or radio waves.

(9)第2実施形態おいて、対応情報Cは複数の登録文字列Xの組合せを指定したが、対応情報Cが指定する情報は以上の例示に限定されない。例えば、対応情報Cが示す複数の識別情報DXのうち、配信情報Qに含めない(つまり利用者Uに提示しない)登録文字列Xの識別情報DXを指定することも可能である。例えば、「本日はお越しくださいまして誠にありがとうございます。(=DX1)緊急のお知らせがございます。(=DX3)お車のヘッドライトがついたままになっております。(=DX6)」と案内者OPが発音した場合、識別情報DX1、DX3およびDX6を示す対応情報C2が、「識別情報DX1:非提示」と指定していれば、「緊急のお知らせがございます。(=DX3)お車のヘッドライトがついたままになっております。(=DX6)」という関連情報Zを端末装置30が利用者Uに提示するための配信情報Qを生成することができる。以上の構成によれば、案内音声Vとして放音はしたい文ではあるが、端末装置30への配信はしたくない文(例えば、個人情報を含む文や重要性が低い文)を配信情報Qに含めないことが可能である。 (9) In the second embodiment, the correspondence information C designates a combination of a plurality of registered character strings X, but the information designated by the correspondence information C is not limited to the above examples. For example, among the plurality of pieces of identification information DX indicated by the correspondence information C, the identification information DX of the registered character string X that is not included in the distribution information Q (that is, not presented to the user U) can be designated. For example, “Thank you for coming today. (= DX1) There is an urgent notice. (= DX3) The car headlight is still on. (= DX6)” When the operator OP pronounces, if the correspondence information C2 indicating the identification information DX1, DX3 and DX6 specifies “identification information DX1: non-presentation”, “There is an urgent notice. (= DX3) The distribution information Q for the terminal device 30 to present to the user U the related information Z (= DX6) ”can be generated. According to the above configuration, a sentence that is desired to be emitted as the guidance voice V, but a sentence that is not desired to be distributed to the terminal device 30 (for example, a sentence including personal information or a less important sentence) is distributed to the distribution information Q. Can be excluded.

(10)前述の各形態で例示した情報生成システム1は、前述の各形態の例示の通り、管理装置10の制御装置110とプログラムとの協働で実現される。例えば、第1実施形態から第3実施形態に対応するプログラムは、案内音声Vに関連する関連情報Zを端末装置30が利用者Uに提示するために当該端末装置30に送信される配信情報Qを生成するプログラムであって、案内音声Vに対する音声認識で解析された複数の認識文字列Lの各々について、相異なる発音内容を表す複数の登録文字列Xのうち認識文字列Lに類似する当該登録文字列Xを特定する文字列特定部114、および、複数の登録文字列Xの相異なる組合せを指定する複数の対応情報Cのうち、文字列特定部114が特定した複数の登録文字列Xの組合せに対応する対応情報Cに応じた関連情報Zを端末装置30が利用者Uに提示するための配信情報Qを生成する情報生成部116としてコンピュータを機能させる。また、第4実施形態に対応するプログラムは、案内音声Vに関連する関連情報Zを生成(および利用者Uに提供)するプログラムであって、案内音声Vに対する音声認識で解析された複数の認識文字列Lの各々について、相異なる発音内容を表す複数の登録文字列Xのうち認識文字列Lに類似する当該登録文字列Xを特定する文字列特定部114、および、複数の登録文字列Xの相異なる組合せを指定する複数の対応情報Cのうち、文字列特定部114が特定した複数の登録文字列Xの組合せに対応する対応情報Cに応じた関連情報Zを生成する情報生成部116としてコンピュータを機能させる。以上に例示したプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。また、通信網を介した配信の形態でプログラムをコンピュータに配信することも可能である。 (10) The information generation system 1 exemplified in each of the above embodiments is realized by the cooperation of the control device 110 of the management device 10 and a program as illustrated in the above embodiments. For example, the program corresponding to the first to third embodiments has the distribution information Q transmitted to the terminal device 30 in order for the terminal device 30 to present the related information Z related to the guidance voice V to the user U. For each of a plurality of recognized character strings L analyzed by voice recognition with respect to the guidance voice V, and similar to the recognized character string L among a plurality of registered character strings X representing different pronunciation contents Among the plurality of pieces of correspondence information C that specify different combinations of a plurality of registered character strings X, a plurality of registered character strings X specified by the character string specifying unit 114 are specified. The computer is caused to function as the information generation unit 116 that generates the distribution information Q for the terminal device 30 to present to the user U the related information Z corresponding to the correspondence information C corresponding to the combination. The program corresponding to the fourth embodiment is a program for generating (and providing to the user U) related information Z related to the guidance voice V, and a plurality of recognitions analyzed by voice recognition for the guidance voice V. For each of the character strings L, a character string specifying unit 114 for specifying the registered character string X similar to the recognized character string L among the plurality of registered character strings X representing different pronunciation contents, and the plurality of registered character strings X Information generating unit 116 that generates related information Z corresponding to the corresponding information C corresponding to the combination of the plurality of registered character strings X specified by the character string specifying unit 114 among the plurality of corresponding information C designating different combinations of As a computer to function. The programs exemplified above can be provided in a form stored in a computer-readable recording medium and installed in the computer. The recording medium is, for example, a non-transitory recording medium, and an optical recording medium (optical disk) such as a CD-ROM is a good example, but a known arbitrary one such as a semiconductor recording medium or a magnetic recording medium This type of recording medium can be included. It is also possible to distribute the program to a computer in the form of distribution via a communication network.

(11)本発明は、前述の各形態に係る情報生成システム1の動作方法(情報生成方法)としても特定される。例えば、第1実施形態から第3実施形態に対応する情報生成方法は、案内音声Vに関連する関連情報Zを端末装置30が利用者Uに提示するために当該端末装置30に送信される配信情報Qを生成する方法であって、案内音声Vに対する音声認識で解析された複数の認識文字列Lの各々について、相異なる発音内容を表す複数の登録文字列Xのうち認識文字列Lに類似する当該登録文字列Xを特定し、複数の登録文字列Xの相異なる組合せを指定する複数の対応情報Cのうち、特定した複数の登録文字列Xの組合せに対応する対応情報Cに応じた関連情報Zを端末装置30が利用者Uに提示するための配信情報Qを生成する。また、第4実施形態に対応する情報生成方法は、案内音声Vに関連する関連情報Zを生成(および利用者Uに提供)する方法であって、案内音声Vに対する音声認識で解析された複数の認識文字列Lの各々について、相異なる発音内容を表す複数の登録文字列Xのうち認識文字列Lに類似する当該登録文字列Xを特定し、複数の登録文字列Xの相異なる組合せを指定する複数の対応情報Cのうち、特定した複数の登録文字列Xの組合せに対応する対応情報Cに応じた関連情報Zを生成する。 (11) The present invention is also specified as an operation method (information generation method) of the information generation system 1 according to each of the above-described embodiments. For example, in the information generation method corresponding to the first to third embodiments, the distribution transmitted to the terminal device 30 so that the terminal device 30 presents the related information Z related to the guidance voice V to the user U. A method of generating information Q, which is similar to a recognized character string L among a plurality of registered character strings X representing different pronunciation contents for each of a plurality of recognized character strings L analyzed by voice recognition for the guidance voice V In accordance with the correspondence information C corresponding to the specified combination of the plurality of registered character strings X among the plurality of correspondence information C specifying the registered character string X to be specified and specifying different combinations of the plurality of registered character strings X Distribution information Q for the terminal device 30 to present the related information Z to the user U is generated. The information generation method corresponding to the fourth embodiment is a method for generating (and providing to the user U) related information Z related to the guidance voice V, and a plurality of information analyzed by voice recognition with respect to the guidance voice V. For each of the recognized character strings L, the registered character string X similar to the recognized character string L is specified from among the plurality of registered character strings X representing different pronunciation contents, and different combinations of the plurality of registered character strings X are determined. Of the plurality of correspondence information C to be specified, the related information Z corresponding to the correspondence information C corresponding to the specified combination of the plurality of registered character strings X is generated.

1……情報生成システム、10……管理装置、20……配信端末、22……収音装置、24……加算器、26……放音装置、30……端末装置、100……音声案内システム、110……制御装置、112……音声解析部、114……文字列特定部、116……情報生成部、120……記憶装置、130……通信装置、200……通信網、210……制御装置、212……音声取得部、214……信号処理部、220……通信装置、300……商業施設、310……収音装置、320……制御装置、322……情報抽出部、324……情報管理部、330……記憶装置、340……提示装置 DESCRIPTION OF SYMBOLS 1 ... Information generation system, 10 ... Management apparatus, 20 ... Distribution terminal, 22 ... Sound collection apparatus, 24 ... Adder, 26 ... Sound emission apparatus, 30 ... Terminal apparatus, 100 ... Voice guidance System 110 110 Control device 112 Speech analysis unit 114 Character string specifying unit 116 Information generation unit 120 Storage unit 130 Communication device 200 Communication network 210 ... Control device, 212 ... Audio acquisition unit, 214 ... Signal processing unit, 220 ... Communication device, 300 ... Commercial facility, 310 ... Sound pickup device, 320 ... Control device, 322 ... Information extraction unit, 324 ... Information management unit, 330 ... Storage device, 340 ... Presentation device

Claims (5)

案内音声に関連する関連情報を端末装置が利用者に提示するために当該端末装置に送信される配信情報を生成するシステムであって、
前記案内音声に対する音声認識で解析された複数の認識文字列の各々について、相異なる発音内容を表す複数の登録文字列のうち前記認識文字列に類似する当該登録文字列を特定する文字列特定部と、
複数の登録文字列の相異なる組合せを指定する複数の対応情報のうち、前記文字列特定部が特定した複数の登録文字列の組合せに対応する対応情報に応じた前記関連情報を前記端末装置が利用者に提示するための前記配信情報を生成する情報生成部と
を具備する情報生成システム。
A system for generating distribution information transmitted to a terminal device in order for the terminal device to present related information related to the guidance voice to the user,
For each of a plurality of recognized character strings analyzed by voice recognition with respect to the guidance voice, a character string specifying unit for specifying the registered character string similar to the recognized character string among a plurality of registered character strings representing different pronunciation contents When,
Of the plurality of pieces of correspondence information designating different combinations of the plurality of registered character strings, the terminal device displays the related information according to the correspondence information corresponding to the combination of the plurality of registered character strings specified by the character string specifying unit. An information generation system comprising: an information generation unit that generates the distribution information to be presented to a user.
前記情報生成部は、前記各対応情報について用意された複数の案内文のうち、前記文字列特定部が特定した複数の登録文字列の組合せに対応する対応情報の案内文を示す関連情報を前記端末装置が前記利用者に提示するための前記配信情報を生成する
請求項1の情報生成システム。
The information generation unit includes related information indicating a guidance sentence of correspondence information corresponding to a combination of a plurality of registered character strings identified by the character string identification unit among a plurality of guidance sentences prepared for each correspondence information. The information generation system according to claim 1, wherein the terminal device generates the distribution information to be presented to the user.
前記情報生成部は、前記文字列特定部が特定した複数の登録文字列の組合せに対応する対応情報が指定する複数の登録文字列を示す関連情報を前記端末装置が前記利用者に提示するための前記配信情報を生成する
請求項1の情報生成システム。
The information generation unit is configured so that the terminal device presents to the user related information indicating a plurality of registered character strings specified by correspondence information corresponding to a combination of a plurality of registered character strings specified by the character string specifying unit. The information generation system according to claim 1, wherein the distribution information is generated.
前記対応情報は、複数の登録文字列の組合せと、当該組合せに係る複数の登録文字列の順序とを指定し、
前記情報生成部は、前記対応情報が指定する順序で配列された複数の登録文字列を示す関連情報を前記端末装置が前記利用者に提示するための前記配信情報を生成する
請求項3の情報生成システム。
The correspondence information specifies a combination of a plurality of registered character strings and an order of the plurality of registered character strings related to the combination,
The information generation unit generates the distribution information for the terminal device to present related information indicating a plurality of registered character strings arranged in an order designated by the correspondence information to the user. Generation system.
前記案内音声と、前記配信情報を示す音響とを放音する放音部
を具備する請求項1から請求項4の何れかの情報生成システム。
5. The information generation system according to claim 1, further comprising a sound emitting unit that emits the guidance voice and sound indicating the distribution information.
JP2015203864A 2015-10-15 2015-10-15 Information generation system Active JP6597156B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015203864A JP6597156B2 (en) 2015-10-15 2015-10-15 Information generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015203864A JP6597156B2 (en) 2015-10-15 2015-10-15 Information generation system

Publications (2)

Publication Number Publication Date
JP2017076279A JP2017076279A (en) 2017-04-20
JP6597156B2 true JP6597156B2 (en) 2019-10-30

Family

ID=58551372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015203864A Active JP6597156B2 (en) 2015-10-15 2015-10-15 Information generation system

Country Status (1)

Country Link
JP (1) JP6597156B2 (en)

Also Published As

Publication number Publication date
JP2017076279A (en) 2017-04-20

Similar Documents

Publication Publication Date Title
JP6033927B1 (en) Information providing system and information providing method
CN106537496B (en) Terminal device, information providing system, information presenting method, and information providing method
CN106537497B (en) Information management system and information management method
JP2017195612A (en) Information management system and terminal device
JP6569252B2 (en) Information providing system, information providing method and program
JP6729494B2 (en) Information management system and information management method
JP6597156B2 (en) Information generation system
JP2020190756A (en) Management device and program
JP6971557B2 (en) Management equipment and programs
JP7331645B2 (en) Information provision method and communication system
JP6772468B2 (en) Management device, information processing device, information provision system, language information management method, information provision method, and operation method of information processing device
JP6780305B2 (en) Information processing device and information provision method
JP6984769B2 (en) Information provision method and information provision system
JP7192948B2 (en) Information provision method, information provision system and program
JP2018088088A (en) Information processing system and terminal device
JP6834634B2 (en) Information provision method and information provision system
JP2020064262A (en) Information processing method and information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190916

R151 Written notification of patent or utility model registration

Ref document number: 6597156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151