JPH06133039A - Automatic guidance device for weather information - Google Patents

Automatic guidance device for weather information

Info

Publication number
JPH06133039A
JPH06133039A JP4278730A JP27873092A JPH06133039A JP H06133039 A JPH06133039 A JP H06133039A JP 4278730 A JP4278730 A JP 4278730A JP 27873092 A JP27873092 A JP 27873092A JP H06133039 A JPH06133039 A JP H06133039A
Authority
JP
Japan
Prior art keywords
voice
user
weather information
voice recognition
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4278730A
Other languages
Japanese (ja)
Inventor
Takashi I
傑 易
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP4278730A priority Critical patent/JPH06133039A/en
Publication of JPH06133039A publication Critical patent/JPH06133039A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To obtain a weather information guidance device which prevents the rise of labor costs, improves the rapidity of service and fitted to the subdivision of a service area. CONSTITUTION:The continuous voice recognition part of a voice recognition part 3 recognizes natural talk in the sentence unit of a user. When the recognition of continuous voice is failed, a word voice recognition part recognizes voice in a word unit. An interaction management part 4 analyzes the meaning of the talk of the user, and generates a response sentence based on the talk. A voice synthesis part 5 synthesizes response voice, recognizes an important matter for the user and supplies information. Thus, weather information of a place which the user intends to know can directly be guided by using voice recognition technology, and the subdivision of the service area can be realized. Since latest weather information can be supplied through a data communication part 7, it is advantageous for shortening the time interval of information update, for making the device unmanned and for continuous operation.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、自動音声認識技術、
テキスト音声合成技術を情報提供サービスに応用した気
象情報自動案内装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to automatic speech recognition technology,
The present invention relates to a weather information automatic guidance device in which text-to-speech synthesis technology is applied to an information service.

【0002】[0002]

【従来の技術】従来、気象情報の自動案内サービスとし
ては、NTTの177番の「天気予報」がある。この
「天気予報」は、気象庁予報部の発表に基づいて、48
時間以内の空模様、降水予測などの気象情報を録音した
テープを繰り返して再生することにより、ユーザーに気
象情報を提供している。
2. Description of the Related Art Conventionally, as a weather information automatic guidance service, there is "weather forecast" of NTT No. 177. This "weather forecast" is based on the announcement of the Meteorological Agency forecast department.
The weather information is provided to the user by repeatedly playing back the tape on which the weather information such as the sky within a certain time period and the forecast of precipitation is recorded.

【0003】しかしながら、このサービスは広範囲(通
常一都道府県を1〜5の地域に分割してサービスを提供
する)の気象情報しか提供できず、よりローカルな詳細
な気象情報を提供するには限界がある。
However, this service can only provide a wide range of weather information (usually one prefecture is divided into 1 to 5 areas to provide the service), and there is a limit to providing more detailed local weather information. There is.

【0004】また、従来の方式では、気象情報が人間に
よって録音テープに吹き込まれるので、サービス地域を
細分化したり、サービス時間間隔を短縮するには、人間
による操作のコストが無視出来なくなる。その上、読み
上げ誤り及びそれに伴うチェック作業の増大等の時間的
なロスがでるだけでなく、コスト増大につながる。
Further, in the conventional method, since the weather information is blown into the recording tape by the human, the cost of the human operation cannot be ignored in order to subdivide the service area or shorten the service time interval. In addition, not only a time loss such as a reading error and an increase in the check work accompanied therewith, but also an increase in cost.

【0005】一方、従来の方式のままでサービス地域を
細分化するためには、市外局番による地域識別を行う他
にないが、ユーザーはサービスを受けたい場所の市外局
番を必ずしも知っているとは限らない。例えば、「東京
デズニーランドの天気が知りたい」という要望には答え
られなくなる。更に、市外局番のサービス地域区分は行
政によるものであり、地理上変則な分割が多いため、必
ずしも気象情報サービスには好適ではない。
On the other hand, in order to subdivide the service area according to the conventional method, there is no choice but to identify the area by the area code, but the user always knows the area code of the place where the user wants to receive the service. Not necessarily. For example, the request "I want to know the weather in Tokyo Disneyland" cannot be answered. Further, the service area division of the area code depends on the government, and since there are many geographically irregular divisions, it is not necessarily suitable for the weather information service.

【0006】また、電話によらず、パーソナルコンピュ
ータ通信利用者や情報提供サービス会社と契約を結んだ
ユーザ等の特定の対象者に気象情報を提供するサービス
もあるが、一般大衆向きでないので、普及されにくい。
There is also a service for providing weather information to a specific target person such as a personal computer communication user or a user who has a contract with an information providing service company without using a telephone, but it is not suitable for the general public, so it is popular. It is hard to be done.

【0007】[0007]

【発明が解決しようとする課題】前述のように、従来の
気象情報案内システムには、次のような問題点があっ
た。 (a)人間が気象情報を読み上げて録音テープに吹き込
む為、サービス地域の細分化やサービス時間間隔の短縮
に伴う人件費等のコスト上昇が避けられない。 (b)読み上げミスに伴う録音チェック作業時間の増加
がサービスの迅速化の妨げとなっている。 (c)市外局番によるサービス地域の区分はユーザにと
って必ずしも便利ではない。
As described above, the conventional weather information guidance system has the following problems. (A) Since human beings read out weather information and record it on recording tapes, it is inevitable that costs such as personnel expenses increase due to subdivision of service areas and shortening of service time intervals. (B) The increase in recording check work time due to a reading error hinders the speeding up of services. (C) The division of service areas by area code is not always convenient for users.

【0008】この発明は、上記問題点を解決した気象情
報自動案内装置、即ち人件費等のコスト上昇を防止し、
サービスの迅速性を向上させ、またサービス地域の細分
化にも適した気象情報案内装置を提供することを目的と
する。
The present invention solves the above-mentioned problems by using a weather information automatic guiding apparatus, that is, preventing an increase in costs such as personnel costs,
It is an object of the present invention to provide a weather information guide device that improves the speed of service and is suitable for subdividing a service area.

【0009】[0009]

【課題を解決するための手段】この発明は、前記課題を
解決するために、ユーザーの自然な発声を認識する連続
音声認識部と、単語音声を認識する単語音声認識部と、
前記連続音声認識部叉は単語音声認識部による音声認識
結果に基づいて適切な応答文を生成する対話管理部と、
応答文を音声に変換して出力するテキスト音声合成部
と、気象情報を格納する記憶部と、気象情報を更新する
為に外部との通信を行うデータ通信部と、これらの各部
分を制御する制御部を有することを特徴とする。
In order to solve the above-mentioned problems, the present invention comprises a continuous voice recognition unit for recognizing a user's natural utterance, a word voice recognition unit for recognizing word voice,
A dialogue management unit for generating an appropriate response sentence based on the voice recognition result by the continuous voice recognition unit or the word voice recognition unit;
A text-to-speech synthesis unit that converts a response sentence into voice and outputs it, a storage unit that stores weather information, a data communication unit that communicates with the outside to update the weather information, and controls each of these parts. It is characterized by having a control unit.

【0010】[0010]

【作用】本発明によれば、連続音声認識部によりユーザ
の文単位の自然な発話を認識し、連続音声認識に失敗し
た場合には単語音声認識部で単語単位の音声認識が行わ
れる。対話管理部では、ユーザの発話の意味を解析して
それに基づく応答文を作成する。また、テキスト音声合
成部において、応答音声を合成し、ユーザーへの用件確
認及び情報の提供を行う。
According to the present invention, the continuous speech recognition unit recognizes the natural utterance of the user in sentence units, and when the continuous speech recognition fails, the word speech recognition unit performs word unit speech recognition. The dialogue management unit analyzes the meaning of the user's utterance and creates a response sentence based on it. The text-to-speech synthesizer synthesizes the response voice, confirms the message and provides the information to the user.

【0011】このように、本発明によれば、音声認識技
術を用いることにより、直接ユーザの知りたい場所の天
気情報を案内することができると共に、サービス地域の
細分化にも適している。また、テキスト音声合成技術を
用いることにより、気象情報提供先から送られたデータ
を瞬時に音声に変換することができ、人間の録音の手間
が省けるのみならず、録音ミスもなく、従って録音の内
容をチェックする手間が省略できる。
As described above, according to the present invention, by using the voice recognition technology, it is possible to directly guide the user to the weather information of the place that the user wants to know, and it is also suitable for subdividing the service area. In addition, by using the text-to-speech synthesis technology, the data sent from the weather information provider can be instantly converted into voice, which not only saves humans the trouble of recording but also eliminates recording mistakes. You can save the trouble of checking the contents.

【0012】更に、データ通信技術を用いることによ
り、最新の気象情報を瞬時に提供できるため、情報更新
の時間間隔の短縮や装置の無人化、連続運転等に有利で
ある。
Further, since the latest weather information can be instantaneously provided by using the data communication technique, it is advantageous for shortening the time interval for updating information, unmanning the apparatus, continuous operation and the like.

【0013】[0013]

【実施例】図1は、本発明の実施例の気象情報自動案内
装置の概略構成を示すブロック図である。この気象情報
自動案内装置は、例えば、集積回路等による個別回路、
或いはプロセッサを用いたプログラム制御等により構成
され、電話回線2等によって外部と接続されるもので、
装置全体を制御する制御部1を有し、この制御部1には
ユーザが発声した連続音声又は単語音声を認識する音声
認識部3、応答文を合成する音声合成部5が接続されて
いる。更に、制御部1には、音声認識部3の出力に対し
てユーザ発話の意味を解析し、適切な応答文又は質問文
を生成する対話管理部4、音声標準パターンや単語辞
書、文法等を記憶する記憶部6、最新の気象情報を取り
込むために外部との通信を行うデータ通信部7が接続さ
れている。尚、データ通信部7には通信ネットワーク8
が接続されている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a block diagram showing a schematic structure of a weather information automatic guide device of an embodiment of the present invention. This weather information automatic guide device is, for example, an individual circuit such as an integrated circuit,
Alternatively, it is configured by program control using a processor and is connected to the outside by a telephone line 2 or the like,
A control unit 1 for controlling the entire apparatus is provided, and a voice recognition unit 3 for recognizing a continuous voice or a word voice uttered by a user and a voice synthesizing unit 5 for synthesizing a response sentence are connected to the control unit 1. Further, the control unit 1 includes a dialogue management unit 4 that analyzes the meaning of the user's utterance with respect to the output of the voice recognition unit 3 and generates an appropriate response sentence or question sentence, a voice standard pattern, a word dictionary, a grammar, and the like. A storage unit 6 that stores the data and a data communication unit 7 that communicates with the outside to capture the latest weather information are connected. The data communication unit 7 includes a communication network 8
Are connected.

【0014】図2は、本発明の実施例の処理手順を示す
図であり、図3は図2の処理手順において、連続音声認
識技術を用いた場合の処理手順を示す図であり、図4は
図2の処理手順ににおいて単語音声認識技術を用いた場
合の処理手順を示したものである。以下、これらの図面
を用いて本実施例の気象情報案内装置を説明する。
FIG. 2 is a diagram showing a processing procedure of an embodiment of the present invention, FIG. 3 is a diagram showing a processing procedure when a continuous speech recognition technique is used in the processing procedure of FIG. 2, and FIG. Shows the processing procedure when the word voice recognition technique is used in the processing procedure of FIG. The meteorological information guide device of this embodiment will be described below with reference to these drawings.

【0015】図2に於いて、情報案内が開始されると
(ステップ11)、音声認識部3では入力されたユーザ
の文単位の発声を認識する(ステップ12)。本実施例
では、例えば文献1(中川聖一、「確率モデルによる音
声認識」、電子情報通信学会出版、1988 pp.1
36〜137、139〜141)に記載された連続音声
認識アルゴリズムを用いる。即ち、確率文脈自由文法で
記述する文認識アルゴリズムを用いて連続音声認識を行
なう。
In FIG. 2, when the information guidance is started (step 11), the voice recognition unit 3 recognizes the input user's utterance in sentence units (step 12). In the present embodiment, for example, reference 1 (Seiichi Nakagawa, “Speech recognition by probabilistic model”, published by The Institute of Electronics, Information and Communication Engineers, 1988 pp. 1)
36-137, 139-141). That is, continuous speech recognition is performed using a sentence recognition algorithm described by a probabilistic context-free grammar.

【0016】ステップ13で連続音声認識が成功しなか
った場合、制御部1は音声認識部3を単語音声認識に切
り替え、例えば文献2(古井貞煕、「ディジタル音声処
理」、東海大学出版会出版、1985、pp.185〜
188)に記載された単語音声認識アルゴリズムを用い
てユーザーの単語音声を認識する(ステップ14)。即
ち、不特定話者に対応するために各々の単語に対して複
数の標準パターンを用意し、ユーザーが発した単語音声
と最も距離の近い標準パターンを認識結果とする。
When the continuous speech recognition is not successful in step 13, the control unit 1 switches the speech recognition unit 3 to the word speech recognition, and for example, reference 2 (Sadahiro Furui, "Digital Speech Processing", Tokai University Press Publishing). , 1985, pp. 185.
The word voice recognition algorithm described in 188) is used to recognize the user's word voice (step 14). That is, a plurality of standard patterns are prepared for each word in order to correspond to the unspecified speaker, and the standard pattern closest to the word voice uttered by the user is used as the recognition result.

【0017】連続音声認識の結果又は単語音声認識の結
果に基づいて、対話管理部4で適切な応答文を生成し
(ステップ15)、音声合成部5では例えば文献3(古
井貞煕、「ディジタル音声処理」、東海大学出版会出
版、1985、pp.144〜146)に記載された方
法でテキスト音声合成を行う(ステップ16)。即ち、 (1)単語境界の検出。 (2)単語の音素記号列への変換。 (3)音素韻律情報の付与。 (4)合成単位と規則による、音声合成器の制御信号の
生成。 の手順でテキスト音声合成を行なう。 このようにして、ユーザーに情報案内を行い、動作を終
了する(ステップ17)。
Based on the result of the continuous voice recognition or the result of the word voice recognition, the dialogue management unit 4 generates an appropriate response sentence (step 15), and the voice synthesis unit 5 uses, for example, Document 3 (Sadahiro Furui, "Digital Speech processing ", Tokai University Press, 1985, pp. 144-146) to perform text-to-speech synthesis (step 16). (1) Detection of word boundaries. (2) Conversion of words into phoneme symbol strings. (3) Addition of phoneme prosody information. (4) Generation of a voice synthesizer control signal according to a synthesis unit and a rule. Perform text-to-speech synthesis according to the procedure. In this way, the user is informed of the information and the operation ends (step 17).

【0018】図3は音声認識部3において、連続音声認
識を行う場合の処理手順を示したものである。処理が開
始されると(ステップ101)、先ず制御部1では音声
認識状況を表す変数RL及び認識回数を表す変数NCを
0にセットし(ステップ102)、入力待ち状態にな
る。ここでは、ユーザへは何等発声制限を加えないの
で、ユーザーは自然に文章単位で発声できる。ユーザー
からの問い合わせ発声が受付されると(ステップ10
3)、音声認識部3では例えば前記文献1に記載された
アルゴリズムを用いてユーザの連続発声を認識する(ス
テップ104)。対話管理部4では、音声認識部3の認
識結果に基づいてユーザー発話の意味を解析し、気象情
報案内に必要な用件、例えば日付、地名等を抽出する。
FIG. 3 shows a processing procedure when the speech recognition unit 3 performs continuous speech recognition. When the process is started (step 101), the control unit 1 first sets the variable RL indicating the voice recognition situation and the variable NC indicating the number of recognitions to 0 (step 102), and waits for input. Here, since no voicing restriction is applied to the user, the user can naturally utter in sentence units. When an inquiry voice is received from the user (step 10
3), the voice recognition unit 3 recognizes the continuous utterance of the user using the algorithm described in Document 1 (step 104). The dialogue management unit 4 analyzes the meaning of the user's utterance based on the recognition result of the voice recognition unit 3, and extracts a message necessary for weather information guidance, such as a date or a place name.

【0019】次に、変数RLの値を照合しながら3つの
方向に分岐していく(ステップ106)。先ず、RL=
0即ち1回目の発声の場合又は前回の認識結果から用件
抽出できなかった場合には、制御部1は今回の認識結果
から用件が抽出されたか否かを確認する(ステップ11
5)。用件抽出が成功した場合、抽出された用件が十分
であるかどうかをチェックする(ステップ118)。用
件の欠落が無い場合、対話管理部4では例えば表1の
(a)に示すような確認文を生成し、認識状況変数RL
の値を2にセットし(ステップ120)、音声合成部5
でテキスト音声合成を行って(ステップ121)ユーザ
ーにアナウンスし、処理をステップ103に戻してユー
ザーの次の発声の待ち状態となる。
Next, while collating the value of the variable RL, the process branches into three directions (step 106). First, RL =
In the case of 0, that is, the first utterance or when the message cannot be extracted from the previous recognition result, the control unit 1 confirms whether the message is extracted from the current recognition result (step 11).
5). If the message extraction is successful, it is checked whether the extracted message is sufficient (step 118). If there is no missing message, the dialogue management unit 4 generates a confirmation sentence as shown in (a) of Table 1, and recognizes the recognition status variable RL.
Is set to 2 (step 120), and the voice synthesizer 5
In step 121, a text-to-speech synthesis is performed to announce to the user, and the process returns to step 103 to wait for the user's next utterance.

【0020】ステップ118では、用件が欠落している
と判定されたら、対話管理部4が表1の(b)に示す確
認&再発話催促文を生成し、認識状況変数RLの値を1
にセットし(ステップ119)、テキスト音声合成を行
なう(ステップ121)。
In step 118, if it is determined that the message is missing, the dialogue management unit 4 generates the confirmation & recurring speech prompting sentence shown in (b) of Table 1 and sets the value of the recognition status variable RL to 1
(Step 119), and text-to-speech synthesis is performed (step 121).

【0021】ステップ115では、用件が抽出されなか
ったと判断されると誤認識回数を示す変数NCに1を加
算し(ステップ108)、NCが予め決められた閾値K
を越えていないかの確認を行う(ステップ112)。N
Cが閾値を越えていなければ、対話管理部4では表1の
(c)に示す再発話促進文を生成し、認識状況変数RL
の値を0にセットし(ステップ116)、テキスト音声
合成を行なう(ステップ121)。もし、NCの値が閾
値Kより大きくなると、制御部1の制御の下に単語音声
認識に切り替えられ、処理が図4のBに移行する。
In step 115, when it is determined that the message is not extracted, 1 is added to the variable NC indicating the number of misrecognitions (step 108), and NC is a predetermined threshold value K.
It is confirmed whether or not it exceeds (step 112). N
If C does not exceed the threshold value, the dialogue management unit 4 generates a recurrence story promoting sentence shown in (c) of Table 1 and recognizes the recognition status variable RL.
Is set to 0 (step 116), and text-to-speech synthesis is performed (step 121). If the value of NC becomes larger than the threshold value K, it is switched to the word voice recognition under the control of the control unit 1, and the processing shifts to B in FIG.

【0022】ステップ106では、RL=1であれば、
即ち前回の処理で用件欠落があった場合、制御部1は今
回の認識結果から、用件が抽出されたか否かを確認し
(ステップ107)、用件が抽出されなかった場合はス
テップ108に進む。用件が抽出されれば今回抽出され
た用件と前回抽出された用件とを比較し、一致するか否
かをチェックする(ステップ111)。もし一致するも
のが無ければ、ステップ108に進み、一致するものが
あればステップ118に進む。
In step 106, if RL = 1,
That is, if there is a missing message in the previous process, the control unit 1 confirms from the recognition result of this time whether or not the message is extracted (step 107), and if the message is not extracted, the step 108 is performed. Proceed to. When the message is extracted, the message extracted this time is compared with the message extracted last time, and it is checked whether or not they match (step 111). If there is no match, the process proceeds to step 108, and if there is a match, the process proceeds to step 118.

【0023】ステップ106でRL=2であれば、即ち
前回の処理で用件抽出が成功した場合、対話管理部4は
ステップ105で表1(a)の確認文に対するユーザの
回答の意味を解析し、用件確認が成功したか否かをチェ
ックする(ステップ110)。ここでは、例えばユーザ
ーからの「はい、そうです」のような肯定的な回答を得
たとすれば、対話管理部4では抽出された用件に従い表
1(d)に示すような応答文を作成し(ステップ11
4)、音声合成部5では応答文テキストを音声合成し
(ステップ117)、ユーザーに気象情報を案内した
後、図3のAに戻り次のユーザーからの発話待ちの状態
となる。
If RL = 2 in step 106, that is, if the message extraction is successful in the previous process, the dialogue management unit 4 analyzes the meaning of the user's reply to the confirmation sentence in Table 1 (a) in step 105. Then, it is checked whether or not the message confirmation is successful (step 110). Here, for example, if a positive answer such as “Yes, yes” is received from the user, the dialogue management unit 4 creates a response sentence as shown in Table 1 (d) according to the extracted message. (Step 11
4) Then, the voice synthesizing unit 5 voice-synthesizes the response sentence text (step 117), guides the weather information to the user, and then returns to A in FIG. 3 to wait for the next user to speak.

【0024】図4は単語音声認識の処理手順を示すフロ
ーチャートである。図3のステップ112又はステップ
113に於いて、誤認識回数を示す変数NCが所定の閾
値Kを越えた場合、制御部1は連続音声認識中止し単語
音声認識に切り替えを行う。
FIG. 4 is a flow chart showing the processing procedure of word voice recognition. In step 112 or step 113 of FIG. 3, when the variable NC indicating the number of erroneous recognitions exceeds a predetermined threshold value K, the control unit 1 stops continuous voice recognition and switches to word voice recognition.

【0025】単語音声認識に切り替えられると、制御部
1は先ず変数RLの値をリセットし(ステップ20
1)、表1の(e)に示すような案内文を再生する(ス
テップ202)。次に、表1の(f)に示すような質問
文を一文ずつ再生し(ステップ203)、ユーザーから
の回答を取り込む(ステップ204)。音声認識部3で
はユーザの発声した音声を単語音声認識技術を用いて認
識する(ステップ205)。
When switching to word speech recognition, the control unit 1 first resets the value of the variable RL (step 20).
1), the guidance sentence as shown in (e) of Table 1 is reproduced (step 202). Next, the question sentence as shown in (f) of Table 1 is reproduced sentence by sentence (step 203), and the answer from the user is taken in (step 204). The voice recognition unit 3 recognizes the voice uttered by the user using the word voice recognition technique (step 205).

【0026】次のステップでは、変数RLの値によって
二つの枝に分岐する(ステップ206)。先ず、RL=
0の場合は単語認識の結果、用件抽出が成功したか否か
をチェックする(ステップ208)。用件抽出に失敗し
た場合にはステップ203に戻り、同じ質問文を再生
し、用件抽出に成功した場合には、次のステップ210
で用件が欠落しているか否かをチェックする。もし、欠
落があれば、ステップ203に戻り次の質問文を再生す
る。欠落がなければ、表1の(g)に示すような確認文
を生成し、前記変数RLの値を2とする(ステップ21
2)。音声合成部5では、先に生成された確認文を音声
に合成し(ステップ213)、ステップ204に戻る。
In the next step, the process branches into two branches according to the value of the variable RL (step 206). First, RL =
In the case of 0, as a result of word recognition, it is checked whether or not the message extraction is successful (step 208). If the message extraction fails, the process returns to step 203, the same question sentence is reproduced, and if the message extraction succeeds, the next step 210 is performed.
Check to see if the message is missing. If there is a gap, the process returns to step 203 and the next question sentence is reproduced. If there is no omission, a confirmation sentence as shown in (g) of Table 1 is generated and the value of the variable RL is set to 2 (step 21).
2). The voice synthesizing unit 5 synthesizes the previously generated confirmation sentence with the voice (step 213) and returns to step 204.

【0027】ステップ206で変数RLが2ならば、単
語認識の結果に従いユーザーへの用件確認が成功したか
否かをチェックする(ステップ207)。もし、ユーザ
ーの答が「イイエ」であれば、ステップ203に戻り、
最初から質問文を再生する。ユーザーの回答が「ハイ」
である場合、表1の(d)に示すような応答文を生成し
(ステップ209)、音声合成部5で応答文テキストを
音声合成し(ステップ211)、ユーザに気象情報を案
内した後、図3のAに戻り、次のユーザーからの発話待
ちの状態になる。
If the variable RL is 2 in step 206, it is checked whether or not the message confirmation to the user has succeeded according to the result of word recognition (step 207). If the user's answer is “yes”, go back to step 203,
Play the question from the beginning. User response is "high"
If it is, a response sentence as shown in (d) of Table 1 is generated (step 209), the response sentence text is voice-synthesized by the voice synthesizing unit 5 (step 211), and the weather information is presented to the user. Returning to FIG. 3A, the next user is waiting for a speech.

【0028】[0028]

【表1】 〇〇=地名、施設名等 △△=今日、明日、日曜日、7月2日、・・・[Table 1] ○ ○ = Place name, facility name, etc. △ △ = Today, tomorrow, Sunday, July 2nd ...

【0029】[0029]

【発明の効果】本発明によれば、音声認識技術を用いる
ことによって、直接ユーザーの知りたい場所の天気情報
を案内できるので、利用者に優しい気象情報案内システ
ムを提供できる。また、テキスト音声合成技術を用いる
ことで、気象情報提供先から送られてきたデータを瞬時
に音声に変換することができ、人間による録音という手
間が省けるのみならず、録音ミスも無くすることができ
るという利点がある。更に、データ通信技術を用いるこ
とにより、最新の気象情報を瞬時に提供することができ
る。従って、本発明によれば省力化、低コスト化が図れ
ると共に、情報更新時間間隔の短縮や装置の無人化、連
続運転、サービス地域の細分化にも適している。尚、シ
ステムの一部を変更することによって、気象情報に限ら
ず他の情報を案内することもできる。
According to the present invention, by using the voice recognition technology, it is possible to directly guide the weather information of the place that the user wants to know, so that it is possible to provide a user-friendly weather information guidance system. In addition, by using the text-to-speech synthesis technology, the data sent from the weather information provider can be instantly converted into voice, which not only saves the human recording but also eliminates recording mistakes. There is an advantage that you can. Furthermore, the latest weather information can be provided instantaneously by using the data communication technology. Therefore, according to the present invention, labor saving and cost reduction can be achieved, and it is also suitable for shortening the information update time interval, unmanned apparatus, continuous operation, and subdivision of service area. By changing a part of the system, not only the weather information but also other information can be guided.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施例の気象情報案内装置の概略構成を示すブ
ロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a weather information guidance device according to an embodiment.

【図2】実施例の処理手順を示す図である。FIG. 2 is a diagram showing a processing procedure of an embodiment.

【図3】連続音声認識の処理手順を示す図である。FIG. 3 is a diagram showing a processing procedure of continuous speech recognition.

【図4】単語音声認識の処理手順を示す図である。FIG. 4 is a diagram showing a processing procedure of word voice recognition.

【符号の説明】[Explanation of symbols]

1 制御部 2 電話回線 3 音声認識部 4 対話管理部 5 音声合成部 6 記憶部 7 データ通信部 8 通信ネットワーク 1 control unit 2 telephone line 3 voice recognition unit 4 dialogue management unit 5 voice synthesis unit 6 storage unit 7 data communication unit 8 communication network

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 ユーザーの自然な発声を認識する連続音
声認識部と、 単語音声を認識する単語音声認識部と、 前記連続音声認識部叉は単語音声認識部による音声認識
結果に基づいて適切な応答文を生成する対話管理部と、 応答文を音声に変換して出力するテキスト音声合成部
と、 気象情報を格納する記憶部と、 気象情報を更新する為に外部との通信を行うデータ通信
部と、 これらの各部分を制御する制御部を有することを特徴と
する気象情報自動案内装置。
1. A continuous voice recognition unit that recognizes a user's natural utterance, a word voice recognition unit that recognizes a word voice, and an appropriate voice recognition unit based on the voice recognition result by the continuous voice recognition unit or the word voice recognition unit. A dialogue management unit that generates response text, a text-to-speech synthesis unit that converts the response text into voice and outputs it, a storage unit that stores weather information, and a data communication that communicates with the outside to update the weather information. An automatic weather information guide device comprising a control section and a control section for controlling each of these sections.
JP4278730A 1992-10-16 1992-10-16 Automatic guidance device for weather information Pending JPH06133039A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4278730A JPH06133039A (en) 1992-10-16 1992-10-16 Automatic guidance device for weather information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4278730A JPH06133039A (en) 1992-10-16 1992-10-16 Automatic guidance device for weather information

Publications (1)

Publication Number Publication Date
JPH06133039A true JPH06133039A (en) 1994-05-13

Family

ID=17601406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4278730A Pending JPH06133039A (en) 1992-10-16 1992-10-16 Automatic guidance device for weather information

Country Status (1)

Country Link
JP (1) JPH06133039A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08298548A (en) * 1995-04-25 1996-11-12 Nec Corp Method and device for automatic response service
JPH11506845A (en) * 1995-09-11 1999-06-15 ダイムラー−ベンツ エーロスペイス アクチエンゲゼルシャフト Automatic control method of one or more devices by voice dialogue or voice command in real-time operation and device for implementing the method
WO2000052913A1 (en) * 1999-03-03 2000-09-08 Sony Corporation Content selection system
JP2002140243A (en) * 2000-10-31 2002-05-17 Arcadia:Kk Network system for processing management device
US7299186B2 (en) 2001-10-02 2007-11-20 Hitachi, Ltd. Speech input system, speech portal server, and speech input terminal

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08298548A (en) * 1995-04-25 1996-11-12 Nec Corp Method and device for automatic response service
JPH11506845A (en) * 1995-09-11 1999-06-15 ダイムラー−ベンツ エーロスペイス アクチエンゲゼルシャフト Automatic control method of one or more devices by voice dialogue or voice command in real-time operation and device for implementing the method
WO2000052913A1 (en) * 1999-03-03 2000-09-08 Sony Corporation Content selection system
US7197455B1 (en) 1999-03-03 2007-03-27 Sony Corporation Content selection system
JP2002140243A (en) * 2000-10-31 2002-05-17 Arcadia:Kk Network system for processing management device
US7299186B2 (en) 2001-10-02 2007-11-20 Hitachi, Ltd. Speech input system, speech portal server, and speech input terminal

Similar Documents

Publication Publication Date Title
US7143033B2 (en) Automatic multi-language phonetic transcribing system
Strik et al. A spoken dialog system for the Dutch public transport information service
US6975986B2 (en) Voice spelling in an audio-only interface
JP2002527829A (en) Automatic inquiry method and system
US20040153322A1 (en) Menu-based, speech actuated system with speak-ahead capability
KR19980070329A (en) Method and system for speaker independent recognition of user defined phrases
JPH07210190A (en) Method and system for voice recognition
CN102693725A (en) Speech recognition dependent on text message content
KR101836430B1 (en) Voice recognition and translation method and, apparatus and server therefor
WO2006083020A1 (en) Audio recognition system for generating response audio by using audio data extracted
JPH10504404A (en) Method and apparatus for speech recognition
US7844459B2 (en) Method for creating a speech database for a target vocabulary in order to train a speech recognition system
US10143027B1 (en) Device selection for routing of communications
WO2000010160A1 (en) Speech recognizing device and method, navigation device, portable telephone, and information processor
JP2003150194A (en) Voice interactive device, input voice optimizing method in the device and input voice optimizing processing program in the device
JPH06133039A (en) Automatic guidance device for weather information
US11172527B2 (en) Routing of communications to a device
JPH09146585A (en) Voice recognition and translation system
EP1116217B1 (en) Voice command navigation of electronic mail reader
US10854196B1 (en) Functional prerequisites and acknowledgments
CA2597826C (en) Method, software and device for uniquely identifying a desired contact in a contacts database based on a single utterance
JP2001014331A (en) Method and device for information processing, and storage medium
JP2003323196A (en) Voice recognition system, voice recognition method, and voice recognition program
Juhár et al. Voice operated information system in Slovak
JPH08110790A (en) Sound recognizing device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20000822