JPH10143187A - Work support system - Google Patents

Work support system

Info

Publication number
JPH10143187A
JPH10143187A JP8294718A JP29471896A JPH10143187A JP H10143187 A JPH10143187 A JP H10143187A JP 8294718 A JP8294718 A JP 8294718A JP 29471896 A JP29471896 A JP 29471896A JP H10143187 A JPH10143187 A JP H10143187A
Authority
JP
Japan
Prior art keywords
user
information
utterance
unit
guidance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8294718A
Other languages
Japanese (ja)
Other versions
JP3489772B2 (en
Inventor
Tetsuya Sakayori
哲也 酒寄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP29471896A priority Critical patent/JP3489772B2/en
Publication of JPH10143187A publication Critical patent/JPH10143187A/en
Application granted granted Critical
Publication of JP3489772B2 publication Critical patent/JP3489772B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide the information, which is truly wanted by a user, in an interactive manner. SOLUTION: To provide the work support information to a user as a guide is a prerequisite for the work support system. The current condition of the user collected by condition collecting means 6 to 10 is recognized by a current condition recognition means. The user's speeches collected by a user speech collecting means 10 are recognized by the means 10 and the related speech with respect to the guiding information obtained by the user is recognized while relating the speech to the prior system speech or the user's speech. Then, based on these recognition results, the information required to support the work being conducted by the user is retrieved from databases 2 and 11, which systematically store and hold, and the retrieved necessary information is provided to a guiding section 13 by a guiding means. Since the required information necessary to support the work being conducted by the user is provided in an interactive manner in accordance with the current condition of the user, the truly necessary information is timely provided to the user.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、調理手順を案内す
るクッキングガイドや運行経路を案内するカーナビゲー
ションシステム等に代表されるような作業支援システム
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a work support system such as a cooking guide for guiding a cooking procedure and a car navigation system for guiding an operation route.

【0002】[0002]

【従来の技術】近年、情報処理技術等の進展を背景とし
て、各種の作業支援システムが研究開発されており、そ
の進歩発展には目覚ましいものがある。このような作業
支援システムとしては、GPS技術の進歩と共に急激に
普及したカーナビゲーション技術を代表として、調理手
順を音声で案内するクッキングガイド等がある。
2. Description of the Related Art In recent years, various work support systems have been researched and developed with the progress of information processing technology and the like, and the progress and development of these systems are remarkable. As such a work support system, there is a cooking guide or the like for guiding a cooking procedure by voice, as represented by a car navigation technology which has rapidly spread with the advancement of GPS technology.

【0003】クッキングガイドの一例は、例えば特開昭
63−201686号公報に開示されている。この公報
には、調理方法及び材料を音声データメモリに格納し、
マイクからの音声入力や押しボタンによるキー入力に基
づく進段命令によって、各料理に関する食材の量と調理
方法とを音声出力するようにした発明が開示されてい
る。例えば、ある料理を指定して食材の量の案内を求め
ると、システムより人数が問い合わされ、これに答える
と必要な食材の量が音声出力される。そして、調理方法
の案内を求めると、調理方法が音声出力される。
An example of a cooking guide is disclosed in, for example, Japanese Patent Application Laid-Open No. 63-201686. In this publication, cooking methods and ingredients are stored in an audio data memory,
There is disclosed an invention in which the amount of food and the cooking method for each dish are output as a sound by an advance command based on a voice input from a microphone or a key input by a push button. For example, when a certain dish is designated and guidance on the amount of ingredients is requested, the system inquires about the number of people, and when this is answered, the required amount of ingredients is output as voice. Then, when a guide for the cooking method is requested, the cooking method is output as voice.

【0004】カーナビゲーションシステムとしては、例
えば次のような例がある。まず、特開昭62−2679
00号公報には、画像表示による経路案内に加え、音声
による経路案内を行うようにした発明が開示されてい
る。これを更に進めたものとして、特開平4−1897
号公報には、車両の速度に応じて音声アナウンスする先
の交差点までの到達時間を算出し、音声アナウンスの読
み終わりから逆算して案内音声の開始タイミングを制御
するようにした発明が開示されている。つまり、この発
明は、先の交差点について音声アナウンスの開始タイミ
ングを的確にすることを目的としている。そして、特開
平7−27569号公報には、進路変更すべき交差点と
その手前の交差点との間の距離に応じて案内音声の出力
タイミングを変えることにより、より的確な経路案内を
することができるようにした発明が開示されている。こ
の発明では、進路変更すべき交差点とその手前の交差点
との間の距離を求め、この距離が所定距離以上の場合に
は所定距離の地点で案内音声を出力し、その距離が所定
距離以下の場合には手前の交差点通過後に案内音声を出
力する。これにより、進路変更すべき交差点の手前の交
差点を進路変更すべき交差点と誤解させてしまうような
ことがなくなる。
As a car navigation system, for example, there is the following example. First, JP-A-62-2679
Patent Document No. 00 discloses an invention in which route guidance by voice is performed in addition to route guidance by image display. As a further advance, Japanese Patent Laid-Open Publication No.
Japanese Patent Application Publication No. JP-A-2002-209555 discloses an invention in which the arrival time to an intersection at which a voice announcement is made is calculated according to the speed of a vehicle, and the start timing of the guidance voice is controlled by calculating backward from the end of reading the voice announcement. I have. That is, an object of the present invention is to accurately start the voice announcement at the preceding intersection. Japanese Unexamined Patent Application Publication No. 7-27569 discloses a more accurate route guidance by changing the output timing of the guidance voice according to the distance between the intersection to be rerouted and the intersection in front of the intersection. The invention as described above is disclosed. According to the present invention, a distance between an intersection to be rerouted and an intersection in front of the intersection is determined, and when the distance is equal to or longer than a predetermined distance, guidance voice is output at a point of a predetermined distance, and the distance is equal to or shorter than a predetermined distance. In this case, a guidance voice is output after passing through the preceding intersection. As a result, the intersection before the intersection to be changed is not mistaken for the intersection to be changed.

【0005】また、株式会社ソニー社製のカーナビゲー
ション用音声認識ユニットNVA−VRIでは、ユーザ
の問い合わせ、例えば、「現在地」、「次は」、「後ど
れくらい」等の問いあわせに応じてシステムが回答を音
声案内する。
[0005] In the car navigation speech recognition unit NVA-VRI manufactured by Sony Corporation, the system responds to user inquiries, for example, inquiries such as "current location", "next", "how long after". Voice guidance.

【0006】[0006]

【発明が解決しようとする課題】何らかの作業中、この
作業に関する情報が必要となった場合、その情報を持っ
ている人がそばにいればその人に尋ねることができ、こ
の場合には作業を極めて効率的に行うことができる。こ
れに対し、必要な情報を持っている人がそばにいなけれ
ばマニュアル等の情報源を検索する必要があり、この場
合には効率的な作業の実行が困難である。これは、必要
な情報を持っている人がそばにいるといないとでは、情
報提供側における現在の状況の把握という点で大きな開
きがあるからである。つまり、作業者の近くにいる人
は、作業者が置かれている状況を共有しているか大体把
握しているので、作業者がどのような情報を要求してい
るかということを容易に理解することができ、このため
速やかに必要な情報を提供することができる。これに対
し、マニュアル等の情報源それ自体は、当然のことなが
ら、作業者が置かれている状況を把握することができな
い。このため、そのような情報源から作業者が必要な情
報を見つけ出すためには、自分の置かれている状況に適
合する記述部分を探すことに多くの労力を割かなければ
ならず、いきおい効率が低下することになる。
If information on this work is required during any work, the person who has the information can be asked if it is nearby. It can be done very efficiently. On the other hand, if there is no person who has the necessary information nearby, it is necessary to search for an information source such as a manual, and in this case, it is difficult to perform an efficient operation. This is because there is a great gap in grasping the current situation on the information providing side unless there is a person who has the necessary information nearby. In other words, those who are close to the worker generally know whether they share the situation in which they are located and can easily understand what information the worker is requesting. Therefore, necessary information can be promptly provided. On the other hand, the information source itself such as a manual cannot naturally grasp the situation where the worker is located. For this reason, in order for workers to find necessary information from such information sources, much effort must be devoted to searching for a description part that fits their situation, which is extremely efficient. Will decrease.

【0007】このようなことを前提に従来の作業支援シ
ステムを考えると、従来の作業支援システムには、作業
者が置かれている状況をシステム自体が認識する種類の
ものはない。このため、作業者が真に必要としている情
報を提供しがたいという問題がある。
[0007] Considering such a premise, a conventional work support system does not include any type of the conventional work support system which recognizes a situation where a worker is placed. For this reason, there is a problem that it is difficult to provide the information that the operator really needs.

【0008】例えば、従来の技術の項目で紹介した各公
報記載の発明について考えると、特開昭63−2016
86号公報記載のクッキングガイドは、ユーザの要求に
応じて単に料理の材料量と調理方法とが案内されるにす
ぎず、調理しているユーザが置かれている状況判断は一
切なされない。このため、例えば、システムの想定と異
なる火力のコンロを使用したための状況変化、聞き間違
い等によるユーザのミスによる状況変化、食材の大きさ
や質のバラツキによる状況変化等が生じた場合、これに
まったく対応することができない。また、実際の調理作
業に際しては、沸騰したら火を止めるというような、何
らかの状況変化が起こったらある行動をするということ
が多々あるが、このようなことにもまったく対応するこ
とができない。さらに、実際の調理作業では、複数の品
を同時に作るとか、肉を煮ながら野菜を切るというよう
に、複数の作業が同時進行するのが一般的である。とこ
ろが、例えば鍋の中身が沸騰する時点と野菜を切り終わ
る時点との順序というような事柄は予め予測できないた
め、このような事柄に対応できるような的確な案内が不
可能である。
For example, considering the inventions described in the respective publications introduced in the section of the prior art, Japanese Patent Laid-Open Publication No. 63-2016
The cooking guide described in Japanese Patent Publication No. 86 merely guides the amount of ingredients for cooking and the cooking method in response to a request from the user, and does not make any judgment on the situation where the cooking user is placed. For this reason, for example, when a situation change due to the use of a stove with a heating power different from the assumption of the system, a situation change due to a user mistake due to a mistake in listening, a situation change due to a variation in the size and quality of foodstuffs, etc. Can't respond. In addition, in actual cooking operations, there are many cases where a certain action such as turning off the fire when boiling occurs, and taking a certain action, but such a situation cannot be dealt with at all. Further, in an actual cooking operation, a plurality of operations generally proceed simultaneously, such as making a plurality of items at the same time or cutting vegetables while boiling the meat. However, since the order of the time when the contents of the pot boils and the time when the vegetables are completely cut cannot be predicted in advance, it is impossible to provide accurate guidance that can cope with such matters.

【0009】特開昭62−267900号公報や特開平
7−27569号公報に開示されたカーナビゲーション
システムも、ユーザが置かれている状況判断を行ってい
ないという点に関しては特開昭63−201686号公
報記載のクッキングガイドと同様である。したがって、
場合によってはユーザに誤認識を生じさせることがあ
る。例えば、特開平7−27569号公報に開示された
発明では、進路変更すべき交差点とその手前の交差点と
の間の距離に応じて案内音声の出力タイミングを変え、
ユーザの誤解をなくすという発想自体は優れたものであ
りながら、渋滞によって進路変更すべき交差点の遥か手
前で音声アナウンスがなされる可能性があり、この場合
にはユーザに誤解を生じさせることがある。つまり、特
開平7−27569号公報記載の発明には、ユーザが置
かれている状況を把握するという思想はない。この点、
特開平4−1897号公報には、車両の速度というユー
ザが置かれている状況の一つを把握している。しかしな
がら、特開平7−27569号公報でも指摘されている
ように、進路変更すべき交差点の手前の交差点に関して
の対応が欠落している。つまり、ユーザが置かれている
状況の把握という点に関し、カーナビゲーションシステ
ムに求められるレベルに達していない。したがって、特
開平4−1897号公報記載の発明も、ユーザが置かれ
ている状況を把握するという思想を備えていないといえ
る。
The car navigation systems disclosed in Japanese Patent Application Laid-Open Nos. 62-267900 and 7-27569 do not judge the situation where the user is located. This is the same as the cooking guide described in Japanese Patent Publication No. Therefore,
In some cases, the user may be erroneously recognized. For example, in the invention disclosed in Japanese Patent Application Laid-Open No. 7-27569, the output timing of the guidance voice is changed according to the distance between the intersection to be rerouted and the intersection in front of the intersection.
Although the idea of eliminating the user's misunderstanding is excellent, there is a possibility that a voice announcement may be made far before an intersection to be changed due to traffic congestion, and this may cause misunderstanding to the user . In other words, the invention described in Japanese Patent Application Laid-Open No. 7-27569 does not have the idea of grasping the situation where the user is located. In this regard,
Japanese Patent Laying-Open No. 4-1897 has grasped one of the situations where a user is placed, that is, the speed of a vehicle. However, as pointed out in Japanese Patent Application Laid-Open No. Hei 7-27569, there is a lack of correspondence with respect to an intersection just before an intersection to be rerouted. That is, the level of grasping the situation where the user is located has not reached the level required for the car navigation system. Therefore, it can be said that the invention described in Japanese Patent Application Laid-Open No. 4-1897 does not have the idea of grasping the situation where the user is located.

【0010】ユーザが置かれた状況をシステムが認識し
ないという点では、先に紹介した株式会社ソニー社製の
カーナビゲーション用音声認識ユニットNVA−VRI
も同様である。つまり、このカーナビゲーション用音声
認識ユニットNVA−VRIは、1回のユーザ発話に対
して1回の音声案内を対応させた一問一答式で音声案内
をする構造であり、文脈把握まではすることができない
ので、音声案内がユーザの意図とずれてしまうという問
題がある。例えば、カーナビゲーション用音声認識ユニ
ットNVA−VRIは、「後どれくらい」というユーザ
発話に対して走行前に設定した目的地までの距離を答え
るような設定となっているのに対し、もしもその質問が
「次はx交差点です」という音声案内の直後の発話であ
れば、x交差点までの距離を答えるのが自然である。
In that the system does not recognize the situation where the user is placed, the car navigation voice recognition unit NVA-VRI manufactured by Sony Corporation introduced above.
The same is true for In other words, the voice recognition unit NVA-VRI for car navigation has a structure in which voice guidance is provided in a one-answer-one-response manner in which one voice guidance is associated with one user utterance, and the context is understood. Since the voice guidance cannot be performed, there is a problem that the voice guidance deviates from the user's intention. For example, the car navigation voice recognition unit NVA-VRI is set to answer the distance to the destination set before traveling in response to the user's utterance "How long after". In the case of the utterance immediately after the voice guidance “Next is the x intersection”, it is natural to answer the distance to the x intersection.

【0011】以上より、ある時点でユーザが真に欲する
情報というのは、ユーザが置かれた状況をシステムが認
識することで始めて可能になり、また、ユーザが置かれ
た状況をシステムが認識するにはユーザとシステムとの
リアルタイムコミュニケーションによる対話が不可欠で
ある、ということが理解できる。そして、ユーザとシス
テムとの対話には、一問一答式ではなく一連の発話を関
連付けて扱うことが必要である。そこで、本発明は、ユ
ーザが真に欲する情報を提供するために、作業中のユー
ザが置かれた状況を把握し、これに適合する情報案内を
対話形式で行うことができる作業支援システムを得るこ
とを目的とする。
As described above, the information that the user really wants at a certain point of time can be obtained only when the system recognizes the situation where the user is placed, and the system recognizes the situation where the user is placed. It is understandable that real-time communication between the user and the system is indispensable. In addition, it is necessary for the dialogue between the user and the system to handle a series of utterances, not a question-and-answer system. In view of the above, the present invention provides a work support system capable of grasping a situation where a user who is working is placed and providing an information guide suitable for the situation in an interactive manner in order to provide information that the user really wants. The purpose is to:

【0012】[0012]

【課題を解決するための手段】請求項1記載の作業支援
システムは、所定の作業を実行しているユーザに対して
その作業を支援する情報を案内する作業支援システムに
おいて、所定の作業を実行しているユーザに対してその
作業を支援する情報を案内する作業支援システムにおい
て、ユーザが置かれている現在の状態をユーザ発話以外
の情報源から収集して電気信号に変換し出力する状況収
集手段と、状況収集手段の出力信号に基づいてユーザが
置かれている現在の状態を認識する現状認識手段と、ユ
ーザ発話を収集して電気信号に変換し出力するユーザ発
話収集手段と、ユーザ発話収集手段の出力信号に基づい
てユーザ発話を認識し、ユーザが行った案内情報に対す
る関連発話をそれ以前のシステム発話又はユーザ発話と
関連付けて認識するユーザ発話認識手段と、ユーザの作
業を支援する情報を体系的に記憶保持するデータベース
と、現状認識手段及びユーザ発話認識手段の認識結果に
応じてユーザが行っている作業の支援に必要な情報をデ
ータベースから検索する情報検索手段と、情報検索手段
によって検索された必要な情報を案内部に案内させる案
内手段とを備える。ここで、「関連発話」というのは、
案内情報に対するユーザの質問、問い返し、関連情報要
求等の案内情報に関連するユーザ発話を意味する。
According to a first aspect of the present invention, there is provided a work support system for performing a predetermined work in a work support system for guiding a user who is performing a predetermined work to information for supporting the work. In a work support system that guides information to a user who supports the work, the current state in which the user is located is collected from an information source other than the user's utterance, converted into an electric signal, and output. Means, current state recognizing means for recognizing a current state where the user is placed based on an output signal of the situation collecting means, user utterance collecting means for collecting user utterances, converting them into electric signals, and outputting the same, and user utterances Recognize the user's utterance based on the output signal of the collecting means, and recognize the related utterance for the guidance information performed by the user in association with the previous system utterance or the user's utterance. A user utterance recognizing means, a database for systematically storing and holding information supporting the user's work, and information necessary for supporting the work performed by the user according to the recognition results of the current state recognizing means and the user utterance recognizing means. The information processing apparatus includes an information search unit that searches from a database, and a guide unit that guides necessary information searched by the information search unit to a guide unit. Here, “related utterance” means
It means a user's utterance related to the guide information such as a user's question or return to the guide information, a request for related information, or the like.

【0013】したがって、状況収集手段の出力信号に基
づき現状認識手段が認識するユーザが置かれている現在
の状態、及び、ユーザ発話収集手段の出力信号に基づき
ユーザ発話認識手段が以前のシステム発話又はユーザ発
話と関連付けて認識するユーザが行った案内情報に対す
る関連発話に応じ、情報検索手段によってユーザが行っ
ている作業の支援に必要な情報がデータベースから検索
され、これが案内手段の命令によって案内部に案内され
る。これにより、ユーザが必要とする情報が対話形式で
検索されて的確に案内されることになる。
Therefore, based on the output signal of the situation collecting means, the current state in which the user recognized by the current state recognizing means is located, and based on the output signal of the user utterance collecting means, the user utterance recognizing means sets the previous system utterance or According to the related utterance to the guide information performed by the user in association with the user's utterance, information necessary for supporting the work performed by the user is searched from the database by the information search means. You will be guided. As a result, information required by the user is retrieved in an interactive manner and guided appropriately.

【0014】ここで、請求項1記載の作業支援システム
において、ユーザ発話認識手段によるデータベースから
の支援情報の検索は、例えば、直前のシステム発話に含
まれる単語及びその同義異音語をユーザ発話の認識候補
として行われる(請求項2)。この場合、ユーザ発話認
識手段は、直前のシステム発話に含まれる単語の優先順
位をその同義異音語よりも高くし、同義異音語中に以前
出現したユーザ発話が含まれている場合にはその同義異
音語の優先順位を引き上げる、というようなことを行う
(請求項3)。
Here, in the work support system according to the first aspect of the present invention, the search of the support information from the database by the user utterance recognizing means includes, for example, extracting a word contained in the immediately preceding system utterance and its synonymous word into the user utterance. It is performed as a recognition candidate (claim 2). In this case, the user utterance recognition means sets the priority of the word included in the immediately preceding system utterance higher than that of the synonymous word, and if the synonymous word includes a user utterance that has appeared previously, The priority of the synonyms is raised (claim 3).

【0015】また、請求項1記載の作業支援システムに
おいて、ユーザ発話認識手段は、ユーザの注意対象が現
在の案内情報にあるかどうかを推察し、ユーザの注意対
象が現在の案内情報から移ったと判断した場合は、以前
の案内情報の再要求に対する準備を行う(請求項4)。
これにより、ユーザの注意対象が現在の案内情報から移
った場合のユーザの自然な行動パターンに沿った案内が
行われる。ここで、ユーザの注意対象が現在の案内情報
から移ったかどうかの推察は、例えば、ユーザ発話認識
手段が認識したユーザの関連発話に対して情報検索手段
がその回答となる情報を検索したかどうか(請求項
5)、あるいは、案内手段によって情報が案内部から案
内された後一定時間経過後、現状認識手段及びユーザ発
話認識手段の認識結果から作業の十分な進行が認識でき
るかどうか(請求項6)、に基づいて行われる。つま
り、ユーザ発話認識手段が認識したユーザの関連発話に
対して情報検索手段がその回答となる情報を検索した場
合、ユーザの注意対象が現在の案内情報から移ったと判
断し、直前のユーザ関連発話の対象とならなかった項目
の優先順位を引き上げる(請求項5)。また、案内手段
によって情報が案内部から案内された後一定時間経過
後、現状認識手段及びユーザ発話認識手段の認識結果か
ら作業の十分な進行が認識できない場合、ユーザの注意
対象が現在の案内情報から移ったと判断し、直前のユー
ザ関連発話の対象とならなかった項目の優先順位を引き
上げる(請求項6)。
Further, in the work support system according to the first aspect, the user utterance recognizing means estimates whether or not the user's attention target is in the current guidance information, and determines that the user's attention target has shifted from the current guidance information. When it is determined, preparations are made for a previous request for guidance information (claim 4).
As a result, guidance is performed according to the user's natural behavior pattern when the user's attention target is shifted from the current guidance information. Here, it is inferred whether or not the user's attention target has shifted from the current guidance information, for example, whether the information search unit has searched for information that is the answer to the relevant utterance of the user recognized by the user utterance recognition unit. (Claim 5) Alternatively, after a lapse of a predetermined time after the information is guided from the guidance section by the guidance means, whether or not a sufficient progress of the work can be recognized from the recognition results of the current state recognition means and the user utterance recognition means. 6). In other words, when the information search unit searches for information that is the answer to the user's related utterance recognized by the user utterance recognition unit, it is determined that the user's attention has shifted from the current guide information, and the immediately preceding user-related utterance The priority of an item that has not been targeted is raised (claim 5). In addition, after a certain period of time has passed since the information was guided from the guidance unit by the guidance means, if the progress of the work cannot be recognized from the recognition results of the current state recognition means and the user utterance recognition means, the attention target of the user is the current guidance information. , And raises the priority of an item that was not the target of the immediately preceding user-related utterance (claim 6).

【0016】また、請求項1記載の作業支援システムに
おいて、案内手段は、案内部に案内させる案内情報に優
先順位を設け、ユーザの情報要求発話に応じて案内情報
を案内部に順次案内させる(請求項7)。これにより、
優先順位が低い案内情報は、ユーザの情報要求発話があ
った場合にのみ案内される。この場合、調理作業を支援
対象とする作業支援システムとして構成した場合、案内
手段は、例えば、必須確定的情報を案内部に案内させ、
ユーザの情報要求発話に応じて参照的情報を案内部に案
内させる(請求項8)。ここで、「必須確定的情報」と
いうのは、ある材料をどのように処理するというような
知識や好み等によらない調理作業の支援に必須の情報を
意味する。また、「参照的情報」というのは、調理作業
の支援に必ずしも必要ではないかもしれないような参照
的な情報を意味する。また、乗り物の運転作業を支援対
象とする作業支援システムとして構成した場合、案内手
段は、例えば、緊急必要情報を案内部に案内させ、ユー
ザの情報要求発話に応じて付加的情報を案内部に案内さ
せる(請求項9)。ここで、「緊急必要情報」というの
は、方向や距離等の運転作業の支援に必ず要求される必
須の情報を意味する。また、「付加的情報」というの
は、交差点名やランドマーク等の運転作業の支援に必ず
しも必要ではないかもしれないような付加的な情報を意
味する。
In the work support system according to the first aspect, the guide means sets a priority order for the guide information to be guided by the guide unit, and guides the guide information to the guide unit sequentially according to the information request utterance of the user ( Claim 7). This allows
Guidance information with a low priority is provided only when there is an information request utterance of the user. In this case, when configured as a work support system that supports the cooking work, the guide unit, for example, guides the guide unit to the essential definite information,
The guide unit guides the reference information in response to the user's information request utterance (claim 8). Here, the “essentially definitive information” means information that is essential for supporting a cooking operation irrespective of knowledge or preference such as how to process a certain material. The “reference information” refers to reference information that may not be necessary for supporting the cooking operation. Further, when the vehicle is configured as a work support system for supporting a driving operation of a vehicle, for example, the guide unit guides the urgent necessary information to the guide unit, and additional information to the guide unit according to the information request utterance of the user. Guide (claim 9). Here, the “emergency necessary information” means essential information that is always required for supporting driving operation such as a direction and a distance. Further, “additional information” means additional information that may not be necessary for supporting driving work such as an intersection name or a landmark.

【0017】さらに、請求項1記載の作業支援システム
において、ユーザ発話認識手段は、現状認識手段の認識
結果に基づいてユーザ発話に含まれる照応や省略の意味
的解決を図る(請求項10)。したがって、ユーザ発話
に含まれる照応や省略の意味がより高精度に認識され
る。この場合、乗り物の運転作業を支援対象とする作業
支援システムとして構成した場合、現状認識手段の認識
結果として、例えば、現在位置情報が用いられる(請求
項11)。
Further, in the work support system according to the first aspect, the user utterance recognizing means seeks semantic resolution of anaphora and omission included in the user utterance based on the recognition result of the current state recognizing means (claim 10). Therefore, the meaning of anaphor and omission included in the user utterance are recognized with higher accuracy. In this case, when configured as a work support system that supports the driving work of the vehicle, for example, current position information is used as a recognition result of the current state recognition means (claim 11).

【0018】[0018]

【発明の実施の形態】本発明の第一の実施の形態を図1
ないし図6に基づいて説明する。本実施の形態は、料理
ナビゲーションシステムへの適用例である。
FIG. 1 shows a first embodiment of the present invention.
This will be described with reference to FIG. This embodiment is an example of application to a dish navigation system.

【0019】図1は、料理ナビケーションシステムの概
要を示す模式図である。このシステムは、各部を集中的
に制御し、各部の間の情報のやり取りに際して中心的な
役割を担う対話管理部1を基本とし、この対話管理部1
にデータベースとしての料理知識データベース2と、各
種情報を一時記憶する発話記憶部3と、各種情報の入出
力部とが接続されて構成されている。
FIG. 1 is a schematic diagram showing an outline of a cooking navigation system. This system is based on a dialog management unit 1 that centrally controls each unit and plays a central role in exchanging information between the units.
The database includes a cooking knowledge database 2 as a database, an utterance storage unit 3 for temporarily storing various information, and an input / output unit for various information.

【0020】対話管理部1に接続されている入力部とし
ては、状況認識部4と音声認識部5とが設けられてい
る。状況認識部4は、状況収集手段としての温度センサ
6、ガスセンサ7、重量センサ8、及びタイマ9から収
集されて電気的信号の形態で出力された各種の情報を対
話管理部1に送信する。温度センサ6は調理器具内やそ
の周辺の温度を計測するセンサであり、ガスセンサ7は
使用されるガスの流量や流速を計測するセンサであり、
重量センサ8は重量計測用のキッチン秤に内蔵された重
量測定用のセンサや調理中の材料の重量を測定するセン
サであり、タイマ8は時間を計測するキッチンタイマで
ある。したがって、温度センサ6、ガスセンサ7、重量
センサ8、及びタイマ9は、調理対象物の物理的又は化
学的変化を感知するセンサとして機能する。また、音声
認識部5は、状況収集手段及びユーザ発話収集手段とし
て機能する複数本のマイクロフォン10が取り込んで電
気的信号の形態で出力された音声情報をデータベースと
しての音声言語データベース11に格納された情報に基
づいて解析し、その結果を対話管理部1に送信する。状
況収集手段として機能するマイクロフォン10は、調理
作業がなされる位置や鍋釜等の調理用具が使用される位
置等、キッチン内のあるゆる位置に設置されて調理に伴
い発生する音を拾う。また、ユーザ発話収集手段として
機能するマイクロフォン10は、ユーザの近傍に設置さ
れ、調理作業中のユーザの発話を拾う。
As input units connected to the dialog management unit 1, a situation recognition unit 4 and a voice recognition unit 5 are provided. The situation recognizing unit 4 transmits various information collected from the temperature sensor 6, the gas sensor 7, the weight sensor 8, and the timer 9 as the situation collecting means and output in the form of an electric signal to the dialog managing unit 1. The temperature sensor 6 is a sensor that measures the temperature in and around the cooking utensil, and the gas sensor 7 is a sensor that measures the flow rate and the flow velocity of the gas used.
The weight sensor 8 is a sensor for measuring weight incorporated in a kitchen scale for measuring weight or a sensor for measuring the weight of a material being cooked, and the timer 8 is a kitchen timer for measuring time. Therefore, the temperature sensor 6, the gas sensor 7, the weight sensor 8, and the timer 9 function as sensors for sensing a physical or chemical change of the object to be cooked. Further, the voice recognition unit 5 stores voice information which is taken in by a plurality of microphones 10 functioning as situation collecting means and user utterance collecting means and output in the form of electric signals in a voice language database 11 as a database. Analysis is performed based on the information, and the result is transmitted to the dialog management unit 1. The microphone 10 functioning as a situation collecting unit is installed at any position in the kitchen, such as a position where a cooking operation is performed or a position where a cooking tool such as a pot is used, and picks up a sound generated during cooking. In addition, the microphone 10 functioning as a user utterance collecting unit is installed near the user, and picks up the user's utterance during the cooking operation.

【0021】対話管理部1に接続されている出力部とし
ては、音声合成部12が設けられている。この音声合成
部12は、対話管理部1の制御の下、音声言語データベ
ース11に格納された情報に基づいて必要な音声情報を
生成し、この音声情報を案内部としてのスピーカ13か
ら出力する。
As an output unit connected to the dialog management unit 1, a speech synthesis unit 12 is provided. The speech synthesis unit 12 generates necessary speech information based on information stored in the speech language database 11 under the control of the dialog management unit 1, and outputs the speech information from a speaker 13 as a guide unit.

【0022】図2は、各部の電気的接続を示すブロック
図である。図1は、本実施の形態の料理ナビケーション
システムの概要を模式的に示した図であり、実際には、
図2に示すブロック図のように各部が構成されている。
つまり、各種の演算処理を実行して各部を集中的に処理
するCPU14のROM15及びRAM16からなる記
憶装置がバスライン17を介して接続され、これが対話
管理部1を構成する主要な構成要素となっている。発話
記憶部3のためには、RAM16内のレジスト領域が利
用されている。また、状況収集手段としての温度センサ
6、ガスセンサ7、重量センサ8、及びタイマ9という
センサ類、並びに、状況収集手段及びユーザ発話認識手
段としてのマイクロフォン10は、A/Dコンバータ1
8を介してバスライン17に接続され、案内部としての
スピーカ13は、D/Aコンバータ19を介してバスラ
イン17に接続され、これらの各部はCPU14に統括
的に制御される。ここで、A/Dコンバータ18は多チ
ャンネル構成であり、そのうちの数チャンネルはマイク
ロフォン10からの入力音響や入力音声、他のチャンネ
ルは温度センサ6、ガスセンサ7、重量センサ8、及び
タイマ9というセンサ類からの収集情報をそれぞれ処理
し、状況認識部4及び音声認識部5にそれぞれ出力す
る。また、D/Aコンバータ19は、音声合成部12か
らの出力波形をスピーカ13を駆動するのに適した信号
に変換する。そして、CPU14に接続されたバスライ
ン17には、CD−ROMドライブ20が接続されてお
り、このCD−ROMドライブ20によってCD−RO
Mの内容が読み取られる。CD−ROMには、料理知識
データベース2及び音声言語データベース11が格納さ
れている。
FIG. 2 is a block diagram showing the electrical connection of each part. FIG. 1 is a diagram schematically illustrating an outline of a cooking navigation system according to the present embodiment.
Each unit is configured as shown in the block diagram of FIG.
That is, a storage device including the ROM 15 and the RAM 16 of the CPU 14 that executes various arithmetic processes and processes each unit intensively is connected via the bus line 17, and this is a main constituent element of the dialog management unit 1. ing. For the utterance storage unit 3, a resist area in the RAM 16 is used. In addition, sensors such as a temperature sensor 6, a gas sensor 7, a weight sensor 8, and a timer 9 as a situation collecting means, and a microphone 10 as a situation collecting means and a user utterance recognizing means include an A / D converter 1
The speaker 13 serving as a guide unit is connected to the bus line 17 via a D / A converter 19, and these units are collectively controlled by a CPU 14. Here, the A / D converter 18 has a multi-channel configuration, of which several channels are input sound or input voice from the microphone 10, and other channels are sensors such as a temperature sensor 6, a gas sensor 7, a weight sensor 8, and a timer 9. The collected information from each class is processed and output to the situation recognition unit 4 and the voice recognition unit 5, respectively. Further, the D / A converter 19 converts an output waveform from the voice synthesis unit 12 into a signal suitable for driving the speaker 13. A CD-ROM drive 20 is connected to the bus line 17 connected to the CPU 14, and the CD-ROM drive 20
The contents of M are read. The CD-ROM stores a cooking knowledge database 2 and a speech language database 11.

【0023】図3は、料理知識データベース2に格納さ
れた料理知識のデータ構造を示す模式図である。図3に
示すように、料理知識データベース2には、各料理毎
に、調理手順、調理対象物、その処理法、その数量、処
理の程度、及び終了条件が対応付けられて記憶保持され
ている。つまり、料理知識データベース2には、ユーザ
の調理作業を支援するための情報が体系的に記憶保持さ
れている。
FIG. 3 is a schematic diagram showing a data structure of cooking knowledge stored in the cooking knowledge database 2. As shown in FIG. 3, the cooking knowledge database 2 stores, for each dish, a cooking procedure, a cooking object, a processing method, a quantity thereof, a processing degree, and an end condition in association with each other. . That is, the cooking knowledge database 2 systematically stores and holds information for assisting the cooking operation of the user.

【0024】ここで、ROM15やCD−ROMドライ
ブ20によって内容が読み取られるCD−ROMには、
動作プログラムが固定的に格納されており、この動作プ
ログラムに従ったCPU14の統括制御機能、つまりマ
イコン機能によって各種の機能が実行される。こうして
実行される機能の一つには、対話管理部1の統括制御の
下に状況認識部4及び音声認識部5が果たす機能があ
る。この機能は、概略的には、状況収集手段としての温
度センサ6、ガスセンサ7、重量センサ8、タイマ9、
及びマイクロフォン10の一部が収集してA/Dコンバ
ータ18より出力された信号に基づき、ユーザが置かれ
ている現在の状況を認識するという現状認識手段として
の機能である。このような現状認識機能のうち、マイク
ロフォン10が拾った音声に基づき実行される現状認識
機能は、音声認識部5における既存の音声認識技術に基
づいて行われる。既存の音声認識技術としては、例え
ば、情報処理学会・音声言語情報処理研究会資料「文テ
ンプレートによる発話文認識」(望主雅子、室井哲也、
1995,7)や、日本音響学会誌48巻1号26ペー
ジから32ページの「数理統計モデルによる音声認識の
現状と将来」に記述されたもの等がある。
Here, a CD-ROM whose contents are read by the ROM 15 or the CD-ROM drive 20 includes:
An operation program is fixedly stored, and various functions are executed by a general control function of the CPU 14 according to the operation program, that is, a microcomputer function. One of the functions executed in this way is a function performed by the situation recognition unit 4 and the voice recognition unit 5 under the overall control of the dialog management unit 1. This function is roughly described as a temperature sensor 6, a gas sensor 7, a weight sensor 8, a timer 9,
And a function as current state recognition means for recognizing the current situation where the user is located based on a signal collected by a part of the microphone 10 and output from the A / D converter 18. Among the current state recognition functions, the current state recognition function executed based on the voice picked up by the microphone 10 is performed based on the existing voice recognition technology in the voice recognition unit 5. Examples of existing speech recognition technologies include, for example, "Speech Recognition Using Sentence Templates" by the Information Processing Society of Japan / Spoken Language Information Processing Study Group (Masako Mochizuki, Tetsuya Muroi,
1995, 7) and "The Present and Future of Speech Recognition by Mathematical Statistical Models" on pages 26 to 32 of the Acoustical Society of Japan, Vol. 48, No. 1, etc.

【0025】マイコン機能によって実行される他の機能
には、対話管理部1の統括制御の下に音声認識部5が果
たす機能がある。この機能は、概略的には、ユーザ発話
収集手段として使用される一部のマイクロフォン10が
収集してA/Dコンバータ18より出力された信号に基
づき、案内情報に対してユーザが行った関連発話をそれ
以前のシステム発話又はユーザ発話と関連付けて認識す
るユーザ発話認識手段としての機能である。ここで、
「関連発話」というのは、案内情報に対してユーザが行
った質問、問い返し、関連情報要求等を意味する。ま
た、「システム発話」というのは、本実施の形態の料理
ナビゲーションシステムによる音声アナウンスを意味
し、「ユーザ発話」というのは、ユーザの発話を意味す
る。このようなユーザ発話認識機能は、音声認識部5に
おける既存の音声認識技術に基づいて行われる。既存の
音声認識技術としては、例えば、情報処理学会・音声言
語情報処理研究会資料「文テンプレートによる発話文認
識」(望主雅子、室井哲也、1995,7)や、日本音
響学会誌48巻1号26ページから32ページの「数理
統計モデルによる音声認識の現状と将来」に記述された
もの等がある。
Other functions performed by the microcomputer function include a function performed by the voice recognition unit 5 under the overall control of the dialog management unit 1. This function is generally based on a signal collected by some of the microphones 10 used as a user utterance collecting means and output from the A / D converter 18, and a related utterance performed by the user on the guidance information. Is a function as a user utterance recognizing means for recognizing in association with a previous system utterance or a user utterance. here,
The term “related utterance” means a question, a question returned, or a related information request made by the user to the guidance information. Further, “system utterance” means a voice announcement by the dish navigation system of the present embodiment, and “user utterance” means a user utterance. Such a user utterance recognition function is performed based on the existing voice recognition technology in the voice recognition unit 5. Examples of the existing speech recognition technology include, for example, "Speech Recognition Using Sentence Templates" by the Information Processing Society of Japan and Spoken Language Information Processing Study Group (Masako Mochizumi, Tetsuya Muroi, 1995, 7), Journal of the ASJ 48, 1 No. 26 to page 32, “Present and Future of Speech Recognition by Mathematical Statistical Model”.

【0026】マイコン機能によって実行されるさらに他
の機能としては、情報検索機能及び案内機能がある。情
報検索機能は、ユーザが行っている作業の支援に必要な
情報を料理知識データベース2から検索するという情報
検索手段としての機能である。情報検索機能における料
理知識データベース2及び音声言語データベース11か
らの情報検索は、料理知識データベース2の体系に従っ
て行われ、この場合、現状認識手段の認識結果に応じて
情報検索される場合もある。料理知識データベース2の
体系というのは、ある料理に関するある調理手順毎に対
応付けられた調理対象物、その数量、その処理法、処理
の程度、及び終了条件である。調理手順は、一連の作業
を人間が一度に把握するのに適当な作業単位毎に分割さ
れている。したがって、情報検索手段による情報検索
も、そのような作業単位に分割されて行われる。次に、
案内機能は、情報検索手段によって検索された必要な情
報をスピーカ13によって音声アナウンスするという案
内手段としての機能である。スピーカ13による音声ア
ナウンスは、音声言語データベース11に格納されたデ
ータに基づき音声合成部12がテンプレートを利用して
その音声を音声合成をすることよってなされる。このよ
うな処理には既存の音声合成技術が利用される。既存の
音声合成技術としては、例えば、日本音響学会誌48巻
1号39ページから45ページの「音声合成の研究の現
状と将来」に記述されたもの等がある。
Still other functions executed by the microcomputer function include an information search function and a guidance function. The information search function is a function as an information search means for searching the cooking knowledge database 2 for information necessary for supporting the work performed by the user. Information retrieval from the cooking knowledge database 2 and the speech language database 11 in the information retrieval function is performed according to the system of the cooking knowledge database 2, and in this case, information retrieval may be performed according to the recognition result of the current state recognition means. The system of the cooking knowledge database 2 is a cooking object associated with each cooking procedure for a certain cooking, its quantity, its processing method, degree of processing, and termination conditions. The cooking procedure is divided into work units suitable for human beings to grasp a series of work at a time. Therefore, the information search by the information search means is also performed by being divided into such work units. next,
The guidance function is a function as a guidance unit that announces necessary information retrieved by the information retrieval unit by voice using the speaker 13. The voice announcement by the speaker 13 is performed by the voice synthesizer 12 using the template to synthesize the voice based on the data stored in the voice language database 11. Existing speech synthesis technology is used for such processing. As the existing speech synthesis technology, there is, for example, a technology described in “Current State and Future of Research on Speech Synthesis” on page 39 to 45 of The Acoustical Society of Japan, Vol.

【0027】ここで、本実施の形態の料理ナビゲーショ
ンシステムによる作業支援処理について説明する。この
作業支援処理は、概略的には、各料理毎に調理対象物と
その処理法とを案内し、この際にユーザが現在置かれて
いる状態を参照してユーザとの対話形式で次の処理を決
定し実行する、というものである。ここで、カレーを調
理する場合を例に挙げると、「玉葱を切って下さい」と
いうような案内を音声アナウンスし、これに対する「玉
葱を何個切るのですか」や「玉葱をどうやって切るので
すか」というようなユーザからの関連発話に答えつつ、
この際、例えば無音が10秒以上続いたというようなユ
ーザの現状を検出し、この場合には玉葱2個の微塵切り
という処理が終了したと判断して次の手順を音声アナウ
ンスする、というような作業支援が行われる。そこで、
実際の処理を図4及び図5のフローチャートに基づいて
次に説明する。
Here, work support processing by the dish navigation system of the present embodiment will be described. The work support process generally provides guidance on a cooking object and a processing method for each dish, and at this time, refers to a state in which the user is currently located and interactively interacts with the user in the following manner. That is, the process is determined and executed. Here, for example, in the case of cooking curry, a voice announcement such as "Please cut onion" is given, and "How many pieces of onion are cut" or "How to cut onion" While responding to related utterances from users, such as
At this time, for example, the current state of the user such as silence lasting for 10 seconds or more is detected. In this case, it is determined that the process of cutting the onion into two fine pieces has been completed, and the next procedure is announced by voice. Work support is provided. Therefore,
The actual processing will be described next with reference to the flowcharts of FIGS.

【0028】図4は、作業支援処理の概要を示すフロー
チャートである。作業支援処理としては、始めに、作業
内容の検索が行われる(ステップS1)。この処理は、
ユーザによる料理名の宣言、ある料理における特定の手
順の終了による次の処理の検索等によってなされる。ユ
ーザによる料理名の宣言は、マイクロフォン10によっ
て取り込まれたユーザの発話が音声認識技術によって認
識されて行われる。
FIG. 4 is a flowchart showing an outline of the work support processing. As the work support processing, first, a search for work contents is performed (step S1). This process
This is done by the user declaring the name of the dish, or searching for the next process after the end of a specific procedure for a certain dish. The declaration of the dish name by the user is performed by recognizing the utterance of the user captured by the microphone 10 by the voice recognition technology.

【0029】作業内容が検索されると、作業内容がある
かどうかが判断される(ステップS2)。これは、料理
知識データベース2に該当する料理の項目があるかどう
か、また、ある料理におけるすべての手順がまだ終了し
ていないかどうかをの判定によって行われる。例えば、
「カレー」と宣言された場合、カレーの項目が料理知識
データベース2にあるのでステップS2では作業内容あ
りと判断されるのに対し、料理知識データベース2にト
ムヤンクンという項目がない場合、「トムヤンクン」と
いう料理名が宣言されるとステップS2では作業内容な
しと判断される。同様に、料理知識データベース2に格
納されたカレーの調理手順が1〜30とすると、手順3
0の終了後は、ステップS2で作業内容なしと判断され
る。作業内容がない場合には、他のモジュールに終了通
知を送り(ステップS3)、処理を終了する。
When the work content is searched, it is determined whether there is any work content (step S2). This is performed by determining whether or not there is a corresponding dish item in the cooking knowledge database 2 and whether or not all procedures for a certain dish have not been completed yet. For example,
If "curry" is declared, since the item of curry is in the cooking knowledge database 2, it is determined in step S2 that there is work content. On the other hand, if there is no item in the cooking knowledge database 2 called "tom curly", it is called "tom curly". When the dish name is declared, it is determined in step S2 that there is no work content. Similarly, assuming that curry cooking procedures stored in the cooking knowledge database 2 are 1 to 30, procedure 3
After the completion of 0, it is determined in step S2 that there is no work content. If there is no work content, an end notification is sent to another module (step S3), and the process ends.

【0030】ステップS2で作業内容ありと判断される
と、トリガ条件が設定される(ステップS4)。例え
ば、作業内容がカレーの手順3の場合、料理知識データ
ベース2におけるデータ構造中の終了条件は「報告=飴
色」又は「重量=1/2」なので、これがトリガ条件と
して設定される。その他にも、「報告=終わりました」
とか、「報告=次は」等の作業の終了を表すユーザ発話
やそれらの同義異音語もトリガ条件として設定される。
設定は、RAM16のワークエリアが利用されて行われ
る。ここで、「重量=1/2」は現状認識手段によって
認識され、「報告=飴色」、「報告=終わりました」、
「報告=次は」等のユーザ発話は発話認識手段によって
認識される。発話認識手段におけるユーザ発話の認識
は、音声認識部5が認識文テンプレート、例えば「〈対
象〉〈色〉」、「〈終了語〉」というような認識文テン
プレートの各項目(対象、色、終了語等)に、音声言語
データベース11から検索した具体的な単語をあてはめ
て行う音声認識処理である。
If it is determined in step S2 that there is work content, a trigger condition is set (step S4). For example, when the work content is curry procedure 3, the end condition in the data structure in the cooking knowledge database 2 is “report = amber” or “weight = 1 /”, so this is set as a trigger condition. In addition, "Report = finished"
For example, a user utterance indicating the end of a task such as “report = next” and synonyms thereof are set as trigger conditions.
The setting is performed using a work area of the RAM 16. Here, "weight = 1/2" is recognized by the current status recognition means, "report = amber", "report = finished",
User utterances such as "report = next" are recognized by the utterance recognition means. In the recognition of the user utterance by the utterance recognition means, the voice recognition unit 5 recognizes each item (target, color, end) of the recognition sentence template such as “<target><color>” and “<end word>”. This is a speech recognition process performed by applying a specific word retrieved from the speech language database 11 to the word or the like.

【0031】次いで、ステップS1で検索された作業内
容が情報検索手段に検索されて案内手段により案内出力
される(ステップS5)。これは、まず、対話管理部1
が料理知識データベース2を検索して案内情報を見出
し、これを発話記憶部3に書き込み、音声合成部12に
割り込みをかけることによりなされる。これにより、音
声合成部12は、発話記憶部3に書き込まれた案内情報
から発話文テンプレートを用いて発話文を作成し、これ
を合成音声してスピーカ13から出力する。例えば、作
業内容がカレーの手順3の場合、調理対象「玉葱」、数
量「2」、処理「炒める」、処理程度「中火」というデ
ータ構造をしているので、音声合成部12では、このデ
ータ構造と「〈対象〉〈処理〉」という発話文テンプレ
ートに基づいて、「〈対象〉=玉葱、〈処理〉=切る」
という音声を合成する。その結果、「玉葱を切って下さ
い」という音声アナウンスがスピーカ13より案内され
ることになる。ここで、調理対象「玉葱」、数量
「2」、処理「炒める」、処理程度「中火」というデー
タ構造中から調理対象「玉葱」及び処理「炒める」とい
う言葉だけが選択されるのは、それらが知識や好みに左
右されない必須確定的情報である反面、数量「2」及び
処理程度「中火」というのは知識や好みに左右される参
照的情報であり、必ずしも案内する必要がない場合を考
慮したためである。
Next, the work content searched in step S1 is searched by the information search means, and the guidance is output by the guide means (step S5). First, the dialogue management unit 1
Is performed by searching the cooking knowledge database 2 to find guidance information, writing this in the utterance storage unit 3, and interrupting the speech synthesis unit 12. Thereby, the speech synthesis unit 12 creates an utterance sentence from the guidance information written in the utterance storage unit 3 using the utterance sentence template, synthesizes the utterance sentence, and outputs it from the speaker 13. For example, when the work content is curry procedure 3, the data structure has a data structure of “onion” to be cooked, quantity “2”, processing “fried”, and processing degree “medium heat”. Based on the data structure and the utterance template “<target><process>”,“<target> = onion, <process> = cut”
Is synthesized. As a result, a voice announcement “Please cut the onion” is given from the speaker 13. Here, from the data structure of the cooking object "onion", the quantity "2", the processing "fried", and the processing degree "medium heat", only the words of the cooking object "onion" and the processing "fried" are selected. While these are essential and definitive information that is not affected by knowledge or taste, the quantity “2” and the processing level “medium heat” are reference information that is influenced by knowledge or taste, and it is not necessary to provide guidance. Is considered.

【0032】作業内容の案内出力(ステップS5)後、
対話管理部1より発話記憶部3に予測質問が出力される
(ステップS6)。予測質問は、「玉葱を切って下さ
い」という音声アナウンス後に予測される質問であり、
例えば、「〈対象〉は〈量〉〈疑問〉」や「〈程度〉
〈処理〉〈疑問〉」というような認識文テンプレートの
形で出力される。音声認識部5は、認識文テンプレート
中の各項目に音声言語データベース11から具体的な単
語をあてはめて音声認識処理を行う。音声認識部5が質
問を認識した場合、例えば、「〈対象〉は〈量〉〈疑
問〉」という認識テンプレートにあてはまる「玉葱は何
個ですか」という質問を認識すると、対話管理部に割り
込みがかかり(ステップS7)、対話管理部1が料理知
識データベース2を検索してその回答を発話記憶部3に
出力し、これを音声合成部12が「〈対象〉は〈量〉
〈単位〉です」というテンプレートを使用して音声合成
し、スピーカ13より「玉葱は2個です」という案内を
出力する(ステップS5)。つまり、最初に音声アナウ
ンスされた必須確定的情報に対して参照的情報が音声ア
ナウンスされ、ここにシステムとユーザとの対話がなさ
れる。つまり、ステップS5からステップS7において
は、ステップS4において設定されたトリガ条件が検出
されるまで(ステップS8)、システム発話(案内)、
ユーザ発話(関連発話)、システム発話(回答)という
対話が繰り返される。
After the guidance output of the work content (step S5),
The conversation management unit 1 outputs a predicted question to the utterance storage unit 3 (step S6). The prediction question is a question that is predicted after the voice announcement “Please cut the onions”
For example, "<target> is <quantity><question>" or "<degree>
It is output in the form of a recognition sentence template such as <processing><question>. The speech recognition unit 5 performs speech recognition processing by assigning specific words from the speech language database 11 to each item in the recognition sentence template. When the speech recognition unit 5 recognizes the question, for example, when the speech recognition unit 5 recognizes the question "How many onions" applies to the recognition template "<object><quantity><question>", the dialog management unit is interrupted. In step S7, the dialog management unit 1 searches the cooking knowledge database 2 and outputs the answer to the utterance storage unit 3, and the speech synthesis unit 12 transmits the answer to "<target> is <quantity>
Voice synthesis is performed using a template "<unit>", and a guidance "two onions" is output from the speaker 13 (step S5). That is, reference information is announced by voice with respect to the essential deterministic information first announced by voice, and the system and the user interact with each other. That is, in steps S5 to S7, until the trigger condition set in step S4 is detected (step S8), the system utterance (guidance)
Dialogues of user utterance (related utterance) and system utterance (answer) are repeated.

【0033】その後、ステップS4において設定された
トリガ条件が検出されると(ステップS8)、トリガ条
件の解除後(ステップS9)、再びステップS1の作業
内容の検索が行われる。
Thereafter, when the trigger condition set in step S4 is detected (step S8), after the trigger condition is released (step S9), the work contents of step S1 are searched again.

【0034】図5は、条件設定処理の概要を示すフロー
チャートである。これは、図4に示す作業支援処理のサ
ブルーチンとして数ms毎に実行される処理である。ま
ず、終了通知(図4のステップS3)の有無が判定され
(ステップS11)、終了通知がなければトリガ条件
(図4のステップS5)の有無が判定される(ステップ
S12)。トリガ条件がない場合にはステップS11の
判定処理に戻るのに対し、トリガ条件があれば現状認識
手段又はユーザ発話認識手段に現状認識機能又はユーザ
発話認識機能をそれぞれ実行させる(ステップS1
3)。つまり、温度センサ6、ガスセンサ7、重量セン
サ8、タイマ9、及びマイクロフォン10が収集してA
/Dコンバータ18より出力された信号に基づき、ユー
ザが置かれている現在の状況やユーザ発話が認識され
る。この場合、マイクロフォン10より収集された情報
中、ユーザの現状認識の手掛かりとなる音としては、炒
める音、沸騰する音、圧力釜の蒸気の音等の調理対象の
音、フードプロセッサやハンドミキサ等の機械音、包丁
がまな板を叩く音等のユーザが発する音、電子レンジの
終了音等がある。
FIG. 5 is a flowchart showing an outline of the condition setting process. This is a process executed every few ms as a subroutine of the work support process shown in FIG. First, it is determined whether there is an end notification (step S3 in FIG. 4) (step S11). If there is no end notification, it is determined whether there is a trigger condition (step S5 in FIG. 4) (step S12). If the trigger condition does not exist, the process returns to the determination process of step S11. If the trigger condition exists, the current condition recognizing means or the user utterance recognizing device executes the current condition recognizing function or the user utterance recognizing function, respectively (step S1).
3). That is, the temperature sensor 6, gas sensor 7, weight sensor 8, timer 9, and microphone 10 collect
Based on the signal output from the / D converter 18, the current situation where the user is located and the user's speech are recognized. In this case, among the information collected from the microphone 10, sounds that are clues to the user's recognition of the current state include sounds to be cooked such as a sound of roasting, a sound of boiling, a sound of steam in a pressure cooker, a food processor, a hand mixer, and the like. , The sound of the user such as the sound of the knife hitting the cutting board, and the end sound of the microwave oven.

【0035】ステップS13でユーザの現状が認識され
た後、設定条件判定がなされる(ステップS14)。設
定条件判定では、認識されたユーザの現状がトリガ条件
(図4のステップS7)を満たしているかどうかが判定
される。例えば、作業内容がカレーの手順3の場合、料
理知識データベース2におけるデータ構造中の「報告=
飴色」又は「重量=1/2」がトリガ条件として設定さ
れているので、「飴色になった」というユーザの発話や
「次は」等の作業の終了を表すユーザの発話が音声認識
されたか、あるいは、重量センサ8の出力値より状況認
識部4が炒めている玉葱の重量が1/2になったことを
認識するかした場合、ユーザの現状がトリガ条件を満た
していると判定される。そして、トリガ条件が満たされ
れば、対話管理部1に割り込みがかけられる。これによ
り、図4の作業支援処理においてトリガ条件が解除され
(ステップS9)、再度作業内容の検索がなされる(ス
テップS1)。ユーザの現状がトリガ条件を満たしてい
ると判定されたカレーの手順3という作業内容の例で
は、ステップS1において、作業内容の検索によってカ
レーの手順4という作業内容が検索される。ここに、情
報検索手段の機能が実行される。
After the current state of the user is recognized in step S13, the setting condition is determined (step S14). In the setting condition determination, it is determined whether the current state of the recognized user satisfies the trigger condition (step S7 in FIG. 4). For example, if the work content is curry procedure 3, “report =” in the data structure in the cooking knowledge database 2
Since “Amber” or “Weight = 1 /” is set as the trigger condition, whether the user's utterance “It has become amber” or the user's utterance indicating the end of the work such as “Next” is recognized. Alternatively, if the situation recognition unit 4 recognizes from the output value of the weight sensor 8 that the weight of the fried onion has been reduced to half, it is determined that the current state of the user satisfies the trigger condition. . When the trigger condition is satisfied, the dialog management unit 1 is interrupted. Thereby, the trigger condition is canceled in the work support processing of FIG. 4 (step S9), and the work content is searched again (step S1). In the example of the operation content of the curry procedure 3 determined that the current state of the user satisfies the trigger condition, in step S1, the operation content of the curry procedure 4 is searched by searching for the operation content. Here, the function of the information search means is executed.

【0036】図5は、テンプレート中の各項目に対する
単語のあてはめ方法及び複数の単語間の優先順位の決定
方法の一例を示すフローチャートである。ここでは、図
3の料理知識データベース2におけるカレーの手順2が
「サラダ油を加熱して下さい」というように案内された
場合において(図4、ステップS5)、「〈対象〉は
〈量〉〈疑問〉」という予測質問について考える。この
時、認識文テンプレート中の〈対象〉という項目iに
は、直前の案内発話に含まれる「サラダ油」及びその同
義異音語である「サラダオイル」という単語jが候補と
してあてはめられる(ステップS21〜23)。この場
合、「サラダ油」は、「サラダ油を加熱して下さい」と
いう直前のシステム発話に含まれていた単語なので(ス
テップS24)、その優先度が定数aだけ引き上げられ
る(ステップS25)。また、以前のユーザ発話に「サ
ラダ油」の同義異音語である「サラダオイル」が含まれ
ている場合には(ステップS26)、その優先度が定数
bだけ引き上げられる(ステップS27)。これは、相
手の使った単語と同じ単語を使う傾向があるという対話
における引込み現象を考慮すると共に、人によって表現
の仕方が決まっている単語があることを考慮したためで
ある。
FIG. 5 is a flowchart showing an example of a method of fitting a word to each item in a template and a method of determining a priority order among a plurality of words. Here, in the case where the curry procedure 2 in the cooking knowledge database 2 in FIG. 3 is guided to “Please heat the salad oil” (FIG. 4, step S5), “<target> is <quantity><question 〉 ”. At this time, the word j of “salad oil” and the synonymous word “salad oil” included in the preceding guidance utterance are applied as candidates to the item i of <object> in the recognition sentence template (step S21). 23). In this case, since “salad oil” is a word included in the system utterance immediately before “Please heat salad oil” (step S24), its priority is raised by a constant a (step S25). If the previous user's utterance includes "salad oil" which is a synonym for "salad oil" (step S26), the priority is raised by a constant b (step S27). This is because, in addition to taking into account a pull-in phenomenon in a dialogue that the same word tends to be used as the word used by the other party, and taking into account that there is a word whose expression method is determined by a person.

【0037】そして、あるテンプレートのある項目iに
おける単語jが尽きるまで単語jが一つずつインクリメ
ントされてステップS23〜27の処理が繰り返され
(ステップS28,29)、あるテンプレートの項目i
が尽きるまで項目iがインクリメントされてS23〜2
7の処理が繰り返される(ステップS30,31)。
Then, the word j is incremented one by one until the word j in a certain item i of a certain template is exhausted, and the processing of steps S23 to S27 is repeated (steps S28 and S29).
Item i is incremented until is exhausted, and S23-2
7 is repeated (steps S30 and S31).

【0038】一方、テンプレートの優先順位の決定方法
の例としては、「火加減はどのくらいですか」というユ
ーザ発話に続いて「火加減は強火です」というシステム
発話があったとする。この場合、このような質問の後に
はそれ以外の既出情報を忘れたり確認したいということ
が起こりがちである。そこで、このような場合には、
「〈対象〉は〈量〉〈疑問〉」等の量に関する予測質問
に関するテンプレートの優先順位を引き上げる、という
ことが行われる。
On the other hand, as an example of a method of determining the priority of the template, it is assumed that a system utterance "Heat is high heat" is followed by a user utterance "How much is the heat?" In this case, after such a question, it tends to happen that one wants to forget or check other information that has already been issued. So, in such a case,
That is, the priority of the template regarding the predicted question regarding the quantity such as “<object><quantity><question>” is raised.

【0039】さらに、案内アナウンス後、所定時間が経
過しても、質問がなく作業終了も検出できないというこ
とが起こり得る。これは、音声認識部5や状況認識部4
によって検出されるが、このような場合には、調理すべ
き材料や調理器具の探索やその他の作業によって案内し
た作業が中断している可能性が高い。そこで、この場合
には、既に案内した内容が再び問い返されることが予測
されるため、直前のシステム発話、この場合には最初の
作業内容に含まれる「〈対象〉〈処理〉」に関する予測
質問に関するテンプレートの優先順位を引き上げる、と
いうことが行われる。
Further, even after a lapse of a predetermined time after the guidance announcement, there is a possibility that there is no question and the end of the work cannot be detected. This is the voice recognition unit 5 and the situation recognition unit 4
In such a case, there is a high possibility that the work guided by the search for the material to be cooked or the cooking utensil or other work is interrupted. Therefore, in this case, since it is expected that the content already guided will be returned again, the predicted question related to “<target><processing>” included in the immediately preceding system utterance, in this case, the first work content The priority of the template is raised.

【0040】本発明の第二の実施の形態を図7ないし図
9に基づいて説明する。本実施の形態は、カーナビゲー
ションシステムへの適用例である。
A second embodiment of the present invention will be described with reference to FIGS. This embodiment is an example of application to a car navigation system.

【0041】図7は、カーナビケーションシステムの概
要を示す模式図である。このシステムは、各部を集中的
に制御し、各部の間の情報のやり取りに際して中心的な
役割を担う対話管理部31を基本とし、この対話管理部
31にデータベースとしての地図データベース32と、
各種情報を一時記憶する発話記憶部33と、各種情報の
入出力部が接続されて構成されている。地図データベー
ス32は、分岐点であるノード情報と分岐点を繋ぐ道路
であるリンク情報とを基本とし、階層構造をなして構成
されている。発話記憶部32は、対話管理部31と他の
各部との間での音声認識処理及び音声合成処理に際して
必要なレジストエリアである。そして、対話管理部31
に接続される各種情報の入出力部は次の通りである。
FIG. 7 is a schematic diagram showing an outline of the car navigation system. This system is based on a dialog management unit 31 that centrally controls each unit and plays a central role in exchanging information between the units. The dialog management unit 31 includes a map database 32 as a database,
An utterance storage unit 33 for temporarily storing various information and an input / output unit for various information are connected to each other. The map database 32 has a hierarchical structure based on node information as a branch point and link information as a road connecting the branch points. The utterance storage unit 32 is a registration area necessary for voice recognition processing and voice synthesis processing between the dialog management unit 31 and other units. And the dialogue management unit 31
Are as follows.

【0042】対話管理部31に接続されている入力部と
しては、位置測定部34と地理検索部35と表示/入力
制御部36と音声認識部37とが設けられている。位置
測定部34は、状況収集手段としてのGPSレシーバ3
8、方位センサ39、及び車速センサ40から収集され
て電気的信号の形態で出力された各種の情報を処理し、
対話管理部31に送信する。つまり、位置測定部34に
おける情報処理は、GPSレシーバ38から得られる人
工衛星からの電波に基づく三角測量による位置情報、光
ファイバジャイロや地磁気センサ等の方位センサ39か
ら得られる進行方向の情報、車速センサ40から得られ
る車速パルスに基づく車速情報等を統合する処理であ
る。地理検索部35は、地図データベース32を備え、
位置測定部34からの信号を地図データベース32の情
報と照合するといういわゆるマップマッチングの技術を
利用して現在位置を求める。また、地理検索部35は、
経路記憶部41をも備え、ある地点から別のある地点ま
での経路を経路記憶部41に記憶保持させる機能をも備
える。このような各種の処理は、現在一般に普及してい
るカーナビゲーションシステムの基本技術であるので、
詳細な説明は省略する。そして、表示/入力制御部36
は、表示入出力装置42を備え、必要な情報の対話管理
部31との間の入出力を制御する。さらに、音声認識部
37は、ユーザ発話収集手段として機能するマイクロフ
ォン43が取り込んで電気的信号の形態で出力された音
声情報をデータベースとしての音声言語データベース4
4に格納された情報に基づいて解析し、その結果を対話
管理部31に送信する。この場合、ユーザ発話収集手段
として機能するマイクロフォン43は、運転中のユーザ
の近傍に配置され、運転中のユーザの発話を拾う。
As input units connected to the dialog management unit 31, there are provided a position measuring unit 34, a geographic search unit 35, a display / input control unit 36, and a voice recognition unit 37. The position measuring section 34 is a GPS receiver 3 as a situation collecting means.
8, processing various information collected from the direction sensor 39 and the vehicle speed sensor 40 and output in the form of electric signals;
It is transmitted to the dialogue management unit 31. That is, the information processing in the position measuring unit 34 includes position information based on triangulation based on radio waves from artificial satellites obtained from the GPS receiver 38, traveling direction information obtained from the direction sensor 39 such as an optical fiber gyro and a geomagnetic sensor, and vehicle speed. This is a process for integrating vehicle speed information and the like based on the vehicle speed pulse obtained from the sensor 40. The geographic search unit 35 includes the map database 32,
The current position is obtained by using a so-called map matching technique in which a signal from the position measuring unit 34 is compared with information in the map database 32. In addition, the geographic search unit 35
The route storage unit 41 is also provided, and a function of causing the route storage unit 41 to store and hold a route from a certain point to another certain point is also provided. Since such various kinds of processing are basic technologies of a car navigation system that is currently widely used,
Detailed description is omitted. Then, the display / input control unit 36
Is provided with a display input / output device 42, and controls input and output of necessary information to and from the dialog management unit 31. Further, the voice recognition unit 37 stores the voice information captured by the microphone 43 functioning as the user utterance collection means and output in the form of an electric signal as a voice language database 4 as a database.
The analysis is performed on the basis of the information stored in the storage unit 4 and the result is transmitted to the dialog management unit 31. In this case, the microphone 43 functioning as the user utterance collecting means is arranged near the driving user and picks up the utterance of the driving user.

【0043】対話管理部31に接続されている出力部と
しては、音声合成部45が設けられている。この音声合
成部45は、対話管理部31の制御の下、音声言語デー
タベース44に格納された情報に基づいて必要な音声情
報を生成し、この音声情報を案内部としてのスピーカ4
6から出力する。
As an output section connected to the dialog management section 31, a speech synthesis section 45 is provided. The voice synthesizing unit 45 generates necessary voice information based on the information stored in the voice language database 44 under the control of the dialog management unit 31, and uses the voice information as the speaker 4 as a guide unit.
6 to output.

【0044】ここで、図7は、本実施の形態のカーナビ
ケーションシステムの概要を模式的に示した図であり、
実際には、料理ナビゲーションシステムのブロック図を
例示する図2に示すブロック図のような形態で各部が構
成されている(図示せず)。つまり、CPUとROMと
RAMとからなるマイコンが設けられ、このマイコンに
GPSレシーバ38、方位センサ39、車速センサ4
0、表示入出力装置42、マイクロフォン43、及びス
ピーカ46が接続され、地図データベース32及び音声
言語データベース44を記憶保持する大容量記憶媒体が
接続されてシステムが構成される。そして、発話記憶部
33及び経路記憶部41のためにはRAM内の所定領域
が利用され、位置測定部34と地理検索部35と表示/
入力制御部36とが備える機能はマイコン制御によって
実行される。さらに、音声認識部37における音声認識
の手法及び音声合成部45における音声合成の手法は、
第一の実施の形態における音声認識技術及び音声合成技
術と同様であるため、その説明は省略する。
FIG. 7 is a diagram schematically showing the outline of the car navigation system according to the present embodiment.
Actually, each unit is configured in a form like a block diagram shown in FIG. 2 exemplifying a block diagram of the dish navigation system (not shown). That is, a microcomputer including a CPU, a ROM, and a RAM is provided. The microcomputer includes a GPS receiver 38, a direction sensor 39, and a vehicle speed sensor 4.
0, the display input / output device 42, the microphone 43, and the speaker 46 are connected, and a large-capacity storage medium for storing and holding the map database 32 and the audio language database 44 is connected, thereby forming a system. A predetermined area in the RAM is used for the utterance storage unit 33 and the route storage unit 41, and the position measurement unit 34, the geographic search unit 35, and the display /
The functions of the input control unit 36 are executed by microcomputer control. Further, the speech recognition method in the speech recognition unit 37 and the speech synthesis method in the speech synthesis unit 45 are as follows.
Since this is the same as the speech recognition technology and the speech synthesis technology in the first embodiment, the description is omitted.

【0045】ここで、マイコン機能によって実行される
各種の手段としては、現状認識手段、ユーザ発話認識手
段、情報検索手段、及び案内手段が設けられている。現
状認識手段は、状況収集手段としてのGPSレシーバ3
8、方位センサ39、及び車速センサ40が収集し出力
した信号に基づき、ユーザが置かれている現在の状況を
認識するという現状認識機能を果たす。次いで、ユーザ
発話認識手段は、マイクロフォン43が収集した情報に
基づき、案内情報に対してユーザが行った関連発話をそ
れ以前のシステム発話又はユーザ発話と関連付けて認識
する機能を果たす。ここで、「関連発話」というのは、
案内情報に対してユーザが行った質問、問い返し、関連
情報要求等を意味する。また、「システム発話」という
のは、本実施の形態のカーナビゲーションシステムによ
る音声アナウンスを意味し、「ユーザ発話」というの
は、ユーザの発話を意味する。次いで、情報検索手段
は、現状認識手段の認識結果に応じ、ユーザが行ってい
る作業の支援に必要な情報を地図データベース32及び
音声言語データベース44から検索するという情報検索
機能を果たす。そして、案内手段は、情報検索手段によ
って検索された必要な情報をスピーカ46によって音声
アナウンスする案内機能を果たす。スピーカ46による
音声アナウンスは、音声言語データベース44に格納さ
れたデータに基づき音声合成部45がテンプレートを利
用してその音声を音声合成をすることよってなされ、こ
のような処理には第一の実施の形態において述べたよう
な既存の音声合成技術が利用される。
Here, various means executed by the microcomputer function include a current state recognition means, a user utterance recognition means, an information search means, and a guidance means. The current status recognition means is a GPS receiver 3 as a situation collection means.
8. Based on the signals collected and output by the direction sensor 39 and the vehicle speed sensor 40, the current state recognition function of recognizing the current situation where the user is placed is performed. Next, based on the information collected by the microphone 43, the user utterance recognition means performs a function of recognizing a related utterance made by the user with respect to the guide information in association with a previous system utterance or a user utterance. Here, “related utterance” means
It means a question, a return of a question, a request for related information, or the like made by the user to the guidance information. Further, “system utterance” means a voice announcement by the car navigation system according to the present embodiment, and “user utterance” means a user utterance. Next, the information search means performs an information search function of searching the map database 32 and the speech language database 44 for information necessary to support the work performed by the user according to the recognition result of the current state recognition means. The guidance means performs a guidance function of announcing the necessary information retrieved by the information retrieval means through the speaker 46. The voice announcement by the speaker 46 is performed by the voice synthesizer 45 using the template to synthesize the voice based on the data stored in the voice language database 44. Such processing is performed in the first embodiment. The existing speech synthesis technology as described in the embodiment is used.

【0046】図8は、経路記憶部41の記憶保持内容を
例示する模式図である。経路記憶部41には、交差点を
特定する交差点ID毎に、ポイント番号、方向、距離、
交差点名、ランドマークが設定されている。このような
設定は、表示入出力装置42からの所定事項の入力操作
によりなされるが、入力操作自体は従来のカーナビゲー
ションシステムと変わるところがない。つまり、出発地
点と目標地点とを入力操作するだけでポイント番号、方
向、距離、交差点名、ランドマークが自動設定される方
式、交差点ID毎に方向を入力操作すると他の情報が自
動設定される方式等、既存のあらゆる入力操作方式が許
容される。
FIG. 8 is a schematic view exemplifying the contents stored and stored in the path storage unit 41. The route storage unit 41 stores, for each intersection ID that specifies an intersection, a point number, a direction, a distance,
Intersection names and landmarks are set. Such setting is performed by an input operation of a predetermined item from the display input / output device 42, but the input operation itself is no different from the conventional car navigation system. That is, a point number, a direction, a distance, an intersection name, and a landmark are automatically set by simply inputting a departure point and a destination point. Other information is automatically set when a direction is input for each intersection ID. Any existing input operation method, such as a method, is acceptable.

【0047】本実施の形態のカーナビゲーションシステ
ムによる作業支援処理について説明する。この作業支援
処理は、概略的には、走行前に目的地までの経路を決定
し経路記憶部41に記憶保持しておき、この経路を実際
の走行時に音声アナウンスするという一般的な音声ガイ
ド付きカーナビゲーションシステムの機能である。した
がって、その説明は省略する。これに対し、そのような
作業支援機能中、本実施の形態に特有の機能は、ユーザ
が置かれた現在の状態を参照してこれに適合した音声ア
ナウンスを対話形式で見出すという点にある。そこで、
以下、このような本実施の形態に特有の機能を図9のフ
ローチャートに基づいて説明する。
The work support processing by the car navigation system according to the present embodiment will be described. This work support processing is generally performed with a general voice guide that determines a route to a destination before traveling and stores and retains the route in a route storage unit 41, and announces the route during actual traveling. This is a function of the car navigation system. Therefore, the description is omitted. On the other hand, among such work support functions, a function unique to the present embodiment is that the user refers to the current state where the user is placed and finds an audio announcement suitable for the state in an interactive manner. Therefore,
Hereinafter, functions unique to this embodiment will be described with reference to the flowchart of FIG.

【0048】図9は、対話管理部31が案内内容及び予
測質問を作成する処理の流れを示すフローチャートであ
る。まず、処理対象のポイント番号iを0と置いた後
(ステップS41)、ポイント番号iを1つインクリメ
ントし(ステップS42)、続いて案内をするすべての
ポイントの終了の有無を確かめる(ステップS43)。
すべてのポイントについて案内が終了していれば処理を
終了する。そうでない場合にはポイント番号iの情報を
経路記憶部41の記憶情報から取得する(ステップS4
4)。そして、地図検索部35により地図データベース
32から検索された地図情報のポイント番号iの交差点
に位置測定部34により検出された現在位置が近づいた
時、対話管理部31はその案内ポイントに関する情報を
経路記憶部41からロードし、まず、方向及び距離のみ
を発話内容として発話記憶部33に出力する(ステップ
S45)。これは、方向及び距離の情報が交差点におけ
る音声ナビゲーションとして最低限必要な緊急必要情報
だからである。
FIG. 9 is a flowchart showing the flow of the process in which the dialogue management section 31 creates guidance contents and predicted questions. First, the point number i to be processed is set to 0 (step S41), then the point number i is incremented by one (step S42), and it is confirmed whether all the points to be guided have ended (step S43). .
If the guidance has been completed for all points, the process is terminated. Otherwise, the information of the point number i is obtained from the information stored in the route storage unit 41 (step S4).
4). Then, when the current position detected by the position measurement unit 34 approaches the intersection of the point number i of the map information searched from the map database 32 by the map search unit 35, the dialog management unit 31 transmits the information on the guide point to the route. The data is loaded from the storage unit 41, and first, only the direction and the distance are output to the utterance storage unit 33 as utterance contents (step S45). This is because the information of the direction and the distance is the urgent necessary information required as the voice navigation at the intersection.

【0049】発話記憶部33に発話内容が記憶保持され
ると、図9に示すフローチャートとは別のサブルーチン
が実行され、音声合成部45によって案内情報が音声合
成されてスピーカ46より案内がアナウンスされる。こ
の時、音声合成部45では、「〈距離〉〈単位〉先〈方
向〉方向です」という発話文テンプレートを用いて音声
合成を行う。例えば、発話記憶部33に図8に例示する
ような経路記憶部41の記憶情報、つまり、「〈方向〉
=右、〈距離〉=300」が設定された場合、合成音声
は「300メートル先右方向です」となる。この案内内
容は、緊急必要情報である。
When the contents of the utterance are stored and held in the utterance storage unit 33, a subroutine different from the flowchart shown in FIG. 9 is executed, the voice information is voice-synthesized by the voice synthesis unit 45, and the guidance is announced from the speaker 46. You. At this time, the speech synthesis unit 45 performs speech synthesis using an utterance sentence template “<distance><unit> forward <direction> direction”. For example, in the utterance storage unit 33, the storage information of the route storage unit 41 as illustrated in FIG.
= Right, <distance> = 300 ", the synthesized voice is" 300 meters ahead to the right ". This guidance content is urgent necessary information.

【0050】次いで、対話管理部31が経路記憶部41
からロードした案内ポイントに関するすべての情報が発
話記憶部33に出力される(ステップS46)。この
際、音声認識部37では、案内ポイントiについてのシ
ステム発話に対するユーザの関連発話である予測質問に
関するすべての認識文テンプレートを用意し、マイクロ
フォン43を通じて取り込まれるユーザの質問に備え
る。認識文テンプレートとしては、例えば、交差点名や
ランドマークを含む「〈なに〉や〈名前〉〈交差点〉
〈疑問〉」、「〈ランドマーク〉〈存在〉〈疑問〉」等
が用意される。そして、この場合、案内されなかった項
目に関する予測質問の優先度にaが加算され(ステップ
S47)、優先度が高く設定される。
Next, the dialogue management section 31 stores the route storage section 41
Is output to the utterance storage unit 33 (step S46). At this time, the voice recognition unit 37 prepares all recognition sentence templates related to the predicted question, which is the user's related utterance with respect to the system utterance at the guide point i, and prepares for the user's question taken in through the microphone 43. As the recognition sentence template, for example, "<what>, <name><intersection>
<Question>, <landmark><existence><question>, etc. are prepared. Then, in this case, a is added to the priority of the predicted question regarding the item that was not guided (step S47), and the priority is set high.

【0051】この後、地図検索部35により地図データ
ベース32から検索された地図情報のポイント番号iの
交差点と位置測定部34により検出された現在位置ポイ
ントとを比較し、現在位置ポイントがポイント番号iの
交差点を過ぎていないことの認定を前提として(ステッ
プS48)、音声認識部37において認識されたユーザ
発話が認識される(ステップS49)。つまり、音声認
識部37では、認識文テンプレートにユーザが発生した
音声をあてはめてユーザ発話を認識する。例えば、「何
という名前の交差点ですか」という質問に対しては、
「〈なに〉や〈名前〉〈交差点〉〈疑問〉」という認識
文テンプレートにユーザ発話をあてはめることにより、
ユーザ発話の認識がなされる。この場合の音声認識は、
既存の音声認識技術を利用して行われるが、ステップS
47で案内されなかった項目に関する予測質問の優先度
が高く設定されているので、音声認識の精度が高い。
Thereafter, the intersection of the point number i of the map information retrieved from the map database 32 by the map retrieval unit 35 and the current position point detected by the position measurement unit 34 are compared, and the current position point is determined by the point number i. The user utterance recognized by the voice recognition unit 37 is recognized (step S49) on the premise that it is determined that the vehicle does not pass through the intersection (step S48). That is, the voice recognition unit 37 recognizes the user's utterance by applying the voice generated by the user to the recognition sentence template. For example, the question "What is the intersection?"
By applying user utterances to recognition sentence templates such as "what", "name", "intersection", and "question",
Recognition of the user utterance is performed. In this case, speech recognition
This is performed by using the existing speech recognition technology.
Since the priority of the prediction question regarding the item not guided in 47 is set high, the accuracy of the voice recognition is high.

【0052】続くステップS50では、音声認識部37
が質問項目を評価してその結果を発話記憶部33に出力
する。この後、図9に示すフローチャートとは別のサブ
ルーチンが実行され、音声合成部45によって案内情報
が音声合成されてスピーカ46より案内がアナウンスさ
れる。この際、「何という名前の交差点ですか」という
ユーザの質問を想定した場合には、音声合成部45で
は、「〈交差点名〉交差点です」という発話文テンプレ
ートを用いて音声合成を行う。したがって、図8の例で
は、「アリーナ前交差点です」という音声合成がなさ
れ、これがスピーカ46より案内アナウンスされる。こ
の案内内容は、付随的情報である。
In the following step S50, the voice recognition unit 37
Evaluates the question item and outputs the result to the utterance storage unit 33. Thereafter, a subroutine different from the flowchart shown in FIG. 9 is executed, the voice information is voice-synthesized by the voice synthesizer 45, and the guidance is announced from the speaker 46. At this time, when assuming a user's question "What is the name of the intersection?", The speech synthesis unit 45 performs speech synthesis using the utterance sentence template "<Intersection name>Intersection." Therefore, in the example of FIG. 8, a voice synthesis “is an intersection in front of the arena” is performed, and this is announced from the speaker 46. This guidance content is additional information.

【0053】この後、音声認識部37においては、既に
案内済みの項目、図8の例では距離及び方向に関する認
識文テンプレートの優先度にbを加算することでその優
先度を下げ(ステップS51)、更にユーザからの質問
を待つ。そして、現在位置が案内ポイントiを過ぎたと
判断される場合には(ステップS48)、ポイント番号
iを1つインクリメントして同様の処理を繰り返し(ス
テップS42〜51)、これをステップS43で判定さ
れるすべてのポイントの終了まで続行する。
Thereafter, the voice recognition section 37 lowers the priority by adding b to the priority of the recognition sentence template relating to the already guided item, in the example of FIG. 8, the distance and direction (step S51). , And further wait for a question from the user. If it is determined that the current position has passed the guide point i (step S48), the point number i is incremented by one, and the same processing is repeated (steps S42 to S51). This is determined in step S43. Continue until all points have been completed.

【0054】ここで、案内地点が案内ポイントである交
差点に近接している場合、案内された交差点をユーザが
同定することができない場合がある。そこで、このよう
な場合に備え、音声認識部37は、「〈現在地〉{を|
で}〈方向転換〉〈疑問〉」や「[交差点]は〈現在
地〉〈疑問〉」というような認識文テンプレートを備え
る。このような認識文テンプレート中、[]は、省略可
能性を示す。例えば、「ここですか」という質問を受け
ると、音声認識部37は、認識文テンプレート「[交差
点]は〈現在地〉〈疑問〉」によって、〈交差点〉が省
略されていると判断し、発話記録部33の発話履歴から
交差点ID0023を検索し、〈交差点〉を交差点ID
0023の交差点名であるアリーナ前に置き換える(図
8の例)。また、指示代名詞である「ここ」は音声認識
部37によって〈現在地〉という項目に置き換えられる
が、これを意味的に解決するために対話管理部31は地
理検索部35を通じて現在地の位置情報、最寄りの交差
点名、交差点ID等を取得して「ここ」を〈現在地〉と
置き換える。その結果、「交差点ID23=交差点ID
23」や「交差点ID23=交差点ID22」というよ
うな式が得られる。前者の場合、その評価は「真」とな
り、これが音声合成部37に送られて「そうです」とい
うような案内出力がなされる。これに対し、後者の場
合、その評価は「偽」となり、これが音声合成部37に
送られて「違います」というような案内出力がなされ
る。
Here, when the guide point is close to the intersection that is the guide point, the user may not be able to identify the guided intersection. Thus, in preparation for such a case, the voice recognition unit 37 sets “<current location> {to |
Then, a recognition sentence template such as <direction change><question> or "[intersection] <current location><question>" is provided. [] In such a recognition sentence template indicates the possibility of omission. For example, when receiving the question "is here?", The voice recognition unit 37 determines that the <intersection> is omitted by the recognition sentence template "[intersection] is <current location><question>", and records the utterance. The intersection ID 0023 is searched from the utterance history of the unit 33, and <intersection> is set to the intersection ID.
The name is replaced before the arena, which is the intersection name of 0023 (the example in FIG. 8). Also, the instructional pronoun “here” is replaced by the speech recognition unit 37 with the item “current location”. To resolve this semantically, the dialog management unit 31 sends the location information of the current location via the geographic search unit 35 to the nearest location. And the intersection ID, intersection ID, etc. of the user are acquired, and “here” is replaced with <current location>. As a result, “intersection ID 23 = intersection ID
23 "and" intersection ID23 = intersection ID22 ". In the former case, the evaluation is “true”, which is sent to the speech synthesizer 37 and a guidance output such as “yes” is made. On the other hand, in the latter case, the evaluation is “false”, which is sent to the speech synthesizer 37 and a guidance output such as “not correct” is made.

【0055】[0055]

【発明の効果】請求項1記載の発明は、ユーザが置かれ
ている現在の状態を収集し、これに見合った支援情報を
案内するようにし、また、システムによる案内に対し、
ユーザが質問、問い返し、関連情報要求等の関連発話を
行った場合、これをそれ以前のシステム発話又はユーザ
発話と関連付けて認識し対応するようにしたので、ユー
ザにその者が各時点で真に求める情報を提供し、作業支
援効果を高めることができる。
According to the first aspect of the present invention, the present state where the user is placed is collected, and support information corresponding to the current state is provided.
When the user makes a related utterance such as a question, a question, or a related information request, the user recognizes and responds to the utterance in association with the previous system utterance or the user utterance. It can provide the required information and enhance the work support effect.

【0056】請求項2及び3記載の発明は、請求項1記
載の作業支援システムにおいて、ユーザ発話認識手段
は、直前のシステム発話に含まれる単語及びその同義異
音語をユーザ発話の認識候補とするので、システム発話
後のユーザ発話の予測精度を上げ、音声認識の認識率を
向上させることができる。特に、請求項3記載の発明
は、請求項2記載の作業支援システムにおいて、ユーザ
発話認識手段は、直前のシステム発話に含まれる単語の
優先順位をその同義異音語よりも高くし、同義異音語中
に以前出現したユーザ発話が含まれている場合にはその
同義異音語の優先順位を引き上げるので、システム発話
後のユーザ発話の予測精度をより一層上げ、音声認識の
認識率をより一層向上させることができる。
According to the second and third aspects of the present invention, in the work support system according to the first aspect, the user utterance recognizing means includes a word contained in the immediately preceding system utterance and a synonymous word thereof as a user utterance recognition candidate. Therefore, the prediction accuracy of the user utterance after the system utterance can be increased, and the recognition rate of the voice recognition can be improved. In particular, according to a third aspect of the present invention, in the work support system according to the second aspect, the user utterance recognizing means sets the priority of a word included in the immediately preceding system utterance higher than that of the synonymous word. If a phonetic word contains a user's utterance that appeared before, the priority of the synonymous word is raised, so that the prediction accuracy of the user's utterance after the system utterance is further improved, and the recognition rate of speech recognition is improved. It can be further improved.

【0057】請求項4ないし6記載の発明は、請求項1
記載の作業支援システムにおいて、ユーザ発話認識手段
は、ユーザの注意対象が現在の案内情報にあるかどうか
を推察し、ユーザの注意対象が現在の案内情報から移っ
たと判断した場合は、以前の案内情報の再要求に対する
準備を行うので、自然な対話の流れの中からユーザの注
意の移動を推測することができ、したがって、複雑な機
構や特別なセンサ、それらのための余計な対話なしにユ
ーザの自然な行動パターンにシステムを追随させること
ができ、音声認識の認識率を向上させることができる。
The inventions according to claims 4 to 6 are as described in claim 1
In the work support system described above, the user utterance recognition unit infers whether or not the user's attention target is in the current guidance information, and if it is determined that the user's attention target has shifted from the current guidance information, the previous guidance It prepares for the re-request for information, so that the movement of the user's attention can be inferred from the natural flow of the dialogue, and thus the user is able to use complex mechanisms, special sensors, and no extra dialogue for them. Can follow the natural behavior pattern of the system, and the recognition rate of voice recognition can be improved.

【0058】請求項7ないし9記載の発明は、請求項1
記載の作業支援システムにおいて、案内手段は、案内部
に案内させる案内情報に優先順位を設け、ユーザの情報
要求発話に応じて案内情報を案内部に順次案内させるの
で、案内情報の細かさや階層をユーザ自らが選択するこ
とができ、したがって、ユーザの要求にかなった適切な
情報を案内することができる。特に、請求項8記載の発
明は、請求項7記載の作業支援システムにおいて、案内
手段は、必須確定的情報を案内部に案内させ、ユーザの
情報要求発話に応じて参照的情報を案内部に案内させる
ので、調理作業に要求される機を逃さない案内をするこ
とができる。また、請求項9記載の発明は、請求項7記
載の作業支援システムにおいて、案内手段は、緊急必要
情報を案内部に案内させ、ユーザの情報要求発話に応じ
て付加的情報を案内部に案内させるので、運転中の乗り
物の安全性を損なわない案内をすることができる。
The inventions according to claims 7 to 9 are as follows.
In the work support system described above, the guide means sets a priority order for the guide information to be guided by the guide section and sequentially guides the guide information to the guide section according to the information request utterance of the user. The user himself / herself can make a selection, and thus, can provide appropriate information according to the user's request. In particular, the invention according to claim 8 is the work support system according to claim 7, wherein the guide means guides the guide unit with the essential deterministic information, and provides the guide information with the reference information according to the user's information request utterance. Since the guidance is performed, it is possible to provide a guide that does not miss the machine required for the cooking operation. According to a ninth aspect of the present invention, in the work support system according to the seventh aspect, the guide unit guides the urgent necessary information to the guide unit, and guides the additional information to the guide unit in response to the user's information request utterance. Therefore, guidance that does not impair the safety of the vehicle during driving can be provided.

【0059】請求項10及び11記載の発明は、請求項
1記載の作業支援システムにおいて、ユーザ発話認識手
段は、現状認識手段の認識結果に基づいてユーザ発話に
含まれる照応や省略の意味的解決を図るので、言語的文
脈だけからでは解決不可能な照応や省略に関する音声認
識が可能であり、ユーザ発話の曖昧さを解消してシステ
ムの信頼性を向上させることができる。
According to the tenth and eleventh aspects of the present invention, in the work support system according to the first aspect, the user utterance recognizing means resolves the anaphora or omission included in the user utterance based on the recognition result of the current state recognizing means. Therefore, it is possible to perform speech recognition on anaphors and omissions that cannot be solved only from the linguistic context, and it is possible to eliminate the ambiguity of the user utterance and improve the reliability of the system.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第一の実施の形態として、料理ナビケ
ーションシステムの概要を示す模式図である。
FIG. 1 is a schematic diagram showing an outline of a cooking navigation system as a first embodiment of the present invention.

【図2】各部の電気的接続を示すブロック図である。FIG. 2 is a block diagram illustrating electrical connection of each unit.

【図3】料理知識データベースのデータ構造を示す模式
図である。
FIG. 3 is a schematic diagram showing a data structure of a cooking knowledge database.

【図4】作業支援処理の概要を示すフローチャートであ
る。
FIG. 4 is a flowchart showing an outline of a work support process.

【図5】条件設定処理の概要を示すフローチャートであ
る。
FIG. 5 is a flowchart showing an outline of a condition setting process.

【図6】テンプレート中の各項目に対する単語のあては
め方法及び複数の単語間の優先順位の決定方法を示すフ
ローチャートである。
FIG. 6 is a flowchart showing a method of fitting a word to each item in a template and a method of determining a priority order among a plurality of words.

【図7】本発明の第二の実施の形態として、カーナビゲ
ーションシステムの概要を示す模式図である。
FIG. 7 is a schematic diagram showing an outline of a car navigation system as a second embodiment of the present invention.

【図8】経路記憶部に記憶保持された経路情報の一部を
示す模式図である。
FIG. 8 is a schematic diagram illustrating a part of the route information stored and held in the route storage unit.

【図9】案内内容及び予測質問を作成する処理の流れを
示すフローチャートである。
FIG. 9 is a flowchart illustrating a flow of a process of creating a guidance content and a predicted question.

【符号の説明】[Explanation of symbols]

6〜10,38〜40,43 状況収集手段 10,43 ユーザ発話収集手段 2,11,32,44 データベース 13,46 案内部 6 to 10, 38 to 40, 43 Situation collecting means 10, 43 User utterance collecting means 2, 11, 32, 44 Database 13, 46 Guide unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G10L 3/00 571 G10L 3/00 571H G01C 21/00 G01C 21/00 H // G06F 3/16 340 G06F 3/16 340L ────────────────────────────────────────────────── ─── front page continued (51) Int.Cl. 6 identifications FI G10L 3/00 571 G10L 3/00 571H G01C 21/00 G01C 21/00 H // G06F 3/16 340 G06F 3/16 340L

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 所定の作業を実行しているユーザに対し
てその作業を支援する情報を案内する作業支援システム
において、 ユーザが置かれている現在の状態をユーザ発話以外の情
報源から収集して電気信号に変換し出力する状況収集手
段と、 前記状況収集手段の出力信号に基づいてユーザが置かれ
ている現在の状態を認識する現状認識手段と、 ユーザ発話を収集して電気信号に変換し出力するユーザ
発話収集手段と、 前記ユーザ発話収集手段の出力信号に基づいてユーザ発
話を認識し、ユーザが行った案内情報に対する関連発話
をそれ以前のシステム発話又はユーザ発話と関連付けて
認識するユーザ発話認識手段と、 ユーザの作業を支援する情報を体系的に記憶保持するデ
ータベースと、 前記現状認識手段及び前記ユーザ発話認識手段の認識結
果に応じてユーザが行っている作業の支援に必要な情報
を前記データベースから検索する情報検索手段と、 前記情報検索手段によって検索された必要な情報を案内
部に案内させる案内手段と、を備えることを特徴とする
作業支援システム。
1. A work support system for guiding a user who is performing a predetermined task to information for supporting the task, wherein a current state where the user is located is collected from an information source other than the user's utterance. State collecting means for converting the current state into an electric signal and outputting the electric signal; current state recognizing means for recognizing the current state of the user based on the output signal of the state collecting means; A user utterance collecting unit that outputs and outputs a user utterance based on an output signal of the user utterance collecting unit, and recognizes an utterance related to guidance information performed by the user in association with a previous system utterance or a user utterance. An utterance recognizing means, a database for systematically storing and holding information supporting a user's work, Information search means for searching the database for information necessary to support the work performed by the user in accordance with the knowledge result; and guidance means for guiding the necessary information searched by the information search means to a guidance unit. A work support system comprising:
【請求項2】 ユーザ発話認識手段は、直前のシステム
発話に含まれる単語及びその同義異音語をユーザ発話の
認識候補とすることを特徴とする請求項1記載の作業支
援システム。
2. The work support system according to claim 1, wherein the user utterance recognizing means selects a word included in the immediately preceding system utterance and its synonymous word as a recognition candidate of the user utterance.
【請求項3】 ユーザ発話認識手段は、直前のシステム
発話に含まれる単語の優先順位をその同義異音語よりも
高くし、同義異音語中に以前出現したユーザ発話が含ま
れている場合にはその同義異音語の優先順位を引き上げ
ることを特徴とする請求項2記載の作業支援システム。
3. The user utterance recognizing means sets the priority of a word included in the immediately preceding system utterance higher than that of the synonymous word, and includes a user utterance that previously appeared in the synonymous word. 3. The work support system according to claim 2, wherein the priority order of the synonyms is raised.
【請求項4】 ユーザ発話認識手段は、ユーザの注意対
象が現在の案内情報にあるかどうかを推察し、ユーザの
注意対象が現在の案内情報から移ったと判断した場合
は、以前の案内情報の再要求に対する準備を行うことを
特徴とする請求項1記載の作業支援システム。
4. The user utterance recognizing means infers whether or not the user's attention target is in the current guidance information. If it is determined that the user's attention target has shifted from the current guidance information, the previous guidance information 2. The work support system according to claim 1, wherein preparations are made for a re-request.
【請求項5】 ユーザ発話認識手段が認識したユーザの
関連発話に対して情報検索手段がその回答となる情報を
検索した場合、ユーザの注意対象が現在の案内情報から
移ったと判断し、直前のユーザ関連発話の対象とならな
かった項目の優先順位を引き上げることを特徴とする請
求項4記載の作業支援システム。
5. When the information search means searches for information that is the answer to the user's related utterance recognized by the user utterance recognition means, it is determined that the attention target of the user has shifted from the current guide information. 5. The work support system according to claim 4, wherein the priority of an item that is not a target of the user-related utterance is raised.
【請求項6】 案内手段によって情報が案内部から案内
された後一定時間経過後、現状認識手段及びユーザ発話
認識手段の認識結果から作業の十分な進行が認識できな
い場合、ユーザの注意対象が現在の案内情報から移った
と判断し、直前のユーザ関連発話の対象とならなかった
項目の優先順位を引き上げることを特徴とする請求項4
記載の作業支援システム。
6. After a certain period of time has elapsed after the information has been guided from the guidance unit by the guidance means, if sufficient progress of the work cannot be recognized from the recognition results of the current state recognition means and the user utterance recognition means, the user's attention target is 5. The method according to claim 4, wherein it is determined that the information has shifted from the guidance information, and the priority order of an item that has not been a target of the immediately preceding user-related utterance is raised.
The work support system described.
【請求項7】 案内手段は、案内部に案内させる案内情
報に優先順位を設け、ユーザの情報要求発話に応じて案
内情報を前記案内部に順次案内させることを特徴とする
請求項1記載の作業支援システム。
7. The guide unit according to claim 1, wherein the guide unit sets a priority order for the guide information to be guided by the guide unit, and sequentially guides the guide information to the guide unit in response to an information request utterance of the user. Work support system.
【請求項8】 案内手段は、必須確定的情報を案内部に
案内させ、ユーザの情報要求発話に応じて参照的情報を
前記案内部に案内させることを特徴とする調理作業を支
援対象とする請求項7記載の作業支援システム。
8. The cooking device according to claim 1, wherein the guidance unit guides the guide unit with essential definite information, and guides the reference information to the guide unit in response to a user's information request utterance. The work support system according to claim 7.
【請求項9】 案内手段は、緊急必要情報を案内部に案
内させ、ユーザの情報要求発話に応じて付加的情報を前
記案内部に案内させることを特徴とする乗り物の運転作
業を支援対象とする請求項7記載の作業支援システム。
9. The vehicle according to claim 1, wherein the guide unit guides the urgent necessary information to the guide unit and guides the guide unit to the additional information in response to an information request utterance of the user. The work support system according to claim 7, which performs the operation.
【請求項10】 ユーザ発話認識手段は、現状認識手段
の認識結果に基づいてユーザ発話に含まれる照応や省略
の意味的解決を図ることを特徴とする請求項1記載の作
業支援システム。
10. The work support system according to claim 1, wherein the user utterance recognizing means seeks a semantic solution of anaphor and omission included in the user utterance based on the recognition result of the current state recognizing means.
【請求項11】 現状認識手段の認識結果は現在位置情
報であることを特徴とする乗り物の運転作業を支援対象
とする請求項10記載の作業支援システム。
11. The work support system according to claim 10, wherein the recognition result of the current state recognition means is current position information, and the driving operation of the vehicle is to be supported.
JP29471896A 1996-11-07 1996-11-07 Work support system Expired - Fee Related JP3489772B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29471896A JP3489772B2 (en) 1996-11-07 1996-11-07 Work support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29471896A JP3489772B2 (en) 1996-11-07 1996-11-07 Work support system

Publications (2)

Publication Number Publication Date
JPH10143187A true JPH10143187A (en) 1998-05-29
JP3489772B2 JP3489772B2 (en) 2004-01-26

Family

ID=17811416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29471896A Expired - Fee Related JP3489772B2 (en) 1996-11-07 1996-11-07 Work support system

Country Status (1)

Country Link
JP (1) JP3489772B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002013525A1 (en) * 2000-08-04 2002-02-14 Ryuji Baba Product produced by customizing existing object through communication means and method for producing the same
JP2003076847A (en) * 2001-09-05 2003-03-14 Matsushita Electric Ind Co Ltd Cooking job sharing system and cooking job sharing device
JP2009014619A (en) * 2007-07-06 2009-01-22 Mitsubishi Electric Corp Guide information presentation device
JP2013218462A (en) * 2012-04-06 2013-10-24 Sony Corp Information processing apparatus, information processing method, and computer program
JP2016051052A (en) * 2014-08-29 2016-04-11 本田技研工業株式会社 Environment understanding device and environment understanding method
JP2019057099A (en) * 2017-09-20 2019-04-11 株式会社東芝 Inspection work support system, method, and program
CN112905148A (en) * 2021-03-12 2021-06-04 拉扎斯网络科技(上海)有限公司 Voice broadcast control method and device, storage medium and electronic equipment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3902483B2 (en) * 2002-02-13 2007-04-04 三菱電機株式会社 Audio processing apparatus and audio processing method

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5780129A (en) * 1980-11-06 1982-05-19 Hitachi Heating Appliance Co Ltd Heating equipment with announcing mechanism
JPS6240577A (en) * 1985-08-16 1987-02-21 Toshiba Corp Voice interactive device
JPS63201686A (en) * 1987-02-18 1988-08-19 株式会社日立製作所 Cooking guide
JPH041897A (en) * 1990-04-18 1992-01-07 Sumitomo Electric Ind Ltd Voice guiding equipment
JPH05173589A (en) * 1992-05-29 1993-07-13 Toshiba Corp Speech recognizing and answering device
JPH05307461A (en) * 1992-05-01 1993-11-19 Sumitomo Electric Ind Ltd Voice data input/output device
JPH06110486A (en) * 1992-09-25 1994-04-22 Toshiba Corp Multimedia device with speech input means
JPH0727569A (en) * 1993-07-12 1995-01-27 Toyota Motor Corp Path guiding device for vehicle
JPH07152723A (en) * 1993-11-30 1995-06-16 Nippon Telegr & Teleph Corp <Ntt> Interactive processor
JPH07219590A (en) * 1994-01-31 1995-08-18 Canon Inc Speech information retrieval device and method
JPH07301538A (en) * 1994-05-02 1995-11-14 Aisin Aw Co Ltd Guide system
JPH08123482A (en) * 1994-10-19 1996-05-17 Nec Corp Speech operation indicating device
JPH08146989A (en) * 1994-11-17 1996-06-07 Canon Inc Information processor and its control method
JPH08166797A (en) * 1994-12-14 1996-06-25 Sony Corp Voice interactive control system
JPH09265378A (en) * 1996-03-28 1997-10-07 Hitachi Ltd Supporting method and supporting system for operator

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5780129A (en) * 1980-11-06 1982-05-19 Hitachi Heating Appliance Co Ltd Heating equipment with announcing mechanism
JPS6240577A (en) * 1985-08-16 1987-02-21 Toshiba Corp Voice interactive device
JPS63201686A (en) * 1987-02-18 1988-08-19 株式会社日立製作所 Cooking guide
JPH041897A (en) * 1990-04-18 1992-01-07 Sumitomo Electric Ind Ltd Voice guiding equipment
JPH05307461A (en) * 1992-05-01 1993-11-19 Sumitomo Electric Ind Ltd Voice data input/output device
JPH05173589A (en) * 1992-05-29 1993-07-13 Toshiba Corp Speech recognizing and answering device
JPH06110486A (en) * 1992-09-25 1994-04-22 Toshiba Corp Multimedia device with speech input means
JPH0727569A (en) * 1993-07-12 1995-01-27 Toyota Motor Corp Path guiding device for vehicle
JPH07152723A (en) * 1993-11-30 1995-06-16 Nippon Telegr & Teleph Corp <Ntt> Interactive processor
JPH07219590A (en) * 1994-01-31 1995-08-18 Canon Inc Speech information retrieval device and method
JPH07301538A (en) * 1994-05-02 1995-11-14 Aisin Aw Co Ltd Guide system
JPH08123482A (en) * 1994-10-19 1996-05-17 Nec Corp Speech operation indicating device
JPH08146989A (en) * 1994-11-17 1996-06-07 Canon Inc Information processor and its control method
JPH08166797A (en) * 1994-12-14 1996-06-25 Sony Corp Voice interactive control system
JPH09265378A (en) * 1996-03-28 1997-10-07 Hitachi Ltd Supporting method and supporting system for operator

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002013525A1 (en) * 2000-08-04 2002-02-14 Ryuji Baba Product produced by customizing existing object through communication means and method for producing the same
JP2003076847A (en) * 2001-09-05 2003-03-14 Matsushita Electric Ind Co Ltd Cooking job sharing system and cooking job sharing device
JP2009014619A (en) * 2007-07-06 2009-01-22 Mitsubishi Electric Corp Guide information presentation device
JP2013218462A (en) * 2012-04-06 2013-10-24 Sony Corp Information processing apparatus, information processing method, and computer program
JP2016051052A (en) * 2014-08-29 2016-04-11 本田技研工業株式会社 Environment understanding device and environment understanding method
JP2019057099A (en) * 2017-09-20 2019-04-11 株式会社東芝 Inspection work support system, method, and program
CN112905148A (en) * 2021-03-12 2021-06-04 拉扎斯网络科技(上海)有限公司 Voice broadcast control method and device, storage medium and electronic equipment
CN112905148B (en) * 2021-03-12 2023-09-22 拉扎斯网络科技(上海)有限公司 Voice broadcasting control method and device, storage medium and electronic equipment

Also Published As

Publication number Publication date
JP3489772B2 (en) 2004-01-26

Similar Documents

Publication Publication Date Title
EP0543329B1 (en) Speech dialogue system for facilitating human-computer interaction
CN108346430A (en) Conversational system, the vehicle with conversational system and dialog process method
US7376640B1 (en) Method and system for searching an information retrieval system according to user-specified location information
US20130103405A1 (en) Operating system and method of operating
JP4686905B2 (en) Dialog control method and apparatus
KR19990030040A (en) Input system for at least location and / or street names
EP1044416A1 (en) Automatic inquiry method and system
JP2000315096A (en) Man-machine system provided with voice recognition device
WO2005066934A1 (en) Method and system for speech recognition using grammar weighted based upon location information
JP2011179917A (en) Information recording device, information recording method, information recording program, and recording medium
CN106462513A (en) Information processing system and vehicle-mounted device
JPH10143187A (en) Work support system
WO2018079285A1 (en) Control apparatus and control system
JP2009198614A (en) Interaction device and program
JP2002123290A (en) Speech recognition device and speech recognition method
JP2007505365A (en) Voice control navigation system operation method
JP2011065526A (en) Operating system and operating method
JP2007047882A (en) Information retrieval device
JP5455355B2 (en) Speech recognition apparatus and program
JP2006010509A (en) Navigation system
JP2000067047A (en) Interactive controller and method therefor
JPH10133709A (en) Work support system
JPH11249689A (en) Voice recognition device and map display device
JP4228442B2 (en) Voice response device
JP2000181488A (en) Voice recognition device and navigation system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees