JPH10133709A - Work support system - Google Patents

Work support system

Info

Publication number
JPH10133709A
JPH10133709A JP8292096A JP29209696A JPH10133709A JP H10133709 A JPH10133709 A JP H10133709A JP 8292096 A JP8292096 A JP 8292096A JP 29209696 A JP29209696 A JP 29209696A JP H10133709 A JPH10133709 A JP H10133709A
Authority
JP
Japan
Prior art keywords
information
user
work
current state
support system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8292096A
Other languages
Japanese (ja)
Inventor
Tetsuya Sakayori
哲也 酒寄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP8292096A priority Critical patent/JPH10133709A/en
Publication of JPH10133709A publication Critical patent/JPH10133709A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Control By Computers (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a user with information that the user really requires at each point of time. SOLUTION: The current state, in which a user is put, is gathered by gathering means 6 to 11, the current state of the user is recognized by a current state recognizing means based on their output signals and information for supporting user's work is stored and held systematically in data bases 2 and 12 according to the recognition state. Information needed to support the work that the user performs is retrieved from the data bases 2 and 12 and the retrieved necessary information is guided by a guide means to a guide part 14. Thus since the information needed to support the work that the user performs is guided according to the current state wherein the user is placed, the user is provided with the information that the user really requires at each point of time.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、調理手順を案内す
るクッキングガイドや運行経路を案内するカーナビゲー
ションシステム等に代表されるような作業支援システム
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a work support system such as a cooking guide for guiding a cooking procedure and a car navigation system for guiding an operation route.

【0002】[0002]

【従来の技術】近年、情報処理技術等の進展を背景とし
て、各種の作業支援システムが研究開発されており、そ
の進歩発展には目覚ましいものがある。このような作業
支援システムとしては、GPS技術の進歩と共に急激に
普及したカーナビゲーション技術を代表として、調理手
順を音声で案内するクッキングガイド等がある。
2. Description of the Related Art In recent years, various work support systems have been researched and developed with the progress of information processing technology and the like, and the progress and development of these systems are remarkable. As such a work support system, there is a cooking guide or the like for guiding a cooking procedure by voice, as represented by a car navigation technology which has rapidly spread with the advancement of GPS technology.

【0003】クッキングガイドの一例は、例えば特開昭
63−201686号公報に開示されている。この公報
には、調理方法及び材料を音声データメモリに格納し、
マイクからの音声入力や押しボタンによるキー入力に基
づく進段命令によって、各料理に関する食材の量と調理
方法とを音声出力するようにした発明が開示されてい
る。例えば、ある料理を指定して食材の量の案内を求め
ると、システムより人数が問い合わされ、これに答える
と必要な食材の量が音声出力される。そして、調理方法
の案内を求めると、調理方法が音声出力される。
An example of a cooking guide is disclosed in, for example, Japanese Patent Application Laid-Open No. 63-201686. In this publication, cooking methods and ingredients are stored in an audio data memory,
There is disclosed an invention in which the amount of food and the cooking method for each dish are output as a sound by an advance command based on a voice input from a microphone or a key input by a push button. For example, when a certain dish is designated and guidance on the amount of ingredients is requested, the system inquires about the number of people, and when this is answered, the required amount of ingredients is output as voice. Then, when a guide for the cooking method is requested, the cooking method is output as voice.

【0004】カーナビゲーションシステムとしては、例
えば次のような例がある。まず、特開昭62−2679
00号公報には、画像表示による経路案内に加え、音声
による経路案内を行うようにした発明が開示されてい
る。これを更に進めたものとして、特開平4−1897
号公報には、車両の速度に応じて音声アナウンスする先
の交差点までの到達時間を算出し、音声アナウンスの読
み終わりから逆算して案内音声の開始タイミングを制御
するようにした発明が開示されている。つまり、この発
明は、先の交差点について音声アナウンスの開始タイミ
ングを的確にすることを目的としている。そして、特開
平7−27569号公報には、進路変更すべき交差点と
その手前の交差点との間の距離に応じて案内音声の出力
タイミングを変えることにより、より的確な経路案内を
することができるようにした発明が開示されている。こ
の発明では、進路変更すべき交差点とその手前の交差点
との間の距離を求め、この距離が所定距離以上の場合に
は所定距離の地点で案内音声を出力し、その距離が所定
距離以下の場合には手前の交差点通過後に案内音声を出
力する。これにより、進路変更すべき交差点の手前の交
差点を進路変更すべき交差点と誤解させてしまうような
ことがなくなる。
As a car navigation system, for example, there is the following example. First, JP-A-62-2679
Patent Document No. 00 discloses an invention in which route guidance by voice is performed in addition to route guidance by image display. As a further advance, Japanese Patent Laid-Open Publication No.
Japanese Patent Application Publication No. JP-A-2002-209555 discloses an invention in which the arrival time to an intersection at which a voice announcement is made is calculated according to the speed of a vehicle, and the start timing of the guidance voice is controlled by calculating backward from the end of reading the voice announcement. I have. That is, an object of the present invention is to accurately start the voice announcement at the preceding intersection. Japanese Unexamined Patent Application Publication No. 7-27569 discloses a more accurate route guidance by changing the output timing of the guidance voice according to the distance between the intersection to be rerouted and the intersection in front of the intersection. The invention as described above is disclosed. According to the present invention, a distance between an intersection to be rerouted and an intersection in front of the intersection is determined, and when the distance is equal to or longer than a predetermined distance, guidance voice is output at a point of a predetermined distance, and the distance is equal to or shorter than a predetermined distance. In this case, a guidance voice is output after passing through the preceding intersection. As a result, the intersection before the intersection to be changed is not mistaken for the intersection to be changed.

【0005】[0005]

【発明が解決しようとする課題】何らかの作業中、この
作業に関する情報が必要となった場合、その情報を持っ
ている人がそばにいればその人に尋ねることができ、こ
の場合には作業を極めて効率的に行うことができる。こ
れに対し、必要な情報を持っている人がそばにいなけれ
ばマニュアル等の情報源を検索する必要があり、この場
合には効率的な作業の実行が困難である。これは、必要
な情報を持っている人がそばにいるといないとでは、情
報提供側における現在の状況の把握という点で大きな開
きがあるからである。つまり、作業者の近くにいる人
は、作業者が置かれている状況を共有しているか大体把
握しているので、作業者がどのような情報を要求してい
るかということを容易に理解することができ、このため
速やかに必要な情報を提供することができる。これに対
し、マニュアル等の情報源それ自体は、当然のことなが
ら、作業者が置かれている状況を把握することができな
い。このため、そのような情報源から作業者が必要な情
報を見つけ出すためには、自分の置かれている状況に適
合する記述部分を探すことに多くの労力を割かなければ
ならず、いきおい効率が低下することになる。
If information on this work is required during any work, the person who has the information can be asked if it is nearby. It can be done very efficiently. On the other hand, if there is no person who has the necessary information nearby, it is necessary to search for an information source such as a manual, and in this case, it is difficult to perform an efficient operation. This is because there is a great gap in grasping the current situation on the information providing side unless there is a person who has the necessary information nearby. In other words, those who are close to the worker generally know whether they share the situation in which they are located and can easily understand what information the worker is requesting. Therefore, necessary information can be promptly provided. On the other hand, the information source itself such as a manual cannot naturally grasp the situation where the worker is located. For this reason, in order for workers to find necessary information from such information sources, much effort must be devoted to searching for a description part that fits their situation, which is extremely efficient. Will decrease.

【0006】このようなことを前提に従来の作業支援シ
ステムを考えると、従来の作業支援システムには、作業
者が置かれている状況をシステム自体が認識する種類の
ものはない。このため、作業者が真に必要としている情
報を提供しがたいという問題がある。
Considering such a conventional work support system, there is no conventional work support system that recognizes a situation where a worker is placed. For this reason, there is a problem that it is difficult to provide the information that the operator really needs.

【0007】例えば、従来の技術の項目で紹介した各公
報記載の発明について考えると、特開昭63−2016
86号公報記載のクッキングガイドは、ユーザの要求に
応じて単に料理の材料料と調理方法とが案内されるにす
ぎず、調理しているユーザが置かれている状況判断は一
切なされない。このため、例えば、システムの想定と異
なる火力のコンロを使用したための状況変化、聞き間違
い等によるユーザのミスによる状況変化、食材の大きさ
や質のバラツキによる状況変化等が生じた場合、これに
まったく対応することができない。また、実際の調理作
業に際しては、沸騰したら火を止めるというような、何
らかの状況変化が起こったらある行動をするということ
が多々あるが、このようなことにもまったく対応するこ
とができない。さらに、実際の調理作業では、複数の品
を同時に作るとか、肉を煮ながら野菜を切るというよう
に、複数の作業が同時進行するのが一般的である。とこ
ろが、例えば鍋の中身が沸騰する時点と野菜を切り終わ
る時点との順序というような事柄は予め予測できないた
め、このような事柄に対応できるような的確な案内が不
可能である。
For example, considering the inventions described in the respective publications introduced in the section of the prior art, Japanese Patent Application Laid-Open No. 63-2016
The cooking guide described in Japanese Patent Publication No. 86 merely guides the ingredients of the dish and the cooking method in response to the user's request, and does not make any judgment on the situation where the cooking user is placed. For this reason, for example, when a situation change due to the use of a stove with a heating power different from the assumption of the system, a situation change due to a user mistake due to a mistake in listening, a situation change due to a variation in the size and quality of foodstuffs, etc. Can't respond. In addition, in actual cooking operations, there are many cases where a certain action such as turning off the fire when boiling occurs, and taking a certain action, but such a situation cannot be dealt with at all. Further, in an actual cooking operation, a plurality of operations generally proceed simultaneously, such as making a plurality of items at the same time or cutting vegetables while boiling the meat. However, since the order of the time when the contents of the pot boils and the time when the vegetables are completely cut cannot be predicted in advance, it is impossible to provide accurate guidance that can cope with such matters.

【0008】特開昭62−267900号公報や特開平
7−27569号公報に開示されたカーナビゲーション
システムも、ユーザが置かれている状況判断を行ってい
ないという点に関しては特開昭63−201686号公
報記載のクッキングガイドと同様である。したがって、
場合によってはユーザに誤認識を生じさせることがあ
る。例えば、特開平7−27569号公報に開示された
発明では、進路変更すべき交差点とその手前の交差点と
の間の距離に応じて案内音声の出力タイミングを変え、
ユーザの誤解をなくすという発想自体は優れたものであ
りながら、渋滞によって進路変更すべき交差点の遥か手
前で音声アナウンスがなされる可能性があり、この場合
にはユーザに誤解を生じさせることがある。つまり、特
開平7−27569号公報記載の発明には、ユーザが置
かれている状況を把握するという思想はない。この点、
特開平4−1897号公報には、車両の速度というユー
ザが置かれている状況の一つを把握している。しかしな
がら、特開平7−27569号公報でも指摘されている
ように、進路変更すべき交差点の手前の交差点に関して
の対応が欠落している。つまり、ユーザが置かれている
状況の把握という点に関し、カーナビゲーションシステ
ムに求められるレベルに達していない。したがって、特
開平4−1897号公報記載の発明も、ユーザが置かれ
ている状況を把握するという思想を備えていないといえ
る。
The car navigation systems disclosed in Japanese Patent Application Laid-Open Nos. 62-267900 and 7-27569 also disclose the fact that the situation where the user is placed is not determined. This is the same as the cooking guide described in Japanese Patent Publication No. Therefore,
In some cases, the user may be erroneously recognized. For example, in the invention disclosed in Japanese Patent Application Laid-Open No. 7-27569, the output timing of the guidance voice is changed according to the distance between the intersection to be rerouted and the intersection in front of the intersection.
Although the idea of eliminating the user's misunderstanding is excellent, there is a possibility that a voice announcement may be made far before an intersection to be changed due to traffic congestion, and this may cause misunderstanding to the user . In other words, the invention described in Japanese Patent Application Laid-Open No. 7-27569 does not have the idea of grasping the situation where the user is located. In this regard,
Japanese Patent Laying-Open No. 4-1897 has grasped one of the situations where a user is placed, that is, the speed of a vehicle. However, as pointed out in Japanese Patent Application Laid-Open No. Hei 7-27569, there is a lack of correspondence with respect to an intersection just before an intersection to be rerouted. That is, the level of grasping the situation where the user is located has not reached the level required for the car navigation system. Therefore, it can be said that the invention described in Japanese Patent Application Laid-Open No. 4-1897 does not have the idea of grasping the situation where the user is located.

【0009】[0009]

【課題を解決するための手段】請求項1記載の作業支援
システムは、所定の作業を実行しているユーザに対して
その作業を支援する情報を案内する作業支援システムに
おいて、ユーザが置かれている現在の状態を収集して電
気信号に変換し出力する収集手段と、収集手段の出力信
号に基づいてユーザが置かれている現在の状態を認識す
る現状認識手段と、ユーザの作業を支援する情報を体系
的に記憶保持するデータベースと、現状認識手段の認識
結果に応じてユーザが行っている作業の支援に必要な情
報をデータベースから検索する情報検索手段と、情報検
索手段によって検索された必要な情報を案内部に案内さ
せる案内手段とを備える。したがって、情報検索手段に
よって、収集手段の出力信号に基づき現状認識手段が認
識するユーザが置かれている現在の状態に応じ、ユーザ
が行っている作業の支援に必要な情報がデータベースか
ら検索され、これが案内手段の命令によって案内部に案
内される。したがって、ユーザが必要とする情報が的確
に案内されることになる。
According to a first aspect of the present invention, there is provided a work support system for guiding a user who is performing a predetermined work to information for supporting the work. Collecting means for collecting the current state, converting the current state into an electric signal, and outputting the electric signal; current state recognizing means for recognizing the current state where the user is located based on the output signal of the collecting means; and supporting the user's work. A database that systematically stores and retains information; an information search unit that searches the database for information necessary to support the work performed by the user according to the recognition result of the current state recognition unit; Guide means for guiding important information to the guide unit. Therefore, information necessary for supporting the work performed by the user is searched from the database according to the current state in which the user recognized by the current state recognition unit based on the output signal of the collection unit is located by the information search unit. This is guided to the guide section by the instruction of the guide means. Therefore, information required by the user is accurately guided.

【0010】請求項2記載の発明では、請求項1記載の
作業支援システムにおいて、情報検索手段は、一連の作
業内容を人間が一度に把握するのに適当な作業単位に分
割した情報をデータベースから検索し、案内手段は、検
索情報を音声によって案内部に案内させる。したがっ
て、ユーザが行っている作業の支援に必要な情報は、情
報検索手段によって人間が一度に把握するのに適当な作
業単位に分割され、案内手段によって音声アナウンスさ
れる。
According to a second aspect of the present invention, in the work support system according to the first aspect, the information retrieving means retrieves, from the database, information obtained by dividing a series of work contents into work units suitable for a human to grasp at once. The search and guidance means causes the guidance unit to guide the search information by voice. Therefore, information necessary for supporting the work performed by the user is divided into work units suitable for the human being to grasp at a time by the information search means, and the voice is announced by the guide means.

【0011】請求項3記載の発明は、請求項2記載の作
業支援システムにおいて、データベースは、少なくとも
調理対象物、その数量、その処理法、及び処理の程度に
関する情報を関連付けて記憶保持し、調理作業を支援す
る。したがって、ユーザが行っている調理作業の支援に
必要な情報がデータベースより検索され、このような情
報は人間が一度に把握するのに適当な作業単位に分割さ
れて音声アナウンスされる。この場合、収集手段が調理
対象物の物理的又は化学的変化を感知するセンサを含
み、現状認識手段かセンサの出力信号に基づいてユーザ
が置かれている現在の状態を推定し認識する請求項4記
載の発明、収集手段が調理作業に伴い発生する音を取り
込む音響取込装置を含み、現状認識手段が音響取込装置
の出力信号に基づいてユーザが置かれている現在の状態
を推定し認識する請求項5記載の発明、収集手段が調理
作業中のユーザの発話を取り込む発話取込装置を含み、
現状認識手段が発話取込装置の出力信号に基づいてユー
ザが置かれている現在の状態を推定し認識する請求項6
記載の発明では、ユーザが行っている調理作業の支援に
必要な情報がデータベースより的確に検索される。
According to a third aspect of the present invention, in the work support system according to the second aspect, the database associates and stores at least information on a cooking object, its quantity, a processing method thereof, and a degree of processing, and performs cooking. Support the work. Therefore, information necessary for supporting the cooking operation performed by the user is searched from the database, and such information is divided into work units suitable for human beings to grasp at a time, and voice announcements are made. In this case, the collecting means includes a sensor for sensing a physical or chemical change of the object to be cooked, and the current state recognition means or the current state where the user is located is estimated and recognized based on the output signal of the sensor. The invention according to claim 4, wherein the collecting means includes a sound capturing device for capturing a sound generated during the cooking operation, and the current state recognizing means estimates a current state where the user is located based on an output signal of the sound capturing device. The invention according to claim 5, wherein the collecting means includes an utterance capture device for capturing the utterance of the user during the cooking operation,
7. The current state recognizing means estimates and recognizes a current state where the user is located based on an output signal of the speech capturing device.
According to the described invention, information necessary for supporting the cooking operation performed by the user is accurately retrieved from the database.

【0012】請求項7記載の発明では、請求項1記載の
作業支援システムにおいて、情報検索手段は、ある作業
に関する大局的な情報をデータベースから検索し、この
情報の案内手段による案内後に同一作業に関する局所的
な情報をデータベースから検索する。したがって、ある
作業に関して大局的な情報がデータベースより検索され
案内手段によって案内された後、同一作業に関する局所
的な情報がデータベースより検索され案内手段によって
案内される。
According to a seventh aspect of the present invention, in the work support system according to the first aspect, the information search means searches the database for general information on a certain work, and after the information is guided by the information guide means, the information search means relates to the same work. Retrieve local information from a database. Therefore, after global information on a certain task is retrieved from the database and guided by the guidance means, local information on the same task is retrieved from the database and guided by the guidance means.

【0013】請求項8記載の発明は、請求項2記載の作
業支援システムにおいて、情報検索手段は、現在地から
目的地に向かう過程での通過予想点を含む地理的に広い
範囲の情報を検索し、この情報の音声案内後に同一通過
予想点を含む地理的に狭い範囲の情報を検索し、乗り物
の運転作業を支援する。したがって、ある通過予想点を
含む地理的に広い範囲の情報がデータベースより検索さ
れ案内手段によって案内された後、同一通過予想点を含
む地理的に狭い範囲の情報がデータベースより検索され
案内手段によって案内される。この場合、現在地から通
過予想点までの時間を予測する予測手段と予測手段の予
測結果に基づいて時間的余裕の有無を判定する判定手段
とを備え、情報検索手段は、判定手段が時間的余裕があ
ると判定した場合にのみ地理的に広い範囲の情報を検索
し、判定手段が時間的余裕がないと判定した場合には地
理的に狭い範囲の情報のみを検索する請求項9記載の作
業支援システムのように構成されていれば、ユーザが置
かれている現在の状態により即した音声アナウンスがな
される。
According to an eighth aspect of the present invention, in the work support system according to the second aspect, the information retrieving means retrieves information in a geographically wide range including a predicted passing point in a process from the current location to the destination. After the voice guidance of this information, information of a geographically narrow range including the same expected passage point is searched to support the driving operation of the vehicle. Therefore, after a geographically wide range of information including a certain expected passing point is retrieved from the database and guided by the guidance means, a geographically narrow range of information including the same expected passing point is retrieved from the database and guided by the guidance means. Is done. In this case, the information search means includes prediction means for predicting the time from the current position to the predicted passage point, and determination means for determining whether there is a time margin based on the prediction result of the prediction means. 10. The work according to claim 9, wherein a geographically wide range of information is searched only when it is determined that there is a search, and only a geographically narrow range of information is searched when the determination means determines that there is no time margin. If configured as a support system, voice announcements are made more suited to the current state of the user.

【0014】[0014]

【発明の実施の形態】本発明の第一の実施の形態を図1
ないし図5に基づいて説明する。本実施の形態は、料理
ナビゲーションシステムへの適用例である。
FIG. 1 shows a first embodiment of the present invention.
A description will be given with reference to FIG. This embodiment is an example of application to a dish navigation system.

【0015】図1は、料理ナビケーションシステムの概
要を示す模式図である。このシステムは、各部を集中的
に制御する制御部1を基本とし、この制御部1にデータ
ベースとしての料理知識データベース2が接続され、各
種情報の入出力部が接続されて構成されている。
FIG. 1 is a schematic diagram showing an outline of a cooking navigation system. This system is based on a control unit 1 for centrally controlling each unit. The control unit 1 is connected to a cooking knowledge database 2 as a database, and is connected to an input / output unit for various information.

【0016】制御部1に接続されている入力部として
は、状況認識部3と調理音判別部4と音声認識部5とが
設けられている。状況認識部3は、収集手段としての温
度センサ6、ガスセンサ7、重量センサ8、及びタイマ
9から収集されて電気的信号の形態で出力された各種の
情報を制御部1に送信する。温度センサ6は、調理器具
内やその周辺の温度を計測するセンサであり、ガスセン
サ7は使用されるガスの流量や流速を計測するセンサで
あり、重量センサ8は重量計測用のキッチン秤に内蔵さ
れた重量測定用のセンサや調理中の材料の重量を測定す
るセンサであり、タイマ8は時間を計測するキッチンタ
イマである。したがって、温度センサ6、ガスセンサ
7、重量センサ8、及びタイマ9は、調理対象物の物理
的又は化学的変化を感知するセンサとして機能する。次
に、調理御判別部4は、収集手段としての第一のマイク
ロフォン10が取り込んみ電気的信号の形態で出力され
た音響情報を制御部1に送信する。第一のマイクロフォ
ン10は、調理作業がなされる位置や鍋釜等の調理用具
が使用される位置等、キッチン内のあらゆる位置に設置
されて調理に伴い発生する音を拾う。そして、音声認識
部5は、収集手段としての第二のマイクロフォン11が
取り込んみ電気的信号の形態で出力された音声情報をデ
ータベースとしての音声言語データベース12に格納さ
れた情報に基づいて解析し、その結果を制御部1に送信
する。第二のマイクロフォン11は、ユーザの近傍に設
置され、調理作業中のユーザの発話を拾う。
As an input unit connected to the control unit 1, a situation recognition unit 3, a cooking sound discrimination unit 4, and a voice recognition unit 5 are provided. The situation recognition unit 3 transmits to the control unit 1 various information collected from the temperature sensor 6, the gas sensor 7, the weight sensor 8, and the timer 9 as collection means and output in the form of electric signals. The temperature sensor 6 is a sensor for measuring the temperature in and around the cooking utensil, the gas sensor 7 is a sensor for measuring the flow rate and flow velocity of the gas used, and the weight sensor 8 is built in a kitchen scale for measuring weight. The timer 8 is a kitchen timer for measuring the time. Therefore, the temperature sensor 6, the gas sensor 7, the weight sensor 8, and the timer 9 function as sensors for sensing a physical or chemical change of the object to be cooked. Next, the cooking determination unit 4 transmits to the control unit 1 the acoustic information captured by the first microphone 10 as the collection unit and output in the form of an electric signal. The first microphone 10 is installed at any position in the kitchen, such as a position where a cooking operation is performed or a position where cooking utensils such as a pot are used, and picks up a sound generated during cooking. Then, the voice recognition unit 5 analyzes the voice information captured by the second microphone 11 as the collecting means and output in the form of an electric signal based on the information stored in the voice language database 12 as a database, The result is transmitted to the control unit 1. The second microphone 11 is installed near the user and picks up the utterance of the user during the cooking operation.

【0017】制御部1に接続されている出力部として
は、音声合成部13が設けられている。この音声合成部
13は、制御部1の制御の下、音声言語データベース1
2に格納された情報に基づいて必要な音声情報を生成
し、この音声情報を案内部としてのスピーカ14から出
力する。
As an output unit connected to the control unit 1, a voice synthesizing unit 13 is provided. The speech synthesis unit 13 controls the speech language database 1 under the control of the control unit 1.
Based on the information stored in 2, necessary voice information is generated, and this voice information is output from a speaker 14 as a guide unit.

【0018】図2は、各部の電気的接続を示すブロック
図である。図1は、本実施の形態の料理ナビケーション
システムの概要を模式的に示した図であり、実際には、
図2に示すブロック図のように各部が構成されている。
つまり、各種の演算処理を実行して各部を集中的に処理
するCPU15のROM16及びRAM17からなる記
憶装置がバスライン18を介して接続され、これが制御
部1を構成する主要な構成要素となっている。また、収
集手段としての温度センサ6、ガスセンサ7、重量セン
サ8、及びタイマ9というセンサ類、並びに、収集手段
としての第一及び第二のマイクロフォン10,11は、
A/Dコンバータ19を介してバスライン18に接続さ
れ、案内部としてのスピーカ14は、D/Aコンバータ
20を介してバスライン18に接続され、これらの各部
はCPU15に統括的に制御される。ここで、A/Dコ
ンバータ19は多チャンネル構成であり、そのうちの1
チャンネルは第一のマイクロフォン10からの入力音
響、他の1チャンネルは第二のマイクロフォン10から
の入力音声、他のチャンネルは温度センサ6、ガスセン
サ7、重量センサ8、及びタイマ9というセンサ類から
の収集情報をそれぞれ処理し、調理音判別部4、音声認
識部5、及び状況認識部3にそれぞれ出力する。また、
D/Aコンバータ20は、音声合成部13からの出力波
形をスピーカ14を駆動するのに適した信号に変換す
る。そして、CPU15に接続されたバスライン18に
は、CD−ROMドライブ21が接続されており、この
CD−ROMドライブ21によってCD−ROMの内容
が読み取られる。CD−ROMには、料理知識データベ
ース2及び音声言語データベース12が格納されてい
る。
FIG. 2 is a block diagram showing the electrical connection of each part. FIG. 1 is a diagram schematically illustrating an outline of a cooking navigation system according to the present embodiment.
Each unit is configured as shown in the block diagram of FIG.
In other words, a storage device including the ROM 16 and the RAM 17 of the CPU 15 that executes various arithmetic processes and intensively processes each unit is connected via the bus line 18, and this is a main constituent element of the control unit 1. I have. Further, sensors such as a temperature sensor 6, a gas sensor 7, a weight sensor 8, and a timer 9 as collecting means, and first and second microphones 10 and 11 as collecting means,
The A / D converter 19 connects to the bus line 18, and the speaker 14 as a guide unit is connected to the bus line 18 via a D / A converter 20, and these units are controlled by the CPU 15. . Here, the A / D converter 19 has a multi-channel configuration.
The channel is the input sound from the first microphone 10, the other channel is the input sound from the second microphone 10, and the other channel is from the sensors such as the temperature sensor 6, the gas sensor 7, the weight sensor 8, and the timer 9. The collected information is processed and output to the cooking sound determination unit 4, the voice recognition unit 5, and the situation recognition unit 3, respectively. Also,
The D / A converter 20 converts an output waveform from the voice synthesizer 13 into a signal suitable for driving the speaker 14. A CD-ROM drive 21 is connected to the bus line 18 connected to the CPU 15, and the contents of the CD-ROM are read by the CD-ROM drive 21. The CD-ROM stores a cooking knowledge database 2 and a speech language database 12.

【0019】図3は、料理知識データベース2に格納さ
れた料理知識のデータ構造を示す模式図である。図3に
示すように、料理知識データベース2には、各料理毎
に、調理手順、調理対象物、その数量、その処理法、処
理の程度、及び終了条件が対応付けられて記憶保持され
ている。つまり、料理知識データベース2には、ユーザ
の調理作業を支援するための情報が体系的に記憶保持さ
れている。
FIG. 3 is a schematic diagram showing a data structure of cooking knowledge stored in the cooking knowledge database 2. As shown in FIG. 3, the cooking knowledge database 2 stores and holds a cooking procedure, a cooking object, the number thereof, a processing method, a processing degree, and an end condition in association with each cooking. . That is, the cooking knowledge database 2 systematically stores and holds information for assisting the cooking operation of the user.

【0020】ここで、ROM16やCD−ROMドライ
ブ21によって内容が読み取られるCD−ROMには、
動作プログラムが固定的に格納されており、この動作プ
ログラムに従ったCPU15の統括制御機能、つまりマ
イコン機能によって各種の機能が実行される。こうして
実行される機能の一つには、状況認識部3、調理御判別
部4、及び音声認識部5が果たす機能がある。この機能
は、概略的には、収集手段としての温度センサ6、ガス
センサ7、重量センサ8、タイマ9、及び二つのマイク
ロフォン10,11が収集してA/Dコンバータ19よ
り出力された信号に基づき、ユーザが置かれている現在
の状況を認識するという現状認識手段としての機能であ
る。このような現状認識機能のうち、第二のマイクロフ
ォン11が拾った音声に基づき実行される現状認識機能
は、音声認識部5における既存の音声認識技術に基づい
て行われる。既存の音声認識技術としては、例えば、日
本音響学会誌48巻1号26ページから32ページの
「数理統計モデルによる音声認識の現状と将来」に記述
されたもの等がある。
Here, the CD-ROM whose contents are read by the ROM 16 and the CD-ROM drive 21 include:
An operation program is fixedly stored, and various functions are executed by a general control function of the CPU 15 according to the operation program, that is, a microcomputer function. One of the functions executed in this way is a function performed by the situation recognition unit 3, the cooking determination unit 4, and the voice recognition unit 5. This function is generally based on a temperature sensor 6, a gas sensor 7, a weight sensor 8, a timer 9, and signals collected by two microphones 10 and 11 and output from an A / D converter 19 as collecting means. This is a function as a current state recognition means for recognizing the current situation where the user is placed. Among such current state recognition functions, the current state recognition function executed based on the voice picked up by the second microphone 11 is performed based on the existing voice recognition technology in the voice recognition unit 5. As the existing speech recognition technology, there is, for example, a technology described in “Current and Future of Speech Recognition by Mathematical Statistical Model” on page 26 to 32 of The Acoustical Society of Japan, Vol.

【0021】マイコン機能によって実行される他の機能
としては、情報検索機能及び案内機能がある。情報検索
機能は、ユーザが行っている作業の支援に必要な情報を
料理知識データベース2から検索するという情報検索手
段としての機能である。情報検索機能における料理知識
データベース2及び音声言語データベース12からの情
報検索は、料理知識データベース2の体系に従って行わ
れ、この場合、現状認識手段の認識結果に応じて情報検
索される場合もある。料理知識データベース2の体系と
いうのは、ある料理に関するある調理手順毎に対応付け
られた調理対象物、その数量、その処理法、処理の程
度、及び終了条件である。調理手順は、一連の作業を人
間が一度に把握するのに適当な作業単位毎に分割されて
いる。したがって、情報検索手段による情報検索も、そ
のような作業単位に分割されて行われる。次に、案内機
能は、情報検索手段によって検索された必要な情報をス
ピーカ14によって音声アナウンスするという案内手段
としての機能である。スピーカ14による音声アナウン
スは、音声言語データベース12に格納されたデータに
基づき音声合成部13がテンプレートを利用してその音
声を音声合成をすることよってなされる。このような処
理には既存の音声合成技術が利用される。既存の音声合
成技術としては、例えば、日本音響学会誌48巻1号3
9ページから45ページの「音声合成の研究の現状と将
来」に記述されたもの等がある。
Other functions executed by the microcomputer function include an information search function and a guidance function. The information search function is a function as an information search means for searching the cooking knowledge database 2 for information necessary for supporting the work performed by the user. Information retrieval from the cooking knowledge database 2 and the speech language database 12 in the information retrieval function is performed according to the system of the cooking knowledge database 2, and in this case, information retrieval may be performed according to the recognition result of the current state recognition means. The system of the cooking knowledge database 2 is a cooking object associated with each cooking procedure for a certain cooking, its quantity, its processing method, degree of processing, and termination conditions. The cooking procedure is divided into work units suitable for human beings to grasp a series of work at a time. Therefore, the information search by the information search means is also performed by being divided into such work units. Next, the guidance function is a function as a guidance unit that announces necessary information retrieved by the information retrieval unit by voice using the speaker 14. The voice announcement by the speaker 14 is performed by the voice synthesizer 13 using the template to synthesize the voice based on the data stored in the voice language database 12. Existing speech synthesis technology is used for such processing. As the existing speech synthesis technology, for example, Journal of the Acoustical Society of Japan, Vol.
Examples include those described in “Present and Future of Speech Synthesis Research” on pages 9 to 45.

【0022】ここで、本実施の形態の料理ナビゲーショ
ンシステムによる作業支援処理について説明する。この
作業支援処理は、概略的には、各料理毎に調理対象物と
その数量とをその処理法及び処理の程度と共に案内し、
この際にユーザが現在置かれている状態を見て次の処理
を決定し実行する、というものである。例えば、カレー
を調理する場合、「玉葱2個を微塵切りにして下さい」
というような案内を音声アナウンスし、この際、例えば
無音が10秒以上続いたというようなユーザの現状を検
出し、この場合には玉葱2個の微塵切りという処理が終
了したと判断して次の手順を音声アナウンスする、とい
うような作業支援が行われる。そこで、実際の処理を図
4及び図5のフローチャートに基づいて次に説明する。
Here, work support processing by the dish navigation system of the present embodiment will be described. This work support process is to guide the cooking object and the quantity thereof for each dish together with the processing method and the degree of the processing.
At this time, the next process is determined and executed by observing the current state of the user. For example, when cooking curry, "Please cut two onions into fine pieces."
At this time, the current state of the user, for example, that silence has continued for 10 seconds or more is detected, and in this case, it is determined that the processing of cutting the two onions has been completed, and the next Work announcements such as voice announcement of the procedure are performed. Therefore, the actual processing will be described next with reference to the flowcharts of FIGS.

【0023】図4は、作業支援処理の概要を示すフロー
チャートである。作業支援処理としては、まず始めに、
作業内容の検索が行われる(ステップS1)。この処理
は、ユーザによる料理名の宣言、ある料理における特定
の手順の終了による次の処理の検索等によってなされ
る。ユーザによる料理名の宣言は、第二のマイクロフォ
ン11によって取り込まれたユーザの発話が音声認識技
術によって認識されて行われる。
FIG. 4 is a flowchart showing an outline of the work support processing. First, as work support processing,
A search for work contents is performed (step S1). This processing is performed by the user declaring the name of the dish, searching for the next processing by ending a specific procedure for a certain dish, and the like. The user's declaration of the dish name is made by recognizing the user's utterance captured by the second microphone 11 by the voice recognition technology.

【0024】作業内容が検索されると、作業内容がある
かどうかが判断される(ステップS2)。これは、料理
知識データベース2に該当する料理の項目があるかどう
か、また、ある料理におけるすべての手順がまだ終了し
ていないかどうかをの判定によって行われる。例えば、
「カレー」と宣言された場合、カレーの項目が料理知識
データベース2にあるのでステップS2では作業内容あ
りと判断されるのに対し、料理知識データベース2にト
ムヤンクンという項目がない場合、「トムヤンクン」と
いう料理名が宣言されるとステップS2では作業内容な
しと判断される。同様に、料理知識データベース2に格
納されたカレーの調理手順が1〜30とすると、手順3
0の終了後は、ステップS2で作業内容なしと判断され
る。作業内容がない場合には、他のモジュールに終了通
知を送り(ステップS3)、処理を終了する。
When the work content is retrieved, it is determined whether there is any work content (step S2). This is performed by determining whether or not there is a corresponding dish item in the cooking knowledge database 2 and whether or not all procedures for a certain dish have not been completed yet. For example,
If "curry" is declared, since the item of curry is in the cooking knowledge database 2, it is determined in step S2 that there is work content. On the other hand, if there is no item in the cooking knowledge database 2 called "tom curly", it is called "tom curly". When the dish name is declared, it is determined in step S2 that there is no work content. Similarly, assuming that curry cooking procedures stored in the cooking knowledge database 2 are 1 to 30, procedure 3
After the completion of 0, it is determined in step S2 that there is no work content. If there is no work content, an end notification is sent to another module (step S3), and the process ends.

【0025】ステップS2で作業内容ありと判断される
と、その作業内容が情報検索手段に検索されて案内手段
により案内出力される(ステップS4)。例えば、作業
内容がカレーの手順2の場合、調理対象「玉葱」、数量
「2」、処理「炒める」、処理程度「中火」というデー
タ構造をしているので、このデータ構造に基づく音声デ
ータ、例えば「玉葱2個を中火で炒めて下さい」という
ような音声データが音声合成部13で生成され、スピー
カ14より音声出力される。
If it is determined in step S2 that there is work content, the work content is retrieved by the information retrieving means and output by the guidance means (step S4). For example, when the work content is curry procedure 2, the data structure is “onion”, quantity “2”, processing “fried”, and processing degree “medium heat”. Therefore, audio data based on this data structure is used. For example, voice data such as “Please fry two onions over medium heat” is generated by the voice synthesizing unit 13 and output as voice from the speaker 14.

【0026】続くステップS5では、トリガ条件が設定
される。つまり、ステップS4での例を挙げると、作業
内容がカレーの手順2の場合、料理知識データベース2
におけるデータ構造中の終了条件は「報告=飴色」又は
「重量=1/2」なので、これがトリガ条件として設定
される。設定は、RAM17のワークエリアが利用され
て行われる。その後、図5のフローチャートに基づいて
後述する割り込みの有無が判定され(ステップS6)、
割り込みがあればトリガ条件を解除した後(ステップS
7)、再びステップS1の作業内容の検索が行われる。
In the following step S5, a trigger condition is set. That is, in the example of step S4, if the work content is curry procedure 2, the cooking knowledge database 2
Since the end condition in the data structure of “report = amber” or “weight = 1 /”, this is set as the trigger condition. The setting is performed using the work area of the RAM 17. Thereafter, the presence or absence of an interrupt described later is determined based on the flowchart of FIG. 5 (Step S6),
If there is an interrupt, release the trigger condition (step S
7) The work content is searched again in step S1.

【0027】図5は、条件設定処理の概要を示すフロー
チャートである。これは、図4に示す作業支援処理のサ
ブルーチンとして数ms毎に実行される処理である。ま
ず、終了通知(図4のステップS3)の有無が判定され
(ステップS11)、終了通知がければトリガ条件(図
4のステップS5)の有無が判定される(ステップS1
2)。トリガ条件なしの場合にはステップS11の判定
処理に戻るのに対し、トリガ条件があれば現状認識手段
に現状認識機能を実行させる(ステップS13)。つま
り、温度センサ6、ガスセンサ7、重量センサ8、タイ
マ9、及び二つのマイクロフォン10,11が収集して
A/Dコンバータ19より出力された信号に基づき、ユ
ーザが置かれている現在の状況が認識される。この場
合、第一のマイクロフォン10より収集された情報中、
ユーザの現状認識の手掛かりとなる音としては、炒める
音、沸騰する音、圧力釜の蒸気の音等の調理対象の音、
フードプロセッサやハンドミキサ等の機械音、包丁がま
な板を叩く音等のユーザが発する音、電子レンジの終了
音等がある。
FIG. 5 is a flowchart showing an outline of the condition setting process. This is a process executed every few ms as a subroutine of the work support process shown in FIG. First, it is determined whether there is an end notification (step S3 in FIG. 4) (step S11). If there is no end notification, it is determined whether there is a trigger condition (step S5 in FIG. 4) (step S1).
2). If there is no trigger condition, the process returns to the determination process in step S11. On the other hand, if there is a trigger condition, the current condition recognition means is caused to execute the current condition recognition function (step S13). That is, based on the signals collected by the temperature sensor 6, the gas sensor 7, the weight sensor 8, the timer 9, and the two microphones 10 and 11 and output from the A / D converter 19, the current situation where the user is placed is shown. Be recognized. In this case, in the information collected from the first microphone 10,
Sounds that are clues to the user's recognition of the current situation include sounds to be cooked, such as the sound of frying, the sound of boiling, the sound of steam in a pressure cooker,
There are mechanical sounds such as a food processor and a hand mixer, a user's sound such as a sound of a kitchen knife hitting a cutting board, and an end sound of a microwave oven.

【0028】ステップS13でユーザの現状が認識され
た後、設定条件判定がなされる(ステップS14)。設
定条件判定では、認識されたユーザの現状がトリガ条件
(図4のステップS7)を満たしているかどうかが判定
される。例えば、作業内容がカレーの手順2の場合、料
理知識データベース2におけるデータ構造中の「報告=
飴色」又は「重量=1/2」がトリガ条件として設定さ
れているので、「飴色になった」というユーザの発話が
音声認識されたか、あるいは、重量センサ8の出力値よ
り状況認識部3が炒めている玉葱の重量が1/2になっ
たことを認識するかした場合、ユーザの現状がトリガ条
件を満たしていると判定される。そして、トリガ条件が
満たされれば、制御部1に割り込みがかけられる。これ
により、図4の作業支援処理においてトリガ条件が解除
され(ステップS7)、再度作業内容の検索がなされる
(ステップS1)。ユーザの現状がトリガ条件を満たし
ていると判定されたカレーの手順2という作業内容の例
では、ステップS1において、作業内容の検索によって
カレーの手順3という作業内容が検索される。ここに、
情報検索手段の機能が実行される。
After the current state of the user is recognized in step S13, the setting condition is determined (step S14). In the setting condition determination, it is determined whether the current state of the recognized user satisfies the trigger condition (step S7 in FIG. 4). For example, when the work content is curry procedure 2, “report =” in the data structure in the cooking knowledge database 2
Since “candy color” or “weight = 1 /” is set as the trigger condition, the situation recognition unit 3 determines whether the utterance of the user “it has become sweet color” has been recognized by speech or based on the output value of the weight sensor 8. When recognizing that the weight of the fried onion has been reduced to half, it is determined that the current state of the user satisfies the trigger condition. Then, if the trigger condition is satisfied, the control unit 1 is interrupted. Thereby, the trigger condition is canceled in the work support processing of FIG. 4 (step S7), and the work content is searched again (step S1). In the example of the operation content of the curry procedure 2 determined that the current state of the user satisfies the trigger condition, in step S1, the operation content of the curry procedure 3 is searched by searching for the operation content. here,
The function of the information search means is executed.

【0029】本発明の第二の実施の形態を図6ないし図
8に基づいて説明する。本実施の形態は、カーナビゲー
ションシステムへの適用例である。
A second embodiment of the present invention will be described with reference to FIGS. This embodiment is an example of application to a car navigation system.

【0030】図6は、カーナビケーションシステムの概
要を示す模式図である。このシステムは、各部を集中的
に制御する制御部31を基本とし、この制御部31にデ
ータベースとしての地図データベース32が接続され、
各種情報の入出力部が接続されて構成されている。
FIG. 6 is a schematic diagram showing an outline of the car navigation system. This system is based on a control unit 31 for centrally controlling each unit, and a map database 32 as a database is connected to the control unit 31,
An input / output unit for various information is connected and configured.

【0031】制御部31に接続されている入力部として
は、位置測定部33と地理検索部34と表示/入力制御
部35とが設けられている。位置測定部33は、収集手
段としてのGPSレシーバ36、方位センサ37、及び
車速センサ38から収集されて電気的信号の形態で出力
された各種の情報を処理し、制御部31に送信する。つ
まり、位置測定部33における情報処理は、GPSレシ
ーバ36から得られる人工衛星からの電波に基づく三角
測量による位置情報、光ファイバジャイロや地磁気セン
サ等の方位センサ37から得られる進行方向の情報、車
速センサ38から得られる車速パルスに基づく車速情報
等を統合する処理である。地理検索部34は、地理デー
タベース32を備え、位置測定部33からの信号を地理
データベース32の情報と照合するといういわゆるマッ
プマッチングの技術を利用して現在位置を求める。ま
た、地理検索部34は、経路記憶部39をも備え、ある
地点から別のある地点までの経路を経路記憶部39に記
憶保持させる機能をも備える。このような各種の処理
は、現在一般に普及しているカーナビゲーションシステ
ムの基本技術であるので、詳細な説明は省略する。そし
て、表示/入力制御部35は、表示入力装置40を備
え、必要な情報の制御部31との間の入出力を制御す
る。
As input units connected to the control unit 31, a position measuring unit 33, a geographic search unit 34, and a display / input control unit 35 are provided. The position measurement unit 33 processes various information collected from the GPS receiver 36, the direction sensor 37, and the vehicle speed sensor 38 as collection means and output in the form of electric signals, and transmits the processed information to the control unit 31. That is, the information processing in the position measurement unit 33 includes position information by triangulation based on radio waves from artificial satellites obtained from the GPS receiver 36, information on the traveling direction obtained from the direction sensor 37 such as an optical fiber gyro and a geomagnetic sensor, and vehicle speed. This is a process for integrating vehicle speed information and the like based on the vehicle speed pulse obtained from the sensor 38. The geographic search unit 34 includes the geographic database 32, and obtains a current position by using a so-called map matching technique of matching a signal from the position measurement unit 33 with information in the geographic database 32. The geographic search unit 34 also includes a route storage unit 39, and also has a function of causing the route storage unit 39 to store and hold a route from a certain point to another certain point. Such various processes are basic technologies of a car navigation system that is currently widely used, and thus detailed description is omitted. The display / input control unit 35 includes a display / input device 40, and controls input and output of necessary information to and from the control unit 31.

【0032】制御部31に接続されている出力部として
は、音声合成部41が設けられている。この音声合成部
41は、制御部31の制御の下、音声言語データベース
42に格納された情報に基づいて必要な音声情報を生成
し、この音声情報を案内部としてのスピーカ43から出
力する。
As an output section connected to the control section 31, a voice synthesis section 41 is provided. The voice synthesis unit 41 generates necessary voice information based on the information stored in the voice language database 42 under the control of the control unit 31, and outputs the voice information from a speaker 43 as a guide unit.

【0033】ここで、図6は、本実施の形態のカーナビ
ケーションシステムの概要を模式的に示した図であり、
実際には、料理ナビゲーションシステムのブロック図を
例示する図2に示すブロック図のような形態で各部が構
成されている(図示せず)。つまり、CPUとROMと
RAMとからなるマイコンが設けられ、このマイコンに
GPSレシーバ36、方位センサ37、車速センサ3
8、表示入力装置40、スピーカ43が接続され、地図
データベース32及び音声言語データベース42を記憶
保持する大容量記憶媒体が接続されてシステムが構成さ
れる。そして、経路記憶部39のためにはRAM内の所
定領域が利用され、位置測定部33と地理検索部34と
表示/入力制御部35とが備える機能はマイコン制御に
よって実行される。さらに、音声合成部41における音
声合成の手法は、第一の実施の形態における音声合成技
術と同様であるため、その説明は省略する。
FIG. 6 is a diagram schematically showing the outline of the car navigation system according to the present embodiment.
Actually, each unit is configured in a form like a block diagram shown in FIG. 2 exemplifying a block diagram of the dish navigation system (not shown). That is, a microcomputer including a CPU, a ROM, and a RAM is provided, and the microcomputer includes a GPS receiver 36, a direction sensor 37, and a vehicle speed sensor 3.
8. The display / input device 40 and the speaker 43 are connected, and a large-capacity storage medium for storing and holding the map database 32 and the audio language database 42 is connected to form a system. A predetermined area in the RAM is used for the route storage unit 39, and the functions of the position measurement unit 33, the geographic search unit 34, and the display / input control unit 35 are executed by microcomputer control. Further, the method of speech synthesis in the speech synthesis unit 41 is the same as the speech synthesis technique in the first embodiment, and thus the description thereof will be omitted.

【0034】図7は、地図データベース32に格納され
た地図データ構造の一部を示す模式図である。地図デー
タ構造は、分岐点であるノード情報と分岐点を繋ぐ道路
であるリンク情報とを基本とし、これらが広域経路情報
と局所経路情報とに分けられた階層構造をなしている。
広域経路情報というのは地理的に広い範囲の概略情報で
あり、図7中、「交差点A」や「Bインターチェンジ」
等が広域経路情報中のノード情報、「県道…号線」や
「…街道」等が広域経路情報中のリンク情報である。ま
た、局所経路情報というのは、広域経路情報に対応する
地理的に狭い範囲の詳細情報である。例えば、図7中、
広域経路情報中の「県道…号線」は、「1リンク」及び
「2リンク」というリンク情報とその間の「z交差点」
というノード情報とを含む。
FIG. 7 is a schematic diagram showing a part of the map data structure stored in the map database 32. The map data structure is based on node information that is a branch point and link information that is a road connecting the branch points, and has a hierarchical structure that is divided into wide area route information and local route information.
The wide-area route information is outline information of a wide geographical area. In FIG. 7, "intersection A" and "B interchange"
Are the node information in the wide-area route information, and "prefectural road ... line" and "... highway" are the link information in the wide area route information. The local route information is detailed information in a geographically narrow range corresponding to the wide area route information. For example, in FIG.
"Prefectural road ... Route" in the wide area route information is link information "1 link" and "2 link" and "z intersection" between them.
Node information.

【0035】ここで、マイコン機能によって実行される
各種の手段としては、現状認識手段、情報検索手段、案
内手段、予測手段、及び判定手段が設けられている。現
状認識手段は、収集手段としてのGPSレシーバ36、
方位センサ37、及び車速センサ38が収集し出力した
信号に基づき、ユーザが置かれている現在の状況を認識
するという現状認識機能を果たす。情報検索手段は、情
報検索機能は、現状認識手段の認識結果に応じ、ユーザ
が行っている作業の支援に必要な情報を地図データベー
ス32及び音声言語データベース42から検索するとい
う情報検索機能を果たす。案内手段は、情報検索手段に
よって検索された必要な情報をスピーカ43によって音
声アナウンスする案内機能を果たす。スピーカ43によ
る音声アナウンスは、音声言語データベース42に格納
されたデータに基づき音声合成部41がテンプレートを
利用してその音声を音声合成をすることよってなされ、
このような処理には第一の実施の形態において述べたよ
うな既存の音声合成技術が利用される。予測手段は、現
在地から通過予想点までの時間を予想する機能を果た
す。これは、位置測定部33及び地理検索部34によっ
て現在地を求め、方位センサ37から得られる進行方向
の情報や車速センサ38から得られる車速情報に基づ
き、次のノード情報地点までの時間を演算処理により求
める機能である。判定手段は、予測手段の予測結果等に
基づいて時間的余裕の有無を判定する手段である。
Here, various means executed by the microcomputer function include a current state recognizing means, an information searching means, a guiding means, a predicting means, and a judging means. The current status recognition means includes a GPS receiver 36 as a collection means,
Based on the signals collected and output by the azimuth sensor 37 and the vehicle speed sensor 38, the current state recognition function of recognizing the current situation where the user is located is performed. The information retrieving means performs an information retrieving function of retrieving information necessary for supporting the work performed by the user from the map database 32 and the speech language database 42 according to the recognition result of the current state recognizing means. The guidance means performs a guidance function of announcing the necessary information retrieved by the information retrieval means through the speaker 43. The voice announcement by the speaker 43 is performed by the voice synthesis unit 41 performing voice synthesis of the voice using the template based on the data stored in the voice language database 42,
For such processing, the existing speech synthesis technology as described in the first embodiment is used. The prediction means performs a function of predicting a time from the current position to a predicted passing point. That is, the current position is obtained by the position measurement unit 33 and the geographic search unit 34, and the time to the next node information point is calculated based on the traveling direction information obtained from the direction sensor 37 and the vehicle speed information obtained from the vehicle speed sensor 38. This is the function required by. The judging means is means for judging the presence or absence of a time margin based on a prediction result or the like of the prediction means.

【0036】ここで、本実施の形態のカーナビゲーショ
ンシステムによる作業支援処理について説明する。この
作業支援処理は、概略的には、走行前に目的地までの経
路を決定し経路記憶部39に記憶保持しておき、この経
路を実際の走行時に音声アナウンスするという一般的な
音声ガイド付きカーナビゲーションシステムの機能であ
る。したがって、その説明は省略する。これに対し、そ
のような作業支援機能中、本実施の形態に特有の機能
は、ユーザが置かれた現在の状態を認識し、これに適合
した音声アナウンスをするという点にある。そこで、以
下、このような本実施の形態に特有の機能を図8のフロ
ーチャートに基づいて説明する。
Here, work support processing by the car navigation system according to the present embodiment will be described. This work support processing is generally performed with a general voice guide that determines a route to a destination before traveling and stores and holds the route in a route storage unit 39, and announces this route during actual traveling. This is a function of the car navigation system. Therefore, the description is omitted. On the other hand, among such work support functions, a function unique to the present embodiment is that the current state where the user is placed is recognized, and a voice announcement suitable for this is made. Thus, hereinafter, functions unique to the present embodiment will be described based on the flowchart of FIG.

【0037】図8は、音声案内処理の概要を示すフロー
チャートである。前提として、地図データベース32に
格納された地図データ構造中、図7の広域経路情報に示
される「県道…号線」の「1リンク」を「z交差点」に
向かって走行しているものとする。この時、予測手段に
よって時間的余裕が予測され、この予測結果に応じて判
定手段により時間的余裕の有無が判定される(ステップ
S1)。時間的余裕というのは、現在地点から次の音声
アナウンスを予定している「z交差点」に至るまでの時
間に、音声アナウンスを広域経路情報から局所経路情報
へと階層的に行うことができるかどうかという時間的余
裕を意味する。この場合、ユーザが現在置かれている状
態として、車速センサ38からの車速情報が参照されて
ある一定区間の平均速度が求められ、これがある閾値よ
り大きいか小さいかが判定手段によって判定される。
FIG. 8 is a flowchart showing an outline of the voice guidance processing. As a premise, it is assumed that in the map data structure stored in the map database 32, "1 link" of "prefectural road ... line" indicated in the wide area route information of FIG. 7 is traveling toward "z intersection". At this time, the time margin is predicted by the prediction means, and the presence or absence of the time margin is determined by the determination means according to the prediction result (step S1). The time margin means whether the voice announcement can be made hierarchically from the wide-area route information to the local route information during the time from the current location to the “z intersection” where the next voice announcement is scheduled. It means extra time. In this case, as the state where the user is currently placed, the average speed in a certain section is obtained by referring to the vehicle speed information from the vehicle speed sensor 38, and it is determined by the determining means whether the average speed is larger or smaller than a certain threshold.

【0038】次に、予測時間によって予測された時間的
余裕をパラメータとして、情報検索手段によって案内開
始階層iとテンプレートjとが求められる(ステップS
2)。案内開始階層iというのは、地図データベース3
2に格納された地図データ構造中の広域経路情報と局所
経路情報とを意味する。図7では、階層構造が広域経路
情報と局所経路情報との二通りになっているが、実際に
は、より多層構造となっている。テンプレートjは、音
声合成部41に代表的な音声パターンとして保持された
発話文テンプレートを意味する。例えば、第一の広域用
として、「この後、〈リンク1〉、…〈リンクn〉を通
って〈目的地〉に向かいます」というようなテンプレー
トが用意され、第二の広域用として、「〈リンク1〉へ
はあと〈距離〉先の〈交差点〉〈方向〉方向です」とい
うようなテンプレートが用意され、局所用として「この
先〈距離〉〈交差点〉〈方向〉方向です」というような
テンプレートが用意されている。
Next, a guidance start hierarchy i and a template j are obtained by the information retrieval means using the time margin predicted by the predicted time as a parameter (step S).
2). The guidance start hierarchy i is the map database 3
2 means the wide area route information and the local route information in the map data structure stored in 2. In FIG. 7, there are two types of hierarchical structures, that is, wide-area route information and local route information, but in reality, it has a more multilayered structure. The template j means an utterance sentence template held as a typical voice pattern in the voice synthesis unit 41. For example, for the first wide area, a template such as “After this, go to <destination> through <link 1>,... <Link n>” is prepared, and for the second wide area, For <Link 1>, a template such as <Distance> ahead of <Intersection><Direction> direction is prepared, and for local use, a template such as <Forward <Distance><Intersection><Direction>direction> Is prepared.

【0039】次に、案内手段により、案内開始階層iの
情報がテンプレートjに基づいて案内される(ステップ
S3)。例えば、ステップS1で時間的余裕があると判
定された場合には、案内開始階層iとして広域経路情報
が選択され、第一の広域用のテンプレートjが選択され
る。したがって、「この後、…街道、…高速道路を通っ
て…市に向かいます」というような音声アナウンスがな
される。その後、テンプレートjを使用した音声アナウ
ンスの終了後、下位のテンプレートjの有無が判断され
(ステップS4)、下位のテンプレートjがあればテン
プレートjがディクリメントされ(ステップS5)、再
び案内開始階層iの情報のテンプレートjに基づく案内
がなされる(ステップS3)。つまり、案内開始階層i
として広域経路情報が選択され、第二の広域用のテンプ
レートjが選択されているので、「…街道へはあと20
km先のA交差点で接続します」というような音声アナ
ウンスがなされる。
Next, the information of the guidance start hierarchy i is guided by the guidance means based on the template j (step S3). For example, if it is determined in step S1 that there is enough time, the wide area route information is selected as the guidance start hierarchy i, and the first wide area template j is selected. Therefore, a voice announcement such as "I will go to the city through a highway, a highway, ... after this time" is made. Then, after the end of the voice announcement using the template j, it is determined whether or not there is a lower template j (step S4). If there is a lower template j, the template j is decremented (step S5), and the guidance start hierarchy i is returned. Is provided based on the information template j (step S3). That is, the guidance start hierarchy i
Since the wide area route information is selected and the second wide area template j is selected, "...
The connection will be made at the intersection A km ahead. "

【0040】これに対し、ステップS1で時間的余裕が
ないと判定された場合には、ステップS2では第二の広
域用のテンプレートjや案内開始階層iとして局所経路
情報が選択される。つまり、ユーザが置かれている現在
の状態に応じた音声アナウンスがなされる。
On the other hand, if it is determined in step S1 that there is not enough time, in step S2, local route information is selected as the second wide-area template j or guidance start hierarchy i. That is, a voice announcement is made according to the current state where the user is located.

【0041】次いで、ステップS4で、下位のテンプレ
ートjがないと判断された場合には、下位の案内開始階
層iの有無が判断される(ステップS6)。下位の案内
開始階層iがあれば、案内開始階層iがインクリメント
され(ステップS7)、これに応じたテンプレートjが
選択される(ステップS8)。ここでは、案内開始階層
iとして局所経路情報が選択され、局所用のテンプレー
トjが選択される。したがって、ステップS4に戻り、
「この先50m先のz交差点を直進方向です」というよ
うな音声アナウンスがなされる。そして、ステップS6
で下位の案内開始階層iがないと判断されると、処理を
終了する。
Next, when it is determined in step S4 that there is no lower template j, it is determined whether there is a lower guidance start hierarchy i (step S6). If there is a lower guidance start hierarchy i, the guidance start hierarchy i is incremented (step S7), and a template j corresponding to this is selected (step S8). Here, the local route information is selected as the guidance start hierarchy i, and the local template j is selected. Therefore, returning to step S4,
A voice announcement such as "It is going straight ahead at the z intersection 50 m ahead" is made. Then, step S6
If it is determined that there is no lower guidance start hierarchy i, the process ends.

【0042】[0042]

【発明の効果】請求項1記載の発明は、ユーザが置かれ
ている現在の状態を収集し、これに見合った支援情報を
案内するようにしたので、ユーザにその者が各時点で真
に求める情報を提供し、作業支援効果を高めることがで
きる。また、この場合、ユーザが置かれている現在の状
態が自動収集されるため、ユーザに状況説明の為の負担
をかけず、使用感に優れた作業支援システムを提供する
ことができる。
According to the first aspect of the present invention, the current state where the user is placed is collected, and the support information corresponding to the current state is provided. It can provide the required information and enhance the work support effect. Further, in this case, since the current state where the user is placed is automatically collected, a work support system excellent in usability can be provided without imposing a burden on the user for explaining the situation.

【0043】請求項2記載の発明は、請求項1記載の作
業支援システムにおいて、一連の作業内容を人間が一度
に把握するのに適当な作業単位に分割し、これに適合す
る支援情報を音声アナウンスすることができるので、ユ
ーザの作業内容と案内情報との同期性をより良好にする
ことができ、この場合に案内手法が音声によるものなの
で機を逃さない的確な作業支援をすることができる。
According to a second aspect of the present invention, in the work support system according to the first aspect, a series of work contents is divided into work units suitable for human beings to grasp at a time, and support information suitable for the work unit is output by voice. Since the announcement can be made, the synchronization between the user's work content and the guide information can be improved, and in this case, since the guide method is by voice, accurate work support that does not miss the machine can be provided. .

【0044】請求項3記載の発明は、請求項2記載の作
業支援システムにおいて、調理作業を支援対象とし、調
理対象物、その数量、その処理法、及び処理の程度を案
内するようにしたので、特に調理作業に適した木目細か
な作業支援を行うことができる。
According to a third aspect of the present invention, in the work support system according to the second aspect, the cooking work is supported, and the objects to be cooked, the quantity thereof, the processing method thereof, and the degree of the processing are guided. In particular, fine-grained work support suitable for cooking work can be performed.

【0045】請求項4記載の発明は、請求項3記載の調
理作業を支援対象とする作業支援システムにおいて、調
理対象物の物理的又は化学的変化という客観量を考慮し
た案内をするようにしたので、ユーザが置かれている現
在の状態をより的確に認識し、案内情報の的確性を向上
させることができる。
According to a fourth aspect of the present invention, in the work supporting system according to the third aspect of the present invention, guidance is provided in consideration of an objective quantity such as a physical or chemical change of a cooking object. Therefore, it is possible to more accurately recognize the current state where the user is located, and to improve the accuracy of the guide information.

【0046】請求項5記載の発明は、請求項3記載の調
理作業を支援対象とする作業支援システムにおいて、調
理作業に伴い発生する音を考慮した案内をするようにし
たので、ユーザが置かれている現在の状態をより的確に
認識し、案内情報の的確性を向上させることができる。
この場合、調理作業に伴い発生する音に基づいてユーザ
の行動そのものを推定し認識することができるので、よ
り高次元の状況把握をすることができる。
According to a fifth aspect of the present invention, in the work support system according to the third aspect of the present invention, guidance is provided in consideration of a sound generated during the cooking operation. It is possible to more accurately recognize the current state of the vehicle and improve the accuracy of the guidance information.
In this case, since the behavior of the user itself can be estimated and recognized based on the sound generated during the cooking operation, a higher-dimensional situation can be grasped.

【0047】請求項6記載の発明は、請求項3記載の調
理作業を支援対象とする作業支援システムにおいて、調
理作業中のユーザの発話を考慮した案内をするようにし
たので、ユーザが置かれている現在の状態をより的確に
認識し、案内情報の的確性を向上させることができる。
この場合、調理作業中のユーザの発話という主観的判断
基準を認識対象に含むので、より高次元の状況把握をす
ることができる。
According to a sixth aspect of the present invention, in the work support system according to the third aspect of the present invention, guidance is provided in consideration of the utterance of the user during the cooking operation, so that the user is placed. It is possible to more accurately recognize the current state of the vehicle and improve the accuracy of the guidance information.
In this case, since a subjective criterion of utterance of the user during the cooking operation is included in the recognition target, a higher-dimensional situation can be grasped.

【0048】請求項7記載の発明は、請求項1記載の発
明において、大局的な情報から局所的な情報へと案内内
容を連続的に絞り込むので、リアルタイムコミュニケー
ションにおける人間の自然な情報伝達方法に沿った案内
をすることができ、ユーザの理解度を高めることができ
る。
According to a seventh aspect of the present invention, in the first aspect of the present invention, guidance contents are continuously narrowed down from global information to local information. Guidance along the route can be provided, and the degree of understanding of the user can be increased.

【0049】請求項8記載の発明は、請求項2記載の発
明において、運転作業を支援対象とし、地理的に広い範
囲の情報から狭い範囲の情報へと連続的に狭めて支援情
報を音声アナウンスするので、リアルタイムコミュニケ
ーションにおける人間の自然な情報伝達方法に沿った案
内をすることができ、ユーザの理解度を高めることがで
きる。
According to an eighth aspect of the present invention, in the second aspect of the present invention, the driving information is provided as an object to be supported, and the supporting information is continuously announced from a geographically wide range of information to a narrow range of information, and the voice announcement of the support information is performed. Therefore, it is possible to provide guidance in accordance with a natural human information transmission method in real-time communication, and it is possible to enhance the user's understanding.

【0050】請求項9記載の発明は、請求項8記載の運
転作業を支援対象とする発明において、地理的に広い範
囲の情報は時間的余裕がある場合にのみ案内し、時間的
余裕がない場合には地理的に狭い情報のみ案内するよう
にしたので、運転者に余裕を持って音声アナウンスする
ことができ、安全性の向上に寄与する。
According to a ninth aspect of the present invention, in the invention in which the driving operation is supported as described in the eighth aspect, information in a wide geographical area is guided only when there is a time margin, and there is no time margin. In such a case, only information that is geographically narrow is provided, so that the driver can make a voice announcement with a margin, which contributes to improvement of safety.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第一の実施の形態として、料理ナビケ
ーションシステムの概要を示す模式図である。
FIG. 1 is a schematic diagram showing an outline of a cooking navigation system as a first embodiment of the present invention.

【図2】各部の電気的接続を示すブロック図である。FIG. 2 is a block diagram illustrating electrical connection of each unit.

【図3】料理知識データベースのデータ構造を示す模式
図である。
FIG. 3 is a schematic diagram showing a data structure of a cooking knowledge database.

【図4】作業支援処理の概要を示すフローチャートであ
る。
FIG. 4 is a flowchart showing an outline of a work support process.

【図5】条件設定処理の概要を示すフローチャートであ
る。
FIG. 5 is a flowchart showing an outline of a condition setting process.

【図6】本発明の第二の実施の形態として、カーナビゲ
ーションシステムの概要を示す模式図である。
FIG. 6 is a schematic diagram showing an outline of a car navigation system as a second embodiment of the present invention.

【図7】地図データベースのデータ構造の一部を示す模
式図である。
FIG. 7 is a schematic diagram showing a part of the data structure of a map database.

【図8】音声案内処理の概要を示すフローチャートであ
る。
FIG. 8 is a flowchart showing an outline of a voice guidance process.

【符号の説明】[Explanation of symbols]

2,12,32,42 データベース 6〜9,36〜38 収集手段(センサ) 10 収集手段(音響取込装置) 11 収集手段(発話取込装置) 14,43 案内部 2, 12, 32, 42 Database 6 to 9, 36 to 38 Collection means (sensor) 10 Collection means (sound capture device) 11 Collection means (speech capture device) 14, 43 Guide unit

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 所定の作業を実行しているユーザに対し
てその作業を支援する情報を案内する作業支援システム
において、 ユーザが置かれている現在の状態を収集して電気信号に
変換し出力する収集手段と、 前記収集手段の出力信号に基づいてユーザが置かれてい
る現在の状態を認識する現状認識手段と、 ユーザの作業を支援する情報を体系的に記憶保持するデ
ータベースと、 前記現状認識手段の認識結果に応じてユーザが行ってい
る作業の支援に必要な情報を前記データベースから検索
する情報検索手段と、 前記情報検索手段によって検索された必要な情報を案内
部に案内させる案内手段と、を備えることを特徴とする
作業支援システム。
1. A work support system for guiding a user who is performing a predetermined task to information for assisting the task, wherein a current state where the user is placed is collected, converted into an electric signal, and output. Collecting means for performing, a current state recognizing means for recognizing a current state where a user is located based on an output signal of the collecting means, a database for systematically storing and holding information supporting a user's work, Information search means for searching the database for information necessary for supporting the work performed by the user in accordance with the recognition result of the recognition means; and guidance means for guiding the necessary information searched by the information search means to a guidance unit. And a work support system comprising:
【請求項2】 情報検索手段は、一連の作業内容を人間
が一度に把握するのに適当な作業単位に分割した情報を
データベースから検索し、案内手段は、検索情報を音声
によって案内部に案内させることを特徴とする請求項1
記載の作業支援システム。
2. An information search means searches a database for information obtained by dividing a series of work contents into work units suitable for a human to grasp at once, and a guide means guides the search information to a guide unit by voice. 2. The method according to claim 1, wherein
The work support system described.
【請求項3】 データベースは、少なくとも調理対象
物、その数量、その処理法、及び処理の程度に関する情
報を関連付けて記憶保持することを特徴とする調理作業
を支援対象とする請求項2記載の作業支援システム。
3. The cooking work according to claim 2, wherein the database stores and holds at least information on the cooking object, its quantity, its processing method, and the degree of processing in association with each other. Support system.
【請求項4】 収集手段は、調理対象物の物理的又は化
学的変化を感知するセンサを含み、現状認識手段は、前
記センサの出力信号に基づいてユーザが置かれている現
在の状態を推定し認識することを特徴とする請求項3記
載の作業支援システム。
4. The collecting means includes a sensor for sensing a physical or chemical change of the object to be cooked, and the current state recognizing means estimates a current state where the user is located based on an output signal of the sensor. 4. The work support system according to claim 3, wherein the work is recognized.
【請求項5】 収集手段は、調理作業に伴い発生する音
を取り込む音響取込装置を含み、現状認識手段は、前記
音響取込装置の出力信号に基づいてユーザが置かれてい
る現在の状態を推定し認識することを特徴とする請求項
3記載の作業支援システム。
5. The collecting means includes a sound capturing device for capturing a sound generated during a cooking operation, and the current state recognizing means includes a current state in which a user is placed based on an output signal of the sound capturing device. 4. The work support system according to claim 3, wherein the task support system estimates and recognizes the task.
【請求項6】 収集手段は、調理作業中のユーザの発話
を取り込む発話取込装置を含み、現状認識手段は、前記
発話取込装置の出力信号に基づいてユーザが置かれてい
る現在の状態を推定し認識することを特徴とする請求項
3記載の作業支援システム。
6. The collecting means includes an utterance capturing device that captures an utterance of a user during a cooking operation, and the current state recognizing means includes a current state in which the user is located based on an output signal of the utterance capturing device. 4. The work support system according to claim 3, wherein the task support system estimates and recognizes the task.
【請求項7】 情報検索手段は、ある作業に関する大局
的な情報をデータベースから検索し、この情報の案内手
段による案内後に同一作業に関する局所的な情報を前記
データベースから検索することを特徴とする請求項1記
載の作業支援システム。
7. The information search means searches the database for global information on a certain work, and searches the database for local information on the same work after guidance by the information guide means. Item 2. The work support system according to Item 1.
【請求項8】 情報検索手段は、現在地から目的地に向
かう過程での通過予想点を含む地理的に広い範囲の情報
を検索し、この情報の音声案内後に同一通過予想点を含
む地理的に狭い範囲の情報を検索することを特徴とする
乗り物の運転作業を支援対象とする請求項2記載の作業
支援システム。
8. An information search means searches for a geographically wide range of information including a predicted passing point in the process of traveling from the current location to the destination, and after the voice guidance of the information, a geographically searched area including the same predicted passing point. 3. The work support system according to claim 2, wherein the operation target of the vehicle is a support target for searching for information in a narrow range.
【請求項9】 現在地から通過予想点までの時間を予測
する予測手段と前記予測手段の予測結果に基づいて時間
的余裕の有無を判定する判定手段とを備え、情報検索手
段は、前記判定手段が時間的余裕があると判定した場合
にのみ地理的に広い範囲の情報を検索し、前記判定手段
が時間的余裕がないと判定した場合には地理的に狭い範
囲の情報のみを検索することを特徴とする請求項8記載
の作業支援システム。
9. A prediction device for predicting a time from a current position to a predicted passage point, and a determination device for determining whether there is a time margin based on a result of the prediction by the prediction device, wherein the information search device includes: Is to search for information in a geographically wide range only when it is determined that there is sufficient time, and to search only for information in a geographically narrow range when the determination means determines that there is no sufficient time. The work support system according to claim 8, wherein:
JP8292096A 1996-11-01 1996-11-01 Work support system Pending JPH10133709A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8292096A JPH10133709A (en) 1996-11-01 1996-11-01 Work support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8292096A JPH10133709A (en) 1996-11-01 1996-11-01 Work support system

Publications (1)

Publication Number Publication Date
JPH10133709A true JPH10133709A (en) 1998-05-22

Family

ID=17777499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8292096A Pending JPH10133709A (en) 1996-11-01 1996-11-01 Work support system

Country Status (1)

Country Link
JP (1) JPH10133709A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011036A (en) * 2004-06-25 2006-01-12 Brother Ind Ltd Voice output device and voice output program
JP2006079156A (en) * 2004-09-07 2006-03-23 Seiko Epson Corp Display control system, equipment management device, display unit, equipment management program and display control program, and display control method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011036A (en) * 2004-06-25 2006-01-12 Brother Ind Ltd Voice output device and voice output program
JP2006079156A (en) * 2004-09-07 2006-03-23 Seiko Epson Corp Display control system, equipment management device, display unit, equipment management program and display control program, and display control method

Similar Documents

Publication Publication Date Title
Shoval et al. Auditory guidance with the navbelt-a computerized travel aid for the blind
JP2005083758A (en) Route search device
CN108020238B (en) Method and device for acquiring passing points and navigation equipment
JP2009128210A (en) Navigation device
JP4600568B2 (en) Navigation device
JP3970415B2 (en) Ship collision prevention assistance apparatus and vessel collision prevention assistance method
CN106462513A (en) Information processing system and vehicle-mounted device
CN109843690A (en) Driving mode transition controller, system and method
JP2007193391A (en) Facility selecting device and facility selecting method
JP3489772B2 (en) Work support system
WO2018079285A1 (en) Control apparatus and control system
JP2005321224A (en) Peripheral facility retrieval device
JP4653684B2 (en) Navigation system and navigation method
US6446001B1 (en) Navigation apparatus for navigating a vehicle based on symbolic sounds
JPH09101162A (en) Vehicle travel route guidance device
CN106251871A (en) A kind of Voice command music this locality playing device
JPH10339647A (en) Navigation method
JP2006012081A (en) Content output device, navigation device, content output program and content output method
JPH10133709A (en) Work support system
JPH1137778A (en) Interpolating method for link traveling time
JP2006250879A (en) Car navigation system and program
JP4581896B2 (en) Navigation device and program
JP2006010509A (en) Navigation system
JPH11219500A (en) On-vehicle navigation device
JP2001228790A (en) Training result evaluating device

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 10

Free format text: PAYMENT UNTIL: 20090528

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100528

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 11

Free format text: PAYMENT UNTIL: 20100528

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 12

Free format text: PAYMENT UNTIL: 20110528

LAPS Cancellation because of no payment of annual fees