JP2001147134A - Navigation device - Google Patents

Navigation device

Info

Publication number
JP2001147134A
JP2001147134A JP33004499A JP33004499A JP2001147134A JP 2001147134 A JP2001147134 A JP 2001147134A JP 33004499 A JP33004499 A JP 33004499A JP 33004499 A JP33004499 A JP 33004499A JP 2001147134 A JP2001147134 A JP 2001147134A
Authority
JP
Japan
Prior art keywords
point
function
instruction
database
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33004499A
Other languages
Japanese (ja)
Inventor
Yuji Kaihatsu
勇治 開発
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP33004499A priority Critical patent/JP2001147134A/en
Publication of JP2001147134A publication Critical patent/JP2001147134A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To instruct processing based on a point navigation function by natural wording and shorten an operation time required for performing the function so as to provide a navigation device with excellent operability by designating a point/function instruction by a single pronunciation. SOLUTION: This navigation device is provided with a point database 12 storing point data such as addresses and facilities, a function instructing database 22 storing navigation function instruction data for processing these points, a sound recognizing means 16 recognizing continuous voices of two or more words by an unspecified speaker, and a control unit 11 carrying out processing based on the navigation function following the instruction on the recognized point when the vocally recognized voices of the operator are series of the instruction inside the function instructing database 22 at the point inside the point database 12.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、車載などされて、
目的の操作を音声で入力して動作させることのできるナ
ビゲーション装置に関する。
BACKGROUND OF THE INVENTION The present invention relates to a vehicle,
The present invention relates to a navigation device capable of operating by inputting a target operation by voice.

【0002】[0002]

【従来の技術】近年、手操作により指示命令などを入力
するのに代えて、操作者が言葉を発声することにより、
その言葉による指示などを音声認識させるようにして、
例えば、車載用のナビゲーション装置の煩雑な入力操作
や走行中の入力操作を省くことが進められている。
2. Description of the Related Art In recent years, instead of manually inputting instruction commands and the like, an operator speaks words,
Make the voice instructions recognize the instructions in words,
For example, a complicated input operation of an in-vehicle navigation device and an input operation during traveling have been omitted.

【0003】この種のナビゲーション装置としては、例
えば、図3に示すように、制御部(中央演算処理手段)
1に、地点データベース2、表示手段3、スピーカ4、
マイク5、音声認識手段6、音声合成手段7、経路探索
手段8、および制御スイッチ9を接続して、ナビゲーシ
ョン装置100を構築するものがある。
As this type of navigation device, for example, as shown in FIG. 3, a control unit (central processing unit)
1, a point database 2, a display means 3, a speaker 4,
In some cases, the navigation device 100 is constructed by connecting the microphone 5, the voice recognition unit 6, the voice synthesis unit 7, the route search unit 8, and the control switch 9.

【0004】このナビゲーション装置100は、図4の
フローチャートに示すように、音声入力の開始/中止の
制御スイッチ9を押下されると、制御部1が装置各部を
統括制御して音声認識モードを起動・開始して(ステッ
プP1)、例えば、ナビゲーション操作の対象となる地
点データベース2内に格納されている「○○ゴルフ場」な
どの地点の名称をマイク5から音声入力されたときに
は、その入力音声を音声認識手段6により音声認識して
(ステップP2)、音声合成手段7により生成したその
認識結果の音声データをスピーカ4に出力して音声入力
の応答として復唱するとともに(ステップP3)、認識
した地点の地図を表示手段3に表示する(ステップP
4)。
As shown in the flow chart of FIG. 4, when a control switch 9 for starting / stopping voice input is depressed, the control unit 1 controls the respective units of the navigation device 100 to activate a voice recognition mode. When the process is started (step P1), for example, when a name of a point such as “XX golf course” stored in the point database 2 to be subjected to the navigation operation is input by voice from the microphone 5, the input voice is input. Is recognized by the voice recognizing means 6 (step P2), and the voice data of the recognition result generated by the voice synthesizing means 7 is output to the speaker 4 and read back as a response to the voice input (step P3). A map of the point is displayed on the display means 3 (step P
4).

【0005】次いで、制御部1は、その復唱により正常
な音声認識を確認した後に音声入力される、ナビゲーシ
ョン機能のいずれを実行するかの機能指示を音声認識手
段により音声認識されると(ステップP5)、例えば、
指定された地点を目的地として経路探索を行うための
「行き先設定」の認識結果であった場合には、その認識結
果を復唱するとともに(ステップP6)、経路探索手段
8による認識地点の「○○ゴルフ場」までの経路の探索を
開始する(ステップP7)。
[0005] Next, when the control unit 1 recognizes a normal voice recognition by the repetition, and receives voice input, the voice recognition unit performs voice recognition of a function instruction to execute any of the navigation functions (step P5). ), For example
If the recognition result is "destination setting" for performing a route search with the designated point as the destination, the recognition result is repeated (step P6), and the recognition point "O" A search for a route to the "golf course" is started (step P7).

【0006】この機能指示としては、「行き先設定」と
同様に指定地点を目的地として経路探索を行う「目的地
設定」等や、ユーザに応じた地点をメモリ登録するため
の「地点登録」や「ポイント登録」等などが用途別に予め用
意されており、各種機能指示を行うことができるように
なっている。
[0006] The function instructions include "destination setting" for performing a route search using a designated point as a destination in the same manner as "destination setting", "point registration" for registering a point according to a user in memory, and the like. “Point registration” and the like are prepared in advance for each application, and various function instructions can be given.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、このよ
うな従来のナビゲーション装置にあっては、処理対象の
地点を設定するための発声、および、機能を指示するた
めの発声の計2回の指示・確認が必要であり、操作が煩
雑になるとともに機能実行までに時間が掛かるという問
題があった。
However, in such a conventional navigation device, a utterance for setting a point to be processed and an utterance for instructing a function are provided twice in total. There is a problem that confirmation is required, the operation becomes complicated, and it takes time to execute the function.

【0008】また、機能を指示する発声をするにして
も、適切な指示を行うには設定されている言葉の指示語
を発声しなければならず、その語彙は地点や指示などと
ばらばらであるために判りづらく、記憶もしづらいとい
う問題があった。
[0008] Even if the user instructs a function, the user must speak the set word in order to give an appropriate instruction, and the vocabulary is different from a point or an instruction. Therefore, there was a problem that it was difficult to understand and to remember easily.

【0009】本発明は、このような問題を解決するため
になされたもので、地点の指定や機能指示の指定を1回
の発声でできるようにすることにより、自然な言い回し
による地点のナビゲーション機能などによる処理の指示
や、機能実行までの操作時間の短縮を実現して、操作性
の優れたナビゲーション装置を提供するものである。
SUMMARY OF THE INVENTION The present invention has been made to solve such a problem, and a point navigation function using natural wording can be provided by designating a point and a function instruction with a single utterance. It is intended to provide a navigation device with excellent operability by realizing processing instructions and shortening the operation time up to function execution.

【0010】[0010]

【課題を解決するための手段】本発明のナビゲーション
装置は、処理対象となる地点群を格納する地点データベ
ースと、前記地点を処理対象とするナビゲーションなど
の処理機能の指示群を格納する機能指示データベース
と、不特定話者などによる2語以上の連続発声を認識す
る音声認識手段と、前記音声認識手段により認識された
操作者の発声が前記地点データベース内の地点および前
記機能指示データベース内の指示の連続である場合に前
記認識地点の前記指示に従ってナビゲーションなどの処
理機能による処理を実行する処理手段と、を備えた構成
を有している。
According to the present invention, there is provided a navigation apparatus comprising: a point database for storing a group of points to be processed; and a function instruction database for storing a group of instructions for processing functions such as navigation for the points to be processed. Voice recognition means for recognizing a continuous utterance of two or more words by an unspecified speaker or the like; and the utterance of the operator recognized by the voice recognition means is used to specify a point in the point database and an instruction in the function instruction database. And processing means for executing processing by a processing function such as navigation in accordance with the instruction of the recognition point in the case of continuous operation.

【0011】この構成により、操作者(不特定話者な
ど)が、地点と、それを処理する指示とを組合せた連続
する発声を1回するだけで、その発声により指定された
地点を対象として、備えるナビゲーションなどの処理機
能による処理の実行を開始することができ、その処理機
能による処理結果を操作者に提供することができる。し
たがって、地点の指定と、機能指示の指定とを1回の音
声入力ですることができ、処理機能の実行までの操作時
間を短縮することができる。また、地点の後に発声する
機能の指示としては自然な言い回しで発声する語彙を登
録することができ、地点に連続する一般的な機能指示と
しておくことにより、指示する言葉をユーザに考えさせ
たり、指示の発声を繰り返させるなどの負担を軽減する
ことができる。この結果、ナビゲーション装置の操作性
を向上させることができる。
With this configuration, the operator (such as an unspecified speaker) makes a single continuous utterance combining a point and an instruction to process the point, and targets the point specified by the utterance. , The execution of the processing by the processing function such as the navigation provided can be started, and the processing result by the processing function can be provided to the operator. Therefore, the designation of the point and the designation of the function instruction can be performed by one voice input, and the operation time until the execution of the processing function can be reduced. Also, as the instruction of the function to be uttered after the point, it is possible to register a vocabulary to be uttered with natural wording, and to keep the general function instruction continuous to the point, It is possible to reduce a burden such as repeating instructions. As a result, the operability of the navigation device can be improved.

【0012】ここで、前記処理機能の指示群としては、
前記地点を目的地にして経路探索を行うための語彙、前
記地点をユーザが任意に設定登録するための語彙、前記
地点の地図を表示するための語彙、または、前記地点の
各種情報を提示するための語彙を、前記機能指示データ
ベース内に格納するのが好ましい。
Here, the instruction group of the processing function includes:
A vocabulary for performing a route search with the point as a destination, a vocabulary for a user to arbitrarily set and register the point, a vocabulary for displaying a map of the point, or various information of the point is presented. Is preferably stored in the function instruction database.

【0013】[0013]

【発明の実施の形態】以下、本発明を図面に基づいて説
明する。図1および図2は本発明に係るナビゲーション
装置の一実施形態を示す図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings. 1 and 2 are views showing an embodiment of a navigation device according to the present invention.

【0014】図1において、ナビゲーション装置10
は、装置各部を統括制御する制御部(中央演算処理手
段)11に、処理対象となる地名や住所や施設名などの
地点群(語彙)を格納されている地点データベース12
と、現在の位置や目的地などの地図等の各種情報を表示
する表示手段13と、音声データを再生するスピーカ1
4と、話者の音声を集音するマイク15と、不特定話者
の発声する2語以上の連続した音声を認識する音声認識
手段16と、操作者に報知するデータを音声データに変
換する音声合成手段17と、目的地までの経路を探索す
る経路探索手段18と、音声入力を開始/中止する際に
押下する制御スイッチ19と、に加えて、地点データベ
ース12内に格納されている地点データに対応して、そ
の地点データを処理対象とするナビゲーション機能の実
行の指示群(語彙)を格納されている機能指示データベ
ース22が接続されている。
Referring to FIG. 1, a navigation device 10
A control unit (central processing unit) 11 for centrally controlling each unit of the apparatus stores a point database 12 in which point groups (vocabularies) such as place names, addresses, and facility names to be processed are stored.
A display unit 13 for displaying various information such as a map such as a current position and a destination; and a speaker 1 for reproducing audio data.
4, a microphone 15 for collecting a speaker's voice, a voice recognition unit 16 for recognizing two or more continuous voices uttered by an unspecified speaker, and converting data to be notified to the operator into voice data. In addition to the voice synthesizing means 17, a route searching means 18 for searching for a route to the destination, and a control switch 19 pressed when starting / stopping voice input, a point stored in the point database 12 A function instruction database 22 that stores an instruction group (vocabulary) for executing a navigation function that processes the point data is connected to the data.

【0015】制御部11は、地点データベース12およ
び機能指示データベース22内に格納されている語彙が
音声認識結果であるときに、その操作者の発声の音声認
識結果を処理対象としてナビゲーション機能を実行する
ようになっており、その操作者の発声が地点データベー
ス12内の地点データと機能指示データベース22内の
指示データの連続である場合にも、その地点データに対
応する指示データに従うナビゲーション機能による処理
を実行する。すなわち、制御部11がナビゲーション処
理手段を構成している。
When the vocabulary stored in the point database 12 and the function instruction database 22 is a speech recognition result, the control unit 11 executes the navigation function by processing the speech recognition result of the utterance of the operator. Even when the utterance of the operator is a continuation of the point data in the point database 12 and the instruction data in the function instruction database 22, the processing by the navigation function according to the instruction data corresponding to the point data is performed. Execute. That is, the control unit 11 constitutes a navigation processing unit.

【0016】具体的には、地点データベース12には、
例えば、「○○ゴルフ場」や「○○遊園地」や「○○町」など
の地名や住所や施設名などの地点データを格納される一
方、機能指示データベース22には、例えば、指定地点
を目的地として経路探索を行う「行き先設定」・「目的
地設定」等や、ユーザに応じた地点をメモリ登録する「地
点登録」・「ポイント登録」等などのように単独で指示内
容の明確な指示データの他に、地点に続けて自然な言い
回しで連続する一般的な指示が予め格納されており、例
えば、(1)経路探索などを行う際に目的地とする指定
地点に続けて発声される「まで行く」や「へ行く」や「ま
でのルート」等、(2)ユーザに応じた地点をメモリ登
録する際に登録地点に続けて発声される「を登録する」
等、(3)指定する地点の地図を表示する際に指定地点
に続けて発声される「の地図」や「を表示する」等、(4)
指定する地点の交通情報や天気予報など各種情報を提示
する際に指定地点に続けて発声される「の交通情報」や
「の天気」等が、地点データベース12内に格納されてい
る地点に対応する用途別に、その地点を処理対象とする
ナビゲーション機能の実行の指示群(語彙)として、地
点に続けて一般的に発声される自然な言い回しで予め格
納されている。この地点データベース12や機能指示デ
ータベース22内に格納する語彙のデータは、予め設定
されているのに加えて、ナビゲーション機能を指定して
マイク15等から追加するように構成してもよく、利用
可能な機能の増加や、認識可能な言い回しの幅を広げる
ことができるようにしてもよい。
Specifically, the point database 12 includes:
For example, while location data such as place names such as “XX golf course”, “XX amusement park”, and “XX town” are stored, the function instruction database 22 stores, for example, Clarify the content of the instruction alone, such as "Destination setting" or "Destination setting" to search the route with the destination as the "point registration" or "point registration" to register the point according to the user in memory In addition to the basic instruction data, general instructions that are continuous in natural terms following the point are stored in advance. For example, (1) utterance follows a designated point as a destination when performing a route search or the like. (2) When registering a point corresponding to the user in memory, such as “go to”, “go to”, “route to”, etc.
(3) When a map of a designated point is displayed, a "map of" or "display" is uttered after the designated point, and (4)
When presenting various information such as traffic information and weather forecast of a designated point, “no traffic information” and “no weather” uttered after the designated point correspond to the point stored in the point database 12. For each use, a set of instructions (vocabulary) for executing the navigation function with the point as a processing target is stored in advance in natural terms generally uttered after the point. The vocabulary data stored in the point database 12 or the function instruction database 22 may be configured to be added from the microphone 15 or the like by specifying a navigation function in addition to being set in advance. It may also be possible to increase the number of functions and expand the range of recognizable wording.

【0017】そして、制御部11は、図2のフローチャ
ートに示すように、音声入力の開始/中止の制御スイッ
チ19の押下に応じて音声認識モードを起動・開始し
(ステップP11)、例えば、任意な地点と、そのナビ
ゲーション機能による処理の指示を続けて発声された
「○○ゴルフ場まで行く」がマイク15から音声入力さ
れたときには、その入力音声を音声認識手段16により
音声認識して(ステップP12)、その音声入力の応答
として音声合成手段17により生成した認識結果の音声
データをスピーカ14から出力して復唱するとともに
(ステップP13)、音声認識結果からナビゲーション
機能による処理操作の対象となる、地点データベース1
2内に格納されている「○○ゴルフ場」の地点データと、
機能指示データベース22内に格納されている「まで行
く」の指示データとを連続して発声されていると判断し
て、認識した地点の「○○ゴルフ場」付近の地図を表示手
段13に表示するとともに(ステップP14)、認識結
果の「まで行く」の指示に従って「○○ゴルフ場」の地点
(目的地)までの経路探索手段18による経路探索(ナ
ビゲーション処理)を開始する(ステップP17)。
Then, as shown in the flowchart of FIG. 2, the control section 11 starts and starts a voice recognition mode in response to pressing of a control switch 19 for starting / stopping voice input (step P11). When the voice of “go to golf course” is continuously input from the microphone 15, the input voice is voice-recognized by the voice recognition unit 16 (step S <b> 1). P12) As a response to the voice input, the voice data of the recognition result generated by the voice synthesizing means 17 is output from the speaker 14 and read back (step P13), and the voice recognition result becomes a target of the processing operation by the navigation function. Point database 1
2, point data of “XX golf course” stored in
It is determined that the “go to” instruction data stored in the function instruction database 22 has been uttered continuously, and a map near the recognized point “XX golf course” is displayed on the display means 13. At the same time (step P14), a route search (navigation process) by the route search means 18 to the point (destination) of the "XX golf course" is started according to the instruction of "go to" in the recognition result (step P17).

【0018】したがって、操作者は、地点および指示の
連続する一般的な言い回しを1回発声するだけで、その
地点および指示の夫々で音声認識と復唱とを行うことな
く、それらの音声認識と共に復唱を行って、その地点ま
での経路探索などというナビゲーション機能による処理
を短時間に開始することができる。
Therefore, the operator only utters once a general general phrase of a point and an instruction, and does not perform voice recognition and repetition at each of the point and the instruction. , The processing by the navigation function such as a route search to the point can be started in a short time.

【0019】このように本実施形態においては、地点に
対応した自然な言い回しの指示により、所望のナビゲー
ション機能による処理を開始させることができ、操作者
にどのように指示したらよいかを考えさせたり、指示を
繰り返させたりすることがなく、例えば、経路探索の処
理結果を操作者に負担なく、かつ、迅速に提供すること
ができる。したがって、操作性の優れたナビゲーション
装置10を提供することができる。
As described above, in the present embodiment, it is possible to start processing by a desired navigation function by giving a natural wording instruction corresponding to a point, and to make the operator think about how to give an instruction. Therefore, for example, the processing result of the route search can be promptly provided to the operator without burden. Therefore, it is possible to provide the navigation device 10 having excellent operability.

【0020】[0020]

【発明の効果】以上説明したように、本発明によれば、
地点と、その地点に続く処理機能の指示とを組合せた連
続する発声を1回するだけで、その地点を対象とするナ
ビゲーションなどの処理機能による処理を実行すること
ができる。したがって、迅速な操作と共に、指示の言葉
を考えることなどの必要のない、操作性に優れるナビゲ
ーション装置を提供することができる。
As described above, according to the present invention,
Only one continuous utterance combining a point and an instruction of a processing function following the point can execute processing by a processing function such as navigation for the point. Therefore, it is possible to provide a navigation device that is excellent in operability and that does not require quick operation and does not require the user to consider instruction words.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係るナビゲーション装置の一実施形態
を示す図であり、その概略全体構成を示すブロック図で
ある。
FIG. 1 is a diagram illustrating an embodiment of a navigation device according to the present invention, and is a block diagram illustrating a schematic overall configuration thereof.

【図2】そのナビゲーション機能の処理を説明するフロ
ーチャートである。
FIG. 2 is a flowchart illustrating processing of the navigation function.

【図3】その従来技術を示すブロック図である。FIG. 3 is a block diagram showing the conventional technique.

【図4】そのナビゲーション機能の処理を説明するフロ
ーチャートである。
FIG. 4 is a flowchart illustrating processing of the navigation function.

【符号の説明】[Explanation of symbols]

10 ナビゲーション装置 11 制御部 12 地点データベース 13 表示手段 14 スピーカ 15 マイク 16 音声認識手段 17 音声合成手段 18 経路探索手段 19 制御スイッチ 22 機能指示データベース DESCRIPTION OF SYMBOLS 10 Navigation apparatus 11 Control part 12 Point database 13 Display means 14 Speaker 15 Microphone 16 Voice recognition means 17 Voice synthesis means 18 Route search means 19 Control switch 22 Function instruction database

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/28 G10L 3/00 561H ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G10L 15/28 G10L 3/00 561H

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 処理対象となる地点群を格納する地点デ
ータベースと、前記地点を処理対象とする処理機能の指
示群を格納する機能指示データベースと、2語以上の連
続発声を認識する音声認識手段と、前記音声認識手段に
より認識された操作者の発声が前記地点データベース内
の地点および前記機能指示データベース内の指示の連続
である場合に前記認識地点の前記指示に従って処理を実
行する処理手段と、を備えることを特徴とするナビゲー
ション装置。
1. A point database for storing a group of points to be processed, a function instruction database for storing a group of instructions for processing functions for the points to be processed, and a voice recognition means for recognizing continuous utterances of two or more words. And processing means for executing a process according to the instruction at the recognized point when the utterance of the operator recognized by the voice recognition means is a continuation of a point in the point database and an instruction in the function instruction database, A navigation device comprising:
【請求項2】 前記処理機能の指示群として、前記地点
を目的地にして経路探索を行うための語彙を前記機能指
示データベース内に格納することを特徴とする請求項1
に記載のナビゲーション装置。
2. The function instruction database according to claim 1, wherein a vocabulary for performing a route search with said point as a destination is stored as said instruction group of said processing functions.
The navigation device according to claim 1.
【請求項3】 前記処理機能の指示群として、前記地点
を任意登録するための語彙を前記機能指示データベース
内に格納することを特徴とする請求項1に記載のナビゲ
ーション装置。
3. The navigation apparatus according to claim 1, wherein a vocabulary for arbitrarily registering the point is stored in the function instruction database as the instruction group of the processing function.
【請求項4】 前記処理機能の指示群として、前記地点
の地図を表示するための語彙を前記機能指示データベー
ス内に格納することを特徴とする請求項1に記載のナビ
ゲーション装置。
4. The navigation device according to claim 1, wherein a vocabulary for displaying the map of the point is stored in the function instruction database as the instruction group of the processing function.
【請求項5】 前記処理機能の指示群として、前記地点
の各種情報を提示するための語彙を前記機能指示データ
ベース内に格納することを特徴とする請求項1に記載の
ナビゲーション装置。
5. The navigation device according to claim 1, wherein a vocabulary for presenting various kinds of information of the point is stored in the function instruction database as the instruction group of the processing function.
JP33004499A 1999-11-19 1999-11-19 Navigation device Pending JP2001147134A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33004499A JP2001147134A (en) 1999-11-19 1999-11-19 Navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33004499A JP2001147134A (en) 1999-11-19 1999-11-19 Navigation device

Publications (1)

Publication Number Publication Date
JP2001147134A true JP2001147134A (en) 2001-05-29

Family

ID=18228158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33004499A Pending JP2001147134A (en) 1999-11-19 1999-11-19 Navigation device

Country Status (1)

Country Link
JP (1) JP2001147134A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004264085A (en) * 2003-02-28 2004-09-24 Aloka Co Ltd Radiation monitoring device
JP2010211536A (en) * 2009-03-10 2010-09-24 Hitachi Ltd Air traffic control system for airport

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004264085A (en) * 2003-02-28 2004-09-24 Aloka Co Ltd Radiation monitoring device
JP2010211536A (en) * 2009-03-10 2010-09-24 Hitachi Ltd Air traffic control system for airport

Similar Documents

Publication Publication Date Title
US6230132B1 (en) Process and apparatus for real-time verbal input of a target address of a target address system
JP4270611B2 (en) Input system
JP4260788B2 (en) Voice recognition device controller
JP2002006878A (en) Voice phrase recognition method and voice recognition device
JP2002511154A (en) Extensible speech recognition system that provides audio feedback to the user
US9123327B2 (en) Voice recognition apparatus for recognizing a command portion and a data portion of a voice input
JP2000122691A (en) Automatic recognizing method for spelling reading type speech speaking
WO2008072413A1 (en) Voice recognition device
WO2006068123A1 (en) Device in which selection is activated by voice and method in which selection is activated by voice
JP2003022089A (en) Voice spelling of audio-dedicated interface
JP2001117584A (en) Voice processor
JP3378595B2 (en) Spoken dialogue system and dialogue progress control method thereof
JP2006058390A (en) Speech recognition device
JP4262837B2 (en) Navigation method using voice recognition function
JP2001147134A (en) Navigation device
JP4056711B2 (en) Voice recognition device
JP3830124B2 (en) Voice recognition device
JP3058125B2 (en) Voice recognition device
JPH05100693A (en) Computer-system for speech recognition
JP3755941B2 (en) Spoken dialogue apparatus and dialogue method
JP4930014B2 (en) Speech recognition apparatus and speech recognition method
JP2003330488A (en) Voice recognition device
JPH11184495A (en) Speech recognition device
JPH11231892A (en) Speech recognition device
JP5519126B2 (en) Speech recognition apparatus and speech recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080828

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090623