JPH09114491A - Device and method for speech recognition, device and method for navigation, and automobile - Google Patents

Device and method for speech recognition, device and method for navigation, and automobile

Info

Publication number
JPH09114491A
JPH09114491A JP7267547A JP26754795A JPH09114491A JP H09114491 A JPH09114491 A JP H09114491A JP 7267547 A JP7267547 A JP 7267547A JP 26754795 A JP26754795 A JP 26754795A JP H09114491 A JPH09114491 A JP H09114491A
Authority
JP
Japan
Prior art keywords
voice
candidate
recognition target
data
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7267547A
Other languages
Japanese (ja)
Other versions
JP3677833B2 (en
Inventor
Kazuo Ishii
和夫 石井
Eiji Yamamoto
英二 山本
Miyuki Tanaka
幸 田中
Hiroshi Tsunoda
弘史 角田
Koji Asano
康治 浅野
Hiroaki Ogawa
浩明 小川
Masanori Omote
雅則 表
Katsuki Minamino
活樹 南野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP26754795A priority Critical patent/JP3677833B2/en
Publication of JPH09114491A publication Critical patent/JPH09114491A/en
Application granted granted Critical
Publication of JP3677833B2 publication Critical patent/JP3677833B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily perform the high-level operation of a navigation device by displaying plural candidates for a word to be recognized, which are recognized and selected by a speech processing part, in a different display style by the section of the word to be recognized. SOLUTION: An inputted speech is recognized under the control of a speech recognizing circuit 14. Data on the recognized candidates are read out of a memory for a candidate list in the speech recognizing circuit 14 and supplied to the navigation device 20. A video signal generating circuit 28 generates a video signal of the candidate list and the video signal is supplied to a display device 40 to display the candidate, list. The candidate list is displayed in the decreasing order of matching degrees from the 1st candidate to about the 5th candidate. At this time, the candidates for the place name and the candidates for the command are displayed in different styles. For example, the display colors of characters are made different. Or, the font is made different and the candidates are displayed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えば自動車に搭
載させて道路地図などを表示させるナビゲーション装置
に適用して好適な音声認識装置及び音声認識方法、その
音声認識装置と組み合わされたナビゲーション装置及び
ナビゲート方法、並びにこれらの装置が搭載された自動
車に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech recognition apparatus and a speech recognition method suitable for being applied to a navigation apparatus mounted on an automobile and displaying a road map, a navigation apparatus combined with the speech recognition apparatus, and The present invention relates to a navigation method and an automobile equipped with these devices.

【0002】[0002]

【従来の技術】従来、自動車などに搭載させるナビゲー
ション装置が各種開発されている。このナビゲーション
装置は、例えば道路地図データが記憶されたCD−RO
Mなどの大容量データ記憶手段と、現在位置の検出手段
と、検出した現在位置の近傍の道路地図を、データ記憶
手段から読出したデータに基づいて表示させるディスプ
レイ装置とで構成される。この場合、現在位置の検出手
段としては、GPS(Global Positioning System )と
称される測位用の人工衛星を使用した測位システムを使
用したものや、車両の走行方向,走行速度などの情報に
基づいて出発地点から現在位置の変化を追跡する自律航
法によるものなどがある。
2. Description of the Related Art Conventionally, various navigation devices to be mounted on automobiles and the like have been developed. This navigation device is, for example, a CD-RO storing road map data.
It comprises a large-capacity data storage means such as M, a current position detection means, and a display device for displaying a road map near the detected current position based on the data read from the data storage means. In this case, as a means for detecting the current position, one using a positioning system called a GPS (Global Positioning System) that uses a positioning artificial satellite, or based on information such as the traveling direction and traveling speed of the vehicle is used. For example, there is an autonomous navigation method that tracks changes in the current position from the starting point.

【0003】また、ディスプレイ装置に表示される地図
としては、キー操作などを行うことで、現在位置の近傍
だけでなく、地図データが用意されている限りは、所望
の位置の地図を表示させることができるようにしてあ
る。
Further, as the map displayed on the display device, not only the vicinity of the current position but also the map at a desired position can be displayed as long as map data is prepared, by performing a key operation or the like. You can do it.

【0004】このようなナビゲーション装置の場合に
は、例えば自動車用の場合、運転席の近傍にディスプレ
イ装置を設置して、運転者が走行中や信号停止などの一
時停止中に現在位置の近傍の地図を見れるようにするの
が一般的である。
In the case of such a navigation device, for example, for an automobile, a display device is installed in the vicinity of the driver's seat so that the driver can see the vicinity of the current position while the driver is driving or temporarily stopping such as stopping the traffic light. It is common to be able to see the map.

【0005】[0005]

【発明が解決しようとする課題】ところで、このような
ナビゲーション装置は、自動車の運転などを邪魔しない
で操作できるようにする必要があり、例えば走行中は複
雑な操作を禁止するようにしてある。即ち、このような
ナビゲーション装置を車両に設置する場合には、何らか
の走行状態検出部(例えば自動車のパーキングブレーキ
スイッチ)と接続して、この検出部の状態により車両が
停止していることが検出されるときだけ、全ての操作が
できるように設定し、停止してない状態(即ち走行中)
には、複雑なキー操作を禁止するように設定してある。
By the way, such a navigation device is required to be operable without disturbing the driving of an automobile, and for example, complicated operations are prohibited during traveling. That is, when such a navigation device is installed in a vehicle, it is connected to some running state detection unit (for example, a parking brake switch of an automobile), and the state of the detection unit detects that the vehicle is stopped. Set so that all operations can be performed only when
Is set to prohibit complicated key operations.

【0006】ところが、このように走行中に表示地図を
切換える等の操作ができないのは不便であり、走行中で
あっても、運転を邪魔することなく、高度な操作ができ
るようにすることが要請されている。
However, it is inconvenient that an operation such as switching the displayed map cannot be performed while the vehicle is running, and it is possible to perform advanced operation without disturbing the driving even while the vehicle is running. Has been requested.

【0007】本発明はかかる点に鑑み、自動車の運転な
どを邪魔することなく、ナビゲーション装置などの各種
装置の高度な操作が簡単にできるようにすることを目的
とする。
In view of the above point, the present invention has an object to make it possible to easily perform high-level operations of various devices such as a navigation device without disturbing the driving of an automobile.

【0008】[0008]

【課題を解決するための手段】本発明の音声認識装置
は、音声処理部で認識した結果に基づいて選定された複
数の認識対象語の候補を表示する表示手段と、この表示
手段で表示される候補を、その候補となる認識対象語の
区分毎に、異なる表示態様で表示させる表示制御手段と
を備えたものである。
A speech recognition apparatus according to the present invention includes a display means for displaying a plurality of recognition target word candidates selected based on a result recognized by a speech processing section, and a display means for displaying the candidates. Display candidates that are displayed in different display modes for each of the candidate recognition target words.

【0009】本発明の音声認識装置によると、認識対象
語の候補の表示状態が、候補の対象語の区分毎に異なる
表示態様になるので、同じ区分毎の候補が判り易くな
り、見やすい表示状態となる。
According to the voice recognition device of the present invention, the display state of the candidate of the recognition target word is different for each division of the target word of the candidate, so that the candidates of the same division can be easily understood and easily displayed. Becomes

【0010】また本発明の音声認識方法は、音声認識し
た結果に基づいて選定された複数の認識対象語の候補を
表示すると共に、このとき表示される候補を、その候補
となる認識対象語の区分毎に、異なる表示態様で表示さ
せるようにしたものである。
Further, the voice recognition method of the present invention displays a plurality of candidates for the recognition target word selected based on the result of the voice recognition, and displays the candidates displayed at this time as the candidates for the recognition target word. The display is different in each section.

【0011】本発明の音声認識方法によると、認識対象
語の候補の表示状態が、候補の対象語の区分毎に異なる
表示態様になるので、同じ区分毎の候補が判り易くな
り、見やすい表示状態となる。
According to the voice recognition method of the present invention, the display state of the candidate of the recognition target word is different for each division of the target word of the candidate, so that the candidates of the same division can be easily understood and the display state is easy to see. Becomes

【0012】また本発明のナビゲーション装置は、音声
処理部で認識した認識対象語の候補を表示する映像信号
を作成する映像信号作成手段と、この映像信号作成手段
で認識対象語の候補の映像信号を作成させる際に、その
候補となる認識対象語の区分毎に、異なる表示態様で表
示させる映像信号とする表示制御手段とを備えたもので
ある。
Further, the navigation device of the present invention comprises a video signal creating means for creating a video signal for displaying a candidate of the recognition target word recognized by the voice processing section, and a video signal of the recognition target word candidate by the video signal creating means. And a display control means for setting a video signal to be displayed in a different display mode for each category of the recognition target word that is a candidate.

【0013】本発明のナビゲーション装置によると、認
識対象語の候補の表示状態が、候補の対象語の区分毎に
異なる表示態様になるので、同じ区分毎の候補が判り易
くなり、見やすい表示状態となる。
According to the navigation device of the present invention, the display state of the candidate of the recognition target word is different for each division of the target word of the candidate, so that the candidates of the same division can be easily understood and the display state is easy to see. Become.

【0014】また本発明のナビゲート方法は、音声認識
した認識対象語の候補を表示させる場合に、その候補と
なる認識対象語の区分毎に、異なる表示態様で表示させ
るようにしたものである。
Further, the navigation method of the present invention is such that, when displaying a candidate of a recognition target word that has been voice-recognized, it is displayed in a different display mode for each classification of the recognition target word that is the candidate. .

【0015】本発明のナビゲート方法によると、認識対
象語の候補の表示状態が、候補の対象語の区分毎に異な
る表示態様になるので、同じ区分毎の候補が判り易くな
り、見やすい表示状態となる。
According to the navigating method of the present invention, the display state of the candidate of the recognition target word is different for each division of the target word of the candidate, so that the candidates of the same division can be easily understood and the display state is easy to see. Becomes

【0016】また本発明の自動車は、車内の所定位置に
配された表示手段に、入力した音声の認識に基づいて地
図を表示させる装置を備えた自動車において、音声処理
部で認識した認識対象語の候補を表示する映像信号を作
成して表示手段に供給する映像信号作成手段と、この映
像信号作成手段で認識対象語の候補の映像信号を作成さ
せる際に、その候補となる認識対象語の区分毎に、異な
る表示態様で表示させる映像信号とする表示制御手段と
を備えたものである。
The vehicle of the present invention is a vehicle equipped with a device for displaying a map on the display means arranged at a predetermined position in the vehicle based on the recognition of the input voice, and the recognition target word recognized by the voice processing unit. Of the recognition target word to be a candidate of the recognition target word when the video signal generating means for generating a video signal for displaying the candidate of Each section is provided with a display control means for setting a video signal to be displayed in a different display mode.

【0017】本発明の自動車によると、認識対象語の候
補の表示状態が、候補の対象語の区分毎に異なる表示態
様になるので、同じ区分毎の候補が判り易くなり、見や
すい表示状態となる。
According to the vehicle of the present invention, the display state of the candidate of the recognition target word is different for each division of the target word of the candidate, so that the candidates of the same division are easy to understand and the display state is easy to see. .

【0018】[0018]

【発明の実施の形態】以下、本発明の一実施例を、添付
図面を参照して説明する。
An embodiment of the present invention will be described below with reference to the accompanying drawings.

【0019】本例においては、自動車に搭載されるナビ
ゲーション装置に適用したもので、まず図2,図3を参
照して本例の装置の自動車への設置状態を説明する。図
2に示すように、自動車50は、ハンドル51が運転席
52の前方に取付けられ、基本的には、運転席52に着
席した運転者がナビゲーション装置の操作を行うように
したものである。但し、この自動車50内の他の同乗者
が操作する場合もある。そして、ナビゲーション装置の
本体20及びこのナビゲーション装置本体20に接続さ
れた音声認識装置10は、自動車50内の任意の空間
(例えば後部のトランク内)に設置され、後述する測位
信号受信用アンテナ21が車体の外側(或いはリアウィ
ンドウの内側などの車内)に取付けてある。
This example is applied to a navigation device mounted on an automobile. First, the installation state of the device of this example on an automobile will be described with reference to FIGS. As shown in FIG. 2, the vehicle 50 has a steering wheel 51 mounted in front of a driver's seat 52, and basically, a driver sitting in the driver's seat 52 operates the navigation device. However, there is a case where another passenger in the car 50 operates. The main body 20 of the navigation device and the voice recognition device 10 connected to the navigation device main body 20 are installed in an arbitrary space in the automobile 50 (for example, in a rear trunk). It is installed outside the vehicle body (or inside the vehicle such as inside the rear window).

【0020】そして、図3に運転席の近傍を示すよう
に、ハンドル51の脇には、後述するトークスイッチ1
8やナビゲーション装置の操作キー27が配置され、こ
れらのスイッチやキーは、運転中に操作されても支障が
ないように配置してある。また、ナビゲーション装置に
接続されたディスプレイ装置40が、運転者の前方の視
界を妨げない位置に配置してある。また、ナビゲーショ
ン装置20内で音声合成された音声信号を出力させるス
ピーカ32が、運転者に出力音声が届く位置(例えばデ
ィスプレイ装置40の脇など)に取付けてある。
As shown near the driver's seat in FIG. 3, a talk switch 1 to be described later is provided beside the steering wheel 51.
8 and an operation key 27 of the navigation device are arranged, and these switches and keys are arranged so that there is no problem even if operated during driving. Further, the display device 40 connected to the navigation device is arranged at a position that does not obstruct the field of view in front of the driver. A speaker 32 for outputting a voice signal synthesized in the navigation device 20 is attached to a position where the output voice reaches the driver (for example, beside the display device 40).

【0021】また、本例のナビゲーション装置は音声入
力ができるようにしてあり、そのためのマイクロフォン
11が、運転席52の前方のフロントガラス上部に配さ
れたサンバイバイザ53に取付けてあり、運転席52に
着席した運転者の話し声を拾うようにしてある。
Further, the navigation device of this example is designed to allow voice input, and the microphone 11 for that purpose is attached to the sun visor 53 arranged above the windshield in front of the driver's seat 52. The voice of the driver seated at 52 is picked up.

【0022】また、本例のナビゲーション装置本体20
は、この自動車のエンジン制御用コンピュータ54と接
続してあり、エンジン制御用コンピュータ54から車速
に比例したパルス信号が供給されるようにしてある。
Further, the navigation device body 20 of this example
Is connected to an engine control computer 54 of the automobile, and a pulse signal proportional to the vehicle speed is supplied from the engine control computer 54.

【0023】次に、本例のナビゲーション装置の内部の
構成について図1を参照して説明すると、本例において
は、音声認識装置10をナビゲーション装置20と接続
して構成させたもので、音声認識装置10は、マイクロ
フォン11が接続してある。このマイクロフォン11と
しては、例えば指向性が比較的狭く設定されて、自動車
の運転席に着席した者の話し声だけを良好に拾うような
ものを使用し、例えば後述するトークスイッチ18が押
されてオン状態となっている間だけ電源が投入されて音
声を拾う動作を行うようにしてある。
Next, the internal structure of the navigation device of this example will be described with reference to FIG. 1. In this example, the voice recognition device 10 is connected to the navigation device 20, and voice recognition is performed. A microphone 11 is connected to the device 10. As the microphone 11, for example, a microphone whose directivity is set relatively narrow and which can pick up only the voice of a person sitting in the driver's seat of an automobile is used. For example, a talk switch 18 described later is pressed to turn it on. The power is turned on and the operation of picking up a voice is performed only while the state is in the state.

【0024】そして、このマイクロフォン11が拾って
得た音声信号を、アナログ/デジタル変換器12に供給
し、所定のサンプリング周波数のデジタル音声信号に変
換する。そして、このアナログ/デジタル変換器12が
出力するデジタル音声信号を、DSP(デジタル・シグ
ナル・プロセッサ)と称される集積回路構成のデジタル
音声処理回路13に供給する。このデジタル音声処理回
路13では、帯域分割,フィルタリングなどの処理で、
デジタル音声信号をベクトルデータとし、このベクトル
データを音声認識回路14に供給する。
The voice signal picked up by the microphone 11 is supplied to the analog / digital converter 12 and converted into a digital voice signal having a predetermined sampling frequency. Then, the digital audio signal output from the analog / digital converter 12 is supplied to a digital audio processing circuit 13 having an integrated circuit configuration called a DSP (Digital Signal Processor). The digital audio processing circuit 13 performs processing such as band division and filtering.
The digital voice signal is used as vector data, and this vector data is supplied to the voice recognition circuit 14.

【0025】この音声認識回路14には音声認識データ
記憶用ROM15が接続され、デジタル音声処理回路1
3から供給されるベクトルデータとの所定の音声認識ア
ルゴリズム(例えばHMM:隠れマルコフモデル)に従
った認識動作を行い、ROM15に記憶された音声認識
用音韻モデルから候補を複数選定し、その候補の中で最
も一致度の高い音韻モデルに対応して記憶された文字デ
ータを読出す。なお、本例の音声認識回路14は、音声
認識装置10内の各部の処理の制御を行う制御手段とし
ても機能するようにしてあり、後述するトークスイッチ
18の操作についても、この音声認識回路14が判断す
るようにしてある。
A voice recognition data storage ROM 15 is connected to the voice recognition circuit 14, and the digital voice processing circuit 1 is connected.
3 performs a recognition operation according to a predetermined speech recognition algorithm (for example, HMM: Hidden Markov Model) with the vector data supplied from 3 to select a plurality of candidates from the phoneme model for speech recognition stored in the ROM 15, and select the candidates. The character data stored corresponding to the phoneme model with the highest degree of coincidence is read out. The voice recognition circuit 14 of the present example also functions as a control unit that controls the processing of each unit in the voice recognition device 10, and the voice recognition circuit 14 is also used for the operation of the talk switch 18 described later. Is to judge.

【0026】ここで、本例の音声認識データ記憶用RO
M15のデータ記憶状態について説明すると、本例の場
合には、地名と、ナビゲーション装置の操作を指示する
言葉だけを認識するようにしてあり、地名としては、図
4に記憶エリアの設定状態を示すように、国内の都道府
県と、市区町村の名前だけを登録させてあり、各都道府
県と市区町村毎に、その地名の文字コードと、地名を音
声認識させるためのデータである音韻モデルが記憶させ
てある。
Here, the voice recognition data storage RO of this example is used.
Explaining the data storage state of M15, in the case of this example, only the place name and the words instructing the operation of the navigation device are recognized, and as the place name, the setting state of the storage area is shown in FIG. As described above, only the names of prefectures and municipalities in Japan are registered, and the character code of the place name and the phoneme model that is the data for recognizing the place name by voice for each prefecture and municipality. Is remembered.

【0027】なお、例えば日本国内の場合には、全国の
市区町村の数は約3500であり、この約3500の地
名が記憶されることになる。但し、「××町」の地名の
場合には、「××マチ」と発音した場合のデータと、
「××チョウ」と発音した場合のデータとの双方が記憶
させてある。同様に、「××村」の地名の場合には、
「××ソン」と発音した場合のデータと、「××ムラ」
と発音した場合のデータとの双方が記憶させてある。
For example, in Japan, the number of municipalities nationwide is about 3500, and the place names of about 3500 are stored. However, in the case of the place name of "xx town", the data when pronounced "xx gusset"
Both the data when "XX butterfly" is pronounced are stored. Similarly, in the case of the place name "xx village",
Data when pronounced "xx son" and "xx unevenness"
And the data when the sound is pronounced are stored.

【0028】また、都道府県の境界に隣接した位置の市
区町村などのように、都道府県名を間違えて覚える可能
性の高い市区町村名については、間違えやすい都道府県
名を付与させて登録させてある。即ち、例えば正しい例
である「カナガワケン カワサキシ(神奈川県川崎
市)」と登録させると共に、間違った例である隣接した
都道府県名を付与させた「トウキョウト カワサキシ
(東京都川崎市)」としても登録させる。
[0028] In addition, for a municipality name that is likely to be mistaken for remembering the prefecture name such as a municipality located adjacent to the border of the prefecture, the prefecture name that is easy to make a mistake is added and registered. I am allowed. That is, for example, the correct example "Kanagawa Ken Kawasaki (Kanagawa Prefecture, Kawasaki City)" is registered, and the incorrect example "Tokyo Kawasaki (Kawasaki City, Tokyo)" with the adjacent prefecture name is also registered. .

【0029】また、ナビゲーション装置の操作を指示す
る言葉としては、「目的地」,「出発地」,「経由
地」,「自宅」などの表示位置を指示する言葉や、「今
何時」(現在時刻を聞く指令),「今どこ」(現在位置
を聞く指令),「次は」(次の交差点を聞く指令),
「あとどれくらい」(目的地までの距離を聞く指令),
「速度は」(現在速度を聞く指令),「高度は」(現在
の高度を聞く指令),「進行方向は」(進行方向を聞く
指令),「一覧表」(認識できる指令の一覧表をディス
プレイに表示させるための指令)等のその他の各種操作
指令を行う言葉の文字コードと、その言葉に対応する音
韻モデルが記憶させてある。
As the words for instructing the operation of the navigation device, the words for instructing the display position such as "destination", "departure point", "stopover point", "home" and "what time" (currently) "Listen to the time", "Now where" (Listen to the current position), "Next" (Listen to the next intersection),
"How much more" (command to ask the distance to the destination),
"Speed" (command to ask current speed), "Altitude" (command to ask current altitude), "Direction of travel" (command to ask direction), "List" (list of recognized commands A character code of a word for performing other various operation commands such as a command for displaying on the display) and a phonological model corresponding to the word are stored.

【0030】そして、音声認識回路14で、入力ベクト
ルデータから、所定の音声認識アルゴリズムを経て得ら
れた認識結果に一致する、音韻モデルに対応した文字コ
ードが、地名の文字コードである場合には、この文字コ
ードを、ROM15から読出す。そして、この読出され
た文字コードを、経緯度変換回路16に供給する。この
経緯度変換回路16には経緯度変換データ記憶用ROM
17が接続され、音声認識回路14から供給される文字
データに対応した経緯度データ及びその付随データをR
OM17から読出す。
Then, in the voice recognition circuit 14, when the character code corresponding to the phonological model that matches the recognition result obtained through the predetermined voice recognition algorithm from the input vector data is the character code of the place name, The character code is read from the ROM 15. Then, the read character code is supplied to the longitude / latitude conversion circuit 16. This latitude / longitude conversion circuit 16 has a ROM for storing latitude / longitude conversion data.
17 is connected, and the latitude and longitude data corresponding to the character data supplied from the voice recognition circuit 14 and its accompanying data are R
Read from OM17.

【0031】なお、本例の音声認識回路14には、認識
結果を一時的に記憶するメモリ(図示せず)が備えら
れ、このメモリ内に認識結果を履歴リストとして記憶さ
せるようにしてある。また、認識処理時に、最も一致度
が高い音声から順にある程度まで一致する音声について
までのデータを、候補リストとして記憶させるようにし
てある。この履歴リストや候補リストは、記憶されてか
らある程度の時間が経過すると消去される。
The voice recognition circuit 14 of this example is provided with a memory (not shown) for temporarily storing the recognition result, and the recognition result is stored as a history list in this memory. Further, during the recognition processing, the data from the voice having the highest degree of matching to the voices having a certain degree of matching are stored as a candidate list. The history list and the candidate list are deleted after a certain amount of time has passed since they were stored.

【0032】ここで、本例の経緯度変換データ記憶用R
OM17のデータ記憶状態について説明すると、本例の
場合には、音声認識データ記憶用ROM15に記憶され
た地名の文字コードと同じ文字コード毎に記憶エリアが
設定され、図5に示すように、各文字コード毎に、その
文字で示される地名の緯度と経度のデータと、付随する
データとして表示スケールのデータとが記憶させてあ
る。また、音声認識データ記憶用ROM15から読出さ
れた文字コードとしては、カタカナによる文字コードと
してあるが、この経緯度変換データ記憶用ROM17に
は、発音を文字列で示すカタカナによる文字コードの他
に、表示用の漢字,平仮名,カタカナ等を使用した文字
コードについても記憶させてある。
Here, R for storing the latitude / longitude conversion data of this example
Explaining the data storage state of the OM 17, in the case of this example, a storage area is set for each character code that is the same as the character code of the place name stored in the voice recognition data storage ROM 15, and as shown in FIG. For each character code, the latitude and longitude data of the place name indicated by the character and the display scale data are stored as accompanying data. Further, the character code read from the voice recognition data storage ROM 15 is a character code in katakana. In the latitude / longitude conversion data storage ROM 17, in addition to the character code in katakana indicating pronunciation by a character string, Character codes using kanji for display, hiragana, katakana, etc. are also stored.

【0033】なお、本例の場合には、地名毎の緯度と経
度のデータとしては、その地名で示される地域の役所
(市役所,区役所,町役場,村役場)の所在地の絶対位
置を示す緯度と経度のデータとしてある。また、付随デ
ータとして、表示用の文字コードと表示スケールのデー
タを、緯度と経度のデータと共に出力するようにしてあ
る。この表示スケールのデータとしては、その地名で示
される地域の大きさに応じて設定された表示スケールの
データとしてあり、例えば数段階に表示スケールを指示
するデータとしてある。
In the case of this example, the latitude and longitude data for each place name is the latitude indicating the absolute position of the location of the local government (city hall, ward office, town hall, village hall) indicated by the place name. It is as longitude data. As accompanying data, character code for display and display scale data are output together with latitude and longitude data. The display scale data is display scale data set according to the size of the area indicated by the place name, for example, data indicating the display scale in several steps.

【0034】そして、経緯度変換データ記憶用ROM1
7から読出された経緯度データ及びその付随データを、
音声認識装置10の出力として出力端子10aに供給す
る。また、音声認識回路14で一致が検出された入力音
声の文字コードのデータを、音声認識装置10の出力と
して出力端子10bに供給する。この出力端子10a,
10bに得られるデータは、ナビゲーション装置20に
供給する。
Then, the ROM 1 for storing the latitude / longitude conversion data
The latitude and longitude data read from 7 and the accompanying data are
The output of the voice recognition device 10 is supplied to an output terminal 10a. Further, the data of the character code of the input voice whose match is detected by the voice recognition circuit 14 is supplied to the output terminal 10 b as an output of the voice recognition device 10. This output terminal 10a,
The data obtained in 10b is supplied to the navigation device 20.

【0035】なお、本例の音声認識装置10には、ロッ
クされない開閉スイッチ(即ち押されたときだけオン状
態になるスイッチ)であるトークスイッチ18が接続さ
れ、このトークスイッチ18が少なくとも300m秒以
上継続して押されている間に、マイクロフォン11が拾
った音声信号だけを、アナログ/デジタル変換器12か
ら経緯度変換回路16までの回路で上述した処理を行う
ようにしてある。この音声認識装置10内での処理は、
音声認識回路14の制御に基づいて行われ、トークスイ
ッチ18の状態についても、音声認識回路14が判断す
るようにしてある。
The voice recognition device 10 of this embodiment is connected to a talk switch 18, which is an unlocked open / close switch (that is, a switch that turns on only when pressed), and the talk switch 18 is at least 300 msec or longer. Only the audio signal picked up by the microphone 11 while being continuously pressed is processed by the circuits from the analog / digital converter 12 to the latitude / longitude conversion circuit 16 as described above. The processing in this voice recognition device 10 is
This is performed under the control of the voice recognition circuit 14, and the state of the talk switch 18 is also determined by the voice recognition circuit 14.

【0036】そして本例においては、音声認識回路14
で所定時間以内(例えば10秒以内)に、再度入力した
音声の認識処理が行われた場合において、このとき認識
した音声が、音声認識回路14内のメモリに記憶された
履歴リストに記憶されているとき、この認識音声を履歴
リストから削除し、削除された履歴リストの最も高い順
位に記憶された音声を、音声認識したと判断するように
してある。また、このような処理が複数回(例えば5
回)連続して行われたときには、候補となる認識音声の
データを候補リストから読出して、ナビゲーション装置
20側に供給し、ナビゲーション装置20に接続された
ディスプレイ装置40に候補リストを表示させるように
してある。これらの処理の詳細については、後述する。
In this example, the voice recognition circuit 14
In the case where the re-input voice recognition process is performed within a predetermined time (for example, within 10 seconds), the voice recognized at this time is stored in the history list stored in the memory in the voice recognition circuit 14. When this is the case, this recognized voice is deleted from the history list, and the voice stored in the highest rank of the deleted history list is judged to have been voice-recognized. In addition, such processing is performed a plurality of times (for example, 5
When repeated, the candidate recognition voice data is read from the candidate list and supplied to the navigation device 20 so that the display device 40 connected to the navigation device 20 displays the candidate list. There is. Details of these processes will be described later.

【0037】また、本例の音声認識装置10内の音声認
識回路14からは、端子10bを介してナビゲーション
装置20側に上述した文字コード以外の各種制御データ
についても伝送できるようにしてあり、例えば音声出力
処理や地図データの作成処理を中断させる制御データを
ナビゲーション装置20側に送ることもある。
Further, the voice recognition circuit 14 in the voice recognition device 10 of the present example is configured to be able to transmit various control data other than the above character code to the navigation device 20 side via the terminal 10b. Control data for interrupting the voice output process and the map data creation process may be sent to the navigation device 20 side.

【0038】次に、音声認識装置10と接続されたナビ
ゲーション装置20の構成について説明する。このナビ
ゲーション装置20は、GPS用アンテナ21を備え、
このアンテナ21が受信したGPS用衛星からの測位用
信号を、現在位置検出回路22で受信処理し、この受信
したデータを解析して、現在位置を検出する。この検出
した現在位置のデータとしては、そのときの絶対的な位
置である緯度と経度のデータである。
Next, the structure of the navigation device 20 connected to the voice recognition device 10 will be described. This navigation device 20 includes a GPS antenna 21,
The positioning signal from the GPS satellite received by the antenna 21 is received and processed by the current position detection circuit 22, and the received data is analyzed to detect the current position. The data of the detected current position is data of latitude and longitude, which are absolute positions at that time.

【0039】そして、この検出した現在位置のデータ
を、演算回路23に供給する。この演算回路23は、ナ
ビゲーション装置20による動作を制御するシステムコ
ントローラとして機能する回路で、道路地図データが記
憶されたCD−ROM(光ディスク)がセットされて、
このCD−ROMの記憶データを読出すCD−ROMド
ライバ24と、データ処理に必要な各種データを記憶す
るRAM25と、このナビゲーション装置が搭載された
車両の動きを検出する車速センサ26と、操作キー27
とが接続させてある。そして、現在位置などの経緯度の
座標データが得られたとき、CD−ROMドライバ24
にその座標位置の近傍の道路地図データを読出す制御を
行う。そして、CD−ROMドライバ24で読出した道
路地図データをRAM25に一時記憶させ、この記憶さ
れた道路地図データを使用して、道路地図を表示させる
ための表示データを作成する。このときには、自動車内
の所定位置に配置された操作キー27の操作などにより
設定された表示スケール(縮尺)で地図を表示させるよ
うな表示データとする。
Then, the detected current position data is supplied to the arithmetic circuit 23. The arithmetic circuit 23 is a circuit that functions as a system controller that controls the operation of the navigation device 20, and is set with a CD-ROM (optical disk) storing road map data.
A CD-ROM driver 24 for reading data stored in the CD-ROM; a RAM 25 for storing various data necessary for data processing; a vehicle speed sensor 26 for detecting the movement of a vehicle equipped with the navigation device; 27
And are connected. When the coordinate data of the latitude and longitude such as the current position is obtained, the CD-ROM driver 24
To read the road map data near the coordinate position. Then, the road map data read by the CD-ROM driver 24 is temporarily stored in the RAM 25, and display data for displaying the road map is created using the stored road map data. At this time, the display data is set to display a map on a display scale (scale) set by operating the operation keys 27 arranged at a predetermined position in the automobile.

【0040】そして、演算回路23で作成された表示デ
ータを、映像信号生成回路28に供給し、この映像信号
生成回路28で表示データに基づいて所定のフォーマッ
トの映像信号を生成させ、この映像信号を出力端子20
cに供給する。
Then, the display data created by the arithmetic circuit 23 is supplied to the video signal generation circuit 28, and the video signal generation circuit 28 generates a video signal of a predetermined format based on the display data. Output terminal 20
c.

【0041】そして、この出力端子20cから出力され
る映像信号を、ディスプレイ装置40に供給し、このデ
ィスプレイ装置40で映像信号に基づいた受像処理を行
い、ディスプレイ装置40の表示パネルに道路地図など
を表示させる。
Then, the video signal output from the output terminal 20c is supplied to the display device 40, the image receiving process is performed on the display device 40 based on the video signal, and a road map or the like is displayed on the display panel of the display device 40. Display it.

【0042】そして、このような現在位置の近傍の道路
地図を表示させる他に、操作キー27の操作などで指示
された位置の道路地図なども、演算回路23の制御に基
づいて表示できるようにしてある。また、操作キー27
の操作などに基づいて、「目的地」,「出発地」,「経
由地」,「自宅」などの特定の座標位置を登録すること
ができるようにしてある。この特定の座標位置を登録し
た場合には、その登録した座標位置のデータ(経度と緯
度のデータ)をRAM25に記憶させる。
In addition to displaying the road map in the vicinity of the current position, the road map at the position designated by the operation of the operation keys 27 can be displayed under the control of the arithmetic circuit 23. There is. In addition, the operation key 27
Specific coordinate positions such as “destination”, “departure point”, “route point”, and “home” can be registered based on the operation of. When the specific coordinate position is registered, the data of the registered coordinate position (longitude and latitude data) is stored in the RAM 25.

【0043】また、車速センサ26が自動車の走行を検
出したときには、演算回路23が操作キー27の操作の
内の比較的簡単な操作以外の操作を受け付けないように
してある。
Further, when the vehicle speed sensor 26 detects the traveling of the automobile, the arithmetic circuit 23 does not accept any operation other than a relatively simple operation of the operation keys 27.

【0044】また、このナビゲーション装置20は、自
律航法部29を備え、自動車側のエンジン制御用コンピ
ュータ等から供給される車速に対応したパルス信号に基
づいて、自動車の正確な走行速度を演算すると共に、自
律航法部29内のジャイロセンサの出力に基づいて進行
方向を検出し、速度と進行方向に基づいて決められた位
置からの自律航法による現在位置の測位を行う。例えば
現在位置検出回路22で位置検出ができない状態になっ
たとき、最後に現在位置検出回路22で検出できた位置
から、自律航法による測位を行う。
Further, the navigation device 20 is provided with an autonomous navigation unit 29, which calculates an accurate traveling speed of the vehicle on the basis of a pulse signal corresponding to the vehicle speed supplied from an engine control computer or the like on the vehicle side. The traveling direction is detected based on the output of the gyro sensor in the autonomous navigation unit 29, and the current position is determined by the autonomous navigation from the position determined based on the speed and the traveling direction. For example, when the position cannot be detected by the current position detection circuit 22, the positioning by the autonomous navigation is performed from the position last detected by the current position detection circuit 22.

【0045】また、演算回路23には音声合成回路31
が接続させてあり、演算回路23で音声による何らかの
指示が必要な場合には、音声合成回路31でこの指示す
る音声の合成処理を実行させ、音声合成回路31に接続
されたスピーカ32から音声を出力させるようにしてあ
る。例えば、「目的地に近づきました」,「進行方向は
左です」などのナビゲーション装置として必要な各種指
示を音声で行うようにしてある。また、この音声合成回
路31では、音声認識装置10で認識した音声を、供給
される文字データに基づいて音声合成処理して、スピー
カ32から音声として出力させるようにしてある。その
処理については後述する。
Further, the arithmetic circuit 23 includes a voice synthesis circuit 31.
When the arithmetic circuit 23 requires some instruction by voice, the voice synthesizing circuit 31 executes the voice synthesizing process instructed by the voice synthesizing circuit 31 and outputs the voice from the speaker 32 connected to the voice synthesizing circuit 31. It is made to output. For example, various instructions necessary for the navigation device, such as "approaching the destination" and "the traveling direction is left", are given by voice. In the speech synthesis circuit 31, the speech recognized by the speech recognition device 10 is subjected to speech synthesis processing based on the supplied character data, and is output from the speaker 32 as speech. The processing will be described later.

【0046】ここで、このナビゲーション装置20は、
音声認識装置10の出力端子10a,10bから出力さ
れる経緯度データとその付随データ及び文字コードのデ
ータが供給される入力端子20a,20bを備え、この
入力端子20a,20bに得られる経緯度データとその
付随データ及び文字コードのデータを、演算回路23に
供給する。
Here, the navigation device 20
The voice recognition device 10 is provided with input terminals 20a and 20b to which longitude and latitude data output from the output terminals 10a and 10b and associated data and character code data are provided, and longitude and latitude data obtained at the input terminals 20a and 20b. And its associated data and character code data are supplied to the arithmetic circuit 23.

【0047】そして、演算回路23では、この経緯度デ
ータなどが音声認識装置10側から供給されるとき、そ
の経度と緯度の近傍の道路地図データをCD−ROMド
ライバ24でディスクから読出す制御を行う。そして、
CD−ROMドライバ24で読出した道路地図データを
RAM25に一時記憶させ、この記憶された道路地図デ
ータを使用して、道路地図を表示させるための表示デー
タを作成する。このときには、供給される経度と緯度が
中心に表示される表示データとすると共に、経緯度デー
タに付随する表示スケールで指示されたスケール(縮
尺)で地図を表示させるような表示データとする。
When the latitude / longitude data is supplied from the voice recognition device 10, the arithmetic circuit 23 controls the CD-ROM driver 24 to read the road map data near the longitude and latitude from the disk. To do. And
The road map data read by the CD-ROM driver 24 is temporarily stored in the RAM 25, and the stored road map data is used to create display data for displaying the road map. At this time, the supplied longitude and latitude are the display data displayed at the center, and the display data is such that the map is displayed on the scale (scale) indicated by the display scale attached to the longitude and latitude data.

【0048】そして、この表示データに基づいて、映像
信号生成回路28で映像信号を生成させ、ディスプレイ
装置40に、音声認識装置10から指示された座標位置
の道路地図を表示させる。
Then, based on the display data, the video signal generation circuit 28 generates a video signal, and the display device 40 displays the road map at the coordinate position designated by the voice recognition device 10.

【0049】また、音声認識装置10の出力端子10b
からナビゲーション装置の操作を指示する言葉の文字コ
ードが供給される場合には、その操作を指示する言葉の
文字コードを演算回路23で判別すると、対応した制御
を演算回路23が行うようにしてある。この場合、「目
的地」,「出発地」,「経由地」,「自宅」などの表示
位置を指示する言葉の文字コードである場合には、この
表示位置の座標がRAM25に登録されているか否か判
断した後、登録されている場合には、その位置の近傍の
道路地図データをCD−ROMドライバ24でディスク
から読出す制御を行う。
Further, the output terminal 10b of the voice recognition device 10
When a character code of a word instructing the operation of the navigation device is supplied from the computer, when the arithmetic circuit 23 determines the character code of the word instructing the operation, the arithmetic circuit 23 performs corresponding control. . In this case, if the character code of the word indicating the display position such as “destination”, “departure place”, “route point”, “home”, etc., is the coordinate of this display position registered in the RAM 25? If it is registered after determining whether or not it is registered, the CD-ROM driver 24 controls to read the road map data in the vicinity of the position from the disc.

【0050】また、演算回路23に音声認識装置10か
ら、認識した音声の発音を示す文字コードのデータが供
給されるときには、その文字コードで示される言葉を、
音声合成回路31で合成処理させ、音声合成回路31に
接続されたスピーカ32から音声として出力させるよう
にしてある。例えば、音声認識装置10側で「トウキョ
ウト ブンキョウク(東京都文京区)」と音声認識した
とき、この認識した発音の文字列のデータに基づいて
「トウキョウト ブンキョウク」と発音させる音声信号
を生成させる合成処理を、音声合成回路31で行い、そ
の生成された音声信号をスピーカ32から出力させる。
Further, when the arithmetic circuit 23 is supplied from the voice recognition device 10 with the data of the character code indicating the pronunciation of the recognized voice, the word indicated by the character code is changed to
The voice synthesizing circuit 31 performs a synthesizing process, and the speaker 32 connected to the voice synthesizing circuit 31 outputs the voice as a voice. For example, when the voice recognition device 10 recognizes the voice as “Tokyo Bunkyo (Bunkyo-ku, Tokyo)”, based on the character string data of the recognized pronunciation, a synthesis process for generating a voice signal to be pronounced as “Tokyo Bunkyo” is performed. Is performed by the voice synthesis circuit 31, and the generated voice signal is output from the speaker 32.

【0051】この場合、本例においては音声認識装置1
0で音声認識を行った場合に、ナビゲーション装置20
の端子20aに経度,緯度のデータが供給されるのと、
端子20bに認識した音声の発音を示す文字コードのデ
ータが供給されるのが、ほぼ同時であるが、演算回路2
3では最初に音声合成回路31で認識した言葉を音声合
成させる処理を実行させ、次に経度,緯度のデータに基
づいた道路地図の表示データの作成処理を実行させるよ
うにしてある。
In this case, in this example, the voice recognition device 1
When the voice recognition is performed with 0, the navigation device 20
The longitude and latitude data are supplied to the terminal 20a of
The data of the character code indicating the pronunciation of the recognized voice is supplied to the terminal 20b almost at the same time.
In No. 3, first, the process of synthesizing the words recognized by the voice synthesizing circuit 31 is executed, and then the process of creating the display data of the road map based on the longitude and latitude data is executed.

【0052】次に、本例の音声認識装置10とナビゲー
ション装置20を使用して、道路地図表示などを行う場
合の動作を説明する。まず、音声認識装置10での音声
認識動作を、図6のフローチャートに示すと、最初にト
ークスイッチ18がオンか否か判断し(ステップ10
1)、このトークスイッチ18がオンとなったことを判
別した場合には、そのオンとなった期間にマイクロフォ
ン11が拾った音声信号を、アナログ/デジタル変換器
12でサンプリングさせ、デジタル音声処理回路13で
処理させて、ベクトルデータ化させる(ステップ10
2)。そして、このベクトルデータに基づいて音声認識
回路14で音声認識処理させる(ステップ103)。
Next, an operation when a road map is displayed using the voice recognition device 10 and the navigation device 20 of this example will be described. First, when the voice recognition operation in the voice recognition device 10 is shown in the flowchart of FIG. 6, it is first determined whether or not the talk switch 18 is turned on (step 10
1) If it is determined that the talk switch 18 is turned on, the analog / digital converter 12 samples the audio signal picked up by the microphone 11 during the on time, and the digital audio processing circuit 13 to process the vector data (step 10).
2). Then, the speech recognition circuit 14 performs a speech recognition process based on the vector data (step 103).

【0053】ここで、音声認識データ記憶用ROM15
に記憶された地名(即ち予め登録された地名)の音声を
認識したか否か判断し(ステップ104)、登録された
地名の音声を認識した場合には、認識した地名を発音さ
せるための文字データをROM15から読出して出力端
子10bから出力させる(ステップ105)と共に、認
識した地名の経度,緯度のデータを経緯度変換回路16
に接続された経緯度変換データ記憶用ROM17から読
出す(ステップ106)。ここでの地名の音声認識とし
ては、本例のROM15に登録された地名が、国内の都
道府県と、市区町村の名前であるので、例えば「××県
××市」と言う音声や、「××市 ××区」(ここで
は区の場合には都道府県を省略しても認識できるように
してある)と言う音声を認識する。
Here, the ROM 15 for voice recognition data storage
It is judged whether or not the voice of the place name stored in (that is, the place name registered in advance) is recognized (step 104), and when the voice of the registered place name is recognized, a character for pronouncing the recognized place name. The data is read from the ROM 15 and output from the output terminal 10b (step 105), and the longitude / latitude data of the recognized place name is converted into the latitude / latitude conversion circuit 16.
The data is read from the latitude / longitude conversion data storage ROM 17 connected to (step 106). As the voice recognition of the place name here, since the place names registered in the ROM 15 of this example are the names of prefectures and municipalities in Japan, for example, a voice saying "XX prefecture XX city", Recognize a voice saying "XX city XX ward" (here, it can be recognized even if the prefecture is omitted).

【0054】そして、認識した音声に基づいて読出した
経度,緯度のデータと付随データとを、出力端子10a
から出力させる(ステップ107)。
The longitude and latitude data read out based on the recognized voice and the accompanying data are output to the output terminal 10a.
(Step 107).

【0055】そして、ステップ104で、登録された地
名の音声を認識できなかった場合には、地名以外の登録
された特定の音声を認識したか否か判断する(ステップ
108)。ここで、地名以外の登録された特定の音声を
認識した場合には、識別した音声に対応した文字コード
を判別し(ステップ109)、その判別した文字コード
を出力端子10bから出力させる(ステップ110)。
When the voice of the registered place name cannot be recognized in step 104, it is determined whether or not a specific registered voice other than the place name is recognized (step 108). Here, when the registered specific voice other than the place name is recognized, the character code corresponding to the identified voice is determined (step 109), and the determined character code is output from the output terminal 10b (step 110). ).

【0056】また、ステップ108で地名以外の登録さ
れた特定の音声も認識できなかった場合には、このとき
の処理を終了する。或いは、音声認識できなかったこと
を、ナビゲーション装置20側に指示し、音声合成回路
31での音声合成又はディスプレイ装置40で表示され
る文字などで警告する。
If no registered specific voice other than the place name can be recognized in step 108, the process at this time is ended. Alternatively, the fact that the voice cannot be recognized is instructed to the navigation device 20 side, and a warning is given by voice synthesis in the voice synthesis circuit 31 or characters displayed on the display device 40.

【0057】次に、ナビゲーション装置20側での動作
を、図7のフローチャートに示すと、まず演算回路23
では現在位置の表示モードが設定されているか否か判断
する(ステップ201)。そして、現在位置の表示モー
ドが設定されていると判断したときには、現在位置検出
回路22で現在位置の測位を実行させ(ステップ20
2)、その測位した現在位置の近傍の道路地図データを
CD−ROMから読出させ(ステップ203)、その読
出した道路地図データに基づいた道路地図の表示処理を
行い、ディスプレイ装置40に対応した座標位置の道路
地図を表示させる(ステップ204)。
Next, the operation on the side of the navigation device 20 is shown in the flowchart of FIG.
Then, it is determined whether or not the display mode of the current position is set (step 201). When it is determined that the display mode of the current position is set, the current position detection circuit 22 executes positioning of the current position (step 20).
2) The road map data in the vicinity of the measured current position is read from the CD-ROM (step 203), the road map is displayed based on the read road map data, and the coordinates corresponding to the display device 40 are displayed. The road map of the position is displayed (step 204).

【0058】そして、ステップ201で現在位置の表示
モードが設定されてないと判断したとき、或いはステッ
プ204での現在位置の道路地図の表示処理が終了し、
その道路地図が表示された状態となっているときに、音
声認識装置10から入力端子20a,20bを介して経
度,緯度データなどが供給されるか否か判断する(ステ
ップ205)。ここで、経度,緯度データとそれに付随
する文字データなどが供給されたことを判別したときに
は、まず端子20bを介して供給される発音用の文字コ
ードを音声合成回路31に供給して、音声認識装置10
で認識した音声を音声合成させてスピーカ32から出力
させる(ステップ206)。続いて、経度,緯度データ
で示される位置の近傍の道路地図データをCD−ROM
から読出させ(ステップ207)、その読出した道路地
図データに基づいた道路地図の表示処理を行い、ディス
プレイ装置40に対応した座標位置の道路地図を表示さ
せる(ステップ208)。
When it is determined in step 201 that the display mode of the current position is not set, or the display processing of the road map of the current position in step 204 ends,
When the road map is displayed, it is determined whether or not longitude and latitude data are supplied from the speech recognition device 10 via the input terminals 20a and 20b (step 205). Here, when it is determined that the longitude and latitude data and the accompanying character data are supplied, first the character code for sounding supplied through the terminal 20b is supplied to the voice synthesis circuit 31 for voice recognition. Device 10
The voice recognized in step S1 is synthesized and output from the speaker 32 (step 206). Next, the road map data in the vicinity of the position indicated by the longitude and latitude data is stored on the CD-ROM.
(Step 207), display processing of the road map is performed based on the read road map data, and the road map at the coordinate position corresponding to the display device 40 is displayed (step 208).

【0059】そして、ステップ205で音声認識装置1
0から経度,緯度データが供給されないと判断したと
き、或いはステップ208での指定された地名の道路地
図の表示処理が終了し、その道路地図が表示された状態
となっているときに、音声認識装置10から入力端子2
0bを介して表示位置を直接指示する文字コードが供給
されるか否か判断する(ステップ209)。そして、端
子20bから文字コードが供給されたと判断したときに
は、その文字コードを音声合成回路31に供給して、音
声認識装置10で認識した音声をスピーカ32から出力
させる(ステップ210)。そして次に、ステップ20
9で表示位置を直接指示する文字コード(即ち「目的
地」,「出発地」,「経由地」,「自宅」などの言葉)
を判別したときには、これらの文字で指示された座標位
置がRAM25に登録されているか否か判断し(ステッ
プ211)、登録されている場合には、その登録された
座標位置である経度,緯度データで示される位置の近傍
の道路地図データをCD−ROMから読出させ(ステッ
プ212)、その読出した道路地図データに基づいた道
路地図の表示処理を行い、ディスプレイ装置40に対応
した座標位置の道路地図を表示させ(ステップ21
3)、この表示が行われた状態で、ステップ201の判
断に戻る。
Then, in step 205, the speech recognition apparatus 1
When it is determined that the longitude and latitude data are not supplied from 0, or when the display processing of the road map of the designated place name in step 208 is completed and the road map is displayed, the voice recognition is performed. Input terminal 2 from device 10
It is determined whether a character code that directly indicates the display position is supplied via 0b (step 209). When it is determined that the character code is supplied from the terminal 20b, the character code is supplied to the voice synthesis circuit 31, and the voice recognized by the voice recognition device 10 is output from the speaker 32 (step 210). And then step 20
Character code that directly indicates the display position in 9 (that is, words such as "destination", "departure point", "stopover point", "home")
When it is determined, it is determined whether the coordinate position designated by these characters is registered in the RAM 25 (step 211). If registered, the registered coordinate position is the longitude and latitude data. The road map data in the vicinity of the position indicated by is read from the CD-ROM (step 212), the road map is displayed based on the read road map data, and the road map at the coordinate position corresponding to the display device 40 is displayed. Is displayed (Step 21
3) Then, with this display being performed, the process returns to the determination in step 201.

【0060】そして、ステップ209で表示位置を直接
指示する文字コードが音声認識装置10から供給されな
いと判断したときには、操作キー27の操作により、表
示位置を指定する操作があるか否か演算回路23で判断
する(ステップ214)。そして、この表示位置を指定
する操作がある場合には、車速センサ26の検出データ
を判断して、現在車両が走行中か否か判断する(ステッ
プ215)。そして、走行中であると演算回路23が判
断したときには、そのときの操作を無効とし、ステップ
201の判断に戻る(このとき何らかの警告を行うよう
にしても良い)。
When it is determined in step 209 that the character code directly designating the display position is not supplied from the voice recognition device 10, the operation circuit 27 determines whether or not there is an operation for designating the display position. (Step 214). Then, if there is an operation for designating this display position, the detection data of the vehicle speed sensor 26 is judged to judge whether or not the vehicle is currently traveling (step 215). When the arithmetic circuit 23 determines that the vehicle is traveling, the operation at that time is invalidated, and the process returns to the determination in step 201 (some warning may be given at this time).

【0061】そして、車両が走行中でないと判断したと
きに、ステップ211に移り、登録された座標があるか
否か判断した後、登録された座標位置がある場合には、
その位置の道路地図の表示処理(ステップ212,21
3)を行った後、ステップ201の判断に戻る。
When it is determined that the vehicle is not traveling, the process proceeds to step 211, and after it is determined whether or not there are registered coordinates, if there is a registered coordinate position,
Display processing of the road map at that position (steps 212 and 21)
After performing 3), the process returns to the determination in step 201.

【0062】そして、ステップ211で「目的地」,
「出発地」,「経由地」,「自宅」などの対応した位置
の座標の登録がない場合には、音声合成回路31での音
声合成又はディスプレイ装置40での文字表示で、未登
録を警告させ(ステップ216)、ステップ201の判
断に戻る。
Then, in step 211, "destination",
If the coordinates of the corresponding positions such as “departure place”, “intermediate place”, and “home” are not registered, a warning of non-registration is issued by voice synthesis in the voice synthesis circuit 31 or character display on the display device 40. (Step 216), and the process returns to Step 201.

【0063】なお、この図7のフローチャートでは、地
図表示に関係する処理について説明したが、音声認識装
置10側から地図表示以外の操作を指示する音声を認識
した結果による文字コードが供給される場合には、演算
回路23の制御に基づいて、対応した処理を行うように
してある。例えば、「イマナンジ」などと認識して文字
コードが供給されるとき、演算回路23の制御に基づい
て、現在時刻を発音させる音声を音声合成回路31で合
成させてスピーカ32から出力させるようにしてある。
その他の指令についても、回答の音声を音声合成回路3
1で合成させてスピーカ32から出力させるか、或いは
該当する表示をディスプレイ装置40で行うように処理
する。
Although the process relating to the map display has been described with reference to the flowchart of FIG. 7, when the character code is supplied from the voice recognition device 10 side as a result of recognizing a voice instructing an operation other than the map display. According to the control of the arithmetic circuit 23, the corresponding processing is performed. For example, when a character code is supplied by recognizing "Imananji" or the like, the voice synthesizing circuit 31 synthesizes a voice for producing the current time and outputs it from the speaker 32 under the control of the arithmetic circuit 23. is there.
For other commands, the voice of the answer is also synthesized by the voice synthesis circuit 3.
The processing is performed so that the display device 40 performs the corresponding display and outputs it from the speaker 32.

【0064】以上のように処理されることで、音声入力
により表示位置を全国どこでも自由に設定することがで
き、簡単に所望の位置の道路地図を表示させることがで
きる。即ち、例えば操作者がトークスイッチ18を押し
ながら、マイクロフォン11に向かって「××県 ××
市」や「××市 ××区」と話すだけで、その音声が認
識されて、その地域の道路地図が表示されるので、キー
操作で位置の指示などを行う必要がなく、例えばキー操
作が困難な状況であっても、ナビゲーション装置の操作
ができる。この場合、本例においては音声認識装置10
で認識する地名の音声を、国内の都道府県と、市区町村
の名前に限定したので、認識する音声の数が比較的少な
い数(約3500)に制限され、音声認識装置10内の
音声認識回路14で比較的少ない処理量による短時間で
の音声認識処理で、地名を認識でき、入力した音声によ
り指示された地図が表示されるまでの時間を短縮するこ
とができると共に、認識する地名の数が限定されること
で、認識率自体も向上する。
By the above processing, the display position can be freely set by voice input anywhere in the country, and the road map at the desired position can be easily displayed. That is, for example, while the operator is pressing the talk switch 18, he / she looks at the microphone 11 and reads "XX prefecture XX."
By simply speaking "city" or "XX city XX ward", the voice is recognized and the road map of the area is displayed, so there is no need to specify the position by key operation, for example key operation Even in a difficult situation, the navigation device can be operated. In this case, in this example, the voice recognition device 10
Since the voice of the place name to be recognized by is limited to the names of prefectures and municipalities in Japan, the number of recognized voices is limited to a relatively small number (about 3500), and the voice recognition in the voice recognition device 10 is limited. The circuit 14 can recognize a place name by a voice recognition process in a short time with a relatively small amount of processing, and it is possible to shorten the time until the map instructed by the input voice is displayed. The limited number also improves the recognition rate itself.

【0065】ここで本例においては、以上説明した音声
入力があって認識処理が行われた後に、再度音声入力が
あったとき、その認識処理時に過去の認識結果を参照す
るようにしてある。以下、その処理を図8のフローチャ
ートに示す。
In this example, when the voice input described above is performed and the recognition processing is performed, and then the voice input is performed again, the past recognition result is referred to in the recognition processing. The process is shown in the flowchart of FIG. 8 below.

【0066】まず、前回の音声認識処理から充分な時間
(例えば数分)が経過している場合には、音声認識回路
14内の履歴リストをクリアし(ステップ401)、そ
の後発話が開始、即ちトークスイッチ18がオン状態に
なったか否か判断し(ステップ402)、発話が開始さ
れたと判断すると、前回の発話から所定時間Th(ここ
では10秒)が経過しているか否か判断し(ステップ4
03)、経過している場合には音声認識回路14内の履
歴リストをクリアする(ステップ404)。そして、前
回の発話から所定時間Thが経過してない場合には、履
歴リストをクリアしない。
First, when a sufficient time (for example, several minutes) has passed from the previous voice recognition processing, the history list in the voice recognition circuit 14 is cleared (step 401), and then the utterance starts, that is, It is determined whether or not the talk switch 18 is turned on (step 402), and when it is determined that the utterance has started, it is determined whether or not a predetermined time Th (here, 10 seconds) has elapsed since the last utterance (step). Four
03), if it has passed, the history list in the voice recognition circuit 14 is cleared (step 404). If the predetermined time Th has not elapsed since the last utterance, the history list is not cleared.

【0067】そして次に、音声認識回路14の制御に基
づいて、入力された音声の認識処理を行う(ステップ4
05)。そして、この認識結果で得られた候補の音声デ
ータと、履歴リストにある音声データとを照合し、履歴
リストに同じデータがある場合には、そのデータを認識
された候補の中から削除する(ステップ406)。そし
て次に、履歴リストの項目数がN個(ここでは5個)以
上か否か判断する(ステップ407)。そして、N個以
上でない場合(即ちN回連続して発話がされてない場
合)には、ステップ408に移って、このときの残りの
候補のデータの中で、最も認識度(一致度)が高かった
データを、認識された結果として、ナビゲーション装置
20の音声合成回路31に供給し、スピーカ32から音
声として出力させる。そして、この認識された結果が地
域を示す音声(即ち本例の場合には都道府県名及び市区
町村名)である場合には、その市区町村を表示させる地
図を、ナビゲーション装置20内での処理でディスプレ
イ装置40に表示させる(ステップ409)。そして、
このとき認識された結果を、履歴リストに追加し(ステ
ップ410)、ステップ402に戻り、次の発話開始ま
で待機する。
Then, the input voice is recognized under the control of the voice recognition circuit 14 (step 4).
05). Then, the candidate voice data obtained as a result of this recognition is compared with the voice data in the history list, and if there is the same data in the history list, that data is deleted from the recognized candidates ( Step 406). Then, it is determined whether or not the number of items in the history list is N (here, 5) or more (step 407). When the number is not N or more (that is, when N consecutive utterances have not been made), the process proceeds to step 408, and the recognition degree (coincidence degree) is the highest among the remaining candidate data at this time. As a result of the recognition, the high data is supplied to the voice synthesis circuit 31 of the navigation device 20 and is output as voice from the speaker 32. Then, when the recognized result is a voice indicating a region (that is, a prefecture name and a city name in this example), a map displaying the city is displayed in the navigation device 20. The display device 40 is displayed by the processing of (step 409). And
The result recognized at this time is added to the history list (step 410), the process returns to step 402 and waits until the next utterance starts.

【0068】そして、ステップ407で履歴リストの項
目数がN個であると判断された場合(即ちN回連続して
発話がされた場合)には、ステップ411に移って、候
補リストの表示処理を行う。即ち、ここまでの認識処理
で認識された候補のデータを、音声認識回路14内の候
補リスト用メモリから読出し、このデータをナビゲーシ
ョン装置20に供給して、ナビゲーション装置20内の
映像信号生成回路28で候補リストの映像信号を生成さ
せ、その映像信号をディスプレイ装置40に供給して、
候補リストをディスプレイ装置40に表示させる。
When it is determined in step 407 that the number of items in the history list is N (that is, when N consecutive utterances are made), the process proceeds to step 411, and the candidate list display process is performed. I do. That is, the candidate data recognized by the recognition processing up to this point is read from the candidate list memory in the voice recognition circuit 14, and this data is supplied to the navigation device 20 to generate the video signal generation circuit 28 in the navigation device 20. To generate a video signal of the candidate list and supply the video signal to the display device 40,
The candidate list is displayed on the display device 40.

【0069】このときの候補リストは、例えば図9に示
すように表示される。即ち、最も一致度が高かった順
に、一位の候補から五位程度までの候補まで表示させる
(スクロール操作などでより下位の候補まで表示させる
ようにしても良い)。このとき、地名の候補と、コマン
ドの候補とは異なる態様で表示する(例えば文字の表示
色を変える)ようにしてある。図9の例では、字体を変
えて表示させてある。
The candidate list at this time is displayed as shown in FIG. 9, for example. That is, the candidates from the 1st place to the 5th place are displayed in the descending order of the degree of coincidence (the lower candidates may be displayed by scrolling or the like). At this time, the place name candidates and the command candidates are displayed in different modes (for example, the display color of characters is changed). In the example of FIG. 9, the font is changed and displayed.

【0070】そして、この候補リストが表示された最初
の段階では、このリスト内の候補の内の一位の候補に、
選択されたことを示す印aを付与するようにしてある。
この選択する候補を示す印aは、操作キー27の操作に
よるスクロール操作で、移動させることができるが、次
にこのスクロール操作が行われたか否か判断する(ステ
ップ412)。ここで、スクロール操作が行われた場合
には、選択される候補に付与する印aの位置を移動させ
る(ステップ413)。
At the first stage when this candidate list is displayed, the first candidate among the candidates in this list is
A mark a indicating that the item has been selected is added.
The mark a indicating the candidate to be selected can be moved by the scroll operation by the operation of the operation key 27, but it is next determined whether or not this scroll operation is performed (step 412). Here, when the scroll operation is performed, the position of the mark a given to the selected candidate is moved (step 413).

【0071】この状態で、操作キー27の中の決定用の
ボタンが押されたか否か判断する(ステップ414)。
この決定用のボタンが押されたと判断したときには、そ
のとき印aで示された候補が選択されたと判断し、その
候補に関するデータ(経緯度のデータ,音声出力用の文
字データなど)の読出しを音声認識装置10側に指示
し、その読出されたデータをナビゲーション装置20側
に供給させる。そして、その供給されたデータに基づい
て、音声合成回路31で、音声合成処理を行って、地名
をスピーカ32から音声として出力させる(ステップ4
15)。そして、供給された経緯度のデータに基づい
て、該当する位置の道路地図を表示させる映像信号を作
成させ、ディスプレイ装置40に選択された候補の地図
を表示させ(ステップ416)。そして、このとき選択
された結果を、履歴リストに追加し(ステップ41
7)、ステップ402に戻り、次の発話開始まで待機す
る。
In this state, it is determined whether or not the enter button of the operation keys 27 has been pressed (step 414).
When it is determined that this decision button is pressed, it is determined that the candidate indicated by the mark a is selected at that time, and the data (longitude and latitude data, character data for voice output, etc.) relating to the candidate is read out. The voice recognition device 10 is instructed to supply the read data to the navigation device 20 side. Then, based on the supplied data, the voice synthesizing circuit 31 performs a voice synthesizing process to output the place name as a voice from the speaker 32 (step 4).
15). Then, based on the supplied latitude and longitude data, a video signal for displaying the road map at the corresponding position is created, and the selected candidate map is displayed on the display device 40 (step 416). Then, the result selected at this time is added to the history list (step 41
7) The process returns to step 402 and waits until the next utterance starts.

【0072】そして、ステップ414で決定用のボタン
が押さないと判断された場合には、その後発話が開始、
即ちトークスイッチ18がオン状態になったか否か判断
し(ステップ418)、発話が開始されたと判断する
と、候補リストの表示を中止させて、ステップ403の
処理に戻る。そして、ステップ418で発話が開始され
ないと判断した場合には、ステップ411での候補リス
トの表示が開始されてから、所定時間Td(このTdは
例えば10秒程度の時間)が経過したか否か判断し(ス
テップ419)、この時間Tdが経過してない場合に
は、ステップ412の処理に戻り、候補リストが表示さ
れた状態を継続させる。そして、ステップ419で所定
時間Tdが経過したと判断したときには、ステップ41
2でスクロール操作が行われたか否か判断し(ステップ
420)、スクロール操作が行われた場合には、ステッ
プ412の処理に戻り、候補リストが表示された状態を
継続させる。
When it is determined in step 414 that the decision button is not pressed, the utterance starts thereafter,
That is, it is determined whether or not the talk switch 18 is turned on (step 418), and when it is determined that the utterance has started, the display of the candidate list is stopped and the process returns to step 403. If it is determined in step 418 that the utterance is not started, whether or not a predetermined time Td (this Td is, for example, about 10 seconds) has elapsed since the display of the candidate list was started in step 411. It is determined (step 419) and when this time Td has not elapsed, the process returns to step 412 and the state in which the candidate list is displayed is continued. If it is determined in step 419 that the predetermined time Td has elapsed, step 41
It is determined whether or not the scroll operation is performed in step 2 (step 420). If the scroll operation is performed, the process returns to step 412 and the state in which the candidate list is displayed is continued.

【0073】そして、ステップ420でスクロール操作
が行われてないと判断したときには、ステップ408に
移って、候補リストの一位の結果を音声で出力させ、こ
の一位の地名の地図を表示させる。
When it is determined in step 420 that the scroll operation has not been performed, the process proceeds to step 408, the result of the first place in the candidate list is output by voice, and the map of the place name of the first place is displayed.

【0074】このように制御されることで、発話を一定
時間内(例えば10秒以内)に続けて行われたときに
は、言い直されたと見なされて、前回の認識結果の一位
候補が認識対象語から外れることになり、言い直しても
間違った地名が再度認識されて、所望の地名が認識され
ない事故を防止できる。例えば、似た地名として「横浜
市神奈川区」と「横浜市金沢区」が存在するが、音声入
力をした者が「横浜市神奈川区」と話した場合に、「横
浜市金沢区」と誤認識されたとする。このとき、同じ発
音を繰り返すことで、なにも対処しない場合には再度
「横浜市金沢区」と誤認識される可能性が高いが、ここ
では二回目の音声入力時には履歴リストに「横浜市金沢
区」の発音が既にあるので、この「横浜市金沢区」が認
識対象語から外れることになる。そして、二位の候補に
「横浜市神奈川区」があったとき、この「横浜市神奈川
区」が一位の候補に繰り上がることになり、「横浜市神
奈川区」が認識されたと判断され、結果として言い直し
た場合には誤認識が防止されたことになり、それだけ認
識率を向上させることができる。
By controlling in this way, when utterance is continued within a fixed time (for example, within 10 seconds), it is considered to be reworded, and the first candidate of the previous recognition result is the recognition target. Therefore, it is possible to prevent an accident in which the wrong place name is recognized again and the desired place name is not recognized even if it is reworded. For example, there are similar place names "Kanagawa-ku, Yokohama" and "Kanazawa-ku, Yokohama-shi", but when the person who inputs the voice speaks "Kanagawa-ku, Yokohama-shi", it is mistaken for "Kanazawa-ku, Yokohama-shi". Suppose it is recognized. At this time, if you do not deal with anything by repeating the same pronunciation, it is likely that you will be mistakenly recognized as "Kanazawa-ku, Yokohama-shi" again, but here, when you enter the second voice, "Yokohama-shi" is added to the history list. Because "Kanazawa Ward" has already been pronounced, this "Kanazawa Ward, Yokohama City" is out of the recognition target words. And when there was "Yokohama-shi Kanagawa-ku" in the second place candidate, this "Yokohama-shi Kanagawa-ku" was moved up to the first place candidate, and it was judged that "Yokohama-shi Kanagawa-ku" was recognized, As a result, in the case of rewording, erroneous recognition is prevented, and the recognition rate can be improved accordingly.

【0075】そして、短時間に所定回(ここでは5回)
繰り返し音声入力があった場合には、このときの連続的
な入力音声信号により認識された認識対象語を、認識度
が高い順に一覧表示され、そのときの認識状態が容易に
判断できるようになると共に、その一覧表示された中か
ら言葉を選択できるので、音声入力による認識が困難な
場合の対処が簡単な操作で容易にできるようになる。
Then, a predetermined number of times (here, five times) in a short time.
When there is repeated voice input, recognition target words recognized by continuous input voice signals at this time are displayed in a list in descending order of recognition degree, and the recognition state at that time can be easily determined. At the same time, since words can be selected from the displayed list, it becomes possible to easily deal with the case where recognition by voice input is difficult with a simple operation.

【0076】そして本例においては、このときの認識対
象語の候補の一覧表示として、その認識対象語が、地名
の音声の場合の表示状態(図9では通常の文字による表
示)と、何らかの指令などのコマンドの場合の表示状態
(図9では白抜きの文字による表示)とを変えるように
したので、それぞれの種類の音声が迅速に表示から判断
できるようになる。なお、図9の例では文字の状態を変
えるようにしたが、例えば地名の候補の場合の文字(又
は文字の周囲)の表示色と、コマンドの候補の場合の文
字(又は文字の周囲)の表示色とを変えるようにしても
良い。
In this example, as a list display of candidates of the recognition target word at this time, a display state (display in normal characters in FIG. 9) when the recognition target word is a voice of a place name and some command are given. Since the display state in the case of commands such as (display in white letters in FIG. 9) is changed, each type of voice can be promptly judged from the display. In addition, in the example of FIG. 9, the state of the characters is changed. The display color may be changed.

【0077】また、このように地名とコマンドで表示状
態を変える他に、地名を地域毎に区分分けして、その区
分毎に表示状態を変えるようにしても良い。即ち、例え
ば都道府県毎に表示色を変えたり、或いは関東地方,東
北地方のような地域毎に表示色を変えるようにしても良
い。
In addition to changing the display state by the place name and the command as described above, the place name may be divided into regions and the display state may be changed for each of the regions. That is, for example, the display color may be changed for each prefecture, or the display color may be changed for each region such as the Kanto region and the Tohoku region.

【0078】なお、図8のフローチャートでは、選択さ
れた候補が地名であり、その地名に基づいて地図表示が
行われる場合について説明したが、選択された候補が何
らかの指令(コマント)である場合には、地図表示の代
わりに対応した指令を実行させるものである。
In the flowchart of FIG. 8, the case where the selected candidate is a place name and the map is displayed based on the place name has been described. However, when the selected candidate is any command (comment). Is to execute the corresponding command instead of the map display.

【0079】また、候補リストを図9に示すように一覧
表示させた場合には、この一覧表示された認識対象語
を、音声合成回路31での音声合成処理で、順にスピー
カ32から音声として出力させるようにしても良い。こ
のようにすることで、ディスプレイ装置40の表示を見
なくても、認識対象語の候補が判り、ナビゲーション装
置としての使い勝手が向上する。
When the candidate list is displayed as a list as shown in FIG. 9, the recognition target words displayed in the list are sequentially output as voices from the speaker 32 by the voice synthesizing process in the voice synthesizing circuit 31. It may be allowed to. By doing so, the candidate of the recognition target word can be known without looking at the display of the display device 40, and the usability as the navigation device is improved.

【0080】なお、上述実施例では音声認識装置で認識
する地名を、国内の都道府県と、市区町村の名前に限定
したが、より細かい地名や目標物の名前などまで認識す
るようにしても良い。但し、認識できる地名などを多く
すると、それだけ音声認識に必要な処理量と処理時間が
多く必要になり、認識率を高くするためからも、市区町
村の名前程度に限定するのが最も好ましい。
In the above embodiment, the place names recognized by the voice recognition device are limited to the names of prefectures and municipalities in Japan. However, even finer place names and target names may be recognized. good. However, if the number of recognizable place names is increased, the amount of processing and the processing time required for the voice recognition are increased accordingly, and it is most preferable to limit the names to the names of municipalities in order to increase the recognition rate.

【0081】また、上述実施例では各地名毎の中心の座
標を、その地域の役所(市役所,区役所,町役場,村役
場)の所在地の絶対位置を示す緯度と経度のデータとし
たが、その他の位置を示す緯度と経度のデータとしても
良い。例えば、単純にその地域(市区町村)の中心の緯
度と経度のデータとしても良い。
Further, in the above-mentioned embodiment, the center coordinate for each place name is the latitude and longitude data indicating the absolute position of the location of the local government office (city office, ward office, town office, village office). The latitude and longitude data indicating the position may be used. For example, the latitude and longitude data of the center of the area (city, town, village) may be simply used.

【0082】また、このように中心の緯度と経度のデー
タを記憶させる代わりに、その地域の東西南北の端部の
座標位置のデータを記憶させるようにしても良い。この
場合には、東西の経度と南北の緯度の4つのデータがあ
れば良い。
Further, instead of storing the data of the latitude and longitude of the center in this way, the data of the coordinate positions of the north, south, east and west ends of the area may be stored. In this case, it is sufficient to have four pieces of data of longitude in east and west and latitude in north and south.

【0083】また、上述実施例では音声認識装置内の音
声認識回路14で、認識した音声を文字コードに変換し
てから、この文字コードを経緯度変換回路16で経度,
緯度のデータに変換するようにしたが、認識した音声よ
り直接経度,緯度のデータに変換するようにしても良
い。また、このように直接経度,緯度のデータに変換さ
せない場合でも、これらの変換データを記憶するROM
15とROM17は、同一のメモリで構成させて、例え
ば地名の記憶エリアを共用するようにしても良い。
In the above embodiment, the voice recognition circuit 14 in the voice recognition device converts the recognized voice into a character code, and then the longitude / latitude conversion circuit 16 converts the character code into the longitude,
Although the data is converted into latitude data, the recognized voice may be directly converted into longitude and latitude data. In addition, even if the data is not directly converted into longitude and latitude data in this way, a ROM that stores these conversion data
The ROM 15 and the ROM 17 may be configured by the same memory, and may share a place name storage area, for example.

【0084】また、上述実施例ではGPSと称される測
位システムを使用したナビゲーション装置に適用した
が、他の測位システムによるナビゲーション装置にも適
用できることは勿論である。
Further, in the above-described embodiment, the invention is applied to the navigation device using the positioning system called GPS, but it is needless to say that the invention is also applicable to the navigation device using other positioning systems.

【0085】[0085]

【発明の効果】本発明の音声認識装置によると、認識対
象語の候補の表示状態が、候補の対象語の区分毎に異な
る表示態様になるので、同じ区分毎の候補が判り易くな
り、見やすい表示状態となり、例えばこの表示された候
補の中から選択する場合に、必要な候補を探すことが容
易にできるようになる。
According to the voice recognition apparatus of the present invention, the display state of the candidate of the recognition target word is different for each section of the target word of the candidate, so that the candidate of the same section is easy to understand and easy to see. In the display state, for example, when selecting from the displayed candidates, it becomes possible to easily find a necessary candidate.

【0086】また本発明の音声認識方法によると、認識
対象語の候補の表示状態が、候補の対象語の区分毎に異
なる表示態様になるので、同じ区分毎の候補が判り易く
なり、見やすい表示状態となり、例えばこの表示された
候補の中から選択する場合に、必要な候補を探すことが
容易にできるようになる。
Further, according to the voice recognition method of the present invention, the display state of the candidate of the recognition target word is different for each section of the target word of the candidate, so that the candidate of the same section can be easily understood and displayed easily. Then, for example, when selecting from the displayed candidates, it becomes possible to easily find a necessary candidate.

【0087】また本発明のナビゲーション装置による
と、認識対象語の候補の表示状態が、候補の対象語の区
分毎に異なる表示態様になるので、同じ区分毎の候補が
判り易くなり、見やすい表示状態となる。例えば、地図
を表示させるための地名の表示と、動作などを指示する
ためのコマンドの表示とを、異なる態様で表示すること
で、認識対象語の候補の表示から、地名やコマンドなど
の必要とする候補を探すことが容易にできるようにな
り、ナビゲーション装置としての使い勝手が向上する。
Further, according to the navigation device of the present invention, the display state of the candidate of the recognition target word is different for each division of the target word of the candidate, so that the candidates of the same division can be easily understood and the display state is easy to see. Becomes For example, by displaying a place name for displaying a map and a command for instructing a motion in different modes, it is necessary to display a place name or a command from the display of candidates for the recognition target word. It becomes possible to easily find a candidate to be selected, and the usability as a navigation device is improved.

【0088】また本発明のナビゲート方法によると、認
識対象語の候補の表示状態が、候補の対象語の区分毎に
異なる表示態様になるので、同じ区分毎の候補が判り易
くなり、見やすい表示状態となる。例えば、地図を表示
させるための地名の表示と、動作などを指示するための
コマンドの表示とを、異なる態様で表示することで、認
識対象語の候補の表示から、地名やコマンドなどの必要
とする候補を探すことが容易にできるようになり、ナビ
ゲーション装置としての使い勝手が向上する。
Further, according to the navigation method of the present invention, the display state of the candidate of the recognition target word is different for each division of the target word of the candidate, so that the candidates of the same division can be easily understood and displayed easily. It becomes a state. For example, by displaying a place name for displaying a map and a command for instructing a motion in different modes, it is necessary to display a place name or a command from the display of candidates for the recognition target word. It becomes possible to easily find a candidate to be selected, and the usability as a navigation device is improved.

【0089】また本発明の自動車によると、認識対象語
の候補の表示状態が、候補の対象語の区分毎に異なる表
示態様になるので、同じ区分毎の候補が判り易くなり、
見やすい表示状態となり、例えば自動車の運転状況など
により表示を長時間見るのが困難な場合でも、必要とす
る候補を探すことが容易にできるようになり、自動車の
運転の安全性を確保した上での良好な操作が可能にな
る。
Further, according to the automobile of the present invention, the display state of the candidate of the recognition target word is different for each section of the target word of the candidate, so that the candidates of the same section can be easily understood.
The display will be easy to see, and even if it is difficult to see the display for a long time due to the driving situation of the car, for example, it will be easier to find the candidate you need, and while ensuring the safety of driving Good operation is possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例を示す構成図である。FIG. 1 is a configuration diagram showing one embodiment of the present invention.

【図2】一実施例の装置を自動車に組み込んだ状態を示
す斜視図である。
FIG. 2 is a perspective view showing a state in which the device of the embodiment is installed in an automobile.

【図3】一実施例の装置を自動車に組み込んだ場合の運
転席の近傍を示す斜視図である。
FIG. 3 is a perspective view showing the vicinity of a driver's seat when the device according to the embodiment is incorporated in an automobile.

【図4】一実施例による音声認識用メモリの記憶エリア
構成を示す説明図である。
FIG. 4 is an explanatory diagram showing a storage area configuration of a voice recognition memory according to an embodiment.

【図5】一実施例による経緯度変換用メモリの記憶エリ
ア構成を示す説明図である。
FIG. 5 is an explanatory diagram showing a storage area configuration of a latitude / longitude conversion memory according to an embodiment.

【図6】一実施例の音声認識による処理を示すフローチ
ャートである。
FIG. 6 is a flowchart showing processing by voice recognition according to an embodiment.

【図7】一実施例のナビゲーション装置での表示処理を
示すフローチャートである。
FIG. 7 is a flowchart showing a display process in the navigation device according to the embodiment.

【図8】一実施例の音声認識を複数回実行したときの処
理を示すフローチャートである。
FIG. 8 is a flowchart showing a process when voice recognition of one embodiment is executed a plurality of times.

【図9】一実施例による候補リストの表示例を示す説明
図である。
FIG. 9 is an explanatory diagram showing a display example of a candidate list according to an embodiment.

【符号の説明】[Explanation of symbols]

10 音声認識装置 11 マイクロフォン 12 アナログ/デジタル変換器 13 デジタル音声処理回路(DSP) 14 音声認識回路 15 音声認識データ記憶用ROM 16 経緯度変換回路 17 経緯度変換データ記憶用ROM 18 トークスイッチ 20 ナビゲーション装置 23 演算回路 24 CD−ROMドライバ 25 RAM 26 車速センサ 27 操作キー 28 映像信号生成回路 31 音声合成回路 32 スピーカ 40 ディスプレイ装置 50 自動車 10 voice recognition device 11 microphone 12 analog / digital converter 13 digital voice processing circuit (DSP) 14 voice recognition circuit 15 voice recognition data storage ROM 16 longitude / latitude conversion circuit 17 longitude / latitude conversion data storage ROM 18 talk switch 20 navigation device 23 arithmetic circuit 24 CD-ROM driver 25 RAM 26 vehicle speed sensor 27 operation key 28 video signal generation circuit 31 voice synthesis circuit 32 speaker 40 display device 50 automobile

フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G08G 1/0969 G08G 1/0969 G09B 29/10 G09B 29/10 A (72)発明者 角田 弘史 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 浅野 康治 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 小川 浩明 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 表 雅則 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 南野 活樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内Continuation of front page (51) Int.Cl. 6 Identification number Reference number within the agency FI Technical display location G08G 1/0969 G08G 1/0969 G09B 29/10 G09B 29/10 A (72) Inventor Hiroshi Tsunoda Shinagawa-ku, Tokyo Kita-Shinagawa 6-735 Sony Corporation (72) Inventor Koji Asano 6-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Hiroaki Ogawa Kita-Shinagawa, Shinagawa-ku, Tokyo 6-7-35, Sony Corporation (72) Inventor table Masanori Kitagawa, Shinagawa-ku, Tokyo 6-35, Sony Corporation (72) Inventor, Akiki Minamino 6 Kita-Shinagawa, Shinagawa-ku, Tokyo 7-35 chome, Sony Corporation

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 音声信号入力手段と、 該音声信号入力手段に入力された音声信号から、予め決
められた複数の認識対象語の音声を認識する処理を行う
音声処理部と、 上記音声処理部で認識した結果に基づいて選定された複
数の認識対象語の候補を表示する表示手段と、 上記表示手段で表示される候補を、その候補となる認識
対象語の区分毎に、異なる表示態様で表示させる表示制
御手段とを備えた音声認識装置。
1. A voice signal input unit, a voice processing unit for recognizing voices of a plurality of predetermined recognition target words from a voice signal input to the voice signal input unit, and the voice processing unit. Display means for displaying a plurality of candidates for the recognition target word selected based on the recognition result, and the candidates displayed by the display means are displayed in different display modes for each classification of the candidate recognition target words. A voice recognition device comprising display control means for displaying.
【請求項2】 入力した音声信号から予め決められた複
数の認識対象語の音声を認識し、 この認識した結果に基づいて選定された複数の認識対象
語の候補を表示すると共に、 このとき表示される候補を、その候補となる認識対象語
の区分毎に、異なる表示態様で表示させるようにした音
声認識方法。
2. A speech of a plurality of predetermined recognition target words is recognized from an input voice signal, and a plurality of recognition target word candidates selected based on the recognition result are displayed and displayed at this time. The speech recognition method in which the candidates to be displayed are displayed in different display modes according to the categories of the recognition target words that are the candidates.
【請求項3】 音声信号入力手段と、 該音声信号入力手段に入力された音声信号から、特定の
地名の音声を含む予め決められた複数の認識対象語の音
声を認識処理する音声処理部と、 該音声処理部が認識した特定の地名のデータを、この地
名で示される絶対的な座標位置データに変換する変換部
と、 地図データの記憶手段と、 上記変換部で変換された座標位置データで示される位置
の地図データを上記記憶手段から読出して、地図表示用
映像信号を作成すると共に、上記音声処理部で認識した
認識対象語の候補を表示する映像信号を作成する映像信
号作成手段と、 上記映像信号作成手段で上記認識対象語の候補の映像信
号を作成させる際に、その候補となる認識対象語の区分
毎に、異なる表示態様で表示させる映像信号とする表示
制御手段とを備えたナビゲーション装置。
3. A voice signal input means, and a voice processing section for recognizing voices of a plurality of predetermined recognition target words including a voice of a specific place name from a voice signal input to the voice signal input means. , A conversion unit for converting data of a specific place name recognized by the voice processing unit into absolute coordinate position data indicated by the place name, a storage unit for map data, and coordinate position data converted by the conversion unit. A video signal creating means for reading the map data at the position indicated by the above from the storage means to create a video signal for map display and at the same time creating a video signal for displaying the candidate of the recognition target word recognized by the voice processing unit. When the video signal creation means creates a video signal of a candidate of the recognition target word, a display control means for displaying the video signal in a different display mode for each classification of the recognition target word as the candidate Navigation device equipped with.
【請求項4】 上記候補となる認識対象語の区分とし
て、位置を指示する言葉と、指令を行う言葉とで区分
し、この区分毎に異なる表示態様とするようにした請求
項3記載のナビゲーション装置。
4. The navigation according to claim 3, wherein the candidate recognition target words are classified into a word indicating a position and a word giving a command, and different display modes are provided for the respective categories. apparatus.
【請求項5】 上記候補となる認識対象語の区分とし
て、その認識対象語が位置を示す言葉の場合に、その位
置が属する地域毎に区分し、この区分毎に異なる表示態
様とするようにした請求項3記載のナビゲーション装
置。
5. When the recognition target word is a word indicating a position, the candidate recognition target word is classified according to the area to which the position belongs, and a different display mode is set for each classification. The navigation device according to claim 3,
【請求項6】 入力された音声信号から、特定の地名を
示す音声を含む予め決められた複数の認識対象語の音声
を認識処理し、 この認識した特定の地名のデータを、この地名で示され
る絶対的な座標位置データに変換し、 この変換した座標位置データで示される位置の地図を表
示させると共に、 上記認識した認識対象語の候補を表示させ、 この認識対象語の候補を表示させる場合に、その候補と
なる認識対象語の区分毎に、異なる表示態様で表示させ
るようにしたナビゲート方法。
6. A voice recognition process for a plurality of predetermined recognition target words including a voice showing a specific place name is recognized from an input voice signal, and the data of the recognized specific place name is shown by this place name. When displaying the map of the position indicated by the converted coordinate position data and displaying the recognized recognition target word candidate and displaying the recognition target word candidate In addition, the navigating method for displaying the different candidate recognition target words in different display modes.
【請求項7】 上記候補となる認識対象語の区分とし
て、位置を指示する言葉と、指令を行う言葉とで区分
し、この区分毎に異なる表示態様とするようにした請求
項6記載のナビゲート方法。
7. The navigation according to claim 6, wherein the candidate recognition target words are classified into words indicating a position and words instructing, and different display modes are provided for each of the words. Gate method.
【請求項8】 上記候補となる認識対象語の区分とし
て、その認識対象語が位置を示す言葉の場合に、その位
置が属する地域毎に区分し、この区分毎に異なる表示態
様とするようにした請求項6記載のナビゲート方法。
8. As a classification of the candidate recognition target words, when the recognition target word is a word indicating a position, it is classified according to the area to which the position belongs, and a different display mode is set for each classification. 7. The navigation method according to claim 6, wherein.
【請求項9】 車内の所定位置に配された表示手段に、
地図を表示させる装置を備えた自動車において、 音声信号入力手段と、 該音声信号入力手段に入力された音声信号から、特定の
地名の音声を含む予め決められた複数の認識対象語の音
声を認識処理する音声処理部と、 該音声処理部が認識した特定の地名のデータを、この地
名で示される絶対的な座標位置データに変換する変換部
と、 地図データの記憶手段と、 上記変換部で変換された座標位置データで示される位置
の地図データを上記記憶手段から読出して、地図表示用
映像信号を作成すると共に、上記音声処理部で認識した
認識対象語の候補を表示する映像信号を作成して、上記
表示手段に供給する映像信号作成手段と、 上記映像信号作成手段で上記認識対象語の候補の映像信
号を作成させる際に、その候補となる認識対象語の区分
毎に、異なる表示態様で表示させる映像信号とする表示
制御手段とを備えた自動車。
9. A display means arranged at a predetermined position in the vehicle,
In an automobile equipped with a device for displaying a map, a voice signal input means and a voice signal of a plurality of predetermined recognition target words including a voice of a specific place name are recognized from a voice signal input to the voice signal input means. A voice processing unit for processing, a conversion unit for converting data of a specific place name recognized by the voice processing unit into absolute coordinate position data indicated by the place name, a storage unit for map data, and the conversion unit. The map data at the position indicated by the converted coordinate position data is read from the storage means to create a video signal for map display and a video signal for displaying a candidate of a recognition target word recognized by the voice processing unit. Then, when the video signal generating means to be supplied to the display means and the video signal of the candidate of the recognition target word are generated by the video signal generating means, each candidate of the recognition target word is classified. , Automobile and display control means for the video signal to be displayed in a manner different.
JP26754795A 1995-10-16 1995-10-16 Navigation device, navigation method, and automobile Expired - Lifetime JP3677833B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26754795A JP3677833B2 (en) 1995-10-16 1995-10-16 Navigation device, navigation method, and automobile

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26754795A JP3677833B2 (en) 1995-10-16 1995-10-16 Navigation device, navigation method, and automobile

Publications (2)

Publication Number Publication Date
JPH09114491A true JPH09114491A (en) 1997-05-02
JP3677833B2 JP3677833B2 (en) 2005-08-03

Family

ID=17446337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26754795A Expired - Lifetime JP3677833B2 (en) 1995-10-16 1995-10-16 Navigation device, navigation method, and automobile

Country Status (1)

Country Link
JP (1) JP3677833B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006023572A (en) * 2004-07-08 2006-01-26 Mitsubishi Electric Corp Dialog system
JP2006330577A (en) * 2005-05-30 2006-12-07 Alpine Electronics Inc Device and method for speech recognition
JP2007052448A (en) * 2006-09-25 2007-03-01 Fujitsu Ten Ltd Display device
JP2007065347A (en) * 2005-08-31 2007-03-15 Denso Corp Speech recognition system
KR20170054707A (en) * 2015-11-10 2017-05-18 삼성전자주식회사 Electronic device and method for controlling thereof
CN112017651A (en) * 2019-05-31 2020-12-01 百度在线网络技术(北京)有限公司 Voice control method and device of electronic equipment, computer equipment and storage medium
JP2021083355A (en) * 2019-11-27 2021-06-03 井関農機株式会社 Combine harvester

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006023572A (en) * 2004-07-08 2006-01-26 Mitsubishi Electric Corp Dialog system
JP4684583B2 (en) * 2004-07-08 2011-05-18 三菱電機株式会社 Dialogue device
JP2006330577A (en) * 2005-05-30 2006-12-07 Alpine Electronics Inc Device and method for speech recognition
JP2007065347A (en) * 2005-08-31 2007-03-15 Denso Corp Speech recognition system
JP2007052448A (en) * 2006-09-25 2007-03-01 Fujitsu Ten Ltd Display device
KR20170054707A (en) * 2015-11-10 2017-05-18 삼성전자주식회사 Electronic device and method for controlling thereof
CN112017651A (en) * 2019-05-31 2020-12-01 百度在线网络技术(北京)有限公司 Voice control method and device of electronic equipment, computer equipment and storage medium
JP2021083355A (en) * 2019-11-27 2021-06-03 井関農機株式会社 Combine harvester

Also Published As

Publication number Publication date
JP3677833B2 (en) 2005-08-03

Similar Documents

Publication Publication Date Title
JP2907079B2 (en) Navigation device, navigation method and automobile
US6253174B1 (en) Speech recognition system that restarts recognition operation when a new speech signal is entered using a talk switch
JPH09114489A (en) Device and method for speech recognition, device and method for navigation, and automobile
JP2644376B2 (en) Voice navigation method for vehicles
WO2015059764A1 (en) Server for navigation, navigation system, and navigation method
JPH09292255A (en) Navigation method and navigation system
KR101755308B1 (en) Sound recognition module, Navigation apparatus having the same and vehicle having the same
JP3677833B2 (en) Navigation device, navigation method, and automobile
JP2947143B2 (en) Voice recognition device and navigation device
JP4262837B2 (en) Navigation method using voice recognition function
JP2003323192A (en) Device and method for registering word dictionary
JP2000338993A (en) Voice recognition device and navigation system using this device
JP3818352B2 (en) Navigation device and storage medium
JPH08328584A (en) Speach recognition device, method therefor and navigation device
JP2877045B2 (en) Voice recognition device, voice recognition method, navigation device, navigation method, and automobile
JP3700533B2 (en) Speech recognition apparatus and processing system
JPH09114488A (en) Device and method for speech recognition, device and method for navigation, and automobile
JPH1062198A (en) Navigation apparatus
JPH09113287A (en) Device and method for recognizing voice, device and method for navigating automobile, and automobile
JPH09114369A (en) Navigation system, navigation method and automobile
JPH09114485A (en) Voice recognition device, voice recognizing method, navigation device, navigating method and automobile
JPH11231889A (en) Speech recognition device
JPWO2006028171A1 (en) Data presentation apparatus, data presentation method, data presentation program, and recording medium recording the program
CN110556091A (en) Information providing device
KR100455108B1 (en) A voice recognition device, a voice recognition method, a map display device, a navigation device, a navigation method and a navigation function

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050502

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090520

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100520

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100520

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110520

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120520

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130520

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term