JPH11143494A - Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function - Google Patents

Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function

Info

Publication number
JPH11143494A
JPH11143494A JP9307620A JP30762097A JPH11143494A JP H11143494 A JPH11143494 A JP H11143494A JP 9307620 A JP9307620 A JP 9307620A JP 30762097 A JP30762097 A JP 30762097A JP H11143494 A JPH11143494 A JP H11143494A
Authority
JP
Japan
Prior art keywords
voice
user
input
word
registered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9307620A
Other languages
Japanese (ja)
Inventor
Hideo Terasawa
秀雄 寺沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP9307620A priority Critical patent/JPH11143494A/en
Publication of JPH11143494A publication Critical patent/JPH11143494A/en
Pending legal-status Critical Current

Links

Landscapes

  • Telephone Function (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic equipment with the sound operating function, a sound operating method in the electronic equipment, and an automobile having the electronic equipment with the sound operating function capable of easily and surely achieving an action of making a call from the automobile through the sound input of the user while receiving the guide on the action of, e.g. making a call from the automobile even when the user is a beginner. SOLUTION: This device is provided with a sound input means 11 to input the sound of a user, a data registering means 17 to register items including the prescribed actions, a speech recognizing means 10 to recognize and process the sound signal inputted in the sound input means 11, and a processing means 23 to achieve the operation guidance to guide the subsequent operation items for the user through the sound when the sound-inputted language by the user does not fall in the items including the prescribed actions registered in the data registering means 17.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音声入力により各
種機能を操作することができる音声操作機能付き電子機
器、電子機器における音声操作方法、及び音声操作機能
付き電子機器を備える自動車に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic device having a voice operation function capable of operating various functions by voice input, a voice operation method in the electronic device, and an automobile provided with the electronic device having a voice operation function. .

【0002】[0002]

【従来の技術】近年、使用者がリモートコントローラの
キーを操作したり音声を入力することにより、ある種の
機能を操作することができるナビゲーション装置などが
各種提案されている。自動車などに搭載させるナビゲー
ション装置は、例えば道路地図データが記憶されたCD
−ROM(コンパクトディスクを用いたリードオンリー
メモリ)などの大容量のデータ記憶手段と、現在位置の
検出手段と、検出した現在位置の近傍の道路地図をデー
タ記憶手段から読出したデータに基づいて表示させるデ
ィスプレイ装置で構成される。この場合、現在位置の検
出手段としては、GPS(Global Positi
oning System)と称される測位用の人工衛
星を使用した測位システムを使用したものや、車両の走
行方向、走行速度などの情報に基づいて出発地点から現
在位置の変化を追跡する自律航法によるものなどがあ
る。
2. Description of the Related Art In recent years, various navigation devices and the like have been proposed in which a user can operate a certain function by operating a key of a remote controller or inputting a voice. A navigation device mounted on an automobile or the like is, for example, a CD storing road map data.
A large-capacity data storage means such as a ROM (read-only memory using a compact disk), a current position detection means, and a road map near the detected current position is displayed based on data read from the data storage means; And a display device. In this case, as a means for detecting the current position, GPS (Global Position) is used.
onboarding system) or autonomous navigation that tracks changes in the current position from the starting point based on information such as the traveling direction and traveling speed of the vehicle. and so on.

【0003】また、ディスプレイ装置に表示される地図
としては、リモートコントローラ等のキー操作などを行
うことで、現在位置の近傍だけでなく、地図データが用
意されている限りは、所望の位置の地図を表示させるこ
とができるようにしてある。このようなナビゲーション
装置の場合には、例えば自動車用の場合、運転席の近傍
にディスプレイ装置を設置して、運転者が走行中や信号
停止などの一時停止中に現在位置の近傍の地図を見れる
ようにするのが一般的である。
The map displayed on the display device is operated not only by the operation of a key of a remote controller or the like, but also by the key operation of a remote controller or the like. Can be displayed. In the case of such a navigation device, for example, in the case of an automobile, a display device is installed near the driver's seat, and the driver can see a map near the current position while the vehicle is running or temporarily stopped such as a traffic light stop. It is common to do so.

【0004】[0004]

【発明が解決しようとする課題】ところでこの種のナビ
ゲーション装置と、例えば携帯電話や自動車電話を結び
付けて、携帯電話で電話をかける作業をナビゲーション
装置を通して行うことが提案されている。この場合には
例えばディスプレイ中に表示されるメニューの中の“電
話をかける”機能キーを例えばリモートコントローラの
機能キー群の中から選択して、その次に使用者がマイク
に向って“電話番号”を言うことで、携帯電話により自
動車の中から電話をかけるようにすることが考えられ
る。
By the way, it has been proposed to connect a navigation device of this type to a mobile phone or a car phone, for example, and to make a call with the mobile phone through the navigation device. In this case, for example, a "call" function key in a menu displayed on the display is selected from, for example, a group of function keys of a remote controller, and then the user calls the "phone number"", It is conceivable to make a call from within a car using a mobile phone.

【0005】しかし、このようにナビゲーション装置を
用いて電話をかける場合には、必ず使用者がリモートコ
ントローラを用いてディスプレイ装置上のメニューの中
の“電話をかける”を選択して、その後に使用者音声入
力で“電話番号”を言わなければならない。従って運転
中にこのようなディスプレイ上のメニュー中の“電話を
かける”のような“行為”を指示し、その後で電話をか
けるという行為の対象である“電話番号”を音声入力し
なければならないので、大変面倒である。つまり、電話
をかける場合には上述したようにリモートコントローラ
の機能キーの中から一つの“電話をかける”の機能キー
とを選択する必要があり、その後に音声により電話番号
を言う手順を踏まないと、電話番号をかけることができ
ない。
However, when making a call using the navigation device, the user must use the remote controller to select "make a call" from a menu on the display device, and then use the remote control. Must say "phone number" by voice input. Therefore, during driving, an "act" such as "call" in the menu on the display must be instructed, and then the "telephone number" to be called must be spoken. It is very troublesome. That is, when making a call, it is necessary to select one of the function keys of the remote controller from the function keys of the remote controller as described above, and then do not follow the procedure of saying the telephone number by voice. Can not make a phone number.

【0006】また、自動車の中に携帯電話を搭載して、
この携帯電話のキーボードを操作することで使用者が携
帯電話による発信を自動車の中から行うことも考えられ
る。しかしこのような携帯電話のかけ方では、携帯電話
の機能キーなどを含む操作キーが小さな面積の中に配置
されているために、各キーは押しづらくしかもどのキー
がどのような機能を有しているかの表示文字を認識する
ことが難しい。またナビゲーション装置と携帯電話を組
み合わせた場合と、単独の場合においても、何れにして
も操作方法が分からない場合には使用者は操作マニュア
ルなどを読まなければならないという問題もある。この
ように、使用者がナビゲーション装置を用いて電話をか
ける動作を行う場合には、その使用者がこのナビゲーシ
ョン装置の操作に関して初心者であっても簡単にかつ確
実に電話をかける動作を行えることが望まれている。
In addition, a mobile phone is mounted in a car,
By operating the keyboard of the mobile phone, the user may make a call from the mobile phone by using the mobile phone. However, in such a method of using a mobile phone, since the operation keys including the function keys of the mobile phone are arranged in a small area, each key is hard to press and which key has what function. It is difficult to recognize the displayed characters. In addition, there is also a problem that the user must read an operation manual or the like when the operation method is not understood in any case when the navigation device and the mobile phone are combined and when the navigation device is used alone. As described above, when the user performs an operation of making a telephone call using the navigation device, even if the user is a beginner with respect to the operation of the navigation device, the user can easily and reliably perform the operation of making a telephone call. Is desired.

【0007】そこで本発明は上記課題を解消し、使用者
が初心者であっても例えば自動車から電話をかけるとい
った動作の案内を音声によりうけながら自動車から電話
をかけるといった動作を使用者の音声入力により簡単に
かつ確実に行うことができる音声操作機能付き電子機
器、電子機器における音声操作方法、及び音声操作機能
付き電子機器を備える自動車を提供することを目的とし
ている。
Therefore, the present invention solves the above-mentioned problems, and even if a user is a novice, the user can input a voice call from a car while receiving voice guidance for the operation such as calling from a car. It is an object of the present invention to provide an electronic device with a voice operation function that can be performed easily and reliably, a voice operation method in the electronic device, and a vehicle including the electronic device with a voice operation function.

【0008】[0008]

【課題を解決するための手段】上記目的は、本発明にあ
っては、使用者の音声を入力するための音声入力手段
と、特定の行為を含む事項を登録しているデータ登録手
段と、音声入力手段に入力された音声信号を認識して処
理する音声認識手段と、使用者が音声入力した言葉が、
データ登録手段に登録されている特定の行為を含む事項
に該当しない場合に、音声により使用者のためにその後
の操作事項を案内するための操作ガイダンスを行うため
の処理手段と、を備えることを特徴とする音声操作機能
付き電子機器により、達成される。
According to the present invention, there is provided a voice input device for inputting a voice of a user, a data registration device for registering a matter including a specific action, and The voice recognition means for recognizing and processing the voice signal input to the voice input means, and the words spoken by the user,
Processing means for providing operation guidance for guiding the user to subsequent operation items by voice when the information does not correspond to a specific act registered in the data registration unit. This is achieved by a characteristic electronic device having a voice operation function.

【0009】本発明では、音声入力手段は、使用者の音
声を入力する。データ登録手段は、特定の行為を含む事
項を登録している。音声認識手段は、音声入力手段に入
力された音声信号を認識して処理する。処理手段は、使
用者が音声入力した言葉が、データ登録手段に登録され
ている特定の行為を含む事項に該当しない場合に、音声
により使用者のためにその後の操作事項を案内するため
の操作ガイダンスを行う。これにより、使用者が音声操
作機能付き電子機器の操作に関して初心者であったとし
ても、その操作がわからず使用者が音声入力した言葉が
特定の行為を含む事項に該当しない場合には、音声処理
手段が音声により使用者のためにその後の操作事項を操
作ガイダンスにより案内することができる。これによ
り、使用者は初心者であっても、特定の行為に関する動
作を音声により案内をうけながら例えば自動車から電話
をかけるといった動作を使用者の音声入力により簡単に
かつ確実に行うことができる。
In the present invention, the voice input means inputs the voice of the user. The data registration means registers a matter including a specific action. The voice recognition means recognizes and processes the voice signal input to the voice input means. The processing means is an operation for guiding a subsequent operation item for the user by voice when the word spoken by the user does not correspond to a matter including a specific action registered in the data registration means. Provide guidance. As a result, even if the user is a novice user of the operation of the electronic device with the voice operation function, if the user does not understand the operation and the word input by the user does not correspond to a specific action, the voice processing is performed. The means can guide subsequent operation items for the user by voice with operation guidance. Thus, even if the user is a novice, the operation of making a call from a car, for example, can be easily and reliably performed by voice input of the user while being guided by voice about the operation related to the specific action.

【0010】本発明において、例えば好ましくは特定の
行為は電話をかけることであり、使用者のための操作事
項としてはデータ登録手段内に登録されている名称や電
話番号である。これにより使用者は、処理手段の操作ガ
イダンスに従って登録されている名称や電話番号を言え
ば電話を簡単にかつ確実にかけることができる。本発明
において好ましくは、使用者が音声により電話をかける
意思を表す発信語を入力すれば、処理手段は電話をかけ
るための発信動作を開始できる。本発明において好まし
くは使用者が音声により電話をかけるのを中止する意思
を表す中止語を入力すことにより、処理手段は電話をか
けるための以後の動作を中止することができる。本発明
において、好ましくは使用者が音声により入力後の内容
を訂正する意思を表す訂正語を入力ことにより、入力し
た入力語がデータ登録手段に登録されている登録語と異
なった場合でも訂正ができる。
In the present invention, for example, preferably, the specific action is to make a telephone call, and the operation items for the user include a name and a telephone number registered in the data registration means. Thus, the user can easily and reliably make a call by speaking the registered name or telephone number in accordance with the operation guidance of the processing means. Preferably, in the present invention, the processing means can start a calling operation for making a call when the user inputs a call word indicating a voice intention to make a call. Preferably, in the present invention, the processing means can stop the subsequent operation for making the call by inputting a stop word indicating that the user wants to stop making the call by voice. In the present invention, preferably, when the user inputs a correction word indicating the intention to correct the content after input by voice, the correction can be performed even when the input word is different from the registered word registered in the data registration unit. it can.

【0011】上記目的は、本発明にあっては、使用者の
音声を音声入力手段に入力することで、音声入力手段に
入力された音声信号を音声認識手段により認識して処理
する音声認識処理ステップと、使用者が音声入力した言
葉が、データ登録手段に登録されている特定の行為を含
む事項に該当しない場合に、処理手段が音声により使用
者のためにその後の操作事項を案内するための操作ガイ
ダンスを行うガイダンスステップと、を備えることを特
徴とする電子機器における音声操作方法により、達成さ
れる。これにより、使用者が音声操作機能付き電子機器
の操作に関して初心者であったとしても、その操作がわ
からず使用者が音声入力した言葉が特定の行為を含む事
項に該当しない場合には、音声処理手段が音声により使
用者のためにその後の操作事項を操作ガイダンスにより
案内することができる。これにより、使用者は初心者で
あっても、特定の行為に関する動作を音声により案内を
うけながら例えば自動車から電話をかけるといった動作
を使用者の音声入力により簡単にかつ確実に行うことが
できる。
[0011] The object of the present invention is to provide a voice recognition process for recognizing and processing a voice signal input to a voice input means by inputting voice of a user to the voice input means. The step, if the word spoken by the user does not correspond to an item including a specific action registered in the data registering unit, the processing unit guides the subsequent operation items for the user by voice. And a guidance step for performing the operation guidance of the electronic device. As a result, even if the user is a novice user of the operation of the electronic device with the voice operation function, if the user does not understand the operation and the word input by the user does not correspond to a specific action, the voice processing is performed. The means can guide subsequent operation items for the user by voice with operation guidance. Thus, even if the user is a novice, the operation of making a call from a car, for example, can be easily and reliably performed by voice input of the user while being guided by voice about the operation related to the specific action.

【0012】上記目的は、本発明にあっては、車内に音
声操作機能付き電子機器を備える自動車において、使用
者の音声を入力するための音声入力手段と、特定の行為
を含む事項を登録しているデータ登録手段と、音声入力
手段に入力された音声信号を認識して処理する音声認識
手段と、使用者が音声入力した言葉が、データ登録手段
に登録されている特定の行為を含む事項に該当しない場
合に、音声により使用者のためにその後の操作事項を案
内するための操作ガイダンスを行うための処理手段と、
を備えることを特徴とする音声操作機能付き電子機器を
備える自動車により、達成される。これにより、自動車
において使用者が音声操作機能付き電子機器の操作に関
して初心者であったとしても、その操作がわからず使用
者が音声入力した言葉が特定の行為を含む事項に該当し
ない場合には、音声処理手段が音声により使用者のため
にその後の操作事項を操作ガイダンスにより案内するこ
とができる。これにより、使用者は初心者であっても、
特定の行為に関する動作を音声により案内をうけながら
例えば自動車から電話をかけるといった動作を使用者の
音声入力により簡単にかつ確実に行うことができる。
According to the present invention, in an automobile having an electronic device with a voice operation function in a vehicle, a voice input means for inputting a voice of a user and an item including a specific action are registered. Data registration means, voice recognition means for recognizing and processing a voice signal input to the voice input means, and a word containing a specific action registered in the data registration means in which words input by the user are registered. A processing means for providing operation guidance for guiding the user to the subsequent operation items by voice when the above does not apply,
The present invention is achieved by an automobile including an electronic device with a voice operation function, characterized by comprising: Thus, even if the user is a novice in the operation of the electronic device with a voice operation function in a car, if the user does not understand the operation and the word input by the user does not correspond to a matter including a specific action, The voice processing means can guide subsequent operation items for the user by voice with the operation guidance. With this, even if the user is a beginner,
For example, an operation such as making a call from a car while receiving an operation related to a specific action by voice can be easily and reliably performed by a user's voice input.

【0013】[0013]

【発明の実施の形態】以下、本発明の好適な実施の形態
を添付図面に基づいて詳細に説明する。なお、以下に述
べる実施の形態は、本発明の好適な具体例であるから、
技術的に好ましい種々の限定が付されているが、本発明
の範囲は、以下の説明において特に本発明を限定する旨
の記載がない限り、これらの形態に限られるものではな
い。
Preferred embodiments of the present invention will be described below in detail with reference to the accompanying drawings. Note that the embodiments described below are preferred specific examples of the present invention,
Although various technically preferable limits are given, the scope of the present invention is not limited to these modes unless otherwise specified in the following description.

【0014】図1は、本発明の音声操作機能付き電子機
器の一例として、自動車に搭載されるナビゲーション機
能と携帯電話機能を有する電子機器の実施の形態を示し
ている。図1に示す電子機器100は、概略的には携帯
電話機101、ナビゲーション装置20、音声認識装置
10などを備えている。
FIG. 1 shows an embodiment of an electronic device having a navigation function and a portable telephone function mounted on an automobile as an example of the electronic device with a voice operation function of the present invention. The electronic device 100 shown in FIG. 1 generally includes a mobile phone 101, a navigation device 20, a voice recognition device 10, and the like.

【0015】図2と図3は、本発明の電子機器100が
自動車50に搭載された例を示しており、この自動車5
0に対して、図1に示す電子機器100の各部分が所定
位置に配置されている。まず音声認識装置10とナビゲ
ーション装置20は、例えば図2に示すように自動車5
0の任意の空間、例えば後部のトランク内に設置されて
いる。図1のマイクロフォン11は、図2と図3に示す
自動車50の車内のサンバイザー53に取り付けられて
いる。図1の携帯電話機101は、図2と図3に示す運
転席52のセンターコンソール50C付近に着脱可能に
設定されている。
FIGS. 2 and 3 show an example in which the electronic device 100 of the present invention is mounted on an automobile 50.
Each part of the electronic device 100 shown in FIG. First, the voice recognition device 10 and the navigation device 20 are connected to the automobile 5 as shown in FIG.
0, for example, in the rear trunk. The microphone 11 in FIG. 1 is attached to a sun visor 53 in a vehicle 50 shown in FIGS. 2 and 3. The mobile phone 101 shown in FIG. 1 is detachably set near the center console 50C of the driver's seat 52 shown in FIGS.

【0016】図1のスピーカ32は、図2と図3に示す
ように運転席のセンターコンソール50C付近に設置さ
れている。図1のディスプレイ装置(表示手段)40
は、例えば液晶表示装置を用いることができ、このディ
スプレイ装置40は図2と図3に示すように運転席52
のセンターコンソール50Cに設置されている。図1の
操作キー27は、図3の運転席のステアリング51のコ
ラムの所に設けられている。図1のアンテナ21は、例
えば図2に示すように自動車50のトランク50Aに設
置されているが、これらのアンテナ21はリアウィンド
シールド内に埋め込んだりサイドウィンドシールドなど
に埋め込むような設定方法にしてもよい。
The speaker 32 shown in FIG. 1 is installed near the center console 50C in the driver's seat as shown in FIGS. The display device (display means) 40 of FIG.
For example, a liquid crystal display device can be used, and the display device 40 has a driver seat 52 as shown in FIGS.
Is installed on the center console 50C. The operation key 27 in FIG. 1 is provided at a column of the steering wheel 51 of the driver's seat in FIG. The antenna 21 shown in FIG. 1 is installed, for example, in a trunk 50A of an automobile 50 as shown in FIG. 2, but these antennas 21 are embedded in a rear windshield or in a side windshield. Is also good.

【0017】図2に示す自動車50のエンジン制御コン
ピュータ54は、図1に示すナビゲーション装置20と
電気的に接続されており、エンジン制御コンピュータ5
4から車速に比例したパルス信号がナビゲーション装置
20側に供給できる。
The engine control computer 54 of the automobile 50 shown in FIG. 2 is electrically connected to the navigation device 20 shown in FIG.
From 4, a pulse signal proportional to the vehicle speed can be supplied to the navigation device 20 side.

【0018】図3に示す運転席52に使用者Mが座り運
転姿勢を取った状態で、使用者Mは、携帯電話機101
及びナビゲーション装置20、音声認識装置10を介し
て、本発明の電子機器100においては音声入力のみ
で、後で説明する“対象”及びその“対象”に対応する
“特定の行為”を指定することで、例えば自動的に外部
に電話をかけることができるものである。このように音
声で各種の“対象”及び“対象”に対応する“特定の行
為”を指定するために、マイクロフォン11は、上述し
たようにフロントウインドシールドガラス50Bの付近
のサンバイザー53に対して取り付けられており、運転
席52に着席した使用者Mの話し声を拾うことができ
る。このマイクロフォンは例えば指向性が比較的狭く設
定されており、自動車50の運転席52に着席した使用
者Mの話し声だけを良好に拾うようになっており、これ
により誤動作を防ぐ。
When the user M sits in the driver's seat 52 shown in FIG.
In addition, in the electronic device 100 of the present invention, through the navigation device 20 and the voice recognition device 10, the “target” described later and the “specific action” corresponding to the “target” can be designated only by voice input. Thus, for example, a telephone call can be automatically made to the outside. As described above, in order to specify various “objects” and “specific actions” corresponding to the “objects” by voice, the microphone 11 transmits the sun visor 53 near the front windshield glass 50B as described above. It is attached and can pick up the voice of the user M seated in the driver's seat 52. The microphone has, for example, a relatively narrow directivity, so that only the voice of the user M seated in the driver's seat 52 of the automobile 50 can be picked up satisfactorily, thereby preventing malfunction.

【0019】次に、図1の音声認識装置10、携帯電話
機101、ナビゲーション装置20などの各部位を説明
する。本発明の電子機器100は、上述したように音声
認識装置10、ナビゲーション装置20、マイクロフォ
ン11、ディスプレイ装置40、操作キー27などを有
しており、さらに使用者Mが携帯電話機101を音声認
識装置10とナビゲーション装置20に対して電気的に
接続することができる。携帯電話機101は、図3の自
動車50のセンターコンソール50Cの取付け用のブラ
ケット50Dに取り付けることにより、図1に示すよう
に携帯電話機101はマイクロフォン11、ナビゲーシ
ョン装置20に対して電気的に接続することができる。
Next, each part of the voice recognition device 10, the mobile phone 101, the navigation device 20 and the like in FIG. 1 will be described. As described above, the electronic device 100 of the present invention includes the voice recognition device 10, the navigation device 20, the microphone 11, the display device 40, the operation keys 27, and the like. 10 and the navigation device 20 can be electrically connected. By attaching the mobile phone 101 to a bracket 50D for mounting the center console 50C of the automobile 50 in FIG. 3, the mobile phone 101 is electrically connected to the microphone 11 and the navigation device 20 as shown in FIG. Can be.

【0020】図1において、マイクロフォン11は、音
声認識装置(音声認識手段)10のノイズフィルタ11
Aを介して、A/D変換器(アナログ/デジタル変換
器)12、デジタル音声処理回路(DSP)13に接続
されている。このデジタル音声処理回路13は、音声認
識回路14に接続され、この音声認識回路14はROM
(リードオンリーメモリ)15と変換部16に接続され
ている。また音声認識回路14は接続端子10b,20
bを介してナビゲーション装置20のマイクロコンピュ
ータのような処理手段23に電気的に接続されている。
変換部16は接続端子10a,20aを介してナビゲー
ション装置20の処理手段23に接続されている。変換
部16は、RAM(ランダムアクセスメモリ)17に接
続されている。
In FIG. 1, a microphone 11 is a noise filter 11 of a voice recognition device (voice recognition means) 10.
Via A, it is connected to an A / D converter (analog / digital converter) 12 and a digital audio processing circuit (DSP) 13. The digital speech processing circuit 13 is connected to a speech recognition circuit 14, and the speech recognition circuit 14
(Read only memory) 15 and a converter 16. The voice recognition circuit 14 has connection terminals 10b, 20
b, it is electrically connected to a processing means 23 such as a microcomputer of the navigation device 20.
The converter 16 is connected to the processing means 23 of the navigation device 20 via the connection terminals 10a and 20a. The conversion unit 16 is connected to a RAM (random access memory) 17.

【0021】マイクロフォン11は、図3の運転席52
に着席した使用者Mが発生する音声を入力する音声入力
手段である。音声認識装置10のノイズフィルタ11A
は、このマイクロフォン11から入力される音声信号A
Sのノイズを除去し、A/D変換器12に供給する。A
/D変換器12は、音声信号ASを所定のサンプリング
周波数のデジタル音声信号に変換する。このA/D変換
器12が出力するデジタル音声信号ADSは、デジタル
音声処理回路13において、帯域分割、フィルタリング
などの処理で、デジタル音声信号をベクトルデータとし
て、このベクトルデータを音声認識回路14に供給す
る。
The microphone 11 is connected to the driver's seat 52 shown in FIG.
Is a voice input unit for inputting a voice generated by the user M who is seated in the vehicle. Noise filter 11A of voice recognition device 10
Is an audio signal A input from the microphone 11
The noise of S is removed and supplied to the A / D converter 12. A
The / D converter 12 converts the audio signal AS into a digital audio signal having a predetermined sampling frequency. The digital audio signal ADS output from the A / D converter 12 is supplied to a digital audio processing circuit 13 by performing processing such as band division and filtering, using the digital audio signal as vector data and supplying the vector data to an audio recognition circuit 14. I do.

【0022】ROM15は、音声認識データを記憶して
おり、音声認識回路14に対してその音声認識データを
供給できる。デジタル音声処理回路13から供給される
ベクトルデータと、所定の音声認識アルゴリズムに従っ
た音声認識回路14を行い、ROM15に記憶された音
声認識用音韻モデルから候補を複数選定し、その候補の
中で最も一致度の高い音韻モデルに対応して記憶された
文字データを読出す。
The ROM 15 stores voice recognition data, and can supply the voice recognition data to the voice recognition circuit 14. The speech recognition circuit 14 according to the vector data supplied from the digital speech processing circuit 13 and a predetermined speech recognition algorithm is performed, and a plurality of candidates are selected from the phoneme models for speech recognition stored in the ROM 15. The character data stored corresponding to the phoneme model having the highest matching degree is read out.

【0023】音声認識データ記憶用ROM15のデータ
記憶状態としては、例えば地名や数字あるいはナビゲー
ション装置20の操作を指示するための言葉など各種の
用語が記憶されている。地名としては、例えば日本国内
の都道府県名、市町村名などが記憶されている。数字と
しては、電話番号などを認識できるように数字の音声認
識をさせるためのデータが記憶されている。
As the data storage state of the voice recognition data storage ROM 15, various terms such as, for example, place names, numbers, and words for instructing the operation of the navigation device 20 are stored. As the place name, for example, the names of prefectures and municipalities in Japan are stored. As numbers, data for voice recognition of numbers is stored so that telephone numbers and the like can be recognized.

【0024】ナビゲーション装置20の操作を指示する
言葉としては、例えば“目的地”、“出発地”、“経由
地”、“自宅”などの表示位置を表示する言葉や、“今
何時”(現在時刻を聞く指令)、“今どこ”(現在位置
を聞く指令)、“次は”(次の交差点を聞く指令)、
“あとどれくらい”(目的地までの距離を聞く指令)、
“速度は”(現在速度を聞く指令)、“高度は”(現在
の高度を聞く指令)、“進行方向は”(進行方向を聞く
指令)、“一覧表”(認識できる指令の一覧表をディス
プレイに表示させるための指令)等のその他の各種操作
指令を行う言葉の文字コードと、その言葉に対応する音
韻モデルが記憶させてある。
The words for instructing the operation of the navigation device 20 include, for example, words for indicating display positions such as "destination", "departure point", "transit point", "home", and "what time" (current time). Command to ask the time), "now where" (command to ask the current position), "next" (command to listen to the next intersection),
"How much more" (command to ask the distance to the destination),
“Speed” (command to listen to current speed), “Altitude” (command to listen to current altitude), “Progress direction” (command to listen to traveling direction), “List” (list of commands that can be recognized) A character code of a word for performing various other operation commands such as a command for displaying on a display) and a phoneme model corresponding to the word are stored.

【0025】次に、RAM17は、データ登録手段であ
り、例えば上述した変換部16における経緯度変換デー
タを記憶する。このRAM17は、次のような経緯度変
換データを記憶している。音声認識データ記憶用のRO
M15に記憶された地名の文字コードと同じ発音の文字
コード毎に記憶エリアが設定され、各文字コード毎に、
その言葉を認識した場合の動作、応答音声の文字コー
ド、音声が地名の場合のその地域の経度、緯度のデー
タ、文字として表示させるデータ(漢字などを使用した
文字コード)とが記憶させてある。
Next, the RAM 17 is a data registration unit, and stores, for example, the longitude / latitude conversion data in the conversion unit 16 described above. This RAM 17 stores the following longitude / latitude conversion data. RO for storing voice recognition data
A storage area is set for each character code having the same pronunciation as the character code of the place name stored in M15, and for each character code,
The operation when the word is recognized, the character code of the response voice, the longitude and latitude data of the region when the voice is a place name, and the data to be displayed as characters (character codes using kanji) are stored. .

【0026】しかもこのRAM17は、使用者が、ナビ
ゲーション装置20の処理手段23を介して、任意のデ
ータをユーザー辞書として登録できるとともに、あらか
じめ基本辞書をも登録することができる。基本辞書と
は、例えば図12のようにすでに決定されている例えば
電話番号であり、一例としては“警察”:“110”、
“消防署”:“119”などといったような対象及び電
話番号を登録することができる。またユーザー登録とし
ては、例えば“やまだたろう”といった“対象”と、そ
のやまだたろうに対応する電話番号例えば“03−12
34−5678”を登録することができる。その登録に
際しては、使用者Mが音声入力したり操作キー27を操
作することで処理手段23を介してRAM17に登録で
きる。なお、地名毎の緯度と経度のデータとしては、そ
の地名で示される地域の役所(市役所、区役所、町役
場、村役場)の所在地の絶対位置を緯度と経度のデータ
を採用することができる。
Moreover, the RAM 17 allows the user to register arbitrary data as a user dictionary via the processing means 23 of the navigation device 20, and also registers a basic dictionary in advance. The basic dictionary is, for example, a telephone number that has already been determined as shown in FIG. 12, for example, “police”: “110”,
“Fire department”: A target such as “119” and a telephone number can be registered. In addition, the user registration includes, for example, a “target” such as “Yamadarou” and a telephone number corresponding to the “yamadarou”, eg, “03-12”.
34-5678 "can be registered. In the registration, the user M can register in the RAM 17 through the processing means 23 by inputting voice or operating the operation key 27. The latitude and the latitude of each place name can be registered. As the longitude data, the absolute position of the location of the local government office (city hall, ward office, town hall, village office) indicated by the place name can be adopted as latitude and longitude data.

【0027】RAM17から供給される経緯度変換デー
タ及び基本辞書やユーザー辞書内のデータは、音声認識
手段である音声認識装置10からの出力として接続端子
10aに供給でき、RAM17における上述したユーザ
ー辞書と基本辞書の内容は、変換部16を介してやはり
接続端子10a,20aを介して処理手段23に供給す
る。また音声認識回路14で認識された音声信号の文字
コードのデータは、音声認識装置10の出力として出力
端子10b,20bを介して処理手段23に供給する。
The longitude / latitude conversion data and the data in the basic dictionary and the user dictionary supplied from the RAM 17 can be supplied to the connection terminal 10a as an output from the voice recognition device 10 as voice recognition means. The contents of the basic dictionary are supplied to the processing unit 23 via the conversion unit 16 and also via the connection terminals 10a and 20a. The character code data of the voice signal recognized by the voice recognition circuit 14 is supplied to the processing means 23 through the output terminals 10b and 20b as an output of the voice recognition device 10.

【0028】次に、図1のナビゲーション装置20の各
構成要素について説明する。このナビゲーション装置2
0は、GPS用アンテナ21を備え、このアンテナ21
が受信したGPS用衛星からの測位用信号を、現在位置
検出回路22で受信処理し、この受信したデータを解析
して、現在位置を検出する。この検出した現在位置のデ
ータは、処理手段23に供給されてそのときの絶対的な
位置である緯度と経度のデータとして用いる。
Next, each component of the navigation device 20 of FIG. 1 will be described. This navigation device 2
0 has a GPS antenna 21,
Receives the positioning signal from the GPS satellite received by the current position detection circuit 22 and analyzes the received data to detect the current position. The data of the detected current position is supplied to the processing means 23 and used as data of the latitude and longitude, which are absolute positions at that time.

【0029】この処理手段23は、ナビゲーション装置
20による動作を制御するシステムコントローラとして
機能する回路であり、道路地図データが記憶されたCD
−ROM(光ディスク)がセットされてこのCD−RO
Mの記憶データを読出すCD−ROMドライバ24と、
データ処理に必要な各種データを記憶するRAM25
と、このナビゲーション装置が搭載された車両の動きを
検出する車速センサ26と、操作キー27とが接続させ
てある。現在位置などの経緯度の座標データが得られた
とき、処理手段23は、CD−ROMドライバ24にそ
の座標位置の近傍の道路地図データを読出す制御を行
う。そして、処理手段23は、CD−ROMドライバ2
4で読出した道路地図データをRAM25に一時記憶さ
せ、この記憶された道路地図データを使用して、道路地
図を表示させるための表示データを作成する。このとき
には、操作キー27の操作などにより設定された表示ス
ケール(縮尺)で地図を表示させるような表示データと
する。
The processing means 23 is a circuit functioning as a system controller for controlling the operation of the navigation device 20, and includes a CD storing road map data.
-This CD-RO with a ROM (optical disk) set
A CD-ROM driver 24 for reading M stored data;
RAM 25 for storing various data necessary for data processing
And a vehicle speed sensor 26 for detecting the movement of a vehicle equipped with the navigation device, and an operation key 27 are connected. When the coordinate data of the latitude and longitude such as the current position is obtained, the processing unit 23 controls the CD-ROM driver 24 to read the road map data near the coordinate position. Then, the processing means 23 includes the CD-ROM driver 2
The road map data read in step 4 is temporarily stored in the RAM 25, and display data for displaying a road map is created using the stored road map data. At this time, the display data is set to display a map on a display scale (scale) set by operating the operation key 27 or the like.

【0030】処理手段23で作成された表示データを映
像信号生成回路28に供給し、この映像信号生成回路2
8で表示データに基づいて所定のフォーマットの映像信
号を生成させ、この映像信号を出力端子20cに供給す
る。
The display data generated by the processing means 23 is supplied to a video signal generation circuit 28, and the video signal generation circuit 2
At step 8, a video signal of a predetermined format is generated based on the display data, and this video signal is supplied to the output terminal 20c.

【0031】この出力端子20cから出力される映像信
号は、ディスプレイ装置(表示手段)40に供給し、こ
のディスプレイ装置40で映像信号に基づいた受像処理
を行い、ディスプレイ装置40の表示パネルに道路地図
などを表示させる。
The video signal output from the output terminal 20c is supplied to a display device (display means) 40, where the display device 40 performs image receiving processing based on the video signal, and displays a road map on a display panel of the display device 40. And so on.

【0032】このような現在位置の近傍の道路地図を表
示させる他に、操作キー27の操作などで指示された位
置の道路地図なども、処理手段23の制御に基づいて表
示できるようにしてある。また、操作キー27の操作な
どに基づいて、処理手段23は、“目的地”、“出発
地”、“経由地”、“自宅”、“ルート探索”、“電話
をかける”、“マーク設定”、“最寄り探索”などの特
定の座標位置を設定あるいは登録することができるよう
にしてある。この特定の座標位置を登録した場合には、
その登録した座標位置のデータ(経度と緯度のデータ)
をRAM17に記憶させる。
In addition to displaying such a road map near the current position, a road map at a position designated by operating the operation key 27 or the like can be displayed based on the control of the processing means 23. . Further, based on the operation of the operation key 27 or the like, the processing means 23 performs “destination”, “departure point”, “intermediate point”, “home”, “route search”, “call”, “mark setting”. "," Nearest search "and the like can be set or registered. If you register this specific coordinate position,
Data of the registered coordinate position (longitude and latitude data)
Is stored in the RAM 17.

【0033】また、車速センサ26が自動車の走行を検
出したときには、処理手段23が操作キー27の操作の
内の比較的簡単な操作以外の操作を受け付けないように
してある。
When the vehicle speed sensor 26 detects that the vehicle is running, the processing means 23 does not accept any operation other than the relatively simple operation of the operation keys 27.

【0034】このナビゲーション装置20は、自律航法
部29を備え、図2の自動車50側のエンジン制御用コ
ンピュータ54から供給される車速に対応したパルス信
号に基づいて、自動車の正確な走行速度を演算すると共
に、自律航法部29内のジャイロセンサの出力に基づい
て進行方向を検出し、速度と進行方向に基づいて決めら
れた位置からの自律航法による現在位置の測位を行う。
例えば現在位置検出回路22で位置検出ができない状態
になったとき、最後に現在位置検出回路22で検出でき
た位置から、自律航法による測位を行う。
The navigation device 20 includes an autonomous navigation unit 29, and calculates an accurate traveling speed of the vehicle based on a pulse signal corresponding to the vehicle speed supplied from the engine control computer 54 of the vehicle 50 in FIG. At the same time, the traveling direction is detected based on the output of the gyro sensor in the autonomous navigation unit 29, and the current position is measured by the autonomous navigation from a position determined based on the speed and the traveling direction.
For example, when the position cannot be detected by the current position detection circuit 22, the positioning by the autonomous navigation is performed from the position last detected by the current position detection circuit 22.

【0035】処理手段23には音声合成回路31が接続
させてあり、処理手段23で音声による何らかの指示が
必要な場合には、音声合成回路31でこの指示する音声
の合成処理を実行させ、音声合成回路31に接続された
スピーカ32から音声を出力させる。例えば、“目的地
に近づきました”、“進行方向は左です”などのナビゲ
ーション装置として必要な各種指示を音声で行う。この
音声合成回路31では、音声認識装置10で認識した音
声を、供給される文字データに基づいて音声合成処理し
て、スピーカ32から音声として出力させるようにして
ある。スピーカ32は例えば使用者Mが音声入力した
“対象”や“特定の行為”(図4参照)を復唱する。
A speech synthesizing circuit 31 is connected to the processing means 23. If the processing means 23 requires any instruction by voice, the speech synthesizing circuit 31 executes a process of synthesizing the instructed voice, and The sound is output from the speaker 32 connected to the synthesis circuit 31. For example, various instructions necessary for the navigation device, such as "approaching the destination" and "the traveling direction is left", are performed by voice. In the voice synthesis circuit 31, the voice recognized by the voice recognition device 10 is subjected to voice synthesis processing based on the supplied character data, and is output from the speaker 32 as voice. The speaker 32 repeats, for example, the “target” or the “specific action” (see FIG. 4) input by the user M.

【0036】このナビゲーション装置20は、音声認識
装置10の出力端子10a,10bから出力される経緯
度データとその付随データ及び文字コードのデータが供
給される入力端子20a,20bを備え、この入力端子
20a,20bに得られる経緯度データとその付随デー
タ及び文字コードのデータを、処理手段23に供給す
る。
The navigation device 20 has input terminals 20a and 20b to which the latitude and longitude data output from the output terminals 10a and 10b of the voice recognition device 10 and the accompanying data and character code data are supplied. The latitude and longitude data obtained in 20a and 20b, the accompanying data and the character code data are supplied to the processing means 23.

【0037】処理手段23は、この経緯度データD1な
どが音声認識装置10側から供給されるとき、その経度
と緯度の近傍の道路地図データをCD−ROMドライバ
24でディスクから読出す制御を行う。そして、CD−
ROMドライバ24で読出した道路地図データをRAM
25に一時記憶させ、この記憶された道路地図データを
使用して、道路地図を表示させるための表示データを作
成する。このときには、供給される経度と緯度が中心に
表示される表示データとする。
When the longitude / latitude data D1 and the like are supplied from the voice recognition device 10, the processing means 23 controls the CD-ROM driver 24 to read the road map data near the longitude and latitude from the disk. . And CD-
The road map data read by the ROM driver 24 is stored in the RAM
25, and display data for displaying a road map is created using the stored road map data. At this time, it is assumed that the supplied longitude and latitude are display data displayed at the center.

【0038】この表示データに基づいて、映像信号生成
回路28で映像信号を生成させ、ディスプレイ装置40
に、音声認識装置10から指示された座標位置の道路地
図を表示させる。
Based on the display data, a video signal is generated by the video signal generation circuit 28 and the display device 40
Then, a road map at the coordinate position designated by the voice recognition device 10 is displayed.

【0039】音声認識装置10の出力端子10bからナ
ビゲーション装置の操作を指示する言葉の文字コードが
供給される場合には、その操作を指示する言葉の文字コ
ードを処理手段23で判別すると、対応した制御を処理
手段23が行う。この場合、“目的地”、“出発地”、
“経由地”、“自宅”などの表示位置を指示する言葉の
文字コードである場合には、この表示位置の座標がRA
M25に登録されているか否か判断した後、登録されて
いる場合には、その位置の近傍の道路地図データをCD
−ROMドライバ24でディスクから読出す制御を行
う。
When the character code of a word instructing the operation of the navigation device is supplied from the output terminal 10b of the voice recognition device 10, the character code of the word instructing the operation is determined by the processing means 23. The control is performed by the processing unit 23. In this case, "destination", "departure",
When the character code of a word indicating a display position such as “intermediate place” or “home” is, the coordinates of the display position are RA
After determining whether or not the data is registered in M25, if the data is registered, the road map data near the position is stored in a CD.
-The reading from the disk is controlled by the ROM driver 24.

【0040】処理手段23に音声認識装置10から、認
識した音声の発音を示す文字コードのデータが供給され
るときには、その文字コードで示される言葉を、音声合
成回路31で合成処理させ、音声合成回路31に接続さ
れたスピーカ32から音声として出力させる。例えば、
音声認識装置10側で“トウキョウト ブンキョウク
(東京都文京区)”と音声認識したとき、この認識した
発音の文字列のデータに基づいて“トウキョウト ブン
キョウク”と発音させる音声信号を生成させる合成処理
を、音声合成回路31で行い、その生成された音声信号
をスピーカ32から出力させる。
When the speech recognition device 10 supplies character code data indicating the pronunciation of the recognized speech to the processing means 23, the speech synthesis circuit 31 synthesizes the words represented by the character code, and the speech synthesis circuit 31 performs speech synthesis. The sound is output from a speaker 32 connected to the circuit 31 as sound. For example,
When the voice recognition device 10 recognizes the voice as “Tokyo Bunkyo (Bunkyo-ku, Tokyo)”, based on the character string data of the recognized pronunciation, a synthesis process for generating a voice signal to be pronounced as “Tokyo Bunkyo” is performed. This is performed by the voice synthesis circuit 31, and the generated voice signal is output from the speaker 32.

【0041】この場合、本例においては音声認識装置1
0で音声認識を行った場合に、ナビゲーション装置20
の端子20aに経度、緯度のデータが供給されるのと、
端子20bに認識した音声の発音を示す文字コードのデ
ータが供給されるのが、ほぼ同時であるが、処理手段2
3では最初に音声合成回路31で認識した言葉を音声合
成させる処理を実行させ、次に経度、緯度のデータに基
づいた道路地図の表示データの作成処理を実行させる。
In this case, in this example, the speech recognition device 1
0 when the voice recognition is performed,
And the terminal 20a is supplied with longitude and latitude data,
Although the data of the character code indicating the pronunciation of the recognized voice is supplied to the terminal 20b almost simultaneously, the processing means 2
In step 3, a process for first synthesizing the words recognized by the speech synthesis circuit 31 is executed, and then a process for creating road map display data based on longitude and latitude data is executed.

【0042】また、図1の処理手段23に対しては、携
帯電話機101が接続される。例えば使用者Mがマイク
ロフォン11に向って、“対象”である一例として“東
京タワー”と発生すると、音声認識装置10を経て、
“東京タワー”データが処理手段23に供給される。R
AM17には、ユーザー辞書あるいは基本辞書として
“対象”としての“東京タワー”の“電話番号”が記憶
されていれば、RAM17、変換部16を介して処理手
段23に対してこの“東京タワー”に対応する“電話番
号”のデータTPDが送られる。処理手段23はこの
“電話番号”のデータTPDを携帯電話機101に送
り、携帯電話機101は、この電話番号データTPDに
基づいて、基地局に送信する。携帯電話機101として
は、デジタル通信方式の携帯電話機を採用するのが好ま
しく、携帯電話機101は、例えば800MHzあるい
は1.5GHzの周波数のデジタル電話機を採用するこ
とができる。
A mobile phone 101 is connected to the processing means 23 shown in FIG. For example, when the user M is directed to the microphone 11 and generates “Tokyo Tower” as an example of “object”, the user M passes through the voice recognition device 10 and
“Tokyo Tower” data is supplied to the processing means 23. R
If the "phone number" of "Tokyo Tower" as the "target" is stored in the AM 17 as the user dictionary or the basic dictionary, the "Tokyo Tower" is sent to the processing means 23 via the RAM 17 and the conversion unit 16. Is transmitted as the data TPD of the "telephone number" corresponding to. The processing means 23 sends the data TPD of the "telephone number" to the mobile phone 101, and the mobile phone 101 transmits the data TPD to the base station based on the telephone number data TPD. It is preferable to use a digital communication type mobile phone as the mobile phone 101, and the mobile phone 101 can use a 800 MHz or 1.5 GHz frequency digital phone, for example.

【0043】次に、上述したナビゲーション機能及び電
話機能を有する電子機器100の操作方法について説明
する。ここで、上述した“対象”と、“対象”に対応す
る“特定の行為”について簡単に説明する。図4におい
て、“対象”としては、例えば呼び出したい場所などを
定義しており、地名、駅名、ランドマーク、電話番号、
マーク名称、電話登録名などの項目を挙げることができ
る。この中でランドマークとは、地図上の目立つような
建築物または建造物などを指しており、例えば一例とし
ては“東京タワー”などが挙げられる。電話番号は、市
外局番−市内局番−番号の順に配列されており、例えば
“03−1234−5678”のようなものである。マ
ーク名称とは、例えばナビゲーション装置の図1のディ
スプレイ装置40におけるある位置にマークを設定した
場合のそのマークの名称を指しており、あるマークの名
称が、例えば“やまだたろう”の住所を示すような場合
である。電話登録名とは、例えば“たなかはなこ”とい
った人名を登録しておく。
Next, a method of operating the electronic device 100 having the above-described navigation function and telephone function will be described. Here, the above-mentioned “target” and “specific actions” corresponding to the “target” will be briefly described. In FIG. 4, “target” defines, for example, a place to be called, for example, a place name, a station name, a landmark, a telephone number,
Items such as a mark name and a telephone registration name can be cited. Among them, the landmark refers to a prominent building or building on a map, for example, "Tokyo Tower" or the like. The telephone numbers are arranged in the order of area code-city code-number, for example, "03-1234-5678". The mark name indicates, for example, the name of the mark when the mark is set at a certain position on the display device 40 in FIG. 1 of the navigation device, and the name of the certain mark indicates, for example, the address of “Yamadarou”. This is the case. As the telephone registration name, for example, a personal name such as "Takanaka Hanako" is registered.

【0044】これに対して“特定の行為”とは、各種コ
マンドを示しており、例えば“ルート探索”、“目的地
設定”、“経由地設定”、“電話(かける)”、“マー
ク設定”、“最寄り探索”コマンドなどがある。
On the other hand, the "specific action" indicates various commands, for example, "route search", "destination setting", "transit point setting", "telephone (call)", "mark setting". "," Nearest search "command, and the like.

【0045】本発明の実施の形態においては、図3の使
用者Mが音声によりまず呼び出したい“対象”を先に音
声入力し、その次に特定の“行為”を指定することがで
きる。このような音声入力による指定順序は矢印RBで
示している。また本発明の実施の形態においては、この
矢印RBの音声入力順に限らず、矢印RAで示すように
使用者Mが“特定の行為”を先に音声入力して指定した
後に、“対象”を指定することも勿論できる。
In the embodiment of the present invention, the user M shown in FIG. 3 can first input the "target" to be called by voice and then specify a specific "action". The designation order by such voice input is indicated by an arrow RB. Further, in the embodiment of the present invention, after the user M first specifies the "specific action" by voice input as shown by the arrow RA, the "target" is not limited to the voice input order of the arrow RB. Of course, it can also be specified.

【0046】図4における矢印RBの音声入力手順に従
うと、使用者Mは“対象”を指定した後に“特定の行
為”を指定する。この例としては、例えば“対象”にお
ける“やまだたろう”を呼び出してから、“特定の行
為”である“電話(かける)”コマンドを言う場合や、
“対象”である“品川駅”を呼び出してから、“特定の
行為”である“ルート探索”コマンドを言うような場合
である。これに対して矢印RAの音声入力手順の場合に
は、“電話”コマンドを言ってから“やまだたろう”を
呼び出したり、“ルート探索”コマンドを言ってから、
“品川駅”を呼び出すような場合である。
According to the voice input procedure indicated by the arrow RB in FIG. 4, the user M specifies a "target" and then a "specific action". As an example of this, for example, after calling "Yamadarou" in "subject", say "telephone (call)" command which is "specific action",
This is a case where after calling the "target""ShinagawaStation", a "route search" command which is a "specific action" is said. On the other hand, in the case of the voice input procedure of the arrow RA, after calling the "telephone" command and then calling "Yamadarou" or the "route search" command,
This is the case when you call “Shinagawa Station”.

【0047】次に図5は、使用者Mによる音声操作によ
り、図1の携帯電話機101とナビゲーション装置20
を用いて、図1の自動車50の運転席52に座っている
使用者Mが、外部へ電話する場合の操作例を示してい
る。図5においてステップS1では、図3の使用者Mが
マイクロフォン11に対して音声入力を開始し、ステッ
プS2において図4の“対象”である“ランドマーク”
や“地名”を入れれば、音声認識装置10からナビゲー
ション装置20の処理手段23に対して信号が送られて
処理手段23はディスプレイ装置40に対してステップ
S7のように地図を表示する。ステップS2におけるこ
の地名としては、例えば“東京都港区港南1−7−4”
や“東京タワー”などである。
Next, FIG. 5 shows the portable telephone 101 and the navigation device 20 shown in FIG.
1 shows an operation example when the user M sitting in the driver's seat 52 of the automobile 50 in FIG. 1 calls outside. In FIG. 5, in step S1, the user M in FIG. 3 starts voice input to the microphone 11, and in step S2, the "landmark" which is the "object" in FIG.
If "place name" is entered, a signal is sent from the voice recognition device 10 to the processing means 23 of the navigation device 20, and the processing means 23 displays a map on the display device 40 as in step S7. As the place name in step S2, for example, "1-7-4 Konan, Minato-ku, Tokyo"
And "Tokyo Tower".

【0048】次に、ステップS3において使用者Mが
“そこに”と音声入力すると、上述した“対象”である
例えば地名としての“東京タワー”がステップS8にお
いて対象選択して確定される。ステップS4において使
用者Mが“電話(かける)”というふうに“特定の行
為”を音声入力すると、図6〜図9に示す電話プロセス
(図5のステップS9)が開始する。その他に、使用者
MがステップS5のように“特定の行為”として“ルー
ト探索”と音声入力すると、ステップS91のようにル
ート探索プロセスに入る。ステップS6のように使用者
Mが“特定の行為”である“マーク設定”と音声入力す
ると、ステップS92のようにマーク設定プロセスに入
る。
Next, in step S3, when the user M voices "there", the above-mentioned "object", for example, "Tokyo Tower" as a place name is selected and determined in step S8. When the user M inputs a "specific action" by voice, such as "call (call)" in step S4, the telephone process (step S9 in FIG. 5) shown in FIGS. 6 to 9 starts. In addition, when the user M voice-inputs “route search” as “specific action” as in step S5, the process enters a route search process as in step S91. When the user M voice-inputs "mark setting" as a "specific action" as in step S6, a mark setting process starts as in step S92.

【0049】次に、図6〜図8を参照して、上記の電話
プロセスについて説明する。図4と図6における矢印R
B方向に音声入力するプロセスと、矢印RAの方向に音
声入力するプロセスの場合がある。図6の矢印RBの方
向に音声入力する場合には、使用者Mは、“対象”であ
る例えば“ランドマーク(東京タワー)”を音声入力
し、“そこに”をさらにキーワードとして入力してその
“東京タワー”を確定し、そして“特定の行為”である
“電話(かける)”コマンドを音声入力する。この場合
には、使用者Mは“そこに”のキーワードを入力してい
るので、フラグが“1”になる。これに対して上述のよ
うに“ランドマーク”や“そこに”などを入力しない
で、使用者Mが直接“特定の行為”である“電話(かけ
る)”コマンドを音声入力した場合には、フラグは無
い。
Next, the telephone process will be described with reference to FIGS. Arrow R in FIGS. 4 and 6
There are a process of inputting voice in the direction B and a process of inputting voice in the direction of arrow RA. In the case of voice input in the direction of arrow RB in FIG. 6, the user M voice-inputs “object”, for example, “landmark (Tokyo Tower)” and further inputs “there” as a keyword. The “Tokyo Tower” is confirmed, and a “call (call)” command as a “specific action” is input by voice. In this case, since the user M has entered the keyword "there", the flag is set to "1". On the other hand, if the user M directly inputs the "call (call)" command as the "specific action" without inputting the "landmark" or "there" as described above, There are no flags.

【0050】図4の“対象”から“特定の行為”の順に
音声入力する場合の矢印RBの音声入力の手順の場合に
は、図6のステップS10の電話プロセス開始から、矢
印Cを経て、図7のルーチンを通る。これに対して、
“特定の行為”から“対象”を行う、すなわち矢印RA
の音声入力手順では、フラグが無いので、図6のステッ
プS10から矢印Kを経て、図8のルーチンを通ること
になる。
In the case of the voice input procedure of arrow RB in the case where voice input is performed in the order of “target” to “specific action” in FIG. 4, from the start of the telephone process in step S10 in FIG. It goes through the routine of FIG. On the contrary,
Perform "object" from "specific action", that is, arrow RA
Since there is no flag in the voice input procedure, the routine of FIG. 8 passes through the arrow K from step S10 of FIG.

【0051】まず図6と図7を参照して、使用者Mが
“対象”から“特定の行為”の順に矢印RBに沿って音
声入力した場合について説明する。図6において、使用
者Mが“対象”として、“東京タワー”と音声入力し、
確定用のキーワードとして、さらに“そこに”と入力す
ると、“対象”としては“東京タワー”が音声入力確定
される。そして使用者Mがさらに“特定の行為”として
“電話(かける)”コマンドを入力すると、フラグが
“1”になり、ステップS10の電話プロセスが開始す
る。
First, with reference to FIGS. 6 and 7, a case will be described where the user M inputs voice along the arrow RB in the order of “target” to “specific action”. In FIG. 6, the user M voice-inputs "Tokyo Tower" as the "target",
If "there" is further input as a keyword for determination, "Tokyo Tower" is voice-determined as the "target". When the user M further inputs a "call (call)" command as a "specific action", the flag is set to "1" and the telephone process in step S10 is started.

【0052】図6のステップS11,S11−1では、
図1の携帯電話機101がスタンバイ状態であるかを見
て、電話中もしくは携帯電話機101がナビゲーション
装置20側に接続されていない場合には、矢印Gを経
て、図8のメインループに到達して処理が終了してしま
う。ステップS11において、そうでなく携帯電話機1
01がスタンバイ状態である場合には、ステップS12
においてすでに“対象”が“東京タワー”として入力し
て確定されているので、矢印Cに沿って図7のルーチン
に移る。
In steps S11 and S11-1 of FIG.
It is determined whether the mobile phone 101 in FIG. 1 is in the standby state. If the mobile phone 101 is in a call or is not connected to the navigation device 20, the mobile phone 101 reaches the main loop in FIG. Processing ends. In step S11, the mobile phone 1
If 01 is in the standby state, step S12
Since the "object" has already been input and determined as "Tokyo Tower" in the above, the processing moves to the routine of FIG.

【0053】図7のステップS13において“対象”が
“東京タワー”であることを確認した後に、ステップS
14,S14−1においてこの東京タワーに対応して、
図1の処理手段23がRAM17において“東京タワ
ー”の電話番号が登録されているかどうかを判断する。
“東京タワー”の電話番号があらかじめユーザー登録に
よりユーザー辞書に登録されておらずかつ基本辞書とし
て登録されていない場合には、矢印Jを経て図8のメイ
ンループに戻る。
After confirming that the "object" is "Tokyo Tower" in step S13 of FIG.
14, In response to this Tokyo Tower in S14-1,
The processing means 23 of FIG. 1 determines whether the telephone number of “Tokyo Tower” is registered in the RAM 17.
If the telephone number of “Tokyo Tower” is not registered in the user dictionary in advance by user registration and is not registered as a basic dictionary, the process returns to the main loop of FIG.

【0054】そうでなくステップS14において“東京
タワー”に対応する電話番号がすでに例えばユーザー辞
書に図1のRAM17に登録されている場合には、ステ
ップS15において、処理手段23がスピーカ32を用
いて“電話します”と発声する。ステップS16では図
10に示す符号の定義のように待機時間Tを0にリセッ
トし、そしてステップS17,S18で使用者Mが音声
入力を行うかどうかを確認する。ステップS17におけ
る音声入力はステップS18において認識されるが、そ
の音声入力の内容は、ステップS19、ステップS2
0、あるいはステップS21のような、訂正語、発信語
あるいは中止語である。
On the other hand, if the telephone number corresponding to "Tokyo Tower" has already been registered in the user dictionary, for example, in the RAM 17 of FIG. 1 in step S14, the processing means 23 uses the speaker 32 in step S15. Say "I'll call you." In step S16, the standby time T is reset to 0 as defined by the reference symbols shown in FIG. 10, and it is confirmed in steps S17 and S18 whether the user M performs voice input. The voice input in step S17 is recognized in step S18, and the content of the voice input is determined in steps S19 and S2.
0, or a correction word, a transmission word, or a stop word as in step S21.

【0055】使用者Mが用いる訂正語、中止語及び発信
語の例としては図11に示している。訂正語としては例
えば“違う”などであり、中止語としては“キャンセ
ル”などであり、さらに発信語としては“かける”や
“発信”などである。そこで、使用者MがステップS1
7において例えば“違う”という訂正語を音声入力した
場合には、矢印Dに沿って図6のステップS25に移
る。
FIG. 11 shows an example of the correction word, the stop word, and the transmission word used by the user M. The correction word is, for example, "differential", the cancellation word is "cancel", and the transmission word is "call" or "transmission". Then, the user M determines in step S1
If, for example, a corrected word “difference” is input as a voice in step 7, the process proceeds to step S25 in FIG.

【0056】ステップS19において訂正語が音声入力
されず、“かける”などの発信語が音声入力された場合
にはステップS23に移って、そのまま電話をかける発
信動作を行い、矢印Jに沿ってメインループに戻る。こ
れにより“対象”である“東京タワー”に対して使用者
Mが音声入力で直接電話番号を入力しなくても、簡単に
かつ自動的に音声入力だけで“東京タワー”に対して電
話をかけることができる。
In step S19, if the corrected word is not input by voice and a transmission word such as "call" is input by voice, the process proceeds to step S23 to perform a call operation for making a telephone call as it is, and the main operation is performed along arrow J. Return to the loop. As a result, even if the user M does not directly input a telephone number by voice input to the "Tokyo Tower" which is the "target", a telephone call to the "Tokyo Tower" can be easily and automatically input only by voice input. You can call.

【0057】そうでなくステップS20において使用者
Mが発信語を音声入力しない場合にはステップS21に
移り、ステップS21において使用者Mが“キャンセ
ル”のような中止語を音声入力した場合には、矢印Fに
沿って図8のステップS26に移り、電子機器100の
処理手段23は、電話をかける処理を取り消し、メイン
ループに戻る。図7のステップS21において使用者M
が“キャンセル”と音声入力しなかった場合にはステッ
プS22において、待機時間TがN秒例えば5秒以上経
過した場合、すなわち使用者Mが訂正語、発信語、中止
語を5秒以上全く入力しなかった場合には、ステップS
23において自動的に電話をかける発信動作に移る。こ
れにより、処理手段23が携帯電話機101に“電話番
号”のデータTPDを与えて、局側に発信する。ステッ
プS22において、待機時間Tが5秒に達するまでに再
び使用者MがステップS17において音声入力を行った
場合には、ステップS18〜ステップS22のステップ
を繰り返すことになる。
Otherwise, if the user M does not input a speech word in step S20, the process proceeds to step S21, and if the user M inputs a stop word such as "cancel" in step S21, The process proceeds to step S26 in FIG. 8 along the arrow F, and the processing unit 23 of the electronic device 100 cancels the process of making the call and returns to the main loop. In step S21 of FIG. 7, the user M
Is not input as "cancel" in step S22, if the standby time T has passed N seconds, for example, 5 seconds or more, that is, the user M has input at least 5 seconds of the correction word, the transmission word, and the stop word. If not, step S
At 23, the operation shifts to a calling operation for automatically making a telephone call. As a result, the processing means 23 gives the data TPD of the "telephone number" to the mobile phone 101 and transmits the data to the office. In step S22, if the user M performs voice input again in step S17 before the standby time T reaches 5 seconds, the steps in steps S18 to S22 are repeated.

【0058】このようにして、図6の矢印PBで示すよ
うに使用者Mが“対象”である“東京タワー”、“そこ
に”そして“特定の行為”である“電話(かける)”コ
マンドを音声入力することにより、電話番号を直接音声
入力しなくても訂正や中止を行わない限り自動的にステ
ップS23において電話をかける発信を行うことができ
る。
In this way, as shown by the arrow PB in FIG. 6, the user M is the "target""TokyoTower","there" and the "specific action""call(call)" command. By voice input, it is possible to automatically make a call in step S23 unless correction or cancellation is performed without directly inputting the telephone number by voice.

【0059】次に、本発明の実施の形態における特徴部
分について詳しく説明する。図6のステップS10,S
11,S12,S24,S25,S27,S28、図8
のS29,S30,S31,S33,S66,S67,
S67−1,S68が、本発明の実施の形態における操
作ガイダンス機能について説明している。図6の矢印R
Aで示すように使用者Mが単に“電話(かける)”コマ
ンドを発した場合について説明する。つまり図4の“特
定の行為”から矢印RAに沿って“対象”に沿って入力
処理をする例を今から説明する。まずステップS10,
S11及びS12を経て、ステップS12においてフラ
グが“1”なのでステップS24に移る。ステップS2
4では、図1のRAM17において認識用の辞書、すな
わち基本辞書(共通辞書)とユーザー登録辞書(ユーザ
ー登録語)を参照して、まだ“対象”である地名を使用
者Mが音声入力していないので、電子機器100の処理
手段23がスピーカ32を用いてステップS25におい
て“どちらにおかけですか”とガイダンス用の発音をす
る。そしてステップS27で、図10の電話番号または
登録語Pをクリアーにして、かつ入力カウントCを0に
するとともにステップS27では待機時間Tを0にす
る。この入力カウントCとは、図1のRAM17に登録
されている登録語を何回言ったかを表す符号である。そ
して矢印Kに沿って図8に示すステップS29に移り、
このステップS29では、使用者Mが例えばユーザー登
録語である“東京タワー”あるいは“電話番号”と音声
入力する。ステップS30で認識が行われステップS3
1において“電話番号”と入力された場合にはステップ
S32の電話番号プロセス(A)に進む。しかしステッ
プS31において使用者Mが“電話番号”と音声入力し
ていない場合にはステップS33に進む。
Next, features of the embodiment of the present invention will be described in detail. Steps S10 and S in FIG.
11, S12, S24, S25, S27, S28, FIG.
S29, S30, S31, S33, S66, S67,
S67-1 and S68 describe the operation guidance function according to the embodiment of the present invention. Arrow R in FIG.
A case where the user M simply issues a "call (call)" command as shown by A will be described. That is, an example in which the input processing is performed along the “target” along the arrow RA from the “specific action” in FIG. 4 will now be described. First, step S10,
After S11 and S12, since the flag is "1" in step S12, the process proceeds to step S24. Step S2
In FIG. 4, the user M refers to the recognition dictionary, that is, the basic dictionary (common dictionary) and the user registration dictionary (user registration word) in the RAM 17 of FIG. Since there is no such information, the processing means 23 of the electronic device 100 uses the speaker 32 to generate a guidance sound "guidance to whom" in step S25. Then, in step S27, the telephone number or the registered word P in FIG. 10 is cleared, the input count C is set to 0, and the standby time T is set to 0 in step S27. The input count C is a code indicating how many times a registered word registered in the RAM 17 of FIG. 1 is said. Then, the process proceeds to step S29 shown in FIG.
In this step S29, the user M voice-inputs, for example, the user registration word "Tokyo Tower" or "telephone number". Recognition is performed in step S30 and step S3
If "telephone number" is entered in step 1, the process proceeds to the telephone number process (A) in step S32. However, if the user M has not input the voice of "telephone number" in step S31, the process proceeds to step S33.

【0060】まず図8のステップS32の電話番号プロ
セス(A)について説明する。この電話番号プロセス
(A)の詳細は、図9に示している。ステップS32の
次のステップS34において、認識辞書として図1のR
AM17では、共通辞書(基本辞書)と電話番号(例え
ばユーザー辞書)を参照し、図10に示す電話番号また
は登録語Pをクリアーにし、音声入力回数Bを0にリセ
ットして、そして入力カウント数を0とする(ステップ
S35)。そして図1の処理手段23の指示でスピーカ
32がステップS36において“電話番号をどうぞ”と
ガイダンスのために発声する。そしてステップS37で
は、待機時間Tを0にリセットし、ステップS38,S
39において使用者Mが音声入力をするかどうかを確認
すると、ステップS39では音声認識装置10が音声認
識をする。ステップS40において使用者Mが音声入力
したのが“電話番号例えば03−1234−5678”
である場合には、ステップS41において処理手段23
がスピーカ32を用してガイダンスと確認用に復唱す
る。例えば使用者Mが電話番号03−1234−567
8を連続して一括して入力した場合には、ステップS4
1では、やはり03−1234−5678と一括して復
唱する。そうでなく使用者Mが例えば“03”と、“1
234”そして“5678”を分割して入力した場合に
は、ステップS41,S42においてその分割番号毎に
復唱することになる。つまり、ステップS42を通るこ
とで、電話番号が分割されて入力された場合には、例え
ば“03”を入力した後にステップS41で“03”を
復唱し、再びステップS37に戻り、次に使用者が“1
234”を入力すると、ステップS41において“12
34”を復唱し、そしてまたステップS37に戻り、さ
らに使用者が“5678”を音声入力すると、ステップ
S41で“5678”を復唱することになる。
First, the telephone number process (A) in step S32 in FIG. 8 will be described. The details of the telephone number process (A) are shown in FIG. In step S34 following step S32, R in FIG.
The AM 17 refers to the common dictionary (basic dictionary) and telephone number (for example, user dictionary), clears the telephone number or the registered word P shown in FIG. 10, resets the number of voice inputs B to 0, and counts the input count. Is set to 0 (step S35). Then, in response to an instruction from the processing means 23 in FIG. 1, the speaker 32 utters "Please enter a telephone number" for guidance in step S36. Then, in step S37, the standby time T is reset to 0, and in steps S38 and S38.
After confirming whether or not the user M performs voice input in 39, the voice recognition device 10 performs voice recognition in step S39. The voice input by the user M in step S40 is "telephone number, for example, 03-1234-5678".
In step S41, the processing unit 23
Uses the speaker 32 to repeat for guidance and confirmation. For example, the user M has a telephone number 03-1234-567.
8 are continuously and collectively input, step S4
In the case of 1, the song is repeated in a batch with 03-1234-5678. On the other hand, if the user M is, for example, “03” and “1”
If "234" and "5678" are divided and input, the repetition is performed for each of the division numbers in steps S41 and S42. That is, by passing through step S42, the telephone number is divided and input. In this case, for example, after "03" is input, "03" is read back in step S41, and the process returns to step S37 again.
234 "," 12 "is entered in step S41.
34 is repeated, and the process returns to step S37. When the user further inputs "5678" by voice, "5678" is repeated in step S41.

【0061】次に、ステップS43で図11の訂正語、
例えば“違う”を使用者Mが音声入力すると、ステップ
S44において、電子機器100側が“もう一度どう
ぞ”とガイダンス用にガイダンス発声し、ステップS4
5,ステップS46を通ることにより、ステップS38
において音声入力した電話番号部分を再びステップS3
7〜ステップS40で再度入力する。ステップS43に
おいて訂正語の入力がなく、ステップS47で発信語で
ある“電話をかける”の音声入力があった場合にはステ
ップS51において、音声入力回数が1である場合、す
なわち一括して電話番号である“03−1234−56
78”が入力されている場合にはステップS53にショ
ートカットして移り、図7の電話番号プロセス(B)に
移る。そうでなく、音声入力回数Bが1ではなく、“0
3”、“1234”そして“5678”が分割して音声
入力されている場合にはステップS52を通り、一括し
て電子機器100が“03−1234−5678”を復
唱してステップS53に移る。ステップS53の電話番
号プロセス(B)は、図7のすでに述べたステップS1
5〜ステップS23を同様にして処理することにより、
使用者Mは自動的に電話をかけることができる。
Next, in step S43, the corrected word in FIG.
For example, when the user M inputs "no" by voice, in step S44, the electronic device 100 utters a guidance message "Please try again" for guidance, and step S4.
5, through step S46, step S38
In step S3, the telephone number part input by voice in
Input again in steps 7 to S40. If there is no correction word input in step S43 and there is a voice input of the calling word "call" in step S47, then in step S51 if the number of voice inputs is 1, that is, the telephone number "03-1234-56
If "78" has been input, the process shifts to step S53 as a shortcut, and shifts to the telephone number process (B) in Fig. 7. Otherwise, the number of voice inputs B is not 1, but "0".
If “3”, “1234” and “5678” are divided and input as voices, the electronic device 100 goes through step S52 and repeats “03-1234-5678” in a lump and proceeds to step S53. The telephone number process (B) in step S53 is the same as step S1 in FIG.
By processing 5 to step S23 in the same manner,
User M can automatically make a call.

【0062】図9に戻り、ステップS47において発信
語の音声入力がないが、中止語である“キャンセル”の
音声入力があった場合には、図9と図8のキャンセルプ
ロセスS100に移り、ステップS26の“電話を取り
消しました”のガイダンス発声処理を経てメインループ
に戻る。
Returning to FIG. 9, if there is no voice input of the outgoing word in step S47, but there is a voice input of the cancel word "cancel", the process proceeds to the cancel process S100 in FIGS. 9 and 8. The process returns to the main loop through the guidance utterance process of "Call canceled" in S26.

【0063】図9のステップS48で中止“キャンセ
ル”の音声入力がない場合には、待機時間TがN秒(例
えば5秒)を下回る場合にはステップS37に戻り再度
ステップS38以降で使用者Mが音声入力をすることが
できる。そうでなく待機時間Tが5秒以上になると、ス
テップS50において、音声入力回数Bが0でない場合
にはステップS51に移り、ステップS51以降の処理
を行う。そうでなくステップS50において音声入力回
数Bが0である場合には、音声入力がなしと判断して、
そしてステップS54で入力カウントCが0でない場合
にはステップS100のキャンセルプロセスに移るが、
入力カウントC=0である場合にはステップS55にお
いて入力カウントCを1つインクリメントしてステップ
S36に戻し、再びステップS36以降の処理を再度行
う。
If there is no voice input of "Cancel" in step S48 of FIG. 9, and if the standby time T is shorter than N seconds (for example, 5 seconds), the process returns to step S37 and again from step S38 onward. Can make voice input. Otherwise, when the standby time T becomes 5 seconds or longer, in step S50, if the number of voice inputs B is not 0, the process proceeds to step S51, and the processing after step S51 is performed. Otherwise, if the voice input count B is 0 in step S50, it is determined that there is no voice input,
If the input count C is not 0 in step S54, the process proceeds to a cancellation process in step S100.
If the input count C is 0, the input count C is incremented by one in step S55, the process returns to step S36, and the processes in and after step S36 are performed again.

【0064】次に図8に戻り、図8のステップS31,
S33において、使用者Mが“電話番号”でなく他の登
録語“対象”を言った場合には、ステップS56におい
て、その例えば登録語“東京タワー”を電子機器100
が復唱する。その“東京タワー”はステップS57,S
58で、待機時間Tを0にリセットし、使用者Mが音声
入力をステップS59で行うかどうか確認する。図1の
音声認識装置10がステップS60でその入力された音
声を認識し、その認識の結果ステップS61において発
信語である“電話をかける”である場合には矢印Eに沿
って図7のステップS15〜ステップS23の発信処理
に移る。そうでなくステップS61において発信語が音
声入力されず、ステップS62において中止語である
“キャンセル”が音声入力されると、ステップS26に
おいて“電話を取り消しました”と電子機器100がガ
イダンス発声してメインループに戻る。ステップS62
において中止語が音声入力されずステップS63におい
て訂正語である“違う”が音声入力されると、ステップ
S65において電子機器100が“もう一度どうぞ”と
ガイダンス発声した後に、矢印Hに沿って図6のステッ
プS27に戻り、以降の処理を再び行う。そうでなく、
ステップS63において訂正語が音声入力されない場合
に、待機時間Tが5秒未満の場合にはステップS59に
戻り再度使用者Mが音声入力することになる。そうでな
く待機時間Tが5秒以上であると、矢印E方向に沿って
図7のステップS15〜ステップS23の電話の発信処
理を行う。これにより電話をかけることができる。図8
に戻り、本発明の実施の形態の特徴部分において図8の
ステップS33において使用者MがステップS29で音
声入力した言葉が登録語でない場合に、ステップS66
で中止語である“キャンセル”が音声入力されると、ス
テップS26において“電話を取り消しました”をガイ
ダンス発音しメインループに戻る。中止語が音声入力さ
れずしかも待機時間Tが5秒以内の場合には、ステップ
S29に戻り、使用者Mは再度音声入力することができ
る。待機時間Tが5秒以上である場合には、ステップS
67−1において入力カウントCが0でない場合にはス
テップS26に移る。ステップS67−1において入力
カウントCが0の場合には、使用者MがステップS29
〜ステップS67において一度も登録語を言っていない
場合には、ステップS68において、電子機器100は
次のような案内をスピーカ32を用いて行う。すなわ
ち、ステップS68において、「携帯電話機101に登
録されている“名称”もしくは“電話番号”と言ってか
ら電話番号をどうぞ」というふうに音声により案内す
る。このように案内するのは、ステップS29,30,
31,33,67,68のルーチンを通過した場合の使
用者Mは図1の電子機器100を扱うことに関して初心
者であると判断して、このような案内を使用ガイダンス
として音声で告知するのである。これにより使用者Mは
このような手順に従って矢印Iに沿って図6のステップ
S28から再び音声入力動作を実施することができる。
Next, returning to FIG. 8, step S31 in FIG.
In a case where the user M has referred to another registered word “target” instead of “telephone number” in S33, in step S56, for example, the registered word “Tokyo Tower” is stored in the electronic device 100.
Repeats. The “Tokyo Tower” is executed in steps S57 and S57.
At 58, the standby time T is reset to 0, and it is confirmed whether or not the user M performs voice input in step S59. The voice recognition device 10 of FIG. 1 recognizes the input voice in step S60. If the result of the recognition is “calling” which is the originating word in step S61, the voice recognition device 10 follows the arrow E in FIG. The process proceeds to the transmission process from S15 to step S23. Otherwise, if the outgoing word is not voice-inputted in step S61 and the cancel word "cancel" is voice-inputted in step S62, the electronic device 100 utters "guidance of telephone cancellation" in step S26. Return to the main loop. Step S62
In step S63, when the stop word is not speech-inputted and the correct word "no" is speech-inputted, in step S65, the electronic device 100 utters the guidance "Please again", and then follows the arrow H in FIG. Returning to step S27, the subsequent processing is performed again. Otherwise,
If the corrected word is not input by voice in step S63, and if the standby time T is less than 5 seconds, the process returns to step S59 and the user M again inputs voice. Otherwise, if the standby time T is 5 seconds or longer, the telephone call processing of steps S15 to S23 in FIG. This allows you to make a call. FIG.
Returning to step S66 in the characteristic part of the embodiment of the present invention, when the word input by the user M in step S29 is not a registered word in step S33 in FIG.
When the word "cancel", which is a stop word, is input by voice in step S26, "guidance of telephone call" is pronounced in step S26, and the process returns to the main loop. If the stop word is not input by voice and the standby time T is within 5 seconds, the process returns to step S29, and the user M can input voice again. If the standby time T is 5 seconds or longer, the process proceeds to step S
If the input count C is not 0 in 67-1, the process moves to step S26. If the input count C is 0 in step S67-1, the user M proceeds to step S29.
If no registered word has been said in Step S67, the electronic device 100 provides the following guidance using the speaker 32 in Step S68. That is, in step S68, voice guidance is given, such as "Please say" name "or" telephone number "registered in mobile phone 101 and then enter the telephone number." This guidance is made in steps S29, S30,
The user M who has passed the routines 31, 33, 67, and 68 is determined to be a novice in handling the electronic device 100 of FIG. 1, and announces such guidance as voice as usage guidance. . Thus, the user M can perform the voice input operation again from step S28 in FIG. 6 along the arrow I according to such a procedure.

【0065】以上のようにして図6の矢印PBの場合、
すなわち“対象”を音声入力してから“特定の行為”を
入力する方式と、矢印RAに示すように“特定の行為”
を入力してから“対象”を入力するいずれにおいても、
音声入力だけで図1の電子機器100のナビゲーション
装置20を利用して携帯電話機101を用いて電話をか
けることができる。矢印RA、図6のステップS10乃
至S12,S24乃至28、図8のステップS29乃至
S31,S33,S67,S67−1,S68において
は、使用者がナビゲーション装置を用いて電話をかける
動作を行う場合に、その使用者がナビゲーション装置の
操作に関して初心者であっても、簡単にかく確実に電話
をかける動作を行えることができる。すなわち、例えば
自動車から電話をかけるといった動作の案内をナビゲー
ション装置から音声によりうけながら、自動車から電話
をかけるといった動作を使用者が初心者であっても使用
者の音声入力により簡単にかつ確実に行うことができる
のである。
As described above, in the case of the arrow PB in FIG.
That is, a method of inputting a “specific action” after inputting a “target” by voice, and a method of inputting a “specific action” as indicated by an arrow RA.
And then enter the “target”,
It is possible to make a call using the mobile phone 101 using the navigation device 20 of the electronic device 100 of FIG. 1 only by voice input. In the arrow RA, steps S10 to S12, S24 to 28 in FIG. 6, and steps S29 to S31, S33, S67, S67-1, and S68 in FIG. 8, the user performs an operation of making a call using the navigation device. In addition, even if the user is a beginner with respect to the operation of the navigation device, the operation of making a telephone call can be performed easily and reliably. That is, for example, while receiving guidance of an operation such as making a call from a car by voice from a navigation device, even if the user is a beginner, the operation of making a call from a car can be easily and reliably performed by a user's voice input. You can do it.

【0066】次に図13〜図19を参照して、音声によ
る電話をかける行為の実際の例を簡単に示しておく。図
13は、図6の矢印RBに示す“対象”音声入力後に、
“特定の行為”を音声入力する場合のやり取りの一例で
ある。使用者M(ユーザーに相当)と、電子機器100
とのやり取りにおいて、“対象”である“東京タワー”
を使用者Mが音声入力すると、電子機器側は“東京タワ
ー”をガイダンスのために復唱しそして地図を表示す
る。そして使用者Mが“そこに”と音声入力すると、
“東京タワー”という対象が選択されることになる。そ
してユーザーが、特定の行為である“電話(をかけ
る)”と音声入力すると、電子機器側は“電話します”
とガイダンス音声で答えて5秒待つと、発信を行う。
Next, with reference to FIGS. 13 to 19, an actual example of the act of making a voice call will be briefly described. FIG. 13 shows the state after the “target” voice input indicated by the arrow RB in FIG.
This is an example of an exchange when a “specific action” is input by voice. User M (corresponding to user) and electronic device 100
"Tokyo Tower" which is the "target"
Is input by the user M, the electronic device repeats "Tokyo Tower" for guidance and displays a map. Then, when the user M inputs a voice “to there”,
The object "Tokyo Tower" will be selected. Then, when the user speaks out a specific action, “call (make a call)”, the electronic device “calls”.
After answering with the guidance voice and waiting for 5 seconds, the call is made.

【0067】図14は、図4における“対象”の電話登
録名が例えば“たなかはなこ”にユーザー登録されてい
る場合の使用者(ユーザー)と電子機器100側とのや
り取りの一例を示している。図15は、使用者(ユーザ
ー)が、電話番号03−1234−5678をそれぞれ
区切って音声入力した場合の一例を示している。図16
は、使用者(ユーザー)が、電話番号を“03−123
4−5678”のように連続して音声入力した場合の例
を示している。
FIG. 14 shows an example of an exchange between the user (user) and the electronic device 100 when the telephone registration name of the “object” in FIG. 4 is registered as a user, for example, in “Tanakahanako”. . FIG. 15 shows an example of a case where the user inputs a voice by dividing the telephone numbers 03-1234-5678. FIG.
Indicates that the user (user) changes the telephone number to “03-123”.
4-5678 ".

【0068】図17は、図1の電子機器100を用い
て、本発明の実施の形態の特徴部分であるところの、電
話をかける場合に使用者(ユーザー)が電子機器100
を操作するのに関して初心者である場合のやり取りの一
例を示している。図17において使用者(ユーザー)
が、音声入力のように“電話”と音声入力すると、図6
の矢印RAの処理を行うことになり、図6のステップS
25において、電子機器100が“どちらにおかけです
か”と音声で知らせると、これに使用者が答えずに無言
であって5秒経つと、図8のステップS68では、電子
機器100側が“電話機に登録された名称もしくは電話
番号と言ってから電話番号をどうぞ”と音声で案内す
る。これにより使用者は初めて“電話番号”と音声入力
すると、電子機器100側は次に“電話番号をどうぞ”
と音声で知らせる。そこで使用者が“03−1234−
なんだっけ?”と言って誤って入力すると、電子機器1
00側は“03−1234−6578”ですかとガイダ
ンス音声で知らせる。そこで使用者がかけたい正しい番
号は“03−1234−5678”である場合には、電
子機器が知らせた“03−1234−6578”は違っ
ているので、使用者は“違う”と音声入力する。そうす
ると電子機器100は“もう一度どうぞ”とガイダンス
音声で案内し、それにより使用者は“03−1234−
5678”と正しい電話番号を再度音声入力する。そう
すると電子機器100側は“03−1234−567
8”とガイダンスのために復唱する。
FIG. 17 shows a feature of the embodiment of the present invention, in which a user (user) uses the electronic device 100 of FIG. 1 to make a telephone call.
1 shows an example of an exchange in a case where the user is a beginner with respect to operating. In FIG. 17, the user (user)
However, when a voice is input as "telephone" like a voice input, FIG.
The processing of the arrow RA of FIG.
In step S25, if the electronic device 100 informs the user of "Where are you calling?" Please say the name or phone number registered in the phone number and then enter the phone number. " As a result, when the user voice-inputs “telephone number” for the first time, the electronic device 100 next displays “please enter the telephone number”.
And tell them by voice. Then, the user reads "03-1234-
What was that? If you mistakenly input "
The 00 side notifies the user of “03-1234-6578” by a guidance voice. Therefore, if the correct number that the user wants to call is “03-1234-5678”, “03-1234-6578” notified by the electronic device is different, so the user voice-inputs “no”. . Then, the electronic device 100 guides the user with “Please try again” with a guidance voice, and thereby the user receives “03-1234-
The correct telephone number is input again by voice as “5678.” Then, the electronic device 100 displays “03-1234-567”.
Repeat 8 "for guidance.

【0069】その次に再び使用者が無言のままで5秒経
つと電子機器100側は“電話します”と答え、さらに
使用者が無言で5秒経過すると、実際に図7のステップ
S23において発信を始めるのである。このようにする
ことで、全く図1の電子機器100を使用したことのな
い使用者であっても、マニュアルやガイドブックあるい
はディスプレイ装置に表示される案内を参照しなくても
音声による入力操作だけで簡単にかつ確実に電話をかけ
ることができる。
Next, if the user remains silent for 5 seconds, the electronic device 100 will answer "call", and if the user silently passes for 5 seconds, the electronic device 100 will actually return to step S23 in FIG. Start sending. By doing so, even a user who has never used the electronic device 100 of FIG. 1 can perform only a voice input operation without referring to a manual, a guidebook, or a guide displayed on a display device. You can easily and reliably make phone calls.

【0070】図18は、使用者が電話番号の訂正を行う
場合の一例を示している。この場合には使用者は訂正語
である“違う”を音声入力することにより番号を訂正し
ていくことができる。このような訂正のルーチンは、図
9のステップS43,44,45,46により行うこと
ができる。図19は電話登録名の訂正の例を示してい
る。
FIG. 18 shows an example in which the user corrects a telephone number. In this case, the user can correct the number by voice-inputting the correction word “different”. Such a correction routine can be performed by steps S43, S44, S45, and S46 in FIG. FIG. 19 shows an example of correction of the telephone registration name.

【0071】ところで本発明は上記実施の形態に限定さ
れるものではない。上述した実施の形態では、図4にお
ける“対象”としての電話登録名の一例を採用して、
“対象”を音声入力してから、“特定の行為”である
“電話(かける)”を音声入力することで電話をかける
ようにしている。しかしこれに限らず例えばランドマー
クタワーとして“東京タワー”を入力した後に例えば
“特定の行為”として“電話(かける)”を音声入力す
るようにしても、例えば東京タワーに対して簡単に電話
をかけることができる。その他に図4の“対象”の項目
の地名、駅名、電話番号、マーク名称などを音声入力し
ても、“特定の行為”である“電話(かける)”を音声
入力すれば電話をかけることができる。また特定の行為
として、ルート探索、目的地設定、経由地設定、マーク
設定あるいは最寄探索などの特定の行為も指定すること
ができる。
The present invention is not limited to the above embodiment. In the above-described embodiment, an example of the telephone registration name as the “target” in FIG.
A voice call is made by inputting the "target" by voice, and then by voice inputting the "specific action" of "phone (call)". However, the present invention is not limited to this. For example, after inputting "Tokyo Tower" as a landmark tower, and then inputting "telephone (call)" as a "specific action" by voice, for example, it is possible to easily call the Tokyo Tower. Can be. In addition, even if the place name, station name, telephone number, mark name, etc. of the "object" item in FIG. Can be. As a specific action, a specific action such as a route search, a destination setting, a transit point setting, a mark setting, or a nearest search can also be designated.

【0072】逆に、図4の特定の行為、例えば“電話
(かける)”を音声入力してから“対象”である例えば
電話登録名を呼び出すことも勿論可能である。その他特
定の行為のルート探索、目的地設定、経由地設定、マー
ク設定、最寄探索設定を先に入力してから、矢印RAに
沿って呼び出したい“対象”の項目である地名、駅名、
ランドマーク、電話番号、マーク名称あるいは電話登録
名を呼び出すことは勿論できる。
Conversely, it is of course possible to input a specific action shown in FIG. 4, for example, "telephone (call)" by voice, and then call the "object", for example, a telephone registered name. After inputting the route search, destination setting, transit point setting, mark setting, and nearest search setting of the specific action first, the place name, station name,
Of course, landmarks, telephone numbers, mark names or telephone registered names can be called.

【0073】また図示の実施の形態では、自動車に搭載
したナビゲーション装置に対して携帯電話機を設定しそ
して携帯電話機により自動車の中から外部に電話をかけ
る例を説明している。しかしこれに限らず他の種類の電
子機器、例えば本発明の音声操作機能付きの電子機器
は、図示した通常の乗用車に限らず、本発明における、
一例として飛行機、船などの他の種類のものにも搭載す
ることができる。また搭載して移動するタイプの電子機
器に限らず、固定機器としてある場所に設定する種類の
電子機器においても、同様に例えば電話をかける機能に
限らず他の種類の機能を発揮する場合でも、本発明は適
用できる。
In the illustrated embodiment, an example is described in which a portable telephone is set for a navigation device mounted on a car and a call is made from the inside of the car to the outside by the portable telephone. However, not limited to this, other types of electronic devices, for example, the electronic device with a voice operation function of the present invention is not limited to the illustrated ordinary passenger car, the present invention,
For example, it can be mounted on other types such as an airplane and a ship. Not only electronic devices of the type that are mounted and moved, but also electronic devices of the type set at a certain place as fixed devices, similarly, for example, when performing other types of functions without being limited to the function of making calls, The present invention is applicable.

【0074】本発明の電子機器としては、ナビゲーショ
ン装置と携帯電話を組み合わせた例に限らず、携帯電話
とテレビジョンセットを組み合わせたり、その他の音響
機器と電話機を組み合わせたりなどの応用例も考えられ
る。本発明の実施の形態は、音声認識機能を内蔵した電
話又は電話付きカーナビにおいて、ユーザの「電話」と
いう発声に応じた機器側からの入力促進発話「どちらに
おかけですか?」に対して一定時間無言の場合、音声入
力の手順を知らせる音声ガイダンスを自動発声する音声
インターフェイス処理を行える。
The electronic apparatus of the present invention is not limited to an example in which a navigation device is combined with a mobile phone, but may be applied to a combination of a mobile phone and a television set, or a combination of other audio equipment and a telephone. . The embodiment of the present invention relates to a telephone or a car navigation system equipped with a telephone having a voice recognition function, and a certain amount of input prompting utterance from the device corresponding to the utterance of the user's "telephone". When there is no time, a voice interface process for automatically generating voice guidance for notifying a voice input procedure can be performed.

【0075】[0075]

【発明の効果】以上説明したように、本発明によれば、
使用者が初心者であっても、例えば自動車から電話をか
けるといった動作の案内を音声によりうけながら自動車
から電話をかける動作を使用者の音声入力により簡単に
かつ確実に行うことができる。
As described above, according to the present invention,
Even if the user is a beginner, for example, the operation of making a call from a car can be easily and reliably performed by voice input of the user while receiving the guidance of the operation of making a call from a car by voice.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の音声操作機能付き電子機器の好ましい
実施の形態を示すブロック図。
FIG. 1 is a block diagram showing a preferred embodiment of an electronic device with a voice operation function of the present invention.

【図2】図1の電子機器を備える自動車の一例を示す斜
視図。
FIG. 2 is an exemplary perspective view showing an example of an automobile including the electronic device of FIG. 1;

【図3】図2の自動車の内部を示す斜視図。FIG. 3 is an exemplary perspective view showing the inside of the automobile shown in FIG. 2;

【図4】本発明における“対象”と“行為”の一例を示
す図。
FIG. 4 is a diagram showing an example of “object” and “act” in the present invention.

【図5】本発明の電子機器における音声入力により地名
から電話をかけるなどのプロセスを示す図。
FIG. 5 is a view showing a process of making a call from a place name by voice input in the electronic apparatus of the present invention.

【図6】使用者が音声入力だけで電話をかけるための流
れの一部を示す図。
FIG. 6 is a diagram showing a part of a flow for a user to make a telephone call only by voice input.

【図7】図6に続く流れを示す図。FIG. 7 is a view showing a flow following FIG. 6;

【図8】図6と図7に続く流れを示す図。FIG. 8 is a view showing a flow following FIGS. 6 and 7;

【図9】図7と図8に関連する電話番号プロセス(A)
の流れを示す図。
FIG. 9 is a telephone number process (A) associated with FIGS. 7 and 8;
FIG.

【図10】図6〜図9における符号の定義を示す図。FIG. 10 is a diagram showing definitions of reference numerals in FIGS. 6 to 9;

【図11】訂正語、中止語、発信語の一例を示す図。FIG. 11 is a diagram showing an example of a correction word, a stop word, and a transmission word.

【図12】登録語、基本辞書、ユーザー辞書、電話番号
識別語の一例を示す図。
FIG. 12 is a diagram showing an example of a registered word, a basic dictionary, a user dictionary, and a telephone number identification word.

【図13】“対象”を音声入力してから“特定の行為”
を音声入力する例を示す図。
FIG. 13: “Specific action” after voice input of “target”
FIG. 4 is a diagram showing an example of inputting a voice.

【図14】“対象”が登録語である場合に電話をかける
例を示す図。
FIG. 14 is a diagram illustrating an example of making a call when “target” is a registered word.

【図15】使用者が電話番号を区切って音声入力した場
合を示す図。
FIG. 15 is a diagram showing a case where a user inputs voice by separating telephone numbers.

【図16】使用者が電話番号を一括して音声入力した場
合に電話をかける手順を示す図。
FIG. 16 is a diagram showing a procedure for making a call when a user inputs a telephone number collectively by voice.

【図17】初心者が電話番号を言って電話をかける例を
示す図。
FIG. 17 is a diagram showing an example in which a beginner makes a telephone call by saying a telephone number.

【図18】電話番号を訂正する例を示す図。FIG. 18 is a diagram showing an example of correcting a telephone number.

【図19】登録語を訂正する場合の一例を示す図。FIG. 19 is a diagram showing an example of a case where a registered word is corrected.

【符号の説明】[Explanation of symbols]

10・・・音声認識装置(音声認識手段)、11・・・
マイクロフォン(音声入力手段)、17・・・RAM
(データ登録手段)、20・・・ナビゲーション装置、
23・・・処理手段、40・・・ディスプレイ、100
・・・電子機器、101・・・携帯電話機
10 ... voice recognition device (voice recognition means), 11 ...
Microphone (voice input means), 17 ... RAM
(Data registration means), 20 ... navigation device,
23 ... processing means, 40 ... display, 100
... Electronic equipment, 101 ... Mobile phone

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G08G 1/0969 G08G 1/0969 H04M 1/27 H04M 1/27 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 6 Identification code FI G08G 1/0969 G08G 1/0969 H04M 1/27 H04M 1/27

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 使用者の音声を入力するための音声入力
手段と、 特定の行為を含む事項を登録しているデータ登録手段
と、 音声入力手段に入力された音声信号を認識して処理する
音声認識手段と、 使用者が音声入力した言葉が、データ登録手段に登録さ
れている特定の行為を含む事項に該当しない場合に、音
声により使用者のためにその後の操作事項を案内するた
めの操作ガイダンスを行うための処理手段と、を備える
ことを特徴とする音声操作機能付き電子機器。
1. A voice input unit for inputting a voice of a user, a data registration unit for registering a matter including a specific action, and a voice signal input to the voice input unit is recognized and processed. Voice recognition means and, when a word spoken by the user does not correspond to a matter including a specific action registered in the data registration means, a voice is used to guide a subsequent operation item for the user. An electronic device with a voice operation function, comprising: a processing unit for performing operation guidance.
【請求項2】 特定の行為は、電話をかけることであ
り、使用者のための操作事項としては、データ登録手段
内に登録されている名称や電話番号である請求項1に記
載の音声操作機能付き電子機器。
2. The voice operation according to claim 1, wherein the specific action is to make a telephone call, and the operation items for the user are a name and a telephone number registered in the data registration means. Electronic equipment with functions.
【請求項3】 処理手段が音声により操作事項のガイダ
ンスを使用者に行った後に、使用者がデータ登録手段に
登録されている登録語を音声により入力し、しかも使用
者が音声により電話をかける意思を表す発信語を入力す
ることにより、処理手段は電話をかけるための発信動作
を開始する請求項1に記載の音声操作機能付き電子機
器。
3. After the processing means gives voice guidance to the user on the operation items, the user inputs a registered word registered in the data registration means by voice, and the user makes a telephone call by voice. 2. The electronic device with a voice operation function according to claim 1, wherein the processing means starts a calling operation for making a telephone call by inputting a word indicating intention.
【請求項4】 処理手段が音声により操作事項のガイダ
ンスを使用者に行った後に、使用者がデータ登録手段に
登録されている登録語を音声により入力後、使用者が音
声により電話をかけるのを中止する意思を表す中止語を
入力することにより、処理手段は電話をかけるための以
後の動作を中止する請求項1に記載の音声操作機能付き
電子機器。
4. After the processing means provides the user with guidance on the operation items by voice, the user inputs a registered word registered in the data registration means by voice, and then the user makes a telephone call by voice. The electronic device with a voice operation function according to claim 1, wherein the processing unit stops the subsequent operation for making a call by inputting a stop word indicating an intention to stop the operation.
【請求項5】 処理手段が音声により操作事項のガイダ
ンスを使用者に行った後に、使用者が入力語を音声によ
り入力後、その音声により入力した入力語がデータ登録
手段に登録されている登録語と異なった場合に、使用者
が音声により入力後の内容を訂正する意思を表す訂正語
を入力する請求項1に記載の音声操作機能付き電子機
器。
5. A registration method in which after the processing means provides the user with guidance on operation items by voice, the user inputs an input word by voice, and the input word input by the voice is registered in the data registration means. The electronic device with a voice operation function according to claim 1, wherein when different from the word, the user inputs a corrected word indicating an intention to correct the content after input by voice.
【請求項6】 電話をかけるための携帯電話機を備える
ナビゲーション装置である請求項1に記載の音声操作機
能付き電子機器。
6. The electronic device with a voice operation function according to claim 1, wherein the electronic device is a navigation device including a mobile phone for making a call.
【請求項7】 使用者の音声を音声入力手段に入力する
ことで、音声入力手段に入力された音声信号を音声認識
手段により認識して処理する音声認識処理ステップと、 使用者が音声入力した言葉が、データ登録手段に登録さ
れている特定の行為を含む事項に該当しない場合に、処
理手段が音声により使用者のためにその後の操作事項を
案内するための操作ガイダンスを行うガイダンスステッ
プと、を備えることを特徴とする電子機器における音声
操作方法。
7. A voice recognition processing step of recognizing and processing a voice signal input to the voice input means by voice recognition means by inputting voice of the user to the voice input means; A guidance step in which, when the word does not correspond to a matter including a specific action registered in the data registration means, the processing means performs an operation guidance for guiding a subsequent operation matter for the user by voice; A voice operation method in an electronic device, comprising:
【請求項8】 特定の行為は、電話をかけることであ
り、使用者のための操作事項として、データ登録手段内
に登録されている名称や電話番号である請求項7に記載
の電子機器における音声操作方法。
8. The electronic device according to claim 7, wherein the specific action is to make a telephone call, and the operation items for the user are a name and a telephone number registered in the data registration means. Voice operation method.
【請求項9】 処理手段が音声により操作事項のガイダ
ンスを使用者に行った後に、使用者がデータ登録手段に
登録されている登録語を音声により入力し、しかも使用
者が音声により電話をかける意思を表す発信語を入力す
ることにより、処理手段は電話をかけるための発信動作
を開始する請求項7に記載の電子機器における音声操作
方法。
9. After the processing means gives voice guidance of the operation to the user, the user inputs a registered word registered in the data registration means by voice, and the user makes a telephone call by voice. 8. The voice operation method in an electronic device according to claim 7, wherein the processing means starts a calling operation for making a telephone call by inputting a calling word indicating intention.
【請求項10】 処理手段が音声により操作事項のガイ
ダンスを使用者に行った後に、使用者がデータ登録手段
に登録されている登録語を音声により入力後、使用者が
音声により電話をかけるのを中止する意思を表す中止語
を入力することにより、処理手段は電話をかけるための
以後の動作を中止する請求項7に記載の電子機器におけ
る音声操作方法。
10. After the processing means gives voice guidance of the operation to the user, the user inputs a registered word registered in the data registration means by voice, and then the user makes a telephone call by voice. 8. The voice operation method for an electronic device according to claim 7, wherein the processing means stops a subsequent operation for making a call by inputting a stop word indicating an intention to stop the operation.
【請求項11】 処理手段が音声により操作事項のガイ
ダンスを使用者に行った後に、使用者が入力語を音声に
より入力後、その音声により入力した入力語がデータ登
録手段に登録されている登録語と異なった場合に、使用
者が音声により入力後の内容を訂正する意思を表す訂正
語を入力する請求項7に記載の電子機器における音声操
作方法。
11. A registration method in which, after the processing means gives a guidance of an operation item to the user by voice, the user inputs an input word by voice, and the input word input by the voice is registered in the data registration means. 8. The voice operation method for an electronic device according to claim 7, wherein when the input word is different from the word, the user inputs a correction word indicating an intention to correct the content after input by voice.
【請求項12】 車内に音声操作機能付き電子機器を備
える自動車において、使用者の音声を入力するための音
声入力手段と、 特定の行為を含む事項を登録しているデータ登録手段
と、 音声入力手段に入力された音声信号を認識して処理する
音声認識手段と、 使用者が音声入力した言葉が、データ登録手段に登録さ
れている特定の行為を含む事項に該当しない場合に、音
声により使用者のためにその後の操作事項を案内するた
めの操作ガイダンスを行うための処理手段と、を備える
ことを特徴とする音声操作機能付き電子機器を備える自
動車。
12. A vehicle provided with an electronic device having a voice operation function in a vehicle, a voice input unit for inputting a user's voice, a data registration unit for registering a matter including a specific action, and a voice input. Voice recognition means for recognizing and processing the voice signal input to the means, and using voice when the word input by the user does not correspond to a specific action registered in the data registration means And a processing unit for providing operation guidance for guiding a subsequent operation item for the user.
【請求項13】 電話をかけるための携帯電話機を備え
るナビゲーション装置である請求項12に記載の音声操
作機能付き電子機器を備える自動車。
13. A vehicle equipped with the electronic device having a voice operation function according to claim 12, which is a navigation device provided with a mobile phone for making a telephone call.
JP9307620A 1997-11-10 1997-11-10 Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function Pending JPH11143494A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9307620A JPH11143494A (en) 1997-11-10 1997-11-10 Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9307620A JPH11143494A (en) 1997-11-10 1997-11-10 Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function

Publications (1)

Publication Number Publication Date
JPH11143494A true JPH11143494A (en) 1999-05-28

Family

ID=17971229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9307620A Pending JPH11143494A (en) 1997-11-10 1997-11-10 Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function

Country Status (1)

Country Link
JP (1) JPH11143494A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034292A (en) * 1999-07-26 2001-02-09 Denso Corp Word string recognizing device
JP2002365059A (en) * 2001-06-05 2002-12-18 Denso Corp Navigation apparatus
JP2020008579A (en) * 2018-07-03 2020-01-16 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Navigation method, navigation device, equipment and medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034292A (en) * 1999-07-26 2001-02-09 Denso Corp Word string recognizing device
JP2002365059A (en) * 2001-06-05 2002-12-18 Denso Corp Navigation apparatus
JP2020008579A (en) * 2018-07-03 2020-01-16 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Navigation method, navigation device, equipment and medium

Similar Documents

Publication Publication Date Title
JP2907079B2 (en) Navigation device, navigation method and automobile
EP0875729B1 (en) Map display controlling method and apparatus
JPH09114489A (en) Device and method for speech recognition, device and method for navigation, and automobile
JP2011242594A (en) Information presentation system
JPH09292255A (en) Navigation method and navigation system
JP3474089B2 (en) Navigation device
JP4788561B2 (en) Information communication system
JPH11143492A (en) Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function
JPH11143494A (en) Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function
JPH11142165A (en) Electronic apparatus with speech operation function, speech operation method in electronic apparatus, and automobile equipped with electronic apparatus with speech operation function
JPH11143489A (en) Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function
JP2947143B2 (en) Voice recognition device and navigation device
JPH07129894A (en) Information device for vehicle
JP2002281145A (en) Telephone number input device
JPH11143490A (en) Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function
JP3818352B2 (en) Navigation device and storage medium
JP4113698B2 (en) Input device, program
JP2000122685A (en) Navigation system
JPH09114491A (en) Device and method for speech recognition, device and method for navigation, and automobile
KR100749088B1 (en) Conversation type navigation system and method thereof
JP2877045B2 (en) Voice recognition device, voice recognition method, navigation device, navigation method, and automobile
JPH11231889A (en) Speech recognition device
JPH1062198A (en) Navigation apparatus
JPH11305793A (en) Speech recognizing device
JP2001272245A (en) Navigation device and method, and recording medium in which software for navigation is recorded