JP2010078354A - Apparatus and method for operating onboard instrument - Google Patents
Apparatus and method for operating onboard instrument Download PDFInfo
- Publication number
- JP2010078354A JP2010078354A JP2008244304A JP2008244304A JP2010078354A JP 2010078354 A JP2010078354 A JP 2010078354A JP 2008244304 A JP2008244304 A JP 2008244304A JP 2008244304 A JP2008244304 A JP 2008244304A JP 2010078354 A JP2010078354 A JP 2010078354A
- Authority
- JP
- Japan
- Prior art keywords
- input
- voice
- vehicle
- character
- character string
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、入力操作機能を改善した車載機器の操作装置及び車載機器の操作方法に関する。 The present invention relates to an operation device for an in-vehicle device and an operation method for the in-vehicle device with an improved input operation function.
従来、この種の技術としては、例えば以下に示す文献に記載されたものが知られている(特許文献1参照)。この文献には、経路案内等を行う車両用のナビゲーション装置において、車両が走行しているときには、ナビゲーション装置への手動による入力操作を制限する技術が記載されている。
上記従来のナビゲーション装置においては、車両走行時には手動による入力操作が制限されたり、禁止されていたので、例えば車両を停止させた状態で手動による入力操作を行い、入力操作が完全に終了する前に車両が発進して走行状態になった場合には、それまで行っていた入力操作が未完了の状態で中断され、走行中に入力操作を続行することができなくなり、利用者の利便性を損なうおそれがあった。 In the conventional navigation device described above, manual input operation is restricted or prohibited when the vehicle is traveling. For example, before the input operation is completed, the manual input operation is performed with the vehicle stopped. When the vehicle starts and enters the running state, the input operation that has been performed is interrupted in an incomplete state, and the input operation cannot be continued while the vehicle is running, which impairs the convenience of the user. There was a fear.
そこで、本発明は、上記に鑑みてなされたものであり、その目的とするところは、車両の走行/停止による入力操作の中断を回避して、入力操作機能を改善した車載機器の操作装置ならびに車載機器の操作方法を提供することにある。 Therefore, the present invention has been made in view of the above, and an object of the present invention is to provide an on-vehicle apparatus operating device that has improved input operation functions by avoiding interruption of input operation due to running / stopping of the vehicle, and It is to provide a method for operating an in-vehicle device.
上記目的を達成するために、第1の入力手段で手動操作により文字を入力しているときに、検出手段で自車両が停止状態から走行状態に移行したことが検出されると、第1の入力手段による文字の入力操作を停止して、停止以降の入力操作の続きを第2の入力手段により発話による音声で入力するように利用者に促すことを特徴とする。 In order to achieve the above object, when a character is input manually by the first input means and the detection means detects that the host vehicle has shifted from the stopped state to the traveling state, the first input means The character input operation by the input unit is stopped, and the user is prompted to input the continuation of the input operation after the stop by the voice by the utterance by the second input unit.
本発明によれば、文字の入力操作の停止に引き続いて発話による音声での入力操作を促すようにしたので、走行中に第1の入力手段による文字の入力操作を停止しても、入力操作の中断を回避して入力操作を継続して行うことが可能となり、入力操作性を改善して、利用者の利便性を図ることができる。 According to the present invention, since the voice input operation by speech is urged following the stop of the character input operation, the input operation can be performed even if the character input operation by the first input means is stopped during traveling. Thus, it is possible to continue the input operation while avoiding the interruption, improving the input operability and improving the convenience for the user.
以下、図面を用いて本発明を実施するための最良の実施例を説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS The best embodiment for carrying out the present invention will be described below with reference to the drawings.
図1は本発明の実施例1に係る車載機器の操作装置の構成を示す図である。図1に示す実施例1ならびに実施例1に続いて説明する実施例2は、本発明の車載機器の操作装置を車載のナビゲーション装置に適用した実施例であり、ナビゲーション装置は、音声入力部101、音声認識部102、スイッチ入力情報処理部103、入力制御部104、車両状態判定部105、後続データ推定部106、応答生成部107、画面表示部108ならびに音声出力部109を備えて構成されている。
FIG. 1 is a diagram illustrating a configuration of an operating device for an in-vehicle device according to Embodiment 1 of the present invention. A first embodiment shown in FIG. 1 and a second embodiment described after the first embodiment are embodiments in which the operation device for an in-vehicle device according to the present invention is applied to an in-vehicle navigation device. The navigation device includes a
図1において、音声入力部101は、マイク等で構成され、車両の乗員等の本装置を利用する利用者の発話による音声を集音して入力する。音声認識部102は、認識用文法110を参照して、音声入力部101で取得入力された音声を既存の音声認識技術を用いて認識処理する。認識用文法110は、音声認識する際に使用する文法、単語(辞書)を記述したデータベースであり、このようなデータベースは予め記憶装置に記憶されて用意されている。
In FIG. 1, a
スイッチ入力情報処理部103は、利用者が手動操作により本装置に入力を行う際のインターフェースとなる機能を備えたものであり、例えば触手により文字を入力するタッチパネル等で構成される。スイッチ入力情報処理部103は、入力された文字を認識する認識機能を備えている。
The switch input
入力制御部104は、音声入力部101から入力されて音声認識部102で認識された音声入力と、スイッチ入力情報処理部103で認識された文字入力とを受けて、それぞれ認識された両入力を組み合わせて全体としての入力を認識する。入力制御手段104は、車両の走行/停止状態に基づいて本装置としての入力動作を決定する。
The
車両状態判定部105は、車両に備えられた車速センサ(図示せず)から与えられる車速信号に基づいて、車両が走行状態にあるのかあるいは停車状態にあるかを判定する。判定結果は、入力制御部104に与えられる。後続データ推定部106は、入力方法の変更、すなわち手動操作による入力から発話による入力の変更が生じた場合に、入力制御部104から与えられるそれまでの入力(手動操作入力)済みデータと、経路案内等で用いられる地図DB(データベース)111ならびに単語(辞書)DB(データベース)112のデータベースに基づいて、入力済みデータの内、受理するデータ(有効となるデータ)を決定する。地図DB111は、施設名称や住所といった利用者が入力したデータと地点(場所)の対応付けを行うためのデータベースであり、単語DB112は、地図DB111に登録されたデータを単語単位に分解するために用いる単語(辞書)のデータベースであり、これらのデータベースは予め記憶装置に記憶されて用意されている。
The vehicle
応答生成部107は、入力制御部104で決定された本装置で次に実行する動作に応じて、利用者に提示するガイダンス情報を含む応答情報を生成する。画面表示部108は、例えば液晶等のディスプレイやモニタで構成され、応答生成部107で生成された応答情報の内、画面表示に係わるガイダンス情報を出力する。音声出力部109は、スピーカ等で構成され、応答生成部107で生成された応答情報の内、音声出力に係わるガイダンス情報を出力する。
The
音声入力部101、スイッチ入力情報処理部103、画面表示部108ならびに音声出力部109を除く上記各部は、プログラムに基づいて各種動作処理を制御するコンピュータに必要な、CPU、記憶装置、入出力装置等の資源を備えた例えばマイクロコンピュータ等により実現され、必要に応じて以下に説明する本発明の動作処理を実現できるように設計されたASICやFPGAといった既存の特定用途向けの集積回路を含んで構成するようにしてもよい。
The above-described units other than the
次に、図2のフローチャートを参照してこの実施例1の動作手順を説明する。以下に説明する動作手順は、車両が停車中にスイッチやタッチパネル等を用いて利用者が手動操作により入力を行っているときに、車両が走行し始めた場合に入力操作をそれまでの手動操作から発話による音声入力操作に変更するか否かを選択する際の手順である。 Next, the operation procedure of the first embodiment will be described with reference to the flowchart of FIG. The operation procedure described below is based on the manual operation up to that point when the vehicle starts running while the user is performing manual input using a switch or touch panel while the vehicle is stopped. This is a procedure for selecting whether to change to voice input operation by utterance.
先ず、図2を参照して入力操作の変更を説明する前に、変更前の手動操作により利用者はどのような目的で入力を行っていたのかについて説明する。この手動操作の目的を把握することで、変更後の音声入力による処理能力を向上させている。 First, before describing the change of the input operation with reference to FIG. 2, the purpose of the user performing the input by the manual operation before the change will be described. By grasping the purpose of this manual operation, the processing capability by voice input after the change is improved.
ナビゲーション装置では、手動操作により行われる機能として、目的地や経由地の設定、現在地や目的地周辺の施設等の検索、設定や検索で得られた情報の登録、編集作業といった様々な機能が備えられている。 The navigation device has various functions such as setting destinations and waypoints, searching for facilities near the current location and destination, registering information obtained by setting and searching, and editing operations as functions performed by manual operation. It has been.
例えば、利用者が現在地から目的地までの経路案内を要求する際に目的地を入力する必要があるが、このような動作の手順としては、先ず画面表示部108に表示された例えばメニュー画面から「目的地設定」という項目を選択し、選択後の次のメニュー画面では、例えば以下に示すような選択メニューが表示され、表示された選択メニューの何れかを選択することで、選択されたメニューに対応した入力シーンが特定されて目的地が設定される。目的地を設定入力する選択メニューとしては、例えば電話番号、住所、施設名称を文字で入力する「電話番号」、「住所」、「施設名称」等や、以前に登録された登録地の中から選択して設定する「登録地」、例えばコンビニやガソリンスタンドといった周辺施設等を検索した検索結果から選択して設定する「周辺施設検索」、過去に検索した検索履歴の中から選択して設定する「検索履歴」等である。
For example, the user needs to input a destination when requesting route guidance from the current location to the destination. As a procedure for such an operation, first, for example, from a menu screen displayed on the
このように、入力操作を行うにあたって、例えば目的地の住所を文字により入力して目的地を設定するといった、入力シーンを特定することで、特定された入力シーンに応じて予め用意された認識用文法を用いることで認識処理の効率を向上させることが可能となる。 As described above, when performing an input operation, for example, by inputting an address of a destination in characters and setting the destination, the input scene is specified, so that a recognition image prepared in advance according to the specified input scene is used. The use of grammar can improve the efficiency of recognition processing.
入力シーンは、入力シーンを特定するシーン情報を取得し、取得したシーン情報に基づいて特定される。シーン情報は、ナビゲーション装置が備えている機能の何れの機能を行っているかを示すもので、入力シーンごとに個別のIDを割り付け、このIDにより入力シーンがどのような操作のどの過程であるかを一意に指定することで入力シーンを識別して特定する。 The input scene is specified based on the acquired scene information by acquiring scene information for specifying the input scene. The scene information indicates which one of the functions provided in the navigation device is being performed. An individual ID is assigned to each input scene, and the process of what operation the input scene is based on this ID. Is uniquely identified to identify and identify the input scene.
このように特定された入力シーンにおいて、ナビゲーション装置は、車両状態判定部105により車両が走行状態にあるか否かを判定する(ステップS101)。判定の結果、車両が走行状態にないと判定された場合には、入力操作の変更を提示することなくそれまでの手動による入力操作が継続される(ステップS102)一方、走行状態にあると判定された場合には、画面表示部108に確認画面を表示して(ステップS103)、手動による入力操作を停止して、手動による入力操作に代えて利用者の発話による音声入力により入力操作を継続するか否かを確認する(ステップS104)。確認画面としては、例えば図3(a)に示すようにタッチパネル式で文字を入力する際のメニュー画面31に重畳して、例えば「続きは音声入力でしますか?」といった確認メッセージ32(ポップアップ画面)を表示し、「はい」または「いいえ」の選択メニューで利用者が選択できようにする。 In the input scene specified as described above, the navigation apparatus determines whether the vehicle is in a traveling state by the vehicle state determination unit 105 (step S101). As a result of the determination, if it is determined that the vehicle is not in the running state, the manual input operation so far is continued without presenting the change in the input operation (step S102), while it is determined that the vehicle is in the running state. If it is, the confirmation screen is displayed on the screen display unit 108 (step S103), the manual input operation is stopped, and the input operation is continued by voice input by the user's utterance instead of the manual input operation. It is confirmed whether or not to perform (step S104). As the confirmation screen, for example, as shown in FIG. 3A, a confirmation message 32 (pop-up is displayed, for example, "Do you want to continue voice input?" Screen) and allow the user to select from the “Yes” or “No” selection menu.
このような確認において、選択メニューで「いいえ」が選択されたり、何れも選択されずに予め設定された規定の時間が経過した場合には、入力操作の継続の意志がないものとみなして、確認メッセージ32を画面から消去し(ステップS105)、走行によって入力操作が中断されることを利用者へ伝え、手動による文字入力を受け付けない状態とする。
In such confirmation, if “No” is selected in the selection menu, or if a predetermined time has passed without any selection, it is considered that there is no intention to continue the input operation, The
一方、選択メニューで「はい」が選択されて入力操作の継続意志が確認された場合には、続いて音声入力で入力する情報の範囲を利用者が選択する(ステップS106)。選択方法としては、例えば図3(b)に示すように、メニュー画面31に表示された選択メニュー33a,33b,33cで利用者が選択できるようにする。
On the other hand, when “Yes” is selected from the selection menu and the intention to continue the input operation is confirmed, the user subsequently selects a range of information to be input by voice input (step S106). As a selection method, for example, as shown in FIG. 3B, the user can select a
この選択において、利用者がそれまでに文字入力により入力した入力済みのデータに対して、音声発話での言いやすさを考慮した受理範囲の設定を要求(図3(b)に示す選択メニュー33aを選択)した場合には、入力済みデータを確認した後、音声入力の開始時に本装置が受理して有効となっている入力範囲を決定する(ステップS107)。
In this selection, a request is made to set an acceptance range in consideration of the ease of speech utterance with respect to already input data that the user has input by character input (
入力シーンとして、例えば目的地を設定するにあたって施設の名称を文字により手動で入力しているような場合を想定すると、例えば「とうきょうと」という文字を入力したところで、車両が発進して走行状態になると、この入力シーンに応じた認識用の文法を参照して入力された文字列の認識処理が開始される。この認識処理において、「とうきょう」という文字列が「東京」と認識されてるが、最後の「と」という文字は、例えば都立大学の「都」を意味する文字であるのか、あるいは「トラベル観光」などの「ト」を意味する文字であるのかを認識することはできない。 As an input scene, for example, when setting the destination, assuming that the name of the facility is manually input by characters, for example, when the characters “Tokyo” are input, the vehicle starts and enters the running state. Then, the recognition process of the character string input with reference to the recognition grammar corresponding to the input scene is started. In this recognition process, the character string “Tokyo” is recognized as “Tokyo”, but the last character “to” is, for example, a character meaning “city” of Tokyo Metropolitan University, or “travel tourism”. It is not possible to recognize whether it is a character that means “t”.
このような場合に、手動により入力された「とうきょうと」という文字に続いて、音声により「とうきょうと」に続く文字を入力すると、上記前者の場合は「りつだいがく」と発話する必要があり、後者の場合には「らべるかんこう」と発話する必要がある。このような発話は利用者にとって発話し難いものであり、一文字多くても「とりつだいがく」や「とらべるかんこう」と発話した方が言いやすくなる。 In such a case, if the characters following “Tokyo” are input by voice after the characters “Tokyo” entered manually, in the case of the above, it is necessary to say “Ritsugiga” In the latter case, it is necessary to say “Label Kankan”. Such an utterance is difficult for the user to speak, and even if there is more than one character, it is easier to say if it says “Toridaigaigaku” or “Tobaru Kankou”.
したがって、音声発話による言いやすさを考慮した場合には、入力された文字列について、単語として認識できる文字列「東京」と単語として認識できない文字列「と」とを区別し、単語として認識できない文字列「と」も再度音声発話により入力する。したがって、このような場合には、「とうきょうと」という入力済みデータに対して、「とうきょう」という文字列を受理範囲として有効な入力範囲とし、「と」という入力済みデータに対しては不受理として無効な入力とし、再度発話による音声入力を利用者に促すようにする。 Therefore, in consideration of the ease of speaking by voice utterance, the input character string is distinguished from the character string “Tokyo” that can be recognized as a word and the character string “and” that cannot be recognized as a word, and cannot be recognized as a word. The character string “to” is also input by voice utterance again. Therefore, in such a case, for the input data “Tokyo”, the character string “Tokyo” is the effective input range, and the input data “to” is not accepted. The input is invalid, and the user is prompted to input voice again by speaking.
次に、上述したようにして決定した入力受理範囲に基づいて、音声認識で用いる認識用文法110を読み込む(ステップS108)。続いて、認識用文法110の読み込みが完了して発話が可能な状態になると、利用者に後続情報の入力を促すためのガイダンスを出力する(ステップS109)。その後、通常の音声入力操作と同様に利用者の発話を検出すると、先に読み込んだ認識用文法110に基づいて音声認識処理を行う(ステップS110)。
Next, the
一方、先のステップS106で利用者が手動操作での入力範囲すべてを受理範囲として引き継ぎたい(図3(b)に示す選択メニュー33cを選択)とした場合には、後続の入力については、連続音節入力の文法に基づいて音声により入力された発話内容を認識するために、連続音節入力用の文法に対応した認識用文法110を読み込む(ステップS111)。その後、先のステップS109、ステップS110と同様の処理を実行して、音声認識処理を行う。
On the other hand, when the user wants to take over the entire manual input range as the acceptance range in the previous step S106 (selecting the selection menu 33c shown in FIG. 3B), the subsequent input is continuously set. In order to recognize the utterance content input by voice based on the syllable input grammar, the
一方、先のステップS106で利用者が入力済みデータの移行を希望しない場合は、入力済みデータをすべて破棄した上で、文字による入力操作を行っていた入力シーンに応じた認識用文法110を読み込む(ステップS112)。その後、先のステップS109、ステップS110と同様の処理を実行して、音声認識処理を行う。
On the other hand, if the user does not wish to transfer the input data in the previous step S106, the
次に、図4に示すフローチャートを参照して、各入力シーンに対応して用意された認識用文法の選別手順について説明する。 Next, a recognition grammar selection procedure prepared for each input scene will be described with reference to the flowchart shown in FIG.
先にも触れたように、入力シーンはシーン情報に基づいて識別されるので、先ず入力操作が変更になった際の入力シーン毎に割り付けられたシーン情報のIDを取得する(ステップS401)。その後、取得したIDに基づいて入力シーンが特定され、特定された入力シーンにおいて、以降に続く後続の機能範囲を検索して確定する(ステップS402)。 As mentioned earlier, since the input scene is identified based on the scene information, first, the ID of the scene information assigned to each input scene when the input operation is changed is acquired (step S401). Thereafter, an input scene is identified based on the acquired ID, and subsequent functional ranges subsequent to the identified input scene are searched and determined (step S402).
入力シーンにおける機能範囲としては、例えば目的地を入力するといった入力シーンでは、図5に示すように、電話番号検索、住所検索、名称検索、検索履歴、登録地検索、周辺施設検索、周辺施設検索のコンビニ、周辺施設検索のガソリンスタンドといった機能範囲が挙げられる。現在の入力シーンに後続する確定した機能範囲の中から選択された、例えば図5に示すような機能の名称に対応して予め用意された認識用文法110を選択して読み込む(ステップS403)。
As the functional range in the input scene, for example, in an input scene in which a destination is input, as shown in FIG. 5, a telephone number search, an address search, a name search, a search history, a registered location search, a peripheral facility search, and a peripheral facility search Range of functions such as a convenience store and a gas station for searching nearby facilities. The
このように、上記実施例1では、ナビゲーション装置に対して、車両が停止状態から走行状態に移行した際に、手動による文字入力に代えて、利用者の発話による音声で入力の継続を促すことで、入力操作の中断を回避することが可能となる。これにより、利用者は入力を必要としたときに間をおかず入力を完結することができる。一方、従来のように入力操作が中断された場合には、中断後入力操作を再開した場合に、入力の必要性がなくなりそれまで入力されたデータをキャンセルしたり、入力が中断される前の入力済みのデータを確認するといった手間が生じるおそれがあるが、上記実施例1ではそのような手間を回避することができる。 As described above, in the first embodiment, when the vehicle shifts from the stopped state to the traveling state, the navigation device is urged to continue the input by the voice of the user's utterance instead of the manual character input. Thus, it is possible to avoid interruption of the input operation. As a result, the user can complete the input without delay when the user needs the input. On the other hand, when the input operation is interrupted as in the past, when the input operation is resumed after the interruption, there is no need for the input and the data input until then is canceled or the input is interrupted. Although there is a risk of checking the input data, the first embodiment can avoid such a trouble.
また、発話により入力操作を継続する場合に、手動により入力された文字列の内、認識の対象として受理する受理範囲を利用者が選択できるようにしたので、利用者の利便性を考慮して、利用者が発話による音声入力を行うことが可能となる。 In addition, when the input operation is continued by utterance, the user can select the acceptance range to be accepted as the recognition target among the manually input character strings. The user can input voice by speaking.
発話による音声入力の際に、単語境界に基づいて受理範囲を決定することで、利用者が発話しやすくなり、入力された音声の認識率を高めることができる。 When the voice is input by utterance, the acceptance range is determined based on the word boundary, so that the user can easily speak and the recognition rate of the input voice can be increased.
入力シーンを特定することで、入力シーンに応じて最適な認識用文法を予め用意して参照することが可能となるので、音声認識率や認識速度を向上させることができる。 By specifying the input scene, it becomes possible to prepare and refer to an optimal recognition grammar according to the input scene in advance, so that the speech recognition rate and the recognition speed can be improved.
さらに、上記音声での入力の継続を促す際に、利用者に継続の有無を確認して利用者が選択できるようにすることで、利用者の利便性を図ることができる。 Furthermore, when prompting continuation of the voice input, the user can be selected by confirming whether or not the continuation is continued, and thus the convenience of the user can be achieved.
図6は本発明の実施例2に係るナビゲーション装置における動作処理の手順を示すフローチャートであり、実施例1の図2におけるステップS107の処理手順を示すものである。 FIG. 6 is a flowchart showing a procedure of operation processing in the navigation apparatus according to the second embodiment of the present invention, and shows a processing procedure of step S107 in FIG. 2 of the first embodiment.
図2において、先の図2に示す処理の場合と同様に、手動による入力操作により地点名称の検索やオーディオの楽曲検索など50音入力を行っているときに、手動操作から音声発話による入力操作に変更され、変更前の手動操作による入力の有効範囲を設定するにあたって、先ず入力済み文字列を検索対象文字列にセットする(ステップS601)。続いて、検索対象文字列の文字数が1文字以上あるか否かを判別する(ステップS602)。判別の結果、1文字しかない場合は、入力済み情報を破棄して無効とし、変更前の入力はなかったものとして、再度音声発話によりすべての入力を利用者に促す(ステップS603)。 In FIG. 2, as in the case of the process shown in FIG. 2, when a 50-sound input such as a search for a spot name or an audio music search is performed by a manual input operation, an input operation by voice utterance is performed from the manual operation. In setting the effective range of the input by the manual operation before the change, the input character string is first set as the search target character string (step S601). Subsequently, it is determined whether or not the number of characters in the search target character string is one or more (step S602). If there is only one character as a result of the discrimination, the input information is discarded and invalidated, and it is assumed that there was no input before the change, and the user is prompted again for all inputs by voice utterance (step S603).
一方、2文字以上ある場合には、検索対象の文字列に対して、文字列全体が単語DB112に登録されている1つ以上の単語から構成される単語列になっているか否かを検索する(ステップS604)。検索の結果、一致する単語列がない場合は、検索対象文字列の最後の1文字を削除した後(ステップS605)、再度先のステップS604で示す処理を実行する。このような処理が繰り返されて、一致する単語列がある場合には、検索対象文字列にさらに部分単語列があるか否かを検索する(ステップS606)。
On the other hand, if there are two or more characters, it is searched whether the entire character string is a word string composed of one or more words registered in the
検索の結果、部分単語列が含まれていない場合は、続いて検索対象文字列全体が他の単語の部分単語列になっているか否かを検索する(ステップS607)。検索の結果、他の単語の部分単語列である場合には、入力のすべてを受理してしまうと、残りの部分のみでの発話が困難になるので、入力済みデータは一切受理せずに破棄して無効として、再度音声発話によりすべての入力を利用者に促す(ステップS603)。 If the partial word string is not included as a result of the search, it is subsequently searched whether or not the entire search target character string is a partial word string of another word (step S607). If it is a partial word string of other words as a result of the search, if all of the input is accepted, it will be difficult to utter only the remaining part, so the entered data will not be accepted and discarded Then, it is invalidated and the user is prompted again for all inputs by voice utterance (step S603).
一方、他の単語の部分単語列でない場合には、検索対象文字列の範囲で入力を受理し、入力されたすべてのデータを有効とする(ステップS608)。 On the other hand, if it is not a partial word string of another word, the input is accepted within the range of the search target character string, and all the input data are validated (step S608).
先のステップS606で示す処理における検索の結果、部分単語列が含まれて複数の単語列で構成される場合には、続いて最後の単語列が部分単語列になっているか否かを判別する(ステップS609)。判別の結果、部分単語列でない場合は、語尾の部分単語列になっていない範囲を破棄して無効とし、残りの部分を受理範囲として有効とし入力を確定する(ステップS610)。 If the result of the search in the previous step S606 is that the partial word string is included and is composed of a plurality of word strings, it is subsequently determined whether or not the last word string is a partial word string. (Step S609). As a result of the determination, if it is not a partial word string, the range that is not a partial word string at the end of the word is discarded and invalidated, and the remaining part is validated as an accepted range, and the input is confirmed (step S610).
一方、語尾の単語列が部分単語列である場合には、続いて単語DB112に語尾部分を含む単語があるか否かを検索する(ステップS611)。検索の結果、語尾部を含む単語が単語DB112に登録されている場合は、語尾部以外の入力を受理範囲とする(ステップS612)。一方、単語DB112に該当する単語が登録されていない場合には、入力されたすべての文字列を受理範囲として有効とし入力を確定する(ステップS613)。
On the other hand, if the word string at the end is a partial word string, then it is searched whether there is a word including the end part in the word DB 112 (step S611). As a result of the search, if a word including the ending part is registered in the
このように、上記実施例2においては、入力操作を手動入力から音声入力へ変更して、音声入力で続きの情報の入力を行うときに、発話のしやすさを考慮して、手動での入力済み情報から受理範囲を決定する。すなわち、音声発話の場合には、発話は単語単位で行われることが基本となるため、予め用意されたデータベースを参照することで入力文字列が単語境界となるか否かを判別し、単語境界にしかなりえない文字列の範囲のみを入力の受理範囲としている。 As described above, in the second embodiment, when the input operation is changed from the manual input to the voice input and the subsequent information is input by the voice input, the manual operation is performed in consideration of the ease of speaking. The acceptance range is determined from the entered information. That is, in the case of speech utterance, since utterance is basically performed in units of words, it is determined whether or not the input character string becomes a word boundary by referring to a database prepared in advance. Only the range of the character string that is quite impossible is set as the acceptable range of input.
これにより、入力される音声が音節単位から単語単位へより厳しい制約となることによって、音声入力される情報の認識精度が向上する。音節単位入力の場合には、不要なポーズ長が生じたり、イントネーションの乱れから、音声認識ソフトウェアでの正しい発話区間検出が困難となり、音声入力の途中で音声認識が終了してしまう、なかなか発話を検出してくれない、発話の最初の方(語頭部)が欠落して利用者の発話とは異なった入力結果になってしまう、といった不具合が生じるおそれがあったが、上記実施例2では単語単位の入力にすることによって、音声入力における発話検出の不良を低減することが可能となる。これにより、発話により入力された音声の認識率を向上することが可能となる。 As a result, the input speech is more severely restricted from syllable units to word units, thereby improving the recognition accuracy of information input by speech. In the case of syllable unit input, it is difficult to detect the correct utterance section with voice recognition software due to unnecessary pause length or disturbance of intonation, and speech recognition will end in the middle of voice input. There is a risk that the first utterance (the head of the utterance) that is not detected is lost, resulting in an input result different from the user's utterance. By using word-by-word input, it is possible to reduce utterance detection defects in speech input. Thereby, it becomes possible to improve the recognition rate of the voice input by the utterance.
なお、本発明の車載機器の操作装置ならびに車載機器の操作方法は、上記各実施例1,2で説明したナビゲーション装置ならびにその操作方法に限ることはなく、例えば車載オーディオ装置において楽曲の曲目を選択する操作方法に適用することが可能であり、同様の効果を得ることができる。 In addition, the operation device of the in-vehicle device and the operation method of the in-vehicle device of the present invention are not limited to the navigation device and the operation method described in the first and second embodiments. For example, in the in-vehicle audio device, the music piece is selected. It is possible to apply to the operation method which performs, and the same effect can be acquired.
なお、上記実施例の構成要件と、特許請求の範囲における構成要件との対応関係は、音声入力部101が第2の入力手段を、音声認識部102、認識用文法110が第2の認識手段を、スイッチ入力情報処理部103が第1の入力手段、第1の認識手段を、車両状態判定部105が検出手段を、入力制御部104が第3の認識手段を、入力制御部104、後続データ推定部106、応答生成部107、画面表示部108、音声出力部109、地図DB111、単語DB112が入力変更手段を構成する。
It should be noted that the correspondence between the configuration requirements of the above-described embodiment and the configuration requirements in the claims is as follows: the
101…音声入力部
102…音声認識部
103…スイッチ入力情報処理部
104…入力制御部
105…車両状態判定部
106…後続データ推定部
107…応答生成部
108…画面表示部
109…音声出力部
110…認識用文法
111…地図DB
112…単語DB
DESCRIPTION OF
112 ... Word DB
Claims (5)
利用者の発話による音声を入力する第2の入力手段と、
前記第1の入力手段で入力された文字を認識する第1の認識手段と、
前記第2の入力手段で入力された音声を認識する第2の認識手段と、
前記第1の認識手段で認識された文字と、前記第2の認識手段で認識された音声とを組み合わせた入力を認識する第3の認識手段と、
自車両の走行状態を検出する検出手段と、
前記検出手段で自車両が停止状態から走行状態に移行したことが検出されると、前記第1の入力手段による入力操作を停止して、停止以降の入力操作を前記第2の入力手段により行うよう利用者に促す入力変更手段と
を有することを特徴とする車載機器の操作装置。 First input means for inputting characters by manual operation;
A second input means for inputting a voice uttered by the user;
First recognition means for recognizing a character input by the first input means;
Second recognition means for recognizing the voice input by the second input means;
Third recognition means for recognizing an input combining a character recognized by the first recognition means and a voice recognized by the second recognition means;
Detecting means for detecting the traveling state of the host vehicle;
When the detection means detects that the host vehicle has shifted from the stopped state to the running state, the input operation by the first input means is stopped, and the input operation after the stop is performed by the second input means. An in-vehicle device operating device, comprising: an input changing means for prompting the user.
ことを特徴とする請求項1に記載の車載機器の操作装置。 The input changing unit receives a character string input before the input operation of the first input unit is stopped, determines a receiving range of a character string to be recognized, and determines the received receiving range. The in-vehicle device operating device according to claim 1, wherein character input input after the character string is not accepted, and the input that is not accepted is urged to be input by speech.
ことを特徴とする請求項2に記載の車載機器の操作装置。 The in-vehicle device operating device according to claim 2, wherein the input changing means determines the accepting range by allowing a user to select a character range input by the first input means.
ことを特徴とする請求項2に記載の車載機器の操作装置。 The input changing means has a character string recognized as a word as a boundary, a character string recognized as a word as an acceptance range, and a character string not recognized as a word as an unacceptable range with respect to the tail of the input character string The operating device for on-vehicle equipment according to claim 2, wherein:
ことを特徴とする車載機器の操作方法。 Input characters by manual operation, detect the running state of the host vehicle, and when the host vehicle is moving from the stopped state to the running state when entering characters, stop the character input operation, A method for operating an in-vehicle device, characterized by prompting a user to input a continuation of an input operation after the stop by voice by speech.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008244304A JP5217838B2 (en) | 2008-09-24 | 2008-09-24 | In-vehicle device operating device and in-vehicle device operating method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008244304A JP5217838B2 (en) | 2008-09-24 | 2008-09-24 | In-vehicle device operating device and in-vehicle device operating method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010078354A true JP2010078354A (en) | 2010-04-08 |
JP5217838B2 JP5217838B2 (en) | 2013-06-19 |
Family
ID=42208994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008244304A Active JP5217838B2 (en) | 2008-09-24 | 2008-09-24 | In-vehicle device operating device and in-vehicle device operating method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5217838B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013256189A (en) * | 2012-06-12 | 2013-12-26 | Denso Corp | In-vehicle terminal |
JP2014126922A (en) * | 2012-12-25 | 2014-07-07 | Mitsubishi Electric Corp | In-vehicle information device, control device and control method |
JP2014197352A (en) * | 2013-03-29 | 2014-10-16 | 富士重工業株式会社 | Information display system for vehicle |
JP2016142614A (en) * | 2015-02-02 | 2016-08-08 | 株式会社デンソー | Onboard device |
CN108376057A (en) * | 2017-02-01 | 2018-08-07 | 丰田自动车株式会社 | The computer readable storage medium of board information terminal and storage information search program |
JP2019188840A (en) * | 2018-04-18 | 2019-10-31 | 日産自動車株式会社 | Operation support device of apparatus and operation support method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001034607A (en) * | 1999-07-08 | 2001-02-09 | Microsoft Corp | Front end processor and its processing method and recording medium |
JP2002344574A (en) * | 2001-05-15 | 2002-11-29 | Aruze Corp | Mobile communication equipment |
JP2005121563A (en) * | 2003-10-20 | 2005-05-12 | Alpine Electronics Inc | On-vehicle navigation system, and input method to same |
-
2008
- 2008-09-24 JP JP2008244304A patent/JP5217838B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001034607A (en) * | 1999-07-08 | 2001-02-09 | Microsoft Corp | Front end processor and its processing method and recording medium |
JP2002344574A (en) * | 2001-05-15 | 2002-11-29 | Aruze Corp | Mobile communication equipment |
JP2005121563A (en) * | 2003-10-20 | 2005-05-12 | Alpine Electronics Inc | On-vehicle navigation system, and input method to same |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013256189A (en) * | 2012-06-12 | 2013-12-26 | Denso Corp | In-vehicle terminal |
JP2014126922A (en) * | 2012-12-25 | 2014-07-07 | Mitsubishi Electric Corp | In-vehicle information device, control device and control method |
JP2014197352A (en) * | 2013-03-29 | 2014-10-16 | 富士重工業株式会社 | Information display system for vehicle |
JP2016142614A (en) * | 2015-02-02 | 2016-08-08 | 株式会社デンソー | Onboard device |
CN108376057A (en) * | 2017-02-01 | 2018-08-07 | 丰田自动车株式会社 | The computer readable storage medium of board information terminal and storage information search program |
JP2019188840A (en) * | 2018-04-18 | 2019-10-31 | 日産自動車株式会社 | Operation support device of apparatus and operation support method |
JP7187812B2 (en) | 2018-04-18 | 2022-12-13 | 日産自動車株式会社 | Equipment operation support device and operation support method |
Also Published As
Publication number | Publication date |
---|---|
JP5217838B2 (en) | 2013-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6604073B2 (en) | Voice recognition apparatus | |
US8200429B2 (en) | Vehicle navigation apparatus | |
JP5217838B2 (en) | In-vehicle device operating device and in-vehicle device operating method | |
US7310602B2 (en) | Navigation apparatus | |
JP4466379B2 (en) | In-vehicle speech recognition device | |
JP2004037998A (en) | Vocal controller | |
JP4997796B2 (en) | Voice recognition device and navigation system | |
JP2008196998A (en) | Navigation apparatus | |
JP2010039099A (en) | Speech recognition and in-vehicle device | |
JP5218459B2 (en) | Vehicle information terminal and program | |
JP2002350163A (en) | Navigation device | |
JP2007286358A (en) | Navigation device and its address input method | |
US11164578B2 (en) | Voice recognition apparatus, voice recognition method, and non-transitory computer-readable storage medium storing program | |
JP2000338993A (en) | Voice recognition device and navigation system using this device | |
JP5455355B2 (en) | Speech recognition apparatus and program | |
JP2009031065A (en) | System and method for informational guidance for vehicle, and computer program | |
WO2006137246A1 (en) | Speech recognizing device, speech recognizing method, speech recognizing program, and recording medium | |
JP2005275228A (en) | Navigation system | |
JP2007101892A (en) | Speech recognition device | |
JP3624698B2 (en) | Voice recognition device, navigation system and vending system using the device | |
JP2007057805A (en) | Information processing apparatus for vehicle | |
JP4453377B2 (en) | Voice recognition device, program, and navigation device | |
JP3296783B2 (en) | In-vehicle navigation device and voice recognition method | |
WO2019124142A1 (en) | Navigation device, navigation method, and computer program | |
JP2005084589A (en) | Voice recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110829 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121120 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130218 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160315 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5217838 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |