JP2010078354A - Apparatus and method for operating onboard instrument - Google Patents

Apparatus and method for operating onboard instrument Download PDF

Info

Publication number
JP2010078354A
JP2010078354A JP2008244304A JP2008244304A JP2010078354A JP 2010078354 A JP2010078354 A JP 2010078354A JP 2008244304 A JP2008244304 A JP 2008244304A JP 2008244304 A JP2008244304 A JP 2008244304A JP 2010078354 A JP2010078354 A JP 2010078354A
Authority
JP
Japan
Prior art keywords
input
voice
vehicle
character
character string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008244304A
Other languages
Japanese (ja)
Other versions
JP5217838B2 (en
Inventor
Kengo Suzuki
堅悟 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2008244304A priority Critical patent/JP5217838B2/en
Publication of JP2010078354A publication Critical patent/JP2010078354A/en
Application granted granted Critical
Publication of JP5217838B2 publication Critical patent/JP5217838B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent an input operation from being interrupted when a vehicle shifts from a stop state to a traveling state. <P>SOLUTION: An operating apparatus of an onboard instrument includes: a switch input information processing part 103 for inputting a character through a manual operation and recognizing the input character; a voice input part 101 for inputting a voice by the utterance of a user; a voice recognition part 102 for recognizing the voice input by the voice input part 101; and a vehicle state determination part 105 for determining the traveling state of one's own vehicle. When it is determined that the vehicle has shifted from a stop state to a traveling state by the vehicle state determination part 105, the input operation by the switch input information processing part 103 stops to allow the voice input part 101 to perform an input operation after the stop. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、入力操作機能を改善した車載機器の操作装置及び車載機器の操作方法に関する。   The present invention relates to an operation device for an in-vehicle device and an operation method for the in-vehicle device with an improved input operation function.

従来、この種の技術としては、例えば以下に示す文献に記載されたものが知られている(特許文献1参照)。この文献には、経路案内等を行う車両用のナビゲーション装置において、車両が走行しているときには、ナビゲーション装置への手動による入力操作を制限する技術が記載されている。
特許第3748042号
Conventionally, as this type of technology, for example, those described in the following documents are known (see Patent Document 1). This document describes a technique for restricting a manual input operation to a navigation device when the vehicle is running in a vehicle navigation device that performs route guidance or the like.
Japanese Patent No. 3748042

上記従来のナビゲーション装置においては、車両走行時には手動による入力操作が制限されたり、禁止されていたので、例えば車両を停止させた状態で手動による入力操作を行い、入力操作が完全に終了する前に車両が発進して走行状態になった場合には、それまで行っていた入力操作が未完了の状態で中断され、走行中に入力操作を続行することができなくなり、利用者の利便性を損なうおそれがあった。   In the conventional navigation device described above, manual input operation is restricted or prohibited when the vehicle is traveling. For example, before the input operation is completed, the manual input operation is performed with the vehicle stopped. When the vehicle starts and enters the running state, the input operation that has been performed is interrupted in an incomplete state, and the input operation cannot be continued while the vehicle is running, which impairs the convenience of the user. There was a fear.

そこで、本発明は、上記に鑑みてなされたものであり、その目的とするところは、車両の走行/停止による入力操作の中断を回避して、入力操作機能を改善した車載機器の操作装置ならびに車載機器の操作方法を提供することにある。   Therefore, the present invention has been made in view of the above, and an object of the present invention is to provide an on-vehicle apparatus operating device that has improved input operation functions by avoiding interruption of input operation due to running / stopping of the vehicle, and It is to provide a method for operating an in-vehicle device.

上記目的を達成するために、第1の入力手段で手動操作により文字を入力しているときに、検出手段で自車両が停止状態から走行状態に移行したことが検出されると、第1の入力手段による文字の入力操作を停止して、停止以降の入力操作の続きを第2の入力手段により発話による音声で入力するように利用者に促すことを特徴とする。   In order to achieve the above object, when a character is input manually by the first input means and the detection means detects that the host vehicle has shifted from the stopped state to the traveling state, the first input means The character input operation by the input unit is stopped, and the user is prompted to input the continuation of the input operation after the stop by the voice by the utterance by the second input unit.

本発明によれば、文字の入力操作の停止に引き続いて発話による音声での入力操作を促すようにしたので、走行中に第1の入力手段による文字の入力操作を停止しても、入力操作の中断を回避して入力操作を継続して行うことが可能となり、入力操作性を改善して、利用者の利便性を図ることができる。   According to the present invention, since the voice input operation by speech is urged following the stop of the character input operation, the input operation can be performed even if the character input operation by the first input means is stopped during traveling. Thus, it is possible to continue the input operation while avoiding the interruption, improving the input operability and improving the convenience for the user.

以下、図面を用いて本発明を実施するための最良の実施例を説明する。   DESCRIPTION OF THE PREFERRED EMBODIMENTS The best embodiment for carrying out the present invention will be described below with reference to the drawings.

図1は本発明の実施例1に係る車載機器の操作装置の構成を示す図である。図1に示す実施例1ならびに実施例1に続いて説明する実施例2は、本発明の車載機器の操作装置を車載のナビゲーション装置に適用した実施例であり、ナビゲーション装置は、音声入力部101、音声認識部102、スイッチ入力情報処理部103、入力制御部104、車両状態判定部105、後続データ推定部106、応答生成部107、画面表示部108ならびに音声出力部109を備えて構成されている。   FIG. 1 is a diagram illustrating a configuration of an operating device for an in-vehicle device according to Embodiment 1 of the present invention. A first embodiment shown in FIG. 1 and a second embodiment described after the first embodiment are embodiments in which the operation device for an in-vehicle device according to the present invention is applied to an in-vehicle navigation device. The navigation device includes a voice input unit 101. A voice recognition unit 102, a switch input information processing unit 103, an input control unit 104, a vehicle state determination unit 105, a subsequent data estimation unit 106, a response generation unit 107, a screen display unit 108, and a voice output unit 109. Yes.

図1において、音声入力部101は、マイク等で構成され、車両の乗員等の本装置を利用する利用者の発話による音声を集音して入力する。音声認識部102は、認識用文法110を参照して、音声入力部101で取得入力された音声を既存の音声認識技術を用いて認識処理する。認識用文法110は、音声認識する際に使用する文法、単語(辞書)を記述したデータベースであり、このようなデータベースは予め記憶装置に記憶されて用意されている。   In FIG. 1, a voice input unit 101 is composed of a microphone or the like, and collects and inputs a voice generated by a user who uses this apparatus such as a vehicle occupant. The speech recognition unit 102 refers to the recognition grammar 110 and recognizes the speech acquired and input by the speech input unit 101 using an existing speech recognition technology. The recognition grammar 110 is a database in which grammar and words (dictionaries) used for speech recognition are described. Such a database is stored in advance in a storage device.

スイッチ入力情報処理部103は、利用者が手動操作により本装置に入力を行う際のインターフェースとなる機能を備えたものであり、例えば触手により文字を入力するタッチパネル等で構成される。スイッチ入力情報処理部103は、入力された文字を認識する認識機能を備えている。   The switch input information processing unit 103 has a function as an interface when a user inputs to the apparatus by a manual operation, and includes, for example, a touch panel for inputting characters with a tentacle. The switch input information processing unit 103 has a recognition function for recognizing input characters.

入力制御部104は、音声入力部101から入力されて音声認識部102で認識された音声入力と、スイッチ入力情報処理部103で認識された文字入力とを受けて、それぞれ認識された両入力を組み合わせて全体としての入力を認識する。入力制御手段104は、車両の走行/停止状態に基づいて本装置としての入力動作を決定する。   The input control unit 104 receives the voice input input from the voice input unit 101 and recognized by the voice recognition unit 102 and the character input recognized by the switch input information processing unit 103 and receives both recognized inputs. Combine and recognize the input as a whole. The input control means 104 determines an input operation as the present apparatus based on the running / stopped state of the vehicle.

車両状態判定部105は、車両に備えられた車速センサ(図示せず)から与えられる車速信号に基づいて、車両が走行状態にあるのかあるいは停車状態にあるかを判定する。判定結果は、入力制御部104に与えられる。後続データ推定部106は、入力方法の変更、すなわち手動操作による入力から発話による入力の変更が生じた場合に、入力制御部104から与えられるそれまでの入力(手動操作入力)済みデータと、経路案内等で用いられる地図DB(データベース)111ならびに単語(辞書)DB(データベース)112のデータベースに基づいて、入力済みデータの内、受理するデータ(有効となるデータ)を決定する。地図DB111は、施設名称や住所といった利用者が入力したデータと地点(場所)の対応付けを行うためのデータベースであり、単語DB112は、地図DB111に登録されたデータを単語単位に分解するために用いる単語(辞書)のデータベースであり、これらのデータベースは予め記憶装置に記憶されて用意されている。   The vehicle state determination unit 105 determines whether the vehicle is running or stopped based on a vehicle speed signal provided from a vehicle speed sensor (not shown) provided in the vehicle. The determination result is given to the input control unit 104. The subsequent data estimation unit 106, when the input method is changed, that is, when the input by the utterance is changed from the input by the manual operation, the input (manual operation input) completed data given from the input control unit 104 and the route Based on the database of the map DB (database) 111 and the word (dictionary) DB (database) 112 used for guidance etc., the data to be accepted (valid data) among the input data is determined. The map DB 111 is a database for associating data input by the user such as facility names and addresses with points (locations), and the word DB 112 is for decomposing data registered in the map DB 111 into words. These are databases of words (dictionaries) to be used, and these databases are prepared by being stored in a storage device in advance.

応答生成部107は、入力制御部104で決定された本装置で次に実行する動作に応じて、利用者に提示するガイダンス情報を含む応答情報を生成する。画面表示部108は、例えば液晶等のディスプレイやモニタで構成され、応答生成部107で生成された応答情報の内、画面表示に係わるガイダンス情報を出力する。音声出力部109は、スピーカ等で構成され、応答生成部107で生成された応答情報の内、音声出力に係わるガイダンス情報を出力する。   The response generation unit 107 generates response information including guidance information to be presented to the user according to the next operation to be executed by the apparatus determined by the input control unit 104. The screen display unit 108 includes a display such as a liquid crystal display or a monitor, for example, and outputs guidance information related to screen display among the response information generated by the response generation unit 107. The voice output unit 109 is configured by a speaker or the like, and outputs guidance information related to voice output among the response information generated by the response generation unit 107.

音声入力部101、スイッチ入力情報処理部103、画面表示部108ならびに音声出力部109を除く上記各部は、プログラムに基づいて各種動作処理を制御するコンピュータに必要な、CPU、記憶装置、入出力装置等の資源を備えた例えばマイクロコンピュータ等により実現され、必要に応じて以下に説明する本発明の動作処理を実現できるように設計されたASICやFPGAといった既存の特定用途向けの集積回路を含んで構成するようにしてもよい。   The above-described units other than the voice input unit 101, the switch input information processing unit 103, the screen display unit 108, and the voice output unit 109 are a CPU, a storage device, and an input / output device necessary for a computer that controls various operation processes based on a program. Including an existing application specific integrated circuit such as an ASIC or FPGA, which is realized by a microcomputer or the like having resources such as, and is designed so that the operation processing of the present invention described below can be realized as necessary. You may make it comprise.

次に、図2のフローチャートを参照してこの実施例1の動作手順を説明する。以下に説明する動作手順は、車両が停車中にスイッチやタッチパネル等を用いて利用者が手動操作により入力を行っているときに、車両が走行し始めた場合に入力操作をそれまでの手動操作から発話による音声入力操作に変更するか否かを選択する際の手順である。   Next, the operation procedure of the first embodiment will be described with reference to the flowchart of FIG. The operation procedure described below is based on the manual operation up to that point when the vehicle starts running while the user is performing manual input using a switch or touch panel while the vehicle is stopped. This is a procedure for selecting whether to change to voice input operation by utterance.

先ず、図2を参照して入力操作の変更を説明する前に、変更前の手動操作により利用者はどのような目的で入力を行っていたのかについて説明する。この手動操作の目的を把握することで、変更後の音声入力による処理能力を向上させている。   First, before describing the change of the input operation with reference to FIG. 2, the purpose of the user performing the input by the manual operation before the change will be described. By grasping the purpose of this manual operation, the processing capability by voice input after the change is improved.

ナビゲーション装置では、手動操作により行われる機能として、目的地や経由地の設定、現在地や目的地周辺の施設等の検索、設定や検索で得られた情報の登録、編集作業といった様々な機能が備えられている。   The navigation device has various functions such as setting destinations and waypoints, searching for facilities near the current location and destination, registering information obtained by setting and searching, and editing operations as functions performed by manual operation. It has been.

例えば、利用者が現在地から目的地までの経路案内を要求する際に目的地を入力する必要があるが、このような動作の手順としては、先ず画面表示部108に表示された例えばメニュー画面から「目的地設定」という項目を選択し、選択後の次のメニュー画面では、例えば以下に示すような選択メニューが表示され、表示された選択メニューの何れかを選択することで、選択されたメニューに対応した入力シーンが特定されて目的地が設定される。目的地を設定入力する選択メニューとしては、例えば電話番号、住所、施設名称を文字で入力する「電話番号」、「住所」、「施設名称」等や、以前に登録された登録地の中から選択して設定する「登録地」、例えばコンビニやガソリンスタンドといった周辺施設等を検索した検索結果から選択して設定する「周辺施設検索」、過去に検索した検索履歴の中から選択して設定する「検索履歴」等である。   For example, the user needs to input a destination when requesting route guidance from the current location to the destination. As a procedure for such an operation, first, for example, from a menu screen displayed on the screen display unit 108. Select the item “Set Destination”, and on the next menu screen after selection, for example, the following selection menu is displayed. By selecting one of the displayed selection menus, the selected menu is displayed. The input scene corresponding to is specified and the destination is set. As a selection menu for setting and inputting the destination, for example, “telephone number”, “address”, “facility name”, etc., where the telephone number, address, and facility name are entered in letters, or from previously registered locations Select and set “Registration location”, for example, “Facilities search” that is set by selecting from the search results of searching for nearby facilities such as convenience stores and gas stations, and select and set from the search history searched in the past “Search history” or the like.

このように、入力操作を行うにあたって、例えば目的地の住所を文字により入力して目的地を設定するといった、入力シーンを特定することで、特定された入力シーンに応じて予め用意された認識用文法を用いることで認識処理の効率を向上させることが可能となる。   As described above, when performing an input operation, for example, by inputting an address of a destination in characters and setting the destination, the input scene is specified, so that a recognition image prepared in advance according to the specified input scene is used. The use of grammar can improve the efficiency of recognition processing.

入力シーンは、入力シーンを特定するシーン情報を取得し、取得したシーン情報に基づいて特定される。シーン情報は、ナビゲーション装置が備えている機能の何れの機能を行っているかを示すもので、入力シーンごとに個別のIDを割り付け、このIDにより入力シーンがどのような操作のどの過程であるかを一意に指定することで入力シーンを識別して特定する。   The input scene is specified based on the acquired scene information by acquiring scene information for specifying the input scene. The scene information indicates which one of the functions provided in the navigation device is being performed. An individual ID is assigned to each input scene, and the process of what operation the input scene is based on this ID. Is uniquely identified to identify and identify the input scene.

このように特定された入力シーンにおいて、ナビゲーション装置は、車両状態判定部105により車両が走行状態にあるか否かを判定する(ステップS101)。判定の結果、車両が走行状態にないと判定された場合には、入力操作の変更を提示することなくそれまでの手動による入力操作が継続される(ステップS102)一方、走行状態にあると判定された場合には、画面表示部108に確認画面を表示して(ステップS103)、手動による入力操作を停止して、手動による入力操作に代えて利用者の発話による音声入力により入力操作を継続するか否かを確認する(ステップS104)。確認画面としては、例えば図3(a)に示すようにタッチパネル式で文字を入力する際のメニュー画面31に重畳して、例えば「続きは音声入力でしますか?」といった確認メッセージ32(ポップアップ画面)を表示し、「はい」または「いいえ」の選択メニューで利用者が選択できようにする。   In the input scene specified as described above, the navigation apparatus determines whether the vehicle is in a traveling state by the vehicle state determination unit 105 (step S101). As a result of the determination, if it is determined that the vehicle is not in the running state, the manual input operation so far is continued without presenting the change in the input operation (step S102), while it is determined that the vehicle is in the running state. If it is, the confirmation screen is displayed on the screen display unit 108 (step S103), the manual input operation is stopped, and the input operation is continued by voice input by the user's utterance instead of the manual input operation. It is confirmed whether or not to perform (step S104). As the confirmation screen, for example, as shown in FIG. 3A, a confirmation message 32 (pop-up is displayed, for example, "Do you want to continue voice input?" Screen) and allow the user to select from the “Yes” or “No” selection menu.

このような確認において、選択メニューで「いいえ」が選択されたり、何れも選択されずに予め設定された規定の時間が経過した場合には、入力操作の継続の意志がないものとみなして、確認メッセージ32を画面から消去し(ステップS105)、走行によって入力操作が中断されることを利用者へ伝え、手動による文字入力を受け付けない状態とする。   In such confirmation, if “No” is selected in the selection menu, or if a predetermined time has passed without any selection, it is considered that there is no intention to continue the input operation, The confirmation message 32 is erased from the screen (step S105), the user is informed that the input operation is interrupted by traveling, and a manual character input is not accepted.

一方、選択メニューで「はい」が選択されて入力操作の継続意志が確認された場合には、続いて音声入力で入力する情報の範囲を利用者が選択する(ステップS106)。選択方法としては、例えば図3(b)に示すように、メニュー画面31に表示された選択メニュー33a,33b,33cで利用者が選択できるようにする。   On the other hand, when “Yes” is selected from the selection menu and the intention to continue the input operation is confirmed, the user subsequently selects a range of information to be input by voice input (step S106). As a selection method, for example, as shown in FIG. 3B, the user can select a selection menu 33a, 33b, 33c displayed on the menu screen 31.

この選択において、利用者がそれまでに文字入力により入力した入力済みのデータに対して、音声発話での言いやすさを考慮した受理範囲の設定を要求(図3(b)に示す選択メニュー33aを選択)した場合には、入力済みデータを確認した後、音声入力の開始時に本装置が受理して有効となっている入力範囲を決定する(ステップS107)。   In this selection, a request is made to set an acceptance range in consideration of the ease of speech utterance with respect to already input data that the user has input by character input (selection menu 33a shown in FIG. 3B). When the input data is confirmed, the input range that is accepted and valid by the apparatus at the start of voice input is determined (step S107).

入力シーンとして、例えば目的地を設定するにあたって施設の名称を文字により手動で入力しているような場合を想定すると、例えば「とうきょうと」という文字を入力したところで、車両が発進して走行状態になると、この入力シーンに応じた認識用の文法を参照して入力された文字列の認識処理が開始される。この認識処理において、「とうきょう」という文字列が「東京」と認識されてるが、最後の「と」という文字は、例えば都立大学の「都」を意味する文字であるのか、あるいは「トラベル観光」などの「ト」を意味する文字であるのかを認識することはできない。   As an input scene, for example, when setting the destination, assuming that the name of the facility is manually input by characters, for example, when the characters “Tokyo” are input, the vehicle starts and enters the running state. Then, the recognition process of the character string input with reference to the recognition grammar corresponding to the input scene is started. In this recognition process, the character string “Tokyo” is recognized as “Tokyo”, but the last character “to” is, for example, a character meaning “city” of Tokyo Metropolitan University, or “travel tourism”. It is not possible to recognize whether it is a character that means “t”.

このような場合に、手動により入力された「とうきょうと」という文字に続いて、音声により「とうきょうと」に続く文字を入力すると、上記前者の場合は「りつだいがく」と発話する必要があり、後者の場合には「らべるかんこう」と発話する必要がある。このような発話は利用者にとって発話し難いものであり、一文字多くても「とりつだいがく」や「とらべるかんこう」と発話した方が言いやすくなる。   In such a case, if the characters following “Tokyo” are input by voice after the characters “Tokyo” entered manually, in the case of the above, it is necessary to say “Ritsugiga” In the latter case, it is necessary to say “Label Kankan”. Such an utterance is difficult for the user to speak, and even if there is more than one character, it is easier to say if it says “Toridaigaigaku” or “Tobaru Kankou”.

したがって、音声発話による言いやすさを考慮した場合には、入力された文字列について、単語として認識できる文字列「東京」と単語として認識できない文字列「と」とを区別し、単語として認識できない文字列「と」も再度音声発話により入力する。したがって、このような場合には、「とうきょうと」という入力済みデータに対して、「とうきょう」という文字列を受理範囲として有効な入力範囲とし、「と」という入力済みデータに対しては不受理として無効な入力とし、再度発話による音声入力を利用者に促すようにする。   Therefore, in consideration of the ease of speaking by voice utterance, the input character string is distinguished from the character string “Tokyo” that can be recognized as a word and the character string “and” that cannot be recognized as a word, and cannot be recognized as a word. The character string “to” is also input by voice utterance again. Therefore, in such a case, for the input data “Tokyo”, the character string “Tokyo” is the effective input range, and the input data “to” is not accepted. The input is invalid, and the user is prompted to input voice again by speaking.

次に、上述したようにして決定した入力受理範囲に基づいて、音声認識で用いる認識用文法110を読み込む(ステップS108)。続いて、認識用文法110の読み込みが完了して発話が可能な状態になると、利用者に後続情報の入力を促すためのガイダンスを出力する(ステップS109)。その後、通常の音声入力操作と同様に利用者の発話を検出すると、先に読み込んだ認識用文法110に基づいて音声認識処理を行う(ステップS110)。   Next, the recognition grammar 110 used in speech recognition is read based on the input acceptance range determined as described above (step S108). Subsequently, when the reading of the recognition grammar 110 is completed and speech can be made, guidance for prompting the user to input subsequent information is output (step S109). After that, when the user's utterance is detected as in the normal voice input operation, a voice recognition process is performed based on the previously read recognition grammar 110 (step S110).

一方、先のステップS106で利用者が手動操作での入力範囲すべてを受理範囲として引き継ぎたい(図3(b)に示す選択メニュー33cを選択)とした場合には、後続の入力については、連続音節入力の文法に基づいて音声により入力された発話内容を認識するために、連続音節入力用の文法に対応した認識用文法110を読み込む(ステップS111)。その後、先のステップS109、ステップS110と同様の処理を実行して、音声認識処理を行う。   On the other hand, when the user wants to take over the entire manual input range as the acceptance range in the previous step S106 (selecting the selection menu 33c shown in FIG. 3B), the subsequent input is continuously set. In order to recognize the utterance content input by voice based on the syllable input grammar, the recognition grammar 110 corresponding to the grammar for continuous syllable input is read (step S111). Thereafter, the same processing as in the previous steps S109 and S110 is executed to perform voice recognition processing.

一方、先のステップS106で利用者が入力済みデータの移行を希望しない場合は、入力済みデータをすべて破棄した上で、文字による入力操作を行っていた入力シーンに応じた認識用文法110を読み込む(ステップS112)。その後、先のステップS109、ステップS110と同様の処理を実行して、音声認識処理を行う。   On the other hand, if the user does not wish to transfer the input data in the previous step S106, the input grammar 110 is read according to the input scene in which the input operation was performed with characters after discarding all the input data. (Step S112). Thereafter, the same processing as in the previous steps S109 and S110 is executed to perform voice recognition processing.

次に、図4に示すフローチャートを参照して、各入力シーンに対応して用意された認識用文法の選別手順について説明する。   Next, a recognition grammar selection procedure prepared for each input scene will be described with reference to the flowchart shown in FIG.

先にも触れたように、入力シーンはシーン情報に基づいて識別されるので、先ず入力操作が変更になった際の入力シーン毎に割り付けられたシーン情報のIDを取得する(ステップS401)。その後、取得したIDに基づいて入力シーンが特定され、特定された入力シーンにおいて、以降に続く後続の機能範囲を検索して確定する(ステップS402)。   As mentioned earlier, since the input scene is identified based on the scene information, first, the ID of the scene information assigned to each input scene when the input operation is changed is acquired (step S401). Thereafter, an input scene is identified based on the acquired ID, and subsequent functional ranges subsequent to the identified input scene are searched and determined (step S402).

入力シーンにおける機能範囲としては、例えば目的地を入力するといった入力シーンでは、図5に示すように、電話番号検索、住所検索、名称検索、検索履歴、登録地検索、周辺施設検索、周辺施設検索のコンビニ、周辺施設検索のガソリンスタンドといった機能範囲が挙げられる。現在の入力シーンに後続する確定した機能範囲の中から選択された、例えば図5に示すような機能の名称に対応して予め用意された認識用文法110を選択して読み込む(ステップS403)。   As the functional range in the input scene, for example, in an input scene in which a destination is input, as shown in FIG. 5, a telephone number search, an address search, a name search, a search history, a registered location search, a peripheral facility search, and a peripheral facility search Range of functions such as a convenience store and a gas station for searching nearby facilities. The recognition grammar 110 prepared in advance corresponding to the name of the function shown in FIG. 5, for example, selected from the determined function range following the current input scene is selected and read (step S403).

このように、上記実施例1では、ナビゲーション装置に対して、車両が停止状態から走行状態に移行した際に、手動による文字入力に代えて、利用者の発話による音声で入力の継続を促すことで、入力操作の中断を回避することが可能となる。これにより、利用者は入力を必要としたときに間をおかず入力を完結することができる。一方、従来のように入力操作が中断された場合には、中断後入力操作を再開した場合に、入力の必要性がなくなりそれまで入力されたデータをキャンセルしたり、入力が中断される前の入力済みのデータを確認するといった手間が生じるおそれがあるが、上記実施例1ではそのような手間を回避することができる。   As described above, in the first embodiment, when the vehicle shifts from the stopped state to the traveling state, the navigation device is urged to continue the input by the voice of the user's utterance instead of the manual character input. Thus, it is possible to avoid interruption of the input operation. As a result, the user can complete the input without delay when the user needs the input. On the other hand, when the input operation is interrupted as in the past, when the input operation is resumed after the interruption, there is no need for the input and the data input until then is canceled or the input is interrupted. Although there is a risk of checking the input data, the first embodiment can avoid such a trouble.

また、発話により入力操作を継続する場合に、手動により入力された文字列の内、認識の対象として受理する受理範囲を利用者が選択できるようにしたので、利用者の利便性を考慮して、利用者が発話による音声入力を行うことが可能となる。   In addition, when the input operation is continued by utterance, the user can select the acceptance range to be accepted as the recognition target among the manually input character strings. The user can input voice by speaking.

発話による音声入力の際に、単語境界に基づいて受理範囲を決定することで、利用者が発話しやすくなり、入力された音声の認識率を高めることができる。   When the voice is input by utterance, the acceptance range is determined based on the word boundary, so that the user can easily speak and the recognition rate of the input voice can be increased.

入力シーンを特定することで、入力シーンに応じて最適な認識用文法を予め用意して参照することが可能となるので、音声認識率や認識速度を向上させることができる。   By specifying the input scene, it becomes possible to prepare and refer to an optimal recognition grammar according to the input scene in advance, so that the speech recognition rate and the recognition speed can be improved.

さらに、上記音声での入力の継続を促す際に、利用者に継続の有無を確認して利用者が選択できるようにすることで、利用者の利便性を図ることができる。   Furthermore, when prompting continuation of the voice input, the user can be selected by confirming whether or not the continuation is continued, and thus the convenience of the user can be achieved.

図6は本発明の実施例2に係るナビゲーション装置における動作処理の手順を示すフローチャートであり、実施例1の図2におけるステップS107の処理手順を示すものである。   FIG. 6 is a flowchart showing a procedure of operation processing in the navigation apparatus according to the second embodiment of the present invention, and shows a processing procedure of step S107 in FIG. 2 of the first embodiment.

図2において、先の図2に示す処理の場合と同様に、手動による入力操作により地点名称の検索やオーディオの楽曲検索など50音入力を行っているときに、手動操作から音声発話による入力操作に変更され、変更前の手動操作による入力の有効範囲を設定するにあたって、先ず入力済み文字列を検索対象文字列にセットする(ステップS601)。続いて、検索対象文字列の文字数が1文字以上あるか否かを判別する(ステップS602)。判別の結果、1文字しかない場合は、入力済み情報を破棄して無効とし、変更前の入力はなかったものとして、再度音声発話によりすべての入力を利用者に促す(ステップS603)。   In FIG. 2, as in the case of the process shown in FIG. 2, when a 50-sound input such as a search for a spot name or an audio music search is performed by a manual input operation, an input operation by voice utterance is performed from the manual operation. In setting the effective range of the input by the manual operation before the change, the input character string is first set as the search target character string (step S601). Subsequently, it is determined whether or not the number of characters in the search target character string is one or more (step S602). If there is only one character as a result of the discrimination, the input information is discarded and invalidated, and it is assumed that there was no input before the change, and the user is prompted again for all inputs by voice utterance (step S603).

一方、2文字以上ある場合には、検索対象の文字列に対して、文字列全体が単語DB112に登録されている1つ以上の単語から構成される単語列になっているか否かを検索する(ステップS604)。検索の結果、一致する単語列がない場合は、検索対象文字列の最後の1文字を削除した後(ステップS605)、再度先のステップS604で示す処理を実行する。このような処理が繰り返されて、一致する単語列がある場合には、検索対象文字列にさらに部分単語列があるか否かを検索する(ステップS606)。   On the other hand, if there are two or more characters, it is searched whether the entire character string is a word string composed of one or more words registered in the word DB 112 with respect to the character string to be searched. (Step S604). If there is no matching word string as a result of the search, the last character of the search target character string is deleted (step S605), and then the process shown in the previous step S604 is executed again. If such a process is repeated and there is a matching word string, it is searched whether or not there is a partial word string in the search target character string (step S606).

検索の結果、部分単語列が含まれていない場合は、続いて検索対象文字列全体が他の単語の部分単語列になっているか否かを検索する(ステップS607)。検索の結果、他の単語の部分単語列である場合には、入力のすべてを受理してしまうと、残りの部分のみでの発話が困難になるので、入力済みデータは一切受理せずに破棄して無効として、再度音声発話によりすべての入力を利用者に促す(ステップS603)。   If the partial word string is not included as a result of the search, it is subsequently searched whether or not the entire search target character string is a partial word string of another word (step S607). If it is a partial word string of other words as a result of the search, if all of the input is accepted, it will be difficult to utter only the remaining part, so the entered data will not be accepted and discarded Then, it is invalidated and the user is prompted again for all inputs by voice utterance (step S603).

一方、他の単語の部分単語列でない場合には、検索対象文字列の範囲で入力を受理し、入力されたすべてのデータを有効とする(ステップS608)。   On the other hand, if it is not a partial word string of another word, the input is accepted within the range of the search target character string, and all the input data are validated (step S608).

先のステップS606で示す処理における検索の結果、部分単語列が含まれて複数の単語列で構成される場合には、続いて最後の単語列が部分単語列になっているか否かを判別する(ステップS609)。判別の結果、部分単語列でない場合は、語尾の部分単語列になっていない範囲を破棄して無効とし、残りの部分を受理範囲として有効とし入力を確定する(ステップS610)。   If the result of the search in the previous step S606 is that the partial word string is included and is composed of a plurality of word strings, it is subsequently determined whether or not the last word string is a partial word string. (Step S609). As a result of the determination, if it is not a partial word string, the range that is not a partial word string at the end of the word is discarded and invalidated, and the remaining part is validated as an accepted range, and the input is confirmed (step S610).

一方、語尾の単語列が部分単語列である場合には、続いて単語DB112に語尾部分を含む単語があるか否かを検索する(ステップS611)。検索の結果、語尾部を含む単語が単語DB112に登録されている場合は、語尾部以外の入力を受理範囲とする(ステップS612)。一方、単語DB112に該当する単語が登録されていない場合には、入力されたすべての文字列を受理範囲として有効とし入力を確定する(ステップS613)。   On the other hand, if the word string at the end is a partial word string, then it is searched whether there is a word including the end part in the word DB 112 (step S611). As a result of the search, if a word including the ending part is registered in the word DB 112, an input other than the ending part is set as the acceptance range (step S612). On the other hand, if the corresponding word is not registered in the word DB 112, all the input character strings are valid as the acceptance range and the input is confirmed (step S613).

このように、上記実施例2においては、入力操作を手動入力から音声入力へ変更して、音声入力で続きの情報の入力を行うときに、発話のしやすさを考慮して、手動での入力済み情報から受理範囲を決定する。すなわち、音声発話の場合には、発話は単語単位で行われることが基本となるため、予め用意されたデータベースを参照することで入力文字列が単語境界となるか否かを判別し、単語境界にしかなりえない文字列の範囲のみを入力の受理範囲としている。   As described above, in the second embodiment, when the input operation is changed from the manual input to the voice input and the subsequent information is input by the voice input, the manual operation is performed in consideration of the ease of speaking. The acceptance range is determined from the entered information. That is, in the case of speech utterance, since utterance is basically performed in units of words, it is determined whether or not the input character string becomes a word boundary by referring to a database prepared in advance. Only the range of the character string that is quite impossible is set as the acceptable range of input.

これにより、入力される音声が音節単位から単語単位へより厳しい制約となることによって、音声入力される情報の認識精度が向上する。音節単位入力の場合には、不要なポーズ長が生じたり、イントネーションの乱れから、音声認識ソフトウェアでの正しい発話区間検出が困難となり、音声入力の途中で音声認識が終了してしまう、なかなか発話を検出してくれない、発話の最初の方(語頭部)が欠落して利用者の発話とは異なった入力結果になってしまう、といった不具合が生じるおそれがあったが、上記実施例2では単語単位の入力にすることによって、音声入力における発話検出の不良を低減することが可能となる。これにより、発話により入力された音声の認識率を向上することが可能となる。   As a result, the input speech is more severely restricted from syllable units to word units, thereby improving the recognition accuracy of information input by speech. In the case of syllable unit input, it is difficult to detect the correct utterance section with voice recognition software due to unnecessary pause length or disturbance of intonation, and speech recognition will end in the middle of voice input. There is a risk that the first utterance (the head of the utterance) that is not detected is lost, resulting in an input result different from the user's utterance. By using word-by-word input, it is possible to reduce utterance detection defects in speech input. Thereby, it becomes possible to improve the recognition rate of the voice input by the utterance.

なお、本発明の車載機器の操作装置ならびに車載機器の操作方法は、上記各実施例1,2で説明したナビゲーション装置ならびにその操作方法に限ることはなく、例えば車載オーディオ装置において楽曲の曲目を選択する操作方法に適用することが可能であり、同様の効果を得ることができる。   In addition, the operation device of the in-vehicle device and the operation method of the in-vehicle device of the present invention are not limited to the navigation device and the operation method described in the first and second embodiments. For example, in the in-vehicle audio device, the music piece is selected. It is possible to apply to the operation method which performs, and the same effect can be acquired.

なお、上記実施例の構成要件と、特許請求の範囲における構成要件との対応関係は、音声入力部101が第2の入力手段を、音声認識部102、認識用文法110が第2の認識手段を、スイッチ入力情報処理部103が第1の入力手段、第1の認識手段を、車両状態判定部105が検出手段を、入力制御部104が第3の認識手段を、入力制御部104、後続データ推定部106、応答生成部107、画面表示部108、音声出力部109、地図DB111、単語DB112が入力変更手段を構成する。   It should be noted that the correspondence between the configuration requirements of the above-described embodiment and the configuration requirements in the claims is as follows: the voice input unit 101 is the second input unit, and the voice recognition unit 102 and the recognition grammar 110 are the second recognition unit. The switch input information processing unit 103 is the first input unit, the first recognition unit, the vehicle state determination unit 105 is the detection unit, the input control unit 104 is the third recognition unit, the input control unit 104, and the following. The data estimation unit 106, the response generation unit 107, the screen display unit 108, the voice output unit 109, the map DB 111, and the word DB 112 constitute input changing means.

本発明の実施例1に係るナビゲーション装置の構成を示す図である。It is a figure which shows the structure of the navigation apparatus which concerns on Example 1 of this invention. 本発明の実施例1に係る動作処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the operation | movement process which concerns on Example 1 of this invention. 入力を変更する際の画面の表示例を示す図である。It is a figure which shows the example of a display of the screen at the time of changing an input. 入力シーンにおける認識用文法の読み込み手順を示すフローチャートである。It is a flowchart which shows the reading procedure of the recognition grammar in an input scene. 入力シーンにより選択できうる認識文法の機能名称を示す図である。It is a figure which shows the function name of the recognition grammar which can be selected by an input scene. 本発明の実施例2に係る動作処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the operation | movement process which concerns on Example 2 of this invention.

符号の説明Explanation of symbols

101…音声入力部
102…音声認識部
103…スイッチ入力情報処理部
104…入力制御部
105…車両状態判定部
106…後続データ推定部
107…応答生成部
108…画面表示部
109…音声出力部
110…認識用文法
111…地図DB
112…単語DB
DESCRIPTION OF SYMBOLS 101 ... Voice input part 102 ... Voice recognition part 103 ... Switch input information processing part 104 ... Input control part 105 ... Vehicle state determination part 106 ... Subsequent data estimation part 107 ... Response generation part 108 ... Screen display part 109 ... Voice output part 110 ... Grammar for recognition 111 ... Map DB
112 ... Word DB

Claims (5)

手動操作により文字を入力する第1の入力手段と、
利用者の発話による音声を入力する第2の入力手段と、
前記第1の入力手段で入力された文字を認識する第1の認識手段と、
前記第2の入力手段で入力された音声を認識する第2の認識手段と、
前記第1の認識手段で認識された文字と、前記第2の認識手段で認識された音声とを組み合わせた入力を認識する第3の認識手段と、
自車両の走行状態を検出する検出手段と、
前記検出手段で自車両が停止状態から走行状態に移行したことが検出されると、前記第1の入力手段による入力操作を停止して、停止以降の入力操作を前記第2の入力手段により行うよう利用者に促す入力変更手段と
を有することを特徴とする車載機器の操作装置。
First input means for inputting characters by manual operation;
A second input means for inputting a voice uttered by the user;
First recognition means for recognizing a character input by the first input means;
Second recognition means for recognizing the voice input by the second input means;
Third recognition means for recognizing an input combining a character recognized by the first recognition means and a voice recognized by the second recognition means;
Detecting means for detecting the traveling state of the host vehicle;
When the detection means detects that the host vehicle has shifted from the stopped state to the running state, the input operation by the first input means is stopped, and the input operation after the stop is performed by the second input means. An in-vehicle device operating device, comprising: an input changing means for prompting the user.
前記入力変更手段は、前記第1の入力手段の入力操作が停止される前に入力された文字列に対して、受理して認識対象とする文字列の受理範囲を決定し、決定した受理範囲の文字列以降に入力された文字入力を不受理とし、不受理とした入力を発話による音声で入力することを促す
ことを特徴とする請求項1に記載の車載機器の操作装置。
The input changing unit receives a character string input before the input operation of the first input unit is stopped, determines a receiving range of a character string to be recognized, and determines the received receiving range. The in-vehicle device operating device according to claim 1, wherein character input input after the character string is not accepted, and the input that is not accepted is urged to be input by speech.
前記入力変更手段は、第1の入力手段で入力された文字入力に対して、受理範囲を利用者に選択させて決定する
ことを特徴とする請求項2に記載の車載機器の操作装置。
The in-vehicle device operating device according to claim 2, wherein the input changing means determines the accepting range by allowing a user to select a character range input by the first input means.
前記入力変更手段は、入力された文字列の語尾に対して、単語として認識される文字列を境界として、単語として認識される文字列を受理範囲とし、単語として認識されない文字列を不受理範囲とする
ことを特徴とする請求項2に記載の車載機器の操作装置。
The input changing means has a character string recognized as a word as a boundary, a character string recognized as a word as an acceptance range, and a character string not recognized as a word as an unacceptable range with respect to the tail of the input character string The operating device for on-vehicle equipment according to claim 2, wherein:
手動操作により文字を入力し、自車両の走行状態を検出し、文字を入力しているときに前記自車両が停止状態から走行状態に移行した場合には、文字の入力操作を停止して、停止以降の入力操作の続きを発話による音声で入力するように利用者に促す
ことを特徴とする車載機器の操作方法。
Input characters by manual operation, detect the running state of the host vehicle, and when the host vehicle is moving from the stopped state to the running state when entering characters, stop the character input operation, A method for operating an in-vehicle device, characterized by prompting a user to input a continuation of an input operation after the stop by voice by speech.
JP2008244304A 2008-09-24 2008-09-24 In-vehicle device operating device and in-vehicle device operating method Active JP5217838B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008244304A JP5217838B2 (en) 2008-09-24 2008-09-24 In-vehicle device operating device and in-vehicle device operating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008244304A JP5217838B2 (en) 2008-09-24 2008-09-24 In-vehicle device operating device and in-vehicle device operating method

Publications (2)

Publication Number Publication Date
JP2010078354A true JP2010078354A (en) 2010-04-08
JP5217838B2 JP5217838B2 (en) 2013-06-19

Family

ID=42208994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008244304A Active JP5217838B2 (en) 2008-09-24 2008-09-24 In-vehicle device operating device and in-vehicle device operating method

Country Status (1)

Country Link
JP (1) JP5217838B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013256189A (en) * 2012-06-12 2013-12-26 Denso Corp In-vehicle terminal
JP2014126922A (en) * 2012-12-25 2014-07-07 Mitsubishi Electric Corp In-vehicle information device, control device and control method
JP2014197352A (en) * 2013-03-29 2014-10-16 富士重工業株式会社 Information display system for vehicle
JP2016142614A (en) * 2015-02-02 2016-08-08 株式会社デンソー Onboard device
CN108376057A (en) * 2017-02-01 2018-08-07 丰田自动车株式会社 The computer readable storage medium of board information terminal and storage information search program
JP2019188840A (en) * 2018-04-18 2019-10-31 日産自動車株式会社 Operation support device of apparatus and operation support method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034607A (en) * 1999-07-08 2001-02-09 Microsoft Corp Front end processor and its processing method and recording medium
JP2002344574A (en) * 2001-05-15 2002-11-29 Aruze Corp Mobile communication equipment
JP2005121563A (en) * 2003-10-20 2005-05-12 Alpine Electronics Inc On-vehicle navigation system, and input method to same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034607A (en) * 1999-07-08 2001-02-09 Microsoft Corp Front end processor and its processing method and recording medium
JP2002344574A (en) * 2001-05-15 2002-11-29 Aruze Corp Mobile communication equipment
JP2005121563A (en) * 2003-10-20 2005-05-12 Alpine Electronics Inc On-vehicle navigation system, and input method to same

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013256189A (en) * 2012-06-12 2013-12-26 Denso Corp In-vehicle terminal
JP2014126922A (en) * 2012-12-25 2014-07-07 Mitsubishi Electric Corp In-vehicle information device, control device and control method
JP2014197352A (en) * 2013-03-29 2014-10-16 富士重工業株式会社 Information display system for vehicle
JP2016142614A (en) * 2015-02-02 2016-08-08 株式会社デンソー Onboard device
CN108376057A (en) * 2017-02-01 2018-08-07 丰田自动车株式会社 The computer readable storage medium of board information terminal and storage information search program
JP2019188840A (en) * 2018-04-18 2019-10-31 日産自動車株式会社 Operation support device of apparatus and operation support method
JP7187812B2 (en) 2018-04-18 2022-12-13 日産自動車株式会社 Equipment operation support device and operation support method

Also Published As

Publication number Publication date
JP5217838B2 (en) 2013-06-19

Similar Documents

Publication Publication Date Title
US6604073B2 (en) Voice recognition apparatus
US8200429B2 (en) Vehicle navigation apparatus
JP5217838B2 (en) In-vehicle device operating device and in-vehicle device operating method
US7310602B2 (en) Navigation apparatus
JP4466379B2 (en) In-vehicle speech recognition device
JP2004037998A (en) Vocal controller
JP4997796B2 (en) Voice recognition device and navigation system
JP2008196998A (en) Navigation apparatus
JP2010039099A (en) Speech recognition and in-vehicle device
JP5218459B2 (en) Vehicle information terminal and program
JP2002350163A (en) Navigation device
JP2007286358A (en) Navigation device and its address input method
US11164578B2 (en) Voice recognition apparatus, voice recognition method, and non-transitory computer-readable storage medium storing program
JP2000338993A (en) Voice recognition device and navigation system using this device
JP5455355B2 (en) Speech recognition apparatus and program
JP2009031065A (en) System and method for informational guidance for vehicle, and computer program
WO2006137246A1 (en) Speech recognizing device, speech recognizing method, speech recognizing program, and recording medium
JP2005275228A (en) Navigation system
JP2007101892A (en) Speech recognition device
JP3624698B2 (en) Voice recognition device, navigation system and vending system using the device
JP2007057805A (en) Information processing apparatus for vehicle
JP4453377B2 (en) Voice recognition device, program, and navigation device
JP3296783B2 (en) In-vehicle navigation device and voice recognition method
WO2019124142A1 (en) Navigation device, navigation method, and computer program
JP2005084589A (en) Voice recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5217838

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150