JP2013054074A - Speech recognition device, speech recognition method, and speech recognition program - Google Patents

Speech recognition device, speech recognition method, and speech recognition program Download PDF

Info

Publication number
JP2013054074A
JP2013054074A JP2011190169A JP2011190169A JP2013054074A JP 2013054074 A JP2013054074 A JP 2013054074A JP 2011190169 A JP2011190169 A JP 2011190169A JP 2011190169 A JP2011190169 A JP 2011190169A JP 2013054074 A JP2013054074 A JP 2013054074A
Authority
JP
Japan
Prior art keywords
voice recognition
command
voice
display
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011190169A
Other languages
Japanese (ja)
Other versions
JP5906615B2 (en
Inventor
Tomonori Sugiura
智則 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2011190169A priority Critical patent/JP5906615B2/en
Publication of JP2013054074A publication Critical patent/JP2013054074A/en
Application granted granted Critical
Publication of JP5906615B2 publication Critical patent/JP5906615B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a speech recognition device, a speech recognition method, and a speech recognition program that are capable of improving operability of a speech recognition command.SOLUTION: A navigation device 1 comprises: a speech detection unit 2b for detecting a user's speech utterance; a speech recognition command determination unit 2c for determining a speech recognition command contained in the user's speech utterance; and a speech recognition control unit 2a for executing a predetermined control corresponding to a speech recognition command determined by the speech recognition command determination unit 2c and for selecting a speech recognition command for display on a display 6. The speech recognition control unit 2a displays, on the display 6, a speech recognition command selected on the basis of a predetermined condition to determine whether or not the command is likely to be used by a user.

Description

本発明は、音声認識装置、音声認識方法、及び音声認識プログラムに関する。   The present invention relates to a voice recognition device, a voice recognition method, and a voice recognition program.

従来、カーナビゲーションシステム等において、ユーザの音声を認識することで、様々な音声認識コマンドの入力を受け付けることができる音声認識装置が用いられている。   2. Description of the Related Art Conventionally, in a car navigation system or the like, a voice recognition device that can accept input of various voice recognition commands by recognizing a user's voice has been used.

このような音声認識コマンドは、一般的に、階層構造(ツリー構造)により階層化されている。そして、最初に、最上位階層に位置付けられた複数の音声認識コマンドのみをディスプレイに表示し、これら複数の音声認識コマンドのいずれかの入力を受け付けた場合には、当該入力を受け付けた音声認識コマンドに対して1段階だけ下位階層に位置付けられた複数の音声認識コマンドのみをディスプレイに表示する。以降、音声認識コマンドの表示と受け付けとを同様に繰り返すことで階層を1段階ずつ下り、最終的に最下位階層に位置付けられた一つの音声認識コマンドを特定する。このような処理を行うことで、1度にディスプレイに表示する音声認識コマンドの数を限定でき、音声認識装置による音声認識率を向上させることが可能になる。   Such voice recognition commands are generally hierarchized by a hierarchical structure (tree structure). First, only a plurality of voice recognition commands positioned in the highest hierarchy are displayed on the display, and when any one of the plurality of voice recognition commands is received, the voice recognition command that has received the input is received. On the other hand, only a plurality of voice recognition commands positioned in the lower hierarchy are displayed on the display. Thereafter, the display and reception of the voice recognition command are repeated in the same manner, so that the hierarchy is lowered one step at a time, and finally one voice recognition command positioned at the lowest hierarchy is specified. By performing such processing, the number of voice recognition commands displayed on the display at a time can be limited, and the voice recognition rate by the voice recognition apparatus can be improved.

しかしながら、カーナビゲーションシステム等が多機能化するに伴って音声認識コマンドの全体数が増えた場合、音声認識コマンドの階層も深くなり、最終的に一つの音声認識コマンドを特定するまでにユーザが入力しなければならない音声認識コマンドの数が増えるため、操作に手間がかかるという問題が生じていた。特に、カーナビゲーションシステム等のように車両に設置される機器の場合には、安全性の面から、車両の走行中には操作項目が制限される場合があった。このため、複数階層の途中まで操作した時点で走行を開始した場合には、それ以上の操作を行うことが制限されてしまい、最終的に一つの音声認識コマンドを特定することができず、操作が無駄になってしまう場合があった。   However, when the total number of voice recognition commands increases as the number of functions of car navigation systems and the like increases, the hierarchy of voice recognition commands also deepens, and the user must input before finally specifying one voice recognition command. Since the number of voice recognition commands that have to be increased increases, there is a problem in that the operation is troublesome. In particular, in the case of a device installed in a vehicle such as a car navigation system, operation items may be restricted during the traveling of the vehicle from the viewpoint of safety. For this reason, when driving is started at the time when operation is performed halfway through multiple hierarchies, it is limited to perform further operations, and eventually one voice recognition command cannot be specified. May be wasted.

このような点に鑑みて、音声認識を用いた入力装置の操作性を改善する提案も行われている。例えば、移動体入力装置において、移動体が走行状態である場合には、入力部が受け付ける入力が手操作及び音声でそれぞれ実行可能な項目か否かを判定し、手操作及び音声による項目操作の実行可否が区別可能な表示態様を表示部にて表示することが提案されている(例えば、特許文献1参照)。   In view of these points, proposals have also been made to improve the operability of input devices using voice recognition. For example, in the moving body input device, when the moving body is in a running state, it is determined whether or not the input received by the input unit is an item that can be executed by manual operation and voice, and the item operation by manual operation and voice is performed. It has been proposed to display on a display unit a display mode in which execution is possible (see, for example, Patent Document 1).

国際公開第2007/069573号パンフレットInternational Publication No. 2007/0669573 Pamphlet

しかしながら、上述の如き従来の装置では、走行状態において実行可能な操作項目を把握することができるものの、音声認識コマンドが深い階層で階層化されていることに起因する問題を本質的に解決することはできなかった。すなわち、上述の従来の装置では、依然として、音声認識コマンドの階層を1段階ずつ下ることによって、最下位階層に位置付けられた一つの音声認識コマンドを特定しなければ、所要の機能を実行することができず、操作に手間がかかるものであった。   However, although the conventional apparatus as described above can grasp the operation items that can be executed in the running state, it essentially solves the problem caused by the voice recognition commands being hierarchized in a deep hierarchy. I couldn't. That is, in the above-described conventional apparatus, the required function can still be executed unless one voice recognition command positioned at the lowest hierarchy is specified by moving down the voice recognition command hierarchy step by step. It was not possible, and it took time and effort to operate.

本発明は、上記に鑑みてなされたものであって、音声認識コマンドの操作性を向上させることができる、音声認識装置、音声認識方法、及び音声認識プログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object thereof is to provide a speech recognition device, a speech recognition method, and a speech recognition program that can improve the operability of speech recognition commands.

上述した課題を解決し、目的を達成するために、請求項1に記載の音声認識装置は、ユーザの発話音声を検出する音声検出手段と、前記音声検出手段にて検出されたユーザの発話音声に基づいて、当該ユーザの発話音声に含まれる音声認識コマンドを特定する音声認識コマンド特定手段と、前記音声認識コマンド特定手段により特定された音声認識コマンドに対応する所定の制御を実行すると共に、前記音声認識コマンドを選択して表示手段に表示する音声認識制御手段と、を備え、前記音声認識制御手段は、ユーザが使用する可能性が高いか否かを判断する所定の条件に基づいて選択した前記音声認識コマンドを、前記表示手段に表示させる。   In order to solve the above-described problems and achieve the object, the speech recognition apparatus according to claim 1 includes a voice detection unit that detects a user's speech, and a user's speech that is detected by the voice detection unit. Based on the voice recognition command specifying means for specifying the voice recognition command included in the speech voice of the user, and executing predetermined control corresponding to the voice recognition command specified by the voice recognition command specifying means, and Voice recognition control means for selecting and displaying a voice recognition command on the display means, the voice recognition control means selected based on a predetermined condition for determining whether or not the user is likely to use The voice recognition command is displayed on the display means.

また、請求項2に記載の音声認識装置は、請求項1に記載の音声認識装置において、前記音声認識制御手段は、前記表示手段に地図が表示されている場合、前記ユーザが使用する可能性が高いか否かを判断する所定の条件に基づいて選択した音声認識コマンドを、当該地図に重畳して当該表示手段に表示させる。   The voice recognition device according to claim 2 is the voice recognition device according to claim 1, wherein the voice recognition control means may be used by the user when a map is displayed on the display means. A voice recognition command selected based on a predetermined condition for determining whether or not is high is superimposed on the map and displayed on the display means.

また、請求項3に記載の音声認識装置は、請求項1又は2に記載の音声認識装置において、ユーザに対する音声出力を行う音声出力手段を備え、前記音声認識制御手段は、前記音声認識コマンドを前記表示手段に表示させた場合に、当該表示させた音声認識コマンドをユーザに認識させるための音声出力を前記音声出力手段に出力させる。   According to a third aspect of the present invention, there is provided the voice recognition apparatus according to the first or second aspect, further comprising voice output means for outputting voice to the user, wherein the voice recognition control means receives the voice recognition command. When displayed on the display means, the voice output means is made to output a voice output for allowing the user to recognize the displayed voice recognition command.

また、請求項4に記載の音声認識装置は、請求項3に記載の音声認識装置において、前記音声認識制御手段は、複数の前記音声認識コマンドを前記表示手段に表示させる場合において、当該複数の前記音声認識コマンドの相互間の優先順位を、所定の優先順位決定条件に基づいて決定し、当該決定した優先順位の高い順に、当該音声認識コマンドをユーザに認識させるための音声出力を前記音声出力手段に出力させる。   The voice recognition device according to claim 4 is the voice recognition device according to claim 3, wherein the voice recognition control means displays the voice recognition commands on the display means when the plurality of voice recognition commands are displayed. Priorities among the voice recognition commands are determined based on a predetermined priority determination condition, and voice output for causing the user to recognize the voice recognition commands in descending order of the determined priorities is the voice output. Let the means output.

また、請求項5に記載の音声認識装置は、請求項1から4のいずれか一項に記載の音声認識装置において、音声認識コマンドのユーザによる使用状況の履歴に関する使用状況履歴情報を格納する使用状況履歴情報格納手段を備え、前記音声認識制御手段は、前記表示手段に音声認識コマンドを表示させた後、当該音声認識コマンドのユーザによる使用状況に基づいて、当該音声認識コマンドの使用状況履歴情報を前記使用状況履歴情報格納手段に格納し、前記表示手段に音声認識コマンドを表示させる際、前記使用状況履歴情報格納手段に格納した前記使用状況履歴情報に基づいて、音声認識コマンドを選択する。   Further, the voice recognition device according to claim 5 is a voice recognition device according to any one of claims 1 to 4, wherein usage history information relating to a history of usage status of a voice recognition command by a user is stored. A situation history information storage means, wherein the voice recognition control means displays the voice recognition command on the display means and then uses the voice recognition command usage situation history information based on the usage situation of the voice recognition command by the user. Is stored in the usage status history information storage means, and the voice recognition command is selected based on the usage status history information stored in the usage status history information storage means when the voice recognition command is displayed on the display means.

また、請求項6に記載の音声認識方法は、ユーザの発話音声を検出する音声検出ステップと、前記音声検出ステップにおいて検出されたユーザの発話音声に基づいて、当該ユーザの発話音声に含まれる音声認識コマンドを特定する音声認識コマンド特定ステップと、前記音声認識コマンド特定ステップにおいて特定された音声認識コマンドに対応する所定の制御を実行すると共に、前記音声認識コマンドを選択して表示手段に表示する音声認識制御ステップと、を含み、前記音声認識制御ステップにおいては、ユーザが使用する可能性が高いか否かを判断する所定の条件に基づいて選択した前記音声認識コマンドを、前記表示手段に表示させる。   According to a sixth aspect of the present invention, there is provided a voice recognition method for detecting a user's utterance voice, and a voice included in the user's utterance voice based on the user's utterance voice detected in the voice detection step. A voice recognition command specifying step for specifying a recognition command; and a voice for executing predetermined control corresponding to the voice recognition command specified in the voice recognition command specifying step and selecting and displaying the voice recognition command on the display means A voice recognition control step, wherein the voice recognition command selected based on a predetermined condition for judging whether or not the user is likely to use is displayed on the display means. .

また、請求項7に記載の音声認識プログラムは、請求項6に記載の音声認識方法をコンピュータに実行させる。   A voice recognition program according to a seventh aspect causes a computer to execute the voice recognition method according to the sixth aspect.

請求項1に記載の音声認識装置、請求項6に記載の音声認識方法、及び請求項7に記載の音声認識プログラムによれば、ユーザが使用する可能性が高いか否かを判断する所定の条件に基づいて選択した音声認識コマンドを表示手段に表示させるので、例えば、複数の音声認識コマンドが階層構造にて階層化されている場合において、ユーザは階層化された複数の音声認識コマンドを最上位階層から最下位階層まで順次下らなくても、現在使用する可能性が高い音声認識コマンドを直接的に使用できるので、階層化された音声認識コマンドの操作性を向上させることができる。   According to the speech recognition device according to claim 1, the speech recognition method according to claim 6, and the speech recognition program according to claim 7, a predetermined determination as to whether or not the user is likely to use is performed. Since the voice recognition command selected based on the condition is displayed on the display means, for example, when a plurality of voice recognition commands are hierarchized in a hierarchical structure, the user can display the plurality of voice recognition commands hierarchically. Since voice recognition commands that are likely to be used now can be used directly without descending sequentially from the upper hierarchy to the lowest hierarchy, the operability of hierarchical voice recognition commands can be improved.

また、請求項2に記載の音声認識装置によれば、表示手段に地図が表示されている場合、ユーザが使用する可能性が高いか否かを判断する所定の条件に基づいて選択した音声認識コマンドを地図に重畳して表示させるので、地図表示中であっても現在使用可能な音声認識コマンドをユーザに視覚的に報知することができ、地図を見ているユーザが音声認識コマンドを使用する際の利便性を向上させることができる。   According to the voice recognition device of the second aspect, when the map is displayed on the display unit, the voice recognition selected based on a predetermined condition for judging whether or not the user is likely to use the map. Since the command is displayed superimposed on the map, it is possible to visually notify the user of voice recognition commands that are currently available even during map display, and the user viewing the map uses the voice recognition command. Convenience can be improved.

また、請求項3に記載の音声認識装置によれば、表示手段に表示させた音声認識コマンドを音声出力するので、現在使用可能な音声認識コマンドをユーザに音声により報知することができ、運転中のユーザが音声認識コマンドを使用する際の利便性や安全性を向上させることができる。   Further, according to the voice recognition device of the third aspect, since the voice recognition command displayed on the display means is output as voice, the voice recognition command that can be currently used can be notified to the user by voice, It is possible to improve convenience and safety when the user uses the voice recognition command.

また、請求項4に記載の音声認識装置によれば、複数の音声認識コマンドの相互間の優先順位を決定し、当該決定した優先順位の高い順に音声認識コマンドを音声出力するので、ユーザは現在使用可能な音声認識コマンドを優先順位が高い順から把握することができ、例えば、優先順位が低い音声認識コマンドが音声出力させることを待つことなく優先順位が高い音声認識コマンドを使用できるので、運転中のユーザが音声認識コマンドを使用する際の利便性を一層向上させることができる。   According to the voice recognition device of the fourth aspect, the priority among the plurality of voice recognition commands is determined, and the voice recognition commands are output in the order of the determined priority. The voice recognition commands that can be used can be grasped from the highest priority order. For example, the voice recognition commands with the higher priority order can be used without waiting for the voice recognition commands with the lower priority order to output the voice. It is possible to further improve convenience when the user inside uses the voice recognition command.

また、請求項5に記載の音声認識装置によれば、使用状況履歴情報に基づいて音声認識コマンドを選択するので、ユーザの過去の使用状況に合致した音声認識コマンドを選択することができ、音声認識コマンドの選択精度を高めることによってユーザの利便性を一層向上させることができる。   According to the voice recognition device of the fifth aspect, since the voice recognition command is selected based on the usage history information, it is possible to select a voice recognition command that matches the user's past usage status, The convenience of the user can be further improved by increasing the selection accuracy of the recognition command.

本発明の実施の形態に係るナビゲーション装置を例示するブロック図である。It is a block diagram which illustrates a navigation device concerning an embodiment of the invention. 音声認識コマンドテーブルを例示した表である。It is the table | surface which illustrated the speech recognition command table. 使用状況履歴情報DBに格納されている使用状況履歴情報を例示した表である。It is the table | surface which illustrated the usage status history information stored in usage status history information DB. 音声認識制御処理のフローチャートである。It is a flowchart of a voice recognition control process. 適応マッチング処理のフローチャートである。It is a flowchart of an adaptive matching process. 地図重畳表示処理のフローチャートである。It is a flowchart of a map superimposition display process. 重畳表示コマンドを重畳表示した地図の表示例である。It is a display example of a map in which a superimposed display command is superimposed. 音声認識コマンド実行処理のフローチャートである。It is a flowchart of a speech recognition command execution process. 同一画面表示処理のフローチャートである。It is a flowchart of the same screen display process. 図9に続く、同一画面表示処理のフローチャートである。10 is a flowchart of the same screen display process continued from FIG. 9. 標準コマンドと同一画面表示コマンドの表示例である。It is a display example of the same screen display command as the standard command. 音声認識コマンドの階層構造を例示した図である。It is the figure which illustrated the hierarchical structure of the voice recognition command.

以下、本発明に係る音声認識装置、音声認識方法、及び音声認識プログラムの実施の形態について図面を参照しつつ詳細に説明する。ただし、この実施の形態によって本発明が限定されるものではない。   Hereinafter, embodiments of a speech recognition device, a speech recognition method, and a speech recognition program according to the present invention will be described in detail with reference to the drawings. However, the present invention is not limited by this embodiment.

(基本的概念)
音声認識装置は、単独の装置として、あるいは、他の装置やシステムの一部として、構成することができる。以下では、音声認識装置を、車両に搭載されたナビゲーション装置の一部として構成した例について説明する。
(Basic concept)
The speech recognition device can be configured as a single device or as part of another device or system. Below, the example which comprised the speech recognition apparatus as a part of navigation apparatus mounted in the vehicle is demonstrated.

「音声認識コマンド」とは、音声認識装置に接続されたナビゲーション装置やエアコン等の各種接続機器に対する操作指示であって、発話音声により特定可能な操作指示である。
この音声認識コマンドは、例えば、従来と同様に、階層構造(ツリー構造)により階層化されている(階層構造に関連付けられている)。この階層構造における各階層のうち、最も上位の階層を「最上位階層」、最も下位の階層を「最下位階層」、これら最上位階層と最下位階層の間の階層を「中位階層」と称する。また、最上位階層に位置付けられた音声認識コマンドを「最上位階層コマンド」、最下位階層に位置付けられた音声認識コマンドを「最下位階層コマンド」、中位階層に位置付けられた音声認識コマンドを「中位階層コマンド」と称する。
The “voice recognition command” is an operation instruction for various connected devices such as a navigation apparatus and an air conditioner connected to the voice recognition apparatus, and is an operation instruction that can be specified by the uttered voice.
This voice recognition command is hierarchized by a hierarchical structure (tree structure), for example, as in the prior art (associated with the hierarchical structure). Of each hierarchy in this hierarchical structure, the highest hierarchy is the "highest hierarchy", the lowest hierarchy is the "lowest hierarchy", and the hierarchy between these highest and lowest hierarchy is the "middle hierarchy" Called. In addition, the voice recognition command positioned at the highest hierarchy is “highest hierarchy command”, the voice recognition command positioned at the lowest hierarchy is “lowest hierarchy command”, and the voice recognition command positioned at the middle hierarchy is “ This is referred to as a “middle hierarchy command”.

このように階層化された複数の音声認識コマンドの一部を選択してディスプレイに表示する。このようにディスプレイに表示すべき音声認識コマンドを選択する際の選択方法として、本実施の形態では、従来と同様に階層構造に基づいて選択する方法と、ユーザ(主として車両の運転者であるが、同乗者であってもよい)が使用する可能性が高いか否かを判断する所定の条件に基づいて選択する方法との2通りの方法を使用する。以下、前者の方法による選択を「標準選択」と称し、後者の方法による選択を「適応選択」と称する。また、標準選択により選択された音声認識コマンドを「標準コマンド(第1音声認識コマンド)」、適応選択により選択された音声認識コマンドを「適応コマンド(第2音声認識コマンド)」と称する。   A part of the plurality of voice recognition commands hierarchized in this way is selected and displayed on the display. In this embodiment, as a selection method when selecting a voice recognition command to be displayed on the display in this way, in the present embodiment, a selection method based on a hierarchical structure and a user (mainly a driver of a vehicle). , A passenger may be used), and a method of selecting based on a predetermined condition for determining whether or not there is a high possibility of use is used. Hereinafter, the selection by the former method is referred to as “standard selection”, and the selection by the latter method is referred to as “adaptive selection”. The voice recognition command selected by the standard selection is referred to as “standard command (first voice recognition command)”, and the voice recognition command selected by adaptive selection is referred to as “adaptive command (second voice recognition command)”.

適応コマンドをディスプレイに表示する方法として、本実施の形態では、ディスプレイに地図が表示されている場合に当該地図に重畳して適応コマンドを表示させる方法と、ディスプレイに標準コマンドを表示すべき場合に当該標準コマンドと同時に適応コマンドを表示させる方法との2通りの方法を使用する。同時に表示させるとは、ディスプレイにおける同一画面上に、これら標準コマンドと適応コマンドを表示させることを意味する。以下、前者の方法によって表示される適応コマンドを「重畳表示コマンド」、後者の方法によって表示される適応コマンドを「同一画面表示コマンド」と称する。   As a method for displaying an adaptive command on the display, in the present embodiment, when a map is displayed on the display, a method for displaying the adaptive command superimposed on the map and a case where a standard command should be displayed on the display. Two methods are used: an adaptive command is displayed simultaneously with the standard command. Displaying simultaneously means displaying the standard command and the adaptive command on the same screen in the display. Hereinafter, the adaptive command displayed by the former method is referred to as “superimposed display command”, and the adaptive command displayed by the latter method is referred to as “same screen display command”.

(構成−ナビゲーション装置)
最初に、本実施の形態に係る音声認識装置をその一部とするナビゲーション装置の構成について説明する。図1は、本実施の形態に係るナビゲーション装置1を例示するブロック図である。このナビゲーション装置1は、図1に示すように、制御部2及びデータ記録部3を備えている。また、ナビゲーション装置1には、マイク4、タッチパネル5、ディスプレイ6、スピーカ7、及び現在位置検出処理部8が接続されている。
(Configuration-navigation device)
First, a configuration of a navigation device that includes the voice recognition device according to the present embodiment as a part thereof will be described. FIG. 1 is a block diagram illustrating a navigation device 1 according to this embodiment. As shown in FIG. 1, the navigation device 1 includes a control unit 2 and a data recording unit 3. The navigation device 1 is connected to a microphone 4, a touch panel 5, a display 6, a speaker 7, and a current position detection processing unit 8.

(構成−ナビゲーション装置−制御部)
制御部2は、ナビゲーション装置1を制御する制御手段であり、具体的には、CPU、当該CPU上で解釈実行される各種のプログラム(OSなどの基本制御プログラムや、OS上で起動され特定機能を実現するアプリケーションプログラムを含む)、及びプログラムや各種のデータを格納するためのRAMの如き内部メモリを備えて構成されるコンピュータである。特に、本実施の形態に係る音声認識プログラムは、任意の記録媒体又はネットワークを介してナビゲーション装置1にインストールされることで、制御部2の各部を実質的に構成する。
(Configuration-Navigation device-Control unit)
The control unit 2 is a control unit that controls the navigation device 1. Specifically, the CPU, various programs that are interpreted and executed on the CPU (a basic control program such as an OS, a specific function that is activated on the OS, and the like) And an internal memory such as a RAM for storing the program and various data. In particular, the voice recognition program according to the present embodiment is substantially installed in the navigation device 1 via an arbitrary recording medium or network, thereby substantially configuring each unit of the control unit 2.

この制御部2は、機能概念的に、音声認識制御部2a、音声検出部2b、及び音声認識コマンド特定部2cを備える。音声認識制御部2aは、音声認識コマンド特定部2cにより特定された音声認識コマンドに対応する所定の制御を実行すると共に、音声認識コマンドを選択してディスプレイ6に表示させる音声認識制御手段である。音声検出部2bは、ユーザの発話音声を検出する音声検出手段である。音声認識コマンド特定部2cは、音声検出部2bにて検出されたユーザの発話音声に基づいて、当該ユーザの発話音声に含まれる音声認識コマンドを特定する音声認識コマンド特定手段である。これらの各部によって実行される処理の詳細については後述する。   The control unit 2 includes a voice recognition control unit 2a, a voice detection unit 2b, and a voice recognition command specifying unit 2c in terms of functional concept. The voice recognition control unit 2a is a voice recognition control unit that executes predetermined control corresponding to the voice recognition command specified by the voice recognition command specifying unit 2c, and selects the voice recognition command to be displayed on the display 6. The voice detection unit 2b is a voice detection unit that detects the voice of the user. The voice recognition command specifying unit 2c is a voice recognition command specifying unit that specifies a voice recognition command included in the user's uttered voice based on the user's uttered voice detected by the voice detecting unit 2b. Details of processing executed by each of these units will be described later.

(構成−ナビゲーション装置−データ記録部)
データ記録部3は、ナビゲーション装置1の動作に必要なプログラム及び各種のデータを記録する記録手段であり、例えば、外部記憶装置としてのハードディスク(図示省略)の如き磁気的記録媒体を用いて構成されている。ただし、ハードディスクに代えてあるいはハードディスクと共に、フラッシュメモリの如き半導体型記憶媒体、又はDVDやブルーレイディスクの如き光学的記録媒体を含む、その他の任意の記録媒体を用いることができる。
(Configuration-Navigation device-Data recording unit)
The data recording unit 3 is a recording unit that records a program and various data necessary for the operation of the navigation device 1, and is configured using a magnetic recording medium such as a hard disk (not shown) as an external storage device, for example. ing. However, any other recording medium including a semiconductor storage medium such as a flash memory or an optical recording medium such as a DVD or a Blu-ray disk can be used instead of or together with the hard disk.

このデータ記録部3は、地図情報データベース(以下、データベースを「DB」と称する)3a、音声認識コマンドテーブル3b、及び使用状況履歴情報DB3cを備えている。   The data recording unit 3 includes a map information database (hereinafter referred to as “DB”) 3a, a voice recognition command table 3b, and a usage status history information DB 3c.

地図情報DB3aは、地図情報を格納する地図情報格納手段である。「地図情報」は、例えばリンクデータ(リンク番号、接続ノード番号、道路座標、道路種別、車線数、法定速度、走行規制等)、ノードデータ(ノード番号、座標)、地物データ(信号機、道路標識、ガードレール、建物等)、施設データ(各施設の位置、各施設の種別等)、地形データ、地図をディスプレイ6に表示するための地図表示データ等を含んで構成されている。   The map information DB 3a is map information storage means for storing map information. “Map information” includes, for example, link data (link number, connection node number, road coordinates, road type, number of lanes, legal speed, travel regulations, etc.), node data (node numbers, coordinates), feature data (signals, roads Signs, guardrails, buildings, etc.), facility data (position of each facility, type of each facility, etc.), terrain data, map display data for displaying a map on the display 6, and the like.

音声認識コマンドテーブル3bは、音声認識コマンドを適応選択で選択するために必要な情報(適応選択用情報)を格納するテーブルである。この音声認識コマンドテーブル3bは、図2に例示するように、項目「音声認識コマンド」、項目「機能分類」、項目「選択基準分類」、項目「ユーザID」、項目「優先度」、及び項目「表示アルゴリズム」を含んでおり、これら各項目に対応する情報を相互に対応付けて構成されている。項目「音声認識コマンド」に対応する情報は、音声認識コマンドを特定するコマンド情報である。ただし、ここでは、音声認識コマンドの中で、最下位階層コマンド(図2では、例えば「規制情報」等)のみを含めている。項目「機能分類」に対応する情報は、音声認識コマンドを機能面から分類した場合の分類情報である(図2では、例えば「情報表示」等)。項目「選択基準分類」に対応する情報は、音声認識コマンドを適応選択する場合における選択基準面から分類した場合の分類情報である。この情報としては、「状況適応型」、「環境適応型」、及び「ユーザ適応型」の3つがある。「状況適応型」とは、短期的な状況(例えば、交通状況)に応じて選択される音声認識コマンドが属する分類である。「環境適応型」とは、中長期的な状況(例えば、高速道路走行中)に応じて選択される音声認識コマンドが属する分類である。「ユーザ適応型」とは、ユーザの属性、行動傾向、あるいは行動履歴等に基づいて選択される音声認識コマンドが属する分類である。項目「ユーザID」に対応する情報は、車両のユーザを一意に識別するためのユーザ識別情報である(図3では、例えば「UID0001」等)。項目「優先度」に対応する情報は、複数の適応コマンドをディスプレイ6に表示させる場合において、当該複数の適応コマンドの相互間の優先順位を決定するための優先順位決定条件である。図2の例では、優先度を「1」〜「5」までの数値で示しており、数値が小さい程、優先度が高いことを示している。特に、選択基準分類=ユーザ適応型である適応コマンドの優先度は、ユーザID毎に格納されている。項目「表示アルゴリズム」に対応する情報は、ユーザが使用する可能性が高いか否かを判断する所定の条件(選択条件)である。例えば、図2の一番上のレコードの例は、「高速道路走行中、かつ走行経路上の交通規制情報が受信された場合」という選択条件に合致する場合に、項目「音声認識コマンド」=「規制情報」を適応コマンドとして選択することを示している。このような音声認識コマンドテーブル3bは、任意の基準で決定されナビゲーション装置1の製造時にデータ記録部3に記録される。ただし、選択基準分類=ユーザ適応型の音声認識コマンドに対応する優先度は、後述する音声認識コマンド実行処理において必要に応じて更新される。   The voice recognition command table 3b is a table that stores information (information for adaptive selection) necessary for selecting a voice recognition command by adaptive selection. As illustrated in FIG. 2, the voice recognition command table 3b includes an item “voice recognition command”, an item “function classification”, an item “selection criterion classification”, an item “user ID”, an item “priority”, and an item. “Display algorithm” is included, and information corresponding to these items is associated with each other. Information corresponding to the item “voice recognition command” is command information for specifying the voice recognition command. However, here, only the lowest hierarchy command (eg, “regulation information” in FIG. 2) is included in the voice recognition command. The information corresponding to the item “function classification” is classification information when the voice recognition command is classified from the functional aspect (for example, “information display” in FIG. 2). The information corresponding to the item “selection reference classification” is classification information when the voice recognition command is classified from the selection reference plane in the case of adaptive selection. There are three types of information: “situation adaptive type”, “environment adaptive type”, and “user adaptive type”. The “situation adaptive type” is a classification to which a voice recognition command selected according to a short-term situation (for example, traffic situation) belongs. “Environment-adaptive type” is a classification to which a voice recognition command selected according to a medium- to long-term situation (for example, traveling on a highway) belongs. The “user adaptive type” is a classification to which a voice recognition command selected based on a user attribute, behavior tendency, behavior history, or the like belongs. The information corresponding to the item “user ID” is user identification information for uniquely identifying the user of the vehicle (for example, “UID0001” in FIG. 3). The information corresponding to the item “priority” is a priority determination condition for determining the priority among the plurality of adaptation commands when the plurality of adaptation commands are displayed on the display 6. In the example of FIG. 2, the priority is indicated by numerical values from “1” to “5”, and the lower the numerical value, the higher the priority. In particular, the priority of an adaptive command in which selection criterion classification = user adaptive type is stored for each user ID. Information corresponding to the item “display algorithm” is a predetermined condition (selection condition) for determining whether or not the user is highly likely to use the information. For example, the example of the top record in FIG. 2 shows that the item “speech recognition command” = when the condition “when traveling on an expressway and traffic regulation information on the travel route is received” is met. This indicates that “regulation information” is selected as an adaptation command. Such a voice recognition command table 3b is determined based on an arbitrary standard and is recorded in the data recording unit 3 when the navigation device 1 is manufactured. However, the priority corresponding to the selection criterion classification = user-adaptive voice recognition command is updated as necessary in a voice recognition command execution process described later.

使用状況履歴情報DB3cは、音声認識コマンドのユーザによる使用状況の履歴に関する情報(以下、使用状況履歴情報)を格納する使用状況履歴情報格納手段である。この使用状況履歴情報は、図3に例示するように、項目「ユーザID」、項目「音声認識コマンド」、項目「出発地」、項目「目的地」、項目「現在位置」、項目「案内開始日時」、項目「現在日時」、項目「走行道路種別」、項目「車速」、及び項目「ガソリン残量」を含んでおり、これら各項目に対応する情報を相互に対応付けて構成されている。項目「ユーザID」に対応する情報は、車両のユーザを一意に識別するためのユーザ識別情報である(図3では、例えば「UID0001」等)。項目「音声認識コマンド」に対応する情報は、図2の音声認識コマンドテーブル3bにおける同一名称の情報と同じである。項目「出発地」に対応する情報は、ナビゲーション装置1に設定されている車両の出発地を特定するための情報である(図3では、座標であり、例えば「35度35分21秒、139度38分18秒」等)。項目「目的地」に対応する情報は、ナビゲーション装置1に設定されている車両の目的地を特定するための情報である(図3では、座標であり、例えば「35度40分12秒、139度12分10秒」等)。項目「現在位置」に対応する情報は、使用状況履歴情報が取得された際の車両の位置を特定するための情報である(図3では、座標であり、例えば「35度37分12秒、139度20分01秒」等)。項目「案内開始日時」に対応する情報は、ナビゲーション装置1によって走行経路の案内を開始した日時を特定するための情報である(図3では、日付(西暦表示)と時刻(24時間表示)を併記したものであり、例えば「2011/08/01 13:55」等)。項目「現在日時」に対応する情報は、使用状況履歴情報が取得された際の日時を特定するための情報である(図3では、日付(西暦表示)と時刻(24時間表示)を併記したものであり、例えば「2011/08/01 14:43」等)。項目「走行道路種別」に対応する情報は、使用状況履歴情報が取得された際に車両が走行している道路の種別を特定するための情報である(図3では、例えば「高速道路」等)。項目「車速」に対応する情報は、使用状況履歴情報が取得された際の車両の車速を特定するための情報である(図3では、例えば「100Km/h」等)。項目「ガソリン残量」に対応する情報は、使用状況履歴情報が取得された際の車両のガソリンの残量を特定するための情報である(図3では、例えば「34L」等)。このような使用状況履歴情報DB3cの使用状況履歴情報は、後述する音声認識コマンド実行処理において更新されデータ記録部3に記録される。   The usage status history information DB 3c is usage status history information storage means for storing information related to the usage status history by the user of the voice recognition command (hereinafter referred to as usage status history information). As illustrated in FIG. 3, the usage history information includes an item “user ID”, an item “voice recognition command”, an item “departure point”, an item “destination”, an item “current position”, and an item “guidance start”. "Date and time", item "current date and time", item "travel road type", item "vehicle speed", and item "gasoline remaining amount", and information corresponding to each of these items is configured to be associated with each other . The information corresponding to the item “user ID” is user identification information for uniquely identifying the user of the vehicle (for example, “UID0001” in FIG. 3). The information corresponding to the item “voice recognition command” is the same as the information of the same name in the voice recognition command table 3b of FIG. The information corresponding to the item “departure place” is information for specifying the departure place of the vehicle set in the navigation device 1 (in FIG. 3, the coordinates are, for example, “35 degrees 35 minutes 21 seconds, 139 Degree 38 minutes 18 seconds "). The information corresponding to the item “Destination” is information for specifying the destination of the vehicle set in the navigation device 1 (in FIG. 3, it is a coordinate, for example, “35 degrees 40 minutes 12 seconds, 139 Degree 12 minutes 10 seconds "). The information corresponding to the item “current position” is information for specifying the position of the vehicle when the usage history information is acquired (in FIG. 3, the coordinates are, for example, “35 degrees 37 minutes 12 seconds, 139 degrees 20 minutes 01 seconds "). The information corresponding to the item “guidance start date / time” is information for specifying the date / time when the navigation device 1 started the guidance of the travel route (in FIG. 3, the date (year display) and the time (24 hours display) are displayed. For example, “2011/08/01 13:55”). The information corresponding to the item “current date and time” is information for specifying the date and time when the usage history information is acquired (in FIG. 3, the date (year display) and the time (24 hours display) are written together. For example, “2011/08/01 14:43”). The information corresponding to the item “traveling road type” is information for specifying the type of road on which the vehicle is traveling when the usage history information is acquired (in FIG. 3, for example, “highway”) ). The information corresponding to the item “vehicle speed” is information for specifying the vehicle speed of the vehicle when the usage history information is acquired (for example, “100 Km / h” in FIG. 3). The information corresponding to the item “remaining gasoline” is information for specifying the remaining amount of gasoline in the vehicle when the usage history information is acquired (for example, “34L” in FIG. 3). Such usage status history information in the usage status history information DB 3 c is updated and recorded in the data recording unit 3 in a voice recognition command execution process described later.

(構成−マイク)
図1に戻り、マイク4は、音声を電気信号に変換してナビゲーション装置1に出力する。このマイク4としては、公知のマイクを用いることができる。
(Configuration-microphone)
Returning to FIG. 1, the microphone 4 converts the sound into an electrical signal and outputs it to the navigation device 1. As this microphone 4, a known microphone can be used.

(構成−タッチパネル)
タッチパネル5は、ユーザの指等で押圧されることにより、当該ユーザから各種手動入力を受け付けるものである。このタッチパネル5は、透明又は半透明状に形成され、ディスプレイ6の前面において当該ディスプレイ6の表示面と重畳するように設けられている。このタッチパネル5としては、例えば抵抗膜方式や静電容量方式等による操作位置検出手段を備えた公知のタッチパネルを使用することができる。
(Configuration-touch panel)
The touch panel 5 receives various manual inputs from the user when pressed by the user's finger or the like. The touch panel 5 is formed to be transparent or translucent, and is provided on the front surface of the display 6 so as to overlap the display surface of the display 6. As the touch panel 5, for example, a publicly known touch panel provided with operation position detecting means by a resistance film method or a capacitance method can be used.

(構成−ディスプレイ)
ディスプレイ6は、ナビゲーション装置1の制御に基づいて情報を表示にて出力する表示手段である。特に、ディスプレイ6は、階層構造により階層化された所定の複数の音声認識コマンドの中から、音声認識制御部2aによって選択された音声認識コマンドを表示する表示手段である。なお、このディスプレイ6の具体的な構成は任意であり、公知の液晶ディスプレイや有機ELディスプレイの如きフラットパネルディスプレイを使用することができる。
(Configuration-Display)
The display 6 is display means for outputting information based on the control of the navigation device 1. In particular, the display 6 is a display unit that displays a voice recognition command selected by the voice recognition control unit 2a from a plurality of predetermined voice recognition commands hierarchized by a hierarchical structure. The specific configuration of the display 6 is arbitrary, and a known flat panel display such as a liquid crystal display or an organic EL display can be used.

(構成−スピーカ)
スピーカ7は、ナビゲーション装置1の制御に基づいて情報を音声にて出力する音声出力手段である。特に、スピーカ7は、音声認識コマンドをディスプレイ6に表示させた場合に、当該表示させた音声認識コマンドをユーザに認識させるための音声出力を出力する音声出力手段である。このスピーカ7から出力される音声の具体的な態様は任意であり、必要に応じて生成された合成音声や、予め録音された音声を出力することができる。
(Configuration-Speaker)
The speaker 7 is a voice output unit that outputs information by voice based on the control of the navigation device 1. In particular, when the voice recognition command is displayed on the display 6, the speaker 7 is voice output means for outputting a voice output for allowing the user to recognize the displayed voice recognition command. The specific form of the sound output from the speaker 7 is arbitrary, and it is possible to output a synthesized sound generated as necessary and a sound recorded in advance.

(構成−現在位置検出処理部)
現在位置検出処理部8は、ナビゲーション装置1が搭載された車両の現在位置を検出する現在位置検出手段である。具体的には、現在位置検出処理部8は、GPS、地磁気センサ、距離センサ、又はジャイロセンサ(いずれも図示省略)の少なくとも一つを有し、現在の車両の位置(座標)及び方位等を公知の方法にて検出する。
(Configuration-Current position detection processing unit)
The current position detection processing unit 8 is current position detection means for detecting the current position of the vehicle on which the navigation device 1 is mounted. Specifically, the current position detection processing unit 8 includes at least one of a GPS, a geomagnetic sensor, a distance sensor, and a gyro sensor (all of which are not shown), and determines the current vehicle position (coordinates), direction, and the like. Detection is performed by a known method.

(処理−音声認識制御処理)
次に、このように構成されたナビゲーション装置1によって実行される音声認識制御処理について説明する。図4は音声認識制御処理のフローチャートである(以下の各処理の説明ではステップを「S」と略記する)。この音声認識制御処理は、例えば、ナビゲーション装置1に電源が投入された後に起動される。
(Processing-Voice recognition control process)
Next, a speech recognition control process executed by the navigation device 1 configured as described above will be described. FIG. 4 is a flowchart of the voice recognition control process (in the following description of each process, step is abbreviated as “S”). This voice recognition control process is started after the navigation apparatus 1 is powered on, for example.

図4に示すように、音声認識制御処理が開始されると、音声認識制御部2aは、ユーザIDを取得する(SA1)。例えば、ユーザに自己のユーザIDの入力を促すメッセージを、ディスプレイ6に表示させたりスピーカ7から音声出力させたりし、ユーザが自己のユーザIDをタッチパネル5を介して入力した場合には、当該入力されたユーザIDを取得する。この他にも、公知の様々な方法でユーザIDを取得することができ、例えば、車両の内部に取り付けたカメラでユーザの顔部を撮影し、この撮影した画像に基づいてユーザを画像認識することでユーザを識別し、当該識別したユーザに対応するユーザIDを、予めデータ記録部3にユーザ画像と対応付けて記録されたユーザIDの中から取得する。   As shown in FIG. 4, when the voice recognition control process is started, the voice recognition control unit 2a acquires a user ID (SA1). For example, when a message prompting the user to input his / her user ID is displayed on the display 6 or voice output from the speaker 7 and the user inputs his / her user ID via the touch panel 5, the input Obtained user ID. In addition, the user ID can be acquired by various known methods. For example, the user's face is photographed with a camera attached to the inside of the vehicle, and the user is recognized based on the photographed image. Thus, the user is identified, and the user ID corresponding to the identified user is acquired from the user ID recorded in advance in the data recording unit 3 in association with the user image.

(処理−音声認識制御処理−適応マッチング処理)
次に、音声認識制御部2aは、適応マッチング処理を起動する(SA2)。図5は適応マッチング処理のフローチャートである。この処理において、音声認識制御部2aは、各種情報を取得する(SB1)。この各種情報としては、図2の音声認識コマンドテーブル3bの表示アルゴリズムの充足性を判定するために必要な情報を取得する。例えば、音声認識制御部2aは、出発地、目的地、現在位置、案内開始日時、現在日時、走行道路種別、車速、ガソリン残量を取得する。このうち、出発地、目的地、現在位置、案内開始日時、現在日時、及び走行道路種別は、ユーザによってナビゲーション装置1に設定された情報から取得したり、ナビゲーション装置1によって設定された走行経路から取得したり、地図情報DB3aから取得することができる。車速は、車両に搭載された図示しない車速センサから取得することができ、ガソリン残量は、車両に搭載された図示しない燃焼タンクセンサから取得することができる。また、音声認識制御部2aは、走行経路上の交通規制情報や渋滞情報を、図示しない通信部を介して交通センターやビーコン等から受信する。また、現在の一時的な情報のみでなく、一定の時間経過を伴う情報を取得することもでき、例えば、X分間の平均速度は、上記取得した車速をX分間だけ所定間隔で取得し続け、その平均値を算定することで取得することができる。
(Processing-Voice recognition control processing-Adaptive matching processing)
Next, the speech recognition control unit 2a activates adaptive matching processing (SA2). FIG. 5 is a flowchart of the adaptive matching process. In this process, the voice recognition control unit 2a acquires various information (SB1). As the various types of information, information necessary for determining the sufficiency of the display algorithm of the voice recognition command table 3b in FIG. 2 is acquired. For example, the voice recognition control unit 2a acquires a departure place, a destination, a current position, a guidance start date and time, a current date and time, a traveling road type, a vehicle speed, and a gasoline remaining amount. Among these, the departure point, the destination, the current position, the guidance start date and time, the current date and time, and the travel road type are acquired from information set in the navigation device 1 by the user or from the travel route set by the navigation device 1. It can be acquired or acquired from the map information DB 3a. The vehicle speed can be acquired from a vehicle speed sensor (not shown) mounted on the vehicle, and the gasoline remaining amount can be acquired from a combustion tank sensor (not shown) mounted on the vehicle. Further, the voice recognition control unit 2a receives traffic regulation information and traffic jam information on the travel route from a traffic center, a beacon, or the like via a communication unit (not shown). In addition, it is possible to acquire not only current temporary information but also information with a certain time lapse. For example, the average speed for X minutes continues to acquire the acquired vehicle speed at predetermined intervals for X minutes, It can be obtained by calculating the average value.

また、音声認識制御部2aは、使用状況履歴情報を取得する(SB2)。具体的には、音声認識制御部2aは、使用状況履歴情報DB3cに格納された使用状況履歴情報の中から、図4のSA1で取得したユーザIDに対応する使用状況履歴情報を取得する。   Further, the voice recognition control unit 2a acquires usage status history information (SB2). Specifically, the voice recognition control unit 2a acquires usage status history information corresponding to the user ID acquired in SA1 of FIG. 4 from the usage status history information stored in the usage status history information DB 3c.

そして、音声認識制御部2aは、適応コマンドを選択する(SB3)。具体的には、音声認識制御部2aは、図2の音声認識コマンドテーブル3bにおける選択基準分類=環境適応型又は状況適応型である音声認識コマンドの中から、SB1で取得した各種情報によって充足される表示アルゴリズムに対応する音声認識コマンドを特定し、当該特定した音声認識コマンドを適応コマンドとして選択する。例えば、SB1で取得した各種情報として、走行道路種別=高速道路が取得され、かつ、走行経路上の交通規制情報が受信された場合には、音声認識コマンド=規制情報に対応する表示アルゴリズム「高速道路走行中、かつ走行経路上の交通規制情報が受信された場合」が充足されるので、音声認識コマンド=規制情報を適応コマンドの候補とする。また、音声認識制御部2aは、選択基準分類=ユーザ適応型である音声認識コマンドの中から、SB2で取得した使用状況履歴情報に合致する表示アルゴリズムに対応する音声認識コマンドを特定し、当該特定した音声認識コマンドを適応コマンドとして選択する。例えば、SB2で取得した使用状況履歴情報に基づき、現在のユーザが、案内開始直後に一般道路案内をよく設定するユーザである場合(一例として、当該ユーザのユーザIDに対応するレコードとして、案内開始日時から現在日時までの経過時間が所定時間以内であって、音声認識コマンドが一般道優先案内であるレコードが、所定数以上含まれている場合)には、音声認識コマンド=一般道優先案内を、適応コマンドの候補とする。   Then, the voice recognition control unit 2a selects an adaptation command (SB3). Specifically, the voice recognition control unit 2a is satisfied with various information acquired in SB1 from the voice recognition commands of selection criteria classification = environment adaptive type or situation adaptive type in the voice recognition command table 3b of FIG. The voice recognition command corresponding to the display algorithm is specified, and the specified voice recognition command is selected as the adaptive command. For example, when the travel road type = highway is acquired as the various information acquired in SB1, and traffic regulation information on the travel route is received, the voice recognition command = display algorithm “high speed” Since “when traffic regulation information on a travel route is received while traveling on a road” is satisfied, voice recognition command = regulation information is set as a candidate for an adaptation command. In addition, the voice recognition control unit 2a specifies a voice recognition command corresponding to a display algorithm that matches the usage history information acquired in SB2 from the voice recognition commands of selection criterion classification = user adaptive type, and The selected voice recognition command is selected as an adaptive command. For example, based on the usage history information acquired in SB2, when the current user is a user who often sets general road guidance immediately after the start of guidance (for example, guidance start as a record corresponding to the user ID of the user) When the elapsed time from the date and time to the current date and time is within a predetermined time and the number of records in which the voice recognition command is general road priority guidance is included in a predetermined number or more), voice recognition command = general road priority guidance , To be candidates for adaptive commands.

このSB3において、音声認識制御部2aは、適応コマンドを所定数(例えば、3つ)だけ選択する。例えば、選択した適応コマンドが所定数に満たない場合には、音声認識コマンドテーブル3bの中から、未だ選択されていない適応コマンドの中から、音声認識コマンドテーブルに格納された優先度が最も高い適応コマンドを選択してもよい。逆に、選択した適応コマンドが所定数を超えている場合には、当該選択した適応コマンドの中から、音声認識コマンドテーブルに格納された優先度が高い順に所定数の適応コマンドを選択してもよく、あるいは所定数の適応コマンドをランダムに選択してもよい。また、所定数の適応コマンドは、機能分類毎に同じ数の適応コマンドを選択してもよい(例えば、所定数=4である場合に、機能分類=情報表示である音声認識コマンド、機能分類=地図表示切替である音声認識コマンド、機能分類=操作である音声認識コマンド、機能分類=案内である音声認識コマンドを、それぞれ1つずつ選択する等)。若しくは、所定数の適応コマンドは、選択基準分類毎に同じ数の適応コマンドを選択してもよい(例えば、所定数=3である場合に、選択基準分類=環境適応型である音声認識コマンド、選択基準分類=状況適応型である音声認識コマンド、選択基準分類=個人適応型である音声認識コマンドを、それぞれ1つずつ選択する等)。   In SB3, the speech recognition control unit 2a selects a predetermined number (for example, three) of adaptive commands. For example, when the number of selected adaptation commands is less than a predetermined number, the adaptation with the highest priority stored in the speech recognition command table from among the speech commands not yet selected from the speech recognition command table 3b. A command may be selected. On the other hand, if the selected number of adaptive commands exceeds the predetermined number, the predetermined number of adaptive commands may be selected from the selected adaptive commands in descending order of priority stored in the voice recognition command table. Alternatively, a predetermined number of adaptive commands may be selected at random. Further, the same number of adaptive commands may be selected for each function classification for the predetermined number of adaptation commands (for example, when the predetermined number = 4, function recognition = information recognition voice recognition command, function classification = A voice recognition command for switching map display, a voice recognition command for function classification = operation, and a voice recognition command for function classification = guidance are selected one by one). Alternatively, for the predetermined number of adaptation commands, the same number of adaptation commands may be selected for each selection criterion classification (for example, when the predetermined number = 3, the selection criterion classification = speech recognition command of environment adaptation type, Selection criteria classification = situation-adaptive voice recognition command, selection criteria classification = personal adaptation-type voice recognition command, etc., one by one).

次いで、音声認識制御部2aは、SB3で選択した適応コマンドの相互間の優先順位を、所定の優先順位決定条件に基づいて決定する(SB4)。この優先順位とは、適応コマンドをディスプレイ6に表示する際の優先順位であると共に、適応コマンドを音声出力する際の優先順位である。また、優先順位決定条件としては、音声認識コマンドテーブル3bの優先度を適用する。具体的には、音声認識制御部2aは、SB3で選択した適応コマンドの優先度を音声認識コマンドテーブル3bから取得し、当該取得した優先度が高い順に適応コマンドをソートする。例えば、SB3において、適応コマンドとして、規制情報(優先度=1)、市街図表示(優先度=3)、渋滞情報(優先度=2)を選択した場合には、これらをソートして、規制情報、渋滞情報、市街図表示の順に並び替える。この際、選択基準分類=ユーザ適応型である適応コマンドの優先度は、図4のSA1で取得したユーザIDに対応する優先度を使用する。   Next, the speech recognition control unit 2a determines the priority order between the adaptive commands selected in SB3 based on a predetermined priority order determination condition (SB4). The priority order is a priority order for displaying the adaptive command on the display 6 and also a priority order for outputting the adaptive command by voice. Moreover, the priority of the voice recognition command table 3b is applied as the priority order determination condition. Specifically, the voice recognition control unit 2a acquires the priority of the adaptive command selected in SB3 from the voice recognition command table 3b, and sorts the adaptive commands in descending order of the acquired priority. For example, in SB3, when restriction information (priority = 1), city map display (priority = 3), and traffic jam information (priority = 2) are selected as adaptation commands, these are sorted and restricted. Sort in the order of information, traffic jam information, and city map display. At this time, the priority corresponding to the user ID acquired in SA1 in FIG. 4 is used as the priority of the adaptation command in which selection criterion classification = user adaptive type.

次に、音声認識制御部2aは、SB4でソートした適応コマンドの更新が有るか否かを判定する(SB5)。すなわち、データ記録部3には、その時点でディスプレイ6に表示されている(あるいは、その時点で表示されていない場合には、過去直近に表示されていた)適応コマンドと、この適応コマンドのソート結果とが、記録されている。そして、音声認識制御部2aは、SB4でソートした適応コマンド及びそのソート結果が、データ記録部3に記録されている適応コマンド及びそのソート結果から一部でも変更されているか否か判定する。そして、変更されていない場合には、適応コマンドの更新がないものとして(SB5、No)、適応マッチング処理を終了する。一方、変更されている場合には、適応コマンドの更新が有るものとして(SB5、Yes)、適応コマンドが更新された旨の更新有りフラグをONとしてデータ記録部3に記録し(SB6)、適応マッチング処理を終了する。   Next, the voice recognition control unit 2a determines whether there is an update of the adaptive commands sorted in SB4 (SB5). That is, the data recording unit 3 displays the adaptive command currently displayed on the display 6 (or, if not displayed at that time, the last displayed command) and the sorting of the adaptive commands. Results are recorded. Then, the voice recognition control unit 2a determines whether or not the adaptive commands sorted in SB4 and the sorting results are partially changed from the adaptive commands recorded in the data recording unit 3 and the sorting results. If it has not been changed, it is assumed that the adaptive command has not been updated (SB5, No), and the adaptive matching process is terminated. On the other hand, if it has been changed, it is assumed that there is an update of the adaptation command (SB5, Yes), and an update flag indicating that the adaptation command has been updated is turned ON and recorded in the data recording unit 3 (SB6). The matching process ends.

(処理−音声認識制御処理)
次に、図4の音声認識制御処理に戻り、音声認識制御部2aは、ディスプレイ6に地図を表示中であるか否かを判定する(SA3)。そして、表示中である場合(SA3、Yes)、音声認識制御部2aは、地図に重畳表示コマンドを重畳表示するための地図重畳表示処理を起動する(SA4)。一方、表示中でない場合(SA3、No)、音声認識制御部2aは、音声識別コマンドを選択するためのメニュー(以下、音声識別メニュー)をディスプレイ6に表示中であるか否を判定し(SA5)、表示中である場合には(SA5、Yes)、同一画面表示コマンドを表示するための同一画面表示処理を起動し(SA6)、表示中でない場合には(SA5、No)、これら地図重畳表示処理や同一画面表示処理を起動することなく、SA7に移行する。
(Processing-Voice recognition control process)
Next, returning to the voice recognition control process of FIG. 4, the voice recognition control unit 2a determines whether or not a map is being displayed on the display 6 (SA3). When the display is being performed (SA3, Yes), the voice recognition control unit 2a activates a map superposition display process for superimposing and displaying a superimposition display command on the map (SA4). On the other hand, when not being displayed (SA3, No), the voice recognition control unit 2a determines whether a menu for selecting a voice identification command (hereinafter referred to as a voice identification menu) is being displayed on the display 6 (SA5). ) When the display is in progress (SA5, Yes), the same screen display process for displaying the same screen display command is started (SA6). When the display is not in progress (SA5, No), these map superpositions are performed. The process proceeds to SA7 without starting the display process or the same screen display process.

(処理−音声認識制御処理−地図重畳表示処理)
まず、地図重畳表示処理(SA4)について説明する。図6は、地図重畳表示処理のフローチャートである。この処理において、音声認識制御部2aは、ディスプレイ6に表示されている地図に、重畳表示コマンドを重畳表示する(SC1)。すなわち、音声認識制御部2aは、図5の適応マッチング処理のSB3で選択されSB4でソートされた適応コマンドを、重畳表示コマンドとして表示する。この重畳表示コマンドは、階層構造において最下位階層に位置付けられている音声認識コマンド(最下位階層コマンド)であることから、ユーザが直に操作内容を特定することができる音声認識コマンドを表示でき、音声認識による操作内容の指示をショートカットして迅速に行うことが可能になる。
(Processing-Voice recognition control process-Map overlay display process)
First, the map overlay display process (SA4) will be described. FIG. 6 is a flowchart of the map overlay display process. In this process, the voice recognition control unit 2a displays a superimposed display command on the map displayed on the display 6 (SC1). That is, the voice recognition control unit 2a displays the adaptive commands selected in SB3 of the adaptive matching process in FIG. 5 and sorted in SB4 as superimposed display commands. Since this superimposed display command is a voice recognition command (lowest hierarchy command) positioned in the lowest hierarchy in the hierarchical structure, a voice recognition command that allows the user to directly specify the operation content can be displayed. It becomes possible to quickly perform an operation content instruction by voice recognition by performing a shortcut.

このように重畳表示コマンドを重畳表示する際の表示領域は、ユーザにとって重要であると考えられる表示領域を除外した表示領域であることが好ましい。ユーザにとって重要であると考えられる表示領域としては、例えば、車両の現在位置が表示されている領域、走行経路が設定されている場合には出発地、目的地、走行経路が表示されている領域、交差点や案内標識の拡大表示領域、あるいは高速略図等の略図表示領域を挙げることができる。図7には、重畳表示コマンドを重畳表示した地図の表示例を示す。この表示例では、地図10に高速略図11が重畳表示されている場合を示しており、この地図10の表示領域のうち、高速略図11の表示領域を除外した表示領域に、複数の重畳表示コマンド12により構成された重畳表示コマンドメニュー13が重畳表示されている。このように縦並びで重畳表示コマンド12を表示する場合、上から下に至る順に、優先度が低くなるように表示することが好ましい。あるいは、重畳表示コマンド12を横並びで重畳表示してもよく、この場合、左から右に至る順に、優先度が低くなるように表示することが好ましい。また、縦並びと横並びのいずれの場合においても、重畳表示コマンド12を、表示領域の外枠に近傍において、当該外枠に沿って表示することが好ましい。   Thus, it is preferable that the display area when the superimposed display command is displayed in a superimposed manner is a display area excluding the display area considered to be important for the user. The display area considered to be important for the user includes, for example, an area in which the current position of the vehicle is displayed, and an area in which the departure point, destination, and travel route are displayed when a travel route is set. An enlarged display area of an intersection or a guide sign, or a schematic display area such as a high-speed schematic diagram. FIG. 7 shows a display example of a map on which the superimposed display command is superimposed. This display example shows a case where the high-speed schematic diagram 11 is superimposed on the map 10, and a plurality of superimposed display commands are displayed in the display area of the map 10 excluding the display area of the high-speed schematic diagram 11. The superimposed display command menu 13 constituted by 12 is displayed in a superimposed manner. When the superimposed display commands 12 are displayed in the vertical arrangement in this way, it is preferable to display the commands in order of decreasing priority from top to bottom. Alternatively, the superimposed display commands 12 may be superimposed and displayed side by side, and in this case, it is preferable to display the commands in order of decreasing priority from left to right. In either case of vertical alignment or horizontal alignment, the superimposed display command 12 is preferably displayed along the outer frame in the vicinity of the outer frame of the display area.

次に、図6において、音声認識制御部2aは、データ記録部3の更新有りフラグがONになっているか否かを判定する(SC2)。そして、更新有りフラグがONになっている場合(SC2、Yes)、音声認識制御部2aは、データ記録部3の更新有りフラグをOFFにすると共に(SC3)、SC1で地図に重畳表示した重畳表示コマンドを優先度順に音声出力する(SC4)。具体的には、重畳表示コマンドを、その優先度が高い順(図5の適応マッチング処理のSB4でソートされた順)に、スピーカ7を介して音声出力する。例えば、図7の場合、「音声認識コマンドとして、渋滞情報、高速略図、規制情報、を使用することができます。」のような音声メッセージを出力する。このことにより、ユーザは、現在使用可能な適応コマンドを、ディスプレイ6を見ることなく、優先度が高い順に把握することができる。   Next, in FIG. 6, the voice recognition control unit 2a determines whether or not the update flag of the data recording unit 3 is ON (SC2). If the updated flag is ON (SC2, Yes), the voice recognition control unit 2a turns OFF the updated flag in the data recording unit 3 (SC3) and superimposes superimposed on the map at SC1. The display command is output as a voice in order of priority (SC4). Specifically, the superimposed display commands are output through the speaker 7 in descending order of priority (order sorted by SB4 in the adaptive matching process in FIG. 5). For example, in the case of FIG. 7, a voice message such as “congestion information, high-speed schematic diagram, restriction information can be used as a voice recognition command” is output. Thus, the user can grasp the currently available adaptation commands in order of priority, without looking at the display 6.

次いで、図6において、音声出力を行った後や(SC4)、更新有りフラグがONになっていない場合(SC2、No)、音声認識コマンド特定部2cは、所定時間(例えば、1分)以内に、重畳表示コマンドの操作があったか否かを判定する(SC5)。具体的には、音声認識コマンド特定部2cは、ユーザの発話音声がマイク4を介して入力され音声検出部2bにて検出されたか否かを監視し、検出された場合には、当該検出された発話音声に、その時点でディスプレイ6に表示している重畳表示コマンドのいずれか一つが含まれているか否かを、公知の音声認識方法にて音声認識する。そして、重畳表示コマンドが含まれている場合、音声認識コマンド特定部2cは、音声認識コマンドの操作があったものと判定する(SC5、Yes)。この場合、重畳表示コマンドが最下位階層に位置付けられた音声認識コマンドであり、当該重畳表示コマンドが操作された場合には直ちに操作内容を特定できるため、当該重畳表示コマンドを対象とした音声認識コマンド実行処理を起動する(SC6)。そして、音声認識コマンド実行処理が終了した場合や、重畳表示コマンドの操作がないものと判定された場合には(SC5、No)、地図重畳表示処理を終了する。   Next, in FIG. 6, after performing voice output (SC4) or when the update flag is not ON (SC2, No), the voice recognition command specifying unit 2c is within a predetermined time (for example, 1 minute). Then, it is determined whether or not an operation of a superimposed display command has been performed (SC5). Specifically, the voice recognition command specifying unit 2c monitors whether or not the user's uttered voice is input through the microphone 4 and is detected by the voice detection unit 2b. Whether the uttered voice includes any one of the superimposed display commands currently displayed on the display 6 is recognized by a known voice recognition method. If the superimposed display command is included, the voice recognition command specifying unit 2c determines that the voice recognition command has been operated (SC5, Yes). In this case, since the superimposed display command is a voice recognition command positioned at the lowest hierarchy, and the operation content can be immediately specified when the superimposed display command is operated, the voice recognition command targeted for the superimposed display command. The execution process is started (SC6). When the voice recognition command execution process ends or when it is determined that there is no operation for the superimposed display command (No in SC5), the map superimposed display process ends.

(処理−音声認識制御処理−地図重畳表示処理−音声認識コマンド実行処理)
次に、音声認識コマンド実行処理(SC6)について説明する。図8は、音声認識コマンド実行処理のフローチャートである。この処理において、音声認識制御部2aは、図6のSC5で操作有りと判定された重畳表示コマンドに対応する、所定の操作内容を実行する(SD1)。例えば、重畳表示コマンド=規制情報である場合には、通信部を介して取得した規制情報をディスプレイ6に表示する。
(Processing-Voice recognition control process-Map overlay display process-Voice recognition command execution process)
Next, the voice recognition command execution process (SC6) will be described. FIG. 8 is a flowchart of voice recognition command execution processing. In this process, the voice recognition control unit 2a executes a predetermined operation content corresponding to the superimposed display command determined to be operated in SC5 of FIG. 6 (SD1). For example, when the superimposed display command = regulation information, the regulation information acquired through the communication unit is displayed on the display 6.

次いで、音声認識制御部2aは、各種情報を取得する(SD2)。この各種情報としては、図3の使用状況履歴情報DB3cの使用状況履歴情報から、ユーザID及び音声認識コマンドを除いた各情報を取得する。これら各情報の取得は、図5のSB1と同様に行うことができる。次いで、音声認識制御部2aは、使用状況履歴情報を更新する(SD3)。具体的には、SD1で実行した重畳表示コマンドである音声認識コマンドと、SD2で取得した各種情報と、図4のSA1で取得したユーザIDとを、相互に対応付けて使用状況履歴情報の新規なレコードを構成し、この新規なレコードを使用状況履歴情報DB3cに格納する。   Next, the voice recognition control unit 2a acquires various information (SD2). As the various types of information, each information excluding the user ID and the voice recognition command is acquired from the usage status history information in the usage status history information DB 3c of FIG. These pieces of information can be obtained in the same manner as SB1 in FIG. Next, the voice recognition control unit 2a updates the usage status history information (SD3). Specifically, the voice recognition command that is the superimposed display command executed in SD1, the various information acquired in SD2, and the user ID acquired in SA1 in FIG. The new record is stored in the usage status history information DB 3c.

その後、音声認識制御部2aは、優先度を必要に応じて更新する(SD4)。具体的には、音声認識制御部2aは、SD3で更新した使用状況履歴情報DB3cの使用状況履歴情報の中で、図4のSA1で取得したユーザIDに対応する使用状況履歴情報を参照する。そして、これまでに選択された音声認識コマンドの数を各音声認識コマンド毎に累計し、累計結果が多い順に優先度が高くなるように、各音声認識コマンドの優先度を新規に設定する。そして、当該新規に設定した優先度と、図4のSA1で取得したユーザIDに対応して図2の音声認識コマンドテーブル3bに既に設定されている優先度とを比較し、相違がある場合には、当該既に設定されている優先度を当該新規に設定した優先度で更新する。このような更新を行うことにより、選択基準分類=ユーザ適応型である音声認識コマンドの優先度が、ユーザによる音声認識コマンドの選択履歴に基づいて、常に最新の優先度に更新される。これにて音声認識コマンド実行処理を終了する。   Thereafter, the voice recognition control unit 2a updates the priority as necessary (SD4). Specifically, the voice recognition control unit 2a refers to the usage status history information corresponding to the user ID acquired in SA1 of FIG. 4 in the usage status history information of the usage status history information DB 3c updated in SD3. Then, the number of voice recognition commands selected so far is accumulated for each voice recognition command, and the priority of each voice recognition command is newly set so that the priority becomes higher in descending order of the cumulative result. Then, the newly set priority is compared with the priority already set in the voice recognition command table 3b in FIG. 2 corresponding to the user ID acquired in SA1 in FIG. Updates the already set priority with the newly set priority. By performing such updating, the priority of the voice recognition command in which the selection criterion classification = user adaptive type is always updated to the latest priority based on the selection history of the voice recognition command by the user. This completes the voice recognition command execution process.

(処理−音声認識制御処理−同一画面表示処理)
次に、図4の同一画面表示処理(SA6)について説明する。図9、10は、同一画面表示処理のフローチャートである。この処理において、音声認識制御部2aは、ディスプレイ6に標準コマンドを表示する(SE1)。この標準コマンドの選択は従来と同様の方法で行うことができ、最初に表示する標準コマンドとしては、階層構造により階層化された所定の音声認識コマンドの中で、最上位階層の標準コマンドを表示する。
(Processing-Voice recognition control processing-Same screen display processing)
Next, the same screen display process (SA6) in FIG. 4 will be described. 9 and 10 are flowcharts of the same screen display process. In this process, the voice recognition control unit 2a displays a standard command on the display 6 (SE1). This standard command can be selected in the same way as before. The standard command to be displayed first is the standard command at the highest level among the predetermined voice recognition commands hierarchized by the hierarchical structure. To do.

次いで、音声認識制御部2aは、ディスプレイ6に同一画面表示コマンドを表示する(SE2)。具体的には、音声認識制御部2aは、図5の適応マッチング処理のSB3で選択されSB4でソートされた適応コマンドを、同一画面表示コマンドとして、SE1で表示した標準コマンドと平行に表示する。   Next, the voice recognition control unit 2a displays the same screen display command on the display 6 (SE2). Specifically, the speech recognition control unit 2a displays the adaptive commands selected in SB3 of the adaptive matching process in FIG. 5 and sorted in SB4 as the same screen display command in parallel with the standard command displayed in SE1.

ここで、標準コマンドや同一画面表示コマンドの表示領域の位置や大きさは、任意に決定することができるが、これら標準コマンドや同一画面表示コマンドの表示数や表示サイズを考慮して決定することが好ましい。例えば、標準コマンドと同一画面表示コマンドを、相互に同一の表示数や表示サイズで表示する場合には、図11に例示するように、複数の標準コマンド20により構成された標準コマンドメニュー21の表示領域と、複数の同一画面表示コマンド22により構成された同一画面表示コマンドメニュー23の表示領域を、ディスプレイ6の表示領域全体の半分ずつとすることが好ましい。このように表示領域を半分ずつとする場合、図11のように左右半分の領域としてもよく、あるいは、上下半分の領域としてもよい。左右半分の領域とする場合には、図11のように、標準コマンド20を左半分の領域に表示し、同一画面表示コマンド22を右半分の領域に表示することが好ましい。あるいは、上下半分の領域とする場合には、標準コマンド20を上半分の領域に表示し、同一画面表示コマンド22を下半分の領域に表示することが好ましい。ただし、標準コマンド20の表示数と同一画面表示コマンド22の表示数を非同一とする場合(例えば、標準コマンド20の表示数を同一画面表示コマンド22の表示数より多くする場合)や、標準コマンド20の表示サイズと同一画面表示コマンド22の表示サイズを非同一とする場合(例えば、標準コマンド20の表示サイズを同一画面表示コマンド22の表示サイズより多くする場合)には、表示数が多くあるいは表示サイズが大きい方の表示領域を他方の表示領域より大きくしてもよい。このように決定した表示領域において、標準コマンド20や同一画面表示コマンド22は、図11のように縦並びで表示してもよく、あるいは横並びで表示してもよい。縦並びで同一画面表示コマンド22を表示する場合、上から下に至る順に、優先度が低くなるように表示することが好ましく、横並びで同一画面表示コマンド22を表示する場合、左から右に至る順に、優先度が低くなるように表示することが好ましい。   Here, the position and size of the display area of the standard command and the same screen display command can be arbitrarily determined, but should be determined in consideration of the display number and display size of these standard commands and the same screen display command. Is preferred. For example, when displaying the same screen display command as the standard command with the same display number and display size as each other, as shown in FIG. 11, the display of the standard command menu 21 composed of a plurality of standard commands 20 is displayed. It is preferable that the display area of the same screen display command menu 23 composed of the area and the plurality of same screen display commands 22 be half of the entire display area of the display 6. When the display area is halved in this way, it may be a left and right half area as shown in FIG. 11, or a top and bottom half area. In the case of the left and right half areas, it is preferable to display the standard command 20 in the left half area and the same screen display command 22 in the right half area as shown in FIG. Alternatively, when the upper and lower half areas are used, it is preferable to display the standard command 20 in the upper half area and display the same screen display command 22 in the lower half area. However, when the number of displays of the same screen display command 22 is not the same as the number of displays of the standard command 20 (for example, when the number of displays of the standard command 20 is larger than the number of displays of the same screen display command 22), When the display size of the same screen display command 22 is not the same as the display size of 20 (for example, when the display size of the standard command 20 is larger than the display size of the same screen display command 22), The display area with the larger display size may be larger than the other display area. In the display area determined as described above, the standard command 20 and the same screen display command 22 may be displayed vertically as shown in FIG. 11 or may be displayed horizontally. When displaying the same screen display command 22 in a vertical arrangement, it is preferable to display the commands in order of decreasing priority from top to bottom, and when displaying the same screen display command 22 in a horizontal arrangement, the display is from left to right. In order, it is preferable to display so that the priority becomes lower.

次に、音声認識制御部2aは、データ記録部3の更新有りフラグがONになっているか否かを判定し(SE3)、更新有りフラグがONになっている場合(SE3、Yes)、更新有りフラグをOFFにすると共に(SE4)、SE2で表示した同一画面表示コマンドを優先度順に音声出力する(SE5)。これらSE3〜SE5は、音声認識コマンドが重畳表示コマンドではなく同一画面表示コマンドである点を除いて、それぞれ図6の地図重畳表示処理におけるSC2〜SC4とほぼ同様に行うことができるので、その詳細な説明を省略する。   Next, the voice recognition control unit 2a determines whether or not the update flag of the data recording unit 3 is ON (SE3). If the update flag is ON (SE3, Yes), the update is performed. The existence flag is turned OFF (SE4), and the same screen display command displayed in SE2 is output in voice in order of priority (SE5). These SE3 to SE5 can be performed in substantially the same manner as SC2 to SC4 in the map overlay display process of FIG. 6 except that the voice recognition command is not the overlay display command but the same screen display command. The detailed explanation is omitted.

次に、音声認識コマンド特定部2cは、ユーザからの音声認識コマンドの操作が所定時間以内にあったか否かを図6のSC5と同様に判定し(SE6)、操作があった場合には、当該操作があった音声認識コマンドが、最下位階層コマンドではない標準コマンドの操作であるか否かを判定する(SE7)。そして、最下位階層コマンドではない標準コマンドの操作でないと判定した場合(SE7、No)、同一画面表示コマンドの操作又は最下位階層コマンドの標準コマンドの操作であり、当該操作された同一画面表示コマンド又は標準コマンドによって操作内容が特定できるので、音声認識コマンド特定部2cは、当該同一画面表示コマンド又は標準コマンドを対象とした音声認識コマンド実行処理を起動する(SE8)。この音声認識コマンド実行処理は、上述した図8の音声認識コマンド実行処理と同じであるため、その詳細な説明を省略する。   Next, the voice recognition command specifying unit 2c determines whether or not the user has operated the voice recognition command within a predetermined time (SE6) as in the case of SC5 in FIG. It is determined whether or not the operated voice recognition command is an operation of a standard command that is not the lowest hierarchy command (SE7). If it is determined that the operation is not a standard command that is not the lowest hierarchy command (SE7, No), it is an operation of the same screen display command or a standard command of the lowest hierarchy command, and the operated same screen display command Alternatively, since the operation content can be specified by the standard command, the voice recognition command specifying unit 2c starts the voice recognition command execution process for the same screen display command or the standard command (SE8). Since this voice recognition command execution process is the same as the voice recognition command execution process of FIG. 8 described above, detailed description thereof is omitted.

一方、最下位階層コマンドではない標準コマンドの操作であると判定した場合(SE7、Yes)、当該操作された標準コマンドによって操作内容が特定できないので、音声認識コマンド実行処理は未だ起動せず、音声認識制御部2aは、ディスプレイ6に表示している標準コマンドを更新する(SE9)。すなわち、音声認識制御部2aは、ディスプレイ6に現在表示している標準コマンドに代えて、当該標準コマンドが位置付けられている階層の直下の階層(1段階だけ下の階層)に位置付けられている標準コマンドを、ディスプレイ6に表示する。   On the other hand, if it is determined that the operation is a standard command that is not the lowest hierarchical command (SE7, Yes), the operation content cannot be specified by the operated standard command, so that the voice recognition command execution processing has not yet started, The recognition control unit 2a updates the standard command displayed on the display 6 (SE9). That is, the voice recognition control unit 2a replaces the standard command currently displayed on the display 6 with the standard positioned at the level immediately below the level where the standard command is positioned (one level below). The command is displayed on the display 6.

また、音声認識制御部2aは、次に表示すべき同一画面表示コマンドを選択する(SE10)。すなわち、音声認識制御部2aは、SE9の更新後にディスプレイ6に表示されている標準コマンドが位置付けられている階層に対応する最下位階層に位置付けられている音声認識コマンドを特定し、当該特定された音声認識コマンドの中から、図5のSB3と同様に、同一画面表示コマンドを所定数だけ選択する。例えば、図12に例示する音声認識コマンドの階層構造において、最初に最上位階層に位置付けられた音声認識コマンド「コマンド1」、「コマンド2」、「コマンド3」、「コマンド4」、「コマンド5」がディスプレイ6に表示されている状態において、図9のSE6で操作が行われた音声認識コマンドが「コマンド2」であった場合、図10のSE9では、音声認識コマンド「コマンド2」より一つ下の階層に位置付けられている音声認識コマンド「C」〜「F」をディスプレイ6に表示することになる。そして、SE10では、これらの音声認識コマンド「C」〜「F」に対応する最下位階層に位置付けられている音声認識コマンド「P」〜「X」の中から、同一画面表示コマンドを所定数だけ選択する。このように、標準コマンドとは異なる階層の同一画面表示コマンドを選択することで、同じ音声認識コマンドがディスプレイ6に重複して表示されることを防止できる。また、ディスプレイ6に表示されている標準コマンドに対応する最下位階層に位置付けられている同一画面表示コマンドを選択することで、ユーザが選択した音声認識コマンドに対応する音声認識コマンドであって、直に操作内容を特定することができる音声認識コマンドを表示でき、音声認識による操作内容の指示をショートカットして迅速に行うことが可能になる。   Further, the voice recognition control unit 2a selects the same screen display command to be displayed next (SE10). That is, the voice recognition control unit 2a specifies the voice recognition command positioned in the lowest hierarchy corresponding to the hierarchy in which the standard command displayed on the display 6 is positioned after the update of SE9. A predetermined number of the same screen display commands are selected from the voice recognition commands, as in SB3 of FIG. For example, in the hierarchical structure of the voice recognition commands illustrated in FIG. 12, the voice recognition commands “command 1”, “command 2”, “command 3”, “command 4”, “command 5” that are first positioned in the highest hierarchy. ”Is displayed on the display 6, if the voice recognition command operated in SE 6 of FIG. 9 is“ command 2 ”, in SE 9 of FIG. 10, the voice recognition command“ command 2 ”is The voice recognition commands “C” to “F” positioned in the next lower layer are displayed on the display 6. In SE10, a predetermined number of the same screen display commands are selected from the speech recognition commands “P” to “X” positioned in the lowest hierarchy corresponding to these speech recognition commands “C” to “F”. select. As described above, the same voice recognition command can be prevented from being repeatedly displayed on the display 6 by selecting the same screen display command in a layer different from the standard command. In addition, by selecting the same screen display command positioned at the lowest layer corresponding to the standard command displayed on the display 6, the voice recognition command corresponding to the voice recognition command selected by the user can be directly The voice recognition command that can specify the operation content can be displayed on the screen, and the instruction of the operation content by the voice recognition can be shortcutly performed.

その後、図10において、音声認識制御部2aは、SE9で更新した標準コマンドと、SE10で選択した同一画面表示コマンドとが、重複するか否かを判定する(SE11)。すなわち、標準コマンドの選択が繰り返されることで、SE9で更新した標準コマンドが最下位階層に位置付けられた標準コマンドになり、SE10で選択された同一画面表示コマンドと重複する可能性があるため、SE11においてこの重複の有無を判定する。そして、重複があった場合には(SE11、Yes)、重複している同一画面表示コマンドを除外して、SE10と同様に同一画面表示コマンドを再度選択する(SE12)。例えば、重複しているものとして除外した同一画面表示コマンドの次に優先度が高い同一画面表示コマンドを選択する。   Thereafter, in FIG. 10, the speech recognition control unit 2a determines whether or not the standard command updated in SE9 and the same screen display command selected in SE10 overlap (SE11). That is, by repeating the selection of the standard command, the standard command updated in SE9 becomes the standard command positioned in the lowest hierarchy, and may overlap with the same screen display command selected in SE10. In FIG. If there is an overlap (SE11, Yes), the same screen display command that is duplicated is excluded and the same screen display command is selected again in the same manner as in SE10 (SE12). For example, the same screen display command having the next highest priority is selected after the same screen display command excluded as being duplicated.

そして、音声認識制御部2aは、ディスプレイ6に現在表示している同一画面表示コマンドに代えて、SE12で再選択した同一画面表示コマンド、又は重複がなかった場合には(SE11、No)、SE10で選択された同一画面表示コマンドを、ディスプレイ6に表示して(SE13)、同一画面表示処理を終了する。   Then, the voice recognition control unit 2a replaces the same screen display command currently displayed on the display 6 with the same screen display command reselected in SE12, or when there is no overlap (SE11, No), SE10. The same screen display command selected in (1) is displayed on the display 6 (SE13), and the same screen display process is terminated.

(処理−音声認識制御処理)
図6の地図重畳表示処理の後、あるいは、図9、10の同一画面表示処理の後、図4の音声認識制御処理に戻り、音声認識制御部2aは、ナビゲーション装置1を電源OFFする旨の通知を、当該ナビゲーション装置1やその他の外部システム側から受信したか否かを判定する(SA7)。そして、受信していない場合には(SA7、No)、SA2に移行して適応マッチング処理(SA2)を繰り返し、受信した場合には(SA7、Yes)、音声認識制御処理を終了する。
(Processing-Voice recognition control process)
After the map superimposition display process of FIG. 6 or the same screen display process of FIGS. 9 and 10, the process returns to the voice recognition control process of FIG. 4, and the voice recognition control unit 2 a turns off the navigation device 1. It is determined whether the notification is received from the navigation device 1 or other external system side (SA7). If not received (SA7, No), the process proceeds to SA2 to repeat the adaptive matching process (SA2). If received (SA7, Yes), the speech recognition control process is terminated.

(効果)
このように本実施の形態によれば、ユーザが使用する可能性が高いか否かを判断する所定の条件に基づいて選択した音声認識コマンドをディスプレイ6に表示させるので、例えば、複数の音声認識コマンドが階層構造にて階層化されている場合において、ユーザは階層化された複数の音声認識コマンドを最上位階層から最下位階層まで順次下がらなくても音声認識コマンドを使用できるので、階層化された音声認識コマンドの操作性を向上させることができる。
(effect)
As described above, according to the present embodiment, since the voice recognition command selected based on the predetermined condition for determining whether or not the user is likely to use is displayed on the display 6, for example, a plurality of voice recognitions are performed. When commands are hierarchized in a hierarchical structure, the user can use the voice recognition commands without having to lower the hierarchical voice recognition commands from the highest hierarchy to the lowest hierarchy. The operability of voice recognition commands can be improved.

また、ディスプレイ6に地図が表示されている場合、ユーザが使用する可能性が高いか否かを判断する所定の条件に基づいて選択した音声認識コマンドを地図に重畳して表示させるので、地図表示中であっても現在使用可能な音声認識コマンドをユーザに視覚的に報知することができ、地図を見ているユーザが音声認識コマンドを使用する際の利便性を向上させることができる。   Further, when a map is displayed on the display 6, the voice recognition command selected based on a predetermined condition for determining whether or not the user is likely to use is superimposed on the map and displayed. Even in the middle, it is possible to visually notify the user of voice recognition commands that are currently available, and it is possible to improve convenience when the user who is looking at the map uses the voice recognition commands.

また、ディスプレイ6に表示させた音声認識コマンドを音声出力するので、現在使用可能な音声認識コマンドをユーザに音声により報知することができ、運転中のユーザが音声認識コマンドを使用する際の利便性や安全性を向上させることができる。   In addition, since the voice recognition command displayed on the display 6 is output as a voice, it is possible to notify the user of a voice recognition command that can be used at present by voice, and convenience for the user during driving to use the voice recognition command. And safety can be improved.

また、複数の音声認識コマンドの相互間の優先順位を決定し、当該決定した優先順位の高い順に音声認識コマンドを音声出力するので、ユーザは現在使用可能な音声認識コマンドを優先順位が高い順から把握することができ、例えば、優先順位が低い音声認識コマンドが音声出力させることを待つことなく優先順位が高い音声認識コマンドを使用できるので、運転中のユーザが音声認識コマンドを使用する際の利便性を一層向上させることができる。   In addition, since the priority order among a plurality of voice recognition commands is determined and the voice recognition commands are output in the order of the determined priority order, the user can select the voice recognition commands that can be used from the highest priority order. For example, since a voice recognition command with a high priority can be used without waiting for a voice recognition command with a low priority to be output, it is convenient for a driving user to use the voice recognition command. Property can be further improved.

また、使用状況履歴情報に基づいて音声認識コマンドを選択するので、ユーザの過去の使用状況に合致した音声認識コマンドを選択することができ、音声認識コマンドの選択精度を高めることによってユーザの利便性を一層向上させることができる。   In addition, since the voice recognition command is selected based on the usage status history information, it is possible to select a voice recognition command that matches the user's past usage status, and to improve the user's convenience by increasing the selection accuracy of the voice recognition command. Can be further improved.

〔各実施の形態に対する変形例〕
以上、本発明に係る実施の形態について説明したが、本発明の具体的な構成及び手段は、特許請求の範囲に記載した各発明の技術的思想の範囲内において、任意に改変及び改良することができる。以下、このような変形例について説明する。
[Modifications to Embodiments]
Although the embodiments of the present invention have been described above, the specific configuration and means of the present invention can be arbitrarily modified and improved within the scope of the technical idea of each invention described in the claims. Can do. Hereinafter, such a modification will be described.

(解決しようとする課題や発明の効果について)
まず、発明が解決しようとする課題や発明の効果は、上述の内容に限定されるものではなく、発明の実施環境や構成の細部に応じて異なる可能性があり、上述した課題の一部のみを解決したり、上述した効果の一部のみを奏することがある。
(About problems to be solved and effects of the invention)
First, the problems to be solved by the invention and the effects of the invention are not limited to the above contents, and may vary depending on the implementation environment and details of the configuration of the invention. May be solved, or only some of the effects described above may be achieved.

(ナビゲーション装置の構成について)
また、上述した各電気的構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成できる。例えば、音声認識装置を複数の装置によって分散して構成された音声認識制御システムとして車両に搭載してもよく、あるいは制御部2やデータ記録部3の全部又は一部をネットワーク上に分散配置してもよい。また例えば、音声認識装置を、携帯電話やパーソナルコンピュータに組み込んでもよい。
(Configuration of navigation device)
Further, each of the electrical components described above is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each part is not limited to the one shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in arbitrary units according to various loads and usage conditions. Can be configured. For example, the voice recognition device may be mounted on the vehicle as a voice recognition control system configured by distributing a plurality of devices, or all or part of the control unit 2 and the data recording unit 3 may be distributed on the network. May be. For example, the voice recognition device may be incorporated in a mobile phone or a personal computer.

(適応コマンドの選択対象について)
上記実施の形態では、ユーザが現在使用する可能性が高い音声認識コマンドとして、最下位階層コマンドを選択するものとして説明したが、最下位階層コマンドに代えて、あるいは、最下位階層コマンドに加えて、中位階層コマンドを選択するようにしてもよい。
(Adaptive command selection target)
In the above-described embodiment, it has been described that the lowest hierarchy command is selected as a voice recognition command that is likely to be used by the user. However, instead of the lowest hierarchy command or in addition to the lowest hierarchy command, The middle-level command may be selected.

(適応コマンドの選択条件について)
ユーザが使用する可能性が高いか否かを判断する所定の条件としては、図2の音声認識コマンドテーブルに示した表示アルゴリズムに代えて、あるいは、表示アルゴリズムに加えて、他の任意の表示アルゴリズムを使用してもよい。
(Adaptive command selection conditions)
As a predetermined condition for determining whether or not the user is likely to use, any other display algorithm may be used instead of or in addition to the display algorithm shown in the voice recognition command table of FIG. May be used.

(適応コマンドの優先順位決定条件について)
複数の音声認識コマンドの相互間の優先順位を決定するための優先順位決定条件としては、図2の音声認識コマンドテーブルに示した優先度に代えて、あるいは、優先度に加えて、他の任意の優先度を使用してもよい。例えば、ユーザが設定した優先度を使用してもよい。また、図2の例では、選択基準分類=ユーザ適応型である音声認識コマンドに対しては、ユーザID毎に優先度を設定しているが、全てのユーザに対して同一の優先度を設定してもよい。
(Adaptive command priority determination conditions)
As priority determination conditions for determining the priorities among a plurality of voice recognition commands, other arbitrary ones may be used instead of or in addition to the priorities shown in the voice recognition command table of FIG. Priority may be used. For example, the priority set by the user may be used. In the example of FIG. 2, the priority is set for each user ID for the voice recognition command in which selection criterion classification = user adaptive type, but the same priority is set for all users. May be.

(適応コマンドの表示方法について)
上記実施の形態では、適応コマンドを、地図に重畳表示したり、標準コマンドと同一画面に表示する例を説明したが、他の方法で表示を行ってもよい。例えば、ディスプレイに地図が表示されている場合において、適応コマンドを表示する場合に、地図に代えて適応コマンドのみを表示したり、これら地図と適応コマンドを所定間隔で交互に表示したり、地図と適応コマンドを異なる表示領域に非重畳的に表示してもよい。また、標準コマンドと適応コマンドを表示する場合において、標準コマンドと適応コマンドを所定間隔で交互に表示してもよい。
また、各適応コマンドを個別的に表示する以外にも、例えば、「その他」という音声認識コマンドをディスプレイ6に表示し、当該音声認識コマンドが選択された場合には、その時点でディスプレイ6に表示していない他の適応コマンドをディスプレイ6に表示するようにしてもよい。
(Adaptive command display method)
In the above-described embodiment, the example in which the adaptive command is superimposed on the map or displayed on the same screen as the standard command has been described. However, the adaptive command may be displayed by other methods. For example, when a map is displayed on the display, when displaying an adaptive command, only the adaptive command is displayed instead of the map, or the map and the adaptive command are alternately displayed at a predetermined interval, The adaptive command may be displayed non-superimposed on different display areas. Further, when displaying the standard command and the adaptive command, the standard command and the adaptive command may be alternately displayed at a predetermined interval.
In addition to displaying each adaptive command individually, for example, a voice recognition command “other” is displayed on the display 6, and when the voice recognition command is selected, it is displayed on the display 6 at that time. Other adaptive commands that are not performed may be displayed on the display 6.

(使用状況履歴情報について)
データ記録部に記録する使用状況履歴情報の内容や、使用状況履歴情報を使用した優先度の更新方法は、任意に変更することができる。例えば、階層化された音声認識コマンドを最下位階層コマンドまで選択する前に、車両が走行を開始した場合、安全のために音声認識コマンドを用いたそれ以上の操作が規制された場合、当該記載された際の状況(走行経路や、停車してから走行するまでの時間等)と当該操作が規制された際に表示していた音声認識コマンドとを特定するための使用状況履歴情報を記録しておく。そして、その後に、当該状況と同一の状況になったことが特定された場合には、過去に操作が規制された際に表示していた音声認識コマンドに対応する最下位階層コマンドを表示することで、操作が規制される前に音声認識コマンドを用いた操作を完了し易くするようにしてもよい。
(About usage history information)
The contents of the usage status history information recorded in the data recording unit and the priority update method using the usage status history information can be arbitrarily changed. For example, if the vehicle starts running before selecting the hierarchical voice recognition command up to the lowest hierarchy command, or if further operations using the voice recognition command are restricted for safety, the description Record the usage history information to identify the situation (traveling route, time from when the vehicle stopped to travel, etc.) and the voice recognition command that was displayed when the operation was restricted Keep it. After that, when it is specified that the situation is the same as the situation, the lowest hierarchy command corresponding to the voice recognition command that was displayed when the operation was restricted in the past is displayed. Thus, the operation using the voice recognition command may be easily completed before the operation is restricted.

1 ナビゲーション装置
2 制御部
2a 音声認識制御部
2b 音声検出部
2c 音声認識コマンド特定部
3 データ記録部
3a 地図情報DB
3b 音声認識コマンドテーブル
3c 使用状況履歴情報DB
4 マイク
5 タッチパネル
6 ディスプレイ
7 スピーカ
8 現在位置検出処理部
10 地図
11 高速略図
12 重畳表示コマンド
13 重畳表示コマンドメニュー
20 標準コマンド
21 標準コマンドメニュー
22 同一画面表示コマンド
23 同一画面表示コマンドメニュー
DESCRIPTION OF SYMBOLS 1 Navigation apparatus 2 Control part 2a Voice recognition control part 2b Voice detection part 2c Voice recognition command specific part 3 Data recording part 3a Map information DB
3b Voice recognition command table 3c Usage history information DB
4 Microphone 5 Touch panel 6 Display 7 Speaker 8 Current position detection processing unit 10 Map 11 High-speed schematic diagram 12 Overlay display command 13 Overlay display command menu 20 Standard command 21 Standard command menu 22 Same screen display command 23 Same screen display command menu

Claims (7)

ユーザの発話音声を検出する音声検出手段と、
前記音声検出手段にて検出されたユーザの発話音声に基づいて、当該ユーザの発話音声に含まれる音声認識コマンドを特定する音声認識コマンド特定手段と、
前記音声認識コマンド特定手段により特定された音声認識コマンドに対応する所定の制御を実行すると共に、前記音声認識コマンドを選択して表示手段に表示させる音声認識制御手段と、を備え、
前記音声認識制御手段は、ユーザが使用する可能性が高いか否かを判断する所定の条件に基づいて選択した前記音声認識コマンドを、前記表示手段に表示させる、
音声認識装置。
A voice detection means for detecting a user's speech;
Voice recognition command specifying means for specifying a voice recognition command included in the user's uttered voice based on the user's uttered voice detected by the voice detecting means;
Voice recognition control means for executing predetermined control corresponding to the voice recognition command specified by the voice recognition command specifying means, and selecting and displaying the voice recognition command on a display means;
The voice recognition control means causes the display means to display the voice recognition command selected based on a predetermined condition for determining whether or not the user is likely to use the voice recognition control means;
Voice recognition device.
前記音声認識制御手段は、前記表示手段に地図が表示されている場合、前記ユーザが使用する可能性が高いか否かを判断する所定の条件に基づいて選択した音声認識コマンドを、当該地図に重畳して当該表示手段に表示させる、
請求項1に記載の音声認識装置。
When a map is displayed on the display unit, the voice recognition control unit displays a voice recognition command selected based on a predetermined condition for determining whether or not the user is likely to use the map on the map. Superimposed and displayed on the display means,
The speech recognition apparatus according to claim 1.
ユーザに対する音声出力を行う音声出力手段を備え、
前記音声認識制御手段は、前記音声認識コマンドを前記表示手段に表示させた場合に、当該表示させた音声認識コマンドをユーザに認識させるための音声出力を前記音声出力手段に出力させる、
請求項1又は2に記載の音声認識装置。
Voice output means for outputting voice to the user,
The voice recognition control means causes the voice output means to output a voice output for allowing the user to recognize the displayed voice recognition command when the voice recognition command is displayed on the display means.
The speech recognition apparatus according to claim 1 or 2.
前記音声認識制御手段は、複数の前記音声認識コマンドを前記表示手段に表示させる場合において、当該複数の前記音声認識コマンドの相互間の優先順位を、所定の優先順位決定条件に基づいて決定し、当該決定した優先順位の高い順に、当該音声認識コマンドをユーザに認識させるための音声出力を前記音声出力手段に出力させる、
請求項3に記載の音声認識装置。
The voice recognition control means, when displaying a plurality of the voice recognition commands on the display means, determines the priority among the plurality of voice recognition commands based on a predetermined priority determination condition; In order of the determined priority order, the voice output means for outputting the voice output for allowing the user to recognize the voice recognition command,
The speech recognition apparatus according to claim 3.
音声認識コマンドのユーザによる使用状況の履歴に関する使用状況履歴情報を格納する使用状況履歴情報格納手段を備え、
前記音声認識制御手段は、
前記表示手段に音声認識コマンドを表示させた後、当該音声認識コマンドのユーザによる使用状況に基づいて、当該音声認識コマンドの使用状況履歴情報を前記使用状況履歴情報格納手段に格納し、
前記表示手段に音声認識コマンドを表示させる際、前記使用状況履歴情報格納手段に格納した前記使用状況履歴情報に基づいて、音声認識コマンドを選択する、
請求項1から4のいずれか一項に記載の音声認識装置。
A usage history information storage unit for storing usage history information related to a usage history of a voice recognition command by a user;
The voice recognition control means includes
After displaying the voice recognition command on the display means, based on the usage status of the voice recognition command by the user, the usage status history information of the voice recognition command is stored in the usage status history information storage means,
When displaying a voice recognition command on the display means, a voice recognition command is selected based on the usage status history information stored in the usage status history information storage means.
The speech recognition device according to any one of claims 1 to 4.
ユーザの発話音声を検出する音声検出ステップと、
前記音声検出ステップにおいて検出されたユーザの発話音声に基づいて、当該ユーザの発話音声に含まれる音声認識コマンドを特定する音声認識コマンド特定ステップと、
前記音声認識コマンド特定ステップにおいて特定された音声認識コマンドに対応する所定の制御を実行すると共に、前記音声認識コマンドを選択して表示手段に表示させる音声認識制御ステップと、を含み、
前記音声認識制御ステップにおいては、ユーザが使用する可能性が高いか否かを判断する所定の条件に基づいて選択した前記音声認識コマンドを、前記表示手段に表示させる、
音声認識方法。
A voice detection step for detecting a user's speech;
A voice recognition command specifying step for specifying a voice recognition command included in the voice of the user based on the voice of the user detected in the voice detection step;
A voice recognition control step of performing predetermined control corresponding to the voice recognition command specified in the voice recognition command specifying step, and selecting and displaying the voice recognition command on a display unit;
In the voice recognition control step, the voice recognition command selected based on a predetermined condition for determining whether or not the user is likely to use is displayed on the display means.
Speech recognition method.
請求項6に記載の方法をコンピュータに実行させる音声認識プログラム。   A speech recognition program for causing a computer to execute the method according to claim 6.
JP2011190169A 2011-08-31 2011-08-31 Speech recognition apparatus, speech recognition method, and speech recognition program Active JP5906615B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011190169A JP5906615B2 (en) 2011-08-31 2011-08-31 Speech recognition apparatus, speech recognition method, and speech recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011190169A JP5906615B2 (en) 2011-08-31 2011-08-31 Speech recognition apparatus, speech recognition method, and speech recognition program

Publications (2)

Publication Number Publication Date
JP2013054074A true JP2013054074A (en) 2013-03-21
JP5906615B2 JP5906615B2 (en) 2016-04-20

Family

ID=48131149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011190169A Active JP5906615B2 (en) 2011-08-31 2011-08-31 Speech recognition apparatus, speech recognition method, and speech recognition program

Country Status (1)

Country Link
JP (1) JP5906615B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015068699A1 (en) * 2013-11-08 2015-05-14 株式会社ソニー・コンピュータエンタテインメント Entertainment device, display control method, program and information storage medium
CN111857636A (en) * 2019-04-24 2020-10-30 本田技研工业株式会社 Voice operation system, voice operation device, voice operation control method, and recording medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11189264B2 (en) * 2019-07-08 2021-11-30 Google Llc Speech recognition hypothesis generation according to previous occurrences of hypotheses terms and/or contextual data

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250592A (en) * 1999-03-03 2000-09-14 Toyota Motor Corp Speech recognizing operation system
JP2001027540A (en) * 1999-07-14 2001-01-30 Fujitsu Ten Ltd Navigation method to use function of voice recognition
JP2001154689A (en) * 1999-11-25 2001-06-08 Nippon Seiki Co Ltd Voice recognition device
JP2003114698A (en) * 2001-10-03 2003-04-18 Denso Corp Command acceptance device and program
JP2003227729A (en) * 2002-02-05 2003-08-15 Nissan Motor Co Ltd Navigation system and method and program for displaying image
JP2003241784A (en) * 2002-02-21 2003-08-29 Nissan Motor Co Ltd Speech input and output device
JP2003241793A (en) * 2002-02-14 2003-08-29 Nissan Motor Co Ltd Display device, and method and program for name display
JP2005173109A (en) * 2003-12-10 2005-06-30 Nissan Motor Co Ltd Speech recognition device
JP2006251298A (en) * 2005-03-10 2006-09-21 Nissan Motor Co Ltd Device and method for inputting voice
JP2008310344A (en) * 2008-07-17 2008-12-25 Pioneer Electronic Corp Presentation device and presentation method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250592A (en) * 1999-03-03 2000-09-14 Toyota Motor Corp Speech recognizing operation system
JP2001027540A (en) * 1999-07-14 2001-01-30 Fujitsu Ten Ltd Navigation method to use function of voice recognition
JP2001154689A (en) * 1999-11-25 2001-06-08 Nippon Seiki Co Ltd Voice recognition device
JP2003114698A (en) * 2001-10-03 2003-04-18 Denso Corp Command acceptance device and program
JP2003227729A (en) * 2002-02-05 2003-08-15 Nissan Motor Co Ltd Navigation system and method and program for displaying image
JP2003241793A (en) * 2002-02-14 2003-08-29 Nissan Motor Co Ltd Display device, and method and program for name display
JP2003241784A (en) * 2002-02-21 2003-08-29 Nissan Motor Co Ltd Speech input and output device
JP2005173109A (en) * 2003-12-10 2005-06-30 Nissan Motor Co Ltd Speech recognition device
JP2006251298A (en) * 2005-03-10 2006-09-21 Nissan Motor Co Ltd Device and method for inputting voice
JP2008310344A (en) * 2008-07-17 2008-12-25 Pioneer Electronic Corp Presentation device and presentation method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015068699A1 (en) * 2013-11-08 2015-05-14 株式会社ソニー・コンピュータエンタテインメント Entertainment device, display control method, program and information storage medium
JPWO2015068699A1 (en) * 2013-11-08 2017-03-09 株式会社ソニー・インタラクティブエンタテインメント Entertainment device, display control method, program, and information storage medium
US11090556B2 (en) 2013-11-08 2021-08-17 Sony Interactive Entertainment Inc. Entertainment device, display control method, program, and information storage medium
CN111857636A (en) * 2019-04-24 2020-10-30 本田技研工业株式会社 Voice operation system, voice operation device, voice operation control method, and recording medium

Also Published As

Publication number Publication date
JP5906615B2 (en) 2016-04-20

Similar Documents

Publication Publication Date Title
JP5810759B2 (en) Speech recognition apparatus, speech recognition method, and speech recognition program
CN102027325B (en) Navigation apparatus and method of detection that a parking facility is sought
US7894985B2 (en) Facility searching device, program, navigation device, and facility searching method
US7813874B2 (en) On-vehicle navigation system, route guide method, and computer-readable recording medium
US10866107B2 (en) Navigation system
US9074909B2 (en) Navigation system, navigation method, and navigation program
JPWO2008075496A1 (en) Navigation device
WO2005096183A1 (en) Data selection device, method, program, and recording medium
JP2008014818A (en) Operation control device and program
JP2003121186A (en) Guide route searching method for navigator
JP3970661B2 (en) Car navigation system
JP4554379B2 (en) Navigation device
JP4380146B2 (en) Map image display device and map image display program
JP2007205894A (en) Onboard navigation device and displaying method for retrieved facility
JP5906615B2 (en) Speech recognition apparatus, speech recognition method, and speech recognition program
JP2006317157A (en) Navigation apparatus, and route search method
CN102538805A (en) Navigation device, and method for retrieving alternative facility by navigation device
JP2010223695A (en) Navigation system
JP2008076359A (en) On-vehicle navigation system, preparation method for searching data, and search method for guide route
JP2007127519A (en) Navigation apparatus and method of setting search condition
JP2011209241A (en) Facility guiding device, facility guiding method and computer program
JP4091444B2 (en) Navigation device
JP2005077187A (en) In-vehicle navigation device and route guiding method
JP2006023127A (en) Navigation system, and method for presenting spot-of-concern information
KR101248400B1 (en) navigation system displaying 3D type child POI and method for controling the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160307

R150 Certificate of patent or registration of utility model

Ref document number: 5906615

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150