JP2009180914A - Operation unit for voice-recognizing device - Google Patents
Operation unit for voice-recognizing device Download PDFInfo
- Publication number
- JP2009180914A JP2009180914A JP2008019521A JP2008019521A JP2009180914A JP 2009180914 A JP2009180914 A JP 2009180914A JP 2008019521 A JP2008019521 A JP 2008019521A JP 2008019521 A JP2008019521 A JP 2008019521A JP 2009180914 A JP2009180914 A JP 2009180914A
- Authority
- JP
- Japan
- Prior art keywords
- selection menu
- item
- voice
- function
- voice recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、例えば、車両内に設けられたエアコン機器、オーディオ機器等の各種車載機器を集中管理すべく設けられ、音声認識を介在させることで、ユーザ(車両の運転者等)に当該各車載機器を操作させ、各車載機器の機能を実行させる音声認識機器操作装置に関する。 The present invention is provided to centrally manage various in-vehicle devices such as an air conditioner device and an audio device provided in a vehicle, and each vehicle-mounted device is provided to a user (vehicle driver or the like) by interposing voice recognition. The present invention relates to a voice recognition device operating device that operates a device and executes a function of each in-vehicle device.
従来より、複写機、ファクシミリ装置、プリンタ装置、スキャナ装置やそれらの機能を1台に統合した複合機やコンピュータ等のOA機器をユーザに集約的に操作させるために機器操作装置が設けられている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, a device operating device has been provided to allow a user to centrally operate OA devices such as a copier, a facsimile machine, a printer device, a scanner device and a multifunction device or a computer in which those functions are integrated into one unit. (For example, refer to Patent Document 1).
この機器操作装置では、階層メニューごとに操作項目を選択可能とし、該操作項目を選択することで当該OA機器に特定の機能を実行可能としている。
この種の機器操作装置には、ユーザの音声に含まれる指示語に基づいて所定の機能を実行させると共に、同じ指示語が多様な機能に対応している場合には、頻度の高いものを優先させることで指示語毎にユーザの所望する機能を優先的に実行することを可能とした音声認識機器操作装置が知られている(例えば、特許文献2参照)。
In this type of device operating device, a predetermined function is executed based on an instruction word included in the user's voice, and when the same instruction word corresponds to various functions, the one with higher frequency is given priority. Thus, there is known a voice recognition device operating device that can preferentially execute a function desired by a user for each instruction word (see, for example, Patent Document 2).
しかしながら、この技術では、例えば、「アップ」等の指示語がユーザにより音声として発せられ、当該指示語がオーディオ機器のCDプレーヤの音量の上昇について頻度が最も高いものであった場合に、いきなり当該CDプレーヤの音量の上昇機能が実行され、ユーザが所望する機能の実行が迅速に行われるものの、利便性が損なわれる問題点があった。 However, in this technique, for example, when an instruction word such as “up” is uttered by the user as a voice and the instruction word has the highest frequency of the volume increase of the CD player of the audio device, Although the function of increasing the volume of the CD player is executed and the function desired by the user is executed quickly, there is a problem that convenience is impaired.
また、この技術によれば、オーディオ機器の特定の機能を意味する機能語(例えば、「音量」)を、その機能をどのように変化させるかを示す指示語(例えば、「アップ」)に付加し、当該機能語が付加された指示語(この場合、「音量アップ」)から特定の機能を実行させるようにしていることから、処理が複雑化する問題もある。 In addition, according to this technology, a function word (for example, “volume”) meaning a specific function of an audio device is added to an instruction word (for example, “up”) indicating how to change the function. However, since the specific function is executed from the instruction word (in this case, “volume up”) to which the function word is added, there is a problem that the processing becomes complicated.
さらに、この場合、「あげる」、「アップ」、「上昇させる」といった概念を持つ用語の中で、指示語を「アップ」に予め確定させる必要があり、例えば、当該「アップ」と同種の概念の指示語である「あげる」を発言した場合には音声認識が適切に行われない懸念もある。 Further, in this case, among terms having concepts such as “raise”, “up”, and “raise”, it is necessary to preliminarily determine the instruction word as “up”. For example, the same kind of concept as “up” There is also a concern that speech recognition may not be performed properly when saying “I will give” which is the instruction word.
本発明は、上記問題点を解決するためになされたものであって、その目的は、ユーザによる集約的な操作により、複数の機器の機能を迅速、利便性よく、且つ確実に実行させることができる音声認識機器操作装置を提供することにある。 The present invention has been made to solve the above-described problems, and an object of the present invention is to execute functions of a plurality of devices quickly, conveniently, and reliably by an intensive operation by a user. An object of the present invention is to provide a voice recognition device operating device that can be used.
上記問題点を解決するために、請求項1に記載の発明は、それぞれが所定の機能を実行する複数の機器を操作すべく設けられ、ユーザの音声に含まれる用語を音声認識することで前記各機器に当該用語に対応する機能を実行させるようにした音声認識機器操作装置であって、ユーザの音声に含まれる多様な用語を前記各機器の機能に対応付ける音声認識を行う音声認識部と、前記各機器に対応し、それぞれが複数の操作項目を有する選択メニューに階層構造化された機器項目を有する機器メニューを出力するとともに、該階層構造化された各選択メニューの最下層に位置する選択メニューにおいて一の操作項目を選択することで当該各機器の機能実行の確定操作が行なわれるようにした機器メニュー部と、前記各機器の機能実行の確定操作が行なわれる毎に、前記音声認識部で音声認識された用語を、当該確定操作された機能に対応付ける制御部とを具備し、前記制御部は、前記音声認識された用語と確定操作された機能とが対応付けられた頻度に応じて、ユーザの音声に含まれる用語を前記最下層に位置する選択メニューに対応付けるとともに、該最下層に位置する選択メニューにおいて当該ユーザに前記各機器の機能実行の操作を行わせるようにしたこと、を要旨とする。
In order to solve the above problems, the invention according to
同構成によれば、音声認識された用語と確定操作された機能とが対応付けられた頻度に応じて、ユーザの音声に含まれる用語を各選択メニューの最下層に位置する選択メニューに対応付けるとともに、該最下層に位置する選択メニューにおいてユーザに各機器の機能実行の確定操作を行わせるようにした。このように各機器にその機能を実行させる場合に、音声認識された用語と当該確定操作された機能とを対応付けし、その対応付けした頻度に従って優先付けすることで、ユーザの音声に含まれる用語が最下層に位置する選択メニューに対応付けられ、当該最下層に位置する選択メニューにおいて各機器の機能実行の操作が行われる。これにより、一の用語が、複数の機能の実行の際に発声され、該複数の機能に対応付けられていた場合に、当該用語が新たに発声されたときに、該用語をユーザの癖や嗜好に応じて複数の機能の内の一の機能に対応付けるとともに、該用語を当該一の機能を実行させる最下層の選択メニューに対応付けることができる。また、これにより、複数の用語が、一の機能の実行の際に発声され、該一の機能に対応付けられていた場合に、当該複数の用語の内のいずれかが新たに発声されたときに、該用語をユーザの癖や嗜好に応じて当該一の機能に対応付けるとともに、該用語を当該一の機能を実行させる最下層の選択メニューに対応付けることができる。以上の結果、該機能を実行しうる最下層に位置する選択メニューにおいて当該ユーザに各機器の機能実行の操作を行わせることができ、複数の機器の各機能が迅速、利便性よく、且つ確実に実行されるようになる。 According to the same configuration, the term included in the user's voice is associated with the selection menu located at the lowest layer of each selection menu according to the frequency with which the recognized term and the confirmed operation function are associated with each other. In the selection menu located at the lowermost layer, the user is allowed to perform an operation for confirming the function execution of each device. Thus, when causing each device to execute the function, the speech-recognized term is associated with the confirmed operation function, and prioritized according to the associated frequency, so that it is included in the user's voice. The term is associated with a selection menu located at the lowest layer, and the function execution operation of each device is performed in the selection menu located at the lowest layer. As a result, when one term is uttered when executing a plurality of functions and is associated with the plurality of functions, when the term is newly uttered, the term According to the preference, the term can be associated with one of a plurality of functions, and the term can be associated with a selection menu at the lowest layer for executing the one function. In addition, when a plurality of terms are uttered at the time of execution of one function and are associated with the one function, any of the plurality of terms is newly uttered. In addition, the term can be associated with the one function according to the user's habits and preferences, and the term can be associated with the selection menu at the lowest layer for executing the one function. As a result, the user can perform the function execution operation of each device in the selection menu located at the lowest layer where the function can be executed, and each function of the plurality of devices can be performed quickly, conveniently and reliably. Will be executed.
請求項2に記載の発明は、請求項1に記載の音声認識機器操作装置において、前記音声認識部は、ケプストラムを特徴パラメータとして、ユーザの音声に含まれる多様な用語を前記各機器の機能に対応付ける音声認識を行うようにしたことを要旨とする。 According to a second aspect of the present invention, in the voice recognition device operating device according to the first aspect, the voice recognition unit uses a cepstrum as a characteristic parameter to convert various terms contained in a user's voice into functions of the devices. The gist is that the corresponding voice recognition is performed.
同構成によれば、ユーザの音声に含まれる多様な用語を複数の機器の機能に対応付ける音声認識が特徴パラメータとしてのケプストラムを使用することによって簡単且つ確実に行われるようになる。 According to this configuration, voice recognition for associating various terms included in the user's voice with the functions of a plurality of devices can be easily and reliably performed by using the cepstrum as a feature parameter.
請求項3に記載の発明は、請求項1又は請求項2に記載の音声認識機器操作装置において、前記機器メニュー部は、前記機器メニュー及び選択メニューを画面に表示する画面表示部により構成され、該画面表示部において、前記機器メニューの機器項目又は選択メニューの操作項目に触れることで当該機器項目又は操作項目の選択が行われるようにしたこと、を要旨とする。 According to a third aspect of the present invention, in the voice recognition device operating device according to the first or second aspect, the device menu unit includes a screen display unit that displays the device menu and the selection menu on a screen. The gist of the screen display unit is that the device item or the operation item is selected by touching the device item of the device menu or the operation item of the selection menu.
同構成によれば、機器メニュー部は、機器メニュー及び選択メニューを画面に表示する画面表示部を含んで構成され、該画面表示部において、機器メニューの機器項目又は選択メニューの操作項目に触れることで当該機器項目又は操作項目の選択が行われるようにしている。このため、機器項目又は操作項目の選択が視覚を通して的確に行われるようになり、複数の機器の各機能がさらに確実に実行されるようになる。 According to this configuration, the device menu unit includes a screen display unit that displays the device menu and the selection menu on the screen, and the device item of the device menu or the operation item of the selection menu is touched on the screen display unit. In this way, the device item or operation item is selected. For this reason, the selection of the device item or the operation item is accurately performed through vision, and the functions of the plurality of devices are more reliably executed.
請求項4に記載の発明は、請求項3に記載の音声認識機器操作装置において、前記最下層に位置する選択メニューは、前記機器メニュー部に表示される次候補ボタンを選択することで、前記同一の階層に位置する他の選択メニューを表示させるようにしたこと、を要旨とする。 According to a fourth aspect of the present invention, in the voice recognition device operating device according to the third aspect, the selection menu located in the lowermost layer selects the next candidate button displayed in the device menu section, The gist is that another selection menu located in the same hierarchy is displayed.
同構成によれば、最下層に位置する選択メニューは、機器メニュー部に表示される次候補ボタンを選択することで、同一の階層に位置する他の選択メニューを表示させるようにした。このため、最下層に位置する他の選択メニューが、同じく最下層に位置する一の選択メニューにおいてマニュアル操作を行うことで順次表示されるようになり、ユーザが所望する機器の機能をより確実に実行させることができるようになる。 According to this configuration, the selection menu located in the lowest layer is made to display another selection menu located in the same hierarchy by selecting the next candidate button displayed in the device menu section. For this reason, other selection menus located at the bottom layer are sequentially displayed by manual operation on one selection menu located at the same bottom layer, and the function of the device desired by the user is more reliably ensured. Can be executed.
本発明によれば、ユーザによる集約的な操作により、複数の機器の機能を迅速、利便性よく且つ確実に実行させることができる音声認識機器操作装置が提供できるようになる。 According to the present invention, it is possible to provide a voice recognition device operating device capable of executing functions of a plurality of devices quickly, conveniently, and reliably by an intensive operation by a user.
以下、本発明を具体化した実施形態について図面に従って説明する。
図1に示すように、本実施形態の音声認識機器操作装置1は、それぞれが所定の機能を実行する複数の車載機器(車両に搭載された機器)を操作すべく設けられ、車両の運転者・補助者等(以下、「ユーザ」という。)の音声に含まれる用語を音声認識させることで各車載機器に該用語に対応する機能を実行させるようにしたものである。本実施形態では、前記車載機器には、オーディオ機器としてのCDドライブ(CDプレーヤ)2、MDドライブ(MDプレーヤ)3、FMラジオ4、及びAMラジオ5、エアコン機器としてのエアコン装置6、並びに、その他車載機器7が含まれている。尚、該その他車載機器7としては、カーナビ装置(GPS受信機)や、ハイブリッド式自動車に搭載される走行状態表示装置等が含まれる。
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, embodiments of the invention will be described with reference to the drawings.
As shown in FIG. 1, the voice recognition
前記音声認識機器操作装置1は、図1を参照して、制御部としてのCPU(中央演算処理装置)10を有する装置本体11と、該装置本体11に電気的に接続された機器メニュー部としてのタッチパネルディスプレイ(画面表示部)11aとを備えている。
Referring to FIG. 1, the voice recognition
そして、前記装置本体11は、前記CPU10に電気的に接続され、同CPU10で実行される制御プログラム、及び、同制御プログラムで使用される音声認識のためのデータ構造等の各種データが格納又は記憶される記憶部10aと、前記各車載機器を車内LANを介してCPU10に接続させる通信インターフェイス12と、前記タッチパネルディスプレイ11aとCPU10との間に接続され、該ディスプレイ11aの表示を制御する表示制御部13とを備えている。
The apparatus
前記音声認識機器操作装置1は、さらに、前記装置本体11に電気的に接続され、ユーザが発する音声を集音するマイク11b、当該装置本体11により合成された音声を発するスピーカ11c、及び、車両のステアリング(図示せず)に設置され、同装置本体11にユーザの音声に含まれる用語を音声認識させるために操作される音声入力S/W11dを備えている。この音声入力S/W11dは、操作時にオン信号を出力すべく前記CPU10に直接接続されている。
The voice recognition
そして、前記装置本体11は、前記CPU10に電気的に接続され、前記マイク11bにより集音された音声に含まれる用語を同CPU10と協働して音声認識を実行し、当該認識結果をCPU10に出力する音声認識部14と、同CPU10で演算され、出力された所定の信号に基づいて音声合成を行い、前記スピーカ11cから音声として発する音声プロセッサ15とを備えている。
The apparatus
図2に示すように、本実施形態の音声認識機器操作装置1では、前記タッチパネルディスプレイ11aは、前記CPU10で実行される制御プログラムによって、前記各車載機器に対応した機器メニュー画面101、その下位の階層に位置する選択メニュー画面201等、及び、その下位の階層に位置する選択メニュー画面301等が画面表示(出力)されるように構成されている。
As shown in FIG. 2, in the voice recognition
前記機器メニュー画面101には、ユーザの手指が接触することによって選択(操作)される機器項目、具体的には、オーディオ機器項目101a、エアコン機器項目101b、及びその他車載機器項目101cが含まれている。
The
図3に示すように、前記機器メニュー画面101に含まれる、前記オーディオ機器項目101a、エアコン機器項目101b、及びその他車載機器項目101cは、前記制御プログラムに基づき、それぞれが複数の操作項目(CDプレーヤ項目201a等)を有する選択メニュー画面201等に階層構造化されている(図3においては、その他車載機器項目101cの階層構造については図示を省略する)。そして、該階層構造化された各選択メニュー画面201等の最も下位の階層(以下、「最下層」という。)に位置する選択メニュー画面301等において、操作項目(CDプレーヤの再生項目301a等)(図2参照)をユーザが手指で触れ、選択(操作)することで車載機器としてのCDドライブ2(図1参照)の機能実行の確定操作が行なわれるように構成されている。
As shown in FIG. 3, the audio device item 101a, the air
具体的には、図2及び図3を参照して、前記機器メニュー画面101(機器項目)を第1階層とすれば、その一階層下の第2階層に位置する選択メニュー画面201には、操作項目として、CDプレーヤ項目201a、MDプレーヤ項目201b、FMラジオ項目201c、及びAMラジオ項目201dが含まれている。尚、この選択メニュー画面201は、前記機器メニュー画面101においてオーディオ機器項目101aを選択した場合に前記タッチパネルディスプレイ11aに表示される画面である。そして、同画面101には、さらに、その一階層上の第1階層としての前記機器メニュー画面101に復帰するためのキャンセルボタン201eが含まれている(図2参照)。
Specifically, referring to FIG. 2 and FIG. 3, if the device menu screen 101 (device item) is the first layer, the
そして、第2階層の選択メニュー画面201の一階層下であって、且つ、図3に示す階層メニュー(機器メニュー及び選択メニュー)の階層構造において最下層に位置する第3階層としての選択メニュー画面301には、操作項目として、前記CDドライブ2の再生項目301a、停止項目301b、早送項目301c、早戻項目301d、及び曲目選択項目301eが含まれている。尚、この選択メニュー画面301は、前記選択メニュー画面201において、CDプレーヤ項目201aを選択した場合に前記タッチパネルディスプレイ11aに表示される場合がある画面(選択メニュー画面302も候補となる。)である。そして、同画面301には、さらに、該画面301と同様にCDプレーヤ項目201aの下位の階層に位置するとともに同じ第3階層に位置する画面である選択メニュー画面302を次候補として切り換えるべく選択される次候補ボタン301f、同画面301の一階層上の第2階層に位置する選択メニュー画面201に戻るべく選択される戻るボタン301g、及び、初期画面である前記機器メニュー画面101に復帰するべく選択されるキャンセルボタン301hが含まれている。
Then, the selection menu screen as the third hierarchy that is one level below the
図2に示す選択メニュー画面301を例とすれば、該階層構造化された機器メニュー画面101、選択メニュー画面201、及び選択メニュー画面301において最下層に位置する選択メニュー画面301において再生項目301aを選択することでCDドライブ2(図1参照)において、その機能実行の確定操作、つまり、ユーザが再生項目301aに触れることによる音楽ソフトの再生操作が行なわれる。
Taking the
また、図3に示すように、前記選択メニュー画面301と同様、選択メニュー画面201の一階層下の第3階層(最下層)に位置する選択メニュー画面302には、その操作項目として、CDドライブ2の音量上昇項目302a及び音量下降項目302bが含まれる。そして、同画面302で音量上昇項目302aを選択することでCDドライブ2(図1参照)において音楽ソフトの再生音量の上昇操作が行なわれる。
Further, as shown in FIG. 3, similar to the
さらに、図3に示すように、選択メニュー画面201に含まれる操作項目であるCDプレーヤ項目201a以外の操作項目、即ち、MDプレーヤ項目201b、FMラジオ項目201c、及びAMラジオ項目201dについても、当該CDプレーヤ項目201aと同様に階層構造化されており、同階層構造化によって、前記CDプレーヤ項目201aと同様な機能が実現されるように構成されている(FM・AMラジオ項目201c,201dについては、CDプレーヤ項目201a及びMDプレーヤ項目201bにおける再生項目、停止項目、早送・早戻項目、及び曲目選択項目は、周波数上昇・下降項目が対応する)。本実施形態では、選択メニュー画面303,305,307の各操作項目については、選択メニュー画面301における操作項目と対応した符号を付するようにする(例えば、選択メニュー画面301の再生項目301aは、選択メニュー画面302において、再生項目302aに対応する。)。
Further, as shown in FIG. 3, the operation items other than the
一方、本実施形態では、図3に示すように、初期画面である前記機器メニュー画面101において、エアコン機器項目101bを選択した場合に前記タッチパネルディスプレイ11aに表示される画面であり、選択メニュー画面201と同様に第2階層に位置する選択メニュー画面211には、操作項目として、車室内を暖房するべく選択される暖房項目211a、及び、車室内を冷房するべく選択される冷房項目211bが含まれる。そして、同画面211において暖房項目211aを選択した場合には、暖房モードとなり、操作項目として設定温度上昇項目311a及び設定温度下降項目311bを含む選択メニュー画面311、又は、操作項目として風量上昇項目312a及び風量下降項目312bを含む選択メニュー画面312のいずれかが前記タッチパネルディスプレイ11aに表示されるように構成されている。また、同画面211において冷房項目211bを選択した場合には、冷房モードとなり、操作項目として設定温度上昇項目313a及び設定温度下降項目313bを含む選択メニュー画面313、又は、操作項目として風量上昇項目314a及び風量下降項目314bを含む選択メニュー画面314のいずれかが前記タッチパネルディスプレイ11aに表示されるように構成されている。尚、これら選択メニュー画面311〜314は、いずれも、図3に示す階層メニューの階層構造において最下層の第3階層に位置する画面である。
On the other hand, in the present embodiment, as shown in FIG. 3, when the air
そして、例えば、選択メニュー画面311において設定温度上昇項目311aを選択することで、エアコン装置6(図1参照)の暖房モードで設定温度の上昇操作が行なわれる。
Then, for example, by selecting the set
本実施形態の音声認識機器操作装置1は、ユーザの音声に含まれる用語を音声認識することで前記各車載機器(CDドライブ2、MDドライブ3、FMラジオ4、AMラジオ5、エアコン装置6、その他車載機器[カーナビ装置等]7)に該用語に対応する機能を実行させるようにしたものである。このために、前記音声認識部14がユーザの音声に含まれる多様な用語を前記各車載機器の機能に対応付けする音声認識を行う。そして、前記CPU10が、図3に示す階層メニューの階層構造における第3階層(最下層)に位置する選択メニュー画面301等において、各車載機器の機能実行の確定操作が行なわれる毎に、前記音声認識部14で音声認識された用語を、当該確定操作された機能に対応付ける。そして、過去に音声認識された用語と確定操作された機能とが対応付けられた頻度(回数)に応じて、ユーザが発する音声に含まれる用語を、前記第3階層(最下層)に位置する選択メニュー画面301等に対応付けるとともに、該第3階層に位置する選択メニュー画面301等においてユーザに各車載機器の機能実行の確定操作を行わせるようにした点に特徴を有する。
The voice recognition
具体的には、前記音声認識部14及びCPU10によって行われる音声認識は、特徴パラメータとして所謂LPCケプストラムを用いて行うようにしている。即ち、前記CPU10の制御プログラムによって、前記マイク11bから入力された音声に含まれる用語と、前記記憶部10aに音声認識のためのデータ構造として記憶させた各用語毎のLPCケプストラム(各用語の音声スペクトルをサンプリング周期毎に逆フーリエ変換することで特徴パラメータ化し、標準パラメータとして登録したもの)とのパターンマッチングを行い、類似度が最も高い用語を認識結果として出力するようにしている。但し、この音声認識部14及びCPU10では、入力された音声に含まれる用語について、テキストデータへの変換に成功した場合には、テキストデータ同士のパターンマッチングが行われるようになっている。
Specifically, the speech recognition performed by the
図4に、本実施形態で使用される、入力された音声に含まれる用語と選択メニュー画面301等との対応付けのための「音声→選択メニュー」対応付けデータ構造を示す。このデータ構造は、前記CPU10に接続された記憶部10aに前記制御プログラムによって使用されうるように記憶されているものである。このデータ構造では、該データ構造を構成し、音声データエントリーでもある各構造体n1〜ni(i:自然数)は、用語データポインタ及び選択メニューデータポインタをメンバーとして構成されている。該各構造体n1〜niの先頭には、用語データポインタが参照する音声データのデータ型(データタイプ)に応じて、「0」(テキストデータの場合)又は「1」(特徴パラメータデータの場合)が格納されるデータ型Flagが置かれている。そして、各構造体n1〜ni−1の末尾には、次の構造体(構造体n2〜niのいずれか)を指し示すポインタが格納されており、これにより複数の構造体n1〜niがチェインで連結されている。尚、該チェインの最後の構造体niの末尾には、同構造体niが、各構造体n1〜niのチェインの終末であることを示す「0」がNULL(ヌル)として格納されている。
FIG. 4 shows a “voice → selection menu” association data structure used in this embodiment for associating a term included in the input voice with the
本実施形態では、前記構造体n1及び構造体n2は、用語「あげる」について使用されており、別の構造体n3〜niは、別の用語(例えば、「アップ」、「上昇させる」等)について使用されている。そして、該構造体n1の用語データポインタは、データ型Flagが「0」であって、「あ・げ・る」のテキストデータが格納されているアドレスを参照するポインタを有している。また、該構造体n2の用語データポインタは、データ型Flagが「0」であって、「あ・げ・る」の特徴パラメータデータ[1]〜[11](付加情報を含む。)が格納されているアドレスを参照するポインタを有している。 In the present embodiment, the structure n1 and the structure n2 are used for the term “raise”, and another structure n3 to ni is another term (for example, “up”, “raise”, etc.). Has been used about. The term data pointer of the structure n1 has a pointer that refers to an address where the data type Flag is “0” and the text data of “Agegeru” is stored. Further, the term data pointer of the structure n2 has the data type Flag of “0”, and the characteristic parameter data [1] to [11] (including additional information) of “A • G • R” are stored. It has a pointer to refer to the address that has been set.
本実施形態において、前記構造体n1及び構造体n2の用語データポインタによって参照されるテキストデータ及び特徴パラメータデータは、過去に用語として「あげる」等が音声として使用され、選択メニュー画面301の操作項目(CDプレーヤの再生項目301a等)が選択された時点で後述する選択メニューデータポインタと対応付けされ、確定されたものである。
In the present embodiment, the text data and feature parameter data referred to by the term data pointers of the structures n1 and n2 have been used as voices as a term in the past, and the operation items on the
一方、前記構造体n1の選択メニューデータポインタによって参照される選択メニューデータ(「CDプレーヤ音量上昇」、「暖房設定温度上昇」、「MDプレーヤ音量上昇」が機能データとして格納されている。)は、該各機能実行の過去の頻度(回数)とともに、それぞれ構造体m1〜m3とされ、各構造体m1,m2の末尾には、次の構造体(構造体m2,m3のいずれか)を指し示すポインタが格納されている。そして、これにより複数の構造体m1〜m3がチェインで連結されている。尚、該チェインの最後の構造体m3の末尾には、同構造体m3が、各構造体m1〜m3のチェインの終末であることを示す「0」がNULL(ヌル)として格納されている(前記構造体n2の選択メニューデータポインタも同様である。)。 On the other hand, selection menu data referred to by the selection menu data pointer of the structure n1 ("CD player volume increase", "heating set temperature increase", and "MD player volume increase" are stored as function data). Along with the past frequency (number of times) of execution of each function, the structures m1 to m3 are respectively indicated. At the end of each of the structures m1 and m2, the next structure (one of the structures m2 and m3) is indicated. A pointer is stored. Thus, the plurality of structural bodies m1 to m3 are connected by a chain. At the end of the last structure m3 of the chain, “0” indicating that the structure m3 is the chain end of each structure m1 to m3 is stored as NULL (null) ( The same applies to the selection menu data pointer of the structure n2.)
本実施形態では、前記各構造体m1〜m3において、前記選択メニューデータ中の機能データである「CDプレーヤ音量上昇」、「暖房設定温度上昇」、「MDプレーヤ音量上昇」には、それぞれ、過去に用語として「あげる」が使用されたときに選択されたCDドライブ2の音量上昇項目302a、エアコン装置6の暖房モードにおける設定温度上昇項目311a、MDドライブ3の音量上昇項目304aの各操作項目が対応している。そして、各構造体m1〜m3は、前記各操作項目が選択された頻度が多い順番(回数11、回数5、回数2)にてチェインで連結されている。
In this embodiment, in each of the structures m1 to m3, “CD player volume increase”, “heating set temperature increase”, and “MD player volume increase”, which are function data in the selection menu data, The operation items of the
そして、ユーザにより、「あげる」という用語が音声として発せられ、前記音声認識部14及びCPU10で、「あ・げ・る」のテキストデータへの変換に成功して音声認識が行われた場合には、図4に示す構造体n1(データ型Flag:「0」)が使用され、テキストデータ同士のパターンマッチングが行われる。そして、用語「あげる」が「CDプレーヤ音量上昇」の機能実行について過去に使用された頻度(回数11)に基づき、「CDプレーヤ音量上昇」の機能実行が優先され、当該機能を実行するための選択メニュー画面301が前記タッチパネルディスプレイ11aに画面表示される。そして、ユーザは、同選択メニュー画面301において、CDドライブ2の音量上昇項目302aの選択を行うことができ、これにより、当該「CDプレーヤ音量上昇」の機能を、迅速、利便性よく、且つ確実に実行させることができるようになる。一方、前記音声認識部14及びCPU10で、音声として発せられた用語「あげる」について、「あ・げ・る」のテキストデータへの変換に失敗した場合でも、図4に示す構造体n2(データ型Flag:「1」)が使用され、特徴パラメータ同士のパターンマッチングが行われる。そして、上述と同様なプロセスを経て、選択メニュー画面301が前記タッチパネルディスプレイ11aに画面表示される。そして、ユーザは、CDドライブ2の音量上昇項目302aの選択を行うことができ、これにより、当該「CDプレーヤ音量上昇」の機能を、迅速、利便性よく、且つ確実に実行させることができるようになる。
Then, when the user gives the word “raise” as a voice and the
本実施形態の音声認識機器操作装置1は、以上のように構成されており、以下、図5の動作フローチャート、及び、図1〜図4を参照しつつ、その動作について説明する。尚、本実施形態において、新車購入時には、各用語と車載装置の機能の対応付けについては、一般的なものが設定されている(例えば、「上昇させる」について「CDプレーヤ音量上昇」を対応させている。)。
The voice recognition
即ち、まず、ユーザが車両のエンジンを始動させると、前記装置本体11に搭載されたCPU10が制御プログラムの実行を開始するとともに、前記各車載機器(CDドライブ2、MDドライブ3、FMラジオ4、AMラジオ5、エアコン装置6、その他車載機器[カーナビ装置等]7)の電源がオンとなる。そして、ステップS1において、前記タッチパネルディスプレイ11aに、初期画面である前記機器メニュー画面101が画面表示される。
That is, first, when the user starts the engine of the vehicle, the
次に、ステップS2において、音声入力S/W11dを操作すると、オン信号がCPU10に出力され、ステップS3に移行する。一方、音声入力S/W11dを操作しないと、ステップS12に移行する。
Next, when the voice input S /
そして、ステップS3においては、上述した階層メニュー(選択メニュー画面201,301等[図2、図3参照])が前記タッチパネルディスプレイ11aに画面表示される状態となる。
In step S3, the above-described hierarchical menu (selection menu screens 201, 301, etc. [see FIGS. 2 and 3]) is displayed on the
続くステップS4において、例えば、ユーザがCDドライブ2の再生音量を上昇させることを意図し、「あげる」という用語を音声として発すると、当該用語が前記マイク11bを介して集音される。さらに音声認識部14において、音声(用語)入力の有無が検出されるとともに、前記CPU10の制御プログラム及び図4のデータ構造に基づいて、その用語の音声認識が行われる。
In the subsequent step S4, for example, when the user intends to increase the playback volume of the
さらにその後、ステップS5において、前記制御プログラム及びデータ構造に基づいて、過去に用語として「あげる」を使用したときに選択した操作項目(CDプレーヤの音量上昇項目302a)が選択された頻度が最も多い(回数11)の「CDプレーヤ音量上昇」が優先的に選ばれる。そして、当該機能を実行するための選択メニュー画面302がタッチパネルディスプレイ11aに画面表示される。
After that, in step S5, based on the control program and the data structure, the operation item (CD player
ここで、仮にユーザが所望(意図)していた機能がMDドライブ3の音量上昇であって、表示された選択メニュー画面302が当該機能を実行させるための選択メニュー画面304と異なるときには、ステップS6において、次候補検索を行うことができる。即ち、図2及び図3を参照して、当該画面302上の戻るボタン302gを操作し、同画面302より一階層上の第2階層に位置する選択メニュー画面201に戻り、同画面201にてMDプレーヤ項目201bを選択し、選択メニュー画面303を表示させてから更に次候補ボタン303fを操作して選択メニュー画面304を表示させることができる。そして、同画面304でMDドライブ3の音量上昇項目304aを選択し、当該機能が実行された場合には、ユーザによって音声として発せられた「あげる」についての音声認識部14における音声認識結果がMDドライブ3の音量上昇機能について確定される。そして、同音声認識結果が、図4に示すデータ構造において、構造体n1及び構造体n2の用語データポインタで参照されるように前記記憶部10aにテキストデータ及び特徴パラメータデータ(音声データ)として記憶される。また、このとき同時に、当該MDドライブ3の音量上昇項目304aが選択された頻度(回数)が、前記音声データと対応付けされ、一つカウントアップされる。
If the function desired (intended) by the user is to increase the volume of the
尚、ステップS7において、例えば、選択メニュー画面201及び選択メニュー画面302のいずれかにおいてキャンセルボタン201e又はキャンセルボタン302hを操作した場合には、初期画面である前記機器メニュー画面101に復帰するとともに、ステップS11において、音声入力失敗FLGがセットされ、図5において、(1)(ステップS15の前)に移行する(この場合は、初期画面からの次候補検索が可能になる。)。
In step S7, for example, when the cancel
一方、ユーザが所望(意図)していた機能がCDドライブ2の音量上昇であって、表示された選択メニュー画面が当該機能を実行させるための選択メニュー画面302と一致するときには、選択メニュー画面201及び選択メニュー画面302のいずれかにおいてキャンセルボタン201e又はキャンセルボタン302hを操作せず、ステップS8において、選択メニュー画面302でCDドライブ2の音量上昇項目302aを選択し、さらにステップS9において、当該機能が実行された場合には、ステップS10において、ユーザによって音声として発せられた「あげる」についての音声認識部14における音声認識結果がCDドライブ2の音量上昇機能について確定される。そして、同音声認識結果が、図4に示すデータ構造において、構造体n1及び構造体n2の用語データポインタで参照されるように前記記憶部10aにテキストデータ及び特徴パラメータデータ(音声データ)として記憶される。また、このとき同時に、当該CDドライブ2の音量上昇項目302aが選択された頻度(回数)が、前記音声データと対応付けされ、一つカウントアップされる。
On the other hand, when the function desired (intended) by the user is to increase the volume of the
尚、前記ステップS8及びステップS9において、新たに「アップ」なる用語をCDプレーヤの音量上昇項目302aの選択時に使用した場合には、当該用語「アップ」が音声認識されるとともに、機能データである「CDプレーヤ音量上昇」と対応付けされ、図4のデータ構造中に新規に記憶される。
When the term “up” is newly used at the time of selection of the
一方、ステップS2において、音声入力S/W11dを操作せず、ステップS12において、初期画面である前記機器メニュー画面101にて、タッチ入力ボタン、即ち、オーディオ機器項目101a、エアコン機器項目101b、及びその他車載機器項目101cのいずれかを選択した場合には、続くステップS13において、上述した階層メニュー(選択メニュー画面201,301等[図2、図3参照])が前記タッチパネルディスプレイ11aに画面表示される状態となる。
On the other hand, in step S2, the voice input S /
このステップS12以降では、音声認識機器操作装置1による音声認識を経ることなく、通常のマニュアル操作によって各車載機器(CDドライブ2、MDドライブ3、FMラジオ4、AMラジオ5、エアコン装置6、その他車載機器[カーナビ装置等]7)の機能実行を行うことができる。尚、ステップS12において、タッチ入力ボタンの操作が行われなかった場合には、ここでの処理を一旦終了する。
In step S12 and subsequent steps, each vehicle-mounted device (
そして、ステップS14において、選択メニュー画面201等にてキャンセルボタン201eを操作すると、前記タッチパネルディスプレイ11aに機器メニュー画面101が画面表示され、続くステップS15において、次候補検索を行うことができる。即ち、この場合には、初期画面である前記機器メニュー画面101に復帰するので、当該画面101から任意の機器項目及び操作項目を選択していき、最下層の選択メニュー画面301等を表示させてから同画面301で操作項目を操作する。続いてステップ16、S17において、前記ステップS8,S9と同様に、当該画面301にて操作しうる機能を実行させることができる。この場合は、ステップS11を経由するルートと異なり、音声入力失敗FLGはセットされていないので、次のステップS18において、音声入力失敗FLGなしと判断され、ここでの処理を一旦終了する。
When the cancel
一方、ステップS14において、選択メニュー画面201等にてキャンセルボタン201e等を操作しなかった場合には、ここでの処理を一旦終了する。
また、前述したステップS7においてキャンセルボタン201e等が操作され、ステップS11において、音声入力失敗FLGがセットされていた場合には、ステップS11を経由してステップS15に移行し、当該ステップS15において、次候補検索を行うことができる。即ち、初期画面である前記機器メニュー画面101から、任意の機器項目及び操作項目を選択していき、最下層の選択メニュー画面304等を表示させてから同画面304で操作項目を操作し、続くステップ16、S17において、ステップS11を経由しないルートと同様に、当該画面304にて操作しうる機能を実行させることができる。この場合は、ステップ11で音声入力失敗FLGがセットされているので、次のステップS18において、音声入力失敗FLGありと判断され、続くステップS19において音声入力失敗FLGがリセットされる。それととともに、さらに次のステップS10において、音声として発した「あげる」についての音声認識部14による音声認識結果が、例えば、MDドライブ3の音量上昇機能について確定され、図4に示すデータ構造において、構造体n1及び構造体n2の用語データポインタで参照されるように前記記憶部10aに音声データとして記憶される。また、このとき同時に、当該MDドライブ3の音量上昇項目304aが選択された頻度(回数)が、前記音声データと対応付けされ、一つカウントアップされる。
On the other hand, in step S14, when the cancel
If the cancel
本実施形態の音声認識機器操作装置1によれば、以下のような作用・効果を得ることができる。
(1)音声認識された用語と確定操作された機能とが対応付けられた頻度(回数)に応じて、ユーザの音声に含まれる用語を各選択メニュー画面201,301(302)等の最下層に位置する選択メニュー画面301,302等に対応付けるとともに、該最下層に位置する選択メニュー画面301,302等においてユーザに各車載機器(CDドライブ2、MDドライブ3、FMラジオ4、AMラジオ5、エアコン装置6、その他車載機器[カーナビ装置等]7)の機能実行の確定操作を行わせるようにした。このように各車載機器にその機能を実行させる場合に、音声認識された用語と当該確定操作された機能とを対応付ける。そして、その対応付けした頻度に従って優先付けすることで、ユーザの音声に含まれる用語が各選択メニュー画面201,301等の最下層に位置する選択メニュー画面301に対応付けられ、同画面301がタッチパネルディスプレイ11aに画面表示される。そして、ユーザは当該最下層に位置する選択メニュー画面301において各車載機器の機能実行の操作を行うことができる。
According to the voice recognition
(1) The term included in the user's voice is displayed in the lowest layer such as each of the selection menu screens 201 and 301 (302) in accordance with the frequency (number of times) in which the recognized term and the confirmed operation function are associated with each other. Are associated with the selection menu screens 301, 302, etc. located on the lowermost layer, and each of the in-vehicle devices (
(2)これにより、一の用語(例えば、「あげる」)が、複数の機能(例えば、「CDプレーヤ音量上昇」、「暖房設定温度上昇」、「MDプレーヤ音量上昇」)の実行の際に発声され、該複数の機能に対応付けられていた場合に、当該用語「あげる」が新たに発声されたときに、当該用語をユーザの癖や嗜好に応じて複数の機能の内の一の機能(例えば、「CDプレーヤ音量上昇」)に対応付ける。そして、それとともに、該用語を当該一の機能を実行させる最下層の選択メニュー画面302に対応付け、同画面302をタッチパネルディスプレイ11aに画面表示することができる。
(2) Thereby, one term (for example, “raise”) is used when a plurality of functions (for example, “CD player volume increase”, “heating set temperature increase”, “MD player volume increase”) are executed. If the term “raise” is newly uttered when it is uttered and associated with the plurality of functions, the term is selected as one of the functions according to the user's habits and preferences. (For example, “CD player volume increase”). At the same time, the term can be associated with the lowermost
(3)また、これにより、複数の用語(例えば、「あげる」、「アップ」、「上昇させる」)が、一の機能(例えば、「CDプレーヤ音量上昇」)の実行の際に発声され、該一の機能に対応付けされていた場合に、当該複数の用語の内のいずれか(例えば、「あげる」)が新たに発声されたときに、該用語「あげる」をユーザの癖や嗜好に応じて当該一の機能に対応付ける。そして、それとともに、該用語を当該一の機能を実行させる最下層の選択メニュー画面302等に対応付け、同画面302をタッチパネルディスプレイ11aに画面表示することができる。
(3) Also, due to this, a plurality of terms (for example, “raise”, “up”, “raise”) are uttered when executing one function (for example, “CD player volume increase”), When it is associated with the one function, when any of the plurality of terms (for example, “raise”) is newly uttered, the term “raise” is given to the user's habit or preference. Corresponding to the one function accordingly. At the same time, the term can be associated with the lowermost
(4)以上の結果、タッチパネルディスプレイ11aに画面表示され、該機能を実行しうる最下層に位置する選択メニュー画面301,302等において当該ユーザが各車載機器の機能実行の操作を行うことができ、複数の車載機器の各機能が迅速、利便性よく、且つ確実に実行されるようになる。
(4) As a result, the user can perform the function execution operation of each in-vehicle device on the selection menu screens 301, 302, etc., which are displayed on the
(5)ユーザの音声に含まれる多様な用語(例えば、「あげる」、「アップ」、「上昇させる」)を複数の車載機器の機能に対応付ける音声認識が、特徴パラメータとしてのLPCケプストラムを使用することによって簡単且つ確実に行われるようになる。 (5) Speech recognition that associates various terms (for example, “raise”, “up”, “raise”) included in the user's voice with the functions of a plurality of in-vehicle devices uses the LPC cepstrum as a feature parameter This makes it easy and reliable.
(6)機器メニュー部は、機器メニュー画面101、選択メニュー画面301等を画面に表示する画面表示部としてのタッチパネルディスプレイ11aを含んで構成され、該タッチパネルディスプレイ11aにおいて、機器メニュー画面101のオーディオ機器項目101a等又は選択メニュー画面201のCDプレーヤ項目201a等に触れることで当該機器項目又は操作項目の選択が行われるようにしている。このため、機器項目又は操作項目の選択が視覚を通して的確に行われるようになり、複数の車載機器の各機能がさらに確実に実行されるようになる。
(6) The device menu section includes a
(7)例えば、最下層に位置する選択メニュー画面301は、タッチパネルディスプレイ11aに表示される次候補ボタン301fを選択することで、同一の階層に位置する他の選択メニュー画面302を表示させるようにした。このため、最下層に位置する他の選択メニュー画面302が、同じく最下層に位置する一の選択メニュー画面301においてマニュアル操作を行うことで表示されるようになり、ユーザが所望する車載機器の機能をより確実に実行させることができるようになる。
(7) For example, the
尚、上記実施形態は以下のように変形してもよい。
・上記実施形態では、音声認識のための特徴パラメータとしてLPC(線形予測符号化)ケプストラムを使用した。しかしこれに限られず、メルケプストラムや、その他の特徴パラメータ(パワー等)を使用できることは勿論である。
The above embodiment may be modified as follows.
In the above embodiment, an LPC (linear predictive coding) cepstrum is used as a feature parameter for speech recognition. However, the present invention is not limited to this, and it is a matter of course that a mel cepstrum and other characteristic parameters (power, etc.) can be used.
・上記実施形態では、音声認識機器操作装置1を車両に搭載された複数の車載機器を集約的に操作するものとした。しかしこれに限られず、例えば、同音声認識機器操作装置1は、住宅等の不動産における各種機器(照明機器、冷蔵庫、TV、エアコン機器等)やOA機器の機能(コピー、ファクシミリ、画像読み取り等)を集約的に操作するためにも使用できる。
In the above-described embodiment, the voice recognition
・上記実施形態では、各車載機器の機能実行の確定操作が行われても、何ら通知がなされないように構成しているが、例えば、画面上で操作項目の色を変えることにより、確定操作が実行されたことを通知するようにしてもよいし、音声によって操作項目(CDプレーヤの音量上昇項目302a等)の読み上げにより通知するようにしてもよい。さらに、この場合、機能実行を確定する前に、例えば、「温度を上げますがよいですね。」等と音声を発してユーザに確認するようにしてもよい。
-In the above embodiment, it is configured so that no notification is made even if the function execution confirmation operation of each in-vehicle device is performed. For example, the confirmation operation is performed by changing the color of the operation item on the screen. May be notified, or may be notified by reading out operation items (such as the
・上記実施形態では、機器メニュー部を画面表示部としてのタッチパネルディスプレイ11aとし、機器項目又は操作項目の選択を視覚を通して行わせるようにした。しかしこれに限られず、機器項目又は操作項目の選択を聴覚を通して行わせるようにしてもよい。この場合、機器メニュー部としては車両に搭載され、機器メニュー及び選択メニューを音声で出力する音声出力部が使用される。尚、この場合、音声出力部は画面表示部と併用できることは勿論である。
In the above-described embodiment, the device menu part is the
さらに、前記した実施形態および変形例より把握できる技術的思想について以下に記載する。
○請求項1〜請求項4のいずれかに記載の音声認識機器操作装置において、前記機器メニュー部は、前記機器メニュー及び選択メニューを音声で出力する音声出力部を含んで構成され、前記音声に対して応答することで当該機器メニューの機器項目又は選択メニューの操作項目の選択が行われるようにした音声認識機器操作装置。
Further, technical ideas that can be grasped from the above-described embodiments and modifications will be described below.
The voice recognition device operating device according to any one of
同構成によれば、視覚によらず、音声を介在させて機器メニューの機器項目又は選択メニューの操作項目の選択が行われるので、例えば、車両を運転しながら、複数の車載機器に機能を実行させる必要がある場合に、安全性が高められるようになる。 According to the same configuration, the device item of the device menu or the operation item of the selection menu is selected through audio, regardless of visual sense. For example, a function is executed on a plurality of in-vehicle devices while driving the vehicle. When it is necessary to make it happen, safety is improved.
1…音声認識機器操作装置、11…機器本体、101…機器メニュー画面(階層メニュー画面)、101a…機器項目、201,301…選択メニュー画面(階層メニュー画面)、201a,301a…操作項目。
DESCRIPTION OF
Claims (4)
ユーザの音声に含まれる多様な用語を前記各機器の機能に対応付ける音声認識を行う音声認識部と、
前記各機器に対応し、それぞれが複数の操作項目を有する選択メニューに階層構造化された機器項目を有する機器メニューを出力するとともに、該階層構造化された各選択メニューの最下層に位置する選択メニューにおいて一の操作項目を選択することで当該各機器の機能実行の確定操作が行なわれるようにした機器メニュー部と、
前記各機器の機能実行の確定操作が行なわれる毎に、前記音声認識部で音声認識された用語を、当該確定操作された機能に対応付ける制御部とを具備し、
前記制御部は、前記音声認識された用語と確定操作された機能とが対応付けられた頻度に応じて、ユーザの音声に含まれる用語を前記最下層に位置する選択メニューに対応付けるとともに、該最下層に位置する選択メニューにおいて当該ユーザに前記各機器の機能実行の操作を行わせるようにしたことを特徴とする音声認識機器操作装置。 A voice recognition device that is provided to operate a plurality of devices, each of which performs a predetermined function, and that causes each device to execute a function corresponding to the term by recognizing the term included in the user's voice. An operating device,
A voice recognition unit that performs voice recognition for associating various terms included in the user's voice with the functions of the devices;
A device menu having a hierarchically structured device item is output to a selection menu corresponding to each device, each having a plurality of operation items, and a selection located at the lowest layer of each hierarchically structured selection menu A device menu section in which a function execution confirmation operation is performed by selecting one operation item in the menu;
A control unit that associates a term recognized by the voice recognition unit with the function for which the confirmation operation has been performed each time a function execution confirmation operation is performed on each device;
The control unit associates the term included in the user's voice with the selection menu located at the lowest layer according to the frequency with which the voice-recognized term is associated with the confirmed operation, and A speech recognition apparatus operating device, characterized in that the user performs an operation for executing the function of each apparatus in a selection menu located in a lower layer.
前記音声認識部は、ケプストラムを特徴パラメータとして、ユーザの音声に含まれる多様な用語を前記各機器の機能に対応付ける音声認識を行うようにした音声認識機器操作装置。 The voice recognition device operating device according to claim 1,
The voice recognition device operation device, wherein the voice recognition unit performs voice recognition using a cepstrum as a characteristic parameter to associate various terms included in a user's voice with functions of the devices.
前記機器メニュー部は、前記機器メニュー及び選択メニューを画面に表示する画面表示部により構成され、
該画面表示部において、前記機器メニューの機器項目又は選択メニューの操作項目に触れることで当該機器項目又は操作項目の選択が行われるようにした音声認識機器操作装置。 In the voice recognition apparatus operating device according to claim 1 or 2,
The device menu unit is configured by a screen display unit that displays the device menu and the selection menu on a screen.
A voice recognition device operating device in which the device item or the operation item is selected by touching the device item of the device menu or the operation item of the selection menu in the screen display unit.
前記最下層に位置する選択メニューは、前記機器メニュー部に表示される次候補ボタンを選択することで、前記同一の階層に位置する他の選択メニューを表示させるようにした音声認識機器操作装置。 In the voice recognition apparatus operating device according to claim 3,
The voice recognition device operating device, wherein the selection menu located at the lowest layer displays another selection menu located at the same level by selecting a next candidate button displayed in the device menu section.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008019521A JP2009180914A (en) | 2008-01-30 | 2008-01-30 | Operation unit for voice-recognizing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008019521A JP2009180914A (en) | 2008-01-30 | 2008-01-30 | Operation unit for voice-recognizing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009180914A true JP2009180914A (en) | 2009-08-13 |
Family
ID=41034942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008019521A Pending JP2009180914A (en) | 2008-01-30 | 2008-01-30 | Operation unit for voice-recognizing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009180914A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018180030A (en) * | 2017-04-03 | 2018-11-15 | 三菱電機株式会社 | Operation device and operation method |
US10328950B2 (en) | 2014-09-15 | 2019-06-25 | Denso Corporation | Vehicle equipment control device and method of searching for control content |
CN113971954A (en) * | 2021-12-23 | 2022-01-25 | 广州小鹏汽车科技有限公司 | Voice interaction method and device, vehicle and storage medium |
-
2008
- 2008-01-30 JP JP2008019521A patent/JP2009180914A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10328950B2 (en) | 2014-09-15 | 2019-06-25 | Denso Corporation | Vehicle equipment control device and method of searching for control content |
JP2018180030A (en) * | 2017-04-03 | 2018-11-15 | 三菱電機株式会社 | Operation device and operation method |
CN113971954A (en) * | 2021-12-23 | 2022-01-25 | 广州小鹏汽车科技有限公司 | Voice interaction method and device, vehicle and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8280742B2 (en) | Input device and input method for mobile body | |
KR101613407B1 (en) | Vehicle system comprising an assistance functionality and method for operating a vehicle system | |
JP3919210B2 (en) | Voice input guidance method and apparatus | |
US20120268294A1 (en) | Human machine interface unit for a communication device in a vehicle and i/o method using said human machine interface unit | |
JP5463922B2 (en) | In-vehicle machine | |
JP4736982B2 (en) | Operation control device, program | |
WO2014109104A1 (en) | Voice recognition device, voice recognition program, and voice recognition method | |
JP6432233B2 (en) | Vehicle equipment control device and control content search method | |
WO2015128960A1 (en) | In-vehicle control apparatus and in-vehicle control method | |
JP2017146437A (en) | Voice input processing device | |
JP2007017731A (en) | Speech recognition device, navigation device equipped with the same and speech recognition method of the same | |
JP2001296943A (en) | Interactive user interface device | |
KR20160105936A (en) | Method for operating an electronic device or an application,and corresponding apparatus | |
JP5494318B2 (en) | Mobile terminal and communication system | |
JP2016097928A (en) | Vehicular display control unit | |
JP2009180914A (en) | Operation unit for voice-recognizing device | |
WO2008134657A2 (en) | Information management system and method | |
JP5986468B2 (en) | Display control apparatus, display system, and display control method | |
JP4770374B2 (en) | Voice recognition device | |
JP3731499B2 (en) | Voice recognition control device and in-vehicle information processing device | |
JP2003241784A (en) | Speech input and output device | |
WO2023272629A1 (en) | Interface control method, device, and system | |
JP2008243146A (en) | Speech recognition processor and its control method | |
JP2009301263A (en) | Onboard display system | |
JP2008233009A (en) | Car navigation device, and program for car navigation device |