JP2009180914A - Operation unit for voice-recognizing device - Google Patents

Operation unit for voice-recognizing device Download PDF

Info

Publication number
JP2009180914A
JP2009180914A JP2008019521A JP2008019521A JP2009180914A JP 2009180914 A JP2009180914 A JP 2009180914A JP 2008019521 A JP2008019521 A JP 2008019521A JP 2008019521 A JP2008019521 A JP 2008019521A JP 2009180914 A JP2009180914 A JP 2009180914A
Authority
JP
Japan
Prior art keywords
selection menu
item
voice
function
voice recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008019521A
Other languages
Japanese (ja)
Inventor
Yoshi Abe
喜 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2008019521A priority Critical patent/JP2009180914A/en
Publication of JP2009180914A publication Critical patent/JP2009180914A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an operation unit for a voice-recognizing device, which promptly, conveniently and surely performs functions of a plurality of devices by user's intensive operation. <P>SOLUTION: The operation unit includes: a voice-recognizing section 14 for performing voice-recognition for relating various terms in voice to a function of each of onboard devices 2 to 7; an screen display section 11a in which fixing operation of function implementation of each of the onboard devices is performed by outputting a device menu screen including a device item corresponding to each onboard devices 2 to 7 in a layered structure on a selection menu screen, each of which has a plurality of operation items, and by selecting one operation item on the selection menu screen of a lowest layer; a CPU 10 for relating the voice recognized term to the function in which fixing operation is implemented, for each implementation of fixing operation of function implementation of each of the onboard devices 2 to 7. The CPU 10 relates the term in voice to the selection menu screen according to frequency of the relating, performs operation of the function implementation of each of the onboard devices 2 to 7 on the selection menu screen. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、例えば、車両内に設けられたエアコン機器、オーディオ機器等の各種車載機器を集中管理すべく設けられ、音声認識を介在させることで、ユーザ(車両の運転者等)に当該各車載機器を操作させ、各車載機器の機能を実行させる音声認識機器操作装置に関する。   The present invention is provided to centrally manage various in-vehicle devices such as an air conditioner device and an audio device provided in a vehicle, and each vehicle-mounted device is provided to a user (vehicle driver or the like) by interposing voice recognition. The present invention relates to a voice recognition device operating device that operates a device and executes a function of each in-vehicle device.

従来より、複写機、ファクシミリ装置、プリンタ装置、スキャナ装置やそれらの機能を1台に統合した複合機やコンピュータ等のOA機器をユーザに集約的に操作させるために機器操作装置が設けられている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a device operating device has been provided to allow a user to centrally operate OA devices such as a copier, a facsimile machine, a printer device, a scanner device and a multifunction device or a computer in which those functions are integrated into one unit. (For example, refer to Patent Document 1).

この機器操作装置では、階層メニューごとに操作項目を選択可能とし、該操作項目を選択することで当該OA機器に特定の機能を実行可能としている。
この種の機器操作装置には、ユーザの音声に含まれる指示語に基づいて所定の機能を実行させると共に、同じ指示語が多様な機能に対応している場合には、頻度の高いものを優先させることで指示語毎にユーザの所望する機能を優先的に実行することを可能とした音声認識機器操作装置が知られている(例えば、特許文献2参照)。
特開2004−94057号公報 特開2002−258892号公報
In this device operating device, an operation item can be selected for each hierarchical menu, and a specific function can be executed on the OA device by selecting the operation item.
In this type of device operating device, a predetermined function is executed based on an instruction word included in the user's voice, and when the same instruction word corresponds to various functions, the one with higher frequency is given priority. Thus, there is known a voice recognition device operating device that can preferentially execute a function desired by a user for each instruction word (see, for example, Patent Document 2).
JP 2004-94057 A JP 2002-258882 A

しかしながら、この技術では、例えば、「アップ」等の指示語がユーザにより音声として発せられ、当該指示語がオーディオ機器のCDプレーヤの音量の上昇について頻度が最も高いものであった場合に、いきなり当該CDプレーヤの音量の上昇機能が実行され、ユーザが所望する機能の実行が迅速に行われるものの、利便性が損なわれる問題点があった。   However, in this technique, for example, when an instruction word such as “up” is uttered by the user as a voice and the instruction word has the highest frequency of the volume increase of the CD player of the audio device, Although the function of increasing the volume of the CD player is executed and the function desired by the user is executed quickly, there is a problem that convenience is impaired.

また、この技術によれば、オーディオ機器の特定の機能を意味する機能語(例えば、「音量」)を、その機能をどのように変化させるかを示す指示語(例えば、「アップ」)に付加し、当該機能語が付加された指示語(この場合、「音量アップ」)から特定の機能を実行させるようにしていることから、処理が複雑化する問題もある。   In addition, according to this technology, a function word (for example, “volume”) meaning a specific function of an audio device is added to an instruction word (for example, “up”) indicating how to change the function. However, since the specific function is executed from the instruction word (in this case, “volume up”) to which the function word is added, there is a problem that the processing becomes complicated.

さらに、この場合、「あげる」、「アップ」、「上昇させる」といった概念を持つ用語の中で、指示語を「アップ」に予め確定させる必要があり、例えば、当該「アップ」と同種の概念の指示語である「あげる」を発言した場合には音声認識が適切に行われない懸念もある。   Further, in this case, among terms having concepts such as “raise”, “up”, and “raise”, it is necessary to preliminarily determine the instruction word as “up”. For example, the same kind of concept as “up” There is also a concern that speech recognition may not be performed properly when saying “I will give” which is the instruction word.

本発明は、上記問題点を解決するためになされたものであって、その目的は、ユーザによる集約的な操作により、複数の機器の機能を迅速、利便性よく、且つ確実に実行させることができる音声認識機器操作装置を提供することにある。   The present invention has been made to solve the above-described problems, and an object of the present invention is to execute functions of a plurality of devices quickly, conveniently, and reliably by an intensive operation by a user. An object of the present invention is to provide a voice recognition device operating device that can be used.

上記問題点を解決するために、請求項1に記載の発明は、それぞれが所定の機能を実行する複数の機器を操作すべく設けられ、ユーザの音声に含まれる用語を音声認識することで前記各機器に当該用語に対応する機能を実行させるようにした音声認識機器操作装置であって、ユーザの音声に含まれる多様な用語を前記各機器の機能に対応付ける音声認識を行う音声認識部と、前記各機器に対応し、それぞれが複数の操作項目を有する選択メニューに階層構造化された機器項目を有する機器メニューを出力するとともに、該階層構造化された各選択メニューの最下層に位置する選択メニューにおいて一の操作項目を選択することで当該各機器の機能実行の確定操作が行なわれるようにした機器メニュー部と、前記各機器の機能実行の確定操作が行なわれる毎に、前記音声認識部で音声認識された用語を、当該確定操作された機能に対応付ける制御部とを具備し、前記制御部は、前記音声認識された用語と確定操作された機能とが対応付けられた頻度に応じて、ユーザの音声に含まれる用語を前記最下層に位置する選択メニューに対応付けるとともに、該最下層に位置する選択メニューにおいて当該ユーザに前記各機器の機能実行の操作を行わせるようにしたこと、を要旨とする。   In order to solve the above problems, the invention according to claim 1 is provided to operate a plurality of devices each of which performs a predetermined function, and recognizes the term included in the user's voice by voice recognition. A voice recognition device operating device that causes each device to execute a function corresponding to the term, and a voice recognition unit that performs voice recognition that associates various terms included in a user's voice with the function of each device; A device menu having a hierarchically structured device item is output to a selection menu corresponding to each device, each having a plurality of operation items, and a selection located at the lowest layer of each hierarchically structured selection menu A device menu section that allows a function execution confirmation operation for each device to be performed by selecting one operation item in the menu, and a function execution confirmation operation for each device. A control unit that associates the term recognized by the voice recognition unit with the confirmed operation function each time the control unit recognizes the speech recognized term and the confirmed operation function. Is associated with a selection menu located in the lowermost layer according to the frequency with which the user is associated, and in the selection menu located in the lowermost layer, the user performs an operation to execute the function of each device. The gist of this is to allow

同構成によれば、音声認識された用語と確定操作された機能とが対応付けられた頻度に応じて、ユーザの音声に含まれる用語を各選択メニューの最下層に位置する選択メニューに対応付けるとともに、該最下層に位置する選択メニューにおいてユーザに各機器の機能実行の確定操作を行わせるようにした。このように各機器にその機能を実行させる場合に、音声認識された用語と当該確定操作された機能とを対応付けし、その対応付けした頻度に従って優先付けすることで、ユーザの音声に含まれる用語が最下層に位置する選択メニューに対応付けられ、当該最下層に位置する選択メニューにおいて各機器の機能実行の操作が行われる。これにより、一の用語が、複数の機能の実行の際に発声され、該複数の機能に対応付けられていた場合に、当該用語が新たに発声されたときに、該用語をユーザの癖や嗜好に応じて複数の機能の内の一の機能に対応付けるとともに、該用語を当該一の機能を実行させる最下層の選択メニューに対応付けることができる。また、これにより、複数の用語が、一の機能の実行の際に発声され、該一の機能に対応付けられていた場合に、当該複数の用語の内のいずれかが新たに発声されたときに、該用語をユーザの癖や嗜好に応じて当該一の機能に対応付けるとともに、該用語を当該一の機能を実行させる最下層の選択メニューに対応付けることができる。以上の結果、該機能を実行しうる最下層に位置する選択メニューにおいて当該ユーザに各機器の機能実行の操作を行わせることができ、複数の機器の各機能が迅速、利便性よく、且つ確実に実行されるようになる。   According to the same configuration, the term included in the user's voice is associated with the selection menu located at the lowest layer of each selection menu according to the frequency with which the recognized term and the confirmed operation function are associated with each other. In the selection menu located at the lowermost layer, the user is allowed to perform an operation for confirming the function execution of each device. Thus, when causing each device to execute the function, the speech-recognized term is associated with the confirmed operation function, and prioritized according to the associated frequency, so that it is included in the user's voice. The term is associated with a selection menu located at the lowest layer, and the function execution operation of each device is performed in the selection menu located at the lowest layer. As a result, when one term is uttered when executing a plurality of functions and is associated with the plurality of functions, when the term is newly uttered, the term According to the preference, the term can be associated with one of a plurality of functions, and the term can be associated with a selection menu at the lowest layer for executing the one function. In addition, when a plurality of terms are uttered at the time of execution of one function and are associated with the one function, any of the plurality of terms is newly uttered. In addition, the term can be associated with the one function according to the user's habits and preferences, and the term can be associated with the selection menu at the lowest layer for executing the one function. As a result, the user can perform the function execution operation of each device in the selection menu located at the lowest layer where the function can be executed, and each function of the plurality of devices can be performed quickly, conveniently and reliably. Will be executed.

請求項2に記載の発明は、請求項1に記載の音声認識機器操作装置において、前記音声認識部は、ケプストラムを特徴パラメータとして、ユーザの音声に含まれる多様な用語を前記各機器の機能に対応付ける音声認識を行うようにしたことを要旨とする。   According to a second aspect of the present invention, in the voice recognition device operating device according to the first aspect, the voice recognition unit uses a cepstrum as a characteristic parameter to convert various terms contained in a user's voice into functions of the devices. The gist is that the corresponding voice recognition is performed.

同構成によれば、ユーザの音声に含まれる多様な用語を複数の機器の機能に対応付ける音声認識が特徴パラメータとしてのケプストラムを使用することによって簡単且つ確実に行われるようになる。   According to this configuration, voice recognition for associating various terms included in the user's voice with the functions of a plurality of devices can be easily and reliably performed by using the cepstrum as a feature parameter.

請求項3に記載の発明は、請求項1又は請求項2に記載の音声認識機器操作装置において、前記機器メニュー部は、前記機器メニュー及び選択メニューを画面に表示する画面表示部により構成され、該画面表示部において、前記機器メニューの機器項目又は選択メニューの操作項目に触れることで当該機器項目又は操作項目の選択が行われるようにしたこと、を要旨とする。   According to a third aspect of the present invention, in the voice recognition device operating device according to the first or second aspect, the device menu unit includes a screen display unit that displays the device menu and the selection menu on a screen. The gist of the screen display unit is that the device item or the operation item is selected by touching the device item of the device menu or the operation item of the selection menu.

同構成によれば、機器メニュー部は、機器メニュー及び選択メニューを画面に表示する画面表示部を含んで構成され、該画面表示部において、機器メニューの機器項目又は選択メニューの操作項目に触れることで当該機器項目又は操作項目の選択が行われるようにしている。このため、機器項目又は操作項目の選択が視覚を通して的確に行われるようになり、複数の機器の各機能がさらに確実に実行されるようになる。   According to this configuration, the device menu unit includes a screen display unit that displays the device menu and the selection menu on the screen, and the device item of the device menu or the operation item of the selection menu is touched on the screen display unit. In this way, the device item or operation item is selected. For this reason, the selection of the device item or the operation item is accurately performed through vision, and the functions of the plurality of devices are more reliably executed.

請求項4に記載の発明は、請求項3に記載の音声認識機器操作装置において、前記最下層に位置する選択メニューは、前記機器メニュー部に表示される次候補ボタンを選択することで、前記同一の階層に位置する他の選択メニューを表示させるようにしたこと、を要旨とする。   According to a fourth aspect of the present invention, in the voice recognition device operating device according to the third aspect, the selection menu located in the lowermost layer selects the next candidate button displayed in the device menu section, The gist is that another selection menu located in the same hierarchy is displayed.

同構成によれば、最下層に位置する選択メニューは、機器メニュー部に表示される次候補ボタンを選択することで、同一の階層に位置する他の選択メニューを表示させるようにした。このため、最下層に位置する他の選択メニューが、同じく最下層に位置する一の選択メニューにおいてマニュアル操作を行うことで順次表示されるようになり、ユーザが所望する機器の機能をより確実に実行させることができるようになる。   According to this configuration, the selection menu located in the lowest layer is made to display another selection menu located in the same hierarchy by selecting the next candidate button displayed in the device menu section. For this reason, other selection menus located at the bottom layer are sequentially displayed by manual operation on one selection menu located at the same bottom layer, and the function of the device desired by the user is more reliably ensured. Can be executed.

本発明によれば、ユーザによる集約的な操作により、複数の機器の機能を迅速、利便性よく且つ確実に実行させることができる音声認識機器操作装置が提供できるようになる。   According to the present invention, it is possible to provide a voice recognition device operating device capable of executing functions of a plurality of devices quickly, conveniently, and reliably by an intensive operation by a user.

以下、本発明を具体化した実施形態について図面に従って説明する。
図1に示すように、本実施形態の音声認識機器操作装置1は、それぞれが所定の機能を実行する複数の車載機器(車両に搭載された機器)を操作すべく設けられ、車両の運転者・補助者等(以下、「ユーザ」という。)の音声に含まれる用語を音声認識させることで各車載機器に該用語に対応する機能を実行させるようにしたものである。本実施形態では、前記車載機器には、オーディオ機器としてのCDドライブ(CDプレーヤ)2、MDドライブ(MDプレーヤ)3、FMラジオ4、及びAMラジオ5、エアコン機器としてのエアコン装置6、並びに、その他車載機器7が含まれている。尚、該その他車載機器7としては、カーナビ装置(GPS受信機)や、ハイブリッド式自動車に搭載される走行状態表示装置等が含まれる。
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, embodiments of the invention will be described with reference to the drawings.
As shown in FIG. 1, the voice recognition device operating device 1 according to the present embodiment is provided to operate a plurality of in-vehicle devices (devices mounted on a vehicle), each of which performs a predetermined function. The terminology included in the voice of an assistant or the like (hereinafter referred to as “user”) is recognized by speech, thereby causing each in-vehicle device to execute a function corresponding to the term. In the present embodiment, the in-vehicle device includes a CD drive (CD player) 2, an MD drive (MD player) 3, an FM radio 4 and an AM radio 5 as audio devices, an air conditioner device 6 as an air conditioner device, and Other on-vehicle equipment 7 is included. The other in-vehicle devices 7 include a car navigation device (GPS receiver), a traveling state display device mounted on a hybrid vehicle, and the like.

前記音声認識機器操作装置1は、図1を参照して、制御部としてのCPU(中央演算処理装置)10を有する装置本体11と、該装置本体11に電気的に接続された機器メニュー部としてのタッチパネルディスプレイ(画面表示部)11aとを備えている。   Referring to FIG. 1, the voice recognition device operating device 1 includes a device main body 11 having a CPU (Central Processing Unit) 10 as a control unit, and a device menu unit electrically connected to the device main body 11. Touch panel display (screen display unit) 11a.

そして、前記装置本体11は、前記CPU10に電気的に接続され、同CPU10で実行される制御プログラム、及び、同制御プログラムで使用される音声認識のためのデータ構造等の各種データが格納又は記憶される記憶部10aと、前記各車載機器を車内LANを介してCPU10に接続させる通信インターフェイス12と、前記タッチパネルディスプレイ11aとCPU10との間に接続され、該ディスプレイ11aの表示を制御する表示制御部13とを備えている。   The apparatus main body 11 is electrically connected to the CPU 10 and stores or stores various data such as a control program executed by the CPU 10 and a data structure for voice recognition used in the control program. Storage unit 10a, communication interface 12 for connecting each in-vehicle device to CPU 10 via in-vehicle LAN, and display control unit connected between touch panel display 11a and CPU 10 for controlling display on display 11a 13.

前記音声認識機器操作装置1は、さらに、前記装置本体11に電気的に接続され、ユーザが発する音声を集音するマイク11b、当該装置本体11により合成された音声を発するスピーカ11c、及び、車両のステアリング(図示せず)に設置され、同装置本体11にユーザの音声に含まれる用語を音声認識させるために操作される音声入力S/W11dを備えている。この音声入力S/W11dは、操作時にオン信号を出力すべく前記CPU10に直接接続されている。   The voice recognition device operating device 1 is further electrically connected to the device main body 11 and collects a microphone 11b that collects a voice uttered by a user, a speaker 11c that emits a voice synthesized by the device main body 11, and a vehicle. Is provided with a voice input S / W 11d that is operated to cause the device main body 11 to recognize a term included in the user's voice. The voice input S / W 11d is directly connected to the CPU 10 to output an ON signal during operation.

そして、前記装置本体11は、前記CPU10に電気的に接続され、前記マイク11bにより集音された音声に含まれる用語を同CPU10と協働して音声認識を実行し、当該認識結果をCPU10に出力する音声認識部14と、同CPU10で演算され、出力された所定の信号に基づいて音声合成を行い、前記スピーカ11cから音声として発する音声プロセッサ15とを備えている。   The apparatus main body 11 is electrically connected to the CPU 10, performs speech recognition on the terms included in the sound collected by the microphone 11 b in cooperation with the CPU 10, and sends the recognition result to the CPU 10. A speech recognition unit 14 for outputting, and a speech processor 15 for performing speech synthesis based on a predetermined signal calculated and output by the CPU 10 and emitting as speech from the speaker 11c are provided.

図2に示すように、本実施形態の音声認識機器操作装置1では、前記タッチパネルディスプレイ11aは、前記CPU10で実行される制御プログラムによって、前記各車載機器に対応した機器メニュー画面101、その下位の階層に位置する選択メニュー画面201等、及び、その下位の階層に位置する選択メニュー画面301等が画面表示(出力)されるように構成されている。   As shown in FIG. 2, in the voice recognition device operating device 1 of the present embodiment, the touch panel display 11 a is controlled by a control program executed by the CPU 10, and the device menu screen 101 corresponding to each vehicle-mounted device, and its lower level. The selection menu screen 201 and the like located in the hierarchy and the selection menu screen 301 and the like located in the lower hierarchy are configured to be displayed (output).

前記機器メニュー画面101には、ユーザの手指が接触することによって選択(操作)される機器項目、具体的には、オーディオ機器項目101a、エアコン機器項目101b、及びその他車載機器項目101cが含まれている。   The device menu screen 101 includes device items that are selected (operated) by touching the user's finger, specifically, an audio device item 101a, an air conditioner device item 101b, and other in-vehicle device item 101c. Yes.

図3に示すように、前記機器メニュー画面101に含まれる、前記オーディオ機器項目101a、エアコン機器項目101b、及びその他車載機器項目101cは、前記制御プログラムに基づき、それぞれが複数の操作項目(CDプレーヤ項目201a等)を有する選択メニュー画面201等に階層構造化されている(図3においては、その他車載機器項目101cの階層構造については図示を省略する)。そして、該階層構造化された各選択メニュー画面201等の最も下位の階層(以下、「最下層」という。)に位置する選択メニュー画面301等において、操作項目(CDプレーヤの再生項目301a等)(図2参照)をユーザが手指で触れ、選択(操作)することで車載機器としてのCDドライブ2(図1参照)の機能実行の確定操作が行なわれるように構成されている。   As shown in FIG. 3, the audio device item 101a, the air conditioner device item 101b, and the other in-vehicle device item 101c included in the device menu screen 101 are each based on the control program. The selection menu screen 201 having items 201a and the like has a hierarchical structure (in FIG. 3, illustration of the hierarchical structure of the other in-vehicle device item 101c is omitted). Then, on the selection menu screen 301 or the like located in the lowest hierarchy (hereinafter referred to as “the lowest layer”) of each selection menu screen 201 or the like having the hierarchical structure, an operation item (CD player playback item 301a or the like). When the user touches and selects (operates) (see FIG. 2), the function execution confirmation operation of the CD drive 2 (see FIG. 1) as the vehicle-mounted device is performed.

具体的には、図2及び図3を参照して、前記機器メニュー画面101(機器項目)を第1階層とすれば、その一階層下の第2階層に位置する選択メニュー画面201には、操作項目として、CDプレーヤ項目201a、MDプレーヤ項目201b、FMラジオ項目201c、及びAMラジオ項目201dが含まれている。尚、この選択メニュー画面201は、前記機器メニュー画面101においてオーディオ機器項目101aを選択した場合に前記タッチパネルディスプレイ11aに表示される画面である。そして、同画面101には、さらに、その一階層上の第1階層としての前記機器メニュー画面101に復帰するためのキャンセルボタン201eが含まれている(図2参照)。   Specifically, referring to FIG. 2 and FIG. 3, if the device menu screen 101 (device item) is the first layer, the selection menu screen 201 located in the second layer below that one layer includes: As operation items, a CD player item 201a, an MD player item 201b, an FM radio item 201c, and an AM radio item 201d are included. The selection menu screen 201 is a screen displayed on the touch panel display 11a when the audio device item 101a is selected on the device menu screen 101. The screen 101 further includes a cancel button 201e for returning to the device menu screen 101 as the first layer one level above (see FIG. 2).

そして、第2階層の選択メニュー画面201の一階層下であって、且つ、図3に示す階層メニュー(機器メニュー及び選択メニュー)の階層構造において最下層に位置する第3階層としての選択メニュー画面301には、操作項目として、前記CDドライブ2の再生項目301a、停止項目301b、早送項目301c、早戻項目301d、及び曲目選択項目301eが含まれている。尚、この選択メニュー画面301は、前記選択メニュー画面201において、CDプレーヤ項目201aを選択した場合に前記タッチパネルディスプレイ11aに表示される場合がある画面(選択メニュー画面302も候補となる。)である。そして、同画面301には、さらに、該画面301と同様にCDプレーヤ項目201aの下位の階層に位置するとともに同じ第3階層に位置する画面である選択メニュー画面302を次候補として切り換えるべく選択される次候補ボタン301f、同画面301の一階層上の第2階層に位置する選択メニュー画面201に戻るべく選択される戻るボタン301g、及び、初期画面である前記機器メニュー画面101に復帰するべく選択されるキャンセルボタン301hが含まれている。   Then, the selection menu screen as the third hierarchy that is one level below the selection menu screen 201 of the second hierarchy and that is positioned at the lowest level in the hierarchical structure of the hierarchy menu (device menu and selection menu) shown in FIG. 301 includes a play item 301a, a stop item 301b, a fast-forward item 301c, a fast-rewind item 301d, and a song selection item 301e of the CD drive 2 as operation items. The selection menu screen 301 is a screen that may be displayed on the touch panel display 11a when the CD player item 201a is selected on the selection menu screen 201 (the selection menu screen 302 is also a candidate). . The same screen 301 is further selected to switch the selection menu screen 302, which is a screen located in the lower layer of the CD player item 201a and in the same third layer as the screen 301, as the next candidate. The next candidate button 301f, the return button 301g that is selected to return to the selection menu screen 201 located in the second level on the first level of the screen 301, and the selection to return to the device menu screen 101 that is the initial screen. The cancel button 301h to be executed is included.

図2に示す選択メニュー画面301を例とすれば、該階層構造化された機器メニュー画面101、選択メニュー画面201、及び選択メニュー画面301において最下層に位置する選択メニュー画面301において再生項目301aを選択することでCDドライブ2(図1参照)において、その機能実行の確定操作、つまり、ユーザが再生項目301aに触れることによる音楽ソフトの再生操作が行なわれる。   Taking the selection menu screen 301 shown in FIG. 2 as an example, the playback item 301 a is displayed on the hierarchically structured device menu screen 101, the selection menu screen 201, and the selection menu screen 301 located at the lowest layer in the selection menu screen 301. When the selection is made, in the CD drive 2 (see FIG. 1), the operation for confirming the execution of the function, that is, the music software playback operation by the user touching the playback item 301a is performed.

また、図3に示すように、前記選択メニュー画面301と同様、選択メニュー画面201の一階層下の第3階層(最下層)に位置する選択メニュー画面302には、その操作項目として、CDドライブ2の音量上昇項目302a及び音量下降項目302bが含まれる。そして、同画面302で音量上昇項目302aを選択することでCDドライブ2(図1参照)において音楽ソフトの再生音量の上昇操作が行なわれる。   Further, as shown in FIG. 3, similar to the selection menu screen 301, the selection menu screen 302 positioned at the third layer (lowermost layer) one layer below the selection menu screen 201 has a CD drive as its operation item. Two volume increase items 302a and volume decrease items 302b are included. Then, by selecting the volume increase item 302a on the screen 302, the CD software 2 (see FIG. 1) is operated to increase the playback volume of the music software.

さらに、図3に示すように、選択メニュー画面201に含まれる操作項目であるCDプレーヤ項目201a以外の操作項目、即ち、MDプレーヤ項目201b、FMラジオ項目201c、及びAMラジオ項目201dについても、当該CDプレーヤ項目201aと同様に階層構造化されており、同階層構造化によって、前記CDプレーヤ項目201aと同様な機能が実現されるように構成されている(FM・AMラジオ項目201c,201dについては、CDプレーヤ項目201a及びMDプレーヤ項目201bにおける再生項目、停止項目、早送・早戻項目、及び曲目選択項目は、周波数上昇・下降項目が対応する)。本実施形態では、選択メニュー画面303,305,307の各操作項目については、選択メニュー画面301における操作項目と対応した符号を付するようにする(例えば、選択メニュー画面301の再生項目301aは、選択メニュー画面302において、再生項目302aに対応する。)。   Further, as shown in FIG. 3, the operation items other than the CD player item 201a which are operation items included in the selection menu screen 201, that is, the MD player item 201b, the FM radio item 201c, and the AM radio item 201d Similar to the CD player item 201a, it has a hierarchical structure, and the same hierarchical structure realizes the same function as the CD player item 201a (for FM / AM radio items 201c and 201d). In the CD player item 201a and the MD player item 201b, the playback item, stop item, fast forward / reverse item, and program selection item correspond to the frequency increase / decrease item). In this embodiment, each operation item on the selection menu screens 303, 305, and 307 is given a symbol corresponding to the operation item on the selection menu screen 301 (for example, the reproduction item 301a on the selection menu screen 301 is (It corresponds to the reproduction item 302a in the selection menu screen 302).

一方、本実施形態では、図3に示すように、初期画面である前記機器メニュー画面101において、エアコン機器項目101bを選択した場合に前記タッチパネルディスプレイ11aに表示される画面であり、選択メニュー画面201と同様に第2階層に位置する選択メニュー画面211には、操作項目として、車室内を暖房するべく選択される暖房項目211a、及び、車室内を冷房するべく選択される冷房項目211bが含まれる。そして、同画面211において暖房項目211aを選択した場合には、暖房モードとなり、操作項目として設定温度上昇項目311a及び設定温度下降項目311bを含む選択メニュー画面311、又は、操作項目として風量上昇項目312a及び風量下降項目312bを含む選択メニュー画面312のいずれかが前記タッチパネルディスプレイ11aに表示されるように構成されている。また、同画面211において冷房項目211bを選択した場合には、冷房モードとなり、操作項目として設定温度上昇項目313a及び設定温度下降項目313bを含む選択メニュー画面313、又は、操作項目として風量上昇項目314a及び風量下降項目314bを含む選択メニュー画面314のいずれかが前記タッチパネルディスプレイ11aに表示されるように構成されている。尚、これら選択メニュー画面311〜314は、いずれも、図3に示す階層メニューの階層構造において最下層の第3階層に位置する画面である。   On the other hand, in the present embodiment, as shown in FIG. 3, when the air conditioner device item 101b is selected on the device menu screen 101 which is an initial screen, the screen is displayed on the touch panel display 11a, and the selection menu screen 201 is displayed. Similarly, the selection menu screen 211 located in the second hierarchy includes a heating item 211a selected to heat the vehicle interior and a cooling item 211b selected to cool the vehicle interior as operation items. . When the heating item 211a is selected on the screen 211, the heating mode is set, and the selection menu screen 311 including the set temperature increase item 311a and the set temperature decrease item 311b as operation items, or the air volume increase item 312a as operation items. Any one of the selection menu screens 312 including the air volume lowering item 312b is displayed on the touch panel display 11a. When the cooling item 211b is selected on the screen 211, the cooling mode is set, and the selection menu screen 313 including the set temperature increase item 313a and the set temperature decrease item 313b as the operation items, or the air volume increase item 314a as the operation items. Any one of the selection menu screens 314 including the air volume lowering item 314b is displayed on the touch panel display 11a. Note that these selection menu screens 311 to 314 are all screens located in the third lowest layer in the hierarchical structure of the hierarchical menu shown in FIG.

そして、例えば、選択メニュー画面311において設定温度上昇項目311aを選択することで、エアコン装置6(図1参照)の暖房モードで設定温度の上昇操作が行なわれる。   Then, for example, by selecting the set temperature increase item 311a on the selection menu screen 311, the operation for increasing the set temperature is performed in the heating mode of the air conditioner device 6 (see FIG. 1).

本実施形態の音声認識機器操作装置1は、ユーザの音声に含まれる用語を音声認識することで前記各車載機器(CDドライブ2、MDドライブ3、FMラジオ4、AMラジオ5、エアコン装置6、その他車載機器[カーナビ装置等]7)に該用語に対応する機能を実行させるようにしたものである。このために、前記音声認識部14がユーザの音声に含まれる多様な用語を前記各車載機器の機能に対応付けする音声認識を行う。そして、前記CPU10が、図3に示す階層メニューの階層構造における第3階層(最下層)に位置する選択メニュー画面301等において、各車載機器の機能実行の確定操作が行なわれる毎に、前記音声認識部14で音声認識された用語を、当該確定操作された機能に対応付ける。そして、過去に音声認識された用語と確定操作された機能とが対応付けられた頻度(回数)に応じて、ユーザが発する音声に含まれる用語を、前記第3階層(最下層)に位置する選択メニュー画面301等に対応付けるとともに、該第3階層に位置する選択メニュー画面301等においてユーザに各車載機器の機能実行の確定操作を行わせるようにした点に特徴を有する。   The voice recognition device operating device 1 according to the present embodiment recognizes the terms contained in the user's voice, thereby recognizing each vehicle-mounted device (CD drive 2, MD drive 3, FM radio 4, AM radio 5, air conditioner device 6, Other vehicle-mounted equipment [car navigation system etc.] 7) is made to execute the function corresponding to the term. For this purpose, the voice recognition unit 14 performs voice recognition by associating various terms included in the user's voice with the functions of the in-vehicle devices. Each time the CPU 10 performs a function execution confirmation operation for each in-vehicle device on the selection menu screen 301 or the like located in the third hierarchy (lowermost layer) in the hierarchical structure of the hierarchical menu shown in FIG. The term recognized by the recognition unit 14 is associated with the confirmed operation. The term included in the speech uttered by the user is positioned in the third hierarchy (lowermost layer) according to the frequency (number of times) in which the term recognized in the past and the confirmed function are associated with each other. This is characterized in that it is associated with the selection menu screen 301 and the like, and the user is allowed to perform a function execution confirmation operation for each in-vehicle device on the selection menu screen 301 and the like located in the third hierarchy.

具体的には、前記音声認識部14及びCPU10によって行われる音声認識は、特徴パラメータとして所謂LPCケプストラムを用いて行うようにしている。即ち、前記CPU10の制御プログラムによって、前記マイク11bから入力された音声に含まれる用語と、前記記憶部10aに音声認識のためのデータ構造として記憶させた各用語毎のLPCケプストラム(各用語の音声スペクトルをサンプリング周期毎に逆フーリエ変換することで特徴パラメータ化し、標準パラメータとして登録したもの)とのパターンマッチングを行い、類似度が最も高い用語を認識結果として出力するようにしている。但し、この音声認識部14及びCPU10では、入力された音声に含まれる用語について、テキストデータへの変換に成功した場合には、テキストデータ同士のパターンマッチングが行われるようになっている。   Specifically, the speech recognition performed by the speech recognition unit 14 and the CPU 10 is performed using a so-called LPC cepstrum as a feature parameter. That is, according to the control program of the CPU 10, the terms included in the speech input from the microphone 11b and the LPC cepstrum for each term stored as a data structure for speech recognition in the storage unit 10a (the speech of each term). The spectrum is subjected to inverse Fourier transform for each sampling period to be converted into feature parameters and registered as standard parameters), and the term having the highest similarity is output as a recognition result. However, the speech recognition unit 14 and the CPU 10 perform pattern matching between text data when terms included in the input speech have been successfully converted into text data.

図4に、本実施形態で使用される、入力された音声に含まれる用語と選択メニュー画面301等との対応付けのための「音声→選択メニュー」対応付けデータ構造を示す。このデータ構造は、前記CPU10に接続された記憶部10aに前記制御プログラムによって使用されうるように記憶されているものである。このデータ構造では、該データ構造を構成し、音声データエントリーでもある各構造体n1〜ni(i:自然数)は、用語データポインタ及び選択メニューデータポインタをメンバーとして構成されている。該各構造体n1〜niの先頭には、用語データポインタが参照する音声データのデータ型(データタイプ)に応じて、「0」(テキストデータの場合)又は「1」(特徴パラメータデータの場合)が格納されるデータ型Flagが置かれている。そして、各構造体n1〜ni−1の末尾には、次の構造体(構造体n2〜niのいずれか)を指し示すポインタが格納されており、これにより複数の構造体n1〜niがチェインで連結されている。尚、該チェインの最後の構造体niの末尾には、同構造体niが、各構造体n1〜niのチェインの終末であることを示す「0」がNULL(ヌル)として格納されている。   FIG. 4 shows a “voice → selection menu” association data structure used in this embodiment for associating a term included in the input voice with the selection menu screen 301 and the like. This data structure is stored in the storage unit 10a connected to the CPU 10 so that it can be used by the control program. In this data structure, each of the structures n1 to ni (i: natural number) that constitutes the data structure and is also an audio data entry includes a term data pointer and a selection menu data pointer as members. Each of the structures n1 to ni has “0” (in the case of text data) or “1” (in the case of feature parameter data) depending on the data type (data type) of the audio data referred to by the term data pointer. ) Is stored. At the end of each structure n1 to ni-1, a pointer indicating the next structure (any one of structures n2 to ni) is stored, so that a plurality of structures n1 to ni are chained. It is connected. At the end of the last structure ni of the chain, “0” indicating that the structure ni is the end of the chain of each structure n1 to ni is stored as NULL.

本実施形態では、前記構造体n1及び構造体n2は、用語「あげる」について使用されており、別の構造体n3〜niは、別の用語(例えば、「アップ」、「上昇させる」等)について使用されている。そして、該構造体n1の用語データポインタは、データ型Flagが「0」であって、「あ・げ・る」のテキストデータが格納されているアドレスを参照するポインタを有している。また、該構造体n2の用語データポインタは、データ型Flagが「0」であって、「あ・げ・る」の特徴パラメータデータ[1]〜[11](付加情報を含む。)が格納されているアドレスを参照するポインタを有している。   In the present embodiment, the structure n1 and the structure n2 are used for the term “raise”, and another structure n3 to ni is another term (for example, “up”, “raise”, etc.). Has been used about. The term data pointer of the structure n1 has a pointer that refers to an address where the data type Flag is “0” and the text data of “Agegeru” is stored. Further, the term data pointer of the structure n2 has the data type Flag of “0”, and the characteristic parameter data [1] to [11] (including additional information) of “A • G • R” are stored. It has a pointer to refer to the address that has been set.

本実施形態において、前記構造体n1及び構造体n2の用語データポインタによって参照されるテキストデータ及び特徴パラメータデータは、過去に用語として「あげる」等が音声として使用され、選択メニュー画面301の操作項目(CDプレーヤの再生項目301a等)が選択された時点で後述する選択メニューデータポインタと対応付けされ、確定されたものである。   In the present embodiment, the text data and feature parameter data referred to by the term data pointers of the structures n1 and n2 have been used as voices as a term in the past, and the operation items on the selection menu screen 301 When a (CD player playback item 301a, etc.) is selected, it is associated with a selection menu data pointer described later and confirmed.

一方、前記構造体n1の選択メニューデータポインタによって参照される選択メニューデータ(「CDプレーヤ音量上昇」、「暖房設定温度上昇」、「MDプレーヤ音量上昇」が機能データとして格納されている。)は、該各機能実行の過去の頻度(回数)とともに、それぞれ構造体m1〜m3とされ、各構造体m1,m2の末尾には、次の構造体(構造体m2,m3のいずれか)を指し示すポインタが格納されている。そして、これにより複数の構造体m1〜m3がチェインで連結されている。尚、該チェインの最後の構造体m3の末尾には、同構造体m3が、各構造体m1〜m3のチェインの終末であることを示す「0」がNULL(ヌル)として格納されている(前記構造体n2の選択メニューデータポインタも同様である。)。   On the other hand, selection menu data referred to by the selection menu data pointer of the structure n1 ("CD player volume increase", "heating set temperature increase", and "MD player volume increase" are stored as function data). Along with the past frequency (number of times) of execution of each function, the structures m1 to m3 are respectively indicated. At the end of each of the structures m1 and m2, the next structure (one of the structures m2 and m3) is indicated. A pointer is stored. Thus, the plurality of structural bodies m1 to m3 are connected by a chain. At the end of the last structure m3 of the chain, “0” indicating that the structure m3 is the chain end of each structure m1 to m3 is stored as NULL (null) ( The same applies to the selection menu data pointer of the structure n2.)

本実施形態では、前記各構造体m1〜m3において、前記選択メニューデータ中の機能データである「CDプレーヤ音量上昇」、「暖房設定温度上昇」、「MDプレーヤ音量上昇」には、それぞれ、過去に用語として「あげる」が使用されたときに選択されたCDドライブ2の音量上昇項目302a、エアコン装置6の暖房モードにおける設定温度上昇項目311a、MDドライブ3の音量上昇項目304aの各操作項目が対応している。そして、各構造体m1〜m3は、前記各操作項目が選択された頻度が多い順番(回数11、回数5、回数2)にてチェインで連結されている。   In this embodiment, in each of the structures m1 to m3, “CD player volume increase”, “heating set temperature increase”, and “MD player volume increase”, which are function data in the selection menu data, The operation items of the volume increase item 302 a of the CD drive 2, the set temperature increase item 311 a in the heating mode of the air conditioner 6, and the volume increase item 304 a of the MD drive 3, which are selected when “raise” is used as the term in FIG. It corresponds. And each structure m1-m3 is connected with the chain in order (number of times 11, number of times 5, number of times 2) with the frequency with which each said operation item was selected.

そして、ユーザにより、「あげる」という用語が音声として発せられ、前記音声認識部14及びCPU10で、「あ・げ・る」のテキストデータへの変換に成功して音声認識が行われた場合には、図4に示す構造体n1(データ型Flag:「0」)が使用され、テキストデータ同士のパターンマッチングが行われる。そして、用語「あげる」が「CDプレーヤ音量上昇」の機能実行について過去に使用された頻度(回数11)に基づき、「CDプレーヤ音量上昇」の機能実行が優先され、当該機能を実行するための選択メニュー画面301が前記タッチパネルディスプレイ11aに画面表示される。そして、ユーザは、同選択メニュー画面301において、CDドライブ2の音量上昇項目302aの選択を行うことができ、これにより、当該「CDプレーヤ音量上昇」の機能を、迅速、利便性よく、且つ確実に実行させることができるようになる。一方、前記音声認識部14及びCPU10で、音声として発せられた用語「あげる」について、「あ・げ・る」のテキストデータへの変換に失敗した場合でも、図4に示す構造体n2(データ型Flag:「1」)が使用され、特徴パラメータ同士のパターンマッチングが行われる。そして、上述と同様なプロセスを経て、選択メニュー画面301が前記タッチパネルディスプレイ11aに画面表示される。そして、ユーザは、CDドライブ2の音量上昇項目302aの選択を行うことができ、これにより、当該「CDプレーヤ音量上昇」の機能を、迅速、利便性よく、且つ確実に実行させることができるようになる。   Then, when the user gives the word “raise” as a voice and the voice recognition unit 14 and the CPU 10 have successfully converted the text data of “Agegeru” into voice data and have performed voice recognition. The structure n1 (data type Flag: “0”) shown in FIG. 4 is used to perform pattern matching between text data. The function execution of “CD player volume increase” is prioritized based on the frequency (the number of times 11) used in the past for the function execution of the term “raise” “CD player volume increase”. A selection menu screen 301 is displayed on the touch panel display 11a. Then, the user can select the volume increase item 302a of the CD drive 2 on the selection menu screen 301, and thereby, the function of “CD player volume increase” can be performed quickly, conveniently and reliably. To be able to run. On the other hand, even if the speech recognition unit 14 and the CPU 10 fail to convert the term “raise” uttered as speech into the text data “Agegeru”, the structure n2 (data) shown in FIG. Type Flag: “1”) is used to perform pattern matching between feature parameters. Then, through the same process as described above, the selection menu screen 301 is displayed on the touch panel display 11a. Then, the user can select the volume increase item 302a of the CD drive 2 so that the “CD player volume increase” function can be executed quickly, conveniently and reliably. become.

本実施形態の音声認識機器操作装置1は、以上のように構成されており、以下、図5の動作フローチャート、及び、図1〜図4を参照しつつ、その動作について説明する。尚、本実施形態において、新車購入時には、各用語と車載装置の機能の対応付けについては、一般的なものが設定されている(例えば、「上昇させる」について「CDプレーヤ音量上昇」を対応させている。)。   The voice recognition device operating device 1 of the present embodiment is configured as described above, and the operation will be described below with reference to the operation flowchart of FIG. 5 and FIGS. In the present embodiment, when a new car is purchased, a general one is set as a correspondence between each term and the function of the in-vehicle device (for example, “increase CD player volume” is associated with “increase”). ing.).

即ち、まず、ユーザが車両のエンジンを始動させると、前記装置本体11に搭載されたCPU10が制御プログラムの実行を開始するとともに、前記各車載機器(CDドライブ2、MDドライブ3、FMラジオ4、AMラジオ5、エアコン装置6、その他車載機器[カーナビ装置等]7)の電源がオンとなる。そして、ステップS1において、前記タッチパネルディスプレイ11aに、初期画面である前記機器メニュー画面101が画面表示される。   That is, first, when the user starts the engine of the vehicle, the CPU 10 mounted on the apparatus main body 11 starts execution of the control program, and each on-vehicle device (CD drive 2, MD drive 3, FM radio 4, The AM radio 5, the air conditioner device 6, and other in-vehicle devices [car navigation device etc.] 7) are turned on. In step S1, the device menu screen 101, which is an initial screen, is displayed on the touch panel display 11a.

次に、ステップS2において、音声入力S/W11dを操作すると、オン信号がCPU10に出力され、ステップS3に移行する。一方、音声入力S/W11dを操作しないと、ステップS12に移行する。   Next, when the voice input S / W 11d is operated in step S2, an ON signal is output to the CPU 10, and the process proceeds to step S3. On the other hand, if the voice input S / W 11d is not operated, the process proceeds to step S12.

そして、ステップS3においては、上述した階層メニュー(選択メニュー画面201,301等[図2、図3参照])が前記タッチパネルディスプレイ11aに画面表示される状態となる。   In step S3, the above-described hierarchical menu (selection menu screens 201, 301, etc. [see FIGS. 2 and 3]) is displayed on the touch panel display 11a.

続くステップS4において、例えば、ユーザがCDドライブ2の再生音量を上昇させることを意図し、「あげる」という用語を音声として発すると、当該用語が前記マイク11bを介して集音される。さらに音声認識部14において、音声(用語)入力の有無が検出されるとともに、前記CPU10の制御プログラム及び図4のデータ構造に基づいて、その用語の音声認識が行われる。   In the subsequent step S4, for example, when the user intends to increase the playback volume of the CD drive 2 and utters the term “raise” as sound, the term is collected via the microphone 11b. Further, the speech recognition unit 14 detects the presence or absence of speech (term) input, and speech recognition of the term is performed based on the control program of the CPU 10 and the data structure of FIG.

さらにその後、ステップS5において、前記制御プログラム及びデータ構造に基づいて、過去に用語として「あげる」を使用したときに選択した操作項目(CDプレーヤの音量上昇項目302a)が選択された頻度が最も多い(回数11)の「CDプレーヤ音量上昇」が優先的に選ばれる。そして、当該機能を実行するための選択メニュー画面302がタッチパネルディスプレイ11aに画面表示される。   After that, in step S5, based on the control program and the data structure, the operation item (CD player volume increase item 302a) selected when “raise” is used as a term in the past is most frequently selected. (Number of times 11) “CD player volume increase” is preferentially selected. Then, a selection menu screen 302 for executing the function is displayed on the touch panel display 11a.

ここで、仮にユーザが所望(意図)していた機能がMDドライブ3の音量上昇であって、表示された選択メニュー画面302が当該機能を実行させるための選択メニュー画面304と異なるときには、ステップS6において、次候補検索を行うことができる。即ち、図2及び図3を参照して、当該画面302上の戻るボタン302gを操作し、同画面302より一階層上の第2階層に位置する選択メニュー画面201に戻り、同画面201にてMDプレーヤ項目201bを選択し、選択メニュー画面303を表示させてから更に次候補ボタン303fを操作して選択メニュー画面304を表示させることができる。そして、同画面304でMDドライブ3の音量上昇項目304aを選択し、当該機能が実行された場合には、ユーザによって音声として発せられた「あげる」についての音声認識部14における音声認識結果がMDドライブ3の音量上昇機能について確定される。そして、同音声認識結果が、図4に示すデータ構造において、構造体n1及び構造体n2の用語データポインタで参照されるように前記記憶部10aにテキストデータ及び特徴パラメータデータ(音声データ)として記憶される。また、このとき同時に、当該MDドライブ3の音量上昇項目304aが選択された頻度(回数)が、前記音声データと対応付けされ、一つカウントアップされる。   If the function desired (intended) by the user is to increase the volume of the MD drive 3, and the displayed selection menu screen 302 is different from the selection menu screen 304 for executing the function, step S6 is performed. Next candidate search can be performed. That is, referring to FIG. 2 and FIG. 3, the return button 302 g on the screen 302 is operated to return to the selection menu screen 201 located on the second layer one level higher than the screen 302. After selecting the MD player item 201b and displaying the selection menu screen 303, the selection menu screen 304 can be displayed by further operating the next candidate button 303f. Then, when the volume increase item 304a of the MD drive 3 is selected on the same screen 304 and the function is executed, the voice recognition result in the voice recognition unit 14 for “raising” uttered as voice by the user is MD The volume increasing function of the drive 3 is determined. The voice recognition result is stored as text data and feature parameter data (voice data) in the storage unit 10a so as to be referred to by the term data pointers of the structures n1 and n2 in the data structure shown in FIG. Is done. At the same time, the frequency (number of times) of selecting the volume increase item 304a of the MD drive 3 is associated with the audio data and counted up by one.

尚、ステップS7において、例えば、選択メニュー画面201及び選択メニュー画面302のいずれかにおいてキャンセルボタン201e又はキャンセルボタン302hを操作した場合には、初期画面である前記機器メニュー画面101に復帰するとともに、ステップS11において、音声入力失敗FLGがセットされ、図5において、(1)(ステップS15の前)に移行する(この場合は、初期画面からの次候補検索が可能になる。)。   In step S7, for example, when the cancel button 201e or the cancel button 302h is operated on either the selection menu screen 201 or the selection menu screen 302, the apparatus menu screen 101 which is the initial screen is returned to, and the step In S11, the voice input failure FLG is set, and in FIG. 5, the process proceeds to (1) (before step S15) (in this case, the next candidate search from the initial screen becomes possible).

一方、ユーザが所望(意図)していた機能がCDドライブ2の音量上昇であって、表示された選択メニュー画面が当該機能を実行させるための選択メニュー画面302と一致するときには、選択メニュー画面201及び選択メニュー画面302のいずれかにおいてキャンセルボタン201e又はキャンセルボタン302hを操作せず、ステップS8において、選択メニュー画面302でCDドライブ2の音量上昇項目302aを選択し、さらにステップS9において、当該機能が実行された場合には、ステップS10において、ユーザによって音声として発せられた「あげる」についての音声認識部14における音声認識結果がCDドライブ2の音量上昇機能について確定される。そして、同音声認識結果が、図4に示すデータ構造において、構造体n1及び構造体n2の用語データポインタで参照されるように前記記憶部10aにテキストデータ及び特徴パラメータデータ(音声データ)として記憶される。また、このとき同時に、当該CDドライブ2の音量上昇項目302aが選択された頻度(回数)が、前記音声データと対応付けされ、一つカウントアップされる。   On the other hand, when the function desired (intended) by the user is to increase the volume of the CD drive 2 and the displayed selection menu screen matches the selection menu screen 302 for executing the function, the selection menu screen 201 is displayed. In any one of the selection menu screen 302, the cancel button 201e or the cancel button 302h is not operated, and the volume increase item 302a of the CD drive 2 is selected on the selection menu screen 302 in step S8. If executed, in step S10, the voice recognition result in the voice recognition unit 14 for "raising" uttered as a voice by the user is determined for the volume increasing function of the CD drive 2. The voice recognition result is stored as text data and feature parameter data (voice data) in the storage unit 10a so as to be referred to by the term data pointers of the structures n1 and n2 in the data structure shown in FIG. Is done. At the same time, the frequency (number of times) at which the volume increase item 302a of the CD drive 2 is selected is associated with the audio data and counted up by one.

尚、前記ステップS8及びステップS9において、新たに「アップ」なる用語をCDプレーヤの音量上昇項目302aの選択時に使用した場合には、当該用語「アップ」が音声認識されるとともに、機能データである「CDプレーヤ音量上昇」と対応付けされ、図4のデータ構造中に新規に記憶される。   When the term “up” is newly used at the time of selection of the volume increase item 302a of the CD player in step S8 and step S9, the term “up” is recognized as voice and is function data. It is associated with “CD player volume increase” and is newly stored in the data structure of FIG.

一方、ステップS2において、音声入力S/W11dを操作せず、ステップS12において、初期画面である前記機器メニュー画面101にて、タッチ入力ボタン、即ち、オーディオ機器項目101a、エアコン機器項目101b、及びその他車載機器項目101cのいずれかを選択した場合には、続くステップS13において、上述した階層メニュー(選択メニュー画面201,301等[図2、図3参照])が前記タッチパネルディスプレイ11aに画面表示される状態となる。   On the other hand, in step S2, the voice input S / W 11d is not operated, and in step S12, on the device menu screen 101 which is the initial screen, touch input buttons, that is, the audio device item 101a, the air conditioner device item 101b, and the like. When any one of the in-vehicle device items 101c is selected, in the subsequent step S13, the above-described hierarchical menu (selection menu screens 201, 301, etc. [see FIGS. 2 and 3)] is displayed on the touch panel display 11a. It becomes a state.

このステップS12以降では、音声認識機器操作装置1による音声認識を経ることなく、通常のマニュアル操作によって各車載機器(CDドライブ2、MDドライブ3、FMラジオ4、AMラジオ5、エアコン装置6、その他車載機器[カーナビ装置等]7)の機能実行を行うことができる。尚、ステップS12において、タッチ入力ボタンの操作が行われなかった場合には、ここでの処理を一旦終了する。   In step S12 and subsequent steps, each vehicle-mounted device (CD drive 2, MD drive 3, FM radio 4, AM radio 5, air conditioner 6, etc.) is operated by a normal manual operation without performing voice recognition by the voice recognition device operation device 1. It is possible to execute functions of in-vehicle devices [car navigation system etc.] 7). In step S12, if the touch input button is not operated, the process here is temporarily terminated.

そして、ステップS14において、選択メニュー画面201等にてキャンセルボタン201eを操作すると、前記タッチパネルディスプレイ11aに機器メニュー画面101が画面表示され、続くステップS15において、次候補検索を行うことができる。即ち、この場合には、初期画面である前記機器メニュー画面101に復帰するので、当該画面101から任意の機器項目及び操作項目を選択していき、最下層の選択メニュー画面301等を表示させてから同画面301で操作項目を操作する。続いてステップ16、S17において、前記ステップS8,S9と同様に、当該画面301にて操作しうる機能を実行させることができる。この場合は、ステップS11を経由するルートと異なり、音声入力失敗FLGはセットされていないので、次のステップS18において、音声入力失敗FLGなしと判断され、ここでの処理を一旦終了する。   When the cancel button 201e is operated on the selection menu screen 201 or the like in step S14, the device menu screen 101 is displayed on the touch panel display 11a, and the next candidate search can be performed in the subsequent step S15. That is, in this case, since the screen returns to the device menu screen 101 which is the initial screen, arbitrary device items and operation items are selected from the screen 101 and the lowermost selection menu screen 301 and the like are displayed. From the same screen 301, the operation item is operated. Subsequently, in steps 16 and S17, the functions that can be operated on the screen 301 can be executed as in steps S8 and S9. In this case, unlike the route via step S11, since the voice input failure FLG is not set, in the next step S18, it is determined that there is no voice input failure FLG, and the process here is temporarily terminated.

一方、ステップS14において、選択メニュー画面201等にてキャンセルボタン201e等を操作しなかった場合には、ここでの処理を一旦終了する。
また、前述したステップS7においてキャンセルボタン201e等が操作され、ステップS11において、音声入力失敗FLGがセットされていた場合には、ステップS11を経由してステップS15に移行し、当該ステップS15において、次候補検索を行うことができる。即ち、初期画面である前記機器メニュー画面101から、任意の機器項目及び操作項目を選択していき、最下層の選択メニュー画面304等を表示させてから同画面304で操作項目を操作し、続くステップ16、S17において、ステップS11を経由しないルートと同様に、当該画面304にて操作しうる機能を実行させることができる。この場合は、ステップ11で音声入力失敗FLGがセットされているので、次のステップS18において、音声入力失敗FLGありと判断され、続くステップS19において音声入力失敗FLGがリセットされる。それととともに、さらに次のステップS10において、音声として発した「あげる」についての音声認識部14による音声認識結果が、例えば、MDドライブ3の音量上昇機能について確定され、図4に示すデータ構造において、構造体n1及び構造体n2の用語データポインタで参照されるように前記記憶部10aに音声データとして記憶される。また、このとき同時に、当該MDドライブ3の音量上昇項目304aが選択された頻度(回数)が、前記音声データと対応付けされ、一つカウントアップされる。
On the other hand, in step S14, when the cancel button 201e or the like is not operated on the selection menu screen 201 or the like, the processing here is temporarily ended.
If the cancel button 201e or the like is operated in step S7 described above and the voice input failure FLG is set in step S11, the process proceeds to step S15 via step S11. Candidate search can be performed. That is, arbitrary device items and operation items are selected from the device menu screen 101 which is the initial screen, the selection menu screen 304 at the lowest layer is displayed, and the operation items are operated on the same screen 304, followed by In Steps 16 and S17, functions that can be operated on the screen 304 can be executed in the same manner as a route that does not go through Step S11. In this case, since voice input failure FLG is set in step 11, it is determined in step S18 that there is a voice input failure FLG, and in step S19, the voice input failure FLG is reset. At the same time, in the next step S10, the voice recognition result by the voice recognition unit 14 for “raise” uttered as voice is determined for the volume increasing function of the MD drive 3, for example, and in the data structure shown in FIG. It is stored as audio data in the storage unit 10a so as to be referred to by the term data pointers of the structures n1 and n2. At the same time, the frequency (number of times) of selecting the volume increase item 304a of the MD drive 3 is associated with the audio data and counted up by one.

本実施形態の音声認識機器操作装置1によれば、以下のような作用・効果を得ることができる。
(1)音声認識された用語と確定操作された機能とが対応付けられた頻度(回数)に応じて、ユーザの音声に含まれる用語を各選択メニュー画面201,301(302)等の最下層に位置する選択メニュー画面301,302等に対応付けるとともに、該最下層に位置する選択メニュー画面301,302等においてユーザに各車載機器(CDドライブ2、MDドライブ3、FMラジオ4、AMラジオ5、エアコン装置6、その他車載機器[カーナビ装置等]7)の機能実行の確定操作を行わせるようにした。このように各車載機器にその機能を実行させる場合に、音声認識された用語と当該確定操作された機能とを対応付ける。そして、その対応付けした頻度に従って優先付けすることで、ユーザの音声に含まれる用語が各選択メニュー画面201,301等の最下層に位置する選択メニュー画面301に対応付けられ、同画面301がタッチパネルディスプレイ11aに画面表示される。そして、ユーザは当該最下層に位置する選択メニュー画面301において各車載機器の機能実行の操作を行うことができる。
According to the voice recognition device operating device 1 of the present embodiment, the following operations and effects can be obtained.
(1) The term included in the user's voice is displayed in the lowest layer such as each of the selection menu screens 201 and 301 (302) in accordance with the frequency (number of times) in which the recognized term and the confirmed operation function are associated with each other. Are associated with the selection menu screens 301, 302, etc. located on the lowermost layer, and each of the in-vehicle devices (CD drive 2, MD drive 3, FM radio 4, AM radio 5, The air conditioner device 6 and other in-vehicle devices [car navigation system etc.] 7) are allowed to perform a function execution confirmation operation. Thus, when causing each in-vehicle device to execute the function, the speech-recognized term is associated with the confirmed operation function. Then, by prioritizing according to the associated frequency, the terms included in the user's voice are associated with the selection menu screen 301 located at the bottom layer of each selection menu screen 201, 301, etc., and the screen 301 is the touch panel. A screen is displayed on the display 11a. And the user can perform the function execution operation of each in-vehicle device on the selection menu screen 301 located in the lowest layer.

(2)これにより、一の用語(例えば、「あげる」)が、複数の機能(例えば、「CDプレーヤ音量上昇」、「暖房設定温度上昇」、「MDプレーヤ音量上昇」)の実行の際に発声され、該複数の機能に対応付けられていた場合に、当該用語「あげる」が新たに発声されたときに、当該用語をユーザの癖や嗜好に応じて複数の機能の内の一の機能(例えば、「CDプレーヤ音量上昇」)に対応付ける。そして、それとともに、該用語を当該一の機能を実行させる最下層の選択メニュー画面302に対応付け、同画面302をタッチパネルディスプレイ11aに画面表示することができる。   (2) Thereby, one term (for example, “raise”) is used when a plurality of functions (for example, “CD player volume increase”, “heating set temperature increase”, “MD player volume increase”) are executed. If the term “raise” is newly uttered when it is uttered and associated with the plurality of functions, the term is selected as one of the functions according to the user's habits and preferences. (For example, “CD player volume increase”). At the same time, the term can be associated with the lowermost selection menu screen 302 for executing the one function, and the screen 302 can be displayed on the touch panel display 11a.

(3)また、これにより、複数の用語(例えば、「あげる」、「アップ」、「上昇させる」)が、一の機能(例えば、「CDプレーヤ音量上昇」)の実行の際に発声され、該一の機能に対応付けされていた場合に、当該複数の用語の内のいずれか(例えば、「あげる」)が新たに発声されたときに、該用語「あげる」をユーザの癖や嗜好に応じて当該一の機能に対応付ける。そして、それとともに、該用語を当該一の機能を実行させる最下層の選択メニュー画面302等に対応付け、同画面302をタッチパネルディスプレイ11aに画面表示することができる。   (3) Also, due to this, a plurality of terms (for example, “raise”, “up”, “raise”) are uttered when executing one function (for example, “CD player volume increase”), When it is associated with the one function, when any of the plurality of terms (for example, “raise”) is newly uttered, the term “raise” is given to the user's habit or preference. Corresponding to the one function accordingly. At the same time, the term can be associated with the lowermost selection menu screen 302 for executing the one function, and the screen 302 can be displayed on the touch panel display 11a.

(4)以上の結果、タッチパネルディスプレイ11aに画面表示され、該機能を実行しうる最下層に位置する選択メニュー画面301,302等において当該ユーザが各車載機器の機能実行の操作を行うことができ、複数の車載機器の各機能が迅速、利便性よく、且つ確実に実行されるようになる。   (4) As a result, the user can perform the function execution operation of each in-vehicle device on the selection menu screens 301, 302, etc., which are displayed on the touch panel display 11a and located at the lowest layer where the function can be executed. Each function of a plurality of in-vehicle devices can be executed quickly, conveniently and reliably.

(5)ユーザの音声に含まれる多様な用語(例えば、「あげる」、「アップ」、「上昇させる」)を複数の車載機器の機能に対応付ける音声認識が、特徴パラメータとしてのLPCケプストラムを使用することによって簡単且つ確実に行われるようになる。   (5) Speech recognition that associates various terms (for example, “raise”, “up”, “raise”) included in the user's voice with the functions of a plurality of in-vehicle devices uses the LPC cepstrum as a feature parameter This makes it easy and reliable.

(6)機器メニュー部は、機器メニュー画面101、選択メニュー画面301等を画面に表示する画面表示部としてのタッチパネルディスプレイ11aを含んで構成され、該タッチパネルディスプレイ11aにおいて、機器メニュー画面101のオーディオ機器項目101a等又は選択メニュー画面201のCDプレーヤ項目201a等に触れることで当該機器項目又は操作項目の選択が行われるようにしている。このため、機器項目又は操作項目の選択が視覚を通して的確に行われるようになり、複数の車載機器の各機能がさらに確実に実行されるようになる。   (6) The device menu section includes a touch panel display 11a as a screen display section for displaying the device menu screen 101, the selection menu screen 301 and the like on the screen. In the touch panel display 11a, the audio device of the device menu screen 101 is displayed. The device item or the operation item is selected by touching the item 101a or the like or the CD player item 201a or the like on the selection menu screen 201. For this reason, selection of an apparatus item or an operation item comes to be performed accurately through vision, and each function of a plurality of in-vehicle devices is more certainly executed.

(7)例えば、最下層に位置する選択メニュー画面301は、タッチパネルディスプレイ11aに表示される次候補ボタン301fを選択することで、同一の階層に位置する他の選択メニュー画面302を表示させるようにした。このため、最下層に位置する他の選択メニュー画面302が、同じく最下層に位置する一の選択メニュー画面301においてマニュアル操作を行うことで表示されるようになり、ユーザが所望する車載機器の機能をより確実に実行させることができるようになる。   (7) For example, the selection menu screen 301 located at the lowermost layer displays another selection menu screen 302 located at the same level by selecting the next candidate button 301f displayed on the touch panel display 11a. did. For this reason, another selection menu screen 302 positioned at the lowest layer is displayed by performing manual operation on one selection menu screen 301 also positioned at the lowest layer, and the function of the in-vehicle device desired by the user is displayed. Can be executed more reliably.

尚、上記実施形態は以下のように変形してもよい。
・上記実施形態では、音声認識のための特徴パラメータとしてLPC(線形予測符号化)ケプストラムを使用した。しかしこれに限られず、メルケプストラムや、その他の特徴パラメータ(パワー等)を使用できることは勿論である。
The above embodiment may be modified as follows.
In the above embodiment, an LPC (linear predictive coding) cepstrum is used as a feature parameter for speech recognition. However, the present invention is not limited to this, and it is a matter of course that a mel cepstrum and other characteristic parameters (power, etc.) can be used.

・上記実施形態では、音声認識機器操作装置1を車両に搭載された複数の車載機器を集約的に操作するものとした。しかしこれに限られず、例えば、同音声認識機器操作装置1は、住宅等の不動産における各種機器(照明機器、冷蔵庫、TV、エアコン機器等)やOA機器の機能(コピー、ファクシミリ、画像読み取り等)を集約的に操作するためにも使用できる。   In the above-described embodiment, the voice recognition device operating device 1 is configured to collectively operate a plurality of in-vehicle devices mounted on the vehicle. However, the present invention is not limited to this. For example, the voice recognition device operating device 1 is a function of various devices (lighting devices, refrigerators, TVs, air conditioner devices, etc.) and office automation devices in real estate such as houses (copying, facsimile, image reading, etc.). Can also be used to intensively operate

・上記実施形態では、各車載機器の機能実行の確定操作が行われても、何ら通知がなされないように構成しているが、例えば、画面上で操作項目の色を変えることにより、確定操作が実行されたことを通知するようにしてもよいし、音声によって操作項目(CDプレーヤの音量上昇項目302a等)の読み上げにより通知するようにしてもよい。さらに、この場合、機能実行を確定する前に、例えば、「温度を上げますがよいですね。」等と音声を発してユーザに確認するようにしてもよい。   -In the above embodiment, it is configured so that no notification is made even if the function execution confirmation operation of each in-vehicle device is performed. For example, the confirmation operation is performed by changing the color of the operation item on the screen. May be notified, or may be notified by reading out operation items (such as the volume increase item 302a of the CD player) by voice. Furthermore, in this case, before confirming the execution of the function, for example, a voice such as “Temperature should be raised” may be uttered and confirmed with the user.

・上記実施形態では、機器メニュー部を画面表示部としてのタッチパネルディスプレイ11aとし、機器項目又は操作項目の選択を視覚を通して行わせるようにした。しかしこれに限られず、機器項目又は操作項目の選択を聴覚を通して行わせるようにしてもよい。この場合、機器メニュー部としては車両に搭載され、機器メニュー及び選択メニューを音声で出力する音声出力部が使用される。尚、この場合、音声出力部は画面表示部と併用できることは勿論である。   In the above-described embodiment, the device menu part is the touch panel display 11a as the screen display unit, and the selection of the device item or the operation item is made through vision. However, the present invention is not limited to this, and the device item or the operation item may be selected through hearing. In this case, an audio output unit that is mounted on the vehicle and outputs the device menu and the selection menu by voice is used as the device menu unit. In this case, it goes without saying that the audio output unit can be used together with the screen display unit.

さらに、前記した実施形態および変形例より把握できる技術的思想について以下に記載する。
○請求項1〜請求項4のいずれかに記載の音声認識機器操作装置において、前記機器メニュー部は、前記機器メニュー及び選択メニューを音声で出力する音声出力部を含んで構成され、前記音声に対して応答することで当該機器メニューの機器項目又は選択メニューの操作項目の選択が行われるようにした音声認識機器操作装置。
Further, technical ideas that can be grasped from the above-described embodiments and modifications will be described below.
The voice recognition device operating device according to any one of claims 1 to 4, wherein the device menu unit includes a voice output unit that outputs the device menu and the selection menu by voice. A voice recognition device operation device that selects a device item of the device menu or an operation item of the selection menu by responding to the response.

同構成によれば、視覚によらず、音声を介在させて機器メニューの機器項目又は選択メニューの操作項目の選択が行われるので、例えば、車両を運転しながら、複数の車載機器に機能を実行させる必要がある場合に、安全性が高められるようになる。   According to the same configuration, the device item of the device menu or the operation item of the selection menu is selected through audio, regardless of visual sense. For example, a function is executed on a plurality of in-vehicle devices while driving the vehicle. When it is necessary to make it happen, safety is improved.

本発明の実施形態にかかる音声認識機器操作装置の電気的構成を示すブロック図。The block diagram which shows the electric constitution of the speech recognition apparatus operating device concerning embodiment of this invention. 本発明の実施形態にかかる音声認識機器操作装置において、画面表示部に表示される機器メニュー画面及び選択メニュー画面を示す平面図。The top view which shows the apparatus menu screen and selection menu screen which are displayed on a screen display part in the speech recognition apparatus operating device concerning embodiment of this invention. 階層メニュー画面(機器メニュー画面及び選択メニュー画面)の階層構造を示すチャート図。The chart figure which shows the hierarchical structure of a hierarchy menu screen (an apparatus menu screen and a selection menu screen). 「音声→選択メニュー(画面)」対応付けデータ構造を示す模式図。The schematic diagram which shows the "voice-> selection menu (screen)" matching data structure. 本発明の実施形態にかかる音声認識機器操作装置の動作を示すフローチャート図。The flowchart figure which shows operation | movement of the speech recognition apparatus operating device concerning embodiment of this invention.

符号の説明Explanation of symbols

1…音声認識機器操作装置、11…機器本体、101…機器メニュー画面(階層メニュー画面)、101a…機器項目、201,301…選択メニュー画面(階層メニュー画面)、201a,301a…操作項目。   DESCRIPTION OF SYMBOLS 1 ... Voice recognition apparatus operation device, 11 ... Apparatus main body, 101 ... Apparatus menu screen (hierarchy menu screen), 101a ... Apparatus item, 201, 301 ... Selection menu screen (hierarchy menu screen), 201a, 301a ... Operation item.

Claims (4)

それぞれが所定の機能を実行する複数の機器を操作すべく設けられ、ユーザの音声に含まれる用語を音声認識することで前記各機器に当該用語に対応する機能を実行させるようにした音声認識機器操作装置であって、
ユーザの音声に含まれる多様な用語を前記各機器の機能に対応付ける音声認識を行う音声認識部と、
前記各機器に対応し、それぞれが複数の操作項目を有する選択メニューに階層構造化された機器項目を有する機器メニューを出力するとともに、該階層構造化された各選択メニューの最下層に位置する選択メニューにおいて一の操作項目を選択することで当該各機器の機能実行の確定操作が行なわれるようにした機器メニュー部と、
前記各機器の機能実行の確定操作が行なわれる毎に、前記音声認識部で音声認識された用語を、当該確定操作された機能に対応付ける制御部とを具備し、
前記制御部は、前記音声認識された用語と確定操作された機能とが対応付けられた頻度に応じて、ユーザの音声に含まれる用語を前記最下層に位置する選択メニューに対応付けるとともに、該最下層に位置する選択メニューにおいて当該ユーザに前記各機器の機能実行の操作を行わせるようにしたことを特徴とする音声認識機器操作装置。
A voice recognition device that is provided to operate a plurality of devices, each of which performs a predetermined function, and that causes each device to execute a function corresponding to the term by recognizing the term included in the user's voice. An operating device,
A voice recognition unit that performs voice recognition for associating various terms included in the user's voice with the functions of the devices;
A device menu having a hierarchically structured device item is output to a selection menu corresponding to each device, each having a plurality of operation items, and a selection located at the lowest layer of each hierarchically structured selection menu A device menu section in which a function execution confirmation operation is performed by selecting one operation item in the menu;
A control unit that associates a term recognized by the voice recognition unit with the function for which the confirmation operation has been performed each time a function execution confirmation operation is performed on each device;
The control unit associates the term included in the user's voice with the selection menu located at the lowest layer according to the frequency with which the voice-recognized term is associated with the confirmed operation, and A speech recognition apparatus operating device, characterized in that the user performs an operation for executing the function of each apparatus in a selection menu located in a lower layer.
請求項1に記載の音声認識機器操作装置において、
前記音声認識部は、ケプストラムを特徴パラメータとして、ユーザの音声に含まれる多様な用語を前記各機器の機能に対応付ける音声認識を行うようにした音声認識機器操作装置。
The voice recognition device operating device according to claim 1,
The voice recognition device operation device, wherein the voice recognition unit performs voice recognition using a cepstrum as a characteristic parameter to associate various terms included in a user's voice with functions of the devices.
請求項1又は請求項2に記載の音声認識機器操作装置において、
前記機器メニュー部は、前記機器メニュー及び選択メニューを画面に表示する画面表示部により構成され、
該画面表示部において、前記機器メニューの機器項目又は選択メニューの操作項目に触れることで当該機器項目又は操作項目の選択が行われるようにした音声認識機器操作装置。
In the voice recognition apparatus operating device according to claim 1 or 2,
The device menu unit is configured by a screen display unit that displays the device menu and the selection menu on a screen.
A voice recognition device operating device in which the device item or the operation item is selected by touching the device item of the device menu or the operation item of the selection menu in the screen display unit.
請求項3に記載の音声認識機器操作装置において、
前記最下層に位置する選択メニューは、前記機器メニュー部に表示される次候補ボタンを選択することで、前記同一の階層に位置する他の選択メニューを表示させるようにした音声認識機器操作装置。
In the voice recognition apparatus operating device according to claim 3,
The voice recognition device operating device, wherein the selection menu located at the lowest layer displays another selection menu located at the same level by selecting a next candidate button displayed in the device menu section.
JP2008019521A 2008-01-30 2008-01-30 Operation unit for voice-recognizing device Pending JP2009180914A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008019521A JP2009180914A (en) 2008-01-30 2008-01-30 Operation unit for voice-recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008019521A JP2009180914A (en) 2008-01-30 2008-01-30 Operation unit for voice-recognizing device

Publications (1)

Publication Number Publication Date
JP2009180914A true JP2009180914A (en) 2009-08-13

Family

ID=41034942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008019521A Pending JP2009180914A (en) 2008-01-30 2008-01-30 Operation unit for voice-recognizing device

Country Status (1)

Country Link
JP (1) JP2009180914A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180030A (en) * 2017-04-03 2018-11-15 三菱電機株式会社 Operation device and operation method
US10328950B2 (en) 2014-09-15 2019-06-25 Denso Corporation Vehicle equipment control device and method of searching for control content
CN113971954A (en) * 2021-12-23 2022-01-25 广州小鹏汽车科技有限公司 Voice interaction method and device, vehicle and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10328950B2 (en) 2014-09-15 2019-06-25 Denso Corporation Vehicle equipment control device and method of searching for control content
JP2018180030A (en) * 2017-04-03 2018-11-15 三菱電機株式会社 Operation device and operation method
CN113971954A (en) * 2021-12-23 2022-01-25 广州小鹏汽车科技有限公司 Voice interaction method and device, vehicle and storage medium

Similar Documents

Publication Publication Date Title
US8280742B2 (en) Input device and input method for mobile body
KR101613407B1 (en) Vehicle system comprising an assistance functionality and method for operating a vehicle system
JP3919210B2 (en) Voice input guidance method and apparatus
US20120268294A1 (en) Human machine interface unit for a communication device in a vehicle and i/o method using said human machine interface unit
JP5463922B2 (en) In-vehicle machine
JP4736982B2 (en) Operation control device, program
WO2014109104A1 (en) Voice recognition device, voice recognition program, and voice recognition method
JP6432233B2 (en) Vehicle equipment control device and control content search method
WO2015128960A1 (en) In-vehicle control apparatus and in-vehicle control method
JP2017146437A (en) Voice input processing device
JP2007017731A (en) Speech recognition device, navigation device equipped with the same and speech recognition method of the same
JP2001296943A (en) Interactive user interface device
KR20160105936A (en) Method for operating an electronic device or an application,and corresponding apparatus
JP5494318B2 (en) Mobile terminal and communication system
JP2016097928A (en) Vehicular display control unit
JP2009180914A (en) Operation unit for voice-recognizing device
WO2008134657A2 (en) Information management system and method
JP5986468B2 (en) Display control apparatus, display system, and display control method
JP4770374B2 (en) Voice recognition device
JP3731499B2 (en) Voice recognition control device and in-vehicle information processing device
JP2003241784A (en) Speech input and output device
WO2023272629A1 (en) Interface control method, device, and system
JP2008243146A (en) Speech recognition processor and its control method
JP2009301263A (en) Onboard display system
JP2008233009A (en) Car navigation device, and program for car navigation device