JP2008076811A - Voice recognition device, voice recognition method and voice recognition program - Google Patents
Voice recognition device, voice recognition method and voice recognition program Download PDFInfo
- Publication number
- JP2008076811A JP2008076811A JP2006256907A JP2006256907A JP2008076811A JP 2008076811 A JP2008076811 A JP 2008076811A JP 2006256907 A JP2006256907 A JP 2006256907A JP 2006256907 A JP2006256907 A JP 2006256907A JP 2008076811 A JP2008076811 A JP 2008076811A
- Authority
- JP
- Japan
- Prior art keywords
- candidate
- specifying
- voice
- word
- specified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、使用者により入力される音声を認識し、認識した結果に基づいて対象を制御するための情報を取得する音声認識装置、音声認識方法及び音声認識プログラムに関する。 The present invention relates to a speech recognition apparatus, a speech recognition method, and a speech recognition program that recognizes speech input by a user and acquires information for controlling an object based on the recognition result.
近年、機器の制御等の操作を行うシステムにおいて、使用者により入力される音声を認識して機器の操作等に必要な情報を取得する音声認識装置が用いられている。このような音声認識装置では、使用者により入力される音声(発話)を認識し、認識した結果に基づいて使用者に応答して次の発話を促すことで、使用者との対話が行われる。そして、使用者との対話を認識した結果から、機器の操作等を行うために必要な情報が取得される。このとき、例えば、認識対象であるコマンドが予め登録された音声認識辞書を用いて、入力された発話の特徴量と音声認識辞書に登録されたコマンドの特徴量とを比較することにより発話が認識される。 In recent years, in a system that performs operations such as device control, a speech recognition device that recognizes a voice input by a user and acquires information necessary for device operation or the like has been used. In such a voice recognition device, a voice (speech) input by the user is recognized, and the user is urged to respond to the next utterance based on the recognized result, whereby a dialogue with the user is performed. . Information necessary for operating the device is acquired from the result of recognizing the dialogue with the user. At this time, for example, using a speech recognition dictionary in which a command to be recognized is registered in advance, the utterance is recognized by comparing the feature amount of the input utterance with the feature amount of the command registered in the speech recognition dictionary. Is done.
このような音声認識装置は、例えば車両に装備されて、車両に搭載されたオーディオ、ナビゲーション装置、エアコンディショナ等の複数の機器を使用者が操作するために使用される。例えば、オーディオ機器の音量を増減する機能を操作対象として操作する場合、使用者は、当該機能をどのように変化させるか(操作内容)を音声で指示するため、「アップ」又は「ダウン」という言葉(指示語)で操作内容を指示する。これは、ラジオの受信局を変更する機能を操作対象として操作する場合も同様であり、使用者は、「受信周波数」を増減させるため、「アップ」又は「ダウン」という指示語を発声することにより操作内容を指示する。 Such a voice recognition device is used for a user to operate a plurality of devices such as an audio device, a navigation device, and an air conditioner mounted on the vehicle, for example. For example, when a function for increasing / decreasing the volume of an audio device is operated as an operation target, the user instructs by voice how to change the function (operation content), and is referred to as “up” or “down”. The operation content is instructed with words (indicators). The same applies to the case of operating the function of changing the radio reception station as the operation target, and the user must utter the instruction word “up” or “down” in order to increase or decrease the “reception frequency”. The operation content is indicated by.
上記のように、同一の指示語によって操作を行う機能が複数存在するとき、そのような指示語のみの発声ではどの操作対象の機能かを識別できないので、操作対象の機能を表す言葉(機能語)と共に発声する必要がある。上記の例でいえば、増減という機能を指示する言葉(指示語)でも、操作対象となるオーディオ機器の音量を増減する操作とラジオの受信周波数を増減する操作とが存在するため、音量と受信周波数のいずれを増減させるかを明示することが必要である。すなわち、「音量」を増加させたいときは「音量アップ」、周波数を増加させたいときは「周波数アップ」という言葉を発する必要がある。また、エアコンの温度調節の際にも、設定温度を上下させるために「温度アップ」あるいは「温度ダウン」という言葉を発声する必要がある。 As described above, when there are a plurality of functions that operate with the same instruction word, it is not possible to identify which operation target function by uttering only such an instruction word. ). In the above example, there are operations to increase / decrease the volume of the audio device to be operated and operations to increase / decrease the reception frequency of the radio even if the word (indicator) indicates the function of increase / decrease. It is necessary to clearly indicate which frequency is to be increased or decreased. That is, it is necessary to say “volume up” to increase “volume” and “frequency up” to increase frequency. Also, when adjusting the temperature of an air conditioner, it is necessary to say the words “temperature up” or “temperature down” in order to raise or lower the set temperature.
しかしながら、例えば車両搭載機器において「アップ」という言葉(指示語)が使われる場合、オーディオ機器が作動していれば「音量」増加、エアコンが作動していれば「温度」増加というように、作動中の機器の機能を指示することが一般的であり、また、特に他の機器が作動していないときには音量しかあり得ない。また、オーディオ機器とエアコンが共に作動しているときに連続して「アップ」という言葉が発せられた場合には、オーディオ機器の音量に対する指示である確率が高い。このような事情があるにも拘らず、常に機能語と指示語を一緒に発声しなければならないのは、使用者にとって煩わしく不便である。 However, for example, when the word “up” (indicator) is used in a vehicle-mounted device, the “volume” increases if the audio device is activated, and the “temperature” increases if the air conditioner is activated. It is common to indicate the function of the inside device, and there can only be a volume, especially when no other device is operating. Also, if the word “up” is issued continuously when both the audio device and the air conditioner are operating, there is a high probability that it is an instruction for the volume of the audio device. In spite of such circumstances, it is bothersome and inconvenient for the user to always utter the function word and the instruction word together.
この対策として、例えば音量を増加させる操作を行うときは「アップ」という指示語、周波数を増加させる操作については「上」という指示語を使用し、また、エアコンの設定温度を増加させたいときは「寒い」という言葉で指示するというように、各機能によって異なる指示語を使用するように予め設定しておくことも考えられる。しかしながら、各機能について設定量を増減させる機能が、実際上殆ど同じ操作指示で行われる場合においても、機能毎に異なる言葉(指示語)を用いるように定めることは、使用者にとって却ってわかりにくくなり、機器操作が面倒になってしまう。 As countermeasures, for example, use the "up" instruction word to increase the volume, use the "up" instruction to increase the frequency, and increase the air conditioner set temperature. It is also conceivable to set in advance to use different instruction words for each function, such as instructing with the word “cold”. However, even when the function to increase or decrease the set amount for each function is performed with almost the same operation instructions, it is difficult for the user to understand that it is determined to use different words (indicators) for each function. , Device operation becomes troublesome.
そこで、下記特許文献1では、機器の機能の操作内容を示す特定の指示語が複数の機能に共通して用いられている場合であって、これらの機器が全て作動しているときであっても、指示語を発声しただけで利用者が希望する機能を推定して、所望の操作を行うことができるようにした音声認識機器操作装置が提案されている。
Therefore, in
この音声認識機器操作装置は、音声認識部で認識された音声から、機器の機能を選択する機能語とその機能の操作を指示する指示語とを識別し、指示語単独の音声入力が行われたことを検出する識別部と、機器の機能とこれを操作する指示語を記録した操作指示データベースと、前記識別部で識別した指示語が複数の機能に共通の指示語であるか否かを前記操作指示データベースから検出する操作可能機能検出部と、前記指示語に対応して使用頻度を記録する使用頻度データベースと、前記操作可能機能検出部で複数の機能に共通の指示語であることが検出されたとき、前記使用頻度データベースから前記複数の機能のうち最も使用頻度の高い機能を検索する使用頻度検索部と、前記使用頻度検索部で検索された最も使用頻度の高い機能の機能語を、入力した指示語に付加し操作語として出力する操作語形成部と、機器に対する操作指示信号が出力されるとき、前記使用頻度データベースのデータを修正する使用頻度修正部とを備えたものである。 This voice recognition device operating device identifies a function word for selecting a function of the device and a command word for instructing operation of the function from the voice recognized by the voice recognition unit, and voice input of the command word alone is performed. An identification unit that detects the fact, an operation instruction database that records the function of the device and an instruction word for operating the device, and whether or not the instruction word identified by the identification unit is a common instruction word for a plurality of functions The operable function detection unit that is detected from the operation instruction database, the usage frequency database that records the usage frequency corresponding to the instruction word, and the instruction word that is common to a plurality of functions in the operable function detection unit When detected, the usage frequency search unit that searches the usage frequency database for the most frequently used function among the plurality of functions, and the function of the most frequently used function searched by the usage frequency search unit. An operation word forming unit that adds words to input instruction words and outputs them as operation words, and a use frequency correction unit that corrects data in the use frequency database when an operation instruction signal for the device is output It is.
この装置によれば、利用者が希望する機能を使用頻度データによって推定することにより、使用者が特定の指示語を発声しただけで、その機能を指示する機能語と前記指示語を組み合わせて操作語として、機器の操作を行わせることができる。
しかしながら、上記の音声認識機器操作装置は、要するに、複数の機能に共通して用いられる操作内容を指示する特定の言葉に対して、最も使用頻度の高い機能を対応させるものである。このため、使用者が特定の言葉を使用した言い回しの違いで別の操作を指示している場合には対応することができない。また、例えば、使用者が発する入力音声における操作対象を示す言葉が、「これ」「それ」「あれ」といった曖昧な言葉(曖昧語)であった場合に、言い回しの違いを考慮して当該曖昧語の示す内容を推定するものではない。よって、機能の推定が適切に行われず、機器の操作上使い勝手がよくないという問題がある。 However, the above-described voice recognition device operating device basically corresponds to a function that is used most frequently to a specific word that indicates operation contents that are commonly used for a plurality of functions. For this reason, it is not possible to cope with the case where the user instructs another operation due to the difference in the phrase using a specific word. Also, for example, when the word indicating the operation target in the input voice uttered by the user is an ambiguous word (ambiguous word) such as “this”, “it”, “that”, the ambiguous word is considered in consideration of the difference in the wording. It does not estimate what the word shows. Therefore, there is a problem that the function is not properly estimated and the usability of the device is not good.
本発明は、上記事情に鑑み、使用者の発話に操作対象が特定できないような曖昧語が含まれている場合にも対応可能で、使用者の発話に対して適切な操作を推定できる音声認識装置を提供することを目的とする。 In view of the above circumstances, the present invention is applicable to a case where an ambiguous word whose operation target cannot be specified is included in the user's utterance, and voice recognition capable of estimating an appropriate operation for the user's utterance. An object is to provide an apparatus.
本発明は、入力された音声についての認識結果に基づいて操作対象の操作内容を決定する音声認識装置において、前記音声についての認識結果を、予め定めた操作対象及び操作内容の種類に分類することにより、操作対象及び操作内容を特定する特定処理を行う操作特定手段と、前記音声についての認識結果から、前記操作特定手段で分類し得ない曖昧語を検出する曖昧語検出手段と、前記曖昧語検出手段で検出された曖昧語により特定される可能性のある操作対象を操作対象候補として抽出する候補抽出手段とを備え、前記操作特定手段は、操作内容の特定は可能で、操作対象の特定ができない場合、前記曖昧語検出手段で検出された曖昧語を前記候補抽出手段で抽出された候補に置換して当該操作特定手段で前記特定処理を行うことを特徴とする。 The present invention relates to a speech recognition apparatus that determines an operation content of an operation target based on a recognition result of an input voice, and classifies the recognition result of the voice into a predetermined operation target and operation content type. The operation specifying means for performing the specifying process for specifying the operation target and the operation content, the ambiguous word detecting means for detecting the ambiguous word that cannot be classified by the operation specifying means from the recognition result of the voice, and the ambiguous word A candidate extraction unit that extracts an operation target that may be specified by an ambiguous word detected by the detection unit as an operation target candidate. The operation specifying unit is capable of specifying an operation content and specifying an operation target. If it is not possible to replace the ambiguous word detected by the ambiguous word detecting means with the candidate extracted by the candidate extracting means, the operation specifying means performs the specifying process. To.
本発明によれば、例えば使用者から対象を操作するための発話が音声入力されて、当該音声が単語列で表現されるテキストとして認識される。ここで、「テキスト」とは、単語の列で表現された、所定の意味を有する有意構文である。そして、操作対象特定手段は、例えばこの音声についての認識結果に含まれる単語間の関係を解析することで、当該認識結果を操作対象及び操作内容の種類に分類することにより、操作対象及び操作内容を特定する。このとき、入力された音声が曖昧である場合には、操作内容は特定されるが、操作対象が特定されないことがある。例えば、入力音声における操作対象を示す単語又は単語列が、「これ」「それ」「あれ」といった一般的な指示語であったり、音声が不明瞭なために正しく認識されない等により、操作特定手段で分類し得ない曖昧語である場合である。このとき、本発明では、音声についての認識結果から曖昧語を検出し、当該曖昧語を操作対象候補に置換して操作特定手段で特定処理を行うことにより、発話に含まれる曖昧語の示す内容を適切に推定して操作対象及び操作内容を特定することができる。 According to the present invention, for example, an utterance for manipulating an object is inputted by voice, and the voice is recognized as text expressed by a word string. Here, “text” is a significant syntax expressed in a string of words and having a predetermined meaning. Then, the operation target specifying means classifies the recognition result into the types of the operation target and the operation content by analyzing the relationship between words included in the recognition result for the voice, for example, and thereby the operation target and the operation content. Is identified. At this time, if the input voice is ambiguous, the operation content is specified, but the operation target may not be specified. For example, the operation specifying means is such that a word or a word string indicating an operation target in the input voice is a general instruction word such as “this”, “it”, “that”, or is not recognized correctly because the voice is unclear. This is a case of an ambiguous word that cannot be classified by. At this time, in the present invention, the ambiguous word is detected from the recognition result of the speech, the ambiguous word is replaced with the operation target candidate, and the identification process is performed by the operation specifying unit, whereby the content indicated by the ambiguous word included in the utterance is displayed. It is possible to appropriately estimate the operation target and the operation content.
したがって、本発明によれば、使用者の発話に操作対象が特定できないような曖昧語が含まれている場合にも対応可能で、操作対象を特定するための候補を抽出することで適切な操作を推定できる。 Therefore, according to the present invention, it is possible to cope with a case where an ambiguous word whose operation target cannot be specified is included in the user's utterance, and an appropriate operation can be performed by extracting candidates for specifying the operation target. Can be estimated.
本発明の好ましい実施形態では、前記候補抽出手段は、前記操作特定手段で特定された操作内容に対して可能性のある操作対象を操作対象候補として抽出するものとする。 In a preferred embodiment of the present invention, the candidate extracting unit extracts a possible operation target for the operation content specified by the operation specifying unit as an operation target candidate.
これにより、曖昧語に対して、特定された操作内容に応じた操作対象候補を効率良く抽出し、的確に操作対象を特定することができる。 Thereby, with respect to an ambiguous word, the operation target candidate according to the specified operation content can be efficiently extracted, and the operation target can be specified accurately.
別の実施形態は、前記操作特定手段で特定された操作対象及び操作内容がそれぞれ複数あるときに該複数の操作対象及び操作内容を報知する報知手段と、該複数の操作対象及び操作内容のうちそれぞれ1つを選択する選択手段とを備え、前記操作特定手段は、前記選択手段で選択された操作対象及び操作内容を最終的に特定した操作対象及び操作内容とする。 In another embodiment, when there are a plurality of operation objects and operation contents specified by the operation specifying means, a notification means for notifying the plurality of operation objects and operation contents, and among the plurality of operation objects and operation contents Selection means for selecting one each, and the operation specifying means sets the operation target and operation content selected by the selection means as the operation target and operation content finally specified.
これにより、複数の操作対象について使用者に知らせて、所望のものを選択してもらうことができるので、操作対象を的確に特定することができる。 Accordingly, the user can be informed about a plurality of operation objects and a desired one can be selected, so that the operation objects can be accurately identified.
さらに別の実施形態は、操作対象となる機器の状態を検知する機器状態検知手段を備え、前記操作特定手段で特定された操作対象及び操作内容がそれぞれ複数あるときに、前記操作特定手段は、前記機器状態検知手段による検知結果に基づいて、該複数の操作対象及び操作内容のうちそれぞれ1つを特定することを特徴とする。 Still another embodiment includes a device state detection unit that detects a state of a device to be operated, and when there are a plurality of operation targets and operation contents specified by the operation specifying unit, the operation specifying unit includes: One of each of the plurality of operation objects and operation contents is specified based on a detection result by the device state detection means.
これにより、特定された操作対象及び操作内容がそれぞれ複数あっても、操作対象となる機器の状態から最も適切な操作対象及び操作内容を特定することができる。 Thereby, even when there are a plurality of specified operation targets and operation details, the most appropriate operation target and operation details can be specified from the state of the device to be operated.
さらに別の実施形態は、操作対象及び操作内容の履歴を保存する操作履歴記憶手段を備え、前記操作特定手段で特定された操作対象及び操作内容がそれぞれ複数あるときに、前記操作特定手段は、前記操作履歴記憶手段に保存されている履歴に基づいて、該複数の操作対象及び操作内容のうちそれぞれ1つを特定することを特徴とする。 Still another embodiment includes an operation history storage unit that stores a history of operation targets and operation details, and when there are a plurality of operation targets and operation details specified by the operation specifying unit, the operation specifying unit includes: One of each of the plurality of operation objects and operation contents is specified based on a history stored in the operation history storage means.
これにより、特定された操作対象及び操作内容がそれぞれ複数あっても、それまでの操作履歴から最も適切な操作対象及び操作内容を特定することができる。 Thereby, even when there are a plurality of specified operation objects and operation contents, the most appropriate operation object and operation contents can be specified from the operation history so far.
また、本発明によれば、入力された音声についての認識結果に基づいて操作対象の操作内容を決定する音声認識方法であって、前記音声についての認識結果を、予め定めた操作対象及び操作内容の種類に分類することにより、操作対象及び操作内容を特定する特定ステップと、前記特定ステップで操作内容は特定できたが、操作対象を特定できない場合に、前記音声についての認識結果から、該特定ステップで分類し得ない曖昧語を検出する曖昧語検出ステップと、前記曖昧語検出ステップで検出された曖昧語により特定される可能性のある操作対象を操作対象候補として抽出する候補抽出ステップと、前記検出ステップで検出された曖昧語を前記候補抽出ステップで抽出された候補に置換して、当該置換後の認識結果を、予め定めた操作対象及び操作内容の種類に分類することにより、操作対象及び操作内容を特定する第2の特定ステップとを備えることを特徴とする方法が提供される。 In addition, according to the present invention, there is provided a speech recognition method for determining an operation content of an operation target based on a recognition result for an input voice, wherein the recognition result for the voice is determined based on a predetermined operation target and operation content. The operation step and the operation content can be specified by the classification step, and the operation content can be specified in the specification step, but when the operation target cannot be specified, the identification result is obtained from the recognition result of the voice. An ambiguous word detection step for detecting an ambiguous word that cannot be classified in the step; a candidate extraction step for extracting an operation target that may be specified by the ambiguous word detected in the ambiguous word detection step; The ambiguous word detected in the detection step is replaced with the candidate extracted in the candidate extraction step, and the recognition result after the replacement is determined as a predetermined operation pair. And by classifying the type of operation contents, the method characterized by comprising a second specifying step of specifying the operation target and operation content is provided.
この音声認識方法によれば、本発明の音声認識装置に関して説明したように、使用者の発話に操作対象が特定できないような曖昧語が含まれている場合にも対応可能で、操作対象を特定するための候補を抽出することで適切な操作を推定できる。よって、この音声認識方法によれば、使用者の発話に操作対象が特定できないような曖昧語が含まれている場合にも対応可能で、操作対象を特定するための候補を抽出することで適切な操作を推定できる。 According to this speech recognition method, as described with reference to the speech recognition apparatus of the present invention, it is possible to cope with a case where an ambiguous word that does not specify the operation target is included in the user's utterance. It is possible to estimate an appropriate operation by extracting candidates to be performed. Therefore, according to this speech recognition method, it is possible to cope with the case where an ambiguous word whose operation target cannot be specified is included in the user's utterance, and it is appropriate to extract candidates for specifying the operation target. Can be estimated.
さらに、本発明によれば、入力された音声についての認識結果に基づいて操作対象の操作内容を決定する処理をコンピュータに実行させる音声認識プログラムであって、前記音声についての認識結果を、予め定めた操作対象及び操作内容の種類に分類することにより、操作対象及び操作内容を特定する特定処理と、前記音声についての認識結果から、前記特定処理で分類し得ない曖昧語を検出する検出処理と、前記検出処理で検出された曖昧語により特定される可能性のある操作対象を操作対象候補として抽出する候補抽出処理とを備え、前記特定処理で操作内容の特定は可能で、操作対象の特定ができない場合、前記検出処理で検出された曖昧語を前記抽出処理で抽出された候補に置換して前記特定処理を行う機能を前記コンピュータに実行させることを特徴とする音声認識プログラムが提供される。 Furthermore, according to the present invention, there is provided a speech recognition program for causing a computer to execute a process of determining an operation content of an operation target based on a recognition result for input speech, wherein the recognition result for the speech is determined in advance. A specific process for identifying the operation target and the operation content by classifying the operation target and the operation content, and a detection process for detecting an ambiguous word that cannot be classified by the specific process from the recognition result of the voice. A candidate extraction process for extracting an operation target that may be identified by an ambiguous word detected in the detection process as an operation target candidate, and the operation content can be identified in the identification process. If the computer cannot perform the specific processing by replacing the ambiguous word detected by the detection processing with the candidate extracted by the extraction processing, Speech recognition program for causing a is provided.
この場合、本発明の音声認識装置に関して説明した効果を奏し得る処理をコンピュータに実行させることができる。 In this case, it is possible to cause the computer to execute processing that can achieve the effects described in regard to the speech recognition apparatus of the present invention.
図1に示すように、本発明の音声認識装置は音声対話ユニット1から成り、車両10に搭載されている。この音声対話ユニット1には、車両10の運転者から発話が入力されるマイク2が接続されると共に、車両10の状態を検出する車両状態検出部3が接続されている。また、音声対話ユニット1には、運転者への応答を出力するスピーカ4と、運転者への表示を行うディスプレイ5とが接続されている。さらに、音声対話ユニット1には、運転者が音声等で操作可能な複数の機器6a〜6cが接続されている。
As shown in FIG. 1, the speech recognition apparatus of the present invention comprises a
マイク2は、車両10の運転者の音声が入力されるものであり、車内の所定位置に設置されている。マイク2は、例えば、トークスイッチにより音声の入力開始が指令されると、入力される音声を運転者の発話として取得する。トークスイッチは、車両10の運転者により操作されるON・OFFスイッチであり、押下してON操作されることによって音声の入力開始が指令される。
The
車両状態検出部3は、車両10の状態を検出するセンサ等である。車両10の状態とは、例えば、車両10の速度や加減速等の走行状態、車両10の位置や走行道路等の走行環境情報、車両10に装備された機器(ワイパー、ウィンカー、ナビゲーションシステム6a、オーディオ6b等)の動作状態、或いは車両10の車内温度等の車内の状態をいう。具体的には、例えば、車両10の走行状態を検出するセンサとして、車両10の走行速度(車速)を検出する車速センサ、車両10のヨーレートを検出するヨーレートセンサ、車両10のブレーキ操作(ブレーキペダルが操作されているか否か)を検出するブレーキセンサ等が挙げられる。さらに、車両10の状態として、車両10の運転者の状態(運転者の手掌部の発汗、運転負荷等)を検出してもよい。
The vehicle
スピーカ4は、車両10の運転者への応答(音声ガイド)を出力するものである。なお、このスピーカ4としては、後述のオーディオ6aが有するスピーカを用いることができる。
The
ディスプレイ5は、例えば、車両10のフロントウィンドウに画像等の情報を表示するHUD(ヘッドアップディスプレイ)、車両10の車速などの走行状態を表示するメータに一体的に設けられたディスプレイ、或いは後述のナビゲーションシステム6bに備えられたディスプレイ等である。なお、ナビゲーションシステム6bのディスプレイは、タッチスイッチが組み込まれたタッチパネル24となっている。
The display 5 is, for example, a HUD (head-up display) that displays information such as an image on the front window of the
機器6a〜6cは、具体的には、車両10に装備されたオーディオ6a、ナビゲーションシステム6b、エアコンディショナ6cである。各機器6a〜6cには、制御可能な構成要素(デバイス,コンテンツ等)、機能、動作等が予め定められている。
The devices 6a to 6c are specifically an audio 6a, a navigation system 6b, and an air conditioner 6c installed in the
例えば、オーディオ6aには、デバイスとして「CD」「MP3」「ラジオ」「スピーカ」等がある。また、オーディオ6aの機能として「音量」等がある。また、オーディオ6aの動作として「変更」「オン」「オフ」等がある。さらに、「CD」「MP3」の動作として、「再生」「停止」等がある。また、「ラジオ」の機能として「選局」等がある。また、「音量」の動作として「上げる」「下げる」等がある。 For example, the audio 6a includes “CD”, “MP3”, “radio”, “speaker”, and the like as devices. Further, there is a “volume” as a function of the audio 6a. The operation of the audio 6a includes “change”, “on”, “off”, and the like. Furthermore, “CD” and “MP3” operations include “play” and “stop”. “Radio” functions include “channel selection”. In addition, the “volume” operation includes “up”, “down”, and the like.
また、例えば、ナビゲーションシステム6bには、コンテンツとして「画面表示」「経路誘導」「POI検索」等がある。さらに、「画面表示」の動作として「変更」「拡大」「縮小」等がある。なお、「経路誘導」は音声ガイド等により目的地へ誘導する機能であり、「POI検索」は、例えばレストラン、ホテル等の目的地を検索する機能である。 Further, for example, the navigation system 6b includes “screen display”, “route guidance”, “POI search”, and the like as contents. Further, the “screen display” operation includes “change”, “enlarge”, “reduce”, and the like. “Route guidance” is a function of guiding to a destination by voice guidance or the like, and “POI search” is a function of searching for a destination such as a restaurant or a hotel.
また、例えば、エアコンディショナ6cには、その機能として「風量」「設定温度」等がある。また、エアコンディショナ6cの動作として「オン」「オフ」等がある。さらに、「風量」「設定温度」の動作として「変更」「上げる」「下げる」等がある。 Further, for example, the air conditioner 6c has “air volume”, “set temperature”, and the like as its functions. The operation of the air conditioner 6c includes “on” and “off”. Further, “change”, “increase”, “decrease” and the like are included in the operations of “air volume” and “set temperature”.
これらの機器6a〜6cは、対象を制御するための情報(機器や機能の種別、動作の内容等)を指定することにより制御される。操作対象となる各機器6a〜6cのデバイス、コンテンツ、機能は複数のドメインに分類されている。「ドメイン」とは認識対象のカテゴリに応じた分類を意味し、具体的には、操作対象である機器や機能を表す。ドメインは、例えば「オーディオ」のドメインが、その下位で「CD」「ラジオ」のドメインに分類されるといったように、階層的に指定することができる。 These devices 6a to 6c are controlled by designating information (device and function types, operation contents, etc.) for controlling the target. The devices, contents, and functions of the devices 6a to 6c to be operated are classified into a plurality of domains. “Domain” means classification according to the category of the recognition target, and specifically represents the device or function that is the operation target. The domain can be specified hierarchically, for example, such that the “audio” domain is classified into the “CD” and “radio” domains below it.
音声対話ユニット1は、詳細の図示は省略するが、A/D変換回路、マイクロコンピュータ(CPU、RAM、ROM)等を含む電子回路により構成され、マイク2の出力(アナログ信号)がA/D変換回路を介してデジタル信号に変換されて入力される。そして、音声対話ユニット1は、入力されたデータに基づいて、運転者から入力された発話を認識する処理や、その認識結果に基づいて、スピーカ4やディスプレイ5を介して運転者との対話や運転者への情報提示を行う処理や、機器6a〜6cを制御する処理等を実行する。これらの処理は、音声対話ユニット1のメモリに予め実装されたプログラムを音声対話ユニット1により実行することにより実現される。このプログラムは、本発明の音声認識プログラムを含んでいる。なお、当該プログラムはCD−ROM等の記録媒体を介してメモリに格納されてもよく、外部のサーバからネットワークや人工衛星を介して配信または放送され、車両10に搭載された通信機器により受信された上でメモリに格納されてもよい。
Although not shown in detail, the
より詳しくは、音声対話ユニット1は、上記プログラムにより実現される機能として、入力された音声を音響モデル15と言語モデル16とを用いて認識してテキストとして出力する音声認識部11と、認識されたテキストから構文モデル17を用いて発話の意味を理解する構文解析部12とを備えている。また、音声対話ユニット1は、発話の認識結果から特定される操作候補に基づいてシナリオデータベース18を用いてシナリオを決定し、運転者への応答や機器の制御等を行うシナリオ制御部13と、運転者に出力する音声による応答を音素モデル21を用いて合成する音声合成部14とを備えている。なお、「操作候補」は、発話の認識結果に基づいて特定される操作対象や操作内容の候補に相当する。
More specifically, the
さらに詳細には、構文解析部12は、その機能として、認識されたテキストから操作対象及び操作内容を特定する特定処理(後述の「構文解析処理」)を行う操作特定手段31と、操作特定手段31により分類し得ない曖昧語を検出する曖昧語検出手段32と、曖昧語検出手段32で検出された曖昧語により特定される可能性のある操作対象を、変換候補データベース34を用いて操作対象候補として抽出する候補抽出手段33とを備えている。
More specifically, the
さらに、操作特定手段31は、タッチパネル24を介して、特定処理により特定された操作候補群に含まれる複数の操作候補を、運転者に選択を促すように表示すると共に、スピーカ4を介して、運転者に選択を促すような音声ガイドを出力する。そして、操作特定手段31は、運転者からのタッチパネル24へのタッチ操作に基づいて、最終的な操作候補を特定する。なお、シナリオ制御部13、音声合成部14が、本発明の報知手段を構成する。また、シナリオ制御部13が、本発明の選択手段を構成する。
Further, the operation specifying unit 31 displays a plurality of operation candidates included in the operation candidate group specified by the specifying process via the
なお、音響モデル15、言語モデル16、構文モデル17、シナリオデータベース18、音素モデル19は、変換候補データベース34は、それぞれ、データが記録されているCD−ROM、DVD、HDD等の記録媒体(データベース)である。
Note that the
また、図1で破線で示した操作履歴格納部35は、後述の第3実施形態のみに備えられる構成であるので、ここでは説明を省略する。
Further, since the operation
音声認識部11は、マイク2に入力された発話の音声を示す波形データを周波数分析して特徴ベクトルを抽出する。そして、音声認識部11は、抽出された特徴ベクトルに基づいて、入力された音声を認識して、単語列で表現されたテキストとして出力する「音声認識処理」を実行する。この音声認識処理は、次に説明するような確率統計的な手法を用いて、入力音声の音響的な特徴と言語的な特徴とを総合的に判断することにより実行される。
The
すなわち、音声認識部11は、まず、音響モデル15を用いて、抽出された特徴ベクトルに応じた発音データの尤度(以下、この尤度を適宜「音響スコア」という。)を評価し、当該音響スコアに基づいて発音データを決定する。また、音声認識部11は、言語モデル16を用いて、決定された発音データに応じた単語列で表現されたテキストの尤度(以下、この尤度を適宜「言語スコア」という。)を評価し、当該言語スコアに基づいてテキストを決定する。さらに、音声認識部11は、決定された全てのテキストについて、当該テキストの音響スコアと言語スコアとに基づいて音声認識の確信度(以下、この確信度を適宜「音声認識スコア」という。)を算出する。そして、音声認識部11は、この音声認識スコアが所定の条件を満たす単語列で表現されたテキストを、認識されたテキスト(Recognized Text)として出力する。
That is, the
構文解析部12は、音声認識部11で認識されたテキストから、構文モデル17を用いて、入力された発話の意味を理解する「構文解析処理」を実行する。この構文解析処理は、次に説明するような確率統計的な手法を用いて、音声認識部11で認識されたテキストにおける単語間の関係(構文)を解析することにより実行される。
The
すなわち、構文解析部12は、認識されたテキストの尤度(以下、この尤度を適宜「構文解析スコア」という。)を評価し、当該構文解析スコアに基づいて、当該認識されたテキストの意味に対応するクラスに分類されたテキストを決定する。そして、構文解析部12は、構文解析スコアが所定の条件を満たすクラス分類されたテキスト(Categorized Text)を、入力された発話の認識結果に基づいて特定される操作候補群として、構文解析スコアと共に出力する。「クラス」とは、上述したドメインのような、操作対象や操作内容を表すカテゴリに応じた分類に相当する。例えば、認識されたテキストが「設定変更」「設定変更する」「設定を変える」「セッティング変更」である場合には、いずれも、クラス分類されたテキストは{Setup}となる。
That is, the parsing
このとき、構文解析部12は、音声認識部11で認識されたテキストから構文解析処理により操作内容は特定できるが操作対象を特定できない場合、当該認識されたテキストに含まれる曖昧語を検出し、当該曖昧語を変換候補データベース34を用いて操作対象候補に置換して、当該置換後のテキストに対して再度構文解析処理を行う。
At this time, the
また、シナリオ制御部13は、特定された操作候補と、車両状態検出部3から取得される車両10の状態とに基づいて、シナリオデータベース18に記録されたデータを用いて、運転者に対する応答出力や機器制御のシナリオを決定する。シナリオデータベース18には、応答出力や機器制御のための複数のシナリオが、操作候補や車両状態の条件と共に予め記録されている。そして、シナリオ制御部13は、決定されたシナリオに従って、音声や画像表示による応答を制御する処理や、機器を制御する処理を実行する。具体的には、シナリオ制御部13は、例えば、音声による応答では、出力する応答の内容(運転者の次の発話を促すための応答文や、操作の完了等を使用者に報知するための応答文)や、応答を出力する際の速度や音量を決定する。
In addition, the
音声合成部14は、シナリオ制御部13で決定された応答文に応じて、音素モデル19を用いて音声を合成して、音声を示す波形データとして出力する。音声は、例えばTTS(Text to Speech)等の処理を用いて合成される。具体的には、音声合成部14は、シナリオ制御部13で決定された応答文のテキストを音声出力に適した表現に正規化し、この正規化したテキストの各単語を発音データに変換する。そして、音声合成部14は、音素モデル19を用いて発音データから特徴ベクトルを決定し、この特徴ベクトルにフィルタ処理を施して波形データに変換する。この波形データは、スピーカ4から音声として出力される。
The
音響モデル(Acoustic Model)15には、特徴ベクトルと発音データとの確率的な対応を示すデータが記録されている。詳細には、音響モデル15には、認識単位(音素、形態素、単語等)毎に用意された複数のHMM(Hidden Markov Model、隠れマルコフモデル)がデータとして記録されている。HMMは、音声を定常信号源(状態)の連結で表し、時系列をある状態から次の状態への遷移確率で表現する統計的信号源モデルである。HMMにより、時系列で変動する音声の音響的な特徴を簡易な確率モデルで表現することができる。HMMの遷移確率等のパラメータは、対応する学習用の音声データを与えて学習させることにより予め決定される。また、音素モデル19にも、発音データから特徴ベクトルを決定するための、音響モデル15と同様のHMMが記録されている。
In the
言語モデル(Language Model)16には、認識対象である単語の出現確率や接続確率を示すデータが、この単語の発音データ及びテキストと共に記録されている。認識対象である単語とは、対象を制御するための発話で使用される可能性のある単語として予め定められるものである。単語の出現確率や接続確率等のデータは、大量の学習テキストコーパスを解析することにより統計的に作成される。また、単語の出現確率は、例えば、学習テキストコーパスにおけるその単語の出現頻度等に基づいて算出される。
In the
この言語モデル16には、例えば、特定のN個の単語が連続して出現する確率により表現されるNグラム(N-gram)の言語モデルが用いられる。本実施形態では、言語モデル16には、入力された発話に含まれる単語数に応じたNグラムが用いられる。具体的には、言語モデル16では、Nの値が発音データに含まれる単語数以下のNグラムが用いられる。例えば発音データに含まれる単語数が2である場合、1単語の出現確率で表現されるユニグラム(Uni-gram,N=1)、及び2つの単語の列の生起確率(先行する1単語についての条件付き出現確率)で表現されるバイグラム(Bi-gram,N=2)が用いられる。
As the
さらに、言語モデル16では、Nの値を所定の上限値に制限してNグラムを用いることもできる。所定の上限値としては、例えば、予め定められた所定値(例えばN=2)や、入力された発話に対する音声認識処理の処理時間が所定時間以内になるように逐次設定される値等を用いることができる。例えばN=2を上限値としてNグラムを用いる場合、発音データに含まれる単語数が2より大きいときにも、ユニグラム及びバイグラムのみが用いられる。これにより、音声認識処理の演算コストが過大になることを防止して、運転者の発話に対して適切な応答時間で応答を出力することができる。
Furthermore, in the
構文モデル(Parser Model)17には、認識対象である単語の出現確率や接続確率を示すデータが、この単語のテキスト及びクラスと共に記録されている。この構文モデル17には、例えば、言語モデル16と同様にNグラムの言語モデルが用いられる。本実施形態では、具体的には、構文モデル17で、N=3を上限値として、Nの値が認識されたテキストに含まれる単語数以下のNグラムが用いられる。すなわち、構文モデル17では、ユニグラム、バイグラム、及び3つの単語の列の生起確率(先行する2単語についての条件付き出現確率)で表現されるトライグラム(Tri-gram,N=3)が用いられる。なお、上限値は3以外でもよく、任意に設定可能である。また、上限値に制限せずに、Nの値が認識されたテキストに含まれる単語数以下のNグラムを用いるものとしてもよい。
In the syntax model (Parser Model) 17, data indicating the appearance probability and connection probability of a word to be recognized is recorded together with the text and class of the word. For example, an N-gram language model is used for the
図2に示すように、言語モデル16と構文モデル17とは、それぞれ、ドメインの種類毎に分類されて作成されている。図2の例では、ドメインの種類は、{Audio,Climate,Passenger Climate,POI,Ambiguous,Navigation,Clock,Help}の8種類である。{Audio}は操作対象がオーディオ6aであることを示している。{Climate}は操作対象がエアコンディショナ6cであることを示している。{Passenger Climate}は操作対象が助手席のエアコンディショナ6cであることを示している。{POI}は操作対象がナビゲーションシステム6bのPOI検索機能であることを示している。{Navigation}は操作対象がナビゲーションシステム6bの経路誘導や地図操作等の機能であることを示している。{Clock}は操作対象が時計機能であることを示している。{Help}は操作対象が機器6a〜6cや音声認識装置の操作方法を知るためのヘルプ機能であることを示している。また、{Ambiguous}は、操作対象が不明であることを示している。
As shown in FIG. 2, the
また、変換候補データベース34には、曖昧語とクラス分類されたテキストとに応じた1又は複数の操作対象候補が、データとして予め記録されている。ここで、曖昧語は、「これ」「それ」「あれ」といった一般的な指示語である。例えば、図3に示すように、曖昧語が「それ」であり、クラス分類されたテキストが{Ambiguous_Setting_Up}である場合には、操作対象候補は「曲」「局」「ディスク」「ボリューム」「温度」「ファン」「スクロール」「スケール」の7つとなる。また、例えば、曖昧語が「それ」であり、クラス分類されたテキストが{Ambiguous_Setting_Max}である場合には、変換候補は「ボリューム」「温度」「ファン」「縮尺」の4つとなる。なお、「ボリューム」は操作対象がオーディオ6aの音量であることを示す。また、「ファン」は操作対象がエアコンディショナ6cのファンのスピード(風量)であることを示す。
In addition, in the
次に、本実施形態の音声認識装置の作動(音声対話処理)について説明する。図4に示すように、まず、STEP1で、車両10の運転者から、対象を制御するための発話がマイク2に入力される。具体的には、運転者がトークスイッチをON操作して発話の入力開始を指令し、マイク2に音声を入力する。
Next, the operation (voice dialogue processing) of the voice recognition device of this embodiment will be described. As shown in FIG. 4, first, in
次に、STEP2で、音声対話ユニット1は、入力された音声を認識してテキストとして出力する音声認識処理を実行する。
Next, in
まず、音声対話ユニット1は、マイク2に入力された音声をA/D変換して音声を示す波形データを取得する。次に、音声対話ユニット1は、音声を示す波形データを周波数分析して特徴ベクトルを抽出する。これにより、音声を示す波形データは、例えば短時間スペクトル分析の手法によってフィルタ処理を施され、特徴ベクトルの時系列に変換される。この特徴ベクトルは、各時刻における音声スペクトルの特微量を抽出したもので、一般に10次元〜100次元(例えば39次元)であり、LPCメルケプストラム(Linear Predictive Coding(線形予測分析) Mel Cepstrum)係数等が用いられる。
First, the
次に、音声対話ユニット1は、抽出された特徴ベクトルに対し、音響モデル15に記録された複数のHMMのそれぞれについて、当該特徴ベクトルの尤度(音響スコア)を評価する。そして、音声対話ユニット1は、当該複数のHMMのうちの音響スコアの高いHMMに対応する発音データを決定する。これにより、例えば「千歳」という発話が入力された場合、その音声の波形データから、「ti-to-se」という発音データがその音響スコアと共に得られる。このとき、例えば「マークセット」という発話が入力された場合、「ma-a-ku-se-t-to」という発音データと共に、「ma-a-ku-ri-su-to」のような音響的に類似の度合が高い発音データがそれぞれ音響スコアと共に得られる。
Next, the
次に、音声対話ユニット1は、決定された発音データから、言語モデル16全体のデータを用いて、単語列で表現されたテキストを当該テキストの言語スコアに基づいて決定する。このとき、複数の発音データが決定されている場合には、各発音データについて、それぞれテキストが決定される。
Next, the spoken
具体的には、まず、音声対話ユニット1は、決定された発音データと言語モデル16に記録された発音データとを比較して、類似の度合の高い単語を抽出する。次に、音声対話ユニット1は、抽出された単語の言語スコアを、発音データに含まれる単語数に応じたNグラムを用いて算出する。そして、音声対話ユニット1は、発音データにおける各単語について、算出した言語スコアが所定の条件(例えば所定値以上)を満たすテキストを決定する。例えば、図5に示すように、入力された発話が「Set the station ninety nine point three FM.」である場合に、この発話から決定された発音データに応じたテキストとして、「set the station ninety nine point three FM」が決定される。
Specifically, first, the
このとき、ユ二グラムでは、「set」「the」…「FM」のそれぞれの出現確率a1〜a8が与えられる。また、バイグラムでは、「set the」「the station」…「three FM」のそれぞれの2単語の生起確率b1〜b7が与えられる。同様に、N=3〜8について、N単語の生起確率c1〜c6,d1〜d5,e1〜e4,f1〜f3,g1〜g2,h1が与えられる。そして、例えばテキスト「ninety」の言語スコアは、発音データに含まれる単語「ninety」と当該単語に先行する単語とを合わせた単語数4に応じて、N=1〜4のNグラムから得られるa4,b3,c2,d1に基づいて算出される。
At this time, in the unigram, the appearance probabilities a1 to a8 of “set”, “the”... “FM” are given. In the bigram, occurrence probabilities b1 to b7 of two words “set the”, “the station”,..., “Three FM” are given. Similarly, for N = 3 to 8, N word occurrence probabilities c1 to c6, d1 to d5, e1 to e4, f1 to f3, g1 to g2, and h1 are given. For example, the language score of the text “ninety” is obtained from N grams of N = 1 to 4 according to the number of
このように、入力された発話を、単語毎の確率統計的な言語モデルを用いてテキストとして書き起こす手法(ディクテーション)を用いることで、予め決められた言い回しの発話に限定されない、運転者の自然な発話の認識が可能となる。 In this way, by using a technique (dictation) that transcribes input utterances as text using a probabilistic language model for each word, the driver's natural utterances are not limited to utterances of predetermined phrases. Utterances can be recognized.
次に、音声対話ユニット1は、決定された全てのテキストについて、音響スコアと言語スコアとの重み付き和を、音声認識の確信度(音声認識スコア)として算出する。なお、重み係数としては、例えば実験的に予め定められた値が用いられる。
Next, the
次に、音声対話ユニット1は、算出した音声認識スコアが所定の条件を満たす単語列で表現されるテキストを、認識されたテキストとして決定して出力する。所定の条件は、例えば、音声認識スコアが最も高いテキスト、音声認識スコアが上位から所定順位までのテキスト、或いは音声認識スコアが所定値以上のテキスト等のように予め定められている。
Next, the
次に、STEP3で、音声対話ユニット1は、認識されたテキストから発話の意味を理解する構文解析処理を実行する。具体的には、音声対話ユニット1は、構文モデル17を用いて、認識されたテキストから、クラス分類されたテキストを決定する。
Next, in
まず、音声対話ユニット1は、構文モデル17全体のデータを用いて、認識されたテキストに含まれる単語について、それぞれ、1単語における各ドメインの尤度を算出する。次に、音声対話ユニット1は、当該尤度に基づいて1単語におけるドメインをそれぞれ決定する。次に、音声対話ユニット1は、構文モデル17のうち決定された種類のドメインに分類された部分のデータを用いて、1単語における各クラスの組(クラス分類されたテキスト)の尤度(単語スコア)を算出する。そして、音声対話ユニット1は、当該単語スコアに基づいて、1単語におけるクラス分類されたテキストを決定する。
First, the
同様に、音声対話ユニット1は、認識されたテキストに含まれる2単語列について、それぞれ、2単語における各ドメインの尤度を算出し、当該尤度に基づいて2単語におけるドメインを決定する。さらに、音声対話ユニット1は、2単語における各クラスの組の尤度(2単語スコア)を算出し、当該2単語スコアに基づいて2単語におけるクラスの組(クラス分類されたテキスト)を決定する。また、同様に、音声対話ユニット1は、認識されたテキストに含まれる3単語列について、それぞれ、3単語における各ドメインの尤度を算出し、当該尤度に基づいて3単語におけるドメインを決定する。さらに、音声対話ユニット1は、3単語における各クラスの組の尤度(3単語スコア)を算出し、当該3単語スコアに基づいて3単語におけるクラスの組(クラス分類されたテキスト)を決定する。
Similarly, the
次に、音声対話ユニット1は、1単語、2単語、3単語で決定された各クラスの組と当該クラスの組のスコア(1単語スコア、2単語スコア、3単語スコア)とに基づいて、認識されたテキスト全体における各クラスの組の尤度(構文解析スコア)を算出する。そして、音声対話ユニット1は、当該構文解析スコアに基づいて、認識されたテキスト全体におけるクラスの組(クラス分類されたテキスト)を決定する。
Next, the
ここで、図6に示す例を用いて、構文モデル17を用いてクラス分類されたテキストを決定する処理について説明する。図6の例では、認識されたテキストが「AC on floor to defrost」である。
Here, the process for determining the text classified by using the
このとき、構文モデル17全体を用いて、ユニグラムで、「AC」「on」…「defrost」について、それぞれ、1単語における各ドメインの尤度が算出される。そして、当該尤度に基づいて1単語におけるドメインが決定される。例えば、第1位の(尤度の最も高い)ドメインは、「AC」については{Climate}、「on」については{Ambiguous}、「defrost」については{Climate}と決定される。
At this time, the likelihood of each domain in one word is calculated for each of “AC”, “on”... “Defrost” as a unigram using the
さらに、構文モデル17のうちの決定されたドメインの種類に分類された部分のデータを用いて、ユニグラムで、「AC」「on」…「defrost」について、1単語における各クラスの組に対する尤度がそれぞれ算出される。そして、当該尤度に基づいて1単語におけるクラスの組が決定される。例えば、「AC」について、第1位の(尤度の最も高い)クラスの組は、{Climate_ACOnOff_On}と決定され、このクラスの組に対する尤度(単語スコア)i1が得られる。同様に、「on」…「defrost」について、クラスの組が決定され、このクラスの組に対する尤度(単語スコア)i2〜i5が得られる。
Further, using the data of the portion of the
同様に、バイグラムで、「AC on」「on floor」…「to defrost」について、それぞれ、2単語における各ドメインの尤度が算出され、当該尤度に基づいて2単語におけるドメインが決定される。そして、2単語におけるクラスの組とその尤度(2単語スコア)j1〜j4が決定される。また、同様に、トライグラムで、「AC on floor」「on floor to」「floor to defrost」について、それぞれ、3単語における各ドメインの尤度が算出され、当該尤度に基づいて3単語におけるドメインが決定される。そして、3単語におけるクラスの組とその尤度(3単語スコア)k1〜k3が決定される。 Similarly, for each of “AC on”, “on floor”... “To defrost” in the bigram, the likelihood of each domain in two words is calculated, and the domain in two words is determined based on the likelihood. Then, a class set in two words and its likelihood (two-word score) j1 to j4 are determined. Similarly, in the trigram, for each of “AC on floor”, “on floor to”, and “floor to defrost”, the likelihood of each domain in three words is calculated, and the domain in three words is calculated based on the likelihood. Is determined. Then, a class set in three words and its likelihood (three word score) k1 to k3 are determined.
次に、1単語、2単語、3単語で決定された各クラスの組について、例えば、各クラスの組の単語スコアi1〜i5、2単語スコアj1〜j4、3単語スコアk1〜k3の和が、テキスト全体における各クラスの組に対する尤度(構文解析スコア)として算出される。例えば、{Climate_Fan-Vent_Floor}に対する構文解析スコアは、i3+j2+j3+k1+k2となる。また、例えば、{Climate_ACOnOff_On}に対する構文解析スコアは、i1+j1となる。また、例えば、{Climate_Defrost_Front}に対する構文解析スコアは、i5+j4となる。そして、算出された構文解析スコアに基づいて、テキスト全体についてのクラスの組(クラス分類されたテキスト)が決定される。これにより、認識されたテキストから、{Climate_Defrost_Front}{Climate_Fan-Vent_Floor}{Climate_ACOnOff_On}といったクラス分類されたテキストが決定される。 Next, for each class set determined by one word, two words, and three words, for example, the sum of the word scores i1 to i5, the two word scores j1 to j4, and the three word scores k1 to k3 of each class set is The likelihood (syntactic analysis score) for each set of classes in the entire text is calculated. For example, the parsing score for {Climate_Fan-Vent_Floor} is i3 + j2 + j3 + k1 + k2. For example, the parsing score for {Climate_ACOnOff_On} is i1 + j1. For example, the parsing score for {Climate_Defrost_Front} is i5 + j4. Then, based on the calculated parsing score, a class set (classified text) for the entire text is determined. As a result, text classified into {Climate_Defrost_Front} {Climate_Fan-Vent_Floor} {Climate_ACOnOff_On} is determined from the recognized text.
次に、音声対話ユニット1は、算出された構文解析スコアが所定の条件を満たすようなクラス分類されたテキスト(Categorized Text)を、入力された発話の認識結果に基づいて特定される操作候補として、その操作候補の確信度(構文解析スコア)と共に出力する。所定の条件は、例えば、構文解析スコアが最も高いテキスト、構文解析スコアが上位から所定順位までのテキスト、或いは構文解析スコアが所定値以上のテキスト等のように予め定められている。例えば、上述のように「AC on floor to defrost」という発話が入力された場合に、操作候補として、{Climate_Defrost_Front}が、その構文解析スコアと共に出力される。
Next, the
次に、STEP4で、音声対話ユニット1は、操作候補から操作内容が特定されないか否かを判断する。具体的には、音声対話ユニット1は、STEP3の構文解析処理の結果として得られたクラス分類されたテキストに、先頭部分のドメインの種類以外のクラスが含まれているか否かを判断する。STEP4の判断結果がYESの場合(操作内容が特定されない場合)には、STEP10に進み、STEP3の構文解析処理の結果がそのまま操作候補群として出力される。
Next, in
STEP4の判断結果がNO(操作内容が特定されている)の場合には、STEP5に進み、音声対話ユニット1は、操作候補から操作対象が特定されないか否かを判断する。具体的には、音声対話ユニット1は、STEP3の構文解析処理の結果として得られたクラス分類されたテキストのドメインの種類が{Ambiguous}であるか否かを判断する。STEP5の判断結果がNOの場合(ドメインの種類が{Ambiguous}でない、すなわち操作対象が特定されている)には、STEP10に進み、STEP3の構文解析処理の結果がそのまま操作候補群として出力される。
If the determination result in
STEP5の判断結果がYESの場合(ドメインの種類が{Ambiguous}である、すなわち操作対象が特定されない)には、STEP6に進み、音声対話ユニット1は、STEP2で認識されたテキストに曖昧語が含まれているか否かを判断する。具体的には、「これ」「それ」「あれ」といった一般的な指示語が含まれているか否かが判断される。STEP6の判断結果がNOの場合(曖昧語が含まれていない)には、STEP10に進み、STEP3の構文解析処理の結果がそのまま操作候補群として出力される。これらのSTEP3〜5の判断処理により、認識されたテキストに含まれる曖昧語が検出される。
If the determination result in STEP 5 is YES (the domain type is {Ambiguous}, that is, the operation target is not specified), the process proceeds to STEP 6 and the
STEP6の判断結果がYESの場合(曖昧語が含まれている)には、STEP7に進み、音声対話ユニット1は、認識されたテキストに含まれる曖昧語を、操作対象候補を示す直接語に置換する処理を実行する。まず、音声対話ユニット1は、変換候補データベース34から、曖昧語とクラス分類されたテキストとに基づいて、操作対象候補を読み込む。そして、音声対話ユニット1は、認識されたテキストのうちの曖昧語の部分を、読み込まれた操作対象候補に置換する。
If the determination result in STEP 6 is YES (an ambiguous word is included), the process proceeds to STEP 7 and the
次に、STEP8で、音声対話ユニット1は、置換後の各テキストについて、それぞれ、STEP3と同様に、構文解析処理を実行する。これにより、置換後の各テキストについて、クラス分類されたテキストが、当該クラス分類されたテキストの構文解析スコアと共に決定される。この構文解析スコアは、置換後のテキストの妥当性を示す。
Next, in STEP 8, the
次に、STEP9で、音声対話ユニット1は、STEP8で得られたクラス分類されたテキストのうち、構文解析スコアが所定の条件を満たすようなクラス分類されたテキスト(Categorized Text)を、入力された発話の認識結果に基づいて特定される操作候補として、その操作候補の確信度(構文解析スコア)と共に出力する。所定の条件は、例えば、構文解析スコアが最も高いテキスト、構文解析スコアが上位から所定順位までのテキスト、或いは構文解析スコアが所定値以上のテキスト等のように予め定められている。これにより、操作候補群に使用者の発話に該当する操作候補を高い確率で含めることができる。
Next, in STEP 9, the
ここで、図7に示す例を用いて、STEP4〜9の処理について説明する。図7の例は、図7(a)に示すように、「それ強くして」という発話がSTEP1で運転者から入力された場合である。この場合、図7(b)に示すように、STEP2の音声認識処理により認識されたテキストは「それ 強くして」となり、図7(c)に示すように、STEP3の構文解析処理の結果として、クラス分類されたテキスト{Ambiguous_Setting_Up}が得られる。
Here, the processing of
このとき、{Ambiguous_Setting_Up}には、先頭部分のドメインの種類以外のクラス{Setting_Up}が含まれており、制御内容は特定されているので、STEP4の判断結果はNOとなり、STEP5に進む。次に、{Ambiguous_Setting_Up}のドメインの種類は{Ambiguous}で、操作対象が特定されないので、STEP5の判断結果はYESとなり、STEP6に進む。そして、テキスト「それ 強くして」には「それ」という曖昧語が含まれているので、STEP6の判断結果はNOとなる。これにより、認識されたテキストに含まれる「それ」という単語が曖昧語として検出される。
At this time, since {Ambiguous_Setting_Up} includes a class {Setting_Up} other than the type of the domain at the head portion and the control content is specified, the determination result in
次に、STEP7で、図3に示すような変換候補データベース34から、曖昧語「それ」とクラス分類されたテキスト{Ambiguous_Setting_Up}に基づいて、変換候補として「曲」「局」「ディスク」「ボリューム」「温度」「ファン」「スクロール」「スケール」が読み込まれる。そして、テキスト「それ 強くして」に含まれる曖昧語がこれらの変換候補で置換される。この置換処理の結果として、図7(d)に示すように、置換後テキストA1〜A7として、「曲 強くして」「ボリューム 強くして」「ファン 強くして」「スケール 強くして」等が得られる。
Next, in STEP 7, based on the text {Ambiguous_Setting_Up} classified as the ambiguous word “it” from the
次に、STEP8で、置換後テキストA1〜A7について、構文解析処理が実行され、図7(d)の表に示すように、クラス分類されたテキストB1〜B7として、{Audio_CD_NextTrack}等が当該テキストB1〜B7の構文解析スコアSc(B1)〜Sc(B7)と共に得られる。
Next, in STEP 8, the
次に、STEP9で、構文解析スコアSc(B1)〜Sc(B7)に基づいて、置換後テキストA1〜A7の妥当性が評価され、操作候補が特定されて出力される。例えば、「曲強くして」「スケール強くして」のようなテキストは、単語のつながりとして不自然であるため、図7(d)に示すように構文解析スコアが低くなる。一方、例えば、「ボリューム強くして」「ファン強くして」のようなテキストは、単語のつながりが比較的妥当であるので、図7(d)に示すように構文解析スコアが高くなる。よって、例えば所定閾値を0.2とすると、構文解析処理の結果のうち、これらの構文解析スコアの低い結果は、操作候補に含まれないこととなる。これにより、操作候補群として、図7(e)に示すように第1操作候補L1{Audio_Volume_Up}及び第2操作候補L2{Climate_Fan_Up}が出力される。
Next, in STEP 9, based on the parsing score Sc (B 1) ~Sc (B 7), the validity of the replaced
図4に戻り、次に、STEP11で、音声対話ユニット1は、車両状態検出部3により検出される、車両10の状態(車両10の走行状態、車両10に搭載された機器の状態、車両10の運転者の状態等)の検出値を取得する。
Returning to FIG. 4, next, in
次に、STEP11で、音声対話ユニット1は、STEP9,10で出力された操作候補群から、最終的な操作候補を特定する処理を実行する。具体的には、音声対話ユニット1は、STEP9,10で得られた1又は複数の操作候補を、運転者に選択を促すようにタッチパネル24に画面表示する。これと共に、音声対話ユニット1は、運転者に操作候補の選択を促す音声ガイドを、音声合成部14で合成してスピーカ4から出力する。
Next, in
例えば、上述の図7の例では、図8に示すように、第1操作候補L1に対応した「ボリュームを上げる」という表示及び第2操作候補L2に対応した「エアコンの風量を上げる」とう表示がタッチパネル24に表示され、且つ、第1,第2操作候補L1,の当否確認を運転者に促す音声がスピーカから出力される。これにより、第1操作候補L1及び第2操作候補L2が同時または逐次的にタッチパネル24に表示される。例えば、図8(a)に示すように、第1操作候補L1である「ボリュームを上げる」及び第2操作候補L2である「エアコンの風量を上げる」が同時にタッチパネル24に表示される。また、図8(b)に示すように、まず第1操作候補L1である「ボリュームを上げる」がタッチパネル24に表示され、タッチパネル24に表示された次ボタンのタッチ操作に応じて図8(c)に示されているように第2操作候補L2である「エアコンの風量を上げる」がタッチパネル24に表示される。
For example, in the example of FIG. 7 described above, as shown in FIG. 8, the display “Increase volume” corresponding to the first operation candidate L 1 and “Increase the air volume of the air conditioner” corresponding to the second operation candidate L 2. A sound display is displayed on the
このとき、STEP4〜9において曖昧語を置換したテキストに対して構文解析処理を行い、発話の意味をより明確に把握して操作候補が特定されているので、タッチパネル24に画面表示される操作候補に運転者の発話に該当する操作候補を高い確率で含ませることができ、運転者は発話の意図に沿った操作候補を選択可能となる。
At this time, the parsing process is performed on the text in which the ambiguous word is replaced in
次に、音声対話ユニット1は、運転者からのタッチパネル24へのタッチ操作に基づいて、最終的な操作候補を特定する。例えば、運転者により、タッチパネル24に表示された複数の操作候補L1,L2のうち1つを選択するタッチ入力がなされる。そして、音声対話ユニット1は、このタッチ入力により選択された操作候補を最終的な操作候補として特定する。これにより、運転者の発話に合致した操作候補が最終的な操作候補として特定される。
Next, the
次に、STEP13で、音声対話ユニット1は、STEP12で特定された操作候補と、STEP11で検出された車両10の状態とに基づいて、シナリオデータベース18を用いて、運転者に対する応答出力や機器制御のためのシナリオを決定する。
Next, in
まず、音声対話ユニット1は、特定された操作候補から、対象を制御するための情報を取得する。図9に示すように、音声対話ユニット1には、対象を制御するための情報を格納する複数のフォームが備えられている。各フォームには、必要な情報のクラスに対応した所定数のスロットが設けられている。例えば、ナビゲーションシステム6bを制御するための情報を格納するフォームとして、「Plot a route」「Traffic info.」等が備えられ、エアコンディショナ6cを制御するための情報を格納するフォームとして「Climate control」等が備えられている。また、フォーム「Plot a route」には、4つのスロット「From」「To」「Request」「via」が設けられている。
First, the
音声対話ユニット1は、運転者との対話における各回の発話の認識結果から特定される操作候補に基づいて、該当するフォームのスロットに値を入力していく。これと共に、各フォームについての確信度(フォームに入力された値の信頼の度合)を算出してフォームに記録する。フォームの確信度は、例えば、各回の発話の認識結果から特定される操作候補の確信度と、各フォームのスロットの埋まり具合とに基づいて算出される。例えば、図10に示すように、「千歳空港まで最短ルートで案内して」という発話が運転者から入力された場合には、フォーム「Plot a route」の3つのスロット「From」「To」「Request」に値「ここ」「千歳空港」「最短」が入力される。また、フォーム「Plot a route」の「Score」に、算出されたフォームの確信度80が記録される。
The
次に、音声対話ユニット1は、フォームの確信度に基づいて、実際の制御処理に用いるフォームを選択する。そして、選択されたフォームに基づいて、シナリオデータベース18に格納されたデータを用いて、シナリオを決定する。図10に示すように、シナリオデータベース18には、例えば運転者へ出力する応答文等が、スロットの埋まり具合やレベル毎に分類されて格納されている。なお、レベルは、例えばフォームの確信度や車両10の状態(車両10の走行状態、運転者の状態等)等に基づいて設定される値である。
Next, the
例えば、選択されたフォーム内に空きスロット(値が入力されていないスロット)がある場合には、運転者へフォーム内の空きスロットの入力を促すような応答文を出力するシナリオが決定される。このとき、レベルに応じて、すなわちフォームの確信度や車両10の状態を考慮して、運転者の次回の発話を促す適切な応答文が決定される。例えば、運転者の運転負荷に応じて、運転負荷が高いと考えられる状態では、入力を促すスロットの数が少なめに設定された応答文がが決定される。そして、このように決定された応答文の出力により使用者の次の発話を促すことで、効率の良い対話が行われる。
For example, when there is an empty slot (a slot in which no value is input) in the selected form, a scenario is determined for outputting a response sentence that prompts the driver to input an empty slot in the form. At this time, an appropriate response sentence that prompts the driver to speak next time is determined according to the level, that is, taking into account the certainty of the form and the state of the
図10に示す例では、フォーム「Plot a route」の第1〜第3のスロット「From」「To」「Request」には値が入力され、第4のスロット「via」には値が入力されていない。また、レベル=2に設定されている。このとき、シナリオデータベース18から応答文「<To>を<Request>設定します」が選択され、「千歳空港を高速優先設定します」という応答文の内容が決定される。
In the example shown in FIG. 10, values are input to the first to third slots “From”, “To”, and “Request” of the form “Plot a route”, and values are input to the fourth slot “via”. Not. Further, level = 2 is set. At this time, the response sentence “<To> <Request> is set” is selected from the
また、例えば、選択されたフォーム内の全てのスロットが全て埋まっている(値が入力されている)場合には、内容を確認するような応答文(例えば各スロットの入力値を運転者に報知する応答文)を出力するシナリオが決定される。 In addition, for example, when all slots in the selected form are all filled (values are input), a response sentence that confirms the contents (for example, the input value of each slot is notified to the driver) Response scenario) is determined.
次に、STEP14で、音声対話ユニット1は、決定したシナリオに基づいて、運転者との対話が終了したか否かを判断する。STEP14の判断結果がNOの場合には、STEP15に進み、音声対話ユニット1は、決定された応答文の内容や応答文を出力する際の条件に応じて音声を合成する。そして、STEP16で、生成された応答文(運転者の次回の発話を促す応答文等)が、スピーカ4から出力される。
Next, in
次に、STEP1に戻り、2回目の発話が運転者から入力される。次に、STEP2〜13で、音声対話ユニット1は、1回目の発話と同様に、2回目の発話に対して処理を実行する。このとき、STEP2で、音声対話ユニット1は、例えば、運転者からの前回の発話の認識結果に基づいてドメインの種類が決定される場合には、言語モデル16のうちの、この決定された種類のドメインに分類された部分のデータのみを用いてテキストを決定する処理を行うようにしてもよい。次に、STEP14で、音声対話ユニット1は、運転者との対話が終了したか否かを判断する。STEP14の判断結果がNOの場合には、1回目の発話と同様に、音声対話ユニット1は、STEP15〜16の処理を実行する。
Next, returning to
以下、STEP14の判断結果がYESとなるまで、上述の2回目の発話に対するSTEP1〜16と同様の処理が繰り返される。
Thereafter, the processing similar to
STEP14の判断結果がYESの場合には、STEP17に進み、音声対話ユニット1は、決定された応答文(機器制御の内容を報知する応答文等)の音声を合成する。次に、STEP18で、応答文がスピーカ4から出力される。次に、STEP19で、音声対話ユニット1は、決定されたシナリオに基づいて機器を制御して、音声対話処理を終了する。
If the determination result in
以上の処理により、発話に含まれる曖昧語の示す内容が適切に推定されて運転者の意図がより明確に把握されるので、効率の良い対話を介して機器の制御が行われる。 With the above processing, the content indicated by the ambiguous word included in the utterance is appropriately estimated and the driver's intention is more clearly grasped, so that the device is controlled through efficient dialogue.
なお、本実施形態では、STEP12の最終的な操作候補を特定する処理において、運転者からのタッチパネル24へのタッチ入力により、操作候補の選択や表示する操作候補の変更が行われるものとしたが、操作候補の選択等を、例えば、運転者による音声入力(いずれかの操作候補を選択する発話や「次」という発話等)により行うことも可能である。さらに、入力インタフェース(キーボード、ボタン、スイッチ、マルチジョグダイヤル等)を備え、操作候補の選択等を、当該入力インタフェースへの入力により行うことも可能である。また、これらの場合、操作候補の表示は、ディスプレイ5のうちタッチパネル24以外で行ってもよい。
[第2実施形態]
次に、本発明の第2実施形態の音声認識装置について説明する。なお、本実施形態は、第1実施形態と、音声対話処理のSTEP12における最終的な操作候補を特定する処理のみが相違する。本実施形態の構成は、第1実施形態と同様であるので、同一の構成には同一の参照符号を付して、以下では説明を省略する。
In the present embodiment, in the process of specifying the final operation candidate in
[Second Embodiment]
Next, the speech recognition apparatus according to the second embodiment of the present invention will be described. Note that the present embodiment is different from the first embodiment only in the process of specifying the final operation candidate in
本実施形態の音声認識装置では、操作特定手段31は、特定された操作候補群から、車両状態検出部3により検出される、車両10に搭載された各機器6a〜6cの状態に基づいて最終的な操作候補を特定する。他の構成は第1実施形態と同じである。なお、車両状態検出部3は、本発明の機器状態検知部に相当する。
In the voice recognition device according to the present embodiment, the operation specifying unit 31 is finally determined based on the states of the devices 6a to 6c mounted on the
本実施形態の音声認識装置の作動(音声対話処理)では、STEP12で、まず、音声対話ユニット1は、車両状態検出部3の検出結果から、複数の機器6a〜6cのうちの、STEP9,10の処理から得られた操作候補群に関連する機器の状態を取得する。そして、当該機器の状態に基づいて、当該操作候補群から、運転者の意図に該当する可能性がより高い操作候補を決定する。
In the operation of the voice recognition device of the present embodiment (voice dialogue processing), in STEP12, first, the
ここで、上述の図7に示すように第1,第2操作候補L1,L2が得られた場合を例にして説明する。このとき、操作候補群に関連する機器は、オーディオ6aとエアコンディショナ6cとなり、オーディオ6aの音量、エアコンディショナ6cの風量が取得される。そして、オーディオ6aの音量が最大値であり、エアコンディショナ6cの風量が3で、風量の最大値が5となっている。この場合、音量を現在の状態よりも上げることはできないので、エアコンディショナ6cの操作であると推定される。よって、最終的な操作候補として{Climate_Fan_Up}が決定される。他の動作は第1実施形態と同じである。 Here, the case where the first and second operation candidates L 1 and L 2 are obtained as shown in FIG. 7 will be described as an example. At this time, the devices related to the operation candidate group are the audio 6a and the air conditioner 6c, and the volume of the audio 6a and the air volume of the air conditioner 6c are acquired. The volume of the audio 6a is the maximum value, the air volume of the air conditioner 6c is 3, and the maximum value of the air volume is 5. In this case, since the volume cannot be increased from the current state, it is estimated that the operation is performed by the air conditioner 6c. Therefore, {Climate_Fan_Up} is determined as the final operation candidate. Other operations are the same as those in the first embodiment.
本実施形態の音声認識装置によれば、第1実施形態と同様に、発話に含まれる曖昧語の示す内容が適切に推定されて運転者の意図がより明確に把握されるので、効率の良い対話を介して機器の制御が行われる。
[第3実施形態]
次に、本発明の第3実施形態の音声認識装置について説明する。なお、本実施形態は、第1実施形態と、音声対話処理のSTEP12における最終的な操作候補を特定する処理のみが相違する。本実施形態の構成は、第1実施形態と同様であるので、同一の構成には同一の参照符号を付して、以下では説明を省略する。
According to the speech recognition apparatus of the present embodiment, as in the first embodiment, the content indicated by the ambiguous word included in the utterance is appropriately estimated and the driver's intention is more clearly grasped, which is efficient. The device is controlled through dialogue.
[Third Embodiment]
Next, a speech recognition apparatus according to a third embodiment of the present invention will be described. Note that the present embodiment is different from the first embodiment only in the process of specifying the final operation candidate in
本実施形態の音声認識装置には、操作対象や操作内容の履歴(操作履歴)を格納する操作履歴格納部(操作履歴記憶手段)35が備えられている。操作履歴格納部35には、データとして、運転者による機器6a〜6cの操作内容が、当該操作の日時と共に格納されている。さらに、これらのデータに基づいて、運転者による機器6a〜6cの使用頻度、使用回数等が把握される。
The voice recognition apparatus according to the present embodiment includes an operation history storage unit (operation history storage unit) 35 that stores a history of operation targets and operation contents (operation history). The operation
そして、操作特定手段31は、特定された操作候補群から、操作履歴格納部35に格納された運転者による機器6a〜6cの操作履歴に基づいて、最終的な操作候補を特定する。具体的には、例えば、運転者が直前に行った操作(1つ前の操作)や、当該操作の直前に行った操作(2つ前にした操作)等に基づいて、操作候補を特定する。他の構成は第1実施形態と同じである。
Then, the operation specifying unit 31 specifies a final operation candidate based on the operation history of the devices 6a to 6c by the driver stored in the operation
本実施形態の音声認識装置の作動(音声対話処理)では、STEP12で、まず、音声対話ユニット1は、操作履歴格納部34から、運転者の操作履歴を読み込む。そして、当該操作履歴に基づいて、STEP9,10から得られた1又は複数の操作候補から、運転者の意図に該当する可能性がより高い操作候補を特定する。
In the operation (voice dialogue processing) of the voice recognition device of the present embodiment, in
ここで、上述の図7に示すように第1,第2操作候補L1,L2が得られた場合を例にして説明する。このとき、操作履歴格納部34から、1つ前の操作が、エアコンディショナ6cの温度設定を下げる操作であり、2つ前の操作が、エアコンディショナ6cをONにする操作であることが読み込まれる。そして、エアコンディショナ6cに対する操作が連続していることから、今回の発話の意図する操作も、エアコンディショナ6cに対する操作の可能性が高いと推定される。よって、最終的な操作候補として{Climate_Fan_Up}が特定される。他の動作は第1実施形態と同じである。
Here, the case where the first and second operation candidates L 1 and L 2 are obtained as shown in FIG. 7 will be described as an example. At this time, from the operation
本実施形態の音声認識装置によれば、第1実施形態と同様に、発話に含まれる曖昧語の示す内容が適切に推定されて運転者の意図がより明確に把握されるので、効率の良い対話を介して機器の制御が行われる。 According to the speech recognition apparatus of the present embodiment, as in the first embodiment, the content indicated by the ambiguous word included in the utterance is appropriately estimated and the driver's intention is more clearly grasped, which is efficient. The device is controlled through dialogue.
なお、音声対話処理のSTEP12における最終的な操作候補を特定する処理について、第1〜第3実施形態における処理のうち2つ、又は3つ全てを組み合わせて用いることも可能である。例えば、STEP9,10から得られる操作候補群から、機器の状態及び操作履歴に基づいて可能性の高い1又は複数の操作候補を決定する。そして、さらに、当該決定された操作候補をタッチパネル24を介して表示し、運転者からのタッチ入力に基づいて最終的な操作候補を特定する。
In addition, about the process which specifies the final operation candidate in STEP12 of a voice interaction process, it is also possible to use combining two or all three of the processes in the first to third embodiments. For example, from the operation candidate group obtained from
また、第1〜第3実施形態において、シナリオ制御部13は、発話の認識結果から特定される操作候補と車両状態検出部3により検出した車両状態とに基づいてシナリオを決定するものとしたが、シナリオ制御部13は、発話の認識結果から特定される操作候補のみから制御処理を決定するものとしてもよい。
In the first to third embodiments, the
また、第1〜第3実施形態においては、音声入力する使用者は、車両10の運転者としたが、運転者以外の乗員としてもよい。
In the first to third embodiments, the user who inputs the voice is the driver of the
また、第1〜第3実施形態においては、音声認識装置は、車両10に搭載されるものとしたが、車両以外の移動体に搭載されるものとしてもよい。さらに、移動体に限らず、使用者が発話により対象を制御するシステムに適用可能である。
In the first to third embodiments, the voice recognition device is mounted on the
1…音声対話ユニット、2…マイク、3…車両状態検出部、4…スピーカ、5…ディスプレイ、6a〜6c…機器、10…車両、11…音声認識部、12…構文解析部、13…シナリオ制御部、14…音声合成部、15…音響モデル、16…言語モデル、17…構文モデル、18…シナリオデータベース、19…音素モデル、24…タッチパネル、31…操作特定手段、32…曖昧語検出手段、33…候補抽出手段、34…変換候補データベース、35…操作履歴格納部。
DESCRIPTION OF
Claims (7)
前記音声についての認識結果を、予め定めた操作対象及び操作内容の種類に分類することにより、操作対象及び操作内容を特定する特定処理を行う操作特定手段と、
前記音声についての認識結果から、前記操作特定手段で分類し得ない曖昧語を検出する曖昧語検出手段と、
前記曖昧語検出手段で検出された曖昧語により特定される可能性のある操作対象を操作対象候補として抽出する候補抽出手段とを備え、
前記操作特定手段は、操作内容の特定は可能で、操作対象の特定ができない場合、前記曖昧語検出手段で検出された曖昧語を前記候補抽出手段で抽出された候補に置換して、当該操作特定手段で前記特定処理を行うことを特徴とする音声認識装置。 In the speech recognition apparatus that determines the operation content of the operation target based on the recognition result of the input speech,
An operation specifying means for performing a specifying process for specifying the operation target and the operation content by classifying the recognition result of the voice into a predetermined type of operation target and operation content;
An ambiguous word detecting means for detecting an ambiguous word that cannot be classified by the operation specifying means from the recognition result of the voice;
Candidate extraction means for extracting an operation target that may be identified by the ambiguous word detected by the ambiguous word detection means as an operation target candidate,
If the operation content can be specified and the operation target cannot be specified, the operation specifying unit replaces the ambiguous word detected by the ambiguous word detecting unit with the candidate extracted by the candidate extracting unit, and A speech recognition apparatus characterized by performing the specifying process by specifying means.
前記候補抽出手段は、前記操作特定手段で特定された操作内容に対して可能性のある操作対象を操作対象候補として抽出することを特徴とする音声認識装置。 The speech recognition apparatus according to claim 1,
The speech recognition apparatus, wherein the candidate extracting unit extracts an operation target that has a possibility of the operation content specified by the operation specifying unit as an operation target candidate.
前記操作特定手段で特定された操作対象及び操作内容がそれぞれ複数あるときに該複数の操作対象及び操作内容を報知する報知手段と、該複数の操作対象及び操作内容のうちそれぞれ1つを選択する選択手段とを備え、
前記操作特定手段は、前記選択手段で選択された操作対象及び操作内容を最終的に特定した操作対象及び操作内容とすることを特徴とする音声認識装置。 The speech recognition apparatus according to claim 1 or 2,
When there are a plurality of operation targets and operation contents specified by the operation specifying means, a notification means for notifying the plurality of operation objects and operation contents and one of each of the plurality of operation objects and operation contents are selected. Selecting means,
The speech recognition apparatus characterized in that the operation specifying means uses the operation target and operation content selected by the selection means as the final operation target and operation content.
操作対象となる機器の状態を検知する機器状態検知手段を備え、
前記操作特定手段で特定された操作対象及び操作内容がそれぞれ複数あるときに、前記操作特定手段は、前記機器状態検知手段による検知結果に基づいて、該複数の操作対象及び操作内容のうちそれぞれ1つを特定することを特徴とする音声認識装置。 The speech recognition apparatus according to claim 1 or 2,
Provided with device status detection means for detecting the status of the device to be operated,
When there are a plurality of operation objects and operation contents specified by the operation specifying means, the operation specifying means is configured to select one of the plurality of operation objects and operation contents based on a detection result by the device state detection means. A voice recognition device characterized by identifying one.
操作対象及び操作内容の履歴を保存する操作履歴記憶手段を備え、
前記操作特定手段で特定された操作対象及び操作内容がそれぞれ複数あるときに、前記操作特定手段は、前記操作履歴記憶手段に保存されている履歴に基づいて、該複数の操作対象及び操作内容のうちそれぞれ1つを特定することを特徴とする音声認識装置。 The speech recognition apparatus according to claim 1 or 2,
An operation history storage means for storing a history of the operation target and operation content is provided,
When there are a plurality of operation targets and operation contents specified by the operation specifying means, the operation specifying means, based on the history stored in the operation history storage means, the plurality of operation targets and operation contents. A speech recognition apparatus characterized by identifying one of each.
前記音声についての認識結果を、予め定めた操作対象及び操作内容の種類に分類することにより、操作対象及び操作内容を特定する特定ステップと、
前記特定ステップで操作内容は特定できたが、操作対象を特定できない場合に、前記音声についての認識結果から、該特定ステップで分類し得ない曖昧語を検出する曖昧語検出ステップと、
前記曖昧語検出ステップで検出された曖昧語により特定される可能性のある操作対象を操作対象候補として抽出する候補抽出ステップと、
前記検出ステップで検出された曖昧語を前記候補抽出ステップで抽出された候補に置換して、当該置換後の認識結果を、予め定めた操作対象及び操作内容の種類に分類することにより、操作対象及び操作内容を特定する第2の特定ステップとを備えることを特徴とする音声認識方法。 A speech recognition method for determining an operation content to be operated based on a recognition result of input speech,
A step of identifying the operation target and the operation content by classifying the recognition results for the voice into predetermined types of operation target and operation content; and
The operation content can be specified in the specifying step, but when the operation target cannot be specified, the ambiguous word detecting step of detecting the ambiguous word that cannot be classified in the specifying step from the recognition result of the voice;
A candidate extraction step of extracting an operation target that may be specified by the ambiguous word detected in the ambiguous word detection step as an operation target candidate;
By replacing the ambiguous word detected in the detection step with the candidate extracted in the candidate extraction step, and classifying the recognition result after the replacement into a predetermined type of operation target and operation content. And a second specifying step for specifying the operation content.
前記音声についての認識結果を、予め定めた操作対象及び操作内容の種類に分類することにより、操作対象及び操作内容を特定する特定処理と、
前記音声についての認識結果から、前記特定処理で分類し得ない曖昧語を検出する検出処理と、
前記検出処理で検出された曖昧語により特定される可能性のある操作対象を操作対象候補として抽出する候補抽出処理とを備え、
前記特定処理で操作内容の特定は可能で、操作対象の特定ができない場合、前記検出処理で検出された曖昧語を前記抽出処理で抽出された候補に置換して前記特定処理を行う機能を前記コンピュータに実行させることを特徴とする音声認識プログラム。 A speech recognition program for causing a computer to execute a process of determining an operation content of an operation target based on a recognition result of input speech,
A specific process for identifying the operation target and the operation content by classifying the recognition result of the voice into a predetermined type of operation target and operation content;
From the recognition result for the voice, a detection process for detecting an ambiguous word that cannot be classified by the specific process;
A candidate extraction process that extracts an operation target that may be identified by an ambiguous word detected in the detection process as an operation target candidate,
The function of performing the specifying process by replacing the ambiguous word detected by the detection process with the candidate extracted by the extraction process when the operation content can be specified by the specifying process and the operation target cannot be specified A speech recognition program which is executed by a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006256907A JP2008076811A (en) | 2006-09-22 | 2006-09-22 | Voice recognition device, voice recognition method and voice recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006256907A JP2008076811A (en) | 2006-09-22 | 2006-09-22 | Voice recognition device, voice recognition method and voice recognition program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008076811A true JP2008076811A (en) | 2008-04-03 |
Family
ID=39348924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006256907A Withdrawn JP2008076811A (en) | 2006-09-22 | 2006-09-22 | Voice recognition device, voice recognition method and voice recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008076811A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014110041A1 (en) * | 2013-01-08 | 2014-07-17 | Spansion Llc | Distributed speech recognition system |
CN105659318A (en) * | 2013-12-26 | 2016-06-08 | 松下知识产权经营株式会社 | Voice recognition processing device, voice recognition processing method, and display device |
JP2019144598A (en) * | 2015-04-22 | 2019-08-29 | グーグル エルエルシー | Developer voice actions system |
WO2019244455A1 (en) * | 2018-06-21 | 2019-12-26 | ソニー株式会社 | Information processing device and information processing method |
CN111857636A (en) * | 2019-04-24 | 2020-10-30 | 本田技研工业株式会社 | Voice operation system, voice operation device, voice operation control method, and recording medium |
US11257504B2 (en) | 2014-05-30 | 2022-02-22 | Apple Inc. | Intelligent assistant for home automation |
-
2006
- 2006-09-22 JP JP2006256907A patent/JP2008076811A/en not_active Withdrawn
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014110041A1 (en) * | 2013-01-08 | 2014-07-17 | Spansion Llc | Distributed speech recognition system |
CN105229727A (en) * | 2013-01-08 | 2016-01-06 | 赛普拉斯半导体公司 | Distributed speech recognition system |
CN105659318A (en) * | 2013-12-26 | 2016-06-08 | 松下知识产权经营株式会社 | Voice recognition processing device, voice recognition processing method, and display device |
US11257504B2 (en) | 2014-05-30 | 2022-02-22 | Apple Inc. | Intelligent assistant for home automation |
US11699448B2 (en) | 2014-05-30 | 2023-07-11 | Apple Inc. | Intelligent assistant for home automation |
JP2019144598A (en) * | 2015-04-22 | 2019-08-29 | グーグル エルエルシー | Developer voice actions system |
US10839799B2 (en) | 2015-04-22 | 2020-11-17 | Google Llc | Developer voice actions system |
US11657816B2 (en) | 2015-04-22 | 2023-05-23 | Google Llc | Developer voice actions system |
WO2019244455A1 (en) * | 2018-06-21 | 2019-12-26 | ソニー株式会社 | Information processing device and information processing method |
CN111857636A (en) * | 2019-04-24 | 2020-10-30 | 本田技研工业株式会社 | Voice operation system, voice operation device, voice operation control method, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4188989B2 (en) | Speech recognition apparatus, speech recognition method, and speech recognition program | |
JP4666648B2 (en) | Voice response system, voice response program | |
JP4412504B2 (en) | Speech recognition apparatus, speech recognition method, and speech recognition program | |
JP2008064885A (en) | Voice recognition device, voice recognition method and voice recognition program | |
JP2008233678A (en) | Voice interaction apparatus, voice interaction method, and program for voice interaction | |
US8340958B2 (en) | Text and speech recognition system using navigation information | |
US11830485B2 (en) | Multiple speech processing system with synthesized speech styles | |
KR100679042B1 (en) | Method and apparatus for speech recognition, and navigation system using for the same | |
KR100679044B1 (en) | Method and apparatus for speech recognition | |
US8380505B2 (en) | System for recognizing speech for searching a database | |
EP1936606B1 (en) | Multi-stage speech recognition | |
US20070239455A1 (en) | Method and system for managing pronunciation dictionaries in a speech application | |
US20090182559A1 (en) | Context sensitive multi-stage speech recognition | |
US11715472B2 (en) | Speech-processing system | |
JP2008089625A (en) | Voice recognition apparatus, voice recognition method and voice recognition program | |
JP2008076811A (en) | Voice recognition device, voice recognition method and voice recognition program | |
EP1933302A1 (en) | Speech recognition method | |
JP2005227686A (en) | Speech recognizer, speech recognition program and recording medium | |
JP4639990B2 (en) | Spoken dialogue apparatus and speech understanding result generation method | |
US20110218809A1 (en) | Voice synthesis device, navigation device having the same, and method for synthesizing voice message | |
JP2008076812A (en) | Voice recognition device, voice recognition method and voice recognition program | |
KR102527346B1 (en) | Voice recognition device for vehicle, method for providing response in consideration of driving status of vehicle using the same, and computer program | |
JP2005070330A (en) | Speech recognition device and program | |
WO2014035437A1 (en) | Using character describer to efficiently input ambiguous characters for smart chinese speech dictation correction | |
KR20210120286A (en) | Dialogue system, Vehicle and method for controlling the dialogue system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20091201 |