JP2020187163A - Voice operation system, voice operation control method and voice operation control program - Google Patents
Voice operation system, voice operation control method and voice operation control program Download PDFInfo
- Publication number
- JP2020187163A JP2020187163A JP2019089627A JP2019089627A JP2020187163A JP 2020187163 A JP2020187163 A JP 2020187163A JP 2019089627 A JP2019089627 A JP 2019089627A JP 2019089627 A JP2019089627 A JP 2019089627A JP 2020187163 A JP2020187163 A JP 2020187163A
- Authority
- JP
- Japan
- Prior art keywords
- instruction
- candidate
- utterance
- user
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
Abstract
Description
本発明は、音声操作システム、音声操作制御方法、及び音声操作制御プログラムに関する。 The present invention relates to a voice operation system, a voice operation control method, and a voice operation control program.
従来、ナビゲーション装置において、利用者の音声入力を解析して発話内容を複数の構成要素に分割して表示し、各構成要素を個別に選択して、音声の再入力による構成要素の修正ができるようにした構成が提案されている(例えば、特許文献1参照)。 Conventionally, in a navigation device, it is possible to analyze a user's voice input, divide the utterance content into a plurality of components and display them, select each component individually, and modify the component by re-inputting the voice. Such a configuration has been proposed (see, for example, Patent Document 1).
上述した従来の構成による場合、利用者は、言い間違えや誤った解析による発話内容の誤認識が生じたときに、誤認識が生じた構成要素を選択する操作を行って音声を再入力しなければならないという煩わしさがある。また、利用者が、完全な指示内容ではなく、指示の一部のみを発話して、AIにより指示内容を推定したときに、推定した指示内容が利用者の意に反したものとなる場合があり、この場合にも、利用者は、意に反している部分を選択する操作を行って、音声を再入力しなければならないという煩わしさがある。
本発明は、かかる背景に鑑みてなされたものであり、利用者の発話に基づいて認識又は推定された指示内容を、利用者が容易に修正することができる音声操作システム、音声操作制御方法、及び音声操作制御プログラムを提供することを目的とする。
In the case of the conventional configuration described above, when a misrecognition of the utterance content occurs due to a mistake or an erroneous analysis, the user must perform an operation of selecting the component in which the erroneous recognition occurs and re-enter the voice. There is the hassle of having to. In addition, when the user utters only a part of the instruction instead of the complete instruction content and estimates the instruction content by AI, the estimated instruction content may be contrary to the user's intention. In this case as well, the user has to perform an operation of selecting an unintended part and re-enter the voice.
The present invention has been made in view of such a background, and a voice operation system, a voice operation control method, and a voice operation control method, in which the user can easily correct the instruction content recognized or estimated based on the utterance of the user. And to provide a voice operation control program.
上記目的を達成するための第1態様として、利用者の発話を認識する発話認識部と、前記発話認識部により認識された前記利用者の指示発話に基づいて、前記利用者による指示内容を認識又は推定することにより、第1指示候補を決定する指示候補決定部と、前記第1指示候補又は前記第1指示候補に応じた第1所定処理の実行状況を、音声により出力する第1候補報知を行い、前記第1候補報知に応じて、前記第1指示候補による指示内容の訂正を指示する訂正指示発話が前記発話認識部により認識されたときに、前記第1指示候補を前記訂正指示発話による指示に応じて訂正した第2指示候補を決定し、前記第2指示候補の内容又は前記第2指示候補に応じた第2所定処理の実行状況を、音声により出力する第2候補報知を行う指示候補訂正部とを備える音声操作システムが挙げられる。 As the first aspect for achieving the above object, the utterance recognition unit that recognizes the user's utterance and the instruction content by the user are recognized based on the utterance of the user's instruction recognized by the utterance recognition unit. Alternatively, the first candidate notification that outputs by voice the instruction candidate determination unit that determines the first instruction candidate and the execution status of the first predetermined process according to the first instruction candidate or the first instruction candidate by estimating. When the utterance recognition unit recognizes the correction instruction utterance instructing the correction of the instruction content by the first instruction candidate in response to the first candidate notification, the first instruction candidate is used as the correction instruction utterance. The corrected second instruction candidate is determined in response to the instruction given by the above, and the second candidate notification that outputs the content of the second instruction candidate or the execution status of the second predetermined process according to the second instruction candidate by voice is performed. An example is a voice operation system including an instruction candidate correction unit.
上記音声操作システムにおいて、前記指示候補訂正部は、前記第1指示候補に所定ジャンルの第1指示要素が含まれると共に、前記訂正指示発話に前記所定ジャンルの第2指示要素が含まれる場合に、前記第1指示要素を前記第2指示要素に基づいて訂正することによって、前記第2指示候補を決定する構成としてもよい。 In the voice operation system, the instruction candidate correction unit includes a first instruction element of a predetermined genre in the first instruction candidate and a second instruction element of the predetermined genre in the correction instruction utterance. The second instruction candidate may be determined by correcting the first instruction element based on the second instruction element.
上記音声操作システムにおいて、前記音声操作システムは、ナビゲーション装置における目的地の探索条件の指示に使用され、前記指示候補決定部は、前記第1指示候補として目的地の第1探索条件を決定し、前記指示候補訂正部は、前記第2指示候補として、前記第1探索条件を前記訂正指示発話による指示に応じて訂正した第2探索条件を決定し、前記所定ジャンルは、目的地の場所、目的地への出発日時、目的地である施設の評価ランク、目的地である施設の種類、及び前記利用者が複数である場合の利用者の識別情報のうちのいずれかである構成としてもよい。 In the voice operation system, the voice operation system is used to instruct the search condition of the destination in the navigation device, and the instruction candidate determination unit determines the first search condition of the destination as the first instruction candidate. The instruction candidate correction unit determines, as the second instruction candidate, a second search condition in which the first search condition is corrected according to the instruction by the correction instruction speech, and the predetermined genre is the location and purpose of the destination. The configuration may be one of the departure date and time to the place, the evaluation rank of the facility as the destination, the type of the facility as the destination, and the identification information of the user when there are a plurality of the users.
上記音声操作システムにおいて、前記指示候補訂正部は、前記発話認識部により前記訂正指示発話が認識されてから、前記第2候補報知を行うまでの間に、前記第1指示候補が前記利用者の意図する指示内容と異なっていたことを音声により報知する誤り確認報知を行う構成としてもよい。 In the voice operation system, the instruction candidate correction unit uses the first instruction candidate as the user during the period from the recognition of the correction instruction utterance by the utterance recognition unit to the notification of the second candidate. An error confirmation notification may be configured to notify by voice that the instruction content is different from the intended content.
上記音声操作システムにおいて、前記利用者の行動習慣を推定する行動習慣推定部を備え、前記指示候補決定部は、前記指示発話から前記利用者が意図する指示内容を特定することができない場合に、前記指示発話に含まれる指示要素と、前記行動習慣推定部により推定される前記利用者の行動習慣とに基づいて、前記第1指示候補を決定する構成としてもよい。 The voice operation system includes a behavior habit estimation unit that estimates the behavior habit of the user, and the instruction candidate determination unit cannot specify the instruction content intended by the user from the instruction utterance. The first instruction candidate may be determined based on the instruction element included in the instruction utterance and the behavior habit of the user estimated by the behavior habit estimation unit.
上記目的を達成するための第2態様として、利用者の発話を認識する発話認識部を有する、単一又は複数のコンピュータにより実施される音声操作制御方法であって、前記発話認識部により前記利用者の発話が認識される発話認識ステップと、前記発話認識ステップにより認識された前記利用者の指示発話に基づいて、前記利用者による指示内容を認識又は推定することにより、第1指示候補を決定する第1指示候補決定ステップと、前記第1指示候補又は前記第1指示候補に応じた第1所定処理の実行状況を、音声により出力する第1候補報知ステップと、前記第1候補報知ステップに応じて、前記第1指示候補による指示内容の訂正を指示する訂正指示発話が前記発話認識部により認識された場合、前記訂正指示発話による指示に応じて前記第1指示候補から訂正された第2指示候補を決定する第2指示候補決定ステップと、前記第2指示候補の内容又は前記第2指示候補に応じた第2所定処理の実行状況を、音声により出力する第2候補報知ステップとを含む音声操作制御方法が挙げられる。 As a second aspect for achieving the above object, it is a voice operation control method implemented by a single or a plurality of computers having an utterance recognition unit that recognizes a user's utterance, and the use by the utterance recognition unit. The first instruction candidate is determined by recognizing or estimating the instruction content by the user based on the utterance recognition step in which the utterance of the person is recognized and the instruction utterance of the user recognized by the utterance recognition step. The first candidate notification step for outputting the execution status of the first instruction candidate or the first predetermined process corresponding to the first instruction candidate by voice, and the first candidate notification step. Correspondingly, when the correction instruction utterance instructing the correction of the instruction content by the first instruction candidate is recognized by the utterance recognition unit, the second instruction corrected from the first instruction candidate according to the instruction by the correction instruction utterance. The second candidate notification step of determining the instruction candidate and the second candidate notification step of outputting the content of the second instruction candidate or the execution status of the second predetermined process according to the second instruction candidate by voice are included. A voice operation control method can be mentioned.
上記目的を達成するための第3態様として、単一又は複数のコンピュータにインストールされ、前記コンピュータに、利用者の発話を認識する発話認識処理と、前記発話認識処理により認識された前記利用者の指示発話に基づいて、前記利用者による指示内容を認識又は推定することにより、第1指示候補を決定する第1指示候補決定処理と、前記第1指示候補又は前記第1指示候補に応じた第1所定処理の実行状況を、音声により出力する第1候補報知処理と、前記第1候補報知処理に応じて、前記第1指示候補による指示内容の訂正を指示する訂正指示発話が前記発話認識処理により認識された場合、前記訂正指示発話による指示に応じて前記第1指示候補から訂正された第2指示候補を決定する第2指示候補決定処理と、前記第2指示候補の内容又は前記第2指示候補に応じた第2所定処理の実行状況を、音声により出力する第2候補報知処理とを実行させる音声操作制御プログラムが挙げられる。 As a third aspect for achieving the above object, the utterance recognition process installed on a single computer or a plurality of computers and recognizing the user's utterance on the computer, and the utterance recognition process of the user recognized by the utterance recognition process. The first instruction candidate determination process for determining the first instruction candidate by recognizing or estimating the instruction content by the user based on the instruction utterance, and the first instruction candidate or the first instruction candidate corresponding to the first instruction candidate. 1 The first candidate notification process that outputs the execution status of a predetermined process by voice and the correction instruction utterance that instructs the correction of the instruction content by the first instruction candidate according to the first candidate notification process are the utterance recognition processes. When recognized by, the second instruction candidate determination process of determining the second instruction candidate corrected from the first instruction candidate in response to the instruction by the correction instruction utterance, and the content of the second instruction candidate or the second instruction candidate. An example is a voice operation control program that executes a second candidate notification process that outputs the execution status of the second predetermined process according to the instruction candidate by voice.
上記音声操作システムによれば、指示候補決定部により、利用者の指示発話に基づいて第1指示候補が決定され、指示候補訂正部により、第1指示候補又は第1指示候補に応じた第1所定処理の実行状況を音声により出力する第1候補報知が行われる。そして、指示候補訂正部は、第1候補報知に応じた訂正指示発話が認識されたときに、第1指示候補を訂正指示発話による指示に応じて訂正した第2指示候補を決定し、第2指示候補の内容又は第2指示候補に応じた第2所定処理の実行状況を、音声により出力する第2候補報知を行う。これにより、利用者は、音声操作システムにより決定された第1指示候補が、意図していた内容ではなかったときに、指示の変更を指示する訂正指示発話を発するという簡易な操作によって、訂正内容を音声の出力により確認して指示内容を訂正することができる。 According to the voice operation system, the instruction candidate determination unit determines the first instruction candidate based on the user's instruction utterance, and the instruction candidate correction unit determines the first instruction candidate or the first instruction candidate according to the first instruction candidate. The first candidate notification that outputs the execution status of the predetermined process by voice is performed. Then, when the correction instruction utterance corresponding to the first candidate notification is recognized, the instruction candidate correction unit determines the second instruction candidate in which the first instruction candidate is corrected according to the instruction by the correction instruction utterance, and the second instruction candidate is determined. The second candidate notification that outputs the content of the instruction candidate or the execution status of the second predetermined process according to the second instruction candidate by voice is performed. As a result, when the first instruction candidate determined by the voice operation system does not have the intended content, the user issues a correction instruction utterance instructing the change of the instruction. Can be confirmed by voice output and the instruction content can be corrected.
[1.音声操作システムの構成]
図1を参照して、本実施形態の音声操作システム2の構成について説明する。音声操作システム2は、車両(図示しない)に搭載されたナビゲーション装置1の機能の一部として構成されている。なお、本実施形態では、車両に搭載されたナビゲーション装置1を示したが、ポータブルタイプのナビゲーション装置であってもよい。また、スマートフォン等の携帯端末においてナビゲーション用アプリ(アプリケーションプログラム)を実行することにより構成されるナビゲーション装置であってもよい。
[1. Voice operation system configuration]
The configuration of the
ナビゲーション装置1は、CPU(Central Processing Unit)10、メモリ20、通信部30、マイク31、スピーカー32、タッチパネル33、スイッチ34、及びGPS(Global Positioning System)ユニット35を備えている。通信部30は、通信ネットワーク100を介して、操作支援サーバー110等の外部システムとの間で通信を行う。また、通信部30は、通信ネットワーク100を介して或いは直接、ナビゲーション装置1の利用者Uが使用する利用者端末90との間で通信を行う。利用者端末90は、スマートフォン、タブレット端末、携帯電話等の携帯型の通信端末である。
The
マイク31は、利用者Uの音声を入力する。スピーカー32は、利用者Uに対する音声ガイダンス等を出力する。タッチパネル33は、液晶パネル等のフラット型の表示器と、表示器の表面に配置されたタッチスイッチとにより構成されている。スイッチ34は、利用者Uの押圧により操作される。GPSユニット35は、GPS衛星から送信される電波を受信することによって、ナビゲーション装置1の現在位置(車両の現在位置)を検出する。
The
ナビゲーション装置1は、利用者Uによるタッチパネル33のタッチ操作、或いはマイク31に入力される利用者の音声による操作に応じて、目的地を設定する。そして、ナビゲーション装置1は、GPSユニット35により検出されるナビゲーション装置1の現在位置(ナビゲーション装置1が搭載された車両の現在位置)、及びメモリ20に保存された地図データ23に基づいて、目的地までのルート案内を行う。なお、地図データは、通信部30により操作支援サーバー110等の外部サーバーにアクセスすることによって、取得してもよい。
The
音声操作システム2は、CPU10、メモリ20等により構成され、CPU10は、メモリ20に保持された音声操作システム2の制御用プログラム21を読み込んでインストールし、制御用プログラム21を実行することにより、発話認識部11、指示候補決定部12、指示候補訂正部13、所定処理実行部14、行動履歴保存部15、及び行動習慣推定部16として機能する。CPU10は、本発明の単一又は複数のコンピュータに相当し、音声操作制御方法を実施する。制御用プログラム21は、本発明の音声操作制御プログラムを含んでいる。
The
行動履歴保存部15は、利用者Uがこれまでに移動した場所及び日時を示す行動履歴を、利用者データ22に保存する。利用者データ22には、図2に示したように、ナビゲーション装置1が搭載された車両を使用する複数の利用者毎に、利用者ID22a、利用者を識別するための生体データ22b、及び行動履歴22cが記録されている。生体データ22bには、顔画像、声紋、虹彩、指紋等の生体認証を行うためのデータが保存される。図2は、利用者Uについての利用者データ22を例示している。
The action
行動履歴保存部15は、GPSユニット35により検出されるナビゲーション装置1の現在位置の推移、及び利用者Uにより設定された目的地等に基づいて、利用者Uが移動した場所を認識して行動履歴22cに記録する。また、行動履歴保存部15は、利用者端末90との通信により、利用者端末90で実行されるスケジュールアプリにより設定された利用者のUの行動予定、利用者端末90で実行される決済アプリにより処理された支払い履歴等により認識した利用者Uの行動状況を、行動履歴22cに記録する。
The action
発話認識部11は、マイク31に入力された利用者Uの音声を解析して、利用者Uの発話内容を認識する。指示候補決定部12は、AI(Artificial Intelligence)エンジンを用いて構成され、発話認識部11により認識された利用者Uの発話内容、及び利用者データ22に記録された行動履歴22cに基づいて、利用者Uが意図している目的地の第1探索条件(本発明の第1指示候補に相当する)を決定する。指示候補訂正部13は、第1探索条件の音声出力に応じて、利用者Uよる探索条件の訂正を指示する発話(本発明の訂正指示発話に相当する)が発話認識部11により認識された場合に、第1探索条件を訂正した第2探索条件(本発明の第2指示候補に相当する)を決定する。
The
所定処理実行部14は、第1探索条件に従った目的地の第1探索処理(本発明の第1所定処理に相当する)、及び第2探索条件に従った目的地の第2探索処理(本発明の第2所定処理に相当する)を実行する。
The predetermined
行動習慣推定部16は、AIエンジンにより、利用者データ22に記録された行動履歴22cに基づいて、例えば、以下のような利用者Uの行動習慣を推定する。
(1)利用者Uは、平日、勤務先から帰宅する途中に、自宅近くのスーパーXXのa町店に立寄ることが多い。
(2)利用者Uは、郷里の実家に帰る場合はいつも、金曜日の夕飯を食べた後に自宅を出発し、自宅近くのスーパーXXのa町店に立寄ってから実家に向かう。
(3)利用者Uは、車で旅行する際は、ホテルで夕食を取らずに、AAガイドブックに載っている、ホテル近くの二つ星のフランス料理レストランに寄って食事をする。
(4)利用者Uは夫妻であり、妻は、平日は毎日、職場であるFF市役所に車で通勤している。
(5)利用者UはGG球団のファンであり、年に一度程度、地元の清原球場で行われるGG球団と他球団との試合を、毎回観戦している。
The behavior
(1) On weekdays, user U often stops at the supermarket XX a-machi store near his home on the way home from work.
(2) Whenever the user U returns to his / her hometown, he / she leaves his / her home after having dinner on Friday, stops at the supermarket XX a town store near his / her home, and then heads for his / her home.
(3) When traveling by car, user U does not have dinner at the hotel, but instead stops at a two-star French restaurant near the hotel, which is listed in the AA guidebook.
(4) User U is a couple, and his wife commute by car to the FF city hall, which is her workplace, every weekday.
(5) User U is a fan of the GG team, and watches the game between the GG team and other teams held at the local Kiyohara baseball stadium about once a year.
[2.目的地の探索条件の決定処理]
図3〜図4に示したフローチャートに従って、図5の第1対話例に示したように、利用者Uが目的地を指示する発話V10(指示発話)を行ったときに、音声操作システム2により実行される目的地の探索条件の決定処理について説明する。図3のステップS1で、発話認識部11は、マイク31に入力された音声から利用者Uの発話を認識したときに、ステップS2に処理を進める。ステップS2で利用者Uの発話を認識する処理は、本発明の音声操作制御方法における発話認識ステップに相当すると共に、本発明の音声操作制御プログラムにおける発話認識処理に相当する。
[2. Destination search condition determination process]
According to the flowcharts shown in FIGS. 3 to 4, as shown in the first dialogue example of FIG. 5, when the user U makes an utterance V10 (instruction utterance) instructing the destination, the
ステップS2で、発話認識部11は、発話内容から目的地の探索条件(利用者Uによる指示内容)が特定できるか否かを判断する。そして、発話認識部11は、探索条件が特定できるときはステップS20に処理を進め、探索条件が特定できないときにはステップS3に処理を進める。ステップS20で、所定処理実行部14は、特定された探索条件による目的地の探索処理を実行し、図4のステップS13に処理を進める。
In step S2, the
図5の例では、「近所のスーパーを教えて」との発話V10が発話認識部により認識され、ステップS3で、指示候補決定部12は、「近所のスーパー」を指示要素として抽出する。続くステップS4で、指示候補決定部12は、声紋による生体認証により、発話V10を行ったのが、利用者Uであることを認識する。なお、声紋に代えて、顔画像、指紋、虹彩等による生体認証を行ってもよい。
In the example of FIG. 5, the utterance V10 saying "Tell me the supermarket in the neighborhood" is recognized by the utterance recognition unit, and in step S3, the instruction
次のステップS5で、指示候補決定部12は、指示要素「近所のスーパー」と、行動習慣推定部16により推定された利用者Uの行動習慣とに基づいて、目的地の第1探索条件を決定する。図5の例では、利用者Uについて、行動習慣推定部16により、上記(1)の「利用者Uは、平日、勤務先から帰宅する途中に、自宅近くのスーパーXXのa町店に立寄ることが多い。」という行動習慣が推定されているとする。指示候補決定部12は、上記(1)の行動習慣に基づいて、「近所のスーパー」は、利用者Uが勤務先から帰宅する際にいつも立寄るスーパーであると推定し、第1探索条件を「いつものスーパー」に決定する。ステップS5で第1探索条件を決定する処理は、本発明の音声操作制御方法における第1指示候補決定ステップに相当すると共に、本発明の音声操作制御プログラムにおける第1指示候補決定処理に相当する。
In the next step S5, the instruction
続くステップS6で、所定処理実行部14は、第1探索条件「いつものスーパー」に従って、地図データ23を参照して、行動履歴22cに記録された「スーパーXXa町店」までの経路を探索する第1探索処理を実行する。続くステップS7〜図4のステップS10及びステップS12は、指示候補訂正部13による処理である。
In the following step S6, the predetermined
ステップS7で、指示候補訂正部13は、第1探索処理の実行状況を音声によりスピーカー32から出力する(本発明の第1候補報知に相当する)。図5の例では、指示候補訂正部13は、「いつものスーパーを探しています」という音声W10を、スピーカー32から出力する。ステップS7で第1探索処理の実行状況を音声によりスピーカー32から出力する処理は、本発明の音声操作制御方法における第1候補報知ステップに相当すると共に、本発明の音声操作制御プログラムにおける第1候補報知処理に相当する。
In step S7, the instruction
続く図4のステップS8で、指示候補訂正部13は、利用者Uによる第1探索条件の訂正を指示する発話(訂正指示発話)が、発話認識部11により認識されたか否かを判断する。そして、指示候補訂正部13は、訂正指示発話が認識されたときはステップS9に処理を進める。一方、訂正指示発話が認識されなかったときには、指示候補訂正部13はステップS13に処理を進め、この場合は第1探索条件の訂正は行われない。
In the following step S8 of FIG. 4, the instruction
図5の例では、利用者Uによる「いつものスーパーじゃなくて、会社の近所のスーパーだよ」という訂正指示発話V11が認識される。ステップS9で、指示候補訂正部13は、訂正指示発話V11の内容を認識し、5W1H(When、Where、Who、What、Why、How many、How much)のジャンル(本発明の所定ジャンルに相当する)による区分を利用して、利用者Uが何を訂正したいのかを推定する。
In the example of FIG. 5, the correction instruction utterance V11 by the user U, "It is not the usual supermarket, but the supermarket in the neighborhood of the company" is recognized. In step S9, the instruction
ここで、Whereジャンルには、地名、場所名、所在地、住所、緯度経度情報、地物情報等が含まれる。地物には、ランドマークや観光エリア(山、滝、湖等)、建築物(寺院、橋、ビル、家屋、店舗等)、テーマパークやショッピングモール等の商業施設が含まれる。さらに、地物には、信号機や標識、中央分離帯、フェンス、ガードレール、ポール、電柱、その他の物体が含まれてもよい。地物情報は、これらの地物の名称或いは位置の情報である。 Here, the Where genre includes place names, place names, locations, addresses, latitude / longitude information, feature information, and the like. Features include landmarks, tourist areas (mountains, waterfalls, lakes, etc.), buildings (temples, bridges, buildings, houses, stores, etc.), and commercial facilities such as theme parks and shopping malls. In addition, features may include traffic lights, signs, medians, fences, guardrails, poles, utility poles, and other objects. Feature information is information on the names or locations of these features.
図5の例は、訂正指示発話V11で否定された「いつものスーパー」がWhereジャンルである。そのため、指示候補訂正部13は、第1探索条件におけるWhereジャンルの指示要素である第1指示要素「いつものスーパー」を、訂正指示発話V11により訂正が指示された指示要素である第2指示要素「会社の近所のスーパー」に置き換えることによって、第1探索条件を訂正した第2探索条件を決定する。ステップS9で第1探索条件を訂正した第2探索条件を決定する処理は、本発明の音声操作制御方法における第2指示候補決定ステップに相当すると共に、本発明の音声操作制御プログラムにおける第2指示候補決定処理に相当する。
In the example of FIG. 5, the "usual supermarket" denied in the correction instruction utterance V11 is the Where genre. Therefore, the instruction
続くステップS10で、指示候補訂正部13は、第1探索条件が利用者Uの意図する探索条件と異なっていたことを確認するための音声を出力する(本発明の誤り確認報知に相当する)。図5の例では、指示候補訂正部13は、「え、間違えましたか?」という音声W11を、スピーカー32から出力する。利用者Uは、音声W11を聞くことにより、音声操作システム2が、利用者Uによる誤りの指摘を認識したことを確認することができる。
In the following step S10, the instruction
次のステップS11で、指示候補訂正部13は、訂正内容を確認するための音声をスピーカー32から出力する(本発明の訂正確認報知に相当する)。図5の例では、指示候補訂正部13は、「会社の近所のスーパーですよね」という音声W12をスピーカー32から出力する。利用者Uは、音声W12を聞くことにより、音声操作システム2が、利用者が指示した訂正内容を認識したことを確認することができる。
In the next step S11, the instruction
次のステップS12で、所定処理実行部14は、第2探索条件「会社の近所のスーパー」に従って、地図データ23を参照して、現在地から、行動履歴22cに記録された利用者Uの勤務先の近所にあるスーパーまでの経路を探索する第2探索処理を実行する。続くステップS13で、指示候補訂正部13は、第2探索処理の実行状況である「会社の近所のスーパーを探します」という音声W13を、スピーカー32から出力する(本発明の第2候補報知に相当する)。ステップS12で第2探索処理の実行状況を音声により出力する処理は、本発明の音声操作制御方法における第2候補報知ステップに相当すると共に、本発明の音声操作制御プログラムにおける第2候補報知処理に相当する。
In the next step S12, the predetermined
図3、図4の処理により、図5に示したように、利用者Uは、「近所のスーパーを教えて」という短い発話により、目的地の第1探索条件を指示することができる。また、利用者Uは、音声操作システム2による「いつものスーパーを探しています」という音声出力W10から、第1探索条件が利用者Uが意図する探索条件と一致しているか否かを判断することができる。そして、利用者Uは、第1探索条件が意図していたものと異なっている場合には、第1探索条件の訂正を指示する「いつものスーパーじゃなくて、会社の近所のスーパーだよ」という簡易な発話を行うことで、第1探索条件のWhereジャンルの指示要素を訂正した第2探索条件を設定することができる。
By the processing of FIGS. 3 and 4, as shown in FIG. 5, the user U can instruct the first search condition of the destination by a short utterance "Tell me the supermarket in the neighborhood". Further, the user U determines whether or not the first search condition matches the search condition intended by the user U from the voice output W10 of "searching for the usual supermarket" by the
これにより、探索条件を訂正するために、探索条件を最初から設定し直すことを不要として、利用者Uの意図と異なっている第1探索条件の指示要素「いつものスーパー」のみを、「会社の近所のスーパー」に置き換えることにより、第1探索条件を訂正した第2探索条件を容易に設定することができる。 As a result, in order to correct the search condition, it is not necessary to reset the search condition from the beginning, and only the instruction element "usual super" of the first search condition, which is different from the intention of the user U, is "company". By replacing it with "a supermarket in the neighborhood of", the second search condition obtained by correcting the first search condition can be easily set.
[3.Whenジャンルの指示要素の修正]
図6を参照して、第1探索条件におけるWhenジャンル(出発日時等が含まれる)の指示要素を訂正する第2対話例の実施形態について説明する。図6の例では、利用者Uについて、行動習慣推定部16により、上記(2)の「利用者Uは、郷里の実家に帰る場合はいつも、金曜日の夕飯を食べた後に自宅を出発し、近くのスーパーXXa町店に立寄ってから実家に向かう」という行動習慣が推定されている。
[3. Modifying the indicator elements of the When genre]
With reference to FIG. 6, an embodiment of a second dialogue example for correcting an indicator element of the When genre (including the departure date and time) in the first search condition will be described. In the example of FIG. 6, for the user U, the behavioral
図6では、先ず、発話認識部11により、「郷里の実家に帰る、何時に着く」という利用者Uの発話V20(指示発話)が認識されている。指示候補決定部12は、上記(2)の利用者Uの行動習慣から、利用者Uは、夕食を食べた後に実家に向けて自宅を出発すると推定する。そして、指示候補決定部12は、第1探索条件として、「夕食後の21時頃に自宅を出発し、スーパーXXのa町店に立寄って実家に向かった場合の実家への到着時刻」を設定する。
In FIG. 6, first, the
所定処理実行部14は、第1探索条件に従った第1探索処理実行して、実家に到着する予測日時を算出する。指示候補訂正部13は、実家に到着する予測日時である「金曜日の23時」の音声W20を、スピーカー32から出力する(第1候補報知)。第1候補報知に応じて、利用者Uによる「いつもの出発時刻じゃなくて、今からだよ」という発話V21(訂正指示発話)が、発話認識部11により認識される。指示候補訂正部13は、訂正指示発話V21が、Whenジャンルの「いつもの出発時刻」を否定して「今から」への訂正を指示するものであるため、第1探索条件におけるWhenジャンルの第1指示要素「いつもの出発時刻」を、訂正指示発話V21により訂正が指示されたWhenジャンルの「今から」に置き換えることによって、第1探索条件を訂正した第2探索条件を決定する。
The predetermined
指示候補訂正部13は、「え、間違えましたか?」という音声W21をスピーカー32から出力し(誤り確認報知)、続いて「今からですよね」という音声W22をスピーカー32から出力する(訂正確認報知)。そして、所定処理実行部14は、第2探索条件に従った第2探索処理を実行し、指示候補訂正部13は、第2探索処理の実行状況(実行結果)である「今からですと、今日の22時です」という音声W23を出力する(第2候補報知)。
[4.How many、How muchジャンルの指示要素の修正]
図7を参照して、第1探索条件におけるHow many、How muchジャンルの指示要素を訂正する第3対話例の実施形態について説明する。図7の例では、利用者Uについて、行動習慣推定部16により、上記(3)の「利用者Uは、車で旅行する際は、ホテルで夕食を取らずに、AAガイドブックに載っている、ホテル近くの二つ星のフランス料理レストランに寄って食事をする。」という行動習慣が推定されている。
The instruction
[4. How many, correction of indicator elements of How much genre]
With reference to FIG. 7, an embodiment of a third dialogue example in which the indicator elements of the How many and How much genres in the first search condition are corrected will be described. In the example of FIG. 7, the behavioral
図7では、先ず、発話認識部11により、「近所のレストランを探して」という利用者Uの発話V30(指示発話)が認識されている。指示候補決定部12は、上記(3)の行動習慣から、利用者Uは、いつものように、宿泊するホテルの近くの二つ星のフランス料理のレストランで夕食を取ると推定し、第1探索条件として、「宿泊先のホテル付近の二つ星のフランス料理レストラン」を決定する。
In FIG. 7, first, the
所定処理実行部14は、第1探索条件に従った第1探索処理を実行して、二つ星のフランス料理レストランを探索する。指示候補訂正部13は、第1探索処理の実行状況である「近くに、二つ星のフランス料理店のBBレストランがあります」という音声W30を、スピーカー32から出力する(第1候補報知)。図7では、音声W30に応じて、利用者Uによる「二つ星じゃなくて、今日は、三つ星で探して」という発話V31(訂正指示発話)が、発話認識部11により認識される。ここで、二つ星、三つ星等は、施設の評価ランクに相当する。
The predetermined
指示候補訂正部13は、訂正指示発話V31により否定された「二つ星」がHow many、How muchジャンルであるため、第1探索条件におけるHow many、How muchジャンルの第1指示要素である「二つ星」を、訂正指示発話V31により訂正が指示された第2指示要素「三つ星」に置き換えて、第2探索条件を決定する。第2探索条件は、「宿泊先のホテル付近の三つ星のフランス料理レストラン」となる。
In the instruction
指示候補訂正部13は、「え、間違えましたか?」という音声W31をスピーカー32から出力し(誤り確認報知)、続いて「今日は、三つ星ですよね」という音声W32をスピーカー32から出力する(訂正確認報知)。そして、所定処理実行部14は、第2探索条件に従って第2探索処理を実行し、指示候補訂正部13は、第2探索処理の実行状況である「三つ星ですと、フランス料理店で、ホテルの中にCCレストランがあります」という音声W33を、スピーカー32から出力する(第2候補報知)。
The instruction
[5.Whatジャンルの指示要素の訂正]
図8を参照して、第1探索条件におけるWhatジャンルの指示要素を訂正する第4対話例の実施形態について説明する。図8の例では、利用者Uについて、行動習慣推定部16により、上記(3)の「利用者Uは、車で旅行する際は、ホテルで夕食を取らずに、AAガイドブックに載っている、ホテル近くの二つ星のフランス料理レストランに寄って食事をする。」という行動習慣が推定されている。
[5. Correction of the indicator element of What genre]
An embodiment of the fourth dialogue example for correcting the indicator element of the What genre in the first search condition will be described with reference to FIG. In the example of FIG. 8, the behavioral
図8では、先ず、発話認識部11により、「近所のレストランを探して」という利用者Uの発話V40(指示発話)が認識されている。指示候補決定部12は、上記(3)の利用者の行動習慣から、利用者Uは、いつものように、宿泊するホテルの近くの二つ星のフランス料理のレストランで夕食を取ると推定し、第1探索条件として、「宿泊先のホテル付近の二つ星のフランス料理レストラン」を決定する。
In FIG. 8, first, the
所定処理実行部14は、第1探索条件に従った第1探索処理を実行して、二つ星のフランス料理レストランを探索する。指示候補訂正部13は、第1探索処理の実行状況である「近くに、二つ星のフランス料理のDDレストランがあります」という音声W40を、スピーカー32から出力する(第1候補報知)。図8では、音声W40に応じて、利用者Uによる「フランス料理じゃなくて、今日は、イタリア料理で探して」という発話V41(訂正指示発話)が、発話認識部11により認識される。
The predetermined
指示候補訂正部13は、訂正指示発話V41により否定された「フランス料理」がWhatジャンルであるため、第1探索条件におけるWhatジャンルの第1指示要素である「フランス料理」を、訂正指示発話V41により訂正が指示された第2指示要素である「イタリア料理」に置き換えることにより、第1探索条件を訂正した第2探索条件を決定する。第2探索条件は、「宿泊先のホテル付近のイタリア料理のレストラン」となる。
Since the "French cuisine" denied by the correction instruction utterance V41 is the What genre, the instruction
指示候補訂正部13は、「え、間違えましたか?」という音声W41をスピーカー32から出力し(誤り確認報知)、続いて「今日は、イタリア料理ですよね」という音声W42をスピーカー32から出力する(訂正確認報知)。そして、所定処理実行部14は、第2探索条件に従って第2探索処理を実行し、指示候補訂正部13は、第2探索処理の実行状況である「イタリア料理で、ホテルの中に、EEレストランがあります」という音声W43をスピーカー32から出力する(第2候補報知)。
The instruction
[6.Whoジャンルの指示要素の訂正]
図9を参照して、第1探索条件におけるWhoジャンルの指示要素を訂正する第5対話例の実施形態について説明する。図9の例では、利用者Uについて、行動習慣推定部16により、上記(4)の「利用者Uは夫妻であり、妻は、平日は毎日、職場であるFF市役所に車で通勤している。」という行動習慣が推定されている。
[6. Correction of the indicator elements of the Who genre]
An embodiment of the fifth dialogue example for correcting the indicator element of the Who genre in the first search condition will be described with reference to FIG. In the example of FIG. 9, for the user U, the behavioral
図9では、先ず、発話認識部11により、「職場を探して」という利用者U(ここでは夫)の発話V50(指示発話)が認識されている。指示候補決定部12は、上記(4)の行動習慣から、利用者Uは、いつものように、妻の職場であるFF市役所に向かうと推定し、第1探索条件として「妻の職場のFF市役所」を決定する。
In FIG. 9, first, the
所定処理実行部14は、第1探索条件に従った第1探索処理を実行して、FF市役所への経路を探索する。指示候補訂正部13は、第1探索処理の実行内容である「職場の、FF市役所を探しています」という音声W50を、スピーカー32から出力する(第1候補報知)。花子は妻の名前である。図9では、音声W50の出力に応じて、利用者U(ここでは夫)による「妻の職場じゃなくて、今日は、私の職場を探して」という発話V51(訂正指示発話)が、発話認識部11により認識される。
The predetermined
ここで、指示候補訂正部13は、妻による発話と夫による発話は、利用者データ22に保存された妻と夫の声紋による生体認証によって識別する。妻と夫は、利用者Uが複数である場合の識別情報に相当する。
Here, the instruction
指示候補訂正部13は、訂正指示発話V51により否定された「妻の」がWhoジャンルであるため、第1探索条件のWhoジャンルの指示要素である「妻の」を、訂正指示発話V51により訂正された「私(夫)」に置き換えて訂正することにより、第2探索条件を決定する。第2探索条件は「夫の職場」となる。
Since the "wife's" denied by the correction instruction utterance V51 is the Who genre, the instruction
指示候補訂正部13は、「え、間違えましたか?」という音声W51をスピーカー32から出力し(誤り確認報知)、続いて「今日は、和夫さんの職場ですよね」という音声W52をスピーカー32から出力する(訂正確認報知)。和夫は夫の名前である。そして、所定処理実行部14は、第2探索条件に従って第2探索処理を実行し、指示候補訂正部13は、第2探索処理の実行状況である「和夫さんの職場を探せました」という音声W53を、スピーカー32から出力する(第2候補報知)。
The instruction
[7.Whereジャンルの指示要素の訂正]
図10を参照して、第1探索条件におけるWhereジャンルの指示要素を訂正する第6対話例の実施形態について説明する。図10の例では、利用者Uについて、行動習慣推定部16により、上記(5)の「利用者UはGG球団のファンであり、年に一度程度、地元の清原球場で行われるGG球団と他球団との試合を、毎回観戦している。」という行動習慣が推定されている。
[7. Correction of the indicator element of the Where genre]
An embodiment of the sixth dialogue example for correcting the indicator element of the Where genre in the first search condition will be described with reference to FIG. In the example of FIG. 10, regarding the user U, the behavioral
図10では、先ず、発話認識部11により、「GG球団の試合を観に行きたい」という利用者Uの発話V60(指示発話)が認識されている。指示候補決定部12は、上記(5)の行動習慣から、「利用者Uが、今日、清原球場で開催される、18:00開場、18:30開始の、GG球団とJJ球団との試合を見に行き、利用者UはGG球団のファンであるから、ホーム球団であるGG球団のベンチ側の一塁側スタンドで観戦する」と推定する。そして、指示候補決定部12は、第1探索条件として、「清原球場の1塁側近くの駐車場」を決定する。
In FIG. 10, first, the
所定処理実行部14は、第1探索条件に従った第1探索処理を実行して、現在地から清原球場の1塁側近くの駐車場までの経路を探索する。指示候補訂正部13は、第1探索処理の実行状況である「清原球場の1塁側近くの駐車場に、17時30分に到着します」という音声W60を、スピーカー32から出力する(第1候補報知)。図10では、音声W60の出力に応じて、利用者Uによる「いやいや、HH焼き肉店で、IIテレビで観る」という発話V61(訂正指示発話)が、発話認識部11により認識されるている。
The predetermined
指示候補訂正部13は、訂正指示発話V61により訂正された「HH焼き肉店」がWhereジャンルであるため、第1探索条件におけるWhereジャンルの指示要素である第1指示要素「清原球場の1塁側近くの駐車場」を、訂正指示発話V61により訂正が指示された「HH焼き肉店」に置き換えることにより、第1探索条件を訂正した第2探索条件を決定する。第2探索条件は、「HH焼肉店」となる。
In the instruction
指示候補訂正部13は、「え、間違えましたか?」という音声W61をスピーカー32から出力し(誤り確認報知)、続いて「HH焼肉店ですよね」という音声W62をスピーカー32から出力する(訂正確認報知)。そして、所定処理実行部14は、第2探索条件に従って第2探索処理を実行し、指示候補訂正部13は、第2探索処理の実行状況である「HH焼き肉店に、17時50分に到着します」という音声W63を、スピーカー32から出力する(第2候補報知)。
The instruction
[8.他の実施形態]
上記実施形態では、音声操作システム2をナビゲーション装置1の機能の一部として構成したが、音声操作システム2を家電製品等の他の種類の装置の一部として構成してもよく、或いは専用装置として構成してもよい。
[8. Other embodiments]
In the above embodiment, the
上記実施形態では、利用者Uによる指示発話として、ナビゲーション装置1に対する目的地の探索条件を指示する発話を例示したが、他の内容に関する指示発話であってもよい。例えば、車両に備えられた空調装置の運転条件、家電製品の操作、セキュリティ設備の作動等を音声操作により指示する場合に、本発明を適用して指示内容の修正操作を容易にすることができる。
In the above embodiment, as the instructional utterance by the user U, the utterance instructing the search condition of the destination with respect to the
また、上記実施形態では、音声操作システム2を、ナビゲーション装置1の機能の一部として構成したが、音声操作システム2を、例えば、ラジオ受信機の音声操作部として構成してもよい。この場合、音声操作システム2は、利用者Uによる「ラジオをつけて」のみの発話に対して、受信するラジオ局(放送局名やチャンネル名等により、FM、AM、衛星等の放送周波数が特定される)を、利用者の行動習慣に基づいて、発話がなされた時間帯に利用者Uがよく聴くラジオ放送局に決定するようにしてもよい。また、この場合に、音声操作システム2は、利用者の行動習慣に基づいて、平日と休日で異なるラジオ局を決定するようにしてもよい。
Further, in the above embodiment, the
上記実施形態では、指示候補訂正部13は、第1候補報知を行ってから第2候補報知を行うまでの間に、誤り確認報知と訂正確認報知を行ったが、誤り確認報知と訂正確認報知とのうちのいずれか一方のみを行ってもよく、両報知を省略してもよい。
In the above embodiment, the instruction
また、音声操作システム2の構成を、操作支援サーバー110に備えてもよい。この場合、操作支援サーバー110は、ナビゲーション装置1から送信される利用者Uの発話データを受信して発話内容を認識し、指示発話と利用者の行動習慣とに基づいて第1指示候補を決定する。また、操作支援サーバー110は、訂正指示発話による指示に応じて第1指示指示を訂正することにより、第2指示候補を決定する。そして、操作支援サーバー110は、第1候補指示及び第2候補指示の情報を、ナビゲーション装置1に送信する構成となる。
Further, the operation support server 110 may be provided with the configuration of the
上記実施形態では、ナビゲーション装置1に備えられたマイク31により利用者Uの発話を入力し、ナビゲーション装置1に備えられたスピーカー32から、音声操作システム2による応答音声を出力した。他の構成として、利用者端末90に備えられたマイク(図示しない)により利用者Uの発話を入力して、発話データを利用者端末90からナビゲーション装置1に送信するようにしてもよい。また、ナビゲーション装置1から利用者端末90に、応答音声データを送信して、利用者端末90のスピーカー(図示しない)から、応答音声を出力するようにしてもよい。
In the above embodiment, the utterance of the user U is input by the
上記実施形態では、行動習慣推定部16を備えて、指示候補決定部12は、行動習慣推定部16により推定された利用者Uの行動習慣に基づいて、第1探索条件を決定したが、行動習慣推定部16を省略した構成としてもよい。
In the above embodiment, the behavior
上記実施形態では、指示候補決定部12をAIエンジンを用いて構成したが、AIエンジンを用いない構成としてもよい。
In the above embodiment, the instruction
なお、図1は、本願発明の理解を容易にするために、音声操作システム2の機能構成を、主な処理内容により区分して示した概略図であり、音声操作システム2の構成を、他の区分によって構成してもよい。また、各構成要素の処理は、1つのハードウェアユニットにより実行されてもよいし、複数のハードウェアユニットにより実行されてもよい。また、各構成要素の処理は、1つのプログラムにより実行されてもよいし、複数のプログラムにより実行されてもよい。
Note that FIG. 1 is a schematic view showing the functional configuration of the
1…ナビゲーション装置、2…音声操作システム、10…CPU、11…発話認識部、12…指示候補決定部、13…指示候補訂正部、14…所定処理実行部、15…行動履歴保存部、16…行動習慣推定部、20…メモリ、21…制御用プログラム、22…利用者データ、23…地図データ、30…通信部、31…マイク、32…スピーカー、33…タッチパネル、34…スイッチ、35…GPSユニット、90…利用者端末、100…通信ネットワーク、110…操作支援サーバー、U…利用者。
1 ... Navigation device, 2 ... Voice operation system, 10 ... CPU, 11 ... Speaking recognition unit, 12 ... Instruction candidate determination unit, 13 ... Instruction candidate correction unit, 14 ... Predetermined processing execution unit, 15 ... Action history storage unit, 16 ... Behavior habit estimation unit, 20 ... Memory, 21 ... Control program, 22 ... User data, 23 ... Map data, 30 ... Communication unit, 31 ... Mike, 32 ... Speaker, 33 ... Touch panel, 34 ... Switch, 35 ... GPS unit, 90 ... user terminal, 100 ... communication network, 110 ... operation support server, U ... user.
Claims (8)
前記発話認識部により認識された前記利用者の指示発話に基づいて、前記利用者による指示内容を認識又は推定することにより、第1指示候補を決定する指示候補決定部と、
前記第1指示候補又は前記第1指示候補に応じた第1所定処理の実行状況を、音声により出力する第1候補報知を行い、前記第1候補報知に応じて、前記第1指示候補による指示内容の訂正を指示する訂正指示発話が前記発話認識部により認識されたときに、前記第1指示候補を前記訂正指示発話による指示に応じて訂正した第2指示候補を決定し、前記第2指示候補の内容又は前記第2指示候補に応じた第2所定処理の実行状況を、音声により出力する第2候補報知を行う指示候補訂正部と
を備える音声操作システム。 The utterance recognition unit that recognizes the user's utterance,
An instruction candidate determination unit that determines a first instruction candidate by recognizing or estimating the instruction content by the user based on the instruction utterance of the user recognized by the utterance recognition unit.
The first candidate notification that outputs the execution status of the first instruction candidate or the first predetermined process according to the first instruction candidate by voice is performed, and the instruction by the first instruction candidate is performed in response to the first candidate notification. When the correction instruction utterance instructing the correction of the content is recognized by the utterance recognition unit, the second instruction candidate in which the first instruction candidate is corrected according to the instruction by the correction instruction utterance is determined, and the second instruction is determined. A voice operation system including an instruction candidate correction unit that outputs a second candidate notification by voice output of the content of the candidate or the execution status of the second predetermined process according to the second instruction candidate.
請求項1に記載の音声操作システム。 When the first instruction candidate includes the first instruction element of the predetermined genre and the correction instruction utterance includes the second instruction element of the predetermined genre, the instruction candidate correction unit sets the first instruction element. The voice operation system according to claim 1, wherein the second instruction candidate is determined by making corrections based on the second instruction element.
前記指示候補決定部は、前記第1指示候補として目的地の第1探索条件を決定し、
前記指示候補訂正部は、前記第2指示候補として、前記第1探索条件を前記訂正指示発話による指示に応じて訂正した第2探索条件を決定し、前記所定ジャンルは、目的地の場所、目的地への出発日時、目的地である施設の評価ランク、目的地である施設の種類、及び前記利用者が複数である場合の利用者の識別情報のうちのいずれかである
請求項2に記載の音声操作システム。 The voice operation system is used to instruct the search condition of the destination in the navigation device.
The instruction candidate determination unit determines the first search condition of the destination as the first instruction candidate.
The instruction candidate correction unit determines, as the second instruction candidate, a second search condition in which the first search condition is corrected according to the instruction by the correction instruction utterance, and the predetermined genre is the location and purpose of the destination. The description in claim 2, which is one of the departure date and time to the place, the evaluation rank of the facility as the destination, the type of the facility as the destination, and the identification information of the user when there are a plurality of users. Voice control system.
請求項1から請求項3のうちいずれか1項に記載の音声操作システム。 In the instruction candidate correction unit, the first instruction candidate is different from the instruction content intended by the user between the time when the correction instruction utterance is recognized by the utterance recognition unit and the time when the second candidate notification is performed. The voice operation system according to any one of claims 1 to 3, wherein an error confirmation notification is performed to notify the fact that the system has been used by voice.
請求項1から請求項4のうちいずれか1項に記載の音声操作システム。 The instruction candidate correction unit is a correction confirmation notification that notifies the correction contents of the first instruction candidate by voice between the time when the correction instruction utterance is recognized by the utterance recognition unit and the time when the second candidate notification is performed. The voice operation system according to any one of claims 1 to 4.
前記指示候補決定部は、前記指示発話から前記利用者が意図する指示内容を特定することができない場合に、前記指示発話に含まれる指示要素と、前記行動習慣推定部により推定される前記利用者の行動習慣とに基づいて、前記第1指示候補を決定する
請求項1から請求項5のうちいずれか1項に記載の音声操作システム。 It is equipped with a behavior habit estimation unit that estimates the behavior habits of the user.
When the instruction candidate determination unit cannot specify the instruction content intended by the user from the instruction utterance, the instruction element included in the instruction utterance and the user estimated by the behavior habit estimation unit. The voice operation system according to any one of claims 1 to 5, which determines the first instruction candidate based on the behavioral habits of the above.
前記発話認識部により前記利用者の発話が認識される発話認識ステップと、
前記発話認識ステップにより認識された前記利用者の指示発話に基づいて、前記利用者による指示内容を認識又は推定することにより、第1指示候補を決定する第1指示候補決定ステップと、
前記第1指示候補又は前記第1指示候補に応じた第1所定処理の実行状況を、音声により出力する第1候補報知ステップと、
前記第1候補報知ステップに応じて、前記第1指示候補による指示内容の訂正を指示する訂正指示発話が前記発話認識部により認識された場合、前記訂正指示発話による指示に応じて前記第1指示候補から訂正された第2指示候補を決定する第2指示候補決定ステップと、
前記第2指示候補の内容又は前記第2指示候補に応じた第2所定処理の実行状況を、音声により出力する第2候補報知ステップと
を含む音声操作制御方法。 A voice operation control method performed by a single computer or a plurality of computers having an utterance recognition unit that recognizes a user's utterance.
An utterance recognition step in which the user's utterance is recognized by the utterance recognition unit, and
The first instruction candidate determination step for determining the first instruction candidate by recognizing or estimating the instruction content by the user based on the instruction utterance of the user recognized by the utterance recognition step.
A first candidate notification step that outputs the execution status of the first instruction candidate or the first predetermined process corresponding to the first instruction candidate by voice, and
When the utterance recognition unit recognizes the correction instruction utterance instructing the correction of the instruction content by the first instruction candidate in response to the first candidate notification step, the first instruction is given in response to the instruction by the correction instruction utterance. The second instruction candidate determination step for determining the second instruction candidate corrected from the candidates, and
A voice operation control method including a second candidate notification step that outputs the content of the second instruction candidate or the execution status of the second predetermined process according to the second instruction candidate by voice.
利用者の発話を認識する発話認識処理と、
前記発話認識処理により認識された前記利用者の指示発話に基づいて、前記利用者による指示内容を認識又は推定することにより、第1指示候補を決定する第1指示候補決定処理と、
前記第1指示候補又は前記第1指示候補に応じた第1所定処理の実行状況を、音声により出力する第1候補報知処理と、
前記第1候補報知処理に応じて、前記第1指示候補による指示内容の訂正を指示する訂正指示発話が前記発話認識処理により認識された場合、前記訂正指示発話による指示に応じて前記第1指示候補から訂正された第2指示候補を決定する第2指示候補決定処理と、
前記第2指示候補の内容又は前記第2指示候補に応じた第2所定処理の実行状況を、音声により出力する第2候補報知処理と
を実行させる音声操作制御プログラム。
Installed on one or more computers,
Utterance recognition processing that recognizes the user's utterance,
The first instruction candidate determination process for determining the first instruction candidate by recognizing or estimating the instruction content by the user based on the instruction utterance of the user recognized by the utterance recognition process.
The first candidate notification process that outputs the execution status of the first instruction candidate or the first predetermined process according to the first instruction candidate by voice, and
When the correction instruction utterance instructing the correction of the instruction content by the first instruction candidate is recognized by the utterance recognition process in response to the first candidate notification process, the first instruction is given in response to the instruction by the correction instruction utterance. The second instruction candidate determination process for determining the second instruction candidate corrected from the candidates, and
A voice operation control program that executes a second candidate notification process that outputs the content of the second instruction candidate or the execution status of the second predetermined process according to the second instruction candidate by voice.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019089627A JP2020187163A (en) | 2019-05-10 | 2019-05-10 | Voice operation system, voice operation control method and voice operation control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019089627A JP2020187163A (en) | 2019-05-10 | 2019-05-10 | Voice operation system, voice operation control method and voice operation control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020187163A true JP2020187163A (en) | 2020-11-19 |
Family
ID=73221658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019089627A Pending JP2020187163A (en) | 2019-05-10 | 2019-05-10 | Voice operation system, voice operation control method and voice operation control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020187163A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023515897A (en) * | 2020-04-20 | 2023-04-14 | エーアイ スピーチ カンパニー リミテッド | Correction method and apparatus for voice dialogue |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002297185A (en) * | 2001-03-29 | 2002-10-11 | Pioneer Electronic Corp | Device and method for information processing |
JP2003208196A (en) * | 2002-01-11 | 2003-07-25 | Matsushita Electric Ind Co Ltd | Speech interaction method and apparatus |
JP2006184421A (en) * | 2004-12-27 | 2006-07-13 | Nissan Motor Co Ltd | Speech recognition device and speech recognition method |
JP2007127896A (en) * | 2005-11-04 | 2007-05-24 | Nissan Motor Co Ltd | Voice recognition device and voice recognition method |
-
2019
- 2019-05-10 JP JP2019089627A patent/JP2020187163A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002297185A (en) * | 2001-03-29 | 2002-10-11 | Pioneer Electronic Corp | Device and method for information processing |
JP2003208196A (en) * | 2002-01-11 | 2003-07-25 | Matsushita Electric Ind Co Ltd | Speech interaction method and apparatus |
JP2006184421A (en) * | 2004-12-27 | 2006-07-13 | Nissan Motor Co Ltd | Speech recognition device and speech recognition method |
JP2007127896A (en) * | 2005-11-04 | 2007-05-24 | Nissan Motor Co Ltd | Voice recognition device and voice recognition method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023515897A (en) * | 2020-04-20 | 2023-04-14 | エーアイ スピーチ カンパニー リミテッド | Correction method and apparatus for voice dialogue |
JP7413568B2 (en) | 2020-04-20 | 2024-01-15 | エーアイ スピーチ カンパニー リミテッド | Method and device for correcting spoken dialogue |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2642150C2 (en) | Method and device for programmable control of user's motion path to elevator/escalator | |
US9188456B2 (en) | System and method of fixing mistakes by going back in an electronic device | |
US10540969B2 (en) | Voice operating system, server device, on-vehicle device, and voice operating method | |
CN108055642B (en) | Control method and device of positioning module, storage medium and mobile terminal | |
US20140100847A1 (en) | Voice recognition device and navigation device | |
WO2015162638A1 (en) | User interface system, user interface control device, user interface control method and user interface control program | |
CN102037328A (en) | Navigation apparatus, server apparatus and method of providing point of interest data | |
CN101610315A (en) | Be used for controlling the equipment and the method for the location alarm of portable terminal | |
JP2023179631A (en) | Information processing device | |
JP2013015360A (en) | Navigation system, navigation device, and information providing server | |
US20090102676A1 (en) | Context-relative reminders | |
JP6281202B2 (en) | Response control system and center | |
JP2020187163A (en) | Voice operation system, voice operation control method and voice operation control program | |
US20200341729A1 (en) | Voice operation system, voice operation device, voice operation control method, and recording medium having voice operation control program recorded therein | |
JP2015141226A (en) | Information processing device | |
JP6563451B2 (en) | Movement support apparatus, movement support system, movement support method, and movement support program | |
CN101424537A (en) | Navigating point code establishing method, navigation starting method and relevant apparatus thereof | |
JP2007163226A (en) | Navigation apparatus | |
JP2015175818A (en) | navigation device | |
JP2021103903A (en) | Electronic apparatus, control method, and program | |
JP2017181631A (en) | Information controller | |
JP2006266965A (en) | System, method and program for navigation | |
CN111102990A (en) | Position determination method, device and equipment | |
JP2006284677A (en) | Voice guiding device, and control method and control program for voice guiding device | |
JP4941494B2 (en) | Speech recognition system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221125 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230328 |