JP2019105756A - On-vehicle voice output device - Google Patents

On-vehicle voice output device Download PDF

Info

Publication number
JP2019105756A
JP2019105756A JP2017238601A JP2017238601A JP2019105756A JP 2019105756 A JP2019105756 A JP 2019105756A JP 2017238601 A JP2017238601 A JP 2017238601A JP 2017238601 A JP2017238601 A JP 2017238601A JP 2019105756 A JP2019105756 A JP 2019105756A
Authority
JP
Japan
Prior art keywords
user
unit
voice output
voice
output device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017238601A
Other languages
Japanese (ja)
Inventor
有紀也 山根
Yukiya Yamane
有紀也 山根
真規 塚本
Masaki Tsukamoto
真規 塚本
池田 淳
Atsushi Ikeda
淳 池田
英男 長谷川
Hideo Hasegawa
英男 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017238601A priority Critical patent/JP2019105756A/en
Publication of JP2019105756A publication Critical patent/JP2019105756A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide an on-vehicle voice output device capable of improving convenience for a user.SOLUTION: A voice output device 12 is an on-vehicle voice output device for outputting a response to utterance by a user in a vehicle with voice from a voice output unit on the basis of information input to the voice output unit, and comprises an acceptance unit 40 which accepts an execution instruction of first processing uttered by the user, a control unit 42 which controls execution of the first processing, a derivation unit 44 which derives second processing executed in association with the first processing on the basis of the user's situation and other user's action tendency and an output unit 46 which outputs information indicating the second processing to the voice output unit.SELECTED DRAWING: Figure 5

Description

本発明は、車載音声出力装置に関する。   The present invention relates to an on-vehicle audio output device.

特許文献1には、ユーザにより発話された音声コマンドに従って、家電機器を制御する音声制御スイッチが開示されている。   Patent Document 1 discloses a voice control switch for controlling a home appliance according to a voice command uttered by a user.

米国特許出願公開第2017/188437号明細書US Patent Application Publication No. 2017/188437

ところで、例えば、AI(Artificial Intelligence)スピーカー等の音声出力装置に対してユーザが電気機器の制御等の処理を実行させるための発話を行うと、音声出力装置は、発話に対応して予め定められた処理を実行する。   By the way, for example, when a user makes an utterance for causing an audio output device such as an AI (Artificial Intelligence) speaker to execute processing such as control of an electric device, the audio output device is predetermined corresponding to the utterance. Execute the process.

従って、ユーザが音声出力装置に対して複数の処理を連続して実行させるためには、1つ1つの処理を実行させるための発話をユーザが個別に行う必要があり、ユーザにとっての利便性の向上という点で改善の余地がある。   Therefore, in order for the user to execute a plurality of processes continuously on the voice output device, it is necessary for the user to individually perform an utterance for executing each process, which is convenient for the user. There is room for improvement in terms of improvement.

本発明は、以上の事実を考慮して成されたもので、ユーザにとっての利便性を向上させることを目的とする。   The present invention has been made in consideration of the above facts, and aims to improve the convenience for the user.

上記目的を達成するために、請求項1に記載の発明は、車両に乗車しているユーザによる発話に対する応答を、音声出力部に入力された情報に基づいて前記音声出力部から音声により出力する車載音声出力装置であって、前記ユーザにより発話された第1処理の実行指示を受け付ける受付部と、前記第1処理を実行する制御を行う制御部と、前記ユーザの状況、及び他のユーザの行動傾向に基づいて、前記第1処理に関連して行われる第2処理を導出する導出部と、前記第2処理を示す情報を前記音声出力部に出力する出力部と、を備えている。   In order to achieve the above object, the invention according to claim 1 outputs a response to an utterance by a user who is in a vehicle by voice from the voice output unit based on information input to the voice output unit. A vehicle-mounted audio output device, a reception unit receiving an execution instruction of the first process uttered by the user, a control unit performing control to execute the first process, a situation of the user, and other users The output unit includes a deriving unit that derives a second process performed in association with the first process based on the behavior tendency, and an output unit that outputs information indicating the second process to the voice output unit.

請求項1に記載の発明によれば、ユーザの状況、及び他のユーザの行動傾向に基づいて、第1処理に関連して行われる第2処理が導出され、導出された第2処理を示す情報が音声出力部から音声により出力される。従って、ユーザにとっての利便性を向上させることができる。   According to the first aspect of the present invention, the second process performed in relation to the first process is derived based on the user's situation and the action tendency of the other user, and the second process derived is shown. Information is output by voice from the voice output unit. Therefore, the convenience for the user can be improved.

本発明によれば、ユーザにとっての利便性を向上させることができる、という効果が得られる。   According to the present invention, it is possible to improve the convenience for the user.

実施形態に係る音声出力システムの構成の一例を示す図である。It is a figure showing an example of the composition of the speech output system concerning an embodiment. 実施形態に係る行動傾向モデルの一例を示す模式図である。It is a schematic diagram which shows an example of the action tendency model which concerns on embodiment. 実施形態に係る音声出力装置のハードウェア構成の一例を示すブロック図である。It is a block diagram showing an example of the hardware constitutions of the voice output device concerning an embodiment. 実施形態に係る個人用フィードバックデータの一例を示す図である。It is a figure showing an example of personal feedback data concerning an embodiment. 実施形態に係る音声出力装置の機能的な構成の一例を示すブロック図である。It is a block diagram showing an example of functional composition of an audio output device concerning an embodiment. 実施形態に係る音声出力処理の一例を示すフローチャートである。It is a flowchart which shows an example of the audio | voice output process which concerns on embodiment.

以下、図面を参照して、本発明を実施するための形態例を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

まず、図1を参照して、本実施形態に係る音声出力システム10の構成を説明する。図1に示すように、本実施形態に係る音声出力システム10は、車両に乗車しているユーザ11による発話を受け付け、受け付けた発話に対応するアプリケーションを実行し、実行結果を音声により応答する音声出力装置12を含む。本実施形態では、音声出力装置12は、ユーザ11により車両内に持ち込まれている。また、音声出力システム10は、ユーザ11の自宅である家屋内に設置され、設置された家屋内の制御対象の電気機器を制御する制御装置14を含む。なお、制御装置14の制御対象の電気機器の例としては、エアーコンディショナー(以下、「エアコン」という)及び照明機器等の所謂スマートホームにおける制御対象の機器が挙げられる。   First, the configuration of an audio output system 10 according to the present embodiment will be described with reference to FIG. As shown in FIG. 1, the voice output system 10 according to the present embodiment receives an utterance by a user 11 who is in a vehicle, executes an application corresponding to the accepted utterance, and responds an execution result by voice. An output device 12 is included. In the present embodiment, the voice output device 12 is brought into the vehicle by the user 11. In addition, the voice output system 10 includes a control device 14 installed in a house which is a home of the user 11 and controlling an electric device to be controlled in the installed house. In addition, as an example of the electric equipment of the control object of the control apparatus 14, the apparatus of the control object in what is called a smart home, such as an air conditioner (henceforth "air-conditioner") and lighting equipment, is mentioned.

なお、以下では、図1に示す音声出力装置12を使用するユーザを意味する場合は、「ユーザ11」と符号を付し、ユーザ11を含む音声出力システム10の複数のユーザを意味する場合は、符号を付さずに「ユーザ」という。   In addition, in the following, when meaning the user who uses the audio | voice output device 12 shown in FIG. 1, a code | symbol is attached with "user 11", and when meaning several users of the audio | voice output system 10 containing the user 11, It is called a "user" without a code.

音声出力装置12及び制御装置14は、それぞれネットワークNに無線通信によって接続される。また、ネットワークNには、クラウドサーバ16が接続される。従って、音声出力装置12と制御装置14とクラウドサーバ16とは、ネットワークNを介して互いに通信が可能とされる。また、クラウドサーバ16の所定の記憶領域には、行動傾向モデル17が記憶される。   The voice output device 12 and the control device 14 are each connected to the network N by wireless communication. Also, the cloud server 16 is connected to the network N. Therefore, the voice output device 12, the control device 14, and the cloud server 16 can communicate with each other via the network N. Further, the behavior tendency model 17 is stored in a predetermined storage area of the cloud server 16.

本実施形態に係る行動傾向モデル17は、多数のユーザの行動傾向を表すモデルである。具体的には、行動傾向モデル17は、ユーザの状況(例えば、「仕事の帰り」及び「運動をした帰り」等)と、ユーザからの第1処理の実行指示(例えば、「エアコンをオン」及び「風呂の湯はり」等の発話)を入力とし、第1処理に関連して行われる第2処理を出力とする学習済みモデルである。行動傾向モデル17は、例えば、多数のユーザにおけるユーザの状況と第1処理と第1処理に関連して行われた第2処理との複数の組み合わせを教師用データとして用いて、機械学習を行うことによって得られた学習済みモデルである。なお、機械学習の手法としては、例えば、ニューラルネットワークが挙げられる。   The behavior tendency model 17 according to the present embodiment is a model that represents behavior tendencies of a large number of users. Specifically, the behavior tendency model 17 includes the user's situation (for example, "return from work" and "return from exercise", etc.) and an instruction to execute the first process from the user (for example, "turn on the air conditioner"). And a speech such as "bath water" and the like, and is a learned model whose output is a second process performed in relation to the first process. The behavior tendency model 17 performs machine learning using, for example, a plurality of combinations of the user's situation among a large number of users, the first process, and the second process performed in relation to the first process as teacher data. It is a learned model obtained by In addition, as a method of machine learning, a neural network is mentioned, for example.

図2に、行動傾向モデル17の模式図の一例を示す。図2に示すように、本実施形態に係る行動傾向モデル17では、ユーザの状況毎に、第1処理と第2処理との関連度が導出される。そして、行動傾向モデル17は、入力されたユーザの状況及び第1処理に対応する第2処理であって、関連度が所定の閾値以上の第2処理を出力する。なお、関連度として、例えば、対応するユーザの状況下において、第1処理に連続して第2処理が実行された確率が挙げられる。   An example of the schematic diagram of the action tendency model 17 is shown in FIG. As shown in FIG. 2, in the behavior tendency model 17 according to the present embodiment, the degree of association between the first process and the second process is derived for each situation of the user. The behavior tendency model 17 is a second process corresponding to the input user's situation and the first process, and outputs a second process having a degree of association equal to or higher than a predetermined threshold. In addition, as the degree of association, for example, the probability that the second process is continuously performed to the first process under the situation of the corresponding user can be mentioned.

次に、図3を参照して、音声出力装置12のハードウェア構成を説明する。図3に示すように、音声出力装置12は、CPU(Central Processing Unit)21、一時記憶領域としてのメモリ22、及び不揮発性の記憶部23を含む。また、音声出力装置12は、外部装置との通信を行う際に用いられる通信I/F(InterFace)24、液晶ディスプレイ等の表示部25、マイク等の音声入力部26、及びスピーカー等の情報を音声により車室内に出力する音声出力部27を含む。CPU21、メモリ22、記憶部23、通信I/F24、表示部25、音声入力部26、及び音声出力部27は、バス28に接続される。なお、音声出力装置12の例としては、AIスピーカーが挙げられる。   Next, the hardware configuration of the audio output device 12 will be described with reference to FIG. As shown in FIG. 3, the audio output device 12 includes a central processing unit (CPU) 21, a memory 22 as a temporary storage area, and a non-volatile storage unit 23. The audio output device 12 also includes information such as a communication I / F (InterFace) 24 used when communicating with an external device, a display unit 25 such as a liquid crystal display, an audio input unit 26 such as a microphone, and a speaker. It includes an audio output unit 27 that outputs the sound into the vehicle compartment. The CPU 21, the memory 22, the storage unit 23, the communication I / F 24, the display unit 25, the voice input unit 26, and the voice output unit 27 are connected to the bus 28. An example of the audio output device 12 is an AI speaker.

記憶部23には、個人用フィードバック(FB)データ30及び音声出力プログラム32が記憶される。図4に、個人用FBデータ30の一例を示す。図4に示すように、本実施形態に係る個人用FBデータ30には、ユーザ11の状況と第1処理の実行指示との組み合わせに対応して、音声出力装置12がユーザ11に第2処理を音声により提示した場合のユーザ11からの応答が肯定的な応答(すなわち、第2処理を実行する旨の応答)であった確率(図4では「肯定率」と表記)が記憶される。   The storage unit 23 stores personal feedback (FB) data 30 and an audio output program 32. An example of the personal FB data 30 is shown in FIG. As shown in FIG. 4, in the personal FB data 30 according to the present embodiment, the voice output device 12 performs the second process on the user 11 corresponding to the combination of the situation of the user 11 and the execution instruction of the first process. The probability (in FIG. 4, expressed as “affirmation rate”) is stored that the response from the user 11 in the case of presenting by voice is a positive response (that is, a response indicating that the second process is to be performed).

次に、図5を参照して、本実施形態に係る音声出力装置12の機能的な構成を説明する。図5に示すように、音声出力装置12は、受付部40、制御部42、導出部44、及び出力部46を含む。音声出力装置12のCPU21が記憶部23に記憶された音声出力プログラム32を実行することにより、図5に示す受付部40、制御部42、導出部44、及び出力部46として機能する。   Next, the functional configuration of the audio output device 12 according to the present embodiment will be described with reference to FIG. As shown in FIG. 5, the audio output device 12 includes a reception unit 40, a control unit 42, a derivation unit 44, and an output unit 46. The CPU 21 of the voice output device 12 executes the voice output program 32 stored in the storage unit 23 to function as the reception unit 40, the control unit 42, the derivation unit 44, and the output unit 46 shown in FIG.

受付部40は、ユーザ11により発話された第1処理の実行指示を、音声入力部26を介して受け付ける。また、受付部40は、音声出力部27から音声により出力された第2処理を示す情報に対してユーザ11により発話された応答を、音声入力部26を介して受け付ける。また、受付部40は、受け付けた応答に従って、個人用FBデータ30の対応する肯定率を更新する。   The receiving unit 40 receives the execution instruction of the first process uttered by the user 11 via the voice input unit 26. Also, the receiving unit 40 receives, via the voice input unit 26, a response uttered by the user 11 with respect to the information indicating the second process output by voice from the voice output unit 27. Further, the receiving unit 40 updates the corresponding affirmation rate of the personal FB data 30 according to the received response.

制御部42は、受付部40により受け付けられた第1処理を実行する制御を行う。本実施形態では、制御部42は、第1処理を実行する指示を示す指示情報を、通信I/F24を介して制御装置14に送信することによって、第1処理を実行する制御を行う。また、制御部42は、受付部40によって受け付けられた、第2処理を示す情報に対してユーザ11により発話された応答が肯定的な応答である場合、第2処理を実行する制御を行う。本実施形態では、制御部42は、第2処理を実行する指示を示す指示情報を、通信I/F24を介して制御装置14に送信することによって、第2処理を実行する制御を行う。   The control unit 42 performs control to execute the first process received by the receiving unit 40. In the present embodiment, the control unit 42 performs control to execute the first process by transmitting instruction information indicating an instruction to execute the first process to the control device 14 via the communication I / F 24. In addition, when the response uttered by the user 11 with respect to the information indicating the second process accepted by the accepting unit 40 is a positive response, the control unit 42 performs control to execute the second process. In the present embodiment, the control unit 42 performs control to execute the second process by transmitting instruction information indicating an instruction to execute the second process to the control device 14 via the communication I / F 24.

また、制御部42は、第1処理に対応して第2処理を実行したか否かを示す情報を、通信I/F24を介してクラウドサーバ16に送信(フィードバック)する。クラウドサーバ16では、第1処理に対応して第2処理が実行されなかった場合は、行動傾向モデル17の対応する関連度を下げ、実行された場合は、行動傾向モデル17の対応する関連度を上げる。   Further, the control unit 42 transmits (feedbacks) information indicating whether or not the second process has been performed in response to the first process to the cloud server 16 via the communication I / F 24. In the cloud server 16, if the second process is not executed corresponding to the first process, the corresponding degree of association of the behavioral tendency model 17 is lowered, and if it is executed, the corresponding degree of association of the behavioral tendency model 17 Raise

導出部44は、他のユーザの行動傾向に基づいて、受付部40により受け付けられた第1処理に関連して行われる第2処理を導出する。本実施形態では、導出部44は、まず、ユーザ11の状況を特定する。例えば、導出部44は、ユーザ11が使用するスケジューラソフトウェアから、ユーザ11の予定を取得することによって、現在のユーザ11の状況(例えば、「仕事帰り」や「運動をした帰り」等)を特定する。なお、導出部44は、現在のユーザ11の状況を質問する音声を音声出力部27から出力させ、出力させた音声に対するユーザ11による応答を、音声入力部26を介して取得することによって現在のユーザ11の状況を特定してもよい。   The deriving unit 44 derives a second process performed in association with the first process received by the receiving unit 40 based on the behavior tendency of another user. In the present embodiment, the derivation unit 44 first identifies the situation of the user 11. For example, the derivation unit 44 specifies the current situation of the user 11 (for example, “work return” or “return from exercise”) by acquiring the schedule of the user 11 from the scheduler software used by the user 11 Do. Note that the derivation unit 44 causes the voice output unit 27 to output a voice for asking the current situation of the user 11, and acquires a response by the user 11 to the outputted voice via the voice input unit 26. The situation of the user 11 may be specified.

次に、導出部44は、特定したユーザ11の状況及び受付部40により受け付けられた第1処理を示す情報を、通信I/F24を介してクラウドサーバ16に送信する。クラウドサーバ16は、音声出力装置12から送信されたユーザ11の状況及び第1処理を示す情報を受信し、受信したユーザ11の状況及び第1処理を示す情報を行動傾向モデル17に入力する。また、クラウドサーバ16は、入力したユーザ11の状況及び第1処理を示す情報に対応して行動傾向モデル17から出力された第2処理を示す情報を音声出力装置12に送信する。導出部44は、クラウドサーバ16から送信された第2処理を示す情報を、通信I/F24を介して受信する。   Next, the derivation unit 44 transmits the information indicating the identified status of the user 11 and the first process received by the reception unit 40 to the cloud server 16 via the communication I / F 24. The cloud server 16 receives the information indicating the state of the user 11 and the first process transmitted from the voice output device 12, and inputs the received information indicating the state of the user 11 and the first process to the behavior tendency model 17. In addition, the cloud server 16 transmits, to the voice output device 12, information indicating the second process output from the behavior tendency model 17 in response to the information indicating the input user's 11 situation and the first process. The derivation unit 44 receives the information indicating the second process transmitted from the cloud server 16 through the communication I / F 24.

次に、導出部44は、受信した情報が示す第2処理の数が1つの場合、受信した第2処理を示す情報を出力部46に出力する。また、導出部44は、受信した情報が示す第2処理の数が複数の場合、個人用FBデータ30を参照し、特定したユーザ11の状況、受付部40により受け付けられた第1処理、及び受信した第2処理の組み合わせに対応する肯定率が最も高い第2処理を示す情報を出力部46に出力する。   Next, when the number of second processes indicated by the received information is one, the derivation unit 44 outputs information indicating the received second processes to the output unit 46. Further, when the number of second processes indicated by the received information is more than one, the derivation unit 44 refers to the personal FB data 30, and identifies the status of the identified user 11, the first process accepted by the accepting unit 40, and Information indicating the second process having the highest positive rate corresponding to the received combination of the second processes is output to the output unit 46.

なお、例えば、導出部44は、肯定率が所定値未満の場合に、第1処理に関連する第2処理が存在しないことを示す情報を出力部46に出力してもよい。また、例えば、導出部44は、同一の第2処理を示す情報に対してユーザ11により否定的な応答が所定回数連続した場合に、第1処理に関連する第2処理が存在しないことを示す情報を出力部46に出力してもよい。   Note that, for example, when the affirmation rate is less than the predetermined value, the derivation unit 44 may output, to the output unit 46, information indicating that the second process related to the first process does not exist. Further, for example, when a negative response continues by the user 11 a predetermined number of times for the information indicating the same second process, the derivation unit 44 indicates that the second process related to the first process does not exist. The information may be output to the output unit 46.

出力部46は、導出部44から入力された第2処理を示す情報を音声出力部27に出力する。これにより、音声出力部27は、出力部46から入力された第2処理を示す情報を音声により出力する。   The output unit 46 outputs the information indicating the second process input from the derivation unit 44 to the audio output unit 27. Thereby, the audio output unit 27 outputs the information indicating the second process input from the output unit 46 by audio.

次に、図6を参照して、本実施形態に係る音声出力装置12の作用について説明する。なお、図6は、本実施形態に係る音声出力装置12のCPU21で実行される音声出力処理の流れの一例を示すフローチャートである。また、本実施形態では、図6に示す音声出力処理は、記憶部23に予め記憶された音声出力プログラム32をCPU21が実行することにより実行される。また、図6に示す音声出力処理は、例えば、ユーザ11により発話された第1処理の実行指示が音声出力装置12に入力された場合に実行される。   Next, the operation of the audio output device 12 according to the present embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing an example of the flow of audio output processing executed by the CPU 21 of the audio output device 12 according to the present embodiment. Further, in the present embodiment, the voice output process shown in FIG. 6 is executed by the CPU 21 executing the voice output program 32 stored in advance in the storage unit 23. The voice output process shown in FIG. 6 is executed, for example, when an instruction to execute the first process uttered by the user 11 is input to the voice output device 12.

図6のステップS10で、受付部40は、ユーザ11により発話された第1処理の実行指示を、音声入力部26を介して受け付ける。ステップS12で、制御部42は、前述したように、ステップS10の処理により受け付けられた第1処理を実行する制御を行う。   In step S10 of FIG. 6, the receiving unit 40 receives, via the voice input unit 26, an instruction to execute the first process uttered by the user 11. In step S12, as described above, the control unit 42 performs control to execute the first process received in the process of step S10.

ステップS14で、導出部44は、前述したように、現在のユーザ11の状況を特定する。また、導出部44は、特定したユーザ11の状況、及びステップS10の処理により受け付けられた第1処理を示す情報を、通信I/F24を介してクラウドサーバ16に送信する。また、導出部44は、送信した情報に対応してクラウドサーバ16から返信された第2処理を示す情報を、通信I/F24を介して受信することにより、ステップS10の処理により受け付けられた第1処理に関連して行われる第2処理を導出する。そして、導出部44は、前述したように、導出した第2処理の数が1つの場合は、導出した第2処理を示す情報を出力部46に出力し、複数の場合は、個人用FBデータ30を参照し、肯定率が最も高い第2処理を示す情報を出力部46に出力する。   In step S14, the derivation unit 44 specifies the current situation of the user 11 as described above. Further, the derivation unit 44 transmits, to the cloud server 16 via the communication I / F 24, the information indicating the identified status of the user 11 and the first process accepted by the process of step S10. Further, the derivation unit 44 receives, via the communication I / F 24, the information indicating the second process returned from the cloud server 16 in response to the transmitted information, so that the second process is accepted in the process of step S10. 1. Deriving a second process performed in connection with the process. Then, as described above, the derivation unit 44 outputs the information indicating the derived second process to the output unit 46 when the number of derived second processes is one, and in the case of multiple, the personal FB data Referring to 30, the information indicating the second process with the highest positive rate is output to the output unit 46.

ステップS16で、出力部46は、ステップS14の処理により導出部44から入力された第2処理を示す情報を音声出力部27に出力する。このステップS16の処理により、音声出力部27は、出力部46から入力された第2処理を示す情報を音声により出力する。例えば、図2及び図4に示す例において、ユーザ11の状況が「運動をした帰り」であり、ユーザ11から「風呂にお湯を入れて」という発話が音声出力装置12に入力された場合、音声出力装置12から「エアコンのオンも実行しますか?」という音声が出力される。   In step S16, the output unit 46 outputs, to the voice output unit 27, information indicating the second process input from the derivation unit 44 in the process of step S14. By the process of step S16, the audio output unit 27 outputs the information indicating the second process input from the output unit 46 by voice. For example, in the example shown in FIG. 2 and FIG. 4, when the situation of the user 11 is “the return from exercise” and the utterance “put hot water into the bath” is input from the user 11 to the voice output device 12 The voice output device 12 outputs a voice "Do you also want to turn on the air conditioner?"

ユーザ11は、音声出力装置12から音声により出力された第2処理を示す情報に対し、肯定的な応答(例えば、「YES」)、又は否定的な応答(例えば、「NO」)を発話する。ステップS18で、受付部40は、ステップS16の処理により音声出力部27から音声により出力された第2処理を示す情報に対してユーザ11により発話された応答を受け付ける。ステップS20で、ステップS18の処理により受け付けられた応答に従って、個人用FBデータ30の対応する肯定率を更新する。   The user 11 utters a positive response (for example, “YES”) or a negative response (for example, “NO”) to the information indicating the second process output by voice from the voice output device 12 . In step S18, the receiving unit 40 receives a response uttered by the user 11 with respect to the information indicating the second process output by voice from the voice output unit 27 in the process of step S16. In step S20, the corresponding affirmation rate of the personal FB data 30 is updated according to the response accepted by the process of step S18.

ステップS22で、制御部42は、ステップS18の処理により受け付けられた応答が肯定的な応答であるか否かを判定する。この判定が肯定判定となった場合は、処理はステップS24に移行する。ステップS24で、制御部42は、前述したように、ステップS14の処理により導出された第2処理を実行する制御を行う。   In step S22, the control unit 42 determines whether the response accepted in the process of step S18 is a positive response. If the determination is affirmative, the process proceeds to step S24. In step S24, as described above, the control unit 42 performs control to execute the second process derived in the process of step S14.

一方、ステップS22の判定が否定判定となった場合は、ステップS24の処理は実行されずに、処理はステップS26に移行する。ステップS26で、制御部42は、前述したように、第1処理に対応して第2処理を実行したか否かを示す情報を、通信I/F24を介してクラウドサーバ16にフィードバックする。ステップS26の処理が終了すると、音声出力処理が終了する。   On the other hand, if the determination in step S22 is a negative determination, the process proceeds to step S26 without the process of step S24 being performed. In step S26, as described above, the control unit 42 feeds back, to the cloud server 16 via the communication I / F 24, information indicating whether or not the second process has been executed corresponding to the first process. When the process of step S26 ends, the voice output process ends.

以上説明したように、本実施形態によれば、他のユーザの行動傾向に基づいて、第1処理に関連して行われる第2処理が音声によりユーザ11に提示される。従って、ユーザ11は、第1処理の実行指示を音声出力装置12に発話することによって、第1処理に関連する第2処理を把握することができ、提示された第2処理に対して応答することによって第2処理の実行指示を行うことができる。この結果、ユーザ11にとっての利便性を向上させることができる。   As described above, according to the present embodiment, the second process performed in association with the first process is presented to the user 11 by voice based on the action tendency of another user. Therefore, the user 11 can grasp the second process related to the first process by uttering the execution instruction of the first process to the voice output device 12, and responds to the presented second process. Thus, the execution instruction of the second process can be performed. As a result, the convenience for the user 11 can be improved.

なお、上記実施形態では、音声出力装置12が車両内に存在する場合について説明したが、これに限定されない。音声出力装置12は、車両内以外の場所に存在する形態としてもよい。   In addition, although the said embodiment demonstrated the case where the audio | voice output device 12 existed in the vehicle, it is not limited to this. The voice output device 12 may be in a form other than in the vehicle.

また、上記実施形態において、ユーザ11の状況に加えて、更にユーザ11がいる位置の天気及び環境温度等の環境条件も用いて、第1処理に関連する第2処理を導出する形態としてもよい。この場合、行動傾向モデル17が、状況と環境条件との組み合わせ毎に第1処理と第2処理との関連度を導出する形態が例示される。   Further, in the above embodiment, the second process related to the first process may be derived using environmental conditions such as the weather at the position where the user 11 is located and environmental temperature in addition to the situation of the user 11 . In this case, the behavior tendency model 17 exemplifies a form in which the degree of association between the first process and the second process is derived for each combination of the situation and the environmental condition.

また、上記実施形態では、行動傾向モデル17にユーザ11の行動傾向を含める場合について説明したが、これに限定されない。行動傾向モデル17にユーザ11の行動傾向を含めずに、他のユーザの行動傾向に基づいて、第2処理を導出する形態としてもよい。また、上記実施形態において、個人用FBデータ30を用いない形態としてもよい。   Moreover, although the said embodiment demonstrated the case where the action tendency of the user 11 was included in the action tendency model 17, it is not limited to this. The second process may be derived based on the behavior tendency of another user without including the behavior tendency of the user 11 in the behavior tendency model 17. In the above embodiment, the personal FB data 30 may not be used.

また、上記実施形態において、制御装置14が第1処理及び第2処理の少なくとも一方の実行タイミングを制御してもよい。この場合、例えば、音声出力装置12が、カーナビゲーションシステムを制御するECU(Electronic Control Unit)から、車両がユーザ11の自宅に到着する予定の時刻(すなわち、ユーザ11の帰宅予定時刻)を取得し、取得した帰宅予定時刻を制御装置14に送信する形態が例示される。そして、この場合、制御装置14は、音声出力装置12から送信された帰宅予定時刻を受信し、受信した帰宅予定時刻に応じて第1処理及び第2処理の少なくとも一方の実行タイミングを制御する。これにより、各種電気機器の作動に用いられるエネルギーの使用効率を向上させることができる。   Further, in the above embodiment, the control device 14 may control the execution timing of at least one of the first process and the second process. In this case, for example, the voice output device 12 acquires, from an ECU (Electronic Control Unit) that controls the car navigation system, the time when the vehicle is scheduled to arrive at the home of the user 11 (that is, the scheduled home time of the user 11). The form which transmits the acquired going-home scheduled time to the control apparatus 14 is illustrated. Then, in this case, the control device 14 receives the scheduled return time sent from the voice output device 12, and controls the execution timing of at least one of the first processing and the second processing according to the received scheduled return time. Thereby, the use efficiency of the energy used for the operation of various electric appliances can be improved.

また、上記実施形態におけるCPU21により行われる処理は、プログラムを実行することにより行われるソフトウェア処理として説明したが、ハードウェアで行われる処理としてもよい。また、CPU21により行われる処理は、ソフトウェア及びハードウェアの双方を組み合わせて行われる処理としてもよい。また、記憶部23に記憶される音声出力プログラム32は、各種記憶媒体に記憶して流通させてもよい。   Further, although the processing performed by the CPU 21 in the above embodiment has been described as software processing performed by executing a program, it may be processing performed by hardware. Further, the process performed by the CPU 21 may be a process performed by combining both software and hardware. Further, the voice output program 32 stored in the storage unit 23 may be stored in various storage media and distributed.

また、本発明は、上記の形態例に限定されるものではなく、上記の形態例以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。   Further, the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made without departing from the scope of the invention other than the above-described embodiment.

10 音声出力システム
12 音声出力装置
21 CPU(受付部、制御部、導出部、出力部)
22 メモリ
23 記憶部
27 音声出力部
30 個人用FBデータ
32 音声出力プログラム
40 受付部
42 制御部
44 導出部
46 出力部
10 voice output system 12 voice output device 21 CPU (reception unit, control unit, derivation unit, output unit)
22 Memory 23 Storage Unit 27 Voice Output Unit 30 Personalized FB Data 32 Voice Output Program 40 Reception Unit 42 Control Unit 44 Derivation Unit 46 Output Unit

Claims (1)

車両に乗車しているユーザによる発話に対する応答を、音声出力部に入力された情報に基づいて前記音声出力部から音声により出力する車載音声出力装置であって、
前記ユーザにより発話された第1処理の実行指示を受け付ける受付部と、
前記第1処理を実行する制御を行う制御部と、
前記ユーザの状況、及び他のユーザの行動傾向に基づいて、前記第1処理に関連して行われる第2処理を導出する導出部と、
前記第2処理を示す情報を前記音声出力部に出力する出力部と、
を備えた車載音声出力装置。
An on-vehicle voice output device for outputting a response to an utterance by a user who is in a vehicle by voice from the voice output unit based on information input to the voice output unit,
A receiving unit that receives an instruction to execute the first process uttered by the user;
A control unit that performs control to execute the first process;
A deriving unit that derives a second process to be performed in relation to the first process based on the user's situation and an action tendency of another user;
An output unit that outputs information indicating the second process to the audio output unit;
Car audio output device equipped with
JP2017238601A 2017-12-13 2017-12-13 On-vehicle voice output device Pending JP2019105756A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017238601A JP2019105756A (en) 2017-12-13 2017-12-13 On-vehicle voice output device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017238601A JP2019105756A (en) 2017-12-13 2017-12-13 On-vehicle voice output device

Publications (1)

Publication Number Publication Date
JP2019105756A true JP2019105756A (en) 2019-06-27

Family

ID=67061221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017238601A Pending JP2019105756A (en) 2017-12-13 2017-12-13 On-vehicle voice output device

Country Status (1)

Country Link
JP (1) JP2019105756A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001154689A (en) * 1999-11-25 2001-06-08 Nippon Seiki Co Ltd Voice recognition device
JP2003281604A (en) * 2002-03-25 2003-10-03 Hitachi Ltd Display control of operation panel in automatic transaction device
WO2013038440A1 (en) * 2011-09-13 2013-03-21 三菱電機株式会社 Navigation apparatus
WO2014188512A1 (en) * 2013-05-21 2014-11-27 三菱電機株式会社 Voice recognition device, recognition result display device, and display method
JP2015060390A (en) * 2013-09-18 2015-03-30 株式会社Nttドコモ Server device, terminal device, program, system, and method for providing information in response to input of data by user

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001154689A (en) * 1999-11-25 2001-06-08 Nippon Seiki Co Ltd Voice recognition device
JP2003281604A (en) * 2002-03-25 2003-10-03 Hitachi Ltd Display control of operation panel in automatic transaction device
WO2013038440A1 (en) * 2011-09-13 2013-03-21 三菱電機株式会社 Navigation apparatus
WO2014188512A1 (en) * 2013-05-21 2014-11-27 三菱電機株式会社 Voice recognition device, recognition result display device, and display method
JP2015060390A (en) * 2013-09-18 2015-03-30 株式会社Nttドコモ Server device, terminal device, program, system, and method for providing information in response to input of data by user

Similar Documents

Publication Publication Date Title
CN106297781B (en) Control method and controller
JP6683893B2 (en) Processing voice commands based on device topology
CN106257355B (en) Equipment control method and controller
CN108831469B (en) Voice command customizing method, device and equipment and computer storage medium
US10355931B2 (en) Troubleshooting voice-enabled home setup
CN109360558B (en) Voice response method and device
WO2014096506A1 (en) Method, apparatus, and computer program product for personalizing speech recognition
JP2018036397A (en) Response system and apparatus
CN111261151B (en) Voice processing method and device, electronic equipment and storage medium
US20180301149A1 (en) Voice setup instructions
CN111654420A (en) Method and device for controlling household equipment, computer equipment and storage medium
CN108899027A (en) Speech analysis method and device
CN107479400A (en) Control method, device, home appliance and the readable storage medium storing program for executing of home appliance
CN110349575A (en) Method, apparatus, electronic equipment and the storage medium of speech recognition
CN110570855A (en) system, method and device for controlling intelligent household equipment through conversation mechanism
CN113096653A (en) Personalized accent voice recognition method and system based on artificial intelligence
CN107742520A (en) Sound control method, apparatus and system
CN109741744B (en) AI robot conversation control method and system based on big data search
JP2019105756A (en) On-vehicle voice output device
CN112152890B (en) Control system and method based on intelligent sound box
CN110400568B (en) Awakening method of intelligent voice system, intelligent voice system and vehicle
JP6945734B2 (en) Audio output device, device control system, audio output method, and program
CN113975078B (en) Massage control method based on artificial intelligence and related equipment
CN111557030B (en) Method, device and computer-readable storage medium with instructions for processing speech input, motor vehicle with speech processing and user terminal device
JP5610283B2 (en) External device control apparatus, external device control method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220215