JP2016149014A - Interactive device - Google Patents

Interactive device Download PDF

Info

Publication number
JP2016149014A
JP2016149014A JP2015025681A JP2015025681A JP2016149014A JP 2016149014 A JP2016149014 A JP 2016149014A JP 2015025681 A JP2015025681 A JP 2015025681A JP 2015025681 A JP2015025681 A JP 2015025681A JP 2016149014 A JP2016149014 A JP 2016149014A
Authority
JP
Japan
Prior art keywords
utterance
driver
occupant
driving load
message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015025681A
Other languages
Japanese (ja)
Other versions
JP6332072B2 (en
Inventor
靖 作間
Yasushi Sakuma
靖 作間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2015025681A priority Critical patent/JP6332072B2/en
Publication of JP2016149014A publication Critical patent/JP2016149014A/en
Application granted granted Critical
Publication of JP6332072B2 publication Critical patent/JP6332072B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To take measures when an another occupant speaks to a driver, regardless of a large driving load of the driver, in an interactive device issuing a message to the occupant of a vehicle.SOLUTION: The interactive device includes: driving load detection means (14) that detects a driving load of a driver related to driving of a vehicle; occupant speech detection means (13) that detects a speech to the driver from another occupant, with occupants other than the driver of occupants of the vehicle defined as the other occupants; message issue means (5, 16) that when the occupant speech detection means detects the speech, issues the message responding to the speech according to the driving load detected by the driving load detection means.SELECTED DRAWING: Figure 1

Description

本発明は、車両の乗員にメッセージを発声する対話装置に関する。   The present invention relates to an interactive device that utters a message to a vehicle occupant.

従来、車両のドライバに対して挨拶等のメッセージを発声する対話装置が提案されている。また、そのような対話装置において、対話を行うエージェント像を表示し、乗員がドライバ1人であるか乗員が複数人であるかに応じて、表示されるエージェント像の数や動作を変化させることも提案されている(例えば、特許文献1参照。)。   2. Description of the Related Art Conventionally, an interactive device that utters a message such as a greeting to a vehicle driver has been proposed. Also, in such a dialogue apparatus, an agent image for dialogue is displayed, and the number and operation of the displayed agent images are changed depending on whether the occupant is one driver or a plurality of occupants. Has also been proposed (see, for example, Patent Document 1).

特開2006−189394号公報JP 2006-189394 A

ところが、ドライバの運転負荷が大きく、そのドライバが運転に集中しなければならない状態であるにも拘わらず、ドライバ以外の乗員(以下、他の乗員という)がドライバに向けて発話を行った場合に、ドライバが運転に集中できるように何らかの対策を施す装置はこれまで提案されていない。   However, when the driver's driving load is large and the driver must concentrate on driving, a passenger other than the driver (hereinafter referred to as another passenger) speaks to the driver. So far, no device has been proposed to take any measures so that the driver can concentrate on driving.

本発明は、こうした問題に鑑みてなされたものであり、車両の乗員にメッセージを発声する対話装置において、ドライバの運転負荷が大きいにも拘わらず他の乗員がドライバに向けて発話を行った場合に対する対策を実行可能とすることを目的としている。   The present invention has been made in view of such problems, and in a dialog device that utters a message to a vehicle occupant, when another occupant speaks to the driver even though the driver's driving load is large The purpose is to make it possible to implement countermeasures.

前記目的を達するためになされた本発明の対話装置は、車両の運転に係るドライバの運転負荷を検出する運転負荷検出手段と、前記車両の乗員のうち前記ドライバ以外の乗員を他の乗員として、前記他の乗員から前記ドライバに向けての発話を検出する乗員発話検出手段と、前記乗員発話検出手段が前記発話を検出したとき、前記運転負荷検出手段が検出した運転負荷に応じて、前記発話に応答するメッセージを発声するメッセージ発声手段と、を備える。   The interactive device of the present invention made to achieve the above object is a driving load detecting means for detecting a driving load of a driver related to driving of a vehicle, and an occupant other than the driver among the occupants of the vehicle as other occupants, The utterance utterance detection means for detecting an utterance from the other occupant toward the driver, and the utterance according to the driving load detected by the driving load detection means when the occupant utterance detection means detects the utterance. And a message utterance means for uttering a message responding to.

このように構成された本発明では、運転負荷検出手段は、車両の運転に係るドライバの運転負荷を検出する。メッセージ発声手段は、乗員発話検出手段が他の乗員からドライバに向けての発話を検出したとき、前記運転負荷検出手段が検出した運転負荷に応じて、前記発話に応答するメッセージを発声する。このため、ドライバの運転負荷が大きいにも拘わらず他の乗員がドライバに向けて発話を行った場合には、メッセージ発声手段は、当該大きい運転負荷に応じて、前記発話に応答するメッセージを発声することができる。   In this invention comprised in this way, a driving load detection means detects the driving load of the driver who concerns on driving | running | working of a vehicle. The message utterance unit utters a message that responds to the utterance according to the driving load detected by the driving load detection unit when the occupant utterance detection unit detects an utterance from another occupant toward the driver. Therefore, when another occupant speaks to the driver even though the driver's driving load is large, the message utterance means utters a message in response to the utterance according to the large driving load. can do.

本発明を適用した対話装置の構成を表すブロック図である。It is a block diagram showing the structure of the dialogue apparatus to which this invention is applied. その対話装置による処理を表すフローチャートである。It is a flowchart showing the process by the dialogue apparatus.

以下、本発明が適用された実施形態について、図面を用いて説明する。
[1.第1実施形態]
[1−1.構成]
図1に示すように、第1実施形態の対話装置を構成するMPU(マイクロプロセッサユニット)1には、音声入力デバイス3,音声出力デバイス5,各種車載装置7が接続されている。このMPU1、音声入力デバイス3、音声出力デバイス5、及び、各種車載装置7は、いずれも、図示省略した車両に搭載されている。
Embodiments to which the present invention is applied will be described below with reference to the drawings.
[1. First Embodiment]
[1-1. Constitution]
As shown in FIG. 1, an audio input device 3, an audio output device 5, and various in-vehicle devices 7 are connected to an MPU (microprocessor unit) 1 constituting the interactive apparatus of the first embodiment. The MPU 1, the audio input device 3, the audio output device 5, and the various in-vehicle devices 7 are all mounted on a vehicle that is not shown.

音声入力デバイス3は、例えば前記車両のダッシュボード等に設けられたマイクロフォン等によって構成される。この音声入力デバイス3は、車両の乗員が発話した音声、少なくとも、車両のドライバが発話した音声と助手席に同乗している他の乗員が発話した音声とを検出することができる。   The voice input device 3 is composed of, for example, a microphone provided on the dashboard of the vehicle. The voice input device 3 can detect a voice uttered by a vehicle occupant, at least a voice uttered by a driver of the vehicle and a voice uttered by another occupant riding in the passenger seat.

音声出力デバイス5は、車両の乗員に向けて後述のメッセージ等を発声するためのスピーカ等によって構成される。この音声出力デバイス5は、既存のカーステレオ用スピーカ等を利用して構成されてもよく、特別に用意されてもよい。   The audio output device 5 is configured by a speaker or the like for uttering a message or the like to be described later toward a vehicle occupant. The audio output device 5 may be configured using an existing car stereo speaker or the like, or may be specially prepared.

各種車載装置7は、後述するドライバの運転負荷推定に用いられる各種装置を含む。この種の装置としては、例えば、カーナビゲーション装置,GNSS(Global Navigation Satellite System:全地球測位システム)等の位置検出装置,車速センサ,操舵角センサ,ミリ波レーダ等が挙げられる。   The various in-vehicle devices 7 include various devices used for estimating the driving load of the driver described later. Examples of this type of device include a car navigation device, a position detection device such as a GNSS (Global Navigation Satellite System), a vehicle speed sensor, a steering angle sensor, a millimeter wave radar, and the like.

MPU1は、ソフトウェア上で区分された車載機器インタフェース11(図1ではインタフェースをI/Fと略記。)、音声入力インタフェース12、乗員からドライバへの発話検出部13、ドライバ運転負荷推定部14、対応代行判定部15、及び、応答メッセージ生成部16を備えている。なお、MPU1は、ASICであってもよい。   The MPU 1 includes a vehicle-mounted device interface 11 (in FIG. 1, the interface is abbreviated as I / F), a voice input interface 12, an occupant-to-driver utterance detection unit 13, a driver driving load estimation unit 14, and the like. A proxy determination unit 15 and a response message generation unit 16 are provided. The MPU 1 may be an ASIC.

車載機器インタフェース11は、各種車載装置7から送られた信号をデジタルデータに変換したり、各種車載装置7を制御するための制御信号を出力したりする。音声入力インタフェース12は、音声入力デバイス3を介して入力された音声をデジタルデータに変換する。   The in-vehicle device interface 11 converts signals sent from the various in-vehicle devices 7 into digital data, and outputs control signals for controlling the various in-vehicle devices 7. The voice input interface 12 converts voice input through the voice input device 3 into digital data.

乗員からドライバへの発話検出部13は、音声入力デバイス3から音声入力インタフェース12を介して入力された音声の内容(より具体的には意味)を解析することによって、他の乗員からドライバに向けての発話を検出する。この音声の内容解析には、例えばスマートフォン等で一般的に実施されている周知の音声解析技術が応用可能である。   The utterance detection unit 13 from the occupant to the driver analyzes the content (more specifically, the meaning) of the voice input from the voice input device 3 via the voice input interface 12, so that the occupant to the driver is directed to the driver. Detects all utterances. For this voice content analysis, for example, a well-known voice analysis technique that is generally implemented in a smartphone or the like can be applied.

ドライバ運転負荷推定部14は、周知の方法により、ドライバの運転負荷を推定して数値化する。例えば、ドライバ運転負荷推定部14は、カーナビゲーション装置の地図データと位置検出装置が検出した前記車両の現在位置とに基づき、現在走行中の道路と同様の道路を過去に走行した際のドライバの運転負荷を読み出してもよい。また、ドライバ運転負荷推定部14は、車速センサが検出した車速、操舵角センサが検出した操舵角、ミリ波レーダが検出した先行車両との車間距離等の各種パラメータに、それぞれ所定の係数を掛け合わせて合算した値をドライバの運転負荷としてもよい。なお、これらの運転負荷推定方法は、例えば、特開2012−108753号公報や、特開2011−129010号公報に詳しいので、ここでは詳細な説明を割愛する。また、ドライバ運転負荷推定部14が推定して数値化した値は、レベル値等のように単位を有さない数値であってもよく、何らかの単位を有する数値であってもよい。   The driver driving load estimation unit 14 estimates and digitizes the driving load of the driver by a known method. For example, the driver driving load estimator 14 is based on the map data of the car navigation device and the current position of the vehicle detected by the position detection device, and the driver driving load estimation unit 14 in the past when traveling on the same road as the currently traveling road. The operating load may be read out. In addition, the driver driving load estimation unit 14 multiplies various parameters such as the vehicle speed detected by the vehicle speed sensor, the steering angle detected by the steering angle sensor, and the inter-vehicle distance detected by the millimeter wave radar, with predetermined coefficients. The combined value may be used as the driving load of the driver. In addition, since these driving load estimation methods are detailed in, for example, Japanese Patent Application Laid-Open No. 2012-108753 and Japanese Patent Application Laid-Open No. 2011-129010, detailed description thereof is omitted here. Further, the value estimated and digitized by the driver driving load estimation unit 14 may be a numerical value having no unit such as a level value, or may be a numerical value having some unit.

対応代行判定部15は、乗員からドライバへの発話検出部13による検出結果とドライバ運転負荷推定部14によって推定された運転負荷とに基づき、他の乗員に対する対応をドライバの代わりに行う(すなわち、対応を代行する)必要があるか否かを判定する。応答メッセージ生成部16は、対応代行判定部15が前記代行する必要があると判定した場合、前記他の乗員に向けて発声すべき応答メッセージを生成する。   Based on the detection result of the utterance detection unit 13 from the occupant to the driver and the driving load estimated by the driver driving load estimation unit 14, the corresponding proxy determination unit 15 performs a response to another occupant instead of the driver (that is, It is determined whether or not it is necessary to act as a proxy. The response message generation unit 16 generates a response message to be uttered toward the other occupant when the corresponding proxy determination unit 15 determines that the proxy needs to be performed.

[1−2.処理]
次に、MPU1が実行する処理について説明する。MPU1は、自身が内蔵したROMに記憶されたプログラムに基づき、図2のフローチャートに示す処理を所定周期で繰り返し実行する。
[1-2. processing]
Next, processing executed by the MPU 1 will be described. The MPU 1 repeatedly executes the process shown in the flowchart of FIG. 2 at a predetermined period based on a program stored in a ROM built in the MPU 1.

図2に示すように、この処理では、先ず、S1(Sはステップを表す:以下同様)にて、ドライバ運転負荷推定部14の処理によって、その時点におけるドライバの運転負荷が推定される。続くS3では、乗員からドライバへの発話検出部13の処理によって、他の乗員からドライバに向けての発話が検出されたか否かが判定される。前記発話が検出されていない場合は(S3:N)、処理はそのまま一旦終了し、前記発話が検出されている場合は(S3:Y)、処理はS5へ移行する。   As shown in FIG. 2, in this process, first, in S1 (S represents a step: the same applies hereinafter), the driving load of the driver at that time is estimated by the process of the driver driving load estimation unit 14. In subsequent S3, it is determined whether or not an utterance from another occupant toward the driver is detected by the processing of the utterance detection unit 13 from the occupant to the driver. When the utterance is not detected (S3: N), the process is temporarily terminated as it is, and when the utterance is detected (S3: Y), the process proceeds to S5.

S5では、S1にて推定されたドライバの運転負荷(前述のように数値化されている。)が、予め設定された規定値より大きいか否かが判定される。前記推定されたドライバの運転負荷が規定値以下の場合は(S5:N)、処理はそのまま一旦終了し、当該運転負荷が既定値より大きい場合は(S5:Y)、処理はS7へ移行する。なお、このS3,S5の判定処理が、対応代行判定部15の処理に相当する。   In S5, it is determined whether or not the driving load of the driver estimated in S1 (numerized as described above) is larger than a preset specified value. If the estimated driving load of the driver is equal to or less than the specified value (S5: N), the process is temporarily terminated as it is, and if the driving load is greater than a predetermined value (S5: Y), the process proceeds to S7. . The determination processes in S3 and S5 correspond to the process of the corresponding proxy determination unit 15.

S7では、応答メッセージ生成部16が、他の乗員からドライバに向けての発話として検出された音声の内容に応じた応答メッセージを生成し、その応答メッセージが音声出力デバイス5から出力されて、処理が一旦終了する。   In S7, the response message generator 16 generates a response message according to the content of the voice detected as an utterance from another occupant to the driver, and the response message is output from the voice output device 5 to be processed. Is temporarily terminated.

なお、この応答メッセージの具体例としては、例えば次のようなものが想定される。
[例1]ドライバが車両を駐車場から出そうとしていて運転負荷が大きいときに(S5:Y)、助手席の乗員(他の乗員の一例)が「○○の歌を入れて。」とドライバに向けて発話した場合(S3:Y)、「今手が離せないから、ちょっと待っててね。」といった応答メッセージが出力される(S7)。
As a specific example of the response message, for example, the following is assumed.
[Example 1] When the driver is trying to take the vehicle out of the parking lot and the driving load is large (S5: Y), the passenger in the passenger seat (an example of another passenger) puts a song "XX". When speaking to the driver (S3: Y), a response message such as “Please wait a moment because I can't release my hand now” is output (S7).

[例2]ドライバが右折のタイミングを待っていて運転負荷が大きいときに(S5:Y)、後部座席の子供(他の乗員の一例)が「寒いから暖かくして。」とドライバに向けて発話した場合(S3:Y)、「今運転が忙しいから、少しだけ我慢しててね。」といった応答メッセージが出力される(S7)。   [Example 2] When the driver is waiting for a right turn and the driving load is heavy (S5: Y), the child in the rear seat (an example of another passenger) is "warm from the cold." When the user speaks (S3: Y), a response message such as “Because I am busy now, please be patient for a while” is output (S7).

等の応答メッセージ例が考えられる。これらの場合、他の乗員からドライバに向けて発話がなされたという判定は、例えば、音声入力デバイス3から入力された音声の内容が、何らかの操作を依頼する内容であった場合になされてもよい。そして、応答メッセージの生成に当たっては、更に前記音声の内容が解析され、その解析結果に基づいて発話者の年齢が推定されることにより、「手が離せない」「運転が忙しい」等の用語選択がなされてもよい。   An example of a response message such as In these cases, the determination that an utterance is made from another occupant to the driver may be made, for example, when the content of the audio input from the audio input device 3 is content that requests some operation. . When generating the response message, the content of the voice is further analyzed, and the age of the speaker is estimated based on the analysis result, thereby selecting terms such as “can't take my hands off” and “busy driving”. May be made.

[1−3.効果]
以上詳述した第1実施形態によれば、次のような効果が生じる。
[1A]本実施形態では、ドライバの運転負荷が大きいにも拘わらず(S5:Y)、他の乗員がドライバに向けて発話を行った場合に(S3:Y)、ドライバの代わりにMPU1が応答メッセージを出力する(S7)。このため、ドライバは、他の乗員からの発話があっても運転に集中することができる。
[1-3. effect]
According to the first embodiment described in detail above, the following effects are produced.
[1A] In this embodiment, when the driver's driving load is large (S5: Y), when another occupant speaks to the driver (S3: Y), the MPU 1 replaces the driver. A response message is output (S7). For this reason, the driver can concentrate on driving even if there is an utterance from another passenger.

[1B]本実施形態では、車両に搭載された各種車載装置7の状態に基づいてドライバの運転負荷が検出される。このため、ドライバの運転負荷を検出するための特別な構成を用意する必要がなく、装置の製造コストを低減することができる。   [1B] In this embodiment, the driving load of the driver is detected based on the state of various on-vehicle devices 7 mounted on the vehicle. For this reason, it is not necessary to prepare a special configuration for detecting the driving load of the driver, and the manufacturing cost of the apparatus can be reduced.

[1C]本実施形態では、音声入力デバイス3から入力された音声の内容に基づいて他の乗員からドライバに向けての発話が検出される。このため、前記発話を検出するための構成(すなわち、音声入力デバイス3)としては、モノラルのマイクロフォンが1つあればよく、当該マイクロフォンは各種車載装置7が予め備えたものであってもよいため、装置の製造コストを低減することができる。   [1C] In the present embodiment, an utterance from another occupant toward the driver is detected based on the content of the voice input from the voice input device 3. For this reason, as the configuration for detecting the utterance (that is, the voice input device 3), there is only one monaural microphone, and the microphone may be provided in advance by the various in-vehicle devices 7. The manufacturing cost of the device can be reduced.

なお、ドライバ運転負荷推定部14が運転負荷検出手段に、乗員からドライバへの発話検出部13が乗員発話検出手段に、応答メッセージ生成部16及び音声出力デバイス5がメッセージ発声手段に、音声入力デバイス3が音声検出手段に、それぞれ相当する。   Note that the driver driving load estimation unit 14 is a driving load detection unit, the occupant-to-driver utterance detection unit 13 is a occupant utterance detection unit, the response message generation unit 16 and the voice output device 5 are message utterance units, and a voice input device. 3 corresponds to the sound detection means.

[2.他の実施形態]
以上、本発明の実施形態について説明したが、本発明は前記実施形態に限定されることなく、種々の形態を採り得る。
[2. Other Embodiments]
As mentioned above, although embodiment of this invention was described, this invention can take a various form, without being limited to the said embodiment.

[2A]前記実施形態では、ドライバの運転負荷は数値化されているが、必ずしも運転負荷は数値化される必要はない。例えば、交差点である、車速が30km/h以上である、等の条件の論理和又は論理積によって、運転負荷が大きい(前記実施形態における規定値より大きい場合に相当)か否かが判定されてもよい。   [2A] In the above embodiment, the driving load of the driver is quantified, but the driving load is not necessarily quantified. For example, it is determined whether or not the driving load is large (corresponding to a case where the driving load is larger than the specified value in the embodiment) based on a logical sum or logical product of conditions such as an intersection or a vehicle speed of 30 km / h or more. Also good.

[2B]前記実施形態では、各種車載装置7の状態に基づいてドライバの運転負荷が検出されたが、これに限るものではない。例えば、ドライバの運転負荷を検出するための特別な構成として設けられた脈拍センサ等の生体センサを用いて、ドライバの運転負荷が検出されてもよい。また、音声入力デバイス3を介して入力された運転者の口調に基づいて、ドライバの運転負荷が検出されてもよい。このように音声入力デバイス3を用いてドライバの運転負荷が検出される場合、各種車載装置7は省略されてもよい。   [2B] In the above-described embodiment, the driving load of the driver is detected based on the states of the various in-vehicle devices 7, but the present invention is not limited to this. For example, the driving load of the driver may be detected using a biosensor such as a pulse sensor provided as a special configuration for detecting the driving load of the driver. The driving load of the driver may be detected based on the driver's tone input via the voice input device 3. Thus, when the driving | running load of a driver is detected using the voice input device 3, the various vehicle equipment 7 may be abbreviate | omitted.

[2C]前記実施形態では、音声入力デバイス3から入力された音声の内容に基づいて他の乗員からドライバに向けての発話が検出されたが、これに限るものではない。例えば、車室内に複数のマイクロフォンを設けて音声の音量差や入力タイミングを参照することで、発話者の位置を特定することができる。その場合、発話者の位置に基づいて、その発話者がドライバであるか他の乗員であるかが判定され、発話者が他の乗員であればその発話はドライバに向けての発話であるとみなされてもよい。また、音声入力デバイス3から入力された音声の声紋に基づいて、その発話者がドライバであるか他の乗員であるかが判定され、発話者が他の乗員であればその発話はドライバに向けての発話であるとみなされてもよい。   [2C] In the above embodiment, an utterance from another occupant toward the driver is detected based on the content of the voice input from the voice input device 3, but the present invention is not limited to this. For example, the position of the speaker can be specified by providing a plurality of microphones in the passenger compartment and referring to the sound volume difference and input timing. In that case, based on the position of the speaker, it is determined whether the speaker is a driver or another occupant, and if the speaker is another occupant, the utterance is for the driver. May be considered. Further, based on the voice print of the voice input from the voice input device 3, it is determined whether the speaker is a driver or another occupant. If the speaker is another occupant, the utterance is directed to the driver. May be considered as utterances.

[2D]また、車室内を撮影するカメラ等の撮影手段が設けられている場合、他の乗員がドライバの方を向いて口を動かした場合に、当該乗員からドライバに向けての発話がなされたとみなされてもよい。そして、その場合、前記撮影手段が撮影したドライバの顔画像(より具体的には目つき等)に基づいてドライバの運転負荷が検出されてもよい。   [2D] Also, in the case where photographing means such as a camera for photographing the passenger compartment is provided, when another occupant moves toward the driver and moves his / her mouth, the utterance from the occupant to the driver is made. May be considered. In that case, the driving load of the driver may be detected based on the driver's face image (more specifically, eyes or the like) photographed by the photographing means.

[2E]前記実施形態では、MPU1を単に対話をするための対話装置として説明したが、本発明の対話装置は、音声入力により制御を行う機能も備えてもよい。例えば、各種車載装置7は、ドライバが音声入力デバイス3にコマンド(指令)を音声入力することによって操作可能な各種装置も含んでもよい。この種の装置としては、例えば、カーエアコン,カーオーディオ等が挙げられる。このような装置を音声入力に応じて制御する処理は公知であるので、ここでは説明を割愛する。なお、このような制御を実行する場合、音声入力のコマンド体系によっては、[2C],[2D]に示したように、音声の内容(すなわち意味)を参照せずに発話者を特定した方が好ましい場合がある。   [2E] In the above-described embodiment, the MPU 1 has been described as a dialog device for simply performing a dialog. However, the dialog device of the present invention may also have a function of performing control by voice input. For example, the various in-vehicle devices 7 may include various devices that can be operated by a driver inputting a command (command) to the voice input device 3 by voice. Examples of this type of device include a car air conditioner and a car audio. Since the process for controlling such a device in response to voice input is known, the description thereof is omitted here. When executing such control, depending on the command system of voice input, as shown in [2C] and [2D], the person who specified the speaker without referring to the voice content (that is, meaning) May be preferred.

[2F]また、ドライバの運転負荷の大きさに応じてメッセージが変更されてもよい。例えば、ドライバの運転負荷が極めて大きい場合、より強い口調で他の乗員の発話を制止するメッセージが生成・出力されてもよい。   [2F] The message may be changed according to the driving load of the driver. For example, when the driving load on the driver is extremely large, a message for stopping another passenger's speech with a stronger tone may be generated and output.

[2G]また、前記実施形態では、他の乗員からドライバに向けての発話が検出されるが、他の乗員同士でなされる会話も前記発話とは別に検出されてもよい。例えば、ドライバに知らせるべき重要な情報が発声されるときに、他の乗員同士が大声で騒いでいる場合に、応答メッセージ生成部16が「ちょっとだけ静かにしてね。」等のメッセージを生成・出力してもよい。その場合、当該メッセージの発声後に、前記重要な情報が発声されるとよい。そうすることによって、当該重要な情報がより良好にドライバに伝達される。   [2G] Further, in the embodiment, an utterance from another occupant toward the driver is detected, but a conversation between other occupants may be detected separately from the utterance. For example, when important information to be notified to the driver is uttered, and the other occupants are making loud noises, the response message generator 16 generates a message such as “Please be quiet a little.” It may be output. In that case, the important information may be uttered after the message is uttered. By doing so, the important information is better communicated to the driver.

なお、前記重要な情報は、MPU1が生成・出力する情報であってもよく、例えばカーナビゲーション装置等の各種車載装置7が生成・出力する情報であってもよい。後者の場合、MPU1は、各種車載装置7と信号の送受信を行うことによって、前記重要な情報が発声されるタイミングを取得して、前記制御に反映させることができる。後者の場合、重要な情報の例としては、例えば右左折指示や、渋滞若しくは事故の発生情報を挙げることができる。また、MPU1は、カーナビゲーション装置等の各種車載装置7からこのような重要な情報を取得し、当該MPU1の処理として当該重要な情報を生成・出力してもよい。   The important information may be information generated and output by the MPU 1, for example, information generated and output by various in-vehicle devices 7 such as a car navigation device. In the latter case, the MPU 1 can acquire the timing at which the important information is uttered by transmitting / receiving signals to / from various in-vehicle devices 7 and reflect the timing in the control. In the latter case, examples of important information include a left / right turn instruction and information on occurrence of traffic jams or accidents. The MPU 1 may acquire such important information from various in-vehicle devices 7 such as a car navigation device, and may generate and output the important information as processing of the MPU 1.

[2H]前記実施形態では、他の乗員からドライバに向けての発話があったか否かを単純に判定しているが、これに限るものではない。例えば、当該発話の内容を詳細に解析して、ドライバに対して負荷となりそうな発話か否かも判定してもよい。   [2H] In the above embodiment, it is simply determined whether or not there is an utterance from another occupant to the driver, but the present invention is not limited to this. For example, the content of the utterance may be analyzed in detail to determine whether the utterance is likely to be a load on the driver.

[2I]また、MPU1は、音声のメッセージの発声に加えて、ディスプレイ等の表示部も制御して、当該表示部を介してメッセージを表示してもよい。その場合、前記表示部は、この処理のために特別に用意されてMPU1によって制御される表示部であってもよく、カーナビゲーション装置等の各種車載装置7が備えた既存の表示部が利用されてもよい。   [2I] The MPU 1 may display a message via the display unit by controlling a display unit such as a display in addition to the voice message. In that case, the display unit may be a display unit specially prepared for this processing and controlled by the MPU 1, and an existing display unit provided in various in-vehicle devices 7 such as a car navigation device is used. May be.

[2J]前記実施形態では、本発明の対話装置を車載装置として構成しているが、これに限るものではない。例えば、本発明の対話装置は、スマートフォンやタブレットといったいわゆる持込機器によって構成されてもよい。その場合、[2D]に示したように、持込機器のカメラが撮影したドライバの顔画像に基づいてドライバの運転負荷が検出され、かつ、当該カメラが撮影した他の乗員の画像に基づいて他の乗員からドライバに向けての発話が検出されてもよい。   [2J] In the above embodiment, the interactive device of the present invention is configured as an in-vehicle device, but the present invention is not limited to this. For example, the interactive apparatus of the present invention may be configured by a so-called carry-in device such as a smartphone or a tablet. In that case, as shown in [2D], the driving load of the driver is detected based on the driver's face image captured by the camera of the carry-in device, and based on the image of another occupant captured by the camera. An utterance from another passenger toward the driver may be detected.

[2K]前記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、前記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、前記実施形態の構成の一部を省略してもよい。また、前記実施形態の構成の少なくとも一部を、他の前記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。   [2K] The functions of one component in the embodiment may be distributed as a plurality of components, or the functions of a plurality of components may be integrated into one component. Further, at least a part of the configuration of the embodiment may be replaced with a known configuration having the same function. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.

[2L]上述した対話装置の他、当該対話装置を構成要素とするシステム、当該対話装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体、対話制御方法など、種々の形態で本発明を実現することもできる。   [2L] In addition to the above-described dialog device, the present invention is implemented in various forms such as a system including the dialog device as a constituent element, a program for causing a computer to function as the dialog device, a medium storing the program, and a dialog control method. Can also be realized.

1…MPU 3…音声入力デバイス
5…音声出力デバイス 7…各種車載装置
11…車載機器インタフェース 12…音声入力インタフェース
13…乗員からドライバへの発話検出部 14…ドライバ運転負荷推定部
15…対応代行判定部 16…応答メッセージ生成部
DESCRIPTION OF SYMBOLS 1 ... MPU 3 ... Audio | voice input device 5 ... Audio | voice output device 7 ... Various vehicle equipment 11 ... In-vehicle apparatus interface 12 ... Voice input interface 13 ... Speech detection part from a passenger to a driver 14 ... Driver driving load estimation part 15 ... Correspondence substitution judgment Unit 16 ... Response message generation unit

Claims (7)

車両の運転に係るドライバの運転負荷を検出する運転負荷検出手段と、
前記車両の乗員のうち前記ドライバ以外の乗員を他の乗員として、前記他の乗員から前記ドライバに向けての発話を検出する乗員発話検出手段と、
前記乗員発話検出手段が前記発話を検出したとき、前記運転負荷検出手段が検出した運転負荷に応じて、前記発話に応答するメッセージを発声するメッセージ発声手段と、
を備えたことを特徴とする対話装置。
Driving load detection means for detecting the driving load of the driver related to driving the vehicle;
An occupant utterance detection means for detecting an utterance from the other occupant toward the driver, as an occupant other than the driver among the occupants of the vehicle,
A message utterance unit that utters a message in response to the utterance according to the driving load detected by the driving load detection unit when the occupant utterance detection unit detects the utterance;
An interactive apparatus characterized by comprising:
前記運転負荷検出手段は、前記車両に搭載された車載装置の状態に基づいて、前記ドライバの運転負荷を検出することを特徴とする請求項1に記載の対話装置。   The interactive device according to claim 1, wherein the driving load detection unit detects a driving load of the driver based on a state of an in-vehicle device mounted on the vehicle. 前記運転負荷検出手段は、前記ドライバの運転負荷を数値として検出し、
前記メッセージ発声手段は、前記乗員発話検出手段が前記発話を検出し、かつ、前記運転負荷検出手段が検出した運転負荷が規定値を超えている場合に、前記メッセージを発声することを特徴とする請求項1又は2に記載の対話装置。
The driving load detection means detects the driving load of the driver as a numerical value,
The message utterance means utters the message when the occupant utterance detection means detects the utterance and the driving load detected by the driving load detection means exceeds a specified value. The interactive apparatus according to claim 1 or 2.
前記車両内部における音声を検出する音声検出手段を、
更に備え、
前記乗員発話検出手段は、前記音声検出手段が検出した音声に基づいて、前記他の乗員から前記ドライバに向けての発話を検出することを特徴とする請求項1〜3のいずれか1項に記載の対話装置。
Voice detection means for detecting voice inside the vehicle;
In addition,
The said occupant utterance detection means detects the utterance toward the said driver from the said other occupant based on the audio | voice detected by the said audio | voice detection means, The any one of Claims 1-3 characterized by the above-mentioned. The interactive device described.
前記乗員発話検出手段は、前記音声検出手段が検出した音声の内容に基づいて、前記他の乗員から前記ドライバに向けての発話を検出することを特徴とする請求項4に記載の対話装置。   5. The dialogue apparatus according to claim 4, wherein the occupant utterance detection unit detects an utterance from the other occupant toward the driver based on the content of the voice detected by the voice detection unit. 前記乗員発話検出手段は、前記音声検出手段が検出した音声に基づいて、前記他の乗員による発話であるか前記ドライバによる発話であるかを判定し、前記他の乗員による発話であると判定した場合に、当該発話を前記他の乗員から前記ドライバに向けての発話であるとみなすことによって、前記他の乗員から前記ドライバに向けての発話を検出することを特徴とする請求項4又は5に記載の対話装置。   The occupant utterance detection unit determines whether the utterance is made by the other occupant or the utterance by the driver based on the voice detected by the voice detection unit, and determines that the utterance is made by the other occupant. In this case, the utterance from the other occupant to the driver is detected by regarding the utterance as an utterance from the other occupant to the driver. The interactive device described in 1. 前記乗員発話検出手段は、前記他の乗員同士の間でなされる会話を、前記発話とは別に検出し、
前記メッセージ発声手段は、前記ドライバに知らせるべき情報も発声し、
前記メッセージ発声手段が前記情報を発声する際、前記乗員発話検出手段が前記会話を検出している場合は、静かにすべき旨のメッセージを発声した後に、前記情報を発声することを特徴とする請求項1〜6のいずれか1項に記載の対話装置。
The occupant utterance detection means detects a conversation between the other occupants separately from the utterance,
The message utterance means also utters information to be notified to the driver,
When the message utterance means utters the information, if the occupant utterance detection means detects the conversation, the message utterance means utters the information after uttering a message to be quiet. The dialogue apparatus according to any one of claims 1 to 6.
JP2015025681A 2015-02-12 2015-02-12 Dialogue device Expired - Fee Related JP6332072B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015025681A JP6332072B2 (en) 2015-02-12 2015-02-12 Dialogue device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015025681A JP6332072B2 (en) 2015-02-12 2015-02-12 Dialogue device

Publications (2)

Publication Number Publication Date
JP2016149014A true JP2016149014A (en) 2016-08-18
JP6332072B2 JP6332072B2 (en) 2018-05-30

Family

ID=56691271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015025681A Expired - Fee Related JP6332072B2 (en) 2015-02-12 2015-02-12 Dialogue device

Country Status (1)

Country Link
JP (1) JP6332072B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019035897A (en) * 2017-08-18 2019-03-07 ヤフー株式会社 Determination device, determination method, and determination program
JP2020154356A (en) * 2019-03-18 2020-09-24 コニカミノルタ株式会社 Voice information processing apparatus and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304464A (en) * 1997-04-28 1998-11-13 Daihatsu Motor Co Ltd Control method for hands-free system
JP2000181500A (en) * 1998-12-15 2000-06-30 Equos Research Co Ltd Speech recognition apparatus and agent apparatus
JP2006194633A (en) * 2005-01-11 2006-07-27 Toyota Motor Corp Voice information providing device for vehicle
JP2006349871A (en) * 2005-06-14 2006-12-28 Toyota Motor Corp Device for estimating driver's burden
JP2011118565A (en) * 2009-12-02 2011-06-16 Denso It Laboratory Inc Workload indicator device, workload display method, and program
JP2011147052A (en) * 2010-01-18 2011-07-28 Denso It Laboratory Inc Apparatus and method for telephone-call

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304464A (en) * 1997-04-28 1998-11-13 Daihatsu Motor Co Ltd Control method for hands-free system
JP2000181500A (en) * 1998-12-15 2000-06-30 Equos Research Co Ltd Speech recognition apparatus and agent apparatus
JP2006194633A (en) * 2005-01-11 2006-07-27 Toyota Motor Corp Voice information providing device for vehicle
JP2006349871A (en) * 2005-06-14 2006-12-28 Toyota Motor Corp Device for estimating driver's burden
JP2011118565A (en) * 2009-12-02 2011-06-16 Denso It Laboratory Inc Workload indicator device, workload display method, and program
JP2011147052A (en) * 2010-01-18 2011-07-28 Denso It Laboratory Inc Apparatus and method for telephone-call

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019035897A (en) * 2017-08-18 2019-03-07 ヤフー株式会社 Determination device, determination method, and determination program
JP2020154356A (en) * 2019-03-18 2020-09-24 コニカミノルタ株式会社 Voice information processing apparatus and program
JP7318241B2 (en) 2019-03-18 2023-08-01 コニカミノルタ株式会社 Voice information processing device and program

Also Published As

Publication number Publication date
JP6332072B2 (en) 2018-05-30

Similar Documents

Publication Publication Date Title
JP6515764B2 (en) Dialogue device and dialogue method
JP4645310B2 (en) Display system using agent character display
JP4779748B2 (en) Voice input / output device for vehicle and program for voice input / output device
CN110166896B (en) Voice providing method, voice providing system and server
WO2017081960A1 (en) Voice recognition control system
JP6284331B2 (en) Conversation support device, conversation support method, and conversation support program
JP6466385B2 (en) Service providing apparatus, service providing method, and service providing program
WO2014083738A1 (en) Text-reading device and text-reading method
JP6604151B2 (en) Speech recognition control system
JP2006284454A (en) In-car agent system
WO2016103710A1 (en) Voice processing device
CN111261154A (en) Agent device, agent presentation method, and storage medium
JP2008070966A (en) Vehicle control device and vehicle control method
US20190294867A1 (en) Information provision device, and moving body
JP2017090614A (en) Voice recognition control system
CN111007968A (en) Agent device, agent presentation method, and storage medium
JP2016207001A (en) Driving support device
JP6332072B2 (en) Dialogue device
JP4438583B2 (en) Driving assistance device
JP2019053785A (en) Service providing device
JP6606921B2 (en) Voice direction identification device
JP2009073417A (en) Apparatus and method for controlling noise
JP2019204015A (en) Information processing device, program, and control method
JP2019074498A (en) Drive supporting device
JP2022148823A (en) Agent device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180416

R151 Written notification of patent or utility model registration

Ref document number: 6332072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees