JP2019079083A - Driving support apparatus - Google Patents

Driving support apparatus Download PDF

Info

Publication number
JP2019079083A
JP2019079083A JP2017202953A JP2017202953A JP2019079083A JP 2019079083 A JP2019079083 A JP 2019079083A JP 2017202953 A JP2017202953 A JP 2017202953A JP 2017202953 A JP2017202953 A JP 2017202953A JP 2019079083 A JP2019079083 A JP 2019079083A
Authority
JP
Japan
Prior art keywords
occupant
light emitting
emitting device
sight
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017202953A
Other languages
Japanese (ja)
Inventor
晋 大須賀
Susumu Osuga
晋 大須賀
浩一郎 本多
Koichiro Honda
浩一郎 本多
教英 北岡
Norihide Kitaoka
教英 北岡
祥生 石黒
Yoshio Ishiguro
祥生 石黒
百合絵 入部
Yurie Iribe
百合絵 入部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2017202953A priority Critical patent/JP2019079083A/en
Publication of JP2019079083A publication Critical patent/JP2019079083A/en
Pending legal-status Critical Current

Links

Images

Abstract

To reduce the difficulty of an occupant in talking to a driving support apparatus, as one example.SOLUTION: A driving support apparatus according to the embodiment includes: a sight line detection unit that detects an orientation of a sight line of an occupant from a face image of the occupant included in a picked-up image of an imaging apparatus for picking up images of the inside of a vehicle; and a light emission control unit that changes the light emission mode of a light emitting apparatus when the sight line detection unit detects that the sight line of the occupant is directed to the light emitting apparatus installed in the vehicle.SELECTED DRAWING: Figure 4

Description

本発明の実施形態は、運転支援装置に関する。   An embodiment of the present invention relates to a driving support device.

従来、乗員の音声による命令を認識する運転支援装置の技術が知られている。また、乗員を撮像した画像から乗員の発話の有無を判断し、発話していると判断した場合にのみ、音声認識を行う運転支援装置が知られている。   2. Description of the Related Art Conventionally, there is known a technology of a driving support device that recognizes an instruction by a passenger's voice. In addition, there is known a driving support device that determines the presence or absence of a passenger's speech from an image obtained by imaging the passenger and performs voice recognition only when it is determined that the user is speaking.

特開平11−352987号公報JP-A-11-352987

しかしながら、従来は、乗員が命令のために音声を発する際、運転支援装置に対して「話しかけにくさ」を感じる場合があった。   However, conventionally, when the occupant utters a voice for an instruction, there has been a case in which the driver assistance device feels "unspeakable to talk".

本発明の実施形態にかかる運転支援装置は、一例として、車内を撮像する撮像装置の撮像画像に含まれる乗員の顔画像から、乗員の視線の向きを検出する視線検出部と、視線検出部が乗員の視線が車内に設置された発光装置を向いていることを検出した場合に、発光装置の発光の態様を変化させる発光制御部と、を備える。よって、実施形態にかかる運転支援装置によれば、発光装置を乗員の視線に対して応答するように動作させるため、一例としては、乗員の運転支援装置に対する話しかけにくさを低減することができる。   The driving assistance apparatus according to the embodiment of the present invention includes, as an example, a gaze detection unit that detects the direction of the occupant's gaze from the occupant's face image included in a captured image of an imaging device that captures the inside of the vehicle; And a light emission control unit configured to change a light emission mode of the light emitting device when it is detected that the line of sight of the occupant is facing the light emitting device installed in the vehicle. Therefore, according to the driving support device according to the embodiment, since the light emitting device is operated to respond to the line of sight of the passenger, it is possible to reduce the difficulty of the passenger talking to the driving support device, for example.

上記運転支援装置では、一例として、発光制御部は、視線検出部が乗員の視線が発光装置を向いていることを検出した場合に、乗員がいる方向に発光するよう、発光装置を制御する。よって、実施形態にかかる運転支援装置によれば、一例としては、乗員に対して、視線を検出していることをより明確に示すことができる。   In the driving support apparatus, as an example, the light emission control unit controls the light emitting device to emit light in the direction in which the occupant is present when the sight line detection unit detects that the line of sight of the occupant is facing the light emitting device. Therefore, according to the driving support device according to the embodiment, as one example, it is possible to more clearly indicate to the occupant that the line of sight is detected.

上記運転支援装置は、一例として、乗員の発話を検出する発話検出部、をさらに備え、発光制御部は、発話検出部が乗員の発話を検出した場合に、発話をした乗員がいる方向に発光するよう、発光装置を制御する。よって、実施形態にかかる運転支援装置によれば、一例としては、乗員に対して、発話を検出していることをより明確に示すことができる。   The driving support apparatus further includes, as an example, a speech detection unit that detects a speech of a passenger, and the light emission control unit emits light in the direction in which the passenger who made a speech is present when the speech detection unit detects a speech of the passenger Control the light emitting device. Therefore, according to the driving support device according to the embodiment, as one example, it is possible to more clearly indicate that the user is detecting an utterance.

上記運転支援装置では、一例として、発光制御部は、視線検出部が1人の乗員の視線が発光装置を向いていることを検出した場合と、視線検出部が複数の乗員の視線が発光装置を向いていることを検出した場合とでは、異なる態様で発光装置を発光させる。よって、実施形態にかかる運転支援装置によれば、発光装置を複数の乗員の視線に対してそれぞれ応答するように動作させるため、一例としては、各乗員の運転支援装置に対する話しかけにくさを低減することができる。   In the driving support device, as an example, the light emission control unit detects that the sight line detector detects that the line of sight of one passenger is facing the light emitting device, and the sight line detector detects the line of sight of a plurality of occupants The light emitting device emits light in a different manner from the case where it is detected that the light emitting device is facing. Therefore, according to the driving support device according to the embodiment, the light emitting device operates to respond to the eyes of a plurality of occupants, thereby reducing difficulty in talking to the driving assistance device of each occupant as an example. be able to.

上記運転支援装置では、一例として、発光制御部は、発光装置が設置された車両が自動運転制御されている場合と、車両が手動運転されている場合とでは、異なる態様で発光装置を発光させる。よって、実施形態にかかる運転支援装置によれば、一例としては、車両が自動運転制御中であるか否かを乗員が容易に確認することができる。   In the above driving support apparatus, as an example, the light emission control unit causes the light emitting device to emit light in different modes when the vehicle on which the light emitting device is installed is under automatic driving control and when the vehicle is manually driven. . Therefore, according to the driving support device according to the embodiment, as an example, the occupant can easily check whether the vehicle is under automatic driving control.

図1は、実施形態1にかかる車両の車室の一部が透視された状態が示された例示的な斜視図である。FIG. 1 is an exemplary perspective view in which a part of a cabin of a vehicle according to a first embodiment is seen through. 図2は、実施形態1にかかる撮像装置の配置の一例を示す図である。FIG. 2 is a view showing an example of the arrangement of the imaging device according to the first embodiment. 図3は、実施形態1にかかる運転支援システムのハードウェア構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a hardware configuration of the driving support system according to the first embodiment. 図4は、実施形態1にかかるECUが有する機能の一例を示すブロック図である。FIG. 4 is a block diagram illustrating an example of functions of the ECU according to the first embodiment. 図5は、実施形態1にかかる撮像画像の一例を示す図である。FIG. 5 is a diagram illustrating an example of a captured image according to the first embodiment. 図6は、実施形態1にかかる発光装置の発光の態様の一例を示す図である。FIG. 6 is a view showing an example of a light emission mode of the light emitting device according to the first embodiment. 図7は、実施形態1にかかる発光装置の制御処理の手順の一例を示すフローチャートである。FIG. 7 is a flowchart of an example of a control process of the light emitting device according to the first embodiment. 図8は、変形例1にかかる発光装置の発光の態様の一例を示す図である。FIG. 8 is a view showing an example of the light emission mode of the light emitting device according to the first modification. 図9は、実施形態2にかかる車両の車室の一部が透視された状態が示された例示的な斜視図である。FIG. 9 is an exemplary perspective view in which a part of a cabin of a vehicle according to a second embodiment is seen through. 図10は、実施形態2にかかる撮像画像の一例を示す図である。FIG. 10 is a diagram illustrating an example of a captured image according to the second embodiment. 図11は、実施形態2にかかる発光装置の発光の態様の一例を示す図である。FIG. 11 is a diagram illustrating an example of a light emission mode of the light emitting device according to the second embodiment. 図12は、実施形態2にかかる発光装置の発光の態様の他の一例を示す図である。FIG. 12 is a diagram illustrating another example of the light emission mode of the light emitting device according to the second embodiment. 図13は、実施形態2にかかる発光装置の制御処理の手順の一例を示すフローチャートである。FIG. 13 is a flowchart of an example of a control process of the light emitting device according to the second embodiment. 図14は、実施形態3にかかるECUが有する機能の一例を示すブロック図である。FIG. 14 is a block diagram illustrating an example of functions of the ECU according to the third embodiment. 図15は、実施形態3にかかる発光装置の制御処理の手順の一例を示すフローチャートである。FIG. 15 is a flowchart of an example of a control process of the light emitting device according to the third embodiment.

(実施形態1)
本実施形態においては、車両に搭載した発光装置を、乗員の視線が向けられた場合に発光するように運転支援装置が制御することにより、乗員が命令のために音声を発する際に感じる運転支援装置に対する話しかけにくさを低減する。以下、本実施形態の運転支援装置を車両1に搭載した例を挙げて説明する。
(Embodiment 1)
In the present embodiment, the driving assistance device controls the light emitting device mounted on the vehicle to emit light when the line of sight of the occupant is directed, and the driving assistance felt when the occupant emits a voice for an instruction Reduce the difficulty of talking to the device. Hereinafter, the example which mounted the driving assistance device of this embodiment in the vehicle 1 is given and demonstrated.

図1は、本実施形態にかかる車両1の車室2aの一部が透視された状態が示された例示的な斜視図である。車両1は、例えば、内燃機関自動車であってもよいし、電気自動車や燃料電池自動車、ハイブリッド自動車等であってもよいし、他の駆動源を備えた自動車であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置、例えばシステムや部品等を搭載することができる。   FIG. 1 is an exemplary perspective view in which a part of a compartment 2a of a vehicle 1 according to the present embodiment is seen through. The vehicle 1 may be, for example, an internal combustion engine automobile, an electric automobile, a fuel cell automobile, a hybrid automobile or the like, or may be an automobile provided with another drive source. In addition, the vehicle 1 can be mounted with various transmissions, and can be mounted with various devices necessary for driving an internal combustion engine or a motor, such as a system or components.

また、図1に例示されるように、車両1は、例えば、四輪自動車であり、左右2つの前輪3Fと、左右2つの後輪3Rとを有する。これら4つの車輪3は、いずれも転舵可能に構成されうる。車両1における車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。   Further, as illustrated in FIG. 1, the vehicle 1 is, for example, a four-wheeled vehicle, and has two left and right front wheels 3F and two left and right two rear wheels 3R. All of these four wheels 3 can be configured to be steerable. The system, the number, the layout, and the like of devices related to the driving of the wheels 3 in the vehicle 1 can be set variously.

図1に例示されるように、車体2は、不図示の乗員が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席40a(運転席)に臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。   As illustrated in FIG. 1, the vehicle body 2 constitutes a passenger compartment 2 a in which a passenger (not shown) rides. A steering unit 4, an acceleration operation unit 5, a braking operation unit 6, a shift operation unit 7 and the like are provided in the passenger compartment 2a in a state of facing the driver's seat 40a (driver's seat) as a passenger.

操舵部4は、例えば、ダッシュボード12から突出したステアリングホイール(ハンドル)である。また、加速操作部5は、例えば、運転者の足下に位置されたアクセルペダルである。また、制動操作部6は、例えば、運転者の足下に位置されたブレーキペダルである。また、変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。なお、操舵部4や、加速操作部5、制動操作部6、変速操作部7は、これらに限定されるものではない。   The steering unit 4 is, for example, a steering wheel (handle) that protrudes from the dashboard 12. In addition, the acceleration operation unit 5 is, for example, an accelerator pedal positioned under the driver's foot. The braking operation unit 6 is, for example, a brake pedal positioned under the driver's foot. Further, the shift operation unit 7 is, for example, a shift lever that protrudes from the center console. The steering unit 4, the acceleration operation unit 5, the braking operation unit 6, and the transmission operation unit 7 are not limited to these.

また、車両1の車内には、発光装置30が設置される。本実施形態においては、発光装置30は、車室2a内のダッシュボード12上に設置される。発光装置30は、発光の態様を変更可能である。より詳細には、発光装置30は、例えば、ドーム形状のカバー内に、複数のLED(light emitting diode)を備え、LEDを点灯させることにより、様々な形状の発光部を表示する。また、発光装置30は、光の色を変更することができる。発光装置30は、後述するECU(electronic control unit)により制御される。本実施形態における発光装置30の設置位置は一例であり、これに限定されるものではない。また、発光装置30の構成はこれに限定されるものではなく、液晶パネル等を用いても良い。   In addition, a light emitting device 30 is installed inside the vehicle 1. In the present embodiment, the light emitting device 30 is installed on the dashboard 12 in the passenger compartment 2a. The light emitting device 30 can change the mode of light emission. More specifically, the light emitting device 30 includes, for example, a plurality of LEDs (light emitting diodes) in a dome-shaped cover, and displays light emitting units of various shapes by lighting the LEDs. In addition, the light emitting device 30 can change the color of light. The light emitting device 30 is controlled by an ECU (electronic control unit) described later. The installation position of the light emitting device 30 in the present embodiment is an example, and the present invention is not limited to this. Further, the configuration of the light emitting device 30 is not limited to this, and a liquid crystal panel or the like may be used.

また、車室2a内には、モニタ装置11が設けられている。モニタ装置11は、表示装置(図3に図示)や、音声出力装置(図3に図示)が設けられている。音声出力装置は、例えば、スピーカである。また、表示装置は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。また、表示装置は、例えば、タッチパネル等、透明な操作入力部(図3に図示)で覆われている。   Further, a monitor device 11 is provided in the passenger compartment 2a. The monitor device 11 is provided with a display device (shown in FIG. 3) and an audio output device (shown in FIG. 3). The audio output device is, for example, a speaker. The display device is, for example, a liquid crystal display (LCD), an organic electroluminescent display (OELD), or the like. The display device is covered with a transparent operation input unit (shown in FIG. 3) such as a touch panel, for example.

また、車体2の天井には、音声入力部24が設けられている。音声入力部24は例えばマイクであり、車室2a内の乗員の音声を入力可能である。図1に示す音声入力部24の設置位置は一例であり、これに限定されるものではない。   Further, on the ceiling of the vehicle body 2, a voice input unit 24 is provided. The voice input unit 24 is, for example, a microphone, and can input a voice of a passenger in the passenger compartment 2a. The installation position of the voice input unit 24 shown in FIG. 1 is an example, and the present invention is not limited to this.

また、操舵部4とダッシュボード12とを接続するハンドルコラム(図2に図示)には、車両1の車内を撮像する撮像装置15が設置されている。この撮像装置15は、例えば、CCD(Charge Coupled Device)カメラ等である。   Further, an imaging device 15 for imaging the inside of the vehicle 1 is installed on a steering wheel column (shown in FIG. 2) connecting the steering unit 4 and the dashboard 12. The imaging device 15 is, for example, a CCD (Charge Coupled Device) camera or the like.

図2は、本実施形態にかかる撮像装置15の配置の一例を示す図である。本実施形態においては、撮像装置15は、ハンドルコラム41に設置されている。撮像装置15は、座席40aに着座する乗員42aの顔が、視野中心に位置するように、視野角及び姿勢が調整されている。この撮像装置15は、車両1の車内を撮像し、撮像により得た画像データである撮像画像を、後述するECUへ順次出力する。また、本実施形態における運転者は、車両1の乗員のうち、操舵部4に面した座席40aに着座している乗員42aのことをいう。車両1が自動運転制御中である場合等、運転者は、必ずしも車両1の運転制御を行っていなくとも良い。   FIG. 2 is a view showing an example of the arrangement of the imaging device 15 according to the present embodiment. In the present embodiment, the imaging device 15 is installed on the handle column 41. The viewing angle and the attitude of the imaging device 15 are adjusted such that the face of the occupant 42a seated on the seat 40a is positioned at the center of the visual field. The imaging device 15 captures the inside of the vehicle 1 and sequentially outputs captured images, which are image data obtained by imaging, to an ECU described later. Further, the driver in the present embodiment refers to an occupant 42 a of the occupants of the vehicle 1 sitting on the seat 40 a facing the steering unit 4. When the vehicle 1 is under automatic driving control, the driver may not necessarily control the driving of the vehicle 1.

図3は、本実施形態にかかる運転支援システム10のハードウェア構成の一例を示す図である。図3に示すように、車両1に搭載された運転支援システム10では、ECU14や、モニタ装置11、発光装置30等の他、ブレーキシステム18、舵角センサ19(角度センサ)、アクセルセンサ20、シフトセンサ21、車輪速センサ22、操舵システム13、音声入力部24等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(controller area network)として構成される。なお、音声入力部24は車内ネットワーク23を介さずに、直接ECU14と接続する構成を採用しても良い。   FIG. 3 is a diagram showing an example of a hardware configuration of the driving support system 10 according to the present embodiment. As shown in FIG. 3, in the driving support system 10 mounted in the vehicle 1, the brake system 18, the steering angle sensor 19 (angle sensor), the accelerator sensor 20, in addition to the ECU 14, the monitor device 11, the light emitting device 30, etc. The shift sensor 21, the wheel speed sensor 22, the steering system 13, the voice input unit 24 and the like are electrically connected via an in-vehicle network 23 as a telecommunication line. The in-vehicle network 23 is configured as, for example, a CAN (controller area network). The voice input unit 24 may be directly connected to the ECU 14 without passing through the in-vehicle network 23.

ECU14は、発光装置30の発光の態様を制御する。また、ECU14は、撮像装置15から撮像画像を取得する。また、ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18等を制御する。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、音声入力部24等の検出結果、ならびに、操作入力部8c等の指示信号(制御信号、操作信号、入力信号、データ)を受け取る。ECU14は、本実施形態における運転支援装置の一例である。   The ECU 14 controls the light emission mode of the light emitting device 30. Further, the ECU 14 acquires a captured image from the imaging device 15. Further, the ECU 14 controls the steering system 13, the brake system 18 and the like by transmitting control signals through the in-vehicle network 23. In addition, the ECU 14 detects the torque sensor 13b, the brake sensor 18b, the steering angle sensor 19, the accelerator sensor 20, the shift sensor 21, the wheel speed sensor 22, the voice input unit 24, etc. An instruction signal (a control signal, an operation signal, an input signal, data) of the input unit 8c or the like is received. The ECU 14 is an example of the driving support device in the present embodiment.

ECU14は、例えば、CPU14a(central processing unit)や、ROM14b(read only memory)、RAM14c(random access memory)、表示制御部14d、音声制御部14e、SSD14f(solid state drive、フラッシュメモリ)等を有している。   The ECU 14 has, for example, a CPU 14a (central processing unit), a ROM 14b (read only memory), a RAM 14c (random access memory), a display control unit 14d, an audio control unit 14e, an SSD 14f (solid state drive, flash memory) and the like. ing.

CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行する。また、表示制御部14dは、ECU14での演算処理のうち、主として、撮像装置15で得られた画像データを用いた画像処理や、表示装置8aで表示される画像データの合成等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置8bで出力される音声データの処理を実行する。   The CPU 14a reads a program installed and stored in a non-volatile storage device such as the ROM 14b, and executes arithmetic processing according to the program. In addition, the display control unit 14d mainly performs image processing using image data obtained by the imaging device 15, composition of image data displayed by the display device 8a, and the like among the arithmetic processing in the ECU 14. Further, the voice control unit 14 e mainly performs processing of voice data output from the voice output device 8 b among the arithmetic processing in the ECU 14.

また、操舵システム13は、少なくとも2つの車輪3を操舵する。操舵システム13は、アクチュエータ13aと、トルクセンサ13bとを有する。   The steering system 13 also steers at least two wheels 3. The steering system 13 has an actuator 13a and a torque sensor 13b.

また、ブレーキシステム18は、アクチュエータ18aと、ブレーキセンサ18bとを有する。ブレーキシステム18は、アクチュエータ18aを介して、車輪3ひいては車両1に制動力を与える。   The brake system 18 also has an actuator 18a and a brake sensor 18b. The brake system 18 applies a braking force to the wheel 3 and thus to the vehicle 1 via the actuator 18a.

上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。   The configuration, arrangement, electrical connection form and the like of the various sensors and actuators described above are merely examples, and can be set (changed) in various ways.

図4は、本実施形態にかかるECU14が有する機能の一例を示すブロック図である。図4に示すように、ECU14は、記憶部140と、取得部141と、視線検出部142と、発話検出部143と、発光制御部144と、音声認識モード切替部145と、音声認識部146とを備える。   FIG. 4 is a block diagram showing an example of the function of the ECU 14 according to the present embodiment. As shown in FIG. 4, the ECU 14 includes a storage unit 140, an acquisition unit 141, a gaze detection unit 142, an utterance detection unit 143, a light emission control unit 144, a voice recognition mode switching unit 145, and a voice recognition unit 146. And

取得部141と、視線検出部142と、発話検出部143と、発光制御部144と、音声認識モード切替部145と、音声認識部146との各構成は、CPU14aが、ROM14b内に格納されたプログラムを実行することで実現される。なお、これらの構成をハードウェア回路で実現するように構成しても良い。   The CPU 14a stores the configuration of the acquisition unit 141, the sight line detection unit 142, the speech detection unit 143, the light emission control unit 144, the voice recognition mode switching unit 145, and the voice recognition unit 146 in the ROM 14b. It is realized by executing a program. Note that these configurations may be configured to be realized by a hardware circuit.

記憶部140は、音声認識モードの設定値を記憶する。音声認識モードの設定値は、音声による命令の入力を受け付ける音声認識機能の感度の設定値である。音声認識モードの設定値は、例えば、“低”、“中”、“高”の3段階とする。後述の音声認識部146は、記憶部140に記憶された音声認識モードの設定値に応じて、乗員の音声認識を実行する。本実施形態における音声認識モードの設定値は一例であり、これに限定されるものではない。また、記憶部140は、例えば、SSD14f等の記憶装置によって構成される。   The storage unit 140 stores the setting value of the speech recognition mode. The setting value of the voice recognition mode is a setting value of the sensitivity of the voice recognition function that receives input of a command by voice. The setting value of the speech recognition mode is, for example, three stages of “low”, “medium”, and “high”. The voice recognition unit 146 described later executes voice recognition of the occupant according to the setting value of the voice recognition mode stored in the storage unit 140. The setting values of the speech recognition mode in the present embodiment are an example, and the present invention is not limited to this. In addition, the storage unit 140 is configured of, for example, a storage device such as an SSD 14 f.

取得部141は、撮像装置15から撮像画像を取得する。   The acquisition unit 141 acquires a captured image from the imaging device 15.

視線検出部142は、取得部141が取得した撮像画像に含まれる乗員42aの顔画像から、乗員42aの視線の向きを検出する。   The sight line detection unit 142 detects the direction of the sight line of the occupant 42 a from the face image of the occupant 42 a included in the captured image acquired by the acquisition unit 141.

より詳細には、視線検出部142は、例えば、撮像画像から、乗員42aの顔の向き、目の位置、および目が向いている方向などを特定して、乗員42aの視線の向きを検出する。また、視線検出部142は、検出した乗員42aの視線が、発光装置30を向いているか否かを判断する。撮像画像における乗員42aの視線がいずれの向きである場合に発光装置30を向いていると判断するかは、予め登録されるものとする。例えば、撮像装置15の撮像範囲と、発光装置30の位置関係は、予め記憶部140に登録されても良い。また、視線検出部142は、検出した乗員42aの視線が、予め記憶された発光装置30を向いているか否かを判断する。なお、視線検出部142による視線の向きの検出の手法はこれに限定されるものではなく、他の公知の手法を採用しても良い。   More specifically, the line-of-sight detection unit 142 detects, for example, the direction of the line of sight of the occupant 42a by specifying the direction of the face of the occupant 42a, the position of the eyes, the direction in which the eyes are facing, etc. . Further, the line-of-sight detection unit 142 determines whether the detected line of sight of the occupant 42 a faces the light emitting device 30. It is assumed that in what direction the line of sight of the occupant 42 a in the captured image is oriented, it is registered in advance that it is determined that the light emitting device 30 is facing. For example, the imaging range of the imaging device 15 and the positional relationship of the light emitting device 30 may be registered in the storage unit 140 in advance. Further, the line-of-sight detection unit 142 determines whether or not the detected line of sight of the occupant 42 a faces the light-emitting device 30 stored in advance. Note that the method of detecting the direction of the line of sight by the line-of-sight detection unit 142 is not limited to this, and another known method may be adopted.

図5は、本実施形態にかかる撮像画像60の一例を示す図である。視線検出部142は、撮像画像60に含まれる乗員42aの顔画像から、乗員42aの視線D1を検出する。本実施形態においては、視線検出部142は、乗員42aの視線D1が撮像画像60の斜め左下を向く場合に、乗員42aの視線D1が、発光装置30を向いていると判断する。乗員42aと発光装置30との位置関係は一例であり、これに限定されるものではない。   FIG. 5 is a view showing an example of a captured image 60 according to the present embodiment. The gaze detection unit 142 detects the gaze D <b> 1 of the occupant 42 a from the face image of the occupant 42 a included in the captured image 60. In the present embodiment, when the line of sight D1 of the occupant 42a faces diagonally lower left of the captured image 60, the line of sight detection unit 142 determines that the line of sight D1 of the occupant 42a faces the light emitting device 30. The positional relationship between the occupant 42a and the light emitting device 30 is an example, and the present invention is not limited to this.

図4に戻り、発話検出部143は、乗員42aの発話を検出する。より詳細には、本実施形態の発話検出部143は、取得部141が取得した撮像画像60に含まれる乗員42aの顔画像から、乗員42aの口の動作を検出することによって、乗員42aが発話をしたことを検出する。一般に、車内にはラジオの音等の雑音が存在するが、発話検出部143は、撮像画像60から乗員42aの口の動作を検出するため、雑音等を乗員42aの発話と誤検出することを抑制できる。このため、本実施形態の発話検出部143は、乗員42aが発話をしたことを高精度に検出することができる。   Returning to FIG. 4, the speech detection unit 143 detects the speech of the occupant 42a. More specifically, the utterance detection unit 143 according to the present embodiment detects the movement of the mouth of the occupant 42a from the face image of the occupant 42a included in the captured image 60 acquired by the acquisition unit 141, whereby the occupant 42a speaks Detect what you did. Generally, noise such as radio sound is present in the car, but since the speech detection unit 143 detects movement of the mouth of the occupant 42a from the captured image 60, false detection of noise or the like as speech of the occupant 42a is It can be suppressed. For this reason, the speech detection unit 143 of the present embodiment can detect that the occupant 42a has made a speech with high accuracy.

また、本実施形態においては、発光装置30が車内に設置されているため、発話の際に乗員42aの顔が発光装置30に向けられやすくなる。このため、乗員42aの顔が撮像装置15に撮像されやすくなり、発話検出部143は、乗員42aの発話をより高精度に検出することができる。   Further, in the present embodiment, since the light emitting device 30 is installed in the car, the face of the occupant 42 a can be easily directed to the light emitting device 30 when speaking. Therefore, the face of the occupant 42a can be easily imaged by the imaging device 15, and the utterance detection unit 143 can detect the utterance of the occupant 42a with higher accuracy.

発光制御部144は、乗員の視線に基づいて、発光装置30の発光の態様を変化させる。より詳細には、本実施形態の発光制御部144は、視線検出部142が乗員42aの視線が発光装置30を向いていることを検出した場合に、発光装置30の発光の態様を変化させる。また、発光制御部144は、発話検出部143が乗員42aの発話を検出した場合に、乗員42aがいる方向に発光するよう、発光装置30を制御する。   The light emission control unit 144 changes the light emission mode of the light emitting device 30 based on the line of sight of the occupant. More specifically, the light emission control unit 144 of the present embodiment changes the light emission mode of the light emitting device 30 when the sight line detection unit 142 detects that the line of sight of the occupant 42 a faces the light emitting device 30. Further, the light emission control unit 144 controls the light emitting device 30 to emit light in the direction in which the occupant 42a is present when the speech detection unit 143 detects an utterance of the occupant 42a.

図6は、本実施形態にかかる発光装置30の発光の態様の一例を示す図である。図6に示す例では、発光装置30は、円形の発光部301aを発光させ、他の場所は消灯している。本実施形態においては、乗員42aが発光装置30に視線D1を向けたことが検出されず、かつ、乗員42aの発話も検出されていない状態においては、発光装置30は消灯状態であるものとする。   FIG. 6 is a view showing an example of the light emission mode of the light emitting device 30 according to the present embodiment. In the example shown in FIG. 6, the light emitting device 30 causes the circular light emitting portion 301a to emit light, and the other places are turned off. In the present embodiment, it is assumed that the light emitting device 30 is in the extinguished state in a state in which the occupant 42a does not detect that the line of sight D1 is directed to the light emitting device 30, and the utterance of the occupant 42a is not detected. .

発光制御部144は、視線検出部142が乗員42aの視線D1が発光装置30を向いていることを検出した場合に、乗員42aがいる方向に、青色に発光する円形の発光部301aを表示するよう、発光装置30を制御する。乗員42aがいる方向は、予め登録されているものとする。例えば、発光装置30が設置される位置と、乗員42aが着座する座席40aとの位置関係が、予め記憶部140に登録されても良い。   The light emission control unit 144 displays a circular light emitting unit 301 a that emits blue light in the direction in which the occupant 42 a is present, when the sight line detection unit 142 detects that the sight line D 1 of the occupant 42 a faces the light emitting device 30. Control the light emitting device 30. The direction in which the occupant 42a is present is assumed to be registered in advance. For example, the positional relationship between the position where the light emitting device 30 is installed and the seat 40 a on which the occupant 42 a is seated may be registered in the storage unit 140 in advance.

また、発光制御部144は、さらに、乗員42aの発話が検出された場合に、乗員42aがいる方向に、オレンジ色に発光する円形の発光部301aを表示するよう、発光装置30を制御する。発光部301aの形状、および色は一例であり、これに限定されるものではない。   The light emission control unit 144 further controls the light emitting device 30 to display a circular light emission unit 301 a that emits orange light in the direction in which the occupant 42 a is present, when the utterance of the occupant 42 a is detected. The shape and color of the light emitting unit 301 a are an example, and the present invention is not limited to this.

発光制御部144が、乗員42aの視線D1と発話とに基づいて、発光装置30の発光の態様を変化させることにより、発光装置30は、乗員42aの視線D1と発話とに対して応答するように動作する。このように発光装置30が動作することで、乗員42aが音声による命令の入力をする際に話しかけにくさを感じることを低減することができる。   The light emission control unit 144 changes the light emission mode of the light emitting device 30 based on the line of sight D1 of the occupant 42a and the speech so that the light emitting device 30 responds to the line of sight D1 of the occupant 42a and the speech To work. By operating the light emitting device 30 in this manner, it is possible to reduce the difficulty in speaking when the occupant 42a inputs an instruction by voice.

図4に戻り、音声認識モード切替部145は、乗員42aの視線D1または発話に基づいて、音声認識モードの設定値を切り替える。また、本実施形態においては、乗員42aの視線D1が発光装置30に向けられず、乗員42aが発話をしていない場合には、記憶部140に記憶された音声認識モードの設定値は“低”であるものとする。   Referring back to FIG. 4, the voice recognition mode switching unit 145 switches the setting value of the voice recognition mode based on the line of sight D1 or the utterance of the occupant 42a. Further, in the present embodiment, when the line of sight D1 of the occupant 42a is not directed to the light emitting device 30, and the occupant 42a is not speaking, the setting value of the voice recognition mode stored in the storage unit 140 is “low It shall be

より詳細には、音声認識モード切替部145は、視線検出部142が乗員42aの視線D1が発光装置30を向いていることを検出した場合に、記憶部140に記憶された音声認識モードの設定値を“中”に変更する。本実施形態においては、乗員42aが視線D1を発光装置30に向けている場合は、乗員42aが音声による命令の入力をする意図があるものとする。例えば、予め、乗員42aに対して、音声による命令の入力の際には発光装置30を見るように案内をしておいても良い。また、音声認識モード切替部145は、発話検出部143が乗員42aの発話を検出した場合に、記憶部140に記憶された音声認識モードの設定値を“高”に変更する。   More specifically, the voice recognition mode switching unit 145 sets the voice recognition mode stored in the storage unit 140 when the sight line detection unit 142 detects that the sight line D1 of the occupant 42a is facing the light emitting device 30. Change the value to "Medium". In the present embodiment, when the occupant 42a directs the sight line D1 to the light emitting device 30, it is assumed that the occupant 42a intends to input an instruction by voice. For example, the occupant 42a may be previously instructed to look at the light emitting device 30 when inputting an instruction by voice. In addition, when the speech detection unit 143 detects the speech of the occupant 42a, the speech recognition mode switching unit 145 changes the setting value of the speech recognition mode stored in the storage unit 140 to "high".

音声認識部146は、音声入力部24に入力された音声に対して音声認識処理を行い、命令の内容を特定する。より詳細には、音声認識部146は、記憶部140に記憶された音声認識モードの設定値が高いほど、音声認識の感度を上げるものとする。例えば、音声認識部146は、音声認識モードの設定値が高いほど、入力された音が雑音ではなく、乗員42aの音声による命令である可能性が高いものとして、高精度に単語の切り出しの処理を行う。音声認識部146は、音声認識モードの設定値によって、入力された音声から、乗員42aの命令が含まれている可能性が高い区間を特定することができるため、より高精度に音声認識をすることができる。また、音声認識部146は、ECU14が起動している間は常に音声認識処理を実行しているものとする。なお、音声認識の手法はこれに限定されるものではなく、他の公知の手法を採用することができる。   The voice recognition unit 146 performs voice recognition processing on the voice input to the voice input unit 24 and specifies the content of the command. More specifically, the speech recognition unit 146 increases the speech recognition sensitivity as the setting value of the speech recognition mode stored in the storage unit 140 is higher. For example, the higher the setting value of the speech recognition mode, the speech recognition unit 146 processes the word extraction with high accuracy, assuming that the input sound is not noise but is more likely to be an instruction by the voice of the occupant 42a. I do. The voice recognition unit 146 can identify a section that is highly likely to contain the command of the occupant 42 a from the input voice according to the setting value of the voice recognition mode, so voice recognition is performed with higher accuracy. be able to. In addition, it is assumed that the speech recognition unit 146 always executes speech recognition processing while the ECU 14 is activated. The speech recognition method is not limited to this, and other known methods can be adopted.

次に、以上のように構成された本実施形態のECU14における発光装置30の制御処理について説明する。図7は、本実施形態にかかる発光装置30の制御処理の手順の一例を示すフローチャートである。このフローチャートの処理は、ECU14が起動している間、繰り返し実行されるものとする。   Next, control processing of the light emitting device 30 in the ECU 14 of the present embodiment configured as described above will be described. FIG. 7 is a flow chart showing an example of the procedure of control processing of the light emitting device 30 according to the present embodiment. The processing of this flowchart is repeatedly executed while the ECU 14 is activated.

取得部141は、撮像装置15から撮像画像60を取得する(S1)。次に、視線検出部142は、取得部141が取得した撮像画像60に含まれる乗員42aの顔画像から、乗員42aの視線D1の向きを検出する。視線検出部142が乗員42aの視線D1が発光装置30を向いていることを検出した場合(S2“Yes”)、発光制御部144は、乗員42aがいる方向に、青色に発光する発光部301aを表示するよう、発光装置30を制御する(S3)。   The acquisition unit 141 acquires the captured image 60 from the imaging device 15 (S1). Next, the sight line detection unit 142 detects the direction of the sight line D1 of the occupant 42a from the face image of the occupant 42a included in the captured image 60 acquired by the acquisition unit 141. When the sight line detection unit 142 detects that the sight line D1 of the occupant 42a is facing the light emitting device 30 (S2 "Yes"), the light emission control unit 144 emits light in blue in the direction in which the occupant 42a is present. Is controlled to display the light emitting device 30 (S3).

また、音声認識モード切替部145は、視線検出部142が乗員42aの視線D1が発光装置30を向いていることを検出した場合に、記憶部140に記憶された音声認識モードの設定値を“中”に変更する(S4)。   The voice recognition mode switching unit 145 also sets the voice recognition mode setting value stored in the storage unit 140 when the sight line detection unit 142 detects that the sight line D1 of the occupant 42 a is facing the light emitting device 30. Change to medium (S4).

そして、発話検出部143は、取得部141が取得した撮像画像60に含まれる乗員42aの顔画像から、乗員42aの口の動作を検出することによって、乗員42aが発話をしたか否かを判断する。発話検出部143が乗員42aの発話を検出した場合(S5“Yes”)、発光制御部144は、乗員42aがいる方向に、オレンジ色に発光する発光部301aを表示するよう、発光装置30を制御する(S6)。   Then, the speech detection unit 143 detects whether or not the occupant 42a has made a speech by detecting the movement of the mouth of the occupant 42a from the face image of the occupant 42a included in the captured image 60 acquired by the acquisition unit 141. Do. When the speech detection unit 143 detects the speech of the occupant 42a (S5 "Yes"), the light emission control unit 144 causes the light emitting device 30 to display the light emission unit 301a that emits orange light in the direction in which the occupant 42a is present. Control (S6).

また、音声認識モード切替部145は、発話検出部143が乗員42aの発話を検出した場合に、記憶部140に記憶された音声認識モードの設定値を“高”に変更する(S7)。   Further, when the speech detection unit 143 detects the speech of the occupant 42a, the speech recognition mode switching unit 145 changes the setting value of the speech recognition mode stored in the storage unit 140 to "high" (S7).

視線検出部142が撮像画像60から乗員42aの視線が発光装置30を向いていることを検出しなかった場合(S2“No”)、S3、S4の処理は実行されず、S5の処理に進む。また、発話検出部143が撮像画像60から乗員42aの発話を検出しなかった場合(S5“No”)、S6、S7の処理は実行されず、このフローチャートの処理は終了する。   When the sight line detection unit 142 does not detect that the sight line of the occupant 42 a is facing the light emitting device 30 from the captured image 60 (S2 “No”), the processes of S3 and S4 are not performed, and the process proceeds to the process of S5. . When the speech detection unit 143 does not detect the speech of the occupant 42a from the captured image 60 (S5 “No”), the processes of S6 and S7 are not performed, and the process of this flowchart ends.

このように、本実施形態のECU14によれば、発光制御部144が、視線検出部142が乗員42aの視線D1が発光装置30を向いていることを検出した場合に、発光装置30の発光の態様を変化させるため、発光装置30が乗員42aの視線D1に対して応答するように動作する。このため、本実施形態のECU14によれば、乗員42aのECU14への話しかけにくさを低減することができる。   As described above, according to the ECU 14 of the present embodiment, when the light emission control unit 144 detects that the sight line detection unit 142 is pointing the sight line D1 of the occupant 42 a, the light emission control unit 144 In order to change the mode, the light emitting device 30 operates to respond to the line of sight D1 of the occupant 42a. Therefore, according to the ECU 14 of the present embodiment, it is possible to reduce the difficulty in talking to the ECU 14 of the occupant 42a.

また、本実施形態のECU14によれば、発光制御部144が、視線検出部142が、乗員42aの視線D1が発光装置30を向いていることを検出した場合に、乗員42aがいる方向に発光するよう、発光装置30を制御するため、乗員42aに対して、視線D1を検出していることをより明確に示すことができる。   Further, according to the ECU 14 of the present embodiment, the light emission control unit 144 emits light in the direction in which the occupant 42a is present when the sight line detection unit 142 detects that the sight line D1 of the occupant 42a faces the light emitting device 30. In order to control the light emitting device 30, it is possible to show the occupant 42a more clearly that the line of sight D1 is detected.

発光制御部144は、発話検出部143が乗員42aの発話を検出した場合に、乗員42aがいる方向に発光するよう、発光装置30を制御する。よって、本実施形態のECU14によれば、乗員42aに対して、発話を検出していることを明確に示すことができる。   The light emission control unit 144 controls the light emitting device 30 so as to emit light in the direction in which the occupant 42a is present, when the utterance detection unit 143 detects the utterance of the occupant 42a. Therefore, according to the ECU 14 of the present embodiment, it is possible to clearly indicate to the occupant 42 a that the utterance is detected.

また、発光装置30が乗員42aがいる方向に発光することにより、乗員42aに対して、発光装置30が乗員42aを見ている、または認識しているように感じさせるように演出をすることができる。また、発光装置30が乗員42aの視線D1等に反応して、乗員42aがいる方向に発光することにより、動物らしさのある反応を表現して、無機質さを和らげることができる。   In addition, by causing the light emitting device 30 to emit light in the direction in which the occupant 42 a is present, it is possible to produce an effect that makes the occupant 42 a feel as if the light emitting device 30 is looking at or recognizing the occupant 42 a. it can. Further, the light emitting device 30 responds to the line of sight D1 or the like of the occupant 42a and emits light in the direction in which the occupant 42a is present, whereby it is possible to express an animal-like response and soften the inorganicity.

(変形例1)
実施形態1では、発光装置30には1つの発光部301aが表示されるものとしたが、発光装置30の発光の態様はこれに限定されるものではない。図8は、本変形例にかかる発光装置30の発光の態様の一例を示す図である。図8に示すように、発光制御部144は、乗員42aが発光装置30に視線D1を向けたことが検出された場合、または、乗員42aの発話が検出された場合に、乗員42aがいる方向に、青色に発光する2つの円形の発光部301dおよび発光部301eを表示するよう、発光装置30を制御しても良い。本変形例の構成を採用した場合、発光部301d,301eが発光装置30の目のような形状となるため、乗員42aの視線D1または音声に対して応答していることを乗員42aにより強く感じさせやすくなる。
(Modification 1)
In the first embodiment, one light emitting unit 301 a is displayed on the light emitting device 30, but the light emission mode of the light emitting device 30 is not limited to this. FIG. 8 is a view showing an example of the light emission mode of the light emitting device 30 according to the present modification. As shown in FIG. 8, the light emission control unit 144 detects the direction in which the occupant 42 a is present when it is detected that the occupant 42 a has turned the line of sight D 1 to the light emitting device 30 or when an utterance of the occupant 42 a is detected. The light emitting device 30 may be controlled to display the two circular light emitting portions 301d and the light emitting portions 301e that emit blue light. When the configuration of this modification is adopted, the light emitting portions 301d and 301e are shaped like the eyes of the light emitting device 30, so it is more strongly felt by the occupant 42a that they respond to the line of sight D1 or the voice of the occupant 42a. It becomes easy to do.

また、図8に示す発光の態様に限らず、発光制御部144は、発光部が発光装置30の縁に沿って周回して移動するように制御しても良いし、発光装置30全体が発光や点滅をするように制御しても良い。また、実施形態1では、乗員42aが発光装置30に視線D1を向けたことが検出されず、かつ、乗員42aの発話も検出されていない状態においては発光装置30は発光していないものとしたが、視線D1や発話が検出されていない場合も発光装置30が発光していても良い。   Further, the light emission control unit 144 may control the light emission unit to move circumferentially along the edge of the light emitting device 30 without being limited to the light emission mode shown in FIG. You may control to blink. Further, in the first embodiment, it is assumed that the light emitting device 30 does not emit light in a state in which the occupant 42a does not detect that the line of sight D1 is directed to the light emitting device 30, and the utterance of the occupant 42a is not detected. However, the light emitting device 30 may emit light also when the sight line D1 or an utterance is not detected.

(変形例2)
実施形態1では、発光制御部144は、乗員42aの視線D1および発話に基づいて発光装置30の発光の態様を変更しているが、視線D1のみに基づいて発光の態様を変更しても良い。本変形例の構成を採用する場合は、図7に示したフローチャートのS1〜S4の処理が実行され、S5〜S7の処理は実行されないものとする。
(Modification 2)
In the first embodiment, the light emission control unit 144 changes the light emission mode of the light emitting device 30 based on the line of sight D1 and the utterance of the occupant 42a, but may change the light emission mode based on only the line of sight D1. . When the configuration of the present modification is adopted, the processes of S1 to S4 of the flowchart shown in FIG. 7 are executed, and the processes of S5 to S7 are not executed.

(変形例3)
実施形態1では、乗員42aの発話が検出された場合、乗員42aの視線D1が発光装置30に向けられているか否かに関わらず音声認識モードの設定値が“高”に設定されるものとしたが、乗員42aの視線D1が発光装置30に向けられている場合に、音声認識モードの設定値がより高く設定されるものとしても良い。より詳細には、音声認識モード切替部145は、乗員42aの視線D1が発光装置30に向けられておらず、かつ、乗員42aの発話が検出された場合よりも、乗員42aの視線D1が発光装置30に向けられ、かつ、乗員42aの発話が検出された場合に、音声認識モードの設定値を高く設定しても良い。本変形例の構成を採用する場合、乗員42aが音声による命令の入力の意図をもって発話している場合に、音声認識の感度をより高くすることができる。
(Modification 3)
In the first embodiment, when the speech of the occupant 42a is detected, the setting value of the voice recognition mode is set to "high" regardless of whether the line of sight D1 of the occupant 42a is directed to the light emitting device 30 or not. However, when the line of sight D1 of the occupant 42a is directed to the light emitting device 30, the setting value of the voice recognition mode may be set higher. More specifically, in the voice recognition mode switching unit 145, the line of sight D1 of the occupant 42a emits light than when the line of sight D1 of the occupant 42a is not directed to the light emitting device 30 and the speech of the occupant 42a is detected. The setting value of the voice recognition mode may be set to a high value when directed to the device 30 and when an utterance of the occupant 42a is detected. When the configuration of the present modification is adopted, it is possible to further increase the sensitivity of voice recognition when the occupant 42a speaks with the intention of inputting a command by voice.

(変形例4)
実施形態1では、発話検出部143は、撮像画像60から乗員42aの発話を検出していたが、音声によって乗員42aの発話を検出しても良い。例えば、発話検出部143は、音声入力部24から入力された音声から音源の方向を推定し、乗員42aがいる方向からの音声であれば乗員42aが発話していると判断しても良い。
(Modification 4)
In the first embodiment, the speech detection unit 143 detects the speech of the occupant 42a from the captured image 60, but may detect the speech of the occupant 42a by voice. For example, the speech detection unit 143 may estimate the direction of the sound source from the voice input from the voice input unit 24, and may determine that the passenger 42a is speaking if the voice is from the direction in which the occupant 42a is present.

(変形例5)
実施形態1のECU14では、乗員42aの視線D1または発話に基づいて音声認識モードの設定値を変更していたが、乗員者42aの視線D1または発話に基づいて音声認識機能の“オン”、“オフ”を切り替える構成を採用しても良い。例えば、乗員42aが発光装置30に視線D1を向けたことが検出されず、かつ、乗員42aの発話も検出されていない状態においては音声認識機能はオフ状態、つまり音声入力を受け付けない状態であっても良い。そして、乗員42aが発光装置30に視線D1を向けたことが検出された場合、または、乗員42aの発話が検出された場合に、音声認識機能がオン状態、つまり音声入力を受け付ける状態になるものとしても良い。
(Modification 5)
In the ECU 14 of the first embodiment, the setting value of the voice recognition mode is changed based on the line of sight D1 or the speech of the occupant 42a, but the voice recognition function "on" or "on" based on the line of sight D1 or the speech of the occupant 42a. A configuration to switch off may be adopted. For example, when the occupant 42a does not detect that the line of sight D1 is directed to the light emitting device 30, and the utterance of the occupant 42a is not detected, the voice recognition function is off, that is, not accepting voice input. It is good. Then, when it is detected that the occupant 42a has turned the line of sight D1 to the light emitting device 30, or when an utterance of the occupant 42a is detected, the voice recognition function is turned on, that is, the voice input is accepted. As well.

(実施形態2)
実施形態1では、運転者である乗員42aの視線D1または発話に応じて発光装置30の発光の態様が変化していた。本実施形態においては、ECU14は、運転者だけではなく、他の乗員の視線や発話によっても、発光装置30の発光の態様を変化させる。
Second Embodiment
In the first embodiment, the light emission mode of the light emitting device 30 is changed according to the line of sight D1 or the utterance of the occupant 42a who is the driver. In the present embodiment, the ECU 14 changes the light emission mode of the light emitting device 30 not only by the driver but also by the line of sight or speech of another occupant.

図9は、本実施形態にかかる車両1の車室2aの一部が透視された状態が示された例示的な斜視図である。本実施形態の車両1においては、実施形態1の撮像装置15の代わりに、撮像装置1015が設けられている。撮像装置1015は、広角カメラであり、車両1内の運転席、助手席、後部座席に着座している各乗員の顔が撮像範囲に含まれるように設定されている。   FIG. 9 is an exemplary perspective view showing a state in which a part of the cabin 2a of the vehicle 1 according to the present embodiment is seen through. In the vehicle 1 of the present embodiment, an imaging device 1015 is provided instead of the imaging device 15 of the first embodiment. The imaging device 1015 is a wide-angle camera, and is set such that the face of each occupant sitting in the driver's seat, the passenger's seat, and the rear seat in the vehicle 1 is included in the imaging range.

図10は、本実施形態にかかる撮像画像1060の一例を示す図である。図10に示すように、撮像画像1060には、座席40a〜40cに着座した乗員42a〜42dの顔画像が含まれる。座席40a〜40cを特に区別しない場合には単に座席40という。以下、乗員42a〜42dを特に区別しない場合には単に乗員42という。図10に示す乗員42の数は一例であり、これに限定されるものではない。   FIG. 10 is a view showing an example of a captured image 1060 according to the present embodiment. As shown in FIG. 10, the captured image 1060 includes face images of the occupants 42a to 42d seated on the seats 40a to 40c. The seats 40a to 40c are simply referred to as the seats 40 unless otherwise specified. Hereinafter, the occupants 42 a to 42 d are simply referred to as the occupant 42 unless otherwise specified. The number of occupants 42 shown in FIG. 10 is an example, and is not limited to this.

本実施形態においては、図9に示すように、撮像装置1015は、車両1のモニタ装置11の上部に設けられる。図9に示す撮像装置1015の設置位置は一例であり、これに限定されるものではない。例えば、撮像装置1015は、ダッシュボード12の上に設置されても良い。   In the present embodiment, as shown in FIG. 9, the imaging device 1015 is provided above the monitor device 11 of the vehicle 1. The installation position of the imaging device 1015 shown in FIG. 9 is an example, and the present invention is not limited to this. For example, the imaging device 1015 may be installed on the dashboard 12.

また、本実施形態のECU14は、撮像装置1015から撮像画像を取得する。車両1の他の構成については、図1および図2で説明した実施形態1の構成と同様である。なお、車両1は、実施形態1の撮像装置15と、撮像装置1015と、の両方を備える構成を採用しても良い。   Further, the ECU 14 of the present embodiment acquires a captured image from the imaging device 1015. The other configuration of the vehicle 1 is the same as the configuration of the first embodiment described in FIGS. 1 and 2. The vehicle 1 may adopt a configuration including both the imaging device 15 of the first embodiment and the imaging device 1015.

また、本実施形態のECU14は、実施形態1と同様に、記憶部140と、取得部141と、視線検出部142と、発話検出部143と、発光制御部144と、音声認識モード切替部145と、音声認識部146と、を備える。   Further, as in the first embodiment, the ECU 14 according to the present embodiment includes the storage unit 140, the acquisition unit 141, the gaze detection unit 142, the speech detection unit 143, the light emission control unit 144, and the voice recognition mode switching unit 145. And a speech recognition unit 146.

本実施形態の記憶部140と、取得部141と、音声認識モード切替部145と、音声認識部146とは、実施形態1と同様の機能を有する。   The storage unit 140, the acquisition unit 141, the voice recognition mode switching unit 145, and the voice recognition unit 146 of the present embodiment have the same functions as in the first embodiment.

本実施形態の視線検出部142は、取得部141が取得した撮像画像1060に含まれる乗員42の顔画像から、乗員42の視線の向きを検出する。本実施形態においては、視線検出部142は、撮像画像1060に複数の乗員42の顔画像が含まれる場合に、複数の乗員42のそれぞれの視線の向きを検出する。視線検出部142は、検出した複数の乗員42のそれぞれの視線が、発光装置30を向いているか否かを判断する。   The gaze detection unit 142 of the present embodiment detects the direction of the gaze of the occupant 42 from the face image of the occupant 42 included in the captured image 1060 acquired by the acquisition unit 141. In the present embodiment, when the captured image 1060 includes face images of the plurality of occupants 42, the gaze detection unit 142 detects the direction of the line of sight of each of the plurality of occupants 42. The sight line detection unit 142 determines whether the sight lines of the plurality of detected occupants 42 face the light emitting device 30.

図10に示す撮像画像1060の例では、視線検出部142は、乗員42aの視線D1と、乗員42bの視線D2とが発光装置30を向いていると判断する。以下、視線D1と視線D2とを特に区別しない場合は、視線Dという。   In the example of the captured image 1060 illustrated in FIG. 10, the sight line detection unit 142 determines that the sight line D1 of the occupant 42a and the sight line D2 of the occupant 42b face the light emitting device 30. Hereinafter, when the line of sight D1 and the line of sight D2 are not particularly distinguished from each other, it is referred to as a line of sight D.

本実施形態の発話検出部143は、取得部141が取得した撮像画像1060に含まれる乗員42の顔画像から、乗員42の口の動作を検出することによって、乗員42が発話をしたことを検出する。本実施形態においては、撮像画像1060に複数の乗員42の顔画像が含まれる場合に、発話検出部143は、複数の乗員42のそれぞれの発話を検出する。   The speech detection unit 143 of the present embodiment detects that the occupant 42 has made a speech by detecting the movement of the mouth of the occupant 42 from the face image of the occupant 42 included in the captured image 1060 acquired by the acquisition unit 141 Do. In the present embodiment, when face images of a plurality of occupants 42 are included in the captured image 1060, the utterance detection unit 143 detects the respective utterances of the plurality of occupants 42.

本実施形態の発光制御部144は、実施形態1の機能に加えて、視線検出部142が1人の乗員42の視線Dが発光装置30を向いていることを検出した場合と、視線検出部142が複数の乗員42の視線Dが発光装置30を向いていることを検出した場合とでは、異なる態様で発光装置30を発光させる。   In the light emission control unit 144 of the present embodiment, in addition to the functions of the first embodiment, the case where the sight line detection unit 142 detects that the sight line D of one occupant 42 is directed to the light emitting device 30; In the case where it is detected that the line of sight D of the plurality of occupants 42 faces the light emitting device 30, the light emitting device 30 is caused to emit light in a different mode.

より詳細には、発光制御部144は、視線検出部142が1人の乗員42の視線Dが発光装置30を向いていることを検出した場合、当該乗員42がいる方向に発光するよう、発光装置30を制御する。また、発光制御部144は、2人の乗員42の視線Dが発光装置30を向いていることを検出した場合、当該2人の乗員42がいるそれぞれの方向に発光するよう、発光装置30を制御する。また、発光制御部144は、視線検出部142が3人以上の視線Dが発光装置30を向いていることを検出した場合、円環状の発光部を表示するよう、発光装置30を制御する。   More specifically, the light emission control unit 144 emits light so that when the sight line detection unit 142 detects that the sight line D of one occupant 42 is directed to the light emitting device 30, the light emission control unit 144 emits light in the direction in which the occupant 42 is present. Control the device 30; In addition, when the light emission control unit 144 detects that the line of sight D of the two occupants 42 faces the light emitting device 30, the light emission control unit 144 emits light in the respective directions in which the two occupants 42 are present. Control. In addition, the light emission control unit 144 controls the light emitting device 30 to display an annular light emitting unit when the sight line detection unit 142 detects that the sight lines D of three or more persons are facing the light emitting device 30.

また、本実施形態の発光制御部144は、発話検出部143が1人の乗員42の発話を検出した場合と、発話検出部143が複数の乗員42の発話を検出した場合とでは、異なる態様で発光装置30を発光させる。より詳細には、発光制御部144は、発話検出部143が1人の乗員42の発話を検出した場合、当該乗員42がいる方向に発光するよう、発光装置30を制御する。また、発光制御部144は、発話検出部143が2人の乗員42の発話を検出した場合、当該2人の乗員42がいるそれぞれの方向に発光するよう、発光装置30を制御する。また、発光制御部144は、発話検出部143が3人以上の乗員42の発話を検出した場合、円環状の発光部を表示するよう、発光装置30を制御する。   In the light emission control unit 144 of this embodiment, different modes are used between the case where the speech detection unit 143 detects the speech of one occupant 42 and the case where the speech detection unit 143 detects speech of a plurality of occupants 42. Causes the light emitting device 30 to emit light. More specifically, the light emission control unit 144 controls the light emitting device 30 to emit light in the direction in which the occupant 42 is present, when the speech detection unit 143 detects an utterance of one occupant 42. Further, the light emission control unit 144 controls the light emitting device 30 to emit light in the respective directions in which the two occupants 42 are present, when the speech detection unit 143 detects the utterance of the two occupants 42. In addition, the light emission control unit 144 controls the light emitting device 30 to display the annular light emitting unit when the speech detection unit 143 detects the speech of three or more occupants 42.

図11は、本実施形態にかかる発光装置30の発光の態様の一例を示す図である。本実施形態の発光制御部144は、実施形態1と同様に、視線検出部142が乗員42aの視線D1が発光装置30を向いていることを検出した場合に、乗員42aがいる方向に、青色に発光する円形の発光部301aを表示するよう、発光装置30を制御する。本実施形態の発光制御部144は、さらに、視線検出部142が乗員42bの視線D2が発光装置30を向いていることを検出した場合に、乗員42bがいる方向に、青色に発光する円形の発光部301bを表示するよう、発光装置30を制御する。   FIG. 11 is a view showing an example of the light emission mode of the light emitting device 30 according to the present embodiment. As in the first embodiment, the light emission control unit 144 according to the present embodiment detects blue when the sight line detection unit 142 detects that the sight line D1 of the occupant 42a is directed to the light emitting device 30. The light emitting device 30 is controlled to display a circular light emitting unit 301 a that emits light. The light emission control unit 144 of the present embodiment further has a circular shape that emits blue light in the direction in which the occupant 42b is present, when the gaze detection unit 142 detects that the gaze D2 of the occupant 42b is directed to the light emitting device 30. The light emitting device 30 is controlled to display the light emitting unit 301 b.

また、図12は、本実施形態にかかる発光装置30の発光の態様の他の一例を示す図である。図12に示す例では、視線検出部142が乗員42a〜42dの視線D1〜D4が発光装置30を向いていることを検出しているものとする。このような場合、本実施形態の発光制御部144は、発光装置30の縁に沿って青色に発光する円環状の発光部301cを表示するよう、発光装置30を制御する。また、発話検出部143が乗員42の発話を検出した場合、発光制御部144は、検出された発話者の人数に応じて、オレンジ色の発光部301a〜301cを表示するよう、発光装置30を制御する。   Moreover, FIG. 12 is a figure which shows another example of the light emission aspect of the light-emitting device 30 concerning this embodiment. In the example illustrated in FIG. 12, it is assumed that the sight line detection unit 142 detects that the sight lines D1 to D4 of the occupants 42a to 42d are facing the light emitting device 30. In such a case, the light emission control unit 144 of the present embodiment controls the light emitting device 30 to display an annular light emitting unit 301 c that emits blue light along the edge of the light emitting device 30. In addition, when the speech detection unit 143 detects the speech of the occupant 42, the light emission control unit 144 displays the orange light emission units 301a to 301c according to the number of the detected speakers. Control.

発光制御部144が、各乗員42の視線Dと発話とに基づいて、発光装置30の発光の態様を変化させることにより、発光装置30は、各乗員42の視線Dと発話とに対して、それぞれ応答するように動作する。なお、図11および図12に示す発光部301a〜301cの形状、および色は一例であり、これに限定されるものではない。以下、発光部301a〜301cを特に区別しない場合には、発光部301という。   The light emission control unit 144 changes the light emission mode of the light emitting device 30 based on the line of sight D and the utterance of each occupant 42, whereby the light emitting device 30 responds to the line of sight D and the utterance of each occupant 42, Each operates to respond. In addition, the shape and color of light emission part 301a-301c shown to FIG. 11 and FIG. 12 are an example, It is not limited to this. Hereinafter, the light emitting units 301 a to 301 c will be referred to as the light emitting unit 301 when not particularly distinguished.

次に、以上のように構成された本実施形態のECU14における発光装置30の制御処理について説明する。図13は、本実施形態にかかる発光装置30の制御処理の手順の一例を示すフローチャートである。   Next, control processing of the light emitting device 30 in the ECU 14 of the present embodiment configured as described above will be described. FIG. 13 is a flowchart showing an example of the procedure of control processing of the light emitting device 30 according to the present embodiment.

取得部141は、撮像装置1015から撮像画像1060を取得する(S21)。   The acquisition unit 141 acquires a captured image 1060 from the imaging device 1015 (S21).

次に、視線検出部142は、取得部141が取得した撮像画像1060に含まれる乗員42の顔画像から、それぞれの乗員42の視線Dの向きを検出する。視線検出部142が何れかの乗員42の視線Dが発光装置30を向いていることを検出した場合(S22“Yes”)、かつ、発光装置30を向いている視線の数が1人分である場合(S23“Yes”)、発光制御部144は、視線Dを発光装置30に向けている乗員42がいる方向に、青色に発光する発光部301を1つ表示するよう、発光装置30を制御する(S24)。   Next, the sight line detection unit 142 detects the direction of the sight line D of each occupant 42 from the face image of the occupant 42 included in the captured image 1060 acquired by the acquisition unit 141. When the sight line detection unit 142 detects that the sight line D of any one of the occupants 42 is facing the light emitting device 30 (S22 “Yes”), the number of sight lines facing the light emitting device 30 is one If there is (S23 “Yes”), the light emission control unit 144 displays the light emitting device 30 such that one light emitting unit 301 emitting blue light is displayed in the direction in which the occupant 42 who directs the sight line D to the light emitting device 30 is present. It controls (S24).

また、視線検出部142が検出した発光装置30を向いている視線の数が2人分である場合(S23“No”、S25“Yes”)、発光制御部144は、視線Dを発光装置30に向けている2人の乗員42がいる2つの方向に、青色に発光する発光部301をそれぞれ1つずつ表示するよう、発光装置30を制御する(S26)。   Further, when the number of sight lines facing the light emitting device 30 detected by the sight line detection unit 142 is two (S23 “No”, S25 “Yes”), the light emission control unit 144 selects the sight line D from the light emitting device 30. The light emitting device 30 is controlled to display the light emitting portions 301 emitting blue light one by one in the two directions in which the two occupants 42 facing are in (S26).

また、視線検出部142が検出した発光装置30を向いている視線の数が3人分以上である場合(S25“No”)、発光制御部144は、青色の円環状の発光部301cを表示するよう、発光装置30を制御する(S27)。   In addition, when the number of sight lines facing the light emitting device 30 detected by the sight detection unit 142 is three or more (S25 “No”), the light emission control unit 144 displays the blue annular light emitting unit 301c. The light emitting device 30 is controlled to do this (S27).

また、音声認識モード切替部145は、視線検出部142が何れかの乗員42の視線Dが発光装置30を向いていることを検出した場合に、記憶部140に記憶された音声認識モードの設定値を“中”に変更する(S28)。   Further, the voice recognition mode switching unit 145 sets the voice recognition mode stored in the storage unit 140 when the sight line detection unit 142 detects that the sight line D of any one of the occupants 42 faces the light emitting device 30. The value is changed to "medium" (S28).

また、視線検出部142が何れの乗員42の視線Dが発光装置30を向いていることも検出しなかった場合(S22“No”)、S23〜S28の処理は実行されず、S29の処理に進む。   When the sight line detection unit 142 does not detect that the sight line D of any of the occupants 42 faces the light emitting device 30 (S22 “No”), the processes of S23 to S28 are not performed, and the process of S29 is performed. move on.

次に、発話検出部143は、取得部141が取得した撮像画像1060に含まれる乗員42の顔画像から、乗員42の口の動作を検出することによって、乗員42が発話をしたか否かを判断する。発話検出部143が何れかの乗員42の発話を検出した場合(S29“Yes”)、かつ、発話が検出された乗員42が1人である場合(S30“Yes”)、発光制御部144は、発話が検出された乗員42がいる方向に、オレンジ色に発光する発光部301を表示するよう、発光装置30を制御する(S31)。   Next, the utterance detection unit 143 detects whether or not the occupant 42 speaks by detecting the movement of the occupant 42's mouth from the face image of the occupant 42 included in the captured image 1060 acquired by the acquisition unit 141. to decide. When the speech detection unit 143 detects the speech of any of the occupants 42 (S29 "Yes"), and when the number of the occupants 42 whose speech is detected is one (S30 "Yes"), the light emission control unit 144 The light emitting device 30 is controlled to display the light emitting unit 301 that emits orange light in the direction in which the occupant 42 whose utterance is detected is present (S31).

また、発話が検出された乗員42が2人である場合(S30“No”、S32“Yes”)、発光制御部144は、発話が検出された2人の乗員42がいる2つの方向に、オレンジ色に発光する発光部301をそれぞれ表示するよう、発光装置30を制御する(S33)。   In addition, when the number of occupants 42 whose utterances are detected is two (S30 “No”, S32 “Yes”), the light emission control unit 144 is operated in two directions in which the two occupants 42 whose utterances are detected are present. The light emitting device 30 is controlled to display the light emitting units 301 that emit orange light (S33).

また、発話が検出された乗員42が3人以上である場合(S32“No”)、発光制御部144は、オレンジ色の円環状の発光部301cを表示するよう、発光装置30を制御する(S34)。   In addition, when the number of occupants 42 whose utterance is detected is three or more (S32 “No”), the light emission control unit 144 controls the light emitting device 30 to display the orange annular light emitting unit 301c ( S34).

また、音声認識モード切替部145は、発話検出部143が何れかの乗員42の発話を検出した場合に、記憶部140に記憶された音声認識モードの設定値を“高”に変更する(S35)。   Further, the voice recognition mode switching unit 145 changes the setting value of the voice recognition mode stored in the storage unit 140 to "high" when the voice detection unit 143 detects a voice of any one of the occupants 42 (S35). ).

また、発話検出部143が何れの乗員42の発話も検出しなかった場合(S29“No”)、S30〜S35の処理は実行されず、このフローチャートの処理は終了する。   When the speech detection unit 143 does not detect any speech of the occupant 42 (S29 “No”), the process of S30 to S35 is not performed, and the process of this flowchart ends.

このように、本実施形態のECU14によれば、発光制御部144は、発光装置30を向いている乗員42の視線Dの数によって異なる態様で発光装置30を発光させるため、発光装置30が、複数の乗員42の視線Dに対してそれぞれ応答するように動作する。このため、本実施形態のECU14によれば、各乗員42が感じる話しかけにくさを低減することができる。   As described above, according to the ECU 14 of the present embodiment, the light emission control unit 144 causes the light emission device 30 to emit light in a mode that differs depending on the number of sight lines D of the occupant 42 facing the light emission device 30. It operates to respond to the gaze D of the plurality of occupants 42 respectively. For this reason, according to the ECU 14 of the present embodiment, it is possible to reduce the difficulty in speaking by each occupant 42.

(変形例6)
実施形態2のECU14では、ダッシュボード12中央のモニタ装置11に設置された撮像装置1015によって、車両1の乗員42が撮像されたが、撮像装置1015の設置位置はこれに限定されるものではない。例えば、各座席40a〜40cに着座した乗員42a〜42dに面する位置に、それぞれ撮像装置が1台ずつ設置されても良い。
(Modification 6)
In the ECU 14 of the second embodiment, the occupant 42 of the vehicle 1 is imaged by the imaging device 1015 installed in the monitor device 11 at the center of the dashboard 12. However, the installation position of the imaging device 1015 is not limited thereto. . For example, one imaging device may be installed at each of the positions facing the occupants 42a to 42d seated in the respective seats 40a to 40c.

(変形例7)
また、実施形態2においては、発光装置30に視線Dを向けている乗員42が3人以上の場合、または発話している乗員42が3人以上の場合は発光装置30は円環状の発光部301cを表示するものとしたが、発光の態様はこれに限定されるものではない。例えば、乗員42の人数に関わらず、各乗員42のいる方向に円形の発光部301がそれぞれ表示されても良い。
(Modification 7)
In the second embodiment, the light emitting device 30 has an annular light emitting portion in the case where there are three or more occupants 42 whose line of sight D is directed to the light emitting device 30, or in the case where there are three or more occupants 42 speaking. Although 301c is displayed, the light emission mode is not limited to this. For example, regardless of the number of occupants 42, circular light emitting units 301 may be displayed in the direction in which each occupant 42 is present.

(実施形態3)
本実施形態においては、ECU14は、車両1が自動運転制御中であるか、手動運転中であるかに応じて、発光装置30の発光の態様を変化させる。
(Embodiment 3)
In the present embodiment, the ECU 14 changes the light emission mode of the light emitting device 30 according to whether the vehicle 1 is under automatic driving control or manual driving.

図14は、本実施形態にかかるECU14が有する機能の一例を示すブロック図である。図14に示すように、ECU14は、記憶部1140と、取得部141と、視線検出部142と、発話検出部143と、発光制御部1144と、音声認識モード切替部145と、音声認識部146と、運転制御部147と、を備える。   FIG. 14 is a block diagram showing an example of the function of the ECU 14 according to the present embodiment. As shown in FIG. 14, the ECU 14 includes a storage unit 1140, an acquisition unit 141, a gaze detection unit 142, an utterance detection unit 143, a light emission control unit 1144, a voice recognition mode switching unit 145, and a voice recognition unit 146. And an operation control unit 147.

本実施形態の取得部141と、視線検出部142と、発話検出部143と、音声認識モード切替部145と、音声認識部146とは、実施形態1と同様の機能を有する。   The acquisition unit 141, the gaze detection unit 142, the speech detection unit 143, the speech recognition mode switching unit 145, and the speech recognition unit 146 according to the present embodiment have the same functions as in the first embodiment.

本実施形態の記憶部1140は、音声認識モードの設定値と、自動運転フラグとを記憶する。音声認識モードの設定値は、実施形態1と同様である。   The storage unit 1140 of the present embodiment stores the setting value of the voice recognition mode and the automatic driving flag. The setting values of the speech recognition mode are the same as in the first embodiment.

自動運転フラグは、車両1が自動運転制御中であるか、手動運転中であるかを示すフラグである。例えば、車両1が自動運転制御中である場合には自動運転フラグは“1”、車両1が手動運転中である場合には自動運転フラグは“0”となる。本実施形態において、自動運転制御は、後述の運転制御部147によって車両1の操舵、加速、制動が制御されることをいう。なお、車両1が自動運転制御中であるか否かを判断する手法は、自動運転フラグに限定されるものではない。   The automatic driving flag is a flag indicating whether the vehicle 1 is in automatic driving control or in manual driving. For example, when the vehicle 1 is under automatic driving control, the automatic driving flag is "1", and when the vehicle 1 is manually driving, the automatic driving flag is "0". In the present embodiment, the automatic driving control means that steering, acceleration, and braking of the vehicle 1 are controlled by a driving control unit 147 described later. In addition, the method of determining whether the vehicle 1 is under automatic driving control is not limited to the automatic driving flag.

運転制御部147は、車両1の自動運転制御を実行する。より詳細には、運転制御部147は、操舵システム13、ブレーキシステム18、加速操作部5等を制御することにより、車両1を運転する。運転制御部147は、例えば、乗員42aが操作入力部8cから自動運転制御の開始の操作を行った場合に自動運転制御を開始し、自動運転制御の終了の操作を行った場合に自動運転制御を終了する。また、運転制御部147は、自動運転制御中に、音声によって行先の指示や、停止の指示等が入力された場合、当該指示に従って車両1を制御する。   The operation control unit 147 executes automatic operation control of the vehicle 1. More specifically, the operation control unit 147 drives the vehicle 1 by controlling the steering system 13, the brake system 18, the acceleration operation unit 5, and the like. The operation control unit 147 starts the automatic operation control, for example, when the occupant 42a performs an operation to start the automatic operation control from the operation input unit 8c, and the automatic operation control when the operation to end the automatic operation control is performed. Finish. In addition, when an instruction of a destination, an instruction of stopping, or the like is input by voice during automatic driving control, the operation control unit 147 controls the vehicle 1 according to the instruction.

また、運転制御部147は、自動運転制御を開始する場合に、記憶部1140の自動運転フラグを“1”と設定する。また、運転制御部147は、自動運転制御を終了する場合に、記憶部1140の自動運転フラグを“0”に設定する。自動運転制御の形式、および、自動運転制御の開始または終了の条件は、これらに限定されるものではない。   Further, the operation control unit 147 sets the automatic operation flag of the storage unit 1140 to “1” when starting the automatic operation control. Further, the operation control unit 147 sets the automatic operation flag of the storage unit 1140 to “0” when ending the automatic operation control. The type of automatic driving control and the conditions for starting or ending automatic driving control are not limited to these.

また、運転制御部147は、他の機能と同様に、CPU14aが、ROM14b内に格納されたプログラムを実行することで実現される。なお、運転制御部147は、ハードウェア回路で実現するように構成されても良い。   Further, the operation control unit 147 is realized by the CPU 14a executing a program stored in the ROM 14b, as in the other functions. The operation control unit 147 may be configured to be realized by a hardware circuit.

本実施形態の発光制御部1144は、車両1が自動運転制御されている場合と、車両1が手動運転されている場合とでは、異なる態様で発光装置30を発光させる。より詳細には、発光制御部1144は、記憶部1140に記憶された自動運転フラグが“1”の場合と、“0”の場合とでは、発光装置30を異なる色で発光させる。例えば、発光制御部1144は、記憶部1140に記憶された自動運転フラグが“1”の場合に、発光装置30の全体を黄色に発光させる。また、発光制御部1144は、記憶部1140に記憶された自動運転フラグが“0”の場合に、発光装置30の全体を緑色に発光させる。発光制御部1144が発光装置30の発光の態様を変化させることで、乗員42は、車両1が自動運転制御中であるか否かを容易に確認することができる。   The light emission control unit 1144 according to the present embodiment causes the light emitting device 30 to emit light in different modes in the case where the automatic driving control of the vehicle 1 is performed and in the case where the vehicle 1 is manually operated. More specifically, the light emission control unit 1144 causes the light emitting device 30 to emit light in different colors depending on whether the automatic operation flag stored in the storage unit 1140 is “1” or “0”. For example, when the automatic driving flag stored in the storage unit 1140 is “1”, the light emission control unit 1144 causes the entire light emitting device 30 to emit light in yellow. In addition, when the automatic driving flag stored in the storage unit 1140 is “0”, the light emission control unit 1144 causes the entire light emitting device 30 to emit green light. When the light emission control unit 1144 changes the light emission mode of the light emitting device 30, the occupant 42 can easily check whether the vehicle 1 is under automatic driving control.

本実施形態における車両1が自動運転制御中であるか否かの判断の手法は一例であり、発光制御部1144は、他の手法によって車両1の制御状態を判断しても良い。また、本実施形態における発光装置30の発光の態様は一例であり、これに限定されるものではない。   The method of determining whether the vehicle 1 is in automatic driving control in the present embodiment is an example, and the light emission control unit 1144 may determine the control state of the vehicle 1 by another method. The light emission mode of the light emitting device 30 in the present embodiment is an example, and the present invention is not limited to this.

次に、以上のように構成された本実施形態のECU14における発光装置30の制御処理について説明する。図15は、本実施形態にかかる発光装置30の制御処理の手順の一例を示すフローチャートである。   Next, control processing of the light emitting device 30 in the ECU 14 of the present embodiment configured as described above will be described. FIG. 15 is a flow chart showing an example of the procedure of control processing of the light emitting device 30 according to the present embodiment.

本実施形態の発光制御部1144は、記憶部1140に記憶された自動運転フラグを参照し、車両1が自動運転制御中であるか否かを判断する(S41)。   The light emission control unit 1144 according to the present embodiment refers to the automatic driving flag stored in the storage unit 1140, and determines whether the vehicle 1 is under automatic driving control (S41).

自動運転フラグが“1”の場合、つまり、車両1が自動運転制御中である場合(S41“Yes”)、発光制御部1144は、発光装置30を黄色に発光させる(S42)。   If the automatic driving flag is "1", that is, if the vehicle 1 is under automatic driving control (S41 "Yes"), the light emission control unit 1144 causes the light emitting device 30 to emit light yellow (S42).

また、自動運転フラグが“0”の場合、つまり、車両1が自動運転制御中ではない場合(S41“No”)、発光制御部1144は、発光装置30を緑色に発光させる(S43)。   When the automatic driving flag is “0”, that is, when the vehicle 1 is not under automatic driving control (S41 “No”), the light emission control unit 1144 causes the light emitting device 30 to emit green light (S43).

その後の、S1の撮像画像60の取得の処理からS7の音声認識モードを“高”に設定する処理までは、実施形態1と同様である。   The subsequent processing from acquisition of the captured image 60 in S1 to processing for setting the voice recognition mode in S7 to "high" are the same as in the first embodiment.

このように、本実施形態のECU14では、車両1が自動運転制御されている場合と、車両1が手動運転されている場合とでは、異なる態様で発光装置30を発光させるため、車両1が自動運転制御中であるか否かを乗員42が容易に確認することができる。   As described above, in the ECU 14 of the present embodiment, since the light emitting device 30 emits light in different modes when the vehicle 1 is under automatic driving control and when the vehicle 1 is under manual driving, the vehicle 1 is automatic. The occupant 42 can easily confirm whether the operation control is in progress.

このため、本実施形態のECU14によれば、車両1が手動運転中である場合に、自動運転制御向けの音声命令を乗員42が誤入力することを低減することができる。また、本実施形態のECU14によれば、車両1が自動運転制御中である場合に、手動運転向けの音声命令を乗員42が誤入力することを低減することができる。   For this reason, according to the ECU 14 of the present embodiment, it is possible to reduce that the occupant 42 erroneously inputs a voice command for automatic driving control when the vehicle 1 is in a manual operation. Further, according to the ECU 14 of the present embodiment, when the vehicle 1 is under automatic driving control, it is possible to reduce that the passenger 42 erroneously inputs a voice command for manual driving.

以上、本発明の実施形態を例示したが、上記実施形態および変形例はあくまで一例であって、発明の範囲を限定することは意図していない。上記実施形態や変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、組み合わせ、変更を行うことができる。また、各実施形態や各変形例の構成や形状は、部分的に入れ替えて実施することも可能である。   As mentioned above, although the embodiment of the present invention was illustrated, the above-mentioned embodiment and modification are an example to the last, and limiting the scope of the invention is not intended. The above embodiment and modifications can be implemented in other various forms, and various omissions, replacements, combinations, and changes can be made without departing from the scope of the invention. In addition, the configurations and shapes of the embodiments and the modifications may be partially replaced and implemented.

1…車両、10…運転支援システム、14…ECU、15…撮像装置、24…音声入力部、30…発光装置、40,40a〜40c…座席、42,42a〜42d…乗員、60,1060…撮像画像、140,1140…記憶部、141…取得部、142…視線検出部、143…発話検出部、144,1144…発光制御部、145…音声認識モード切替部、146…音声認識部、147…運転制御部、301,301a〜301e…発光部、D,D1〜D4…視線。   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 10 ... Driving assistance system, 14 ... ECU, 15 ... Imaging device, 24 ... Voice input part, 30 ... Light-emitting device, 40, 40a-40c ... Seat, 42, 42a-42d ... Occupant, 60, 1060 ... Captured image, 140, 1140 ... storage unit, 141 ... acquisition unit, 142 ... gaze detection unit, 143 ... speech detection unit, 144, 1144 ... emission control unit, 145 ... speech recognition mode switching unit, 146 ... speech recognition unit, 147 ... driving control unit, 301, 301a to 301e ... light emitting unit, D, D1 to D4 ... line of sight.

Claims (5)

車内を撮像する撮像装置の撮像画像に含まれる乗員の顔画像から、前記乗員の視線の向きを検出する視線検出部と、
前記視線検出部が前記乗員の視線が前記車内に設置された発光装置を向いていることを検出した場合に、前記発光装置の発光の態様を変化させる発光制御部と、
を備えた運転支援装置。
A line-of-sight detection unit that detects the direction of the line of sight of the occupant from a face image of the occupant included in a captured image of an imaging device that captures the inside of the vehicle;
A light emission control unit that changes a light emission mode of the light emitting device when the sight line detection unit detects that the line of sight of the occupant is facing a light emitting device installed in the vehicle;
Driving support device equipped with.
前記発光制御部は、前記視線検出部が前記乗員の視線が前記発光装置を向いていることを検出した場合に、前記乗員がいる方向に発光するよう、前記発光装置を制御する、
請求項1に記載の運転支援装置。
The light emission control unit controls the light emitting device to emit light in a direction in which the occupant is present, when the sight line detection unit detects that the line of sight of the occupant is facing the light emitting device.
The driving support device according to claim 1.
前記乗員の発話を検出する発話検出部、をさらに備え、
前記発光制御部は、前記発話検出部が前記乗員の発話を検出した場合に、発話をした前記乗員がいる方向に発光するよう、前記発光装置を制御する、
請求項1または2に記載の運転支援装置。
And a speech detection unit that detects the speech of the occupant.
The light emission control unit controls the light emitting device to emit light in a direction in which the occupant who has made an utterance is emitted when the utterance detection unit detects an utterance of the occupant.
The driving support device according to claim 1.
前記発光制御部は、前記視線検出部が1人の前記乗員の視線が前記発光装置を向いていることを検出した場合と、前記視線検出部が複数の前記乗員の視線が前記発光装置を向いていることを検出した場合とでは、異なる態様で前記発光装置を発光させる、
請求項1から3のいずれか1項に記載の運転支援装置。
The light emission control unit is configured such that the line of sight detection unit detects that the line of sight of one of the occupants faces the light emitting device, and the line of sight detection unit directs the lines of sight of the plurality of occupants to the light emitting device The light emitting device is made to emit light in a different mode from the case of detecting that
The driving assistance device according to any one of claims 1 to 3.
前記発光制御部は、前記発光装置が設置された車両が自動運転制御されている場合と、前記車両が手動運転されている場合とでは、異なる態様で前記発光装置を発光させる、
請求項1から4のいずれか1項に記載の運転支援装置。
The light emission control unit causes the light emitting device to emit light in different modes when the vehicle in which the light emitting device is installed is under automatic driving control and when the vehicle is manually driven.
The driving assistance device according to any one of claims 1 to 4.
JP2017202953A 2017-10-19 2017-10-19 Driving support apparatus Pending JP2019079083A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017202953A JP2019079083A (en) 2017-10-19 2017-10-19 Driving support apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017202953A JP2019079083A (en) 2017-10-19 2017-10-19 Driving support apparatus

Publications (1)

Publication Number Publication Date
JP2019079083A true JP2019079083A (en) 2019-05-23

Family

ID=66627974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017202953A Pending JP2019079083A (en) 2017-10-19 2017-10-19 Driving support apparatus

Country Status (1)

Country Link
JP (1) JP2019079083A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021084653A1 (en) * 2019-10-30 2021-05-06 アイマトリックスホールディングス株式会社 Eye contact detection device
JP7474058B2 (en) 2020-02-04 2024-04-24 株式会社デンソーテン Display device and display device control method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130304479A1 (en) * 2012-05-08 2013-11-14 Google Inc. Sustained Eye Gaze for Determining Intent to Interact
JP2014069671A (en) * 2012-09-28 2014-04-21 Nissan Motor Co Ltd Display device in steering wheel
JP2014178339A (en) * 2011-06-03 2014-09-25 Nec Corp Voice processing system, utterer's voice acquisition method, voice processing device and method and program for controlling the same
WO2016158792A1 (en) * 2015-03-31 2016-10-06 ソニー株式会社 Information processing device, control method, and program
JP2017144521A (en) * 2016-02-18 2017-08-24 ソニー株式会社 Information processing device, information processing method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014178339A (en) * 2011-06-03 2014-09-25 Nec Corp Voice processing system, utterer's voice acquisition method, voice processing device and method and program for controlling the same
US20130304479A1 (en) * 2012-05-08 2013-11-14 Google Inc. Sustained Eye Gaze for Determining Intent to Interact
JP2014069671A (en) * 2012-09-28 2014-04-21 Nissan Motor Co Ltd Display device in steering wheel
WO2016158792A1 (en) * 2015-03-31 2016-10-06 ソニー株式会社 Information processing device, control method, and program
JP2017144521A (en) * 2016-02-18 2017-08-24 ソニー株式会社 Information processing device, information processing method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021084653A1 (en) * 2019-10-30 2021-05-06 アイマトリックスホールディングス株式会社 Eye contact detection device
JPWO2021084653A1 (en) * 2019-10-30 2021-11-18 アイマトリックスホールディングス株式会社 Eye contact detector
US11657134B2 (en) 2019-10-30 2023-05-23 Imatrix Holdings Corp. Eye contact detection device
JP7474058B2 (en) 2020-02-04 2024-04-24 株式会社デンソーテン Display device and display device control method

Similar Documents

Publication Publication Date Title
US20200062276A1 (en) System and method of controlling auxiliary vehicle functions
JP4481187B2 (en) Vehicle control device
US9221386B2 (en) Warning device for judging whether occupant is visually distracted
US10691122B2 (en) In-vehicle system
WO2007052487A1 (en) Display device and navigation device
JP2006335231A (en) Display system utilizing agent character display
JP2018144526A (en) Periphery monitoring device
JP5588764B2 (en) In-vehicle device operation device
WO2019058781A1 (en) Parking assistance device
JP2008189201A (en) Vehicular visibility assist device
WO2017002708A1 (en) Image display control device
JP6585662B2 (en) Vehicle roof mounting system
WO2018061261A1 (en) Display control device
CN111989726A (en) Method, device and mobile tool for automatically starting mobile tool at optical signal equipment
JP2016218613A (en) Vehicle
US9550420B2 (en) Parking assistance system and method for controlling the same
JP2002236534A (en) On-vehicle equipment operation device
JP6914730B2 (en) Driving support device and driving support method
JP2019079083A (en) Driving support apparatus
US11608086B2 (en) Display device of vehicle
US20210334562A1 (en) Vehicle control device
US20190281402A1 (en) Testing of directional hearing as used in active driver assistance systems
CN111511599A (en) Method for operating an auxiliary system and auxiliary system for a motor vehicle
JP2018073257A (en) Obstacle detection system
US20200047697A1 (en) Vehicle system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220215