JP2021107801A - Automatic driving vehicle, image display method and program - Google Patents

Automatic driving vehicle, image display method and program Download PDF

Info

Publication number
JP2021107801A
JP2021107801A JP2019239784A JP2019239784A JP2021107801A JP 2021107801 A JP2021107801 A JP 2021107801A JP 2019239784 A JP2019239784 A JP 2019239784A JP 2019239784 A JP2019239784 A JP 2019239784A JP 2021107801 A JP2021107801 A JP 2021107801A
Authority
JP
Japan
Prior art keywords
occupant
vehicle
map
display
driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019239784A
Other languages
Japanese (ja)
Other versions
JP7198742B2 (en
Inventor
尚克 佐藤
Naokatsu Sato
尚克 佐藤
小林 正英
Masahide Kobayashi
正英 小林
尚 村山
Takashi Murayama
尚 村山
夕紀 青木
Yuki Aoki
夕紀 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019239784A priority Critical patent/JP7198742B2/en
Publication of JP2021107801A publication Critical patent/JP2021107801A/en
Application granted granted Critical
Publication of JP7198742B2 publication Critical patent/JP7198742B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an automatic driving vehicle that facilitates an occupant to select information and reduces operational cumbersomeness.SOLUTION: An HMI control part 10 of an automatic driving vehicle includes: a display part for displaying an image indicating a surrounding situation of a vehicle; an occupant feeling estimation part 101 for estimating an occupant feeling of an occupant in a cabin; a driving intention recognition part 102 for recognizing a driving intention of the vehicle; and a display control part 103 for outputting to the display part an image indicating a surrounding situation that is produced by varying an information amount according to the occupant feeling and driving intention. More specifically, the occupant feeling estimation part estimates an occupant feeling degree quantitatively representing the occupant feeling from a facial expression of the occupant imaged by a driver monitoring camera. In a case where the occupant feeling degree is higher than a given value, the display control part outputs to the display part a map image produced by increasing an additional information amount.SELECTED DRAWING: Figure 3

Description

本発明は、車内ディスプレイに走行車両の周辺情報を表示する自動運転車両、画像表示方法およびプログラムに関する。 The present invention relates to an autonomous vehicle, an image display method, and a program for displaying peripheral information of a traveling vehicle on an in-vehicle display.

近年、運転者の負担を軽減し、快適な車両の運行を実現するために、自動運転と呼ばれる運転支援技術が鋭意提案されている。
自動運転に係る国際基準では、ドライバ要求タスクの軽重・有無、自動化度の高低に応じて、複数段階にわたるレベルが階層的に設定されている。また、あるレベルのなかでも、自動化を実現するための一群の要件を横並びで実現可能との観点を用いて、複数段階にわたる区分(カテゴリ)が階層的に設定されている。
例えば、レベル4(高度自動運転)やレベル5(完全自動運転)の自動運転では、ドライバが運転操作をオーバーライドする必要はない
In recent years, in order to reduce the burden on the driver and realize comfortable vehicle operation, a driving support technology called automatic driving has been enthusiastically proposed.
In the international standard for autonomous driving, levels over multiple stages are set hierarchically according to the lightness / presence / absence of driver-required tasks and the degree of automation. In addition, even within a certain level, a group of requirements for realizing automation can be realized side by side, and divisions (categories) over a plurality of stages are set hierarchically.
For example, in level 4 (highly automatic driving) and level 5 (fully automatic driving) automatic driving, the driver does not need to override the driving operation.

上記のとおり、レベル4以上の自動運転中においては、ドライバは、運転操作に関わる必要がない。このため、他の乗員と同様に、ドライバが、車両のインフォテイメントシステム等を活用することが可能となる。
例えば、特許文献1には、車両の表示装置に複数の異なる表示形態で車両の走行経路などを表示する自動運転車両が開示されている。
As described above, the driver does not need to be involved in the driving operation during the automatic driving of level 4 or higher. Therefore, like other occupants, the driver can utilize the vehicle infotainment system and the like.
For example, Patent Document 1 discloses an autonomous driving vehicle that displays a traveling route of a vehicle or the like on a display device of the vehicle in a plurality of different display forms.

特開2019−32307号公報Japanese Unexamined Patent Publication No. 2019-32307

特許文献1の技術によれば、複数の異なる表示形態で車両の環境を掲示し、環境に対応した複数の運転操作を選択可能しているので、自動運転中の最適な運転操作を選択することができる。
しかし、乗員が選択を行うことにより表示を切り替えており、状況によっては煩わしさがあった。
According to the technology of Patent Document 1, the environment of the vehicle is posted in a plurality of different display forms, and a plurality of driving operations corresponding to the environment can be selected. Therefore, the optimum driving operation during automatic driving can be selected. Can be done.
However, the display is switched by the occupant making a selection, which is troublesome depending on the situation.

本発明は、乗員が情報選択を行いやすくなるとともに、操作の煩わしさを減少する自動運転車両を提供することを目的とする。 An object of the present invention is to provide an autonomous driving vehicle that facilitates information selection by an occupant and reduces the troublesome operation.

前記課題を解決するため、本発明の自動運転車両は、車両の周辺状況を示す画像を表示する表示部と、前記車両内の乗員の乗員感情を推定する乗員感情推定部と、前記車両の運転意図を認識する運転意図認識部と、前記乗員感情および前記運転意図に応じて情報量を可変した周辺状況を示す前記画像を、前記表示部に出力する表示制御部と、を備えるようにした。 In order to solve the above problems, the autonomous driving vehicle of the present invention includes a display unit that displays an image showing the surrounding situation of the vehicle, an occupant emotion estimation unit that estimates the occupant's emotions in the vehicle, and driving of the vehicle. It is provided with a driving intention recognition unit that recognizes an intention, and a display control unit that outputs the image showing the peripheral situation in which the amount of information is varied according to the occupant's feelings and the driving intention to the display unit.

本発明の自動運転車両によれば、乗員の状況と運転意図に応じ表示装置の情報量を可変するので、乗員が情報の選択を行いやすくなり、情報選択の煩わしさを減少させることができる。 According to the self-driving vehicle of the present invention, since the amount of information of the display device is changed according to the situation of the occupant and the driving intention, the occupant can easily select the information and the troublesomeness of the information selection can be reduced.

実施形態の自動運転車両の制御ブロック構成図である。It is a control block block diagram of the self-driving vehicle of an embodiment. 自動運転車両の車室前部構造の一例を示す図である。It is a figure which shows an example of the passenger compartment front structure of the self-driving vehicle. HMI制御部の構成を説明するブロック図である。It is a block diagram explaining the structure of the HMI control unit. 乗員の感情度と運転意図の明確性と地図表示の関係を説明する図である。It is a figure explaining the relationship between the emotional degree of an occupant, the clarity of a driving intention, and the map display. HMI制御部の処理概要を示すフロー図である。It is a flow chart which shows the processing outline of the HMI control unit. 乗員感情推定部が乗員の顔表情あるいは動作から感情分析する場合の処理フロー図である。It is a processing flow diagram when the occupant emotion estimation unit analyzes an emotion from a occupant's facial expression or movement. 乗員感情推定部が乗員の会話から感情分析する場合の処理フロー図である。It is a processing flow diagram when the occupant emotion estimation unit analyzes an emotion from the conversation of an occupant. Camera View”の表示形式の表示例である。This is a display example of the display format of "Camera View". 乗員の感情度が高く、付加情報量が多い表示形式の表示例である。This is a display example of a display format in which the occupant's emotional level is high and the amount of additional information is large. 地図の詳細度が高い“3D Real Map”の表示例である。This is a display example of "3D Real Map" with high map detail. 運転意図認識部および表示制御部の詳細処理のフロー図である。It is a flow chart of the detailed processing of a driving intention recognition unit and a display control unit. “Simple Map”の表示形式の表示例である。This is a display example of the display format of "Simple Map". 信号機(交通不参加物標)が追加された表示例である。This is a display example with a traffic light (traffic light not participating) added. 樹木(交通不参加物標)が追加された表示例である。This is a display example with trees (traffic non-participation markers) added. 鳥瞰図における地図画像の仮想視点と表示範囲の関係を説明する図である。It is a figure explaining the relationship between a virtual viewpoint and a display range of a map image in a bird's-eye view. 鳥瞰図における地図画像の仮想視点を変える処理フロー図である。It is a processing flow diagram which changes a virtual viewpoint of a map image in a bird's-eye view.

以下、本発明の実施形態を、図面を参照しながら詳細に説明する。
図1は、実施形態の自動運転車両Mの制御ブロック構成図である。
自動運転車両Mは、ガソリンエンジン等の内燃機関を動力源とした自動車、電動機を動力源とした電気自動車、内燃機関及び電動機を兼ね備えたハイブリッド自動車等を含み、二輪や三輪、四輪等の自動車である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a control block configuration diagram of the autonomous driving vehicle M of the embodiment.
The self-driving vehicle M includes a vehicle powered by an internal combustion engine such as a gasoline engine, an electric vehicle powered by an electric motor, a hybrid vehicle having both an internal combustion engine and an electric motor, and the like. Is.

自動運転車両Mには、車両制御装置1、外界センサ2、ナビゲーション装置3、通信装置4、HMI(Human Machine Interface)5、走行駆動装置6、ブレーキ装置7、ステアリング装置8、車両センサ9が搭載されている。 The automatic driving vehicle M is equipped with a vehicle control device 1, an outside world sensor 2, a navigation device 3, a communication device 4, an HMI (Human Machine Interface) 5, a traveling drive device 6, a braking device 7, a steering device 8, and a vehicle sensor 9. Has been done.

外界センサ2、ナビゲーション装置3、通信装置4、HMI5、走行駆動装置6、ブレーキ装置7、ステアリング装置8、車両センサ9は、それぞれ、車両制御装置1との間で通信媒体を介して相互にデータ通信可能に接続して構成されている。 The external world sensor 2, the navigation device 3, the communication device 4, the HMI 5, the traveling drive device 6, the brake device 7, the steering device 8, and the vehicle sensor 9 each have data with and from the vehicle control device 1 via a communication medium. It is configured to be communicable.

外界センサ2は、自動運転車両Mの周囲に存する物体や標識を含む物標に関する外界情報を検知する機能を有し、カメラ21、レーダ22、ライダ23から成る。
カメラ21は、複数のCMOSカメラやCCDカメラから成り、自動運転車両Mの進行方向画像を撮像する機能を有する。自動運転車両Mの進行方向前方・右後側方・左後側方の様子を周期的に繰り返し撮像したカメラ21の撮像画像は、後述する外界認識部11に通知される。
The outside world sensor 2 has a function of detecting outside world information about a target including an object or a sign existing around the autonomous driving vehicle M, and includes a camera 21, a radar 22, and a rider 23.
The camera 21 is composed of a plurality of CMOS cameras and CCD cameras, and has a function of capturing an image of the traveling direction of the autonomous driving vehicle M. The captured image of the camera 21 that periodically and repeatedly captures the front, right rear side, and left rear side of the autonomous driving vehicle M in the traveling direction is notified to the outside world recognition unit 11, which will be described later.

レーダ22は、自動運転車両Mの前方を走行する追従対象となる先行車を含む物標にレーダ波を照射する一方、物標で反射されたレーダ波を受信することにより、物標までの距離や物標の方位を含む物標の分布情報を取得する機能を有する。レーダ波としては、レーザ、マイクロ波、ミリ波、超音波などを適宜用いることができる。
また、レーダ22は、例えば、自動運転車両Mのフロント側に3つ、リア側に2つの都合5つ設けられている。レーダ22による物標の分布情報は、外界認識部11に通知される。
The radar 22 irradiates the target including the preceding vehicle to be followed traveling in front of the autonomous driving vehicle M with the radar wave, and receives the radar wave reflected by the target to reach the target. It has a function to acquire distribution information of the target including the direction of the target and the target. As the radar wave, a laser, a microwave, a millimeter wave, an ultrasonic wave or the like can be appropriately used.
Further, for example, three radars 22 are provided on the front side of the autonomous driving vehicle M, and two radars 22 are provided on the rear side. The distribution information of the target by the radar 22 is notified to the outside world recognition unit 11.

ライダ23(LIDAR:Light Detection and Ranging)は、照射光に対する散乱光の検出に要する時間を計測することにより、物標の有無、及び物標までの距離を検知する。ライダ23は、例えば、自動運転車両Mのフロント側に2つ、リア側に3つの都合5つ設けられている。ライダ23による物標の分布情報は、外界認識部11に通知される。 The rider 23 (LIDAR: Light Detection and Ranging) detects the presence or absence of a target and the distance to the target by measuring the time required to detect the scattered light with respect to the irradiation light. For example, two riders 23 are provided on the front side of the autonomous driving vehicle M, and three riders 23 are provided on the rear side. The distribution information of the target by the rider 23 is notified to the outside world recognition unit 11.

ナビゲーション装置3は、現在位置を地図上にマッピングすると共に目的地までの経路案内等を行う機能を有する。 The navigation device 3 has a function of mapping the current position on a map and providing route guidance to the destination.

通信装置4は、例えば、セルラー網、Wi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)等の無線通信媒体を介して通信を行う機能を有する。
また、通信装置4は、スマートエントリーキーのシステムにおける通信部である。
The communication device 4 has a function of communicating via a wireless communication medium such as a cellular network, a Wi-Fi network, Bluetooth (registered trademark), or DSRC (Dedicated Short Range Communication).
Further, the communication device 4 is a communication unit in the smart entry key system.

HMI5は、後述するHMI制御部10により制御され、車両制御装置1と自動運転車両Mの乗員との間のコミュニケーションを行うためのデバイス群である。
アクセルペダル、ブレーキペダルおよびステアリングホイール等の運転操作の操作量を検出するセンサをHMI5としてもよい。
実施形態の自動運転車両Mでは、HMI5は、インフォメーションパネル51、車内マイク52、ドライバーモニタカメラ53を含むものとして説明する。
The HMI 5 is a group of devices that are controlled by the HMI control unit 10 described later and for communicating between the vehicle control device 1 and the occupants of the autonomous driving vehicle M.
The HMI 5 may be a sensor that detects the amount of operation of the accelerator pedal, the brake pedal, the steering wheel, and the like.
In the autonomous driving vehicle M of the embodiment, the HMI 5 will be described as including the information panel 51, the in-vehicle microphone 52, and the driver monitor camera 53.

インフォメーションパネル51は、後述するHMI制御部10により制御され、車室内の乗員宛に車両の周辺状況を示す画像や各種情報を表示する表示部である。インフォメーションパネル51は、特に限定されないが、例えば、LCD(Liquid Crystal Display)、有機EL(Electroluminescence)、HUD(Head Up Display)などによって構成される。
図2により、インフォメーションパネル51の構成を説明する。
The information panel 51 is controlled by the HMI control unit 10 described later, and is a display unit that displays an image showing the surrounding situation of the vehicle and various information to the occupants in the vehicle interior. The information panel 51 is not particularly limited, but is composed of, for example, an LCD (Liquid Crystal Display), an organic EL (Electroluminescence), a HUD (Head Up Display), or the like.
The configuration of the information panel 51 will be described with reference to FIG.

図2は、自動運転車両の車室前部構造の一例を示す図である。
図2に示すように、自動運転車両MのHMI5は、運転席に正対する位置に設けられるメータパネル54と、運転席及び助手席にわたって対向するように設けられる、車幅方向(Y方向)に横長のインフォメーションパネル51と、車幅方向の運転席側に設けられた右側パネル55Rと、車幅方向の助手席側に設けられた左側パネル55Lと、を含む。
FIG. 2 is a diagram showing an example of a passenger compartment front structure of an autonomous driving vehicle.
As shown in FIG. 2, the HMI 5 of the autonomous driving vehicle M is provided in the vehicle width direction (Y direction) so as to face the meter panel 54 provided at a position facing the driver's seat and the driver's seat and the passenger seat. It includes a horizontally long information panel 51, a right panel 55R provided on the driver's seat side in the vehicle width direction, and a left panel 55L provided on the passenger seat side in the vehicle width direction.

メータパネル54には、例えば、スピードメータ、タコメータ、オドメータ、シフト位置情報、灯火類の点灯状況情報等が表示される。
インフォメーションパネル51には、例えば、自動運転車両M周辺の地図情報、地図上における自動運転車両Mの現在位置情報、自動運転車両Mの現在の走行路・予定経路に関する交通情報(信号情報を含む)、自動運転車両Mの周囲に存する交通参加者(歩行者・自転車・オートバイ・他車両等を含む)に関する交通参加者情報、交通参加者に向けて発するメッセージ等の各種情報等が表示される。
On the meter panel 54, for example, a speedometer, a tachometer, an odometer, shift position information, lighting status information of lights, and the like are displayed.
On the information panel 51, for example, map information around the automatic driving vehicle M, current position information of the automatic driving vehicle M on the map, and traffic information (including signal information) regarding the current traveling route / planned route of the automatic driving vehicle M are displayed. , Traffic participant information about traffic participants (including pedestrians, bicycles, motorcycles, other vehicles, etc.) existing around the automatic driving vehicle M, various information such as messages sent to the traffic participants, and the like are displayed.

右側パネル55Rには、自動運転車両Mの右側に設けたカメラ21により撮像した車両右側における後方及び下方の画像情報が表示される。
左側パネル55Lには、自動運転車両Mの左側に設けたカメラ21により撮像した車両左側における後方及び下方の画像情報が表示される。
On the right panel 55R, image information on the rear and lower sides of the vehicle on the right side, which is captured by the camera 21 provided on the right side of the autonomous driving vehicle M, is displayed.
On the left panel 55L, image information of the rear and lower parts on the left side of the vehicle captured by the camera 21 provided on the left side of the autonomous driving vehicle M is displayed.

図1に戻り、車内マイク52は、自動運転車両Mの乗員の音声を検出する集音機器である。
ドライバーモニタカメラ53は、CCDやCMOS等の固体撮像素子を利用したデジタルカメラであり、インフォメーションパネル51、バックミラーやステアリングボス部(いずれも不図示)に設けられ、少なくとも運転席に着座しているドライバを撮像する。
車内マイク52で集音した音声情報およびドライバーモニタカメラ53で撮像した画像情報あるいは映像情報は、HMI制御部10に通知される。
Returning to FIG. 1, the in-vehicle microphone 52 is a sound collecting device that detects the voice of the occupant of the autonomous driving vehicle M.
The driver monitor camera 53 is a digital camera that uses a solid-state image sensor such as a CCD or CMOS, and is provided on an information panel 51, a rear-view mirror, and a steering boss (all not shown), and is at least seated in the driver's seat. Image the driver.
The audio information collected by the in-vehicle microphone 52 and the image information or video information captured by the driver monitor camera 53 are notified to the HMI control unit 10.

走行駆動装置6は、自動運転車両Mが走行するための駆動力(トルク)を駆動輪に出力する。走行駆動装置6は、内燃機関エンジンとエンジンECU(Electronic Control Unit)あるいは走行用モータとモータECUを有し、後述する走行制御部16から通知される情報に従って、走行する駆動力を制御する。 The traveling drive device 6 outputs a driving force (torque) for the autonomous driving vehicle M to travel to the drive wheels. The traveling drive device 6 has an internal combustion engine engine and an engine ECU (Electronic Control Unit) or a traveling motor and a motor ECU, and controls traveling driving force according to information notified from a traveling control unit 16 described later.

ブレーキ装置7は、自動運転車両Mを制動する電動サーボブレーキ装置あるいは電子制御式油圧ブレーキ装置であり、走行制御部16から通知される情報に従って、制動力を制御する。 The braking device 7 is an electric servo braking device or an electronically controlled hydraulic braking device that brakes the autonomous driving vehicle M, and controls the braking force according to the information notified from the traveling control unit 16.

ステアリング装置8は、後述する自動運転制御部15から通知される情報、あるいはハンドルの操舵角に応じて、自動運転車両Mの転舵輪の向きを変更する。 The steering device 8 changes the direction of the steering wheel of the autonomous driving vehicle M according to the information notified from the automatic driving control unit 15 described later or the steering angle of the steering wheel.

車両センサ9は、自動運転車両Mの車両状態に関する各種情報を検出するセンサ群である。
車両センサ9は、運転席に乗員が着座しているか否を検出するセンサである着座センサ(不図示)、ドライバがハンドルを把持しているか否を検出するセンサであるハンドル把持センサ(不図示)、自動運転車両Mの乗員が車両ドアのドアノブを握った(ドアハンドルに触れた)ことを検知するセンサであるドアノブセンサ(不図示)等から成る。
The vehicle sensor 9 is a group of sensors that detect various information regarding the vehicle state of the autonomous driving vehicle M.
The vehicle sensor 9 is a seating sensor (not shown) that detects whether or not an occupant is seated in the driver's seat, and a handle grip sensor (not shown) that detects whether or not the driver is gripping the handle. It is composed of a doorknob sensor (not shown) which is a sensor for detecting that an occupant of the automatic driving vehicle M has grasped (touched the door handle) the doorknob of the vehicle door.

また、車両センサ9は、図示しない、車速を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、車両の向きを検出する方位センサ、車両の傾斜角度を検出する傾斜角センサ等の自動運転に関連する種々のセンサを有する。 Further, the vehicle sensor 9 detects a vehicle speed sensor for detecting vehicle speed, an acceleration sensor for detecting acceleration, a yaw rate sensor for detecting an angular velocity around a vertical axis, an orientation sensor for detecting the direction of the vehicle, and an inclination angle of the vehicle, which are not shown. It has various sensors related to automatic operation such as an inclination angle sensor.

つぎに、車両制御装置1の構成について説明する。
車両制御装置1は、一以上のプロセッサ又は同等の機能を有するハードウェアにより構成され、CPU(Central Processing Unit)などのプロセッサ、記憶装置、及び通信インターフェースが内部バスによって接続されたECU(Electronic Control Unit)、又はMPU(Micro-Processing Unit)などが組み合わされ構成されている。
車両制御装置1は、CPUのプログラムが実行されることで機能している。
Next, the configuration of the vehicle control device 1 will be described.
The vehicle control device 1 is composed of one or more processors or hardware having equivalent functions, and an ECU (Electronic Control Unit) in which a processor such as a CPU (Central Processing Unit), a storage device, and a communication interface are connected by an internal bus. ), Or MPU (Micro-Processing Unit), etc. are combined and configured.
The vehicle control device 1 functions by executing a CPU program.

自動運転制御部15は、ドライバが運転操作を行うことなく、自動運転車両Mが自律制御して走行するための制御部である。
自動運転制御部15は、記憶部13の行動計画情報132に基づいて自動運転車両Mの走行軌道を求め、この走行軌道を自動運転車両Mが走行するように、走行制御部16を制御する。
The automatic driving control unit 15 is a control unit for autonomously controlling and traveling the automatic driving vehicle M without the driver performing a driving operation.
The automatic driving control unit 15 obtains a traveling track of the automatic driving vehicle M based on the action plan information 132 of the storage unit 13, and controls the traveling control unit 16 so that the automatic driving vehicle M travels on this traveling track.

行動計画情報132は、外界認識部11でカメラ21、レーダ22およびライダ23により認識した自動運転車両Mの周囲に存する物体や標識を含む物標に関する外界情報と、自車位置認識部12における慣性航法で算出した位置情報やGNSS(Global Navigation Satellite System:全地球衛星航法システム)より取得した位置情報と、車線の中央や境界の情報・道路情報(3次元位置情報等)・交通規制情報・住所情報等が含まれる、記憶部13の高精度地図情報131とから、行動計画生成部(不図示)が生成する。 The action plan information 132 includes external world information regarding a target including objects and signs existing around the automatically driven vehicle M recognized by the camera 21, radar 22 and rider 23 by the external world recognition unit 11, and inertia in the own vehicle position recognition unit 12. Position information calculated by navigation, position information acquired from GNSS (Global Navigation Satellite System), lane center and boundary information, road information (three-dimensional position information, etc.), traffic regulation information, address The action plan generation unit (not shown) is generated from the high-precision map information 131 of the storage unit 13 that includes information and the like.

運転支援制御部14は、手動運転と5レベルの自動運転制御におけるオーバーライドやハンドオーバーによる移行制御を行う。
例えば、運転支援制御部14は、レベル2の自動運転中(運転支援)中にハンドル把持センサ(不図示)を監視して、所定時間、ドライバがハンドルから手を放していることを検知すると、警告あるいは自動運転を解除する。
The driving support control unit 14 performs transition control by overriding or handover in manual driving and 5-level automatic driving control.
For example, when the driving support control unit 14 monitors the steering wheel grip sensor (not shown) during level 2 automatic driving (driving support) and detects that the driver has released the steering wheel for a predetermined time, the driving support control unit 14 detects that the driver has released the steering wheel. Cancel the warning or automatic operation.

走行制御部16は、自動運転制御部15からの操作指示に基づいて、走行駆動装置6、ブレーキ装置7およびステアリング装置8と通信して、自動運転車両Mの走行を制御する。 Based on the operation instruction from the automatic driving control unit 15, the traveling control unit 16 communicates with the traveling driving device 6, the braking device 7, and the steering device 8 to control the traveling of the automatic driving vehicle M.

HMI制御部10は、自動運転制御部15や運転支援制御部14による自動運転車両Mの制御状態をインフォメーションパネル51に表示するとともに、車内マイク52やドライバーモニタカメラ53から情報取得して自動運転制御部15や運転支援制御部14に通知し、車両制御装置1と自動運転車両Mの乗員との間のコミュニケーションを制御する制御部である。
実施形態では、インフォメーションパネル51に地図表示して、車両制御装置1と自動運転車両Mの乗員との間のコミュニケーションを行う場合について説明する。
The HMI control unit 10 displays the control status of the autonomous driving vehicle M by the automatic driving control unit 15 and the driving support control unit 14 on the information panel 51, and acquires information from the in-vehicle microphone 52 and the driver monitor camera 53 for automatic driving control. It is a control unit that notifies the unit 15 and the driving support control unit 14 and controls communication between the vehicle control device 1 and the occupant of the autonomous driving vehicle M.
In the embodiment, a case where a map is displayed on the information panel 51 and communication between the vehicle control device 1 and the occupant of the autonomous driving vehicle M is performed will be described.

図3により、HMI制御部10の構成を説明する。
HMI制御部10は、車両内の乗員の感情度を推定する乗員感情推定部101と、車両の運転意図を認識する運転意図認識部102と、乗員感情推定部101で推定した乗員の感情度と、運転意図認識部102で認識した運転意図に応じて、表示の情報量が可変された地図画像をインフォメーションパネル51に出力する表示制御部103と、を備えている。
ここで、乗員の感情度は、乗員の感情を量的に示し、感情の高揚・気分の興奮・ポジティブと、気分の冷静・消沈・ネガティブとの間の度合い(尺度)を示す正負の値を意味する(正値が高揚を意味する)。
The configuration of the HMI control unit 10 will be described with reference to FIG.
The HMI control unit 10 includes an occupant emotion estimation unit 101 that estimates the emotional degree of the occupant in the vehicle, a driving intention recognition unit 102 that recognizes the driving intention of the vehicle, and an occupant emotional degree estimated by the occupant emotion estimation unit 101. The display control unit 103 outputs a map image in which the amount of information to be displayed is varied according to the driving intention recognized by the driving intention recognition unit 102 to the information panel 51.
Here, the occupant's emotional level is a positive or negative value that quantitatively indicates the occupant's emotion and indicates the degree (scale) between emotional uplift / mood excitement / positive and mood calm / depression / negative. Means (positive value means uplifting).

以後、実施形態のHMI制御部10(乗員感情推定部101と運転意図認識部102と表示制御部103)を詳細に説明するが、その前に、実施形態におけるインフォメーションパネル51に表示する地図画像の情報量の可変処理の概要を、図4により説明する。 Hereinafter, the HMI control unit 10 (occupant emotion estimation unit 101, driving intention recognition unit 102, and display control unit 103) of the embodiment will be described in detail, but before that, the map image to be displayed on the information panel 51 of the embodiment will be described. The outline of the variable processing of the amount of information will be described with reference to FIG.

図4は、“乗員の感情度”と“運転意図の明確性”と地図表示の関係を示す図である。
インフォメーションパネル51に表示する地図画像には、その情報量のパラメータとして、細かい道の表示、立体表示、交通不参加物標の表示等の地図の詳細度と、店舗、道の詳細情報(道幅、車線数)等の付加情報量とがある。
FIG. 4 is a diagram showing the relationship between the “passenger's emotional level”, the “clarity of driving intention”, and the map display.
In the map image displayed on the information panel 51, as parameters of the amount of information, the degree of detail of the map such as the display of detailed roads, the three-dimensional display, and the display of non-participating traffic markers, and the detailed information of stores and roads (road width, lane). There is an amount of additional information such as number).

実施形態の地図画像の表示では、例えば、後述する図8Cの“3D Real Map”表示は、地図の詳細度が高く、かつ、付加情報量が多い表示形式の地図となる。
また、図10Aの“Simple Map”表示は、地図の詳細度が低く、かつ、付加情報量が低い表示形式の地図となる。
そして、カメラ21(図1参照)による周囲画像を表示している図8Aの“Camera View”表示は、地図の詳細度と付加情報量とが中庸の表示形式の地図となる。
インフォメーションパネル51は、地図の詳細度と付加情報量に応じた表示形式の地図画像を表示する。
In the display of the map image of the embodiment, for example, the "3D Real Map" display of FIG. 8C, which will be described later, is a map in a display format in which the degree of detail of the map is high and the amount of additional information is large.
Further, the "Simple Map" display of FIG. 10A is a map in a display format in which the degree of detail of the map is low and the amount of additional information is low.
The "Camera View" display of FIG. 8A, which displays the surrounding image by the camera 21 (see FIG. 1), is a map in a display format in which the degree of detail of the map and the amount of additional information are moderate.
The information panel 51 displays a map image in a display format according to the degree of detail of the map and the amount of additional information.

HMI制御部10は、表示形式の異なる地図画像を表示するために、乗員(ドライバ)の「行きたいポイントが決まっている」、「飲食店に行きたい等方向性は決まっている」、「目的なし」等の“運転意図の明確性”の状態と、地図の詳細度とを対応付け、さらに、乗員(ドライバ)の感情度の大小と、地図の付加情報量とを対応付けている。 In order to display map images having different display formats, the HMI control unit 10 has the occupant (driver) "the point he wants to go to is decided", "the isotropic direction he wants to go to the restaurant is decided", and "the purpose". The state of "clarity of driving intention" such as "none" is associated with the degree of detail of the map, and the degree of emotion of the occupant (driver) is associated with the amount of additional information on the map.

詳しくは、HMI制御部10は、乗員感情推定部101で推定した乗員の感情度を“乗員の感情度”として地図の付加情報量に対応づけて、乗員の感情度が大きい場合には、感情度に応じて地図の付加情報量を大きくする。
また、HMI制御部10は、運転意図認識部102で認識した移動目的等を“運転意図の明確性”として地図の詳細度に対応づけて、運転の意図の明確性が大きい場合には、明確性に応じて地図の詳細度を大きくする。
そして、HMI制御部10は、表示制御部103において“乗員の感情度”と“運転意図の明確性”とに対応する付加情報量と詳細度とを有する表示形式の地図画像をインフォメーションパネル51に出力する。
Specifically, the HMI control unit 10 associates the emotional level of the occupant estimated by the occupant emotion estimation unit 101 with the amount of additional information on the map as the "emotional degree of the occupant", and when the emotional degree of the occupant is large, the emotion Increase the amount of additional information on the map according to the degree.
Further, the HMI control unit 10 associates the movement purpose or the like recognized by the driving intention recognition unit 102 with the degree of detail of the map as "clarity of the driving intention", and when the clarity of the driving intention is large, it is clear. Increase the level of detail of the map according to gender.
Then, the HMI control unit 10 displays, in the display control unit 103, a map image in a display format having an additional information amount and a level of detail corresponding to the “occupant's emotional degree” and the “clarity of the driving intention” on the information panel 51. Output.

以後、HMI制御部10(乗員感情推定部101と運転意図認識部102と表示制御部103)の処理を詳細に説明する。
図5は、HMI制御部10の処理概要を示すフロー図である。
Hereinafter, the processing of the HMI control unit 10 (occupant emotion estimation unit 101, driving intention recognition unit 102, and display control unit 103) will be described in detail.
FIG. 5 is a flow chart showing a processing outline of the HMI control unit 10.

ステップS51で、HMI制御部10の乗員感情推定部101は、ドライバーモニタカメラ53で撮像した車両内の乗員の撮像画像に基づいて、乗員の感情度を推定する。
ステップS52で、乗員感情推定部101は、ステップS51に検出した乗員の感情度に対応する地図の付加情報量を求める。
In step S51, the occupant emotion estimation unit 101 of the HMI control unit 10 estimates the occupant's emotional degree based on the captured image of the occupant in the vehicle captured by the driver monitor camera 53.
In step S52, the occupant emotion estimation unit 101 obtains the amount of additional information on the map corresponding to the occupant's emotional degree detected in step S51.

ステップS53で、HMI制御部10の運転意図認識部102は、ナビゲーション装置3の設定値等に基づき、車両の移動塔の“運転意図の明確性”を認識する。
ステップS54で、運転意図認識部102は、ステップS53で認識した“運転意図の明確性”に対応する地図の詳細度を求める。
In step S53, the driving intention recognition unit 102 of the HMI control unit 10 recognizes the "clarity of the driving intention" of the moving tower of the vehicle based on the set value of the navigation device 3 and the like.
In step S54, the driving intention recognition unit 102 obtains the degree of detail of the map corresponding to the “clarity of driving intention” recognized in step S53.

ステップS55で、HMI制御部10の表示制御部103は、ステップS52で求めた地図の付加情報量と、ステップS54で求めた地図の付加情報量とから、所定の詳細度と付加情報量を有する表示形式の地図画像を、カメラ21(図1参照)の撮像画像あるいは車両位置の地図情報から生成する。この車両位置の地図情報は、自車位置認識部12と高精度地図情報131、あるいはナビゲーション装置3から得ることができる。 In step S55, the display control unit 103 of the HMI control unit 10 has a predetermined degree of detail and an amount of additional information from the amount of additional information of the map obtained in step S52 and the amount of additional information of the map obtained in step S54. A map image in the display format is generated from the captured image of the camera 21 (see FIG. 1) or the map information of the vehicle position. The map information of the vehicle position can be obtained from the own vehicle position recognition unit 12, the high-precision map information 131, or the navigation device 3.

ステップS56で、表示制御部103は、ステップS55で生成した地図画像を、インフォメーションパネル51に出力する。 In step S56, the display control unit 103 outputs the map image generated in step S55 to the information panel 51.

つぎに、図5のステップS51、S52、S55に関連する乗員感情推定部101および表示制御部103の詳細処理を、図6のフロー図により説明する。
ステップS61で、乗員感情推定部101は、ドライバーモニタカメラ53で、車両内の乗員を撮像する。
Next, the detailed processing of the occupant emotion estimation unit 101 and the display control unit 103 related to steps S51, S52, and S55 of FIG. 5 will be described with reference to the flow chart of FIG.
In step S61, the occupant emotion estimation unit 101 uses the driver monitor camera 53 to image the occupant in the vehicle.

ステップS62で、乗員感情推定部101は、ステップS61における乗員の撮像画像から乗員の顔画像を抽出する。
ステップS63で、乗員感情推定部101は、顔画像を教師あり機械学習モデルにより、怒り・嫌悪・恐れ・幸福・悲しみ・驚きといった感情を分析する。
そして、ステップS64で、分析した感情つまり顔表情が幸福の感情と分析した値を感情度として推定する。
In step S62, the occupant emotion estimation unit 101 extracts the occupant's face image from the captured image of the occupant in step S61.
In step S63, the occupant emotion estimation unit 101 analyzes emotions such as anger, disgust, fear, happiness, sadness, and surprise by using a supervised machine learning model for the facial image.
Then, in step S64, the analyzed emotion, that is, the facial expression is estimated as the emotion of happiness and the analyzed value as the emotion level.

上記のステップS62〜S63とは異なり、以下のようにして感情度を求めてもよい。
ステップS62で、乗員感情推定部101は、ステップS61における乗員の撮像画像から乗員の動作(体動)を抽出する。
ステップS63で、乗員感情推定部101は、動作の機敏さ(変化量)を分析する。
そして、ステップS64で、分析した動作の機敏さの大小を感情度として推定する。
Unlike the above steps S62 to S63, the emotional degree may be obtained as follows.
In step S62, the occupant emotion estimation unit 101 extracts the occupant's movement (body movement) from the captured image of the occupant in step S61.
In step S63, the occupant emotion estimation unit 101 analyzes the agility (change amount) of the movement.
Then, in step S64, the magnitude of the agility of the analyzed movement is estimated as the emotional degree.

ステップS65で、表示制御部103は、ステップS64で乗員の顔表情もしくは体動から推定した感情度が、所定の閾値以上であるか否かを判定する。感情度が閾値以上であれば(S65のYes)、乗員の表情あるいは乗員の体動がアクティブであるとし、ステップS66に進む。感情度が閾値以上でなければ(S65のNo)、乗員の表情あるいは乗員の体動がネガティブであるとし、ステップS67に進む。 In step S65, the display control unit 103 determines whether or not the emotional degree estimated from the facial expression or body movement of the occupant in step S64 is equal to or greater than a predetermined threshold value. If the emotional level is equal to or higher than the threshold value (Yes in S65), it is assumed that the facial expression of the occupant or the body movement of the occupant is active, and the process proceeds to step S66. If the emotional level is not equal to or higher than the threshold value (No in S65), it is assumed that the facial expression of the occupant or the body movement of the occupant is negative, and the process proceeds to step S67.

ステップS66で、表示制御部103は、感情度の閾値との差分に応じて、地図の付加情報量のレベルを増加し、ステップS68に進む。
ステップS67で、表示制御部103は、感情度の閾値との差分に応じて、地図の付加情報量のレベルを減少し、ステップS68に進む。
ステップS68で、表示制御部103は、地図の付加情報量のレベルに基づいて、地図の表示形式を決定し、地図画像を生成する。
In step S66, the display control unit 103 increases the level of the amount of additional information on the map according to the difference from the threshold value of the emotional degree, and proceeds to step S68.
In step S67, the display control unit 103 reduces the level of the amount of additional information on the map according to the difference from the threshold value of the emotional degree, and proceeds to step S68.
In step S68, the display control unit 103 determines the display format of the map based on the level of the amount of additional information of the map, and generates a map image.

図6では、乗員の顔表情あるいは動作から感情分析する場合を説明したが、乗員の会話から感情分析してもよい。図7のフロー図により、乗員の会話から感情分析する場合の処理を説明する。 In FIG. 6, the case where the emotion analysis is performed from the facial expression or the movement of the occupant has been described, but the emotion analysis may be performed from the conversation of the occupant. The process of analyzing emotions from the conversation of the occupants will be described with reference to the flow chart of FIG.

ステップS71で、乗員感情推定部101は、車内マイク52により、車両内の音声を取得する。
ステップS72で、乗員感情推定部101は、取得した車両内の音声から、乗員(ドライバ)の音声を抽出する。
In step S71, the occupant emotion estimation unit 101 acquires the voice in the vehicle by the in-vehicle microphone 52.
In step S72, the occupant emotion estimation unit 101 extracts the voice of the occupant (driver) from the acquired voice in the vehicle.

ステップS73で、乗員感情推定部101は、乗員の音声を感情分析する。
この音声の感情分析は、取得した乗員の音声の音声波形を音響分析してテキスト列に認識デコードし、このテキスト列を形態素解析して単語(形態素)を抽出する。そして、単語ごとに感情辞書を参照して、テキスト列の感情値を算出して行う。
認識デコードしたテキスト列に含まれる所定のキーワードの数を感情値としてもよいし、また、認識デコードしたテキスト列に含まれる文の数を発話数とし、感情値としてもよい。
In step S73, the occupant emotion estimation unit 101 analyzes the occupant's voice.
In this voice sentiment analysis, the voice waveform of the acquired voice of the occupant is acoustically analyzed, recognized and decoded into a text string, and this text string is morphologically analyzed to extract a word (morpheme). Then, the emotion value of the text string is calculated by referring to the emotion dictionary for each word.
The number of predetermined keywords included in the recognition-decoded text string may be used as the emotion value, or the number of sentences included in the recognition-decoded text string may be used as the number of utterances and used as the emotion value.

また、ドライバとドライバ以外の乗員との間の会話を認識し、会話の長さ・口数を感情値としてもよい。ドライバとドライバ以外の乗員の識別は、音声認証により行うことができる。
さらに、音声の抑揚の大小、音声の音域を、感情値としてもよい。
In addition, the conversation between the driver and the occupant other than the driver may be recognized, and the length and number of conversations may be used as emotion values. The driver and the occupants other than the driver can be identified by voice authentication.
Further, the magnitude of the intonation of the voice and the range of the voice may be used as the emotion value.

ステップS74で、乗員感情推定部101は、音声から求めた感情値の大小を感情度として推定する。 In step S74, the occupant emotion estimation unit 101 estimates the magnitude of the emotion value obtained from the voice as the emotion level.

ステップS65からステップS68は、図6と同じため、ここでは説明を省略する。 Since steps S65 to S68 are the same as those in FIG. 6, description thereof will be omitted here.

つぎに、感情度の変化に応じて地図の付加情報量を増加した表示形式の地図画像例を示す。
図8Aは、カメラ21(図1参照)により撮像した車両周囲の画像をインフォメーションパネル51に表示した場合を示しており(“Camera View”表示)、付加情報量が中庸の表示形式の表示例である。
Next, an example of a map image in a display format in which the amount of additional information on the map is increased according to changes in the emotional level is shown.
FIG. 8A shows a case where the image around the vehicle captured by the camera 21 (see FIG. 1) is displayed on the information panel 51 (“Camera View” display), and is a display example in a display format in which the amount of additional information is moderate. be.

図8Bは、図8Aの“Camera View”表示よりも、乗員の感情度が高く、付加情報量が多い表示形式の表示例である。具体的には、矩形のレコメンド情報51a、51bを図8Aの“Camera View”表示にオーバーレイ表示した表示になっている。
レコメンド情報51a、51bは、目的地の有名な店舗の関連情報である。また、乗員の音声から感情度を求めた際に検出した料理の店舗の関連情報である。
FIG. 8B is a display example of a display format in which the occupant's emotional level is higher and the amount of additional information is larger than that of the “Camera View” display of FIG. 8A. Specifically, the rectangular recommendation information 51a and 51b are displayed as an overlay on the “Camera View” display of FIG. 8A.
The recommendation information 51a and 51b are related information of famous stores at the destination. In addition, it is related information of the cooking store detected when the emotional level is calculated from the voice of the occupant.

図8Cは、地図の詳細度が高い“3D Real Map”表示に、目的地に近づいたことによる高い感情度に応じて、目的地の有名な店舗の円形のレコメンド情報51c、51d、51e、51fをオーバーレイ表示した表示になっている。
レコメンド情報51c、51d、51e、51fは、店舗の認知度に応じた面積をもつ円形表示となっている。
FIG. 8C shows the “3D Real Map” display with high map detail, and the circular recommendation information 51c, 51d, 51e, 51f of the famous store of the destination according to the high emotional level due to approaching the destination. Is displayed as an overlay.
The recommendation information 51c, 51d, 51e, and 51f are displayed in a circle having an area corresponding to the recognition level of the store.

つぎに、図5のステップS53、S54、S55に関連する運転意図認識部102および表示制御部103の詳細処理を、図9のフロー図により説明する。
ステップS91で、運転意図認識部102は、ナビゲーション装置3に目的地が入力されているか否かを判定し、目的地が入力されていれば(S91のYes)、ステップS92に進み、目的地が入力されていなければ(S91のNo)、ステップS93に進む。
ステップS92で、運転意図認識部102は、運転意図の明確性を所定値1に設定し、ステップS98に進む。
Next, detailed processing of the driving intention recognition unit 102 and the display control unit 103 related to steps S53, S54, and S55 of FIG. 5 will be described with reference to the flow chart of FIG.
In step S91, the driving intention recognition unit 102 determines whether or not the destination has been input to the navigation device 3, and if the destination has been input (Yes in S91), the process proceeds to step S92 and the destination is set. If it has not been input (No in S91), the process proceeds to step S93.
In step S92, the driving intention recognition unit 102 sets the clarity of the driving intention to a predetermined value 1, and proceeds to step S98.

ステップS93で、運転意図認識部102は、ナビゲーション装置3に目的のジャンルが入力されているか否かを判定し、ジャンルが入力されていれば(S93のYes)、ステップS94に進み、ジャンルが入力されていなければ(S93のNo)、ステップS95に進む。
ステップS94で、運転意図認識部102は、運転意図の明確性を所定値2に設定し、ステップS98に進む。
In step S93, the driving intention recognition unit 102 determines whether or not a target genre has been input to the navigation device 3, and if the genre has been input (Yes in S93), the process proceeds to step S94 and the genre is input. If not (No in S93), the process proceeds to step S95.
In step S94, the driving intention recognition unit 102 sets the clarity of the driving intention to a predetermined value 2, and proceeds to step S98.

ステップS95で、運転意図認識部102は、ナビゲーション装置3が操作されたか否かを判定し、操作されていれば(S95のYes)、ステップS96に進み、操作されていなければ(S95のNo)、ステップS97に進む。
ステップS96で、運転意図認識部102は、運転意図の明確性を所定値3に設定し、ステップS98に進む。
In step S95, the driving intention recognition unit 102 determines whether or not the navigation device 3 has been operated, and if it is operated (Yes in S95), proceeds to step S96, and if it is not operated (No in S95). , Step S97.
In step S96, the driving intention recognition unit 102 sets the clarity of the driving intention to a predetermined value 3, and proceeds to step S98.

ステップS97で、運転意図認識部102は、運転意図の明確性を所定値4に設定し、ステップS98に進む。
運転意図の明確性の所定値4は、ステップS95でナビ操作されていない場合の地図の詳細度を示すレベルとなるが、ドライバがナビゲーション装置3の地図表示を要求していない状態であり、地図の詳細度は低い。
In step S97, the driving intention recognition unit 102 sets the clarity of the driving intention to a predetermined value 4, and proceeds to step S98.
The predetermined value 4 of the clarity of the driving intention is a level indicating the degree of detail of the map when the navigation is not operated in step S95, but the driver does not request the map display of the navigation device 3 and the map. The level of detail is low.

ステップS98で、運転意図認識部102は、ステップS92・S94・S96・S97で設定した運転意図の明確性に応じて、地図の詳細度を決定する。
つまり、所定値4・所定値3・所定値2・所定値1の順に地図の詳細度を増加し、所定値1の場合に地図の詳細度が最大となるようにする。
In step S98, the driving intention recognition unit 102 determines the degree of detail of the map according to the clarity of the driving intention set in steps S92, S94, S96, and S97.
That is, the degree of detail of the map is increased in the order of the predetermined value 4, the predetermined value 3, the predetermined value 2, and the predetermined value 1, so that the degree of detail of the map is maximized when the predetermined value is 1.

ステップS99で、表示制御部103は、ステップS98で決定した地図の詳細度に基づいて、地図画像を生成する。 In step S99, the display control unit 103 generates a map image based on the degree of detail of the map determined in step S98.

さらに、ステップS99で、表示制御部103は、自動運転車両Mの周辺の交通参加者を地図画像に含めて表示するようにし、表示制御部103は、ステップS98で決定した地図の詳細度が大きくなるにつれて交通物標を表示し、さらに、地図の詳細度が大きくなるにつれて交通参加者の画像を出力するようにしてもよい。 Further, in step S99, the display control unit 103 displays the traffic participants around the autonomous driving vehicle M in the map image, and the display control unit 103 has a large degree of detail of the map determined in step S98. The traffic guide may be displayed as the map becomes more detailed, and an image of the traffic participant may be output as the map becomes more detailed.

また、ステップS99で、表示制御部103は、運転意図認識部102で、ナビゲーション装置3に目的地が入力された場合(S91のYes)に、ナビゲーション装置3に入力された目的地までの距離を求め、目的地までの距離の減少に応じて地図の表示範囲を狭め、地図の情報量を低下するようにしてもよい。 Further, in step S99, the display control unit 103 determines the distance to the destination input to the navigation device 3 when the destination is input to the navigation device 3 by the driving intention recognition unit 102 (Yes in S91). The display range of the map may be narrowed according to the decrease in the distance to the destination to reduce the amount of information on the map.

つぎに、運転意図の明確性の変化に応じて、地図の詳細度を変化させた地図画像例を示す。
図10Aは、地図の詳細度が低く、かつ、付加情報量が低い、“Simple Map”の表示形式の地図の地図画像である。
図10Bは、図10Aの地図画像より、運転意図の明確性が高く、交通不参加物標として信号機51g、51hが追加されて地図の詳細度が向上した地図画像である。
図10Cは、図10Aの地図画像より、運転意図の明確性が高く、交通不参加物標として樹木51j、51kが追加されて地図の詳細度が向上した地図画像である。
Next, an example of a map image in which the degree of detail of the map is changed according to the change in the clarity of the driving intention is shown.
FIG. 10A is a map image of a map in a display format of “Simple Map” in which the degree of detail of the map is low and the amount of additional information is low.
FIG. 10B is a map image in which the driving intention is more clear than the map image of FIG. 10A, and the traffic lights 51g and 51h are added as traffic non-participating object markers to improve the detail of the map.
FIG. 10C is a map image in which the driving intention is more clear than the map image of FIG. 10A, and trees 51j and 51k are added as traffic non-participating object markers to improve the level of detail of the map.

つぎに、インフォメーションパネル51に表示する地図画像を斜め上方から見下ろすように表示するように表示する鳥瞰図において、地図の情報量(詳細度・付加情報量)を変えて表示する例について説明する。 Next, in a bird's-eye view in which the map image displayed on the information panel 51 is displayed so as to look down from diagonally above, an example in which the information amount (detail degree / additional information amount) of the map is changed and displayed will be described.

図11は、インフォメーションパネル51に表示する鳥瞰図による地図画像の仮想視点と表示範囲の関係を説明する図である。
図11に示すように、仮想視点における画角を固定した場合には、仮想視点P1より高い位置にある仮想視点P2の表示範囲A2は、仮想視点P1の表示範囲A1より広くなり、インフォメーションパネル51に表示される地図の情報量は、仮想視点P1よりも仮想視点P2のほうが多くなる。
FIG. 11 is a diagram for explaining the relationship between the virtual viewpoint and the display range of the map image by the bird's-eye view displayed on the information panel 51.
As shown in FIG. 11, when the angle of view in the virtual viewpoint is fixed, the display range A2 of the virtual viewpoint P2 located higher than the virtual viewpoint P1 becomes wider than the display range A1 of the virtual viewpoint P1, and the information panel 51 The amount of information of the map displayed in is larger in the virtual viewpoint P2 than in the virtual viewpoint P1.

そこで、実施形態のHMI制御部10の表示制御部103では、図12のフロー図に従い、地図の情報量が大きくなるにつれて仮想視点の位置を高くした鳥瞰図を地図画像として表示する。
ステップS121で、表示制御部103は、感情度が所定値以上であるか否かを判定し、所定値以上の場合には(S121のYes)、ステップS123に進み、所定値以上でない場合には(S121のNo)、ステップS122に進む。
Therefore, the display control unit 103 of the HMI control unit 10 of the embodiment displays a bird's-eye view as a map image in which the position of the virtual viewpoint is increased as the amount of information on the map increases according to the flow diagram of FIG.
In step S121, the display control unit 103 determines whether or not the emotional degree is equal to or higher than the predetermined value, and if it is equal to or higher than the predetermined value (Yes in S121), the process proceeds to step S123, and if it is not equal to or higher than the predetermined value, the process proceeds to step S123. (No in S121), the process proceeds to step S122.

ステップS122で、表示制御部103は、運転意図の明確性が所定値以上であるか否かを判定し、所定値以上である場合には(S122のYes)、ステップS123に進み、所定値以上でない場合には(S122のNo)、ステップS125に進む。 In step S122, the display control unit 103 determines whether or not the clarity of the driving intention is equal to or greater than the predetermined value, and if it is equal to or greater than the predetermined value (Yes in S122), the process proceeds to step S123 and is equal to or greater than the predetermined value. If not (No in S122), the process proceeds to step S125.

ステップS123で、表示制御部103は、感情度および運転意図の明確性の増分量を求め、ステップS124に進む。
ステップS124で、表示制御部103は、仮想視点位置をステップS123で求めた増分量に応じて高くし、ステップS126に進む。
In step S123, the display control unit 103 obtains the increment amount of the emotional degree and the clarity of the driving intention, and proceeds to step S124.
In step S124, the display control unit 103 raises the virtual viewpoint position according to the increment amount obtained in step S123, and proceeds to step S126.

ステップS125で、表示制御部103は、仮想視点位置を標準値に設定し、ステップS126に進む。
ステップS126で、ステップS124あるいはステップS125で設定した仮想視点位置に基づいて、俯瞰した地図画像を生成する。
In step S125, the display control unit 103 sets the virtual viewpoint position to a standard value, and proceeds to step S126.
In step S126, a bird's-eye view map image is generated based on the virtual viewpoint position set in step S124 or step S125.

M 自動運転車両
1 車両制御装置
2 外界センサ
21 カメラ
22 レーダ
23 ライダ
3 ナビゲーション装置
4 通信装置
5 HMI
51 インフォメーションパネル(表示部)
52 車内マイク
53 ドライバーモニタカメラ
54 メータパネル
55R 右側パネル
55L 左側パネル
6 走行駆動装置
7 ブレーキ装置
8 ステアリング装置
9 車両センサ
10 HMI制御部
101 乗員感情推定部
102 運転意図認識部
103 表示制御部
11 外界認識部
12 自車位置認識部
13 記憶部
131 高精度地図情報
132 行動計画情報
14 運転支援制御部
15 自動運転制御部
16 走行制御部
M Self-driving vehicle 1 Vehicle control device 2 External sensor 21 Camera 22 Radar 23 Rider 3 Navigation device 4 Communication device 5 HMI
51 Information panel (display)
52 In-vehicle microphone 53 Driver monitor camera 54 Meter panel 55R Right panel 55L Left panel 6 Driving drive device 7 Brake device 8 Steering device 9 Vehicle sensor 10 HMI control unit 101 Passenger emotion estimation unit 102 Driving intention recognition unit 103 Display control unit 11 External world recognition Unit 12 Vehicle position recognition unit 13 Storage unit 131 High-precision map information 132 Action plan information 14 Driving support control unit 15 Automatic driving control unit 16 Driving control unit

Claims (9)

車両の周辺状況を示す画像を表示する表示部と、
前記車両内の乗員の乗員感情を推定する乗員感情推定部と、
前記車両の運転意図を認識する運転意図認識部と、
前記乗員感情および前記運転意図に応じて情報量を可変した周辺状況を示す前記画像を、前記表示部に出力する表示制御部と、
を備えることを特徴とする自動運転車両。
A display unit that displays an image showing the surrounding conditions of the vehicle,
The occupant emotion estimation unit that estimates the occupant emotions of the occupants in the vehicle, and the occupant emotion estimation unit.
A driving intention recognition unit that recognizes the driving intention of the vehicle,
A display control unit that outputs the image showing the peripheral situation in which the amount of information is changed according to the occupant's emotion and the driving intention to the display unit.
An autonomous vehicle characterized by being equipped with.
前記表示部は、地図画像を表示し、
前記乗員感情推定部は、ドライバーモニタカメラで撮像した乗員の表情もしくは乗員の体の動きより、前記乗員感情を量的に示す乗員感情度を推定し、
前記表示制御部は、前記乗員感情度が所定値より高い場合に、付加情報量を増加した地図画像を前記表示部に出力する
ことを特徴とする請求項1に記載の自動運転車両。
The display unit displays a map image and
The occupant emotion estimation unit estimates the occupant emotion level that quantitatively indicates the occupant emotion from the facial expression of the occupant or the movement of the occupant's body captured by the driver monitor camera.
The autonomous driving vehicle according to claim 1, wherein the display control unit outputs a map image in which the amount of additional information is increased to the display unit when the occupant emotion level is higher than a predetermined value.
前記表示部は、地図画像を表示し、
前記乗員感情推定部は、集音機により乗員の音声を取得し、前記音声の音域もしくは発話数により、前記乗員感情を量的に示す乗員感情度を推定し、
前記表示制御部は、前記音声の音域もしくは発話数により推定された前記乗員感情度が所定値より高い場合に、付加情報量を増加した地図画像を前記表示部に出力する
ことを特徴とする請求項1に記載の自動運転車両。
The display unit displays a map image and
The occupant emotion estimation unit acquires the occupant's voice with a sound collector, estimates the occupant emotion degree that quantitatively indicates the occupant's emotion from the sound range or the number of utterances of the voice, and then estimates the occupant's emotion level.
The claim is characterized in that the display control unit outputs a map image in which the amount of additional information is increased to the display unit when the occupant emotion level estimated from the sound range of the voice or the number of utterances is higher than a predetermined value. Item 1. The self-driving vehicle according to item 1.
前記表示部は、地図画像を表示し、
前記運転意図認識部は、ナビゲーション装置に設定された目的地あるいは目的に応じて、運転意図を認識し、
前記表示制御部は、前記運転意図の明確性に応じて、地図の詳細度を増加した地図画像を前記表示部に出力する
ことを特徴とする請求項1に記載の自動運転車両。
The display unit displays a map image and
The driving intention recognition unit recognizes the driving intention according to the destination or purpose set in the navigation device.
The autonomous driving vehicle according to claim 1, wherein the display control unit outputs a map image in which the degree of detail of the map is increased according to the clarity of the driving intention to the display unit.
前記地図画像は、所定の仮想視点から見た車両の周辺状況の所定範囲の地図画像を含み、
前記表示制御部は、付加情報量の増加あるいは地図の詳細度の増加に応じて、前記仮想視点の位置を高くした地図画像を出力する
ことを特徴とする請求項2から4のいずれかに記載の自動運転車両。
The map image includes a map image of a predetermined range of the surrounding situation of the vehicle as seen from a predetermined virtual viewpoint.
7. Self-driving vehicle.
記地図画像は、周辺状況における交通参加者、道路状況および交通物標の画像を含み、
前記表示制御部は、前記地図の詳細度が大きくなるにつれて前記交通物標の画像を出力し、さらに交通参加者の画像を出力する
ことを特徴とする請求項4に記載の自動運転車両。
Map images include images of traffic participants, road conditions and traffic markers in the surrounding conditions.
The autonomous driving vehicle according to claim 4, wherein the display control unit outputs an image of the traffic target as the degree of detail of the map increases, and further outputs an image of a traffic participant.
前記運転意図認識部が、ナビゲーション装置に目的地が設定されたことを認識した場合に、
前記表示制御部は、前記目的地までの距離を計算し、前記距離の減少に応じて前記地図の表示範囲を狭め、地図の情報量を低下した地図画像を出力する
ことを特徴とする請求項4に記載の自動運転車両。
When the driving intention recognition unit recognizes that the destination has been set in the navigation device,
The claim is characterized in that the display control unit calculates a distance to the destination, narrows the display range of the map according to the decrease in the distance, and outputs a map image in which the amount of information on the map is reduced. The self-driving vehicle according to 4.
車両の周辺状況を示す画像を表示するプログラムであって、
車両のコンピュータを
前記車両内の乗員の乗員感情を推定する乗員感情推定部と、
前記車両の運転意図を認識する運転意図認識部と、
前記乗員感情および前記運転意図に応じて情報量を可変した周辺状況を示す前記画像を、表示部に出力する表示制御部と、
として機能させるプログラム。
A program that displays an image showing the surrounding conditions of the vehicle.
The vehicle's computer is used as an occupant emotion estimation unit that estimates the occupant's emotions in the vehicle.
A driving intention recognition unit that recognizes the driving intention of the vehicle,
A display control unit that outputs the image showing the surrounding situation in which the amount of information is changed according to the occupant's emotion and the driving intention to the display unit.
A program that functions as.
車両の周辺状況を示す画像を表示する画像表示方法であって、
乗員感情推定部により前記車両内の乗員の乗員感情を推定し、
運転意図認識部により前記車両の運転意図を認識し、
表示制御部により前記乗員感情および前記運転意図に応じて情報量を可変した周辺状況を示す前記画像を、表示部に出力する
画像表示方法。
It is an image display method that displays an image showing the surrounding conditions of the vehicle.
The occupant emotion estimation unit estimates the occupant emotions of the occupants in the vehicle.
The driving intention recognition unit recognizes the driving intention of the vehicle and recognizes the driving intention of the vehicle.
An image display method for outputting to the display unit the image showing the surrounding situation in which the amount of information is varied according to the occupant's emotion and the driving intention by the display control unit.
JP2019239784A 2019-12-27 2019-12-27 AUTOMATED DRIVING VEHICLE, IMAGE DISPLAY METHOD AND PROGRAM Active JP7198742B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019239784A JP7198742B2 (en) 2019-12-27 2019-12-27 AUTOMATED DRIVING VEHICLE, IMAGE DISPLAY METHOD AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019239784A JP7198742B2 (en) 2019-12-27 2019-12-27 AUTOMATED DRIVING VEHICLE, IMAGE DISPLAY METHOD AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2021107801A true JP2021107801A (en) 2021-07-29
JP7198742B2 JP7198742B2 (en) 2023-01-04

Family

ID=76967863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019239784A Active JP7198742B2 (en) 2019-12-27 2019-12-27 AUTOMATED DRIVING VEHICLE, IMAGE DISPLAY METHOD AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7198742B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7244604B2 (en) 2020-11-02 2023-03-22 キストラー ホールディング アクチエンゲゼルシャフト accelerometer
JP7244605B2 (en) 2020-11-02 2023-03-22 キストラー ホールディング アクチエンゲゼルシャフト accelerometer

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350934A (en) * 2005-06-20 2006-12-28 Denso Corp Information display device
JP2010191520A (en) * 2009-02-16 2010-09-02 Toyota Motor Corp Surroundings monitor for vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350934A (en) * 2005-06-20 2006-12-28 Denso Corp Information display device
JP2010191520A (en) * 2009-02-16 2010-09-02 Toyota Motor Corp Surroundings monitor for vehicle

Also Published As

Publication number Publication date
JP7198742B2 (en) 2023-01-04

Similar Documents

Publication Publication Date Title
JP7399075B2 (en) Information processing device, information processing method and program
US10101743B2 (en) Vehicle control system, vehicle control method and vehicle control program
JP6368957B2 (en) Vehicle control system, vehicle control method, and vehicle control program
JP6683803B2 (en) Vehicle control system, vehicle control method, and vehicle control program
CN110023168B (en) Vehicle control system, vehicle control method, and vehicle control program
CN107463122A (en) Vehicle control system, control method for vehicle and wagon control program product
US10647326B2 (en) Driving advice apparatus and driving advice method
US11077864B2 (en) Travel control apparatus, vehicle, travel control system, travel control method, and storage medium
JP2017197011A (en) Vehicle control system, vehicle control method, and vehicle control program
JP6443403B2 (en) Vehicle control device
JP2017218020A (en) Vehicle control device, vehicle control method and vehicle control program
JP2017191562A (en) Vehicle control system, vehicle control method, and vehicle control program
JP6990248B2 (en) Display control device, display control method and program
JP6877571B2 (en) Display system, display method, and program
JP2019191694A (en) Course determination device
JP2017199317A (en) Vehicle control system, vehicle control method, and vehicle control program
JP7198742B2 (en) AUTOMATED DRIVING VEHICLE, IMAGE DISPLAY METHOD AND PROGRAM
US20220277556A1 (en) Information processing device, information processing method, and program
US20220258742A1 (en) Yaw rate estimating device
US20220250630A1 (en) Yaw rate estimating device
JP2021162569A (en) Information providing device
US20210357177A1 (en) Vehicle control device and vehicle control method
WO2023085017A1 (en) Learning method, learning program, information processing device, information processing method, and information processing program
US20240109552A1 (en) Driving assistance device, driving assistance method, and storage medium
US20240140468A1 (en) Driving assistance device, driving assistance method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221219

R150 Certificate of patent or registration of utility model

Ref document number: 7198742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150