JP2021107801A - Automatic driving vehicle, image display method and program - Google Patents
Automatic driving vehicle, image display method and program Download PDFInfo
- Publication number
- JP2021107801A JP2021107801A JP2019239784A JP2019239784A JP2021107801A JP 2021107801 A JP2021107801 A JP 2021107801A JP 2019239784 A JP2019239784 A JP 2019239784A JP 2019239784 A JP2019239784 A JP 2019239784A JP 2021107801 A JP2021107801 A JP 2021107801A
- Authority
- JP
- Japan
- Prior art keywords
- occupant
- vehicle
- map
- display
- driving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、車内ディスプレイに走行車両の周辺情報を表示する自動運転車両、画像表示方法およびプログラムに関する。 The present invention relates to an autonomous vehicle, an image display method, and a program for displaying peripheral information of a traveling vehicle on an in-vehicle display.
近年、運転者の負担を軽減し、快適な車両の運行を実現するために、自動運転と呼ばれる運転支援技術が鋭意提案されている。
自動運転に係る国際基準では、ドライバ要求タスクの軽重・有無、自動化度の高低に応じて、複数段階にわたるレベルが階層的に設定されている。また、あるレベルのなかでも、自動化を実現するための一群の要件を横並びで実現可能との観点を用いて、複数段階にわたる区分(カテゴリ)が階層的に設定されている。
例えば、レベル4(高度自動運転)やレベル5(完全自動運転)の自動運転では、ドライバが運転操作をオーバーライドする必要はない
In recent years, in order to reduce the burden on the driver and realize comfortable vehicle operation, a driving support technology called automatic driving has been enthusiastically proposed.
In the international standard for autonomous driving, levels over multiple stages are set hierarchically according to the lightness / presence / absence of driver-required tasks and the degree of automation. In addition, even within a certain level, a group of requirements for realizing automation can be realized side by side, and divisions (categories) over a plurality of stages are set hierarchically.
For example, in level 4 (highly automatic driving) and level 5 (fully automatic driving) automatic driving, the driver does not need to override the driving operation.
上記のとおり、レベル4以上の自動運転中においては、ドライバは、運転操作に関わる必要がない。このため、他の乗員と同様に、ドライバが、車両のインフォテイメントシステム等を活用することが可能となる。
例えば、特許文献1には、車両の表示装置に複数の異なる表示形態で車両の走行経路などを表示する自動運転車両が開示されている。
As described above, the driver does not need to be involved in the driving operation during the automatic driving of level 4 or higher. Therefore, like other occupants, the driver can utilize the vehicle infotainment system and the like.
For example, Patent Document 1 discloses an autonomous driving vehicle that displays a traveling route of a vehicle or the like on a display device of the vehicle in a plurality of different display forms.
特許文献1の技術によれば、複数の異なる表示形態で車両の環境を掲示し、環境に対応した複数の運転操作を選択可能しているので、自動運転中の最適な運転操作を選択することができる。
しかし、乗員が選択を行うことにより表示を切り替えており、状況によっては煩わしさがあった。
According to the technology of Patent Document 1, the environment of the vehicle is posted in a plurality of different display forms, and a plurality of driving operations corresponding to the environment can be selected. Therefore, the optimum driving operation during automatic driving can be selected. Can be done.
However, the display is switched by the occupant making a selection, which is troublesome depending on the situation.
本発明は、乗員が情報選択を行いやすくなるとともに、操作の煩わしさを減少する自動運転車両を提供することを目的とする。 An object of the present invention is to provide an autonomous driving vehicle that facilitates information selection by an occupant and reduces the troublesome operation.
前記課題を解決するため、本発明の自動運転車両は、車両の周辺状況を示す画像を表示する表示部と、前記車両内の乗員の乗員感情を推定する乗員感情推定部と、前記車両の運転意図を認識する運転意図認識部と、前記乗員感情および前記運転意図に応じて情報量を可変した周辺状況を示す前記画像を、前記表示部に出力する表示制御部と、を備えるようにした。 In order to solve the above problems, the autonomous driving vehicle of the present invention includes a display unit that displays an image showing the surrounding situation of the vehicle, an occupant emotion estimation unit that estimates the occupant's emotions in the vehicle, and driving of the vehicle. It is provided with a driving intention recognition unit that recognizes an intention, and a display control unit that outputs the image showing the peripheral situation in which the amount of information is varied according to the occupant's feelings and the driving intention to the display unit.
本発明の自動運転車両によれば、乗員の状況と運転意図に応じ表示装置の情報量を可変するので、乗員が情報の選択を行いやすくなり、情報選択の煩わしさを減少させることができる。 According to the self-driving vehicle of the present invention, since the amount of information of the display device is changed according to the situation of the occupant and the driving intention, the occupant can easily select the information and the troublesomeness of the information selection can be reduced.
以下、本発明の実施形態を、図面を参照しながら詳細に説明する。
図1は、実施形態の自動運転車両Mの制御ブロック構成図である。
自動運転車両Mは、ガソリンエンジン等の内燃機関を動力源とした自動車、電動機を動力源とした電気自動車、内燃機関及び電動機を兼ね備えたハイブリッド自動車等を含み、二輪や三輪、四輪等の自動車である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a control block configuration diagram of the autonomous driving vehicle M of the embodiment.
The self-driving vehicle M includes a vehicle powered by an internal combustion engine such as a gasoline engine, an electric vehicle powered by an electric motor, a hybrid vehicle having both an internal combustion engine and an electric motor, and the like. Is.
自動運転車両Mには、車両制御装置1、外界センサ2、ナビゲーション装置3、通信装置4、HMI(Human Machine Interface)5、走行駆動装置6、ブレーキ装置7、ステアリング装置8、車両センサ9が搭載されている。
The automatic driving vehicle M is equipped with a vehicle control device 1, an outside world sensor 2, a
外界センサ2、ナビゲーション装置3、通信装置4、HMI5、走行駆動装置6、ブレーキ装置7、ステアリング装置8、車両センサ9は、それぞれ、車両制御装置1との間で通信媒体を介して相互にデータ通信可能に接続して構成されている。
The external world sensor 2, the
外界センサ2は、自動運転車両Mの周囲に存する物体や標識を含む物標に関する外界情報を検知する機能を有し、カメラ21、レーダ22、ライダ23から成る。
カメラ21は、複数のCMOSカメラやCCDカメラから成り、自動運転車両Mの進行方向画像を撮像する機能を有する。自動運転車両Mの進行方向前方・右後側方・左後側方の様子を周期的に繰り返し撮像したカメラ21の撮像画像は、後述する外界認識部11に通知される。
The outside world sensor 2 has a function of detecting outside world information about a target including an object or a sign existing around the autonomous driving vehicle M, and includes a
The
レーダ22は、自動運転車両Mの前方を走行する追従対象となる先行車を含む物標にレーダ波を照射する一方、物標で反射されたレーダ波を受信することにより、物標までの距離や物標の方位を含む物標の分布情報を取得する機能を有する。レーダ波としては、レーザ、マイクロ波、ミリ波、超音波などを適宜用いることができる。
また、レーダ22は、例えば、自動運転車両Mのフロント側に3つ、リア側に2つの都合5つ設けられている。レーダ22による物標の分布情報は、外界認識部11に通知される。
The
Further, for example, three
ライダ23(LIDAR:Light Detection and Ranging)は、照射光に対する散乱光の検出に要する時間を計測することにより、物標の有無、及び物標までの距離を検知する。ライダ23は、例えば、自動運転車両Mのフロント側に2つ、リア側に3つの都合5つ設けられている。ライダ23による物標の分布情報は、外界認識部11に通知される。
The rider 23 (LIDAR: Light Detection and Ranging) detects the presence or absence of a target and the distance to the target by measuring the time required to detect the scattered light with respect to the irradiation light. For example, two
ナビゲーション装置3は、現在位置を地図上にマッピングすると共に目的地までの経路案内等を行う機能を有する。
The
通信装置4は、例えば、セルラー網、Wi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)等の無線通信媒体を介して通信を行う機能を有する。
また、通信装置4は、スマートエントリーキーのシステムにおける通信部である。
The communication device 4 has a function of communicating via a wireless communication medium such as a cellular network, a Wi-Fi network, Bluetooth (registered trademark), or DSRC (Dedicated Short Range Communication).
Further, the communication device 4 is a communication unit in the smart entry key system.
HMI5は、後述するHMI制御部10により制御され、車両制御装置1と自動運転車両Mの乗員との間のコミュニケーションを行うためのデバイス群である。
アクセルペダル、ブレーキペダルおよびステアリングホイール等の運転操作の操作量を検出するセンサをHMI5としてもよい。
実施形態の自動運転車両Mでは、HMI5は、インフォメーションパネル51、車内マイク52、ドライバーモニタカメラ53を含むものとして説明する。
The
The HMI 5 may be a sensor that detects the amount of operation of the accelerator pedal, the brake pedal, the steering wheel, and the like.
In the autonomous driving vehicle M of the embodiment, the HMI 5 will be described as including the
インフォメーションパネル51は、後述するHMI制御部10により制御され、車室内の乗員宛に車両の周辺状況を示す画像や各種情報を表示する表示部である。インフォメーションパネル51は、特に限定されないが、例えば、LCD(Liquid Crystal Display)、有機EL(Electroluminescence)、HUD(Head Up Display)などによって構成される。
図2により、インフォメーションパネル51の構成を説明する。
The
The configuration of the
図2は、自動運転車両の車室前部構造の一例を示す図である。
図2に示すように、自動運転車両MのHMI5は、運転席に正対する位置に設けられるメータパネル54と、運転席及び助手席にわたって対向するように設けられる、車幅方向(Y方向)に横長のインフォメーションパネル51と、車幅方向の運転席側に設けられた右側パネル55Rと、車幅方向の助手席側に設けられた左側パネル55Lと、を含む。
FIG. 2 is a diagram showing an example of a passenger compartment front structure of an autonomous driving vehicle.
As shown in FIG. 2, the
メータパネル54には、例えば、スピードメータ、タコメータ、オドメータ、シフト位置情報、灯火類の点灯状況情報等が表示される。
インフォメーションパネル51には、例えば、自動運転車両M周辺の地図情報、地図上における自動運転車両Mの現在位置情報、自動運転車両Mの現在の走行路・予定経路に関する交通情報(信号情報を含む)、自動運転車両Mの周囲に存する交通参加者(歩行者・自転車・オートバイ・他車両等を含む)に関する交通参加者情報、交通参加者に向けて発するメッセージ等の各種情報等が表示される。
On the
On the
右側パネル55Rには、自動運転車両Mの右側に設けたカメラ21により撮像した車両右側における後方及び下方の画像情報が表示される。
左側パネル55Lには、自動運転車両Mの左側に設けたカメラ21により撮像した車両左側における後方及び下方の画像情報が表示される。
On the
On the
図1に戻り、車内マイク52は、自動運転車両Mの乗員の音声を検出する集音機器である。
ドライバーモニタカメラ53は、CCDやCMOS等の固体撮像素子を利用したデジタルカメラであり、インフォメーションパネル51、バックミラーやステアリングボス部(いずれも不図示)に設けられ、少なくとも運転席に着座しているドライバを撮像する。
車内マイク52で集音した音声情報およびドライバーモニタカメラ53で撮像した画像情報あるいは映像情報は、HMI制御部10に通知される。
Returning to FIG. 1, the in-
The
The audio information collected by the in-
走行駆動装置6は、自動運転車両Mが走行するための駆動力(トルク)を駆動輪に出力する。走行駆動装置6は、内燃機関エンジンとエンジンECU(Electronic Control Unit)あるいは走行用モータとモータECUを有し、後述する走行制御部16から通知される情報に従って、走行する駆動力を制御する。
The traveling
ブレーキ装置7は、自動運転車両Mを制動する電動サーボブレーキ装置あるいは電子制御式油圧ブレーキ装置であり、走行制御部16から通知される情報に従って、制動力を制御する。
The braking device 7 is an electric servo braking device or an electronically controlled hydraulic braking device that brakes the autonomous driving vehicle M, and controls the braking force according to the information notified from the traveling
ステアリング装置8は、後述する自動運転制御部15から通知される情報、あるいはハンドルの操舵角に応じて、自動運転車両Mの転舵輪の向きを変更する。
The
車両センサ9は、自動運転車両Mの車両状態に関する各種情報を検出するセンサ群である。
車両センサ9は、運転席に乗員が着座しているか否を検出するセンサである着座センサ(不図示)、ドライバがハンドルを把持しているか否を検出するセンサであるハンドル把持センサ(不図示)、自動運転車両Mの乗員が車両ドアのドアノブを握った(ドアハンドルに触れた)ことを検知するセンサであるドアノブセンサ(不図示)等から成る。
The
The
また、車両センサ9は、図示しない、車速を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、車両の向きを検出する方位センサ、車両の傾斜角度を検出する傾斜角センサ等の自動運転に関連する種々のセンサを有する。
Further, the
つぎに、車両制御装置1の構成について説明する。
車両制御装置1は、一以上のプロセッサ又は同等の機能を有するハードウェアにより構成され、CPU(Central Processing Unit)などのプロセッサ、記憶装置、及び通信インターフェースが内部バスによって接続されたECU(Electronic Control Unit)、又はMPU(Micro-Processing Unit)などが組み合わされ構成されている。
車両制御装置1は、CPUのプログラムが実行されることで機能している。
Next, the configuration of the vehicle control device 1 will be described.
The vehicle control device 1 is composed of one or more processors or hardware having equivalent functions, and an ECU (Electronic Control Unit) in which a processor such as a CPU (Central Processing Unit), a storage device, and a communication interface are connected by an internal bus. ), Or MPU (Micro-Processing Unit), etc. are combined and configured.
The vehicle control device 1 functions by executing a CPU program.
自動運転制御部15は、ドライバが運転操作を行うことなく、自動運転車両Mが自律制御して走行するための制御部である。
自動運転制御部15は、記憶部13の行動計画情報132に基づいて自動運転車両Mの走行軌道を求め、この走行軌道を自動運転車両Mが走行するように、走行制御部16を制御する。
The automatic
The automatic
行動計画情報132は、外界認識部11でカメラ21、レーダ22およびライダ23により認識した自動運転車両Mの周囲に存する物体や標識を含む物標に関する外界情報と、自車位置認識部12における慣性航法で算出した位置情報やGNSS(Global Navigation Satellite System:全地球衛星航法システム)より取得した位置情報と、車線の中央や境界の情報・道路情報(3次元位置情報等)・交通規制情報・住所情報等が含まれる、記憶部13の高精度地図情報131とから、行動計画生成部(不図示)が生成する。
The
運転支援制御部14は、手動運転と5レベルの自動運転制御におけるオーバーライドやハンドオーバーによる移行制御を行う。
例えば、運転支援制御部14は、レベル2の自動運転中(運転支援)中にハンドル把持センサ(不図示)を監視して、所定時間、ドライバがハンドルから手を放していることを検知すると、警告あるいは自動運転を解除する。
The driving
For example, when the driving
走行制御部16は、自動運転制御部15からの操作指示に基づいて、走行駆動装置6、ブレーキ装置7およびステアリング装置8と通信して、自動運転車両Mの走行を制御する。
Based on the operation instruction from the automatic
HMI制御部10は、自動運転制御部15や運転支援制御部14による自動運転車両Mの制御状態をインフォメーションパネル51に表示するとともに、車内マイク52やドライバーモニタカメラ53から情報取得して自動運転制御部15や運転支援制御部14に通知し、車両制御装置1と自動運転車両Mの乗員との間のコミュニケーションを制御する制御部である。
実施形態では、インフォメーションパネル51に地図表示して、車両制御装置1と自動運転車両Mの乗員との間のコミュニケーションを行う場合について説明する。
The
In the embodiment, a case where a map is displayed on the
図3により、HMI制御部10の構成を説明する。
HMI制御部10は、車両内の乗員の感情度を推定する乗員感情推定部101と、車両の運転意図を認識する運転意図認識部102と、乗員感情推定部101で推定した乗員の感情度と、運転意図認識部102で認識した運転意図に応じて、表示の情報量が可変された地図画像をインフォメーションパネル51に出力する表示制御部103と、を備えている。
ここで、乗員の感情度は、乗員の感情を量的に示し、感情の高揚・気分の興奮・ポジティブと、気分の冷静・消沈・ネガティブとの間の度合い(尺度)を示す正負の値を意味する(正値が高揚を意味する)。
The configuration of the
The
Here, the occupant's emotional level is a positive or negative value that quantitatively indicates the occupant's emotion and indicates the degree (scale) between emotional uplift / mood excitement / positive and mood calm / depression / negative. Means (positive value means uplifting).
以後、実施形態のHMI制御部10(乗員感情推定部101と運転意図認識部102と表示制御部103)を詳細に説明するが、その前に、実施形態におけるインフォメーションパネル51に表示する地図画像の情報量の可変処理の概要を、図4により説明する。
Hereinafter, the HMI control unit 10 (occupant
図4は、“乗員の感情度”と“運転意図の明確性”と地図表示の関係を示す図である。
インフォメーションパネル51に表示する地図画像には、その情報量のパラメータとして、細かい道の表示、立体表示、交通不参加物標の表示等の地図の詳細度と、店舗、道の詳細情報(道幅、車線数)等の付加情報量とがある。
FIG. 4 is a diagram showing the relationship between the “passenger's emotional level”, the “clarity of driving intention”, and the map display.
In the map image displayed on the
実施形態の地図画像の表示では、例えば、後述する図8Cの“3D Real Map”表示は、地図の詳細度が高く、かつ、付加情報量が多い表示形式の地図となる。
また、図10Aの“Simple Map”表示は、地図の詳細度が低く、かつ、付加情報量が低い表示形式の地図となる。
そして、カメラ21(図1参照)による周囲画像を表示している図8Aの“Camera View”表示は、地図の詳細度と付加情報量とが中庸の表示形式の地図となる。
インフォメーションパネル51は、地図の詳細度と付加情報量に応じた表示形式の地図画像を表示する。
In the display of the map image of the embodiment, for example, the "3D Real Map" display of FIG. 8C, which will be described later, is a map in a display format in which the degree of detail of the map is high and the amount of additional information is large.
Further, the "Simple Map" display of FIG. 10A is a map in a display format in which the degree of detail of the map is low and the amount of additional information is low.
The "Camera View" display of FIG. 8A, which displays the surrounding image by the camera 21 (see FIG. 1), is a map in a display format in which the degree of detail of the map and the amount of additional information are moderate.
The
HMI制御部10は、表示形式の異なる地図画像を表示するために、乗員(ドライバ)の「行きたいポイントが決まっている」、「飲食店に行きたい等方向性は決まっている」、「目的なし」等の“運転意図の明確性”の状態と、地図の詳細度とを対応付け、さらに、乗員(ドライバ)の感情度の大小と、地図の付加情報量とを対応付けている。
In order to display map images having different display formats, the
詳しくは、HMI制御部10は、乗員感情推定部101で推定した乗員の感情度を“乗員の感情度”として地図の付加情報量に対応づけて、乗員の感情度が大きい場合には、感情度に応じて地図の付加情報量を大きくする。
また、HMI制御部10は、運転意図認識部102で認識した移動目的等を“運転意図の明確性”として地図の詳細度に対応づけて、運転の意図の明確性が大きい場合には、明確性に応じて地図の詳細度を大きくする。
そして、HMI制御部10は、表示制御部103において“乗員の感情度”と“運転意図の明確性”とに対応する付加情報量と詳細度とを有する表示形式の地図画像をインフォメーションパネル51に出力する。
Specifically, the
Further, the
Then, the
以後、HMI制御部10(乗員感情推定部101と運転意図認識部102と表示制御部103)の処理を詳細に説明する。
図5は、HMI制御部10の処理概要を示すフロー図である。
Hereinafter, the processing of the HMI control unit 10 (occupant
FIG. 5 is a flow chart showing a processing outline of the
ステップS51で、HMI制御部10の乗員感情推定部101は、ドライバーモニタカメラ53で撮像した車両内の乗員の撮像画像に基づいて、乗員の感情度を推定する。
ステップS52で、乗員感情推定部101は、ステップS51に検出した乗員の感情度に対応する地図の付加情報量を求める。
In step S51, the occupant
In step S52, the occupant
ステップS53で、HMI制御部10の運転意図認識部102は、ナビゲーション装置3の設定値等に基づき、車両の移動塔の“運転意図の明確性”を認識する。
ステップS54で、運転意図認識部102は、ステップS53で認識した“運転意図の明確性”に対応する地図の詳細度を求める。
In step S53, the driving
In step S54, the driving
ステップS55で、HMI制御部10の表示制御部103は、ステップS52で求めた地図の付加情報量と、ステップS54で求めた地図の付加情報量とから、所定の詳細度と付加情報量を有する表示形式の地図画像を、カメラ21(図1参照)の撮像画像あるいは車両位置の地図情報から生成する。この車両位置の地図情報は、自車位置認識部12と高精度地図情報131、あるいはナビゲーション装置3から得ることができる。
In step S55, the
ステップS56で、表示制御部103は、ステップS55で生成した地図画像を、インフォメーションパネル51に出力する。
In step S56, the
つぎに、図5のステップS51、S52、S55に関連する乗員感情推定部101および表示制御部103の詳細処理を、図6のフロー図により説明する。
ステップS61で、乗員感情推定部101は、ドライバーモニタカメラ53で、車両内の乗員を撮像する。
Next, the detailed processing of the occupant
In step S61, the occupant
ステップS62で、乗員感情推定部101は、ステップS61における乗員の撮像画像から乗員の顔画像を抽出する。
ステップS63で、乗員感情推定部101は、顔画像を教師あり機械学習モデルにより、怒り・嫌悪・恐れ・幸福・悲しみ・驚きといった感情を分析する。
そして、ステップS64で、分析した感情つまり顔表情が幸福の感情と分析した値を感情度として推定する。
In step S62, the occupant
In step S63, the occupant
Then, in step S64, the analyzed emotion, that is, the facial expression is estimated as the emotion of happiness and the analyzed value as the emotion level.
上記のステップS62〜S63とは異なり、以下のようにして感情度を求めてもよい。
ステップS62で、乗員感情推定部101は、ステップS61における乗員の撮像画像から乗員の動作(体動)を抽出する。
ステップS63で、乗員感情推定部101は、動作の機敏さ(変化量)を分析する。
そして、ステップS64で、分析した動作の機敏さの大小を感情度として推定する。
Unlike the above steps S62 to S63, the emotional degree may be obtained as follows.
In step S62, the occupant
In step S63, the occupant
Then, in step S64, the magnitude of the agility of the analyzed movement is estimated as the emotional degree.
ステップS65で、表示制御部103は、ステップS64で乗員の顔表情もしくは体動から推定した感情度が、所定の閾値以上であるか否かを判定する。感情度が閾値以上であれば(S65のYes)、乗員の表情あるいは乗員の体動がアクティブであるとし、ステップS66に進む。感情度が閾値以上でなければ(S65のNo)、乗員の表情あるいは乗員の体動がネガティブであるとし、ステップS67に進む。
In step S65, the
ステップS66で、表示制御部103は、感情度の閾値との差分に応じて、地図の付加情報量のレベルを増加し、ステップS68に進む。
ステップS67で、表示制御部103は、感情度の閾値との差分に応じて、地図の付加情報量のレベルを減少し、ステップS68に進む。
ステップS68で、表示制御部103は、地図の付加情報量のレベルに基づいて、地図の表示形式を決定し、地図画像を生成する。
In step S66, the
In step S67, the
In step S68, the
図6では、乗員の顔表情あるいは動作から感情分析する場合を説明したが、乗員の会話から感情分析してもよい。図7のフロー図により、乗員の会話から感情分析する場合の処理を説明する。 In FIG. 6, the case where the emotion analysis is performed from the facial expression or the movement of the occupant has been described, but the emotion analysis may be performed from the conversation of the occupant. The process of analyzing emotions from the conversation of the occupants will be described with reference to the flow chart of FIG.
ステップS71で、乗員感情推定部101は、車内マイク52により、車両内の音声を取得する。
ステップS72で、乗員感情推定部101は、取得した車両内の音声から、乗員(ドライバ)の音声を抽出する。
In step S71, the occupant
In step S72, the occupant
ステップS73で、乗員感情推定部101は、乗員の音声を感情分析する。
この音声の感情分析は、取得した乗員の音声の音声波形を音響分析してテキスト列に認識デコードし、このテキスト列を形態素解析して単語(形態素)を抽出する。そして、単語ごとに感情辞書を参照して、テキスト列の感情値を算出して行う。
認識デコードしたテキスト列に含まれる所定のキーワードの数を感情値としてもよいし、また、認識デコードしたテキスト列に含まれる文の数を発話数とし、感情値としてもよい。
In step S73, the occupant
In this voice sentiment analysis, the voice waveform of the acquired voice of the occupant is acoustically analyzed, recognized and decoded into a text string, and this text string is morphologically analyzed to extract a word (morpheme). Then, the emotion value of the text string is calculated by referring to the emotion dictionary for each word.
The number of predetermined keywords included in the recognition-decoded text string may be used as the emotion value, or the number of sentences included in the recognition-decoded text string may be used as the number of utterances and used as the emotion value.
また、ドライバとドライバ以外の乗員との間の会話を認識し、会話の長さ・口数を感情値としてもよい。ドライバとドライバ以外の乗員の識別は、音声認証により行うことができる。
さらに、音声の抑揚の大小、音声の音域を、感情値としてもよい。
In addition, the conversation between the driver and the occupant other than the driver may be recognized, and the length and number of conversations may be used as emotion values. The driver and the occupants other than the driver can be identified by voice authentication.
Further, the magnitude of the intonation of the voice and the range of the voice may be used as the emotion value.
ステップS74で、乗員感情推定部101は、音声から求めた感情値の大小を感情度として推定する。
In step S74, the occupant
ステップS65からステップS68は、図6と同じため、ここでは説明を省略する。 Since steps S65 to S68 are the same as those in FIG. 6, description thereof will be omitted here.
つぎに、感情度の変化に応じて地図の付加情報量を増加した表示形式の地図画像例を示す。
図8Aは、カメラ21(図1参照)により撮像した車両周囲の画像をインフォメーションパネル51に表示した場合を示しており(“Camera View”表示)、付加情報量が中庸の表示形式の表示例である。
Next, an example of a map image in a display format in which the amount of additional information on the map is increased according to changes in the emotional level is shown.
FIG. 8A shows a case where the image around the vehicle captured by the camera 21 (see FIG. 1) is displayed on the information panel 51 (“Camera View” display), and is a display example in a display format in which the amount of additional information is moderate. be.
図8Bは、図8Aの“Camera View”表示よりも、乗員の感情度が高く、付加情報量が多い表示形式の表示例である。具体的には、矩形のレコメンド情報51a、51bを図8Aの“Camera View”表示にオーバーレイ表示した表示になっている。
レコメンド情報51a、51bは、目的地の有名な店舗の関連情報である。また、乗員の音声から感情度を求めた際に検出した料理の店舗の関連情報である。
FIG. 8B is a display example of a display format in which the occupant's emotional level is higher and the amount of additional information is larger than that of the “Camera View” display of FIG. 8A. Specifically, the
The
図8Cは、地図の詳細度が高い“3D Real Map”表示に、目的地に近づいたことによる高い感情度に応じて、目的地の有名な店舗の円形のレコメンド情報51c、51d、51e、51fをオーバーレイ表示した表示になっている。
レコメンド情報51c、51d、51e、51fは、店舗の認知度に応じた面積をもつ円形表示となっている。
FIG. 8C shows the “3D Real Map” display with high map detail, and the
The
つぎに、図5のステップS53、S54、S55に関連する運転意図認識部102および表示制御部103の詳細処理を、図9のフロー図により説明する。
ステップS91で、運転意図認識部102は、ナビゲーション装置3に目的地が入力されているか否かを判定し、目的地が入力されていれば(S91のYes)、ステップS92に進み、目的地が入力されていなければ(S91のNo)、ステップS93に進む。
ステップS92で、運転意図認識部102は、運転意図の明確性を所定値1に設定し、ステップS98に進む。
Next, detailed processing of the driving
In step S91, the driving
In step S92, the driving
ステップS93で、運転意図認識部102は、ナビゲーション装置3に目的のジャンルが入力されているか否かを判定し、ジャンルが入力されていれば(S93のYes)、ステップS94に進み、ジャンルが入力されていなければ(S93のNo)、ステップS95に進む。
ステップS94で、運転意図認識部102は、運転意図の明確性を所定値2に設定し、ステップS98に進む。
In step S93, the driving
In step S94, the driving
ステップS95で、運転意図認識部102は、ナビゲーション装置3が操作されたか否かを判定し、操作されていれば(S95のYes)、ステップS96に進み、操作されていなければ(S95のNo)、ステップS97に進む。
ステップS96で、運転意図認識部102は、運転意図の明確性を所定値3に設定し、ステップS98に進む。
In step S95, the driving
In step S96, the driving
ステップS97で、運転意図認識部102は、運転意図の明確性を所定値4に設定し、ステップS98に進む。
運転意図の明確性の所定値4は、ステップS95でナビ操作されていない場合の地図の詳細度を示すレベルとなるが、ドライバがナビゲーション装置3の地図表示を要求していない状態であり、地図の詳細度は低い。
In step S97, the driving
The predetermined value 4 of the clarity of the driving intention is a level indicating the degree of detail of the map when the navigation is not operated in step S95, but the driver does not request the map display of the
ステップS98で、運転意図認識部102は、ステップS92・S94・S96・S97で設定した運転意図の明確性に応じて、地図の詳細度を決定する。
つまり、所定値4・所定値3・所定値2・所定値1の順に地図の詳細度を増加し、所定値1の場合に地図の詳細度が最大となるようにする。
In step S98, the driving
That is, the degree of detail of the map is increased in the order of the predetermined value 4, the
ステップS99で、表示制御部103は、ステップS98で決定した地図の詳細度に基づいて、地図画像を生成する。
In step S99, the
さらに、ステップS99で、表示制御部103は、自動運転車両Mの周辺の交通参加者を地図画像に含めて表示するようにし、表示制御部103は、ステップS98で決定した地図の詳細度が大きくなるにつれて交通物標を表示し、さらに、地図の詳細度が大きくなるにつれて交通参加者の画像を出力するようにしてもよい。
Further, in step S99, the
また、ステップS99で、表示制御部103は、運転意図認識部102で、ナビゲーション装置3に目的地が入力された場合(S91のYes)に、ナビゲーション装置3に入力された目的地までの距離を求め、目的地までの距離の減少に応じて地図の表示範囲を狭め、地図の情報量を低下するようにしてもよい。
Further, in step S99, the
つぎに、運転意図の明確性の変化に応じて、地図の詳細度を変化させた地図画像例を示す。
図10Aは、地図の詳細度が低く、かつ、付加情報量が低い、“Simple Map”の表示形式の地図の地図画像である。
図10Bは、図10Aの地図画像より、運転意図の明確性が高く、交通不参加物標として信号機51g、51hが追加されて地図の詳細度が向上した地図画像である。
図10Cは、図10Aの地図画像より、運転意図の明確性が高く、交通不参加物標として樹木51j、51kが追加されて地図の詳細度が向上した地図画像である。
Next, an example of a map image in which the degree of detail of the map is changed according to the change in the clarity of the driving intention is shown.
FIG. 10A is a map image of a map in a display format of “Simple Map” in which the degree of detail of the map is low and the amount of additional information is low.
FIG. 10B is a map image in which the driving intention is more clear than the map image of FIG. 10A, and the
FIG. 10C is a map image in which the driving intention is more clear than the map image of FIG. 10A, and
つぎに、インフォメーションパネル51に表示する地図画像を斜め上方から見下ろすように表示するように表示する鳥瞰図において、地図の情報量(詳細度・付加情報量)を変えて表示する例について説明する。
Next, in a bird's-eye view in which the map image displayed on the
図11は、インフォメーションパネル51に表示する鳥瞰図による地図画像の仮想視点と表示範囲の関係を説明する図である。
図11に示すように、仮想視点における画角を固定した場合には、仮想視点P1より高い位置にある仮想視点P2の表示範囲A2は、仮想視点P1の表示範囲A1より広くなり、インフォメーションパネル51に表示される地図の情報量は、仮想視点P1よりも仮想視点P2のほうが多くなる。
FIG. 11 is a diagram for explaining the relationship between the virtual viewpoint and the display range of the map image by the bird's-eye view displayed on the
As shown in FIG. 11, when the angle of view in the virtual viewpoint is fixed, the display range A2 of the virtual viewpoint P2 located higher than the virtual viewpoint P1 becomes wider than the display range A1 of the virtual viewpoint P1, and the
そこで、実施形態のHMI制御部10の表示制御部103では、図12のフロー図に従い、地図の情報量が大きくなるにつれて仮想視点の位置を高くした鳥瞰図を地図画像として表示する。
ステップS121で、表示制御部103は、感情度が所定値以上であるか否かを判定し、所定値以上の場合には(S121のYes)、ステップS123に進み、所定値以上でない場合には(S121のNo)、ステップS122に進む。
Therefore, the
In step S121, the
ステップS122で、表示制御部103は、運転意図の明確性が所定値以上であるか否かを判定し、所定値以上である場合には(S122のYes)、ステップS123に進み、所定値以上でない場合には(S122のNo)、ステップS125に進む。
In step S122, the
ステップS123で、表示制御部103は、感情度および運転意図の明確性の増分量を求め、ステップS124に進む。
ステップS124で、表示制御部103は、仮想視点位置をステップS123で求めた増分量に応じて高くし、ステップS126に進む。
In step S123, the
In step S124, the
ステップS125で、表示制御部103は、仮想視点位置を標準値に設定し、ステップS126に進む。
ステップS126で、ステップS124あるいはステップS125で設定した仮想視点位置に基づいて、俯瞰した地図画像を生成する。
In step S125, the
In step S126, a bird's-eye view map image is generated based on the virtual viewpoint position set in step S124 or step S125.
M 自動運転車両
1 車両制御装置
2 外界センサ
21 カメラ
22 レーダ
23 ライダ
3 ナビゲーション装置
4 通信装置
5 HMI
51 インフォメーションパネル(表示部)
52 車内マイク
53 ドライバーモニタカメラ
54 メータパネル
55R 右側パネル
55L 左側パネル
6 走行駆動装置
7 ブレーキ装置
8 ステアリング装置
9 車両センサ
10 HMI制御部
101 乗員感情推定部
102 運転意図認識部
103 表示制御部
11 外界認識部
12 自車位置認識部
13 記憶部
131 高精度地図情報
132 行動計画情報
14 運転支援制御部
15 自動運転制御部
16 走行制御部
M Self-driving vehicle 1 Vehicle control device 2
51 Information panel (display)
52 In-
Claims (9)
前記車両内の乗員の乗員感情を推定する乗員感情推定部と、
前記車両の運転意図を認識する運転意図認識部と、
前記乗員感情および前記運転意図に応じて情報量を可変した周辺状況を示す前記画像を、前記表示部に出力する表示制御部と、
を備えることを特徴とする自動運転車両。 A display unit that displays an image showing the surrounding conditions of the vehicle,
The occupant emotion estimation unit that estimates the occupant emotions of the occupants in the vehicle, and the occupant emotion estimation unit.
A driving intention recognition unit that recognizes the driving intention of the vehicle,
A display control unit that outputs the image showing the peripheral situation in which the amount of information is changed according to the occupant's emotion and the driving intention to the display unit.
An autonomous vehicle characterized by being equipped with.
前記乗員感情推定部は、ドライバーモニタカメラで撮像した乗員の表情もしくは乗員の体の動きより、前記乗員感情を量的に示す乗員感情度を推定し、
前記表示制御部は、前記乗員感情度が所定値より高い場合に、付加情報量を増加した地図画像を前記表示部に出力する
ことを特徴とする請求項1に記載の自動運転車両。 The display unit displays a map image and
The occupant emotion estimation unit estimates the occupant emotion level that quantitatively indicates the occupant emotion from the facial expression of the occupant or the movement of the occupant's body captured by the driver monitor camera.
The autonomous driving vehicle according to claim 1, wherein the display control unit outputs a map image in which the amount of additional information is increased to the display unit when the occupant emotion level is higher than a predetermined value.
前記乗員感情推定部は、集音機により乗員の音声を取得し、前記音声の音域もしくは発話数により、前記乗員感情を量的に示す乗員感情度を推定し、
前記表示制御部は、前記音声の音域もしくは発話数により推定された前記乗員感情度が所定値より高い場合に、付加情報量を増加した地図画像を前記表示部に出力する
ことを特徴とする請求項1に記載の自動運転車両。 The display unit displays a map image and
The occupant emotion estimation unit acquires the occupant's voice with a sound collector, estimates the occupant emotion degree that quantitatively indicates the occupant's emotion from the sound range or the number of utterances of the voice, and then estimates the occupant's emotion level.
The claim is characterized in that the display control unit outputs a map image in which the amount of additional information is increased to the display unit when the occupant emotion level estimated from the sound range of the voice or the number of utterances is higher than a predetermined value. Item 1. The self-driving vehicle according to item 1.
前記運転意図認識部は、ナビゲーション装置に設定された目的地あるいは目的に応じて、運転意図を認識し、
前記表示制御部は、前記運転意図の明確性に応じて、地図の詳細度を増加した地図画像を前記表示部に出力する
ことを特徴とする請求項1に記載の自動運転車両。 The display unit displays a map image and
The driving intention recognition unit recognizes the driving intention according to the destination or purpose set in the navigation device.
The autonomous driving vehicle according to claim 1, wherein the display control unit outputs a map image in which the degree of detail of the map is increased according to the clarity of the driving intention to the display unit.
前記表示制御部は、付加情報量の増加あるいは地図の詳細度の増加に応じて、前記仮想視点の位置を高くした地図画像を出力する
ことを特徴とする請求項2から4のいずれかに記載の自動運転車両。 The map image includes a map image of a predetermined range of the surrounding situation of the vehicle as seen from a predetermined virtual viewpoint.
7. Self-driving vehicle.
前記表示制御部は、前記地図の詳細度が大きくなるにつれて前記交通物標の画像を出力し、さらに交通参加者の画像を出力する
ことを特徴とする請求項4に記載の自動運転車両。 Map images include images of traffic participants, road conditions and traffic markers in the surrounding conditions.
The autonomous driving vehicle according to claim 4, wherein the display control unit outputs an image of the traffic target as the degree of detail of the map increases, and further outputs an image of a traffic participant.
前記表示制御部は、前記目的地までの距離を計算し、前記距離の減少に応じて前記地図の表示範囲を狭め、地図の情報量を低下した地図画像を出力する
ことを特徴とする請求項4に記載の自動運転車両。 When the driving intention recognition unit recognizes that the destination has been set in the navigation device,
The claim is characterized in that the display control unit calculates a distance to the destination, narrows the display range of the map according to the decrease in the distance, and outputs a map image in which the amount of information on the map is reduced. The self-driving vehicle according to 4.
車両のコンピュータを
前記車両内の乗員の乗員感情を推定する乗員感情推定部と、
前記車両の運転意図を認識する運転意図認識部と、
前記乗員感情および前記運転意図に応じて情報量を可変した周辺状況を示す前記画像を、表示部に出力する表示制御部と、
として機能させるプログラム。 A program that displays an image showing the surrounding conditions of the vehicle.
The vehicle's computer is used as an occupant emotion estimation unit that estimates the occupant's emotions in the vehicle.
A driving intention recognition unit that recognizes the driving intention of the vehicle,
A display control unit that outputs the image showing the surrounding situation in which the amount of information is changed according to the occupant's emotion and the driving intention to the display unit.
A program that functions as.
乗員感情推定部により前記車両内の乗員の乗員感情を推定し、
運転意図認識部により前記車両の運転意図を認識し、
表示制御部により前記乗員感情および前記運転意図に応じて情報量を可変した周辺状況を示す前記画像を、表示部に出力する
画像表示方法。 It is an image display method that displays an image showing the surrounding conditions of the vehicle.
The occupant emotion estimation unit estimates the occupant emotions of the occupants in the vehicle.
The driving intention recognition unit recognizes the driving intention of the vehicle and recognizes the driving intention of the vehicle.
An image display method for outputting to the display unit the image showing the surrounding situation in which the amount of information is varied according to the occupant's emotion and the driving intention by the display control unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019239784A JP7198742B2 (en) | 2019-12-27 | 2019-12-27 | AUTOMATED DRIVING VEHICLE, IMAGE DISPLAY METHOD AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019239784A JP7198742B2 (en) | 2019-12-27 | 2019-12-27 | AUTOMATED DRIVING VEHICLE, IMAGE DISPLAY METHOD AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021107801A true JP2021107801A (en) | 2021-07-29 |
JP7198742B2 JP7198742B2 (en) | 2023-01-04 |
Family
ID=76967863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019239784A Active JP7198742B2 (en) | 2019-12-27 | 2019-12-27 | AUTOMATED DRIVING VEHICLE, IMAGE DISPLAY METHOD AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7198742B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7244604B2 (en) | 2020-11-02 | 2023-03-22 | キストラー ホールディング アクチエンゲゼルシャフト | accelerometer |
JP7244605B2 (en) | 2020-11-02 | 2023-03-22 | キストラー ホールディング アクチエンゲゼルシャフト | accelerometer |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006350934A (en) * | 2005-06-20 | 2006-12-28 | Denso Corp | Information display device |
JP2010191520A (en) * | 2009-02-16 | 2010-09-02 | Toyota Motor Corp | Surroundings monitor for vehicle |
-
2019
- 2019-12-27 JP JP2019239784A patent/JP7198742B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006350934A (en) * | 2005-06-20 | 2006-12-28 | Denso Corp | Information display device |
JP2010191520A (en) * | 2009-02-16 | 2010-09-02 | Toyota Motor Corp | Surroundings monitor for vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP7198742B2 (en) | 2023-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7399075B2 (en) | Information processing device, information processing method and program | |
US10101743B2 (en) | Vehicle control system, vehicle control method and vehicle control program | |
JP6368957B2 (en) | Vehicle control system, vehicle control method, and vehicle control program | |
JP6683803B2 (en) | Vehicle control system, vehicle control method, and vehicle control program | |
CN110023168B (en) | Vehicle control system, vehicle control method, and vehicle control program | |
CN107463122A (en) | Vehicle control system, control method for vehicle and wagon control program product | |
US10647326B2 (en) | Driving advice apparatus and driving advice method | |
US11077864B2 (en) | Travel control apparatus, vehicle, travel control system, travel control method, and storage medium | |
JP2017197011A (en) | Vehicle control system, vehicle control method, and vehicle control program | |
JP6443403B2 (en) | Vehicle control device | |
JP2017218020A (en) | Vehicle control device, vehicle control method and vehicle control program | |
JP2017191562A (en) | Vehicle control system, vehicle control method, and vehicle control program | |
JP6990248B2 (en) | Display control device, display control method and program | |
JP6877571B2 (en) | Display system, display method, and program | |
JP2019191694A (en) | Course determination device | |
JP2017199317A (en) | Vehicle control system, vehicle control method, and vehicle control program | |
JP7198742B2 (en) | AUTOMATED DRIVING VEHICLE, IMAGE DISPLAY METHOD AND PROGRAM | |
US20220277556A1 (en) | Information processing device, information processing method, and program | |
US20220258742A1 (en) | Yaw rate estimating device | |
US20220250630A1 (en) | Yaw rate estimating device | |
JP2021162569A (en) | Information providing device | |
US20210357177A1 (en) | Vehicle control device and vehicle control method | |
WO2023085017A1 (en) | Learning method, learning program, information processing device, information processing method, and information processing program | |
US20240109552A1 (en) | Driving assistance device, driving assistance method, and storage medium | |
US20240140468A1 (en) | Driving assistance device, driving assistance method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7198742 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |