JP7236897B2 - Driving support method and driving support device - Google Patents

Driving support method and driving support device Download PDF

Info

Publication number
JP7236897B2
JP7236897B2 JP2019058005A JP2019058005A JP7236897B2 JP 7236897 B2 JP7236897 B2 JP 7236897B2 JP 2019058005 A JP2019058005 A JP 2019058005A JP 2019058005 A JP2019058005 A JP 2019058005A JP 7236897 B2 JP7236897 B2 JP 7236897B2
Authority
JP
Japan
Prior art keywords
driving
monitoring
authority
vehicle
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019058005A
Other languages
Japanese (ja)
Other versions
JP2020157871A (en
Inventor
亮彦 海老名
宏明 三浦
敦 高松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019058005A priority Critical patent/JP7236897B2/en
Publication of JP2020157871A publication Critical patent/JP2020157871A/en
Application granted granted Critical
Publication of JP7236897B2 publication Critical patent/JP7236897B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、運転支援方法及び運転支援装置に関する。 The present invention relates to a driving assistance method and a driving assistance device.

特許文献1には、自動走行の機能を実施することが困難である原因が、この機能に情報を提供する第1のセンサであり、かつ搭乗者が運転を引き継ぐことが困難な場合に、第2のセンサの情報を用いて停車や減速するなどの一時的に走行制御を行う自動運転制御システムが記載されている。 In Patent Document 1, the cause of the difficulty in implementing the automatic driving function is the first sensor that provides information to this function, and when it is difficult for the passenger to take over driving, the second An automatic driving control system that temporarily controls running such as stopping or decelerating using information from two sensors is described.

特開2017‐165296号公報JP 2017-165296 A

しかしながら、特許文献1において第2のセンサの代用は、手動運転へ引き継ぐまでの一時的な措置であり、継続して自動運転で車両を走行し続けるには不十分であった。
本発明は、自動運転車両の周囲の物体を検出するセンサが物体を検出できない非検出状態になっても自動運転の継続を可能とすることを目的とする。
However, the substitution of the second sensor in Patent Document 1 is a temporary measure until handover to manual driving, and is insufficient to continue driving the vehicle in automatic driving.
An object of the present invention is to enable continuation of automatic driving even when a sensor for detecting objects around an automatic driving vehicle enters a non-detection state in which the object cannot be detected.

本発明の一態様によれば、自動運転車両の周囲の物体を所定の検出方向で検出するセンサの検出結果に基づいて自動運転車両の運転行動を決定する運転支援方法が与えられる。運転支援方法では、コントローラが、センサが物体を検出できない非検出状態であるか否かを判定する処理と、センサが非検出状態であると判定した場合は、所定の検出方向に応じて、自動運転車両の複数の乗員のいずれかに自動運転車両の周囲の物体を監視する監視権限を付与する処理と、監視権限が付与された乗員による監視結果に応じて、自動運転車両に運転行動を実行させる処理とを行う。 According to one aspect of the present invention, there is provided a driving assistance method for determining the driving behavior of an automatically driving vehicle based on the detection result of a sensor that detects objects around the automatically driving vehicle in a predetermined detection direction. In the driving support method, the controller determines whether or not the sensor is in a non-detection state in which the sensor cannot detect an object, and if the sensor determines that the sensor is in a non-detection state, automatically performs A process of granting monitoring authority to one of the multiple occupants of the driving vehicle to monitor objects around the autonomous driving vehicle, and executing driving actions on the autonomous driving vehicle according to the monitoring results of the occupants who have been granted the monitoring authority. and perform processing to cause

本発明の一態様によれば、自動運転車両の周囲の物体を検出するセンサが物体を検出できない非検出状態になっても自動運転を継続できる。 ADVANTAGE OF THE INVENTION According to the aspect of this invention, even if the sensor which detects the object around an automatic driving vehicle will be in the non-detection state which cannot detect an object, automatic driving|operation can be continued.

本発明の実施形態の運転支援装置の一例の概略構成図である。1 is a schematic configuration diagram of an example of a driving assistance device according to an embodiment of the present invention; FIG. 監視権限者用情報提示画像の一例を示す図である。It is a figure which shows an example of the information presentation image for surveillance authorities. 操作権限者用画像提示画像の一例を示す図である。It is a figure which shows an example of the image presentation image for operation-authorized persons. 図1のコントローラの機能構成の一例を示すブロック図である。2 is a block diagram showing an example of a functional configuration of a controller in FIG. 1; FIG. 乗員状態表示画像の一例を示す図である。It is a figure which shows an example of a passenger|crew state display image. 乗員状態表示画像の一例を示す図である。It is a figure which shows an example of a passenger|crew state display image. 乗員状態表示画像の一例を示す図である。It is a figure which shows an example of a passenger|crew state display image. 乗員状態表示画像の一例を示す図である。It is a figure which shows an example of a passenger|crew state display image. 監視権限者が座る座席の判定方法の一例の説明図である。FIG. 10 is an explanatory diagram of an example of a method of determining a seat where a monitoring authority sits; 監視権限者が座る座席の判定方法の一例の説明図である。FIG. 10 is an explanatory diagram of an example of a method of determining a seat where a monitoring authority sits; 監視権限者が座る座席の判定方法の一例の説明図である。FIG. 10 is an explanatory diagram of an example of a method of determining a seat where a monitoring authority sits; 監視権限者が座る座席の判定方法の一例の説明図である。FIG. 10 is an explanatory diagram of an example of a method of determining a seat where a monitoring authority sits; 監視権限者が座る座席の判定方法の一例の説明図である。FIG. 10 is an explanatory diagram of an example of a method of determining a seat where a monitoring authority sits; 監視権限者に権限を付与する際の操作権限者用画像提示画像の一例を示す図である。FIG. 11 is a diagram showing an example of an image presentation image for an operation authority when giving authority to a monitoring authority; 操作権限者による運転行動の承認又は否認を待つ間の監視権限者用情報提示画像の一例を示す図である。FIG. 10 is a diagram showing an example of an information presentation image for a monitoring authority while waiting for approval or disapproval of a driving action by an operating authority; 操作権限者による運転行動の承認を知らせる監視権限者用情報提示画像の一例を示す図である。FIG. 10 is a diagram showing an example of an information presentation image for a monitoring authority that notifies approval of a driving action by an operating authority. 運転行動の承認権限を監視権限者に付与した場合の監視権限者用情報提示画像の一例を示す図である。FIG. 10 is a diagram showing an example of an information presentation image for a supervisory authority when a supervisory authority is given authority to approve a driving action. 運転行動の承認権限を監視権限者に付与した場合の操作権限者用情報提示画像の一例を示す図である。FIG. 10 is a diagram showing an example of an information presentation image for an operating authority when a monitoring authority is given authority to approve driving behavior. 監視権限者による運転行動の承認又は否認をシステムが受け付ける間の監視権限者用情報提示画像の一例を示す図である。FIG. 10 is a diagram showing an example of an information presentation image for a supervisory authority while the system accepts approval or disapproval of a driving action by a supervisory authority; 監視権限者による運転行動の承認をシステムが受け付けたことを知らせる監視権限者用情報提示画像の一例を示す図である。FIG. 11 is a diagram showing an example of an authorized supervisor information presentation image that notifies that the system has accepted the approval of the driving action by the authorized supervisor. 実施形態の運転支援装置の動作の一例を示すフローチャートである。It is a flow chart which shows an example of operation of a driving assistance device of an embodiment. 実施形態の運転支援装置の動作の一例を示すフローチャートである。It is a flow chart which shows an example of operation of a driving assistance device of an embodiment.

以下、本発明の実施形態について、図面を参照しつつ説明する。なお、各図面は模式的なものであって、現実のものとは異なる場合がある。また、以下に示す本発明の実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that each drawing is schematic and may differ from the actual one. Further, the embodiments of the present invention shown below are examples of apparatuses and methods for embodying the technical idea of the present invention. are not specific to the following: Various modifications can be made to the technical idea of the present invention within the technical scope defined by the claims.

(構成)
図1を参照する。運転支援装置1は、運転支援装置1を搭載する自動運転車両(以下、「自車両」と表記する)の周囲の走行環境に基づいて、運転者が関与せずに自車両を自動で運転する自動運転制御や、運転者による自車両の運転を支援する運転支援制御を行う。
運転支援制御には、自動操舵、自動ブレーキ、定速走行制御、車線維持制御、合流支援制御などの走行制御のほか、運転者に操舵操作や減速操作を促すメッセージを出力することを含んでよい。
(composition)
Please refer to FIG. The driving support device 1 automatically drives the self-driving vehicle without the involvement of the driver, based on the surrounding driving environment of the self-driving vehicle (hereinafter referred to as "own vehicle") equipped with the driving support device 1. It performs automatic driving control and driving support control that assists the driver in driving the own vehicle.
The driving support control may include driving control such as automatic steering, automatic braking, constant speed driving control, lane keeping control, and merging support control, as well as outputting a message prompting the driver to perform steering operation or deceleration operation. .

運転支援装置1は、周囲環境センサ2と、地図データベース3と、車両センサ4と、乗員センサ5と、ユーザインタフェース6FR、6FL、6RR、6RLと、ナビゲーションシステム7と、コントローラ8と、車両制御アクチュエータ9を備える。図面において地図データベースを「地図DB」と表記する。
周囲環境センサ2は、例えば、自車両に搭載されて自車両の周囲環境、自車両の周囲の物体を検出するセンサ群であってよい。周囲環境センサ2は、例えば自車両の左側方の物体を検出する左側方センサ、左後方の物体を検出する左後方センサ、左前方の物体を検出する左前方センサ、右側方の物体を検出する右側方センサ、右後方の物体を検出する右後方センサ、右前方の物体を検出する右前方センサ、前方の物体を検出する前方センサ、後方の物体を検出する後方センサを含んでよい。
The driving assistance device 1 includes an ambient environment sensor 2, a map database 3, a vehicle sensor 4, an occupant sensor 5, user interfaces 6FR, 6FL, 6RR, and 6RL, a navigation system 7, a controller 8, and a vehicle control actuator. 9. In the drawings, the map database is denoted as "map DB".
The surrounding environment sensor 2 may be, for example, a group of sensors mounted on the own vehicle to detect the surrounding environment of the own vehicle and objects around the own vehicle. The surrounding environment sensors 2 include, for example, a left sensor that detects objects on the left side of the vehicle, a left rear sensor that detects objects on the left rear side, a left front sensor that detects objects on the left front side, and an object on the right side of the vehicle. A right side sensor, a right rear sensor that detects a right rear object, a right front sensor that detects a right front object, a front sensor that detects a front object, and a rear sensor that detects a rear object.

すなわち、左側方センサ、左後方センサ、左前方センサ、右側方センサ、右後方センサ、右前方センサ、前方センサ及び後方センサの検出方向は、それぞれ自車両の左側方、左後方、左前方、右側方、右後方、右前方、前方及び後方である。
これらのセンサは、例えば測距装置やカメラを含んでよい。
測距装置及びカメラは、自車両周囲に存在する物体、自車両と物体との相対位置、自車両と物体との距離等の自車両の周囲環境を検出する。
That is, the detection directions of the left side sensor, the left rear sensor, the left front sensor, the right side sensor, the right rear sensor, the right front sensor, the front sensor, and the rear sensor are respectively the left side, the left rear, the left front, and the right side of the vehicle. forward, right rear, right front, front and rear.
These sensors may include rangefinders and cameras, for example.
A rangefinder and a camera detect the surrounding environment of the own vehicle, such as objects existing around the own vehicle, the relative position between the own vehicle and the object, and the distance between the own vehicle and the object.

測距装置は、例えば、レーザレンジファインダ(LRF:Laser Range-Finder)やレーダであってよい。カメラは、例えばステレオカメラであってよい。
カメラは、単眼カメラであってもよく、単眼カメラにより複数の視点で同一の物体を撮影して、物体までの距離を計算してもよい。また、単眼カメラによる撮像画像から検出された物体の接地位置に基づいて、物体までの距離を計算してもよい。
周囲環境センサ2は、検出した周囲環境の情報である周囲環境情報をコントローラ8へ出力する。
The ranging device may be, for example, a laser range finder (LRF) or radar. The camera may be, for example, a stereo camera.
The camera may be a monocular camera, or the same object may be photographed from a plurality of viewpoints by the monocular camera, and the distance to the object may be calculated. Also, the distance to the object may be calculated based on the grounding position of the object detected from the image captured by the monocular camera.
The ambient environment sensor 2 outputs ambient environment information, which is information about the detected ambient environment, to the controller 8 .

なお、周囲環境センサ2は、自車両の周囲の物体を検出するセンサであればよく、自車両に搭載されるセンサに限定されない。例えば周囲環境センサ2は、自車両の周囲の他車両や、自車両が走行する走行路などのインフラストラクチャに設けられたセンサでもよい。コントローラ8は、これらのセンサによる周囲環境情報を車車間通信や路車間通信を介して取得してもよい。 The surrounding environment sensor 2 may be any sensor that detects objects around the vehicle, and is not limited to a sensor mounted on the vehicle. For example, the surrounding environment sensor 2 may be a sensor provided in infrastructure such as other vehicles around the own vehicle or a road on which the own vehicle travels. The controller 8 may acquire ambient environment information from these sensors via vehicle-to-vehicle communication or road-to-vehicle communication.

地図データベース3は、自動運転用の地図として好適な高精度地図データ(以下、単に「高精度地図」という。)を記憶してよい。高精度地図は、ナビゲーション用の地図データ(以下、単に「ナビ地図」という。)よりも高精度の地図データであり、道路単位の情報よりも詳細な車線単位の情報を含む。
例えば、高精度地図は車線単位の情報として、車線基準線(例えば車線内の中央の線)上の基準点を示す車線ノードの情報と、車線ノード間の車線の区間態様を示す車線リンクの情報を含む。
The map database 3 may store high-precision map data (hereinafter simply referred to as "high-precision map") suitable as a map for automatic driving. A high-precision map is map data with higher precision than map data for navigation (hereinafter simply referred to as "navigation map"), and includes more detailed lane-by-lane information than road-by-road information.
For example, a high-definition map includes lane node information indicating a reference point on a lane reference line (for example, a central line within a lane) and lane link information indicating a section of a lane between lane nodes as information for each lane. including.

車線ノードの情報は、その車線ノードの識別番号、位置座標、接続される車線リンク数、接続される車線リンクの識別番号を含む。車線リンクの情報は、その車線リンクの識別番号、車線の種類、車線の幅員、車線境界線の種類、車線の形状、車線区分線の形状、車線基準線の形状を含む。高精度地図は更に、車線上又はその近傍に存在する信号機、停止線、標識、建物、電柱、縁石、横断歩道等の地物の種類及び位置座標と、地物の位置座標に対応する車線ノードの識別番号及び車線リンクの識別番号等の、地物の情報を含む。 The lane node information includes the identification number of the lane node, the position coordinates, the number of connected lane links, and the identification number of the connected lane link. The lane link information includes the lane link identification number, lane type, lane width, lane boundary line type, lane shape, lane marking line shape, and lane reference line shape. The high-precision map further includes the types and positional coordinates of features such as traffic lights, stop lines, signs, buildings, utility poles, curbs, crosswalks, etc. that exist on or near the lane, and lane nodes corresponding to the positional coordinates of the features. includes feature information, such as the identification number of the lane and the identification number of the lane link.

高精度地図は、車線単位のノード及びリンク情報を含むため、走行ルートにおいて自車両が走行する車線を特定可能である。高精度地図は、車線の延伸方向及び幅方向における位置を表現可能な座標を有する。高精度地図は、3次元空間における位置を表現可能な座標(例えば経度、緯度及び高度)を有し、車線や上記地物は3次元空間における形状として記述されてもよい。 Since the high-precision map includes node and link information for each lane, it is possible to specify the lane in which the host vehicle travels on the travel route. The high-precision map has coordinates that can express the position in the extension direction and width direction of the lane. A high-precision map has coordinates (for example, longitude, latitude, and altitude) that can express a position in a three-dimensional space, and lanes and the features may be described as shapes in the three-dimensional space.

車両センサ4は、自車両の走行状態を検出するセンサと、運転者により行われた運転操作を検出するセンサとを含む。
自車両の走行状態を検出するセンサには、車速センサと、加速度センサと、ジャイロセンサが含まれる。
運転操作を検出するセンサには、操舵角センサと、アクセルセンサと、ブレーキセンサが含まれる。なお、自車両に運転席が設けられない場合には、運転操作を検出するセンサを省略できる。
The vehicle sensors 4 include sensors that detect the running state of the host vehicle and sensors that detect driving operations performed by the driver.
Sensors that detect the running state of the own vehicle include a vehicle speed sensor, an acceleration sensor, and a gyro sensor.
Sensors that detect driving operations include a steering angle sensor, an accelerator sensor, and a brake sensor. If the vehicle does not have a driver's seat, the sensor for detecting the driving operation can be omitted.

車速センサは、自車両の車輪速を検出し、車輪速に基づいて自車両の速度を算出する。
加速度センサは、自車両の前後方向の加速度、車幅方向の加速度及び上下方向の加速度を検出する。
ジャイロセンサは、ロール軸、ピッチ軸及びヨー軸を含む3軸回りの自車両の回転角度の角速度を検出する。
The vehicle speed sensor detects the wheel speed of the own vehicle and calculates the speed of the own vehicle based on the wheel speed.
The acceleration sensor detects acceleration in the longitudinal direction, the acceleration in the vehicle width direction, and the acceleration in the vertical direction of the host vehicle.
The gyro sensor detects the angular velocity of the rotation angle of the host vehicle around three axes including the roll axis, pitch axis and yaw axis.

操舵角センサは、操舵操作子であるステアリングホイールの現在の回転角度(操舵操作量)である現在操舵角を検出する。
アクセルセンサは、自車両のアクセル開度を検出する。例えばアクセルセンサは、自車両のアクセルペダルの踏み込み量をアクセル開度として検出する。
The steering angle sensor detects the current steering angle, which is the current rotation angle (steering operation amount) of the steering wheel, which is a steering operator.
The accelerator sensor detects the accelerator opening of the own vehicle. For example, the accelerator sensor detects the amount of depression of the accelerator pedal of the host vehicle as the accelerator opening.

ブレーキセンサは、運転者によるブレーキ操作量を検出する。例えばブレーキセンサは、自車両のブレーキペダルの踏み込み量をブレーキ操作量として検出する。
車両センサ4が検出した自車両の速度、加速度、角速度、操舵角、アクセル開度、ブレーキ操作量の情報を総称して「車両センサ情報」と表記する。車両センサ4は車両センサ情報をコントローラ8へ出力する。
The brake sensor detects the amount of brake operation by the driver. For example, the brake sensor detects the depression amount of the brake pedal of the own vehicle as the brake operation amount.
Information on the vehicle's speed, acceleration, angular velocity, steering angle, accelerator opening, and brake operation amount detected by the vehicle sensor 4 is collectively referred to as "vehicle sensor information". Vehicle sensor 4 outputs vehicle sensor information to controller 8 .

乗員センサ5は、自車両に乗っている乗員の着座位置及びその乗員の状態を検出するセンサである。乗員センサ5は、自車両に乗っている乗員やその周囲を撮影する車内カメラであってよい。また例えば、また、乗員センサ5は、乗員の体重や体表の動きを検出する圧力センサ、乗員の体や顔の向きを検出するセンサであってもよい。
乗員センサ5が撮影した映像、乗員の体重や体動の情報を総称して「乗員センサ情報」と表記する。乗員センサ5は、乗員センサ情報をコントローラ8へ出力する。
The occupant sensor 5 is a sensor that detects the seating position of the occupant in the vehicle and the state of the occupant. The occupant sensor 5 may be an in-vehicle camera that captures images of the occupants on board the vehicle and their surroundings. Further, for example, the occupant sensor 5 may be a pressure sensor that detects the weight and body surface movement of the occupant, or a sensor that detects the direction of the occupant's body and face.
The video imaged by the occupant sensor 5 and information on the weight and body movement of the occupant are collectively referred to as "occupant sensor information". The occupant sensor 5 outputs occupant sensor information to the controller 8 .

ユーザインタフェース6FR、6FL、6RR及び6RLは、それぞれ、右前方席、左前方席、右後方席及び左後方席の乗員とコントローラと乗員との間で情報を授受するためのインタフェース装置である。ユーザインタフェース6FR、6FL、6RR及び6RLを「ユーザインタフェース6」と総称することもある。
ユーザインタフェース6は、運転支援装置1や自車両のインテリアに固定設置されていてもよく、運転支援装置1と別体の端末装置(例えばタブレット端末)であってもよい。
The user interfaces 6FR, 6FL, 6RR and 6RL are interface devices for exchanging information between the occupants in the right front seat, the left front seat, the right rear seat and the left rear seat, the controller and the occupants, respectively. The user interfaces 6FR, 6FL, 6RR and 6RL may be collectively referred to as "user interfaces 6".
The user interface 6 may be fixedly installed in the driving assistance device 1 or the interior of the own vehicle, or may be a terminal device (for example, a tablet terminal) separate from the driving assistance device 1 .

ユーザインタフェース6は、各々入力装置、表示装置、音声信号出力装置を備える。
入力装置は、乗員によるコントローラ8への操作を受け付ける。入力装置は、例えばボタン、ダイヤル、スライダなどであってよく、表示装置に設けられたタッチパネルであってもよい。入力装置は、乗員の音声による指示や情報入力を受け付けるマイクロフォンであってもよい。
The user interfaces 6 each include an input device, a display device, and an audio signal output device.
The input device receives an operation of the controller 8 by the passenger. The input device may be, for example, buttons, dials, sliders, or the like, or may be a touch panel provided on the display device. The input device may be a microphone for receiving voice instructions and information input from the passenger.

表示装置は、コントローラ8により提供される様々な視覚的情報を出力する。
また、ユーザインタフェース6は、乗員の五感のうち視覚以外の感覚による刺激を与えるインタフェース装置を備えてもよい。例えば、ユーザインタフェース6は、触覚や嗅覚による刺激を乗員に与えるインタフェース装置を備えてもよい。
音声信号出力装置は、コントローラ8により提供される様々な聴覚的情報を出力する。
The display device outputs various visual information provided by the controller 8 .
In addition, the user interface 6 may include an interface device that provides stimulation by senses other than sight among the five senses of the occupant. For example, the user interface 6 may include an interface device that provides the passenger with tactile or olfactory stimuli.
The audio signal output device outputs various auditory information provided by the controller 8 .

なお、ユーザインタフェース6の数は4個に限定されず、自車両の座席数に応じて増減してもよい。また、全ての座席に設けずに一部の座席に設けてもよい。一部の乗員のみが利用できるようにユーザインタフェース6を設ける座席を制限してもよく(例えば、右前方席及び左前方席のみ設ける)、複数の乗員で1個のユーザインタフェース6を共用するように設けてもよい。 Note that the number of user interfaces 6 is not limited to four, and may be increased or decreased according to the number of seats in the vehicle. Moreover, it may be provided in some seats instead of being provided in all seats. The seats on which the user interface 6 is provided may be restricted so that only some passengers can use it (for example, only the front right seat and the front left seat are provided), and a single user interface 6 may be shared by multiple passengers. may be set to

ナビゲーションシステム7は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して自車両の現在位置を測定する。GNSS受信機は、例えば地球測位システム(GPS)受信機等であってよい。ナビゲーションシステム7は、例えばオドメトリにより自車両の現在位置を測定してもよい。 The navigation system 7 includes a global positioning system (GNSS) receiver, receives radio waves from a plurality of navigation satellites, and measures the current position of the vehicle. A GNSS receiver may be, for example, a global positioning system (GPS) receiver or the like. The navigation system 7 may measure the current position of the host vehicle by, for example, odometry.

乗員がナビゲーションシステム7を操作して目的地を入力すると、ナビゲーションシステム7は、ダイキストラ法やA*などのグラフ探索理論に基づく手法により、現在位置から目的地まで自車両がこれから走行する予定経路を設定する。ナビゲーションシステム7は、設定した予定経路に基づく経路案内を乗員に提示する。
例えば、ナビゲーションシステム7は、予定経路と経路案内をユーザインタフェース6の表示装置に表示してよい。
また、ナビゲーションシステム7は、設定した予定経路の情報と自車両の現在位置情報をコントローラ8へ出力する。
When an occupant operates the navigation system 7 to input a destination, the navigation system 7 uses a method based on graph search theory such as the Dijkstra method or A* to calculate a route that the vehicle will travel from the current position to the destination. set. The navigation system 7 presents the passenger with route guidance based on the set scheduled route.
For example, the navigation system 7 may display the planned route and route guidance on the display of the user interface 6 .
The navigation system 7 also outputs information on the set scheduled route and information on the current position of the vehicle to the controller 8 .

コントローラ8は、自車両の自動運転制御と運転支援制御を行う電子制御ユニット(ECU:Electronic Control Unit)である。コントローラ8は、プロセッサ12と、記憶装置13等の周辺部品とを含む。プロセッサ12は、例えばCPU(Central Processing Unit)やMPU(Micro-Processing Unit)であってよい。
記憶装置13は、半導体記憶装置、磁気記憶装置及び光学記憶装置のいずれかを備えてよい。記憶装置13は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
The controller 8 is an electronic control unit (ECU) that performs automatic driving control and driving support control of the host vehicle. The controller 8 includes a processor 12 and peripheral components such as a storage device 13 and the like. The processor 12 may be, for example, a CPU (Central Processing Unit) or an MPU (Micro-Processing Unit).
The storage device 13 may include any one of a semiconductor storage device, a magnetic storage device, and an optical storage device. The storage device 13 may include memories such as a register, a cache memory, a ROM (Read Only Memory) used as a main memory, and a RAM (Random Access Memory).

以下に説明するコントローラ8の機能は、例えばコントローラ8のプロセッサ12が、記憶装置13に格納されたコンピュータプログラムを実行することにより実現される。
なお、コントローラ8を、以下に説明する各情報処理を実行するための専用のハードウエアにより形成してもよい。
例えば、コントローラ8は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えばコントローラ8はフィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてもよい。
The functions of the controller 8 to be described below are realized, for example, by the processor 12 of the controller 8 executing a computer program stored in the storage device 13 .
Note that the controller 8 may be formed of dedicated hardware for executing each information processing described below.
For example, controller 8 may comprise functional logic circuitry implemented in a general-purpose semiconductor integrated circuit. For example, the controller 8 may comprise a programmable logic device (PLD) such as a field-programmable gate array (FPGA).

コントローラ8は、周囲環境センサ2から入力した周囲環境情報と、地図データベース3に記憶される高精度地図(ナビゲーションシステム7が備えるナビ地図を使用してもよい、以下同様)と、車両センサ4から入力した車両センサ情報と、ナビゲーションシステム7から入力した自車両の現在位置と、に基づいて、ナビゲーションシステム7により設定された予定経路を自車両に走行させる運転行動計画を生成する。 The controller 8 receives ambient environment information input from the ambient environment sensor 2 , a high-precision map stored in the map database 3 (a navigation map included in the navigation system 7 may be used, the same applies hereinafter), and from the vehicle sensor 4 Based on the input vehicle sensor information and the current position of the vehicle input from the navigation system 7, a driving action plan for causing the vehicle to travel the planned route set by the navigation system 7 is generated.

ここで運転行動計画とは、自車両を走行させるレーン(車線)と、このレーンを走行させるのに要する運転行動とを定めた、中長距離の範囲におけるレーンレベル(車線レベル)での運転行動の計画である。例えば運転行動計画は、前方に存在する交差点を右折するシーンにおいて、交差点の手前何m地点で右折レーンに車線変更するか等の運転行動を定めた計画である。 Here, the driving action plan is a driving action at the lane level (lane level) in the range of medium and long distances, which defines the lane (lane) in which the vehicle is to be driven and the driving action required to drive in this lane. is the plan. For example, the driving action plan is a plan that determines the driving action such as how many meters before the intersection the lane should be changed to the right turn lane in a scene where the driver turns right at an intersection in front of the intersection.

コントローラ8は、運転行動計画及び自車両の運動特性などに基づいて自車両を走行させるための軌道候補を生成する。コントローラ8は、軌道候補の各々の将来リスクを評価して、最適な軌道を選択し、自車に走行させる走行軌道として設定する。走行軌道は、目標操舵角のほか、速度計画やそのための加減速を含む。
コントローラ8は、設定した走行軌道を自車両が走行するように車両制御アクチュエータ9を駆動して自動的に自車両を走行させる。
The controller 8 generates trajectory candidates for driving the own vehicle based on the driving action plan, the motion characteristics of the own vehicle, and the like. The controller 8 evaluates the future risk of each of the track candidates, selects the optimum track, and sets it as the travel track for the vehicle to travel. The travel trajectory includes a target steering angle as well as a speed plan and acceleration/deceleration therefor.
The controller 8 automatically drives the vehicle by driving the vehicle control actuator 9 so that the vehicle travels along the set travel trajectory.

車両制御アクチュエータ9は、コントローラ8からの制御信号に応じて、自車両の操舵機構、アクセル開度及びブレーキ装置を操作して、自車両の車両挙動を発生させる。車両制御アクチュエータ9は、例えば、ステアリングアクチュエータと、アクセル開度アクチュエータと、ブレーキ制御アクチュエータを備えてよい。
ステアリングアクチュエータは、自車両のステアリング機構の操舵方向及び操舵量を制御する。アクセル開度アクチュエータは、自車両のアクセル開度を制御する。ブレーキ制御アクチュエータは、自車両のブレーキ装置の制動動作を制御する。
The vehicle control actuator 9 operates the steering mechanism, the accelerator opening and the brake device of the own vehicle according to the control signal from the controller 8 to generate the vehicle behavior of the own vehicle. The vehicle control actuators 9 may comprise, for example, a steering actuator, an accelerator opening actuator and a brake control actuator.
The steering actuator controls the steering direction and steering amount of the steering mechanism of the host vehicle. The accelerator opening actuator controls the accelerator opening of the host vehicle. The brake control actuator controls the braking operation of the brake system of the host vehicle.

次に、コントローラ8による自車両の自動運転制御に対する乗員による操作指示を説明する。
乗員は、コントローラ8による自動運転制御に対して様々な操作指示を行うことが可能である。自動運転制御に対する操作指示には、例えば、自車両の運転行動(例えば、前方の交差点の右左折、車線変更や加減速などの指示)や運転行動計画を指定する指示が含まれる。
また例えば、自車両に対する操作指示は、自車両の目的地又は経由地を指定する指示を含んでもよい。
Next, operation instructions by the occupant for the automatic driving control of the own vehicle by the controller 8 will be described.
A crew member can give various operational instructions to the automatic driving control by the controller 8 . Operation instructions for automatic driving control include, for example, instructions specifying driving behavior of the host vehicle (for example, instructions to turn left or right at an intersection ahead, lane change, acceleration/deceleration, etc.) and a driving behavior plan.
Further, for example, the operation instruction to the own vehicle may include an instruction to designate the destination or waypoint of the own vehicle.

乗員は、運転行動、運転行動計画、目的地、経由地などを指定する操作指示を、ユーザインタフェース6を介してコントローラ8に入力する。
また例えば、自車両に対する操作指示は、自車両の自動運転制御に対するオーバライド操作であってもよい。乗員は、例えばステアリングホイール、アクセルペダル、ブレーキペダルによりオーバライド操作をコントローラ8に入力してよい。
The passenger inputs operational instructions to the controller 8 via the user interface 6 to designate driving behavior, driving behavior plans, destinations, waypoints, and the like.
Further, for example, the operation instruction for the own vehicle may be an override operation for the automatic driving control of the own vehicle. A passenger may input an override operation to the controller 8 using, for example, a steering wheel, an accelerator pedal, and a brake pedal.

コントローラ8は、乗員に付与されている自車両に対する操作指示の権限(以下、「操作権限」と表記する)を記憶する。
乗員による操作指示が行われた場合、コントローラ8は、操作指示を行った乗員が、操作権限が付与されている者、すなわち操作権限者であるか否かを判定する。
操作権限者が操作指示を行った場合には、コントローラ8は操作指示に従って自車両の走行を制御する。すなわち、操作指示に従って運転行動、運転行動計画、目的地、又は経由地を設定する。若しくは、オーバライド操作に従って自車両の車両挙動を発生させる。
操作権限者以外の乗員が操作指示を行った場合には、コントローラ8は操作指示を破棄する。
The controller 8 stores the authority (hereinafter referred to as "operation authority") to operate the own vehicle given to the occupant.
When an operation instruction is issued by a passenger, the controller 8 determines whether the passenger who issued the operation instruction is a person to whom operation authority has been granted, ie, an operation authority.
When the person authorized to operate has given an operation instruction, the controller 8 controls the running of the own vehicle according to the operation instruction. That is, the driving action, the driving action plan, the destination, or the waypoint is set according to the operation instruction. Alternatively, the vehicle behavior of the own vehicle is generated according to the override operation.
If a crew member other than the person authorized to operate the vehicle issues an operation instruction, the controller 8 discards the operation instruction.

次に、故障や汚れの付着などの原因により、周囲環境センサ2のいずれかが自車両の周囲の物体を検出できない状態(すなわち非検出状態)となった場合について説明する。
周囲環境センサ2のいずれかが非検出状態となった場合には、コントローラ8は、検出状態である残りのセンサの周囲環境情報に基づいて運転行動計画を生成する。
そして、コントローラ8は、非検出状態のセンサの検出方向を監視する監視権限を乗員に付与する。以下、非検出状態のセンサを「非検出状態センサ」と表記することがある。
コントローラ8は、例えば、非検出状態センサの検出方向と、これから自車両が行う予定の運転行動と、乗員の座席に応じて、監視権限を付与する乗員を決定する。
Next, a case where any one of the surrounding environment sensors 2 cannot detect objects around the host vehicle (that is, a non-detection state) due to a cause such as failure or adhesion of dirt will be described.
When any of the surrounding environment sensors 2 becomes non-detecting, the controller 8 generates a driving action plan based on the surrounding environment information of the remaining sensors that are in the detecting state.
Then, the controller 8 gives the occupant the monitoring authority to monitor the detection direction of the sensor in the non-detection state. Hereinafter, a sensor in a non-detection state may be referred to as a "non-detection state sensor".
The controller 8 determines the occupant to whom the monitoring authority is given according to, for example, the detection direction of the non-detection state sensor, the driving action scheduled to be performed by the own vehicle, and the occupant's seat.

コントローラ8は、監視権限を付与した乗員(以下「監視権限者」と表記する)に、非検出状態センサと、監視権限者が監視すべき監視対象(例えば、監視すべき自車両周囲の範囲や監視すべき方向)を通知する。
図2Aを参照する。例えばコントローラ8は、監視権限者が利用するユーザインタフェース6の表示装置に、監視権限者用情報提示画像20を表示する。
The controller 8 instructs the occupant to whom monitoring authority is granted (hereinafter referred to as "monitoring authority") to detect the non-detecting state sensor and the monitoring object to be monitored by the monitoring authority (for example, the range around the own vehicle to be monitored, direction to be monitored).
See FIG. 2A. For example, the controller 8 displays the information presentation image 20 for the supervisory authority on the display device of the user interface 6 used by the supervisory authority.

監視権限者用情報提示画像20は、例えば、非検出状態センサ表示21と、監視対象表示22と、付与権限表示23と、運転行動表示24と、第1確認ボタン画像25と、第2確認ボタン画像26を含んでよい。
非検出状態センサ表示21は、非検出状態センサを指示する。図2Aの例では、非検出状態センサ表示21は左前方センサが非検出状態となっていることを示す。
The monitoring authority information presentation image 20 includes, for example, a non-detection sensor display 21, a monitoring target display 22, an granted authority display 23, a driving action display 24, a first confirmation button image 25, and a second confirmation button. An image 26 may be included.
A non-detecting sensor display 21 indicates a non-detecting sensor. In the example of FIG. 2A, the non-detection state sensor display 21 indicates that the left front sensor is in the non-detection state.

監視対象表示22は、監視権限者が監視すべき監視対象を指示する。図2Aの例では、監視対象表示22は、監視権限者が自車両の左前方の領域(又は左前方の方向)を監視すべきことを示している。
付与権限表示23は、現在、監視権限が付与されていることを示す。運転行動表示24は、自車両がこれから行う予定の運転行動を表示する。
第1確認ボタン画像25及び第2確認ボタン画像26は、監視権限者が監視対象での監視結果を指示する入力を受け付ける。
The monitoring target display 22 indicates the monitoring target to be monitored by the monitoring authority. In the example of FIG. 2A, the monitoring target display 22 indicates that the monitoring authority should monitor the left front area (or the left front direction) of the host vehicle.
The granted authority display 23 indicates that the monitoring authority is currently granted. The driving behavior display 24 displays the driving behavior that the host vehicle is scheduled to perform from now on.
The first confirmation button image 25 and the second confirmation button image 26 receive an input from an authorized person to indicate the monitoring result of the monitoring target.

障害物がある場合には、第1確認ボタン画像25が押される(又は押すジェスチャーが行われる)ことにより、コントローラ8は、監視対象に障害物があることを確認した指示の入力を受け付ける。反対に、障害物がない場合には、第2確認ボタン画像26が押される(又は押すジェスチャーが行われる)ことにより、監視対象に障害物が無いことを確認した指示の入力を受け付ける。 If there is an obstacle, the first confirmation button image 25 is pressed (or a pressing gesture is performed), and the controller 8 accepts input of an instruction confirming that there is an obstacle in the monitoring target. Conversely, when there are no obstacles, the second confirmation button image 26 is pressed (or a pressing gesture is made) to accept input of an instruction confirming that there are no obstacles in the monitored object.

なお、非検出状態センサ、監視対象、付与権限の通知は、画像表示による通知に限定されない。例えば、音声信号によって非検出状態センサと監視対象を通知してもよい。同様に、監視結果の入力も、ボタン操作などの手入力に限定されるものではなく、例えば、音声入力によって監視結果を入力してもよい。 It should be noted that the notification of non-detection state sensors, monitoring targets, and granted authority is not limited to notification by image display. For example, an audio signal may notify the non-detecting sensor and target. Similarly, input of monitoring results is not limited to manual input such as button operation, and monitoring results may be input by voice input, for example.

監視権限者による監視結果が入力されると、コントローラ8は、入力された監視結果を操作権限者に通知する。
図2Bを参照する。例えばコントローラ8は、操作権限者が利用するユーザインタフェース6の表示装置に、操作権限者用情報提示画像30を表示する。
操作権限者用情報提示画像30は、例えば、非検出状態センサ表示31と、監視対象表示32と、乗員状態表示画像33と、付与権限表示34と、運転行動表示35と、監視結果表示36と、承認ボタン画像37と、否認ボタン画像38を含んでよい。
When the monitoring result is input by the monitoring authority, the controller 8 notifies the operating authority of the input monitoring result.
See FIG. 2B. For example, the controller 8 displays the information presentation image 30 for the operating authority on the display device of the user interface 6 used by the operating authority.
The operating authority information presentation image 30 includes, for example, a non-detection sensor display 31, a monitored object display 32, an occupant state display image 33, an granted authority display 34, a driving behavior display 35, and a monitoring result display 36. , an approve button image 37 and a deny button image 38 .

非検出状態センサ表示31及び監視対象表示32は、図2Aに示す非検出状態センサ表示21及び監視対象表示22と同様である。
乗員状態表示画像33は、乗員の状態を表示する。図2Bの例では、アイコン33FR、33FL、33RR及び33RLが、それぞれ、右前方席、左前方席、右後方席及び左後方席に座る乗員の状態を表す。
The undetected state sensor display 31 and the monitored object display 32 are similar to the undetected state sensor display 21 and the monitored object display 22 shown in FIG. 2A.
The occupant state display image 33 displays the occupant's state. In the example of FIG. 2B, icons 33FR, 33FL, 33RR, and 33RL represent the states of the occupants sitting in the right front seat, left front seat, right rear seat, and left rear seat, respectively.

例えばアイコン33FR~33RLは、アイコン33FR~33RLに設けられた突起の方向により、乗員の座席の向きを表示する。
また、例えばアイコン33FLに表示された網掛けのハッチングにより、左前方席に座る乗員が監視権限者であることを表示する。
なお、図2Bに示す表示態様は一例であり、乗員の状態表示の態様はこれに限定されない。アイコンの色、線種、大きさを変えることによって乗員の状態を表示してもよい。また、画像ではなく文字情報で乗員の状態を表示してもよい。
For example, the icons 33FR to 33RL indicate the orientation of the passenger's seat according to the direction of the projections provided on the icons 33FR to 33RL.
Further, for example, by hatching displayed on the icon 33FL, it is displayed that the occupant sitting in the left front seat is the monitoring authority.
Note that the display mode shown in FIG. 2B is an example, and the mode of displaying the state of the occupant is not limited to this. The occupant status may be displayed by changing the icon color, line type, and size. Also, the status of the occupant may be displayed by character information instead of the image.

また、乗員の座席の向きや監視権限者だけでなく、乗員のその他の状態を表示してもよい。例えば、乗員状態表示画像33は、監視対象の監視に適した状態(すなわち監視権限を付与できる状態)であるか否かを表示してもよい。
例えば、乗員が集中力を有しており、安心若しくは安定した状態である場合に、監視対象の監視に適した状態であることを表示してよい。
In addition to the orientation of the passenger's seat and the monitoring authority, other conditions of the passenger may also be displayed. For example, the occupant state display image 33 may display whether or not the state of the object to be monitored is suitable for monitoring (that is, the state in which monitoring authority can be granted).
For example, when the occupant has concentration and is in a safe or stable state, it may be displayed that the state is suitable for monitoring the object to be monitored.

反対に、乗員が睡眠状態にあるか、集中力を欠いた漫然状態であるか、又は不安定若しくは不安な状態である場合に、監視対象の監視に適した状態でないことを表示してよい。
また、乗員状態表示画像33は、乗員が監視対象の監視に適した属性(すなわち監視権限を付与できる属性)を有するか否かを表示してもよい。例えば乗員が子供である場合に、監視対象の監視に適した属性を有しないことを表示してよい。また、例えば運転免許証を有しない場合に、監視対象の監視に適した属性を有しないことを表示してよい。
Conversely, if the occupant is asleep, in a distracted state, or in an unsteady or anxious state, it may indicate an unsuitable condition for monitoring the monitored object.
In addition, the crew status display image 33 may display whether or not the crew has an attribute suitable for monitoring a monitoring target (that is, an attribute for which monitoring authority can be granted). For example, if the occupant is a child, it may be displayed that the occupant does not have attributes suitable for monitoring the object to be monitored. Also, for example, if the person does not have a driver's license, it may be displayed that the person does not have attributes suitable for monitoring the object to be monitored.

付与権限表示34は、現在、監視権限者に監視権限が付与されていることを表示する。運転行動表示35は、自車両がこれから行う予定の運転行動を表示する。監視結果表示36は、監視権限者による監視結果が表示する。
これらの表示によって、操作権限者は、周囲環境センサ2のいずれかが非検出状態であっても、残りのセンサの周囲環境情報に基づいて決定された運転行動が安全であるか否かを判断できる。
The granting authority display 34 displays that the monitoring authority is currently granted to the monitoring authority. The driving behavior display 35 displays the driving behavior that the host vehicle is scheduled to perform from now on. The monitoring result display 36 displays the monitoring result by the monitoring authority.
From these displays, even if one of the surrounding environment sensors 2 is in a non-detecting state, the operator can judge whether the driving behavior determined based on the surrounding environment information of the remaining sensors is safe or not. can.

承認ボタン画像37及び否認ボタン画像38は、それぞれ操作権限者による運転行動の承認及び否認を指示する入力を受け付ける。
運転行動を承認する場合には、承認ボタン画像37が押される(又は押すジェスチャーが行われる)ことにより、コントローラ8は、運転行動を承認する指示の入力を受け付ける。反対に、否認する場合には、否認ボタン画像38が押される(又は押すジェスチャーが行われる)ことにより、コントローラ8は、運転行動を否認する指示の入力を受け付ける。
The approval button image 37 and the denial button image 38 respectively receive an input instructing approval and denial of the driving action by the operating authority.
When approving the driving action, the approval button image 37 is pressed (or a pushing gesture is made), so that the controller 8 accepts input of an instruction to approve the driving action. On the contrary, in the case of denial, the denial button image 38 is pressed (or a pushing gesture is made), so that the controller 8 accepts input of an instruction to denial of the driving action.

なお、非検出状態センサ、監視対象の通知、乗員状態、付与権限、運転行動及び監視結果の通知は、画像表示による通知に限定されない。例えば、音声信号によってこれらの通知を行ってもよい。同様に、運転行動の承認及び否認も、ボタン操作などの手入力に限定されるものではなく、例えば、音声入力によって運転行動の承認及び否認を入力してもよい。 It should be noted that the notification of non-detection state sensor, monitoring target notification, occupant state, granted authority, driving behavior, and monitoring result is not limited to notification by image display. For example, these notifications may be provided by audio signals. Similarly, approval and disapproval of driving behavior are not limited to manual input such as button operation, and approval and disapproval of driving behavior may be input by voice input, for example.

運転行動が承認された場合に、コントローラ8は、承認された運転行動を自車両に実行させる。これにより自動運転制御による自車両の走行が継続する。運転行動が承認された場合に、コントローラ8は、自車両の走行によるリスクを減らすリスク最小運転を実行する。例えば、リスク最小運転は、自車両を路肩に停車させる運転や、速度を落として走行する運転であってよい。 When the driving action is approved, the controller 8 causes the own vehicle to perform the approved driving action. As a result, the host vehicle continues to run under automatic driving control. If the driving action is approved, the controller 8 executes minimum risk driving to reduce the risk of running the own vehicle. For example, the minimum risk driving may be driving to stop the own vehicle on the shoulder of the road or driving at a reduced speed.

次に図3を参照して、コントローラ8の機能を詳しく説明する。コントローラ8は、立体物行動予測部40と、マップ生成部41と、運転行動計画生成部42と、軌道生成部43と、走行制御部44と、周囲環境判定部50と、乗員情報取得部51と、センサ状態判定部52と、乗員状態推定部53と、乗員属性判定部54と、権限管理部55と、表示状態制御部56と、運転行動承認部57と、警報生成部58を備える。 Next, with reference to FIG. 3, the function of the controller 8 will be explained in detail. The controller 8 includes a three-dimensional object behavior prediction unit 40, a map generation unit 41, a driving action plan generation unit 42, a trajectory generation unit 43, a travel control unit 44, a surrounding environment determination unit 50, and an occupant information acquisition unit 51. , a sensor state determination unit 52 , an occupant state estimation unit 53 , an occupant attribute determination unit 54 , an authority management unit 55 , a display state control unit 56 , a driving behavior approval unit 57 and an alarm generation unit 58 .

立体物行動予測部40は、周囲環境センサ2から入力した周囲環境情報と、地図データベース3に記憶される高精度地図に基づいて、自車両周囲の移動体の行動を予測する。
マップ生成部41は、周囲環境情報と、高精度地図と、立体物行動予測部40による予測結果に基づいて、自車両周囲の経路や物体の有無を表現する経路空間マップと、走行場の危険度を数値化したリスクマップを生成する。
The three-dimensional object behavior prediction unit 40 predicts the behavior of mobile objects around the vehicle based on the surrounding environment information input from the surrounding environment sensor 2 and the high-precision map stored in the map database 3 .
Based on the surrounding environment information, the high-precision map, and the prediction result of the three-dimensional object behavior prediction unit 40, the map generation unit 41 generates a route space map that expresses the route around the vehicle and the presence or absence of objects, and the danger of the driving area. Generate a quantified risk map.

運転行動計画生成部42は、これら経路空間マップ及びリスクマップに基づいて運転行動計画を生成する。
軌道生成部43は、運転行動計画生成部42が生成した運転行動計画、自車両の運動特性、経路空間マップに基づいて自車両を走行させるための軌道候補を生成する。軌道生成部43は、リスクマップに基づいて軌道候補の各々の将来リスクを評価して、最適な軌道を選択し、自車に走行させる走行軌道として設定する。
走行制御部44は、軌道生成部43が設定した走行軌道を自車両が走行するように車両制御アクチュエータ9を駆動して自動的に自車両を走行させる。
The driving action plan generator 42 generates a driving action plan based on these route space map and risk map.
The trajectory generator 43 generates trajectory candidates for driving the own vehicle based on the driving action plan generated by the driving action plan generator 42, the motion characteristics of the own vehicle, and the route space map. The trajectory generation unit 43 evaluates the future risk of each trajectory candidate based on the risk map, selects the optimum trajectory, and sets it as the travel trajectory for the own vehicle to travel.
The travel control unit 44 drives the vehicle control actuator 9 so that the own vehicle travels along the travel trajectory set by the trajectory generation unit 43 to automatically travel the own vehicle.

周囲環境判定部50は、自車両周囲の環境を判定する。例えば周囲環境判定部50は、自車両の周囲に存在する周囲物体を識別し、周囲物体が存在する方向、周囲物体までの距離、周囲物体との相対距離、周囲物体の種類、属性(例えば静止物体であるか移動物体出るかや、車両であるか歩行者であるか等)を判定する。周囲環境判定部50は判定結果を乗員状態推定部53へ出力する。 The surrounding environment determination unit 50 determines the environment around the own vehicle. For example, the surrounding environment determination unit 50 identifies surrounding objects existing around the own vehicle, the direction in which the surrounding object exists, the distance to the surrounding object, the relative distance to the surrounding object, the type of the surrounding object, the attribute (for example, static whether it is an object or a moving object, whether it is a vehicle or a pedestrian, etc.). Surrounding environment determination unit 50 outputs the determination result to occupant state estimation unit 53 .

乗員情報取得部51は、乗員センサ5からの乗員センサ情報や、乗員がユーザインタフェース6の入力装置で入力した入力情報に基づいて乗員情報を取得し、乗員を認識する。
例えば乗員情報取得部51は、乗員センサ5が備える車内カメラで撮影した映像に基づいて、乗員の位置(着座位置)、人数、乗員の姿勢、乗員の座席の向き、乗員の視線の方向、顔や体の方向、開眼率、心拍、乗員の近くにある物体、成人であるか子供であるか等の情報を、乗員情報として取得してよい。
The occupant information acquisition unit 51 acquires occupant information based on occupant sensor information from the occupant sensor 5 and input information input by the occupant through the input device of the user interface 6, and recognizes the occupant.
For example, the occupant information acquisition unit 51 acquires the positions of the occupants (seating positions), the number of occupants, the postures of the occupants, the directions of the seats of the occupants, the direction of the line of sight of the occupants, the facial Information such as body orientation, eye open rate, heart rate, objects near the occupant, whether the occupant is an adult or a child, etc. may be acquired as occupant information.

また例えば乗員情報取得部51は、乗員センサ5が備える圧力センサで検出した乗員の体重や体表の動きに基づいて、乗員の姿勢や心拍を乗員情報として取得してもよい。
また例えば乗員情報取得部51は、ユーザインタフェース6の入力装置による入力情報に基づいて、乗員の運転免許の有無や年齢を乗員情報として取得してもよい。乗員情報取得部51は、車内カメラにより運転免許証の画像(乗員毎の運転免許の有無)を取得してもよい。
乗員情報取得部51は、取得した乗員情報を乗員状態推定部53と乗員属性判定部54と表示状態制御部56へ出力する。
Further, for example, the occupant information acquisition unit 51 may acquire the occupant's posture and heartbeat as occupant information based on the occupant's weight and body surface movement detected by the pressure sensor included in the occupant sensor 5 .
Further, for example, the occupant information acquisition unit 51 may acquire the presence or absence of a driver's license and the age of the occupant as the occupant information based on the information input by the input device of the user interface 6 . The occupant information acquisition unit 51 may acquire an image of a driver's license (whether or not each occupant has a driver's license) using an in-vehicle camera.
The occupant information acquisition unit 51 outputs the acquired occupant information to the occupant state estimation unit 53 , the occupant attribute determination unit 54 , and the display state control unit 56 .

センサ状態判定部52は、周囲環境センサ2のいずれかが非検出状態となったか否かを判定する。例えば、センサ状態判定部52は、周囲環境センサ2から周囲環境情報が出力されなくなった場合に周囲環境センサ2が非検出状態となったと判定してよい。
また例えば、センサ状態判定部52は、周囲環境センサ2から出力される周囲環境情報が変化しない状態が所定時間継続した場合に周囲環境センサ2が非検出状態となったと判定してよい。
センサ状態判定部52は、判定結果を権限管理部55へ出力する。
The sensor state determination unit 52 determines whether or not any one of the ambient environment sensors 2 is in a non-detection state. For example, the sensor state determination unit 52 may determine that the ambient environment sensor 2 is in the non-detection state when the ambient environment information is no longer output from the ambient environment sensor 2 .
Further, for example, the sensor state determination unit 52 may determine that the ambient environment sensor 2 has entered the non-detection state when the ambient environment information output from the ambient environment sensor 2 has remained unchanged for a predetermined period of time.
Sensor state determination unit 52 outputs the determination result to authority management unit 55 .

乗員状態推定部53は、周囲環境判定部50の判定結果と乗員情報取得部51が取得した乗員情報とに基づいて、乗員の状態、具体的には乗員が自車両の周囲状況を確認できる状態にあるか否か、すなわち、監視対象の監視に適した状態(監視権限を付与できる状態)である否かを推定する。
例えば乗員状態推定部53は、周囲環境判定部50が識別した周囲物体の危険度を判断し、乗員の姿勢、乗員の視線の方向及び顔の方向に基づいて、危険度の高い周囲物体に乗員が適切に反応しているか否かを判定する。
The occupant state estimation unit 53 determines the state of the occupant, specifically, the state in which the occupant can check the surroundings of the vehicle, based on the determination result of the surrounding environment determination unit 50 and the occupant information acquired by the occupant information acquisition unit 51. In other words, it is estimated whether the target is in a state suitable for monitoring (state in which monitoring authority can be granted).
For example, the occupant state estimating unit 53 determines the degree of danger of the surrounding objects identified by the surrounding environment determining unit 50, and determines whether the surrounding objects of high danger are detected by the occupant based on the posture of the occupant, the direction of the line of sight of the occupant, and the direction of the face of the occupant. is responding appropriately.

危険度の高い周囲物体に乗員が適切に反応している場合に、乗員状態推定部53は、乗員が集中力を有しており、監視対象の監視に適した状態にあると推定する。危険度の高い周囲物体に乗員が適切に反応していない場合に、乗員状態推定部53は、乗員が集中力を欠いた漫然状態にあり、監視対象の監視に適した状態にないと推定する。
また例えば乗員状態推定部53は、乗員の開眼率に基づいて乗員が集中力を有しているか漫然状態にあるかを判定し、監視対象の監視に適した状態にあるか否かを推定する。
When the occupant is appropriately reacting to surrounding objects with a high degree of danger, the occupant state estimation unit 53 estimates that the occupant has concentration and is in a state suitable for monitoring the object to be monitored. When the occupant does not react appropriately to surrounding objects with a high degree of danger, the occupant state estimation unit 53 estimates that the occupant is in a careless state lacking concentration and is not in a state suitable for monitoring the object to be monitored. .
Further, for example, the occupant state estimating unit 53 determines whether the occupant is concentrated or in a careless state based on the occupant's eye opening rate, and estimates whether the occupant is in a state suitable for monitoring the object to be monitored. .

また例えば乗員状態推定部53は、乗員の心拍数が閾値を超えていたり又は心拍が安定していない場合は、乗員が不安定又は不安な状態であり監視対象の監視に適した状態にないと推定する。乗員の心拍数が閾値以下であり且つ心拍が安定している場合は、乗員が安定又は安心な状態であり監視対象の監視に適した状態にあると推定する。
また例えば乗員状態推定部53は、乗員の画像に基づいて乗員が覚醒状態にあるか睡眠状態にあるかを判定し、睡眠状態にある場合に監視対象の監視に適した状態にないと推定する。
乗員状態推定部53は、推定結果を権限管理部55と表示状態制御部56へ出力する。
Further, for example, if the occupant's heart rate exceeds a threshold value or the heart rate is not stable, the occupant state estimating unit 53 determines that the occupant is in an unstable or anxious state and is not in a state suitable for monitoring the object to be monitored. presume. If the occupant's heart rate is equal to or less than the threshold and the heart rate is stable, it is estimated that the occupant is in a stable or secure state and is in a state suitable for monitoring the object to be monitored.
Further, for example, the occupant state estimating unit 53 determines whether the occupant is in an awake state or in a sleeping state based on the image of the occupant, and estimates that if the occupant is in a sleeping state, the state is not suitable for monitoring the object to be monitored. .
Occupant state estimation unit 53 outputs the estimation result to authority management unit 55 and display state control unit 56 .

また例えば乗員状態推定部53は、乗員の画像や、乗員の周囲にある物体(例えば、スマートホン、ゲーム、本、飲食物)に基づいて、乗員が監視以外の目を使う活動を行っているか否かを判定する。監視以外の目を使う活動とは、例えばスマートホンの操作、ゲーム、読書、飲食であってよい。
乗員状態推定部53は、乗員が監視以外の目を使う活動を行っているか否かの情報を権限管理部55へ出力する。
In addition, for example, the occupant state estimation unit 53 determines whether the occupant is performing an activity using the eyes other than monitoring based on the image of the occupant and objects (for example, smartphones, games, books, food and drink) around the occupant. determine whether or not Activities that use eyes other than monitoring may be, for example, operating a smart phone, playing games, reading, eating and drinking.
The occupant state estimation unit 53 outputs to the authority management unit 55 information as to whether or not the occupant is performing an activity that requires eyes other than monitoring.

乗員属性判定部54は、乗員情報取得部51が取得した乗員情報に基づいて乗員の属性を判定する。具体的には監視対象の監視に適した属性を乗員が有しているか否かを判定する。
監視対象の監視に適した属性は、例えば運転免許の所有や成人であること等を含んでよい。監視対象の監視に適さない属性は、例えば運転免許の未所有や子供であること等を含んでよい。
The occupant attribute determination unit 54 determines occupant attributes based on the occupant information acquired by the occupant information acquisition unit 51 . Specifically, it is determined whether or not the occupant has an attribute suitable for monitoring the object to be monitored.
Attributes suitable for monitoring of a monitored subject may include, for example, possession of a driver's license, being of age, and the like. Attributes unsuitable for monitoring of a monitored subject may include, for example, not having a driver's license or being a child.

例えば、乗員属性判定部54は、ユーザインタフェース6の入力装置による入力情報に基づいて乗員が運転免許を有しているか否かを判定する。乗員属性判定部54は、乗員情報取得部51が取得した運転免許証の画像に基づいて、乗員が運転免許を有しているか否かを判定してもよい。あるいは、乗員が運転免許を有するか否かは、乗員が乗車時に予めユーザインタフェース6を用いて運転免許の有無を入力し、入力された情報を不図示のメモリに着座位置と共に記憶しておき、乗員属性判定部54はメモリに記憶された情報を読み出して判定しても良い。
また、乗員属性判定部54は、ユーザインタフェース6の入力装置による入力情報に基づいて乗員が成人であるか子供であるかを判定する。あるいは、乗員が成人であるか子供であるかの種別は、乗員センサ5によって検出した体重や体格に基づいて判定しても良い。
乗員情報取得部51が画像から乗員が成人であるか子供であるかの情報を取得した場合、乗員属性判定部54は、この情報を乗員情報取得部51から取得してもよい。
乗員属性判定部54は、判定結果を権限管理部55と表示状態制御部56へ出力する。
For example, the occupant attribute determination unit 54 determines whether or not the occupant has a driver's license based on the information input by the input device of the user interface 6 . The occupant attribute determination unit 54 may determine whether or not the occupant has a driver's license based on the image of the driver's license acquired by the occupant information acquisition unit 51 . Alternatively, whether or not the occupant has a driver's license can be determined by inputting whether or not the occupant has a driver's license in advance using the user interface 6 when boarding the vehicle, and storing the entered information in a memory (not shown) together with the seating position. The occupant attribute determination unit 54 may read out information stored in the memory for determination.
Also, the occupant attribute determination unit 54 determines whether the occupant is an adult or a child based on the information input by the input device of the user interface 6 . Alternatively, whether the occupant is an adult or a child may be determined based on the weight or physique detected by the occupant sensor 5 .
When the occupant information acquisition unit 51 acquires information as to whether the occupant is an adult or a child from the image, the occupant attribute determination unit 54 may acquire this information from the occupant information acquisition unit 51 .
The occupant attribute determination unit 54 outputs the determination result to the authority management unit 55 and the display state control unit 56 .

表示状態制御部56は、乗員情報取得部51が取得した乗員情報、乗員状態推定部53の推定結果、乗員属性判定部54の判定結果に基づいて、乗員状態表示画像33を生成する。
例えば表示状態制御部56は、乗員状態表示画像33のアイコン33FR~33RLの表示及び非表示により、どの座席に乗員が座っているかを表してよい。
また例えば、乗員情報取得部51が取得した乗員の座席の向きに応じて、乗員状態表示画像33のアイコン33FR~33RLの向き(すなわちアイコン33FR~33RLに設けられた突起の方向)を設定することにより、乗員の座席の向きを表示してもよい。
The display state control unit 56 generates the occupant state display image 33 based on the occupant information acquired by the occupant information acquisition unit 51 , the estimation result of the occupant state estimation unit 53 , and the determination result of the occupant attribute determination unit 54 .
For example, the display state control unit 56 may indicate which seat the occupant is seated by displaying or not displaying the icons 33FR to 33RL of the occupant state display image 33 .
Further, for example, the directions of the icons 33FR to 33RL of the occupant state display image 33 (that is, the directions of the projections provided on the icons 33FR to 33RL) may be set according to the orientation of the occupant's seat acquired by the occupant information acquisition unit 51. may indicate the orientation of the occupant's seat.

例えば、右前方席、左前方席、右後方席及び左後方席の全てが前方を向いている場合、表示状態制御部56は図2Bに示す乗員状態表示画像33を表示する。
図4A~図4Dを参照する。図4Aの乗員状態表示画像33は、右前方席及び左前方席が後方を向き、右後方席及び左後方席が前方を向いている状態、すなわち各座席が前後方向に内側を向いている状態を示す。
For example, when the right front seat, left front seat, right rear seat, and left rear seat all face forward, the display state control unit 56 displays the occupant state display image 33 shown in FIG. 2B.
Please refer to FIGS. 4A-4D. The occupant state display image 33 of FIG. 4A is a state in which the right front seat and left front seat face rearward, and the right rear seat and left rear seat face front, that is, each seat faces inward in the front-rear direction. indicates

図4Bの乗員状態表示画像33は、右前方席及び左前方席が前方を向き、右後方席及び左後方席が後方を向いている状態、すなわち各座席が前後方向に外側を向いている状態を示す。
図4Cの乗員状態表示画像33は、右前方席及び右後方席が左側を向き、左前方席及び左後方席が右側を向いている状態、すなわち各座席が横方向(車幅方向)に内側を向いている状態を占めす。
The occupant state display image 33 in FIG. 4B is a state in which the right front seat and left front seat face forward, and the right rear seat and left rear seat face rearward, that is, each seat faces outward in the front-rear direction. indicates
The occupant state display image 33 in FIG. 4C is a state in which the right front seat and the right rear seat face left, and the left front seat and left rear seat face right, that is, each seat faces inward in the lateral direction (vehicle width direction). occupies a state facing the

図4Dの乗員状態表示画像33は、右前方席及び右後方席が右側を向き、左前方席及び左後方席が左側を向いている状態、すなわち、各座席が横方向に外側を向いている状態を占めす。
また、表示状態制御部56は、乗員状態推定部53の推定結果に基づいて乗員が監視対象の監視に適した状態であるか否かを表示してもよい。表示状態制御部56は、乗員属性判定部54の判定結果に基づいて乗員が監視対象の監視に適した属性を有するか否かを表示してもよい。
The occupant state display image 33 of FIG. 4D is in a state in which the right front seat and the right rear seat face the right side, and the left front seat and the left rear seat face the left side, that is, each seat faces outward in the lateral direction. occupy the state.
Further, the display state control section 56 may display whether or not the occupant is in a state suitable for monitoring the monitoring target based on the estimation result of the occupant state estimating section 53 . The display state control unit 56 may display whether or not the occupant has an attribute suitable for monitoring the object to be monitored based on the determination result of the occupant attribute determination unit 54 .

図3を参照する。権限管理部55は、乗員に付与されている操作権限を記憶する。すなわちどの乗員が操作権限者であるかを記憶する。
権限管理部55は、操作権限者の情報を表示状態制御部56と運転行動承認部57へ出力する。
また、周囲環境センサ2のいずれかが非検出状態である場合、権限管理部55は、複数の乗員のいずれかに自車両の周囲の物体を監視する監視権限を付与する。
Please refer to FIG. The authority management unit 55 stores the operation authority given to the passenger. That is, it memorizes which passenger has the operation authority.
Authority management unit 55 outputs the information of the person authorized to operate to display state control unit 56 and driving behavior approval unit 57 .
Further, when any of the surrounding environment sensors 2 is in a non-detecting state, the authority management unit 55 grants monitoring authority to monitor objects around the own vehicle to any of the plurality of occupants.

権限管理部55は、非検出状態センサの検出方向(搭載位置でもよい)と、運転行動計画生成部42が決定したこれから行われる予定の運転行動とに応じて、監視権限を付与する乗員(すなわち監視権限者)が座る座席の位置を決定する。
図5~図9を参照して以下に説明する決定方法では、権限管理部55は、非検出状態センサの検出方向と、これから行われる予定の運転行動と、乗員が座る座席の向きとに応じて、監視権限者を決定する。
The authority management unit 55 gives the passenger (i.e., (supervisory authority) to determine the seat position.
In the determination method described below with reference to FIGS. 5 to 9, the authority management unit 55 determines the detection direction of the non-detection state sensor, the scheduled driving behavior, and the orientation of the seat where the passenger sits. to decide who has the monitoring authority.

図5~図9は、様々な道路環境(例えば、信号交差点、踏切、片側複数車線路、交差点、狭路、駐車場、高速道路、分岐区間、合流区間)における運転行動と、非検出状態センサの検出方向に応じた監視権限者の座席の候補を示す。
図5は各座席が前方を向いている場合(図2B)の候補を示し、図6は各座席が前後方向に内側を向いている場合(図4A)の候補を示し、図7は各座席が前後方向に外側を向いている場合(図4B)の候補を示し、図8は各座席が横方向に内側を向いている場合(図4C)の候補を示し、図9は各座席が横方向に外側を向いている場合(図4D)の候補を示す。
5 to 9 show driving behavior in various road environments (e.g., signalized intersections, railroad crossings, multi-lane roads on one side, intersections, narrow roads, parking lots, highways, branch sections, and merging sections) and non-detection state sensors. Shows candidates for the seat of the person authorized to monitor according to the direction of detection.
FIG. 5 shows candidates for the case where each seat faces forward (FIG. 2B), FIG. 6 shows candidates for the case where each seat faces inward in the longitudinal direction (FIG. 4A), and FIG. FIG. 8 shows candidates for the case where the seats face outward in the longitudinal direction (FIG. 4B), FIG. 8 shows candidates for the case where each seat faces inward in the lateral direction (FIG. 4C), and FIG. The candidates are shown when facing outwards (FIG. 4D).

二重丸は監視権限者の座席の第1優先候補を示し、一重丸は第2優先候補を示す。例えば、図5(各座席が前方を向いている場合)では、検出方向が左後方である左後方センサが非検出状態であり、これから行う予定の運転行動が左車線への変更(左車線変更)である場合には、左後方席が第1優先候補として選択され、左前方席が第2優先候補として選択される。 A double circle indicates the first priority candidate for the seat of the supervisory authority, and a single circle indicates the second priority candidate. For example, in FIG. 5 (when each seat faces forward), the left rear sensor whose detection direction is the left rear is in a non-detection state, and the scheduled driving action is to change to the left lane (left lane change). ), the left rear seat is selected as the first priority candidate and the left front seat is selected as the second priority candidate.

また、検出方向が右側方である右側方センサが非検出状態であり、これから行う予定の運転行動が右折又は分岐区間における右分岐路への進出(右方離脱)である場合には、右前方席と右後方席の両方が第1優先候補として選択される。
また、図8(各座席が横方向に内側を向いている場合)では、検出方向が左側方である左側方センサが非検出状態であり、これから行う予定の運転行動が左折又は分岐区間における左分岐路への進出(左方離脱)である場合には、左前方席と左後方席の両方が第1優先候補として選択され、右前方席と右後方席の両方が第2優先候補として選択される。
In addition, when the right side sensor whose detection direction is the right side is in a non-detecting state, and the scheduled driving action is to turn right or enter a right branch road in a branch section (right exit), the right front Both the seat and the right rear seat are selected as first priority candidates.
Also, in FIG. 8 (when each seat faces inward in the lateral direction), the left side sensor whose detection direction is the left side is in a non-detecting state, and the planned driving action is a left turn or a left turn in a fork section. In the case of advancing to a branch road (leaving left), both the left front seat and the left rear seat are selected as the first priority candidates, and both the right front seat and the right rear seat are selected as the second priority candidates. be done.

第1優先候補と第2優先候補が選択されている場合、権限管理部55は、まず第1優先候補の座席に乗員が座っているか否かを判定する。
第1優先候補の座席に乗員が座っている場合、権限管理部55は、第1優先候補の座席に座っている乗員を監視権限者の候補とする。第1優先候補の座席に乗員が座っていない場合、権限管理部55は、第2優先候補の座席に乗員が座っているか否かを判定する。
第2優先候補の座席に乗員が座っている場合、権限管理部55は、第2優先候補の座席に座っている乗員を監視権限者の候補とする。第2優先候補の座席に乗員が座っていない場合には、監視権限者を指定しない。
When the first priority candidate and the second priority candidate are selected, the authority management unit 55 first determines whether or not an occupant is sitting in the first priority candidate seat.
When an occupant sits on the seat of the first priority candidate, the authority management unit 55 makes the occupant sitting on the seat of the first priority candidate a candidate for the monitoring authority. If no occupant is sitting in the first priority candidate seat, the authority management unit 55 determines whether or not the occupant is sitting in the second priority candidate seat.
When an occupant sits in the seat of the second priority candidate, the authority management unit 55 makes the occupant sitting in the seat of the second priority candidate a candidate for the monitoring authority. If no occupant is seated in the seat of the second priority candidate, no monitoring authority is designated.

複数の第1優先候補が選択されており、これら複数の第1優先候補の座席のそれぞれに乗員が座っている場合、権限管理部55は、これらの乗員のいずれかを監視権限者の候補としてもよく、複数の乗員を監視権限者の候補としてもよい。
また、複数の第2優先候補が選択されており、第1優先候補の座席に乗員が座っておらず、これら複数の第2優先候補の座席のそれぞれに乗員が座っている場合、権限管理部55は、これらの乗員のいずれかを監視権限者の候補としてもよく、複数の乗員を監視権限者の候補としてもよい。
When a plurality of first priority candidates are selected and crew members are seated in each of the plurality of first priority candidate seats, the authority management unit 55 selects one of these crew members as a candidate for the monitoring authority. Alternatively, a plurality of crew members may be candidates for the supervisory authority.
Further, when a plurality of second priority candidates are selected, no crew member is seated in the seat of the first priority candidate, and a crew member is seated in each of the plurality of seats of the second priority candidate, the authority management unit 55 may select one of these crew members as a candidate for the supervisory authority, or may select a plurality of crew members as candidates for the supervisory authority.

次に、権限管理部55は、乗員属性判定部54の判定結果に基づいて、監視権限者の候補が監視対象の監視に適した属性を有するか否かを判定する。また、権限管理部55は、乗員状態推定部53の推定結果に基づいて、監視権限者の候補が監視対象の監視に適した状態であるか否かを判定する。
権限管理部55は、監視対象の監視に適した属性を有し、且つ監視対象の監視に適した状態である候補を、監視権限者の最終候補者として指定する。監視権限者の候補のいずれもが、監視対象の監視に適した属性を有しないか監視対象の監視に適した状態でない場合、権限管理部55は、監視権限者を指定しない。
権限管理部55は、監視権限者の最終候補者の情報を表示状態制御部56へ出力する。
Next, the authority management unit 55 determines whether or not the candidate for the monitoring authority has an attribute suitable for monitoring the monitoring target based on the determination result of the passenger attribute determination unit 54 . Moreover, the authority management unit 55 determines whether or not the candidate for the monitoring authority is in a state suitable for monitoring the monitoring object based on the estimation result of the passenger state estimation unit 53 .
The authority management unit 55 designates a candidate who has an attribute suitable for monitoring the monitoring target and is in a state suitable for monitoring the monitoring target as the final candidate for the monitoring authority. If none of the monitoring authority candidates has attributes suitable for monitoring the monitoring target or is not in a state suitable for monitoring the monitoring target, the authority management unit 55 does not designate a monitoring authority.
The authority management unit 55 outputs the information on the final candidate for the person with authority to monitor to the display state control unit 56 .

権限管理部55が監視権限者の最終候補者を指定すると、表示状態制御部56は、操作権限者が最終候補者に付与する権限を選択する入力を受け付ける画像を、操作権限者用情報提示画像30に表示する。
図10を参照する。操作権限者用情報提示画像30には、権限管理部55が指定した監視権限者の最終候補者を示す候補者表示60と、第1権限付与ボタン画像61と、第2権限付与ボタン画像62と、キャンセルボタン画像63が表示される。図10の例では、左前方席の乗員が監視権限者の最終候補者として示されている。
When the authority management unit 55 designates the final candidate for the monitoring authority, the display state control unit 56 changes the image for receiving the input for selecting the authority to be granted to the final candidate by the operation authority to the information presentation image for the operation authority. 30.
Please refer to FIG. The operating authority information presentation image 30 includes a candidate display 60 indicating the final candidate for the monitoring authority specified by the authority management unit 55, a first authorization button image 61, and a second authorization button image 62. , a cancel button image 63 is displayed. In the example of FIG. 10, the occupant in the left front seat is shown as the final candidate for the supervisory authority.

監視権限を付与する場合には、第1権限付与ボタン画像61が押される(又は押すジェスチャーが行われる)ことにより、権限管理部55は、最終候補者に監視権限のみを付与する指示の入力を受け付ける。権限管理部55は、候補者表示60に示されている最終候補者を、監視権限のみを有する監視権限者として決定する。
監視権限だけでなく運転行動を承認する承認権限を付与する場合には、第2権限付与ボタン画像62が押される(又は押すジェスチャーが行われる)。
In the case of granting the monitoring authority, the first authority granting button image 61 is pressed (or a pressing gesture is made), so that the authority management unit 55 prompts the final candidate to input an instruction to grant only the monitoring authority. accept. The authority management unit 55 determines the final candidate shown in the candidate display 60 as a monitoring authority having only monitoring authority.
When granting not only the monitoring authority but also the approval authority for approving driving behavior, the second authorization button image 62 is pressed (or a pressing gesture is made).

これにより、権限管理部55は、最終候補者に監視権限と承認権限を付与する指示の入力を受け付ける。権限管理部55は、候補者表示60に示されている最終候補者を、監視権限と承認権限とを有する監視権限者として決定する。
一方で、キャンセルボタン画像63が押される(又は押すジェスチャーが行われる)と、権限管理部55は、最終候補者に監視権限及び承認権限のいずれも付与しない指示として受け付ける。権限管理部55は監視権限者を決定せず、監視権限者は不在になる。
権限管理部55は、決定した監視権限者の情報を、表示状態制御部56と運転行動承認部57と警報生成部58へ出力する。
As a result, the authority management unit 55 receives input of an instruction to give the final candidate the monitoring authority and the approval authority. The authority management unit 55 determines the final candidate shown in the candidate display 60 as a monitoring authority having monitoring authority and approval authority.
On the other hand, when the cancel button image 63 is pressed (or a pressing gesture is made), the authority management unit 55 accepts an instruction to grant neither the monitoring authority nor the approval authority to the final candidate. The authority management unit 55 does not determine the monitoring authority, and the monitoring authority is absent.
The authority management unit 55 outputs information about the determined monitoring authority to the display state control unit 56 , the driving action approval unit 57 and the alarm generation unit 58 .

権限管理部55が監視権限のみを有する監視権限者を決定すると、表示状態制御部56は、監視権限者が利用するユーザインタフェース6の表示装置に、図2Aに示す監視権限者用情報提示画像20を表示する。
表示状態制御部56は、監視権限者が監視権限者用情報提示画像20上で監視結果を指示する入力を受け付ける。
When the authority management unit 55 determines the monitoring authority having only the monitoring authority, the display state control unit 56 displays the information presentation image 20 for the monitoring authority shown in FIG. 2A on the display device of the user interface 6 used by the monitoring authority. display.
The display state control unit 56 receives an input from the supervisory authority to indicate the monitoring result on the supervisory authority information presentation image 20 .

監視権限者による監視結果が入力されると、表示状態制御部56は、操作権限者が利用するユーザインタフェース6の表示装置に、図2Bに示す操作権限者用情報提示画像30を表示する。なお、非検出状態センサ表示31と監視対象表示32は、監視結果の入力以前から(例えばセンサが非検出状態であると判定した時点で)表示してもよい。乗員状態表示画像33は、監視結果の入力以前から(例えば乗員を検出した時点で)表示してもよい。付与権限表示34は、監視結果の入力以前から(例えば監視権限者を決定した時点で)表示してもよい。 When the monitoring result by the monitoring authority is input, the display state control unit 56 displays the operating authority information presentation image 30 shown in FIG. 2B on the display device of the user interface 6 used by the operating authority. Note that the sensor non-detection state display 31 and the monitored object display 32 may be displayed before the monitoring result is input (for example, when it is determined that the sensor is in the non-detection state). The occupant state display image 33 may be displayed before the monitoring result is input (for example, when the occupant is detected). The granted authority display 34 may be displayed before the monitoring result is input (for example, when the monitoring authority is determined).

なお、複数の監視権限者が監視結果を入力した場合、表示状態制御部56は、最も監視時間が長い監視権限者による監視結果を選択して操作権限者用情報提示画像30に表示してよい。表示状態制御部56は、例えば、乗員情報取得部51が取得した乗員情報(乗員の姿勢、乗員の視線の方向、顔の方向)に基づいて、監視権限者が監視対象を監視しているか否かを判定してよい。 When a plurality of authorized supervisors input monitoring results, the display state control unit 56 may select the supervisory result of the supervisor with the longest monitoring time and display it in the operator-authorized information presentation image 30 . . The display state control unit 56 determines whether or not the monitoring authority is monitoring the monitoring target based on the occupant information (the occupant's posture, the direction of the occupant's line of sight, the direction of the face) acquired by the occupant information acquisition unit 51, for example. You can judge whether

一方で、表示状態制御部56は、監視権限者が利用するユーザインタフェース6の表示装置に、図11Aに示す監視権限者用情報提示画像20を表示する。監視権限者用情報提示画像20は、操作権限者が運転行動の承認操作又は否認操作を行うのを待っていることを示す表示70を含む。この表示70により監視権限者は、引き続き監視対象を監視すべきであることを認識できる。 On the other hand, the display state control unit 56 displays the supervisory authority information presentation image 20 shown in FIG. 11A on the display device of the user interface 6 used by the supervisory authority. The monitoring authority information presentation image 20 includes an indication 70 indicating that the operating authority is waiting for the operation to approve or disapprove of the driving action. This display 70 allows the monitoring authority to recognize that the monitoring target should be monitored continuously.

図3を参照する。運転行動承認部57は、操作権限者が操作権限者用情報提示画像30上で運転行動の承認又は否認を指示する入力を受け付ける。
運転行動の承認を受け付けると、運転行動承認部57は、運転行動計画生成部42により決定された運転行動を承認する承認信号を軌道生成部43へ出力する。
Please refer to FIG. The driving action approval unit 57 receives an input from the operating authorized person instructing approval or disapproval of the driving action on the operating authorized person information presentation image 30 .
Upon accepting the approval of the driving action, the driving action approval unit 57 outputs an approval signal for approving the driving action determined by the driving action plan generation unit 42 to the trajectory generation unit 43 .

一方で表示状態制御部56は、監視権限者が利用するユーザインタフェース6の表示装置に、図11Bに示す監視権限者用情報提示画像20を表示する。監視権限者用情報提示画像20は、操作権限者による運転行動の承認が完了したことを示す表示71を含む。この表示71により監視権限者は、監視対象の監視を止めてもよいことを認識できる。
一方で、運転行動の否認を受け付けると、運転行動承認部57は、運転行動を否認する否認信号を軌道生成部43へ出力する。
On the other hand, the display state control unit 56 displays the information presentation image 20 for the authorized supervisor shown in FIG. 11B on the display device of the user interface 6 used by the authorized supervisor. The monitoring authority information presentation image 20 includes an indication 71 indicating that the driving behavior has been approved by the operating authority. This display 71 allows the monitoring authority to recognize that monitoring of the monitoring target may be stopped.
On the other hand, when receiving the denial of the driving action, the driving action approval unit 57 outputs a denial signal for denying the driving action to the trajectory generation unit 43 .

また、運転行動承認部57は、運転行動を自車両が行う所定時間前に、監視権限者が監視権限を付与されたことに気づいたか否かを判定する。所定時間は例えば10秒であってよい。
例えば、運転行動承認部57は、乗員情報取得部51が取得した乗員情報(乗員の姿勢、乗員の視線の方向、顔の方向)に基づいて、監視権限者が監視権限者用情報提示画像20を見たか否かを判定してよい。
Further, the driving action approval unit 57 determines whether or not the monitoring authority has noticed that the monitoring authority has been granted before a predetermined period of time before the own vehicle performs the driving action. The predetermined time may be 10 seconds, for example.
For example, the driving action approval unit 57 allows the monitoring authority to display the information presentation image 20 for the monitoring authority based on the occupant information acquired by the occupant information acquisition unit 51 (the posture of the occupant, the direction of the occupant's line of sight, the direction of the face). You may determine whether or not you have seen

運転行動承認部57は、監視権限者が監視権限者用情報提示画像20を見たか否かに応じて監視権限者が監視権限を付与されたことに気づいたか否かを判定してよい。
また、運転行動承認部57は、監視権限者用情報提示画像20を表示した際に、ユーザインタフェース6で所定の操作を行ったか否か、所定の音声入力を行ったか否かに応じて監視権限を付与されたことに気づいたか否かを判定してよい。
自車両が運転行動を行う所定時間前に、監視権限者が監視権限を付与されたことに気づいていない場合に、運転行動承認部57は、運転行動を否認する否認信号を軌道生成部43へ出力する。
The driving action approval unit 57 may determine whether or not the monitoring authority has been granted the monitoring authority based on whether or not the monitoring authority has seen the information presentation image 20 for the monitoring authority.
Further, when the information presentation image 20 for the monitoring authority is displayed, the driving action approval unit 57 approves the monitoring authority according to whether or not a predetermined operation has been performed on the user interface 6 and whether or not a predetermined voice input has been performed. may be determined whether or not the user has noticed that the
If the monitoring authority is not aware that the monitoring authority has been granted before a predetermined period of time before the own vehicle performs the driving behavior, the driving behavior approval unit 57 sends a denial signal to the trajectory generation unit 43 to deny the driving behavior. Output.

また、運転行動承認部57は、監視権限者用情報提示画像20に運転行動表示24が表示されてから所定の時間内に、監視権限者が監視結果を入力したか否かを判定する。運転行動表示24が表示されてから所定の時間内に監視結果が入力されない場合、運転行動承認部57は、運転行動を否認する否認信号を軌道生成部43へ出力する。 Further, the driving behavior approval unit 57 determines whether or not the monitoring authority has input the monitoring result within a predetermined time after the driving behavior display 24 is displayed on the information presentation image 20 for the monitoring authority. If the monitoring result is not input within a predetermined time after the driving action display 24 is displayed, the driving action approval unit 57 outputs a denial signal to the trajectory generation unit 43 to deny the driving action.

一方で、権限管理部55が監視権限及び承認権限を有する監視権限者を決定すると、表示状態制御部56は、監視権限者が利用するユーザインタフェース6の表示装置に、図12Aに示す監視権限者用情報提示画像20を表示する。
監視権限者用情報提示画像20は、承認ボタン画像72と否認ボタン画像73を含んでよい。
On the other hand, when the authority management unit 55 determines the monitoring authority having the monitoring authority and the approval authority, the display state control unit 56 displays the monitoring authority shown in FIG. 12A on the display device of the user interface 6 used by the monitoring authority. information presentation image 20 is displayed.
The monitoring authority information presentation image 20 may include an approval button image 72 and a denial button image 73 .

承認ボタン画像72及び否認ボタン画像73は、それぞれ監視権限者による運転行動の承認及び否認を指示する入力を受け付ける。
運転行動を承認する場合には、承認ボタン画像72が押される(又は押すジェスチャーが行われる)ことにより、運転行動承認部57は、運転行動を承認する指示の入力を受け付ける。反対に、否認する場合には、否認ボタン画像73が押される(又は押すジェスチャーが行われる)ことにより、運転行動承認部57は、運転行動を否認する指示の入力を受け付ける。
The approval button image 72 and the denial button image 73 respectively receive an input instructing approval and denial of the driving action by the monitoring authority.
When approving the driving action, the approval button image 72 is pressed (or a pushing gesture is made), whereby the driving action approval unit 57 accepts input of an instruction to approve the driving action. Conversely, when disapproving, the disapproval button image 73 is pressed (or a pushing gesture is made), whereby the driving action approval unit 57 accepts input of an instruction to disapproval of the driving action.

一方で、表示状態制御部56は、操作権限者が利用するユーザインタフェース6の表示装置に、図12Bに示す操作権限者用情報提示画像30を表示する。
監視権限者に承認権限が付与されている場合、操作権限者用情報提示画像30から承認ボタン画像37及び否認ボタン画像38を省略してよい。そのかわりに、操作権限者用情報提示画像30は、監視権限者が運転行動の承認操作又は否認操作を行うのを待っていることを示す表示64を含んでもよい。
On the other hand, the display state control unit 56 displays the information presentation image 30 for the authorized operator shown in FIG. 12B on the display device of the user interface 6 used by the authorized operator.
When the monitoring authority is granted the approval authority, the approval button image 37 and the denial button image 38 may be omitted from the information presentation image 30 for the operating authority. Alternatively, the operating authority information presentation image 30 may include an indication 64 indicating that the monitoring authority is waiting for the operation to approve or disapprove of the driving behavior.

監視権限者による運転行動の承認又は否認が入力されると、表示状態制御部56は、監視権限者が利用するユーザインタフェース6の表示装置に、図13Aに示す監視権限者用情報提示画像20を表示する。監視権限者用情報提示画像20は、監視権限者による運転行動の承認入力又は否認入力を運転行動承認部57が処理中であることを示す表示74を含む。この表示74により監視権限者は、引き続き監視対象を監視すべきであることを認識できる。 When the approval or disapproval of the driving action by the supervisory authority is input, the display state control unit 56 displays the supervisory authority information presentation image 20 shown in FIG. 13A on the display device of the user interface 6 used by the supervisory authority. indicate. The supervisory authority information presentation image 20 includes a display 74 indicating that the driving behavior approval unit 57 is processing the approval input or disapproval input of the driving behavior by the supervisory authority. This display 74 allows the monitoring authority to recognize that the monitoring target should be monitored continuously.

監視権限者による運転行動の承認が入力されると、運転行動承認部57は運転行動を承認する承認信号を軌道生成部43へ出力する。承認信号の出力が完了すると、表示状態制御部56は、監視権限者が利用するユーザインタフェース6の表示装置に、図13Bに示す監視権限者用情報提示画像20を表示する。監視権限者用情報提示画像20は、運転行動の承認入力の受付が完了したことを示す表示75を含む。表示75により監視権限者は、監視対象の監視を止めてもよいことを認識できる。 When the approval of the driving action by the monitoring authority is input, the driving action approval unit 57 outputs an approval signal for approval of the driving action to the trajectory generation unit 43 . When the output of the approval signal is completed, the display state control unit 56 displays the supervisory authority information presentation image 20 shown in FIG. 13B on the display device of the user interface 6 used by the supervisory authority. The supervisory authority information presentation image 20 includes a display 75 indicating that the reception of the approval input for the driving action has been completed. The display 75 allows the monitoring authority to recognize that monitoring of the monitoring target may be stopped.

一方で、運転行動の否認を受け付けると、運転行動承認部57は、運転行動を否認する否認信号を軌道生成部43へ出力する。
また、自車両が運転行動を行う所定時間前に、監視権限者が監視権限を付与されたことに気づいていない場合に、運転行動承認部57は、運転行動を否認する否認信号を軌道生成部43へ出力する。
運転行動表示24が表示されてから所定の時間内に監視結果が入力されない場合、運転行動承認部57は、運転行動を否認する否認信号を軌道生成部43へ出力する。
On the other hand, when receiving the denial of the driving action, the driving action approval unit 57 outputs a denial signal for denying the driving action to the trajectory generation unit 43 .
Further, if the person with the authority to monitor is not aware that the person with the authority to monitor has been given the authority to monitor before a predetermined time before the own vehicle performs the driving action, the driving action approval unit 57 sends a denial signal to the trajectory generation unit to deny the driving action. 43.
If the monitoring result is not input within a predetermined time after the driving action display 24 is displayed, the driving action approval unit 57 outputs a denial signal to the trajectory generation unit 43 to deny the driving action.

運転行動承認部57が軌道生成部43へ運転行動を承認する承認信号を出力すると、軌道生成部43は、運転行動計画生成部42が生成した運転行動計画に従って生成した走行軌道を走行制御部44へ出力する。これにより、自動運転制御による自車両の走行が継続する。
運転行動承認部57が軌道生成部43へ運転行動を否認する否認信号を出力すると、軌道生成部43は、リスク最小運転を行うための走行軌道を生成して走行制御部44へ出力する。これにより自車両はリスク最小運転を実行する。
When the driving action approval unit 57 outputs an approval signal for approving the driving action to the trajectory generation unit 43, the trajectory generation unit 43 sends the trajectory generated according to the driving action plan generated by the driving action plan generation unit 42 to the driving control unit 44. Output to As a result, the self-vehicle continues to run under automatic driving control.
When the driving action approval unit 57 outputs a denial signal for denying the driving action to the trajectory generation unit 43 , the trajectory generation unit 43 generates a travel trajectory for performing minimum risk driving and outputs it to the travel control unit 44 . As a result, the host vehicle performs minimum risk driving.

図3を参照する。権限管理部55は、乗員が監視以外の目を使う活動を行っているか否かの情報を乗員状態推定部53から取得する。権限管理部55は、監視権限者が監視以外の目を使う活動を行っているか否かを判定する。権限管理部55は判定結果を警報生成部58へ出力する。 Please refer to FIG. The authority management unit 55 acquires from the occupant state estimation unit 53 information as to whether or not the occupant is performing an activity that requires eyes other than monitoring. The authority management unit 55 determines whether or not the person with authority to monitor is performing an activity other than monitoring that uses eyes. Authority management unit 55 outputs the determination result to alarm generation unit 58 .

監視権限者が監視以外の目を使う活動を行っている場合には、警報生成部58は、視覚以外の感覚による刺激による警報を発生させ、ユーザインタフェース6を介して監視権限者に与える。例えば警報生成部58は、聴覚、触覚、嗅覚のいずれかの刺激による警報を発生させてよい。これにより、監視対象を監視すべきことを監視権限者に知らせることができ、監視権限者に監視を促すことができる。 When the person authorized to monitor is engaged in an activity using eyes other than monitoring, the alarm generator 58 generates an alarm based on a stimulus other than sight and gives it to the person authorized to monitor via the user interface 6 . For example, the alarm generator 58 may generate an alarm based on any one of auditory, tactile, and olfactory stimuli. As a result, it is possible to inform the monitoring authority that the monitoring target should be monitored, and prompt the monitoring authority to perform the monitoring.

(動作)
次に、図14A及び図14Bを参照して実施形態の運転支援装置1の動作の一例を説明する。
ステップS1においてセンサ状態判定部52は、周囲環境センサ2のいずれかが非検出状態となったか否かを判定する。周囲環境センサ2のいずれかが非検出状態となった場合(ステップS1:Y)に処理はステップS3へ進む。周囲環境センサ2のいずれも非検出状態でない場合(ステップS1:N)に処理はステップS2へ進む。
(motion)
Next, an example of the operation of the driving assistance system 1 of the embodiment will be described with reference to FIGS. 14A and 14B.
In step S1, the sensor state determination unit 52 determines whether or not any of the ambient environment sensors 2 is in a non-detection state. If any one of the ambient environment sensors 2 is in a non-detection state (step S1: Y), the process proceeds to step S3. If none of the ambient environment sensors 2 are in the non-detection state (step S1: N), the process proceeds to step S2.

ステップS2において運転行動承認部57は、運転行動計画生成部42により決定された運転行動を承認する承認信号を軌道生成部43へ出力する。これにより自動運転制御による自車両の走行を継続する。その後に処理はステップS23へ進む。
ステップS3において権限管理部55は、非検出状態センサの検出方向と自車両がこれから行われる予定の運転行動とに応じて、監視権限を付与する乗員の座席を選択する。
In step S<b>2 , the driving action approval unit 57 outputs an approval signal for approving the driving action determined by the driving action plan generation unit 42 to the trajectory generation unit 43 . As a result, the vehicle continues to run under automatic driving control. After that, the process proceeds to step S23.
In step S3, the authority management unit 55 selects the seat of the passenger to whom the monitoring authority is granted according to the detection direction of the non-detection state sensor and the driving action that the vehicle is scheduled to perform from now on.

ステップS4において乗員情報取得部51は、乗員を検出する。
ステップS5において権限管理部55は、ステップS3で選択した座席に乗員が座っているか否かを判定する。ステップS3で選択した座席に乗員が座っている場合(ステップS5:Y)に、権限管理部55はこの乗員を監視権限の候補とする。その後に処理はステップS7へ進む。
In step S4, the occupant information acquisition unit 51 detects the occupant.
In step S5, the authority management unit 55 determines whether or not an occupant is sitting in the seat selected in step S3. If an occupant is sitting in the seat selected in step S3 (step S5: Y), the authority management unit 55 makes this occupant a candidate for monitoring authority. After that, the process proceeds to step S7.

ステップS3で選択した座席に乗員が座っていない場合(ステップS5:N)に処理はステップS6へ進む。
ステップS6において運転行動承認部57は、運転行動計画生成部42により決定された運転行動を承認する否認信号を軌道生成部43へ出力する。これにより自車両は、自車両の走行によるリスクを減らすリスク最小運転を実行する。その後に処理はステップS23へ進む。
If no occupant is sitting in the seat selected in step S3 (step S5: N), the process proceeds to step S6.
In step S<b>6 , the driving action approval unit 57 outputs a denial signal for approving the driving action determined by the driving action plan generation unit 42 to the trajectory generation unit 43 . As a result, the own vehicle executes minimum risk driving to reduce the risk of running the own vehicle. After that, the process proceeds to step S23.

ステップS7において権限管理部55は、監視権限の候補が監視に適した属性を有するか否かを判定する。監視権限の候補が監視に適した属性を有する場合(ステップS7:Y)に処理はステップS9へ進む。監視権限の候補が監視に適した属性を有さない場合(ステップS7:N)に処理はステップS8へ進む。
ステップS8において運転行動承認部57は、否認信号を軌道生成部43へ出力する。これにより自車両はリスク最小運転を実行する。その後に処理はステップS23へ進む。
In step S7, the authority management unit 55 determines whether or not the candidate for the monitoring authority has an attribute suitable for monitoring. If the monitoring authority candidate has an attribute suitable for monitoring (step S7: Y), the process proceeds to step S9. If the monitoring authority candidate does not have attributes suitable for monitoring (step S7: N), the process proceeds to step S8.
In step S<b>8 , the driving action approval unit 57 outputs a denial signal to the trajectory generation unit 43 . As a result, the host vehicle performs minimum risk driving. After that, the process proceeds to step S23.

ステップS9において権限管理部55は、監視権限の候補が監視に適した状態であるか否かを判定する。監視権限の候補が監視に適した状態である場合(ステップS9:Y)に処理はステップS11へ進む。監視権限の候補が監視に適した状態でない場合(ステップS9:N)に処理はステップS10へ進む。
ステップS10にて運転行動承認部57は、否認信号を軌道生成部43へ出力する。これにより自車両はリスク最小運転を実行する。その後に処理はステップS23へ進む。
In step S9, the authority management unit 55 determines whether or not the monitoring authority candidate is in a state suitable for monitoring. If the monitoring authority candidate is in a state suitable for monitoring (step S9: Y), the process proceeds to step S11. If the monitoring authority candidate is not in a state suitable for monitoring (step S9: N), the process proceeds to step S10.
In step S<b>10 , the driving action approval unit 57 outputs a denial signal to the trajectory generation unit 43 . As a result, the host vehicle performs minimum risk driving. After that, the process proceeds to step S23.

ステップS11において表示状態制御部56は、操作権限者が利用するユーザインタフェース6の表示装置に図10に示す操作権限者用情報提示画像30を表示する。操作権限者が監視権限の候補に監視権限を付与すると、監視権限を与えられた乗員は監視権限者となる。
表示状態制御部56は、操作権限者が利用するユーザインタフェース6の表示装置に図2Aに示す監視権限者用情報提示画像20を表示する。
In step S11, the display state control unit 56 displays the information presentation image 30 for the authorized operator shown in FIG. 10 on the display device of the user interface 6 used by the authorized operator. When the operating authority grants the monitoring authority to the candidate for the monitoring authority, the crew member to whom the monitoring authority is given becomes the monitoring authority.
The display state control unit 56 displays the monitoring authority information presentation image 20 shown in FIG. 2A on the display device of the user interface 6 used by the operating authority.

ステップS12において権限管理部55は、監視権限者が監視以外の目を使う活動を行っているか否かを判定する。監視権限者が監視以外の目を使う活動を行っている場合(ステップS12:Y)に処理はステップS13へ進む。ない場合(ステップS12:N)にステップS13をスキップして処理はステップS14へ進む。
ステップS13において警報生成部58は、視覚以外の感覚による刺激による警報を発生させ、ユーザインタフェース6を介して監視権限者に与える。その後に処理はステップS14へ進む。
In step S12, the authority management unit 55 determines whether or not the monitoring authority is performing an activity other than monitoring that uses eyes. If the monitoring authority is performing an activity that uses eyes other than monitoring (step S12: Y), the process proceeds to step S13. If not (step S12: N), step S13 is skipped and the process proceeds to step S14.
In step S<b>13 , the alarm generator 58 generates an alarm based on a stimulus other than visual sense, and gives it to the person authorized to monitor via the user interface 6 . After that, the process proceeds to step S14.

ステップS14において運転行動承認部57は、自車両が運転行動を行う所定時間前に監視権限者が監視権限を付与されたことに気づいたか否かを判定する。運転行動を行う所定時間前に監視権限を付与されたことに気づいた場合(ステップS14:Y)に処理はステップS16へ進む。運転行動を行う所定時間前に監視権限を付与されたことに気づいていない場合(ステップS14:N)に処理はステップS15へ進む。
ステップS15にて運転行動承認部57は、否認信号を軌道生成部43へ出力する。これにより自車両はリスク最小運転を実行する。その後に処理はステップS23へ進む。
In step S14, the driving action approval unit 57 determines whether or not the monitoring authority has noticed that the monitoring authority has been granted a predetermined time before the own vehicle performs the driving action. When it is noticed that the monitoring authority has been granted before the predetermined time before the driving action is performed (step S14: Y), the process proceeds to step S16. If the driver has not noticed that he/she has been given the monitoring authority before the predetermined time before the driving action is performed (step S14: N), the process proceeds to step S15.
In step S<b>15 , the driving action approval unit 57 outputs a denial signal to the trajectory generation unit 43 . As a result, the host vehicle performs minimum risk driving. After that, the process proceeds to step S23.

ステップS16において運転行動承認部57は、監視権限者用情報提示画像20に運転行動表示24が表示されてから所定の時間内に、監視権限者が監視結果を入力したか否かを判定する。運転行動表示24が表示されてから所定の時間内に監視結果を入力した場合(ステップS16:Y)に処理はステップS18へ進む。運転行動表示24が表示されてから所定の時間内に監視結果を入力しない場合(ステップS16:N)に処理はステップS17へ進む。
ステップS17にて運転行動承認部57は、否認信号を軌道生成部43へ出力する。これにより自車両はリスク最小運転を実行する。その後に処理はステップS23へ進む。
In step S<b>16 , the driving behavior approval unit 57 determines whether or not the monitoring authority has input the monitoring result within a predetermined time after the driving behavior display 24 is displayed on the information presentation image 20 for the monitoring authority. If the monitoring result is input within a predetermined time after the driving action display 24 is displayed (step S16: Y), the process proceeds to step S18. If the monitoring result is not input within a predetermined time after the driving action display 24 is displayed (step S16: N), the process proceeds to step S17.
In step S<b>17 , the driving action approval unit 57 outputs a denial signal to the trajectory generation unit 43 . As a result, the host vehicle performs minimum risk driving. After that, the process proceeds to step S23.

ステップS18において表示状態制御部56は、操作権限者が利用するユーザインタフェース6の表示装置に、図2Bに示す操作権限者用情報提示画像30を表示する。操作権限者用情報提示画像30は、監視権限者による監視結果を示す監視結果表示36を含む。
ステップS19において運転行動承認部57は、自車両がこれから行う予定の運転行動を操作権限者が承認したか否かを判定する。
In step S18, the display state control unit 56 displays the information presentation image 30 for the authorized operator shown in FIG. 2B on the display device of the user interface 6 used by the authorized operator. The operating authority information presentation image 30 includes a monitoring result display 36 showing the monitoring result by the monitoring authority.
In step S19, the driving action approval unit 57 determines whether or not the operation authority has approved the driving action that the host vehicle is to perform from now on.

操作権限者が運転行動を承認した場合(ステップS19:Y)に処理はステップS20へ進む。操作権限者が運転行動を承認しない場合(ステップS19:N)に処理はステップS21へ進む。
ステップS20において運転行動承認部57は、運転行動を承認する承認信号を軌道生成部43へ出力する。これにより自動運転制御による自車両の走行を継続する。その後に処理はステップS22へ進む。
ステップS21にて運転行動承認部57は、否認信号を軌道生成部43へ出力する。これにより自車両はリスク最小運転を実行する。その後に処理はステップS22へ進む。
If the operating authority approves the driving action (step S19: Y), the process proceeds to step S20. If the operating authority does not approve the driving action (step S19: N), the process proceeds to step S21.
In step S<b>20 , the driving action approval unit 57 outputs an approval signal for approving the driving action to the trajectory generation unit 43 . As a result, the vehicle continues to run under automatic driving control. After that, the process proceeds to step S22.
In step S<b>21 , the driving action approval unit 57 outputs a denial signal to the trajectory generation unit 43 . As a result, the host vehicle performs minimum risk driving. After that, the process proceeds to step S22.

ステップS22において表示状態制御部56は、監視権限者用情報提示画像20に、操作権限者による運転行動の承認又は否認が完了したことを示す表示71を表示する。
ステップS23において、自車両のイグニッションスイッチ(IGN)がオフになったか否かを判定する。イグニッションスイッチがオフになっていない場合(ステップS23:N)に処理はステップS1へ戻る。イグニッションスイッチがオフになった場合(ステップS23:Y)に処理は終了する。
In step S<b>22 , the display state control unit 56 displays a display 71 indicating that the approval or disapproval of the driving behavior by the operating authority has been completed on the information presentation image 20 for the monitoring authority.
In step S23, it is determined whether or not the ignition switch (IGN) of the host vehicle has been turned off. If the ignition switch is not turned off (step S23: N), the process returns to step S1. If the ignition switch is turned off (step S23: Y), the process ends.

(実施形態の効果)
(1)コントローラ8は、自動運転車両の周囲の物体を所定の検出方向で検出する周囲環境センサ2の検出結果に基づいて自動運転車両の運転行動を決定する。コントローラ8は、周囲環境センサ2のいずれかが物体を検出できない状態の非検出状態センサであるか否かを判定する処理と、周囲環境センサ2のいずれかが非検出状態センサであると判定した場合は、非検出状態センサの所定の検出方向に応じて、自動運転車両の複数の乗員のいずれかに自動運転車両の周囲の物体を監視する監視権限を付与する処理と、監視権限が付与された乗員による監視結果に応じて、自動運転車両に運転行動を実行させる処理とを行う。
(Effect of Embodiment)
(1) The controller 8 determines the driving behavior of the automatically driven vehicle based on the detection result of the ambient environment sensor 2 that detects objects around the automatically driven vehicle in a predetermined detection direction. The controller 8 determines whether or not any of the ambient environment sensors 2 is a non-detection sensor that cannot detect an object, and determines that any of the ambient environment sensors 2 is a non-detection sensor. In this case, according to the predetermined detection direction of the non-detection state sensor, a process of granting monitoring authority to monitor objects around the automatically driving vehicle to one of a plurality of occupants of the automatically driving vehicle, and the monitoring authority is granted. and a process of causing the automatically driven vehicle to perform a driving action according to the result of monitoring by the occupant.

これにより、周囲環境センサ2のいずれかが物体を検出できない非検出状態になっても、監視権限が付与された乗員(監視権限者)の監視結果に基づいて、残りのセンサの周囲環境情報に基づいて決定された運転行動が安全であるか否かを判断できる。このため、周囲環境センサ2のいずれかが物体を検出できない非検出状態になっても、自動運転制御による自車両の運転を継続できる。 As a result, even if one of the surrounding environment sensors 2 is in a non-detection state in which an object cannot be detected, the surrounding environment information of the remaining sensors can be obtained based on the monitoring result of the passenger (monitoring authority) who is given the monitoring authority. It can be determined whether the driving behavior determined based on is safe. Therefore, even if any one of the surrounding environment sensors 2 is in a non-detection state in which an object cannot be detected, the own vehicle can continue to be driven by automatic driving control.

(2)コントローラ8は、監視権限が付与された乗員(監視権限者)による運転行動の承認に応じて、自動運転車両に運転行動を実行させる処理を行う。
これにより、周囲環境センサ2のいずれかが物体を検出できない非検出状態になっても、監視権限が付与された乗員(監視権限者)の監視結果に基づいて、残りのセンサの周囲環境情報に基づいて決定された運転行動を承認できる。このため、周囲環境センサ2のいずれかが物体を検出できない非検出状態になっても、自動運転制御による自車両の運転を継続できる。
(2) The controller 8 performs a process of causing the automatically driven vehicle to execute a driving action in response to approval of the driving action by a passenger (monitoring authority) to whom monitoring authority is granted.
As a result, even if one of the surrounding environment sensors 2 is in a non-detection state in which an object cannot be detected, the surrounding environment information of the remaining sensors can be obtained based on the monitoring result of the passenger (monitoring authority) who is given the monitoring authority. can approve driving behavior determined based on Therefore, even if any one of the surrounding environment sensors 2 is in a non-detection state in which an object cannot be detected, the own vehicle can continue to be driven by automatic driving control.

(3)コントローラ8は、非検出状態センサの所定の検出方向及び運転行動に応じて、監視権限を付与する乗員を決定する処理を行う。これにより、非検出状態センサにより物体を検出すべきだった検出方向に関して行われる運転行動が安全か否かを判断できる。 (3) The controller 8 performs a process of determining the occupant to whom the monitoring authority is given according to the predetermined detection direction of the non-detection state sensor and the driving behavior. Accordingly, it is possible to determine whether or not the driving behavior performed in the detection direction in which the object should have been detected by the non-detection state sensor is safe.

(4)コントローラ8は、非検出状態センサの所定の検出方向、運転行動、及び乗員が座る座席の位置に応じて、いずれの乗員に監視権限を付与するかを決定する処理を行う。これにより、非検出状態センサが物体を検出すべきだった検出方向を監視しやすい乗員に監視権限を付与することができる。 (4) The controller 8 performs a process of determining to which occupant the monitoring authority is given according to the predetermined detection direction of the non-detection state sensor, the driving behavior, and the position of the seat on which the occupant sits. As a result, the authority to monitor can be given to the occupant who can easily monitor the detection direction in which the non-detection state sensor should have detected the object.

(5)コントローラ8は、非検出状態センサの所定の検出方向、運転行動、及び乗員が座る座席の向きに応じて、いずれの乗員に監視権限を付与するかを決定する処理を行う。これにより、乗員が無理な姿勢をとらずに自然な姿勢で監視できるように監視権限者を決定できる。 (5) The controller 8 performs a process of determining to which occupant the monitoring authority is given according to the predetermined detection direction of the non-detection state sensor, the driving behavior, and the orientation of the seat on which the occupant sits. As a result, the monitoring authority can be determined so that the occupant can monitor in a natural posture without taking an unreasonable posture.

(6)コントローラ8は、乗員の属性に応じて監視権限を付与するかを決定する処理を行う。これにより監視に適する属性を有する乗員に監視権限を付与することができる。このため、交通ルールに基づいて走行することができる。
(7)コントローラ8は、乗員の状態に応じて監視権限を付与するかを決定する処理を行う。これにより監視に適する状態にある乗員に監視権限を付与することができる。このため、交通ルールに基づいて走行することができる。
(6) The controller 8 performs a process of determining whether to grant monitoring authority according to the attributes of the occupant. Accordingly, it is possible to grant monitoring authority to crew members who have attributes suitable for monitoring. Therefore, it is possible to travel based on the traffic rules.
(7) The controller 8 performs a process of determining whether to grant monitoring authority according to the state of the occupant. Accordingly, it is possible to grant monitoring authority to the occupant in a state suitable for monitoring. Therefore, it is possible to travel based on the traffic rules.

(8)コントローラ8は、監視権限が付与された乗員(監視権限者)に非検出状態を知らせる処理を行う。これにより、監視権限者が、センサによる検出が十分でない領域を知ることができる。
(9)コントローラ8は、監視権限が付与された乗員(監視権限者)が障害物の有無を確認したことを指示する入力を受け付ける処理を行う。これにより、監視権限者が障害物の有無を確認したことを、自動運転車両に対する操作権限を有する乗員(操作権限者)に通知することが可能となる。
(8) The controller 8 performs a process of notifying the passenger (monitoring authority) of the non-detection state to whom the monitoring authority is granted. This allows the monitoring authority to know the area where the detection by the sensor is insufficient.
(9) The controller 8 performs a process of accepting an input indicating that the passenger (monitoring authority) who is given the monitoring authority has confirmed the presence or absence of an obstacle. As a result, it becomes possible to notify the passenger (operating authority) who has the operating authority for the automatic driving vehicle that the monitoring authority has confirmed the presence or absence of the obstacle.

(10)コントローラ8は、自動運転車両に対する操作権限を有する乗員(操作権限者)に監視結果を通知する処理を行う。これにより操作権限者は、監視権限が付与された乗員による監視結果を知ることができる。
(11)コントローラ8は、操作権限を有する乗員が運転行動を承認したことを指示する入力を受け付ける処理を行う。これにより、監視権限者による監視結果を認識した操作権限者の承認に基づいて車両を走行させることができる。
(10) The controller 8 performs a process of notifying a crew member (operation authority) who has the operation authority for the automatic driving vehicle of the monitoring result. Thereby, the operating authority can know the monitoring result by the passenger who is given the monitoring authority.
(11) The controller 8 performs a process of accepting an input indicating that the driver who has the operation authority approves the driving action. Thereby, the vehicle can be run based on the approval of the operating authority who has recognized the monitoring result of the monitoring authority.

(12)コントローラ8は、運転行動の前に、監視権限を有する乗員(監視権限者)に刺激を与える処理を行う。これにより、監視権限者に監視を促すことができる。
(13)コントローラ8は、監視権限が付与された複数の乗員(監視権限者)のうち、最も監視時間が長い乗員の監視結果に応じて、自動運転車両に運転行動を実行させる。これにより確認時間がより長くより確度の高い監視権限者の判断を優先することができる。
(12) The controller 8 performs processing to give a stimulus to an occupant with monitoring authority (monitoring authority) before the driving action. This makes it possible to urge the monitoring authority to monitor.
(13) The controller 8 causes the automatic driving vehicle to perform driving behavior according to the monitoring result of the passenger with the longest monitoring time among the plurality of passengers (monitoring authority) to whom the monitoring authority is granted. As a result, it is possible to give priority to the decision of the supervisory authority with a longer confirmation time and a higher degree of certainty.

1…運転支援装置、2…周囲環境センサ、3…地図データベース、4…車両センサ、5…乗員センサ、6、6FL、6FR、6RL、6RR…ユーザインタフェース、7…ナビゲーションシステム、8…コントローラ、9…車両制御アクチュエータ、12…プロセッサ、13…記憶装置、20…監視権限者用情報提示画像、30…操作権限者用情報提示画像、33…乗員状態表示画像、40…立体物行動予測部、41…マップ生成部、42…運転行動計画生成部、43…軌道生成部、44…走行制御部、50…周囲環境判定部、51…乗員情報取得部、52…センサ状態判定部、53…乗員状態推定部、54…乗員属性判定部、55…権限管理部、56…表示状態制御部、57…運転行動承認部、58…警報生成部 REFERENCE SIGNS LIST 1 driving support device 2 ambient environment sensor 3 map database 4 vehicle sensor 5 occupant sensor 6, 6FL, 6FR, 6RL, 6RR user interface 7 navigation system 8 controller 9 Vehicle control actuator 12 Processor 13 Storage device 20 Information presentation image for monitoring authority 30 Information presentation image for operation authority 33 Passenger state display image 40 Three-dimensional object behavior prediction unit 41 Map generation unit 42 Driving action plan generation unit 43 Trajectory generation unit 44 Driving control unit 50 Surrounding environment determination unit 51 Occupant information acquisition unit 52 Sensor state determination unit 53 Occupant state Estimation unit 54 Passenger attribute determination unit 55 Authority management unit 56 Display state control unit 57 Driving behavior approval unit 58 Alarm generation unit

Claims (16)

自動運転車両の周囲の物体を所定の検出方向で検出するセンサの検出結果に基づいて、前記自動運転車両の運転行動を決定する運転支援方法であって、
コントローラが、
前記センサが前記物体を検出できない非検出状態であるか否かを判定する処理と、
前記センサが前記非検出状態であると判定した場合は、前記所定の検出方向に応じて前記自動運転車両の複数の乗員のいずれかを選択し、選択した前記乗員に前記自動運転車両の周囲の物体を監視する監視権限を付与する処理と、
前記監視権限が付与された乗員による監視結果に応じて、前記自動運転車両に前記運転行動を実行させる処理と、
を行うことを特徴とする運転支援方法。
A driving support method for determining the driving behavior of the automatically driving vehicle based on the detection result of a sensor that detects objects around the automatically driving vehicle in a predetermined detection direction,
the controller
a process of determining whether the sensor is in a non-detection state in which the object cannot be detected;
When it is determined that the sensor is in the non-detection state, one of a plurality of occupants of the autonomous vehicle is selected according to the predetermined detection direction , and the selected occupant is instructed to a process of granting monitoring authority to monitor the object of
A process of causing the automatically driven vehicle to perform the driving behavior according to the result of monitoring by the crew member to whom the monitoring authority is granted;
A driving support method characterized by performing
前記コントローラは、前記監視権限が付与された乗員による前記運転行動の承認に応じて、前記自動運転車両に前記運転行動を実行させる処理を行うことを特徴とする請求項1に記載の運転支援方法。 2. The driving support method according to claim 1, wherein the controller performs processing for causing the automatically driven vehicle to execute the driving action in response to approval of the driving action by the passenger to whom the monitoring authority is granted. . 自動運転車両の周囲の物体を所定の検出方向で検出するセンサの検出結果に基づいて、前記自動運転車両の運転行動を決定する運転支援方法であって、
コントローラが、
前記センサが前記物体を検出できない非検出状態であるか否かを判定する処理と、
前記センサが前記非検出状態であると判定した場合は、前記所定の検出方向及び前記運転行動に応じて、前記自動運転車両の複数の乗員のうちどの乗員に前記自動運転車両の周囲の物体を監視する監視権限を付与するかを決定する処理と、
前記監視権限が付与された乗員による監視結果に応じて、前記自動運転車両に前記運転行動を実行させる処理と、
を行うことを特徴とする運転支援方法。
A driving support method for determining the driving behavior of the automatically driving vehicle based on the detection result of a sensor that detects objects around the automatically driving vehicle in a predetermined detection direction,
the controller
a process of determining whether the sensor is in a non-detection state in which the object cannot be detected;
When it is determined that the sensor is in the non-detection state, according to the predetermined detection direction and the driving behavior, which of the plurality of occupants of the automatically driven vehicle should be hit by an object around the automatically driven vehicle. a process of determining whether to grant monitoring authority to monitor ;
A process of causing the automatically driven vehicle to perform the driving behavior according to the result of monitoring by the crew member to whom the monitoring authority is granted;
A driving support method characterized by performing
前記コントローラは、前記所定の検出方向、前記運転行動、及び前記乗員が座る座席の位置に応じて、前記監視権限を付与する乗員を決定する処理を行うことを特徴とする請求項3に記載の運転支援方法。 4. The controller according to claim 3, wherein the controller determines the occupant to whom the monitoring authority is granted according to the predetermined detection direction, the driving behavior, and the position of the seat on which the occupant sits. Driving assistance method. 前記コントローラは、前記所定の検出方向、前記運転行動、及び前記乗員が座る座席の向きに応じて、前記監視権限を付与する乗員を決定する処理を行うことを特徴とする請求項3又は4に記載の運転支援方法。 5. The controller according to claim 3 or 4, wherein the controller determines the passenger to whom the monitoring authority is granted according to the predetermined detection direction, the driving behavior, and the orientation of the seat on which the passenger sits. The described driving assistance method. 前記コントローラは、前記乗員の属性に応じて前記監視権限を付与するか否かを決定する処理を行うことを特徴とする請求項1~5のいずれか一項に記載の運転支援方法。 The driving support method according to any one of claims 1 to 5, wherein the controller determines whether or not to grant the monitoring authority according to attributes of the passenger. 前記コントローラは、前記乗員の状態に応じて前記監視権限を付与するか否かを決定する処理を行うことを特徴とする請求項1~6のいずれか一項に記載の運転支援方法。 The driving support method according to any one of claims 1 to 6, wherein the controller determines whether or not to grant the monitoring authority according to the state of the passenger. 前記コントローラは、前記監視権限が付与された乗員に前記非検出状態を知らせる処理を行うことを特徴とする請求項1~7のいずれか一項に記載の運転支援方法。 The driving support method according to any one of claims 1 to 7, wherein the controller performs processing for informing the passenger to whom the monitoring authority is granted of the non-detection state. 前記コントローラは、前記監視権限が付与された乗員が障害物の有無を確認したことを指示する入力を受け付ける処理を行うことを特徴とする請求項1~8のいずれか一項に記載の運転支援方法。 The driving support according to any one of claims 1 to 8, wherein the controller performs processing for receiving an input indicating that the occupant to whom the monitoring authority has been granted has confirmed the presence or absence of an obstacle. Method. 前記コントローラは、前記自動運転車両に対する操作権限を有する乗員に前記監視結果を通知する処理を行うことを特徴とする請求項1~9のいずれか一項に記載の運転支援方法。 10. The driving support method according to any one of claims 1 to 9, wherein the controller performs a process of notifying an occupant who has operation authority over the automatic driving vehicle of the monitoring result. 前記コントローラは、前記操作権限を有する乗員が前記運転行動を承認する入力を受け付ける処理を行うことを特徴とする請求項10に記載の運転支援方法。 11. The driving support method according to claim 10, wherein the controller performs a process of accepting an input for approving the driving behavior from the passenger having the operation authority. 前記コントローラは、前記運転行動の前に、前記監視権限が付与された乗員に刺激を与える処理を行うことを特徴とする請求項1~11のいずれか一項に記載の運転支援方法。 The driving support method according to any one of claims 1 to 11, wherein the controller performs a process of giving a stimulus to the passenger to whom the monitoring authority is granted before the driving action. 自動運転車両の周囲の物体を所定の検出方向で検出するセンサの検出結果に基づいて、前記自動運転車両の運転行動を決定する運転支援方法であって、
コントローラが、
前記センサが前記物体を検出できない非検出状態であるか否かを判定する処理と、
前記センサが前記非検出状態であると判定した場合は、前記所定の検出方向に応じて、前記自動運転車両の複数の乗員のいずれかに前記自動運転車両の周囲の物体を監視する監視権限を付与する処理と、
前記監視権限が付与された複数の乗員のうち、最も監視時間が長い乗員の監視結果に応じて、前記自動運転車両に前記運転行動を実行させる処理と、
を行うことを特徴とする運転支援方法。
A driving support method for determining the driving behavior of the automatically driving vehicle based on the detection result of a sensor that detects objects around the automatically driving vehicle in a predetermined detection direction,
the controller
a process of determining whether the sensor is in a non-detection state in which the object cannot be detected;
When it is determined that the sensor is in the non-detection state, according to the predetermined detection direction, one of the plurality of occupants of the autonomous vehicle is authorized to monitor objects around the autonomous vehicle. a process to give;
A process of causing the automated driving vehicle to perform the driving behavior according to the monitoring result of the crew member with the longest monitoring time among the plurality of crew members to whom the monitoring authority is granted;
A driving support method characterized by performing
自動運転車両の周囲の物体を所定の検出方向で検出するセンサの検出結果に基づいて、前記自動運転車両の運転行動を決定する運転支援装置であって、
前記センサが前記物体を検出できない非検出状態であるか否かを判定し、前記センサが前記非検出状態であると判定した場合は、前記所定の検出方向に応じて前記自動運転車両の複数の乗員のいずれかを選択し、選択した前記乗員に前記自動運転車両の周囲の物体を監視する監視権限を付与し、前記監視権限が付与された乗員による監視結果に応じて、前記自動運転車両に前記運転行動を実行させるコントローラを備えることを特徴とする運転支援装置。
A driving support device that determines the driving behavior of the automatically driving vehicle based on the detection result of a sensor that detects objects around the automatically driving vehicle in a predetermined detection direction,
It is determined whether or not the sensor is in a non-detection state in which the object cannot be detected, and if it is determined that the sensor is in the non-detection state, a plurality of automatically driven vehicles are detected in accordance with the predetermined detection direction. select one of the occupants, give the selected occupant a monitoring authority to monitor objects around the automated driving vehicle, and according to the results of monitoring by the occupant to whom the monitoring authority is granted, the automated driving vehicle and a controller that causes the driver to execute the driving behavior.
自動運転車両の周囲の物体を所定の検出方向で検出するセンサの検出結果に基づいて、前記自動運転車両の運転行動を決定する運転支援装置であって、A driving support device that determines the driving behavior of the automatically driving vehicle based on the detection result of a sensor that detects objects around the automatically driving vehicle in a predetermined detection direction,
前記センサが前記物体を検出できない非検出状態であるか否かを判定し、前記センサが前記非検出状態であると判定した場合は、前記所定の検出方向及び前記運転行動に応じて、前記自動運転車両の複数の乗員のうちどの乗員に前記自動運転車両の周囲の物体を監視する監視権限を付与するかを決定し、前記監視権限が付与された乗員による監視結果に応じて、前記自動運転車両に前記運転行動を実行させるコントローラを備えることを特徴とする運転支援装置。It is determined whether or not the sensor is in a non-detection state in which the object cannot be detected, and if the sensor determines that the sensor is in the non-detection state, the automatic detection is performed according to the predetermined detection direction and the driving behavior. Determine which of a plurality of occupants of the driving vehicle is to be given the authority to monitor objects around the automatically driven vehicle, and according to the results of monitoring by the occupant to whom the authority to monitor is granted, the automatic driving A driving support device comprising a controller that causes a vehicle to execute the driving behavior.
自動運転車両の周囲の物体を所定の検出方向で検出するセンサの検出結果に基づいて、前記自動運転車両の運転行動を決定する運転支援装置であって、A driving support device that determines the driving behavior of the automatically driving vehicle based on the detection result of a sensor that detects objects around the automatically driving vehicle in a predetermined detection direction,
前記センサが前記物体を検出できない非検出状態であるか否かを判定し、前記センサが前記非検出状態であると判定した場合は、前記所定の検出方向に応じて、前記自動運転車両の複数の乗員のいずれかに前記自動運転車両の周囲の物体を監視する監視権限を付与し、前記監視権限が付与された複数の乗員のうち、最も監視時間が長い乗員の監視結果に応じて、前記自動運転車両に前記運転行動を実行させるコントローラを備えることを特徴とする運転支援装置。It is determined whether the sensor is in a non-detection state in which the object cannot be detected, and if it is determined that the sensor is in the non-detection state, a plurality of the automatically driven vehicles are detected in accordance with the predetermined detection direction. to any of the occupants of the automatic driving vehicle, and according to the monitoring result of the occupant with the longest monitoring time among the plurality of occupants to whom the monitoring authority has been granted, A driving support device comprising a controller that causes an automatically driven vehicle to execute the driving action.
JP2019058005A 2019-03-26 2019-03-26 Driving support method and driving support device Active JP7236897B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019058005A JP7236897B2 (en) 2019-03-26 2019-03-26 Driving support method and driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019058005A JP7236897B2 (en) 2019-03-26 2019-03-26 Driving support method and driving support device

Publications (2)

Publication Number Publication Date
JP2020157871A JP2020157871A (en) 2020-10-01
JP7236897B2 true JP7236897B2 (en) 2023-03-10

Family

ID=72641400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019058005A Active JP7236897B2 (en) 2019-03-26 2019-03-26 Driving support method and driving support device

Country Status (1)

Country Link
JP (1) JP7236897B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017024653A (en) 2015-07-27 2017-02-02 トヨタ自動車株式会社 Occupant information acquisition device and vehicle control system
JP2017132285A (en) 2016-01-25 2017-08-03 日立オートモティブシステムズ株式会社 Vehicle traveling control system and vehicle traveling control method
WO2017187622A1 (en) 2016-04-28 2017-11-02 本田技研工業株式会社 Vehicle control system, vehicle control method, and vehicle control program
JP2017214036A (en) 2016-06-02 2017-12-07 本田技研工業株式会社 Vehicle control system, vehicle control method, and vehicle control program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017024653A (en) 2015-07-27 2017-02-02 トヨタ自動車株式会社 Occupant information acquisition device and vehicle control system
JP2017132285A (en) 2016-01-25 2017-08-03 日立オートモティブシステムズ株式会社 Vehicle traveling control system and vehicle traveling control method
WO2017187622A1 (en) 2016-04-28 2017-11-02 本田技研工業株式会社 Vehicle control system, vehicle control method, and vehicle control program
JP2017214036A (en) 2016-06-02 2017-12-07 本田技研工業株式会社 Vehicle control system, vehicle control method, and vehicle control program

Also Published As

Publication number Publication date
JP2020157871A (en) 2020-10-01

Similar Documents

Publication Publication Date Title
CN110641472B (en) Safety monitoring system for autonomous vehicle based on neural network
US11472291B2 (en) Graphical user interface for display of autonomous vehicle behaviors
KR102569789B1 (en) Graphical user interface for display of autonomous vehicle behaviors
CN106415693B (en) Vehicle cognitive notification device and vehicle cognitive notification system
CN110023168B (en) Vehicle control system, vehicle control method, and vehicle control program
US11900812B2 (en) Vehicle control device
WO2018189952A1 (en) Autonomous vehicle, autonomous vehicle stopping method, and program
WO2020213280A1 (en) Information processing device, mobile device, method, and program
KR20210019499A (en) Use of passenger attention data captured from vehicles for localization and location-based services
CN109841088A (en) Vehicle drive assist system and method
JP7267796B2 (en) Route presentation method and route presentation device
JP7200970B2 (en) vehicle controller
JP2020163931A (en) Display device for vehicle
US20240336266A1 (en) Driving assistance device, driving assistance method, and storage medium
JP7233299B2 (en) Driving behavior control method and driving behavior control device
JP7276112B2 (en) Lane change decision device
JP7147858B2 (en) VEHICLE TRIP CONTROL METHOD AND TRIP CONTROL DEVICE
JP7333186B2 (en) Driving support method and driving support device
JP7236897B2 (en) Driving support method and driving support device
CN114207685B (en) Autonomous vehicle interaction system
JP7302311B2 (en) Vehicle display control device, vehicle display control method, vehicle display control program
JP7482613B2 (en) Intersection passage determination method and intersection passage determination device
JP2021028587A (en) In-vehicle display control device
US20230391370A1 (en) Vehicle control device, storage medium for storing computer program for vehicle control, and method for controlling vehicle
JP2024011906A (en) Driving support method and driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230228

R150 Certificate of patent or registration of utility model

Ref document number: 7236897

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150