JP7236897B2 - Driving support method and driving support device - Google Patents
Driving support method and driving support device Download PDFInfo
- Publication number
- JP7236897B2 JP7236897B2 JP2019058005A JP2019058005A JP7236897B2 JP 7236897 B2 JP7236897 B2 JP 7236897B2 JP 2019058005 A JP2019058005 A JP 2019058005A JP 2019058005 A JP2019058005 A JP 2019058005A JP 7236897 B2 JP7236897 B2 JP 7236897B2
- Authority
- JP
- Japan
- Prior art keywords
- driving
- monitoring
- authority
- vehicle
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、運転支援方法及び運転支援装置に関する。 The present invention relates to a driving assistance method and a driving assistance device.
特許文献1には、自動走行の機能を実施することが困難である原因が、この機能に情報を提供する第1のセンサであり、かつ搭乗者が運転を引き継ぐことが困難な場合に、第2のセンサの情報を用いて停車や減速するなどの一時的に走行制御を行う自動運転制御システムが記載されている。 In Patent Document 1, the cause of the difficulty in implementing the automatic driving function is the first sensor that provides information to this function, and when it is difficult for the passenger to take over driving, the second An automatic driving control system that temporarily controls running such as stopping or decelerating using information from two sensors is described.
しかしながら、特許文献1において第2のセンサの代用は、手動運転へ引き継ぐまでの一時的な措置であり、継続して自動運転で車両を走行し続けるには不十分であった。
本発明は、自動運転車両の周囲の物体を検出するセンサが物体を検出できない非検出状態になっても自動運転の継続を可能とすることを目的とする。
However, the substitution of the second sensor in Patent Document 1 is a temporary measure until handover to manual driving, and is insufficient to continue driving the vehicle in automatic driving.
An object of the present invention is to enable continuation of automatic driving even when a sensor for detecting objects around an automatic driving vehicle enters a non-detection state in which the object cannot be detected.
本発明の一態様によれば、自動運転車両の周囲の物体を所定の検出方向で検出するセンサの検出結果に基づいて自動運転車両の運転行動を決定する運転支援方法が与えられる。運転支援方法では、コントローラが、センサが物体を検出できない非検出状態であるか否かを判定する処理と、センサが非検出状態であると判定した場合は、所定の検出方向に応じて、自動運転車両の複数の乗員のいずれかに自動運転車両の周囲の物体を監視する監視権限を付与する処理と、監視権限が付与された乗員による監視結果に応じて、自動運転車両に運転行動を実行させる処理とを行う。 According to one aspect of the present invention, there is provided a driving assistance method for determining the driving behavior of an automatically driving vehicle based on the detection result of a sensor that detects objects around the automatically driving vehicle in a predetermined detection direction. In the driving support method, the controller determines whether or not the sensor is in a non-detection state in which the sensor cannot detect an object, and if the sensor determines that the sensor is in a non-detection state, automatically performs A process of granting monitoring authority to one of the multiple occupants of the driving vehicle to monitor objects around the autonomous driving vehicle, and executing driving actions on the autonomous driving vehicle according to the monitoring results of the occupants who have been granted the monitoring authority. and perform processing to cause
本発明の一態様によれば、自動運転車両の周囲の物体を検出するセンサが物体を検出できない非検出状態になっても自動運転を継続できる。 ADVANTAGE OF THE INVENTION According to the aspect of this invention, even if the sensor which detects the object around an automatic driving vehicle will be in the non-detection state which cannot detect an object, automatic driving|operation can be continued.
以下、本発明の実施形態について、図面を参照しつつ説明する。なお、各図面は模式的なものであって、現実のものとは異なる場合がある。また、以下に示す本発明の実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that each drawing is schematic and may differ from the actual one. Further, the embodiments of the present invention shown below are examples of apparatuses and methods for embodying the technical idea of the present invention. are not specific to the following: Various modifications can be made to the technical idea of the present invention within the technical scope defined by the claims.
(構成)
図1を参照する。運転支援装置1は、運転支援装置1を搭載する自動運転車両(以下、「自車両」と表記する)の周囲の走行環境に基づいて、運転者が関与せずに自車両を自動で運転する自動運転制御や、運転者による自車両の運転を支援する運転支援制御を行う。
運転支援制御には、自動操舵、自動ブレーキ、定速走行制御、車線維持制御、合流支援制御などの走行制御のほか、運転者に操舵操作や減速操作を促すメッセージを出力することを含んでよい。
(composition)
Please refer to FIG. The driving support device 1 automatically drives the self-driving vehicle without the involvement of the driver, based on the surrounding driving environment of the self-driving vehicle (hereinafter referred to as "own vehicle") equipped with the driving support device 1. It performs automatic driving control and driving support control that assists the driver in driving the own vehicle.
The driving support control may include driving control such as automatic steering, automatic braking, constant speed driving control, lane keeping control, and merging support control, as well as outputting a message prompting the driver to perform steering operation or deceleration operation. .
運転支援装置1は、周囲環境センサ2と、地図データベース3と、車両センサ4と、乗員センサ5と、ユーザインタフェース6FR、6FL、6RR、6RLと、ナビゲーションシステム7と、コントローラ8と、車両制御アクチュエータ9を備える。図面において地図データベースを「地図DB」と表記する。
周囲環境センサ2は、例えば、自車両に搭載されて自車両の周囲環境、自車両の周囲の物体を検出するセンサ群であってよい。周囲環境センサ2は、例えば自車両の左側方の物体を検出する左側方センサ、左後方の物体を検出する左後方センサ、左前方の物体を検出する左前方センサ、右側方の物体を検出する右側方センサ、右後方の物体を検出する右後方センサ、右前方の物体を検出する右前方センサ、前方の物体を検出する前方センサ、後方の物体を検出する後方センサを含んでよい。
The driving assistance device 1 includes an
The surrounding
すなわち、左側方センサ、左後方センサ、左前方センサ、右側方センサ、右後方センサ、右前方センサ、前方センサ及び後方センサの検出方向は、それぞれ自車両の左側方、左後方、左前方、右側方、右後方、右前方、前方及び後方である。
これらのセンサは、例えば測距装置やカメラを含んでよい。
測距装置及びカメラは、自車両周囲に存在する物体、自車両と物体との相対位置、自車両と物体との距離等の自車両の周囲環境を検出する。
That is, the detection directions of the left side sensor, the left rear sensor, the left front sensor, the right side sensor, the right rear sensor, the right front sensor, the front sensor, and the rear sensor are respectively the left side, the left rear, the left front, and the right side of the vehicle. forward, right rear, right front, front and rear.
These sensors may include rangefinders and cameras, for example.
A rangefinder and a camera detect the surrounding environment of the own vehicle, such as objects existing around the own vehicle, the relative position between the own vehicle and the object, and the distance between the own vehicle and the object.
測距装置は、例えば、レーザレンジファインダ(LRF:Laser Range-Finder)やレーダであってよい。カメラは、例えばステレオカメラであってよい。
カメラは、単眼カメラであってもよく、単眼カメラにより複数の視点で同一の物体を撮影して、物体までの距離を計算してもよい。また、単眼カメラによる撮像画像から検出された物体の接地位置に基づいて、物体までの距離を計算してもよい。
周囲環境センサ2は、検出した周囲環境の情報である周囲環境情報をコントローラ8へ出力する。
The ranging device may be, for example, a laser range finder (LRF) or radar. The camera may be, for example, a stereo camera.
The camera may be a monocular camera, or the same object may be photographed from a plurality of viewpoints by the monocular camera, and the distance to the object may be calculated. Also, the distance to the object may be calculated based on the grounding position of the object detected from the image captured by the monocular camera.
The
なお、周囲環境センサ2は、自車両の周囲の物体を検出するセンサであればよく、自車両に搭載されるセンサに限定されない。例えば周囲環境センサ2は、自車両の周囲の他車両や、自車両が走行する走行路などのインフラストラクチャに設けられたセンサでもよい。コントローラ8は、これらのセンサによる周囲環境情報を車車間通信や路車間通信を介して取得してもよい。
The surrounding
地図データベース3は、自動運転用の地図として好適な高精度地図データ(以下、単に「高精度地図」という。)を記憶してよい。高精度地図は、ナビゲーション用の地図データ(以下、単に「ナビ地図」という。)よりも高精度の地図データであり、道路単位の情報よりも詳細な車線単位の情報を含む。
例えば、高精度地図は車線単位の情報として、車線基準線(例えば車線内の中央の線)上の基準点を示す車線ノードの情報と、車線ノード間の車線の区間態様を示す車線リンクの情報を含む。
The
For example, a high-definition map includes lane node information indicating a reference point on a lane reference line (for example, a central line within a lane) and lane link information indicating a section of a lane between lane nodes as information for each lane. including.
車線ノードの情報は、その車線ノードの識別番号、位置座標、接続される車線リンク数、接続される車線リンクの識別番号を含む。車線リンクの情報は、その車線リンクの識別番号、車線の種類、車線の幅員、車線境界線の種類、車線の形状、車線区分線の形状、車線基準線の形状を含む。高精度地図は更に、車線上又はその近傍に存在する信号機、停止線、標識、建物、電柱、縁石、横断歩道等の地物の種類及び位置座標と、地物の位置座標に対応する車線ノードの識別番号及び車線リンクの識別番号等の、地物の情報を含む。 The lane node information includes the identification number of the lane node, the position coordinates, the number of connected lane links, and the identification number of the connected lane link. The lane link information includes the lane link identification number, lane type, lane width, lane boundary line type, lane shape, lane marking line shape, and lane reference line shape. The high-precision map further includes the types and positional coordinates of features such as traffic lights, stop lines, signs, buildings, utility poles, curbs, crosswalks, etc. that exist on or near the lane, and lane nodes corresponding to the positional coordinates of the features. includes feature information, such as the identification number of the lane and the identification number of the lane link.
高精度地図は、車線単位のノード及びリンク情報を含むため、走行ルートにおいて自車両が走行する車線を特定可能である。高精度地図は、車線の延伸方向及び幅方向における位置を表現可能な座標を有する。高精度地図は、3次元空間における位置を表現可能な座標(例えば経度、緯度及び高度)を有し、車線や上記地物は3次元空間における形状として記述されてもよい。 Since the high-precision map includes node and link information for each lane, it is possible to specify the lane in which the host vehicle travels on the travel route. The high-precision map has coordinates that can express the position in the extension direction and width direction of the lane. A high-precision map has coordinates (for example, longitude, latitude, and altitude) that can express a position in a three-dimensional space, and lanes and the features may be described as shapes in the three-dimensional space.
車両センサ4は、自車両の走行状態を検出するセンサと、運転者により行われた運転操作を検出するセンサとを含む。
自車両の走行状態を検出するセンサには、車速センサと、加速度センサと、ジャイロセンサが含まれる。
運転操作を検出するセンサには、操舵角センサと、アクセルセンサと、ブレーキセンサが含まれる。なお、自車両に運転席が設けられない場合には、運転操作を検出するセンサを省略できる。
The
Sensors that detect the running state of the own vehicle include a vehicle speed sensor, an acceleration sensor, and a gyro sensor.
Sensors that detect driving operations include a steering angle sensor, an accelerator sensor, and a brake sensor. If the vehicle does not have a driver's seat, the sensor for detecting the driving operation can be omitted.
車速センサは、自車両の車輪速を検出し、車輪速に基づいて自車両の速度を算出する。
加速度センサは、自車両の前後方向の加速度、車幅方向の加速度及び上下方向の加速度を検出する。
ジャイロセンサは、ロール軸、ピッチ軸及びヨー軸を含む3軸回りの自車両の回転角度の角速度を検出する。
The vehicle speed sensor detects the wheel speed of the own vehicle and calculates the speed of the own vehicle based on the wheel speed.
The acceleration sensor detects acceleration in the longitudinal direction, the acceleration in the vehicle width direction, and the acceleration in the vertical direction of the host vehicle.
The gyro sensor detects the angular velocity of the rotation angle of the host vehicle around three axes including the roll axis, pitch axis and yaw axis.
操舵角センサは、操舵操作子であるステアリングホイールの現在の回転角度(操舵操作量)である現在操舵角を検出する。
アクセルセンサは、自車両のアクセル開度を検出する。例えばアクセルセンサは、自車両のアクセルペダルの踏み込み量をアクセル開度として検出する。
The steering angle sensor detects the current steering angle, which is the current rotation angle (steering operation amount) of the steering wheel, which is a steering operator.
The accelerator sensor detects the accelerator opening of the own vehicle. For example, the accelerator sensor detects the amount of depression of the accelerator pedal of the host vehicle as the accelerator opening.
ブレーキセンサは、運転者によるブレーキ操作量を検出する。例えばブレーキセンサは、自車両のブレーキペダルの踏み込み量をブレーキ操作量として検出する。
車両センサ4が検出した自車両の速度、加速度、角速度、操舵角、アクセル開度、ブレーキ操作量の情報を総称して「車両センサ情報」と表記する。車両センサ4は車両センサ情報をコントローラ8へ出力する。
The brake sensor detects the amount of brake operation by the driver. For example, the brake sensor detects the depression amount of the brake pedal of the own vehicle as the brake operation amount.
Information on the vehicle's speed, acceleration, angular velocity, steering angle, accelerator opening, and brake operation amount detected by the
乗員センサ5は、自車両に乗っている乗員の着座位置及びその乗員の状態を検出するセンサである。乗員センサ5は、自車両に乗っている乗員やその周囲を撮影する車内カメラであってよい。また例えば、また、乗員センサ5は、乗員の体重や体表の動きを検出する圧力センサ、乗員の体や顔の向きを検出するセンサであってもよい。
乗員センサ5が撮影した映像、乗員の体重や体動の情報を総称して「乗員センサ情報」と表記する。乗員センサ5は、乗員センサ情報をコントローラ8へ出力する。
The
The video imaged by the
ユーザインタフェース6FR、6FL、6RR及び6RLは、それぞれ、右前方席、左前方席、右後方席及び左後方席の乗員とコントローラと乗員との間で情報を授受するためのインタフェース装置である。ユーザインタフェース6FR、6FL、6RR及び6RLを「ユーザインタフェース6」と総称することもある。
ユーザインタフェース6は、運転支援装置1や自車両のインテリアに固定設置されていてもよく、運転支援装置1と別体の端末装置(例えばタブレット端末)であってもよい。
The user interfaces 6FR, 6FL, 6RR and 6RL are interface devices for exchanging information between the occupants in the right front seat, the left front seat, the right rear seat and the left rear seat, the controller and the occupants, respectively. The user interfaces 6FR, 6FL, 6RR and 6RL may be collectively referred to as "user interfaces 6".
The user interface 6 may be fixedly installed in the driving assistance device 1 or the interior of the own vehicle, or may be a terminal device (for example, a tablet terminal) separate from the driving assistance device 1 .
ユーザインタフェース6は、各々入力装置、表示装置、音声信号出力装置を備える。
入力装置は、乗員によるコントローラ8への操作を受け付ける。入力装置は、例えばボタン、ダイヤル、スライダなどであってよく、表示装置に設けられたタッチパネルであってもよい。入力装置は、乗員の音声による指示や情報入力を受け付けるマイクロフォンであってもよい。
The user interfaces 6 each include an input device, a display device, and an audio signal output device.
The input device receives an operation of the
表示装置は、コントローラ8により提供される様々な視覚的情報を出力する。
また、ユーザインタフェース6は、乗員の五感のうち視覚以外の感覚による刺激を与えるインタフェース装置を備えてもよい。例えば、ユーザインタフェース6は、触覚や嗅覚による刺激を乗員に与えるインタフェース装置を備えてもよい。
音声信号出力装置は、コントローラ8により提供される様々な聴覚的情報を出力する。
The display device outputs various visual information provided by the
In addition, the user interface 6 may include an interface device that provides stimulation by senses other than sight among the five senses of the occupant. For example, the user interface 6 may include an interface device that provides the passenger with tactile or olfactory stimuli.
The audio signal output device outputs various auditory information provided by the
なお、ユーザインタフェース6の数は4個に限定されず、自車両の座席数に応じて増減してもよい。また、全ての座席に設けずに一部の座席に設けてもよい。一部の乗員のみが利用できるようにユーザインタフェース6を設ける座席を制限してもよく(例えば、右前方席及び左前方席のみ設ける)、複数の乗員で1個のユーザインタフェース6を共用するように設けてもよい。 Note that the number of user interfaces 6 is not limited to four, and may be increased or decreased according to the number of seats in the vehicle. Moreover, it may be provided in some seats instead of being provided in all seats. The seats on which the user interface 6 is provided may be restricted so that only some passengers can use it (for example, only the front right seat and the front left seat are provided), and a single user interface 6 may be shared by multiple passengers. may be set to
ナビゲーションシステム7は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して自車両の現在位置を測定する。GNSS受信機は、例えば地球測位システム(GPS)受信機等であってよい。ナビゲーションシステム7は、例えばオドメトリにより自車両の現在位置を測定してもよい。
The
乗員がナビゲーションシステム7を操作して目的地を入力すると、ナビゲーションシステム7は、ダイキストラ法やA*などのグラフ探索理論に基づく手法により、現在位置から目的地まで自車両がこれから走行する予定経路を設定する。ナビゲーションシステム7は、設定した予定経路に基づく経路案内を乗員に提示する。
例えば、ナビゲーションシステム7は、予定経路と経路案内をユーザインタフェース6の表示装置に表示してよい。
また、ナビゲーションシステム7は、設定した予定経路の情報と自車両の現在位置情報をコントローラ8へ出力する。
When an occupant operates the
For example, the
The
コントローラ8は、自車両の自動運転制御と運転支援制御を行う電子制御ユニット(ECU:Electronic Control Unit)である。コントローラ8は、プロセッサ12と、記憶装置13等の周辺部品とを含む。プロセッサ12は、例えばCPU(Central Processing Unit)やMPU(Micro-Processing Unit)であってよい。
記憶装置13は、半導体記憶装置、磁気記憶装置及び光学記憶装置のいずれかを備えてよい。記憶装置13は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
The
The
以下に説明するコントローラ8の機能は、例えばコントローラ8のプロセッサ12が、記憶装置13に格納されたコンピュータプログラムを実行することにより実現される。
なお、コントローラ8を、以下に説明する各情報処理を実行するための専用のハードウエアにより形成してもよい。
例えば、コントローラ8は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えばコントローラ8はフィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてもよい。
The functions of the
Note that the
For example,
コントローラ8は、周囲環境センサ2から入力した周囲環境情報と、地図データベース3に記憶される高精度地図(ナビゲーションシステム7が備えるナビ地図を使用してもよい、以下同様)と、車両センサ4から入力した車両センサ情報と、ナビゲーションシステム7から入力した自車両の現在位置と、に基づいて、ナビゲーションシステム7により設定された予定経路を自車両に走行させる運転行動計画を生成する。
The
ここで運転行動計画とは、自車両を走行させるレーン(車線)と、このレーンを走行させるのに要する運転行動とを定めた、中長距離の範囲におけるレーンレベル(車線レベル)での運転行動の計画である。例えば運転行動計画は、前方に存在する交差点を右折するシーンにおいて、交差点の手前何m地点で右折レーンに車線変更するか等の運転行動を定めた計画である。 Here, the driving action plan is a driving action at the lane level (lane level) in the range of medium and long distances, which defines the lane (lane) in which the vehicle is to be driven and the driving action required to drive in this lane. is the plan. For example, the driving action plan is a plan that determines the driving action such as how many meters before the intersection the lane should be changed to the right turn lane in a scene where the driver turns right at an intersection in front of the intersection.
コントローラ8は、運転行動計画及び自車両の運動特性などに基づいて自車両を走行させるための軌道候補を生成する。コントローラ8は、軌道候補の各々の将来リスクを評価して、最適な軌道を選択し、自車に走行させる走行軌道として設定する。走行軌道は、目標操舵角のほか、速度計画やそのための加減速を含む。
コントローラ8は、設定した走行軌道を自車両が走行するように車両制御アクチュエータ9を駆動して自動的に自車両を走行させる。
The
The
車両制御アクチュエータ9は、コントローラ8からの制御信号に応じて、自車両の操舵機構、アクセル開度及びブレーキ装置を操作して、自車両の車両挙動を発生させる。車両制御アクチュエータ9は、例えば、ステアリングアクチュエータと、アクセル開度アクチュエータと、ブレーキ制御アクチュエータを備えてよい。
ステアリングアクチュエータは、自車両のステアリング機構の操舵方向及び操舵量を制御する。アクセル開度アクチュエータは、自車両のアクセル開度を制御する。ブレーキ制御アクチュエータは、自車両のブレーキ装置の制動動作を制御する。
The
The steering actuator controls the steering direction and steering amount of the steering mechanism of the host vehicle. The accelerator opening actuator controls the accelerator opening of the host vehicle. The brake control actuator controls the braking operation of the brake system of the host vehicle.
次に、コントローラ8による自車両の自動運転制御に対する乗員による操作指示を説明する。
乗員は、コントローラ8による自動運転制御に対して様々な操作指示を行うことが可能である。自動運転制御に対する操作指示には、例えば、自車両の運転行動(例えば、前方の交差点の右左折、車線変更や加減速などの指示)や運転行動計画を指定する指示が含まれる。
また例えば、自車両に対する操作指示は、自車両の目的地又は経由地を指定する指示を含んでもよい。
Next, operation instructions by the occupant for the automatic driving control of the own vehicle by the
A crew member can give various operational instructions to the automatic driving control by the
Further, for example, the operation instruction to the own vehicle may include an instruction to designate the destination or waypoint of the own vehicle.
乗員は、運転行動、運転行動計画、目的地、経由地などを指定する操作指示を、ユーザインタフェース6を介してコントローラ8に入力する。
また例えば、自車両に対する操作指示は、自車両の自動運転制御に対するオーバライド操作であってもよい。乗員は、例えばステアリングホイール、アクセルペダル、ブレーキペダルによりオーバライド操作をコントローラ8に入力してよい。
The passenger inputs operational instructions to the
Further, for example, the operation instruction for the own vehicle may be an override operation for the automatic driving control of the own vehicle. A passenger may input an override operation to the
コントローラ8は、乗員に付与されている自車両に対する操作指示の権限(以下、「操作権限」と表記する)を記憶する。
乗員による操作指示が行われた場合、コントローラ8は、操作指示を行った乗員が、操作権限が付与されている者、すなわち操作権限者であるか否かを判定する。
操作権限者が操作指示を行った場合には、コントローラ8は操作指示に従って自車両の走行を制御する。すなわち、操作指示に従って運転行動、運転行動計画、目的地、又は経由地を設定する。若しくは、オーバライド操作に従って自車両の車両挙動を発生させる。
操作権限者以外の乗員が操作指示を行った場合には、コントローラ8は操作指示を破棄する。
The
When an operation instruction is issued by a passenger, the
When the person authorized to operate has given an operation instruction, the
If a crew member other than the person authorized to operate the vehicle issues an operation instruction, the
次に、故障や汚れの付着などの原因により、周囲環境センサ2のいずれかが自車両の周囲の物体を検出できない状態(すなわち非検出状態)となった場合について説明する。
周囲環境センサ2のいずれかが非検出状態となった場合には、コントローラ8は、検出状態である残りのセンサの周囲環境情報に基づいて運転行動計画を生成する。
そして、コントローラ8は、非検出状態のセンサの検出方向を監視する監視権限を乗員に付与する。以下、非検出状態のセンサを「非検出状態センサ」と表記することがある。
コントローラ8は、例えば、非検出状態センサの検出方向と、これから自車両が行う予定の運転行動と、乗員の座席に応じて、監視権限を付与する乗員を決定する。
Next, a case where any one of the surrounding
When any of the surrounding
Then, the
The
コントローラ8は、監視権限を付与した乗員(以下「監視権限者」と表記する)に、非検出状態センサと、監視権限者が監視すべき監視対象(例えば、監視すべき自車両周囲の範囲や監視すべき方向)を通知する。
図2Aを参照する。例えばコントローラ8は、監視権限者が利用するユーザインタフェース6の表示装置に、監視権限者用情報提示画像20を表示する。
The
See FIG. 2A. For example, the
監視権限者用情報提示画像20は、例えば、非検出状態センサ表示21と、監視対象表示22と、付与権限表示23と、運転行動表示24と、第1確認ボタン画像25と、第2確認ボタン画像26を含んでよい。
非検出状態センサ表示21は、非検出状態センサを指示する。図2Aの例では、非検出状態センサ表示21は左前方センサが非検出状態となっていることを示す。
The monitoring authority
A
監視対象表示22は、監視権限者が監視すべき監視対象を指示する。図2Aの例では、監視対象表示22は、監視権限者が自車両の左前方の領域(又は左前方の方向)を監視すべきことを示している。
付与権限表示23は、現在、監視権限が付与されていることを示す。運転行動表示24は、自車両がこれから行う予定の運転行動を表示する。
第1確認ボタン画像25及び第2確認ボタン画像26は、監視権限者が監視対象での監視結果を指示する入力を受け付ける。
The
The granted
The first
障害物がある場合には、第1確認ボタン画像25が押される(又は押すジェスチャーが行われる)ことにより、コントローラ8は、監視対象に障害物があることを確認した指示の入力を受け付ける。反対に、障害物がない場合には、第2確認ボタン画像26が押される(又は押すジェスチャーが行われる)ことにより、監視対象に障害物が無いことを確認した指示の入力を受け付ける。
If there is an obstacle, the first
なお、非検出状態センサ、監視対象、付与権限の通知は、画像表示による通知に限定されない。例えば、音声信号によって非検出状態センサと監視対象を通知してもよい。同様に、監視結果の入力も、ボタン操作などの手入力に限定されるものではなく、例えば、音声入力によって監視結果を入力してもよい。 It should be noted that the notification of non-detection state sensors, monitoring targets, and granted authority is not limited to notification by image display. For example, an audio signal may notify the non-detecting sensor and target. Similarly, input of monitoring results is not limited to manual input such as button operation, and monitoring results may be input by voice input, for example.
監視権限者による監視結果が入力されると、コントローラ8は、入力された監視結果を操作権限者に通知する。
図2Bを参照する。例えばコントローラ8は、操作権限者が利用するユーザインタフェース6の表示装置に、操作権限者用情報提示画像30を表示する。
操作権限者用情報提示画像30は、例えば、非検出状態センサ表示31と、監視対象表示32と、乗員状態表示画像33と、付与権限表示34と、運転行動表示35と、監視結果表示36と、承認ボタン画像37と、否認ボタン画像38を含んでよい。
When the monitoring result is input by the monitoring authority, the
See FIG. 2B. For example, the
The operating authority
非検出状態センサ表示31及び監視対象表示32は、図2Aに示す非検出状態センサ表示21及び監視対象表示22と同様である。
乗員状態表示画像33は、乗員の状態を表示する。図2Bの例では、アイコン33FR、33FL、33RR及び33RLが、それぞれ、右前方席、左前方席、右後方席及び左後方席に座る乗員の状態を表す。
The undetected
The occupant
例えばアイコン33FR~33RLは、アイコン33FR~33RLに設けられた突起の方向により、乗員の座席の向きを表示する。
また、例えばアイコン33FLに表示された網掛けのハッチングにより、左前方席に座る乗員が監視権限者であることを表示する。
なお、図2Bに示す表示態様は一例であり、乗員の状態表示の態様はこれに限定されない。アイコンの色、線種、大きさを変えることによって乗員の状態を表示してもよい。また、画像ではなく文字情報で乗員の状態を表示してもよい。
For example, the icons 33FR to 33RL indicate the orientation of the passenger's seat according to the direction of the projections provided on the icons 33FR to 33RL.
Further, for example, by hatching displayed on the icon 33FL, it is displayed that the occupant sitting in the left front seat is the monitoring authority.
Note that the display mode shown in FIG. 2B is an example, and the mode of displaying the state of the occupant is not limited to this. The occupant status may be displayed by changing the icon color, line type, and size. Also, the status of the occupant may be displayed by character information instead of the image.
また、乗員の座席の向きや監視権限者だけでなく、乗員のその他の状態を表示してもよい。例えば、乗員状態表示画像33は、監視対象の監視に適した状態(すなわち監視権限を付与できる状態)であるか否かを表示してもよい。
例えば、乗員が集中力を有しており、安心若しくは安定した状態である場合に、監視対象の監視に適した状態であることを表示してよい。
In addition to the orientation of the passenger's seat and the monitoring authority, other conditions of the passenger may also be displayed. For example, the occupant
For example, when the occupant has concentration and is in a safe or stable state, it may be displayed that the state is suitable for monitoring the object to be monitored.
反対に、乗員が睡眠状態にあるか、集中力を欠いた漫然状態であるか、又は不安定若しくは不安な状態である場合に、監視対象の監視に適した状態でないことを表示してよい。
また、乗員状態表示画像33は、乗員が監視対象の監視に適した属性(すなわち監視権限を付与できる属性)を有するか否かを表示してもよい。例えば乗員が子供である場合に、監視対象の監視に適した属性を有しないことを表示してよい。また、例えば運転免許証を有しない場合に、監視対象の監視に適した属性を有しないことを表示してよい。
Conversely, if the occupant is asleep, in a distracted state, or in an unsteady or anxious state, it may indicate an unsuitable condition for monitoring the monitored object.
In addition, the crew
付与権限表示34は、現在、監視権限者に監視権限が付与されていることを表示する。運転行動表示35は、自車両がこれから行う予定の運転行動を表示する。監視結果表示36は、監視権限者による監視結果が表示する。
これらの表示によって、操作権限者は、周囲環境センサ2のいずれかが非検出状態であっても、残りのセンサの周囲環境情報に基づいて決定された運転行動が安全であるか否かを判断できる。
The granting
From these displays, even if one of the surrounding
承認ボタン画像37及び否認ボタン画像38は、それぞれ操作権限者による運転行動の承認及び否認を指示する入力を受け付ける。
運転行動を承認する場合には、承認ボタン画像37が押される(又は押すジェスチャーが行われる)ことにより、コントローラ8は、運転行動を承認する指示の入力を受け付ける。反対に、否認する場合には、否認ボタン画像38が押される(又は押すジェスチャーが行われる)ことにより、コントローラ8は、運転行動を否認する指示の入力を受け付ける。
The
When approving the driving action, the
なお、非検出状態センサ、監視対象の通知、乗員状態、付与権限、運転行動及び監視結果の通知は、画像表示による通知に限定されない。例えば、音声信号によってこれらの通知を行ってもよい。同様に、運転行動の承認及び否認も、ボタン操作などの手入力に限定されるものではなく、例えば、音声入力によって運転行動の承認及び否認を入力してもよい。 It should be noted that the notification of non-detection state sensor, monitoring target notification, occupant state, granted authority, driving behavior, and monitoring result is not limited to notification by image display. For example, these notifications may be provided by audio signals. Similarly, approval and disapproval of driving behavior are not limited to manual input such as button operation, and approval and disapproval of driving behavior may be input by voice input, for example.
運転行動が承認された場合に、コントローラ8は、承認された運転行動を自車両に実行させる。これにより自動運転制御による自車両の走行が継続する。運転行動が承認された場合に、コントローラ8は、自車両の走行によるリスクを減らすリスク最小運転を実行する。例えば、リスク最小運転は、自車両を路肩に停車させる運転や、速度を落として走行する運転であってよい。
When the driving action is approved, the
次に図3を参照して、コントローラ8の機能を詳しく説明する。コントローラ8は、立体物行動予測部40と、マップ生成部41と、運転行動計画生成部42と、軌道生成部43と、走行制御部44と、周囲環境判定部50と、乗員情報取得部51と、センサ状態判定部52と、乗員状態推定部53と、乗員属性判定部54と、権限管理部55と、表示状態制御部56と、運転行動承認部57と、警報生成部58を備える。
Next, with reference to FIG. 3, the function of the
立体物行動予測部40は、周囲環境センサ2から入力した周囲環境情報と、地図データベース3に記憶される高精度地図に基づいて、自車両周囲の移動体の行動を予測する。
マップ生成部41は、周囲環境情報と、高精度地図と、立体物行動予測部40による予測結果に基づいて、自車両周囲の経路や物体の有無を表現する経路空間マップと、走行場の危険度を数値化したリスクマップを生成する。
The three-dimensional object
Based on the surrounding environment information, the high-precision map, and the prediction result of the three-dimensional object
運転行動計画生成部42は、これら経路空間マップ及びリスクマップに基づいて運転行動計画を生成する。
軌道生成部43は、運転行動計画生成部42が生成した運転行動計画、自車両の運動特性、経路空間マップに基づいて自車両を走行させるための軌道候補を生成する。軌道生成部43は、リスクマップに基づいて軌道候補の各々の将来リスクを評価して、最適な軌道を選択し、自車に走行させる走行軌道として設定する。
走行制御部44は、軌道生成部43が設定した走行軌道を自車両が走行するように車両制御アクチュエータ9を駆動して自動的に自車両を走行させる。
The driving
The
The
周囲環境判定部50は、自車両周囲の環境を判定する。例えば周囲環境判定部50は、自車両の周囲に存在する周囲物体を識別し、周囲物体が存在する方向、周囲物体までの距離、周囲物体との相対距離、周囲物体の種類、属性(例えば静止物体であるか移動物体出るかや、車両であるか歩行者であるか等)を判定する。周囲環境判定部50は判定結果を乗員状態推定部53へ出力する。
The surrounding
乗員情報取得部51は、乗員センサ5からの乗員センサ情報や、乗員がユーザインタフェース6の入力装置で入力した入力情報に基づいて乗員情報を取得し、乗員を認識する。
例えば乗員情報取得部51は、乗員センサ5が備える車内カメラで撮影した映像に基づいて、乗員の位置(着座位置)、人数、乗員の姿勢、乗員の座席の向き、乗員の視線の方向、顔や体の方向、開眼率、心拍、乗員の近くにある物体、成人であるか子供であるか等の情報を、乗員情報として取得してよい。
The occupant
For example, the occupant
また例えば乗員情報取得部51は、乗員センサ5が備える圧力センサで検出した乗員の体重や体表の動きに基づいて、乗員の姿勢や心拍を乗員情報として取得してもよい。
また例えば乗員情報取得部51は、ユーザインタフェース6の入力装置による入力情報に基づいて、乗員の運転免許の有無や年齢を乗員情報として取得してもよい。乗員情報取得部51は、車内カメラにより運転免許証の画像(乗員毎の運転免許の有無)を取得してもよい。
乗員情報取得部51は、取得した乗員情報を乗員状態推定部53と乗員属性判定部54と表示状態制御部56へ出力する。
Further, for example, the occupant
Further, for example, the occupant
The occupant
センサ状態判定部52は、周囲環境センサ2のいずれかが非検出状態となったか否かを判定する。例えば、センサ状態判定部52は、周囲環境センサ2から周囲環境情報が出力されなくなった場合に周囲環境センサ2が非検出状態となったと判定してよい。
また例えば、センサ状態判定部52は、周囲環境センサ2から出力される周囲環境情報が変化しない状態が所定時間継続した場合に周囲環境センサ2が非検出状態となったと判定してよい。
センサ状態判定部52は、判定結果を権限管理部55へ出力する。
The sensor
Further, for example, the sensor
Sensor
乗員状態推定部53は、周囲環境判定部50の判定結果と乗員情報取得部51が取得した乗員情報とに基づいて、乗員の状態、具体的には乗員が自車両の周囲状況を確認できる状態にあるか否か、すなわち、監視対象の監視に適した状態(監視権限を付与できる状態)である否かを推定する。
例えば乗員状態推定部53は、周囲環境判定部50が識別した周囲物体の危険度を判断し、乗員の姿勢、乗員の視線の方向及び顔の方向に基づいて、危険度の高い周囲物体に乗員が適切に反応しているか否かを判定する。
The occupant
For example, the occupant
危険度の高い周囲物体に乗員が適切に反応している場合に、乗員状態推定部53は、乗員が集中力を有しており、監視対象の監視に適した状態にあると推定する。危険度の高い周囲物体に乗員が適切に反応していない場合に、乗員状態推定部53は、乗員が集中力を欠いた漫然状態にあり、監視対象の監視に適した状態にないと推定する。
また例えば乗員状態推定部53は、乗員の開眼率に基づいて乗員が集中力を有しているか漫然状態にあるかを判定し、監視対象の監視に適した状態にあるか否かを推定する。
When the occupant is appropriately reacting to surrounding objects with a high degree of danger, the occupant
Further, for example, the occupant
また例えば乗員状態推定部53は、乗員の心拍数が閾値を超えていたり又は心拍が安定していない場合は、乗員が不安定又は不安な状態であり監視対象の監視に適した状態にないと推定する。乗員の心拍数が閾値以下であり且つ心拍が安定している場合は、乗員が安定又は安心な状態であり監視対象の監視に適した状態にあると推定する。
また例えば乗員状態推定部53は、乗員の画像に基づいて乗員が覚醒状態にあるか睡眠状態にあるかを判定し、睡眠状態にある場合に監視対象の監視に適した状態にないと推定する。
乗員状態推定部53は、推定結果を権限管理部55と表示状態制御部56へ出力する。
Further, for example, if the occupant's heart rate exceeds a threshold value or the heart rate is not stable, the occupant
Further, for example, the occupant
Occupant
また例えば乗員状態推定部53は、乗員の画像や、乗員の周囲にある物体(例えば、スマートホン、ゲーム、本、飲食物)に基づいて、乗員が監視以外の目を使う活動を行っているか否かを判定する。監視以外の目を使う活動とは、例えばスマートホンの操作、ゲーム、読書、飲食であってよい。
乗員状態推定部53は、乗員が監視以外の目を使う活動を行っているか否かの情報を権限管理部55へ出力する。
In addition, for example, the occupant
The occupant
乗員属性判定部54は、乗員情報取得部51が取得した乗員情報に基づいて乗員の属性を判定する。具体的には監視対象の監視に適した属性を乗員が有しているか否かを判定する。
監視対象の監視に適した属性は、例えば運転免許の所有や成人であること等を含んでよい。監視対象の監視に適さない属性は、例えば運転免許の未所有や子供であること等を含んでよい。
The occupant
Attributes suitable for monitoring of a monitored subject may include, for example, possession of a driver's license, being of age, and the like. Attributes unsuitable for monitoring of a monitored subject may include, for example, not having a driver's license or being a child.
例えば、乗員属性判定部54は、ユーザインタフェース6の入力装置による入力情報に基づいて乗員が運転免許を有しているか否かを判定する。乗員属性判定部54は、乗員情報取得部51が取得した運転免許証の画像に基づいて、乗員が運転免許を有しているか否かを判定してもよい。あるいは、乗員が運転免許を有するか否かは、乗員が乗車時に予めユーザインタフェース6を用いて運転免許の有無を入力し、入力された情報を不図示のメモリに着座位置と共に記憶しておき、乗員属性判定部54はメモリに記憶された情報を読み出して判定しても良い。
また、乗員属性判定部54は、ユーザインタフェース6の入力装置による入力情報に基づいて乗員が成人であるか子供であるかを判定する。あるいは、乗員が成人であるか子供であるかの種別は、乗員センサ5によって検出した体重や体格に基づいて判定しても良い。
乗員情報取得部51が画像から乗員が成人であるか子供であるかの情報を取得した場合、乗員属性判定部54は、この情報を乗員情報取得部51から取得してもよい。
乗員属性判定部54は、判定結果を権限管理部55と表示状態制御部56へ出力する。
For example, the occupant
Also, the occupant
When the occupant
The occupant
表示状態制御部56は、乗員情報取得部51が取得した乗員情報、乗員状態推定部53の推定結果、乗員属性判定部54の判定結果に基づいて、乗員状態表示画像33を生成する。
例えば表示状態制御部56は、乗員状態表示画像33のアイコン33FR~33RLの表示及び非表示により、どの座席に乗員が座っているかを表してよい。
また例えば、乗員情報取得部51が取得した乗員の座席の向きに応じて、乗員状態表示画像33のアイコン33FR~33RLの向き(すなわちアイコン33FR~33RLに設けられた突起の方向)を設定することにより、乗員の座席の向きを表示してもよい。
The display
For example, the display
Further, for example, the directions of the icons 33FR to 33RL of the occupant state display image 33 (that is, the directions of the projections provided on the icons 33FR to 33RL) may be set according to the orientation of the occupant's seat acquired by the occupant
例えば、右前方席、左前方席、右後方席及び左後方席の全てが前方を向いている場合、表示状態制御部56は図2Bに示す乗員状態表示画像33を表示する。
図4A~図4Dを参照する。図4Aの乗員状態表示画像33は、右前方席及び左前方席が後方を向き、右後方席及び左後方席が前方を向いている状態、すなわち各座席が前後方向に内側を向いている状態を示す。
For example, when the right front seat, left front seat, right rear seat, and left rear seat all face forward, the display
Please refer to FIGS. 4A-4D. The occupant
図4Bの乗員状態表示画像33は、右前方席及び左前方席が前方を向き、右後方席及び左後方席が後方を向いている状態、すなわち各座席が前後方向に外側を向いている状態を示す。
図4Cの乗員状態表示画像33は、右前方席及び右後方席が左側を向き、左前方席及び左後方席が右側を向いている状態、すなわち各座席が横方向(車幅方向)に内側を向いている状態を占めす。
The occupant
The occupant
図4Dの乗員状態表示画像33は、右前方席及び右後方席が右側を向き、左前方席及び左後方席が左側を向いている状態、すなわち、各座席が横方向に外側を向いている状態を占めす。
また、表示状態制御部56は、乗員状態推定部53の推定結果に基づいて乗員が監視対象の監視に適した状態であるか否かを表示してもよい。表示状態制御部56は、乗員属性判定部54の判定結果に基づいて乗員が監視対象の監視に適した属性を有するか否かを表示してもよい。
The occupant
Further, the display
図3を参照する。権限管理部55は、乗員に付与されている操作権限を記憶する。すなわちどの乗員が操作権限者であるかを記憶する。
権限管理部55は、操作権限者の情報を表示状態制御部56と運転行動承認部57へ出力する。
また、周囲環境センサ2のいずれかが非検出状態である場合、権限管理部55は、複数の乗員のいずれかに自車両の周囲の物体を監視する監視権限を付与する。
Please refer to FIG. The
Further, when any of the surrounding
権限管理部55は、非検出状態センサの検出方向(搭載位置でもよい)と、運転行動計画生成部42が決定したこれから行われる予定の運転行動とに応じて、監視権限を付与する乗員(すなわち監視権限者)が座る座席の位置を決定する。
図5~図9を参照して以下に説明する決定方法では、権限管理部55は、非検出状態センサの検出方向と、これから行われる予定の運転行動と、乗員が座る座席の向きとに応じて、監視権限者を決定する。
The
In the determination method described below with reference to FIGS. 5 to 9, the
図5~図9は、様々な道路環境(例えば、信号交差点、踏切、片側複数車線路、交差点、狭路、駐車場、高速道路、分岐区間、合流区間)における運転行動と、非検出状態センサの検出方向に応じた監視権限者の座席の候補を示す。
図5は各座席が前方を向いている場合(図2B)の候補を示し、図6は各座席が前後方向に内側を向いている場合(図4A)の候補を示し、図7は各座席が前後方向に外側を向いている場合(図4B)の候補を示し、図8は各座席が横方向に内側を向いている場合(図4C)の候補を示し、図9は各座席が横方向に外側を向いている場合(図4D)の候補を示す。
5 to 9 show driving behavior in various road environments (e.g., signalized intersections, railroad crossings, multi-lane roads on one side, intersections, narrow roads, parking lots, highways, branch sections, and merging sections) and non-detection state sensors. Shows candidates for the seat of the person authorized to monitor according to the direction of detection.
FIG. 5 shows candidates for the case where each seat faces forward (FIG. 2B), FIG. 6 shows candidates for the case where each seat faces inward in the longitudinal direction (FIG. 4A), and FIG. FIG. 8 shows candidates for the case where the seats face outward in the longitudinal direction (FIG. 4B), FIG. 8 shows candidates for the case where each seat faces inward in the lateral direction (FIG. 4C), and FIG. The candidates are shown when facing outwards (FIG. 4D).
二重丸は監視権限者の座席の第1優先候補を示し、一重丸は第2優先候補を示す。例えば、図5(各座席が前方を向いている場合)では、検出方向が左後方である左後方センサが非検出状態であり、これから行う予定の運転行動が左車線への変更(左車線変更)である場合には、左後方席が第1優先候補として選択され、左前方席が第2優先候補として選択される。 A double circle indicates the first priority candidate for the seat of the supervisory authority, and a single circle indicates the second priority candidate. For example, in FIG. 5 (when each seat faces forward), the left rear sensor whose detection direction is the left rear is in a non-detection state, and the scheduled driving action is to change to the left lane (left lane change). ), the left rear seat is selected as the first priority candidate and the left front seat is selected as the second priority candidate.
また、検出方向が右側方である右側方センサが非検出状態であり、これから行う予定の運転行動が右折又は分岐区間における右分岐路への進出(右方離脱)である場合には、右前方席と右後方席の両方が第1優先候補として選択される。
また、図8(各座席が横方向に内側を向いている場合)では、検出方向が左側方である左側方センサが非検出状態であり、これから行う予定の運転行動が左折又は分岐区間における左分岐路への進出(左方離脱)である場合には、左前方席と左後方席の両方が第1優先候補として選択され、右前方席と右後方席の両方が第2優先候補として選択される。
In addition, when the right side sensor whose detection direction is the right side is in a non-detecting state, and the scheduled driving action is to turn right or enter a right branch road in a branch section (right exit), the right front Both the seat and the right rear seat are selected as first priority candidates.
Also, in FIG. 8 (when each seat faces inward in the lateral direction), the left side sensor whose detection direction is the left side is in a non-detecting state, and the planned driving action is a left turn or a left turn in a fork section. In the case of advancing to a branch road (leaving left), both the left front seat and the left rear seat are selected as the first priority candidates, and both the right front seat and the right rear seat are selected as the second priority candidates. be done.
第1優先候補と第2優先候補が選択されている場合、権限管理部55は、まず第1優先候補の座席に乗員が座っているか否かを判定する。
第1優先候補の座席に乗員が座っている場合、権限管理部55は、第1優先候補の座席に座っている乗員を監視権限者の候補とする。第1優先候補の座席に乗員が座っていない場合、権限管理部55は、第2優先候補の座席に乗員が座っているか否かを判定する。
第2優先候補の座席に乗員が座っている場合、権限管理部55は、第2優先候補の座席に座っている乗員を監視権限者の候補とする。第2優先候補の座席に乗員が座っていない場合には、監視権限者を指定しない。
When the first priority candidate and the second priority candidate are selected, the
When an occupant sits on the seat of the first priority candidate, the
When an occupant sits in the seat of the second priority candidate, the
複数の第1優先候補が選択されており、これら複数の第1優先候補の座席のそれぞれに乗員が座っている場合、権限管理部55は、これらの乗員のいずれかを監視権限者の候補としてもよく、複数の乗員を監視権限者の候補としてもよい。
また、複数の第2優先候補が選択されており、第1優先候補の座席に乗員が座っておらず、これら複数の第2優先候補の座席のそれぞれに乗員が座っている場合、権限管理部55は、これらの乗員のいずれかを監視権限者の候補としてもよく、複数の乗員を監視権限者の候補としてもよい。
When a plurality of first priority candidates are selected and crew members are seated in each of the plurality of first priority candidate seats, the
Further, when a plurality of second priority candidates are selected, no crew member is seated in the seat of the first priority candidate, and a crew member is seated in each of the plurality of seats of the second priority candidate, the
次に、権限管理部55は、乗員属性判定部54の判定結果に基づいて、監視権限者の候補が監視対象の監視に適した属性を有するか否かを判定する。また、権限管理部55は、乗員状態推定部53の推定結果に基づいて、監視権限者の候補が監視対象の監視に適した状態であるか否かを判定する。
権限管理部55は、監視対象の監視に適した属性を有し、且つ監視対象の監視に適した状態である候補を、監視権限者の最終候補者として指定する。監視権限者の候補のいずれもが、監視対象の監視に適した属性を有しないか監視対象の監視に適した状態でない場合、権限管理部55は、監視権限者を指定しない。
権限管理部55は、監視権限者の最終候補者の情報を表示状態制御部56へ出力する。
Next, the
The
The
権限管理部55が監視権限者の最終候補者を指定すると、表示状態制御部56は、操作権限者が最終候補者に付与する権限を選択する入力を受け付ける画像を、操作権限者用情報提示画像30に表示する。
図10を参照する。操作権限者用情報提示画像30には、権限管理部55が指定した監視権限者の最終候補者を示す候補者表示60と、第1権限付与ボタン画像61と、第2権限付与ボタン画像62と、キャンセルボタン画像63が表示される。図10の例では、左前方席の乗員が監視権限者の最終候補者として示されている。
When the
Please refer to FIG. The operating authority
監視権限を付与する場合には、第1権限付与ボタン画像61が押される(又は押すジェスチャーが行われる)ことにより、権限管理部55は、最終候補者に監視権限のみを付与する指示の入力を受け付ける。権限管理部55は、候補者表示60に示されている最終候補者を、監視権限のみを有する監視権限者として決定する。
監視権限だけでなく運転行動を承認する承認権限を付与する場合には、第2権限付与ボタン画像62が押される(又は押すジェスチャーが行われる)。
In the case of granting the monitoring authority, the first authority
When granting not only the monitoring authority but also the approval authority for approving driving behavior, the second
これにより、権限管理部55は、最終候補者に監視権限と承認権限を付与する指示の入力を受け付ける。権限管理部55は、候補者表示60に示されている最終候補者を、監視権限と承認権限とを有する監視権限者として決定する。
一方で、キャンセルボタン画像63が押される(又は押すジェスチャーが行われる)と、権限管理部55は、最終候補者に監視権限及び承認権限のいずれも付与しない指示として受け付ける。権限管理部55は監視権限者を決定せず、監視権限者は不在になる。
権限管理部55は、決定した監視権限者の情報を、表示状態制御部56と運転行動承認部57と警報生成部58へ出力する。
As a result, the
On the other hand, when the cancel
The
権限管理部55が監視権限のみを有する監視権限者を決定すると、表示状態制御部56は、監視権限者が利用するユーザインタフェース6の表示装置に、図2Aに示す監視権限者用情報提示画像20を表示する。
表示状態制御部56は、監視権限者が監視権限者用情報提示画像20上で監視結果を指示する入力を受け付ける。
When the
The display
監視権限者による監視結果が入力されると、表示状態制御部56は、操作権限者が利用するユーザインタフェース6の表示装置に、図2Bに示す操作権限者用情報提示画像30を表示する。なお、非検出状態センサ表示31と監視対象表示32は、監視結果の入力以前から(例えばセンサが非検出状態であると判定した時点で)表示してもよい。乗員状態表示画像33は、監視結果の入力以前から(例えば乗員を検出した時点で)表示してもよい。付与権限表示34は、監視結果の入力以前から(例えば監視権限者を決定した時点で)表示してもよい。
When the monitoring result by the monitoring authority is input, the display
なお、複数の監視権限者が監視結果を入力した場合、表示状態制御部56は、最も監視時間が長い監視権限者による監視結果を選択して操作権限者用情報提示画像30に表示してよい。表示状態制御部56は、例えば、乗員情報取得部51が取得した乗員情報(乗員の姿勢、乗員の視線の方向、顔の方向)に基づいて、監視権限者が監視対象を監視しているか否かを判定してよい。
When a plurality of authorized supervisors input monitoring results, the display
一方で、表示状態制御部56は、監視権限者が利用するユーザインタフェース6の表示装置に、図11Aに示す監視権限者用情報提示画像20を表示する。監視権限者用情報提示画像20は、操作権限者が運転行動の承認操作又は否認操作を行うのを待っていることを示す表示70を含む。この表示70により監視権限者は、引き続き監視対象を監視すべきであることを認識できる。
On the other hand, the display
図3を参照する。運転行動承認部57は、操作権限者が操作権限者用情報提示画像30上で運転行動の承認又は否認を指示する入力を受け付ける。
運転行動の承認を受け付けると、運転行動承認部57は、運転行動計画生成部42により決定された運転行動を承認する承認信号を軌道生成部43へ出力する。
Please refer to FIG. The driving
Upon accepting the approval of the driving action, the driving
一方で表示状態制御部56は、監視権限者が利用するユーザインタフェース6の表示装置に、図11Bに示す監視権限者用情報提示画像20を表示する。監視権限者用情報提示画像20は、操作権限者による運転行動の承認が完了したことを示す表示71を含む。この表示71により監視権限者は、監視対象の監視を止めてもよいことを認識できる。
一方で、運転行動の否認を受け付けると、運転行動承認部57は、運転行動を否認する否認信号を軌道生成部43へ出力する。
On the other hand, the display
On the other hand, when receiving the denial of the driving action, the driving
また、運転行動承認部57は、運転行動を自車両が行う所定時間前に、監視権限者が監視権限を付与されたことに気づいたか否かを判定する。所定時間は例えば10秒であってよい。
例えば、運転行動承認部57は、乗員情報取得部51が取得した乗員情報(乗員の姿勢、乗員の視線の方向、顔の方向)に基づいて、監視権限者が監視権限者用情報提示画像20を見たか否かを判定してよい。
Further, the driving
For example, the driving
運転行動承認部57は、監視権限者が監視権限者用情報提示画像20を見たか否かに応じて監視権限者が監視権限を付与されたことに気づいたか否かを判定してよい。
また、運転行動承認部57は、監視権限者用情報提示画像20を表示した際に、ユーザインタフェース6で所定の操作を行ったか否か、所定の音声入力を行ったか否かに応じて監視権限を付与されたことに気づいたか否かを判定してよい。
自車両が運転行動を行う所定時間前に、監視権限者が監視権限を付与されたことに気づいていない場合に、運転行動承認部57は、運転行動を否認する否認信号を軌道生成部43へ出力する。
The driving
Further, when the
If the monitoring authority is not aware that the monitoring authority has been granted before a predetermined period of time before the own vehicle performs the driving behavior, the driving
また、運転行動承認部57は、監視権限者用情報提示画像20に運転行動表示24が表示されてから所定の時間内に、監視権限者が監視結果を入力したか否かを判定する。運転行動表示24が表示されてから所定の時間内に監視結果が入力されない場合、運転行動承認部57は、運転行動を否認する否認信号を軌道生成部43へ出力する。
Further, the driving
一方で、権限管理部55が監視権限及び承認権限を有する監視権限者を決定すると、表示状態制御部56は、監視権限者が利用するユーザインタフェース6の表示装置に、図12Aに示す監視権限者用情報提示画像20を表示する。
監視権限者用情報提示画像20は、承認ボタン画像72と否認ボタン画像73を含んでよい。
On the other hand, when the
The monitoring authority
承認ボタン画像72及び否認ボタン画像73は、それぞれ監視権限者による運転行動の承認及び否認を指示する入力を受け付ける。
運転行動を承認する場合には、承認ボタン画像72が押される(又は押すジェスチャーが行われる)ことにより、運転行動承認部57は、運転行動を承認する指示の入力を受け付ける。反対に、否認する場合には、否認ボタン画像73が押される(又は押すジェスチャーが行われる)ことにより、運転行動承認部57は、運転行動を否認する指示の入力を受け付ける。
The
When approving the driving action, the
一方で、表示状態制御部56は、操作権限者が利用するユーザインタフェース6の表示装置に、図12Bに示す操作権限者用情報提示画像30を表示する。
監視権限者に承認権限が付与されている場合、操作権限者用情報提示画像30から承認ボタン画像37及び否認ボタン画像38を省略してよい。そのかわりに、操作権限者用情報提示画像30は、監視権限者が運転行動の承認操作又は否認操作を行うのを待っていることを示す表示64を含んでもよい。
On the other hand, the display
When the monitoring authority is granted the approval authority, the
監視権限者による運転行動の承認又は否認が入力されると、表示状態制御部56は、監視権限者が利用するユーザインタフェース6の表示装置に、図13Aに示す監視権限者用情報提示画像20を表示する。監視権限者用情報提示画像20は、監視権限者による運転行動の承認入力又は否認入力を運転行動承認部57が処理中であることを示す表示74を含む。この表示74により監視権限者は、引き続き監視対象を監視すべきであることを認識できる。
When the approval or disapproval of the driving action by the supervisory authority is input, the display
監視権限者による運転行動の承認が入力されると、運転行動承認部57は運転行動を承認する承認信号を軌道生成部43へ出力する。承認信号の出力が完了すると、表示状態制御部56は、監視権限者が利用するユーザインタフェース6の表示装置に、図13Bに示す監視権限者用情報提示画像20を表示する。監視権限者用情報提示画像20は、運転行動の承認入力の受付が完了したことを示す表示75を含む。表示75により監視権限者は、監視対象の監視を止めてもよいことを認識できる。
When the approval of the driving action by the monitoring authority is input, the driving
一方で、運転行動の否認を受け付けると、運転行動承認部57は、運転行動を否認する否認信号を軌道生成部43へ出力する。
また、自車両が運転行動を行う所定時間前に、監視権限者が監視権限を付与されたことに気づいていない場合に、運転行動承認部57は、運転行動を否認する否認信号を軌道生成部43へ出力する。
運転行動表示24が表示されてから所定の時間内に監視結果が入力されない場合、運転行動承認部57は、運転行動を否認する否認信号を軌道生成部43へ出力する。
On the other hand, when receiving the denial of the driving action, the driving
Further, if the person with the authority to monitor is not aware that the person with the authority to monitor has been given the authority to monitor before a predetermined time before the own vehicle performs the driving action, the driving
If the monitoring result is not input within a predetermined time after the driving
運転行動承認部57が軌道生成部43へ運転行動を承認する承認信号を出力すると、軌道生成部43は、運転行動計画生成部42が生成した運転行動計画に従って生成した走行軌道を走行制御部44へ出力する。これにより、自動運転制御による自車両の走行が継続する。
運転行動承認部57が軌道生成部43へ運転行動を否認する否認信号を出力すると、軌道生成部43は、リスク最小運転を行うための走行軌道を生成して走行制御部44へ出力する。これにより自車両はリスク最小運転を実行する。
When the driving
When the driving
図3を参照する。権限管理部55は、乗員が監視以外の目を使う活動を行っているか否かの情報を乗員状態推定部53から取得する。権限管理部55は、監視権限者が監視以外の目を使う活動を行っているか否かを判定する。権限管理部55は判定結果を警報生成部58へ出力する。
Please refer to FIG. The
監視権限者が監視以外の目を使う活動を行っている場合には、警報生成部58は、視覚以外の感覚による刺激による警報を発生させ、ユーザインタフェース6を介して監視権限者に与える。例えば警報生成部58は、聴覚、触覚、嗅覚のいずれかの刺激による警報を発生させてよい。これにより、監視対象を監視すべきことを監視権限者に知らせることができ、監視権限者に監視を促すことができる。
When the person authorized to monitor is engaged in an activity using eyes other than monitoring, the
(動作)
次に、図14A及び図14Bを参照して実施形態の運転支援装置1の動作の一例を説明する。
ステップS1においてセンサ状態判定部52は、周囲環境センサ2のいずれかが非検出状態となったか否かを判定する。周囲環境センサ2のいずれかが非検出状態となった場合(ステップS1:Y)に処理はステップS3へ進む。周囲環境センサ2のいずれも非検出状態でない場合(ステップS1:N)に処理はステップS2へ進む。
(motion)
Next, an example of the operation of the driving assistance system 1 of the embodiment will be described with reference to FIGS. 14A and 14B.
In step S1, the sensor
ステップS2において運転行動承認部57は、運転行動計画生成部42により決定された運転行動を承認する承認信号を軌道生成部43へ出力する。これにより自動運転制御による自車両の走行を継続する。その後に処理はステップS23へ進む。
ステップS3において権限管理部55は、非検出状態センサの検出方向と自車両がこれから行われる予定の運転行動とに応じて、監視権限を付与する乗員の座席を選択する。
In step S<b>2 , the driving
In step S3, the
ステップS4において乗員情報取得部51は、乗員を検出する。
ステップS5において権限管理部55は、ステップS3で選択した座席に乗員が座っているか否かを判定する。ステップS3で選択した座席に乗員が座っている場合(ステップS5:Y)に、権限管理部55はこの乗員を監視権限の候補とする。その後に処理はステップS7へ進む。
In step S4, the occupant
In step S5, the
ステップS3で選択した座席に乗員が座っていない場合(ステップS5:N)に処理はステップS6へ進む。
ステップS6において運転行動承認部57は、運転行動計画生成部42により決定された運転行動を承認する否認信号を軌道生成部43へ出力する。これにより自車両は、自車両の走行によるリスクを減らすリスク最小運転を実行する。その後に処理はステップS23へ進む。
If no occupant is sitting in the seat selected in step S3 (step S5: N), the process proceeds to step S6.
In step S<b>6 , the driving
ステップS7において権限管理部55は、監視権限の候補が監視に適した属性を有するか否かを判定する。監視権限の候補が監視に適した属性を有する場合(ステップS7:Y)に処理はステップS9へ進む。監視権限の候補が監視に適した属性を有さない場合(ステップS7:N)に処理はステップS8へ進む。
ステップS8において運転行動承認部57は、否認信号を軌道生成部43へ出力する。これにより自車両はリスク最小運転を実行する。その後に処理はステップS23へ進む。
In step S7, the
In step S<b>8 , the driving
ステップS9において権限管理部55は、監視権限の候補が監視に適した状態であるか否かを判定する。監視権限の候補が監視に適した状態である場合(ステップS9:Y)に処理はステップS11へ進む。監視権限の候補が監視に適した状態でない場合(ステップS9:N)に処理はステップS10へ進む。
ステップS10にて運転行動承認部57は、否認信号を軌道生成部43へ出力する。これにより自車両はリスク最小運転を実行する。その後に処理はステップS23へ進む。
In step S9, the
In step S<b>10 , the driving
ステップS11において表示状態制御部56は、操作権限者が利用するユーザインタフェース6の表示装置に図10に示す操作権限者用情報提示画像30を表示する。操作権限者が監視権限の候補に監視権限を付与すると、監視権限を与えられた乗員は監視権限者となる。
表示状態制御部56は、操作権限者が利用するユーザインタフェース6の表示装置に図2Aに示す監視権限者用情報提示画像20を表示する。
In step S11, the display
The display
ステップS12において権限管理部55は、監視権限者が監視以外の目を使う活動を行っているか否かを判定する。監視権限者が監視以外の目を使う活動を行っている場合(ステップS12:Y)に処理はステップS13へ進む。ない場合(ステップS12:N)にステップS13をスキップして処理はステップS14へ進む。
ステップS13において警報生成部58は、視覚以外の感覚による刺激による警報を発生させ、ユーザインタフェース6を介して監視権限者に与える。その後に処理はステップS14へ進む。
In step S12, the
In step S<b>13 , the
ステップS14において運転行動承認部57は、自車両が運転行動を行う所定時間前に監視権限者が監視権限を付与されたことに気づいたか否かを判定する。運転行動を行う所定時間前に監視権限を付与されたことに気づいた場合(ステップS14:Y)に処理はステップS16へ進む。運転行動を行う所定時間前に監視権限を付与されたことに気づいていない場合(ステップS14:N)に処理はステップS15へ進む。
ステップS15にて運転行動承認部57は、否認信号を軌道生成部43へ出力する。これにより自車両はリスク最小運転を実行する。その後に処理はステップS23へ進む。
In step S14, the driving
In step S<b>15 , the driving
ステップS16において運転行動承認部57は、監視権限者用情報提示画像20に運転行動表示24が表示されてから所定の時間内に、監視権限者が監視結果を入力したか否かを判定する。運転行動表示24が表示されてから所定の時間内に監視結果を入力した場合(ステップS16:Y)に処理はステップS18へ進む。運転行動表示24が表示されてから所定の時間内に監視結果を入力しない場合(ステップS16:N)に処理はステップS17へ進む。
ステップS17にて運転行動承認部57は、否認信号を軌道生成部43へ出力する。これにより自車両はリスク最小運転を実行する。その後に処理はステップS23へ進む。
In step S<b>16 , the driving
In step S<b>17 , the driving
ステップS18において表示状態制御部56は、操作権限者が利用するユーザインタフェース6の表示装置に、図2Bに示す操作権限者用情報提示画像30を表示する。操作権限者用情報提示画像30は、監視権限者による監視結果を示す監視結果表示36を含む。
ステップS19において運転行動承認部57は、自車両がこれから行う予定の運転行動を操作権限者が承認したか否かを判定する。
In step S18, the display
In step S19, the driving
操作権限者が運転行動を承認した場合(ステップS19:Y)に処理はステップS20へ進む。操作権限者が運転行動を承認しない場合(ステップS19:N)に処理はステップS21へ進む。
ステップS20において運転行動承認部57は、運転行動を承認する承認信号を軌道生成部43へ出力する。これにより自動運転制御による自車両の走行を継続する。その後に処理はステップS22へ進む。
ステップS21にて運転行動承認部57は、否認信号を軌道生成部43へ出力する。これにより自車両はリスク最小運転を実行する。その後に処理はステップS22へ進む。
If the operating authority approves the driving action (step S19: Y), the process proceeds to step S20. If the operating authority does not approve the driving action (step S19: N), the process proceeds to step S21.
In step S<b>20 , the driving
In step S<b>21 , the driving
ステップS22において表示状態制御部56は、監視権限者用情報提示画像20に、操作権限者による運転行動の承認又は否認が完了したことを示す表示71を表示する。
ステップS23において、自車両のイグニッションスイッチ(IGN)がオフになったか否かを判定する。イグニッションスイッチがオフになっていない場合(ステップS23:N)に処理はステップS1へ戻る。イグニッションスイッチがオフになった場合(ステップS23:Y)に処理は終了する。
In step S<b>22 , the display
In step S23, it is determined whether or not the ignition switch (IGN) of the host vehicle has been turned off. If the ignition switch is not turned off (step S23: N), the process returns to step S1. If the ignition switch is turned off (step S23: Y), the process ends.
(実施形態の効果)
(1)コントローラ8は、自動運転車両の周囲の物体を所定の検出方向で検出する周囲環境センサ2の検出結果に基づいて自動運転車両の運転行動を決定する。コントローラ8は、周囲環境センサ2のいずれかが物体を検出できない状態の非検出状態センサであるか否かを判定する処理と、周囲環境センサ2のいずれかが非検出状態センサであると判定した場合は、非検出状態センサの所定の検出方向に応じて、自動運転車両の複数の乗員のいずれかに自動運転車両の周囲の物体を監視する監視権限を付与する処理と、監視権限が付与された乗員による監視結果に応じて、自動運転車両に運転行動を実行させる処理とを行う。
(Effect of Embodiment)
(1) The
これにより、周囲環境センサ2のいずれかが物体を検出できない非検出状態になっても、監視権限が付与された乗員(監視権限者)の監視結果に基づいて、残りのセンサの周囲環境情報に基づいて決定された運転行動が安全であるか否かを判断できる。このため、周囲環境センサ2のいずれかが物体を検出できない非検出状態になっても、自動運転制御による自車両の運転を継続できる。
As a result, even if one of the surrounding
(2)コントローラ8は、監視権限が付与された乗員(監視権限者)による運転行動の承認に応じて、自動運転車両に運転行動を実行させる処理を行う。
これにより、周囲環境センサ2のいずれかが物体を検出できない非検出状態になっても、監視権限が付与された乗員(監視権限者)の監視結果に基づいて、残りのセンサの周囲環境情報に基づいて決定された運転行動を承認できる。このため、周囲環境センサ2のいずれかが物体を検出できない非検出状態になっても、自動運転制御による自車両の運転を継続できる。
(2) The
As a result, even if one of the surrounding
(3)コントローラ8は、非検出状態センサの所定の検出方向及び運転行動に応じて、監視権限を付与する乗員を決定する処理を行う。これにより、非検出状態センサにより物体を検出すべきだった検出方向に関して行われる運転行動が安全か否かを判断できる。
(3) The
(4)コントローラ8は、非検出状態センサの所定の検出方向、運転行動、及び乗員が座る座席の位置に応じて、いずれの乗員に監視権限を付与するかを決定する処理を行う。これにより、非検出状態センサが物体を検出すべきだった検出方向を監視しやすい乗員に監視権限を付与することができる。
(4) The
(5)コントローラ8は、非検出状態センサの所定の検出方向、運転行動、及び乗員が座る座席の向きに応じて、いずれの乗員に監視権限を付与するかを決定する処理を行う。これにより、乗員が無理な姿勢をとらずに自然な姿勢で監視できるように監視権限者を決定できる。
(5) The
(6)コントローラ8は、乗員の属性に応じて監視権限を付与するかを決定する処理を行う。これにより監視に適する属性を有する乗員に監視権限を付与することができる。このため、交通ルールに基づいて走行することができる。
(7)コントローラ8は、乗員の状態に応じて監視権限を付与するかを決定する処理を行う。これにより監視に適する状態にある乗員に監視権限を付与することができる。このため、交通ルールに基づいて走行することができる。
(6) The
(7) The
(8)コントローラ8は、監視権限が付与された乗員(監視権限者)に非検出状態を知らせる処理を行う。これにより、監視権限者が、センサによる検出が十分でない領域を知ることができる。
(9)コントローラ8は、監視権限が付与された乗員(監視権限者)が障害物の有無を確認したことを指示する入力を受け付ける処理を行う。これにより、監視権限者が障害物の有無を確認したことを、自動運転車両に対する操作権限を有する乗員(操作権限者)に通知することが可能となる。
(8) The
(9) The
(10)コントローラ8は、自動運転車両に対する操作権限を有する乗員(操作権限者)に監視結果を通知する処理を行う。これにより操作権限者は、監視権限が付与された乗員による監視結果を知ることができる。
(11)コントローラ8は、操作権限を有する乗員が運転行動を承認したことを指示する入力を受け付ける処理を行う。これにより、監視権限者による監視結果を認識した操作権限者の承認に基づいて車両を走行させることができる。
(10) The
(11) The
(12)コントローラ8は、運転行動の前に、監視権限を有する乗員(監視権限者)に刺激を与える処理を行う。これにより、監視権限者に監視を促すことができる。
(13)コントローラ8は、監視権限が付与された複数の乗員(監視権限者)のうち、最も監視時間が長い乗員の監視結果に応じて、自動運転車両に運転行動を実行させる。これにより確認時間がより長くより確度の高い監視権限者の判断を優先することができる。
(12) The
(13) The
1…運転支援装置、2…周囲環境センサ、3…地図データベース、4…車両センサ、5…乗員センサ、6、6FL、6FR、6RL、6RR…ユーザインタフェース、7…ナビゲーションシステム、8…コントローラ、9…車両制御アクチュエータ、12…プロセッサ、13…記憶装置、20…監視権限者用情報提示画像、30…操作権限者用情報提示画像、33…乗員状態表示画像、40…立体物行動予測部、41…マップ生成部、42…運転行動計画生成部、43…軌道生成部、44…走行制御部、50…周囲環境判定部、51…乗員情報取得部、52…センサ状態判定部、53…乗員状態推定部、54…乗員属性判定部、55…権限管理部、56…表示状態制御部、57…運転行動承認部、58…警報生成部
REFERENCE SIGNS LIST 1
Claims (16)
コントローラが、
前記センサが前記物体を検出できない非検出状態であるか否かを判定する処理と、
前記センサが前記非検出状態であると判定した場合は、前記所定の検出方向に応じて前記自動運転車両の複数の乗員のいずれかを選択し、選択した前記乗員に前記自動運転車両の周囲の物体を監視する監視権限を付与する処理と、
前記監視権限が付与された乗員による監視結果に応じて、前記自動運転車両に前記運転行動を実行させる処理と、
を行うことを特徴とする運転支援方法。 A driving support method for determining the driving behavior of the automatically driving vehicle based on the detection result of a sensor that detects objects around the automatically driving vehicle in a predetermined detection direction,
the controller
a process of determining whether the sensor is in a non-detection state in which the object cannot be detected;
When it is determined that the sensor is in the non-detection state, one of a plurality of occupants of the autonomous vehicle is selected according to the predetermined detection direction , and the selected occupant is instructed to a process of granting monitoring authority to monitor the object of
A process of causing the automatically driven vehicle to perform the driving behavior according to the result of monitoring by the crew member to whom the monitoring authority is granted;
A driving support method characterized by performing
コントローラが、
前記センサが前記物体を検出できない非検出状態であるか否かを判定する処理と、
前記センサが前記非検出状態であると判定した場合は、前記所定の検出方向及び前記運転行動に応じて、前記自動運転車両の複数の乗員のうちどの乗員に前記自動運転車両の周囲の物体を監視する監視権限を付与するかを決定する処理と、
前記監視権限が付与された乗員による監視結果に応じて、前記自動運転車両に前記運転行動を実行させる処理と、
を行うことを特徴とする運転支援方法。 A driving support method for determining the driving behavior of the automatically driving vehicle based on the detection result of a sensor that detects objects around the automatically driving vehicle in a predetermined detection direction,
the controller
a process of determining whether the sensor is in a non-detection state in which the object cannot be detected;
When it is determined that the sensor is in the non-detection state, according to the predetermined detection direction and the driving behavior, which of the plurality of occupants of the automatically driven vehicle should be hit by an object around the automatically driven vehicle. a process of determining whether to grant monitoring authority to monitor ;
A process of causing the automatically driven vehicle to perform the driving behavior according to the result of monitoring by the crew member to whom the monitoring authority is granted;
A driving support method characterized by performing
コントローラが、
前記センサが前記物体を検出できない非検出状態であるか否かを判定する処理と、
前記センサが前記非検出状態であると判定した場合は、前記所定の検出方向に応じて、前記自動運転車両の複数の乗員のいずれかに前記自動運転車両の周囲の物体を監視する監視権限を付与する処理と、
前記監視権限が付与された複数の乗員のうち、最も監視時間が長い乗員の監視結果に応じて、前記自動運転車両に前記運転行動を実行させる処理と、
を行うことを特徴とする運転支援方法。 A driving support method for determining the driving behavior of the automatically driving vehicle based on the detection result of a sensor that detects objects around the automatically driving vehicle in a predetermined detection direction,
the controller
a process of determining whether the sensor is in a non-detection state in which the object cannot be detected;
When it is determined that the sensor is in the non-detection state, according to the predetermined detection direction, one of the plurality of occupants of the autonomous vehicle is authorized to monitor objects around the autonomous vehicle. a process to give;
A process of causing the automated driving vehicle to perform the driving behavior according to the monitoring result of the crew member with the longest monitoring time among the plurality of crew members to whom the monitoring authority is granted;
A driving support method characterized by performing
前記センサが前記物体を検出できない非検出状態であるか否かを判定し、前記センサが前記非検出状態であると判定した場合は、前記所定の検出方向に応じて前記自動運転車両の複数の乗員のいずれかを選択し、選択した前記乗員に前記自動運転車両の周囲の物体を監視する監視権限を付与し、前記監視権限が付与された乗員による監視結果に応じて、前記自動運転車両に前記運転行動を実行させるコントローラを備えることを特徴とする運転支援装置。 A driving support device that determines the driving behavior of the automatically driving vehicle based on the detection result of a sensor that detects objects around the automatically driving vehicle in a predetermined detection direction,
It is determined whether or not the sensor is in a non-detection state in which the object cannot be detected, and if it is determined that the sensor is in the non-detection state, a plurality of automatically driven vehicles are detected in accordance with the predetermined detection direction. select one of the occupants, give the selected occupant a monitoring authority to monitor objects around the automated driving vehicle, and according to the results of monitoring by the occupant to whom the monitoring authority is granted, the automated driving vehicle and a controller that causes the driver to execute the driving behavior.
前記センサが前記物体を検出できない非検出状態であるか否かを判定し、前記センサが前記非検出状態であると判定した場合は、前記所定の検出方向及び前記運転行動に応じて、前記自動運転車両の複数の乗員のうちどの乗員に前記自動運転車両の周囲の物体を監視する監視権限を付与するかを決定し、前記監視権限が付与された乗員による監視結果に応じて、前記自動運転車両に前記運転行動を実行させるコントローラを備えることを特徴とする運転支援装置。It is determined whether or not the sensor is in a non-detection state in which the object cannot be detected, and if the sensor determines that the sensor is in the non-detection state, the automatic detection is performed according to the predetermined detection direction and the driving behavior. Determine which of a plurality of occupants of the driving vehicle is to be given the authority to monitor objects around the automatically driven vehicle, and according to the results of monitoring by the occupant to whom the authority to monitor is granted, the automatic driving A driving support device comprising a controller that causes a vehicle to execute the driving behavior.
前記センサが前記物体を検出できない非検出状態であるか否かを判定し、前記センサが前記非検出状態であると判定した場合は、前記所定の検出方向に応じて、前記自動運転車両の複数の乗員のいずれかに前記自動運転車両の周囲の物体を監視する監視権限を付与し、前記監視権限が付与された複数の乗員のうち、最も監視時間が長い乗員の監視結果に応じて、前記自動運転車両に前記運転行動を実行させるコントローラを備えることを特徴とする運転支援装置。It is determined whether the sensor is in a non-detection state in which the object cannot be detected, and if it is determined that the sensor is in the non-detection state, a plurality of the automatically driven vehicles are detected in accordance with the predetermined detection direction. to any of the occupants of the automatic driving vehicle, and according to the monitoring result of the occupant with the longest monitoring time among the plurality of occupants to whom the monitoring authority has been granted, A driving support device comprising a controller that causes an automatically driven vehicle to execute the driving action.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019058005A JP7236897B2 (en) | 2019-03-26 | 2019-03-26 | Driving support method and driving support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019058005A JP7236897B2 (en) | 2019-03-26 | 2019-03-26 | Driving support method and driving support device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020157871A JP2020157871A (en) | 2020-10-01 |
JP7236897B2 true JP7236897B2 (en) | 2023-03-10 |
Family
ID=72641400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019058005A Active JP7236897B2 (en) | 2019-03-26 | 2019-03-26 | Driving support method and driving support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7236897B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017024653A (en) | 2015-07-27 | 2017-02-02 | トヨタ自動車株式会社 | Occupant information acquisition device and vehicle control system |
JP2017132285A (en) | 2016-01-25 | 2017-08-03 | 日立オートモティブシステムズ株式会社 | Vehicle traveling control system and vehicle traveling control method |
WO2017187622A1 (en) | 2016-04-28 | 2017-11-02 | 本田技研工業株式会社 | Vehicle control system, vehicle control method, and vehicle control program |
JP2017214036A (en) | 2016-06-02 | 2017-12-07 | 本田技研工業株式会社 | Vehicle control system, vehicle control method, and vehicle control program |
-
2019
- 2019-03-26 JP JP2019058005A patent/JP7236897B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017024653A (en) | 2015-07-27 | 2017-02-02 | トヨタ自動車株式会社 | Occupant information acquisition device and vehicle control system |
JP2017132285A (en) | 2016-01-25 | 2017-08-03 | 日立オートモティブシステムズ株式会社 | Vehicle traveling control system and vehicle traveling control method |
WO2017187622A1 (en) | 2016-04-28 | 2017-11-02 | 本田技研工業株式会社 | Vehicle control system, vehicle control method, and vehicle control program |
JP2017214036A (en) | 2016-06-02 | 2017-12-07 | 本田技研工業株式会社 | Vehicle control system, vehicle control method, and vehicle control program |
Also Published As
Publication number | Publication date |
---|---|
JP2020157871A (en) | 2020-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110641472B (en) | Safety monitoring system for autonomous vehicle based on neural network | |
US11472291B2 (en) | Graphical user interface for display of autonomous vehicle behaviors | |
KR102569789B1 (en) | Graphical user interface for display of autonomous vehicle behaviors | |
CN106415693B (en) | Vehicle cognitive notification device and vehicle cognitive notification system | |
CN110023168B (en) | Vehicle control system, vehicle control method, and vehicle control program | |
US11900812B2 (en) | Vehicle control device | |
WO2018189952A1 (en) | Autonomous vehicle, autonomous vehicle stopping method, and program | |
WO2020213280A1 (en) | Information processing device, mobile device, method, and program | |
KR20210019499A (en) | Use of passenger attention data captured from vehicles for localization and location-based services | |
CN109841088A (en) | Vehicle drive assist system and method | |
JP7267796B2 (en) | Route presentation method and route presentation device | |
JP7200970B2 (en) | vehicle controller | |
JP2020163931A (en) | Display device for vehicle | |
US20240336266A1 (en) | Driving assistance device, driving assistance method, and storage medium | |
JP7233299B2 (en) | Driving behavior control method and driving behavior control device | |
JP7276112B2 (en) | Lane change decision device | |
JP7147858B2 (en) | VEHICLE TRIP CONTROL METHOD AND TRIP CONTROL DEVICE | |
JP7333186B2 (en) | Driving support method and driving support device | |
JP7236897B2 (en) | Driving support method and driving support device | |
CN114207685B (en) | Autonomous vehicle interaction system | |
JP7302311B2 (en) | Vehicle display control device, vehicle display control method, vehicle display control program | |
JP7482613B2 (en) | Intersection passage determination method and intersection passage determination device | |
JP2021028587A (en) | In-vehicle display control device | |
US20230391370A1 (en) | Vehicle control device, storage medium for storing computer program for vehicle control, and method for controlling vehicle | |
JP2024011906A (en) | Driving support method and driving support device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221007 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7236897 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |