JP6932269B1 - 運転支援制御装置及び運転支援制御方法 - Google Patents

運転支援制御装置及び運転支援制御方法 Download PDF

Info

Publication number
JP6932269B1
JP6932269B1 JP2020540365A JP2020540365A JP6932269B1 JP 6932269 B1 JP6932269 B1 JP 6932269B1 JP 2020540365 A JP2020540365 A JP 2020540365A JP 2020540365 A JP2020540365 A JP 2020540365A JP 6932269 B1 JP6932269 B1 JP 6932269B1
Authority
JP
Japan
Prior art keywords
unit
threat
driving support
vehicle
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020540365A
Other languages
English (en)
Other versions
JPWO2021166206A1 (ja
Inventor
友哉 澤田
友哉 澤田
賢 福地
賢 福地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2021166206A1 publication Critical patent/JPWO2021166206A1/ja
Application granted granted Critical
Publication of JP6932269B1 publication Critical patent/JP6932269B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

運転支援制御装置(100)は、車内撮像用の第1カメラ(2)による第1撮像画像を用いて、車両(1)における運転者の状態を検知する第1推論部(21)と、車外撮像用の第2カメラ(3)による第2撮像画像を用いて、車両(1)に対する周囲における脅威を検知する第2推論部(22)と、運転者の状態に応じて、脅威に対する通知の態様を設定する処理を実行する通知制御部(23)と、通知が出力されたときの運転者の状態に応じて通知制御部(23)の学習をすることにより、通知の態様を設定する処理を運転者に適合させる適合部(24)と、を備える。

Description

本開示は、運転支援制御装置及び運転支援制御方法に関する。
従来、車両用のDMS(Driver Monitoring System)が開発されている。また、車両用のCMS(Camera Monitoring System)が開発されている。以下、CMSを「電子ミラー」ということがある。
特開2018−185673号公報
従来、車内撮像用のカメラにより撮像された画像を用いて、運転者の状態を検知する技術が開発されている。また、車外撮像用のカメラにより撮像された画像を用いて、車両の周囲における物体等を検知する技術が開発されている。また、これらの検知結果に応じて、運転者に対する通知を出力する技術が開発されている(例えば、特許文献1参照。)。
かかる通知は、運転者毎に好適な態様が異なり得るものである。したがって、かかる通知の態様は、個々の運転者に適合するように設定されるのが好適である。しかしながら、従来技術においては、かかる通知の態様を個々の運転者に適合させるための構成が設けられていない。このため、従来技術においては、個々の運転者に適合した態様による通知を実現することが困難であるという問題があった。
本開示は、上記のような課題を解決するためになされたものであり、個々の運転者に適合した態様による通知を実現することを目的とする。
本開示に係る運転支援制御装置は、車内撮像用の第1カメラによる第1撮像画像を用いて、車両における運転者の状態を検知する第1推論部と、車外撮像用の第2カメラによる第2撮像画像を用いて、前記車両に対する周囲における脅威を検知する第2推論部と、前記運転者の状態に応じて、前記脅威に対する通知の態様を設定する処理を実行する通知制御部と、を備える。
前記第2推論部は、前記第2撮像画像における特徴量を抽出する特徴量抽出部と、前記特徴量を用いて物体認識を含む画像認識を実行する画像認識部と、前記画像認識の結果に基づき前記脅威を検知する脅威検知部と、を有し、前記脅威が生じたときに、前記運転者の注意が向けられている領域を示す顕著性マップM1と、前記脅威検知部による検知結果を示す情報の入力に対して前記顕著性マップM1に対応するリスクマップM2と、前記運転者が注意を向けるべき領域を示すアテンションマップM3と、を生成する。
本開示に係る運転支援制御装置は、前記顕著性マップM1と前記リスクマップM2と前記アテンションマップM3における位置及び前記脅威検知部による個々の物体に対応する脅威レベルを含む情報と、前記通知が出力されたときの前記運転者の状態に応じて前記通知制御部の機械学習をする適合部を、上記構成とともに備えるものである。
本開示によれば、上記のように構成したので、個々の運転者に適合した態様による通知を実現することができる。
実施の形態1に係る運転支援制御装置の要部を示すブロック図である。 実施の形態1に係る運転支援制御装置における第1推論部の要部を示すブロック図である。 実施の形態1に係る運転支援制御装置における第2推論部の要部を示すブロック図である。 実施の形態1に係る運転支援制御装置における第2推論部のうちの画像認識部及び脅威検知部の要部を示すブロック図である。 実施の形態1に係る運転支援制御装置における通知制御部の要部を示すブロック図である。 グラフの例を示す説明図である。 リスクマップの例を示す説明図である。 顕著性マップの例を示す説明図である。 アテンションマップの例を示す説明図である。 実施の形態1に係る運転支援制御装置の要部のハードウェア構成を示すブロック図である。 実施の形態1に係る運転支援制御装置の要部の他のハードウェア構成を示すブロック図である。 実施の形態1に係る運転支援制御装置の要部の他のハードウェア構成を示すブロック図である。 実施の形態1に係る運転支援制御装置の動作を示すフローチャートである。 実施の形態1に係る運転支援制御装置の動作を示すフローチャートである。 実施の形態1に係る運転支援制御装置の動作を示すフローチャートである。 実施の形態1に係る運転支援制御装置の要部のシステム構成を示すブロック図である。 実施の形態1に係る運転支援制御装置の要部の他のシステム構成を示すブロック図である。 実施の形態1に係る運転支援制御装置の要部の他のシステム構成を示すブロック図である。 実施の形態1に係る運転支援制御装置の要部の他のシステム構成を示すブロック図である。 実施の形態1に係る運転支援制御装置の要部の他のシステム構成を示すブロック図である。 実施の形態1に係る運転支援制御装置の要部の他のシステム構成を示すブロック図である。 実施の形態1に係る運転支援制御装置の要部の他のシステム構成を示すブロック図である。 実施の形態1に係る運転支援制御装置の要部の他のシステム構成を示すブロック図である。 実施の形態1に係る運転支援制御装置の要部の他のシステム構成を示すブロック図である。 実施の形態1に係る他の運転支援制御装置の要部を示すブロック図である。
以下、この開示をより詳細に説明するために、この開示を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る運転支援制御装置の要部を示すブロック図である。図2は、実施の形態1に係る運転支援制御装置における第1推論部の要部を示すブロック図である。図3は、実施の形態1に係る運転支援制御装置における第2推論部の要部を示すブロック図である。図4は、実施の形態1に係る運転支援制御装置における第2推論部のうちの画像認識部及び脅威検知部の要部を示すブロック図である。図5は、実施の形態1に係る運転支援制御装置における通知制御部の要部を示すブロック図である。図1〜図5を参照して、実施の形態1に係る運転支援制御装置について説明する。
図1に示す如く、車両1は、第1カメラ2、第2カメラ3、センサ類4及び出力装置5を有してる。
第1カメラ2は、車内撮像用のカメラである。すなわち、第1カメラ2は、車両1の車室内前方部に設けられており、かつ、車両1の車室内を撮像するものである。第1カメラ2は、動画撮像用のカメラにより構成されており、かつ、赤外線カメラにより構成されている。以下、第1カメラ2により撮像される動画を構成する個々の静止画を「第1撮像画像」ということがある。車両1の運転席に運転者が着座しているとき、第1撮像画像は、運転者の顔を含み得るものである。
第2カメラ3は、車外撮像用のカメラである。具体的には、例えば、第2カメラ3は、電子ミラー用のカメラである。すなわち、第2カメラ3は、車両1の側部に設けられており、かつ、車両1に対する後方を撮像するものである。第2カメラ3は、動画撮像用のカメラにより構成されており、かつ、可視光カメラにより構成されている。以下、第2カメラ3により撮像される動画を構成する個々の静止画を「第2撮像画像」ということがある。車両1に対する後方に物体(例えば他車両)が存在するとき、第2撮像画像は、かかる物体を含み得るものである。
なお、第1カメラ2は、赤外線カメラに代えて可視光カメラにより構成されているものであっても良い。また、第2カメラ3は、可視光カメラに代えて赤外線カメラにより構成されているものであっても良い。
センサ類4は、車両1の状態を検出するものである。センサ類4は、複数種類のセンサを含むものである。具体的には、例えば、センサ類4は、車両1の走行速度を検出するセンサ、車両1における操舵角を検出するセンサ、車両1におけるスロットル開度を検出するセンサ、車両1におけるシフトポジションを検出するセンサ、車両1におけるアクセルペダルの操作量を検出するセンサ、及び車両1におけるブレーキペダルの操作量を検出するセンサを含むものである。
出力装置5は、光源11、ディスプレイ12、スピーカ13及び触覚デバイス14のうちの少なくとも一つを含むものである。以下、出力装置5が光源11、ディスプレイ12、スピーカ13及び触覚デバイス14のうちの全てを含む場合の例を中心に説明する。
光源11は、例えば、LED(Light Emitting Diode)により構成されており、かつ、車両1のダッシュボードに設けられている。ディスプレイ12は、例えば、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイにより構成されており、かつ、車両1のダッシュボードに設けられている。スピーカ13は、例えば、車両1のダッシュボードに設けられている。触覚デバイス14は、例えば、バイブレータにより構成されており、かつ、車両1の運転席又は車両1のハンドルに設けられている。
なお、ディスプレイ12は、電子ミラー用のディスプレイを含むものであっても良い。すなわち、第2カメラ3及びディスプレイ12により電子ミラーの要部が構成されているものであっても良い。また、ディスプレイ12は、ヘッドアップディスプレイを含むものであっても良い。
図1に示す如く、車両1は、運転支援制御装置100を有している。運転支援制御装置100は、第1推論部21、第2推論部22、通知制御部23及び適合部24を有している。以下、第1推論部21、第2推論部22、通知制御部23及び適合部24の各々について説明する。
図2に示す如く、第1推論部21は、画像データ取得部31、特徴量抽出部32及び状態検知部33を有している。
画像データ取得部31は、第1撮像画像を示す画像データ(以下「第1画像データ」ということがある。)を取得するものである。特徴量抽出部32は、当該取得された第1画像データを用いて、第1撮像画像における特徴量を抽出するものである。状態検知部33は、当該抽出された特徴量を用いて、車両1における運転者の状態を検知するものである。すなわち、特徴量抽出部32により抽出される特徴量は、運転者の状態を検知するための特徴量を含むものである。
具体的には、例えば、状態検知部33は、顔検出(Face Detection)、顔パーツ検出(Facial Parts Detection)、顔向き推定(Face Direction Estimation)、頭部位置推定(Head Position Estimation)、開眼度算出(Degree of Eye Opening Prediction)、開口度算出(Degree of Mouth Opening Prediction)、視線追跡(Eye Tracking)、視線推定(Eye Position Esitimation)及びハンドジェスチャー認識(Hand Gesture Recognition)のうちの少なくとも一つを実行するものである。また、例えば、状態検知部33は、脇見検知、眠気検知、人物認識、物体認識、動き認識、行動認識及び非接触脈拍推定のうちの少なくとも一つを実行するものである。
以下、状態検知部33が顔検出、顔パーツ検出及び視線推定を実行する場合の例を中心に説明する。すなわち、状態検知部33が運転者の視線方向を検知する場合の例を中心に説明する。
ここで、第1推論部21は、機械学習により学習自在なものであっても良い。より具体的には、特徴量抽出部32及び状態検知部33が機械学習により学習自在なものであっても良い。以下、第1推論部21が機械学習により学習自在なものである場合の例を中心に説明する。
例えば、特徴量抽出部32は、教師あり学習により学習自在なニューラルネットワークであって、上記のような機能を実現するように学習されたニューラルネットワークを用いるものであっても良い。かかるニューラルネットワークは、深層学習により学習自在な畳み込みニューラルネットワーク(以下「CNN」と記載することがある。)を含むものであっても良い。なお、特徴量抽出部32は、教師あり学習により学習自在なニューラルネットワークに代えて、教師なし学習により学習自在なニューラルネットワークを用いるものであっても良い。
また、例えば、状態検知部33は、教師あり学習により学習自在なニューラルネットワークであって、上記のような機能を実現するように学習されたニューラルネットワークを用いるものであっても良い。かかるニューラルネットワークは、深層学習により学習自在なCNNを含むものであっても良い。なお、状態検知部33は、教師あり学習により学習自在なニューラルネットワークに代えて、教師なし学習により学習自在なニューラルネットワークを用いるものであっても良い。
かかる機械学習を用いることにより、いわゆる「ルールベース」を用いる場合に比して、運転者の状態を高精度に検知することができる。すなわち、DMSに係る検知精度の向上を図ることができる。
特徴量抽出部32による特徴量の抽出及び状態検知部33による状態の検知には、公知の種々の技術を用いることができる。すなわち、DMSに係る公知の種々の技術を用いることができる。また、画像認識(Computer Vision)に係る公知の種々の技術を用いることができる。また、教師あり学習、教師なし学習又は深層学習に係る公知の種々の技術を用いることができる。これらの技術についての詳細な説明は省略する。
例えば、特徴量抽出部32による特徴量の抽出及び状態検知部33による状態の検知には、以下の参考文献1に記載された技術が用いられるものであっても良い。また、例えば、以下の参考文献2に記載された技術が用いられるものであっても良い。
[参考文献1]
Marks, T., Kumar, A., Mou, W., Feng, C., Liu, X., "UGLLI Face Alignment: Estimating Uncertainty with Gaussian Log-Likelihood Loss," IEEE International Conference on Computer Vision (ICCV) Workshop on Statistical Deep Learning for Computer Vision (SDL-CV), October 2019.
[参考文献2]
米国特許第9633250号明細書
図3に示す如く、第2推論部22は、画像データ取得部41、特徴量抽出部42、画像認識部43、脅威検知部44及び車両情報取得部45を有している。
画像データ取得部41は、第2撮像画像を示す画像データ(以下「第2画像データ」ということがある。)を取得するものである。特徴量抽出部42は、当該取得された第2画像データを用いて、第2撮像画像における特徴量を抽出するものである。これにより、特徴量抽出部42は、第2撮像画像に対応する特徴マップを生成するものである。画像認識部43は、当該生成された特徴マップを用いて、物体認識(Object Recognition)を含む画像認識を実行するものである。
すなわち、図4に示す如く、画像認識部43は、走行シーン推定部51、物体認識部52、距離推定部53及び物体追跡部54を有している。
走行シーン推定部51は、上記生成された特徴マップを用いて、シーン判別又はコンテキスト分類を実行するものである。これにより、走行シーン推定部51は、車両1が走行しているシーン(以下「走行シーン」という。)を推定するものである。
物体認識部52は、上記生成された特徴マップを用いて、物体認識を実行するものである。具体的には、例えば、物体認識部52は、上記生成された特徴マップを用いて、物体検出(Object Detection)を実行するものである。すなわち、特徴量抽出部42により抽出される特徴量は、物体検出に対応した高レベル特徴(High−level Feature)を含むものである。
物体検出は、第2撮像画像に含まれる個々の物体について、回帰(Regression)により位置を推定するとともに、分類(Classify)により種別を推定するものである。物体検出により、第2撮像画像に含まれる個々の物体について、位置及び大きさに対応する座標(x,y,w,h)に対応するバウンディングボックスを示す情報、並びに属性に対応するラベルを示す情報などが出力される。
距離推定部53は、物体認識部52による物体検出の結果を用いて、第2撮像画像に含まれる個々の物体について、第2カメラ3に対する距離を推定するものである。例えば、距離とバウンディングボックスの縦方向のピクセル数との対応関係を示すテーブル又は関数が属性毎に用意されている。距離推定部53は、かかるテーブル又は関数を用いて、個々のバウンディングボックスの縦方向のピクセル数に基づき距離を推定する。図6は、かかるテーブル又は関数に対応するグラフの例を示している。
なお、物体認識部52による物体認識は、物体検出に代えて又は加えて、領域分割(Scene Segmentation)を含むものであっても良い。領域分割は、第2撮像画像を個々の属性に対応する領域に分割するものである。領域分割により、第2撮像画像がピクセル単位にて複数個の領域に分割される。領域分割により、個々の領域の面積を示す情報、及び個々の領域に対応する属性を示す情報などが出力される。以下、物体認識部52が物体検出を実行する場合の例を中心に説明する。
物体追跡部54は、物体認識部52による物体認識の結果を時系列的に用いることにより、第2撮像画像に含まれる個々の物体に対するトラッキングを実行するものである。これにより、個々の物体について、第2カメラ3により撮像される動画における見かけの形状の変化による認識精度の低下を抑制することができる。
すなわち、例えば、ある物体が移動することにより、第2カメラ3により撮像される動画において、当該物体の見かけの形状が時間的に変化することがある。このとき、あるタイミングにおける第2撮像画像においては当該物体の見かけの形状が学習済みの形状となり、他のタイミングにおける第2撮像画像においては当該物体の形状が未学習の形状となることがある。そして、後者のタイミングにおける物体認識により当該物体が認識されないことにより、当該物体の認識が時間的に不安定になることがある。
これに対して、当該物体に対するトラッキングを実行することにより、後者のタイミングにおいても当該物体を認識することができる。これにより、当該物体の認識を時間的に安定させることができる。この結果、当該物体の認識精度を更に向上することができる。
物体追跡部54によるトラッキングは、例えば、以下のようなものである。すなわち、物体追跡部54は、第Nのフレーム(Nは任意の整数である。)に対応する第2撮像画像に対する物体検出の結果に基づき、個々の物体に対応する属性、個々の物体に対応する座標、及び個々の小領域における背景に対する前景の母集団比率について、KLD(Kullback−Leibler Divergence)等の距離に基づく損失(Tracking−loss)による回帰を実行する。これにより、物体追跡部54は、第N+1のフレームに対応する第2撮像画像における各物体の位置及び大きさを予測する。
次いで、物体追跡部54は、かかる予測の結果と第N+1のフレームに対応する第2撮像画像に対する物体検出の結果とを比較することにより、第Nのフレームに対応する第2撮像画像に対する物体検出により検出されており、かつ、第N+1のフレームに対応する第2撮像画像に対する物体検出により検出されていない物体を検出する。これにより、第N+1のフレームに対応する第2撮像画像に含まれているにもかかわらず物体検出により検出されなかった物体について、継続的に検出することができる。
このほか、物体追跡部54によるトラッキングには、公知の種々の技術を用いることができる。これらの技術についての詳細な説明は省略する。
なお、画像認識部43による画像認識は、これらの具体例に限定されるものではない。例えば、画像認識部43は、第2撮画像に含まれる個々の物体について、属性、大きさ、距離、領域及び特徴空間のうちの少なくとも一つを推定するものであっても良い。
脅威検知部44は、画像認識部43による画像認識の結果に基づき、車両1に対する周囲における脅威を検知するものである。より具体的には、脅威検知部44は、車両1に対する後方における脅威を検知するものである。
すなわち、図4に示す如く、脅威検知部44は、脅威レベル設定部61及び脅威レベル補正部62を有している。
脅威レベル設定部61は、画像認識部43による画像認識の結果に基づき、第2撮像画像に含まれる個々の物体に対応する脅威レベルを設定するものである。具体的には、例えば、脅威レベル設定部61は、以下のようにして脅威レベルを設定する。
第一に、脅威レベル設定部61は、距離推定部53により推定された距離に応じて脅威レベルを設定する。すなわち、脅威レベル設定部61は、個々の物体について、当該推定された距離が小さいときは、当該推定された距離が大きいときに比して脅威レベルを高くする。
第二に、脅威レベル設定部61は、物体追跡部54によるトラッキングの結果を用いて、車両1に対する個々の物体の相対速度を推定するとともに、個々の物体が車両1に接近中であるか否かを推定する。脅威レベル設定部61は、車両1に接近中の物体に対応する脅威レベルを、そうでない物体に対応する脅威レベルに比して高くする。また、脅威レベル設定部61は、車両1に接近中の個々の物体について、上記推定された相対速度が高いときは、上記推定された相対速度が低いときに比して脅威レベルを高くする。
そのほか、脅威レベル設定部61は、物体認識部52による物体認識の結果に基づき、個々の物体に対応する属性に応じて脅威レベルを設定するものであっても良い。また、脅威レベル設定部61は、物体認識部52による物体認識の結果に基づき車両1に対する個々の物体の相対位置を推定して、当該推定された相対位置に応じて脅威レベルを設定するものであっても良い。また、例えば、脅威レベル設定部61は、走行シーン推定部51により推定された走行シーンに応じて脅威レベルを設定するものであっても良い。
車両情報取得部45は、センサ類4を用いて、車両1の状態を示す情報(以下「車両情報」という。)を取得するものである。車両情報は、例えば、車両1の走行速度を示す情報、車両1における操舵角を示す情報、車両1におけるスロットル開度を示す情報、車両1におけるシフトポジションを示す情報、車両1におけるアクセルペダルの操作量を示す情報、及び車両1におけるブレーキペダルの操作量を示す情報を含むものである。
脅威レベル補正部62は、車両情報取得部45により取得された車両情報を用いて、脅威レベル設定部61により設定された脅威レベルを補正するものである。
例えば、車両情報に基づき、車両1が左折しようとしている状態であるものとする。この場合、脅威レベル補正部62により、車両1に対する左後方に存在する物体に対応する脅威レベルを上げるように補正がなされる。他方、車両情報に基づき、車両1が右折しようとしている状態であるものとする。この場合、脅威レベル補正部62により、車両1に対する右後方に存在する物体に対応する脅威レベルを上げるように補正がなされる。
このようにして、車両1に対する周囲における脅威が検知される。より具体的には、車両1に対する後方における脅威が検知される。
ここで、第2推論部22は、機械学習により学習自在なものであっても良い。より具体的には、特徴量抽出部42、画像認識部43及び脅威検知部44が機械学習により学習自在なものであっても良い。以下、第2推論部22が機械学習により学習自在なものである場合の例を中心に説明する。
例えば、特徴量抽出部42は、教師あり学習により学習自在なニューラルネットワークであって、上記のような機能を実現するように学習されたニューラルネットワークを用いるものであっても良い。かかるニューラルネットワークは、深層学習により学習自在なCNNを含むものであっても良い。なお、特徴量抽出部42は、教師あり学習により学習自在なニューラルネットワークに代えて、教師なし学習により学習自在なニューラルネットワークを用いるものであっても良い。
また、例えば、画像認識部43のうちの物体認識部52は、教師あり学習により学習自在なニューラルネットワークであって、上記のような機能を実現するように学習されたニューラルネットワークを用いるものであっても良い。かかるニューラルネットワークは、深層学習により学習自在なCNNを含むものであっても良い。なお、物体認識部52は、教師あり学習により学習自在なニューラルネットワークに代えて、教師なし学習により学習自在なニューラルネットワークを用いるものであっても良い。
また、例えば、脅威検知部44は、教師あり学習により学習自在なニューラルネットワークであって、上記のような機能を実現するように学習されたニューラルネットワークを用いるものであっても良い。かかるニューラルネットワークは、深層学習により学習自在なCNNを含むものであっても良い。なお、脅威検知部44は、教師あり学習により学習自在なニューラルネットワークに代えて、教師なし学習により学習自在なニューラルネットワークを用いるものであっても良い。
かかる機械学習を用いることにより、ルールベースを用いる場合に比して、高精度な画像認識を実現することができる。また、脅威を高精度に検知することができる。すなわち、CMSに係る検知精度の向上を図ることができる。
特徴量抽出部42による特徴量の抽出、画像認識部43による画像認識、及び脅威検知部44による脅威の検知には、公知の種々の技術を用いることができる。すなわち、CMSに係る公知の種々の技術を用いることができる。また、画像認識に係る公知の種々の技術を用いることができる。また、教師あり学習、教師なし学習又は深層学習に係る公知の種々の技術を用いることができる。これらの技術についての詳細な説明は省略する。
なお、特徴量抽出部42による特徴量の抽出及び物体認識部52による物体検出は、以下のような技術を用いるものであっても良い。
まず、特徴量抽出部42は、第2画像データを用いて物体らしさ(Objectness)に対応する中レベル特徴(Mid−level Feature)を抽出することにより、個々の第2撮像画像に対応する1個の特徴マップ(以下「第1特徴マップ」という。)を生成する。具体的には、例えば、特徴量抽出部42は、以下の参考文献3に記載された方法と同様の方法により、物体らしさに対応する顕著性マップ(Saliency Map)を生成する。すなわち、第1特徴マップは、CNNを用いることなく生成される。第1特徴マップは、互いに直行する2方向に配列された複数個の特徴量(以下「第1特徴量」という。)により構成されている。
[参考文献3]
国際公開第2018/051459号
また、特徴量抽出部42は、第2画像データを用いて高レベル特徴を抽出することにより、個々の第2撮像画像に対応する複数個の特徴マップ(以下「第2特徴マップ」という。)を生成する。複数個の第2特徴マップは、例えば、CNNにより順次生成される。個々の第2特徴マップは、互いに直行する2方向に配列された複数個の特徴量(以下「第2特徴量」という。)により構成されている。
次いで、特徴量抽出部42は、以下のようにして、個々の第2撮像画像に対応する複数個の特徴マップ(以下「第3特徴マップ」という。)を生成する。
すなわち、特徴量抽出部42は、第1特徴マップにおける個々の第1特徴量を用いて、個々の第2特徴マップにおける対応する第2特徴量に対する重み付けをする。かかる重み付けにより、個々の第2特徴マップにおける個々の第2特徴量が対応する物体らしさに応じて補強される。このようにして、複数個の第2特徴マップに対応する複数個の第3特徴マップが生成される。すなわち、個々の第3特徴マップにおける個々の特徴量は、かかる補強がなされた特徴量によるものである。
または、特徴量抽出部42は、第1特徴マップにおける個々の第1特徴量と個々の第2特徴マップにおける対応する第2特徴量とについて、要素毎(Element−wise)の掛け算を実行することにより内積(Inner Product)を演算する。かかる演算により、個々の第2特徴マップにおける個々の第2特徴量が対応する物体らしさに応じて補強される。このようにして、複数個の第2特徴マップに対応する複数個の第3特徴マップが生成される。すなわち、個々の第3特徴マップにおける個々の特徴量は、かかる補強がなされた特徴量によるものである。
次いで、物体認識部52は、いわゆる「マルチスケール」に対応した方法による物体検出を実行する。具体的には、例えば、物体認識部52は、SSD(Single Shot MultiBox Detector)による物体検出を実行する。SSDについては、以下の参考文献4に記載されている。
[参考文献4]
Wei Liu, Dragomir Anguelov, Dumitru Erhan, Christian Szegedy, Scott Reed, Cheng-Yang Fu, Alexander C. Berg, "SSD: Single Shot MultiBox Detector," v5, 29 Dec 2016, https://arxiv.org/pdf/1512.02325v5.pdf
かかる技術を用いることにより、公知の機械学習を用いる場合に比して、更に高精度な物体検出を実現することができる。特に、小さい物体に対する検出精度を向上することができる。この結果、脅威を更に高精度に検知することができる。
図5に示す如く、通知制御部23は、態様設定部71、出力制御部72及び整合部73を有している。態様設定部71は、要否設定部81を有している。また、態様設定部71は、手段設定部82、タイミング設定部83、レベル設定部84及び内容設定部85のうちの少なくとも一つを有している。以下、態様設定部71が手段設定部82、タイミング設定部83、レベル設定部84及び内容設定部85のうちの全てを有している場合の例を中心に説明する。
態様設定部71は、状態検知部33により検知された運転者の状態に応じて、脅威検知部44により検知された脅威に対する通知の態様を設定するものである。ここで、「態様」とは、要否、手段、タイミング、レベル及び内容などを含むものである。
より具体的には、要否設定部81は、かかる通知の要否を設定するものである。
また、手段設定部82は、要否設定部81により通知「要」に設定されたとき、かかる通知の出力に用いられる手段を設定するものである。すなわち、手段設定部82は、複数種類の手段(例えば光源11、ディスプレイ12、スピーカ13及び触覚デバイス14)のうちの少なくとも1種類の手段を選択するものである。
また、タイミング設定部83は、要否設定部81により通知「要」に設定されたとき、かかる通知が出力されるタイミングを設定するものである。ここで、手段設定部82により2種類以上の手段が選択された場合、タイミング設定部83は、当該選択された2種類以上の手段の各々による通知のタイミングを設定するようになっている。換言すれば、タイミング設定部83は、手段毎に通知のタイミングを設定するようになっている。
また、レベル設定部84は、要否設定部81により通知「要」に設定されたとき、かかる通知のレベルを設定するものである。ここで、手段設定部82により2種類以上の手段が選択された場合、レベル設定部84は、当該選択された2種類以上の手段の各々による通知のレベルを設定するようになっている。換言すれば、レベル設定部84は、手段毎に通知のレベルを設定するようになっている。
また、内容設定部85は、要否設定部81により通知「要」に設定されたとき、かかる通知の内容を設定するものである。ここで、手段設定部82により2種類以上の手段が選択された場合、内容設定部85は、当該選択された2種類以上の手段の各々による通知の内容を設定するようになっている。換言すれば、内容設定部85は、手段毎に通知の内容を設定するようになっている。
態様設定部71は、機械学習により学習自在なものである。例えば、態様設定部71は、ニューラルネットワークを用いるものである。かかるニューラルネットワークは、状態検知部33による検知結果を示す情報(すなわち運転者の状態を示す情報)及び脅威検知部44による検知結果を示す情報(すなわち個々の物体に対応する脅威レベルを含む情報)の入力を受け付けて、上記各設定を示す値を出力するものである。
出力制御部72は、態様設定部71による設定に基づき、出力装置5を用いて通知を出力する制御を実行するものである。すなわち、出力制御部72は、要否設定部81により通知「要」に設定されたとき、光源11を用いて通知用の光を出力する制御、ディスプレイ12を用いて通知用の画像を表示する制御、スピーカ13を用いて通知用の音声を出力する制御、及び触覚デバイス14を用いて通知用の振動を出力する制御のうちの少なくとも一つを実行する。
適合部24は、出力装置5により通知が出力されたときの運転者の状態に応じて、通知制御部23の学習をするものである。より具体的には、適合部24は、このときの状態検知部33による検知結果を用いて、出力装置5により出力される次回以降の通知の態様が車両1の運転者に適合したものとなるように態様設定部71の学習をするものである。
ここで、態様設定部71による態様の設定方法の具体例として、レベル設定部84によるレベルの設定方法について説明する。また、適合部24による態様設定部71の学習方法の具体例として、適合部24によるレベル設定部84の学習方法について説明する。
まず、状態検知部33による検知結果を示す情報(すなわち運転者の状態を示す情報)の入力に対して、運転者の注意が向けられている領域を示す顕著性マップM1が生成される。顕著性マップM1においては、運転者が視線を向けている領域における顕著性値が他の領域における顕著性値に比して高い値となる。図7は、顕著性マップM1の例を示している。
また、脅威検知部44による検知結果を示す情報(すなわち個々の物体に対応する脅威レベルを含む情報)の入力に対して、顕著性マップM1に対応するリスクマップM2が生成される。リスクマップM2においては、高い脅威レベルを有する物体に対応する領域におけるリスク値が他の領域におけるリスク値に比して高い値となる。図8は、リスクマップM2の例を示している。
次いで、顕著性マップM1とリスクマップM2との空間差分に基づき、運転者が注意を向けるべき領域を示すアテンションマップM3が生成される。アテンションマップM3においては、運転者が注意を向けるべきでありながら注意を向けていない領域におけるアテンション値が他の領域におけるアテンション値に比して高い値となる。図9は、アテンションマップM3の例を示している。
次いで、アテンションマップM3におけるアテンション値に応じて通知のレベルが設定される。例えば、運転者が脅威に気付いていない場合、運転者が脅威に注意を向けていないことにより、アテンションマップM3におけるアテンション値が高くなると考えられる。この場合、通知のレベルも高い値に設定される。
ここで、上記生成された顕著性マップM1を含むデータに、上記生成された顕著性マップM1に対する差分が最も小さいリスクマップM2に対応するラベルが自動的に付与される。そして、当該ラベルが付与されたデータが、レベル設定部84に対応するニューラルネットワークの学習用データセットに新たに追加される。これにより、かかるニューラルネットワークの次回以降の学習の精度を向上することができる。
次いで、上記高いレベルによる通知が出力される。その後も上記と同様の顕著性マップM1、リスクマップM2及びアテンションマップM3が時系列的に生成される。これらのマップM1,M2,M3に基づき、通知が出力されたことにより運転者が脅威に気付いた蓋然性が高い場合は同様の脅威に対する次回以降の通知のレベルを下げるようにニューラルネットワークのパラメータが調整される。他方、通知が出力されたにもかかわらず運転者が脅威に気付いていない蓋然性が高い場合は同様の脅威に対する次回以降の通知のレベルを上げるようにニューラルネットワークのパラメータが調整される。
このようにして、通知のレベルを設定する処理が現在の運転者に次第に適合していく。
なお、これらのマップM1,M2,M3に基づき、通知が出力されてから運転者が脅威に気付くまでの時間に応じて、同様の脅威に対する次回以降の通知のタイミングを調整するようにニューラルネットワークのパラメータが調整されるものであっても良い。
整合部73は、出力装置5により2種類以上の手段による通知(すなわち2種類以上の通知)が出力されたとき、かかる2種類以上の通知を相互に整合させる処理を実行するものである。かかる処理は、例えば、態様設定部71に対応するニューラルネットワークにおけるパラメータを調整することにより実現される。
例えば、同一の脅威に対して、第1の手段(例えばディスプレイ12)による通知が出力されるとともに、第2の手段(例えばスピーカ13)による通知が出力されるものとする。これらの通知が同一の脅威に対する通知であることを明確にする観点から、これらの通知は同時に又は略同時に出力されるのが好適である。しかしながら、上記のとおり、タイミング設定部83は、手段毎に通知のタイミングを設定するようになっている。このため、第1の手段による通知が出力されるタイミングに対して、第2の手段による通知が出力されるタイミングがずれることがある。
これに対して、整合部73は、第1の手段による通知が出力されるタイミングと第2の手段による通知が出力されるタイミングとを揃えるようにニューラルネットワークのパラメータを調整する。これにより、同様の脅威に対する同様の通知が次回以降出力されるとき、これらの通知が出力されるタイミングについて整合性を図ることができる。
以下、第1推論部21が有する機能を総称して「ドライバモニタリング機能」ということがある。また、かかるドライバモニタリング機能に「F1」の符号を用いることがある。また、第1推論部21により実行される処理を総称して「ドライバモニタリング処理」ということがある。
以下、第2推論部22が有する機能を総称して「カメラモニタリング機能」ということがある。また、かかるカメラモニタリング機能に「F2」の符号を用いることがある。また、第2推論部22により実行される処理を総称して「カメラモニタリング処理」ということがある。
以下、通知制御部23が有する機能を総称して「通知制御機能」ということがある。また、かかる通知制御機能に「F3」の符号を用いることがある。また、通知制御部23により実行される処理及び制御を総称して「通知制御」ということがある。
以下、適合部24が有する機能を総称して「適合機能」ということがある。また、かかる適合機能に「F4」の符号を用いることがある。また、適合部24により実行される処理を総称して「適合処理」ということがある。
次に、図10〜図12を参照して、運転支援制御装置100の要部のハードウェア構成について説明する。
図10に示す如く、運転支援制御装置100は、プロセッサ91及びメモリ92を有している。メモリ92には、複数個の機能F1〜F4に対応するプログラムが記憶されている。プロセッサ91は、メモリ92に記憶されているプログラムを読み出して実行する。これにより、複数個の機能F1〜F4が実現される。
または、図11に示す如く、運転支援制御装置100は、処理回路93を有している。処理回路93は、複数個の機能F1〜F4に対応する処理を実行する。これにより、複数個の機能F1〜F4が実現される。
または、図12に示す如く、運転支援制御装置100は、プロセッサ91、メモリ92及び処理回路93を有している。メモリ92には、複数個の機能F1〜F4のうちの一部の機能に対応するプログラムが記憶されている。プロセッサ91は、メモリ92に記憶されているプログラムを読み出して実行する。これにより、かかる一部の機能が実現される。また、処理回路93は、複数個の機能F1〜F4のうちの残余の機能に対応する処理を実行する。これにより、かかる残余の機能が実現される。
プロセッサ91は、1個以上のプロセッサにより構成されている。個々のプロセッサは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)を用いたものである。
メモリ92は、1個以上の不揮発性メモリにより構成されている。または、メモリ92は、1個以上の不揮発性メモリ及び1個以上の揮発性メモリにより構成されている。すなわち、メモリ92は、1個以上のメモリにより構成されている。個々のメモリは、例えば、半導体メモリ又は磁気ディスクを用いたものである。より具体的には、個々の揮発性メモリは、例えば、RAM(Random Access Memory)を用いたものである。また、個々の不揮発性メモリは、例えば、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、ソリッドステートドライブ又はハードディスクドライブを用いたものである。
処理回路93は、1個以上のデジタル回路により構成されている。または、処理回路93は、1個以上のデジタル回路及び1個以上のアナログ回路により構成されている。すなわち、処理回路93は、1個以上の処理回路により構成されている。個々の処理回路は、例えば、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、SoC(System on a Chip)又はシステムLSI(Large Scale Integration)を用いたものである。
ここで、プロセッサ91が複数個のプロセッサにより構成されているとき、複数個の機能F1〜F4と複数個のプロセッサとの対応関係は任意である。すなわち、複数個のプロセッサの各々は、複数個の機能F1〜F4のうちの対応する1個以上の機能に対応するプログラムを読み出して実行するものであっても良い。プロセッサ91は、個々の機能F1〜F4に対応する専用のプロセッサを含むものであっても良い。
また、メモリ92が複数個のメモリにより構成されているとき、複数個の機能F1〜F4と複数個のメモリとの対応関係は任意である。すなわち、複数個のメモリの各々は、複数個の機能F1〜F4のうちの対応する1個以上の機能に対応するプログラムを記憶するものであっても良い。メモリ92は、個々の機能F1〜F4に対応する専用のメモリを含むものであっても良い。
また、処理回路93が複数個の処理回路により構成されているとき、複数個の機能F1〜F4と複数個の処理回路との対応関係は任意である。すなわち、複数個の処理回路の各々は、複数個の機能F1〜F4のうちの対応する1個以上の機能に対応する処理を実行するものであっても良い。処理回路93は、個々の機能F1〜F4に対応する専用の処理回路を含むものであっても良い。
次に、図13のフローチャートを参照して、運転支援制御装置100の動作について説明する。
まず、第1推論部21がドライバモニタリング処理を実行する(ステップST1)。また、第2推論部22がカメラモニタリング処理を実行する(ステップST2)。ドライバモニタリング処理及びカメラモニタリング処理は、所定の条件が満たされているとき(例えば車両1におけるイグニッション電源がオンされているとき)、繰り返し実行される。
ステップST1,ST2の処理の結果を用いて、通知制御部23が通知制御を実行する(ステップST3)。通知制御により通知が出力された場合(ステップST4“YES”)、適合部24が適合処理を実行する(ステップST5)。運転者が車両1を運転しているとき、通知制御及び適合処理が繰り返し実行されることにより、通知の態様が次第に当該運転者に適合していく。
次に、図14〜図22を参照して、運転支援制御装置100の変形例について説明する。
車両1に車載情報機器6が搭載されるものであっても良い。車載情報機器6は、例えば、ECU(Electronic Control Unit)により構成されている。また、車両1に携帯情報端末7が持ち込まれるものであっても良い。携帯情報端末7は、例えば、スマートフォンにより構成されている。
車載情報機器6及び携帯情報端末7は、相互に通信自在なものであっても良い。車載情報機器6は、車両1外に設けられたサーバ8と通信自在なものであっても良い。携帯情報端末7は、車両1外に設けられたサーバ8と通信自在なものであっても良い。すなわち、サーバ8は、車載情報機器6及び携帯情報端末7のうちの少なくとも一方と通信自在なものであっても良い。これにより、サーバ8は、車両1と通信自在なものであっても良い。
複数個の機能F1〜F4の各々は、車載情報機器6にて実現されるものであっても良く、携帯情報端末7にて実現されるものであっても良く、サーバ8にて実現されるものであっても良く、車載情報機器6及び携帯情報端末7が連携することにより実現されるものであっても良く、車載情報機器6及びサーバ8が連携することにより実現されるものであっても良く、又は携帯情報端末7及びサーバ8が連携することにより実現されるものであっても良い。
すなわち、図14に示す如く、車載情報機器6により運転支援制御装置100の要部が構成されているものであっても良い。または、図15に示す如く、携帯情報端末7により運転支援制御装置100の要部が構成されているものであっても良い。または、図16に示す如く、サーバ8により運転支援制御装置100の要部が構成されているものであっても良い。
または、図17に示す如く、車載情報機器6及び携帯情報端末7により運転支援制御装置100の要部が構成されているものであっても良い。または、図18に示す如く、車載情報機器6及びサーバ8により運転支援制御装置100の要部が構成されているものであっても良い。または、図19に示す如く、携帯情報端末7及びサーバ8により運転支援制御装置100の要部が構成されているものであっても良い。
または、図20、図21又は図22に示す如く、車載情報機器6、携帯情報端末7及びサーバ8により運転支援制御装置100の要部が構成されているものであっても良い。
次に、図23を参照して、運転支援制御装置100の他の変形例について説明する。
図23に示す如く、運転支援制御装置100は、車両制御部25を有するものであっても良い。車両制御部25は、脅威検知部44により検知された脅威に応じて、車両1を操作する制御を実行するものである。具体的には、例えば、車両制御部25は、車両1におけるステアリング、ブレーキ又はスロットル開度を操作する制御を実行することにより、車両1と当該検知された脅威に対応する物体との衝突を回避するものである。
なお、かかる制御は、当該検知された脅威に対する通知が出力されたにもかかわらず車両1の運転者が当該検知された脅威に気付いていない場合にのみ実行されるものであっても良い。
次に、運転支援制御装置100の他の変形例について説明する。
第1推論部21は、第1カメラ2を用いるのに加えて、生体センサを用いるものであっても負い。生体センサは、複数種類のセンサを含むものであっても良い。個々のセンサは、例えば、車両1の運転席に設けられたものであっても良く、又は運転者の身体に取り付けられたものであっても良い。これにより、状態検知部33による検知対象は、運転者の脈拍、血圧及び姿勢などを含むものであっても良い。
以上のように、実施の形態1に係る運転支援制御装置100は、車内撮像用の第1カメラ2による第1撮像画像を用いて、車両1における運転者の状態を検知する第1推論部21と、車外撮像用の第2カメラ3による第2撮像画像を用いて、車両1に対する周囲における脅威を検知する第2推論部22と、運転者の状態に応じて、脅威に対する通知の態様を設定する処理を実行する通知制御部23と、通知が出力されたときの運転者の状態に応じて通知制御部23の学習をすることにより、通知の態様を設定する処理を運転者に適合させる適合部24と、を備える。これにより、個々の運転者に適合した態様による通知を実現することができる。
また、第1推論部21は、機械学習により学習自在であり、第2推論部22は、機械学習により学習自在である。これにより、ルールベースを用いる場合に比して、ドライバモニタリング処理及びカメラモニタリング処理の各々を高精度にすることができる。
また、実施の形態1に係る運転支援制御方法は、第1推論部21が、車内撮像用の第1カメラ2による第1撮像画像を用いて、車両1における運転者の状態を検知するステップST1と、第2推論部22が、車外撮像用の第2カメラ3による第2撮像画像を用いて、車両1に対する周囲における脅威を検知するステップST2と、通知制御部23が、運転者の状態に応じて、脅威に対する通知の態様を設定する処理を実行するステップST3と、適合部24が、通知が出力されたときの運転者の状態に応じて通知制御部23の学習をすることにより、通知の態様を設定する処理を運転者に適合させるステップST5と、を備える。これにより、個々の運転者に適合した態様による通知を実現することができる。
なお、本願開示はその開示の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
本開示に係る運転支援制御装置及び運転支援制御方法は、DMS及びCMSを組み合わせてなるシステムに用いることができる。
1 車両、2 第1カメラ、3 第2カメラ、4 センサ類、5 出力装置、6 車載情報機器、7 携帯情報端末、8 サーバ、11 光源、12 ディスプレイ、13 スピーカ、14 触覚デバイス、21 第1推論部、22 第2推論部、23 通知制御部、24 適合部、25 車両制御部、31 画像データ取得部、32 特徴量抽出部、33 状態検知部、41 画像データ取得部、42 特徴量抽出部、43 画像認識部、44 脅威検知部、45 車両情報取得部、51 走行シーン推定部、52 物体認識部、53 距離推定部、54 物体追跡部、61 脅威レベル設定部、62 脅威レベル補正部、71 態様設定部、72 出力制御部、73 整合部、81 要否設定部、82 手段設定部、83 タイミング設定部、84 レベル設定部、85 内容設定部、91 プロセッサ、92 メモリ、93 処理回路、100 運転支援制御装置。

Claims (24)

  1. 車内撮像用の第1カメラによる第1撮像画像を用いて、車両における運転者の状態を検知する第1推論部と、
    車外撮像用の第2カメラによる第2撮像画像を用いて、前記車両に対する周囲における脅威を検知する第2推論部と、
    前記運転者の状態に応じて、前記脅威に対する通知の態様を設定する処理を実行する通知制御部と、を備え、
    前記第2推論部は、前記第2撮像画像における特徴量を抽出する特徴量抽出部と、前記特徴量を用いて物体認識を含む画像認識を実行する画像認識部と、前記画像認識の結果に基づき前記脅威を検知する脅威検知部と、を有し、
    前記脅威が生じたときに、前記運転者の注意が向けられている領域を示す顕著性マップM1と、前記脅威検知部による検知結果を示す情報の入力に対して前記顕著性マップM1に対応するリスクマップM2と、前記運転者が注意を向けるべき領域を示すアテンションマップM3と、を生成し、
    前記顕著性マップM1と前記リスクマップM2と前記アテンションマップM3における位置及び前記脅威検知部による個々の物体に対応する脅威レベルを含む情報と、前記通知が出力されたときの前記運転者の状態に応じて前記通知制御部の機械学習をする適合部と、を備える運転支援制御装置。
  2. 前記第1推論部は、機械学習により学習自在であり、
    前記第2推論部は、機械学習により学習自在である
    ことを特徴とする請求項1記載の運転支援制御装置。
  3. 前記通知の態様を設定する処理は、前記通知の手段を設定する処理、前記通知のタイミングを設定する処理、前記通知のレベルを設定する処理及び前記通知の内容を設定する処理のうちの少なくとも一つを含むことを特徴とする請求項1記載の運転支援制御装置。
  4. 前記通知は、複数種類の手段に対応する複数種類の通知を含み、
    前記通知制御部は、前記複数種類の通知を相互に整合させる処理を実行する
    ことを特徴とする請求項1記載の運転支援制御装置。
  5. 前記第1推論部は、前記第1撮像画像における特徴量を抽出する特徴量抽出部と、前記特徴量を用いて前記運転者の状態を検知する状態検知部と、を有することを特徴とする請求項1記載の運転支援制御装置。
  6. 前記状態検知部は、顔検出、顔パーツ検出、顔向き推定、頭部位置推定、開眼度算出、開口度算出、視線追跡、視線推定、ハンドジェスチャー認識、脇見検知、眠気検知、人物認識、物体認識、動き認識、行動認識及び非接触脈拍推定のうちの少なくとも一つを実行することを特徴とする請求項5記載の運転支援制御装置。
  7. 前記第2推論部は、前記第2撮像画像における特徴量を抽出する特徴量抽出部と、前記特徴量を用いて物体認識を含む画像認識を実行する画像認識部と、前記画像認識の結果に基づき前記脅威を検知する脅威検知部と、を有することを特徴とする請求項1記載の運転支援制御装置。
  8. 前記画像認識部は、前記物体認識を実行する物体認識部と、前記物体認識の結果を時系列的に用いることにより、前記第2撮像画像に含まれる個々の物体に対するトラッキングを実行する物体追跡部と、を有し、
    前記脅威検知部は、前記物体認識の結果及び前記トラッキングの結果に基づき前記脅威を検知する
    ことを特徴とする請求項7記載の運転支援制御装置。
  9. 前記画像認識部は、前記第2撮像画像に含まれる個々の物体について、属性、大きさ、距離、領域及び特徴空間のうちの少なくとも一つを推定することを特徴とする請求項7記載の運転支援制御装置。
  10. 前記物体認識は、物体検出及び領域分割のうちの少なくとも一方を含み、
    前記物体検出は、前記第2撮像画像に含まれる個々の物体の位置を回帰により推定するとともに、前記個々の物体の属性を分類により推定するものであり、
    前記領域分割は、前記第2撮像画像を個々の属性に対応する領域に分割するものである
    ことを特徴とする請求項7記載の運転支援制御装置。
  11. 前記特徴量抽出部は、教師あり学習又は教師なし学習により学習自在であることを特徴とする請求項7記載の運転支援制御装置。
  12. 前記特徴量抽出部は、畳み込みニューラルネットワークを用いるものであることを特徴とする請求項7記載の運転支援制御装置。
  13. 前記特徴量抽出部は、深層学習により学習自在であることを特徴とする請求項7記載の運転支援制御装置。
  14. 前記物体認識部は、深層学習により学習自在であることを特徴とする請求項8記載の運転支援制御装置。
  15. 前記脅威検知部は、前記第2撮像画像に含まれる個々の物体に対応する脅威レベルを設定する脅威レベル設定部を有することを特徴とする請求項7記載の運転支援制御装置。
  16. 前記第2推論部は、前記車両の状態を示す車両情報を取得する車両情報取得部を有し、
    前記脅威検知部は、前記車両の状態に応じて前記脅威レベルを補正する脅威レベル補正部を有する
    ことを特徴とする請求項15記載の運転支援制御装置。
  17. 前記車両情報取得部は、前記車両におけるセンサ類を用いて前記車両情報を取得することを特徴とする請求項16記載の運転支援制御装置。
  18. 前記車両情報は、前記車両の走行速度を示す情報及び前記車両における操舵角を示す情報を含むことを特徴とする請求項16記載の運転支援制御装置。
  19. 前記脅威レベル設定部は、前記個々の物体に対応する距離に基づき前記脅威レベルを設定することを特徴とする請求項15記載の運転支援制御装置。
  20. 前記通知の手段は、光源、ディスプレイ、スピーカ及び触覚デバイスのうちの少なくとも一つを含むことを特徴とする請求項1記載の運転支援制御装置。
  21. 前記ディスプレイは、ヘッドアップディスプレイ及び電子ミラー用ディスプレイのうちの少なくとも一方を含むことを特徴とする請求項20記載の運転支援制御装置。
  22. 前記第1カメラは、赤外線カメラにより構成されており、
    前記第2カメラは、可視光カメラにより構成されている
    ことを特徴とする請求項1記載の運転支援制御装置。
  23. 前記脅威に応じて前記車両を操作する制御を実行する車両制御部を備えることを特徴とする請求項1記載の運転支援制御装置。
  24. 第1推論部が、車内撮像用の第1カメラによる第1撮像画像を用いて、車両における運転者の状態を検知するステップと、
    第2推論部が、車外撮像用の第2カメラによる第2撮像画像を用いて、前記車両に対する周囲における脅威を検知するステップと、
    通知制御部が、前記運転者の状態に応じて、前記脅威に対する通知の態様を設定する処理を実行するステップと、
    前記第2推論部の特徴量抽出部が、前記第2撮像画像における特徴量を抽出するステップと、
    前記第2推論部の画像認識部が、前記特徴量を用いて物体認識を含む画像認識を実行するステップと、
    前記第2推論部の脅威検知部が、前記画像認識の結果に基づき前記脅威を検知するステップと、
    前記第2推論部が、前記脅威が生じたときに、前記運転者の注意が向けられている領域を示す顕著性マップM1と、前記脅威検知部による検知結果を示す情報の入力に対して前記顕著性マップM1に対応するリスクマップM2と、前記運転者が注意を向けるべき領域を示すアテンションマップM3と、を生成するステップと、
    適合部が、前記顕著性マップM1と前記リスクマップM2と前記アテンションマップM3における分布情報及び検知された物体に対する脅威レベル情報と、前記通知が出力されたときの前記運転者の状態に応じて前記通知制御部の機械学習をするステップと
    を備える運転支援制御方法。
JP2020540365A 2020-02-21 2020-02-21 運転支援制御装置及び運転支援制御方法 Active JP6932269B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/006958 WO2021166206A1 (ja) 2020-02-21 2020-02-21 運転支援制御装置及び運転支援制御方法

Publications (2)

Publication Number Publication Date
JPWO2021166206A1 JPWO2021166206A1 (ja) 2021-08-26
JP6932269B1 true JP6932269B1 (ja) 2021-09-08

Family

ID=77390528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020540365A Active JP6932269B1 (ja) 2020-02-21 2020-02-21 運転支援制御装置及び運転支援制御方法

Country Status (2)

Country Link
JP (1) JP6932269B1 (ja)
WO (1) WO2021166206A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072631A (ja) * 2005-09-05 2007-03-22 Toyota Motor Corp 車載警報装置
WO2018066351A1 (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
WO2019026890A1 (ja) * 2017-07-31 2019-02-07 株式会社エクォス・リサーチ 画像データ生成装置、画像認識装置、画像データ生成プログラム、及び画像認識プログラム
JP2019028843A (ja) * 2017-08-01 2019-02-21 オムロン株式会社 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
JP2019117624A (ja) * 2017-12-27 2019-07-18 株式会社デンソー 車載装置、通信システム、および動機付けシステム
JP2019164726A (ja) * 2018-03-20 2019-09-26 パナソニックIpマネジメント株式会社 管理装置、車両、車載装置、警報システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072631A (ja) * 2005-09-05 2007-03-22 Toyota Motor Corp 車載警報装置
WO2018066351A1 (ja) * 2016-10-06 2018-04-12 株式会社アドバンスド・データ・コントロールズ シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法
WO2019026890A1 (ja) * 2017-07-31 2019-02-07 株式会社エクォス・リサーチ 画像データ生成装置、画像認識装置、画像データ生成プログラム、及び画像認識プログラム
JP2019028843A (ja) * 2017-08-01 2019-02-21 オムロン株式会社 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
JP2019117624A (ja) * 2017-12-27 2019-07-18 株式会社デンソー 車載装置、通信システム、および動機付けシステム
JP2019164726A (ja) * 2018-03-20 2019-09-26 パナソニックIpマネジメント株式会社 管理装置、車両、車載装置、警報システム

Also Published As

Publication number Publication date
JPWO2021166206A1 (ja) 2021-08-26
WO2021166206A1 (ja) 2021-08-26

Similar Documents

Publication Publication Date Title
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
EP3033999B1 (en) Apparatus and method for determining the state of a driver
US11042999B2 (en) Advanced driver assist systems and methods of detecting objects in the same
CN111566612A (zh) 基于姿势和视线的视觉数据采集系统
US10943141B2 (en) Object detection device and object detection method
US9030558B2 (en) Image processing method for a driver assistance system of a motor vehicle for detecting and classifying at least one portion of at least one predefined image element
US20210150193A1 (en) Recognizing the movement intention of a pedestrian from camera images
US9826166B2 (en) Vehicular surrounding-monitoring control apparatus
US11568654B2 (en) Object recognition method and object recognition device performing the same
EP3796209A1 (en) Method and system for determining an activity of an occupant of a vehicle
US20190095706A1 (en) Image processing device and program
CN105006175A (zh) 主动识别交通参与者的动作的方法和系统及相应的机动车
JP2016115117A (ja) 判定装置および判定方法
US20170190301A1 (en) Vehicle periphery monitoring device
JP2016115120A (ja) 開閉眼判定装置および開閉眼判定方法
KR20170106823A (ko) 부분적인 깊이 맵에 기초하여 관심 객체를 식별하는 영상 처리 장치
JP6932269B1 (ja) 運転支援制御装置及び運転支援制御方法
CN113810567A (zh) 用于执行对象检测的电子装置及其操作方法
JP2016115118A (ja) 下方視判定装置および下方視判定方法
JP5541099B2 (ja) 道路区画線認識装置
US20220254167A1 (en) Object detection apparatus, object detection method, and object detection program
JP5862261B2 (ja) 検出装置、検出方法、及び、車両
US11557052B2 (en) Vanishing point extraction devices and methods of extracting vanishing point
JP2021051348A (ja) 物体距離推定装置及び物体距離推定方法
JP2007272421A (ja) 対象物検出装置、方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200720

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200720

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210817

R150 Certificate of patent or registration of utility model

Ref document number: 6932269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150