JP2019096117A - 車両の制御装置 - Google Patents

車両の制御装置 Download PDF

Info

Publication number
JP2019096117A
JP2019096117A JP2017225751A JP2017225751A JP2019096117A JP 2019096117 A JP2019096117 A JP 2019096117A JP 2017225751 A JP2017225751 A JP 2017225751A JP 2017225751 A JP2017225751 A JP 2017225751A JP 2019096117 A JP2019096117 A JP 2019096117A
Authority
JP
Japan
Prior art keywords
driver
face
vehicle
reference image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017225751A
Other languages
English (en)
Other versions
JP6996253B2 (ja
Inventor
松村 健
Takeshi Matsumura
健 松村
健一郎 原
Kenichiro Hara
健一郎 原
佐藤 潤
Jun Sato
潤 佐藤
純也 春日井
Junya Kasugai
純也 春日井
航一郎 山内
Koichiro Yamauchi
航一郎 山内
和寛 友末
Kazuhiro Tomosue
和寛 友末
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017225751A priority Critical patent/JP6996253B2/ja
Priority to US16/174,776 priority patent/US10896338B2/en
Priority to CN201811405376.5A priority patent/CN109987101A/zh
Publication of JP2019096117A publication Critical patent/JP2019096117A/ja
Application granted granted Critical
Publication of JP6996253B2 publication Critical patent/JP6996253B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Abstract

【課題】ドライバの顔認識の精度の低下を抑制する。【解決手段】車両の制御装置80は、ドライバモニタカメラ31の撮影画像に基づいて、ドライバの顔の基準画像を設定する基準画像設定部951と、ドライバモニタカメラ31の撮影画像と、基準画像と、に基づいて、ドライバの状態を監視する監視部952と、ドライバの状態を監視しているときに、ドライバの顔が認識できなくなったか否かを判定する第1判定部953と、ドライバの顔が認識できなくなったときに、ドライバが入れ替わったか否かを判定する第2判定部954と、ドライバが入れ替わったと判定されたときに、ドライバモニタカメラ31の撮影画像に基づいて、ドライバの顔の基準画像を再設定する基準画像再設定部955と、を備えるように構成される。【選択図】図1

Description

本発明は車両の制御装置に関する。
特許文献1には、従来の車両の制御装置として、ドライバモニタカメラによって撮影したドライバの画像に基づいて、ドライバの顔を認識するように構成されたものが開示されている。
米国特許第8587440号明細書
ドライバモニタカメラによって撮影したドライバの画像に基づいてドライバ状態を監視する場合、ドライバモニタカメラによって撮影したドライバの画像に基づいて、まずドライバの両眼の位置や鼻の位置、両眼の間隔等を検出(学習)して基準となるドライバの顔の画像(基準画像)を設定した上で、その基準画像と、ドライバモニタカメラによって随時撮影されるドライバの画像とを比較する必要がある。これにより、例えばドライバの顔がどの方向を向いているか等のドライバ状態の監視が行われる。
このドライバの顔の基準画像の設定は、ドライバが交代したときに一度実施すればよいものであるが、ドライバ状態の監視中においては、ドライバが姿勢を変えてドライバモニタカメラの画角内から一時的にドライバの顔が見切れてしまったり、物やドライバの手によってドライバの顔が一時的に隠れてしまったりすることがある。
このような場合、一時的にドライバの顔が認識できなくなるが、例えば自動運転が行われる車両の場合は、自動運転中にドライバの交代が行われることも考えられる。そのため、前述した従来の車両の制御装置では、ドライバが交代したことによって一時的にドライバの顔が認識できなくなったのか、それともドライバは交代していないが姿勢等の変化によって一時的にドライバの顔が認識できなくなったのかを判断することができない。
基準画像の設定には、前述したようにドライバの両眼の位置や鼻の位置、両眼の間隔等を検出する必要があるので、或る程度の時間が必要となる。そのため、ドライバが交代していないにもかかわらず、姿勢等の変化によって一時的にドライバの顔が認識できなくなったからといって、次にドライバモニタカメラにドライバの顔が写り込んだときにその顔の基準画像を設定するような構成にすると、基準画像を設定している期間中は、ドライバ状態の監視を行うことができなくなるという問題点がある。
本発明はこのような問題点に着目してなされたものであり、ドライバが交代していないにもかかわらず、基準画像の再設定が行われて、その再設定期間中にドライバ状態の監視ができなくなるのを抑制することを目的とする。
上記課題を解決するために、本発明のある態様によれば、ドライバの顔を撮影するドライバモニタカメラを備える車両を制御するための車両の制御装置が、ドライバモニタカメラの撮影画像に基づいて、ドライバの顔の基準画像を設定する基準画像設定部と、ドライバモニタカメラの撮影画像と基準画像とに基づいて、ドライバの状態を監視する監視部と、ドライバの状態を監視しているときに、ドライバの顔が認識できなくなったか否かを判定する第1判定部と、ドライバの顔が認識できなくなったときに、ドライバが入れ替わったか否かを判定する第2判定部と、ドライバが入れ替わったと判定されたときに、ドライバモニタカメラの撮影画像に基づいて、ドライバの顔の基準画像を再設定する基準画像再設定部と、を備えるように構成される。
本発明のこの態様によれば、ドライバが交代していないにもかかわらず、基準画像の再設定が行われて、その再設定期間中にドライバ状態の監視ができなくなるのを抑制することができる。
図1は、本発明の一実施形態による車両用の自動運転システムの概略構成図である。 図2は、本発明の一実施形態による自動運転システムを搭載した自車両の概略外観図である。 図3は、本発明の一実施形態による自動運転システムを搭載した自車両の概略内観図である。 図4は、本発明の一実施形態によるドライバ状態監視制御について説明するフローチャートである。
以下、図面を参照して本発明の実施形態について詳細に説明する。なお、以下の説明では、同様な構成要素には同一の参照番号を付す。
図1は、本発明の一実施形態による車両用の自動運転システム100の概略構成図である。図2は、本実施形態による自動運転システム100を搭載した自車両1の概略外観図である。図3は、本実施形態による自動運転システム100を搭載した自車両1の概略内観図である。
図1に示すように、本実施形態による自動運転システム100は、周辺環境情報取得装置10と、自車両情報取得装置20と、ドライバ情報取得装置30と、地図データベース40と、記憶装置50と、ヒューマン・マシン・インターフェース(Human Machine Interface;以下「HMI」という。)60と、ナビゲーション装置70と、電子制御ユニット80と、を備える。
周辺環境情報取得装置10は、自車両周辺の障害物(例えば建物や、道路上の先行車や後続車、対向車といった走行車両、停止車両、縁石、落下物、歩行者等)や天候といった自車両1の周辺環境状態に関する情報(以下「周辺環境情報」という。)を取得するための装置である。図1から図3に示すように、本実施形態による周辺環境情報取得装置10は、ライダ(LIDAR;Laser Imaging Detection And Ranging)11と、ミリ波レーダーセンサ12と、外部カメラ13と、照度センサ14と、レインセンサ15と、外部情報受信装置16と、を備える。
ライダ11は、レーザー光を利用して自車両周辺の道路や障害物を検出する。図2に示すように、本実施形態ではライダ11は、自車両1のルーフ上に取り付けられている。ライダ11は、自車両1の全周囲に向けてレーザー光を順次照射し、その反射光から道路及び自車両周辺の障害物までの距離を計測する。そしてライダ11は、その計測結果に基づいて自車両1の全周囲における道路及び障害物の三次元画像を生成し、生成した三次元画像の情報を電子制御ユニット80に送信する。
なお、ライダ11の取り付け箇所や個数は、三次元画像を生成するために必要な情報を取得できるのであれば特に限られるものではない。例えば、自車両1のグリルや、ヘッドライトやブレーキランプといったライト類の内部に分割して取り付けても良いし、自車両1の車両本体部分(骨格)に分割して取り付けても良い。
ミリ波レーダーセンサ12は、電波を利用してライダ11よりも遠距離に亘る自車両周辺の障害物を検出する。図2に示すように、本実施形態ではミリ波レーダーセンサ12は、自車両1のフロントバンパー及びリヤバンパーにそれぞれ取り付けられている。ミリ波レーダーセンサ12は、自車両1の周囲(本実施形態では自車両1の前方、後方及び側方)に電波を発射し、その反射波から自車両周辺の障害物までの距離や当該障害物との相対速度を計測する。そしてミリ波レーダーセンサ12は、その計測結果を自車両周辺情報として電子制御ユニット80に送信する。
なお、ミリ波レーダーセンサ12の取り付け箇所や個数は、必要な自車両周辺情報を取得できるのであれば特に限られるものではない。例えば、自車両1のグリルや、ヘッドライトやブレーキランプといったライト類の内部に取り付けても良いし、自車両1の車両本体部分(骨格)に取り付けても良い。
外部カメラ13は、自車両1の前方を撮影する。図2に示すように、本実施形態では外部カメラ13は、自車両1のルーフ先端の中央部に取り付けられている。外部カメラ13は、撮影した自車両前方の映像の画像処理を行うことで、自車両前方の障害物情報や、走行レーンの車線幅や道路形状、道路標識、白線の有無、信号機の状態といった自車両前方の道路情報、ヨー角(走行レーンに対する車両の相対的な方向)や走行レーン中央からの車両オフセット位置といった自車両1の走行情報、雨や雪、霧といった自車両周辺の気象情報などを検出する。そして外部カメラ13は、検出したこれらの撮影情報を電子制御ユニット80に送信する。
なお、外部カメラ13の取り付け箇所や個数は、自車両1の前方を撮影できるのであれば特に限られるものではない。例えば、自車両内のフロントガラス裏面の中央上部に取り付けても良い。
照度センサ14は、自車両周囲の照度を検出する。図2に示すように、本実施形態では、照度センサ14は自車両内のインストルメントパネルの上面に取り付けられている。照度センサ14は、検出した自車両周囲の照度情報を電子制御ユニット80に送信する。
レインセンサ15は、降水の有無及び降水量を検出する。図2に示すように、本実施形態では、レインセンサ15は自車両1のフロントガラス表面の中央上部に取り付けられている。レインセンサ15は、内蔵された発光素子によって生じさせた光をフロントガラス表面に向けて照射し、そのときの反射光の変化を計測することで、降水の有無や降水量といった降水情報を検出する。そしてレインセンサ15は、検出した降水情報を電子制御ユニット80に送信する。
外部情報受信装置16は、例えば道路交通情報通信システムセンタなどの外部の通信センタから送信されてくる渋滞情報や気象情報(雨や雪、霧、風速等の情報)などの外部情報を受信する。外部情報受信装置16は、受信した外部情報を電子制御ユニット80に送信する。
自車両情報取得装置20は、自車両1の速度や加速度、姿勢、現在位置といった自車両1の状態に関する情報(以下「自車両情報」という。)を取得するための装置である。図1に示すように、本実施形態による自車両情報取得装置20は、車速センサ21と、加速度センサ22と、ヨーレートセンサ23と、GPS受信機24と、ドア開閉センサ25と、を備える。
車速センサ21は、自車両1の速度を検出するためのセンサである。車速センサ21は、検出した自車両1の車速情報を電子制御ユニット80に送信する。
加速度センサ22は、加速時や制動時における自車両1の加速度を検出するためのセンサである。加速度センサ22は、検出した自車両1の加速度情報を電子制御ユニット80に送信する。
ヨーレートセンサ23は、自車両1の姿勢を検出するためのセンサであって、詳しくは自車両1の旋回時におけるヨー角の変化速度、すなわち自車両1の鉛直軸まわりの回転角速度(ヨーレート)を検出する。ヨーレートセンサ23は、検出した自車両1の姿勢情報を電子制御ユニット80に送信する。
GPS受信機24は、3個以上のGPS衛星からの信号を受信して自車両1の緯度及び経度を特定し、自車両1の現在位置を検出する。GPS受信機24は、検出した自車両1の現在位置情報を電子制御ユニット80に送信する。
ドア開閉センサ25は、自車両1のドアの開閉を検出するためのセンサである。ドア開閉センサ25は、検出したドアの開閉情報を電子制御ユニット80に送信する。
ドライバ情報取得装置30は、自車両1のドライバの状態に関する情報(以下「ドライバ情報」という。)を取得するための装置である。図1及び図3に示すように、本実施形態によるドライバ情報取得装置30は、ドライバモニタカメラ31と、ステアリングタッチセンサ32と、着座センサ33と、シートベルトバックルセンサ34と、シートポジションセンサ35と、を備える。
ドライバモニタカメラ31は、ステアリングコラムの上面に取り付けられ、ドライバの外観を撮影する。ドライバモニタカメラ31は、撮影したドライバの映像を画像処理することで、ドライバの表情や姿勢といったドライバの外観情報を検出する。そしてドライバモニタカメラ31は、検出したドライバの外観情報を電子制御ユニット80に送信する。
ステアリングタッチセンサ32は、ステアリングに取り付けられる。ステアリングタッチセンサ32は、ドライバがステアリングを把持しているか否かを検出し、検出したステアリングの把持情報を電子制御ユニット80に送信する。
着座センサ33は、シートの座面下部に設けられる。着座センサ33は、シートの座面に加わる荷重を検出し、シートにドライバが着座しているか否かの着座情報を電子制御ユニット80に送信する。
シートベルトバックルセンサ34は、シートベルトバックルに内蔵されており、シートベルトバックルにシートベルトが結合されているか、すなわちドライバがシートベルトを着用しているか否かのシートベルト着用情報を電子制御ユニット80に送信する。
シートポジションセンサ35は、シートポジション(シートの前後位置)を検出するセンサであって、ドライバがシートを移動させたか否かのシートポジション情報を電子制御ユニット80に送信する。
地図データベース40は、地図情報に関するデータベースである。この地図データベース40は、例えば車両に搭載されたハードディスクドライブ(HDD;Hard Disk Drive)内に記憶されている。地図情報には、道路の位置情報や道路形状の情報(例えばカーブと直線部の種別、カーブの曲率など)、交差点及び分岐点の位置情報、道路種別などの情報などが含まれる。
記憶装置50は、自動運転専用の道路地図を記憶する。自動運転専用の道路地図は、ライダ11が生成した三次元画像に基づいて電子制御ユニット80が作成しており、電子制御ユニット80によって常時又は定期的に更新される。
HMI60は、ドライバ又は車両乗員と自動運転システム100との間で情報の入出力を行うためのインターフェイスである。本実施形態によるHMI60は、ドライバに各種の情報を提供するための情報提供装置61と、ドライバの音声を認識するためのマイク62と、ドライバが入力操作を行うためのタッチパネルや操作ボタンなど入力操作器63と、を備える。
情報提供装置61は、文字情報や画像情報を表示するためのディスプレイ611と、音を発生させるためのスピーカ612と、を備える。
ナビゲーション装置70は、HMI60を介してドライバによって設定された目的地まで自車両1を案内する装置である。ナビゲーション装置70は、GPS受信機24で検出した自車両1の現在位置情報と地図データベース40の地図情報とに基づいて、目的地までの走行ルートを設定し、設定した走行ルートに関する情報をナビゲーション情報として電子制御ユニット80に送信する。
電子制御ユニット80は、双方向性バスによって相互に接続された中央演算装置(CPU)、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、入力ポート、及び出力ポートを備えたマイクロコンピュータである。
電子制御ユニット80は、自動運転制御部90を備えており、ドライバが手動運転モード(加速、操舵、及び制動に関する運転操作をドライバが行うモード)から自動運転モードに切り替えたときに、加速、操舵、及び制動に関する運転操作を自動的に行って車両を走行させる自動運転を実施できるように構成される。具体的には自動運転制御部90は、目標走行ルート設定部91と、目標走行ライン設定部92と、運転操作実施部93と、を備えるように構成される。
目標走行ルート設定部91は、自動運転モード中における車両の目標走行ルートを設定する。具体的には目標走行ルート設定部91は、ナビゲーション情報に含まれる目的地までの走行ルートを目標走行ルートとして設定する。
目標走行ライン設定部92は、目標走行ルート上の走行レーンを走行する際の目標走行ラインを設定する。具体的には目標走行ライン設定部92は、自車両周辺の障害物情報(先行車や落下物などの情報)や、走行レーンの車線幅や道路形状といった自車両前方の道路情報、自車両の車速情報に基づいて、自車両前方の道路を道路状況(混雑具合や道路形状、路面状態など)に応じた適切な車速で通過することができる走行ラインを目標走行ラインとして設定する。
運転操作実施部93は、目標走行ラインに沿って車両が走行するように、加速、操舵、及び制動に関する運転操作を自動的に実施する。具体的には運転操作実施部93は、周辺環境情報、自車両情報、及び必要に応じてドライバ情報などの各種の情報に基づいて、加速、操舵、及び制動に関する運転操作を行うために必要な各種の制御部品を制御し、車両の運転操作を自動的に実施する。
また電子制御ユニット80は、自動運転制御部90の他にも運転支援実施部94を備えており、手動運転モード中及び自動運転モード中のドライバの安全確保などを目的とした各種の運転支援を自動的に実施できるように構成される。
本実施形態による運転支援実施部94は、このような運転支援を行うために、ドライバモニタカメラ31によって撮影されたドライバの画像、すなわち前述したドライバの外観情報に基づいてドライバの状態を監視するドライバ状態監視部95を備えており、例えばドライバが脇見等をして周辺監視を怠っているときに注意喚起を促すなど、ドライバ状態に応じた適切な運転支援を実施することができるように構成されている。
ここで本実施形態によるドライバ状態監視部95は、ドライバモニタカメラ31の撮影画像(すなわちドライバの外観情報)に基づいて、まずドライバの両眼の位置や鼻の位置、両眼の間隔等を検出(学習)して基準となるドライバの顔の画像(基準画像)を設定し、その基準画像と、ドライバモニタカメラ31によって随時撮影されるドライバの顔画像(すなわち随時送信されてくるドライバの外観情報)と、を比較することによって、ドライバの顔や視線がどの方向を向いているか等のドライバ状態の監視を行うように構成されている。
すなわちドライバ状態監視部95は、ドライバモニタカメラ31の撮影画像に基づいて、ドライバの顔の基準画像を設定する基準画像設定部951と、ドライバモニタカメラ31の撮影画像と基準画像とに基づいて、ドライバの状態を監視する監視部952と、を備えるように構成されている。
ここで基準画像の設定は、ドライバが交代したときに一度実施すればよいものであるが、ドライバ状態の監視中においては、ドライバが姿勢を変えてドライバモニタカメラ31の画角内から一時的にドライバの顔が見切れてしまったり、物やドライバの手によってドライバの顔が一時的に隠れてしまったりすることがある。
このような場合には、一時的にドライバの顔が認識できなくなるが、例えば自動運転が行われる車両では、自動運転中にドライバの交代が行われることも考えられ、この場合も一時的にドライバの顔が認識できなくなる。
したがって、ドライバ状態監視部95を上記のような構成、すなわち基準画像設定部951、及び監視部952のみを備える構成にしてしまうと、一時的にドライバの顔が認識できなくなった原因が、ドライバの姿勢等の変化によるものであるのか、又はドライバが交代したことによるものなのかを判断することができない。
一時的にドライバの顔が認識できなくなった原因がドライバの交代によるものだった場合には、基準画像を再設定しないと、交代前の別のドライバの基準画像をもとにドライバ状態の監視が行われるおそれがあり、その結果、ドライバ状態の監視を正常に行うことができなくなるおそれがある。
一方で、ドライバの顔の基準画像の設定には、前述したようにドライバの両眼の位置や鼻の位置、両眼の間隔等を検出する必要があるので、或る程度の時間が必要となる。そのため、ドライバが交代していないにもかかわらず、姿勢等の変化によって一時的にドライバの顔が認識できなくなったからといって、次にドライバモニタカメラ31にドライバの顔が写り込んだときにその顔の基準画像を設定するような構成にすると、基準画像を設定している期間中は、ドライバ状態の監視を行うことができなくなる。
そこで本実施形態では、ドライバ状態の監視中にドライバの顔が認識できなくなったときは、ドライバが入れ替わったか否かを判定し、ドライバが入れ替わったと判定したときに限り、ドライバの顔の基準画像を再設定するように、ドライバ状態監視部95を構成することとした。
すなわち、ドライバモニタカメラの撮影画像に基づいてドライバの顔が認識できなくなったか否かを判定する第1判定部953と、ドライバの顔が認識できなくなったときに、ドライバが入れ替わったか否かを判定する第2判定部954と、ドライバが入れ替わったと判定されたときに、ドライバモニタカメラの撮影画像に基づいて、ドライバの顔の基準画像を再設定する基準画像再設定部955と、をさらに備えるように、ドライバ状態監視部95を構成することとした。以下、この本実施形態によるドライバ状態監視制御について説明する。
図4は、本実施形態によるドライバ監視制御について説明するフローチャートである。電子制御ユニット80は、車両の運転中に本ルーチンを所定の演算周期で繰り返し実施する。
ステップS1において、電子制御ユニット80は、ドライバの外観情報を取得する。
ステップS2において、電子制御ユニット80は、基準画像設定済フラグF1が1に設定されているか否かを判定する。基準画像設定済フラグF1は、初期値が0に設定されているフラグであって、基準画像を最初に設定したとき、又は再設定したときに1に設定される。電子制御ユニット80は、基準画像設定済フラグF1が0であれば、ステップS3の処理に進む。一方で電子制御ユニット80は、基準画像設定済フラグF1が1であれば、ステップS7の処理に進む。
ステップS3において、電子制御ユニット80は、基準画像の設定が可能か否かを判定する。具体的には電子制御ユニット80は、ドライバの外観情報からドライバの両眼の位置や鼻の位置、両眼の間隔等の検出が可能か、すなわちドライバの外観情報に基づいてドライバの顔を認識することができるか否かを判定する。電子制御ユニット80は、ドライバの外観情報に基づいてドライバの顔を認識することができる場合は、基準画像の設定が可能と判定してステップS4の処理に進む。一方で電子制御ユニット80は、例えばドライバモニタカメラ31の画角内にドライバの顔が収まっていなかったり、手や物でドライバの顔の一部が隠れてしまっていたりする場合など、ドライバの外観情報に基づいてドライバの顔を認識することができない場合は、ステップS6の処理に進む。
ステップS4において、電子制御ユニット80は、ドライバの外観情報に基づいて認識したドライバの顔画像を、当該ドライバの基準画像として設定する。
ステップS5において、電子制御ユニット80は、基準画像設定済フラグF1を1に設定する。
ステップS6において、電子制御ユニット80は、例えば情報提供装置61を介して例えば「カメラに顔が映るようにして下さい」といった文字情報や音声情報をドライバに提供し、ドライバに対してドライバの顔がドライバモニタカメラ31に映るように促す。
ステップS7において、電子制御ユニット80は、ドライバの外観情報に基づいてドライバの顔を認識する。
ステップS8において、電子制御ユニット80は、ドライバの顔を認識することができたか否かを判定する。電子制御ユニット80は、ドライバの外観情報に基づいてドライバの顔を認識することができた場合は、ステップS9の処理に進む。一方で電子制御ユニット80は、ドライバの顔を認識することができなかった場合は、ステップS10の処理に進む。
ステップS9において、電子制御ユニット80は、基準画像と、ドライバの外観情報に基づいて認識したドライバの顔画像と、を比較して、ドライバ状態の監視を行う。
ステップS10において、電子制御ユニット80は、車速が所定車速Vp(例えば10[km/h])以上か否かを判定する。電子制御ユニット80は、車速が所定車速Vp以上であれば、手動運転中はもちろんのこと、自動運転中であっても或る程度の車速で走行しているときにドライバが交代する可能性は低いと判定できるため、今回の処理を終了して基準画像の再設定を行わないようにする。一方で電子制御ユニット80は、車速が所定車速Vp未満であれば、ドライバが交代した可能性を否定できないと判定してステップS11の処理に進む。
ステップS11において、電子制御ユニット80は、シフトポジションが走行レンジ(DレンジやRレンジ)であるか否かを判定する。ドライバは、基本的にシフトポジションを駐車レンジ(Pレンジ)やニュートラルレンジ(Nレンジ)にして運転を交代するのが一般的であり、走行レンジのまま運転を交代する可能性は低いと考えられるためである。したがって電子制御ユニット80は、シフトポジションが走行レンジであれば、ドライバが交代した可能性は低いと判定し、今回の処理を終了して基準画像の再設定を行わないようにする。一方で電子制御ユニット80は、シフトポジションが走行レンジでなければ、ドライバが交代した可能性を否定できないと判定してステップS12の処理に進む。
ステップS12において、電子制御ユニット80は、シートベルト着用情報に基づいて、ドライバがシートベルトを着用しているか否かを判定する。電子制御ユニット80は、ドライバがシートベルトを着用していれば、ドライバが交代した可能性は低いと判定し、今回の処理を終了して基準画像の再設定を行わないようにする。一方で電子制御ユニット80は、ドライバがシートベルトを着用していなければ、ドライバが交代した可能性を否定できないと判定してステップS13の処理に進む。
ステップS13において、電子制御ユニット80は、ドアの開閉情報に基づいて、ドアの開閉が行われたか否かを判定する。電子制御ユニット80は、ドアの開閉が行われてなければ、ドライバが交代した可能性は低いと判定し、今回の処理を終了して基準画像の再設定を行わないようにする。一方で電子制御ユニット80は、ドアの開閉が行われていれば、ドライバが交代した可能性を否定できないと判定してステップS14の処理に進む。
ステップS14において、電子制御ユニット80は、着座情報に基づいて、ドライバがシートに着座しているか否かを判定する。電子制御ユニット80は、ドライバがシートに着座していれば、ドライバが交代した可能性は低いと判定し、今回の処理を終了して基準画像の再設定を行わないようにする。一方で電子制御ユニット80は、ドライバがシートに着座していれば、ドライバが交代した可能性を否定できないと判定してステップS15の処理に進む。
ステップS15において、電子制御ユニット80は、シートポジション情報に基づいて、シートポジションが変更されたか否かを判定する。これは、ドライバが交代したときは、シートポジションが変更される可能性が高いためである。電子制御ユニット80は、シートポジションが変更されていなければ、ドライバが交代した可能性は低いと判定し、今回の処理を終了して基準画像の再設定を行わないようにする。一方で電子制御ユニット80は、シートポジションが変更されていれば、ドライバが交代した可能性を否定できないと判定してステップS16の処理に進む。
ステップS16おいて、電子制御ユニット80は、ドライバが交代した可能性を否定できないため、基準画像を再設定すべく、基準画像設定済フラグF1を0に戻す。
以上説明した本実施形態によれば、ドライバの顔を撮影するドライバモニタカメラ31を備える車両を制御する電子制御ユニット80(制御装置)が、ドライバモニタカメラ31の撮影画像に基づいて、ドライバの顔の基準画像を設定する基準画像設定部951と、ドライバモニタカメラ31の撮影画像と、基準画像と、に基づいて、ドライバの状態を監視する監視部952と、ドライバの状態を監視しているときに、ドライバの顔が認識できなくなったか否かを判定する第1判定部953と、ドライバの顔が認識できなくなったときに、ドライバが入れ替わったか否かを判定する第2判定部954と、ドライバが入れ替わったと判定されたときに、ドライバモニタカメラ31の撮影画像に基づいて、ドライバの顔の基準画像を再設定する基準画像再設定部955と、を備えるように構成される。
このように本実施形態によれば、ドライバが入れ替わったか否かを判定し、ドライバが入れ替わったと判定されたときに限り、ドライバの顔の基準画像が再設定されるので、ドライバが入れ替わっていないにもかかわらず、基準画像の再設定が行われて、再設定期間中にドライバ状態の監視ができなくなるのを防止できる。
第2判定部954は、ドライバの顔が認識できなくなったときに、例えば車速が所定車速Vp以上であれば、ドライバは入れ替わっていないと判定するように構成することができる。またこの他にも、例えばドライバがシートベルトを着用している場合やシフトポジションが走行レンジの場合、ドアが開閉されていない場合、ドライバがシートに着座している場合、シートポジショが変更されていない場合にドライバは入れ替わっていないと判定するように構成することもできる。
第2判定部954をこのような構成とすることで、ドライバの入れ替わりを精度良く判定することができる。
以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。
例えば上記の実施形態では、ドライバが入れ替わったか否かを図4のフローチャートのステップS10からステップS15において判断していたが、判断の順番は適宜入れ替えても良い。またステップS10からステップS15のうちの少なくとも1つの処理を行えば良く、さらにこれら以外のドライバの入れ替わりを判定する処理を加えても良い。
1 自車両
31 ドライバモニタカメラ
80 電子制御ユニット(制御装置)
951 基準画像設定部
952 監視部
953 第1判定部
954 第2判定部
955 基準画像再設定部

Claims (7)

  1. ドライバの顔を撮影するドライバモニタカメラを備える車両を制御するための車両の制御装置であって、
    前記ドライバモニタカメラの撮影画像に基づいて、ドライバの顔の基準画像を設定する基準画像設定部と、
    前記ドライバモニタカメラの撮影画像と、前記基準画像と、に基づいて、ドライバの状態を監視する監視部と、
    ドライバの状態を監視しているときに、ドライバの顔が認識できなくなったか否かを判定する第1判定部と、
    ドライバの顔が認識できなくなったときに、ドライバが入れ替わったか否かを判定する第2判定部と、
    ドライバが入れ替わったと判定されたときに、前記ドライバモニタカメラの撮影画像に基づいて、ドライバの顔の基準画像を再設定する基準画像再設定部と、
    を備える車両の制御装置。
  2. 前記第2判定部は、
    ドライバの顔が認識できなくなったときに、車速が所定車速以上であれば、ドライバは入れ替わっていないと判定する、
    請求項1に記載の車両の制御装置。
  3. 前記第2判定部は、
    ドライバの顔が認識できなくなったときに、ドライバがシートベルトを着用していれば、ドライバは入れ替わっていないと判定する、
    請求項1又は請求項2に記載の車両の制御装置。
  4. 前記第2判定部は、
    ドライバの顔が認識できなくなったときに、シフトポジションが走行レンジであれば、ドライバは入れ替わっていないと判定する、
    請求項1から請求項3までのいずれか1項に記載の車両の制御装置。
  5. 前記第2判定部は、
    ドライバの顔が認識できなくなったときに、ドアが開閉されていなければ、ドライバは入れ替わっていないと判定する、
    請求項1から請求項4までのいずれか1項に記載の車両の制御装置。
  6. 前記第2判定部は、
    ドライバの顔が認識できなくなったときに、ドライバがシートに着座していれば、ドライバは入れ替わっていないと判定する、
    請求項1から請求項5までのいずれか1項に記載の車両の制御装置。
  7. 前記第2判定部は、
    ドライバの顔が認識できなくなったときに、シートポジションが変更されていなければ、ドライバは入れ替わっていないと判定する、
    請求項1から請求項6までのいずれか1項に記載の車両の制御装置。
JP2017225751A 2017-11-24 2017-11-24 車両の制御装置 Active JP6996253B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017225751A JP6996253B2 (ja) 2017-11-24 2017-11-24 車両の制御装置
US16/174,776 US10896338B2 (en) 2017-11-24 2018-10-30 Control system
CN201811405376.5A CN109987101A (zh) 2017-11-24 2018-11-23 车辆的控制装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017225751A JP6996253B2 (ja) 2017-11-24 2017-11-24 車両の制御装置

Publications (2)

Publication Number Publication Date
JP2019096117A true JP2019096117A (ja) 2019-06-20
JP6996253B2 JP6996253B2 (ja) 2022-01-17

Family

ID=66634507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017225751A Active JP6996253B2 (ja) 2017-11-24 2017-11-24 車両の制御装置

Country Status (3)

Country Link
US (1) US10896338B2 (ja)
JP (1) JP6996253B2 (ja)
CN (1) CN109987101A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392718A (zh) * 2021-05-21 2021-09-14 海南师范大学 一种基于区块链的共享汽车行程管理系统及方法
WO2022137955A1 (ja) * 2020-12-23 2022-06-30 株式会社デンソー 状態監視装置及び状態監視プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10416680B2 (en) * 2017-03-14 2019-09-17 Aptiv Technologies Limited Angle finding for a detector having a paired staggered array
JP6973298B2 (ja) * 2018-05-31 2021-11-24 トヨタ自動車株式会社 物体監視装置
JP6999540B2 (ja) * 2018-12-28 2022-01-18 本田技研工業株式会社 情報処理装置及びプログラム
CN112622916A (zh) * 2019-10-08 2021-04-09 株式会社斯巴鲁 车辆的驾驶辅助系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001225666A (ja) * 2000-02-15 2001-08-21 Niles Parts Co Ltd 眼の状態検出装置
JP2002254955A (ja) * 2001-02-28 2002-09-11 Matsushita Electric Ind Co Ltd 走行警告案内装置
JP2008213585A (ja) * 2007-03-01 2008-09-18 Toyota Motor Corp 飲酒運転防止装置
JP2009085728A (ja) * 2007-09-28 2009-04-23 Hitachi Ltd 休憩時間報知装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002303526A (ja) * 2001-04-04 2002-10-18 Matsushita Electric Ind Co Ltd 走行案内装置
US6496117B2 (en) * 2001-03-30 2002-12-17 Koninklijke Philips Electronics N.V. System for monitoring a driver's attention to driving
JP2009180705A (ja) * 2008-02-01 2009-08-13 Aisin Aw Co Ltd ナビゲーション装置、ナビゲーション方法及びプログラム
JP2010204304A (ja) * 2009-03-02 2010-09-16 Panasonic Corp 撮像装置、運転者監視装置および顔部測距方法
TWI488149B (zh) * 2009-09-22 2015-06-11 Automotive Res & Testing Ct Driver monitoring method and its monitoring system
JP2011113503A (ja) * 2009-11-30 2011-06-09 Aisin Aw Co Ltd 運転支援装置
JP6107595B2 (ja) * 2013-10-23 2017-04-05 株式会社デンソー 状態監視装置
JP2017215650A (ja) * 2016-05-30 2017-12-07 アイシン精機株式会社 警報装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001225666A (ja) * 2000-02-15 2001-08-21 Niles Parts Co Ltd 眼の状態検出装置
JP2002254955A (ja) * 2001-02-28 2002-09-11 Matsushita Electric Ind Co Ltd 走行警告案内装置
JP2008213585A (ja) * 2007-03-01 2008-09-18 Toyota Motor Corp 飲酒運転防止装置
JP2009085728A (ja) * 2007-09-28 2009-04-23 Hitachi Ltd 休憩時間報知装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022137955A1 (ja) * 2020-12-23 2022-06-30 株式会社デンソー 状態監視装置及び状態監視プログラム
CN113392718A (zh) * 2021-05-21 2021-09-14 海南师范大学 一种基于区块链的共享汽车行程管理系统及方法

Also Published As

Publication number Publication date
CN109987101A (zh) 2019-07-09
US20190163997A1 (en) 2019-05-30
JP6996253B2 (ja) 2022-01-17
US10896338B2 (en) 2021-01-19

Similar Documents

Publication Publication Date Title
JP6354776B2 (ja) 車両の制御装置
US10579056B2 (en) Control system for vehicle
JP6418199B2 (ja) 車両の自動運転システム
JP7087623B2 (ja) 車両の制御装置
JP6252304B2 (ja) 車両用認知通知装置、車両用認知通知システム
JP2019096117A (ja) 車両の制御装置
JP6930383B2 (ja) 車両の制御装置
JP6460058B2 (ja) 車両の制御装置
US20180237008A1 (en) Control device for vehicle
JP2017185946A (ja) 車両の自動運転システム
JP6720732B2 (ja) 車両の制御装置
JP6790522B2 (ja) 車両の制御装置
JP6772527B2 (ja) 車両の制御装置
JP6658358B2 (ja) 車両の制御装置
JP2018185555A (ja) 車両の制御装置
JP2019087874A (ja) 車両の制御装置
JP6701913B2 (ja) 車両の制御装置
US11897482B2 (en) Autonomous vehicle control for changing grip completion status in real-time to prevent unnecessary warning issuance
JP2021172153A (ja) 車両の制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211129

R151 Written notification of patent or utility model registration

Ref document number: 6996253

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151