JP2021059321A - 車両の運転支援システム - Google Patents

車両の運転支援システム Download PDF

Info

Publication number
JP2021059321A
JP2021059321A JP2020130805A JP2020130805A JP2021059321A JP 2021059321 A JP2021059321 A JP 2021059321A JP 2020130805 A JP2020130805 A JP 2020130805A JP 2020130805 A JP2020130805 A JP 2020130805A JP 2021059321 A JP2021059321 A JP 2021059321A
Authority
JP
Japan
Prior art keywords
occupant
alarm
unit
face
determination unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020130805A
Other languages
English (en)
Inventor
中村 亮太
Ryota Nakamura
亮太 中村
雅幸 丸橋
Masayuki Maruhashi
雅幸 丸橋
淳平 時崎
Jumpei Tokizaki
淳平 時崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to CN202011039294.0A priority Critical patent/CN112622916A/zh
Priority to DE102020125659.0A priority patent/DE102020125659A1/de
Priority to US17/060,334 priority patent/US11325609B2/en
Publication of JP2021059321A publication Critical patent/JP2021059321A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)

Abstract

【課題】車両を改善する。【解決手段】車両1の運転支援システム80は、乗員を撮像している第一撮像画像を出力可能な撮像デバイス61と、乗員に対して警報を出力する警報部88と、制御部17と、を有する。制御部17は、第一撮像画像について、乗員の顔の少なくとも一部の認識処理を実行する顔認識部82、第一撮像画像の中の、顔認識部82により顔の少なくとも一部が認識できる第二撮像画像に基づいて乗員の運転状態を判断して、乗員が運転可能な状態ではない場合には第一警報要求を生成する乗員判断部83,84、および、撮像デバイス61が出力可能な画像の中の、顔認識部82により顔の少なくとも一部が認識できない第三撮像画像が複数で発生する場合には、第二警報要求を生成するロス判断部85,86、として機能する。警報部88は、第一警報要求と第二警報要求とに基づいて乗員に対して警報を出力する。【選択図】図3

Description

本発明は、車両の運転支援システムに関する。
自動車では、ドライバなどの乗員による運転によらない自動運転や、乗員による運転を支援することについて、研究が進められている。自動運転は、高度な運転支援である。
その一方で、自動車などの車両に乗車した乗員についての乗員監視装置についての研究も進められている。特許文献1は、乗員を監視して警報出力などを実行する技術を開示する。
これらの技術が有機的に連携できるようにすることにより、自動車といった車両の利便性および安全性が高まることが期待される。
特開平11−043009号公報
ところで、自動車に乗車したドライバなどの乗員を監視する装置では、乗員の監視のために、乗員を撮像する撮像デバイスを好適に用いることができる。撮像デバイスの撮像画像に基づいて、乗員の状態を判断することができる。
しかしながら、乗員を撮像デバイスにより撮像することに基づいて乗員の状態を監視する場合、撮像デバイスの撮像画像に基づく判断となるため、たとえば以下のような課題がある。
たとえば車両では、その走行環境に応じて、たとえば乗員の顔に強い光が当たったり、車内が真っ暗となったりすることがある。この場合、乗員監視装置は、撮像画像に基づいて乗員の顔の状態を正しく判断できなくなる可能性がある。そして、乗員監視装置の判断結果に基づいて制御を実行する車両の運転支援システムも、正しい判断に基づく制御が実行できなくなる可能性がある。
このため、車両の乗員監視装置には、上述した撮像画像においても、可能な限り乗員の顔の状態を判断できるようにすることが求められる。このような画像判断を可能とするためには、たとえば撮像画像においてはっきりと映っていない乗員の顔を乗員の顔として判断できるように、乗員の顔の状態の判断基準を調整することになる。しかしながら、このような調整をした場合での乗員の顔の状態の判断基準は、本来の判断基準と比べて甘くなると予想される。その結果、たとえば、乗員がたとえば自動車を運転可能な正しい運転状態であるにもかかわらず、撮像画像の質および甘い判断基準により、誤って不適切な運転状態であると判断してしまう可能性についての危惧が高まる。この他にもたとえば、乗員がたとえば自動車を運転可能な正しい運転状態ではないにもかかわらず、撮像画像の質および甘い判断基準により、誤って適切な運転状態であると判断してしまう可能性についての危惧が高まる。
このように車両は、改善することが求められている。
本発明の一実施形態に係る車両の運転支援システムは、車両の乗員を撮像している第一撮像画像を出力可能な撮像デバイスと、乗員に対して警報を出力する警報部と、前記撮像デバイスおよび前記警報部を用いた制御を実行可能な制御部と、を有し、前記制御部は、前記撮像デバイスから取得する前記第一撮像画像について、乗員の顔の少なくとも一部の認識処理を実行する顔認識部、前記撮像デバイスが出力可能な前記第一撮像画像の中の、前記顔認識部により顔の少なくとも一部が認識できる第二撮像画像に基づいて乗員の運転状態を判断して、乗員が運転可能な状態ではない場合には第一警報要求を生成する乗員判断部、および、前記撮像デバイスが出力可能な前記第一撮像画像の中の、前記顔認識部により顔の少なくとも一部が認識できない第三撮像画像が複数で発生する場合には、第二警報要求を生成するロス判断部、として機能し、前記警報部は、前記乗員判断部の前記第一警報要求と、前記ロス判断部の前記第二警報要求とに基づいて、乗員に対して警報を出力する。
好適には、前記乗員判断部は、前記第一撮像画像における乗員の顔の目の状態に基づいてわき見または居眠りを判断する、とよい。
好適には、前記ロス判断部は、少なくとも、前記乗員判断部が乗員の運転状態を判断することができない前記第一撮像画像については、顔が認識できない前記第三撮像画像として、顔が認識できない前記第三撮像画像が複数で発生しているか否かを判断する、とよい。
好適には、前記ロス判断部は、前記撮像デバイスから前記第一撮像画像を取得できない場合には、前記顔認識部により顔が認識できない前記第三撮像画像が発生しているものとして、顔が認識できない前記第三撮像画像が複数で発生しているか否かを判断する、とよい。
好適には、前記ロス判断部は、前記撮像デバイスが出力可能な前記第一撮像画像について前記顔認識部により顔が認識できないことが継続的に発生する場合、前記第二警報要求を生成する、とよい。
好適には、前記ロス判断部として、前記顔認識部により顔が認識できない状態が連続的に継続して発生すると、前記第二警報要求としての、第三警報要求を生成する第一ロス判断部と、前記顔認識部により顔が認識できない状態が断続的に繰り返すように継続して発生すると、前記第二警報要求としての、第四警報要求を生成する第二ロス判断部と、を有し、前記警報部は、前記第二警報要求としての、前記第一ロス判断部の前記第三警報要求と、前記第二ロス判断部の前記第四警報要求とに基づいて、乗員に対して警報を出力する、とよい。
好適には、前記第二ロス判断部は、断続的に繰り返し生じていることを、前記第一ロス判断部が連続性を判断する期間より長い期間において判断する、とよい。
好適には、前記車両を運転する際に乗員が操作する操作部材について乗員が操作可能な状態にあるか否かを検出する検出部、を有し、前記警報部は、前記乗員判断部の前記第一警報要求または前記ロス判断部の前記第二警報要求が生成された場合、前記検出部の検出結果に基づいて乗員が前記操作部材を操作可能な状態にあるか否かを判断し、前記操作部材に対する操作が可能な状態にあるとは判断できない場合、乗員に対して前記操作部材に対する操作を要求する警報を出力する、とよい。
好適には、前記車両の走行を制御する走行制御装置、を有し、前記走行制御装置は、前記警報部が警報を出力した後に、乗員が前記操作部材に対して操作可能な状態にあると前記検出部の検出結果が変化しない場合、前記車両を減速または停止する、とよい。
本発明では、車両の乗員を撮像している撮像デバイスの第一撮像画像に基づいて、まず、顔認識部により乗員の顔の少なくとも一部の認識処理を実行する。そして、乗員判断部は、撮像デバイスが出力可能な第一撮像画像の中の、顔認識部により顔の少なくとも一部が認識できるとされた第二撮像画像について、乗員の運転状態を判断する。これにより、乗員判断部は、たとえば顔が認識できない質が良くない第一撮像画像について、乗員の運転状態を判断しなくてよくなる。乗員判断部は、撮像デバイスが出力可能な第一撮像画像の中の、乗員の顔が正しく認識できるように撮像されている第二撮像画像を前提として、その質がよい第二撮像画像に基づいて乗員の運転状態を判断すればよくなる。乗員判断部による乗員の運転状態の判断は、その判断のために最適化することができる。乗員判断部による判断精度は、最適化された判断により高まると期待できる。特に、撮像画像における乗員の顔の一部であるたとえば目の状態に基づいて乗員のわき見や居眠りを判断する場合、画像中の目の像の大きさや解像度が十分に高くないことが多く、乗員判断部には、少ない目の情報に基づいてその目の状態を高精度に判断することが求められる。たとえば目の状態としてその開き具合、瞳孔の大きさといった状態を判断する場合、単にたとえば撮像画像中に目が撮像されているか否かを判断する場合と比べて格段に高い精度の判断が求められる。本発明では、顔認識部による撮像画像についての事前認識をすることにより、乗員判断部を、たとえばそのような高精度の判断をするものにすることが可能になる。そして、前記警報部は、乗員判断部の第一警報要求に基づいて、乗員に対して警報を出力できる。
しかも、本発明では、このような乗員判断部に対して、ロス判断部を、並列的に設ける。そして、このロス判断部は、撮像デバイスから出力される第一撮像画像の中の、顔認識部により顔の少なくとも一部が認識できない第三撮像画像が複数で発生する場合には、乗員判断部と同様に第二警報要求を生成する。これにより、撮像デバイスから出力される第一撮像画像の中の、乗員判断部の判断に係らない第三撮像画像について、ロス判断部により第二警報要求を生成することができる。ロス判断部は、たとえば乗員判断部の判断に係らない第三撮像画像において乗員がたとえばわき見または居眠りといった不適切な運転状態である可能性が内在している場合には、乗員の状態を撮像画像に基づいて直接的に判断することなく、その可能性が内在していることに基づいて第二警報要求を生成することができる。このような乗員判断部とロス判断部との並列的な協働処理により、乗員がたとえばわき見または居眠りといった不適切な運転状態にある可能性がある場合には、それについての警報を略確実に出力することができる。本発明では、撮像デバイスの撮像環境や状態によらずに、乗員がたとえばわき見または居眠りといった不適切な運転状態にある可能性がある場合には、それについての警報を略確実に出力することができる。
このように本発明では、処理としては互いに相反的な要求となる、乗員が不適切な運転状態であることについての正しく判断することと、乗員が不適切な運転状態にある可能性がある場合にはそれについての警報を広く出力することと、を両立することができる。本発明は、車両の乗員監視として、乗員の運転状態を正しく判断できるようにしつつ、不適切な運転状態についてはその可能性がある場合を含めて広く警報を出力して安全性を優先することができ、車両において好適に用いることができる。
図1は、本発明の実施形態に係る自動車の模式的な説明図である。 図2は、図1の自動車の制御系の模式的な説明図である。 図3は、図2の制御系に実現される自動車の運転支援システムの説明図である。 図4は、図3の乗員監視装置の制御の流れのフローチャートである。 図5は、図3の警報装置の制御の流れのフローチャートである。 図6は、図3の走行制御装置の制御の流れのフローチャートである。 図7は、顔が認識できない撮像画像が繰り返し発生している場合での、警報要求の生成処理の一例の説明図である。
以下、本発明の実施形態を、図面に基づいて説明する。
図1は、本発明の実施形態に係る自動車1の模式的な説明図である。
図1の自動車1は、車両の一例である。自動車1は、車体2の中央に、乗員が着座するシート4が配置されている車室3が設けられる。自動車1に乗ったドライバなどの乗員は、シート4に着座して自動車1の走行を操作する。これにより、自動車1は、自動運転または手動運転により走行することができる。自動車1は、乗員による走行についての操作に基づいて走行する場合、運転支援を実行してよい。このような自動車1は、自動運転についての走行と、手動運転による走行との双方を支援する。
図2は、図1の自動車1の制御系10の模式的な説明図である。図2には、自動車1の制御系10とともに、その制御系10と通信する交通情報システム100が示されている。
自動車1では、走行制御装置により、ドライバなどの乗員による運転によらない自動運転や、乗員による運転を支援することが求められる。また、自動車1では、乗員監視装置81により、乗車した乗員を識別して監視することが求められている。これらの技術が有機的に連携することにより、たとえばドライバを特定して、そのドライバに応じた高度な運転支援が実現可能になると考えられる。自動車1の利便性および安全性が高まると期待される。
図2には、自動車1の制御系10を構成する複数の制御装置が、それぞれに組み込まれる制御ECU(Electronic Control Unit)により代表して示されている。
図2の自動車1の制御系10には、具体的には、駆動ECU11、操舵ECU12、制動ECU13、自動車1の自動運転または手動運転時の運転支援により走行を制御する装置としてのドライブECU(自動運転/運転支援ECU)14、運転操作ECU15、検出ECU16、乗員監視装置の乗員監視ECU17、警報装置の警報ECU18、外通信ECU19、UIECU20、が示されている。これら複数の制御ECUは、直接的にはケーブル26に接続され、自動車1で採用されるたとえばCAN(Controller Area Network)やLIN(Local Interconnect Network)といった車ネットワーク25により、中継装置としてのセントラルゲートウェイ(CGW)27に接続される。各制御ECUは、送信元である自身のIDと送信先の装置のIDとを付加した暗号化データにより、相互に通信することができる。各制御ECUは、送信先を指定しない暗号化データにより、ブロードキャストのように複数の他の制御ECUへ同時に送信してよい。また、各制御ECUは、自身のIDが送信先である暗号化データを受信し、自身の制御に使用する。なお、制御ECUは、自身以外の特定のIDが送信先である暗号化データについても受信し、自身の制御に使用してよい。セントラルゲートウェイ27は、複数のケーブル26のそれぞれから受信した暗号化データが他のケーブル26に接続される制御ECUへのものである場合、受信した暗号化データを他のケーブル26へ出力する。これにより、図2に示す複数の制御ECUは、相互に暗号化データを送受できる。
駆動ECU11は、車ネットワーク25を通じて暗号化データを受信し、自動車1に設けられる不図示のエンジンまたはモータといった駆動源、トランスミッションを制御する。これにより、自動車1は、加速して走行することができる。
操舵ECU12は、車ネットワーク25を通じて暗号化データを受信し、自動車1に設けられる不図示のステアリング装置を制御する。これにより、自動車1は、進行方向を変えることができる。
制動ECU13は、車ネットワーク25を通じて暗号化データを受信し、自動車1に設けられる不図示のブレーキ装置を制御する。これにより、走行する自動車1は、減速し、停車できる。また、制動ECU13は、車ネットワーク25を通じて駆動ECU11と通信して、駆動源の回転を抑制したり、トランスミッションのギア比を変更したりして、走行する自動車1を減速させてもよい。
運転操作ECU15は、自動車1の走行を操作するためのハンドル31、ブレーキペダル32、アクセルペダル33、シフトレバ34といった操作部材に接続される。運転操作ECU15は、操作された操作部材についての操作情報などを含む暗号データを、車ネットワーク25を通じてドライブECU14などへ出力する。
検出ECU16は、たとえば速度センサ41、加速度センサ42、外カメラ43、ハンズオンセンサ44、に接続される。速度センサ41は、自動車1の速度を検出する。加速度センサ42は、自動車1の加速度を検出する。外カメラ43は、自動車1の外側の周囲を撮像する。外カメラ43は、たとえば自動車1の前方、側方、後方などを撮像してよい。ハンズオンセンサ44は、たとえばハンドル31に設けられ、ハンドル31を操作する乗員の手による静電容量や圧力の変化を検出する。検出ECU16は、接続されているセンサの物理量などを、自動車1の走行について自動車1において検出される物理量として取得し、車ネットワーク25を通じてドライブECU14などへ出力する。また、検出ECU16は、外カメラ43による外の画像を解析して、自動車1の周囲にいる他の移動体を検出し、検出した他の移動体についての情報を、車ネットワーク25を通じてドライブECU14などへ出力してよい。
外通信ECU19は、自動車1の外と通信する。外通信ECU19は、たとえば交通情報システム100の通信中継局101と通信してサーバ装置102との間で、通信データを送受する。外通信ECU19は、この他にもたとえば、自動車1の近くを走行している他の自動車110や歩行者の不図示の携帯端末との間で、たとえばV2X通信により通信データを送受する。外通信ECU19は、これらの通信により、自動車1の目的地までのナビゲーションデータ、交通情報、自動車1の周囲の状況の情報、などを受信すると、車ネットワーク25を通じてドライブECU14などへ出力してよい。
UIECU20には、たとえば表示デバイス51、操作デバイス52、に接続される。
操作デバイス52は、表示デバイス51の表示画面に重ねられるタッチパネル、複数のキーを有してよい。UIECU20は、表示に関する暗号化データを受信すると、表示デバイス51に画像を表示させる。UIECU20は、表示デバイス51の表示に応じた操作デバイス52の操作に基づいて、たとえばナビゲーションデータなどを生成し、車ネットワーク25を通じてドライブECU14などへ出力してよい。
ドライブECU14は、自動車1の走行を、自動運転と運転支援との間で切り替えて制御する。ドライブECU14は、車ネットワーク25を通じて取得する各種の情報に基づいて、自動車1の走行を制御する。たとえば自動運転の場合、ドライブECU14は、ナビゲーションデータにしたがって周囲の安全を確認しながら目的地まで走行するように、駆動ECU11、操舵ECU12、制動ECU13へ制御情報を出力する。運転支援の場合、ドライブECU14は、操作情報に基づいて、その操作量を周囲の安全などに応じて調整した制御情報を、駆動ECU11、操舵ECU12、制動ECU13へ出力する。
乗員監視ECU17は、内カメラ61、マイクロホン62、タイマ63、メモリ64、に接続される。
内カメラ61は、自動車1の車内を撮像するために車室3に設けられる。内カメラ61は、車室3の内面、たとえば図1に示すように乗員の前にあるダッシュボードの上に設けられる。これにより、内カメラ61による撮像画像には、自動車1に乗っているドライバなどの乗員が映る。自動車1の車内全体を撮像する場合、内カメラ61は、広角カメラ、または360度カメラとするとよい。内カメラ61は、所定の周期ごとに、車室3の乗員を繰り返し撮像する。
マイクロホン62は、自動車1の車内の音を記録する。
タイマ63は、時刻、時間を計測する。
メモリ64は、乗員監視のためのプログラム、設定データ、などを記録する。
乗員監視ECU17は、メモリ64からプログラムを読み込んで実行する。これにより、乗員監視ECU17は、乗員監視装置81の制御部として機能する。
乗員監視装置81の制御部としての乗員監視ECU17は、内カメラ61の撮像画像、マイクロホン62の記録音声に基づいて、自動車1に乗車しているドライバを含む乗員を監視する。
乗員監視ECU17は、たとえば内カメラ61の撮像画像に基づいて、自動車1に乗車している乗員を識別する。
乗員監視ECU17は、識別した乗員についての自動車1の設定情報を、車ネットワーク25を通じてドライブECU14などへ出力してよい。
乗員監視ECU17は、識別した乗員または乗車しているドライバなどの運行責任者についての状態を監視し、必要に応じて警報要求を生成して車ネットワーク25を通じて出力する。乗員監視ECU17は、たとえば乗員の目の開き程度などに基づいて居眠りを判断したり、たとえば乗員の顔や目の向きに基づいてわき見を判断したりして、居眠りまたはわき見の状態にあると判断した場合に警報要求を生成して出力してよい。
警報ECU18は、メータパネル71、スピーカ72、に接続される。
メータパネル71は、車室3の内面、たとえば乗員の前にあるダッシュボードに設けられる。メータパネル71は、警告を表示する液晶パネル、発光素子、を有する。
スピーカ72は、車室3の内面に、たとえばドア、ダッシュボード、ピラー、ルーフ、などに設けられる。
警報ECU18は、たとえば車ネットワーク25へ警告要求が出力されると、それを取得し、警告要求に対応する警告音、警告表示、警告メッセージを、メータパネル71およびスピーカ72から出力する。これにより、車室3にいる乗員は、自動車1が発する警告を認識し、その警告に対応することができる。
ところで、自動車1に乗車したドライバなどの乗員を監視する乗員監視装置81では、乗員の乗車状態を監視のために、乗員を撮像する内カメラ61を用いることが多い。この場合、乗員監視装置81の乗員監視ECU17は、内カメラ61の撮像画像に基づいて、乗員の状態を判断することになる。
しかしながら、乗員を内カメラ61により撮像することに基づいて乗員の状態を判断する場合、内カメラ61の撮像画像に基づく判断となるため、たとえば以下のような課題がある。
たとえば自動車1では、その走行環境に応じて、たとえば乗員の顔に強い光が当たったり、車内が真っ暗となったりすることがある。この場合、乗員監視ECU17は、撮像画像に基づいて乗員の状態を正しく判断できなくなる可能性がある。特に、撮像画像において面積が小さい目などについて、その向きや開き具合などを判断する場合、乗員の顔に強い光が当たったり、車内が真っ暗となったりすると、撮像画像においてそれらを判断することが困難となる可能性が高い。そして、乗員監視ECU17の判断結果に基づいて警告や制御を実行する自動車1も、正しい判断に基づく適切な警告や制御を実行できなくなる可能性がある。
このため、乗員監視ECU17には、上述したような不適切な撮像画像についても、可能な限り乗員の状態を判断することが求められる。このような画像判断を可能とするためには、撮像画像においてはっきりと映っていない乗員のたとえば顔や目を、乗員の顔や目として判断して、乗員の状態を判断することが考えられる。乗員監視ECU17による乗員の状態の判断基準は、撮像画像においてはっきりと映っている乗員の顔や目について判断をする場合と比べて、甘く調整することになる。このため、このような調整をした判断では、その調整の結果として、たとえば、乗員がたとえば自動車1を運転可能な正しい運転状態にあるにもかかわらず、誤って不適切な運転状態であると判断してしまう可能性についての危惧が高まる。この他にもたとえば、乗員がたとえば自動車1を運転可能な正しい運転状態にないにもかかわらず、誤って適切な運転状態にあると判断してしまう可能性についての危惧が高まる。
このように乗員監視装置81の乗員監視ECU17には、内カメラ61の撮像画像に基づいて、その撮像画像の質が良くない場合であっても、乗員の乗車状態を適切に判断して、自動車1が警告や制御を適切に実行できるようにすることが求められる。
また、自動車1の運転支援システム80では、たとえば自動運転中の誤った判断や過敏な判断により乗員に対してハンズオンなどの所定の動きや操作を頻繁にまたは過度に要求することがないように、警告を出力し過ぎないようにすることが求められる。
このように自動車1の運転支援システム80では、さらに改善することが求められる。
図3は、図2の制御系10に実現される自動車1の運転支援システム80の説明図である。
図3の運転支援システム80は、乗員監視装置81、警報装置87、走行制御装置89、ハンズオンセンサ44、を有する。乗員監視装置81、警報装置87、および走行制御装置89は、車ネットワーク25により接続されている。
ハンズオンセンサ44は、ハンドル31を操作する乗員の手による静電容量や圧力の変化を検出するものであり、これにより自動車1を手動運転するために乗員が操作するハンドル31について乗員が手をのせて操作可能な状態にあるか否かを検出することができる。
乗員監視装置81は、プログラムを実行する乗員監視ECU17の機能として、顔認識部82、わき見判断部83、居眠り判断部84、連続ロス判断部85、頻発ロス判断部86、を有する。また、図3には、この他にも、内カメラ61、タイマ63が示されている。
内カメラ61は、車室3の乗員を、所定の周期ごとに繰り返して撮像して撮像画像を出力する。
顔認識部82は、内カメラ61の撮像画像について、乗員の顔、またはその一部である目、鼻、口などの認識処理を実行する。顔認識部82は、後段のわき見判断部83や居眠り判断部84の判断に撮像画像が使用し得るかを簡便な処理により確認してもよいが、好ましくは、後段のわき見判断部83や居眠り判断部84より厳しい判断基準により撮像画像中の乗員の顔、目、鼻、口を認識するとよい。これにより、顔認識部82は、少なくとも、後段のわき見判断部83や居眠り判断部84の判断に係る目の画像部分に白目と黒目とが撮像されていないなどの場合には、その撮像画像を乗員の運転状態を判断することができない撮像画像とすることができる。または、後段のわき見判断部83や居眠り判断部84がその判断に迷う可能性がある撮像画像とすることができる。そして、顔認識部82は、撮像画像中に乗員の顔、目、鼻、口が適切に認識できる場合、乗員が認識できたことを示す許可信号を出力する。認識できない場合には、不許可信号を出力してもよい。
わき見判断部83は、許可信号が入力される場合、内カメラ61の撮像画像について、乗員のわき見を判断する。わき見判断部83は、たとえば、撮像画像中の乗員の顔や目を撮像している部分を抽出し、抽出した部分画像に基づいて乗員の顔や目の向きを判断する。この際、わき見判断部83は、前段の顔認識部82の認識結果を使用して抽出または判断をしても、独自の処理により一から抽出および判断をしてもよい。そして、乗員の顔や目の向きが自動車1の進行方向であるたとえば前方を向いていない場合、わき見についての警告要求を出力する。このように、わき見判断部83は、撮像画像における顔の状態または目の状態に基づいて、わき見を判断する。
居眠り判断部84は、許可信号が入力される場合、内カメラ61の撮像画像について、乗員の居眠りを判断する。居眠り判断部84は、たとえば、撮像画像中の乗員の目を撮像している部分を抽出し、抽出した部分画像に基づいて乗員の目の開き具合を判断する。この際、居眠り判断部84は、前段の顔認識部82の認識結果を使用して抽出または判断をしても、独自の処理により一から抽出および判断をしてもよい。そして、乗員の目の開き具合が所定の閾値以下である場合、居眠りについての警告要求を出力する。このように、居眠り判断部84は、撮像画像における目の状態に基づいて、居眠りを判断する。
このようにわき見判断部83と、居眠り判断部84とは、乗員の顔などが認識できる撮像画像に基づいて乗員のわき見または居眠りといった不適切な運転状態にあるか否かを判断して、不適切な運転状態である場合には警報要求を生成して出力する。ここで、不適切な運転状態とは、たとえば乗員が自動車1の走行を操作する場合にとる運転姿勢の状態ではないこと、または、直ぐに操作し得ると定義されている状態ではないこと、をいう。
連続ロス判断部85は、たとえば許可信号が入力されていない状態での内カメラ61の撮像画像の数をカウントする。カウント値は、メモリ64に記録されてよい。連続ロス判断部85は、許可信号が入力されている状態での内カメラ61の撮像画像が発生すると、カウント値をリセットしてよい。これにより、連続ロス判断部85は、許可信号が入力されていない状態において連続する複数の撮像画像の数をカウントすることができる。なお、許可信号が入力されていない状態には、内カメラ61が撮像画像を出力するタイミングにおいて撮像画像が出力されていない場合が含まれる。この場合にも、顔認識部82は、許可信号を出力することができないからである。そして、連続数を示すカウント値が、所定の連続ロス判断期間に相当する閾値回数以上になると、連続ロス判断部85は、撮像画像が連続的に不適切となるためにわき見や居眠りを正しく判定することができないことについての警告要求を出力する。連続ロス判断期間は、タイマ63により継続されてよい。
このように、連続ロス判断部85は、内カメラ61から出力されるはずの複数の撮像画像について顔認識部82により顔が継続的に認識できない状態が一定数以上または一定期間以上において継続的に繰り返し発生すると、警報要求を生成して出力する。
頻発ロス判断部86は、たとえば許可信号が入力されていない状態での内カメラ61の撮像画像の数をカウントする。カウント値は、メモリ64に記録されてよい。頻発ロス判断部86は、許可信号が入力されている状態での内カメラ61の撮像画像が発生しても、カウント値をリセットしないで、そのままの値からカウントを継続する。これにより、連続ロス判断部85は、許可信号が入力されていない状態が断続的に発生した場合でも、その期間全体を通じて、許可信号が入力されていない状態での複数の撮像画像の数をカウントすることができる。なお、許可信号が入力されていない状態には、内カメラ61が撮像画像を出力するタイミングにおいて撮像画像が出力されていない場合が含まれる。そして、直近の頻発ロス判断期間におけるカウント値が閾値回数以上になると、断続ロス判断部は、撮像画像が断続的に不適切となるためにわき見や居眠りを正しく判定することができないことについての警告要求を出力する。直近の頻発ロス判断期間は、タイマ63により継続されてよい。このように、頻発ロス判断部86は、内カメラ61から出力されるはずの複数の撮像画像について顔認識部82により顔が継続的に認識できない状態が直近の一定数以上または直近の一定の累積期間以上において断続的に繰り返し発生すると、警報要求を生成して出力する。
このように連続ロス判断部85と頻発ロス判断部86とは、内カメラ61から連続して出力される複数の撮像画像について顔認識部82により顔が繰り返し認識できない場合、警報要求を生成して出力する。
警報装置87は、プログラムを実行する警報ECU18の機能として、警報部88、を有する。
警報部88は、乗員監視装置81から警報要求があると、ハンズオンセンサ44の検出に基づいて、乗員が操作部材を操作可能な状態にあるか否かを判断する。そして、乗員が操作部材を操作可能な状態にあるとは判断できない場合、警報部88は、警報要求に応じた警報を選択し、警報を出力する。たとえば、警報部88は、警報要求に基づいて、乗員に対してわき見または居眠りといった不適切な運転状態を正すための警報を出力する。警報は、スピーカ72、メータパネル71から、乗員に対して出力される。ここでの警報は、たとえばわき見または居眠りといった不適切な運転状態を正すためのハンズオンの警報でよい。また、乗員が操作部材を操作可能な状態にあると判断できる場合、警報部88は、警報を出力しない。これにより、不要な警報出力を減らすことができる。
走行制御装置89は、プログラムを実行するドライブECU14の機能として、走行制御部90、を有する。
走行制御部90は、自動車1の自動運転中および手動運転中に、自動車1の走行を制御する。走行制御部90は、たとえば自動車1の自動運転中に、乗員の操作によらずに自動車1の走行を制御する。
走行制御部90は、警報装置87の警報出力の後、または乗員監視装置81の警報要求の出力の後に、ハンズオンセンサ44の検出に基づいて、乗員が操作部材を操作可能な状態にあるか否かを判断する。そして、乗員が操作部材を操作可能な状態にあるとは判断できない場合、走行制御部90は、警報の内容に応じて予め定められた自動車1の走行制御を実行する。走行制御部90は、たとえば走行中の自動車1を減速させ、安全性のある路肩などに自動車1を停車する。
図4は、図3の乗員監視装置81の制御の流れのフローチャートである。
乗員監視ECU17は、図4の処理を繰り返し実行する。
ステップST1において、乗員監視ECU17は、内カメラ61が撮像画像を出力する撮像画像取得タイミングであるか否かを判断する。乗員監視ECU17は、タイマ63により計測される時刻や前回の取得タイミングからの経過時間に基づいて、撮像画像取得タイミングであるか否かを判断してよい。撮像画像取得タイミングでない場合、乗員監視ECU17は、本処理を繰り返す。撮像画像取得タイミングになると場合、乗員監視ECU17は、処理をステップST2へ進める。
ステップST2において、乗員監視ECU17は、内カメラ61が撮像画像を出力する新たな撮像画像を取得する。
ステップST3において、乗員監視ECU17は、顔認識部82として、取得した新たな撮像画像について、乗員の顔、または顔の一部である目、鼻、口についての認識処理を実行する。乗員監視ECU17は、特に目については、その白目と黒目との認識処理を実行する。撮像画像には、たとえば撮像環境に起因して乗員の顔、または顔の一部である目、鼻、口が良好に判別可能に撮像されていないことがある。また、乗員監視ECU17は、たとえば内カメラ61の不具合などにより、撮像画像取得タイミングの撮像画像を取得できないことがある。乗員監視ECU17は、これらの状況を含めて、乗員の認識処理を実行する。乗員監視ECU17は、撮像画像について乗員の顔、または顔の一部である目、鼻、口を認識できる場合、乗員が認識できたことを示す許可信号を、以下の後段の処理に係るわき見判断部83、居眠り判断部84、連続ロス判断部85、頻発ロス判断部86へ出力する。それ以外の場合、乗員監視ECU17は、許可信号を出力しない。または、乗員監視ECU17は、不許可信号を出力してもよい。これらの許可信号は、たとえばメモリ64に記録されることにより、またはプログラム間通信により直接的に送信されることにより出力されてよい。
ステップST4において、乗員監視ECU17は、顔認識部82として、撮像画像について乗員の顔、または顔の一部である目、鼻、口を認識できたか否かを判断する。撮像画像について乗員の顔、または顔の一部である目、鼻、口を認識できた場合、乗員監視ECU17は、処理をステップST5へ進める。
乗員の顔などを認識できない場合、乗員監視ECU17は、処理をステップST8へ進める。
ステップST5において、乗員監視ECU17は、許可信号が入力されているわき見判断部83として、内カメラ61の撮像画像について、乗員のわき見を判断する。乗員がわき見をしていると判断する場合、乗員監視ECU17は、処理をステップST10へ進める。乗員がわき見をしていると判断しない場合、乗員監視ECU17は、処理をステップST6へ進める。
ステップST6において、乗員監視ECU17は、許可信号が入力されている居眠り判断部84として、内カメラ61の撮像画像について、乗員の居眠りを判断する。乗員が居眠りをしていると判断する場合、乗員監視ECU17は、処理をステップST10へ進める。乗員が居眠りをしていると判断しない場合、乗員監視ECU17は、図4の処理を終了する。
なお、乗員監視ECU17は、ステップST6の居眠り判断を、ステップST5のわき見判断の前に実行してもよい。
ステップST7において、乗員監視ECU17は、顔認識部82により顔認識ができなかった画像ロスをメモリ64に記録する。乗員監視ECU17は、たとえば顔認識ができなかったロス画像としての撮像画像の連続数をカウントし、そのカウント値をメモリ64に記録してよい。この他にもたとえば、乗員監視ECU17は、顔認識部82により顔認識ができなかったロス画像としての撮像画像の取得実行時刻を、メモリ64に蓄積記録してよい。
ステップST8において、乗員監視ECU17は、許可信号が入力されていない連続ロス判断部85として、顔認識部82により顔認識ができなかったロス画像が、予め設定される連続ロス判断期間に相当する一定数以上で連続的に発生しているか否かを判断する。
乗員監視ECU17は、直近で連続して発生しているロス画像の画像数と、連続ロス判断期間に相当する判断閾値とを比較する。そして、直近で連続して発生しているロス画像の画像数が判断閾値以上である場合、乗員監視ECU17は、処理をステップST10へ進める。それ以外の場合、乗員監視ECU17は、処理をステップST9へ進める。
ステップST9において、乗員監視ECU17は、許可信号が入力されていない頻発ロス判断部86として、顔認識部82により顔認識ができなかったロス画像が、予め設定される直近の頻発ロス判断期間において一定頻度以上で断続的に発生しているか否かを判断する。乗員監視ECU17は、直近の頻発ロス判断期間でのロス画像のカウント値と、頻発ロス判断期間について予め設定されるロス画像の発生数の閾値とを比較する。直近の頻発ロス判断期間でのロス画像のカウント値が発生数の閾値以上である場合、乗員監視ECU17は、処理をステップST10へ進める。それ以外の場合、乗員監視ECU17は、図4の処理を終了する。
ステップST10において、乗員監視ECU17は、ハンズオンの警報要求を、車ネットワーク25を通じて警報ECU18やドライブECU14へ出力する。乗員監視ECU17は、警報要求の発生要因を区別することができるように、警報要求を出力してよい。
図5は、図3の警報装置87の制御の流れのフローチャートである。
警報ECU18は、警報装置87の警報部88として、図5の処理を繰り返し実行する。
ステップST21において、警報ECU18は、乗員監視装置81からハンズオンの警報要求を取得したか否かを判断する。警報要求を取得していない場合、警報ECU18は、本処理を繰り返す。警報要求を取得すると、警報ECU18は、処理をステップST22へ進める。
ステップST22において、警報ECU18は、ハンズオンセンサ44の検出値を取得する。検出ECU16は、ハンドル31が乗員の手により握られている場合、ハンズオンセンサ44の検出値として、ハンズオンを出力する。検出ECU16は、ハンドル31が乗員の手により握られていない場合、ハンズオンセンサ44の検出値として、ハンズオフを出力する。警報ECU18は、これらいずれかのセンサの検出値を取得する。
ステップST23において、警報ECU18は、ステップST22で取得したセンサ検出値に基づいて、乗員が手動操作を即時的に開始可能なハンズオン状態であるか否かを判断する。乗員がハンズオン状態である場合、警報ECU18は、図5の処理を終了する。
警報ECU18は、警報要求に基づいてハンズオンの警報を出力することなく、図5の処理を終了する。乗員がハンズオン状態でない場合、警報ECU18は、処理をステップST24へ進める。
ステップST24において、警報ECU18は、ハンズオンの警報を出力する。警報ECU18は、ハンズオンの警報を出力したことを、車ネットワーク25を通じてドライブECU14へ出力してよい。
図6は、図3の走行制御装置89の制御の流れのフローチャートである。
ドライブECU14は、走行制御装置89の走行制御部90として、図6の処理を繰り返し実行する。
ステップST31において、ドライブECU14は、自動車1が走行を開始しているか否かを判断する。自動車1が走行を開始していない場合、ドライブECU14は、本処理を繰り返す。自動車1が走行を開始している場合、ドライブECU14は、処理をステップST32へ進める。
ステップST32において、ドライブECU14は、走行情報を取得する。
走行情報には、たとえば、乗員監視装置81のハンズオンの警報要求、警報装置87のハンズオン警報の出力の有無、ハンズオンセンサ44の検出値、自動走行の可否を判断するための情報、が含まれてよい。自動走行の可否を判断するための情報には、たとえば乗員の状態の情報、外カメラ43の撮像画像、周辺の他の移動体の情報、ナビゲーションデータやそれに基づく進路の情報、が含まれてよい。
ステップST33において、ドライブECU14は、ハンズオン警報をしたか否かを判断する。ドライブECU14は、警報装置87がハンズオン警報を出力している場合、または乗員監視装置81がハンズオンの警報要求を出力している場合、ハンズオン警報をしたと判断し、処理をステップST34へ進める。それ以外の場合、ドライブECU14は、処理をステップST36へ進める。
ステップST34において、ドライブECU14は、ハンズオンセンサ44の検出値に基づいて、乗員が手動操作を即時的に開始可能なハンズオン状態であるか否かを判断する。乗員がハンズオン状態である場合、ドライブECU14は、処理をステップST36へ進める。乗員が警報後においてもハンズオン状態でない場合、ドライブECU14は、処理をステップST35へ進める。
ステップST35において、ドライブECU14は、自動車1を安全に停車させるための自動減速停止制御を実行する。ドライブECU14は、周囲の安全を確認しながら走行中の自動車1を減速させ、安全性のある路肩などに自動車1を停車する。これにより、乗員が警報後においてもハンズオン状態でない場合には、自動車1は、減速して停車できる。
ステップST36において、ドライブECU14は、自動運転による自動走行が可能か否かを判断する。ドライブECU14は、たとえばナビゲーションデータやそれに基づく進路の情報と、周辺の他の移動体の情報とがあって、乗員のバックアップを含めて信頼できる安全性が確保し得る状態で自律した自動走行が可能である場合、自動運転による自動走行が可能と判断し、処理をステップST37へ進める。
ステップST37において、ドライブECU14は、自律した自動走行制御を実行する。
ステップST38において、ドライブECU14は、自動車1が自動運転による自動走行状態にあるため、ハンズオフ要求を車ネットワーク25へ出力する。警報部88は、車ネットワーク25を通じてハンズオフ要求を取得して出力する。これにより、乗員は、たとえばハンドル31から手をはなすことができる。
ステップST39において、ドライブECU14は、自動車1が自動運転による自動走行が可能でなくなるため、ハンズオン要求を車ネットワーク25へ出力する。
警報部88は、車ネットワーク25を通じてハンズオン要求を取得して出力する。これにより、乗員は、手でハンドル31を握ることができる。
ステップST40において、ドライブECU14は、乗員の運転操作に基づいて、その運転操作を支援するように自動車1の走行を制御する。
図7は、顔が認識できない撮像画像が繰り返し発生している場合での、警報要求の生成出力処理の一例の説明図である。
顔が認識できない撮像画像については、顔認識部82が許可信号を出力しないため、わき見判断部83と居眠り判断部84とは、それぞれの処理を実行しない。これ対して、連続ロス判断部85と頻発ロス判断部86とは、ロス画像が継続的に発生することに基づいて、それぞれの処理を実行する。
図7において、時間は左から右へ流れる。
図7(A)から図7(C)は、顔認識部82による顔認識ができない画像ロスが連続的な発生している状況の一例のタイミングチャートである。
図7(A)は、撮像画像の取得周期を示している。各矢印が、内カメラ61が撮像画像を出力する1周期に対応している。乗員監視ECU17は、矢印で示される撮像周期ごとに、内カメラ61から撮像画像を取得する処理を実行する。
図7(B)は、取得した撮像画像についての顔認識部82による認識結果の出力信号である。この例では、顔認識部82は、最初の2つの撮像画像については、出力信号として、認識OKの許可信号を出力する。その後の3つの撮像画像については、顔認識部82は、出力信号として、認識NGの不許可信号を出力する。さらにその後の3つの撮像画像については、出力信号として、認識OKの許可信号を出力する。
図7(C)は、連続的な画像ロスに基づいて連続ロス判断部85が出力する警報要求の出力信号である。
この例では、連続ロス判断部85は、3以上の画像ロスが連続的に生じる場合、警報要求を出力する。3以上の撮像画像が連続的に出力される期間が、連続ロスの判断期間となる。カウント値の判断閾値は、3である。
図7(D)から図7(F)は、顔認識部82による顔認識ができない画像ロスが断続的に発生している状況の一例のタイミングチャートである。
図7(D)は、図7(A)と同様に、撮像画像の取得周期を示している。
図7(E)は、取得した撮像画像についての顔認識部82による認識結果の出力信号である。この例では、顔認識部82は、最初の1つの撮像画像については、出力信号として、認識OKの許可信号を出力する。次の1つの撮像画像については、出力信号として、認識NGの不許可信号を出力する。その後は、撮像画像ごとの出力信号として、認識OKの許可信号と、認識NGの不許可信号とを交互に出力している。
図7(F)は、断続的な画像ロスに基づいて頻発ロス判断部86が出力する警報要求の出力信号である。
この例では、頻発ロス判断部86は、直近の7以上の頻発ロスの判断期間において、4以上の画像ロスが断続的に生じる場合、警報要求を出力する。カウント値の判断閾値は、4である。
また、頻発ロスの判断期間は、連続ロスの判断期間より長い。頻発ロスの判断期間でのカウント値の判断閾値は、連続ロスの判断期間でのカウント値の判断閾値より大きい。これにより、連続的な画像ロスがたとえば4以上で発生している場合に、連続ロス判断部85より先に頻発ロス判断部86が警報要求を出力しないようにできる。連続ロス判断部85は、頻発ロス判断部86による警報要求の出力に影響されることなく独自の判断により有意な警報要求を出力できる。
以上のように、本実施形態は、自動車1の乗員を周期的に繰り返して撮像可能な内カメラ61の撮像画像に基づいて、まず事前処理として、顔認識部82により乗員の顔、または顔の一部である目、鼻、口についての認識処理を実行する。そして、わき見判断部83や居眠り判断部84といった乗員判断部は、内カメラ61の撮像画像の中の、顔認識部82により顔などが認識できるとされた撮像画像について、乗員がわき見または居眠りといった不適切な運転状態にないことを判断する。これにより、乗員判断部は、質が良くない内カメラ61の撮像画像について、乗員のわき見または居眠りといった不適切な運転状態にないことを判断しなくてよくなる。乗員判断部は、内カメラ61の撮像画像において乗員の顔などが正しく認識できるように撮像されていることを前提として、その質がよい一部の撮像画像に基づいて乗員のわき見または居眠りといった不適切な運転状態にないことを判断すればよくなる。乗員判断部によるわき見、居眠りといった不適切な運転状態であるか否かの判断は、その判断のために適当とされる内容に合わせることができる。乗員判断部による判断精度は、その判断について適切となるように高まる。特に、撮像画像における目に基づいてわき見、居眠りを判断する場合、画像中の目の像の大きさや解像度が十分に高くなりえないことが多く、乗員判断部には、画像中での情報が少ない目の情報に基づいてその目の状態を高精度に判断することが求められる。たとえば目についての開き具合、瞳孔の大きさといった状態に基づいて、単に目の検出の有無などを判断する場合と比べて格段に高精度な判断をすることが求められる。本発明では、乗員判断部を、このような高精度の判断が可能なものにすることができる。
しかも、本実施形態では、このような高精度の判断が可能な乗員判断部に対して、乗員判断部と同様に警報要求を生成する連続ロス判断部85や頻発ロス判断部86といったロス判断部を、並列的に設ける。そして、これらのロス判断部は、内カメラ61から出力可能な複数の撮像画像について、顔認識部82により顔または顔の一部である目、鼻、口が認識できない撮像画像が継続的に繰り返し発生する場合には、警報要求を生成する。これにより、ロス判断部は、内カメラ61の撮像画像の中の、乗員判断部の判断に係らない撮像画像について、ロス判断部により警報要求を生成することができる。ロス判断部は、内カメラ61の撮像画像の中の、たとえば乗員判断部の判断に係らない撮像画像において乗員がわき見または居眠りといった不適切な運転状態にある可能性がある場合に、その乗員の状態を直接的に判断しないで、その可能性が内在していることに基づいて警報要求を生成することができる。
たとえば乗員判断部において高精度の判断ができない状態の目の撮像画像については、顔認識部82により乗員の顔の一部である目が認識できないと判断するようにすることで、画像から直接的に目の状態を判断できないような画像や状況である場合にはロス判断部の判断により警報要求を生成して出力できる。内カメラ61の撮像画像の中の、乗員判断部では判断に困るような低品質の撮像画像についてはロス判断部の判断により警報要求を生成できるようになる。乗員は、ロス判断部の判断に基づく警報により、乗員判断部の判断に基づく警報の場合と同様に対処することができる。乗員判断部とロス判断部とにより多層化されている直接的および間接的な乗員の運転状態の判断により、本来的に警報要求を生成すべき状況においては、警報を出力することができる。本来的に警報要求を生成すべき状況において、警報要求が生成されなくなってしまう事態の発生を、効果的に抑制できる。
この他にもたとえば、内カメラ61が故障などすると、内カメラ61から撮像画像を取得できなくなる。このような場合、顔認識部82は、撮像画像において顔が認識できない場合と同様に、許可信号を出力しない。その結果、連続ロス判断部85や頻発ロス判断部86といったロス判断部は、内カメラ61から撮像画像を取得できない状況の継続に基づいて、警報要求を生成できる。本実施形態では、乗員の状態だけでなく、内カメラ61の画像に基づく乗員支援機能が正しく機能できていないことについても、警報によりそれを乗員に知らせることができる。
このような乗員判断部とロス判断部との並列的な協働処理により、本実施形態では、内カメラ61の環境や状態によらずに、乗員がわき見または居眠りといった不適切な運転状態にある可能性がある場合には、それを警報により乗員に知らせることができる。本実施形態では、互いに相反的な要求である、乗員がわき見または居眠りといった不適切な運転状態にないことについての正確な判断と、乗員がわき見または居眠りといった不適切な運転状態にある可能性がある場合にはそれについての警報を確実に出力することができることと、を高いレベルで両立することができる。本実施形態の運転支援システム80は、自動車1での乗員監視についての正確な認識判断と高い安全性の確保とを高度に両立できるため、自動車1において好適に用いることができる。
なお、乗員監視装置81、および警報装置87により構成される自動車1の乗員警報装置についても、上述したものと同様の効果を期待できる。
以上の実施形態は、本発明の好適な実施形態の例であるが、本発明は、これに限定されるものではなく、発明の要旨を逸脱しない範囲において種々の変形または変更が可能である。
たとえば上述した実施形態では、乗員監視装置81と警報装置87とは、別体に形成されて、車ネットワーク25により互いに接続されている。
この他にもたとえば、乗員監視装置81と警報装置87とは、1つの自動車1の乗員警報装置として一体的に自動車1に設けられ、その全体が車ネットワーク25に接続されてよい。この場合の乗員監視装置81は、警報部88などを有することになる。
1…自動車(車両)、14…ドライブECU(自動運転/運転支援ECU)、17…乗員監視ECU、18…警報ECU、31…ハンドル、44…ハンズオンセンサ、61…内カメラ、63…タイマ、64…メモリ、80…運転支援システム、81…乗員監視装置、82…顔認識部、83…わき見判断部(乗員判断部)、84…居眠り判断部(乗員判断部)、85…連続ロス判断部(第一ロス判断部)、86…頻発ロス判断部(第二ロス判断部)、87…警報装置、88…警報部、89…走行制御装置、90…走行制御部

Claims (9)

  1. 車両の乗員を撮像している第一撮像画像を出力可能な撮像デバイスと、
    乗員に対して警報を出力する警報部と、
    前記撮像デバイスおよび前記警報部を用いた制御を実行可能な制御部と、を有し、
    前記制御部は、
    前記撮像デバイスから取得する前記第一撮像画像について、乗員の顔の少なくとも一部の認識処理を実行する顔認識部、
    前記撮像デバイスが出力可能な前記第一撮像画像の中の、前記顔認識部により顔の少なくとも一部が認識できる第二撮像画像に基づいて乗員の運転状態を判断して、乗員が運転可能な状態ではない場合には第一警報要求を生成する乗員判断部、および、
    前記撮像デバイスが出力可能な前記第一撮像画像の中の、前記顔認識部により顔の少なくとも一部が認識できない第三撮像画像が複数で発生する場合には、第二警報要求を生成するロス判断部、
    として機能し、
    前記警報部は、
    前記乗員判断部の前記第一警報要求と、前記ロス判断部の前記第二警報要求とに基づいて、乗員に対して警報を出力する、
    車両の運転支援システム。
  2. 前記乗員判断部は、前記第一撮像画像における乗員の顔の目の状態に基づいてわき見または居眠りを判断する、
    請求項1記載の、車両の運転支援システム。
  3. 前記ロス判断部は、少なくとも、前記乗員判断部が乗員の運転状態を判断することができない前記第一撮像画像については、顔が認識できない前記第三撮像画像として、顔が認識できない前記第三撮像画像が複数で発生しているか否かを判断する、
    請求項1または2記載の、車両の運転支援システム。
  4. 前記ロス判断部は、前記撮像デバイスから前記第一撮像画像を取得できない場合には、前記顔認識部により顔が認識できない前記第三撮像画像が発生しているものとして、顔が認識できない前記第三撮像画像が複数で発生しているか否かを判断する、
    請求項1から3のいずれか一項記載の、車両の運転支援システム。
  5. 前記ロス判断部は、
    前記撮像デバイスが出力可能な前記第一撮像画像について前記顔認識部により顔が認識できないことが継続的に発生する場合、前記第二警報要求を生成する、
    請求項1から4のいずれか一項記載の、車両の運転支援システム。
  6. 前記ロス判断部として、
    前記顔認識部により顔が認識できない状態が連続的に継続して発生すると、前記第二警報要求としての、第三警報要求を生成する第一ロス判断部と、
    前記顔認識部により顔が認識できない状態が断続的に繰り返すように継続して発生すると、前記第二警報要求としての、第四警報要求を生成する第二ロス判断部と、を有し、
    前記警報部は、
    前記第二警報要求としての、前記第一ロス判断部の前記第三警報要求と、前記第二ロス判断部の前記第四警報要求とに基づいて、乗員に対して警報を出力する、
    請求項1から5のいずれか一項記載の、車両の運転支援システム。
  7. 前記第二ロス判断部は、断続的に繰り返し生じていることを、前記第一ロス判断部が連続性を判断する期間より長い期間において判断する、
    請求項6記載の、車両の運転支援システム。
  8. 前記車両を運転する際に乗員が操作する操作部材について乗員が操作可能な状態にあるか否かを検出する検出部、を有し、
    前記警報部は、
    前記乗員判断部の前記第一警報要求または前記ロス判断部の前記第二警報要求が生成された場合、前記検出部の検出結果に基づいて乗員が前記操作部材を操作可能な状態にあるか否かを判断し、
    前記操作部材に対する操作が可能な状態にあるとは判断できない場合、乗員に対して前記操作部材に対する操作を要求する警報を出力する、
    請求項1から7のいずれか一項記載の、車両の運転支援システム。
  9. 前記車両の走行を制御する走行制御装置、を有し、
    前記走行制御装置は、前記警報部が警報を出力した後に、乗員が前記操作部材に対して操作可能な状態にあると前記検出部の検出結果が変化しない場合、前記車両を減速または停止する、
    請求項1から8のいずれか一項記載の、車両の運転支援システム。

JP2020130805A 2019-10-08 2020-07-31 車両の運転支援システム Pending JP2021059321A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202011039294.0A CN112622916A (zh) 2019-10-08 2020-09-28 车辆的驾驶辅助系统
DE102020125659.0A DE102020125659A1 (de) 2019-10-08 2020-10-01 Fahrzeugfahrassistenzsystem
US17/060,334 US11325609B2 (en) 2019-10-08 2020-10-01 Vehicle driving assist system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019185042 2019-10-08
JP2019185042 2019-10-08

Publications (1)

Publication Number Publication Date
JP2021059321A true JP2021059321A (ja) 2021-04-15

Family

ID=75381701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020130805A Pending JP2021059321A (ja) 2019-10-08 2020-07-31 車両の運転支援システム

Country Status (1)

Country Link
JP (1) JP2021059321A (ja)

Similar Documents

Publication Publication Date Title
EP3825981B1 (en) Warning apparatus and driving tendency analysis device
WO2020031873A1 (ja) 脇見運転検出装置
KR20170051197A (ko) 운전 패턴 분석을 통한 운전자 상태 감시 방법 및 장치
US20110292209A1 (en) Device and process for recognizing correct use of an alcohol-measuring device by a driver in a vehcle
CN107901828B (zh) 通过智能设备协作来实现的被超车提醒的方法和装置
US11807277B2 (en) Driving assistance apparatus
US10666901B1 (en) System for soothing an occupant in a vehicle
US20240059221A1 (en) Vehicular driver monitoring system with video-calling function
US20230143515A1 (en) Driving assistance apparatus
JP2010039919A (ja) 注意喚起装置
KR20170035035A (ko) 졸음운전 방지 장치 및 방법
CN112622916A (zh) 车辆的驾驶辅助系统
JP2008305190A (ja) 居眠り警告装置及び自動車
JP4211562B2 (ja) 車両用周辺監視装置
JP2021059321A (ja) 車両の運転支援システム
CN111612701A (zh) 周边监视装置
WO2022185653A1 (ja) 車両用記録制御装置および記録制御方法
US11220181B2 (en) Operation control device, operation control method, and storage medium
JP7495795B2 (ja) 車両の乗員監視装置
KR101311112B1 (ko) 차량 사고 판단 장치 및 그 방법
JP7263992B2 (ja) 車両制御装置
CN115257537A (zh) 车辆的遗留提醒装置、方法、车辆及存储介质
CN107757623A (zh) 一种自动提醒的并线辅助装置
JP2022129155A (ja) 車両の車内マルチモニタリング装置
JP2022129156A (ja) 車両の車内モニタリング装置

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20221223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240415

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240618