JP2022156503A - 車両のわき見監視装置 - Google Patents

車両のわき見監視装置 Download PDF

Info

Publication number
JP2022156503A
JP2022156503A JP2021060230A JP2021060230A JP2022156503A JP 2022156503 A JP2022156503 A JP 2022156503A JP 2021060230 A JP2021060230 A JP 2021060230A JP 2021060230 A JP2021060230 A JP 2021060230A JP 2022156503 A JP2022156503 A JP 2022156503A
Authority
JP
Japan
Prior art keywords
area
driver
face
occupant
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021060230A
Other languages
English (en)
Inventor
恵太 大西
Keita Onishi
雅幸 丸橋
Masayuki Maruhashi
淳平 時崎
Jumpei Tokizaki
恵二 浅井
Keiji Asai
真一 宮本
Shinichi Miyamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2021060230A priority Critical patent/JP2022156503A/ja
Priority to US17/702,437 priority patent/US20220319203A1/en
Publication of JP2022156503A publication Critical patent/JP2022156503A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/11Pitch movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/114Yaw movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0881Seat occupation; Driver or passenger presence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/01Occupants other than the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車両において、ドライバといった乗員のわき見の判定についての確からしさを高める。【解決手段】わき見監視装置10は、車両1の乗員を含む撮像画像を撮像可能な撮像デバイス36と、撮像画像に基づいて乗員のわき見を判定する判定部34と、を有する。判定部34は、乗員が向く可能性がある視認範囲を分割する複数のエリア41~48の中から、撮像画像において乗員が向いているエリアを判定し、判定したエリアごとの判定処理により、乗員のわき見を判定する。【選択図】図5

Description

本発明は、車両のわき見監視装置に関する。
特許文献1、2は、車両のドライバといった乗員についてのわき見を判定する車両のわき見監視装置を開示する。
特開2018-108784号公報 特開2020-077220号公報
ところで、ドライバといった乗員のわき見を判定する場合、基本的に、乗員の顔の向きに基づいてわき見を判定することになる。しかしながら、乗員の本当の視線方向は、顔の向きと異なる可能性がある。たとえば乗員は、顔を車両の進行方向である正面へ向けながら、視線を車内へ向けることができる。
このため、ドライバといった乗員のわき見の判定についての確からしさを高めるためには、顔の向きである顔方向に加えて、たとえば視線方向についても併せて判定に用いることが考えられる。しかしながら、乗員の視線は、撮像画像において必ずしも判定に用いることができる状態で撮像されるとは限らない。たとえば乗員が撮像デバイスとは逆へ顔を向けてしまうと、撮像デバイスの撮像画像に眼球を適切に含めることができない。この場合、顔方向と視線方向とに基づいたわき見の判定をしてしまうと、適切に撮像されていない眼球に基づいて視線方向を誤り、その結果としてわき見の判定を誤る可能性が高まる。
このように車両では、ドライバといった乗員のわき見の判定についての確からしさを高めることが求められている。
本発明に係る車両のわき見監視装置は、車両の乗員を含む撮像画像を撮像可能な撮像デバイスと、前記撮像画像に基づいて乗員のわき見を判定する判定部と、を有し、前記判定部は、乗員が向く可能性がある視認範囲を分割する複数のエリアの中から、前記撮像画像において乗員が向いているエリアを判定し、判定した前記エリアごとの判定処理により、乗員のわき見を判定する。
好適には、前記判定部は、乗員の顔が向いている顔方向を、前記撮像画像から特定し、乗員が向く可能性がある視認範囲を分割する複数のエリアの中から、特定した顔方向が向いているエリアを判定する、とよい。
好適には、前記視認範囲は、少なくとも、前記車両の進行方向の正面エリアと、前記正面エリアの周囲の周辺エリアとに分割される、とよい。
好適には、前記視認範囲は、少なくとも前記車両のピッチ方向または上下方向において複数の前記エリアに分割され、または、少なくとも前記車両のヨー方向または左右方向において複数の前記エリアに分割される、とよい。
好適には、前記判定部は、前記撮像画像に基づいて、乗員の顔が向いている顔方向とともに眼球が向いている視線方向を特定し、前記エリアごとの判定処理では、判定した前記エリアについての前記視認範囲での位置に応じて異なる判定処理を実行する、とよい。
好適には、前記判定部は、前記視認範囲を分割する複数の前記エリアの一部では、特定した前記顔方向と前記視線方向との双方を用いて、乗員のわき見を判定し、前記視認範囲を分割する複数の前記エリアの残りの一部では、特定した前記顔方向と前記視線方向との中の前記顔方向を用いずに前記視線方向のみを用いて、乗員のわき見を判定し、前記視認範囲を分割する複数の前記エリアの残部では、特定した前記顔方向と前記視線方向との中の前記視線方向を用いずに前記顔方向のみを用いて、乗員のわき見を判定する、とよい。
好適には、前記視線方向を用いずに前記顔方向のみを用いて乗員のわき見を判定する前記エリアは、前記視認範囲を前記車両のヨー方向または左右方向において分割する複数の前記エリアの少なくとも1つとして設けられる、とよい。
好適には、前記顔方向を用いずに前記視線方向のみを用いて乗員のわき見を判定する前記エリアは、前記視認範囲を前記車両のピッチ方向または上下方向において分割する複数の前記エリアの少なくとも1つとして設けられる、とよい。
本発明では、車両の乗員が向く可能性がある視認範囲について、複数のエリアが分割して設定されている。そして、車両の乗員を含む撮像画像を撮像可能な撮像デバイスの撮像画像に基づいて乗員のわき見を判定する判定部は、乗員が向く可能性がある視認範囲を分割する複数のエリアの中から、撮像画像において乗員が向いているエリアを判定し、判定したエリアごとの判定処理により、乗員のわき見を判定する。これにより、乗員のわき見は、各エリアと乗員との相対位置関係に応じて、エリアごとに設定されている判定処理により判定することが可能になる。乗員のわき見は、乗員が向く可能性がある視認範囲の全体において一律の判定処理により判定する必要が無くなる。
これに対し、乗員のたとえば顔や眼球の撮像状態は、乗員が向いている方向に応じて変化する。このため、仮にたとえば判定部が、乗員が向く可能性がある視認範囲の全体において一律のわき見の判定処理により判定する場合、乗員が向いている方向についてのわき見の判定の確からしさは、乗員が向いている方向によっては低下してしまう可能性がある。たとえば、わき見の判定処理が、顔の向いている顔方向と眼球の向いている視線方向との双方を用いた一律の判定処理であり、撮像画像において眼球がその視線方向を判別することができない状態で撮像されている場合、判定部は、眼球の向いている視線方向が撮像画像において不確かにしか特定できないことに起因して、わき見の判定を誤まってしまう可能性が生じ得る。
本発明では、乗員が向く可能性がある視認範囲を複数のエリアに分割して、そのエリアごとに異なる判定処理を実行可能であるため、このようなわき見の判定誤りの可能性を低減することが可能になる。本発明では、乗員のわき見の判定についての確からしさを高めて、わき見の判定誤りを抑制することが期待できる。
図1は、本発明の実施形態に係るわき見監視装置が適用される自動車の模式的な平面図である。 図2は、図1の自動車の模式的な縦断面図である。 図3は、図1の自動車においてわき見監視装置として機能する制御システムの説明図である。 図4は、図3の乗員監視装置のCPUによる、乗員監視制御のフローチャートである。 図5は、本実施形態による図4のわき見判定についての詳細なフローチャートである。 図6は、ドライバの視認範囲を上下方向に分割する一例の複数のエリアの説明図である。 図7は、ドライバの視認範囲を左右方向に分割する一例の複数のエリアの説明図である。 図6および図7による複数のエリアを組み合わせ方の一例の説明図である。 図9Aは、顔方向エリアがFRエリアと判定される場合に用いられるわき見判定処理の説明図である。 図9Bは、顔方向エリアがFFエリアと判定される場合に用いられるわき見判定処理の説明図である。 図9Cは、顔方向エリアがFCエリアと判定される場合に用いられるわき見判定処理の説明図である。 図9Dは、顔方向エリアがFSエリアと判定される場合に用いられるわき見判定処理の説明図である。 図9Eは、顔方向エリアがFLエリアと判定される場合に用いられるわき見判定処理の説明図である。
以下、本発明の実施形態を、図面に基づいて説明する。
図1は、本発明の実施形態に係るわき見監視装置が適用される自動車1の模式的な平面図である。
図2は、図1の自動車1の模式的な縦断面図である。
自動車1は、車両の一例である。
図1および図2の自動車1は、車体2を有する。車体2には、車室3が設けられる。車室3には、自動車1に乗るドライバなどの乗員が着座する複数列のシート4が設けられる。車室3において前列のシート4の前となる前部には、自動車1の車体2の左右方向へ延在するダッシュボード5が設けられる。ダッシュボード5には、ステアリングホイール7と、後述する乗員監視装置11の車内カメラ36とが設けられる。車室3の前面には、ダッシュボード5の上側に、フロントガラス6が設けられる。
車内カメラ36は、ダッシュボード5の左右方向の中央部分に設けられる。
ステアリングホイール7は、ドライバが着座するシート4の前に位置するように、ダッシュボード5の左側部分に設けられる。
車体2の左右方向の中央部分には、ルームミラー8が設けられる。
ドライバは、自動車1のステアリングホイール7、アクセルペダル、ブレーキペダル、シフトレバーなどを操作して、自動車1の走行を操作する。
図3は、図1の自動車1においてわき見監視装置として機能する制御システム10の説明図である。
図3の制御システム10は、乗員監視装置11、UI装置12、走行支援装置13、駆動装置14、制動装置15、操舵装置16、および、これらが接続される車内ネットワーク17、を有する。
車内ネットワーク17は、自動車1のためのたとえばCAN(Controller Area Network)、LIN(Local Interconnect Network)に準拠した有線の通信ネットワークでよい。車内ネットワーク17は、LANなどの通信用ネットワークでも、これらを組み合わせたものであってもよい。車内ネットワーク17の一部には、無線方式の通信ネットワークが含まれてもよい。車内ネットワーク17に接続される各種の装置11~16は、車内ネットワーク17を通じて、相互にデータを送受する。車内ネットワーク17において送受されるデータは、たとえば暗号化されて、送信元の装置のID、送信先の装置のID、を付加されたパケットデータとして、車内ネットワーク17を通じて送受されてよい。
駆動装置14は、たとえば動力源を有し、自動車1を加速させるための駆動力を発生する。駆動装置14は、ガソリンやエタノールを燃焼する内燃機関、蓄電電力などを用いる電気モータ、水素を用いる動力源、または、これらを組み合わせたハイブリットの動力源による駆動力を発生するものでよい。駆動装置14は、たとえばアクセルペダルの操作量に応じた駆動力を発生してよい。
制動装置15は、たとえばブレーキ装置を有し、自動車1を減速停止させるための制動力を発生する。制動装置15は、たとえばブレーキペダルの操作量に応じた制動力を発生してよい。
操舵装置16は、たとえば操舵機構を有し、自動車1の進行方向を変更する。たとえばステアリングホイール7の操作量に応じた操舵量により、自動車1の進行方向を変更してよい。
走行支援装置13は、ドライバの操作を支援して、自動車1の走行を制御する。走行支援装置13は、ドライバの操作量に対応する制御指令を、駆動装置14、制動装置15および操舵装置16へ出力しても、ドライバの操作量から調整した制御指令を、駆動装置14、制動装置15および操舵装置16へ出力しても、ドライバの操作量がない自動運転状態において駆動装置14、制動装置15および操舵装置16へ制御指令を出力しても、よい。
UI装置12は、ドライバなどの乗員とのユーザインタフェース装置である。UI装置12には、たとえば操作デバイス21、表示デバイス22、音入力デバイス23、音出力デバイス24、といったユーザインタフェースデバイスが接続される。
表示デバイス22は、たとえば液晶デバイスである。表示デバイス22は、ダッシュボード5の左右方向中央部分や、ドライバの前側位置などに設けられてよい。
操作デバイス21は、たとえば液晶デバイスの表示画面に重ねて設けられるタッチパネル、各種のボタン、スイッチでよい。
音入力デバイス23は、たとえばマイクロホンである。
音出力デバイス24は、たとえばスピーカである。
このようなUI装置12は、制御システム10の他の装置11,13~16から取得した情報を、表示デバイス22や音出力デバイス24から出力してよい。
また、UI装置12は、操作デバイス21に対する操作、または音入力デバイス23への音声指示があると、それに応じた情報を生成して、制御システム10の他の装置11,13~16へ出力する。
乗員監視装置11は、自動車1の車室3においてシート4に着座しているドライバを含む乗員を識別して監視する。ドライバなどの乗員は、安全のために基本的に、走行する自動車1の周囲に注意することが求められる。しかしながら、ドライバなどの乗員は、特に自動運転などにおいては、自動車1の進行方向以外へわき見をしたり、居眠りをしたり、突然の発作を生じたり、する可能性がある。乗員監視装置11は、これらの事態の発生を監視して、それに対応する制御をたとえば走行支援装置13といった制御システム10に実行させる。
乗員監視装置11は、入出力部31、タイマ32、メモリ33、CPU34、投光LED35、車内カメラ36、および、これらが接続されるシステムバス37、を有する。
なお、制御システム10の他の装置12~16も、乗員監視装置11と同様に、入出力部、タイマ、メモリ、CPU、および、これらが接続されるシステムバス、を有してよい。
車内カメラ36は、図1および図2に示すように、ダッシュボード5の左右方向中央部分において、後側を撮像するように設けられる。車内カメラ36は、撮像デバイスとして、車室3にいるドライバなどの乗員を含む撮像画像を撮像可能である。
投光LED35は、車内カメラ36により撮像するドライバなどの乗員へ、たとえば赤外線光を照射する。投光LED35は、ダッシュボード5の左右方向中央部分において、車内カメラ36と並べて設けられてよい。
入出力部31は、車内ネットワーク17に接続される。入出力部31は、車内ネットワーク17を通じて、制御システム10の他の装置との間でデータを入出力する。
タイマ32は、時刻、時間を計測する。
メモリ33は、CPU34が実行するプログラム、および各種のデータを記録する。メモリ33は、不揮発性メモリ、揮発性メモリ、またはこれらの組み合わせでよい。不揮発性メモリには、たとえば、EEPROMやSSDなどのデータ保持機能を備える半導体メモリ、ハードディスクドライブ、がある。揮発性メモリには、たとえばRAMなどの半導体メモリがある。
CPU34は、メモリ33に記録されているプログラムを読み込んで実行する。これにより、CPU34は、乗員監視装置11の制御部として機能する。
乗員監視装置11の制御部としてのCPU34は、車内カメラ36の撮像および投光LED35の投光を制御する。
CPU34は、車内カメラ36により撮像された撮像画像などに基づいて、車室3にいるドライバなどの乗員を識別して監視する。
CPU34は、たとえば撮像画像に基づいてドライバがわき見または居眠りをしていると判定すると、ドライバへ向けて警報を発し、警報後においても状況が変化しない場合には自動車1を路肩に減速停止させる制御の実行を走行支援装置13に指示する。
図4は、図3の乗員監視装置11のCPU34による、乗員監視制御のフローチャートである。
乗員監視装置11のCPU34は、図4の乗員監視制御を、繰り返し実行する。
ステップST1において、CPU34は、車内カメラ36による新たな撮像がなされたか否かを判断する。撮像カメラは、周期的に車内を撮像する。車内カメラ36により新たな撮像がなされていない場合、CPU34は、本処理を繰り返す。車内カメラ36により新たな撮像がなされている場合、CPU34は、処理をステップST2へ進める。
ステップST2において、CPU34は、新たな撮像画像に基づいて、ドライバなどの乗員の乗車を判断する。CPU34は、たとえば過去の撮像画像と新たな撮像画像とを比較し、差分が生じている撮像部分についての顔パターン認識などにより、ドライバなどの乗員が乗車していることを判断してよい。ドライバなどの乗員が乗車していない場合、CPU34は、処理をステップST1へ戻す。ドライバなどの乗員が乗車すると、CPU34は、処理をステップST3へ進める。
ステップST3において、CPU34は、自動車1が走行中であるか否かを判断する。CPU34は、たとえば自動車1に設けられる不図示の速度センサ、加速度センサ、GPS受信機の検出値に基づいて、自動車1が走行中であるか否かを判断してよい。自動車1が走行中でない場合、CPU34は、処理をステップST1へ戻す。自動車1が走行中である場合、CPU34は、処理をステップST4へ進める。
ステップST4において、CPU34は、新たな撮像画像に基づいて、ドライバのわき見を判定する。CPU34は、ドライバ以外の乗員についてもわき見を判定してよい。
ステップST5において、CPU34は、新たな撮像画像に基づいて、ドライバの居眠りを判定する。CPU34は、ドライバ以外の乗員についても居眠りを判定してよい。
ステップST6において、CPU34は、新たな撮像画像に基づいて、ドライバを含む乗員の緊急状態を判定する。ドライバを含む乗員は、自動車1の走行中に、心筋梗塞、脳溢血などを発症することがある。撮像画像が赤外線成分を含む場合、赤外線の画像成分には各乗員の血流の情報が含まれる。CPU34は、血流から判断可能な脈拍が正常値範囲内であるか否かを判断してよい。CPU34は、撮像画像におけるドライバが運転姿勢などについて判断することにより、緊急状態を判定してもよい。たとえばドライバの頭部が下がっている場合、CPU34は、その撮像画像に基づいて緊急状態を判定してよい。
ステップST7において、CPU34は、警報が必要であるか否かを判断する。CPU34は、たとえばドライバのわき見または居眠りが判定されている場合、ドライバを含む乗員の緊急状態が判定されている場合、警報が必要であると判断し、処理をステップST8へ進める。これらの緊急状態が判定されていない場合、CPU34は、ステップST8の処理を飛ばして、処理をステップST9へ進める。
ステップST8において、CPU34は、ドライバを含む乗員に対して、警報を出力する。CPU34は、たとえばUI装置12へ警報を出力する。UI装置12は、表示デバイス22および音出力デバイス24に、警報を出力する。これにより、ドライバを含む乗員の注意が喚起される。ドライバを含む乗員は、ドライバについてはわき見や居眠りを止めさせて運転に適した状態に復帰させ得る。また、ドライバを含む乗員は、緊急状態にある他の乗員に気づいて、その介護などを実施し得る。
ステップST9において、CPU34は、緊急状態があるか否かを判断する。ステップST6において緊急状態が判定されている場合、ステップST8の警報後においてもドライバが運転に適した状態に復帰しない場合、CPU34は、緊急状態があると判断し、処理をステップST10へ進める。これらの緊急状態がない場合、CPU34は、ステップST10の処理を飛ばして、本制御を終了する。
ステップST10において、CPU34は、緊急処理を実行する。CPU34は、たとえば運転支援装置に対して、緊急停止を指示する。運転支援装置は、自動車1を減速させて走行中の車線または路肩に停車させる自動運転制御を実行する。CPU34は、この他にもたとえば、不図示の無線装置に対して、緊急通報を指示する。自動車1の無線装置は、予め定められた無線通信により、たとえば基地局を通じて緊急対応機関のサーバ装置へ緊急通報を実行する。これにより、救急隊などは、即時的に自動車1がいる現場へ急行することができる。
ところで、撮像画像に基づいてドライバなどのわき見を判定する場合、CPU34は、基本的に、乗員の顔の向きに基づいてわき見を判定すればよい。しかしながら、乗員の本当の視線方向は、顔の向きと異なる可能性がある。たとえば乗員は、顔を自動車1の進行方向である正面へ向けながら、視線を左右方向へ向けることができる。
このため、ドライバといった乗員のわき見の判定についての確からしさを高めるためには、顔の向きである顔方向に加えて、たとえば視線方向についても併せて判定に用いることが望ましいと考えられる。しかしながら、乗員の視線は、撮像画像において必ずしも高い確からしさで判定できるように撮像されているとは限らない。たとえば乗員が車内カメラ36とは逆の方向へ顔を向けてしまうと、撮像画像には眼球の像が含まれなくなる。このように眼球の像が含まれない撮像画像について、顔方向と眼球による視線方向とに基づいたわき見判定処理を実行してしまうと、わき見判定処理が正しく実行できなくなる。眼球による視線方向に基づくわき見判定を無理に実行してしまうと、撮像されていない眼球についての視線方向を誤って判定してしまうことになり、その結果として、わき見の判定を誤ってしまう可能性が高くなる。
このように自動車1では、ドライバといった乗員のわき見の判定についての確からしさを高めることが求められている。
図5は、本実施形態による図4のわき見判定についての詳細なフローチャートである。
乗員監視装置11のCPU34は、図4の乗員監視制御において、図5のわき見判定処理を繰り返し実行する。
ステップST21において、CPU34は、撮像画像に含まれるドライバの顔の像に基づいて、顔方向(角度)を特定する。ドライバの顔が向いている方向が変化すると、撮像画像に含まれるドライバの顔の像も変化する。CPU34は、撮像画像に含まれるドライバの顔の像の状態を解析することにより、顔方向(角度)を特定してよい。CPU34は、たとえばドライバが自動車1の正面をまっすぐに向いている方向を基準として、顔方向の角度を特定してよい。
ステップST22において、CPU34は、撮像画像に含まれるドライバの眼球の像に基づいて、視線顔方向(角度)を特定する。ドライバの顔方向や顔において眼鏡が向いている方向が変化すると、撮像画像に含まれるドライバの眼球の像も変化する。CPU34は、撮像画像に含まれるドライバの眼球の像の状態を解析することにより、視線方向(角度)を特定してよい。CPU34は、たとえばドライバが自動車1の正面をまっすぐに向いている方向を基準として、視線方向の角度を特定してよい。
ステップST23において、CPU34は、シート4に着座した状態でドライバが顔を向ける可能性がある視認範囲を分割する複数のエリアの中から、撮像画像においてドライバの顔が向いている顔方向のエリアを判定する。シート4に着座した状態でドライバが顔を向ける可能性がある視認範囲は、基本的に、シート4より前側の範囲となる。視認範囲は、最低限として、自動車1の走行中にドライバが視線を向ける自動車1の進行方向の正面エリアと、正面エリアの周囲の周辺エリアとに分割されればよい。この場合、CPU34は、顔方向が正面エリアの範囲内であるか否かを判断することにより、ドライバの顔が向いている顔方向のエリアを判定できる。
なお、CPU34は、ステップST23のエリア判定において、顔方向のエリアとともに、視線方向のエリアを判定してもよい。CPU34は、ステップST23のエリア判定において、顔方向と視線方向とを組み合わせた方向のエリアを判定してもよい。
ステップST24において、CPU34は、ドライバの顔が向いている顔方向エリアが、顔方向と視線方向との中の、顔方向のみで判定するエリアであるか否かを判断する。顔方向エリアが顔方向のみで判定するエリアでない場合、CPU34は、処理をステップST25へ進める。顔方向エリアが顔方向のみで判定するエリアである場合、CPU34は、処理をステップST26へ進める。
ステップST25において、CPU34は、ドライバの顔が向いている顔方向エリアが、視線方向のみで判定するエリアであるか否かを判断する。顔方向エリアが視線方向のみで判定するエリアでない場合、CPU34は、処理をステップST28へ進める。顔方向エリアが視線方向のみで判定するエリアである場合、CPU34は、処理をステップST27へ進める。
ステップST26において、CPU34は、ドライバの顔方向のみに基づいて、ドライバのわき見を判定する。その後、CPU34は、処理をステップST29へ進める。
ステップST27において、CPU34は、ドライバの視線方向のみに基づいて、ドライバのわき見を判定する。その後、CPU34は、処理をステップST29へ進める。
ステップST28において、CPU34は、ドライバの顔方向に基づいてドライバのわき見を判定するとともに、ドライバの視線方向に基づいてドライバのわき見を判定する。そして、双方の中のいずれか一方においてドライバのわき見が判定されている場合、CPU34は、ドライバにわき見があると判定する。双方のいずれにおいてもドライバのわき見が判定されていない場合、CPU34は、ドライバにわき見がないと判定する。その後、CPU34は、処理をステップST29へ進める。
このステップST24からステップST28の処理により、CPU34は、判定したエリアごとの判定処理により、ドライバのわき見を判定することができる。
CPU34は、エリアごとの判定処理において、視認範囲を分割する複数のエリアのすべてにおいて一律の判定処理を実行するのではなく、判定したエリアについての視認範囲での位置に応じて異なる判定処理を実行することができる。
ステップST29において、CPU34は、ドライバについてわき見があると判定されているか否かを判断する。ドライバのわき見がある場合、CPU34は、処理をステップST30へ進める。ドライバのわき見がない場合、CPU34は、処理をステップST31へ進める。
ステップST30において、CPU34は、ドライバのわき見があることを示すわき見情報を、メモリ33に記録する。
ステップST31において、CPU34は、ドライバのわき見がないことを示す非わき見情報を、メモリ33に記録する。
CPU34は、図4のステップST4において図5の処理を繰り返し実行する。これにより、メモリ33には、繰り返し撮像される撮像画像に基づいて、ドライバのわき見の判定結果が蓄積して記録される。
また、CPU34は、メモリ33に蓄積されているドライバのわき見の判定結果の履歴を用いて、図4のステップST7の警報の要否の判断と、ステップST9の緊急状態の判断を実行できる。
たとえば最新のドライバのわき見の判定結果が、ドライバのわき見があることを示すわき見情報である場合、CPU34は、ステップST7において警報要と判断し、ステップST8においてドライバを含む乗員に対して警報を出力することができる。
この他にもたとえば、最近の複数のドライバのわき見の判定結果が、ドライバのわき見があることを示すわき見情報であり続ける場合、CPU34は、ステップST9において緊急状態と判断し、ステップST10において緊急処理を実行することができる。
次に、ステップST23の判断で用いる複数のエリアについて説明する。上述した説明では、シート4に着座した状態でドライバが顔を向ける可能性がある視認範囲が、自動車1の走行中にドライバが視線を向ける自動車1の進行方向の正面エリアと、正面エリアの周囲の周辺エリアとの2つのエリアに分けられた状態を説明している。以下においては、現実的に利用可能な具体的な複数のエリアについて説明する。
図6は、ドライバの視認範囲を上下方向に分割する一例の複数のエリアの説明図である。
図6には、図2と同様の自動車1の模式的な縦断面図の上に、ドライバの視認範囲を上下方向または自動車1のピッチ方向において分割する複数のエリアが示されている。ここで、複数のエリアは、Uエリア、Fエリア、B1エリア、B2エリア、である。
Fエリアは、自動車1の運転操作をするドライバが運転中に自動車1の進行方向を確認する際に顔を向けて視認する正面エリアである。Fエリアは、自動車1のフロントガラス6と重なる範囲としてよい。
Uエリアは、Fエリアの上側の上エリアである。自動車1の運転操作をするドライバは、基本的に、自動車1のフロントガラス6より上側となるUエリアへ、自動車1の運転操作中に顔を向けて視認する必要はない。
B1エリアは、Fエリアの下側の第一下エリアである。B1エリアは、ダッシュボード5と重なる範囲としてよい。自動車1の運転操作をするドライバは、運転中に自動車1の走行状態を確認するために一時的にダッシュボード5にあるメータや表示デバイス22へ顔を向けて視認することがある。
B2エリアは、B1エリアの下側の第二下エリアである。B2エリアは、ダッシュボード5の下側の範囲としてよい。自動車1の運転操作をするドライバは、基本的に、自動車1のダッシュボード5より下側となるB2エリアへ、自動車1の運転操作中に顔を向けて視認する必要はない。
このようにシート4に着座した状態でドライバが顔を向ける可能性がある、シート4より前側の視認範囲は、上から順番に、Uエリア、Fエリア、B1エリア、およびB2エリアの4つのエリアに分割するとよい。
図7は、ドライバの視認範囲を左右方向に分割する一例の複数のエリアの説明図である。
図7には、図1と同様の自動車1の模式的な平面図の上に、ドライバの視認範囲を左右方向または自動車1のヨー方向において分割する複数のエリアが示されている。ここで、複数のエリアは、FRエリア、FFエリア、FCエリア、FSエリア、FLエリア、である。
FFエリアは、自動車1の運転操作をするドライバが運転中に自動車1の進行方向を確認する際に顔を向けて視認する正面エリアである。FFエリアは、自動車1のフロントガラス6についてのステアリングホイール7側の略右半分となる範囲でよい。
FRエリアは、FFエリアの右側の右端エリアである。自動車1の運転操作をするドライバは、基本的に、自動車1の右側のドアミラー9において後方確認をしたり、自動車1の右側を確認したりする場合において一時的に顔や視線を向ける。
FCエリアは、FFエリアの左側の中央エリアである。FCエリアは、自動車1のフロントガラス6についての中央部分となる範囲でよい。自動車1の運転操作をするドライバは、ダッシュボード5やルームミラー8を確認する際に、自動車1の中央部分へ一時的に顔や視線を向ける。
FSエリアは、FCエリアの左側の左エリアである。FSエリアは、自動車1のフロントガラス6についての略左半分となる範囲でよい。自動車1の運転操作をするドライバは、自動車1の左前側を確認する場合に、自動車1の左側へ一時的に顔や視線を向ける。
FLエリアは、FSエリアの左側の左端エリアである。自動車1の運転操作をするドライバは、基本的に、自動車1の左側のドアミラー9において後方確認をしたり、自動車1の左側を確認したりする場合において一時的に顔や視線を向ける。
このようにシート4に着座した状態でドライバが顔を向ける可能性がある、シート4より前側の視認範囲は、右から順番に、FRエリア、FFエリア、FCエリア、FSエリア、FLエリア、の5つのエリアに分割するとよい。
図8は、図6および図7による複数のエリアを組み合わせ方の一例の説明図である。
図8では、図6において上下方向において上から二番目のFエリアが、図7と同様に、FRエリア42、FFエリア43、FCエリア44、FSエリア45、FLエリア46、の5つのエリアに分割されている。
その結果、図8には、Uエリア41、FRエリア42、FFエリア43、FCエリア44、FSエリア45、FLエリア46、B1エリア47、B2エリア48、の8つのエリアが示されている。
フロントガラス6には、FFエリア43、FCエリア44、FSエリア45、の3つのエリアが重なっている。FFエリア43の右側にあるFRエリア42は、右側のドアミラー9と重なっている。FSエリア45の左側にあるFLエリア46は、左側のドアミラー9と重なっている。
FRエリア42、FFエリア43、FCエリア44、FSエリア45、FLエリア46、の上側にはUエリア41が設けられ、下側にはB1エリア47が設けられる。B1エリア47の下側には、B2エリア48が設けられる。
このように図8の視認範囲は、自動車1のピッチ方向または上下方向において複数のエリアに分割され、かつ、自動車1のヨー方向または左右方向において複数のエリアに分割されている。
ここで、図8のUエリア41は、ドライバの顔方向および視線方向の中の顔方向のみにより、わき見を判定するエリアとされる。
FRエリア42は、ドライバの顔方向のみにより、わき見を判定するエリアとされる。
FFエリア43は、ドライバの顔方向および視線方向の双方により、わき見を判定するエリアとされる。
FCエリア44は、ドライバの顔方向のみにより、わき見を判定するエリアとされる。
FSエリア45は、ドライバの顔方向および視線方向の双方により、わき見を判定するエリアとされる。
FLエリア46は、ドライバの顔方向のみにより、わき見を判定するエリアとされる。
B1エリア47は、ドライバの視線方向のみにより、わき見を判定するエリアとされる。
B2エリア48は、ドライバの顔方向のみにより、わき見を判定するエリアとされる。
このようにシート4に着座した状態でドライバが顔を向ける可能性がある視認範囲は、複数のエリア41~48に分けられる。
CPU34は、図5のステップST23において、図6、図7、または図8の複数のエリア41~48の中から、ドライバの顔方向が向いている顔方向エリアを判定する。
また、CPU34は、ステップST24からステップST25において、ドライバの顔方向が含まれているとして判定した顔方向エリアが、顔方向のみによりわき見を判定するエリアであるのか、視線方向のみによりわき見を判定するエリアであるのか、顔方向および視線方向の双方によりわき見を判定するエリアであるのか、を判断する。
そして、顔方向を含むとして判定した顔方向エリアがUエリア41である場合、CPU34は、ドライバの顔方向のみにより、ドライバのわき見を判定する。
図6に示すように、自動車1の運転操作をするドライバは、運転中において基本的に自動車1のフロントガラス6からダッシュボード5までの範囲内で顔および視線を向けている。この運転中において視認する上下視認エリアは、ドライバがわき見をしていない非わき見角度範囲となる。非わき見角度範囲の上側または下側へドライバの顔または視線が向いている場合、ドライバは基本的にわき見をしていることになる。
この場合、CPU34は、たとえば、ドライバの顔方向が、非わき見角度範囲に含まれるか否かを判断して、ドライバの顔方向のみによりわき見を判定してよい。
ドライバの顔方向が非わき見角度範囲に含まれている場合、CPU34は、ドライバはわき見をしていないと判定してよい。
ドライバの顔方向が非わき見角度範囲に含まれていない場合、CPU34は、ドライバはわき見をしていると判定してよい。
顔方向を含むとして判定した顔方向エリアがB1エリア47である場合、CPU34は、ドライバの視線方向のみにより、ドライバのわき見を判定する。
この場合、CPU34は、たとえば、ドライバの視線方向が、非わき見角度範囲に含まれるか否かを判断して、ドライバの視線方向のみによりわき見を判定してよい。
ドライバの視線方向が非わき見角度範囲に含まれていない場合、CPU34は、ドライバはわき見をしていると判定してよい。
ドライバの視線方向が非わき見角度範囲に含まれている場合、CPU34は、ドライバはわき見をしていないと判定してよい。
なお、ドライバの視線方向が非わき見角度範囲に含まれていても、タイマ32により計測可能な所定期間において連続してダッシュボード5の方向へ視線が向いている場合、CPU34は、ドライバはわき見をしていると判定してよい。CPU34は、たとえば3回以上連続してダッシュボード5の方向へ視線が向いている場合、CPU34は、ドライバはわき見をしていると判定してよい。
顔方向を用いずに視線方向のみを用いてドライバのわき見を判定するB1エリア47は、視認範囲を自動車1のピッチ方向または上下方向において分割する複数のエリアの少なくとも1つとして設けられている。
顔方向を含むとして判定した顔方向エリアがB2エリア48である場合、CPU34は、ドライバの顔方向のみにより、ドライバのわき見を判定する。
この場合、CPU34は、たとえば、ドライバの顔方向が、非わき見角度範囲に含まれるか否かを判断して、ドライバの顔方向のみによりわき見を判定してよい。
ドライバの顔方向が非わき見角度範囲に含まれていない場合、CPU34は、ドライバはわき見をしていると判定してよい。
ドライバの顔方向が非わき見角度範囲に含まれている場合、CPU34は、ドライバはわき見をしていないと判定してよい。
図9は、図6のFエリアにおいて左右方向に並ぶ複数のエリアごとのわき見判定処理の説明図である。
図9Aは、顔方向エリアがFRエリア42と判定される場合に用いられるわき見判定処理の説明図である。
図9Bは、顔方向エリアがFFエリア43と判定される場合に用いられるわき見判定処理の説明図である。
図9Cは、顔方向エリアがFCエリア44と判定される場合に用いられるわき見判定処理の説明図である。
図9Dは、顔方向エリアがFSエリア45と判定される場合に用いられるわき見判定処理の説明図である。
図9Eは、顔方向エリアがFLエリア46と判定される場合に用いられるわき見判定処理の説明図である。
顔方向を含むとして判定した顔方向エリアがFRエリア42である場合、CPU34は、ドライバの顔方向のみにより、ドライバのわき見を判定する。
この場合、CPU34は、図9Aに示す顔方向についての非わき見角度範囲RFと、視線方向についての非わき見角度範囲REと、の中の、実線で示す非わき見角度範囲RFのみに基づいて、ドライバのわき見を判定する。
CPU34は、たとえばドライバの顔方向が、図9Aの非わき見角度範囲RFに含まれるか否かを判断して、わき見を判定してよい。
ドライバの顔方向が図9Aの非わき見角度範囲RFに含まれていない場合、CPU34は、ドライバはわき見をしていると判定してよい。
ドライバの顔方向が図9Aの非わき見角度範囲RFに含まれている場合、CPU34は、ドライバはわき見をしていないと判定してよい。
視線方向を用いずに顔方向のみを用いてドライバのわき見を判定するFRエリア42は、視認範囲を自動車1のヨー方向または左右方向において分割する複数のエリア42~46の少なくとも1つとして設けられている。
顔方向を含むとして判定した顔方向エリアがFFエリア43である場合、CPU34は、ドライバの顔方向および視線方向の双方により、ドライバのわき見を判定する。
この場合、CPU34は、図9Bに示す顔方向についての非わき見角度範囲RFと、視線方向についての非わき見角度範囲REと、の各々を用いて、ドライバのわき見を判定する。
CPU34は、たとえばドライバの顔方向が、図9Bの非わき見角度範囲RFに含まれるか否かを判断するとともに、ドライバの視線方向が、図9Bの非わき見角度範囲REに含まれるか否かを判断して、わき見を判定してよい。
ドライバの顔方向が図9Bの非わき見角度範囲RFに含まれ、かつ、視線方向が図9Bの非わき見角度範囲REに含まれている場合、CPU34は、ドライバはわき見をしていないと判定してよい。
それ以外の場合、CPU34は、ドライバはわき見をしていると判定してよい。
顔方向を含むとして判定した顔方向エリアがFCエリア44である場合、CPU34は、ドライバの顔方向のみにより、ドライバのわき見を判定する。
この場合、CPU34は、図9Cに示す顔方向についての非わき見角度範囲RFと、視線方向についての非わき見角度範囲REと、の中の、実線で示す非わき見角度範囲RFのみに基づいて、ドライバのわき見を判定する。
CPU34は、たとえばドライバの顔方向が、図9Cの非わき見角度範囲RFに含まれるか否かを判断して、わき見を判定してよい。
ドライバの顔方向が図9Cの非わき見角度範囲RFに含まれていない場合、CPU34は、ドライバはわき見をしていると判定してよい。
ドライバの顔方向が図9Cの非わき見角度範囲RFに含まれている場合、CPU34は、ドライバはわき見をしていないと判定してよい。
視線方向を用いずに顔方向のみを用いてドライバのわき見を判定するFCエリア44は、視認範囲を自動車1のヨー方向または左右方向において分割する複数のエリア42~46の少なくとも1つとして設けられている。
顔方向を含むとして判定した顔方向エリアがFSエリア45である場合、CPU34は、ドライバの顔方向および視線方向の双方により、ドライバのわき見を判定する。
この場合、CPU34は、図9Dに示す顔方向についての非わき見角度範囲RFと、視線方向についての非わき見角度範囲REと、の各々を用いて、ドライバのわき見を判定する。
図9Dに示す顔方向についての非わき見角度範囲RFは、図9Aから図9Cに示す顔方向についての非わき見角度範囲RFと比べて、左向きに設定される。
図9Dに示す視線方向についての非わき見角度範囲REは、図9Aから図9Cに示す視線方向についての非わき見角度範囲REと比べて、左向きに設定される。
CPU34は、たとえばドライバの顔方向が、図9Dの非わき見角度範囲RFに含まれるか否かを判断するとともに、ドライバの視線方向が、図9Dの非わき見角度範囲REに含まれるか否かを判断して、わき見を判定してよい。
ドライバの顔方向が図9Dの非わき見角度範囲RFに含まれ、かつ、視線方向が図9Dの非わき見角度範囲REに含まれている場合、CPU34は、ドライバはわき見をしていないと判定してよい。
それ以外の場合、CPU34は、ドライバはわき見をしていると判定してよい。
顔方向を含むとして判定した顔方向エリアがFLエリア46である場合、CPU34は、ドライバの顔方向のみにより、ドライバのわき見を判定する。
この場合、CPU34は、図9Eに示す顔方向についての非わき見角度範囲RFと、視線方向についての非わき見角度範囲REと、の中の、実線で示す非わき見角度範囲RFのみに基づいて、ドライバのわき見を判定する。
CPU34は、たとえばドライバの顔方向が、図9Eの非わき見角度範囲RFに含まれるか否かを判断して、わき見を判定してよい。
ドライバの顔方向が図9Eの非わき見角度範囲RFに含まれていない場合、CPU34は、ドライバはわき見をしていると判定してよい。
ドライバの顔方向が図9Eの非わき見角度範囲RFに含まれている場合、CPU34は、ドライバはわき見をしていないと判定してよい。
視線方向を用いずに顔方向のみを用いてドライバのわき見を判定するFLエリア46は、視認範囲を自動車1のヨー方向または左右方向において分割する複数のエリア42~46の少なくとも1つとして設けられている。
このようにCPU34は、判定部として、視認範囲を分割する複数のエリア41~48の一部(43,45)では、特定した顔方向と視線方向との双方を用いて、ドライバのわき見を判定する。また、CPU34は、視認範囲を分割する複数のエリア41~48の残りの一部(47)では、特定した顔方向と視線方向との中の顔方向を用いずに視線方向のみを用いて、ドライバのわき見を判定する。また、CPU34は、視認範囲を分割する複数のエリア41~48の残部(41,42,44,46,48)では、特定した顔方向と視線方向との中の視線方向を用いずに顔方向のみを用いて、ドライバのわき見を判定する。
以上のように、本実施形態では、自動車1のドライバが向く可能性がある視認範囲について、複数のエリア41~48が分割して設定されている。そして、自動車1のドライバを含む撮像画像を撮像可能な撮像デバイスの撮像画像に基づいてドライバのわき見を判定する判定部としてのCPU34は、ドライバが向く可能性がある視認範囲を分割する複数のエリア41~48の中から、撮像画像においてドライバが向いている顔向きエリアを判定し、判定したエリアごとの判定処理により、ドライバのわき見を判定する。これにより、ドライバのわき見は、各エリアとドライバとの相対位置関係に応じて、エリアごとに設定されている判定処理により判定することが可能になる。ドライバのわき見は、ドライバが向く可能性がある視認範囲の全体において一律の判定処理により判定する必要が無くなる。
これに対し、ドライバのたとえば顔や眼球の撮像状態は、ドライバが向いている方向に応じて変化する。このため、仮にたとえばCPU34が、ドライバが向く可能性がある視認範囲の全体において一律のわき見の判定処理により判定する場合、ドライバが向いている方向についてのわき見の判定の確からしさは、ドライバが向いている方向によっては低下してしまう可能性がある。たとえば、わき見の判定処理が、顔の向いている顔方向と眼球の向いている視線方向との双方を用いた一律の判定処理であり、撮像画像において眼球がその視線方向を判別することができない状態で撮像されている場合、CPU34は、眼球の向いている視線方向が撮像画像において不確かにしか特定できないことに起因して、わき見の判定を誤まってしまう可能性が生じ得る。
本実施形態では、ドライバが向く可能性がある視認範囲を複数のエリア41~48に分割して、そのエリアごとに異なる判定処理を実行可能であるため、このようなわき見の判定誤りの可能性を低減することが可能になる。これにより、本実施形態では、ドライバのわき見の判定を誤り難くなる。本実施形態では、ドライバのわき見の判定についての確からしさを高めることが可能になる。
以上の実施形態は、本発明に好適な実施形態の例であるが、本発明は、これに限定されるものではなく、発明の要旨を逸脱しない範囲において種々の変形または変更が可能である。
たとえば上述した実施形態では、自動車1の制御システム10において、乗員監視装置11のCPU34が、図4から図5のすべて制御を実行している。
自動車1の制御システム10では、他の装置12~16もCPUを有する。制御システム10を構成する複数のCPUは、図4から図5の制御についての一部を実行してよい。制御システム10に設けられる複数のCPUは、図4から図5の制御を分散により共働して実行してよい。
上述した実施形態では、乗員監視装置11のCPU34は、視認範囲を分割する図8の複数のエリア41~48について、顔向きエリアを判定している。
この他にもたとえば、CPU34は、視認範囲を分割する図6の複数のエリアについて、または、視認範囲を分割する図7の複数のエリアについて、顔向きエリアを判定してよい。
また、CPU34は、視認範囲を分割する図6の複数のエリアについて、または、視認範囲を分割する図7の複数のエリアについて、顔向きエリアを判定してよい。
また、CPU34は、正面エリアと、その周囲の周辺エリアとの2つのエリアについて、顔向きエリアを判定してよい。
上述した実施形態では、乗員監視装置11のCPU34は、自動車1にいるドライバについてわき見を判定している。
この他にたとえば、乗員監視装置11のCPU34は、自動車1にいるドライバ以外の他の乗員についてもわき見を判定してよい。
1…自動車(車両)、2…車体、3…車室、4…シート、5…ダッシュボード、6…フロントガラス、7…ステアリングホイール、8…ルームミラー、9…ドアミラー、10…制御システム(わき見監視装置)、11…乗員監視装置、12…UI装置、13…走行支援装置、14…駆動装置、15…制動装置、16…操舵装置、17…車内ネットワーク、21…操作デバイス、22…表示デバイス、23…音入力デバイス、24…音出力デバイス、31…入出力部、32…タイマ、33…メモリ、34…CPU(判定部)、35…投光LED、36…車内カメラ(撮像デバイス)、37…システムバス、41…Uエリア、42…FRエリア、43…FFエリア、44…FCエリア、45…FSエリア、46…FLエリア、47…B1エリア、48…B2エリア


Claims (8)

  1. 車両の乗員を含む撮像画像を撮像可能な撮像デバイスと、
    前記撮像画像に基づいて乗員のわき見を判定する判定部と、
    を有し、
    前記判定部は、
    乗員が向く可能性がある視認範囲を分割する複数のエリアの中から、前記撮像画像において乗員が向いているエリアを判定し、
    判定した前記エリアごとの判定処理により、乗員のわき見を判定する、
    車両のわき見監視装置。
  2. 前記判定部は、
    乗員の顔が向いている顔方向を、前記撮像画像から特定し、
    乗員が向く可能性がある視認範囲を分割する複数のエリアの中から、特定した顔方向が向いているエリアを判定する、
    請求項1記載の、車両のわき見監視装置。
  3. 前記視認範囲は、少なくとも、前記車両の進行方向の正面エリアと、前記正面エリアの周囲の周辺エリアとに分割される、
    請求項1または2記載の、車両のわき見監視装置。
  4. 前記視認範囲は、少なくとも前記車両のピッチ方向または上下方向において複数の前記エリアに分割され、または、少なくとも前記車両のヨー方向または左右方向において複数の前記エリアに分割される、
    請求項1から3のいずれか一項記載の、車両のわき見監視装置。
  5. 前記判定部は、
    前記撮像画像に基づいて、乗員の顔が向いている顔方向とともに眼球が向いている視線方向を特定し、
    前記エリアごとの判定処理では、判定した前記エリアについての前記視認範囲での位置に応じて異なる判定処理を実行する、
    請求項1から4のいずれか一項記載の、車両のわき見監視装置。
  6. 前記判定部は、
    前記視認範囲を分割する複数の前記エリアの一部では、特定した前記顔方向と前記視線方向との双方を用いて、乗員のわき見を判定し、
    前記視認範囲を分割する複数の前記エリアの残りの一部では、特定した前記顔方向と前記視線方向との中の前記顔方向を用いずに前記視線方向のみを用いて、乗員のわき見を判定し、
    前記視認範囲を分割する複数の前記エリアの残部では、特定した前記顔方向と前記視線方向との中の前記視線方向を用いずに前記顔方向のみを用いて、乗員のわき見を判定する、
    請求項5記載の、車両のわき見監視装置。
  7. 前記視線方向を用いずに前記顔方向のみを用いて乗員のわき見を判定する前記エリアは、前記視認範囲を前記車両のヨー方向または左右方向において分割する複数の前記エリアの少なくとも1つとして設けられる、
    請求項5または6記載の、車両のわき見監視装置。
  8. 前記顔方向を用いずに前記視線方向のみを用いて乗員のわき見を判定する前記エリアは、前記視認範囲を前記車両のピッチ方向または上下方向において分割する複数の前記エリアの少なくとも1つとして設けられる、
    請求項5から7のいずれか一項記載の、車両のわき見監視装置。


JP2021060230A 2021-03-31 2021-03-31 車両のわき見監視装置 Pending JP2022156503A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021060230A JP2022156503A (ja) 2021-03-31 2021-03-31 車両のわき見監視装置
US17/702,437 US20220319203A1 (en) 2021-03-31 2022-03-23 Distracted-driving monitoring apparatus for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021060230A JP2022156503A (ja) 2021-03-31 2021-03-31 車両のわき見監視装置

Publications (1)

Publication Number Publication Date
JP2022156503A true JP2022156503A (ja) 2022-10-14

Family

ID=83450475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021060230A Pending JP2022156503A (ja) 2021-03-31 2021-03-31 車両のわき見監視装置

Country Status (2)

Country Link
US (1) US20220319203A1 (ja)
JP (1) JP2022156503A (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021196941A (ja) * 2020-06-16 2021-12-27 トヨタ自動車株式会社 ドライバ監視システム

Also Published As

Publication number Publication date
US20220319203A1 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
JP7361477B2 (ja) 車両の乗員監視装置、および交通システム
JP5288045B2 (ja) 車両の緊急退避装置
JP6565859B2 (ja) 車両制御システム
JP6341055B2 (ja) 車載制御装置
WO2013008301A1 (ja) 車両の緊急退避装置
US20230054024A1 (en) Information processing apparatus, information processing system, information processing method, and information processing program
CN111762184B (zh) 车辆控制系统以及车辆
US11238739B2 (en) Method and apparatus to prevent VRU accidents
US20220289249A1 (en) Vehicle driving system
CN111762168A (zh) 控制装置、控制方法以及存储介质
CN110949302B (zh) 车辆的乘员监视装置以及乘员保护系统
JP7298255B2 (ja) 車両制御システム
CN113574580A (zh) 控制装置、控制方法以及程序
CN109849928A (zh) 自动驾驶车辆的控制方法、装置及具有其的自动驾驶车辆
JP2022156503A (ja) 車両のわき見監視装置
JP7285188B2 (ja) 車両の乗員監視装置、および車両の乗員保護システム
JP7495795B2 (ja) 車両の乗員監視装置
CN112406886B (zh) 车辆的控制装置及控制方法、车辆以及存储介质
JP2022129155A (ja) 車両の車内マルチモニタリング装置
CN116685516A (zh) 信息处理装置、信息处理方法和信息处理程序
JP2022129156A (ja) 車両の車内モニタリング装置
JP7522602B2 (ja) 車両の運転支援システム
JP7563196B2 (ja) 制御装置
US20240246567A1 (en) Vehicle control device and vehicle control method
US20240279933A1 (en) Vehicle control device for driver and vehicle control method for driver

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20221223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241008