JP6894880B2 - 監視システム - Google Patents

監視システム Download PDF

Info

Publication number
JP6894880B2
JP6894880B2 JP2018209418A JP2018209418A JP6894880B2 JP 6894880 B2 JP6894880 B2 JP 6894880B2 JP 2018209418 A JP2018209418 A JP 2018209418A JP 2018209418 A JP2018209418 A JP 2018209418A JP 6894880 B2 JP6894880 B2 JP 6894880B2
Authority
JP
Japan
Prior art keywords
face image
face
light source
camera
passenger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018209418A
Other languages
English (en)
Other versions
JP2020075596A (ja
Inventor
隆司 塩田
隆司 塩田
賢太郎 大友
賢太郎 大友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP2018209418A priority Critical patent/JP6894880B2/ja
Priority to EP19206113.3A priority patent/EP3650991B8/en
Priority to US16/675,132 priority patent/US10963718B2/en
Priority to CN201911070848.0A priority patent/CN111160081B/zh
Publication of JP2020075596A publication Critical patent/JP2020075596A/ja
Application granted granted Critical
Publication of JP6894880B2 publication Critical patent/JP6894880B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/103Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using camera systems provided with artificial illumination device, e.g. IR light source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、監視システムに関する。
従来、車両のドライバの視線の状態(例えば、まばたき等)を検出する目状態検出装置が提案されている(例えば、特許文献1,2参照)。このようなドライバの監視システムでは、外乱光(例えば、太陽光)の影響を受ける車両内でも安定した品質で顔を撮影するために、近赤外線(NIR)を射出する光源でドライバの顔を照明して撮影を行っている。また、従来の監視システムでは、外乱光を除去するための可視光カットフィルタを通してドライバの顔を撮影するものもある。
特開2008−94221号公報 特許第4356733号公報
ところで、上述した監視システムでは、眼鏡を着用したドライバの顔を撮影した場合、目の手前にある眼鏡のレンズに光源が映り込んで目の撮影が阻害され、得られた顔画像からドライバの視線の状態を識別することができないおそれがあり、改善の余地がある。
本発明の目的は、搭乗者の視線の状態を精度よく監視することができる監視システムを提供することである。
上記目的を達成するために、本発明に係る監視システムは、車両の搭乗者の顔を連続して撮影して顔画像を取得するカメラと、前記カメラを上下方向から視た場合に前記カメラを挟んで左右方向に配置され、前記搭乗者の顔に光を照射する一対の右側光源及び左側光源と、前記右側光源と前記左側光源とを、前記カメラの撮影ごとに交互に点灯させる点灯制御手段と、前記カメラで取得された複数の顔画像を用いて、少なくとも前記搭乗者の目の開閉を含む視線の状態を判定し、当該判定結果に基づいて車両制御を行う制御手段と、を備え、前記カメラは、前記右側光源の点灯に応じて撮影した第1の顔画像と、前記左側光源の点灯に応じて撮影した第2の顔画像とをそれぞれ取得し、前記制御手段は、前記第1の顔画像と、前記第1の顔画像が取得された時点の直近に取得された前記第2の顔画像とに基づいて前記視線の状態を判定し、前記顔画像を用いて前記搭乗者の顔の向きを判定する顔向き判定手段と、前記搭乗者の顔の向きが前記カメラから視て正対していると判定された場合、前記第1の顔画像を、前記右側光源と対向する前記搭乗者の右顔側の第1の右顔画像と、前記右側光源からの距離が前記搭乗者の右顔側より遠い左顔側の第1の左顔画像とに分割し、かつ前記第2の顔画像を、前記左側光源と対向する前記搭乗者の左顔側の第2の左顔画像と、前記左側光源からの距離が前記搭乗者の左顔側より遠い右顔側の第2の右顔画像とに分割する顔画像分割手段と、前記第1の左顔画像と前記第2の右顔画像とを合成して1つの顔画像を作成する顔画像合成手段と、さらに備え、前記制御手段は、前記顔画像合成手段で作成された顔画像に基づいて前記視線の状態を判定し、前記点灯制御手段は、前記搭乗者の顔の向きが前記カメラから視て右方向に回転していると判定された場合には、前記左側光源を点灯させ、前記搭乗者の顔の向きが前記カメラから視て左方向に回転していると判定された場合には、前記右側光源を点灯させ、前記カメラは、前記右側光源の点灯に応じて撮影した単独判定用顔画像と、前記左側光源の点灯に応じて撮影した単独判定用顔画像とをそれぞれ取得し、前記制御手段は、各前記単独判定用顔画像に基づいて前記視線の状態を判定する、ことを特徴とする。
本発明に係る監視システムは、搭乗者の視線の状態を精度よく監視することができる、という効果を奏する。
図1は、実施形態に係る監視システムが適用される車両の室内の概略構成を示す模式図である。 図2は、実施形態に係る監視システムの概略構成を示すブロック図である。 図3は、実施形態に係る監視システムの制御装置の第1点灯制御の一例を示すフローチャート図である。 図4は、実施形態に係る監視システムの制御装置の第2点灯制御の一例を示すフローチャート図である。 図5は、実施形態に係る監視システムの制御措置の視線状態判定の一例を示すフローチャート図である。 図6は、実施形態に係る監視システムの右側光源点灯時の状態の一例を示す模式図である。 図7は、実施形態に係る監視システムの左側光源点灯時の状態の一例を示す模式図である。 図8は、実施形態に係る監視システムの顔画像の分割及び合成を説明するための模式図である。 図9は、実施形態に係る監視システムの右側光源点灯時の状態の他の一例を示す模式図である。 図10は、実施形態に係る監視システムの左側光源点灯時の状態の他の一例を示す模式図である。 図11(a)及び図11(b)は、実施形態に係る監視システムの単独判定用顔画像の一例を示す模式図である。
以下に、本発明に係る監視システムの実施形態について図面を参照しつつ詳細に説明する。なお、下記実施形態により本発明が限定されるものではない。下記実施形態における構成要素には、当業者が容易に想定できるもの、あるいは実質的に同一のものが含まれる。また、下記実施形態における構成要素は、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。
[実施形態]
本発明の実施形態に係る監視システムについて図1〜図11を参照して説明する。監視システム1は、図1に示すように、自動車等の車両100に搭載され、当該車両100の座席102に着座した搭乗者101の視線の状態を監視し、搭乗者101に対する様々な処理を行うものである。視線の状態とは、目の開閉(まばたき)を含めた目の状態を意味する。搭乗者101は、監視システム1による監視の対象者であり、例えば車両100の運転者である。本実施形態の搭乗者101は、眼鏡101cを着用しているものとする。なお、本実施形態では、車両100は、自動車である場合について説明するが、例えば、バス、電車等であってもよい。
監視システム1は、図2に示すように、右側光源11Rと、左側光源11Lと、カメラ13と、制御手段としての制御装置15とを備える。監視システム1は、車両100内のバッテリ(不図示)等から受電して動作する。
右側光源11R及び左側光源11Lは、カメラ13を上下方向から視た場合にカメラ13を挟んで左右方向に配置され、搭乗者101の顔101aに光を照射する一対の光源である。右側光源11R及び左側光源11Lは、それぞれが近赤外線を出射する光源であり、例えば近赤外LED(近赤外発光ダイオード)等で構成される。右側光源11R及び左側光源11Lは、それぞれが車両100の座席102に着座した搭乗者101の顔を照明する。右側光源11R及び左側光源11Lは、例えば、車両100のインストルメントパネル(不図示)内に設置される。
右側光源11Rは、信号線17を介して制御装置15に電気的に接続されており、制御装置15からの点灯信号または消灯信号に応じて点灯または消灯する。左側光源11Lは、信号線18を介して制御装置15に電気的に接続されており、制御装置15からの点灯信号または消灯信号に応じて点灯または消灯する。右側光源11R及び左側光源11Lは、それぞれがカメラ13の撮影タイミングに併せて発光するように、制御装置15により制御される。ここでいう発光とは、制御装置15から順に出力された点灯信号、消灯信号に応じて、光源(右側光源11R及び左側光源11L)が点灯から消灯に状態変化するものを意味する。
カメラ13は、車両100の搭乗者101の顔101aを連続して撮影して顔画像を取得するものである。カメラ13は、照明光として可視光線と赤外光線との双方による撮影が可能なカメラである。カメラ13は、例えば、図8に示すように、右側光源11Rの点灯に応じて撮影した第1の顔画像31、左側光源11Lの点灯に応じて撮影した第2の顔画像33をそれぞれ取得することができる。また、カメラ13は、図11に示すように、右側光源11Rの点灯に応じて撮影した単独判定用顔画像39、左側光源11Lの点灯に応じて撮影した単独判定用顔画像40をそれぞれ取得することができる。カメラ13は、信号線19を介して制御装置15に接続されており、一定のタイミングで連続して撮影した複数の顔画像を制御装置15に出力する。カメラ13は、制御装置15から受信する制御信号に応じて、撮影を行う。カメラ13は、搭乗者101の座席102から正面方向に設置されており、例えば、車両100のインストルメントパネル(不図示)内に設置される。カメラ13の撮影間隔は、一般的なまばたきの速さ(例えば100〜150msec)を考慮して設定されることが好ましく、例えば15msecとする。なお、カメラ13の撮影間隔は、これに限定されるものではない。
制御装置15は、監視システム1の各部を統括的に制御する部分である。制御装置15は、搭乗者101の顔101aの視線状態の監視や車両100の各部を制御するための各種の演算処理を実行する。制御装置15は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の中央演算処理装置、ROM(Read Only Memory)、RAM(Random Access Memory)及びインターフェースを含む周知のマイクロコンピュータを主体とする電子回路を含んで構成される。制御装置15は、カメラ13で取得された複数の顔画像を用いて、搭乗者101の目101bの開閉を含む視線の状態を判定し、当該判定結果に基づいて車両制御を行うものである。制御装置15は、カメラ13から複数の顔画像を入力する。制御装置15は、複数の顔画像のうち、第1の顔画像31と、第1の顔画像31が取得された時点の直近に取得された第2の顔画像33とに基づいて視線の状態を判定する。制御装置15は、点灯制御部21と、顔認識部22と、顔向き判定部23と、顔画像分割部24と、顔画像合成部25と、視線状態判定部26と、警告部27とを含んで構成される。なお、これらは制御装置15が有する機能の一部であり、この他に、車両100の各部を制御するための機能を有していてもよい。
点灯制御部21は、点灯制御手段の一例であり、右側光源11Rと左側光源11Lとを、カメラ13の撮影ごとに交互に点灯させる機能を有する。点灯制御部21は、右側光源11Rを点灯させる場合には、右側光源11Rに点灯信号を出力し、左側光源11Lを点灯させる場合には、左側光源11Lに点灯信号を出力する。点灯制御部21は、右側光源11R及び左側光源11Lの両方を点灯させる場合、右側光源11R及び左側光源11Lの両方に点灯信号を出力する。また、点灯制御部21は、右側光源11Rを消灯させる場合には、右側光源11Rに消灯信号を出力し、左側光源11Lを消灯させる場合には、左側光源11Lに消灯信号を出力する。点灯制御部21は、右側光源11R及び左側光源11Lの両方を消灯させる場合、右側光源11R及び左側光源11Lの両方に消灯信号を出力する。点灯制御部21は、カメラ13の撮影に連動して点灯信号、消灯信号を右側光源11R及び左側光源11Lに対して出力する。すなわち、右側光源11Rの点灯に応じて撮影された第1の顔画像31と、左側光源11Lの点灯に応じて撮影された第2の顔画像33とに基づいて視線の状態を判定することから、点灯制御部21は、カメラ13の撮影ごとに交互に右側光源11Rと左側光源11Lとに対して点灯信号と消灯信号とを連続して出力する。
顔認識部22は、カメラ13から入力された顔画像を解析して、特徴点(例えば、顔の輪郭、目や鼻、口の形及び位置、眼鏡の有無)を抽出する。顔認識方法としては、例えば、主成分分析を使った固有顔、線形判別分析、弾性バンチグラフマッチング、隠れマルコフモデル、ニューロン動機づけによるダイナミックリンク照合などの周知の顔認識アルゴリズムを使用するとよい。顔認識部22は、抽出した特徴点を顔向き判定部23に出力する。なお、顔認識部22は、抽出した特徴点に基づいて、予め登録された顔画像と照合して、登録された人物か否かを判定するように構成されていてもよい。
顔向き判定部23は、顔向き判定手段の一例であり、顔画像を用いて搭乗者101の顔101aの向きを判定する機能を有する。顔向き判定部23は、顔認識部22により抽出された特徴点に基づいて、顔画像に含まれる搭乗者101の顔101aの向きがカメラ13に対して正対しているか否か、すなわち顔101aの向きが正面を向いているか否かを判定することができる。また、顔向き判定部23は、カメラ13から入力された顔画像を解析して、顔画像に含まれる搭乗者101の顔101aの向きがカメラ13から視て右方向に回転しているか否か、すなわち顔101aの向きが右側を向いているか否かを判定することができる。さらに、顔向き判定部23は、カメラ13から入力された顔画像を解析して、顔画像に含まれる搭乗者101の顔101aの向きがカメラ13から視て左方向に回転しているか否か、すなわち顔101aの向きが左側を向いているか否かを判定することができる。
顔画像分割部24は、顔画像分割手段の一例であり、搭乗者101の顔101aの向きがカメラ13から視て正対していると判定された場合、第1の顔画像31を、右側光源11Rと対向する搭乗者の右顔側の第1の右顔画像31Rと、右側光源11Rからの距離が搭乗者101の右顔側より遠い左顔側の第1の左顔画像31Lとに分割する機能を有する。また、顔画像分割部24は、搭乗者101の顔101aの向きがカメラ13から視て正対していると判定された場合、第2の顔画像33を、左側光源11Lと対向する搭乗者101の左顔側の第2の左顔画像33Lと、左側光源11Lからの距離が搭乗者101の左顔側より遠い右顔側の第2の右顔画像33Rとに分割する機能を有する。
顔画像合成部25は、顔画像合成手段の一例であり、第1の左顔画像31Lと第2の右顔画像33Rとを合成して1つの顔画像を作成する機能を有する。制御装置15は、図8に示すように、顔画像合成部25により合成された合成顔画像35に基づいて視線の状態を判定し、当該判定結果に基づいて搭乗者101に対して警告等を行う。
視線状態判定部26は、制御手段の一例であり、第1の顔画像と、第1の顔画像が取得された時点の直近に取得された第2の顔画像とに基づいて視線の状態を判定する機能を有する。視線状態判定部26は、図11に示すように、右側光源11Rの点灯に応じて撮影した単独判定用顔画像39及び左側光源11Lの点灯に応じて撮影した単独判定用顔画像40に基づいて搭乗者101の視線の状態を判定する。制御装置15は、カメラ13で取得された複数の単独判定用顔画像39,40を用いて視線の状態を判定し、当該判定結果に基づいて搭乗者101に対して警告等を行う。
警告部27は、制御手段の一例であり、搭乗者101に対して警告を行う機能を有する。警告部27は、例えば警告音を発したり、座席102を振動させたりして搭乗者101に注意を促す。なお、警告部27による警告方法は、これらに限定されるものではなく、搭乗者101に対して注意を促すものであれば、例えば臭いを発するものであってもよいし、電気的または物理的な衝撃を与えるものであってもよい。
次に、監視システム1における第1点灯制御について図3を参照して説明する。
ステップS1では、顔向き判定部23は、顔の向きが正対しているか否かを判定する。顔向き判定部23は、例えば、カメラ13で取得された顔画像を用いて搭乗者101の顔101aの向きがカメラ13に対して正対している状態か否かを判定する。顔101aの向きが正対していない場合には、ステップS8の第2点灯制御処理に移行する。一方、顔101aの向きが正対している場合には、ステップS2〜ステップS7の第1点灯制御処理に移行する。
ステップS2では、点灯制御部21は、図6に示すように、右側光源11Rを点灯させる。右側光源11Rは、点灯制御部21による点灯信号を制御装置15から受信すると点灯状態となる。
ステップS3では、カメラ13は、右側光源11Rにより照明された搭乗者101の顔101aを撮影して顔画像を取得し、当該顔画像のデータを制御装置15に対して出力する。
ステップS4では、点灯制御部21は、右側光源11Rを消灯させる。右側光源11Rは、点灯制御部21による消灯信号を制御装置15から受信すると消灯状態となる。
ステップS5では、点灯制御部21は、図7に示すように、左側光源11Lを点灯させる。左側光源11Lは、点灯制御部21による点灯信号を制御装置15から受信すると点灯状態となる。
ステップS6では、カメラ13は、左側光源11Lにより照明された搭乗者101の顔101aを撮影して顔画像を取得し、当該顔画像のデータを制御装置15に対して出力する。
ステップS7では、点灯制御部21は、左側光源11Lを消灯させる。左側光源11Lは、点灯制御部21による消灯信号を制御装置15から受信すると消灯状態となり、ステップS1に戻る。
次に、監視システム1における第2点灯制御について図4を参照して説明する。本処理は、図3のステップS8の第2点灯制御処理である。
ステップS11では、顔向き判定部23は、顔の向きが右方向に回転しているか否かを判定する。顔向き判定部23は、例えば、カメラ13で取得された顔画像を用いて搭乗者101の顔101aの向きがカメラ13から視て右方向に回転しているか否かを判定する。顔向き判定部23は、図10に示すように、顔101aの向きが右方向に回転していると判定した場合は、ステップS12に進む。一方、顔101aの向きが右方向に回転していないと判定した場合は、ステップS15に進む。
ステップS12では、点灯制御部21は、上記ステップS5と同様に、左側光源11Lを点灯させる。左側光源11Lは、点灯制御部21による点灯信号を制御装置15から受信すると点灯状態となる。
ステップS13では、カメラ13は、上記ステップS6と同様に、左側光源11Lにより照明された搭乗者101の顔101aを撮影して顔画像を取得し、当該顔画像のデータを制御装置15に対して出力する。
ステップS14では、点灯制御部21は、上記ステップS7と同様に、左側光源11Lを消灯させる。左側光源11Lは、点灯制御部21による消灯信号を制御装置15から受信すると消灯状態となり、本処理を終了してリターンする。
ステップS15では、顔向き判定部23は、顔の向きが左方向に回転しているか否かを判定する。顔向き判定部23は、例えば、カメラ13で取得された顔画像を用いて搭乗者101の顔101aの向きがカメラ13から視て左方向に回転しているか否かを判定する。顔向き判定部23は、図9に示すように、顔101aの向きが右方向に回転していると判定した場合は、ステップS16に進む。一方、顔101aの向きが左方向に回転していないと判定した場合は、本処理を終了してリターンする。
ステップS16では、点灯制御部21は、上記ステップS2と同様に、右側光源11Rを点灯させる。右側光源11Rは、点灯制御部21による点灯信号を制御装置15から受信すると点灯状態となる。
ステップS17では、カメラ13は、上記ステップS3と同様に、右側光源11Rにより照明された搭乗者101の顔101aを撮影して顔画像を取得し、当該顔画像のデータを制御装置15に対して出力する。
ステップS18では、点灯制御部21は、上記ステップS4と同様に、右側光源11Rを消灯させる。右側光源11Rは、点灯制御部21による消灯信号を制御装置15から受信すると消灯状態となり、本処理を終了してリターンする。
次に、監視システム1の視線状態の判定処理について図5、図8を参照して説明する。
ステップS22では、顔向き判定部23は、顔の向きが正対しているか否かを判定する。顔向き判定部23は、例えば、カメラ13で取得された顔画像を用いて搭乗者101の顔101aの向きがカメラ13に対して正対している状態か否かを判定する。顔101aの向きが正対していない場合には、ステップS26に移行する。一方、顔101aの向きが正対している場合には、ステップS23に移行する。
ステップS23では、顔画像分割部24は、図8に示すように、第1の顔画像31を、右側光源11Rと対向する搭乗者101の右顔側の第1の右顔画像31Rと、右側光源11Rからの距離が搭乗者101の右顔側より遠い左顔側の第1の左顔画像31Lとに分割する。第1の顔画像31は、顔の中心線31aを挟んで第1の右顔画像31Rと第1の左顔画像31Lとに分割される。本実施形態の第1の顔画像31は、例えば、右側光源11Rが眼鏡101cの右側レンズに映り込んでしまい、搭乗者101の右目の視線方向が正確に把握できない状態にあるものとする。
ステップS24では、顔画像分割部24は、図8に示すように、第2の顔画像33を、左側光源11Lと対向する搭乗者101の左顔側の第2の左顔画像33Lと、左側光源11Lからの距離が搭乗者101の左顔側より遠い右顔側の第2の右顔画像33Rとに分割する。第2の顔画像33は、顔の中心線33aを挟んで第2の右顔画像33Rと第2の左顔画像33Lとに分割される。本実施形態の第2の顔画像33は、例えば、左側光源11Lが眼鏡101cの左側レンズに映り込んでしまい、搭乗者101の左目の視線方向が正確に把握できない状態にあるものとする。
次に、ステップS25では、顔画像合成部25は、ステップS23で分割された第1の左顔画像31Lと、ステップS24で分割された第2の右顔画像33Rとを合成して1つの顔画像を作成する。
ステップS26では、視線状態判定部26は、ステップS25にて顔画像合成部25により作成された顔画像に基づいて、搭乗者101の視線の状態を判定する。視線状態判定部26は、例えば、搭乗者101の目101bが閉じられている頻度が高い場合、搭乗者101がいねむりをしていると推定することができる。
ステップS27では、警告部27は、ステップS26にて判定された視線の状態に基づいて、搭乗者101に所定の方法で警告を行って本処理を終了する。例えば、警告部27は、警告音を鳴らして搭乗者101に注意を促す。
以上説明したように、本実施形態に係る監視システム1は、カメラ13を上下方向から視た場合にカメラ13を挟んで左右方向に配置され、搭乗者101の顔101aに対して光を照射する一対の右側光源11R及び左側光源11Lを備え、右側光源11Rと左側光源11Lとを、カメラ13の撮影ごとに交互に点灯させる。カメラ13は、右側光源11Rの点灯に応じて撮影した第1の顔画像31と、左側光源11Lの点灯に応じて撮影した第2の顔画像33とをそれぞれ取得する。制御装置15は、第1の顔画像31と、第1の顔画像31が取得された時点の直近に取得された第2の顔画像33とに基づいて視線の状態を判定する。
本実施形態に係る監視システム1は、例えば眼鏡のレンズに光源が映り込んでいない側の顔の視線の状態を判定することができ、眼鏡101cを着用した搭乗者101であっても目101bの状態を精度よく監視することができる。従来、眼鏡を着用した搭乗者の顔を2つの光源を同時に発光して撮影した場合、眼鏡の各レンズに光源が映り込んで目の撮影が阻害され、得られた顔画像からドライバの視線の状態を識別できず、搭乗者の視線の状態を監視することが困難な場合がある。そこで、右側光源11Rの点灯に応じて撮影した第1の顔画像31と、左側光源11Lの点灯に応じて撮影した第2の顔画像33とを取得し、第1の顔画像31と、第1の顔画像31が取得された時点の直近に取得された第2の顔画像33とに基づいて視線の状態を判定する。これにより、眼鏡を着用している搭乗者の視線の状態を監視する場合であっても、眼鏡のレンズの一方に光源が映り込んでいない顔画像を取得することが可能となり、当該顔画像が時系列に沿って複数あることで、搭乗者の視線の経時的変化を判定することができる。この結果、従来のシステム構成を変更することなく、監視精度を向上させることができる。また、従来は、2つの光源から搭乗者の顔に照射される光を偏光板を通して縮小させていたが、当該偏光板が不要となるので、部品コストを低く抑えることができる。この偏光板は、赤外線照明の放射強度(顔に照射する光の強さ)を下げてしまうことから、必要な放射強度を得るために光源のLEDの個数が増えたり、LEDの消費電流値が上がったりしていたが、偏光板が不要となるので、部品コストをより低く抑えることができる。
また、本実施形態に係る監視システム1は、顔画像分割部24が、搭乗者101の顔101aの向きがカメラ13から視て正対していると判定された場合、第1の顔画像31を、右側光源11Rと対向する搭乗者101の右顔側の第1の右顔画像31Rと、右側光源11Rからの距離が搭乗者101の右顔側より遠い左顔側の第1の左顔画像31Lとに分割し、第2の顔画像33を、左側光源11Lと対向する搭乗者101の左顔側の第2の左顔画像33Lと、左側光源11Lからの距離が搭乗者101の左顔側より遠い右顔側の第2の右顔画像33Rとに分割する。顔画像合成部25は、第1の左顔画像31Lと第2の右顔画像33Rとを合成して1つの合成顔画像35を作成する。制御装置15は、顔画像合成部25で作成された合成顔画像35に基づいて視線の状態を判定する。上記構成により、作成された合成顔画像35を用いて視線の状態を判定することができ、眼鏡101cを着用した搭乗者101であっても目101bの状態を精度よく監視することができる。
また、本実施形態に係る監視システム1は、点灯制御部21が、搭乗者101の顔の向きがカメラ13から視て右方向に回転していると判定された場合には、左側光源11Lを点灯させ、搭乗者101の顔101aの向きがカメラ13から視て左方向に回転していると判定された場合には、右側光源11Rを点灯させる。カメラ13は、右側光源11Rの点灯に応じて撮影した単独判定用顔画像39と、左側光源11Lの点灯に応じて撮影した単独判定用顔画像40とをそれぞれ取得する。制御装置15は、各単独判定用顔画像39,40に基づいて視線の状態を判定する。上記構成により、搭乗者101の顔101aの向きに応じて、点灯させる光源を制御し、各光源の点灯に応じて撮影した顔画像を用いて視線の状態を判定するので、眼鏡のレンズに光源が映り込んでいない状態の顔画像を用いて視線の状態を判定することができる。この結果、眼鏡101cを着用した搭乗者101であっても目101bの状態を精度よく監視することができる。
上記実施形態では、搭乗者101の顔101aの向きがカメラ13から視て正対していると判定された場合、顔画像合成部25で作成された合成顔画像35に基づいて視線の状態を判定しているが、これに限定されるものではない。例えば、各顔画像を左顔画像と右顔画像とに分割することなく、第1の顔画像31及び第2の顔画像33に基づいて視線の状態を判定してもよい。すなわち、眼鏡を着用した搭乗者の顔を撮影した場合、顔の向きがカメラから視て正対しているときであっても、必ずしも眼鏡のレンズに光源が映り込むとは限らないことから、第1の顔画像31及び第2の顔画像33の各顔画像における搭乗者101の両目の視線の状態を判定してもよい。これにより、顔画像を分割して合成する処理が不要となり、視線状態の判定処理に要する時間を短縮することができる。
また、各顔画像を第1の左顔画像31Lと第1の右顔画像31R、第2の左顔画像33Lと第2の右顔画像33Rとに分割し、分割した各顔画像に基づいて視線の状態を判定してもよい。例えば、第1の左顔画像31L及び第2の左顔画像33Lの各左顔画像における搭乗者101の片目の視線の状態を判定してもよいし、第1右顔画像31R及び第2右顔画像33Rの各右顔画像における搭乗者101の片目の視線の状態を判定してもよい。これにより、顔画像を合成する処理が不要となり、視線状態の判定処理に要する時間を短縮することができる。
上記実施形態では、監視システム1は、搭乗者101の眼鏡101cの着用有無にかかわらず、右側光源11Rと左側光源11Lとを、カメラ13の撮影ごとに交互に点灯させているが、これに限定されるものではない。例えば、搭乗者101の眼鏡101cの着用有無に応じて、右側光源11R及び左側光源11Lの点灯方法を異なるようにしてもよい。具体的には、搭乗者101が眼鏡101cを着用していない場合には、カメラ13の撮影ごとに右側光源11R及び左側光源11Lを同時に発光させ、搭乗者101が眼鏡101cを着用している場合には、右側光源11Rと左側光源11Lとを、カメラ13の撮影ごとに交互に点灯させる。これにより、搭乗者101が眼鏡101cを着用していない場合、搭乗者101の顔101aを均等に照明することができ、撮影により得られた顔画像における不要な影の発生を抑止して、搭乗者101の視線の状態を精度よく監視することができる。ここで搭乗者101が眼鏡101cを着用しているか否かを判定する方法として、例えばカメラ13から得られた顔画像を解析する方法が挙げられる。
1 監視システム
11R 右側光源
11L 左側光源
13 カメラ
15 制御装置
21 点灯制御部
22 顔認識部
23 顔向き判定部
24 顔画像分割部
25 顔画像合成部
26 視線状態判定部
27 警告部
31 第1の顔画像
31R 第1の右顔画像
31L 第1の左顔画像
31a,33a 顔の中心線
33 第2の顔画像
33R 第2の右顔画像
33L 第2の左顔画像
35 合成顔画像
39,40 単独判定用顔画像
100 車両
101 搭乗者
101a 顔
101b 目
101c 眼鏡
102 座席

Claims (1)

  1. 車両の搭乗者の顔を連続して撮影して顔画像を取得するカメラと、
    前記カメラを上下方向から視た場合に前記カメラを挟んで左右方向に配置され、前記搭乗者の顔に光を照射する一対の右側光源及び左側光源と、
    前記右側光源と前記左側光源とを、前記カメラの撮影ごとに交互に点灯させる点灯制御手段と、
    前記カメラで取得された複数の顔画像を用いて、少なくとも前記搭乗者の目の開閉を含む視線の状態を判定し、当該判定結果に基づいて車両制御を行う制御手段と、を備え、
    前記カメラは、
    前記右側光源の点灯に応じて撮影した第1の顔画像と、前記左側光源の点灯に応じて撮影した第2の顔画像とをそれぞれ取得し、
    前記制御手段は、
    前記第1の顔画像と、前記第1の顔画像が取得された時点の直近に取得された前記第2の顔画像とに基づいて前記視線の状態を判定し、
    前記顔画像を用いて前記搭乗者の顔の向きを判定する顔向き判定手段と、
    前記搭乗者の顔の向きが前記カメラから視て正対していると判定された場合、前記第1の顔画像を、前記右側光源と対向する前記搭乗者の右顔側の第1の右顔画像と、前記右側光源からの距離が前記搭乗者の右顔側より遠い左顔側の第1の左顔画像とに分割し、かつ前記第2の顔画像を、前記左側光源と対向する前記搭乗者の左顔側の第2の左顔画像と、前記左側光源からの距離が前記搭乗者の左顔側より遠い右顔側の第2の右顔画像とに分割する顔画像分割手段と、
    前記第1の左顔画像と前記第2の右顔画像とを合成して1つの顔画像を作成する顔画像合成手段と、さらに備え、
    前記制御手段は、
    前記顔画像合成手段で作成された顔画像に基づいて前記視線の状態を判定し、
    前記点灯制御手段は、
    前記搭乗者の顔の向きが前記カメラから視て右方向に回転していると判定された場合には、前記左側光源を点灯させ、前記搭乗者の顔の向きが前記カメラから視て左方向に回転していると判定された場合には、前記右側光源を点灯させ、
    前記カメラは、
    前記右側光源の点灯に応じて撮影した単独判定用顔画像と、前記左側光源の点灯に応じて撮影した単独判定用顔画像とをそれぞれ取得し、
    前記制御手段は、
    各前記単独判定用顔画像に基づいて前記視線の状態を判定する、
    ことを特徴とする監視システム。
JP2018209418A 2018-11-07 2018-11-07 監視システム Active JP6894880B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018209418A JP6894880B2 (ja) 2018-11-07 2018-11-07 監視システム
EP19206113.3A EP3650991B8 (en) 2018-11-07 2019-10-30 Monitoring system
US16/675,132 US10963718B2 (en) 2018-11-07 2019-11-05 Monitoring system
CN201911070848.0A CN111160081B (zh) 2018-11-07 2019-11-05 监控系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018209418A JP6894880B2 (ja) 2018-11-07 2018-11-07 監視システム

Publications (2)

Publication Number Publication Date
JP2020075596A JP2020075596A (ja) 2020-05-21
JP6894880B2 true JP6894880B2 (ja) 2021-06-30

Family

ID=68392863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018209418A Active JP6894880B2 (ja) 2018-11-07 2018-11-07 監視システム

Country Status (4)

Country Link
US (1) US10963718B2 (ja)
EP (1) EP3650991B8 (ja)
JP (1) JP6894880B2 (ja)
CN (1) CN111160081B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019004692B3 (de) * 2019-07-03 2020-11-12 Daimler Ag Vorrichtung und Verfahren zur Ermittlung von Bilddaten der Augen, von Augenpositionen und/oder einer Blickrichtung eines Fahrzeugnutzers in einem Fahrzeug
US11921917B2 (en) 2020-04-07 2024-03-05 Eyetech Digital Systems, Inc. Compact eye-tracking camera systems and methods
US10996753B1 (en) * 2020-04-07 2021-05-04 Eyetech Digital Systems, Inc. Multi-mode eye-tracking with independently operable illuminators
US12002290B2 (en) 2022-02-25 2024-06-04 Eyetech Digital Systems, Inc. Systems and methods for hybrid edge/cloud processing of eye-tracking image data
GB2618078A (en) * 2022-04-25 2023-11-01 Continental Automotive Tech Gmbh An image processing method for removal of glare spots and system for the same

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7777778B2 (en) * 2004-10-27 2010-08-17 Delphi Technologies, Inc. Illumination and imaging system and method
JP2008094221A (ja) * 2006-10-11 2008-04-24 Denso Corp 目状態検出装置および目状態検出装置の取り付け方法
JP4356733B2 (ja) * 2006-11-09 2009-11-04 アイシン精機株式会社 車載用画像処理装置とその制御方法
KR100936334B1 (ko) * 2008-06-11 2010-01-12 현대자동차주식회사 얼굴 검출 시스템
JP5206190B2 (ja) * 2008-07-17 2013-06-12 トヨタ自動車株式会社 ドライバー監視装置
JP2010244156A (ja) * 2009-04-02 2010-10-28 Toyota Motor Corp 画像特徴量検出装置及びこれを用いた視線方向検出装置
JP2016032257A (ja) * 2014-07-30 2016-03-07 株式会社デンソー ドライバ監視装置
DE102014118387A1 (de) 2014-12-12 2016-06-16 Valeo Schalter Und Sensoren Gmbh Erfassungsvorrichtung zum Erkennen einer Geste und/oder einer Blickrichtung eines Insassen eines Kraftfahrzeugs durch synchrone Ansteuerung von Leuchteinheiten, Bedienanordnung, Kraftfahrzeug sowie Verfahren
CN104834381B (zh) * 2015-05-15 2017-01-04 中国科学院深圳先进技术研究院 用于视线焦点定位的可穿戴设备及视线焦点定位方法
JP2017068385A (ja) * 2015-09-28 2017-04-06 京セラ株式会社 撮像装置、および監視システム
DE102016215766A1 (de) * 2016-08-23 2018-03-01 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben einer Innenraumkamera

Also Published As

Publication number Publication date
CN111160081B (zh) 2023-07-18
EP3650991B8 (en) 2023-07-05
US10963718B2 (en) 2021-03-30
CN111160081A (zh) 2020-05-15
JP2020075596A (ja) 2020-05-21
EP3650991B1 (en) 2023-05-31
EP3650991A1 (en) 2020-05-13
US20200143189A1 (en) 2020-05-07

Similar Documents

Publication Publication Date Title
JP6894880B2 (ja) 監視システム
JP6338701B2 (ja) 瞬間的な眠りを検出するデバイス、方法およびコンピュータプログラム
US10521683B2 (en) Glare reduction
EP1986129B1 (en) Face image capturing apparatus
JP3214195B2 (ja) 運転者撮影装置
JP4853389B2 (ja) 顔画像撮像装置
CN109791739A (zh) 晕车估计装置、晕车防止装置和晕车估计方法
JP2021501517A (ja) 低照明光条件下での物体追跡における信号対雑音比を向上させるためのシステム及び方法
US11442300B2 (en) Vehicle mounted virtual visor system and method thereof
US10604063B2 (en) Control device for vehicle headlight
JP2006248363A (ja) 運転者照明装置、運転者撮影装置および運転者監視装置
JP2002352229A (ja) 顔部位検出装置
KR20130097671A (ko) 촬상 제어 장치 및 컴퓨터 독출 가능 저장 매체
JP6201956B2 (ja) 視線検出装置および視線検出方法
JP6957048B2 (ja) 眼部画像処理装置
JP2006151287A (ja) 車両用照明装置
US20220234594A1 (en) Monitoring system and non-transitory storage medium
EP3362308A1 (en) Method for examining a perception of a visual warning notice by a vehicle user, driver assistance system and motor vehicle
JP2021527980A (ja) 高フレームレート画像前処理システム及び方法
JP2022149287A (ja) ドライバ監視装置、ドライバ監視方法及びドライバ監視用コンピュータプログラム
KR101694785B1 (ko) 졸음 운전 방지 시스템
JP2022100538A (ja) 生体情報取得装置
JP2023083837A (ja) 乗員モニタリングシステム用撮影装置及び乗員モニタリングシステム
US20230196799A1 (en) Detecting a Moving Object in the Passenger Compartment of a Vehicle
US20230342891A1 (en) An image processing method for removal of glare spots and system for the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210604

R150 Certificate of patent or registration of utility model

Ref document number: 6894880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250