JP2012156661A - 顔撮影システム - Google Patents

顔撮影システム Download PDF

Info

Publication number
JP2012156661A
JP2012156661A JP2011012485A JP2011012485A JP2012156661A JP 2012156661 A JP2012156661 A JP 2012156661A JP 2011012485 A JP2011012485 A JP 2011012485A JP 2011012485 A JP2011012485 A JP 2011012485A JP 2012156661 A JP2012156661 A JP 2012156661A
Authority
JP
Japan
Prior art keywords
face
area
edge
illumination
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011012485A
Other languages
English (en)
Other versions
JP5212927B2 (ja
Inventor
Takuhiro Omi
拓寛 大見
Yasuto Watanabe
泰斗 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2011012485A priority Critical patent/JP5212927B2/ja
Priority to US13/356,988 priority patent/US8767062B2/en
Priority to DE102012201071.8A priority patent/DE102012201071B4/de
Priority to CN201210021056.6A priority patent/CN102625047B/zh
Publication of JP2012156661A publication Critical patent/JP2012156661A/ja
Application granted granted Critical
Publication of JP5212927B2 publication Critical patent/JP5212927B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0257Proximity sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Social Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Child & Adolescent Psychology (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

【課題】光を照射する投光器にユーザが接近した場合にユーザの目に対する負担を軽減できる顔撮影システムを提供すること。
【解決手段】ユーザの顔を撮影するカメラは投光器に物体が接近した場合にボケが生じるレンズ構造を備えている。顔撮影システムは、投光条件、露光条件を設定し(S11、S12)、カメラが撮影した撮影画像を取得し(S13)、その撮影画像から顔領域の認識を試みる(S14)。認識できた場合には(S15:Yes)、撮影画像中の顔領域や構造物の構造物領域のエッジ情報を抽出する(S16〜S18)。顔領域のエッジ情報を構造物領域のエッジ情報で正規化する(S19)。正規化後のエッジ情報が所定の閾値未満か否かを判断する(S20)。エッジ情報が閾値未満の場合には(S20:Yes)、顔領域にボケが生じているとして、投光器からの光の照射を停止させ又は減光させる(S21)。
【選択図】図4

Description

本発明は、ユーザの顔に光を照射して、そのユーザの顔を撮影する顔撮影システムに関する。
従来、車両のドライバの顔向きや眼の開度等を検出するために、ドライバを監視するドライバモニタシステムが知られている。ここで、図13は、従来のドライバモニタシステム100の概略構成を示している。図13に示すように、ドライバモニタシステム100では、昼夜に関わらずドライバの顔を明瞭に撮影するために、ドライバの顔が位置する領域101(照明領域)に近赤外光等の光を照射する投光器102が設けられる。また、投光器102で光が照射された照明領域101を撮影するカメラ103が設けられる。なお、カメラ103は撮影制御部104によってゲインや露光時間(露光タイミング)等が制御され、投光器102は投光制御部105によって光の強度や照射タイミング等が制御されている。カメラ103で撮影された撮影画像は画像認識部106に送られる。画像認識部106は、撮影画像に対して所定の画像処理を実行して、ドライバの顔に対応する顔領域を認識する。そして、認識されたドライバの顔領域の情報は、居眠り運転を防止するシステムや脇見運転を防止するシステム等の各種システム107に利用される。具体的には、各種システム107は、例えば顔領域に基づいてドライバの顔向きや目の開度等を検出して、その検出結果に応じた処理(例えば警告)を実行する。
このように、従来では、ドライバを監視する前提として、ドライバの顔が位置する所定の照明領域に光を照射する投光器(照明手段)と、その照明領域を撮影するカメラ(撮影手段)とを備える顔撮影システムが利用されている(特許文献1参照)。
特許第4419609号公報
ところで、従来の顔撮影システムでは、照明領域にドライバ等のユーザの顔が存在しないときや、存在するが顔を認識できないときでも投光器は光を照射し続ける。そのため、ユーザが突然投光器を覗き込んだ場合や、ユーザが投光器に接近し過ぎた場合には、投光器からの光によってユーザの目に負担がかかってしまうという問題点があった。特に、投光器から近赤外光が照射される場合には、可視光に比べて瞳孔の収縮が起こらないので、目に対する負担が大きい。
本発明は上記問題点に鑑みてなされたものであり、ユーザが突然投光器を覗き込んだ場合やユーザが投光器に接近し過ぎた場合に、ユーザの目に対する負担を軽減できる顔撮影システムを提供することを課題とする。
上記課題を解決するために、本発明は、ユーザの顔が位置する領域として予め定められた照明領域に光を照射する照明手段と、
その照明手段によって光が照射された照明領域を含む領域を撮影する撮影手段と、を備える顔撮影システムにおいて、
ユーザの顔が照明手段に接近したことを検出する接近検出手段と、
その接近検出手段が接近したことを検出した場合に、照明手段による光の照射を停止又は減光させる第一の照明制御手段と、を備えることを特徴とする。
これによれば、接近検出手段が、ユーザの顔が照明手段に接近したことを検出する。この場合に、第一の照明制御手段が照明手段による光を停止又は減光させるので、ユーザの目に対する負担を軽減できる。
また、本発明における接近検出手段は、撮影手段が撮影した撮影画像に基づいて接近したことを検出することを特徴とする。
これによれば、ユーザの顔が照明手段に接近するとそれに応じた撮影画像が撮像されることになるので、接近検出手段はその撮影画像に基づいてユーザの顔が照明手段に接近したことを検出できる。これによって、ユーザの顔の接近を検出するために他のセンサを設けなくてもよいので、顔撮影システムの構成を簡素にできる。
また、本発明における撮影手段は、照明手段に接近した物体を撮影した場合に撮影画像中の前記物体に対応する領域にボケを生じさせるレンズ構造を備え、
接近検出手段は、撮影画像中のエッジの特徴が反映されたエッジ情報を撮影画像から抽出するエッジ抽出手段と、
そのエッジ抽出手段が抽出したエッジ情報がボケのエッジ情報であるか否かを判断するエッジ判断手段と、を備えることを特徴とする。
これによれば、撮影手段は、照明手段に接近した物体を撮影した場合にその物体に対応する画像領域にボケを生じさせるレンズ構造を備えているので、ユーザが照明手段に接近した場合における撮影画像にボケを生じさせることができる。この場合、エッジ抽出手段が抽出するエッジ情報はボケが反映されたエッジ情報となる。この場合、エッジ判断手段が、抽出されたエッジ情報がボケのエッジ情報であると判断するので、ユーザの顔の接近を検出できる。このように、エッジ情報に基づいて接近を検出することで、ユーザの顔を認識できていない場合であっても、ユーザの顔の接近を検出できる。
また、本発明における撮影手段は、撮影手段に対して位置が変化しない周囲の構造物が写る形で照明領域を撮影するものであり、
エッジ判断手段は、構造物に対応する撮影画像中の領域である構造物領域のエッジ情報と比較することで、構造物領域以外の領域である不定領域のエッジ情報がボケのエッジ情報であるか否かを判断することを特徴とする。
これによれば、撮影手段は周囲の構造物も撮影するので、撮影画像にはその構造物に対応する構造物領域が含まれることになる。その構造物は撮影手段に対して位置が変化しないので、構造物領域のエッジ情報はボケが生じていないエッジ情報とされる。また、撮影画像の領域のうち構造物領域以外の不定領域にユーザの顔に対応する顔領域が含まれていることになるので、ユーザの顔が接近した場合にはその不定領域のエッジ情報が、ボケが反映されたエッジ情報とされる。この場合、不定領域のエッジ情報は、構造物領域のエッジ情報と異なる特徴を有することになる。これに対し、ユーザの顔が接近していない場合には、不定領域のエッジ情報は、構造物領域のエッジ情報と類似の特徴を有することになる。よって、エッジ判断手段は、構造物領域のエッジ情報と比較することで、不定領域のエッジ情報がボケのエッジ情報であるか否かを判断できる。このように、ボケが生じていない既知の領域(構造物領域)のエッジ情報と比較することで、撮影画像にボケが生じているか否か、ひいてはユーザの顔が接近している否かを正確に判断できる。
また、本発明におけるエッジ判断手段は、ボケが生じていない前回の撮影画像に対するエッジ情報と比較することで、今回のエッジ情報がボケのエッジ情報であるか否かを判断するとしてもよい。
今回の撮影画像にボケが生じている場合には、今回のエッジ情報は、ボケが生じていない前回の撮影画像に対するエッジ情報から変化する。これに対し、今回の撮影画像にボケが生じていない場合には、前回のエッジ情報からそれほど変化しない。よって、前回のエッジ情報と比較することで、今回のエッジ情報がボケのエッジ情報であるか否かを判断できる。
また、本発明は、撮影画像中からユーザの顔に対応する領域である顔領域を認識する顔認識手段を備え、
接近検出手段は、物体認識手段が顔領域を認識した場合にはその顔領域の大きさに基づいて接近したことを検出するとしてもよい。
これによれば、撮影画像中のユーザの顔に対応する顔領域の大きさは、ユーザの顔の照明手段への接近度合いに応じた大きさとされるので、顔認識手段が顔領域を認識した場合には、接近検出手段はその顔領域の大きさに基づいて顔の接近を検出できる。これにより、エッジ情報を使用しなくても、ユーザの顔の接近を検出できる。
また、本発明は、撮影手段の露光条件を制御する撮影制御手段と、
撮影手段の露光タイミングに合わせて照明手段による光の照射タイミングを制御する第二の照明制御手段と、
撮影画像に基づいて、撮影手段が障害物で隠蔽されたことを検出する隠蔽検出手段と、をさらに備え、
隠蔽検出手段が隠蔽されたことを検出した場合には、撮影制御手段が撮影手段の露光間隔を大きし、且つ/又は第一の照明制御手段が照明手段による光の照射を停止又は減光させることを特徴とする。
これによれば、第二の照明制御手段によって、照明手段による光の照射タイミングが撮影手段の露光タイミングと関連づけられる。つまり、照明手段は、撮影手段のシャッターが開いているとき、つまり撮影が行われている間は光の照射を行う。また、撮影手段が障害物に隠蔽される場合があり、この場合には、その障害物によってユーザの顔を撮影することができなくなってしまう。この場合には、撮影し続けたり照明し続けたりするのは無駄が大きい。本発明によれば、隠蔽検出手段がその撮影画像に基づいて隠蔽されたことを検出し、撮影制御手段が、撮影手段が隠蔽された場合には露光間隔を大きくする。さらに/または、第一の照明制御手段で光の照射を停止又は減光(投光量のパワーを低下)させてもよい。その露光間隔が大きくなったことにともなって照明手段による照明間隔も大きくされる。よって、無駄に光が照射されることによるエネルギーロスを抑制したり、ユーザの目に対する負担を軽減したりできる。さらに、投光器回路を構成する電子部品の劣化の進行を抑制できる。また、撮影手段が隠蔽された場合、撮影手段の撮影が停止されるわけではないので、その後に、撮影手段が撮影した撮影画像に基づいて、撮影手段の隠蔽が継続されているか解消されているかを判断できる。そして、解消されている場合には、元の露光タイミング及び照射タイミングを復帰させることができる。
また、本発明における接近検出手段は、照明手段の周囲に存在する物体の距離を計測する距離計測手段を備え、距離計測手段が計測した距離に基づいて、物体が照明手段に接近したことを検出するとしてもよい。なお、距離計測手段とは具体的には、超音波や測距可能なカメラ、レーザなどである。
これにより、撮影画像を使用しない場合でもユーザの顔等の物体の接近を検出できる。また、上記撮影画像による接近の検出と距離計測手段による接近の検出を併用することで、より一層精度良くユーザの顔の接近を検出できる。
また、本発明において、撮影画像の中央付近の画素全域に亘り白とび又は画素値が白とびに準ずる大きい値として予め定められた第一閾値以上になったことを検出する白とび検出手段を備え、
接近検出手段は、白とび検出手段が白とび又は画素値が第一閾値以上になったことを検出した場合に、ユーザの顔が照明手段に接近したとしてもよい。
ボケ状態を経ないで撮像手段に急激にユーザの顔が近づいた場合には、照明手段による光を強く反射した画像が取り込まれて、撮影画像の中央付近が真っ白(白とび状態)になることがある。本発明によれば、接近検出手段が白とび検出手段が白とびを検出した場合にも、ユーザの顔の接近と判断する。よって、ボケ状態を経ない急激な接近においても、第一の照明制御手段によって、照明手段による光の照射を停止又は減光させることができる。さらに、白とび検出手段は、白とびの他に、撮影画像の中央付近の画素値が、白とびに準ずる大きい値として予め定められた第一閾値以上になったことも検出し、接近検出手段は、この場合もユーザの顔の接近と判断する。よって、撮影手段の撮像モードがHDR(ハイダイナミックレンジモード)の如く白とびしにくい場合であっても、顔の接近を検出でき、照明を停止又は減光させることができる。
また、本発明において、撮影画像の中央付近の画素全域に亘り黒つぶれ又は画素値が黒つぶれに準ずる小さい値として予め定められた第二閾値以下になったことを検出する黒つぶれ検出手段を備え、
接近検出手段は、黒つぶれ検出手段が黒つぶれ又は画素値が第二閾値以下になったことを検出した場合に、ユーザの顔が照明手段に接近したとしてもよい。
上記の白とび状態からさらにユーザの顔が撮像手段に接近すると、撮像手段が塞がれたような状態となり暗く(黒つぶれ状態)なる。本発明によれば、黒つぶれ検出手段が黒つぶれを検出し、接近検出手段が黒つぶれが検出された場合にもユーザの顔の接近と判断するので、光の照射を停止又は減光させることができる。また、上記の白とびと同様に、撮影画像の中央付近の画素値が、黒飛びに準ずる小さい値として予め定められた第二閾値以下になった場合にもユーザの顔の接近とされる。よって、撮影手段の感度が高く黒つぶれしにくい場合であっても、照明を停止又は減光させることができる。
また、本発明において、前記顔が目であることを特徴とする。これによれば、ユーザの目に光が照射され、その目が照明手段に接近した場合に照明が停止又は減光されるので、ユーザの目に対する負担を軽減できる。
ドライバモニタシステム1の概略構成を示した図である。 カメラ22のレンズ構造の断面を模式的に示した図である。 カメラ22及び投光器21の駆動タイミングを示した図である。 第一実施形態における接近検出処理の手順を示したフローチャートである。 カメラ22で撮影された撮影画像を例示した図である。 エッジ処理後の横ソーベル画像を例示した図である。 エッジ情報としての輝度変化を例示した図である。 第二実施形態における接近検出処理の手順を示したフローチャートである。 エッジ処理後のエッジ2値化画像を例示した図である。 変形例3における接近検出処理の手順を示したフローチャートである。 第三実施形態におけるステア隠蔽検出処理の手順を示したフローチャートである。 第四実施形態におけるドライバモニタシステム2の概略構成を示した図である。 従来のドライバモニタシステム100の概略構成を示した図である。
(第一実施形態)
以下、本発明に係る顔撮影システムの第一実施形態を説明する。なお、以下に説明する実施形態では、車両のドライバを監視するドライバモニタシステムに本発明の顔撮影システムを適用した例を説明する。ここで、図1は、本実施形態のドライバモニタシステム1の概略構成を示している。図1に示すように、ドライバモニタシステム1は、投光器21、カメラ22、撮影制御部23、投光制御部24、画像認識部25、各種システム26、投光判断部27及びステアリングセンサ28を備えている。
投光器21は、ドライバの顔が位置する領域として予め定められた照明領域、具体的には運転席(図示外)周辺の領域10(以下、運転席周辺領域という)に光を照射するものである。図1では、運転席周辺領域10において、投光器21に接近していないときのドライバの顔の位置P1と、投光器21に接近したときのドライバの顔の位置P2とを図示している。なお、図1では、それら位置P1、P2を図示する便宜上ドライバの顔を横からみたときの運転席周辺領域10を示しているが、実際は、後述する図5の画像で示される領域が運転席周辺領域10とされる。投光器21は、運転席周辺領域10に向けて光を照射できる位置及び照射角に取り付けられ、具体的には例えば、運転席前方に設けられた車両を操舵するためのステアリング35(図1参照)のステアリングコラムの上面に取り付けられている。なお、投光器21は、後述するカメラ22に組み込まれて設けられたとしてもよい。また、投光器21は、昼夜に関わらず明瞭にカメラ22で撮影できるようにしたり、ドライバに光を眩しく感じさせないようにしたりするために、近赤外光を含む波長の光を照射する投光器とされている。
投光器21は投光制御部24によって制御されている。すなわち、投光制御部24は、カメラ22で明瞭に撮影できるようにするために、カメラ22の撮影条件やドライバの姿勢状態や周囲の環境光等に応じて、投光器21から照射される光の強度や照射タイミング等を制御する部分である。具体的には、投光制御部24は、国際電気標準会議が制定する国際規格であるIEC規格(IEC 62471)でExemptレベルを満足するように、投光器21から照射される光の強度や投光時間を制御している。また、投光制御部24は、カメラ22の露光タイミングに合わせて投光器21のオンオフ(照射タイミング)を制御している。ここで、図3(a)はカメラ22の露光タイミングを示しており、図3(b)は投光器21の照射タイミングを示している。図3に示すように、投光制御部24は、カメラ22のシャッターのパルス駆動と同期するように、パルス状に投光器21のオンオフを切り替えている。すなわち、カメラ22で撮影が行われている間は投光器21から光が照射されるようになっている。
ただし、ここで言う「同期」は、投光器21の照射の開始タイミング、終了タイミングとカメラ22の露光の開始タイミング、終了タイミングとの完全一致だけを意味するものではない。投光器21では、発光指示から設定値になるまでに立ち上がり遅れ時間があるため、露光タイミングより若干早めにその発光指示を出す場合がある。また、投光器21では立ち下がり遅れもあるため、カメラ22の露光終了後にもまだ発光(照射)している場合がある。これらの場合も、ここで言う「同期」に含まれる。本実施形態では、図3に示すように、投光器21の照射は、カメラ22の露光に先行して開始されている。また、投光器21の照射の終了タイミングは、カメラ22の露光の終了タイミングと同じとされている。よって、投光器21の照射周期T1(終了タイミング間の時間)は、カメラ22の周期T1と同じとされている。なお、投光器21の照射の終了タイミングは、カメラ22の露光の終了タイミングより若干遅れていたとしてもよい。なお、投光制御部24は、状況によっては、カメラ22の露光タイミングと同期しない発光(照射)を投光器21にさせる場合もある。
カメラ22は、CCDイメージセンサやCMOSイメージセンサ等の撮像素子を有し、その撮像素子によって投光器21から光が照射された運転席周辺領域10を撮影するものである。そのカメラ22は、運転席周辺領域10を撮影できる位置、具体的には例えばステアリング35(図1参照)のステアリングコラムの上面に取り付けられている。また、カメラ22のレンズ構造は、ドライバの顔等の物体がカメラ22(投光器21)に一定以上接近場合に、その物体の画像領域にボケを生じさせる機能を有するレンズ構造とされている。以下、その機能を有するレンズ構造の設計の考え方を説明する。
ここで、図2は、カメラ22のレンズ構造の断面を模式的に示した図である。図2に示すように、カメラ22のレンズ構造は、複数のレンズ(ここでは2枚のレンズ221a、221bで説明する)から構成されたレンズ221、それらレンズ221a、221bの間に設けられたカメラ22に取り込む光量を調整する絞り222、可視光をカットする可視光カットフィルタ(光学フィルタ)223、レンズ221等を固定するレンズフォルダ224、撮像素子(イメージャ)225、及びその撮像素子225を実装したプリント基板226から構成されている。なお、図2のレンズ構造はあくまで模式的に示したものであり、構成の順番などは図2に限定されるものではない。
一定距離内で物体の画像領域にボケを生じさせるレンズ構造を設計するために、被写界深度を考える。被写体にピントを合わせたとき無限遠が被写界深度の後端ぎりぎりに入る距離を過焦点距離としたときに、先ず、その過焦点距離を計算する。レンズの焦点距離をf、レンズの絞り値をN、許容錯乱円の直径をcとすると、過焦点距離Hは次の式1で計算できる。
次に、任意の距離の被写体に焦点を合わせたときの被写界深度の前端と後端をそれぞれ計算する。被写体の距離をsとすると、被写界深度の前端D、後端Dは次の式2、式3でそれぞれ計算できる。
上記式1〜式3から、被写界深度は、(i)レンズの焦点距離が短いほど深くなり、(ii)絞りを絞り込む(F値が大きい)ほど深くなる、ということが分かる。よって、一定距離内で焦点をボケさせる方法としては、上記の逆で被写界深度が浅くなるようにレンズ構造の設計をすれば良い。具体的には、(1)レンズの絞り値(F値)を小さく(開く)設計する。また、(2)レンズの焦点距離を長くする。上記(1)に関して、具体的には例えばF値を2以下にする。通常はF値が小さいほど明るく撮像できるため好ましい面もあるが、レンズ設計が複雑でコストが高くなるためにあまりF値を小さくすることは実用的ではない。しかしながら、カメラ22で撮影した撮影画像は画像処理目的で収集されるものであるため、レンズを多数枚使用して収差を極限まで減らすといったことは必要がなく、比較的に安価にF値を小さくできる。
以上より、レンズ(焦点距離)や絞りを調整することで、ピント曲線(ピントの合う範囲の前後において、被写体からの距離が遠のくにしたがってどのようにボケが増すか、具体的には範囲から外れた途端に急激にボケるのか、範囲から外れてもなかなかボケないのか)を制御することができる。本実施形態では、カメラ22(投光器21)から約20cm以内の距離にユーザの顔が近づいた場合を「投光器21への接近」であるとし、そのために、約20cm以内の距離に物体が接近したときにボケが生じるようにレンズ221や絞り222(図2参照)が設計されている。
図1の説明に戻り、カメラ22は撮影制御部23によって制御されている。その撮影制御部23は、各状況でドライバの顔を最適に撮影するように、カメラ22のゲインやシャッタースピード等の露光制御する部分である。また、撮影制御部23は、図3(a)で説明したように、カメラ22の露光タイミングがパルス状になるように、カメラ22のシャッターをパルス駆動している。そのパルスの周期T1(シャッターの駆動間隔、露光間隔)は、例えば一秒間に30フレームの撮影画像が得られる周期とされている。また、撮影制御部23は、撮影対象物体に応じて露光時間(シャッターが開いている時間)を適宜伸縮させている。
カメラ22で撮影した撮影画像は画像認識部25に送られる。その画像認識部25は、受け取った撮影画像に対して所定の画像処理を実行することで、撮影画像中の領域のうちドライバの顔に対応する顔領域を認識する部分である。具体的には、例えば人間の顔を構成する目や鼻等の各パーツの特徴が反映された特徴量(各パーツの形状情報や輝度情報等)を予め記憶しておく。そして、画像認識部25は、例えば、予め記憶されたその特徴量と、撮影画像中の各領域の特徴量とをマッチング処理することで、顔領域を認識する。ただし、画像認識部25は、撮影画像の状態によっては、撮影画像にドライバの顔が写っているにも関わらず顔領域を認識できない場合があり、また撮影画像にドライバの顔が写っていない場合には当然に顔領域を認識できない。
また、画像認識部25は、顔領域の他に、撮影画像中に含まれる車両のピラー、窓枠、ヘッドレスト、シート、天井等の構造物に対応する構造物領域も認識できる機能も有する。具体的には、例えば、顔領域の認識と同様に、構造物の特徴が反映された特徴量(構造物の形状情報や輝度情報等)を予め記憶しておく。そして、画像認識部25は、撮影画像中の各領域の特徴量と予め記憶された構造物領域の特徴量とをマッチング処理することで、撮影画像中に含まれる構造物領域を認識する。なお、画像認識部25は、構造物領域の特徴が他の領域(顔領域、風景領域)の特徴と異なっていることを利用すれば、構造物領域の特徴量を予め記憶しておかなくても、構造物領域を認識できる。なお、シートやヘッドレスト等の構造物はユーザの操作によって移動するし、本システム(カメラ22)が取り付けられているステアリングコラムもユーザの操作によって移動するため、カメラ22と構造物間の相対的位置関係は変化するが、それらは補正可能なものとする。
画像認識部25で認識された顔領域の情報は、居眠り運転や脇見運転を防止するシステムやドライバの視線を検出するシステムなどの各種システム107に送られる。その各種システム107は、受け取った顔領域の情報に基づいて、必要に応じてドライバの顔向きを検出したり、目の開度を検出したり、視線を検出したりする。そして、必要に応じて警告等の処理を実行する。
投光判断部27は、ドライバの顔が投光器21に接近したか否かを判断し、接近した場合には投光器21の光の照射を停止又は減光させる部分である。そのときの処理は、本発明の特徴でもあるので、後に詳細に説明する。また、カメラ22で撮影された撮影画像や画像認識部25による認識結果は、投光判断部27に入力されるようになっている。なお、上記に説明した各処理部23〜27は、それぞれ、CPU、ROM、RAM等を含むマイクロコンピュータとして構成されている。そして、ROMに予め記憶された制御プログラムにしたがった処理をCPUが実行することで、上記の各処理部23〜27の機能が実現されている。
ステアリングセンサ28は、ステアリング35の操作量(回転角度)を検出するセンサである。ステアリングセンサ28として、例えばレゾルバ等の回転角検出センサが使用される。ステアリングセンサ28で検出されたステアリング35の操作量を示した信号は、投光判断部27に入力されるようになっている。
次に、ドライバの顔が投光器21に接近したか否かを判断し、接近した場合には投光器21の光の照射を停止又は減光させる接近検出処理の詳細を説明する。図4は、その接近検出処理の手順を示したフローチャートである。なお、図4の接近検出処理は、ドライバモニタシステム1全体として行う処理である。また、図4の接近検出処理は、ドライバモニタシステム1の起動時、具体的には例えば車両のエンジン始動時に開始され、その後、カメラ22の撮影タイミング(露光タイミング)に合わせて繰り返し実行される。
先ず、投光制御部24が、投光器21による投光(光の照射)の投光条件(光の強度や照射タイミングなど)を設定する(S11)。その投光条件として、システム1の起動後初回ではデフォルトの投光条件が設定され、初回以降の回では、前回のカメラ22による撮影画像の状態等が考慮された投光条件が設定される(S11)。そして、投光制御部24は、設定した投光条件にしたがって、投光器21から光を照射させる(S11)。次いで、撮影制御部23が、カメラ22の露光条件(ゲイン、露光時間、露光タイミングなど)を設定する(S12)。その露光条件として、システム1の起動後初回ではデフォルトの露光条件が設定され、初回以降の回では、前回のカメラ22による撮影画像の状態等が考慮された露光条件が設定される(S12)。
次いで、撮影制御部23がカメラ22で運転席周辺領域10を撮影させる(S13)。図5は、S13で撮影した撮影画像の一例を示している。具体的には、図5(a)は、ドライバの顔が投光器21に接近していない場合(図1において、投光器21から離れた位置P1にドライバの顔が位置している場合)の撮影画像300の一例を示している。また、図5(b)は、ドライバの顔が投光器21に接近した場合(図1において、投光器21から近い位置P2にドライバの顔が位置している場合)の撮影画像400の一例を示している。なお、図5(b)において、図5(a)と変更がない部分には同一符号を付している。
図5(a)に示すように、ドライバの顔が投光器21に接近していない場合には、撮影画像300はピントが合った画像とされる。また、撮影画像300には、ドライバの顔に対応する顔領域301が含まれる。その顔領域301には、ドライバの顔の輪郭に対応する輪郭線301a、目に対応する目領域301b、鼻に対応する鼻領域301c、口に対応する口領域301dなど、顔の各パーツに対応する領域が含まれている。また、撮影画像300には、車両のBピラーに対応するBピラー領域302や天井に対応する天井領域303、窓枠に対応する窓枠領域304など、車両の構造物に対応する構造物領域も含まれている。
これに対して、図5(b)に示すように、ドライバの顔が投光器21に接近した場合には、撮影画像400にはドライバの顔に対応する顔領域401が含まれているが、その顔領域401にボケが生じている。つまり、顔領域401に含まれている、ドライバの顔の輪郭に対応する輪郭線401a、目に対応する目領域401b、鼻に対応する鼻領域401c、口に対応する口領域401dなどの顔の各パーツに対応する領域がボケている(エッジ強度が弱くされている)。また、撮影画像400には、車両のBピラーに対応するBピラー領域302、天井に対応する天井領域303、窓枠に対応する窓枠領域304などの構造物領域が含まれている。車両の構造物は、投光器21(カメラ22)に対して位置が不変とされているので、図5(b)の構造物領域は、図5(a)の構造物領域と同じとされる。ただし、図5(a)と図5(b)では顔に対する最適露光条件が異なるため構造物領域の位置は変わらないが画素値は異なっている。なお、カメラ22には可視光カットフィルタ223(図2参照)が設けられているので、撮影画像300、400は白黒写真とされている。これら撮影画像300、400を図4の接近検出処理の対象として、以下説明する。
S13で取得された撮影画像は画像認識部25に送られる。そして、画像認識部25が、撮影画像中のドライバの顔に対応する顔領域や車両の構造物に対応する構造物領域の認識を試みる認識処理を実行する(S14)。具体的には、上記したように例えば予め用意された各パーツの特徴量と撮影画像中の各領域の特徴量とのマッチング処理を実行することで、各領域の認識を試みる。図5(a)、(b)の撮影画像300、400の場合では、顔領域301、401や、構造物領域としてのBピラー領域302、天井領域303、窓枠領域304を認識するための認識処理を実行することになる(S14)。その認識処理による認識結果、具体的には、認識できたか否かの情報、認識できた場合には認識した各領域の情報は、投光判断部27に送られる。また、認識できたか否かに関わらず、撮影画像も投光判断部27に送られる。
なお、S14において、図5(a)の撮影画像300には、ボケていない顔領域301が含まれているが、画像認識部25は、例えば前回までは顔領域301が含まれておらず今回突然に含まれるようになった場合など、状況によっては顔領域301を認識できない場合もある。反対に、図5(b)の顔領域401はボケているので、顔領域401を認識できない場合が多いと考えられるが、例えば投光器21から約20cmの距離にドライバの顔が接近した場合であって顔領域401のボケの程度が小さいときには、画像認識部25が顔領域401を認識できる場合もあり得る。なお、以下では、図5の撮影画像300、400から顔領域301、401を認識できたとして説明する。
次いで、投光判断部27は、画像認識部25から送られた認識結果に基づいて、撮影画像から顔領域を認識できたか否かを判断する(S15)。認識できた場合には(S15:Yes)、処理をS16に進める。S16では、投光判断部27は、撮影画像に含まれるエッジを抽出する所定のエッジ処理を撮影画像に対して実行する(S16)。そのエッジ処理として、具体的には、撮影画像に対してソーベルフィルタでフィルタリングをする(S16)。ここで、図6(a)は、図5(a)の撮影画像300に対してソーベルフィルタをかけたときに得られるソーベル画像310を示している。より具体的には、図6(a)では、図5(a)の撮影画像300の横方向のエッジを検出するソーベルフィルタをかけたときに得られる横ソーベル画像310を示している。同様に、図6(b)は、図5(b)の撮影画像400に対する横ソーベル画像410を示している。なお、図6(b)において、図6(a)と変更がない部分には同一符号を付している。
図6(a)、(b)に示すように、横ソーベル画像310、410は、撮影画像300、400に含まれる各エッジに対応するエッジ線が強調(抽出)された画像とされる。より具体的には、図6(a)の横ソーベル画像310には、図5(a)の顔領域301に対応する領域311(顔領域)が含まれている。その顔領域311には、図5(a)の顔領域301の輪郭線301aに対応するエッジ311a、目領域301bに対応するエッジ311b、鼻領域301cに対応するエッジ311c及び口領域301dに対応するエッジ311dが含まれている。また、横ソーベル画像310には、図5(a)のBピラー領域302に対応する領域312、天井領域303に対応する領域313及び窓枠領域304に対応する領域314などの構造物領域も含まれている。また、図6(a)のBピラー領域312にはBピラーのエッジ312aが含まれており、窓枠領域314には窓枠のエッジ314aが含まれている。
これに対して、図6(b)の横ソーベル画像410には、図5(b)の顔領域401に対応する領域411が含まれることになるが、その顔領域411は、図6(b)の紙面上ではほとんど確認できない。つまり、顔領域411のエッジ強度が、図6(a)の顔領域311のエッジ強度に比べて弱くされている。また、横ソーベル画像410には、車両のBピラーに対応するBピラー領域312、天井に対応する天井領域313、窓枠に対応する窓枠領域314などの構造物領域も含まれている。図6(b)の構造物領域は、図6(a)の構造物領域と同じとされる。なお、S16では、横ソーベル画像の他に、撮影画像の縦方向のエッジを検出するソーベルフィルタで撮影画像をフィルタリングしたり、斜め方向のエッジを検出するソーベルフィルタで撮影画像をフィルタリングしたりして、各方向のエッジが抽出されたソーベル画像を得るようにしても良い。
次いで、投光判断部27は、S16で得られたソーベル画像の領域のうち顔領域のエッジの特徴が反映されたエッジ情報E1をソーベル画像から抽出する(S17)。なお、S17では、画像認識部25が認識した顔領域に代えて、既知の構造物領域以外の領域(不定領域)を顔領域としても良い。図6(a)、(b)の横ソーベル画像310、410の場合では、Bピラー領域312、天井領域313、窓枠領域314を含む構造物領域以外の領域(顔領域311、411)のエッジ情報E1が抽出されることになる。
抽出するエッジ情報E1として、具体的には顔領域の輝度変化を示した情報を抽出する(S17)。図6(a)、(b)の横ソーベル画像310、410では水平方向のエッジが強調されているので、この場合には垂直方向に並んだ画素間の輝度変化を抽出する。ここで、図7(a)は、図6(a)の矢印51に沿った輝度値の変化を示したライン60を示している。なお、そのライン60が顔領域のエッジ情報E1に相当する。また、図7(b)は、図6(b)の矢印51に沿った輝度値の変化を示したライン80(エッジ情報E1)を示している。なお、図6(b)の矢印51は、図6(a)の矢印51と同じ位置に引かれた矢印とされる。
図7(a)に示すように、輝度変化のライン60のうち図7(a)に示す領域61の部分が大きく変化している。より具体的には、領域61(エッジ周辺)のライン60は、振幅(最大の輝度値と最小の輝度値の差)が大きくされたり、傾きが大きくされたりしている。これは、この領域61の輝度値は、図6(a)の目領域のエッジ311bに対応する輝度値とされるためである。このライン60の振幅や傾きは、顔領域311のエッジの特徴(エッジ強度)が反映された値とされる。これに対して、図7(b)のライン80は、図7(b)に示す領域81(目領域のエッジに対応する)で変化しているものの、その変化の程度(ライン80の振幅や傾き)は、図7(a)のライン60のそれと比べると小さくされている。これは、顔領域411のエッジ強度が弱くされたためである。
なお、以上では図6(a)、(b)の矢印51に沿った輝度変化E1を例に挙げて説明したが、S17では、顔領域の全領域の輝度値の輝度変化E1を抽出するのが好ましい。また、以上では横ソーベル画像310、410の顔領域311、411の輝度変化E1を例に挙げて説明したが、S17では、縦ソーベル画像、斜めソーベル画像など各方向のソーベル画像に対して、顔領域の輝度変化E1を抽出しても良い。この際、縦ソーベル画像に対しては水平方向に沿った輝度変化E1を抽出するなど、ソーベルフィルタのフィルタリングの方向と直交する方向に沿った輝度変化E1を抽出するのが好ましい。
次いで、投光判断部27は、S16で得られたソーベル画像の領域のうち構造物領域のエッジの特徴が反映されたエッジ情報E2をソーベル画像から抽出する(S18)。具体的には、エッジ情報E2として、先のS17で説明した顔領域のエッジ情報E1と同様に、構造物領域の輝度変化を抽出する。また、エッジ情報E2の抽出の方法は、先のS17で説明した方法と同じである。ここで、図7(c)は、図6(a)、(b)の矢印52に沿った輝度値の変化を示したライン70を示している。なお、そのライン70が構造物領域のエッジ情報E2に相当する。矢印52は、横ソーベル画像310、410の窓枠領域314のエッジ314aやBピラー領域312のエッジ312aをまたいでいるので、ライン70は、それらエッジ314a、312a周辺で大きく変化している。具体的には、窓枠領域314のエッジ314aに対応する図7(c)に示す領域71及びBピラー領域312のエッジ312aに対応する領域72で、ライン70の振幅や傾きが大きく変化している。このライン70の振幅や傾きは、構造物領域(厳密には窓枠領域314やBピラー領域312)のエッジの特徴(エッジ強度)が反映された値とされる。
なお、このS18でも、S17と同様に、既知の構造物領域の全領域の輝度変化E2を抽出するのが好ましく、また、各方向のソーベル画像のそれぞれに対して構造物領域の輝度変化E2を抽出するのが好ましい。
次いで、投光判断部27は、S17で抽出された顔領域のエッジ情報E1(輝度変化)がボケのエッジ情報であるか否かを判断するために、そのエッジ情報E1とボケのエッジ情報ではない構造物領域のエッジ情報E2とを比較する(S19)。具体的には、顔領域のエッジ情報E1を構造物領域のエッジ情報E2で正規化する(S19)。つまり、ボケてないエッジ情報E2を基準とした顔領域のエッジ情報E0を計算する(S19)。例えば、正規化後のエッジ情報E0の値を「0〜1」の範囲で表し、「1」に近いほどそれらエッジ情報E1、E2が互いに近似しているとしたとき、図6(a)の場合では顔領域311がボケていないので、正規化後の顔領域311のエッジ情報E0は「1」に近い値とされる。これに対して、図6(b)の場合では顔領域411がボケているので、正規化後の顔領域411のエッジ情報E0は「1」から離れた値とされる。
次いで、投光判断部27は、正規化後のエッジ情報E0が所定の閾値Eth未満か否かを判断することで、ドライバの顔が投光器21に接近したか否かを判断する(S20)。その閾値Ethとして、ボケのエッジ情報E0とボケてないエッジ情報E0との境界値に設定されている。エッジ情報E0が閾値Eth以上の場合には(S20:No)、エッジ情報E0はボケてないエッジ情報であるとして、つまりドライバの顔が投光器21に接近していないとして、S11の処理に戻る。この場合には、通常時の光の強度が維持されて、S11において、次回の投光条件が設定される。図6(a)の場合では、エッジ情報E0が閾値Eth以上とされて(S20:No)、通常時の光の強度が維持されることになる。
これに対して、エッジ情報E0が閾値Eth未満の場合には(S20:Yes)、処理をS21に進める。この場合には、エッジ情報E0はボケのエッジ情報であり、ドライバの顔が投光器21に接近しているとして、投光制御部24は、投光器21の光の照射を停止させ又は減光させる(S21)。減光させる場合には、例えば、通常時(顔が接近していない場合)の光の強度から所定の割合(例えば80%オフ)だけ減じた光の強度にする。図6(b)の場合では、エッジ情報E0が閾値Eth未満とされて(S20:Yes)、投光器21の光の照射が停止され又は減光されることになる(S21)。これによって、ドライバの目に対する負担を軽減できる。その後、図4のフローチャートの処理を終了する。この場合、例えば、一定期間経過後に、図4の処理に復帰させる。
ところで、物体(ドライバの顔)がカメラ22に急激に接近した場合には、カメラ22による撮影画像がボケ状態を経ない場合がある。この場合には、急激に接近した物体に投光器21からの光が強く反射される。カメラ22は、その強く反射された光に基づいて撮影画像を生成するので、その撮影画像の中央付近(物体の画像領域に対応する)が真っ白(白とび状態)になる。また、物体がさらにカメラ22に近づくと、カメラ22がその物体で塞がれたような状態となり、撮影画像の中央付近が暗く(黒つぶれ状態)になる。これらも場合も投光器21からの光の照射を停止又は減光させるのが望ましい。そこで、S15において、画像認識部25が撮影画像から顔領域を認識できなかった場合には(S15:No)、処理をS22に進める。
S22では、投光判断部27は、S13で取得した撮影画像の中央付近全域に亘り白とびが検出されたか否かを判断する(S22)。具体的には、例えば、256階調で画素値を表した場合、S22では、撮影画像中の所定の中央付近全域に亘って画素値が飽和している(例えば256)かを判断する(S22)。なお、白とびの検出対象となる所定の中央付近領域はどの大きさの領域に設定してもよい。また、カメラ22の撮像モードがHDR(ハイダイナミックレンジモード)の如く白とびしにくい場合がある。そこで、この場合には、S22において、上記の所定の中央付近領域の全部の画素値が、所定の閾値以上(白とびに準ずる程度に大きな画素値、本発明の「第一閾値」に相当)になったか否かを判断してもよい(S22)。
所定の中央付近領域の全部の画素値が飽和している場合には(S22:Yes)、白とびが検出されたとして、つまり、ドライバの顔等の物体が急激に投光器21(カメラ22)に接近したとして、投光器21からの光の照射を停止させ又は減光させる(S21)。これに対して、白とびが検出されなかった場合には(S22:No)、処理をS23に進める。
S23では、投光判断部27は、S13で取得した撮影画像の中央付近全域に亘り黒つぶれが検出されたか否かを判断する(S23)。具体的には、例えば、撮影画像中の所定の中央付近全域に亘って画素値が0に近くなるかを判断する(S23)。なお、S22の所定の中央付近領域とS23の所定の中央付近領域は、同じ領域であっても異なる領域であっても良い。実際は黒つぶれと言っても画素値が完全に0になるわけではなく、熱的ノイズや撮像素子の黒レベル補正により小さな値を持つ場合がある。また、カメラ22の感度が高く黒つぶれしにくい場合があるので、この場合には、上記の所定の中央付近領域の全部の画素値が、所定の閾値以下(黒つぶれに準ずる程度に小さな画素値、本発明の「第二閾値」に相当)になったか否かを判断してもよい(S23)。
所定の中央付近領域の全部の画素値が0に近くなる場合には(S23:Yes)、黒つぶれが検出されたとして、つまり、ドライバの顔等の物体が急激に投光器21(カメラ22)に接近したとして、投光器21からの光の照射を停止させ又は減光させる(S21)。これに対して、黒つぶれが検出されなかった場合には(S23:No)、S11の処理に戻る。この場合には、通常時の光の強度が維持されて、S11において、次回の投光条件が設定される。
以上説明したように、本実施形態では、撮影画像にボケが生じているか否かを判断することで、ドライバの顔が接近したか否かを判断するので、ドライバの顔の接近を正確に検出できる。また、ボケが生じていない構造物領域のエッジ情報E2を基準として、顔領域のエッジ情報E0を計算しているので、そのエッジ情報E0がボケのエッジ情報であるか否かを正確に判断できる。また、撮影画像が白とび又は黒つぶれになった場合にもドライバの顔等の物体の接近と判断しているので、ドライバの顔が投光器21に急激に接近して撮影画像にボケが生じない場合であっても、照射を停止又は減光することができる。
(第二実施形態)
次に、本発明に係る顔撮影システムの第二実施形態を上記第一実施形態と異なる部分を中心にして説明する。本実施形態のドライバモニタシステムの構成は、図1のドライバモニタシステム1と同じである。また、本実施形態では、ドライバの顔が投光器21に接近したか否かを判断する接近検出処理において、撮影画像にボケが生じているか否かの判断方法が第一実施形態のそれと異なっている。以下、本実施形態の接近検出処理について説明する。ここで、図8は、本実施形態の接近検出処理の手順を示したフローチャートである。なお、図8において、図4の接近検出処理と変更がないステップには同一符号を付している。図8の接近検出処理では、図4のS16〜S20の処理に代えて、S24〜S27の処理が実行される点が、図4の接近検出処理と異なっている。
S15で画像認識部25が撮影画像の顔領域を認識できた場合には(S15:Yes)、処理をS24に進める。S24では、投光判断部27は、S13で取得された撮影画像に対して、撮影画像に含まれるエッジを抽出する所定のエッジ処理を実行する(S24)。そのエッジ処理が、第一実施形態のS16のエッジ処理と異なっている。具体的には、エッジ処理として、所定の強度以上のエッジの画素値を「1」とし、それ以外の画素値を「0」とするエッジ二値化処理を実行する(S24)。ここで、図9(a)は、図5(a)の撮影画像300(ドライバの顔が投光器21に接近しておらずボケが生じていない撮影画像)に対してエッジ2値化処理を実行して得られたエッジ2値化画像320を示している。図9(a)に示すように、エッジ2値化画像320には、図5(a)の顔領域301に対応する領域321が含まれている。その顔領域321には、顔領域301の輪郭に対応するエッジ321a、目領域301bに対応するエッジ321b、鼻領域301cに対応するエッジ321c、口領域301dに対応するエッジ321dなど、所定の強度以上のエッジが現されている。なお、エッジ2値化画像320には、Bピラーのエッジ322など、構造物領域のエッジも含まれている。以下、図9(a)のエッジ2値化画像320を図8の処理の対象として説明する。
次いで、投光判断部27は、エッジ2値化画像の顔領域に含まれるエッジの総和E3(エッジ情報)を算出する(S25)。具体的には、画素値が「1」とされる画素数をカウントする(S25)。なお、S25では、既知の構造物領域以外の領域(不定領域)を顔領域として、S25の処理を実行してもよい。図9(a)の場合では、顔領域321のエッジ321a〜321dを含むエッジの総和E3が算出されることになる。
次いで、S25で算出されたエッジの総和E3が、ドライバの顔が投光器21に接近していないときにおけるエッジの総和E4からどの程度変化したかを示した変化度ΔE(=E3/E4)を算出する(S26)。なお、変化度ΔEの基準となるエッジの総和E4は、例えば、以前に図8の処理を実行したときにドライバの顔が接近していないと判断された場合におけるS25で算出したエッジの総和E3を使用する。図9(a)の場合では、ドライバの顔が接近していない場合のエッジ2値化画像320とされているので、エッジの総和E3は基準の総和E4からそれほど変化していない。よって、変化度ΔEは「1」に近い値とされる。
次いで、投光判断部27は、S26で算出された変化度ΔEが所定の閾値ΔEth未満か否かを判断する(S27)。その閾値ΔEthは、ボケが生じているときの変化度ΔEとボケが生じていないときの変化度ΔEとの境界値に設定されている。変化度ΔEが閾値ΔEth以上の場合には(S27:No)、顔領域にボケが生じていないとして、つまりドライバの顔が投光器21に接近していないとして、S11の処理に戻る。この場合には、通常時の光の強度が維持されて、S11において、次回の投光条件が設定される。図9(a)の場合では、変化度ΔEが閾値ΔEth以上とされて(S27:No)、通常時の光の強度が維持されることになる。
これに対して、変化度ΔEが閾値ΔEth未満の場合には(S27:Yes)、処理をS21に進める。この場合には、顔領域にボケが生じているとして、つまりドライバの顔が投光器21に接近しているとして、投光器21の光の照射を停止させ又は減光させる(S21)。その後、図8のフローチャートの処理を終了する。この場合、例えば、一定期間経過後に、図8の処理に復帰させる。なお、その他の処理は、図4と同じであるので、説明を割愛する。
以上では、図9(a)を参照して、ドライバの顔が投光器21に接近していない例を挙げつつ図8の処理を説明したが、次に、ドライバの顔が投光器21に接近した例として、先の図5(b)の撮影画像400を例に挙げて図8の処理を説明する。その撮影画像400に対して、画像認識部25が顔領域401を認識できた場合には(S15:Yes)、次いで、撮影画像400に対してエッジ2値化処理が実行される(S24)。ここで、図9(b)は、そのエッジ2値化処理によって得られたエッジ2値化画像420を示している。なお、図9(b)において、図9(a)と変更がない部分には同一符号を付している。図9(b)に示すように、エッジ2値化画像420には顔領域421が含まれているものの、その顔領域421には、目領域401b(図5(b)参照)の一部のエッジ421bを除いて顔の各パーツのエッジが現れていない。これは、元の撮影画像400の顔領域401にボケが生じており、顔領域401のエッジ強度が弱くされているためである。
次いで、エッジ2値化画像420の顔領域421に含まれているエッジの総和E3が算出される(S25)。この場合、先に説明した図9(a)の顔領域321の総和E3から大きく減少されたエッジの総和E3が算出されることになる。次いで、基準となるエッジの総和E4(例えば、図9(a)の顔領域321の総和E3)に対する今回のエッジの総和E3の変化度ΔEが算出される(S26)。この場合、変化度ΔEは「1」から離れた値とされる。そのため、次のS27で、変化度ΔEが閾値ΔEth未満と判断されて(S27:Yes)、ドライバの顔が投光器21に接近しているとして、投光器21からの光の照射が停止され又は減光されることになる(S21)。
以上説明したように、本実施形態では、ボケが生じていない(ドライバの顔が投光器21に接近していない)撮影画像のエッジの総和を基準として、今回の撮影画像のエッジの総和を見ているので、今回の撮影画像にボケが生じているか否かを正確に判断できる。
(変形例1)
上記の実施形態では、撮影画像にボケが生じているか否かによって、ドライバの顔が投光器21に接近しているか否かを判断しているが、撮影画像にボケが生じているか否かの判断方法は上記実施形態の方法に限定されるものではない。特許第449316号公報に記載の方法など、公知の各種方法を採用することができる。また、上記第二実施形態では、顔領域のエッジの総和の変化度ΔEに基づいて顔領域にボケが生じているか否かを判断していたが、撮影画像全体のエッジの総和の変化でその判断をしてもよい。この場合、顔領域だけでなく構造物領域も含めて、エッジの総和及びその変化度を算出することになる。撮影画像にボケが生じている場合には、ボケが生じていないときに比べてエッジの総和が減少されることには変わりないので、撮影画像全体のエッジの総和によっても撮影画像にボケが生じているか否かを判断できる。これによって、顔領域と構造物領域とを区別する必要がないので、計算のアルゴリズムを簡単にできる。
また、上記実施形態では、ボケていない基準となる領域のエッジ(第一実施形態の場合では構造物領域のエッジ、第二実施形態の場合では前回の顔領域のエッジ)と比較することで、今回の顔領域のエッジがボケのエッジか否かを判断していた。しかし、これに限定されるものではなく、今回の顔領域のエッジの特徴(エッジ強度)のみからその判断を行ってもよい。この場合、ボケか否かを区分するエッジ強度の閾値を予め定めておく。そして、今回の顔領域のエッジ強度とその閾値を比較することで、今回の顔領域にボケが生じているか否かを判断する。これによれば、今回の顔領域のエッジ強度のみでボケを判断するので、計算のアルゴリズムを簡単にできる。
(変形例2)
上記第一、第二実施形態では、画像認識部25が顔領域を認識できた場合に(図4、図8のS15:Yes)、撮影画像にボケが生じているか否かによって顔が投光器21に接近したか否かを判断していたが、画像認識部25が顔領域を認識できなかった場合にも撮影画像のボケによって顔の接近を判断しても良い。この場合には、既知の構造物領域以外の不定領域を顔領域として、その顔領域のボケを判断する。例えば、図4、図8のS15において、顔領域を認識できなかった場合には(S15:No)、S22及びS23の処理の前又は後に、図4のS16〜S20又は図8のS24〜S27と同じ処理を実行して、撮影画像にボケが生じているか否かを判断する。このように、撮影画像のボケを判断する手法では、顔領域の認識の有無に関係なく顔の接近を判断できるというメリットがある。
(変形例3)
投光器21とカメラ22は互いに近い位置(ステアリングコラムの上面)に設けられているので、ドライバの顔が投光器21に接近したときには、カメラ22にも接近したことになる。そのため、ドライバの顔が投光器21に接近するほど、撮影画像に対して顔領域の大きさ(顔領域が占める割合)が大きくなる。そこで、画像認識部25が顔領域を認識できた場合には、撮影画像のボケで判断する手法に代えて、認識した顔領域の大きさで顔の接近を判断してもよい。具体的には、例えば図10に示すフローチャートの処理を実行する。なお、図10において、図4又は図8の処理と同一の処理には同一符号を付している。図10に示すように、図4のS16〜S20の処理に代えて、又は図8のS24〜S27の処理に代えて、S28、S29の処理が実行される点が、図4、図8の処理と異なっている。
すなわち、図10において、画像認識部25が顔領域を認識できた場合には(S15:Yes)、投光判断部27は、認識できた顔領域の大きさSを算出する(S28)。次いで、その顔領域の大きさSが予め定められた閾値Sthより大きいか否かを判断する(S29)。その閾値Sthとして、例えば投光器21からの距離が約20cmとなる閾値を設定する。例えば図5(a)、(b)の場合では、撮影画像300、400に対する顔領域301、401の大きさを判断することになる。
S29において、顔領域の大きさSが閾値Sth未満の場合には(S29:No)、ドライバの顔が投光器21に接近していないとして、S11の処理に戻る。この場合には、通常時の光の強度が維持されて、S11において、次回の投光条件が設定される。これに対して、顔領域の大きさSが閾値Sthより大きい場合には(S29:Yes)、ドライバの顔が投光器21に接近したとして、投光器21による光の照射を停止させ、又は減光させる(S21)。その後、図10のフローチャートの処理を終了する。この場合、例えば、一定期間経過後に、図10の処理に復帰させる。なお、その他の処理は、図4又は図8と同じであるので、説明を割愛する。
(第三実施形態)
次に、本発明に係る顔撮影システムの第三実施形態を上記実施形態と異なる部分を中心にして説明する。車両に顔撮影システムを適用した場合、運転中のドライバによるステアリング操作の際に、ドライバの腕などの障害物によってカメラが隠蔽されてしまうこと(以下、ステア隠蔽という)がある。このステア隠蔽が起こった場合、カメラでドライバの顔を撮影することができなくなってしまうので、カメラで撮影し続けたり、投光器で照明し続けたりするのは無駄が大きい。この第三実施形態は、ステア隠蔽が起こった場合にそのような無駄を軽減する実施形態である。
本実施形態のドライバモニタシステムの構成は、図1のドライバモニタシステム1と同じである。ドライバモニタシステム1は、上記第一、第二実施形態の接近検出処理(図4、図8参照)に加え、ステア隠蔽を検出した場合に撮影の制御を変更するステア隠蔽検出処理を実行する。ここで、図11は、ステア隠蔽検出処理の手順を示したフローチャートである。この図11のフローチャートの処理は、例えばドライバモニタシステム1の起動時に開始され、その後、一定間隔おきに繰り返し実行される。また、図11のフローチャートの処理は、図4や図8の接近検出処理と並列して実行される。
先ず、投光判断部27は、ステアリングセンサ28(図1参照)からの信号に基づいて、ステアリング35(図1参照)の操作角度θが所定の閾値θthより大きくされたか否かを判断する(S31)。その閾値θthとしては、ステア隠蔽が起こる可能性がある値に設定されており、具体的には例えばθth=30°に設定されている。ステアリング35の操作角度θが閾値θth以下の場合には(S31:No)、ステア隠蔽が起こる可能性が低いとして、図11のフローチャートの処理を終了する。
これに対し、ステアリング35の操作角度θが閾値θthより大きい場合には(S31:Yes)、ステア隠蔽が起こる可能性があるとして、処理をS32に進める。S32では、画像認識部25がカメラ22で撮影された撮影画像を取得する(S32)。次いで、画像認識部25は、先の図4、図8のS14と同じ認識処理を実行して、その撮影画像から顔領域や構造物領域の認識を試みる(S33)。次いで、投光判断部27は、画像認識部25からの信号に基づいて、画像認識部25が顔領域を認識できたか否かを判断する(S34)。認識できた場合には(S34:Yes)、ステア隠蔽は起こっていないことになるので、図11のフローチャートの処理を終了する。これに対し、認識できなかった場合には(S34:No)、ステア隠蔽が起こっている可能性が高いので、処理をS35に進める。
S35では、投光判断部27は、S32で取得した撮影画像及びS33で画像認識部25が認識した構造物領域に基づいて、撮影画像全体に対する構造物領域の割合Rを算出する(S35)。ステア隠蔽が起こっている場合には、カメラ22の前にドライバの腕などの障害物が位置することになるので、撮影画像にはその障害物に対応した障害物領域が含まれる。その障害物領域によって、構造物領域の割合Rは小さくなる。そこで、投光判断部27は、構造物領域の割合Rが所定の閾値Rth未満か否かを判断する(S36)。その閾値Rthとしては、例えば10%未満の値に設定する。
構造物領域の割合Rが閾値Rth以上の場合には(S36:No)、ステア隠蔽が起こっていないとして、図11のフローチャートの処理を終了する。この場合、カメラ22はドライバの顔を撮影できているものの、何らかの理由で画像認識部25が顔領域を認識できなかった可能性がある。これに対し、構造物領域の割合Rが閾値Rth未満の場合には(S36:Yes)、ステア隠蔽が起こっているとして、処理をS37に進める。そして、投光判断部27はステア隠蔽が起こっていることを撮影制御部23に通知して、撮影制御部23は、カメラ22のシャッターの駆動間隔(露光間隔、図3(a)のパルスの周期T1)を大きくする(S37)。つまり、カメラ22のフレームレートを落とす(S37)。具体的には、例えば30フレーム/秒から10フレーム/秒に変更する。図3で説明したように、投光器21からの光の照射タイミングは、カメラ22の露光タイミングと同期されている。そのため、カメラ22のフレームレートが落とされたことにともなって、図3(b)の投光器21がオンされる間隔T2(照明間隔)が大きくされる。なお、S37の際に、投光制御部24は、投光器21から照射される光のパワーを落とす(光の照射を停止又は減光させる)ようにしても良い。これによって、投光器回路を構成する電子部品の劣化の進行を抑制できる。その後、図11のフローチャートの処理を終了する。
以上説明したように、本実施形態ではステア隠蔽が起こった場合には、カメラ22のフレームレートが落とされ、それにともなって投光器21の照明間隔が大きくされるので、無駄に撮影し続けたり、照明し続けたりするのを抑制できる。特に、照明間隔が大きくされることでエネルギーロスを抑制でき、ドライバの目に対する負担を軽減できる。
また、ステア隠蔽が起こった場合、カメラ22による撮影が停止されるわけではないので、その後に、カメラ22で撮影された撮影画像に基づいて、ステア隠蔽が継続されているか解消されているかを判断できる。そして、解消されている場合には、元の露光タイミング及び照射タイミングを復帰させることができる。
(第四実施形態)
次に、本発明に係る顔撮影システムの第四実施形態を上記実施形態と異なる部分を中心にして説明する。図12は、本実施形態のドライバモニタシステム2の概略構成を示している。なお、図12において、図1と変更がない部分には同一符号を付している。図12に示すように、ドライバモニタシステム2は、距離センサ30を備えている点が、図1のドライバモニタシステム1と異なっている。
距離センサ30は、投光器21の周囲に存在する物体の距離を検出するセンサであり、例えば周囲に超音波やレーザを発信してその反射波に基づいて距離を検出するセンサ、ステレオ画像から距離を検出するセンサ、一定距離内の物体から放射される赤外線を感知することで距離を検出するセンサなど、公知の各種の距離センサを採用することができる。その距離センサ30は、投光器21周囲の特に運転席周辺領域10の物体(ドライバの顔)の距離を検出するように、設置位置及び超音波、レーザ等の信号の発信領域が調整されている。
距離センサ30による検出信号は投光判断部27に送られるようになっている。投光判断部27は、上記実施形態で説明した撮影画像に加えて、その距離センサ30からの信号に基づいて、ドライバの顔が投光器21に接近したか否かを判断している。具体的には、図4や図8の接近検出処理において、S20の処理の後(図4の場合)又はS27の処理の後(図8の場合)に、「距離センサ30による検出距離が所定の閾値より小さいか?」を判断する処理を追加する。そして、検出距離が閾値より小さい場合には、ドライバの顔の接近であるとして、投光器21からの光の照射を停止又は減光させる(S21)。これによって、より一層正確にドライバの顔の接近を検出できる。なお、本発明は、距離センサ30単独でドライバの顔の接近を検出するシステム構成を排除するものではない。
なお、本発明は上記実施形態に限定されるものではなく、特許請求の範囲の記載を逸脱しない限度で種々に変形することができる。例えば、上記実施形態では、ドライバの顔を撮影するドライバモニタシステムを例に挙げて説明したが、本発明は、ドライバの顔以外に他のユーザの顔を撮影するシステムにも適用することができる。
なお、上記実施形態において、投光器21が本発明の「照明手段」に相当する。カメラ22が本発明の「撮影手段」に相当する。図4のS11〜S23の処理又は図8のS11〜S14、S21、S24〜S27の処理を実行する撮影制御部23、投光制御部24、画像認識部25及び投光判断部27が本発明の「接近検出手段」に相当する。図4、図8のS21又は図12のS42の処理を実行する投光制御部24が本発明の「第一の照明制御手段」に相当する。図4のS16〜S18の処理又は図8のS24、S25の処理を実行する投光判断部27が本発明の「エッジ抽出手段」に相当する。図4のS19、S20の処理又は図8のS26、S27の処理を実行する投光判断部27が本発明の「エッジ判断手段」に相当する。図4、図8のS14の処理を実行する画像認識部25が本発明の「顔認識手段」に相当する。図1の撮影制御部23が本発明の「撮影制御手段」に相当する。図1の投光制御部24が本発明の「第二の照明制御手段」に相当する。ステアリングセンサ28並びに図11のS31〜S36の処理を実行する撮影制御部23、投光制御部24、画像認識部25及び投光判断部27が本発明の「隠蔽検出手段」に相当する。図12の距離センサ30が本発明の「距離計測手段」に相当する。図4又は図8のS22の処理を実行する投光判断部27が本発明の「白とび検出手段」相当する。図4又は図8のS23の処理を実行する投光判断部27が本発明の「黒つぶれ検出手段」に相当する。
1、2 ドライバモニタシステム(顔撮影システム)
10 運転席周辺領域(照明領域)
21 投光器
22 カメラ
221 レンズ
222 絞り
23 撮影制御部
24 投光制御部
25 画像認識部
26 各種システム
27 投光判断部
28 ステアリングセンサ
30 距離センサ
35 ステアリング
300、400 撮影画像
310、410 横ソーベル画像
320、420 エッジ2値化画像
301、311、321、401、411、421 顔領域
302、303、304、312、313、314 構造物領域

Claims (11)

  1. ユーザの顔が位置する領域として予め定められた照明領域に光を照射する照明手段と、
    その照明手段によって光が照射された前記照明領域を含む領域を撮影する撮影手段と、を備える顔撮影システムにおいて、
    ユーザの顔が前記照明手段に接近したことを検出する接近検出手段と、
    その接近検出手段が前記接近したことを検出した場合に、前記照明手段による光の照射を停止又は減光させる第一の照明制御手段と、を備えることを特徴とする顔撮影システム。
  2. 前記接近検出手段は、前記撮影手段が撮影した撮影画像に基づいて前記接近したことを検出することを特徴とする請求項1に記載の顔撮影システム。
  3. 前記撮影手段は、前記照明手段に接近した物体を撮影した場合に前記撮影画像中の前記物体に対応する領域にボケを生じさせるレンズ構造を備え、
    前記接近検出手段は、前記撮影画像中のエッジの特徴が反映されたエッジ情報を前記撮影画像から抽出するエッジ抽出手段と、
    そのエッジ抽出手段が抽出した前記エッジ情報がボケのエッジ情報であるか否かを判断するエッジ判断手段と、を備えることを特徴とする請求項2に記載の顔撮影システム。
  4. 前記撮影手段は、前記撮影手段に対して位置が変化しない周囲の構造物が写る形で前記照明領域を撮影するものであり、
    前記エッジ判断手段は、前記構造物に対応する前記撮影画像中の領域である構造物領域の前記エッジ情報と比較することで、前記構造物領域以外の領域である不定領域の前記エッジ情報がボケのエッジ情報であるか否かを判断することを特徴とする請求項3に記載の顔撮影システム。
  5. 前記エッジ判断手段は、ボケが生じていない前回の前記撮影画像に対する前記エッジ情報と比較することで、今回の前記エッジ情報がボケのエッジ情報であるか否かを判断することを特徴とする請求項3に記載の顔撮影システム。
  6. 前記撮影画像中からユーザの顔に対応する領域である顔領域を認識する顔認識手段を備え、
    前記接近検出手段は、前記物体認識手段が前記顔領域を認識した場合にはその顔領域の大きさに基づいて前記接近したことを検出することを特徴とする請求項2に記載の顔撮影システム。
  7. 前記撮影手段の露光条件を制御する撮影制御手段と、
    前記撮影手段の露光タイミングに合わせて前記照明手段による光の照射タイミングを制御する第二の照明制御手段と、
    前記撮影画像に基づいて、前記撮影手段が障害物で隠蔽されたことを検出する隠蔽検出手段と、をさらに備え、
    前記隠蔽検出手段が前記隠蔽されたことを検出した場合には、前記撮影制御手段が前記撮影手段の露光間隔を大きくし、且つ/又は前記第一の照明制御手段が前記照明手段による光の照射を停止又は減光させることを特徴とする請求項2〜6のいずれか1項に記載の顔撮影システム。
  8. 前記接近検出手段は、前記照明領域に存在する物体の距離を計測する距離計測手段を備え、前記距離計測手段が計測した前記距離に基づいて、物体が前記照明手段に接近したことを検出することを特徴とする請求項1〜7のいずれか1項に記載の顔撮影システム。
  9. 前記撮影画像の中央付近の画素全域に亘り白とび又は画素値が白とびに準ずる大きい値として予め定められた第一閾値以上になったことを検出する白とび検出手段を備え、
    前記接近検出手段は、前記白とび検出手段が前記白とび又は前記画素値が前記第一閾値以上になったことを検出した場合に、ユーザの顔が前記照明手段に接近したとみなすことを特徴とする請求項1〜8のいずれか1項に記載の顔撮影システム。
  10. 前記撮影画像の中央付近の画素全域に亘り黒つぶれ又は画素値が黒つぶれに準ずる小さい値として予め定められた第二閾値以下になったことを検出する黒つぶれ検出手段を備え、
    前記接近検出手段は、前記黒つぶれ検出手段が前記黒つぶれ又は前記画素値が前記第二閾値以下になったことを検出した場合に、ユーザの顔が前記照明手段に接近したとみなすことを特徴とする請求項1〜9のいずれか1項に記載の顔撮影システム。
  11. 前記顔が目であることを特徴とする請求項1〜10のいずれか1項に記載の顔撮影システム。
JP2011012485A 2011-01-25 2011-01-25 顔撮影システム Active JP5212927B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011012485A JP5212927B2 (ja) 2011-01-25 2011-01-25 顔撮影システム
US13/356,988 US8767062B2 (en) 2011-01-25 2012-01-24 Face imaging system and method for controlling the face imaging system
DE102012201071.8A DE102012201071B4 (de) 2011-01-25 2012-01-25 Gesichtsabbildungssystem und verfahren zum steuern des gesichtsabbildungssystems sowie computerlesbares medium
CN201210021056.6A CN102625047B (zh) 2011-01-25 2012-01-30 面部成像系统和用于控制面部成像系统的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011012485A JP5212927B2 (ja) 2011-01-25 2011-01-25 顔撮影システム

Publications (2)

Publication Number Publication Date
JP2012156661A true JP2012156661A (ja) 2012-08-16
JP5212927B2 JP5212927B2 (ja) 2013-06-19

Family

ID=46510991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011012485A Active JP5212927B2 (ja) 2011-01-25 2011-01-25 顔撮影システム

Country Status (4)

Country Link
US (1) US8767062B2 (ja)
JP (1) JP5212927B2 (ja)
CN (1) CN102625047B (ja)
DE (1) DE102012201071B4 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015172889A (ja) * 2014-03-12 2015-10-01 富士通株式会社 検出装置、検出方法、及びプログラム
JP2017095008A (ja) * 2015-11-26 2017-06-01 パイオニア株式会社 制御装置、制御方法、及び、プログラム
JP2017212697A (ja) * 2016-05-27 2017-11-30 キヤノン株式会社 撮像装置
JP2018050164A (ja) * 2016-09-21 2018-03-29 キヤノン株式会社 撮像装置及びその制御方法、プログラム
JP2018067206A (ja) * 2016-10-20 2018-04-26 富士通株式会社 撮影装置
JP2019040472A (ja) * 2017-08-25 2019-03-14 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2019092986A1 (ja) * 2017-11-09 2019-05-16 株式会社デンソー 状態検出装置
JP2019156146A (ja) * 2018-03-13 2019-09-19 オムロン株式会社 乗員監視装置
JP2021521054A (ja) * 2018-04-19 2021-08-26 シーイング マシーンズ リミテッド 赤外線光源保護システム
KR102422695B1 (ko) * 2021-04-27 2022-07-19 주식회사 핫텍 체온정보 제공 기능을 갖는 푸쉬알림 서비스 방법

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6066913B2 (ja) * 2010-11-08 2017-01-25 オプタラート・オーストラリア・プロプライエタリー・リミテッド 作業テストへの適応性
US9832352B2 (en) 2011-11-16 2017-11-28 Autofuss System and method for 3D projection mapping with robotically controlled objects
US9836119B2 (en) 2011-12-28 2017-12-05 Intel Corporation Display dimming in response to user
US9870752B2 (en) * 2011-12-28 2018-01-16 Intel Corporation Display dimming in response to user
US9481301B2 (en) 2012-12-05 2016-11-01 Magna Electronics Inc. Vehicle vision system utilizing camera synchronization
WO2014128273A1 (en) * 2013-02-21 2014-08-28 Iee International Electronics & Engineering S.A. Imaging device based occupant monitoring system supporting multiple functions
JP6056746B2 (ja) * 2013-12-18 2017-01-11 株式会社デンソー 顔画像撮影装置、および運転者状態判定装置
DE102014200783A1 (de) * 2014-01-17 2015-07-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren, Vorrichtung und Computerprogrammprodukt zum Betreiben eines Kraftfahrzeugs
US9438866B2 (en) * 2014-04-23 2016-09-06 Omnivision Technologies, Inc. Image sensor with scaled filter array and in-pixel binning
KR20160025316A (ko) * 2014-08-27 2016-03-08 현대자동차주식회사 동공 검출 시스템 및 그 방법
DE102014221039A1 (de) * 2014-10-16 2016-04-21 Robert Bosch Gmbh Steuergerät für ein Kraftfahrzeug mit Kamera für Fahrergesicht und Verfahren zum Aufnehmen des Gesichtes eines Fahrzeuginsassen
KR102381140B1 (ko) 2015-02-25 2022-03-31 엘지전자 주식회사 디지털 디바이스 및 그의 운전자 모니터링 방법
WO2016191827A1 (en) * 2015-06-05 2016-12-08 Seeing Machines Limited Protective system for infrared light source
US10432868B2 (en) 2015-08-27 2019-10-01 International Business Machines Corporation Removing aerial camera drones from a primary camera's field of view
JPWO2017073045A1 (ja) * 2015-10-28 2018-08-02 京セラ株式会社 撮像装置、撮像システム、対象者監視システム、および撮像装置の制御方法
FR3052282B1 (fr) * 2016-06-06 2021-11-19 Valeo Comfort & Driving Assistance Dispositif et methode de surveillance d'un conducteur d'un vehicule de transport
FR3052578B1 (fr) * 2016-06-08 2019-07-12 Valeo Comfort And Driving Assistance Systeme de surveillance optique du visage d'un conducteur et procede de mise en œuvre
KR102547054B1 (ko) 2016-07-29 2023-06-23 삼성전자주식회사 카메라 모듈의 활성화를 제어하기 위한 전자 장치 및 방법
EP3662406B1 (en) 2017-08-01 2023-11-22 Apple Inc. Determining sparse versus dense pattern illumination
US20190306441A1 (en) * 2018-04-03 2019-10-03 Mediatek Inc. Method And Apparatus Of Adaptive Infrared Projection Control
KR102630368B1 (ko) * 2018-10-25 2024-01-29 현대모비스 주식회사 운전자 감시 카메라의 보정장치 및 그 방법
FR3089890B1 (fr) * 2018-12-14 2021-04-09 Valeo Comfort & Driving Assistance Système de surveillance pour véhicule automobile
EP3709638B1 (en) * 2019-03-13 2023-08-30 L'oreal System and method for projecting digital content onto user's facial surface
US12067052B2 (en) * 2020-01-03 2024-08-20 AlgoLook, Inc. Air particulate classification
US11968639B2 (en) 2020-11-11 2024-04-23 Magna Electronics Inc. Vehicular control system with synchronized communication between control units

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005323180A (ja) * 2004-05-10 2005-11-17 Denso Corp 撮像制御装置及びプログラム
JP2008046255A (ja) * 2006-08-11 2008-02-28 Fujifilm Corp Af補助光搭載カメラ
JP2009294781A (ja) * 2008-06-03 2009-12-17 Toyota Central R&D Labs Inc 物体存在判定装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0449316A (ja) 1990-06-18 1992-02-18 Takenaka Komuten Co Ltd 伸縮可能な撹拌羽根を有する混合処理機及びこれによる地盤改良工法
JP4493160B2 (ja) 2000-06-02 2010-06-30 紀和化学工業株式会社 高耐光性染料組成物及びこれを用いた染色方法
US7720302B2 (en) 2003-09-25 2010-05-18 Fujifilm Corporation Method, apparatus and program for image processing
JP4419609B2 (ja) 2004-03-01 2010-02-24 株式会社デンソー 車載カメラシステム
JP5045212B2 (ja) * 2007-04-25 2012-10-10 株式会社デンソー 顔画像撮像装置
US8456527B2 (en) * 2007-07-27 2013-06-04 Sportvision, Inc. Detecting an object in an image using templates indexed to location or camera sensors
JP4780088B2 (ja) 2007-11-09 2011-09-28 アイシン精機株式会社 顔画像撮像装置、顔画像撮像方法、及びそのプログラム
US20090147272A1 (en) 2007-12-05 2009-06-11 Microvision, Inc. Proximity detection for control of an imaging device
WO2010061604A1 (ja) 2008-11-28 2010-06-03 住友電気工業株式会社 レンズユニット及び車載用赤外線レンズユニット

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005323180A (ja) * 2004-05-10 2005-11-17 Denso Corp 撮像制御装置及びプログラム
JP2008046255A (ja) * 2006-08-11 2008-02-28 Fujifilm Corp Af補助光搭載カメラ
JP2009294781A (ja) * 2008-06-03 2009-12-17 Toyota Central R&D Labs Inc 物体存在判定装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015172889A (ja) * 2014-03-12 2015-10-01 富士通株式会社 検出装置、検出方法、及びプログラム
JP2017095008A (ja) * 2015-11-26 2017-06-01 パイオニア株式会社 制御装置、制御方法、及び、プログラム
JP2017212697A (ja) * 2016-05-27 2017-11-30 キヤノン株式会社 撮像装置
JP2018050164A (ja) * 2016-09-21 2018-03-29 キヤノン株式会社 撮像装置及びその制御方法、プログラム
US10990788B2 (en) 2016-10-20 2021-04-27 Fujitsu Limited Image capturing apparatus and biometric authentication apparatus to output guidance related to distance
JP2018067206A (ja) * 2016-10-20 2018-04-26 富士通株式会社 撮影装置
JP2019040472A (ja) * 2017-08-25 2019-03-14 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP7052256B2 (ja) 2017-08-25 2022-04-12 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2019092986A1 (ja) * 2017-11-09 2019-05-16 株式会社デンソー 状態検出装置
JP2019087934A (ja) * 2017-11-09 2019-06-06 株式会社デンソー 状態検出装置
US11561408B2 (en) 2017-11-09 2023-01-24 Denso Corporation State detection device
JP2019156146A (ja) * 2018-03-13 2019-09-19 オムロン株式会社 乗員監視装置
JP2021521054A (ja) * 2018-04-19 2021-08-26 シーイング マシーンズ リミテッド 赤外線光源保護システム
JP7438127B2 (ja) 2018-04-19 2024-02-26 シーイング マシーンズ リミテッド 赤外線光源保護システム
KR102422695B1 (ko) * 2021-04-27 2022-07-19 주식회사 핫텍 체온정보 제공 기능을 갖는 푸쉬알림 서비스 방법

Also Published As

Publication number Publication date
US20120188355A1 (en) 2012-07-26
DE102012201071A1 (de) 2012-07-26
CN102625047B (zh) 2015-04-15
JP5212927B2 (ja) 2013-06-19
DE102012201071B4 (de) 2023-12-14
CN102625047A (zh) 2012-08-01
US8767062B2 (en) 2014-07-01

Similar Documents

Publication Publication Date Title
JP5212927B2 (ja) 顔撮影システム
JP5145555B2 (ja) 瞳孔検出方法
US8553134B2 (en) Imager processing a captured image
JP5151207B2 (ja) 表示装置
US8356898B2 (en) Fundus camera and ophthalmologic image processing apparatus
JP2007004448A (ja) 視線検出装置
JP4926766B2 (ja) 撮影範囲調節装置、撮影範囲調節方法及びコンピュータプログラム
US8873881B2 (en) Dust detection system and digital camera
KR20160050755A (ko) 전자 장치 및 그의 홍채 인식 방법
JP2015173327A (ja) 撮像装置、投光装置、およびビームライト制御方法、並びにプログラム
JP2010179817A (ja) 車両用防眩装置
JP2004289786A (ja) 撮像装置
JP7567012B2 (ja) 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
JP6584103B2 (ja) 撮像装置
JP2005296382A (ja) 視線検出装置
JP2016057349A (ja) 撮像装置、画像処理方法及びプログラム
JP2007081487A (ja) 撮像装置および電子情報機器
JP2007328213A (ja) 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
WO2023053556A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20200112832A (ko) 영상 투영 장치, 영상 투영 방법, 및 영상 표시 광 출력 제어 방법
JP2010023626A (ja) ドライバー監視装置
JP2010056883A (ja) 光学装置及び撮影装置
JP7472706B2 (ja) 視点位置検出システム
JP2008132160A (ja) 瞳孔検出装置及び瞳孔検出方法
JP2004030246A (ja) 目画像撮像装置および認証装置ならびに目画像撮像方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120808

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20121013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130204

R151 Written notification of patent or utility model registration

Ref document number: 5212927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130217

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250