JP2014082585A - State monitor device and state monitor program - Google Patents
State monitor device and state monitor program Download PDFInfo
- Publication number
- JP2014082585A JP2014082585A JP2012228178A JP2012228178A JP2014082585A JP 2014082585 A JP2014082585 A JP 2014082585A JP 2012228178 A JP2012228178 A JP 2012228178A JP 2012228178 A JP2012228178 A JP 2012228178A JP 2014082585 A JP2014082585 A JP 2014082585A
- Authority
- JP
- Japan
- Prior art keywords
- face image
- image
- face
- light
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、移動体に搭載され、移動体を操縦する操縦者の顔面を撮影した顔画像を用いて当該操縦者の状態を監視する技術に関する。 The present invention relates to a technique for monitoring the state of a pilot mounted on a mobile body using a face image obtained by photographing the face of the pilot operating the mobile body.
従来、車両等の移動体に搭載される状態監視装置は、操縦者の状態を監視するために、操縦者の顔面を撮影した顔画像を用いた顔認識を行っている。こうした顔認識を行うために、状態監視装置は、操縦者の顔面が位置する領域として予め規定された規定領域に向けて光を出射させる構成と、規定領域から入射する光を受光することで顔面を撮影する構成と、撮影された顔画像における眼の位置に基づいて顔面を認識する構成とを備えている。 2. Description of the Related Art Conventionally, a state monitoring apparatus mounted on a moving body such as a vehicle performs face recognition using a face image obtained by photographing a driver's face in order to monitor the state of the driver. In order to perform such face recognition, the state monitoring device has a configuration in which light is emitted toward a prescribed region that is defined in advance as a region where the operator's face is located, and light that is incident from the prescribed region is received. And a configuration for recognizing the face based on the position of the eye in the captured face image.
上述したような顔面を認識する構成の一種である特許文献1の画像処理装置は、赤眼を利用した顔面の認識を行なっている。詳しく説明すると、フラッシュの発光を伴って撮影された顔画像では、人物の眼は、赤色の明部として写り得る。こうした赤眼現象は、フラッシュの光のうちで主に赤色の帯域の光が網膜の血管によって反射されるために生じる現象である。この赤眼は、当該赤眼の周囲に対して高いコントラストを獲得している。故に、画像処理装置は、赤色の明部の位置に基づくことで、顔画像における眼の位置を正確に特定し得るのである。 The image processing apparatus disclosed in Patent Document 1, which is a type of configuration for recognizing a face as described above, performs face recognition using red eyes. More specifically, in a face image shot with flash emission, a human eye can appear as a red bright part. Such a red eye phenomenon is a phenomenon that occurs mainly because light in the red band of the flash light is reflected by the blood vessels of the retina. This red eye acquires high contrast with respect to the surroundings of the red eye. Therefore, the image processing apparatus can accurately specify the position of the eye in the face image based on the position of the red bright part.
さて、本発明の発明者は、上述の赤眼を利用した顔認識を、状態監視装置に採用することを試みた。すると、以下のような問題を生じることが判明した。その問題は、環境光の少ない状態において、フラッシュ等の発光手段によって規定領域を照明しつつ、眼鏡を掛けた操縦者を撮影した場合に主に生じる。この場合、撮影される顔画像には、操縦者の赤眼だけでなく、眼鏡に映り込んだ発光手段が、明部として撮影されてしまう。このように、操縦者の眼の周囲に、眼の候補となる明部が複数撮影されてしまうと、顔画像における眼の位置の特定が、誤ったものとなり得る。すると、眼の位置に基づいて行われる顔認識の正確性が、確保されなくなってしまうおそれがあった。 Now, the inventor of the present invention tried to adopt the above-described face recognition using the red eye in the state monitoring device. Then, it turned out that the following problems occur. The problem mainly occurs when a driver wearing glasses is photographed while illuminating a specified area with a light emitting means such as a flash in a state with little ambient light. In this case, in the captured face image, not only the driver's red eye but also the light emitting means reflected in the glasses is captured as a bright part. As described above, if a plurality of bright portions that are candidate eyes are photographed around the eyes of the driver, the specification of the position of the eyes in the face image may be incorrect. As a result, the accuracy of face recognition performed based on the position of the eyes may not be ensured.
本発明は、上記問題点に鑑みてなされたものであって、その目的は、眼の位置に基づいて行われる顔認識の正確性につき、確保が可能な状態監視装置及び状態監視プログラムを提供することである。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a state monitoring device and a state monitoring program capable of ensuring the accuracy of face recognition performed based on the position of the eyes. That is.
上記目的を達成するために、請求項1に記載の発明は、移動体(1)に搭載され、移動体を操縦する操縦者の顔面を撮影した顔画像(51,52)を用いて当該操縦者の状態を監視する状態監視装置であって、顔面が位置する領域として予め規定された規定領域(PA)に向けて、赤色から近赤外の帯域の光を出射させる発光手段(15,S101)と、規定領域から入射する入射光を受光することで撮影される第一顔画像(51)を、顔画像として取得する第一画像取得手段(25,S102)と、入射光から赤色の帯域の光を減衰させた減衰光を受光することによって撮影される第二顔画像(52)を、第一顔画像とは別の顔画像として取得する第二画像取得手段(25,S102)と、操縦者の眼の候補となる明部(55,56)が第一顔画像に複数撮影された場合に、複数の明部のうちで第二顔画像に撮影されていない明部(55)を、眼であると判定する眼判定手段(27,S108)と、眼判定手段によって判定された眼の位置に基づいて、顔面を認識する顔認識手段(24,S109)と、を備えることを特徴としている。 In order to achieve the above-mentioned object, the invention according to claim 1 is mounted on the moving object (1) and uses the face image (51, 52) obtained by photographing the face of the operator who controls the moving object. A state monitoring device for monitoring a person's state, and emitting means (15, S101) for emitting light in a band from red to near infrared toward a predetermined area (PA) defined in advance as an area where the face is located ), First image acquisition means (25, S102) for acquiring, as a face image, a first face image (51) captured by receiving incident light incident from a prescribed area, and a red band from the incident light Second image acquisition means (25, S102) for acquiring, as a face image different from the first face image, the second face image (52) captured by receiving the attenuated light obtained by attenuating the light of The bright part (55, 56) that is a candidate for the pilot's eyes An eye determination unit (27, S108) that determines that a bright part (55) that is not photographed in the second face image among a plurality of bright parts when the face image is photographed; And a face recognizing unit (24, S109) for recognizing the face based on the eye position determined by the determining unit.
また請求項8に記載の発明は、移動体(1)に搭載され、移動体を操縦する操縦者の顔面を撮影した顔画像(51,52)を用いて当該操縦者の状態を監視する処理をコンピュータに実行させる状態監視プログラムであって、顔面が位置する領域として予め規定された規定領域(PA)に向けて、赤色から近赤外の帯域の光を出射させる発光ステップ(S101)と、規定領域から入射する入射光を受光することで撮影される第一顔画像(51)を、顔画像として取得する第一画像取得ステップ(S102)と、入射光から赤色の帯域の光を減衰させた減衰光を受光することによって撮影される第二顔画像(52)を、第一顔画像とは別の顔画像として取得する第二画像取得ステップ(S102)と、操縦者の眼の候補となる明部(55,56)が第一顔画像に複数撮影された場合に、複数の明部のうちで第二顔画像に撮影されていない明部(55)を、眼であると判定する眼判定ステップ(S108)と、眼判定ステップによって判定された眼の位置に基づいて、顔面を認識する顔認識ステップ(S109)と、をコンピュータに実行させることを特徴としている。 The invention according to claim 8 is a process for monitoring the state of the pilot using a face image (51, 52) mounted on the moving body (1) and photographing the face of the pilot operating the moving body. Is a state monitoring program that causes a computer to execute a light emission step (S101) for emitting light in a band from red to near-infrared toward a specified area (PA) defined in advance as an area where the face is located, A first image acquisition step (S102) for acquiring a first face image (51) photographed by receiving incident light incident from a specified area as a face image, and attenuating red band light from the incident light A second image acquisition step (S102) for acquiring the second face image (52) photographed by receiving the attenuated light as a face image different from the first face image; Naru bright part (55,5 ) In the first face image, the eye determination step (S108) that determines that the bright part (55) that is not captured in the second face image among the plurality of bright parts is the eye. A face recognition step (S109) for recognizing the face based on the eye position determined in the eye determination step is executed by the computer.
これらの構成及び処理によれば、減衰光を受光することによって撮影される第二顔画像では、入射光から赤色の帯域の光が減衰させられているので、操縦者の眼は、明部として写り難い。故に、操縦者の眼の候補となる明部が第一顔画像に複数撮影された場合に、これらの明部のうちで第二顔画像に撮影されていないものを眼と判定することにより、操縦者の眼鏡に発光手段が映り込んだ場合でも、顔画像における眼の位置は、正確に特定され得る。したがって、眼の位置に基づいて行われる顔認識の正確性が、確保可能となる。 According to these configurations and processing, in the second face image captured by receiving the attenuated light, the light of the red band is attenuated from the incident light, so that the driver's eye is a bright part. It is difficult to see. Therefore, when a plurality of bright parts that are candidates for the eyes of the pilot are photographed in the first face image, by determining those of these bright parts that are not photographed in the second face image as eyes, Even when the light emitting means is reflected in the driver's glasses, the position of the eye in the face image can be accurately specified. Therefore, the accuracy of face recognition performed based on the eye position can be ensured.
以下、本発明の複数の実施形態を図面に基づいて説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。こうした複数の実施形態に記述された構成同士の明示されていない組み合わせも、以下の説明によって開示されているものとする。 Hereinafter, a plurality of embodiments of the present invention will be described with reference to the drawings. In addition, the overlapping description may be abbreviate | omitted by attaching | subjecting the same code | symbol to the corresponding component in each embodiment. When only a part of the configuration is described in each embodiment, the configuration of the other embodiment described above can be applied to the other part of the configuration. In addition, not only combinations of configurations explicitly described in the description of each embodiment, but also the configurations of a plurality of embodiments can be partially combined even if they are not explicitly specified unless there is a problem with the combination. . Combinations that are not explicitly described between the configurations described in the plurality of embodiments are also disclosed by the following description.
本発明の第一実施形態による状態監視装置100は、図1に示すように、「移動体」としての車両1に搭載され、車両を操縦する操縦者(以下、「運転者」という)の状態を監視するドライバステータスモニタである。状態監視装置100は、図2に示すように、撮像部10、発光部15、及び制御回路20、並びにこれらの構成を収容する筐体60(図3参照)を備えている。また状態監視装置100は、車両に搭載されたアクチュエーション部90及び車両制御装置96と接続されている。
As shown in FIG. 1, the
図1,2に示す撮像部10は、ステアリングコラム81の上面に設置された状態監視装置100において、運転者の顔面を撮影した顔画像51(図4も参照)を生成する装置である。ステアリングコラム81の上面に設置された状態監視装置100において、運転者の顔面を撮影した顔画像51(図4も参照)を生成する装置である。撮像部10は、車両1の室内において予め規定された規定領域PAを撮影する。この規定領域PAには、運転席に着座した運転者の顔面が位置すると想定される領域が含まれている。こうした規定領域PAは、具体的には、運転者の各眼のアイレンジから想定されるアイリプスに基づいて規定され、例えば、アイリプスの99パーセンタイルを包含するように規定される。
The
撮像部10は、所謂近赤外線カメラであって、撮像素子11に、光学レンズ及び光学フィルタ等を組み合わせることによって構成されている。撮像素子11は、撮像面に沿って配列された複数の画素により、受光した光の強度に応じた電気信号を生じさせる。撮像素子11は、撮像面を規定領域PAに向けた姿勢にて配置されている。撮像素子11は、制御回路20からの制御信号に基づいて露光状態となり、規定領域PAから入射する入射光を受光する。これにより、白と黒の濃淡によって描画されたモノクロームの顔画像51が生成される。こうして撮影された顔画像51は、撮像部10から制御回路20に逐次出力される。
The
投光部15は、複数の発光ダイオード16を有している。各発光ダイオード16は、撮像部10を挟むように配置されており(図3参照)、赤色から近赤外の帯域の照明光を規定領域PAに向けて出射させる。発光ダイオード16の発光のオン状態及びオフ状態は、制御回路20から供給される電流によって制御される。
The
制御回路20は、撮像部10、投光部15、及びアクチュエーション部90等と接続されており、これらの構成の作動を制御する回路である。制御回路20は、各種の演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、及び演算処理に用いられるプログラム等が格納されたフラッシュメモリ等を備えたマイクロコンピュータを中心に構成されている。加えて制御回路20は、撮像部10及び投光部15等に電力を供給する電源回路を備えている。
The
制御回路20は、予め記憶された状態監視プログラムをプロセッサによって実行することにより、発光制御部21、撮像制御部23、画像認識部24、状態判定部31、及び警告制御部33等の複数の機能ブロックを備える。
The
発光制御部21は、投光部15の発光制御に関連する機能ブロックである。発光制御部21は、所定の電流を発光ダイオード16に印加することで、発光ダイオード16の発光状態にさせる。発光制御部21は、画像認識部24の演算した制御値に基づくことで、撮像部10が露光状態とされるタイミングに合わせて、投光部15から照明光を出射させる。
The light
撮像制御部23は、撮像部10の撮像制御に関連する機能ブロックである。撮像制御部23は、画像認識部24の演算した制御値に基づいて、撮像部10における露光開始のタイミング、ゲイン、露光時間等を制御する。
The
画像認識部24は、顔画像51等の画像処理に関連する機能ブロックである。画像認識部24は、運転者の顔面を抽出可能な顔画像51を取得するため、撮像部10における撮像条件及び投光部15における発光条件を設定する。そして画像取得部21は、設定した撮像条件及び発光条件に則った作動を撮像部10及び投光部15に実施させるため、これらを制御する撮像制御部23及び発光制御部21にて用いられる制御値を演算する。こうして撮影された顔画像51を、画像認識部24は、撮像部10から取得する。そして画像認識部24は、取得した顔画像51の画像処理により、運転者の顔の向き及び各眼の開き具合(以下「開眼度」という)に関連する値や、運転者の眠気の度合いに関連する値等を演算する。
The
状態判定部31は、画像取得部21によって演算された値と予め設定された閾値とを比較する。この比較処理により、状態判定部31は、例えば脇見運転の兆候や居眠り運転の兆候等が検出されたか否かを推定する。そして、上述した兆候を検出した状態判定部31は、運転者に警告を実施すべき状態が生じていると判定する。
The
警告制御部33は、アクチュエーション部90と接続されている。警告制御部33は、状態判定部31によって運転者に警告すべき状況が生じていると判定された場合に、アクチュエーション部90に制御信号を出力する。こうして警告制御部33は、アクチュエーション部90を作動させることにより、運転者に警告を行う。
The
筐体60は、図3に示すように、本体部材63、フロントカバー部材66、及び図示しないリヤカバー部材等によって構成されている。
As shown in FIG. 3, the
本体部材63は、投光部15及び撮像部10等の実装されたサブ基板62を保持している。サブ基板62には、制御回路20の形成されたメイン基板61が、当該サブ基板62と直交する姿勢にて取り付けられている。本体部材63には、挿通孔64及び配光部65が設けられている。挿通孔64は、本体部材63の水平方向における中央部分に設けられており、サブ基板62に実装された撮像部10を挿通させる。挿通孔64は、サブ基板66に設けられた遮光のための孔部と協働して、投光部15と撮像部10との間にて遮光機能を発揮することで、投光部15から撮像部10への光の漏れを防いでいる。配光部65は、挿通孔64を水平方向において挟むように配置されており、サブ基板62に実装された投光部15と対向している。配光部65は、投光部15から放射された光を透過させつつ、規定領域PA(図1参照)に配光する。
The
フロントカバー部材66には、可視光フィルタ67が設けられている。可視光フィルタ67は、顔画像51(図4参照)の生成に用いられる赤色から近赤外の帯域の光を主に透過させると共に、顔画像51の生成に不要な可視光帯域の光を遮蔽する。可視光フィルタ67は、フロントカバー部材66において配光部65と対向する位置に形成された開口68を覆っている。リヤカバー部材は、本体部材63を挟んでフロントカバー部材66とは反対側に配置されている。リヤカバー部材は、各基板61,62を覆うことにより、これらを雰囲気中の塵及び埃等から保護している。
A
図2に示すアクチュエーション部90には、車両1(図1参照)に搭載された、例えばスピーカ91、シート振動装置93、及び空調装置95等が含まれている。スピーカ91は、警告制御部33からの制御信号に基づいて音声データを再生することにより、運転者に注意を喚起する。シート振動装置93は、運転席の座面の内部等に設置されており、警告制御部33からの制御信号に基づいて運転席を振動させることにより、運転者に注意を喚起する。空調装置95は、警告制御部33からの制御信号に基づいて車両1の室内に外気を導入させる等の作動により、運転者に注意を喚起する。
The
次に、状態監視装置100によって撮影される顔画像51についてさらに詳しく説明する。
Next, the
図4に示すように、環境光の少ない状態下において、照明光を規定領域PAに照射しつつ運転者の顔面を撮影した場合、運転者の両眼は、明部55として写る。こうした所謂赤眼現象は、環境光及び照明光に含まれる赤色帯域の光が網膜の毛細血管によって反射されるために生じる。この赤眼は、当該赤眼の周囲に対して高いコントラストを獲得している。故に、画像認識部24(図2参照)は、顔画像51に写る明部55の位置に基づくことで、当該顔画像51における眼の位置を正確に特定し得る。
As shown in FIG. 4, when the driver's face is photographed while irradiating illumination light to the prescribed area PA in a state where the ambient light is low, both eyes of the driver appear as a
しかし、環境光の少ない状態において、照明光を規定領域PAに照射しつつ、眼鏡を掛けた運転者が撮影されたとする。この場合、撮影される顔画像51には、運転者の所謂赤眼だけでなく、眼鏡に映り込んだ発光ダイオード16(図2参照)が、明部56として撮影されてしまう。このように、運転者の両眼の周囲に、眼の候補となる明部55,56が複数撮影されてしまうと、顔画像51における眼の位置の特定が、誤ったものとなり得る。すると、眼の位置に基づいて行われる顔認識の正確性が、確保されなくなってしまうおそれがあった。
However, it is assumed that a driver wearing spectacles is photographed while irradiating the prescribed area PA with illumination light in a state with little ambient light. In this case, not only the driver's so-called red eye but also the light-emitting diode 16 (see FIG. 2) reflected in the glasses is photographed as the
以上の問題を解決して顔認識の精度を向上させるために、図2の状態監視装置100の備える構成、及び制御回路20によって実施される処理を、以下詳細に説明する。
In order to solve the above problems and improve the accuracy of face recognition, the configuration of the
図5に示すように、撮像素子11には、被覆領域77と非被覆領域76とが形成されている。被覆領域77は、撮像面においてカラーフィルタ78によって覆われた領域である。カラーフィルタ78は、赤色帯域の光を減衰させつつ、近赤外帯域の光を通過させる。故に、被覆領域77は、規定領域PA(図1参照)から入射してカラーフィルタ78を通過した光であって、赤色帯域の光が減衰された減衰光を受光する。非被覆領域76は、被覆領域77から外れて位置しており、カラーフィルタ78によって覆われてない領域である。故に、非被覆領域76は、規定領域PAから入射する入射光を受光する。
As shown in FIG. 5, the
撮像素子11は、水平方向H及び垂直方向Vのそれぞれに例えば640×480の画素を配列してなる所謂VGAサイズの素子である。撮像素子11は、複数の画素として、第一画素70及び第二画素73を有している。第一画素70は、カラーフィルタ78に覆われていない画素である。故に、第一画素70の全域が非被覆領域76となる。第二画素73は、カラーフィルタ78によって覆われた画素である。故に、第二画素73の全域が被覆領域77となる。撮像面に設けられる第二画素73の数は、第一画素70の数よりも少なくされている。故に、撮像素子11の撮像面においては、被覆領域77の面積は、非被覆領域76の面積よりも、狭くされている。
The
以上の撮像素子11の構成により、第一画素70からの出力に基づいて、図2に示す撮像部10は、入射光の受光することによって撮影された顔画像(以下、便宜的に「第一顔画像」と記載する)51を生成する。また撮像部10は、第二画素73(図5参照)からの出力に基づいて、減衰光を受光することによって撮影された顔画像(以下、便宜的に「第二顔画像」と記載する)52を生成する。以上によれば、第一顔画像51の画素数は、第二顔画像52の画素数よりも多くなる。さらに、撮像部10は、第一画素70(図5参照)からの出力を取得しつつ、第二画素73からの出力を取得することができる。よって、第一顔画像51及び第二顔画像52は、実質的に同時に撮影された画像となる。
With the configuration of the
これら第一顔画像51及び第二顔画像52を用いた高精度な顔認識を実現するため、画像認識部24は、サブ機能ブロックとして、第一画像取得ブロック25、第二画像取得ブロック26、暗所判定ブロック28、及び眼判定ブロック27を有する。
In order to realize highly accurate face recognition using the
第一画像取得ブロック25は、撮像部10から第一顔画像51を取得する。一方、第二画像取得ブロック26は、撮像部10から第二顔画像52を、第一顔画像51とは別の顔画像として取得する。
The first
暗所判定ブロック28は、車両制御装置96から取得した情報に基づいて、車両1(図1参照)の室内が暗所であるか否かを判定する。車両制御装置96は、車両1に搭載された種々の機器を制御する装置である。車両制御装置96は、その機能の一つとして、車両1の前照灯の作動を制御することができる。暗所判定ブロック28は、車両1の前照灯の状態情報に基づいて、当該前照灯が点灯状態である場合に、車両1の室内が暗所であると判定する。一方で、暗所判定ブロック28は、前照灯が消灯状態である場合に、車両1の室内が暗所でないと判定する。尚、車両制御装置96による前照灯の点灯状態及び消灯状態の切り替えは、車両1(図1参照)に搭載された外光センサの検出結果に基づいて行われてもよく、ステアリングコラム81(図1参照)に設けられた切替スイッチの操作状態に基づいて行われてもよい。
The dark
眼判定ブロック27は、図4に示す運転者の眼の候補となる明部55,56が第一顔画像51に複数撮影された場合に、当該眼の候補となる複数の明部55,56から、実際の眼に対応する明部がいずれであるかを判定する。詳記すると、図6に示すように、減衰光を受光することによって撮影される第二顔画像52では、入射光から赤色帯域の光が減衰させられているので、運転者の眼は、赤眼となり難い。即ち、第二顔画像52では、運転者の眼は、図4の如く明部55として写り難い。故に、第一顔画像51に撮影された眼の候補となる明部55,56のうちで、図5の第二顔画像52に撮影されていないものが、実際の眼による明部55である蓋然性が高いこととなる。
The
以上説明した原理に基づき、図2に示す眼判定ブロック27は、第一顔画像51と第二顔画像52とを比較する処理を行うことで、第一顔画像51に写る複数の明部55,56(図4参照)のうちで、第二顔画像52に撮影されていなかった明部55を、眼と判定する。こうした眼の位置を特定する判定は、暗所判定ブロック28によって室内が暗所でると判定されたこと条件として、実施される。
Based on the principle described above, the
次に、ここまで説明した眼の位置を特定する判定を実現するために、画像認識部24によって実施される処理を、図7に基づいて詳細に説明する。図7に示す処理は、車両1(図1参照)のイグニッションがオン状態とされることにより、画像認識部24によって開始される。
Next, a process performed by the
S101では、発光制御部21から投光部15に発光を指示する制御信号を出力すると共に、撮像制御部23から撮像部10に撮影を支持する制御信号を出力しS102に進む。このS101にて出力された制御信号に基づいて、投光部15は、規定領域PAに向けて照明光を出射させる。そして、撮像部10は、照明光を含む規定領域PAからの光を受光することで、第一顔画像51及び第二顔画像52を撮影する。
In S101, the light
S102では、S101にて出力された制御信号に基づく第一顔画像51及び第二顔画像52を、第一画像取得ブロック25及び第二画像取得ブロック26によって取得し、S103に進む。
In S102, the
S103では、車両制御装置96から取得している前照灯の状態情報に基づき、車両1の室内が暗所であるか否かを判定する。S103にて肯定判定をした場合には、S105に進む。一方で、S103にて否定判定をした場合には、S104に進む。S104では、赤眼を利用しない顔認識の処理を実施し、S110に進む。一方で、S103によって肯定判定がなされたことを条件として実施されるS105では、S102にて取得された第一顔画像51を画像処理することにより、当該画像51から、運転者の眼の候補となる明部55,56を抽出し、S106に進む。
In S103, it is determined based on the headlight status information acquired from the
S106では、S105にて実施された画像処理の結果、眼の近傍領域として予め想定された範囲に、眼の候補となる明部55,56が複数撮影されているか否かを判定する。S106にて、否定判定をした場合には、S107に進む。S107では、S105にて抽出された赤眼である明部55を利用して顔認識を実施し、S110に進む。一方で、S106にて肯定判定をした場合には、S108に進む。
In S106, as a result of the image processing performed in S105, it is determined whether or not a plurality of
S108では、第一顔画像51及び第二顔画像52を比較することにより、第一顔画像51に撮影された複数の明部55,56のうちで、第二顔画像52に撮影されていない明部55を、運転者の眼であると判定し、S109に進む。S109では、S108にて眼であると判定された赤眼である明部55を利用して顔認識を実施し、S110に進む。
In S108, by comparing the
S110では、S104、S107及びS109のいずれかによる顔認識の結果を状態判定部31に出力し、S111に進む。このS110にて出力された顔認識の結果に基づいて、状態判定部31は、脇見運転の兆候や居眠り運転の兆候等、運転者に警告を実施すべき状態が生じているか否かを判定する。
In S110, the result of face recognition by any of S104, S107, and S109 is output to the
S111では、車両1のイグニッションのオン状態が継続されているか否かを判定する。イグニッションがオフ状態とされたことで、S111にて否定判定をした場合には、処理を終了する。一方で、S111にて肯定判定をした場合には、S101に戻る。 In S111, it is determined whether or not the ignition ON state of the vehicle 1 is continued. If a negative determination is made in S111 because the ignition is turned off, the process ends. On the other hand, if a positive determination is made in S111, the process returns to S101.
ここまで説明した第一実施形態によれば、減衰光を受光することによって撮影される第二顔画像52では、入射光から赤色の帯域の光が減衰させられているので、運転者の眼は、明部55として写り難い。故に、第一顔画像51に複数撮影された明部55,56のうちで、第二顔画像52に撮影されていない明部55が、眼と判定される。これにより、運転者の眼鏡に発光ダイオード16が映り込んだ場合でも、第一顔画像51における眼の位置は、正確に特定され得る。したがって、眼の位置に基づいて行われる顔認識の正確性が、確保可能となる。
According to the first embodiment described so far, in the
加えて第一実施形態に用いられる撮像素子11では、その一部である第二画素73が被覆領域77としてカラーフィルタ78で覆われている。故に、撮像部10は、一つの撮像素子11から、第二顔画像52を生成するための出力と、第一顔画像51を生成するための出力とを共に得ることができる。よって、撮像素子11の一部をカラーフィルタ78によって覆う構成は、第一顔画像51及び第二顔画像52を比較することで眼の位置を特定する状態監視装置100に特に好適なのである。
In addition, in the
また第一実施形態における第二顔画像52は、主に眼の位置を特定するために必要な顔画像である。故に、第二顔画像52は、第一顔画像51ほど鮮明でなくてもよい。よって、撮像素子11における第二画素73の数は、第一画素70の数よりも少なくされている。これにより、被覆領域77の面積が非被覆領域76の面積よりも狭くなるので、非被覆領域76からの出力に基づく第一顔画像51は、高い解像度を維持し、且つ照明光を有効に利用した鮮明な画像となり得る。したがって、第一顔画像51を用いた画像認識部24による顔認識の正確性は、確実に確保可能となる。
The
さらに第一実施形態によれば、撮像部10は、実質的に同じタイミングにて取得される出力に基づいて、第一顔画像51と第二顔画像52とを生成することができる。故に、第一顔画像51及び第二顔画像52間の撮影タイミングの差は、実質的に消失し得る。以上により、第一顔画像51及び第二顔画像52間にて、撮影された運転者の位置にずれが生じる事態は、回避され得る。したがって、第一顔画像51と第二顔画像52との比較によって特定される眼の位置の正確性、ひいては顔認識の正確性は、いっそう確保可能となる。
Further, according to the first embodiment, the
また加えて第一実施形態では、第一顔画像51と第二顔画像52との比較による眼の位置の特定は、車両1の室内が暗所である旨の判定を条件として、実施される。上述したように、赤眼による明部55と、発光ダイオード16の眼鏡への映り込みによる明部56とが共に第一顔画像51に写るのは、主に環境光の少ない条件下である。故に、室内が暗所である旨の判定を条件として、眼の位置を特定する処理が実施されることによれば、顔認識の精度を高く維持したうえで、状態監視装置100における処理の負荷の軽減が可能となる。
In addition, in the first embodiment, the eye position is identified by comparing the
尚、第一実施形態において、車両1が特許請求の範囲に記載の「移動体」に相当し、撮像部10が特許請求の範囲に記載の「撮像手段」に相当し、投光部15が特許請求の範囲に記載の「発光手段」に相当し、画像認識部24が特許請求の範囲に記載の「顔認識手段」に相当し、第一画像取得ブロック25が特許請求の範囲に記載の「第一画像取得手段」に相当し、第二画像取得ブロック26が特許請求の範囲に記載の「第二画像取得手段」に相当し、眼判定ブロック27が特許請求の範囲に記載の「眼判定手段」に相当し、暗所判定ブロック28が特許請求の範囲に記載の「暗所判定手段」に相当し、カラーフィルタ78が特許請求の範囲に記載の「減衰フィルタ」に相当し、ステップS101が特許請求の範囲に記載の「発光ステップ」に相当し、ステップS102が特許請求の範囲に記載の「第一画像取得ステップ」及び「第二画像取得ステップ」に相当し、ステップS108が特許請求の範囲に記載の「眼判定ステップ」に相当し、ステップS109が特許請求の範囲に記載の「顔認識ステップ」に相当する。
In the first embodiment, the vehicle 1 corresponds to the “moving body” recited in the claims, the
(第二実施形態)
図8に示される本発明の第二実施形態は、第一実施形態の変形例である。第二実施形態による状態監視装置200は、第一実施形態の撮像部10(図2参照)に替えて、第一撮像部110及び第二撮像部210を有している。以下、図8に基づいて、第一顔画像51及び第二顔画像52を取得するための状態監視装置200の構成を詳しく説明する。
(Second embodiment)
The second embodiment of the present invention shown in FIG. 8 is a modification of the first embodiment. The
第一撮像部110及び第二撮像部210は、共に近赤外線カメラであって、第一実施形態の撮像部10に相当する構成である。第一撮像部110は、第一実施形態の撮像素子11(図5参照)に相当する第一撮像素子111を有しており、当該素子111の撮像面を規定領域PA(図1参照)に向けた姿勢にて配置されている。第一撮像素子111は、規定領域PAから入射する入射光を受光する。以上の構成により、第一撮像部110は、第一撮像素子111からの出力に基づいて第一顔画像51を生成し、画像認識部24に逐次出力する。
The
第二撮像部210は、撮像素子11(図5参照)に相当する第二撮像素子211、及び赤色帯域の光を減衰させるカラーフィルタ278を有している。第二撮像部210は、第二撮像素子211の撮像面を規定領域PA(図1参照)に向けた姿勢にて配置されている。第二撮像素子211は、カラーフィルタ278によって覆われることで減衰光を受光する。以上の構成により、第二撮像部210は、第二撮像素子211からの出力に基づいて第二顔画像52を生成し、画像認識部24に逐次出力する。
The
以上の構成では、第一撮像素子111の全域が非被覆領域76となり、第二撮像素子211の全域が被覆領域77となる。第二実施形態では、各撮像素子111,211の画素ピッチ及び画素数は、互いに同一とされている。故に、被覆領域77の面積は、非被覆領域76の面積と実質的に等しくなる。
In the above configuration, the entire area of the
撮像制御部23は、第一撮像部110及び第二撮像部210のそれぞれに制御信号を出力する。撮像制御部23は、発光制御部21が投光部15の発光ダイオード16を発光状態にするタイミングに合わせて、第一撮像素子111及び第二撮像素子211を共に露光状態とする。このように、撮像制御部23が第一撮像素子111及び第二撮像素子211の撮影タイミングを同期させることにより、第一顔画像51及び第二顔画像52は、実質的に同じタイミングにて撮影される。
The
以上の構成により、第一画像取得ブロック25は、第一撮像素子111を用いて撮影された第一顔画像51を第一撮像部110から取得する。一方で、第二画像取得ブロック26は、第二撮像素子211を用いて撮影された第二顔画像52を第二撮像部210から取得する。このように、第一顔画像51及び第二顔画像52を撮影するための撮像部は、別々に設けられていてもよい。
With the above configuration, the first
ここまで説明した第二実施形態でも、減衰光を用いて撮影される第二顔画像52が、第二撮像部210によって生成される。故に、第一顔画像51と第二顔画像52との比較による眼の位置の特定が可能となるので、眼の位置に基づいて行われる顔認識の正確性は、確保される。
Also in the second embodiment described so far, the
加えて第二実施形態では、第二撮像部210が、第一撮像部110とは別の構成として設けられている。故に、各撮像素子111,211として採用される撮像素子の自由度が、確保され得る。以上の構成では、第一顔画像51及び第二顔画像52を眼の位置の特定に好適な解像度にて取得することが、いっそう容易となる。
In addition, in the second embodiment, the
尚、第二実施形態において、第一撮像部110が特許請求の範囲に記載の「第一撮像手段」に相当し、第二撮像部210が特許請求の範囲に記載の「第二撮像手段」に相当し、カラーフィルタ278が特許請求の範囲に記載の「減衰フィルタ」に相当する。
In the second embodiment, the
(第三実施形態)
図9に示される本発明の第三実施形態は、第一実施形態の別の変形例である。第三実施形態による状態監視装置300は、第一実施形態の撮像部10(図2参照)に替えて、撮像部310を有している。以下、図9に基づいて、第一顔画像51及び第二顔画像52を取得するための状態監視装置300の構成を詳しく説明する。
(Third embodiment)
The third embodiment of the present invention shown in FIG. 9 is another modification of the first embodiment. The
撮像部310は、撮像素子11に加えて、カラーフィルタ378及び切替機構313を有している。カラーフィルタ378は、赤色帯域の光を減衰させ且つ近赤外帯域の光を通過させる構成である。カラーフィルタ378は、撮像素子11を覆うことが可能な大きさに形成されている。切替機構313は、カラーフィルタ378を移動させるための機構である。
The
以上の撮像部310には、撮影モードとして、減衰撮影モードと非減衰撮影モードとが互いに切り替え可能に設けられている。減衰撮影モードでは、撮像部310は、切替機構313の作動により、撮像素子11の撮像面を覆う位置にカラーフィルタ378を移動させている。このように、カラーフィルタ378によって撮像素子11を覆うことで、撮像素子11は、減衰光を受光することとなる。故に、撮像部310は、撮像素子11からの出力に基づいて、第二顔画像52を生成することができる。
The
一方で、非減衰撮影モードでは、撮像部310は、切替機構313の作動により、撮像素子11の撮像面からカラーフィルタ378を退避させている。故に、撮像素子11は、入射光を受光することとなる。以上により、撮像部310は、撮像素子11からの出力に基づいて、第一顔画像51を生成することができる。
On the other hand, in the non-attenuating shooting mode, the
撮像制御部23は、減衰撮影モードと非減衰撮影モードとが交互に繰り返されるよう、撮像部310に制御信号を出力する。これにより、撮像部310では、第一顔画像51及び第二顔画像52が、僅かの時間差にて、交互に撮影される。よって、画像認識部24においては、非減衰撮影モードにて撮影された第一顔画像51の第一画像取得ブロック25による取得と、減衰撮影モードにて撮影された第二顔画像52の第二画像取得ブロック26による取得とが、交互に実施される。尚、発光制御部21は、各撮影モードにおいて撮像素子11が露光状態とされるタイミングに合わせて、投光部15から照明光を出射させる。
The
ここまで説明した第三実施形態でも、減衰光を用いて撮影される第二顔画像52が、撮像部310の減衰撮影モードにて生成される。これにより、第一顔画像51と第二顔画像52との比較による眼の位置の特定が可能となるので、眼の位置に基づいて行われる顔認識の正確性は、確保される。
Also in the third embodiment described so far, the
尚、第三実施形態において、撮像部310が特許請求の範囲に記載の「撮像手段」に相当し、カラーフィルタ378が特許請求の範囲に記載の「減衰フィルタ」に相当する。
In the third embodiment, the
(他の実施形態)
以上、本発明による複数の実施形態について説明したが、本発明は、上記実施形態に限定して解釈されるものではなく、本発明の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
(Other embodiments)
Although a plurality of embodiments according to the present invention have been described above, the present invention is not construed as being limited to the above embodiments, and can be applied to various embodiments and combinations without departing from the gist of the present invention. can do.
上記第一実施形態のさらに別の変形例1では、撮像素子11(図5参照)に替えて、図10に示す撮像素子411が用いられている。撮像素子411の有する第二画素473には、カラーフィルタ78によって覆われたサブ画素474が設けられている。以上の構成による撮像部410は、第一画素70からの出力と、第二画素473においてサブ画素474を除く領域からの出力とに基づいて、第一顔画像51(図4参照)を生成する。加えて、撮像部410は、サブ画素474からの出力に基づいて、第二顔画像52(図4参照)を生成する。このように、被覆領域77をサブ画素474として設ける形態でも、第一実施形態と同様に、近赤外線に対する撮像素子411の感度を維持しつつ、第一顔画像51と共に第二顔画像52を撮影することができる。
In still another modification 1 of the first embodiment, an
上記第二実施形態の変形例では、一つの撮像部に、第一撮像素子及び第二撮像素子が設けられている。この撮像部には、規定領域PAからの入射光を各撮像素子に分割して到達させるスプリッタと、スプリッタ及び第二撮像素子間に位置するカラーフィルタとがさらに設けられている。以上の構成のように、非被覆領域を形成する第一撮像素子と、被覆領域を形成する第二撮像素子は、一つの撮像部に共に設けられていてもよい。 In the modified example of the second embodiment, the first imaging element and the second imaging element are provided in one imaging unit. The imaging unit is further provided with a splitter that divides incident light from the defined area PA into each imaging element and a color filter positioned between the splitter and the second imaging element. As described above, the first image sensor that forms the uncovered area and the second image sensor that forms the covered area may be provided together in one image pickup unit.
上記実施形態の変形例では、暗所判定ブロックが省略されている。これにより、車両の室内が暗所であるか否かに係らず、眼判定ブロックは、複数の眼の候補となる明部が第一顔画像51に撮影された場合に、これらの明部のうちから、眼に対応する明部を特定する判定を実施する。
In the modification of the above embodiment, the dark place determination block is omitted. As a result, regardless of whether or not the interior of the vehicle is in a dark place, the eye determination block allows the bright portions that are candidates for a plurality of eyes to be captured in the
上記第一実施形態の変形例では、第一画素の画素数と第二画素の画素数とが同程度に設定されている。これにより、被覆領域の面積は、非被覆領域の面積と同程度となる。また、さらに別の変形例では、第二画素の画素数は、第一画素の画素数より多くされている。これにより、被覆領域の面積は、非被覆領域の面積よりも狭くなっている。 In the modification of the first embodiment, the number of first pixels and the number of second pixels are set to be approximately the same. As a result, the area of the covering region is approximately the same as the area of the non-covering region. In still another modification, the number of pixels of the second pixel is larger than the number of pixels of the first pixel. Thereby, the area of the covering region is narrower than the area of the non-covering region.
上記第三実施形態の変形例では、切替機構によるカラーフィルタの設置及び退避が、電気的に実施されてもよい。例えば、カラーフィルタは、電圧の印加によって赤色帯域の光を遮断する構成であってもよい。こうした形態では、カラーフィルタに電圧を印加する構成が、切替機構に相当する。 In the modification of the third embodiment, the color filter may be installed and retracted electrically by the switching mechanism. For example, the color filter may be configured to block light in the red band by applying a voltage. In such a form, the configuration for applying a voltage to the color filter corresponds to the switching mechanism.
上記実施形態の変形例では、カラーフィルタを設ける画素の割合、レイアウトは、適宜変更可能である。例えば、カラーフィルタを有する画素は、撮像素子において眼の近傍領域を写す範囲に絞って設けられていてもよい。 In the modification of the above embodiment, the ratio and layout of the pixels provided with the color filter can be changed as appropriate. For example, the pixels having the color filter may be provided so as to be narrowed down to a range that captures a region near the eye in the image sensor.
上記第一実施形態の変形例では、撮像部において、非被覆領域からの出力を取得するタイミングと、被覆領域からの出力を取得するタイミングとが異なっている。また、上記第二実施形態の変形例では、第一撮像部において第一撮像素子からの出力を取得するタイミングと、第二撮像部において第二撮像素子からの出力を取得するタイミングが異なっている。以上のように、第一顔画像及び第二顔画像間における撮影タイミングのずれは、許容可能である。 In the modified example of the first embodiment, the timing at which the output from the non-covering area is acquired and the timing at which the output from the covering area is acquired are different in the imaging unit. In the modification of the second embodiment, the timing at which the output from the first imaging element is acquired in the first imaging unit is different from the timing at which the output from the second imaging element is acquired in the second imaging unit. . As described above, a shift in shooting timing between the first face image and the second face image is acceptable.
上記実施形態における各撮像素子には、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサが適宜採用可能である。また、撮像素子によって検出される光の周波数帯域は、近赤外帯域に限定されず、近赤外帯域に加えて可視光帯域が含まれていてもよい。さらに、発光ダイオードは、撮像素子の仕様に対応するように、放射する光の周波数帯域、個数、及び配置等を適宜変更されることが望ましい。 An image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) can be used as appropriate for each image sensor in the above embodiment. Further, the frequency band of light detected by the image sensor is not limited to the near infrared band, and may include the visible light band in addition to the near infrared band. Furthermore, it is desirable that the light emitting diodes be appropriately changed in frequency band, number, arrangement, and the like of emitted light so as to correspond to the specifications of the image sensor.
上記実施形態において、ステアリングコラム81の上面とされていた撮像部及び状態監視装置の設置位置は、規定領域PAの撮影が可能であれば、適宜変更されてよい。状態監視装置は、例えばインスツルメントパネルの上面に設置されていてもよく、又はサンバイザ近傍の天井部分に取り付けられていてもよい。さらに、撮像部は、状態監視装置の本体部分とは別体で、規定領域PAの撮影に好適な位置に設けられていてもよい。
In the above-described embodiment, the installation position of the imaging unit and the state monitoring device, which are the upper surface of the
上記実施形態における規定領域PAの決定方法は、適宜変更されてよい。例えば、規定領域PAは、アイリプスの95パーセンタイルを包含するように規定されてもよい。さらに、規定領域PAの決定方法は、アイリプスから決定する方法に限定されない。例えば、人種、性別、及び年齢等が異なる複数の運転者を実際に運転席に着座させることにより、規定領域PAを実験的に決定してもよい。こうした規定領域PAは、運転動作に伴う顔面の移動を想定したうえで、規定されることが望ましい。 The method for determining the prescribed area PA in the above embodiment may be changed as appropriate. For example, the defined area PA may be defined to include the 95th percentile of Ilips. Furthermore, the method for determining the prescribed area PA is not limited to the method for determining from the iris. For example, the prescribed area PA may be determined experimentally by actually sitting a plurality of drivers of different races, genders, ages, etc. on the driver's seat. Such a defined area PA is desirably defined in consideration of the movement of the face accompanying the driving operation.
上記実施形態において、状態監視プログラムを実行した制御回路20によって提供されていた複数の機能は、上述の制御装置と異なるハードウェア及びソフトウェア、或いはこれらの組み合わせによって提供されてよい。例えば、プログラムによらないで所定の機能を果たすアナログ回路によって、各機能ブロック及びサブ機能ブロックに相当する機能が提供されていてもよい。
In the above-described embodiment, the plurality of functions provided by the
上記実施形態では、車両に搭載されて、車両の運転者の状態を監視する状態監視装置に本発明を適用した例を示した。しかし、本発明は、車両用の所謂ドライバステータスモニタだけでなく、車両以外の船舶及び航空機等の各種移動体(輸送機器)にて、その操縦者の状態を監視する状態監視装置に適用することが可能である。 In the said embodiment, the example which applied this invention to the state monitoring apparatus mounted in a vehicle and monitoring the state of the driver | operator of a vehicle was shown. However, the present invention is applied not only to a so-called driver status monitor for a vehicle but also to a state monitoring device that monitors the state of the operator in various moving bodies (transportation equipment) such as ships and aircraft other than the vehicle. Is possible.
PA 規定領域、1 車両(移動体)、10,310,410 撮像部(撮像手段)、110 第一撮像部、210 第二撮像部、11,411 撮像素子、111 第一撮像素子、211 第二撮像素子、15 投光部(発光手段)、24 画像認識部(顔認識手段)、25 第一画像取得ブロック(第一画像取得手段)、26 第二画像取得ブロック(第二画像取得手段)、27 眼判定ブロック(眼判定手段)、28 暗所判定ブロック(暗所判定手段)、51 第一顔画像(顔画像)、52 第二顔画像(顔画像)、55,56 明部、76 非被覆領域、77 被覆領域、78,278,378 カラーフィルタ(減衰フィルタ)、100,200,300 状態監視装置 PA defined area, 1 vehicle (moving body), 10, 310, 410 imaging unit (imaging means), 110 first imaging unit, 210 second imaging unit, 11,411 imaging element, 111 first imaging element, 211 second Image sensor, 15 light projecting unit (light emitting unit), 24 image recognition unit (face recognition unit), 25 first image acquisition block (first image acquisition unit), 26 second image acquisition block (second image acquisition unit), 27 Eye determination block (eye determination means), 28 Dark place determination block (dark place determination means), 51 First face image (face image), 52 Second face image (face image), 55, 56 Bright part, 76 Non Covering area, 77 Covering area, 78, 278, 378 Color filter (attenuation filter), 100, 200, 300 Condition monitoring device
Claims (8)
前記顔面が位置する領域として予め規定された規定領域(PA)に向けて、赤色から近赤外の帯域の光を出射させる発光手段(15,S101)と、
前記規定領域から入射する入射光を受光することで撮影される第一顔画像(51)を、前記顔画像として取得する第一画像取得手段(25,S102)と、
前記入射光から赤色の帯域の光を減衰させた減衰光を受光することによって撮影される第二顔画像(52)を、前記第一顔画像とは別の前記顔画像として取得する第二画像取得手段(26,S102)と、
前記操縦者の眼の候補となる明部(55,56)が前記第一顔画像に複数撮影された場合に、複数の前記明部のうちで前記第二顔画像に撮影されていない明部(55)を、前記眼であると判定する眼判定手段(27,S108)と、
前記眼判定手段によって判定された前記眼の位置に基づいて、前記顔面を認識する顔認識手段(24,S109)と、を備えることを特徴とする状態監視装置。 A state monitoring device that is mounted on a moving body (1) and that monitors the state of the driver using face images (51, 52) obtained by photographing the face of the driver who controls the moving body,
A light emitting means (15, S101) for emitting light in a band from red to near-infrared toward a predetermined area (PA) defined as an area where the face is located;
First image acquisition means (25, S102) for acquiring, as the face image, a first face image (51) captured by receiving incident light incident from the prescribed region;
A second image obtained by receiving a second face image (52) taken by receiving attenuated light obtained by attenuating red band light from the incident light as the face image different from the first face image. Acquisition means (26, S102);
When a plurality of bright portions (55, 56) that are candidates for the pilot's eyes are photographed in the first face image, a bright portion that is not photographed in the second face image among the plurality of bright portions. (55) an eye determination means (27, S108) for determining that the eye is the eye;
A state monitoring apparatus comprising: a face recognition unit (24, S109) that recognizes the face based on the position of the eye determined by the eye determination unit.
前記第一画像取得手段は、前記非被覆領域を用いて撮影された前記第一顔画像を前記撮像手段から取得し、
前記第二画像取得手段は、前記被覆領域を用いて撮影された前記第二顔画像を前記撮像手段から取得することを特徴とする請求項1に記載の状態監視装置。 An attenuation filter (78) that attenuates light in the red band, a covering region (77) that receives the attenuated light by being covered by the attenuation filter, and a non-light that receives the incident light at a position outside the covering region. An image sensor (11) that forms a covered region (76), and generates the first face image based on an output from the non-covered region and the second face image based on an output from the covered region. An imaging means (10),
The first image acquisition unit acquires the first face image captured using the uncovered area from the imaging unit,
The state monitoring apparatus according to claim 1, wherein the second image acquisition unit acquires the second face image captured using the covering region from the imaging unit.
赤色帯域の光を減衰させる減衰フィルタ(278)によって覆われることで前記減衰光を受光する第二撮像素子(211)を有し、前記第二撮像素子からの出力に基づいて前記第二顔画像を生成する第二撮像手段(210)と、をさらに備え、
前記第一画像取得手段は、前記第一撮像素子を用いて撮影された前記第一顔画像を前記第一撮像手段から取得し、
前記第二画像取得手段は、前記第二撮像素子を用いて撮影された前記第二顔画像を前記第二撮像手段から取得することを特徴とする請求項1に記載の状態監視装置。 A first imaging unit (110) having a first imaging element (111) for receiving the incident light, and generating the first face image based on an output from the first imaging element;
The second face image has a second image sensor (211) that receives the attenuated light by being covered by an attenuation filter (278) that attenuates light in the red band, and is based on an output from the second image sensor. Second imaging means (210) for generating
The first image acquisition unit acquires the first face image captured using the first imaging element from the first imaging unit,
The state monitoring apparatus according to claim 1, wherein the second image acquisition unit acquires the second face image captured using the second imaging element from the second imaging unit.
前記第一画像取得手段は、前記非減衰撮影モードにて撮影された前記第一顔画像を前記撮像手段から取得し、
前記第二画像取得手段は、前記減衰撮影モードにて撮影された前記第二顔画像を前記撮像手段から取得することを特徴とする請求項1に記載の状態監視装置。 An image sensor (311) that receives the incident light and an attenuation filter (378) that attenuates red band light. The image sensor that receives the attenuated light by covering the image sensor with the attenuation filter. Based on the output from the image sensor that receives the incident light by retracting the attenuation filter from the imaging surface of the image sensor and generating the second face image based on the output of Imaging means (310) that can be switched between a non-attenuating shooting mode for generating the first face image, and
The first image acquisition means acquires the first face image taken in the non-attenuating shooting mode from the imaging means,
The state monitoring apparatus according to claim 1, wherein the second image acquisition unit acquires the second face image captured in the attenuation shooting mode from the imaging unit.
前記眼判定手段は、前記暗所判定手段によって前記室内が暗所でると判定されたこと条件として、前記操縦者の眼の候補となる明部が前記第一顔画像に複数撮影された場合に、複数の前記明部のうちで前記第二顔画像に撮影されていない明部を、前記眼であると判定することを特徴とする請求項1〜6のいずれか一項に記載の状態監視装置。 Dark place determination means (28, S103) for determining whether or not the room of the mobile body is a dark place,
The eye determining means is provided when a plurality of bright portions that are candidates for the eyes of the pilot are photographed in the first face image as a condition that the room is determined to be dark in the dark place determining means. The state monitoring according to any one of claims 1 to 6, wherein a bright part that is not photographed in the second face image among the plurality of bright parts is determined to be the eye. apparatus.
前記顔面が位置する領域として予め規定された規定領域(PA)に向けて、赤色から近赤外の帯域の光を出射させる発光ステップ(S101)と、
前記規定領域から入射する入射光を受光することで撮影される第一顔画像(51)を、前記顔画像として取得する第一画像取得ステップ(S102)と、
前記入射光から赤色の帯域の光を減衰させた減衰光を受光することによって撮影される第二顔画像(52)を、前記第一顔画像とは別の前記顔画像として取得する第二画像取得ステップ(S102)と、
前記操縦者の眼の候補となる明部(55,56)が前記第一顔画像に複数撮影された場合に、複数の前記明部のうちで前記第二顔画像に撮影されていない明部(55)を、前記眼であると判定する眼判定ステップ(S108)と、
前記眼判定ステップによって判定された前記眼の位置に基づいて、前記顔面を認識する顔認識ステップ(S109)と、をコンピュータに実行させることを特徴とする状態監視プログラム。 A state monitoring program that is mounted on the mobile body (1) and causes the computer to execute processing for monitoring the state of the pilot using the face images (51, 52) obtained by photographing the face of the pilot operating the mobile body. There,
A light emitting step (S101) for emitting light in a band from red to near infrared toward a defined area (PA) defined in advance as an area where the face is located;
A first image acquisition step (S102) for acquiring, as the face image, a first face image (51) captured by receiving incident light incident from the prescribed region;
A second image obtained by receiving a second face image (52) taken by receiving attenuated light obtained by attenuating red band light from the incident light as the face image different from the first face image. An acquisition step (S102);
When a plurality of bright portions (55, 56) that are candidates for the pilot's eyes are photographed in the first face image, a bright portion that is not photographed in the second face image among the plurality of bright portions. (55) an eye determination step (S108) for determining that the eye is the eye;
A state monitoring program that causes a computer to execute a face recognition step (S109) for recognizing the face based on the eye position determined in the eye determination step.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012228178A JP2014082585A (en) | 2012-10-15 | 2012-10-15 | State monitor device and state monitor program |
PCT/JP2013/003046 WO2014061175A1 (en) | 2012-10-15 | 2013-05-13 | State monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012228178A JP2014082585A (en) | 2012-10-15 | 2012-10-15 | State monitor device and state monitor program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014082585A true JP2014082585A (en) | 2014-05-08 |
Family
ID=50487758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012228178A Pending JP2014082585A (en) | 2012-10-15 | 2012-10-15 | State monitor device and state monitor program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2014082585A (en) |
WO (1) | WO2014061175A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101844243B1 (en) * | 2016-07-27 | 2018-05-14 | 쌍용자동차 주식회사 | Driver status check system using a smart-phone camera and method thereof |
US10399592B2 (en) | 2016-07-11 | 2019-09-03 | Denso Corporation | Drive assist device |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU3775199A (en) * | 1998-04-29 | 1999-11-16 | Carnegie Wave Energy Limited | Apparatus and method of monitoring a subject's eyes using two different wavelengths of light |
JP2002352229A (en) * | 2001-05-30 | 2002-12-06 | Mitsubishi Electric Corp | Face region detector |
JP4313717B2 (en) * | 2004-04-13 | 2009-08-12 | 本田技研工業株式会社 | Gaze detection device |
JP5110373B2 (en) * | 2008-03-07 | 2012-12-26 | オムロン株式会社 | Measuring apparatus and method, imaging apparatus, and program |
JP2009254525A (en) * | 2008-04-15 | 2009-11-05 | Calsonic Kansei Corp | Pupil detecting method and apparatus |
-
2012
- 2012-10-15 JP JP2012228178A patent/JP2014082585A/en active Pending
-
2013
- 2013-05-13 WO PCT/JP2013/003046 patent/WO2014061175A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10399592B2 (en) | 2016-07-11 | 2019-09-03 | Denso Corporation | Drive assist device |
KR101844243B1 (en) * | 2016-07-27 | 2018-05-14 | 쌍용자동차 주식회사 | Driver status check system using a smart-phone camera and method thereof |
Also Published As
Publication number | Publication date |
---|---|
WO2014061175A1 (en) | 2014-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5867355B2 (en) | Status monitoring device and status monitoring program | |
JP5045212B2 (en) | Face image capturing device | |
US10189396B2 (en) | Vehicle headlamp control device | |
JP2006252138A (en) | Apparatus for photographing driver and apparatus for monitoring driver | |
JP5983693B2 (en) | Mirror device with display function and display switching method | |
JP6605615B2 (en) | Image processing apparatus, imaging apparatus, camera monitor system, and image processing method | |
JP2016055782A5 (en) | ||
JP2016049260A (en) | In-vehicle imaging apparatus | |
JP2006248365A (en) | Back monitoring mirror of movement body, driver photographing device, driver monitoring device and safety driving support device | |
JP5601179B2 (en) | Gaze detection apparatus and gaze detection method | |
JP2017105431A (en) | Imaging device for vehicle, and imaging system for vehicle | |
JP5712821B2 (en) | Shooting display control system | |
WO2014061175A1 (en) | State monitoring device | |
JP2005529427A (en) | Method and apparatus for sensing the spatial position of an object | |
JP2010012995A (en) | Lighting system | |
JP2016199266A (en) | Mirror device with display function and display switching method | |
JP2020137053A (en) | Control device and imaging system | |
JP2009096323A (en) | Camera illumination control device | |
JP2017162233A (en) | Visual line detection device and visual line detection method | |
WO2020188689A1 (en) | Driver state monitoring device and driver state monitoring method | |
JP2017168960A (en) | Image processing apparatus | |
JP6541510B2 (en) | Image pickup apparatus, control method thereof and program | |
WO2014041758A1 (en) | State monitoring device | |
US20240100946A1 (en) | Occupant imaging device | |
JP2018002152A (en) | Mirror device with display function and display switching method |