JP2015194884A - driver monitoring system - Google Patents

driver monitoring system Download PDF

Info

Publication number
JP2015194884A
JP2015194884A JP2014072186A JP2014072186A JP2015194884A JP 2015194884 A JP2015194884 A JP 2015194884A JP 2014072186 A JP2014072186 A JP 2014072186A JP 2014072186 A JP2014072186 A JP 2014072186A JP 2015194884 A JP2015194884 A JP 2015194884A
Authority
JP
Japan
Prior art keywords
driver
optical
image
imaging
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014072186A
Other languages
Japanese (ja)
Inventor
飯島 友邦
Tomokuni Iijima
友邦 飯島
是永 継博
Tsuguhiro Korenaga
継博 是永
今村 典広
Norihiro Imamura
典広 今村
善光 野口
Yoshimitsu Noguchi
善光 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014072186A priority Critical patent/JP2015194884A/en
Publication of JP2015194884A publication Critical patent/JP2015194884A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a driver monitoring system capable of improving the accuracy in face direction detection.SOLUTION: A driver monitoring system 100 includes: a camera 6 that generates plural image signals including optical information representing different optical characteristics; and a signal processing circuit 20 that recognizes feature points of a driver's face based on at least one image signal in plural image signals and determines whether or not the driver is inattentive driving or drowsy driving based on the feature points of the face.

Description

本願は、運転者を監視する運転者監視システムに関する。   The present application relates to a driver monitoring system for monitoring a driver.

近年、車内に搭載されたカメラを用いて運転者を撮影し、撮影画像を解析することによって、運転者の顔向きを検出し、運転者が脇見や居眠り運転を行っていないかを監視する運転者監視システムが提案されている。   In recent years, driving a camera that uses a camera mounted in the vehicle to detect the driver's face by analyzing the captured image and monitoring whether the driver is looking aside or snoozing A person monitoring system has been proposed.

特許文献1に開示された運転者監視システムでは、車内のダッシュボード上の左右の離れた位置に配置された2台のカメラを用いて、運転者を左右から撮影する。2台のカメラから得られた撮影画像から顔部品の特徴点の位置を推定し、推定した位置に基づいて顔向きを検出する。顔部品の特徴点とは、例えば眉毛、目および口である。この運転者監視システムによれば、単眼カメラと比べて、精度よく顔向きを検出することができる。   In the driver monitoring system disclosed in Patent Document 1, the driver is photographed from the left and right using two cameras arranged at left and right positions on the dashboard in the vehicle. The position of the feature point of the face part is estimated from the captured images obtained from the two cameras, and the face orientation is detected based on the estimated position. The feature points of the facial parts are, for example, eyebrows, eyes, and mouth. According to this driver monitoring system, the face orientation can be detected with higher accuracy than a monocular camera.

特許文献2に開示された運転者監視システムでは、複数のレンズの基線方向が垂直方向(鉛直方向)と一致した複眼カメラを用いて運転者を撮影する。撮影画像から顔部品の特徴点の3次元位置を視差量に基づいて検出し、運転者の顔向きを推定する。この運転者監視システムによれば、3次元情報に基づいて十分な精度で顔向きを検出することができる。   In the driver monitoring system disclosed in Patent Document 2, a driver is photographed using a compound eye camera in which the baseline directions of a plurality of lenses coincide with the vertical direction (vertical direction). A three-dimensional position of the feature point of the facial part is detected from the captured image based on the amount of parallax, and the driver's face orientation is estimated. According to this driver monitoring system, the face orientation can be detected with sufficient accuracy based on the three-dimensional information.

特開2007−257333号公報JP 2007-257333 A 特許第49897625号Japanese Patent No. 49987625

上述した従来の技術では、顔向き検出の精度のさらなる向上が求められていた。本願の、限定的ではない例示的なある実施形態は、顔向き検出の精度を向上させることが可能な運転者監視システムを提供する。   In the conventional technology described above, further improvement in the accuracy of face orientation detection has been demanded. One non-limiting exemplary embodiment of the present application provides a driver monitoring system that can improve the accuracy of face orientation detection.

上記課題を解決するために、本発明の一態様は、レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記各光学領域に対応した前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する撮像装置であって、前記各光学領域を通過した光の情報を有し、前記各撮像領域から取得される複数の画像信号を出力する撮像装置と、前記複数の画像信号の少なくとも1つの画像信号に基づいて運転者の顔の特徴点を認識する顔認識部と、前記顔の特徴点に基づいて前記運転者が脇見または居眠りをしているか否かを判定する脇見・居眠り判定部とを含む信号処理回路とを備えた、運転者監視システムを含む。   In order to solve the above-described problem, an embodiment of the present invention includes a lens, a lens optical system including at least two optical regions having different optical characteristics, and at least two imagings into which light transmitted through the lens optical system is incident. An image sensor having a region, and the at least two images corresponding to the optical regions, which are disposed between the lens optical system and the image sensor and pass through the optical regions of the at least two optical regions. An imaging apparatus having an arrayed optical element that is incident on each imaging region, and has information on light that has passed through each optical region, and outputs a plurality of image signals acquired from each imaging region An imaging device, a face recognition unit that recognizes a feature point of a driver's face based on at least one image signal of the plurality of image signals, and the driver based on the feature point of the face And a signal processing circuit including a look or inattentive-dozing determination unit determines whether or not dozing, including driver monitoring system.

上述の一般的かつ特定の態様は、方法およびコンピュータプログラムを用いて実装され、または方法およびコンピュータプログラムの組み合わせを用いて実現され得る。   The general and specific aspects described above may be implemented using methods and computer programs, or may be realized using a combination of methods and computer programs.

本発明の一態様にかかる運転者監視システムによれば、単一のカメラを用いて、より精度よく顔向きを検出することができる。   According to the driver monitoring system concerning one mode of the present invention, a face direction can be detected more accurately using a single camera.

実施の形態1による運転者監視システム100のブロック構成図である。1 is a block configuration diagram of a driver monitoring system 100 according to Embodiment 1. FIG. カメラユニット10が車内に搭載される様子を示す模式図である。It is a schematic diagram which shows a mode that the camera unit 10 is mounted in a vehicle. カメラユニット10を運転者2からみた場合の正面図である。FIG. 3 is a front view of the camera unit 10 as viewed from the driver 2. カメラ6の構成例を示す模式図である。2 is a schematic diagram illustrating a configuration example of a camera 6. FIG. 実施の形態1による光学素子L2を被写体側から見た正面図である。FIG. 3 is a front view of the optical element L2 according to Embodiment 1 as viewed from the subject side. (a)は、実施の形態1による光学領域D1、D2、D3およびD4の光学特性を説明するための図であり、(b)は、実施の形態1の変形例による光学領域D1、D2、D3およびD4の光学特性を説明するための図である。(A) is a figure for demonstrating the optical characteristic of optical region D1, D2, D3, and D4 by Embodiment 1, (b) is optical region D1, D2, by the modification of Embodiment 1, and FIG. It is a figure for demonstrating the optical characteristic of D3 and D4. 実施の形態1によるアレイ状光学素子Kの斜視図である。1 is a perspective view of an arrayed optical element K according to Embodiment 1. FIG. (a)は、実施の形態1による、アレイ状光学素子Kと撮像素子Nとを拡大して示す図であり、(b)は、アレイ状光学素子Kと撮像素子N上の画素との位置関係を示す図である。(A) is an enlarged view showing an arrayed optical element K and an image sensor N according to Embodiment 1, and (b) is a position of the arrayed optical element K and a pixel on the image sensor N. It is a figure which shows a relationship. 人間の顔の模式図である。It is a schematic diagram of a human face. 実施の形態1の変形例による運転者監視システム100Aのブロック構成図である。It is a block block diagram of driver | operator monitoring system 100A by the modification of Embodiment 1. FIG. 実施の形態1の変形例によるカメラユニット10を運転者からみた場合の正面図である。It is a front view at the time of seeing the camera unit 10 by the modification of Embodiment 1 from a driver | operator. 実施の形態2による運転者監視システム200のブロック構成図である。It is a block block diagram of the driver | operator monitoring system 200 by Embodiment 2. FIG. (a)は、実施の形態2による光学領域D1、D2、D3およびD4の光学特性を説明するための図であり、(b)は、実施の形態2の変形例による光学領域D1、D2、D3およびD4の光学特性を説明するための図である。(A) is a figure for demonstrating the optical characteristic of optical region D1, D2, D3, and D4 by Embodiment 2, (b) is optical region D1, D2, by the modification of Embodiment 2, and FIG. It is a figure for demonstrating the optical characteristic of D3 and D4. 実施の形態3による運転者監視システム300のブロック構成図である。FIG. 10 is a block configuration diagram of a driver monitoring system 300 according to a third embodiment. 実施の形態3による光学素子L2を被写体側から見た正面図である。It is the front view which looked at the optical element L2 by Embodiment 3 from the to-be-photographed object side. (a)は、実施の形態3による光学領域D1およびD2の光学特性を説明するための図であり、(b)は、実施の形態3の変形例による光学領域D1、D2、D3およびD4の光学特性説明するための図である。(A) is a figure for demonstrating the optical characteristic of the optical area | regions D1 and D2 by Embodiment 3, (b) is the optical area | region D1, D2, D3, and D4 by the modification of Embodiment 3. FIG. It is a figure for demonstrating an optical characteristic. 実施の形態3によるアレイ状光学素子Kの斜視図である。10 is a perspective view of an arrayed optical element K according to Embodiment 3. FIG. (a)は、実施の形態3による、アレイ状光学素子Kおよび撮像素子Nを拡大して示す図であり、(b)は、アレイ状光学素子Kと撮像素子N上の画素との位置関係を示す図である。(A) is a figure which expands and shows the array-like optical element K and the image pick-up element N by Embodiment 3, (b) is the positional relationship of the array-like optical element K and the pixel on the image pick-up element N FIG. 実施の形態3の変形例による運転者監視システム300Aのブロック構成図である。FIG. 10 is a block configuration diagram of a driver monitoring system 300A according to a modification of the third embodiment. 実施の形態4による運転者監視システム400のブロック構成図である。FIG. 10 is a block configuration diagram of a driver monitoring system 400 according to a fourth embodiment. 実施の形態4による光学領域D1、D2、D3およびD4の光学特性を説明するための図である。It is a figure for demonstrating the optical characteristic of optical area | region D1, D2, D3, and D4 by Embodiment 4. FIG. 実施の形態4の変形例による運転者監視システム400Aのブロック構成図である。FIG. 10 is a block configuration diagram of a driver monitoring system 400A according to a modification of the fourth embodiment. 実施の形態1による運転者監視システム100の動作を示すフローチャートである。3 is a flowchart showing an operation of the driver monitoring system 100 according to the first embodiment. 実施の形態2による被写体までの距離と鮮鋭度(画像のシャープさ)の関係の例を示すグラフである。6 is a graph showing an example of a relationship between a distance to a subject and a sharpness (sharpness of an image) according to the second embodiment.

本願発明者は、従来の運転者監視システムの構成を詳細に検討し、以下に示すような問題を見出した。   The inventor of the present application has examined the configuration of the conventional driver monitoring system in detail and found the following problems.

車内に搭載されたカメラ(以下、「撮像装置」と称する場合がある。)を用いて運転者を撮影しているときに、横からの強い日の光(横日)が車内に差し込むと、横日の反射により、撮影画像の片側半分が飽和してしまうことがある。その場合、撮影画像を解析しても、運転者の顔認識を正しく行うことはできない。そのため、運転者の顔向きを精度よく検出することが困難となる。また、トンネルの出口や逆光下など急激に明るさが変化する環境においても同様の問題が生じる。従来の運転者監視システムは、撮影環境に対して高いロバスト性を有しているとは言い難い。   When shooting a driver using a camera mounted in the vehicle (hereinafter sometimes referred to as an “imaging device”), if strong sunlight from the side (horizontal day) is inserted into the vehicle, Due to the reflection of the horizontal sun, one half of the captured image may be saturated. In that case, even if the captured image is analyzed, the driver's face cannot be recognized correctly. This makes it difficult to accurately detect the driver's face orientation. Similar problems also occur in environments where the brightness changes rapidly, such as at the exit of a tunnel or under backlight. It is difficult to say that the conventional driver monitoring system has high robustness with respect to the shooting environment.

特許文献1および2の運転者監視システムでは、運転者とカメラとの距離は、ステレオビジョンの原理を用いて求まるので、2台のカメラ(複眼カメラを含む)が必要となる。したがって、カメラを搭載するカメラユニットを小型化にするという観点では、運転者監視システムの構成は十分とは言えない。また、運転者が眼鏡を装着している場合、補助光が眼鏡で反射するので、顔部品の1つである目が位置する画像領域に白飛びが発生し、目の動きを検出できなくなる。   In the driver monitoring systems of Patent Documents 1 and 2, since the distance between the driver and the camera is obtained using the principle of stereo vision, two cameras (including a compound eye camera) are required. Accordingly, the configuration of the driver monitoring system is not sufficient from the viewpoint of downsizing the camera unit on which the camera is mounted. Further, when the driver wears spectacles, the auxiliary light is reflected by the spectacles. Therefore, whiteout occurs in the image area where the eye, which is one of the facial parts, is located, and the movement of the eyes cannot be detected.

可視光から得られるカラー画像を解析することにより、運転者の顔色の変化を検出して、心拍数を検知する技術が知られている。心拍数を検知することに加えて、例えば、近赤外光から得られる画像を解析して運転者の顔向きが検出される。その場合、カラー画像用のカメラと近赤外光用のカメラとが必要になり、運転者監視システムの規模が増大してしまう。   A technique for detecting a heart rate by detecting a change in a driver's face color by analyzing a color image obtained from visible light is known. In addition to detecting the heart rate, for example, the driver's face orientation is detected by analyzing an image obtained from near-infrared light. In this case, a color image camera and a near-infrared light camera are required, and the scale of the driver monitoring system increases.

このような従来技術の課題に鑑み、本願発明者は、新規な構成を有する運転者監視システムに想到した。本発明の一態様の概要は以下のとおりである。   In view of such problems of the prior art, the present inventors have come up with a driver monitoring system having a novel configuration. The outline of one embodiment of the present invention is as follows.

本発明の一態様である運転者監視システムは、レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記各光学領域に対応した前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する撮像装置であって、前記各光学領域を通過した光の情報を有し、前記各撮像領域から取得される複数の画像信号を出力する撮像装置と、前記複数の画像信号の少なくとも1つの画像信号に基づいて運転者の顔の特徴点を認識する顔認識部と、前記顔の特徴点に基づいて前記運転者が脇見または居眠りをしているか否かを判定する脇見・居眠り判定部とを含む信号処理回路とを備える。   A driver monitoring system according to one aspect of the present invention includes a lens, a lens optical system including at least two optical regions having different optical characteristics, and at least two imaging regions into which light transmitted through the lens optical system is incident. An image sensor having the optical system disposed between the lens optical system and the image sensor, and having passed through the optical regions of the at least two optical regions, the light of the at least two image regions corresponding to the optical regions. An imaging apparatus having an arrayed optical element incident on each imaging area, the imaging apparatus having information on light that has passed through each optical area and outputting a plurality of image signals acquired from each imaging area A face recognition unit for recognizing a feature point of the driver's face based on at least one image signal of the plurality of image signals; Or a signal processing circuit including a determining inattentive-dozing determination section whether or not the dozing.

ある態様において、近赤外光を照射する補助照明をさらに備え、前記信号処理回路は、前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、前記運転者の顔向きを判定する顔向き判定部とをさらに含み、前記少なくとも2つの光学領域は、第1の透過率特性を有する第1の光学領域、前記第1の透過率特性とは異なる第2の透過率特性を有する第2の光学領域、前記第1および第2の透過率特性とは異なる第3の透過率特性を有する第3の光学領域、ならびに前記第1、第2および第3の透過率特性とは異なる第4の透過率特性を有する第4の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号、前記第2の撮像領域から取得された第2の画像信号、前記第3の撮像領域から取得された第3の画像信号、および前記第4の撮像領域から取得された第4の画像信号を合成して前記合成画像信号を生成し、前記顔認識部は、前記合成画像信号に基づいて前記運転者の顔の特徴点を認識し、前記顔向き判定部は、前記顔の特徴点に基づいて前記運転者の顔向きを判定し、前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定してもよい。   In one aspect, the apparatus further includes auxiliary illumination that irradiates near-infrared light, and the signal processing circuit synthesizes the plurality of image signals to generate a composite image signal; and the driver's face orientation. And a face orientation determination unit for determining, wherein the at least two optical regions have a first optical region having a first transmittance characteristic, and a second transmittance characteristic different from the first transmittance characteristic. The second optical region having, the third optical region having a third transmittance characteristic different from the first and second transmittance characteristics, and the first, second, and third transmittance characteristics A fourth optical region having a different fourth transmittance characteristic, wherein the at least two imaging regions are a first imaging region corresponding to the first optical region, and a second optical region corresponding to the second optical region. 2 imaging areas, corresponding to the third optical area A third imaging region, and a fourth imaging region corresponding to the fourth optical region, wherein the image composition unit includes a first image signal acquired from the first imaging region, the second imaging region, The second image signal acquired from the imaging region, the third image signal acquired from the third imaging region, and the fourth image signal acquired from the fourth imaging region are combined to generate the combination. An image signal is generated, the face recognition unit recognizes a feature point of the driver's face based on the composite image signal, and the face orientation determination unit determines the driver's face feature point based on the face feature point. The face orientation may be determined, and the armpit / slumber determination unit may determine whether the driver is looking aside according to the determination result of the driver's face orientation.

ある態様において、近赤外光を照射する補助照明をさらに備え、前記信号処理回路は、前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、前記運転者までの距離を演算する距離演算部と、前記運転者の顔向きを判定する顔向き判定部とをさらに含み、前記少なくとも2つの光学領域は、第1の透過率特性を有する第1および第3の光学領域と、前記第1の透過率特性とは異なる第2の透過率特性を有する第2および第4の光学領域とを含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号および前記第2の撮像領域から取得された第2の画像信号を合成して第1の合成画像信号を生成し、前記第3の撮像領域から取得された第3の画像信号および前記第4の撮像領域から取得された第4の画像信号を合成して第2の合成画像信号を生成し、前記距離演算部は、前記第1および第2の合成画像信号に基づいて前記運転者までの距離を演算し、前記顔認識部は、前記第1の合成画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識し、前記顔向き判定部は、前記3次元特徴点に基づいて前記運転者の顔向きを判定し、前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定してもよい。   In one aspect, the apparatus further includes auxiliary illumination that irradiates near-infrared light, and the signal processing circuit synthesizes the plurality of image signals to generate a composite image signal, and a distance to the driver. A distance calculating unit for calculating; and a face direction determining unit for determining the face direction of the driver, wherein the at least two optical regions include first and third optical regions having a first transmittance characteristic. , Second and fourth optical regions having a second transmittance characteristic different from the first transmittance characteristic, wherein the at least two imaging regions correspond to the first optical region. An imaging region, a second imaging region corresponding to the second optical region, a third imaging region corresponding to the third optical region, and a fourth imaging region corresponding to the fourth optical region. The image synthesizing unit includes the first imaging unit; The first image signal acquired from the area and the second image signal acquired from the second imaging area are combined to generate a first composite image signal, and acquired from the third imaging area The third image signal and the fourth image signal acquired from the fourth imaging region are combined to generate a second combined image signal, and the distance calculation unit is configured to output the first and second combined images. A distance to the driver is calculated based on the signal, and the face recognition unit recognizes a three-dimensional feature point of the driver's face based on the first composite image signal and the distance to the driver. The face orientation determination unit determines the driver's face orientation based on the three-dimensional feature points, and the driver's look-aside / slumber determination unit determines whether the driver is in accordance with the determination result of the driver's face orientation. You may determine whether you are looking aside.

ある態様において、近赤外光を照射する補助照明をさらに備え、前記信号処理回路は、前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、前記運転者までの距離を演算する距離演算部と、前記運転者の顔向きを判定する顔向き判定部とをさらに含み、前記少なくとも2つの光学領域は、第1の合焦特性を有する第1の光学領域、前記第1の合焦特性とは異なる第2の合焦特性を有する第2の光学領域、前記第1および第2の合焦特性とは異なる第3の合焦特性を有する第3の光学領域、ならびに前記第1、第2および第3の合焦特性とは異なる第4の合焦特性を有する第4の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号、前記第2の撮像領域から取得された第2の画像信号、前記第3の撮像領域から取得された第3の画像信号、および前記第4の撮像領域から取得された第4の画像信号を合成して前記合成画像信号を生成し、前記距離演算部は、前記第1、第2、第3および第4の画像信号に基づいて、前記運転者までの距離を演算し、前記顔認識部は、前記合成画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識し、前記顔向き判定部は、前記3次元特徴点に基づいて前記運転者の顔向きを判定し、前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定してもよい。   In one aspect, the apparatus further includes auxiliary illumination that irradiates near-infrared light, and the signal processing circuit synthesizes the plurality of image signals to generate a composite image signal, and a distance to the driver. It further includes a distance calculating unit for calculating, and a face direction determining unit for determining the driver's face direction, wherein the at least two optical regions are a first optical region having a first focusing characteristic, and the first A second optical region having a second focusing characteristic different from the focusing characteristic of the second optical region, a third optical region having a third focusing characteristic different from the first and second focusing characteristics, and the A fourth optical region having a fourth focusing characteristic different from the first, second and third focusing characteristics, wherein the at least two imaging regions correspond to the first optical region; Imaging region, a second imaging region corresponding to the second optical region , A third imaging region corresponding to the third optical region, and a fourth imaging region corresponding to the fourth optical region, wherein the image composition unit is acquired from the first imaging region A first image signal, a second image signal acquired from the second imaging region, a third image signal acquired from the third imaging region, and a first image signal acquired from the fourth imaging region. 4 to generate the composite image signal, and the distance calculation unit calculates a distance to the driver based on the first, second, third, and fourth image signals. The face recognizing unit recognizes a three-dimensional feature point of the driver's face based on the composite image signal and the distance to the driver, and the face orientation determining unit is based on the three-dimensional feature point. The driver's face orientation is determined, and the armpit / slumber determining unit The driver in accordance with a person of the face orientation determination result may determine whether the driver is looking aside.

ある態様において、近赤外光を照射する補助照明をさらに備え、前記信号処理回路は、前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、前記運転者までの距離を演算する距離演算部と前記運転者の顔向きを判定する顔向き判定部とをさらに含み、前記少なくとも2つの光学領域は、第1の透過率特性および第1の合焦特性を有する第1の光学領域、前記第1の透過率特性とは異なる第2の透過率特性および前記第1の合焦特性を有する第2の光学領域、前記第1の透過率特性および前記第1の合焦特性とは異なる第2の合焦特性を有する第3の光学領域、ならびに前記第2の透過率特性および前記第2の合焦特性を有する第4の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号および前記第2の撮像領域から取得された第2の画像信号を合成して第1の合成画像信号を生成し、前記第3の撮像領域から取得された第3の画像信号および前記第4の撮像領域から取得された第4の画像信号を合成して第2の合成画像信号を生成し、前記第1および第2の合成画像を合成して第3の合成画像信号をさらに生成し、前記距離演算部は、前記第1および第2の合成画像信号に基づいて前記運転者までの距離を演算し、前記顔認識部は、前記第3の合成画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識し、前記顔向き判定部は、前記3次元特徴点に基づいて前記運転者の顔向きを判定し、前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定してもよい。   In one aspect, the apparatus further includes auxiliary illumination that irradiates near-infrared light, and the signal processing circuit synthesizes the plurality of image signals to generate a composite image signal, and a distance to the driver. A distance calculating unit for calculating and a face direction determining unit for determining the face direction of the driver, wherein the at least two optical regions have a first transmittance characteristic and a first focusing characteristic; An optical region, a second transmittance region different from the first transmittance property, and a second optical region having the first focusing property, the first transmittance property, and the first focusing property. A third optical region having a second focusing characteristic different from the first optical region, and a fourth optical region having the second transmittance characteristic and the second focusing characteristic, wherein the at least two imaging areas are , First corresponding to the first optical region An image area, a second imaging area corresponding to the second optical area, a third imaging area corresponding to the third optical area, and a fourth imaging area corresponding to the fourth optical area The image synthesizing unit synthesizes the first image signal acquired from the first imaging area and the second image signal acquired from the second imaging area to generate a first synthesized image signal. And combining the third image signal acquired from the third imaging region and the fourth image signal acquired from the fourth imaging region to generate a second combined image signal, and And a second composite image to generate a third composite image signal, and the distance calculation unit calculates a distance to the driver based on the first and second composite image signals, The face recognizing unit detects the third composite image signal and the driver. Recognizing a three-dimensional feature point of the driver's face based on the separation, the face direction determining unit determining the driver's face direction based on the three-dimensional feature point, and Depending on the determination result of the driver's face orientation, it may be determined whether or not the driver is looking aside.

本発明の他の一態様である運転者監視システムは、レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する第1および第2の撮像装置であって、前記各光学領域を通過した光の情報を有し、前記各撮像領域から得られる複数の画像信号を出力する第1および第2の撮像装置と、近赤外光を照射する補助照明と、前記第1の撮像装置から出力される前記複数の画像信号を合成して第1の合成画像信号を生成する第1の画像合成部と、前記第2の撮像装置から出力される前記複数の画像信号を合成して第2の合成画像信号を生成する第2の画像合成部と、前記第1および第2の合成画像信号から得られる視差量を用いて運転者までの距離を演算する距離演算部と、前記第1の合成画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識する3次元顔認識部と、前記3次元特徴点に基づいて前記運転者の顔向きを判定する顔向き判定部と、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する脇見判定部とを含む信号処理回路とを備え、前記少なくとも2つの光学領域は、第1の透過率特性を有する第1の光学領域、前記第1の透過率特性とは異なる第2の透過率特性を有する第2の光学領域、前記第1および第2の透過率特性とは異なる第3の透過率特性を有する第3の光学領域、ならびに前記第1、第2および第3の透過率特性とは異なる第4の透過率特性を有する第4の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、前記第1の画像合成部は、前記第1の撮像領域から取得された第1の画像信号、前記第2の撮像領域から取得された第2の画像信号、前記第3の撮像領域から取得された第3の画像信号、および前記第4の撮像領域から取得された第4の画像信号を合成して前記第1の合成画像を生成し、前記第2の画像合成部は、前記第1の撮像領域から取得された第1の画像信号、前記第2の撮像領域から取得された第2の画像信号、前記第3の撮像領域から取得された第3の画像信号、および前記第4の撮像領域から取得された第4の画像信号を合成して前記第2の合成画像を生成する。   A driver monitoring system according to another aspect of the present invention includes a lens, a lens optical system including at least two optical regions having different optical characteristics, and at least two imagings into which light transmitted through the lens optical system is incident. An image sensor having a region, and disposed between the lens optical system and the image sensor, light that has passed through each optical region of the at least two optical regions is incident on each image region of the at least two image regions. First and second imaging devices each having an arrayed optical element to be output, the first imaging device having information on light that has passed through each optical region, and outputting a plurality of image signals obtained from the respective imaging regions A first imaging device that generates a first composite image signal by combining the second imaging device, auxiliary illumination that irradiates near infrared light, and the plurality of image signals output from the first imaging device. An image synthesizing unit; a second image synthesizing unit that generates a second synthesized image signal by synthesizing the plurality of image signals output from the second imaging device; and the first and second synthesized images. A distance calculation unit that calculates a distance to the driver using a parallax amount obtained from the signal, and a three-dimensional feature point of the driver's face based on the first composite image signal and the distance to the driver. A three-dimensional face recognition unit for recognizing, a face direction determining unit for determining the driver's face direction based on the three-dimensional feature points, and the driver looking aside according to the determination result of the driver's face direction And a signal processing circuit including an aside look determination unit for determining whether or not the first optical region has a first transmittance characteristic, and the first transmittance characteristic has at least two optical regions. A second optical region having a second transmittance characteristic different from A third optical region having a third transmittance characteristic different from the first and second transmittance characteristics, and a fourth transmittance characteristic different from the first, second and third transmittance characteristics And the at least two imaging areas include a first imaging area corresponding to the first optical area, a second imaging area corresponding to the second optical area, and the second imaging area. A third imaging region corresponding to the third optical region and a fourth imaging region corresponding to the fourth optical region, wherein the first image composition unit is acquired from the first imaging region. A first image signal, a second image signal acquired from the second imaging region, a third image signal acquired from the third imaging region, and a first image signal acquired from the fourth imaging region. 4 image signals are combined to generate the first composite image, and the second The image synthesis unit includes a first image signal acquired from the first imaging area, a second image signal acquired from the second imaging area, and a third image acquired from the third imaging area. The second synthesized image is generated by synthesizing the image signal and the fourth image signal acquired from the fourth imaging region.

ある態様において、前記運転者までの距離に基づいて前記運転者の姿勢を検知する姿勢検知部と、前記姿勢検知部の検知結果に基づき、エアバックを展開するか否かを判定し、前記エアバックの展開および展開速度を制御するエアバック展開制御部とをさらに備えていてもよい。   In one aspect, an attitude detection unit that detects the attitude of the driver based on a distance to the driver, and whether to deploy an airbag based on a detection result of the attitude detection unit, An airbag deployment control unit that controls the deployment and deployment speed of the bag may be further provided.

ある態様において、第1の偏光軸の方向に振動する近赤外光を照射する補助照明をさらに備え、前記信号処理回路は、前記複数の画像信号の中から1つを選択する画像選択部と、前記運転者の目の開口度を検出する目開度検出部とをさらに含み、前記少なくとも2つの光学領域は、前記第1の偏光軸の方向に振動する光を透過させる第1の偏光特性を有する第1の光学領域および前記第1の偏光軸の方向と垂直な第2の偏光軸の方向に振動する光を透過させる第2の偏光特性を有する第2の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域および前記第2の光学領域に対応した第2の撮像領域を含み、前記画像選択部は、前記第1の撮像領域から取得された第1の画像信号から構成される第1の画像中の画素の飽和度合と、前記第2の撮像領域から取得された第2の画像信号から構成される第2の画像中の画素の飽和度合とを比較することによって、前記第1の画像信号および前記第2の画像信号からいずれか1つを選択し、前記顔認識部は、選択された画像信号に基づいて前記運転者の顔の特徴点を認識し、前記目開度検出部は、前記顔の特徴点に基づいて前記運転者の目の開口度を検出し、前記脇見・居眠り判定部は、前記目の開口度の検出結果に応じて前記運転者が居眠りをしているか否かを判定してもよい。   In one aspect, the apparatus further includes auxiliary illumination that irradiates near-infrared light that vibrates in the direction of the first polarization axis, and the signal processing circuit includes an image selection unit that selects one of the plurality of image signals; And an eye opening detector that detects an opening degree of the driver's eyes, wherein the at least two optical regions transmit a light that vibrates in the direction of the first polarization axis. And a second optical region having a second polarization characteristic that transmits light oscillating in a direction of a second polarization axis perpendicular to the direction of the first polarization axis, The two imaging regions include a first imaging region corresponding to the first optical region and a second imaging region corresponding to the second optical region, and the image selection unit includes the first imaging region. The first image signal obtained from the first image signal By comparing the degree of saturation of the pixels in the second image with the degree of saturation of the pixels in the second image composed of the second image signal acquired from the second imaging region. One of the image signal and the second image signal is selected, and the face recognition unit recognizes a feature point of the driver's face based on the selected image signal, and the eye opening degree detection unit Detects the degree of opening of the driver's eyes based on the feature points of the face, and the armpit / dozing determination unit determines whether the driver is dozing according to the detection result of the degree of opening of the eyes It may be determined whether or not.

ある態様において、第1の偏光軸の方向に振動する光を照射する補助照明をさらに備え、前記信号処理回路は、前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、前記複数の画像信号の中から1つを選択する画像選択部と、前記運転者の目の開口度を検出する目開度検出部とをさらに含み、前記少なくとも2つの光学領域は、前記第1の偏光軸の方向に振動する光を透過させる第1の偏光特性および第1の透過率特性を有する第1の光学領域、前記第1の偏光特性および前記第1の透過率特性とは異なる第2の透過率特性を有する第2の光学領域、前記第1の偏光軸の方向と垂直な第2の偏光軸の方向に振動する光を透過させる第2の偏光特性および前記第1の透過率特性を有する第3の光学領域、および前記第2の偏光特性および前記第2の透過率特性を有する第4の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号および前記第2の撮像領域から取得された第2の画像信号を合成して第1の合成画像信号を生成し、前記第3の撮像領域から取得された第3の画像信号および前記第4の撮像領域から取得された第4の画像信号を合成して第2の合成画像信号を生成し、前記画像選択部は、前記第1の合成画像信号から構成される第1の画像中の画素の飽和度合と、前記第2の合成画像信号から構成される第2の画像中の画素の飽和度合とを比較することによって、前記第1の合成画像信号および前記第2の合成画像信号からいずれか1つを選択し、前記顔認識部は、選択された合成画像信号に基づいて前記運転者の顔の特徴点を認識し、前記目開度検出部は、前記顔の特徴点に基づいて前記運転者の目の開口度を検出し、前記脇見・居眠り判定部は、前記目の開口度の検出結果に応じて前記運転者が居眠りをしているか否かを判定してもよい。   In one aspect, the apparatus further includes auxiliary illumination that irradiates light that vibrates in the direction of the first polarization axis, and the signal processing circuit combines the plurality of image signals to generate a combined image signal; and An image selecting unit that selects one of the plurality of image signals; and an eye opening degree detecting unit that detects an opening degree of the driver's eyes, wherein the at least two optical regions include the first optical region. A first optical region having a first polarization characteristic and a first transmittance characteristic that transmits light oscillating in the direction of the polarization axis, and a first optical characteristic different from the first polarization characteristic and the first transmittance characteristic. A second optical region having a transmittance characteristic of 2, a second polarization characteristic that transmits light oscillating in a direction of a second polarization axis perpendicular to the direction of the first polarization axis, and the first transmittance A third optical region having characteristics, and the second polarization And a fourth optical region having the second transmittance characteristic, wherein the at least two imaging regions correspond to a first imaging region corresponding to the first optical region and a second optical region. A second imaging region, a third imaging region corresponding to the third optical region, and a fourth imaging region corresponding to the fourth optical region, wherein the image composition unit includes the first imaging region The first image signal acquired from the imaging region and the second image signal acquired from the second imaging region are combined to generate a first composite image signal, which is acquired from the third imaging region. The third image signal and the fourth image signal acquired from the fourth imaging region are combined to generate a second combined image signal, and the image selection unit is configured to generate the second combined image signal from the first combined image signal. The degree of saturation of the pixels in the constructed first image, and the second Selecting one of the first composite image signal and the second composite image signal by comparing the degree of saturation of the pixels in the second image composed of the composite image signal, and the face The recognition unit recognizes the feature point of the driver's face based on the selected composite image signal, and the eye opening degree detection unit calculates the opening degree of the driver's eye based on the feature point of the face. Then, the armpit / dozing determination unit may determine whether or not the driver is dozing according to the detection result of the opening degree of the eyes.

本発明の他の一態様である運転者監視システムは、レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する第1および第2の撮像装置であって、前記各光学領域を通過した光の情報を示し、前記各撮像領域から得られる複数の画像信号を出力する第1および第2の撮像装置と、第1の偏光軸の方向に振動する近赤外光を照射する補助照明と、前記第1の撮像装置から出力される前記複数の画像信号から第1の選択画像信号を選択する第1の画像選択部と、前記第2の撮像装置から出力された前記複数の画像信号から第2の選択画像信号を選択する第2の画像選択部と、前記第1および第2の選択画像信号から得られる視差量を用いて運転者までの距離を演算する距離演算部と、前記第1の選択画像信に基づいて前記運転者の顔の2次元特徴点を認識する顔認識部と、前記2次元特徴点に基づいて前記運転者の目の開口度を検出する目開度検出部と、前記目の開口度の検出結果に応じて、前記運転者が居眠りをしているか否かを判定する居眠り判定部と、前記第1の選択画像信および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識する3次元顔認識部と、前記顔の3次元特徴点に基づいて前記運転者の顔向きを判定する顔向き判定部と、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する脇見判定部とを含む信号処理回路とを備え、前記少なくとも2つの光学領域は、前記第1の偏光軸の方向に振動する光を透過させる第1の偏光特性を有する第1の光学領域および前記第1の偏光軸の方向と垂直な第2の偏光軸の方向に振動する光を透過させる第2の偏光特性を有する第2の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域および前記第2の光学領域に対応した第2の撮像領域を含み、前記第1の画像選択部は、前記第1の撮像領域から取得された第1の画像信号から構成される第1の画像中の画素の飽和度合と、前記第2の撮像領域から取得された第2の画像信号から構成される第2の画像中の画素の飽和度合とを比較することによって、前記第1の画像信号および前記第2の画像信号のいずれか1つを前記第1の選択画像信号として選択し、前記第2の画像選択部は、前記第1の撮像領域から取得された第1の画像信号から構成される第1の画像中の画素の飽和度合と、前記第2の撮像領域から取得された第2の画像信号から構成される第2の画像中の画素の飽和度合とを比較することによって、前記第1の画像信号および前記第2の画像信号のいずれか1つを前記第2の選択画像信号として選択する。   A driver monitoring system according to another aspect of the present invention includes a lens, a lens optical system including at least two optical regions having different optical characteristics, and at least two imagings into which light transmitted through the lens optical system is incident. An image sensor having a region, and disposed between the lens optical system and the image sensor, light that has passed through each optical region of the at least two optical regions is incident on each image region of the at least two image regions. First and second imaging devices each having an arrayed optical element to be operated, the first and second imaging devices showing information of light that has passed through each of the optical regions, and outputting a plurality of image signals obtained from the imaging regions A first selection from the second imaging device, auxiliary illumination that irradiates near infrared light that vibrates in the direction of the first polarization axis, and the plurality of image signals output from the first imaging device A first image selection unit that selects an image signal; a second image selection unit that selects a second selection image signal from the plurality of image signals output from the second imaging device; A distance calculator that calculates the distance to the driver using the amount of parallax obtained from the second selected image signal, and recognizes a two-dimensional feature point of the driver's face based on the first selected image signal A face recognition unit; an eye opening detection unit that detects an opening degree of the driver's eyes based on the two-dimensional feature points; and the driver doeszes according to the detection result of the eye opening degree. A doze determination unit that determines whether or not the vehicle is a three-dimensional face recognition unit that recognizes a three-dimensional feature point of the driver's face based on the first selected image signal and the distance to the driver; Face orientation determination for determining the driver's face orientation based on a three-dimensional feature point of the face And a signal processing circuit including a side-by-side determination unit that determines whether or not the driver is looking aside according to a determination result of the driver's face orientation, and the at least two optical regions are A first optical region having a first polarization characteristic that transmits light oscillating in the direction of the first polarization axis and light oscillating in the direction of a second polarization axis perpendicular to the direction of the first polarization axis; A second optical region having a second polarization characteristic to be transmitted, wherein the at least two imaging regions are a first imaging region corresponding to the first optical region and a second optical region corresponding to the second optical region. The first image selection unit includes a saturation level of pixels in the first image configured from the first image signal acquired from the first imaging region, and the second image selection unit. A second image signal acquired from the imaging region Comparing one of the first image signal and the second image signal as the first selected image signal by comparing the degree of saturation of the pixels in the second image, The image selection unit includes a saturation degree of pixels in the first image configured from the first image signal acquired from the first imaging area, and a second image acquired from the second imaging area. Selecting one of the first image signal and the second image signal as the second selected image signal by comparing the degree of saturation of the pixels in the second image composed of the signals To do.

ある態様において、前記運転者までの距離に基づいて前記運転者の姿勢を検知する姿勢検知部と、前記姿勢検知部の検知結果に基づき、エアバックを展開するか否かを判定し、前記エアバックの展開および展開速度を制御するエアバック展開制御部とをさらに備えていてもよい。   In one aspect, an attitude detection unit that detects the attitude of the driver based on a distance to the driver, and whether to deploy an airbag based on a detection result of the attitude detection unit, An airbag deployment control unit that controls the deployment and deployment speed of the bag may be further provided.

ある態様において、前記補助照明を点灯させた後、前記画素の飽和度合に応じて前記補助照明を消灯させる補助照明制御部をさらに備えていてもよい。   In a certain aspect, after turning on the auxiliary illumination, an auxiliary illumination control unit that turns off the auxiliary illumination according to the degree of saturation of the pixel may be further provided.

ある態様において、近赤外光を照射する補助照明をさらに備え、前記信号処理回路は、前記運転者の顔向きを判定する顔向き判定部と、前記運転者の顔色の変化から心拍数を推定する心拍数推定部と、推定された心拍数に基づいて前記運転者の体調を判定する体調判定部とをさらに含み、前記少なくとも2つの光学領域は、前記近赤外光を透過させる第1の分光特性を有する第1の光学領域、可視光帯域における赤色の光を透過させる第2の分光特性を有する第2の光学領域、可視光帯域における緑色の光を透過させる第3の分光特性を有する第3の光学領域、および可視光帯域における青色の光を透過させる第4の分光特性を有する第4の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、前記顔認識部は、前記第1の撮像領域から取得された第1の画像信号に基づいて前記運転者の顔の特徴点を認識する第1の顔認識部と、前記第2、第3および第4の撮像領域からそれぞれ取得された第2、第3および第4の画像信号の少なくとも1つに基づいて前記運転者の顔の特徴点を認識する第2の顔認識部とを含み、前記顔向き判定部は、前記第1の顔認識部によって認識された特徴点に基づいて前記運転者の顔向きを判定し、前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定し、前記心拍数推定部は、前記第2の顔認識部によって認識された顔の特徴点に着目して前記運転者の顔色の変化を検出し、心拍数を推定してもよい。   A certain aspect WHEREIN: The auxiliary | assistant illumination which irradiates a near-infrared light is further provided, and the said signal processing circuit estimates the heart rate from the face direction determination part which determines the said driver's face direction, and the said driver | operator's face color change And a physical condition determining unit that determines the physical condition of the driver based on the estimated heart rate, wherein the at least two optical regions transmit the near-infrared light. A first optical region having a spectral characteristic; a second optical region having a second spectral characteristic that transmits red light in the visible light band; and a third spectral characteristic that transmits green light in the visible light band. A third optical region and a fourth optical region having a fourth spectral characteristic that transmits blue light in the visible light band, and the at least two imaging regions correspond to the first optical region. 1 imaging area A second imaging area corresponding to the second optical area, a third imaging area corresponding to the third optical area, and a fourth imaging area corresponding to the fourth optical area, and the face The recognition unit includes a first face recognition unit that recognizes feature points of the driver's face based on a first image signal acquired from the first imaging region, and the second, third, and fourth. A second face recognition unit that recognizes feature points of the driver's face based on at least one of the second, third, and fourth image signals respectively acquired from the imaging regions of The determination unit determines the driver's face orientation based on the feature points recognized by the first face recognition unit, and the aside look / slumber determination unit determines whether the driver's face orientation is determined. It is determined whether the driver is looking aside, and the heart rate estimation unit Face by focusing on feature points of the recognized face by the recognition unit detects the change in the complexion of the driver may estimate the heart rate.

本発明の他の一態様である運転者監視システムは、レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する第1および第2の撮像装置であって、前記各光学領域を通過した光の情報を示し、前記各撮像領域から得られる複数の画像信号を出力する第1および第2の撮像装置と、近赤外光を照射する補助照明と、視差量を用いて運転者までの距離を演算する距離演算部と、前記運転者の顔の2次元特徴点を認識する第1の顔認識部と、前記運転者の顔の3次元特徴点を認識する第2の顔認識部と、前記顔の特徴点に基づいて前記運転者の顔向きを判定する顔向き判定部と、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する脇見判定部と、前記運転者の顔色の変化から心拍数を推定する心拍数推定部と、推定された心拍数に基づいて前記運転者の体調を判定する体調判定部とを含む信号処理回路とを備え、前記少なくとも2つの光学領域は、前記近赤外光を透過させる第1の分光特性を有する第1の光学領域、可視光帯域における赤色の光を透過させる第2の分光特性を有する第2の光学領域、可視光帯域における緑色の光を透過させる第3の分光特性を有する第3の光学領域、および可視光帯域における青色の光を透過させる第4の分光特性を有する第4の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、前記距離演算部は、前記第1および第2の撮像装置の前記第1の撮像領域からそれぞれ取得された第1の画像信号から得られる視差量を用いて前記運転者までの距離を演算し、前記第1の顔認識部は、前記第1の撮像装置の前記第2、第3および第4の撮像領域からそれぞれ取得された第2、第3および第4の画像信号の少なくとも1つに基づいて前記運転者の顔の2次元特徴点を認識し、前記第2の顔認識部は、前記第1の撮像装置の前記第1の撮像領域から取得された第1の画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識し、前記顔向き判定部は、前記3次元特徴点に基づいて前記運転者の顔向きを判定し、前記脇見判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定し、前記心拍数推定部は、前記顔の2次元特徴点に着目して前記運転者の顔色の変化を検出し、心拍数を推定する。   A driver monitoring system according to another aspect of the present invention includes a lens, a lens optical system including at least two optical regions having different optical characteristics, and at least two imagings into which light transmitted through the lens optical system is incident. An image sensor having a region, and disposed between the lens optical system and the image sensor, light that has passed through each optical region of the at least two optical regions is incident on each image region of the at least two image regions. First and second imaging devices each having an arrayed optical element to be operated, the first and second imaging devices showing information of light that has passed through each of the optical regions, and outputting a plurality of image signals obtained from the imaging regions Recognizing a two-dimensional feature point of the driver's face, a second imaging device, auxiliary illumination for irradiating near-infrared light, a distance calculator for calculating the distance to the driver using the amount of parallax A face recognition unit, a second face recognition unit that recognizes a three-dimensional feature point of the driver's face, and a face direction determination unit that determines the driver's face direction based on the face feature point; A side look determination unit that determines whether or not the driver is looking aside according to a determination result of the driver's face orientation; and a heart rate estimation unit that estimates a heart rate from a change in the driver's face color; A signal processing circuit including a physical condition determination unit that determines the physical condition of the driver based on the estimated heart rate, wherein the at least two optical regions transmit the near infrared light. A first optical region having a characteristic, a second optical region having a second spectral characteristic that transmits red light in the visible light band, and a third spectral characteristic that transmits green light in the visible light band. 3 optical region and blue light in visible light band A fourth optical region having a fourth spectral characteristic, and the at least two imaging regions are a first imaging region corresponding to the first optical region and a second corresponding to the second optical region. An imaging region, a third imaging region corresponding to the third optical region, and a fourth imaging region corresponding to the fourth optical region, and the distance calculation unit includes the first and second A distance to the driver is calculated using a parallax amount obtained from a first image signal respectively acquired from the first imaging region of the imaging device, and the first face recognition unit Recognizing a two-dimensional feature point of the driver's face based on at least one of the second, third, and fourth image signals acquired from the second, third, and fourth imaging regions of the imaging device, respectively. And the second face recognition unit includes the first imaging device. Recognizing a three-dimensional feature point of the driver's face based on the first image signal acquired from the first imaging region and the distance to the driver, the face orientation determination unit is configured to detect the three-dimensional feature point. The driver's face orientation is determined based on the driver's face orientation, and the driver determines whether the driver is looking aside according to the driver's face orientation determination result. The unit focuses on the two-dimensional feature points of the face, detects a change in the driver's face color, and estimates a heart rate.

ある態様において、前記運転者までの距離に基づいて前記運転者の姿勢を検知する姿勢検知部と、前記姿勢検知部の検知結果に基づき、エアバックを展開するか否かを判定し、前記エアバックの展開および展開速度を制御するエアバック展開制御部とをさらに備えていてもよい。   In one aspect, an attitude detection unit that detects the attitude of the driver based on a distance to the driver, and whether to deploy an airbag based on a detection result of the attitude detection unit, An airbag deployment control unit that controls the deployment and deployment speed of the bag may be further provided.

ある態様において、前記脇見・居眠り判定部の判定結果に応じて、前記運転者に警告を発する警告装置をさらに備えていてもよい。   A certain aspect WHEREIN: You may further provide the warning device which issues a warning to the said driver according to the determination result of the said looking-aside / slumber determination part.

本発明の他の一態様である方法は、レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記各光学領域に対応した前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する撮像装置から出力される複数の画像信号であって、前記各光学領域を通過した光の情報を有し、前記各撮像領域から取得される複数の画像信号の少なくとも1つを解析することによって、運転者が脇見および/または居眠りをしているか否かを監視する運転者監視方法であって、前記複数の画像信号の少なくとも1つの画像信号に基づいて前記運転者の顔の特徴点を認識するステップと、前記顔の特徴点に基づいて前記運転者が脇見または居眠りをしているか否かを判定するステップとを包含する。   A method according to another aspect of the present invention includes a lens, a lens optical system including at least two optical regions having different optical characteristics, and at least two imaging regions on which light transmitted through the lens optical system is incident. Light that is disposed between the imaging element, the lens optical system, and the imaging element and that has passed through each optical area of the at least two optical areas is each of the at least two imaging areas corresponding to the optical areas. A plurality of image signals output from an imaging device having an arrayed optical element to be incident on the imaging region, the plurality of image signals having information of light that has passed through each of the optical regions, and acquired from each of the imaging regions A driver monitoring method for monitoring whether a driver is looking aside and / or dozing by analyzing at least one of image signals, the plurality of images Recognizing a feature point of the driver's face based on at least one image signal of the number, and determining whether the driver is looking aside or falling asleep based on the feature point of the face; Is included.

本発明の他の一態様であるコンピュータプログラムは、レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記各光学領域に対応した前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する撮像装置から出力される複数の画像信号であって、前記各光学領域を通過した光の情報を有し、前記各撮像領域から取得される複数の画像信号の少なくとも1つを解析することによって、運転者が脇見および/または居眠りをしているか否かを監視する運転者監視システムにおいて用いられるコンピュータプログラムであって、前記運転者監視システムのコンピュータに、前記複数の画像信号の少なくとも1つの画像信号に基づいて前記運転者の顔の特徴点を認識するステップと、前記顔の特徴点に基づいて前記運転者が脇見または居眠りをしているか否かを判定するステップとを実行させる。   A computer program according to another aspect of the present invention includes a lens, a lens optical system including at least two optical regions having different optical characteristics, and at least two imaging regions into which light transmitted through the lens optical system is incident. An image sensor having the optical system disposed between the lens optical system and the image sensor, and having passed through the optical regions of the at least two optical regions, the light of the at least two image regions corresponding to the optical regions. A plurality of image signals output from an imaging device having an arrayed optical element to be incident on each imaging region, the plurality of image signals having information on light that has passed through each optical region, and acquired from each imaging region A driver monitoring system that monitors whether the driver is looking aside and / or dozing by analyzing at least one of the image signals of A step of recognizing a feature point of the driver's face based on at least one image signal of the plurality of image signals to a computer of the driver monitoring system; and And determining whether the driver is looking aside or snoozing based on points.

上記態様による運転者監視システムによれば、光学領域の光学特性を様々に設定することにより、単一の撮像装置を用いて、例えば、ハイダミックレンジ(以降、「HDR」と称する。)の撮影、単眼測距、光の偏光特性を利用した撮影、光の分光特性を利用した撮影を行うことが可能になる。これらの撮影によって得られた画像情報を解析することにより、運転者が脇見または居眠りをしているかを精度よく判定することができる。   According to the driver monitoring system according to the above aspect, by setting various optical characteristics of the optical region, for example, shooting in a dynamic range (hereinafter referred to as “HDR”) using a single imaging device. In addition, it is possible to perform monocular distance measurement, shooting using light polarization characteristics, and shooting using light spectral characteristics. By analyzing the image information obtained by such photographing, it can be accurately determined whether the driver is looking aside or snoozing.

以下、図面を参照しながら、本発明による運転者監視システムの実施形態を説明する。   Hereinafter, an embodiment of a driver monitoring system according to the present invention will be described with reference to the drawings.

(実施の形態1)
まず、図1〜3を参照して、本実施の形態による運転者監視システム100の構成および機能を説明する。
(Embodiment 1)
First, with reference to FIGS. 1-3, the structure and function of the driver | operator monitoring system 100 by this Embodiment are demonstrated.

図1は、本実施の形態による運転者監視システム100のブロック構成図を示す。運転者監視システム100は、カメラユニット10と、信号処理回路20と、コントローラ30と、警告装置40とを備えている。なお、警告装置40は、運転者監視システム100の構成要素でなくてもよく、運転者監視システム100に接続される外部機器であってもよい。本願明細書では、警告装置40は、運転者監視システム100の構成要素であるものとして説明する。   FIG. 1 shows a block configuration diagram of a driver monitoring system 100 according to the present embodiment. The driver monitoring system 100 includes a camera unit 10, a signal processing circuit 20, a controller 30, and a warning device 40. Note that the warning device 40 may not be a component of the driver monitoring system 100, and may be an external device connected to the driver monitoring system 100. In this specification, the warning device 40 will be described as being a component of the driver monitoring system 100.

カメラユニット10は、運転者に向けて補助照明光として近赤外光を照射する。カメラ6は、運転者の像を検出し、互いに異なる光の透過率特性を示す光の情報を有する複数の画像信号を生成する。   The camera unit 10 emits near-infrared light as auxiliary illumination light toward the driver. The camera 6 detects an image of the driver and generates a plurality of image signals having light information indicating different light transmittance characteristics.

信号処理回路20は、複数の画像信号を合成してHDRの合成画像信号を生成し、HDRの合成画像信号に基づいて運転者が脇見をしているか否かを判定する。   The signal processing circuit 20 combines a plurality of image signals to generate an HDR composite image signal, and determines whether the driver is looking aside based on the HDR composite image signal.

警告装置40は、信号処理回路20が、運転者が脇見をしていると判定した場合、脇見運転をしていることを運転者に警告する。   When the signal processing circuit 20 determines that the driver is looking aside, the warning device 40 warns the driver that the driver is looking aside.

コントローラ30は、運転者監視システム100全体を制御する。コントローラ30は、半導体素子などにより構成される。コントローラ30は、典型的にはマイクロコンピュータによって実現される。コントローラ30は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。   The controller 30 controls the entire driver monitoring system 100. The controller 30 is configured by a semiconductor element or the like. The controller 30 is typically realized by a microcomputer. The controller 30 may be configured only by hardware, or may be realized by combining hardware and software.

図2は、カメラユニット10が自動車4内に搭載される様子を示す模式図である。例えば、カメラユニット10は、車内のステアリングコラム5の上に配置される。カメラユニト10は、ステアリングホイール3を通して正面から見上げるように、運転者2を撮影する。なお、カメラユニット10は、ステアリングコラム5の上に配置されていなくてもよく、運転者2の顔を撮影できるあらゆる場所に配置され得る。例えば、カメラユニット10は、フロントガラスの上部、またはダッシュボードの上部に配置されていてもよい。   FIG. 2 is a schematic diagram illustrating how the camera unit 10 is mounted in the automobile 4. For example, the camera unit 10 is disposed on the steering column 5 in the vehicle. The camera unit 10 photographs the driver 2 so as to look up from the front through the steering wheel 3. Note that the camera unit 10 may not be disposed on the steering column 5 and may be disposed at any place where the face of the driver 2 can be photographed. For example, the camera unit 10 may be disposed on an upper part of a windshield or an upper part of a dashboard.

信号処理回路20およびコントローラ30は、カメラユニット10内に設けられていてもよいし、例えば、信号処理回路20は、車内のカーナビゲーションシステム(不図示)の装置内に設けられていてもよい。この場合、カメラユニット10とカーナビゲーションシステムとの間で、有線または無線の通信が双方向で行われる。または、信号処理回路20の機能がスマートフォン(不図示)に実装されており、カメラユニット10とスマートフォンとの間で、有線または無線の通信が双方向で行われ得る。スマートフォンは警告装置として機能し、スマートフォンの画面上に警告が表示されてもよい。   The signal processing circuit 20 and the controller 30 may be provided in the camera unit 10. For example, the signal processing circuit 20 may be provided in an in-car navigation system (not shown). In this case, wired or wireless communication is performed bidirectionally between the camera unit 10 and the car navigation system. Alternatively, the function of the signal processing circuit 20 is implemented in a smartphone (not shown), and wired or wireless communication can be performed bidirectionally between the camera unit 10 and the smartphone. The smartphone may function as a warning device, and a warning may be displayed on the smartphone screen.

図3は、カメラユニット10を運転者2からみた場合の正面図である。カメラユニット10は、カメラ6および補助照明7を含む。補助照明7は、運転手に向けて近赤外光を補助光をして照射する。補助照明7は、例えばLED(Light Emitting Diode)から構成される。図3には、運転手を均一に照射する観点から、カメラ6を基準にして4つのLEDを左右対称に2つずつ配置する例を示している。   FIG. 3 is a front view when the camera unit 10 is viewed from the driver 2. The camera unit 10 includes a camera 6 and auxiliary lighting 7. The auxiliary illumination 7 emits near-infrared light as auxiliary light toward the driver. The auxiliary illumination 7 is composed of, for example, an LED (Light Emitting Diode). FIG. 3 shows an example in which four LEDs are arranged two by two symmetrically with respect to the camera 6 from the viewpoint of uniformly irradiating the driver.

図4〜8を参照して、カメラ6の構成の一例を説明する。本発明の実施形態によるカメラ6の構成は、以下で例示するものに限られない。   An example of the configuration of the camera 6 will be described with reference to FIGS. The configuration of the camera 6 according to the embodiment of the present invention is not limited to that exemplified below.

図4は、カメラ6の構成例を示す模式図である。カメラ6は、Vを光軸とするレンズ光学系Lと、レンズ光学系Lの焦点近傍に配置されたアレイ状光学素子Kと、撮像素子Nとを備える。   FIG. 4 is a schematic diagram illustrating a configuration example of the camera 6. The camera 6 includes a lens optical system L having V as an optical axis, an array-like optical element K disposed near the focal point of the lens optical system L, and an image sensor N.

撮像素子Nは、例えばCMOSセンサやCCDセンサである。   The image sensor N is, for example, a CMOS sensor or a CCD sensor.

レンズ光学系Lは、レンズL1、絞りSおよび光学素子L2を含む。被写体(不図示)から入射した光束Bの光線方向は、レンズL1により屈曲され、絞りSで不要な光線が排除される。レンズL1は、一枚のレンズで構成されていてもよいし、複数枚のレンズ(レンズ群)で構成されていてもよい。光学素子L2は、絞りS近傍に配置される。なお、絞りSは、光学素子L2の被写体側ではなく、光学素子L2の撮像素子N側に配置されてもよい。また、レンズ光学系Lが複数枚のレンズで構成される場合、レンズとレンズの間に絞りSが配置されてもよい。   The lens optical system L includes a lens L1, a diaphragm S, and an optical element L2. The direction of the light beam B incident from a subject (not shown) is bent by the lens L1, and the diaphragm S eliminates unnecessary light beams. The lens L1 may be composed of a single lens or a plurality of lenses (lens group). The optical element L2 is disposed in the vicinity of the stop S. The diaphragm S may be disposed not on the subject side of the optical element L2 but on the image pickup element N side of the optical element L2. Further, when the lens optical system L is composed of a plurality of lenses, a diaphragm S may be disposed between the lenses.

図5は、光学素子L2を被写体側から見た正面図である。光学領域D1、D2、D3、およびD4は、光軸Vに垂直な平面を、光軸Vと交わる直線l1、l2によって4つに分割した領域である。直線l1と直線l2とは、光軸Vに垂直な平面において、互いに垂直に交わっている。原則として、光学領域D1、D2、D3およびD4は、等しい面積を有している。また、破線sは、絞りSの位置を示している。ただし、光学領域D1、D2、D3およびD4は異なる面積を有していてもよい。   FIG. 5 is a front view of the optical element L2 as viewed from the subject side. The optical regions D1, D2, D3, and D4 are regions obtained by dividing a plane perpendicular to the optical axis V into four by straight lines l1 and l2 that intersect the optical axis V. The straight line l1 and the straight line l2 intersect each other perpendicularly on a plane perpendicular to the optical axis V. In principle, the optical areas D1, D2, D3 and D4 have equal areas. A broken line s indicates the position of the diaphragm S. However, the optical regions D1, D2, D3, and D4 may have different areas.

図6(a)は、光学領域D1、D2、D3およびD4の光学特性を示し、図6(b)は、本実施の形態の変形例による光学領域D1、D2、D3およびD4の光学特性を示している。本実施の形態のカメラ6のレンズ光学系Lは、図6(a)に示す光の透過率特性を有する複数の光学領域を含んでいる。図6(a)に示すように、光学領域D1、D2、D3およびD4において、光の透過率は、それぞれ、100%、25%、6.25%、および1.5625%である。すなわち、光学領域D1、D2、D3およびD4の透過率の比は、64:16:4:1であり、光学領域D1、D2、D3およびD4の透過率は、互いに異なっている。光学領域は、互いに光の透過率が異なるNDフィルタ(Neutral Density Filter)を配置することにより形成することがきる。   6A shows the optical characteristics of the optical regions D1, D2, D3, and D4, and FIG. 6B shows the optical properties of the optical regions D1, D2, D3, and D4 according to the modification of the present embodiment. Show. The lens optical system L of the camera 6 of the present embodiment includes a plurality of optical regions having the light transmittance characteristics shown in FIG. As shown in FIG. 6A, in the optical regions D1, D2, D3, and D4, the light transmittances are 100%, 25%, 6.25%, and 1.5625%, respectively. That is, the transmittance ratio of the optical regions D1, D2, D3, and D4 is 64: 16: 4: 1, and the transmittances of the optical regions D1, D2, D3, and D4 are different from each other. The optical region can be formed by arranging ND filters (Neutral Density Filters) having different light transmittances.

図7は、アレイ状光学素子Kの斜視図である。アレイ状光学素子Kにおける撮像素子N側の面には、光学要素M2が格子状に配置されている。それぞれの光学要素M2の断面(縦方向および横方向それぞれの断面)は曲面であり、それぞれの光学要素M2は、撮像素子N側に突出している。このように、光学要素M2はマイクロレンズであり、アレイ状光学素子Kは、マイクロレンズアレイとなっている。   FIG. 7 is a perspective view of the arrayed optical element K. FIG. On the surface of the arrayed optical element K on the imaging element N side, optical elements M2 are arranged in a grid pattern. Each optical element M2 has a curved cross section (vertical and horizontal cross sections), and each optical element M2 protrudes toward the image sensor N side. Thus, the optical element M2 is a microlens, and the arrayed optical element K is a microlens array.

図8(a)は、アレイ状光学素子Kと撮像素子Nとを拡大して示す図であり、図8(b)は、アレイ状光学素子Kと撮像素子N上の画素との位置関係を示す図である。アレイ状光学素子Kは、レンズ光学系Lの焦点近傍に配置されており、かつ撮像面Niから所定の距離だけ離れた位置に配置されている。また、アレイ状光学素子Kは、光学要素M2が形成された面が撮像面Ni側を向くように配置されている。   FIG. 8A is an enlarged view showing the arrayed optical element K and the image sensor N, and FIG. 8B shows the positional relationship between the arrayed optical element K and the pixels on the image sensor N. FIG. The arrayed optical element K is disposed in the vicinity of the focal point of the lens optical system L and is disposed at a position away from the imaging surface Ni by a predetermined distance. The arrayed optical element K is arranged so that the surface on which the optical element M2 is formed faces the imaging surface Ni side.

撮像面Niには、画素Pが行列状に配置されている。画素Pは、画素P1、P2、P3およびP4に区別できる。画素P1、P2、P3およびP4は、それぞれ、光学領域D1、D2、D3およびD4を通過した光の大部分が入射する画素である。図8(b)において、画素P1A、P1B、・・・は、画素P1に分類され、第1の撮像領域C1を形成する。画素P2A、P2B、・・・は、画素P2に分類され、第2の撮像領域C2を形成する。画素P3A、P3B、・・・は、画素P3に分類され、第3の撮像領域C3を形成する。画素P4A、P4B、・・・は、画素P4に分類され、第4の撮像領域C4を形成する。   Pixels P are arranged in a matrix on the imaging surface Ni. Pixel P can be distinguished into pixels P1, P2, P3 and P4. Pixels P1, P2, P3, and P4 are pixels on which most of the light that has passed through the optical regions D1, D2, D3, and D4 is incident. In FIG. 8B, the pixels P1A, P1B,... Are classified as the pixel P1 and form the first imaging region C1. Pixels P2A, P2B,... Are classified as pixel P2 and form a second imaging region C2. Pixels P3A, P3B,... Are classified as pixels P3 and form a third imaging region C3. Pixels P4A, P4B,... Are classified as pixel P4, and form a fourth imaging region C4.

アレイ状光学素子Kは、光学領域D1を通過した光を、光学領域D1に対応した第1の撮像領域C1内の画素に入射させ、光学領域D2を通過した光を、光学領域D2に対応した第2の撮像領域C2内の画素に入射させ、光学領域D3を通過した光を、光学領域D3に対応した第3の撮像領域C3内の画素に入射させ、光学領域D4を通過した光を、光学領域D4に対応した第4の撮像領域C4内の画素に入射させる。   The arrayed optical element K causes the light passing through the optical region D1 to enter the pixels in the first imaging region C1 corresponding to the optical region D1, and the light passing through the optical region D2 corresponds to the optical region D2. The light that has entered the pixels in the second imaging region C2 and passed through the optical region D3 is incident on the pixels in the third imaging region C3 corresponding to the optical region D3, and the light that has passed through the optical region D4 is The light is incident on the pixels in the fourth imaging region C4 corresponding to the optical region D4.

撮像面Niには、単位領域M2Iが、縦方向(列方向)および横方向に、複数配置されている。それぞれの単位領域M2Iには、2行2列の画素P1〜P4から構成される4つの画素が設けられている。撮像面Niにおける1つの単位領域M2Iは、アレイ状光学素子Kにおける1つの光学要素M2に対応している。撮像面Ni上には、画素P1、P2、P3およびP4の表面を覆うようにマイクロレンズMsが設けられている。   On the imaging surface Ni, a plurality of unit regions M2I are arranged in the vertical direction (column direction) and the horizontal direction. Each unit region M2I is provided with four pixels composed of pixels P1 to P4 in two rows and two columns. One unit region M2I on the imaging surface Ni corresponds to one optical element M2 in the arrayed optical element K. On the imaging surface Ni, a microlens Ms is provided so as to cover the surfaces of the pixels P1, P2, P3, and P4.

単位領域M2I内に配置される画素(例えば画素P1A、P2A、P3A、P4A)には、被写体における同じ部分からの光が入射する。   Light from the same part of the subject is incident on the pixels (for example, pixels P1A, P2A, P3A, and P4A) arranged in the unit region M2I.

撮像素子Nは、撮像領域C1に入射した光の量に応じて第1の画像信号I1を生成し、第2の撮像領域C2に入射した光の量に応じて第2の画像信号I2を生成し、撮像領域C3に入射した光の量に応じて第3の画像信号I3を生成し、撮像領域C4に入射した光の量に応じて第4の画像信号I4を生成する。   The imaging element N generates a first image signal I1 according to the amount of light incident on the imaging region C1, and generates a second image signal I2 according to the amount of light incident on the second imaging region C2. Then, the third image signal I3 is generated according to the amount of light incident on the imaging region C3, and the fourth image signal I4 is generated according to the amount of light incident on the imaging region C4.

カメラユニット10は、撮像領域C1、C2、C3およびC4に対応した第1の画像信号I1、第2の画像信号I2、第3の画像信号I3および第4の画像信号I4をそれぞれ出力する。   The camera unit 10 outputs a first image signal I1, a second image signal I2, a third image signal I3, and a fourth image signal I4 corresponding to the imaging regions C1, C2, C3, and C4, respectively.

なお、光学領域を4分割にする例を示したが、光学領域は、2分割、3分割または5分割以上にされていてもよい。光学領域の構造は、設計仕様等を考慮して適宜決定することができる。   In addition, although the example which divides | segments an optical region into 4 was shown, the optical region may be divided into 2 divisions, 3 divisions, or 5 divisions or more. The structure of the optical region can be appropriately determined in consideration of design specifications and the like.

再び、図1を参照しながら、信号処理回路20の詳細を説明する。   Again, the details of the signal processing circuit 20 will be described with reference to FIG.

信号処理回路20は、画像合成部21と、顔認識部22と、顔向き判定部23と、脇見判定部24とを有する。   The signal processing circuit 20 includes an image composition unit 21, a face recognition unit 22, a face orientation determination unit 23, and an aside look determination unit 24.

信号処理回路20は、半導体素子などにより構成される。信号処理回路20は、典型的にはイメージシグナルプロセッサ(ISP)によって実現され得る。信号処理回路20は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。   The signal processing circuit 20 is configured by a semiconductor element or the like. The signal processing circuit 20 can typically be realized by an image signal processor (ISP). The signal processing circuit 20 may be configured only by hardware, or may be realized by combining hardware and software.

なお、本実施の形態では、信号処理回路20とコントローラ30とは、それぞれ独立した回路として、運転者監視システム100内に実装される例を示すが、本発明はこれに限定されない。例えば、信号処理回路20およびコントローラ30の機能が、1チップの集積回路に実装されていても構わない。例えば、この集積回路は、汎用のプロセッサによって実現され得る。プロセッサ内部のメモリに、各構成要素の機能を発揮するコンピュータプログラムが実装されており、プロセッサが逐次コンピュータプログラムを実行することにより、各構成要素の機能が実現されてもよい。   In the present embodiment, an example is shown in which the signal processing circuit 20 and the controller 30 are implemented in the driver monitoring system 100 as independent circuits, but the present invention is not limited to this. For example, the functions of the signal processing circuit 20 and the controller 30 may be mounted on a one-chip integrated circuit. For example, the integrated circuit can be realized by a general-purpose processor. A computer program that exhibits the function of each component may be mounted in the memory inside the processor, and the function of each component may be realized by the processor executing the computer program sequentially.

信号処理回路20は、撮像素子Nから出力された、第1の画像信号I1、第2の画像信号I2、第3の画像信号I3および第4の画像信号I4の合成画像信号I5に基づいて、運転者の顔向きを検出し、運転者が脇見をしているか否かを判定する。信号処理回路20は、運転者が脇見をしているか否かの判定結果を、後段の警告装置40に出力する。   The signal processing circuit 20 is based on the composite image signal I5 of the first image signal I1, the second image signal I2, the third image signal I3, and the fourth image signal I4 output from the image sensor N. The direction of the driver's face is detected, and it is determined whether or not the driver is looking aside. The signal processing circuit 20 outputs a determination result as to whether or not the driver is looking aside to the warning device 40 at the subsequent stage.

画像合成部21は、第1の画像信号I1から第1の画像情報I1aを生成し、第2の画像信号I2から第2の画像情報I2aを生成し、第3の画像信号I3から第3の画像情報I3aを生成し、第4の画像信号I4から第4の画像情報I4aを生成する。   The image composition unit 21 generates first image information I1a from the first image signal I1, generates second image information I2a from the second image signal I2, and generates third image information I3 from the third image signal I3. Image information I3a is generated, and fourth image information I4a is generated from the fourth image signal I4.

例えば、第1、第2、第3および第4の画像情報I1a、I2a、I3aおよびI4aとは、輝度値を示す画像情報である。カメラユニット10から出力される画像信号がRAWデータであるとき、画像合成部21は、RAWデータ(画像信号)を輝度信号(画像情報)に変換する。なお、カメラユニット10は、RAWデータに限らず、輝度信号や色差信号を出力しても構わない。この場合、信号処理回路20は、受信した輝度信号をそのまま処理すればよい。カメラユニット10から出力される画像信号は、輝度信号を含んでいてもよい。信号処理回路20は、カメラユニット10から出力される画像信号に基づいて画像解析を行ってもよいし、変換後の画像情報に基づいて画像解析を行ってもよい。本願明細書では、信号処理回路20は、変換後の画像情報に基づいて画像解析を行うものとして、各実施の形態による信号処理回路20を説明する。   For example, the first, second, third and fourth image information I1a, I2a, I3a and I4a are image information indicating luminance values. When the image signal output from the camera unit 10 is RAW data, the image composition unit 21 converts the RAW data (image signal) into a luminance signal (image information). The camera unit 10 may output a luminance signal or a color difference signal, not limited to RAW data. In this case, the signal processing circuit 20 may process the received luminance signal as it is. The image signal output from the camera unit 10 may include a luminance signal. The signal processing circuit 20 may perform image analysis based on the image signal output from the camera unit 10, or may perform image analysis based on the converted image information. In the present specification, the signal processing circuit 20 according to each embodiment will be described on the assumption that the signal processing circuit 20 performs image analysis based on the converted image information.

画像合成部21は、第1、第2、第3および第4の画像情報I1a、I2a、I3aおよびI4aを合成してHDRの合成画像情報I5aを生成する。HDRに関する公知の技術を広く用いることによって、画像情報の合成は実現される。第1、第2、第3および第4の画像情報I1a、I2a、I3aおよびI4aはそれぞれ、互いに光の透過率が異なる光学領域を通過した光の情報を有している。画像合成部21は、これらの画像情報を合成することにより、HDRの合成画像情報を生成する。これにより、白飛びや黒潰れが抑制された合成画像情報I5aが得られる。   The image composition unit 21 synthesizes the first, second, third, and fourth image information I1a, I2a, I3a, and I4a to generate HDR composite image information I5a. The composition of image information is realized by widely using known techniques relating to HDR. Each of the first, second, third, and fourth image information I1a, I2a, I3a, and I4a has information on light that has passed through optical regions having different light transmittances. The image composition unit 21 synthesizes these pieces of image information to generate HDR composite image information. Thereby, the composite image information I5a in which whiteout and blackout are suppressed is obtained.

顔認識部22は、合成画像情報I5aに基づいて運転者の顔の特徴点を認識する。図9は、人間の顔の模式図である。図9に示すように、運転者の顔の特徴点としては、例えば、眉65、66、目尻61、62および口元63、64が挙げられる。顔認識部22は、合成画像情報I5aを解析して合成画像情報I5aが示す画像中から顔の特徴点を抽出(認識)する。例えば、顔の特徴点の抽出には、公知のパターン認識の手法を用いることができるので、本願明細書では、顔の特徴点の抽出方法の詳細は割愛する。   The face recognition unit 22 recognizes feature points of the driver's face based on the composite image information I5a. FIG. 9 is a schematic diagram of a human face. As shown in FIG. 9, examples of the feature points of the driver's face include eyebrows 65 and 66, corners 61 and 62, and mouths 63 and 64. The face recognition unit 22 analyzes the composite image information I5a and extracts (recognizes) facial feature points from the image indicated by the composite image information I5a. For example, since a known pattern recognition method can be used for extracting facial feature points, details of the method for extracting facial feature points are omitted in this specification.

顔向き判定部23は、顔認識部22によって抽出された顔の特徴量を用いて運転者の顔向きを判定する。具体的には、顔向き判定部23は、顔の特徴量に基づいてパターンマッチング用のテンプレートを作成する。顔向き判定部23は、カメラ6から順次出力される画像に対して、運転者の顔向きを推定し、かつ、テンプレートを用いたテンプレートマッチングを実行することによって、顔追跡を行う。なお、運転者の顔向きの推定や、テンプレートマッチングについての詳細は、例えば、特許文献2に開示されている。   The face orientation determination unit 23 determines the driver's face orientation using the facial feature amount extracted by the face recognition unit 22. Specifically, the face orientation determination unit 23 creates a pattern matching template based on the facial feature amount. The face orientation determination unit 23 performs face tracking by estimating the driver's face orientation on images sequentially output from the camera 6 and executing template matching using a template. Note that details of estimation of the driver's face orientation and template matching are disclosed in Patent Document 2, for example.

顔向き判定部23は、運転者の顔向きの判定結果に応じて運転者が脇見をしているか否かを判定する。具体的には、顔向き判定部23は、顔向きの推定結果およびテンプレートマッチングにより得られた相関値に基づいて運転者の顔向きを判定する。顔向き判定部23は、顔向きの判定結果を後段の脇見判定部24に出力する。なお、上記の説明は一例であり、顔向きの検出には、公知の方法を広く用いることができる。   The face orientation determination unit 23 determines whether or not the driver is looking aside according to the determination result of the driver's face orientation. Specifically, the face orientation determination unit 23 determines the driver's face orientation based on the estimation result of the face orientation and the correlation value obtained by template matching. The face orientation determination unit 23 outputs the determination result of the face orientation to the aside look determination unit 24 in the subsequent stage. Note that the above description is an example, and a known method can be widely used for detecting the face orientation.

脇見判定部24は、顔向きの検出結果を受けて、所定時間において継続して顔向きが所定の範囲内であるときに、運転者が脇見をしていると判定する。「顔向き」とは、主として運転者の目線の向きを意味する。例えば、所定の範囲とは、目線の仰角および俯角がそれぞれ10度以上である範囲である。   The look-ahead determination unit 24 receives the detection result of the face direction, and determines that the driver is looking aside when the face direction is within a predetermined range continuously for a predetermined time. The “face orientation” mainly means the direction of the driver's eyes. For example, the predetermined range is a range in which the elevation angle and depression angle of the line of sight are each 10 degrees or more.

なお、本願明細書では、脇見判定部24と後述する居眠り判定部28とを総称して「脇見・居眠り判定部」と称する。   In the specification of the present application, the aside look determination unit 24 and the dozing determination unit 28 described later are collectively referred to as “aside look / slumber determination unit”.

警告装置40は、例えば、警告メッセージを表示するモニターおよび/または警告音を発するスピーカから構成され得る。警告装置40は、脇見判定部24の判定結果に応じて運転者に警告を発して、注意を促す。   The warning device 40 may be constituted by, for example, a monitor that displays a warning message and / or a speaker that emits a warning sound. The warning device 40 issues a warning to the driver according to the determination result of the look-ahead determination unit 24 to urge attention.

次に、図23を参照しながら、運転者監視システム100の動作を説明する。   Next, the operation of the driver monitoring system 100 will be described with reference to FIG.

図23は、運転者監視システム100の動作のフローチャートを示す。   FIG. 23 shows a flowchart of the operation of the driver monitoring system 100.

カメラユニット10は、撮像領域C1、C2、C3およびC4に対応した第1の画像信号I1、第2の画像信号I2、第3の画像信号I3および第4の画像信号I4をそれぞれ出力する(ステップS100)。   The camera unit 10 outputs the first image signal I1, the second image signal I2, the third image signal I3, and the fourth image signal I4 corresponding to the imaging regions C1, C2, C3, and C4, respectively (step). S100).

次に、画像合成部21は、第1の画像信号I1から第1の画像情報I1aを生成し、第2の画像信号I2から第2の画像情報I2aを生成し、第3の画像信号I3から第3の画像情報I3aを生成し、第4の画像信号I4から第4の画像情報I4aを生成する(ステップS101)。   Next, the image composition unit 21 generates first image information I1a from the first image signal I1, generates second image information I2a from the second image signal I2, and generates third image information I3 from the third image signal I3. The third image information I3a is generated, and the fourth image information I4a is generated from the fourth image signal I4 (step S101).

次に、画像合成部21は、第1、第2、第3および第4の画像情報I1a、I2a、I3aおよびI4aを合成してHDRの合成画像情報I5aを生成する(ステップS102)。   Next, the image composition unit 21 synthesizes the first, second, third, and fourth image information I1a, I2a, I3a, and I4a to generate HDR composite image information I5a (step S102).

次に、顔認識部22は、合成画像情報I5aに基づいて運転者の顔の特徴点を認識する(ステップS103)。   Next, the face recognition unit 22 recognizes feature points of the driver's face based on the composite image information I5a (step S103).

次に、顔向き判定部23は、顔認識部22によって認識された顔の特徴点に基づいて運転者の顔向きを判定する(ステップS104)。   Next, the face orientation determination unit 23 determines the driver's face orientation based on the facial feature points recognized by the face recognition unit 22 (step S104).

次に、脇見判定部24は、運転者の顔向きの判定結果に応じて運転者が脇見をしているか否かを判定する。脇見判定部24は、顔向きの検出結果を受けて、所定時間において継続して顔向きが所定の範囲内であるときに、運転者が脇見をしていると判定する(ステップS105)。   Next, the look-ahead determination unit 24 determines whether or not the driver is looking aside according to the determination result of the driver's face orientation. The look-ahead determination unit 24 receives the detection result of the face orientation, and determines that the driver is looking aside when the face orientation is within a predetermined range continuously for a predetermined time (step S105).

次に、脇見判定部24が、運転者が脇見運転をしていると判定した場合、警告装置40は、運転者に警告を発する(ステップS106)。一方で、脇見判定部24が、運転者が脇見運転をしていないと判定した場合、警告装置40は、運転者に警告を発しない(ステップS107)。   Next, when the look-ahead determination unit 24 determines that the driver is driving aside, the warning device 40 issues a warning to the driver (step S106). On the other hand, when the aside look determination unit 24 determines that the driver is not looking aside, the warning device 40 does not issue a warning to the driver (step S107).

本実施の形態によれば、単一の撮像装置を用いてHDRの撮影を行うことが可能になる。HDRの画像を用いた画像解析がなされるので、明るさが変化する環境下においても、高いロバスト性が確保され、運転者が脇見をしているかを精度よく判定することができる。   According to the present embodiment, HDR imaging can be performed using a single imaging device. Since image analysis using HDR images is performed, high robustness is ensured even in an environment where the brightness changes, and it can be accurately determined whether the driver is looking aside.

次に、図6(b)を参照しながら、本実施の形態の変形例を説明する。   Next, a modification of the present embodiment will be described with reference to FIG.

図6(b)は、光学領域D1、D2、D3およびD4での光の透過率をそれぞれ示している。本実施の形態の変形例では、光学領域D1〜D4の光透過率特性(フィルタ特性)が、上述した実施の形態の図6(a)に示すフィルタ特性とは異なる。また、本実施の形態の変形例による信号処理回路20は、運転者までの距離を演算する距離演算部(不図示)をさらに有している。   FIG. 6B shows light transmittances in the optical regions D1, D2, D3, and D4, respectively. In the modification of the present embodiment, the light transmittance characteristics (filter characteristics) of the optical regions D1 to D4 are different from the filter characteristics shown in FIG. 6A of the above-described embodiment. Further, the signal processing circuit 20 according to the modification of the present embodiment further includes a distance calculation unit (not shown) that calculates the distance to the driver.

図6(b)に示すように、光学領域D1、D2、D3およびD4において、光の透過率は、それぞれ、100%、6.25%、100%および6.25%である。すなわち、光学領域D1、D2、D3およびD4の透過率の比は、16:1:16:1である。   As shown in FIG. 6B, in the optical regions D1, D2, D3, and D4, the light transmittances are 100%, 6.25%, 100%, and 6.25%, respectively. That is, the transmittance ratio of the optical regions D1, D2, D3, and D4 is 16: 1: 16: 1.

画像合成部21は、第1の画像情報I1aと第2の画像情報I2aとを合成してHDRの第1の合成画像情報I5a1を生成し、第3の画像情報I3aと第4の画像情報I4aとを合成してHDRの第2の合成画像情報I5a2を生成する。   The image composition unit 21 synthesizes the first image information I1a and the second image information I2a to generate the HDR first composite image information I5a1, and the third image information I3a and the fourth image information I4a. Are combined to generate HDR second composite image information I5a2.

距離演算部は、第1の合成画像情報I5a1および第2の合成画像情報I5a2から得られる位相差(視差)に基づいて運転者までの距離を演算する。これは、デジタルカメラに用いられている、いわゆるAF(Auto Focus)の位相方式の原理に相当する。   The distance calculation unit calculates the distance to the driver based on the phase difference (parallax) obtained from the first composite image information I5a1 and the second composite image information I5a2. This corresponds to the principle of the so-called AF (Auto Focus) phase system used in digital cameras.

距離演算部は、第1の合成画像情報I5a1および第2の合成画像情報I5a2に基づいて運転者までの距離を演算する。   The distance calculation unit calculates the distance to the driver based on the first composite image information I5a1 and the second composite image information I5a2.

顔認識部22は、第1の合成画像情報I5a1および運転者までの距離情報に基づいて運転者の顔の3次元特徴点を認識する。   The face recognition unit 22 recognizes the three-dimensional feature point of the driver's face based on the first composite image information I5a1 and the distance information to the driver.

顔向き判定部23は、顔の3次元特徴点を用いて運転者の顔向きを判定する。   The face orientation determination unit 23 determines the driver's face orientation using the three-dimensional feature points of the face.

脇見判定部24は、運転者の顔向きの判定結果に応じて運転者が脇見をしているか否かを判定する。   The aside look determination unit 24 determines whether or not the driver is looking aside according to the determination result of the driver's face orientation.

本実施の形態の変形例によれば、上述したHDRの効果に加えて、単一の撮像装置を用いてステレオ撮影の効果を得ることができる。このように、顔の特徴点のみならず、運転者までの距離情報を含めて顔の3次元特徴点に基づく画像解析がなされるので、より精度よく顔向きを検出できる。この結果、運転者が脇見をしているか否かをより精度よく判定することができる。   According to the modification of the present embodiment, in addition to the above-described HDR effect, a stereo imaging effect can be obtained using a single imaging device. As described above, since the image analysis based on the three-dimensional feature point of the face including not only the feature point of the face but also the distance information to the driver is performed, the face direction can be detected with higher accuracy. As a result, it can be determined more accurately whether the driver is looking aside.

次に、図10および11を参照しながら、本実施の形態の他の変形例を説明する。   Next, another modification of the present embodiment will be described with reference to FIGS.

図10は、2台のカメラ6A、6Bを搭載した運転者監視システム100Aのブロック構成を示す。図11は、運転者監視システム100A内のカメラユニット10を運転者からみた場合の正面図である。   FIG. 10 shows a block configuration of a driver monitoring system 100A equipped with two cameras 6A and 6B. FIG. 11 is a front view of the camera unit 10 in the driver monitoring system 100A as viewed from the driver.

図10および11に示すように、カメラユニット10には2台のカメラ6A、6Bが配置されており、カメラユニット10は、複眼カメラとして機能する。なお、2台のカメラは、図示するような垂直方向に直交する方向(水平方向)に配置されていなくてもよく、垂直方向に配置されていてもよい。   As shown in FIGS. 10 and 11, two cameras 6A and 6B are arranged in the camera unit 10, and the camera unit 10 functions as a compound eye camera. Note that the two cameras do not have to be arranged in a direction (horizontal direction) perpendicular to the vertical direction as shown in the drawing, and may be arranged in the vertical direction.

運転者監視システム100Aは、カメラユニット10と、信号処理回路20と、コントローラ30と、警告装置40とを備えている。また、運転者監視システム100Aは、オプションとして、姿勢検知部51と、エアバック展開制御部52とを備えていてもよい。   The driver monitoring system 100A includes a camera unit 10, a signal processing circuit 20, a controller 30, and a warning device 40. Further, the driver monitoring system 100A may optionally include an attitude detection unit 51 and an airbag deployment control unit 52.

カメラユニット10は、2台のカメラ6A、6Bと、補助照明7とを含む。カメラ6A、6Bは、図6(a)または(b)に示す光学特性を有する光学領域D1、D2、D3およびD4を含んでいる。カメラ6A、6Bの構造は、上述したカメラ6の構造と同じであるので、カメラユニット10によってHDRの撮影を行うことができる。   The camera unit 10 includes two cameras 6 </ b> A and 6 </ b> B and an auxiliary illumination 7. The cameras 6A and 6B include optical regions D1, D2, D3, and D4 having the optical characteristics shown in FIG. 6 (a) or (b). Since the structure of the cameras 6A and 6B is the same as the structure of the camera 6 described above, HDR shooting can be performed by the camera unit 10.

カメラユニット10は、カメラ6Aにおいて生成された第1の画像信号I1A、第2の画像信号I2A、第3の画像信号I3Aおよび第4の画像信号I4Aと、カメラ6Bにおいて生成された第1の画像信号I1B、第2の画像信号I2B、第3の画像信号I3Bおよび第4の画像信号I4Bとを出力する。   The camera unit 10 includes a first image signal I1A, a second image signal I2A, a third image signal I3A, a fourth image signal I4A generated by the camera 6A, and a first image generated by the camera 6B. A signal I1B, a second image signal I2B, a third image signal I3B, and a fourth image signal I4B are output.

信号処理回路20は、第1の画像合成部21Aと、第2の画像合成部21Bと、顔モデル生成部22Aと、顔向き判定部23と、脇見判定部24と、距離演算部25とを有する。   The signal processing circuit 20 includes a first image synthesis unit 21A, a second image synthesis unit 21B, a face model generation unit 22A, a face orientation determination unit 23, an armpit determination unit 24, and a distance calculation unit 25. Have.

第1の画像合成部21Aは、第1の画像信号I1Aから第1の画像情報I1aを生成し、第2の画像信号I2Aから第2の画像情報I2aを生成し、第3の画像信号I3Aから第3の画像情報I3aを生成し、第4の画像信号I4Aから第4の画像情報I4aを生成する。   The first image composition unit 21A generates first image information I1a from the first image signal I1A, generates second image information I2a from the second image signal I2A, and generates third image information I3A from the third image signal I3A. Third image information I3a is generated, and fourth image information I4a is generated from the fourth image signal I4A.

第1の画像合成部21Aは、第1の画像情報I1a、第2の画像情報I2a、第3の画像情報I3aおよび第4の画像情報I4aを合成して第1の合成画像情報I5aを生成する。   The first image combining unit 21A combines the first image information I1a, the second image information I2a, the third image information I3a, and the fourth image information I4a to generate the first combined image information I5a. .

第2の画像合成部21Bは、第1の画像信号I1Bから第1の画像情報I1bを生成し、第2の画像信号I2Bから第2の画像情報I2bを生成し、第3の画像信号I3Bから第3の画像情報I3bを生成し、第4の画像信号I4Bから第4の画像情報I4bを生成する。   The second image composition unit 21B generates the first image information I1b from the first image signal I1B, generates the second image information I2b from the second image signal I2B, and generates the second image information I3B from the third image signal I3B. Third image information I3b is generated, and fourth image information I4b is generated from the fourth image signal I4B.

第2の画像合成部21Bは、第1の画像情報I1b、第2の画像情報I2b、第3の画像情報I3bおよび第4の画像情報I4bを合成して第2の合成画像情報I5bを生成する。   The second image composition unit 21B synthesizes the first image information I1b, the second image information I2b, the third image information I3b, and the fourth image information I4b to generate second composite image information I5b. .

距離演算部25は、第1の合成画像情報I5aと第2の合成画像情報I5bとに基づいて視差量を求め、下記の式1に従って運転者までの距離D5を演算する。
距離:D5=L×f/(z×p) (式1)
ここで、L(mm)は、基線の長さであり、f(mm)は、レンズ光学系Lの焦点距離であり、p(mm/画素)は、撮像素子Nの画素ピッチであり、z(mm)は、視差量である。
The distance calculation unit 25 calculates the amount of parallax based on the first composite image information I5a and the second composite image information I5b, and calculates the distance D5 to the driver according to the following equation 1.
Distance: D5 = L × f / (z × p) (Formula 1)
Here, L (mm) is the length of the base line, f (mm) is the focal length of the lens optical system L, p (mm / pixel) is the pixel pitch of the image sensor N, and z (Mm) is the amount of parallax.

距離演算部25は、例えば特許文献2に開示された手法を用いてブロックマッチングによって視差量を求めることができる。なお、視差量の算出においては、特許文献2に開示された手法に限らず、公知の技術を広く用いることができる。   The distance calculation unit 25 can obtain the amount of parallax by block matching using, for example, the technique disclosed in Patent Document 2. The calculation of the amount of parallax is not limited to the method disclosed in Patent Document 2, and a wide variety of known techniques can be used.

顔モデル生成部(3次元顔認識部)22Aは、第1の合成画像情報I5aおよび運転者までの距離情報D5に基づいて運転者の顔の3次元特徴点を認識し、3次元顔モデルを生成する。例えば特許文献2に開示された手法を用いて3次元顔モデルを作成することができる。   The face model generation unit (three-dimensional face recognition unit) 22A recognizes the three-dimensional feature point of the driver's face based on the first composite image information I5a and the distance information D5 to the driver, and generates a three-dimensional face model. Generate. For example, a three-dimensional face model can be created using the technique disclosed in Patent Document 2.

顔向き判定部23は、3次元特徴点に基づいて運転者の顔向きを判定する。具体的には、顔向き判定部23は、3次元顔モデルに基づいてパターンマッチング用のテンプレートを作成する。顔向き判定部23は、カメラ6Aから順次出力される画像に対して、運転者の顔向きを推定し、かつ、テンプレートを用いたテンプレートマッチングを実行することによって、顔追跡を行う。顔向き判定部23は、顔向きの推定結果およびテンプレートマッチングにより得られた相関値に基づいて運転者の顔向きを判定する。顔向き判定部23は、顔向きの判定結果を後段の脇見判定部に出力する。   The face orientation determination unit 23 determines the driver's face orientation based on the three-dimensional feature points. Specifically, the face orientation determination unit 23 creates a pattern matching template based on a three-dimensional face model. The face orientation determination unit 23 performs face tracking by estimating the driver's face orientation on images sequentially output from the camera 6A and executing template matching using a template. The face orientation determination unit 23 determines the driver's face orientation based on the estimation result of the face orientation and the correlation value obtained by template matching. The face orientation determination unit 23 outputs the determination result of the face orientation to the aside look determination unit in the subsequent stage.

脇見判定部24は、顔向きの判定結果を受けて、所定時間において継続して顔向きが所定の範囲内であるときに、運転者が脇見をしていると判定する。例えば、所定の範囲とは、目線の仰角および俯角がそれぞれ10度以上である範囲である。   The look-ahead determination unit 24 receives the determination result of the face orientation, and determines that the driver is looking aside when the face orientation is within a predetermined range continuously for a predetermined time. For example, the predetermined range is a range in which the elevation angle and depression angle of the line of sight are each 10 degrees or more.

警告装置40は、脇見判定部24の判定結果に応じて運転者に警告を発する。   The warning device 40 issues a warning to the driver according to the determination result of the aside look determination unit 24.

本実施の形態の他の変形例によれば、上述したHDRの効果に加えて、ステレオ撮影の効果を得ることができる。このように、顔の特徴点のみならず、運転者までの距離情報を含む顔の3次元特徴点に基づく画像解析がなされるので、より精度よく顔向きを検出でき、運転者が脇見をしているかをより精度よく判定することができる。   According to another modification of the present embodiment, the effect of stereo shooting can be obtained in addition to the above-described HDR effect. In this way, image analysis based on not only facial feature points but also three-dimensional facial features including distance information to the driver can be performed, so that the face orientation can be detected more accurately and the driver can look aside. Can be determined with higher accuracy.

運転者監視システム100Aは、オプションとして、姿勢検知部51およびエアバック展開制御部52をさらに備えていてもよい。   The driver monitoring system 100A may further include an attitude detection unit 51 and an airbag deployment control unit 52 as an option.

姿勢検知部51は、第1の合成画像情報I5aと運転者までの距離情報D5とに基づいて運転者の姿勢を検知する。   The posture detection unit 51 detects the posture of the driver based on the first composite image information I5a and the distance information D5 to the driver.

エアバック展開制御部52は、姿勢検知部51の検知結果に基づき、エアバックを展開するか否かを判定する。例えば、エアバック展開制御部52は、座席のヘッドレストに対する運転者の頭部の位置に応じて、エアバックを展開するか否かを判定する。または、エアバック展開制御部52は、運転者の顔がエアバックの配置位置の近傍に位置しているときは、エアバックを展開しないと判定するようにしてもよい。エアバック展開制御部52は、エアバック41を展開するか否かの判定結果に応じて、エアバック41の展開および展開速度を制御する。   The airbag deployment control unit 52 determines whether to deploy the airbag based on the detection result of the posture detection unit 51. For example, the airbag deployment control unit 52 determines whether to deploy the airbag according to the position of the driver's head relative to the headrest of the seat. Alternatively, the airbag deployment control unit 52 may determine that the airbag is not deployed when the driver's face is located in the vicinity of the airbag placement position. The airbag deployment control unit 52 controls the deployment and deployment speed of the airbag 41 according to the determination result of whether or not to deploy the airbag 41.

従来は、車の座席に重量センサが搭載されており、その重量センサが検知する重量の変化に応じて、運転者の姿勢が検知されていた。   Conventionally, a weight sensor is mounted on a car seat, and the posture of the driver is detected according to a change in weight detected by the weight sensor.

本実施の形態の他の変形例によれば、画像処理によって姿勢を検知できるので、姿勢を検知するために重量センサなどの物理センサをわざわざ設けなくてもよい。このように、運転監視システムの規模の縮小および低コスト化を実現できる。   According to another modification of the present embodiment, since the posture can be detected by image processing, a physical sensor such as a weight sensor need not be provided in order to detect the posture. In this way, it is possible to reduce the scale and cost of the operation monitoring system.

(実施の形態2)
まず、図12を参照しながら、本実施の形態による運転者監視システム200の構成および機能を説明する。
(Embodiment 2)
First, the configuration and functions of the driver monitoring system 200 according to the present embodiment will be described with reference to FIG.

図12は、本実施の形態による運転者監視システム200のブロック構成図を示す。なお、実施の形態1による運転者監視システム100の構成要素と同一の構成要素には、同じ参照符号を付している。   FIG. 12 shows a block configuration diagram of the driver monitoring system 200 according to the present embodiment. Note that the same reference numerals are assigned to the same components as those of the driver monitoring system 100 according to the first embodiment.

運転者監視システム200は、カメラユニット10と、信号処理回路20と、コントローラ30と、警告装置40とを備えている。また、運転者監視システム200は、オプションとして、姿勢検知部51と、エアバック展開制御部52とを備えていてもよい。   The driver monitoring system 200 includes a camera unit 10, a signal processing circuit 20, a controller 30, and a warning device 40. The driver monitoring system 200 may include an attitude detection unit 51 and an airbag deployment control unit 52 as options.

カメラユニット10は、運転者に向けて近赤外光を補助照明光として照射する。カメラ6Cは、運転者の像を検出し、異なる合焦特性を示す光の情報を有する複数の画像信号を生成する。   The camera unit 10 irradiates near infrared light as auxiliary illumination light toward the driver. The camera 6C detects the image of the driver and generates a plurality of image signals having light information indicating different focusing characteristics.

信号処理回路20は、複数の画像信号を合成して合成画像信号を生成する。また、信号処理回路20は、複数の画像信号から運転者までの距離を求め、合成画像信号および運転者までの距離に基づいて運転者が脇見をしているか否かを判定する。   The signal processing circuit 20 combines a plurality of image signals to generate a combined image signal. Further, the signal processing circuit 20 obtains the distance to the driver from the plurality of image signals, and determines whether or not the driver is looking aside based on the composite image signal and the distance to the driver.

警告装置40は、信号処理回路20が、運転者が脇見をしていると判定した場合、脇見運転をしていることを運転者に警告する。   When the signal processing circuit 20 determines that the driver is looking aside, the warning device 40 warns the driver that the driver is looking aside.

また、実施の形態1で説明したとおり、姿勢検知部51およびエアバック展開制御部52の処理結果に応じて、車内のエアバック41が展開される。   Further, as described in the first embodiment, the airbag 41 in the vehicle is deployed according to the processing results of the attitude detection unit 51 and the airbag deployment control unit 52.

図12および13(a)を参照して、カメラ6Cの構成の一例を説明する。   An example of the configuration of the camera 6C will be described with reference to FIGS. 12 and 13 (a).

図13(a)は、光学領域D1、D2、D3およびD4の光学特性を示し、図13(b)は、本実施の形態の変形例による光学領域D1、D2、D3およびD4の光学特性を示している。なお、本実施の形態におけるカメラ6Cの構成は、光学領域が互いに異なる合焦特性を有している点以外は、実施の形態1でのカメラ6の構成と同じであるので、共通の構成要素についての詳細は割愛する。   FIG. 13A shows the optical characteristics of the optical regions D1, D2, D3, and D4, and FIG. 13B shows the optical properties of the optical regions D1, D2, D3, and D4 according to the modification of the present embodiment. Show. Note that the configuration of the camera 6C in the present embodiment is the same as the configuration of the camera 6 in the first embodiment except that the optical regions have different focusing characteristics. I won't go into details about that.

光学領域D1、D2、D3およびD4は、それぞれ第1の合焦特性、第2の合焦特性、第3の合焦特性および第4の合焦特性を有している。光学領域D1、D2、D3、D4の合焦特性は互いに異なっている。具体的には、図13(a)に示すように、光学領域D1は、焦点距離がf1である光学レンズから形成され、光学領域D2は、焦点距離がf2である光学レンズから形成され、光学領域D3は、焦点距離がf3である光学レンズから形成され、光学領域D4は、焦点距離がf4である光学レンズから形成されている。焦点距離f1、f2、f3およびf4は互いに異なっている。光学領域D1、D2、D3およびD4の曲率半径や非球面係数や屈折率を調整することにより、レンズ光学系Lの合焦特性を異ならせることができる。   The optical regions D1, D2, D3, and D4 have a first focusing characteristic, a second focusing characteristic, a third focusing characteristic, and a fourth focusing characteristic, respectively. The focusing characteristics of the optical regions D1, D2, D3, and D4 are different from each other. Specifically, as shown in FIG. 13A, the optical region D1 is formed from an optical lens having a focal length f1, and the optical region D2 is formed from an optical lens having a focal length f2. The region D3 is formed from an optical lens having a focal length f3, and the optical region D4 is formed from an optical lens having a focal length f4. The focal lengths f1, f2, f3 and f4 are different from each other. The focusing characteristics of the lens optical system L can be made different by adjusting the radius of curvature, aspheric coefficient, and refractive index of the optical regions D1, D2, D3, and D4.

なお、本実施の形態において、「合焦特性が異なる」とは、所定の波長の光で比較した場合に、その光学系において光の集光に寄与する特性の少なくとも1つが異なることをいう。具体的には、所定の波長の光で比較した場合に、光学領域D1、D2、D3およびD4を通過した光によるレンズ光学系Lの焦点距離、焦点が合う被写体までの距離、鮮鋭度が一定の値以上となる距離範囲などが異なることをいう。   In the present embodiment, “the focusing characteristics are different” means that at least one of the characteristics contributing to light collection in the optical system is different when compared with light of a predetermined wavelength. Specifically, when compared with light of a predetermined wavelength, the focal length of the lens optical system L by the light passing through the optical regions D1, D2, D3, and D4, the distance to the in-focus subject, and the sharpness are constant. This means that the distance range that is greater than or equal to the value is different.

撮像素子Nは、撮像領域C1、C2、C3およびC4に対応した第1の画像信号I1、第2の画像信号I2、第3の画像信号I3および第4の画像信号I4をそれぞれ出力する。第1の画像信号I1、第2の画像信号I2、第3の画像信号I3および第4の画像信号I4は、第1の合焦特性、第2の合焦特性、第3の合焦特性および第4の合焦特性から得られた光の情報をそれぞれ有している。   The imaging element N outputs a first image signal I1, a second image signal I2, a third image signal I3, and a fourth image signal I4 corresponding to the imaging regions C1, C2, C3, and C4, respectively. The first image signal I1, the second image signal I2, the third image signal I3, and the fourth image signal I4 have a first focusing characteristic, a second focusing characteristic, a third focusing characteristic, and Each has light information obtained from the fourth focusing characteristic.

再び、図12を参照しながら、信号処理回路20の詳細を説明する。   Again, the details of the signal processing circuit 20 will be described with reference to FIG.

信号処理回路20は、画像合成部21と、顔モデル生成部22Aと、顔向き判定部23と、脇見判定部24と、距離演算部25とを有する。   The signal processing circuit 20 includes an image synthesis unit 21, a face model generation unit 22 </ b> A, a face orientation determination unit 23, an aside look determination unit 24, and a distance calculation unit 25.

画像合成部21は、第1の画像信号I1から第1の画像情報I1aを生成し、第2の画像信号I2から第2の画像情報I2aを生成し、第3の画像信号I3から第3の画像情報I3aを生成し、第4の画像信号I4から第4の画像情報I4aを生成する。   The image composition unit 21 generates first image information I1a from the first image signal I1, generates second image information I2a from the second image signal I2, and generates third image information I3 from the third image signal I3. Image information I3a is generated, and fourth image information I4a is generated from the fourth image signal I4.

画像合成部21は、第1の画像情報I1a、第2の画像情報I2a、第3の画像情報I3aおよび第4の画像情報I4aを合成して合成画像情報I5aを生成する。   The image composition unit 21 synthesizes the first image information I1a, the second image information I2a, the third image information I3a, and the fourth image information I4a to generate composite image information I5a.

距離演算部25は、第1の画像情報I1a、第2の画像情報I2a、第3の画像情報I3aおよび第4の画像情報I4aを用いて、合成画像信号I5から形成される画像中の各画素に対応した運転者までの距離D5を演算する。4つの光学領域D1、D2、D3およびD4の合焦特性は互いに異なるため、第1の画像情報I1a、第2の画像情報I2a、第3の画像情報I3aおよび第4の画像情報I4aが示す画像の鮮鋭度(輝度を用いて算出される値)は、被写体までの距離によって異なる。メモリ(不図示)には、光学領域D1、D2、D3およびD4のそれぞれを通過した光の像の鮮鋭度と被写体までの距離との相関関係が記憶されている。距離演算部25は、第1の画像情報I1a、第2の画像情報I2a、第3の画像情報I3aおよび第4の画像情報I4aから形成される各画像の鮮鋭度と上記相関関係とに基づいて、被写体までの距離を得ることができる。   The distance calculation unit 25 uses the first image information I1a, the second image information I2a, the third image information I3a, and the fourth image information I4a to each pixel in the image formed from the composite image signal I5. The distance D5 to the driver corresponding to is calculated. Since the focusing characteristics of the four optical regions D1, D2, D3, and D4 are different from each other, the images indicated by the first image information I1a, the second image information I2a, the third image information I3a, and the fourth image information I4a The sharpness (value calculated using luminance) differs depending on the distance to the subject. A memory (not shown) stores a correlation between the sharpness of the image of light that has passed through each of the optical regions D1, D2, D3, and D4 and the distance to the subject. The distance calculation unit 25 is based on the sharpness of each image formed from the first image information I1a, the second image information I2a, the third image information I3a, and the fourth image information I4a and the correlation. The distance to the subject can be obtained.

図24を参照して、被写体までの距離と鮮鋭度との関係の一例を説明する。   An example of the relationship between the distance to the subject and the sharpness will be described with reference to FIG.

図24は、被写体までの距離と鮮鋭度との関係の一例を示すグラフである。点像強度分布の変化に伴い、鮮鋭度も変化する。点像の大きさが小さくなるほど画像の鮮鋭度が増すため、被写体までの距離と鮮鋭度の関係は、図24のような関係になる。図24のグラフにおいて、G1は画素P1で生成された画像(光学領域D1を通過した光によって生成された画像)の所定領域の鮮鋭度を示しており、G2、G3およびG4はそれぞれ画素P2、P3およびP4で生成された画像の所定領域の鮮鋭度を示している。図24におけるZの範囲は、G2が変化し、かつG1がほとんど変化しない領域を示している。Zの範囲では、このような関係を利用して被写体までの距離を求めることができる。例えば、Zの範囲では、被写体までの距離と、鮮鋭度G1とG2との比に相関があるため、予め被写体までの距離と、鮮鋭度G1、G2の比との相関関係をメモリに記憶しておけばよい。   FIG. 24 is a graph showing an example of the relationship between the distance to the subject and the sharpness. As the point image intensity distribution changes, the sharpness also changes. Since the sharpness of the image increases as the size of the point image decreases, the relationship between the distance to the subject and the sharpness is as shown in FIG. In the graph of FIG. 24, G1 indicates the sharpness of a predetermined region of an image generated by the pixel P1 (an image generated by light that has passed through the optical region D1), and G2, G3, and G4 are the pixel P2, The sharpness of a predetermined area of the images generated at P3 and P4 is shown. The range of Z in FIG. 24 shows a region where G2 changes and G1 hardly changes. In the range of Z, the distance to the subject can be obtained using such a relationship. For example, in the Z range, since there is a correlation between the distance to the subject and the ratio between the sharpness G1 and G2, the correlation between the distance to the subject and the ratio between the sharpness G1 and G2 is stored in the memory in advance. Just keep it.

鮮鋭度以外に、輝度値のコントラスト比に基づいて被写体までの距離を求めてもよいし、または、点像強度分布を用いて被写体までの距離を求めてもよい。例えば、国際公開第2013/080552号が、被写体までの距離を求める手法の詳細を開示している。   In addition to the sharpness, the distance to the subject may be obtained based on the contrast ratio of the luminance values, or the distance to the subject may be obtained using the point image intensity distribution. For example, International Publication No. 2013/080552 discloses details of a method for obtaining a distance to a subject.

顔モデル生成部22Aは、合成画像情報I5aと運転者までの距離情報に基づいて運転者の顔の3次元特徴点を認識し、3次元顔モデルを作成する。   The face model generation unit 22A recognizes a three-dimensional feature point of the driver's face based on the composite image information I5a and distance information to the driver, and creates a three-dimensional face model.

顔向き判定部23は、3次元特徴点に基づいて運転者の顔向きを判定する。具体的には、顔向き判定部23は、3次元顔モデルに基づいてパターンマッチング用のテンプレートを作成する。顔向き判定部23は、カメラ6Cから順次出力される画像に対して、運転者の顔向きを推定し、かつ、テンプレートを用いたテンプレートマッチングを実行することによって、顔追跡を行う。顔向き判定部23は、顔向きの推定結果およびテンプレートマッチングにより得られた相関値に基づいて運転者の顔向きを判定する。   The face orientation determination unit 23 determines the driver's face orientation based on the three-dimensional feature points. Specifically, the face orientation determination unit 23 creates a pattern matching template based on a three-dimensional face model. The face orientation determination unit 23 performs face tracking by estimating the driver's face orientation on images sequentially output from the camera 6C and executing template matching using a template. The face orientation determination unit 23 determines the driver's face orientation based on the estimation result of the face orientation and the correlation value obtained by template matching.

脇見判定部24は、顔向きの検出結果を受けて、所定時間において継続して顔向きが所定の範囲内であるときに、運転者が脇見をしていると判定する。   The look-ahead determination unit 24 receives the detection result of the face direction, and determines that the driver is looking aside when the face direction is within a predetermined range continuously for a predetermined time.

警告装置40は、脇見判定部24の判定結果に応じて運転者に警告を発する。   The warning device 40 issues a warning to the driver according to the determination result of the aside look determination unit 24.

本実施の形態によれば、単眼測距により、顔の特徴点のみならず、運転者までの距離情報を含む顔の3次元特徴点に基づく画像解析がなされるので、より精度よく顔向きを検出でき、運転者が脇見をしているかをより精度よく判定することができる。   According to the present embodiment, the image analysis based on the three-dimensional feature point of the face including the distance information to the driver as well as the feature point of the face is performed by monocular distance measurement. It can detect and it can determine more accurately whether the driver is looking aside.

運転者監視システム200は、オプションとして、姿勢検知部51およびエアバック展開制御部52をさらに備えていてもよい。   The driver monitoring system 200 may further include an attitude detection unit 51 and an airbag deployment control unit 52 as an option.

姿勢検知部51は、合成画像情報I5aと運転者までの距離とに基づいて運転者の姿勢を検知する。   The posture detection unit 51 detects the driver's posture based on the composite image information I5a and the distance to the driver.

エアバック展開制御部52は、姿勢検知部51の検知結果に基づき、エアバックを展開するか否かを判定する。エアバック展開制御部52は、エアバック41を展開するか否かの判定結果に応じて、エアバック41の展開および展開速度を制御する。   The airbag deployment control unit 52 determines whether to deploy the airbag based on the detection result of the posture detection unit 51. The airbag deployment control unit 52 controls the deployment and deployment speed of the airbag 41 according to the determination result of whether or not to deploy the airbag 41.

次に、図13(b)を参照しながら、本実施の形態の変形例を説明する。   Next, a modification of the present embodiment will be described with reference to FIG.

図13(b)は、光学領域D1、D2、D3およびD4での光学特性をそれぞれ示している。本実施の形態の変形例では、光学領域D1〜D4の光学特性が、上述した実施の形態の図13(a)に示す光学特性とは異なる。   FIG. 13B shows optical characteristics in the optical regions D1, D2, D3, and D4, respectively. In the modification of the present embodiment, the optical characteristics of the optical regions D1 to D4 are different from the optical characteristics shown in FIG. 13A of the above-described embodiment.

図13(b)に示すように、光学領域D1およびD2は、第1の合焦特性を有し、光学領域D3およびD4は、第2の合焦特性を有している。具体的には、光学領域D1およびD2は、焦点距離がf1である光学レンズから形成され、光学領域D3およびD4は、焦点距離がf2である光学レンズから形成されている。焦点距離f1およびf2は互いに異なる値である。さらに、光学領域D1およびD3において、光の透過率は100%であり、光学領域D2およびD4において、光の透過率は6.25%である。すなわち、光学領域D1、D2、D3およびD4の光の透過率の比は、16:1:16:1である。   As shown in FIG. 13B, the optical areas D1 and D2 have a first focusing characteristic, and the optical areas D3 and D4 have a second focusing characteristic. Specifically, the optical regions D1 and D2 are formed from an optical lens having a focal length f1, and the optical regions D3 and D4 are formed from an optical lens having a focal length f2. The focal lengths f1 and f2 are different values. Furthermore, in the optical regions D1 and D3, the light transmittance is 100%, and in the optical regions D2 and D4, the light transmittance is 6.25%. That is, the ratio of the light transmittance of the optical regions D1, D2, D3, and D4 is 16: 1: 16: 1.

画像合成部21は、第1の画像情報I1aと第2の画像情報I2aとを合成してHDRの第1の合成画像情報I5aを生成し、第3の画像信号I3aと第4の画像信号I4aとを合成してHDRの第2の合成画像情報I5bを生成する。画像合成部21は、第1の合成画像情報I5aおよび第2の合成画像情報I5bをさらに合成して第3の合成画像情報I5cを生成する。   The image composition unit 21 synthesizes the first image information I1a and the second image information I2a to generate HDR first composite image information I5a, and the third image signal I3a and the fourth image signal I4a. Are combined to generate HDR second composite image information I5b. The image composition unit 21 further synthesizes the first composite image information I5a and the second composite image information I5b to generate third composite image information I5c.

距離演算部25は、第1の合成画像情報I5aおよび第2の合成画像情報I5bを用いて、第3の合成画像情報I5cから形成される画像中の各画素に対応した運転者までの距離を演算する。   The distance calculation unit 25 uses the first composite image information I5a and the second composite image information I5b to calculate the distance to the driver corresponding to each pixel in the image formed from the third composite image information I5c. Calculate.

本実施の形態の変形例によれば、単眼測距およびHDRの効果を得ることができる。運転者までの距離情報を含む顔の3次元特徴点に基づく画像解析がなされるので、より精度よく顔向きを検出できる。この結果、運転者が脇見をしているかをより精度よく判定することができ、かつ、明るさが変化する環境下においても、高いロバスト性が確保される。   According to the modification of the present embodiment, the effects of monocular ranging and HDR can be obtained. Since the image analysis based on the three-dimensional feature point of the face including the distance information to the driver is performed, the face orientation can be detected with higher accuracy. As a result, it can be determined more accurately whether the driver is looking aside, and high robustness is ensured even in an environment where the brightness changes.

(実施の形態3)
まず、図14を参照しながら、本実施の形態による運転者監視システム300の構成および機能を説明する。
(Embodiment 3)
First, the configuration and functions of the driver monitoring system 300 according to the present embodiment will be described with reference to FIG.

図14は、本実施の形態による運転者監視システム300のブロック構成図を示す。なお、実施の形態1および2による運転者監視システム100および200の構成要素と同一の構成要素には、同じ参照符号を付している。   FIG. 14 shows a block configuration diagram of a driver monitoring system 300 according to the present embodiment. The same components as those of driver monitoring systems 100 and 200 according to Embodiments 1 and 2 are denoted by the same reference numerals.

運転者監視システム300は、カメラユニット10と、信号処理回路20と、コントローラ30と、警告装置40とを備えている。また、運転者監視システム300は、オプションとして、補助照明制御部53を備えていてもよい。   The driver monitoring system 300 includes a camera unit 10, a signal processing circuit 20, a controller 30, and a warning device 40. In addition, the driver monitoring system 300 may include an auxiliary lighting control unit 53 as an option.

カメラユニット10は、補助照明光として、第1の偏光軸の方向に振動する近赤外光を運転者に向けて照射する。カメラ6Dは、運転者の像を検出し、互いに異なる偏光特性を示す光の情報を有する2つの画像信号を生成する。   The camera unit 10 irradiates the driver with near infrared light that vibrates in the direction of the first polarization axis as auxiliary illumination light. The camera 6D detects an image of the driver and generates two image signals having light information indicating different polarization characteristics.

信号処理回路20は、所定の条件に従い2つの画像信号から1つを選択する。信号処理回路20は、選択した画像信号に基づいて運転者の顔の特徴点を認識し、運転者の目の開口度を検出して、運転者が居眠りをしているか否かを判定する。   The signal processing circuit 20 selects one of the two image signals according to a predetermined condition. The signal processing circuit 20 recognizes the feature point of the driver's face based on the selected image signal, detects the opening degree of the driver's eyes, and determines whether or not the driver is asleep.

警告装置40は、信号処理回路20が、運転者が居眠りをしていると判定した場合、居眠り運転をしていることを運転者に警告する。   When the signal processing circuit 20 determines that the driver is asleep, the warning device 40 warns the driver that the driver is asleep.

図15〜17を参照して、カメラ6Dの構成の一例を説明する。本発明の実施形態によるカメラ6Dの構成は、以下で例示するものに限られない。   An example of the configuration of the camera 6D will be described with reference to FIGS. The configuration of the camera 6D according to the embodiment of the present invention is not limited to that exemplified below.

図15は、光学素子L2を被写体側から見た正面図である。光学領域D1およびD2は、光軸Vに垂直な平面を2つに分割した領域である。原則として、光学領域D1およびD2は、等しい面積を有している。また、破線sは、絞りSの位置を示している。ただし、光学領域D1およびD2は異なる面積を有していてもよい。   FIG. 15 is a front view of the optical element L2 as viewed from the subject side. The optical regions D1 and D2 are regions obtained by dividing a plane perpendicular to the optical axis V into two. In principle, the optical regions D1 and D2 have an equal area. A broken line s indicates the position of the diaphragm S. However, the optical regions D1 and D2 may have different areas.

図16(a)は、光学領域D1およびD2の光学特性を示し、図16(b)は、本実施の形態の変形例による光学領域D1、D2、D3およびD4の光学特性を示している。図16(a)に示すように光学領域は2分割されている。光学領域D1は、第1の偏光軸の方向(例えば、垂直方向)に振動する光のみを透過する第1の偏光特性を有し、光学領域D2は、第1の偏光軸の方向と直交した第2の偏光軸の方向(例えば、水平方向)に振動する光のみを透過する第2の偏光特性を有する。光学領域D1およびD2は、光の偏光方向が互いに直交した偏光フィルタによって形成され得る。   FIG. 16A shows the optical characteristics of the optical areas D1 and D2, and FIG. 16B shows the optical characteristics of the optical areas D1, D2, D3, and D4 according to the modification of the present embodiment. As shown in FIG. 16A, the optical region is divided into two. The optical region D1 has a first polarization characteristic that transmits only light that vibrates in the direction of the first polarization axis (for example, the vertical direction), and the optical region D2 is orthogonal to the direction of the first polarization axis. It has the 2nd polarization characteristic which permeate | transmits only the light which vibrates in the direction (for example, horizontal direction) of a 2nd polarization axis. The optical regions D1 and D2 can be formed by polarization filters whose light polarization directions are orthogonal to each other.

図17は、アレイ状光学素子Kの斜視図である。アレイ状光学素子Kにおける撮像素子N側の面には、光軸Vに垂直な面内で横方向に細長い複数の光学要素M1が縦方向に配置されている。それぞれの光学要素M1の断面(縦方向および横方向それぞれの断面)は、撮像素子N側に突出した円弧状の形状を有している。このように、アレイ状光学素子Kはレンチキュラレンズの構成を有している。   FIG. 17 is a perspective view of the arrayed optical element K. FIG. On the surface on the imaging element N side of the arrayed optical element K, a plurality of optical elements M1 elongated in the horizontal direction within a plane perpendicular to the optical axis V are arranged in the vertical direction. Each optical element M1 has a cross section (a cross section in the vertical direction and a horizontal direction) having an arc shape protruding toward the image sensor N. Thus, the arrayed optical element K has a lenticular lens configuration.

図18(a)は、アレイ状光学素子Kおよび撮像素子Nを拡大して示す図であり、図18(b)は、アレイ状光学素子Kと撮像素子N上の画素との位置関係を示す図である。アレイ状光学素子Kは、光学要素M1が形成された面が撮像面Ni側に向かうように配置されている。撮像面Niには、画素Pが行列状に配置されている。画素Pは画素P1およびP2に区別できる。   FIG. 18A is an enlarged view showing the arrayed optical element K and the image sensor N, and FIG. 18B shows the positional relationship between the arrayed optical element K and the pixels on the image sensor N. FIG. The arrayed optical element K is arranged so that the surface on which the optical element M1 is formed faces the imaging surface Ni side. Pixels P are arranged in a matrix on the imaging surface Ni. Pixel P can be distinguished into pixels P1 and P2.

画素P1は、横方向(行方向)に1行に並んで配置されている。縦方向(列方向)において、画素P1は1つおきに配置されている。また、画素P2は、横方向(行方向)に1行に並んで配置されている。縦方向(列方向)において、画素P2は1つおきに配置されている。また、画素P1の行と画素P2の行は、縦方向(列方向)に交互に配置されている。   The pixels P1 are arranged in a row in the horizontal direction (row direction). Every other pixel P1 is arranged in the vertical direction (column direction). The pixels P2 are arranged in a row in the horizontal direction (row direction). Every other pixel P2 is arranged in the vertical direction (column direction). Further, the rows of the pixels P1 and the rows of the pixels P2 are alternately arranged in the vertical direction (column direction).

アレイ状光学素子Kは、その光学要素M1の1つが、撮像面Ni上における1行の画素P1および1行の画素P2からなる2行の画素に対応するように配置されている。撮像面Ni上には、画素P1およびP2の表面を覆うようにマイクロレンズMsが設けられている。   The arrayed optical element K is arranged so that one of the optical elements M1 corresponds to two rows of pixels including one row of pixels P1 and one row of pixels P2 on the imaging surface Ni. On the imaging surface Ni, a microlens Ms is provided so as to cover the surfaces of the pixels P1 and P2.

アレイ状光学素子Kは、光学素子L2上の光学領域D1(図15)を通過した光束B1(図18において実線で示される光束B1)の大部分が、撮像面Ni上の画素P1に到達し、光学領域D2を通過した光束(図18において破線で示される光束B2)の大部分が、撮像面Ni上の画素P2に到達するように設計されている。具体的には、アレイ状光学素子Kの屈折率、撮像面Niからの距離及び光学要素M1表面の曲率半径等のパラメータを適切に設定することで、上記構成が実現する。   In the arrayed optical element K, most of the light beam B1 (light beam B1 indicated by a solid line in FIG. 18) that has passed through the optical region D1 (FIG. 15) on the optical element L2 reaches the pixel P1 on the imaging surface Ni. The most part of the light beam that has passed through the optical region D2 (light beam B2 indicated by a broken line in FIG. 18) is designed to reach the pixel P2 on the imaging surface Ni. Specifically, the above configuration is realized by appropriately setting parameters such as the refractive index of the arrayed optical element K, the distance from the imaging surface Ni, and the radius of curvature of the surface of the optical element M1.

図18(b)において、画素群P1は、第1の撮像領域C1を形成し、画素群P2は、第2の撮像領域C2を形成する。   In FIG. 18B, the pixel group P1 forms a first imaging region C1, and the pixel group P2 forms a second imaging region C2.

カメラユニット10は、第1の偏光特性を示す光の情報を有する第1の画像信号I1と、第2の偏光特性を示す光の情報を有する第2の画像信号I2とを出力する。   The camera unit 10 outputs a first image signal I1 having light information indicating the first polarization characteristic and a second image signal I2 having light information indicating the second polarization characteristic.

再び、図14を参照しながら、信号処理回路20の詳細を説明する。   Again, the details of the signal processing circuit 20 will be described with reference to FIG.

信号処理回路20は、画像生成部29と、画像選択部26と、顔認識部22と、目開度検出部27と、居眠り判定部28とを有する。   The signal processing circuit 20 includes an image generation unit 29, an image selection unit 26, a face recognition unit 22, an eye opening detection unit 27, and a dozing determination unit 28.

画像生成部29は、第1の画像信号I1から第1の画像情報I1aを生成し、第2の画像信号I2から第2の画像情報I2aを生成する。   The image generation unit 29 generates first image information I1a from the first image signal I1, and generates second image information I2a from the second image signal I2.

画像選択部26は、第1の画像情報I1aから生成される第1の画像中の目付近の領域に対応した画素の飽和度合と、第2の画像情報I2aから形成される第2の画像中の目付近の領域に対応した画素の飽和度合とを比較することによって、第1の画像情報I1aおよび第2の画像情報I2aのいずれか1つを選択する。画像選択部26は、目付近の領域に対応した画素の飽和度合が小さい画像であることを示す画像情報を選択する。   The image selection unit 26 determines the degree of saturation of pixels corresponding to the area near the eyes in the first image generated from the first image information I1a and the second image information I2a. One of the first image information I1a and the second image information I2a is selected by comparing the degree of saturation of the pixel corresponding to the region near the eye. The image selection unit 26 selects image information indicating that the image corresponding to the region near the eyes is an image with a small degree of saturation.

顔認識部22は、選択された画像情報に基づいて運転者の顔の特徴点を認識する。具体的には、顔認識部22は、選択された画像情報を解析して目(瞼)の特徴点を認識する。   The face recognition unit 22 recognizes feature points of the driver's face based on the selected image information. Specifically, the face recognizing unit 22 analyzes the selected image information and recognizes the feature point of the eye (瞼).

目開度検出部27は、認識された特徴点に基づいて運転者の目の開口度を検出する。   The eye opening detection unit 27 detects the opening degree of the driver's eyes based on the recognized feature points.

居眠り判定部28は、所定時間において継続して目の開口度が所定量以下であるか否かに応じて、運転者が居眠りをしているか否かを判定する。例えば、居眠り判定部28は、2秒間継続して目の開口度が50%以下であるときに、運転者が居眠りをしていると判定する。   The dozing determination unit 28 determines whether or not the driver is dozing according to whether or not the opening degree of the eyes is not more than a predetermined amount continuously for a predetermined time. For example, the dozing determination unit 28 determines that the driver is dozing when the eye opening degree is 50% or less continuously for 2 seconds.

警告装置40は、脇見判定部24の判定結果に応じて運転者に警告を発する。   The warning device 40 issues a warning to the driver according to the determination result of the aside look determination unit 24.

従来は、運転者が眼鏡を装着しているときに、補助照明光が眼鏡で反射して、画像中の目付近の領域において、画素の飽和が発生するので、目の開口度を検出することは困難であった。   Conventionally, when the driver wears spectacles, auxiliary illumination light is reflected by the spectacles, and pixel saturation occurs in the area near the eyes in the image. Was difficult.

補助照明7は、第1の偏光軸の方向(垂直方向)に振動する近赤外光であるため、眼鏡のような鏡面での反射光も第1の偏光軸の方向に振動している。本願明細書では、垂直方向に振動する光の偏光を垂直偏光と称する。一方で、肌などでの反射は拡散反射となるので、肌での反射光は全ての方向に振動した光(非偏光)となる。このため、補助照明7による眼鏡での反射光によって、第1の画像では、目付近の領域において、画像の飽和が発生することがある。補助照明光は、垂直偏光であり、光学領域D2を透過しないので、第2の画像では、目付近の領域において画像の飽和は発生しない。このため、画像選択部26は、目付近の領域において画像の飽和が発生していない第2の画像情報I2aを選択する。   Since the auxiliary illumination 7 is near-infrared light that vibrates in the direction (vertical direction) of the first polarization axis, reflected light from a mirror surface such as glasses also vibrates in the direction of the first polarization axis. In the present specification, the polarization of light that vibrates in the vertical direction is referred to as vertical polarization. On the other hand, since reflection on the skin or the like becomes diffuse reflection, the reflected light on the skin becomes light (non-polarized light) that vibrates in all directions. For this reason, in the first image, image saturation may occur in the region near the eyes due to the reflected light from the glasses by the auxiliary illumination 7. Since the auxiliary illumination light is vertically polarized light and does not pass through the optical region D2, in the second image, image saturation does not occur in the region near the eyes. Therefore, the image selection unit 26 selects the second image information I2a in which no image saturation occurs in the region near the eyes.

本実施の形態によれば、運転者が眼鏡を装着していても、眼鏡での反射光の影響を受けることなく、目の開口度を正確に検出でき、居眠り運転であるか否かを正確に判定できる。   According to the present embodiment, even when the driver wears spectacles, the opening degree of the eyes can be accurately detected without being affected by the reflected light from the spectacles, and whether or not the driver is dozing is accurately determined. Can be determined.

外光に対するロバスト性を向上させるために、運転者監視システム300は、補助照明制御部53をさらに備えていてもよい。   In order to improve robustness against external light, the driver monitoring system 300 may further include an auxiliary lighting control unit 53.

補助照明制御部53は、補助照明7を点灯させた後、画素の飽和度合に応じて補助照明を消灯させる。具体的には、補助照明制御部53は、補助照明7が点灯しているとき、第1の画像中の目付近の領域および第2の画像中の目付近の領域のいずれにおいても、画素の飽和が確認される場合に、補助照明7を消灯させる。また、補助照明制御部53は、補助照明7が消灯しているとき、第2の画像中の目付近の領域において、画素の飽和が確認されない場合、補助照明7を点灯させる。   The auxiliary illumination control unit 53 turns on the auxiliary illumination 7 and then turns off the auxiliary illumination according to the degree of saturation of the pixels. Specifically, when the auxiliary illumination 7 is turned on, the auxiliary illumination control unit 53 performs pixel detection in both the area near the eyes in the first image and the area near the eyes in the second image. When the saturation is confirmed, the auxiliary illumination 7 is turned off. In addition, when the auxiliary illumination 7 is turned off, the auxiliary illumination control unit 53 turns on the auxiliary illumination 7 when pixel saturation is not confirmed in the region near the eyes in the second image.

補助照明光以外にも外光による眼鏡での反射光に起因して、目付近の領域において画素の飽和が発生することがある。このようなときは、垂直偏光した補助照明光の反射によって、第1の画像中の目付近の領域において画素の飽和が発生し、水平偏光した外光により、第2の画像中の目付近の領域において画素の飽和が発生している状態である。すなわち、第1の画像中の目付近の領域および第2の画像中の目付近の領域のいずれにおいても、画素の飽和が確認される場合である。   In addition to the auxiliary illumination light, pixel saturation may occur in a region near the eyes due to reflected light from spectacles due to external light. In such a case, the pixel saturation occurs in the region near the eye in the first image due to the reflection of the auxiliary illumination light that is vertically polarized, and the vicinity of the eye in the second image due to the horizontally polarized external light. This is a state in which pixel saturation occurs in the region. That is, pixel saturation is confirmed in both the region near the eyes in the first image and the region near the eyes in the second image.

そこで、補助照明7を消灯することによって、第1の画像中の目付近の領域での画素の飽和を低減することができる。画像選択部26は、目付近の領域において画像の飽和が発生していない第1の画像情報I1aを選択すればよい。   Therefore, by turning off the auxiliary illumination 7, it is possible to reduce pixel saturation in a region near the eyes in the first image. The image selection unit 26 may select the first image information I1a in which image saturation does not occur in the region near the eyes.

これにより、運転者が眼鏡を装着しており、外光が強い場合であっても、眼鏡での反射光の影響を受けることなく、目の開口度を正確に検出でき、居眠り運転であるか否かを正確に判定できる。   As a result, even if the driver is wearing spectacles and the outside light is strong, it is possible to accurately detect the opening degree of the eyes without being affected by the reflected light from the spectacles. Whether or not can be determined accurately.

なお、夜間においては補助照明が必要であるので、画素の飽和が発生しているとき以外は補助照明7を点灯しておくことが好ましい。外光による眼鏡での反射光の影響が減少し、第2の画像中の目付近の領域での画素の飽和がなくなれば、補助照明7を点灯させればよい。   In addition, since auxiliary lighting is necessary at night, it is preferable to turn on the auxiliary lighting 7 except when pixel saturation occurs. If the influence of the reflected light from the spectacles due to external light is reduced and pixel saturation in the region near the eyes in the second image is eliminated, the auxiliary illumination 7 may be turned on.

次に、図16(b)を参照しながら、本実施の形態の変形例を説明する。   Next, a modification of the present embodiment will be described with reference to FIG.

図16(b)に示す光学領域は、4分割されている。光学領域D1およびD2は、第1の偏光軸の方向(例えば、垂直方向)に振動する光のみを透過する第1の偏光特性を有する。光学領域D3およびD4は、第1の偏光軸の方向に直交した第2の偏光軸の方向(例えば、水平方向)に振動する光のみを透過する第2の偏光特性を有する。また、光学領域D1およびD3での光の透過率は、100%であり、光学領域D2およびD4での光の透過率は、6.25%である。すなわち、光学領域D1、D2、D3およびD4の透過率の比は、16:1:16:1である。例えば、光学領域は、NDフィルタと偏光フィルタとを積層することにより形成され得る。なお、本実施の形態の変形例では光学領域が4分割されているので、アレイ状光学素子Kとして図7に示すようなマイクロレンズアレイを用いる。   The optical region shown in FIG. 16B is divided into four. The optical regions D1 and D2 have a first polarization characteristic that transmits only light that vibrates in the direction of the first polarization axis (for example, the vertical direction). The optical regions D3 and D4 have a second polarization characteristic that transmits only light that vibrates in the direction of the second polarization axis (eg, the horizontal direction) orthogonal to the direction of the first polarization axis. The light transmittance in the optical regions D1 and D3 is 100%, and the light transmittance in the optical regions D2 and D4 is 6.25%. That is, the transmittance ratio of the optical regions D1, D2, D3, and D4 is 16: 1: 16: 1. For example, the optical region can be formed by stacking an ND filter and a polarizing filter. In the modification of the present embodiment, since the optical region is divided into four, a microlens array as shown in FIG.

この変形例による信号処理回路20は、画像生成部29の代わりに画像合成部21を有している。他の構成要素は、本実施の形態の信号処理回路20の構成要素と共通している。   The signal processing circuit 20 according to this modification includes an image composition unit 21 instead of the image generation unit 29. Other components are common to the components of the signal processing circuit 20 of the present embodiment.

画像合成部21は、第1の画像信号I1から第1の画像情報I1aを生成し、第2の画像信号I2から第2の画像情報I2aを生成し、第3の画像信号I3から第3の画像情報I3aを生成し、第4の画像信号I4から第1の画像情報I4aを生成する。   The image composition unit 21 generates first image information I1a from the first image signal I1, generates second image information I2a from the second image signal I2, and generates third image information I3 from the third image signal I3. Image information I3a is generated, and first image information I4a is generated from the fourth image signal I4.

画像合成部21は、第1の画像情報I1aおよび第2の画像情報I2aを合成して第1の画像合成情報I5aを生成し、第3の画像情報I3aおよび第4の画像情報I4aを合成して第2の画像合成情報I5bを生成する。   The image composition unit 21 synthesizes the first image information I1a and the second image information I2a to generate the first image composition information I5a, and synthesizes the third image information I3a and the fourth image information I4a. The second image composition information I5b is generated.

画像選択部26は、第1の画像合成情報I5aから生成される第1の画像中の目付近の領域に対応した画素の飽和度合と、第2の画像合成情報I5bから形成される第2の画像中の目付近の領域に対応した画素の飽和度合とを比較することによって、第1の画像合成情報I5aおよび第2の画像合成情報I5bのいずれか1つを選択する。   The image selection unit 26 includes a saturation degree of pixels corresponding to a region near the eye in the first image generated from the first image composition information I5a, and a second image formed from the second image composition information I5b. One of the first image composition information I5a and the second image composition information I5b is selected by comparing the degree of saturation of the pixel corresponding to the region near the eye in the image.

本実施の形態の変形例によれば、実施の形態1と同様に、HDRの画像を用いた画像解析が行えるので、外光に対するロバスト性をさらに向上させることができる。   According to the modification of the present embodiment, as in the first embodiment, image analysis using an HDR image can be performed, and thus robustness against external light can be further improved.

次に、図19を参照しながら、本実施の形態の他の変形例を説明する。   Next, another modification of the present embodiment will be described with reference to FIG.

図19は、2台のカメラ6E、6Fを搭載した運転者監視システム300Aのブロック構成を示す。カメラユニット10には2台のカメラ6E、6Fが配置されており、カメラユニット10は、複眼カメラとして機能する。   FIG. 19 shows a block configuration of a driver monitoring system 300A equipped with two cameras 6E and 6F. Two cameras 6E and 6F are arranged in the camera unit 10, and the camera unit 10 functions as a compound eye camera.

運転者監視システム300Aは、カメラユニット10と、信号処理回路20と、コントローラ30と、警告装置40とを備えている。また、運転者監視システム300Aは、オプションとして、姿勢検知部51と、エアバック展開制御部52とを備えていてもよい。   The driver monitoring system 300 </ b> A includes a camera unit 10, a signal processing circuit 20, a controller 30, and a warning device 40. Further, the driver monitoring system 300A may optionally include an attitude detection unit 51 and an airbag deployment control unit 52.

カメラユニット10は、2台のカメラ6E、6Fと、補助照明7とを含む。カメラ6E、6Fは、図16(a)または(b)に示す光学特性を有する光学領域を含んでいる。以降の説明では、カメラ6E、6Fは、図16(a)に示す光学特性を有する光学領域D1およびD2を含んでいるものとする。カメラ6E、6Fの構造は、本実施の形態のカメラ6Dの構造と同じである。   The camera unit 10 includes two cameras 6E and 6F and an auxiliary illumination 7. The cameras 6E and 6F include an optical region having the optical characteristics shown in FIG. 16 (a) or (b). In the following description, it is assumed that the cameras 6E and 6F include optical regions D1 and D2 having the optical characteristics shown in FIG. The structure of the cameras 6E and 6F is the same as that of the camera 6D of the present embodiment.

カメラユニット10は、カメラ6Eにおいて生成された第1の画像信号I1Aおよび第2の画像信号I2Aと、カメラ6Fにおいて生成された第1の画像信号I1Bおよび第2の画像信号I2Bとを出力する。   The camera unit 10 outputs the first image signal I1A and the second image signal I2A generated by the camera 6E, and the first image signal I1B and the second image signal I2B generated by the camera 6F.

第1の画像生成部29Aは、第1の画像信号I1Aから第1の画像情報I1aを生成し、第2の画像信号I2Aから第2の画像情報I2aを生成する。第2の画像生成部29Bは、第1の画像信号I1Bから第1の画像情報I1bを生成し、第2の画像信号I2Bから第2の画像情報I2bを生成する。   The first image generation unit 29A generates first image information I1a from the first image signal I1A, and generates second image information I2a from the second image signal I2A. The second image generation unit 29B generates first image information I1b from the first image signal I1B, and generates second image information I2b from the second image signal I2B.

第1の画像選択部26Aは、第1の画像情報I1aから生成される第1の画像中の目付近の領域に対応した画素の飽和度合と、第2の画像情報I2aから生成される第2の画像中の目付近の領域に対応した画素の飽和度合とを比較することによって、第1の画像情報I1aおよび第2の画像情報I2aのいずれか1つを選択する。第1の画像選択部26Aは、目付近の領域に対応した画素の飽和度合が小さい画像であることを示す画像情報を選択する。   The first image selection unit 26A has a pixel saturation level corresponding to a region near the eye in the first image generated from the first image information I1a and a second generated from the second image information I2a. One of the first image information I1a and the second image information I2a is selected by comparing the degree of saturation of the pixel corresponding to the region near the eyes in the image. The first image selection unit 26A selects image information indicating that the image corresponding to the region near the eye has a small saturation degree.

第2の画像選択部26Bは、第1の画像情報I1bから生成される第1の画像中の目付近の領域に対応した画素の飽和度合と、第2の画像情報I2bから生成される第2の画像中の目付近の領域に対応した画素の飽和度合とを比較することによって、第1の画像情報I1bおよび第2の画像情報I2bのいずれか1つを選択する。第1の画像選択部26Aは、目付近の領域に対応した画素の飽和度合が小さい画像であることを示す画像情報を選択する。   The second image selection unit 26B has a pixel saturation level corresponding to a region near the eye in the first image generated from the first image information I1b, and a second level generated from the second image information I2b. One of the first image information I1b and the second image information I2b is selected by comparing the degree of saturation of the pixel corresponding to the region in the vicinity of the eyes in the image. The first image selection unit 26A selects image information indicating that the image corresponding to the region near the eye has a small saturation degree.

距離演算部25は、第1の画像選択部26Aが選択した画像情報と第2の画像選択部26Bが選択した画像情報とに基づいて視差量を求め、上述した式1に従って運転者までの距離D5を演算する。   The distance calculation unit 25 obtains the amount of parallax based on the image information selected by the first image selection unit 26A and the image information selected by the second image selection unit 26B, and the distance to the driver according to the above-described equation 1. D5 is calculated.

顔認識部22は、第1の画像選択部26Aが選択した画像情報に基づいて運転者の顔の特徴点を認識する。   The face recognition unit 22 recognizes feature points of the driver's face based on the image information selected by the first image selection unit 26A.

目開度検出部27は、認識された特徴点に基づいて運転者の目の開口度を検出する。   The eye opening detection unit 27 detects the opening degree of the driver's eyes based on the recognized feature points.

居眠り判定部28は、所定時間において継続して目の開口度が所定量以下であるか否かに応じて、運転者が居眠りをしているか否かを判定する。例えば、居眠り判定部28は、所定時間において継続して目の開口度が50%以下であるときに、運転者が居眠りをしていると判定する。   The dozing determination unit 28 determines whether or not the driver is dozing according to whether or not the opening degree of the eyes is not more than a predetermined amount continuously for a predetermined time. For example, the dozing determination unit 28 determines that the driver is dozing when the opening degree of the eyes is 50% or less continuously for a predetermined time.

顔モデル生成部(3次元顔認識部)22Aは、第1の画像選択部26Aが選択した画像情報と運転者までの距離情報D5に基づいて運転者の顔の3次元特徴点を認識し、3次元顔モデルを作成する。   The face model generation unit (3D face recognition unit) 22A recognizes the 3D feature points of the driver's face based on the image information selected by the first image selection unit 26A and the distance information D5 to the driver, Create a 3D face model.

顔向き判定部23は、3次元顔モデルに基づいてパターンマッチング用のテンプレートを作成する。顔向き判定部23は、カメラ6Eから順次出力される画像に対して、運転者の顔向きを推定し、かつ、テンプレートを用いたテンプレートマッチングを実行することによって、顔追跡を行う。顔向き判定部23は、顔向きの推定結果およびテンプレートマッチングにより得られた相関値に基づいて運転者の顔向きを判定する。   The face orientation determination unit 23 creates a pattern matching template based on the three-dimensional face model. The face orientation determination unit 23 performs face tracking by estimating the driver's face orientation on images sequentially output from the camera 6E and executing template matching using a template. The face orientation determination unit 23 determines the driver's face orientation based on the estimation result of the face orientation and the correlation value obtained by template matching.

脇見判定部24は、顔向きの判定結果を受けて、所定の時間において継続して顔向きが所定の範囲内であるときに、運転者が脇見をしていると判定する。例えば、所定の範囲とは、目線の仰角および俯角がそれぞれ10度以上である範囲である。   The look-ahead determination unit 24 receives the determination result of the face orientation and determines that the driver is looking aside when the face orientation is within a predetermined range continuously for a predetermined time. For example, the predetermined range is a range in which the elevation angle and depression angle of the line of sight are each 10 degrees or more.

警告装置40は、脇見判定部24の判定結果に応じて運転者に警告を発する。   The warning device 40 issues a warning to the driver according to the determination result of the aside look determination unit 24.

本実施の形態の他の変形例によれば、偏光特性を利用して外光に対するロバスト性を向上させることができる。また、脇見運転の判定および居眠り運転の判定を同時に行うことができる。さらに、ステレオ撮影の効果により、顔の特徴点のみならず、運転者までの距離情報を含めて顔の3次元特徴点に基づく画像解析がなされるので、より精度よく顔向きを検出でき、運転者が脇見や居眠りをしているかをより精度よく判定することができる。   According to another modification of the present embodiment, robustness against external light can be improved using polarization characteristics. Further, the determination of the aside driving and the determination of the dozing operation can be performed at the same time. Furthermore, because of the effects of stereo shooting, image analysis based on 3D feature points of the face including not only the feature points of the face but also the distance information to the driver is performed, so that the face orientation can be detected more accurately and driving It is possible to more accurately determine whether the person is looking aside or snoozing.

運転者監視システム300Aは、オプションとして、補助照明制御部53と、姿勢検知部51と、エアバック判定展開部52をさらに備えていてもよい。この場合、2台のカメラを用いて、脇見運転の判定、居眠り運転の判定およびエアバック展開の判定を画像処理によって同時に行うことができ、運転監視システムの低コスト化を実現できる。   The driver monitoring system 300A may further include an auxiliary illumination control unit 53, an attitude detection unit 51, and an airbag determination deployment unit 52 as options. In this case, by using two cameras, the determination of the aside driving, the determination of the dozing operation, and the determination of the airbag deployment can be simultaneously performed by image processing, and the cost reduction of the driving monitoring system can be realized.

(実施の形態4)
まず、図20を参照しながら、本実施の形態による運転者監視システム400の構成および機能を説明する。
(Embodiment 4)
First, the configuration and function of the driver monitoring system 400 according to the present embodiment will be described with reference to FIG.

図20は、本実施の形態による運転者監視システム400のブロック構成図を示す。なお、実施の形態1および2による運転者監視システム100および200の構成要素と同一の構成要素には、同じ参照符号を付している。   FIG. 20 is a block diagram of a driver monitoring system 400 according to this embodiment. The same components as those of driver monitoring systems 100 and 200 according to Embodiments 1 and 2 are denoted by the same reference numerals.

運転者監視システム400は、カメラユニット10と、信号処理回路20と、コントローラ30と、警告装置40とを備えている。   The driver monitoring system 400 includes a camera unit 10, a signal processing circuit 20, a controller 30, and a warning device 40.

カメラユニット10は、近赤外光を運転者に向けて補助照明光として照射する。カメラ6Gは、運転者の像を検出し、近赤外光の情報を示す画像信号(以降、「IR画像信号」と称する。)およびカラー画像信号を生成する。   The camera unit 10 emits near infrared light as auxiliary illumination light toward the driver. The camera 6G detects an image of the driver, and generates an image signal (hereinafter referred to as “IR image signal”) indicating color information and a color image signal.

信号処理回路20は、IR画像信号に基づいて運転者の顔向きを検出し、運転者が脇見をしているか否かの判定を行う。また、信号処理回路20は、カラー画像情報に基づいて運転者の顔色の変化から心拍数を推定し、運転者の体調を判定する。   The signal processing circuit 20 detects the driver's face direction based on the IR image signal, and determines whether or not the driver is looking aside. Further, the signal processing circuit 20 estimates the heart rate from the change in the driver's face color based on the color image information, and determines the physical condition of the driver.

警告装置40は、信号処理回路20が、運転者が居眠りをしていると判定した場合や、運転者の体調が悪いと判定した場合に、運転者に警告する。   The warning device 40 warns the driver when the signal processing circuit 20 determines that the driver is asleep or determines that the driver is in poor physical condition.

図21は、光学領域D1、D2、D3およびD4の光学特性を示す。光学領域は4つに分割されており、光学領域D1は、近赤外光だけを透過させる第1の分光特性を有し、光学領域D2は、可視光帯域における赤色の光だけを透過させる第2の分光特性を有し、光学領域D3は、可視光帯域における緑色の光だけを透過させる第3の分光特性を有し、光学領域D4は、可視光帯域における青色の光だけを透過させる第4の分光特性を有する。   FIG. 21 shows the optical characteristics of the optical regions D1, D2, D3 and D4. The optical region is divided into four, the optical region D1 has a first spectral characteristic that transmits only near-infrared light, and the optical region D2 transmits only red light in the visible light band. The optical region D3 has a third spectral characteristic that transmits only green light in the visible light band, and the optical region D4 has a third spectral characteristic that transmits only blue light in the visible light band. 4 spectral characteristics.

カメラユニット10は、近赤外光の情報を有する第1の画像信号I1と、赤色(R)の光の情報を有する第2の画像信号I2と、緑色(G)の光の情報を有する第3の画像信号I3と、青色(B)の光の情報を有する第4の画像信号I4とを出力する。   The camera unit 10 includes a first image signal I1 having near-infrared light information, a second image signal I2 having red (R) light information, and a green (G) light information. 3 image signal I3 and a fourth image signal I4 having blue (B) light information.

再び、図20を参照しながら、信号処理回路20の詳細を説明する。   Again, the details of the signal processing circuit 20 will be described with reference to FIG.

信号処理回路20は、画像生成部29と、第1および第2の顔認識部22B、22Cと、顔向き判定部23と、心拍数推定部31と、脇見判定部24と、体調判定部32とを有する。   The signal processing circuit 20 includes an image generation unit 29, first and second face recognition units 22B and 22C, a face orientation determination unit 23, a heart rate estimation unit 31, an armpit determination unit 24, and a physical condition determination unit 32. And have.

画像生成部29は、第1の画像信号I1(IR画像信号)から近赤外光の情報を示すIR画像情報を生成し、第2、第3および第4の画像信号I2、I3およびI4からカラー画像情報を生成する。カラー画像情報は、輝度や色差の情報に限らず、RGBの各成分の輝度値(画素値)を含んでいてもよい。   The image generation unit 29 generates IR image information indicating near-infrared light information from the first image signal I1 (IR image signal), and from the second, third, and fourth image signals I2, I3, and I4. Generate color image information. The color image information is not limited to luminance and color difference information, and may include luminance values (pixel values) of RGB components.

顔認識部22は、第1の顔認識部22Bおよび第2の顔認識部22Cを含んでいる。   The face recognition unit 22 includes a first face recognition unit 22B and a second face recognition unit 22C.

第1の顔認識部22Bは、IR画像情報に基づいて運転者の顔の特徴点を認識する。   The first face recognition unit 22B recognizes feature points of the driver's face based on the IR image information.

第2の顔認識部22Cは、カラー画像情報に基づいて運転者の顔の特徴点を認識する。例えば、カラー画像情報が、RGBの各成分の輝度値を示している場合、第2の顔認識部22Cは、各成分の輝度値に基づいて運転者の顔の特徴点を認識することができる。または、第2の顔認識部22Cは、G成分の輝度値に基づいて運転者の顔の特徴点を認識してもよい。   The second face recognition unit 22C recognizes feature points of the driver's face based on the color image information. For example, when the color image information indicates the luminance value of each component of RGB, the second face recognition unit 22C can recognize the feature point of the driver's face based on the luminance value of each component. . Alternatively, the second face recognition unit 22C may recognize a feature point of the driver's face based on the luminance value of the G component.

顔向き判定部23は、第1の顔認識部22Bによって認識された顔の特徴点を用いて運転者の顔向きを判定する。   The face orientation determination unit 23 determines the driver's face orientation using the facial feature points recognized by the first face recognition unit 22B.

脇見判定部24は、顔向きの判定結果を受けて、所定の時間において継続して顔向きが所定の範囲内であるときに、運転者が脇見をしていると判定する。例えば、所定の範囲とは、目線の仰角および俯角がそれぞれ10度以上である範囲である。   The look-ahead determination unit 24 receives the determination result of the face orientation and determines that the driver is looking aside when the face orientation is within a predetermined range continuously for a predetermined time. For example, the predetermined range is a range in which the elevation angle and depression angle of the line of sight are each 10 degrees or more.

心拍数推定部31は、第2の顔認識部22Cによって認識された顔の特徴点に着目して運転者の顔色の変化を検出し、心拍数を推定する。顔色の変化から心拍数を推定する方法として、例えば以下のような手法が知られている。   The heart rate estimation unit 31 focuses on the facial feature points recognized by the second face recognition unit 22C, detects changes in the driver's face color, and estimates the heart rate. As a method for estimating a heart rate from a change in face color, for example, the following method is known.

心拍による血圧の微小な変化が起こると、顔での反射光の量が変化する。血圧の微小な増加によって、顔での反射光の光量は微減し、血圧の微小な減少によって、顔での反射光の光量は微増する。顔に多くの血流が流れれば、顔の皮膚は光をより吸収するので、心臓の鼓動に応じて光の反射率が変化する。RGB成分を独立に分析することにより、心拍による色の変動分だけを分離して、その変動量を心拍の変化とみなすことができる。例えば、撮影した動画の各フレームのRGB成分ごとに輝度の波形を生成して、3つの波形に共通するノイズを除去した後に、G成分の波形のピーク値から脈拍数を推定することができる。   When a minute change in blood pressure due to a heartbeat occurs, the amount of reflected light on the face changes. A slight increase in blood pressure slightly reduces the amount of reflected light on the face, and a slight decrease in blood pressure slightly increases the amount of reflected light on the face. If a lot of blood flows through the face, the skin of the face absorbs light more, so the reflectance of light changes according to the heartbeat. By independently analyzing the RGB components, it is possible to separate only the color fluctuation due to the heartbeat and regard the fluctuation amount as the heartbeat change. For example, it is possible to estimate the pulse rate from the peak value of the G component waveform after generating a luminance waveform for each RGB component of each frame of the captured moving image and removing noise common to the three waveforms.

体調判定部32は、所定時間において継続して推定心拍数が所定値以上、または所定値以下であるとき、運転者は体調不良であると判定する。なお、所定時間および所定値は、医学の観点から決定することができる。   The physical condition determination unit 32 determines that the driver is in poor physical condition when the estimated heart rate continuously exceeds a predetermined value or less than a predetermined value for a predetermined time. The predetermined time and the predetermined value can be determined from a medical viewpoint.

警告装置40は、脇見判定部24および体調判定部32の判定結果に応じて運転者に警告を発する。   The warning device 40 issues a warning to the driver according to the determination results of the looking-aside determination unit 24 and the physical condition determination unit 32.

従来は、顔向き判定用の赤外線カメラと、心拍数を推定するためのカラーカメラとの2台が必要であったので、カメラユニット10のサイズを縮小することが困難であった。   Conventionally, two cameras, an infrared camera for face orientation determination and a color camera for estimating the heart rate, are required, and it is difficult to reduce the size of the camera unit 10.

本実施の形態によれば、1台のカメラにより、IR画像およびカラー画像を同時に取得できるので、顔向きの判定および体調の判定を同時に行うことができる。また、カメラユニット10のサイズを縮小できる。   According to the present embodiment, since the IR image and the color image can be simultaneously acquired by one camera, the determination of the face direction and the determination of the physical condition can be performed simultaneously. In addition, the size of the camera unit 10 can be reduced.

次に、図22を参照しながら、本実施の形態の変形例を説明する。   Next, a modification of the present embodiment will be described with reference to FIG.

図22は、2台のカメラ6H、6Iを搭載した運転者監視システム400Aのブロック構成を示す。カメラユニット10には2台のカメラ6H、6Iが配置されており、カメラユニット10は、複眼カメラとして機能する。   FIG. 22 shows a block configuration of a driver monitoring system 400A equipped with two cameras 6H and 6I. Two cameras 6H and 6I are arranged in the camera unit 10, and the camera unit 10 functions as a compound eye camera.

運転者監視システム400Aは、カメラユニット10と、信号処理回路20と、コントローラ30と、警告装置40とを備えている。また、運転者監視システム400Aは、オプションとして、姿勢検知部51と、エアバック展開制御部52とを備えていてもよい。   The driver monitoring system 400A includes a camera unit 10, a signal processing circuit 20, a controller 30, and a warning device 40. Further, the driver monitoring system 400A may include an attitude detection unit 51 and an airbag deployment control unit 52 as options.

カメラユニット10は、2台のカメラ6H、6Iと、補助照明7とを含む。カメラ6H、6Iは、カメラ6Gと同様に、図21に示す光学特性を有する光学領域を含んでいる。カメラ6H、6Iの構造は、本実施の形態のカメラ6Gの構造と同じである。   The camera unit 10 includes two cameras 6 </ b> H and 6 </ b> I and auxiliary lighting 7. Similarly to the camera 6G, the cameras 6H and 6I include an optical region having the optical characteristics shown in FIG. The structure of the cameras 6H and 6I is the same as that of the camera 6G of the present embodiment.

カメラユニット10は、カメラ6H、6Iから取得された画像信号として、近赤外光の情報を有する第1の画像信号I1A、I1Bと、赤色(R)の光の情報を有する第2の画像信号I2A、I2Bと、緑色(G)の光の情報を有する第3の画像信号I3A、I3Bと、青色(B)の光の情報を有する第4の画像信号I4A、I4Bとを出力する。   The camera unit 10 includes first image signals I1A and I1B having near-infrared light information and second image signals having red (R) light information as image signals acquired from the cameras 6H and 6I. I2A, I2B, third image signals I3A, I3B having green (G) light information, and fourth image signals I4A, I4B having blue (B) light information are output.

信号処理回路20は、第1および第2の画像生成部29Aおよび29Bと、距離演算部25と、顔認識部22と、顔モデル生成部22Aと、心拍数推定部31と、体調判定部32と、顔向き判定部23と、脇見判定部24とを有している。   The signal processing circuit 20 includes first and second image generation units 29A and 29B, a distance calculation unit 25, a face recognition unit 22, a face model generation unit 22A, a heart rate estimation unit 31, and a physical condition determination unit 32. And a face orientation determination unit 23 and an aside look determination unit 24.

第1の画像生成部29Aは、カメラ6Hから取得された、第1の画像信号I1Aから近赤外光の情報を示すIR画像情報Aを生成し、第2、第3および第4の画像信号I2A、I3AおよびI4Aからカラー画像情報Aを生成する。   The first image generation unit 29A generates IR image information A indicating near-infrared light information from the first image signal I1A acquired from the camera 6H, and generates second, third, and fourth image signals. Color image information A is generated from I2A, I3A, and I4A.

第2の画像生成部29Bは、カメラ6Iから取得された、第1の画像信号I1Bから近赤外光の情報を示すIR画像情報Bを生成し、第2、第3および第4の画像信号I2B、I3およびI4Bからカラー画像情報Bを生成する。なお、カラー画像情報A、Bは、RGBの各成分の輝度値を含んでいてもよい。   The second image generation unit 29B generates IR image information B indicating near-infrared light information from the first image signal I1B acquired from the camera 6I, and the second, third, and fourth image signals. Color image information B is generated from I2B, I3, and I4B. Note that the color image information A and B may include luminance values of RGB components.

距離演算部25は、IR画像情報AとIR画像情報Bとに基づいて視差量を求め、上記の式1に従って運転者までの距離D5を演算する。   The distance calculation unit 25 calculates the amount of parallax based on the IR image information A and the IR image information B, and calculates the distance D5 to the driver according to the above equation 1.

顔認識部22は、カラー画像情報Aに基づいて運転者の顔の2次元特徴点を認識する。例えば、カラー画像情報が、RGBの各成分の輝度値を示している場合、顔認識部22は、各成分の輝度値に基づいて運転者の顔の特徴点を認識してもよい。   The face recognition unit 22 recognizes a two-dimensional feature point of the driver's face based on the color image information A. For example, when the color image information indicates the luminance value of each component of RGB, the face recognition unit 22 may recognize the feature point of the driver's face based on the luminance value of each component.

顔モデル生成部22Aは、IR画像情報Aと運転者までの距離情報D5に基づいて運転者の顔の3次元特徴点を認識し、3次元顔モデルを作成する。   The face model generation unit 22A recognizes the three-dimensional feature point of the driver's face based on the IR image information A and the distance information D5 to the driver, and creates a three-dimensional face model.

顔向き判定部23は、3次元顔モデルを用いて運転者の顔向きを判定する。   The face orientation determination unit 23 determines the driver's face orientation using a three-dimensional face model.

脇見判定部24は、顔向きの検出結果を受けて、所定の時間において継続して顔向きが所定の範囲内であるときに、運転者が脇見をしていると判定する。例えば、所定の範囲とは、目線の仰角および俯角がそれぞれ10度以上である範囲である。   The look-ahead determination unit 24 receives the detection result of the face direction, and determines that the driver is looking aside when the face direction is within a predetermined range continuously for a predetermined time. For example, the predetermined range is a range in which the elevation angle and depression angle of the line of sight are each 10 degrees or more.

心拍数推定部31は、顔認識部22によって認識された顔の2次元特徴点に着目して運転者の顔色の変化を検出し、心拍数を推定する。   The heart rate estimation unit 31 focuses on the two-dimensional feature points of the face recognized by the face recognition unit 22, detects a change in the driver's face color, and estimates the heart rate.

体調判定部32は、所定時間において継続して推定心拍数が所定値以上、または所定値以下であるとき、運転者は体調不良であると判定する。   The physical condition determination unit 32 determines that the driver is in poor physical condition when the estimated heart rate continuously exceeds a predetermined value or less than a predetermined value for a predetermined time.

警告装置40は、脇見判定部24および体調判定部32の判定結果に応じて運転者に警告を発する。   The warning device 40 issues a warning to the driver according to the determination results of the looking-aside determination unit 24 and the physical condition determination unit 32.

本実施の形態によれば、ステレオ撮影の効果を得ることができ、かつ、顔向きの判定および体調の判定を同時に画像処理で行うことができる。また、カメラユニット10のサイズを縮小できる。   According to the present embodiment, the effect of stereo shooting can be obtained, and the determination of the face orientation and the determination of the physical condition can be simultaneously performed by image processing. In addition, the size of the camera unit 10 can be reduced.

運転者監視システム400Aは、オプションとして、姿勢検知部51、エアバック判定展開部52を備えていてもよい。この場合、2台のカメラを用いて、脇見運転の判定、体調の判定およびエアバック展開の判定を画像処理によって同時に行うことができ、運転監視システムの低コスト化を実現できる。   The driver monitoring system 400A may optionally include an attitude detection unit 51 and an airbag determination deployment unit 52. In this case, by using two cameras, the determination of the aside driving, the determination of the physical condition, and the determination of the airbag deployment can be simultaneously performed by image processing, and the driving monitoring system can be reduced in cost.

実施の形態1から4において説明したとおり、異なる光学特性を有する少なくとも2つの光学領域を通過したそれぞれの光の像が1つの撮像装置において同時に取得される。信号処理回路20は、同時に取得された光の像の複数の画像信号を合成することによって、または複数の画像信号からいずれか1つを選択することによって、合成または選択された画像信号に基づいて運転者の顔の特徴点を認識する。   As described in the first to fourth embodiments, each image of light that has passed through at least two optical regions having different optical characteristics is simultaneously acquired by one imaging apparatus. The signal processing circuit 20 is based on the synthesized or selected image signal by synthesizing a plurality of image signals of the simultaneously acquired light images or by selecting any one of the plurality of image signals. Recognize feature points of driver's face.

実施の形態1による運転者監視システムと同様に、信号処理回路20内の各処理部の機能ごとに分割した処理単位によって、実施の形態2から4による運転者監視システムの動作フローを規定することができる。   Similarly to the driver monitoring system according to the first embodiment, the operation flow of the driver monitoring system according to the second to fourth embodiments is defined by the processing unit divided for each function of each processing unit in the signal processing circuit 20. Can do.

本発明の技術はさらに、上述の脇見・居眠り運転をしているか否かを判定する処理を規定するソフトウェア(プログラム)にも適用され得る。そのようなプログラムに規定される動作は、例えば図23に示すとおりである。このようなプログラムは、可搬型の記録媒体に記録されて提供され得る他、電気通信回線を通じても提供され得る。コンピュータに内蔵されたプロセッサがこのようなプログラムを実行することにより、上記の実施の形態で説明した各種動作を実現することができる。   The technique of the present invention can also be applied to software (program) that defines the above-described process for determining whether or not the driver is looking aside. The operation defined in such a program is, for example, as shown in FIG. Such a program can be provided by being recorded on a portable recording medium or can be provided through a telecommunication line. Various operations described in the above embodiment can be realized by a processor built in the computer executing such a program.

本願に開示された運転者監視システムは、自動車、電車、および飛行機などの乗物に搭載されるシステムに利用できる。   The driver monitoring system disclosed in the present application can be used for a system mounted on a vehicle such as an automobile, a train, and an airplane.

2 :運転者
3 :ステアリングホイール
4 :自動車
5 :ステアリングコラム
6、6A、6B、6C、6D、6E、6F、6G、6H、6I :カメラ
7 :補助照明
10 :カメラユニット
20 :信号処理回路
21 :画像合成部
21A :第1の画像合成部
21B :第2の画像合成部
22 :顔認識部
22A :顔モデル生成部
22B :第1の顔認識部
22C :第2の顔認識部
23 :顔向き判定部
24 :脇見判定部
25 :距離演算部
26 :画像選択部
26A :第1の画像選択部
26B :第2の画像選択部
27 :目開度検出部
28 :判定部
29 :画像生成部
29A :第1の画像生成部
29B :第2の画像生成部
30 :コントローラ
31 :心拍数推定部
32 :体調判定部
40 :警告装置
41 :エアバック
51 :姿勢検知部
52 :エアバック判定展開部
52 :エアバック展開制御部
53 :補助照明制御部
61、62 :目尻
63、64 :口元
65、66 :眉
100、100A、200、300、300A、400、400A :運転者監視システム
K :アレイ状光学素子
L :レンズ光学系
L1 :レンズ
L2 :光学素子
M1、M2 :光学要素
M2I :単位領域
Ms :マイクロレンズ
N :撮像素子
Ni :撮像面
P :画素
S :絞り
V :光軸
2: Driver 3: Steering wheel 4: Automobile 5: Steering column 6, 6A, 6B, 6C, 6D, 6E, 6F, 6G, 6H, 6I: Camera 7: Auxiliary lighting 10: Camera unit 20: Signal processing circuit 21 : Image composition unit 21A: First image composition unit 21B: Second image composition unit 22: Face recognition unit 22A: Face model generation unit 22B: First face recognition unit 22C: Second face recognition unit 23: Face Direction determination unit 24: Aside look determination unit 25: Distance calculation unit 26: Image selection unit 26A: First image selection unit 26B: Second image selection unit 27: Eye opening detection unit 28: Determination unit 29: Image generation unit 29A: 1st image generation part 29B: 2nd image generation part 30: Controller 31: Heart rate estimation part 32: Physical condition determination part 40: Warning device 41: Air bag 51: Posture Knowledge unit 52: Airbag determination deployment unit 52: Airbag deployment control unit 53: Auxiliary illumination control unit 61, 62: Eye corner 63, 64: Mouth 65, 66: Eyebrow 100, 100A, 200, 300, 300A, 400, 400A : Driver monitoring system K: Array optical element L: Lens optical system L1: Lens L2: Optical element M1 and M2: Optical element M2I: Unit area Ms: Micro lens N: Imaging element Ni: Imaging surface P: Pixel S: Aperture V: Optical axis

Claims (16)

レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記各光学領域に対応した前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する撮像装置であって、前記各光学領域を通過した光の情報を有し、前記各撮像領域から取得される複数の画像信号を出力する撮像装置と、
前記複数の画像信号の少なくとも1つの画像信号に基づいて運転者の顔の特徴点を認識する顔認識部と、
前記顔の特徴点に基づいて前記運転者が脇見または居眠りをしているか否かを判定する脇見・居眠り判定部と
を含む信号処理回路と
を備えた、運転者監視システム。
A lens, a lens optical system including at least two optical regions having different optical characteristics, an image pickup device having at least two image pickup regions on which light transmitted through the lens optical system is incident, the lens optical system, and the image pickup device And an array-like optical element that causes light that has passed through each optical region of the at least two optical regions to enter each imaging region of the at least two imaging regions corresponding to each optical region. An imaging device that has information on light that has passed through each of the optical regions, and that outputs a plurality of image signals acquired from the imaging regions;
A face recognition unit for recognizing a feature point of a driver's face based on at least one image signal of the plurality of image signals;
A driver monitoring system comprising: a signal processing circuit including: an armpit / dozing determination unit that determines whether the driver is looking aside or falling asleep based on the feature points of the face.
近赤外光を照射する補助照明をさらに備え、
前記信号処理回路は、
前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、
前記運転者の顔向きを判定する顔向き判定部と
をさらに含み、
前記少なくとも2つの光学領域は、第1の透過率特性を有する第1の光学領域、前記第1の透過率特性とは異なる第2の透過率特性を有する第2の光学領域、前記第1および第2の透過率特性とは異なる第3の透過率特性を有する第3の光学領域、ならびに前記第1、第2および第3の透過率特性とは異なる第4の透過率特性を有する第4の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、
前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号、前記第2の撮像領域から取得された第2の画像信号、前記第3の撮像領域から取得された第3の画像信号、および前記第4の撮像領域から取得された第4の画像信号を合成して前記合成画像信号を生成し、
前記顔認識部は、前記合成画像信号に基づいて前記運転者の顔の特徴点を認識し、
前記顔向き判定部は、前記顔の特徴点に基づいて前記運転者の顔向きを判定し、
前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する、請求項1に記載の運転者監視システム。
Auxiliary illumination that emits near-infrared light is further provided,
The signal processing circuit includes:
An image synthesis unit that synthesizes the plurality of image signals to generate a synthesized image signal;
A face orientation determining unit that determines the driver's face orientation;
The at least two optical regions include a first optical region having a first transmittance characteristic, a second optical region having a second transmittance characteristic different from the first transmittance characteristic, the first and A third optical region having a third transmittance characteristic different from the second transmittance characteristic and a fourth optical region having a fourth transmittance characteristic different from the first, second and third transmittance characteristics. Including the optical region of
The at least two imaging regions include a first imaging region corresponding to the first optical region, a second imaging region corresponding to the second optical region, and a third corresponding to the third optical region. An imaging region, and a fourth imaging region corresponding to the fourth optical region,
The image synthesis unit includes a first image signal acquired from the first imaging area, a second image signal acquired from the second imaging area, and a third image acquired from the third imaging area. And the fourth image signal acquired from the fourth imaging region to generate the composite image signal,
The face recognition unit recognizes feature points of the driver's face based on the composite image signal,
The face orientation determination unit determines the driver's face orientation based on the facial feature points,
2. The driver monitoring system according to claim 1, wherein the side-by-side / slumber determining unit determines whether or not the driver is looking aside according to a determination result of the driver's face orientation.
近赤外光を照射する補助照明をさらに備え、
前記信号処理回路は、
前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、
前記運転者までの距離を演算する距離演算部と、
前記運転者の顔向きを判定する顔向き判定部と
をさらに含み、
前記少なくとも2つの光学領域は、第1の透過率特性を有する第1および第3の光学領域と、前記第1の透過率特性とは異なる第2の透過率特性を有する第2および第4の光学領域とを含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、
前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号および前記第2の撮像領域から取得された第2の画像信号を合成して第1の合成画像信号を生成し、前記第3の撮像領域から取得された第3の画像信号および前記第4の撮像領域から取得された第4の画像信号を合成して第2の合成画像信号を生成し、
前記距離演算部は、前記第1および第2の合成画像信号に基づいて前記運転者までの距離を演算し、
前記顔認識部は、前記第1の合成画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識し、
前記顔向き判定部は、前記3次元特徴点に基づいて前記運転者の顔向きを判定し、
前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する、請求項1に記載の運転者監視システム。
Auxiliary illumination that emits near-infrared light is further provided,
The signal processing circuit includes:
An image synthesis unit that synthesizes the plurality of image signals to generate a synthesized image signal;
A distance calculator for calculating the distance to the driver;
A face orientation determining unit that determines the driver's face orientation;
The at least two optical regions include first and third optical regions having a first transmittance characteristic, and second and fourth optical regions having a second transmittance characteristic different from the first transmittance characteristic. An optical region,
The at least two imaging regions include a first imaging region corresponding to the first optical region, a second imaging region corresponding to the second optical region, and a third corresponding to the third optical region. An imaging region, and a fourth imaging region corresponding to the fourth optical region,
The image synthesizing unit synthesizes the first image signal acquired from the first imaging area and the second image signal acquired from the second imaging area to generate a first synthesized image signal. A second image signal is generated by synthesizing the third image signal acquired from the third imaging region and the fourth image signal acquired from the fourth imaging region;
The distance calculation unit calculates a distance to the driver based on the first and second composite image signals,
The face recognition unit recognizes a three-dimensional feature point of the driver's face based on the first composite image signal and the distance to the driver;
The face orientation determination unit determines the driver's face orientation based on the three-dimensional feature points,
2. The driver monitoring system according to claim 1, wherein the side-by-side / slumber determining unit determines whether or not the driver is looking aside according to a determination result of the driver's face orientation.
近赤外光を照射する補助照明をさらに備え、
前記信号処理回路は、
前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、
前記運転者までの距離を演算する距離演算部と、
前記運転者の顔向きを判定する顔向き判定部と
をさらに含み、
前記少なくとも2つの光学領域は、第1の合焦特性を有する第1の光学領域、前記第1の合焦特性とは異なる第2の合焦特性を有する第2の光学領域、前記第1および第2の合焦特性とは異なる第3の合焦特性を有する第3の光学領域、ならびに前記第1、第2および第3の合焦特性とは異なる第4の合焦特性を有する第4の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、
前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号、前記第2の撮像領域から取得された第2の画像信号、前記第3の撮像領域から取得された第3の画像信号、および前記第4の撮像領域から取得された第4の画像信号を合成して前記合成画像信号を生成し、
前記距離演算部は、前記第1、第2、第3および第4の画像信号に基づいて、前記運転者までの距離を演算し、
前記顔認識部は、前記合成画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識し、
前記顔向き判定部は、前記3次元特徴点に基づいて前記運転者の顔向きを判定し、
前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する、請求項1に記載の運転者監視システム。
Auxiliary illumination that emits near-infrared light is further provided,
The signal processing circuit includes:
An image synthesis unit that synthesizes the plurality of image signals to generate a synthesized image signal;
A distance calculator for calculating the distance to the driver;
A face orientation determining unit that determines the driver's face orientation;
The at least two optical regions include a first optical region having a first focusing property, a second optical region having a second focusing property different from the first focusing property, the first and A third optical region having a third focusing characteristic different from the second focusing characteristic, and a fourth optical characteristic having a fourth focusing characteristic different from the first, second and third focusing characteristics. Including the optical region of
The at least two imaging regions include a first imaging region corresponding to the first optical region, a second imaging region corresponding to the second optical region, and a third corresponding to the third optical region. An imaging region, and a fourth imaging region corresponding to the fourth optical region,
The image synthesis unit includes a first image signal acquired from the first imaging area, a second image signal acquired from the second imaging area, and a third image acquired from the third imaging area. And the fourth image signal acquired from the fourth imaging region to generate the composite image signal,
The distance calculation unit calculates a distance to the driver based on the first, second, third and fourth image signals,
The face recognition unit recognizes a three-dimensional feature point of the driver's face based on the composite image signal and the distance to the driver;
The face orientation determination unit determines the driver's face orientation based on the three-dimensional feature points,
2. The driver monitoring system according to claim 1, wherein the side-by-side / slumber determining unit determines whether or not the driver is looking aside according to a determination result of the driver's face orientation.
近赤外光を照射する補助照明をさらに備え、
前記信号処理回路は、
前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、
前記運転者までの距離を演算する距離演算部と
前記運転者の顔向きを判定する顔向き判定部と
をさらに含み、
前記少なくとも2つの光学領域は、第1の透過率特性および第1の合焦特性を有する第1の光学領域、前記第1の透過率特性とは異なる第2の透過率特性および前記第1の合焦特性を有する第2の光学領域、前記第1の透過率特性および前記第1の合焦特性とは異なる第2の合焦特性を有する第3の光学領域、ならびに前記第2の透過率特性および前記第2の合焦特性を有する第4の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、
前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号および前記第2の撮像領域から取得された第2の画像信号を合成して第1の合成画像信号を生成し、前記第3の撮像領域から取得された第3の画像信号および前記第4の撮像領域から取得された第4の画像信号を合成して第2の合成画像信号を生成し、前記第1および第2の合成画像を合成して第3の合成画像信号をさらに生成し、
前記距離演算部は、前記第1および第2の合成画像信号に基づいて前記運転者までの距離を演算し、
前記顔認識部は、前記第3の合成画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識し、
前記顔向き判定部は、前記3次元特徴点に基づいて前記運転者の顔向きを判定し、
前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する、請求項1に記載の運転者監視システム。
Auxiliary illumination that emits near-infrared light is further provided,
The signal processing circuit includes:
An image synthesis unit that synthesizes the plurality of image signals to generate a synthesized image signal;
A distance calculation unit that calculates a distance to the driver; and a face direction determination unit that determines the driver's face direction;
The at least two optical regions are a first optical region having a first transmittance property and a first focusing property, a second transmittance property different from the first transmittance property, and the first A second optical region having a focusing characteristic, a third optical region having a second focusing characteristic different from the first transmittance characteristic and the first focusing characteristic, and the second transmittance. A fourth optical region having a characteristic and the second focusing characteristic;
The at least two imaging regions include a first imaging region corresponding to the first optical region, a second imaging region corresponding to the second optical region, and a third corresponding to the third optical region. An imaging region, and a fourth imaging region corresponding to the fourth optical region,
The image synthesizing unit synthesizes the first image signal acquired from the first imaging area and the second image signal acquired from the second imaging area to generate a first synthesized image signal. , Combining the third image signal acquired from the third imaging region and the fourth image signal acquired from the fourth imaging region to generate a second combined image signal, and Generating a third composite image signal by combining the second composite image;
The distance calculation unit calculates a distance to the driver based on the first and second composite image signals,
The face recognition unit recognizes a three-dimensional feature point of the driver's face based on the third composite image signal and the distance to the driver;
The face orientation determination unit determines the driver's face orientation based on the three-dimensional feature points,
2. The driver monitoring system according to claim 1, wherein the side-by-side / slumber determining unit determines whether or not the driver is looking aside according to a determination result of the driver's face orientation.
レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する第1および第2の撮像装置であって、前記各光学領域を通過した光の情報を有し、前記各撮像領域から得られる複数の画像信号を出力する第1および第2の撮像装置と、
近赤外光を照射する補助照明と、
前記第1の撮像装置から出力される前記複数の画像信号を合成して第1の合成画像信号を生成する第1の画像合成部と、
前記第2の撮像装置から出力される前記複数の画像信号を合成して第2の合成画像信号を生成する第2の画像合成部と、
前記第1および第2の合成画像信号から得られる視差量を用いて運転者までの距離を演算する距離演算部と、
前記第1の合成画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識する3次元顔認識部と、
前記3次元特徴点に基づいて前記運転者の顔向きを判定する顔向き判定部と、
前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する脇見判定部と
を含む信号処理回路と
を備え、
前記少なくとも2つの光学領域は、第1の透過率特性を有する第1の光学領域、前記第1の透過率特性とは異なる第2の透過率特性を有する第2の光学領域、前記第1および第2の透過率特性とは異なる第3の透過率特性を有する第3の光学領域、ならびに前記第1、第2および第3の透過率特性とは異なる第4の透過率特性を有する第4の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、
前記第1の画像合成部は、前記第1の撮像領域から取得された第1の画像信号、前記第2の撮像領域から取得された第2の画像信号、前記第3の撮像領域から取得された第3の画像信号、および前記第4の撮像領域から取得された第4の画像信号を合成して前記第1の合成画像を生成し、
前記第2の画像合成部は、前記第1の撮像領域から取得された第1の画像信号、前記第2の撮像領域から取得された第2の画像信号、前記第3の撮像領域から取得された第3の画像信号、および前記第4の撮像領域から取得された第4の画像信号を合成して前記第2の合成画像を生成する、運転者監視システム。
A lens, a lens optical system including at least two optical regions having different optical characteristics, an image pickup device having at least two image pickup regions on which light transmitted through the lens optical system is incident, the lens optical system, and the image pickup device And an array of optical elements that allow light that has passed through the optical regions of the at least two optical regions to enter the imaging regions of the at least two imaging regions. A first and second imaging device having information on light that has passed through each optical region and outputting a plurality of image signals obtained from each imaging region;
Auxiliary illumination that emits near-infrared light,
A first image synthesis unit that synthesizes the plurality of image signals output from the first imaging device to generate a first synthesized image signal;
A second image synthesizing unit that synthesizes the plurality of image signals output from the second imaging device to generate a second synthesized image signal;
A distance calculation unit that calculates the distance to the driver using the amount of parallax obtained from the first and second composite image signals;
A three-dimensional face recognition unit that recognizes a three-dimensional feature point of the driver's face based on the first composite image signal and the distance to the driver;
A face orientation determination unit that determines the driver's face orientation based on the three-dimensional feature points;
A signal processing circuit including a side-by-side determination unit that determines whether or not the driver is looking aside according to a determination result of the driver's face orientation,
The at least two optical regions include a first optical region having a first transmittance characteristic, a second optical region having a second transmittance characteristic different from the first transmittance characteristic, the first and A third optical region having a third transmittance characteristic different from the second transmittance characteristic and a fourth optical region having a fourth transmittance characteristic different from the first, second and third transmittance characteristics. Including the optical region of
The at least two imaging regions include a first imaging region corresponding to the first optical region, a second imaging region corresponding to the second optical region, and a third corresponding to the third optical region. An imaging region, and a fourth imaging region corresponding to the fourth optical region,
The first image synthesizing unit is acquired from the first image signal acquired from the first imaging region, the second image signal acquired from the second imaging region, and the third imaging region. Generating the first combined image by combining the third image signal and the fourth image signal acquired from the fourth imaging region,
The second image synthesis unit is acquired from the first image signal acquired from the first imaging region, the second image signal acquired from the second imaging region, and the third imaging region. A driver monitoring system that generates the second composite image by combining the third image signal and the fourth image signal acquired from the fourth imaging region.
第1の偏光軸の方向に振動する近赤外光を照射する補助照明をさらに備え、
前記信号処理回路は、
前記複数の画像信号の中から1つを選択する画像選択部と、
前記運転者の目の開口度を検出する目開度検出部と
をさらに含み、
前記少なくとも2つの光学領域は、前記第1の偏光軸の方向に振動する光を透過させる第1の偏光特性を有する第1の光学領域および前記第1の偏光軸の方向と垂直な第2の偏光軸の方向に振動する光を透過させる第2の偏光特性を有する第2の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域および前記第2の光学領域に対応した第2の撮像領域を含み、
前記画像選択部は、前記第1の撮像領域から取得された第1の画像信号から構成される第1の画像中の画素の飽和度合と、前記第2の撮像領域から取得された第2の画像信号から構成される第2の画像中の画素の飽和度合とを比較することによって、前記第1の画像信号および前記第2の画像信号からいずれか1つを選択し、
前記顔認識部は、選択された画像信号に基づいて前記運転者の顔の特徴点を認識し、
前記目開度検出部は、前記顔の特徴点に基づいて前記運転者の目の開口度を検出し、
前記脇見・居眠り判定部は、前記目の開口度の検出結果に応じて前記運転者が居眠りをしているか否かを判定する、請求項1に記載の運転者監視システム。
An auxiliary illumination that irradiates near-infrared light that vibrates in the direction of the first polarization axis;
The signal processing circuit includes:
An image selection unit that selects one of the plurality of image signals;
An eye opening degree detecting unit for detecting an opening degree of the driver's eyes, and
The at least two optical regions include a first optical region having a first polarization characteristic that transmits light oscillating in the direction of the first polarization axis, and a second perpendicular to the direction of the first polarization axis. A second optical region having a second polarization characteristic that transmits light oscillating in the direction of the polarization axis;
The at least two imaging areas include a first imaging area corresponding to the first optical area and a second imaging area corresponding to the second optical area,
The image selection unit includes a saturation degree of a pixel in the first image configured from the first image signal acquired from the first imaging area, and a second level acquired from the second imaging area. Selecting either one of the first image signal and the second image signal by comparing the degree of saturation of a pixel in the second image composed of the image signal;
The face recognition unit recognizes feature points of the driver's face based on the selected image signal,
The eye opening detector detects an opening degree of the driver's eyes based on the facial feature points,
2. The driver monitoring system according to claim 1, wherein the aside and doze determination unit determines whether or not the driver is dozing according to the detection result of the opening degree of the eyes.
第1の偏光軸の方向に振動する光を照射する補助照明をさらに備え、
前記信号処理回路は、
前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、
前記複数の画像信号の中から1つを選択する画像選択部と、
前記運転者の目の開口度を検出する目開度検出部と
をさらに含み、
前記少なくとも2つの光学領域は、前記第1の偏光軸の方向に振動する光を透過させる第1の偏光特性および第1の透過率特性を有する第1の光学領域、前記第1の偏光特性および前記第1の透過率特性とは異なる第2の透過率特性を有する第2の光学領域、前記第1の偏光軸の方向と垂直な第2の偏光軸の方向に振動する光を透過させる第2の偏光特性および前記第1の透過率特性を有する第3の光学領域、および前記第2の偏光特性および前記第2の透過率特性を有する第4の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、
前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号および前記第2の撮像領域から取得された第2の画像信号を合成して第1の合成画像信号を生成し、前記第3の撮像領域から取得された第3の画像信号および前記第4の撮像領域から取得された第4の画像信号を合成して第2の合成画像信号を生成し、
前記画像選択部は、前記第1の合成画像信号から構成される第1の画像中の画素の飽和度合と、前記第2の合成画像信号から構成される第2の画像中の画素の飽和度合とを比較することによって、前記第1の合成画像信号および前記第2の合成画像信号からいずれか1つを選択し、
前記顔認識部は、選択された合成画像信号に基づいて前記運転者の顔の特徴点を認識し、
前記目開度検出部は、前記顔の特徴点に基づいて前記運転者の目の開口度を検出し、
前記脇見・居眠り判定部は、前記目の開口度の検出結果に応じて前記運転者が居眠りをしているか否かを判定する、請求項1に記載の運転者監視システム。
Further comprising auxiliary illumination for irradiating light oscillating in the direction of the first polarization axis;
The signal processing circuit includes:
An image synthesis unit that synthesizes the plurality of image signals to generate a synthesized image signal;
An image selection unit that selects one of the plurality of image signals;
An eye opening degree detecting unit for detecting an opening degree of the driver's eyes, and
The at least two optical regions are a first optical region having a first polarization characteristic and a first transmittance characteristic that transmit light oscillating in the direction of the first polarization axis, the first polarization characteristic, and A second optical region having a second transmittance characteristic different from the first transmittance characteristic; a second optical region that transmits light that vibrates in a direction of a second polarization axis perpendicular to the direction of the first polarization axis; A third optical region having two polarization properties and the first transmittance property, and a fourth optical region having the second polarization property and the second transmittance property,
The at least two imaging regions include a first imaging region corresponding to the first optical region, a second imaging region corresponding to the second optical region, and a third corresponding to the third optical region. An imaging region, and a fourth imaging region corresponding to the fourth optical region,
The image synthesizing unit synthesizes the first image signal acquired from the first imaging area and the second image signal acquired from the second imaging area to generate a first synthesized image signal. A second image signal is generated by synthesizing the third image signal acquired from the third imaging region and the fourth image signal acquired from the fourth imaging region;
The image selection unit includes a saturation degree of pixels in the first image composed of the first composite image signal and a saturation degree of pixels in the second image composed of the second composite image signal. And selecting one of the first composite image signal and the second composite image signal,
The face recognition unit recognizes feature points of the driver's face based on the selected composite image signal,
The eye opening detector detects an opening degree of the driver's eyes based on the facial feature points,
2. The driver monitoring system according to claim 1, wherein the aside and doze determination unit determines whether or not the driver is dozing according to the detection result of the opening degree of the eyes.
レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する第1および第2の撮像装置であって、前記各光学領域を通過した光の情報を示し、前記各撮像領域から得られる複数の画像信号を出力する第1および第2の撮像装置と、
第1の偏光軸の方向に振動する近赤外光を照射する補助照明と、
前記第1の撮像装置から出力される前記複数の画像信号から第1の選択画像信号を選択する第1の画像選択部と、
前記第2の撮像装置から出力された前記複数の画像信号から第2の選択画像信号を選択する第2の画像選択部と、
前記第1および第2の選択画像信号から得られる視差量を用いて運転者までの距離を演算する距離演算部と、
前記第1の選択画像信に基づいて前記運転者の顔の2次元特徴点を認識する顔認識部と、
前記2次元特徴点に基づいて前記運転者の目の開口度を検出する目開度検出部と、
前記目の開口度の検出結果に応じて、前記運転者が居眠りをしているか否かを判定する居眠り判定部と、
前記第1の選択画像信および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識する3次元顔認識部と、
前記顔の3次元特徴点に基づいて前記運転者の顔向きを判定する顔向き判定部と、
前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する脇見判定部と
を含む信号処理回路と
を備え、
前記少なくとも2つの光学領域は、前記第1の偏光軸の方向に振動する光を透過させる第1の偏光特性を有する第1の光学領域および前記第1の偏光軸の方向と垂直な第2の偏光軸の方向に振動する光を透過させる第2の偏光特性を有する第2の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域および前記第2の光学領域に対応した第2の撮像領域を含み、
前記第1の画像選択部は、前記第1の撮像領域から取得された第1の画像信号から構成される第1の画像中の画素の飽和度合と、前記第2の撮像領域から取得された第2の画像信号から構成される第2の画像中の画素の飽和度合とを比較することによって、前記第1の画像信号および前記第2の画像信号のいずれか1つを前記第1の選択画像信号として選択し、
前記第2の画像選択部は、前記第1の撮像領域から取得された第1の画像信号から構成される第1の画像中の画素の飽和度合と、前記第2の撮像領域から取得された第2の画像信号から構成される第2の画像中の画素の飽和度合とを比較することによって、前記第1の画像信号および前記第2の画像信号のいずれか1つを前記第2の選択画像信号として選択する、運転者監視システム。
A lens, a lens optical system including at least two optical regions having different optical characteristics, an image pickup device having at least two image pickup regions on which light transmitted through the lens optical system is incident, the lens optical system, and the image pickup device And an array of optical elements that allow light that has passed through the optical regions of the at least two optical regions to enter the imaging regions of the at least two imaging regions. A first imaging device and a second imaging device for indicating information of light that has passed through each optical region and outputting a plurality of image signals obtained from the respective imaging regions;
Auxiliary illumination for irradiating near infrared light oscillating in the direction of the first polarization axis;
A first image selection unit that selects a first selection image signal from the plurality of image signals output from the first imaging device;
A second image selection unit that selects a second selection image signal from the plurality of image signals output from the second imaging device;
A distance calculation unit that calculates a distance to the driver using the amount of parallax obtained from the first and second selection image signals;
A face recognition unit for recognizing a two-dimensional feature point of the driver's face based on the first selected image signal;
An eye opening detection unit that detects an opening degree of the driver's eyes based on the two-dimensional feature points;
A dozing determination unit that determines whether the driver is dozing according to the detection result of the opening degree of the eyes,
A three-dimensional face recognition unit for recognizing a three-dimensional feature point of the driver's face based on the first selected image signal and the distance to the driver;
A face orientation determination unit that determines the face orientation of the driver based on the three-dimensional feature points of the face;
A signal processing circuit including a side-by-side determination unit that determines whether or not the driver is looking aside according to a determination result of the driver's face orientation,
The at least two optical regions include a first optical region having a first polarization characteristic that transmits light oscillating in the direction of the first polarization axis, and a second perpendicular to the direction of the first polarization axis. A second optical region having a second polarization characteristic that transmits light oscillating in the direction of the polarization axis;
The at least two imaging areas include a first imaging area corresponding to the first optical area and a second imaging area corresponding to the second optical area,
The first image selection unit is acquired from the saturation degree of the pixel in the first image composed of the first image signal acquired from the first imaging region and the second imaging region. One of the first image signal and the second image signal is selected as the first selection by comparing a saturation degree of a pixel in the second image composed of the second image signal. Select as image signal,
The second image selection unit is acquired from the saturation level of the pixels in the first image composed of the first image signal acquired from the first imaging region and the second imaging region. Comparing one of the first image signal and the second image signal to the second selection by comparing a degree of saturation of a pixel in the second image composed of the second image signal; Driver monitoring system to select as an image signal.
前記補助照明を点灯させた後、前記画素の飽和度合に応じて前記補助照明を消灯させる補助照明制御部をさらに備えた、請求項7から9のいずれかに記載の運転者監視システム。   The driver monitoring system according to any one of claims 7 to 9, further comprising an auxiliary lighting control unit that turns off the auxiliary lighting according to a degree of saturation of the pixel after the auxiliary lighting is turned on. 近赤外光を照射する補助照明をさらに備え、
前記信号処理回路は、
前記運転者の顔向きを判定する顔向き判定部と、
前記運転者の顔色の変化から心拍数を推定する心拍数推定部と、
推定された心拍数に基づいて前記運転者の体調を判定する体調判定部と
をさらに含み、
前記少なくとも2つの光学領域は、前記近赤外光を透過させる第1の分光特性を有する第1の光学領域、可視光帯域における赤色の光を透過させる第2の分光特性を有する第2の光学領域、可視光帯域における緑色の光を透過させる第3の分光特性を有する第3の光学領域、および可視光帯域における青色の光を透過させる第4の分光特性を有する第4の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、
前記顔認識部は、前記第1の撮像領域から取得された第1の画像信号に基づいて前記運転者の顔の特徴点を認識する第1の顔認識部と、前記第2、第3および第4の撮像領域からそれぞれ取得された第2、第3および第4の画像信号の少なくとも1つに基づいて前記運転者の顔の特徴点を認識する第2の顔認識部とを含み、
前記顔向き判定部は、前記第1の顔認識部によって認識された特徴点に基づいて前記運転者の顔向きを判定し、
前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定し、
前記心拍数推定部は、前記第2の顔認識部によって認識された顔の特徴点に着目して前記運転者の顔色の変化を検出し、心拍数を推定する、請求項1に記載の運転者監視システム。
Auxiliary illumination that emits near-infrared light is further provided,
The signal processing circuit includes:
A face orientation determination unit for determining the driver's face orientation;
A heart rate estimator for estimating a heart rate from a change in the face color of the driver;
A physical condition determining unit that determines the physical condition of the driver based on the estimated heart rate,
The at least two optical regions include a first optical region having a first spectral characteristic that transmits the near infrared light, and a second optical having a second spectral property that transmits red light in a visible light band. A third optical region having a third spectral characteristic that transmits green light in the visible light band, and a fourth optical region having a fourth spectral characteristic that transmits blue light in the visible light band ,
The at least two imaging regions include a first imaging region corresponding to the first optical region, a second imaging region corresponding to the second optical region, and a third corresponding to the third optical region. An imaging region, and a fourth imaging region corresponding to the fourth optical region,
The face recognition unit includes a first face recognition unit that recognizes feature points of the driver's face based on a first image signal acquired from the first imaging region, the second, third, and A second face recognition unit that recognizes feature points of the driver's face based on at least one of the second, third, and fourth image signals respectively acquired from the fourth imaging region,
The face orientation determination unit determines the driver's face orientation based on the feature points recognized by the first face recognition unit,
The aside and dozing determination unit determines whether or not the driver is looking aside according to the determination result of the driver's face orientation,
The driving according to claim 1, wherein the heart rate estimation unit estimates a heart rate by detecting a change in the driver's face color by focusing on a facial feature point recognized by the second face recognition unit. Monitoring system.
レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する第1および第2の撮像装置であって、前記各光学領域を通過した光の情報を示し、前記各撮像領域から得られる複数の画像信号を出力する第1および第2の撮像装置と、
近赤外光を照射する補助照明と、
視差量を用いて運転者までの距離を演算する距離演算部と、
前記運転者の顔の2次元特徴点を認識する第1の顔認識部と、
前記運転者の顔の3次元特徴点を認識する第2の顔認識部と、
前記顔の特徴点に基づいて前記運転者の顔向きを判定する顔向き判定部と、
前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する脇見判定部と、
前記運転者の顔色の変化から心拍数を推定する心拍数推定部と、
推定された心拍数に基づいて前記運転者の体調を判定する体調判定部と
を含む信号処理回路と
を備え、
前記少なくとも2つの光学領域は、前記近赤外光を透過させる第1の分光特性を有する第1の光学領域、可視光帯域における赤色の光を透過させる第2の分光特性を有する第2の光学領域、可視光帯域における緑色の光を透過させる第3の分光特性を有する第3の光学領域、および可視光帯域における青色の光を透過させる第4の分光特性を有する第4の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、
前記距離演算部は、前記第1および第2の撮像装置の前記第1の撮像領域からそれぞれ取得された第1の画像信号から得られる視差量を用いて前記運転者までの距離を演算し、
前記第1の顔認識部は、前記第1の撮像装置の前記第2、第3および第4の撮像領域からそれぞれ取得された第2、第3および第4の画像信号の少なくとも1つに基づいて前記運転者の顔の2次元特徴点を認識し、
前記第2の顔認識部は、前記第1の撮像装置の前記第1の撮像領域から取得された第1の画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識し、
前記顔向き判定部は、前記3次元特徴点に基づいて前記運転者の顔向きを判定し、
前記脇見判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定し、
前記心拍数推定部は、前記顔の2次元特徴点に着目して前記運転者の顔色の変化を検出し、心拍数を推定する、運転者監視システム。
A lens, a lens optical system including at least two optical regions having different optical characteristics, an image pickup device having at least two image pickup regions on which light transmitted through the lens optical system is incident, the lens optical system, and the image pickup device And an array of optical elements that allow light that has passed through the optical regions of the at least two optical regions to enter the imaging regions of the at least two imaging regions. A first imaging device and a second imaging device for indicating information of light that has passed through each optical region and outputting a plurality of image signals obtained from the respective imaging regions;
Auxiliary illumination that emits near-infrared light,
A distance calculator that calculates the distance to the driver using the amount of parallax;
A first face recognition unit for recognizing a two-dimensional feature point of the driver's face;
A second face recognition unit for recognizing a three-dimensional feature point of the driver's face;
A face orientation determination unit that determines the driver's face orientation based on the facial feature points;
An aside determination unit that determines whether the driver is looking aside according to the determination result of the driver's face orientation;
A heart rate estimator for estimating a heart rate from a change in the face color of the driver;
A signal processing circuit including a physical condition determination unit that determines the physical condition of the driver based on the estimated heart rate,
The at least two optical regions include a first optical region having a first spectral characteristic that transmits the near infrared light, and a second optical having a second spectral property that transmits red light in a visible light band. A third optical region having a third spectral characteristic that transmits green light in the visible light band, and a fourth optical region having a fourth spectral characteristic that transmits blue light in the visible light band ,
The at least two imaging regions include a first imaging region corresponding to the first optical region, a second imaging region corresponding to the second optical region, and a third corresponding to the third optical region. An imaging region, and a fourth imaging region corresponding to the fourth optical region,
The distance calculation unit calculates a distance to the driver using a parallax amount obtained from a first image signal respectively acquired from the first imaging region of the first and second imaging devices,
The first face recognition unit is based on at least one of second, third, and fourth image signals respectively acquired from the second, third, and fourth imaging regions of the first imaging device. Recognizing the two-dimensional feature points of the driver's face,
The second face recognition unit is configured to provide a three-dimensional feature of the driver's face based on a first image signal acquired from the first imaging region of the first imaging device and a distance to the driver. Recognize the point,
The face orientation determination unit determines the driver's face orientation based on the three-dimensional feature points,
The aside look determination unit determines whether the driver is looking aside according to a determination result of the driver's face orientation,
The driver monitoring system, wherein the heart rate estimator estimates a heart rate by detecting a change in the driver's face color by paying attention to a two-dimensional feature point of the face.
前記運転者までの距離に基づいて前記運転者の姿勢を検知する姿勢検知部と、
前記姿勢検知部の検知結果に基づき、エアバックを展開するか否かを判定し、前記エアバックの展開および展開速度を制御するエアバック展開制御部と
をさらに備えた、請求項3から6、9および12のいずれかに記載の運転者監視システム。
An attitude detection unit that detects the attitude of the driver based on the distance to the driver;
7. An air bag deployment control unit that determines whether or not to deploy an airbag based on a detection result of the posture detection unit and controls deployment and a deployment speed of the airbag, further comprising: The driver monitoring system according to any one of 9 and 12.
前記脇見・居眠り判定部の判定結果に応じて、前記運転者に警告を発する警告装置をさらに備えた、請求項1に記載の運転者監視システム。   2. The driver monitoring system according to claim 1, further comprising a warning device that issues a warning to the driver according to a determination result of the armpit / slumber determination unit. レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記各光学領域に対応した前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する撮像装置から出力される複数の画像信号であって、前記各光学領域を通過した光の情報を有し、前記各撮像領域から取得される複数の画像信号の少なくとも1つを解析することによって、運転者が脇見および/または居眠りをしているか否かを監視する運転者監視方法であって、
前記複数の画像信号の少なくとも1つの画像信号に基づいて前記運転者の顔の特徴点を認識するステップと、
前記顔の特徴点に基づいて前記運転者が脇見または居眠りをしているか否かを判定するステップと
を包含する、運転者監視方法。
A lens, a lens optical system including at least two optical regions having different optical characteristics, an image pickup device having at least two image pickup regions on which light transmitted through the lens optical system is incident, the lens optical system, and the image pickup device And an array-like optical element that causes light that has passed through each optical region of the at least two optical regions to enter each imaging region of the at least two imaging regions corresponding to each optical region. By analyzing at least one of the plurality of image signals output from the imaging device, having information on the light that has passed through each of the optical regions, and acquired from each of the imaging regions, A driver monitoring method for monitoring whether a driver is looking aside and / or asleep,
Recognizing feature points of the driver's face based on at least one image signal of the plurality of image signals;
And a step of determining whether or not the driver is looking aside or falling asleep based on the feature points of the face.
レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記各光学領域に対応した前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する撮像装置から出力される複数の画像信号であって、前記各光学領域を通過した光の情報を有し、前記各撮像領域から取得される複数の画像信号の少なくとも1つを解析することによって、運転者が脇見および/または居眠りをしているか否かを監視する運転者監視システムにおいて用いられるコンピュータプログラムであって、前記運転者監視システムのコンピュータに、
前記複数の画像信号の少なくとも1つの画像信号に基づいて前記運転者の顔の特徴点を認識するステップと、
前記顔の特徴点に基づいて前記運転者が脇見または居眠りをしているか否かを判定するステップと
を実行させるコンピュータプログラム。
A lens, a lens optical system including at least two optical regions having different optical characteristics, an image pickup device having at least two image pickup regions on which light transmitted through the lens optical system is incident, the lens optical system, and the image pickup device And an array-like optical element that causes light that has passed through each optical region of the at least two optical regions to enter each imaging region of the at least two imaging regions corresponding to each optical region. By analyzing at least one of the plurality of image signals output from the imaging device, having information on the light that has passed through each of the optical regions, and acquired from each of the imaging regions, A computer program used in a driver monitoring system for monitoring whether a driver is looking aside and / or is asleep. The driver monitoring system of the computer,
Recognizing feature points of the driver's face based on at least one image signal of the plurality of image signals;
And a step of determining whether or not the driver is looking aside or falling asleep based on the facial feature points.
JP2014072186A 2014-03-31 2014-03-31 driver monitoring system Pending JP2015194884A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014072186A JP2015194884A (en) 2014-03-31 2014-03-31 driver monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014072186A JP2015194884A (en) 2014-03-31 2014-03-31 driver monitoring system

Publications (1)

Publication Number Publication Date
JP2015194884A true JP2015194884A (en) 2015-11-05

Family

ID=54433839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014072186A Pending JP2015194884A (en) 2014-03-31 2014-03-31 driver monitoring system

Country Status (1)

Country Link
JP (1) JP2015194884A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017161965A (en) * 2016-03-07 2017-09-14 オムロンオートモーティブエレクトロニクス株式会社 Face image processing apparatus
JP2018030425A (en) * 2016-08-24 2018-03-01 三菱電機株式会社 Automatic operation control device and automatic operation control method
WO2018167996A1 (en) * 2017-03-14 2018-09-20 オムロン株式会社 Driver state estimation device and driver state estimation method
JP2019020647A (en) * 2017-07-20 2019-02-07 大日本印刷株式会社 Detector
KR20190054803A (en) 2017-11-14 2019-05-22 현대오트론 주식회사 Appartus and method for estimating condition of driver
CN110192224A (en) * 2017-03-14 2019-08-30 欧姆龙株式会社 Device for estimating state of driver and estimating state of driver method
CN110235178A (en) * 2017-03-14 2019-09-13 欧姆龙株式会社 Driver status estimating device and driver status estimate method
WO2020095904A1 (en) * 2018-11-05 2020-05-14 株式会社デンソー Operation management apparatus and operation management system
WO2020246401A1 (en) * 2019-06-05 2020-12-10 ソニーセミコンダクタソリューションズ株式会社 Image recognition device and image recognition method
WO2021024905A1 (en) * 2019-08-02 2021-02-11 オムロン株式会社 Image processing device, monitoring device, control system, image processing method, computer program, and recording medium
CN112449580A (en) * 2018-07-23 2021-03-05 新唐科技日本株式会社 Living body state detection device and living body state detection method
US11961328B2 (en) 2020-12-22 2024-04-16 Swallow Incubate Co., Ltd. Eye detecting method, eye detecting device, and non-transitory computer-readable recording medium recording eye detecting program
US11978266B2 (en) 2020-10-21 2024-05-07 Nvidia Corporation Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications
DE102023001618A1 (en) 2023-04-24 2024-07-11 Mercedes-Benz Group AG Adaptive dynamic compression method and vehicle

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017161965A (en) * 2016-03-07 2017-09-14 オムロンオートモーティブエレクトロニクス株式会社 Face image processing apparatus
JP2018030425A (en) * 2016-08-24 2018-03-01 三菱電機株式会社 Automatic operation control device and automatic operation control method
CN110199318B (en) * 2017-03-14 2023-03-07 欧姆龙株式会社 Driver state estimation device and driver state estimation method
WO2018167996A1 (en) * 2017-03-14 2018-09-20 オムロン株式会社 Driver state estimation device and driver state estimation method
JP2018151931A (en) * 2017-03-14 2018-09-27 オムロン株式会社 Driver state estimation device and driver state estimation method
CN110192224A (en) * 2017-03-14 2019-08-30 欧姆龙株式会社 Device for estimating state of driver and estimating state of driver method
CN110199318A (en) * 2017-03-14 2019-09-03 欧姆龙株式会社 Driver status estimating device and driver status estimate method
CN110235178A (en) * 2017-03-14 2019-09-13 欧姆龙株式会社 Driver status estimating device and driver status estimate method
JP2019020647A (en) * 2017-07-20 2019-02-07 大日本印刷株式会社 Detector
KR20190054803A (en) 2017-11-14 2019-05-22 현대오트론 주식회사 Appartus and method for estimating condition of driver
CN112449580A (en) * 2018-07-23 2021-03-05 新唐科技日本株式会社 Living body state detection device and living body state detection method
JP2020077037A (en) * 2018-11-05 2020-05-21 株式会社デンソー Operation management device and operation management system
WO2020095904A1 (en) * 2018-11-05 2020-05-14 株式会社デンソー Operation management apparatus and operation management system
WO2020246401A1 (en) * 2019-06-05 2020-12-10 ソニーセミコンダクタソリューションズ株式会社 Image recognition device and image recognition method
TWI830907B (en) * 2019-06-05 2024-02-01 日商索尼半導體解決方案公司 Image recognition device and image recognition method
WO2021024905A1 (en) * 2019-08-02 2021-02-11 オムロン株式会社 Image processing device, monitoring device, control system, image processing method, computer program, and recording medium
JP2021026420A (en) * 2019-08-02 2021-02-22 オムロン株式会社 Image processing device, monitoring device, control system, image processing method, and computer program
US11978266B2 (en) 2020-10-21 2024-05-07 Nvidia Corporation Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications
US11961328B2 (en) 2020-12-22 2024-04-16 Swallow Incubate Co., Ltd. Eye detecting method, eye detecting device, and non-transitory computer-readable recording medium recording eye detecting program
DE102023001618A1 (en) 2023-04-24 2024-07-11 Mercedes-Benz Group AG Adaptive dynamic compression method and vehicle

Similar Documents

Publication Publication Date Title
JP2015194884A (en) driver monitoring system
US10048750B2 (en) Content projection system and content projection method
JP4989762B2 (en) Driver monitoring device, driver monitoring method, and vehicle
JP5145555B2 (en) Pupil detection method
KR20170139521A (en) Image processing apparatus and image processing system
JP6474900B2 (en) Head mounted display
WO2015015717A1 (en) Imaging device and imaging system, electronic mirroring system, and distance measurement device using same
US10789782B1 (en) Image plane adjustment in a near-eye display
KR20180101496A (en) Head-mounted display for virtual and mixed reality with inside-out location, user body and environment tracking
US20090219386A1 (en) Pupil detection device and pupil detection method
JP2017038162A (en) Imaging apparatus and image processing method, program, and storage medium
CN109964230B (en) Method and apparatus for eye metric acquisition
WO2019187958A1 (en) Information detection device, image projection device, information detection method, and image projection method
JP2011152883A (en) Imaging device
US11650660B2 (en) Electronic device, control method, and non-transitory computer readable medium
JP4528980B2 (en) Pupil detection device and pupil detection method
WO2019021601A1 (en) Information processing device, information processing method, and program
JP6289439B2 (en) Image processing device
JP2009240551A (en) Sight line detector
JP2016051317A (en) Visual line detection device
JP2016095584A (en) Pupil detection device, pupil detection method, and pupil detection program
US11227519B2 (en) Image projection apparatus, image projection method, image display light output control method by acquiring pupil area or size
JP6597467B2 (en) Face orientation measuring device
CN111200709A (en) Method for setting light source of camera system, camera system and vehicle
JP2007209646A (en) Guiding device, imaging device, authentication device and guiding method