JP2015194884A - driver monitoring system - Google Patents
driver monitoring system Download PDFInfo
- Publication number
- JP2015194884A JP2015194884A JP2014072186A JP2014072186A JP2015194884A JP 2015194884 A JP2015194884 A JP 2015194884A JP 2014072186 A JP2014072186 A JP 2014072186A JP 2014072186 A JP2014072186 A JP 2014072186A JP 2015194884 A JP2015194884 A JP 2015194884A
- Authority
- JP
- Japan
- Prior art keywords
- driver
- optical
- image
- imaging
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本願は、運転者を監視する運転者監視システムに関する。 The present application relates to a driver monitoring system for monitoring a driver.
近年、車内に搭載されたカメラを用いて運転者を撮影し、撮影画像を解析することによって、運転者の顔向きを検出し、運転者が脇見や居眠り運転を行っていないかを監視する運転者監視システムが提案されている。 In recent years, driving a camera that uses a camera mounted in the vehicle to detect the driver's face by analyzing the captured image and monitoring whether the driver is looking aside or snoozing A person monitoring system has been proposed.
特許文献1に開示された運転者監視システムでは、車内のダッシュボード上の左右の離れた位置に配置された2台のカメラを用いて、運転者を左右から撮影する。2台のカメラから得られた撮影画像から顔部品の特徴点の位置を推定し、推定した位置に基づいて顔向きを検出する。顔部品の特徴点とは、例えば眉毛、目および口である。この運転者監視システムによれば、単眼カメラと比べて、精度よく顔向きを検出することができる。
In the driver monitoring system disclosed in
特許文献2に開示された運転者監視システムでは、複数のレンズの基線方向が垂直方向(鉛直方向)と一致した複眼カメラを用いて運転者を撮影する。撮影画像から顔部品の特徴点の3次元位置を視差量に基づいて検出し、運転者の顔向きを推定する。この運転者監視システムによれば、3次元情報に基づいて十分な精度で顔向きを検出することができる。
In the driver monitoring system disclosed in
上述した従来の技術では、顔向き検出の精度のさらなる向上が求められていた。本願の、限定的ではない例示的なある実施形態は、顔向き検出の精度を向上させることが可能な運転者監視システムを提供する。 In the conventional technology described above, further improvement in the accuracy of face orientation detection has been demanded. One non-limiting exemplary embodiment of the present application provides a driver monitoring system that can improve the accuracy of face orientation detection.
上記課題を解決するために、本発明の一態様は、レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記各光学領域に対応した前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する撮像装置であって、前記各光学領域を通過した光の情報を有し、前記各撮像領域から取得される複数の画像信号を出力する撮像装置と、前記複数の画像信号の少なくとも1つの画像信号に基づいて運転者の顔の特徴点を認識する顔認識部と、前記顔の特徴点に基づいて前記運転者が脇見または居眠りをしているか否かを判定する脇見・居眠り判定部とを含む信号処理回路とを備えた、運転者監視システムを含む。 In order to solve the above-described problem, an embodiment of the present invention includes a lens, a lens optical system including at least two optical regions having different optical characteristics, and at least two imagings into which light transmitted through the lens optical system is incident. An image sensor having a region, and the at least two images corresponding to the optical regions, which are disposed between the lens optical system and the image sensor and pass through the optical regions of the at least two optical regions. An imaging apparatus having an arrayed optical element that is incident on each imaging region, and has information on light that has passed through each optical region, and outputs a plurality of image signals acquired from each imaging region An imaging device, a face recognition unit that recognizes a feature point of a driver's face based on at least one image signal of the plurality of image signals, and the driver based on the feature point of the face And a signal processing circuit including a look or inattentive-dozing determination unit determines whether or not dozing, including driver monitoring system.
上述の一般的かつ特定の態様は、方法およびコンピュータプログラムを用いて実装され、または方法およびコンピュータプログラムの組み合わせを用いて実現され得る。 The general and specific aspects described above may be implemented using methods and computer programs, or may be realized using a combination of methods and computer programs.
本発明の一態様にかかる運転者監視システムによれば、単一のカメラを用いて、より精度よく顔向きを検出することができる。 According to the driver monitoring system concerning one mode of the present invention, a face direction can be detected more accurately using a single camera.
本願発明者は、従来の運転者監視システムの構成を詳細に検討し、以下に示すような問題を見出した。 The inventor of the present application has examined the configuration of the conventional driver monitoring system in detail and found the following problems.
車内に搭載されたカメラ(以下、「撮像装置」と称する場合がある。)を用いて運転者を撮影しているときに、横からの強い日の光(横日)が車内に差し込むと、横日の反射により、撮影画像の片側半分が飽和してしまうことがある。その場合、撮影画像を解析しても、運転者の顔認識を正しく行うことはできない。そのため、運転者の顔向きを精度よく検出することが困難となる。また、トンネルの出口や逆光下など急激に明るさが変化する環境においても同様の問題が生じる。従来の運転者監視システムは、撮影環境に対して高いロバスト性を有しているとは言い難い。 When shooting a driver using a camera mounted in the vehicle (hereinafter sometimes referred to as an “imaging device”), if strong sunlight from the side (horizontal day) is inserted into the vehicle, Due to the reflection of the horizontal sun, one half of the captured image may be saturated. In that case, even if the captured image is analyzed, the driver's face cannot be recognized correctly. This makes it difficult to accurately detect the driver's face orientation. Similar problems also occur in environments where the brightness changes rapidly, such as at the exit of a tunnel or under backlight. It is difficult to say that the conventional driver monitoring system has high robustness with respect to the shooting environment.
特許文献1および2の運転者監視システムでは、運転者とカメラとの距離は、ステレオビジョンの原理を用いて求まるので、2台のカメラ(複眼カメラを含む)が必要となる。したがって、カメラを搭載するカメラユニットを小型化にするという観点では、運転者監視システムの構成は十分とは言えない。また、運転者が眼鏡を装着している場合、補助光が眼鏡で反射するので、顔部品の1つである目が位置する画像領域に白飛びが発生し、目の動きを検出できなくなる。
In the driver monitoring systems of
可視光から得られるカラー画像を解析することにより、運転者の顔色の変化を検出して、心拍数を検知する技術が知られている。心拍数を検知することに加えて、例えば、近赤外光から得られる画像を解析して運転者の顔向きが検出される。その場合、カラー画像用のカメラと近赤外光用のカメラとが必要になり、運転者監視システムの規模が増大してしまう。 A technique for detecting a heart rate by detecting a change in a driver's face color by analyzing a color image obtained from visible light is known. In addition to detecting the heart rate, for example, the driver's face orientation is detected by analyzing an image obtained from near-infrared light. In this case, a color image camera and a near-infrared light camera are required, and the scale of the driver monitoring system increases.
このような従来技術の課題に鑑み、本願発明者は、新規な構成を有する運転者監視システムに想到した。本発明の一態様の概要は以下のとおりである。 In view of such problems of the prior art, the present inventors have come up with a driver monitoring system having a novel configuration. The outline of one embodiment of the present invention is as follows.
本発明の一態様である運転者監視システムは、レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記各光学領域に対応した前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する撮像装置であって、前記各光学領域を通過した光の情報を有し、前記各撮像領域から取得される複数の画像信号を出力する撮像装置と、前記複数の画像信号の少なくとも1つの画像信号に基づいて運転者の顔の特徴点を認識する顔認識部と、前記顔の特徴点に基づいて前記運転者が脇見または居眠りをしているか否かを判定する脇見・居眠り判定部とを含む信号処理回路とを備える。 A driver monitoring system according to one aspect of the present invention includes a lens, a lens optical system including at least two optical regions having different optical characteristics, and at least two imaging regions into which light transmitted through the lens optical system is incident. An image sensor having the optical system disposed between the lens optical system and the image sensor, and having passed through the optical regions of the at least two optical regions, the light of the at least two image regions corresponding to the optical regions. An imaging apparatus having an arrayed optical element incident on each imaging area, the imaging apparatus having information on light that has passed through each optical area and outputting a plurality of image signals acquired from each imaging area A face recognition unit for recognizing a feature point of the driver's face based on at least one image signal of the plurality of image signals; Or a signal processing circuit including a determining inattentive-dozing determination section whether or not the dozing.
ある態様において、近赤外光を照射する補助照明をさらに備え、前記信号処理回路は、前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、前記運転者の顔向きを判定する顔向き判定部とをさらに含み、前記少なくとも2つの光学領域は、第1の透過率特性を有する第1の光学領域、前記第1の透過率特性とは異なる第2の透過率特性を有する第2の光学領域、前記第1および第2の透過率特性とは異なる第3の透過率特性を有する第3の光学領域、ならびに前記第1、第2および第3の透過率特性とは異なる第4の透過率特性を有する第4の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号、前記第2の撮像領域から取得された第2の画像信号、前記第3の撮像領域から取得された第3の画像信号、および前記第4の撮像領域から取得された第4の画像信号を合成して前記合成画像信号を生成し、前記顔認識部は、前記合成画像信号に基づいて前記運転者の顔の特徴点を認識し、前記顔向き判定部は、前記顔の特徴点に基づいて前記運転者の顔向きを判定し、前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定してもよい。 In one aspect, the apparatus further includes auxiliary illumination that irradiates near-infrared light, and the signal processing circuit synthesizes the plurality of image signals to generate a composite image signal; and the driver's face orientation. And a face orientation determination unit for determining, wherein the at least two optical regions have a first optical region having a first transmittance characteristic, and a second transmittance characteristic different from the first transmittance characteristic. The second optical region having, the third optical region having a third transmittance characteristic different from the first and second transmittance characteristics, and the first, second, and third transmittance characteristics A fourth optical region having a different fourth transmittance characteristic, wherein the at least two imaging regions are a first imaging region corresponding to the first optical region, and a second optical region corresponding to the second optical region. 2 imaging areas, corresponding to the third optical area A third imaging region, and a fourth imaging region corresponding to the fourth optical region, wherein the image composition unit includes a first image signal acquired from the first imaging region, the second imaging region, The second image signal acquired from the imaging region, the third image signal acquired from the third imaging region, and the fourth image signal acquired from the fourth imaging region are combined to generate the combination. An image signal is generated, the face recognition unit recognizes a feature point of the driver's face based on the composite image signal, and the face orientation determination unit determines the driver's face feature point based on the face feature point. The face orientation may be determined, and the armpit / slumber determination unit may determine whether the driver is looking aside according to the determination result of the driver's face orientation.
ある態様において、近赤外光を照射する補助照明をさらに備え、前記信号処理回路は、前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、前記運転者までの距離を演算する距離演算部と、前記運転者の顔向きを判定する顔向き判定部とをさらに含み、前記少なくとも2つの光学領域は、第1の透過率特性を有する第1および第3の光学領域と、前記第1の透過率特性とは異なる第2の透過率特性を有する第2および第4の光学領域とを含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号および前記第2の撮像領域から取得された第2の画像信号を合成して第1の合成画像信号を生成し、前記第3の撮像領域から取得された第3の画像信号および前記第4の撮像領域から取得された第4の画像信号を合成して第2の合成画像信号を生成し、前記距離演算部は、前記第1および第2の合成画像信号に基づいて前記運転者までの距離を演算し、前記顔認識部は、前記第1の合成画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識し、前記顔向き判定部は、前記3次元特徴点に基づいて前記運転者の顔向きを判定し、前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定してもよい。 In one aspect, the apparatus further includes auxiliary illumination that irradiates near-infrared light, and the signal processing circuit synthesizes the plurality of image signals to generate a composite image signal, and a distance to the driver. A distance calculating unit for calculating; and a face direction determining unit for determining the face direction of the driver, wherein the at least two optical regions include first and third optical regions having a first transmittance characteristic. , Second and fourth optical regions having a second transmittance characteristic different from the first transmittance characteristic, wherein the at least two imaging regions correspond to the first optical region. An imaging region, a second imaging region corresponding to the second optical region, a third imaging region corresponding to the third optical region, and a fourth imaging region corresponding to the fourth optical region. The image synthesizing unit includes the first imaging unit; The first image signal acquired from the area and the second image signal acquired from the second imaging area are combined to generate a first composite image signal, and acquired from the third imaging area The third image signal and the fourth image signal acquired from the fourth imaging region are combined to generate a second combined image signal, and the distance calculation unit is configured to output the first and second combined images. A distance to the driver is calculated based on the signal, and the face recognition unit recognizes a three-dimensional feature point of the driver's face based on the first composite image signal and the distance to the driver. The face orientation determination unit determines the driver's face orientation based on the three-dimensional feature points, and the driver's look-aside / slumber determination unit determines whether the driver is in accordance with the determination result of the driver's face orientation. You may determine whether you are looking aside.
ある態様において、近赤外光を照射する補助照明をさらに備え、前記信号処理回路は、前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、前記運転者までの距離を演算する距離演算部と、前記運転者の顔向きを判定する顔向き判定部とをさらに含み、前記少なくとも2つの光学領域は、第1の合焦特性を有する第1の光学領域、前記第1の合焦特性とは異なる第2の合焦特性を有する第2の光学領域、前記第1および第2の合焦特性とは異なる第3の合焦特性を有する第3の光学領域、ならびに前記第1、第2および第3の合焦特性とは異なる第4の合焦特性を有する第4の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号、前記第2の撮像領域から取得された第2の画像信号、前記第3の撮像領域から取得された第3の画像信号、および前記第4の撮像領域から取得された第4の画像信号を合成して前記合成画像信号を生成し、前記距離演算部は、前記第1、第2、第3および第4の画像信号に基づいて、前記運転者までの距離を演算し、前記顔認識部は、前記合成画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識し、前記顔向き判定部は、前記3次元特徴点に基づいて前記運転者の顔向きを判定し、前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定してもよい。 In one aspect, the apparatus further includes auxiliary illumination that irradiates near-infrared light, and the signal processing circuit synthesizes the plurality of image signals to generate a composite image signal, and a distance to the driver. It further includes a distance calculating unit for calculating, and a face direction determining unit for determining the driver's face direction, wherein the at least two optical regions are a first optical region having a first focusing characteristic, and the first A second optical region having a second focusing characteristic different from the focusing characteristic of the second optical region, a third optical region having a third focusing characteristic different from the first and second focusing characteristics, and the A fourth optical region having a fourth focusing characteristic different from the first, second and third focusing characteristics, wherein the at least two imaging regions correspond to the first optical region; Imaging region, a second imaging region corresponding to the second optical region , A third imaging region corresponding to the third optical region, and a fourth imaging region corresponding to the fourth optical region, wherein the image composition unit is acquired from the first imaging region A first image signal, a second image signal acquired from the second imaging region, a third image signal acquired from the third imaging region, and a first image signal acquired from the fourth imaging region. 4 to generate the composite image signal, and the distance calculation unit calculates a distance to the driver based on the first, second, third, and fourth image signals. The face recognizing unit recognizes a three-dimensional feature point of the driver's face based on the composite image signal and the distance to the driver, and the face orientation determining unit is based on the three-dimensional feature point. The driver's face orientation is determined, and the armpit / slumber determining unit The driver in accordance with a person of the face orientation determination result may determine whether the driver is looking aside.
ある態様において、近赤外光を照射する補助照明をさらに備え、前記信号処理回路は、前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、前記運転者までの距離を演算する距離演算部と前記運転者の顔向きを判定する顔向き判定部とをさらに含み、前記少なくとも2つの光学領域は、第1の透過率特性および第1の合焦特性を有する第1の光学領域、前記第1の透過率特性とは異なる第2の透過率特性および前記第1の合焦特性を有する第2の光学領域、前記第1の透過率特性および前記第1の合焦特性とは異なる第2の合焦特性を有する第3の光学領域、ならびに前記第2の透過率特性および前記第2の合焦特性を有する第4の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号および前記第2の撮像領域から取得された第2の画像信号を合成して第1の合成画像信号を生成し、前記第3の撮像領域から取得された第3の画像信号および前記第4の撮像領域から取得された第4の画像信号を合成して第2の合成画像信号を生成し、前記第1および第2の合成画像を合成して第3の合成画像信号をさらに生成し、前記距離演算部は、前記第1および第2の合成画像信号に基づいて前記運転者までの距離を演算し、前記顔認識部は、前記第3の合成画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識し、前記顔向き判定部は、前記3次元特徴点に基づいて前記運転者の顔向きを判定し、前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定してもよい。 In one aspect, the apparatus further includes auxiliary illumination that irradiates near-infrared light, and the signal processing circuit synthesizes the plurality of image signals to generate a composite image signal, and a distance to the driver. A distance calculating unit for calculating and a face direction determining unit for determining the face direction of the driver, wherein the at least two optical regions have a first transmittance characteristic and a first focusing characteristic; An optical region, a second transmittance region different from the first transmittance property, and a second optical region having the first focusing property, the first transmittance property, and the first focusing property. A third optical region having a second focusing characteristic different from the first optical region, and a fourth optical region having the second transmittance characteristic and the second focusing characteristic, wherein the at least two imaging areas are , First corresponding to the first optical region An image area, a second imaging area corresponding to the second optical area, a third imaging area corresponding to the third optical area, and a fourth imaging area corresponding to the fourth optical area The image synthesizing unit synthesizes the first image signal acquired from the first imaging area and the second image signal acquired from the second imaging area to generate a first synthesized image signal. And combining the third image signal acquired from the third imaging region and the fourth image signal acquired from the fourth imaging region to generate a second combined image signal, and And a second composite image to generate a third composite image signal, and the distance calculation unit calculates a distance to the driver based on the first and second composite image signals, The face recognizing unit detects the third composite image signal and the driver. Recognizing a three-dimensional feature point of the driver's face based on the separation, the face direction determining unit determining the driver's face direction based on the three-dimensional feature point, and Depending on the determination result of the driver's face orientation, it may be determined whether or not the driver is looking aside.
本発明の他の一態様である運転者監視システムは、レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する第1および第2の撮像装置であって、前記各光学領域を通過した光の情報を有し、前記各撮像領域から得られる複数の画像信号を出力する第1および第2の撮像装置と、近赤外光を照射する補助照明と、前記第1の撮像装置から出力される前記複数の画像信号を合成して第1の合成画像信号を生成する第1の画像合成部と、前記第2の撮像装置から出力される前記複数の画像信号を合成して第2の合成画像信号を生成する第2の画像合成部と、前記第1および第2の合成画像信号から得られる視差量を用いて運転者までの距離を演算する距離演算部と、前記第1の合成画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識する3次元顔認識部と、前記3次元特徴点に基づいて前記運転者の顔向きを判定する顔向き判定部と、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する脇見判定部とを含む信号処理回路とを備え、前記少なくとも2つの光学領域は、第1の透過率特性を有する第1の光学領域、前記第1の透過率特性とは異なる第2の透過率特性を有する第2の光学領域、前記第1および第2の透過率特性とは異なる第3の透過率特性を有する第3の光学領域、ならびに前記第1、第2および第3の透過率特性とは異なる第4の透過率特性を有する第4の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、前記第1の画像合成部は、前記第1の撮像領域から取得された第1の画像信号、前記第2の撮像領域から取得された第2の画像信号、前記第3の撮像領域から取得された第3の画像信号、および前記第4の撮像領域から取得された第4の画像信号を合成して前記第1の合成画像を生成し、前記第2の画像合成部は、前記第1の撮像領域から取得された第1の画像信号、前記第2の撮像領域から取得された第2の画像信号、前記第3の撮像領域から取得された第3の画像信号、および前記第4の撮像領域から取得された第4の画像信号を合成して前記第2の合成画像を生成する。 A driver monitoring system according to another aspect of the present invention includes a lens, a lens optical system including at least two optical regions having different optical characteristics, and at least two imagings into which light transmitted through the lens optical system is incident. An image sensor having a region, and disposed between the lens optical system and the image sensor, light that has passed through each optical region of the at least two optical regions is incident on each image region of the at least two image regions. First and second imaging devices each having an arrayed optical element to be output, the first imaging device having information on light that has passed through each optical region, and outputting a plurality of image signals obtained from the respective imaging regions A first imaging device that generates a first composite image signal by combining the second imaging device, auxiliary illumination that irradiates near infrared light, and the plurality of image signals output from the first imaging device. An image synthesizing unit; a second image synthesizing unit that generates a second synthesized image signal by synthesizing the plurality of image signals output from the second imaging device; and the first and second synthesized images. A distance calculation unit that calculates a distance to the driver using a parallax amount obtained from the signal, and a three-dimensional feature point of the driver's face based on the first composite image signal and the distance to the driver. A three-dimensional face recognition unit for recognizing, a face direction determining unit for determining the driver's face direction based on the three-dimensional feature points, and the driver looking aside according to the determination result of the driver's face direction And a signal processing circuit including an aside look determination unit for determining whether or not the first optical region has a first transmittance characteristic, and the first transmittance characteristic has at least two optical regions. A second optical region having a second transmittance characteristic different from A third optical region having a third transmittance characteristic different from the first and second transmittance characteristics, and a fourth transmittance characteristic different from the first, second and third transmittance characteristics And the at least two imaging areas include a first imaging area corresponding to the first optical area, a second imaging area corresponding to the second optical area, and the second imaging area. A third imaging region corresponding to the third optical region and a fourth imaging region corresponding to the fourth optical region, wherein the first image composition unit is acquired from the first imaging region. A first image signal, a second image signal acquired from the second imaging region, a third image signal acquired from the third imaging region, and a first image signal acquired from the fourth imaging region. 4 image signals are combined to generate the first composite image, and the second The image synthesis unit includes a first image signal acquired from the first imaging area, a second image signal acquired from the second imaging area, and a third image acquired from the third imaging area. The second synthesized image is generated by synthesizing the image signal and the fourth image signal acquired from the fourth imaging region.
ある態様において、前記運転者までの距離に基づいて前記運転者の姿勢を検知する姿勢検知部と、前記姿勢検知部の検知結果に基づき、エアバックを展開するか否かを判定し、前記エアバックの展開および展開速度を制御するエアバック展開制御部とをさらに備えていてもよい。 In one aspect, an attitude detection unit that detects the attitude of the driver based on a distance to the driver, and whether to deploy an airbag based on a detection result of the attitude detection unit, An airbag deployment control unit that controls the deployment and deployment speed of the bag may be further provided.
ある態様において、第1の偏光軸の方向に振動する近赤外光を照射する補助照明をさらに備え、前記信号処理回路は、前記複数の画像信号の中から1つを選択する画像選択部と、前記運転者の目の開口度を検出する目開度検出部とをさらに含み、前記少なくとも2つの光学領域は、前記第1の偏光軸の方向に振動する光を透過させる第1の偏光特性を有する第1の光学領域および前記第1の偏光軸の方向と垂直な第2の偏光軸の方向に振動する光を透過させる第2の偏光特性を有する第2の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域および前記第2の光学領域に対応した第2の撮像領域を含み、前記画像選択部は、前記第1の撮像領域から取得された第1の画像信号から構成される第1の画像中の画素の飽和度合と、前記第2の撮像領域から取得された第2の画像信号から構成される第2の画像中の画素の飽和度合とを比較することによって、前記第1の画像信号および前記第2の画像信号からいずれか1つを選択し、前記顔認識部は、選択された画像信号に基づいて前記運転者の顔の特徴点を認識し、前記目開度検出部は、前記顔の特徴点に基づいて前記運転者の目の開口度を検出し、前記脇見・居眠り判定部は、前記目の開口度の検出結果に応じて前記運転者が居眠りをしているか否かを判定してもよい。 In one aspect, the apparatus further includes auxiliary illumination that irradiates near-infrared light that vibrates in the direction of the first polarization axis, and the signal processing circuit includes an image selection unit that selects one of the plurality of image signals; And an eye opening detector that detects an opening degree of the driver's eyes, wherein the at least two optical regions transmit a light that vibrates in the direction of the first polarization axis. And a second optical region having a second polarization characteristic that transmits light oscillating in a direction of a second polarization axis perpendicular to the direction of the first polarization axis, The two imaging regions include a first imaging region corresponding to the first optical region and a second imaging region corresponding to the second optical region, and the image selection unit includes the first imaging region. The first image signal obtained from the first image signal By comparing the degree of saturation of the pixels in the second image with the degree of saturation of the pixels in the second image composed of the second image signal acquired from the second imaging region. One of the image signal and the second image signal is selected, and the face recognition unit recognizes a feature point of the driver's face based on the selected image signal, and the eye opening degree detection unit Detects the degree of opening of the driver's eyes based on the feature points of the face, and the armpit / dozing determination unit determines whether the driver is dozing according to the detection result of the degree of opening of the eyes It may be determined whether or not.
ある態様において、第1の偏光軸の方向に振動する光を照射する補助照明をさらに備え、前記信号処理回路は、前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、前記複数の画像信号の中から1つを選択する画像選択部と、前記運転者の目の開口度を検出する目開度検出部とをさらに含み、前記少なくとも2つの光学領域は、前記第1の偏光軸の方向に振動する光を透過させる第1の偏光特性および第1の透過率特性を有する第1の光学領域、前記第1の偏光特性および前記第1の透過率特性とは異なる第2の透過率特性を有する第2の光学領域、前記第1の偏光軸の方向と垂直な第2の偏光軸の方向に振動する光を透過させる第2の偏光特性および前記第1の透過率特性を有する第3の光学領域、および前記第2の偏光特性および前記第2の透過率特性を有する第4の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号および前記第2の撮像領域から取得された第2の画像信号を合成して第1の合成画像信号を生成し、前記第3の撮像領域から取得された第3の画像信号および前記第4の撮像領域から取得された第4の画像信号を合成して第2の合成画像信号を生成し、前記画像選択部は、前記第1の合成画像信号から構成される第1の画像中の画素の飽和度合と、前記第2の合成画像信号から構成される第2の画像中の画素の飽和度合とを比較することによって、前記第1の合成画像信号および前記第2の合成画像信号からいずれか1つを選択し、前記顔認識部は、選択された合成画像信号に基づいて前記運転者の顔の特徴点を認識し、前記目開度検出部は、前記顔の特徴点に基づいて前記運転者の目の開口度を検出し、前記脇見・居眠り判定部は、前記目の開口度の検出結果に応じて前記運転者が居眠りをしているか否かを判定してもよい。 In one aspect, the apparatus further includes auxiliary illumination that irradiates light that vibrates in the direction of the first polarization axis, and the signal processing circuit combines the plurality of image signals to generate a combined image signal; and An image selecting unit that selects one of the plurality of image signals; and an eye opening degree detecting unit that detects an opening degree of the driver's eyes, wherein the at least two optical regions include the first optical region. A first optical region having a first polarization characteristic and a first transmittance characteristic that transmits light oscillating in the direction of the polarization axis, and a first optical characteristic different from the first polarization characteristic and the first transmittance characteristic. A second optical region having a transmittance characteristic of 2, a second polarization characteristic that transmits light oscillating in a direction of a second polarization axis perpendicular to the direction of the first polarization axis, and the first transmittance A third optical region having characteristics, and the second polarization And a fourth optical region having the second transmittance characteristic, wherein the at least two imaging regions correspond to a first imaging region corresponding to the first optical region and a second optical region. A second imaging region, a third imaging region corresponding to the third optical region, and a fourth imaging region corresponding to the fourth optical region, wherein the image composition unit includes the first imaging region The first image signal acquired from the imaging region and the second image signal acquired from the second imaging region are combined to generate a first composite image signal, which is acquired from the third imaging region. The third image signal and the fourth image signal acquired from the fourth imaging region are combined to generate a second combined image signal, and the image selection unit is configured to generate the second combined image signal from the first combined image signal. The degree of saturation of the pixels in the constructed first image, and the second Selecting one of the first composite image signal and the second composite image signal by comparing the degree of saturation of the pixels in the second image composed of the composite image signal, and the face The recognition unit recognizes the feature point of the driver's face based on the selected composite image signal, and the eye opening degree detection unit calculates the opening degree of the driver's eye based on the feature point of the face. Then, the armpit / dozing determination unit may determine whether or not the driver is dozing according to the detection result of the opening degree of the eyes.
本発明の他の一態様である運転者監視システムは、レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する第1および第2の撮像装置であって、前記各光学領域を通過した光の情報を示し、前記各撮像領域から得られる複数の画像信号を出力する第1および第2の撮像装置と、第1の偏光軸の方向に振動する近赤外光を照射する補助照明と、前記第1の撮像装置から出力される前記複数の画像信号から第1の選択画像信号を選択する第1の画像選択部と、前記第2の撮像装置から出力された前記複数の画像信号から第2の選択画像信号を選択する第2の画像選択部と、前記第1および第2の選択画像信号から得られる視差量を用いて運転者までの距離を演算する距離演算部と、前記第1の選択画像信に基づいて前記運転者の顔の2次元特徴点を認識する顔認識部と、前記2次元特徴点に基づいて前記運転者の目の開口度を検出する目開度検出部と、前記目の開口度の検出結果に応じて、前記運転者が居眠りをしているか否かを判定する居眠り判定部と、前記第1の選択画像信および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識する3次元顔認識部と、前記顔の3次元特徴点に基づいて前記運転者の顔向きを判定する顔向き判定部と、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する脇見判定部とを含む信号処理回路とを備え、前記少なくとも2つの光学領域は、前記第1の偏光軸の方向に振動する光を透過させる第1の偏光特性を有する第1の光学領域および前記第1の偏光軸の方向と垂直な第2の偏光軸の方向に振動する光を透過させる第2の偏光特性を有する第2の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域および前記第2の光学領域に対応した第2の撮像領域を含み、前記第1の画像選択部は、前記第1の撮像領域から取得された第1の画像信号から構成される第1の画像中の画素の飽和度合と、前記第2の撮像領域から取得された第2の画像信号から構成される第2の画像中の画素の飽和度合とを比較することによって、前記第1の画像信号および前記第2の画像信号のいずれか1つを前記第1の選択画像信号として選択し、前記第2の画像選択部は、前記第1の撮像領域から取得された第1の画像信号から構成される第1の画像中の画素の飽和度合と、前記第2の撮像領域から取得された第2の画像信号から構成される第2の画像中の画素の飽和度合とを比較することによって、前記第1の画像信号および前記第2の画像信号のいずれか1つを前記第2の選択画像信号として選択する。 A driver monitoring system according to another aspect of the present invention includes a lens, a lens optical system including at least two optical regions having different optical characteristics, and at least two imagings into which light transmitted through the lens optical system is incident. An image sensor having a region, and disposed between the lens optical system and the image sensor, light that has passed through each optical region of the at least two optical regions is incident on each image region of the at least two image regions. First and second imaging devices each having an arrayed optical element to be operated, the first and second imaging devices showing information of light that has passed through each of the optical regions, and outputting a plurality of image signals obtained from the imaging regions A first selection from the second imaging device, auxiliary illumination that irradiates near infrared light that vibrates in the direction of the first polarization axis, and the plurality of image signals output from the first imaging device A first image selection unit that selects an image signal; a second image selection unit that selects a second selection image signal from the plurality of image signals output from the second imaging device; A distance calculator that calculates the distance to the driver using the amount of parallax obtained from the second selected image signal, and recognizes a two-dimensional feature point of the driver's face based on the first selected image signal A face recognition unit; an eye opening detection unit that detects an opening degree of the driver's eyes based on the two-dimensional feature points; and the driver doeszes according to the detection result of the eye opening degree. A doze determination unit that determines whether or not the vehicle is a three-dimensional face recognition unit that recognizes a three-dimensional feature point of the driver's face based on the first selected image signal and the distance to the driver; Face orientation determination for determining the driver's face orientation based on a three-dimensional feature point of the face And a signal processing circuit including a side-by-side determination unit that determines whether or not the driver is looking aside according to a determination result of the driver's face orientation, and the at least two optical regions are A first optical region having a first polarization characteristic that transmits light oscillating in the direction of the first polarization axis and light oscillating in the direction of a second polarization axis perpendicular to the direction of the first polarization axis; A second optical region having a second polarization characteristic to be transmitted, wherein the at least two imaging regions are a first imaging region corresponding to the first optical region and a second optical region corresponding to the second optical region. The first image selection unit includes a saturation level of pixels in the first image configured from the first image signal acquired from the first imaging region, and the second image selection unit. A second image signal acquired from the imaging region Comparing one of the first image signal and the second image signal as the first selected image signal by comparing the degree of saturation of the pixels in the second image, The image selection unit includes a saturation degree of pixels in the first image configured from the first image signal acquired from the first imaging area, and a second image acquired from the second imaging area. Selecting one of the first image signal and the second image signal as the second selected image signal by comparing the degree of saturation of the pixels in the second image composed of the signals To do.
ある態様において、前記運転者までの距離に基づいて前記運転者の姿勢を検知する姿勢検知部と、前記姿勢検知部の検知結果に基づき、エアバックを展開するか否かを判定し、前記エアバックの展開および展開速度を制御するエアバック展開制御部とをさらに備えていてもよい。 In one aspect, an attitude detection unit that detects the attitude of the driver based on a distance to the driver, and whether to deploy an airbag based on a detection result of the attitude detection unit, An airbag deployment control unit that controls the deployment and deployment speed of the bag may be further provided.
ある態様において、前記補助照明を点灯させた後、前記画素の飽和度合に応じて前記補助照明を消灯させる補助照明制御部をさらに備えていてもよい。 In a certain aspect, after turning on the auxiliary illumination, an auxiliary illumination control unit that turns off the auxiliary illumination according to the degree of saturation of the pixel may be further provided.
ある態様において、近赤外光を照射する補助照明をさらに備え、前記信号処理回路は、前記運転者の顔向きを判定する顔向き判定部と、前記運転者の顔色の変化から心拍数を推定する心拍数推定部と、推定された心拍数に基づいて前記運転者の体調を判定する体調判定部とをさらに含み、前記少なくとも2つの光学領域は、前記近赤外光を透過させる第1の分光特性を有する第1の光学領域、可視光帯域における赤色の光を透過させる第2の分光特性を有する第2の光学領域、可視光帯域における緑色の光を透過させる第3の分光特性を有する第3の光学領域、および可視光帯域における青色の光を透過させる第4の分光特性を有する第4の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、前記顔認識部は、前記第1の撮像領域から取得された第1の画像信号に基づいて前記運転者の顔の特徴点を認識する第1の顔認識部と、前記第2、第3および第4の撮像領域からそれぞれ取得された第2、第3および第4の画像信号の少なくとも1つに基づいて前記運転者の顔の特徴点を認識する第2の顔認識部とを含み、前記顔向き判定部は、前記第1の顔認識部によって認識された特徴点に基づいて前記運転者の顔向きを判定し、前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定し、前記心拍数推定部は、前記第2の顔認識部によって認識された顔の特徴点に着目して前記運転者の顔色の変化を検出し、心拍数を推定してもよい。 A certain aspect WHEREIN: The auxiliary | assistant illumination which irradiates a near-infrared light is further provided, and the said signal processing circuit estimates the heart rate from the face direction determination part which determines the said driver's face direction, and the said driver | operator's face color change And a physical condition determining unit that determines the physical condition of the driver based on the estimated heart rate, wherein the at least two optical regions transmit the near-infrared light. A first optical region having a spectral characteristic; a second optical region having a second spectral characteristic that transmits red light in the visible light band; and a third spectral characteristic that transmits green light in the visible light band. A third optical region and a fourth optical region having a fourth spectral characteristic that transmits blue light in the visible light band, and the at least two imaging regions correspond to the first optical region. 1 imaging area A second imaging area corresponding to the second optical area, a third imaging area corresponding to the third optical area, and a fourth imaging area corresponding to the fourth optical area, and the face The recognition unit includes a first face recognition unit that recognizes feature points of the driver's face based on a first image signal acquired from the first imaging region, and the second, third, and fourth. A second face recognition unit that recognizes feature points of the driver's face based on at least one of the second, third, and fourth image signals respectively acquired from the imaging regions of The determination unit determines the driver's face orientation based on the feature points recognized by the first face recognition unit, and the aside look / slumber determination unit determines whether the driver's face orientation is determined. It is determined whether the driver is looking aside, and the heart rate estimation unit Face by focusing on feature points of the recognized face by the recognition unit detects the change in the complexion of the driver may estimate the heart rate.
本発明の他の一態様である運転者監視システムは、レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する第1および第2の撮像装置であって、前記各光学領域を通過した光の情報を示し、前記各撮像領域から得られる複数の画像信号を出力する第1および第2の撮像装置と、近赤外光を照射する補助照明と、視差量を用いて運転者までの距離を演算する距離演算部と、前記運転者の顔の2次元特徴点を認識する第1の顔認識部と、前記運転者の顔の3次元特徴点を認識する第2の顔認識部と、前記顔の特徴点に基づいて前記運転者の顔向きを判定する顔向き判定部と、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する脇見判定部と、前記運転者の顔色の変化から心拍数を推定する心拍数推定部と、推定された心拍数に基づいて前記運転者の体調を判定する体調判定部とを含む信号処理回路とを備え、前記少なくとも2つの光学領域は、前記近赤外光を透過させる第1の分光特性を有する第1の光学領域、可視光帯域における赤色の光を透過させる第2の分光特性を有する第2の光学領域、可視光帯域における緑色の光を透過させる第3の分光特性を有する第3の光学領域、および可視光帯域における青色の光を透過させる第4の分光特性を有する第4の光学領域を含み、前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、前記距離演算部は、前記第1および第2の撮像装置の前記第1の撮像領域からそれぞれ取得された第1の画像信号から得られる視差量を用いて前記運転者までの距離を演算し、前記第1の顔認識部は、前記第1の撮像装置の前記第2、第3および第4の撮像領域からそれぞれ取得された第2、第3および第4の画像信号の少なくとも1つに基づいて前記運転者の顔の2次元特徴点を認識し、前記第2の顔認識部は、前記第1の撮像装置の前記第1の撮像領域から取得された第1の画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識し、前記顔向き判定部は、前記3次元特徴点に基づいて前記運転者の顔向きを判定し、前記脇見判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定し、前記心拍数推定部は、前記顔の2次元特徴点に着目して前記運転者の顔色の変化を検出し、心拍数を推定する。 A driver monitoring system according to another aspect of the present invention includes a lens, a lens optical system including at least two optical regions having different optical characteristics, and at least two imagings into which light transmitted through the lens optical system is incident. An image sensor having a region, and disposed between the lens optical system and the image sensor, light that has passed through each optical region of the at least two optical regions is incident on each image region of the at least two image regions. First and second imaging devices each having an arrayed optical element to be operated, the first and second imaging devices showing information of light that has passed through each of the optical regions, and outputting a plurality of image signals obtained from the imaging regions Recognizing a two-dimensional feature point of the driver's face, a second imaging device, auxiliary illumination for irradiating near-infrared light, a distance calculator for calculating the distance to the driver using the amount of parallax A face recognition unit, a second face recognition unit that recognizes a three-dimensional feature point of the driver's face, and a face direction determination unit that determines the driver's face direction based on the face feature point; A side look determination unit that determines whether or not the driver is looking aside according to a determination result of the driver's face orientation; and a heart rate estimation unit that estimates a heart rate from a change in the driver's face color; A signal processing circuit including a physical condition determination unit that determines the physical condition of the driver based on the estimated heart rate, wherein the at least two optical regions transmit the near infrared light. A first optical region having a characteristic, a second optical region having a second spectral characteristic that transmits red light in the visible light band, and a third spectral characteristic that transmits green light in the visible light band. 3 optical region and blue light in visible light band A fourth optical region having a fourth spectral characteristic, and the at least two imaging regions are a first imaging region corresponding to the first optical region and a second corresponding to the second optical region. An imaging region, a third imaging region corresponding to the third optical region, and a fourth imaging region corresponding to the fourth optical region, and the distance calculation unit includes the first and second A distance to the driver is calculated using a parallax amount obtained from a first image signal respectively acquired from the first imaging region of the imaging device, and the first face recognition unit Recognizing a two-dimensional feature point of the driver's face based on at least one of the second, third, and fourth image signals acquired from the second, third, and fourth imaging regions of the imaging device, respectively. And the second face recognition unit includes the first imaging device. Recognizing a three-dimensional feature point of the driver's face based on the first image signal acquired from the first imaging region and the distance to the driver, the face orientation determination unit is configured to detect the three-dimensional feature point. The driver's face orientation is determined based on the driver's face orientation, and the driver determines whether the driver is looking aside according to the driver's face orientation determination result. The unit focuses on the two-dimensional feature points of the face, detects a change in the driver's face color, and estimates a heart rate.
ある態様において、前記運転者までの距離に基づいて前記運転者の姿勢を検知する姿勢検知部と、前記姿勢検知部の検知結果に基づき、エアバックを展開するか否かを判定し、前記エアバックの展開および展開速度を制御するエアバック展開制御部とをさらに備えていてもよい。 In one aspect, an attitude detection unit that detects the attitude of the driver based on a distance to the driver, and whether to deploy an airbag based on a detection result of the attitude detection unit, An airbag deployment control unit that controls the deployment and deployment speed of the bag may be further provided.
ある態様において、前記脇見・居眠り判定部の判定結果に応じて、前記運転者に警告を発する警告装置をさらに備えていてもよい。 A certain aspect WHEREIN: You may further provide the warning device which issues a warning to the said driver according to the determination result of the said looking-aside / slumber determination part.
本発明の他の一態様である方法は、レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記各光学領域に対応した前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する撮像装置から出力される複数の画像信号であって、前記各光学領域を通過した光の情報を有し、前記各撮像領域から取得される複数の画像信号の少なくとも1つを解析することによって、運転者が脇見および/または居眠りをしているか否かを監視する運転者監視方法であって、前記複数の画像信号の少なくとも1つの画像信号に基づいて前記運転者の顔の特徴点を認識するステップと、前記顔の特徴点に基づいて前記運転者が脇見または居眠りをしているか否かを判定するステップとを包含する。 A method according to another aspect of the present invention includes a lens, a lens optical system including at least two optical regions having different optical characteristics, and at least two imaging regions on which light transmitted through the lens optical system is incident. Light that is disposed between the imaging element, the lens optical system, and the imaging element and that has passed through each optical area of the at least two optical areas is each of the at least two imaging areas corresponding to the optical areas. A plurality of image signals output from an imaging device having an arrayed optical element to be incident on the imaging region, the plurality of image signals having information of light that has passed through each of the optical regions, and acquired from each of the imaging regions A driver monitoring method for monitoring whether a driver is looking aside and / or dozing by analyzing at least one of image signals, the plurality of images Recognizing a feature point of the driver's face based on at least one image signal of the number, and determining whether the driver is looking aside or falling asleep based on the feature point of the face; Is included.
本発明の他の一態様であるコンピュータプログラムは、レンズ、および異なる光学特性を有する少なくとも2つの光学領域を含むレンズ光学系と、前記レンズ光学系を透過した光が入射する少なくとも2つの撮像領域を有する撮像素子と、前記レンズ光学系と前記撮像素子との間に配置され、前記少なくとも2つの光学領域の各光学領域を通過した光を、前記各光学領域に対応した前記少なくとも2つの撮像領域の各撮像領域に入射させるアレイ状光学素子とを有する撮像装置から出力される複数の画像信号であって、前記各光学領域を通過した光の情報を有し、前記各撮像領域から取得される複数の画像信号の少なくとも1つを解析することによって、運転者が脇見および/または居眠りをしているか否かを監視する運転者監視システムにおいて用いられるコンピュータプログラムであって、前記運転者監視システムのコンピュータに、前記複数の画像信号の少なくとも1つの画像信号に基づいて前記運転者の顔の特徴点を認識するステップと、前記顔の特徴点に基づいて前記運転者が脇見または居眠りをしているか否かを判定するステップとを実行させる。 A computer program according to another aspect of the present invention includes a lens, a lens optical system including at least two optical regions having different optical characteristics, and at least two imaging regions into which light transmitted through the lens optical system is incident. An image sensor having the optical system disposed between the lens optical system and the image sensor, and having passed through the optical regions of the at least two optical regions, the light of the at least two image regions corresponding to the optical regions. A plurality of image signals output from an imaging device having an arrayed optical element to be incident on each imaging region, the plurality of image signals having information on light that has passed through each optical region, and acquired from each imaging region A driver monitoring system that monitors whether the driver is looking aside and / or dozing by analyzing at least one of the image signals of A step of recognizing a feature point of the driver's face based on at least one image signal of the plurality of image signals to a computer of the driver monitoring system; and And determining whether the driver is looking aside or snoozing based on points.
上記態様による運転者監視システムによれば、光学領域の光学特性を様々に設定することにより、単一の撮像装置を用いて、例えば、ハイダミックレンジ(以降、「HDR」と称する。)の撮影、単眼測距、光の偏光特性を利用した撮影、光の分光特性を利用した撮影を行うことが可能になる。これらの撮影によって得られた画像情報を解析することにより、運転者が脇見または居眠りをしているかを精度よく判定することができる。 According to the driver monitoring system according to the above aspect, by setting various optical characteristics of the optical region, for example, shooting in a dynamic range (hereinafter referred to as “HDR”) using a single imaging device. In addition, it is possible to perform monocular distance measurement, shooting using light polarization characteristics, and shooting using light spectral characteristics. By analyzing the image information obtained by such photographing, it can be accurately determined whether the driver is looking aside or snoozing.
以下、図面を参照しながら、本発明による運転者監視システムの実施形態を説明する。 Hereinafter, an embodiment of a driver monitoring system according to the present invention will be described with reference to the drawings.
(実施の形態1)
まず、図1〜3を参照して、本実施の形態による運転者監視システム100の構成および機能を説明する。
(Embodiment 1)
First, with reference to FIGS. 1-3, the structure and function of the driver |
図1は、本実施の形態による運転者監視システム100のブロック構成図を示す。運転者監視システム100は、カメラユニット10と、信号処理回路20と、コントローラ30と、警告装置40とを備えている。なお、警告装置40は、運転者監視システム100の構成要素でなくてもよく、運転者監視システム100に接続される外部機器であってもよい。本願明細書では、警告装置40は、運転者監視システム100の構成要素であるものとして説明する。
FIG. 1 shows a block configuration diagram of a
カメラユニット10は、運転者に向けて補助照明光として近赤外光を照射する。カメラ6は、運転者の像を検出し、互いに異なる光の透過率特性を示す光の情報を有する複数の画像信号を生成する。
The
信号処理回路20は、複数の画像信号を合成してHDRの合成画像信号を生成し、HDRの合成画像信号に基づいて運転者が脇見をしているか否かを判定する。
The
警告装置40は、信号処理回路20が、運転者が脇見をしていると判定した場合、脇見運転をしていることを運転者に警告する。
When the
コントローラ30は、運転者監視システム100全体を制御する。コントローラ30は、半導体素子などにより構成される。コントローラ30は、典型的にはマイクロコンピュータによって実現される。コントローラ30は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。
The
図2は、カメラユニット10が自動車4内に搭載される様子を示す模式図である。例えば、カメラユニット10は、車内のステアリングコラム5の上に配置される。カメラユニト10は、ステアリングホイール3を通して正面から見上げるように、運転者2を撮影する。なお、カメラユニット10は、ステアリングコラム5の上に配置されていなくてもよく、運転者2の顔を撮影できるあらゆる場所に配置され得る。例えば、カメラユニット10は、フロントガラスの上部、またはダッシュボードの上部に配置されていてもよい。
FIG. 2 is a schematic diagram illustrating how the
信号処理回路20およびコントローラ30は、カメラユニット10内に設けられていてもよいし、例えば、信号処理回路20は、車内のカーナビゲーションシステム(不図示)の装置内に設けられていてもよい。この場合、カメラユニット10とカーナビゲーションシステムとの間で、有線または無線の通信が双方向で行われる。または、信号処理回路20の機能がスマートフォン(不図示)に実装されており、カメラユニット10とスマートフォンとの間で、有線または無線の通信が双方向で行われ得る。スマートフォンは警告装置として機能し、スマートフォンの画面上に警告が表示されてもよい。
The
図3は、カメラユニット10を運転者2からみた場合の正面図である。カメラユニット10は、カメラ6および補助照明7を含む。補助照明7は、運転手に向けて近赤外光を補助光をして照射する。補助照明7は、例えばLED(Light Emitting Diode)から構成される。図3には、運転手を均一に照射する観点から、カメラ6を基準にして4つのLEDを左右対称に2つずつ配置する例を示している。
FIG. 3 is a front view when the
図4〜8を参照して、カメラ6の構成の一例を説明する。本発明の実施形態によるカメラ6の構成は、以下で例示するものに限られない。
An example of the configuration of the
図4は、カメラ6の構成例を示す模式図である。カメラ6は、Vを光軸とするレンズ光学系Lと、レンズ光学系Lの焦点近傍に配置されたアレイ状光学素子Kと、撮像素子Nとを備える。
FIG. 4 is a schematic diagram illustrating a configuration example of the
撮像素子Nは、例えばCMOSセンサやCCDセンサである。 The image sensor N is, for example, a CMOS sensor or a CCD sensor.
レンズ光学系Lは、レンズL1、絞りSおよび光学素子L2を含む。被写体(不図示)から入射した光束Bの光線方向は、レンズL1により屈曲され、絞りSで不要な光線が排除される。レンズL1は、一枚のレンズで構成されていてもよいし、複数枚のレンズ(レンズ群)で構成されていてもよい。光学素子L2は、絞りS近傍に配置される。なお、絞りSは、光学素子L2の被写体側ではなく、光学素子L2の撮像素子N側に配置されてもよい。また、レンズ光学系Lが複数枚のレンズで構成される場合、レンズとレンズの間に絞りSが配置されてもよい。 The lens optical system L includes a lens L1, a diaphragm S, and an optical element L2. The direction of the light beam B incident from a subject (not shown) is bent by the lens L1, and the diaphragm S eliminates unnecessary light beams. The lens L1 may be composed of a single lens or a plurality of lenses (lens group). The optical element L2 is disposed in the vicinity of the stop S. The diaphragm S may be disposed not on the subject side of the optical element L2 but on the image pickup element N side of the optical element L2. Further, when the lens optical system L is composed of a plurality of lenses, a diaphragm S may be disposed between the lenses.
図5は、光学素子L2を被写体側から見た正面図である。光学領域D1、D2、D3、およびD4は、光軸Vに垂直な平面を、光軸Vと交わる直線l1、l2によって4つに分割した領域である。直線l1と直線l2とは、光軸Vに垂直な平面において、互いに垂直に交わっている。原則として、光学領域D1、D2、D3およびD4は、等しい面積を有している。また、破線sは、絞りSの位置を示している。ただし、光学領域D1、D2、D3およびD4は異なる面積を有していてもよい。 FIG. 5 is a front view of the optical element L2 as viewed from the subject side. The optical regions D1, D2, D3, and D4 are regions obtained by dividing a plane perpendicular to the optical axis V into four by straight lines l1 and l2 that intersect the optical axis V. The straight line l1 and the straight line l2 intersect each other perpendicularly on a plane perpendicular to the optical axis V. In principle, the optical areas D1, D2, D3 and D4 have equal areas. A broken line s indicates the position of the diaphragm S. However, the optical regions D1, D2, D3, and D4 may have different areas.
図6(a)は、光学領域D1、D2、D3およびD4の光学特性を示し、図6(b)は、本実施の形態の変形例による光学領域D1、D2、D3およびD4の光学特性を示している。本実施の形態のカメラ6のレンズ光学系Lは、図6(a)に示す光の透過率特性を有する複数の光学領域を含んでいる。図6(a)に示すように、光学領域D1、D2、D3およびD4において、光の透過率は、それぞれ、100%、25%、6.25%、および1.5625%である。すなわち、光学領域D1、D2、D3およびD4の透過率の比は、64:16:4:1であり、光学領域D1、D2、D3およびD4の透過率は、互いに異なっている。光学領域は、互いに光の透過率が異なるNDフィルタ(Neutral Density Filter)を配置することにより形成することがきる。
6A shows the optical characteristics of the optical regions D1, D2, D3, and D4, and FIG. 6B shows the optical properties of the optical regions D1, D2, D3, and D4 according to the modification of the present embodiment. Show. The lens optical system L of the
図7は、アレイ状光学素子Kの斜視図である。アレイ状光学素子Kにおける撮像素子N側の面には、光学要素M2が格子状に配置されている。それぞれの光学要素M2の断面(縦方向および横方向それぞれの断面)は曲面であり、それぞれの光学要素M2は、撮像素子N側に突出している。このように、光学要素M2はマイクロレンズであり、アレイ状光学素子Kは、マイクロレンズアレイとなっている。 FIG. 7 is a perspective view of the arrayed optical element K. FIG. On the surface of the arrayed optical element K on the imaging element N side, optical elements M2 are arranged in a grid pattern. Each optical element M2 has a curved cross section (vertical and horizontal cross sections), and each optical element M2 protrudes toward the image sensor N side. Thus, the optical element M2 is a microlens, and the arrayed optical element K is a microlens array.
図8(a)は、アレイ状光学素子Kと撮像素子Nとを拡大して示す図であり、図8(b)は、アレイ状光学素子Kと撮像素子N上の画素との位置関係を示す図である。アレイ状光学素子Kは、レンズ光学系Lの焦点近傍に配置されており、かつ撮像面Niから所定の距離だけ離れた位置に配置されている。また、アレイ状光学素子Kは、光学要素M2が形成された面が撮像面Ni側を向くように配置されている。 FIG. 8A is an enlarged view showing the arrayed optical element K and the image sensor N, and FIG. 8B shows the positional relationship between the arrayed optical element K and the pixels on the image sensor N. FIG. The arrayed optical element K is disposed in the vicinity of the focal point of the lens optical system L and is disposed at a position away from the imaging surface Ni by a predetermined distance. The arrayed optical element K is arranged so that the surface on which the optical element M2 is formed faces the imaging surface Ni side.
撮像面Niには、画素Pが行列状に配置されている。画素Pは、画素P1、P2、P3およびP4に区別できる。画素P1、P2、P3およびP4は、それぞれ、光学領域D1、D2、D3およびD4を通過した光の大部分が入射する画素である。図8(b)において、画素P1A、P1B、・・・は、画素P1に分類され、第1の撮像領域C1を形成する。画素P2A、P2B、・・・は、画素P2に分類され、第2の撮像領域C2を形成する。画素P3A、P3B、・・・は、画素P3に分類され、第3の撮像領域C3を形成する。画素P4A、P4B、・・・は、画素P4に分類され、第4の撮像領域C4を形成する。 Pixels P are arranged in a matrix on the imaging surface Ni. Pixel P can be distinguished into pixels P1, P2, P3 and P4. Pixels P1, P2, P3, and P4 are pixels on which most of the light that has passed through the optical regions D1, D2, D3, and D4 is incident. In FIG. 8B, the pixels P1A, P1B,... Are classified as the pixel P1 and form the first imaging region C1. Pixels P2A, P2B,... Are classified as pixel P2 and form a second imaging region C2. Pixels P3A, P3B,... Are classified as pixels P3 and form a third imaging region C3. Pixels P4A, P4B,... Are classified as pixel P4, and form a fourth imaging region C4.
アレイ状光学素子Kは、光学領域D1を通過した光を、光学領域D1に対応した第1の撮像領域C1内の画素に入射させ、光学領域D2を通過した光を、光学領域D2に対応した第2の撮像領域C2内の画素に入射させ、光学領域D3を通過した光を、光学領域D3に対応した第3の撮像領域C3内の画素に入射させ、光学領域D4を通過した光を、光学領域D4に対応した第4の撮像領域C4内の画素に入射させる。 The arrayed optical element K causes the light passing through the optical region D1 to enter the pixels in the first imaging region C1 corresponding to the optical region D1, and the light passing through the optical region D2 corresponds to the optical region D2. The light that has entered the pixels in the second imaging region C2 and passed through the optical region D3 is incident on the pixels in the third imaging region C3 corresponding to the optical region D3, and the light that has passed through the optical region D4 is The light is incident on the pixels in the fourth imaging region C4 corresponding to the optical region D4.
撮像面Niには、単位領域M2Iが、縦方向(列方向)および横方向に、複数配置されている。それぞれの単位領域M2Iには、2行2列の画素P1〜P4から構成される4つの画素が設けられている。撮像面Niにおける1つの単位領域M2Iは、アレイ状光学素子Kにおける1つの光学要素M2に対応している。撮像面Ni上には、画素P1、P2、P3およびP4の表面を覆うようにマイクロレンズMsが設けられている。 On the imaging surface Ni, a plurality of unit regions M2I are arranged in the vertical direction (column direction) and the horizontal direction. Each unit region M2I is provided with four pixels composed of pixels P1 to P4 in two rows and two columns. One unit region M2I on the imaging surface Ni corresponds to one optical element M2 in the arrayed optical element K. On the imaging surface Ni, a microlens Ms is provided so as to cover the surfaces of the pixels P1, P2, P3, and P4.
単位領域M2I内に配置される画素(例えば画素P1A、P2A、P3A、P4A)には、被写体における同じ部分からの光が入射する。 Light from the same part of the subject is incident on the pixels (for example, pixels P1A, P2A, P3A, and P4A) arranged in the unit region M2I.
撮像素子Nは、撮像領域C1に入射した光の量に応じて第1の画像信号I1を生成し、第2の撮像領域C2に入射した光の量に応じて第2の画像信号I2を生成し、撮像領域C3に入射した光の量に応じて第3の画像信号I3を生成し、撮像領域C4に入射した光の量に応じて第4の画像信号I4を生成する。 The imaging element N generates a first image signal I1 according to the amount of light incident on the imaging region C1, and generates a second image signal I2 according to the amount of light incident on the second imaging region C2. Then, the third image signal I3 is generated according to the amount of light incident on the imaging region C3, and the fourth image signal I4 is generated according to the amount of light incident on the imaging region C4.
カメラユニット10は、撮像領域C1、C2、C3およびC4に対応した第1の画像信号I1、第2の画像信号I2、第3の画像信号I3および第4の画像信号I4をそれぞれ出力する。
The
なお、光学領域を4分割にする例を示したが、光学領域は、2分割、3分割または5分割以上にされていてもよい。光学領域の構造は、設計仕様等を考慮して適宜決定することができる。 In addition, although the example which divides | segments an optical region into 4 was shown, the optical region may be divided into 2 divisions, 3 divisions, or 5 divisions or more. The structure of the optical region can be appropriately determined in consideration of design specifications and the like.
再び、図1を参照しながら、信号処理回路20の詳細を説明する。
Again, the details of the
信号処理回路20は、画像合成部21と、顔認識部22と、顔向き判定部23と、脇見判定部24とを有する。
The
信号処理回路20は、半導体素子などにより構成される。信号処理回路20は、典型的にはイメージシグナルプロセッサ(ISP)によって実現され得る。信号処理回路20は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。
The
なお、本実施の形態では、信号処理回路20とコントローラ30とは、それぞれ独立した回路として、運転者監視システム100内に実装される例を示すが、本発明はこれに限定されない。例えば、信号処理回路20およびコントローラ30の機能が、1チップの集積回路に実装されていても構わない。例えば、この集積回路は、汎用のプロセッサによって実現され得る。プロセッサ内部のメモリに、各構成要素の機能を発揮するコンピュータプログラムが実装されており、プロセッサが逐次コンピュータプログラムを実行することにより、各構成要素の機能が実現されてもよい。
In the present embodiment, an example is shown in which the
信号処理回路20は、撮像素子Nから出力された、第1の画像信号I1、第2の画像信号I2、第3の画像信号I3および第4の画像信号I4の合成画像信号I5に基づいて、運転者の顔向きを検出し、運転者が脇見をしているか否かを判定する。信号処理回路20は、運転者が脇見をしているか否かの判定結果を、後段の警告装置40に出力する。
The
画像合成部21は、第1の画像信号I1から第1の画像情報I1aを生成し、第2の画像信号I2から第2の画像情報I2aを生成し、第3の画像信号I3から第3の画像情報I3aを生成し、第4の画像信号I4から第4の画像情報I4aを生成する。
The
例えば、第1、第2、第3および第4の画像情報I1a、I2a、I3aおよびI4aとは、輝度値を示す画像情報である。カメラユニット10から出力される画像信号がRAWデータであるとき、画像合成部21は、RAWデータ(画像信号)を輝度信号(画像情報)に変換する。なお、カメラユニット10は、RAWデータに限らず、輝度信号や色差信号を出力しても構わない。この場合、信号処理回路20は、受信した輝度信号をそのまま処理すればよい。カメラユニット10から出力される画像信号は、輝度信号を含んでいてもよい。信号処理回路20は、カメラユニット10から出力される画像信号に基づいて画像解析を行ってもよいし、変換後の画像情報に基づいて画像解析を行ってもよい。本願明細書では、信号処理回路20は、変換後の画像情報に基づいて画像解析を行うものとして、各実施の形態による信号処理回路20を説明する。
For example, the first, second, third and fourth image information I1a, I2a, I3a and I4a are image information indicating luminance values. When the image signal output from the
画像合成部21は、第1、第2、第3および第4の画像情報I1a、I2a、I3aおよびI4aを合成してHDRの合成画像情報I5aを生成する。HDRに関する公知の技術を広く用いることによって、画像情報の合成は実現される。第1、第2、第3および第4の画像情報I1a、I2a、I3aおよびI4aはそれぞれ、互いに光の透過率が異なる光学領域を通過した光の情報を有している。画像合成部21は、これらの画像情報を合成することにより、HDRの合成画像情報を生成する。これにより、白飛びや黒潰れが抑制された合成画像情報I5aが得られる。
The
顔認識部22は、合成画像情報I5aに基づいて運転者の顔の特徴点を認識する。図9は、人間の顔の模式図である。図9に示すように、運転者の顔の特徴点としては、例えば、眉65、66、目尻61、62および口元63、64が挙げられる。顔認識部22は、合成画像情報I5aを解析して合成画像情報I5aが示す画像中から顔の特徴点を抽出(認識)する。例えば、顔の特徴点の抽出には、公知のパターン認識の手法を用いることができるので、本願明細書では、顔の特徴点の抽出方法の詳細は割愛する。
The
顔向き判定部23は、顔認識部22によって抽出された顔の特徴量を用いて運転者の顔向きを判定する。具体的には、顔向き判定部23は、顔の特徴量に基づいてパターンマッチング用のテンプレートを作成する。顔向き判定部23は、カメラ6から順次出力される画像に対して、運転者の顔向きを推定し、かつ、テンプレートを用いたテンプレートマッチングを実行することによって、顔追跡を行う。なお、運転者の顔向きの推定や、テンプレートマッチングについての詳細は、例えば、特許文献2に開示されている。
The face
顔向き判定部23は、運転者の顔向きの判定結果に応じて運転者が脇見をしているか否かを判定する。具体的には、顔向き判定部23は、顔向きの推定結果およびテンプレートマッチングにより得られた相関値に基づいて運転者の顔向きを判定する。顔向き判定部23は、顔向きの判定結果を後段の脇見判定部24に出力する。なお、上記の説明は一例であり、顔向きの検出には、公知の方法を広く用いることができる。
The face
脇見判定部24は、顔向きの検出結果を受けて、所定時間において継続して顔向きが所定の範囲内であるときに、運転者が脇見をしていると判定する。「顔向き」とは、主として運転者の目線の向きを意味する。例えば、所定の範囲とは、目線の仰角および俯角がそれぞれ10度以上である範囲である。
The look-
なお、本願明細書では、脇見判定部24と後述する居眠り判定部28とを総称して「脇見・居眠り判定部」と称する。
In the specification of the present application, the aside look
警告装置40は、例えば、警告メッセージを表示するモニターおよび/または警告音を発するスピーカから構成され得る。警告装置40は、脇見判定部24の判定結果に応じて運転者に警告を発して、注意を促す。
The
次に、図23を参照しながら、運転者監視システム100の動作を説明する。
Next, the operation of the
図23は、運転者監視システム100の動作のフローチャートを示す。
FIG. 23 shows a flowchart of the operation of the
カメラユニット10は、撮像領域C1、C2、C3およびC4に対応した第1の画像信号I1、第2の画像信号I2、第3の画像信号I3および第4の画像信号I4をそれぞれ出力する(ステップS100)。
The
次に、画像合成部21は、第1の画像信号I1から第1の画像情報I1aを生成し、第2の画像信号I2から第2の画像情報I2aを生成し、第3の画像信号I3から第3の画像情報I3aを生成し、第4の画像信号I4から第4の画像情報I4aを生成する(ステップS101)。
Next, the
次に、画像合成部21は、第1、第2、第3および第4の画像情報I1a、I2a、I3aおよびI4aを合成してHDRの合成画像情報I5aを生成する(ステップS102)。
Next, the
次に、顔認識部22は、合成画像情報I5aに基づいて運転者の顔の特徴点を認識する(ステップS103)。
Next, the
次に、顔向き判定部23は、顔認識部22によって認識された顔の特徴点に基づいて運転者の顔向きを判定する(ステップS104)。
Next, the face
次に、脇見判定部24は、運転者の顔向きの判定結果に応じて運転者が脇見をしているか否かを判定する。脇見判定部24は、顔向きの検出結果を受けて、所定時間において継続して顔向きが所定の範囲内であるときに、運転者が脇見をしていると判定する(ステップS105)。
Next, the look-
次に、脇見判定部24が、運転者が脇見運転をしていると判定した場合、警告装置40は、運転者に警告を発する(ステップS106)。一方で、脇見判定部24が、運転者が脇見運転をしていないと判定した場合、警告装置40は、運転者に警告を発しない(ステップS107)。
Next, when the look-
本実施の形態によれば、単一の撮像装置を用いてHDRの撮影を行うことが可能になる。HDRの画像を用いた画像解析がなされるので、明るさが変化する環境下においても、高いロバスト性が確保され、運転者が脇見をしているかを精度よく判定することができる。 According to the present embodiment, HDR imaging can be performed using a single imaging device. Since image analysis using HDR images is performed, high robustness is ensured even in an environment where the brightness changes, and it can be accurately determined whether the driver is looking aside.
次に、図6(b)を参照しながら、本実施の形態の変形例を説明する。 Next, a modification of the present embodiment will be described with reference to FIG.
図6(b)は、光学領域D1、D2、D3およびD4での光の透過率をそれぞれ示している。本実施の形態の変形例では、光学領域D1〜D4の光透過率特性(フィルタ特性)が、上述した実施の形態の図6(a)に示すフィルタ特性とは異なる。また、本実施の形態の変形例による信号処理回路20は、運転者までの距離を演算する距離演算部(不図示)をさらに有している。
FIG. 6B shows light transmittances in the optical regions D1, D2, D3, and D4, respectively. In the modification of the present embodiment, the light transmittance characteristics (filter characteristics) of the optical regions D1 to D4 are different from the filter characteristics shown in FIG. 6A of the above-described embodiment. Further, the
図6(b)に示すように、光学領域D1、D2、D3およびD4において、光の透過率は、それぞれ、100%、6.25%、100%および6.25%である。すなわち、光学領域D1、D2、D3およびD4の透過率の比は、16:1:16:1である。 As shown in FIG. 6B, in the optical regions D1, D2, D3, and D4, the light transmittances are 100%, 6.25%, 100%, and 6.25%, respectively. That is, the transmittance ratio of the optical regions D1, D2, D3, and D4 is 16: 1: 16: 1.
画像合成部21は、第1の画像情報I1aと第2の画像情報I2aとを合成してHDRの第1の合成画像情報I5a1を生成し、第3の画像情報I3aと第4の画像情報I4aとを合成してHDRの第2の合成画像情報I5a2を生成する。
The
距離演算部は、第1の合成画像情報I5a1および第2の合成画像情報I5a2から得られる位相差(視差)に基づいて運転者までの距離を演算する。これは、デジタルカメラに用いられている、いわゆるAF(Auto Focus)の位相方式の原理に相当する。 The distance calculation unit calculates the distance to the driver based on the phase difference (parallax) obtained from the first composite image information I5a1 and the second composite image information I5a2. This corresponds to the principle of the so-called AF (Auto Focus) phase system used in digital cameras.
距離演算部は、第1の合成画像情報I5a1および第2の合成画像情報I5a2に基づいて運転者までの距離を演算する。 The distance calculation unit calculates the distance to the driver based on the first composite image information I5a1 and the second composite image information I5a2.
顔認識部22は、第1の合成画像情報I5a1および運転者までの距離情報に基づいて運転者の顔の3次元特徴点を認識する。
The
顔向き判定部23は、顔の3次元特徴点を用いて運転者の顔向きを判定する。
The face
脇見判定部24は、運転者の顔向きの判定結果に応じて運転者が脇見をしているか否かを判定する。
The aside look
本実施の形態の変形例によれば、上述したHDRの効果に加えて、単一の撮像装置を用いてステレオ撮影の効果を得ることができる。このように、顔の特徴点のみならず、運転者までの距離情報を含めて顔の3次元特徴点に基づく画像解析がなされるので、より精度よく顔向きを検出できる。この結果、運転者が脇見をしているか否かをより精度よく判定することができる。 According to the modification of the present embodiment, in addition to the above-described HDR effect, a stereo imaging effect can be obtained using a single imaging device. As described above, since the image analysis based on the three-dimensional feature point of the face including not only the feature point of the face but also the distance information to the driver is performed, the face direction can be detected with higher accuracy. As a result, it can be determined more accurately whether the driver is looking aside.
次に、図10および11を参照しながら、本実施の形態の他の変形例を説明する。 Next, another modification of the present embodiment will be described with reference to FIGS.
図10は、2台のカメラ6A、6Bを搭載した運転者監視システム100Aのブロック構成を示す。図11は、運転者監視システム100A内のカメラユニット10を運転者からみた場合の正面図である。
FIG. 10 shows a block configuration of a
図10および11に示すように、カメラユニット10には2台のカメラ6A、6Bが配置されており、カメラユニット10は、複眼カメラとして機能する。なお、2台のカメラは、図示するような垂直方向に直交する方向(水平方向)に配置されていなくてもよく、垂直方向に配置されていてもよい。
As shown in FIGS. 10 and 11, two
運転者監視システム100Aは、カメラユニット10と、信号処理回路20と、コントローラ30と、警告装置40とを備えている。また、運転者監視システム100Aは、オプションとして、姿勢検知部51と、エアバック展開制御部52とを備えていてもよい。
The
カメラユニット10は、2台のカメラ6A、6Bと、補助照明7とを含む。カメラ6A、6Bは、図6(a)または(b)に示す光学特性を有する光学領域D1、D2、D3およびD4を含んでいる。カメラ6A、6Bの構造は、上述したカメラ6の構造と同じであるので、カメラユニット10によってHDRの撮影を行うことができる。
The
カメラユニット10は、カメラ6Aにおいて生成された第1の画像信号I1A、第2の画像信号I2A、第3の画像信号I3Aおよび第4の画像信号I4Aと、カメラ6Bにおいて生成された第1の画像信号I1B、第2の画像信号I2B、第3の画像信号I3Bおよび第4の画像信号I4Bとを出力する。
The
信号処理回路20は、第1の画像合成部21Aと、第2の画像合成部21Bと、顔モデル生成部22Aと、顔向き判定部23と、脇見判定部24と、距離演算部25とを有する。
The
第1の画像合成部21Aは、第1の画像信号I1Aから第1の画像情報I1aを生成し、第2の画像信号I2Aから第2の画像情報I2aを生成し、第3の画像信号I3Aから第3の画像情報I3aを生成し、第4の画像信号I4Aから第4の画像情報I4aを生成する。
The first
第1の画像合成部21Aは、第1の画像情報I1a、第2の画像情報I2a、第3の画像情報I3aおよび第4の画像情報I4aを合成して第1の合成画像情報I5aを生成する。
The first
第2の画像合成部21Bは、第1の画像信号I1Bから第1の画像情報I1bを生成し、第2の画像信号I2Bから第2の画像情報I2bを生成し、第3の画像信号I3Bから第3の画像情報I3bを生成し、第4の画像信号I4Bから第4の画像情報I4bを生成する。
The second
第2の画像合成部21Bは、第1の画像情報I1b、第2の画像情報I2b、第3の画像情報I3bおよび第4の画像情報I4bを合成して第2の合成画像情報I5bを生成する。
The second
距離演算部25は、第1の合成画像情報I5aと第2の合成画像情報I5bとに基づいて視差量を求め、下記の式1に従って運転者までの距離D5を演算する。
距離:D5=L×f/(z×p) (式1)
ここで、L(mm)は、基線の長さであり、f(mm)は、レンズ光学系Lの焦点距離であり、p(mm/画素)は、撮像素子Nの画素ピッチであり、z(mm)は、視差量である。
The
Distance: D5 = L × f / (z × p) (Formula 1)
Here, L (mm) is the length of the base line, f (mm) is the focal length of the lens optical system L, p (mm / pixel) is the pixel pitch of the image sensor N, and z (Mm) is the amount of parallax.
距離演算部25は、例えば特許文献2に開示された手法を用いてブロックマッチングによって視差量を求めることができる。なお、視差量の算出においては、特許文献2に開示された手法に限らず、公知の技術を広く用いることができる。
The
顔モデル生成部(3次元顔認識部)22Aは、第1の合成画像情報I5aおよび運転者までの距離情報D5に基づいて運転者の顔の3次元特徴点を認識し、3次元顔モデルを生成する。例えば特許文献2に開示された手法を用いて3次元顔モデルを作成することができる。
The face model generation unit (three-dimensional face recognition unit) 22A recognizes the three-dimensional feature point of the driver's face based on the first composite image information I5a and the distance information D5 to the driver, and generates a three-dimensional face model. Generate. For example, a three-dimensional face model can be created using the technique disclosed in
顔向き判定部23は、3次元特徴点に基づいて運転者の顔向きを判定する。具体的には、顔向き判定部23は、3次元顔モデルに基づいてパターンマッチング用のテンプレートを作成する。顔向き判定部23は、カメラ6Aから順次出力される画像に対して、運転者の顔向きを推定し、かつ、テンプレートを用いたテンプレートマッチングを実行することによって、顔追跡を行う。顔向き判定部23は、顔向きの推定結果およびテンプレートマッチングにより得られた相関値に基づいて運転者の顔向きを判定する。顔向き判定部23は、顔向きの判定結果を後段の脇見判定部に出力する。
The face
脇見判定部24は、顔向きの判定結果を受けて、所定時間において継続して顔向きが所定の範囲内であるときに、運転者が脇見をしていると判定する。例えば、所定の範囲とは、目線の仰角および俯角がそれぞれ10度以上である範囲である。
The look-
警告装置40は、脇見判定部24の判定結果に応じて運転者に警告を発する。
The
本実施の形態の他の変形例によれば、上述したHDRの効果に加えて、ステレオ撮影の効果を得ることができる。このように、顔の特徴点のみならず、運転者までの距離情報を含む顔の3次元特徴点に基づく画像解析がなされるので、より精度よく顔向きを検出でき、運転者が脇見をしているかをより精度よく判定することができる。 According to another modification of the present embodiment, the effect of stereo shooting can be obtained in addition to the above-described HDR effect. In this way, image analysis based on not only facial feature points but also three-dimensional facial features including distance information to the driver can be performed, so that the face orientation can be detected more accurately and the driver can look aside. Can be determined with higher accuracy.
運転者監視システム100Aは、オプションとして、姿勢検知部51およびエアバック展開制御部52をさらに備えていてもよい。
The
姿勢検知部51は、第1の合成画像情報I5aと運転者までの距離情報D5とに基づいて運転者の姿勢を検知する。
The
エアバック展開制御部52は、姿勢検知部51の検知結果に基づき、エアバックを展開するか否かを判定する。例えば、エアバック展開制御部52は、座席のヘッドレストに対する運転者の頭部の位置に応じて、エアバックを展開するか否かを判定する。または、エアバック展開制御部52は、運転者の顔がエアバックの配置位置の近傍に位置しているときは、エアバックを展開しないと判定するようにしてもよい。エアバック展開制御部52は、エアバック41を展開するか否かの判定結果に応じて、エアバック41の展開および展開速度を制御する。
The airbag
従来は、車の座席に重量センサが搭載されており、その重量センサが検知する重量の変化に応じて、運転者の姿勢が検知されていた。 Conventionally, a weight sensor is mounted on a car seat, and the posture of the driver is detected according to a change in weight detected by the weight sensor.
本実施の形態の他の変形例によれば、画像処理によって姿勢を検知できるので、姿勢を検知するために重量センサなどの物理センサをわざわざ設けなくてもよい。このように、運転監視システムの規模の縮小および低コスト化を実現できる。 According to another modification of the present embodiment, since the posture can be detected by image processing, a physical sensor such as a weight sensor need not be provided in order to detect the posture. In this way, it is possible to reduce the scale and cost of the operation monitoring system.
(実施の形態2)
まず、図12を参照しながら、本実施の形態による運転者監視システム200の構成および機能を説明する。
(Embodiment 2)
First, the configuration and functions of the
図12は、本実施の形態による運転者監視システム200のブロック構成図を示す。なお、実施の形態1による運転者監視システム100の構成要素と同一の構成要素には、同じ参照符号を付している。
FIG. 12 shows a block configuration diagram of the
運転者監視システム200は、カメラユニット10と、信号処理回路20と、コントローラ30と、警告装置40とを備えている。また、運転者監視システム200は、オプションとして、姿勢検知部51と、エアバック展開制御部52とを備えていてもよい。
The
カメラユニット10は、運転者に向けて近赤外光を補助照明光として照射する。カメラ6Cは、運転者の像を検出し、異なる合焦特性を示す光の情報を有する複数の画像信号を生成する。
The
信号処理回路20は、複数の画像信号を合成して合成画像信号を生成する。また、信号処理回路20は、複数の画像信号から運転者までの距離を求め、合成画像信号および運転者までの距離に基づいて運転者が脇見をしているか否かを判定する。
The
警告装置40は、信号処理回路20が、運転者が脇見をしていると判定した場合、脇見運転をしていることを運転者に警告する。
When the
また、実施の形態1で説明したとおり、姿勢検知部51およびエアバック展開制御部52の処理結果に応じて、車内のエアバック41が展開される。
Further, as described in the first embodiment, the
図12および13(a)を参照して、カメラ6Cの構成の一例を説明する。
An example of the configuration of the
図13(a)は、光学領域D1、D2、D3およびD4の光学特性を示し、図13(b)は、本実施の形態の変形例による光学領域D1、D2、D3およびD4の光学特性を示している。なお、本実施の形態におけるカメラ6Cの構成は、光学領域が互いに異なる合焦特性を有している点以外は、実施の形態1でのカメラ6の構成と同じであるので、共通の構成要素についての詳細は割愛する。
FIG. 13A shows the optical characteristics of the optical regions D1, D2, D3, and D4, and FIG. 13B shows the optical properties of the optical regions D1, D2, D3, and D4 according to the modification of the present embodiment. Show. Note that the configuration of the
光学領域D1、D2、D3およびD4は、それぞれ第1の合焦特性、第2の合焦特性、第3の合焦特性および第4の合焦特性を有している。光学領域D1、D2、D3、D4の合焦特性は互いに異なっている。具体的には、図13(a)に示すように、光学領域D1は、焦点距離がf1である光学レンズから形成され、光学領域D2は、焦点距離がf2である光学レンズから形成され、光学領域D3は、焦点距離がf3である光学レンズから形成され、光学領域D4は、焦点距離がf4である光学レンズから形成されている。焦点距離f1、f2、f3およびf4は互いに異なっている。光学領域D1、D2、D3およびD4の曲率半径や非球面係数や屈折率を調整することにより、レンズ光学系Lの合焦特性を異ならせることができる。 The optical regions D1, D2, D3, and D4 have a first focusing characteristic, a second focusing characteristic, a third focusing characteristic, and a fourth focusing characteristic, respectively. The focusing characteristics of the optical regions D1, D2, D3, and D4 are different from each other. Specifically, as shown in FIG. 13A, the optical region D1 is formed from an optical lens having a focal length f1, and the optical region D2 is formed from an optical lens having a focal length f2. The region D3 is formed from an optical lens having a focal length f3, and the optical region D4 is formed from an optical lens having a focal length f4. The focal lengths f1, f2, f3 and f4 are different from each other. The focusing characteristics of the lens optical system L can be made different by adjusting the radius of curvature, aspheric coefficient, and refractive index of the optical regions D1, D2, D3, and D4.
なお、本実施の形態において、「合焦特性が異なる」とは、所定の波長の光で比較した場合に、その光学系において光の集光に寄与する特性の少なくとも1つが異なることをいう。具体的には、所定の波長の光で比較した場合に、光学領域D1、D2、D3およびD4を通過した光によるレンズ光学系Lの焦点距離、焦点が合う被写体までの距離、鮮鋭度が一定の値以上となる距離範囲などが異なることをいう。 In the present embodiment, “the focusing characteristics are different” means that at least one of the characteristics contributing to light collection in the optical system is different when compared with light of a predetermined wavelength. Specifically, when compared with light of a predetermined wavelength, the focal length of the lens optical system L by the light passing through the optical regions D1, D2, D3, and D4, the distance to the in-focus subject, and the sharpness are constant. This means that the distance range that is greater than or equal to the value is different.
撮像素子Nは、撮像領域C1、C2、C3およびC4に対応した第1の画像信号I1、第2の画像信号I2、第3の画像信号I3および第4の画像信号I4をそれぞれ出力する。第1の画像信号I1、第2の画像信号I2、第3の画像信号I3および第4の画像信号I4は、第1の合焦特性、第2の合焦特性、第3の合焦特性および第4の合焦特性から得られた光の情報をそれぞれ有している。 The imaging element N outputs a first image signal I1, a second image signal I2, a third image signal I3, and a fourth image signal I4 corresponding to the imaging regions C1, C2, C3, and C4, respectively. The first image signal I1, the second image signal I2, the third image signal I3, and the fourth image signal I4 have a first focusing characteristic, a second focusing characteristic, a third focusing characteristic, and Each has light information obtained from the fourth focusing characteristic.
再び、図12を参照しながら、信号処理回路20の詳細を説明する。
Again, the details of the
信号処理回路20は、画像合成部21と、顔モデル生成部22Aと、顔向き判定部23と、脇見判定部24と、距離演算部25とを有する。
The
画像合成部21は、第1の画像信号I1から第1の画像情報I1aを生成し、第2の画像信号I2から第2の画像情報I2aを生成し、第3の画像信号I3から第3の画像情報I3aを生成し、第4の画像信号I4から第4の画像情報I4aを生成する。
The
画像合成部21は、第1の画像情報I1a、第2の画像情報I2a、第3の画像情報I3aおよび第4の画像情報I4aを合成して合成画像情報I5aを生成する。
The
距離演算部25は、第1の画像情報I1a、第2の画像情報I2a、第3の画像情報I3aおよび第4の画像情報I4aを用いて、合成画像信号I5から形成される画像中の各画素に対応した運転者までの距離D5を演算する。4つの光学領域D1、D2、D3およびD4の合焦特性は互いに異なるため、第1の画像情報I1a、第2の画像情報I2a、第3の画像情報I3aおよび第4の画像情報I4aが示す画像の鮮鋭度(輝度を用いて算出される値)は、被写体までの距離によって異なる。メモリ(不図示)には、光学領域D1、D2、D3およびD4のそれぞれを通過した光の像の鮮鋭度と被写体までの距離との相関関係が記憶されている。距離演算部25は、第1の画像情報I1a、第2の画像情報I2a、第3の画像情報I3aおよび第4の画像情報I4aから形成される各画像の鮮鋭度と上記相関関係とに基づいて、被写体までの距離を得ることができる。
The
図24を参照して、被写体までの距離と鮮鋭度との関係の一例を説明する。 An example of the relationship between the distance to the subject and the sharpness will be described with reference to FIG.
図24は、被写体までの距離と鮮鋭度との関係の一例を示すグラフである。点像強度分布の変化に伴い、鮮鋭度も変化する。点像の大きさが小さくなるほど画像の鮮鋭度が増すため、被写体までの距離と鮮鋭度の関係は、図24のような関係になる。図24のグラフにおいて、G1は画素P1で生成された画像(光学領域D1を通過した光によって生成された画像)の所定領域の鮮鋭度を示しており、G2、G3およびG4はそれぞれ画素P2、P3およびP4で生成された画像の所定領域の鮮鋭度を示している。図24におけるZの範囲は、G2が変化し、かつG1がほとんど変化しない領域を示している。Zの範囲では、このような関係を利用して被写体までの距離を求めることができる。例えば、Zの範囲では、被写体までの距離と、鮮鋭度G1とG2との比に相関があるため、予め被写体までの距離と、鮮鋭度G1、G2の比との相関関係をメモリに記憶しておけばよい。 FIG. 24 is a graph showing an example of the relationship between the distance to the subject and the sharpness. As the point image intensity distribution changes, the sharpness also changes. Since the sharpness of the image increases as the size of the point image decreases, the relationship between the distance to the subject and the sharpness is as shown in FIG. In the graph of FIG. 24, G1 indicates the sharpness of a predetermined region of an image generated by the pixel P1 (an image generated by light that has passed through the optical region D1), and G2, G3, and G4 are the pixel P2, The sharpness of a predetermined area of the images generated at P3 and P4 is shown. The range of Z in FIG. 24 shows a region where G2 changes and G1 hardly changes. In the range of Z, the distance to the subject can be obtained using such a relationship. For example, in the Z range, since there is a correlation between the distance to the subject and the ratio between the sharpness G1 and G2, the correlation between the distance to the subject and the ratio between the sharpness G1 and G2 is stored in the memory in advance. Just keep it.
鮮鋭度以外に、輝度値のコントラスト比に基づいて被写体までの距離を求めてもよいし、または、点像強度分布を用いて被写体までの距離を求めてもよい。例えば、国際公開第2013/080552号が、被写体までの距離を求める手法の詳細を開示している。 In addition to the sharpness, the distance to the subject may be obtained based on the contrast ratio of the luminance values, or the distance to the subject may be obtained using the point image intensity distribution. For example, International Publication No. 2013/080552 discloses details of a method for obtaining a distance to a subject.
顔モデル生成部22Aは、合成画像情報I5aと運転者までの距離情報に基づいて運転者の顔の3次元特徴点を認識し、3次元顔モデルを作成する。
The face
顔向き判定部23は、3次元特徴点に基づいて運転者の顔向きを判定する。具体的には、顔向き判定部23は、3次元顔モデルに基づいてパターンマッチング用のテンプレートを作成する。顔向き判定部23は、カメラ6Cから順次出力される画像に対して、運転者の顔向きを推定し、かつ、テンプレートを用いたテンプレートマッチングを実行することによって、顔追跡を行う。顔向き判定部23は、顔向きの推定結果およびテンプレートマッチングにより得られた相関値に基づいて運転者の顔向きを判定する。
The face
脇見判定部24は、顔向きの検出結果を受けて、所定時間において継続して顔向きが所定の範囲内であるときに、運転者が脇見をしていると判定する。
The look-
警告装置40は、脇見判定部24の判定結果に応じて運転者に警告を発する。
The
本実施の形態によれば、単眼測距により、顔の特徴点のみならず、運転者までの距離情報を含む顔の3次元特徴点に基づく画像解析がなされるので、より精度よく顔向きを検出でき、運転者が脇見をしているかをより精度よく判定することができる。 According to the present embodiment, the image analysis based on the three-dimensional feature point of the face including the distance information to the driver as well as the feature point of the face is performed by monocular distance measurement. It can detect and it can determine more accurately whether the driver is looking aside.
運転者監視システム200は、オプションとして、姿勢検知部51およびエアバック展開制御部52をさらに備えていてもよい。
The
姿勢検知部51は、合成画像情報I5aと運転者までの距離とに基づいて運転者の姿勢を検知する。
The
エアバック展開制御部52は、姿勢検知部51の検知結果に基づき、エアバックを展開するか否かを判定する。エアバック展開制御部52は、エアバック41を展開するか否かの判定結果に応じて、エアバック41の展開および展開速度を制御する。
The airbag
次に、図13(b)を参照しながら、本実施の形態の変形例を説明する。 Next, a modification of the present embodiment will be described with reference to FIG.
図13(b)は、光学領域D1、D2、D3およびD4での光学特性をそれぞれ示している。本実施の形態の変形例では、光学領域D1〜D4の光学特性が、上述した実施の形態の図13(a)に示す光学特性とは異なる。 FIG. 13B shows optical characteristics in the optical regions D1, D2, D3, and D4, respectively. In the modification of the present embodiment, the optical characteristics of the optical regions D1 to D4 are different from the optical characteristics shown in FIG. 13A of the above-described embodiment.
図13(b)に示すように、光学領域D1およびD2は、第1の合焦特性を有し、光学領域D3およびD4は、第2の合焦特性を有している。具体的には、光学領域D1およびD2は、焦点距離がf1である光学レンズから形成され、光学領域D3およびD4は、焦点距離がf2である光学レンズから形成されている。焦点距離f1およびf2は互いに異なる値である。さらに、光学領域D1およびD3において、光の透過率は100%であり、光学領域D2およびD4において、光の透過率は6.25%である。すなわち、光学領域D1、D2、D3およびD4の光の透過率の比は、16:1:16:1である。 As shown in FIG. 13B, the optical areas D1 and D2 have a first focusing characteristic, and the optical areas D3 and D4 have a second focusing characteristic. Specifically, the optical regions D1 and D2 are formed from an optical lens having a focal length f1, and the optical regions D3 and D4 are formed from an optical lens having a focal length f2. The focal lengths f1 and f2 are different values. Furthermore, in the optical regions D1 and D3, the light transmittance is 100%, and in the optical regions D2 and D4, the light transmittance is 6.25%. That is, the ratio of the light transmittance of the optical regions D1, D2, D3, and D4 is 16: 1: 16: 1.
画像合成部21は、第1の画像情報I1aと第2の画像情報I2aとを合成してHDRの第1の合成画像情報I5aを生成し、第3の画像信号I3aと第4の画像信号I4aとを合成してHDRの第2の合成画像情報I5bを生成する。画像合成部21は、第1の合成画像情報I5aおよび第2の合成画像情報I5bをさらに合成して第3の合成画像情報I5cを生成する。
The
距離演算部25は、第1の合成画像情報I5aおよび第2の合成画像情報I5bを用いて、第3の合成画像情報I5cから形成される画像中の各画素に対応した運転者までの距離を演算する。
The
本実施の形態の変形例によれば、単眼測距およびHDRの効果を得ることができる。運転者までの距離情報を含む顔の3次元特徴点に基づく画像解析がなされるので、より精度よく顔向きを検出できる。この結果、運転者が脇見をしているかをより精度よく判定することができ、かつ、明るさが変化する環境下においても、高いロバスト性が確保される。 According to the modification of the present embodiment, the effects of monocular ranging and HDR can be obtained. Since the image analysis based on the three-dimensional feature point of the face including the distance information to the driver is performed, the face orientation can be detected with higher accuracy. As a result, it can be determined more accurately whether the driver is looking aside, and high robustness is ensured even in an environment where the brightness changes.
(実施の形態3)
まず、図14を参照しながら、本実施の形態による運転者監視システム300の構成および機能を説明する。
(Embodiment 3)
First, the configuration and functions of the
図14は、本実施の形態による運転者監視システム300のブロック構成図を示す。なお、実施の形態1および2による運転者監視システム100および200の構成要素と同一の構成要素には、同じ参照符号を付している。
FIG. 14 shows a block configuration diagram of a
運転者監視システム300は、カメラユニット10と、信号処理回路20と、コントローラ30と、警告装置40とを備えている。また、運転者監視システム300は、オプションとして、補助照明制御部53を備えていてもよい。
The
カメラユニット10は、補助照明光として、第1の偏光軸の方向に振動する近赤外光を運転者に向けて照射する。カメラ6Dは、運転者の像を検出し、互いに異なる偏光特性を示す光の情報を有する2つの画像信号を生成する。
The
信号処理回路20は、所定の条件に従い2つの画像信号から1つを選択する。信号処理回路20は、選択した画像信号に基づいて運転者の顔の特徴点を認識し、運転者の目の開口度を検出して、運転者が居眠りをしているか否かを判定する。
The
警告装置40は、信号処理回路20が、運転者が居眠りをしていると判定した場合、居眠り運転をしていることを運転者に警告する。
When the
図15〜17を参照して、カメラ6Dの構成の一例を説明する。本発明の実施形態によるカメラ6Dの構成は、以下で例示するものに限られない。
An example of the configuration of the
図15は、光学素子L2を被写体側から見た正面図である。光学領域D1およびD2は、光軸Vに垂直な平面を2つに分割した領域である。原則として、光学領域D1およびD2は、等しい面積を有している。また、破線sは、絞りSの位置を示している。ただし、光学領域D1およびD2は異なる面積を有していてもよい。 FIG. 15 is a front view of the optical element L2 as viewed from the subject side. The optical regions D1 and D2 are regions obtained by dividing a plane perpendicular to the optical axis V into two. In principle, the optical regions D1 and D2 have an equal area. A broken line s indicates the position of the diaphragm S. However, the optical regions D1 and D2 may have different areas.
図16(a)は、光学領域D1およびD2の光学特性を示し、図16(b)は、本実施の形態の変形例による光学領域D1、D2、D3およびD4の光学特性を示している。図16(a)に示すように光学領域は2分割されている。光学領域D1は、第1の偏光軸の方向(例えば、垂直方向)に振動する光のみを透過する第1の偏光特性を有し、光学領域D2は、第1の偏光軸の方向と直交した第2の偏光軸の方向(例えば、水平方向)に振動する光のみを透過する第2の偏光特性を有する。光学領域D1およびD2は、光の偏光方向が互いに直交した偏光フィルタによって形成され得る。 FIG. 16A shows the optical characteristics of the optical areas D1 and D2, and FIG. 16B shows the optical characteristics of the optical areas D1, D2, D3, and D4 according to the modification of the present embodiment. As shown in FIG. 16A, the optical region is divided into two. The optical region D1 has a first polarization characteristic that transmits only light that vibrates in the direction of the first polarization axis (for example, the vertical direction), and the optical region D2 is orthogonal to the direction of the first polarization axis. It has the 2nd polarization characteristic which permeate | transmits only the light which vibrates in the direction (for example, horizontal direction) of a 2nd polarization axis. The optical regions D1 and D2 can be formed by polarization filters whose light polarization directions are orthogonal to each other.
図17は、アレイ状光学素子Kの斜視図である。アレイ状光学素子Kにおける撮像素子N側の面には、光軸Vに垂直な面内で横方向に細長い複数の光学要素M1が縦方向に配置されている。それぞれの光学要素M1の断面(縦方向および横方向それぞれの断面)は、撮像素子N側に突出した円弧状の形状を有している。このように、アレイ状光学素子Kはレンチキュラレンズの構成を有している。 FIG. 17 is a perspective view of the arrayed optical element K. FIG. On the surface on the imaging element N side of the arrayed optical element K, a plurality of optical elements M1 elongated in the horizontal direction within a plane perpendicular to the optical axis V are arranged in the vertical direction. Each optical element M1 has a cross section (a cross section in the vertical direction and a horizontal direction) having an arc shape protruding toward the image sensor N. Thus, the arrayed optical element K has a lenticular lens configuration.
図18(a)は、アレイ状光学素子Kおよび撮像素子Nを拡大して示す図であり、図18(b)は、アレイ状光学素子Kと撮像素子N上の画素との位置関係を示す図である。アレイ状光学素子Kは、光学要素M1が形成された面が撮像面Ni側に向かうように配置されている。撮像面Niには、画素Pが行列状に配置されている。画素Pは画素P1およびP2に区別できる。 FIG. 18A is an enlarged view showing the arrayed optical element K and the image sensor N, and FIG. 18B shows the positional relationship between the arrayed optical element K and the pixels on the image sensor N. FIG. The arrayed optical element K is arranged so that the surface on which the optical element M1 is formed faces the imaging surface Ni side. Pixels P are arranged in a matrix on the imaging surface Ni. Pixel P can be distinguished into pixels P1 and P2.
画素P1は、横方向(行方向)に1行に並んで配置されている。縦方向(列方向)において、画素P1は1つおきに配置されている。また、画素P2は、横方向(行方向)に1行に並んで配置されている。縦方向(列方向)において、画素P2は1つおきに配置されている。また、画素P1の行と画素P2の行は、縦方向(列方向)に交互に配置されている。 The pixels P1 are arranged in a row in the horizontal direction (row direction). Every other pixel P1 is arranged in the vertical direction (column direction). The pixels P2 are arranged in a row in the horizontal direction (row direction). Every other pixel P2 is arranged in the vertical direction (column direction). Further, the rows of the pixels P1 and the rows of the pixels P2 are alternately arranged in the vertical direction (column direction).
アレイ状光学素子Kは、その光学要素M1の1つが、撮像面Ni上における1行の画素P1および1行の画素P2からなる2行の画素に対応するように配置されている。撮像面Ni上には、画素P1およびP2の表面を覆うようにマイクロレンズMsが設けられている。 The arrayed optical element K is arranged so that one of the optical elements M1 corresponds to two rows of pixels including one row of pixels P1 and one row of pixels P2 on the imaging surface Ni. On the imaging surface Ni, a microlens Ms is provided so as to cover the surfaces of the pixels P1 and P2.
アレイ状光学素子Kは、光学素子L2上の光学領域D1(図15)を通過した光束B1(図18において実線で示される光束B1)の大部分が、撮像面Ni上の画素P1に到達し、光学領域D2を通過した光束(図18において破線で示される光束B2)の大部分が、撮像面Ni上の画素P2に到達するように設計されている。具体的には、アレイ状光学素子Kの屈折率、撮像面Niからの距離及び光学要素M1表面の曲率半径等のパラメータを適切に設定することで、上記構成が実現する。 In the arrayed optical element K, most of the light beam B1 (light beam B1 indicated by a solid line in FIG. 18) that has passed through the optical region D1 (FIG. 15) on the optical element L2 reaches the pixel P1 on the imaging surface Ni. The most part of the light beam that has passed through the optical region D2 (light beam B2 indicated by a broken line in FIG. 18) is designed to reach the pixel P2 on the imaging surface Ni. Specifically, the above configuration is realized by appropriately setting parameters such as the refractive index of the arrayed optical element K, the distance from the imaging surface Ni, and the radius of curvature of the surface of the optical element M1.
図18(b)において、画素群P1は、第1の撮像領域C1を形成し、画素群P2は、第2の撮像領域C2を形成する。 In FIG. 18B, the pixel group P1 forms a first imaging region C1, and the pixel group P2 forms a second imaging region C2.
カメラユニット10は、第1の偏光特性を示す光の情報を有する第1の画像信号I1と、第2の偏光特性を示す光の情報を有する第2の画像信号I2とを出力する。
The
再び、図14を参照しながら、信号処理回路20の詳細を説明する。
Again, the details of the
信号処理回路20は、画像生成部29と、画像選択部26と、顔認識部22と、目開度検出部27と、居眠り判定部28とを有する。
The
画像生成部29は、第1の画像信号I1から第1の画像情報I1aを生成し、第2の画像信号I2から第2の画像情報I2aを生成する。
The
画像選択部26は、第1の画像情報I1aから生成される第1の画像中の目付近の領域に対応した画素の飽和度合と、第2の画像情報I2aから形成される第2の画像中の目付近の領域に対応した画素の飽和度合とを比較することによって、第1の画像情報I1aおよび第2の画像情報I2aのいずれか1つを選択する。画像選択部26は、目付近の領域に対応した画素の飽和度合が小さい画像であることを示す画像情報を選択する。
The
顔認識部22は、選択された画像情報に基づいて運転者の顔の特徴点を認識する。具体的には、顔認識部22は、選択された画像情報を解析して目(瞼)の特徴点を認識する。
The
目開度検出部27は、認識された特徴点に基づいて運転者の目の開口度を検出する。
The eye
居眠り判定部28は、所定時間において継続して目の開口度が所定量以下であるか否かに応じて、運転者が居眠りをしているか否かを判定する。例えば、居眠り判定部28は、2秒間継続して目の開口度が50%以下であるときに、運転者が居眠りをしていると判定する。
The dozing
警告装置40は、脇見判定部24の判定結果に応じて運転者に警告を発する。
The
従来は、運転者が眼鏡を装着しているときに、補助照明光が眼鏡で反射して、画像中の目付近の領域において、画素の飽和が発生するので、目の開口度を検出することは困難であった。 Conventionally, when the driver wears spectacles, auxiliary illumination light is reflected by the spectacles, and pixel saturation occurs in the area near the eyes in the image. Was difficult.
補助照明7は、第1の偏光軸の方向(垂直方向)に振動する近赤外光であるため、眼鏡のような鏡面での反射光も第1の偏光軸の方向に振動している。本願明細書では、垂直方向に振動する光の偏光を垂直偏光と称する。一方で、肌などでの反射は拡散反射となるので、肌での反射光は全ての方向に振動した光(非偏光)となる。このため、補助照明7による眼鏡での反射光によって、第1の画像では、目付近の領域において、画像の飽和が発生することがある。補助照明光は、垂直偏光であり、光学領域D2を透過しないので、第2の画像では、目付近の領域において画像の飽和は発生しない。このため、画像選択部26は、目付近の領域において画像の飽和が発生していない第2の画像情報I2aを選択する。
Since the
本実施の形態によれば、運転者が眼鏡を装着していても、眼鏡での反射光の影響を受けることなく、目の開口度を正確に検出でき、居眠り運転であるか否かを正確に判定できる。 According to the present embodiment, even when the driver wears spectacles, the opening degree of the eyes can be accurately detected without being affected by the reflected light from the spectacles, and whether or not the driver is dozing is accurately determined. Can be determined.
外光に対するロバスト性を向上させるために、運転者監視システム300は、補助照明制御部53をさらに備えていてもよい。
In order to improve robustness against external light, the
補助照明制御部53は、補助照明7を点灯させた後、画素の飽和度合に応じて補助照明を消灯させる。具体的には、補助照明制御部53は、補助照明7が点灯しているとき、第1の画像中の目付近の領域および第2の画像中の目付近の領域のいずれにおいても、画素の飽和が確認される場合に、補助照明7を消灯させる。また、補助照明制御部53は、補助照明7が消灯しているとき、第2の画像中の目付近の領域において、画素の飽和が確認されない場合、補助照明7を点灯させる。
The auxiliary
補助照明光以外にも外光による眼鏡での反射光に起因して、目付近の領域において画素の飽和が発生することがある。このようなときは、垂直偏光した補助照明光の反射によって、第1の画像中の目付近の領域において画素の飽和が発生し、水平偏光した外光により、第2の画像中の目付近の領域において画素の飽和が発生している状態である。すなわち、第1の画像中の目付近の領域および第2の画像中の目付近の領域のいずれにおいても、画素の飽和が確認される場合である。 In addition to the auxiliary illumination light, pixel saturation may occur in a region near the eyes due to reflected light from spectacles due to external light. In such a case, the pixel saturation occurs in the region near the eye in the first image due to the reflection of the auxiliary illumination light that is vertically polarized, and the vicinity of the eye in the second image due to the horizontally polarized external light. This is a state in which pixel saturation occurs in the region. That is, pixel saturation is confirmed in both the region near the eyes in the first image and the region near the eyes in the second image.
そこで、補助照明7を消灯することによって、第1の画像中の目付近の領域での画素の飽和を低減することができる。画像選択部26は、目付近の領域において画像の飽和が発生していない第1の画像情報I1aを選択すればよい。
Therefore, by turning off the
これにより、運転者が眼鏡を装着しており、外光が強い場合であっても、眼鏡での反射光の影響を受けることなく、目の開口度を正確に検出でき、居眠り運転であるか否かを正確に判定できる。 As a result, even if the driver is wearing spectacles and the outside light is strong, it is possible to accurately detect the opening degree of the eyes without being affected by the reflected light from the spectacles. Whether or not can be determined accurately.
なお、夜間においては補助照明が必要であるので、画素の飽和が発生しているとき以外は補助照明7を点灯しておくことが好ましい。外光による眼鏡での反射光の影響が減少し、第2の画像中の目付近の領域での画素の飽和がなくなれば、補助照明7を点灯させればよい。
In addition, since auxiliary lighting is necessary at night, it is preferable to turn on the
次に、図16(b)を参照しながら、本実施の形態の変形例を説明する。 Next, a modification of the present embodiment will be described with reference to FIG.
図16(b)に示す光学領域は、4分割されている。光学領域D1およびD2は、第1の偏光軸の方向(例えば、垂直方向)に振動する光のみを透過する第1の偏光特性を有する。光学領域D3およびD4は、第1の偏光軸の方向に直交した第2の偏光軸の方向(例えば、水平方向)に振動する光のみを透過する第2の偏光特性を有する。また、光学領域D1およびD3での光の透過率は、100%であり、光学領域D2およびD4での光の透過率は、6.25%である。すなわち、光学領域D1、D2、D3およびD4の透過率の比は、16:1:16:1である。例えば、光学領域は、NDフィルタと偏光フィルタとを積層することにより形成され得る。なお、本実施の形態の変形例では光学領域が4分割されているので、アレイ状光学素子Kとして図7に示すようなマイクロレンズアレイを用いる。 The optical region shown in FIG. 16B is divided into four. The optical regions D1 and D2 have a first polarization characteristic that transmits only light that vibrates in the direction of the first polarization axis (for example, the vertical direction). The optical regions D3 and D4 have a second polarization characteristic that transmits only light that vibrates in the direction of the second polarization axis (eg, the horizontal direction) orthogonal to the direction of the first polarization axis. The light transmittance in the optical regions D1 and D3 is 100%, and the light transmittance in the optical regions D2 and D4 is 6.25%. That is, the transmittance ratio of the optical regions D1, D2, D3, and D4 is 16: 1: 16: 1. For example, the optical region can be formed by stacking an ND filter and a polarizing filter. In the modification of the present embodiment, since the optical region is divided into four, a microlens array as shown in FIG.
この変形例による信号処理回路20は、画像生成部29の代わりに画像合成部21を有している。他の構成要素は、本実施の形態の信号処理回路20の構成要素と共通している。
The
画像合成部21は、第1の画像信号I1から第1の画像情報I1aを生成し、第2の画像信号I2から第2の画像情報I2aを生成し、第3の画像信号I3から第3の画像情報I3aを生成し、第4の画像信号I4から第1の画像情報I4aを生成する。
The
画像合成部21は、第1の画像情報I1aおよび第2の画像情報I2aを合成して第1の画像合成情報I5aを生成し、第3の画像情報I3aおよび第4の画像情報I4aを合成して第2の画像合成情報I5bを生成する。
The
画像選択部26は、第1の画像合成情報I5aから生成される第1の画像中の目付近の領域に対応した画素の飽和度合と、第2の画像合成情報I5bから形成される第2の画像中の目付近の領域に対応した画素の飽和度合とを比較することによって、第1の画像合成情報I5aおよび第2の画像合成情報I5bのいずれか1つを選択する。
The
本実施の形態の変形例によれば、実施の形態1と同様に、HDRの画像を用いた画像解析が行えるので、外光に対するロバスト性をさらに向上させることができる。 According to the modification of the present embodiment, as in the first embodiment, image analysis using an HDR image can be performed, and thus robustness against external light can be further improved.
次に、図19を参照しながら、本実施の形態の他の変形例を説明する。 Next, another modification of the present embodiment will be described with reference to FIG.
図19は、2台のカメラ6E、6Fを搭載した運転者監視システム300Aのブロック構成を示す。カメラユニット10には2台のカメラ6E、6Fが配置されており、カメラユニット10は、複眼カメラとして機能する。
FIG. 19 shows a block configuration of a
運転者監視システム300Aは、カメラユニット10と、信号処理回路20と、コントローラ30と、警告装置40とを備えている。また、運転者監視システム300Aは、オプションとして、姿勢検知部51と、エアバック展開制御部52とを備えていてもよい。
The
カメラユニット10は、2台のカメラ6E、6Fと、補助照明7とを含む。カメラ6E、6Fは、図16(a)または(b)に示す光学特性を有する光学領域を含んでいる。以降の説明では、カメラ6E、6Fは、図16(a)に示す光学特性を有する光学領域D1およびD2を含んでいるものとする。カメラ6E、6Fの構造は、本実施の形態のカメラ6Dの構造と同じである。
The
カメラユニット10は、カメラ6Eにおいて生成された第1の画像信号I1Aおよび第2の画像信号I2Aと、カメラ6Fにおいて生成された第1の画像信号I1Bおよび第2の画像信号I2Bとを出力する。
The
第1の画像生成部29Aは、第1の画像信号I1Aから第1の画像情報I1aを生成し、第2の画像信号I2Aから第2の画像情報I2aを生成する。第2の画像生成部29Bは、第1の画像信号I1Bから第1の画像情報I1bを生成し、第2の画像信号I2Bから第2の画像情報I2bを生成する。
The first
第1の画像選択部26Aは、第1の画像情報I1aから生成される第1の画像中の目付近の領域に対応した画素の飽和度合と、第2の画像情報I2aから生成される第2の画像中の目付近の領域に対応した画素の飽和度合とを比較することによって、第1の画像情報I1aおよび第2の画像情報I2aのいずれか1つを選択する。第1の画像選択部26Aは、目付近の領域に対応した画素の飽和度合が小さい画像であることを示す画像情報を選択する。
The first
第2の画像選択部26Bは、第1の画像情報I1bから生成される第1の画像中の目付近の領域に対応した画素の飽和度合と、第2の画像情報I2bから生成される第2の画像中の目付近の領域に対応した画素の飽和度合とを比較することによって、第1の画像情報I1bおよび第2の画像情報I2bのいずれか1つを選択する。第1の画像選択部26Aは、目付近の領域に対応した画素の飽和度合が小さい画像であることを示す画像情報を選択する。
The second
距離演算部25は、第1の画像選択部26Aが選択した画像情報と第2の画像選択部26Bが選択した画像情報とに基づいて視差量を求め、上述した式1に従って運転者までの距離D5を演算する。
The
顔認識部22は、第1の画像選択部26Aが選択した画像情報に基づいて運転者の顔の特徴点を認識する。
The
目開度検出部27は、認識された特徴点に基づいて運転者の目の開口度を検出する。
The eye
居眠り判定部28は、所定時間において継続して目の開口度が所定量以下であるか否かに応じて、運転者が居眠りをしているか否かを判定する。例えば、居眠り判定部28は、所定時間において継続して目の開口度が50%以下であるときに、運転者が居眠りをしていると判定する。
The dozing
顔モデル生成部(3次元顔認識部)22Aは、第1の画像選択部26Aが選択した画像情報と運転者までの距離情報D5に基づいて運転者の顔の3次元特徴点を認識し、3次元顔モデルを作成する。
The face model generation unit (3D face recognition unit) 22A recognizes the 3D feature points of the driver's face based on the image information selected by the first
顔向き判定部23は、3次元顔モデルに基づいてパターンマッチング用のテンプレートを作成する。顔向き判定部23は、カメラ6Eから順次出力される画像に対して、運転者の顔向きを推定し、かつ、テンプレートを用いたテンプレートマッチングを実行することによって、顔追跡を行う。顔向き判定部23は、顔向きの推定結果およびテンプレートマッチングにより得られた相関値に基づいて運転者の顔向きを判定する。
The face
脇見判定部24は、顔向きの判定結果を受けて、所定の時間において継続して顔向きが所定の範囲内であるときに、運転者が脇見をしていると判定する。例えば、所定の範囲とは、目線の仰角および俯角がそれぞれ10度以上である範囲である。
The look-
警告装置40は、脇見判定部24の判定結果に応じて運転者に警告を発する。
The
本実施の形態の他の変形例によれば、偏光特性を利用して外光に対するロバスト性を向上させることができる。また、脇見運転の判定および居眠り運転の判定を同時に行うことができる。さらに、ステレオ撮影の効果により、顔の特徴点のみならず、運転者までの距離情報を含めて顔の3次元特徴点に基づく画像解析がなされるので、より精度よく顔向きを検出でき、運転者が脇見や居眠りをしているかをより精度よく判定することができる。 According to another modification of the present embodiment, robustness against external light can be improved using polarization characteristics. Further, the determination of the aside driving and the determination of the dozing operation can be performed at the same time. Furthermore, because of the effects of stereo shooting, image analysis based on 3D feature points of the face including not only the feature points of the face but also the distance information to the driver is performed, so that the face orientation can be detected more accurately and driving It is possible to more accurately determine whether the person is looking aside or snoozing.
運転者監視システム300Aは、オプションとして、補助照明制御部53と、姿勢検知部51と、エアバック判定展開部52をさらに備えていてもよい。この場合、2台のカメラを用いて、脇見運転の判定、居眠り運転の判定およびエアバック展開の判定を画像処理によって同時に行うことができ、運転監視システムの低コスト化を実現できる。
The
(実施の形態4)
まず、図20を参照しながら、本実施の形態による運転者監視システム400の構成および機能を説明する。
(Embodiment 4)
First, the configuration and function of the
図20は、本実施の形態による運転者監視システム400のブロック構成図を示す。なお、実施の形態1および2による運転者監視システム100および200の構成要素と同一の構成要素には、同じ参照符号を付している。
FIG. 20 is a block diagram of a
運転者監視システム400は、カメラユニット10と、信号処理回路20と、コントローラ30と、警告装置40とを備えている。
The
カメラユニット10は、近赤外光を運転者に向けて補助照明光として照射する。カメラ6Gは、運転者の像を検出し、近赤外光の情報を示す画像信号(以降、「IR画像信号」と称する。)およびカラー画像信号を生成する。
The
信号処理回路20は、IR画像信号に基づいて運転者の顔向きを検出し、運転者が脇見をしているか否かの判定を行う。また、信号処理回路20は、カラー画像情報に基づいて運転者の顔色の変化から心拍数を推定し、運転者の体調を判定する。
The
警告装置40は、信号処理回路20が、運転者が居眠りをしていると判定した場合や、運転者の体調が悪いと判定した場合に、運転者に警告する。
The
図21は、光学領域D1、D2、D3およびD4の光学特性を示す。光学領域は4つに分割されており、光学領域D1は、近赤外光だけを透過させる第1の分光特性を有し、光学領域D2は、可視光帯域における赤色の光だけを透過させる第2の分光特性を有し、光学領域D3は、可視光帯域における緑色の光だけを透過させる第3の分光特性を有し、光学領域D4は、可視光帯域における青色の光だけを透過させる第4の分光特性を有する。 FIG. 21 shows the optical characteristics of the optical regions D1, D2, D3 and D4. The optical region is divided into four, the optical region D1 has a first spectral characteristic that transmits only near-infrared light, and the optical region D2 transmits only red light in the visible light band. The optical region D3 has a third spectral characteristic that transmits only green light in the visible light band, and the optical region D4 has a third spectral characteristic that transmits only blue light in the visible light band. 4 spectral characteristics.
カメラユニット10は、近赤外光の情報を有する第1の画像信号I1と、赤色(R)の光の情報を有する第2の画像信号I2と、緑色(G)の光の情報を有する第3の画像信号I3と、青色(B)の光の情報を有する第4の画像信号I4とを出力する。
The
再び、図20を参照しながら、信号処理回路20の詳細を説明する。
Again, the details of the
信号処理回路20は、画像生成部29と、第1および第2の顔認識部22B、22Cと、顔向き判定部23と、心拍数推定部31と、脇見判定部24と、体調判定部32とを有する。
The
画像生成部29は、第1の画像信号I1(IR画像信号)から近赤外光の情報を示すIR画像情報を生成し、第2、第3および第4の画像信号I2、I3およびI4からカラー画像情報を生成する。カラー画像情報は、輝度や色差の情報に限らず、RGBの各成分の輝度値(画素値)を含んでいてもよい。
The
顔認識部22は、第1の顔認識部22Bおよび第2の顔認識部22Cを含んでいる。
The
第1の顔認識部22Bは、IR画像情報に基づいて運転者の顔の特徴点を認識する。
The first
第2の顔認識部22Cは、カラー画像情報に基づいて運転者の顔の特徴点を認識する。例えば、カラー画像情報が、RGBの各成分の輝度値を示している場合、第2の顔認識部22Cは、各成分の輝度値に基づいて運転者の顔の特徴点を認識することができる。または、第2の顔認識部22Cは、G成分の輝度値に基づいて運転者の顔の特徴点を認識してもよい。
The second
顔向き判定部23は、第1の顔認識部22Bによって認識された顔の特徴点を用いて運転者の顔向きを判定する。
The face
脇見判定部24は、顔向きの判定結果を受けて、所定の時間において継続して顔向きが所定の範囲内であるときに、運転者が脇見をしていると判定する。例えば、所定の範囲とは、目線の仰角および俯角がそれぞれ10度以上である範囲である。
The look-
心拍数推定部31は、第2の顔認識部22Cによって認識された顔の特徴点に着目して運転者の顔色の変化を検出し、心拍数を推定する。顔色の変化から心拍数を推定する方法として、例えば以下のような手法が知られている。
The heart
心拍による血圧の微小な変化が起こると、顔での反射光の量が変化する。血圧の微小な増加によって、顔での反射光の光量は微減し、血圧の微小な減少によって、顔での反射光の光量は微増する。顔に多くの血流が流れれば、顔の皮膚は光をより吸収するので、心臓の鼓動に応じて光の反射率が変化する。RGB成分を独立に分析することにより、心拍による色の変動分だけを分離して、その変動量を心拍の変化とみなすことができる。例えば、撮影した動画の各フレームのRGB成分ごとに輝度の波形を生成して、3つの波形に共通するノイズを除去した後に、G成分の波形のピーク値から脈拍数を推定することができる。 When a minute change in blood pressure due to a heartbeat occurs, the amount of reflected light on the face changes. A slight increase in blood pressure slightly reduces the amount of reflected light on the face, and a slight decrease in blood pressure slightly increases the amount of reflected light on the face. If a lot of blood flows through the face, the skin of the face absorbs light more, so the reflectance of light changes according to the heartbeat. By independently analyzing the RGB components, it is possible to separate only the color fluctuation due to the heartbeat and regard the fluctuation amount as the heartbeat change. For example, it is possible to estimate the pulse rate from the peak value of the G component waveform after generating a luminance waveform for each RGB component of each frame of the captured moving image and removing noise common to the three waveforms.
体調判定部32は、所定時間において継続して推定心拍数が所定値以上、または所定値以下であるとき、運転者は体調不良であると判定する。なお、所定時間および所定値は、医学の観点から決定することができる。
The physical
警告装置40は、脇見判定部24および体調判定部32の判定結果に応じて運転者に警告を発する。
The
従来は、顔向き判定用の赤外線カメラと、心拍数を推定するためのカラーカメラとの2台が必要であったので、カメラユニット10のサイズを縮小することが困難であった。
Conventionally, two cameras, an infrared camera for face orientation determination and a color camera for estimating the heart rate, are required, and it is difficult to reduce the size of the
本実施の形態によれば、1台のカメラにより、IR画像およびカラー画像を同時に取得できるので、顔向きの判定および体調の判定を同時に行うことができる。また、カメラユニット10のサイズを縮小できる。
According to the present embodiment, since the IR image and the color image can be simultaneously acquired by one camera, the determination of the face direction and the determination of the physical condition can be performed simultaneously. In addition, the size of the
次に、図22を参照しながら、本実施の形態の変形例を説明する。 Next, a modification of the present embodiment will be described with reference to FIG.
図22は、2台のカメラ6H、6Iを搭載した運転者監視システム400Aのブロック構成を示す。カメラユニット10には2台のカメラ6H、6Iが配置されており、カメラユニット10は、複眼カメラとして機能する。
FIG. 22 shows a block configuration of a
運転者監視システム400Aは、カメラユニット10と、信号処理回路20と、コントローラ30と、警告装置40とを備えている。また、運転者監視システム400Aは、オプションとして、姿勢検知部51と、エアバック展開制御部52とを備えていてもよい。
The
カメラユニット10は、2台のカメラ6H、6Iと、補助照明7とを含む。カメラ6H、6Iは、カメラ6Gと同様に、図21に示す光学特性を有する光学領域を含んでいる。カメラ6H、6Iの構造は、本実施の形態のカメラ6Gの構造と同じである。
The
カメラユニット10は、カメラ6H、6Iから取得された画像信号として、近赤外光の情報を有する第1の画像信号I1A、I1Bと、赤色(R)の光の情報を有する第2の画像信号I2A、I2Bと、緑色(G)の光の情報を有する第3の画像信号I3A、I3Bと、青色(B)の光の情報を有する第4の画像信号I4A、I4Bとを出力する。
The
信号処理回路20は、第1および第2の画像生成部29Aおよび29Bと、距離演算部25と、顔認識部22と、顔モデル生成部22Aと、心拍数推定部31と、体調判定部32と、顔向き判定部23と、脇見判定部24とを有している。
The
第1の画像生成部29Aは、カメラ6Hから取得された、第1の画像信号I1Aから近赤外光の情報を示すIR画像情報Aを生成し、第2、第3および第4の画像信号I2A、I3AおよびI4Aからカラー画像情報Aを生成する。
The first
第2の画像生成部29Bは、カメラ6Iから取得された、第1の画像信号I1Bから近赤外光の情報を示すIR画像情報Bを生成し、第2、第3および第4の画像信号I2B、I3およびI4Bからカラー画像情報Bを生成する。なお、カラー画像情報A、Bは、RGBの各成分の輝度値を含んでいてもよい。
The second
距離演算部25は、IR画像情報AとIR画像情報Bとに基づいて視差量を求め、上記の式1に従って運転者までの距離D5を演算する。
The
顔認識部22は、カラー画像情報Aに基づいて運転者の顔の2次元特徴点を認識する。例えば、カラー画像情報が、RGBの各成分の輝度値を示している場合、顔認識部22は、各成分の輝度値に基づいて運転者の顔の特徴点を認識してもよい。
The
顔モデル生成部22Aは、IR画像情報Aと運転者までの距離情報D5に基づいて運転者の顔の3次元特徴点を認識し、3次元顔モデルを作成する。
The face
顔向き判定部23は、3次元顔モデルを用いて運転者の顔向きを判定する。
The face
脇見判定部24は、顔向きの検出結果を受けて、所定の時間において継続して顔向きが所定の範囲内であるときに、運転者が脇見をしていると判定する。例えば、所定の範囲とは、目線の仰角および俯角がそれぞれ10度以上である範囲である。
The look-
心拍数推定部31は、顔認識部22によって認識された顔の2次元特徴点に着目して運転者の顔色の変化を検出し、心拍数を推定する。
The heart
体調判定部32は、所定時間において継続して推定心拍数が所定値以上、または所定値以下であるとき、運転者は体調不良であると判定する。
The physical
警告装置40は、脇見判定部24および体調判定部32の判定結果に応じて運転者に警告を発する。
The
本実施の形態によれば、ステレオ撮影の効果を得ることができ、かつ、顔向きの判定および体調の判定を同時に画像処理で行うことができる。また、カメラユニット10のサイズを縮小できる。
According to the present embodiment, the effect of stereo shooting can be obtained, and the determination of the face orientation and the determination of the physical condition can be simultaneously performed by image processing. In addition, the size of the
運転者監視システム400Aは、オプションとして、姿勢検知部51、エアバック判定展開部52を備えていてもよい。この場合、2台のカメラを用いて、脇見運転の判定、体調の判定およびエアバック展開の判定を画像処理によって同時に行うことができ、運転監視システムの低コスト化を実現できる。
The
実施の形態1から4において説明したとおり、異なる光学特性を有する少なくとも2つの光学領域を通過したそれぞれの光の像が1つの撮像装置において同時に取得される。信号処理回路20は、同時に取得された光の像の複数の画像信号を合成することによって、または複数の画像信号からいずれか1つを選択することによって、合成または選択された画像信号に基づいて運転者の顔の特徴点を認識する。
As described in the first to fourth embodiments, each image of light that has passed through at least two optical regions having different optical characteristics is simultaneously acquired by one imaging apparatus. The
実施の形態1による運転者監視システムと同様に、信号処理回路20内の各処理部の機能ごとに分割した処理単位によって、実施の形態2から4による運転者監視システムの動作フローを規定することができる。
Similarly to the driver monitoring system according to the first embodiment, the operation flow of the driver monitoring system according to the second to fourth embodiments is defined by the processing unit divided for each function of each processing unit in the
本発明の技術はさらに、上述の脇見・居眠り運転をしているか否かを判定する処理を規定するソフトウェア(プログラム)にも適用され得る。そのようなプログラムに規定される動作は、例えば図23に示すとおりである。このようなプログラムは、可搬型の記録媒体に記録されて提供され得る他、電気通信回線を通じても提供され得る。コンピュータに内蔵されたプロセッサがこのようなプログラムを実行することにより、上記の実施の形態で説明した各種動作を実現することができる。 The technique of the present invention can also be applied to software (program) that defines the above-described process for determining whether or not the driver is looking aside. The operation defined in such a program is, for example, as shown in FIG. Such a program can be provided by being recorded on a portable recording medium or can be provided through a telecommunication line. Various operations described in the above embodiment can be realized by a processor built in the computer executing such a program.
本願に開示された運転者監視システムは、自動車、電車、および飛行機などの乗物に搭載されるシステムに利用できる。 The driver monitoring system disclosed in the present application can be used for a system mounted on a vehicle such as an automobile, a train, and an airplane.
2 :運転者
3 :ステアリングホイール
4 :自動車
5 :ステアリングコラム
6、6A、6B、6C、6D、6E、6F、6G、6H、6I :カメラ
7 :補助照明
10 :カメラユニット
20 :信号処理回路
21 :画像合成部
21A :第1の画像合成部
21B :第2の画像合成部
22 :顔認識部
22A :顔モデル生成部
22B :第1の顔認識部
22C :第2の顔認識部
23 :顔向き判定部
24 :脇見判定部
25 :距離演算部
26 :画像選択部
26A :第1の画像選択部
26B :第2の画像選択部
27 :目開度検出部
28 :判定部
29 :画像生成部
29A :第1の画像生成部
29B :第2の画像生成部
30 :コントローラ
31 :心拍数推定部
32 :体調判定部
40 :警告装置
41 :エアバック
51 :姿勢検知部
52 :エアバック判定展開部
52 :エアバック展開制御部
53 :補助照明制御部
61、62 :目尻
63、64 :口元
65、66 :眉
100、100A、200、300、300A、400、400A :運転者監視システム
K :アレイ状光学素子
L :レンズ光学系
L1 :レンズ
L2 :光学素子
M1、M2 :光学要素
M2I :単位領域
Ms :マイクロレンズ
N :撮像素子
Ni :撮像面
P :画素
S :絞り
V :光軸
2: Driver 3: Steering wheel 4: Automobile 5: Steering column 6, 6A, 6B, 6C, 6D, 6E, 6F, 6G, 6H, 6I: Camera 7: Auxiliary lighting 10: Camera unit 20: Signal processing circuit 21 : Image composition unit 21A: First image composition unit 21B: Second image composition unit 22: Face recognition unit 22A: Face model generation unit 22B: First face recognition unit 22C: Second face recognition unit 23: Face Direction determination unit 24: Aside look determination unit 25: Distance calculation unit 26: Image selection unit 26A: First image selection unit 26B: Second image selection unit 27: Eye opening detection unit 28: Determination unit 29: Image generation unit 29A: 1st image generation part 29B: 2nd image generation part 30: Controller 31: Heart rate estimation part 32: Physical condition determination part 40: Warning device 41: Air bag 51: Posture Knowledge unit 52: Airbag determination deployment unit 52: Airbag deployment control unit 53: Auxiliary illumination control unit 61, 62: Eye corner 63, 64: Mouth 65, 66: Eyebrow 100, 100A, 200, 300, 300A, 400, 400A : Driver monitoring system K: Array optical element L: Lens optical system L1: Lens L2: Optical element M1 and M2: Optical element M2I: Unit area Ms: Micro lens N: Imaging element Ni: Imaging surface P: Pixel S: Aperture V: Optical axis
Claims (16)
前記複数の画像信号の少なくとも1つの画像信号に基づいて運転者の顔の特徴点を認識する顔認識部と、
前記顔の特徴点に基づいて前記運転者が脇見または居眠りをしているか否かを判定する脇見・居眠り判定部と
を含む信号処理回路と
を備えた、運転者監視システム。 A lens, a lens optical system including at least two optical regions having different optical characteristics, an image pickup device having at least two image pickup regions on which light transmitted through the lens optical system is incident, the lens optical system, and the image pickup device And an array-like optical element that causes light that has passed through each optical region of the at least two optical regions to enter each imaging region of the at least two imaging regions corresponding to each optical region. An imaging device that has information on light that has passed through each of the optical regions, and that outputs a plurality of image signals acquired from the imaging regions;
A face recognition unit for recognizing a feature point of a driver's face based on at least one image signal of the plurality of image signals;
A driver monitoring system comprising: a signal processing circuit including: an armpit / dozing determination unit that determines whether the driver is looking aside or falling asleep based on the feature points of the face.
前記信号処理回路は、
前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、
前記運転者の顔向きを判定する顔向き判定部と
をさらに含み、
前記少なくとも2つの光学領域は、第1の透過率特性を有する第1の光学領域、前記第1の透過率特性とは異なる第2の透過率特性を有する第2の光学領域、前記第1および第2の透過率特性とは異なる第3の透過率特性を有する第3の光学領域、ならびに前記第1、第2および第3の透過率特性とは異なる第4の透過率特性を有する第4の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、
前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号、前記第2の撮像領域から取得された第2の画像信号、前記第3の撮像領域から取得された第3の画像信号、および前記第4の撮像領域から取得された第4の画像信号を合成して前記合成画像信号を生成し、
前記顔認識部は、前記合成画像信号に基づいて前記運転者の顔の特徴点を認識し、
前記顔向き判定部は、前記顔の特徴点に基づいて前記運転者の顔向きを判定し、
前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する、請求項1に記載の運転者監視システム。 Auxiliary illumination that emits near-infrared light is further provided,
The signal processing circuit includes:
An image synthesis unit that synthesizes the plurality of image signals to generate a synthesized image signal;
A face orientation determining unit that determines the driver's face orientation;
The at least two optical regions include a first optical region having a first transmittance characteristic, a second optical region having a second transmittance characteristic different from the first transmittance characteristic, the first and A third optical region having a third transmittance characteristic different from the second transmittance characteristic and a fourth optical region having a fourth transmittance characteristic different from the first, second and third transmittance characteristics. Including the optical region of
The at least two imaging regions include a first imaging region corresponding to the first optical region, a second imaging region corresponding to the second optical region, and a third corresponding to the third optical region. An imaging region, and a fourth imaging region corresponding to the fourth optical region,
The image synthesis unit includes a first image signal acquired from the first imaging area, a second image signal acquired from the second imaging area, and a third image acquired from the third imaging area. And the fourth image signal acquired from the fourth imaging region to generate the composite image signal,
The face recognition unit recognizes feature points of the driver's face based on the composite image signal,
The face orientation determination unit determines the driver's face orientation based on the facial feature points,
2. The driver monitoring system according to claim 1, wherein the side-by-side / slumber determining unit determines whether or not the driver is looking aside according to a determination result of the driver's face orientation.
前記信号処理回路は、
前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、
前記運転者までの距離を演算する距離演算部と、
前記運転者の顔向きを判定する顔向き判定部と
をさらに含み、
前記少なくとも2つの光学領域は、第1の透過率特性を有する第1および第3の光学領域と、前記第1の透過率特性とは異なる第2の透過率特性を有する第2および第4の光学領域とを含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、
前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号および前記第2の撮像領域から取得された第2の画像信号を合成して第1の合成画像信号を生成し、前記第3の撮像領域から取得された第3の画像信号および前記第4の撮像領域から取得された第4の画像信号を合成して第2の合成画像信号を生成し、
前記距離演算部は、前記第1および第2の合成画像信号に基づいて前記運転者までの距離を演算し、
前記顔認識部は、前記第1の合成画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識し、
前記顔向き判定部は、前記3次元特徴点に基づいて前記運転者の顔向きを判定し、
前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する、請求項1に記載の運転者監視システム。 Auxiliary illumination that emits near-infrared light is further provided,
The signal processing circuit includes:
An image synthesis unit that synthesizes the plurality of image signals to generate a synthesized image signal;
A distance calculator for calculating the distance to the driver;
A face orientation determining unit that determines the driver's face orientation;
The at least two optical regions include first and third optical regions having a first transmittance characteristic, and second and fourth optical regions having a second transmittance characteristic different from the first transmittance characteristic. An optical region,
The at least two imaging regions include a first imaging region corresponding to the first optical region, a second imaging region corresponding to the second optical region, and a third corresponding to the third optical region. An imaging region, and a fourth imaging region corresponding to the fourth optical region,
The image synthesizing unit synthesizes the first image signal acquired from the first imaging area and the second image signal acquired from the second imaging area to generate a first synthesized image signal. A second image signal is generated by synthesizing the third image signal acquired from the third imaging region and the fourth image signal acquired from the fourth imaging region;
The distance calculation unit calculates a distance to the driver based on the first and second composite image signals,
The face recognition unit recognizes a three-dimensional feature point of the driver's face based on the first composite image signal and the distance to the driver;
The face orientation determination unit determines the driver's face orientation based on the three-dimensional feature points,
2. The driver monitoring system according to claim 1, wherein the side-by-side / slumber determining unit determines whether or not the driver is looking aside according to a determination result of the driver's face orientation.
前記信号処理回路は、
前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、
前記運転者までの距離を演算する距離演算部と、
前記運転者の顔向きを判定する顔向き判定部と
をさらに含み、
前記少なくとも2つの光学領域は、第1の合焦特性を有する第1の光学領域、前記第1の合焦特性とは異なる第2の合焦特性を有する第2の光学領域、前記第1および第2の合焦特性とは異なる第3の合焦特性を有する第3の光学領域、ならびに前記第1、第2および第3の合焦特性とは異なる第4の合焦特性を有する第4の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、
前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号、前記第2の撮像領域から取得された第2の画像信号、前記第3の撮像領域から取得された第3の画像信号、および前記第4の撮像領域から取得された第4の画像信号を合成して前記合成画像信号を生成し、
前記距離演算部は、前記第1、第2、第3および第4の画像信号に基づいて、前記運転者までの距離を演算し、
前記顔認識部は、前記合成画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識し、
前記顔向き判定部は、前記3次元特徴点に基づいて前記運転者の顔向きを判定し、
前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する、請求項1に記載の運転者監視システム。 Auxiliary illumination that emits near-infrared light is further provided,
The signal processing circuit includes:
An image synthesis unit that synthesizes the plurality of image signals to generate a synthesized image signal;
A distance calculator for calculating the distance to the driver;
A face orientation determining unit that determines the driver's face orientation;
The at least two optical regions include a first optical region having a first focusing property, a second optical region having a second focusing property different from the first focusing property, the first and A third optical region having a third focusing characteristic different from the second focusing characteristic, and a fourth optical characteristic having a fourth focusing characteristic different from the first, second and third focusing characteristics. Including the optical region of
The at least two imaging regions include a first imaging region corresponding to the first optical region, a second imaging region corresponding to the second optical region, and a third corresponding to the third optical region. An imaging region, and a fourth imaging region corresponding to the fourth optical region,
The image synthesis unit includes a first image signal acquired from the first imaging area, a second image signal acquired from the second imaging area, and a third image acquired from the third imaging area. And the fourth image signal acquired from the fourth imaging region to generate the composite image signal,
The distance calculation unit calculates a distance to the driver based on the first, second, third and fourth image signals,
The face recognition unit recognizes a three-dimensional feature point of the driver's face based on the composite image signal and the distance to the driver;
The face orientation determination unit determines the driver's face orientation based on the three-dimensional feature points,
2. The driver monitoring system according to claim 1, wherein the side-by-side / slumber determining unit determines whether or not the driver is looking aside according to a determination result of the driver's face orientation.
前記信号処理回路は、
前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、
前記運転者までの距離を演算する距離演算部と
前記運転者の顔向きを判定する顔向き判定部と
をさらに含み、
前記少なくとも2つの光学領域は、第1の透過率特性および第1の合焦特性を有する第1の光学領域、前記第1の透過率特性とは異なる第2の透過率特性および前記第1の合焦特性を有する第2の光学領域、前記第1の透過率特性および前記第1の合焦特性とは異なる第2の合焦特性を有する第3の光学領域、ならびに前記第2の透過率特性および前記第2の合焦特性を有する第4の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、
前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号および前記第2の撮像領域から取得された第2の画像信号を合成して第1の合成画像信号を生成し、前記第3の撮像領域から取得された第3の画像信号および前記第4の撮像領域から取得された第4の画像信号を合成して第2の合成画像信号を生成し、前記第1および第2の合成画像を合成して第3の合成画像信号をさらに生成し、
前記距離演算部は、前記第1および第2の合成画像信号に基づいて前記運転者までの距離を演算し、
前記顔認識部は、前記第3の合成画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識し、
前記顔向き判定部は、前記3次元特徴点に基づいて前記運転者の顔向きを判定し、
前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する、請求項1に記載の運転者監視システム。 Auxiliary illumination that emits near-infrared light is further provided,
The signal processing circuit includes:
An image synthesis unit that synthesizes the plurality of image signals to generate a synthesized image signal;
A distance calculation unit that calculates a distance to the driver; and a face direction determination unit that determines the driver's face direction;
The at least two optical regions are a first optical region having a first transmittance property and a first focusing property, a second transmittance property different from the first transmittance property, and the first A second optical region having a focusing characteristic, a third optical region having a second focusing characteristic different from the first transmittance characteristic and the first focusing characteristic, and the second transmittance. A fourth optical region having a characteristic and the second focusing characteristic;
The at least two imaging regions include a first imaging region corresponding to the first optical region, a second imaging region corresponding to the second optical region, and a third corresponding to the third optical region. An imaging region, and a fourth imaging region corresponding to the fourth optical region,
The image synthesizing unit synthesizes the first image signal acquired from the first imaging area and the second image signal acquired from the second imaging area to generate a first synthesized image signal. , Combining the third image signal acquired from the third imaging region and the fourth image signal acquired from the fourth imaging region to generate a second combined image signal, and Generating a third composite image signal by combining the second composite image;
The distance calculation unit calculates a distance to the driver based on the first and second composite image signals,
The face recognition unit recognizes a three-dimensional feature point of the driver's face based on the third composite image signal and the distance to the driver;
The face orientation determination unit determines the driver's face orientation based on the three-dimensional feature points,
2. The driver monitoring system according to claim 1, wherein the side-by-side / slumber determining unit determines whether or not the driver is looking aside according to a determination result of the driver's face orientation.
近赤外光を照射する補助照明と、
前記第1の撮像装置から出力される前記複数の画像信号を合成して第1の合成画像信号を生成する第1の画像合成部と、
前記第2の撮像装置から出力される前記複数の画像信号を合成して第2の合成画像信号を生成する第2の画像合成部と、
前記第1および第2の合成画像信号から得られる視差量を用いて運転者までの距離を演算する距離演算部と、
前記第1の合成画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識する3次元顔認識部と、
前記3次元特徴点に基づいて前記運転者の顔向きを判定する顔向き判定部と、
前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する脇見判定部と
を含む信号処理回路と
を備え、
前記少なくとも2つの光学領域は、第1の透過率特性を有する第1の光学領域、前記第1の透過率特性とは異なる第2の透過率特性を有する第2の光学領域、前記第1および第2の透過率特性とは異なる第3の透過率特性を有する第3の光学領域、ならびに前記第1、第2および第3の透過率特性とは異なる第4の透過率特性を有する第4の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、
前記第1の画像合成部は、前記第1の撮像領域から取得された第1の画像信号、前記第2の撮像領域から取得された第2の画像信号、前記第3の撮像領域から取得された第3の画像信号、および前記第4の撮像領域から取得された第4の画像信号を合成して前記第1の合成画像を生成し、
前記第2の画像合成部は、前記第1の撮像領域から取得された第1の画像信号、前記第2の撮像領域から取得された第2の画像信号、前記第3の撮像領域から取得された第3の画像信号、および前記第4の撮像領域から取得された第4の画像信号を合成して前記第2の合成画像を生成する、運転者監視システム。 A lens, a lens optical system including at least two optical regions having different optical characteristics, an image pickup device having at least two image pickup regions on which light transmitted through the lens optical system is incident, the lens optical system, and the image pickup device And an array of optical elements that allow light that has passed through the optical regions of the at least two optical regions to enter the imaging regions of the at least two imaging regions. A first and second imaging device having information on light that has passed through each optical region and outputting a plurality of image signals obtained from each imaging region;
Auxiliary illumination that emits near-infrared light,
A first image synthesis unit that synthesizes the plurality of image signals output from the first imaging device to generate a first synthesized image signal;
A second image synthesizing unit that synthesizes the plurality of image signals output from the second imaging device to generate a second synthesized image signal;
A distance calculation unit that calculates the distance to the driver using the amount of parallax obtained from the first and second composite image signals;
A three-dimensional face recognition unit that recognizes a three-dimensional feature point of the driver's face based on the first composite image signal and the distance to the driver;
A face orientation determination unit that determines the driver's face orientation based on the three-dimensional feature points;
A signal processing circuit including a side-by-side determination unit that determines whether or not the driver is looking aside according to a determination result of the driver's face orientation,
The at least two optical regions include a first optical region having a first transmittance characteristic, a second optical region having a second transmittance characteristic different from the first transmittance characteristic, the first and A third optical region having a third transmittance characteristic different from the second transmittance characteristic and a fourth optical region having a fourth transmittance characteristic different from the first, second and third transmittance characteristics. Including the optical region of
The at least two imaging regions include a first imaging region corresponding to the first optical region, a second imaging region corresponding to the second optical region, and a third corresponding to the third optical region. An imaging region, and a fourth imaging region corresponding to the fourth optical region,
The first image synthesizing unit is acquired from the first image signal acquired from the first imaging region, the second image signal acquired from the second imaging region, and the third imaging region. Generating the first combined image by combining the third image signal and the fourth image signal acquired from the fourth imaging region,
The second image synthesis unit is acquired from the first image signal acquired from the first imaging region, the second image signal acquired from the second imaging region, and the third imaging region. A driver monitoring system that generates the second composite image by combining the third image signal and the fourth image signal acquired from the fourth imaging region.
前記信号処理回路は、
前記複数の画像信号の中から1つを選択する画像選択部と、
前記運転者の目の開口度を検出する目開度検出部と
をさらに含み、
前記少なくとも2つの光学領域は、前記第1の偏光軸の方向に振動する光を透過させる第1の偏光特性を有する第1の光学領域および前記第1の偏光軸の方向と垂直な第2の偏光軸の方向に振動する光を透過させる第2の偏光特性を有する第2の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域および前記第2の光学領域に対応した第2の撮像領域を含み、
前記画像選択部は、前記第1の撮像領域から取得された第1の画像信号から構成される第1の画像中の画素の飽和度合と、前記第2の撮像領域から取得された第2の画像信号から構成される第2の画像中の画素の飽和度合とを比較することによって、前記第1の画像信号および前記第2の画像信号からいずれか1つを選択し、
前記顔認識部は、選択された画像信号に基づいて前記運転者の顔の特徴点を認識し、
前記目開度検出部は、前記顔の特徴点に基づいて前記運転者の目の開口度を検出し、
前記脇見・居眠り判定部は、前記目の開口度の検出結果に応じて前記運転者が居眠りをしているか否かを判定する、請求項1に記載の運転者監視システム。 An auxiliary illumination that irradiates near-infrared light that vibrates in the direction of the first polarization axis;
The signal processing circuit includes:
An image selection unit that selects one of the plurality of image signals;
An eye opening degree detecting unit for detecting an opening degree of the driver's eyes, and
The at least two optical regions include a first optical region having a first polarization characteristic that transmits light oscillating in the direction of the first polarization axis, and a second perpendicular to the direction of the first polarization axis. A second optical region having a second polarization characteristic that transmits light oscillating in the direction of the polarization axis;
The at least two imaging areas include a first imaging area corresponding to the first optical area and a second imaging area corresponding to the second optical area,
The image selection unit includes a saturation degree of a pixel in the first image configured from the first image signal acquired from the first imaging area, and a second level acquired from the second imaging area. Selecting either one of the first image signal and the second image signal by comparing the degree of saturation of a pixel in the second image composed of the image signal;
The face recognition unit recognizes feature points of the driver's face based on the selected image signal,
The eye opening detector detects an opening degree of the driver's eyes based on the facial feature points,
2. The driver monitoring system according to claim 1, wherein the aside and doze determination unit determines whether or not the driver is dozing according to the detection result of the opening degree of the eyes.
前記信号処理回路は、
前記複数の画像信号を合成して合成画像信号を生成する画像合成部と、
前記複数の画像信号の中から1つを選択する画像選択部と、
前記運転者の目の開口度を検出する目開度検出部と
をさらに含み、
前記少なくとも2つの光学領域は、前記第1の偏光軸の方向に振動する光を透過させる第1の偏光特性および第1の透過率特性を有する第1の光学領域、前記第1の偏光特性および前記第1の透過率特性とは異なる第2の透過率特性を有する第2の光学領域、前記第1の偏光軸の方向と垂直な第2の偏光軸の方向に振動する光を透過させる第2の偏光特性および前記第1の透過率特性を有する第3の光学領域、および前記第2の偏光特性および前記第2の透過率特性を有する第4の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、
前記画像合成部は、前記第1の撮像領域から取得された第1の画像信号および前記第2の撮像領域から取得された第2の画像信号を合成して第1の合成画像信号を生成し、前記第3の撮像領域から取得された第3の画像信号および前記第4の撮像領域から取得された第4の画像信号を合成して第2の合成画像信号を生成し、
前記画像選択部は、前記第1の合成画像信号から構成される第1の画像中の画素の飽和度合と、前記第2の合成画像信号から構成される第2の画像中の画素の飽和度合とを比較することによって、前記第1の合成画像信号および前記第2の合成画像信号からいずれか1つを選択し、
前記顔認識部は、選択された合成画像信号に基づいて前記運転者の顔の特徴点を認識し、
前記目開度検出部は、前記顔の特徴点に基づいて前記運転者の目の開口度を検出し、
前記脇見・居眠り判定部は、前記目の開口度の検出結果に応じて前記運転者が居眠りをしているか否かを判定する、請求項1に記載の運転者監視システム。 Further comprising auxiliary illumination for irradiating light oscillating in the direction of the first polarization axis;
The signal processing circuit includes:
An image synthesis unit that synthesizes the plurality of image signals to generate a synthesized image signal;
An image selection unit that selects one of the plurality of image signals;
An eye opening degree detecting unit for detecting an opening degree of the driver's eyes, and
The at least two optical regions are a first optical region having a first polarization characteristic and a first transmittance characteristic that transmit light oscillating in the direction of the first polarization axis, the first polarization characteristic, and A second optical region having a second transmittance characteristic different from the first transmittance characteristic; a second optical region that transmits light that vibrates in a direction of a second polarization axis perpendicular to the direction of the first polarization axis; A third optical region having two polarization properties and the first transmittance property, and a fourth optical region having the second polarization property and the second transmittance property,
The at least two imaging regions include a first imaging region corresponding to the first optical region, a second imaging region corresponding to the second optical region, and a third corresponding to the third optical region. An imaging region, and a fourth imaging region corresponding to the fourth optical region,
The image synthesizing unit synthesizes the first image signal acquired from the first imaging area and the second image signal acquired from the second imaging area to generate a first synthesized image signal. A second image signal is generated by synthesizing the third image signal acquired from the third imaging region and the fourth image signal acquired from the fourth imaging region;
The image selection unit includes a saturation degree of pixels in the first image composed of the first composite image signal and a saturation degree of pixels in the second image composed of the second composite image signal. And selecting one of the first composite image signal and the second composite image signal,
The face recognition unit recognizes feature points of the driver's face based on the selected composite image signal,
The eye opening detector detects an opening degree of the driver's eyes based on the facial feature points,
2. The driver monitoring system according to claim 1, wherein the aside and doze determination unit determines whether or not the driver is dozing according to the detection result of the opening degree of the eyes.
第1の偏光軸の方向に振動する近赤外光を照射する補助照明と、
前記第1の撮像装置から出力される前記複数の画像信号から第1の選択画像信号を選択する第1の画像選択部と、
前記第2の撮像装置から出力された前記複数の画像信号から第2の選択画像信号を選択する第2の画像選択部と、
前記第1および第2の選択画像信号から得られる視差量を用いて運転者までの距離を演算する距離演算部と、
前記第1の選択画像信に基づいて前記運転者の顔の2次元特徴点を認識する顔認識部と、
前記2次元特徴点に基づいて前記運転者の目の開口度を検出する目開度検出部と、
前記目の開口度の検出結果に応じて、前記運転者が居眠りをしているか否かを判定する居眠り判定部と、
前記第1の選択画像信および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識する3次元顔認識部と、
前記顔の3次元特徴点に基づいて前記運転者の顔向きを判定する顔向き判定部と、
前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する脇見判定部と
を含む信号処理回路と
を備え、
前記少なくとも2つの光学領域は、前記第1の偏光軸の方向に振動する光を透過させる第1の偏光特性を有する第1の光学領域および前記第1の偏光軸の方向と垂直な第2の偏光軸の方向に振動する光を透過させる第2の偏光特性を有する第2の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域および前記第2の光学領域に対応した第2の撮像領域を含み、
前記第1の画像選択部は、前記第1の撮像領域から取得された第1の画像信号から構成される第1の画像中の画素の飽和度合と、前記第2の撮像領域から取得された第2の画像信号から構成される第2の画像中の画素の飽和度合とを比較することによって、前記第1の画像信号および前記第2の画像信号のいずれか1つを前記第1の選択画像信号として選択し、
前記第2の画像選択部は、前記第1の撮像領域から取得された第1の画像信号から構成される第1の画像中の画素の飽和度合と、前記第2の撮像領域から取得された第2の画像信号から構成される第2の画像中の画素の飽和度合とを比較することによって、前記第1の画像信号および前記第2の画像信号のいずれか1つを前記第2の選択画像信号として選択する、運転者監視システム。 A lens, a lens optical system including at least two optical regions having different optical characteristics, an image pickup device having at least two image pickup regions on which light transmitted through the lens optical system is incident, the lens optical system, and the image pickup device And an array of optical elements that allow light that has passed through the optical regions of the at least two optical regions to enter the imaging regions of the at least two imaging regions. A first imaging device and a second imaging device for indicating information of light that has passed through each optical region and outputting a plurality of image signals obtained from the respective imaging regions;
Auxiliary illumination for irradiating near infrared light oscillating in the direction of the first polarization axis;
A first image selection unit that selects a first selection image signal from the plurality of image signals output from the first imaging device;
A second image selection unit that selects a second selection image signal from the plurality of image signals output from the second imaging device;
A distance calculation unit that calculates a distance to the driver using the amount of parallax obtained from the first and second selection image signals;
A face recognition unit for recognizing a two-dimensional feature point of the driver's face based on the first selected image signal;
An eye opening detection unit that detects an opening degree of the driver's eyes based on the two-dimensional feature points;
A dozing determination unit that determines whether the driver is dozing according to the detection result of the opening degree of the eyes,
A three-dimensional face recognition unit for recognizing a three-dimensional feature point of the driver's face based on the first selected image signal and the distance to the driver;
A face orientation determination unit that determines the face orientation of the driver based on the three-dimensional feature points of the face;
A signal processing circuit including a side-by-side determination unit that determines whether or not the driver is looking aside according to a determination result of the driver's face orientation,
The at least two optical regions include a first optical region having a first polarization characteristic that transmits light oscillating in the direction of the first polarization axis, and a second perpendicular to the direction of the first polarization axis. A second optical region having a second polarization characteristic that transmits light oscillating in the direction of the polarization axis;
The at least two imaging areas include a first imaging area corresponding to the first optical area and a second imaging area corresponding to the second optical area,
The first image selection unit is acquired from the saturation degree of the pixel in the first image composed of the first image signal acquired from the first imaging region and the second imaging region. One of the first image signal and the second image signal is selected as the first selection by comparing a saturation degree of a pixel in the second image composed of the second image signal. Select as image signal,
The second image selection unit is acquired from the saturation level of the pixels in the first image composed of the first image signal acquired from the first imaging region and the second imaging region. Comparing one of the first image signal and the second image signal to the second selection by comparing a degree of saturation of a pixel in the second image composed of the second image signal; Driver monitoring system to select as an image signal.
前記信号処理回路は、
前記運転者の顔向きを判定する顔向き判定部と、
前記運転者の顔色の変化から心拍数を推定する心拍数推定部と、
推定された心拍数に基づいて前記運転者の体調を判定する体調判定部と
をさらに含み、
前記少なくとも2つの光学領域は、前記近赤外光を透過させる第1の分光特性を有する第1の光学領域、可視光帯域における赤色の光を透過させる第2の分光特性を有する第2の光学領域、可視光帯域における緑色の光を透過させる第3の分光特性を有する第3の光学領域、および可視光帯域における青色の光を透過させる第4の分光特性を有する第4の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、
前記顔認識部は、前記第1の撮像領域から取得された第1の画像信号に基づいて前記運転者の顔の特徴点を認識する第1の顔認識部と、前記第2、第3および第4の撮像領域からそれぞれ取得された第2、第3および第4の画像信号の少なくとも1つに基づいて前記運転者の顔の特徴点を認識する第2の顔認識部とを含み、
前記顔向き判定部は、前記第1の顔認識部によって認識された特徴点に基づいて前記運転者の顔向きを判定し、
前記脇見・居眠り判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定し、
前記心拍数推定部は、前記第2の顔認識部によって認識された顔の特徴点に着目して前記運転者の顔色の変化を検出し、心拍数を推定する、請求項1に記載の運転者監視システム。 Auxiliary illumination that emits near-infrared light is further provided,
The signal processing circuit includes:
A face orientation determination unit for determining the driver's face orientation;
A heart rate estimator for estimating a heart rate from a change in the face color of the driver;
A physical condition determining unit that determines the physical condition of the driver based on the estimated heart rate,
The at least two optical regions include a first optical region having a first spectral characteristic that transmits the near infrared light, and a second optical having a second spectral property that transmits red light in a visible light band. A third optical region having a third spectral characteristic that transmits green light in the visible light band, and a fourth optical region having a fourth spectral characteristic that transmits blue light in the visible light band ,
The at least two imaging regions include a first imaging region corresponding to the first optical region, a second imaging region corresponding to the second optical region, and a third corresponding to the third optical region. An imaging region, and a fourth imaging region corresponding to the fourth optical region,
The face recognition unit includes a first face recognition unit that recognizes feature points of the driver's face based on a first image signal acquired from the first imaging region, the second, third, and A second face recognition unit that recognizes feature points of the driver's face based on at least one of the second, third, and fourth image signals respectively acquired from the fourth imaging region,
The face orientation determination unit determines the driver's face orientation based on the feature points recognized by the first face recognition unit,
The aside and dozing determination unit determines whether or not the driver is looking aside according to the determination result of the driver's face orientation,
The driving according to claim 1, wherein the heart rate estimation unit estimates a heart rate by detecting a change in the driver's face color by focusing on a facial feature point recognized by the second face recognition unit. Monitoring system.
近赤外光を照射する補助照明と、
視差量を用いて運転者までの距離を演算する距離演算部と、
前記運転者の顔の2次元特徴点を認識する第1の顔認識部と、
前記運転者の顔の3次元特徴点を認識する第2の顔認識部と、
前記顔の特徴点に基づいて前記運転者の顔向きを判定する顔向き判定部と、
前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定する脇見判定部と、
前記運転者の顔色の変化から心拍数を推定する心拍数推定部と、
推定された心拍数に基づいて前記運転者の体調を判定する体調判定部と
を含む信号処理回路と
を備え、
前記少なくとも2つの光学領域は、前記近赤外光を透過させる第1の分光特性を有する第1の光学領域、可視光帯域における赤色の光を透過させる第2の分光特性を有する第2の光学領域、可視光帯域における緑色の光を透過させる第3の分光特性を有する第3の光学領域、および可視光帯域における青色の光を透過させる第4の分光特性を有する第4の光学領域を含み、
前記少なくとも2つの撮像領域は、前記第1の光学領域に対応した第1の撮像領域、前記第2の光学領域に対応した第2の撮像領域、前記第3の光学領域に対応した第3の撮像領域、および前記第4の光学領域に対応した第4の撮像領域を含み、
前記距離演算部は、前記第1および第2の撮像装置の前記第1の撮像領域からそれぞれ取得された第1の画像信号から得られる視差量を用いて前記運転者までの距離を演算し、
前記第1の顔認識部は、前記第1の撮像装置の前記第2、第3および第4の撮像領域からそれぞれ取得された第2、第3および第4の画像信号の少なくとも1つに基づいて前記運転者の顔の2次元特徴点を認識し、
前記第2の顔認識部は、前記第1の撮像装置の前記第1の撮像領域から取得された第1の画像信号および前記運転者までの距離に基づいて前記運転者の顔の3次元特徴点を認識し、
前記顔向き判定部は、前記3次元特徴点に基づいて前記運転者の顔向きを判定し、
前記脇見判定部は、前記運転者の顔向きの判定結果に応じて前記運転者が脇見をしているか否かを判定し、
前記心拍数推定部は、前記顔の2次元特徴点に着目して前記運転者の顔色の変化を検出し、心拍数を推定する、運転者監視システム。 A lens, a lens optical system including at least two optical regions having different optical characteristics, an image pickup device having at least two image pickup regions on which light transmitted through the lens optical system is incident, the lens optical system, and the image pickup device And an array of optical elements that allow light that has passed through the optical regions of the at least two optical regions to enter the imaging regions of the at least two imaging regions. A first imaging device and a second imaging device for indicating information of light that has passed through each optical region and outputting a plurality of image signals obtained from the respective imaging regions;
Auxiliary illumination that emits near-infrared light,
A distance calculator that calculates the distance to the driver using the amount of parallax;
A first face recognition unit for recognizing a two-dimensional feature point of the driver's face;
A second face recognition unit for recognizing a three-dimensional feature point of the driver's face;
A face orientation determination unit that determines the driver's face orientation based on the facial feature points;
An aside determination unit that determines whether the driver is looking aside according to the determination result of the driver's face orientation;
A heart rate estimator for estimating a heart rate from a change in the face color of the driver;
A signal processing circuit including a physical condition determination unit that determines the physical condition of the driver based on the estimated heart rate,
The at least two optical regions include a first optical region having a first spectral characteristic that transmits the near infrared light, and a second optical having a second spectral property that transmits red light in a visible light band. A third optical region having a third spectral characteristic that transmits green light in the visible light band, and a fourth optical region having a fourth spectral characteristic that transmits blue light in the visible light band ,
The at least two imaging regions include a first imaging region corresponding to the first optical region, a second imaging region corresponding to the second optical region, and a third corresponding to the third optical region. An imaging region, and a fourth imaging region corresponding to the fourth optical region,
The distance calculation unit calculates a distance to the driver using a parallax amount obtained from a first image signal respectively acquired from the first imaging region of the first and second imaging devices,
The first face recognition unit is based on at least one of second, third, and fourth image signals respectively acquired from the second, third, and fourth imaging regions of the first imaging device. Recognizing the two-dimensional feature points of the driver's face,
The second face recognition unit is configured to provide a three-dimensional feature of the driver's face based on a first image signal acquired from the first imaging region of the first imaging device and a distance to the driver. Recognize the point,
The face orientation determination unit determines the driver's face orientation based on the three-dimensional feature points,
The aside look determination unit determines whether the driver is looking aside according to a determination result of the driver's face orientation,
The driver monitoring system, wherein the heart rate estimator estimates a heart rate by detecting a change in the driver's face color by paying attention to a two-dimensional feature point of the face.
前記姿勢検知部の検知結果に基づき、エアバックを展開するか否かを判定し、前記エアバックの展開および展開速度を制御するエアバック展開制御部と
をさらに備えた、請求項3から6、9および12のいずれかに記載の運転者監視システム。 An attitude detection unit that detects the attitude of the driver based on the distance to the driver;
7. An air bag deployment control unit that determines whether or not to deploy an airbag based on a detection result of the posture detection unit and controls deployment and a deployment speed of the airbag, further comprising: The driver monitoring system according to any one of 9 and 12.
前記複数の画像信号の少なくとも1つの画像信号に基づいて前記運転者の顔の特徴点を認識するステップと、
前記顔の特徴点に基づいて前記運転者が脇見または居眠りをしているか否かを判定するステップと
を包含する、運転者監視方法。 A lens, a lens optical system including at least two optical regions having different optical characteristics, an image pickup device having at least two image pickup regions on which light transmitted through the lens optical system is incident, the lens optical system, and the image pickup device And an array-like optical element that causes light that has passed through each optical region of the at least two optical regions to enter each imaging region of the at least two imaging regions corresponding to each optical region. By analyzing at least one of the plurality of image signals output from the imaging device, having information on the light that has passed through each of the optical regions, and acquired from each of the imaging regions, A driver monitoring method for monitoring whether a driver is looking aside and / or asleep,
Recognizing feature points of the driver's face based on at least one image signal of the plurality of image signals;
And a step of determining whether or not the driver is looking aside or falling asleep based on the feature points of the face.
前記複数の画像信号の少なくとも1つの画像信号に基づいて前記運転者の顔の特徴点を認識するステップと、
前記顔の特徴点に基づいて前記運転者が脇見または居眠りをしているか否かを判定するステップと
を実行させるコンピュータプログラム。 A lens, a lens optical system including at least two optical regions having different optical characteristics, an image pickup device having at least two image pickup regions on which light transmitted through the lens optical system is incident, the lens optical system, and the image pickup device And an array-like optical element that causes light that has passed through each optical region of the at least two optical regions to enter each imaging region of the at least two imaging regions corresponding to each optical region. By analyzing at least one of the plurality of image signals output from the imaging device, having information on the light that has passed through each of the optical regions, and acquired from each of the imaging regions, A computer program used in a driver monitoring system for monitoring whether a driver is looking aside and / or is asleep. The driver monitoring system of the computer,
Recognizing feature points of the driver's face based on at least one image signal of the plurality of image signals;
And a step of determining whether or not the driver is looking aside or falling asleep based on the facial feature points.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014072186A JP2015194884A (en) | 2014-03-31 | 2014-03-31 | driver monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014072186A JP2015194884A (en) | 2014-03-31 | 2014-03-31 | driver monitoring system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015194884A true JP2015194884A (en) | 2015-11-05 |
Family
ID=54433839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014072186A Pending JP2015194884A (en) | 2014-03-31 | 2014-03-31 | driver monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015194884A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017161965A (en) * | 2016-03-07 | 2017-09-14 | オムロンオートモーティブエレクトロニクス株式会社 | Face image processing apparatus |
JP2018030425A (en) * | 2016-08-24 | 2018-03-01 | 三菱電機株式会社 | Automatic operation control device and automatic operation control method |
WO2018167996A1 (en) * | 2017-03-14 | 2018-09-20 | オムロン株式会社 | Driver state estimation device and driver state estimation method |
JP2019020647A (en) * | 2017-07-20 | 2019-02-07 | 大日本印刷株式会社 | Detector |
KR20190054803A (en) | 2017-11-14 | 2019-05-22 | 현대오트론 주식회사 | Appartus and method for estimating condition of driver |
CN110192224A (en) * | 2017-03-14 | 2019-08-30 | 欧姆龙株式会社 | Device for estimating state of driver and estimating state of driver method |
CN110235178A (en) * | 2017-03-14 | 2019-09-13 | 欧姆龙株式会社 | Driver status estimating device and driver status estimate method |
WO2020095904A1 (en) * | 2018-11-05 | 2020-05-14 | 株式会社デンソー | Operation management apparatus and operation management system |
WO2020246401A1 (en) * | 2019-06-05 | 2020-12-10 | ソニーセミコンダクタソリューションズ株式会社 | Image recognition device and image recognition method |
WO2021024905A1 (en) * | 2019-08-02 | 2021-02-11 | オムロン株式会社 | Image processing device, monitoring device, control system, image processing method, computer program, and recording medium |
CN112449580A (en) * | 2018-07-23 | 2021-03-05 | 新唐科技日本株式会社 | Living body state detection device and living body state detection method |
US11961328B2 (en) | 2020-12-22 | 2024-04-16 | Swallow Incubate Co., Ltd. | Eye detecting method, eye detecting device, and non-transitory computer-readable recording medium recording eye detecting program |
US11978266B2 (en) | 2020-10-21 | 2024-05-07 | Nvidia Corporation | Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications |
DE102023001618A1 (en) | 2023-04-24 | 2024-07-11 | Mercedes-Benz Group AG | Adaptive dynamic compression method and vehicle |
-
2014
- 2014-03-31 JP JP2014072186A patent/JP2015194884A/en active Pending
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017161965A (en) * | 2016-03-07 | 2017-09-14 | オムロンオートモーティブエレクトロニクス株式会社 | Face image processing apparatus |
JP2018030425A (en) * | 2016-08-24 | 2018-03-01 | 三菱電機株式会社 | Automatic operation control device and automatic operation control method |
CN110199318B (en) * | 2017-03-14 | 2023-03-07 | 欧姆龙株式会社 | Driver state estimation device and driver state estimation method |
WO2018167996A1 (en) * | 2017-03-14 | 2018-09-20 | オムロン株式会社 | Driver state estimation device and driver state estimation method |
JP2018151931A (en) * | 2017-03-14 | 2018-09-27 | オムロン株式会社 | Driver state estimation device and driver state estimation method |
CN110192224A (en) * | 2017-03-14 | 2019-08-30 | 欧姆龙株式会社 | Device for estimating state of driver and estimating state of driver method |
CN110199318A (en) * | 2017-03-14 | 2019-09-03 | 欧姆龙株式会社 | Driver status estimating device and driver status estimate method |
CN110235178A (en) * | 2017-03-14 | 2019-09-13 | 欧姆龙株式会社 | Driver status estimating device and driver status estimate method |
JP2019020647A (en) * | 2017-07-20 | 2019-02-07 | 大日本印刷株式会社 | Detector |
KR20190054803A (en) | 2017-11-14 | 2019-05-22 | 현대오트론 주식회사 | Appartus and method for estimating condition of driver |
CN112449580A (en) * | 2018-07-23 | 2021-03-05 | 新唐科技日本株式会社 | Living body state detection device and living body state detection method |
JP2020077037A (en) * | 2018-11-05 | 2020-05-21 | 株式会社デンソー | Operation management device and operation management system |
WO2020095904A1 (en) * | 2018-11-05 | 2020-05-14 | 株式会社デンソー | Operation management apparatus and operation management system |
WO2020246401A1 (en) * | 2019-06-05 | 2020-12-10 | ソニーセミコンダクタソリューションズ株式会社 | Image recognition device and image recognition method |
TWI830907B (en) * | 2019-06-05 | 2024-02-01 | 日商索尼半導體解決方案公司 | Image recognition device and image recognition method |
WO2021024905A1 (en) * | 2019-08-02 | 2021-02-11 | オムロン株式会社 | Image processing device, monitoring device, control system, image processing method, computer program, and recording medium |
JP2021026420A (en) * | 2019-08-02 | 2021-02-22 | オムロン株式会社 | Image processing device, monitoring device, control system, image processing method, and computer program |
US11978266B2 (en) | 2020-10-21 | 2024-05-07 | Nvidia Corporation | Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications |
US11961328B2 (en) | 2020-12-22 | 2024-04-16 | Swallow Incubate Co., Ltd. | Eye detecting method, eye detecting device, and non-transitory computer-readable recording medium recording eye detecting program |
DE102023001618A1 (en) | 2023-04-24 | 2024-07-11 | Mercedes-Benz Group AG | Adaptive dynamic compression method and vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015194884A (en) | driver monitoring system | |
US10048750B2 (en) | Content projection system and content projection method | |
JP4989762B2 (en) | Driver monitoring device, driver monitoring method, and vehicle | |
JP5145555B2 (en) | Pupil detection method | |
KR20170139521A (en) | Image processing apparatus and image processing system | |
JP6474900B2 (en) | Head mounted display | |
WO2015015717A1 (en) | Imaging device and imaging system, electronic mirroring system, and distance measurement device using same | |
US10789782B1 (en) | Image plane adjustment in a near-eye display | |
KR20180101496A (en) | Head-mounted display for virtual and mixed reality with inside-out location, user body and environment tracking | |
US20090219386A1 (en) | Pupil detection device and pupil detection method | |
JP2017038162A (en) | Imaging apparatus and image processing method, program, and storage medium | |
CN109964230B (en) | Method and apparatus for eye metric acquisition | |
WO2019187958A1 (en) | Information detection device, image projection device, information detection method, and image projection method | |
JP2011152883A (en) | Imaging device | |
US11650660B2 (en) | Electronic device, control method, and non-transitory computer readable medium | |
JP4528980B2 (en) | Pupil detection device and pupil detection method | |
WO2019021601A1 (en) | Information processing device, information processing method, and program | |
JP6289439B2 (en) | Image processing device | |
JP2009240551A (en) | Sight line detector | |
JP2016051317A (en) | Visual line detection device | |
JP2016095584A (en) | Pupil detection device, pupil detection method, and pupil detection program | |
US11227519B2 (en) | Image projection apparatus, image projection method, image display light output control method by acquiring pupil area or size | |
JP6597467B2 (en) | Face orientation measuring device | |
CN111200709A (en) | Method for setting light source of camera system, camera system and vehicle | |
JP2007209646A (en) | Guiding device, imaging device, authentication device and guiding method |