JP5288189B2 - Information processing apparatus and method, and program - Google Patents

Information processing apparatus and method, and program Download PDF

Info

Publication number
JP5288189B2
JP5288189B2 JP2009060955A JP2009060955A JP5288189B2 JP 5288189 B2 JP5288189 B2 JP 5288189B2 JP 2009060955 A JP2009060955 A JP 2009060955A JP 2009060955 A JP2009060955 A JP 2009060955A JP 5288189 B2 JP5288189 B2 JP 5288189B2
Authority
JP
Japan
Prior art keywords
image
control
light
state
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009060955A
Other languages
Japanese (ja)
Other versions
JP2010215000A (en
Inventor
求 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2009060955A priority Critical patent/JP5288189B2/en
Publication of JP2010215000A publication Critical patent/JP2010215000A/en
Application granted granted Critical
Publication of JP5288189B2 publication Critical patent/JP5288189B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Input (AREA)

Description

本発明は、情報処理装置及び方法、並びにプログラムに関し、特に、顔の認識率をより一段と向上させた情報処理装置及び方法、並びにプログラムに関する。   The present invention relates to an information processing device and method, and a program, and more particularly, to an information processing device and method, and a program that further improve the face recognition rate.

従来、車両を運転している運転者の状態をカメラで監視する監視カメラシステムが存在する(例えば、特許文献1参照)。かかる監視カメラシステムは、車両の内部を含む画像を監視カメラで撮像し、撮像された画像から顔を認識する。   2. Description of the Related Art Conventionally, there is a surveillance camera system that monitors the state of a driver driving a vehicle with a camera (see, for example, Patent Document 1). Such a monitoring camera system captures an image including the inside of a vehicle with a monitoring camera, and recognizes a face from the captured image.

特開平10−275212号公報Japanese Patent Laid-Open No. 10-275212

しかしながら、従来の監視カメラシステムが、サンルーフの搭載された車両に用いられると、顔の認識率が低下することがあった。   However, when a conventional surveillance camera system is used in a vehicle equipped with a sunroof, the face recognition rate may be reduced.

本発明は、このような状況に鑑みてなされたものであり、顔の認識率をより一段と向上させるものである。   The present invention has been made in view of such a situation, and further improves the face recognition rate.

本発明の一側面の情報処理装置は、車両の内部に向かって直接照射する外部の光を遮る機能を有する遮光体の状態として、外部の光を遮っている第1の状態、または外部の光を遮っていない第2の状態を検出する検出手段と、照明部による車両の内部の照明と、撮像部による車両の内部の撮像とを制御する制御手段と、制御手段の制御のもと撮像部により撮像された結果得られる第1の画像に基づいて、車両内部に存在する人間の顔を認識する認識手段とを備え、制御手段は、検出手段により第1の状態が検出された場合、照明部に第1の光量で照明させ、撮像部に第1の露光量で撮像させる第1の制御を行い、検出手段により第2の状態が検出された場合、照明部に第1の光量より多い第2の光量で照明させ、撮像部に第1の露光量より少ない第2の露光量で撮像させる第2の制御を行う。   An information processing device according to one aspect of the present invention includes a first state in which external light is blocked, or external light as a state of a light blocking body having a function of blocking external light that is directly irradiated toward the inside of a vehicle. Detecting means for detecting a second state that does not block the light, control means for controlling the interior lighting of the vehicle by the illumination section, and imaging of the interior of the vehicle by the imaging section, and the imaging section under the control of the control means And a recognition means for recognizing a human face existing inside the vehicle based on the first image obtained as a result of being imaged by the control means, and when the first state is detected by the detection means, the control means If the second state is detected by the detection means, the illumination unit has more light than the first light amount. Illuminate with the second amount of light and cause the imaging unit to be less than the first exposure amount Performing second control for the imaging in the second exposure are.

本発明の一側面の情報処理装置においては、車両の内部に向かって直接照射する外部の光を遮る機能を有する遮光体の状態として、外部の光を遮っている第1の状態、または外部の光を遮っていない第2の状態が検出され、照明部による車両の内部の照明と、撮像部による車両の内部の撮像とが制御され、その制御のもと撮像部により撮像された結果得られる第1の画像に基づいて、車両内部に存在する人間の顔が認識される。第1の状態が検出された場合、照明部に第1の光量で照明させ、撮像部に第1の露光量で撮像させる第1の制御が行われ、第2の状態が検出された場合、照明部に第1の光量より多い第2の光量で照明させ、撮像部に第1の露光量より少ない第2の露光量で撮像させる第2の制御が行われる。   In the information processing apparatus according to one aspect of the present invention, as the state of the light blocking body having a function of blocking the external light directly irradiated toward the inside of the vehicle, the first state where the external light is blocked, or the external state The second state where the light is not blocked is detected, and the illumination inside the vehicle by the illumination unit and the imaging inside the vehicle by the imaging unit are controlled, and the result obtained by the imaging unit under the control is obtained. Based on the first image, a human face existing inside the vehicle is recognized. When the first state is detected, the first control is performed to cause the illumination unit to illuminate with the first light amount, and the imaging unit to capture an image with the first exposure amount. When the second state is detected, A second control is performed in which the illumination unit is illuminated with a second light amount greater than the first light amount, and the imaging unit is imaged with a second exposure amount that is less than the first exposure amount.

これにより、顔の認識率をより一段と向上させることができる。   Thereby, the face recognition rate can be further improved.

検出手段は、例えば、サンルーフスイッチで構成される。認識手段および制御手段は、例えば、CPU(Central Processing Unit)で構成される。   The detection means is composed of, for example, a sunroof switch. The recognition means and the control means are constituted by, for example, a CPU (Central Processing Unit).

制御手段は、検出手段により第1の状態が検出された場合、第1の制御に加えてさらに、照明部を消灯させて、撮像部に第1の露光量で撮像させる第3の制御を行い、検出手段により第2の状態が検出された場合、第2の制御に加えてさらに、照明部を消灯させて、撮像部に第2の露光量で撮像させる第4の制御を行い、認識手段は、第1の制御または第2の制御のもと撮像部により撮像された結果得られる画像を第1の画像として、第3の制御または第4の制御のもと撮像部により撮像された結果得られる画像を第2の画像として、第1の画像と第2の画像の差分画像を算出する算出手段と、算出手段により算出された差分画像に対して所定の処理を施すことで、顔を認識する顔画像処理手段とを有することができる。   When the first state is detected by the detection unit, the control unit further performs a third control for causing the imaging unit to capture an image with the first exposure amount in addition to the first control. When the second state is detected by the detection unit, in addition to the second control, the illumination unit is turned off, and a fourth control for causing the imaging unit to capture an image with the second exposure amount is performed. The image obtained by the image pickup unit under the first control or the second control is the image obtained by the image pickup unit under the third control or the fourth control. By using the obtained image as a second image, a calculation unit that calculates a difference image between the first image and the second image, and by performing predetermined processing on the difference image calculated by the calculation unit, Recognizing face image processing means.

これにより、顔の認識率をより一段と向上させることができる。   Thereby, the face recognition rate can be further improved.

検出手段は、例えば、サンルーフスイッチで構成される。認識手段および制御手段は、例えば、CPUで構成される。   The detection means is composed of, for example, a sunroof switch. The recognition means and the control means are constituted by a CPU, for example.

認識手段は、算出手段により算出された差分画像における陰影の有無を検出する陰影検出手段をさらに有し、顔画像処理手段は、陰影検出手段により陰影無しと検出された場合、所定の処理として、差分画像に対して第1の処理を施し、陰影検出手段により陰影有りと検出された場合、所定の処理として、第1の処理とは異なる第2の処理を差分画像に対して施すことができる。   The recognition means further includes a shadow detection means for detecting the presence or absence of a shadow in the difference image calculated by the calculation means, and the face image processing means, when the shadow detection means detects no shadow, as a predetermined process, When the first process is performed on the difference image and the shadow detection unit detects that there is a shadow, a second process different from the first process can be performed on the difference image as a predetermined process. .

これにより、顔の認識率をより一段と向上させることができる。   Thereby, the face recognition rate can be further improved.

遮光体は、近赤外光を遮り、検出手段は、車両の内部の近赤外光の強さに基づいて第1の状態または第2の状態を検出することができる。   The light blocking body blocks near-infrared light, and the detection means can detect the first state or the second state based on the intensity of near-infrared light inside the vehicle.

これにより、顔の認識をより簡単に行うことができる。   Thereby, the face can be recognized more easily.

車両の外部の光の強さを検出する光検出手段をさらに備え、制御手段は、光検出手段により検出された光の強さが閾値を超えた場合、第1の制御または第2の制御を行い、光検出手段により検出された光の強さが閾値以下の場合、検出手段により検出された遮光体の状態に係わらず、第1の制御を行うことができる。   The apparatus further includes light detection means for detecting the intensity of light outside the vehicle, and the control means performs the first control or the second control when the light intensity detected by the light detection means exceeds a threshold value. If the intensity of the light detected by the light detection means is equal to or less than the threshold value, the first control can be performed regardless of the state of the light shield detected by the detection means.

これにより、顔の認識をより簡単に行うことができる。   Thereby, the face can be recognized more easily.

光検出手段は、例えば、照度センサで構成される。   The light detection means is composed of, for example, an illuminance sensor.

本発明の一側面の情報処理方法およびプログラムは、上述した本発明の一側面の情報処理装置に対応する方法およびプログラムである。   An information processing method and program according to one aspect of the present invention are a method and program corresponding to the information processing apparatus according to one aspect of the present invention described above.

本発明によれば、顔の認識率をより一段と向上させることができる。   According to the present invention, the face recognition rate can be further improved.

本発明が適用される監視カメラシステムの一例を示す図である。It is a figure which shows an example of the surveillance camera system to which this invention is applied. 図1の監視カメラシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the surveillance camera system of FIG. 図1の車載装置の処理例を説明するための図である。It is a figure for demonstrating the process example of the vehicle-mounted apparatus of FIG. 図1の車載装置の処理例を説明するフローチャートである。It is a flowchart explaining the process example of the vehicle-mounted apparatus of FIG. 図1の車載装置の処理例を説明するフローチャートである。It is a flowchart explaining the process example of the vehicle-mounted apparatus of FIG. 本発明が適用される監視カメラシステムの一例を示す図である。It is a figure which shows an example of the surveillance camera system to which this invention is applied. 図6の監視カメラシステムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the surveillance camera system of FIG. 本発明が適用されるコンピュータのハードウェアの構成例を示す図である。It is a figure which shows the structural example of the hardware of the computer to which this invention is applied.

以下、図面を参照して、本発明を適用した情報処理システムの実施形態として、2つの実施形態(以下、それぞれ第1および第2実施形態と称する)について説明する。よって、説明は以下の順序で行う。
1.第1実施形態(サンルーフの開閉状態をサンルーフセンサで検出する例)
2.第2実施形態(サンルーフの開閉状態を近赤外光センサで検出する例)
Hereinafter, two embodiments (hereinafter, referred to as first and second embodiments, respectively) will be described as embodiments of an information processing system to which the present invention is applied, with reference to the drawings. Therefore, description will be given in the following order.
1. First Embodiment (Example of detecting sunroof opening / closing state with sunroof sensor)
2. Second Embodiment (Example of Detecting Open / Closed State of Sunroof with Near Infrared Light Sensor)

<1.第1実施形態> <1. First Embodiment>

[監視カメラシステムの構成例] [Configuration example of surveillance camera system]

図1は、本発明を適用した情報処理システムの第1実施形態としての監視カメラシステムの一例を示す図である。   FIG. 1 is a diagram showing an example of a surveillance camera system as a first embodiment of an information processing system to which the present invention is applied.

なお、本明細書において、システムの用語は、複数の装置、手段等より構成される全体的な装置を意味するものとする。即ち、監視カメラシステムを、1つの装置と把握することも可能である。   In the present specification, the term “system” means an overall apparatus composed of a plurality of apparatuses and means. That is, it is possible to grasp the monitoring camera system as one device.

図1の例の監視カメラシステム21は、車両11の内部に設けられている。   The surveillance camera system 21 in the example of FIG. 1 is provided inside the vehicle 11.

図1の例では、図中左方向が車両11の前方となっている。そこで、図の記述に従って、以下、図中左方向を前方と称し、さらに、図中上方向を上方と称し、図中手前および奥の方向を側方と称して、説明を行う。   In the example of FIG. 1, the left direction in the figure is the front of the vehicle 11. Therefore, in the following description, the left direction in the figure is referred to as the front, the upper direction in the figure is referred to as the upper side, and the front and back directions in the figure are referred to as the side.

図1は、車両11の車室SSの一例を示す図である。   FIG. 1 is a diagram illustrating an example of a compartment SS of the vehicle 11.

図1の例では、車室SSは、フロントウィンドウFGやルーフRF等で形成されている。フロントウィンドウFGは、車室SSの前方上部を覆っている。ルーフRFは、車室SSの上部を形成している。ルーフRFには、サンルーフSRが設けられている。図示せぬサイドウィンドウSWは、車室SSの側方上部を形成している。   In the example of FIG. 1, the passenger compartment SS is formed of a front window FG, a roof RF, and the like. The front window FG covers the upper front part of the passenger compartment SS. The roof RF forms the upper part of the passenger compartment SS. The roof RF is provided with a sunroof SR. A side window SW (not shown) forms the side upper part of the passenger compartment SS.

車室SSの内部のやや前方には、運転席USが設けられている。運転席USは、例えば、サンルーフSRの下方に位置している。運転席USの前方には、ハンドルHDと、ダッシュボードDBが設けられている。ダッシュボードDBは、フロントウィンドウFGの下方に位置している。   A driver's seat US is provided slightly in front of the passenger compartment SS. The driver's seat US is located below the sunroof SR, for example. In front of the driver's seat US, a handle HD and a dashboard DB are provided. The dashboard DB is located below the front window FG.

運転者TSは、例えば、前方を向いて運転席USに座り、車両11を運転している。例えば、運転者TSの頭は、運転席USのヘッドレストHRの付近に位置している。   For example, the driver TS is facing the front, sitting in the driver's seat US, and driving the vehicle 11. For example, the driver TS's head is located near the headrest HR of the driver's seat US.

以上に説明した車室SSを有する車両11の内部に、監視カメラシステム21は設けられている。監視カメラシステム21には、監視カメラ31、LED(Light Emitting Diode)照明装置32、および照度センサ33が設けられている。監視カメラシステム21にはまた、サンルーフスイッチ34、車載装置35、ディスプレイ36、およびスピーカ37が設けられている。車載装置35には、監視カメラ31、照明装置32、照度センサ33、サンルーフスイッチ34、ディスプレイ36、およびスピーカ37が接続されている。   The surveillance camera system 21 is provided inside the vehicle 11 having the vehicle interior SS described above. The surveillance camera system 21 is provided with a surveillance camera 31, an LED (Light Emitting Diode) illumination device 32, and an illuminance sensor 33. The surveillance camera system 21 is also provided with a sunroof switch 34, an in-vehicle device 35, a display 36, and a speaker 37. A monitoring camera 31, a lighting device 32, an illuminance sensor 33, a sunroof switch 34, a display 36, and a speaker 37 are connected to the in-vehicle device 35.

監視カメラ31および照明装置32は、例えば、ハンドルHDの付近に配置されている。照度センサ33は、例えば、ダッシュボードDB上に配置されている。サンルーフスイッチ34は、サンルーフSRの付近に配置されている。車載装置35は、車両11の内部の任意の位置に配置可能である。ディスプレイ36およびスピーカ37は、例えば、ダッシュボードDB上に配置されている。   The monitoring camera 31 and the illumination device 32 are disposed, for example, near the handle HD. The illuminance sensor 33 is disposed on the dashboard DB, for example. The sunroof switch 34 is disposed in the vicinity of the sunroof SR. The in-vehicle device 35 can be arranged at an arbitrary position inside the vehicle 11. The display 36 and the speaker 37 are disposed on the dashboard DB, for example.

監視カメラシステム21は、車両11の内部の所定の空間(例えば、ヘッドレストHRの付近)を照明装置32により強い光で照明させ、監視カメラ31により車両11の内部の所定の空間(例えば、ヘッドレストHRの付近)を撮像させる。監視カメラシステム21は、撮像された画像に基づいて顔を認識する。監視カメラシステム21は、例えば、その認識結果に基づいて、運転者TSの状態を判定し、その判定結果を、ディスプレイ36やスピーカ37を用いて運転者TSに提示する。このようにして、監視カメラシステム21は、運転者TSの状態を監視する。   The monitoring camera system 21 illuminates a predetermined space inside the vehicle 11 (for example, the vicinity of the headrest HR) with strong light by the illumination device 32, and the monitoring camera 31 causes a predetermined space (for example, the headrest HR) inside the vehicle 11 to be illuminated. Near). The surveillance camera system 21 recognizes a face based on the captured image. For example, the monitoring camera system 21 determines the state of the driver TS based on the recognition result, and presents the determination result to the driver TS using the display 36 and the speaker 37. In this way, the monitoring camera system 21 monitors the state of the driver TS.

なお、第1実施形態および後述する第2実施形態では、照明装置32による照明の光として、近赤外光を採用する。但し、照明装置32による照明の光は、近赤外光に限定されず、任意の帯域の光を採用することができる。   In the first embodiment and the second embodiment to be described later, near-infrared light is used as illumination light by the illumination device 32. However, the illumination light by the illumination device 32 is not limited to near-infrared light, and light in an arbitrary band can be adopted.

図1をさらに参照して、サンルーフSRの詳細例について説明する。   With further reference to FIG. 1, a detailed example of the sunroof SR will be described.

サンルーフSRには、ガラス部GBおよびシェード部SBが設けられている。ガラス部GBおよびシェード部SBは、いずれも、車両11の内部に向かって直接照射する車両11の外部の太陽光(以下、外光と称する)を遮ることが可能である。   The sunroof SR is provided with a glass part GB and a shade part SB. Both the glass part GB and the shade part SB can block sunlight outside the vehicle 11 (hereinafter referred to as “external light”) that irradiates directly toward the inside of the vehicle 11.

ここで、サンルーフSRの開閉状態を次のように定義する。すなわち、サンルーフSRの閉状態は、ガラス部GBおよびシェード部SBのうちの少なくとも一方が、外光を遮っている状態と定義する。この状態は、例えば、ガラス部GBおよびシェード部SBのうちの少なくとも一方が、ルーフRFの開口部KK全体を覆っている状態である。サンルーフSRの開状態は、ガラス部GBおよびシェード部SBの両方が、車両11の内部に向かって直接照射する外光を遮っていない状態と定義する。この状態は、例えば、ガラス部GBおよびシェード部SBの両方が、ルーフRFの開口部KKの一部を少なくとも覆っていない状態である。   Here, the open / closed state of the sunroof SR is defined as follows. That is, the closed state of the sunroof SR is defined as a state in which at least one of the glass part GB and the shade part SB blocks outside light. This state is, for example, a state in which at least one of the glass part GB and the shade part SB covers the entire opening KK of the roof RF. The open state of the sunroof SR is defined as a state where both the glass part GB and the shade part SB do not block the external light directly radiating toward the inside of the vehicle 11. This state is a state where, for example, both the glass part GB and the shade part SB do not cover at least a part of the opening KK of the roof RF.

なお、サンルーフSRの開閉状態を切替える手法は特に限定されない。但し、第1実施形態および後述する第2実施形態では、例えば、車載装置35が、ガラス部GBおよびシェード部SBをモータでそれぞれ駆動させることで、サンルーフSRの開閉状態を切替える手法が採用される。この手法では、例えば、車載装置35は、運転者TSの不図示のスイッチ等への操作に基づいてモータを制御する。   The method for switching the open / close state of the sunroof SR is not particularly limited. However, in the first embodiment and the second embodiment to be described later, for example, a method is adopted in which the in-vehicle device 35 switches the open / close state of the sunroof SR by driving the glass part GB and the shade part SB with motors, respectively. . In this method, for example, the in-vehicle device 35 controls the motor based on an operation of the driver TS to a switch (not shown) or the like.

[従来の撮像照明制御手法の説明] [Description of conventional imaging illumination control method]

ここで、本発明の理解を容易にし、且つ、背景を明らかにするため、従来の監視カメラシステムにおける照明部と撮像部の制御手法(以下、従来の制御手法と称する)の一例について説明する。なお、従来の制御手法が適用される監視カメラシステム(従来の監視カメラシステム)は、基本的に、監視カメラシステム21と同一構成である。そこで、以下、監視カメラシステム21の構成要素を用いて説明する。但し、従来の制御手法が適用された監視カメラシステム21には、照度センサ33およびサンルーフスイッチ34が設けられていない点に留意すべきである。   Here, in order to facilitate understanding of the present invention and to clarify the background, an example of a control method (hereinafter referred to as a conventional control method) of an illumination unit and an imaging unit in a conventional surveillance camera system will be described. Note that a surveillance camera system (conventional surveillance camera system) to which a conventional control method is applied basically has the same configuration as the surveillance camera system 21. Therefore, description will be made below using components of the monitoring camera system 21. However, it should be noted that the illuminance sensor 33 and the sunroof switch 34 are not provided in the surveillance camera system 21 to which the conventional control method is applied.

従来の制御手法が適用された監視カメラシステム21が、サンルーフの搭載された車両に用いられると、顔の認識率が低下することがあった。   When the surveillance camera system 21 to which a conventional control method is applied is used in a vehicle equipped with a sunroof, the face recognition rate may be lowered.

例えば、図1の例の車両11を用いて説明すると、サンルーフSRを開けると(サンルーフSRの状態が開状態になると)、運転者TSが外光で照射され、運転者TSの顔に強い陰影が生じる。ところが、従来の制御手法では、運転者TSの顔に強い陰影が生じることは想定されていないため、監視カメラ31による撮像画像にも陰影(光斑)が現れる。このことに起因して、顔の認識率が低下することを本発明人は突き止めた。   For example, the vehicle 11 in the example of FIG. 1 will be described. When the sunroof SR is opened (when the sunroof SR is in the open state), the driver TS is irradiated with external light, and the driver TS has a strong shadow on the face. Occurs. However, in the conventional control method, since it is not assumed that a strong shadow is generated on the face of the driver TS, a shadow (light spot) also appears in the image captured by the monitoring camera 31. The inventor has found that the recognition rate of the face is reduced due to this.

そして、この陰影の影響を少なくするために、本発明人は、次のような照明部と撮像部の制御手法を発明した。すなわち、遮光体(例えば、サンルーフSR)の閉状態が検出された場合、照明部(例えば、照明装置32)に通常光量で照明させ、撮像部(例えば、監視カメラ31)に通常の露光量で撮像させる。そして、遮光体の開状態が検出された場合、照明部に通常光量より多い光量で照明させ、撮像部に通常の露光量より少ない露光量で撮像させる手法を発明した。なお、かかる制御手法は、以下、開閉状態制御手法と称する。以下、本発明の開閉状態制御手法が適用された監視カメラシステム21について説明する。   In order to reduce the influence of the shadow, the present inventors have invented the following control method for the illumination unit and the imaging unit. That is, when the closed state of the light shield (for example, the sunroof SR) is detected, the illumination unit (for example, the illumination device 32) is illuminated with the normal light amount, and the imaging unit (for example, the monitoring camera 31) has the normal exposure amount. Let's take an image. And when the open state of the light-shielding body was detected, the lighting part was made to illuminate with light quantity larger than normal light quantity, and the method of making an imaging part image with exposure amount smaller than normal exposure amount was invented. Such a control method is hereinafter referred to as an open / close state control method. Hereinafter, the surveillance camera system 21 to which the open / close state control method of the present invention is applied will be described.

[本発明の監視カメラシステムの構成例] [Configuration Example of Surveillance Camera System of the Present Invention]

次に、本発明の開閉状態制御手法が適用された監視カメラシステム21の構成例について説明する。   Next, a configuration example of the surveillance camera system 21 to which the open / close state control method of the present invention is applied will be described.

図2は、監視カメラシステム21の構成例を示すブロック図である。   FIG. 2 is a block diagram illustrating a configuration example of the monitoring camera system 21.

監視カメラシステム21の監視カメラ31は、例えば、デジタルカメラ等で構成される。監視カメラ31は、後述する車載装置35の制御に基づいて、車両11の内部の所定の空間を所定の露光時間で撮影する。本実施形態では、例えば、監視カメラ31は、近赤外光に感度を持ち、近赤外光を選択的に受光可能な撮像素子(イメージャ)を有している。   The surveillance camera 31 of the surveillance camera system 21 is composed of, for example, a digital camera. The monitoring camera 31 captures a predetermined space inside the vehicle 11 with a predetermined exposure time based on the control of the in-vehicle device 35 described later. In the present embodiment, for example, the monitoring camera 31 has an imaging device (imager) that has sensitivity to near infrared light and can selectively receive near infrared light.

なお、第1実施形態および後述する第2実施形態では、監視カメラ31の露光量は、監視カメラ31の露光時間で制御されるとする。但し、監視カメラ31の露光量の制御手法は、特に限定されない。すなわち、例えば、監視カメラ31の露光量は、監視カメラ31の絞りで制御されたり、露光時間と絞りの両方で制御されたりしてもよい。   In the first embodiment and the second embodiment to be described later, it is assumed that the exposure amount of the monitoring camera 31 is controlled by the exposure time of the monitoring camera 31. However, the exposure amount control method of the monitoring camera 31 is not particularly limited. That is, for example, the exposure amount of the monitoring camera 31 may be controlled by the diaphragm of the monitoring camera 31, or may be controlled by both the exposure time and the diaphragm.

照明装置32は、後述する車載装置35の制御に基づいて、車両11の内部の所定の空間を所定の光量で照明する。照明装置32は、例えば、近赤外光を発光するLEDを有しており、LEDを発光させることで、近赤外光で照明する。なお、照明装置32の発光体は、LEDに特に限定されず、所望の帯域の光を発するものであれば足りる。   The illuminating device 32 illuminates a predetermined space inside the vehicle 11 with a predetermined amount of light based on control of the in-vehicle device 35 described later. The illumination device 32 includes, for example, an LED that emits near-infrared light, and illuminates with near-infrared light by causing the LED to emit light. Note that the light emitter of the illumination device 32 is not particularly limited to an LED, and may be any light emitter that emits light in a desired band.

なお、第1実施形態および後述する第2実施形態では、監視カメラ31と照明装置32は別々の装置とするが、その他、例えば、監視カメラ31と照明装置32を一体化された1つの装置とすることも可能である。   In the first embodiment and the second embodiment to be described later, the monitoring camera 31 and the lighting device 32 are separate devices. For example, the monitoring camera 31 and the lighting device 32 are integrated into one device. It is also possible to do.

照度センサ33は、フロントウィンドウFGを介して車両11の内部に照射する光の強さを検出することで、外光の強さを検出し、車載装置35に通知する。   The illuminance sensor 33 detects the intensity of external light by detecting the intensity of light radiated to the inside of the vehicle 11 via the front window FG, and notifies the in-vehicle device 35 of the intensity.

サンルーフスイッチ34は、サンルーフSRの開閉状態を検出し、例えば、サンルーフSRの閉状態を検出している場合、そのことを車載装置35に通知する。   The sunroof switch 34 detects the open / closed state of the sunroof SR. For example, when detecting the closed state of the sunroof SR, the sunroof switch 34 notifies the in-vehicle device 35 of this.

なお、第1実施形態および後述する第2実施形態では、サンルーフスイッチ34は、サンルーフSRの閉状態を検出していることを通知するが、その他、例えば、サンルーフSRの開状態を検出していることを通知するようにしてもよい。   In the first embodiment and the second embodiment to be described later, the sunroof switch 34 notifies that the sunroof SR is in the closed state. However, for example, the sunroof SR is in the open state. You may make it notify.

車載装置35は、監視カメラシステム21の各部を制御する。例えば、車載装置35は、照度センサ33およびサンルーフスイッチ34からの通知に基づいて、監視カメラ31および照明装置32を制御する。また、車載装置35は、監視カメラ31により撮像された画像を取得し、その画像に基づいて顔を認識する。車載装置35は、例えば、その認識結果に基づいて、運転者TSの状態を判定し、その判定結果を、ディスプレイ36やスピーカ37を用いて運転者TSに提示する。   The in-vehicle device 35 controls each part of the monitoring camera system 21. For example, the in-vehicle device 35 controls the monitoring camera 31 and the illumination device 32 based on notification from the illuminance sensor 33 and the sunroof switch 34. Moreover, the vehicle-mounted apparatus 35 acquires the image imaged with the monitoring camera 31, and recognizes a face based on the image. For example, the in-vehicle device 35 determines the state of the driver TS based on the recognition result, and presents the determination result to the driver TS using the display 36 or the speaker 37.

次に、車載装置35の構成例について説明する。   Next, a configuration example of the in-vehicle device 35 will be described.

車載装置35には、カメラ照明制御部41、駆動パルス出力部42、画像処理部43、状態判定部44、および出力制御部45が設けられている。   The in-vehicle device 35 includes a camera illumination control unit 41, a drive pulse output unit 42, an image processing unit 43, a state determination unit 44, and an output control unit 45.

カメラ照明制御部41は、照度センサ33およびサンルーフスイッチ34からの通知に基づいて、駆動パルス出力部42の出力する駆動パルスの幅(以下、駆動パルス幅と称する)と、照明装置32の照明光の量(以下、照明光量と称する)を設定する。また、カメラ照明制御部41は、基準画像と照明画像の撮像開始を駆動パルス出力部42に指示する。なお、基準画像とは、照明装置32により照明させたときに監視カメラ31により撮像させることで得られる画像をいう。照明画像とは、照明装置32により消灯させたときに監視カメラ31により撮像させることで得られる画像をいう。   Based on the notification from the illuminance sensor 33 and the sunroof switch 34, the camera illumination control unit 41 outputs the drive pulse width output from the drive pulse output unit 42 (hereinafter referred to as drive pulse width) and the illumination light of the illumination device 32. (Hereinafter referred to as illumination light quantity). Further, the camera illumination control unit 41 instructs the drive pulse output unit 42 to start capturing the reference image and the illumination image. The reference image refers to an image obtained by causing the monitoring camera 31 to capture an image when illuminated by the illumination device 32. The illumination image refers to an image obtained by causing the monitoring camera 31 to capture an image when the illumination device 32 turns off the illumination image.

駆動パルス出力部42は、基準画像の撮像を開始させる場合、設定されている幅の駆動パルスを、監視カメラ31にのみ出力する。駆動パルス出力部42は、照明画像の撮像を開始させる場合、設定されている幅の駆動パルスを、監視カメラ31および照明装置32に出力する。   When starting to capture a reference image, the drive pulse output unit 42 outputs a drive pulse having a set width only to the monitoring camera 31. When starting to capture an illumination image, the drive pulse output unit 42 outputs a drive pulse having a set width to the monitoring camera 31 and the illumination device 32.

画像処理部43は、カメラ照明制御部41の制御により撮像された基準画像および照明画像を監視カメラ31から取得し、所定の画像処理を施すことで、顔を認識し、その認識結果を状態判定部44に供給する。なお、画像処理部43は、顔の認識ができなかった場合、そのことを出力制御部45に通知する。   The image processing unit 43 acquires a reference image and an illumination image captured by the control of the camera illumination control unit 41 from the monitoring camera 31, recognizes a face by performing predetermined image processing, and determines a state of the recognition result. Supplied to the unit 44. If the face cannot be recognized, the image processing unit 43 notifies the output control unit 45 of that.

状態判定部44は、認識結果に基づいて、運転者TSの状態を判定し、判定結果を、出力制御部45に供給する。   The state determination unit 44 determines the state of the driver TS based on the recognition result, and supplies the determination result to the output control unit 45.

出力制御部45は、例えば、判定結果を読み上げる音声の音声信号を作成し、スピーカ37に供給してその音声を出力させる。出力制御部45は、顔の認識ができなかったことが通知された場合、例えば、そのことを示すテキストをディスプレイ36に供給して表示させる。   For example, the output control unit 45 creates an audio signal that reads out the determination result and supplies the audio signal to the speaker 37 to output the audio. When notified that the face could not be recognized, the output control unit 45 supplies, for example, text indicating that fact to the display 36 for display.

次に、画像処理部43の構成例について説明する。   Next, a configuration example of the image processing unit 43 will be described.

画像処理部43には、画像取得部61、差分画像算出部62、陰影検出部63、および顔画像処理部64が設けられている。   The image processing unit 43 includes an image acquisition unit 61, a difference image calculation unit 62, a shadow detection unit 63, and a face image processing unit 64.

画像取得部61は、基準画像および照明画像を監視カメラ31から取得し、差分画像算出部62に供給する。   The image acquisition unit 61 acquires the reference image and the illumination image from the monitoring camera 31 and supplies them to the difference image calculation unit 62.

差分画像算出部62は、照明画像と基準画像の差分画像を算出し、陰影検出部63および顔画像処理部64に供給する。   The difference image calculation unit 62 calculates a difference image between the illumination image and the reference image and supplies the difference image to the shadow detection unit 63 and the face image processing unit 64.

ここで、照明画像と基準画像の差分をとる利点について説明する。   Here, the advantage which takes the difference of an illumination image and a reference | standard image is demonstrated.

[基準画像、照明画像、および差分画像の一例] [Example of reference image, illumination image, and difference image]

図3は、基準画像、照明画像、および差分画像の一例を示す図である。   FIG. 3 is a diagram illustrating an example of the reference image, the illumination image, and the difference image.

図3のAは、基準画像の一例を示す図である。図3のBは、照明画像の一例を示す図である。図3のCは、図3のAの例の基準画像と図3のBの例の照明画像を用いて算出される差分画像の一例を示す図である。   FIG. 3A is a diagram illustrating an example of a reference image. FIG. 3B is a diagram illustrating an example of an illumination image. FIG. 3C is a diagram illustrating an example of a difference image calculated using the reference image of the example of FIG. 3A and the illumination image of the example of FIG. 3B.

図3のA乃至Cの例の基準画像81,照明画像82,差分画像83では、被写体の輪郭が黒線で示されている。また、これらの画像では、画素値の小さい領域は灰色の領域として、画素値の大きい領域は白い領域として、示されている。   In the reference image 81, the illumination image 82, and the difference image 83 in the example of FIGS. 3A to 3C, the outline of the subject is indicated by a black line. In these images, a region with a small pixel value is shown as a gray region, and a region with a large pixel value is shown as a white region.

図3のAの例の基準画像81には、運転者が含まれている。但し、基準画像81では、運転者の領域(以下、運転者領域と称する)TR81の画素値は小さくなっている。運転者の背景の領域(以下、背景領域と称する)の一部の画素値は大きくなっている。   The reference image 81 in the example of FIG. 3A includes a driver. However, in the reference image 81, the pixel value of the driver's region (hereinafter referred to as the driver region) TR81 is small. Some pixel values of the driver's background area (hereinafter referred to as background area) are large.

この例では、サンルーフSRの状態が閉状態であるとする。この場合、運転者TSは、サンルーフSRを介した赤外光でほとんど照射されない。このため、基準画像81では、運転者領域TR81の画素値が小さくなるのである。また、サイドウィンドウSW等を介した近赤外光の強さは弱くない。このため、運転者TSの背景の一部は、サイドウィンドウSW等を介した近赤外光で照射される。この結果、基準画像81では、背景領域の一部の画素値が大きくなるのである。   In this example, it is assumed that the state of the sunroof SR is a closed state. In this case, the driver TS is hardly irradiated with infrared light via the sunroof SR. For this reason, in the reference image 81, the pixel value of the driver area TR81 becomes small. Further, the intensity of near infrared light through the side window SW or the like is not weak. For this reason, a part of the background of the driver TS is irradiated with near-infrared light via the side window SW or the like. As a result, in the reference image 81, some pixel values of the background area are increased.

従って、基準画像81では、運転者領域TR81の絵柄は不明瞭であり、背景の一部の絵柄が残っている。このため、基準画像81をそのまま用いると、顔の認識率は低くなる。   Therefore, in the reference image 81, the pattern of the driver area TR81 is unclear, and a part of the background pattern remains. For this reason, if the reference image 81 is used as it is, the face recognition rate is lowered.

図3のBの例の照明画像82には、運転者が含まれている。照明画像82では、運転者領域TR82のうち顔領域KR82の画素値が大きくなっている。照明画像82の背景領域の画素値は、基準画像81の背景領域の画素値とほぼ一致している。   The driver 82 is included in the illumination image 82 in the example of FIG. 3B. In the illumination image 82, the pixel value of the face area KR82 in the driver area TR82 is large. The pixel value of the background area of the illumination image 82 substantially matches the pixel value of the background area of the reference image 81.

この例では、上述したように、運転者TSは、サンルーフSRを介した赤外光でほとんど照射されない。運転者TSの顔は、照明装置32により強い近赤外光で照明される。このため、照明画像82では、顔領域KR82の画素値が大きくなるのである。また、運転者TSの背景は、照明装置32によりほとんど照明されない。従って、照明画像82の背景領域の画素値は、基準画像81の背景領域の画素値とほぼ一致するのである。   In this example, as described above, the driver TS is hardly irradiated with infrared light through the sunroof SR. The face of the driver TS is illuminated with strong near infrared light by the illumination device 32. For this reason, in the illumination image 82, the pixel value of the face area KR82 increases. Further, the background of the driver TS is hardly illuminated by the lighting device 32. Therefore, the pixel value of the background area of the illumination image 82 substantially matches the pixel value of the background area of the reference image 81.

従って、照明画像82では、不要な背景の絵柄が残っている。よって、照明画像82をそのまま用いると、顔の認識率は低くなる。   Therefore, an unnecessary background pattern remains in the illumination image 82. Therefore, when the illumination image 82 is used as it is, the face recognition rate is lowered.

これらの基準画像81および照明画像82を用いて算出された図3のCの例の差分画像83では、運転者領域TR83のうち顔領域KR83の画素値だけが大きくなっている。   In the difference image 83 in the example of FIG. 3C calculated using the reference image 81 and the illumination image 82, only the pixel value of the face area KR83 in the driver area TR83 is large.

差分画像83では、基準画像81と照明画像82の差分の大きい領域の画素値が大きくなる。このため、差分画像83では、顔領域KR83の画素値が大きくなる。また、差分画像83では、基準画像81と照明画像82の差分の小さい領域の画素値が小さくなる。このため、差分画像83では、背景領域の画素値が小さくなる。これらの結果、顔領域KR83の画素値だけが大きくなるのである。   In the difference image 83, the pixel value of a region where the difference between the reference image 81 and the illumination image 82 is large is large. For this reason, in the difference image 83, the pixel value of the face region KR83 is increased. Further, in the difference image 83, the pixel value of the region where the difference between the reference image 81 and the illumination image 82 is small is small. For this reason, in the difference image 83, the pixel value of a background area becomes small. As a result, only the pixel value of the face area KR83 is increased.

従って、差分画像83では、顔領域TR83の絵柄が明瞭であり、不要な背景の絵柄が除かれている。このため、差分画像83を用いると、顔の認識率は高くなる。   Therefore, in the difference image 83, the pattern of the face region TR83 is clear and unnecessary background patterns are removed. For this reason, if the difference image 83 is used, the recognition rate of a face will become high.

このように、差分画像を利用することで、顔の認識率を向上させることができる。   Thus, the recognition rate of the face can be improved by using the difference image.

なお、図3のBの例の照明画像82において、顔領域KR82内の点線部分、すなわち、まゆげ、まぶたの縁、黒目の縁、鼻の輪郭、口の輪郭の部分の画素値は、顔領域KR82の他の部分に比べて大きくなっている。これに対応して、図3のCの例の差分画像83では、顔領域KR83内の点線部分、すなわち、まゆげ、まぶたの縁、黒目の縁、鼻の輪郭、口の輪郭の部分の画素値は、顔領域KR83の他の部分に比べて大きくなっている。   In the illumination image 82 of the example of FIG. 3B, the pixel values of the dotted line portions in the face region KR82, that is, the eyebrow edge, the eyelid edge, the black eye edge, the nose outline, and the mouth outline part, It is larger than other parts of KR82. Correspondingly, in the difference image 83 in the example of FIG. 3C, the pixel values of the dotted line portion in the face area KR83, that is, the eyebrow, eyelid edge, black eye edge, nose outline, mouth outline part. Is larger than other parts of the face region KR83.

陰影検出部63は、差分画像における陰影の有無を検出する。   The shadow detection unit 63 detects the presence or absence of a shadow in the difference image.

例えば、サンルーフSRの状態が開状態の場合、サンルーフSRを介した近赤外光は弱くない。このため、運転者TSはサンルーフSRを介した近赤外光で照射され、運転者TSの顔にはある程度強い陰影が生じる。ところが、上述したように、照明装置32は通常光量より多い光量で照明するので、差分画像において陰影の影響は少なくなる。しかしながら、差分画像において陰影が完全には除去されずに残ってしまうことがある。陰影検出部63は、そのような陰影の有無を検出するのである。   For example, when the sunroof SR is in the open state, the near-infrared light through the sunroof SR is not weak. For this reason, the driver TS is irradiated with near-infrared light via the sunroof SR, and a certain amount of strong shadow is generated on the face of the driver TS. However, as described above, the illumination device 32 illuminates with a light amount greater than the normal light amount, so that the influence of the shadow is reduced in the difference image. However, the shadow may remain in the difference image without being completely removed. The shadow detection unit 63 detects the presence or absence of such a shadow.

顔画像処理部64は、差分画像または照明画像に対して所定の画像処理を施すことで、顔を認識する顔画像処理を行い、その認識結果を状態判定部44に供給する。顔画像処理部64は、陰影検出部63により陰影有りと検出された差分画像に対して、顔画像処理に代えて、陰影の影響を受けにくい顔画像処理を行う。なぜなら、差分画像に陰影が残っている差分画像に対して通常の顔画像処理を行うと、顔の認識率が低下することがあるからである。なお、陰影の影響を受けにくい顔画像処理の詳細については後述する。   The face image processing unit 64 performs face image processing for recognizing a face by performing predetermined image processing on the difference image or the illumination image, and supplies the recognition result to the state determination unit 44. The face image processing unit 64 performs face image processing that is not easily affected by the shadow, instead of the face image processing, on the difference image detected as having shadow by the shadow detecting unit 63. This is because when the normal face image processing is performed on the difference image in which the shadow remains in the difference image, the face recognition rate may be lowered. Details of face image processing that is not easily affected by shadows will be described later.

[車載装置の処理例] [In-vehicle device processing example]

次に、車載装置35の処理(以下、監視制御処理と称する)の一例について説明する。   Next, an example of processing (hereinafter referred to as monitoring control processing) of the in-vehicle device 35 will be described.

図4および図5は、車載装置35の監視制御処理の一例を説明するためのフローチャートである。   FIGS. 4 and 5 are flowcharts for explaining an example of the monitoring control process of the in-vehicle device 35.

ステップS11において、カメラ照明制御部41は、外光の強さは一定以上か否かを判定する。   In step S <b> 11, the camera illumination control unit 41 determines whether the intensity of external light is equal to or greater than a certain level.

例えば、外光の強さが一定以上でないことが照度センサ33から通知されている場合、ステップS11においてNOであると判定されて、処理はステップS25に進む。なお、ステップS25以降の処理については後述する。   For example, when the illuminance sensor 33 notifies that the intensity of external light is not greater than a certain level, it is determined as NO in Step S11, and the process proceeds to Step S25. The processing after step S25 will be described later.

これに対して、外光の強さが一定以上であることが照度センサ33から通知されている場合、ステップS11においてYESであると判定されて、処理はステップS12に進む。ステップS12において、カメラ照明制御部41は、サンルーフSRの状態が開状態であるか否かを判定する。   On the other hand, when the illuminance sensor 33 notifies that the intensity of external light is greater than or equal to a certain level, it is determined as YES in Step S11, and the process proceeds to Step S12. In step S12, the camera illumination control unit 41 determines whether or not the sunroof SR is in an open state.

例えば、サンルーフSRの閉状態を検出していることがサンルーフスイッチ34から通知されていない場合、ステップS12においてYESであると判定されて、処理はステップS18に進む。なお、ステップS18以降の処理については後述する。   For example, when the sunroof switch 34 has not been notified that the sunroof SR is in the closed state, it is determined as YES in Step S12, and the process proceeds to Step S18. The processing after step S18 will be described later.

これに対して、サンルーフSRの閉状態を検出していることがサンルーフスイッチ34から通知されている場合、ステップS12においてNOであると判定されて、処理はステップS13に進む。ステップS13において、カメラ照明制御部41は、駆動パルス出力部42の駆動パルス幅を通常幅に設定する。   On the other hand, when the sunroof switch 34 notifies that the closed state of the sunroof SR is detected, it is determined as NO in Step S12, and the process proceeds to Step S13. In step S13, the camera illumination control unit 41 sets the drive pulse width of the drive pulse output unit 42 to the normal width.

ステップS14において、カメラ照明制御部41は、照明装置32の照明光量を通常光量に設定する。より具体的には、カメラ照明制御部41は、例えば、照明装置32の照明時にLEDに流す電流値を通常値に設定する。または、照明装置32は、例えば、LEDを複数有しており、カメラ照明制御部41は、照明装置32の照明時に発光させるLEDの個数を通常個数に設定する。   In step S14, the camera illumination control unit 41 sets the illumination light amount of the illumination device 32 to the normal light amount. More specifically, the camera illumination control unit 41 sets, for example, the current value that flows to the LED when the illumination device 32 is illuminated to a normal value. Alternatively, the lighting device 32 includes, for example, a plurality of LEDs, and the camera lighting control unit 41 sets the number of LEDs that emit light when the lighting device 32 is illuminated to a normal number.

ステップS15において、カメラ照明制御部41は、駆動パルス出力部42に基準画像および照明画像の撮像開始を指示する。   In step S15, the camera illumination control unit 41 instructs the drive pulse output unit 42 to start capturing the reference image and the illumination image.

駆動パルス出力部42は、カメラ照明制御部41の指示に基づいて、次に説明する第1および第2の処理をその順番で実行する。   The drive pulse output unit 42 executes first and second processing described below in that order based on an instruction from the camera illumination control unit 41.

まず、駆動パルス出力部42は、第1の処理として、設定されている幅(通常幅)の駆動パルスを監視カメラ31に供給する。監視カメラ31は、駆動パルスに同期して、駆動パルス幅に応じた露光時間(通常の露光時間)で撮像する。照明装置32には駆動パルスが供給されないため、照明装置32は照明しない。従って、基準画像が撮像される。   First, the drive pulse output unit 42 supplies a drive pulse having a set width (normal width) to the monitoring camera 31 as a first process. The monitoring camera 31 captures an image with an exposure time (normal exposure time) corresponding to the drive pulse width in synchronization with the drive pulse. Since the drive pulse is not supplied to the illumination device 32, the illumination device 32 is not illuminated. Accordingly, a reference image is captured.

次に、駆動パルス出力部42は、第2の処理として、設定されている幅(通常幅)の駆動パルスを監視カメラ31および照明装置32に供給する。監視カメラ31は、駆動パルスに同期して、駆動パルス幅に応じた露光時間(通常の露光時間)で撮像する。照明装置32は、駆動パルスに同期して、駆動パルス幅に応じた照明時間(通常の照明時間)で照明する。このため、照明画像が撮像される。   Next, the drive pulse output part 42 supplies the drive pulse of the set width | variety (normal width | variety) to the monitoring camera 31 and the illuminating device 32 as 2nd process. The monitoring camera 31 captures an image with an exposure time (normal exposure time) corresponding to the drive pulse width in synchronization with the drive pulse. The illumination device 32 illuminates with an illumination time (normal illumination time) corresponding to the drive pulse width in synchronization with the drive pulse. For this reason, an illumination image is captured.

このようにして、基準画像および照明画像が撮像される。なお、第1の処理と第2の処理の順番は特に限定されず、例えば、第2の処理,第1の処理の順番とすることも可能である。   In this way, the reference image and the illumination image are captured. Note that the order of the first process and the second process is not particularly limited. For example, the order of the second process and the first process may be used.

なお、第1実施形態および後述する第2実施形態では、照明装置32の照明時間は、監視カメラ31の露出時間とともに可変されているが、その他、例えば、監視カメラ31の最大の露出時間以上の所定の時間に固定されてもよい。   In the first embodiment and the second embodiment to be described later, the illumination time of the illumination device 32 is varied along with the exposure time of the monitoring camera 31, but, for example, other than the maximum exposure time of the monitoring camera 31, for example. It may be fixed at a predetermined time.

ステップS16において、画像処理部43の画像取得部61は、監視カメラ31から撮像画像(基準画像と照明画像)を取得し、差分画像算出部62に供給する。   In step S <b> 16, the image acquisition unit 61 of the image processing unit 43 acquires a captured image (reference image and illumination image) from the monitoring camera 31 and supplies the acquired image to the difference image calculation unit 62.

ステップS17において、差分画像算出部62は、照明画像と基準画像を用いて差分画像を算出し、顔画像処理部64に供給する。その後、処理はステップS29に進む。なお、ステップS29以降の処理については後述する。   In step S <b> 17, the difference image calculation unit 62 calculates a difference image using the illumination image and the reference image and supplies the difference image to the face image processing unit 64. Thereafter, the process proceeds to step S29. The processing after step S29 will be described later.

ところで、上述したように、ステップS12においてYESであると判定されると、処理はステップS18に進む。ステップS18において、カメラ照明制御部41は、駆動パルス出力部42の駆動パルス幅を通常幅より短い幅に設定する。   By the way, as mentioned above, if it determines with it being YES in step S12, a process will progress to step S18. In step S18, the camera illumination control unit 41 sets the drive pulse width of the drive pulse output unit 42 to a width shorter than the normal width.

ステップS19において、カメラ照明制御部41は、照明装置32の照明光量を通常光量より多い光量に設定する。より具体的には、カメラ照明制御部41は、例えば、照明装置32の照明時にLEDに流す電流値を通常値より多い値に設定する。または、照明装置32は、例えば、LEDを複数有しており、カメラ照明制御部41は、照明装置32の照明時に発光させるLEDの個数を通常個数より多い個数に設定する。   In step S19, the camera illumination control unit 41 sets the illumination light amount of the illumination device 32 to a light amount larger than the normal light amount. More specifically, the camera illumination control unit 41 sets, for example, a current value that flows through the LED during illumination of the illumination device 32 to a value greater than a normal value. Alternatively, for example, the illumination device 32 includes a plurality of LEDs, and the camera illumination control unit 41 sets the number of LEDs that emit light when the illumination device 32 is illuminated to a number greater than the normal number.

ステップS20において、カメラ照明制御部41は、駆動パルス出力部42に基準画像および照明画像の撮像開始を指示する。   In step S20, the camera illumination control unit 41 instructs the drive pulse output unit 42 to start capturing the reference image and the illumination image.

駆動パルス出力部42は、カメラ照明制御部41の指示に基づいて、次に説明する第1および第2の処理をその順番で実行する。   The drive pulse output unit 42 executes first and second processing described below in that order based on an instruction from the camera illumination control unit 41.

まず、駆動パルス出力部42は、第1の処理として、設定されている幅(通常幅より短い幅)の駆動パルスを、監視カメラ31に供給する。監視カメラ31は、駆動パルスに同期して、駆動パルス幅に応じた露光時間(通常より短い露光時間)で撮像する。照明装置32には駆動パルスが供給されないため、照明装置32は照明しない。従って、基準画像が撮像される。   First, the drive pulse output unit 42 supplies a drive pulse having a set width (a width shorter than the normal width) to the monitoring camera 31 as a first process. The monitoring camera 31 captures an image with an exposure time (exposure time shorter than normal) according to the drive pulse width in synchronization with the drive pulse. Since the drive pulse is not supplied to the illumination device 32, the illumination device 32 is not illuminated. Accordingly, a reference image is captured.

次に、駆動パルス出力部42は、第2の処理として、設定されている幅(通常幅より短い幅)の駆動パルスを、監視カメラ31および照明装置32に供給する。監視カメラ31は、駆動パルスに同期して、駆動パルス幅に応じた露光時間(通常より短い露光時間)で撮像する。また、照明装置32は、駆動パルスに同期して、駆動パルス幅に応じた照明時間(通常より短い照明時間)で照明する。このため、照明画像が撮像される。   Next, the drive pulse output part 42 supplies the monitoring pulse 31 and the illuminating device 32 with the drive pulse of the set width | variety (width shorter than normal width) as 2nd processing. The monitoring camera 31 captures an image with an exposure time (exposure time shorter than normal) according to the drive pulse width in synchronization with the drive pulse. Further, the illumination device 32 illuminates with an illumination time (an illumination time shorter than usual) according to the drive pulse width in synchronization with the drive pulse. For this reason, an illumination image is captured.

このようにして、基準画像および照明画像が撮像される。なお、第1の処理と第2の処理の順番は特に限定されず、例えば、第2の処理,第1の処理の順番とすることも可能である。   In this way, the reference image and the illumination image are captured. Note that the order of the first process and the second process is not particularly limited. For example, the order of the second process and the first process may be used.

ステップS21において、画像処理部43の画像取得部61は、監視カメラ31から撮像画像(基準画像と照明画像)を取得し、差分画像算出部62に供給する。   In step S <b> 21, the image acquisition unit 61 of the image processing unit 43 acquires a captured image (reference image and illumination image) from the monitoring camera 31 and supplies the acquired image to the difference image calculation unit 62.

ステップS22において、差分画像算出部62は、照明画像と基準画像を用いて差分画像を算出し、陰影検出部63および顔画像処理部64に供給する。   In step S <b> 22, the difference image calculation unit 62 calculates a difference image using the illumination image and the reference image, and supplies the difference image to the shadow detection unit 63 and the face image processing unit 64.

ステップS23において、陰影検出部63は、差分画像における陰影の有無を検出する。なお、陰影の有無の検出手法は特に限定されない。例えば、画像中の所定の2つの領域における輝度差から陰影の有無を検出する手法(例えば、特開2007−112300公報参照)を採用することができる。または、例えば、陰影を作る物体の位置に基づいて陰影の有無を検出する手法(例えば、特開2008−191784公報参照)を採用することができる。   In step S23, the shadow detection unit 63 detects the presence or absence of a shadow in the difference image. In addition, the detection method of the presence or absence of a shadow is not specifically limited. For example, a method of detecting the presence or absence of a shadow from a luminance difference between two predetermined regions in an image (see, for example, JP-A-2007-112300) can be employed. Alternatively, for example, a method of detecting the presence or absence of a shadow based on the position of an object that creates a shadow (see, for example, JP-A-2008-191784) can be employed.

ステップS24において、陰影検出部63は、陰影有りと検出したか否かを判定する。   In step S24, the shadow detection unit 63 determines whether it is detected that there is a shadow.

陰影有りと検出した場合、ステップS24においてYESであると判定されて、処理はステップS30に進む。なお、ステップS30以降の処理については後述する。   When it is detected that there is a shadow, it is determined as YES in Step S24, and the process proceeds to Step S30. The processing after step S30 will be described later.

これに対して、陰影無しと検出した場合、ステップS24においてNOであると判定されて、処理はステップS29に進む。なお、ステップS29以降の処理については後述する。   On the other hand, when it is detected that there is no shadow, it is determined as NO in Step S24, and the process proceeds to Step S29. The processing after step S29 will be described later.

ところで、上述したように、ステップS11においてNOであると判定されると、処理はステップS25に進む。ステップS25およびS26の処理は、それぞれ、ステップS13およびS14の処理と同じである。従って、それらの処理の説明を省略する。   By the way, as mentioned above, when it is determined NO in step S11, the process proceeds to step S25. The processes in steps S25 and S26 are the same as the processes in steps S13 and S14, respectively. Therefore, explanation of these processes is omitted.

ステップS27において、カメラ照明制御部41は、駆動パルス出力部42に照明画像の撮像開始を指示する。   In step S27, the camera illumination control unit 41 instructs the drive pulse output unit 42 to start capturing an illumination image.

駆動パルス出力部42は、カメラ照明制御部41の指示に基づいて、設定されている幅(通常幅)の駆動パルスを、監視カメラ31および照明装置32に供給する。監視カメラ31は、駆動パルスに同期して、駆動パルス幅に応じた露光時間(通常の露光時間)で撮像する。照明装置32は、駆動パルスに同期して、駆動パルス幅に応じた照明時間(通常の照明時間)で照明する。このため、照明画像が撮像される。このようにして、照明画像のみが撮像される。   The drive pulse output unit 42 supplies a drive pulse having a set width (normal width) to the monitoring camera 31 and the illumination device 32 based on an instruction from the camera illumination control unit 41. The monitoring camera 31 captures an image with an exposure time (normal exposure time) corresponding to the drive pulse width in synchronization with the drive pulse. The illumination device 32 illuminates with an illumination time (normal illumination time) corresponding to the drive pulse width in synchronization with the drive pulse. For this reason, an illumination image is captured. In this way, only the illumination image is captured.

例えば、天気が曇りや雨であったり、時間帯が夜間であったり、車両11がトンネル内を走行中であったりすることで、外光の強さが弱い場合、外光に含まれる近赤外光の強さも弱くなっている。従って、サンルーフSRの開閉状態に係わらず、運転者TSおよびその背景は、いずれも、サンルーフSRを介した近赤外光でほとんど照射されない。また、運転者TSの顔は、照明装置32により強い近赤外光で照明される。このため、照明画像では、顔領域の画素値だけが大きくなる。従って、照明画像をそのまま用いて顔を認識することが可能となる。よって、基準画像の撮像は不要となり、そのための制御処理を省くことができる。   For example, if the intensity of external light is weak because the weather is cloudy or rainy, the time zone is nighttime, or the vehicle 11 is traveling in a tunnel, the near red color included in the external light The intensity of outside light is also weakening. Therefore, regardless of the open / closed state of the sunroof SR, the driver TS and the background thereof are hardly irradiated with near-infrared light via the sunroof SR. The face of the driver TS is illuminated with strong near infrared light by the illumination device 32. For this reason, in the illumination image, only the pixel value of the face area increases. Therefore, the face can be recognized using the illumination image as it is. Therefore, it is not necessary to capture the reference image, and control processing for that purpose can be omitted.

ステップS28において、画像処理部43の画像取得部61は、監視カメラ31から撮像画像(照明画像)を取得し、顔画像処理部64に供給する。その後、処理はステップS29に進む。   In step S <b> 28, the image acquisition unit 61 of the image processing unit 43 acquires a captured image (illumination image) from the monitoring camera 31 and supplies it to the face image processing unit 64. Thereafter, the process proceeds to step S29.

ステップS29において、顔画像処理部64は、差分画像または照明画像に対して所定の画像処理を施すことで、顔を認識する顔画像処理を行う。なお、顔画像処理の手法は特に限定されない。但し、第1実施形態および後述する第2実施形態では、顔画像処理の処理手法として、次のような手法が採用される。すなわち、例えば、撮像画像から顔領域を抽出し、顔の向きを求める手法や、その顔領域から目の位置を特定して視線方向を求める手法が採用される(例えば、特開2006−259900公報参照)。その後、処理はステップS31に進む。なお、ステップS31以降の処理については後述する。   In step S29, the face image processing unit 64 performs face image processing for recognizing a face by performing predetermined image processing on the difference image or the illumination image. The face image processing method is not particularly limited. However, in the first embodiment and the second embodiment to be described later, the following method is adopted as the processing method of the face image processing. That is, for example, a method of extracting a face area from a captured image and obtaining a face direction, or a technique of obtaining a gaze direction by specifying an eye position from the face area (for example, Japanese Patent Laid-Open No. 2006-259900). reference). Thereafter, the process proceeds to step S31. The processing after step S31 will be described later.

ところで、上述したように、ステップS24においてYESであると判定されると、処理はステップS30に進む。ステップS30において、顔画像処理部64は、差分画像に対して、陰影の影響を受けにくい顔画像処理を行う。なお、陰影の影響を受けにくい顔画像処理の手法は特に限定されない。但し、第1実施形態および後述する第2実施形態では、陰影の影響を受けにくい顔画像処理の手法として、例えば、次のような手法が採用される。すなわち、陰影で生じる輝度の低下に応じて、顔の器官の位置を求めるための閾値を可変させる手法が採用される(例えば、特開平10−275212号公報を参照)。陰影の影響を受けにくい顔画像処理は、通常の顔画像処理に比べて処理速度がやや遅いが、差分画像に陰影があっても顔を認識することができる。このため、顔の認識率を高めることが可能となる。   By the way, as mentioned above, if it determines with YES in step S24, a process will progress to step S30. In step S <b> 30, the face image processing unit 64 performs face image processing that is not easily affected by the shadow on the difference image. Note that the face image processing method that is not easily affected by the shadow is not particularly limited. However, in the first embodiment and the second embodiment, which will be described later, for example, the following method is adopted as a face image processing method that is not easily affected by shadows. That is, a method is employed in which the threshold value for determining the position of the facial organ is varied in accordance with the decrease in luminance caused by the shadow (see, for example, Japanese Patent Laid-Open No. 10-275212). Face image processing that is less susceptible to shading is slightly slower than normal face image processing, but can recognize a face even if there is a shadow in the difference image. For this reason, the face recognition rate can be increased.

ステップS31において、顔画像処理部64は、顔の認識はできたか否かを判定する。   In step S31, the face image processing unit 64 determines whether the face has been recognized.

例えば、顔の認識結果としての顔の向きや視線方向を求めることができなかった場合、ステップS31においてNOであると判定されて、処理はステップS32に進む。ステップS32において、顔画像処理部64は、顔の認識ができなかったことを出力制御部45に通知する。出力制御部45は、顔の認識ができなかったことを示すテキスト、例えば、「顔の認識ができませんでした」を、ディスプレイ36に供給して表示させる。その後、処理はステップS36に進む。ステップS36以降の処理については後述する。   For example, when the face direction or the line-of-sight direction as the face recognition result cannot be obtained, it is determined as NO in Step S31, and the process proceeds to Step S32. In step S32, the face image processing unit 64 notifies the output control unit 45 that the face could not be recognized. The output control unit 45 supplies the display 36 with text indicating that the face could not be recognized, for example, “face recognition could not be performed” and displays the text. Thereafter, the process proceeds to step S36. The processing after step S36 will be described later.

これに対して、顔の認識結果としての顔の向きや視線方向を求めることができた場合、ステップS31においてYESであると判定されて、処理はステップS33に進む。ステップS33において、顔画像処理部64は、顔の向きや視線方向を状態判定部44に供給する。   On the other hand, when the face direction or the line-of-sight direction as the face recognition result can be obtained, it is determined as YES in Step S31, and the process proceeds to Step S33. In step S <b> 33, the face image processing unit 64 supplies the face direction and the line-of-sight direction to the state determination unit 44.

ステップS34において、状態判定部44は、顔の向きや視線方向に基づいて、運転者TSの状態を判定する。例えば、状態判定部44は、所定の時間以上の間において顔の向きが前方から大幅にずれている場合、運転者TSの状態をわき見状態と判定し、それ以外の場合、運転者TSの状態を通常状態と判定する。または、例えば、状態判定部44は、所定の時間以上の間において視線方向が動かない場合、運転者TSの状態を居眠り状態と判定し、それ以外の場合、運転者TSの状態を通常状態と判定する。状態判定部44は、このような判定結果を出力制御部45に供給する。   In step S34, the state determination unit 44 determines the state of the driver TS based on the face direction and the line-of-sight direction. For example, the state determination unit 44 determines that the state of the driver TS is a look-ahead state when the face direction is greatly deviated from the front for a predetermined time or more, and otherwise, the state of the driver TS Is determined to be in a normal state. Alternatively, for example, the state determination unit 44 determines that the state of the driver TS is a doze state when the line-of-sight direction does not move for a predetermined time or more. In other cases, the state determination unit 44 sets the state of the driver TS to the normal state. judge. The state determination unit 44 supplies such a determination result to the output control unit 45.

ステップS35において、出力制御部45は、例えば、運転者TSの状態がわき見の状態や居眠りの状態という判定結果の場合、それらの判定結果を示すテキスト「わき見をしています」や「居眠りをしています」を読み上げる音声に対応する音声信号を作成する。出力制御部45は、その音声に対応する音声信号をスピーカ37に供給してその音声を出力させる。但し、出力制御部45は、例えば、運転者TSの状態が通常状態という判定結果の場合、音声信号を作成せず、音声を出力させないようにすることもできる。   In step S35, the output control unit 45, for example, in the case of the determination result that the state of the driver TS is a side-by-side state or a dozing state, the texts indicating the determination result “I am doing a side-by-side” or “I do not sleep. Create an audio signal that corresponds to the audio that reads “I am”. The output control unit 45 supplies a sound signal corresponding to the sound to the speaker 37 to output the sound. However, for example, when the determination result indicates that the state of the driver TS is the normal state, the output control unit 45 can also prevent the voice from being output without generating the voice signal.

ステップS36において、カメラ照明制御部41は、処理を終了するか否かを判定する。   In step S36, the camera illumination control unit 41 determines whether or not to end the process.

例えば、図示せぬ操作部を運転者TSが操作することで、カメラ照明制御部41に処理終了の指令が供給された場合、ステップS36においてYESであると判定されて、監視制御処理は終了する。   For example, when the driver TS operates an operation unit (not shown) and a command to end the process is supplied to the camera illumination control unit 41, it is determined as YES in Step S36, and the monitoring control process ends. .

これに対して、カメラ照明制御部41に処理終了の指令が供給されない限り、ステップS36においてNOであると判定されて、処理はステップS11に戻される。   On the other hand, unless a process end command is supplied to the camera illumination control unit 41, it is determined as NO in Step S36, and the process returns to Step S11.

以上のように、監視カメラシステム21は、外光の強さおよびサンルーフSRの開閉状態に応じて、監視カメラ31の露光量、照明装置32の照明光量、および顔画像処理の内容を変更する。これにより、監視カメラシステム21がサンルーフの搭載された車両に用いられると、顔の認識率が向上する。すなわち、監視カメラシステム21は、顔の認識率をより一段と向上させることができる。   As described above, the monitoring camera system 21 changes the exposure amount of the monitoring camera 31, the illumination light amount of the illumination device 32, and the contents of the face image processing according to the intensity of external light and the open / close state of the sunroof SR. Thereby, when the surveillance camera system 21 is used for a vehicle equipped with a sunroof, the face recognition rate is improved. That is, the surveillance camera system 21 can further improve the face recognition rate.

次に、第2実施形態について説明する。   Next, a second embodiment will be described.

上述した監視カメラシステム21では、サンルーフSRの開閉状態を検出する手法として、サンルーフSRの開閉状態をサンルーフSRの閉センサで検出する手法を採用した。但し、サンルーフSRの開閉状態を検出する手法は、この手法に特に限定されない。従って、例えば、車両11の内部の近赤外光の強さを近赤外光センサで検出することで、サンルーフSRの開閉状態を検出する手法を採用することもできる。かかる検出手法が適用された監視カメラシステムについて、図6および図7を参照して説明する。   In the monitoring camera system 21 described above, as a method for detecting the open / closed state of the sunroof SR, a method for detecting the open / closed state of the sunroof SR with the closed sensor of the sunroof SR is adopted. However, the method for detecting the open / closed state of the sunroof SR is not particularly limited to this method. Therefore, for example, a method of detecting the open / closed state of the sunroof SR by detecting the intensity of near infrared light inside the vehicle 11 with a near infrared light sensor can be employed. A surveillance camera system to which such a detection technique is applied will be described with reference to FIGS.

[監視カメラシステムの一例] [Example of surveillance camera system]

図6は、本発明を適用した情報処理システムの第2実施形態としての監視カメラシステムの一例を示す図である。   FIG. 6 is a diagram showing an example of a surveillance camera system as a second embodiment of the information processing system to which the present invention is applied.

なお、図6の例の監視カメラシステム91において、図3の例の監視カメラシステム21における対応する部分には同じ符号を付しており、以下、その説明を適宜省略する。   In the monitoring camera system 91 of the example of FIG. 6, the same reference numerals are given to the corresponding parts in the monitoring camera system 21 of the example of FIG. 3, and the description thereof will be omitted as appropriate.

図6の例の監視カメラシステム91では、図1の例の監視カメラシステム21におけるサンルーフスイッチ34に代えて、近赤外光センサ101が設けられている。   In the monitoring camera system 91 in the example of FIG. 6, a near infrared light sensor 101 is provided instead of the sunroof switch 34 in the monitoring camera system 21 in the example of FIG.

近赤外光センサ101は、例えば、ダッシュボードDB上に設けられている。   The near-infrared light sensor 101 is provided, for example, on the dashboard DB.

サンルーフSRが閉状態の場合、サンルーフSRを介した近赤外光の強さは弱くなる。このため、車両11の内部の近赤外光の強さは弱くなる。これに対して、サンルーフSRが開状態の場合、サンルーフSRを介した近赤外光の強さは強くなる。このため、車両11の内部の近赤外光の強さは強くなる。すなわち、サンルーフSRの開閉状態に応じて、車両11の内部の近赤外光の強さは変化する。従って、近赤外光センサ101は、車両11の内部の近赤外光の強さを検出することで、サンルーフSRの開閉状態を検出することができる。   When the sunroof SR is closed, the intensity of near-infrared light through the sunroof SR is weakened. For this reason, the intensity of the near infrared light inside the vehicle 11 becomes weak. On the other hand, when the sunroof SR is in the open state, the intensity of near infrared light via the sunroof SR is increased. For this reason, the intensity of near infrared light inside the vehicle 11 is increased. That is, the intensity of near-infrared light inside the vehicle 11 changes according to the open / close state of the sunroof SR. Therefore, the near-infrared light sensor 101 can detect the open / closed state of the sunroof SR by detecting the intensity of near-infrared light inside the vehicle 11.

[監視カメラシステムの構成例] [Configuration example of surveillance camera system]

図7は、監視カメラシステム91の構成例を示すブロック図である。   FIG. 7 is a block diagram illustrating a configuration example of the monitoring camera system 91.

近赤外光センサ101は、車両11の内部の近赤外光の強さを検出する。近赤外光センサ101は、近赤外光の強さが一定以下である場合、サンルーフSRが閉状態であると判断し、サンルーフSRが閉状態であることを車載装置35に通知する。このように、近赤外光センサ101は、検出手法は異なるものの、サンルーフスイッチ34と同様に、サンルーフSRの開閉状態を検出することができる。   The near infrared light sensor 101 detects the intensity of near infrared light inside the vehicle 11. If the near-infrared light intensity is below a certain level, the near-infrared light sensor 101 determines that the sunroof SR is in a closed state and notifies the in-vehicle device 35 that the sunroof SR is in a closed state. As described above, the near-infrared light sensor 101 can detect the open / closed state of the sunroof SR, like the sunroof switch 34, although the detection method is different.

以上のように、図6の例の監視カメラシステム91は、図1の例の監視カメラシステム21と同様に、運転者TSの状態を監視することができる。   As described above, the monitoring camera system 91 in the example of FIG. 6 can monitor the state of the driver TS, similarly to the monitoring camera system 21 in the example of FIG.

なお、第1および第2実施形態では、外光の強さとサンルーフSRの開閉状態に応じて各種設定を変更するが、その他、例えば、外光の、車両11に対する照射方向に応じて、各種設定を変更することもできる。例えば、昼頃の外光は、車両11に対して垂直方向に近い方向から照射する。このため、運転者TSは、サンルーフSRを介した強い近赤外光で照射される。これに対して、夕方の外光は、車両11に対して水平方向に近い方向から照射する。このため、運転者TSは、サンルーフSRを介した近赤外光でほとんど照射されない。そこで、外光の、車両11に対する照射方向に応じて、各種設定を変更するのである。なお、外光の、車両11に対する照射方向は、例えば、現在の日付や時刻等に基づいて算出される。   In the first and second embodiments, various settings are changed according to the intensity of external light and the open / closed state of the sunroof SR. In addition, for example, various settings are set according to the irradiation direction of external light with respect to the vehicle 11. Can also be changed. For example, external light around the day is emitted from the direction close to the vertical direction with respect to the vehicle 11. For this reason, the driver TS is irradiated with strong near-infrared light via the sunroof SR. On the other hand, evening outdoor light irradiates the vehicle 11 from a direction close to the horizontal direction. For this reason, the driver TS is hardly irradiated with near-infrared light via the sunroof SR. Therefore, various settings are changed according to the irradiation direction of external light to the vehicle 11. In addition, the irradiation direction with respect to the vehicle 11 of external light is calculated based on the present date, time, etc., for example.

また、第1および第2実施形態では、遮光体として、サンルーフを採用したが、その他、例えば、サイドウィンドウやリアウィンドウ、オープンカーの屋根等を採用することもできる。   In the first and second embodiments, the sunroof is employed as the light shielding body. However, for example, a side window, a rear window, an open car roof, and the like can be employed.

第1および第2実施形態では、監視カメラシステムは車両の内部に設けられているが、その他、列車や船舶といった様々な乗物の内部に設けることも可能である。   In the first and second embodiments, the surveillance camera system is provided inside the vehicle, but can also be provided inside various vehicles such as trains and ships.

[ハードウェアの構成例] [Hardware configuration example]

上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、プログラム記録媒体からインストールされる。このプログラムは、例えば、専用のハードウェアに組み込まれているコンピュータにインストールされる。または、このプログラムは、各種のプログラムをインストールすることで各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等にインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed from a program recording medium. This program is installed in, for example, a computer incorporated in dedicated hardware. Alternatively, this program is installed in, for example, a general-purpose personal computer that can execute various functions by installing various programs.

図8は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。   FIG. 8 is a block diagram illustrating an example of a hardware configuration of a computer that executes the above-described series of processes using a program.

コンピュータにおいて、CPU201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。   In the computer, a CPU 201, a ROM (Read Only Memory) 202, and a RAM (Random Access Memory) 203 are connected to each other via a bus 204.

バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロホン等よりなる入力部206、ディスプレイ、スピーカ等よりなる出力部207、ハードディスクや不揮発性のメモリ等よりなる記憶部208が接続されている。さらに、入出力インタフェース205には、ネットワークインタフェース等よりなる通信部209、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア211を駆動するドライブ210が接続されている。   An input / output interface 205 is further connected to the bus 204. Connected to the input / output interface 205 are an input unit 206 made up of a keyboard, mouse, microphone, etc., an output unit 207 made up of a display, a speaker, etc., and a storage unit 208 made up of a hard disk, a non-volatile memory, or the like. Furthermore, the input / output interface 205 is connected to a communication unit 209 including a network interface and the like, and a drive 210 that drives a removable medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。   In the computer configured as described above, the CPU 201 loads, for example, the program stored in the storage unit 208 to the RAM 203 via the input / output interface 205 and the bus 204 and executes the program. Is performed.

コンピュータ(CPU201)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)であるリムーバブルメディア211に記録して提供される。プログラムは、パッケージメディアであるリムーバブルメディア211に記録して提供される。なお、パッケージメディアとしては、光ディスク(CD−ROM(Compact Disc−Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリ等が用いられる。あるいは、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。   The program executed by the computer (CPU 201) is provided by being recorded on the removable medium 211 that is a magnetic disk (including a flexible disk), for example. The program is provided by being recorded on a removable medium 211 that is a package medium. As the package medium, an optical disc (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disc, or a semiconductor memory is used. Alternatively, the program is provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.

そして、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。   The program can be installed in the storage unit 208 via the input / output interface 205 by attaching the removable medium 211 to the drive 210. The program can be received by the communication unit 209 via a wired or wireless transmission medium and installed in the storage unit 208. In addition, the program can be installed in the ROM 202 or the storage unit 208 in advance.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

本発明の実施形態は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   Embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

11 車両, 21 監視カメラシステム, 31 監視カメラ, 32 照明装置, 33 照度センサ, 34 サンルーフスイッチ, 35 車載装置, 36 ディスプレイ, 37 スピーカ, 41 カメラ照明制御部, 42 駆動パルス出力部, 43 画像処理部, 44 状態判定部, 45 出力制御部, 61 画像取得部, 62 差分画像算出部, 63 陰影検出部, 64 顔画像処理部, 91 監視カメラシステム, 101 近赤外光センサ, 201 CPU, 202 ROM, 203 RAM, 204 バス, 205 入出力インタフェース, 206 入力部, 207 出力部, 208 記憶部, 209 通信部, 210 ドライブ, 211 リムーバブルメディア   DESCRIPTION OF SYMBOLS 11 Vehicle, 21 Surveillance camera system, 31 Surveillance camera, 32 Illumination device, 33 Illuminance sensor, 34 Sunroof switch, 35 In-vehicle device, 36 Display, 37 Speaker, 41 Camera illumination control part, 42 Drive pulse output part, 43 Image processing part , 44 state determination unit, 45 output control unit, 61 image acquisition unit, 62 difference image calculation unit, 63 shadow detection unit, 64 face image processing unit, 91 surveillance camera system, 101 near infrared light sensor, 201 CPU, 202 ROM , 203 RAM, 204 bus, 205 input / output interface, 206 input unit, 207 output unit, 208 storage unit, 209 communication unit, 210 drive, 211 removable media

Claims (7)

車両の内部に向かって直接照射する外部の光を遮る機能を有する遮光体の状態として、前記外部の光を遮っている第1の状態、または前記外部の光を遮っていない第2の状態を検出する検出手段と、
照明部による前記車両の内部の照明と、撮像部による前記車両の内部の撮像とを制御する制御手段と、
前記制御手段の制御のもと前記撮像部により撮像された結果得られる第1の画像に基づいて、前記車両内部に存在する人間の顔を認識する認識手段と
を備え、
前記制御手段は、
前記検出手段により前記第1の状態が検出された場合、前記照明部に第1の光量で照明させ、前記撮像部に第1の露光量で撮像させる第1の制御を行い、
前記検出手段により前記第2の状態が検出された場合、前記照明部に前記第1の光量より多い第2の光量で照明させ、前記撮像部に前記第1の露光量より少ない第2の露光量で撮像させる第2の制御を行う
情報処理装置。
As a state of the light blocking body having a function of blocking external light directly irradiated toward the inside of the vehicle, the first state where the external light is blocked or the second state where the external light is not blocked Detecting means for detecting;
Control means for controlling illumination inside the vehicle by the illumination unit and imaging inside the vehicle by the imaging unit;
Recognizing means for recognizing a human face existing inside the vehicle based on a first image obtained as a result of being imaged by the imaging unit under the control of the control means,
The control means includes
When the first state is detected by the detection unit, the first control is performed to cause the illumination unit to illuminate with a first light amount, and to cause the imaging unit to capture an image with a first exposure amount,
When the second state is detected by the detection unit, the illumination unit is illuminated with a second light amount greater than the first light amount, and the imaging unit is exposed to a second exposure less than the first exposure amount. An information processing apparatus that performs second control for capturing an image with a quantity.
前記制御手段は、
前記検出手段により前記第1の状態が検出された場合、前記第1の制御に加えてさらに、前記照明部を消灯させて、前記撮像部に前記第1の露光量で撮像させる第3の制御を行い、
前記検出手段により前記第2の状態が検出された場合、前記第2の制御に加えてさらに、前記照明部を消灯させて、前記撮像部に前記第2の露光量で撮像させる第4の制御を行い、
前記認識手段は、
前記第1の制御または前記第2の制御のもと前記撮像部により撮像された結果得られる画像を前記第1の画像として、前記第3の制御または前記第4の制御のもと前記撮像部により撮像された結果得られる画像を第2の画像として、前記第1の画像と前記第2の画像の差分画像を算出する算出手段と、
前記算出手段により算出された前記差分画像に対して所定の処理を施すことで、前記顔を認識する顔画像処理手段と
を有する
請求項1に記載の情報処理装置。
The control means includes
In the case where the first state is detected by the detection means, in addition to the first control, the illumination unit is further turned off, and the third control for causing the imaging unit to capture an image with the first exposure amount. And
In the case where the second state is detected by the detection means, in addition to the second control, the illumination control unit is further turned off, and a fourth control is performed to cause the imaging unit to capture an image with the second exposure amount. And
The recognition means is
An image obtained as a result of imaging by the imaging unit under the first control or the second control is used as the first image, and the imaging unit under the third control or the fourth control. Calculating means for calculating a difference image between the first image and the second image, using the image obtained as a result of imaging by the second image as a second image;
The information processing apparatus according to claim 1, further comprising: a face image processing unit that recognizes the face by performing a predetermined process on the difference image calculated by the calculation unit.
前記認識手段は、
前記算出手段により算出された前記差分画像における陰影の有無を検出する陰影検出手段
をさらに有し、
前記顔画像処理手段は、
前記陰影検出手段により陰影無しと検出された場合、前記所定の処理として、前記差分画像に対して第1の処理を施し、
前記陰影検出手段により陰影有りと検出された場合、前記所定の処理として、前記第1の処理とは異なる第2の処理を前記差分画像に対して施す
請求項2に記載の情報処理装置。
The recognition means is
A shadow detection means for detecting the presence or absence of a shadow in the difference image calculated by the calculation means;
The face image processing means includes
When it is detected by the shadow detection means that there is no shadow, as the predetermined process, a first process is performed on the difference image,
The information processing apparatus according to claim 2, wherein when the shadow detection unit detects that there is a shadow, the second process different from the first process is performed on the difference image as the predetermined process.
前記遮光体は、近赤外光を遮り、
前記検出手段は、前記車両の内部の近赤外光の強さに基づいて前記第1の状態または前記第2の状態を検出する
請求項1に記載の情報処理装置。
The light blocking body blocks near infrared light,
The information processing apparatus according to claim 1, wherein the detection unit detects the first state or the second state based on intensity of near-infrared light inside the vehicle.
前記車両の外部の光の強さを検出する光検出手段をさらに備え、
前記制御手段は、
前記光検出手段により検出された前記光の強さが閾値を超えた場合、前記第1の制御または前記第2の制御を行い、
前記光検出手段により検出された前記光の強さが閾値以下の場合、前記検出手段により検出された前記遮光体の状態に係わらず、前記第1の制御を行う
請求項1に記載の情報処理装置。
A light detecting means for detecting the intensity of light outside the vehicle;
The control means includes
When the intensity of the light detected by the light detection means exceeds a threshold value, the first control or the second control is performed,
2. The information processing according to claim 1, wherein when the intensity of the light detected by the light detection unit is equal to or less than a threshold value, the first control is performed regardless of a state of the light shielding body detected by the detection unit. apparatus.
情報処理装置が実行するステップとして、
車両の内部に向かって直接照射する外部の光を遮る機能を有する遮光体の状態として、前記外部の光を遮っている第1の状態、または前記外部の光を遮っていない第2の状態を検出する検出ステップと、
照明部による前記車両の内部の照明と、撮像部による前記車両の内部の撮像とを制御する制御ステップと、
前記制御ステップの制御のもと前記撮像部により撮像された結果得られる第1の画像に基づいて、前記車両内部に存在する人間の顔を認識する認識ステップと
を含み、
前記制御ステップには、
前記検出ステップの処理により前記第1の状態が検出された場合、前記照明部に第1の光量で照明させ、前記撮像部に第1の露光量で撮像させる第1の制御を行い、
前記検出ステップの処理により前記第2の状態が検出された場合、前記照明部に前記第1の光量より多い第2の光量で照明させ、前記撮像部に前記第1の露光量より少ない第2の露光量で撮像させる第2の制御を行うステップを含む
情報処理方法。
As steps executed by the information processing apparatus,
As a state of the light blocking body having a function of blocking external light directly irradiated toward the inside of the vehicle, the first state where the external light is blocked or the second state where the external light is not blocked A detection step to detect;
A control step for controlling illumination inside the vehicle by the illumination unit and imaging inside the vehicle by the imaging unit;
Recognizing a human face existing inside the vehicle based on a first image obtained as a result of being imaged by the imaging unit under the control of the control step, and
The control step includes
When the first state is detected by the processing of the detection step, the first control is performed to cause the illumination unit to illuminate with a first light amount, and to cause the imaging unit to capture an image with a first exposure amount,
When the second state is detected by the processing of the detection step, the illumination unit is illuminated with a second light amount greater than the first light amount, and the imaging unit is second less than the first exposure amount. The information processing method including the step which performs the 2nd control made to image with the exposure amount of.
情報処理装置を制御するコンピュータに、
車両の内部に向かって直接照射する外部の光を遮る機能を有する遮光体の状態として、前記外部の光を遮っている第1の状態、または前記外部の光を遮っていない第2の状態を検出する検出ステップと、
照明部による前記車両の内部の照明と、撮像部による前記車両の内部の撮像とを制御する制御ステップと、
前記制御ステップの制御のもと前記撮像部により撮像された結果得られる第1の画像に基づいて、前記車両内部に存在する人間の顔を認識する認識ステップと
を実行させ、
前記コンピュータに、前記制御ステップとして、
前記検出ステップの処理により前記第1の状態が検出された場合、前記照明部に第1の光量で照明させ、前記撮像部に第1の露光量で撮像させる第1の制御を行い、
前記検出ステップの処理により前記第2の状態が検出された場合、前記照明部に前記第1の光量より多い第2の光量で照明させ、前記撮像部に前記第1の露光量より少ない第2の露光量で撮像させる第2の制御を行うステップを実行させる
プログラム。
In the computer that controls the information processing device,
As a state of the light blocking body having a function of blocking external light directly irradiated toward the inside of the vehicle, the first state where the external light is blocked or the second state where the external light is not blocked A detection step to detect;
A control step for controlling illumination inside the vehicle by the illumination unit and imaging inside the vehicle by the imaging unit;
Recognizing a human face existing inside the vehicle based on a first image obtained as a result of being imaged by the imaging unit under the control of the control step; and
In the computer, as the control step,
When the first state is detected by the processing of the detection step, the first control is performed to cause the illumination unit to illuminate with a first light amount, and to cause the imaging unit to capture an image with a first exposure amount,
When the second state is detected by the processing of the detection step, the illumination unit is illuminated with a second light amount greater than the first light amount, and the imaging unit is second less than the first exposure amount. The program which performs the step which performs the 2nd control which images with the exposure amount of.
JP2009060955A 2009-03-13 2009-03-13 Information processing apparatus and method, and program Expired - Fee Related JP5288189B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009060955A JP5288189B2 (en) 2009-03-13 2009-03-13 Information processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009060955A JP5288189B2 (en) 2009-03-13 2009-03-13 Information processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2010215000A JP2010215000A (en) 2010-09-30
JP5288189B2 true JP5288189B2 (en) 2013-09-11

Family

ID=42974314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009060955A Expired - Fee Related JP5288189B2 (en) 2009-03-13 2009-03-13 Information processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP5288189B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5573820B2 (en) * 2011-11-10 2014-08-20 株式会社デンソー Condition monitoring device
JP5994437B2 (en) * 2012-07-04 2016-09-21 株式会社デンソー Vehicle surrounding image display control apparatus and vehicle surrounding image display control program
JP5867355B2 (en) 2012-10-02 2016-02-24 株式会社デンソー Status monitoring device and status monitoring program
US10272850B2 (en) * 2016-07-15 2019-04-30 Ford Global Technologies, Llc Roof mounting for autonomous vehicle sensor assembly
CN112477776B (en) * 2020-11-11 2022-04-29 湖南警察学院 Intelligent face recognition device based on automatic induction type opening and closing

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3520618B2 (en) * 1995-08-16 2004-04-19 日産自動車株式会社 Gaze direction measuring device for vehicles
JP4269998B2 (en) * 2004-03-26 2009-05-27 株式会社デンソー Imaging device
JP2006030880A (en) * 2004-07-21 2006-02-02 Honda Motor Co Ltd Voice recognition device for vehicle and moving body
JP2006180271A (en) * 2004-12-22 2006-07-06 Sony Corp Imaging apparatus, program, and recording medium
JP2007025758A (en) * 2005-07-12 2007-02-01 Gen Tec:Kk Face image extracting method for person, and device therefor
JP4915314B2 (en) * 2007-08-23 2012-04-11 オムロン株式会社 Imaging apparatus and imaging control method

Also Published As

Publication number Publication date
JP2010215000A (en) 2010-09-30

Similar Documents

Publication Publication Date Title
JP5366028B2 (en) Face image capturing device
JP5288189B2 (en) Information processing apparatus and method, and program
US9386231B2 (en) State monitoring apparatus
JP3948431B2 (en) Vehicle periphery monitoring device
JP4888838B2 (en) Driver imaging device and driver imaging method
JP4910802B2 (en) Monitoring device and method, recording medium, and program
JP5761074B2 (en) Imaging control apparatus and program
US9123179B2 (en) Surrounding image display system and surrounding image display method for vehicle
US20120002052A1 (en) Obstacle detection apparatus, obstacle detection system having same, and obstacle detection method
JP6935350B2 (en) Surveillance device and trolley type vehicle
JP2010223685A (en) Imaging apparatus for vehicle
JP2009201756A (en) Information processor and information processing method, and program
JP5441450B2 (en) Vehicle imaging device
JP4397415B2 (en) Image processing method, image processing system, image processing apparatus, and computer program
JP2008296759A (en) Information processor, method, and program
JP2007251555A (en) Diagnostic apparatus and method, program, as well as, recording medium
JP4782491B2 (en) Imaging device
JP2009219042A (en) Vehicle periphery monitoring device
JP4457077B2 (en) Obstacle detection system and obstacle detection method
JP3774448B2 (en) In-vehicle image processing device
JP5436892B2 (en) Vehicle imaging device
JP2005033709A (en) Vehicle perimeter monitoring apparatus
JP5041985B2 (en) In-vehicle imaging device
WO2022024411A1 (en) Infrared image capturing device, and infrared image capturing system
JP7009334B2 (en) Image display device, image display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130522

R150 Certificate of patent or registration of utility model

Ref document number: 5288189

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees