JP5288189B2 - Information processing apparatus and method, and program - Google Patents
Information processing apparatus and method, and program Download PDFInfo
- Publication number
- JP5288189B2 JP5288189B2 JP2009060955A JP2009060955A JP5288189B2 JP 5288189 B2 JP5288189 B2 JP 5288189B2 JP 2009060955 A JP2009060955 A JP 2009060955A JP 2009060955 A JP2009060955 A JP 2009060955A JP 5288189 B2 JP5288189 B2 JP 5288189B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- control
- light
- state
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 83
- 230000010365 information processing Effects 0.000 title claims description 18
- 238000005286 illumination Methods 0.000 claims description 138
- 238000012545 processing Methods 0.000 claims description 62
- 238000001514 detection method Methods 0.000 claims description 43
- 238000003384 imaging method Methods 0.000 claims description 39
- 230000000903 blocking effect Effects 0.000 claims description 12
- 238000003672 processing method Methods 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 description 59
- 238000010586 diagram Methods 0.000 description 12
- 239000011521 glass Substances 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 235000002673 Dioscorea communis Nutrition 0.000 description 2
- 241000544230 Dioscorea communis Species 0.000 description 2
- 208000035753 Periorbital contusion Diseases 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Image Input (AREA)
Description
本発明は、情報処理装置及び方法、並びにプログラムに関し、特に、顔の認識率をより一段と向上させた情報処理装置及び方法、並びにプログラムに関する。 The present invention relates to an information processing device and method, and a program, and more particularly, to an information processing device and method, and a program that further improve the face recognition rate.
従来、車両を運転している運転者の状態をカメラで監視する監視カメラシステムが存在する(例えば、特許文献1参照)。かかる監視カメラシステムは、車両の内部を含む画像を監視カメラで撮像し、撮像された画像から顔を認識する。 2. Description of the Related Art Conventionally, there is a surveillance camera system that monitors the state of a driver driving a vehicle with a camera (see, for example, Patent Document 1). Such a monitoring camera system captures an image including the inside of a vehicle with a monitoring camera, and recognizes a face from the captured image.
しかしながら、従来の監視カメラシステムが、サンルーフの搭載された車両に用いられると、顔の認識率が低下することがあった。 However, when a conventional surveillance camera system is used in a vehicle equipped with a sunroof, the face recognition rate may be reduced.
本発明は、このような状況に鑑みてなされたものであり、顔の認識率をより一段と向上させるものである。 The present invention has been made in view of such a situation, and further improves the face recognition rate.
本発明の一側面の情報処理装置は、車両の内部に向かって直接照射する外部の光を遮る機能を有する遮光体の状態として、外部の光を遮っている第1の状態、または外部の光を遮っていない第2の状態を検出する検出手段と、照明部による車両の内部の照明と、撮像部による車両の内部の撮像とを制御する制御手段と、制御手段の制御のもと撮像部により撮像された結果得られる第1の画像に基づいて、車両内部に存在する人間の顔を認識する認識手段とを備え、制御手段は、検出手段により第1の状態が検出された場合、照明部に第1の光量で照明させ、撮像部に第1の露光量で撮像させる第1の制御を行い、検出手段により第2の状態が検出された場合、照明部に第1の光量より多い第2の光量で照明させ、撮像部に第1の露光量より少ない第2の露光量で撮像させる第2の制御を行う。 An information processing device according to one aspect of the present invention includes a first state in which external light is blocked, or external light as a state of a light blocking body having a function of blocking external light that is directly irradiated toward the inside of a vehicle. Detecting means for detecting a second state that does not block the light, control means for controlling the interior lighting of the vehicle by the illumination section, and imaging of the interior of the vehicle by the imaging section, and the imaging section under the control of the control means And a recognition means for recognizing a human face existing inside the vehicle based on the first image obtained as a result of being imaged by the control means, and when the first state is detected by the detection means, the control means If the second state is detected by the detection means, the illumination unit has more light than the first light amount. Illuminate with the second amount of light and cause the imaging unit to be less than the first exposure amount Performing second control for the imaging in the second exposure are.
本発明の一側面の情報処理装置においては、車両の内部に向かって直接照射する外部の光を遮る機能を有する遮光体の状態として、外部の光を遮っている第1の状態、または外部の光を遮っていない第2の状態が検出され、照明部による車両の内部の照明と、撮像部による車両の内部の撮像とが制御され、その制御のもと撮像部により撮像された結果得られる第1の画像に基づいて、車両内部に存在する人間の顔が認識される。第1の状態が検出された場合、照明部に第1の光量で照明させ、撮像部に第1の露光量で撮像させる第1の制御が行われ、第2の状態が検出された場合、照明部に第1の光量より多い第2の光量で照明させ、撮像部に第1の露光量より少ない第2の露光量で撮像させる第2の制御が行われる。 In the information processing apparatus according to one aspect of the present invention, as the state of the light blocking body having a function of blocking the external light directly irradiated toward the inside of the vehicle, the first state where the external light is blocked, or the external state The second state where the light is not blocked is detected, and the illumination inside the vehicle by the illumination unit and the imaging inside the vehicle by the imaging unit are controlled, and the result obtained by the imaging unit under the control is obtained. Based on the first image, a human face existing inside the vehicle is recognized. When the first state is detected, the first control is performed to cause the illumination unit to illuminate with the first light amount, and the imaging unit to capture an image with the first exposure amount. When the second state is detected, A second control is performed in which the illumination unit is illuminated with a second light amount greater than the first light amount, and the imaging unit is imaged with a second exposure amount that is less than the first exposure amount.
これにより、顔の認識率をより一段と向上させることができる。 Thereby, the face recognition rate can be further improved.
検出手段は、例えば、サンルーフスイッチで構成される。認識手段および制御手段は、例えば、CPU(Central Processing Unit)で構成される。 The detection means is composed of, for example, a sunroof switch. The recognition means and the control means are constituted by, for example, a CPU (Central Processing Unit).
制御手段は、検出手段により第1の状態が検出された場合、第1の制御に加えてさらに、照明部を消灯させて、撮像部に第1の露光量で撮像させる第3の制御を行い、検出手段により第2の状態が検出された場合、第2の制御に加えてさらに、照明部を消灯させて、撮像部に第2の露光量で撮像させる第4の制御を行い、認識手段は、第1の制御または第2の制御のもと撮像部により撮像された結果得られる画像を第1の画像として、第3の制御または第4の制御のもと撮像部により撮像された結果得られる画像を第2の画像として、第1の画像と第2の画像の差分画像を算出する算出手段と、算出手段により算出された差分画像に対して所定の処理を施すことで、顔を認識する顔画像処理手段とを有することができる。 When the first state is detected by the detection unit, the control unit further performs a third control for causing the imaging unit to capture an image with the first exposure amount in addition to the first control. When the second state is detected by the detection unit, in addition to the second control, the illumination unit is turned off, and a fourth control for causing the imaging unit to capture an image with the second exposure amount is performed. The image obtained by the image pickup unit under the first control or the second control is the image obtained by the image pickup unit under the third control or the fourth control. By using the obtained image as a second image, a calculation unit that calculates a difference image between the first image and the second image, and by performing predetermined processing on the difference image calculated by the calculation unit, Recognizing face image processing means.
これにより、顔の認識率をより一段と向上させることができる。 Thereby, the face recognition rate can be further improved.
検出手段は、例えば、サンルーフスイッチで構成される。認識手段および制御手段は、例えば、CPUで構成される。 The detection means is composed of, for example, a sunroof switch. The recognition means and the control means are constituted by a CPU, for example.
認識手段は、算出手段により算出された差分画像における陰影の有無を検出する陰影検出手段をさらに有し、顔画像処理手段は、陰影検出手段により陰影無しと検出された場合、所定の処理として、差分画像に対して第1の処理を施し、陰影検出手段により陰影有りと検出された場合、所定の処理として、第1の処理とは異なる第2の処理を差分画像に対して施すことができる。 The recognition means further includes a shadow detection means for detecting the presence or absence of a shadow in the difference image calculated by the calculation means, and the face image processing means, when the shadow detection means detects no shadow, as a predetermined process, When the first process is performed on the difference image and the shadow detection unit detects that there is a shadow, a second process different from the first process can be performed on the difference image as a predetermined process. .
これにより、顔の認識率をより一段と向上させることができる。 Thereby, the face recognition rate can be further improved.
遮光体は、近赤外光を遮り、検出手段は、車両の内部の近赤外光の強さに基づいて第1の状態または第2の状態を検出することができる。 The light blocking body blocks near-infrared light, and the detection means can detect the first state or the second state based on the intensity of near-infrared light inside the vehicle.
これにより、顔の認識をより簡単に行うことができる。 Thereby, the face can be recognized more easily.
車両の外部の光の強さを検出する光検出手段をさらに備え、制御手段は、光検出手段により検出された光の強さが閾値を超えた場合、第1の制御または第2の制御を行い、光検出手段により検出された光の強さが閾値以下の場合、検出手段により検出された遮光体の状態に係わらず、第1の制御を行うことができる。 The apparatus further includes light detection means for detecting the intensity of light outside the vehicle, and the control means performs the first control or the second control when the light intensity detected by the light detection means exceeds a threshold value. If the intensity of the light detected by the light detection means is equal to or less than the threshold value, the first control can be performed regardless of the state of the light shield detected by the detection means.
これにより、顔の認識をより簡単に行うことができる。 Thereby, the face can be recognized more easily.
光検出手段は、例えば、照度センサで構成される。 The light detection means is composed of, for example, an illuminance sensor.
本発明の一側面の情報処理方法およびプログラムは、上述した本発明の一側面の情報処理装置に対応する方法およびプログラムである。 An information processing method and program according to one aspect of the present invention are a method and program corresponding to the information processing apparatus according to one aspect of the present invention described above.
本発明によれば、顔の認識率をより一段と向上させることができる。 According to the present invention, the face recognition rate can be further improved.
以下、図面を参照して、本発明を適用した情報処理システムの実施形態として、2つの実施形態(以下、それぞれ第1および第2実施形態と称する)について説明する。よって、説明は以下の順序で行う。
1.第1実施形態(サンルーフの開閉状態をサンルーフセンサで検出する例)
2.第2実施形態(サンルーフの開閉状態を近赤外光センサで検出する例)
Hereinafter, two embodiments (hereinafter, referred to as first and second embodiments, respectively) will be described as embodiments of an information processing system to which the present invention is applied, with reference to the drawings. Therefore, description will be given in the following order.
1. First Embodiment (Example of detecting sunroof opening / closing state with sunroof sensor)
2. Second Embodiment (Example of Detecting Open / Closed State of Sunroof with Near Infrared Light Sensor)
<1.第1実施形態> <1. First Embodiment>
[監視カメラシステムの構成例] [Configuration example of surveillance camera system]
図1は、本発明を適用した情報処理システムの第1実施形態としての監視カメラシステムの一例を示す図である。 FIG. 1 is a diagram showing an example of a surveillance camera system as a first embodiment of an information processing system to which the present invention is applied.
なお、本明細書において、システムの用語は、複数の装置、手段等より構成される全体的な装置を意味するものとする。即ち、監視カメラシステムを、1つの装置と把握することも可能である。 In the present specification, the term “system” means an overall apparatus composed of a plurality of apparatuses and means. That is, it is possible to grasp the monitoring camera system as one device.
図1の例の監視カメラシステム21は、車両11の内部に設けられている。
The
図1の例では、図中左方向が車両11の前方となっている。そこで、図の記述に従って、以下、図中左方向を前方と称し、さらに、図中上方向を上方と称し、図中手前および奥の方向を側方と称して、説明を行う。
In the example of FIG. 1, the left direction in the figure is the front of the
図1は、車両11の車室SSの一例を示す図である。
FIG. 1 is a diagram illustrating an example of a compartment SS of the
図1の例では、車室SSは、フロントウィンドウFGやルーフRF等で形成されている。フロントウィンドウFGは、車室SSの前方上部を覆っている。ルーフRFは、車室SSの上部を形成している。ルーフRFには、サンルーフSRが設けられている。図示せぬサイドウィンドウSWは、車室SSの側方上部を形成している。 In the example of FIG. 1, the passenger compartment SS is formed of a front window FG, a roof RF, and the like. The front window FG covers the upper front part of the passenger compartment SS. The roof RF forms the upper part of the passenger compartment SS. The roof RF is provided with a sunroof SR. A side window SW (not shown) forms the side upper part of the passenger compartment SS.
車室SSの内部のやや前方には、運転席USが設けられている。運転席USは、例えば、サンルーフSRの下方に位置している。運転席USの前方には、ハンドルHDと、ダッシュボードDBが設けられている。ダッシュボードDBは、フロントウィンドウFGの下方に位置している。 A driver's seat US is provided slightly in front of the passenger compartment SS. The driver's seat US is located below the sunroof SR, for example. In front of the driver's seat US, a handle HD and a dashboard DB are provided. The dashboard DB is located below the front window FG.
運転者TSは、例えば、前方を向いて運転席USに座り、車両11を運転している。例えば、運転者TSの頭は、運転席USのヘッドレストHRの付近に位置している。
For example, the driver TS is facing the front, sitting in the driver's seat US, and driving the
以上に説明した車室SSを有する車両11の内部に、監視カメラシステム21は設けられている。監視カメラシステム21には、監視カメラ31、LED(Light Emitting Diode)照明装置32、および照度センサ33が設けられている。監視カメラシステム21にはまた、サンルーフスイッチ34、車載装置35、ディスプレイ36、およびスピーカ37が設けられている。車載装置35には、監視カメラ31、照明装置32、照度センサ33、サンルーフスイッチ34、ディスプレイ36、およびスピーカ37が接続されている。
The
監視カメラ31および照明装置32は、例えば、ハンドルHDの付近に配置されている。照度センサ33は、例えば、ダッシュボードDB上に配置されている。サンルーフスイッチ34は、サンルーフSRの付近に配置されている。車載装置35は、車両11の内部の任意の位置に配置可能である。ディスプレイ36およびスピーカ37は、例えば、ダッシュボードDB上に配置されている。
The monitoring
監視カメラシステム21は、車両11の内部の所定の空間(例えば、ヘッドレストHRの付近)を照明装置32により強い光で照明させ、監視カメラ31により車両11の内部の所定の空間(例えば、ヘッドレストHRの付近)を撮像させる。監視カメラシステム21は、撮像された画像に基づいて顔を認識する。監視カメラシステム21は、例えば、その認識結果に基づいて、運転者TSの状態を判定し、その判定結果を、ディスプレイ36やスピーカ37を用いて運転者TSに提示する。このようにして、監視カメラシステム21は、運転者TSの状態を監視する。
The
なお、第1実施形態および後述する第2実施形態では、照明装置32による照明の光として、近赤外光を採用する。但し、照明装置32による照明の光は、近赤外光に限定されず、任意の帯域の光を採用することができる。
In the first embodiment and the second embodiment to be described later, near-infrared light is used as illumination light by the
図1をさらに参照して、サンルーフSRの詳細例について説明する。 With further reference to FIG. 1, a detailed example of the sunroof SR will be described.
サンルーフSRには、ガラス部GBおよびシェード部SBが設けられている。ガラス部GBおよびシェード部SBは、いずれも、車両11の内部に向かって直接照射する車両11の外部の太陽光(以下、外光と称する)を遮ることが可能である。
The sunroof SR is provided with a glass part GB and a shade part SB. Both the glass part GB and the shade part SB can block sunlight outside the vehicle 11 (hereinafter referred to as “external light”) that irradiates directly toward the inside of the
ここで、サンルーフSRの開閉状態を次のように定義する。すなわち、サンルーフSRの閉状態は、ガラス部GBおよびシェード部SBのうちの少なくとも一方が、外光を遮っている状態と定義する。この状態は、例えば、ガラス部GBおよびシェード部SBのうちの少なくとも一方が、ルーフRFの開口部KK全体を覆っている状態である。サンルーフSRの開状態は、ガラス部GBおよびシェード部SBの両方が、車両11の内部に向かって直接照射する外光を遮っていない状態と定義する。この状態は、例えば、ガラス部GBおよびシェード部SBの両方が、ルーフRFの開口部KKの一部を少なくとも覆っていない状態である。
Here, the open / closed state of the sunroof SR is defined as follows. That is, the closed state of the sunroof SR is defined as a state in which at least one of the glass part GB and the shade part SB blocks outside light. This state is, for example, a state in which at least one of the glass part GB and the shade part SB covers the entire opening KK of the roof RF. The open state of the sunroof SR is defined as a state where both the glass part GB and the shade part SB do not block the external light directly radiating toward the inside of the
なお、サンルーフSRの開閉状態を切替える手法は特に限定されない。但し、第1実施形態および後述する第2実施形態では、例えば、車載装置35が、ガラス部GBおよびシェード部SBをモータでそれぞれ駆動させることで、サンルーフSRの開閉状態を切替える手法が採用される。この手法では、例えば、車載装置35は、運転者TSの不図示のスイッチ等への操作に基づいてモータを制御する。
The method for switching the open / close state of the sunroof SR is not particularly limited. However, in the first embodiment and the second embodiment to be described later, for example, a method is adopted in which the in-
[従来の撮像照明制御手法の説明] [Description of conventional imaging illumination control method]
ここで、本発明の理解を容易にし、且つ、背景を明らかにするため、従来の監視カメラシステムにおける照明部と撮像部の制御手法(以下、従来の制御手法と称する)の一例について説明する。なお、従来の制御手法が適用される監視カメラシステム(従来の監視カメラシステム)は、基本的に、監視カメラシステム21と同一構成である。そこで、以下、監視カメラシステム21の構成要素を用いて説明する。但し、従来の制御手法が適用された監視カメラシステム21には、照度センサ33およびサンルーフスイッチ34が設けられていない点に留意すべきである。
Here, in order to facilitate understanding of the present invention and to clarify the background, an example of a control method (hereinafter referred to as a conventional control method) of an illumination unit and an imaging unit in a conventional surveillance camera system will be described. Note that a surveillance camera system (conventional surveillance camera system) to which a conventional control method is applied basically has the same configuration as the
従来の制御手法が適用された監視カメラシステム21が、サンルーフの搭載された車両に用いられると、顔の認識率が低下することがあった。
When the
例えば、図1の例の車両11を用いて説明すると、サンルーフSRを開けると(サンルーフSRの状態が開状態になると)、運転者TSが外光で照射され、運転者TSの顔に強い陰影が生じる。ところが、従来の制御手法では、運転者TSの顔に強い陰影が生じることは想定されていないため、監視カメラ31による撮像画像にも陰影(光斑)が現れる。このことに起因して、顔の認識率が低下することを本発明人は突き止めた。
For example, the
そして、この陰影の影響を少なくするために、本発明人は、次のような照明部と撮像部の制御手法を発明した。すなわち、遮光体(例えば、サンルーフSR)の閉状態が検出された場合、照明部(例えば、照明装置32)に通常光量で照明させ、撮像部(例えば、監視カメラ31)に通常の露光量で撮像させる。そして、遮光体の開状態が検出された場合、照明部に通常光量より多い光量で照明させ、撮像部に通常の露光量より少ない露光量で撮像させる手法を発明した。なお、かかる制御手法は、以下、開閉状態制御手法と称する。以下、本発明の開閉状態制御手法が適用された監視カメラシステム21について説明する。
In order to reduce the influence of the shadow, the present inventors have invented the following control method for the illumination unit and the imaging unit. That is, when the closed state of the light shield (for example, the sunroof SR) is detected, the illumination unit (for example, the illumination device 32) is illuminated with the normal light amount, and the imaging unit (for example, the monitoring camera 31) has the normal exposure amount. Let's take an image. And when the open state of the light-shielding body was detected, the lighting part was made to illuminate with light quantity larger than normal light quantity, and the method of making an imaging part image with exposure amount smaller than normal exposure amount was invented. Such a control method is hereinafter referred to as an open / close state control method. Hereinafter, the
[本発明の監視カメラシステムの構成例] [Configuration Example of Surveillance Camera System of the Present Invention]
次に、本発明の開閉状態制御手法が適用された監視カメラシステム21の構成例について説明する。
Next, a configuration example of the
図2は、監視カメラシステム21の構成例を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration example of the
監視カメラシステム21の監視カメラ31は、例えば、デジタルカメラ等で構成される。監視カメラ31は、後述する車載装置35の制御に基づいて、車両11の内部の所定の空間を所定の露光時間で撮影する。本実施形態では、例えば、監視カメラ31は、近赤外光に感度を持ち、近赤外光を選択的に受光可能な撮像素子(イメージャ)を有している。
The
なお、第1実施形態および後述する第2実施形態では、監視カメラ31の露光量は、監視カメラ31の露光時間で制御されるとする。但し、監視カメラ31の露光量の制御手法は、特に限定されない。すなわち、例えば、監視カメラ31の露光量は、監視カメラ31の絞りで制御されたり、露光時間と絞りの両方で制御されたりしてもよい。
In the first embodiment and the second embodiment to be described later, it is assumed that the exposure amount of the
照明装置32は、後述する車載装置35の制御に基づいて、車両11の内部の所定の空間を所定の光量で照明する。照明装置32は、例えば、近赤外光を発光するLEDを有しており、LEDを発光させることで、近赤外光で照明する。なお、照明装置32の発光体は、LEDに特に限定されず、所望の帯域の光を発するものであれば足りる。
The illuminating
なお、第1実施形態および後述する第2実施形態では、監視カメラ31と照明装置32は別々の装置とするが、その他、例えば、監視カメラ31と照明装置32を一体化された1つの装置とすることも可能である。
In the first embodiment and the second embodiment to be described later, the monitoring
照度センサ33は、フロントウィンドウFGを介して車両11の内部に照射する光の強さを検出することで、外光の強さを検出し、車載装置35に通知する。
The
サンルーフスイッチ34は、サンルーフSRの開閉状態を検出し、例えば、サンルーフSRの閉状態を検出している場合、そのことを車載装置35に通知する。
The
なお、第1実施形態および後述する第2実施形態では、サンルーフスイッチ34は、サンルーフSRの閉状態を検出していることを通知するが、その他、例えば、サンルーフSRの開状態を検出していることを通知するようにしてもよい。
In the first embodiment and the second embodiment to be described later, the
車載装置35は、監視カメラシステム21の各部を制御する。例えば、車載装置35は、照度センサ33およびサンルーフスイッチ34からの通知に基づいて、監視カメラ31および照明装置32を制御する。また、車載装置35は、監視カメラ31により撮像された画像を取得し、その画像に基づいて顔を認識する。車載装置35は、例えば、その認識結果に基づいて、運転者TSの状態を判定し、その判定結果を、ディスプレイ36やスピーカ37を用いて運転者TSに提示する。
The in-
次に、車載装置35の構成例について説明する。
Next, a configuration example of the in-
車載装置35には、カメラ照明制御部41、駆動パルス出力部42、画像処理部43、状態判定部44、および出力制御部45が設けられている。
The in-
カメラ照明制御部41は、照度センサ33およびサンルーフスイッチ34からの通知に基づいて、駆動パルス出力部42の出力する駆動パルスの幅(以下、駆動パルス幅と称する)と、照明装置32の照明光の量(以下、照明光量と称する)を設定する。また、カメラ照明制御部41は、基準画像と照明画像の撮像開始を駆動パルス出力部42に指示する。なお、基準画像とは、照明装置32により照明させたときに監視カメラ31により撮像させることで得られる画像をいう。照明画像とは、照明装置32により消灯させたときに監視カメラ31により撮像させることで得られる画像をいう。
Based on the notification from the
駆動パルス出力部42は、基準画像の撮像を開始させる場合、設定されている幅の駆動パルスを、監視カメラ31にのみ出力する。駆動パルス出力部42は、照明画像の撮像を開始させる場合、設定されている幅の駆動パルスを、監視カメラ31および照明装置32に出力する。
When starting to capture a reference image, the drive
画像処理部43は、カメラ照明制御部41の制御により撮像された基準画像および照明画像を監視カメラ31から取得し、所定の画像処理を施すことで、顔を認識し、その認識結果を状態判定部44に供給する。なお、画像処理部43は、顔の認識ができなかった場合、そのことを出力制御部45に通知する。
The
状態判定部44は、認識結果に基づいて、運転者TSの状態を判定し、判定結果を、出力制御部45に供給する。
The
出力制御部45は、例えば、判定結果を読み上げる音声の音声信号を作成し、スピーカ37に供給してその音声を出力させる。出力制御部45は、顔の認識ができなかったことが通知された場合、例えば、そのことを示すテキストをディスプレイ36に供給して表示させる。
For example, the
次に、画像処理部43の構成例について説明する。
Next, a configuration example of the
画像処理部43には、画像取得部61、差分画像算出部62、陰影検出部63、および顔画像処理部64が設けられている。
The
画像取得部61は、基準画像および照明画像を監視カメラ31から取得し、差分画像算出部62に供給する。
The
差分画像算出部62は、照明画像と基準画像の差分画像を算出し、陰影検出部63および顔画像処理部64に供給する。
The difference
ここで、照明画像と基準画像の差分をとる利点について説明する。 Here, the advantage which takes the difference of an illumination image and a reference | standard image is demonstrated.
[基準画像、照明画像、および差分画像の一例] [Example of reference image, illumination image, and difference image]
図3は、基準画像、照明画像、および差分画像の一例を示す図である。 FIG. 3 is a diagram illustrating an example of the reference image, the illumination image, and the difference image.
図3のAは、基準画像の一例を示す図である。図3のBは、照明画像の一例を示す図である。図3のCは、図3のAの例の基準画像と図3のBの例の照明画像を用いて算出される差分画像の一例を示す図である。 FIG. 3A is a diagram illustrating an example of a reference image. FIG. 3B is a diagram illustrating an example of an illumination image. FIG. 3C is a diagram illustrating an example of a difference image calculated using the reference image of the example of FIG. 3A and the illumination image of the example of FIG. 3B.
図3のA乃至Cの例の基準画像81,照明画像82,差分画像83では、被写体の輪郭が黒線で示されている。また、これらの画像では、画素値の小さい領域は灰色の領域として、画素値の大きい領域は白い領域として、示されている。
In the
図3のAの例の基準画像81には、運転者が含まれている。但し、基準画像81では、運転者の領域(以下、運転者領域と称する)TR81の画素値は小さくなっている。運転者の背景の領域(以下、背景領域と称する)の一部の画素値は大きくなっている。
The
この例では、サンルーフSRの状態が閉状態であるとする。この場合、運転者TSは、サンルーフSRを介した赤外光でほとんど照射されない。このため、基準画像81では、運転者領域TR81の画素値が小さくなるのである。また、サイドウィンドウSW等を介した近赤外光の強さは弱くない。このため、運転者TSの背景の一部は、サイドウィンドウSW等を介した近赤外光で照射される。この結果、基準画像81では、背景領域の一部の画素値が大きくなるのである。
In this example, it is assumed that the state of the sunroof SR is a closed state. In this case, the driver TS is hardly irradiated with infrared light via the sunroof SR. For this reason, in the
従って、基準画像81では、運転者領域TR81の絵柄は不明瞭であり、背景の一部の絵柄が残っている。このため、基準画像81をそのまま用いると、顔の認識率は低くなる。
Therefore, in the
図3のBの例の照明画像82には、運転者が含まれている。照明画像82では、運転者領域TR82のうち顔領域KR82の画素値が大きくなっている。照明画像82の背景領域の画素値は、基準画像81の背景領域の画素値とほぼ一致している。
The
この例では、上述したように、運転者TSは、サンルーフSRを介した赤外光でほとんど照射されない。運転者TSの顔は、照明装置32により強い近赤外光で照明される。このため、照明画像82では、顔領域KR82の画素値が大きくなるのである。また、運転者TSの背景は、照明装置32によりほとんど照明されない。従って、照明画像82の背景領域の画素値は、基準画像81の背景領域の画素値とほぼ一致するのである。
In this example, as described above, the driver TS is hardly irradiated with infrared light through the sunroof SR. The face of the driver TS is illuminated with strong near infrared light by the
従って、照明画像82では、不要な背景の絵柄が残っている。よって、照明画像82をそのまま用いると、顔の認識率は低くなる。
Therefore, an unnecessary background pattern remains in the
これらの基準画像81および照明画像82を用いて算出された図3のCの例の差分画像83では、運転者領域TR83のうち顔領域KR83の画素値だけが大きくなっている。
In the
差分画像83では、基準画像81と照明画像82の差分の大きい領域の画素値が大きくなる。このため、差分画像83では、顔領域KR83の画素値が大きくなる。また、差分画像83では、基準画像81と照明画像82の差分の小さい領域の画素値が小さくなる。このため、差分画像83では、背景領域の画素値が小さくなる。これらの結果、顔領域KR83の画素値だけが大きくなるのである。
In the
従って、差分画像83では、顔領域TR83の絵柄が明瞭であり、不要な背景の絵柄が除かれている。このため、差分画像83を用いると、顔の認識率は高くなる。
Therefore, in the
このように、差分画像を利用することで、顔の認識率を向上させることができる。 Thus, the recognition rate of the face can be improved by using the difference image.
なお、図3のBの例の照明画像82において、顔領域KR82内の点線部分、すなわち、まゆげ、まぶたの縁、黒目の縁、鼻の輪郭、口の輪郭の部分の画素値は、顔領域KR82の他の部分に比べて大きくなっている。これに対応して、図3のCの例の差分画像83では、顔領域KR83内の点線部分、すなわち、まゆげ、まぶたの縁、黒目の縁、鼻の輪郭、口の輪郭の部分の画素値は、顔領域KR83の他の部分に比べて大きくなっている。
In the
陰影検出部63は、差分画像における陰影の有無を検出する。
The
例えば、サンルーフSRの状態が開状態の場合、サンルーフSRを介した近赤外光は弱くない。このため、運転者TSはサンルーフSRを介した近赤外光で照射され、運転者TSの顔にはある程度強い陰影が生じる。ところが、上述したように、照明装置32は通常光量より多い光量で照明するので、差分画像において陰影の影響は少なくなる。しかしながら、差分画像において陰影が完全には除去されずに残ってしまうことがある。陰影検出部63は、そのような陰影の有無を検出するのである。
For example, when the sunroof SR is in the open state, the near-infrared light through the sunroof SR is not weak. For this reason, the driver TS is irradiated with near-infrared light via the sunroof SR, and a certain amount of strong shadow is generated on the face of the driver TS. However, as described above, the
顔画像処理部64は、差分画像または照明画像に対して所定の画像処理を施すことで、顔を認識する顔画像処理を行い、その認識結果を状態判定部44に供給する。顔画像処理部64は、陰影検出部63により陰影有りと検出された差分画像に対して、顔画像処理に代えて、陰影の影響を受けにくい顔画像処理を行う。なぜなら、差分画像に陰影が残っている差分画像に対して通常の顔画像処理を行うと、顔の認識率が低下することがあるからである。なお、陰影の影響を受けにくい顔画像処理の詳細については後述する。
The face
[車載装置の処理例] [In-vehicle device processing example]
次に、車載装置35の処理(以下、監視制御処理と称する)の一例について説明する。
Next, an example of processing (hereinafter referred to as monitoring control processing) of the in-
図4および図5は、車載装置35の監視制御処理の一例を説明するためのフローチャートである。
FIGS. 4 and 5 are flowcharts for explaining an example of the monitoring control process of the in-
ステップS11において、カメラ照明制御部41は、外光の強さは一定以上か否かを判定する。
In step S <b> 11, the camera
例えば、外光の強さが一定以上でないことが照度センサ33から通知されている場合、ステップS11においてNOであると判定されて、処理はステップS25に進む。なお、ステップS25以降の処理については後述する。
For example, when the
これに対して、外光の強さが一定以上であることが照度センサ33から通知されている場合、ステップS11においてYESであると判定されて、処理はステップS12に進む。ステップS12において、カメラ照明制御部41は、サンルーフSRの状態が開状態であるか否かを判定する。
On the other hand, when the
例えば、サンルーフSRの閉状態を検出していることがサンルーフスイッチ34から通知されていない場合、ステップS12においてYESであると判定されて、処理はステップS18に進む。なお、ステップS18以降の処理については後述する。
For example, when the
これに対して、サンルーフSRの閉状態を検出していることがサンルーフスイッチ34から通知されている場合、ステップS12においてNOであると判定されて、処理はステップS13に進む。ステップS13において、カメラ照明制御部41は、駆動パルス出力部42の駆動パルス幅を通常幅に設定する。
On the other hand, when the
ステップS14において、カメラ照明制御部41は、照明装置32の照明光量を通常光量に設定する。より具体的には、カメラ照明制御部41は、例えば、照明装置32の照明時にLEDに流す電流値を通常値に設定する。または、照明装置32は、例えば、LEDを複数有しており、カメラ照明制御部41は、照明装置32の照明時に発光させるLEDの個数を通常個数に設定する。
In step S14, the camera
ステップS15において、カメラ照明制御部41は、駆動パルス出力部42に基準画像および照明画像の撮像開始を指示する。
In step S15, the camera
駆動パルス出力部42は、カメラ照明制御部41の指示に基づいて、次に説明する第1および第2の処理をその順番で実行する。
The drive
まず、駆動パルス出力部42は、第1の処理として、設定されている幅(通常幅)の駆動パルスを監視カメラ31に供給する。監視カメラ31は、駆動パルスに同期して、駆動パルス幅に応じた露光時間(通常の露光時間)で撮像する。照明装置32には駆動パルスが供給されないため、照明装置32は照明しない。従って、基準画像が撮像される。
First, the drive
次に、駆動パルス出力部42は、第2の処理として、設定されている幅(通常幅)の駆動パルスを監視カメラ31および照明装置32に供給する。監視カメラ31は、駆動パルスに同期して、駆動パルス幅に応じた露光時間(通常の露光時間)で撮像する。照明装置32は、駆動パルスに同期して、駆動パルス幅に応じた照明時間(通常の照明時間)で照明する。このため、照明画像が撮像される。
Next, the drive
このようにして、基準画像および照明画像が撮像される。なお、第1の処理と第2の処理の順番は特に限定されず、例えば、第2の処理,第1の処理の順番とすることも可能である。 In this way, the reference image and the illumination image are captured. Note that the order of the first process and the second process is not particularly limited. For example, the order of the second process and the first process may be used.
なお、第1実施形態および後述する第2実施形態では、照明装置32の照明時間は、監視カメラ31の露出時間とともに可変されているが、その他、例えば、監視カメラ31の最大の露出時間以上の所定の時間に固定されてもよい。
In the first embodiment and the second embodiment to be described later, the illumination time of the
ステップS16において、画像処理部43の画像取得部61は、監視カメラ31から撮像画像(基準画像と照明画像)を取得し、差分画像算出部62に供給する。
In step S <b> 16, the
ステップS17において、差分画像算出部62は、照明画像と基準画像を用いて差分画像を算出し、顔画像処理部64に供給する。その後、処理はステップS29に進む。なお、ステップS29以降の処理については後述する。
In step S <b> 17, the difference
ところで、上述したように、ステップS12においてYESであると判定されると、処理はステップS18に進む。ステップS18において、カメラ照明制御部41は、駆動パルス出力部42の駆動パルス幅を通常幅より短い幅に設定する。
By the way, as mentioned above, if it determines with it being YES in step S12, a process will progress to step S18. In step S18, the camera
ステップS19において、カメラ照明制御部41は、照明装置32の照明光量を通常光量より多い光量に設定する。より具体的には、カメラ照明制御部41は、例えば、照明装置32の照明時にLEDに流す電流値を通常値より多い値に設定する。または、照明装置32は、例えば、LEDを複数有しており、カメラ照明制御部41は、照明装置32の照明時に発光させるLEDの個数を通常個数より多い個数に設定する。
In step S19, the camera
ステップS20において、カメラ照明制御部41は、駆動パルス出力部42に基準画像および照明画像の撮像開始を指示する。
In step S20, the camera
駆動パルス出力部42は、カメラ照明制御部41の指示に基づいて、次に説明する第1および第2の処理をその順番で実行する。
The drive
まず、駆動パルス出力部42は、第1の処理として、設定されている幅(通常幅より短い幅)の駆動パルスを、監視カメラ31に供給する。監視カメラ31は、駆動パルスに同期して、駆動パルス幅に応じた露光時間(通常より短い露光時間)で撮像する。照明装置32には駆動パルスが供給されないため、照明装置32は照明しない。従って、基準画像が撮像される。
First, the drive
次に、駆動パルス出力部42は、第2の処理として、設定されている幅(通常幅より短い幅)の駆動パルスを、監視カメラ31および照明装置32に供給する。監視カメラ31は、駆動パルスに同期して、駆動パルス幅に応じた露光時間(通常より短い露光時間)で撮像する。また、照明装置32は、駆動パルスに同期して、駆動パルス幅に応じた照明時間(通常より短い照明時間)で照明する。このため、照明画像が撮像される。
Next, the drive
このようにして、基準画像および照明画像が撮像される。なお、第1の処理と第2の処理の順番は特に限定されず、例えば、第2の処理,第1の処理の順番とすることも可能である。 In this way, the reference image and the illumination image are captured. Note that the order of the first process and the second process is not particularly limited. For example, the order of the second process and the first process may be used.
ステップS21において、画像処理部43の画像取得部61は、監視カメラ31から撮像画像(基準画像と照明画像)を取得し、差分画像算出部62に供給する。
In step S <b> 21, the
ステップS22において、差分画像算出部62は、照明画像と基準画像を用いて差分画像を算出し、陰影検出部63および顔画像処理部64に供給する。
In step S <b> 22, the difference
ステップS23において、陰影検出部63は、差分画像における陰影の有無を検出する。なお、陰影の有無の検出手法は特に限定されない。例えば、画像中の所定の2つの領域における輝度差から陰影の有無を検出する手法(例えば、特開2007−112300公報参照)を採用することができる。または、例えば、陰影を作る物体の位置に基づいて陰影の有無を検出する手法(例えば、特開2008−191784公報参照)を採用することができる。
In step S23, the
ステップS24において、陰影検出部63は、陰影有りと検出したか否かを判定する。
In step S24, the
陰影有りと検出した場合、ステップS24においてYESであると判定されて、処理はステップS30に進む。なお、ステップS30以降の処理については後述する。 When it is detected that there is a shadow, it is determined as YES in Step S24, and the process proceeds to Step S30. The processing after step S30 will be described later.
これに対して、陰影無しと検出した場合、ステップS24においてNOであると判定されて、処理はステップS29に進む。なお、ステップS29以降の処理については後述する。 On the other hand, when it is detected that there is no shadow, it is determined as NO in Step S24, and the process proceeds to Step S29. The processing after step S29 will be described later.
ところで、上述したように、ステップS11においてNOであると判定されると、処理はステップS25に進む。ステップS25およびS26の処理は、それぞれ、ステップS13およびS14の処理と同じである。従って、それらの処理の説明を省略する。 By the way, as mentioned above, when it is determined NO in step S11, the process proceeds to step S25. The processes in steps S25 and S26 are the same as the processes in steps S13 and S14, respectively. Therefore, explanation of these processes is omitted.
ステップS27において、カメラ照明制御部41は、駆動パルス出力部42に照明画像の撮像開始を指示する。
In step S27, the camera
駆動パルス出力部42は、カメラ照明制御部41の指示に基づいて、設定されている幅(通常幅)の駆動パルスを、監視カメラ31および照明装置32に供給する。監視カメラ31は、駆動パルスに同期して、駆動パルス幅に応じた露光時間(通常の露光時間)で撮像する。照明装置32は、駆動パルスに同期して、駆動パルス幅に応じた照明時間(通常の照明時間)で照明する。このため、照明画像が撮像される。このようにして、照明画像のみが撮像される。
The drive
例えば、天気が曇りや雨であったり、時間帯が夜間であったり、車両11がトンネル内を走行中であったりすることで、外光の強さが弱い場合、外光に含まれる近赤外光の強さも弱くなっている。従って、サンルーフSRの開閉状態に係わらず、運転者TSおよびその背景は、いずれも、サンルーフSRを介した近赤外光でほとんど照射されない。また、運転者TSの顔は、照明装置32により強い近赤外光で照明される。このため、照明画像では、顔領域の画素値だけが大きくなる。従って、照明画像をそのまま用いて顔を認識することが可能となる。よって、基準画像の撮像は不要となり、そのための制御処理を省くことができる。
For example, if the intensity of external light is weak because the weather is cloudy or rainy, the time zone is nighttime, or the
ステップS28において、画像処理部43の画像取得部61は、監視カメラ31から撮像画像(照明画像)を取得し、顔画像処理部64に供給する。その後、処理はステップS29に進む。
In step S <b> 28, the
ステップS29において、顔画像処理部64は、差分画像または照明画像に対して所定の画像処理を施すことで、顔を認識する顔画像処理を行う。なお、顔画像処理の手法は特に限定されない。但し、第1実施形態および後述する第2実施形態では、顔画像処理の処理手法として、次のような手法が採用される。すなわち、例えば、撮像画像から顔領域を抽出し、顔の向きを求める手法や、その顔領域から目の位置を特定して視線方向を求める手法が採用される(例えば、特開2006−259900公報参照)。その後、処理はステップS31に進む。なお、ステップS31以降の処理については後述する。
In step S29, the face
ところで、上述したように、ステップS24においてYESであると判定されると、処理はステップS30に進む。ステップS30において、顔画像処理部64は、差分画像に対して、陰影の影響を受けにくい顔画像処理を行う。なお、陰影の影響を受けにくい顔画像処理の手法は特に限定されない。但し、第1実施形態および後述する第2実施形態では、陰影の影響を受けにくい顔画像処理の手法として、例えば、次のような手法が採用される。すなわち、陰影で生じる輝度の低下に応じて、顔の器官の位置を求めるための閾値を可変させる手法が採用される(例えば、特開平10−275212号公報を参照)。陰影の影響を受けにくい顔画像処理は、通常の顔画像処理に比べて処理速度がやや遅いが、差分画像に陰影があっても顔を認識することができる。このため、顔の認識率を高めることが可能となる。
By the way, as mentioned above, if it determines with YES in step S24, a process will progress to step S30. In step S <b> 30, the face
ステップS31において、顔画像処理部64は、顔の認識はできたか否かを判定する。
In step S31, the face
例えば、顔の認識結果としての顔の向きや視線方向を求めることができなかった場合、ステップS31においてNOであると判定されて、処理はステップS32に進む。ステップS32において、顔画像処理部64は、顔の認識ができなかったことを出力制御部45に通知する。出力制御部45は、顔の認識ができなかったことを示すテキスト、例えば、「顔の認識ができませんでした」を、ディスプレイ36に供給して表示させる。その後、処理はステップS36に進む。ステップS36以降の処理については後述する。
For example, when the face direction or the line-of-sight direction as the face recognition result cannot be obtained, it is determined as NO in Step S31, and the process proceeds to Step S32. In step S32, the face
これに対して、顔の認識結果としての顔の向きや視線方向を求めることができた場合、ステップS31においてYESであると判定されて、処理はステップS33に進む。ステップS33において、顔画像処理部64は、顔の向きや視線方向を状態判定部44に供給する。
On the other hand, when the face direction or the line-of-sight direction as the face recognition result can be obtained, it is determined as YES in Step S31, and the process proceeds to Step S33. In step S <b> 33, the face
ステップS34において、状態判定部44は、顔の向きや視線方向に基づいて、運転者TSの状態を判定する。例えば、状態判定部44は、所定の時間以上の間において顔の向きが前方から大幅にずれている場合、運転者TSの状態をわき見状態と判定し、それ以外の場合、運転者TSの状態を通常状態と判定する。または、例えば、状態判定部44は、所定の時間以上の間において視線方向が動かない場合、運転者TSの状態を居眠り状態と判定し、それ以外の場合、運転者TSの状態を通常状態と判定する。状態判定部44は、このような判定結果を出力制御部45に供給する。
In step S34, the
ステップS35において、出力制御部45は、例えば、運転者TSの状態がわき見の状態や居眠りの状態という判定結果の場合、それらの判定結果を示すテキスト「わき見をしています」や「居眠りをしています」を読み上げる音声に対応する音声信号を作成する。出力制御部45は、その音声に対応する音声信号をスピーカ37に供給してその音声を出力させる。但し、出力制御部45は、例えば、運転者TSの状態が通常状態という判定結果の場合、音声信号を作成せず、音声を出力させないようにすることもできる。
In step S35, the
ステップS36において、カメラ照明制御部41は、処理を終了するか否かを判定する。
In step S36, the camera
例えば、図示せぬ操作部を運転者TSが操作することで、カメラ照明制御部41に処理終了の指令が供給された場合、ステップS36においてYESであると判定されて、監視制御処理は終了する。
For example, when the driver TS operates an operation unit (not shown) and a command to end the process is supplied to the camera
これに対して、カメラ照明制御部41に処理終了の指令が供給されない限り、ステップS36においてNOであると判定されて、処理はステップS11に戻される。
On the other hand, unless a process end command is supplied to the camera
以上のように、監視カメラシステム21は、外光の強さおよびサンルーフSRの開閉状態に応じて、監視カメラ31の露光量、照明装置32の照明光量、および顔画像処理の内容を変更する。これにより、監視カメラシステム21がサンルーフの搭載された車両に用いられると、顔の認識率が向上する。すなわち、監視カメラシステム21は、顔の認識率をより一段と向上させることができる。
As described above, the
次に、第2実施形態について説明する。 Next, a second embodiment will be described.
上述した監視カメラシステム21では、サンルーフSRの開閉状態を検出する手法として、サンルーフSRの開閉状態をサンルーフSRの閉センサで検出する手法を採用した。但し、サンルーフSRの開閉状態を検出する手法は、この手法に特に限定されない。従って、例えば、車両11の内部の近赤外光の強さを近赤外光センサで検出することで、サンルーフSRの開閉状態を検出する手法を採用することもできる。かかる検出手法が適用された監視カメラシステムについて、図6および図7を参照して説明する。
In the
[監視カメラシステムの一例] [Example of surveillance camera system]
図6は、本発明を適用した情報処理システムの第2実施形態としての監視カメラシステムの一例を示す図である。 FIG. 6 is a diagram showing an example of a surveillance camera system as a second embodiment of the information processing system to which the present invention is applied.
なお、図6の例の監視カメラシステム91において、図3の例の監視カメラシステム21における対応する部分には同じ符号を付しており、以下、その説明を適宜省略する。
In the
図6の例の監視カメラシステム91では、図1の例の監視カメラシステム21におけるサンルーフスイッチ34に代えて、近赤外光センサ101が設けられている。
In the
近赤外光センサ101は、例えば、ダッシュボードDB上に設けられている。
The near-
サンルーフSRが閉状態の場合、サンルーフSRを介した近赤外光の強さは弱くなる。このため、車両11の内部の近赤外光の強さは弱くなる。これに対して、サンルーフSRが開状態の場合、サンルーフSRを介した近赤外光の強さは強くなる。このため、車両11の内部の近赤外光の強さは強くなる。すなわち、サンルーフSRの開閉状態に応じて、車両11の内部の近赤外光の強さは変化する。従って、近赤外光センサ101は、車両11の内部の近赤外光の強さを検出することで、サンルーフSRの開閉状態を検出することができる。
When the sunroof SR is closed, the intensity of near-infrared light through the sunroof SR is weakened. For this reason, the intensity of the near infrared light inside the
[監視カメラシステムの構成例] [Configuration example of surveillance camera system]
図7は、監視カメラシステム91の構成例を示すブロック図である。
FIG. 7 is a block diagram illustrating a configuration example of the
近赤外光センサ101は、車両11の内部の近赤外光の強さを検出する。近赤外光センサ101は、近赤外光の強さが一定以下である場合、サンルーフSRが閉状態であると判断し、サンルーフSRが閉状態であることを車載装置35に通知する。このように、近赤外光センサ101は、検出手法は異なるものの、サンルーフスイッチ34と同様に、サンルーフSRの開閉状態を検出することができる。
The near infrared
以上のように、図6の例の監視カメラシステム91は、図1の例の監視カメラシステム21と同様に、運転者TSの状態を監視することができる。
As described above, the
なお、第1および第2実施形態では、外光の強さとサンルーフSRの開閉状態に応じて各種設定を変更するが、その他、例えば、外光の、車両11に対する照射方向に応じて、各種設定を変更することもできる。例えば、昼頃の外光は、車両11に対して垂直方向に近い方向から照射する。このため、運転者TSは、サンルーフSRを介した強い近赤外光で照射される。これに対して、夕方の外光は、車両11に対して水平方向に近い方向から照射する。このため、運転者TSは、サンルーフSRを介した近赤外光でほとんど照射されない。そこで、外光の、車両11に対する照射方向に応じて、各種設定を変更するのである。なお、外光の、車両11に対する照射方向は、例えば、現在の日付や時刻等に基づいて算出される。
In the first and second embodiments, various settings are changed according to the intensity of external light and the open / closed state of the sunroof SR. In addition, for example, various settings are set according to the irradiation direction of external light with respect to the
また、第1および第2実施形態では、遮光体として、サンルーフを採用したが、その他、例えば、サイドウィンドウやリアウィンドウ、オープンカーの屋根等を採用することもできる。 In the first and second embodiments, the sunroof is employed as the light shielding body. However, for example, a side window, a rear window, an open car roof, and the like can be employed.
第1および第2実施形態では、監視カメラシステムは車両の内部に設けられているが、その他、列車や船舶といった様々な乗物の内部に設けることも可能である。 In the first and second embodiments, the surveillance camera system is provided inside the vehicle, but can also be provided inside various vehicles such as trains and ships.
[ハードウェアの構成例] [Hardware configuration example]
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、プログラム記録媒体からインストールされる。このプログラムは、例えば、専用のハードウェアに組み込まれているコンピュータにインストールされる。または、このプログラムは、各種のプログラムをインストールすることで各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等にインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed from a program recording medium. This program is installed in, for example, a computer incorporated in dedicated hardware. Alternatively, this program is installed in, for example, a general-purpose personal computer that can execute various functions by installing various programs.
図8は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。 FIG. 8 is a block diagram illustrating an example of a hardware configuration of a computer that executes the above-described series of processes using a program.
コンピュータにおいて、CPU201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
In the computer, a
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロホン等よりなる入力部206、ディスプレイ、スピーカ等よりなる出力部207、ハードディスクや不揮発性のメモリ等よりなる記憶部208が接続されている。さらに、入出力インタフェース205には、ネットワークインタフェース等よりなる通信部209、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア211を駆動するドライブ210が接続されている。
An input /
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
In the computer configured as described above, the
コンピュータ(CPU201)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)であるリムーバブルメディア211に記録して提供される。プログラムは、パッケージメディアであるリムーバブルメディア211に記録して提供される。なお、パッケージメディアとしては、光ディスク(CD−ROM(Compact Disc−Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリ等が用いられる。あるいは、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
The program executed by the computer (CPU 201) is provided by being recorded on the
そして、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
The program can be installed in the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
本発明の実施形態は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 Embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
11 車両, 21 監視カメラシステム, 31 監視カメラ, 32 照明装置, 33 照度センサ, 34 サンルーフスイッチ, 35 車載装置, 36 ディスプレイ, 37 スピーカ, 41 カメラ照明制御部, 42 駆動パルス出力部, 43 画像処理部, 44 状態判定部, 45 出力制御部, 61 画像取得部, 62 差分画像算出部, 63 陰影検出部, 64 顔画像処理部, 91 監視カメラシステム, 101 近赤外光センサ, 201 CPU, 202 ROM, 203 RAM, 204 バス, 205 入出力インタフェース, 206 入力部, 207 出力部, 208 記憶部, 209 通信部, 210 ドライブ, 211 リムーバブルメディア
DESCRIPTION OF
Claims (7)
照明部による前記車両の内部の照明と、撮像部による前記車両の内部の撮像とを制御する制御手段と、
前記制御手段の制御のもと前記撮像部により撮像された結果得られる第1の画像に基づいて、前記車両内部に存在する人間の顔を認識する認識手段と
を備え、
前記制御手段は、
前記検出手段により前記第1の状態が検出された場合、前記照明部に第1の光量で照明させ、前記撮像部に第1の露光量で撮像させる第1の制御を行い、
前記検出手段により前記第2の状態が検出された場合、前記照明部に前記第1の光量より多い第2の光量で照明させ、前記撮像部に前記第1の露光量より少ない第2の露光量で撮像させる第2の制御を行う
情報処理装置。 As a state of the light blocking body having a function of blocking external light directly irradiated toward the inside of the vehicle, the first state where the external light is blocked or the second state where the external light is not blocked Detecting means for detecting;
Control means for controlling illumination inside the vehicle by the illumination unit and imaging inside the vehicle by the imaging unit;
Recognizing means for recognizing a human face existing inside the vehicle based on a first image obtained as a result of being imaged by the imaging unit under the control of the control means,
The control means includes
When the first state is detected by the detection unit, the first control is performed to cause the illumination unit to illuminate with a first light amount, and to cause the imaging unit to capture an image with a first exposure amount,
When the second state is detected by the detection unit, the illumination unit is illuminated with a second light amount greater than the first light amount, and the imaging unit is exposed to a second exposure less than the first exposure amount. An information processing apparatus that performs second control for capturing an image with a quantity.
前記検出手段により前記第1の状態が検出された場合、前記第1の制御に加えてさらに、前記照明部を消灯させて、前記撮像部に前記第1の露光量で撮像させる第3の制御を行い、
前記検出手段により前記第2の状態が検出された場合、前記第2の制御に加えてさらに、前記照明部を消灯させて、前記撮像部に前記第2の露光量で撮像させる第4の制御を行い、
前記認識手段は、
前記第1の制御または前記第2の制御のもと前記撮像部により撮像された結果得られる画像を前記第1の画像として、前記第3の制御または前記第4の制御のもと前記撮像部により撮像された結果得られる画像を第2の画像として、前記第1の画像と前記第2の画像の差分画像を算出する算出手段と、
前記算出手段により算出された前記差分画像に対して所定の処理を施すことで、前記顔を認識する顔画像処理手段と
を有する
請求項1に記載の情報処理装置。 The control means includes
In the case where the first state is detected by the detection means, in addition to the first control, the illumination unit is further turned off, and the third control for causing the imaging unit to capture an image with the first exposure amount. And
In the case where the second state is detected by the detection means, in addition to the second control, the illumination control unit is further turned off, and a fourth control is performed to cause the imaging unit to capture an image with the second exposure amount. And
The recognition means is
An image obtained as a result of imaging by the imaging unit under the first control or the second control is used as the first image, and the imaging unit under the third control or the fourth control. Calculating means for calculating a difference image between the first image and the second image, using the image obtained as a result of imaging by the second image as a second image;
The information processing apparatus according to claim 1, further comprising: a face image processing unit that recognizes the face by performing a predetermined process on the difference image calculated by the calculation unit.
前記算出手段により算出された前記差分画像における陰影の有無を検出する陰影検出手段
をさらに有し、
前記顔画像処理手段は、
前記陰影検出手段により陰影無しと検出された場合、前記所定の処理として、前記差分画像に対して第1の処理を施し、
前記陰影検出手段により陰影有りと検出された場合、前記所定の処理として、前記第1の処理とは異なる第2の処理を前記差分画像に対して施す
請求項2に記載の情報処理装置。 The recognition means is
A shadow detection means for detecting the presence or absence of a shadow in the difference image calculated by the calculation means;
The face image processing means includes
When it is detected by the shadow detection means that there is no shadow, as the predetermined process, a first process is performed on the difference image,
The information processing apparatus according to claim 2, wherein when the shadow detection unit detects that there is a shadow, the second process different from the first process is performed on the difference image as the predetermined process.
前記検出手段は、前記車両の内部の近赤外光の強さに基づいて前記第1の状態または前記第2の状態を検出する
請求項1に記載の情報処理装置。 The light blocking body blocks near infrared light,
The information processing apparatus according to claim 1, wherein the detection unit detects the first state or the second state based on intensity of near-infrared light inside the vehicle.
前記制御手段は、
前記光検出手段により検出された前記光の強さが閾値を超えた場合、前記第1の制御または前記第2の制御を行い、
前記光検出手段により検出された前記光の強さが閾値以下の場合、前記検出手段により検出された前記遮光体の状態に係わらず、前記第1の制御を行う
請求項1に記載の情報処理装置。 A light detecting means for detecting the intensity of light outside the vehicle;
The control means includes
When the intensity of the light detected by the light detection means exceeds a threshold value, the first control or the second control is performed,
2. The information processing according to claim 1, wherein when the intensity of the light detected by the light detection unit is equal to or less than a threshold value, the first control is performed regardless of a state of the light shielding body detected by the detection unit. apparatus.
車両の内部に向かって直接照射する外部の光を遮る機能を有する遮光体の状態として、前記外部の光を遮っている第1の状態、または前記外部の光を遮っていない第2の状態を検出する検出ステップと、
照明部による前記車両の内部の照明と、撮像部による前記車両の内部の撮像とを制御する制御ステップと、
前記制御ステップの制御のもと前記撮像部により撮像された結果得られる第1の画像に基づいて、前記車両内部に存在する人間の顔を認識する認識ステップと
を含み、
前記制御ステップには、
前記検出ステップの処理により前記第1の状態が検出された場合、前記照明部に第1の光量で照明させ、前記撮像部に第1の露光量で撮像させる第1の制御を行い、
前記検出ステップの処理により前記第2の状態が検出された場合、前記照明部に前記第1の光量より多い第2の光量で照明させ、前記撮像部に前記第1の露光量より少ない第2の露光量で撮像させる第2の制御を行うステップを含む
情報処理方法。 As steps executed by the information processing apparatus,
As a state of the light blocking body having a function of blocking external light directly irradiated toward the inside of the vehicle, the first state where the external light is blocked or the second state where the external light is not blocked A detection step to detect;
A control step for controlling illumination inside the vehicle by the illumination unit and imaging inside the vehicle by the imaging unit;
Recognizing a human face existing inside the vehicle based on a first image obtained as a result of being imaged by the imaging unit under the control of the control step, and
The control step includes
When the first state is detected by the processing of the detection step, the first control is performed to cause the illumination unit to illuminate with a first light amount, and to cause the imaging unit to capture an image with a first exposure amount,
When the second state is detected by the processing of the detection step, the illumination unit is illuminated with a second light amount greater than the first light amount, and the imaging unit is second less than the first exposure amount. The information processing method including the step which performs the 2nd control made to image with the exposure amount of.
車両の内部に向かって直接照射する外部の光を遮る機能を有する遮光体の状態として、前記外部の光を遮っている第1の状態、または前記外部の光を遮っていない第2の状態を検出する検出ステップと、
照明部による前記車両の内部の照明と、撮像部による前記車両の内部の撮像とを制御する制御ステップと、
前記制御ステップの制御のもと前記撮像部により撮像された結果得られる第1の画像に基づいて、前記車両内部に存在する人間の顔を認識する認識ステップと
を実行させ、
前記コンピュータに、前記制御ステップとして、
前記検出ステップの処理により前記第1の状態が検出された場合、前記照明部に第1の光量で照明させ、前記撮像部に第1の露光量で撮像させる第1の制御を行い、
前記検出ステップの処理により前記第2の状態が検出された場合、前記照明部に前記第1の光量より多い第2の光量で照明させ、前記撮像部に前記第1の露光量より少ない第2の露光量で撮像させる第2の制御を行うステップを実行させる
プログラム。 In the computer that controls the information processing device,
As a state of the light blocking body having a function of blocking external light directly irradiated toward the inside of the vehicle, the first state where the external light is blocked or the second state where the external light is not blocked A detection step to detect;
A control step for controlling illumination inside the vehicle by the illumination unit and imaging inside the vehicle by the imaging unit;
Recognizing a human face existing inside the vehicle based on a first image obtained as a result of being imaged by the imaging unit under the control of the control step; and
In the computer, as the control step,
When the first state is detected by the processing of the detection step, the first control is performed to cause the illumination unit to illuminate with a first light amount, and to cause the imaging unit to capture an image with a first exposure amount,
When the second state is detected by the processing of the detection step, the illumination unit is illuminated with a second light amount greater than the first light amount, and the imaging unit is second less than the first exposure amount. The program which performs the step which performs the 2nd control which images with the exposure amount of.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009060955A JP5288189B2 (en) | 2009-03-13 | 2009-03-13 | Information processing apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009060955A JP5288189B2 (en) | 2009-03-13 | 2009-03-13 | Information processing apparatus and method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010215000A JP2010215000A (en) | 2010-09-30 |
JP5288189B2 true JP5288189B2 (en) | 2013-09-11 |
Family
ID=42974314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009060955A Expired - Fee Related JP5288189B2 (en) | 2009-03-13 | 2009-03-13 | Information processing apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5288189B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5573820B2 (en) * | 2011-11-10 | 2014-08-20 | 株式会社デンソー | Condition monitoring device |
JP5994437B2 (en) * | 2012-07-04 | 2016-09-21 | 株式会社デンソー | Vehicle surrounding image display control apparatus and vehicle surrounding image display control program |
JP5867355B2 (en) | 2012-10-02 | 2016-02-24 | 株式会社デンソー | Status monitoring device and status monitoring program |
US10272850B2 (en) * | 2016-07-15 | 2019-04-30 | Ford Global Technologies, Llc | Roof mounting for autonomous vehicle sensor assembly |
CN112477776B (en) * | 2020-11-11 | 2022-04-29 | 湖南警察学院 | Intelligent face recognition device based on automatic induction type opening and closing |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3520618B2 (en) * | 1995-08-16 | 2004-04-19 | 日産自動車株式会社 | Gaze direction measuring device for vehicles |
JP4269998B2 (en) * | 2004-03-26 | 2009-05-27 | 株式会社デンソー | Imaging device |
JP2006030880A (en) * | 2004-07-21 | 2006-02-02 | Honda Motor Co Ltd | Voice recognition device for vehicle and moving body |
JP2006180271A (en) * | 2004-12-22 | 2006-07-06 | Sony Corp | Imaging apparatus, program, and recording medium |
JP2007025758A (en) * | 2005-07-12 | 2007-02-01 | Gen Tec:Kk | Face image extracting method for person, and device therefor |
JP4915314B2 (en) * | 2007-08-23 | 2012-04-11 | オムロン株式会社 | Imaging apparatus and imaging control method |
-
2009
- 2009-03-13 JP JP2009060955A patent/JP5288189B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010215000A (en) | 2010-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5366028B2 (en) | Face image capturing device | |
JP5288189B2 (en) | Information processing apparatus and method, and program | |
US9386231B2 (en) | State monitoring apparatus | |
JP3948431B2 (en) | Vehicle periphery monitoring device | |
JP4888838B2 (en) | Driver imaging device and driver imaging method | |
JP4910802B2 (en) | Monitoring device and method, recording medium, and program | |
JP5761074B2 (en) | Imaging control apparatus and program | |
US9123179B2 (en) | Surrounding image display system and surrounding image display method for vehicle | |
US20120002052A1 (en) | Obstacle detection apparatus, obstacle detection system having same, and obstacle detection method | |
JP6935350B2 (en) | Surveillance device and trolley type vehicle | |
JP2010223685A (en) | Imaging apparatus for vehicle | |
JP2009201756A (en) | Information processor and information processing method, and program | |
JP5441450B2 (en) | Vehicle imaging device | |
JP4397415B2 (en) | Image processing method, image processing system, image processing apparatus, and computer program | |
JP2008296759A (en) | Information processor, method, and program | |
JP2007251555A (en) | Diagnostic apparatus and method, program, as well as, recording medium | |
JP4782491B2 (en) | Imaging device | |
JP2009219042A (en) | Vehicle periphery monitoring device | |
JP4457077B2 (en) | Obstacle detection system and obstacle detection method | |
JP3774448B2 (en) | In-vehicle image processing device | |
JP5436892B2 (en) | Vehicle imaging device | |
JP2005033709A (en) | Vehicle perimeter monitoring apparatus | |
JP5041985B2 (en) | In-vehicle imaging device | |
WO2022024411A1 (en) | Infrared image capturing device, and infrared image capturing system | |
JP7009334B2 (en) | Image display device, image display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130522 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5288189 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |