JP2006275988A - Apparatus and method for pretreatment of detecting object - Google Patents

Apparatus and method for pretreatment of detecting object Download PDF

Info

Publication number
JP2006275988A
JP2006275988A JP2005100098A JP2005100098A JP2006275988A JP 2006275988 A JP2006275988 A JP 2006275988A JP 2005100098 A JP2005100098 A JP 2005100098A JP 2005100098 A JP2005100098 A JP 2005100098A JP 2006275988 A JP2006275988 A JP 2006275988A
Authority
JP
Japan
Prior art keywords
irradiation
image
light
object detection
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005100098A
Other languages
Japanese (ja)
Other versions
JP4508926B2 (en
Inventor
Uidodo Ari
アリ・ウィドド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2005100098A priority Critical patent/JP4508926B2/en
Publication of JP2006275988A publication Critical patent/JP2006275988A/en
Application granted granted Critical
Publication of JP4508926B2 publication Critical patent/JP4508926B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Geophysics And Detection Of Objects (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus for pretreatment of detecting an object that reduces cost, enables uniform irradiation over a wide area, hardly receives effect of environment such as ambient light, and enables extraction of the existence region of the object safely and speedily by a human body, and to provide a method for the same. <P>SOLUTION: The apparatus includes an irradiation means 103 for irradiating an observation object by different timing and different irradiation light quantity; an image acquisition means 106 for acquiring each image of the observation object, irradiated by the different irradiation light quantity; an ROI (region-of-interest) extraction means 108 for extracting the existence region of the observation object, on the basis of each image acquired; an irradiation instruction means 107 for generating a signal to control the irradiation light quantity of the irradiation means, when a predetermined condition is not satisfied, when extracting the existence region of the observation object; and an irradiation control means 104 for controlling the irradiation light quantity of the irradiation means, on the basis of the generated signal. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、低照度環境下においても観察対象物の検出を可能とさせる対象物検出前処理装置及び対象物検出前処理方法に関する。   The present invention relates to an object detection pre-processing apparatus and an object detection pre-processing method that enable detection of an observation object even in a low illumination environment.

近年、夜間などの低照度下で観察対象物(以下、観測対象物又は単に対象物とも言う)を検出するための特定の撮影装置(以下、単に装置とも言う)が開発されている。以下、説明を分かりやすくするため対象物を人物として説明する。このような装置は、ドライバの居眠り検知や人間と対話するためのロボット制御などに応用されている。ここで、低照度環境で対象物を検出する方法では、超音波、レーザーレーダー、カメラなどが用いられる。しかし、コストや人体への影響などを考えると、カメラがより適している。カメラには補助照明無しのカメラと補助照明有りのカメラの2種類がある。補助照明無しのカメラの例として遠赤外線カメラが挙げられる。しかし、このようなカメラは高価であり解像度が低いという問題がある。一方、補助照明有りのカメラでは、用いる補助照明が可視光と近赤外光であるので市販カメラの使用が可能である。一般にこのようなカメラは低価格であり解像度が高い。しかし、対象物が人物の場合、可視光を照射することは視界に影響を与えるため問題となる。したがって、対象物が人物の場合、視界に影響を与えない近赤外光照明を用いることが適している。   In recent years, specific imaging devices (hereinafter also simply referred to as devices) have been developed for detecting observation objects (hereinafter also referred to as observation objects or simply objects) under low illumination such as at night. Hereinafter, the object will be described as a person for easy understanding. Such an apparatus is applied to a driver's drowsiness detection or a robot control for interacting with a human. Here, in a method for detecting an object in a low illumination environment, an ultrasonic wave, a laser radar, a camera, or the like is used. However, the camera is more suitable considering the cost and the effect on the human body. There are two types of cameras: cameras without auxiliary lighting and cameras with auxiliary lighting. An example of a camera without auxiliary illumination is a far-infrared camera. However, there is a problem that such a camera is expensive and has a low resolution. On the other hand, in a camera with auxiliary illumination, since the auxiliary illumination to be used is visible light and near infrared light, a commercially available camera can be used. In general, such cameras are inexpensive and have high resolution. However, when the object is a person, irradiating visible light is problematic because it affects the field of view. Therefore, when the object is a person, it is suitable to use near infrared light illumination that does not affect the field of view.

しかし、近赤外光による補助照明有りのカメラを用いた装置には問題がある。まず、従来のように固定照射光量を用いる場合、人物が装置に接近すると目に入射する近赤外光の露光量が増大し、目に影響を与えることがある。また、従来のように固定照射光量を用いる場合、人物が装置に接近すると撮影される画像上での人物領域にハレーションが生じてしまう。また、対象物が存在する範囲が広い場合には、照射面積に比べて非常に広い範囲を均一に照射する必要がある。一般的な補助照明有りのカメラの問題として、外乱光(例えば、太陽光)の強度や撮影環境における人物の前方移動などにより、人物の画像上にハレーションが生じて人物の位置検出処理が困難となってしまうという問題がある。特に、従来の装置では、照明のオン、オフに合わせて画像を撮影し差分をとって人物の位置検出処理を行っているが、外乱光や人物の前方移動などにより一方の画像がハレーションを起こし、一方が暗い画像の場合には人物の位置検出が困難となってしまう。   However, there is a problem with an apparatus using a camera with auxiliary illumination by near infrared light. First, when using a fixed irradiation light amount as in the prior art, when a person approaches the apparatus, the exposure amount of near-infrared light incident on the eyes increases, which may affect the eyes. Further, when a fixed amount of light is used as in the prior art, halation occurs in the person area on the captured image when the person approaches the apparatus. In addition, when the range in which the object exists is wide, it is necessary to uniformly irradiate a very wide range compared to the irradiation area. As a general problem with cameras with auxiliary lighting, it is difficult to detect the position of a person due to halation on the person's image due to the intensity of ambient light (for example, sunlight) or the forward movement of the person in the shooting environment. There is a problem of becoming. In particular, in the conventional apparatus, images are taken according to whether the illumination is on or off, and the position of the person is detected by taking the difference. However, one of the images causes halation due to ambient light or forward movement of the person. However, if one of the images is dark, it is difficult to detect the position of the person.

これらの問題を解決する従来の技術について説明する。まず、人物が装置に接近すると目に入射する近赤外光の露光量が増大するという問題に対しては、人物までの距離を取得し、その距離に基づいて照射光量を変化させるようにする。このような技術が下記の特許文献1に開示されている。特許文献1に開示されている技術では、超音波などの距離測定センサーで測定した人物までの距離に基づいて照射光量を増減させている。また、広い照射範囲での均一の照射が求められる問題に対しては、複数の光源を用いて広範囲で均一に照射させるようにする。このような技術が下記の特許文献2に開示されている。特許文献2に開示されている技術は、照射範囲が互いに大きく重ならないように配置された複数の光源によって、撮影範囲(車室内所定領域)全体を照射するようにしたものである。また、外乱光や人物の前方移動などによる人物の画像上でのハレーションという問題に対しては、外乱光の光量を検出し、それに基づいて照射光量を増減している。このような技術が下記の特許文献3に開示されている。特許文献3に開示されている技術は、照度センサーから構成される光量検出手段で外乱光(可視光)の光量を検出し、その結果に応じて照射光量を増減させている。
特開2004−164483号公報(段落0030) 特開2004−144512号公報(段落0017) 特開平7−32907号公報(段落0008)
A conventional technique for solving these problems will be described. First, for the problem that the exposure amount of near-infrared light incident on the eyes increases when a person approaches the apparatus, the distance to the person is acquired, and the amount of irradiation light is changed based on the distance. . Such a technique is disclosed in Patent Document 1 below. In the technique disclosed in Patent Document 1, the amount of irradiation light is increased or decreased based on the distance to a person measured by a distance measuring sensor such as an ultrasonic wave. Further, for a problem that requires uniform irradiation over a wide irradiation range, a plurality of light sources are used to uniformly irradiate over a wide range. Such a technique is disclosed in Patent Document 2 below. The technique disclosed in Patent Document 2 irradiates the entire photographing range (a predetermined region in the vehicle interior) with a plurality of light sources arranged so that the irradiation ranges do not overlap each other. For the problem of halation on a person's image due to disturbance light or forward movement of the person, the amount of disturbance light is detected, and the amount of irradiation light is increased or decreased based on that. Such a technique is disclosed in Patent Document 3 below. In the technique disclosed in Patent Document 3, the amount of disturbance light (visible light) is detected by a light amount detection unit including an illuminance sensor, and the amount of irradiation light is increased or decreased according to the result.
Japanese Patent Laying-Open No. 2004-16483 (paragraph 0030) JP 2004-144512 A (paragraph 0017) JP-A-7-32907 (paragraph 0008)

しかしながら、特許文献1に開示された技術では、超音波などの距離測定センサーによってコストが増加してしまうという問題がある。また、特許文献2に開示された技術では、複数の光源を用いることによってコストが増加してしまい、また、複数の光源の設置も複雑であるという問題がある。また、特許文献3に開示された技術では、照度センサーによってコストが増加してしまい、また、不特定多数の人の顔周辺に照度センサーを設置することは非現実的であるという問題がある。   However, the technique disclosed in Patent Document 1 has a problem that the cost increases due to a distance measuring sensor such as an ultrasonic wave. In addition, the technique disclosed in Patent Document 2 has a problem that the cost increases by using a plurality of light sources, and the installation of the plurality of light sources is complicated. In addition, the technique disclosed in Patent Document 3 has a problem that the illuminance sensor increases the cost, and it is unrealistic to install the illuminance sensor around the faces of an unspecified number of people.

本発明は、上記問題を解決するためのものであり、コストを抑え、広範囲での均一照射ができ、外乱光などの周辺環境の影響を受けにくく、人体に対して安全に、高速に対象物の存在領域の抽出、対象物の状態推定を可能とさせる対象物検出前処理装置及び対象物検出前処理方法を提供することを目的とする。   The present invention is intended to solve the above-mentioned problems, can reduce the cost, can perform uniform irradiation over a wide range, is not easily influenced by the surrounding environment such as ambient light, and is safe and fast for the human body. It is an object of the present invention to provide an object detection pre-processing apparatus and an object detection pre-processing method that enable extraction of an existing region of the object and estimation of an object state.

上記目的を達成するために、本発明によれば、観察対象物を異なるタイミング及び異なる照射光量で照射する照射手段と、前記異なる照射光量で照射される前記観察対象物のそれぞれの画像を取得する画像取得手段と、取得されたそれぞれの画像に基づいて、前記観察対象物の存在領域を抽出する注目領域抽出手段と、前記観察対象物の存在領域を抽出する際、所定の条件を満たさない場合に前記照射手段の前記照射光量を制御するための信号を生成する照射命令手段と、生成された前記信号に基づいて、前記照射手段の前記照射光量を制御する照射制御手段とを備える対象物検出前処理装置が提供される。この構成により、コストを抑え、広範囲での均一照射、高速な観察対象物の存在領域の抽出を可能とさせる。   In order to achieve the above object, according to the present invention, an irradiation unit that irradiates an observation object at different timings and different irradiation light amounts, and images of the observation object irradiated with the different irradiation light amounts are acquired. When the image acquisition means, the attention area extraction means for extracting the observation object existing area based on each acquired image, and the observation object existing area are not satisfied when a predetermined condition is not satisfied The object detection unit includes: an irradiation command unit that generates a signal for controlling the irradiation light amount of the irradiation unit; and an irradiation control unit that controls the irradiation light amount of the irradiation unit based on the generated signal. A pre-processing device is provided. With this configuration, it is possible to reduce costs, perform uniform irradiation over a wide range, and extract a region where an observation target exists at high speed.

また、本発明において、前記照射手段が24時間撮影を可能とさせるために近赤外光を照射することは、本発明の好ましい態様である。この構成により、対象物検出前処理装置を24時間動作させることができる。   Further, in the present invention, it is a preferable aspect of the present invention that the irradiating means irradiates near infrared light so as to enable photographing for 24 hours. With this configuration, the object detection pretreatment apparatus can be operated for 24 hours.

また、本発明において、前記画像取得手段が、可視光を含む外乱光の影響を低減させ、安定した画像取得を可能とさせるために、前記照射手段により照射される光の反射光のみを透過させる特定波長透過フィルタを備えることは、本発明の好ましい態様である。この構成により、外乱光による影響を低減させることができ、照明環境の変化などに対して安定した質の画像撮影ができる。   In the present invention, the image acquisition means transmits only the reflected light of the light irradiated by the irradiation means in order to reduce the influence of disturbance light including visible light and enable stable image acquisition. Providing the specific wavelength transmission filter is a preferred aspect of the present invention. With this configuration, the influence of disturbance light can be reduced, and stable quality image capturing can be performed against changes in the illumination environment.

また、本発明において、前記照射制御手段が、前記照射手段によって前記観察対象物を異なる照射光量で照射するタイミングを、前記画像取得手段によって前記観察対象物の画像を取得するタイミングに同期させるため、前記照射手段による照射を制御することは、本発明の好ましい態様である。この構成により、観察対象物に対して影響を与えることがなく、低コスト化を実現することができる。   Further, in the present invention, the irradiation control means synchronizes the timing of irradiating the observation object with different irradiation light amounts by the irradiation means with the timing of acquiring the image of the observation object by the image acquisition means. Controlling the irradiation by the irradiation means is a preferred embodiment of the present invention. With this configuration, it is possible to reduce the cost without affecting the observation object.

また、本発明において、前記照射命令手段が、前記画像取得手段に対する前記観察対象物の距離に応じて、前記照射手段の前記照射光量を制御するための前記信号を生成することは、本発明の好ましい態様である。この構成により、安定した質の観察対象物の画像を撮影することができる。   Further, in the present invention, the irradiation command means generates the signal for controlling the irradiation light amount of the irradiation means according to the distance of the observation object with respect to the image acquisition means. This is a preferred embodiment. With this configuration, it is possible to capture an image of an observation object with stable quality.

また、本発明において、前記注目領域抽出手段が前記観察対象物の存在領域を取得された前記画像の差分処理によって抽出することは、本発明の好ましい態様である。この構成により、観察対象物の検出処理の高速化を実現できる。   Moreover, in this invention, it is a preferable aspect of this invention that the said attention area extraction means extracts the presence area | region of the said observation target object by the difference process of the acquired said image. With this configuration, it is possible to increase the speed of the observation target object detection process.

また、本発明において、前記観察対象物が人間の顔であることは本発明の好ましい態様である。この構成により、人物の顔の特徴を用いることができる。   In the present invention, it is a preferred aspect of the present invention that the observation object is a human face. With this configuration, the characteristics of a person's face can be used.

また、本発明において、前記照射手段が照射する光を広範囲に均一に拡散するための拡散フィルタを備えることは、本発明の好ましい態様である。この構成により、広範囲な撮影空間を均一に照射することができる。   Moreover, in this invention, it is a preferable aspect of this invention to provide the diffusion filter for diffusing the light which the said irradiation means irradiates uniformly over a wide range. With this configuration, a wide imaging space can be uniformly irradiated.

また、本発明によれば、観察対象物を異なるタイミング及び異なる照射光量で照射するステップと、前記異なる照射光量で照射される前記観察対象物のそれぞれの画像を取得するステップと、取得されたそれぞれの画像に基づいて、前記観察対象物の存在領域を抽出するステップと、前記観察対象物の存在領域を抽出する際、所定の条件を満たさない場合に前記照射光量を制御するための信号を生成するステップと、生成された前記信号に基づいて前記照射光量を制御するステップとを有する対象物検出前処理方法が提供される。この構成により、コストを抑え、広範囲での均一照射、高速な観察対象物の存在領域の抽出を可能とさせる。   Further, according to the present invention, the step of irradiating the observation object with different timing and different irradiation light amount, the step of acquiring the respective images of the observation object irradiated with the different irradiation light amount, and the acquired each And extracting a region for observing the object, and generating a signal for controlling the amount of irradiation light when a predetermined condition is not satisfied when extracting the region for observing the object. There is provided an object detection pre-processing method comprising the steps of: and controlling the amount of irradiation light based on the generated signal. With this configuration, it is possible to reduce costs, perform uniform irradiation over a wide range, and extract a region where an observation target exists at high speed.

また、本発明において、前記観察対象物を異なる照射光量で照射するステップにおいて、24時間撮影を可能とさせるために近赤外光を照射することは、本発明の好ましい態様である。この構成により、装置を24時間動作させることができる。   Further, in the present invention, in the step of irradiating the observation object with different irradiation light amounts, it is a preferable aspect of the present invention to irradiate near infrared light so as to enable photographing for 24 hours. With this configuration, the apparatus can be operated for 24 hours.

また、本発明において、前記観察対象物の画像を取得するステップにおいて、可視光を含む外乱光の影響を低減させ、安定した画像取得を可能とさせるために、前記観察対象物を異なる照射光量で照射するステップにより照射される光の反射光のみを透過させる特定波長透過フィルタを用いることは、本発明の好ましい態様である。この構成により、外乱光による影響を低減させることができ、照明環境の変化などに対して安定した質の画像撮影ができる。   Further, in the present invention, in the step of acquiring the image of the observation object, the observation object is irradiated with a different amount of irradiation in order to reduce the influence of disturbance light including visible light and to enable stable image acquisition. It is a preferred aspect of the present invention to use a specific wavelength transmission filter that transmits only the reflected light of the light irradiated in the irradiating step. With this configuration, the influence of disturbance light can be reduced, and stable quality image capturing can be performed against changes in the illumination environment.

また、本発明において、前記観察対象物を異なる照射光量で照射するタイミングを、前記観察対象物の画像を取得するタイミングに同期させるため、前記観察対象物を異なる照射光量で照射するステップの照射を制御するステップをさらに有することは、本発明の好ましい態様である。この構成により、観察対象物に対して影響を与えることがなく、低コスト化を実現することができる。   Further, in the present invention, in order to synchronize the timing of irradiating the observation object with a different irradiation light amount with the timing of acquiring the image of the observation object, the irradiation of the step of irradiating the observation object with a different irradiation light amount is performed. It is a preferred aspect of the present invention to further have a controlling step. With this configuration, it is possible to reduce the cost without affecting the observation object.

また、本発明において、前記照射光量を制御するための信号を生成するステップにおいて、前記観察対象物の画像を取得する手段に対する前記観察対象物の距離に応じて、前記照射光量を制御するための前記信号を生成することは、本発明の好ましい態様である。この構成により、安定した質の観察対象物の画像を撮影することができる。   Further, in the present invention, in the step of generating a signal for controlling the amount of irradiation light, for controlling the amount of irradiation light according to the distance of the observation object with respect to the means for acquiring the image of the observation object. Generating the signal is a preferred aspect of the present invention. With this configuration, it is possible to capture an image of an observation object with stable quality.

また、本発明において、前記観察対象物の存在領域を抽出するステップにおいて、前記観察対象物の存在領域を取得された前記画像の差分処理によって抽出することは、本発明の好ましい態様である。この構成により、観察対象物の検出処理の高速化を実現できる。   In the present invention, in the step of extracting the existence area of the observation object, it is a preferable aspect of the invention that the existence area of the observation object is extracted by the difference processing of the acquired image. With this configuration, it is possible to increase the speed of the observation target object detection process.

また、本発明において、前記観察対象物が人間の顔であることは本発明の好ましい態様である。この構成により、人物の顔の特徴を用いることができる。   In the present invention, it is a preferred aspect of the present invention that the observation object is a human face. With this configuration, the characteristics of a person's face can be used.

また、本発明において、前記観察対象物を異なる照射光量で照射するステップにおいて、照射する光を広範囲に均一に拡散するための拡散フィルタを用いることは、本発明の好ましい態様である。この構成により、広範囲な撮影空間を均一に照射することができる。   In the present invention, it is a preferable aspect of the present invention to use a diffusion filter for uniformly diffusing irradiated light over a wide range in the step of irradiating the observation object with different irradiation light amounts. With this configuration, a wide imaging space can be uniformly irradiated.

本発明の対象物検出前処理装置及び対象物検出前処理方法は、上記構成を有し、コストを抑え、広範囲での均一照射ができ、外乱光などの周辺環境の影響を受けにくく、人体に対して安全に、高速に対象物の存在領域の抽出、対象物の状態推定を可能とさせる。   The object detection pre-processing apparatus and the object detection pre-processing method of the present invention have the above-described configuration, can reduce the cost, can perform uniform irradiation over a wide range, are not easily influenced by the surrounding environment such as ambient light, and are applied to the human body. On the other hand, it is possible to extract a region where an object exists and estimate the state of the object safely and at high speed.

以下、本発明の実施の形態に係る対象物検出前処理装置及び対象物検出前処理方法について、図1から図23を用いて説明する。図1は本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置の構成を示す構成図である。図2は本発明の実施の形態に係る対象物検出前処理装置における撮影部の分光感度特性を示す図である。図3は本発明の実施の形態に係る対象物検出前処理装置における特定波長透過フィルタの透過波長特性を示す図である。図4は本発明の実施の形態に係る対象物検出前処理装置における補助照明器の照射のタイミングチャートを示す図である。図5Aは本発明の実施の形態に係る対象物検出前処理装置における補助照明器の時系列連続画像での照射パターンを示す図である。図5Bは本発明の実施の形態に係る対象物検出前処理装置における撮影部によって撮影された2枚の時系列連続画像を示す図である。   Hereinafter, an object detection preprocessing apparatus and an object detection preprocessing method according to an embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a configuration diagram showing a configuration of an object state estimation apparatus including an object detection preprocessing apparatus according to an embodiment of the present invention. FIG. 2 is a diagram showing the spectral sensitivity characteristics of the imaging unit in the object detection preprocessing apparatus according to the embodiment of the present invention. FIG. 3 is a diagram showing the transmission wavelength characteristics of the specific wavelength transmission filter in the object detection pretreatment apparatus according to the embodiment of the present invention. FIG. 4 is a view showing a timing chart of irradiation of the auxiliary illuminator in the object detection pretreatment apparatus according to the embodiment of the present invention. FIG. 5A is a diagram showing an irradiation pattern in a time-series continuous image of the auxiliary illuminator in the object detection preprocessing apparatus according to the embodiment of the present invention. FIG. 5B is a diagram showing two time-series continuous images photographed by the photographing unit in the object detection preprocessing apparatus according to the embodiment of the present invention.

図6は本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の処理構成を示す構成図である。図7は本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の差分画像有効判定ステップの処理構成を示す構成図である。図8は本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の注目領域画像作成ステップの処理構成を示す構成図である。図9は本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の注目領域画像作成ステップで作成された注目領域画像を示す図である。図10は本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の注目領域画像の選定ステップの処理構成を示す構成図である。   FIG. 6 is a block diagram showing the processing configuration of the attention area extraction unit in the object detection preprocessing apparatus according to the embodiment of the present invention. FIG. 7 is a configuration diagram showing a processing configuration of the difference image validity determination step of the attention area extraction unit in the object detection preprocessing apparatus according to the embodiment of the present invention. FIG. 8 is a block diagram showing the processing configuration of the attention area image creation step of the attention area extraction unit in the object detection preprocessing apparatus according to the embodiment of the present invention. FIG. 9 is a diagram showing the attention area image created in the attention area image creation step of the attention area extraction unit in the object detection preprocessing apparatus according to the embodiment of the present invention. FIG. 10 is a configuration diagram showing the processing configuration of the attention area image selection step of the attention area extraction unit in the object detection preprocessing apparatus according to the embodiment of the present invention.

図11は本発明の実施の形態に係る対象物検出前処理装置における照射命令部の構成を示す構成図である。図12は本発明の実施の形態に係る対象物検出前処理装置における照射命令部の初期探索部の処理構成を示す構成図である。図13は本発明の実施の形態に係る対象物検出前処理装置における照射命令部の継続探索部の処理構成を示す構成図である。図14は本発明の実施の形態に係る対象物検出前処理装置における照射命令部のハレーション対策部の処理構成を示す構成図である。図15は本発明の実施の形態に係る対象物検出前処理装置における照射命令部の距離に応じる制御部の処理構成を示す構成図である。図16は本発明の実施の形態に係る対象物検出前処理装置と観測対象物(人)との距離の関係を示す図である。   FIG. 11 is a configuration diagram showing a configuration of an irradiation command unit in the object detection pre-processing apparatus according to the embodiment of the present invention. FIG. 12 is a configuration diagram showing the processing configuration of the initial search unit of the irradiation command unit in the object detection preprocessing apparatus according to the embodiment of the present invention. FIG. 13 is a configuration diagram showing a processing configuration of the continuous search unit of the irradiation command unit in the object detection preprocessing apparatus according to the embodiment of the present invention. FIG. 14 is a configuration diagram showing a processing configuration of the halation countermeasure unit of the irradiation command unit in the object detection preprocessing apparatus according to the embodiment of the present invention. FIG. 15 is a configuration diagram showing a processing configuration of the control unit according to the distance of the irradiation command unit in the object detection preprocessing apparatus according to the embodiment of the present invention. FIG. 16 is a diagram showing the relationship between the distance between the object detection preprocessing apparatus and the observation object (person) according to the embodiment of the present invention.

図17は本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の処理構成を示す構成図である。図18Aは本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の反転・平滑化処理ステップでの反転前の画像を示す図である。図18Bは本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の反転・平滑化処理ステップでの反転後の画像を示す図である。図18Cは本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の反転・平滑化処理ステップでの平滑化された画像を示す図である。   FIG. 17 is a configuration diagram showing a processing configuration of the face detection unit in the object state estimation apparatus including the object detection preprocessing apparatus according to the embodiment of the present invention. FIG. 18A is a diagram showing an image before inversion in the inversion / smoothing process step of the face detection unit in the object state estimation apparatus including the object detection preprocessing apparatus according to the embodiment of the present invention. FIG. 18B is a diagram showing an image after inversion in the inversion / smoothing process step of the face detection unit in the object state estimation device including the object detection preprocessing device according to the embodiment of the present invention. FIG. 18C is a diagram showing a smoothed image in the inversion / smoothing process step of the face detection unit in the object state estimation apparatus including the object detection preprocessing apparatus according to the embodiment of the present invention.

図19Aは本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の濃淡情報正規化ステップでの入力画像の輝度値分布を示す図である。図19Bは本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の濃淡情報正規化ステップでの出力画像の輝度値分布を示す図である。図20は本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の顔検出処理部の入力画像の背景部分にかけられたマスクについて説明するための図である。図21は本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の後処理部から出力される位置情報について説明するための図である。図22は本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部で用いることが可能な過去の顔検出結果を示す図である。図23は本発明の対象物検出前処理装置を含む対象物状態推定装置における人の状態の推定フローについて説明するためのフローチャートである。   FIG. 19A is a diagram showing a luminance value distribution of an input image in a density information normalization step of the face detection unit in the object state estimation apparatus including the object detection preprocessing apparatus according to the embodiment of the present invention. FIG. 19B is a diagram showing a luminance value distribution of the output image in the density information normalization step of the face detection unit in the object state estimation apparatus including the object detection preprocessing apparatus according to the embodiment of the present invention. FIG. 20 is a diagram for explaining a mask applied to the background portion of the input image of the face detection processing unit of the face detection unit in the object state estimation apparatus including the object detection preprocessing apparatus according to the embodiment of the present invention. is there. FIG. 21 is a diagram for explaining position information output from the post-processing unit of the face detection unit in the object state estimation device including the object detection pre-processing device according to the embodiment of the present invention. FIG. 22 is a diagram showing past face detection results that can be used by the face detection unit in the object state estimation apparatus including the object detection preprocessing apparatus according to the embodiment of the present invention. FIG. 23 is a flowchart for explaining a human state estimation flow in the object state estimation apparatus including the object detection preprocessing apparatus of the present invention.

まず、本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置の構成について図1を用いて説明する。図1に示すように、対象物状態推定装置100は、対象物検出前処理装置(以下、人物検出前処理装置とも言う)101、顔検出部109、履歴情報格納部110、状態推定部111から構成されている。さらに、対象物検出前処理装置101は、拡散フィルタ102、補助照明器(上述した照射手段に相当)103、補助照明制御部(上述した照射制御手段に相当)104、特定波長透過フィルタ105、撮影部(上述した画像取得手段に相当)106、照射命令部(上述した照射命令手段に相当)107、注目領域抽出部(上述した注目領域抽出手段に相当)108から構成されている。   First, the configuration of an object state estimation apparatus including an object detection preprocessing apparatus according to an embodiment of the present invention will be described with reference to FIG. As shown in FIG. 1, the object state estimation device 100 includes an object detection preprocessing device (hereinafter also referred to as a person detection preprocessing device) 101, a face detection unit 109, a history information storage unit 110, and a state estimation unit 111. It is configured. Further, the object detection pre-processing apparatus 101 includes a diffusion filter 102, an auxiliary illuminator (corresponding to the above-described irradiation means) 103, an auxiliary illumination control unit (corresponding to the above-described irradiation control means) 104, a specific wavelength transmission filter 105, and an imaging. A part 106 (corresponding to the above-mentioned image acquisition means) 106, an irradiation command part (corresponding to the above-mentioned irradiation command means) 107, and an attention area extraction part (corresponding to the above-mentioned attention area extraction means) 108.

ここで、以下に示す実施の形態では、対象物状態推定装置100を特に人物の状態を推定する人物状態推定装置100として説明する。本発明に係る対象物検出前処理装置101を含む人物状態推定装置100は、様々な分野において用いることができる。ここでは、エアバック展開制御用、ドライバーの居眠り・脇見運転防止用、ロボット制御用、ゲームの操作制御用として説明する。まず、エアバック展開制御用として用いられる場合について説明する。人物状態推定装置100は、後述する顔検出部109で検出された乗員の顔位置情報を不図示のエアバック展開制御装置に送信する。この送信された位置情報に基づいて、エアバック展開制御装置は事故などでエアバックを展開する必要があるときに、乗員が存在する位置に係るエアバックのみを展開させる。   Here, in the embodiment described below, the object state estimation device 100 will be described as a person state estimation device 100 that particularly estimates the state of a person. The human state estimation device 100 including the object detection preprocessing device 101 according to the present invention can be used in various fields. Here, the explanation will be made for air bag deployment control, for driver's snooze / side-side driving prevention, for robot control, and for game operation control. First, the case where it is used for airbag deployment control will be described. The person state estimation device 100 transmits occupant face position information detected by a face detection unit 109 described later to an airbag deployment control device (not shown). Based on the transmitted position information, the airbag deployment control device deploys only the airbag related to the position where the occupant is present when the airbag needs to be deployed due to an accident or the like.

次に、ドライバーの居眠り・脇見運転防止用として用いられる場合について説明する。人物状態推定装置100は、後述する状態推定部111で推定されたドライバーの状態(居眠り、脇見など)情報を不図示の運転支援システムに送信する。この送信されたドライバーの状態情報に基づいて、運転支援システムはドライバーへの警告や運転の支援などを行う。次に、ロボット制御用として用いられる場合について説明する。人物状態推定装置100は、顔の表情などにより状態推定部111で推定された人物の状態(笑うなど)情報を不図示の自律行動システムに送信する。この送信された状態情報に基づいて、自律行動システムは、ロボットの顔をうれしいや悲しいなどの表情に変化させる。次に、ゲームの操作制御用として用いられる場合について説明する。人物状態推定装置100は、状態推定部111で推定された人物の表情(笑うなど)情報を不図示の操作制御装置に送信する。この送信された状態情報に基づいて、操作制御装置はゲームの内容や表示された色などを操作する。   Next, a description will be given of a case where it is used to prevent a driver from falling asleep or driving aside. The person state estimation device 100 transmits the driver state (sleeping, looking aside, etc.) information estimated by a state estimation unit 111 described later to a driving support system (not shown). Based on the transmitted status information of the driver, the driving support system performs a warning to the driver and driving support. Next, the case where it is used for robot control will be described. The person state estimation device 100 transmits the person state (such as laughing) information estimated by the state estimation unit 111 based on facial expressions or the like to an autonomous behavior system (not shown). Based on the transmitted state information, the autonomous behavior system changes the face of the robot into a facial expression such as happy or sad. Next, the case where it is used for game operation control will be described. The person state estimation device 100 transmits the facial expression (laughing) information of the person estimated by the state estimation unit 111 to an operation control device (not shown). Based on the transmitted state information, the operation control device operates the contents of the game, the displayed color, and the like.

以下、対象物状態推定装置100の各構成要素について説明する。拡散フィルタ102は、補助照明器103によって照射される光を均一で広範囲に広げるためのものである。補助照明器103は複数の近赤外光光源(例えば、LED光源)から構成されており、一般的に光源の配置は撮影部106の周辺に配置されることが望ましい。補助照明制御部104は、一般的に光源の点灯や点灯時間の長さなどの制御を行っている。撮影部106は分光感度範囲が近赤外光の波長に対応するカメラで構成され、分光感度特性の相対感度のピークは、図2に示すように補助照明の中心波長と一致することが望ましい。   Hereinafter, each component of the object state estimation apparatus 100 will be described. The diffusion filter 102 is for spreading the light irradiated by the auxiliary illuminator 103 uniformly and over a wide range. The auxiliary illuminator 103 is composed of a plurality of near-infrared light sources (for example, LED light sources). In general, the light sources are preferably arranged around the photographing unit 106. The auxiliary illumination control unit 104 generally controls the lighting of the light source and the length of the lighting time. The imaging unit 106 is configured by a camera whose spectral sensitivity range corresponds to the wavelength of near-infrared light, and the peak of the relative sensitivity of the spectral sensitivity characteristic is preferably coincident with the center wavelength of the auxiliary illumination as shown in FIG.

また、撮影部106は特定波長透過フィルタ105を備えている。特定波長透過フィルタ105を撮影部106に装着することで、撮影部106は補助照明器103から照射された光の反射光のみを受光できるようになり、太陽光を含む外乱光による影響を低減させることができる。また、特定波長透過フィルタ105の透過波長特性は、図3に示すように、補助照明器103の照射光の中心波長付近で幅が狭い波長帯域を透過するものが望ましい。   The imaging unit 106 includes a specific wavelength transmission filter 105. By attaching the specific wavelength transmission filter 105 to the imaging unit 106, the imaging unit 106 can receive only the reflected light of the light emitted from the auxiliary illuminator 103, thereby reducing the influence of disturbance light including sunlight. be able to. Further, it is desirable that the transmission wavelength characteristic of the specific wavelength transmission filter 105 transmits a narrow wavelength band near the center wavelength of the irradiation light of the auxiliary illuminator 103 as shown in FIG.

補助照明器103の照射のタイミングは、図4に示すように、撮影部106のシャッターの開閉のタイミングに同期させる。補助照明器103の照射のタイミングを撮影部106のシャッターの開閉のタイミングに同期させることは、撮影部106が受光する期間内のみ補助照射器103の照射がなされ、パルス型照射が実現できる。パルス型照射は常時点灯(常時オン)に比べ、人間に対して照射される光のパワーと消費電力が減少する。したがって、補助照明器103の照射は常時点灯に比べて、人間に対して安全でかつ低コスト化を実現できる。   The timing of irradiation of the auxiliary illuminator 103 is synchronized with the timing of opening and closing the shutter of the photographing unit 106 as shown in FIG. Synchronizing the irradiation timing of the auxiliary illuminator 103 with the opening / closing timing of the shutter of the imaging unit 106 allows the auxiliary illuminator 103 to be irradiated only during the period in which the imaging unit 106 receives light, thereby realizing pulsed irradiation. Pulsed irradiation reduces the power and power consumption of light irradiated to humans, compared to continuous lighting (always on). Therefore, the irradiation of the auxiliary illuminator 103 is safer for humans and can be realized at lower cost than the constant lighting.

補助照明器103は、時系列連続画像に対して異なる光量で照射を行う。図5Aに示すように、連続で撮影される2枚の画像が異なる光量(A%とB%)の照射によって取得される。撮影部106にNTSCカメラを用いる場合では、2枚の時系列連続画像はフィールド画像に相当する。この方式で撮影された2枚のフィールド画像は図5Bに示すように、一方の画像(先に撮影された画像であって、First_imageとも言う)は明るく、一方の画像(後に撮影された画像であって、Second_imageとも言う)は暗く、輝度差がある2枚の画像が得られる。したがって、一方の画像の輝度が悪い(明る過ぎる又は暗過ぎる)ときでも、もう一方の画像が得られ顔検出に用いることができる。2枚の画像のうち輝度がよい画像を選び、その画像を用いて後述する顔検出部109で観測対象物を検出することもできる。   The auxiliary illuminator 103 irradiates the time-series continuous images with different light amounts. As shown in FIG. 5A, two images captured in succession are acquired by irradiation with different light amounts (A% and B%). When an NTSC camera is used for the photographing unit 106, the two time-series continuous images correspond to field images. As shown in FIG. 5B, two field images captured in this manner are brighter in one image (first captured image, also referred to as First_image), and one image (an image captured later). And also called Second_image) is dark and two images with luminance differences are obtained. Therefore, even when the brightness of one image is poor (too bright or too dark), the other image can be obtained and used for face detection. It is also possible to select an image with good brightness from the two images and use the image to detect an observation target by the face detection unit 109 described later.

また、補助照明器103は異なる光量で照射を行うことで、異なる輝度を持つ2枚の画像が得られ、図6に示す注目領域抽出部108の差分処理のステップ(ステップS201)でこれらの画像の差分を求めることで観測対象物(ここでは、人の顔)の存在領域を求めることができる。2枚の画像の差分処理は、下記の式(1)によって求めることができる。ここで、Idiff(x、y)は2枚の画像の輝度値の差、IFirst_image(x、y)はFirst_imageの輝度値、ISecond_image(x、y)はSecond_imageの輝度値である。 Further, the auxiliary illuminator 103 performs irradiation with different amounts of light to obtain two images having different luminances, and these images are obtained in the difference processing step (step S201) of the attention area extraction unit 108 illustrated in FIG. The existence area of the observation object (here, a human face) can be obtained by obtaining the difference between the two. The difference process between the two images can be obtained by the following equation (1). Here, I diff (x, y) is the difference between the luminance values of the two images, I First_image (x, y) is the luminance value of First_image , and I Second_image (x, y) is the luminance value of Second_image.

Figure 2006275988
Figure 2006275988

なお、上述したように、First_imageとSecond_imageにおいては、一方の画像は高い光量で撮影され、他方の画像は低い光量で撮影されることが条件である。例えば、図5Bに示すように、First_imageを取得するために照射される光量(A%)は、Second_imageを取得するために照射される光量(B%)に比べて常に大きいと仮定する。しかし、観測対象物と人物検出前処理装置101(特に、補助照明器103)との距離に応じて、補助照明器103の光量を変える必要がある。観測対象物との距離に応じて光量を制御しなければ、撮影される観測対象物上の輝度が明る過ぎ又は暗過ぎとなってしまう場合がある。そこで、適切な光量を求めるために、図6に示す差分画像有効判定のステップ(S202)において2枚の連続画像の差分情報を用いる。差分画像有効判定のステップ(S202)を示す図7において、一定以上の輝度を持つ画素の割合(C)の算出のステップ(S2021)では、まず、差分画像の輝度を調べてCを算出する。Cの算出の一例として、Cは下記の式(2)によって求めることができる。   As described above, in First_image and Second_image, one image is taken with a high light amount, and the other image is taken with a low light amount. For example, as shown in FIG. 5B, it is assumed that the amount of light (A%) irradiated to acquire First_image is always larger than the amount of light (B%) irradiated to acquire Second_image. However, it is necessary to change the amount of light of the auxiliary illuminator 103 in accordance with the distance between the observation object and the person detection preprocessing apparatus 101 (particularly, the auxiliary illuminator 103). If the amount of light is not controlled according to the distance to the observation object, the luminance on the observed observation object may be too bright or too dark. Therefore, in order to obtain an appropriate amount of light, difference information between two consecutive images is used in the difference image validity determination step (S202) shown in FIG. In FIG. 7 showing the difference image validity determination step (S202), in the step (S2021) of calculating the ratio (C) of the pixels having a certain luminance or higher, first, C is calculated by examining the luminance of the difference image. As an example of calculating C, C can be obtained by the following equation (2).

Figure 2006275988
Figure 2006275988

ここで、Igraysacle>=T(x、y)はT以上の輝度値をもつ画素であり、Tは所定のパラメータ値である。また、HとWはそれぞれ画像の高さと幅(単位:画素)である。次に、算出されたCは差分画像の輝度差の判定条件であるCminと比較され(比較のステップS2022)、CがCminより小さければ現状の輝度が明る過ぎ又は暗過ぎであると判定され、補助照明器103の照射光量を変更するために照射命令部107(後述する継続探索部302)に指示が出される。一方、CがCminと等しいか又はCminより大きい場合、次の判定が行われる。なお、Cminは所定のパラメータである。 Here, I graysacle> = T (x, y) is a pixel having a luminance value equal to or higher than T, and T is a predetermined parameter value. H and W are the height and width (unit: pixel) of the image, respectively. Next, the calculated C is compared with Cmin, which is a determination condition for the luminance difference of the difference image (comparative step S2022). If C is smaller than Cmin, it is determined that the current luminance is too bright or too dark, An instruction is issued to the irradiation command unit 107 (continuous search unit 302 described later) in order to change the irradiation light amount of the auxiliary illuminator 103. On the other hand, if C is equal to or greater than Cmin, the next determination is made. Cmin is a predetermined parameter.

次の判定はハレーションの判定である。まず、画素の平均輝度値(Tavg)の算出のステップ(S2023)で、Igraysacle>=T(x、y)の平均輝度値Tavgが求められる。求められたTavgとハレーション判定条件であるTmaxとが比較され(比較のステップS2024)、TavgがTmaxより大きい場合には、画像の表面上にハレーションが生じ、現状の光量が不適切であると判定され、補助照明器103での照射光量を低減させるために照射命令部107(後述するハレーション対策部303)に指示が出される。一方、TavgがTmaxと等しいか又はTmaxより小さい場合、現状の光量が適切であると判定され、差分画像及び2枚の時系列連続画像は注目領域画像作成のステップ(S203)へ移行される。なお、Tmaxは所定のパラメータである。 The next determination is a halation determination. First, in the step of calculating the average luminance value (Tavg) of pixels (S2023), an average luminance value Tabg of I graysacle> = T (x, y) is obtained. The obtained Tavg is compared with Tmax which is a halation determination condition (comparison step S2024). If Tavg is larger than Tmax, halation occurs on the surface of the image, and it is determined that the current light amount is inappropriate. Then, an instruction is issued to the irradiation command unit 107 (halation countermeasure unit 303 described later) in order to reduce the amount of light emitted from the auxiliary illuminator 103. On the other hand, if Tabg is equal to or smaller than Tmax, it is determined that the current light amount is appropriate, and the difference image and the two time-series continuous images are shifted to the attention area image creation step (S203). Tmax is a predetermined parameter.

注目領域画像作成のステップ(S203)では、得られた差分画像から注目領域の位置や大きさなどの情報を取得し、それらの情報に基づいて注目領域画像を生成する。注目領域画像作成のステップ(S203)を示す図8において、まず、差分画像の2値化のステップ(S2031)では、入力される差分画像を2値化する。2値化処理方法はいろいろあり、ここではPタイル法と固定閾値法の組み合わせを用いる。Pタイル法から2値化対象の輝度値Tiを算出する。このTiは輝度値が高いほうから画素の出現頻度の和を求め、それが全体画素数に対しPtの割合になる輝度値である。ここで、Ptは所定のパラメータである。算出されたTiを固定閾値Tsと比較し、2値化に用いる閾値Tbinを選定する。Tbinの選定は下記の式(3)によって行われる。なお、Tsは所定のパラメータである。   In the attention area image creation step (S203), information such as the position and size of the attention area is acquired from the obtained difference image, and the attention area image is generated based on the information. In FIG. 8 showing the attention area image creation step (S203), first, in the difference image binarization step (S2031), the input difference image is binarized. There are various binarization processing methods, and here, a combination of the P tile method and the fixed threshold method is used. The luminance value Ti to be binarized is calculated from the P tile method. This Ti is a luminance value that obtains the sum of the appearance frequencies of pixels from the higher luminance value and becomes the ratio of Pt to the total number of pixels. Here, Pt is a predetermined parameter. The calculated Ti is compared with a fixed threshold Ts, and a threshold Tbin used for binarization is selected. Selection of Tbin is performed by the following formula (3). Ts is a predetermined parameter.

Figure 2006275988
Figure 2006275988

次に、Tbinを用いて2値化処理を行う。2値化処理は下記の式(4)に基づいて行われる。ここで、I(x、y)は画像上におけるある画素の輝度値である。   Next, binarization processing is performed using Tbin. The binarization process is performed based on the following equation (4). Here, I (x, y) is a luminance value of a certain pixel on the image.

Figure 2006275988
Figure 2006275988

そして、2値画像のグループ化のステップ(S2032)では輝度値がAとなった画素をグループ化する。ここでは、ラベリング処理などを用いて輝度値がAとなった画素の塊を求め、各塊の面積(画素数)を算出する。次に、塊の面積情報を用いて雑音などを除去する。具体的には、AreaMinより大きい面積を持つグループ(塊)があるか否かを判定(判定のステップS2033)し、塊の面積がAreaMinより大きい場合に注目領域画像の作成のステップ(S2034)に移行する。AreaMinより面積が大きい塊を観測対象物とみなし、その塊を用いて注目領域画像の作成のステップ(S2034)では、図9に示すように、注目領域の位置情報(x1、y1、x2、y2)を算出し、これらの位置情報を用いて注目領域画像を作成する。ここでは、注目領域画像作成のステップ(S203)に移行された2枚の時系列連続画像に対する2枚の注目領域画像が作成される。そして、作成された2枚の注目領域画像は注目領域画像の選定のステップ(S204)に移行される。なお、AreaMinより面積が大きい塊がない場合、差分画像は無効と判断され、補助照明器103での照射光量を変更するために照射命令部107に指示が出される。また、AreaMinは所定のパラメータ値である。   Then, in the binary image grouping step (S2032), the pixels having the luminance value A are grouped. Here, a block of pixels having a luminance value A is obtained by using a labeling process or the like, and the area (number of pixels) of each block is calculated. Next, noise or the like is removed using the area information of the lump. Specifically, it is determined whether or not there is a group (lumb) having an area larger than AreaMin (determination step S2033). If the area of the chunk is larger than AreaMin, the attention area image creation step (S2034) is performed. Transition. A block having an area larger than AreaMin is regarded as an observation target, and in the step of creating a region of interest image using the block (S2034), as shown in FIG. 9, position information (x1, y1, x2, y2) of the region of interest ) And the region-of-interest image is created using these pieces of position information. Here, two attention area images are created for the two time-series continuous images transferred to the attention area image creation step (S203). Then, the two attention area images thus created are shifted to the attention area image selection step (S204). If there is no block having an area larger than AreaMin, the difference image is determined to be invalid, and an instruction is issued to the irradiation command unit 107 in order to change the irradiation light amount in the auxiliary illuminator 103. AreaMin is a predetermined parameter value.

注目領域画像の選定のステップ(S204)では、移行された2枚の連続注目領域画像から1枚の注目領域画像に絞り込んで、絞り込まれた注目領域画像を顔検出部109に入力する。以下では2枚の注目領域画像の絞り込みの方法について述べる。注目領域画像の選定のステップ(S204)を示す図10において、まず、輝度の平均値(Iave1、Iave2)算出のステップ(S2041)では各注目領域画像の輝度の平均値であるIave1とIave2を求める。なお、Iave1はFirst_imageから生成された注目領域画像の輝度平均値で、Iave2はSecond_imageから生成された注目領域画像の輝度平均値である。   In the attention area image selection step (S <b> 204), the two consecutive attention area images that have been transferred are narrowed down to one attention area image, and the narrowed attention area image is input to the face detection unit 109. Hereinafter, a method of narrowing down two attention area images will be described. In FIG. 10 showing the attention area image selection step (S204), first, in the luminance average value (Iave1, Iave2) calculation step (S2041), the average luminance values Iave1 and Iave2 of each attention area image are obtained. . Note that Iave1 is the average luminance value of the attention area image generated from First_image, and Iave2 is the average luminance value of the attention area image generated from Second_image.

次に、Iave1を用いてFirst_imageから生成された注目領域画像の有効判定(ハレーション判定)を行う。ここでは、Iave1と最大許容平均値Gmaxとを比較して(比較のステップS2042)、Iave1がGmaxを超えた場合、ハレーションが生じる画像であると判定される。この場合、First_imageから生成された注目領域画像は無効とされ、顔検出部109に入力される注目領域画像にはSecond_imageから生成された注目領域画像が選定される(選定のステップS2044)。同時に、補助照明器103の照射光量を変更するために照射命令部107に指示が出される。一方、Iave1がGmax以下である場合、顔検出部109に入力される注目領域画像はFirst_imageから生成された注目領域画像が選定される(選定のステップS2043)。ここで、Gmaxは所定のパラメータ値である。   Next, the validity determination (halation determination) of the attention area image generated from First_image is performed using Iave1. Here, Iave1 is compared with the maximum allowable average value Gmax (comparison step S2042), and when Iave1 exceeds Gmax, it is determined that the image causes halation. In this case, the attention area image generated from the First_image is invalidated, and the attention area image generated from the Second_image is selected as the attention area image input to the face detection unit 109 (selection step S2044). At the same time, an instruction is issued to the irradiation command unit 107 in order to change the irradiation light amount of the auxiliary illuminator 103. On the other hand, when Iave1 is equal to or less than Gmax, the attention area image generated from First_image is selected as the attention area image input to the face detection unit 109 (selection step S2043). Here, Gmax is a predetermined parameter value.

ここで、照射命令部107は、図11に示すように4つの機能(初期探索部301、継続探索部302、ハレーション対策部303、距離に応じる制御部304)から構成されている。まず、初期探索部301について図12を用いて説明する。人物検出前処理装置101が起動されたときにシステム初期化部112でシステムの初期化が行われ、初期化が完了した時点で照射開始命令信号を照射光量設定部3011に送信する。照射開始命令信号を受信した照射光量設定部3011では、照射光量First_image_power(%)とSecond_image_power(%)を設定し、これらの情報を補助照明制御部104と履歴情報格納部110に送信する。First_image_power(%)とSecond_image_power(%)の設定については様々な方法で行うことができる。ここでは、一例として、下記の式(5)によって照射光量First_image_power(%)とSecond_image_power(%)を設定する。なお、Pini(%)は光量の初期値であり、所定のパラメータである。また、Pdiff(%)は照射光量の差であり、所定のパラメータである。   Here, as shown in FIG. 11, the irradiation command unit 107 includes four functions (an initial search unit 301, a continuous search unit 302, a halation countermeasure unit 303, and a control unit 304 corresponding to a distance). First, the initial search unit 301 will be described with reference to FIG. When the person detection preprocessing apparatus 101 is activated, the system initialization unit 112 initializes the system. When the initialization is completed, an irradiation start command signal is transmitted to the irradiation light amount setting unit 3011. The irradiation light amount setting unit 3011 that has received the irradiation start command signal sets the irradiation light amount First_image_power (%) and Second_image_power (%), and transmits these information to the auxiliary illumination control unit 104 and the history information storage unit 110. There are various methods for setting First_image_power (%) and Second_image_power (%). Here, as an example, the irradiation light amount First_image_power (%) and Second_image_power (%) are set by the following equation (5). Pini (%) is an initial value of the light amount and is a predetermined parameter. Pdiff (%) is a difference in the amount of irradiation light and is a predetermined parameter.

Figure 2006275988
Figure 2006275988

次に、継続探索部302について図13を用いて説明する。継続探索部302では、注目領域抽出部108から照射光量変更の指示信号を受信した場合、履歴情報格納部110から入力される、前の時刻である時刻t-1でのFirst_image_power(%)が最大照射光量であるかを判定する(判定のステップS3021)。時刻t-1でのFirst_image_power(%)が最大照射光量である場合、照射光量最小化のステップ(S3022)で照射光量を最小値に変更する。光量の変更方法の一例として下記の式(6)によって照射光量の最小化を行うことができる。なお、Pmin(%)は光量の最小値であり、所定のパラメータである。一方、時刻t-1でのFirst_image_power(%)が最大照射光量ではない場合、照射光量増加のステップ(S3023)で照射光量を増加する。この場合の光量の変更方法の一例として下記の式(7)によって照射光量の増加を行うことができる。なお、Pstep(%)は光量の上げ幅量であり、所定のパラメータである。そして、変更後のFirst_image_power(%)とSecond_image_power(%)を補助照明制御部104と履歴情報格納部110に送信する。   Next, the continuous search unit 302 will be described with reference to FIG. In the continuous search unit 302, when the instruction signal for changing the irradiation light amount is received from the attention area extraction unit 108, First_image_power (%) at the time t-1 that is the previous time, which is input from the history information storage unit 110, is the maximum. It is determined whether the amount of irradiation light is present (determination step S3021). When First_image_power (%) at time t-1 is the maximum irradiation light amount, the irradiation light amount is changed to the minimum value in the irradiation light amount minimizing step (S3022). As an example of the method for changing the light amount, the irradiation light amount can be minimized by the following equation (6). Note that Pmin (%) is the minimum value of the light amount and is a predetermined parameter. On the other hand, if First_image_power (%) at time t-1 is not the maximum irradiation light amount, the irradiation light amount is increased in the irradiation light amount increase step (S3023). As an example of the method of changing the light quantity in this case, the irradiation light quantity can be increased by the following equation (7). Pstep (%) is the amount of increase in the amount of light, and is a predetermined parameter. Then, the changed First_image_power (%) and Second_image_power (%) are transmitted to the auxiliary lighting control unit 104 and the history information storage unit 110.

Figure 2006275988
Figure 2006275988

Figure 2006275988
Figure 2006275988

次に、ハレーション対策部303について図14を用いて説明する。ハレーション対策部303では、注目領域抽出部108から照射光量変更の指示信号を受信した場合、履歴情報格納部110から入力される時刻t-1でのFirst_image_power(%)が最小照射光量より小さいか否かを判定する(判定のステップS3031)。   Next, the halation countermeasure unit 303 will be described with reference to FIG. When the halation countermeasure unit 303 receives an irradiation light amount change instruction signal from the attention area extraction unit 108, whether First_image_power (%) at time t-1 input from the history information storage unit 110 is smaller than the minimum irradiation light amount. Is determined (determination step S3031).

時刻t-1でのFirst_image_power(%)が最小照射光量以下である場合、照射光量を変更せずに現状の照射光量を維持する。一方、時刻t-1でのFirst_image_power(%)が最小照射光量より大きい場合、照射光量低減のステップ(S3032)で照射光量を現状より低い値に変更する。照射光量の変更の一例として下記の式(8)によって照射光量の低減を行うことができる。   When First_image_power (%) at time t-1 is equal to or less than the minimum irradiation light amount, the current irradiation light amount is maintained without changing the irradiation light amount. On the other hand, if First_image_power (%) at time t−1 is larger than the minimum irradiation light amount, the irradiation light amount is changed to a value lower than the current value in the irradiation light amount reduction step (S3032). As an example of changing the irradiation light amount, the irradiation light amount can be reduced by the following equation (8).

Figure 2006275988
Figure 2006275988

次に、距離に応じる制御部304について図15を用いて説明する。距離に応じる制御部304では、顔検出部109から時刻tにおける顔検出結果と、履歴情報格納部110から時刻t-1における顔検出結果を受信する。ここでは、受信した両方の顔検出結果を用いて照射光量の変更要否を判定する(判定のステップS3041)。図16に示すように、画像上での顔の大きさが大きくなるということは観測対象の人物までの距離が短くなることを意味している。一方、画像上での顔の大きさが小さくなるということは、観測対象の人物までの距離が長くなることを意味している。照射光量の変更要否判定の一例として下記の式(9)を用いて行うことができる。ここで、Face_sizet、Face_sizet-1、dFace_sizeはそれぞれ時刻tにおける顔の大きさ、時刻t-1での顔の大きさ、同距離における顔の大きさの許容値を示している。dFace_sizeは所定のパラメータである。 Next, the control unit 304 corresponding to the distance will be described with reference to FIG. The control unit 304 corresponding to the distance receives the face detection result at the time t from the face detection unit 109 and the face detection result at the time t−1 from the history information storage unit 110. Here, it is determined whether or not the irradiation light amount needs to be changed using both of the received face detection results (determination step S3041). As shown in FIG. 16, an increase in the size of the face on the image means a decrease in the distance to the person to be observed. On the other hand, the smaller face size on the image means that the distance to the person to be observed becomes longer. The following formula (9) can be used as an example of determining whether or not to change the irradiation light quantity. Here, Face_size t , Face_size t−1 , and dFace_size respectively indicate the face size at time t, the face size at time t−1, and the allowable values of the face size at the same distance. dFace_size is a predetermined parameter.

Figure 2006275988
Figure 2006275988

判定結果が「Yes」であれば、次に距離変化(距離増加)の判定を行う(判定のステップS3042)。ここでは、時刻tにおける観測対象物の距離が、時刻t-1における距離に対して近くなるか遠くなるかを判定する。判定方法の一例として下記の式(10)を用いて観測対象物の距離の変化を求めることができる。式(10)より、判定結果が「Yes」であれば、照射光量増加のステップ(S3043)で式(7)を用いて時刻t+1での照射光量を増やす。一方、判定結果が「No」であれば、照射光量低減のステップ(S3044)で式(8)を用いて時刻t+1での照射光量を減らす。時刻t+1での照射光量が決定されたら、この情報を補助照明制御部104と履歴情報格納部110に送信する。   If the determination result is “Yes”, then a change in distance (distance increase) is determined (determination step S3042). Here, it is determined whether the distance of the observation object at time t is closer to or farther from the distance at time t−1. As an example of the determination method, a change in the distance of the observation object can be obtained using the following equation (10). From Expression (10), if the determination result is “Yes”, the irradiation light quantity at time t + 1 is increased using Expression (7) in the irradiation light quantity increase step (S3043). On the other hand, if the determination result is “No”, the irradiation light amount at time t + 1 is reduced using Expression (8) in the irradiation light amount reduction step (S3044). When the irradiation light amount at time t + 1 is determined, this information is transmitted to the auxiliary illumination control unit 104 and the history information storage unit 110.

Figure 2006275988
Figure 2006275988

補助照明制御部104では、照射命令部107から受信した照射光量の情報に基づいて補助照明器103に供給する電力量を制御する。   The auxiliary illumination control unit 104 controls the amount of power supplied to the auxiliary illuminator 103 based on the information on the amount of irradiation light received from the irradiation command unit 107.

顔検出部109は、図17に示すように、前処理部41、顔検出処理部42、43、44、後処理部45から構成されている。前処理部41における処理は、雑音除去ステップS411、画像縮小ステップS412、画像領域取得ステップS413、反転・平滑化処理ステップS414、濃淡情報正規化ステップS415及びS416から構成されている。雑音除去ステップでは、注目領域抽出部108から入力された画像に対して、不図示のローパスフィルタが適用され、雑音の除去が行われる。画像縮小ステップでは、撮影対象の人物の顔までの距離の変化による顔の大きさの変化に対応するために、入力された画像が複数の大きさに変換される。   As shown in FIG. 17, the face detection unit 109 includes a pre-processing unit 41, face detection processing units 42, 43, 44, and a post-processing unit 45. The processing in the pre-processing unit 41 includes a noise removal step S411, an image reduction step S412, an image area acquisition step S413, an inversion / smoothing processing step S414, and density information normalization steps S415 and S416. In the noise removal step, a low-pass filter (not shown) is applied to the image input from the attention area extraction unit 108 to remove noise. In the image reduction step, the input image is converted into a plurality of sizes in order to cope with a change in the size of the face due to a change in the distance to the face of the person to be photographed.

画像領域取得ステップでは、画像縮小ステップで変換された複数の画像が所定の大きさ、例えばh(縦)×w(幅)画素で切り出される。ここで、切り出された画像を切り出し画像と言う。反転・平滑化処理ステップでは、画像領域取得ステップで切り出されたすべての切り出し画像に対して、偏った照明などにより顔の表面上に生じる輝度ムラの低減の処理がなされる。ここで、輝度ムラの低減の処理は、下記の式(11)及び(12)によって行われる。ここで、I’(x、y)は反転後の輝度値、I(x、y)は反転前の輝度値であり、wは上述した切り出し画像の幅である。また、I’’(x、y)は平滑化された輝度値である。ただし、xとyの変域はそれぞれ0〜w−1、0〜h−1である。   In the image area acquisition step, a plurality of images converted in the image reduction step are cut out with a predetermined size, for example, h (vertical) × w (width) pixels. Here, the clipped image is referred to as a clipped image. In the inversion / smoothing process step, all the cut-out images cut out in the image region acquisition step are subjected to a process for reducing luminance unevenness generated on the face surface due to biased illumination or the like. Here, the process of reducing luminance unevenness is performed by the following equations (11) and (12). Here, I ′ (x, y) is the luminance value after inversion, I (x, y) is the luminance value before inversion, and w is the width of the above-described clipped image. I ″ (x, y) is a smoothed luminance value. However, the domains of x and y are 0 to w−1 and 0 to h−1, respectively.

Figure 2006275988
Figure 2006275988

Figure 2006275988
Figure 2006275988

反転・平滑化処理ステップにおける処理の説明を分かりやすくするため、切り出し画像として顔全体が映し出された画像を用いて説明する。反転前の画像を図18Aに、反転後の画像を図18Bに、平滑化後の画像を図18Cにそれぞれ示す。図18Aは、反転前の画像を示しており、輝度の濃い(高い)部分1800が存在する。図18Aの画像を反転させることにより、輝度の濃い部分1800が反転され、図18Bのような輝度の濃い部分1801が得られる。この図18A及び図18Bを平滑化することによって図18Cのような平滑化画像が得られ、切り出し画像全体の輝度ムラが低減される。   In order to make the explanation of the process in the inversion / smoothing process easy to understand, an explanation will be given using an image in which the entire face is projected as a cut-out image. The image before inversion is shown in FIG. 18A, the image after inversion is shown in FIG. 18B, and the image after smoothing is shown in FIG. 18C. FIG. 18A shows an image before inversion, and there is a dark (high) portion 1800. By reversing the image of FIG. 18A, the dark portion 1800 is reversed, and a dark portion 1801 as shown in FIG. 18B is obtained. By smoothing FIGS. 18A and 18B, a smoothed image as shown in FIG. 18C is obtained, and luminance unevenness of the entire cutout image is reduced.

濃淡情報正規化ステップS415及びS416では、反転・平滑化処理ステップで処理された画像と画像領域取得ステップで切出された切出し画像に対して、下記の式(13)を用いて切り出し画像全体の明るさの変動、例えば屋外での夜間と昼間などに対応するため、切り出し画像の濃淡情報を正規化する。h(x)は輝度値xの相対出現頻度、f(g)はヒストグラム平滑化後の輝度値である。また、Round[ ]は、小数点第1位以下を四捨五入することを意味する。この変換により、輝度値の累積出現割合に比例して0〜255までの輝度値に収まるように新たな輝度値が割り当てられる。図19Aに入力画像の輝度値の分布が示されており、図19Bに出力画像の輝度値の分布が示されている。図19Aに示す入力画像の輝度値の相対的な出現頻度を式(13)に代入することにより、図19Bに示すように画像の濃淡が正規化される。   In the gradation information normalization steps S415 and S416, the entire cutout image is obtained by using the following equation (13) for the image processed in the inversion / smoothing processing step and the cutout image cut out in the image region acquisition step. In order to deal with fluctuations in brightness, for example, nighttime and daytime outdoors, the shading information of the cut-out image is normalized. h (x) is the relative appearance frequency of the luminance value x, and f (g) is the luminance value after smoothing the histogram. Round [] means rounding off the first decimal place. By this conversion, a new luminance value is assigned so as to fall within the luminance value from 0 to 255 in proportion to the cumulative appearance ratio of the luminance value. FIG. 19A shows the luminance value distribution of the input image, and FIG. 19B shows the luminance value distribution of the output image. By substituting the relative appearance frequency of the luminance value of the input image shown in FIG. 19A into Expression (13), the shade of the image is normalized as shown in FIG. 19B.

Figure 2006275988
Figure 2006275988

濃淡情報正規化ステップS415からの出力は、顔検出処理部42へ入力される。また、濃淡情報正規化ステップS416からの出力は、顔検出処理部43及び44へ入力される。なお、撮影部の光軸のまわりに回転する顔の検出(顔の傾きの検出)を可能にするため、顔検出処理部43及び44が設けられる。顔検出処理部43及び44の詳細については後述する。まず、顔検出処理部42について説明する。顔検出処理部42は、正面に向いている顔の検出を行う検出処理部である。   The output from the shading information normalization step S415 is input to the face detection processing unit 42. Further, the output from the shading information normalization step S416 is input to the face detection processing units 43 and 44. Note that face detection processing units 43 and 44 are provided to enable detection of a face that rotates around the optical axis of the imaging unit (detection of the tilt of the face). Details of the face detection processing units 43 and 44 will be described later. First, the face detection processing unit 42 will be described. The face detection processing unit 42 is a detection processing unit that detects a face facing the front.

顔検出処理部42は、階層型ニューラルネットワーク421を有している。階層型ニューラルネットワーク421は、入力層、隠れ層、出力層から構成されている。出力層からの出力値は、0から1までの数値であり、出力値が1に近いほど入力された画像は顔らしく、出力値が0に近いほど入力された画像は顔らしくないということを示す。なお、階層型ニューラルネットワークについては公知の技術であるため、詳細な説明については省略する。   The face detection processing unit 42 has a hierarchical neural network 421. The hierarchical neural network 421 includes an input layer, a hidden layer, and an output layer. The output value from the output layer is a numerical value from 0 to 1, and the closer the output value is to 1, the more the input image looks like a face, and the closer the output value is to 0, the less the face looks like the face. Show. Since the hierarchical neural network is a known technique, detailed description thereof is omitted.

顔検出処理部43及び44に関しては、双方とも同様の構成であるため、顔検出処理部43のみについて説明する。顔検出処理部43は、階層型ニューラルネットワーク431、マスク432、左右反転部433を有している。ここで、階層型ニューラルネットワーク431は、上述した階層型ニューラルネットワーク421と同様であるため、説明を省略する。左右反転部433は、撮影対象の人物が正面に向かって左右に傾いたときの顔の検出を可能にするため、入力された画像を正面(人物が左右に傾いていない)を対称軸にして反転させる。すなわち、左右反転部433は、例えば撮影対象の人物が正面に向かって右にα°傾いている(カメラの光軸に対して回転している)画像が自身に入力された場合、入力された画像を反転させて、左にα°傾いている画像を取得する。顔検出処理部44の左右反転部443でも同様であり、例えば撮影対象の人物が正面に向かって右にβ°傾いている画像が自身に入力された場合、入力された画像を反転させて、左にβ°傾いている画像を取得する。   Since both the face detection processing units 43 and 44 have the same configuration, only the face detection processing unit 43 will be described. The face detection processing unit 43 includes a hierarchical neural network 431, a mask 432, and a left / right reversing unit 433. Here, since the hierarchical neural network 431 is the same as the above-described hierarchical neural network 421, the description thereof is omitted. The left / right reversing unit 433 enables the detection of a face when the person to be photographed is tilted left and right toward the front, so that the input image has the front (the person is not tilted left and right) as the axis of symmetry. Invert. That is, the left / right reversing unit 433 is input when, for example, an image in which a person to be photographed is inclined to the right by α ° (rotating with respect to the optical axis of the camera) is input to itself. Invert the image to obtain an image tilted α ° to the left. The same applies to the left / right reversing unit 443 of the face detection processing unit 44. For example, when an image in which a person to be photographed is inclined β ° to the right toward the front is input to itself, the input image is inverted, Acquire an image tilted β ° to the left.

ここで、撮影対象の人物が左右に傾いている画像には背景の部分も含まれ、精度の高い顔検出ができなくなるため、背景部分を排除する。背景部分を排除するものがマスク432である。マスク432について図20を用いて説明する。図20に示すように、マスク432は、入力画像に対して背景部分にマスクをかける。マスクをかけることにより、背景部分を排除することができ、より精度が高い顔検出ができる。   Here, the background portion is included in the image in which the person to be photographed is tilted to the left and right, and the face portion cannot be detected with high accuracy. It is the mask 432 that excludes the background portion. The mask 432 will be described with reference to FIG. As shown in FIG. 20, the mask 432 masks the background portion of the input image. By applying the mask, the background portion can be eliminated, and more accurate face detection can be performed.

以上説明したように、顔検出処理部42〜44は、入力される画像に対して顔の類似度(入力された画像が学習された顔画像に対してどのくらい似ているかを表すもの)を求め、その結果を後処理部45へ出力する。後処理部45は、入力された顔の類似度に対して、所定の閾値などを用いて顔候補を選別し、選別後の複数の顔候補が同じ顔であるか調べ、候補を絞り込む。後処理部45は、絞り込まれた顔に対して、画像上での顔の位置情報、例えば検出された顔の中心座標、顔の大きさなどを出力する。位置情報について図21を用いて説明する。絞り込まれた画像上の顔2100には、h×wで切り出された切り出し画像を拡大させた、顔の中心座標がOcで、2Hc×2Wcの検出窓2101がかけられる。   As described above, the face detection processing units 42 to 44 obtain the degree of similarity of a face (representing how much the input image is similar to the learned face image) with respect to the input image. The result is output to the post-processing unit 45. The post-processing unit 45 selects face candidates using a predetermined threshold or the like for the input face similarity, checks whether the plurality of selected face candidates are the same face, and narrows down the candidates. The post-processing unit 45 outputs face position information on the image, for example, center coordinates of the detected face, face size, etc., for the narrowed face. The position information will be described with reference to FIG. A face 2100 on the narrowed-down image is subjected to a detection window 2101 of 2Hc × 2Wc with a center coordinate of the face obtained by enlarging the cut-out image cut out by h × w and Oc.

なお、顔検出の処理の高速化のために、図22に示す過去の顔検出結果を用いて顔検出処理部42〜44における処理範囲を限定することも可能である。この過去の顔検出結果は、履歴情報格納部110に格納されていてもよく、また、不図示の所定の記憶領域に格納されていてもよい。ここで、図22について説明する。例えば、過去の時刻において、撮影対象の人物が左にα°傾いていた場合(図22の2行目の顔検出処理部43(左方向)において顔識別がされた場合)、次の時刻(現時刻)では、撮影対象の人物はさらに左にα°以上傾くか、若しくは正面方向に戻るかの2つの状態が考えられる。これは、短時間の間に、左にα°傾いていた状態から右にα°以上傾くということは考えにくいためである。よって、過去の時刻において、撮影対象の人物が左にα°傾いていた場合(図22の2行目の顔検出処理部43(左方向)において顔識別がされた場合)、次の時刻(現時刻)で想定される顔検出処理部44(左方向)、顔検出処理部43(左方向)、顔検出処理部42(正面)のみをそれぞれの顔識別部で処理すればよい。これにより、処理の高速化を図ることができる。   Note that in order to speed up the face detection process, it is possible to limit the processing range in the face detection processing units 42 to 44 using the past face detection results shown in FIG. This past face detection result may be stored in the history information storage unit 110, or may be stored in a predetermined storage area (not shown). Here, FIG. 22 will be described. For example, in the past time, when the person to be imaged is tilted by α ° to the left (when the face detection processing unit 43 in the second row in FIG. 22 (left direction) is identified), the next time ( At the present time), there are two possible states: the person to be imaged further tilts α ° or more to the left or returns to the front direction. This is because it is difficult to think that it is inclined more than α ° to the right from a state where it is inclined α ° to the left in a short time. Therefore, if the person to be imaged is tilted by α ° to the left at the past time (when the face is identified in the face detection processing unit 43 (left direction) in FIG. 22), the next time ( Only the face detection processing unit 44 (left direction), the face detection processing unit 43 (left direction), and the face detection processing unit 42 (front) assumed at the current time may be processed by each face identification unit. As a result, the processing speed can be increased.

状態推定部111は、顔検出部109から出力された結果である顔位置情報を用いて顔画像を切り出し、切り出した顔画像より顔の表情や目の開閉状態などを抽出し、観測対象の人間の状態を推定する。   The state estimation unit 111 cuts out a face image using the face position information that is the result output from the face detection unit 109, extracts facial expressions, eye open / closed states, and the like from the cut out face image, and observes the human being to be observed. Is estimated.

次に、本発明の対象物(人物)検出前処理装置を含む人物状態推定装置における人の状態の推定フローについて図23を用いて説明する。補助照明制御部104は、撮影部106から入力された同期信号に基づいて補助照明器103に電力を供給し、電力の供給により補助照明器103は観測対象物(ここでは、人)を照射する(ステップS2301)。撮影部106は照射されている人を撮影する(ステップS2302)。注目領域抽出部108は撮影部106から入力された画像に対して差分処理及び2値化処理を行い、画像上の人の存在領域を抽出する(ステップS2303)。   Next, the human state estimation flow in the human state estimation apparatus including the object (person) detection preprocessing apparatus of the present invention will be described with reference to FIG. The auxiliary illumination control unit 104 supplies power to the auxiliary illuminator 103 based on the synchronization signal input from the imaging unit 106, and the auxiliary illuminator 103 irradiates the observation object (here, a person) by the supply of electric power. (Step S2301). The photographing unit 106 photographs the person being irradiated (step S2302). The attention area extraction unit 108 performs difference processing and binarization processing on the image input from the imaging unit 106, and extracts a human presence area on the image (step S2303).

顔検出部109は、注目領域抽出部108から入力された人の存在領域の情報に基づいて、画像領域内での顔位置情報を出力する(ステップS2304)。このとき、照射命令部107は、注目領域抽出部108や顔検出部109による結果などの情報に基づいて、次の時刻における補助照明器103の照射光量を決定し、その情報を補助照明制御部104に出力する(ステップS2305)。また、状態推定部111は、顔検出部109から入力された顔位置情報に基づいて顔画像より表情や目の開閉などを分析し、人の状態を推定する(ステップS2306)。   The face detection unit 109 outputs face position information in the image region based on the information on the human presence region input from the attention region extraction unit 108 (step S2304). At this time, the irradiation command unit 107 determines the irradiation light amount of the auxiliary illuminator 103 at the next time based on information such as the result of the attention area extraction unit 108 and the face detection unit 109, and uses the information as the auxiliary illumination control unit. It outputs to 104 (step S2305). In addition, the state estimation unit 111 analyzes facial expressions, eye opening / closing, and the like from the face image based on the face position information input from the face detection unit 109, and estimates a human state (step S2306).

本発明に係る対象物検出前処理装置及び対象物検出前処理方法は、コストを抑え、広範囲での均一照射ができ、外乱光などの周辺環境の影響を受けにくく、人体に対して安全に、高速に対象物の存在領域の抽出、対象物の状態推定を可能とさせるため、低照度環境下においても観察対象物の検出を可能とさせる対象物検出前処理装置及び対象物検出前処理方法などに有用である。   The object detection pre-processing apparatus and the object detection pre-processing method according to the present invention can reduce costs, perform uniform irradiation over a wide range, are not easily affected by the surrounding environment such as ambient light, and are safe for the human body. Object detection pre-processing device and object detection pre-processing method that enable detection of an observation object even in a low-light environment to enable extraction of the existence area of the object and estimation of the state of the object at high speed Useful for.

本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置の構成を示す構成図である。It is a block diagram which shows the structure of the target object state estimation apparatus containing the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置における撮影部の分光感度特性を示す図である。It is a figure which shows the spectral sensitivity characteristic of the imaging | photography part in the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置における特定波長透過フィルタの透過波長特性を示す図である。It is a figure which shows the transmission wavelength characteristic of the specific wavelength transmission filter in the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置における補助照明器の照射のタイミングチャートを示す図である。It is a figure which shows the timing chart of irradiation of the auxiliary | assistant illuminator in the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置における補助照明器の時系列連続画像での照射パターンを示す図である。It is a figure which shows the irradiation pattern in the time series continuous image of the auxiliary | assistant illuminator in the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置における撮影部によって撮影された2枚の時系列連続画像を示す図である。It is a figure which shows two time series continuous images image | photographed by the imaging | photography part in the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の処理構成を示す構成図である。It is a block diagram which shows the process structure of the attention area extraction part in the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の差分画像有効判定ステップの処理構成を示す構成図である。It is a block diagram which shows the process structure of the difference image validity determination step of the attention area extraction part in the target object detection preprocessing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の注目領域画像作成ステップの処理構成を示す構成図である。It is a block diagram which shows the process structure of the attention area image creation step of the attention area extraction part in the target object detection preprocessing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の注目領域画像作成ステップで作成された注目領域画像を示す図である。It is a figure which shows the attention area image produced in the attention area image creation step of the attention area extraction part in the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の注目領域画像の選定ステップの処理構成を示す構成図である。It is a block diagram which shows the process structure of the selection step of the attention area image of the attention area extraction part in the target object detection preprocessing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置における照射命令部の構成を示す構成図である。It is a block diagram which shows the structure of the irradiation command part in the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置における照射命令部の初期探索部の処理構成を示す構成図である。It is a block diagram which shows the process structure of the initial stage search part of the irradiation command part in the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置における照射命令部の継続探索部の処理構成を示す構成図である。It is a block diagram which shows the process structure of the continuous search part of the irradiation command part in the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置における照射命令部のハレーション対策部の処理構成を示す構成図である。It is a block diagram which shows the process structure of the halation countermeasure part of the irradiation command part in the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置における照射命令部の距離に応じる制御部の処理構成を示す構成図である。It is a block diagram which shows the process structure of the control part according to the distance of the irradiation command part in the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置と観測対象物(人)との距離の関係を示す図である。It is a figure which shows the relationship of the distance of the target object detection pre-processing apparatus which concerns on embodiment of this invention, and an observation target object (person). 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の処理構成を示す構成図である。It is a block diagram which shows the process structure of the face detection part in the target object state estimation apparatus containing the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の反転・平滑化処理ステップでの反転前の画像を示す図である。It is a figure which shows the image before inversion in the inversion and smoothing process step of the face detection part in the target object state estimation apparatus containing the target object detection preprocessing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の反転・平滑化処理ステップでの反転後の画像を示す図である。It is a figure which shows the image after inversion in the inversion and smoothing process step of the face detection part in the object state estimation apparatus containing the object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の反転・平滑化処理ステップでの平滑化された画像を示す図である。It is a figure which shows the smoothed image in the inversion and smoothing process step of the face detection part in the target object state estimation apparatus containing the target object detection preprocessing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の濃淡情報正規化ステップでの入力画像の輝度値分布を示す図である。It is a figure which shows the luminance value distribution of the input image in the density | concentration information normalization step of the face detection part in the target object state estimation apparatus containing the target object detection preprocessing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の濃淡情報正規化ステップでの出力画像の輝度値分布を示す図である。It is a figure which shows the luminance value distribution of the output image in the shading information normalization step of the face detection part in the target object state estimation apparatus including the target object detection preprocessing apparatus according to the embodiment of the present invention. 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の顔検出処理部の入力画像の背景部分にかけられたマスクについて説明するための図である。It is a figure for demonstrating the mask applied to the background part of the input image of the face detection process part of the face detection part in the target object state estimation apparatus containing the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の後処理部から出力される位置情報について説明するための図である。It is a figure for demonstrating the positional information output from the post-processing part of the face detection part in the target object state estimation apparatus containing the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部で用いることが可能な過去の顔検出結果を示す図である。It is a figure which shows the past face detection result which can be used by the face detection part in the target object state estimation apparatus containing the target object detection pre-processing apparatus which concerns on embodiment of this invention. 本発明の対象物検出前処理装置を含む対象物状態推定装置における人の状態の推定フローについて説明するためのフローチャートである。It is a flowchart for demonstrating the estimation flow of a person's state in the target object state estimation apparatus containing the target object detection pre-processing apparatus of this invention.

符号の説明Explanation of symbols

41 前処理部
42、43、44 顔検出処理部
45 後処理部
100 対象物状態推定装置(人物状態推定装置)
101 対象物検出前処理装置(人物検出前処理装置)
102 拡散フィルタ
103 補助照明器(照射手段)
104 補助照明制御部(照射制御手段)
105 特定波長透過フィルタ
106 撮影部(画像取得手段)
107 照射命令部(照射命令手段)
108 注目領域抽出部(注目領域抽出手段)
109 顔検出部
110 履歴情報格納部
111 状態推定部
112 システム初期化部
301 初期探索部
302 継続探索部
303 ハレーション対策部
304 距離に応じる制御部
421、431、441 階層型ニューラルネットワーク
432、442 マスク
433、443 左右反転部
1800、1801 輝度の濃い(高い)部分
2100 画像上の顔
2101 検出窓
3011 照射光量設定部
41 Pre-processing unit 42, 43, 44 Face detection processing unit 45 Post-processing unit 100 Object state estimation device (person state estimation device)
101 Object detection pre-processing device (person detection pre-processing device)
102 Diffusion filter 103 Auxiliary illuminator (irradiation means)
104 Auxiliary illumination control unit (irradiation control means)
105 Specific wavelength transmission filter 106 Imaging unit (image acquisition means)
107 Irradiation command section (irradiation command means)
108 attention area extraction unit (attention area extraction means)
109 face detection unit 110 history information storage unit 111 state estimation unit 112 system initialization unit 301 initial search unit 302 continuous search unit 303 halation countermeasure unit 304 control unit 421, 431, 441 hierarchical neural network 432, 442 mask 433 , 443 Left-right reversing part 1800, 1801 Bright (high) part 2100 Face on image 2101 Detection window 3011 Irradiation light quantity setting part

Claims (16)

観察対象物を異なるタイミング及び異なる照射光量で照射する照射手段と、
前記異なる照射光量で照射される前記観察対象物のそれぞれの画像を取得する画像取得手段と、
取得されたそれぞれの画像に基づいて、前記観察対象物の存在領域を抽出する注目領域抽出手段と、
前記観察対象物の存在領域を抽出する際、所定の条件を満たさない場合に前記照射手段の前記照射光量を制御するための信号を生成する照射命令手段と、
生成された前記信号に基づいて、前記照射手段の前記照射光量を制御する照射制御手段とを、
備える対象物検出前処理装置。
Irradiating means for irradiating the observation object with different timing and different irradiation light quantity;
Image acquisition means for acquiring respective images of the observation object irradiated with the different irradiation light amounts;
Attention area extraction means for extracting an existence area of the observation object based on each acquired image;
An irradiation command means for generating a signal for controlling the irradiation light amount of the irradiation means when a predetermined condition is not satisfied when extracting the existence region of the observation object;
An irradiation control means for controlling the amount of irradiation light of the irradiation means based on the generated signal;
An object detection pre-processing apparatus provided.
前記照射手段は、24時間撮影を可能とさせるために近赤外光を照射する請求項1に記載の対象物検出前処理装置。   The object detection pretreatment apparatus according to claim 1, wherein the irradiation unit irradiates near infrared light so as to enable photographing for 24 hours. 前記画像取得手段は、可視光を含む外乱光の影響を低減させ、安定した画像取得を可能とさせるために、前記照射手段により照射される光の反射光のみを透過させる特定波長透過フィルタを備える請求項1又は2に記載の対象物検出前処理装置。   The image acquisition unit includes a specific wavelength transmission filter that transmits only reflected light of the light irradiated by the irradiation unit in order to reduce the influence of disturbance light including visible light and enable stable image acquisition. The object detection pre-processing device according to claim 1 or 2. 前記照射制御手段は、前記照射手段によって前記観察対象物を異なる照射光量で照射するタイミングを、前記画像取得手段によって前記観察対象物の画像を取得するタイミングに同期させるため、前記照射手段による照射を制御する請求項1から3のいずれか1つに記載の対象物検出前処理装置。   The irradiation control unit is configured to perform irradiation by the irradiation unit in order to synchronize a timing at which the observation target is irradiated with a different amount of irradiation light by the irradiation unit with a timing at which the image acquisition unit acquires an image of the observation target. The object detection pretreatment device according to any one of claims 1 to 3, which is controlled. 前記照射命令手段は、前記画像取得手段に対する前記観察対象物の距離に応じて、前記照射手段の前記照射光量を制御するための前記信号を生成する請求項1から4のいずれか1つに記載の対象物検出前処理装置。   The said irradiation command means produces | generates the said signal for controlling the said irradiation light quantity of the said irradiation means according to the distance of the said observation target object with respect to the said image acquisition means. Object detection pretreatment device. 前記注目領域抽出手段は、前記観察対象物の存在領域を取得された前記画像の差分処理によって抽出する請求項1から5のいずれか1つに記載の対象物検出前処理装置。   6. The target object detection pre-processing device according to claim 1, wherein the attention area extraction unit extracts an existence area of the observation target object by performing a difference process on the acquired image. 前記観察対象物が人間の顔である請求項1から6のいずれか1つに記載の対象物検出前処理装置。   The object detection pre-processing apparatus according to claim 1, wherein the observation object is a human face. 前記照射手段は、照射する光を広範囲に均一に拡散するための拡散フィルタを備える請求項1から7のいずれか1つに記載の対象物検出前処理装置。   The object detection pre-processing apparatus according to claim 1, wherein the irradiation unit includes a diffusion filter for uniformly diffusing light to be irradiated over a wide range. 観察対象物を異なるタイミング及び異なる照射光量で照射するステップと、
前記異なる照射光量で照射される前記観察対象物のそれぞれの画像を取得するステップと、
取得されたそれぞれの画像に基づいて、前記観察対象物の存在領域を抽出するステップと、
前記観察対象物の存在領域を抽出する際、所定の条件を満たさない場合に前記照射光量を制御するための信号を生成するステップと、
生成された前記信号に基づいて前記照射光量を制御するステップとを、
有する対象物検出前処理方法。
Irradiating the observation object with different timing and different irradiation light quantity;
Acquiring each image of the observation object irradiated with the different irradiation light amount;
Extracting an existing region of the observation object based on each acquired image;
Generating a signal for controlling the amount of irradiation light when a predetermined condition is not satisfied when extracting the existence region of the observation object;
Controlling the amount of irradiation light based on the generated signal,
An object detection pre-processing method.
前記観察対象物を異なる照射光量で照射するステップにおいて、24時間撮影を可能とさせるために近赤外光を照射する請求項9に記載の対象物検出前処理方法。   The object detection pre-processing method according to claim 9, wherein in the step of irradiating the observation object with different amounts of irradiation light, near-infrared light is irradiated in order to enable imaging for 24 hours. 前記観察対象物の画像を取得するステップにおいて、可視光を含む外乱光の影響を低減させ、安定した画像取得を可能とさせるために、前記観察対象物を異なる照射光量で照射するステップにより照射される光の反射光のみを透過させる特定波長透過フィルタを用いる請求項9又は10に記載の対象物検出前処理方法。   In the step of acquiring the image of the observation object, the object is irradiated by the step of irradiating the observation object with a different irradiation light quantity in order to reduce the influence of disturbance light including visible light and enable stable image acquisition. The object detection pre-processing method according to claim 9 or 10, wherein a specific wavelength transmission filter that transmits only reflected light of the reflected light is used. 前記観察対象物を異なる照射光量で照射するタイミングを、前記観察対象物の画像を取得するタイミングに同期させるため、前記観察対象物を異なる照射光量で照射するステップの照射を制御するステップをさらに有する請求項9から11のいずれか1つに記載の対象物検出前処理方法。   In order to synchronize the timing of irradiating the observation object with different irradiation light amounts with the timing of acquiring the image of the observation object, the method further includes the step of controlling the irradiation in the step of irradiating the observation object with different irradiation light amounts. The object detection pre-processing method according to any one of claims 9 to 11. 前記照射光量を制御するための信号を生成するステップにおいて、前記観察対象物の画像を取得する手段に対する前記観察対象物の距離に応じて、前記照射光量を制御するための前記信号を生成する請求項9から12のいずれか1つに記載の対象物検出前処理方法。   The step of generating a signal for controlling the amount of irradiation light generates the signal for controlling the amount of irradiation light in accordance with a distance of the observation object relative to a means for acquiring an image of the observation object. Item 13. The object detection pretreatment method according to any one of Items 9 to 12. 前記観察対象物の存在領域を抽出するステップにおいて、前記観察対象物の存在領域を取得された前記画像の差分処理によって抽出する請求項9から13のいずれか1つに記載の対象物検出前処理方法。   The object detection pre-processing according to any one of claims 9 to 13, wherein in the step of extracting the existence area of the observation object, the existence area of the observation object is extracted by difference processing of the acquired image. Method. 前記観察対象物が人間の顔である請求項9から14のいずれか1つに記載の対象物検出前処理方法。   The object detection preprocessing method according to claim 9, wherein the observation object is a human face. 前記観察対象物を異なる照射光量で照射するステップにおいて、照射する光を広範囲に均一に拡散するための拡散フィルタを用いる請求項9から15のいずれか1つに記載の対象物検出前処理方法。
The object detection preprocessing method according to any one of claims 9 to 15, wherein a diffusion filter for uniformly diffusing irradiated light over a wide range is used in the step of irradiating the observation object with different amounts of irradiation light.
JP2005100098A 2005-03-30 2005-03-30 Object detection pretreatment apparatus and object detection pretreatment method Expired - Fee Related JP4508926B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005100098A JP4508926B2 (en) 2005-03-30 2005-03-30 Object detection pretreatment apparatus and object detection pretreatment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005100098A JP4508926B2 (en) 2005-03-30 2005-03-30 Object detection pretreatment apparatus and object detection pretreatment method

Publications (2)

Publication Number Publication Date
JP2006275988A true JP2006275988A (en) 2006-10-12
JP4508926B2 JP4508926B2 (en) 2010-07-21

Family

ID=37210894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005100098A Expired - Fee Related JP4508926B2 (en) 2005-03-30 2005-03-30 Object detection pretreatment apparatus and object detection pretreatment method

Country Status (1)

Country Link
JP (1) JP4508926B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009060951A1 (en) * 2007-11-09 2009-05-14 Aisin Seiki Kabushiki Kaisha Face image picking-up device, face image picking-up method and its program
JP2010240785A (en) * 2009-04-07 2010-10-28 Kanto Auto Works Ltd Picking system
JP2012168748A (en) * 2011-02-15 2012-09-06 Denso Corp Light projection system and face photographing system
WO2012172865A1 (en) * 2011-06-17 2012-12-20 本田技研工業株式会社 Occupant sensing device
WO2019155766A1 (en) * 2018-02-06 2019-08-15 ミツミ電機株式会社 Camera and occupant detection system
JP2019200351A (en) * 2018-05-17 2019-11-21 三菱重工業株式会社 Map information generation device, map information display system, and map information display method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320382A (en) * 1995-05-25 1996-12-03 Matsushita Electric Ind Co Ltd Object detector and object detecting method
JP2001250979A (en) * 2000-03-07 2001-09-14 Toto Ltd Optical sensor
JP2001340300A (en) * 2000-05-31 2001-12-11 Mixed Reality Systems Laboratory Inc Pupil detecting device and method, fixation point detecting device and method, and three-dimensional image display system
JP2005026875A (en) * 2003-06-30 2005-01-27 Semiconductor Energy Lab Co Ltd Image pickup device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320382A (en) * 1995-05-25 1996-12-03 Matsushita Electric Ind Co Ltd Object detector and object detecting method
JP2001250979A (en) * 2000-03-07 2001-09-14 Toto Ltd Optical sensor
JP2001340300A (en) * 2000-05-31 2001-12-11 Mixed Reality Systems Laboratory Inc Pupil detecting device and method, fixation point detecting device and method, and three-dimensional image display system
JP2005026875A (en) * 2003-06-30 2005-01-27 Semiconductor Energy Lab Co Ltd Image pickup device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112008002645B4 (en) * 2007-11-09 2014-02-27 Aisin Seiki K.K. Face picture taking device, face picture taking procedure and program for this
JP2009116797A (en) * 2007-11-09 2009-05-28 Aisin Seiki Co Ltd Face imaging apparatus, face imaging method, and program of the same
WO2009060951A1 (en) * 2007-11-09 2009-05-14 Aisin Seiki Kabushiki Kaisha Face image picking-up device, face image picking-up method and its program
US8295559B2 (en) 2007-11-09 2012-10-23 Aisin Seiki Kabushiki Kaisha Face image pickup device and method
JP2010240785A (en) * 2009-04-07 2010-10-28 Kanto Auto Works Ltd Picking system
JP2012168748A (en) * 2011-02-15 2012-09-06 Denso Corp Light projection system and face photographing system
WO2012172865A1 (en) * 2011-06-17 2012-12-20 本田技研工業株式会社 Occupant sensing device
JP5636102B2 (en) * 2011-06-17 2014-12-03 本田技研工業株式会社 Occupant detection device
WO2019155766A1 (en) * 2018-02-06 2019-08-15 ミツミ電機株式会社 Camera and occupant detection system
JP2019138671A (en) * 2018-02-06 2019-08-22 ミツミ電機株式会社 Camera and occupant detection system
JP7060790B2 (en) 2018-02-06 2022-04-27 ミツミ電機株式会社 Camera and occupant detection system
JP2019200351A (en) * 2018-05-17 2019-11-21 三菱重工業株式会社 Map information generation device, map information display system, and map information display method
JP7109253B2 (en) 2018-05-17 2022-07-29 三菱重工業株式会社 MAP INFORMATION CREATED DEVICE, MAP INFORMATION DISPLAY SYSTEM AND MAP INFORMATION DISPLAY METHOD

Also Published As

Publication number Publication date
JP4508926B2 (en) 2010-07-21

Similar Documents

Publication Publication Date Title
JP4780088B2 (en) Face image capturing apparatus, face image capturing method, and program thereof
US7819525B2 (en) Automatic direct gaze detection based on pupil symmetry
JP5366028B2 (en) Face image capturing device
JP4508926B2 (en) Object detection pretreatment apparatus and object detection pretreatment method
JP4430866B2 (en) Near infrared camouflage detection
JP4853389B2 (en) Face image capturing device
JP4442472B2 (en) Device part identification device
US20180039852A1 (en) Imaging apparatus and method, operation apparatus and method, and program and recording medium
JP2001333420A (en) Image supervisory method and device
US20040037450A1 (en) Method, apparatus and system for using computer vision to identify facial characteristics
JP3143819B2 (en) Eyelid opening detector
WO2004013654B1 (en) Vehicle mounted night vision imaging system and method
JP2005159392A (en) Vehicle periphery monitoring device and method
US20050058322A1 (en) System or method for identifying a region-of-interest in an image
JP2014064047A (en) Information processing device, information processing method and program
JP5018653B2 (en) Image identification device
JP2007025758A (en) Face image extracting method for person, and device therefor
US11776311B2 (en) Image processing device, image processing method, and storage medium
Brémond et al. Saliency maps of high dynamic range images
JP7401013B2 (en) Information processing device, control device, information processing method and program
JP5362405B2 (en) Pupil measuring device, pupil measuring method and pupil measuring program
JP2016028669A (en) Pupil detection device and pupil detection method
JP2021058361A (en) Biological information acquisition device and program
CN114627522A (en) Depth camera
JP2007257242A (en) White line recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100406

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100427

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4508926

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140514

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees