JP4508926B2 - 対象物検出前処理装置及び対象物検出前処理方法 - Google Patents

対象物検出前処理装置及び対象物検出前処理方法 Download PDF

Info

Publication number
JP4508926B2
JP4508926B2 JP2005100098A JP2005100098A JP4508926B2 JP 4508926 B2 JP4508926 B2 JP 4508926B2 JP 2005100098 A JP2005100098 A JP 2005100098A JP 2005100098 A JP2005100098 A JP 2005100098A JP 4508926 B2 JP4508926 B2 JP 4508926B2
Authority
JP
Japan
Prior art keywords
irradiation
image data
light
image
observation object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005100098A
Other languages
English (en)
Other versions
JP2006275988A (ja
Inventor
アリ・ウィドド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2005100098A priority Critical patent/JP4508926B2/ja
Publication of JP2006275988A publication Critical patent/JP2006275988A/ja
Application granted granted Critical
Publication of JP4508926B2 publication Critical patent/JP4508926B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Geophysics And Detection Of Objects (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、低照度環境下においても観察対象物の検出を可能とさせる対象物検出前処理装置及び対象物検出前処理方法に関する。
近年、夜間などの低照度下で観察対象物(以下、観測対象物又は単に対象物とも言う)を検出するための特定の撮影装置(以下、単に装置とも言う)が開発されている。以下、説明を分かりやすくするため対象物を人物として説明する。このような装置は、ドライバの居眠り検知や人間と対話するためのロボット制御などに応用されている。ここで、低照度環境で対象物を検出する方法では、超音波、レーザーレーダー、カメラなどが用いられる。しかし、コストや人体への影響などを考えると、カメラがより適している。カメラには補助照明無しのカメラと補助照明有りのカメラの2種類がある。補助照明無しのカメラの例として遠赤外線カメラが挙げられる。しかし、このようなカメラは高価であり解像度が低いという問題がある。一方、補助照明有りのカメラでは、用いる補助照明が可視光と近赤外光であるので市販カメラの使用が可能である。一般にこのようなカメラは低価格であり解像度が高い。しかし、対象物が人物の場合、可視光を照射することは視界に影響を与えるため問題となる。したがって、対象物が人物の場合、視界に影響を与えない近赤外光照明を用いることが適している。
しかし、近赤外光による補助照明有りのカメラを用いた装置には問題がある。まず、従来のように固定照射光量を用いる場合、人物が装置に接近すると目に入射する近赤外光の露光量が増大し、目に影響を与えることがある。また、従来のように固定照射光量を用いる場合、人物が装置に接近すると撮影される画像上での人物領域にハレーションが生じてしまう。また、対象物が存在する範囲が広い場合には、照射面積に比べて非常に広い範囲を均一に照射する必要がある。一般的な補助照明有りのカメラの問題として、外乱光(例えば、太陽光)の強度や撮影環境における人物の前方移動などにより、人物の画像上にハレーションが生じて人物の位置検出処理が困難となってしまうという問題がある。特に、従来の装置では、照明のオン、オフに合わせて画像を撮影し差分をとって人物の位置検出処理を行っているが、外乱光や人物の前方移動などにより一方の画像がハレーションを起こし、一方が暗い画像の場合には人物の位置検出が困難となってしまう。
これらの問題を解決する従来の技術について説明する。まず、人物が装置に接近すると目に入射する近赤外光の露光量が増大するという問題に対しては、人物までの距離を取得し、その距離に基づいて照射光量を変化させるようにする。このような技術が下記の特許文献1に開示されている。特許文献1に開示されている技術では、超音波などの距離測定センサーで測定した人物までの距離に基づいて照射光量を増減させている。また、広い照射範囲での均一の照射が求められる問題に対しては、複数の光源を用いて広範囲で均一に照射させるようにする。このような技術が下記の特許文献2に開示されている。特許文献2に開示されている技術は、照射範囲が互いに大きく重ならないように配置された複数の光源によって、撮影範囲(車室内所定領域)全体を照射するようにしたものである。また、外乱光や人物の前方移動などによる人物の画像上でのハレーションという問題に対しては、外乱光の光量を検出し、それに基づいて照射光量を増減している。このような技術が下記の特許文献3に開示されている。特許文献3に開示されている技術は、照度センサーから構成される光量検出手段で外乱光(可視光)の光量を検出し、その結果に応じて照射光量を増減させている。
特開2004−164483号公報(段落0030) 特開2004−144512号公報(段落0017) 特開平7−32907号公報(段落0008)
しかしながら、特許文献1に開示された技術では、超音波などの距離測定センサーによってコストが増加してしまうという問題がある。また、特許文献2に開示された技術では、複数の光源を用いることによってコストが増加してしまい、また、複数の光源の設置も複雑であるという問題がある。また、特許文献3に開示された技術では、照度センサーによってコストが増加してしまい、また、不特定多数の人の顔周辺に照度センサーを設置することは非現実的であるという問題がある。
本発明は、上記問題を解決するためのものであり、コストを抑え、広範囲での均一照射ができ、外乱光などの周辺環境の影響を受けにくく、人体に対して安全に、高速に対象物の存在領域の抽出、対象物の状態推定を可能とさせる対象物検出前処理装置及び対象物検出前処理方法を提供することを目的とする。
上記目的を達成するために、本発明によれば、観察対象物を異なるタイミング及び異なる照射光量で照射する照射手段と、前記異なる照射光量で照射される前記観察対象物のそれぞれの画像を示す画像データを取得する画像データ取得手段と、取得されたそれぞれの画像データ間の差分を示す差分画像データを取得し、取得された前記差分画像データを2値化処理し、前記2値化処理された差分画像データに基づいて前記観察対象物の存在領域を抽出する注目領域抽出手段と、前記観察対象物の存在領域を抽出する際、所定の条件を満たさない場合に前記照射手段の前記照射光量を制御するための信号を生成する照射命令手段と、生成された前記信号に基づいて、前記照射手段の前記照射光量を制御する照射制御手段とを、備える対象物検出前処理装置が提供される。この構成により、コストを抑え、広範囲での均一照射、高速な観察対象物の存在領域の抽出を可能とさせる。
また、本発明において、前記照射手段が24時間撮影を可能とさせるために近赤外光を照射することは、本発明の好ましい態様である。この構成により、対象物検出前処理装置を24時間動作させることができる。
また、本発明において、前記画像データ取得手段が、可視光を含む外乱光の影響を低減させ、安定した画像データ取得を可能とさせるために、前記照射手段により照射される光の反射光のみを透過させる特定波長透過フィルタを備えることは、本発明の好ましい態様である。この構成により、外乱光による影響を低減させることができ、照明環境の変化などに対して安定した質の画像撮影ができる。
また、本発明において、前記照射制御手段が、前記照射手段によって前記観察対象物を異なる照射光量で照射するタイミングを、前記画像データ取得手段によって前記観察対象物の画像データを取得するタイミングに同期させるため、前記照射手段による照射を制御することは、本発明の好ましい態様である。この構成により、観察対象物に対して影響を与えることがなく、低コスト化を実現することができる。
また、本発明において、前記照射命令手段が、前記画像データ取得手段に対する前記観察対象物の距離に応じて、前記照射手段の前記照射光量を制御するための前記信号を生成することは、本発明の好ましい態様である。この構成により、安定した質の観察対象物の画像を撮影することができる。
また、本発明において、前記観察対象物が人間の顔であることは本発明の好ましい態様である。この構成により、人物の顔の特徴を用いることができる。
また、本発明において、前記照射手段が照射する光を広範囲に均一に拡散するための拡散フィルタを備えることは、本発明の好ましい態様である。この構成により、広範囲な撮影空間を均一に照射することができる。
また、本発明によれば、観察対象物を異なるタイミング及び異なる照射光量で照射するステップと、前記異なる照射光量で照射される前記観察対象物のそれぞれの画像を示す画像データを取得するステップと、取得されたそれぞれの画像データ間の差分を示す差分画像データを取得し、取得された前記差分画像データを2値化処理し、前記2値化処理された差分画像データに基づいて前記観察対象物の存在領域を抽出するステップと、前記観察対象物の存在領域を抽出する際、所定の条件を満たさない場合に前記照射光量を制御するための信号を生成するステップと、生成された前記信号に基づいて前記照射光量を制御するステップとを、有する対象物検出前処理方法が提供される。この構成により、コストを抑え、広範囲での均一照射、高速な観察対象物の存在領域の抽出を可能とさせる。
また、本発明において、前記観察対象物を異なる照射光量で照射するステップにおいて、24時間撮影を可能とさせるために近赤外光を照射することは、本発明の好ましい態様である。この構成により、装置を24時間動作させることができる。
また、本発明において、前記観察対象物の画像データを取得するステップにおいて、可視光を含む外乱光の影響を低減させ、安定した画像データ取得を可能とさせるために、前記観察対象物を異なる照射光量で照射するステップにより照射される光の反射光のみを透過させる特定波長透過フィルタを用いることは、本発明の好ましい態様である。この構成により、外乱光による影響を低減させることができ、照明環境の変化などに対して安定した質の画像撮影ができる。
また、本発明において、前記観察対象物を異なる照射光量で照射するタイミングを、前記観察対象物の画像データを取得するタイミングに同期させるため、前記観察対象物を異なる照射光量で照射するステップの照射を制御するステップをさらに有することは、本発明の好ましい態様である。この構成により、観察対象物に対して影響を与えることがなく、低コスト化を実現することができる。
また、本発明において、前記照射光量を制御するための信号を生成するステップにおいて、前記観察対象物の画像データを取得する手段に対する前記観察対象物の距離に応じて、前記照射光量を制御するための前記信号を生成することは、本発明の好ましい態様である。この構成により、安定した質の観察対象物の画像を撮影することができる。
また、本発明において、前記観察対象物が人間の顔であることは本発明の好ましい態様である。この構成により、人物の顔の特徴を用いることができる。
また、本発明において、前記観察対象物を異なる照射光量で照射するステップにおいて、照射する光を広範囲に均一に拡散するための拡散フィルタを用いることは、本発明の好ましい態様である。この構成により、広範囲な撮影空間を均一に照射することができる。
本発明の対象物検出前処理装置及び対象物検出前処理方法は、上記構成を有し、コストを抑え、広範囲での均一照射ができ、外乱光などの周辺環境の影響を受けにくく、人体に対して安全に、高速に対象物の存在領域の抽出、対象物の状態推定を可能とさせる。
以下、本発明の実施の形態に係る対象物検出前処理装置及び対象物検出前処理方法について、図1から図23を用いて説明する。図1は本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置の構成を示す構成図である。図2は本発明の実施の形態に係る対象物検出前処理装置における撮影部の分光感度特性を示す図である。図3は本発明の実施の形態に係る対象物検出前処理装置における特定波長透過フィルタの透過波長特性を示す図である。図4は本発明の実施の形態に係る対象物検出前処理装置における補助照明器の照射のタイミングチャートを示す図である。図5Aは本発明の実施の形態に係る対象物検出前処理装置における補助照明器の時系列連続画像での照射パターンを示す図である。図5Bは本発明の実施の形態に係る対象物検出前処理装置における撮影部によって撮影された2枚の時系列連続画像を示す図である。
図6は本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の処理構成を示す構成図である。図7は本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の差分画像有効判定ステップの処理構成を示す構成図である。図8は本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の注目領域画像作成ステップの処理構成を示す構成図である。図9は本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の注目領域画像作成ステップで作成された注目領域画像を示す図である。図10は本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の注目領域画像の選定ステップの処理構成を示す構成図である。
図11は本発明の実施の形態に係る対象物検出前処理装置における照射命令部の構成を示す構成図である。図12は本発明の実施の形態に係る対象物検出前処理装置における照射命令部の初期探索部の処理構成を示す構成図である。図13は本発明の実施の形態に係る対象物検出前処理装置における照射命令部の継続探索部の処理構成を示す構成図である。図14は本発明の実施の形態に係る対象物検出前処理装置における照射命令部のハレーション対策部の処理構成を示す構成図である。図15は本発明の実施の形態に係る対象物検出前処理装置における照射命令部の距離に応じる制御部の処理構成を示す構成図である。図16は本発明の実施の形態に係る対象物検出前処理装置と観測対象物(人)との距離の関係を示す図である。
図17は本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の処理構成を示す構成図である。図18Aは本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の反転・平滑化処理ステップでの反転前の画像を示す図である。図18Bは本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の反転・平滑化処理ステップでの反転後の画像を示す図である。図18Cは本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の反転・平滑化処理ステップでの平滑化された画像を示す図である。
図19Aは本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の濃淡情報正規化ステップでの入力画像の輝度値分布を示す図である。図19Bは本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の濃淡情報正規化ステップでの出力画像の輝度値分布を示す図である。図20は本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の顔検出処理部の入力画像の背景部分にかけられたマスクについて説明するための図である。図21は本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の後処理部から出力される位置情報について説明するための図である。図22は本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部で用いることが可能な過去の顔検出結果を示す図である。図23は本発明の対象物検出前処理装置を含む対象物状態推定装置における人の状態の推定フローについて説明するためのフローチャートである。
まず、本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置の構成について図1を用いて説明する。図1に示すように、対象物状態推定装置100は、対象物検出前処理装置(以下、人物検出前処理装置とも言う)101、顔検出部109、履歴情報格納部110、状態推定部111から構成されている。さらに、対象物検出前処理装置101は、拡散フィルタ102、補助照明器(上述した照射手段に相当)103、補助照明制御部(上述した照射制御手段に相当)104、特定波長透過フィルタ105、撮影部(上述した画像データ取得手段に相当)106、照射命令部(上述した照射命令手段に相当)107、注目領域抽出部(上述した注目領域抽出手段に相当)108から構成されている。
ここで、以下に示す実施の形態では、対象物状態推定装置100を特に人物の状態を推定する人物状態推定装置100として説明する。本発明に係る対象物検出前処理装置101を含む人物状態推定装置100は、様々な分野において用いることができる。ここでは、エアバック展開制御用、ドライバーの居眠り・脇見運転防止用、ロボット制御用、ゲームの操作制御用として説明する。まず、エアバック展開制御用として用いられる場合について説明する。人物状態推定装置100は、後述する顔検出部109で検出された乗員の顔位置情報を不図示のエアバック展開制御装置に送信する。この送信された位置情報に基づいて、エアバック展開制御装置は事故などでエアバックを展開する必要があるときに、乗員が存在する位置に係るエアバックのみを展開させる。
次に、ドライバーの居眠り・脇見運転防止用として用いられる場合について説明する。人物状態推定装置100は、後述する状態推定部111で推定されたドライバーの状態(居眠り、脇見など)情報を不図示の運転支援システムに送信する。この送信されたドライバーの状態情報に基づいて、運転支援システムはドライバーへの警告や運転の支援などを行う。次に、ロボット制御用として用いられる場合について説明する。人物状態推定装置100は、顔の表情などにより状態推定部111で推定された人物の状態(笑うなど)情報を不図示の自律行動システムに送信する。この送信された状態情報に基づいて、自律行動システムは、ロボットの顔をうれしいや悲しいなどの表情に変化させる。次に、ゲームの操作制御用として用いられる場合について説明する。人物状態推定装置100は、状態推定部111で推定された人物の表情(笑うなど)情報を不図示の操作制御装置に送信する。この送信された状態情報に基づいて、操作制御装置はゲームの内容や表示された色などを操作する。
以下、対象物状態推定装置100の各構成要素について説明する。拡散フィルタ102は、補助照明器103によって照射される光を均一で広範囲に広げるためのものである。補助照明器103は複数の近赤外光光源(例えば、LED光源)から構成されており、一般的に光源の配置は撮影部106の周辺に配置されることが望ましい。補助照明制御部104は、一般的に光源の点灯や点灯時間の長さなどの制御を行っている。撮影部106は分光感度範囲が近赤外光の波長に対応するカメラで構成され、分光感度特性の相対感度のピークは、図2に示すように補助照明の中心波長と一致することが望ましい。
また、撮影部106は特定波長透過フィルタ105を備えている。特定波長透過フィルタ105を撮影部106に装着することで、撮影部106は補助照明器103から照射された光の反射光のみを受光できるようになり、太陽光を含む外乱光による影響を低減させることができる。また、特定波長透過フィルタ105の透過波長特性は、図3に示すように、補助照明器103の照射光の中心波長付近で幅が狭い波長帯域を透過するものが望ましい。
補助照明器103の照射のタイミングは、図4に示すように、撮影部106のシャッターの開閉のタイミングに同期させる。補助照明器103の照射のタイミングを撮影部106のシャッターの開閉のタイミングに同期させることは、撮影部106が受光する期間内のみ補助照射器103の照射がなされ、パルス型照射が実現できる。パルス型照射は常時点灯(常時オン)に比べ、人間に対して照射される光のパワーと消費電力が減少する。したがって、補助照明器103の照射は常時点灯に比べて、人間に対して安全でかつ低コスト化を実現できる。
補助照明器103は、時系列連続画像に対して異なる光量で照射を行う。図5Aに示すように、連続で撮影される2枚の画像が異なる光量(A%とB%)の照射によって取得される。撮影部106にNTSCカメラを用いる場合では、2枚の時系列連続画像はフィールド画像に相当する。この方式で撮影された2枚のフィールド画像は図5Bに示すように、一方の画像(先に撮影された画像であって、First_imageとも言う)は明るく、一方の画像(後に撮影された画像であって、Second_imageとも言う)は暗く、輝度差がある2枚の画像が得られる。したがって、一方の画像の輝度が悪い(明る過ぎる又は暗過ぎる)ときでも、もう一方の画像が得られ顔検出に用いることができる。2枚の画像のうち輝度がよい画像を選び、その画像を用いて後述する顔検出部109で観測対象物を検出することもできる。
また、補助照明器103は異なる光量で照射を行うことで、異なる輝度を持つ2枚の画像が得られ、図6に示す注目領域抽出部108の差分処理のステップ(ステップS201)でこれらの画像の差分を求めることで観測対象物(ここでは、人の顔)の存在領域を求めることができる。2枚の画像の差分処理は、下記の式(1)によって求めることができる。ここで、Idiff(x、y)は2枚の画像の輝度値の差、IFirst_image(x、y)はFirst_imageの輝度値、ISecond_image(x、y)はSecond_imageの輝度値である。
Figure 0004508926
なお、上述したように、First_imageとSecond_imageにおいては、一方の画像は高い光量で撮影され、他方の画像は低い光量で撮影されることが条件である。例えば、図5Bに示すように、First_imageを取得するために照射される光量(A%)は、Second_imageを取得するために照射される光量(B%)に比べて常に大きいと仮定する。しかし、観測対象物と人物検出前処理装置101(特に、補助照明器103)との距離に応じて、補助照明器103の光量を変える必要がある。観測対象物との距離に応じて光量を制御しなければ、撮影される観測対象物上の輝度が明る過ぎ又は暗過ぎとなってしまう場合がある。そこで、適切な光量を求めるために、図6に示す差分画像有効判定のステップ(S202)において2枚の連続画像の差分情報を用いる。差分画像有効判定のステップ(S202)を示す図7において、一定以上の輝度を持つ画素の割合(C)の算出のステップ(S2021)では、まず、差分画像の輝度を調べてCを算出する。Cの算出の一例として、Cは下記の式(2)によって求めることができる。
Figure 0004508926
ここで、Igraysacle>=T(x、y)はT以上の輝度値をもつ画素であり、Tは所定のパラメータ値である。また、HとWはそれぞれ画像の高さと幅(単位:画素)である。次に、算出されたCは差分画像の輝度差の判定条件であるCminと比較され(比較のステップS2022)、CがCminより小さければ現状の輝度が明る過ぎ又は暗過ぎであると判定され、補助照明器103の照射光量を変更するために照射命令部107(後述する継続探索部302)に指示が出される。一方、CがCminと等しいか又はCminより大きい場合、次の判定が行われる。なお、Cminは所定のパラメータである。
次の判定はハレーションの判定である。まず、画素の平均輝度値(Tavg)の算出のステップ(S2023)で、Igraysacle>=T(x、y)の平均輝度値Tavgが求められる。求められたTavgとハレーション判定条件であるTmaxとが比較され(比較のステップS2024)、TavgがTmaxより大きい場合には、画像の表面上にハレーションが生じ、現状の光量が不適切であると判定され、補助照明器103での照射光量を低減させるために照射命令部107(後述するハレーション対策部303)に指示が出される。一方、TavgがTmaxと等しいか又はTmaxより小さい場合、現状の光量が適切であると判定され、差分画像及び2枚の時系列連続画像は注目領域画像作成のステップ(S203)へ移行される。なお、Tmaxは所定のパラメータである。
注目領域画像作成のステップ(S203)では、得られた差分画像から注目領域の位置や大きさなどの情報を取得し、それらの情報に基づいて注目領域画像を生成する。注目領域画像作成のステップ(S203)を示す図8において、まず、差分画像の2値化のステップ(S2031)では、入力される差分画像を2値化する。2値化処理方法はいろいろあり、ここではPタイル法と固定閾値法の組み合わせを用いる。Pタイル法から2値化対象の輝度値Tiを算出する。このTiは輝度値が高いほうから画素の出現頻度の和を求め、それが全体画素数に対しPtの割合になる輝度値である。ここで、Ptは所定のパラメータである。算出されたTiを固定閾値Tsと比較し、2値化に用いる閾値Tbinを選定する。Tbinの選定は下記の式(3)によって行われる。なお、Tsは所定のパラメータである。
Figure 0004508926
次に、Tbinを用いて2値化処理を行う。2値化処理は下記の式(4)に基づいて行われる。ここで、I(x、y)は画像上におけるある画素の輝度値である。
Figure 0004508926
そして、2値画像のグループ化のステップ(S2032)では輝度値がAとなった画素をグループ化する。ここでは、ラベリング処理などを用いて輝度値がAとなった画素の塊を求め、各塊の面積(画素数)を算出する。次に、塊の面積情報を用いて雑音などを除去する。具体的には、AreaMinより大きい面積を持つグループ(塊)があるか否かを判定(判定のステップS2033)し、塊の面積がAreaMinより大きい場合に注目領域画像の作成のステップ(S2034)に移行する。AreaMinより面積が大きい塊を観測対象物とみなし、その塊を用いて注目領域画像の作成のステップ(S2034)では、図9に示すように、注目領域の位置情報(x1、y1、x2、y2)を算出し、これらの位置情報を用いて注目領域画像を作成する。ここでは、注目領域画像作成のステップ(S203)に移行された2枚の時系列連続画像に対する2枚の注目領域画像が作成される。そして、作成された2枚の注目領域画像は注目領域画像の選定のステップ(S204)に移行される。なお、AreaMinより面積が大きい塊がない場合、差分画像は無効と判断され、補助照明器103での照射光量を変更するために照射命令部107に指示が出される。また、AreaMinは所定のパラメータ値である。
注目領域画像の選定のステップ(S204)では、移行された2枚の連続注目領域画像から1枚の注目領域画像に絞り込んで、絞り込まれた注目領域画像を顔検出部109に入力する。以下では2枚の注目領域画像の絞り込みの方法について述べる。注目領域画像の選定のステップ(S204)を示す図10において、まず、輝度の平均値(Iave1、Iave2)算出のステップ(S2041)では各注目領域画像の輝度の平均値であるIave1とIave2を求める。なお、Iave1はFirst_imageから生成された注目領域画像の輝度平均値で、Iave2はSecond_imageから生成された注目領域画像の輝度平均値である。
次に、Iave1を用いてFirst_imageから生成された注目領域画像の有効判定(ハレーション判定)を行う。ここでは、Iave1と最大許容平均値Gmaxとを比較して(比較のステップS2042)、Iave1がGmaxを超えた場合、ハレーションが生じる画像であると判定される。この場合、First_imageから生成された注目領域画像は無効とされ、顔検出部109に入力される注目領域画像にはSecond_imageから生成された注目領域画像が選定される(選定のステップS2044)。同時に、補助照明器103の照射光量を変更するために照射命令部107に指示が出される。一方、Iave1がGmax以下である場合、顔検出部109に入力される注目領域画像はFirst_imageから生成された注目領域画像が選定される(選定のステップS2043)。ここで、Gmaxは所定のパラメータ値である。
ここで、照射命令部107は、図11に示すように4つの機能(初期探索部301、継続探索部302、ハレーション対策部303、距離に応じる制御部304)から構成されている。まず、初期探索部301について図12を用いて説明する。人物検出前処理装置101が起動されたときにシステム初期化部112でシステムの初期化が行われ、初期化が完了した時点で照射開始命令信号を照射光量設定部3011に送信する。照射開始命令信号を受信した照射光量設定部3011では、照射光量First_image_power(%)とSecond_image_power(%)を設定し、これらの情報を補助照明制御部104と履歴情報格納部110に送信する。First_image_power(%)とSecond_image_power(%)の設定については様々な方法で行うことができる。ここでは、一例として、下記の式(5)によって照射光量First_image_power(%)とSecond_image_power(%)を設定する。なお、Pini(%)は光量の初期値であり、所定のパラメータである。また、Pdiff(%)は照射光量の差であり、所定のパラメータである。
Figure 0004508926
次に、継続探索部302について図13を用いて説明する。継続探索部302では、注目領域抽出部108から照射光量変更の指示信号を受信した場合、履歴情報格納部110から入力される、前の時刻である時刻t-1でのFirst_image_power(%)が最大照射光量であるかを判定する(判定のステップS3021)。時刻t-1でのFirst_image_power(%)が最大照射光量である場合、照射光量最小化のステップ(S3022)で照射光量を最小値に変更する。光量の変更方法の一例として下記の式(6)によって照射光量の最小化を行うことができる。なお、Pmin(%)は光量の最小値であり、所定のパラメータである。一方、時刻t-1でのFirst_image_power(%)が最大照射光量ではない場合、照射光量増加のステップ(S3023)で照射光量を増加する。この場合の光量の変更方法の一例として下記の式(7)によって照射光量の増加を行うことができる。なお、Pstep(%)は光量の上げ幅量であり、所定のパラメータである。そして、変更後のFirst_image_power(%)とSecond_image_power(%)を補助照明制御部104と履歴情報格納部110に送信する。
Figure 0004508926
Figure 0004508926
次に、ハレーション対策部303について図14を用いて説明する。ハレーション対策部303では、注目領域抽出部108から照射光量変更の指示信号を受信した場合、履歴情報格納部110から入力される時刻t-1でのFirst_image_power(%)が最小照射光量より小さいか否かを判定する(判定のステップS3031)。
時刻t-1でのFirst_image_power(%)が最小照射光量以下である場合、照射光量を変更せずに現状の照射光量を維持する。一方、時刻t-1でのFirst_image_power(%)が最小照射光量より大きい場合、照射光量低減のステップ(S3032)で照射光量を現状より低い値に変更する。照射光量の変更の一例として下記の式(8)によって照射光量の低減を行うことができる。
Figure 0004508926
次に、距離に応じる制御部304について図15を用いて説明する。距離に応じる制御部304では、顔検出部109から時刻tにおける顔検出結果と、履歴情報格納部110から時刻t-1における顔検出結果を受信する。ここでは、受信した両方の顔検出結果を用いて照射光量の変更要否を判定する(判定のステップS3041)。図16に示すように、画像上での顔の大きさが大きくなるということは観測対象の人物までの距離が短くなることを意味している。一方、画像上での顔の大きさが小さくなるということは、観測対象の人物までの距離が長くなることを意味している。照射光量の変更要否判定の一例として下記の式(9)を用いて行うことができる。ここで、Face_sizet、Face_sizet-1、dFace_sizeはそれぞれ時刻tにおける顔の大きさ、時刻t-1での顔の大きさ、同距離における顔の大きさの許容値を示している。dFace_sizeは所定のパラメータである。
Figure 0004508926
判定結果が「Yes」であれば、次に距離変化(距離増加)の判定を行う(判定のステップS3042)。ここでは、時刻tにおける観測対象物の距離が、時刻t-1における距離に対して近くなるか遠くなるかを判定する。判定方法の一例として下記の式(10)を用いて観測対象物の距離の変化を求めることができる。式(10)より、判定結果が「Yes」であれば、照射光量増加のステップ(S3043)で式(7)を用いて時刻t+1での照射光量を増やす。一方、判定結果が「No」であれば、照射光量低減のステップ(S3044)で式(8)を用いて時刻t+1での照射光量を減らす。時刻t+1での照射光量が決定されたら、この情報を補助照明制御部104と履歴情報格納部110に送信する。
Figure 0004508926
補助照明制御部104では、照射命令部107から受信した照射光量の情報に基づいて補助照明器103に供給する電力量を制御する。
顔検出部109は、図17に示すように、前処理部41、顔検出処理部42、43、44、後処理部45から構成されている。前処理部41における処理は、雑音除去ステップS411、画像縮小ステップS412、画像領域取得ステップS413、反転・平滑化処理ステップS414、濃淡情報正規化ステップS415及びS416から構成されている。雑音除去ステップでは、注目領域抽出部108から入力された画像に対して、不図示のローパスフィルタが適用され、雑音の除去が行われる。画像縮小ステップでは、撮影対象の人物の顔までの距離の変化による顔の大きさの変化に対応するために、入力された画像が複数の大きさに変換される。
画像領域取得ステップでは、画像縮小ステップで変換された複数の画像が所定の大きさ、例えばh(縦)×w(幅)画素で切り出される。ここで、切り出された画像を切り出し画像と言う。反転・平滑化処理ステップでは、画像領域取得ステップで切り出されたすべての切り出し画像に対して、偏った照明などにより顔の表面上に生じる輝度ムラの低減の処理がなされる。ここで、輝度ムラの低減の処理は、下記の式(11)及び(12)によって行われる。ここで、I’(x、y)は反転後の輝度値、I(x、y)は反転前の輝度値であり、wは上述した切り出し画像の幅である。また、I’’(x、y)は平滑化された輝度値である。ただし、xとyの変域はそれぞれ0〜w−1、0〜h−1である。
Figure 0004508926
Figure 0004508926
反転・平滑化処理ステップにおける処理の説明を分かりやすくするため、切り出し画像として顔全体が映し出された画像を用いて説明する。反転前の画像を図18Aに、反転後の画像を図18Bに、平滑化後の画像を図18Cにそれぞれ示す。図18Aは、反転前の画像を示しており、輝度の濃い(高い)部分1800が存在する。図18Aの画像を反転させることにより、輝度の濃い部分1800が反転され、図18Bのような輝度の濃い部分1801が得られる。この図18A及び図18Bを平滑化することによって図18Cのような平滑化画像が得られ、切り出し画像全体の輝度ムラが低減される。
濃淡情報正規化ステップS415及びS416では、反転・平滑化処理ステップで処理された画像と画像領域取得ステップで切出された切出し画像に対して、下記の式(13)を用いて切り出し画像全体の明るさの変動、例えば屋外での夜間と昼間などに対応するため、切り出し画像の濃淡情報を正規化する。h(x)は輝度値xの相対出現頻度、f(g)はヒストグラム平滑化後の輝度値である。また、Round[ ]は、小数点第1位以下を四捨五入することを意味する。この変換により、輝度値の累積出現割合に比例して0〜255までの輝度値に収まるように新たな輝度値が割り当てられる。図19Aに入力画像の輝度値の分布が示されており、図19Bに出力画像の輝度値の分布が示されている。図19Aに示す入力画像の輝度値の相対的な出現頻度を式(13)に代入することにより、図19Bに示すように画像の濃淡が正規化される。
Figure 0004508926
濃淡情報正規化ステップS415からの出力は、顔検出処理部42へ入力される。また、濃淡情報正規化ステップS416からの出力は、顔検出処理部43及び44へ入力される。なお、撮影部の光軸のまわりに回転する顔の検出(顔の傾きの検出)を可能にするため、顔検出処理部43及び44が設けられる。顔検出処理部43及び44の詳細については後述する。まず、顔検出処理部42について説明する。顔検出処理部42は、正面に向いている顔の検出を行う検出処理部である。
顔検出処理部42は、階層型ニューラルネットワーク421を有している。階層型ニューラルネットワーク421は、入力層、隠れ層、出力層から構成されている。出力層からの出力値は、0から1までの数値であり、出力値が1に近いほど入力された画像は顔らしく、出力値が0に近いほど入力された画像は顔らしくないということを示す。なお、階層型ニューラルネットワークについては公知の技術であるため、詳細な説明については省略する。
顔検出処理部43及び44に関しては、双方とも同様の構成であるため、顔検出処理部43のみについて説明する。顔検出処理部43は、階層型ニューラルネットワーク431、マスク432、左右反転部433を有している。ここで、階層型ニューラルネットワーク431は、上述した階層型ニューラルネットワーク421と同様であるため、説明を省略する。左右反転部433は、撮影対象の人物が正面に向かって左右に傾いたときの顔の検出を可能にするため、入力された画像を正面(人物が左右に傾いていない)を対称軸にして反転させる。すなわち、左右反転部433は、例えば撮影対象の人物が正面に向かって右にα°傾いている(カメラの光軸に対して回転している)画像が自身に入力された場合、入力された画像を反転させて、左にα°傾いている画像を取得する。顔検出処理部44の左右反転部443でも同様であり、例えば撮影対象の人物が正面に向かって右にβ°傾いている画像が自身に入力された場合、入力された画像を反転させて、左にβ°傾いている画像を取得する。
ここで、撮影対象の人物が左右に傾いている画像には背景の部分も含まれ、精度の高い顔検出ができなくなるため、背景部分を排除する。背景部分を排除するものがマスク432である。マスク432について図20を用いて説明する。図20に示すように、マスク432は、入力画像に対して背景部分にマスクをかける。マスクをかけることにより、背景部分を排除することができ、より精度が高い顔検出ができる。
以上説明したように、顔検出処理部42〜44は、入力される画像に対して顔の類似度(入力された画像が学習された顔画像に対してどのくらい似ているかを表すもの)を求め、その結果を後処理部45へ出力する。後処理部45は、入力された顔の類似度に対して、所定の閾値などを用いて顔候補を選別し、選別後の複数の顔候補が同じ顔であるか調べ、候補を絞り込む。後処理部45は、絞り込まれた顔に対して、画像上での顔の位置情報、例えば検出された顔の中心座標、顔の大きさなどを出力する。位置情報について図21を用いて説明する。絞り込まれた画像上の顔2100には、h×wで切り出された切り出し画像を拡大させた、顔の中心座標がOcで、2Hc×2Wcの検出窓2101がかけられる。
なお、顔検出の処理の高速化のために、図22に示す過去の顔検出結果を用いて顔検出処理部42〜44における処理範囲を限定することも可能である。この過去の顔検出結果は、履歴情報格納部110に格納されていてもよく、また、不図示の所定の記憶領域に格納されていてもよい。ここで、図22について説明する。例えば、過去の時刻において、撮影対象の人物が左にα°傾いていた場合(図22の2行目の顔検出処理部43(左方向)において顔識別がされた場合)、次の時刻(現時刻)では、撮影対象の人物はさらに左にα°以上傾くか、若しくは正面方向に戻るかの2つの状態が考えられる。これは、短時間の間に、左にα°傾いていた状態から右にα°以上傾くということは考えにくいためである。よって、過去の時刻において、撮影対象の人物が左にα°傾いていた場合(図22の2行目の顔検出処理部43(左方向)において顔識別がされた場合)、次の時刻(現時刻)で想定される顔検出処理部44(左方向)、顔検出処理部43(左方向)、顔検出処理部42(正面)のみをそれぞれの顔識別部で処理すればよい。これにより、処理の高速化を図ることができる。
状態推定部111は、顔検出部109から出力された結果である顔位置情報を用いて顔画像を切り出し、切り出した顔画像より顔の表情や目の開閉状態などを抽出し、観測対象の人間の状態を推定する。
次に、本発明の対象物(人物)検出前処理装置を含む人物状態推定装置における人の状態の推定フローについて図23を用いて説明する。補助照明制御部104は、撮影部106から入力された同期信号に基づいて補助照明器103に電力を供給し、電力の供給により補助照明器103は観測対象物(ここでは、人)を照射する(ステップS2301)。撮影部106は照射されている人を撮影する(ステップS2302)。注目領域抽出部108は撮影部106から入力された画像に対して差分処理及び2値化処理を行い、画像上の人の存在領域を抽出する(ステップS2303)。
顔検出部109は、注目領域抽出部108から入力された人の存在領域の情報に基づいて、画像領域内での顔位置情報を出力する(ステップS2304)。このとき、照射命令部107は、注目領域抽出部108や顔検出部109による結果などの情報に基づいて、次の時刻における補助照明器103の照射光量を決定し、その情報を補助照明制御部104に出力する(ステップS2305)。また、状態推定部111は、顔検出部109から入力された顔位置情報に基づいて顔画像より表情や目の開閉などを分析し、人の状態を推定する(ステップS2306)。
本発明に係る対象物検出前処理装置及び対象物検出前処理方法は、コストを抑え、広範囲での均一照射ができ、外乱光などの周辺環境の影響を受けにくく、人体に対して安全に、高速に対象物の存在領域の抽出、対象物の状態推定を可能とさせるため、低照度環境下においても観察対象物の検出を可能とさせる対象物検出前処理装置及び対象物検出前処理方法などに有用である。
本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置の構成を示す構成図である。 本発明の実施の形態に係る対象物検出前処理装置における撮影部の分光感度特性を示す図である。 本発明の実施の形態に係る対象物検出前処理装置における特定波長透過フィルタの透過波長特性を示す図である。 本発明の実施の形態に係る対象物検出前処理装置における補助照明器の照射のタイミングチャートを示す図である。 本発明の実施の形態に係る対象物検出前処理装置における補助照明器の時系列連続画像での照射パターンを示す図である。 本発明の実施の形態に係る対象物検出前処理装置における撮影部によって撮影された2枚の時系列連続画像を示す図である。 本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の処理構成を示す構成図である。 本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の差分画像有効判定ステップの処理構成を示す構成図である。 本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の注目領域画像作成ステップの処理構成を示す構成図である。 本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の注目領域画像作成ステップで作成された注目領域画像を示す図である。 本発明の実施の形態に係る対象物検出前処理装置における注目領域抽出部の注目領域画像の選定ステップの処理構成を示す構成図である。 本発明の実施の形態に係る対象物検出前処理装置における照射命令部の構成を示す構成図である。 本発明の実施の形態に係る対象物検出前処理装置における照射命令部の初期探索部の処理構成を示す構成図である。 本発明の実施の形態に係る対象物検出前処理装置における照射命令部の継続探索部の処理構成を示す構成図である。 本発明の実施の形態に係る対象物検出前処理装置における照射命令部のハレーション対策部の処理構成を示す構成図である。 本発明の実施の形態に係る対象物検出前処理装置における照射命令部の距離に応じる制御部の処理構成を示す構成図である。 本発明の実施の形態に係る対象物検出前処理装置と観測対象物(人)との距離の関係を示す図である。 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の処理構成を示す構成図である。 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の反転・平滑化処理ステップでの反転前の画像を示す図である。 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の反転・平滑化処理ステップでの反転後の画像を示す図である。 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の反転・平滑化処理ステップでの平滑化された画像を示す図である。 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の濃淡情報正規化ステップでの入力画像の輝度値分布を示す図である。 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の濃淡情報正規化ステップでの出力画像の輝度値分布を示す図である。 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の顔検出処理部の入力画像の背景部分にかけられたマスクについて説明するための図である。 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部の後処理部から出力される位置情報について説明するための図である。 本発明の実施の形態に係る対象物検出前処理装置を含む対象物状態推定装置における顔検出部で用いることが可能な過去の顔検出結果を示す図である。 本発明の対象物検出前処理装置を含む対象物状態推定装置における人の状態の推定フローについて説明するためのフローチャートである。
符号の説明
41 前処理部
42、43、44 顔検出処理部
45 後処理部
100 対象物状態推定装置(人物状態推定装置)
101 対象物検出前処理装置(人物検出前処理装置)
102 拡散フィルタ
103 補助照明器(照射手段)
104 補助照明制御部(照射制御手段)
105 特定波長透過フィルタ
106 撮影部(画像データ取得手段)
107 照射命令部(照射命令手段)
108 注目領域抽出部(注目領域抽出手段)
109 顔検出部
110 履歴情報格納部
111 状態推定部
112 システム初期化部
301 初期探索部
302 継続探索部
303 ハレーション対策部
304 距離に応じる制御部
421、431、441 階層型ニューラルネットワーク
432、442 マスク
433、443 左右反転部
1800、1801 輝度の濃い(高い)部分
2100 画像上の顔
2101 検出窓
3011 照射光量設定部

Claims (14)

  1. 観察対象物を異なるタイミング及び異なる照射光量で照射する照射手段と、
    前記異なる照射光量で照射される前記観察対象物のそれぞれの画像を示す画像データを取得する画像データ取得手段と、
    取得されたそれぞれの画像データ間の差分を示す差分画像データを取得し、取得された前記差分画像データを2値化処理し、前記2値化処理された差分画像データに基づいて前記観察対象物の存在領域を抽出する注目領域抽出手段と、
    前記観察対象物の存在領域を抽出する際、所定の条件を満たさない場合に前記照射手段の前記照射光量を制御するための信号を生成する照射命令手段と、
    生成された前記信号に基づいて、前記照射手段の前記照射光量を制御する照射制御手段とを、
    備える対象物検出前処理装置。
  2. 前記照射手段は、24時間撮影を可能とさせるために近赤外光を照射する請求項1に記載の対象物検出前処理装置。
  3. 前記画像データ取得手段は、可視光を含む外乱光の影響を低減させ、安定した画像データ取得を可能とさせるために、前記照射手段により照射される光の反射光のみを透過させる特定波長透過フィルタを備える請求項1又は2に記載の対象物検出前処理装置。
  4. 前記照射制御手段は、前記照射手段によって前記観察対象物を異なる照射光量で照射するタイミングを、前記画像データ取得手段によって前記観察対象物の画像データを取得するタイミングに同期させるため、前記照射手段による照射を制御する請求項1から3のいずれか1つに記載の対象物検出前処理装置。
  5. 前記照射命令手段は、前記画像データ取得手段に対する前記観察対象物の距離に応じて、前記照射手段の前記照射光量を制御するための前記信号を生成する請求項1から4のいずれか1つに記載の対象物検出前処理装置。
  6. 前記観察対象物が人間の顔である請求項1からのいずれか1つに記載の対象物検出前処理装置。
  7. 前記照射手段は、照射する光を広範囲に均一に拡散するための拡散フィルタを備える請求項1からのいずれか1つに記載の対象物検出前処理装置。
  8. 観察対象物を異なるタイミング及び異なる照射光量で照射するステップと、
    前記異なる照射光量で照射される前記観察対象物のそれぞれの画像を示す画像データを取得するステップと、
    取得されたそれぞれの画像データ間の差分を示す差分画像データを取得し、取得された前記差分画像データを2値化処理し、前記2値化処理された差分画像データに基づいて前記観察対象物の存在領域を抽出するステップと、
    前記観察対象物の存在領域を抽出する際、所定の条件を満たさない場合に前記照射光量を制御するための信号を生成するステップと、
    生成された前記信号に基づいて前記照射光量を制御するステップとを、
    有する対象物検出前処理方法。
  9. 前記観察対象物を異なる照射光量で照射するステップにおいて、24時間撮影を可能とさせるために近赤外光を照射する請求項に記載の対象物検出前処理方法。
  10. 前記観察対象物の画像データを取得するステップにおいて、可視光を含む外乱光の影響を低減させ、安定した画像データ取得を可能とさせるために、前記観察対象物を異なる照射光量で照射するステップにより照射される光の反射光のみを透過させる特定波長透過フィルタを用いる請求項又はに記載の対象物検出前処理方法。
  11. 前記観察対象物を異なる照射光量で照射するタイミングを、前記観察対象物の画像データを取得するタイミングに同期させるため、前記観察対象物を異なる照射光量で照射するステップの照射を制御するステップをさらに有する請求項から10のいずれか1つに記載の対象物検出前処理方法。
  12. 前記照射光量を制御するための信号を生成するステップにおいて、前記観察対象物の画像データを取得する手段に対する前記観察対象物の距離に応じて、前記照射光量を制御するための前記信号を生成する請求項から11のいずれか1つに記載の対象物検出前処理方法。
  13. 前記観察対象物が人間の顔である請求項から12のいずれか1つに記載の対象物検出前処理方法。
  14. 前記観察対象物を異なる照射光量で照射するステップにおいて、照射する光を広範囲に均一に拡散するための拡散フィルタを用いる請求項から13のいずれか1つに記載の対象物検出前処理方法。
JP2005100098A 2005-03-30 2005-03-30 対象物検出前処理装置及び対象物検出前処理方法 Expired - Fee Related JP4508926B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005100098A JP4508926B2 (ja) 2005-03-30 2005-03-30 対象物検出前処理装置及び対象物検出前処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005100098A JP4508926B2 (ja) 2005-03-30 2005-03-30 対象物検出前処理装置及び対象物検出前処理方法

Publications (2)

Publication Number Publication Date
JP2006275988A JP2006275988A (ja) 2006-10-12
JP4508926B2 true JP4508926B2 (ja) 2010-07-21

Family

ID=37210894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005100098A Expired - Fee Related JP4508926B2 (ja) 2005-03-30 2005-03-30 対象物検出前処理装置及び対象物検出前処理方法

Country Status (1)

Country Link
JP (1) JP4508926B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4780088B2 (ja) * 2007-11-09 2011-09-28 アイシン精機株式会社 顔画像撮像装置、顔画像撮像方法、及びそのプログラム
JP2010240785A (ja) * 2009-04-07 2010-10-28 Kanto Auto Works Ltd ピッキングシステム
JP5590412B2 (ja) * 2011-02-15 2014-09-17 株式会社デンソー 投光システム及び顔撮影システム
WO2012172865A1 (ja) * 2011-06-17 2012-12-20 本田技研工業株式会社 乗員検知装置
JP7060790B2 (ja) * 2018-02-06 2022-04-27 ミツミ電機株式会社 カメラおよび乗員検知システム
JP7109253B2 (ja) * 2018-05-17 2022-07-29 三菱重工業株式会社 地図情報作成装置、地図情報表示システム、及び、地図情報表示方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320382A (ja) * 1995-05-25 1996-12-03 Matsushita Electric Ind Co Ltd 物体検出装置及び物体検出方法
JP2001250979A (ja) * 2000-03-07 2001-09-14 Toto Ltd 光センサ
JP2001340300A (ja) * 2000-05-31 2001-12-11 Mixed Reality Systems Laboratory Inc 瞳孔位置検出装置及び方法、視点位置検出装置及び方法、並びに立体画像表示システム
JP2005026875A (ja) * 2003-06-30 2005-01-27 Semiconductor Energy Lab Co Ltd 撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320382A (ja) * 1995-05-25 1996-12-03 Matsushita Electric Ind Co Ltd 物体検出装置及び物体検出方法
JP2001250979A (ja) * 2000-03-07 2001-09-14 Toto Ltd 光センサ
JP2001340300A (ja) * 2000-05-31 2001-12-11 Mixed Reality Systems Laboratory Inc 瞳孔位置検出装置及び方法、視点位置検出装置及び方法、並びに立体画像表示システム
JP2005026875A (ja) * 2003-06-30 2005-01-27 Semiconductor Energy Lab Co Ltd 撮像装置

Also Published As

Publication number Publication date
JP2006275988A (ja) 2006-10-12

Similar Documents

Publication Publication Date Title
JP4780088B2 (ja) 顔画像撮像装置、顔画像撮像方法、及びそのプログラム
US7819525B2 (en) Automatic direct gaze detection based on pupil symmetry
JP5366028B2 (ja) 顔画像撮像装置
JP4508926B2 (ja) 対象物検出前処理装置及び対象物検出前処理方法
JP4853389B2 (ja) 顔画像撮像装置
JP4442472B2 (ja) 対象物の部位判別装置
US20040037450A1 (en) Method, apparatus and system for using computer vision to identify facial characteristics
JP3143819B2 (ja) まぶたの開度検出装置
WO2004013654B1 (en) Vehicle mounted night vision imaging system and method
JP2005159392A (ja) 車両周辺監視装置および方法
JP2001333420A (ja) 画像監視方法および装置
JP2008146172A (ja) 眼部検出装置、眼部検出方法及びプログラム
JP5018653B2 (ja) 画像識別装置
JP2007025758A (ja) 人の顔画像抽出方法及び同装置
WO2005027047A2 (en) System or method for identifying a region-of-interest in an image
US11776311B2 (en) Image processing device, image processing method, and storage medium
Brémond et al. Saliency maps of high dynamic range images
JP7401013B2 (ja) 情報処理装置、制御装置、情報処理方法及びプログラム
JP5362405B2 (ja) 瞳孔計測装置、瞳孔計測方法ならびに瞳孔計測プログラム
JP4771797B2 (ja) 距離計測装置及び距離計測方法
JP2016028669A (ja) 瞳孔検出装置、および瞳孔検出方法
JP3057996B2 (ja) 車両運転者の眼球位置検出装置
JPH10105898A (ja) 居眠り運転警報装置
EP4170608A1 (en) Method for detecting forgery in facial recognition and computer readable medium and vehicle for performing such method
WO2022249485A1 (ja) チャート及び製造方法、並びに判定システム、判定方法、及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100406

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100427

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4508926

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140514

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees