JP4328286B2 - 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム - Google Patents
顔領域推定装置、顔領域推定方法及び顔領域推定プログラム Download PDFInfo
- Publication number
- JP4328286B2 JP4328286B2 JP2004360772A JP2004360772A JP4328286B2 JP 4328286 B2 JP4328286 B2 JP 4328286B2 JP 2004360772 A JP2004360772 A JP 2004360772A JP 2004360772 A JP2004360772 A JP 2004360772A JP 4328286 B2 JP4328286 B2 JP 4328286B2
- Authority
- JP
- Japan
- Prior art keywords
- range
- threshold
- area
- target
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
また、他の手法として、画像における色相値のヒストグラムを生成し、そのヒストグラムの形状から肌色の色相値の範囲を定義することで、抽出対象となる人物の肌色に適合した顔領域を抽出する技術が開示されている(特許文献1参照)。
さらに、他の手法として、マンセル表色系において肌色を定義し、画像から肌色領域を抽出し、予め登録されている個人の顔の特徴量と照合することで、個人の顔を検出(識別)することで、肌色領域が人物の顔領域であると推定する技術が開示されている(特許文献2)。
また、特許文献2で開示されている技術によれば、顔の特徴量を抽出可能な程度に画像の解像度が高くなければならず、高解像度のカメラ、高解像度の画像を記憶するための大容量のメモリ等、装置が高価になってしまうという問題がある。
また、顔領域推定装置は、対象距離画像生成手段によって、距離画像(距離情報)から対象距離に対応する画素を抽出して対象距離画像を生成する。例えば、対象距離にある程度の幅(例えば、数十cm等)を持たせ、その距離に対応する画素を距離画像から抽出する。さらに、対象領域設定手段によって、対象距離画像内に、少なくとも前記対象距離に対応して、移動体を検出する対象となる対象領域を設定する。例えば、対象距離に対応する画素で生成された対象距離画像で、画素が存在する領域を対象領域とする。これによって、対象距離画像の中で移動体が存在すると想定される領域を絞り込むことができる。そして、輪郭抽出手段によって、対象距離画像内の対象領域から移動体の輪郭を抽出する。
さらに、顔領域推定装置は、顔領域抽出手段によって、頭部領域内において、最も多く分布する色領域を人物の顔領域として抽出する。すなわち、顔領域推定装置は、頭部領域内において、肌色が最も多く含まれていると仮定し、その肌色の領域を人物の顔領域と推定する。これによって、照明等の環境が変化したり、肌の色が異なる人物が画像に含まれたりしている場合であっても、肌色の領域を抽出することができる。
また、かかる構成によれば、顔領域推定装置は、HLS閾値設定手段によって、撮像画像の頭部領域において、色相、彩度及び明度の各値(色相値、彩度値及び明度値)毎に画素を累計し、その累計した画素数が予め定めた範囲内で最多画素数となる上限値及び下限値を、それぞれ色相閾値、彩度閾値及び明度閾値とする。この色相閾値、彩度閾値及び明度閾値の範囲に含まれる色領域が、頭部領域に最も多く分布している。そこで、顔領域推定装置は、顔領域抽出手段によって、この色相閾値、彩度閾値及び明度閾値の範囲に含まれる画素からなる領域を顔領域とする。
また、顔領域推定装置は、顔領域抽出手段において、撮像画像における頭部領域の彩度閾値(例えば、下限値)が予め定めた値以下である場合に、色相、彩度及び明度では、肌色を抽出することが困難であると判定し、RGB閾値設定手段によって、赤色、緑色及び青色の各濃度値の分布から、最も多く分布する各色の範囲(赤色範囲、緑色範囲及び青色範囲)を設定する。これによって、彩度の低い撮像画像においても、肌色を抽出することが可能になる。
そして、顔領域推定装置は、対象距離画像生成手段によって、エッジ画像から対象距離の範囲内に存在する対象距離画像を生成する。これによって、輪郭抽出手段が対象距離画像から輪郭を抽出する際に、エッジを検出する動作を省くことができる。
[顔領域推定装置の構成]
図1は、本発明に係る顔領域推定装置の全体構成を示したブロック図である。図1に示すように顔領域推定装置1は、複数のカメラ2で撮像された撮像画像から、人物の顔領域を推定するものである。ここでは、顔領域推定装置1は、移動体検出手段10と、頭部領域設定手段20と、顔領域抽出手段30とを備えている。
このように、顔領域推定装置1は、移動体の輪郭の上部に人物の頭部があることと仮定することで、頭部領域を特定し、その頭部領域内で、色相、彩度及び明度の色分布によって肌色(顔領域)を抽出するため、撮像画像内に肌色と同様の色分布を持つ領域を、顔領域として推定することがない。また、照明等の環境が変化した場合であっても、肌の色が異なる人物が撮像画像に含まれている場合であっても、各人物の顔領域を抽出することが可能になる。
以下、移動体検出手段10、頭部領域設定手段20及び顔領域抽出手段30の構成について詳細に説明する。
まず、図2を参照して、移動体検出手段10の構成について説明する。図2は、本発明に係る顔領域推定装置に含まれる移動体検出手段の構成を示したブロック図である。図2に示すように、移動体検出手段10は、2台のカメラ2で撮像された撮像画像から、動きを伴う物体(移動体)を検出することとする。なお、2台のカメラ2は、左右に距離Bだけ離れて配置されており、それぞれを右カメラ2a及び左カメラ2bとする。ここでは、移動体検出手段10は、距離情報生成手段11と、動き情報生成手段12と、エッジ画像生成手段13と、対象距離設定手段14と、対象距離画像生成手段15と、対象領域設定手段16と、輪郭抽出手段17とを備えている。
この距離情報生成手段11では、右カメラ2aを基準カメラとして、この基準カメラ(右カメラ2a)で撮像された基準撮像画像と、左カメラ2bで撮像された同時刻撮像画像とで、特定の大きさのブロック(例えば8×3画素)でブロックマッチングを行うことで、基準撮像画像からの視差を計測する。そして、その視差の大きさ(視差量)を基準撮像画像の各画素に対応付けた距離画像を生成する。
なお、視差をZとしたとき、この視差Zに対応するカメラ2から物体までの距離L(図示せず)は、カメラ2の焦点距離をf(図示せず)、右カメラ2aと左カメラ2bとの距離をBとすると、(1)式で求めることができる。
この動き情報生成手段12では、右カメラ2aを基準カメラとして、この基準カメラ(右カメラ2a)で撮像された時刻の異なる2枚の撮像画像の差分をとる。例えば、100ms間隔で撮像画像を入力したときに、その入力時刻からΔt(例えば33ms)分遅れた撮像画像を入力し、その2枚の撮像画像の差分をとることとする。
そして、差のあった画素には動きのあった画素として画素値“1”を与え、差のなかった画素には動きのなかった画素として画素値“0”を与えた差分画像を生成する。なお、動き情報生成手段12では、さらに差分画像に対して、メディアンフィルタ等のフィルタリング処理を行うことで、ノイズを除去しておく。
図2に戻って、説明を続ける。
例えば、最多視差におけるカメラ2から移動体までの距離Lを前記(1)式で算出したとすると、その視差の範囲Zrは前記(1)式を変形することで、以下に示す(2)式を得る。ただし、カメラ2の焦点距離をf、右カメラ2aと左カメラ2bとの距離をB、対象物体の奥行き方向の範囲をαとする。
なお、この対象距離画像の生成は、基準カメラ(右カメラ2a)で撮像された撮像画像(原画像)又は距離情報生成手段11で生成された距離画像から、対象距離(視差の範囲)に対応する画素位置のみの画素を抽出することとしてもよい。
図2に戻って、説明を続ける。
具体的には、SxをヒストグラムHIにおける注目している座標xの画素数、Sx′を平滑化後のヒストグラムHI′の座標xの画素数、x0を正の定数として、以下の(3)式により平滑化を行う。
また、前記した(3)式又は(4)式による平滑化処理において、以下の(5)式を条件とするのが望ましい。
これにより、隣り合う人物のヒストグラムHIが、平滑化の処理によりつながってしまうことを防ぐことができる。
具体的には、図15(b)で説明した平滑化後のヒストグラムHI′において、最も画素数Sx′が大きい座標x(例えば、図15(b)におけるx1)を、1つの移動体の中心位置とし、その左右両側の一定範囲(例えば、図15(b)におけるβ)を対象領域の水平方向の範囲として設定する。このβは、人物が手を挙げた場合も含まれるように、人物の幅に相当する画素数か、それよりやや広めとすることができる。さらに、この範囲内で、ヒストグラムが最小となる水平位置(座標x)を検出する。この最小となる水平位置を、一人の人物の左右端とする。
図2に戻って、説明を続ける。
まず、図16(a)を参照して、チルト角が0(°)の場合において、移動体Mが対象距離画像(a′)上で垂直方向のどの位置に存在するかを特定する方法について説明する。
=Y/2−(Y/θv)tan-1((2−H)/L) …(8)
=Y/2+(Y/θv)tan-1(H/L) …(10)
=Y/2−θTY/θv−(Y/θv)tan-1((2−H)/L) …(12)
=Y/2−θTY/θv+(Y/θv)tan-1(H/L) …(14)
なお、移動ロボット(図示せず)が階段等を昇降し、移動体Mと同一の床に存在しない場合は、移動ロボット本体のエンコーダ等によって昇降量を検出し、その昇降量を移動体Mの床からの高さに対して加算又は減算することで、移動体Mの対象距離画像(a′又はb′)における垂直方向の位置を特定することができる。あるいは、移動ロボットに地図情報を保持しておき、移動体Mの方向及び距離で特定される床の高さを、その地図情報から取得することとしてもよい。
図2に戻って、説明を続ける。
この輪郭抽出手段17は、抽出した輪郭(輪郭情報)を、頭部領域設定手段20(図1参照)に出力する。これによって、例えば、図17に示したように、対象距離画像TDの中で移動体が1つ(1人)に限定された対象領域T内で輪郭Oを抽出することができ、移動体の概略の位置を特定することができる。
次に、図3を参照して、頭部領域設定手段20の構成について説明する。図3は、本発明に係る顔領域推定装置に含まれる頭部領域設定手段の構成を示したブロック図である。図3に示すように、頭部領域設定手段20は、移動体検出手段10(図1参照)で検出された移動体の輪郭及び対象距離画像に基づいて、移動体を人物と仮定したときの頭部領域を設定する。ここでは、頭部領域設定手段20は、頭部探索領域設定手段21と、ヒストグラム生成手段22と、垂直範囲設定手段23と、水平範囲設定手段24とを備えている。
この頭部探索領域設定手段21は、例えば、図18に示すように、対象距離画像TDにおいて、輪郭Oにおける重心Gの座標を(xG,yG)とし、重心GのX座標における最上端の輪郭OのY座標をyUとしたとき、頭部探索領域HSの垂直方向の範囲として、下限をyU又はyUから所定距離(例えば、0.2m)下方とし、上限を特定の大きさ(例えば2m)に対応する位置に設定する。なお、この上限には、図16で説明した対象距離画像(a′又はb′)上での上端yTの位置を用いることができる。
また、頭部探索領域HSの水平方向の範囲は、重心GのY座標を中心に、例えば、左右±0.2(m)の範囲に設定する。
この頭部探索領域設定手段21で設定された頭部探索領域HSは、ヒストグラム生成手段22に出力される。
具体的には、Syをヒストグラムにおける注目している座標yの画素数、Sy′を平滑化後のヒストグラムの座標yの画素数、y0を正の定数として、以下の(15)式により平滑化を行う。なお、f(n)はnの関数であるが、定数としてもよい。
まず、ヒストグラム生成手段22は、図19(a)に示すように、頭部探索領域HSにおいて、水平方向の画素数を計測し累計したヒストグラムHIHSを生成する。そして、垂直範囲設定手段23は、画素数が累計されている垂直方向の座標で、最上点の座標を頭部領域の上端とする。なお、ここでは、ノイズ等を考慮し、予め定めた閾値以上となる画素数が累計されている垂直方向の座標の最上点Toを、頭部領域の上端とする。
そして、垂直範囲設定手段23は、図19(b)に示すように、最上点Toから0.3mだけ下の座標を頭部領域HDの下端とする。
さらに、水平範囲設定手段24は、輪郭の重心のX座標を中心に、0.2mの範囲を頭部領域HDの水平方向の範囲とする。
このように設定された頭部領域HD(頭部領域の位置情報)は、顔領域抽出手段30(図1参照)に出力される。
次に、図4を参照して、顔領域抽出手段30の構成について説明する。図4は、本発明に係る顔領域推定装置に含まれる顔領域抽出手段の構成を示したブロック図である。図4に示すように、顔領域抽出手段30は、カメラ2(図1参照)で撮像された撮像画像を参照して、頭部領域設定手段20で設定された頭部領域において、肌色の領域である顔領域を抽出する。ここでは、顔領域抽出手段30は、HLS閾値設定手段31と、RGB閾値設定手段32と、肌色領域抽出手段33とを備えている。
ここでは、HLS閾値設定手段31は、色相ヒストグラム生成手段311aと、色相閾値設定手段311bと、彩度ヒストグラム生成手段312aと、彩度閾値設定手段312bと、明度ヒストグラム生成手段313aと、明度閾値設定手段313bと、彩度判定手段314とを備えている。
なお、彩度ヒストグラム生成手段312aは、HLS肌色抽出手段33aから出力される、頭部領域内における色相閾値の範囲に含まれる画素(顔候補画素)において、彩度値毎に画素数を計測することとする。これによって、累計を行う画素数を減らし、演算速度を早めることができる。
なお、明度ヒストグラム生成手段313aは、HLS肌色抽出手段33aから出力される、頭部領域内における色相閾値及び彩度閾値の範囲に含まれる画素(顔候補画素)において、明度値毎に画素数を計測することとする。これによって、累計を行う画素数を減らし、演算速度を早めることができる。
また、明度閾値設定手段313bも、彩度閾値設定手段312bと同様に、図20(c)に示すように、明度閾値幅WLで最多画素数となる明度閾値幅WLの下限値LL及び上限値LHを明度閾値として設定する。
図4に戻って、説明を続ける。
ここで、撮像画像が彩度の低い画像であったとすると、その画像は色相に関係なく灰色に近い色となってしまい、色相値によって肌色を抽出することは困難となる。そこで、彩度判定手段314は、彩度の高低に基づいて、HLS色空間による色相閾値、彩度閾値及び明度閾値を、肌色を抽出するための閾値として使用することが適当であるかどうかを判定する。具体的には、彩度判定手段314は、彩度閾値の下限値SL(図20参照)が、“0”であった場合、彩度が低いと判定する。
なお、ここでは、彩度閾値の下限値が、“0”であるかどうかで、彩度の高低を判定しているが、予め閾値を設け、下限値がその閾値以下であった場合に彩度が低いと判定することとしてもよい。この彩度判定手段314による彩度の判定結果は、RGB閾値設定手段32と、肌色領域抽出手段33に出力される。
ここでは、RGB閾値設定手段32は、赤色ヒストグラム生成手段321aと、赤色閾値設定手段321bと、緑色ヒストグラム生成手段322aと、緑色閾値設定手段322bと、青色ヒストグラム生成手段323aと、青色閾値設定手段323bとを備えている。
また、緑色閾値設定手段322b及び青色閾値設定手段323bも、赤色閾値設定手段321bにおいて、対象となる色が赤色から、緑色又は青色に代わっているだけであるので、説明を省略する。
なお、RGB閾値設定手段32は、HLS閾値設定手段31と同様に、各色の閾値を設定する段階で、頭部領域からその閾値の範囲に含まれる画素(顔候補画素)を抽出することで、ヒストグラムを生成する際の対象画素を限定することとしてもよい。
なお、HLS肌色抽出手段33aは、HLS閾値設定手段31で、色相閾値、彩度閾値及び明度閾値が順次設定される段階で、順次撮像画像の頭部領域内において、対象となる画素(顔候補画素)を抽出し、HLS閾値設定手段31に出力することとする。これによって、HLS閾値設定手段31における閾値設定に要する演算コストを削減することができる。
なお、RGB肌色抽出手段33bは、HLS肌色抽出手段33aと同様に、赤色閾値、緑色閾値及び青色閾値が順次設定される段階で、順次撮像画像の頭部領域内において、対象となる画素(顔候補画素)を抽出し、RGB閾値設定手段32に出力することが望ましい。
以上、一実施の形態として顔領域推定装置1の構成について説明したが、顔領域推定装置1は、一般的なコンピュータにプログラム(顔領域推定プログラム)を実行させ、コンピュータ内の演算装置や記憶装置を動作させることにより実現される。
また、ここでは、顔領域推定装置1の顔領域抽出手段30は、撮像画像の彩度が低い場合に、RGB色空間上で、肌色領域を抽出する構成とした。しかし、彩度が低くならない環境に限定して動作させる場合には、顔領域抽出手段30の彩度判定手段314、RGB閾値設定手段32及びRGB肌色抽出手段33bを構成から省略することができる。
次に、図5を参照(適宜図1参照)して、顔領域推定装置1の動作について説明する。図5は、本発明に係る顔領域推定装置の全体動作を示すフローチャートである。
まず、顔領域推定装置1は、移動体検出手段10によって、複数のカメラ2で撮像された撮像画像から、動きのある移動体を検出する(ステップS10;移動体検出ステップ)。なお、このステップS10では、撮像画像から移動体の輪郭を抽出するとともに、移動体が存在する距離に対応する画素からなる対象距離画像を生成する。
以下、ステップS10の移動体(輪郭)検出処理、ステップS20の頭部領域設定処理、及び、ステップS30の顔領域抽出処理の動作について詳細に説明する。
最初に、図6及び図7を参照(適宜図2参照)して、図5のステップS10で説明した移動体(輪郭)検出処理の動作について説明する。図6及び図7は、移動体検出手段における移動体(輪郭)検出処理の動作を示すフローチャートである。
まず、移動体検出手段10は、2台のカメラ2から時系列に撮像画像を同期させて入力する(ステップS101)。ここでは、ある時刻tに右カメラ2a(基準カメラ)と左カメラ2bとから入力された撮像画像と、次の時刻t+Δtに右カメラ2a(基準カメラ)と左カメラ2bとから入力された撮像画像とに基づいて、移動体を抽出する。なお、以下のステップで用いられている距離画像Dt-1及びDt-2、対象距離画像TDt-2及びTDt-1は、時刻t−2及び時刻t−1の段階で生成されたものである。
そして、移動体検出手段10は、距離情報生成手段11によって、時刻tに右カメラ2a(基準カメラ)と左カメラ2bとから入力された2枚の撮像画像から、移動体を含んだ撮像対象までの視差(距離)を埋め込んだ距離画像Dtを生成する(ステップS102)。
さらに、移動体検出手段10は、動き情報生成手段12によって、右カメラ2a(基準カメラ)で時刻tと時刻t+Δtに撮像された2枚の撮像画像(基準撮像画像)の差分をとり、差のあった画素を画素値“1”、差のなかった画素を画素値“0”とした差分画像DItを生成する(ステップS103)。
また、移動体検出手段10は、エッジ画像生成手段13によって、右カメラ2a(基準カメラ)で時刻tに撮像された撮像画像(基準撮像画像)からエッジ画像EDtを生成する(ステップS104)。
そして、移動体検出手段10は、対象距離設定手段14によって、ステップS102及びステップS103で生成した距離画像Dt及び差分画像DIt(時刻tと時刻t+Δtの差分画像)から、距離画像Dtで表された視差(距離)毎に、動きのあった画素数を累計し、その累計が最大となる距離を、距離画像Dtにおける検出対象となる移動体の対象距離dtとして設定する(ステップS105)。
そして、移動体検出手段10は、対象距離画像生成手段15によって、ステップS104で生成したエッジ画像EDtから、対象距離dt±αの画素を抽出した対象距離画像TDtを生成する(ステップS106)。
このステップS106によって、顔領域推定装置1は、時刻tにおける距離画像距離画像Dtにおいて、移動体が存在する奥行き方向の範囲を設定することができる。
そして、移動体検出手段10は、対象領域設定手段16のヒストグラム生成手段16aによって、ステップS106で生成した対象距離画像TDtの垂直方向(縦方向)の画素数を計測し、ヒストグラム化する(ステップS107)。なお、このステップS107においては、ヒストグラムを平滑化することが望ましい。
また、移動体検出手段10は、輪郭抽出手段17によって、ステップS106で生成した対象距離画像TDtにおいて、ステップS108及びステップS109で設定した対象領域内で輪郭の抽出を行う(ステップS110)。例えば、対象領域内で動的輪郭モデル(SNAKES)を適用することによって輪郭の抽出を行う。
以上の動作によって、カメラ2から入力された撮像画像から、移動体を検出することができる。
次に、図8を参照(適宜図3参照)して、図5のステップS20で説明した頭部領域設定処理の動作について説明する。図8は、頭部領域設定手段における頭部領域設定処理の動作を示すフローチャートである。
まず、頭部領域設定手段20は、頭部探索領域設定手段21によって、輪郭の上部(上端)の画素位置を基準として、予め定めた範囲の領域を人物の頭部を探索するための領域(頭部探索領域)として設定する(ステップS201)。ここでは、頭部探索領域設定手段21は、輪郭の重心のX座標をx、その座標xにおける輪郭の最上端のY座標をyとした位置(x,y)を基準として、頭部探索領域の垂直方向の範囲を設定する。例えば、頭部探索領域の下限を、yから所定距離(例えば、0.2m)下方とし、上限は、特定の大きさ(例えば2m)に対応する位置に設定する。
そして、頭部領域設定手段20は、ヒストグラム生成手段22によって、対象距離画像において、頭部探索領域設定手段21で設定された頭部探索領域の範囲内で、垂直方向の座標毎に、水平方向の画素数を計測し、ヒストグラム化する(ステップS202)。なお、このステップS202においては、ヒストグラムを平滑化することが望ましい。
そして、頭部領域設定手段20は、垂直範囲設定手段23によって、ステップS202で生成されたヒストグラムにおいて、水平方向の画素数が予め定めた閾値よりも多い垂直方向の座標において、最上点の座標を頭部領域の上端とした所定の上下範囲を頭部領域の水平範囲とする。具体的には、上端から特定の長さ(例えば0.3m)だけ下の座標を頭部領域の下端とすることで、頭部領域の垂直範囲を設定する(ステップS203)。
さらに、頭部領域設定手段20は、水平範囲設定手段24によって、輪郭における重心のX座標を中心として、所定の左右範囲を頭部領域の水平範囲とする。具体的には、重心のX座標を中心として、特定の長さ(例えば0.2m)を頭部領域の水平範囲として設定する(ステップS204)。
以上の動作によって、カメラ2(図1)から入力された撮像画像のどこに人物の頭部領域が存在するかが特定されることになる。
次に、図9及び図10を参照(適宜図4参照)して、図5のステップS30で説明した顔領域抽出処理の動作について説明する。図9及び図10は、顔領域抽出手段における顔領域抽出処理の動作を示すフローチャートである。
まず、顔領域抽出手段30は、HLS閾値設定手段31の色相ヒストグラム生成手段311aによって、撮像画像の頭部領域内において、色相値毎に画素数を計測し、ヒストグラム化することで、色相ヒストグラムを生成する(ステップS301)。
続けて、顔領域抽出手段30は、色相閾値設定手段311bによって、色相ヒストグラムにおいて、予め定めた範囲(色相閾値幅)内で、最も画素数が多くなる範囲を探索し、その探索結果である範囲の上限値及び下限値を色相閾値として設定する(ステップS302)。
そして、顔領域抽出手段30は、肌色領域抽出手段33のHLS肌色抽出手段33aによって、頭部領域内から、色相閾値の範囲に含まれる画素(顔候補画素)を抽出する(ステップS303)。
そして、顔領域抽出手段30は、HLS閾値設定手段31の彩度ヒストグラム生成手段312aによって、ステップS303で抽出された顔候補画素において、彩度値毎に画素数を計測し、ヒストグラム化することで、彩度ヒストグラムを生成する(ステップS304)。
続けて、顔領域抽出手段30は、彩度閾値設定手段312bによって、彩度ヒストグラムにおいて、予め定めた範囲(彩度閾値幅)内で、最も画素数が多くなる範囲を探索し、その探索結果である範囲の上限値及び下限値を彩度閾値として設定する(ステップS305)。
そして、顔領域抽出手段30は、HLS肌色抽出手段33aによって、顔候補画素から、彩度閾値の範囲に含まれる画素を抽出し、顔候補画素を更新する(ステップS306)。
ここで、顔領域抽出手段30は、彩度判定手段314によって、ステップS305で設定された彩度閾値に基づいて、撮像画像の彩度の高低を判定する。ここでは、彩度閾値の下限値が“0”でないかどうかを判定する(ステップS307)。
そして、彩度閾値の下限値が“0”でない場合(ステップS307でYes)、顔領域抽出手段30は、HLS色空間における肌色の抽出が可能であると判定し、ステップS308(図10)の明度閾値設定ステップに進む。
一方、彩度閾値の下限値が“0”である場合(ステップS307でNo)、顔領域抽出手段30は、HLS色空間における肌色の抽出が不可能であると判定し、ステップS311のRGB閾値設定ステップに進む。
彩度閾値の下限値が“0”でない場合、顔領域抽出手段30は、HLS閾値設定手段31の明度ヒストグラム生成手段313aによって、ステップS306で抽出された顔候補画素において、明度値毎に画素数を計測し、ヒストグラム化することで、明度ヒストグラムを生成する(ステップS308)。
続けて、顔領域抽出手段30は、明度閾値設定手段313bによって、明度ヒストグラムにおいて、予め定めた範囲(明度閾値幅)内で、最も画素数が多くなる範囲を探索し、その探索結果である範囲の上限値及び下限値を明度閾値として設定する(ステップS309)。
そして、顔領域抽出手段30は、肌色領域抽出手段33のHLS肌色抽出手段33aによって、ステップS309で設定された明度閾値の範囲内の画素を肌色領域(顔領域)として抽出する(ステップS310)。なお、このステップS310において、色相閾値、彩度閾値及び明度閾値の範囲内の画素を、頭部領域から抽出すれば、顔領域を抽出することになるし、撮像画像全体から抽出すれば、顔以外の手等の肌色領域を抽出することが可能になる。
ステップS307で彩度閾値の下限値が“0”であった場合、顔領域抽出手段30は、RGB閾値設定手段32によって、頭部領域内におけるRGBそれぞれの画素数を計測し、ヒストグラム化することで、RGBそれぞれのヒストグラムを生成する(ステップS311)。
なお、詳細には、赤色ヒストグラム生成手段321aによって、赤色の濃度毎に画素数を計測し、赤色ヒストグラムを生成する。また、緑色ヒストグラム生成手段322aによって、緑色の濃度毎に画素数を計測し、緑色ヒストグラムを生成する。さらに、青色ヒストグラム生成手段323aによって、青色の濃度毎に画素数を計測し、青色ヒストグラムを生成する。
なお、詳細には、赤色閾値設定手段321bによって、赤色ヒストグラムにおいて、予め定めた範囲(赤色閾値幅)内で、最も画素数が多くなる範囲を探索し、その探索結果である範囲の上限値及び下限値を赤色閾値として設定する。また、緑色閾値設定手段322bによって、緑色ヒストグラムにおいて、予め定めた範囲(緑色閾値幅)内で、最も画素数が多くなる範囲を探索し、その探索結果である範囲の上限値及び下限値を緑色閾値として設定する。さらに、青色閾値設定手段323bによって、青色ヒストグラムにおいて、予め定めた範囲(青色閾値幅)内で、最も画素数が多くなる範囲を探索し、その探索結果である範囲の上限値及び下限値を青色閾値として設定する。
そして、顔領域抽出手段30は、肌色領域抽出手段33のRGB肌色抽出手段33bによって、ステップS312で設定された閾値(赤色閾値、緑色閾値及び青色閾値)の範囲内の画素を肌色領域(顔領域)として抽出する(ステップS313)。
2 カメラ
10 移動体検出手段
11 距離情報生成手段
12 動き情報生成手段
13 エッジ画像生成手段
14 対象距離設定手段
15 対象距離画像生成手段
16 対象領域設定手段
17 輪郭抽出手段
20 頭部領域設定手段
30 顔領域抽出手段
31 HLS閾値設定手段
32 RGB閾値設定手段
33 肌色領域抽出手段
Claims (5)
- 複数のカメラで移動体を撮像した複数の撮像画像から、当該撮像画像内に含まれる人物の顔領域を推定する顔領域推定装置であって、
前記複数の撮像画像の視差に基づいて、前記移動体までの距離を距離情報として生成する距離情報生成手段と、
前記複数のカメラの中の少なくとも1つのカメラから、時系列に入力される撮像画像の差分に基づいて、前記移動体の動きを動き情報として生成する動き情報生成手段と、
前記距離情報及び前記動き情報に基づいて、前記移動体が存在する対象距離を設定する対象距離設定手段と、
前記距離情報に基づいて、前記対象距離に対応する画素からなる対象距離画像を生成する対象距離画像生成手段と、
前記対象距離画像内に、少なくとも前記対象距離設定手段で設定された対象距離に対応して、前記移動体の領域を含んだ対象領域を設定する対象領域設定手段と、
この対象領域設定手段で設定された対象領域から輪郭を抽出する輪郭抽出手段と、
この輪郭抽出手段で抽出された輪郭の上部の画素位置を基準とした予め定めた範囲に対応する前記対象距離画像の画素分布に基づいて、前記移動体を人物と仮定したときの頭部領域を設定する頭部領域設定手段と、
この頭部領域設定手段で設定された頭部領域に対応する前記撮像画像の色分布に基づいて、当該撮像画像から前記人物の顔領域を抽出する顔領域抽出手段と、を備え、
前記顔領域抽出手段は、
前記頭部領域内において、色相、彩度及び明度の各値毎に、予め定めた範囲内で前記値に対応する画素の累計が最多となる色相範囲、彩度範囲及び明度範囲の上限値及び下限値を、それぞれ色相閾値、彩度閾値及び明度閾値として設定するHLS閾値設定手段と、
前記頭部領域内において、光の3原色である赤色、緑色及び青色の各濃度値毎に、予め定めた範囲内で前記濃度値に対応する画素の累計が最多となる赤色範囲、緑色範囲及び青色範囲の上限値及び下限値を、それぞれ赤色閾値、緑色閾値及び青色閾値として設定するRGB閾値設定手段と、を備え、
前記彩度閾値が予め定めた値以下である場合に、前記赤色閾値、前記緑色閾値及び前記青色閾値の範囲内に含まれる画素からなる領域を前記顔領域とし、それ以外である場合に、前記色相閾値、前記彩度閾値及び前記明度閾値の範囲内に含まれる画素からなる領域を前記顔領域とすることを特徴とする顔領域推定装置。 - 前記撮像画像の各画素の色情報又は濃淡情報に基づいて、その撮像画像のエッジを抽出したエッジ画像を生成するエッジ画像生成手段を備え、
前記距離画像生成手段が、前記距離情報に基づいて、前記対象距離に対応する前記エッジ画像の画素を抽出して、前記対象距離画像を生成することを特徴とする請求項1に記載の顔領域推定装置。 - 前記頭部領域設定手段は、前記対象距離画像における前記輪郭の上部の画素位置を基準とした予め定めた範囲内において、垂直方向の座標毎に水平方向の画素を累計し、その水平方向の画素数に基づいて、前記頭部領域の垂直方向の範囲を設定することを特徴とする請求項1又は請求項2に記載の顔領域推定装置。
- 複数のカメラで移動体を撮像した複数の撮像画像から、当該撮像画像内に含まれる人物の顔領域を推定する顔領域推定方法であって、
前記複数の撮像画像の視差に基づいて、前記移動体までの距離を距離情報生成手段により距離情報として生成する距離情報生成ステップと、
前記複数のカメラの中の少なくとも1つのカメラから、時系列に入力される撮像画像の差分に基づいて、前記移動体の動きを動き情報生成手段により動き情報として生成する動き情報生成ステップと、
前記距離情報及び前記動き情報に基づいて、前記移動体が存在する対象距離を対象距離設定手段により設定する対象距離設定ステップと、
前記距離情報に基づいて、前記対象距離に対応する画素からなる対象距離画像を対象距離画像生成手段により生成する対象距離画像生成ステップと、
前記対象距離画像内に、少なくとも前記対象距離設定ステップで設定された対象距離に対応して、前記移動体の領域を含んだ対象領域を対象領域設定手段により設定する対象領域設定ステップと、
この対象領域設定ステップで設定された対象領域から輪郭抽出手段により輪郭を抽出する輪郭抽出ステップと、
この輪郭抽出ステップで抽出された輪郭の上部の画素位置を基準とした予め定めた範囲に対応する前記対象距離画像の画素分布に基づいて、頭部領域設定手段により前記移動体を人物と仮定したときの頭部領域を設定する頭部領域設定ステップと、
この頭部領域設定ステップで設定された頭部領域に対応する前記撮像画像の色分布に基づいて、顔領域抽出手段により当該撮像画像から前記人物の顔領域を抽出する顔領域抽出ステップと、を含み、
前記顔領域抽出ステップは、
前記頭部領域内において、色相、彩度及び明度の各値毎に、予め定めた範囲内で前記値に対応する画素の累計が最多となる色相範囲、彩度範囲及び明度範囲の上限値及び下限値を、それぞれ色相閾値、彩度閾値及び明度閾値として設定するHLS閾値設定ステップと、
前記頭部領域内において、光の3原色である赤色、緑色及び青色の各濃度値毎に、予め定めた範囲内で前記濃度値に対応する画素の累計が最多となる赤色範囲、緑色範囲及び青色範囲の上限値及び下限値を、それぞれ赤色閾値、緑色閾値及び青色閾値として設定するRGB閾値設定ステップと、を含み、
前記彩度閾値が予め定めた値以下である場合に、前記赤色閾値、前記緑色閾値及び前記青色閾値の範囲内に含まれる画素からなる領域を前記顔領域とし、それ以外である場合に、前記色相閾値、前記彩度閾値及び前記明度閾値の範囲内に含まれる画素からなる領域を前記顔領域とすることを特徴とする顔領域推定方法。 - 複数のカメラで移動体を撮像した複数の撮像画像から、当該撮像画像内に含まれる人物の顔領域を推定するために、コンピュータを、
前記複数の撮像画像の視差に基づいて、前記移動体までの距離を距離情報として生成する距離情報生成手段、
前記複数のカメラの中の少なくとも1つのカメラから、時系列に入力される撮像画像の差分に基づいて、前記移動体の動きを動き情報として生成する動き情報生成手段、
前記距離情報及び前記動き情報に基づいて、前記移動体が存在する対象距離を設定する対象距離設定手段、
前記距離情報に基づいて、前記対象距離に対応する画素からなる対象距離画像を生成する対象距離画像生成手段、
前記対象距離画像内に、少なくとも前記対象距離設定手段で設定された対象距離に対応して、前記移動体の領域を含んだ対象領域を設定する対象領域設定手段、
この対象領域設定手段で設定された対象領域から輪郭を抽出する輪郭抽出手段、
この輪郭抽出手段で抽出された輪郭の上部の画素位置を基準とした予め定めた範囲に対応する前記対象距離画像の画素分布に基づいて、前記移動体を人物と仮定したときの頭部領域を設定する頭部領域設定手段、
この頭部領域設定手段で設定された頭部領域に対応する前記撮像画像の色分布に基づいて、当該撮像画像から前記人物の顔領域を抽出する顔領域抽出手段、として機能させ、
前記顔領域抽出手段は、
前記頭部領域内において、色相、彩度及び明度の各値毎に、予め定めた範囲内で前記値に対応する画素の累計が最多となる色相範囲、彩度範囲及び明度範囲の上限値及び下限値を、それぞれ色相閾値、彩度閾値及び明度閾値として設定し、
前記頭部領域内において、光の3原色である赤色、緑色及び青色の各濃度値毎に、予め定めた範囲内で前記濃度値に対応する画素の累計が最多となる赤色範囲、緑色範囲及び青色範囲の上限値及び下限値を、それぞれ赤色閾値、緑色閾値及び青色閾値として設定し、
前記彩度閾値が予め定めた値以下である場合に、前記赤色閾値、前記緑色閾値及び前記青色閾値の範囲内に含まれる画素からなる領域を前記顔領域とし、それ以外である場合に、前記色相閾値、前記彩度閾値及び前記明度閾値の範囲内に含まれる画素からなる領域を前記顔領域とすることを特徴とする顔領域推定プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004360772A JP4328286B2 (ja) | 2004-12-14 | 2004-12-14 | 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム |
US11/301,117 US7756299B2 (en) | 2004-12-14 | 2005-12-13 | Face region estimating device, face region estimating method, and face region estimating program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004360772A JP4328286B2 (ja) | 2004-12-14 | 2004-12-14 | 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006171929A JP2006171929A (ja) | 2006-06-29 |
JP4328286B2 true JP4328286B2 (ja) | 2009-09-09 |
Family
ID=36583932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004360772A Expired - Fee Related JP4328286B2 (ja) | 2004-12-14 | 2004-12-14 | 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US7756299B2 (ja) |
JP (1) | JP4328286B2 (ja) |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080052104A1 (en) * | 2005-07-01 | 2008-02-28 | Searete Llc | Group content substitution in media works |
US20070266049A1 (en) * | 2005-07-01 | 2007-11-15 | Searete Llc, A Limited Liability Corportion Of The State Of Delaware | Implementation of media content alteration |
US9583141B2 (en) | 2005-07-01 | 2017-02-28 | Invention Science Fund I, Llc | Implementing audio substitution options in media works |
US20080013859A1 (en) * | 2005-07-01 | 2008-01-17 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Implementation of media content alteration |
JP2007281680A (ja) * | 2006-04-04 | 2007-10-25 | Sony Corp | 画像処理装置および画像表示方法 |
JP4264660B2 (ja) * | 2006-06-09 | 2009-05-20 | ソニー株式会社 | 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム |
US8031914B2 (en) * | 2006-10-11 | 2011-10-04 | Hewlett-Packard Development Company, L.P. | Face-based image clustering |
US7869631B2 (en) * | 2006-12-11 | 2011-01-11 | Arcsoft, Inc. | Automatic skin color model face detection and mean-shift face tracking |
US7945075B2 (en) * | 2006-12-19 | 2011-05-17 | Seiko Epson Corporation | Converting a digital image from color to gray-scale |
KR100818289B1 (ko) * | 2007-02-02 | 2008-03-31 | 삼성전자주식회사 | 비디오 영상 트레킹 방법 및 장치 |
JP5228716B2 (ja) * | 2007-10-04 | 2013-07-03 | 日産自動車株式会社 | 情報提示システム |
JP4516592B2 (ja) | 2007-12-06 | 2010-08-04 | 本田技研工業株式会社 | 移動型ロボット |
JP4876080B2 (ja) * | 2008-01-25 | 2012-02-15 | 富士重工業株式会社 | 環境認識装置 |
JP4956452B2 (ja) * | 2008-01-25 | 2012-06-20 | 富士重工業株式会社 | 車両用環境認識装置 |
JP5099434B2 (ja) * | 2008-02-28 | 2012-12-19 | 国立大学法人秋田大学 | オブジェクト領域の抽出システムおよび方法 |
JP2009290822A (ja) * | 2008-06-02 | 2009-12-10 | Ricoh Co Ltd | 画像処理装置、画像処理方法、プログラムおよび記録媒体 |
CN101640779B (zh) * | 2008-07-31 | 2011-01-05 | 鸿富锦精密工业(深圳)有限公司 | 影像摄取装置加密系统和方法 |
JP5014307B2 (ja) * | 2008-10-29 | 2012-08-29 | 三菱電機株式会社 | 画像認識システムおよび空気調和機 |
EP2352123A4 (en) * | 2008-11-19 | 2012-10-24 | Sharp Kk | CIRCUIT FOR THE LIMITATION OF A SPECIFIC COLOR RANGE, DETECTION SWITCHING AND IMAGE PROCESSING DEVICE THEREWITH |
JP5214533B2 (ja) * | 2009-05-21 | 2013-06-19 | 富士フイルム株式会社 | 人物追跡方法、人物追跡装置および人物追跡プログラム |
JP5434339B2 (ja) * | 2009-07-29 | 2014-03-05 | ソニー株式会社 | 撮像制御装置、撮像システム、撮像方法、プログラム |
JP5418061B2 (ja) * | 2009-08-20 | 2014-02-19 | 沖電気工業株式会社 | 遠隔コミュニケーション装置、遠隔コミュニケーション方法、および遠隔コミュニケーションシステム |
KR20110026214A (ko) * | 2009-09-07 | 2011-03-15 | 삼성전자주식회사 | 얼굴 검출 장치 및 방법 |
KR101634355B1 (ko) * | 2009-09-18 | 2016-06-28 | 삼성전자주식회사 | 동작 검출 장치 및 방법 |
JP5441669B2 (ja) * | 2009-12-22 | 2014-03-12 | キヤノン株式会社 | 画像処理装置及びその制御方法 |
JP5441670B2 (ja) * | 2009-12-22 | 2014-03-12 | キヤノン株式会社 | 画像処理装置及びその制御方法 |
KR101605168B1 (ko) * | 2010-01-04 | 2016-03-22 | 삼성전자주식회사 | 이미지 처리 장치 및 방법 |
JP5445336B2 (ja) * | 2010-03-31 | 2014-03-19 | サクサ株式会社 | 置き去り又は持ち去り判定装置及び同判定方法 |
JP5623156B2 (ja) * | 2010-06-29 | 2014-11-12 | キヤノン株式会社 | 画像処理装置及びその制御方法 |
EP2410467A1 (en) * | 2010-07-23 | 2012-01-25 | Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO | System and method for identifying image locations showing the same person in different images |
KR101227569B1 (ko) | 2011-05-26 | 2013-01-29 | 한국과학기술연구원 | 골프 스윙 분석을 위한 신체 부위별 위치 추적 장치 및 방법 |
KR101366860B1 (ko) * | 2011-09-20 | 2014-02-21 | 엘지전자 주식회사 | 이동 로봇 및 이의 제어 방법 |
US8897553B2 (en) | 2011-12-13 | 2014-11-25 | The Nielsen Company (Us), Llc | Image comparison using color histograms |
US8897554B2 (en) | 2011-12-13 | 2014-11-25 | The Nielsen Company (Us), Llc | Video comparison using color histograms |
US8750613B2 (en) * | 2011-12-13 | 2014-06-10 | The Nielsen Company (Us), Llc | Detecting objects in images using color histograms |
US9754357B2 (en) | 2012-03-23 | 2017-09-05 | Panasonic Intellectual Property Corporation Of America | Image processing device, stereoscoopic device, integrated circuit, and program for determining depth of object in real space generating histogram from image obtained by filming real space and performing smoothing of histogram |
JP6032921B2 (ja) * | 2012-03-30 | 2016-11-30 | キヤノン株式会社 | 物体検出装置及びその方法、プログラム |
US8855369B2 (en) * | 2012-06-22 | 2014-10-07 | Microsoft Corporation | Self learning face recognition using depth based tracking for database generation and update |
JP6198389B2 (ja) * | 2012-12-19 | 2017-09-20 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びコンピュータプログラム |
JP2014207658A (ja) * | 2013-03-19 | 2014-10-30 | パナソニック株式会社 | 画像処理装置及び撮像装置及び画像処理方法 |
CN104345873A (zh) * | 2013-08-06 | 2015-02-11 | 北大方正集团有限公司 | 用于网络视频会议系统的文件操作方法和装置 |
CN103489107B (zh) * | 2013-08-16 | 2015-11-25 | 北京京东尚科信息技术有限公司 | 一种制作虚拟试衣模特图像的方法和装置 |
CN103714698B (zh) * | 2013-12-26 | 2016-09-21 | 苏州清研微视电子科技有限公司 | 基于距离图像的公交车辆客流量统计系统及方法 |
US9594967B2 (en) * | 2015-03-31 | 2017-03-14 | Google Inc. | Method and apparatus for identifying a person by measuring body part distances of the person |
US10643101B2 (en) * | 2015-07-09 | 2020-05-05 | Texas Instruments Incorporated | Window grouping and tracking for fast object detection |
JP2017054337A (ja) * | 2015-09-10 | 2017-03-16 | ソニー株式会社 | 画像処理装置および方法 |
KR101658579B1 (ko) * | 2016-01-25 | 2016-09-21 | 삼성전자주식회사 | 얼굴 검출 장치 및 방법 |
JP2019114821A (ja) * | 2016-03-23 | 2019-07-11 | 日本電気株式会社 | 監視システム、装置、方法およびプログラム |
CN106250850B (zh) * | 2016-07-29 | 2020-02-21 | 深圳市优必选科技有限公司 | 人脸检测跟踪方法及装置、机器人头部转动控制方法及系统 |
JP2018036937A (ja) * | 2016-09-01 | 2018-03-08 | 住友電気工業株式会社 | 画像処理装置、画像処理システム、画像処理プログラムおよびラベル |
DE102017202702A1 (de) * | 2017-02-20 | 2018-08-23 | Henkel Ag & Co. Kgaa | Verfahren und Einrichtung zum Ermitteln einer Homogenität von Hautfarbe |
JP6683889B2 (ja) * | 2017-03-22 | 2020-04-22 | 株式会社日立国際電気 | 画像検索装置 |
KR102343251B1 (ko) * | 2018-04-13 | 2021-12-27 | 샤넬 파르퓜 보트 | 의도된 사용자를 위한 화장품의 선택 방법 |
JP7195963B2 (ja) * | 2019-02-13 | 2022-12-26 | 株式会社東海理化電機製作所 | 頭部判別装置、コンピュータプログラム、および記憶媒体 |
JP7007324B2 (ja) * | 2019-04-25 | 2022-01-24 | ファナック株式会社 | 画像処理装置、画像処理方法、及びロボットシステム |
CN111950491B (zh) * | 2020-08-19 | 2024-04-02 | 成都飞英思特科技有限公司 | 一种人员密度的监控方法、装置及计算机可读存储介质 |
CN113284106B (zh) * | 2021-05-25 | 2023-06-06 | 浙江商汤科技开发有限公司 | 距离检测方法及装置 |
WO2024019706A1 (en) * | 2022-07-19 | 2024-01-25 | Hewlett-Packard Development Company, L.P. | Inspection of objects |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0661098B2 (ja) * | 1986-01-13 | 1994-08-10 | 工業技術院長 | ステレオ視覚装置 |
JPH0281590A (ja) | 1988-09-19 | 1990-03-22 | Toshiba Corp | 動画像符号化方式 |
US5659625A (en) * | 1992-06-04 | 1997-08-19 | Marquardt; Stephen R. | Method and apparatus for analyzing facial configurations and components |
JP3025133B2 (ja) | 1993-08-27 | 2000-03-27 | シャープ株式会社 | 人物認識装置 |
JP3461626B2 (ja) | 1995-07-28 | 2003-10-27 | シャープ株式会社 | 特定画像領域抽出方法及び特定画像領域抽出装置 |
JPH0995194A (ja) * | 1995-09-29 | 1997-04-08 | Aisin Seiki Co Ltd | 車両前方の物体検出装置 |
US6381346B1 (en) * | 1997-12-01 | 2002-04-30 | Wheeling Jesuit University | Three-dimensional face identification system |
AUPP400998A0 (en) * | 1998-06-10 | 1998-07-02 | Canon Kabushiki Kaisha | Face detection in digital images |
DE19926559A1 (de) * | 1999-06-11 | 2000-12-21 | Daimler Chrysler Ag | Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung |
JP2001101415A (ja) * | 1999-09-29 | 2001-04-13 | Fujitsu Ten Ltd | 画像認識装置および画像処理装置 |
US6674877B1 (en) * | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
US6940545B1 (en) * | 2000-02-28 | 2005-09-06 | Eastman Kodak Company | Face detecting camera and method |
JP4409072B2 (ja) * | 2000-09-14 | 2010-02-03 | 本田技研工業株式会社 | 輪郭抽出装置、輪郭抽出方法、及び輪郭抽出プログラムを記録した記録媒体 |
US6920237B2 (en) * | 2000-12-19 | 2005-07-19 | Eastman Kodak Company | Digital image processing method and computer program product for detecting human irises in an image |
US7239726B2 (en) * | 2001-12-12 | 2007-07-03 | Sony Corporation | System and method for effectively extracting facial feature information |
JP2004013768A (ja) | 2002-06-11 | 2004-01-15 | Gen Tec:Kk | 個人識別方法 |
KR100474848B1 (ko) * | 2002-07-19 | 2005-03-10 | 삼성전자주식회사 | 영상시각 정보를 결합하여 실시간으로 복수의 얼굴을검출하고 추적하는 얼굴 검출 및 추적 시스템 및 방법 |
US7251346B2 (en) * | 2002-11-19 | 2007-07-31 | Honda Motor Co., Ltd. | Moving object detection device, moving object detection method, and moving object detection program |
JP3855939B2 (ja) * | 2003-01-31 | 2006-12-13 | ソニー株式会社 | 画像処理装置、画像処理方法及び撮影装置 |
US7280678B2 (en) * | 2003-02-28 | 2007-10-09 | Avago Technologies General Ip Pte Ltd | Apparatus and method for detecting pupils |
JP4153819B2 (ja) | 2003-03-31 | 2008-09-24 | 本田技研工業株式会社 | ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム |
JP4231320B2 (ja) * | 2003-03-31 | 2009-02-25 | 本田技研工業株式会社 | 移動体の検出装置 |
US7508979B2 (en) * | 2003-11-21 | 2009-03-24 | Siemens Corporate Research, Inc. | System and method for detecting an occupant and head pose using stereo detectors |
US7376250B2 (en) * | 2004-01-05 | 2008-05-20 | Honda Motor Co., Ltd. | Apparatus, method and program for moving object detection |
JP4317465B2 (ja) * | 2004-02-13 | 2009-08-19 | 本田技研工業株式会社 | 顔識別装置、顔識別方法及び顔識別プログラム |
-
2004
- 2004-12-14 JP JP2004360772A patent/JP4328286B2/ja not_active Expired - Fee Related
-
2005
- 2005-12-13 US US11/301,117 patent/US7756299B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US7756299B2 (en) | 2010-07-13 |
JP2006171929A (ja) | 2006-06-29 |
US20060126941A1 (en) | 2006-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4328286B2 (ja) | 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム | |
JP4516516B2 (ja) | 人物検出装置、人物検出方法及び人物検出プログラム | |
JP4307496B2 (ja) | 顔部位検出装置及びプログラム | |
KR101390756B1 (ko) | 안면 특징 검출 방법 및 장치 | |
US7747071B2 (en) | Detecting and correcting peteye | |
KR101554403B1 (ko) | 화상 처리 장치, 화상 처리 방법, 및 제어 프로그램이 기록된 기억 매체 | |
US7957566B2 (en) | Eyelid detection apparatus, eyelid detection method and program therefor | |
US7912251B2 (en) | Eyelid detection apparatus and program therefor | |
CN101853286B (zh) | 视频缩略图智能选取方法 | |
CN104778460B (zh) | 一种在复杂背景以及光照下的单目手势识别方法 | |
JP2007097178A (ja) | 顔検出による赤目の除去方法 | |
WO2015070723A1 (zh) | 眼部图像处理方法和装置 | |
CN108846819B (zh) | 激光切割参数获取方法及装置、电子设备、存储介质 | |
JP4235018B2 (ja) | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム | |
JP3952460B2 (ja) | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム | |
JP4272538B2 (ja) | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム | |
JP2005049979A (ja) | 顔検知装置及びインターホン装置 | |
JP5080416B2 (ja) | 入力画像から検出対象物の像を検出する画像処理装置 | |
CN112446836A (zh) | 用于tof深度相机的数据处理方法及其系统 | |
JP4272539B2 (ja) | 移動物体検出装置、移動物体検出方法、および移動物体検出プログラム | |
JP2009258770A (ja) | 画像処理方法、画像処理装置、画像処理プログラム、撮像装置 | |
CN113781330A (zh) | 图像处理方法、装置及电子系统 | |
JP4664805B2 (ja) | 顔端検出装置、顔端検出方法、及び、プログラム | |
JP2006053801A (ja) | 物体検出装置及び物体検出方法 | |
JP2004118718A (ja) | シーン変化点検出方法および装置並びにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090609 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090612 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120619 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4328286 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130619 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130619 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140619 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |