JPH10320562A - 人間の顔の検出システムおよび検出方法 - Google Patents

人間の顔の検出システムおよび検出方法

Info

Publication number
JPH10320562A
JPH10320562A JP9363370A JP36337097A JPH10320562A JP H10320562 A JPH10320562 A JP H10320562A JP 9363370 A JP9363370 A JP 9363370A JP 36337097 A JP36337097 A JP 36337097A JP H10320562 A JPH10320562 A JP H10320562A
Authority
JP
Japan
Prior art keywords
ellipse
face
foreground
model
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9363370A
Other languages
English (en)
Inventor
Mehdi Khosravi
ホスラヴィ メウディ
Ara Victor Nefian
ヴィクター ネフィアン アラ
Monson Henry Hayes Iii
ヘンリー ヘイズ ザ・サード モンソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NCR International Inc
Original Assignee
NCR International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NCR International Inc filed Critical NCR International Inc
Publication of JPH10320562A publication Critical patent/JPH10320562A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)

Abstract

(57)【要約】 (修正有) 【課題】 人間の顔と眼の検出を含むビデオ画像を処理
するためのシステム。 【解決手段】 画像の前景内の接続された構成要素の領
域を識別するために画像のピクセルを解析するための構
成要素解析手段を含んでいる。楕円適合手段により、識
別された領域内の接続された構成要素に1以上の垂直楕
円を適合するための反復楕円適合アルゴリズムを実行
し、各楕円は可能性のある人間の顔を表している。閉塞
された人間の図形の間を識別するために、複数の可能性
のある境界のモデルが識別された領域内の個々の顔に分
離されて示される。確率計算手段は、識別された領域内
に適合された楕円に基づいて、当該モデルに対する確率
を最大にするために各モデルのパラメータが反復的に調
節され、最も高い確率を有するモデルが選択される。

Description

【発明の詳細な説明】
【0001】本発明は、一般的には実時間での画像解析
に関し、より詳しくは、実時間のビデオ映像内の人間の
顔と眼の検出技術に関するものである。
【0002】最近、ビデオデータからの人間の顔の検出
が一般的な研究の題目となっている。顔の検出の工業上
の用途は、顔の認識、照合、分類、識別のみならず、機
密アクセスやマルチメディアのように多岐にわたる。無
制約の状況において人間の顔を抽出するために、多くの
従来技術においては、照明の変化、ポーズの変化、他の
人による人の閉鎖、および乱雑ないし不均一な背景のよ
うな問題を取扱う困難さを克服するための努力がなされ
ている。
【0003】1つの従来技術の顔の検出技術では、閉鎖
されない人間の正面の顔を位置決めするための実例ベー
スの学習手法が使用されている。この手法では、顔を位
置決めするために、各画像位置において、局部的な画像
およびいくつかの視点ベースの「顔」パターン原形と
「顔でない」パターン原形との間の距離を計測してい
る。他の技術では、「固有の顔」により規定される、
「顔のスペース」への距離が人間の正面の顔を位置決め
し追跡するために使用される。さらに別の従来技術で
は、人間の顔は画像内の各位置における顕著な顔の特徴
を検索することで検出される。最後に、他の技術では、
変形可能なテンプレートをベースとした手法が顔を検出
しまた顔の特徴を抽出するために使用されている。
【0004】ビデオ画像シーケンス内の顔の検出に加え
て、従来技術のシステムにおいては人間の顔の眼を検出
する試みなされている。例えば、Chllepa等によ
る、「Human and Machine Reco
gniton of Faces:A Surve
y」、Proceeding of the IEE
E、vol.83、no.5、pp705−740、1
995年5月には、人間の頭部の眼を検出するための方
法が記載されており、ビデオ画像は頭部の正面の視野を
含んでいる。Stringa、「Eyes Detec
tion for Face Recognitio
n」、Applied Artifical Inte
lligence、vol.7、no.pp.365−
382、1993年10月−12月およびBrunel
lo等の、「Face Recognition:Fe
atures versus Templates」、
IEEETransaction on Patter
n Analysis andMachineInte
lligence、1993年10月のように、正面の
視野のための、幾何学的な計測に基づく眼の検出が広く
研究されている。さらに、Yuilee等の、「Fea
ture Extraction fromFaces
Using Deformable Templat
es」、International Journal
of Computer Vision」、vol.
8、pp.299−311、1992年には、顔の特徴
検出に対する変形可能なテンプレートベースの手法が記
載されている。しかしながら、これらの方法は、プロフ
ィールないし背面を解析する際に重大な問題がある。さ
らに、正面の顔だけを処理するという基礎をなす仮定
は、実際の用途にはあまり有用ではない。
【0005】よって、当業分野においては、迅速であ
り、信頼性が高く、また融通性が高くビデオ画像内の顔
の存在を検出でき、また同様に、眼のような、顔の種々
の特徴を抽出することができるシステムに対する必要性
がある。本発明による、1以上の人間の顔を含む前景を
表すピクセルを含んでなるビデオ画像を処理するための
システムは、画像の前景内の接続された構成要素の領域
を識別するために画像のピクセルを処理する構成要素分
析手段、識別された領域内の接続された構成要素に1以
上の反復楕円適合アルゴリズム(iterative
ellipse fitting algorism)
を実行する楕円適合手段、識別された領域内において1
以上の分離した個々の顔の境界モデルを提供する楕円適
合手段、識別された領域内で適合した楕円に基づいてモ
デルの確率の計算を実行する確率計算手段(403)、
および確率計算を最大化するためにモデルを反復して調
節する手段を含んでなる。
【0006】1.ビデオシステム 図1は一実施の形態における本発明の全体の構造を示し
たものである。本発明のハードウェア構成は、標準的な
オフザシェルフの構成要素から構成される。システム内
の主要な構成要素は1以上のビデオカメラ110、1以
上のフレームブラバー(frame grabber)
120、およびパーソナルコンピュータのような、処理
システム130から構成される。PC130およびビデ
オグラバー120を纏めて「ビデオプロセッサ」140
と称する。ビデオプロセッサ140は、モノクロームあ
るいはカラーである、RS−170、NTSC、CCO
R、PALなどのよな、標準的なビデオ信号フォーマッ
ト115を、カメラ110の1つ以上から受信する。好
ましい実施の形態において、カメラ110は小売営業所
あるいは他の適当な場所内のような、関係のある選択領
域を見るために据付あるいは位置される。
【0007】ビデオ信号115はフレームグラバー12
0に入力される。1つの実施の形態において、フレーム
グラバー120はMatrox社から入手可能なMet
eor Color Grabberである。フレーム
グラバー120はアナログビデオ信号115を、メモリ
135内に記憶され、ビデオプロセッサ140により処
理されるデジタル映像信号に変換するために動作する。
例えば、1つの具体例において、フレームグラバー20
はビデオ信号118を640×480(NTSC)ある
いは768×576(PAL)カラー映像に変換する。
カラー映像は、一般的にはYUVあるいはYIOと称さ
れる3つのカラープレーンから構成される。カラープレ
ーン内の各ピクセルは、多くの用途に十分である、8ビ
ットの解像度である。当然であるが、当業者には自明の
ことであるが、他の種々のデジタル画像フォーマットお
よび解像度を同様に使用することができる。カメラ11
0からのデジタル画像のストリームの表示はメモリ13
5内に逐次記憶され、ビデオ画像の解析が開始される。
本発明の教示による全ての解析は処理システム130に
より実行されるが、他の適当な手段により実行すること
もできる。このような解析を以下により詳細に説明す
る。
【0008】2. 本発明により実行される全体のプロ
セス 本発明の処理システム130により実行されるプロセス
の全体の流れ図を図2に示した。処理システム130に
より実行される最初の全体のステージ201は、メモリ
135内に記憶されている、カメラ110からのビデオ
画像内の1以上の人間の頭部(あるいは等化物)の検出
であり、また第2の全体のステージ202は検出された
人間の頭部に関連したいずれかの眼の検出である。ステ
ージ201−202の出力230は別の処理のために認
識および分類システム(など)にパスされる。
【0009】ステージ201内で実行されるステップは
以下に示した通りである。(頭部検出ステージ201
の)第1のステップ212−213および216は、図
2においてビデオシーケンス211として示された、時
間においてメモリ135内に記憶されたビデオ映像のシ
ーケンスの前景領域内に人々のセグメンテーションであ
る。このようなセグメンテーション、背景モデリング
(ステップ216)、背景減算およびしきい値処理(ス
テップ212)および接続された構成要素の解析(ステ
ップ213)により実行される。図6Aの元の画像(メ
モリ135などに記憶されている)のステップ212お
よび213の結果が、図6Bに示したような、背景画像
からの大きな派生物である接続された領域のセット(小
塊)(つまり、小塊601)であると仮定する。接続さ
れた構成要素601はまた、次いで、影、ノイズおよび
照明の変化による意味のない小塊を取り除くためにステ
ップ213においてフィルタ処理される。
【0010】体が閉鎖された人の頭部を検出するため
に、モデルベースの手法が使用される(ステップ214
−215、217)。この手法において、前景領域内に
1人が存在する場合および前景領域内に2人が存在する
において異なる背景モデル(ステップ217)が使用さ
れる。ステップ214の出力は前景領域モデルのそれぞ
れの与えられた入力の確率である。ステップ215は、
ステップ214において計算された最大の確率を選択す
ることにより前景領域を最も良く表現するモデルを選択
する。ステップ215の出力例を図6Dに示し、ここで
は楕円が発生されている。
【0011】ステップ214−215および217のシ
ステム130により実行される機能を図9A−9Dに例
示した。図9A−9Dのそれぞれは、フレームグラバー
120により生成されるとともにメモリ135内に記憶
された(図1)ビデオ画像を表している。図9Aは一人
の人間901を表している前景領域の一例を表してい
る。一人の人間のモデル(x、x)は入力データに
合致している。図9Bは、2人の人間(x、x、x
)としてモデル化された、同じ前景領域を表してい
る。この場合、2つの破線の楕円911、912が適合
するが頭部913の正しい位置を表していない。前景の
確率は各モデルに対して後述するようにして計算され、
またシステムはこの場合において前景に最も良く記載さ
れた一人の人間に対するモデルを自動的に選択する。
【0012】図9Cおよび9Dは楕円処理された体の2
人の人間902、903の前景領域の例を示した。この
場合、本発明のシステム130はデータを最も良く表現
するために2人の人間のモデル(x、x、x)を
選択する。前景を記述するために単一の人間のモデルが
使用されたとき、人間902、903の頭部のいずれに
も対応していない大きな破線の楕円921が適合され
る。与えられた入力データに対して一人の人間のモデル
である確率が、与えられた入力データが2人の人間であ
る確率よりも低いので、システムは単一の人間のモデル
を選択しない。本発明における次の全体のステージ20
2は、変化するポーズから眼を検出することおよび正面
の視野に対応するこれらの顔の抽出である。Turk等
の、「Face Recognition Using
Eigenfaces」、Proceedings
on International Conferen
ce n Pattern Recognition1
991年、およびBrunelli等の、「Face
Recognition:Featuresversu
s Templates」、IEEE Transac
tionson Pattern Analysis
and Machine Intelligence、
vol.15、no.10、1993年10月、などの
従来技術の文献では、眼を正面の視野から検出する技術
が提案されている。正面の視野の顔の仮定は、実際の用
途には有効でない。
【0013】本発明では、ステップ221−222にお
いて、接続された領域で顔の統計からの大きな偏差を解
析することにより、最も顕著な顔の特徴が検出される。
領域の大きさおよび人体的な計測ベースでのフィルタ処
理で眼および正面の顔を検出している。正面の視野に対
する人体的な計測をベースとして眼の検出をすることは
従来技術でも研究されている(例えば、Brunell
i等の、先の引例を参照)。しかしながら、これらの方
法はプロフィールないし顔の背後の視野の解析において
問題があった。ステップ223において、検出された領
域の大きさをベースとするフィルタ処理は、髪に対応す
る大きな接続された構成要素およびノイズあるいは壁の
影響により発生した大きな接続された領域を取り除くこ
とができる。ステップ224において、残りの構成要素
が、正面の視野に対する人間の眼の人体的な特徴を考慮
してフィルタ処理され、また他のシステムに別の処理の
ために出力230が再度パスされる。本発明における眼
の検出ステージ202を以下にさらに詳細に説明する。
【0014】3. 前景領域のセグメンテーション メモリ135内に記憶されたビデオ画像内における移動
する物体を抽出するために、平均値μおよび分散σでの
ガウス分布、Nb(μ、σ)によりモデル化された各ポ
イントの強度で、背景がテクスチャーとしてモデル化さ
れる。画像内のピクセルは、p(O(x、y)|N
(μ、σ))≦Tの場合には前景として分類され、ま
たp(O(x、y)|N(μ、σ))>Tの場合に背
景として分類される。観測値O(x、y)は位置(x、
y)におけるピクセルの強度を表し、またTは定数であ
る(ステップ212)。「前景」の接続性解析(ステッ
プ213)は接続されたピクセルのセット、つまり隣接
あるいは接触しているピクセルのセットを発生する。ピ
クセルの上記のセットは前景領域を表現している。小さ
な前景領域は影、カメラのノイズおよび照明の変化によ
るものと仮定され、取り除かれる。
【0015】4. 前景領域モデル化システム 前景領域は、頭部を検出するために、ステップ214−
215および217においてさらに詳細に解析される。
画像内に1つの頭部だけが存在した場合、その頭部は接
続された前景領域の各セット内の上側の領域を見出だす
ことにより検出されることが知られている。しかしなが
ら、この技術は画像内の人間が他の人間により閉鎖され
た場合には機能しない。この場合、前景は2人以上の人
間に対応しており、また各頭部に対応する領域を見出だ
すためにはより複雑な手法が必要となる。体が他の体に
閉塞されているが、頭部は閉塞されていない、部分的な
人間の閉鎖の場合には、特別の処理が実行される。
【0016】この場合において頭部の位置を決定するた
めには、各前景内の人間の数が決定されなければならな
い。図3に示したように、ビデオ画像内の人間の数を決
定するために、Nの分離したモデルλ(301)(な
お、iは1からNに等しい)が組み込まれ、各モデルλ
301は接続された前景領域のセット内の人間に対応
する。顔が垂直であり、また閉鎖されていないとの仮定
に基づいて、モデルλに対するモデルパラメータは
(x、x、…x)であり、1は人間の数であり、
(k=1からi)はモデルλ内のiの頭部領域を
分離する垂直な境界の水平な座標である。各前景領域内
の人間の数を決定するために使用される手法は、ステッ
プ215において最大尤度が達成されるモデルλを選
択することである。
【0017】
【0018】ここで、観測O(x、y)は前景領域内の
座標(x、y)におけるピクセルの強度であり、またP
(O(x、y)λ)は1番目のモデル301に対する
尤度関数である。
【0019】図3における確率計算ステップ302は、
各モデル301に対する尤度関数を決定する。ステップ
215において、前景領域内の観測O(x、y)は各モ
デルλに対するP(O(x、y)|λ)を最大化す
る最適なパラメータ(x、x、…x)のセットを
見出だすため、つまり前景領域を「最良に」分割するパ
ラメータ(x0、x1、…x1)を見出だすために使用
される。後で、モデルパラメータ301の各セットに対
するP(O(x、y)|λ)の計算は、xj−1およ
びx、j=1、…、iにより境界付けされた長方形の
各ウインドの内側での十分な頭部検出アルゴリズムを必
要とする。
【0020】楕円により人間の顔の裏付けを近似するこ
とは一般的である。また人間の顔の楕円のアクペクト比
は、多くの場合、画像面内の回転および奥行きの回転に
対して不変であることが決定されている。これに基づ
き、頭部のモデル301はセット(x、y、a、
b)によりパラメータ付けされる。ここで、xおよび
y0は楕円の重心の座標であり、またaとbは楕円の軸
である。セット(x、y、a、b)は、図5を参照
して説明する有効楕円適合プロセスにより決定される。
【0021】5. 前景の尤度関数の計算 人間の顔が垂直であり閉鎖されていないとの仮定に基づ
いて、各前景領域内のここの顔を分離する垂直な境界の
水平座標であるパラメータのセット(x、x、…x
)においてモデルλをパラメータ化するのが適切で
あると見なされる。パラメータのセット(x、x
…x)はP(O(x、y)|λ)を最大化するため
に反復的に計算される。(Rabiner等の、「A
Tutorial on Hidden Markov
Model and Selected Appli
cations in Speech Recogni
tion」、Proceedings of the
IEEE、1989年2月において説明されている)陰
マルコフモデル(Hidden Markov Mod
el;HMM)においては、これは、モデルのパラメー
タが観測されたデータを最も良く表現するために最適化
されるトレーニングフェーズに対応する。尤度関数P
(O(x、y)|λ)を規定するために、頭部検出プ
ロセスのアルゴリズムについての予備的な議論が助けと
なる。本発明において、頭部は、xj−1とX、j=
1、…、iにより境界付けされた各領域内の前景領域の
上側の部分の上部の回りの楕円を適合することによる決
定される。頭部検出の問題は、楕円タイプの変形可能な
テンプレートを表現するパラメータのセット(x、y
、a、b)のセットを見出だすために減じられる(図
4のステップ402)。パラメータxとyは楕円の
重心の座標を表現し、またaとbは楕円の軸を表現す
る。楕円適合アルゴリズムは、図5を参照してより詳し
く説明される。
【0022】各パラメータのセット(x、y、a、
b)に対して、長方形のテンプレート(図10のW)が
パラメータのセット(x、y、αa、αb)により
規定され、xとyは長方形の中心の座標であり、α
a、αbは長方形の幅と長さであり、αは所定の定数で
ある(図10を参照)。xj−1、x、Rout、j
により境界付けされる各領域は、楕円のテンプレートの
外側および長方形のテンプレートの内側のピクセルのセ
ットであり、Rin,jは楕円のテンプレートの内側の
ピクセルのセットである(図10)。領域Rin、jお
よびRout,jは「顔」の領域内の画像および「顔で
ない」領域の画像を部分的に分類している。上記の議論
に基づいて、モデルλに対する尤度関数(P(O
(x、y)|λ)が、「顔」の領域および「顔でな
い」領域内のピクセルの全部の数において、xj−1
(なお、j=1からi)により境界付けされた各領
域において、「顔」として分類された前景のピクセルの
数と「顔でない」と分類された背景のピクセルの数との
比により決定される。これは、以下の等式(2)により
表現される。
【0023】
【0024】
【0025】
【0026】ステップ301−302の目標は、パラメ
ータのセット(x、x、…x)に対する尤度関数
P(O(x、y)|λ)を計算することだけでなく、
P(O(x、y)|λ)を最大化するパラメータのセ
ットを計算することである。モデルλ301に対する
初期のパラメータ(x、x、…x)はデータを均
一に分割するために選択され、つまりx−xj−1
(x−x)/1(ただし、j=1からi)である。
図4に記載したように、パラメータ(x、x、…x
)はP(O(x、y)|λ)を最大化するために反
復的に調節される(ステップ404)。反復は、2つの
連続した反復内の尤度関数の差がしきい値よりも小さい
場合に終了する(ステップ405)。
【0027】一実施の形態において、xは、2人の人
間のモデルにおいて、モデルの推定に対して反復的に調
節されるただ1つのパラメータである。2人の人間のモ
デルに対する尤度の関数の計算は次のステップにおいて
説明する。(ブラケット)内の参照符号は図11に例示
した同様に番号付けされたステップに対応している。 [1101] x0が前景領域の最も左側のポイントの
x座標であり、xがx座標の前景の最も右側のポイン
トのx座標であり、またx=(x+x)/2であ
るように、(x、x、x)の最初の値が決定され
る。 「1102] (x、x)および(x、x)の
各対により境界付けされた2つの垂直なスロット内で楕
円適合プロセス(図3のステップ402)が実行され
る。楕円適合アルゴリズムは図5を参照してより詳しく
説明する。 [1103] 見出だされた楕円に対して、次のパラメ
ータが計算される(図4のステップ403)。
【0028】
【0029】
【0030】[1104] 次の式にしたがってx
値が再度推定される。
【0031】 ただし、μは20付近の定数である。
【0032】[1105] 等式(2)からP(O|λ
)を計算する。パラメータxlの連続した値に対する
差P(O|λ)の際がしきい値より小さい場合、反復
を停止する。(x、x)および(x、x)によ
り境界付けされた各スロットにおいて実行された、楕円
適合アルゴリズムにより与えられた楕円のパラメータは
前景領域内の人間の位置および大きさを決定する。パラ
メータx1の連続的な値に対するP(O|λ)の間の
差が同じしきい値よりも大きい場合、ステップ1102
に行く。
【0033】6. 反復楕円適合アルゴリズム ステップ402において、ビデオ画像内の頭部はx
j−1、x(j=1、…、i)により境界付けされた
領域の内側の前景領域の上部の回りの楕円を反復的に適
合処理することにより検出される。楕円適合アルゴリズ
ムの目的は、以下の楕円のx、y、aパラメータお
よびbパラメータを見出だすことにある。
【0034】 ((x−x)/a)+((y−y)/b)=1 (5)
【0035】ステップ402(図4)において検出され
た小塊の回りの楕円の適合処理のための一般的な従来技
術では、Chellapa等の「Human and
Machine Recognition of Fa
ces:A Survey」、Proceedings
of the IEEE、vol.83、no.5、
第705−740頁、1993年5月に記載された、H
ough変換を使用している。しかしながら、Houg
h変換の手法は計算が複雑であり、また確実なエッジ検
出アルゴリズムが必要であるので、実時間の用途には有
効でない。
【0036】ステップ402(図4)における楕円の適
合のためのより良い代替えは、4次元空間x、y
a、bから1次元空間への楕円パラメータのための検索
を低減する安価な反復的な技術である。楕円のパラメー
タ空間は以下の観測に基づいて低減される。
【0037】・反復k+1における楕円の幅は、現在の
重心位置、y (k)に対応するラインにおける小塊の
最も右側の点および最も左側の点の間の距離に等しい。
つまり、
【0038】 ここで、関数f1は接続された構成要素の解析から得ら
れた各物体の境界により決定される。
【0039】・楕円の重心は人間を表す小塊のいわゆる
「垂直スケルトン」上に位置する。垂直スケルトンは小
塊の各ラインに対する最も左側の点と最も右側の点の間
の中間点を取得して計算される。反復k+1における楕
円の重心のx (k+1)座標は現在の重心位置に対応
するラインy (k)における垂直スケルトン上に位置
決めされる。なお、x (k+1)はy (k)の関数
として一意的に決定される。
【0040】 なお、関数fは垂直な小塊のスケルトンにより決定さ
れる関数である。
【0041】楕円のbパラメータ(長さ)はチンライン
(chin line)を見出だす困難さのために高い
精度で得ることは一般的には非常に困難である。しかし
ながら、だえの幅に対する長さは一般的には、Mのよう
な、定数であると考えられる。よって、等式(6)か
ら、
【0042】 b(k+1)=M・a(k+1)=M・f((y (k)) (8) 等式(5)から、次のようになる。
【0043】 y (k+1)=F(x (k+1)、a(k+1)、b(k+1)) (9)
【0044】等式(6)、(7)、(8)および(9)
から次のようになる。
【0045】 y0(k+1)=G(y (k)) (10)
【0046】これは本発明の反復楕円適合プロセスのア
ルゴリズムを表している。等式(5)は、1つの未知の
で暗黙的な等式に対する楕円パラメータを見出だす
際の4次元の問題が軽減されることを示している。
【0047】この点を留意して、楕円適合プロセスを図
5にさらに詳しく例示した。ステップ503において、
j−1、xにより境界付けされた領域内の前景領域
のエッジおよび垂直スケルトンが抽出される。前景領域
のスケルトンの抽出後、楕円のyパラメータが反復的
に計算される。
【0048】1つの実施の形態において、楕円の重心の
初期のy座標、y (0)は、アルゴリズムに対して頭
部および型から全部の体のシーケンスの全てのタイプに
対して十分実行するために(ステップ504)、垂直ス
ケルトン上の物体の頂上に十分接近して選択される。y
(0)の初期の値は次の式にしたがって選択される。
【0049】 y=y+0.1・(y−y) (11)
【0050】なお、yはスケルトンの最も高い点のy
座標であり、またyはスケルトンの最も低い点のy座
標である。初期の点y (0)を与えることで、楕円パ
ラメータを推定するために次のループで楕円適合アルゴ
リズムが繰り返される。[大括弧]内の参照数字は図1
2に例示した各ステップに引用している。
【0051】[1201] 小塊の左端および右端の間
の距離を計算することによりパラメータ2a(k)を計
算する。
【0052】[1202] y (k)とスケルトンの
最も高い点の間のy距離を計測することによりパラメー
タb(k)を計算する。
【0053】[1203] 誤差e(k)を計算する
(ステップ505において)。
【0054】 e(k)=b(k)−Ma(k) (12)
【0055】要約すれば、以上説明した楕円適合アルゴ
リズムの目標はこの値を最小限とすること、つまり、条
件b=Ma、M=1.4を最良の満足する楕円を見出だ
すことである。
【0056】[1204] 次の等式により与えられた
線形推定値を使用して、新しい値y (k+1)(ステ
ップ506)を計算する。
【0057】 y (k+1)=y (k)+μe(k) (12A)
【0058】[1205] 2つの連続した重心の間の
距離がしきい値より小さい場合、反復を停止する。反復
が停止された場合、x、y、aおよびbは楕円の4
つのパラメータを表す。そうでない場合には、ステップ
1203に行く。
【0059】上記の反復は楕円のタイプの輪郭に対する
楕円パラメータに収斂する。等式(1)に対して、y
(k)に対応する楕円の最も右の点および最も左の点の
間の距離は次のように決定される。
【0060】 a(k)=2a [1−(y (k)−y)/Ma)] (13)
【0061】また、楕円の頂上とy (k)の間の距離
は次のように決定される。
【0062】 b(k)=y+Ma−y (k) (14)
【0063】よって、μ=1に対して、等式(1)は次
のようになる。
【0064】 y (k+1)−y=Ma−Ma[1−(y (k)−y)/Ma)] (15)
【0065】上記の等式から、|y (k)−y|<
Maであるy (k)に対して、次のことが証明され
る。
【0066】 |y (k+1)−y<|y (k)−y (16)
【0067】このことは、等式(10)において規定さ
れた回帰はyに収斂することを示している。
【0068】7. 眼の検出プロセス ステージ201から検出された楕円は、先に説明したよ
うに、潜在的に人間の顔に対するサポートの領域であ
る。これらの領域を検出した後、検出された領域のどれ
が有効な顔に対応するのかを決定するために顔に対する
より精密なモデルが必要とされる。頭部検出ステージ2
01とともに、ステージ202の眼の検出プロセスの使
用により、頭部のモデルの正確さが改善され、また顔の
背後の視野に対応する領域および顔に対応しない他の領
域が取り除かれる。眼の検出の結果はまた、顔のポーズ
を推定し且つ画像のシーケンスの中の最も正面のポーズ
を含む画像を決定するために使用される。この結果は序
で、認識および分類システムにおいて使用される。
【0069】本発明は、領域の大きさおよび幾何学的な
計測のフィルタ処理を両方に基づく眼の検出のアルゴリ
ズムを使用する。幾何学的な計測を楕円の重心の回りの
長方形のウインド(眼の帯域:図10のW眼1001)
の内側の眼を検出するために排他的に使用することは正
面でない顔の解析において問題が生じる。このような場
合には、眼の帯域の内側の髪の領域が、互いに接続され
ておらず且つ眼の領域に大きさと強度が一般的に近い、
小さい髪の領域が発生される。ポーズが変化していると
仮定して、眼の帯域の内側の領域および位置の間の幾何
学的な距離の簡単な検査ではどの領域が眼に対応するの
かを示すことはできない。よって、領域の形状に基づく
より困難な手法が考慮される。しかしながら、本発明に
おいては、ビデオ画像の多数のシーケンスに対して良好
な結果で実行される、眼と髪の領域を区別するための簡
単な方法が実施される。この手法においては、眼の領域
の内側の小さい髪の領域は、顔の上側領域の回りのより
大きなウインドにおける領域の大きさ(図10における
W顔アップ1002)を解析することで取り除かれる。
このウインドの内側では、髪は大きなサイズの領域に対
応している。
【0070】図2のステージ202は、本発明において
使用される、眼の検出手法の各ステップを例示してい
る。ステップ221において、顔の領域の内側のピクセ
ルの強度がしきい値θと比較され、またθより低い強度
のピクセルは顔の領域から抽出される。ステップ222
において、図7Aに示したように、抽出されたピクセル
の接続性の解析により接続されたピクセルのセット(例
えば、ピクセル701)、つまり隣接あるいは接触して
いるピクセルのセットが発生される。これらの接続され
たピクセル701のセットは顔の低い強度の領域を表し
ている。
【0071】ステップ223において、ステップ221
−222から得られたピクセル領域701が領域の大き
さに関してフィルタ処理される。カメラのノイズあるい
は影のためにピクセルの数が小さい領域は取り除かれ
る。大きな領域は一般的には眼を表すことできないが、
その代わり、髪に対応している。このステージにおいて
選択された領域の大きさは間隔[θm、θM]内にあ
り、θmは有効な眼の領域を表すために本システムにお
いて許容されるピクセルの最小の数であり、θMは同じ
く最大の数である。しきい値θm、θMは、頭部の領域
を特徴付ける楕円(ステップ215において反復的に発
生された楕円)の大きさに基づいて決定される。ステッ
プ223の結果は、図7Bに示したような、画像702
である。
【0072】ステップ224において、図7Bの画像内
の残りの構成要素が、眼および楕円の重心内の中央の長
方形のウインド(眼の帯域)の内側の所望の眼の位置と
の間の幾何学的な距離のような人体的な計測に基づいて
フィルタ処理される。眼の領域は、この帯域の内側の各
領域の間の最小および最大の距離を解析することにより
決定される。ステップ224の出力は、図7Cに示した
ような、画像であり、これにより眼703が検出され
る。
【0073】本発明は、カメラ110からの種々の異な
るビデオシーケンスに基づいて実施することができる。
図8A、8Bおよび8Cは、上記の教示に基づいて、本
発明を参考の実験室環境で操作することで得られた結果
を示している。図8A−8Dは、性能を実証するため
に、正面でないポーズ、背景に多数の閉塞する人間がい
る場合、および眼鏡をかけた顔などのような異なる条件
下で発生された4つの異なる状況から構成される。図8
Aにおいて、楕円813により、単一の人間811の顔
812が検出される。この図面において、楕円813は
顔812の回りに正しく適合し、また人間811がその
顔812上に光学的な眼鏡をかけていても眼814が検
出されている。
【0074】図8はビデオシーン内の単一の人間821
の背後の視野を示したものである。この図面において、
楕円823は人間821の頭部の回りで適合されている
が、眼が検出されておらず、本発明の眼検出のステージ
202の確実性が示されている。
【0075】図8Cおよび図8Dは、シーン中に2人の
人間831Aと831Bが存在する2つの状況を示して
いる。両図において、一人の人間831Bの体が他の人
間831Aの体の一部を覆っている。両方の場合、楕円
833Aと833Bは顔832Aと832Bの回りに位
置しており、また眼834Aと834Bが検出されてい
る。図8Dにおいて、後ろの人間831Aの顔832A
は正面でない位置である。同用意、カメラ110からの
距離の違いにより、2つの顔832Aと832Bの大き
さは異なっている。両方の人間831Aと831Bの顔
832Aと832Bは検出されており、顔832Aと8
32Bの大きさおよび位置のようなパラメータにおける
変化に対する本システムの確実性を示している。
【0076】以上、本発明を特定の好ましい実施の形態
に基づいて説明したが、添付の請求の範囲の範囲内にお
いて本発明を変更、改変することを行うことができる。
【図面の簡単な説明】
【図1】本発明のブロックダイヤグラムである。
【図2】本発明の動作の全体を示した流れ図である。
【図3】ビデオ画像内の人間の最可能性のモデルを決定
するためのプロセスを示した流れ図である。
【図4】図3のモデル化プロセスを示した流れ図であ
る。
【図5】ビデオ画像上で検出された人間の頭部の回りの
楕円を適合化するためのプロセスを示した流れ図であ
る。
【図6】本発明により処理されるビデオ画像の例を示し
た図である。
【図7】本発明により処理されるビデオ画像の例を示し
た図である。
【図8】本発明により処理されるビデオ画像の例を示し
た図である。
【図9】本発明により処理されるビデオ画像の例を示し
た図である。
【図10】ビデオ画像内の顔をモデル化するために使用
される基準を示した図である。
【図11】本発明により実行されるプロセスを示した流
れ図である。
【図12】本発明により実行されるプロセスを示した流
れ図である。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 アラ ヴィクター ネフィアン アメリカ合衆国 ジョージア州 30319 アトランタブライアーウッド ロード 1355、エヌ.イー.アパートメント エ ム・7 (72)発明者 モンソン ヘンリー ヘイズ ザ・サード アメリカ合衆国 ジョージア州 30068 マリエッタコングレスコート 1172

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 1以上の人間の顔を含む前景を表すピク
    セルを含んでなるビデオ画像を処理するためのシステム
    において、 画像の前景内の接続された構成要素の領域を識別するた
    めに画像のピクセルを処理する構成要素分析手段(21
    2、213)、 識別された領域内の接続された構成要素に1以上の反復
    楕円適合アルゴリズムを実行する楕円適合手段(50
    3、504、505、506、507)、 識別された領域内において1以上の分離した個々の顔の
    境界モデルを提供する楕円適合手段(301)、 識別された領域内で適合した楕円に基づいてモデルの確
    率の計算を実行する確率計算手段(403)、および確
    率計算を最大化するためにモデルを反復して調節する手
    段(404、405)を含んでなることを特徴とするシ
    ステム。
JP9363370A 1996-11-26 1997-11-26 人間の顔の検出システムおよび検出方法 Pending JPH10320562A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US3181696P 1996-11-26 1996-11-26
US08/859,902 US6184926B1 (en) 1996-11-26 1997-05-21 System and method for detecting a human face in uncontrolled environments
US08/859,902 1997-05-21
US60/031,816 1997-05-21

Publications (1)

Publication Number Publication Date
JPH10320562A true JPH10320562A (ja) 1998-12-04

Family

ID=26707653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9363370A Pending JPH10320562A (ja) 1996-11-26 1997-11-26 人間の顔の検出システムおよび検出方法

Country Status (3)

Country Link
US (1) US6184926B1 (ja)
EP (1) EP0844582A3 (ja)
JP (1) JPH10320562A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222719A (ja) * 1999-12-01 2001-08-17 Matsushita Electric Ind Co Ltd 顔抽出装置及び顔抽出方法並びに顔抽出プログラムの記録媒体
JP2005050016A (ja) * 2003-07-31 2005-02-24 National Aerospace Laboratory Of Japan 形状認識装置及び形状認識方法及び形状認識プログラム
JP4767957B2 (ja) * 2004-09-09 2011-09-07 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド 結合空間強度尤度比検定を使用する体積腫瘍分断
US8842908B2 (en) 2010-12-20 2014-09-23 Samsung Electronics Co., Ltd. Method of separating front view and background and apparatus

Families Citing this family (133)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE47908E1 (en) 1991-12-23 2020-03-17 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
USRE48056E1 (en) 1991-12-23 2020-06-16 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
USRE46310E1 (en) 1991-12-23 2017-02-14 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
EP1058924B1 (en) * 1998-01-26 2012-06-13 Apple Inc. Method and apparatus for integrating manual input
US6400830B1 (en) * 1998-02-06 2002-06-04 Compaq Computer Corporation Technique for tracking objects through a series of images
GB2341231A (en) * 1998-09-05 2000-03-08 Sharp Kk Face detection in an image
US6332139B1 (en) * 1998-11-09 2001-12-18 Mega Chips Corporation Information communication system
US6282317B1 (en) * 1998-12-31 2001-08-28 Eastman Kodak Company Method for automatic determination of main subjects in photographic images
KR100361497B1 (ko) * 1999-01-08 2002-11-18 엘지전자 주식회사 얼굴영역 추출방법
US7038715B1 (en) * 1999-01-19 2006-05-02 Texas Instruments Incorporated Digital still camera with high-quality portrait mode
JP3617373B2 (ja) * 1999-06-03 2005-02-02 オムロン株式会社 ゲート装置
JP2000350123A (ja) * 1999-06-04 2000-12-15 Fuji Photo Film Co Ltd 画像選択装置、カメラ、画像選択方法及び記録媒体
EP1107166A3 (en) * 1999-12-01 2008-08-06 Matsushita Electric Industrial Co., Ltd. Device and method for face image extraction, and recording medium having recorded program for the method
JP2001357404A (ja) * 2000-06-14 2001-12-26 Minolta Co Ltd 画像抽出装置
US7099510B2 (en) * 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
KR100416991B1 (ko) * 2001-01-11 2004-02-05 삼성전자주식회사 가상 배경 표시 기능을 갖는 영상 단말 장치 및 그 구현방법
US7082393B2 (en) * 2001-03-27 2006-07-25 Rast Associates, Llc Head-worn, trimodal device to increase transcription accuracy in a voice recognition system and to process unvocalized speech
US6903782B2 (en) * 2001-03-28 2005-06-07 Koninklijke Philips Electronics N.V. System and method for performing segmentation-based enhancements of a video image
US20020172419A1 (en) * 2001-05-15 2002-11-21 Qian Lin Image enhancement using face detection
JP2003061105A (ja) * 2001-06-07 2003-02-28 Seiko Epson Corp 画像処理方法、画像処理プログラム、画像処理装置およびそれを用いたディジタルスチルカメラ
US7274800B2 (en) * 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
US8898106B2 (en) 2001-08-01 2014-11-25 T-System, Inc. Method for entering, recording, distributing and reporting data
CA2359269A1 (en) * 2001-10-17 2003-04-17 Biodentity Systems Corporation Face imaging system for recordal and automated identity confirmation
US20030095707A1 (en) * 2001-11-19 2003-05-22 Koninklijke Philips Electronics N.V. Computer vision method and system for blob-based analysis using a probabilistic pramework
US7130446B2 (en) 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
US20030113002A1 (en) * 2001-12-18 2003-06-19 Koninklijke Philips Electronics N.V. Identification of people using video and audio eigen features
US7921036B1 (en) 2002-04-30 2011-04-05 Videomining Corporation Method and system for dynamically targeting content based on automatic demographics and behavior analysis
US20030212552A1 (en) * 2002-05-09 2003-11-13 Liang Lu Hong Face recognition procedure useful for audiovisual speech recognition
US7209883B2 (en) * 2002-05-09 2007-04-24 Intel Corporation Factorial hidden markov model for audiovisual speech recognition
US7165029B2 (en) 2002-05-09 2007-01-16 Intel Corporation Coupled hidden Markov model for audiovisual speech recognition
US8064650B2 (en) 2002-07-10 2011-11-22 Hewlett-Packard Development Company, L.P. File management of digital images using the names of people identified in the images
US7843495B2 (en) * 2002-07-10 2010-11-30 Hewlett-Packard Development Company, L.P. Face recognition in a digital imaging system accessing a database of people
US20040012576A1 (en) * 2002-07-16 2004-01-22 Robert Cazier Digital image display method and system
US6996460B1 (en) 2002-10-03 2006-02-07 Advanced Interfaces, Inc. Method and apparatus for providing virtual touch interaction in the drive-thru
US7171043B2 (en) 2002-10-11 2007-01-30 Intel Corporation Image recognition using hidden markov models and coupled hidden markov models
US20040136870A1 (en) * 2002-10-25 2004-07-15 Kochy Thomas E. Automatic analysis apparatus
US7307654B2 (en) * 2002-10-31 2007-12-11 Hewlett-Packard Development Company, L.P. Image capture and viewing system and method for generating a synthesized image
US7283650B1 (en) 2002-11-27 2007-10-16 Video Mining Corporation Method and system for printing of automatically captured facial images augmented with promotional content
US7472063B2 (en) * 2002-12-19 2008-12-30 Intel Corporation Audio-visual feature fusion and support vector machine useful for continuous speech recognition
US7734070B1 (en) 2002-12-31 2010-06-08 Rajeev Sharma Method and system for immersing face images into a video sequence
US7203368B2 (en) * 2003-01-06 2007-04-10 Intel Corporation Embedded bayesian network for pattern recognition
US7711155B1 (en) 2003-04-14 2010-05-04 Videomining Corporation Method and system for enhancing three dimensional face modeling using demographic classification
US7606417B2 (en) * 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US8593542B2 (en) * 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US8494286B2 (en) * 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US8330831B2 (en) * 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US8896725B2 (en) * 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7620218B2 (en) * 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
RU2358319C2 (ru) * 2003-08-29 2009-06-10 Самсунг Электроникс Ко., Лтд. Способ и устройство для фотореалистического трехмерного моделирования лица на основе изображения
JP4569471B2 (ja) * 2003-09-26 2010-10-27 株式会社ニコン 電子画像蓄積方法、電子画像蓄積装置、及び電子画像蓄積システム
US6984039B2 (en) * 2003-12-01 2006-01-10 Eastman Kodak Company Laser projector having silhouette blanking for objects in the output light path
GB2409027A (en) * 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
JP2005242640A (ja) * 2004-02-26 2005-09-08 Fuji Photo Film Co Ltd 対象物検出方法および装置並びにプログラム
US7697026B2 (en) * 2004-03-16 2010-04-13 3Vr Security, Inc. Pipeline architecture for analyzing multiple video streams
US8345918B2 (en) * 2004-04-14 2013-01-01 L-3 Communications Corporation Active subject privacy imaging
US7889381B2 (en) * 2004-05-28 2011-02-15 Fujifilm Corporation Photo service system
KR20070038544A (ko) * 2004-08-04 2007-04-10 쿨레노프 다울렛 전자적 디지털 이미지로 얼굴을 자동인식하는 방법
NO321642B1 (no) * 2004-09-27 2006-06-12 Tandberg Telecom As Fremgangsmate for koding av bildeutsnitt
US8320641B2 (en) * 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7386150B2 (en) * 2004-11-12 2008-06-10 Safeview, Inc. Active subject imaging with body identification
JP4824411B2 (ja) * 2005-01-20 2011-11-30 パナソニック株式会社 顔抽出装置、半導体集積回路
JP2006259924A (ja) * 2005-03-15 2006-09-28 Omron Corp 被写体認証装置、携帯電話、被写体認証ユニット、被写体認証方法、及び被写体認証プログラム
JP4830650B2 (ja) * 2005-07-05 2011-12-07 オムロン株式会社 追跡装置
EP1923835A4 (en) * 2005-08-12 2017-10-25 Sony Interactive Entertainment Inc. Face image display, face image display method, and face image display program
GB2432064B (en) * 2005-10-31 2011-01-19 Hewlett Packard Development Co Method of triggering a detector to detect a moving feature within a video stream
JP4516516B2 (ja) * 2005-12-07 2010-08-04 本田技研工業株式会社 人物検出装置、人物検出方法及び人物検出プログラム
JP3962803B2 (ja) * 2005-12-16 2007-08-22 インターナショナル・ビジネス・マシーンズ・コーポレーション 頭部検出装置、頭部検出方法および頭部検出プログラム
US7692696B2 (en) 2005-12-27 2010-04-06 Fotonation Vision Limited Digital image acquisition system with portrait mode
EP1833002A1 (en) * 2006-03-08 2007-09-12 ID-Development AG Method and apparatus for obtaining biometric image samples or biometric data
US7916897B2 (en) * 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US20080059522A1 (en) * 2006-08-29 2008-03-06 International Business Machines Corporation System and method for automatically creating personal profiles for video characters
US7689011B2 (en) * 2006-09-26 2010-03-30 Hewlett-Packard Development Company, L.P. Extracting features from face regions and auxiliary identification regions of images for person recognition and other applications
US7987111B1 (en) * 2006-10-30 2011-07-26 Videomining Corporation Method and system for characterizing physical retail spaces by determining the demographic composition of people in the physical retail spaces utilizing video image analysis
JP4240108B2 (ja) * 2006-10-31 2009-03-18 ソニー株式会社 画像記憶装置、撮像装置、画像記憶方法およびプログラム
US8315463B2 (en) * 2006-11-14 2012-11-20 Eastman Kodak Company User interface for face recognition
WO2008073449A2 (en) 2006-12-12 2008-06-19 Evans & Sutherland Computer Corporation System and method for aligning rgb light in a single modulator projector
US7855718B2 (en) * 2007-01-03 2010-12-21 Apple Inc. Multi-touch input discrimination
US8269727B2 (en) 2007-01-03 2012-09-18 Apple Inc. Irregular input identification
US8130203B2 (en) 2007-01-03 2012-03-06 Apple Inc. Multi-touch input discrimination
JP4639208B2 (ja) * 2007-03-16 2011-02-23 富士フイルム株式会社 画像選択装置、画像選択方法、撮像装置及びプログラム
US8331674B2 (en) * 2007-04-06 2012-12-11 International Business Machines Corporation Rule-based combination of a hierarchy of classifiers for occlusion detection
TWI351001B (en) * 2007-11-21 2011-10-21 Ind Tech Res Inst Method and apparatus for adaptive object detection
US8682029B2 (en) * 2007-12-14 2014-03-25 Flashfoto, Inc. Rule-based segmentation for objects with frontal view in color images
US8629883B2 (en) * 2008-02-28 2014-01-14 Befun Bilgi Teknologileri A.S. Method and system for generating online cartoon outputs
US9483237B2 (en) 2008-02-28 2016-11-01 Befun Bilgi Teknolojileri A.S. Method and system for providing an image effects interface
US7953255B2 (en) * 2008-05-01 2011-05-31 At&T Intellectual Property I, L.P. Avatars in social interactive television
US8358317B2 (en) 2008-05-23 2013-01-22 Evans & Sutherland Computer Corporation System and method for displaying a planar image on a curved surface
US8702248B1 (en) 2008-06-11 2014-04-22 Evans & Sutherland Computer Corporation Projection method for reducing interpixel gaps on a viewing surface
US8238604B2 (en) * 2008-08-18 2012-08-07 Kabushiki Kaisha Toshiba System and method for validation of face detection in electronic images
US8077378B1 (en) 2008-11-12 2011-12-13 Evans & Sutherland Computer Corporation Calibration system and method for light modulation device
KR101593573B1 (ko) * 2009-06-19 2016-02-12 삼성전자주식회사 단말기의 카메라를 이용한 컨텐츠 제작 방법 및 장치
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US9641826B1 (en) 2011-10-06 2017-05-02 Evans & Sutherland Computer Corporation System and method for displaying distant 3-D stereo on a dome surface
KR101901591B1 (ko) * 2011-11-01 2018-09-28 삼성전자주식회사 얼굴 인식 장치 및 그 제어방법
AU2011253977B2 (en) 2011-12-12 2015-04-09 Canon Kabushiki Kaisha Method, system and apparatus for selecting an image captured on an image capture device
US20130182079A1 (en) * 2012-01-17 2013-07-18 Ocuspec Motion capture using cross-sections of an object
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US9324292B2 (en) * 2012-09-27 2016-04-26 Hewlett-Packard Development Company, L.P. Selecting an interaction scenario based on an object
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US9191707B2 (en) 2012-11-08 2015-11-17 Bank Of America Corporation Automatic display of user-specific financial information based on audio content recognition
US9027048B2 (en) 2012-11-14 2015-05-05 Bank Of America Corporation Automatic deal or promotion offering based on audio cues
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9632658B2 (en) 2013-01-15 2017-04-25 Leap Motion, Inc. Dynamic user interactions for display control and scaling responsiveness of display objects
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9754154B2 (en) * 2013-02-15 2017-09-05 Microsoft Technology Licensing, Llc Identification using depth-based head-detection data
WO2014200589A2 (en) 2013-03-15 2014-12-18 Leap Motion, Inc. Determining positional information for an object in space
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
DE202014103729U1 (de) 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
WO2018017492A1 (en) * 2016-07-16 2018-01-25 Daniel Seidel Interactive projection system
US10297059B2 (en) 2016-12-21 2019-05-21 Motorola Solutions, Inc. Method and image processor for sending a combined image to human versus machine consumers
US11295139B2 (en) 2018-02-19 2022-04-05 Intellivision Technologies Corp. Human presence detection in edge devices
US11615623B2 (en) 2018-02-19 2023-03-28 Nortek Security & Control Llc Object detection in edge devices for barrier operation and parcel delivery
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
US11275819B2 (en) 2018-12-05 2022-03-15 Bank Of America Corporation Generative adversarial network training and feature extraction for biometric authentication

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5150432A (en) * 1990-03-26 1992-09-22 Kabushiki Kaisha Toshiba Apparatus for encoding/decoding video signals to improve quality of a specific region
US5164992A (en) * 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
JP2973676B2 (ja) * 1992-01-23 1999-11-08 松下電器産業株式会社 顔画像特徴点抽出装置
US5689575A (en) * 1993-11-22 1997-11-18 Hitachi, Ltd. Method and apparatus for processing images of facial expressions
US5781650A (en) * 1994-02-18 1998-07-14 University Of Central Florida Automatic feature detection and age classification of human faces in digital images
US5497430A (en) * 1994-11-07 1996-03-05 Physical Optics Corporation Method and apparatus for image recognition using invariant feature signals
JP3452685B2 (ja) * 1995-05-10 2003-09-29 三菱電機株式会社 顔画像の処理装置
JP3735893B2 (ja) * 1995-06-22 2006-01-18 セイコーエプソン株式会社 顔画像処理方法および顔画像処理装置
JP3350296B2 (ja) * 1995-07-28 2002-11-25 三菱電機株式会社 顔画像処理装置
US5901244A (en) * 1996-06-18 1999-05-04 Matsushita Electric Industrial Co., Ltd. Feature extraction system and face image recognition system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222719A (ja) * 1999-12-01 2001-08-17 Matsushita Electric Ind Co Ltd 顔抽出装置及び顔抽出方法並びに顔抽出プログラムの記録媒体
JP2005050016A (ja) * 2003-07-31 2005-02-24 National Aerospace Laboratory Of Japan 形状認識装置及び形状認識方法及び形状認識プログラム
JP4767957B2 (ja) * 2004-09-09 2011-09-07 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド 結合空間強度尤度比検定を使用する体積腫瘍分断
US8842908B2 (en) 2010-12-20 2014-09-23 Samsung Electronics Co., Ltd. Method of separating front view and background and apparatus

Also Published As

Publication number Publication date
EP0844582A3 (en) 1999-05-26
US6184926B1 (en) 2001-02-06
EP0844582A2 (en) 1998-05-27

Similar Documents

Publication Publication Date Title
JPH10320562A (ja) 人間の顔の検出システムおよび検出方法
Jesorsky et al. Robust face detection using the hausdorff distance
Murase et al. Moving object recognition in eigenspace representation: gait analysis and lip reading
US6188777B1 (en) Method and apparatus for personnel detection and tracking
US6690814B1 (en) Image processing apparatus and method
EP2192549B1 (en) Target tracking device and target tracking method
US8620024B2 (en) System and method for dynamic gesture recognition using geometric classification
Liew et al. Lip contour extraction from color images using a deformable model
JP2003030667A (ja) イメージ内で目を自動的に位置決めする方法
Kheirkhah et al. A hybrid face detection approach in color images with complex background
Ibrahim et al. Geometrical-based lip-reading using template probabilistic multi-dimension dynamic time warping
Kervrann et al. Generalized likelihood ratio-based face detection and extraction of mouth features
Gottumukkal et al. Real time face detection from color video stream based on PCA method
Nefian et al. Real-time detection of human faces in uncontrolled environments
JP4061405B2 (ja) 顔画像分類登録装置
Bevilacqua et al. Face detection by means of skin detection
Poursaberi et al. Modified multiscale vesselness filter for facial feature detection
KR101087250B1 (ko) 피부색 영역 검출을 이용한 얼굴 검출 장치
Moghaddam et al. TASOM-based lip tracking using the color and geometry of the face
Lu et al. Head gesture recognition based on bayesian network
Hannuksela Facial feature based head tracking and pose estimation
Abdel-Hafiez et al. INTERNATIONAL JOURNAL OF COMPUTER ENGINEERING & TECHNOLOGY (IJCET)
Dhote et al. Overview and an Approach to Real Time Face Detection and Recognition
Sujatha et al. Novel Pixel-based approach for mouth localization
Khalifa et al. Complex background subtraction for biometric identification