JP2004054960A - 映像視覚情報を結合してリアルタイムで複数の顔を検出して追跡する顔検出・追跡システム及びその方法 - Google Patents

映像視覚情報を結合してリアルタイムで複数の顔を検出して追跡する顔検出・追跡システム及びその方法 Download PDF

Info

Publication number
JP2004054960A
JP2004054960A JP2003276819A JP2003276819A JP2004054960A JP 2004054960 A JP2004054960 A JP 2004054960A JP 2003276819 A JP2003276819 A JP 2003276819A JP 2003276819 A JP2003276819 A JP 2003276819A JP 2004054960 A JP2004054960 A JP 2004054960A
Authority
JP
Japan
Prior art keywords
face
area
probability map
background
skin color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003276819A
Other languages
English (en)
Other versions
JP4216668B2 (ja
Inventor
Tae Kyun Kim
金 泰 均
Jong-Ha Lee
李 宗 河
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2004054960A publication Critical patent/JP2004054960A/ja
Application granted granted Critical
Publication of JP4216668B2 publication Critical patent/JP4216668B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition

Abstract

【課題】 入力映像から複数の顔をリアルタイムで検出して追跡できるシステム及びその方法を提供する。
【解決手段】 入力映像から背景映像を除去して動きのある領域を抽出する背景除去部、顔皮膚色モデルから生成された皮膚色確率マップPskin及び全域的確率マップPglobalを利用し、動く領域から顔が位置しうる候補領域を抽出する候補領域抽出部、候補領域からICA特徴を抽出し、学習されたSVM分類器を用いて候補領域が顔領域であるか否かを判断する顔領域判断部及び皮膚色確率マップに基づき、次のフレームで顔の位置する確率を示す方向指向性カーネルにより顔領域を追跡する顔領域追跡部を含むシステム。
【選択図】   図2

Description

 本発明は顔検出・追跡システム及びその方法に係り、具体的にリアルタイムで複数の顔を検出して追跡する顔検出・追跡システム及びその方法に関する。リアルタイムで複数顔を検出する方法とは、デジタルカラー動映像を入力とし、映像に現れた全ての顔の映像座標と大きさとをリアルタイムで出力する方法を言う。
 既存の監視システムの自動性及び監視性能を向上させるために、リアルタイム複数顔検出アルゴリズムを適用したデジタル監視システムについての必要性が高まっている。特に、映像に現れた全ての人種の多様な姿勢と大きさの顔を検出でき、一般的に劣悪な照明の監視環境下でも強靭に動作するアルゴリズムが必要である。
 一方、監視システムを始めとし、顔検出アルゴリズムの効果的な応用のためには、多様な環境で多様な姿の顔を信頼性をもって検出することが何より重要である。従来の顔を検出する方法のうち、サーチ窓を映像の全ての座標でスケールを変えて行き、あらかじめ学習されたネットワーク(あるいはクラシファイア)を介して現在サーチ窓に顔が含まれているか否かを判断する方法が最も信頼性ある検出結果を提供すると知られている。また、監視システムで利用される一般的な映像に現れた顔はそのサイズが小さいが、サーチ窓に基づいた方法はこのような小サイズの顔検出が可能である長所がある。学習クラシファイアとしては、ニューラルネットワークはSVM(Support Vector Machine)が顔検出及び認識に広く適用されている。
 しかし、このような既存の方法は演算量及び演算の複雑度がかなり高くて現在一般的なパソコンの計算能力では顔検出をリアルタイムで適用することは不可能である。
 最近では顔検出の高信頼度とリアルタイム具現とを同時に満足させるために、ビデオから多様な情報を結合する方法が多く研究されている。このような研究として、ステレオカメラから得られる映像との距離情報と皮膚色情報とを結合し、顔の候補領域をまず探し、ニューラルネットワークに基づいたクラシファイアを適用する方法がある。しかし、この方法はステレオカメラを使用しなければならないというハードウェア的制限があり、ニューラルネットワークに基づいたクラシファイアは学習したデータベースの映像にだけよく動作して一般性が落ちる問題がある。
 他の方法として、皮膚色カラーと顔パターン情報とを同時に使用する方法があるが、この方法は動き情報は活用せず、皮膚色カラーもまた照明変化に敏感な問題がある。
 また、SVMに基づいた顔検出器の正確性を高めるために、入力される映像をそのまま使用せず、独立要素分析法(ICA:Independent Component Analysis)により特徴ベクトルを映像から抽出し、それをSVMに印加して顔を判別する方法が提案された。しかし、この方法は映像パターンを使用して信頼性は保証されるが、映像パターンを画素単位に移動しつつパターンを比較して検索を行う方法を使用するために演算に長時間がかかるので、リアルタイム具現が必要である問題がある。
 本発明の目的は、映像に現れた映像の動き、皮膚色、人の姿勢、顔の目、鼻、口のパターンの多様な情報を効果的に結合して全ての人種の、多様な姿勢と大きさの顔についてリアルタイムで検出及び追跡を行え、一般的に劣悪な照明の監視環境下でも強靭に動作する顔検出・追跡システム及びその方法を提供するところにある。
 前述の目的を達成するために、本発明のシステムは入力映像とあらかじめ保存された背景映像間の明るさ差を利用して背景ではない領域を求め、背景ではない領域の各中心からカラー差がある領域を抽出することにより入力映像から背景映像を除去して動きのある領域を抽出する背景除去部と、顔皮膚色モデルから生成された皮膚色確率マップPskinを利用し、動きのある領域から顔が位置しうる候補領域を抽出する候補領域抽出部と、候補領域からICA特徴を抽出し、学習顔映像にICAを行って得られた特徴と顔ではない映像にICAを行って得られた特徴とを学習したSVMに候補領域のICA特徴を印加し、候補領域が顔領域であるか否かを判断する顔領域判断部と、皮膚色確率マップに基づき、次のフレームで顔の位置する確率を示す方向指向性カーネルにより顔領域を追跡する顔領域追跡部とを含む。
 前記システムの候補領域抽出部は顔皮膚色モデルを利用して動きのある領域について皮膚色確率マップPskinを生成する皮膚色確率マップ生成部と、動きのある領域の複数の最上位点を抽出し、複数の最上位点から下側に所定距離に中心座標を設定し、中心座標から所定範囲内の任意の位置に顔の位置する確率を計算する全域的確率マップ生成部と、皮膚色確率マップと全域的確率マップPglobalとを乗算し、顔の位置する多重スケール確率マップを生成し、生成された多重スケール確率マップの確率値が所定の臨界値以上である領域を顔の位置する候補領域として抽出する多重スケール確率マップ生成部とを含むことが望ましい。
 また、前述の目的を達成するために、本発明の方法は入力映像とあらかじめ保存された背景映像間の明るさ差を利用して背景ではない領域を求め、明るさ差の大きい各中心からカラー差がある領域を抽出することにより入力映像から背景映像を除去して動きのある領域を抽出する段階と、顔皮膚色モデルから生成された皮膚色確率マップPskinを利用し、動きのある領域から顔が位置しうる候補領域を抽出する段階と、前記候補領域からICA特徴を抽出し、学習顔映像にICAを行って得られた特徴と顔ではない映像にICAを行って得られた特徴とを学習したSVMに前記候補領域のICA特徴を印加し、前記候補領域が顔領域であるか否かを判断する段階と、前記皮膚色確率マップに基づき、次のフレームで顔の位置する確率を示す方向指向性カーネルにより顔領域を追跡する段階とを含む。
 前記方法の候補領域を抽出する段階は顔皮膚色モデルを利用して動きのある領域について皮膚色確率マップPskinを生成する段階と、動きのある領域の複数の最上位点を抽出し、複数の最上位点から所定距離に中心座標を設定し、中心座標から任意の距離に顔の位置する確率を計算して全域的確率マップPglobalを生成する段階と、皮膚色確率マップと全域的確率マップとを乗算し、顔の位置する多重スケール確率マップを生成し、生成された多重スケール確率マップの確率値が所定の臨界値以上である領域を顔の位置する候補領域として抽出する段階とを含むことが望ましい。
 本発明によれば、入力される映像から動きとカラーの多様な情報を結合して顔が位置しうる候補領域をリアルタイムで速く抽出できる。
 特に、抽出された動きのある領域のうち皮膚色と似ていて相対的に上に示される領域に確率を高く与えて顔が存在する候補領域を捜し出し、抽出された候補領域についてICA特徴ベクトルを生成し、特徴ベクトルを学習されたSVMに印加し、現在領域に顔の存在いかんを判断することにより、より信頼性ある顔検出が可能である。
 また、検出された顔について皮膚色カラーと方向指向性カーネルとを使用して追跡を行うことにより、連続されたビデオシーケンスが印加される時、次のフレームで検出する顔候補領域を容易に探せる。
 併せて、顔候補領域を探すために使われる皮膚色モデルは顔追跡結果から継続的に更新されることにより、照明変化に対応できる。
 以下、添付された図面を参照して本発明の望ましい実施例を説明する。
 図1は本発明の望ましい実施例によるシステムの構成を図示するブロック図である。
 本発明のシステムは入力映像から背景映像を除去して動きのある領域を抽出する背景除去部10、顔皮膚色モデル80を利用して動きのある領域について皮膚色確率マップPskinを生成する皮膚色確率マップ生成部20、動きのある領域の複数の最上位点を抽出し、複数の最上位点から所定距離に中心座標を設定し、中心座標から距離による位置に顔の位置する確率を計算する全域的確率マップ生成部30、皮膚色確率マップと全域的確率マップPglobalとを乗算し、顔の位置する多重スケール確率マップを生成し、生成された多重スケール確率マップの確率値が所定の臨界値以上である領域を顔の位置する候補領域として抽出する多重スケール確率マップ生成部40、抽出された顔の候補領域についてICAを行って特徴を抽出するICA特徴抽出部50、学習顔映像にICAを行って得られた特徴と顔ではない映像にICAを行って得られた特徴とを顔検出モデル90から学習したSVMに、前記候補領域のICA特徴を印加し、候補領域が顔であるか否かを判断する顔判断部60及び皮膚色確率マップに基づき、次のフレームで顔が位置する確率を示す方向指向性カーネルにより顔領域を追跡する顔領域追跡部70を含む。
 図2をさらに参照して本発明の動作過程を説明する。
 入力映像が本発明のシステムの背景除去部10に入力されれば、背景除去部10は入力映像からあらかじめ保存された背景映像(参照映像)の差を利用し、背景ではない動く物体を感知し、入力映像から背景映像を除外した領域を出力する(S200)。
 従来には2映像間に画素明るさの差が固定された臨界値以上ならば、その画素を背景ではない動きのある領域と定義する方式で、全ての映像画素を調べることにより、現在映像の動きのある領域を検出した。しかし、この方法は現在動く物体が背景と同じ明るさを有するか、漸進的な照明変化により、あらかじめ保存した背景映像の明るさが変わる時、強靭に背景を除去できない問題がある。また、明るさ差だけを利用して求められた背景ではない領域はノイズに強い特性があるが、実際背景ではない領域も背景と誤認識される確率が高い。
 従って、本発明の背景除去部10は映像間の明るさ差だけではなくカラー差も同時に使用し、漸進的に背景映像を自動更新することにより環境変化に強靭に背景映像を除去できる。
 本発明の望ましい実施例により背景映像を除去する過程を例示する図3を参照すれば、背景除去部10は図3(a)に示された入力映像についてまず明るさ差を利用して図3(b)の背景ではない領域を感知する。明るさ差により感知された背景ではない領域はいくつかの領域に分離されるが、図3(b)は大きく2領域に分離された例を図示した。
 一方、入力映像について各画素のR、G、B成分それぞれの差を計算した後、これを合算することによりカラー差を計算し、カラー差が現れる領域を探すことによりカラー差による背景映像を分離した映像を図3(c)のように得る。
 その後、図3(b)で分離されたそれぞれの領域の中心をシードとし、前記シードを含む図3(c)の領域を背景ではない領域と決定することにより、ノイズに強靭に入力映像から背景映像を除去して現在動いている領域を抽出できる。
 一方、背景除去部10は入力映像から背景映像が決定されば、決定された背景映像で既存に保存された背景映像を更新する。
 新しい背景映像R’(x,y)は既存背景映像R(x,y)と、現在映像との差により得られる二進化映像B(x,y)との組み合わせで得られ、新しい背景映像の各画素値は次の(1)式により計算される。
 この時、更新定数βを適切に選択して背景映像を更新することにより適切に照明変化に対処でき、更新定数βは0ないし1範囲の値であり、望ましくは0.2ないし0.3範囲の値が選択される。
 入力映像から背景映像が除去された映像、すなわち背景ではない映像及び動く映像は皮膚色確率マップ生成部20及び全域的確率マップ生成部30に入力され、多重スケール確率マップ生成部40は皮膚色確率マップ生成部20で生成された皮膚色確率マップと全域的確率マップ生成部30で生成された全域的確率マップとを乗算してマルチスケール確率マップPtotalを生成することにより顔が位置しうる候補領域を抽出する(S210)。
 本発明の望ましい実施例による皮膚色確率マップ及び全域的確率マップを例示する図4を参照して第S210段階を具体的に述べれば、背景除去部10から出力された背景が除去された映像は皮膚色確率マップ生成部20に入力される。皮膚色確率マップ生成部20は顔皮膚色モデル80により、入力された映像について各画素が皮膚色である確率を示す皮膚色確率マップPskinを生成する(S212)。
 皮膚色確率マップ生成部20は顔皮膚色モデル80により、入力された映像の各画素のR、G、Bカラーを色相(Hue)と彩度(Saturation)とに変換し、あらかじめ多様な皮膚色で学習された2次元ガウスモデルから、各画素カラーが皮膚色を示す確率を付与する。各画素が皮膚色を示す最終確率は探そうとする顔大きさ領域内の画素の平均確率として与えられ、次の(2)式により計算される。
 ここで、Pskin(x,y,n)は顔の大きさがnである時、(x,y)座標の画素が顔皮膚色である確率を示し、Hue(i,j)及びSat(i,j)は(i,j)座標での色相及び彩度をそれぞれ示し、
及びΣは皮膚色モデルガウス分布の平均及び分散をそれぞれ示す。
 図4に示されたように、本発明のシステムに入力された映像が図4(a)のような時、皮膚色確率マップは図4(b)のように生成される。図4(b)にて実線で表示された領域は背景除去部10から出力された背景ではない領域を示し、その内部の白色で示された部分は皮膚色である確率が高い部分であることを意味する。
 皮膚色2次元ガウスモデル、すなわち皮膚色の色相と彩度の平均と分散値は最終的に顔検出が成功すれば、検出された顔領域のカラーから更新され、本発明のシステムは照明変化に強靭に対応できる。
 一方、背景除去部10から出力された背景が除去された映像は全域的確率マップ生成部30にも入力され、入力された背景ではない映像のうち顔の位置する確率が高い領域を示す全域的確率マップPglobalが生成される(S214)。
 一般的な監視環境にて人々は立っている姿勢で映像に捉えられるために、候補領域で顔は上側に存在する確率が高い。この事実を反映して背景が除去された映像のうち上位部分に顔が検出される確率を高く付与することによりさらに正確で速い顔検出が可能である。
 図4(c)を参照して全域的確率マップ生成過程を説明すれば、まず実線で表示された背景が除去された映像にて×で表示された最上位点Mijを探す。
 最上位点Mijから全域的確率をガウス混合でモデリングするが、全域的確率マップは次の(3)式により生成される。
 ここで、nは検出される顔領域の大きさを、(x,y)は映像の座標を、iは最上位点の数を、
は顔が存在する候補領域の中心座標を、Σは分散マトリックスを、m(mix,miy)は最上位点に含まれる座標を、
はmにおける法線ベクトルをそれぞれ示し、これらは、以下の(4)式及び(5)式で表現される。
 一方、顔が存在する候補領域の中心座標
は、まず最上位点で背景除去部10から検出された背景領域の境界に直交する法線ベクトルを求めた後、法線ベクトルの方向に顔の長さのnだけの距離に該当する座標を示す。
 生成された皮膚色確率マップと全域的確率マップとは多重スケール確率マップ生成部40に出力される。
 多重スケール確率マップ生成部40は皮膚色確率マップと全域的確率マップとを乗算して次の(6)式で表現される多重スケール確率マップPtotalを生成し、
生成された確率マップの確率値が所定値以上である領域を顔の位置する候補領域として抽出して出力する。この時、所定値はしきい値と決まり、これは前記(6)式のPtotalの値が0.1以上になる値に設定される(S216)。
 その後、検出された顔候補領域はICA特徴抽出部50に出力され、ICA特徴抽出部50は入力された顔候補領域からICA特徴(ベクトル)を抽出する(S222)。
 そして、ICA特徴抽出部50の入力映像の顔候補領域について抽出されたICA特徴を顔判断部60に出力し、顔判断部60はICA特徴をSVMに印加して顔検出モデル90により、抽出された顔候補領域が顔であるか否かを判断する(S224)。
 一方、顔判断部60で顔であるか否かの判断に利用されるSVMは事前に正規化された顔映像を学習データベース(DB)として収集し、収集された映像についてICAを行って顔領域を最もよく表現できる基底ベクトルを得る。ICA特徴というのは、現在映像と得られた基底ベクトルとの相関演算を介して得られる係数を意味する。
 すなわち、顔判断部60はこの学習顔映像のICA特徴と顔ではない映像のICA特徴とを利用してSVMを事前に学習させておき、現在抽出されたICA特徴を学習されたSVMに印加して顔であるか否かを判断した後、顔であると判断された領域の映像を顔領域追跡部70に出力する。
 顔であると判断された領域の映像を顔判断部60から受信した顔領域追跡部70は前述の皮膚色確率マップ及び方向指向性カーネルを利用して顔領域を追跡する(S230)。顔領域追跡部70は検出された顔領域の中心位置と大きさとから追跡を始め、次の映像の皮膚色確率マップPskinとカルマンカーネルとを介して連続的に顔の中心位置と大きさ(分散)とを更新する。具体的な更新法は次の通りである。
 図5を参照すれば、g()は図5(a)に示されたような2次元ガウスカーネルであり、顔の中心位置(μ,μ)と分散とは次の(7)式ないし(9)式により計算される。
 しかし、固定されたガウスカーネルg()では速く動く物体を追跡し難いので、動く物体の速度によりカーネルの分散を調整する必要がある。この事項を考慮して動きベクトルの大きさを測定して分散を動きベクトルに比例すべく修正したガウスカーネルが図5(b)に図示されている。
 ただし、図5(b)に示されたカーネルは動きベクトルの方向と動きベクトルの方向でない部分について互いに対称であり、動きベクトルの方向でない領域は、顔領域を追跡する他のカーネルに雑音として作用する恐れがある。従って、本発明の望ましい実施例は相異なるカーネルに最小限の干渉を与えつつ、速く動く物体をも追跡するために方向指向性のあるカーネルを利用して顔領域を追跡する。
 図5(c)を参照して方向指向性カーネルを説明する。
 次のフレームで顔の中心が位置する座標と分散とをそれぞれ(μ,μ)及び(σ,σ)とする。また、
である時、顔の位置する確率を下の(10)式のように表現する。
 方向指向性カーネルは前記顔領域が動く方向ではf(x,y,σ,σ)と、前記顔領域が動く方向と反対方向では
と表現される。このように構成された方向指向性カーネルは図5(c)に示されたように動きベクトル方向に偏向されている。顔領域追跡部70はこの方向指向性カーネルを利用して検出された顔領域を次のフレームでも追跡できる。
 また、顔領域追跡部70は次のフレームで前述の如く顔領域を追跡しつつ、追跡中の顔領域のカラー分布から適応的な顔皮膚色モデル80を更新できる(S240)。更新された皮膚色カラーモデル80は顔候補領域を探すために必要な皮膚色確率マップの生成と追跡とに再使用される。
 前述の方法を試験するために、多様なビデオシーケンスから640*480サイズの停止映像7,000枚を取得してデータベースに保存し、保存された映像について遂行時間が250msであるパソコン(Pentium(R) 1GHz)で複数の顔検出及び追跡を行った。
 前記表に記載された如く、テスト結果、顔候補領域を検出する確率は97.66%、顔パターンを検出する確率は93.42%、最終顔検出率は91.2%に達した。
 顔候補領域でない領域を顔候補領域として検出した回数はカウントされていないが、顔パターンでない領域を顔パターンと認識した回数は7回であることが分かる。
 図6は前述の方法による複数の顔検出例を図示する図面である。
 図7は既存の単純動き量を測定することにより保存する映像量と本発明により保存する映像量との差を示す。既存の監視システムでは監視対象になる人の顔が画面に検出された否かとは関係なく動きのある全ての映像を貯蔵したが、監視システムで関心ある映像は一般的に人の顔が保存された映像であるから、本発明の顔検出・追跡システムでは人の顔が検出された映像だけを保存し、特に顔領域の映像だけを保存することにより、似たような監視効果で貯蔵容量を大きく減らせる。
 図8は検出された顔映像を中心に便利な検索インタフェースの例を示す。既存には長時間監視した後に生じる広大な映像量のために、人の顔を検索するために保存された全ての映像を検索せねばならないので検索する作業が非常にやっかいであるが、本発明によれば人の顔が検出された映像だけを保存し、特に顔領域だけを保存することが可能なので、顔検索が顕著に容易になることが分かる。
 本発明はまたコンピュータで読み込める記録媒体にコンピュータが読み込めるコードとして具現することが可能である。コンピュータが読み込める記録媒体はコンピュータシステムにより読み込まれうるデータが保存される全ての種類の記録装置を含む。コンピュータが読み込める記録媒体の例としてはROM、RAM、CD−ROM、磁気テープ、フロッピー(R)ディスク、光データの貯蔵装置などがあり、またキャリアウエーブ(例えば、インターネットを介した伝送)の形態で具現されるものも含む。また、コンピュータが読み込める記録媒体はネットワークに連結されたコンピュータシステムに分散され、分散方式でコンピュータが読み込めるコードが保存されて実行されうる。
 これまで本発明についてその望ましい実施例を中心に述べた。本発明が属する技術分野にて当業者は本発明が本発明の本質的な特性から外れない範囲で変形された形態で具現できることを理解できるであろう。従って、開示された実施例は限定的な観点でなく説明的な観点から考慮されねばならない。本発明の範囲は前述した説明でなく特許請求の範囲に示されており、それと同等な範囲内にある全ての差異点は本発明に含まれたものと解釈されねばならない。
本発明の望ましい実施例による顔検出・追跡システムの構成を図示するブロック図である。 本発明の望ましい実施例による顔検出・追跡方法を説明するフローチャートである。 本発明の望ましい実施例により背景映像を除去する過程を例示する図面である。 本発明の望ましい実施例による皮膚色確率マップ及び全域的確率マップを例示する図面である。 本発明の望ましい実施例による方向指向性カーネルを例示する図面である。 本発明の望ましい実施例による顔検出例を図示する図面である。 本発明の望ましい実施例による顔検出、追跡例及びそれによる顔映像の貯蔵量の差を図示する図面である。 本発明のシステムにより検出された顔映像を検索する一例を示した図面である。
符号の説明
 10  背景除去部
 20  皮膚色確率マップ生成部
 30  全域的確率マップ生成部
 40  多重スケール確率マップ生成部
 50  ICA特徴抽出部
 60  顔判断部
 70  顔領域追跡部
 80  顔皮膚色モデル
 90  顔検出モデル

Claims (21)

  1.  入力映像からリアルタイムで複数の顔を検出して追跡する顔検出・追跡システムであり、
     入力映像から背景映像を除去して動きのある領域を抽出する背景除去部と、
     顔皮膚色モデルから生成された皮膚色確率マップPskin及び全域的確率マップPglobalを利用し、前記動きのある領域から顔が位置しうる候補領域を抽出する候補領域抽出部と、
     前記候補領域から独立成分分析(ICA)特徴を抽出し、前記候補領域が顔領域であるか否かを判断する顔領域判断部と、
     前記皮膚色確率マップに基づき、次のフレームで顔の位置する確率を示す方向指向性カーネルにより顔領域を追跡する顔領域追跡部と、
    を含むことを特徴とする顔検出・追跡システム。
  2.  前記候補領域抽出部は、
     顔皮膚色モデルを利用して前記動きのある領域について皮膚色確率マップPskinを生成する皮膚色確率マップ生成部と、
     前記動きのある領域の複数の最上位点を抽出し、前記複数の最上位点から所定の距離に中心座標を設定し、前記中心座標から任意の距離内に顔の位置する確率を計算して全域的確率マップPglobalを生成する全域的確率マップ生成部と、
     前記皮膚色確率マップと前記全域的確率マップPglobalとを乗算し、顔の位置する多重スケール確率マップを生成し、生成された多重スケール確率マップの確率値が所定の臨界値以上である領域を顔の位置する候補領域として抽出する多重スケール確率マップ生成部と、
    を含むことを特徴とする請求項1に記載の顔検出・追跡システム。
  3.  前記皮膚色確率マップ生成部は、
     前記動きのある領域の各画素のカラーを色相と彩度とに変換し、あらかじめ多様な皮膚色で学習された2次元ガウスモデルである顔皮膚色モデルに適用し、動きのある領域のカラーが皮膚色である確率を示す皮膚色確率マップを生成することを特徴とする請求項2に記載の顔検出・追跡システム。
  4.  前記動きのある領域の(i,j)座標での色相をHue(i,j)、彩度をSat(i,j)、前記ガウス分布の平均を
    、前記ガウス分布の分散をΣ、検出しようとする顔の大きさをnとする時、前記皮膚色確率マップPskin(x,y,n)は、
    により生成されることを特徴とする請求項3に記載の顔検出・追跡システム。
  5.  前記全域的確率マップ生成部は、
     前記候補領域の中心座標を
    、分散マトリックスをΣ、顔領域の大きさをn、各局所領域iの座標を(x,y)、前記最上位点の集合に含まれる座標をm(mix,miy)、mにおける法線ベクトルを
    とする時、全域的確率マップPglobal(x,y,n)は、
    により生成され、前記
    、Σ、x及びyそれぞれは、
    を満足することを特徴とする請求項2に記載の顔検出・追跡システム。
  6.  前記顔領域判断部は、
     前記抽出された顔の候補領域についてICAを行って特徴を抽出するICA特徴抽出部と、
     学習顔映像にICAを行って得られた特徴と顔ではない映像にICAを行って得られた特徴とを学習したサポートベクターマシン(SVM)に前記候補領域のICA特徴を印加し、前記候補領域が顔であるか否かを判断する顔判断部と、
    を含むことを特徴とする請求項1に記載の顔検出・追跡システム。
  7.  次のフレームで顔の中心が位置する座標と分散とをそれぞれ(μ,μ)及び(σ,σ)とし、
    である時、顔の位置する確率を
    とすると、
     前記方向指向性カーネルは前記顔領域が動く方向ではf(x,y,σ,σ)と、前記顔領域が動く方向と反対方向では
    と表現されることを特徴とする請求項1に記載の顔検出・追跡システム。
  8.  前記背景除去部は、
     前記入力映像とあらかじめ保存された背景映像間の明るさ差を利用した背景ではない第1領域及びカラー差を利用した背景ではない第2領域を求め、前記背景ではない第2領域に含まれる複数の副領域のうち、前記背景ではない第1領域に含まれた各副領域の中心を含む副領域を背景ではない領域として抽出することにより、入力映像から背景映像を除去して動きのある領域を抽出することを特徴とする請求項1に記載の顔検出・追跡システム。
  9.  前記背景除去部は、
     既存の背景映像をR(x,y)、前記入力映像から動きのある領域が除去された二進化された映像をB(x,y)、βを更新定数とする時、
     R’(x,y)=βR(x,y)+(1−β)B(x,y)
    により新しい背景映像R’(x,y)を更新することを特徴とする請求項8に記載の顔検出・追跡システム。
  10.  入力映像からリアルタイムで複数の顔を検出して追跡するシステムであり、
     入力映像とあらかじめ保存された背景映像間の明るさ差を利用した背景ではない第1領域及びカラー差を利用した背景ではない第2領域を求め、前記背景ではない第2領域に含まれる複数の副領域のうち、前記背景ではない第1領域に含まれた各副領域の中心を含む副領域を背景ではない領域として抽出することにより、入力映像から背景映像を除去して動きのある領域を抽出する背景除去部と、
     顔皮膚色モデルを利用して前記動きのある領域について皮膚色確率マップPskinを生成する皮膚色確率マップ生成部と、
     前記動きのある領域の複数の最上位点を抽出し、前記複数の最上位点から所定距離に中心座標を設定し、前記中心座標から所定距離内に顔の位置する確率を計算して全域的確率マップPglobalを生成する全域的確率マップ生成部と、
     前記皮膚色確率マップと前記全域的確率マップPglobalとを乗算し、顔の位置する多重スケール確率マップを生成し、生成された多重スケール確率マップの確率値が所定の臨界値以上である領域を顔の位置する候補領域として抽出する多重スケール確率マップ生成部と、
     前記候補領域からICA特徴を抽出し、学習顔映像にICAを行って得られた特徴と顔ではない映像にICAを行って得られた特徴とを学習したSVMに前記候補領域のICA特徴を印加し、前記候補領域が顔領域であるか否かを判断する顔領域判断部と、
     前記皮膚色確率マップに基づき、次のフレームで顔の位置する確率を示す方向指向性カーネルにより顔領域を追跡する顔領域追跡部と、
    を含むことを特徴とする顔検出・追跡システム。
  11.  入力映像からリアルタイムで複数の顔を検出して追跡する顔検出・追跡方法であり、
     (a)入力された映像から背景映像を除去して動きのある領域を抽出する段階と、
     (b)顔皮膚色モデルから生成された皮膚色確率マップPskin及び全域的確率マップPglobalを利用し、前記動きのある領域から顔が位置しうる候補領域を抽出する段階と、
     (c)抽出された前記候補領域からICA特徴を抽出し、前記候補領域に顔が存在しているか否かを判断する段階と、
     (d)前記皮膚色確率マップに基づき、次のフレームで顔の位置する確率を示す方向指向性カーネルにより顔が存在すると判断された顔領域を追跡する段階と、
    を含むことを特徴とする顔検出・追跡方法。
  12.  前記(b)段階は、
     (b1)顔皮膚色モデルを利用して前記動きのある領域について皮膚色確率マップPskinを生成する段階と、
     (b2)前記動きのある領域の複数の最上位点を抽出し、前記複数の最上位点から所定距離に中心座標を設定し、前記中心座標から所定距離内に顔の位置する確率を計算して全域的確率マップPglobalを生成する段階と、
     (b3)前記皮膚色確率マップと前記全域的確率マップとを乗算し、顔の位置する多重スケール確率マップを生成し、生成された多重スケール確率マップの確率値が所定の臨界値以上である領域を顔の位置する候補領域として抽出する段階と、
    を含むことを特徴とする請求項11に記載の顔検出・追跡方法。
  13.  前記(b1)段階は、
     前記動きのある領域の各画素のカラーを色相と彩度とに変換し、あらかじめ多様な皮膚色で学習された2次元ガウスモデルである顔皮膚色モデルに適用し、動きのある領域のカラーが皮膚色である確率を示す皮膚色確率マップを生成することを特徴とする請求項12に記載の顔検出・追跡方法。
  14.  前記動きのある領域の(i,j)座標での色相をHue(i,j)、彩度をSat(i,j)、前記ガウス分布の平均を
    、前記ガウス分布の分散をΣ、検出しようとする顔の大きさをnとする時、前記皮膚色確率マップPskin(x,y,n)は、
    により生成されることを特徴とする請求項13に記載の顔検出・追跡方法。
  15.  前記(b2)段階は、
     前記候補領域の中心座標を
    、分散マトリックスをΣ、顔領域の大きさをn、各局所領域iの座標を(x,y)、前記最上位点の集合に含まれる座標をm(mix,miy)、mにおける法線ベクトルを
    とする時、全域的確率マップPglobal(x,y,n)は、
    により生成され、前記
    、Σ、x及びyそれぞれは、
    を満足することを特徴とする請求項12に記載の顔検出・追跡方法。
  16.  前記(c)段階は、
     前記抽出された顔の候補領域についてICAを行って特徴を抽出する段階と、
     学習顔映像にICAを行って得られた特徴と顔ではない映像にICAを行って得られた特徴とを学習したSVMに前記候補領域のICA特徴を印加し、前記候補領域が顔であるか否かを判断する段階と、
    を含むことを特徴とする請求項11に記載の顔検出・追跡方法。
  17.  次のフレームで顔の中心が位置する座標と分散とをそれぞれ(μ,μ)及び(σ,σ)とし、
    である時、顔の位置する確率を
    とすると、
     前記方向指向性カーネルは前記顔領域が動く方向ではf(x,y,σ,σ)と、前記顔領域が動く方向と反対方向では
    と表現されることを特徴とする請求項11に記載の顔検出・追跡方法。
  18.  前記(a)段階は、
     前記入力映像とあらかじめ保存された背景映像間の明るさ差を利用した背景ではない第1領域及びカラー差を利用した背景ではない第2領域を求め、前記背景ではない第2領域に含まれる複数の副領域のうち、前記背景ではない第1領域に含まれた各副領域の中心を含む副領域を背景ではない領域として抽出することにより、入力映像から背景映像を除去して動きのある領域を抽出することを特徴とする請求項11に記載の顔検出・追跡方法。
  19.  前記(a)段階は、
     既存の背景映像をR(x,y)、前記入力映像から動きのある領域が除去された二進化された映像をB(x,y)、βを更新定数とする時、
     R’(x,y)=βR(x,y)+(1−β)B(x,y)
    により新しい背景映像R’(x,y)を更新することを特徴とする請求項18に記載の顔検出・追跡方法。
  20.  入力映像の視覚情報を結合してリアルタイムで複数の顔を検出して追跡する方法であり、
     入力映像とあらかじめ保存された背景映像間の明るさ差を利用した背景ではない第1領域及びカラー差を利用した背景ではない第2領域を求め、前記背景ではない第2領域に含まれる複数の副領域のうち、前記背景ではない第1領域に含まれた各副領域の中心を含む副領域を背景ではない領域として抽出することにより、入力映像から背景映像を除去して動きのある領域を抽出する段階と、
     顔皮膚色モデルを利用して前記動きのある領域について皮膚色確率マップPskinを生成する段階と、
     前記動きのある領域の複数の最上位点を抽出し、前記複数の最上位点から所定距離に中心座標を設定し、前記中心座標から所定距離内に顔の位置する確率を計算して全域的確率マップPglobalを生成する段階と、
     前記皮膚色確率マップと前記全域的確率マップとを乗算し、顔の位置する多重スケール確率マップを生成し、生成された多重スケール確率マップの確率値が所定の臨界値以上である領域を顔の位置する候補領域として抽出する段階と、
     前記候補領域からICA特徴を抽出し、学習顔映像にICAを行って得られた特徴と顔ではない映像にICAを行って得られた特徴とを学習したSVMに前記候補領域のICA特徴を印加し、前記候補領域が顔領域であるか否かを判断する段階と、
     前記皮膚色確率マップに基づき、次のフレームで顔の位置する確率を示す方向指向性カーネルにより顔領域を追跡する段階と、
    を含むことを特徴とする顔検出・追跡方法。
  21.  前記請求項11ないし20のうちいずれか1項に記載の方法をコンピュータで実行可能なプログラムコードで記録した記録媒体。
JP2003276819A 2002-07-19 2003-07-18 映像視覚情報を結合してリアルタイムで複数の顔を検出して追跡する顔検出・追跡システム及びその方法 Expired - Fee Related JP4216668B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0042485A KR100474848B1 (ko) 2002-07-19 2002-07-19 영상시각 정보를 결합하여 실시간으로 복수의 얼굴을검출하고 추적하는 얼굴 검출 및 추적 시스템 및 방법

Publications (2)

Publication Number Publication Date
JP2004054960A true JP2004054960A (ja) 2004-02-19
JP4216668B2 JP4216668B2 (ja) 2009-01-28

Family

ID=30768139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003276819A Expired - Fee Related JP4216668B2 (ja) 2002-07-19 2003-07-18 映像視覚情報を結合してリアルタイムで複数の顔を検出して追跡する顔検出・追跡システム及びその方法

Country Status (3)

Country Link
US (1) US7352880B2 (ja)
JP (1) JP4216668B2 (ja)
KR (1) KR100474848B1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100734849B1 (ko) * 2005-11-26 2007-07-03 한국전자통신연구원 얼굴 인식 방법 및 그 장치
JP2007172224A (ja) * 2005-12-21 2007-07-05 Sony Corp 画像処理方法、その装置およびそのプログラム
CN100390811C (zh) * 2005-11-03 2008-05-28 中国科学院自动化研究所 实时的从视频中跟踪多个人脸的方法
US7430333B2 (en) 2004-10-21 2008-09-30 Microsoft Corporation Video image quality
JP2009526292A (ja) * 2006-02-07 2009-07-16 クゥアルコム・インコーポレイテッド モード間の関心領域ビデオオブジェクトセグメンテーション
US8150155B2 (en) 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
US8265349B2 (en) 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
JPWO2013065220A1 (ja) * 2011-11-02 2015-04-02 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像認識装置、画像認識方法、及び集積回路
CN104835182A (zh) * 2015-06-03 2015-08-12 上海建炜信息技术有限公司 摄像机上实现动态目标实时跟踪的方法
CN104866805A (zh) * 2014-02-20 2015-08-26 腾讯科技(深圳)有限公司 人脸实时跟踪的方法和装置
JP5799179B2 (ja) * 2013-03-29 2015-10-21 楽天株式会社 端末装置、端末装置の制御方法、プログラム、及び情報記憶媒体
KR102107055B1 (ko) * 2018-12-26 2020-05-06 건국대학교 산학협력단 기계학습 기반의 스포츠 중계 영상 추천 방법 및 장치
KR102107059B1 (ko) * 2018-12-26 2020-05-06 건국대학교 산학협력단 기계학습 기반의 콘서트 중계 영상 추천 방법 및 장치
KR20200107150A (ko) * 2019-03-06 2020-09-16 고려대학교 산학협력단 자동화된 치과용 임플란트 식별시스템 및 자동화된 임플란트 주변골 소실량 산출시스템
WO2021162305A1 (ko) * 2020-02-15 2021-08-19 김지훈 스포츠 동영상 기반 플랫폼 서비스를 제공하는 서버의 동작 방법
JP2022008806A (ja) * 2019-09-03 2022-01-14 昭雄 野澤 血圧推定システム、血圧推定方法、学習装置、学習方法及びプログラム

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1266948C (zh) * 2001-11-07 2006-07-26 皇家飞利浦电子股份有限公司 用于遮断区检测的遮断检测器和遮断区检测方法
GB2395852B (en) * 2002-11-29 2006-04-19 Sony Uk Ltd Media handling system
US7359529B2 (en) * 2003-03-06 2008-04-15 Samsung Electronics Co., Ltd. Image-detectable monitoring system and method for using the same
US20050063568A1 (en) * 2003-09-24 2005-03-24 Shih-Ching Sun Robust face detection algorithm for real-time video sequence
JP4470434B2 (ja) * 2003-10-06 2010-06-02 富士ゼロックス株式会社 動作識別装置、及び対象物の姿勢識別装置
US8331723B2 (en) 2004-03-25 2012-12-11 Ozluturk Fatih M Method and apparatus to correct digital image blur due to motion of subject or imaging device
US20080174401A1 (en) * 2004-04-14 2008-07-24 L-3 Communications Security And Detection Systems, Inc Surveillance of subject-associated items with identifiers
US7973697B2 (en) * 2004-04-14 2011-07-05 L-3 Communications Security And Detection Systems, Inc. Surveillance systems and methods with subject-related screening
US8350747B2 (en) 2004-04-14 2013-01-08 L-3 Communications Security And Detection Systems, Inc. Surveillance with subject screening
US7205926B2 (en) * 2004-04-14 2007-04-17 Safeview, Inc. Multi-source surveillance system
KR100668303B1 (ko) * 2004-08-04 2007-01-12 삼성전자주식회사 피부색 및 패턴 매칭을 이용한 얼굴 검출 방법
KR100612858B1 (ko) * 2004-08-23 2006-08-14 삼성전자주식회사 로봇을 이용하여 사람을 추적하는 방법 및 장치
US8081214B2 (en) 2004-10-12 2011-12-20 Enforcement Video, Llc Method of and system for mobile surveillance and event recording
JP4328286B2 (ja) * 2004-12-14 2009-09-09 本田技研工業株式会社 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
CN1797420A (zh) * 2004-12-30 2006-07-05 中国科学院自动化研究所 一种基于统计纹理分析的人脸识别方法
GB0502371D0 (en) * 2005-02-04 2005-03-16 British Telecomm Identifying spurious regions in a video frame
US20060182339A1 (en) * 2005-02-17 2006-08-17 Connell Jonathan H Combining multiple cues in a visual object detection system
US20080291278A1 (en) * 2005-04-05 2008-11-27 Objectvideo, Inc. Wide-area site-based video surveillance system
US7583815B2 (en) * 2005-04-05 2009-09-01 Objectvideo Inc. Wide-area site-based video surveillance system
KR101146417B1 (ko) * 2005-05-24 2012-05-17 삼성전자주식회사 무인 감시 로봇에서 중요 얼굴 추적 장치 및 방법
JP4830650B2 (ja) * 2005-07-05 2011-12-07 オムロン株式会社 追跡装置
EP1929768A4 (en) * 2005-08-26 2010-05-05 Idt Corp TRACKING AND INTEGRATION OF REGION OF INTEREST IN A VIDEO CODEC
JP4750520B2 (ja) * 2005-09-21 2011-08-17 富士フイルム株式会社 人物画像補正装置および方法
JP4718952B2 (ja) * 2005-09-27 2011-07-06 富士フイルム株式会社 画像補正方法および画像補正システム
JP4645411B2 (ja) * 2005-10-28 2011-03-09 コニカミノルタホールディングス株式会社 認証システム、登録システム及びプログラム
KR100814793B1 (ko) 2005-12-08 2008-03-19 한국전자통신연구원 특정 클래스 정보를 갖는 선형투영기반 ica를 이용한얼굴인식 방법 및 그 시스템
US7716157B1 (en) * 2006-01-26 2010-05-11 Adobe Systems Incorporated Searching images with extracted objects
US7694885B1 (en) 2006-01-26 2010-04-13 Adobe Systems Incorporated Indicating a tag with visual data
US7636450B1 (en) 2006-01-26 2009-12-22 Adobe Systems Incorporated Displaying detected objects to indicate grouping
US7978936B1 (en) 2006-01-26 2011-07-12 Adobe Systems Incorporated Indicating a correspondence between an image and an object
US7720258B1 (en) 2006-01-26 2010-05-18 Adobe Systems Incorporated Structured comparison of objects from similar images
US7813557B1 (en) 2006-01-26 2010-10-12 Adobe Systems Incorporated Tagging detected objects
US8259995B1 (en) 2006-01-26 2012-09-04 Adobe Systems Incorporated Designating a tag icon
US7813526B1 (en) 2006-01-26 2010-10-12 Adobe Systems Incorporated Normalizing detected objects
US7706577B1 (en) 2006-01-26 2010-04-27 Adobe Systems Incorporated Exporting extracted faces
JP5170961B2 (ja) * 2006-02-01 2013-03-27 ソニー株式会社 画像処理システム、画像処理装置および方法、プログラム、並びに記録媒体
JP4427533B2 (ja) * 2006-09-22 2010-03-10 富士フイルム株式会社 顔画像検出装置およびその制御方法
KR100865973B1 (ko) * 2007-02-08 2008-10-30 (주)올라웍스 동영상에서 특정인을 검색하는 방법, 동영상에서 특정인에대한 저작권 보고서를 생성하는 방법 및 장치
KR100886557B1 (ko) * 2007-05-03 2009-03-02 삼성전자주식회사 적응형 학습에 기반한 얼굴 인식 시스템 및 방법
US8599368B1 (en) 2008-01-29 2013-12-03 Enforcement Video, Llc Laser-based speed determination device for use in a moving vehicle
KR100882139B1 (ko) 2007-09-12 2009-02-06 전자부품연구원 얼굴 검출 방법
KR100827846B1 (ko) 2007-10-18 2008-05-07 (주)올라웍스 동영상에 포함된 특정 인물을 검색하여 원하는 시점부터재생하기 위한 방법 및 시스템
WO2009097449A1 (en) * 2008-01-29 2009-08-06 Enforcement Video, Llc Omnidirectional camera for use in police car event recording
WO2009102477A1 (en) 2008-02-15 2009-08-20 Enforcement Video, Llc System and method for high-resolution storage of images
US8050494B2 (en) * 2008-05-23 2011-11-01 Samsung Electronics Co., Ltd. System and method for human hand motion detection by skin color prediction
US8538142B2 (en) 2008-06-26 2013-09-17 Hewlett-Packard Development Company, L.P. Face-detection processing methods, image processing devices, and articles of manufacture
US8855360B2 (en) * 2008-07-23 2014-10-07 Qualcomm Technologies, Inc. System and method for face tracking
US20100021056A1 (en) * 2008-07-28 2010-01-28 Fujifilm Corporation Skin color model generation device and method, and skin color detection device and method
KR100957716B1 (ko) * 2008-10-07 2010-05-12 한국 한의학 연구원 가변 피부색 모델을 이용한 피부색 영역 검출 방법
KR20100065677A (ko) * 2008-12-08 2010-06-17 한국전자통신연구원 고해상도 영상에서의 효과적인 움직이는 다중 물체 검출 방법 및 시스템
NO329897B1 (no) * 2008-12-19 2011-01-24 Tandberg Telecom As Fremgangsmate for raskere ansiktsdeteksjon
US8325981B2 (en) * 2009-04-21 2012-12-04 Nec Soft, Ltd. Human tracking apparatus, human tracking method, and human tracking processing program
US8224693B2 (en) * 2009-05-14 2012-07-17 Hewlett-Packard Development Company, L.P. Advertisement selection based on key words
KR101366776B1 (ko) 2009-12-07 2014-02-21 세종대학교산학협력단 영상 객체 검출 장치 및 그 방법
JP5625995B2 (ja) * 2010-05-10 2014-11-19 カシオ計算機株式会社 被写体追跡装置、被写体追跡方法及びプログラム
US9183560B2 (en) 2010-05-28 2015-11-10 Daniel H. Abelow Reality alternate
US8600106B1 (en) * 2010-08-31 2013-12-03 Adobe Systems Incorporated Method and apparatus for tracking objects within a video frame sequence
WO2012089900A1 (en) * 2010-12-30 2012-07-05 Nokia Corporation Methods, apparatuses and computer program products for efficiently recognizing faces of images associated with various illumination conditions
US9582707B2 (en) 2011-05-17 2017-02-28 Qualcomm Incorporated Head pose estimation using RGBD camera
US8811726B2 (en) * 2011-06-02 2014-08-19 Kriegman-Belhumeur Vision Technologies, Llc Method and system for localizing parts of an object in an image for computer vision applications
US8761933B2 (en) * 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
CN103077368A (zh) * 2011-10-25 2013-05-01 上海银晨智能识别科技有限公司 人脸图像的嘴部定位方法与装置、嘴形识别方法及系统
US20130136298A1 (en) * 2011-11-29 2013-05-30 General Electric Company System and method for tracking and recognizing people
KR101875891B1 (ko) * 2011-12-08 2018-07-09 에스케이텔레콤 주식회사 다중 검출 방식을 이용한 얼굴 검출 장치 및 방법
KR101270604B1 (ko) * 2012-02-09 2013-06-03 (재)경북차량용임베디드기술연구원 스마트 에어백용 얼굴 검출 방법
US9405962B2 (en) * 2012-08-14 2016-08-02 Samsung Electronics Co., Ltd. Method for on-the-fly learning of facial artifacts for facial emotion recognition
CN102938054B (zh) * 2012-09-06 2015-07-01 北京工业大学 基于视觉注意模型的压缩域敏感图像识别方法
CN103093237B (zh) * 2013-01-15 2015-12-23 中国科学院自动化研究所 一种基于结构化模型的人脸检测方法
US9443132B2 (en) * 2013-02-05 2016-09-13 Children's National Medical Center Device and method for classifying a condition based on image analysis
KR101449744B1 (ko) * 2013-09-06 2014-10-15 한국과학기술원 영역 기반 특징을 이용한 얼굴 검출 장치 및 방법
GB2516512B (en) * 2013-10-23 2015-10-14 Imagination Tech Ltd Face detection
JP6382052B2 (ja) * 2013-12-24 2018-08-29 株式会社リコー 画像処理装置、画像処理システム、画像処理方法、プログラム及び記憶媒体
CN104156947B (zh) * 2014-07-23 2018-03-16 小米科技有限责任公司 图像分割方法、装置及设备
WO2016019709A1 (en) * 2014-08-07 2016-02-11 Huawei Technologies Co., Ltd. A processing device and method for face detection
CN104994055B (zh) * 2015-03-24 2018-10-16 北京大学 对多媒体数据进行全线性无纠错保护传输的方法
CN105825524B (zh) * 2016-03-10 2018-07-24 浙江生辉照明有限公司 目标跟踪方法和装置
US10341605B1 (en) 2016-04-07 2019-07-02 WatchGuard, Inc. Systems and methods for multiple-resolution storage of media streams
US10110851B2 (en) * 2016-05-06 2018-10-23 Avaya Inc. System and method for dynamic light adjustment in video capture
EP3246874B1 (en) 2016-05-16 2018-03-14 Axis AB Method and apparatus for updating a background model used for background subtraction of an image
US10043088B2 (en) * 2016-06-23 2018-08-07 Siemens Healthcare Gmbh Image quality score using a deep generative machine-learning model
WO2018017399A1 (en) * 2016-07-20 2018-01-25 Usens, Inc. Method and system for 3d hand skeleton tracking
CN106570472B (zh) * 2016-11-02 2019-11-05 华为技术有限公司 一种肤色检测方法、装置及终端
KR102036963B1 (ko) * 2017-01-03 2019-11-29 한국과학기술원 Cnn 기반의 와일드 환경에 강인한 얼굴 검출 방법 및 시스템
CN107516312B (zh) * 2017-08-14 2019-11-15 北京工业大学 一种应用浅层神经网络的中医面色自动分类方法
KR101829386B1 (ko) * 2017-08-22 2018-02-14 엘아이지넥스원 주식회사 표적 검출 장치 및 방법
US11669724B2 (en) 2018-05-17 2023-06-06 Raytheon Company Machine learning using informed pseudolabels
US10636218B2 (en) 2018-09-24 2020-04-28 Universal City Studios Llc Augmented reality for an amusement ride
CN109523573A (zh) * 2018-11-23 2019-03-26 上海新世纪机器人有限公司 目标对象的跟踪方法和装置
CN110399805A (zh) * 2019-07-02 2019-11-01 成都信息工程大学 半监督学习优化svm的运动想象脑电信号分类方法
US11068747B2 (en) * 2019-09-27 2021-07-20 Raytheon Company Computer architecture for object detection using point-wise labels
US11676391B2 (en) 2020-04-16 2023-06-13 Raytheon Company Robust correlation of vehicle extents and locations when given noisy detections and limited field-of-view image frames
US11562184B2 (en) 2021-02-22 2023-01-24 Raytheon Company Image-based vehicle classification
CN113723375B (zh) * 2021-11-02 2022-03-04 杭州魔点科技有限公司 一种基于特征抽取的双帧人脸跟踪方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0271380A (ja) * 1988-09-07 1990-03-09 Hitachi Ltd 背景画像更新方法および装置
JPH0863602A (ja) * 1994-08-19 1996-03-08 Fuji Electric Co Ltd 物体追跡装置
JPH11185026A (ja) * 1997-12-22 1999-07-09 Victor Co Of Japan Ltd 顔領域抽出装置
JP2000261650A (ja) * 1999-03-05 2000-09-22 Toshiba Corp 画像処理装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5034986A (en) * 1989-03-01 1991-07-23 Siemens Aktiengesellschaft Method for detecting and tracking moving objects in a digital image sequence having a stationary background
JP3461626B2 (ja) * 1995-07-28 2003-10-27 シャープ株式会社 特定画像領域抽出方法及び特定画像領域抽出装置
US6111517A (en) * 1996-12-30 2000-08-29 Visionics Corporation Continuous video monitoring using face recognition for access control
US6298143B1 (en) * 1997-04-03 2001-10-02 Kabushiki Kaisha Toshiba Moving target detecting system and moving target detecting method
AUPP400998A0 (en) * 1998-06-10 1998-07-02 Canon Kabushiki Kaisha Face detection in digital images
JP2000132688A (ja) * 1998-10-29 2000-05-12 Matsushita Electric Ind Co Ltd 顔パーツ検出方法及びその装置
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
US6700999B1 (en) * 2000-06-30 2004-03-02 Intel Corporation System, method, and apparatus for multiple face tracking
US6920237B2 (en) * 2000-12-19 2005-07-19 Eastman Kodak Company Digital image processing method and computer program product for detecting human irises in an image
KR100456619B1 (ko) * 2001-12-05 2004-11-10 한국전자통신연구원 에스.브이.엠(svm)을 이용한 얼굴 등록/인증 시스템 및방법
KR20030065659A (ko) * 2002-01-30 2003-08-09 삼성전자주식회사 얼굴정보 검출을 이용하여 기지국 또는 단말기에서의보안을 제공하기 위한 장치 및 그 방법
KR20030073879A (ko) * 2002-03-13 2003-09-19 주식회사 엘지이아이 실시간 얼굴 검출 및 움직임 추적 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0271380A (ja) * 1988-09-07 1990-03-09 Hitachi Ltd 背景画像更新方法および装置
JPH0863602A (ja) * 1994-08-19 1996-03-08 Fuji Electric Co Ltd 物体追跡装置
JPH11185026A (ja) * 1997-12-22 1999-07-09 Victor Co Of Japan Ltd 顔領域抽出装置
JP2000261650A (ja) * 1999-03-05 2000-09-22 Toshiba Corp 画像処理装置

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7430333B2 (en) 2004-10-21 2008-09-30 Microsoft Corporation Video image quality
US7542600B2 (en) * 2004-10-21 2009-06-02 Microsoft Corporation Video image quality
CN100390811C (zh) * 2005-11-03 2008-05-28 中国科学院自动化研究所 实时的从视频中跟踪多个人脸的方法
US7873189B2 (en) 2005-11-26 2011-01-18 Electronics And Telecommunications Research Institute Face recognition by dividing an image and evaluating a similarity vector with a support vector machine
KR100734849B1 (ko) * 2005-11-26 2007-07-03 한국전자통신연구원 얼굴 인식 방법 및 그 장치
JP2007172224A (ja) * 2005-12-21 2007-07-05 Sony Corp 画像処理方法、その装置およびそのプログラム
US8605945B2 (en) 2006-02-07 2013-12-10 Qualcomm, Incorporated Multi-mode region-of-interest video object segmentation
US8265349B2 (en) 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US8265392B2 (en) 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
JP2009526292A (ja) * 2006-02-07 2009-07-16 クゥアルコム・インコーポレイテッド モード間の関心領域ビデオオブジェクトセグメンテーション
US8150155B2 (en) 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
JPWO2013065220A1 (ja) * 2011-11-02 2015-04-02 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像認識装置、画像認識方法、及び集積回路
JP5799179B2 (ja) * 2013-03-29 2015-10-21 楽天株式会社 端末装置、端末装置の制御方法、プログラム、及び情報記憶媒体
US9646576B2 (en) 2013-03-29 2017-05-09 Rakuten, Inc. Terminal device, control method for terminal device, program, and information storage medium
CN104866805A (zh) * 2014-02-20 2015-08-26 腾讯科技(深圳)有限公司 人脸实时跟踪的方法和装置
CN104835182A (zh) * 2015-06-03 2015-08-12 上海建炜信息技术有限公司 摄像机上实现动态目标实时跟踪的方法
KR102107055B1 (ko) * 2018-12-26 2020-05-06 건국대학교 산학협력단 기계학습 기반의 스포츠 중계 영상 추천 방법 및 장치
KR102107059B1 (ko) * 2018-12-26 2020-05-06 건국대학교 산학협력단 기계학습 기반의 콘서트 중계 영상 추천 방법 및 장치
KR20200107150A (ko) * 2019-03-06 2020-09-16 고려대학교 산학협력단 자동화된 치과용 임플란트 식별시스템 및 자동화된 임플란트 주변골 소실량 산출시스템
KR102183045B1 (ko) 2019-03-06 2020-11-25 고려대학교 산학협력단 자동화된 치과용 임플란트 식별시스템 및 자동화된 임플란트 주변골 소실량 산출시스템
JP2022008806A (ja) * 2019-09-03 2022-01-14 昭雄 野澤 血圧推定システム、血圧推定方法、学習装置、学習方法及びプログラム
WO2021162305A1 (ko) * 2020-02-15 2021-08-19 김지훈 스포츠 동영상 기반 플랫폼 서비스를 제공하는 서버의 동작 방법

Also Published As

Publication number Publication date
JP4216668B2 (ja) 2009-01-28
US20040017930A1 (en) 2004-01-29
KR20040008791A (ko) 2004-01-31
US7352880B2 (en) 2008-04-01
KR100474848B1 (ko) 2005-03-10

Similar Documents

Publication Publication Date Title
JP4216668B2 (ja) 映像視覚情報を結合してリアルタイムで複数の顔を検出して追跡する顔検出・追跡システム及びその方法
US7957560B2 (en) Unusual action detector and abnormal action detecting method
CN107358149B (zh) 一种人体姿态检测方法和装置
US6184926B1 (en) System and method for detecting a human face in uncontrolled environments
US6611613B1 (en) Apparatus and method for detecting speaking person's eyes and face
Wang et al. Adaptive object tracking based on an effective appearance filter
EP1426898B1 (en) Human detection through face detection and motion detection
Subburaman et al. Counting people in the crowd using a generic head detector
KR100668303B1 (ko) 피부색 및 패턴 매칭을 이용한 얼굴 검출 방법
US7003135B2 (en) System and method for rapidly tracking multiple faces
US7376270B2 (en) Detecting human faces and detecting red eyes
EP2737434B1 (en) Gait recognition methods and systems
EP2905724B1 (en) Object detection system and method
US8855363B2 (en) Efficient method for tracking people
JP2017531883A (ja) 画像の主要被写体を抽出する方法とシステム
US20070291984A1 (en) Robust object tracking system
Wei et al. Face detection for image annotation
KR100695136B1 (ko) 영상의 얼굴검출장치 및 방법
JP2006146626A (ja) パターン認識方法および装置
Xu et al. Efficient eye states detection in real-time for drowsy driving monitoring system
Kang et al. Real-time pedestrian detection using support vector machines
Vezhnevets Method for localization of human faces in color-based face detectors and trackers
Arunnehru et al. Difference intensity distance group pattern for recognizing actions in video using support vector machines
Naba et al. Haar-like feature based real-time neuro car detection system
Hbali et al. Object detection based on HOG features: Faces and dual-eyes augmented reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051012

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061026

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081021

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081106

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111114

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111114

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121114

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131114

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees