JP2004192646A - 人物検出方法および装置 - Google Patents

人物検出方法および装置 Download PDF

Info

Publication number
JP2004192646A
JP2004192646A JP2003408897A JP2003408897A JP2004192646A JP 2004192646 A JP2004192646 A JP 2004192646A JP 2003408897 A JP2003408897 A JP 2003408897A JP 2003408897 A JP2003408897 A JP 2003408897A JP 2004192646 A JP2004192646 A JP 2004192646A
Authority
JP
Japan
Prior art keywords
face
detection
motion
detected
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003408897A
Other languages
English (en)
Other versions
JP4275516B2 (ja
Inventor
Young-Hoon Sung
映 勳 成
Tae Kyun Kim
泰 均 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2004192646A publication Critical patent/JP2004192646A/ja
Application granted granted Critical
Publication of JP4275516B2 publication Critical patent/JP4275516B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】人物検出方法を提供する。
【解決手段】デジタルビデオカメラによって端末機に接近した物体を撮影して入力した映像から本発明による人物を検出する方法であり、(a)人物検出で使われる変数を初期化する段階と、(b)現在モードが顔検出モードであるかを判断する段階と、(c)現在モードが顔検出モードである場合、入力される映像フレーム毎に顔検出を実行し、顔検出を所定回数試みても顔が検出されなければ、動き検出モードを選択して(b)段階に進行する段階と、(d)現在モードが動き検出モードである場合、所定数の映像フレームを1つの単位で入力して動き検出を実行し、所定時間内に前記動き検出が所定回数以上成功すれば、(a)段階に進行する段階を含む。したがって、監視システムが作動する状態で顔検出モードと動き検出モードとを反復的にまた相互補完的に実行することによって、正確な人物検出と実行速度の高速化および映像記憶効率の向上が実現される。
【選択図】図1

Description

本発明は、人物検出に関し、特にビデオカメラから入力された映像を分析してユーザーを検出するための人物検出方法に関する。
動きを検出する技法として、特許文献1と特許文献2とがある。特許文献1には、監視カメラにおいてフレーム毎にサンプリングして画素の変化を求め、以前のフレームと現在のフレームとの間で画素の変化を比較し、その差を所定の基準値と比較することによって、周辺の明るさと関係なしに動きを検出するカメラの動き検出方法が開示されている。また、特許文献2には、撮像される映像のうち基準映像と差のある映像信号部分がある場合にのみ記録する動き検出による選択的記録装置および方法が開示されている。しかし、この2つの動き検出技法は連続的な2つの映像間の画素値の変化を情報として使用するために、実質的に検出しようとする人の動き以外に照明の変化などノイズのような映像変化によって、連続的な2つの映像間の画素値が変化する場合も動きとして検出される問題点がある。
監視システムに連結された所定サービス機器に対するユーザーの接近を制御する技法として、特許文献3と特許文献4とがある。特許文献3には現金自動預払機の動作に連動されてユーザーの顔の映像を録画するための監視カメラからの顔の形を取得した後、これを分析して事後確認可能な特徴点が存在するかどうかを確認し、前記特定点の存在が確認される場合、ユーザーの注文処理を許容するユーザー識別システムおよびそれを利用した現金自動預払機が開示されている。また、特許文献4には、取引者の画像を前面から撮影した取引者の顔の画像のうち目と口の画像が正確に検出されているかどうかを判断し、正確な目と口とが検出されない画像の場合、例えば、手で顔の一部を隠した場合、顔を傾け過ぎる場合、帽子を押さえ過ぎて顔が見えない場合、マスクまたは覆面をした場合などにおいては現金自動預払機の動作を遮断することによって、金融犯罪を未然に防止できる銀行取引システムの取引者の顔面認識方法が開示されている。しかし、この2つのユーザー接近制御技法は、不法な行為を防止する目的であるが、正常にサングラス、マスク、帽子などを着用した多くの人々にも接近制御を行うため実際の使用において多くの不便があるという問題点がある。
韓国特許公開第2000−50405号公報 韓国特許公開第1997−60927号公報 韓国特許公開第1998−82154号公報 韓国特許公開第2000−61100号公報
本発明が解決しようとする技術的課題は、デジタルカメラを用いた監視システムで、あらゆるユーザーが検出でき、記憶効率を向上させ、照明などのノイズ性の変化に影響を受けず実際の動きを正確に検出し、ユーザーの顔のような情報を正確に検出して記憶できる人物検出方法を提供するところにある。
また、本発明が解決しようとする他の技術的課題は、前記人物検出方法を実行する人物検出装置を提供するところにある。
前記した技術的課題を解決するために、デジタルビデオカメラによって端末機に接近した物体を撮影して入力した映像から本発明による人物を検出する方法は、(a)前記人物検出に使われる変数を初期化する段階と、(b)現在モードが顔検出モードであるかどうかを判断する段階と、(c)現在モードが顔検出モードである場合、入力される映像フレーム毎に顔検出を実行し、顔検出を所定回数試みても顔が検出されなければ、動き検出モードを選択して前記(b)段階に進行する段階と、(d)現在モードが動き検出モードである場合、所定数の映像フレームを1つの単位で入力して動き検出を実行し、所定時間内に前記動きの検出が所定回数以上成功すれば、前記(a)段階に進行する段階と、を含むのが望ましい。
また、本発明において、前記(c)段階は、ガボールウェーブレット変換を使用して顔の候補領域を検出する段階を含むのが望ましい。
また、本発明において、前記(c)段階は、低解像度SVM(Support Vector Machine)および高解像度SVMを使用して顔を検出する段階を含むのが望ましい。
前記した技術的課題を解決するために、デジタルビデオカメラによって撮影して入力された映像から物体の動きを検出する本発明による動き検出方法は、(e1)所定数の映像フレームを入力する段階と、(e2)時間的なエッジ検出アルゴリズムおよび時間に対する画素値の分散値の比較によって前記撮影された映像内の動きを検出する段階と、(e3)動きが検出されたかどうかを判断する段階と、(e4)動きが検出されたと判断されれば、映像を記憶する段階とを含むことを特徴とする。
前記した他の技術的課題を解決するために、デジタルビデオカメラによって撮影して入力した映像から人物を検出する本発明による人物検出装置は、人物検出に使用する変数を初期化する手段と、顔検出モードであるか否か決定する検出モード判断手段と、顔検出モードであれば、入力される映像フレーム毎に顔検出を実行し、顔検出を所定回数試みても顔が検出されなければ、動き検出モードを選択する顔検出手段と、顔検出モードでなければ、所定数の映像フレームを1つの単位で入力して動き検出を実行し、所定時間内に前記動き検出が所定回数以上成功すれば、変数を初期化する動き検出手段と、を含むのが望ましい。
前記した他の技術的課題を解決するために、デジタルビデオカメラによって撮影して入力した映像から物体の動きを検出する本発明による動き検出装置は、所定数の映像フレームを入力する手段と、時間的なエッジ検出アルゴリズムおよび時間に対する画素値の分散値の比較によって前記撮影された映像内の動きを検出する手段と、動きが検出されたのかどうかを判断する手段と、動きが検出されたと判断されれば、映像を記憶する手段と、を含むのが望ましい。
本発明による人物検出方法および人物検出装置によれば、監視システムが作動する状態で、顔検出モードと動き検出モードとを繰り返し、また、相互補完的に実行することによって、正確な人物検出と実行速度の高速化および映像記憶効率の向上効果が得られる。また、照明や環境の変化のようなノイズに影響されることなく、実際の動きが正確に検出される。
以下、本発明による人物検出方法および動き検出方法の構成および動作について、図面を参照して以下に詳細に説明する。
本発明は端末機に接近した物体をデジタルビデオカメラによって撮影して入力された映像から人物を検出する人物検出方法に係り、最も望ましくは、映像内に含まれた人物の顔を検出することが目的であり、顔を正確に検出できなくても映像内の人物の動きと人物の姿とを検出することが目的である。このために、本発明は、顔検出と動き検出とを共に具備してこれらを相互補完的に実行することによって、端末機に接近した物体を撮影して入力された映像から人物を正確かつ効率的に検出する技法を提案する。また、映像を記憶するにおいて、顔が検出されるか動きが検出された場合にのみ映像を記憶することによって記憶効率を大幅向上させる。
図1は、本発明によるデジタルビデオカメラの人物検出方法の望ましい一実施形態を説明するためのフローチャートであって、変数初期化段階(S10段階)、検出モード判断段階(S20段階)、顔検出段階(S30段階)および動き検出段階(S40段階)を含む。
これをより詳細に説明すれば、まず、人物検出方法の実行のための変数を初期化する(S10段階)。本発明の望ましい実施形態で使用する変数には検出モードDETECT_MODE、顔検出試み回数COUNT_FD、動き検出試み回数COUNT_MDおよび動き検出成功回数SUCCESS_MDなどがある。ここで、FDは顔検出(face detection)を意味し、MDは動き検出(motion detection)を意味する。S10段階では、あらゆる変数を、例えば"0"に初期化する。検出モードDETECT_MODEが"0"であれば、顔検出モードであり、"1"であれば、動き検出モードとなる。本発明による人物検出方法を実行するにおいて、顔検出を先に実行するか、動き検出を先に実行するかは重要な問題ではないが、説明の便宜のために、監視システムを起動すれば、先に顔検出を実行するように初期の検出モードDETECT_MODEを"0"に設定することにする。
S10段階の後で、検出モードが顔検出モードであるかを判断する(S20段階)。
S20段階の判断結果、検出モードが顔検出モードの場合、顔検出を実行(S30段階)し、顔検出モードではない場合、動き検出モードを実行する(S40段階)。本発明の望ましい実施形態で、初期検出モードは顔検出モードに設定されていることは前述した通りである。
ここで、S30段階は、顔検出を所定回数試みても顔が検出されなければ、動き検出を実行するモードを選択してS20段階に進行する。また、S30段階は、ガボールウェーブレット変換を使用して顔の候補領域を検出する段階を含む。また、S30段階は、低解像度SVMおよび高解像度SVMを使用して顔を検出する段階を含む。S40段階では、動き検出が所定数の映像フレームについて同時に実行され、少なくとも所定回数の動き検出が所定の時間内に成功したら、処理はS10段階へ戻る。
図2は、図1に示されたS30段階の望ましい一実施形態を説明するためのフローチャートである。S30段階は、撮影された1つの映像フレームを入力する段階、この映像フレームから顔を検出する段階、顔が検出された場合映像フレームを記憶する段階、再び顔検出を実行する段階、所定回数の間、入力される映像フレームに対して顔の検出を試みても顔が検出されなければ、動き検出モードを選択する段階(S300〜S320段階)よりなる。
本発明による顔検出段階(S30段階)は、1つの映像フレームに対して1回の顔検出試みが実行され、継続的に顔検出を試みる回数を所定回数TH1に制限する。また、本発明は顔検出を実行するにおいて、概略的な検出(S304段階)から中間段階検出(S308段階)を経て精密な検出(S312段階)まで3段階を進行することによって、満足すべき顔検出率を維持しながらも顔検出にかかる実行時間を縮められる。図面を参照して、顔検出段階(S30段階)を次の通り詳細に説明する。
まず、S300段階では、顔検出を実行するために撮影された1つの映像フレームを入力する。入力された1つのフレームの新しい映像毎に1回の顔検出試みが行われる。
S300段階の後で、顔検出試み回数(変数COUNT_FD)を+1増加させる(S302段階)。S302段階は、継続的に顔検出を試みられる回数を所定回数TH1に制限するために備えられる段階である。1回の顔検出が失敗して新しい映像フレームを入力して再び顔検出を試みる時COUNT_FDを+1ずつ増加させる。
S302段階後に、顔の候補領域を検出する(S304段階)。このためにまず、モデルの顔形態をトレーニングして構築された顔データベースが備えられる。S304段階では、備えられたモデルの顔データベースと入力された映像フレームとを比較して顔の候補領域を検出する。ここで、顔の候補領域検出に使われる映像変換方法としてガボールウェーブレットが使用できる。特に、M−グリッドガボールウェーブレットが使用できる。M−グリッドガボールウェーブレットでモデルの顔形態をトレーニングするグリッド間隔は、両目間の距離および目と口との間の距離を基準に定められる。M−グリッドガボールウェーブレットによるS304段階を、図3および図4を参照して次の通りにさらに詳細に説明する。
連続的な映像入力で顔の候補領域を検出するために、顔映像の色相または形態と関連した多くの研究がなされてきた。画素レベルの皮膚色は検出空間を大きく減らせられるが、人間の皮膚色は撮影環境に影響を受け、光源の方向および強度によって変化する。本発明においては、M−スタイルグリッドでガボールフィルター応答の類似性整合による形態情報を利用して顔の候補領域を検出する。
図3に示されたように、M−グリッドは英文字Mの形態を形成する所定数、例えば20個の点よりなる。グリッド点は水平および垂直方向に所定間隔で配列されている。例えば、図4に示されたように、グリッド点の水平間隔は両目間の距離の1/4に選定でき、垂直間隔は口と両目を連結する線の間の距離の1/3に選定できる。
ガボールウェーブレットによる顔の候補領域検出は2つの段階を含む。
1つは、数多くの顔の変化を含むモデルの顔映像をトレーニングすることである。この時、数多くの入力映像にM−グリッド構造を適用してトレーニングすることによってモデル顔のデータベースを構築する。
他の1つは、M−グリッド類似性整合を利用して前記トレーニングされたモデル顔のデータベースと入力された映像フレームとの類似性を比較することである。ここでは、たとえ顔でなくてもM−スタイルグリッド整合によってトレーニングされたモデルと類似度が高いと判断される映像は顔の候補領域に検出される。
S304段階後に、ガボールウェーブレット変換によって顔の候補領域が検出されたかどうかを判断する(S306段階)。M−グリッドガボールウェーブレット変換によれば、実際の顔の有無に関係なしに、顔と推定される部分は顔の候補として検出される。すなわち、ガボールウェーブレット変換では、映像全体のうち他の部分に比べて顔である可能性が最も大きいと判断される一定領域の部分を顔の候補に検出する。このように、顔の候補領域に検出されたとしても、その画像が実際に顔を含んでいるとはみなされない。したがって、より正確に顔を検出するために、検出された顔の候補領域に対して、低解像度顔検出段階(S308段階)および高解像度顔検出段階(S312段階)が実行される。しかし、顔の候補領域が含まれていないと決定されれば、S318段階に進行して顔の検出試み回数COUNT_FDが制限された所定回数TH1以上であるかを判断する。これについてはS318段階で詳しく説明する。
顔検出の概略的な検出から精密な検出までの階層構造において、前述したようなガボールウェーブレット変換は最下位のレベルである。このレベルは正確な顔検出を提供するものではないが、照明の変化、その他の雑音に強く、顔の候補領域検出を速く実行する。一実施形態として、入力映像のサイズが320×240画素であり、目標顔のサイズは両目間の距離が40〜80画素である場合、顔検出の処理時間は、例えばペンティアム4、1.6GHzでイメージ当たり約170ms程度である。
一方、本発明においては、M−グリッドガボールマッチングを利用して検出された顔の候補領域からより正確に顔を検出するために、PCA(Principal Component Analysis)副空間でトレーニングされたSVM(Support Vector Machine)分類技法を適用する。ここで、PCAは主成分分析法を意味し、これについては後述する。低解像度SVM基盤の顔検出を実行するS308段階および高解像度SVM基盤の顔検出を実行するS312段階で適用されるSVM基盤の顔検出技法について次の通り詳細に説明する。
顔映像は高次元映像空間でランダムに分布されているものではない。したがって、相対的に低次元の副空間によって表現できる。そして、SVM分類での顔検出実行速度はサポートベクトルの数によって異なる。本発明の目的のうち1つは、分類速度を上げることである。適切なサポートベクトル数SVを選定すれば、分類速度を高めながらも良好な分類性能が維持できる。本発明において顔空間の次元を減少させる適当な方法としては、PCAが採用される。現在利用されている多くの顔認識技術は、顔映像にPCAを適用して顔を認識する。PCAは映像自体の固有情報の損失を最小化しながら映像データを低次元固有ベクトル空間に投影させて情報を縮小させる技法である。PCAは入力された映像から顔の主要特徴ベクトル、すなわち、主成分を抽出して、あらかじめトレーニングされて登録されたデータベース映像の主成分ベクトルと比較して顔を認識する方法である。
低解像度のSVM分類は分類速度を速めうる。低解像度で顔でないと判断された映像は結局顔ではない。しかし、低解像度で顔であると決定された映像であっても顔でない場合もある。このような背景で、顔分類の第1の段階として、まず、低解像度のSVM分類によって速い速度で顔でない映像を洗い出す(S308段階)。低解像度SVMによって分類された顔映像には顔でない映像が含まれうる。次に、顔分類の第2の段階として、高解像度のSVM分類によってより精密に顔でない映像を洗い出す(S312段階)。言い換えれば、少数のサポートベクトルを有する第1段階の低解像度レベルの分類で顔と分類されたパターンのみを次の段階である高解像度段階に進行させることによって、第2レベルに進行する映像データ量を大幅に減らせる。
本発明の細部的な一実施形態であって、ガボールウェーブレット変換による分類(S304段階)によって抽出された顔候補に対し、20×20画素の顔映像内で20個のPCA特徴でトレーニングされた低解像度のSVMを適用する(S308段階)。最後に、40×40画素の顔映像内で50個のPCA特徴でトレーニングされた2次多項式カーネルを使用した高解像度のSVMを適用する(S312段階)。
SVM基盤の顔検出を実行するために、まず、システムが備えられねばならないのは、トレーニングによる顔データベースである。すなわち、顔が含まれた映像(face image)と顔が含まれない映像(non-face image)とに対してそれぞれトレーニングしてデータベースを構築する。低解像度SVMのためのトレーニングは次の通り実行される。顔映像と非顔映像とをそれぞれ所定サイズ、例えば20×20画素にリサイジングする。ベクトル数は400個となる。これから、所定数、例えば20個のみを特徴ベクトルに選別して固有ベクトルを作る。
次の段階として位置とスケールとを調整しながら映像内で顔を検出する領域を選定し、低解像度SVMを使用して映像内の顔を検出する。
図5Aおよび図5Bはガボールウェーブレット変換を使用して検出された顔の候補領域およびその周辺領域について、映像内で顔検出を実行する検索窓を変更していく過程を説明するための図である。低解像度SVMによる顔検出において、顔検出のための検索領域の基準点および基準点移動範囲は、ガボールウェーブレット変換によって検出された顔の候補領域によって決定される。図5Aを参照すれば、内部に斜線表示された小さい矩形はガボールウェーブレット基盤で検出された顔の候補領域であり、外部の大きい矩形は低解像度SVMによる顔検出が実行される検索領域を示す。例えば、図5Aの左側上段のエッジを第1基準点として定めて図5Bに示されたように、顔検索窓を80×80画素に設定できる。その次に、設定領域内の映像データを20×20画素にリサイジングする。リサイジングした映像データをトレーニングによるサポートベクトルのデータと比較して顔を検出する。顔検出領域の設定を拡張しながら、設定された領域をそれぞれ20×20画素にリサイジングしてトレーニングデータと比較する。設定領域の最大サイズを、例えば160×160画素に指定し、設定領域を1つのステップに、例えば横縦にそれぞれ20画素ずつ拡張させるならば、設定領域のサイズ拡張段階は、例えば80×80画素のサイズから160×160画素のサイズまでリサイジングおよびトレーニングデータと比較する過程が5回繰り返される。図5Aの外部矩形のサイズの検索領域に対して顔検出を実行すべきなので、基準点を右側方向と下側方向とに移動しながら図5Bに示された検索窓拡張による顔検出を繰り返して実行する。
S312段階で実行される高解像度SVM基盤の顔検出もS308段階と同じ過程を経るが、リサイジングベクトル数と固有ベクトル数とが多くなってより繊細な検出によって正確な顔検出が実行できる。すなわち、まずシステムが具備せねばならないことはトレーニングによる顔データベースである。すなわち、顔が含まれた映像と顔の含まれていない映像についてそれぞれトレーニングしてデータベースを構築する。高解像度SVMのためのトレーニングは次の通り実行される。顔映像と非顔映像とをそれぞれ所定サイズ、例えば40×40画素にリサイジングする。ベクトル数は1600個になる。このうちで所定数、例えば50個のみを特徴ベクトルに選別して固有ベクトルを作る。
次の段階として、位置とスケールとを調整しながら映像内で顔を検出する検索領域を選定し、高解像度SVMを使用して映像内の顔を検出する。顔検索窓の基準点および基準点移動範囲の決定方式は図5Aおよび図5Bに示された低解像度SVMによる顔検出にあっても同一であるが、低解像度SVMによって検出された顔領域を基準としてその周辺領域で基準点および基準点移動範囲が決定される点だけが異なる。
前述したように本発明による顔検出においては、顔の候補領域検出(S304段階)、低解像度SVMを使用した顔検出(S308段階)および高解像度SVMを使用した顔検出(S312段階)の3段階を適用することによって顔検出の信頼性、正確性および実行速度を同時に向上させうる。
結局、S312段階の高解像度SVMによって顔が含まれたと最終的に判断された場合にだけ、顔が検出されたと判断する(S314段階)。もし、映像に顔が含まれていないにもかかわらず、S314段階によって顔が検出されたと判断された場合はFAR(False Alarm Rate)が増大する。また、顔が含まれている映像に対してS314段階によって顔が含まれたと検出された場合は、FDR(Face Detection Rate)が増大する。
S310段階の判断結果、低解像度SVMによって顔が検出されていないと判断されるか、S314段階の判断結果、高解像度SVMによって顔が検出されていないと判断されれば、S318段階に進行して顔検出試み回数が所定回数(これを第1臨界値TH1という)を超過したかを判断するようになる。ここで、第1臨界値TH1は、例えば10と設定できる。
S318段階では、所定回数および所定時間内の顔検出試みに基づいて、動き検出に移行するか否かを決定する。端末機に接近した物体が、人であるかどうかを顔検出によって100%判断できるものではない。端末機にユーザーが接近して、映像内で動きはあっても、ユーザーがマスクを着用するか覆面をした場合、サングラスを着用した場合、カメラに対して背を向けている場合など顔を検出し難い場合がある。このような場合、顔は検出されないが、撮影された映像を記憶する必要性はある。顔が検出された場合にだけ映像を記憶するようにすれば、このように動きはあるが、顔が検出されない条件では映像を記憶できない。したがって、本発明においては、顔検出を試みる回数を制限して入力される所定数の映像フレームに対して顔検出を試みても顔が検出されなければ、顔検出を中断して映像内の動き検出を試みるようにする。このとき、顔検出を試みる回数は顔検出が失敗する回数と同じである。したがって、顔検出が失敗した場合に顔検出を試みるCOUNT_FDを+1増加させ、再び顔検出を試みるが、その試み回数を制限するためにS318段階を具備する。顔検出が失敗したので、新しい顔検出を試みるかどうかを判断せねばならない場合は3つの場合がある。すなわち、S306段階の判断結果、顔の候補領域が検出されていないと判断されるか、S310段階の判断結果、低解像度SVMによって顔が検出されていないと判断されるか、S314段階の判断結果、高解像度SVMによって顔が検出されなかったと判断されれば、顔検出試み回数COUNT_FDが所定回数第1臨界値TH1以上であるかを判断し、第1臨界値TH1より小さい場合、S300段階に進行し、第1臨界値TH1以上である場合、S320段階に進行する。
S320段階では検出モードDETECT_MODEを"1"に設定し、動き検出モードに移行する。すなわち、S318段階の判断結果、動き検出試みが第1臨界値TH1を超えたと判断された場合には、動き検出に移行する。その後、処理はS20段階に進行する。S320段階を経てS20段階に進行するようになれば、検出モードDETECT_MODEは"1"に設定され、動き検出を実行するようになる。
一方、S314段階の判断結果、もし、高解像度SVMによって顔が検出されたと判断されれば、該当映像フレームを記憶して顔検出試み回数COUNT_FDを"0"に初期化する(S316段階)。S316段階後に、S300段階に進行する。顔が検出された場合は、引き続き顔を検出するようにする。
本発明においてS40段階は、望ましくは、所定数の映像フレームを1つの単位として動き検出を実行し、所定時間内に動き検出が所定回数以上成功すれば、顔検出を実行する段階に移行するように具現される。
図6は、図1に示された動き検出実行段階(S40段階)の望ましい細部的な一実施形態を説明するためのフローチャートである。S40段階は、撮影された所定数の映像フレームを入力して時間的なエッジ検出アルゴリズムによって動きを検出し、所定時間内に動き検出が所定回数以上成功すれば、顔検出を実行する段階へ移行し、そうでなければ継続的に動き検出を実行する段階(S400〜S414段階)よりなる。
本発明においては、空間的なエッジ検出方法を時間軸に拡張した時間的なエッジ概念によって動きを検出する。所定時間の間に入力された映像フレームを1つの動き検出処理単位として、これら映像フレーム間の時間的な変化を評価して動き検出を試みる。
本発明による動き検出方法においては、所定時間端末機に接近した物体を撮影して入力された一連の映像フレーム、例えば10個の映像フレームを1つの単位として動き検出を1回試みる。すなわち、入力される一定時間の間の一連の映像フレーム、例えば10個の映像フレームを1つの単位として動き検出を試みる。また、1つの映像フレームには所定解像度を有するn個の画素がある。したがって、1回の動き検出を試みる時、1つの注目画素に対して10個の画素値の時間的な変化を評価し、注目画素が動き画素であるかどうかを決定するようになり、このような過程を画素数n回分だけ繰り返して実行して1回の動き検出を試みる。
本発明におけるデジタルカメラは、単位時間当りに所定数の映像フレームを撮影する。したがって、例えば、秒当たり30フレームを撮影すれば、概略的に秒当たり3回の動き検出を試みることができる。
図6を参照して、動き検出方法(S40段階)の望ましい細部実施形態を次の通り説明する。
まず、所定数の映像フレームを入力する(S400段階)。ここで、映像フレームの所定数は、例えば10個になりうる。S400段階後に、動き検出試み回数COUNT_MDを+1増加させる(S402段階)。S402段階後に、時間的なエッジ検出アルゴリズムによって前記撮影された映像内の動きを検出する(S404段階)。
空間的なエッジは、相対的に異なる明暗度を有する2つの領域間の境界である。空間的なエッジを検出する技法にはソベルマスク、プレウィットマスク、ラプラシアンマスク、キャニーマスクなど色々なものがある。このうち、ラプラシアンを利用したエッジ検出では、空間的なエッジ概念を時間的なエッジ概念に拡張でき、これにより撮影された映像内で動きが検出できる。
図7は、S404段階の望ましい一実施形態を説明するためのフローチャートである。S404段階では、画素値の時間に対するラプラシアンが零交差する画素を検出し、その画素の分散値が所定値以上である場合にだけその画素を動き画素と決定する段階(S4040〜S4044段階)よりなる。
図7を詳細に説明すれば、まず、入力された所定数の映像フレームを利用して、画素値の時間に対するラプラシアンが零交差する画素を検出する(S4040段階)。
図8は、図7に示されたS4040段階の望ましい一実施形態を説明するためのフローチャートである。入力される映像フレームは正の整数mに対して所定値2m個であり、ある映像フレーム内には所定値n個の画素が存在するとする時、S4040段階の望ましい一実施形態は、画素値の時間に対するラプラシアンが零交差する画素を検出するために、前記入力された2m個の映像フレームをf(t1)〜f(t2m-1)とf(t2)〜f(t2m)の2つの群に分けて、画素値のラプラシアンを求める段階(S4040aおよびS4040b段階)とラプラシアンの零交差の如何を決定する段階(S4040c段階)とよりなる。ここで、{f(t1)、f(t2)、f(t3)…、f(t2m)}は現在処理される注目画素の画素値であり、S4040a段階ないしS4040c段階は画素数n回だけ反復的に実行され、1回の動き検出が実行される。S4040段階の実施形態を次の通りより詳細に説明する。
典型的な3×3マスクとして空間的なエッジを検出するためのラプラシアンマスクによる計算例は次の式(1)または式(2)のようになる。
2f=4z5-(z2+z4+z6+z8) ・・・(1)
2f=8z5-(z1+z2+z3+z4+z6+z7+z8+z9) ・・・(2)
まず、S4040a段階では、映像フレーム群で{f(t1)、f(t2)、f(t3)…、f(t2m-1)}の各映像フレームに所定の加重値を乗じて平均してf(tm)の時間的なラプラシアンを求める。典型的な3×3の空間エッジ検出のためのラプラシアンマスクを時間軸に拡張して時間的なエッジを検出するために、1回の動き検出のための一群の映像フレームの数を9個に選定する。例えば、m=5に選定すれば、S4040a段階は、{f(t1)、f(t2)、f(t3)…、f(t9)}の9個の各映像フレームに所定の加重値を乗じて平均してf(t5)の時間的なラプラシアン∇2f(t5)を求める段階となる。∇2f(t5)は次の式(3)または式(4)のように求められる。
2f(t5)=4f(t5)-(f(t2)+f(t4)+f(t6)+f(t8)) ・・・(3)
2f(t5)=8f(t5)-(f(t1)+f(t2)+f(t3)+f(t4)f(t6)+f(t7)+f(t8)+f(t9)) ・・・(4)
また、ラプラシアンが零交差する画素を検出するためにはもう1個の時間的な画素値のラプラシアンが必要である。したがって、S4040a段階後に、映像フレーム群で、{f(t2)、f(t3)、f(t4)…、f(t2m)}の各映像フレームに所定の加重値を乗じて平均してf(tm+1)の時間的なラプラシアンを求める(S4040b段階)。S4040b段階でも典型的な3×3マスクの適用のために、例えば、{f(t2)、f(t3)、f(t4)…、f(t10)}の9個の各映像フレームに所定の加重値を乗じて平均してf(t5)の時間的なラプラシアン∇2f(t6)を求める。∇2f(t6)は次の式(5)または式(6)のように求められうる。
2f(t6)=4f(t6)-(f(t3)+f(t5)+f(t7)+f(t9)) ・・・(5)
2f(t6)=8f(t6)-(f(t2)+f(t3)+f(t4)+f(t5)f(t7)+f(t8)+f(t9)+f(t10)) ・・・(6)
S4040c段階は、ラプラシアンの差について決定する段階であって、∇2f(tm)が負数であり、∇2f(tm+1)が正数であるか、∇2f(tm)が正数であり、∇2f(tm+1)が負数であれば、注目画素を零交差画素に決定する。すなわち、m=5である場合に、∇2f(t5)と∇2f(t6)間で零交差が起きたか否かによって零交差の画素を決定する。もし、零交差が起きたと判断されれば、f(tm)を動き画素に検出する。
一方、入力された所定数の映像フレームを利用し、画素値の時間に対する分散値を計算する(S4042段階)。S4042段階は、S4040段階後に実行され、またはS4040段階と並列的に実行されうる。分散値σは一例として次の式(7)のように計算できる。
Figure 2004192646
S4040段階およびS4042段階後に、ラプラシアンが零交差すると検出された画素に対して時間に対する分散値が所定臨界値以上であるかを判断し、所定臨界値以上である場合、前記画素を動き画素に決定する(S4044段階)。分散値が所定臨界値より小さければ、画素の時間的な変化はあるが、これは映像内で実質的な物体の動きによるものでなく、照明などのノイズ性の映像変化によるものと判断する。S4044段階によって、本発明による動き検出方法は映像内で物体の実際的の動きによるものがではない照明など環境の変化および雑音などに強くなる。
以上で説明したS404段階後に、動きが検出されたかを判断する(S406段階)。S406段階は、S404段階で決定された動き画素の数が所定数以上であるかを判断して、所定数以上の場合、動きが検出されたと判断する。
もし、動きが検出されたと判断されれば、動き検出成功回数SUCCESS_MDを+1増加させ、映像を記憶する(S408段階)。このとき、記憶される映像はf(tm)映像である。m=5の場合であれば、f(t5)映像が記憶される。
S408段階後に、動き検出試み回数COUNT_MDが第3臨界値TH3、例えば、30回未満COUNT_MD<30であり、同時に動き検出成功回数SUCCESS_MDが第2臨界値TH2、例えば、10回以上の条件SUCCESS_MD≧10を満足するかを判断し、前記条件を満足すると判断されれば、S10段階に進行する(S410段階)。すなわち、S410段階の前記条件を満足すれば、動き検出モードの所期の目的を達成したのである。所定時間内に動き検出が所定回数成功したので、今回には顔が検出される可能性が非常に高い条件になったと判断するのである。顔が検出される可能性があれば、顔を正確に検出することが監視システムの究極的な目的であるためである。S10段階に進行すれば、あらゆる変数が初期化されるので、また顔検出モードに進入するようになる。
S406段階の判断の結果、動きが検出されていないと判断されるか、S410段階の判断の結果、その条件を満足しないと判断されれば、動き検出試み回数COUNT_MDが第3臨界値TH3以上であるかを判断し、第3臨界値TH3以上でない場合、S400段階に進行してさらに新しい映像フレームを入力して動き検出を実行する(S412段階)。
しかし、もし、動き検出試み回数COUNT_MDが第3臨界値TH3以上である場合、動き検出試み回数COUNT_MDおよび動き検出成功回数SUCCESS_MDを初期化してS400段階に進行する(S414段階)。本発明による動き検出は“所定時間内に”所定回数の動き検出が成功することが目的であって、所定時間を超えた長時間にかけて動き検出が成功しても、顔が検出される可能性はないのである。したがって、所定回数の動き検出が成功する前に所定時間が経過したならば、すなわち、動き検出試み回数が第3臨界値TH3以上であれば、動き検出と関連したカウントを初期化して、最初から再び動き検出を実行するようにする。
ところが、より完璧な人物検出を実行するために動き検出実行の途中に顔検出を実行する必要性がある。すなわち、端末機に接近したユーザーが所定時間動かずにいる状況に対応する必要性がある。したがって、S40段階は、動き検出を実行する途中に所定時間周期で動き検出を妨害して顔検出を実行する段階をさらに含むように具現されうる。
ラプラシアンはノイズに弱い傾向があるので、S404段階を実行するにおいて画素値のラプラシアンを求める前(S4040段階前)に、入力された映像フレームをガウシアンフィルタリングによって平滑化する段階をさらに含みうる。
図9は、本発明による動き検出方法の望ましい一実施形態を説明するためのフローチャートであって、撮影された所定数の映像フレームを入力して時間的なエッジ検出アルゴリズムによって動きを検出し、所定時間内に動き検出が成功すれば、映像を記憶し、そうでなければ継続的に動き検出を実行するように具現される段階(S500〜S506段階)よりなる。
まず、所定数の映像フレームを入力する(S500段階)。
S500段階後に、時間的なエッジ検出アルゴリズムおよび時間についての画素値の分散値比較によって映像内の動きを検出する(S502段階)。ここで、S502段階は図7に示されたようにS4040〜S4044段階で具現できる。
S502段階は、まず、入力された所定数の映像フレームを利用し、画素値の時間に対するラプラシアンが零交差する画素を検出する(S4040段階)。
入力される映像フレームは所定値2m個であり、1つの映像フレーム内にはn個の画素が存在するとする時、S4040段階は図8に示されたようにS4040a〜S4040cで具現できる。
S4040段階は、まず、映像フレーム群で{f(t1)、f(t2)、f(t3)…、f(t2m-1)}の各映像フレームに所定の加重値を乗じて平均して∇2f(tm)を求める(S4040a)。
また、映像フレーム群で{f(t2)、f(t3)、f(t4)…、f(t2m)}の各映像フレームに所定の加重値を乗じて平均して∇2f(tm+1)を求める(S4040b)。
2f(tm)が負数であって、∇2f(tm+1)が正数であるか、または、∇2f(tm)が正数であり、∇2f(tm+1)が負数であれば、その画素を零交差の画素に決定する(S4040c)。
ここで、{f(t1)、f(t2)、f(t3)…、f(t2m)}は現在処理される画素の画素値であって、S4040a段階ないしS4040c段階はn回繰り返して実行される。
S4040段階後に、入力された所定数の映像フレームを利用し、画素値の時間に対する分散値を計算する(S4042段階)。
ここで、S4040段階前に、入力された映像フレームをガウシアンフィルタリングによって平滑化する段階をさらに含むこともある。
S4042段階後に、ラプラシアンが零交差すると検出された画素の時間に対する分散値が所定臨界値以上であるかを判断し、前記画素の分散値が所定臨界値以上である場合、その画素を動き画素として決定する(S4044段階)。分散値が所定臨界値より小さければ、画素の時間的な変化はあるが、これは映像内で実質的な物体の動きによるものではない照明などにノイズ性の映像変化によるものと判断する。S4044段階によって、本発明による動き検出方法は映像内で物体の実際的な動きによるものではない照明など環境の変化およびノイズなどに強くなる。
一方、S502段階後に、動きが検出されたかどうかを判断する(S504段階)。ここで、望ましくは、動き画素として決定された画素の数が所定数以上であるかを判断し、所定数以上である場合、動きが検出されたと判断する。
動きが検出されていないと判断されれば、映像を記憶せずにS500段階に進行し(S504段階)、動きが検出されたと判断されれば、映像を記憶してS500段階に進行する(S506段階)。
図10は、本発明による人物検出装置20の望ましい一実施形態を説明するためのブロック図であって、デジタルビデオカメラ10によって撮影して入力された映像から顔を検出する顔検出部200、動きを検出する動き検出部210、顔検出および動き検出を制御する制御部220および映像を記憶する記憶部230を含む。
顔検出部200は制御部220から受信された検出モード信号221に応答して入力された映像から顔検出を実行し、顔検出が成功したか否かを顔検出結果信号222として出力する。
動き検出部210は、制御部220から受信された検出モード信号221に応答し、所定数の映像フレームを1つの単位で入力して時間的なエッジ検出アルゴリズムによる動き検出を実行し、動き検出が成功したか否かを動き検出結果信号223として出力する。
記憶部230は、制御部220から受信された映像記憶指示信号224に応答してデジタルビデオカメラ10から入力される映像を記憶する。
制御部220は、人物検出時に使われる変数を初期化し、顔検出部200または動き検出部210を活性化する前記検出モード信号221を出力し、顔検出結果信号222または動き検出結果信号223に応答して映像記憶指示信号224を出力し、顔検出結果信号222に応答して顔検出試み回数をカウントし、動き検出結果信号223に応答して動き検出試み回数および動き検出成功回数をカウントする。制御部220は、顔検出試み回数が第1臨界値TH1、例えば10回以上であれば、動き検出部210を活性化するように検出モード信号221を、例えばハイレバルに変更して出力し、動き検出成功回数が所定時間内に第3臨界値TH3、例えば10回以上であれば、顔検出部200を活性化するように検出モード信号221を、例えばローレベルに変更して出力する。
図1に示されたS10段階およびS20段階は、制御部220によって実行できる。図1に示されたS30段階は顔検出部200、記憶部230および制御部220によって実行できる。図1に示されたS40段階は動き検出部210、記憶部230および制御部220によって実行できる。
顔検出部200の望ましい一実施形態は、図10に示されたように、顔の候補領域検出部201、低解像度顔検出部202および高解像度顔検出部203を含む。
顔の候補領域検出部201は、デジタルビデオカメラ10から入力された映像からM−グリッドガボールウェーブレット基盤で顔の候補領域を検出して出力し、検出結果を第1顔検出結果として出力する。例えば、顔の候補領域が検出された場合には第1顔検出結果はハイレベルとして出力され、そうでなければ、ローレベルとして出力されうる。図2に示されたS304段階およびS306段階は顔の候補領域検出部201によって実行できる。
低解像度顔検出部202は、顔の候補領域検出部201で、ガボールウェーブレットを使用して検出された顔の候補領域を含み、その周辺の所定領域に対して低解像度SVMを使用して顔領域を検出して出力し、検出結果を第2顔検出結果として出力する。例えば、低解像度顔領域が検出された場合には第2顔検出結果はハイレベルとして出力され、そうでなければ、ローレベルとして出力されうる。図2に示されたS308段階およびS310段階は低解像度顔検出部202によって実行できる。
高解像度顔検出部203は、低解像度顔検出部202で低解像度SVMを使用して検出された顔領域を含み、その周辺の所定領域に対して高解像度SVMを使用して顔を検出し、第3顔検出結果を出力する。例えば、高解像度顔領域が検出された場合には第3顔検出結果はハイレベルとして出力され、そうでなければ、ローレベルとして出力されうる。図2に示されたS312段階およびS314段階は高解像度顔検出部203によって実行できる。
顔検出結果信号発生部204は第1〜第3の顔検出結果に応答して顔検出結果信号222を発行する。顔検出結果信号発生部204は、第1〜第3の顔検出信号のうち1つでもローレベルであれば、ローレベルの顔検出結果信号222を発生するように具現できる。例えば、顔検出結果信号発生部204は、第1〜第3の顔検出信号を入力端子に連結した論理積ゲートとして具現できる。
動き検出部210の望ましい一実施形態は、図10に示されたように、エッジ検出部211、分散値計算部212、動き画素検出部213および動き検出結果信号発生部214を含む。
エッジ検出部211は、時間に対するラプラシアンが零交差する画素をエッジ画素として決定する。図7に示されたS4040段階はエッジ検出部211によって実行できる。
分散値計算部212は画素値の時間に対する分散値を計算する。図7に示されたS4042段階は分散値計算部212によって実行できる。
動き画素検出部213は、エッジ画素として決定された画素の分散値が所定値以上である場合、そのエッジ画素を動き画素として決定する。図7に示されたS4044段階は動き画素検出部213によって実行できる。
動き検出結果信号発生部214は映像フレーム内で動き画素の数が所定数以上であるか否かによって動き検出結果信号223を発生する。例えば、動き画素が所定数以上である場合、ハイレベル、そうでなければ、ローレベルの動き検出結果信号223を発生するように具現できる。
本発明は、以上に説明した、また、図面に表現された例示に限定されるものではない。前述した実施形態によって、当業者であれば特許請求の範囲に記載された本発明の範囲および目的内で置換、消去、併合、および段階などの再配置によって前述した実施形態について多くの変形が可能であろう。
本発明は監視システム、特に、ビデオカメラから入力された映像を分析して人物を検出するために監視システムに適用されうる。
本発明によれば、監視システムが作動する状態で、顔検出モードと動き検出モードを繰り返して、または両方間の相互補完的に実行することによって、正確な人物検出と実行速度および映像記憶効率の向上が実現される。
本発明による人物検出方法の望ましい一実施形態を説明するためのフローチャートである。 図1に示されたS30段階の望ましい一実施形態を説明するためのフローチャートである。 M−グリッドの形態を示す。 グリッドの水平方向および垂直方向の間隔を示す。 ガボールウェーブレットを使用して検出された顔の候補領域を示す図である。 顔の検索窓を変更していく過程を説明するための図である。 図1に示された動きの検出実行段階(S40段階)の望ましい詳細な一実施形態を説明するためのフローチャートである。 図6に示されたS404段階の望ましい一実施形態を説明するためのフローチャートである。 図7に示されたS4040段階の望ましい一実施形態を説明するためのフローチャートである。 本発明による動き検出方法の望ましい一実施形態を説明するためのフローチャートである。 本発明による人物検出装置の望ましい一実施形態を説明するためのブロック図である。
符号の説明
10 デジタルビデオカメラ
20 人物検出装置
200 顔検出部
201 候補領域検出部
202 低解像度顔検出部
203 高解像度顔検出部
204 顔検出結果信号発生部
210 検出部
211 エッジ検出部
212 分散値計算部
213 画素検出部
214 動き検出結果信号発生部
220 制御部
221 検出モード信号
222 顔検出結果信号
223 検出結果信号
224 映像記憶指示信号
230 記憶部

Claims (40)

  1. デジタルビデオカメラによって撮影して入力した映像から人物を検出する方法において、
    (a)人物検出で使われる変数を初期化する段階と、
    (b)現在モードが顔検出モードであるか否かを判断する段階と、
    (c)現在モードが顔検出モードである場合、入力される映像フレーム毎に顔検出を実行し、顔検出を所定回数試みても顔が検出されなければ、動き検出モードを選択して前記(b)段階に進行する段階と、
    (d)現在モードが動き検出モードである場合、所定数の映像フレームを1つの単位で入力して動き検出を実行し、所定時間内に前記動き検出が所定回数以上成功すれば、前記(a)段階に進行する段階と、を含むことを特徴とする人物検出方法。
  2. 前記(c)段階は、
    ガボールウェーブレット変換を使用して顔の候補領域を検出する段階を含むことを特徴とする請求項1に記載の人物検出方法。
  3. 前記(c)段階は、
    低解像度SVMおよび高解像度SVMを使用して顔を検出する段階を含むことを特徴とする請求項2に記載の人物検出方法。
  4. 前記(c)段階は、
    (c1)前記撮影された1つの映像フレームを入力する段階と、
    (c2)顔検出試み回数を+1増加させる段階と、
    (c3)M−グリッドガボールウェーブレット変換を使用してモデルの顔形態をトレーニングして顔の候補領域を検出し、顔の候補領域が検出されたかどうかを判断する段階と、
    (c4)顔の候補領域が検出された場合、低解像度SVMによって顔検出を実行し、顔が検出されたかどうかを判断する段階と、
    (c5)低解像度SVMによって顔が検出された場合、高解像度SVMによって顔検出を実行し、顔が検出されたかどうかを判断する段階と、
    (c6)高解像度SVMによって顔が検出された場合、該当する映像フレームを記憶し、顔検出試み回数を初期化し、前記(c1)段階に進行する段階と、
    (c7)前記(c3)段階の判断の結果、顔の候補領域が検出されないか、前記(c4)段階の判断の結果、顔が検出されなかったと判断されるか、前記(c5)段階の判断結果、顔が検出されていない場合、顔検出試み回数が第1臨界値以上であるかを判断し、第1臨界値以上ではない場合、前記(c1)段階に進行する段階と、
    (c8)顔検出試み回数が第1臨界値以上である場合、動き検出モードを選択して前記(b)段階に進行する段階と、を含むことを特徴とする請求項3に記載の人物検出方法。
  5. 前記(c3)段階において、
    前記モデルの顔形態をトレーニングするM−グリッドの間隔は目と目間の距離および目と目とを連結する線と口間の距離を基準として定められることを特徴とする請求項4に記載の人物検出方法。
  6. 前記(c4)段階および前記(c5)段階は、
    PCA副空間でトレーニングされたSVM分類技法によって顔検出を実行することを特徴とする請求項4に記載の人物検出方法。
  7. 前記(c4)段階は、
    前記(c3)段階で検出された顔の候補領域の周辺の所定位置を基準として所定サイズの領域を選定し、前記選定された領域に対して低解像度SVMによる顔検出を実行し、前記(c3)段階で検出された前記顔の候補領域を含む周辺の所定領域が何れもスキャンされるように前記選定領域を拡張および移動しながら低解像度SVMによった顔検出を実行することを特徴とする請求項6に記載の人物検出方法。
  8. 前記(c5)段階は、
    前記(c4)段階で検出された顔領域周辺の所定位置を基準として所定サイズの領域を選定して前記選定された領域について高解像度SVMによる顔検出を実行し、前記(c4)段階で検出された前記顔領域を含む周辺の所定領域が何れもスキャンされるように前記選定領域を拡張および移動しながら高解像度SVMによる顔検出を実行することを特徴とする請求項6に記載の人物検出方法。
  9. 前記(d)段階は、
    時間的なエッジ検出アルゴリズムによって前記動き検出を実行することを特徴とする請求項1に記載の人物検出方法。
  10. 前記(d)段階は、
    (d1)所定数の映像フレームを入力する段階と、
    (d2)動き検出試み回数を+1増加させる段階と、
    (d3)時間的なエッジ検出アルゴリズムおよび時間に対する画素値の分散値の比較によって前記撮影された映像内の動きを検出する段階と、
    (d4)動きが検出されたかどうかを判断する段階と、
    (d5)動きが検出されたと判断されれば、動き検出成功回数SUCCESS_MDを+1増加させ、映像を記憶する段階と、
    (d6)動き検出試み回数が第3臨界値未満であり、動き検出成功回数が第2臨界値以上である条件を満足するかどうかを判断し、前記条件を満足する場合、前記(a)段階に進行する段階と、
    (d7)前記(d4)段階の判断結果、動きが検出されないか、前記(d6)段階の判断結果、前記条件を満足しない場合、動き検出試み回数が前記第3臨界値以上であるかを判断し、前記第3臨界値以上ではない場合、前記(d1)段階に進行する段階と、
    (d8)動き検出試み回数が前記第3臨界値以上である場合、動き検出試み回数および動き検出成功回数を初期化して前記(d1)段階に進行する段階と、を含むことを特徴とする請求項9に記載の人物検出方法。
  11. 前記(d3)段階は、
    (d30)前記入力された所定数の映像フレームを利用し、画素値の時間に対するラプラシアンが零交差する画素を検出する段階と、
    (d32)前記入力された所定数の映像フレームを利用し、画素値の時間に対する分散値を計算する段階と、
    (d34)前記(d30)段階で前記ラプラシアンが零交差すると検出された画素の時間に対する分散値が所定臨界値以上であるかを判断し、前記画素の前記分散値が所定臨界値以上である場合、前記画素を動き画素として決定する段階と、を含むことを特徴とする請求項10に記載の人物検出方法。
  12. 前記入力される映像フレームは2m個であり、1つの映像フレームにはn個の画素が存在する場合、
    前記(d30)段階は、
    (d300)前記映像フレーム群で{f(t1)、f(t2)、f(t3)…、f(t2m-1)}の各映像フレームに所定の加重値を乗じて平均してf(tm)の時間に対するラプラシアン∇2f(tm)を求める段階と、
    (d302)前記映像フレーム群で{f(t2)、f(t3)、f(t4)…、f(t2m)}の各映像フレームに所定の加重値を乗じて平均してf(tm+1)の時間に対するラプラシアン∇2f(tm+1)を求める段階と、
    (d304)前記∇2f(tm)が負数であり、前記∇2f(tm+1)が正数であるか、前記∇2f(tm)が正数であり、前記∇2f(tm+1)が負数であれば、前記画素を零交差の画素として決定する段階と、を含み、
    ここで、{f(t1)、f(t2)、f(t3)…、f(t2m)}は現在処理される画素の画素値であり、前記(d300)段階ないし前記(d304)段階はn回反復的に実行されることを特徴とする請求項11に記載の人物検出方法。
  13. 前記(d4)段階は、
    前記(d3)段階で前記動き画素として決定された画素の数が所定数以上であるかを判断し、所定数以上である場合、動きが検出されたと判断することを特徴とする請求項11に記載の監視システムでの人物検出方法。
  14. 前記(d30)段階前に、
    入力された前記映像フレームをガウシアンフィルタリングによって平滑化する段階をさらに含むことを特徴とする請求項11に記載の監視システムでの人物検出方法。
  15. 前記(d)段階は、
    動き検出を実行する途中に所定時間周期で妨害して顔検出を実行する段階をさらに含むことを特徴とする請求項1に記載の人物検出方法。
  16. デジタルビデオカメラによって端末機に接近した物体を撮影して入力した映像から動きを検出する方法において、
    (e1)所定数の映像フレームを入力する段階と、
    (e2)時間的なエッジ検出アルゴリズムおよび時間に対する画素値の分散値比較によって前記撮影された映像内の動きを検出する段階と、
    (e3)動きが検出されたかどうかを判断する段階と、
    (e4)動きが検出されたと判断されれば、映像を記憶する段階と、を含むことを特徴とする監視システムでの動き検出方法。
  17. 前記(e2)段階は、
    (e20)前記入力された所定数の映像フレームを利用し、画素値の時間に対するラプラシアンが零交差する画素を検出する段階と、
    (e22)前記入力された所定数の映像フレームを利用し、画素値の時間に対する分散値を計算する段階と、
    (e24)前記(e20)段階で前記ラプラシアンが零交差すると検出された画素の時間に対する分散値が所定臨界値以上であるかを判断し、前記画素の前記分散値が所定臨界値以上である場合、前記画素を動き画素として決定する段階と、を含むことを特徴とする請求項16に記載の動き検出方法。
  18. 前記入力された映像フレームは2m個であり、1つの映像フレーム内にはn個の画素が存在する場合、
    前記(e20)段階は、
    (e200)前記映像フレーム群で{f(t1)、f(t2)、f(t3)…、f(t2m-1)}の各映像フレームに所定の加重値を乗じて平均して∇2f(tm)を求める段階と、
    (e202)前記映像フレーム群で{f(t2)、f(t3)、f(t4)…、f(t2m)}の各映像フレームに所定の加重値を乗じて平均して∇2f(tm+1)を求める段階と、
    (e204)前記∇2f(tm)が負数であり、前記∇2f(tm+1)が正数であるか、前記∇2f(tm)が正数であり、前記∇2f(tm+1)が負数であれば、前記画素を零交差の画素として決定する段階と、を含み、
    ここで、{f(t1)、f(t2)、f(t3)…、f(t2m)}は現在処理される画素の画素値であり、前記(e200)段階ないし前記(e204)段階はn回反復的に実行されることを特徴とする請求項17に記載の動き検出方法。
  19. 前記(e3)段階は、
    前記(e2)段階で前記動き画素として決定された画素の数が所定数以上であるかを判断し、所定数以上である場合、動きが検出されたと判断することを特徴とする請求項17に記載の動き検出方法。
  20. 前記(e20)段階前に、
    入力された前記映像フレームをガウシアンフィルタリングによって平滑化する段階をさらに含むことを特徴とする請求項17に記載の動き検出方法。
  21. デジタルビデオカメラによって端末機に接近した物体を撮影して入力した映像からユーザーを検出する装置において、
    前記人物検出方法で使われる変数を初期化する手段と、
    顔検出モードであるかどうかを決定する検出モード判断手段と、
    顔検出モードであれば、入力される映像フレーム毎に顔検出を実行し、顔検出を所定回数試みても顔が検出されなければ、動き検出モードを選択する顔検出手段と、
    顔検出モードでなければ、所定数の映像フレームを1つの単位で入力して動き検出を実行し、所定時間内に前記動き検出が所定回数以上成功すれば、変数を初期化する動き検出手段と、を含むことを特徴とする人物検出装置。
  22. 前記動き検出手段は、
    ガボールウェーブレット変換を使用して顔の候補領域を検出する手段を含むことを特徴とする請求項21に記載の人物検出装置。
  23. 前記動き検出手段は、
    低解像度SVMおよび高解像度SVMを使用して顔を検出する手段を含むことを特徴とする請求項22に記載の人物検出装置。
  24. 前記動き検出手段は、
    前記撮影された1つの映像フレームを入力する手段と、
    顔検出試み回数を+1増加させる手段と、
    M−グリッドガボールウェーブレット基盤でモデルの顔形態をトレーニングして顔の候補領域を検出し、顔の候補領域が検出されたか否かを判断する顔の候補領域検出手段と、
    顔の候補領域が検出された場合、低解像度SVMによって顔検出を実行し、顔が検出されたか否かを判断する低解像度顔検出手段と、
    低解像度SVMによって顔が検出された場合、高解像度SVMによって顔検出を実行し、顔が検出されたかを判断する高解像度顔検出手段と、
    高解像度SVMによって顔が検出された場合、該当する映像フレームを記憶し、顔検出試み回数を初期化し、顔検出モードを維持する手段と、
    顔の候補領域が検出されない場合、低解像度SVMによって顔が検出されていない場合、または高解像度SVMによって顔が検出されていない場合に、顔検出試み回数が第1臨界値以上であるかどうかを判断し、第1臨界値以上ではない場合、顔検出モードを維持する手段と、
    顔検出試み回数が第1臨界値以上である場合、動き検出モードを選択する手段と、を含むことを特徴とする請求項23に記載の人物検出装置。
  25. 前記顔の候補領域検出手段は、
    両目間の距離および両目を連結する線と口との間の距離を基準として前記モデルの顔形態をトレーニングするM−グリッドの間隔を決定する手段を含むことを特徴とする請求項24に記載の人物検出装置。
  26. 前記低解像度SVMによって顔検出を実行する手段および前記高解像度SVMによって顔検出を実行する手段はそれぞれ、
    PCA副空間でトレーニングされたSVM分類技法によって顔検出を実行する手段を含むことを特徴とする請求項24に記載の人物検出装置。
  27. 低解像度SVMによって顔検出を実行する手段は、
    前記顔の候補領域検出手段で検出された顔の候補領域周辺の所定位置を基準として所定サイズの領域を選定し、前記選定された領域に対して低解像度SVMによる顔検出を実行し、前記顔の候補領域を含む周辺の所定領域が何れもスキャンされるように前記選定領域を拡張および移動しながら低解像度SVMによって顔検出を実行する手段を含むことを特徴とする請求項26に記載の人物検出装置。
  28. 高解像度SVMによって顔検出を実行する手段は、
    前記低解像度顔検出手段で検出された顔領域周辺の所定位置を基準として所定サイズの領域を選定して前記選定された領域に対して高解像度SVMによる顔検出を実行し、前記顔領域を含む周辺の所定領域が全てスキャンされるように前記選定領域を拡張および移動しながら高解像度SVMによる顔検出を実行する手段を含むことを特徴とする請求項26に記載の人物検出装置。
  29. 前記動き検出手段は、
    時間的なエッジ検出アルゴリズムによって前記動き検出を実行する手段を含むことを特徴とする請求項21に記載の人物検出装置。
  30. 前記動き検出手段は、
    所定数の映像フレームを入力する手段と、
    動き検出試み回数を+1増加させる手段と、
    時間的なエッジ検出アルゴリズムおよび時間に対する画素値の分散値比較によって前記撮影された映像内の動きを検出する手段と、
    動きが検出されたかどうかを判断する手段と、
    動きが検出されたとすれば、動き検出成功回数を+1増加させ、映像を記憶する手段と、
    動き検出試み回数が第3臨界値未満であり、動き検出成功回数が第2臨界値以上である条件を満足するかどうかを判断し、前記条件を満足すれば、変数を初期化させ、前記条件を満足しなければ、現在の変数値を維持する手段と、
    動きが検出されないか、前記変数初期化条件を満足しないと判断されれば、動き検出試み回数が第3臨界値以上であるかを判断し、前記第3臨界値以上ではない場合、変数値を維持し、所定数の映像フレームを入力して動き検出を実行する手段と、
    動き検出試み回数COUNT_MDが第3臨界値以上である場合、動き検出試み回数COUNT_MDおよび動き検出成功回数SUCCESS_MDを初期化し、所定数の映像フレームを入力して動き検出を実行させる手段と、を含むことを特徴とする請求項29に記載の人物検出装置。
  31. 前記撮影された映像内の動きを検出する手段は、
    前記入力された所定数の映像フレームを利用し、画素値の時間に対するラプラシアンが零交差する画素を検出する手段と、
    前記入力された所定数の映像フレームを利用し、画素値の時間に対する分散値を計算する手段と、
    前記ラプラシアンが零交差すると検出された画素の時間に対する分散値が所定臨界値以上であるかを判断し、前記画素の前記分散値が所定臨界値以上である場合、前記画素を動き画素として決定する手段と、を含むことを特徴とする請求項30に記載の人物検出装置。
  32. 前記画素値の時間に対するラプラシアンが零交差する画素を検出する手段は、
    前記映像フレーム群で{f(t1)、f(t2)、f(t3)…、f(t2m-1)}の各映像フレームに所定の加重値を乗じて平均してf(tm)の時間に対するラプラシアン∇2f(tm)を求める手段と、
    前記映像フレーム群で{f(t2)、f(t3)、f(t4)…、f(t2m)}の各映像フレームに所定の加重値を乗じて平均してf(tm+1)の時間に対するラプラシアン∇2f(tm+1)を求める手段と、
    前記∇2f(tm)が負数であり、前記∇2f(tm+1)が正数であるか、前記∇2f(tm)が正数であり、前記∇2f(tm+1)が負数であれば、前記画素を零交差の画素として決定する手段と、を含み、
    ここで、前記入力された映像フレームは2m個であり、1つの映像フレーム内にはn個の画素が存在し、{f(t1)、f(t2)、f(t3)…、f(t2m)}は現在処理される画素の画素値であり、前記各手段で実行される処理作業はn回反復的に実行されることを特徴とする請求項31に記載の人物検出装置。
  33. 前記動きが検出されたかを判断する手段は、
    前記動き画素として決定された画素の数が所定数以上であるかを判断し、所定数以上である場合、動き検出されたと判断する手段を含むことを特徴とする請求項31に記載の人物検出装置。
  34. 入力された前記映像フレームをガウシアンフィルタリングによって平滑化し、前記平滑化された映像フレームを前記動き検出手段に伝送する手段をさらに含むことを特徴とする請求項31に記載の人物検出装置。
  35. 前記動き検出手段は、
    所定の時間で動き検出の実行を中止して、その後顔検出を実行する手段をさらに含むことを特徴とする請求項21に記載の人物検出装置。
  36. デジタルビデオカメラによって端末機に接近した物体を撮影して入力した映像から動きを検出する装置において、
    所定数の映像フレームを入力する手段と、
    時間的なエッジ検出アルゴリズムおよび時間に対する画素値の分散値の比較によって前記撮影された映像内の動きを検出する手段と、
    動きが検出されたかどうかを判断する手段と、
    動きが検出されたと判断されれば、映像を記憶する手段と、を含むことを特徴とする動き検出装置。
  37. 前記撮影された映像内の動きを検出する手段は、
    前記入力された所定数の映像フレームを利用し、画素値の時間に対するラプラシアンが零交差する画素を検出する手段と、
    前記入力された所定数の映像フレームを利用し、画素値の時間に対する分散値を計算する手段と、
    前記ラプラシアンが零交差すると検出された画素の時間に対する分散値が所定臨界値以上であるかどうかを判断し、前記画素の前記分散値が所定臨界値以上である場合、前記画素を動き画素として決定する手段と、を含むことを特徴とする請求項36に記載の動き検出装置。
  38. 前記画素値の時間に対するラプラシアンが零交差する画素を検出する手段は、
    前記映像フレーム群で{f(t1)、f(t2)、f(t3)…、f(t2m-1)}の各映像フレームに所定の加重値を乗じて平均してf(tm)の時間に対するラプラシアン∇2f(tm)を求める手段と、
    前記映像フレーム群で{f(t2)、f(t3)、f(t4)…、f(t2m)}の各映像フレームに所定の加重値を乗じて平均してf(tm+1)の時間に対するラプラシアン∇2f(tm+1)を求める手段と、
    前記∇2f(tm)が負数であり、前記∇2f(tm+1)が正数であるか、前記∇2f(tm)が正数であり、前記∇2f(tm+1)が負数であれば、前記画素を零交差の画素として決定する手段と、を含み、
    ここで、前記入力された映像フレームは2m個であり、1つの映像フレーム内にはn個の画素が存在し、{f(t1)、f(t2)、f(t3)…、f(t2m)}は現在処理される画素の画素値であり、前記各手段で実行される処理作業はn回反復的に実行されることを特徴とする請求項37に記載の動き検出装置。
  39. 前記動きが検出されたかを判断する手段は、
    前記動き画素として決定された画素の数が所定数以上であるかを判断し、所定数以上である場合、動き検出されたと判断する手段を含むことを特徴とする請求項37に記載の動き検出装置。
  40. 入力された前記映像フレームをガウシアンフィルタリングによって平滑化し、前記平滑化された映像フレームを前記撮影された映像内の動きを検出する手段に伝送する手段をさらに含むことを特徴とする請求項37に記載の動き検出装置。
JP2003408897A 2002-12-06 2003-12-08 人物検出方法および装置 Expired - Fee Related JP4275516B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0077241A KR100455294B1 (ko) 2002-12-06 2002-12-06 감시 시스템에서의 사용자 검출 방법, 움직임 검출 방법및 사용자 검출 장치

Publications (2)

Publication Number Publication Date
JP2004192646A true JP2004192646A (ja) 2004-07-08
JP4275516B2 JP4275516B2 (ja) 2009-06-10

Family

ID=32310893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003408897A Expired - Fee Related JP4275516B2 (ja) 2002-12-06 2003-12-08 人物検出方法および装置

Country Status (6)

Country Link
US (2) US7409091B2 (ja)
EP (1) EP1426898B1 (ja)
JP (1) JP4275516B2 (ja)
KR (1) KR100455294B1 (ja)
CN (2) CN100504910C (ja)
DE (1) DE60313941T2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310397A (ja) * 2003-04-07 2004-11-04 Toyota Central Res & Dev Lab Inc マスク着用判定装置
JP2006079382A (ja) * 2004-09-10 2006-03-23 Hitachi Omron Terminal Solutions Corp 情報処理装置、不正者検出方法および現金自動預け払い装置
JP2012034024A (ja) * 2010-07-28 2012-02-16 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2012243206A (ja) * 2011-05-23 2012-12-10 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、画像処理装置および画像処理プログラム
JP2014525613A (ja) * 2011-08-18 2014-09-29 クアルコム,インコーポレイテッド 写真を自動的に共有するためのスマートカメラ
WO2019013246A1 (ja) * 2017-07-14 2019-01-17 オムロン株式会社 物体検出装置、物体検出方法、およびプログラム

Families Citing this family (114)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7359529B2 (en) * 2003-03-06 2008-04-15 Samsung Electronics Co., Ltd. Image-detectable monitoring system and method for using the same
JP4121026B2 (ja) * 2004-01-21 2008-07-16 富士フイルム株式会社 撮像装置および方法並びにプログラム
GB2414616A (en) * 2004-05-28 2005-11-30 Sony Uk Ltd Comparing test image with a set of reference images
JP4320272B2 (ja) * 2004-03-31 2009-08-26 富士フイルム株式会社 特定領域検出方法、特定領域検出装置、およびプログラム
US7620242B2 (en) * 2004-04-06 2009-11-17 Fujifilm Corporation Particular-region detection method and apparatus, and program therefor
KR100552709B1 (ko) * 2004-05-21 2006-02-20 삼성전자주식회사 눈검출 장치 및 방법
US9578345B2 (en) 2005-03-31 2017-02-21 Euclid Discoveries, Llc Model-based video encoding and decoding
US9532069B2 (en) 2004-07-30 2016-12-27 Euclid Discoveries, Llc Video compression repository and model reuse
US9743078B2 (en) 2004-07-30 2017-08-22 Euclid Discoveries, Llc Standards-compliant model-based video encoding and decoding
JP4928451B2 (ja) 2004-07-30 2012-05-09 ユークリッド・ディスカバリーズ・エルエルシー ビデオデータを処理する装置および方法
US8902971B2 (en) 2004-07-30 2014-12-02 Euclid Discoveries, Llc Video compression repository and model reuse
US20080080744A1 (en) * 2004-09-17 2008-04-03 Mitsubishi Electric Corporation Face Identification Apparatus and Face Identification Method
AU2005286786B2 (en) * 2004-09-21 2010-02-11 Euclid Discoveries, Llc Apparatus and method for processing video data
JP4459788B2 (ja) * 2004-11-16 2010-04-28 パナソニック株式会社 顔特徴照合装置、顔特徴照合方法、及びプログラム
US20060132856A1 (en) * 2004-11-26 2006-06-22 Fuji Photo Film Co., Ltd. Image forming method and image forming apparatus
US8406695B2 (en) * 2004-12-23 2013-03-26 Qualcomm Incorporated Joint interference cancellation of pilot, overhead and traffic channels
JP2008529414A (ja) * 2005-01-28 2008-07-31 ユークリッド・ディスカバリーズ・エルエルシー ビデオデータを処理する装置および方法
KR100698179B1 (ko) * 2005-02-21 2007-03-22 엘지전자 주식회사 영상기기 및 그의 운용 방법
AU2006230545B2 (en) * 2005-03-31 2010-10-28 Euclid Discoveries, Llc Apparatus and method for processing video data
US8908766B2 (en) 2005-03-31 2014-12-09 Euclid Discoveries, Llc Computer method and apparatus for processing image data
KR100735549B1 (ko) * 2005-08-08 2007-07-04 삼성전자주식회사 영상의 피부색을 변환하는 영상 처리 방법 및 장치
JP2007072520A (ja) * 2005-09-02 2007-03-22 Sony Corp 映像処理装置
US8098885B2 (en) * 2005-11-02 2012-01-17 Microsoft Corporation Robust online face tracking
US8265392B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
US8150155B2 (en) 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
US8265349B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
TWI325124B (en) * 2006-05-10 2010-05-21 Realtek Semiconductor Corp Motion detection method and related apparatus
JP4172507B2 (ja) * 2006-07-13 2008-10-29 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
TWI324313B (en) * 2006-08-25 2010-05-01 Compal Electronics Inc Identification mathod
KR100882509B1 (ko) * 2006-09-20 2009-02-06 연세대학교 산학협력단 주성분 요소방법을 이용한 노인 움직임 영상 감시 장치 및방법
US7986336B2 (en) * 2006-11-27 2011-07-26 Eastman Kodak Company Image capture apparatus with indicator
CN101622874A (zh) 2007-01-23 2010-01-06 欧几里得发现有限责任公司 对象存档系统和方法
CA2676023C (en) 2007-01-23 2015-11-17 Euclid Discoveries, Llc Systems and methods for providing personal video services
KR20080073933A (ko) 2007-02-07 2008-08-12 삼성전자주식회사 객체 트래킹 방법 및 장치, 그리고 객체 포즈 정보 산출방법 및 장치
KR100851981B1 (ko) * 2007-02-14 2008-08-12 삼성전자주식회사 비디오 영상에서 실 객체 판별 방법 및 장치
JP4789825B2 (ja) * 2007-02-20 2011-10-12 キヤノン株式会社 撮像装置及びその制御方法
US20090016571A1 (en) * 2007-03-30 2009-01-15 Louis Tijerina Blur display for automotive night vision systems with enhanced form perception from low-resolution camera images
JP4315212B2 (ja) * 2007-05-02 2009-08-19 カシオ計算機株式会社 撮像装置、撮像制御プログラム及び撮像制御方法
US20090041311A1 (en) * 2007-08-09 2009-02-12 Jon Hundley Facial recognition based content blocking system
US8605786B2 (en) * 2007-09-04 2013-12-10 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
JP2009089174A (ja) * 2007-10-01 2009-04-23 Fujifilm Corp デジタルカメラおよびその撮影方法
US8064697B2 (en) * 2007-10-12 2011-11-22 Microsoft Corporation Laplacian principal components analysis (LPCA)
KR101396326B1 (ko) 2007-10-12 2014-05-16 삼성전자주식회사 얼굴 검출을 위한 디지털 영상 처리 장치의 제어 방법 및이 방법을 채용한 디지털 영상 처리 장치
KR100918436B1 (ko) * 2007-11-27 2009-09-24 계명대학교 산학협력단 비전 기반의 화재 감지 시스템 및 방법
CN100589114C (zh) * 2007-12-29 2010-02-10 北京中星微电子有限公司 图像中最大人脸的跟踪装置和方法
US9639740B2 (en) 2007-12-31 2017-05-02 Applied Recognition Inc. Face detection and recognition
EP2075400B1 (en) * 2007-12-31 2012-08-08 March Networks S.p.A. Video monitoring system
US9721148B2 (en) 2007-12-31 2017-08-01 Applied Recognition Inc. Face detection and recognition
CA2897227C (en) * 2007-12-31 2017-01-10 Applied Recognition Inc. Method, system, and computer program for identification and sharing of digital images with face signatures
US8538171B2 (en) * 2008-03-28 2013-09-17 Honeywell International Inc. Method and system for object detection in images utilizing adaptive scanning
KR101299249B1 (ko) * 2008-08-29 2013-08-22 삼성테크윈 주식회사 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기 위한 프로그램을 저장한 기록매체
CN101350906B (zh) * 2008-09-04 2012-06-27 北京中星微电子有限公司 图像矫正方法和图像矫正装置
US20100079508A1 (en) 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
JP5567021B2 (ja) 2008-10-07 2014-08-06 ユークリッド・ディスカバリーズ・エルエルシー 特徴を基礎とするビデオ圧縮
US8144945B2 (en) * 2008-12-04 2012-03-27 Nokia Corporation Method, apparatus and computer program product for providing an orientation independent face detector
JP5247480B2 (ja) * 2009-01-13 2013-07-24 キヤノン株式会社 オブジェクト識別装置及びオブジェクト識別方法
US8224042B2 (en) 2009-03-12 2012-07-17 Seiko Epson Corporation Automatic face recognition
KR101007281B1 (ko) * 2009-05-20 2011-01-13 한국전자통신연구원 원거리 얼굴 추적 장치 및 이를 이용한 얼굴 추적 방법
KR101038323B1 (ko) 2009-09-24 2011-06-01 주식회사 팬택 영상인식기법을 이용한 화면 프레임 제어장치
US8605956B2 (en) * 2009-11-18 2013-12-10 Google Inc. Automatically mining person models of celebrities for visual search applications
JP5476955B2 (ja) * 2009-12-04 2014-04-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
TW201120812A (en) * 2009-12-04 2011-06-16 Huper Lab Co Ltd Stabilization method for vibrating video frames
KR101694820B1 (ko) 2010-05-07 2017-01-23 삼성전자주식회사 사용자 위치 인식 방법 및 장치
US9047531B2 (en) 2010-05-21 2015-06-02 Hand Held Products, Inc. Interactive user interface for capturing a document in an image signal
US8600167B2 (en) 2010-05-21 2013-12-03 Hand Held Products, Inc. System for capturing a document in an image signal
CN102298702B (zh) * 2010-06-28 2015-08-05 北京中星微电子有限公司 一种人体姿态的检测方法及装置
US9384408B2 (en) 2011-01-12 2016-07-05 Yahoo! Inc. Image analysis system and method using image recognition and text search
CN102214308B (zh) * 2011-05-17 2013-04-24 詹东晖 一种行人检测方法、系统
US9552376B2 (en) 2011-06-09 2017-01-24 MemoryWeb, LLC Method and apparatus for managing digital files
US8548207B2 (en) 2011-08-15 2013-10-01 Daon Holdings Limited Method of host-directed illumination and system for conducting host-directed illumination
US8635519B2 (en) 2011-08-26 2014-01-21 Luminate, Inc. System and method for sharing content based on positional tagging
KR101381439B1 (ko) * 2011-09-15 2014-04-04 가부시끼가이샤 도시바 얼굴 인식 장치 및 얼굴 인식 방법
US20130086112A1 (en) 2011-10-03 2013-04-04 James R. Everingham Image browsing system and method for a digital content platform
US8737678B2 (en) 2011-10-05 2014-05-27 Luminate, Inc. Platform for providing interactive applications on a digital content platform
USD737290S1 (en) 2011-10-10 2015-08-25 Yahoo! Inc. Portion of a display screen with a graphical user interface
USD736224S1 (en) 2011-10-10 2015-08-11 Yahoo! Inc. Portion of a display screen with a graphical user interface
US9202105B1 (en) 2012-01-13 2015-12-01 Amazon Technologies, Inc. Image analysis for user authentication
JP5306500B2 (ja) * 2012-02-29 2013-10-02 株式会社東芝 画像処理装置、画像処理方法及びプログラム
US8255495B1 (en) 2012-03-22 2012-08-28 Luminate, Inc. Digital image and content display systems and methods
US8234168B1 (en) 2012-04-19 2012-07-31 Luminate, Inc. Image content and quality assurance system and method
US8495489B1 (en) 2012-05-16 2013-07-23 Luminate, Inc. System and method for creating and displaying image annotations
CN102930287B (zh) * 2012-09-26 2015-09-02 上海理工大学 一种针对俯视行人的检测计数系统及方法
CN103996205B (zh) * 2013-02-15 2019-01-08 三星电子株式会社 一种电子设备和操作电子设备的方法
JP6369470B2 (ja) * 2013-09-26 2018-08-08 日本電気株式会社 情報処理システム
US9471847B2 (en) * 2013-10-29 2016-10-18 Nec Corporation Efficient distance metric learning for fine-grained visual categorization
JP5888348B2 (ja) * 2014-01-23 2016-03-22 カシオ計算機株式会社 撮像装置、撮像制御方法、及びプログラム
US10091507B2 (en) 2014-03-10 2018-10-02 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US9621917B2 (en) 2014-03-10 2017-04-11 Euclid Discoveries, Llc Continuous block tracking for temporal prediction in video encoding
US10097851B2 (en) 2014-03-10 2018-10-09 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
CN103971093A (zh) * 2014-04-22 2014-08-06 大连理工大学 基于多尺度lbp算法的疲劳检测方法
CN104008389A (zh) * 2014-06-16 2014-08-27 河南科技大学 结合Gabor小波和SVM进行物体识别的方法
US10803160B2 (en) 2014-08-28 2020-10-13 Facetec, Inc. Method to verify and identify blockchain with user question data
US10614204B2 (en) 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
US10698995B2 (en) 2014-08-28 2020-06-30 Facetec, Inc. Method to verify identity using a previously collected biometric image/data
US11256792B2 (en) 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
US10915618B2 (en) 2014-08-28 2021-02-09 Facetec, Inc. Method to add remotely collected biometric images / templates to a database record of personal information
CA3186147A1 (en) 2014-08-28 2016-02-28 Kevin Alan Tussy Facial recognition authentication system including path parameters
EP3035238A1 (en) 2014-12-19 2016-06-22 Tata Consultancy Services Limited Video surveillance system and method for fraud detection
US9804955B2 (en) * 2015-07-28 2017-10-31 TestPlant Europe Limited Method and apparatus for creating reference images for an automated test of software with a graphical user interface
US10200572B1 (en) 2016-03-03 2019-02-05 Amazon Technologies, Inc Motion detection
USD987653S1 (en) 2016-04-26 2023-05-30 Facetec, Inc. Display screen or portion thereof with graphical user interface
US10460300B2 (en) * 2016-06-01 2019-10-29 Multimedia Image Solution Limited Method of preventing fraud and theft during automated teller machine transactions and related system
US10297059B2 (en) 2016-12-21 2019-05-21 Motorola Solutions, Inc. Method and image processor for sending a combined image to human versus machine consumers
US10915760B1 (en) 2017-08-22 2021-02-09 Objectvideo Labs, Llc Human detection using occupancy grid maps
US11068741B2 (en) * 2017-12-28 2021-07-20 Qualcomm Incorporated Multi-resolution feature description for object recognition
US11245707B2 (en) * 2018-03-31 2022-02-08 Ricoh Company, Ltd. Communication terminal, communication system, communication control method, and recording medium
CN109145716B (zh) * 2018-07-03 2019-04-16 南京思想机器信息科技有限公司 基于脸部识别的登机口检验平台
US10936178B2 (en) 2019-01-07 2021-03-02 MemoryWeb, LLC Systems and methods for analyzing and organizing digital photos and videos
RU2713615C1 (ru) * 2019-03-28 2020-02-05 Общество с ограниченной ответственностью "Арсенал 67" Система детектирования, поиска, распознавания и фиксации лица
CN110097673A (zh) * 2019-05-17 2019-08-06 北京深醒科技有限公司 一种基于红外摄像头下的门禁识别方法
CN110751120A (zh) * 2019-10-28 2020-02-04 杭州宇泛智能科技有限公司 一种检测方法、装置及电子设备
US11436445B2 (en) * 2020-04-06 2022-09-06 Qualcomm Incorporated Methods and apparatus for adaptive object classification
US11706546B2 (en) * 2021-06-01 2023-07-18 Sony Semiconductor Solutions Corporation Image sensor with integrated single object class detection deep neural network (DNN)
CN114154569B (zh) * 2021-11-25 2024-02-02 上海帜讯信息技术股份有限公司 噪音数据识别方法、装置、终端及存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5164992A (en) * 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
JPH0686295A (ja) * 1992-08-31 1994-03-25 Toshiba Corp 監視カメラ装置
KR100209793B1 (ko) * 1995-10-28 1999-07-15 전주범 특징점 기반 움직임 추정을 이용하여 비디오 신호를 부호화 및 복호화하는 장치
KR100200874B1 (ko) * 1996-01-17 1999-06-15 윤종용 움직임 검출에 의한 선택적 기록 장치 및 방법
US5767922A (en) * 1996-04-05 1998-06-16 Cornell Research Foundation, Inc. Apparatus and process for detecting scene breaks in a sequence of video frames
JP3613301B2 (ja) * 1996-06-20 2005-01-26 株式会社富士通ゼネラル 映像監視追跡装置
US5995115A (en) 1997-04-04 1999-11-30 Avid Technology, Inc. Computer system process and user interface for providing intelligent scissors for image composition
US6272231B1 (en) * 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
KR100306355B1 (ko) * 1998-08-31 2001-11-30 안재인 사용자식별시스템및이를이용한현금인출기
US7050655B2 (en) * 1998-11-06 2006-05-23 Nevengineering, Inc. Method for generating an animated three-dimensional video head
KR100532990B1 (ko) * 1999-01-08 2005-12-02 엘지전자 주식회사 카메라의 움직임 검출 방법
KR100293897B1 (ko) * 1999-03-23 2001-06-15 박광소 은행거래시스템의 거래자 안면인식방법
US20030059124A1 (en) * 1999-04-16 2003-03-27 Viisage Technology, Inc. Real-time facial recognition and verification system
KR100364582B1 (ko) * 2000-04-28 2002-12-16 주식회사 네트웍코리아 다중 이동물체 추적/감시 시스템
EP1229734A1 (en) 2001-01-31 2002-08-07 GRETAG IMAGING Trading AG Automatic colour defect correction
KR20010044393A (ko) * 2001-02-16 2001-06-05 김영익 인간의 얼굴정보를 이용한 출입통제 및 보안 방법
US6917703B1 (en) * 2001-02-28 2005-07-12 Nevengineering, Inc. Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network
JP2002358523A (ja) * 2001-05-31 2002-12-13 Canon Inc パターン認識処理装置及びその方法、画像入力装置
US6834115B2 (en) * 2001-08-13 2004-12-21 Nevengineering, Inc. Method for optimizing off-line facial feature tracking
US7245315B2 (en) * 2002-05-20 2007-07-17 Simmonds Precision Products, Inc. Distinguishing between fire and non-fire conditions using cameras
US7280696B2 (en) 2002-05-20 2007-10-09 Simmonds Precision Products, Inc. Video detection/verification system
KR100513739B1 (ko) * 2002-08-23 2005-09-09 삼성전자주식회사 얼굴특징을 이용한 움직임 검출장치 및 이를 적용한감시시스템

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310397A (ja) * 2003-04-07 2004-11-04 Toyota Central Res & Dev Lab Inc マスク着用判定装置
JP2006079382A (ja) * 2004-09-10 2006-03-23 Hitachi Omron Terminal Solutions Corp 情報処理装置、不正者検出方法および現金自動預け払い装置
JP4686153B2 (ja) * 2004-09-10 2011-05-18 日立オムロンターミナルソリューションズ株式会社 情報処理装置、不正者検出方法および現金自動預け払い装置
JP2012034024A (ja) * 2010-07-28 2012-02-16 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2012243206A (ja) * 2011-05-23 2012-12-10 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、画像処理装置および画像処理プログラム
JP2014525613A (ja) * 2011-08-18 2014-09-29 クアルコム,インコーポレイテッド 写真を自動的に共有するためのスマートカメラ
US10089327B2 (en) 2011-08-18 2018-10-02 Qualcomm Incorporated Smart camera for sharing pictures automatically
WO2019013246A1 (ja) * 2017-07-14 2019-01-17 オムロン株式会社 物体検出装置、物体検出方法、およびプログラム
JP2019021001A (ja) * 2017-07-14 2019-02-07 オムロン株式会社 物体検出装置、物体検出方法、およびプログラム
US11334775B2 (en) 2017-07-14 2022-05-17 Omron Corporation Object detection device, object detection method, and program

Also Published As

Publication number Publication date
DE60313941T2 (de) 2008-01-17
JP4275516B2 (ja) 2009-06-10
EP1426898A3 (en) 2005-10-12
EP1426898A2 (en) 2004-06-09
CN1963839A (zh) 2007-05-16
CN1523533A (zh) 2004-08-25
US20050094849A1 (en) 2005-05-05
US7409091B2 (en) 2008-08-05
KR20040049465A (ko) 2004-06-12
DE60313941D1 (de) 2007-07-05
EP1426898B1 (en) 2007-05-23
KR100455294B1 (ko) 2004-11-06
CN100504910C (zh) 2009-06-24
US20070258646A1 (en) 2007-11-08
US7486826B2 (en) 2009-02-03

Similar Documents

Publication Publication Date Title
JP4275516B2 (ja) 人物検出方法および装置
US5715325A (en) Apparatus and method for detecting a face in a video image
Padole et al. Periocular recognition: Analysis of performance degradation factors
JP4755202B2 (ja) 顔特徴の検出方法
Vishwakarma et al. Hybrid classifier based human activity recognition using the silhouette and cells
JP4575374B2 (ja) ビデオの時間的な画像シーケンス中の移動オブジェクトを検出する方法
Davison et al. Micro-facial movements: An investigation on spatio-temporal descriptors
US7957560B2 (en) Unusual action detector and abnormal action detecting method
US20140270402A1 (en) Gait recognition methods and systems
JP3768735B2 (ja) 顔画像処理装置
US20120057748A1 (en) Apparatus which detects moving object from image and method thereof
JP6234762B2 (ja) 眼部検出装置、方法、およびプログラム
US20190156113A1 (en) Multi-kernel fuzzy local gabor feature extraction method for automatic gait recognition
WO2009095168A1 (en) Detecting facial expressions in digital images
JP5726596B2 (ja) 画像監視装置
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
KR101542206B1 (ko) 코아스-파인 기법을 이용한 객체 추출과 추적 장치 및 방법
Mehrübeoglu et al. Real-time iris tracking with a smart camera
KR101473991B1 (ko) 얼굴 검출 방법 및 그 장치
KR102329466B1 (ko) 실시간 얼굴 인식장치 및 방법
KR20160017152A (ko) 이진 하르 캐스케이드에 기반한 성별 분류 방법
Ahn et al. Human silhouette extraction method using region based background subtraction
Negri et al. Pedestrian detection on CAVIAR dataset using a movement feature space
Reddy et al. Driver drowsiness monitoring based on eye map and mouth contour
Aghagolzadeh et al. Multiscale face detection: A new approach to robust face detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051012

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090203

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090304

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120313

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120313

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140313

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees