JP2000082147A - ヒトの顔を検出する方法および装置、ならびに観察者トラッキングディスプレイ - Google Patents

ヒトの顔を検出する方法および装置、ならびに観察者トラッキングディスプレイ

Info

Publication number
JP2000082147A
JP2000082147A JP11250399A JP25039999A JP2000082147A JP 2000082147 A JP2000082147 A JP 2000082147A JP 11250399 A JP11250399 A JP 11250399A JP 25039999 A JP25039999 A JP 25039999A JP 2000082147 A JP2000082147 A JP 2000082147A
Authority
JP
Japan
Prior art keywords
image
face
candidate
saturation
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11250399A
Other languages
English (en)
Other versions
JP3761059B2 (ja
Inventor
Qi He Hong
ヘ ホン キ
Nicolas Steven Holliman
スティーブン ホリマン ニコラス
David Ezra
エズラ デービッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JP2000082147A publication Critical patent/JP2000082147A/ja
Application granted granted Critical
Publication of JP3761059B2 publication Critical patent/JP3761059B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/33Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving directional light or back-light sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes

Abstract

(57)【要約】 【課題】 入力ビデオ画像ストリームまたはシーケンス
中でヒトの顔を自動的に検出するための方法および装置
を提供する。 【解決手段】 画像中のヒトの顔を検出する方法であっ
て、顔候補領域を画像中に見いだすステップと、顔の特
徴を示す第1の特徴について顔候補領域を分析するステ
ップとを包含し、第1の特徴が第1および第2の極小値
の間に配置された極大値を含むほぼ対称な水平方向輝度
曲線図を含み、分析ステップが、顔候補領域の一部の垂
直方向積分投射を形成するステップと、垂直方向積分投
射が極大値に対してほぼ対称的に配置された第1および
第2の極小値を有するかどうかを判定するステップとを
含む方法が提供される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ヒトの顔を検出す
るための方法および装置に関する。このような方法は、
例えば、画像トラッキングシステムの初期化ステージ
で、ターゲット画像をキャプチャするために使用され得
る。本発明はまた、このような装置を含む画像トラッキ
ングシステムを使用する、自動立体型などの観察者トラ
ッキングディスプレイに関する。
【0002】このような方法および装置の他の用途に
は、安全監視、ビデオおよび画像圧縮、ビデオ会議、マ
ルチメディアデータベース検索、コンピュータゲーム、
運転手モニタリング、グラフィカルユーザインターフェ
ース、顔認識、ならびに個人識別が含まれる。
【0003】
【従来の技術】自動立体ディスプレイは、ビューアが、
2つの視野ウィンドウにおいて、目でこのようなディス
プレイを観察することによって、立体対を形成する2つ
の別個の画像を見ることを可能にする。このようなディ
スプレイの例は、欧州特許第0602934号、欧州特
許第0656555号、欧州特許第0708351号、
欧州特許第0726482号、および欧州特許第082
9743号に開示されている。添付の図面の図1は、公
知のタイプの観察者トラッキング自動立体ディスプレイ
の例を示す。
【0004】ディスプレイは、トラッキングシステム2
と協働するディスプレイシステム1を有する。トラッキ
ングシステム2は、センサ信号をトラッキングプロセッ
サ4に与えるトラッキングセンサ3を有する。トラッキ
ングプロセッサ4は、センサ信号から観察者位置データ
信号を得、観察者位置データ信号は、ディスプレイシス
テム1のディスプレイ制御プロセッサ5に与えられる。
プロセッサ5は、位置データ信号をウィンドウ操縦信号
に変換し、これをトラッキング機能を備えた(trac
ked)3Dディスプレイ7の操縦機構6に与える。こ
のように、観察者の目に対する視野ウィンドウは、観察
者の頭の動きに従うように操縦され、動作範囲内で、観
察者の目を適切な視野ウィンドウ内に維持する。
【0005】英国特許第2324428号および欧州特
許第0877274号は、観察者トラッキング自動立体
ディスプレイ用の、待ち時間が短く、更新(updat
e)周波数が高く、および測定精度が十分な観察者ビデ
オトラッキングシステムを開示する。添付の図面の図2
は、システムの一例を示す。このシステムは、トラッキ
ングセンサ3が、60Hzのフィールドレートで動作す
るSony XC999 NTSCビデオカメラを有
し、トラッキングプロセッサ4にマウス8が設けられ、
プロセッサ4が、150MHzで動作するR4400プ
ロセッサならびにカメラ3によってキャプチャされた各
フィールドについての640×240絵素(画素)の解
像度を有するビデオディジタイザおよびフレームストア
が設けられたIndyシリーズのシリコングラフィック
スエントリーレベルマシンを有する点で、添付の図面の
図1に示すシステムと異なる。カメラ3は、ディスプレ
イ7の上部に配置され、ディスプレイの前に座っている
観察者の方を向いている。観察者とカメラ3との通常の
距離は、約0.85メートルであり、この距離におい
て、観察者は、水平方向すなわちX方向に約450mm
内で、運動の自由度を有する。カメラによって形成され
る画像内の2つの画素間の距離は、X方向およびY方向
のそれぞれにおいて約0.67mmおよび1.21mm
である。Y解像度は、各インターレースされたフィール
ドが別々に使用されるため、半分になる。
【0006】添付の図面の図3は、プロセッサ4によっ
て行われるトラッキング方法を一般的な用語で示す。こ
の方法は、初期化ステージ9に続いてトラッキングステ
ージ10を含む。初期化ステージ9では、ターゲット画
像または「テンプレート」は、カメラ3からの画像の一
部を格納することによってキャプチャされる。ターゲッ
ト画像は、一般に、添付の図面の図4に参照符号11で
示す観察者の目の領域を含む。ターゲット画像またはテ
ンプレート11がうまくキャプチャされるとすぐに、観
察者トラッキングがトラッキングステージ10において
行われる。
【0007】グローバルターゲットまたはテンプレート
検索はステップ12で行われ、カメラ3によって生成さ
れる全画像内のターゲット画像の位置を検出する。ター
ゲット画像が見いだされると、動き検出はステップ13
で行われ、その後ローカルターゲットまたはテンプレー
ト検索がステップ14で行われる。テンプレートマッチ
ングステップ12および14は、テンプレート内のター
ゲット画像と、テンプレートが上に重ねられた各サブセ
クションとを相関させることによって行われる。最良の
相関値は、所定の閾値と比較され、ステップ15でトラ
ッキングが失われたかどうかをチェックする。トラッキ
ングが失われた場合、制御は、グローバルテンプレート
マッチングステップ12に戻る。トラッキングが失われ
ていなければ、制御はステップ13に戻る。動き検出1
3およびローカルテンプレートマッチング14は、トラ
ッキングループを形成し、トラッキングループは、トラ
ッキングが維持される限り行われる。動き検出ステップ
は、差分法(differential metho
d)によって位置データを提供する。差分法は、連続し
たフィールド間のターゲット画像の動きを判定し、これ
を先のフィールドに関して前ステップにおけるローカル
テンプレートマッチングで見いだされた位置に加える。
【0008】初期化ステージ9は、トラッキングが始ま
る前に、観察者のターゲット画像またはテンプレートを
得る。英国特許第2324428号および欧州特許第0
877274号に開示される初期化ステージは、対話型
方法(interactive method)を用い
る。対話型方法において、ディスプレイ7は、入力され
るビデオ画像を表示し、例えば、プロセッサ4において
実現される画像生成器は、添付の図面の図5に示すよう
に、ボーダー画像またはグラフィカルガイド16をディ
スプレイ上に生成する。例えば、マウス8の一部を形成
するユーザ作動可能な制御は、ボーダー画像内の画像領
域のキャプチャを手動によって駆動することを可能にす
る。
【0009】観察者は、必要なテンプレートサイズであ
るボーダー画像と共に、ディスプレイ7上の自分自身の
画像を観察する。観察者は、自分の両目の間の中間点を
グラフィカルガイド16の中央線に合わせ、例えば、マ
ウスボタンまたはキーボードのキーを押すことによっ
て、システムがテンプレートをキャプチャするように作
動させる。あるいは、この位置合わせは、マウス8を用
いてグラフィカルガイド16を所望の場所までドラッグ
することによっても成し遂げられ得る。
【0010】
【発明が解決しようとする課題】このような対話型テン
プレートキャプチャ技術の利点は、観察者が、受け入れ
可能な位置合わせ精度でテンプレートを選択することが
可能なことである。これには、人の顔の認識および目の
領域などの対象画像領域の選択が含まれる。人の視覚に
とってはこのプロセスは簡単なことであるが、このよう
なテンプレートキャプチャは、様々な照明条件下で異な
る年齢、性別、目の形、および皮膚の色を有する可能な
限りすべてのタイプの人々が対象になると、コンピュー
タには困難である。
【0011】しかし、このような対話型テンプレートキ
ャプチャ方法は、システムの使用ごとにテンプレートキ
ャプチャを行わなければならないので、通常の使用に不
都合である。ビジターなどの非通常ユーザにとっては、
システムを協働させる方法を学習しなければならないと
いった別の問題がある。例えば、新規ユーザは、グラフ
ィカルガイドと自分の顔とを位置合わせする方法を知る
必要があり得る。この位置合わせは、一見簡単なようで
あるが、多くの新規ユーザにとってやりづらいことがわ
かっている。したがって、トラッキングシステムの使用
がより簡単になり、市場でより受け入れやすくするよう
な構成に改善することが望ましい。
【0012】各ユーザに対してテンプレートキャプチャ
を繰り返すことを避けるために、ユーザの各キャプチャ
されたテンプレートをデータベースに格納することが可
能である。ユーザが最初にシステムを使用する場合、対
話型方法がテンプレートをキャプチャするために使用さ
れ得、そしてテンプレートは、データベースに格納され
る。同じユーザによって次に使用される場合は、データ
ベースが検索されてこのユーザのテンプレートを見つけ
るので、新規テンプレートを必要としなくてよい。各ユ
ーザは、例えば、照明の変化および顔の特徴の変化など
に適応するために1つ以上のテンプレートを与える必要
があり得る。したがって、この技術は、ディスプレイの
各回の使用ごとにテンプレートをキャプチャする必要が
ない利点があるが、ユーザの数が極めて少ない場合に限
って実用的である。そうでなければ、大規模なデータベ
ースを構築することが必要となり、それに伴って検索時
間が長くなり、任意の商業的実施が非常に難しくなる。
例えば、多くの一回限りのユーザを扱うPOS(poi
nt−of−sale)システムは、すべてのユーザを
含んだデータベースを格納することが簡単にはできな
い。
【0013】画像処理およびコンピュータビジョン技術
を使用して自動的にテンプレートをキャプチャすること
が可能である。これについては本質的に、顔認識のより
一般的な問題の一部である、顔および/または目検出の
問題である。完全な顔認識システムは、顔を自動的に検
出し、各顔から人物を識別できるべきである。識別のた
めに使用される多くの方法は検出にもまた使用され得る
が(その逆もまた然り)、自動顔検出のタスクは、識別
タスクとは異なる。
【0014】顔認識分野のコンピュータビジョン研究の
大半は、これまで識別タスクに集中されてきた。この例
は、R.BrunelliおよびT.Poggio、
「Facerecognitionthroughge
ometricalfeature」、Proceed
ingsofthe2ndEuropeanConfe
renceonComputerVision、792
−800頁、Genoa、1992年;米国特許第51
64992A号、M.TurkおよびA.Pentla
nd、「Eigenfacesforrecognit
ion」、JournalofCognitiveNe
uroscience第3巻、No.1、70−86
頁、ならびにA.L.Yuille、D.S.Cohe
nおよびP.W.Hallinam、「Feature
extractionfromfacesusingd
eformabletemplates」、Inter
nationalJournalofComputer
Vision、8(2)、99−111頁、1992年
において開示される。これらの例の多くは、自動顔検出
の必要性をはっきりと示してきたが、その問題点および
解決方法は、無視される傾向にあるか、または十分に説
明されていない。これらの公知の技術は、顔がすでに検
出されたこと、および顔の位置が画像中で既知であるこ
とを仮定するか、または顔および背景が容易に分離でき
るような状況に用途を限定する。限定的な束縛条件およ
び長い計算時間を必要とせずに信頼性のある検出率を達
成する公知の顔認識技術は、ほとんどない。
【0015】独国特許第19634768号は、ビデオ
ピクチャ中の顔を検出する方法を開示する。この方法
は、入力画像を予め格納された背景画像と比較して、2
値マスクを作成する。この2値マスクは、頭領域を見い
だすために使用でき、この頭領域は、さらに顔が存在す
るかどうかについて分析される。この方法は、変化のな
い制御された背景を必要とする。しかし、ユーザが自動
立体型ディスプレイを見ている間に、人々が背景中を移
動することは、珍しいことではない。
【0016】G.YangおよびT.S.Huang、
「Humanfacedetectionincomp
lexbackgrounds」、PatternRe
cognition、第27巻、No.1、53−63
頁、1994年は、階層的知識ベース技術を使用して、
制御されていない背景中でヒトの顔を見いだす方法を開
示する。この方法は、3つのレベルを含む。高い方の2
つのレベルは、異なる解像度のモザイク画像に基づく。
最も低いレベルにおいては、エッジ検出方法が提案され
る。このシステムは、白黒ピクチャ中でかなり広範囲の
種々のサイズを有する既知でないヒトの顔を見いだすこ
とができる。1セット40ピクチャを学習セットとし、
1セット60ピクチャを試験セットとして使用した実験
結果が報告された。各ピクチャは、512×512ピク
セルを有し、48×60から200×250ピクセルま
での範囲の顔サイズを許容する。このシステムは、83
%、すなわち60中50の検出率を達成した。顔を正し
く見いだしたことに加えて、偽の顔が試験セットの内の
28で検出された。この検出率は、比較的低いが、さら
に大きな問題は、各画像を処理するための計算時間が6
0〜120秒であることである。
【0017】米国特許第5012522号は、2分以内
のランダムな内容を有するビデオシーン中のヒトの顔を
見いだすこと、およびその見いだした顔を認識すること
が可能なシステムを開示する。オプションのモーション
検出機能を含む場合、見いだしおよび認識イベントは、
1分未満で生じる。このシステムは、E.J.Smit
h、「Developmentofautonomou
sfacerecognitionmachine」、
修士論文、Doc.#AD−A178852、AirF
orceInstituteofTechnolog
y、1986年12月に開示された、速度および検出ス
コアを改善された、以前の自律型顔認識マシン(AFR
M)に基づく。このAFRMは、皮質思考理論(Cor
ticalThoughtTheory(CTT))を
使用して開発された自動「顔ファインダー」を含むこと
によって以前の顔認識マシンから開発された。CTT
は、所定パターンの「ゲシュタルト」を計算するアルゴ
リズムの使用を含む。この理論によると、ゲシュタルト
は、ヒトの脳によって一意に、2次元画像などのエンテ
ィティに割り当てられた本質、すなわち「単一特徴付け
(singlecharacterisation)」
を表す。顔ファインダーは、所定の顔の特徴、すなわち
「署名」となる画像を検索することによって機能する。
顔署名は、ほとんどの顔画像に存在し、顔が全く存在し
ない場合にはまれにしか存在しない。
【0018】AFRMにおいて最も重要な顔署名は、目
署名である。目署名は、画像から列を抽出し、各列につ
いて計算されたゲシュタルトの結果をプロットすること
によって生成される。まず、8ピクセル(縦)×192
ピクセル(横)のウインドウが、128×192ピクセ
ルの画像領域から抽出される。次に、この8×192ピ
クセルのウインドウは、新しい64×192ピクセルの
画像の上に配置される。この64×192ピクセルの画
像の残りの行は、背景グレーレベル強度で埋められる。
この背景グレーレベル強度は、例えば、0が黒を表すと
して、全部で16グレーレベルある内 の12である。
次に、この結果得られた画像は、画像中の192の垂直
列の各々についてゲシュタルトポイントを計算すること
によって、目署名に変換される。これは、ゲシュタルト
ポイントからなる192要素のベクトルを生じる。目領
域が存在する場合、このベクトルは、目の中心に対応す
る2つの中心ピーク、2つのピークの間の中心極小値、
および2つのピークのそれぞれの片側にある2つの外側
極小値によって特徴づけられるパターンを示す。このよ
うな署名が見出された場合、目領域が存在し得る。次
に、同様の技術を適用して、鼻/口署名を生成し、顔の
存在を確認する。AFRMは、139の画像(1被験者
当たり約4〜5枚の異なるピクチャ)を含む小規模な画
像データベースを使用した顔ファインダーアルゴリズム
に対して94%の成功率を達成した。このようなシステ
ムにとって不利な点は、同じようなパターンを表示でき
るオブジェクトが画像中にあまりにも多く存在すること
である。したがって、このシステムは、非常に信頼性の
ある顔ロケータ(locator)ではない。さらに、
ゲシュタルトの計算は、非常に計算量が多いので、リア
ルタイムでの実施を達成するのは困難である。
【0019】欧州特許第0751473号は、フィル
タ、畳込み、および閾値によって顔候補領域を見いだす
技術を開示する。顔の特徴、特に目および口の候補が所
定の特徴を有するかどうかを次の分析が検査する。
【0020】米国特許第5715325号は、解像度を
低減した画像に関する技術を開示する。見いだしステッ
プは、画像と背景画像とを比較し、顔候補領域を規定す
る。次の分析は、3レベルの輝度の画像に基づき、各候
補領域を格納されたテンプレートと比較することによっ
て行われる。
【0021】米国特許第5629752号は、画像中の
物体輪郭を見いだすステップ、およびそのような輪郭の
対象性および他の特徴について検査するステップに基づ
いて分析が行われる技術を開示する。この技術はまた、
長軸がお互いに対称な向きをした水平方向に対称な暗い
楕円を検出することによって水平方向に対称な目領域を
検査する。
【0022】Sakoら、Proceedingsof
12IAPRInternationalConfer
enceonPatternRecognition、
Jerusalem、1994年10月6日〜13日、
第II巻、320〜324頁、「RealTimeFa
cialFeatureTrackingBasedo
nMatchingTechniquesandits
Applications」は、格納されたテンプレー
トとの比較によって目領域を検出するステップを含む種
々の分析技術を開示する。
【0023】Chenら、IEEE(0−8186−7
042−8)、591〜596頁、1995、「Fac
eDetectionbyFuzzyPatternM
atching」は、「顔モデル」に対してファジーマ
ッチングすることによって顔候補の見いだしを行う。候
補は、定義されていないモデルに基づいて目/眉および
鼻/口領域が存在するかどうかを検査することによって
分析される。
【0024】
【課題を解決するための手段】本発明の第1の局面によ
ると、画像中のヒトの顔を検出する方法であって、顔候
補領域を画像中に見いだすステップと、顔の特徴を示す
第1の特徴について顔候補領域を分析するステップとを
包含し、該第1の特徴が第1および第2の極小値の間に
配置された極大値を含むほぼ対称な水平方向輝度曲線図
を含み、該分析ステップが、顔候補領域の一部の垂直方
向積分投射を形成するステップと、垂直方向積分投射が
極大値に対してほぼ対称的に配置された該第1および第
2の極小値を有するかどうかを判定するステップとを含
む方法が提供される。
【0025】前記見いだしステップおよび分析ステップ
は、1シーケンスの画像の各画像について繰り返しても
よい。
【0026】前記または各画像がカラー画像であり、前
記分析ステップが、該カラー画像のカラー成分について
行ってもよい。
【0027】前記または各画像がカラー画像であり、前
記分析ステップが、該カラー画像から得られたコントラ
スト画像上で行ってもよい。
【0028】前記分析ステップは、前記垂直方向積分投
射が、水平方向の分離が所定範囲内である第1および第
2の極小値を有するかどうかを判定してもよい。
【0029】前記分析ステップは、前記極大値と、前記
第1および第2の極小値の小さい方との間の差と、該極
大値との比が第1の閾値より大きいような、前記垂直方
向積分投射が極大値ならびに第1および第2の極小値を
有するかどうかを判定してもよい。
【0030】前記垂直方向積分投射は、前記顔候補の複
数部分について形成され、そして最も高い比を有する該
部分が有望なターゲット画像として選択されてもよい。
【0031】前記分析ステップは、前記部分の対称性の
尺度を形成するステップを含んでもよい。
【0032】前記対称性の尺度は、以下の式
【0033】
【数5】
【0034】で形成され、V(x)は、水平方向位置x
での前記垂直方向積分投射の値であり、x0は、該垂直
方向積分投射の中央の水平方向位置であってもよい。
【0035】前記垂直方向積分投射は、前記顔候補の複
数部分について形成され、最も高い対称性の尺度を有す
る部分が有望なターゲット画像として選択されてもよ
い。
【0036】前記分析ステップは、前記顔候補領域の一
部を左半分および右半分に分割するステップと、該半分
の各々の水平方向積分投射を形成するステップと、該左
および右水平方向積分投射の水平方向対称性の尺度と第
2の閾値とを比較するステップと含んでもよい。
【0037】前記分析ステップは、前記顔候補領域が、
所定の範囲内において、ほぼ同じ高さに配置され、水平
方向の分離した第1および第2の輝度極小値を有するか
どうかを判定してもよい。
【0038】前記分析ステップは、前記顔候補領域が、
第1および第2の輝度極小値よりも高い輝度を有し、且
つ該第1および第2の輝度極小値の間に配置される垂直
方向に伸長する領域を有するかどうかを判定してもよ
い。
【0039】前記分析ステップは、前記顔候補領域が、
前記垂直方向に伸長する領域の下に配置され、且つ該垂
直方向に伸長する領域より低い輝度を有する水平方向に
伸長する領域を有するかどうかを判定してもよい。
【0040】前記分析ステップは、前記顔候補領域中
に、緑色画像成分が赤色画像成分より大きいか、または
青色画像成分が緑色画像成分より大きい瞳候補領域を見
いだすステップを含んでもよい。前記瞳候補領域を見い
だすステップは、前記顔候補領域の目候補領域に限定さ
れされてもよい。前記分析ステップは、前記目候補領域
中の絵素(x,y)についての関数E(x,y)を以下
の式
【0041】
【数6】
【0042】に形成し、ここで、R、G、およびBは赤
色、緑色、および青色画像成分であり、C1およびC2
定数であり、E(x,y)=1は前記瞳候補領域内部の
絵素を表し、そしてE(x,y)=0は該瞳候補領域外
部の絵素を表してもよい。前記分析ステップは、前記瞳
の中心を前記瞳候補領域の重心として検出してもよい。
【0043】前記分析ステップは、口候補領域を、水平
方向においては前記瞳候補領域の間に、垂直方向におい
ては該瞳候補領域の間の距離の実質的に0.5〜1.5
倍だけ瞳候補領域の下にある前記顔候補領域のサブ領域
中に見いだすステップを含んでもよい。前記分析ステッ
プは、前記サブ領域中の絵素(x,y)についての関数
M(x,y)を以下の式
【0044】
【数7】
【0045】に形成してもよく、ここで、R、G、およ
びBは赤色、緑色、および青色画像成分であり、ηは定
数であり、M(x,y)=1は前記口候補領域内部の絵
素を表し、そしてM(x,y)=0は該口候補領域外部
の絵素を表す。前記関数M(x,y)の垂直および水平
方向投射曲線図が形成されてもよく、唇候補領域が該垂
直および水平方向投射曲線図が第1および第2の所定の
閾値をそれぞれに超える長方形サブ領域中に定義されて
もよい。前記第1および第2の所定の閾値が前記垂直お
よび水平方向投射曲線図の極大値にそれぞれ比例しても
よい。
【0046】前記分析ステップは、前記唇候補領域のア
スペクト比が第1および第2の予め規定された閾値の間
にあるかどうかをチェックしてもよい。
【0047】前記分析ステップは、前記瞳候補領域から
前記唇候補領域の上部までの垂直距離と該瞳候補領域間
の間隔との比が第1および第2の予め設定された閾値の
間にあるかどうかをチェックしてもよい。
【0048】前記分析ステップは、前記顔候補領域の一
部を左および右半分に分割するステップと、水平方向に
対称的に配置された対をなす対称な点の輝度勾配の角度
を比較するステップと含んでもよい。
【0049】前記見いだしステップおよび分析ステップ
は、前記第1の特徴が前記シーケンスの連続R画像のr
回目に見つかる場合に、停止されてもよい。
【0050】前記見いだしステップは、ヒトの顔を示す
第2の特徴を有する顔候補領域について前記画像を検索
するステップを含んでもよい。
【0051】前記第2の特徴が均一な彩度であってもよ
い。
【0052】前記検索ステップが、彩度を平均化するこ
とによって前記画像の解像度を低下させ、解像度が低下
した画像を形成するステップと、所定の形状において、
該所定の形状を取り囲む該解像度が低下した画像の部分
の彩度とは実質的に異なる実質的に均一な彩度を有する
該解像度が低下した画像の領域を検索するステップと、
を包含してもよい。
【0053】前記画像が、複数の絵素を含み、前記解像
度が、前記所定の形状が2から3個の解像度が低下した
絵素にわたるように低下されてもよい。
【0054】前記画像が、M×N絵素の長方形アレイを
含み、前記解像度が低下した画像が、(M/m)×(N
/n)絵素を含んでもよく、それぞれが、該画像のm×
n絵素に対応し、該解像度が低下した画像の各絵素の彩
度Pが、以下の式
【0055】
【数8】
【0056】で表されてもよく、ここで、f(i,j)
が、該m×n絵素のi番目の列およびj番目の行の絵素
の彩度である。
【0057】前記方法がストアに前記彩度を格納するス
テップをさらに含んでもよい。
【0058】前記解像度が低下した絵素のそれぞれの彩
度と、少なくとも1つの隣接した解像度が低下した絵素
の彩度とを比較することによって、該解像度が低下した
絵素のそれぞれに均一値が割り当てられてもよい。
【0059】以下の式が満たされる場合、各均一値に第
1の値が割り当てられてもよく、 (max(P)−min(P))/max(P)≦T ここで、max(P)およびmin(P)が、それぞ
れ、前記解像度が低下した絵素および前記または各隣接
した絵素の彩度の最大値および最小値であり、Tが閾値
であり、該式が満たされない場合、該各均一値に、該第
1の値とは異なる第2の値が割り当てられてもよい。
【0060】Tが実質的に0.15に等しくてもよい。
【0061】ストアに前記彩度を格納するステップを含
んでもよく、前記または各隣接した解像度が低下した絵
素には均一値が割り当てられず、各均一値が該対応する
彩度の代わりに該ストアに格納されてもよい。
【0062】前記所定の形状が2または3個の解像度が
低下した絵素にわたるように、前記解像度が低下されて
もよく、前記方法が、前記第1の値の均一値が、1つの
解像度が低下した絵素、2つの垂直または水平方向に隣
接した解像度が低下した絵素、および絵素の長方形の2
×2アレイのいずれか1つに割り当てられ、前記第2の
値の均一値が、周囲の解像度が低下した絵素のそれぞれ
に割り当てられるとき、顔候補領域の検出を示すことを
さらに含んでもよい。
【0063】前記方法がストアに前記彩度を格納するス
テップをさらに含み、前記対応する均一値の代わりに、
前記第1および第2の値とは異なる第3の値を該ストア
に格納することによって検出が示されてもよい。
【0064】前記解像度低下を繰り返すステップと、前
記画像絵素に対して前記解像度が低下した絵素がシフト
した状態で、少なくとも1回は検索をするステップとを
さらに含んでもよい。
【0065】前記彩度が、以下の式で、赤色、緑色およ
び青色成分から得られ、 (max(R,G,B)−min(R,G,B))/m
ax(R,G,B) ここで、max(R,G,B)およびmin(R,G,
B)が、それぞれ、該赤色、緑色および青色成分の最大
値および最小値であってもよい。
【0066】第1の画像が、顔の位置の予想範囲を照射
している間にキャプチャされ、第2の画像が、周辺光を
用いてキャプチャされ、該第2の画像が該第1の画像か
ら減算されて画像を形成してもよい。
【0067】本発明の第2の局面によると、画像中でヒ
トの顔を検出するための装置であって、該画像中で顔候
補領域を見いだす手段と、顔の特徴を示す第1の特徴に
ついて該顔候補領域を分析するための手段とをさらに備
える装置が提供される。
【0068】本発明の第3の局面によると、本発明の第
2の局面による装置をさらに有する観察者トラッキング
ディスプレイが提供される。
【0069】以下作用について説明する。
【0070】例えば、入力ビデオ画像ストリームまたは
シーケンス中でヒトの顔を自動的に検出するための方法
および装置を提供することが可能である。この方法およ
び装置は、例えばトラッキング機能を備えた自動立体型
ディスプレイに関連した観察者ビデオトラッキングシス
テムの初期ステージにおいて、上記および英国特許第2
324428号および欧州特許第0877274号に説
明されるテンプレートをキャプチャする対話型方法を置
き換えるために使用され得る。自動ターゲット画像キャ
プチャのためのこのような技術を使用すると、ビデオト
ラッキングシステムおよび関連した自動立体型ディスプ
レイの使用が容易になり、したがってこのようなシステ
ムについての商業的な成功の見込みが増すことになる。
【0071】顔ロケータおよび顔アナライザ(anal
yzer)の形態をとる2段階のアプローチを使用する
ことによって、顔ロケータによって、より計算のかかる
顔分析をいくつかの顔候補に制限することが可能にな
る。このような機構により、リアルタイムでビデオ画像
のシーケンス中の画像を検出することができる。このリ
アルタイムでの画像検出は、画像内容の複雑さに依存
し、例えば、5〜30Hzの速度である。観察者トラッ
キング自動立体型ディスプレイにおいて使用される場
合、顔検出は、いくつかの連続画像にわたって顔が一貫
して検出された後に自動的に終了され得る。全体のプロ
セスは、数秒を超えることはない。初期化は、システム
の各回の使用の開始時に一度だけ行われる必要がある。
【0072】顔ロケータは、顔分析の信頼性を高める。
なぜなら、分析は、各画像中で見いだされる各顔候補領
域に対して行われるだけだからである。顔なし候補領域
が顔の特徴を示し得る領域に同様のデータを含み得る
が、顔ロケータは、そのような特徴に基づいた分析を有
望な顔候補に制限する。さらに、分析は、顔ロケータに
よって見つけられた偽顔候補を除去するのに役立ち、顔
および顔の特徴のより正確な位置データ(目領域のター
ゲット画像が得られ得るような観察者の両目の間の中間
点など)を与えることができる。
【0073】見いだしおよび分析の機能を分離すること
によって、各機能またはステップは、計算能力およびコ
ストを過度に要求することなしに商業的に実施され得
る、より簡単かつより効率的な方法を使用し得る。例え
ば、皮膚の色を使用して有望な顔候補を見いだすステッ
プは、適度な照明の変化に適応できる。この技術は、か
なり広範囲の照明条件に適応でき、異なる年齢、性別、
および皮膚の色の人々に対応できる。さらに、薄く色の
ついた眼鏡を着用していても対応し得る。
【0074】これらの技術は、コンピュータによる実施
に関し、多くのモジュールのうちの任意のモジュールを
使用し得る。各モジュールは、種々の要求に合うように
置換または改変され得る。これにより、システムの柔軟
性が増大し、したがって、安全監視、ビデオおよび画像
圧縮、ビデオ会議、コンピュータゲーム、運転手モニタ
リング、グラフィカルユーザインターフェース、顔認
識、および個人識別などのかなり広範囲の用途を有し得
る。
【0075】ビデオカメラによって供給される1シーケ
ンスの画像などにおける画像中にヒトの顔を検出するた
めの方法が提供される。本方法は、各画像中に顔候補領
域を見いだすステップおよび顔の特徴を示す第1の特徴
について顔候補領域を分析するステップを含む。見いだ
しステップは、低減された解像度を有する画像中に所定
の形状の均一な彩度を有する領域を検出するステップを
含む。分析ステップは、単一カラー成分を選択するステ
ップ、垂直方向積分投射曲線図を形成するステップ、お
よび顔の目領域の特徴を示す曲線図中にオメガ形状を検
出するステップを含む。
【0076】
【発明の実施の形態】本発明を添付の図面を参照しなが
ら実施例を用いてさらに説明する。尚、図面全体にわた
って、同様の参照符号は同様の部分を指す。
【0077】図6は、画素化カラー画像のヒトの顔をビ
デオ画像シーケンスから自動的に検出し、そして見いだ
す方法を流れ図で示す。ビデオ画像シーケンスは、例え
ば、上記で図2を参照しながら記載したタイプのビデオ
カメラによってリアルタイムで提供され得る。方法は、
図3に示す初期化ステージ9としてリアルタイムで動作
し得、そしてターゲット画像またはテンプレートを図3
に示すトラッキングステージ10へ供給する。
【0078】ステップS1において、赤、緑、青(RG
B)フォーマットの最新のディジタル画像が得られる。
例えば、このステップは、ビデオカメラからのビデオデ
ータの最新フィールドをフィールドストアに格納するこ
とを含み得る。ステップS2において、顔候補を構成す
る領域を見いだすために画像が検索される。ステップS
3は、顔候補がひとつでも見つかったかどうかを判定す
る。見つからなければ、ステップS1が行われ、ステッ
プS2およびS3が、少なくとも1つの顔候補が最新の
画像中に見つかるまで繰り返される。したがって、ステ
ップS2およびS3は、以下にさらに詳細に説明される
顔ロケータ17を構成する。
【0079】次に顔候補は、顔候補を分析して顔の特徴
を示す1つ以上の特徴の存在を判定する顔アナライザに
供給される。ステップS4は、顔ロケータ17によって
見いだされた顔候補に対応する画像の部分をひとつずつ
受け取る。ステップS4は、各顔候補を分析し、候補が
顔の特徴を示す特徴を含んでいると判定すると、ステッ
プS1から供給された最新の画像から、図4の11で図
示される目領域の形態をしたターゲット画像またはテン
プレートを抽出する。ステップS5は、すべての顔候補
が試験されたかどうかを判定し、すべての候補が試験さ
れるまでステップS4が繰り返される。ステップS6
は、テンプレートがひとつでも得られたかどうかを判定
する。得られなければ、制御は、ステップS1に渡さ
れ、次のカラー画像について手順が繰り返される。テン
プレートがひとつでも得られれば、そのようなテンプレ
ートがステップ7で出力される。
【0080】顔ロケータ17は、任意の適切なタイプで
あり得、顔を見いだすための手動技術が以下に説明され
る。しかし、適切な自動技術は、英国特許第23335
90号および欧州特許第0932114号に開示され、
図7〜13を参照して詳細に説明される。
【0081】ステップ21において、ビデオ画像は、R
GBフォーマットからHSVフォーマットに変換され、
各画素の彩度を得る。実際には、ステップ21において
S成分のみを得るだけで充分である。
【0082】RGBフォーマットは、カメラセンサおよ
びディスプレイ蛍光体が作用する様式から生じるハード
ウェア指向の色方式である。HSVフォーマットは、色
合い、陰、およびトーンの概念により密接に関連する。
HSVフォーマットにおいて、色相は、光の波長(例え
ば、赤色と黄色との間の区別)によって説明される色を
示し、彩度は、存在する色の量(例えば、赤色およびピ
ンク色との間の区別)、ならびに値は、光の量(例え
ば、暗い赤色と明るい赤色との間、または暗い灰色と明
るい灰色との間の区別)を示す。これらの値がプロット
され得る「空間」は、例えば、図8に示すように、円錐
形もしくは六角錐形またはダブルコーンとして示され得
る。ここで、円錐軸は、黒から白への中間色の進行であ
り、軸からの距離は彩度を示し、軸の周りの方向または
角度は色相を示す。
【0083】人の皮膚の色は、血液(赤色)およびメラ
ニン(黄色、茶色)の組合せによって形成される。皮膚
の色は、これらの2つの極端な色相間に存在し、いくぶ
んか飽和しているが、極端に飽和してはいない。人の顔
の彩度成分は、比較的均一である。
【0084】ビデオ画像データをRGBフォーマットか
らHSVフォーマットに変換するためのいくつかの技術
が存在する。彩度成分を抽出する任意の技術が用いられ
得る。例えば、変換は、彩度成分Sに対して、以下の式
に従って行われ得る。 max(R,G,B)=0のとき、S=0 max(R,G,B)が0でないとき、 S=(max(R,G,B)−min(R,G,B))
/max(R,G,B) 変換ステップS21の次に、彩度成分の空間画像解像度
は、ステップS22における平均化によって低下する。
図2を参照しながら上述したように、ディスプレイから
の観察者の顔のおよその距離は、各ビデオ画像における
顔のおよそのサイズが分かるように既知である。解像度
は、大人の観察者の顔が、図7に示す各寸法において、
約2から3画素を占有するように低下する。以下、これ
を成し遂げる技術をさらに詳細に記載する。
【0085】ステップS23は、ステップS22からの
解像度が低下した画像において、異なる彩度を有する解
像度が低下した画素の領域によって取り囲まれた、所定
のサイズおよび形状の均一な彩度を有する領域または
「ブロブ(blobs)」を検出する。これを成し遂げ
る技術についても以下さらに詳細に記載する。ステップ
S24は、顔の候補または顔のような領域が見いだされ
たかどうかを検出する。見いだされなかった場合には、
ステップS1からS24が繰り返される。ステップS2
4が少なくとも1つの候補が見いだされたことを確認す
ると、ステップS23で検出された均一なブロブまたは
各均一なブロブの位置がステップS25で出力される。
【0086】図9は、画像解像度の低下ステップS22
をさらに詳細に示す。参照符号30は、ステップS1に
与えられる画像の画素構造を示す。空間解像度は、M×
N個の正方形または長方形画素の規則正しい長方形アレ
イとして示す。空間解像度は、平均化によって低下し、
参照符号31で示す(M/m)×(N/n)画素のアレ
イを得る。画素30のアレイは、それぞれが構造30の
m×n画素を含む、画素32の「ウィンドウ」または長
方形ブロックに効果的に分割される。画素のS値は、f
(i,j)(0≦i<mおよび0≦j<nの場合)とし
て図9に示す。ウィンドウの平均彩度値Pは、以下の式
で計算される。
【0087】
【数9】
【0088】図面に示す実施態様において、空間解像度
の低下は、大人の観察者の顔が、各寸法における解像度
が低下した画素の約2から3個を占有するようになる。
【0089】ステップS23は、均一状態または値Uを
解像度が低下したそれぞれの画素に割当て、顔のような
領域を示す均一値のパターンを検出することを含む。均
一値は、画素およびその近傍の彩度に応じて、1または
0である。図10は、平均化された彩度値P0を有する
画素(参照符号35)、および3つの近傍画素の平均化
された彩度値P1、P2およびP3を示す。均一値の割当
ては、左上の画素37から始まり、一番上の行の終わり
から2番目の画素38に均一値が割り当てられるまで左
から右に進む。このプロセスは、各行について上から下
へと終わりから2番目の行まで繰り返される。このよう
に画素を「走査」し、均一値が計算された画素の右およ
び下の近傍画素を用いることによって、メモリ容量が効
率的に使用され得るようにストアに上書きすることによ
って、平均彩度値Pを均一値Uで置き換えることが可能
であり、均一値のためにさらにメモリ容量を提供する必
要はない。
【0090】均一値Uは、以下のように計算される。 (fmax−fmin)/fmax≦Tのとき、U=1 (fmax−fmin)/fmax>Tのとき、U=0 ここで、Tは、例えば、典型的な値0.15を有する所
定の閾値、fmaxは、P0、P1、P2、およびP3の最
大値であり、fminは、P0、P1、P2、およびP3
最小値である。
【0091】均一値の割当てが完了すると、アレイ36
は、解像度が減少した画素の彩度の均一を示す0および
1のパターンを含む。ステップS23は、顔のような領
域を検出するために0および1の特定のパターンを探
す。図11は、均一値の4つのパターンおよびそれらの
パターンに対応する、ビデオ画像内の顔候補のような画
素彩度パターンの一例を示す。図11は、均一ブロブを
参照符号40で示す。ここで、暗い領域は、顔のような
領域を示すための充分な均一性を有する平均化された彩
度値を示す。周りの明るい領域または正方形は、均一な
彩度画素を取り囲み、実質的に異なる彩度を有する領域
を示す。均一値の対応するパターンは、参照符号41で
示され、均一値0を有する画素ロケーションで完全に取
り囲まれている、均一値1を有する画素ロケーションを
含む。
【0092】同様に、図11は、他の顔のような領域を
参照符号42で示し、対応する均一値のパターンを参照
符号43で示す。この場合、2つの水平方向に隣接する
画素ロケーションは、均一値1を有し、且つ均一値0を
有する画素ロケーションによって完全に取り囲まれてい
る。図11は、均一値が参照符号45で示され、2つの
垂直方向に隣接した画素ロケーションが、均一値1を有
し、且つ均一値0を有する画素ロケーションによって取
り囲まれている第3のパターンを参照符号44で示す。
【0093】図11に参照符号46で示す第4のパター
ンは、均一値0を有する画素ロケーションによって完全
に取り囲まれている均一値1を有する4(2×2)個の
画素ロケーションの正方形ブロックを有する。従って、
図11で参照符号41、43、45および47で示す均
一値のパターンのいずれかが起こるときは常に、ステッ
プS23は、顔のような領域または候補が見いだされた
ことを示す。これらのパターンの検索は効率的に行われ
得る。例えば、画素ロケーションの均一値は、各行にお
いて左から右、およびフィールドの上から下に順にチェ
ックされる。均一値1が検出されると、現在の画素ロケ
ーションの右および下にある近隣画素ロケーションが調
べられる。これらの均一値の少なくとも1つがまた1で
あり、領域が均一値0によって取り囲まれている場合、
可能性のある顔候補に対応するパターンが見いだされ
る。次に、対応する画素ロケーションは、均一値を、例
えば、1または0以外の値(例えば、2の値)で置き換
えることによってマークされ得る。可能性のある顔候補
が見いだされなかった場合を除いて、候補の位置が出力
される。
【0094】パターン40、42、44および46の外
観は、解像度が低下した画素36の構造に対する顔のよ
うな領域の実際の位置によって影響され得る。図12
は、参照符号49で示す解像度が低下した2×2の画素
サイズを有する顔のような領域についての例を示す。円
50によって示される顔のような領域が、2×2のブロ
ックをほぼ中心とする場合、均一な値のパターン47が
得られ、検出は正しい。しかし、参照符号51で示すよ
うに、顔が水平および垂直方向に半画素だけシフトして
いる場合には、顔のような領域の中央部分は、周りの領
域とは異なる均一値を有し得る。これは、結果として、
純粋な候補の検出に失敗することになり得る。
【0095】このような起こりうる問題を避けるため
に、ステップS21からS24は、画像データの同じビ
デオフィールドまたは1つまたはそれ以上の連続したビ
デオフィールドに対して繰り返され得る。しかし、ステ
ップS21からS24が繰り返される度に、解像度が低
下した画素のアレイ31の位置は、カラー画像画素のア
レイ30に対して変化する。これを図13に示す。図1
3において、画像全体は参照符号52で示し、画像平均
化による空間解像度の低下に使用される領域は参照符号
53で示す。平均化は、図9に示すのと同様に行われる
が、開始位置は変化する。特に、図8の第1画素に対す
る開始位置は、画像全体52の左上の角54であるが、
図13はその後に行われる平均化を示す。ここでは、開
始位置は、水平方向に左上の角から量Sxだけ右にシフ
トし、垂直方向に量Syだけ下にシフトしている。ここ
で、 0<Sx<m、および0<Sy<n である。
【0096】各画像は、SxおよびSyのすべての組合
せが用いられ、m×nプロセスが行われるように、繰り
返し処理され得る。しかし、実際には、特に、顔のよう
な領域の検出があまり正確である必要がない応用におい
ては、すべての開始位置を用いる必要はない。本実施例
において、顔のような領域の検出が、2ステッププロセ
スの第1のステップを形成する場合、SxおよびSyの
値は、以下のようなよりまばらなセットの組合せから選
択され得る。 Sx=ix(m/p)、およびSy=jx(n/q) ここで、i、j、pおよびqは、以下の関係を満足する
整数である。 0≦i<p 0≦j<q 1≦p<m 1≦q<n これは、全部でp×qの組合せとなる。
【0097】上記のように、ステップS21からS24
は、同じ画像または連続した画像上の異なる開始位置で
繰り返され得る。リアルタイム画像処理については、連
続した画像についてステップを繰り返すことが必要また
は好適であり得る。方法は、非常に迅速に行われ得、画
像内に存在する顔の候補の数によって、10Hzと60
Hzとの間のフィールドレートでリアルタイムで行われ
得る。従って、およそほんの数秒以下の短い期間内で、
すべての可能な位置がテストされ得る。
【0098】図7に示す方法は、図2に示す方法のよう
に、任意の適切なハードウェアにおいて行われ得る。上
記のように、トラッキングプロセッサ4は、図7の方法
を、図3に示す初期化ステージ9の一部として実行する
ようにプログラムされることが可能である。データ処理
は、R4400プロセッサおよび関連のメモリによって
行われ、プロセッサ4は、図2に示すように、彩度値、
解像度が低下した画素の平均化された彩度値、および均
一値を格納するためのビデオディジタイザおよびフレー
ムストアを含む。
【0099】図14は、顔アナライザ18をさらに詳細
に示す。特に、ステップS4で形成された分析が、図1
4のステップS10〜S14として示される。
【0100】分析はRGB成分で行われるが、単一カラ
ー成分を使用することだけで十分である。したがって、
ステップS10は、例えば、最新カラー画像から赤色成
分を選択する。あるいは、別の単一値成分が使用され得
る。例えば、コントラスト画像が以下の式から得られ得
る。 C=max(R,G,B)−min(R,G,B) このようなコントラスト画像を使用すると、以下に説明
するようにオメガ形状の検出を改善し得る。
【0101】ステップS11は、顔ロケータ17によっ
て与えられた顔候補のうちの1つを選択し、顔候補によ
って特定された赤色成分の画像領域を選択する。ステッ
プS12は、顔の特徴を抽出して、画像中に顔が存在す
るか確認し、顔の正確な位置を得る。ステップS13
は、顔が見いだされたかどうかを判定し、見いだされな
い場合は、制御がステップS5へ移る。顔が見いだされ
た場合、ステップS14は、図4の参照符号11で示し
たような、目テンプレートの形態のターゲット画像を選
択または更新する。次に、制御はステップS5へ移る。
ステップS11〜S14は、すべての顔候補が試験され
るまで繰り返される。
【0102】この方法は、画像中に1つ以上の顔を検出
することができる。しかし、現在の観察者トラッキング
自動立体型ディスプレイなどのある用途においては、許
されるユーザはただ一人である。1つ以上の顔が検出さ
れる場合は、テンプレートを1つだけ選択するために選
択規則を使用してもよい。例えば、最初に検出された顔
をテンプレートに選択してもよいし、画像の中心付近に
位置する顔でもよい。あるいは、各テンプレートに、例
えば対称性の度合に関連した品質尺度を与え、最良の品
質尺度を有するテンプレートを選択してもよい。以下
に、このような技術をさらに詳細に説明する。
【0103】ステップS12を形成する顔の特徴抽出
を、図15にさらに詳細に示す。ステップS12は、ス
テップS30〜S39を含む。ステップS30におい
て、必要なテンプレートサイズを有する赤色成分画像の
領域を選択する。ステップS31は、オメガ形状が検出
されたかどうかを検出し、そうであれば、ステップS3
2で、対称性尺度に基づいて検出されたオメガ形状の位
置を格納または更新する。ステップS33は、すべての
可能な位置が試験されたかどうかを判定し、そうでなけ
れば、ステップS30は、顔候補によって特定された画
像領域から別の領域を選択する。
【0104】一旦すべての可能な位置が試験されると、
ステップS34は、オメガ形状の垂直方向積分投射がひ
とつでもないかどうか判定する。あれば、ステップS3
5は、テンプレートサイズの領域に2つの目が存在する
かどうかを判定する。存在すれば、ステップS36は、
鼻が検出されたかどうかを判定する。検出された場合、
ステップS38は、顔が検出されたことを示すためにフ
ラグを設定し、顔の位置を格納する。ステップS34〜
S36の試験のいずれかが否定であれば、ステップS3
7は、顔が全く検出されなかったことを示すためにフラ
グを設定する。ステップS39は、顔候補の分析を終了
する。
【0105】図16は、所望の目領域テンプレート11
を図示し、その下に、対応する垂直方向積分投射曲線図
を示す。この曲線図は、「ω」に似ている。ステップS
31は、ピークすなわち極大輝度V0を水平方向位置X0
でとり、極大値に対して対称に位置する第1および第2
の極小輝度V1およびV2を水平方向位置X1およびX2
とることを特徴とする曲線図を検出する。必要なテンプ
レートすなわちターゲット画像サイズが図17に参照符
号21で示される。このテンプレートのサイズは、k×
lピクセルである。顔候補の画像領域は、サイズがK×
Lピクセルであり、参照符号22で示される。ステップ
S30は、分析のために必要なテンプレートサイズの初
期領域23を選択し、ステップS31〜S33が行われ
る。次にステップS30は、領域23に対して右に距離
Sxだけずれた水平方向に隣接する領域24を選択す
る。これは、選択された領域が画像領域22の上部帯片
を覆うまで繰り返される。このプロセスは、開始位置か
ら垂直方向にSyだけずらした参照符号25で示される
位置に、さらに繰り返してずらされる。したがって、各
水平方向帯片は、領域を水平方向にオーバーラップさせ
ることによって「覆われる」。領域22全体は、選択さ
れた領域が参照符号26の位置にくるまで垂直方向に帯
片をオーバーラップさせることによって覆われる。ステ
ップS33は、すべての可能な位置が試験されたと判定
し、次にステップS34が行われる。
【0106】ステップS31の機能は、図18のステッ
プS40〜S48によってさらに詳細に図示される。ス
テップS40は、幅kピクセルの画像のサブセクション
を選択する。パラメータkは、相対水平方向変位Sxを
用いて長方形をオーバーラップさせることによって各帯
片が覆われるように選択される。同様に、パラメータl
およびSyは、垂直方向に帯片をオーバーラップするよ
うに選択される。一般に、これらのパラメータは、Sx
がk/4に、Syがl/4に等しくなるように選択され
る。
【0107】ステップS41は、垂直方向投射関数V
(x)を計算する。これは以下の式で計算される。
【0108】
【数10】
【0109】ここで、I(x,y)は、座標x,yにあ
るピクセルの強度である。サブセクション画像の領域
は、(x1,x2)×(y1,y2)によって与えられ
る。次にステップS42は、この関数のピーク、すなわ
ち極大値を検出し、その水平方向位置X0を見つける。
【0110】ステップS43は、極大値の位置X0がサ
ブセクションの中心領域内にあるかどうかを判定する。
この中心領域は、k/4から3k/4までの領域として
規定される。その領域になければ、制御は、ステップS
40に戻る。あれば、ステップS44は、ピークすなわ
ち極大値の両側にある極小値を検出し、その位置X1
よびX2を見つける。次にステップS44は、極小値の
配置が大人の目の分離に対応するかどうかを検出する。
この目の分離は、通常55〜70mmであり、対応する
閾値はT1およびT2である。X1とX2との差の大きさが
これらの閾値の間にある場合(ステップS45)、ステ
ップS46が行われる。そうでなければ、制御は、ステ
ップS40に戻る。
【0111】ステップS46は、以下の式にしたがって
ピーク対谷間の比Rを形成する。 R=1−min(V(X2),V(x1))/V(X0) ステップS47は、比Rと閾値T3とを比較する。閾値
3の代表的な値は、0.2である。比Rが閾値T3より
下である場合、制御は、ステップS40に戻る。比Rが
閾値T3を超える場合、ステップS48は、オメガ形状
が検出されたことを示す。
【0112】オメガ形状が検出された場合、サブセクシ
ョンの中心線に対して水平方向の対称性の度合に関連し
た品質尺度が計算される。例えば、これは以下のように
計算され得る。
【0113】
【数11】
【0114】品質尺度は、現在の顔候補について「最
良」のオメガ形状を選択するために、および、特に、目
領域の最良の水平および垂直方向位置を決定するために
使用され得る。垂直方向位置は、以下に説明されるよう
に決定され得る。
【0115】図19は、水平方向のステップサイズSx
の不適切な選択による影響を示す。特に、Sxが、大き
な値(例えばk/2より大きい値)に設定されると、い
ずれのサブセクションにおいてもピーク、すなわち極大
値が検出されない可能性がある。図19の垂直方向積分
投射曲線図、および特に斜線の部分において示されるよ
うに、中心領域に極大値、すなわちピークが全くないの
で、ステップS42はS43における範囲の外にある位
置X0を見つけようとする。したがって、ステップSx
の大きさは、k/2より小さくするべきであり、値k/
4が、オメガ形状の曲線図の中心ピークを逸することな
く計算効率を維持しつつ十分に機能することがわかって
いる。
【0116】例えば、最良の品質尺度Qを有する最良の
オメガ形状のピークは、目領域の2つの目の中央を示
し、ターゲット画像またはテンプレートの中心位置を提
示する。しかし、最良の位置からわずかに上方または下
方へずれたサブセクションは、同様のオメガ形状垂直方
向積分投射曲線図を表示する可能性が高いので、垂直方
向位置は十分に定義されない。
【0117】目領域上でサブセクションを垂直方向にセ
ンタリングする1つの技術は、最良の水平方向位置を見
いだすステップ、および次にオメガ形状が検出されなく
なるまでサブセクションを上方および下方へとずらすス
テップを含む。次に、これらの上方および下方限界位置
の間の途中にある垂直方向位置は、ターゲット画像につ
いての垂直方向位置として選択され得る。
【0118】正しい垂直方向位置を見いだす別の技術
は、ピーク対谷間の比に基づく。この場合、最良の水平
方向位置が再度決定され、そしてサブセクションは、ピ
ーク対谷間の比をモニターしながら垂直方向にずらされ
る。次に、最も高い比に対応する位置が、ターゲット画
像の中央の垂直方向位置として選択され得る。
【0119】垂直方向積分投射曲線図中にオメガ形状が
存在することは、目領域が存在することを強く示すが、
これは、ヒトの顔が対称であると仮定することに主に基
づく。しかし、中心線に対して対称的でない画像もま
た、オメガ形状曲線図を生成し得る。そのような画像の
例を、図20の中央、目領域の真上に示す。両方の画像
についての垂直方向曲線図は、ほぼ同じであり、図20
の上部に示される。この場合、非対称的画像が、中心線
に対して画像の左半分を反射させ、次にその結果得られ
る右半分の画像を逆さまにすることによって得られる。
【0120】そのような画像によって起こされる偽の顔
検出を防ぐために、水平方向積分投射曲線図に基づいた
技術が使用され得る。特に、オメガ形状が検出され、望
ましいテンプレートサイズの画像領域が、その中心がオ
メガ形状の中心ピークすなわち極大値と位置が合うよう
に選択される場合、水平方向積分投射は、画像の左およ
び右半分に適用される。左半分についての水平方向積分
投射曲線図は、以下の式で与えられる。
【0121】
【数12】
【0122】そして、右半分についての水平方向積分投
射曲線図は、以下の式で与えられる。
【0123】
【数13】
【0124】次に、対称性尺度Smは、以下の式で定義
される。
【0125】
【数14】
【0126】Smの極小値および極大値は、0および1
である。Smの値は、所定の閾値を超えるべきでない。
代表的な閾値は、0.15と0.2との間である。この
条件を満たす場合のみにオメガ形状と判定することによ
って、偽検出の可能性が低減される。
【0127】2つの画像についての水平方向積分投射曲
線図を図20に示す。偽画像は、水平方向に非対称な曲
線図を与えるが、目領域の画像は、ほぼ対称な曲線図を
与える。この技術は、肯定的な結果である場合、制御が
ステップS48に移り、否定的な結果である場合、制御
がステップS40に移るように、図18のステップS4
7およびS48の間に挿入され得る。
【0128】オメガ形状の検出は、偽顔検出の可能性を
低減するが、例えば、図15のステップS35およびS
36によって図示されるように、偽検出の可能性をさら
に低減するために、さらなる試験を行い得る。オメガ形
状の検出により、顔が画像中に存在すると仮定すると、
顔の中央を見いだすことが可能になる。目領域は通常、
より暗く、2つの輝度極小値が存在し、中央線に対して
ほぼ水平方向に対称に配置される。オメガ形状の検出
は、RGB成分について試験してもよいが、最大画像解
像度で行う必要はない。実際、より低い画像解像度であ
ることは、隔離された暗いピクセルを目に対応する極小
値として検出する可能性を低減する利点がある。
【0129】ユーザの頭は、初期化ステージの間、通常
ほぼ直立の姿勢であるが、絶対的な直立姿勢が不可欠で
はない。したがって、2つの極小値は、必ずしも同じ水
平線上に載らない。したがって、例えば上記の平均化に
よって画像解像度を低減することが有用である。この目
的のためには、赤色成分画像などの単一カラー成分画像
で十分である。オメガ形状検出に適切な解像度は、ター
ゲット画像の各寸法がほんの数ピクセル(例えば、5×
5または7×7ピクセル)であるような解像度である。
図21で示すように、極小値の位置は、(XL,YL)お
よび(XR,YR)で表される。ステップS35は、 YL=YR および |XL+XR−2X0|≦T4 を満たすかどうかを判定する。ここでX0は中心位置、
T4は、例えば値1を有する閾値である。
【0130】ステップS35が2つの目領域が存在する
ことを確認する場合、極小値の間により明るい領域が検
出されると、これらの領域が画像中の実際の目に対応す
る可能性は高くなる。代表的な鼻パターンを図22に示
す。この鼻パターンは、鼻の先端の真下の画像より鼻が
通常明るいという観察内容を表す。図22に示す鼻領域
は、顔の実際のサイズに依存して2または3ピクセルの
長さを有する。この場合、鼻領域とされるのは、以下の
条件が満たされる場合である。 min(P1,P2,P3)/max(P1,P2,P3)≧
5 および mean(P4,P5,P6)/mean(P1,P2
3)≦T6 ここでT5およびT6は、所定の閾値であり、代表的に
は、それぞれ0.8および0.5の値を有する。
【0131】目および鼻を検出するための上記方法は、
計算効率を改善するためにより低い解像度で実行され
る。他の顔特徴抽出方法は、顔の存在をさらに確認する
ために適用され得る。例えば、以下の方法は、元の最大
解像度のRGB画像を使用した瞳および唇の検出を説明
する。図23は、図14のステップS12にステップS
60およびS61を付加した別の実施態様を示す。ステ
ップS60は、瞳および唇の高解像度検出を行う。ステ
ップS61は、幾何的束縛条件試験を行う。以下に両方
のステップをさらに詳細に説明する。
【0132】各目の正確な位置は、瞳の中心として認識
される。瞳の中心を決定する第1ステップは、瞳を目領
域の残りの部分および顔の皮膚から切り出すことであ
る。瞳を除く目領域上のピクセルについて以下の不等式
が成り立つ。 R>G>B 以下の等式を瞳の検出のために使用する。
【0133】
【数15】
【0134】ここで、値1は瞳領域内のピクセルを示
し、値0は瞳領域外のピクセルを示す。さらにここで、
1およびC2はともに定数である。この2つのパラメー
タの代表的な値は、以下によって与えられる。 C1=C2=0 初期最良目テンプレート位置は、上記のように最良オメ
ガ形状が検出される位置によって与えられる。オメガ形
状のピーク位置は、オメガ形状を半分に分割する位置で
ある。次に、上記瞳検出方法を各半分に個別に適用し得
る。次に、目の位置を検出された瞳の中心として定義す
る。例えば、左目の位置は、以下の式で与えられる。
【0135】
【数16】
【0136】および
【0137】
【数17】
【0138】ここで、Nは、左上隅が(x1,y1)で右
下隅が(x2,y2)である領域内のピクセルの総数であ
る。位置(XL,YL)は、左の瞳の中心を定義する。同
様に、右の瞳の位置は、(XR,YR)として定義でき
る。これを図24に示す。目の分離は、以下の式で与え
られる。 Deye=XR−XL 瞳が検出された場合、次に、図24に図示されるよう
に、口が長方形領域A’B’C’D’内で見いだされ得
る。この領域A’B’C’D’の左側は、左の瞳の位置
によって決定され、右側は右の瞳の位置によって決定さ
れる。領域の上側は、2つの瞳をつなぐ線の0.5D
eye下に見いだされ、下側は同じ線の1.5Deye下に見
いだされる。
【0139】口の検出は、唇を検出することによって達
成される。唇は、以下の式を使用して顔から切り出され
る。
【0140】
【数18】
【0141】ここで、値1は、唇ピクセルを示し、そし
て0は、皮膚ピクセルを示す。さらに、ここで、ηは、
代表的な値が2.5に設定される定数である。
【0142】垂直方向ヒストグラムは以下の式を使用し
て構築される。
【0143】
【数19】
【0144】これを図24に示す。口が存在する場合、
上記ヒストグラムは、中心においてピークを生成し、両
側において徐々に減少する。ピークが位置Xpで検出さ
れる場合、口の左端は、以下の式を満たす最初のヒスト
グラムの値であるX1によって与えられる。 Hy(X1)<μHy(Xp) ここで、μは、定数であり、代表的には0.1に設定さ
れる。口の右端は、同様にX2として決定される。
【0145】同様に、口の高さは、M(x,y)の水平
方向の投射曲線図を使用して決定される。これは、口の
上部位置をY1として与え、口の底部をY2として与え
る。したがって、口は、左上隅が(X1,Y1)で右下隅
が(X2,Y2)である長方形によって囲まれる。
【0146】口が存在すれば、そのアスペクト比は、以
下の幾何的束縛条件を満たす。
【0147】
【数20】
【0148】ここで、αは代表的には1.5に設定さ
れ、ベータは5に設定される。
【0149】口の上部と2つの目をつなぐ線との間の垂
直方向距離は、以下の式で定義される。 DME=Y1−(YL+YR)/2 下唇の位置であるY2の値は、特にユーザがしゃべって
いるときは、上唇の位置であるY1の値より著しく変化
する。上記式において、Y1は、垂直方向の口の位置を
示すために使用されている。
【0150】この距離が目の分離に、代表的には比が1
で、比例することがわかっている。したがって、口およ
び目の相対位置は、以下の条件を見たさなければならな
い。
【0151】
【数21】
【0152】ここで、vは、代表的には、0.25に設
定される。ステップS61は、これらの幾何的束縛条件
が満たされるかどうかをチェックする。
【0153】対称性のさらなる尺度は、D.Reisf
eld、H.WolfsonおよびY.Yeshuru
n、「Contextfreeattentional
operators:thegeneralizeds
ymmetrytransforms」、IJCV、第
14巻、119〜130頁、1995年、およびD.R
eisfeldおよびY.Yeshurun、「Rob
ustdetectionoffacialfeatu
resbygeneralizedsymmetr
y」、Procofthe11thIAPRIntern
ationalConferenceonPatter
nRecognition、117頁に開示されるよう
な包括的(comprehensive)対称性検出器
に基づいてもよい。このような包括的機構は、本方法の
商業的実施には実用的ではないが、テンプレート中の顔
または顔の一部の存在を確認する際に補助となる対称性
の尺度を与えるために使用され得る。
【0154】図25は、人物の横から光を当てた画像、
および画像のサブセクションを含む長方形領域ABCD
を示す。サブセクションは、左半分AEFDおよび右半
分EBCFに分割される。右半分の任意の点P1につい
て、「鏡像」位置の左半分において対応する点P2があ
る。サブセクションABCDは、中央線EFに対して対
称であるターゲットを含む場合、点P1および点P2は1
組の対称な点を形成する。
【0155】絶対的な均等照明において、これら2つの
点の輝度、すなわち強度は、等しい。しかし、図25に
示すように、代表的な照明条件は、対称的な点の強度が
異なる。
【0156】この問題は、各点の強度変化を示すベクト
ルである「画像勾配」を使用して克服される。特に、こ
のようなベクトルの各々は、任意の方向、およびベクト
ルが極大強度変化の方向をさす方向または角度の点から
の強度の極大変化に等しい大きさを有する。勾配振幅は
また、照明の種類によって影響されるが、位相角度は、
顔の幾何的特徴に主に依存し、照明にはあまり依存しな
い。したがって、点P 1およびP2は、勾配角度θ1およ
びθ2が以下の条件を満たす場合、対称とみなされる。 θ1+θ2=±π サブセクションABCDの対称性尺度は、以下の式で与
えられる。
【0157】
【数22】
【0158】ここで、(x,y)および(x’,y’)
は、画像サブセクションの2つの半分における点の対の
座標である。
【0159】この尺度Ssは、左から右、上から下へ検
索することによって画像中の任意のサブセクションにつ
いて計算される。次に、Ssの最高値を有するセクショ
ンは、画像の顔を含む領域として選択される。
【0160】尺度Ssは、以下の式にしたがってさらに
精度を上げられる。
【0161】
【数23】
【0162】ここで、w(x,y)およびw(x’,
y’)は、加重関数である。例えば、加重関数は、強い
エッジがSsの値にさらに寄与するような、各点での勾
配振幅であり得る。実際には、2値加重関数を使用して
もよく、2値加重関数は、勾配振幅が所定の閾値を超え
る場合、加重関数を1に設定し、そうでなければ、加重
関数を0に設定するように、勾配振幅を閾値で分けるこ
とによって形成され得る。閾値は、サブセクションの勾
配振幅の平均値の半分にしてもよい。
【0163】ターゲット画像が直立姿勢の顔からキャプ
チャされることが望ましい。例えば、ユーザがディスプ
レイの前に座り、ディスプレイを見始めると、システム
が開始して、顔を見いだし、そしてターゲット画像を見
つける。検出される最初のターゲット画像は、ユーザが
直立姿勢でないこともあるので、最良ではないこともあ
る。したがって、例えば次の観察者トラッキングのため
のテンプレートとして最初に検出されたターゲット画像
を選択することは、適切でないこともある。
【0164】図26は、図6に示す方法に基づいて改変
された方法である。特に、ステップS50〜S53がス
テップS6とS7との間に挿入される。テンプレートが
ステップS6で見つかった場合、ステップS50は、テ
ンプレート中に含まれる画像の「良さ」の尺度を計算す
る。例えば、この尺度は、上記のように対称性尺度Ss
に基づき得る。ステップS51は、テンプレートが最新
のR画像、すなわちフレームにおいて見つかったかどう
かを判定する。見つからなければ、制御は、ステップS
1に戻る。あれば、ステップS52は、最も最近検出さ
れたテンプレートの良さ尺度と前回の最良のテンプレー
トの良さ尺度を比較する。最新のテンプレートが、より
高度な良さ尺度を有すれば、現在の最良のテンプレート
として選択される。
【0165】ステップS53は、テンプレートが最新の
Rフレーム中にr回より多く見つかったかどうかを判定
する。見つからなければ、制御は、ステップS1に戻
る。あれば、ステップS7は、最良のテンプレート、す
なわち最高の良さ尺度を有するテンプレートを出力す
る。
【0166】図26において図示される方法は、最新の
連続Rフレームにおいてrより多くのテンプレートが検
出されたかどうかを判定する。例えば、rが7に等し
く、Rが10に等しくてもよい。この場合が正しけれ
ば、ターゲット画像は、一貫して検出されるとみなさ
れ、最良のテンプレートが、次の観察者トラッキングの
ために使用される。
【0167】図7に例示される顔ロケータを、ある程度
のユーザによる補助が必要な半自動的方法に置き換える
ことが可能である。例えば、白黒ビデオカメラが使用さ
れる場合、色情報が利用できないので、図7に図示され
る顔ロケータは、それ程うまく動作しないこともある。
【0168】半自動的方法において、各入力ビデオ画像
は、大人の頭とほぼ同じサイズのグラフィックスヘッド
ガイド(graphicsheadguide)を用い
て、ディスプレイの中心に表示される。ユーザは、固定
されたグラフィックスガイドを用いて自分自身の生画像
シーケンスを見て、ガイド内の頭を位置付けることがで
きる。顔アナライザ18は、グラフィックスヘッドガイ
ド内の領域に適用され、一旦ユーザの頭がこの領域内に
配置されると、顔を検出し、ターゲット画像の正確な位
置を見いだす。ユーザには、正確な位置合わせが全く要
求されない。このような位置合わせは、英国特許第23
24428号および欧州特許第0877274号に開示
される方法においては、不便な要件である。さらに、顔
アナライザ18は,ヘッドガイドによって特定された領
域のみを検索するので、背景中に偽ターゲットを検出す
る可能性は低減される。
【0169】照明が、例えば極端に偏向した照明など
の、極めて良好でない照明の場合、半自動的方法は、信
頼できるほどにうまく動作しないこともある。この場
合、テンプレートを確定する決定は、この方法を行う装
置ではなくむしろユーザに残され得る。この決定は、例
えば、ターゲット画像が見つかった後で、ユーザの表示
された画像の上にグラフィックスオーバレイを表示する
ことによって達成される。ユーザは、ターゲット画像の
位置を見ることができ、テンプレートを確定するかどう
かを決定できる。
【0170】この方法と手動方法との間の相違は、テン
プレートを選択するために頭と「オーバレイ」グラフィ
ックスとを位置合わせする特別な努力をする必要がない
ことである。そのかわりに、コンピュータがテンプレー
トを指示し、このテンプレートが正しい場合、ユーザ
は、例えばボタンまたはキーを押すことによって、信号
確定をだけを行う必要がある。もしくは、システムは手
動モードに戻り得る。この機構は、首尾よいトラッキン
グが可能なように信頼できるテンプレートが常に得られ
ることを確実にする。
【0171】顔が両側において適切に同じ照明を受ける
ような周辺照明において、垂直方向積分投射曲線図中の
オメガ形状の検出は、十分うまく動作する。しかし、照
明が、顔の片側に強く偏向している場合、この技術は、
あまり信頼できないことがあり得るが、以下に示すよう
に図6のステップS4に改変された画像データを供給す
ることによって改善され得る。
【0172】画像領域中の画像は、「鏡像化」、すなわ
ち垂直方向中心線に対して水平方向に逆向きにされ、そ
の後、元の画像に付加される。顔が幾何的に対称であ
り、中心線が顔の中央にあるような理想的な場合、得ら
れる顔の画像は、顔の両側に対称的な照明を有する。こ
のような画像の垂直方向積分投射曲線図は、やはり対称
的なオメガ形状を有する。顔アナライザ18を参照して
上記されたプロセスステップは、改変された画像データ
上で使用され得る。
【0173】対称であるように選択された初期線は、顔
の中心にないことがあり得る。したがって、この技術
は、曲線図中に検出されたピークが鏡点(mirror
point)として使用されるように、反復的に適用さ
れ得る。結果として、より正確なピーク位置を有するよ
りよいオメガ形状を生じる。ピーク位置が実質的に変化
しなくなるまでこの技術が繰り返され得る。
【0174】上記の方法は、周辺光を含む均一な照明で
良好に作用し、アクティブな光源を用いることによっ
て、良好でない照明条件下での応用に適用され得る。こ
の方法は、特別な照明を必要とせず、観察者の照明の変
化に対しても非常に回復が速いが、図2の初期化ステー
ジ9においてはアクティブな光源を用いて、次の観察者
トラッキング中にスイッチオフしてもよい。トラッキン
グは非常に強力で、特別な照明を必要としないからであ
る。
【0175】図27は、アクティブな照明を提供するよ
うに改変された図2に示すタイプのディスプレイを示
す。アクティブな光源は、プロセッサ4によって制御さ
れるシンクロナイザを有するフラッシュライト55を含
む。フラッシュライト55は、ディスプレイ7の上およ
びセンサ3の隣りなど、適切な位置に配置され、観察者
の顔を照射する。
【0176】図28は、ビデオトラッキングシステム
2、特にデータプロセッサ4をさらに詳細に示す。デー
タプロセッサは、CPUバス57に接続された中央処理
装置(CPU)56を有する。システムメモリ58は、
バス57に接続され、データプロセッサを作動するため
のシステムソフトウェアをすべて含む。
【0177】ビデオカメラ3は、ビデオディジタイザ5
9に接続され、ビデオディジタイザ59は、データバス
60、シンクロナイザを有するフラッシュライト55、
CPU56、および、オプションのビデオディスプレイ
61が設けられているときには、ビデオディスプレ61
に接続されている。フレームストア62は、データバス
60およびCPUバス57に接続されている。マウス8
は、CPU56に接続されている。
【0178】アクティブな照明を用いない実施態様で
は、フレームストアは、1つのフィールドの容量をもつ
だけでよい。640×240画素のフィールド解像度を
有する上記のビデオカメラ3の場合、24ビットのRG
Bカラー信号に対しては、640×240×3=460
800バイトの容量が必要である。アクティブな照明を
用いる実施態様については、フレームストア62は、2
つのフィールドのビデオデータの容量(即ち、9216
00バイト)を有する。
【0179】使用時には、フラッシュライト55は、ビ
デオカメラ3およびビデオディジタイザ59と同期さ
れ、フラッシュライトは、画像がキャプチャされている
ときに、適切なタイミングでスイッチオンまたはオフさ
れる。
【0180】フラッシュライト55は、観察者の顔に光
を当てて、分布の均一性を高めるために用いられる。フ
ラッシュライト55が周辺光よりもはるかに強い場合、
顔の輝度は、フラッシュライト55によって主に決定さ
れる。しかし、強力な光源を用いると、過飽和状態の画
像を生成する傾向があり、この場合、多くの物体が、顔
のような領域として誤って検出され得る。さらに、強力
なフラッシュライトの使用は、観察者にとって不快であ
り、目に損傷を与え得る。
【0181】従って、フラッシュライト55は、中庸な
強度であるのがよい。この場合、周辺光の影響は、純粋
な顔のような領域を検出する信頼性を向上させるために
減少される必要があり得る。
【0182】図6に示す方法は、1つがフラッシュライ
ト55を照射した状態で得られ、もう1つが周辺光のみ
で得られる2つの連続したフレームのビデオ画像データ
を比較するように改変され得る。従って、これらのフレ
ームのうちの最初のフレームは、周辺光およびフラッシ
ュライト55の両方の影響を含んでいる。従って、この
最初の画像I(a+f)は、2つの成分を含むものと見
なされ得る。 I(a+f)=I(a)+I(f) ここで、I(a)は、周辺光のみで得られた画像で、I
(f)は、唯一の光源がフラッシュライト55である場
合に生成されるであろう画像である。これは、以下のよ
うに書き直され得る。 I(f)=I(a+f)−I(a) 従って、画像ピクセルデータを減算することによって、
周辺照明の効果が低減または除去され、顔検出方法の信
頼性および回復性を改善し得る。
【0183】
【発明の効果】本発明の方法および装置によると、画像
中にヒトの顔を自動的に検出するための方法および装置
が提供される。この方法および装置は、例えばトラッキ
ング機能を備えた自動立体型ディスプレイに関連した観
察者ビデオトラッキングシステムの初期ステージにおい
て使用され得る。自動ターゲット画像キャプチャのため
のこのような技術を使用すると、ビデオトラッキングシ
ステムおよび関連した自動立体型ディスプレイの使用が
容易になり、したがってこのようなシステムについての
商業的な成功の見込みが増すことになる。
【0184】本発明の方法によると、顔ロケータおよび
顔アナライザ(analyzer)の形態をとる2段階
のアプローチを使用することによって、顔ロケータによ
って、より計算のかかる顔分析をいくつかの顔候補に制
限することが可能になる。このような機構により、リア
ルタイムでビデオ画像のシーケンス中の画像を検出する
ことができる。このリアルタイムでの画像検出は、画像
内容の複雑さに依存し、例えば、5〜30Hzの速度で
ある。
【0185】本発明の顔ロケータは、顔分析の信頼性を
高める。なぜなら、分析は、各画像中で見いだされる各
顔候補領域に対して行われるだけだからである。顔なし
候補領域が顔の特徴を示し得る領域に同様のデータを含
み得るが、顔ロケータは、そのような特徴に基づいた分
析を有望な顔候補に制限する。さらに、分析は、顔ロケ
ータによって見つけられた偽顔候補を除去するのに役立
ち、顔および顔の特徴のより正確な位置データ(目領域
のターゲット画像が得られ得るような観察者の両目の間
の中間点など)を与えることができる。
【0186】本発明の方法によると、見いだしおよび分
析の機能を分離することによって、各機能またはステッ
プは、計算能力およびコストを過度に要求することなし
に商業的に実施され得る、より簡単かつより効率的な方
法を使用し得る。例えば、皮膚の色を使用して有望な顔
候補を見いだすステップは、適度な照明の変化に適応で
きる。この技術は、かなり広範囲の照明条件に適応で
き、異なる年齢、性別、および皮膚の色の人々に対応で
きる。さらに、薄く色のついた眼鏡を着用していても対
応し得る。
【0187】本発明による方法および装置は、コンピュ
ータによる実施に関し、多くのモジュールのうちの任意
のモジュールを使用し得る。各モジュールは、種々の要
求に合うように置換または改変され得る。これにより、
システムの柔軟性が増大し、したがって、安全監視、ビ
デオおよび画像圧縮、ビデオ会議、コンピュータゲー
ム、運転手モニタリング、グラフィカルユーザインター
フェース、顔認識、および個人識別などのかなり広範囲
の用途を有し得る。
【図面の簡単な説明】
【図1】公知のタイプの観察者トラッキング自動立体デ
ィスプレイの概略ブロック図である。
【図2】本発明が適用され得る観察者トラッキングディ
スプレイの概略ブロック図である。
【図3】図2のディスプレイにおける観察者トラッキン
グを示す流れ図である。
【図4】図3に示す方法によってキャプチャされる典型
的なターゲット画像またはテンプレートを示す図であ
る。
【図5】図2のディスプレイによるテンプレートキャプ
チャ中のディスプレイの外観を示す図である。
【図6】本発明の実施態様を構成する顔のような領域を
検出する方法を示す流れ図である。
【図7】図6に示される方法の顔見いだしステップを示
す流れ図。
【図8】色相彩度値(HSV)色方式を示す図である。
【図9】図7に示す方法における平均化による画像解像
度低下を示す図である。
【図10】図7に示す方法における均一値の計算を説明
する図である。
【図11】図7に示す方法における顔候補の選択に用い
られるパターンを示す図である。
【図12】顔の異なる位置の、図7に示す方法に対する
影響を示す図である。
【図13】異なる顔の位置を収容する、図7に示す方法
への改変を示す図である。
【図14】図6に示す方法の顔分析ステージをさらに詳
細に示す流れ図である。
【図15】図14に示す方法の顔特徴抽出ステージをさ
らに詳細に示す流れ図である。
【図16】目領域の画像部分および対応する垂直方向積
分投射を示す図である。
【図17】目署名を検索するための技術を示す図であ
る。
【図18】図14に示す方法のさらなる顔特徴抽出技術
形成ステップを示す流れ図である。
【図19】極めて粗いステップサイズを有する垂直方向
積分投射を示す図である。
【図20】偽顔候補を除去するための水平方向積分投射
曲線図の使用を示す図である。
【図21】1対の輝度極小値として表される1対の目の
検出を示す図である。
【図22】鼻検出技術を示す図である。
【図23】図14に示す改変された顔特徴抽出ステップ
をさらに詳細に示す流れ図である。
【図24】口領域の垂直および水平方向積分投射を有す
る瞳および口領域を示す図である。
【図25】顔の対称性を分析するステップに基づく技術
を示す図である。
【図26】図14に示す方法を終了するための技術を示
す流れ図である。
【図27】本発明が適用される観察者トラッキングディ
スプレイの概略ブロック図である。
【図28】本発明の方法を実施するための、図13のデ
ィスプレイのビデオトラッキングシステムのシステムブ
ロック図である。
【符号の説明】
1 ディスプレイシステム 2 トラッキングシステム 3 トラッキングセンサ 4 トラッキングプロセッサ 5 ディスプレイ制御プロセッサ 6 操縦機構 7 トラッキング機能を備えた3Dディスプレイ 8 マウス 9 初期化ステージ 10 トラッキングステージ 11 テンプレート 16 グラフィカルガイド
フロントページの続き (72)発明者 ニコラス スティーブン ホリマン イギリス国 オーエックス10 0エイワイ オックスフォードシャー, ウォーリン グフォード, ウッド ストリート 59エ イ (72)発明者 デービッド エズラ イギリス国 オーエックス10 0アールエ ル オックスフォードシャー, ウォーリ ングフォード, ブライトウェル−カム− ソットウェル, モンクス ミード 19

Claims (43)

    【特許請求の範囲】
  1. 【請求項1】 画像中のヒトの顔を検出する方法であっ
    て、 顔候補領域を画像中に見いだすステップと、 顔の特徴を示す第1の特徴について顔候補領域を分析す
    るステップと、を包含し、 該第1の特徴が第1および第2の極小値の間に配置され
    た極大値を含むほぼ対称な水平方向輝度曲線図を含み、
    該分析ステップが、顔候補領域の一部の垂直方向積分投
    射を形成するステップと、垂直方向積分投射が極大値に
    対してほぼ対称的に配置された該第1および第2の極小
    値を有するかどうかを判定するステップとを含む、方
    法。
  2. 【請求項2】 前記見いだしステップおよび分析ステッ
    プは、1シーケンスの画像の各画像について繰り返され
    る、請求項1に記載の方法。
  3. 【請求項3】 前記または各画像がカラー画像であり、
    前記分析ステップが、該カラー画像のカラー成分につい
    て行われる、請求項1に記載の方法。
  4. 【請求項4】 前記または各画像がカラー画像であり、
    前記分析ステップが、該カラー画像から得られたコント
    ラスト画像上で行われる、請求項1に記載の方法。
  5. 【請求項5】 前記分析ステップは、前記垂直方向積分
    投射が、水平方向の分離が所定範囲内である第1および
    第2の極小値を有するかどうかを判定する、請求項1に
    記載の方法。
  6. 【請求項6】 前記分析ステップは、前記極大値と、前
    記第1および第2の極小値の小さい方との間の差と、該
    極大値との比が第1の閾値より大きいような、前記垂直
    方向積分投射が極大値ならびに第1および第2の極小値
    を有するかどうかを判定する、請求項1に記載の方法。
  7. 【請求項7】 前記垂直方向積分投射は、前記顔候補の
    複数部分について形成され、そして最も高い比を有する
    該部分が有望なターゲット画像として選択される、請求
    項6に記載の方法。
  8. 【請求項8】 前記分析ステップは、前記部分の対称性
    の尺度を形成するステップを含む、請求項1に記載の方
    法。
  9. 【請求項9】 前記対称性の尺度は、以下の式 【数1】 で形成され、V(x)は、水平方向位置xでの前記垂直
    方向積分投射の値であり、x0は、該垂直方向積分投射
    の中央の水平方向位置である、請求項8に記載の方法。
  10. 【請求項10】 前記垂直方向積分投射は、前記顔候補
    の複数部分について形成され、最も高い対称性の尺度を
    有する部分が有望なターゲット画像として選択される、
    請求項8に記載の方法。
  11. 【請求項11】 前記分析ステップは、前記顔候補領域
    の一部を左半分および右半分に分割するステップと、該
    半分の各々の水平方向積分投射を形成するステップと、
    該左および右水平方向積分投射の水平方向対称性の尺度
    と第2の閾値とを比較するステップと、を含む請求項1
    に記載の方法。
  12. 【請求項12】 前記分析ステップは、前記顔候補領域
    が、所定の範囲内において、ほぼ同じ高さに配置され、
    水平方向の分離した第1および第2の輝度極小値を有す
    るかどうかを判定する、請求項1に記載の方法。
  13. 【請求項13】 前記分析ステップは、前記顔候補領域
    が、第1および第2の輝度極小値よりも高い輝度を有
    し、且つ該第1および第2の輝度極小値の間に配置され
    る垂直方向に伸長する領域を有するかどうかを判定す
    る、請求項12に記載の方法。
  14. 【請求項14】 前記分析ステップは、前記顔候補領域
    が、前記垂直方向に伸長する領域の下に配置され、且つ
    該垂直方向に伸長する領域より低い輝度を有する水平方
    向に伸長する領域を有するかどうかを判定する、請求項
    13に記載の方法。
  15. 【請求項15】 前記分析ステップは、前記顔候補領域
    中に、緑色画像成分が赤色画像成分より大きいか、また
    は青色画像成分が緑色画像成分より大きい瞳候補領域を
    見いだすステップを含む、請求項1に記載の方法。
  16. 【請求項16】 前記瞳候補領域を見いだすステップ
    は、前記顔候補領域の目候補領域に限定される、請求項
    15に記載の方法。
  17. 【請求項17】 前記分析ステップは、前記目候補領域
    中の絵素(x,y)についての関数E(x,y)を以下
    の式 【数2】 に形成し、ここで、R、G、およびBは赤色、緑色、お
    よび青色画像成分であり、C1およびC2は定数であり、
    E(x,y)=1は前記瞳候補領域内部の絵素を表し、
    そしてE(x,y)=0は該瞳候補領域外部の絵素を表
    す、請求項16に記載の方法。
  18. 【請求項18】 前記分析ステップは、前記瞳の中心を
    前記瞳候補領域の重心として検出する、請求項17に記
    載の方法。
  19. 【請求項19】 前記分析ステップは、口候補領域を、
    水平方向においては前記瞳候補領域の間に、垂直方向に
    おいては該瞳候補領域の間の距離の実質的に0.5〜
    1.5倍だけ瞳候補領域の下にある前記顔候補領域のサ
    ブ領域中に見いだすステップ、を含む、請求項15に記
    載の方法。
  20. 【請求項20】 前記分析ステップは、前記サブ領域中
    の絵素(x,y)についての関数M(x,y)を以下の
    式 【数3】 に形成し、ここで、R、G、およびBは赤色、緑色、お
    よび青色画像成分であり、ηは定数であり、M(x,
    y)=1は前記口候補領域内部の絵素を表し、そしてM
    (x,y)=0は該口候補領域外部の絵素を表す、請求
    項19に記載の方法。
  21. 【請求項21】 前記関数M(x,y)の垂直および水
    平方向投射曲線図が形成され、唇候補領域が該垂直およ
    び水平方向投射曲線図が第1および第2の所定の閾値を
    それぞれに超える長方形サブ領域中に定義される、請求
    項20に記載の方法。
  22. 【請求項22】 前記第1および第2の所定の閾値が前
    記垂直および水平方向投射曲線図の極大値にそれぞれ比
    例する、請求項21に記載の方法。
  23. 【請求項23】 前記分析ステップは、前記唇候補領域
    のアスペクト比が第1および第2の予め規定された閾値
    の間にあるかどうかをチェックする、請求項21に記載
    の方法。
  24. 【請求項24】 前記分析ステップは、前記瞳候補領域
    から前記唇候補領域の上部までの垂直距離と該瞳候補領
    域間の間隔との比が第1および第2の予め設定された閾
    値の間にあるかどうかをチェックする、請求項21に記
    載の方法。
  25. 【請求項25】 前記分析ステップは、前記顔候補領域
    の一部を左および右半分に分割するステップと、水平方
    向に対称的に配置された対をなす対称な点の輝度勾配の
    角度を比較するステップと、を含む、請求項1に記載の
    方法。
  26. 【請求項26】 前記見いだしステップおよび分析ステ
    ップは、前記第1の特徴が前記シーケンスの連続R画像
    のr回目に見つかる場合に、停止される、請求項2に記
    載の方法。
  27. 【請求項27】 前記見いだしステップは、ヒトの顔を
    示す第2の特徴を有する顔候補領域について前記画像を
    検索するステップを含む、請求項1に記載の方法。
  28. 【請求項28】 前記第2の特徴が均一な彩度である、
    請求項27に記載の方法。
  29. 【請求項29】 前記検索ステップが、彩度を平均化す
    ることによって前記画像の解像度を低下させ、解像度が
    低下した画像を形成するステップと、所定の形状におい
    て、該所定の形状を取り囲む該解像度が低下した画像の
    部分の彩度とは実質的に異なる実質的に均一な彩度を有
    する該解像度が低下した画像の領域を検索するステップ
    と、を包含する、請求項28に記載の方法。
  30. 【請求項30】 前記画像が、複数の絵素を含み、前記
    解像度が、前記所定の形状が2から3個の解像度が低下
    した絵素にわたるように低下される、請求項29に記載
    の方法。
  31. 【請求項31】 前記画像が、M×N絵素の長方形アレ
    イを含み、前記解像度が低下した画像が、(M/m)×
    (N/n)絵素を含み、それぞれが、該画像のm×n絵
    素に対応し、該解像度が低下した画像の各絵素の彩度P
    が、以下の式 【数4】 で表され、ここで、f(i,j)が、該m×n絵素のi
    番目の列およびj番目の行の絵素の彩度である、請求項
    30に記載の方法。
  32. 【請求項32】 ストアに前記彩度を格納するステップ
    をさらに含む、請求項31に記載の方法。
  33. 【請求項33】 前記解像度が低下した絵素のそれぞれ
    の彩度と、少なくとも1つの隣接した解像度が低下した
    絵素の彩度とを比較することによって、該解像度が低下
    した絵素のそれぞれに均一値が割り当てられる、請求項
    31に記載の方法。
  34. 【請求項34】 以下の式が満たされる場合、各均一値
    に第1の値が割り当てられ、 (max(P)−min(P))/max(P)≦T ここで、max(P)およびmin(P)が、それぞ
    れ、前記解像度が低下した絵素および前記または各隣接
    した絵素の彩度の最大値および最小値であり、Tが閾値
    であり、該式が満たされない場合、該各均一値に、該第
    1の値とは異なる第2の値が割り当てられる、請求項3
    3に記載の方法。
  35. 【請求項35】 Tが実質的に0.15に等しい、請求
    項34に記載の方法。
  36. 【請求項36】 ストアに前記彩度を格納するステップ
    を含み、前記または各隣接した解像度が低下した絵素に
    は均一値が割り当てられず、各均一値が該対応する彩度
    の代わりに該ストアに格納される、請求項33に記載の
    方法。
  37. 【請求項37】 前記所定の形状が2または3個の解像
    度が低下した絵素にわたるように、前記解像度が低下さ
    れ、前記方法が、前記第1の値の均一値が、1つの解像
    度が低下した絵素、2つの垂直または水平方向に隣接し
    た解像度が低下した絵素、および絵素の長方形の2×2
    アレイのいずれか1つに割り当てられ、前記第2の値の
    均一値が、周囲の解像度が低下した絵素のそれぞれに割
    り当てられるとき、顔候補領域の検出を示すことをさら
    に含む、請求項34に記載の方法。
  38. 【請求項38】 ストアに前記彩度を格納するステップ
    をさらに含み、前記対応する均一値の代わりに、前記第
    1および第2の値とは異なる第3の値を該ストアに格納
    することによって検出が示される、請求項37に記載の
    方法。
  39. 【請求項39】 前記解像度低下を繰り返すステップ
    と、前記画像絵素に対して前記解像度が低下した絵素が
    シフトした状態で、少なくとも1回は検索をするステッ
    プとをさらに含む、請求項30に記載の方法。
  40. 【請求項40】 前記彩度が、以下の式で、赤色、緑色
    および青色成分から得られ、 (max(R,G,B)−min(R,G,B))/m
    ax(R,G,B) ここで、max(R,G,B)およびmin(R,G,
    B)が、それぞれ、該赤色、緑色および青色成分の最大
    値および最小値である、請求項29に記載の方法。
  41. 【請求項41】 第1の画像が、顔の位置の予想範囲を
    照射している間にキャプチャされ、第2の画像が、周辺
    光を用いてキャプチャされ、該第2の画像が該第1の画
    像から減算されて画像を形成する、請求項1に記載の方
    法。
  42. 【請求項42】 画像中でヒトの顔を検出するための装
    置であって、 該画像中で顔候補領域を見いだす手段と、 顔の特徴を示す第1の特徴について該顔候補領域を分析
    するための手段と、をさらに備える装置。
  43. 【請求項43】 請求項42に記載の装置をさらに有す
    る観察者トラッキングディスプレイ。
JP25039999A 1998-09-05 1999-09-03 ヒトの顔を検出する方法および装置、ならびに観察者トラッキングディスプレイ Expired - Fee Related JP3761059B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB9819323.8 1998-09-05
GB9819323A GB2341231A (en) 1998-09-05 1998-09-05 Face detection in an image

Publications (2)

Publication Number Publication Date
JP2000082147A true JP2000082147A (ja) 2000-03-21
JP3761059B2 JP3761059B2 (ja) 2006-03-29

Family

ID=10838356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25039999A Expired - Fee Related JP3761059B2 (ja) 1998-09-05 1999-09-03 ヒトの顔を検出する方法および装置、ならびに観察者トラッキングディスプレイ

Country Status (5)

Country Link
US (1) US6633655B1 (ja)
EP (1) EP0984386B1 (ja)
JP (1) JP3761059B2 (ja)
DE (1) DE69922752T2 (ja)
GB (1) GB2341231A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285959A (ja) * 2005-03-07 2006-10-19 Fuji Photo Film Co Ltd 顔判別装置の学習方法、顔判別方法および装置並びにプログラム
JP2007074675A (ja) * 2005-09-09 2007-03-22 Sony Corp 画像処理装置および方法、並びにプログラム
JP2007074673A (ja) * 2005-09-09 2007-03-22 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012155727A (ja) * 2006-02-07 2012-08-16 Qualcomm Inc モード間の関心領域画像オブジェクト区分
US8605945B2 (en) 2006-02-07 2013-12-10 Qualcomm, Incorporated Multi-mode region-of-interest video object segmentation
WO2022123751A1 (ja) * 2020-12-10 2022-06-16 富士通株式会社 判定方法、判定プログラム、及び情報処理装置

Families Citing this family (157)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6650761B1 (en) 1999-05-19 2003-11-18 Digimarc Corporation Watermarked business cards and methods
AUPP400998A0 (en) * 1998-06-10 1998-07-02 Canon Kabushiki Kaisha Face detection in digital images
US6792135B1 (en) * 1999-10-29 2004-09-14 Microsoft Corporation System and method for face detection through geometric distribution of a non-intensity image property
JP4158332B2 (ja) * 2000-02-03 2008-10-01 コニカミノルタビジネステクノロジーズ株式会社 カラー画像処理装置
JP3825222B2 (ja) * 2000-03-24 2006-09-27 松下電器産業株式会社 本人認証装置および本人認証システムならびに電子決済システム
US7155036B2 (en) * 2000-12-04 2006-12-26 Sony Corporation Face detection under varying rotation
US7027621B1 (en) * 2001-03-15 2006-04-11 Mikos, Ltd. Method and apparatus for operator condition monitoring and assessment
US7092554B2 (en) * 2001-05-01 2006-08-15 Eastman Kodak Company Method for detecting eye and mouth positions in a digital image
AUPR541801A0 (en) * 2001-06-01 2001-06-28 Canon Kabushiki Kaisha Face detection in colour images with complex background
SE0102360D0 (sv) * 2001-07-02 2001-07-02 Smart Eye Ab Method for image analysis
CA2359269A1 (en) * 2001-10-17 2003-04-17 Biodentity Systems Corporation Face imaging system for recordal and automated identity confirmation
US20030107592A1 (en) * 2001-12-11 2003-06-12 Koninklijke Philips Electronics N.V. System and method for retrieving information related to persons in video programs
JP3903783B2 (ja) * 2001-12-14 2007-04-11 日本電気株式会社 顔メタデータ生成方法および装置、並びに顔類似度算出方法および装置
US7221809B2 (en) * 2001-12-17 2007-05-22 Genex Technologies, Inc. Face recognition system and method
DE10221391B4 (de) * 2002-05-14 2006-08-24 Siemens Ag Verfahren zum Analysieren einer Szene
AUPS328102A0 (en) * 2002-06-28 2002-07-18 Seeing Machines Pty Ltd Tracking method
EP1413972B1 (de) 2002-10-24 2008-10-22 L-1 Identity Solutions AG Prüfung von Bildaufnahmen von Personen
US7142718B2 (en) * 2002-10-28 2006-11-28 Lee Shih-Jong J Fast pattern searching
US7327504B2 (en) * 2002-12-06 2008-02-05 Eastman Kodak Company Method of detecting clipped image pixels
CN1282943C (zh) * 2002-12-30 2006-11-01 佳能株式会社 图像处理方法及装置
CN100465985C (zh) * 2002-12-31 2009-03-04 佳能株式会社 人眼探测方法及设备
CN100370483C (zh) * 2003-03-07 2008-02-20 佳能株式会社 检测图像中对称图形的方法和装置
CN1333370C (zh) * 2003-06-18 2007-08-22 佳能株式会社 图像处理方法及装置
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8363951B2 (en) 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
AU2004248872A1 (en) * 2003-06-26 2004-12-29 Tangam Gaming Technology Inc. System, apparatus and method for automatically tracking a table game
US7792335B2 (en) 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US9129381B2 (en) 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8553949B2 (en) 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7471846B2 (en) 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
JP4543644B2 (ja) * 2003-09-16 2010-09-15 富士ゼロックス株式会社 データ認識装置
JP4383140B2 (ja) * 2003-09-25 2009-12-16 任天堂株式会社 画像処理装置および画像処理プログラム
US7564994B1 (en) 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
WO2005071614A1 (ja) * 2004-01-27 2005-08-04 Seiko Epson Corporation 人物顔の検出位置ずれ補正方法及び補正システム並びに補正プログラム
JP4317465B2 (ja) 2004-02-13 2009-08-19 本田技研工業株式会社 顔識別装置、顔識別方法及び顔識別プログラム
JP2005266984A (ja) * 2004-03-17 2005-09-29 Konica Minolta Holdings Inc 画像処理システム
US7426296B2 (en) * 2004-03-18 2008-09-16 Sony Corporation Human skin tone detection in YCbCr space
KR101016848B1 (ko) * 2004-03-22 2011-02-22 엘지전자 주식회사 지문 대칭축 추출 방법
GB2414614A (en) * 2004-05-28 2005-11-30 Sony Uk Ltd Image processing to determine most dissimilar images
JP2005346806A (ja) * 2004-06-02 2005-12-15 Funai Electric Co Ltd Dvdレコーダおよび記録再生装置
US20060033737A1 (en) * 2004-08-16 2006-02-16 Old William M Methods and system for visualizing data sets
US7460689B1 (en) * 2004-09-15 2008-12-02 The United States Of America As Represented By The Secretary Of The Army System and method of detecting, recognizing, and tracking moving targets
CA2568633C (en) * 2004-10-15 2008-04-01 Oren Halpern A system and a method for improving the captured images of digital still cameras
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
WO2006057475A1 (en) * 2004-11-23 2006-06-01 Kicheon Hong Face detection and authentication apparatus and method
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US7715597B2 (en) 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
JP2006259900A (ja) * 2005-03-15 2006-09-28 Omron Corp 画像処理システム、画像処理装置および方法、記録媒体、並びにプログラム
US7415152B2 (en) * 2005-04-29 2008-08-19 Microsoft Corporation Method and system for constructing a 3D representation of a face from a 2D representation
US7693304B2 (en) * 2005-05-12 2010-04-06 Hewlett-Packard Development Company, L.P. Method and system for image quality calculation
JP4410732B2 (ja) 2005-07-27 2010-02-03 グローリー株式会社 顔画像検出装置、顔画像検出方法および顔画像検出プログラム
JP4429241B2 (ja) * 2005-09-05 2010-03-10 キヤノン株式会社 画像処理装置及び方法
US8805039B2 (en) * 2005-10-12 2014-08-12 Intelligent Virus Imaging Inc Identification and classification of virus particles in textured electron micrographs
GB2432064B (en) * 2005-10-31 2011-01-19 Hewlett Packard Development Co Method of triggering a detector to detect a moving feature within a video stream
DE102005052993B4 (de) * 2005-11-07 2014-08-21 Siemens Aktiengesellschaft Verfahren zur automatisierten Auswertung eines dreidimensionalen Abbildes eines seitensymmetrischen Organsystems
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
JP4782600B2 (ja) * 2006-03-30 2011-09-28 富士フイルム株式会社 顔検出方法およびこれを用いた撮影装置
EP1865443A3 (en) * 2006-06-09 2010-03-17 Samsung Electronics Co.,Ltd. Facial feature detection method and device
EP2033142B1 (en) 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Advances in extending the aam techniques from grayscale to color images
US20080007747A1 (en) * 2006-06-30 2008-01-10 Fuji Photo Film Co., Ltd. Method and apparatus for model based anisotropic diffusion
US7747045B2 (en) * 2006-06-30 2010-06-29 Fujifilm Corporation Method and apparatus for diffusion based illumination normalization
EP2050043A2 (en) 2006-08-02 2009-04-22 Fotonation Vision Limited Face recognition with combined pca-based datasets
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
TW200832282A (en) * 2007-01-17 2008-08-01 Asustek Comp Inc Method for calculating straightness of facial area and computer system
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
EP2115662B1 (en) * 2007-02-28 2010-06-23 Fotonation Vision Limited Separating directional lighting variability in statistical face modelling based on texture space decomposition
JP4970557B2 (ja) 2007-03-05 2012-07-11 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド デジタル画像取込装置における顔検索及び検出
WO2008109622A1 (en) 2007-03-05 2008-09-12 Fotonation Vision Limited Face categorization and annotation of a mobile phone contact list
JP5019939B2 (ja) * 2007-04-19 2012-09-05 パナソニック株式会社 撮像装置及び撮像方法
US7916971B2 (en) * 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US7844085B2 (en) * 2007-06-07 2010-11-30 Seiko Epson Corporation Pairwise feature learning with boosting for use in face detection
CN101178770B (zh) * 2007-12-11 2011-02-16 北京中星微电子有限公司 一种图像检测方法及装置
US8750578B2 (en) * 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US8218862B2 (en) * 2008-02-01 2012-07-10 Canfield Scientific, Incorporated Automatic mask design and registration and feature detection for computer-aided skin analysis
US8126221B2 (en) * 2008-02-14 2012-02-28 Ecole Polytechnique Federale De Lausanne (Epfl) Interactive device and method for transmitting commands from a user
US8861598B2 (en) * 2008-03-19 2014-10-14 Cisco Technology, Inc. Video compression using search techniques of long-term reference memory
CN101251896B (zh) * 2008-03-21 2010-06-23 腾讯科技(深圳)有限公司 一种基于多分类器的物体检测系统及方法
US7855737B2 (en) 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
EP2291795A1 (en) * 2008-07-02 2011-03-09 C-True Ltd. Face recognition system and method
WO2010012448A2 (en) 2008-07-30 2010-02-04 Fotonation Ireland Limited Automatic face and skin beautification using face detection
US8345922B2 (en) * 2008-09-03 2013-01-01 Denso Corporation Apparatus for detecting a pupil, program for the same, and method for detecting a pupil
CN101350063B (zh) * 2008-09-03 2011-12-28 北京中星微电子有限公司 人脸特征点定位方法及装置
DE102008048142A1 (de) 2008-09-19 2010-04-08 Schneemann System GmbH Verfahren zur Analyse eines menschlichen Kopfes
WO2010063463A2 (en) 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
US9002096B2 (en) * 2009-01-06 2015-04-07 Siemens Healthcare Diagnostics Inc. Method and apparatus for determining a liquid level in a container using imaging
US20100249573A1 (en) * 2009-03-30 2010-09-30 Marks Donald H Brain function decoding process and system
WO2010118292A1 (en) 2009-04-09 2010-10-14 Dynavox Systems, Llc Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods
CN102024149B (zh) * 2009-09-18 2014-02-05 北京中星微电子有限公司 物体检测的方法及层次型物体检测器中分类器的训练方法
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
US8712110B2 (en) * 2009-12-23 2014-04-29 The Invention Science Fund I, LC Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150298A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110211738A1 (en) * 2009-12-23 2011-09-01 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110206245A1 (en) * 2009-12-23 2011-08-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110211739A1 (en) * 2009-12-23 2011-09-01 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US9875719B2 (en) * 2009-12-23 2018-01-23 Gearbox, Llc Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150299A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150297A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150296A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150276A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150295A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
GB2478911B (en) * 2010-03-22 2014-01-08 Timocco Ltd Object locating and tracking in video frames using smoothness check along specified line sections
KR20120016386A (ko) * 2010-08-16 2012-02-24 주식회사 팬택 3d 객체 표시가 가능한 휴대용 장치 및 그 방법
TW201222432A (en) * 2010-11-26 2012-06-01 Inst Information Industry System, device, method, and computer program product for facial defect analysis using angular facial image
US8879804B1 (en) * 2010-12-18 2014-11-04 Alexey Konoplev System and method for automatic detection and recognition of facial features
US8737727B2 (en) * 2010-12-30 2014-05-27 Pelco, Inc. Color similarity sorting for video forensics search
US8891876B2 (en) * 2011-04-25 2014-11-18 Hewlett-Packard Development Company, L.P. Mouth corner candidates
EP2727047A4 (en) * 2011-06-30 2015-04-22 Nokia Corp METHOD AND APPARATUS FOR FACE TRACKING USING INTEGRAL GRADIENT PROJECTIONS
JP6035716B2 (ja) * 2011-08-26 2016-11-30 ソニー株式会社 情報処理システム及び情報処理方法
CN103765437B (zh) * 2011-08-29 2017-02-15 诺基亚技术有限公司 用于利用在视频帧之间的时间冗余性的特征计算和对象检测的方法和装置
JP5143262B1 (ja) * 2011-08-30 2013-02-13 株式会社東芝 立体映像処理装置、立体映像処理方法
JP6026119B2 (ja) * 2012-03-19 2016-11-16 株式会社東芝 生体情報処理装置
US9092667B2 (en) * 2012-08-27 2015-07-28 Symbol Technologies, Llc Arrangement for and method of reading forms in correct orientation by image capture
US9384383B2 (en) 2013-09-12 2016-07-05 J. Stephen Hudgins Stymieing of facial recognition systems
US10037467B2 (en) * 2013-09-26 2018-07-31 Nec Corporation Information processing system
US9480860B2 (en) 2013-09-27 2016-11-01 Varian Medical Systems, Inc. System and methods for processing images to measure multi-leaf collimator, collimator jaw, and collimator performance utilizing pre-entered characteristics
US10652525B2 (en) 2013-10-31 2020-05-12 3Di Llc Quad view display system
US11343487B2 (en) 2013-10-31 2022-05-24 David Woods Trackable glasses system for perspective views of a display
US9986228B2 (en) 2016-03-24 2018-05-29 3Di Llc Trackable glasses system that provides multiple views of a shared display
US9883173B2 (en) 2013-12-25 2018-01-30 3Di Llc Stereoscopic display
CN104050448B (zh) * 2014-06-11 2017-10-17 青岛海信电器股份有限公司 一种人眼定位、人眼区域定位方法及装置
EP3170307B1 (de) * 2014-07-15 2020-08-26 Novomatic Ag Verfahren zur darstellung einer dreidimensionalen szene auf einem autostereoskopischen monitor
US9922048B1 (en) 2014-12-01 2018-03-20 Securus Technologies, Inc. Automated background check via facial recognition
US9507996B2 (en) * 2015-03-02 2016-11-29 International Business Machines Corporation Ensuring a desired distribution of images in a multimedia document utilizing facial signatures
US10121056B2 (en) 2015-03-02 2018-11-06 International Business Machines Corporation Ensuring a desired distribution of content in a multimedia document for different demographic groups utilizing demographic information
US9495584B1 (en) * 2015-06-05 2016-11-15 Digital Signal Corporation System and method for facial recognition using images captured from a target illuminated with infrared light
CN106709404B (zh) * 2015-11-16 2022-01-04 佳能株式会社 图像处理装置及图像处理方法
EP3406077A1 (en) 2015-12-29 2018-11-28 Koninklijke Philips N.V. Autostereoscopic display device and display method
US10339367B2 (en) 2016-03-29 2019-07-02 Microsoft Technology Licensing, Llc Recognizing a face and providing feedback on the face-recognition process
RU2644525C2 (ru) * 2016-04-14 2018-02-12 ООО "КосМосГруп" Способ и система выявления живого человека на последовательности кадров путем выявления пульса на отдельных участках лица человека
US20170300742A1 (en) * 2016-04-14 2017-10-19 Qualcomm Incorporated Systems and methods for recognizing an object in an image
KR101810190B1 (ko) * 2016-07-14 2017-12-18 김용상 얼굴 인식을 이용한 사용자 인증 방법 및 그 장치
US9996773B2 (en) 2016-08-04 2018-06-12 International Business Machines Corporation Face recognition in big data ecosystem using multiple recognition models
CN110268455B (zh) * 2017-02-15 2022-12-09 三菱电机株式会社 驾驶状态判定装置及驾驶状态判定方法
US11069210B2 (en) * 2017-06-28 2021-07-20 Amazon Technologies, Inc. Selecting a video frame for notification using audio/video recording and communication devices
CN109583261A (zh) * 2017-09-28 2019-04-05 丽宝大数据股份有限公司 身体信息分析装置及其辅助比对眉型方法
US10679082B2 (en) * 2017-09-28 2020-06-09 Ncr Corporation Self-Service Terminal (SST) facial authentication processing
CN107784724A (zh) * 2017-10-26 2018-03-09 广州云从信息科技有限公司 一种基于人脸识别的安全管理方法
CN109948497B (zh) * 2019-03-12 2022-01-28 北京旷视科技有限公司 一种物体检测方法、装置及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05174149A (ja) * 1991-12-26 1993-07-13 Nippon Telegr & Teleph Corp <Ntt> 画像認識装置
WO1996018925A1 (en) * 1994-12-13 1996-06-20 Xenotech Research Pty. Ltd. Tracking system for stereoscopic display systems
JPH08161500A (ja) * 1994-12-05 1996-06-21 Minolta Co Ltd 物体認識装置
JPH08300978A (ja) * 1995-05-10 1996-11-19 Mitsubishi Electric Corp 顔画像の処理装置
JPH0981732A (ja) * 1995-09-19 1997-03-28 Sharp Corp 領域抽出装置及びそれを用いた方向検出装置
JPH09147119A (ja) * 1995-11-28 1997-06-06 Toshiba Corp 人物注目方向検出方式
JPH1021394A (ja) * 1996-07-01 1998-01-23 Matsushita Electric Ind Co Ltd 個人照合装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5680481A (en) 1992-05-26 1997-10-21 Ricoh Corporation Facial feature extraction method and apparatus for a neural network acoustic and visual speech recognition system
US5835616A (en) 1994-02-18 1998-11-10 University Of Central Florida Face detection using templates
US5629752A (en) * 1994-10-28 1997-05-13 Fuji Photo Film Co., Ltd. Method of determining an exposure amount using optical recognition of facial features
KR19980703120A (ko) 1995-03-20 1998-10-15 조안나 티. 라우 이미지 식별 시스템 및 방법
US5870138A (en) * 1995-03-31 1999-02-09 Hitachi, Ltd. Facial image processing
EP0829064B1 (en) * 1995-06-02 2001-07-25 Siemens Corporate Research, Inc. An eye localization filter
US5805745A (en) * 1995-06-26 1998-09-08 Lucent Technologies Inc. Method for locating a subject's lips in a facial image
JP3461626B2 (ja) * 1995-07-28 2003-10-27 シャープ株式会社 特定画像領域抽出方法及び特定画像領域抽出装置
US5715325A (en) * 1995-08-30 1998-02-03 Siemens Corporate Research, Inc. Apparatus and method for detecting a face in a video image
US6184926B1 (en) 1996-11-26 2001-02-06 Ncr Corporation System and method for detecting a human face in uncontrolled environments
US5991429A (en) 1996-12-06 1999-11-23 Coffin; Jeffrey S. Facial recognition system for security access and identification
JP3436473B2 (ja) * 1997-06-20 2003-08-11 シャープ株式会社 画像処理装置
US6148092A (en) * 1998-01-08 2000-11-14 Sharp Laboratories Of America, Inc System for detecting skin-tone regions within an image
US6404900B1 (en) * 1998-06-22 2002-06-11 Sharp Laboratories Of America, Inc. Method for robust human face tracking in presence of multiple persons

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05174149A (ja) * 1991-12-26 1993-07-13 Nippon Telegr & Teleph Corp <Ntt> 画像認識装置
JPH08161500A (ja) * 1994-12-05 1996-06-21 Minolta Co Ltd 物体認識装置
WO1996018925A1 (en) * 1994-12-13 1996-06-20 Xenotech Research Pty. Ltd. Tracking system for stereoscopic display systems
JPH08300978A (ja) * 1995-05-10 1996-11-19 Mitsubishi Electric Corp 顔画像の処理装置
JPH0981732A (ja) * 1995-09-19 1997-03-28 Sharp Corp 領域抽出装置及びそれを用いた方向検出装置
JPH09147119A (ja) * 1995-11-28 1997-06-06 Toshiba Corp 人物注目方向検出方式
JPH1021394A (ja) * 1996-07-01 1998-01-23 Matsushita Electric Ind Co Ltd 個人照合装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285959A (ja) * 2005-03-07 2006-10-19 Fuji Photo Film Co Ltd 顔判別装置の学習方法、顔判別方法および装置並びにプログラム
JP2007074675A (ja) * 2005-09-09 2007-03-22 Sony Corp 画像処理装置および方法、並びにプログラム
JP2007074673A (ja) * 2005-09-09 2007-03-22 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012155727A (ja) * 2006-02-07 2012-08-16 Qualcomm Inc モード間の関心領域画像オブジェクト区分
US8605945B2 (en) 2006-02-07 2013-12-10 Qualcomm, Incorporated Multi-mode region-of-interest video object segmentation
WO2022123751A1 (ja) * 2020-12-10 2022-06-16 富士通株式会社 判定方法、判定プログラム、及び情報処理装置

Also Published As

Publication number Publication date
EP0984386A3 (en) 2000-03-15
JP3761059B2 (ja) 2006-03-29
EP0984386B1 (en) 2004-12-22
US6633655B1 (en) 2003-10-14
DE69922752T2 (de) 2005-12-15
EP0984386A2 (en) 2000-03-08
GB2341231A (en) 2000-03-08
GB9819323D0 (en) 1998-10-28
DE69922752D1 (de) 2005-01-27

Similar Documents

Publication Publication Date Title
JP3761059B2 (ja) ヒトの顔を検出する方法および装置、ならびに観察者トラッキングディスプレイ
JP3938257B2 (ja) 顔のような領域を検出する方法および装置、ならびに観察者トラッキングディスプレイ
JP4307496B2 (ja) 顔部位検出装置及びプログラム
US6075557A (en) Image tracking system and method and observer tracking autostereoscopic display
JP4377472B2 (ja) 顔画像処理装置
KR100617390B1 (ko) 얼굴 식별 장치, 얼굴 식별 방법 및 기록매체
EP1426898B1 (en) Human detection through face detection and motion detection
JP5262243B2 (ja) 眼開閉判別装置、及びプログラム
JPH0944685A (ja) 顔画像処理装置
JP3143819B2 (ja) まぶたの開度検出装置
US20050063568A1 (en) Robust face detection algorithm for real-time video sequence
JP2003526841A (ja) 生物測定学に基づく顔の抽出システム及び方法
JP2000259814A (ja) 画像処理装置及びその方法
US20080226138A1 (en) Eyelid detection apparatus and program therefor
JP3490910B2 (ja) 顔領域検出装置
JP2007114029A (ja) 顔中心位置検出装置、顔中心位置検出方法、及び、プログラム
JP2003150942A (ja) 目位置追跡方法
JP3459950B2 (ja) 顔検出及び顔追跡方法並びにその装置
JPH08287216A (ja) 顔面内部位認識方法
JP4203279B2 (ja) 注目判定装置
JP3980464B2 (ja) 鼻位置の抽出方法、およびコンピュータに当該鼻位置の抽出方法を実行させるためのプログラムならびに鼻位置抽出装置
JPH04174309A (ja) 運転車の眼位置検出装置及び状態検出装置
KR960013819B1 (ko) 사람 얼굴의 화상처리를 이용한 개인 인식방법
JP3963789B2 (ja) 眼検出装置、眼検出プログラム、そのプログラムを記録する記録媒体及び眼検出方法
JP2677010B2 (ja) 眼位置検出装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060105

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees