JP3242678B2 - ビデオ画像のシーケンスにおける人の顔を識別するための回路装置 - Google Patents

ビデオ画像のシーケンスにおける人の顔を識別するための回路装置

Info

Publication number
JP3242678B2
JP3242678B2 JP22560291A JP22560291A JP3242678B2 JP 3242678 B2 JP3242678 B2 JP 3242678B2 JP 22560291 A JP22560291 A JP 22560291A JP 22560291 A JP22560291 A JP 22560291A JP 3242678 B2 JP3242678 B2 JP 3242678B2
Authority
JP
Japan
Prior art keywords
unit
value
circuit device
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP22560291A
Other languages
English (en)
Other versions
JPH04273388A (ja
Inventor
バディク エリック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JPH04273388A publication Critical patent/JPH04273388A/ja
Application granted granted Critical
Publication of JP3242678B2 publication Critical patent/JP3242678B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ビデオ画像のシーケン
スにおける人の顔を識別するための回路装置を対象とす
る。この場合この回路装置は、ブロックに構造化された
連続する2つのビデオ画像の差画像を形成するための第
1の手段を備えており、ブロックの複数の画素の値の和
又はこの値の整数のべき乗の和が第1の閾値を上回わる
か否か、および、第2の閾値を上回わる値又は該値の整
数のべき乗を有するこのブロックの画素の個数が所定の
個数を上回わるか否かについて各々の差画像を検査する
ための第2の手段を備えており、差画像から、複数個の
状態ビットから成る状態画像を形成するための第3の手
段を備えており、上記の検査に肯定的な答を出した差画
像の各々のブロックに対して前記状態ビットは第1の2
進値を有し、さらに上記の検査に否定的な答を出した差
画像の各々のブロックに対して状態ビットは第1の2進
値を反転した第2の2進値を有し、第3の手段は状態画
像から妨害成分を除去するためのフィルタ手段を含む。
【0002】
【従来の技術】前述の特性を有する装置の動作は、Pi
cture Coding Symposium 26
〜28、3月1990 in Cambridge,M
assachusetts,USAにおける論文に示さ
れている(Eric Badique:Knowled
ge−based Facial Area Reco
gnition and Improved Codi
ng in a CCITT−Compatible
Low−Bitrate Video−Codec.P
roceedings of Picture Cod
ing Symposium 90、Cambridg
e,Massachusetts参照のこと)。
【0003】同等の回路装置はヨーロッパ特許第A2−
0330455に示されている。この回路装置も例えば
テレビジョン電話の場合に用いられる。この種の回路装
置を低い伝送ビットレート(例えば64Kビット/S)
を有するテレビジョン電話に用いるための理由は、会話
の進行中に通話者の目が、相手の通話者の主として顔を
特に目と口を追うため、この事実が、伝送ビットレート
を高めなくても画質の主観的な改善を達成するために用
いられることである。この種の改善は次の時になされ
る、即ち目の部分と口の部分が、画像の他の領域を犠牲
にして、他の部分よりも一層高い精度で−即ちより多く
のビットで−符号化される時に、なされる。しかしこの
効果の利用は、ビデオ画像のシーケンスの中に顔が存在
するか否かが前もって検出されている時にだけ、可能で
ある。
【0004】このヨーロッパ特許A2−0330455
号に示されている装置は、この目的のために、2つのビ
デオ画像のシーケンスから出発する。差画像の中に、連
続画像が動く物体を含む時に、ゼロとは異なる信号成分
だけが現われる。この引用された特許出願では差画像の
順序が、識別エラーの発生確率が大であるように、後処
理されてしまう。
【0005】
【発明が解決しようとする問題点】本発明の課題は、連
続する画像が人の顔を含むか含まないかの判定が、従来
技術の場合よりも、著しく一層確実になされるようにし
た冒頭の回路装置を提供することである。
【0006】
【課題を解決するための手段】この課題は冒頭に述べた
回路装置において、次の構成の組み合わせにより解決さ
れる:即ち1つの行又は1つの列の第1の2進値を有す
る状態ビットの個数をもとめるための第4の手段が設け
られており、もとめられた状態ビットの個数は特徴関数
Mf(k)によって表すことができ、ここでkは行又は列
を示し、畳み込み積分
【0007】
【数2】
【0008】を計算するための第5の手段が設けられて
おり、ただしnは行又は列の個数であり、h(k)は補助
関数であり、補助関数は、特徴関数のサンプルが人のシ
ルエットと最も大きな類似性を有する場合に、前記畳み
込み積分が最大値をとるように選択されており、第5の
手段はさらに畳み込み積分によって形成された値がさら
に別の閾値を上回る場合に識別信号を送出するために設
けられており、第6の手段が設けられており、この第6
の手段は、各々の行内の前記第1の2進値を有する状態
ビットの重心をもとめ、もとめられた重心のアドレスの
平均値を形成することによって垂直方向の中心軸を決定
し、第1の2進値を有する状態ビットを有する第1の行
のアドレスをの最上部の点として決定し、頭の最上部の
点は列アドレスとして前記垂直方向の中心軸のアドレス
を有し、識別信号の送出の後で顔面としてビデオ画像に
面を形成するために設けられていることにより解決され
る。
【0009】状態画像の中の顔面を検出することによ
り、人の顔が粗く識別される。しかし顔面の確実な識別
は、できるだけ高い確率で、人の頭を肩と共に示す状態
画像を求めることを前提とする。
【0010】この確率を一層高くする目的で、局所的な
濾波作用ないし状態画像の時間的平滑化が実施される。
【0011】同じ目的のために、さらに第2のフィルタ
手段が設けられており、このフィルタにより、状態画像
中に現われるまとまりのある領域が求められる。最大の
領域が2番目に大きい領域とたいして異ならない時は、
肩を有する人の顔の画像が存在しない確率が高い。相応
の信号によりこのケースが示される;この場合、顔を識
別するための後続の全ての動作は行われない。
【0012】顔面の検出後に画素が検査され、これらの
画素が、状態画像の顔面を形成する全てのブロックから
成るビデオ画像の面の中へ収まるか否かが検査される。
そのためビデオ画像全体の一部の以後の検査が減少さ
れ、そのためよりコスト安になる。
【0013】ビデオ画像のこの部分は次に複数個の領域
の中に分解される。これらの領域はビデオ画像のまとま
りのある領域−これらの画素はすべて同じクラスの画素
データに所属する−である。この種のクラス分解は例え
ば、発生した全部のグレー値を、または発生した全部の
色値を論理和的部分集合へ分割することによって達成さ
れる。はげしい動きの分解も可能となる。
【0014】この手段の意味は、ビデオ画像の検査され
た部分内で人の口と目の識別の準備をすることである。
これに加えて、求められた領域の重心も定められる。次
にそれぞれ3つの重心(トリプレット(triplet))の
間の距離が定められ、さらにこれらの距離とトリプレッ
トの位置がモデルデータと比較される。例えば検査され
た面の縁部に存在するトリプレットは、人の目および口
に対応できない;トリプレットの間隔比が1とは著しく
異なるトリプレットも同じである。トリプレットに対し
て検査に合格すると、複数個の尺度による重み付けが次
のように行われる。即ちこのトリプレットが垂直中心軸
線に対してどのように存在するか(幾何学的尺度)、又
は、どのような色値をこれらの領域およびそれらの周囲
が有するか(色による尺度)、又は、どのような運動の
強度(ダイナミックな尺度)がそれらに所属するかによ
って、重み付けがなされる。
【0015】2つの連続する、最高の重み付けの所定の
トリプレットが所定の許容偏差限度内で一致すると、人
の顔の存在が著しく高い確実性で結論される。次にモデ
ルデータにしたがって、顔に所属しうる全ての画素が定
められ、さらにこの全ての画素が−テレビジョン電話に
おける使用の場合は、顔の外側の全部の点よりも一層正
確に符号化される。
【0016】次の本発明の実施例を図面を用いて詳細に
説明する。
【0017】
【実施例】図1の基本図において回路の線路1aにおい
てカメラのビデオ信号が導びかれて、さらにユニット
I、すなわち第1の手段により、それぞれ8×8=64
の画素から成るブロックへ構造化される。これらの画素
は、輝度データYと色データU,Vから成る。画像全体
は288の行と352の列とを有する、即ち10137
6個の画素を有する。この場合、色データは1つおきの
画素に対してだけ設けられている。8×8ブロックへの
構造化の場合、全部で36×44=1584ブロックが
形成される。ビデオ画像におけるそれらの幾何学的位置
はアドレスのデータにより一義的に示されている。同様
のことが画素に対して当てはまる。そのためアドレスは
座標データと同等である。ブロック、画素量または特別
の画素(例えば後述の“重心”)の後述のマーキング、
識別または選択の際に、常に意図されていることは、こ
れらの過程がこれらの量のアドレスへの付加データによ
り実施されることである。この場合これらの付加データ
はこの共通に−大抵は明示されていない−メモリの中に
格納される。クロック制御されるユニット、クロックパ
ルス線路およびその他の線路も明示されていない、何故
ならば当業者はそれらの必要性を簡単に理解して補なう
ことができるからである。
【0018】ユニットIは−図2に正確に示されている
様に−さらに遅延素子1、画像メモリ3および減算器2
を用いて、2つの連続するビデオ画像のシーケンスの画
素データの差−以下、簡単に差画像と称する−を形成す
る。ブロックへの構造化はブロックアドレス発生器7に
より実施され、さらに1つのブロックの画素のアドレス
指定は、ブロックアドレス発生器7と結合されている画
素アドレス発生器6により実施される。そのためアドレ
ス発生器6と7により差画像はブロック毎にかつ画素毎
に応働可能である。
【0019】ユニットIIA、すなわち第2の手段はま
ず最初に、2つの連続するビデオ画像のシーケンスの1
つのブロックの全部の画素のデータ差の値を形成する。
この値はこの実施例の場合、差画像の“画素のノルム”
である;他のノルムは例えば前記の値の整数のべき乗と
することもできる。これらの値は加算され、この場合、
この和は1つのブロックの全部の画素にわたり求めら
れ、さらにこの和の値は第1の閾値T1と比較される。
詳細が図2に、部分IIAに示されている。ユニット4
は画素の前記の値を加算し、ユニット5はこの加算値と
閾値T1とを比較して、この加算値が閾値T1を上回わ
ると2進数1を送出する。この実施例において閾値T1
は値10を有する。この閾値は使用されるカメラの機種
に依存し−他の全部の閾値の様に−、個々の場合に最適
化されている装置全体のパラメータである。この実施例
の場合は市販のCCDカメラが用いられた。
【0020】上位のユニットIIAのユニット10は1
つのブロックの画素の値を形成して、この値を直ちに、
値が4である第2の閾値T2と比較する。この画素の値
が閾値T2を上回わると、計数器11がユニット10の
1つのパルスにより歩進される。この計数器の状態は比
較ユニット12へ導びかれる。このユニットは計数器1
1が状態40を上回わる時に同じく2進数1を送出す
る。閾値の値はユニット5,10および12へ線路5
a,10aおよび12aを介して導びかれる。
【0021】ユニット5と12の出力信号はアンドゲー
ト8により結合されその出力信号が、図1ないし図2の
上位のユニットIIB、すなわち第3の手段のマッピン
グユニット9へ転送される。
【0022】このユニット9は差画像の1584個のブ
ロックを個々のビット−以下では状態ビットと称する−
へマッピングする、即ちアンドゲート8の出力信号が2
進数1である時に、1つのブロックのアドレスの下にユ
ニット9において2進数1(第1の2進値)が記憶され
る。それ以外の場合は2進数0(第2の2進値)が記憶
される。状態ビットは線路9aにおいて転送される。
【0023】1つの差画像のブロックの状態ビットの全
体を以下で状態画像と称する。状態画像中の1の分布か
ら検出されることは、2つの連続するビデオ画像のシー
ケンスのどの位置に有効な変化が現われているかという
ことである(この種の位置はブロックアドレスのデータ
により1つのブロックサイズの精度で検出される)。こ
の種の変化の原因は、カメラにより撮像されるシーン中
の運動する被写体、ノイズまたは突然変化した光の状態
である。しかしこの場合、人の顔が又はまず頭・肩シー
ンがサーチされるべきなので、頭と肩の運動に基因しな
い変化は重要ではない。これらの変化はフィルタにより
できるだけ状態画像から除去される。これらのフィルタ
は図1におけるユニットIIBの部材である。これらの
フィルタの作用は、状態画像の選択された状態ビットを
所定の尺度により反転することである。
【0024】図3は面フィルタ、すなわち第1のフィル
タ手段を示す。このフィルタにより状態画像中の複数個
の1が、これらが不十分な大きさの面部分を形成する時
は、反転により消去される。ユニットIIBの出力線路
9aを介してユニット17の状態ビットが、線路9aと
接続されている線路17aへ導びかれる。状態ビット−
このビットへブロックがマッピングされている−のアド
レスと同一のブロックアドレスが、アドレス発生器13
から発生される。次に、ユニット17が、そのメモリの
中に記憶されている状態ビットが値1を有するか否か
を、検査する。この試問が瞬時の状態ビットにおいてイ
エスであると、ユニット14は、この瞬時の状態ビット
に隣り合う8つの状態ビットのアドレスを発生して、こ
れをユニット18へ転送する。それにもとづいてユニッ
ト18は所属の状態ビットをユニット17から受け取
り、ユニット19へ導びく。ユニット19はこの状態ビ
ットの値を値1(この値は線路17bに加わっている)
と比較して、イエスの場合にユニット19とユニット1
5との間の線路を介して、ユニット15の計数器を1計
数単位だけ歩進する。次にユニット15は1つのパルス
をユニット14へ次の隣りのアドレスの発生の目的で送
出する。第1の状態ビットに隣り合う全部の状態ビット
の値の次の試問の後に、ユニット15の計数器の状態が
3よりも大きくないと、比較器16が信号を可制御の反
転器20へ送出する。この反転器はユニット17におけ
る瞬時の状態ビットを反転する。その他の全てのケース
においては、ビットは反転されずに転送される。値3を
有する整数の閾値が比較器16へ線路16aを介して導
びかれる。状態画像全体の処理の後に、状態ビットが線
路17cにおいて転送される。
【0025】状態画像の別の濾波が図4の平滑化装置に
より行なわれる。何故ならば出力線路17cが入力線路
21aと接続されているからである。平滑化装置は、第
1の状態画像メモリ25ならびにこれに後置接続されて
いる第2の状態画像メモリ27から構成されている。
【0026】両方の状態画像メモリ25と27は、ブロ
ックアドレス発生器24により制御される。この発生器
により両方のメモリから2つの連続する状態画像の同じ
アドレスを有する状態ビットが読み出される。メモリ2
5から読み出された状態ビットはオアゲート21の入力
側へ導びかれ、メモリ27から読み出された状態ビット
はオアゲート22の入力側へ導びかれる。遅延されない
状態ビットはゲート21の第2の入力側へ加えられる。
このゲートの出力側はゲート22の第2の入力側と接続
されている。前述の様に時間的に平滑化された状態画像
の状態ビットは出力線路22aにおいて転送される。
【0027】オアゲート21と22により3つの連続す
る状態画像の互いに相応する状態ビット(即ち同じアド
レスを有する状態ビット)が論理和により論理的に結合
される。この論理和により統計的な変動が1の一様な分
布の目的で除去される。この統計的な変動は、連続する
状態画像における0と1の異なる分布において目立つ。
【0028】状態画像の別の濾波が図5に示されている
濾波回路、即ち第2のフィルタ手段により行なわれる。
この回路は、1つの状態画像において現われる1のまと
まりのある領域を計数してそのサイズを求める。各々の
領域には以後の識別のためにマーキング数字が割り当て
られることになる。2つより多くのこのような領域が存
在する場合、それらのサイズの比が検査される。2番目
に大きい領域が1番大きい領域のサイズの20%を越え
る値を有すると、状態画像は、図10の実施例に示され
ている様なシルエットを含むことはあり得りないとみな
される。そのため、接続されている(図示されていな
い)符号器が、以下は標準符号化を用いるというメッセ
ージを受け取る。
【0029】図5は詳細にマーキングレジスタ30を示
し、この中で、発生器40から発生された状態アドレス
の下に領域マーキングが記憶される。即ち各々のアドレ
スの下に、分析の経過中に、1つの状態画像の1つの画
素が所属する領域の番号(1から始まる)を示す数字が
記憶される。状態画像の分析のはじめにマーキングレジ
スタ30の全部のメモリ位置は値0に書き換えられる。
線路22aと接続されている線路32aを介して、状態
ビット−そのアドレスを発生器40が発生する−が2つ
の比較回路32と41へ導びかれる。比較回路41は、
状態ビットが1か否かを検査し、比較回路32は所属の
位置(アドレス)がまだマーキングされていなかったか
否かを検査する。状態ビットが1でありかつ前記の位置
がまだマーキングされていなかった場合は、両方の回路
はそれらの出力側に1を送出する。これらの出力側は、
アンドゲート33により結合される。ゲート33の出力
側はユニット34と接続されている。ユニット34はユ
ニット31から(ユニット40からちょうど発生された
ばかりの)瞬時のアドレスをならびにそれらの全ての隣
り合うアドレスを受け取る。
【0030】アンドゲート33の出力信号が1である場
合、ユニット34は、図5に示されていない状態メモリ
から全状態ビット−それらのアドレスをユニット34は
ユニット31から入力された−を読み出す。次に所属の
状態ビットは比較器35へ導びかれる。この比較器の一
方の入力側はアンドゲート33の出力側と接続されてい
る。比較器はこれらの状態ビットの値を瞬時の状態ビッ
トの値と比較する。
【0031】ユニット31から発生されたアドレスもマ
ーキングレジスタへ導びかれる。これらのアドレスに所
属する状態ビットのうちの1つが値1を有し、そのため
比較器35の出力信号が1になると、このアドレスの下
に、マーキング発生器28が発生する領域マーキングが
格納される。
【0032】瞬時の状態ビットに隣り合いかつまだマー
キングされない全ての状態ビットが値0を有すると、比
較器35は信号をマーキング発生器28へ送出する。そ
れにもとづいてこのマーキング発生器28は領域マーキ
ングを1単位だけ増分する。何故ならば、この場合、こ
れまで検出された領域に所属する状態ビットがもはや存
在しないからである。
【0033】比較器35に結合されている計数器36
が、ちょうどいま検出された領域に所属する1を計数す
る。1つの領域へ所属する1の全部の個数(この領域の
サイズ)が、マーキング発生器28から供給される領域
マーキングと共に、メモリ37の中に記憶され、線路3
7aを介して後続のユニットへ供給される。状態画像の
全部の画素が1度検出されると、ユニット38は求めら
れた領域をそれらのサイズに応じて配列する。後置接続
されている比較器39は、2番目に大きい領域が最大の
領域のサイズの0.2倍よりも大きいか否かを検査す
る。イエスの場合は信号が線路39aを介して図示され
ていない符号器へ送出される。この場合この符号器は標
準符号化を実施する。試問の答がノーの場合には、最大
の領域のマーキング数字が線路39bを介して補正回路
29へ与えられる。この補正回路29はマーキングレジ
スタ30の内容を読み出して、最大の領域のマーキング
と一致するマーキングを1により置き換え、その他の全
部をマーキングを0で置き換える。このようにして濾波
された状態画像はビット毎に線路29aを介して、後置
接続されているユニットへ以後の処理ために転送され
る。
【0034】顔が推定できるほどに妨害成分が実質的に
除去された状態画像の形成後に、この画像は図1のユニ
ットIIC、すなわち第4の手段により1次元の特徴関
数へ変換される。この実施例においては値1を有する状
態ビットの個数が各々の行内で求められる。この個数
は、第1(いちばん上の)の行からはじめて36番目
(いちばん下の)の行までの行番号の関数として、特徴
関数Mf(k)である。k=1,2…36である。この
関数を求めるために、図6においてIICで囲まれたユ
ニットが用いられる。行アドレス(行番号)は発生器4
2により発生される。1行内の状態ビットの位置を示す
列アドレスは、発生器47により発生される。ユニット
43へは線路43bを介して2進数1が比較のために導
びかれる。ユニット43は、線路29aと接続されてい
る線路43aを介して、発生器42および47により発
生される全アドレスに所属する状態ビットを受け取る。
ユニット43は1つの行の状態ビットの到着を線路43
bにより導びかれた2進値1と比較し、一致した場合に
は計数パルスを後置接続されている計数器44へ転送す
る。行の終りに計数器の状態が行アドレスの下に関数メ
モリ45の中に記憶される。このメモリ内容の全体は特
徴関数を表わす。この特徴関数は線路45aを介して転
送される。
【0035】図1に示されたユニットIIEは、1つの
行の1の重心をまたは平均点を求める。即ち1つの行の
全アドレス−このアドレスにより状態画像の中に2進数
1が記憶されている−の算術平均の形成後に得られるア
ドレスを求める。このデータは以後に図10のシルエッ
トの(対称軸に近似した)中心軸を求めるために、さら
に、頭の最上部の点を求めるために必要とされる。
【0036】即ち、2進数1を含まない全ての行の重心
決定の際に、重心にアドレス0が配属されると、頭部の
最上部の点が0とは異なるアドレスを有する最上部の重
心として形成される。
【0037】全アドレスの下に2進数1が記憶されてい
ることをユニット43の出力側が示す時に、発生器47
の列アドレスがユニット48に読み込まれる。ユニット
48は読み込まれた全部のアドレスの和を形成して、こ
の和をユニット49へ転送する。このユニットは被加数
の個数を計数器44から受け取り、これら両方の数値か
ら平均のアドレス−この場合は1つの行の重心−を形成
する。重心アドレスはユニット50において合計され
て、さらにユニット51によってこのユニット51が線
路51aを介して受け取る被加数の個数により除算され
る。この結果は、状態画像を垂直に経過する求めるべき
中心軸の水平方向アドレスである。よって、この水平方
向アドレスのデータ(座標)は中心軸を一義的に特徴づ
ける。このデータは線路51bを介して転送される。
【0038】頭の最上部の点の座標−上で形成されたデ
ータと同値である−は特徴関数から導出される。この点
の水平方向アドレスは中心軸の水平方向アドレスと同じ
であり、その垂直方向アドレスは第1の行アドレスであ
り、この行アドレスからはなれると特徴関数が0とは異
なる値を取る。このアドレスは、線路46aを介して比
較器の0が供給されるユニット46によって定められ
る。この結果は線路46bを介して転送される。
【0039】線路45aおよび線路52aを介して伝送
される特徴関数から場合によっては存在するノイズピー
クがメディアンフィルタ52により除去される。このメ
ディアンフィルタは、その都度連続する3つの値の中の
第2の関数値を、これら3つ全ての関数値のうちの最小
値と最大値の間に存在する値によって置き換える。
【0040】図1のユニットIID、即ち第5の手段に
より特徴関数が正規化されて、さらに補助関数hにより
畳み込まれる。即ち、この畳み込み積分に比例する和が
形成される。補助関数hは次のように“トレーニングさ
れている”、すなわち最適化されている。
【0041】
【数3】
【0042】即ち、特徴関数のここで詳細には説明され
ないサンプルによるこの畳み込み積分の値が値1を取
り、所定の他のサンプルの場合にはこの畳み込み積分の
値が値−1を取るように、この補助関数hは“トレーニ
ングされている”、すなわち最適化されている。図10
に示されているシルエットと最小の類似性を有するサン
プルの場合には、この畳み込み積分は値−1を取る。そ
して、この類似性が最大である時には、この畳み込み積
分は値1を取る。
【0043】図7に関数ブロックIIDが一層正確に示
されている。ユニット53は特徴関数を正規化する、即
ちこの実施例においては全部の値をその最大値で除算す
る。その結果、正規化された関数の値は0と1の間に存
在する。後置接続されているユニット54は、式(1)
の中に示された和を形成する。この場合、ユニット54
の補助関数hの値は線路54aを介して供給される。比
較器55はこの和値を線路55aから供給される閾値と
比較する。この閾値は0.75にすると有利である。こ
の和の値が0.75よりも小さい時は、この分析は中止
される。それ以外の場合は比較器55は信号をユニット
57へ送出する。このユニット57はその入力信号を用
いて長方形の領域(顔面)−この領域の中に顔が収容で
きる−のアドレスを算出する。ユニット57の入力信号
にはユニット56の出力信号が所属している。ユニット
56は、マーキングするべき長方形のサイズを決定す
る。8×8のブロックを基礎にして、次の3つの長方形
サイズで十分である:8×12、12×18および16
×24。これらの数値はアドレス差を、即ち8×8ブロ
ックの辺の長さを単位とする区間を意味する。ユニット
57は、ビデオ画像における顔面に相応する面のアドレ
スを算出する。
【0044】これらの3つのサイズからユニット56は
1つのサイズを選択する。この場合、補助手段として、
線路37aおよび線路56aを介して導びかれる出力信
号がユニット57へ供給される。これらの3つのサイズ
はユニット56へ線路56bを介して導びかれる。ユニ
ット57の別の入力側へユニット58の出力信号が所属
する。ユニット58は線路58aを介して頭のいちばん
上の点の垂直座標を入力され、線路58bを介して垂直
の中心軸の座標を入力される。線路58aは線路46b
と接続されており、他方、線路58bは線路51bと接
続されている。ユニット58は、これらの両方のデータ
及び長方形のサイズに関するデータを用いて、この長方
形の左の上の隅の座標を算出し、この座標をユニット5
7へ転送する。これにより人の顔の粗検出が終了する。
この長方形の点の座標は微検出のために線路57aを介
して図1のユニットIIGへ転送される。
【0045】ユニットIIG、すなわち第7の手段によ
りビデオ画像(図1の入力線路Iaに加わっているよう
なもとのビデオ画像)の一部−顔面に相応する−が、連
続的にナンバリングされた複数の領域に分解される。こ
れらの領域−数学的に表現すると明らかにまとまりのあ
る画素の集合−は、画素データのどのクラスの中に画素
が当てはまるかを画素ごとに検査することにより、求め
られる。輝度値Yと色値U,Vから成る画素データは、
次の動作によりクラスへ分解される。即ちベクトル
(Y,U,V)の3次元空間が論理和画素の集合へ例え
ば立方体へ分解され、さらに、そのベクトル(Y,U,
V)がこれらの立方体のうちの1つの所定の立方体に当
てはまる全ての画素が同じクラスに所属することによ
り、分解される。クラス1に所属するいちばん上の左の
画素から始められる。次にそれの隣りの画素が、この画
素もクラス1に所属するか否かを試問されて、このクラ
スに所属する明らかにまとまりのある全ての画素の集合
が得られるまで、この試問がなされる。次に第2のクラ
スに所属する画素が詳細に検査される。この画素に対し
ても第1の画素に対する様に動作が経過する。その詳細
を図8を用いて説明する。図8においてユニット74は
画素データY,U,Vをベクトルへまとめる。輝度信号
Yは前もってユニット74により、全部の3つのデータ
が単一のクロックパルスへ適合されるように、サブサン
プリングされている。インデックスメモリ60−この中
でビデオ画像の、同じ領域へ所属する全部の点は同じイ
ンデックスを有している−は、画像の分析の開始の前に
0へセットされる。瞬時の画素のアドレスはアドレス発
生器61により発生されて、相応のインデックス(はじ
めは0)が比較器66により0と比較される。この比較
の0は線路66aを介して比較器66へ供給される。画
素がまだインデックスを得ていないと、読み出されたイ
ンデックスはまだ0であり、この画素は画像面の顔面に
相応する部分へ所属する。この場合、比較器66の出力
信号がゲート67を開き、これにもとづいてユニット7
4から送出された瞬時の画素の色ベクトル(Y,U,
V)がユニット68と69へ転送される。顔面に相応す
る面のアドレスをユニット66は、線路57aと接続さ
れている線路66bを介して得る。ユニット68へも、
この画素に対して8つの隣り合う画素の複数個のアドレ
スが伝送される。ユニット68はこれにもとづいて所属
の色ベクトルを形成する。瞬時の画素とこれに隣り合う
画素との間の色ベクトルの差は、ユニット69により形
成される。差とは差ベクトルの2乗のことである。しか
し、この場合、このベクトルの個々の成分はさらに重み
付けされる。用いられる重みは、Y成分に対しては0.
2であり、他の2つの成分に対しては1である。この重
み付けにより、ビデオ画像を領域へ分解する際に影の影
響が低減される。
【0046】ユニット69により形成された差は次にユ
ニット70により、ユニット70に線路70aを介して
供給される閾値Tと比較される。そのため、ユニット7
0は、瞬時の画素の周囲がこの画素自体と同じ領域へま
だ所属するか否かを判定する。後置接続されている計数
器71は、1つの領域へ所属する画素の個数を計数し、
これによりこの領域のサイズを送出する。このサイズは
メモリ72の中に、この領域の番号(インデックス)と
結合されて記憶される。この番号は計数器59から同じ
くメモリ72へ導びかれる。線路72aを介して領域の
サイズが転送される。計数器59は領域をすべて計数す
る。計数器59は、比較器70が1つのパルスにより、
瞬時の画素に隣接する画素がもはや同じ領域へ所属しな
いことを、通報する。瞬時の画素と同じ領域へ所属する
隣接する画素が見出された時には、その領域番号(イン
デックス)が計数器59からメモリ60の中にそのアド
レスの下に記憶される。このアドレスはユニット62か
ら同様にメモリ60へも伝送される。
【0047】ユニット62から発生されるアドレスは、
この領域の重心を算出する目的で、ユニット63におい
て加算される。1つの領域のアドレスの和は除算器64
によりこの領域の画素の個数により除算される。除算器
64は画素の個数をユニット71から得る。次にこの重
心はメモリ65において相応の領域番号(インデック
ス)と共に以後の使用の目的で記憶される。重心データ
は線路65aを介して別の処理のために自由に供給され
うる。各々の画素が1回検出されると、メモリ60にお
いて領域への全画素の分解がおこなわれ、これらの領域
の番号が線路60aへ供給される。
【0048】領域への分解の結果は、即ち領域のサイ
ズ、領域の重心および、ナンバリングされた領域への画
素の割り当ては、後置接続されたユニットIIH、すな
わち第8の手段によりさらに処理される。このユニット
IIHにより、人の顔の両目と口に相応する3つの領域
を求める試行がなされる。上述の様に、この試行は、粗
検出により定められた顔面内の領域に制限されている。
【0049】顔面へ所属する重心はトリプレットへまと
められて次に、これらのトリプレットがこれらの幾何学
的位置に基づいて人の顔の両目と口に相応しうるか否か
が、検査される。この検査は人の顔の両目と口との幾何
学的な比を用いる。例えばトリプレットの結線の長さの
比が決定されて、次のこの長さの比が顔の目と口のモデ
ルデータと一致するか否かが検査される。最後に検査さ
れることは、トリプレットの全部の3つの点の座標と前
もって決定された中心軸との関係が求められる。推定上
の両目が同じ水平方向のアドレスを有していないと思わ
れるトリプレットは、人の両目ではありえない。最後に
ユニットIIHにより、両方の目のあるべき領域の色の
差が大きすぎないか、従ってこれらの領域が人の両目に
相応し得ないかどうかが、検査される。さらに両目と口
に所属すべき領域が他の領域よりも動いたか否かが検査
される。最後に全部のこれらの特性に重み付け係数が付
与されて、さらにこれまで求められた全部のトリプレッ
トから、全ての重み付けの最適領域に存在するトリプレ
ットが選択される。
【0050】比較ユニット75へメモリ72に記憶され
ていた領域サイズが、線路72aと接続されている線路
75aを介して、供給される。この比較ユニットはこれ
らのサイズを、このユニットへ線路75b及び75cを
介して導びかれる下側閾値および上側閾値と比較する。
この比較ユニットにより、メモリ72に記憶されている
領域サイズが人の両目と口の領域に相応しうるか否かが
検査される。これらの両方の閾値の間に存在する領域
は、人の両目にまたは口に所属することができる。閾値
のための代表的な値は、下側閾値に対しては5であり、
上側閾値に対しては30である。比較器75により開か
れるゲート76は、領域のサイズが両方の閾値の間に存
在すると、直ちにこの領域の重心座標を、線路76aを
介して比較器77へ転送する。線路76aは線路65a
と接続されている。比較器77は、この重心座標が前も
って決定された顔面の内部に存在するか否かを検査す
る。この前もって決定された顔面の特徴データは線路7
7aを介して供給される。線路77aは線路57aと接
続されている。これらの面の内部に存在するこの種の領
域だけが後続処理される。ユニット78は、この面の内
部に存在する全部の重心座標を、人の顔の両目と口に相
応すると思われるきちんとしたトリプレットへまとめ
る。これらのトリプレットの各々は比較器79により、
メモリ80に記憶されているモデルデータと比較され
る。これらのモデルデータは人の顔に関する周知の知識
からおよび状態画像の分析から得られたパラメータから
得られる。分析データはユニット80へ線路57aと接
続されている線路80aを介して供給される。モデルパ
ラメータは、両目の間の距離、目と口との間の距離D
およびD、目の間の垂直間隔D、両目の間の水平方
向間隔Dおよび、色領域と垂直方向軸との間の距離を
含む(図10を参照のこと)。採用されたトリプレット
は次にユニット85〜93へ転送される。これらのユニ
ットは以下で示される特性との比較に応じてこれらのト
リプレットの各々に重み付け係数を付与する。
【0051】ユニット85はトリプレットの重心および
中心軸とこの重心との間の間隔を算出して記憶する。中
心軸のデータはユニット85へ、線路51bと接続され
ている線路85aを介して導びかれる。ユニット87
は、1つのトリプレットに所属する領域の面の内部の差
画像の全エネルギーを算出する。この差画像はユニット
83の中で形成されて記憶される。このために、このユ
ニットには線路81aを介して瞬時のビデオ画像と、メ
モリ81の中に記憶された1つ前の画像とが供給され
る。エネルギ算出は顔面の内部においてだけ行なわれ
る。この顔面の境界データは線路83aを介してユニッ
ト83へ導びかれる。線路83aは線路57aと接続さ
れている。分析は、両目と口が、顔の多くかつ迅速に動
く領域であるという事実を基礎としている。ユニット8
9は、採用されたトリプレットの点の周囲における対称
関係に関する情報を形成する。この周囲はユニット84
へ線路81aを介して導びかれる。このユニット84
は、想定された目の重心または想定された口の重心を中
心とする長方形を形成し、この領域が水平対称軸に対し
てどの程度に鏡対称であるかを、検査する。この対称の
尺度は、分散で除算された、もとの点と軸において鏡像
化された点との間の全データの差の和をである。高い対
称性構造を有する目および口のような領域は、対称でな
い領域または構造を持たない領域と比較すると、わずか
な対称値(シンメトリ値)しか有していない。ユニット
84により算出されるこの対称尺度は、瞬時のトリプレ
ットのための重み付け係数を算出するためにユニット8
9において用いられる。ユニット91は、目の領域の色
値の間の類似性を再現する重み付け係数を算出する。ユ
ニット91には、メモリ60に記憶されている目の領域
の色値が、線路60aと接続されている線路91aを介
して伝送される。両目に相応すべき領域が同じ色を有す
る場合のトリプレットだけが最大の重み付けを得る。
【0052】ユニット93は重み付け係数を発生し、こ
の重み付け係数によって両目と口の色付けされた周囲が
重み付けされる。この周囲の色はユニット93へ同じく
メモリ60から供給される。両目および口になるはずの
トリプレットは、同じ色の周囲を有するべきである。周
囲の色の差が小さければ小さいほど、それだけ重み付け
係数−これによりトリプレットがユニット93により重
み付けされる−がますます大きくなる。
【0053】ユニット85,87,89,91および9
3に記憶されているそれまでに採用された全てのトリプ
レットの重み付け係数は正規化ユニット86,88,9
0,92および94へ伝送されて、これらの重み付け係
数の値が0と1との間に存在するように正規化される。
これらの値は、ユニット95により互いに乗算される。
ユニット96は記憶されている値から、これらの値が最
大値を取る場合のトリプレットを決定する。ユニット9
6は所属の座標を記憶し、これらを図1においてIII
で示されたユニットへ転送する。ユニットIIIは図9
に一層正確に示されている。ユニット97において、相
続いて検出された2つの最適なトリプレットが、ユニッ
ト97へ線路91aを介して供給される所定の許容偏差
限度内に有るか否かが、検査される。イエスの場合に
は、データがユニット98へ転送される。ユニット98
は、このデータ及び線路98aを介してこのユニットへ
供給されたモデルデータを用いて、人の顔に所属しうる
画像の画素を決定する。これらの画素の座標は線路98
bを介してここには図示されていない符号器へ転送され
る。上述の様にして、ビデオ画像の品質向上された面−
この面の中に著しく大きい確率で人の顔が存在する−が
決定される。
【図面の簡単な説明】
【図1】本発明の構成を有する装置の基本図である。
【図2】いわゆる状態画像を決定するための、装置全体
の一部のブロック図である。
【図3】状態画像を濾波するためのフィルターのブロッ
ク図である。
【図4】状態画像を濾波するためのフィルタのブロック
図である。
【図5】状態画像を濾波するためのフィルタのブロック
図である。
【図6】いわゆる特徴関数を決定するための、かつ状態
画像の中にマッピングされた被写体の中心軸を決定する
ための、装置全体の一部のブロック図である。
【図7】特徴関数を畳み込むための、かつ状態画像中に
想定される顔の領域の中に、長方形の顔面を配置するた
めの、装置全体の一部のブロック図である。
【図8】異なる色値を有する領域の中にカラービデオ信
号を分解するための、装置全体の一部のブロック図であ
る。
【図9】人の目と口の領域の探すための、装置全体の一
部のブロック図である。
【図10】目と口の間の幾何学的な状態を説明するため
の人のシルエット図である。
【符号の説明】
1 遅延素子 2 減算器 3 画像メモリ 4,5 ユニット 6 画素アドレス発生器 7 ブロックアドレス発生器 8 アンドゲート 9 マッピングユニット 10 ユニット 11 計数器 12 ユニット 13 アドレス発生器 14,45 ユニット 16 比較器 17,18,19 ユニット 20 反転器 21,22 オアゲート 24 アドレス発生器 25,27 メモリ 30 マーキングレジスタ 31 ユニット 32 比較回路 33 アンドゲート 34 ユニット 35 比較器 36 計数器 37 メモリ 38 ユニット 39 比較器 40 発生器 41 比較回路 42,47 発生器 43 ユニット 44 計数器 45 関数メモリ 46 ユニット 48,49,50,51 ユニット 52 メディアンフィルタ 53,54 ユニット 55 比較器 56,57 ユニット 60 インデックスメモリ 61 アドレス発生器 66 比較器 67 ゲート 68,69,70 ユニット 71 計数器 72 メモリ 75 比較器 76 ゲート 77,79,80 比較器 85〜93 ユニット
───────────────────────────────────────────────────── フロントページの続き (73)特許権者 590000248 Groenewoudseweg 1, 5621 BA Eindhoven, T he Netherlands (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 H04N 7/24 H04N 7/14 JICSTファイル(JOIS)

Claims (8)

    (57)【特許請求の範囲】
  1. 【請求項1】 ビデオ画像のシーケンスにおける人の顔
    を識別するための回路装置であって、該回路装置は、 ブロックに構造化された連続する2つのビデオ画像の差
    画像を形成するための第1の手段(I)を備えており、 ブロックの複数の画素の値の和又は該値の整数のべき乗
    の和が第1の閾値を上回わるか否か、および、第2の閾
    値を上回わる値又は該値の整数のべき乗を有するこのブ
    ロックの画素の個数が所定の個数を上回わるか否かにつ
    いて各々の差画像を検査するための第2の手段(II
    A)を備えており、 差画像から、複数個の状態ビットから成る状態画像を形
    成するための第3の手段(IIB)を備えており、上記
    の検査に肯定的な答を出した前記差画像の各々のブロッ
    クに対して前記状態ビットは第1の2進値を有し、さら
    に上記の検査に否定的な答を出した前記差画像の各々の
    ブロックに対して前記状態ビットは前記第1の2進値を
    反転した第2の2進値を有し、前記第3の手段(II
    B)は前記状態画像から妨害成分を除去するためのフィ
    ルタ手段を含む、ビデオ画像のシーケンスにおける人の
    顔を識別するための回路装置において、 1つの行又は1つの列の前記第1の2進値を有する状態
    ビットの個数をもとめるための第4の手段(IIC)が
    設けられており、もとめられた状態ビットの個数は特徴
    関数Mf(k)によって表すことができ、ここでkは行又
    は列を示し、 畳み込み積分 【数1】 を計算するための第5の手段(IID)が設けられてお
    り、ただしnは行又は列の個数であり、h(k)は補助関
    数であり、該補助関数は、前記特徴関数のサンプルが人
    のシルエットと最も大きな類似性を有する場合に、前記
    畳み込み積分が最大値をとるように選択されており、前
    記第5の手段(IID)はさらに前記畳み込み積分によ
    って形成された値がさらに別の閾値を上回る場合に識別
    信号を送出するために設けられており、 第6の手段(IIE,IIF)が設けられており、該第
    6の手段(IIE,IIF)は、各々の行内の前記第1
    の2進値を有する状態ビットの重心をもとめ、もとめら
    れた重心のアドレスの平均値を形成することによって垂
    直方向の中心軸を決定し、前記第1の2進値を有する状
    態ビットを有する第1の行のアドレスをの最上部の点と
    して決定し、前記頭の最上部の点は列アドレスとして前
    記垂直方向の中心軸のアドレスを有し、識別信号の送出
    の後で顔面としてビデオ画像に面を形成するために設け
    られていることを特徴とする、ビデオ画像のシーケンス
    における人の顔を識別するための回路装置。
  2. 【請求項2】 第3の手段(IIB)のフィルタ手段に
    は、第1のフィルタ手段(13〜20)が含まれてお
    り、前記第1のフィルタ手段(13〜20)は同じ2進
    値を有する隣り合う状態ビットの個数が所定の閾値を下
    回わる場合に、第1の2進値を有する状態ビットを反転
    するために設けられている、請求項1記載の回路装置。
  3. 【請求項3】 第3の手段(IIB)のフィルタ手段に
    は、第1のフィルタ手段(13〜20)に後置接続され
    る平滑化手段(21〜27)が含まれており、該平滑化
    手段(21〜27)は、少なくとも2つの連続する画像
    の互いに対応する状態ビットをオア結合により1つの新
    たな状態ビットへと結合するために設けられている、請
    求項1又は2記載の回路装置。
  4. 【請求項4】 第3の手段(IIB)のフィルタ手段に
    は、平滑化手段(21〜27)に後置接続される第2の
    フィルタ手段(28〜41)が含まれており、該第2の
    フィルタ手段(28〜41)は、 4a) 第1の2進値を有する、1つのまとまりのある領
    域を形成する状態ビットの状態ビットの個数を求めて格
    納し、 4b) 1つのまとまりのある領域の全ての状態ビット
    は、前記領域に依存する同一のマーキングを得て、 4c) 前記領域の状態ビットの求められた個数を、大き
    い順に分類し、 4d) 2番目に大きい領域のサイズが最大の領域の所定
    の部分を下回わるか否か検査し、 4e) 下回わる場合は、2番目のおよびそれに続く全部
    の領域の状態ビットを反転し、下回わらない場合は、顔
    が存在しないものとして通報するために設けられてい
    る、請求項1から3までのいずれか1項記載の回路装
    置。
  5. 【請求項5】 メディアンフィルタ手段(52)が第4
    の手段(IIC)と第5の手段(IID)との間に設け
    られており、該メディアンフィルタ手段(52)は1次
    元の特徴関数をメディアン濾波作用により平滑化する目
    的で設けられている請求項1から4までのいずれか1項
    記載の回路装置。
  6. 【請求項6】顔面に相応するビデオ画像の面を連続的に
    ナンバリングされた複数の領域に分解し、これらの領域
    のサイズおよび重心を決定するための第7の手段(II
    G)が第6の手段(IIE,IIF)の後ろに設けられ
    ている、請求項1から5までのいずれか1項記載の回路
    装置。
  7. 【請求項7】 第8の手段(IIH)が前記第7の手段
    (IIG)に後置接続されており、前記第8の手段(I
    IH)は、 顔面に含まれる重心トリプレット(triplet)をその都度
    形成し、 前記トリプレットの距離をもとめ、 このトリプレットの全ての重心の位置およびこれら重心
    の結線の長さの比を、人間の両目及び口のモデルデータ
    と比較することにより検査し、 この検査の結果が肯定的である場合の重心トリプレット
    の周囲の複数の画素の特性に対する重み付け係数を発生
    し、 最大の重み付け係数を有するトリプレットを選択するた
    めに設けられていることを特徴とする請求項6記載の回
    路装置。
  8. 【請求項8】 前記第8の手段(IIH)に後置接続さ
    れた第9の手段(III)は次のために設けられてい
    る、すなわち、 連続する少なくとも2つの所定の最適なトリプレットが
    所定の許容偏差限度内で一致するか否かを検査し、さら
    に一致した場合には、人の顔の両目と口のモデルデータ
    に従って人の顔に所属する全ての画素を決定するために
    設けられている請求項7記載の回路装置。
JP22560291A 1990-09-05 1991-09-05 ビデオ画像のシーケンスにおける人の顔を識別するための回路装置 Expired - Fee Related JP3242678B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE4028191.4 1990-09-05
DE4028191A DE4028191A1 (de) 1990-09-05 1990-09-05 Schaltungsanordnung zum erkennen eines menschlichen gesichtes

Publications (2)

Publication Number Publication Date
JPH04273388A JPH04273388A (ja) 1992-09-29
JP3242678B2 true JP3242678B2 (ja) 2001-12-25

Family

ID=6413669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22560291A Expired - Fee Related JP3242678B2 (ja) 1990-09-05 1991-09-05 ビデオ画像のシーケンスにおける人の顔を識別するための回路装置

Country Status (4)

Country Link
US (1) US5570434A (ja)
EP (1) EP0474304B1 (ja)
JP (1) JP3242678B2 (ja)
DE (2) DE4028191A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5420638A (en) * 1992-04-14 1995-05-30 U.S. Philips Corporation Subassembly for coding images with refresh correction of the data to be coded, and subassembly for decording signals representing these images and previously coded by means of a subassembly of the former kind
FR2690031A1 (fr) * 1992-04-14 1993-10-15 Philips Electronique Lab Dispositif de segmentation d'images.
GB9215102D0 (en) * 1992-07-16 1992-08-26 Philips Electronics Uk Ltd Tracking moving objects
GB9308952D0 (en) * 1993-04-30 1993-06-16 Philips Electronics Uk Ltd Tracking objects in video sequences
DE4407528C2 (de) * 1994-03-07 1998-04-09 Sq Services Ag Bewegungsmelder und Verfahren zur Bewegungsmeldung
US7769513B2 (en) * 2002-09-03 2010-08-03 Automotive Technologies International, Inc. Image processing for vehicular applications applying edge detection technique
US6185316B1 (en) 1997-11-12 2001-02-06 Unisys Corporation Self-authentication apparatus and method
DE19810792A1 (de) 1998-03-12 1999-09-16 Zentrum Fuer Neuroinformatik G Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes
EP1112549A4 (en) * 1998-09-10 2004-03-17 Mate Media Access Technologies METHOD FOR INDEXING FACES FOR NAVIGATION AND EFFECTIVE SEARCHING OF PEOPLE IN VIDEO IMAGES
US6134339A (en) * 1998-09-17 2000-10-17 Eastman Kodak Company Method and apparatus for determining the position of eyes and for correcting eye-defects in a captured frame
RU2187904C1 (ru) * 2000-12-19 2002-08-20 Многопрофильное предприятие ООО "Элсис" Способ и устройство преобразования изображения
US8406302B2 (en) * 2001-07-10 2013-03-26 Entropic Communications, Inc. Unit for and method of motion estimation and image processing apparatus provided with such motion estimation unit
WO2004055735A1 (ja) * 2002-12-16 2004-07-01 Canon Kabushiki Kaisha パターン識別方法、その装置及びそのプログラム
CN1894703B (zh) * 2003-12-16 2011-04-20 佳能株式会社 模式识别方法和设备
JP4121026B2 (ja) 2004-01-21 2008-07-16 富士フイルム株式会社 撮像装置および方法並びにプログラム
KR20070038544A (ko) * 2004-08-04 2007-04-10 쿨레노프 다울렛 전자적 디지털 이미지로 얼굴을 자동인식하는 방법
JP2007079641A (ja) * 2005-09-09 2007-03-29 Canon Inc 情報処理装置及び情報処理方法及びプログラム及び記憶媒体
US8090904B2 (en) * 2008-02-01 2012-01-03 Cru Acquisition Group, Llc Reduced hard-drive-capacity detection device
CN103004228A (zh) * 2010-07-26 2013-03-27 皇家飞利浦电子股份有限公司 获取关键词用于搜索
CN106855940A (zh) * 2016-11-23 2017-06-16 河池学院 一种基于机器人的人脸识别系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8518803D0 (en) * 1985-07-25 1985-08-29 Rca Corp Locating target patterns within images
US4975960A (en) * 1985-06-03 1990-12-04 Petajan Eric D Electronic facial tracking and detection system and method and apparatus for automated speech recognition
GB8528143D0 (en) * 1985-11-14 1985-12-18 British Telecomm Image encoding & synthesis
GB8710737D0 (en) * 1987-05-06 1987-06-10 British Telecomm Video image encoding
US5136659A (en) * 1987-06-30 1992-08-04 Kokusai Denshin Denwa Kabushiki Kaisha Intelligent coding system for picture signal
EP0330455A3 (en) * 1988-02-22 1990-07-04 Kabushiki Kaisha Toshiba Image encoding apparatus
JPH0220185A (ja) * 1988-07-08 1990-01-23 Ricoh Co Ltd 動画像伝送方式
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions

Also Published As

Publication number Publication date
DE4028191A1 (de) 1992-03-12
EP0474304B1 (de) 1996-12-04
JPH04273388A (ja) 1992-09-29
EP0474304A3 (en) 1992-12-16
DE59108393D1 (de) 1997-01-16
US5570434A (en) 1996-10-29
EP0474304A2 (de) 1992-03-11

Similar Documents

Publication Publication Date Title
JP3242678B2 (ja) ビデオ画像のシーケンスにおける人の顔を識別するための回路装置
US6584222B2 (en) Feature-region extraction method and feature-region extraction circuit
US4855825A (en) Method and apparatus for detecting the most powerfully changed picture areas in a live video signal
US6072892A (en) Eye position detecting apparatus and method therefor
JP2002269564A (ja) ダゥベシス・ウェーブレット変換を用いたアイリス認識方法
CN107862658B (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
CN104205826A (zh) 用于重建高密度三维图像的设备和方法
US7187785B2 (en) Image processing method and apparatus
CN110751635A (zh) 一种基于帧间差分和hsv颜色空间的口腔检测方法
EP0627844B1 (en) Image processor
Mu et al. Automatic extraction of human facial features
CN109284694A (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
JP4200165B2 (ja) ステレオカメラによるオブジェクトの分類のための方法
RU2383925C2 (ru) Способ выделения контуров объектов изображения и устройство для его реализации
CN112347904A (zh) 基于双目深度和图片结构的活体检测方法、装置及介质
KR100289703B1 (ko) 모델 기반 부호화 시스템에서의 얼굴 영상 정합 방법
CN111860343B (zh) 确定人脸对比结果的方法及装置
CN115830517B (zh) 基于视频的考场异常帧提取方法及系统
RU2803287C1 (ru) Способ получения набора объектов трехмерной сцены
Gavrilov et al. Improving the efficiency of determining paired points in frames of a stereo pair based on the edge detection from their binary images
JP3740237B2 (ja) 画像認識装置
KR100281969B1 (ko) 얼굴 정합된 텍스쳐 영상의 부분 윤곽 정합 방법
JP3880665B2 (ja) 多階調画像の濃度ヒストグラム算出装置
Cheekatla et al. Forensic Investigation with Digital Evidence
JP2500203B2 (ja) 顔認識装置

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071019

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081019

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091019

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees