JPH04273388A - ビデオ画像のシーケンスにおける人の顔を識別するための回路装置 - Google Patents

ビデオ画像のシーケンスにおける人の顔を識別するための回路装置

Info

Publication number
JPH04273388A
JPH04273388A JP3225602A JP22560291A JPH04273388A JP H04273388 A JPH04273388 A JP H04273388A JP 3225602 A JP3225602 A JP 3225602A JP 22560291 A JP22560291 A JP 22560291A JP H04273388 A JPH04273388 A JP H04273388A
Authority
JP
Japan
Prior art keywords
unit
image
face
state
binary value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3225602A
Other languages
English (en)
Other versions
JP3242678B2 (ja
Inventor
Eric Dr Badique
エリック バディク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Philips Gloeilampenfabrieken NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Gloeilampenfabrieken NV filed Critical Philips Gloeilampenfabrieken NV
Publication of JPH04273388A publication Critical patent/JPH04273388A/ja
Application granted granted Critical
Publication of JP3242678B2 publication Critical patent/JP3242678B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ビデオ画像のシーケン
スにおける人の顔を識別するための回路装置を対象とす
る。この場合この回路装置は、−第1の手段を備えてお
り、該第1手段により、ビデオ画像がブロックへ構造化
され、さらに2つの相続く画像の相応のブロックが互い
に減算されるようにし、−第1手段により発生された差
画像を後処理するための第2の手段を備えており、さら
に請求項1の上位概念に示されている複数個の構成要件
を備えている。
【0002】
【従来の技術】前述の特性を有する装置の動作は、Pi
cture  Coding  Symposium 
 26〜28、3月1990 in  Cambrid
ge,Massachusetts,USAにおける論
文に示されている(Eric  Badique:Kn
owledge−based  Facial  Ar
ea  Recognition  and  Imp
roved  Coding  in  a  CCI
TT−Compatible  Low−Bitrat
e  Video−Codec.Proceeding
s  of  Picture  Coding  S
ymposium  90、Cambridge,Ma
ssachusetts参照のこと)。
【0003】同等の回路装置はヨーロッパ特許第A2−
0330455に示されている。この回路装置も例えば
テレビジョン電話の場合に用いられる。この種の回路装
置を低い伝送ビットレート(例えば64Kビット/S)
を有するテレビジョン電話に用いるための理由は、会話
の進行中に通話者の目が、相手の通話者の主として顔を
特に目と口を追うため、この事実が、伝送ビットレート
を高めなくても画質の主観的な改善を達成するために用
いられることである。この種の改善は次の時になされる
、即ち目の部分と口の部分が、画像の他の領域を犠牲に
して、他の部分よりも一層高い精度で−即ちより多くの
ビットで−符号化される時に、なされる。しかしこの効
果の利用は、ビデオ画像のシーケンスの中に顔が存在す
るか否かが前もって検出されている時にだけ、可能であ
る。
【0004】このヨーロッパ特許A2−0330455
号に示されている装置は、この目的の方向へ、2つのビ
デオ画像のシーケンスから出発する。差画像の中に、連
続画像が動く物体を含む時に、ゼロとは異なる信号成分
だけが現われる。この引用された特許出願には差画像の
順序が、識別エラーの発生確率が大であるように、後処
理されてしまう。
【0005】
【発明が解決しようとする問題点】本発明の課題は、連
続する画像が人の顔を含むか含まないかの判定が、従来
技術の場合よりも、著しく一層確実になされるようにし
た冒頭の回路装置を提供することである。
【0006】
【課題を解決するための手段】この課題は冒頭に述べた
回路装置において、次の構成の組み合わせにより解決さ
れている:即ち−変換手段が設けられており、該変換手
段により、第1の2進値を有する状態画像の領域が1次
元の特性関数へ変換されるようにし、この変換の場合、
状態画像の1つの行または1つの列内のこれらの状態ビ
ットの個数が行数または列数の関数として求められるよ
うにし、−折りたたみ手段を備えており、該折りたたみ
手段により、特性関数を正規化し、補助関数を用いて折
りたたむようにし、この場合この補助関数は、特性関数
の理想的なパターンを有する折りたたみ積分が所定の理
想的な値を取るように設計されており、さらに前記折り
たたみ手段により、所定の許容範囲内にある実際の折り
たたみ積分の値が理想的な値と一致する時にだけ識別信
号を送出するようにし、−マーキング手段を備えており
、該マーキング手段により、識別信号が送出された場合
に、各々の行内の第1の2進値を有する状態ビットの重
心を求めるようにし、これらの重心の全部を垂直の中心
軸を定めるために用いるようにし、さらに状態画像の、
中心軸により半分にされかついちばん上の重心を周辺点
として含む所定の顔面内にある全部の点をマーキングす
るように構成したのである。
【0007】状態画像の中の顔面を設定することにより
、人の顔が粗に識別される。しかし顔面の確実な識別は
、できるだけ高い確率で、人の頭を肩と共に示す状態画
像を求めることを前提とする。
【0008】この確率を一層高くする目的で、局所的な
濾波作用ないし状態画像の時間的平滑化が実施される。
【0009】この確率を一層向上させる目的で、局所的
な濾波作用がないし状態画像の時間的平滑化が実施され
る。
【0010】同じ目的のためにさらに第2のフィルタ手
段が設けられており、このフィルタにより、状態画像中
に現われた続いている領域が求められる。最大の領域が
2番目に大きい領域とたいして異ならない時は、この場
合は肩を有する人の顔のシミュレーションが存在しない
確率が高い。相応の信号によりこの場合に次のことが示
される:即ち顔を識別するための全部の引き続いての動
作が行なわれなかったことである。
【0011】顔面の検出後は、全部のブロック−これは
状態画像の顔面を形成する−から成るビデオ画像の面の
中へ収まるか否かが検査される。そのためビデオ画像全
体の一部の以後の検査が減少されそのため比較的簡単化
される。
【0012】ビデオ画像のこの部分は次に複数個の領域
の中に分解される。これらの領域はビデオ画像の続いて
いる領域−これらの画点はすべて同じ階級の画点データ
に所属する−である。この種の階級分解は例えば、発生
した全部のグレー値を、または発生した全部の色値論理
和的部分集合へ分割することにより、達成される。はげ
しい動きの分解も可能となる。
【0013】この動作の意味は、人の口と目を、ビデオ
画像の検査された部分内で前もって処理することを意味
する。これに加えて、求められた領域の重心も定められ
る。次にそれぞれ3つの重心(トリオ)の間の距離が定
められ、さらにこれらの距離とトリオの位置がモデルデ
ータと比較される。例えば検査された面の周辺に存在す
るトリオは、人の目および口に対応できない;トリオの
間隔比が1とは著しく異なるトリオも同じである。トリ
オに対して検査に合格すると、複数個の尺度による重み
付けが即ちこのトリオが垂直軸線に対してどのように存
在するか(幾何学的基準尺度)による、またはどの色値
が領域およびそれらの周囲(色による尺度)を有するか
、またはどのような運動の強度(ダイナミックな尺度)
がそれらに所属するかによる重み付けがなされる。
【0014】2つの相続く、最高の重み付けの所定のト
リオが所定の許容範囲内で一致すると、人の顔の存在が
著しく高い確実性で結論される。次にモデルデータにし
たがって、顔に所属しえる画点が定められ、さらに−テ
レビジョン電話における使用の場合は、顔の外側の全部
の点よりも一層正確に符号化される。
【0015】次の本発明の実施例を図面を用いて詳細に
説明する。
【0016】
【実施例】図1の基本図において回路に線路1aにカメ
ラのビデオ信号が導びかれて、さらにユニットIにより
、それぞれ8×8=64の画点から成るブロックへ構造
化される。これらの画点は、輝度データYと色データU
,Vから成る。画像全体は288の行と352の列とを
有する、即ち101376個の画点を有する。この場合
、色データは各2番目の画点に対してだけ設けられてい
る。8×8ブロックへの構造化の場合、全部で36×4
4=1584ブロックが形成される。ビデオ画像におけ
るそれらの幾何学的位置はアドレスのデータにより一義
的に示されている。同様のことが画点に対して当てはま
る。そのためアドレスは座標データと同等である。後述
のマーキング、ブロックの識別または選択、画点大きさ
または特別の画点(例えば後述の“重心”)の場合、常
に意図されていることは、これらの過程がこれらの大き
さのアドレスへの付加データにより実施されることであ
る。この場合これらの付加データはこの共通に−大抵は
明示されていない−メモリの中にファイルされる。クロ
ック制御されるユニット、クロックパルス線路およびそ
の他の線路も明示されていない、何故ならば当業者はそ
れらの必要性を簡単に理解して補なうことができるから
である。
【0017】ユニットIは−図2に正確に示されている
様に−さらに遅延素子1、画像メモリ3および減算器2
を用いて、2つのビデオ画像のシーケンスの画点データ
の差−以下、簡単に画像差と称する−を形成する。ブロ
ックへの構造化はブロックアドレス発生器7により実施
され、さらに1つのブロックの画点のアドレス指定は、
ブロックアドレス発生器7と結合されている画点アドレ
ス発生器6により実施される。そのためアドレス発生器
6と7により差画像はブロック毎にかつ画点毎に応動可
能である。
【0018】ユニットIIAはまず最初に、2つのビデ
オ画像のシーケンスの1つのブロックの全部の画点のデ
ータ差の大きさを、形成する。この大きさはこの実施例
の場合、差画像の“画点の規格”である;他の規格は例
えば前記の大きさの整数のべき乗とすることもできる。 これらの大きさは加算され、この場合、この和は1つの
ブロックの全部の画点にわたり求められ、さらにこの和
の値は第1の閾値T1と比較される。詳細が図2に、部
分IIAに示されている。ユニット4は画点の前記の大
きさを加算し、ユニット5はこの加算値と閾値T1と比
較して、この加算値が閾値T1を上回わると2進数1を
送出する。この実施例において閾値T1は値10を有す
る。この閾値は使用されるカメラの機種に依存し−他の
全部の閾値の様に−、個々の場合に最適化されている装
置全体のパラメータである。この実施例の場合は市販の
CCDカメラが用いられた。
【0019】上位のユニットIIAのユニット10は1
つのブロックの画点の大きさを形成して、この大きさを
直ちに、値4を有する第2の閾値T2と比較する。この
画点の大きさが閾値T2を上回わると、計数器11がユ
ニット10の1つのパルスにより歩進される。この計数
器の状態は比較ユニット12へ導びかれる。このユニッ
トは計数器11が状態40を上回わる時に同じく2進数
1を送出する。閾値の値はユニット5,10および12
へ線路5a,10aおよび12aを介して導びかれる。
【0020】ユニット5と12の出力信号はアンドゲー
ト8により結合されその出力信号が、図1ないし図2の
上位のユニットIIBのシミュレーションユニット9へ
転送される。
【0021】このユニット9は差画像の1584個のブ
ロックを個々のビット−以下では状態ビットと称する−
へシミュレーションする、即ちアンドゲート8の出力信
号がこの値を取る時に、1つのブロックのアドレスの下
にユニット9において2進数1(第1の2進値)が記憶
される。それ以外の場合は2進数0(第2の2進値)が
記憶される。状態ビットは線路9aにおいて転送される
【0022】1つの差値のブロックの状態の全体を以下
で状態画像と称する。状態画像中の1の配分から検出さ
れることは、2つのビデオ画像のシーケンスのどの個所
(この種の個所はブロックアドレスのデータにより1つ
のブロック大きさの精度で固定されている)に、有効な
変化が現われているかということである。この種の変化
の原因は、カメラにより撮像されるシーン中の運動する
被写体、ノイズまたは突然変化された光状態である。し
かしこの場合、人の顔の後で−またはまず頭・肩シーン
の後で−頭と肩の運転に基因しない変化は問題とされな
いように、意図すべきである。これらの変化はフィルタ
によりできるだけ状態画像から除去される。これらのフ
ィルタは図1におけるユニットIIBの部品である。こ
れらのフィルタの動作は、状態画像の選出された状態ビ
ットを所定の尺度により反転させることに帰する。  
図3は面フィルタを示す。このフィルタにより状態画像
中の複数個の1が、これらが不十分な大きさの面部を形
成する時は、反転により消去される。ユニットIIBの
出力線路9aを介してユニット17の状態ビットが、線
路9aと接続されている線路17aへ導びかれる。状態
ビット−このビットへブロックがシミュレーションされ
ている−のアドレスと同一のアドレスが、アドレス発生
器13から発生される。次にユニット17が、そのメモ
リの中に記憶されている状態ビットが値1を有するか否
かを、検査する。この質問が実際の状態ビットの場合に
イエスであると、ユニット14は、この実際の状態ビッ
トに隣り合う8つの状態ビットのアドレスを発生して、
これをユニット18へ転送する。それにもとづいてユニ
ット18は所属の状態ビットをユニット17から入力さ
れてユニット19へ導びく。ユニット19はこの状態ビ
ットの値を値1(この値は線路17bに加わっている)
と比較して、このイエスの場合に線路19aを介してユ
ニット15の計数器を1計数単位だけ歩進する。次にユ
ニット15は1つのパルスをユニット14へ次の隣りの
アドレスの発生の目的で送出する。第1の状態ビットへ
隣り合う全部の状態ビットの値の次の質問の後に、ユニ
ット15の計数器の状態が3よりも大きくないと、比較
器16が信号を可制御の反転器20へ送出する。この反
転器はユニット17における実際の状態ビットを反転す
る。それ以外の全部の場合は、ビットは反転されずに転
送される。値3を有する整数の閾値が比較器16へ線路
16aを介して導びかれる。全体の状態画像の処理の後
に、状態ビットが線路17cにおいて転送される。
【0023】状態画像の別の濾波が図4の平滑化装置に
より行なわれる。何故ならば出力線路17cが入力線路
21aと接続されているからである。平滑化装置は、第
1の状態画像メモリ25ならびにこれに後置接続されて
いる第2の状態画像メモリ27から構成されている。
【0024】両方の状態画像メモリ25と27は、ブロ
ックアドレス発生器24により制御される。この発生器
により両方のメモリから2つの相続く状態画像の状態ビ
ットが読み出される。メモリ25から読み出された状態
ビットはオアゲート21の入力側へ導びかれ、メモリ2
7から読み出された状態ビットはオアゲート22の入力
側へ導びかれる。遅延されない状態ビットはゲート21
の第2の入力側へ加えられる。このゲートの出力側はゲ
ート22の第2の入力側と接続されている。前述の様に
時間的に平滑化された状態画像の状態ビットは出力線路
22aに転送される。
【0025】オアゲート21と22により3つの相続く
状態画像の互いに相応する状態ビット(即ち同じアドレ
スを有する状態ビット)が論理和により論理的に結合さ
れる。この論理和により統計的な変動が、1の一様な分
布の目的で除去される。この変動は、相続く状態画像に
おける0と1の異なる分布において目立つようにされる
からである。
【0026】状態画像の別の濾波が図5に示されている
濾波回路により行なわれる。この回路は、1つの状態画
像において現われる1の関連の領域を計数してその大き
さを求める。各々の領域は以後の識別の目的でマーキン
グ数字が配属されている。この種の領域が2よりも大き
いと、その大きさの状態が検査される。2番目に大きい
領域が1番大きい領域の大きさの20%を越える値を有
すると、状態画像は、図10の実施例に示されている様
なシルエットを含むことがあり得りないとされる。その
ため、接続されている(図示されていない)符号器が、
以下は標準符号化を用いるという通報を得る。
【0027】図5は詳細にマーキングレジスタ30を示
し、この中で、発生器40から発生された状態アドレス
の下に領域マーキングが記憶される。即ち各々のアドレ
スの下に分析の経過中に、1つの状態画像の1つの点が
所属する領域の番号(1から始まる)を示す数字が記憶
される。1から状態画像の分析のはじめにマーキングレ
ジスタ30の全部のメモリ個所は値0へ書き換えられる
。線路22aと接続されている線路32aを介して、状
態ビット−そのアドレスを発生器40が発生する−が2
つの比較回路32と40へ導びかれる。比較回路41は
、状態ビットが1か否かを検査し、比較回路32は所属
の個所(アドレス)がまだマーキングされていなかった
否かを検査する。1でかつ前記の個所がまだマーキング
されていなかった場合は、両方の回路はそれらの出力側
に1を送出する。これらの1は、アンドゲート33によ
り結合される。ゲート33の出力側はユニット34と接
続されている。ユニット34はユニット31から実際の
アドレス(ユニット40からちょうど発生された)をな
らびにそれらの全部の隣り合うアドレスを入力される。
【0028】アンドゲート33の出力信号が1へおかれ
るとユニット34は、図5に示されていない状態メモリ
から全部の状態ビット−それらのアドレスをユニット3
4はユニット31から入力された−を読み出す。次に所
属の状態ビットは比較器35へ導びかれる。この比較器
の一方の入力側はアンドゲート33の出力側と接続され
ている。比較器はこの状態ビットの値を実際の状態ビッ
トの値と比較する。
【0029】ユニット31から発生されたアドレスもマ
ーキングレジスタへ導びかれる。これらのアドレスの一
方の所属する状態ビットが値1を有しそのため比較器3
5の出力信号が1におかれると、このアドレスの下に、
マーキング発生器28が発生する領域マーキングがファ
イルされる。
【0030】実際の状態ビットへ隣り合うかつまだマー
キングされない全部の状態ビットが値0を有すると、比
較器35は信号をマーキング発生器28へ送出する。そ
れにもとづいてこの比較器は領域マーキングを1単位だ
け減分する。何故ならばこの場合、これまで検出された
領域に所属する状態ビットがもはや存在しないからであ
る。
【0031】比較器35へ接続されている計数器36が
、ちょうどいま検出された領域へ所属する複数個の1を
計数する。1つの領域へ所属する1の全部の個数(この
領域の大きさ)が、マーキング発生器28から供給され
る領域マーキングと共に、メモリ17の中に記憶されて
線路37aを介して後続のユニットへ供給される。状態
画像の全部の点が1回検出されていると、ユニット38
が求められた領域をそれらの大きさに応じて配列する。 後置接続されている比較器39は、2番目に大きい領域
が最大の領域の大きさの0.2倍よりも大きいか否かを
検査する。イエスの場合は信号が線路39aを介して、
図示されていない符号器へ送出される。そのためこの符
号器は標準符号化を実施する。質問の答がノーの場合は
最大の領域のマーキング数字が線路39bを介して補正
回路29へ与えられる。この補正回路29はマーキング
レジスタ30の内容を読み出して、最大の領域のマーキ
ングと一致するマーキングを1により置き換え、その他
の全部をマーキングを0で置き換える。このようにして
濾波された状態画像はビット毎に線路29aを介して、
後置接続されているユニットへ以後の処理の目的で転送
される。
【0032】障害が実質的に除去された状態画像−この
場合、顔を想定できる−の形成後に、この画像は図1の
ユニットIICにより1次元の特徴関数へ変形される。 実施例においては値1を有する状態ビットの個数が各々
の行内で求められる。この個数は行の関数として、第1
(いちばん上の)の行からはじめて36番目(いちばん
下の)の行まで、特徴関数Mf(K)を表わす。K=1
,2…36である。この関数を求める目的で、図6にお
いてIICで囲まれたユニットが用いられる。行アドレ
ス(行本数)は発生器42により発生される。1行内の
状態ビットの位置を示す列アドレスは、発生器47によ
り発生される。ユニット43へは線路43bを介して2
進数1が比較の目的で導びかれる。ユニット43は線路
29aと接続されている線路43aを介して、発生器4
2および47により発生される全体アドレスへ所属する
状態ビットと同じ状態を供給される。ユニット43は1
つの行の状態ビットの到来を、線路43bにより導びか
れた2進値と比較して一致した場合に計数パルスを、後
置接続されている計数器44へ転送する。1行の終りに
計数器の状態が行アドレスの下に関数メモリ45の中に
記憶される。メモリ内容の全体は特徴関数を表わす。 この特徴関数は線路45aを介して転送される。
【0033】図1に示されたユニットIIEは、1つの
行の1の重心をまたは平均点を求める、即ち1つの行の
全部のアドレス−このアドレスの下に状態画像の中に2
進数1が記憶されている−の算術平均の形成後に得られ
るアドレスを求める。このデータは以後に次の目的のた
めに必要とされる:図10のシルエットの中心軸(対称
軸に接近されて)を求める目的でさらに頭のいちばん上
の点を求める目的である。
【0034】即ち2進数1を含まない全部の行に対する
重心決定の場合に、重心へアドレス0が配属されると、
頭部のいちばん上の点が、0とは異なるアドレスを有す
るいちばん上の重心として形成される。
【0035】発生器47の列アドレスがユニット48に
おいて、ユニット43の出力側が、全体アドレスの下に
2進数1が記憶されていることを示す時に、読み込まれ
る。ユニット48は読み込まれた全部のアドレスの和を
形成して、この和をユニット49へ転送する。このユニ
ットは加数の個数を計数器44から入力されて、両方の
大きさから平均のアドレス−この場合は1つの行の重心
−を形成する。重心アドレスはユニット50において加
算されて、さらにユニット51により、ユニット51が
線路51aを介して入力される加数の個数により除算さ
れる。結果は、状態画像を垂直に走行する求めるべき中
心軸の水平アドレスである。そのためこの水平アドレス
のデータ(座標)は中心軸を一義的に特徴づける。この
データは線路51bを介して転送される。
【0036】頭のいちばん上の点に関する座標−上で形
成されたデータと等価である−は特徴関数から導出され
る。この点の水平アドレスは中心軸の水平アドレスと同
じであり、その垂直アドレスは第1の行アドレスであり
、この行アドレスからはなれると特徴関数が0とは異な
る値を取る。このアドレスは、線路46aを介して比較
値0の導びかれるユニット46により定められる。結果
は線路46bを介して転送される。
【0037】線路45aおよび線路52aを介して伝送
される特徴関数は、場合により存在しているノイズピー
クが中央値フィルタ52により除去される。このメジア
ンフィルタは、その都度に相続く3つの値により第2の
関数値を、全部の3つの関数値のうちの最小値と最大値
の間に存在する値により、置き換える。
【0038】図1のユニットIIDにより特徴関数が正
規化されて、さらに補助関数hにより折り返される、即
ち折りたたみ積分に比例する和が形成される。補助関数
hは次のように“訓練されている”。
【0039】
【数1】
【0040】即ち補助関数の、折りたたみ積分の値がこ
こに詳細に説明されていない特徴関数のパターンにより
値1を取り、所定の別のパターンの場合は値−1を取る
ように“訓練されている”。この値1を折りたたみ積分
は次の時に取る。即ち類似性が最大である時に、図10
に示されているシルエットにより最小の類似性を有しさ
らに値1を有するパターンの場合に、取る。
【0041】図7に関数ブロックIIDが一層正確に示
されている。ユニット53は特徴関数を正規化する、即
ちこの実施例においては全部の値をその値の最大値で除
算すう。その結果、正規化された関数は0と1の間に存
在する。後置接続されているユニット54は、公式行(
1)の中に示された和を形成する。この場合、ユニット
54の補助関数hの値は線路54aを介して導びかれる
。比較器55は和の値を線路55aにおける閾値と比較
する。この閾値は0.75にすると有利であることが示
されている。和の値が0.75よりも小さ時は、この分
析は中止される。それ以外の場合は比較器55は信号を
ユニット57へ送出する。このユニットはその入力信号
を用いて長方形の領域(顔の表面)−この領域の中に顔
が収容できる−のアドレスを算出する。ユニット57の
入力信号へユニット56の出力信号が所属する。ユニッ
ト56は、マーキングされるべき長方形の大きさに関し
て判定する。8×8のブロックにもとづいて次の3つの
長方形大きさを十分であると示した:8×12、12×
18および16×24。個数はアドレス差を、即ち8×
8のブロックの辺の長さのユニットにおける区間を意味
する。ユニット57は、ビデオ画像における顔の面に相
応する面のアドレスを算出する。
【0042】これらの3つの大きさの間でユニット56
は1つの大きさを選択する。この場合、補助手段として
、線路27aおよび線路56aを介して導びかれる出力
信号がユニット37へ供給される。これらの3つの大き
さはユニット56へ線路56bを介して導びかれる。 ユニット57の別の入力側へユニット58の出力信号が
所属する。ユニット58は線路58aを介していちばん
上の頭の点の垂直座標を入力され、線路58bを介して
垂直の中心軸の座標を入力される。線路58aは線路4
6bと接続されており、他方、線路58bは線路51b
と接続されている。ユニット58はこれらの両方のデー
タを用いてさらに長方形の大きさに関するデータを用い
て、この長方形の左の上の隅の座標を算出し、この座標
をユニット57へ転送する。これにより人の顔の粗検出
が終了する。この長方形の点の座標は微検出の目的で線
路57aを介して図1のユニットIIGへ転送される。
【0043】ユニットIIGによりビデオ画像(図1の
入力線路Iaに加わっているようなもとのビデオ画像)
の一部−顔面に相応する−が、連続番号数の領域の中へ
分解される。これらの領域−数学的に表現すると簡単に
続いている点の大きさ−は、どの階級の画点データの中
に1つの画点が当てはまるかを画点ごとに検査すること
により、求められる。輝度値Yと色値U,Vから成る画
点データは、次の動作により階級へ分解される。即ちベ
クトル(Y,U,V)の3次元の空間が論理和の求めら
れた点の大きさへ例えば立方体へ分解され、さらに全部
の画点−そのベクトル(Y,U,V)がこれらの立方体
のうちの1つの所定の立方体の中に当てはまる−が同じ
階級に所属することにより、分解される。階級1に所属
するいちばん上の左の画点から始められる。次にそれの
隣りの点が、この画点も階級1に所属するか否かが質問
されて、直ちに、すべてこれらの階級に所属する簡単に
続いている大きさの点が生ずるまでこの質問がなされる
。次に第2の階級に所属する1つの点が詳細に検査され
る。この画点に対して第1の画点に対する様に動作が経
過する。その詳細を図8を用いて説明する。図8におい
てユニット74は画点データY,U,Vをベクトルへま
とめる。輝度信号Yが前もってユニット74により、全
部の3つのデータが単一のクロックパルスへ適合される
ように、細分化サンプリングされている。インデックス
メモリ60−この中でビデオ画像の、同じ領域へ所属す
る全部の点は同じインデックスを有している−は、画像
の分析の開始の前に0へセットされる。実際の画点のア
ドレスはアドレス発生器61により発生されて、相応の
インデックス(はじめは0)が比較器66により0と比
較される。比較の0は線路66aを介して比較器66へ
導びかれる。画点がまだインデックスを得ていないと、
読み出されたインデックスはまだ0であり、この画点は
画像面の、顔面に相応する部分へ所属する。そのため比
較器66の出力信号がゲート67を開き、これにもとづ
いてユニット64から送出された、実際の画点の色ベク
トル(Y,U,V)がユニット68と69へ転送される
。顔面に相応する面のアドレスをユニット66は、線路
57aと接続されている線路66bを介して入力される
。ユニット68へも、この画点に対して8つの隣り合う
画点の複数個のアドレスが伝送される。ユニット68は
これにもとづいて所属の色ベクトルを形成する。実際の
画点とそれの隣り合う画点との間の色ベクトルの差は、
ユニット69により形成される。差とは差ベクトルの2
乗のことである。しかしこの場会、このベクトルの個々
の成分はさらに重み付けされる。用いられる重みはY成
分に対しては0.2であり、他の両方の成分に対しては
1である。この重み付けにより、影の影響は、ビデオ画
像を領域へ分解する場合に低減される。
【0044】ユニット69により形成された差は次にユ
ニット70により、ユニット70へ線路70aを介して
導びかれる閾値Tと比較される。そのためユニット70
は、実際の画点の周囲が同じ領域へこの領域そのものの
ようにまだ所属するか否かを判定する。後置接続されて
いる計数器71は、1つの領域へ所属する画点の個数を
計数してそのためこの領域の大きさを送出する。この大
きさはメモリ72の中に、この領域の番号(インデック
ス)と結合されて記憶される。この番号は計数器59か
ら同じくメモリ72へ導びかれる。線路72aを介して
この領域の大きさが転送される。計数器59は領域をす
べて計数する。計数器59は、比較器70が1つのパル
スにより、実際の画点の隣り合う点がもはや同じ領域へ
所属しないことを、通報する。実際の画点と同じ領域へ
所属する隣り合う点が見出されている時は、その領域番
号(インデックス)が計数器59からメモリ60の中に
そのアドレスの下に記憶される。このアドレスはユニッ
ト62から同じメモリ60へ伝送される。  ユニット
62から発生されるアドレスは、この領域の重心を算出
する目的で、ユニット63において加算される。1つの
領域のアドレスの和は、次に分周器64によりこれらの
領域の画点の個数により除算される。分周器64は画点
の個数をユニット71から入力される。次にこの重心は
メモリ65において相応の領域番号(インデックス)と
共に以後の使用の目的で記憶される。重心データは線路
65aを介して別の処理の目的で供給される。各々の画
点が1回検出されると、メモリ60において領域への全
部の画点の分解が形成され、これらの領域の番号が線路
60aへ供給される。
【0045】領域への分解の結果は即ち領域の大きさ、
領域の重心および、番号づけられた領域への画点の配属
は、後置接続されたユニットIIHによりさらに処理さ
れる。このユニットIIHにより、人の顔の目と口に相
応する3つの領域を求める試行がなされる。上述の様に
、この試行は、粗識別により定められている顔面内の領
域へ制限されている。
【0046】顔面へ所属する重心はトリオへまとめられ
て次に、このトリオが人の顔の目と口に相応できるか否
かが、検査される。この検査は人の顔の目と口との幾何
学的な比を用いる。例えばトリオの接続線の長さの関係
が決定されて、次のこの長さの関係が顔の目と口のモデ
ルデータと一致するか否かが検査される。最後に検査さ
れることは、1つの三重点の全部の3つの点の座標と前
もって決定された中心軸との関係が求められる。想定さ
れている目が等しい水平のアドレスを有していないと思
われるトリオは、人の目とはなり得ない。最後にユニッ
トIIHにより、両方の目のあるべき領域の色の差が大
きすぎないか、そのためこの領域が人の目に相応し得な
いかが、検査される。さらに目と口に所属すべき領域が
他の領域よりも一層移動するか否かが検査される。最後
に全部のこれらの特性に重み付け数字が付されて、さら
にこれまで求められた全部のトリオから、全部の運動が
最適に存在するトリオが選択される。
【0047】比較ユニット75へメモリ72に記憶され
ていた領域大きさが、線路72aと接続されている線路
75aを介して、導びかれる。この比較ユニットはこの
大きさを、このユニットへ線路75bと75cを介して
導びかれる下側閾値および上側閾値と、比較する。この
比較ユニットにより、メモリ72に記憶されている領域
大きさが人の目と口の領域に相応できるか否かが検査さ
れる。これらの両方の閾値の間に存在する領域は、人の
目にまたは口に所属することができる。閾値のための代
表的な値は、下側閾値に対しては5であり、上側閾値に
対しては30である。比較器75により開かれるゲート
76は、領域の大きさが両方の閾値の間に存在すると、
直ちにこの領域の閾値座標を、線路76aを介して比較
器77へ転送する。線路76aは線路65aと接続され
ている。比較器77は、この重心座標が前もって決定さ
れた顔面−その識別データは線路77aを介して導びか
れる−の内部に存在するか否かを検査する。線路76a
は線路65aと接続されている。比較器77は、重心座
標−その識別データは線路77aを介して導びかれる−
が、前もって決定した顔面の内部に存在するか否かを検
査する。線路77aは線路57aと接続されている。こ
の面の内部に存在するこの種の領域だけがさらに処理さ
れる。ユニット78は、この面の内部に存在する全部の
重心座標を、人の顔の目と口に相応すると思われる所属
のトリオへまとめる。これらのトリオの各々は比較器7
9により、メモリ80に記憶されているモデルデータと
比較する。このモデルデータは人の顔に関する周知の知
識からおよび、状態画像の分析から得られたパラメータ
により、得られる。分析データはユニット80へ、線路
57aと接続されている線路80aを介して導びかれる
。モデルパラメータは、目の間の距離、目と口との間の
距離D4およびD5、目の間の垂直間隔D2、目の間の
水平間隔D1および、色領域に対する垂直軸からの距離
を含む(図10を参照のこと)。採用されたトリオは次
にユニット85〜93へ転送される。これらのユニット
はこれらのトリオの各々を重み付け番号で、以下で示さ
れる特性との比較に応じてふさぐ。
【0048】ユニット85はトリオの重心および中心軸
からのその間隔を算出して記憶する。中心軸のデータは
ユニット85へ、線路51bと接続されている線路85
aを介して導びかれる。ユニット87は、1つのトリオ
に所属する領域の面の内部の差画像の全エネルギーを算
出する。この差画像はユニット83の中で形成されて記
憶される。この目的でこのユニットは線路81aを介し
て、実際のビデオ画像と、メモリ81の中に記憶された
先行の画像とを導びく。エネルギ算出は顔面の内部にお
いてだけ行なわれる。この顔面の限界データは線路83
aを介してユニット83へ導びかれる。線路83aは線
路57aと接続されている。分析は、目と口が、顔の多
くかつ迅速に動く領域であるという事実を基礎としてい
る。ユニット89は、採用されたトリオの点の周囲にお
ける対称状態に関する情報を形成する。この周囲はユニ
ット84へ線路81aを介して導びかれる。ユニット8
4は、想定された目の重心または想定された口の重心を
中心とする長方形を形成して、この領域が水平の対称軸
に対してどの程度に鏡対称であるかを、検査する。この
対称のための尺度は、もとの点と、軸において鏡像化さ
れた点−さらに変数で除算される−との間の全部のデー
タの差の合計である。高い対称性を有する目および口の
ような領域は、対称でない領域または構造を有しない領
域と比較すると、わずかな対称値しか有していない。こ
の対称大きさ−ユニット84により算出される−は、実
際のトリオのための重み付け数を算出する目的で、ユニ
ット89において用いられる。ユニット91は、目の領
域の色の間の類似性を再現する重み付け数を算出する。 ユニット91は、メモリ60に記憶されていた目の領域
の色値が、線路60aと接続されている線路91aを介
して、伝送される。最高の重み付けを、目に相応すべき
領域が同じ色を有する場合のトリオだけが得る。
【0049】ユニット93は重み付け数を発生し、これ
により目と口の色の周囲が重み付けされる。この周囲の
色はユニット93へ同じくメモリ60から導びかれる。 目および口として形成されたトリオは、同じ色の周囲を
有するべきである。周囲の色の差が小さいほど、それだ
け重み付け数−これによりトリオがユニット93により
評価される−が高くなる。
【0050】これまで採用された全部のトリオ−これら
はユニット85,87,89,91および93に記憶さ
れている−の重み付け数は、正規化ユニット86,88
,90,92および94へ伝送されて、それらの値が0
と1の間に存在するように正規化される。これらの値は
、ユニット95により互いに乗算される。ユニット96
は記憶されている値から、これらの値が最大値を取る場
合のトリオを決定する。ユニット96は所属の座標を記
憶してこれらを、図1においてIIIで示されたユニッ
トへ転送する。ユニットIIIは図9に一層正確に示さ
れている。ユニット97において、2つの相続いて定め
られた最適のトリオが、ユニット97へ線路91aを介
して導びかれる所定の許容差内に有るか否かが、検査さ
れる。有る場合には、データがユニット98へ転送され
る。ユニット98は、このデータと線路98aを介して
このユニットへ導びかれたモデルデータとを用いて、人
の顔に所属できる画像の点を決定する。これらの点の座
標は線路98bを介して、図示されていない符号器へ転
送される。上述の様にビデオ画像の品質向上された面−
この面の中に著しく大きい確率で人の目が存在する−が
決定される。
【図面の簡単な説明】
【図1】本発明の構成を有する装置の基本図である。
【図2】いわゆる状態画像を決定するための、装置全体
の一部のブロック図である。
【図3】状態画像を濾波するためのフィルターのブロッ
ク図である。
【図4】状態画像を濾波するためのフィルタのブロック
図である。
【図5】状態画像を濾波するためのフィルタのブロック
図である。
【図6】いわゆる特性関数を決定するための、かつ状態
画像の中にシミュレーションされた被写体の中心軸を決
定するための、装置全体の一部のブロック図である。
【図7】特性関数を折りたたむための、かつ状態画像中
に想定される顔の領域の中に、長方形の顔面を配置する
ための、装置全体の一部のブロック図である。
【図8】異なる色値を有する領域の中にカラービデオ信
号を分解するための、装置全体の一部のブロック図であ
る。
【図9】人の目と口の領域の探すための、装置全体の一
部のブロック図である。
【図10】目と口の間の幾何学的な状態を説明するため
の人のシルエット図である。
【符号の説明】
1    遅延素子 2    減算器 3    画像メモリ 4,5    ユニット 6    画点アドレス発生器 7    ブロックアドレス発生器 8    アンドゲート 9    シミュレーションユニット 10    ユニット 11    計数器 12    ユニット 13    アドレス発生器 14,45    ユニット 16    比較器 17,18,19    ユニット 20    反転器 21,22    オアゲート 24    アドレス発生器 25,27    メモリ 30    マーキングレジスタ 31    ユニット 32    比較回路 33    アンドゲート 34    ユニット 35    比較器 36    計数器 37    メモリ 38    ユニット 39    比較器 40    発生器 41    比較回路 42,47    発生器 43    ユニット 44    計数器 45    関数メモリ 46    ユニット 48,49,50,51    ユニット52    
メジアンフィルタ 53,54    ユニット 55    比較器 56,57    ユニット 60    インデックスメモリ 61    アドレス発生器 66    比較器 67    ゲート 68,69,70    ユニット 71    計数器 72    メモリ 75    比較器 76    ゲート 77,79,80    比較器 85〜93    ユニット

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】  ビデオ画像のシーケンスにおける人の
    顔を識別するための回路装置であって、該回路装置は、
    1a)  第1の手段(I)を備えており、該第1手段
    により、ビデオ画像がブロックへ構造化され、さらに2
    つの相続く画像の相応のブロックが互いに減算されるよ
    うにし、 1b)  第1手段(I)により発生された差画像を後
    処理するための第2の手段(II)を備えており、1c
    )  比較手段(IIA)を備えており、該比較手段に
    より各々の差画像が、1つのブロックの複数個の画点の
    基準の和が第1の閾値を上回わるか否か、およびこのブ
    ロックの、第2の閾値を上回わる基準を有する画点の個
    数が所定の個数を上回わるか否かが検査されるようにし
    、 1d)  シミュレーション手段(IIB)を備えてお
    り、該シミュレーション手段により、1つの差画像が、
    複数個の状態ビットから成る1つの状態画像へシミュレ
    ーションされるようにし、このシミュレーションの場合
    、前記の検査に肯定的な答を出した各々のブロックが第
    1の2進値を有する状態ビットへシミュレーションされ
    るようにし、さらに前記の検査に否定的な答を出した各
    々のブロックが、第1の2進値とは反対の第2の2進値
    へシミュレーションされる形式の回路装置において、1
    e)  変換手段(IIC)が設けられており、該変換
    手段により、第1の2進値を有する状態画像の領域が1
    次元の特性関数へ変換されるようにし、この変換の場合
    、状態画像の1つの行または1つの列内のこれらの状態
    ビットの個数が行数または列数の関数として求められる
    ようにし、 1f)  折りたたみ手段(IID)が設けられており
    、該折りたたみ手段により、特性関数を正規化し、補助
    関数を用いて折りたたむようにし、この場合この補助関
    数は、特性関数の理想的なパターンを有する折りたたみ
    積分が所定の理想的な値を取るように設計されており、
    さらに前記折りたたみ手段により、所定の許容範囲内に
    ある実際の折りたたみ積分の値が理想的な値と一致する
    時にだけ識別信号を送出するようにし、 1g)  マーキング手段(IIE,IIF)が設けら
    れており、該マーキング手段により、識別信号が送出さ
    れた場合に、各々の行内の第1の2進値を有する状態ビ
    ットの重心を求めるようにし、これらの重心の全部を垂
    直の中心軸を定めるために用いるようにし、さらに状態
    画像の、中心軸により半分にされかついちばん上の重心
    を周辺点として含む所定の顔面内にある全部の点をマー
    キングするようにしたことを特徴とする、ビデオ画像の
    シーケンスにおける人の顔を識別するための装置。
  2. 【請求項2】  第1のフィルタ手段(13〜20)が
    状態画像を次のように変化させる目的で設けられており
    、即ち同じ2進値を有する隣り合う状態ビットの個数が
    所定の限界を下回わる時に、第1の2進値を有する状態
    ビットが反転されるようにした請求項1記載の回路装置
  3. 【請求項3】  平滑化手段が状態画像を次のように変
    化させる目的で設けられており、即ち少なくとも2つの
    相続く画像の互いに対応する状態ビットがオア結合によ
    り1つの新たな状態ビットへ結合されるように変化され
    る、請求項1又は2記載の回路装置。
  4. 【請求項4】  第2のフィルタ手段(28〜41)が
    状態画像を次のように変化させる目的で設けられており
    、即ち 4a)  第1の2進値を有する、1つの続いている領
    域を形成する状態ビットの状態ビットの個数を求めて記
    憶するようにし、 4b)  1つの続いている領域の全部の状態ビットが
    、領域に依存する同じマーキングを得るようにし、4c
    )  求められた個数を大きさに応じて分類するように
    し、 4d)  2番目に大きい領域の大きさが最大の領域の
    所定の部分を下回わるか否か検査するようにし、4e)
      下回わる場合は、2番目のおよびそれに続く全部の
    領域の状態ビットを反転するようにし、下回わらない場
    合は、顔が存在しないものとして通報するようにした請
    求項1から3までのいずれか1項記載の回路装置。
  5. 【請求項5】  メジアン・フィルタ手段(52)が、
    1次元の特性関数をメジアン濾波作用により平滑化する
    目的で設けられている請求項1から4までのいずれか1
    項記載の回路装置。
  6. 【請求項6】  手段(IIG)が設けられており、該
    手段により、顔面に相応するビデオ画像の面が連続番号
    の付された、領域の個数へ次のように分解されるように
    し、即ち 6a)  1つの領域の画点が全部、同じ階級の画像デ
    ータの中へ含まれるようにし、さらに前記の手段により
    、6b)  これらの領域の大きさおよび重心が定めら
    れるようにした請求項1から5までのいずれか1項記載
    の回路装置。
  7. 【請求項7】  手段(IIH)が次の目的で設けられ
    ており、即ち 7a)  重心からのトリオの距離を定める目的で、7
    b)  このトリオの全部の重心の位置およびトリオの
    連結肢の長さの関係を、顔の目と口のモデルデータと比
    較することにより検査する目的で、 7c)  検査が肯定的な答を与えた重心トリオの後続
    の重み付けを、人の顔の目と口の幾何学的、色彩的、お
    よびダイナミックな特性を用いて行なうようにし、さら
    に7d)  全部の重み付けの最適値の中に存在するト
    リオを選択する目的で、前記手段が設けられている請求
    項6記載の回路装置。
  8. 【請求項8】  手段(III)が次の目的で設けられ
    ており、即ち相続く少なくとも2つの所定の最適な3点
    が所定の許容限界内で一致するか否かを検査する目的で
    、さらに一致した場合は、モデルデータによれば人の顔
    に所属する全部の画点を設定する目的で設けられている
    請求項7記載の回路装置。
JP22560291A 1990-09-05 1991-09-05 ビデオ画像のシーケンスにおける人の顔を識別するための回路装置 Expired - Fee Related JP3242678B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE4028191.4 1990-09-05
DE4028191A DE4028191A1 (de) 1990-09-05 1990-09-05 Schaltungsanordnung zum erkennen eines menschlichen gesichtes

Publications (2)

Publication Number Publication Date
JPH04273388A true JPH04273388A (ja) 1992-09-29
JP3242678B2 JP3242678B2 (ja) 2001-12-25

Family

ID=6413669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22560291A Expired - Fee Related JP3242678B2 (ja) 1990-09-05 1991-09-05 ビデオ画像のシーケンスにおける人の顔を識別するための回路装置

Country Status (4)

Country Link
US (1) US5570434A (ja)
EP (1) EP0474304B1 (ja)
JP (1) JP3242678B2 (ja)
DE (2) DE4028191A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5420638A (en) * 1992-04-14 1995-05-30 U.S. Philips Corporation Subassembly for coding images with refresh correction of the data to be coded, and subassembly for decording signals representing these images and previously coded by means of a subassembly of the former kind
FR2690031A1 (fr) * 1992-04-14 1993-10-15 Philips Electronique Lab Dispositif de segmentation d'images.
GB9215102D0 (en) * 1992-07-16 1992-08-26 Philips Electronics Uk Ltd Tracking moving objects
GB9308952D0 (en) * 1993-04-30 1993-06-16 Philips Electronics Uk Ltd Tracking objects in video sequences
DE4407528C2 (de) * 1994-03-07 1998-04-09 Sq Services Ag Bewegungsmelder und Verfahren zur Bewegungsmeldung
US7769513B2 (en) * 2002-09-03 2010-08-03 Automotive Technologies International, Inc. Image processing for vehicular applications applying edge detection technique
US6185316B1 (en) 1997-11-12 2001-02-06 Unisys Corporation Self-authentication apparatus and method
DE19810792A1 (de) 1998-03-12 1999-09-16 Zentrum Fuer Neuroinformatik G Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes
EP1112549A4 (en) * 1998-09-10 2004-03-17 Mate Media Access Technologies METHOD FOR INDEXING FACES FOR NAVIGATION AND EFFECTIVE SEARCHING OF PEOPLE IN VIDEO IMAGES
US6134339A (en) * 1998-09-17 2000-10-17 Eastman Kodak Company Method and apparatus for determining the position of eyes and for correcting eye-defects in a captured frame
RU2187904C1 (ru) 2000-12-19 2002-08-20 Многопрофильное предприятие ООО "Элсис" Способ и устройство преобразования изображения
US8406302B2 (en) * 2001-07-10 2013-03-26 Entropic Communications, Inc. Unit for and method of motion estimation and image processing apparatus provided with such motion estimation unit
US7577297B2 (en) * 2002-12-16 2009-08-18 Canon Kabushiki Kaisha Pattern identification method, device thereof, and program thereof
WO2005059811A1 (en) * 2003-12-16 2005-06-30 Canon Kabushiki Kaisha Pattern identification method, apparatus, and program
JP4121026B2 (ja) 2004-01-21 2008-07-16 富士フイルム株式会社 撮像装置および方法並びにプログラム
KR20070038544A (ko) * 2004-08-04 2007-04-10 쿨레노프 다울렛 전자적 디지털 이미지로 얼굴을 자동인식하는 방법
JP2007079641A (ja) * 2005-09-09 2007-03-29 Canon Inc 情報処理装置及び情報処理方法及びプログラム及び記憶媒体
US8090904B2 (en) * 2008-02-01 2012-01-03 Cru Acquisition Group, Llc Reduced hard-drive-capacity detection device
RU2013108254A (ru) * 2010-07-26 2014-09-10 Конинклейке Филипс Электроникс Н.В. Получение ключевых слов для поиска
CN106855940A (zh) * 2016-11-23 2017-06-16 河池学院 一种基于机器人的人脸识别系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8518803D0 (en) * 1985-07-25 1985-08-29 Rca Corp Locating target patterns within images
US4975960A (en) * 1985-06-03 1990-12-04 Petajan Eric D Electronic facial tracking and detection system and method and apparatus for automated speech recognition
GB8528143D0 (en) * 1985-11-14 1985-12-18 British Telecomm Image encoding & synthesis
GB8710737D0 (en) * 1987-05-06 1987-06-10 British Telecomm Video image encoding
US5136659A (en) * 1987-06-30 1992-08-04 Kokusai Denshin Denwa Kabushiki Kaisha Intelligent coding system for picture signal
EP0330455A3 (en) * 1988-02-22 1990-07-04 Kabushiki Kaisha Toshiba Image encoding apparatus
JPH0220185A (ja) * 1988-07-08 1990-01-23 Ricoh Co Ltd 動画像伝送方式
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions

Also Published As

Publication number Publication date
US5570434A (en) 1996-10-29
DE4028191A1 (de) 1992-03-12
EP0474304A3 (en) 1992-12-16
EP0474304A2 (de) 1992-03-11
DE59108393D1 (de) 1997-01-16
EP0474304B1 (de) 1996-12-04
JP3242678B2 (ja) 2001-12-25

Similar Documents

Publication Publication Date Title
JPH04273388A (ja) ビデオ画像のシーケンスにおける人の顔を識別するための回路装置
EP0635981B1 (en) Feature-region extraction method and feature-region extraction circuit
CN103530599B (zh) 一种真实人脸和图片人脸的区别方法和系统
CN106228528B (zh) 一种基于决策图与稀疏表示的多聚焦图像融合方法
CN104486618B (zh) 视频图像的噪声检测方法及装置
US10255490B2 (en) Method and apparatus for human detection in images
JP2002049912A (ja) 人物画像取得システム
CN109344758B (zh) 基于改进局部二值模式的人脸识别方法
JP4390487B2 (ja) 頭部領域抽出装置
Mu et al. Automatic extraction of human facial features
CN112613430B (zh) 一种基于深度迁移学习的步态识别方法
JP4200165B2 (ja) ステレオカメラによるオブジェクトの分類のための方法
JP2690132B2 (ja) 個人照合方法および装置
JP3512219B2 (ja) データ処理装置とそれを用いた人数計数装置
JP4298303B2 (ja) 姿勢推定装置
KR100408829B1 (ko) 모델 기반 부호화 시스템에서의 얼굴 영상 세그멘테이션 방법
CN112183357A (zh) 一种基于深度学习的多尺度活体检测方法及系统
JPH10149447A (ja) ジェスチャー認識方法および装置
KR100289703B1 (ko) 모델 기반 부호화 시스템에서의 얼굴 영상 정합 방법
KR100289702B1 (ko) 모델 기반 부호화 시스템에서 파노라마 영상을 이용한 얼굴영상 정합 방법
Hartmann et al. The SENROB vision-system and its philosophy
JP3880665B2 (ja) 多階調画像の濃度ヒストグラム算出装置
JPH0498580A (ja) パターン認識方法及びその装置
Ohya et al. Detecting facial expressions from face images using a genetic algorithm
KR100281970B1 (ko) 모델 기반 부호화 시스템에서 파노라마 영상을 이용한 얼굴영상 정합 방법

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071019

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081019

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091019

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees