JP2001175869A - 話し手位置検出装置及びその方法 - Google Patents

話し手位置検出装置及びその方法

Info

Publication number
JP2001175869A
JP2001175869A JP2000248307A JP2000248307A JP2001175869A JP 2001175869 A JP2001175869 A JP 2001175869A JP 2000248307 A JP2000248307 A JP 2000248307A JP 2000248307 A JP2000248307 A JP 2000248307A JP 2001175869 A JP2001175869 A JP 2001175869A
Authority
JP
Japan
Prior art keywords
area
region
template
value
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000248307A
Other languages
English (en)
Inventor
Tochu Kyo
東 中 姜
Seiketsu Ryu
聖 杰 柳
Chien Kin
智 淵 金
Shoyo Kin
昌 容 金
Yang-Seock Seo
亮 錫 徐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2001175869A publication Critical patent/JP2001175869A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

(57)【要約】 【課題】 映像で話し手の目と顔の位置をより正確かつ
より迅速に探すことができ、しかも映像雑音にも強い話
し手位置検出装置及びその方法を提供する。 【解決手段】 映像で、相対的に強い灰色特徴を示すピ
クセルを検出し、このピクセルが形成する領域中から部
分凝集特性を示しかつテクスチャ特徴を有する領域を目
の候補領域とする目位置検出手段10と、前記目の候補
領域中から抽出した位置にマッチングさせて形成した探
索テンプレートから最適の探索テンプレートを決定する
顔位置決定手段20と、この最適の探索テンプレートを
利用して話し手の位置領域を決定する抽出位置安定化手
段30とを含む。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、映像信号処理に係
り、特に、カメラセンサ等の入力手段を通して入力され
た映像または、ビデオ映像で示される人の顔の特徴を表
示する特徴値を解析して抽出し、映像内で人の顔の位置
を検出する装置及びその方法に関する。
【0002】
【従来の技術】最近、人工知能分野に関する研究は、人
が有する認識能力をコンピュータに移植してコンピュー
タや機械に知的能力を付与することができる部分に関心
と研究とが集中している。その中で、特に、人の視覚シ
ステムを利用した顔の認識技術は、映像処理、パターン
認識及び顔つきの研究などのコンピュータビジョン及び
映像処理の関連分野の全般に渡り非常に活発で広範囲に
研究されている。
【0003】所定の入力手段で入力された映像を利用し
て顔の存在の有無、及び顔の領域を検出する技術は顔の
認識の問題のみならず、顔つきの特徴の研究、乗り物の
運転手の眠気感知、所定の場所の出入管理、映像インデ
クシング等の種々の応用分野で非常に重要であると認識
されている。人は、各種の動的な環境下でも容易に顔の
領域を探し出すことができるが、コンピュータを利用し
てこのような仕事を実行することは、たとえ顔の背景が
比較的シンプルな構成である映像であっても、単純な問
題とはならない。
【0004】既に提案されている顔の領域を検出する方
法の中で代表的な方法としては、米国特許番号US56
80481に記載されている神経網(neural n
etwork:ニューラルネットワーク)を利用する方
法、米国特許番号US5710833に記載されている
明るさの主成分の分析等による顔の明るさの統計的特徴
を利用する方法、及びT.Poggioが発表した学術
論文[IEEE TPAMI20、1998]に記載され
ている整合方法などが挙げられる。
【0005】ところで、所定の方法によって特定の要素
を抽出されて構成された顔の候補を有する映像を、顔の
認識システムの入力に用いるためには、抽出された顔の
候補領域における顔の構成要素や、顔の特徴に基づき顔
の正確な位置を検出する過程が必要となる。
【0006】すなわち、所定の入力手段で入力された入
力映像を既設のモデルと比較するためには、この入力映
像から抽出された顔映像とモデルテンプレートの顔映像
との間の大きさの差、回転方向の差及び位置の差などを
補償するための位置抽出及び大きさ正規化過程が、認識
及びマッチング性能を向上させるために必須な先決過程
として要請されている。
【0007】大部分の顔認識システムでは、このような
整列及び正規化過程で必要な基準になる顔構成要素とし
て、目の領域、またはひとみの中心領域が用いられてい
る。その理由は、顔の構成要素中、顔映像の大きさ、表
情、姿勢、照明などに変化が生じても相対的にその特徴
の変化が小さい部分、すなわち相対的な変化が小さい形
態を有する部分が目の領域であるためである。
【0008】このような目の領域、またはひとみ中心の
位置を映像で探すための多くの研究が進められてきた。
既存の顔認識システムに適用された方法が主にひとみの
検出方法にも適用されてきた。ひとみ検出方法中、代表
的なものとしては、様々な大きさの目のテンプレートを
作って入力映像のガウスピラミッド(Gaussian
pyramid)映像を構成し、入力映像内のあらゆ
る位置で正規化相関係数法を利用してひとみを探索する
方法が一般に適用されてきた(例えば、T.Poggi
oが発表した学術論文[IEEE TPAMI20、1
998]に記載されている。)。
【0009】米国特許番号US5680481とMog
haddamが発表した学術論文[IEEE TPAMI
19、1997]とに各々記載されている方法は、テン
プレートの大きさにより目、鼻、口の領域に対する固有
行列を作って、テンプレート映像内の全領域で入力映像
との比較を通して関心度の比較的高い領域の特徴を探索
するものである。
【0010】このような2種の方法で生じる共通的な問
題としては、映像で目や鼻などの特徴に対する大きさや
方向、位置等について未知であるために、これらを映像
の全領域に対して大きさや方向により分類されたいくつ
かのモデルテンプレート用いて探索しなければならない
ことが挙げられる。このことは、膨大な計算量を発生さ
せ、また位置決定のための臨界値決定、過度の誤応答処
理などの問題によって実際にシステムに適用することを
困難にしている。
【0011】米国特許番号US5832115では、同
心円状の二つの楕円で構成された顔の境界を検出するた
めのテンプレートを備え、この二つの楕円間の領域で顔
を包むエッジの大きさの評価を通して顔の位置を検出す
るものである。しかしながら、この方法によっても、楕
円のテンプレートの大きさ及び方向を決定しなければな
らず、全映像領域から顔の位置を探索しなければならな
いという問題がなお存在している。
【0012】このような顔の位置の検出に関する問題を
解決するために行われている研究の中で、最近では、多
くの研究がカラー映像を利用する部分に集中してきた。
大部分のカラー映像では、顔色や皮膚色のカラー値が一
般的な統計値の範囲に比較的近いという事実に基づい
て、皮膚色を検出することによって顔の候補領域を抽出
するといった研究が主流をなしている(例えば、J.R
ehgが発表した学術論文:COMPAQ TR CR
L9811、1998に記載されている。)。
【0013】このような研究は、最近、カラーインデク
シングや顔追跡及び抽出等に比較的成功的に適用されて
きた。しかしながら、色による顔の位置の抽出では、顔
色が映像を獲得したカメラの違いや照明色、物体表面及
び状態などの映像獲得条件から多くの影響を受ける。す
なわち、他のカメラで得られた映像は、たとえ同一環境
条件下の同一人物に対しても異なるカラー値を有する顔
色を与え易い。
【0014】とくに、照明の違いによって顔や皮膚のカ
ラー値は、かなり大幅に変化するため、映像獲得条件が
不明である場合には、顔の色領域のみを決定するために
皮膚色のカラー値に対して一定の範囲を決定することが
甚だ困難となる。また、背景の領域を含みながら幅広く
抽出された類似した皮膚色を有する映像に対して顔の領
域のみを決定する過程は容易ではなく、多くの後処理過
程を必要とする。
【0015】
【発明が解決しようとする課題】本発明は前記した問題
点を解決するために創作されたものであり、本発明の目
的は、映像で話し手の目と顔の位置とをより正確に、し
かも迅速に検出することができて、さらに映像のノイズ
にも強い耐性を備えた話し手位置検出装置及びその方法
を提供することにある。
【0016】
【課題を解決するための手段】前記した目的を達成する
ために、本発明に係る話し手位置検出装置の一態様は、
入力されたRGB映像で、相対的に強い灰色の特徴を示
すピクセルを検出し、この検出された相対的に強い灰色
の特徴を示すピクセルが形成する領域の中から部分凝集
特性を示してテクスチャ特徴を有する領域を目の候補領
域として決定する目位置検出手段と、前記目の候補領域
の中から抽出した2個の領域の位置にマッチングさせて
探索テンプレートを形成し、RGB映像で前記探索テン
プレートの領域内におけるピクセルの色度値に対する確
率距離の和を正規化した値と、前記探索テンプレートに
よって推定される目、口及び鼻の位置における水平エッ
ジの大きさとを用いて形成された探索テンプレート中、
最適の探索テンプレートを決定することによって顔の位
置を決定する顔位置決定手段と、前記最適の探索テンプ
レートを利用して最小外廓四角形を構成し、形状メモリ
に記憶された各ピクセルに対してカウント値の中から前
記最小外廓四角形の領域に対応するカウント値について
は増加させ、前記最小外廓四角形以外の領域は対応する
カウント値については減少させることによって、前記形
状メモリで所定の値以上のカウント値が位置した領域を
話し手位置領域として出力する抽出位置安定化手段とを
含むように構成する。
【0017】前記の他の目的を達成するために、本発明
に係る話し手位置検出方法の一態様は、(a)入力され
たRGB映像で、強い灰色の特徴を示すピクセルを検出
して、検出されたピクセルが形成する領域の中から部分
凝集特性を示してテクスチャ特徴がある領域を目の候補
領域と決定する段階と、(b)前記目の候補領域の中か
ら抽出した2個の領域の位置にマッチングさせて探索テ
ンプレートを形成して、RGB映像で探索テンプレート
の領域内におけるピクセルの色度値に対する確率距離の
和を正規化した値及び、探索テンプレートにより推定さ
れる目、口及び鼻の位置における水平エッジの大きさを
用いて形成された探索テンプレート中、最適の探索テン
プレートを決定する段階と、(c)前記最適の探索テン
プレートを利用して最小外廓四角形を構成して、形状メ
モリに記憶された各ピクセルに対してカウント値の中か
ら前記最小外廓四角形の領域に対応するカウント値につ
いては増加させ、前記最小外廓四角形以外の領域は対応
するカウント値については減少させながら、前記形状メ
モリから所定の値以上のカウント値が位置する領域を、
話し手の位置領域として出力する段階とを含むように構
成する。
【0018】以下、本発明に適用される基本的な概念及
び作用について説明する。本発明にあっては、まず、多
様なカラー映像から獲得された数多くの顔の分析を通し
て共通に示される顔の代表的な特徴である目の位置を抽
出するものである。顔において、通常、目は幾何学的に
凹状を有するために、目の明るさは黒い瞳孔を有しない
西洋人の場合でも映像でそのカラー特性は相対的に強い
灰色性向を示す。
【0019】すなわち、入力されたカラーの3種の主成
分(RGB)の値は目の位置では相互に似た大きさを有
し、かつ明るさが極めて低いという特徴を示す。このよ
うなカラー特性が目の代表的なカラー特徴となる。
【0020】また、目の明るさ分布を見れば、ひとみと
瞳孔、そして顔色などの明るさの差が稠密に集中して分
布するために、ひとみの輪郭が示される大部分の映像
で、テクスチャが存在する特徴を示すようになる。
【0021】また、目の位置は、目の周囲の顔色によっ
て囲まれているために、このようなカラー及びテクスチ
ャの2種の特徴が集中することによって部分的に生じる
特徴を示すようになる。一方、髪の毛の場合には、境界
部で部分的にテクスチャと相対的に強い灰色との特徴を
有しているが、このような特徴が比較的幅広く、または
比較的長く示されるという特徴がある。したがって、髪
の毛の場合には通常、このようなカラー及びテクスチャ
の2種の特徴が部分的に発生する特徴を満足に示さない
ものとなる。
【0022】本発明にあっては、このようなひとみと瞳
孔、そして顔色の3種の重要な特徴を目の位置の初期検
出のための情報として用いるものである。すなわち、目
で生じる3種の特徴の結合を通して目の位置を検出し、
引き続いて行われる多くの後処理過程の結合と、顔認識
過程とを通して正確な目の位置を抽出し、このようにし
て得られた情報を利用して顔の位置を抽出する。また、
このようにして抽出された顔の位置情報を利用すること
によって、ビデオホン等の画像伝送で特に関心度の比較
的高い領域への応用に適用することが可能である。
【0023】
【発明の実施の形態】以下、添付された図面を参照して
本発明を詳細に説明する。図1は、本発明に係る一例の
話し手位置抽出による画質改善装置の全体構成を示した
ブロック構成図である。図1によると、本発明に係る一
例の話し手位置抽出による画質改善装置は、入力映像で
目の位置を決定する目位置検出手段10、検出された目
の位置の候補点を利用して顔のテンプレートを構成し、
目の位置と顔の位置とを判別するために前記顔のテンプ
レートと映像データとをマッチングさせて顔の位置を決
定する顔位置決定手段20、及び抽出された目の位置と
顔の位置とが映像で急激に変化することを抑えるための
抽出位置安定化手段30を含んで構成される。
【0024】図2は、図1に示す本発明に係る一例の目
位置検出手段10をより詳細に示したブロック構成図で
ある。図2によると、本発明に係る一例の目位置検出手
段10は、色変換部21と、強灰色抽出部22と、中間
値フィルタリング部23と、領域形成部24と、領域形
成解析部25と、テクスチャ抽出部26と、目候補判別
部27とを備える。
【0025】色変換部21は、入力された映像のビデオ
信号YUVを3色信号RGBに変換する。強灰色抽出部
12は、映像の3色信号を解析して相対的に強い灰色の
特徴を示すピクセルを抽出する。一例の目位置検出手段
10では、強灰色抽出部22が、任意の一つのピクセル
に対してカラーを示す色要素の最大値(maxc)と最
小値(minc)との差が所定の値t1より小さく、最
大値(maxc)が他の所定の値t2より小さく分布す
れば強い灰色性向を示すという特徴を利用するものであ
る。
【0026】ここで、色要素の値が0〜255の階調で
表現されるとき、t1は55〜65の値の中から決定さ
れ、t2は90〜110の値の中から決定されることが
望ましい。しかし、本発明の範囲は、このような実施の
形態のみに限定されるものではなく、本発明の技術的思
想に基づく限りにおいて、種々の変形が可能である。す
なわち、相対的に強い灰色のピクセルを抽出することが
できる従来公知のあらゆる方法が含まれるものと解釈さ
れなければならない。
【0027】中間値(Median)フィルタリング部
23は、抽出されたピクセルを中間値フィルタリングし
てスポットノイズ(spot noise)などを取り
除く。
【0028】領域形成部24は、抽出されたピクセルに
対して連結されたピクセルを一緒にまとめて領域を作
り、各々の領域に該当ラベルを与える。
【0029】また、図2によると、本発明に係る一例の
目位置検出手段10では、領域形状解析部25が、環状
性(Circularity)解析部25a、細長比解
析部25b及び領域大きさ解析部25cを備える。環状
性解析部25aは各々のラベル化された領域に対してそ
の形状を解析して円形状に類似しているか否かを判別
し、細長比解析部25bは各々のラベル化された領域の
細長比を算出し、領域大きさ解析部25cは各々のラベ
ル化された領域の相対的な大きさを算出して各領域の部
分凝集特性を検査する。
【0030】さらに、図2によると、本発明に係る一例
の目位置検出手段10の一実施の形態でテクスチャ抽出
部26は、形態論解析部26a及び水平エッジ解析部2
6bを備える。形態論解析部26aは各領域で形態論フ
ィルタを用いてテクスチャ応答を算出してテクスチャ特
徴を検査し、水平エッジ解析部26bは水平エッジフィ
ルタを用いて水平エッジを抽出する。該形態論フィルタ
としては明るさの最小変化抽出フィルタ[M.Kun
t、IEEE TCSVT、1998]を用いることがで
き、また水平エッジフィルタとしては一般的な微分フィ
ルタ(Sobeloperator)を用いることがで
きる。
【0031】目候補判別部27は、ラベル化された領域
の中から部分凝集特性及びテクスチャ特徴が所定の値よ
り大きい領域を目の候補領域として判別する。
【0032】図3は、本発明に係る一例の顔位置決定手
段をより詳細に示したブロック構成図である。図3によ
ると、本発明に係る一例の顔位置決定手段20は、顔テ
ンプレート形成部31、確率距離演算部32、エッジ特
徴解析部33及び最適テンプレート透3透34を備え
る。
【0033】顔テンプレート形成部31は、予め備えら
れたモデルテンプレートを目の候補領域の中から抽出し
た2個の領域の位置に対応させて相似変換することによ
り入力されたRGB映像上に探索テンプレートを形成す
る。モデルテンプレートは、両目を示す二つの円を含ん
で、鼻の部分と口の部分との間に四角形の底辺が位置す
る顔の領域の四角形で構成されることが望ましい。
【0034】確率距離演算部32は、RGB映像で探索
テンプレートの領域内におけるピクセルの色差信号
r、Cb値と予め学習された統計値とを利用して顔領域
の皮膚色確率距離の和を求め、その和を探索テンプレー
トの大きさに対して正規化した正規化確率距離を算出す
る。
【0035】エッジ特徴解析部33は、探索テンプレー
トで推定される目、鼻及び口の位置で入力されたRGB
映像の水平エッジ特徴値を検出する。エッジ特徴解析部
33は、探索テンプレートで推定される口と鼻との位置
に対応する入力されたRGB映像における第1水平エッ
ジ大きさ及び目、鼻及び口の位置以外に前記探索テンプ
レートとマッチングさせる領域に対応する入力されたR
GB映像における第2水平エッジ大きさを検出して、第
1水平エッジ大きさと第2水平エッジ大きさとの比であ
るエッジ成分比を算出する。また、エッジ特徴解析部3
3は、目の部分を示す円の大きさにより正規化された目
の水平エッジ大きさを検出できる。
【0036】最適テンプレート決定部34は、前記正規
化確率距離、前記エッジ成分比及び前記正規化された目
の水平エッジ大きさの各々に所定の重みを与えて得られ
た加重値を足し合せた値が最小のテンプレートを最適の
テンプレートとして決定する。一方、最適テンプレート
決定部34は、複数の探索テンプレートが重畳されて形
成された領域が他の探索テンプレートが重畳されて形成
された領域と独立して位置する場合には、独立した領域
ごとに別々の最適テンプレートを決定する。これは一つ
の映像内に複数の顔が含まれる場合を示すためである。
【0037】図4は、本発明に係る一例の抽出位置安定
化手段をより詳細に示したブロック構成図である。図4
によると、本発明に係る一例の抽出位置安定化手段30
は、形状メモリ43、最小外廓四角形構成部41、形状
メモリ更新部42及び追跡位置抽出部44を備える。ま
た他の例として、速度及び形状解析部45をさらに備え
てもよい。
【0038】形状メモリ43は、入力されたRGB映像
の大きさ(映像の横長さ×縦長さ)に対応したピクセル
数のカウント値を記憶する。最小外廓四角形構成部41
は、最適の探索テンプレート内で顔映像が含まれる最小
外廓四角形(MBR:minimum boundar
y rectangle)を構成する。
【0039】探索テンプレートは、両目の相対的な位置
関係によっては映像に対して四角形の方向が回転する場
合もあるが、最小外廓四角形は、最適探索テンプレート
によって決定された顔の外廓は含み、かつ顔が回転する
か否かに関係なく映像と同一な方向に形成された四角形
である。
【0040】形状メモリ更新部42は、形状メモリ43
に記憶された各ピクセルに対してカウント値の中から最
小外廓四角形の領域に対応するカウント値については増
加させ、最小外廓四角形以外の領域に対応するカウント
値については減少させる。
【0041】追跡位置抽出部44は、形状メモリ43か
ら所定値以上のカウント値が位置した領域を話し手位置
領域として出力する。一方、速度及び形状解析部45
は、最小外廓四角形の大きさ及び動き速度を算出して、
形状メモリ更新部42により増加または、減少される値
の大きさを制御する。
【0042】以下、本発明の動作内容を詳細に説明す
る。まず、図2、図5及び図6(A)から図6(D)を
参照して本発明に係る目の候補領域の決定過程を説明す
る。本発明では一般静止映像または、ビデオカラー映像
のビデオ信号を入力して用いる。入力された映像のビデ
オ信号YUVは、色変換部21により3色信号RGBに
変換される。
【0043】本発明において、目の位置検出のために考
慮すべき3種の重要な特性として、カラー映像で目が有
する相対的に強い灰色性向、目近辺の位置の水平エッ
ジ、またはテクスチャ、そして分布の凝集性が挙げられ
る。
【0044】図5は、このような3種の特徴を説明する
ための図面である。図5には16名に対して各2枚ずつ
計32枚の正面顔映像とその正面顔映像を平均した1枚
の映像とが示されている。図5の各映像に示されるよう
に、両目の形状は凹状が丸い円形状として集中して示さ
れることが分かる。このような3種の特徴の組合せを通
して目の候補点を抽出することが本発明による目の候補
領域を決定する過程の重要な要旨である。
【0045】図6(A)は、MPEGで用いられる代表
的な4個の映像を示す図である。この映像は、主に頭と
上体とが見える上半身(Head & Shoulde
r)映像である。図6(A)に共通的に示されるよう
に、目の部分は黒色に近い相対的に強い灰色の特徴を示
している。このような灰色の特徴は、図5に示すように
目の部分が凹状幾何学的な形状という点に由来するもの
である。
【0046】したがって、強灰色抽出部22は、任意の
一つのピクセルに対してカラーを示す色要素の最大値と
最小値との差が小さく、かつ明るさが低く分布すれば相
対的に強い灰色性向を示すという特徴を利用して、映像
の色信号から相対的に強い灰色性向を示すピクセルを抽
出する。図6(B)は、このような灰色の特徴を示すピ
クセルを抽出したものを示す図である。図6(B)では
各映像で灰色性向を有するピクセルは、白色のピクセル
で元の映像に重畳して表示され、目の部分のみならず背
景が相対的に暗い部分がすべて抽出されている。
【0047】このような抽出ピクセルに対する映像座標
における空間分布を見ると、目の部分は顔の皮膚領域内
部に凝集して示されているが、背景や頭の部分の灰色ピ
クセルは比較的大きな塊であったり、比較的幅広く広ま
ったりして発生していることが分かる。すなわち、この
ような相対的に強い凝集性を示すという目の部分の特徴
は、一貫的に表れるものである。このような部分凝集特
性を用いて目の候補領域のみを抽出することができる。
【0048】強灰色抽出部22から出力されたエッジピ
クセルに対して中間値(median)フィルタリング
と領域ラベリングされた後、領域形状解析部25によっ
て各領域の大きさと形状などが計算されて部分凝集性を
示さない領域は取り除かれる。
【0049】環状性測定では領域の方向や大きさに関係
なく、形状が円に近い領域を探すことが必要である。し
たがって、本発明に係る一実施の形態では、このような
特徴を示す形状測定基準としてHaralick[Co
mputer & Robot Vision、Add
ition−WesleyPub.、1992]による
下記式(2)及び式(3)を用いることが望ましい。
【0050】
【数2】
【0051】
【数3】
【0052】前記式(2)及び前記式(3)中、二値μ
RとσRとは各々ピクセル(rk、ck)であってk=0、
…、nの項で定義され、kは形状内部のピクセルに対す
るインデックスであり、下記(4)は領域中心の座標で
ある。
【0053】
【数4】
【0054】前記式(2)及び前記式(3)によって算
出された二値からμR/σR値を測定すると、この値が形
状の環状性を示す値となる。このμR/σR値が所定の値
より低い値を示せば、任意の形状になる場合が多いので
その領域は取り除かれる。なお、ここに示す本発明の望
ましい一実施の形態では、このμR/σR値が1.2と決
定されたが、本発明の範囲はこれに限定されるものでは
ない。
【0055】領域のMBR(Minimum Boun
ary Rectangle)を求めて細長比(横/
縦)を算出してこの細長比に制限を置くことにより、映
像の上下方向に少し長めの領域が取り除かれる。本発明
に係る一実施の形態では、細長比が0.7より小さい
か、または3.5より大きい領域は取り除かれる。ま
た、領域内のピクセル数を数えて所定の大きさ以上の領
域が取り除かれる。本発明に係る一実施の形態では、領
域の大きさが(映像の横ピクセル数×映像の縦ピクセル
数)/1600より大きければその領域は取り除かれ
る。すなわち、領域形状が比較的幅広く分布したり、大
きさがあまりにも大きい形態であったり、あるいは比較
的長く連結された形態を取り除く作業が実行される。し
かし、本発明の範囲はこのような一実施の形態で用いた
数値的な制限に限定されるものではない。
【0056】図6(C)は、形態論演算子を用いて検出
したテクスチャ特徴を示すものである。図6(C)によ
ると、明るさの稠密性の差により目の部分で比較的強い
応答(明るさの大きさ)を有するテクスチャ特性が抽出
されている。このようなテクスチャ特徴は、領域間の境
界ではないエッジ部で強く示されるという特徴がある。
また、目の近辺では垂直方向に明るさの交差が強く生じ
るので、水平エッジ特性が一貫的に存在することが分か
る。したがって、領域形状解析を通して抽出された目の
領域候補中、水平エッジ特性とテクスチャ特性とを強く
含んだ部分のみを選択することによって目の候補領域を
最終的に決定することが可能である。
【0057】図6(D)は、このようにして抽出した最
終的な目の候補領域の位置を示している。目は一つの顔
に2個存在するので、目の位置が決定されると、これと
比較すべき顔テンプレートの大きさ、方向、位置などを
決定することができる。すなわち、抽出された目の候補
位置によって顔テンプレートを重ねて、最終的に顔の領
域を判別することにより目の位置が決定される。
【0058】図3、図7(A)から図7(C)、及び図
8を参照して、顔の位置を決定する過程を説明する。図
7(A)から図7(C)は、モデルテンプレートを用い
て最適の探索テンプレートを決定する過程を説明する図
である。図7(B)は、検出された目の候補領域と重複
させてマッチングされた探索顔テンプレート(face
template)の形状を示している。
【0059】モデルテンプレートは、大きさが変化でき
る四角形状と内部に目の位置を示す二つの円形状とで構
成されている。それ以外に四角形の底辺に鼻と口とが位
置することができる領域が内部に含まれている。モデル
テンプレートは、一旦比較する目の候補領域の位置が選
定されると、映像上の位置と形状、方向及び大きさが決
定されて目の候補領域上に重なる。
【0060】つぎに、重なったモデルテンプレートの内
部に入る映像上の領域の色と幾何学的特徴とを調べるこ
とによって選択された目の候補領域が、実際に顔上の目
を示す領域であるのか否かを決定する。モデルテンプレ
ートは、4個の因子を有して探索テンプレートに相似変
換する。すなわち、二点に対する4個の式と4個の未知
数とがあるので変換因子を決定することが可能である。
図7(C)は、最終的に認識された目の位置と検出され
た顔の領域とを示している。
【0061】次に列挙した事項は、目の位置によって決
定された探索テンプレートに対して顔を認識する過程を
示すものである。 (1)人の顔は皮膚色を帯びており、人の皮膚色の分布
は一般に一定の範囲を有する。照明や形状が変化すると
物体の反射色は、比較的幅広く、または比較的大きく変
化するが、大部分の映像に対して人の顔や皮膚色は一定
値と分布とを有するものであることは多くの研究から公
知となっている。このような皮膚色の分布を用いれば顔
の候補領域を認識することが可能である。顔の色は、2
次元色空間でガウス(Gaussian)分布を有する
と仮定できる。したがって、例えば数千枚のMPEGビ
デオ映像で皮膚色を選択して統計値を算出することがで
きる。この統計値を利用して図7(B)で重なった探索
テンプレート内部の領域が皮膚色に近いか否かを示す確
率距離を算出することが可能である。本発明に係る一実
施の形態では下記式(1)によって算出されるMaha
lanobis距離を確率距離として用いている。
【0062】
【数1】
【0063】前記式(1)において、dは確率距離であ
り、xは色差信号Cr、Cbから構成される入力された色
のベクトル値であり、μは学習された皮膚色の平均ベク
トルであり、Σは学習値の分散行列を示している。テン
プレートの大きさに対して正規化された内部の色度値に
対する確率距離の和が小さいほど顔の領域となる可能性
は大きくなる。
【0064】(2)四角形状の探索テンプレートで底辺
の中央部近辺は、口または鼻の位置となり、この部分の
水平エッジ成分は比較的大きく示される。これとは反対
に、口の部分、鼻の部分と目の部分とを除いた探索テン
プレートにおける残りの顔の領域部分は、比較的均一な
明るさ分布を有してエッジ成分は特に存在しない。した
がって、これら二つの領域における水平エッジ成分の比
を求めて、これらの値を判別値として利用する。
【0065】(3)目の部分の水平エッジは相対的に大
きい。したがって、目の部分を示す円の大きさによって
正規化された目の水平エッジ大きさは、顔を判別するた
めに用いることができる。
【0066】図7(B)で重なった多くの探索テンプレ
ートに対して、以上の(1)から(3)の3つの項目の
値を各々算出して、各項目の重要度により対応する重み
を与えて得られた加重値を足し合せた値が最小の探索テ
ンプレートを取るようになる。但し、複数の目の候補領
域の対に対して各探索テンプレートが重なる場合には、
最小応答を与える探索テンプレートのみを抽出する。
【0067】一方、複数の探索テンプレートが重畳され
て形成された領域が、他の探索テンプレートが重畳され
て形成された領域と独立して位置する場合には、複数の
人が存在するものと判別して、独立した領域ごとに別々
の最適テンプレートを決定する。このような過程を通し
て目の位置及び顔の位置を抽出することが可能である。
図8は、上半身が示される典型的な連続したMPEG映
像に対して抽出した目の位置と顔の位置とを例示したも
のである。
【0068】以下、図4、図7(C)を参照して、抽出
安定化過程を説明する。図7(C)に示されるように、
顔の認識を通して抽出された目と顔とのテンプレートは
連続した映像で安定化されることが必要である。自然映
像シーケンス(natural image sequ
ences)は、映像を獲得するときの環境条件、映像
入力装置内部の因子等多くの要因によって常に映像雑音
を有している。
【0069】したがって、たとえ極めて短い時間に入力
された映像上の連続した前後二つの映像のみを取り上げ
たとしても、これら二つの映像における画質は多くの場
合に相異なる特性を示す。すなわち、このような映像雑
音特性から映像の特徴値の算出が影響を受け、映像で算
出された特徴値は時間軸に大きく依存して変わるように
なる。
【0070】このような不安定要因から映像認識や物体
抽出の性能は影響を受け、図7(C)に示される目と顔
とのテンプレートの位置も連続映像では安定して抽出さ
れることが難しいという傾向を示す。このような不安定
要因を取り除くため、本発明は物体の境界を示すMBR
位置情報を形状メモリに記憶させる技法を通してテンプ
レート抽出の不安定性問題を解決したものである。
【0071】通常、質量を有する物体は慣性(mome
nt)を有しており、人や物体が映像で運動する際に、
急激な運動変化が生じても微細な時間軸ではその運動変
化がよく反映されない傾向がある。特に、例えば人の上
半身のみが映ったような映像の場合に、人の空間上の位
置はほぼ一定の位置に連続して示される傾向があり、こ
のような場合には人が急激な運動変化を起こしても連続
映像で見れば低速では徐々に変化するように見えること
がある。
【0072】すなわち、連続した前後の映像フレームの
間において、この映像の抽出位置に対する時間的な相互
の相関性が存在するようになる。例えば、1秒当たり2
0〜30枚の単位で獲得されたビデオ映像を見るとき、
i番目のフレームでは左側に存在した物体が(i+1)
番目のフレームで突然に右側に存在するようなことは、
通常起こらない。このような時間軸の相互の相関性を利
用すれば映像の抽出位置を安定化させてMBRを連続的
に抽出及び追跡することが可能である。このような過程
は前記した形状メモリを用いる技法を利用して比較的簡
単に解決することができる。
【0073】まず、映像フレームの大きさ程度のカウン
ト値を記憶するための空間を有する形状メモリを確保
し、各ピクセルに対応するカウント値を初期化する。次
に、抽出された顔のMBRをn個入力し、このMBR内
部のピクセルの位置に対して割り当てられた形状メモリ
のカウント値を増やす。連続した次の映像で同様に抽出
された顔のMBRを入力し、前記した過程と全く同じ過
程を繰り返す。
【0074】もし、抽出されたMBRが連続映像で連続
して類似した位置で抽出された場合には、形状メモリの
対応位置におけるカウント値は引続き増えていく。この
カウント値は予め決められた所定の値に到達するときま
で継続的に増え、所定の値に到達すればその値を維持す
るようになる。
【0075】逆に、MBR以外の位置では形状メモリの
カウント値が繰り返して減少され、0に到達すれば0を
続けて維持するようになる。本発明に係る一実施の形態
では、カウント値が0〜7の間の値を有するようにな
る。このような過程を繰り返すようにすれば類似の位置
で連続して抽出される物体のみ安定して、しかも正確な
抽出を実行することができ、位置がランダムで、かつ反
復して抽出される物体の場合には、自然に形状メモリ上
で比較的低いカウント値を有するようになる。
【0076】したがって、形状メモリのカウント値を検
査して予め定められたしきい値以上のカウント値を示す
部分のみ物体が存在するものと判別することができる。
本発明に係る一実施の形態では、3以上のカウント値を
示す部分のみを顔が存在する位置として判別するように
構成した。しかし、本発明の範囲は前記したカウント値
の範囲及び話し手位置を決定するためのしきい値に限定
されるものではない。
【0077】このような本発明に係る形状累積メモリの
長所は、比較的簡単に物体抽出と位置安定化とを同時に
達成することができれば、性能に対する実行速度が非常
に速いものとなる。また、急激な位置の変化や、抽出さ
れたMBRの大きさに対応して、カウントステップを減
らしたり加えたりして適宜に調節することができるの
で、動く物体の速度、物体の重要性、または形状特性に
も適応できる。すなわち、より遅く動く場合と物体の顔
の大きさが比較的小さい場合には、カウントステップを
比較的大きくすることが望ましい。
【0078】動画像電話機や携帯電話等の動映像通話に
おいて、人の顔の領域は最も重要な関心を集める領域R
OI(region of interest)とな
る。したがって、抽出された顔の領域の情報を用いてM
PEG−1、MPEG−2、MPEG−4、H.263
等のエンコーダを用いて圧縮された映像を生成すること
において、顔の領域の画質を改善することができる。
【0079】すなわち、本発明は関心度の比較的高い領
域である顔の部分のみを比較的高い画質の画像で送り、
残りの背景の領域や関心度の比較的低い領域部は、比較
的低い画質の画像や比較的少ない情報量で送ることによ
って、全体的に伝送情報量を調整し、かつ関心度の比較
的高い領域の顔の部分のみを比較的高い画質の画像に維
持する装置に適切に適用することができる。
【0080】本発明の望ましい実施の形態による話し手
位置検出方法は、コンピューターシステムで実行できる
プログラムで作成可能であり、このようなプログラムを
記録したコンピュータで読むことができる記録媒体から
読み取って、汎用ディジタルコンピューターシステムで
実行することができる。このような記録媒体としては、
マグネチック記録媒体(例えば、ROM、フロッピー
(登録商標)ディスク、ハードディスク等)、光学的判
読媒体(例えば、CDROM、DVD等)及び搬送波
(例えば、インターネットを通した伝送)のような媒体
が含まれる。
【0081】以上、本発明に対してその望ましい実施の
形態を中心に説明した。本発明が属する技術分野で通常
の知識を有する者であれば、本発明が本発明の本質的な
特性から外れない範囲内で変形された形態で具現できる
ことは容易に理解され得るものである。それゆえ、ここ
に開示された実施の形態は、限定的な観点ではなく本発
明の技術的思想の基本概念的な観点から考慮されなけれ
ばならない。本発明の範囲は前述した説明のみに限定さ
れるものではなく特許請求の範囲に示されており、それ
と同等な範囲内にあるあらゆる相違点は本発明に含まれ
るものとして解釈されなければならない。
【0082】
【発明の効果】本発明によれば、映像で話し手の目の位
置と顔の位置とをより正確に、しかもより速く探し出す
ことができ、なおかつ映像雑音にも強くしてそれらを実
現することができる。
【0083】すなわち、停止した背景及び動く背景を有
する映像に同時に適用可能で、目の位置及び顔の位置を
検出する過程で、映像全体の探索を回避することによっ
て、高速処理及び並列処理が可能となり、運動の検出な
どの方法と組み合わせて信頼性をより高めた話し手の位
置の抽出を可能にすることができる。
【0084】本発明は、携帯用映像電話端末機、画像会
議、動画像チャットモジュール等に適用可能で、さらに
これらが適用可能なビデオホン、顔の映像の高画質保存
が必要な監視システム、内容基盤映像探索などの応用分
野に適切に適用できる。
【図面の簡単な説明】
【図1】本発明に係る一例の話し手位置抽出による画質
改善装置の全体構成を示したブロック構成図である。
【図2】図1に示す本発明に係る一例の目位置検出手段
をより詳細に示したブロック構成図である。
【図3】本発明に係る一例の顔位置決定手段をより詳細
に示したブロック構成図である。
【図4】本発明に係る一例の抽出位置安定化手段をより
詳細に示したブロック構成図である。
【図5】顔形状の明るさ分布を説明するための図面であ
る。
【図6】図6(A)から(D)は、目の候補領域を検出
する過程を説明するための図面である。
【図7】図7(A)から(C)は、顔の位置を検出する
過程を説明するための図面である。
【図8】連続MPEG映像で顔の位置が検出されたこと
を例示的に示す図面である。
【符号の説明】
10 目位置検出手段 20 顔位置決定手段 30 抽出位置安定化手段
───────────────────────────────────────────────────── フロントページの続き (72)発明者 金 智 淵 大韓民国 ソウル特別市 松坡区 新川洞 7番地 薔薇アパート 17棟 1101号 (72)発明者 金 昌 容 大韓民国 京畿道 儀旺市 旺谷洞 593 番地 栗谷アパート 101棟 1504号 (72)発明者 徐 亮 錫 大韓民国 ソウル特別市 松波区 風納洞 219番地 美星アパート 3棟 501号 Fターム(参考) 5B057 BA02 CA01 CB01 CE06 CE18 DA08 DB06 DC09 DC16 DC25 DC32 5C066 AA11 BA20 CA21 EB03 EE02 EF11 GA01 GA02 KC08 KC09 KD06 KD07 KE04 KE07 KE24 5L096 AA02 BA18 CA04 EA45 FA06 FA15 FA18 FA32 FA33 FA69 GA55 JA09

Claims (32)

    【特許請求の範囲】
  1. 【請求項1】 入力されたRGB映像で、相対的に強い
    灰色の特徴を示すピクセルを検出し、この検出されたピ
    クセルが形成する領域の中から部分凝集特性を示してテ
    クスチャ特徴を有する領域を目の候補領域として決定す
    る目位置検出手段と、 前記目の候補領域の中から抽出した2個の領域の位置に
    マッチングさせて探索テンプレートを形成し、RGB映
    像で前記探索テンプレートの領域内におけるピクセルの
    色度値に対する確率距離の和を正規化した値と、前記探
    索テンプレートによって推定される目、口及び鼻の位置
    における水平エッジの大きさとを用いて形成された探索
    テンプレート中、最適の探索テンプレートを決定する顔
    位置決定手段と、 前記最適の探索テンプレートを利用して最小外廓四角形
    を構成し、形状メモリに記憶された各ピクセルに対して
    カウント値の中から前記最小外廓四角形の領域に対応す
    るカウント値については増加させ、前記最小外廓四角形
    以外の領域は対応するカウント値については減少させる
    ことによって、前記形状メモリで所定の値以上のカウン
    ト値が位置した領域を話し手位置領域として出力する抽
    出位置安定化手段と、を含むことを特徴とする話し手位
    置検出装置。
  2. 【請求項2】 前記目位置検出手段は、 入力されたRGB映像を解析して相対的に強い灰色の特
    徴を示すピクセルを抽出する強灰色抽出部と、 前記強灰色抽出部によって抽出されたピクセル中、相互
    に連結されたピクセル同士を結合して領域を形成する領
    域形成部と、 前記領域形成部によって形成された各領域に対して部分
    凝集特性を検出する領域形状解析部と、 前記領域形成部によって形成された各領域に対してテク
    スチャ特徴を検出するテクスチャ抽出部と、 前記領域形成部によって形成された領域の中から前記部
    分凝集特性及び前記テクスチャ特徴が各々所定の値より
    大きい領域を目の候補領域と判別する目候補判別部と、
    を備えることを特徴とする請求項1に記載の話し手位置
    検出装置。
  3. 【請求項3】 前記顔位置決定手段は、 予め備えられたモデルテンプレートを、目の候補領域の
    中から抽出した2個の領域の位置に対応させて相似変換
    することによって入力されたRGB映像上に探索テンプ
    レートを形成する顔テンプレート形成部と、 前記RGB映像で探索テンプレートの領域内におけるピ
    クセルの色度値に対する確率距離の和を前記探索テンプ
    レートの大きさに対して正規化した正規化確率距離を算
    出する確率距離演算部と、 前記探索テンプレートで推定された目、鼻及び口の位置
    で入力されたRGB映像の水平エッジ特徴値を検出する
    エッジ特徴解析部と、 前記顔テンプレート形成部によって形成された複数の探
    索テンプレート中、前記正規化確率距離及び前記水平エ
    ッジ特徴値に所定の重みを与えて得られた加重値によっ
    て最適のテンプレートを決定する最適テンプレート決定
    部と、を備えることを特徴とする請求項1に記載の話し
    手位置検出装置。
  4. 【請求項4】 前記抽出位置安定化手段は、 前記入力されたRGB映像の大きさに対応するピクセル
    数のカウント値を記憶する形状メモリと、 前記最適の探索テンプレート内で顔映像が含まれる最小
    外廓四角形を構成する最小外廓四角形構成部と、 前記形状メモリに記憶された各ピクセルに対してカウン
    ト値の中から前記最小外廓四角形の領域に対応するカウ
    ント値については増加させ、前記最小外廓四角形以外の
    領域に対応するカウント値については減少させる形状メ
    モリ更新部と、 前記形状メモリで所定の値以上のカウント値が位置する
    領域を話し手位置領域として出力する追跡位置抽出部
    と、を備えることを特徴とする請求項1に記載の話し手
    位置検出装置。
  5. 【請求項5】 前記強灰色抽出部は、前記RGB映像の
    各ピクセルに対してカラーを示す色要素の最大値と最小
    値との差が所定の値より小さく、かつ最大値が他の所定
    の値より小さく分布する場合に、相対的に強い灰色性向
    を示すピクセルとして抽出することを特徴とする請求項
    2に記載の話し手位置検出装置。
  6. 【請求項6】 前記領域形状解析部は、各領域の環状性
    値を算出する環状性解析部を備え、 前記目候補判別部は、この各領域の環状性値が所定の値
    より小さい場合に、その領域を目の候補領域から取り除
    くことを特徴とする請求項2に記載の話し手位置検出装
    置。
  7. 【請求項7】 前記領域形状解析部は、各領域の細長比
    を算出する細長比解析部を備え、 前記目候補判別部は、この各領域の細長比が所定の値よ
    り大きいか、他の所定の値より小さい場合に、その領域
    を目の候補領域から取り除くことを特徴とする請求項2
    に記載の話し手位置検出装置。
  8. 【請求項8】 前記領域形状解析部は、各領域に対して
    全体映像の大きさに相対的な領域の大きさを算出する領
    域大きさ解析部を備え、 前記目候補判別部は、この各領域に対して全体映像の大
    きさに相対的な大きさが所定の値より大きい場合に、そ
    の領域を目の候補領域から取り除くことを特徴とする請
    求項2に記載の話し手位置検出装置。
  9. 【請求項9】 前記テクスチャ抽出部は、各領域のテク
    スチャ応答を算出する最小形態論フィルタを備えた形態
    論解析部を有し、 前記目候補判別部は、この各領域のテクスチャ応答を算
    出して得られたテクスチャ特性値が所定の値より小さい
    場合に、その領域を目の候補領域から取り除くことを特
    徴とする請求項2に記載の話し手位置検出装置。
  10. 【請求項10】 前記テクスチャ抽出部は、各領域の水
    平エッジを検出する微分フィルタを備えた水平エッジ解
    析部を有し、 前記目候補判別部は、この各領域の水平エッジを検出し
    て得られた水平エッジ特性値が所定の値より小さい場合
    に、その領域を目の候補領域から取り除くことを特徴と
    する請求項2に記載の話し手位置検出装置。
  11. 【請求項11】 前記モデルテンプレートは、両目を示
    す二つの円を含み、かつ鼻の部分と口の部分とを挟んで
    四角形の底辺が位置する顔領域の四角形として構成され
    ることを特徴とする請求項3に記載の話し手位置検出装
    置。
  12. 【請求項12】 前記確率距離dは、下記式(1)によ
    って求められることを特徴とする請求項3に記載の話し
    手位置検出装置。 【数1】 前記式(1)中、xは入力色差信号Cr、Cbから構成さ
    れたベクトル値であり、μは予め学習された皮膚色の平
    均ベクトルであり、Σは学習値の分散行列を示す。
  13. 【請求項13】 前記エッジ特徴解析部は、 前記探索テンプレートで推定される口と鼻の各々の位置
    に対応するように入力されたRGB映像における第1水
    平エッジ大きさと、目、鼻及び口の位置以外に前記探索
    テンプレートとマッチングする領域に対応する入力され
    たRGB映像における第2水平エッジ大きさとを検出
    し、前記第1水平エッジ大きさと前記第2水平エッジ大
    きさとの比であるエッジ成分比を算出することを特徴と
    する請求項3に記載の話し手位置検出装置。
  14. 【請求項14】 前記エッジ特徴解析部は、目の部分を
    示す円の大きさによって正規化された目の水平エッジ大
    きさを検出し、 前記最適テンプレート決定部は、前記正規化確率距離、
    前記エッジ成分比及び前記正規化された目の水平エッジ
    大きさの各々に所定の重みを与えて得られた加重値を足
    し合せた値が最小となるテンプレートを最適のテンプレ
    ートと決定することを特徴とする請求項13に記載の話
    し手位置検出装置。
  15. 【請求項15】 前記最適テンプレート決定部は、 複数の探索テンプレートが重畳されて形成された領域と
    他の探索テンプレートが重畳されて形成された領域とが
    独立して位置する場合に、この独立して位置する領域ご
    とに別々の最適テンプレートを決定することを特徴とす
    る請求項3に記載の話し手位置検出装置。
  16. 【請求項16】 前記最小外廓四角形の大きさ及び動き
    速度を算出することによって、前記形状メモリ更新部で
    増加または減少させるべき値の大きさを制御する速度及
    び形状解析部をさらに備えることを特徴とする請求項4
    に記載の話し手位置検出装置。
  17. 【請求項17】 下記段階(a)から段階(c)を含む
    ことを特徴とする話し手位置検出方法。 (a)入力されたRGB映像で、相対的に強い灰色の特
    徴を示すピクセルを検出し、この検出されたピクセルが
    形成する領域の中から部分凝集特性を示してテクスチャ
    特徴を有する領域を目の候補領域と決定する段階。 (b)前記目の候補領域の中から抽出した2個の領域の
    位置にマッチングさせて探索テンプレートを形成し、前
    記RGB映像で該探索テンプレートの領域内におけるピ
    クセルの色度値に対する確率距離の和を正規化した値
    と、探索テンプレートによって推定される目、口及び鼻
    の位置における水平エッジの大きさとを用いて形成され
    た探索テンプレート中、最適の探索テンプレートを決定
    する段階。 (c)前記最適の探索テンプレートを利用して最小外廓
    四角形を構成し、形状メモリに記憶された各ピクセルに
    対してカウント値の中から前記最小外廓四角形の領域に
    対応するカウント値については増加させ、前記最小外廓
    四角形以外の領域は対応するカウント値については減少
    させることによって、前記形状メモリから所定の値以上
    のカウント値が位置する領域を話し手位置領域として出
    力する段階。
  18. 【請求項18】 前記段階(a)は、下記段階(a1)
    から段階(a5)を備えることを特徴とする請求項17
    に記載の話し手位置方法方法。 (a1)入力されたRGB映像を解析して相対的に強い
    灰色の特徴を示すピクセルを抽出する段階。 (a2)抽出されたピクセル中、隣接したピクセルと相
    互に連結されたピクセル間同士を結合して領域を形成す
    る段階。 (a3)形成された前記領域の各々に対して部分凝集特
    性を検出する段階。 (a4)形成された前記領域の各々に対してテクスチャ
    特徴を検出する段階。 (a5)形成された前記領域の中で前記部分凝集特性及
    び前記テクスチャ特徴が各々所定の値より大きい領域を
    目の候補領域と判別する段階。
  19. 【請求項19】 前記段階(b)は、下記段階(b1)
    から段階(b4)を備えることを特徴とする請求項17
    に記載の話し手位置検出装置。 (b1)予め備わったモデルテンプレートを目の候補領
    域の中から抽出した2個の領域の位置に対応させて相似
    変換することにより入力されたRGB映像上に探索テン
    プレートを形成する段階。 (b2)RGB映像で探索テンプレートの領域内にける
    ピクセルの色度値に対する確率距離の和を前記探索テン
    プレートの大きさに対して正規化した正規化確率距離を
    算出する段階。 (b3)前記探索テンプレートで推定される目、鼻及び
    口の位置で入力されたRGB映像の水平エッジ特徴値を
    検出する段階。 (b4)前記顔テンプレート形成部により形成された複
    数の探索テンプレート中、前記正規化確率距離及び前記
    水平エッジ特徴値に所定の重みを与えて得られた加重値
    により最適のテンプレートを決定する段階。
  20. 【請求項20】 前記(c)段階は、下記段階(c1)
    から段階(c3)を備えることを特徴とする請求項17
    に記載の話し手位置検出方法。 (c1)前記最適の探索テンプレート内で顔映像が含ま
    れる最小外廓四角形を構成する段階。 (c2)形状メモリに記憶された各ピクセルに対してカ
    ウント値の中から前記最小外廓四角形の領域に対応する
    カウント値については増加させ、前記最小外廓四角形以
    外の領域に対応するカウント値については減少させる段
    階。 (c3)前記形状メモリで所定の値以上のカウント値が
    位置する領域を話し手位置領域として出力する段階。
  21. 【請求項21】 前記(a1)段階は、前記RGB映像
    の各ピクセルに対してカラーを示す色要素の最大値と最
    小値との差が所定の値より小さく、かつ最大値が他の所
    定の値より小さく分布する場合に、相対的に強い灰色性
    向を示すピクセルとして抽出することを特徴とする請求
    項18に記載の話し手位置検出方法。
  22. 【請求項22】 前記(a3)段階は、各領域の環状性
    値を算出し、 前記(a5)段階は、領域の環状性値が所定の値より少
    ない場合に、その領域を目の候補領域から取り除くこと
    を特徴とする請求項18に記載の話し手位置検出方法。
  23. 【請求項23】 前記(a3)段階は、各領域の細長比
    を算出し、 前記(a5)段階は、領域の細長比が所定の値より大き
    いか、または他の所定の値より小さい場合に、その領域
    を目の候補領域から取り除くことを特徴とする請求項1
    8に記載の話し手位置検出方法。
  24. 【請求項24】 前記(a3)段階は、各領域に対して
    全体映像の大きさに相対的な領域の大きさを算出し、 前記(a5)段階は、前記各領域に対して全体映像の大
    きさに相対的な大きさが所定の値より大きい場合に、そ
    の領域を目の候補領域から取り除くことを特徴とする請
    求項18に記載の話し手位置検出方法。
  25. 【請求項25】 前記(a4)段階は、各領域のテクス
    チャ応答を算出し、 前記(a5)段階は、この各領域のテクスチャ応答を算
    出して得られたテクスチャ特性値が所定の値より小さい
    場合に、その領域を目の候補領域から取り除くことを特
    徴とする請求項18に記載の話し手位置検出方法。
  26. 【請求項26】 前記(a4)段階は、各領域の水平エ
    ッジを検出し、 前記(a5)段階は、各領域の水平エッジを検出して得
    られた水平エッジ特性値が所定の値より小さい場合に、
    その領域を目の候補領域から取り除くことを特徴とする
    請求項18に記載の話し手位置検出方法。
  27. 【請求項27】 前記モデルテンプレートは、両目を示
    す二つの円を含み、かつ鼻の部分と口の部分とを挟んで
    四角形の底辺が位置する顔領域の四角形で構成されるこ
    とを特徴とする請求項19に記載の話し手位置検出方
    法。
  28. 【請求項28】 前記確率距離dは、下記式(1)によ
    って求められることを特徴とする請求項19に記載の話
    し手位置検出方法。 【数1】 前記式(1)中、xは入力色差信号Cr、Cbから構成さ
    れたベクトル値であり、μは予め学習された皮膚色の平
    均ベクトルであり、Σは学習値の分散行列を示す。
  29. 【請求項29】 前記(b3)段階は、前記探索テンプ
    レートで推定された口の位置と鼻の位置に対応して入力
    されたRGB映像における第1水平エッジ大きさと、
    目、鼻及び口の位置以外に前記探索テンプレートとマッ
    チングする領域に対応して入力されたRGB映像におけ
    る第2水平エッジ大きさとを検出し、第1水平エッジ大
    きさと第2水平エッジ大きさとの比を正規化して得られ
    るエッジ成分比を算出することを特徴とする請求項19
    に記載の話し手位置検出方法。
  30. 【請求項30】 前記(b3)段階は、目部分を示す円
    の大きさにより正規化された目の水平エッジ大きさを検
    出する段階をさらに備えて、 前記(b4)段階は、前記正規化確率距離、前記エッジ
    成分比及び前記正規化された目の水平エッジ大きさの各
    々に所定の重みを与えて得られた加重値を足し合せた値
    が最小となるテンプレートを最適のテンプレートと決定
    することを特徴とする請求項29に記載の話し手位置検
    出方法。
  31. 【請求項31】 前記(b4)段階は、複数の探索テン
    プレートが重畳されて形成された領域が他の探索テンプ
    レートが重畳されて形成された領域と独立して位置する
    場合に、独立した領域ごとに別々の最適テンプレートを
    決定することを特徴とする請求項19に記載の話し手位
    置検出方法。
  32. 【請求項32】 前記(c1)段階の後に、前記最小外
    廓四角形の大きさ及び動き速度を算出し、前記形状メモ
    リで増加、または減少させるべき値の大きさを決定する
    段階をさらに備えることを特徴とする請求項20に記載
    の話し手位置検出方法。
JP2000248307A 1999-12-07 2000-08-18 話し手位置検出装置及びその方法 Withdrawn JP2001175869A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR99-55577 1999-12-07
KR1019990055577A KR100343223B1 (ko) 1999-12-07 1999-12-07 화자 위치 검출 장치 및 그 방법

Publications (1)

Publication Number Publication Date
JP2001175869A true JP2001175869A (ja) 2001-06-29

Family

ID=19624080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000248307A Withdrawn JP2001175869A (ja) 1999-12-07 2000-08-18 話し手位置検出装置及びその方法

Country Status (4)

Country Link
US (1) US6611613B1 (ja)
JP (1) JP2001175869A (ja)
KR (1) KR100343223B1 (ja)
NL (1) NL1016006C2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002264053A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
JP2002264052A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
JP2002264051A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
JP2002264058A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
WO2002072317A1 (fr) * 2001-03-09 2002-09-19 Japan Science And Technology Corporation Systeme de robot audiovisuel
GB2389498A (en) * 2002-04-30 2003-12-10 Canon Kk Obtaining eye data to animate models of individuals
WO2008018459A1 (fr) * 2006-08-08 2008-02-14 Nikon Corporation Procédé de traitement d'image, appareil de traitement d'image, programme de traitement d'image, et appareil de prise d'image
US7577297B2 (en) 2002-12-16 2009-08-18 Canon Kabushiki Kaisha Pattern identification method, device thereof, and program thereof
WO2010032298A1 (ja) * 2008-09-17 2010-03-25 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US8019128B2 (en) 2007-01-31 2011-09-13 Brother Kogyo Kabushiki Kaisha Face detection device
JP5379126B2 (ja) * 2007-06-01 2013-12-25 フェニックス コンタクト ゲーエムベーハー ウント コムパニー カーゲー 自動化工程部を起動する方法
JP2019125202A (ja) * 2018-01-17 2019-07-25 日本電信電話株式会社 検出装置、検出方法およびプログラム
WO2020027129A1 (ja) * 2018-07-31 2020-02-06 株式会社デンソー 瞳孔推定装置および瞳孔推定方法

Families Citing this family (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3584458B2 (ja) * 1997-10-31 2004-11-04 ソニー株式会社 パターン認識装置およびパターン認識方法
US6961066B2 (en) * 1999-04-13 2005-11-01 Athentech Technologies, Inc. Automatic color adjustment for digital images
KR20000054824A (ko) * 2000-06-27 2000-09-05 이성환 얼굴 영상을 이용한 이상형 검색 시스템 및 그 제어 방법
JP2002042115A (ja) * 2000-07-26 2002-02-08 Fujitsu Ltd 疲労緩和システム、疲労緩和方法及び記録媒体
US6873436B1 (en) * 2000-09-05 2005-03-29 Fuji Xerox Co., Ltd. Image processing device and recording medium
JP3784289B2 (ja) * 2000-09-12 2006-06-07 松下電器産業株式会社 メディア編集方法及びその装置
US6690822B1 (en) * 2000-10-20 2004-02-10 Eastman Kodak Company Method for detecting skin color in a digital image
US6711286B1 (en) * 2000-10-20 2004-03-23 Eastman Kodak Company Method for blond-hair-pixel removal in image skin-color detection
JP4590717B2 (ja) * 2000-11-17 2010-12-01 ソニー株式会社 顔識別装置及び顔識別方法
JP4599730B2 (ja) * 2001-03-02 2010-12-15 株式会社デンソー 画像領域抽出装置
JP2002278537A (ja) * 2001-03-22 2002-09-27 Canon Inc 画像処理装置、および、画像処理方法
US20020172419A1 (en) * 2001-05-15 2002-11-21 Qian Lin Image enhancement using face detection
EP1260935B1 (en) * 2001-05-22 2006-07-12 Matsushita Electric Industrial Co., Ltd. Face detection device, face pose detection device, partial image extraction device, and methods for said devices
US20040243671A9 (en) * 2001-07-26 2004-12-02 Needham Bradford H. Method and system for image sharing based on faces in an image
TWI220505B (en) * 2001-08-13 2004-08-21 Ulead Systems Inc Image enhancement method
JP3903783B2 (ja) * 2001-12-14 2007-04-11 日本電気株式会社 顔メタデータ生成方法および装置、並びに顔類似度算出方法および装置
KR100427181B1 (ko) * 2001-12-19 2004-04-28 한국전자통신연구원 에지/컬러정보를 이용한 얼굴 피부색 영역 추출시스템 및그 방법
US6873714B2 (en) * 2002-02-19 2005-03-29 Delphi Technologies, Inc. Auto calibration and personalization of eye tracking system using larger field of view imager with higher resolution
AU2003265284A1 (en) * 2002-07-19 2004-02-09 Dicut Inc. Face recognition system and method therefor
US6919892B1 (en) * 2002-08-14 2005-07-19 Avaworks, Incorporated Photo realistic talking head creation system and method
US7027054B1 (en) * 2002-08-14 2006-04-11 Avaworks, Incorporated Do-it-yourself photo realistic talking head creation system and method
KR100464040B1 (ko) * 2002-12-16 2005-01-03 엘지전자 주식회사 얼굴 움직임을 이용한 이동 통신 단말기의 제어 방법
CN1282943C (zh) * 2002-12-30 2006-11-01 佳能株式会社 图像处理方法及装置
JP4204336B2 (ja) * 2003-01-30 2009-01-07 富士通株式会社 顔の向き検出装置、顔の向き検出方法及びコンピュータプログラム
US20040228505A1 (en) * 2003-04-14 2004-11-18 Fuji Photo Film Co., Ltd. Image characteristic portion extraction method, computer readable medium, and data collection and processing device
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7218760B2 (en) * 2003-06-30 2007-05-15 Microsoft Corporation Stereo-coupled face shape registration
US7388971B2 (en) * 2003-10-23 2008-06-17 Northrop Grumman Corporation Robust and low cost optical system for sensing stress, emotion and deception in human subjects
US7308119B2 (en) * 2003-11-26 2007-12-11 Canon Kabushiki Kaisha Image retrieval apparatus and method, and image display apparatus and method thereof
KR100543706B1 (ko) * 2003-11-28 2006-01-20 삼성전자주식회사 비젼기반 사람 검출방법 및 장치
JP4847685B2 (ja) * 2004-04-16 2011-12-28 株式会社日立ハイテクノロジーズ パターンサーチ方法
JP4507679B2 (ja) 2004-04-21 2010-07-21 富士ゼロックス株式会社 画像認識装置、画像抽出装置、画像抽出方法及びプログラム
KR100612858B1 (ko) * 2004-08-23 2006-08-14 삼성전자주식회사 로봇을 이용하여 사람을 추적하는 방법 및 장치
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7469074B2 (en) * 2004-11-17 2008-12-23 Lexmark International, Inc. Method for producing a composite image by processing source images to align reference points
KR100703528B1 (ko) * 2004-12-09 2007-04-03 삼성전자주식회사 영상 인식 장치 및 방법
US8235725B1 (en) * 2005-02-20 2012-08-07 Sensory Logic, Inc. Computerized method of assessing consumer reaction to a business stimulus employing facial coding
EP1693782B1 (en) * 2005-02-21 2009-02-11 Mitsubishi Electric Information Technology Centre Europe B.V. Method for facial features detection
JP4654773B2 (ja) * 2005-05-31 2011-03-23 富士フイルム株式会社 情報処理装置、動画像符号化装置、情報処理方法及び情報処理プログラム
AU2006352758A1 (en) 2006-04-10 2008-12-24 Avaworks Incorporated Talking Head Creation System and Method
JP4905931B2 (ja) * 2006-07-04 2012-03-28 富士フイルム株式会社 人体領域抽出方法および装置並びにプログラム
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7689011B2 (en) * 2006-09-26 2010-03-30 Hewlett-Packard Development Company, L.P. Extracting features from face regions and auxiliary identification regions of images for person recognition and other applications
US7916976B1 (en) 2006-10-05 2011-03-29 Kedikian Roland H Facial based image organization and retrieval method
FR2912237A1 (fr) * 2007-02-07 2008-08-08 Thomson Licensing Sas Procede de traitement d'image
CN101393602B (zh) * 2007-09-18 2015-11-25 财团法人车辆研究测试中心 应用于人员监控的眼睛辨识追踪方法
RU2395787C2 (ru) 2008-05-19 2010-07-27 Государственный Научный Центр России "Государственное Научное Учреждение "Центральный Научно-Исследовательский И Опытно-Конструкторский Институт Робототехники И Технической Кибернетики"(Цнии Ртк) Способ обнаружения объектов
JP5132445B2 (ja) * 2008-06-25 2013-01-30 キヤノン株式会社 画像処理装置および画像処理方法並びにコンピュータプログラムおよび記憶媒体
WO2010110181A1 (ja) * 2009-03-27 2010-09-30 日本電気株式会社 パターン照合装置、パターン照合方法及びパターン照合プログラム
JP5029647B2 (ja) * 2009-04-08 2012-09-19 株式会社ニコン 被写体追尾装置、およびカメラ
US8600100B2 (en) * 2009-04-16 2013-12-03 Sensory Logic, Inc. Method of assessing people's self-presentation and actions to evaluate personality type, behavioral tendencies, credibility, motivations and other insights through facial muscle activity and expressions
US8326002B2 (en) * 2009-08-13 2012-12-04 Sensory Logic, Inc. Methods of facial coding scoring for optimally identifying consumers' responses to arrive at effective, incisive, actionable conclusions
US20110066952A1 (en) * 2009-09-17 2011-03-17 Heather Kinch Studio, Llc Digital Field Marking Kit For Bird Identification
KR101611440B1 (ko) * 2009-11-16 2016-04-11 삼성전자주식회사 이미지 처리 방법 및 장치
US8244004B2 (en) * 2010-01-25 2012-08-14 Apple Inc. Image preprocessing
US8254646B2 (en) * 2010-01-25 2012-08-28 Apple Inc. Image preprocessing
JP5675145B2 (ja) * 2010-03-30 2015-02-25 キヤノン株式会社 パターン認識装置及びパターン認識方法
JP2011221812A (ja) * 2010-04-09 2011-11-04 Sony Corp 情報処理装置及び方法、並びにプログラム
CN101853397A (zh) * 2010-04-21 2010-10-06 中国科学院半导体研究所 一种基于人类视觉特性的仿生人脸检测方法
US8326001B2 (en) * 2010-06-29 2012-12-04 Apple Inc. Low threshold face recognition
US8711091B2 (en) * 2011-10-14 2014-04-29 Lenovo (Singapore) Pte. Ltd. Automatic logical position adjustment of multiple screens
EP2805523B1 (en) 2012-01-19 2019-03-27 VID SCALE, Inc. Methods and systems for video delivery supporting adaption to viewing conditions
TWI471808B (zh) * 2012-07-20 2015-02-01 Pixart Imaging Inc 瞳孔偵測裝置
US10783615B2 (en) 2013-03-13 2020-09-22 Kofax, Inc. Content-based object detection, 3D reconstruction, and data extraction from digital images
US11620733B2 (en) 2013-03-13 2023-04-04 Kofax, Inc. Content-based object detection, 3D reconstruction, and data extraction from digital images
US10045050B2 (en) 2014-04-25 2018-08-07 Vid Scale, Inc. Perceptual preprocessing filter for viewing-conditions-aware video coding
EP3270354B1 (en) * 2015-03-13 2022-10-26 Nec Corporation Living body detection device, living body detection method, and recording medium
US9715620B2 (en) * 2015-05-15 2017-07-25 Itseez 3D, Inc. Method to position a parallelepiped bounded scanning volume around a person
US11062176B2 (en) * 2017-11-30 2021-07-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
CN107909055A (zh) * 2017-11-30 2018-04-13 西安科锐盛创新科技有限公司 眼睛状态检测方法
CN109840484B (zh) * 2019-01-23 2023-03-24 张彦龙 一种基于边缘滤波、椭圆评价和瞳孔验证的瞳孔检测方法
CN110211070B (zh) * 2019-06-05 2023-04-14 电子科技大学 一种基于局部极值的低照度彩色图像增强方法
US10671838B1 (en) * 2019-08-19 2020-06-02 Neon Evolution Inc. Methods and systems for image and voice processing
US10949715B1 (en) 2019-08-19 2021-03-16 Neon Evolution Inc. Methods and systems for image and voice processing
US10803646B1 (en) 2019-08-19 2020-10-13 Neon Evolution Inc. Methods and systems for image and voice processing
US10658005B1 (en) 2019-08-19 2020-05-19 Neon Evolution Inc. Methods and systems for image and voice processing
CN111027502B (zh) * 2019-12-17 2023-07-28 Oppo广东移动通信有限公司 眼部图像定位方法、装置、电子设备及计算机存储介质
US11632587B2 (en) 2020-06-24 2023-04-18 The Nielsen Company (Us), Llc Mobile device attention detection
US11308657B1 (en) 2021-08-11 2022-04-19 Neon Evolution Inc. Methods and systems for image processing using a learning engine

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5680481A (en) 1992-05-26 1997-10-21 Ricoh Corporation Facial feature extraction method and apparatus for a neural network acoustic and visual speech recognition system
US5619619A (en) * 1993-03-11 1997-04-08 Kabushiki Kaisha Toshiba Information recognition system and control system using same
JPH0877334A (ja) * 1994-09-09 1996-03-22 Konica Corp 顔画像の特徴点自動抽出方法
US5710833A (en) * 1995-04-20 1998-01-20 Massachusetts Institute Of Technology Detection, recognition and coding of complex objects using probabilistic eigenspace analysis
US6185337B1 (en) * 1996-12-17 2001-02-06 Honda Giken Kogyo Kabushiki Kaisha System and method for image recognition
US5832115A (en) 1997-01-02 1998-11-03 Lucent Technologies Inc. Ternary image templates for improved semantic compression
JPH10307923A (ja) * 1997-05-01 1998-11-17 Mitsubishi Electric Corp 顔部品抽出装置および顔の向き検出装置
US5892837A (en) * 1997-08-29 1999-04-06 Eastman Kodak Company Computer program product for locating objects in an image
JP3582324B2 (ja) * 1997-09-18 2004-10-27 日産自動車株式会社 眼位置検出装置
KR100290386B1 (ko) * 1997-12-09 2001-06-01 이계안 졸음운전경보시스템의눈검출방법
US6148092A (en) * 1998-01-08 2000-11-14 Sharp Laboratories Of America, Inc System for detecting skin-tone regions within an image
US6292575B1 (en) * 1998-07-20 2001-09-18 Lau Technologies Real-time facial recognition and verification system
US6463163B1 (en) * 1999-01-11 2002-10-08 Hewlett-Packard Company System and method for face detection using candidate image region selection

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6967455B2 (en) 2001-03-09 2005-11-22 Japan Science And Technology Agency Robot audiovisual system
JP2002264052A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
JP2002264051A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
JP2002264058A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
WO2002072317A1 (fr) * 2001-03-09 2002-09-19 Japan Science And Technology Corporation Systeme de robot audiovisuel
JP2002264053A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
US7006102B2 (en) 2002-04-30 2006-02-28 Canon Kabushiki Kaisha Method and apparatus for generating models of individuals
GB2389498B (en) * 2002-04-30 2005-06-29 Canon Kk Method and apparatus for generating models of individuals
GB2389498A (en) * 2002-04-30 2003-12-10 Canon Kk Obtaining eye data to animate models of individuals
US7577297B2 (en) 2002-12-16 2009-08-18 Canon Kabushiki Kaisha Pattern identification method, device thereof, and program thereof
WO2008018459A1 (fr) * 2006-08-08 2008-02-14 Nikon Corporation Procédé de traitement d'image, appareil de traitement d'image, programme de traitement d'image, et appareil de prise d'image
US8019128B2 (en) 2007-01-31 2011-09-13 Brother Kogyo Kabushiki Kaisha Face detection device
JP5379126B2 (ja) * 2007-06-01 2013-12-25 フェニックス コンタクト ゲーエムベーハー ウント コムパニー カーゲー 自動化工程部を起動する方法
WO2010032298A1 (ja) * 2008-09-17 2010-03-25 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2019125202A (ja) * 2018-01-17 2019-07-25 日本電信電話株式会社 検出装置、検出方法およびプログラム
WO2020027129A1 (ja) * 2018-07-31 2020-02-06 株式会社デンソー 瞳孔推定装置および瞳孔推定方法

Also Published As

Publication number Publication date
KR20010054674A (ko) 2001-07-02
KR100343223B1 (ko) 2002-07-10
NL1016006C2 (nl) 2004-11-02
NL1016006A1 (nl) 2001-06-08
US6611613B1 (en) 2003-08-26

Similar Documents

Publication Publication Date Title
JP2001175869A (ja) 話し手位置検出装置及びその方法
CN108334848B (zh) 一种基于生成对抗网络的微小人脸识别方法
US10049262B2 (en) Method and system for extracting characteristic of three-dimensional face image
Singh et al. Exam Proctoring Classification Using Eye Gaze Detection
Radman et al. Automated segmentation of iris images acquired in an unconstrained environment using HOG-SVM and GrowCut
Galdámez et al. A brief review of the ear recognition process using deep neural networks
Sirohey et al. Eye detection in a face image using linear and nonlinear filters
US9639748B2 (en) Method for detecting persons using 1D depths and 2D texture
Chu et al. Manga facenet: Face detection in manga based on deep neural network
AU2012207076A1 (en) Automated determination of arteriovenous ratio in images of blood vessels
Yarlagadda et al. A novel method for human age group classification based on Correlation Fractal Dimension of facial edges
Kalsh et al. Sign language recognition system
CN111178252A (zh) 多特征融合的身份识别方法
CN109409298A (zh) 一种基于视频处理的视线追踪方法
CN105893916A (zh) 一种对检测人脸的预处理、特征提取到降维描述的新方法
Cutzu et al. Distinguishing paintings from photographs
JP2008009728A (ja) 表情認識方法及び表情認識装置
Tsai et al. Robust in-plane and out-of-plane face detection algorithm using frontal face detector and symmetry extension
Graf et al. Robust recognition of faces and facial features with a multi-modal system
CN108921006A (zh) 手写签名图像真伪鉴别模型建立方法及真伪鉴别方法
KR101343623B1 (ko) 적응적 피부색 검출 방법, 그리고 이를 이용한 얼굴 검출 방법 및 그 장치
Goyal et al. A Hybrid Approach for Facial Expression Detection using Principal Component Analysis and Feature Extraction
Gurkan et al. Evaluation of human and machine face detection using a novel distinctive human appearance dataset
Campadelli et al. A color based method for face detection
GB2467643A (en) Improved detection of people in real world videos and images.

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070710

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090518