JPH08272948A - 顔面イメージ処理方法及び装置 - Google Patents

顔面イメージ処理方法及び装置

Info

Publication number
JPH08272948A
JPH08272948A JP8076985A JP7698596A JPH08272948A JP H08272948 A JPH08272948 A JP H08272948A JP 8076985 A JP8076985 A JP 8076985A JP 7698596 A JP7698596 A JP 7698596A JP H08272948 A JPH08272948 A JP H08272948A
Authority
JP
Japan
Prior art keywords
image
signal
facial
output
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8076985A
Other languages
English (en)
Inventor
Ansonii Sumisu
スミス・アンソニー
Yutaka Sako
裕 酒匂
Arisuta Sazarando
サザランド・アリスタ
Masahiro Abe
正博 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPH08272948A publication Critical patent/JPH08272948A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 本発明の目的は、より有効な多能出力を得る
ためイメージ信号の付加処理を行なう方法及び装置を提
供することにある。 【解決手段】 カメラ(10)が主題の顔面イメージを
捕捉し、ユニット(30)が特徴抽出データを含むトラ
ッキング信号を発生する。メモリストア(40)に関連
して、ユニット(30)は主題の顔面の特徴をもつ代用
顔面を表す出力信号を発生する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はイメージ処理方法及
び装置に関し、より詳しくは、主題の顔面イメージ信号
を受け、主題の顔面特徴の位置を表示する特徴抽出トラ
ッキング信号を発生し、且つトラッキング信号を処理し
て処理信号出力を得ることができる方法及び装置に関す
る。
【0002】
【従来の技術】1993年11月23日〜25日に日本
の大阪で開催されたコンピュータビジョンに関する19
93年ACCVアジア会議(ACCV '93 Asian Conferenc
e on Computor vision) において頒布された長谷川等の
論文「対話型視覚インターフェースのための無制約環境
におけるリアルタイム顔面イメージ認識("Realtime Fa
cial Image Recognition in Unconstrained Environmen
t for Interactive Visual Interface")」(第763〜
766頁)には、目及び鼻等の特徴をエッジとして抽出
する装置(システム)の概要が開示されている。特徴抽
出トラッキング信号は、顔面特徴の統合のため又はアイ
コンタクトのモニタリングのため処理される。特徴抽出
は特徴エッジのモニタリングを含むため、有効情報の量
は制限されると思われる。上記論文には、いかにして装
置が作動するかを説明する技術的情報は殆どないけれど
も、RGB色情報が計算されることは述べられている。
一般に、RGBカラー情報を使用するとイメージ処理回
路が高度に複雑化する。
【0003】1989年7月18日〜20日にWarickで
開催されたイメージ処理及びその応用に関する第3回国
際会議(Third International Conference on Image Pr
ocessing and its Applications)で頒布され且つIEE
会議刊行物第307号として刊行されたJ.F.S. Yau及び
N.D. Duffyの論文「モデルベース型コーディングアプリ
ケーションにおける運動パラメータ評価を行なう特徴ト
ラッキング法("A Feature Tracking Method for Motio
n Parameter Estimation in a Model-Based Coding App
lication")」(第531〜535頁)には、顔面トラッ
キング法が記載されている。この方法には、イメージシ
ーケンスにより目、鼻及び口をトラッキングすることを
含む第1フェーズがある。これは、第1フレーム内に顔
面特徴を配置し、次に該顔面特徴をブロックサーチ技術
及び符号表技術を用いて連続フレームに亘ってトラッキ
ングすることにより達成される。第1トラッキングフェ
ーズの結果は、時相軸(temporal axis)に沿うイメージ
シーケンスについての顔面特徴ボックスのトラジェクト
リ(軌跡)の記述である。次に、運動パラメータ評価を
含む第2フェーズがあり、これにより、各フレームにつ
いての顔面特徴ボックスの空間分布が解釈され、位置及
び方向の評価が得られる。このようにして、顔面運動の
ダイナミックスが、3次元モデルベース型イメージコー
ディング方式に適用できるようにパラメータ化される。
【0004】出力信号は、特徴抽出情報をもつ顔面イメ
ージを表す。この従来の方法は、ひとたび特徴のトラッ
キングを喪失するとこれを再配置することが困難である
ため、使用に耐えられないと思われる。また、ボックス
の相互関係はフレーム毎に分析されるため、処理は必然
的に複雑になる。
【0005】日本国特許明細書第02141880号(グラフィ
ック通信技術)には、イメージ信号を格子状領域に分割
し、各領域を別々に分析する装置が開示されている。評
価が単一イメージについて行なわれ且つフレームからフ
レームへの処理は行なわれず、装置の目的はイメージの
顔面を識別することにある。
【0006】日本国特許明細書第63142986号(NEC)
には、口運動の検出によりイメージの顔面領域を検出す
る装置が開示されている。この装置の示唆する用途は、
顔面のイメージを得て、該イメージを清潔な衣服の絵の
上に重ねることである。従って、これらの装置では特徴
抽出が制限され、このため殆ど多様性がない。
【0007】一般に、従来技術は、限定された特徴抽
出、及び種々の用途についての非常に限定されたポスト
抽出処理範囲を開示しているといえる。
【0008】
【発明が解決しようとする課題】本発明は、より有効な
多能出力を得るためイメージ信号の付加処理を行なう方
法及び装置を提供することに関する。
【0009】本発明の他の目的は、これらの出力をリア
ルタイムで得ることにある。
【0010】本発明の更に別の目的は、イメージ処理方
法を実施するのに必要なハードウェアの複雑さを抑える
ことにある。
【0011】
【課題を解決するための手段】本発明は、トラッキング
信号発生後の処理ステップ、すなわち、代用顔面を表す
イメージ信号を発生するサブステップと、トラッキング
信号に従ってリアルタイムで前記代用顔面イメージ信号
を修正して、主題の顔面の特徴をもつ代用顔面を表す出
力信号を発生するサブステップとからなる処理ステップ
に特徴を有する。
【0012】この処理方法は高度の多能性を与える。例
えばセキュリティの用途において、見る者を欺くため
に、リアルな代用顔面の信号を発生することができる。
或いは、例えば映画プロダクションのために、動画化さ
れた顔面を創成することができる。
【0013】一実施例では、出力信号は、トラッキング
信号に応答して更新イメージメモリから転送された画素
値を重ね書きすることにより修正された出力イメージメ
モリから伝達され、更新イメージメモリはフレーム間の
画素変更を記憶することが好ましい。
【0014】他の実施例では、更新の転送が、更新イメ
ージメモリのアドレスへのポインタを有するルックアッ
プテーブルに従って制御される。
【0015】他の実施例では、トラッキング信号は、顔
面特徴の位置的特徴を表す顔面特徴信号に変換され、好
ましくは顔面特徴信号がベクトル信号であり、更新イメ
ージメモリの画素変更データは、現在の特徴信号と前の
特徴信号とを比較することにより選択される。理想的に
は、前の特徴信号は専用レジスタに記憶される。
【0016】他の実施例では、更新イメージメモリは、
3つのフィールドすなわち、データ要素の位置の表示、
出力イメージメモリの位置のアドレスをもつ第2フィー
ルド、及び画素のカラー値をもつ第3フィールドのデー
タ要素を記憶する。
【0017】別の実施例では、代用顔面イメージ信号を
発生するステップは、イメージメモリから初期イメージ
を検索するステップと、次に、トラッキング信号に従っ
て前記初期イメージを更新するステップとからなり、好
ましくは、初期イメージが、初期化時に、初期イメージ
メモリから出力イメージメモリに転送される。
【0018】一実施例では、トラッキング信号が、主題
の顔面イメージ信号をH、S、Vフォーマットで発生
し、該H、S、Vフォーマット信号の少なくとも2つの
成分を帯域通過フィルタに通し、フィルタの出力信号を
主題の顔面イメージ画素領域上にマッピングし、フィル
タの出力信号のマッピングに従って、画素領域内に特徴
位置を決定することにより発生される。
【0019】この実施例では、顔面領域を最初に検出
し、次に、検出された顔面領域内で口及び目の検出を行
なう。好ましくは、顔面領域を検出するのに、主題の顔
面イメージ信号のH成分及びS成分のみを処理する。一
実施例では、前記処理が、帯域通過濾過を行い、その後
にフィルタ出力を画素領域上にマッピングすることから
なる。
【0020】他の実施例では、口の検出が、検出した顔
面領域内で主題のイメージ信号のS成分及びV成分を処
理することにより行なわれる。
【0021】好ましくは、目の検出を行なうのに、主題
のイメージ信号のうちのV成分のみを処理する。他の実
施例では、V成分が正規化され且つ目の検出が相関付け
により行なわれる。
【0022】他の態様によれば、本発明は、主題の顔面
イメージ信号を受けるステップと、顔面イメージ信号の
特徴を抽出してトラッキング信号を発生するステップ
と、該トラッキング信号を、主題の顔面の特徴の位置的
特徴を表す顔面特徴信号に変形するステップと、初期代
用イメージを出力イメージメモリに書き込むステップ
と、更新イメージメモリから転送される画素値を重ね書
きすることにより出力イメージメモリを修正するステッ
プとを有し、前記転送が顔面特徴信号に応答して制御さ
れることを特徴とするイメージ処理方法を提供する。
【0023】更に別の態様によれば、本発明は、主題の
顔面イメージ信号を受ける手段と、特徴抽出トラッキン
グ信号を発生する手段と、前記トラッキング信号を処理
して処理出力信号を作る手段とを有するイメージ処理装
置において、前記トラッキング信号を処理する手段が、
代用顔面を表すイメージ信号を発生する手段と、トラッ
キング信号に従ってリアルタイムで代用顔面イメージ信
号を修正して、主題の顔面の特徴をもつ代用顔面を表す
出力信号を発生する手段とからなることを特徴とするイ
メージ処理装置を提供する。
【0024】一実施例では、前記処理手段は、出力イメ
ージメモリと、更新イメージメモリと、トラッキング信
号に応答して更新イメージメモリからの画素値を転送す
ることにより前記出力イメージメモリを修正する手段と
からなる。
【0025】理想的には、更新イメージメモリが、フレ
ーム間の画素変更を記憶する。
【0026】他の実施例では、前記処理手段が、トラッ
キング信号を、顔面特徴の位置的特徴を表す顔面特徴信
号に変換する手段からなる。
【0027】別の実施例では、顔面特徴信号はベクトル
信号である。
【0028】更に別の実施例では、前記処理手段が、特
徴データをモニタリングすることにより装置の作動中に
学習し且つ次に特徴の確認の補助をすべくフィードバッ
クする神経回路網デバイスを備えている。
【0029】他の態様では、本発明は、主題の顔面イメ
ージ信号を受ける手段と、顔面イメージ信号の特徴を抽
出してトラッキング信号を発生する手段とを有し、処理
手段が、該トラッキング信号を、主題の顔面の特徴の位
置的特徴を表す顔面特徴信号に変形する手段と、出力イ
メージメモリと、初期代用イメージを出力イメージメモ
リに書き込む手段と、更新イメージメモリと、顔面特徴
信号に応答して、画素値を、更新イメージメモリから出
力イメージメモリに転送することにより出力イメージメ
モリを修正する手段とからなることを特徴とするイメー
ジ処理装置を提供する。
【0030】
【発明の実施の形態】本発明は、添付図面に関連して述
べる幾つかの実施例についての以下の説明からより明瞭
に理解されよう。
【0031】図面特に図1を参照すると、本発明のイメ
ージ処理装置の全体が参照番号1で示されている。装置
1は、カメラ10と、出力デバイスすなわちビデオモニ
タ20とを有している。これらの両デバイス間に顔面変
更ユニット30があり、該顔面変更ユニット30の入力
はカメラ10に、出力はビデオマルチプレクサ60
(a)に接続されている。また、顔面変更ユニット30
はビデオマルチプレクサ60(b)に出力信号を供給す
るように接続されており、ビデオマルチプレクサ60
(b)の出力はビデオモニタ20に接続されている。従
って、顔面変更ユニット30の出力は、ビデオマルチプ
レクサ60(a)を介してビデオホンインターフェース
70に入力されるか、直接モニタ20に入力できる。装
置1はまた、顔面変更ユニット30に接続されたメモリ
ストア40を有している。メモリストア40は、ビデオ
ホンインターフェース70及び制御論理ユニット50を
介して、又はビデオマルチプレクサ60(b)から入力
を受ける。また、カメラ10は、顔面変更ユニット30
をバイパスしてビデオマルチプレクサ60(a)に接続
されている。
【0032】簡単に説明すると、装置1の機能は、顔面
イメージをリアルタイムで捕捉して、出力を直接モニタ
20に供給するか、主題と同じ顔面表情をもつ代用顔面
を表すイメージのビデオホンインターフェース70を介
して遠隔装置に供給する。このようにして、主題すなわ
ちユーザは、彼(又は彼女)自身のイメージ又は代用イ
メージを出力するか否かを選択できる。代用顔面が選択
されるとき、当該イメージは、これが好ましいイメージ
であれば、見る者が主題のイメージであると信じる「リ
アル」顔面のイメージである。従って、本発明は用途の
範囲に高度の多能性を与え、例えば、主題の同一性(ア
イデンティティ)が秘密に保たれなくてはならないセキ
ュリティ関連の用途にも使用できる。また、本発明は、
所望ならば、動画化した顔面を出力することもできる。
【0033】装置1の構成及び作動について、より詳細
に説明する。図2に示すように、顔面変更ユニット30
は顔面構成部分検出ユニット31を有し、該ユニット3
1は、トラッキング信号、メモリインターフェース32
及びビデオ出力回路33を発生する。この図面から明ら
かなように、メモリストア40とのインターフェース
は、顔面変更ユニット30の作動の切り離せない部分で
ある。
【0034】顔面構成部分検出ユニット31は、カメラ
10からの入力ビデオ信号を取り入れ、イメージを捕捉
し、カラー領域モニタリングにより、口、目、瞳孔、眉
等の顔面構成部分を検出し、且つこれらの位置をイメー
ジ内に決定する。顔面構成部分検出ユニット31の出力
は、顔面構成部分の1組の位置的パラメータをもつ特徴
抽出トラッキング信号である。これらのパラメータとし
て、下記のものがある。
【0035】 Mlx、Mly、Mhx、Mhy: 口ボックスを特定 Slx、Sly、Shx、Shy: 顔面ボックスを特
定 LEx、LEy : 左目位置を特定 REx、REy : 右目位置を特定 RPx、RPy : 右瞳孔位置を特定 RBx、RBy : 右眉位置を特定 LPx、LPy : 左瞳孔位置を特定 LBx、LBy : 左眉位置を特定 これらのパラメータが発生される方法を以下により詳細
に説明する。
【0036】メモリインターフェース32は位置パラメ
ータを使用して1組の顔面特徴を発生し、これにより顔
面特徴の位置及び方向が表現される。これらの顔面特徴
として下記のものがある。
【0037】X方向の口の開き Y方向の口の開き X方向の顔面回転 Y方向の顔面回転 Z方向の顔面回転 水平位置での目の方向 垂直位置での目の方向 眉の垂直位置 メモリインターフェース32の構成が図3及び図4に示
されており、ここには、種々の平均値回路、減算器回
路、減算/除算回路及び乗算回路が使用される。受け入
れた顔面構成部分の位置パラメータを顔面特徴に変換す
るメモリインターフェース32の種々の部品により次の
機能が遂行される。
【0038】 初期化パラメータ 唇セパレーション・y = Mly−Mhy 唇セパレーション・x = Mlx−Mhx 平均目・x = (LEx+REx)/2 平均目・y = (LEy+REy)/2 平均瞳孔・x = (LPx+RPx)/2 平均瞳孔・y = (LPy+RPy)/2 オフセット目・x = 平均目・x−平均瞳孔・x オフセット目・y = 平均目・y−平均瞳孔・y オフセット左眉x = LBy−平均目・y オフセット右眉y = RBy−平均目・y オンラインパラメータ 平均目・x = (LEx+REx)/2 平均目・y = (LEy+REy)/2 平均瞳孔・x = (LPx+RPx)/2 平均瞳孔・y = (LPy+RPy)/2 顔面中心・x = (Slx+Shx)/2 顔面中心・y = (Sly+Shy)/2 口中心・x = (Mlx+Mhx)/2 口中心・y = (Mly+Mhy)/2 口関係・x = (顔面中心・x−口中心・x)/ボックス幅 口関係・y = (口中心・y−顔面中心・y)/ボックス高さ 目中心・x = (顔面中心・x−平均目・x)/ボックス幅 目中心・y = (顔面中心・y−平均目・y)/ボックス高さ 回転・z = (平均目・x−口中心・x)/10 回転・y = 定数1* 口関係・y 回転・x = 定数2* 口関係・x 左目・x = 右目・x=(平均目・x−平均瞳孔・x−オフセ ット目・x)* 10/4 左目・y = 右目・y=(平均瞳孔・y−オフセット目・y) * 10/12 左眉 = 左眉・y−平均目・y−オフセット左眉 右眉 = 右眉・y−平均目・y−オフセット右眉 口開度・x =(Mlx−Mhx−唇分離・x)/ボックス幅 口開度・y =(Mly−Mhy−唇分離・y)/ボックス高さ オンラインパラメータを用いて計算される最後の9つの
変数(下線項目)は顔面ベクトルを構成する。顔面ベク
トルは、メモリインターフェース32からメモリストア
40に伝達され、ここで、顔面ベクトルは代用顔面の出
力イメージを構成するのに使用される。代用顔面は、今
度はメモリインターフェース32により受けられ且つビ
デオ出力回路33により出力される。
【0039】図5に示すように、ビデオ出力回路33
は、デジタルイメージデータを、ビデオモニタへの出力
のためのアナログビデオ信号に変換する。これは、変換
器3301を用いて行なわれる。この実施例では出力は
RGBであるが、任意の所望のビデオ出力フォーマット
を設けることができることは理解されよう。
【0040】メモリストア40は、メモリインターフェ
ース32から顔面ベクトル信号を受け且つ主題の顔面特
徴をもつ代用顔面を表す出力イメージ信号を発生するも
のであり、装置1の極めて重要な部品である。図6に示
すように、メモリストア40は、出力イメージメモリ4
02と、初期イメージメモリ407と、更新すなわち画
素変更イメージメモリ406とを有する。更に、メモリ
ストア40は、ルックアップテーブル(LUT)404
とレジスタ410とを有し、これらの両者は、顔面ベク
トル信号を受けるためメモリインターフェース32に接
続されている。ルックアップテーブル404はカウンタ
405に接続され、該カウンタは更新イメージメモリ4
06に接続されている。更新イメージメモリ406は、
出力イメージメモリ402のアドレス信号を発生するマ
ルチプレクサ401に接続されている。更新イメージメ
モリ406はまた、出力イメージメモリ402にデータ
信号を供給するマルチプレクサ408に接続されてい
る。アドレス発生器409もマルチプレクサ401に接
続されている。更にメモリストア40は、イメージデー
タの伝達及び受信を行なうマルチプレクサ403を有し
ている。
【0041】作動に際し、異なるリアル代用顔面及び/
又は動画化された代用顔面の種々の初期イメージが初期
イメージメモリ407に記憶される。更新イメージメモ
リ406は、2つのフレーム間の画素変更に関するデー
タを記憶する。作動の本質上、イメージはメモリストア
40からランダムに選択されないこと、及び任意の個々
のイメージの後に少数組のイメージの1つが続くことが
考えられる。従って、1つの初期イメージから出発し
て、フレームからフレームへとどの画素が変更されたか
を簡単に特定することにより他の全てのイメージを構成
できる。このアプローチは、可能性のあるあらゆるイメ
ージを単に記憶するよりもメモリ条件が非常に少ないと
いう大きな長所を有する。
【0042】作動に際し、アドレス発生器は、初期イメ
ージを出力イメージメモリ402にロードすることによ
り、出力イメージメモリ402を初期イメージで初期化
する。マルチプレクサ401、408は、制御信号Cn
tr13、Cntr14及びCntr15を用いて、初
期イメージを、初期イメージメモリ407から出力イメ
ージメモリ402にロードする。最初に、アドレス発生
器409には初期イメージメモリ407のスタート位置
がロードされ、全てのデータが初期イメージメモリから
出力イメージメモリ402に転送されるまで、アドレス
発生器409は、CLKを用いて全ての画素アドレスを
発生する。初期化後、更新イメージメモリ406によ
り、後の全てのイメージデータが与えられる。更新イメ
ージメモリ406に記憶されたデータは、データ要素
(各データ要素は3つのフィールドを有する)を有して
いる。最初のフィールドは単一ビットの大きさであり、
且つ現在のデータがイメージを更新するための連続画素
のうちの最後の画素であるか否かを表示するのに使用さ
れる。256×256のイメージが使用される場合に
は、第2フィールドは16ビットの大きさの画素アドレ
スである。第3フィールドは24ビットの大きさであ
り、画素のRGBカラー値を表す。
【0043】レジスタ410には時間T-1についての顔
面ベクトルが記憶される。現在の顔面ベクトル及びT-1
顔面ベクトルは、2つの顔面ベクトル間の特定画素変更
が記憶される更新イメージメモリ406の位置へのポイ
ンタを含むルックアップテーブル404のアドレスを形
成する。更新すべき画素のスタートへのポインタは、最
初に、更新イメージメモリ406へのアドレスとして使
用されるカウンタ405にロードされる。
【0044】ルックアップテーブル404が更新イメー
ジメモリ406の位置への表示をするとき、この位置で
のデータ要素が検索され、且つ第2フィールドが、制御
信号Cntr15により制御されるマルチプレクサ40
1を介して出力イメージメモリ402のアドレスバスに
送られる。同様に、第3フィールドのデータが、制御信
号Cntr13により制御されるマルチプレクサ408
を介して出力イメージメモリ402のデータバスに送ら
れる。制御信号Cntr11を使用して、この状態を書
き込むように出力イメージメモリ402を設定する。次
にカウンタ405が増分され、「1」に設定された第1
フィールドのビットに出合うまで、このプロセスが反復
される。このビットは、出力イメージメモリ402の全
ての画素が更新されたことを表示すべく、装置1の制御
論理ユニット50に制御信号を供給する。この時点で、
アドレス発生器409が出力イメージメモリ402の第
1画素に初期化され、次に、このイメージがイメージメ
モリ404からメモリインターフェース32に読み出さ
れるように増分される。制御信号Cntr11は読取り
サイクルを表示するのに使用され、マルチプレクサ40
1、403は、制御信号Cntr12、Cntr15を
用いて、データがメモリインターフェース32に出力さ
れるように設定される。
【0045】メモリストア40が作動するこの方法、よ
り詳しくは、画素変更のみが使用されるという事実か
ら、非常に小さなメモリでよいことが理解されよう。ま
た、この特徴により高速処理ができ且つリアルタイムで
作動できる。
【0046】ここで図7を参照すると、顔面構成部分検
出ユニット31がより詳細に示されている。上記のよう
に、該ユニット31の機能は、顔面ベクトルを発生させ
るべくメモリインターフェース32により使用される顔
面構成部分位置パラメータの値をもつ特徴抽出トラッキ
ング信号を供給することである。顔面構成部分検出ユニ
ット31は、異なる5つの特徴抽出トラッキング信号、
すなわちA、B、C、D、Eを供給する。
【0047】A出力は口の座標を表し且つ次のデバイス
により供給される。
【0048】帯域通過デバイス3102 クロップ画像(crop picture)デバイス3
110 平滑化デバイス3111 XY射影デバイス3112 最大値見出しデバイス3113 境界ボックスサーチデバイス3114 出力Bは顔面ボックスを特定し且つ次のデバイスにより
供給される。
【0049】帯域通過デバイス3103 XY射影デバイス3107 最大値見出しデバイス3108 境界ボックスサーチデバイス3109 クロップ画像デバイス3104、最大値/最小値見出し
デバイス3105及び濃度階調正規化デバイス3106
は、残りの出力C、D及びEの前処理正規化を行なう。
出力Cは、左右の目の位置を表し且つアイテンプレート
と最小値検出デバイス3116とを相関付けるデバイス
3115により供給される。
【0050】出力Dは右側の瞳孔及び眉を特定し且つ右
目検出デバイス3117により供給される。最後に、出
力Eは、左側の瞳孔及び眉の位置を表し且つ左目検出デ
バイス3118により発生される。
【0051】変換器3101は、入力としてビデオ信号
(RGB、合成等)を取り入れ且つHSVカラー領域内
に表される色のデジタル値を出力する。この出力は帯域
通過デバイス3102、3103及び前処理正規化デバ
イス3104〜3106に導かれる。帯域通過デバイス
3102は口色を検出し且つ帯域通過デバイス3103
は肌色を検出する。肌色検出信号は顔面位置検出デバイ
ス3107、3108及び3109に導かれ、該デバイ
スはイメージ中に顔面位置を与えるボックスを作る。顔
面ボックス座標は口位置検出デバイス3110〜311
4に導かれ、該デバイスは、顔面ボックス領域をサーチ
してイメージ中に口の位置を決定する。もちろん、口位
置が顔面ボックス内に見出されるように考えることもで
きる。
【0052】前処理正規化デバイス3104〜3106
は、このイメージを目位置検出デバイス3115、31
16及び瞳孔及び眉位置検出デバイス3117、311
8に出力する前に、顔面ボックス中の画素を正規化す
る。この目的は、目位置検出の相関付けの結果の精度を
高めることにある。目位置検出デバイス3115、31
16は、正規化されたイメージの顔面領域と予め記憶さ
れているアイテンプレートとを相関付けて目の位置を決
定し、且つイメージ中に目位置を特定する2つのX、Y
座標を作る。これらの目位置座標は瞳孔及び眉位置検出
デバイス3117、3118に導かれ、該デバイスはこ
れらの座標を使用し、各目についての瞳孔及び眉位置を
得るため後処理される各目の回りの領域を得る。ユニッ
ト31の作動の重要な特徴は、帯域通過デバイスが、H
Vデータを濾過して、肌及び顔面のカラーテンプレート
に存在することが証明されているデータのみを通過する
ように作動することである。
【0053】ここで図8〜図23の種々の図面を参照し
て、デバイス3101〜3118をより詳細に説明す
る。
【0054】図8に示すように、カラー変換デバイス3
101は、各R、G及びB成分についてのAD変換器
(ADC)と、ルックアップテーブル(LUT)とを有
しており、これらは全てRGB/HSVルックアップテ
ーブルに接続されている。この変換には、当業者に知ら
れた幾つかの異なる実施方法がある。
【0055】入力段は、S及びV成分が口検出フィルタ
3102に向けられ且つH及びS成分が顔面検出フィル
タ3103に向けられる構成を有する。かくして、これ
らの一連の各回路は2つの成分のみを処理すればよく、
従って非常に簡単である。本質的に波長データであるH
(色相)とS(彩度)との組合せは肌の検出に特に有効
であることが判明している。また、S及びV(明度)成
分は、既に識別された顔面(肌)領域内の口領域を判定
するのに特に有効である。
【0056】帯域通過デバイス3102の目的は、S、
Vデータを濾過し且つ口のカラーテンプレートに存在す
ることが証明されているデータのみを通過させることで
ある。デバイス3102は図9に回路形態で示されてお
り且つルックアップテーブルとして実施される。これ
は、オフラインプログラミングされるSRAMで構成で
きるし、或いはプロダクションプログラミングされるP
ROMで構成することもできる。デバイス3102は、
顔面領域の検出を行なうフィルタ3103と同じ構造を
有している。
【0057】一連の口及び顔面処理回路の各々につい
て、H、S及びV成分のうちの2つの成分を受け入れる
上記特徴は重要である。これにより、一般に従来のR、
G、B装置に必要とされている非常に大きいメモリを用
いる必要性及び背景射影する必要性をなくすことができ
る。その代わり、帯域通過フィルタ3102、3103
が使用される。2つの成分(口領域についてはS、V及
び顔面についてはHS)がルックアップテーブルのアド
レスを形成し、ルックアップテーブルは各アドレスの値
を記憶する。テーブルの値は、口及び顔面の基準パター
ンによりオフラインで発生される。値は、その最も簡単
な態様で、特定S、V又はH、Sの組合せについてYE
S又はNO表示を与えるビットレベルにすることができ
る。XY射影デバイス3112、3107は、検索され
たテーブル値を画素領域上にマッピングし且つXY射影
を発生することにより、次の基本的処理ステップを遂行
する。ひとたびこれがなされると、次の最大限度見出し
ステップ及び境界ボックスサーチステップを容易に実施
できる。
【0058】簡単化するため、画素領域についての帯域
通過濾過及びXY射影は基本的ステップであり、簡単な
回路により実施できる。また、下流側ステップは非常に
容易に実施できる。
【0059】クロップ画像デバイス3110の目的は、
該デバイスがデバイス3109から顔面領域情報を受け
るときに、イメージ処理の仕事を顔面位置検出セクショ
ンにより決定される領域のみに限定することにある。こ
のようにするには2つの理由がある。第1の理由は、僅
かのイメージが処理されるに過ぎないため、所与の時間
内に処理できるフレーム数を増大できるからである。第
2の理由は、画像の他の部分の明るい光源のような外部
の影響及びランダムなバックグラウンドノイズによる影
響を受けることなく、正規化のような局部的作動を顔面
領域のみに行い得るからである。これにより、アイトラ
ッキングのような仕事の精度を高める。
【0060】図11に示す平滑化デバイス3111の目
的は、デバイス3112〜3114によるイメージ処理
を進行させるときの口位置検出を補助することにある。
顔面位置検出段(3107〜3109)及び口位置検出
段(3110〜3114)は、幾つかの共通仕事すなわ
ちXY射影、最大値見出し及び境界ボックスサーチを共
有する。しかしながら、口位置検出段は、顔面位置検出
段には示されていない2つの特別な仕事、すなわちクロ
ップ画像及び平滑化を有している。クロップ画像デバイ
ス3110の目的は前述の通りである。顔面位置検出段
に平滑化が存在しない理由は、顔面について行なわれる
仕事は顔面構成部分の識別及び位置決めにあるからであ
る。これは、顔面が入力イメージにおいて大きな領域を
占めることを意味する。あらゆるイメージ処理の仕事に
おいて、例えばアナログデータ/デジタルデータの変換
の不正確さ、外部光源からのストロボ効果、ガラスから
の偏光等の種々の要因による一定レベルのバックグラウ
ンドノイズがある。これらは、処理されるイメージにノ
イズを付加する。顔面領域の検出において、肌は入力イ
メージの大きな割合を占めるので、肌に属するものと識
別されるかなりの数の画素がある。従って、バックグラ
ウンドノイズは、顔面位置検出から得られる結果に殆ど
又は全く影響を与えない。しかしながら、口は非常に小
さな領域を占めるため、口位置検出段から正しい結果を
得ることに関しバックグラウンドノイズは非常に大きい
影響を与えるであろう。口画素が肌画素と間違えられる
(及びこの逆の)蓋然性が高く且つ口領域の検出に影響
を与える。しかしながら、顔面位置検出の場合には、口
領域が顔面領域内にあるので、口画素が肌画素と間違え
られる事実が、実際には顔面領域の位置決めに役立つ。
しかしながら、口位置の検出には逆のことがいえる。こ
の問題の解決を補助するため、イメージは、イメージ処
理ステップを更に遂行する前に平滑化される。バックグ
ラウンドノイズは事実上ランダムでありイメージ上にラ
ンダムに生じると考えられるのに対し、口画素の認識は
単一領域に高度に集中される。領域全体に亘って平均化
することにより、認識が高度に集中される領域を増強す
ると同時に、バックグラウンドノイズの効果が低減され
る。デバイス3111より後の原理は、8×8領域内の
全ての画素を平均化し且つこの結果を中央の画素位置に
定めることである。この回路の作動及びその基礎となる
原理は当業者に理解されよう。この結果得られるイメー
ジは入力イメージを平滑化したものである。
【0061】平滑化されたイメージには、デバイス31
12〜3114、すなわちXY射影、最大値見出し及び
境界ボックスサーチにより更にイメージ処理の仕事が行
なわれる。これらのデバイスは、顔面検出段のデバイス
3107〜3109と同様に機能し、以下に詳細に説明
する。デバイス3114からの出力は、入力イメージ内
の口が位置する領域を形成するボックスを表示する信号
である。
【0062】図12に示すデバイス3107の目的は、
デバイス3103から出力されたイメージにXY射影し
て、画素領域上にフィルタ出力を有効にマッピングする
ことにある。デバイス3107は同じ態様で作動する2
つのセクションに分割でき、左側のセクションはX射影
データを評価し、右側のセクションはY射影データを評
価する。この回路は、X射影データの記憶に使用される
256×16ビットSRAMと、SRAMのデータバス
にアービトレートアクセスするマルチプレクサと、SR
AMのアドレスバスにアービトレートアクセスするマル
チプレクサと、射影データに加算を遂行する加算器と、
中間データ記憶として機能するレジスタとを有してい
る。この回路は次のように機能する。SRAMは、全て
のビットをゼロに設定すること、すなわち、あらゆるX
Y射影の開始時にクリアすることが考えられるけれど
も、この機能は図示されていない。また、最大イメージ
サイズは256×256画素であるが、当業者には、こ
の回路をより大きなイメージの処理に適合させることが
可能である。画素データはI/P画素データを介して回
路に入力され、各画素のアドレスは行加算器及び列加算
器を介して入力される。行加算器信号がSRAMに影響
を与え且つSRAMから加算器にデータを読み込むこと
ができるように両方向バッファを構成すべくセレクトラ
インを設定することが考えられる。行加算器は、現在の
X射影値をSRAMから加算器回路に読み込む。加算器
は、SRAMからのデータと一緒にI/P画素データの
データを加算し且つこの結果をレジスタに入れる。次
に、両方向バッファを、レジスタからのデータをSRA
Mに書き込み、新しい結果を記憶するように構成する。
次に、次の画素値が回路に入力され、新しい行加算器信
号を使用して適当なX記憶位置をセレクトする。このプ
ロセスは、イメージ中の全ての画素が処理されるまで反
復される。セレクトスイッチを切り換えることにより、
外部行加算器がSRAMに影響を与えることができるよ
うにすれば、最終X射影値を読み取ることができる。Y
射影の作動はX射影と平行して行なわれる。
【0063】図13に示すデバイス3108の目的は、
X射影データ及びY射影データの最大値を見出して、顔
面領域内にあるX位置及びY位置を見出すことができる
ようにすることにある。デバイス3108は、互いに平
行して処理し且つ同じ態様で作動する2つのセクション
に分割できる。この回路の基本的原理は、CMP(比較
器)を用いて、各最終射影値とレジスタAに記憶された
最大値とを比較することである。射影データ値の方がレ
ジスタAの値より大きい場合には、レジスタAに新しい
値が記憶されると同時に、レジスタBには列アドレスが
記憶される。XY射影デバイス3107からのデータは
連続的に読み取られ且つレジスタA及びCMPに影響を
与え、一方、射影値のアドレスがレジスタBに影響を与
える。レジスタAの出力もCMPに出力され、該CMP
でレジスタAの内容と射影Xの値とが比較される。この
結果、射影値の方がレジスタAの内容より大きい場合に
は、画像CLKに関連する信号が発生され、該信号はレ
ジスタAに新しいデータ値をロードすると同時に画素の
アドレスをレジスタBにロードする。このプロセスは、
X(Y)射影値について反復される。レジスタA、Bに
残っている値は、最大射影値及びこれが生じる位置を示
す。
【0064】図14に示すデバイス3109の目的は、
肌領域を包囲する境界ボックスの限界を決定することに
ある。この領域は、次のイメージ処理仕事に使用され
る。この回路は2つの同じセクションに分割でき、左側
は境界を見出すセクション、右側はY境界を見出すセク
ションである。この回路はデバイス3108からの情
報、すなわち最大Xの位置、最大X、最大Y位置及び最
大Yを使用する。回路を作動すると、最大Xを用いたX
データの閾値XTH及び最大Yを用いたYデータの閾値
YTHが得られる。これは、最大X(Y)に、1より小
さい定数を掛けることにより達成される。この定数(乗
数)はXデータとYデータとで異ならせることができ
る。次の段は下方境界を決定することにある。最大X位
置でスタートし且つその位置を反復して減分(decr
ementing)すると同時に、この新しい位置での
X射影データが閾値XTHより小さいか否かをチェック
することにより、X射影データが閾値を下回る点を見出
すことができる。これが、Xの下方境界である。最大X
位置でスタートし且つその位置を反復して増分(inc
rementing)すると同時に、この新しい位置で
のX射影データが閾値XTHより小さいか否かをチェッ
クすることにより、X射影データが閾値を下回る点を見
出すことができる。これが、Xの上方境界である。Y境
界の計算も同様な態様で行なわれる。回路の作動は次の
通りである。MULTにおいて、デバイス3108から
の最大Xデータに定数を掛け、その計算結果(XTH)
がCMPに導かれ、ここで、I/P射影Xデータからの
全てのデータがXTHと比較される。最大Xの位置の値
(これもデバイス3108から得られる)は、デバイス
50から生じるロード信号を用いてカウンタにロードさ
れる。また、デバイス50は、RSAフリップフロップ
及びRSBフリップフロップをリセット状態にリセット
する制御信号RST1及びRST2を供給する。これ
は、デバイス3107での最終X射影値を探索するアド
レスを与える。デバイス3107のマルチプレクサは、
外部行加算器からのアドレスからのアドレスがSRAM
に影響を与えるようにセットされる。このようにして、
X射影データの値がSRAMからデバイス3109に読
み取ることができる。デバイス3107からのデータは
I/P射影Xデータに到達し、ここでXTHの値と比較
される。I/P射影XデータがXTHより小さいことを
比較器(CMP)の結果が示す場合には、RSフリップ
フロップRSA、RSBを設定位置に入れる信号が発生
される。両フリップフロップRSAが設定状態に置かれ
る点を閾値が超えたことを比較器(CMP)が示すま
で、カウンタのアドレスが減分される。フリップフロッ
プからの信号は、レジスタAに、Xの下方境界を表示す
る現在のカウンタ値をロードするのに使用される。次
に、カウンタには、再びロード信号を使用して最大Xの
位置がロードされる。このとき、カウンタを減分する代
わりに、カウンタは、データが再び閾値XTHを超える
まで増分される。このとき、RSBフリップフロップは
セット状態に置かれ、RSBフリップフロップの出力は
レジスタBにカウンタの値(この値は、このときXの上
方境界を表示する)をロードする。Y射影の値について
の作動も同じである。このプロセスの終時に、デバイス
50からの制御信号RST1、RST2を用いてフリッ
プフロップRSA、RSBがリセットされ、次のフレー
ムでもこのプロセスが反復される。
【0065】この段では、顔面領域の境界ボックスが発
見され予備チェックを行なうことができる。ボックス領
域が極めて小さく、20画素より小さい程度であること
が判明した場合には、イメージ内に顔面はなく、口及び
目を見出すイメージ処理の仕事の続行を中止できる。
【0066】前処理正規化セクションは、デバイス31
04〜3106を使用している。前処理正規化セクショ
ンの目的は、相関付けを行なう前にイメージを正規化し
て、結果の精度を高めることにある。このセクションは
カラー情報に関してイメージ処理を行なわなず、濃度階
調イメージに関してイメージ処理を行なう。HSVビデ
オ規格のビデオ信号は、入力イメージの濃度階調表示で
ある。
【0067】図10に示すクロップデバイス3104の
目的は、イメージ処理仕事を、イメージ全体ではなく顔
面位置検出セクションにより決定される領域のみに制限
することにある。このようにする目的は前述した通りで
ある。
【0068】最大値/最小値検出デバイス3105が図
15の回路形態に示されている。このデバイスの目的
は、イメージ内の最大及び最小画素値を見出すことにあ
る。この情報はイメージ処理段で使用すべきものであ
る。デバイス3105は、2つのレジスタ(レジスタA
及びレジスタB)と、2つの比較器(CMP A及びC
MP B)とを有する。レジスタA及びCMP Aは最
大値を見出すのに使用されるのに対し、レジスタB及び
CMP Bは最小値を見出すのに使用される。入力イメ
ージからの画素データは、画素データ入力を介して連続
的に入力される。データは両レジスタ及び両比較器に影
響を与える。レジスタAは最大値についての一時的記憶
領域として使用され、これに対しレジスタBは最小値に
ついての一時的記憶領域として使用される。各フレーム
の開始時に、制御信号(CLR)を介してユニット50
により、レジスタAは0に且つレジスタBは255にセ
ットされなくてはならない。レジスタAの出力はCMP
Aに入力され、ここで入力データと比較される。入力
データがレジスタAに記憶されたデータより大きいこと
を比較器(CMP)Aが示す場合には、比較器は、入力
画素データをレジスタAにロードするロード信号を発生
する。比較器(CMP)Bからの結果がレジスタBに記
憶されたデータより小さいことを示す場合には、最小値
は、ロード信号を発生する比較器に同じ原理を使用す
る。入力イメージの全ての画素が回路を通して処理され
た後は、MAX VALUEで最大値が得られ且つMI
N VALUEで最小値が得られる。次の入力イメージ
が処理される前に、レジスタはそれぞれの値に初期化さ
れなくてはならない。
【0069】図16には、濃度階調正規化デバイス31
06が回路の形態で示されている。この段の目的は、入
力イメージが全範囲の可能値すなわち0〜255を使用
するように入力イメージを変換する。デバイス3105
はイメージを処理し且つ最大値を見出した。8ビットの
濃度階調表示では、可能最小値は0であり、可能最大値
は255である。しかしながら、デバイス3105から
の結果は、フレームからフレームへと見出される最大値
及び最小値が可能最大値及び最小値とはならないことを
示すであろう。従って、入力イメージが全範囲の値に適
合するように入力イメージを変化させる方法を考えるの
が有効である。最も簡単な方法は、図16に示すような
ルックアップテーブル31068であり、8ビット入力
及び8ビット出力に対して256×8ビットメモリを必
要とする。最大値及び最小値はフレーム毎に変化するの
で、このルックアップテーブルもフレーム毎にプログラ
ミングしなければならない。ルックアップテーブルをプ
ログラミングするアルゴリズムは次の通りである。
【0070】255≦x<最大 係数(x)=255 最大≦x≦最小 係数(x)=(整数)(255* (x
−最小)/(最大−最小) 最小<x≦0 係数(x)=0 ここで、値「最大」及び「最小」は、デバイス3105
により計算された最大値及び最小値をいう。最大及び最
小は0と255との間の値であって、最大>最小でなく
てはならない。図16は、デバイス3106の回路がデ
バイス31061〜31069で構成されていることを
示している。この回路は2つの作動モードを有してい
る。第1作動モードはルックアップテーブルの係数が計
算される作動モードであり、第2作動モードは、これら
の係数により入力イメージを正規化出力イメージに変換
する作動モードである。部品31061〜31067に
は、SRAM31068に記憶される係数を計算するこ
とが含まれる。データは、セレクト制御信号を正しい状
態に設定することにより、画素データがアドレスとして
SRAMに影響を与えることができるようにすることに
よって変形される。各フレームのスタート時に、LUT
(ルックアップテーブル)の全ての位置がゼロに設定さ
れ、最小値が、部品31061として示すカウンタにロ
ードされる。最大値と一緒に最小値がデバイス3105
から得られる。カウンタは、制御論理ユニット50から
のロード制御信号を用いてロードされる。カウンタの出
力は比較器(CMP)に入力され、該CMPはカウンタ
値と最大値とを比較する。カウンタの値が最大値より大
きい場合には、全ての係数がルックアップテーブルにロ
ードされていること、及び正規化プロセスをスタートで
きることを示す。比較器(CMP)は、制御ユニット5
0に送られる「FINISHED」と命名される制御信
号を出力する。係数の計算は3つのステップに分割され
る。第1ステップでは、2つの計算が平行して行なわれ
る。すなわち、 (a)最小値−x ここで、xは現在のカウンタの値で
ある。
【0071】(b)最大値−最小値 次に、 (c)定数x(1の結果) 部品31066を使用す
る。
【0072】次に、 (d)(3の結果)/(2の結果) 部品31067を
使用する。
【0073】定数の値は255に設定される。マルチプ
レクサ(MUX)は、カウンタの出力がSRAMのアド
レスバスに影響を与えることができるように設定され
る。SRAMへのR/Wラインが書込みを行なうように
設定することにより、除算部品31067からの結果
が、カウンタ31061により特定された場所でSRA
Mに書き込まれる。次にカウンタが増分され、且つ全て
の係数が計算され且つSRAMに記憶されたことを比較
器(CMP)が表示するまでこのプロセスが反復され
る。この時点で、ルックアップテーブルは入力イメージ
を正規化する。セレクト信号は、画素データがSRAM
のアドレスバスに影響を与えることができるように切り
換えられ且つR/W制御信号が読取りに切り換えられ
る。次に入力イメージがSRAMに与えられ、ここで、
入力イメージがルックアップテーブルにより変形され且
つ正規化画素データ段に出力される。全ての画素が変形
されると、カウンタには再び最小値がロードされ、全て
のLUT位置がゼロに設定され且つこのプロセスが反復
される。
【0074】前処理正規化セクションの出力は、更に2
つのセクション、すなわち、目の位置を見出す目位置検
出段と、瞳孔及び眉位置を見出す瞳孔及び眉位置検出段
とに導かれる。
【0075】目位置検出段は2つのデバイス、すなわ
ち、アイテンプレート相関付けデバイス3115及び最
小値見出しデバイス3116とを有している。目位置検
出は、一回目は左目用テンプレートを使用し、二回目は
右目用テンプレートを使用して2回処理される。
【0076】図17には、アイテンプレート相関付けデ
バイス3115が回路の形態で示されている。該デバイ
ス3115の目的は、入力イメージを、左右の目イメー
ジについて予め記憶された幾つかのテンプレートに相関
付けることにある。右目相関関係からゼロに最も近い結
果は右目の位置を表示し且つ左目相関関係からゼロに最
も近い結果は左目位置を表示する。相関関係付け回路
は、4ビットの精度のみを用いて、整数算術を行なう次
の数学的関数を実行する。
【0077】
【数1】
【0078】ここで、Pは入力イメージ、Tはテンプレ
ートイメージ、x及びyは入力イメージ内での位置イン
ジケータである。この式は、出力イメージにおける各画
素について計算される。
【0079】アルゴリズムは、入力イメージの画素とテ
ンプレートイメージの画素との全ての差異の2乗を計算
する。入力イメージとテンプレートイメージとが同一で
ある場合には、結果はゼロとなり且つその結果はビット
数を付加することにより高められるけれども、より複雑
なハードウェアの実施を必要とする。
【0080】式(1)は、次式を満たすのに必要な基本
イメージ処理ステップを示すため簡単化できる。
【0081】
【数2】
【0082】ここで、T(i,j)2 は定数、P(i,
j)2 は入力イメージの2乗された全ての画素の合計で
あり、P(i,j)T(i,j)は、入力イメージの全
ての画素とテンプレート画素の対応する画素との乗算及
び合計である。
【0083】アルゴリズムは幾つかのステップに分割で
き、これらの幾つかは平行して遂行できる。
【0084】(1)(i,j)2 mを計算する。
【0085】(2)P(i,j)T(i,j)を計算す
る。
【0086】(3)(2)にT(i,j)2 を加える。
ここで、T(i,j)2 はオフラインで計算できる定数
である。
【0087】(4)(3)から(2)を引く。
【0088】これにより、計算が4つの基本ステップに
減少される。
【0089】デバイス3115は部品31151〜31
156を有している。部品31511及び31153
は、16×16ビットの相関器、P(i,j)T(i,
j)を実行する部品31151、及びP(i,j)2
実行する部品31153である。部品31152は、相
関付ける前に、入力イメージ画素値をこれらの2乗値に
変換するルックアップテーブルとして使用される256
×8ビットSRAMである。これは、相関付けプロセス
を通じて数値的精度が維持されるようにするのに必要で
ある。
【0090】相関付けから得られる結果は最小値見出し
デバイス3116に入力され、該デバイスにおいて、最
小値及び最小値の位置が見出される。デバイス3116
の回路が図18に示されている。図18から分かるよう
に、デバイス3116はデバイス3108と同様であ
り、両回路の作動は同一である。
【0091】目位置検出段は、多数のアイテンプレート
を相関付けて最良の相関値を見出すことができるように
拡大できる。この形式の装置の実施は、当業者には明ら
かであろう。
【0092】目位置検出装置からの最終出力は、入力イ
メージに左目の位置及び右目の位置を定める2つの画素
位置(LEx、LEy)及び(REx、REy)であ
る。
【0093】右目検出及び左目検出を行なうデバイス3
117、3118(図19)が瞳孔及び眉位置検出段を
構成する。瞳孔及び眉位置検出段の目的は、デバイス3
106からの平滑化されたイメージと一緒にデバイス3
116から得られる目の座標(LEx、LEy)及び
(REx、REy)を使用して左右両目についての瞳孔
及び眉の位置を見出すことである。
【0094】図19には、右目検出デバイス3117が
回路の形態で示されている。デバイス3117は部品3
1171〜31175からなる。クロップ画像として知
られる第1部品は、中央画素として右目座標(REx、
REy)を用いて、関心領域を得るのに使用される。次
に、このサブイメージは、サブイメージにX射影を行な
うX射影として知られている部品31172に出力され
る。部品31172を実施するする回路が図21に示さ
れている。部品31172の機能は、デバイス3107
の機能と同一である。
【0095】デバイス31172からのデータは平滑化
デバイス31173に導かれ、ここで、X射影データが
サブイメージの最上行から最下行に平滑化される。デバ
イス31173を実施する回路が図20に示されてい
る。この回路の原理は、4つの画素値について連続入力
流れを平均化して、出力が平均化された画素の流れとな
るようにすることである。平均化するため、画素がレジ
スタに記憶され、その出力が加算器に供給される。加算
器からの結果は、次に、シフタに出力され、該シフタ
は、4で割ったものに相当する2つの場所だけ、この結
果を右方にシフトする。次に、次の画素が回路に入力さ
れ且つ第1レジスタに記憶される。これと平行して、前
に記憶されたデータがレジスタ連鎖に沿ってシフトされ
る。次に、新しい平均が計算され且つ出力される。この
プロセスは、全てのX射影データが平滑化されるまで反
復される。
【0096】次に、部品31173からの平均化された
X射影データがデバイス31174に導かれる。このデ
バイスの目的は、平均化されたX射影データを最上行の
値から最下行の値までサーチし、データに最大ピークを
見出すことにある。このピークは眉のy座標位置に一致
する。部品31174を実施する回路が図22に示され
ている。この回路の原理は、第(N+1)番目のデータ
値が第N番目のデータ値より小さくなる位置を位置決め
することにある。なぜならば、これは、ピークに遭遇し
たことを示すからである。第(N+1)番目及び第N番
目のデータ値はレジスタにより供給され、該レジスタの
出力は比較器に供給される。この比較器は前記データ値
を比較して、第(N+1)番目のデータ値が第N番目の
データ値より小さいときにRSフリップフロップにセッ
ト信号を出力する。RSフリップフロップは、画素値及
び画素が生じる位置を記憶する2つのレジスタにロード
信号を発するのに使用される。このデータは眉のy位置
(RBy)を表す。このRBy位置はRExと同じであ
ると考えられる。これにより、今や眉の位置は(RB
x、RBy)に位置していることになる。
【0097】最小値見出し部品31175の目的は瞳孔
の位置を見出すことにある。これは、正規化されたイメ
ージの最小値を見出すことにより行なわれる。部品31
175を実施するのに使用される回路が図23に示され
ている。この回路の作動はデバイス3108、3113
の作動と同じであるので説明しない。この回路の出力は
右目の瞳孔の座標(RPx、RPy)である。
【0098】部品3118はデバイス3117と同様で
あるが、部品3118が左目の座標(LEx、LEy)
を用いてイメージをクロップする点で異なっている。
【0099】ここで図24を参照すると、全体を参照番
号80で示す別の構成の装置が示されている。この装置
80は、付加デバイス800を有している点で装置1と
は異なっている。該装置800の目的は顔面変更ユニッ
ト30からの出力を分析して、付加情報をメモリストア
40(該メモリストアの目的は代用イメージを作ること
にある)に供給することにある。デバイス80は、神経
回路網すなわちHidden Markov Mode
lとして実施でき、且つ2つの作動フェーズすなわち学
習及び想起を有している。学習フェーズでは、デバイス
80は、顔面変更ユニット30及び外部ガイダンスから
得られるデータを使用して、カメラ20からの入力イメ
ージをデバイス800(該デバイスは、笑顔、渋い顔等
の特殊な表情の組に属する入力イメージの確率を表す)
の出力にマップする。1つの出力は1つの特定表情を表
す。第2作動フェーズすなわち想起フェーズでは、リア
ルタイムパラメータが顔面変更ユニット30からデバイ
ス800へと供給され、入力イメージが表す最もありそ
うな表情が評価される。この情報は、顔面変更ユニット
30からのパラメータと一緒にメモリストア40に入力
され、該メモリストア40は、この情報を使用して適当
な出力イメージを構成する。
【0100】本発明は、上記特定実施例に限定されるも
のではない。例えば、種々の制御回路を用いて出力イメ
ージメモリを変更するか、できればソフトウェアのみで
変更することができる。また、いずれかの関連従来技術
による方法でRGB信号を処理することにより、特徴抽
出トラッキング信号を発生させることができる。
【図面の簡単な説明】
【図1】本発明のイメージ処理装置を示す概略図であ
る。
【図2】イメージ処理装置の顔面変更ユニットをより詳
細に示す図面である。
【図3】顔面変更ユニットの部品をより詳細に示す図面
である。
【図4】顔面変更ユニットの部品をより詳細に示す図面
である。
【図5】顔面変更ユニットの部品をより詳細に示す図面
である。
【図6】イメージ処理装置のメモリストアを示す概略図
である。
【図7】イメージ処理装置の顔面構成部分検出ユニット
の構成を示す総括図である。
【図8】イメージ処理装置の顔面変更ユニットの部品を
示す図面である。
【図9】イメージ処理装置の顔面変更ユニットの部品を
示す図面である。
【図10】イメージ処理装置の顔面変更ユニットの部品
を示す図面である。
【図11】イメージ処理装置の顔面変更ユニットの部品
を示す図面である。
【図12】イメージ処理装置の顔面変更ユニットの部品
を示す図面である。
【図13】イメージ処理装置の顔面変更ユニットの部品
を示す図面である。
【図14】イメージ処理装置の顔面変更ユニットの部品
を示す図面である。
【図15】イメージ処理装置の顔面変更ユニットの部品
を示す図面である。
【図16】イメージ処理装置の顔面変更ユニットの部品
を示す図面である。
【図17】イメージ処理装置の顔面変更ユニットの部品
を示す図面である。
【図18】イメージ処理装置の顔面変更ユニットの部品
を示す図面である。
【図19】イメージ処理装置の顔面変更ユニットの部品
を示す図面である。
【図20】イメージ処理装置の顔面変更ユニットの部品
を示す図面である。
【図21】イメージ処理装置の顔面変更ユニットの部品
を示す図面である。
【図22】イメージ処理装置の顔面変更ユニットの部品
を示す図面である。
【図23】イメージ処理装置の顔面変更ユニットの部品
を示す図面である。
【図24】本発明のイメージ処理装置の他の構造を示す
概略図である。
【符号の説明】
1 イメージ処理装置 10 カメラ 20 ビデオモニタ 30 顔面変更ユニット 40 メモリストア 50 制御論理ユニット 60a ビデオマルチプレクサ 60b ビデオマルチプレクサ 70 ビデオホンインターフェース 80 他の実施例によるイメージ処理装置 800 神経回路網デバイス 3101 カラー変換デバイス 3102 帯域通過デバイス 3103 帯域通過デバイス 3104 クロップ画像デバイス 3105 最大値/最小値見出しデバイス 3106 濃度階調正規化デバイス 3107 XY射影デバイス 3108 最大値見出しデバイス 3109 境界ボックスサーチデバイス 3110 クロップ画像デバイス 3111 平滑化デバイス 3112 XY射影デバイス 3113 最大値見出しデバイス 3114 境界ボックスサーチデバイス 3115 アイテンプレート相関付けデバイス 3116 最小値見出しデバイス 3117 右目検出デバイス 3118 左目検出デバイス
───────────────────────────────────────────────────── フロントページの続き (72)発明者 サザランド・アリスタ アイルランド国、ダブリン2、トリニティ カレッジ、オリリー インスティテュー ト、ヒタチ ヨーロッパ リミテッド ヒ タチ ダブリン ラボラトリー、リサーチ アンド ディベロプメント センター内 (72)発明者 阿部 正博 アイルランド国、ダブリン2、トリニティ カレッジ、オリリー インスティテュー ト、ヒタチ ヨーロッパ リミテッド ヒ タチ ダブリン ラボラトリー、リサーチ アンド ディベロプメント センター内

Claims (26)

    【特許請求の範囲】
  1. 【請求項1】主題の顔面イメージ信号を受けるステップ
    と、特徴抽出トラッキング信号を発生するステップと、
    該トラッキング信号を処理して処理出力信号を作るステ
    ップとを有するイメージ処理方法において、 前記トラッキング信号処理ステップが、 代用顔面を表すイメージ信号を発生するサブステップ
    と、 トラッキング信号に従ってリアルタイムで前記代用顔面
    イメージ信号を修正して、主題の顔面の特徴をもつ代用
    顔面を表す出力信号を発生するサブステップとからなる
    ことを特徴とするイメージ処理方法。
  2. 【請求項2】前記出力信号が、トラッキング信号に応答
    して更新イメージメモリ(406)から転送された画素
    値を重ね書きすることにより修正された出力イメージメ
    モリ(402)から伝達されることを特徴とする請求項
    1に記載の方法。
  3. 【請求項3】前記更新イメージメモリ(406)が、フ
    レーム間の画素変更を記憶することを特徴とする請求項
    2に記載の方法。
  4. 【請求項4】更新の転送が、更新イメージメモリ(40
    6)のアドレスへのポインタを有するルックアップテー
    ブル(404)に従って制御されることを特徴とする請
    求項2又は3に記載の方法。
  5. 【請求項5】前記トラッキング信号が、顔面特徴の位置
    的特徴を表す顔面特徴信号に変換されることを特徴とす
    る請求項1〜4のいずれか1項に記載の方法。
  6. 【請求項6】前記顔面特徴信号がベクトル信号であるこ
    とを特徴とする請求項5に記載の方法。
  7. 【請求項7】前記更新イメージメモリ(406)の画素
    変更データが、現在の特徴信号と前の特徴信号とを比較
    することにより選択されることを特徴とする請求項6に
    記載の方法。
  8. 【請求項8】前記前の特徴信号が専用レジスタ(41
    0)に記憶されることを特徴とする請求項7に記載の方
    法。
  9. 【請求項9】前記更新イメージメモリ(406)が、3
    つのフィールドすなわち、データ要素の位置の表示、出
    力イメージメモリの位置のアドレスをもつ第2フィール
    ド、及び画素のカラー値をもつ第3フィールドのデータ
    要素を記憶することを特徴とする請求項2〜8のいずれ
    か1項に記載の方法。
  10. 【請求項10】前記代用顔面イメージ信号を発生するス
    テップが、イメージメモリから初期イメージを検索する
    ステップと、次に、トラッキング信号に従って前記初期
    イメージを更新するステップとからなることを特徴とす
    る請求項1〜9のいずれか1項に記載の方法。
  11. 【請求項11】前記初期イメージが、初期化時に、初期
    イメージメモリ(407)から出力イメージメモリ(4
    02)に転送されることを特徴とする請求項10に記載
    の方法。
  12. 【請求項12】前記トラッキング信号が、 主題の顔面イメージ信号をH、S、Vフォーマットで発
    生し、 該H、S、Vフォーマット信号の少なくとも2つの成分
    を帯域通過フィルタ(3102、3103)に通し、 フィルタの出力信号を主題の顔面イメージ画素領域上に
    マッピングし、 フィルタの出力信号のマッピングに従って、画素領域内
    に特徴位置を決定することにより発生されることを特徴
    とする請求項1〜11のいずれか1項に記載の方法。
  13. 【請求項13】顔面領域(Slx、Sly、Shx、S
    hy)を最初に検出し、次に、検出された顔面領域内で
    口及び目の検出を行なうことを特徴とする請求項12に
    記載の方法。
  14. 【請求項14】顔面領域を検出するのに、主題の顔面イ
    メージ信号のH成分及びS成分のみを処理することを特
    徴とする請求項13に記載の方法。
  15. 【請求項15】前記処理が、帯域通過濾過を行い、その
    後にフィルタ出力を画素領域上にマッピングすることか
    らなることを特徴とする請求項14に記載の方法。
  16. 【請求項16】前記口の検出が、検出した顔面領域内で
    主題のイメージ信号のS成分及びV成分を処理すること
    により行なわれることを特徴とする請求項13〜15の
    いずれか1項に記載の方法。
  17. 【請求項17】前記目の検出を行なうのに、主題のイメ
    ージ信号のうちのV成分のみを処理することを特徴とす
    る請求項13〜16のいずれか1項に記載の方法。
  18. 【請求項18】前記V成分が正規化され且つ目の検出が
    相関付けにより行なわれることを特徴とする請求項17
    に記載の方法。
  19. 【請求項19】主題の顔面イメージ信号を受けるステッ
    プと、 前記顔面イメージ信号の特徴を抽出してトラッキング信
    号を発生するステップと、 該トラッキング信号を、主題の顔面の特徴の位置的特徴
    を表す顔面特徴信号に変形するステップと、 初期代用イメージを出力イメージメモリ(402)に書
    き込むステップと、 更新イメージメモリ(406)から転送される画素値を
    重ね書きすることにより出力イメージメモリ(402)
    を修正するステップとを有し、前記転送が顔面特徴信号
    に応答して制御されることを特徴とするイメージ処理方
    法。
  20. 【請求項20】主題の顔面イメージ信号を受ける手段
    (10)と、特徴抽出トラッキング信号を発生する手段
    (31、32)と、前記トラッキング信号を処理して処
    理出力信号を作る手段(40、32、33)とを有する
    イメージ処理装置(1)において、 前記トラッキング信号を処理する手段が、 代用顔面を表すイメージ信号を発生する手段と、 トラッキング信号に従ってリアルタイムで前記代用顔面
    イメージ信号を修正して、主題の顔面の特徴をもつ代用
    顔面を表す出力信号を発生する手段とからなることを特
    徴とするイメージ処理装置。
  21. 【請求項21】前記処理手段が、出力イメージメモリ
    (402)と、更新イメージメモリ(406)と、トラ
    ッキング信号に応答して更新イメージメモリ(406)
    からの画素値を転送することにより前記出力イメージメ
    モリ(402)を修正する手段(410、404、40
    5)とからなることを特徴とする請求項20に記載のイ
    メージ処理装置。
  22. 【請求項22】前記更新イメージメモリ(406)がフ
    レーム間の画素変更を記憶することを特徴とする請求項
    21に記載のイメージ処理装置。
  23. 【請求項23】前記処理手段が、トラッキング信号を、
    顔面特徴の位置的特徴を表す顔面特徴信号に変換する手
    段(32)からなることを特徴とする請求項20〜22
    のいずれか1項に記載のイメージ処理装置。
  24. 【請求項24】前記顔面特徴信号がベクトル信号である
    ことを特徴とする請求項23に記載のイメージ処理装
    置。
  25. 【請求項25】前記処理手段が、特徴データをモニタリ
    ングすることにより装置の作動中に学習し且つ次に特徴
    の確認の補助をすべくフィードバックする神経回路網デ
    バイス(800)を備えていることを特徴とする請求項
    20〜24のいずれか1項に記載のイメージ処理装置。
  26. 【請求項26】主題の顔面イメージ信号を受ける手段
    (10)と、 前記顔面イメージ信号の特徴を抽出してトラッキング信
    号を発生する手段(31)とを有し、 処理手段が、 該トラッキング信号を、主題の顔面の特徴の位置的特徴
    を表す顔面特徴信号に変形する手段(32)と、 出力イメージメモリ(402)と、 初期代用イメージを出力イメージメモリ(402)に書
    き込む手段(407)と、 更新イメージメモリ(406)と、 顔面特徴信号に応答して、画素値を、更新イメージメモ
    リ(406)から出力イメージメモリ(402)に転送
    することにより出力イメージメモリ(402)を修正す
    る手段とからなることを特徴とするイメージ処理装置
    (1)。
JP8076985A 1995-03-31 1996-03-29 顔面イメージ処理方法及び装置 Pending JPH08272948A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IE95650010.2 1995-03-31
EP95650010A EP0735510B1 (en) 1995-03-31 1995-03-31 Facial image processing

Publications (1)

Publication Number Publication Date
JPH08272948A true JPH08272948A (ja) 1996-10-18

Family

ID=8221676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8076985A Pending JPH08272948A (ja) 1995-03-31 1996-03-29 顔面イメージ処理方法及び装置

Country Status (3)

Country Link
EP (1) EP0735510B1 (ja)
JP (1) JPH08272948A (ja)
DE (1) DE69524204T2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132693A (ja) * 1998-10-27 2000-05-12 Sony Corp 画像処理装置および方法、並びに提供媒体
WO2005101318A1 (ja) * 2004-04-15 2005-10-27 Matsushita Electric Industrial Co., Ltd. 顔画像作成装置及び方法
JP2009505247A (ja) * 2005-08-17 2009-02-05 シーリアル、テクノロジーズ、ゲーエムベーハー 複数の観察者の眼のトラッキングとリアルタイム検出のための方法と回路配置
US11470241B2 (en) 2008-01-27 2022-10-11 Fotonation Limited Detecting facial expressions in digital images

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR9906453A (pt) * 1998-05-19 2000-09-19 Sony Computer Entertainment Inc Dispositivo e método do processamento de imagem, e meio de distribuição.
US6067399A (en) * 1998-09-02 2000-05-23 Sony Corporation Privacy mode for acquisition cameras and camcorders
US8587672B2 (en) 2011-01-31 2013-11-19 Home Box Office, Inc. Real-time visible-talent tracking system
CN102955933A (zh) * 2011-08-24 2013-03-06 苏州飞锐智能科技有限公司 基于人脸识别的家居门禁控制方法
CN102956049A (zh) * 2011-08-24 2013-03-06 苏州飞锐智能科技有限公司 智能门禁的开关控制方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4600281A (en) * 1985-03-29 1986-07-15 Bloomstein Richard W Altering facial displays in cinematic works

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132693A (ja) * 1998-10-27 2000-05-12 Sony Corp 画像処理装置および方法、並びに提供媒体
WO2005101318A1 (ja) * 2004-04-15 2005-10-27 Matsushita Electric Industrial Co., Ltd. 顔画像作成装置及び方法
US7653220B2 (en) 2004-04-15 2010-01-26 Panasonic Corporation Face image creation device and method
JP2009505247A (ja) * 2005-08-17 2009-02-05 シーリアル、テクノロジーズ、ゲーエムベーハー 複数の観察者の眼のトラッキングとリアルタイム検出のための方法と回路配置
US11470241B2 (en) 2008-01-27 2022-10-11 Fotonation Limited Detecting facial expressions in digital images
US11689796B2 (en) 2008-01-27 2023-06-27 Adeia Imaging Llc Detecting facial expressions in digital images

Also Published As

Publication number Publication date
EP0735510B1 (en) 2001-11-28
DE69524204T2 (de) 2002-08-22
EP0735510A1 (en) 1996-10-02
DE69524204D1 (de) 2002-01-10

Similar Documents

Publication Publication Date Title
US5870138A (en) Facial image processing
EP0654749B1 (en) An image processing method and apparatus
CN105843386B (zh) 一种商场虚拟试衣系统
CN110363867B (zh) 虚拟装扮系统、方法、设备及介质
US7756293B2 (en) Movement capture and analysis apparatus and method
JPH10320588A (ja) 画像処理装置および画像処理方法
JP7499280B2 (ja) 人物の単眼深度推定のための方法およびシステム
JPS60167069A (ja) 図形認識装置
CN109816694A (zh) 目标跟踪方法、装置及电子设备
CN109117753A (zh) 部位识别方法、装置、终端及存储介质
CN114445853A (zh) 一种视觉手势识别系统识别方法
KR102528507B1 (ko) Yolo모델과 객체 추적 기법을 융합한 하이브리드형 열화상 이미지 기반 객체 탐지 방법
JP3836814B2 (ja) 画像処理方法、画像処理装置、画像処理プログラム
EP0735509B1 (en) Image processing for facial feature extraction
JP2019003565A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JPH08272948A (ja) 顔面イメージ処理方法及び装置
KR20040035803A (ko) 협조적인 분배 비전을 통한 지능적인 쿼드 디스플레이
CN109919128A (zh) 控制指令的获取方法、装置及电子设备
JP4141090B2 (ja) 画像認識装置、陰影除去装置、陰影除去方法及び記録媒体
CN115273196A (zh) 基于人脸关键点的肤色识别方法及电子设备
CN114549809A (zh) 手势识别方法以及相关设备
CN110175629B (zh) 一种人体动作相似度计算方法及装置
CN109508587A (zh) 身体信息分析装置及其底妆分析方法
JP2019103029A (ja) 情報処理装置、色補正方法、及びコンピュータプログラム
CN116258655B (zh) 基于手势交互的实时图像增强方法及系统