JPH09102043A - 画像内の要素の位置検出 - Google Patents
画像内の要素の位置検出Info
- Publication number
- JPH09102043A JPH09102043A JP8165406A JP16540696A JPH09102043A JP H09102043 A JPH09102043 A JP H09102043A JP 8165406 A JP8165406 A JP 8165406A JP 16540696 A JP16540696 A JP 16540696A JP H09102043 A JPH09102043 A JP H09102043A
- Authority
- JP
- Japan
- Prior art keywords
- image
- picture
- mouth
- pixel
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title 1
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000001914 filtration Methods 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 24
- 230000015654 memory Effects 0.000 abstract description 23
- 238000012549 training Methods 0.000 description 21
- 230000001815 facial effect Effects 0.000 description 15
- 230000000877 morphologic effect Effects 0.000 description 12
- 238000011835 investigation Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/142—Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
(57)【要約】
【課題】 画像内のある特徴の位置を検出する。
【解決手段】 本発明は、画像内の顔の造作の位置を決
定するための装置および方法を提供する。本発明は、照
明状態の変動およびカメラ位置の変動に耐え得るもので
ある。本発明の一つの実施例においては、画像内の顔の
造作の位置が、画像を帯域フィルタリングし、次に、形
態処理を遂行し、続いて、閾値処理を施すことによって
決定される。この初期の処理によって、顔の造作が位置
する候補領域が識別される。これら候補領域が、分類子
を使用して、顔の造作、例えば、目あるいは口が、検出
されるか決定される。
定するための装置および方法を提供する。本発明は、照
明状態の変動およびカメラ位置の変動に耐え得るもので
ある。本発明の一つの実施例においては、画像内の顔の
造作の位置が、画像を帯域フィルタリングし、次に、形
態処理を遂行し、続いて、閾値処理を施すことによって
決定される。この初期の処理によって、顔の造作が位置
する候補領域が識別される。これら候補領域が、分類子
を使用して、顔の造作、例えば、目あるいは口が、検出
されるか決定される。
Description
【0001】
【産業上の利用分野】本発明は、画像処理、より詳細に
は、画像内の造作(要素)の位置を検出することに関す
る。
は、画像内の造作(要素)の位置を検出することに関す
る。
【0002】
【従来の技術】画像内の顔の造作の位置の検出は、保安
用途において、個人を自動的に識別するために重要であ
り、また、音声認識において、認識速度を向上させるた
めに重要である。さらに、これは、低帯域幅ビデオ電気
通信においても重要であり、一つの低帯域幅ビデオ電気
通信においては、画像全体が、4あるいは5フレームご
とに送信あるいは更新され、一方、話者の口に関するビ
デオ情報が、フルフレーム速度にて送信あるいは更新さ
れる。もう一つの低帯域幅ビデオ電気通信用途において
は、画像全体が、4あるいは5フレームごとに伝送さ
れ、話者の発声が、モデルに対する入力として使用さ
れ、次に、このモデルの出力を使用して、受信ビデオ端
末上の話者の口の外観がフレーム間で修正される。これ
ら全ての用途は、顔の造作、例えば、画像内の口の位置
を検出するためのより正確な方法から利益を受ける。
用途において、個人を自動的に識別するために重要であ
り、また、音声認識において、認識速度を向上させるた
めに重要である。さらに、これは、低帯域幅ビデオ電気
通信においても重要であり、一つの低帯域幅ビデオ電気
通信においては、画像全体が、4あるいは5フレームご
とに送信あるいは更新され、一方、話者の口に関するビ
デオ情報が、フルフレーム速度にて送信あるいは更新さ
れる。もう一つの低帯域幅ビデオ電気通信用途において
は、画像全体が、4あるいは5フレームごとに伝送さ
れ、話者の発声が、モデルに対する入力として使用さ
れ、次に、このモデルの出力を使用して、受信ビデオ端
末上の話者の口の外観がフレーム間で修正される。これ
ら全ての用途は、顔の造作、例えば、画像内の口の位置
を検出するためのより正確な方法から利益を受ける。
【0003】
【発明が解決しようとする課題】過去においては、顔の
造作の位置は、角膜反射を検出することにより、あるい
は、テンプレートあるいは変形可能なテンプレートを使
用することによって検出されてきた。テンプレートの使
用においては、テンプレートが画像上を移動され、エネ
ルギー関数が定義される。そして、テンプレートが顔の
造作によく一致したときにエネルギー関数が最小になる
という事実が利用される。ただし、これら技法は、自然
の環境内では十分に機能し得ない。これは、自然の環境
においては、照明が変動し、また、個人の顔のカメラに
対する位置も変動するためである。
造作の位置は、角膜反射を検出することにより、あるい
は、テンプレートあるいは変形可能なテンプレートを使
用することによって検出されてきた。テンプレートの使
用においては、テンプレートが画像上を移動され、エネ
ルギー関数が定義される。そして、テンプレートが顔の
造作によく一致したときにエネルギー関数が最小になる
という事実が利用される。ただし、これら技法は、自然
の環境内では十分に機能し得ない。これは、自然の環境
においては、照明が変動し、また、個人の顔のカメラに
対する位置も変動するためである。
【0004】
【課題を解決するための手段】本発明は、画像内の顔の
造作の位置を検出するための装置および方法を提供す
る。本発明は、照明状態の変動およびカメラ位置の変動
に耐え得るものである。本発明の一つの実施例において
は、画像内の顔の造作の位置が、画像を帯域フィルタリ
ングし、次に、形態処理を遂行し、続いて、閾値処理を
施すことによって検出される。この初期の処理によっ
て、顔の造作が位置する候補領域が識別される。次に、
これら候補領域が、分類子を使用して、顔の造作、例え
ば、目あるいは口が、検出されるか決定される。
造作の位置を検出するための装置および方法を提供す
る。本発明は、照明状態の変動およびカメラ位置の変動
に耐え得るものである。本発明の一つの実施例において
は、画像内の顔の造作の位置が、画像を帯域フィルタリ
ングし、次に、形態処理を遂行し、続いて、閾値処理を
施すことによって検出される。この初期の処理によっ
て、顔の造作が位置する候補領域が識別される。次に、
これら候補領域が、分類子を使用して、顔の造作、例え
ば、目あるいは口が、検出されるか決定される。
【0005】
【発明の実施の形態】図1は、画像内の顔の造作(要
素)の位置を決定するための装置の機能ブロック図を示
す。ただし、本発明は、画像内の任意のタイプの要素の
位置を決定するために使用できるものである。カメラ1
0によって画像の画素表現がメモリ12に提供される。
デジタル信号処理デバイス(DSP)14によって、メ
モリ12内に記録された画像が処理され、顔の造作の位
置が決定される。DSP14は、メモリ16を、プログ
ラム格納用メモリとして、および、スクラッチパッドメ
モリとして使用する。カメラ10によって提供される画
素データは、カメラがデジタル出力を提供する場合はカ
メラ10から直接に得られ、一方、カメラ10がアナロ
グ出力を提供する場合は、画素データは、カメラ10か
らのアナログデータをアナログ/デジタル変換器に送る
ことによって得られる。画像の画素表現は、グレースケ
ール画像であっても、カラー画像であってもよい。
素)の位置を決定するための装置の機能ブロック図を示
す。ただし、本発明は、画像内の任意のタイプの要素の
位置を決定するために使用できるものである。カメラ1
0によって画像の画素表現がメモリ12に提供される。
デジタル信号処理デバイス(DSP)14によって、メ
モリ12内に記録された画像が処理され、顔の造作の位
置が決定される。DSP14は、メモリ16を、プログ
ラム格納用メモリとして、および、スクラッチパッドメ
モリとして使用する。カメラ10によって提供される画
素データは、カメラがデジタル出力を提供する場合はカ
メラ10から直接に得られ、一方、カメラ10がアナロ
グ出力を提供する場合は、画素データは、カメラ10か
らのアナログデータをアナログ/デジタル変換器に送る
ことによって得られる。画像の画素表現は、グレースケ
ール画像であっても、カラー画像であってもよい。
【0006】メモリ12は、任意の幅広く市販されてい
るランダムアクセスメモリを使用して構成することがで
きる。DSP14は、Texas Instruments などの製造業
者によって提供されるデジタル信号処理チップを使用し
て実現することも、あるいは、マイクロプロセッサを使
用して実現することも、あるいは、マイクロプロセッサ
とコープロセッサチップの組合せを使用して実現するこ
ともできる。メモリ16は、ランダムアクセスメモリと
読出専用メモリの組合せを使用して構成することができ
る。
るランダムアクセスメモリを使用して構成することがで
きる。DSP14は、Texas Instruments などの製造業
者によって提供されるデジタル信号処理チップを使用し
て実現することも、あるいは、マイクロプロセッサを使
用して実現することも、あるいは、マイクロプロセッサ
とコープロセッサチップの組合せを使用して実現するこ
ともできる。メモリ16は、ランダムアクセスメモリと
読出専用メモリの組合せを使用して構成することができ
る。
【0007】図2は、カメラ10によってとらえられた
画像を示す。この画像はメモリ12内に画素の形式にて
記録される。グレースケール画像の場合は、各画素は、
例えば、0から255の間の強度値を持つ。高い強度
は、明るい画素を意味し、低い強度は、鈍いあるいは暗
い画素を意味する。図2の画像は、任意のスケールを持
つことができる。ただし、本発明のこの実現は、垂直方
向に240、水平方向に360の画素を持つスケールの
画像を使用する。
画像を示す。この画像はメモリ12内に画素の形式にて
記録される。グレースケール画像の場合は、各画素は、
例えば、0から255の間の強度値を持つ。高い強度
は、明るい画素を意味し、低い強度は、鈍いあるいは暗
い画素を意味する。図2の画像は、任意のスケールを持
つことができる。ただし、本発明のこの実現は、垂直方
向に240、水平方向に360の画素を持つスケールの
画像を使用する。
【0008】顔の造作の位置を決定するために、画像を
長方形形状を使用してたたみこみ処理(convolving)す
ることにより、画像が帯域フィルタされる。画像が長方
形形状を使用してたたみこみ処理されたら、元の画像が
メモリ内に保持され、新たな画像が生成される。図3
は、画像が長方形形状を使用してどのようにしてたたみ
こみ処理されるかを示す。長方形形状40が全画像を通
じて画素ごとに走査される。例えば、長方形形状40
が、水平方向に、一度に1画素づつ、これが画像の終端
に達するまで移動され、次に、これが、垂直方向に下方
に、1画素移動され、再び、画像を横断して、水平方向
に、一度に1画素づつ、走査される。各位置において、
長方形40内に含まれる画素42の強度が総和され、平
均が得られる。この平均を使用してたたみこみの結果と
しての画像が生成される。元の画像内の長方形の中心近
傍の所の画素に対応するこの新たな画像内の画素の強度
値がこうして得られた平均値にセットされる。元の画像
の画素強度は、この新たなあるいは結果としての画像が
生成されるとき変更されない。
長方形形状を使用してたたみこみ処理(convolving)す
ることにより、画像が帯域フィルタされる。画像が長方
形形状を使用してたたみこみ処理されたら、元の画像が
メモリ内に保持され、新たな画像が生成される。図3
は、画像が長方形形状を使用してどのようにしてたたみ
こみ処理されるかを示す。長方形形状40が全画像を通
じて画素ごとに走査される。例えば、長方形形状40
が、水平方向に、一度に1画素づつ、これが画像の終端
に達するまで移動され、次に、これが、垂直方向に下方
に、1画素移動され、再び、画像を横断して、水平方向
に、一度に1画素づつ、走査される。各位置において、
長方形40内に含まれる画素42の強度が総和され、平
均が得られる。この平均を使用してたたみこみの結果と
しての画像が生成される。元の画像内の長方形の中心近
傍の所の画素に対応するこの新たな画像内の画素の強度
値がこうして得られた平均値にセットされる。元の画像
の画素強度は、この新たなあるいは結果としての画像が
生成されるとき変更されない。
【0009】前述のように、図2の画像は、画像をたた
みこみ処理のための長方形形状を使用して、帯域フィル
タされる。この帯域フィルタリング処理は、二つのステ
ップにて遂行される。第一のステップにおいては、画像
が低域フィルタリングされる。このステップにおいて
は、画像が2画素の垂直寸法および1画素の水平寸法を
持つ小さな長方形形状を使用してたたみこみ処理され
る。このプロセスが、図2の画像に関して遂行され、低
域フィルタされた画像が得られる。低域フィルタされた
画像のコピーがメモリ16内に記録され、一方、DSP
14は、この低域フィルタされた画像に関してもう一つ
のたたみこみ動作を遂行する。つまり、DSP14は、
低域フィルタされた画像を高域フィルタリングする。こ
の第二のステップにおいては、低域フィルタされた画像
が25画素の垂直寸法および5画素の水平寸法を持つ長
方形形状を使用してたたみこみ処理される。次に、メモ
リ16内に記録された低域フィルタされた画像から結果
としての高域フィルタされた画像を引くことによって、
帯域フィルタされた画像が得られ、これがメモリ16内
に記録される。この引算は、これら画像内に対応する位
置を持つ画素の値を引くことによって遂行される。
みこみ処理のための長方形形状を使用して、帯域フィル
タされる。この帯域フィルタリング処理は、二つのステ
ップにて遂行される。第一のステップにおいては、画像
が低域フィルタリングされる。このステップにおいて
は、画像が2画素の垂直寸法および1画素の水平寸法を
持つ小さな長方形形状を使用してたたみこみ処理され
る。このプロセスが、図2の画像に関して遂行され、低
域フィルタされた画像が得られる。低域フィルタされた
画像のコピーがメモリ16内に記録され、一方、DSP
14は、この低域フィルタされた画像に関してもう一つ
のたたみこみ動作を遂行する。つまり、DSP14は、
低域フィルタされた画像を高域フィルタリングする。こ
の第二のステップにおいては、低域フィルタされた画像
が25画素の垂直寸法および5画素の水平寸法を持つ長
方形形状を使用してたたみこみ処理される。次に、メモ
リ16内に記録された低域フィルタされた画像から結果
としての高域フィルタされた画像を引くことによって、
帯域フィルタされた画像が得られ、これがメモリ16内
に記録される。この引算は、これら画像内に対応する位
置を持つ画素の値を引くことによって遂行される。
【0010】画像のたたみこみに使用される長方形形状
の寸法を変えることによって、水平および垂直方向にお
けるフィルタリング特性を変えることができることに注
意する。例えば、この長方形が大きな垂直寸法を持つ場
合は、これは、垂直方向に低域フィルタとして働く傾向
を持ち、一方、これが小さな垂直寸法を持つ場合は、こ
れは少しの高周波数をフィルタする働きをする。同様
に、この長方形要素が大きな水平寸法を持つ場合は、こ
れは、水平方向に低域フィルタとして機能する傾向を持
つ。さらに、このフィルタリング動作は、たたみこみ動
作ではなく、フーリエ変換を使用して遂行することもで
きることに注意する。
の寸法を変えることによって、水平および垂直方向にお
けるフィルタリング特性を変えることができることに注
意する。例えば、この長方形が大きな垂直寸法を持つ場
合は、これは、垂直方向に低域フィルタとして働く傾向
を持ち、一方、これが小さな垂直寸法を持つ場合は、こ
れは少しの高周波数をフィルタする働きをする。同様
に、この長方形要素が大きな水平寸法を持つ場合は、こ
れは、水平方向に低域フィルタとして機能する傾向を持
つ。さらに、このフィルタリング動作は、たたみこみ動
作ではなく、フーリエ変換を使用して遂行することもで
きることに注意する。
【0011】図2の画像に関して帯域フィルタリング動
作を遂行した後に、対象の顔の造作を含むと思われる画
像の領域を強調するために形態処理動作(morphologica
l operation )が遂行される。形態処理動作は、画像を
長方形あるいは強調されるべき造作(要素)の形状と類
似する形状を使用してたたみこみするステップを含む。
画像のたたみこみのために使用されるこの長方形形状
は、2画素の垂直寸法および6画素の水平寸法を持つ。
他のたたみこみ動作と同様に、この長方形領域内の画素
が総和され、平均が求められる。長方形の中心近傍の画
素に対応する結果としての画像内の画素の強度値が平均
値にセットされる。この形態処理動作が遂行された後
に、形態処理された画像が分析され、閾値が決定され
る。
作を遂行した後に、対象の顔の造作を含むと思われる画
像の領域を強調するために形態処理動作(morphologica
l operation )が遂行される。形態処理動作は、画像を
長方形あるいは強調されるべき造作(要素)の形状と類
似する形状を使用してたたみこみするステップを含む。
画像のたたみこみのために使用されるこの長方形形状
は、2画素の垂直寸法および6画素の水平寸法を持つ。
他のたたみこみ動作と同様に、この長方形領域内の画素
が総和され、平均が求められる。長方形の中心近傍の画
素に対応する結果としての画像内の画素の強度値が平均
値にセットされる。この形態処理動作が遂行された後
に、形態処理された画像が分析され、閾値が決定され
る。
【0012】図4は、形態処理後の画像のヒストグラム
を示す。強度が水平軸上に示され、画素数が垂直軸上に
示される。このヒストグラムを変換することによって、
水平軸上に閾値を示し、垂直軸上に“コネクティット要
素”の数を示すヒストグラムが得られる。図5はコネク
ティット要素のヒストグラムを示す。
を示す。強度が水平軸上に示され、画素数が垂直軸上に
示される。このヒストグラムを変換することによって、
水平軸上に閾値を示し、垂直軸上に“コネクティット要
素”の数を示すヒストグラムが得られる。図5はコネク
ティット要素のヒストグラムを示す。
【0013】“コネクティット要素”という用語は、二
進画像内の連続する白画素の数を意味し、ここで、この
二進画像は、形態処理された画像を閾値処理(threshol
ding)することによって得られる。この閾値処理プロセ
スにおいて、画素の強度が閾値以下である場合は、その
画素が0あるいは暗くセットし、一方、画素の強度が閾
値以上である場合は、その画素が1あるいは明るくセッ
トされる。図6はコネクティット要素を示す二進画像の
一部分である。画素のコネクティット要素は、複数の行
を含むこともある。例えば、画素のコネクティット要素
84および86は、これらが連続する白画素のコネクテ
ィット要素を形成するためにコネクティット要素を構成
する。画素82は、二つの連続する白画素があるために
コネクティット要素を構成する。さらに、画素80は、
これが一つの連続する白画素から成るコネクティット要
素のコネクティット要素であるためにコネクティット要
素を構成することに注意する。コネクティット要素のヒ
ストグラムが、最初に、閾値を1にセットし、結果とし
ての二進画像内のコネクティット要素の数をカウントす
ることによって作成される。ヒストグラムの次のポイン
トが、閾値を2にセットし、結果としての二進画像内の
コネクティット要素の数をカウントすることによって見
つけられる。このプロセスが、各可能な強度値に対し
て、この例においては、225個の異なる値に対して、
続けられ、最終的に完全なヒストグラムが得られる。
進画像内の連続する白画素の数を意味し、ここで、この
二進画像は、形態処理された画像を閾値処理(threshol
ding)することによって得られる。この閾値処理プロセ
スにおいて、画素の強度が閾値以下である場合は、その
画素が0あるいは暗くセットし、一方、画素の強度が閾
値以上である場合は、その画素が1あるいは明るくセッ
トされる。図6はコネクティット要素を示す二進画像の
一部分である。画素のコネクティット要素は、複数の行
を含むこともある。例えば、画素のコネクティット要素
84および86は、これらが連続する白画素のコネクテ
ィット要素を形成するためにコネクティット要素を構成
する。画素82は、二つの連続する白画素があるために
コネクティット要素を構成する。さらに、画素80は、
これが一つの連続する白画素から成るコネクティット要
素のコネクティット要素であるためにコネクティット要
素を構成することに注意する。コネクティット要素のヒ
ストグラムが、最初に、閾値を1にセットし、結果とし
ての二進画像内のコネクティット要素の数をカウントす
ることによって作成される。ヒストグラムの次のポイン
トが、閾値を2にセットし、結果としての二進画像内の
コネクティット要素の数をカウントすることによって見
つけられる。このプロセスが、各可能な強度値に対し
て、この例においては、225個の異なる値に対して、
続けられ、最終的に完全なヒストグラムが得られる。
【0014】閾値は、結果としてのヒストグラムを分析
することによって選択される。図5に示されるように、
閾値が低くセットされた場合は、二進画像内に多数の白
画素が存在することとなる。そして、多数の画素が白で
ある場合は、単独の白画素が少なくなること、つまり、
コネクティット要素を破る黒画素があまり存在せず、画
素がコネクティット要素となる傾向が高くなることに注
意する。結果として、閾値を低くすると、コネクティッ
ト要素の数は少なくなり、反対に、閾値を高くセットす
ると、多数の画素が、白ではなく、黒にセットされるこ
ととなる。多数の黒画素が存在すると、白画素のコネク
ティット要素は、黒画素によって破られる可能性が高く
なり、結果として、多数のコネクティット要素が形成さ
れることとなる。
することによって選択される。図5に示されるように、
閾値が低くセットされた場合は、二進画像内に多数の白
画素が存在することとなる。そして、多数の画素が白で
ある場合は、単独の白画素が少なくなること、つまり、
コネクティット要素を破る黒画素があまり存在せず、画
素がコネクティット要素となる傾向が高くなることに注
意する。結果として、閾値を低くすると、コネクティッ
ト要素の数は少なくなり、反対に、閾値を高くセットす
ると、多数の画素が、白ではなく、黒にセットされるこ
ととなる。多数の黒画素が存在すると、白画素のコネク
ティット要素は、黒画素によって破られる可能性が高く
なり、結果として、多数のコネクティット要素が形成さ
れることとなる。
【0015】後に顔の造作として識別されるべき適当な
数のコネクティット要素が形成されるような閾値を選択
することが望まれる。あまり多すぎるコネクティット要
素が形成された場合は、顔の造作に対する偽りの候補を
除去することが困難となり、一方、閾値が低くセットさ
れた場合は、多数のコネクティット要素が大きなコネク
ティット要素内に併合され、結果として、要望される顔
の造作ににじみが生じたり、これが削除されたりする。
閾値が、以下に説明される訓練手続きによって、代表的
な画像を使用して、決定される。
数のコネクティット要素が形成されるような閾値を選択
することが望まれる。あまり多すぎるコネクティット要
素が形成された場合は、顔の造作に対する偽りの候補を
除去することが困難となり、一方、閾値が低くセットさ
れた場合は、多数のコネクティット要素が大きなコネク
ティット要素内に併合され、結果として、要望される顔
の造作ににじみが生じたり、これが削除されたりする。
閾値が、以下に説明される訓練手続きによって、代表的
な画像を使用して、決定される。
【0016】閾値の選択の後に、形態処理された画像
が、各画素を閾値と比較することによって閾値処理され
る。画素の強度が閾値よりも低い場合は、その画素は0
あるいは黒にセットされ、画素の強度が閾値よりも大き
な場合は、その画素は1あるいは白にセットされる。画
素の閾値処理の結果として、二進画像が得られる。
が、各画素を閾値と比較することによって閾値処理され
る。画素の強度が閾値よりも低い場合は、その画素は0
あるいは黒にセットされ、画素の強度が閾値よりも大き
な場合は、その画素は1あるいは白にセットされる。画
素の閾値処理の結果として、二進画像が得られる。
【0017】二進画像が形成された後に、コネクティッ
ト要素を調べることによって目候補が識別される。各コ
ネクティット要素が測定され、コネクティット要素の、
高さ、幅、およびアスペクト比(幅/高さ)が決定され
る。これら3つのパラメータのおのおのが理想値と比較
され、パラメータと理想値との差に、重みが掛けられ、
次に、これが総和され、各コネクティット要素に対する
スコアが形成される。
ト要素を調べることによって目候補が識別される。各コ
ネクティット要素が測定され、コネクティット要素の、
高さ、幅、およびアスペクト比(幅/高さ)が決定され
る。これら3つのパラメータのおのおのが理想値と比較
され、パラメータと理想値との差に、重みが掛けられ、
次に、これが総和され、各コネクティット要素に対する
スコアが形成される。
【0018】式1は、線形分離子(linear classifier
)あるいはスコアリングプロセスを示す。示されるよ
うに、幅の差Wに重みwx1が掛けられ、次に、これが高
さの差Hと重みwh1との積に加えられ、これが、アスペ
クト比Rとアスペクト重みwr1との積と総和され、結
果として、目のスコアSe が生成される。これら重み
および理想値は、訓練手続きによって、代表画像を使用
して、決定される。
)あるいはスコアリングプロセスを示す。示されるよ
うに、幅の差Wに重みwx1が掛けられ、次に、これが高
さの差Hと重みwh1との積に加えられ、これが、アスペ
クト比Rとアスペクト重みwr1との積と総和され、結
果として、目のスコアSe が生成される。これら重み
および理想値は、訓練手続きによって、代表画像を使用
して、決定される。
【数1】
【0019】このプロセスが二進画像内の各コネクティ
ット要素に対して遂行される。訓練によって決定された
要求された範囲内のスコアを持つコネクティット要素
が、元の画像内の目候補として識別される。図7は、二
進画像上に重ねられた目候補として識別されたコネクテ
ィット要素を示す。
ット要素に対して遂行される。訓練によって決定された
要求された範囲内のスコアを持つコネクティット要素
が、元の画像内の目候補として識別される。図7は、二
進画像上に重ねられた目候補として識別されたコネクテ
ィット要素を示す。
【0020】上に述べられた重み、閾値、理想値および
スコアは、訓練プロセスによって得られる。訓練プロセ
スは、対象の造作の位置が知られているセットの訓練画
像を使用して遂行される。これらセットの訓練画像は、
サイズが類似し、また、処理される画像を表すことが要
求される。例えば、訓練セットは、人の頭の画像を持つ
20の画像から成り、各人が、カメラの方向を向き、各
画像がグレースケール画像から成る画像であることが考
えられる。少なくとも20画像程度の訓練セットを使用
することが要望される。各訓練画像が、上に説明のそれ
と同一の方法にて処理される。次に、重みおよび閾値
が、造作の位置を決定できる能力を最大にし、かつ、エ
ラーを最小にするように調節される。例えば、重みが、
上の手続きを数個の異なる重み値に対して反復すること
によって計算される。各手続きの終端において、これら
結果がチェックされ、最良の結果を生成した重み値が選
択される。
スコアは、訓練プロセスによって得られる。訓練プロセ
スは、対象の造作の位置が知られているセットの訓練画
像を使用して遂行される。これらセットの訓練画像は、
サイズが類似し、また、処理される画像を表すことが要
求される。例えば、訓練セットは、人の頭の画像を持つ
20の画像から成り、各人が、カメラの方向を向き、各
画像がグレースケール画像から成る画像であることが考
えられる。少なくとも20画像程度の訓練セットを使用
することが要望される。各訓練画像が、上に説明のそれ
と同一の方法にて処理される。次に、重みおよび閾値
が、造作の位置を決定できる能力を最大にし、かつ、エ
ラーを最小にするように調節される。例えば、重みが、
上の手続きを数個の異なる重み値に対して反復すること
によって計算される。各手続きの終端において、これら
結果がチェックされ、最良の結果を生成した重み値が選
択される。
【0021】この手続きが、全ての重み、閾値およびス
コアに対して、数回、満足できる結果が達成されるまで
反復される。一般的に述べて、この訓練プロセスは、当
分野において、線形分離子を訓練するための方法として
周知である。線形分離子の訓練に関しては、“Pattern
Classification and Seen Analysis”by Duda and Har
t,pages 130-188,John Wiley and Sons,Inc.,1973,New
York,NYにおいて説明されているのでこれを参照された
い。他の分離子、例えば、ニューラルネットワークも、
コネクティット要素を識別あるいは分離するために使用
することができることに注意する。
コアに対して、数回、満足できる結果が達成されるまで
反復される。一般的に述べて、この訓練プロセスは、当
分野において、線形分離子を訓練するための方法として
周知である。線形分離子の訓練に関しては、“Pattern
Classification and Seen Analysis”by Duda and Har
t,pages 130-188,John Wiley and Sons,Inc.,1973,New
York,NYにおいて説明されているのでこれを参照された
い。他の分離子、例えば、ニューラルネットワークも、
コネクティット要素を識別あるいは分離するために使用
することができることに注意する。
【0022】目候補が識別されたら、口候補が識別され
る。これら口候補は、目候補のために使用されたそれと
類似する方法にて識別される。各コネクティット要素の
高さ、幅およびアスペクト比が計算され、理想値と比較
される。各コネクティット要素に対して、スコアが、重
み付けされた高さの差と重み付けされたアスペクト比の
差の総和を取ることによって生成される。式2は、この
スコアリングプロセスを示す。重みwx2を使用してコネ
クティット要素の幅の差が重み付けされ、重みwh2を使
用してコネクティット要素の高さの差が重み付けされ、
重みwr2を使用してコネクティット要素のアスペクト比
の差が重み付けされる。
る。これら口候補は、目候補のために使用されたそれと
類似する方法にて識別される。各コネクティット要素の
高さ、幅およびアスペクト比が計算され、理想値と比較
される。各コネクティット要素に対して、スコアが、重
み付けされた高さの差と重み付けされたアスペクト比の
差の総和を取ることによって生成される。式2は、この
スコアリングプロセスを示す。重みwx2を使用してコネ
クティット要素の幅の差が重み付けされ、重みwh2を使
用してコネクティット要素の高さの差が重み付けされ、
重みwr2を使用してコネクティット要素のアスペクト比
の差が重み付けされる。
【数2】
【0023】望ましい範囲内のスコアを持つコネクティ
ット要素が口候補として識別される。図8は、図2の画
像に、丸として示される目の位置の候補および線として
示される口の位置の候補が加えられたところを示す。上
に説明されたように、これら重み、理想値および望まし
いスコアの範囲は、訓練プロセスによって決定される。
ット要素が口候補として識別される。図8は、図2の画
像に、丸として示される目の位置の候補および線として
示される口の位置の候補が加えられたところを示す。上
に説明されたように、これら重み、理想値および望まし
いスコアの範囲は、訓練プロセスによって決定される。
【0024】目と口の候補が識別されたら、目ペアの候
補に対する探索が行なわれる。目ペアの候補は、前に識
別された目候補の全てを調べることによって識別され
る。目候補の全ての可能な組合せが、一度に2個づつ、
調べられ、各ペア候補が生成される。次に、各ペア候補
について調査される。つまり、調査中の目のペアを構成
する2つの目候補間の距離が測定され、目候補のペアの
方位が測定され、調査中の目ペアを構成する各目候補に
対して前に計算されたスコアの総和が求められる。式3
は、目ペアに対してどのようにこのスコアが生成される
かを示す。つまり、目候補間の距離に重みwd1が掛けら
れ、方位値Oに重みwo が掛けられ、前に計算されたス
コアSenおよびSemの総和に重みws が掛けられる。こ
れら積を総和することによって目ペア候補に対するスコ
アが形成される。望ましい範囲内のスコアを持つ目のペ
アが目ペアの候補として識別される。式3内の方位値
は、その目ペアを構成する二つの目候補を接続する線が
水平に対してどれだけ近いかを示す。
補に対する探索が行なわれる。目ペアの候補は、前に識
別された目候補の全てを調べることによって識別され
る。目候補の全ての可能な組合せが、一度に2個づつ、
調べられ、各ペア候補が生成される。次に、各ペア候補
について調査される。つまり、調査中の目のペアを構成
する2つの目候補間の距離が測定され、目候補のペアの
方位が測定され、調査中の目ペアを構成する各目候補に
対して前に計算されたスコアの総和が求められる。式3
は、目ペアに対してどのようにこのスコアが生成される
かを示す。つまり、目候補間の距離に重みwd1が掛けら
れ、方位値Oに重みwo が掛けられ、前に計算されたス
コアSenおよびSemの総和に重みws が掛けられる。こ
れら積を総和することによって目ペア候補に対するスコ
アが形成される。望ましい範囲内のスコアを持つ目のペ
アが目ペアの候補として識別される。式3内の方位値
は、その目ペアを構成する二つの目候補を接続する線が
水平に対してどれだけ近いかを示す。
【数3】
【0025】望ましい範囲内のスコアを持つ目ペアが目
ペアの候補として識別される。上に説明されたように、
これら重み、理想値および望ましいスコアの範囲は、訓
練プロセスによって決定される。
ペアの候補として識別される。上に説明されたように、
これら重み、理想値および望ましいスコアの範囲は、訓
練プロセスによって決定される。
【0026】次に、これら目ペアの候補を、前に識別さ
れた口候補と共に使用して、画像内の目と口の位置が識
別される。目ペアの候補と口候補の各組合せについて調
べられる。この調査は、目ペア候補の目の間の距離を決
定するステップ、および口/目比を計算するステップか
ら成る。この比は、口候補と目候補を相互接続する線と
の間の距離を、目候補間の距離にて割ることによって計
算される。この目の間の距離、および口/目比に、それ
ぞれ、重みが掛けられ、その後、これらが総和され、結
果としてスコアが形成される。式4は、このプロセスを
示す。距離Dは、目ペア候補の目の間の距離を示す。距
離Dに重みwd2が掛けられる。積Dwd2が比Dmeと重み
wmeの積に加えられる。比Dmeは、目ペアの候補の目を
相互接続する線と口候補の間の垂直距離を距離Dで割っ
た値である。これら積の総和から、調査中の目ペアと口
の組合せのおのおのに対するスコアが形成される。
れた口候補と共に使用して、画像内の目と口の位置が識
別される。目ペアの候補と口候補の各組合せについて調
べられる。この調査は、目ペア候補の目の間の距離を決
定するステップ、および口/目比を計算するステップか
ら成る。この比は、口候補と目候補を相互接続する線と
の間の距離を、目候補間の距離にて割ることによって計
算される。この目の間の距離、および口/目比に、それ
ぞれ、重みが掛けられ、その後、これらが総和され、結
果としてスコアが形成される。式4は、このプロセスを
示す。距離Dは、目ペア候補の目の間の距離を示す。距
離Dに重みwd2が掛けられる。積Dwd2が比Dmeと重み
wmeの積に加えられる。比Dmeは、目ペアの候補の目を
相互接続する線と口候補の間の垂直距離を距離Dで割っ
た値である。これら積の総和から、調査中の目ペアと口
の組合せのおのおのに対するスコアが形成される。
【数4】
【0027】各組合せに対するスコアが理想スコアと比
較される。理想スコアに最も近い組合せが目と口の位置
を示す組合せとして識別される。図9は、図2の元の画
像に、識別された目と口の位置が加えられた所を示す。
上に説明されたように、これら重み、理想値および望ま
しいスコアの範囲は、訓練プロセスによって決定され
る。
較される。理想スコアに最も近い組合せが目と口の位置
を示す組合せとして識別される。図9は、図2の元の画
像に、識別された目と口の位置が加えられた所を示す。
上に説明されたように、これら重み、理想値および望ま
しいスコアの範囲は、訓練プロセスによって決定され
る。
【0028】識別される画面内の人に関する事前の知識
が存在する場合は、重みおよびスコアの範囲は、特定の
人の造作を識別するために専用化することができること
に注意する。また、画面内の顔の位置が事前に知られて
いる場合は、単純に画像内のそれらの位置に基づいて、
多数の目および口候補を削除することが可能である。画
像がビデオの一部である場合は、目および口候補のいく
らかを、頭の位置を追跡することによって、あるいは、
二つあるいはそれ以上のフレームを比較することによっ
て削除することが可能である。
が存在する場合は、重みおよびスコアの範囲は、特定の
人の造作を識別するために専用化することができること
に注意する。また、画面内の顔の位置が事前に知られて
いる場合は、単純に画像内のそれらの位置に基づいて、
多数の目および口候補を削除することが可能である。画
像がビデオの一部である場合は、目および口候補のいく
らかを、頭の位置を追跡することによって、あるいは、
二つあるいはそれ以上のフレームを比較することによっ
て削除することが可能である。
【0029】ビデオ画面全体を比較的低いフレーム速度
にて伝送し、一方、口周辺の画像部分をフルフレーム速
度にて伝送することによって、低帯域幅の電気通信を達
成することが可能である。これは、口の、画像の他の部
分に対する、相対位置を識別し、画像の口の部分をフル
フレーム速度にて伝送し、一方、画像の他の部分は、よ
り低いフレーム速度にて、例えば、5個に一つのフレー
ムのみを、伝送ことによって達成される。
にて伝送し、一方、口周辺の画像部分をフルフレーム速
度にて伝送することによって、低帯域幅の電気通信を達
成することが可能である。これは、口の、画像の他の部
分に対する、相対位置を識別し、画像の口の部分をフル
フレーム速度にて伝送し、一方、画像の他の部分は、よ
り低いフレーム速度にて、例えば、5個に一つのフレー
ムのみを、伝送ことによって達成される。
【0030】もう一つの低帯域ビデオ電気通信アプリケ
ーションにおいては、形態処理を使用してビデオ画像を
受信する側に提供される画像内の唇を修正するために、
唇の位置ができる限り正確に識別することが要求され
る。こうすることにより、一つの完全なビデオ画像を4
あるいは5フレーム毎に伝送し、一方、唇の位置を、形
態処理手続きを使用して、その画像が受信側からみたと
きあたかもフルフレーム速度に思えるように、更新する
ことが可能になる。この形態処理は、伝送されるフレー
ム上の唇の位置を注意深く識別し、次に、ビデオ伝送の
受信端において、唇の位置を話者の発声に基づいて修正
することによって達成される。発声に基づいて唇の動き
を予測するための周知のモデルの一つが口あるいは唇の
位置を予測するために使用される。形態処理は当分野に
おいて周知であり、“Digital Image Wraping”,G.Wolb
erg,IEEE Computer Society Press,1990,Los Altamito
s,Californiaなどの文献において説明されているのでこ
れを参照されたい。
ーションにおいては、形態処理を使用してビデオ画像を
受信する側に提供される画像内の唇を修正するために、
唇の位置ができる限り正確に識別することが要求され
る。こうすることにより、一つの完全なビデオ画像を4
あるいは5フレーム毎に伝送し、一方、唇の位置を、形
態処理手続きを使用して、その画像が受信側からみたと
きあたかもフルフレーム速度に思えるように、更新する
ことが可能になる。この形態処理は、伝送されるフレー
ム上の唇の位置を注意深く識別し、次に、ビデオ伝送の
受信端において、唇の位置を話者の発声に基づいて修正
することによって達成される。発声に基づいて唇の動き
を予測するための周知のモデルの一つが口あるいは唇の
位置を予測するために使用される。形態処理は当分野に
おいて周知であり、“Digital Image Wraping”,G.Wolb
erg,IEEE Computer Society Press,1990,Los Altamito
s,Californiaなどの文献において説明されているのでこ
れを参照されたい。
【0031】形態処理との関連で説明されたように、幾
つかのアプリケーションにおていは、口の位置を知るば
かりでなく、唇の位置を知ることも要求される。本発明
の一つの実施例は、画像内の人の唇の位置を検出するた
めの方法および装置も提供する。唇は、目と口の位置を
検出するために使用されたそれと類似する方法にて検出
される。最初に、口の位置が上に説明されたように検出
される。口と関連する画像の部分が唇の位置を決定する
ため、および口のより正確なアウトラインを決定するた
めに処理される。計算上のオーバヘッドを最小にするた
めに、画像の口と関連する部分のみが唇を検出するため
に処理される。例えば、画像の口を含む部分およびこの
部分を包囲する5あるいは10画素の境界のみが唇の正
確な位置の決定に当った使用される。
つかのアプリケーションにおていは、口の位置を知るば
かりでなく、唇の位置を知ることも要求される。本発明
の一つの実施例は、画像内の人の唇の位置を検出するた
めの方法および装置も提供する。唇は、目と口の位置を
検出するために使用されたそれと類似する方法にて検出
される。最初に、口の位置が上に説明されたように検出
される。口と関連する画像の部分が唇の位置を決定する
ため、および口のより正確なアウトラインを決定するた
めに処理される。計算上のオーバヘッドを最小にするた
めに、画像の口と関連する部分のみが唇を検出するため
に処理される。例えば、画像の口を含む部分およびこの
部分を包囲する5あるいは10画素の境界のみが唇の正
確な位置の決定に当った使用される。
【0032】元の画像の口を含む部分が上に説明された
ように帯域フィルタされる。この画像は、最初に、長方
形形状を使用して画像のたたみこみを行なうことによっ
て低域フィルタされる。この長方形形状の寸法として
は、例えば、2画素の垂直寸法および1画素の水平寸法
が用いられる。この低域フィルタされた画像のコピーが
メモリ16内に記録され、次に、DSP14によって、
この低域フィルタされた画像に関してもう一つのたたみ
こみ動作が遂行される。この第二番目のたたみこみ動作
においては、低域フィルタされた画像が、低域フィルタ
された画像を、例えば、25画素の垂直寸法および5画
素の水平寸法の寸法を持つ長方形形状を使用してたたみ
こみすることによって高域フィルタされる。この結果と
しての高域フィルタされた画像がメモリ16内に記録さ
れた低域フィルタされた画像から引かれ、帯域フィルタ
された画像が生成され、これもまたメモリ16内に記録
される。この引算は、画像内の対応する位置を持つ画素
の強度値を引くことによって遂行される。
ように帯域フィルタされる。この画像は、最初に、長方
形形状を使用して画像のたたみこみを行なうことによっ
て低域フィルタされる。この長方形形状の寸法として
は、例えば、2画素の垂直寸法および1画素の水平寸法
が用いられる。この低域フィルタされた画像のコピーが
メモリ16内に記録され、次に、DSP14によって、
この低域フィルタされた画像に関してもう一つのたたみ
こみ動作が遂行される。この第二番目のたたみこみ動作
においては、低域フィルタされた画像が、低域フィルタ
された画像を、例えば、25画素の垂直寸法および5画
素の水平寸法の寸法を持つ長方形形状を使用してたたみ
こみすることによって高域フィルタされる。この結果と
しての高域フィルタされた画像がメモリ16内に記録さ
れた低域フィルタされた画像から引かれ、帯域フィルタ
された画像が生成され、これもまたメモリ16内に記録
される。この引算は、画像内の対応する位置を持つ画素
の強度値を引くことによって遂行される。
【0033】画像の口を含む部分に関する帯域フィルタ
リング動作の遂行の後に、口の中央を強調するための形
態処理動作が遂行される。この形態処理動作は、帯域フ
ィルタされた画像を長方形形状を使用してたたみこみす
るステップから成る。この長方形形状は、例えば、1画
素の垂直寸法および8画素の水平寸法から成る寸法を持
つ。この形態処理動作の遂行の後に、形態処理された画
像が分析され、閾値が決定される。
リング動作の遂行の後に、口の中央を強調するための形
態処理動作が遂行される。この形態処理動作は、帯域フ
ィルタされた画像を長方形形状を使用してたたみこみす
るステップから成る。この長方形形状は、例えば、1画
素の垂直寸法および8画素の水平寸法から成る寸法を持
つ。この形態処理動作の遂行の後に、形態処理された画
像が分析され、閾値が決定される。
【0034】形態処理された画像の強度ヒストグラム
が、水平軸上に画素の強度の数が示され、垂直軸上に画
素数が示されるような方法にて作成される。前に述べた
ように、コネクティット要素のヒストグラムが、水平軸
上に閾値が示され、垂直軸上にコネクティット要素の数
が示されるような方法にて作成される。コネクティット
要素を示すヒストグラムの分析の後に、閾値が選択され
る。この閾値は、前に説明された訓練手続きを使用して
決定される。
が、水平軸上に画素の強度の数が示され、垂直軸上に画
素数が示されるような方法にて作成される。前に述べた
ように、コネクティット要素のヒストグラムが、水平軸
上に閾値が示され、垂直軸上にコネクティット要素の数
が示されるような方法にて作成される。コネクティット
要素を示すヒストグラムの分析の後に、閾値が選択され
る。この閾値は、前に説明された訓練手続きを使用して
決定される。
【0035】閾値がいったん選択されたら、形態処理さ
れた画像が、前に述べたような方法にて閾値処理され、
二進画像が生成される。この二進画像は、結果として、
口を識別する一群のコネクティット要素を与える。これ
らコネクティット要素は、口の中央を識別し、コネクテ
ィット要素の左端および右端は、口の左端および右端を
識別する。
れた画像が、前に述べたような方法にて閾値処理され、
二進画像が生成される。この二進画像は、結果として、
口を識別する一群のコネクティット要素を与える。これ
らコネクティット要素は、口の中央を識別し、コネクテ
ィット要素の左端および右端は、口の左端および右端を
識別する。
【0036】コネクティット要素を使用して口の中央の
識別を行なった後に、元の画像あるいは帯域フィルタさ
れた画像のこの部分が処理される。この画像の処理にお
いては、二進画像からのコネクティット要素によって識
別された口の中央を通る垂直断面が調べられる。この垂
直断面は、水平方向の中心の所に、あるいは、コネクテ
ィット要素の左端と右端によって識別される口の右端と
左端の間の中央位置に取られる。この断面は、5画素幅
程度のストリップを使用して取られる。このストリップ
内を垂直方向に移動したときのコントラストの変動ある
いは画素強度の変動が調べられる。(ストリップが5画
素幅であるときは、分析において、5画素の平均強度が
使用される)。強度の大きな変動が見られる場合は、単
純なセグメンテーションプロセスを使用して上唇および
下唇の両方の内側境界および外側境界が決定される。コ
ントラストの変動が比較的小さな場合は、垂直ストリッ
プが垂直断面の一群の記録されたプロファイルと比較さ
れる。強度の変動は、それら強度が前に述べた訓練手続
きを使用して決定される閾値T1 よりも大きな範囲で変
動する場合は大きいとみなされる。大きな変動は、典型
的には、探索中の唇に口紅が存在するような画像に見ら
れる。強度の変動が閾値T1 以下である場合は、プロフ
ァイル比較法が使用される。
識別を行なった後に、元の画像あるいは帯域フィルタさ
れた画像のこの部分が処理される。この画像の処理にお
いては、二進画像からのコネクティット要素によって識
別された口の中央を通る垂直断面が調べられる。この垂
直断面は、水平方向の中心の所に、あるいは、コネクテ
ィット要素の左端と右端によって識別される口の右端と
左端の間の中央位置に取られる。この断面は、5画素幅
程度のストリップを使用して取られる。このストリップ
内を垂直方向に移動したときのコントラストの変動ある
いは画素強度の変動が調べられる。(ストリップが5画
素幅であるときは、分析において、5画素の平均強度が
使用される)。強度の大きな変動が見られる場合は、単
純なセグメンテーションプロセスを使用して上唇および
下唇の両方の内側境界および外側境界が決定される。コ
ントラストの変動が比較的小さな場合は、垂直ストリッ
プが垂直断面の一群の記録されたプロファイルと比較さ
れる。強度の変動は、それら強度が前に述べた訓練手続
きを使用して決定される閾値T1 よりも大きな範囲で変
動する場合は大きいとみなされる。大きな変動は、典型
的には、探索中の唇に口紅が存在するような画像に見ら
れる。強度の変動が閾値T1 以下である場合は、プロフ
ァイル比較法が使用される。
【0037】垂直断面に沿っての強度の変動が閾値T1
よりも大きな場合は、セグメンテーション法が使用され
る。この方法は、単に、画素の強度を、この垂直断面に
沿って垂直方向に探索を移動しながら、閾値T2 と比較
するステップから成る。閾値T2 は、前に説明された訓
練手続きを使用して決定される。例えば、走査が下端か
ら上端に垂直方向に移動され、画素の強度が監視され
る。強度が閾値T1 を越えたときに、下側唇の外側端が
識別される。次に、走査が上向き方向に継続され、強度
が再び閾値を越えたところで、下側唇の内側端が識別さ
れる。走査が垂直方向に継続され、強度が閾値を越えた
ところで、上側唇の内側端が識別される。走査が垂直方
向に継続され、強度が閾値T1を越えたところで、上側
唇の外側端が識別され、走査が完了する。
よりも大きな場合は、セグメンテーション法が使用され
る。この方法は、単に、画素の強度を、この垂直断面に
沿って垂直方向に探索を移動しながら、閾値T2 と比較
するステップから成る。閾値T2 は、前に説明された訓
練手続きを使用して決定される。例えば、走査が下端か
ら上端に垂直方向に移動され、画素の強度が監視され
る。強度が閾値T1 を越えたときに、下側唇の外側端が
識別される。次に、走査が上向き方向に継続され、強度
が再び閾値を越えたところで、下側唇の内側端が識別さ
れる。走査が垂直方向に継続され、強度が閾値を越えた
ところで、上側唇の内側端が識別される。走査が垂直方
向に継続され、強度が閾値T1を越えたところで、上側
唇の外側端が識別され、走査が完了する。
【0038】プロファイル比較方法は、画像からの強度
プロファイルを記録されたプロファイルあるいは断面の
集成と比較し、最も近いマッチを検出するステップから
成る。いったん最も近いマッチが見つけられたら、記録
されたプロファイルによって識別された上側唇および下
側唇両方の内側端および外側端を使用して、調査中の画
像のこれらの位置が識別される。
プロファイルを記録されたプロファイルあるいは断面の
集成と比較し、最も近いマッチを検出するステップから
成る。いったん最も近いマッチが見つけられたら、記録
されたプロファイルによって識別された上側唇および下
側唇両方の内側端および外側端を使用して、調査中の画
像のこれらの位置が識別される。
【0039】図10および11は、調査中の強度プロフ
ァイルとの比較のために使用される記録されたプロファ
イルを示す。これらプロファイルは、画素強度と垂直位
置との関係を示す。最初に、比較ステップを遂行する前
に、調査中の画像から測定されたこれらプロファイル
が、記録されたプロファイルに対して使用された正規化
スケールにスケーリングされる。正規化は、前に決定さ
れた目の間の距離を使用してスケーリング係数を決定で
きるために簡単に遂行することができる。結果としての
強度プロファイルは、図10および11のプロファイル
と類似するものである。
ァイルとの比較のために使用される記録されたプロファ
イルを示す。これらプロファイルは、画素強度と垂直位
置との関係を示す。最初に、比較ステップを遂行する前
に、調査中の画像から測定されたこれらプロファイル
が、記録されたプロファイルに対して使用された正規化
スケールにスケーリングされる。正規化は、前に決定さ
れた目の間の距離を使用してスケーリング係数を決定で
きるために簡単に遂行することができる。結果としての
強度プロファイルは、図10および11のプロファイル
と類似するものである。
【0040】結果としてのプロファイルが記録されてい
るプロファイルと比較され、最良のマッチが検出され
る。この最良のマッチを検出するためには、強度プロフ
ァイル上の特性、例えば、最大および最小の点が使用さ
れる。比較のために記録および使用されるプロファイル
は、知られている画像を取り、これらを調査中の画像と
同一の方法にて処理することによって得られる。訓練画
像は、前に説明されたように、扱われている問題のため
に、ここでは、画像内の唇の位置を決定するために、適
当なものである必要がある。一つの完全な訓練セットを
提供するためには、これら画像は、調べられるべき画像
内に期待されるそれらと類似の照明および位置を持つべ
きであり、また、これら画像は、口紅が塗られている唇
を含む様々な唇形状を含むべきである。これら画像はま
た部分的に開かれた口、歯が見える口、および舌が見え
る口を持つ画像も含むべきである。ある近いマッチが結
果としてエラーを与えるような場合、つまり、画像内の
唇の位置が不正確に示されるような場合は、正しい唇位
置を持つ画像を、将来の比較のために、記録されたセッ
トのプロファイルに追加することが要望される。
るプロファイルと比較され、最良のマッチが検出され
る。この最良のマッチを検出するためには、強度プロフ
ァイル上の特性、例えば、最大および最小の点が使用さ
れる。比較のために記録および使用されるプロファイル
は、知られている画像を取り、これらを調査中の画像と
同一の方法にて処理することによって得られる。訓練画
像は、前に説明されたように、扱われている問題のため
に、ここでは、画像内の唇の位置を決定するために、適
当なものである必要がある。一つの完全な訓練セットを
提供するためには、これら画像は、調べられるべき画像
内に期待されるそれらと類似の照明および位置を持つべ
きであり、また、これら画像は、口紅が塗られている唇
を含む様々な唇形状を含むべきである。これら画像はま
た部分的に開かれた口、歯が見える口、および舌が見え
る口を持つ画像も含むべきである。ある近いマッチが結
果としてエラーを与えるような場合、つまり、画像内の
唇の位置が不正確に示されるような場合は、正しい唇位
置を持つ画像を、将来の比較のために、記録されたセッ
トのプロファイルに追加することが要望される。
【0041】この方法を使用することによって、口およ
び唇を6ポイントにて定義することができる。図12は
これを示す。ポイント100と102は、口の左端と右
端を定義する。ポイント104と106は、それぞれ、
上側唇の外側端と内側端を定義し、ポイント108と、
110は、それぞれ、下側唇の内側端と、外側端を定義
する。これら6ポイントを指定することによって、形態
処理法を採用する低域ビデオ通信において使用するため
の正確な位置決定を実現することができる。
び唇を6ポイントにて定義することができる。図12は
これを示す。ポイント100と102は、口の左端と右
端を定義する。ポイント104と106は、それぞれ、
上側唇の外側端と内側端を定義し、ポイント108と、
110は、それぞれ、下側唇の内側端と、外側端を定義
する。これら6ポイントを指定することによって、形態
処理法を採用する低域ビデオ通信において使用するため
の正確な位置決定を実現することができる。
【図1】本発明の一つの実施例の機能ブロック図を示
す。
す。
【図2】メモリ内に記録された画像を示す。
【図3】ある形状と複数の画素のたたみこみを示す。
【図4】画素強度のヒストグラムを示す。
【図5】画素のコネクティット要素のヒストグラムを示
す。
す。
【図6】閾値処理された画像内のコネクティット要素を
示す。
示す。
【図7】帯域フィルタリング、形態処理、および閾値処
理後の図2の画像を示す。
理後の図2の画像を示す。
【図8】候補の目と口の位置を示す。
【図9】最良のスコアを持つ目と口の組合せを示す。
【図10】唇の記録されたプロファイルを示す。
【図11】唇の記録されたプロファイルを示す。
【図12】口と唇の位置を識別するために使用される6
つの点を示す。
つの点を示す。
Claims (5)
- 【請求項1】 画像内の要素の位置を検出するための方
法であって、この方法が:画像を帯域フィルタリングす
ることによって帯域フィルタリングされた画像を生成す
るステップ;前記の帯域フィルタリングされた画像を形
態処理することによって強調された画像を生成するステ
ップ;前記の強調された画像を閾値処理することによっ
て複数のコネクティット要素を持つ二進画像を形成する
ステップ;および分類子を使用して要素に対応する少な
くとも一つのコネクティット要素を識別するステップを
含むことを特徴とする方法。 - 【請求項2】 前記の帯域フィルタリングするステップ
が、低域フィルタリングされた画像を生成するために、
画像を低域フィルタリングするステップ、高域フィルタ
リングされた画像を生成するために、低域フィルタリン
グされた画像を高域フィルタリングするステップ、およ
び低域フィルタリングされた画像から高域フィルタリン
グされた画像を引くことによって前記の帯域フィルタリ
ングされた画像を生成するステップを含むことを特徴と
する請求項2の方法。 - 【請求項3】 前記の分類子を使用するステップが、線
形分類子を使用するステップから成ることを特徴とする
請求項1の方法。 - 【請求項4】 前記の分類子を使用するステップが、ニ
ューラルネットワークを使用するステップから成ること
を特徴とする請求項1の方法。 - 【請求項5】 前記の帯域フィルタリングするステップ
が、画像を長方形形状を使用してたたみこみ処理するス
テップを含むことを特徴とする請求項1の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/494,900 US5805745A (en) | 1995-06-26 | 1995-06-26 | Method for locating a subject's lips in a facial image |
US08/494900 | 1995-06-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09102043A true JPH09102043A (ja) | 1997-04-15 |
Family
ID=23966420
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8165406A Pending JPH09102043A (ja) | 1995-06-26 | 1996-06-26 | 画像内の要素の位置検出 |
Country Status (6)
Country | Link |
---|---|
US (1) | US5805745A (ja) |
EP (1) | EP0751473B1 (ja) |
JP (1) | JPH09102043A (ja) |
KR (1) | KR100405846B1 (ja) |
CA (1) | CA2177639C (ja) |
DE (1) | DE69612700T2 (ja) |
Families Citing this family (124)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5960099A (en) * | 1997-02-25 | 1999-09-28 | Hayes, Jr.; Carl Douglas | System and method for creating a digitized likeness of persons |
US6031539A (en) * | 1997-03-10 | 2000-02-29 | Digital Equipment Corporation | Facial image method and apparatus for semi-automatically mapping a face on to a wireframe topology |
US6016148A (en) * | 1997-06-06 | 2000-01-18 | Digital Equipment Corporation | Automated mapping of facial images to animation wireframes topologies |
US5990901A (en) * | 1997-06-27 | 1999-11-23 | Microsoft Corporation | Model based image editing and correction |
US6009209A (en) * | 1997-06-27 | 1999-12-28 | Microsoft Corporation | Automated removal of red eye effect from a digital image |
US7738015B2 (en) | 1997-10-09 | 2010-06-15 | Fotonation Vision Limited | Red-eye filter method and apparatus |
US7352394B1 (en) | 1997-10-09 | 2008-04-01 | Fotonation Vision Limited | Image modification based on red-eye filter analysis |
US7630006B2 (en) | 1997-10-09 | 2009-12-08 | Fotonation Ireland Limited | Detecting red eye filter and apparatus using meta-data |
US7042505B1 (en) | 1997-10-09 | 2006-05-09 | Fotonation Ireland Ltd. | Red-eye filter method and apparatus |
US6160923A (en) * | 1997-11-05 | 2000-12-12 | Microsoft Corporation | User directed dust and compact anomaly remover from digital images |
US6266054B1 (en) | 1997-11-05 | 2001-07-24 | Microsoft Corporation | Automated removal of narrow, elongated distortions from a digital image |
US5940118A (en) * | 1997-12-22 | 1999-08-17 | Nortel Networks Corporation | System and method for steering directional microphones |
FR2782877B1 (fr) * | 1998-08-31 | 2000-10-13 | France Telecom | Systeme automatique de prise de son et d'images |
GB2341231A (en) * | 1998-09-05 | 2000-03-08 | Sharp Kk | Face detection in an image |
US7038715B1 (en) * | 1999-01-19 | 2006-05-02 | Texas Instruments Incorporated | Digital still camera with high-quality portrait mode |
US6597738B1 (en) * | 1999-02-01 | 2003-07-22 | Hyundai Curitel, Inc. | Motion descriptor generating apparatus by using accumulated motion histogram and a method therefor |
AU4016800A (en) * | 1999-03-18 | 2000-10-04 | Qualcomm Incorporated | Videophone with audio source tracking |
US6757666B1 (en) * | 1999-04-13 | 2004-06-29 | California Institute Of Technology | Locally connected neural network with improved feature vector |
US6487531B1 (en) | 1999-07-06 | 2002-11-26 | Carol A. Tosaya | Signal injection coupling into the human vocal tract for robust audible and inaudible voice recognition |
US6526161B1 (en) * | 1999-08-30 | 2003-02-25 | Koninklijke Philips Electronics N.V. | System and method for biometrics-based facial feature extraction |
JP4396873B2 (ja) | 1999-10-01 | 2010-01-13 | 株式会社資生堂 | 口紅又はアイシャドーの選択方法 |
JP3485508B2 (ja) * | 1999-10-26 | 2004-01-13 | 株式会社国際電気通信基礎技術研究所 | 顔画像伝送方法およびシステムならびに当該システムで用いられる顔画像送信装置および顔画像再生装置 |
US8036431B1 (en) * | 1999-10-29 | 2011-10-11 | Identix Incorporated | Portable apparatus for identification verification |
US7136528B2 (en) | 2000-02-11 | 2006-11-14 | Sony Corporation | System and method for editing digital images |
US7058903B1 (en) | 2000-02-11 | 2006-06-06 | Sony Corporation | Image database jog/shuttle search |
US7262778B1 (en) | 2000-02-11 | 2007-08-28 | Sony Corporation | Automatic color adjustment of a template design |
US6539354B1 (en) | 2000-03-24 | 2003-03-25 | Fluent Speech Technologies, Inc. | Methods and devices for producing and using synthetic visual speech based on natural coarticulation |
US6795068B1 (en) * | 2000-07-21 | 2004-09-21 | Sony Computer Entertainment Inc. | Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program |
US6728401B1 (en) | 2000-08-17 | 2004-04-27 | Viewahead Technology | Red-eye removal using color image processing |
US20020073143A1 (en) * | 2000-08-31 | 2002-06-13 | Edwards Eric D. | File archive and media transfer system with user notification |
US7079158B2 (en) * | 2000-08-31 | 2006-07-18 | Beautyriot.Com, Inc. | Virtual makeover system and method |
US7071914B1 (en) | 2000-09-01 | 2006-07-04 | Sony Computer Entertainment Inc. | User input device and method for interaction with graphic images |
US6664956B1 (en) | 2000-10-12 | 2003-12-16 | Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret A. S. | Method for generating a personalized 3-D face model |
US6731287B1 (en) | 2000-10-12 | 2004-05-04 | Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret A.S. | Method for animating a 3-D model of a face |
US7127081B1 (en) * | 2000-10-12 | 2006-10-24 | Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret, A.S. | Method for tracking motion of a face |
EP1229486A1 (en) * | 2001-01-31 | 2002-08-07 | GRETAG IMAGING Trading AG | Automatic image pattern detection |
US7197459B1 (en) | 2001-03-19 | 2007-03-27 | Amazon Technologies, Inc. | Hybrid machine/human computing arrangement |
US20030110038A1 (en) * | 2001-10-16 | 2003-06-12 | Rajeev Sharma | Multi-modal gender classification using support vector machines (SVMs) |
CA2359269A1 (en) * | 2001-10-17 | 2003-04-17 | Biodentity Systems Corporation | Face imaging system for recordal and automated identity confirmation |
DE50212936D1 (de) * | 2002-10-24 | 2008-12-04 | L 1 Identity Solutions Ag | Prüfung von Bildaufnahmen von Personen |
CA2509644A1 (en) | 2002-12-11 | 2004-06-24 | Nielsen Media Research, Inc. | Detecting a composition of an audience |
US7203338B2 (en) * | 2002-12-11 | 2007-04-10 | Nielsen Media Research, Inc. | Methods and apparatus to count people appearing in an image |
US7920723B2 (en) | 2005-11-18 | 2011-04-05 | Tessera Technologies Ireland Limited | Two stage detection for photographic eye artifacts |
US8254674B2 (en) | 2004-10-28 | 2012-08-28 | DigitalOptics Corporation Europe Limited | Analyzing partial face regions for red-eye detection in acquired digital images |
US7574016B2 (en) | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
US7970182B2 (en) | 2005-11-18 | 2011-06-28 | Tessera Technologies Ireland Limited | Two stage detection for photographic eye artifacts |
US7587085B2 (en) | 2004-10-28 | 2009-09-08 | Fotonation Vision Limited | Method and apparatus for red-eye detection in an acquired digital image |
US7689009B2 (en) | 2005-11-18 | 2010-03-30 | Fotonation Vision Ltd. | Two stage detection for photographic eye artifacts |
US7792970B2 (en) | 2005-06-17 | 2010-09-07 | Fotonation Vision Limited | Method for establishing a paired connection between media devices |
US8170294B2 (en) | 2006-11-10 | 2012-05-01 | DigitalOptics Corporation Europe Limited | Method of detecting redeye in a digital image |
US7536036B2 (en) | 2004-10-28 | 2009-05-19 | Fotonation Vision Limited | Method and apparatus for red-eye detection in an acquired digital image |
US8036458B2 (en) | 2007-11-08 | 2011-10-11 | DigitalOptics Corporation Europe Limited | Detecting redeye defects in digital images |
US8520093B2 (en) | 2003-08-05 | 2013-08-27 | DigitalOptics Corporation Europe Limited | Face tracker and partial face tracker for red-eye filter method and apparatus |
US9412007B2 (en) | 2003-08-05 | 2016-08-09 | Fotonation Limited | Partial face detector red-eye filter method and apparatus |
US20050031224A1 (en) * | 2003-08-05 | 2005-02-10 | Yury Prilutsky | Detecting red eye filter and apparatus using meta-data |
US8133115B2 (en) | 2003-10-22 | 2012-03-13 | Sony Computer Entertainment America Llc | System and method for recording and displaying a graphical path in a video game |
US20070147681A1 (en) * | 2003-11-21 | 2007-06-28 | Koninklijke Philips Electronics N.V. | System and method for extracting a face from a camera picture for representation in an electronic system |
US20050131744A1 (en) * | 2003-12-10 | 2005-06-16 | International Business Machines Corporation | Apparatus, system and method of automatically identifying participants at a videoconference who exhibit a particular expression |
US20050131697A1 (en) * | 2003-12-10 | 2005-06-16 | International Business Machines Corporation | Speech improving apparatus, system and method |
JP3966309B2 (ja) * | 2004-07-14 | 2007-08-29 | 松下電器産業株式会社 | 瞳孔検出装置および虹彩認証装置 |
US20060071933A1 (en) | 2004-10-06 | 2006-04-06 | Sony Computer Entertainment Inc. | Application binary interface for multi-pass shaders |
EP1805684A4 (en) * | 2004-10-12 | 2008-10-22 | Samsung Electronics Co Ltd | METHOD, MEDIUM AND DEVICE FOR PERSON-BASED PHOTOCLUSTERING IN A DIGITAL PHOTO ALBUM AND METHOD, MEDIUM AND DEVICE FOR CREATING A PERSON-BASED DIGITAL PHOTOALBUM |
ES2373366T3 (es) * | 2004-10-22 | 2012-02-02 | Shiseido Co., Ltd. | Procedimiento de maquillaje de labios. |
US8170897B1 (en) | 2004-11-16 | 2012-05-01 | Amazon Technologies, Inc. | Automated validation of results of human performance of tasks |
US7885844B1 (en) | 2004-11-16 | 2011-02-08 | Amazon Technologies, Inc. | Automatically generating task recommendations for human task performers |
US8005697B1 (en) | 2004-11-16 | 2011-08-23 | Amazon Technologies, Inc. | Performing automated price determination for tasks to be performed |
US20060106774A1 (en) * | 2004-11-16 | 2006-05-18 | Cohen Peter D | Using qualifications of users to facilitate user performance of tasks |
US7881957B1 (en) | 2004-11-16 | 2011-02-01 | Amazon Technologies, Inc. | Identifying tasks for task performers based on task subscriptions |
US7945469B2 (en) * | 2004-11-16 | 2011-05-17 | Amazon Technologies, Inc. | Providing an electronic marketplace to facilitate human performance of programmatically submitted tasks |
US8046250B1 (en) | 2004-11-16 | 2011-10-25 | Amazon Technologies, Inc. | Facilitating performance by task performers of language-specific tasks |
US7796827B2 (en) * | 2004-11-30 | 2010-09-14 | Hewlett-Packard Development Company, L.P. | Face enhancement in a digital video |
US7583287B2 (en) * | 2005-03-22 | 2009-09-01 | Microsoft Corp. | System and method for very low frame rate video streaming for face-to-face video conferencing |
US7659920B2 (en) * | 2005-03-22 | 2010-02-09 | Microsoft Corp. | System and method for very low frame rate teleconferencing employing image morphing and cropping |
US7636126B2 (en) | 2005-06-22 | 2009-12-22 | Sony Computer Entertainment Inc. | Delay matching in audio/video systems |
KR100647337B1 (ko) * | 2005-11-17 | 2006-11-23 | 삼성전자주식회사 | 지역 분할 템플릿을 이용한 카테고리 기반 사진 클러스터링방법 및 시스템 |
US7599577B2 (en) | 2005-11-18 | 2009-10-06 | Fotonation Vision Limited | Method and apparatus of correcting hybrid flash artifacts in digital images |
EP1987475A4 (en) | 2006-02-14 | 2009-04-22 | Fotonation Vision Ltd | AUTOMATIC DETECTION AND CORRECTION OF RED EYE FLASH DEFECTS |
JP4585471B2 (ja) * | 2006-03-07 | 2010-11-24 | 株式会社東芝 | 特徴点検出装置及びその方法 |
US8024211B1 (en) | 2006-03-31 | 2011-09-20 | Amazon Technologies, Inc. | Automatically generating assessments of qualification relevance and qualification issuer credibility |
US7880746B2 (en) | 2006-05-04 | 2011-02-01 | Sony Computer Entertainment Inc. | Bandwidth management through lighting control of a user environment via a display device |
US7965859B2 (en) | 2006-05-04 | 2011-06-21 | Sony Computer Entertainment Inc. | Lighting control of a user environment via a display device |
TWI323129B (en) * | 2006-05-17 | 2010-04-01 | Novatek Microelectronics Corp | Block truncation coding (btc) method and apparatus |
DE602007012246D1 (de) | 2006-06-12 | 2011-03-10 | Tessera Tech Ireland Ltd | Fortschritte bei der erweiterung der aam-techniken aus grauskalen- zu farbbildern |
US7899694B1 (en) | 2006-06-30 | 2011-03-01 | Amazon Technologies, Inc. | Generating solutions to problems via interactions with human responders |
US7945470B1 (en) | 2006-09-29 | 2011-05-17 | Amazon Technologies, Inc. | Facilitating performance of submitted tasks by mobile task performers |
US9697486B2 (en) * | 2006-09-29 | 2017-07-04 | Amazon Technologies, Inc. | Facilitating performance of tasks via distribution using third-party sites |
US8055067B2 (en) | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
WO2008109708A1 (en) | 2007-03-05 | 2008-09-12 | Fotonation Vision Limited | Red eye false positive filtering using face location and orientation |
US8503818B2 (en) | 2007-09-25 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Eye defect detection in international standards organization images |
US9026483B1 (en) | 2007-11-19 | 2015-05-05 | Amazon Technologies, Inc. | Automatic prediction of aspects of human task performance |
US8121888B1 (en) | 2007-12-14 | 2012-02-21 | Amazon Technologies, Inc. | Facilitating improvement of results of human performance of tasks |
US10438152B1 (en) | 2008-01-25 | 2019-10-08 | Amazon Technologies, Inc. | Managing performance of human review of media data |
US8212864B2 (en) | 2008-01-30 | 2012-07-03 | DigitalOptics Corporation Europe Limited | Methods and apparatuses for using image acquisition data to detect and correct image defects |
US8219432B1 (en) | 2008-06-10 | 2012-07-10 | Amazon Technologies, Inc. | Automatically controlling availability of tasks for performance by human users |
US8411963B2 (en) | 2008-08-08 | 2013-04-02 | The Nielsen Company (U.S.), Llc | Methods and apparatus to count persons in a monitored environment |
US8081254B2 (en) | 2008-08-14 | 2011-12-20 | DigitalOptics Corporation Europe Limited | In-camera based method of detecting defect eye with high accuracy |
US20100142755A1 (en) * | 2008-11-26 | 2010-06-10 | Perfect Shape Cosmetics, Inc. | Method, System, and Computer Program Product for Providing Cosmetic Application Instructions Using Arc Lines |
US8458010B1 (en) | 2009-10-13 | 2013-06-04 | Amazon Technologies, Inc. | Monitoring and enforcing price parity |
US10786736B2 (en) | 2010-05-11 | 2020-09-29 | Sony Interactive Entertainment LLC | Placement of user information in a game space |
US9118669B2 (en) | 2010-09-30 | 2015-08-25 | Alcatel Lucent | Method and apparatus for voice signature authentication |
US8961315B1 (en) | 2011-06-28 | 2015-02-24 | Amazon Technologies, Inc. | Providing tasks to users during electronic game play |
US9342817B2 (en) | 2011-07-07 | 2016-05-17 | Sony Interactive Entertainment LLC | Auto-creating groups for sharing photos |
US8620088B2 (en) | 2011-08-31 | 2013-12-31 | The Nielsen Company (Us), Llc | Methods and apparatus to count people in images |
US9202138B2 (en) | 2012-10-04 | 2015-12-01 | Adobe Systems Incorporated | Adjusting a contour by a shape model |
US9158963B2 (en) | 2012-10-04 | 2015-10-13 | Adobe Systems Incorporated | Fitting contours to features |
US9076270B2 (en) | 2013-05-14 | 2015-07-07 | Google Inc. | Generating compositions |
KR102169523B1 (ko) * | 2013-05-31 | 2020-10-23 | 삼성전자 주식회사 | 디스플레이장치 및 그 제어방법 |
US10438225B1 (en) | 2013-12-18 | 2019-10-08 | Amazon Technologies, Inc. | Game-based automated agent detection |
US9985943B1 (en) | 2013-12-18 | 2018-05-29 | Amazon Technologies, Inc. | Automated agent detection using multiple factors |
TWI536279B (zh) * | 2015-04-22 | 2016-06-01 | 緯創資通股份有限公司 | 人眼偵測方法及系統 |
WO2021155237A2 (en) | 2020-01-31 | 2021-08-05 | L'oreal | Apparatus and system for dispensing cosmetic material |
US11900434B2 (en) | 2020-01-31 | 2024-02-13 | L'oréal | Ecosystem for dispensing personalized foundation |
US11711638B2 (en) | 2020-06-29 | 2023-07-25 | The Nielsen Company (Us), Llc | Audience monitoring systems and related methods |
FR3122072A1 (fr) | 2021-04-26 | 2022-10-28 | L'oreal | Système compartimenté intelligent pour dispositif de distribution de produit cosmétique |
FR3122071A1 (fr) | 2021-04-26 | 2022-10-28 | L'oreal | Système distant de consultation de beauté |
WO2022162464A1 (en) | 2021-01-29 | 2022-08-04 | L'oreal | Smart compartment system for cosmetic dispensing device |
WO2022162468A1 (en) | 2021-01-29 | 2022-08-04 | L'oreal | Remote beauty consultation system |
US11860704B2 (en) | 2021-08-16 | 2024-01-02 | The Nielsen Company (Us), Llc | Methods and apparatus to determine user presence |
WO2023099960A1 (en) | 2021-11-30 | 2023-06-08 | L'oreal | Cosmetic application design experience systems, devices, and methods |
FR3133257A1 (fr) | 2022-03-04 | 2023-09-08 | L'oreal | Systèmes, dispositifs et procédés d'expérience pour la conception d'applications cosmétiques |
US11758223B2 (en) | 2021-12-23 | 2023-09-12 | The Nielsen Company (Us), Llc | Apparatus, systems, and methods for user presence detection for audience monitoring |
FR3133253B1 (fr) | 2022-03-04 | 2024-03-15 | Oreal | systèmes, dispositifs et procédés incluant la ludification de roue de couleurs |
FR3133258A1 (fr) | 2022-03-04 | 2023-09-08 | L'oreal | systèmes, dispositifs et procÉdÉs pour optimiser un processus de fabrication cosmÉtique |
US12088882B2 (en) | 2022-08-26 | 2024-09-10 | The Nielsen Company (Us), Llc | Systems, apparatus, and related methods to estimate audience exposure based on engagement level |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4791675A (en) * | 1985-12-31 | 1988-12-13 | Schlumberger Systems And Services, Inc. | VSP Connectivity pattern recognition system |
US4873567A (en) * | 1987-08-13 | 1989-10-10 | U.S. Philips Corporation | Extended horizontal resolution of luminance and chrominance in a high definition television system |
JPH01158579A (ja) * | 1987-09-09 | 1989-06-21 | Aisin Seiki Co Ltd | 像認識装置 |
US4975969A (en) * | 1987-10-22 | 1990-12-04 | Peter Tal | Method and apparatus for uniquely identifying individuals by particular physical characteristics and security system utilizing the same |
US5263096A (en) * | 1991-04-01 | 1993-11-16 | California Institute Of Technology | Opto-electronic morphological processor |
US5179419A (en) * | 1991-11-22 | 1993-01-12 | At&T Bell Laboratories | Methods of detecting, classifying and quantifying defects in optical fiber end faces |
US5450504A (en) * | 1992-05-19 | 1995-09-12 | Calia; James | Method for finding a most likely matching of a target facial image in a data base of facial images |
US5557686A (en) * | 1993-01-13 | 1996-09-17 | University Of Alabama | Method and apparatus for verification of a computer user's identification, based on keystroke characteristics |
-
1995
- 1995-06-26 US US08/494,900 patent/US5805745A/en not_active Expired - Lifetime
-
1996
- 1996-05-29 CA CA002177639A patent/CA2177639C/en not_active Expired - Fee Related
- 1996-06-18 EP EP96304512A patent/EP0751473B1/en not_active Expired - Lifetime
- 1996-06-18 DE DE69612700T patent/DE69612700T2/de not_active Expired - Lifetime
- 1996-06-24 KR KR1019960023167A patent/KR100405846B1/ko not_active IP Right Cessation
- 1996-06-26 JP JP8165406A patent/JPH09102043A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
EP0751473B1 (en) | 2001-05-09 |
KR970002751A (ko) | 1997-01-28 |
CA2177639A1 (en) | 1996-12-27 |
CA2177639C (en) | 2000-05-23 |
KR100405846B1 (ko) | 2004-02-19 |
EP0751473A1 (en) | 1997-01-02 |
DE69612700D1 (de) | 2001-06-13 |
DE69612700T2 (de) | 2002-01-31 |
US5805745A (en) | 1998-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH09102043A (ja) | 画像内の要素の位置検出 | |
US7099510B2 (en) | Method and system for object detection in digital images | |
US5625704A (en) | Speaker recognition using spatiotemporal cues | |
US7035461B2 (en) | Method for detecting objects in digital images | |
EP1271394A2 (en) | Method for automatically locating eyes in an image | |
JP4251719B2 (ja) | 複数人物が存在する場合の人間の顔のロバスト追跡システム | |
US7092554B2 (en) | Method for detecting eye and mouth positions in a digital image | |
CA2236082C (en) | Method and apparatus for detecting eye location in an image | |
US6151403A (en) | Method for automatic detection of human eyes in digital images | |
US7369687B2 (en) | Method for extracting face position, program for causing computer to execute the method for extracting face position and apparatus for extracting face position | |
US7970212B2 (en) | Method for automatic detection and classification of objects and patterns in low resolution environments | |
EP1229493A2 (en) | Multi-mode digital image processing method for detecting eyes | |
EP1970859B1 (en) | Detecting method and detecting system for positions of face parts | |
EP1217572A2 (en) | Digital image processing method and computer program product for detecting human irises in an image | |
US20080193020A1 (en) | Method for Facial Features Detection | |
CN111401324A (zh) | 图像质量评估方法、装置、存储介质及电子设备 | |
CN107330371A (zh) | 3d脸部模型的脸部表情的获取方法、装置和存储装置 | |
CN107368778A (zh) | 人脸表情的捕捉方法、装置及存储装置 | |
KR20010103631A (ko) | 생물 측정학-기반 얼굴 특징 추출을 위한 시스템 및 방법 | |
CN113449606B (zh) | 一种目标对象识别方法、装置、计算机设备及存储介质 | |
Espinal et al. | Wavelet-based fractal signature analysis for automatic target recognition | |
CN110110637A (zh) | 一种人脸皮肤皱纹自动识别和皱纹严重程度自动分级的方法 | |
CN109190456B (zh) | 基于聚合通道特征和灰度共生矩阵的多特征融合俯视行人检测方法 | |
CN111523344A (zh) | 人体活体检测系统及方法 | |
CN116342519A (zh) | 一种基于机器学习的图像处理方法 |