JP3938257B2 - 顔のような領域を検出する方法および装置、ならびに観察者トラッキングディスプレイ - Google Patents
顔のような領域を検出する方法および装置、ならびに観察者トラッキングディスプレイ Download PDFInfo
- Publication number
- JP3938257B2 JP3938257B2 JP01363499A JP1363499A JP3938257B2 JP 3938257 B2 JP3938257 B2 JP 3938257B2 JP 01363499 A JP01363499 A JP 01363499A JP 1363499 A JP1363499 A JP 1363499A JP 3938257 B2 JP3938257 B2 JP 3938257B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- image
- saturation
- window
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Description
【発明の属する技術分野】
本発明は、カラー画像の顔のような(face−like)領域を検出するための方法および装置に関する。このような方法は、例えば、観察者トラッキング自動立体ディスプレイと関連し得る画像トラッキングシステムの初期化ステージで、画像内の顔を検出し、ターゲット画像をキャプチャするための他の方法と関連して使用され得る。このような方法および装置は、例えば、皮膚の色の検出、顔の検出および認識、安全監視、ビデオおよび画像圧縮、ビデオ会議、マルチメディアデータベース検索、ならびにコンピュータゲームにおいて広範囲に応用される。
【0002】
本発明はまた、自動立体型の観察者トラッキングディスプレイに関する。
【0003】
【従来の技術】
自動立体ディスプレイは、ビューアが、2つの視野ウィンドウにおいて、目でこのようなディスプレイを観察することによって、立体対を形成する2つの個別の画像を見ることを可能にする。このようなディスプレイの例は、欧州特許第0602934号、欧州特許第0656555号、欧州特許第0708351号、欧州特許第0726482号、および欧州特許第0829743号に開示されている。添付の図面の図1は、公知のタイプの観察者トラッキング自動立体ディスプレイの例を示す。
【0004】
ディスプレイは、トラッキングシステム2と協働するディスプレイシステム1を有する。トラッキングシステム2は、センサ信号をトラッキングプロセッサ4に与えるトラッキングセンサ3を有する。トラッキングプロセッサ4は、センサ信号から観察者位置データ信号を得、観察者位置データ信号は、ディスプレイシステム1のディスプレイ制御プロセッサ5に与えられる。プロセッサ5は、位置データ信号をウィンドウ操縦信号に変換し、これをトラッキング機能を備えた(tracked)3Dディスプレイ7の操縦機構6に与える。このように、観察者の目に対する視野ウィンドウは、観察者の頭の動きに従うように操縦され、動作範囲内で、観察者の目を適切な視野ウィンドウ内に維持する。
【0005】
欧州特許第0877274号および英国特許第2324428号は、観察者トラッキング自動立体ディスプレイ用の、待ち時間が短く、更新(update)周波数が高く、および測定精度が適切な観察者ビデオトラッキングシステムを開示する。添付の図面の図2は、システムの一例を示す。このシステムは、トラッキングセンサ3が、60Hzのフィールドレートで動作するSony XC999 NTSCビデオカメラを有し、トラッキングプロセッサ4にマウス8が設けられ、プロセッサ4が、150Mhzで動作するR4400プロセッサならびにカメラ3によってキャプチャされた各フィールドについての640×240絵素(画素)の解像度を有するビデオディジタイザおよびフレームストアが設けられたIndyシリーズのシリコングラフィックスエントリーレベルマシンを有する点で、添付の図面の図1に示すシステムと異なる。カメラ3は、ディスプレイ7の上部に配置され、ディスプレイの前に座っている観察者の方を向いている。観察者とカメラ3との通常の距離は、約0.85メートルであり、この距離において、観察者は、水平方向すなわちX方向に約450mm内で、運動の自由度を有する。カメラによって形成される画像内の2つの画素間の距離は、X方向およびY方向のそれぞれにおいて約0.67mmおよび1.21mmである。Y解像度は、各インターレースされたフィールドが個別に使用されるため、半分になる。
【0006】
添付の図面の図3は、プロセッサ4によって行われるトラッキング方法を一般的な用語で示す。この方法は、初期化ステージ9に続いてトラッキングステージ10を含む。初期化ステージ9では、ターゲット画像または「テンプレート」は、カメラ3からの画像の一部を格納することによってキャプチャされる。ターゲット画像は、一般に、添付の図面の図4に参照符号11で示す観察者の目の領域を含む。ターゲット画像またはテンプレート11がうまくキャプチャされるとすぐに、観察者トラッキングがトラッキングステージ10において行われる。
【0007】
グローバルターゲットまたはテンプレート検索はステップ12で行われ、カメラ3によって生成される全画像内のターゲット画像の位置を検出する。ターゲット画像が見いだされると、動き検出はステップ13で行われ、その後ローカルターゲットまたはテンプレート検索がステップ14で行われる。テンプレートマッチングステップ12および14は、テンプレート内のターゲット画像と、テンプレートが上に重ねられた各サブセクションとを相関させることによって行われる。最良の相関値は、所定の閾値と比較され、ステップ15でトラッキングが失われたたどうかをチェックする。トラッキングが失われた場合、制御は、グローバルテンプレートマッチングステップ12に戻る。トラッキングが失われていなければ、制御はステップ13に戻る。
【0008】
動き検出13およびローカルテンプレートマッチング14は、トラッキングループを形成し、トラッキングループは、トラッキングが維持される限り行われる。動き検出ステップは、差分法(differential method)によって位置データを提供する。差分法は、連続したフィールド間のターゲット画像の動きを決定し、これを先のフィールドに関して前ステップにおけるローカルテンプレートマッチングで見いだされた位置に加える。
【0009】
初期化ステージ9は、トラッキングが始まる前に、観察者のターゲット画像またはテンプレートを得る。欧州特許第0877274号および英国特許第2324428号に開示される初期化ステージは、対話型方法を用いる。対話型方法において、ディスプレイ7は、入力されるビデオ画像を表示し、例えば、プロセッサ4において実現される画像生成器は、添付の図面の図5に示すように、ボーダー画像またはグラフィカルガイド16をディスプレイ上に生成する。例えば、マウス8の一部を形成するユーザ作動可能な制御は、ボーダー画像内の画像領域のキャプチャを手動によって駆動することを可能にする。
【0010】
観察者は、必要なテンプレートサイズであるボーダー画像と共に、ディスプレイ7上の自分自身の画像を観察する。観察者は、自分の両目の間の中間点をグラフィカルガイド16の中央線に合わせ、例えば、マウスボタンまたはキーボードのキーを押すことによって、システムがテンプレートをキャプチャするように作動させる。あるいは、この位置合わせは、マウス8を用いてグラフィカルガイド16を所望の場所までドラッグすることによっても成し遂げられ得る。
【0011】
このような対話型テンプレートキャプチャ技術の利点は、観察者が、受け入れ可能な位置合わせ精度でテンプレートを選択することが可能なことである。これには、人の顔の認識および目の領域などの目的の画像領域の選択が含まれる。人の視覚にとってはこのプロセスは簡単なことであるが、このようなテンプレートキャプチャは、様々な照明条件下で異なる年齢、性別、目の形、および皮膚の色を有する可能な限りすべてのタイプの人々が与えられると、コンピュータには困難である。
【0012】
Suwaら、「A Video Quality Improvement Technique for Video Phone and Video Conference Terminal」、IEEE Workshop on Visual Signal Processing and Communications、1993年9月21から22日、オーストラリア、メルボルンは、皮膚の色の統計学的モデルに基づいて顔の領域を検出する技術を開示している。この技術は、顔の領域の色および輝度が、規定された領域に存在し、顔がビデオフレーム内の所定量の空間を占有することを想定している。色が領域内にあり、サイズが公知のサイズ内にある画素からなる色領域を検索することによって、顔領域が見いだされ得る。しかし、皮膚の色に関する色空間範囲は、光源、方向および輝度の変化によって変化する。色空間はまた、異なる皮膚の色についても変化する。従って、この技術は、各特定の応用およびシステムに対して、皮膚の色空間を較正することを必要するため、応用が制限される。
【0013】
Swainら、「Color Indexing」、International Journal of Computer Vision、7:1、11から32頁、1991年は、多色物体の色ヒストグラムを用いて、大きなモデルのデータベース内に色インデクシングを提供することを開示している。次に、例えば、Sakoら、「Real−Time Facial−Feature Tracking based on Matching Techniquesand its Applications」、12 IAPR International Conference on Patent Recognitionの議事録、エルサレム、1994年10月6から13日、II巻、320から324頁によって開示されるように、顔の領域などの既知の物体の位置を見いだすために「ヒストグラムバックプロジェクション」として公知の技術が用いられる。しかし、この技術は、顔の色ヒストグラムなどの所望のターゲットに関する知識を必要とし、ターゲット画像の充分な画素が、画像の他の部分の画素とは異なる場合にのみ作用する。従って、制御された背景を提供することが必要とされ、照明の変化に対応するさらなる技術が必要である。
【0014】
Chenら、「Face Detection by Fuzzy Pattern Matching」、IEEE(0−8186−7042−8)、591から596頁、1995年は、「皮膚の色分布関数」(SKDF)として公知のモデルを用いた皮膚の色の抽出に主として基づくファジーパターンマッチング方法を使用して、入力画像内の顔のような領域を検出する技術を開示している。この技術は、まず、Wyszechiら、「Color Science」、John Wiley & Sons Inc.1982年に開示されるように、RGBをファーンスワース色空間に変換する。SCDFは、人の顔を含むサンプル画像の大きなセットを集め、人間のビューアによって画像内の皮膚領域を選択することによって構築される。次に、皮膚領域に現れる色空間の各色の周波数(frequency)を調べるために、学習プログラムが適用される。次に、SCDFは統一され、色がどの程度皮膚の色と同じであるかを見積もるために用いられる。領域が皮膚領域の可能性が高いとして抽出されると、その領域は、それぞれが10×12個の正方形セルを含む予め確立された顔の形状モデルに基づいてさらに分析される。しかし、この技術の問題点は、SCDFが、照明条件の変化によって変化し得ることである。
【0015】
【発明が解決しようとする課題】
上記のような従来技術では、様々な照明条件下で異なる年齢、性別、目の形、および皮膚の色を有する様々なのタイプの人々について、カラー画像における顔の候補を見いだすことは困難であった。
【0016】
よって、本発明の目的は、広範囲な照明条件において、カラー較正の必要なく適用可能で、公知の技術よりも信頼性の高い且つ計算要件が大幅に減少された簡便な方法および装置を提供することである。また、異なる年齢、性別、および皮膚の色の人々の画像における顔の候補を認識することができ、例えば明るい色の眼鏡をかけている場合にも対応できる方法および装置を提供することである。さらに、非常に効率的であり、リアルタイムで実現され、低コストの商業的な応用に使用できる方法および装置を提供することである。また、本発明の他の目的は、上記のような顔を検出する装置を含む観察者トラッキングディスプレイを提供することである。
【0017】
【課題を解決するための手段】
本発明の第1の局面によると、カラー画像の顔のような領域を検出する方法であって、彩度を平均化することによって該カラー画像の解像度を低下させるステップであって、解像度が低下した画像を形成するステップと、所定の形状を有する該解像度が低下した画像の領域であって、該所定の形状を取り囲む該解像度が低下した画像の部分の彩度とは実質的に異なる実質的に均一な彩度を有する該解像度が低下した画像の領域を検索するステップとを包含する方法が提供される。
【0018】
前記カラー画像が複数の絵素を含み、前記解像度が、前記所定の形状が2から3個の解像度が低下した絵素にわたるように低下されてもよい。
【0019】
前記カラー画像が、M×N絵素の長方形アレイを含み、前記解像度が低下した画像が、(M/m)×(N/n)絵素を含み、それぞれが、該カラー画像のm×n絵素に対応し、該解像度が低下した画像の各絵素の彩度が、以下の式
【0020】
【数2】
【0021】
で表されてもよく、ここで、f(i,j)が、該m×n絵素(32)のi番目の列およびj番目の行の絵素の彩度である。前記方法は、ストアに前記彩度を格納するステップを含んでいてもよい。
【0022】
前記解像度が低下した絵素のそれぞれの彩度と、少なくとも1つの隣接した解像度が低下した絵素の彩度とを比較することによって、該解像度が低下した絵素のそれぞれに均一値が割り当てられてもよい。
【0023】
以下の式が満たされる場合、各均一値に第1の値が割り当てられ、
(max(P)−min(P))/max(P)≦T
ここで、max(P)およびmax(P)が、それぞれ、前記解像度が低下した絵素および前記または各隣接した絵素の彩度の最大および最小であり、Tが閾値であり、該式が満たされない場合、該第1の値とは異なる第2の値が該各均一値に割り当てられる。Tが実質的に0.15に等しくてもよい。
【0024】
前記または各隣接した解像度が低下した絵素には均一値が割り当てられず、各均一値が前記ストアに格納されてもよい。
【0025】
前記所定の形状が2または3個の解像度が低下した絵素にわたるように、前記解像度が低下され、前記方法が、さらに、前記第1の値の均一値が、1つの解像度が低下した絵素、2つの垂直または水平に隣接した解像度が低下した絵素、および絵素の長方形の2×2アレイのいずれか1つに割り当てられ、前記第2の値の均一値が、周囲の解像度が低下した絵素のそれぞれに割り当てられるとき、顔のような領域の検出を示すことを含んでいてもよい。
【0026】
前記または各隣接した解像度が低下した絵素には均一値が割り当てられず、各均一値が前記ストアに格納され、検出が、前記第1および第2の値とは異なる第3の値を前記ストアに格納することによって示されてもよい。
【0027】
前記検索ステップが、前記解像度低下を繰り返し、前記カラー画像絵素に対して前記解像度が低下した絵素がシフトした状態で、少なくとも1回は検索をすることを含んでいてもよい。
【0028】
彩度が、以下の式で、赤色、緑色および青色成分から得られ(21)、
(max(R,G,B)−min(R,G,B))/max(R,G,B)
ここで、max(R、G、B)およびmin(R、G、B)が、それぞれ、該赤色、緑色および青色成分の最大値および最小値である。
【0029】
前記方法は、前記カラー画像をキャプチャするステップを含んでいてもよい。
【0030】
前記キャプチャステップは、前記カラー画像が、ビデオカメラによってキャプチャされることを含み、前記解像度低下ステップおよび検索ステップが、該ビデオカメラからの異なるビデオフィールドまたはフレームに対して繰り返されてよい。
【0031】
前記キャプチャステップにおいて、第1のカラー画像が、顔の位置の予想範囲を照射している間にキャプチャされ、第2のカラー画像が、周辺光を用いてキャプチャされ、該第2のカラー画像が該第1のカラー画像から減算されてカラー画像を形成してもよい。
【0032】
本発明の第2の局面によると、カラー画像の顔のような領域を検出するための装置であって、彩度を平均化することによって該カラー画像の解像度を低下させ、解像度が低下した画像を形成し、所定の形状を有する該解像度が低下した画像の領域であって、該所定の形状を取り囲む該解像度が低下した画像の部分の彩度とは実質的に異なる実質的に均一な彩度を有する該解像度が低下した画像の領域を検索するように配置されているデータプロセッサを含む装置が提供される。
【0033】
本発明の第3の局面によると、本発明の第2の局面による装置を含む観察者トラッキングディスプレイが提供される。
【0034】
以下作用について説明する。
【0035】
人の皮膚は、均一な彩度を有する傾向があることは公知である。本発明の方法および装置は、この特性を利用し、カラー画像における顔の候補を見いだす効果的な方法を提供する。広範囲な照明条件は、カラー較正の必要なく適応されるので、この技術は、公知の技術よりもより信頼があり、便利である。画像の彩度の解像度を低下させることによって、計算要件は大幅に減少し、比較的簡単な方法が使用され得る。平均化によって、顔領域の彩度の均一性が向上するので、この技術は、異なる年齢、性別、および皮膚の色の人々の画像における顔の候補を認識することができ、明るい色の眼鏡をかけている場合にも対応できる。この技術は非常に効率的であるため、リアルタイムで実現され、低コストの商業的な応用に使用され得る。
【0036】
この技術は、欧州特許第0877274号および英国特許第2324428号に開示されている画像トラッキングシステムに関する添付の図面の図3に示す初期ステージ9において使用され得る。さらに、この技術は、例えば、米国特許第5164992号、米国特許第5012522号、Turkら、「Eigen faces for Recognition」、Journal 1 of Cognitive Neuroscience、3巻1号、70から86頁、1991年、Yuilleら、「Feature Extraction from Faces using Deformable Templates」、International Journal of Computer Vision、8(2)、99から111頁、1992年、およびYangら、Human Face Detection in Complex Background」、Pattern Recognition,27巻1号、53から63頁、1994年に開示されているように、2ステージの顔検出および認識技術の第1の部分として使用され得る。このような2ステージ技術において、第1のステージは、顔のおよその位置を見つけだし、第2のステージは、各候補の顔領域をさらに分析し、顔の存在を確認し、目、鼻および唇などの正確な顔だちを抽出する。第1のステージは、高い精度を必要としないので、迅速なアルゴリズムで実現され得る。第2のステージで分析されなければならない画像領域の数は、第1のステージで限定される。これは有利である。なぜなら、第2のステージは、一般に、より複雑なアルゴリズムを必要とするため、より計算負荷が高い(computing−intensive)からである。
【0037】
【発明の実施の形態】
本発明を添付の図面を参照しながら実施例を用いてさらに説明する。尚、図面全体にわたって、同様の参照符号は同様の部分を指す。
【0038】
図6は、画素化カラー画像の顔のような領域をビデオ画像シーケンスから自動的に検出および見い出す方法を流れ図で示す。ビデオ画像シーケンスは、例えば、上記で図2を参照しながら記載したタイプのビデオカメラによってリアルタイムで提供され得る。方法は、図3に示す初期化ステージ9の一部としてリアルタイムで動作し得る。
【0039】
ステップ20において、赤、緑、青(RGB)フォーマットの最新のディジタル画像が得られる。例えば、このステップは、ビデオカメラからのビデオデータの最新フィールドをフィールドストアに格納することを含み得る。ステップ21において、ビデオ画像は、RGBフォーマットからHSVフォーマットに変換され、各画素の彩度を得る。実際には、ステップ21においてS成分のみを得るだけで充分であり、このS成分は、フィールドストア内でRGB画素データまたはその1つの成分を上書きし、メモリ要件を最小にするために用いられ得る。
【0040】
RGBフォーマットは、カメラセンサおよびディスプレイ蛍光体が作用する様式から生じるハードウェア指向の色方式である。HSVフォーマットは、色相彩度輝度(HSI)および色相明度彩度(HLS)を含むいくつかのフォーマットの1つであり、色合い、陰、およびトーンの概念により密接に関連する。HSVフォーマットにおいて、色相は、光の波長(例えば、赤色と黄色との間の区別)によって説明される色を示し、彩度は、存在する色の量(例えば、赤色およびピンク色との間の区別)、ならびに明度、輝度または値は、光の量(例えば、暗い赤色と明るい赤色との間、または暗い灰色と明るい灰色との間の区別)を示す。これらの値がプロットされ得る「空間」は、例えば、図7に示すように、円錐形もしくは六角錐形またはダブルコーンとして示され得る。ここで、円錐軸は、黒から白への中間色の進行であり、軸からの距離は彩度を示し、軸の周りの方向または角度は色相を示す。
【0041】
人の皮膚の色は、血液(赤色)およびメラニン(黄色、茶色)の組合せによって形成される。皮膚の色は、これらの2つの極端な色相間に存在し、いくぶんか飽和しているが、極端に飽和してはいない。人の顔の彩度成分は、比較的均一である。
【0042】
ビデオ画像データをRGBフォーマットからHSV、HSIまたはHLSフォーマットに変換するためのいくつかの技術が存在する。彩度成分を抽出する任意の技術が用いられ得る。例えば、変換は、彩度成分Sに対して、以下の式に従って行われ得る。
max(R,G,B)=0のとき、S=0
max(R,G,B)が0でないとき、
S=(max(R,G,B)−min(R,G,B))/max(R,G,B)
【0043】
変換ステップ21の次に、彩度成分の空間画像解像度は、ステップ22における平均化によって低下する。図2を参照しながら上述したように、ディスプレイからの観察者の顔のおよその距離は、各ビデオ画像における顔のおよそのサイズが分かるように既知である。解像度は、大人の観察者の顔が、図6に示す各寸法において、約2から3画素を占有するように低下する。以下、これを成し遂げる技術をさらに詳細に記載する。
【0044】
ステップ23は、ステップ22からの解像度が低下した画像において、異なる彩度を有する解像度が低下した画素の領域によって取り囲まれた、所定のサイズおよび形状の均一な彩度を有する領域または「ブロブ(blobs)」を検出する。これを成し遂げる技術についても以下さらに詳細に記載する。ステップ24は、顔の候補または顔のような領域が見いだされたかどうかを検出する。見いだされなかった場合には、ステップ20から24が繰り返される。ステップ24が少なくとも1つの候補が見いだされたことを確認すると、ステップ23で検出された均一なブロブまたは各均一なブロブの位置がステップ25で出力される。
【0045】
図8は、画像解像度の低下ステップ22をさらに詳細に示す。図8(a)の参照符号30は、ステップ20に与えられる画像の画素構造を示す。空間解像度は、M×N個の正方形または長方形画素の規則正しい長方形アレイとして示す。空間解像度は、平均化によって低下し、図8(b)の参照符号31で示す(M/m)×(N/n)画素のアレイを得る。画素30のアレイは、それぞれが構造30のm×n画素を含む、画素32の「ウィンドウ」または長方形ブロックに効果的に分割される。画素のS値は、f(i,j)(0≦i<mおよび0≦j<nの場合)として図8に示す。ウィンドウの平均彩度値Pは、以下の式で計算される。
【0046】
【数3】
【0047】
図面に示す実施態様において、空間解像度の低下は、大人の観察者の顔が、各寸法における解像度が低下した画素の約2から3個を占有するようになる。
【0048】
ステップ23は、均一状態または値Uを解像度が低下したそれぞれの画素に割当て、顔のような領域を示す均一値のパターンを検出することを含む。均一値は、画素およびその近傍の彩度に応じて、1または0である。図9(a)は、平均化された彩度値P0を有する画素を示す(参照符号35)。図9(b)に参照符号36で示す彩度値P0の均一値Uは、P0および3つの近傍画素の平均化された彩度値P1、P2およびP3から計算される。均一値の割当ては、左上の画素37から始まり、一番上の行の終わりから2番目の画素38に均一値が割り当てられるまで左から右に進む。このプロセスは、各行について上から下へと終わりから2番目の行まで繰り返される。このように画素を「走査」し、均一値が計算された画素の右および下の近傍画素を用いることによって、メモリ容量が効率的に使用され得るようにストアに上書きすることによって、平均彩度値Pを均一値Uで置き換えることが可能であり、均一値のためにさらにメモリ容量を提供する必要はない。
【0049】
均一状態Uは、以下のように計算される。
(fmax−fmin)/fmax≦Tのとき、U=1
(fmax−fmin)/fmax>Tのとき、U=0
ここで、Tは、例えば、典型的な値0.15を有する所定の閾値、fmaxは、P0、P1、P2、およびP3の最大値であり、fminは、P0、P1、P2、およびP3の最小値である。
【0050】
均一値の割当てが完了すると、アレイ36は、解像度が減少した画素の彩度の均一を示す0および1のパターンを含む。ステップ23は、顔のような領域を検出するために0および1の特定のパターンを探す。図10は、均一値の4つのパターンおよびそれらのパターンに対応する、ビデオ画像内の顔候補のような画素彩度パターンの一例を示す。図10は、均一ブロブを参照符号40で示す。ここで、暗い領域は、顔のような領域を示すための充分な均一性を有する平均化された彩度値を示す。周りの明るい領域または正方形は、均一な彩度画素を取り囲み、実質的に異なる彩度を有する領域を示す。均一値の対応するパターンは、参照符号41で示され、均一値0を有する画素ロケーションで完全に取り囲まれている、均一値1を有する画素ロケーションを含む。
【0051】
同様に、図10は、他の顔のような領域を参照符号42で示し、対応する均一値のパターンを参照符号43で示す。この場合、2つの水平に隣接する画素ロケーションは、均一値1を有し、且つ均一値0を有する画素ロケーションによって完全に取り囲まれている。図10は、均一値が参照符号45で示され、2つの垂直に隣接した画素ロケーションが、均一値1を有し、且つ均一値0を有する画素ロケーションによって取り囲まれている第3のパターンを参照符号44で示す。
【0052】
図10に参照符号46で示す第4のパターンは、均一値0を有する画素ロケーションによって完全に取り囲まれている均一値1を有する4(2×2)個の画素ロケーションの正方形ブロックを有する。従って、図10で参照符号41、43、45および47で示す均一値のパターンのいずれかが起こるときは常に、ステップ23は、顔のような領域または候補が見いだされたことを示す。これらのパターンの検索は効率的に行われ得る。例えば、画素ロケーションの均一値は、各行において左から右、およびフィールドの上から下に走査することによって順にチェックされる。均一値1が検出されると、現在の画素ロケーションの右および下にある近隣画素ロケーションが調べられる。これらの均一値の少なくとも1つがまた1であり、領域が均一値0によって取り囲まれている場合、可能性のある顔候補に対応するパターンが見いだされる。次に、対応する画素ロケーションは、均一値を、例えば、1または0以外の値(例えば、2の値)で置き換えることによってマークされ得る。可能性のある顔候補が見いだされなかった場合を除いて、候補の位置が出力される。
【0053】
パターン40、42、44および46の外観は、解像度が低下した画素36の構造に対する顔のような領域の実際の位置によって影響され得る。図11は、参照符号49で示す解像度が低下した2×2の画素サイズを有する顔のような領域についての例を示す。円50によって示される顔のような領域が、2×2のブロックをほぼ中心とする場合、均一な値のパターン47が得られ、検出は正しい。しかし、参照符号51で示すように、顔が水平および垂直方向に半画素だけシフトしている場合には、顔のような領域の中央部分は、参照符号51で示すように、周りの領域とは異なる均一値を有し得る。これは、結果として、純粋な候補の検出に失敗することになり得る。
【0054】
このような起こりうる問題を避けるために、ステップ21から24は、画像データの同じビデオフィールドまたは1つまたはそれ以上の連続したビデオフィールドに対して繰り返され得る。しかし、ステップ21から24が繰り返される度に、解像度が低下した画素のアレイ31の位置は、カラー画像画素のアレイ30に対して変化する。これを図12に示す。図12において、画像全体は参照符号52で示し、画像平均化による空間解像度の低下に使用される領域は参照符号53で示す。平均化は、図8に示すのと同様に行われるが、開始位置は変化する。特に、図8の第1画素に対する開始位置は、画像全体52の左上の角54であるが、図12はその後に行われる平均化を示す。ここでは、開始位置は、水平方向に左上の角から量Sxだけ右にシフトし、垂直方向に量Syだけ下にシフトしている。ここで、
0<Sx<m、および0<Sy<n
である。
【0055】
各画像は、SxおよびSyのすべての組合せが用いられ、m×nプロセスが行われるように、繰り返し処理され得る。しかし、実際には、特に、顔のような領域の検出があまり正確である必要がない応用においては、すべての開始位置を用いる必要はない。例えば、顔のような領域の検出が、上述したように、2ステッププロセスの第1のステップを形成する場合、SxおよびSyの値は、以下のようなよりまばらなセットの組合せから選択され得る。
Sx=ix(m/k)、およびSy=jx(n/l)
ここで、i、j、kおよびlは、以下の関係を満足する整数である。
0≦i<k
0≦j<l
1≦k<m
1≦l<n
これは、全部でk×lの組合せとなる。
【0056】
上記のように、ステップ21から24は、同じ画像または連続した画像上の異なる開始位置で繰り返され得る。リアルタイム画像処理については、連続した画像についてステップを繰り返すことが必要または好適であり得る。方法は、非常に迅速に行われ得、画像内に存在する顔の候補の数によって、10Hzと60Hzとの間のフィールドレートでリアルタイムで行われ得る。従って、およそほんの数秒以下の短い期間内で、すべての可能な位置がテストされ得る。
【0057】
図6に示す方法は、図2に示す方法のように、任意の適切なハードウェアにおいて行われ得る。上記のように、トラッキングプロセッサ4は、図6の方法を、図3に示す初期化ステージ9の一部として実行するようにプログラムされることが可能である。データ処理は、R4400プロセッサおよび関連のメモリによって行われ、プロセッサ4は、図2に示すように、彩度値、解像度が低下した画素の平均化された彩度値、および均一値を格納するためのビデオディジタイザおよびフレームストアを含む。
【0058】
図6に示す方法は、周辺光を含む均一な照明で良好に作用し、アクティブな光源を用いることによって、良好でない照明条件下での応用に適用され得る。この方法は、特別な照明を必要とせず、観察者の照明の変化に対しても非常に回復が速いが、図2の初期化ステージ9においてはアクティブな光源を用いて、次の観察者トラッキング中にスイッチオフしてもよい。トラッキングは非常に強力で、特別な照明を必要としないからである。
【0059】
図13は、アクティブな照明を提供するように改変された図2に示すタイプのディスプレイを示す。アクティブな光源は、プロセッサ4によって制御されるシンクロナイザを有するフラッシュライト55を含む。フラッシュライト55は、ディスプレイ7の上およびセンサ3の隣りなど、適切な位置に配置され、観察者の顔を照射する。
【0060】
図14は、ビデオトラッキングシステム2、特にデータプロセッサ4をさらに詳細に示す。データプロセッサは、CPUバス57に接続された中央処理装置(CPU)56を有する。システムメモリ58は、バス57に接続され、データプロセッサを作動するためのシステムソフトウェアをすべて含む。
【0061】
ビデオカメラ3は、ビデオディジタイザ59に接続され、ビデオディジタイザ59は、データバス60、シンクロナイザを有するフラッシュライト55、CPU56、および、オプションのビデオディスプレイ61が設けられているときには、ビデオディスプレ61に接続されている。フレームストア62は、データバス60およびCPUバス57に接続されている。
【0062】
アクティブな照明を用いない実施態様では、フレームストアは、1つのフィールドの容量をもつだけでよい。640×240画素のフィールド解像度を有する上記のビデオカメラ3の場合、24ビットのRGBカラー信号に対しては、640×240×3=460800バイトの容量が必要である。アクティブな照明を用いる実施態様については、フレームストア62は、2つのフィールドのビデオデータの容量(即ち、921600バイト)を有する。
【0063】
使用時には、フラッシュライト55は、ビデオカメラ3およびビデオディジタイザ59と同期され、フラッシュライトは、画像がキャプチャされているときに、適切なタイミングでスイッチオンまたはオフされる。
【0064】
フラッシュライト55は、観察者の顔に光を当てて、分布の均一性を高めるために用いられる。フラッシュライト55が周辺光よりもはるかに強い場合、顔の輝度は、フラッシュライト55によって主に決定される。しかし、強力な光源を用いると、過飽和状態の画像を生成する傾向があり、この場合、多くの物体が、顔のような領域として誤って検出され得る。さらに、強力なフラッシュライトの使用は、観察者にとって不快であり、目に損傷を与え得る。
【0065】
従って、フラッシュライト55は、中庸な強度であるのがよい。この場合、周辺光の影響は、純粋な顔のような領域を検出する信頼性を向上させるために減少される必要があり得る。
【0066】
図6に示す方法は、1つがフラッシュライト55を照射した状態で得られ、もう1つが周辺光のみで得られる2つの連続したフレームのビデオ画像データを比較するように改変され得る。従って、これらのフレームのうちの最初のフレームは、周辺光およびフラッシュライト55の両方の影響を含んでいる。従って、この最初の画像I(a+f)は、2つの成分を含むものと見なされ得る。
I(a+f)=I(a)+I(f)
ここで、I(a)は、周辺光のみで得られた画像で、I(f)は、唯一の光源がフラッシュライト55である場合に生成されるであろう画像である。これは、以下のように書き直され得る。
I(f)=I(a+f)−I(a)
従って、ステップ21またはステップ22において、画像画素データまたは解像度が低下したデータを減算することによって、フラッシュライト55による背景の過飽和の影響が低減され得る。さらなる低減は、フラッシュライト55が、観察者の顔によって占有される可能性の高い領域に主に光を方向づけることを確実にすることによって得られ得る。
【0067】
【発明の効果】
上記のように、本発明の方法および装置によれば、人の皮膚が均一な彩度を有するという特性を利用し、カラー画像における顔の候補を見いだす方法が提供される。広範囲な照明条件は、カラー較正の必要なく適応されるので、この技術は、公知の技術よりもより信頼があり、便利である。画像の彩度の解像度を低下させることによって、計算要件は大幅に減少し、比較的簡単な方法が使用され得る。平均化によって、顔領域の彩度の均一性が向上するので、この技術は、異なる年齢、性別、および皮膚の色の人々の画像における顔の候補を認識することができ、明るい色の眼鏡をかけている場合にも対応できる。この技術は非常に効率的であるため、リアルタイムで実現され、低コストの商業的な応用に使用され得る。
【0068】
本発明によるこのような方法は、例えば、観察者トラッキング自動立体ディスプレイと関連し得る画像トラッキングシステムの初期化ステージで、画像内の顔を検出し、ターゲット画像をキャプチャするための他の方法と関連して使用することができる。このような方法および装置は、例えば、皮膚の色の検出、顔の検出および認識、安全監視、ビデオおよび画像圧縮、ビデオ会議、マルチメディアデータベース検索、ならびにコンピュータゲームにおいて広範囲に適用可能である。
【図面の簡単な説明】
【図1】公知のタイプの観察者トラッキング自動立体ディスプレイの概略ブロック図である。
【図2】本発明が適用され得る観察者トラッキングディスプレイの概略ブロック図である。
【図3】図2のディスプレイにおける観察者トラッキングを示す流れ図である。
【図4】図3に示す方法によってキャプチャされる典型的なターゲット画像((a))またはテンプレート((b))を示す。
【図5】図2のディスプレイによるテンプレートキャプチャ中のディスプレイの外観を示す。
【図6】本発明の実施態様を構成する顔のような領域を検出する方法を示す流れ図である。
【図7】色相彩度値(HSV、hue saturation value)色方式を示す図である。
【図8】図6に示す方法における平均化による画像解像度低下を示す図であり、(a)は与えられた画像構造であり、(b)は平均化によって空間解像度が低下された画素構造を示す。
【図9】(a)および(b)は、図6に示す方法における均一値の計算を説明する図である。
【図10】図6に示す方法における顔候補の選択に用いられるパターンを示す図であり、(a)〜(d)は均一値の4つのパターン、およびそれらのパターンに対応するビデオ画像内の顔候補のような画素彩度パターンの一例を示す。
【図11】顔の異なる位置の、図6に示す方法に対する影響を示す図であり、(a)は顔のような領域が2×2のブロックをほぼ中心とする場合を示し、(b)は顔のような領域が水平および垂直方向に半画素だけシフトしている場合を示す。
【図12】異なる顔の位置を収容する、図6に示す方法への改変を示す図である。
【図13】本発明が適用される観察者トラッキングディスプレイの概略ブロック図である。
【図14】本発明の方法を実施するための、図13のディスプレイのビデオトラッキングシステムのシステムブロック図である。
【符号の説明】
1 ディスプレイシステム
2 トラッキングシステム
3 トラッキングセンサ
4 トラッキングプロセッサ
5 ディスプレイ制御プロセッサ
6 操縦機構
7 トラッキング機能を備えた3Dディスプレイ
8 マウス
9 初期化ステージ
10 トラッキングステージ
11 テンプレート
Claims (11)
- M×N個の絵素の長方形アレイを含むカラー画像をキャプチャするビデオカメラの出力から得られるカラー画像から顔のような領域を検出する方法であって、
顔の位置の予想範囲に光を照射している間に前記ビデオカメラによってキャプチャされた第1のフレームのカラー画像から、周辺光を用いてキャプチャされた前記第1のフレームに連続する第2のフレームのカラー画像を減算することによってカラー画像を形成するステップと、
該ステップにて形成されたカラー画像の前記各絵素の彩度を平均化することによって、(M/m)×(N/n)個のウィンドウを含む解像度が低下した画像を形成するステップと、
該解像度が低下した画像において、所定の形状を有する領域であって、該領域を取り囲む部分の彩度とは異なる均一な彩度を有する領域を検索するステップとを包含し、
前記検索するステップは、前記解像度が低下した画像における前記ウィンドウのそれぞれの彩度と、該ウィンドウの少なくとも1つの隣接したウィンドウの彩度とを比較し、次式
(max(P)−min(P))/max(P)≦T
(ここで、max(P)およびmin(P)が、それぞれ、前記ウィンドウまたは前記隣接したウィンドウの彩度の最大および最小であり、Tが閾値である)
が満たされる場合に、前記ウィンドウのそれぞれに均一値として第1の値を割り当て、前記式が満たされない場合に、前記各均一値として、前記第1の値とは異なる第2の値を割り当てて、前記均一値としての前記第1の値が、前記解像度が低下した画像における1つの前記ウィンドウ、2つの垂直または水平に隣接した前記ウィンドウ、および前記ウィンドウの長方形の2×2アレイのいずれか1つに割り当てられ、前記均一値としての第2の値が、前記領域を取り囲む部分の各ウィンドウのそれぞれに割り当てられるとき、顔のような領域の検出を示すことを特徴とする、方法。 - ストアに前記彩度を格納するステップを含む、請求項2に記載の方法。
- 前記式におけるTが0.15に等しい、請求項1に記載の方法。
- 前記解像度が低下した画像における前記ウィンドウまたは前記隣接したウィンドウに均一値が割り当てられると、前記格納ステップにおいて、前記各均一値が前記対応する彩度の代わりに前記ストアに格納される、請求項3に記載の方法。
- ストアに前記彩度または前記均一値を格納するステップを含み、該格納するステップにおいて、前記対応する彩度または均一値の代わりに、前記第1および第2の値とは異なる第3の値を該ストアに格納し、該格納によって顔のような領域の検出が示される、請求項1に記載の方法。
- 前記検索ステップが、異なるカラー画像に対して前記解像度低下を繰り返し、前記カラー画像の絵素に対して前記ウィンドウがシフトした状態で、少なくとも1回は検索をすることを含む、請求項1から6のいずれか1つに記載の方法。
- 前記彩度が、以下の式で、赤色、緑色および青色成分から得られ、
(max(R,G,B)−min(R,G,B))/max(R,G,B)
ここで、max(R、G、B)およびmin(R、G、B)が、それぞれ、該赤色、緑色および青色成分の最大値および最小値である、請求項1から7のいずれか1つに記載の方法。 - 前記解像度低下ステップおよび前記検索ステップが、前記ビデオカメラからの異なるビデオフィールドまたはフレームに対して繰り返される、請求項1に記載の方法。
- M×N個の絵素の長方形アレイを含むカラー画像をキャプチャするビデオカメラと、該ビデオカメラのフレームタイミングに同期して顔の位置の予想範囲に光を照射するフラッシュライトと、前記ビデオカメラによってキャプチャされたカラー画像から顔のような領域を検出するためのデータプロセッサとを有する装置であって、
該データプロセッサが、
前記ビデオカメラによって、前記フラッシュライトにより顔の位置の予想範囲に光を照射している間にキャプチャされた第1のフレームのカラー画像から、周辺光を用いてキャプチャされた前記第1のフレームに連続する第2のフレームのカラー画像を減算することによってカラー画像を形成する手段と、
該手段によって形成されたカラー画像の前記各絵素の彩度を平均化することによって、(M/m)×(N/n)個のウィンドウを含む解像度が低下した画像を形成する画像形成手段と、
該画像形成手段によって得られる解像度が低下した画像において、所定の形状を有する領域であって、該領域を取り囲む部分の彩度とは異なる均一な彩度を有する領域を検索する検索手段とを備え、
前記検索手段は、前記解像度が低下した画像における前記ウィンドウのそれぞれの彩度と、該ウィンドウの少なくとも1つの隣接したウィンドウの彩度とを比較し、次式
(max(P)−min(P))/max(P)≦T
(ここで、max(P)およびmin(P)が、それぞれ、前記ウィンドウまたは前記隣接したウィンドウの彩度の最大および最小であり、Tが閾値である)
が満たされる場合に、前記ウィンドウのそれぞれに均一値として第1の値を割り当て、前記式が満たされない場合に、前記各均一値として、前記第1の値とは異なる第2の値を割り当てて、前記均一値としての前記第1の値が、前記解像度が低下した画像における1つの前記ウィンドウ、2つの垂直または水平に隣接した前記ウィンドウ、および前記ウィンドウの長方形の2×2アレイのいずれか1つに割り当てられ、前記均一値としての第2の値が、前記領域を取り囲む部分の各ウィンドウのそれぞれに割り当てられるとき、顔のような領域の検出を示すことを特徴とする、装置。 - 請求項10に記載の装置を有する観察者トラッキングディスプレイ。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB9801550.6 | 1998-01-23 | ||
GB9801550A GB2333590A (en) | 1998-01-23 | 1998-01-23 | Detecting a face-like region |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11288459A JPH11288459A (ja) | 1999-10-19 |
JP3938257B2 true JP3938257B2 (ja) | 2007-06-27 |
Family
ID=10825843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP01363499A Expired - Fee Related JP3938257B2 (ja) | 1998-01-23 | 1999-01-21 | 顔のような領域を検出する方法および装置、ならびに観察者トラッキングディスプレイ |
Country Status (5)
Country | Link |
---|---|
US (1) | US6504942B1 (ja) |
EP (1) | EP0932114B1 (ja) |
JP (1) | JP3938257B2 (ja) |
DE (1) | DE69906403T2 (ja) |
GB (1) | GB2333590A (ja) |
Families Citing this family (116)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AUPP400998A0 (en) * | 1998-06-10 | 1998-07-02 | Canon Kabushiki Kaisha | Face detection in digital images |
EP1220182A3 (en) * | 2000-12-25 | 2005-08-17 | Matsushita Electric Industrial Co., Ltd. | Image detection apparatus, program, and recording medium |
EP1293933A1 (de) * | 2001-09-03 | 2003-03-19 | Agfa-Gevaert AG | Verfahren zum automatischen Erkennen von rote-Augen-Defekten in fotografischen Bilddaten |
EP1288860A1 (de) * | 2001-09-03 | 2003-03-05 | Agfa-Gevaert AG | Verfahren zur Verarbeitung digitaler fotografischer Bilddaten, welches ein Verfahren zum automatischen Erkennen von rote-Augen-Defekten umfasst |
GB2395780A (en) * | 2002-11-29 | 2004-06-02 | Sony Uk Ltd | Face detection |
US20040228505A1 (en) * | 2003-04-14 | 2004-11-18 | Fuji Photo Film Co., Ltd. | Image characteristic portion extraction method, computer readable medium, and data collection and processing device |
US7574016B2 (en) * | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
US7440593B1 (en) | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
US8948468B2 (en) | 2003-06-26 | 2015-02-03 | Fotonation Limited | Modification of viewing parameters for digital images using face detection information |
US7792335B2 (en) * | 2006-02-24 | 2010-09-07 | Fotonation Vision Limited | Method and apparatus for selective disqualification of digital images |
US8498452B2 (en) * | 2003-06-26 | 2013-07-30 | DigitalOptics Corporation Europe Limited | Digital image processing using face detection information |
US7792970B2 (en) * | 2005-06-17 | 2010-09-07 | Fotonation Vision Limited | Method for establishing a paired connection between media devices |
US8553949B2 (en) | 2004-01-22 | 2013-10-08 | DigitalOptics Corporation Europe Limited | Classification and organization of consumer digital images using workflow, and face detection and recognition |
US7587068B1 (en) | 2004-01-22 | 2009-09-08 | Fotonation Vision Limited | Classification database for consumer digital images |
US7471846B2 (en) * | 2003-06-26 | 2008-12-30 | Fotonation Vision Limited | Perfecting the effect of flash within an image acquisition devices using face detection |
US8593542B2 (en) * | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
US8363951B2 (en) * | 2007-03-05 | 2013-01-29 | DigitalOptics Corporation Europe Limited | Face recognition training method and apparatus |
US7317815B2 (en) * | 2003-06-26 | 2008-01-08 | Fotonation Vision Limited | Digital image processing composition using face detection information |
US9129381B2 (en) * | 2003-06-26 | 2015-09-08 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US7565030B2 (en) * | 2003-06-26 | 2009-07-21 | Fotonation Vision Limited | Detecting orientation of digital images using face detection information |
US7362368B2 (en) * | 2003-06-26 | 2008-04-22 | Fotonation Vision Limited | Perfecting the optics within a digital image acquisition device using face detection |
US9692964B2 (en) | 2003-06-26 | 2017-06-27 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US8155397B2 (en) * | 2007-09-26 | 2012-04-10 | DigitalOptics Corporation Europe Limited | Face tracking in a camera processor |
US7680342B2 (en) | 2004-08-16 | 2010-03-16 | Fotonation Vision Limited | Indoor/outdoor classification in digital images |
US7616233B2 (en) * | 2003-06-26 | 2009-11-10 | Fotonation Vision Limited | Perfecting of digital image capture parameters within acquisition devices using face detection |
US7315630B2 (en) | 2003-06-26 | 2008-01-01 | Fotonation Vision Limited | Perfecting of digital image rendering parameters within rendering devices using face detection |
US7620218B2 (en) * | 2006-08-11 | 2009-11-17 | Fotonation Ireland Limited | Real-time face tracking with reference images |
US8330831B2 (en) * | 2003-08-05 | 2012-12-11 | DigitalOptics Corporation Europe Limited | Method of gathering visual meta data using a reference image |
US7269292B2 (en) * | 2003-06-26 | 2007-09-11 | Fotonation Vision Limited | Digital image adjustable compression and resolution using face detection information |
US8682097B2 (en) * | 2006-02-14 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Digital image enhancement with reference images |
US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
US8989453B2 (en) * | 2003-06-26 | 2015-03-24 | Fotonation Limited | Digital image processing using face detection information |
US8494286B2 (en) | 2008-02-05 | 2013-07-23 | DigitalOptics Corporation Europe Limited | Face detection in mid-shot digital images |
US7844076B2 (en) * | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
TWI220234B (en) * | 2003-10-21 | 2004-08-11 | Ind Tech Res Inst | A method to simulate animated images for an object |
US7558408B1 (en) | 2004-01-22 | 2009-07-07 | Fotonation Vision Limited | Classification system for consumer digital images using workflow and user interface modules, and face detection and recognition |
US7564994B1 (en) | 2004-01-22 | 2009-07-21 | Fotonation Vision Limited | Classification system for consumer digital images using automatic workflow and face detection and recognition |
US7551755B1 (en) | 2004-01-22 | 2009-06-23 | Fotonation Vision Limited | Classification and organization of consumer digital images using workflow, and face detection and recognition |
US7555148B1 (en) | 2004-01-22 | 2009-06-30 | Fotonation Vision Limited | Classification system for consumer digital images using workflow, face detection, normalization, and face recognition |
TWI236901B (en) * | 2004-06-11 | 2005-08-01 | Oriental Inst Technology | An apparatus and method for identifying surrounding environment by means of image processing and for outputting the resutls |
US7454039B2 (en) * | 2004-07-12 | 2008-11-18 | The Board Of Trustees Of The University Of Illinois | Method of performing shape localization |
US8320641B2 (en) * | 2004-10-28 | 2012-11-27 | DigitalOptics Corporation Europe Limited | Method and apparatus for red-eye detection using preview or other reference images |
US8488023B2 (en) * | 2009-05-20 | 2013-07-16 | DigitalOptics Corporation Europe Limited | Identifying facial expressions in acquired digital images |
US8503800B2 (en) * | 2007-03-05 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Illumination detection using classifier chains |
US7715597B2 (en) | 2004-12-29 | 2010-05-11 | Fotonation Ireland Limited | Method and component for image recognition |
US7315631B1 (en) | 2006-08-11 | 2008-01-01 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
JP4830650B2 (ja) * | 2005-07-05 | 2011-12-07 | オムロン株式会社 | 追跡装置 |
US7555149B2 (en) * | 2005-10-25 | 2009-06-30 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for segmenting videos using face detection |
JP4921486B2 (ja) | 2005-11-30 | 2012-04-25 | シーイング・マシーンズ・プロプライエタリー・リミテッド | 視覚的に頭と目を追跡するシステムにおける眼鏡の視覚的追跡 |
US8265392B2 (en) * | 2006-02-07 | 2012-09-11 | Qualcomm Incorporated | Inter-mode region-of-interest video object segmentation |
US8150155B2 (en) * | 2006-02-07 | 2012-04-03 | Qualcomm Incorporated | Multi-mode region-of-interest video object segmentation |
US8265349B2 (en) * | 2006-02-07 | 2012-09-11 | Qualcomm Incorporated | Intra-mode region-of-interest video object segmentation |
US7804983B2 (en) | 2006-02-24 | 2010-09-28 | Fotonation Vision Limited | Digital image acquisition control and correction method and apparatus |
JP2007257148A (ja) * | 2006-03-22 | 2007-10-04 | Nissan Motor Co Ltd | 画像処理装置及び方法 |
JP2007264742A (ja) * | 2006-03-27 | 2007-10-11 | Fujifilm Corp | 顔検出方法おならびにこれを用いた撮影装置 |
US7844070B2 (en) | 2006-05-30 | 2010-11-30 | Sonitus Medical, Inc. | Methods and apparatus for processing audio signals |
US7965875B2 (en) * | 2006-06-12 | 2011-06-21 | Tessera Technologies Ireland Limited | Advances in extending the AAM techniques from grayscale to color images |
US7720281B2 (en) * | 2006-07-31 | 2010-05-18 | Mavs Lab, Inc. | Visual characteristics-based news anchorperson segment detection method |
US7515740B2 (en) * | 2006-08-02 | 2009-04-07 | Fotonation Vision Limited | Face recognition with combined PCA-based datasets |
US7916897B2 (en) | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
US7403643B2 (en) * | 2006-08-11 | 2008-07-22 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US8291912B2 (en) * | 2006-08-22 | 2012-10-23 | Sonitus Medical, Inc. | Systems for manufacturing oral-based hearing aid appliances |
DK2064916T3 (en) * | 2006-09-08 | 2019-03-04 | Soundmed Llc | Methods and apparatus for treating tinnitus |
US7945075B2 (en) * | 2006-12-19 | 2011-05-17 | Seiko Epson Corporation | Converting a digital image from color to gray-scale |
US8055067B2 (en) * | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
JP2008199486A (ja) * | 2007-02-15 | 2008-08-28 | Olympus Imaging Corp | 一眼レフレックス型の電子撮像装置 |
EP2115662B1 (en) | 2007-02-28 | 2010-06-23 | Fotonation Vision Limited | Separating directional lighting variability in statistical face modelling based on texture space decomposition |
KR101247147B1 (ko) * | 2007-03-05 | 2013-03-29 | 디지털옵틱스 코포레이션 유럽 리미티드 | 디지털 영상 획득 장치에서의 얼굴 탐색 및 검출 |
WO2008109622A1 (en) | 2007-03-05 | 2008-09-12 | Fotonation Vision Limited | Face categorization and annotation of a mobile phone contact list |
US7916971B2 (en) * | 2007-05-24 | 2011-03-29 | Tessera Technologies Ireland Limited | Image processing method and apparatus |
US8270638B2 (en) * | 2007-05-29 | 2012-09-18 | Sonitus Medical, Inc. | Systems and methods to provide communication, positioning and monitoring of user status |
US20080304677A1 (en) * | 2007-06-08 | 2008-12-11 | Sonitus Medical Inc. | System and method for noise cancellation with motion tracking capability |
US20090028352A1 (en) * | 2007-07-24 | 2009-01-29 | Petroff Michael L | Signal process for the derivation of improved dtm dynamic tinnitus mitigation sound |
US20120235632A9 (en) * | 2007-08-20 | 2012-09-20 | Sonitus Medical, Inc. | Intra-oral charging systems and methods |
US8433080B2 (en) * | 2007-08-22 | 2013-04-30 | Sonitus Medical, Inc. | Bone conduction hearing device with open-ear microphone |
US8224013B2 (en) * | 2007-08-27 | 2012-07-17 | Sonitus Medical, Inc. | Headset systems and methods |
US7682303B2 (en) | 2007-10-02 | 2010-03-23 | Sonitus Medical, Inc. | Methods and apparatus for transmitting vibrations |
US20090105523A1 (en) * | 2007-10-18 | 2009-04-23 | Sonitus Medical, Inc. | Systems and methods for compliance monitoring |
US8795172B2 (en) * | 2007-12-07 | 2014-08-05 | Sonitus Medical, Inc. | Systems and methods to provide two-way communications |
US8750578B2 (en) | 2008-01-29 | 2014-06-10 | DigitalOptics Corporation Europe Limited | Detecting facial expressions in digital images |
US8126221B2 (en) * | 2008-02-14 | 2012-02-28 | Ecole Polytechnique Federale De Lausanne (Epfl) | Interactive device and method for transmitting commands from a user |
US7974845B2 (en) | 2008-02-15 | 2011-07-05 | Sonitus Medical, Inc. | Stuttering treatment methods and apparatus |
US8270637B2 (en) * | 2008-02-15 | 2012-09-18 | Sonitus Medical, Inc. | Headset systems and methods |
US8023676B2 (en) | 2008-03-03 | 2011-09-20 | Sonitus Medical, Inc. | Systems and methods to provide communication and monitoring of user status |
US8150075B2 (en) | 2008-03-04 | 2012-04-03 | Sonitus Medical, Inc. | Dental bone conduction hearing appliance |
US20090226020A1 (en) | 2008-03-04 | 2009-09-10 | Sonitus Medical, Inc. | Dental bone conduction hearing appliance |
US7855737B2 (en) * | 2008-03-26 | 2010-12-21 | Fotonation Ireland Limited | Method of making a digital camera image of a scene including the camera user |
WO2009131755A1 (en) * | 2008-04-24 | 2009-10-29 | Sonitus Medical, Inc. | Microphone placement for oral applications |
US20090270673A1 (en) * | 2008-04-25 | 2009-10-29 | Sonitus Medical, Inc. | Methods and systems for tinnitus treatment |
CN103475837B (zh) | 2008-05-19 | 2017-06-23 | 日立麦克赛尔株式会社 | 记录再现装置及方法 |
CN102027505A (zh) | 2008-07-30 | 2011-04-20 | 泰塞拉技术爱尔兰公司 | 使用脸部检测的自动脸部和皮肤修饰 |
JP5237037B2 (ja) * | 2008-10-01 | 2013-07-17 | キヤノン株式会社 | 画像処理装置および画像処理方法、プログラム |
WO2010063463A2 (en) * | 2008-12-05 | 2010-06-10 | Fotonation Ireland Limited | Face recognition using face tracker classifier data |
US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
US8379917B2 (en) | 2009-10-02 | 2013-02-19 | DigitalOptics Corporation Europe Limited | Face recognition performance using additional image features |
CN102640521B (zh) | 2009-10-02 | 2016-07-06 | 声脉有限责任公司 | 用于通过骨传导进行声音传递的口腔内器械 |
US20110211738A1 (en) * | 2009-12-23 | 2011-09-01 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US20110211739A1 (en) * | 2009-12-23 | 2011-09-01 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US20110150298A1 (en) * | 2009-12-23 | 2011-06-23 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US20110150276A1 (en) * | 2009-12-23 | 2011-06-23 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US20110206245A1 (en) * | 2009-12-23 | 2011-08-25 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US20110150295A1 (en) * | 2009-12-23 | 2011-06-23 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US9875719B2 (en) * | 2009-12-23 | 2018-01-23 | Gearbox, Llc | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US20110150297A1 (en) * | 2009-12-23 | 2011-06-23 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US20110150299A1 (en) * | 2009-12-23 | 2011-06-23 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US20110150296A1 (en) * | 2009-12-23 | 2011-06-23 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US8712110B2 (en) * | 2009-12-23 | 2014-04-29 | The Invention Science Fund I, LC | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual |
US8836777B2 (en) | 2011-02-25 | 2014-09-16 | DigitalOptics Corporation Europe Limited | Automatic detection of vertical gaze using an embedded imaging device |
JP5127972B1 (ja) * | 2011-09-30 | 2013-01-23 | 株式会社東芝 | 電子機器、電子機器の制御方法 |
US20130201316A1 (en) | 2012-01-09 | 2013-08-08 | May Patents Ltd. | System and method for server based control |
US9661215B2 (en) | 2014-04-22 | 2017-05-23 | Snapaid Ltd. | System and method for controlling a camera based on processing an image captured by other camera |
WO2016207875A1 (en) | 2015-06-22 | 2016-12-29 | Photomyne Ltd. | System and method for detecting objects in an image |
JP6573193B2 (ja) * | 2015-07-03 | 2019-09-11 | パナソニックIpマネジメント株式会社 | 判定装置、判定方法、および判定プログラム |
US10627887B2 (en) | 2016-07-01 | 2020-04-21 | Microsoft Technology Licensing, Llc | Face detection circuit |
CN108280426B (zh) * | 2018-01-23 | 2022-02-25 | 山东极视角科技有限公司 | 基于迁移学习的暗光源表情识别方法及装置 |
CN110719407A (zh) * | 2019-10-18 | 2020-01-21 | 北京字节跳动网络技术有限公司 | 图片美化方法、装置、设备及存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2238440B (en) * | 1989-11-24 | 1994-07-27 | Olympus Optical Co | Methods of detecting endoscope insertion direction |
US5345242A (en) * | 1990-09-27 | 1994-09-06 | Loral Aerospace Corp. | Clutter rejection using connectivity |
US5557688A (en) * | 1992-11-18 | 1996-09-17 | Fuji Photo Film Co., Ltd. | Method of extracting characteristic image data and color data conversion device for image processing apparatus |
US5689575A (en) * | 1993-11-22 | 1997-11-18 | Hitachi, Ltd. | Method and apparatus for processing images of facial expressions |
US6128398A (en) * | 1995-01-31 | 2000-10-03 | Miros Inc. | System, method and application for the recognition, verification and similarity ranking of facial or other object patterns |
JP3086396B2 (ja) * | 1995-03-10 | 2000-09-11 | シャープ株式会社 | 画像符号化装置及び画像復号装置 |
US5715325A (en) * | 1995-08-30 | 1998-02-03 | Siemens Corporate Research, Inc. | Apparatus and method for detecting a face in a video image |
-
1998
- 1998-01-23 GB GB9801550A patent/GB2333590A/en not_active Withdrawn
-
1999
- 1999-01-12 DE DE69906403T patent/DE69906403T2/de not_active Expired - Fee Related
- 1999-01-12 EP EP99300179A patent/EP0932114B1/en not_active Expired - Lifetime
- 1999-01-13 US US09/229,187 patent/US6504942B1/en not_active Expired - Fee Related
- 1999-01-21 JP JP01363499A patent/JP3938257B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
GB9801550D0 (en) | 1998-03-25 |
US6504942B1 (en) | 2003-01-07 |
DE69906403T2 (de) | 2004-01-08 |
EP0932114B1 (en) | 2003-04-02 |
DE69906403D1 (de) | 2003-05-08 |
EP0932114A2 (en) | 1999-07-28 |
GB2333590A (en) | 1999-07-28 |
EP0932114A3 (en) | 2001-11-14 |
JPH11288459A (ja) | 1999-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3938257B2 (ja) | 顔のような領域を検出する方法および装置、ならびに観察者トラッキングディスプレイ | |
JP3761059B2 (ja) | ヒトの顔を検出する方法および装置、ならびに観察者トラッキングディスプレイ | |
JP2541688B2 (ja) | 眼位置検出装置 | |
JP3565707B2 (ja) | 観察者トラッキング自動立体表示装置、画像トラッキングシステム、および画像トラッキング方法 | |
US7916904B2 (en) | Face region detecting device, method, and computer readable recording medium | |
US7912251B2 (en) | Eyelid detection apparatus and program therefor | |
JP3143819B2 (ja) | まぶたの開度検出装置 | |
JPH0944685A (ja) | 顔画像処理装置 | |
JP2007097178A (ja) | 顔検出による赤目の除去方法 | |
JP3490910B2 (ja) | 顔領域検出装置 | |
JPH0862741A (ja) | 階調補正装置 | |
JP2005092262A (ja) | 顔検知装置 | |
JP3459950B2 (ja) | 顔検出及び顔追跡方法並びにその装置 | |
JP3227179B2 (ja) | 動物体検出および追跡処理方式 | |
JPH04174309A (ja) | 運転車の眼位置検出装置及び状態検出装置 | |
JPH03165737A (ja) | 視線方向検出方法 | |
Kryszczuk et al. | Color correction for face detection based on human visual perception metaphor | |
JP2677010B2 (ja) | 眼位置検出装置 | |
JPH11120363A (ja) | 動物体検出方法 | |
JP2004013768A (ja) | 個人識別方法 | |
KR20040039080A (ko) | 영상 처리를 이용한 다채널 자동 트랙킹 및 자동 줌 방법 | |
Marciniak et al. | Influence of pose angle on face recognition from very low resolution images | |
JP2002208013A (ja) | 画像領域抽出装置及び画像領域抽出方法 | |
US11943422B2 (en) | Three-dimensional image-capturing device and image-capturing condition adjusting method | |
Chen et al. | Robust facial feature tracking under various illuminations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20031209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061003 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070320 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070320 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |