JPH11288459A - Method and device for detecting area such as face and observer tracking display - Google Patents

Method and device for detecting area such as face and observer tracking display

Info

Publication number
JPH11288459A
JPH11288459A JP11013634A JP1363499A JPH11288459A JP H11288459 A JPH11288459 A JP H11288459A JP 11013634 A JP11013634 A JP 11013634A JP 1363499 A JP1363499 A JP 1363499A JP H11288459 A JPH11288459 A JP H11288459A
Authority
JP
Japan
Prior art keywords
resolution
image
saturation
reduced
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11013634A
Other languages
Japanese (ja)
Other versions
JP3938257B2 (en
Inventor
Qi He Hong
ヒ ホング キ
Nicolas Steven Holliman
スティブン ホリマン ニコラス
David Ezra
エズラ デービッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JPH11288459A publication Critical patent/JPH11288459A/en
Application granted granted Critical
Publication of JP3938257B2 publication Critical patent/JP3938257B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an efficient method which can be applied to a wide range of illumination conditions at the time of detecting the candidate object of an area such as a face in a color image. SOLUTION: In a method for detecting an area such as a face in a color image from a video camera, chroma components are obtained from a color image 20 by conversion from an RBG format typical to the output of the video camera (21). The spatial resolution of a chroma component image is deteriorated by spatial averaging (22), and the resolution of the image of a face is deteriorated in each size, and the level is limited so that 5 or less image elements can be obtained. Then, an image whose resolution is deteriorated is tested (23), and an area with substantially uniform chroma, and a prescribed size and shape which is surrounded by an area with substantially non-uniform chroma are obtained.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カラー画像の顔の
ような(face−like)領域を検出するための方
法および装置に関する。このような方法は、例えば、観
察者トラッキング自動立体ディスプレイと関連し得る画
像トラッキングシステムの初期化ステージで、画像内の
顔を検出し、ターゲット画像をキャプチャするための他
の方法と関連して使用され得る。このような方法および
装置は、例えば、皮膚の色の検出、顔の検出および認
識、安全監視、ビデオおよび画像圧縮、ビデオ会議、マ
ルチメディアデータベース検索、ならびにコンピュータ
ゲームにおいて広範囲に応用される。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for detecting a face-like region of a color image. Such a method is used in conjunction with other methods for detecting faces in an image and capturing a target image, for example, at the initialization stage of an image tracking system that may be associated with an observer tracking autostereoscopic display. Can be done. Such methods and apparatus find wide application in, for example, skin color detection, face detection and recognition, security surveillance, video and image compression, video conferencing, multimedia database searching, and computer games.

【0002】本発明はまた、自動立体型の観察者トラッ
キングディスプレイに関する。
[0002] The invention also relates to an autostereoscopic observer tracking display.

【0003】[0003]

【従来の技術】自動立体ディスプレイは、ビューアが、
2つの視野ウィンドウにおいて、目でこのようなディス
プレイを観察することによって、立体対を形成する2つ
の個別の画像を見ることを可能にする。このようなディ
スプレイの例は、欧州特許第0602934号、欧州特
許第0656555号、欧州特許第0708351号、
欧州特許第0726482号、および欧州特許第082
9743号に開示されている。添付の図面の図1は、公
知のタイプの観察者トラッキング自動立体ディスプレイ
の例を示す。
2. Description of the Related Art An autostereoscopic display has a viewer,
Observing such a display with the eyes in two viewing windows makes it possible to see two individual images forming a stereo pair. Examples of such displays are EP 0602934, EP 0656555, EP 0708351,
EP 0726482 and EP 082
No. 9743. FIG. 1 of the accompanying drawings shows an example of a known type of observer tracking autostereoscopic display.

【0004】ディスプレイは、トラッキングシステム2
と協働するディスプレイシステム1を有する。トラッキ
ングシステム2は、センサ信号をトラッキングプロセッ
サ4に与えるトラッキングセンサ3を有する。トラッキ
ングプロセッサ4は、センサ信号から観察者位置データ
信号を得、観察者位置データ信号は、ディスプレイシス
テム1のディスプレイ制御プロセッサ5に与えられる。
プロセッサ5は、位置データ信号をウィンドウ操縦信号
に変換し、これをトラッキング機能を備えた(trac
ked)3Dディスプレイ7の操縦機構6に与える。こ
のように、観察者の目に対する視野ウィンドウは、観察
者の頭の動きに従うように操縦され、動作範囲内で、観
察者の目を適切な視野ウィンドウ内に維持する。
The display is a tracking system 2
And a display system 1 which cooperates with. The tracking system 2 has a tracking sensor 3 that provides a sensor signal to a tracking processor 4. The tracking processor 4 obtains an observer position data signal from the sensor signal, and the observer position data signal is provided to a display control processor 5 of the display system 1.
The processor 5 converts the position data signal into a window control signal, and converts the signal into a window control signal (trac).
ked) is given to the control mechanism 6 of the 3D display 7. In this way, the viewing window for the observer's eyes is steered to follow the movement of the observer's head, keeping the observer's eyes in the proper viewing window within the operating range.

【0005】欧州特許第0877274号および英国特
許第2324428号は、観察者トラッキング自動立体
ディスプレイ用の、待ち時間が短く、更新(updat
e)周波数が高く、および測定精度が適切な観察者ビデ
オトラッキングシステムを開示する。添付の図面の図2
は、システムの一例を示す。このシステムは、トラッキ
ングセンサ3が、60Hzのフィールドレートで動作す
るSony XC999 NTSCビデオカメラを有
し、トラッキングプロセッサ4にマウス8が設けられ、
プロセッサ4が、150Mhzで動作するR4400プ
ロセッサならびにカメラ3によってキャプチャされた各
フィールドについての640×240絵素(画素)の解
像度を有するビデオディジタイザおよびフレームストア
が設けられたIndyシリーズのシリコングラフィック
スエントリーレベルマシンを有する点で、添付の図面の
図1に示すシステムと異なる。カメラ3は、ディスプレ
イ7の上部に配置され、ディスプレイの前に座っている
観察者の方を向いている。観察者とカメラ3との通常の
距離は、約0.85メートルであり、この距離におい
て、観察者は、水平方向すなわちX方向に約450mm
内で、運動の自由度を有する。カメラによって形成され
る画像内の2つの画素間の距離は、X方向およびY方向
のそれぞれにおいて約0.67mmおよび1.21mm
である。Y解像度は、各インターレースされたフィール
ドが個別に使用されるため、半分になる。
[0005] EP 0 877 274 and GB 2 324 428 disclose low latency, updat for observer tracking autostereoscopic displays.
e) Disclose an observer video tracking system with high frequency and appropriate measurement accuracy. Figure 2 of the accompanying drawings
Shows an example of the system. In this system, a tracking sensor 3 has a Sony XC999 NTSC video camera operating at a field rate of 60 Hz, a tracking processor 4 is provided with a mouse 8,
Indy series silicon graphics entry level where processor 4 is equipped with an R4400 processor operating at 150 Mhz and a video digitizer and frame store with a resolution of 640 × 240 picture elements (pixels) for each field captured by camera 3 It differs from the system shown in FIG. 1 of the accompanying drawings in having a machine. The camera 3 is arranged above the display 7 and faces the observer sitting in front of the display. The normal distance between the observer and the camera 3 is about 0.85 meters, at which distance the observer is about 450 mm in the horizontal or X direction.
Within, it has freedom of movement. The distance between two pixels in the image formed by the camera is approximately 0.67 mm and 1.21 mm in the X and Y directions, respectively.
It is. The Y resolution is halved because each interlaced field is used individually.

【0006】添付の図面の図3は、プロセッサ4によっ
て行われるトラッキング方法を一般的な用語で示す。こ
の方法は、初期化ステージ9に続いてトラッキングステ
ージ10を含む。初期化ステージ9では、ターゲット画
像または「テンプレート」は、カメラ3からの画像の一
部を格納することによってキャプチャされる。ターゲッ
ト画像は、一般に、添付の図面の図4に参照符号11で
示す観察者の目の領域を含む。ターゲット画像またはテ
ンプレート11がうまくキャプチャされるとすぐに、観
察者トラッキングがトラッキングステージ10において
行われる。
FIG. 3 of the accompanying drawings illustrates in general terms the tracking method performed by the processor 4. The method includes a tracking stage 10 following the initialization stage 9. In the initialization stage 9, a target image or “template” is captured by storing a part of the image from the camera 3. The target image generally includes an area of the observer's eye indicated by reference numeral 11 in FIG. 4 of the accompanying drawings. As soon as the target image or template 11 has been successfully captured, observer tracking is performed on the tracking stage 10.

【0007】グローバルターゲットまたはテンプレート
検索はステップ12で行われ、カメラ3によって生成さ
れる全画像内のターゲット画像の位置を検出する。ター
ゲット画像が見いだされると、動き検出はステップ13
で行われ、その後ローカルターゲットまたはテンプレー
ト検索がステップ14で行われる。テンプレートマッチ
ングステップ12および14は、テンプレート内のター
ゲット画像と、テンプレートが上に重ねられた各サブセ
クションとを相関させることによって行われる。最良の
相関値は、所定の閾値と比較され、ステップ15でトラ
ッキングが失われたたどうかをチェックする。トラッキ
ングが失われた場合、制御は、グローバルテンプレート
マッチングステップ12に戻る。トラッキングが失われ
ていなければ、制御はステップ13に戻る。
A global target or template search is performed in step 12 to find the position of the target image in all images generated by the camera 3. Once the target image has been found, motion detection is performed in step 13
, Followed by a local target or template search in step 14. The template matching steps 12 and 14 are performed by correlating the target image in the template with each subsection on which the template is overlaid. The best correlation value is compared to a predetermined threshold, and step 15 checks if tracking has been lost. If tracking is lost, control returns to global template matching step 12. If tracking has not been lost, control returns to step 13.

【0008】動き検出13およびローカルテンプレート
マッチング14は、トラッキングループを形成し、トラ
ッキングループは、トラッキングが維持される限り行わ
れる。動き検出ステップは、差分法(differen
tial method)によって位置データを提供す
る。差分法は、連続したフィールド間のターゲット画像
の動きを決定し、これを先のフィールドに関して前ステ
ップにおけるローカルテンプレートマッチングで見いだ
された位置に加える。
[0008] The motion detection 13 and the local template matching 14 form a tracking loop, and the tracking loop is performed as long as tracking is maintained. The motion detection step includes a difference method (differen
The position data is provided by the TIAL method. The difference method determines the motion of the target image between successive fields and adds this to the location found by the local template matching in the previous step for the previous field.

【0009】初期化ステージ9は、トラッキングが始ま
る前に、観察者のターゲット画像またはテンプレートを
得る。欧州特許第0877274号および英国特許第2
324428号に開示される初期化ステージは、対話型
方法を用いる。対話型方法において、ディスプレイ7
は、入力されるビデオ画像を表示し、例えば、プロセッ
サ4において実現される画像生成器は、添付の図面の図
5に示すように、ボーダー画像またはグラフィカルガイ
ド16をディスプレイ上に生成する。例えば、マウス8
の一部を形成するユーザ作動可能な制御は、ボーダー画
像内の画像領域のキャプチャを手動によって駆動するこ
とを可能にする。
The initialization stage 9 obtains a target image or template of the observer before tracking starts. European Patent No. 0877274 and British Patent No. 2
The initialization stage disclosed in 324428 uses an interactive method. In the interactive method, the display 7
Displays an input video image, for example, an image generator implemented in processor 4 generates a border image or graphical guide 16 on a display, as shown in FIG. 5 of the accompanying drawings. For example, mouse 8
The user-operable controls that form part of the B. allow for manually driving capture of an image area within the border image.

【0010】観察者は、必要なテンプレートサイズであ
るボーダー画像と共に、ディスプレイ7上の自分自身の
画像を観察する。観察者は、自分の両目の間の中間点を
グラフィカルガイド16の中央線に合わせ、例えば、マ
ウスボタンまたはキーボードのキーを押すことによっ
て、システムがテンプレートをキャプチャするように作
動させる。あるいは、この位置合わせは、マウス8を用
いてグラフィカルガイド16を所望の場所までドラッグ
することによっても成し遂げられ得る。
The observer observes his or her own image on the display 7 together with the border image of the required template size. The observer aligns the midpoint between his eyes with the center line of the graphical guide 16 and activates the system to capture the template, for example, by pressing a mouse button or keyboard key. Alternatively, this alignment may be accomplished by using the mouse 8 to drag the graphical guide 16 to a desired location.

【0011】このような対話型テンプレートキャプチャ
技術の利点は、観察者が、受け入れ可能な位置合わせ精
度でテンプレートを選択することが可能なことである。
これには、人の顔の認識および目の領域などの目的の画
像領域の選択が含まれる。人の視覚にとってはこのプロ
セスは簡単なことであるが、このようなテンプレートキ
ャプチャは、様々な照明条件下で異なる年齢、性別、目
の形、および皮膚の色を有する可能な限りすべてのタイ
プの人々が与えられると、コンピュータには困難であ
る。
An advantage of such an interactive template capture technique is that the observer can select a template with acceptable registration accuracy.
This includes recognizing a human face and selecting a target image area, such as an eye area. For human vision, this process is straightforward, but such template captures can be used for all possible types with different ages, genders, eye shapes, and skin colors under various lighting conditions. Given the people, computers are difficult.

【0012】Suwaら、「A Video Qual
ity ImprovementTechnique
for Video Phone and Video
Conference Terminal」、IEEE
Workshop on Visual Signa
l Processing and Communic
ations、1993年9月21から22日、オース
トラリア、メルボルンは、皮膚の色の統計学的モデルに
基づいて顔の領域を検出する技術を開示している。この
技術は、顔の領域の色および輝度が、規定された領域に
存在し、顔がビデオフレーム内の所定量の空間を占有す
ることを想定している。色が領域内にあり、サイズが公
知のサイズ内にある画素からなる色領域を検索すること
によって、顔領域が見いだされ得る。しかし、皮膚の色
に関する色空間範囲は、光源、方向および輝度の変化に
よって変化する。色空間はまた、異なる皮膚の色につい
ても変化する。従って、この技術は、各特定の応用およ
びシステムに対して、皮膚の色空間を較正することを必
要するため、応用が制限される。
Suwa et al., "A Video Qual."
ity ImprovementTechnique
for Video Phone and Video
Conference Terminal ", IEEE
Works on Visual Signa
l Processing and Communic
, Sept. 21-22, 1993, Melbourne, Australia, discloses a technique for detecting facial regions based on a statistical model of skin color. This technique assumes that the color and brightness of the face area are in a defined area, and that the face occupies a predetermined amount of space in the video frame. A face region can be found by searching for a color region consisting of pixels whose color is within the region and whose size is within a known size. However, the color space range for skin color changes with changes in light source, direction and brightness. The color space also changes for different skin colors. Therefore, this technique has limited applications because it requires calibrating the skin color space for each particular application and system.

【0013】Swainら、「Color Index
ing」、International Journa
l of Computer Vision、7:1、
11から32頁、1991年は、多色物体の色ヒストグ
ラムを用いて、大きなモデルのデータベース内に色イン
デクシングを提供することを開示している。次に、例え
ば、Sakoら、「Real−Time Facial
−Feature Tracking based o
n Matching Techniquesand
its Applications」、12 IAPR
International Conference
on Patent Recognitionの議事
録、エルサレム、1994年10月6から13日、II
巻、320から324頁によって開示されるように、顔
の領域などの既知の物体の位置を見いだすために「ヒス
トグラムバックプロジェクション」として公知の技術が
用いられる。しかし、この技術は、顔の色ヒストグラム
などの所望のターゲットに関する知識を必要とし、ター
ゲット画像の充分な画素が、画像の他の部分の画素とは
異なる場合にのみ作用する。従って、制御された背景を
提供することが必要とされ、照明の変化に対応するさら
なる技術が必要である。
[0013] Swain et al., "Color Index"
ing ", International Journa
l of Computer Vision, 7: 1,
Pages 11-32, 1991, disclose the use of color histograms of multicolored objects to provide color indexing in large model databases. Next, for example, Sako et al., “Real-Time Facial
-Feature Tracking based o
n Matching Techniquesand
its Applications ", 12 IAPR
International Conference
Minutes of on Patent Recognition, Jerusalem, October 6-13, 1994, II
Vol., Pp. 320-324, a technique known as "histogram back projection" is used to find the location of a known object, such as a facial region. However, this technique requires knowledge about the desired target, such as a facial color histogram, and works only if enough pixels in the target image are different from pixels in other parts of the image. Thus, there is a need to provide a controlled background and a need for additional techniques to accommodate changes in lighting.

【0014】Chenら、「Face Detecti
on by Fuzzy Pattern Match
ing」、IEEE(0−8186−7042−8)、
591から596頁、1995年は、「皮膚の色分布関
数」(SKDF)として公知のモデルを用いた皮膚の色
の抽出に主として基づくファジーパターンマッチング方
法を使用して、入力画像内の顔のような領域を検出する
技術を開示している。この技術は、まず、Wyszec
hiら、「Color Science」、John
Wiley & Sons Inc.1982年に開示
されるように、RGBをファーンスワース色空間に変換
する。SCDFは、人の顔を含むサンプル画像の大きな
セットを集め、人間のビューアによって画像内の皮膚領
域を選択することによって構築される。次に、皮膚領域
に現れる色空間の各色の周波数(frequency)
を調べるために、学習プログラムが適用される。次に、
SCDFは統一され、色がどの程度皮膚の色と同じであ
るかを見積もるために用いられる。領域が皮膚領域の可
能性が高いとして抽出されると、その領域は、それぞれ
が10×12個の正方形セルを含む予め確立された顔の
形状モデルに基づいてさらに分析される。しかし、この
技術の問題点は、SCDFが、照明条件の変化によって
変化し得ることである。
[0014] Chen et al., "Face Detecti."
on by Fuzzy Pattern Match
ing ", IEEE (0-8186-7042-8),
591-596, 1995, use a fuzzy pattern matching method based primarily on the extraction of skin color using a model known as the "skin color distribution function" (SKDF), to obtain a face-like image in the input image. It discloses a technique for detecting a unique area. This technology first uses Wyszec
hi et al., "Color Science", John.
Wiley & Sons Inc. Converts RGB to Farnsworth color space as disclosed in 1982. An SCDF is constructed by collecting a large set of sample images containing a human face and selecting a skin area in the image by a human viewer. Next, the frequency of each color in the color space appearing in the skin region (frequency)
To find out, a learning program is applied. next,
The SCDF is unified and used to estimate how similar the color is to the skin color. Once the region is extracted as likely to be a skin region, the region is further analyzed based on a pre-established facial shape model, each containing 10 × 12 square cells. However, a problem with this technique is that the SCDF can change with changes in lighting conditions.

【0015】[0015]

【発明が解決しようとする課題】上記のような従来技術
では、様々な照明条件下で異なる年齢、性別、目の形、
および皮膚の色を有する様々なのタイプの人々につい
て、カラー画像における顔の候補を見いだすことは困難
であった。
In the prior art as described above, under various lighting conditions, different ages, genders, eye shapes,
For various types of people with different skin colors, it has been difficult to find facial candidates in color images.

【0016】よって、本発明の目的は、広範囲な照明条
件において、カラー較正の必要なく適用可能で、公知の
技術よりも信頼性の高い且つ計算要件が大幅に減少され
た簡便な方法および装置を提供することである。また、
異なる年齢、性別、および皮膚の色の人々の画像におけ
る顔の候補を認識することができ、例えば明るい色の眼
鏡をかけている場合にも対応できる方法および装置を提
供することである。さらに、非常に効率的であり、リア
ルタイムで実現され、低コストの商業的な応用に使用で
きる方法および装置を提供することである。また、本発
明の他の目的は、上記のような顔を検出する装置を含む
観察者トラッキングディスプレイを提供することであ
る。
Accordingly, it is an object of the present invention to provide a simple method and apparatus that can be applied over a wide range of lighting conditions without the need for color calibration, is more reliable than known techniques, and has significantly reduced computational requirements. To provide. Also,
It is an object of the present invention to provide a method and an apparatus capable of recognizing face candidates in images of people of different ages, genders, and skin colors, for example, even when wearing brightly colored glasses. It is a further object of the present invention to provide a method and apparatus which is very efficient, realized in real time and can be used for low cost commercial applications. It is another object of the present invention to provide an observer tracking display including a device for detecting a face as described above.

【0017】[0017]

【課題を解決するための手段】本発明の第1の局面によ
ると、カラー画像の顔のような領域を検出する方法であ
って、彩度を平均化することによって該カラー画像の解
像度を低下させるステップであって、解像度が低下した
画像を形成するステップと、所定の形状を有する該解像
度が低下した画像の領域であって、該所定の形状を取り
囲む該解像度が低下した画像の部分の彩度とは実質的に
異なる実質的に均一な彩度を有する該解像度が低下した
画像の領域を検索するステップとを包含する方法が提供
される。
According to a first aspect of the present invention, there is provided a method for detecting a face-like region of a color image, wherein a resolution of the color image is reduced by averaging saturation. Forming a reduced-resolution image; and coloring a portion of the reduced-resolution image that is a region of the reduced-resolution image having a predetermined shape and that surrounds the predetermined shape. Retrieving regions of the reduced resolution image having substantially uniform saturation that is substantially different from the degree.

【0018】前記カラー画像が複数の絵素を含み、前記
解像度が、前記所定の形状が2から3個の解像度が低下
した絵素にわたるように低下されてもよい。
[0018] The color image may include a plurality of picture elements, and the resolution may be reduced so that the predetermined shape extends over two or three resolution-reduced picture elements.

【0019】前記カラー画像が、M×N絵素の長方形ア
レイを含み、前記解像度が低下した画像が、(M/m)
×(N/n)絵素を含み、それぞれが、該カラー画像の
m×n絵素に対応し、該解像度が低下した画像の各絵素
の彩度が、以下の式
The color image includes a rectangular array of M × N picture elements, and the reduced-resolution image is (M / m)
× (N / n) picture elements, each corresponding to the m × n picture element of the color image, and the saturation of each picture element of the image with reduced resolution is represented by the following formula:

【0020】[0020]

【数2】 (Equation 2)

【0021】で表されてもよく、ここで、f(i,j)
が、該m×n絵素(32)のi番目の列およびj番目の
行の絵素の彩度である。前記方法は、ストアに前記彩度
を格納するステップを含んでいてもよい。
Where f (i, j)
Is the saturation of the picture element in the i-th column and j-th row of the m × n picture element (32). The method may include storing the saturation in a store.

【0022】前記解像度が低下した絵素のそれぞれの彩
度と、少なくとも1つの隣接した解像度が低下した絵素
の彩度とを比較することによって、該解像度が低下した
絵素のそれぞれに均一値が割り当てられてもよい。
By comparing the saturation of each of the reduced resolution picture elements with the saturation of at least one adjacent reduced resolution picture element, a uniform value is assigned to each of the reduced resolution picture elements. May be assigned.

【0023】以下の式が満たされる場合、各均一値に第
1の値が割り当てられ、 (max(P)−min(P))/max(P)≦T ここで、max(P)およびmax(P)が、それぞ
れ、前記解像度が低下した絵素および前記または各隣接
した絵素の彩度の最大および最小であり、Tが閾値であ
り、該式が満たされない場合、該第1の値とは異なる第
2の値が該各均一値に割り当てられる。Tが実質的に
0.15に等しくてもよい。
If the following equation is satisfied, a first value is assigned to each uniform value: (max (P) -min (P)) / max (P) ≤T where max (P) and max (P) (P) is the maximum and minimum of the saturation of the reduced-resolution picture element and the or each of the adjacent picture elements, respectively, and if T is a threshold and the equation is not satisfied, the first value Is assigned to each uniform value. T may be substantially equal to 0.15.

【0024】前記または各隣接した解像度が低下した絵
素には均一値が割り当てられず、各均一値が前記ストア
に格納されてもよい。
A uniform value may not be assigned to the or each adjacent reduced-resolution picture element, and each uniform value may be stored in the store.

【0025】前記所定の形状が2または3個の解像度が
低下した絵素にわたるように、前記解像度が低下され、
前記方法が、さらに、前記第1の値の均一値が、1つの
解像度が低下した絵素、2つの垂直または水平に隣接し
た解像度が低下した絵素、および絵素の長方形の2×2
アレイのいずれか1つに割り当てられ、前記第2の値の
均一値が、周囲の解像度が低下した絵素のそれぞれに割
り当てられるとき、顔のような領域の検出を示すことを
含んでいてもよい。
The resolution is reduced so that the predetermined shape spans two or three reduced resolution picture elements;
The method further comprises the step of determining that the uniform value of the first value is one reduced resolution picture element, two vertically or horizontally adjacent reduced resolution picture elements, and a 2 × 2 pixel picture element rectangle.
Assigning to any one of the arrays, wherein the uniform value of the second value is indicative of the detection of a face-like region when assigned to each of the surrounding reduced resolution picture elements. Good.

【0026】前記または各隣接した解像度が低下した絵
素には均一値が割り当てられず、各均一値が前記ストア
に格納され、検出が、前記第1および第2の値とは異な
る第3の値を前記ストアに格納することによって示され
てもよい。
The or each adjacent reduced-resolution picture element is not assigned a uniform value, each uniform value is stored in the store, and the detection is a third value different from the first and second values. The value may be indicated by storing it in the store.

【0027】前記検索ステップが、前記解像度低下を繰
り返し、前記カラー画像絵素に対して前記解像度が低下
した絵素がシフトした状態で、少なくとも1回は検索を
することを含んでいてもよい。
[0027] The search step may include performing at least one search in a state where the resolution is reduced and the picture element whose resolution has been reduced is shifted with respect to the color image picture element.

【0028】彩度が、以下の式で、赤色、緑色および青
色成分から得られ(21)、 (max(R,G,B)−min(R,G,B))/m
ax(R,G,B) ここで、max(R、G、B)およびmin(R、G、
B)が、それぞれ、該赤色、緑色および青色成分の最大
値および最小値である。
Saturation is obtained from the red, green and blue components by the following equation (21): (max (R, G, B) -min (R, G, B)) / m
ax (R, G, B) where max (R, G, B) and min (R, G,
B) are the maximum and minimum values of the red, green and blue components, respectively.

【0029】前記方法は、前記カラー画像をキャプチャ
するステップを含んでいてもよい。
[0029] The method may include the step of capturing the color image.

【0030】前記キャプチャステップは、前記カラー画
像が、ビデオカメラによってキャプチャされることを含
み、前記解像度低下ステップおよび検索ステップが、該
ビデオカメラからの異なるビデオフィールドまたはフレ
ームに対して繰り返されてよい。
[0030] The capturing step may include that the color image is captured by a video camera, and the resolution reducing and searching steps may be repeated for different video fields or frames from the video camera.

【0031】前記キャプチャステップにおいて、第1の
カラー画像が、顔の位置の予想範囲を照射している間に
キャプチャされ、第2のカラー画像が、周辺光を用いて
キャプチャされ、該第2のカラー画像が該第1のカラー
画像から減算されてカラー画像を形成してもよい。
In the capturing step, a first color image is captured while illuminating the expected area of the face position, a second color image is captured using ambient light, and the second color image is captured using ambient light. A color image may be subtracted from the first color image to form a color image.

【0032】本発明の第2の局面によると、カラー画像
の顔のような領域を検出するための装置であって、彩度
を平均化することによって該カラー画像の解像度を低下
させ、解像度が低下した画像を形成し、所定の形状を有
する該解像度が低下した画像の領域であって、該所定の
形状を取り囲む該解像度が低下した画像の部分の彩度と
は実質的に異なる実質的に均一な彩度を有する該解像度
が低下した画像の領域を検索するように配置されている
データプロセッサを含む装置が提供される。
According to a second aspect of the present invention, there is provided an apparatus for detecting an area such as a face of a color image, wherein the resolution of the color image is reduced by averaging the saturation. Forming a reduced image, wherein the region of the reduced resolution image having a predetermined shape is substantially different from the saturation of a portion of the reduced resolution image surrounding the predetermined shape. An apparatus is provided that includes a data processor arranged to search for regions of the reduced resolution image having uniform saturation.

【0033】本発明の第3の局面によると、本発明の第
2の局面による装置を含む観察者トラッキングディスプ
レイが提供される。
According to a third aspect of the present invention there is provided an observer tracking display including an apparatus according to the second aspect of the present invention.

【0034】以下作用について説明する。The operation will be described below.

【0035】人の皮膚は、均一な彩度を有する傾向があ
ることは公知である。本発明の方法および装置は、この
特性を利用し、カラー画像における顔の候補を見いだす
効果的な方法を提供する。広範囲な照明条件は、カラー
較正の必要なく適応されるので、この技術は、公知の技
術よりもより信頼があり、便利である。画像の彩度の解
像度を低下させることによって、計算要件は大幅に減少
し、比較的簡単な方法が使用され得る。平均化によっ
て、顔領域の彩度の均一性が向上するので、この技術
は、異なる年齢、性別、および皮膚の色の人々の画像に
おける顔の候補を認識することができ、明るい色の眼鏡
をかけている場合にも対応できる。この技術は非常に効
率的であるため、リアルタイムで実現され、低コストの
商業的な応用に使用され得る。
It is known that human skin tends to have a uniform saturation. The method and apparatus of the present invention take advantage of this property to provide an effective way to find facial candidates in color images. This technique is more reliable and convenient than known techniques, since a wide range of lighting conditions are accommodated without the need for color calibration. By reducing the saturation resolution of the image, the computational requirements are greatly reduced and a relatively simple method can be used. Because averaging improves the uniformity of saturation in the face area, this technique can recognize facial candidates in images of people of different ages, genders, and skin colors, and use bright colored glasses. We can cope when we are running. This technique is so efficient that it can be implemented in real time and used for low cost commercial applications.

【0036】この技術は、欧州特許第0877274号
および英国特許第2324428号に開示されている画
像トラッキングシステムに関する添付の図面の図3に示
す初期ステージ9において使用され得る。さらに、この
技術は、例えば、米国特許第5164992号、米国特
許第5012522号、Turkら、「Eigenfa
ces for Recognition」、Jour
nal 1 ofCognitive Neurosc
ience、3巻1号、70から86頁、1991年、
Yuilleら、「Feature Extracti
on from Faces using Defor
mable Templates」、Internat
ional Journal of Computer
Vision、8(2)、99から111頁、199
2年、およびYangら、Human Face De
tection in Complex Backgr
ound」、Pattern Recognitio
n,27巻1号、53から63頁、1994年に開示さ
れているように、2ステージの顔検出および認識技術の
第1の部分として使用され得る。このような2ステージ
技術において、第1のステージは、顔のおよその位置を
見つけだし、第2のステージは、各候補の顔領域をさら
に分析し、顔の存在を確認し、目、鼻および唇などの正
確な顔だちを抽出する。第1のステージは、高い精度を
必要としないので、迅速なアルゴリズムで実現され得
る。第2のステージで分析されなければならない画像領
域の数は、第1のステージで限定される。これは有利で
ある。なぜなら、第2のステージは、一般に、より複雑
なアルゴリズムを必要とするため、より計算負荷が高い
(computing−intensive)からであ
る。
This technique can be used in the early stage 9 shown in FIG. 3 of the accompanying drawings for the image tracking system disclosed in EP 0 877 274 and GB 2 324 428. Further, this technique is described, for example, in U.S. Pat. No. 5,169,492, U.S. Pat. No. 5,012,522, Turk et al., "Eigenfa.
ces for Recognition ", Jour
nal 1 of Cognitive Neurosc
ence, Vol. 1, No. 1, pp. 70-86, 1991,
Yuille et al., "Feature Extracti
on from Faces using Defor
mable Templates ", Internet
ionical Journal of Computer
Vision, 8 (2), 99-111, 199
2 years, and Yang et al., Human Face De
protection in Complex Backgr
sound ", Pattern Recognition
n, Vol. 27, No. 1, pp. 53-63, 1994, can be used as the first part of a two-stage face detection and recognition technique. In such a two-stage technique, the first stage finds the approximate location of the face, and the second stage further analyzes each candidate's face region to confirm the presence of the face, eyes, nose and lips. Extract accurate faces such as. The first stage does not require high precision and can be implemented with a fast algorithm. The number of image areas that must be analyzed in the second stage is limited in the first stage. This is advantageous. This is because the second stage generally requires more complex algorithms and is therefore more computationally intensive.

【0037】[0037]

【発明の実施の形態】本発明を添付の図面を参照しなが
ら実施例を用いてさらに説明する。尚、図面全体にわた
って、同様の参照符号は同様の部分を指す。
BRIEF DESCRIPTION OF THE DRAWINGS The invention will be further explained by means of embodiments with reference to the accompanying drawings. It should be noted that like reference numerals refer to like parts throughout the drawings.

【0038】図6は、画素化カラー画像の顔のような領
域をビデオ画像シーケンスから自動的に検出および見い
出す方法を流れ図で示す。ビデオ画像シーケンスは、例
えば、上記で図2を参照しながら記載したタイプのビデ
オカメラによってリアルタイムで提供され得る。方法
は、図3に示す初期化ステージ9の一部としてリアルタ
イムで動作し得る。
FIG. 6 is a flowchart illustrating a method for automatically detecting and finding a face-like region of a pixelated color image from a video image sequence. The video image sequence may be provided in real time, for example, by a video camera of the type described above with reference to FIG. The method may operate in real time as part of the initialization stage 9 shown in FIG.

【0039】ステップ20において、赤、緑、青(RG
B)フォーマットの最新のディジタル画像が得られる。
例えば、このステップは、ビデオカメラからのビデオデ
ータの最新フィールドをフィールドストアに格納するこ
とを含み得る。ステップ21において、ビデオ画像は、
RGBフォーマットからHSVフォーマットに変換さ
れ、各画素の彩度を得る。実際には、ステップ21にお
いてS成分のみを得るだけで充分であり、このS成分
は、フィールドストア内でRGB画素データまたはその
1つの成分を上書きし、メモリ要件を最小にするために
用いられ得る。
In step 20, red, green and blue (RG
B) The latest digital image in the format is obtained.
For example, this step may include storing the latest field of video data from the video camera in a field store. In step 21, the video image is
The RGB format is converted to the HSV format, and the saturation of each pixel is obtained. In practice, it is sufficient to obtain only the S component in step 21, which can be used to overwrite the RGB pixel data or one of its components in the field store and minimize memory requirements. .

【0040】RGBフォーマットは、カメラセンサおよ
びディスプレイ蛍光体が作用する様式から生じるハード
ウェア指向の色方式である。HSVフォーマットは、色
相彩度輝度(HSI)および色相明度彩度(HLS)を
含むいくつかのフォーマットの1つであり、色合い、
陰、およびトーンの概念により密接に関連する。HSV
フォーマットにおいて、色相は、光の波長(例えば、赤
色と黄色との間の区別)によって説明される色を示し、
彩度は、存在する色の量(例えば、赤色およびピンク色
との間の区別)、ならびに明度、輝度または値は、光の
量(例えば、暗い赤色と明るい赤色との間、または暗い
灰色と明るい灰色との間の区別)を示す。これらの値が
プロットされ得る「空間」は、例えば、図7に示すよう
に、円錐形もしくは六角錐形またはダブルコーンとして
示され得る。ここで、円錐軸は、黒から白への中間色の
進行であり、軸からの距離は彩度を示し、軸の周りの方
向または角度は色相を示す。
The RGB format is a hardware-oriented color scheme that results from the way camera sensors and display phosphors work. The HSV format is one of several formats, including Hue Saturation Luminance (HSI) and Hue Lightness Saturation (HLS).
It is more closely related to the concept of shade and tone. HSV
In the format, hue indicates the color described by the wavelength of light (eg, the distinction between red and yellow),
Saturation is the amount of color present (e.g., the distinction between red and pink), and lightness, luminance or value is the amount of light (e.g., between dark red and light red, or dark gray). Distinction between light gray). The "space" in which these values may be plotted may be shown, for example, as a cone or hexagon or a double cone, as shown in FIG. Here, the conical axis is the progression of the intermediate color from black to white, the distance from the axis indicates saturation, and the direction or angle around the axis indicates hue.

【0041】人の皮膚の色は、血液(赤色)およびメラ
ニン(黄色、茶色)の組合せによって形成される。皮膚
の色は、これらの2つの極端な色相間に存在し、いくぶ
んか飽和しているが、極端に飽和してはいない。人の顔
の彩度成分は、比較的均一である。
The color of human skin is formed by a combination of blood (red) and melanin (yellow, brown). Skin color exists between these two extreme hues and is somewhat saturated but not very saturated. The chroma component of a human face is relatively uniform.

【0042】ビデオ画像データをRGBフォーマットか
らHSV、HSIまたはHLSフォーマットに変換する
ためのいくつかの技術が存在する。彩度成分を抽出する
任意の技術が用いられ得る。例えば、変換は、彩度成分
Sに対して、以下の式に従って行われ得る。 max(R,G,B)=0のとき、S=0 max(R,G,B)が0でないとき、 S=(max(R,G,B)−min(R,G,B))
/max(R,G,B)
There are several techniques for converting video image data from RGB format to HSV, HSI or HLS format. Any technique for extracting the saturation component can be used. For example, the conversion may be performed on the saturation component S according to the following equation. When max (R, G, B) = 0, S = 0 When max (R, G, B) is not 0, S = (max (R, G, B) -min (R, G, B))
/ Max (R, G, B)

【0043】変換ステップ21の次に、彩度成分の空間
画像解像度は、ステップ22における平均化によって低
下する。図2を参照しながら上述したように、ディスプ
レイからの観察者の顔のおよその距離は、各ビデオ画像
における顔のおよそのサイズが分かるように既知であ
る。解像度は、大人の観察者の顔が、図6に示す各寸法
において、約2から3画素を占有するように低下する。
以下、これを成し遂げる技術をさらに詳細に記載する。
Following the conversion step 21, the spatial image resolution of the chroma components is reduced by the averaging in step 22. As described above with reference to FIG. 2, the approximate distance of the observer's face from the display is known so that the approximate size of the face in each video image is known. The resolution is reduced so that the adult observer face occupies about 2 to 3 pixels at each dimension shown in FIG.
The technique for achieving this is described in more detail below.

【0044】ステップ23は、ステップ22からの解像
度が低下した画像において、異なる彩度を有する解像度
が低下した画素の領域によって取り囲まれた、所定のサ
イズおよび形状の均一な彩度を有する領域または「ブロ
ブ(blobs)」を検出する。これを成し遂げる技術
についても以下さらに詳細に記載する。ステップ24
は、顔の候補または顔のような領域が見いだされたかど
うかを検出する。見いだされなかった場合には、ステッ
プ20から24が繰り返される。ステップ24が少なく
とも1つの候補が見いだされたことを確認すると、ステ
ップ23で検出された均一なブロブまたは各均一なブロ
ブの位置がステップ25で出力される。
Step 23 is a step in the reduced-resolution image from step 22, which is a region having uniform chroma of a predetermined size and shape, surrounded by regions of reduced-resolution pixels having different chromas. Blobs "are detected. Techniques for accomplishing this are also described in further detail below. Step 24
Detects whether a face candidate or a face-like region has been found. If not found, steps 20 to 24 are repeated. If step 24 confirms that at least one candidate has been found, the uniform blob or the position of each uniform blob detected in step 23 is output in step 25.

【0045】図8は、画像解像度の低下ステップ22を
さらに詳細に示す。図8(a)の参照符号30は、ステ
ップ20に与えられる画像の画素構造を示す。空間解像
度は、M×N個の正方形または長方形画素の規則正しい
長方形アレイとして示す。空間解像度は、平均化によっ
て低下し、図8(b)の参照符号31で示す(M/m)
×(N/n)画素のアレイを得る。画素30のアレイ
は、それぞれが構造30のm×n画素を含む、画素32
の「ウィンドウ」または長方形ブロックに効果的に分割
される。画素のS値は、f(i,j)(0≦i<mおよ
び0≦j<nの場合)として図8に示す。ウィンドウの
平均彩度値Pは、以下の式で計算される。
FIG. 8 shows the image resolution lowering step 22 in more detail. Reference numeral 30 in FIG. 8A indicates the pixel structure of the image given in step 20. Spatial resolution is shown as an ordered rectangular array of M × N square or rectangular pixels. The spatial resolution is reduced by the averaging and is indicated by reference numeral 31 (M / m) in FIG.
An array of × (N / n) pixels is obtained. The array of pixels 30 comprises pixels 32 each containing m × n pixels of structure 30.
Are effectively divided into "windows" or rectangular blocks. The S value of the pixel is shown in FIG. 8 as f (i, j) (when 0 ≦ i <m and 0 ≦ j <n). The average saturation value P of the window is calculated by the following equation.

【0046】[0046]

【数3】 (Equation 3)

【0047】図面に示す実施態様において、空間解像度
の低下は、大人の観察者の顔が、各寸法における解像度
が低下した画素の約2から3個を占有するようになる。
In the embodiment shown in the drawings, the reduced spatial resolution causes the adult observer's face to occupy about two to three of the reduced resolution pixels in each dimension.

【0048】ステップ23は、均一状態または値Uを解
像度が低下したそれぞれの画素に割当て、顔のような領
域を示す均一値のパターンを検出することを含む。均一
値は、画素およびその近傍の彩度に応じて、1または0
である。図9(a)は、平均化された彩度値P0を有す
る画素を示す(参照符号35)。図9(b)に参照符号
36で示す彩度値P0の均一値Uは、P0および3つの近
傍画素の平均化された彩度値P1、P2およびP3から計
算される。均一値の割当ては、左上の画素37から始ま
り、一番上の行の終わりから2番目の画素38に均一値
が割り当てられるまで左から右に進む。このプロセス
は、各行について上から下へと終わりから2番目の行ま
で繰り返される。このように画素を「走査」し、均一値
が計算された画素の右および下の近傍画素を用いること
によって、メモリ容量が効率的に使用され得るようにス
トアに上書きすることによって、平均彩度値Pを均一値
Uで置き換えることが可能であり、均一値のためにさら
にメモリ容量を提供する必要はない。
Step 23 involves assigning a uniform state or value U to each pixel of reduced resolution and detecting a pattern of uniform values indicative of a face-like region. The uniform value is 1 or 0 depending on the saturation of a pixel and its vicinity.
It is. FIG. 9A shows a pixel having an averaged saturation value P 0 (reference numeral 35). The uniform value U of the saturation value P 0 indicated by reference numeral 36 in FIG. 9B is calculated from P 0 and the averaged saturation values P 1 , P 2 and P 3 of three neighboring pixels. The uniform value assignment starts at the upper left pixel 37 and proceeds from left to right until the uniform value is assigned to the second pixel 38 from the end of the top row. This process is repeated for each row from top to bottom to the penultimate row. By "scanning" the pixel in this way and using the neighboring pixels to the right and below the pixel for which the uniform value was calculated, the average saturation is overwritten by overwriting the store so that memory capacity can be used efficiently. It is possible to replace the value P with the uniform value U, without having to provide any further memory capacity for the uniform value.

【0049】均一状態Uは、以下のように計算される。 (fmax−fmin)/fmax≦Tのとき、U=1 (fmax−fmin)/fmax>Tのとき、U=0 ここで、Tは、例えば、典型的な値0.15を有する所
定の閾値、fmaxは、P0、P1、P2、およびP3の最
大値であり、fminは、P0、P1、P2、およびP3
最小値である。
The uniform state U is calculated as follows. U = 1 when (fmax-fmin) / fmax≤T, U = 0 when (fmax-fmin) / fmax> T where T is a predetermined threshold value having a typical value of 0.15, for example. , fmax is the maximum value of P 0, P 1, P 2 , and P 3, fmin is the minimum value of P 0, P 1, P 2 , and P 3.

【0050】均一値の割当てが完了すると、アレイ36
は、解像度が減少した画素の彩度の均一を示す0および
1のパターンを含む。ステップ23は、顔のような領域
を検出するために0および1の特定のパターンを探す。
図10は、均一値の4つのパターンおよびそれらのパタ
ーンに対応する、ビデオ画像内の顔候補のような画素彩
度パターンの一例を示す。図10は、均一ブロブを参照
符号40で示す。ここで、暗い領域は、顔のような領域
を示すための充分な均一性を有する平均化された彩度値
を示す。周りの明るい領域または正方形は、均一な彩度
画素を取り囲み、実質的に異なる彩度を有する領域を示
す。均一値の対応するパターンは、参照符号41で示さ
れ、均一値0を有する画素ロケーションで完全に取り囲
まれている、均一値1を有する画素ロケーションを含
む。
Upon completion of the uniform value assignment, array 36
Contains 0 and 1 patterns indicating uniformity of chroma for pixels with reduced resolution. Step 23 looks for a specific pattern of 0s and 1s to detect areas such as faces.
FIG. 10 shows an example of four patterns of uniform values and corresponding pixel saturation patterns, such as face candidates in a video image, corresponding to those patterns. FIG. 10 shows the uniform blob at reference numeral 40. Here, the dark area indicates an averaged saturation value having sufficient uniformity to indicate a face-like area. The surrounding bright areas or squares surround areas of uniform saturation pixels and indicate areas having substantially different saturation. The corresponding pattern of uniform values is indicated by reference numeral 41 and includes pixel locations having a uniform value of 1, completely surrounded by pixel locations having a uniform value of zero.

【0051】同様に、図10は、他の顔のような領域を
参照符号42で示し、対応する均一値のパターンを参照
符号43で示す。この場合、2つの水平に隣接する画素
ロケーションは、均一値1を有し、且つ均一値0を有す
る画素ロケーションによって完全に取り囲まれている。
図10は、均一値が参照符号45で示され、2つの垂直
に隣接した画素ロケーションが、均一値1を有し、且つ
均一値0を有する画素ロケーションによって取り囲まれ
ている第3のパターンを参照符号44で示す。
Similarly, FIG. 10 shows another area such as a face by reference numeral 42 and a corresponding uniform value pattern by reference numeral 43. In this case, two horizontally adjacent pixel locations have a uniform value of 1 and are completely surrounded by pixel locations having a uniform value of 0.
FIG. 10 refers to a third pattern in which the uniform value is indicated by reference numeral 45 and two vertically adjacent pixel locations have a uniform value of 1 and are surrounded by pixel locations having a uniform value of 0. Indicated by reference numeral 44.

【0052】図10に参照符号46で示す第4のパター
ンは、均一値0を有する画素ロケーションによって完全
に取り囲まれている均一値1を有する4(2×2)個の
画素ロケーションの正方形ブロックを有する。従って、
図10で参照符号41、43、45および47で示す均
一値のパターンのいずれかが起こるときは常に、ステッ
プ23は、顔のような領域または候補が見いだされたこ
とを示す。これらのパターンの検索は効率的に行われ得
る。例えば、画素ロケーションの均一値は、各行におい
て左から右、およびフィールドの上から下に走査するこ
とによって順にチェックされる。均一値1が検出される
と、現在の画素ロケーションの右および下にある近隣画
素ロケーションが調べられる。これらの均一値の少なく
とも1つがまた1であり、領域が均一値0によって取り
囲まれている場合、可能性のある顔候補に対応するパタ
ーンが見いだされる。次に、対応する画素ロケーション
は、均一値を、例えば、1または0以外の値(例えば、
2の値)で置き換えることによってマークされ得る。可
能性のある顔候補が見いだされなかった場合を除いて、
候補の位置が出力される。
The fourth pattern, designated 46 in FIG. 10, represents a square block of 4 (2 × 2) pixel locations having a uniform value of 1 completely surrounded by pixel locations having a uniform value of 0. Have. Therefore,
Whenever any of the patterns of uniformity indicated by reference numerals 41, 43, 45 and 47 in FIG. 10 occur, step 23 indicates that a face-like region or candidate has been found. Searching for these patterns can be performed efficiently. For example, the uniformity of pixel locations is checked sequentially by scanning left to right in each row and top to bottom in the field. When a uniform value of 1 is detected, neighboring pixel locations to the right and below the current pixel location are examined. If at least one of these uniform values is also 1 and the area is surrounded by a uniform value of 0, a pattern corresponding to a possible face candidate is found. Next, the corresponding pixel location may be a uniform value, eg, a value other than 1 or 0 (eg,
2 value). Unless a potential face candidate is found,
The position of the candidate is output.

【0053】パターン40、42、44および46の外
観は、解像度が低下した画素36の構造に対する顔のよ
うな領域の実際の位置によって影響され得る。図11
は、参照符号49で示す解像度が低下した2×2の画素
サイズを有する顔のような領域についての例を示す。円
50によって示される顔のような領域が、2×2のブロ
ックをほぼ中心とする場合、均一な値のパターン47が
得られ、検出は正しい。しかし、参照符号51で示すよ
うに、顔が水平および垂直方向に半画素だけシフトして
いる場合には、顔のような領域の中央部分は、参照符号
51で示すように、周りの領域とは異なる均一値を有し
得る。これは、結果として、純粋な候補の検出に失敗す
ることになり得る。
The appearance of the patterns 40, 42, 44 and 46 can be affected by the actual location of the face-like region relative to the reduced resolution pixel 36 structure. FIG.
Shows an example of a face-like region having a 2 × 2 pixel size with reduced resolution indicated by reference numeral 49. When the area such as the face indicated by the circle 50 is substantially centered on a 2 × 2 block, a pattern 47 having a uniform value is obtained, and the detection is correct. However, if the face is shifted by half a pixel in the horizontal and vertical directions, as indicated by reference numeral 51, the central part of the face-like region is, as indicated by reference numeral 51, the surrounding region. May have different uniform values. This can result in a failure to detect pure candidates.

【0054】このような起こりうる問題を避けるため
に、ステップ21から24は、画像データの同じビデオ
フィールドまたは1つまたはそれ以上の連続したビデオ
フィールドに対して繰り返され得る。しかし、ステップ
21から24が繰り返される度に、解像度が低下した画
素のアレイ31の位置は、カラー画像画素のアレイ30
に対して変化する。これを図12に示す。図12におい
て、画像全体は参照符号52で示し、画像平均化による
空間解像度の低下に使用される領域は参照符号53で示
す。平均化は、図8に示すのと同様に行われるが、開始
位置は変化する。特に、図8の第1画素に対する開始位
置は、画像全体52の左上の角54であるが、図12は
その後に行われる平均化を示す。ここでは、開始位置
は、水平方向に左上の角から量Sxだけ右にシフトし、
垂直方向に量Syだけ下にシフトしている。ここで、0
<Sx<m、および0<Sy<nである。
To avoid such possible problems, steps 21 to 24 can be repeated for the same video field of image data or for one or more consecutive video fields. However, each time steps 21 to 24 are repeated, the position of the reduced resolution pixel array 31 is replaced by the color image pixel array 30.
Change with respect to This is shown in FIG. In FIG. 12, the entire image is denoted by reference numeral 52, and an area used for lowering the spatial resolution by image averaging is denoted by reference numeral 53. Averaging is performed in the same way as shown in FIG. 8, but the starting position changes. In particular, the starting position for the first pixel in FIG. 8 is the upper left corner 54 of the entire image 52, while FIG. 12 shows the subsequent averaging. Here, the starting position is shifted horizontally from the upper left corner by an amount Sx to the right,
It is shifted down by the amount Sy in the vertical direction. Where 0
<Sx <m and 0 <Sy <n.

【0055】各画像は、SxおよびSyのすべての組合
せが用いられ、m×nプロセスが行われるように、繰り
返し処理され得る。しかし、実際には、特に、顔のよう
な領域の検出があまり正確である必要がない応用におい
ては、すべての開始位置を用いる必要はない。例えば、
顔のような領域の検出が、上述したように、2ステップ
プロセスの第1のステップを形成する場合、Sxおよび
Syの値は、以下のようなよりまばらなセットの組合せ
から選択され得る。 Sx=ix(m/k)、およびSy=jx(n/l) ここで、i、j、kおよびlは、以下の関係を満足する
整数である。 0≦i<k 0≦j<l 1≦k<m 1≦l<n これは、全部でk×lの組合せとなる。
Each image can be iteratively processed such that all combinations of Sx and Sy are used and an m × n process is performed. However, in practice, not all starting positions need to be used, especially in applications where the detection of regions such as faces does not have to be very accurate. For example,
If the detection of a face-like region forms the first step of a two-step process, as described above, the values of Sx and Sy may be selected from a more sparse set combination as follows. Sx = ix (m / k) and Sy = jx (n / l) where i, j, k and l are integers satisfying the following relationship. 0 ≦ i <k 0 ≦ j <l 1 ≦ k <m 1 ≦ l <n This is a k × l combination in total.

【0056】上記のように、ステップ21から24は、
同じ画像または連続した画像上の異なる開始位置で繰り
返され得る。リアルタイム画像処理については、連続し
た画像についてステップを繰り返すことが必要または好
適であり得る。方法は、非常に迅速に行われ得、画像内
に存在する顔の候補の数によって、10Hzと60Hz
との間のフィールドレートでリアルタイムで行われ得
る。従って、およそほんの数秒以下の短い期間内で、す
べての可能な位置がテストされ得る。
As described above, steps 21 to 24
It can be repeated at different starting positions on the same image or successive images. For real-time image processing, it may be necessary or desirable to repeat the steps for successive images. The method can be performed very quickly, depending on the number of face candidates present in the image, 10 Hz and 60 Hz
Can be done in real time at field rates between Thus, within a short period of time, on the order of only a few seconds or less, all possible locations can be tested.

【0057】図6に示す方法は、図2に示す方法のよう
に、任意の適切なハードウェアにおいて行われ得る。上
記のように、トラッキングプロセッサ4は、図6の方法
を、図3に示す初期化ステージ9の一部として実行する
ようにプログラムされることが可能である。データ処理
は、R4400プロセッサおよび関連のメモリによって
行われ、プロセッサ4は、図2に示すように、彩度値、
解像度が低下した画素の平均化された彩度値、および均
一値を格納するためのビデオディジタイザおよびフレー
ムストアを含む。
The method shown in FIG. 6 can be implemented in any suitable hardware, such as the method shown in FIG. As described above, the tracking processor 4 can be programmed to execute the method of FIG. 6 as part of the initialization stage 9 shown in FIG. The data processing is performed by an R4400 processor and associated memory, and the processor 4 generates a saturation value, as shown in FIG.
Includes a video digitizer and frame store to store the averaged chroma values and uniform values of the reduced resolution pixels.

【0058】図6に示す方法は、周辺光を含む均一な照
明で良好に作用し、アクティブな光源を用いることによ
って、良好でない照明条件下での応用に適用され得る。
この方法は、特別な照明を必要とせず、観察者の照明の
変化に対しても非常に回復が速いが、図2の初期化ステ
ージ9においてはアクティブな光源を用いて、次の観察
者トラッキング中にスイッチオフしてもよい。トラッキ
ングは非常に強力で、特別な照明を必要としないからで
ある。
The method shown in FIG. 6 works well with uniform illumination, including ambient light, and can be applied to applications under poor lighting conditions by using an active light source.
Although this method does not require any special illumination and is very quick to recover from changes in the observer's illumination, the initialization stage 9 in FIG. 2 uses an active light source to perform the next observer tracking. It may be switched off during. Tracking is very powerful and does not require special lighting.

【0059】図13は、アクティブな照明を提供するよ
うに改変された図2に示すタイプのディスプレイを示
す。アクティブな光源は、プロセッサ4によって制御さ
れるシンクロナイザを有するフラッシュライト55を含
む。フラッシュライト55は、ディスプレイ7の上およ
びセンサ3の隣りなど、適切な位置に配置され、観察者
の顔を照射する。
FIG. 13 shows a display of the type shown in FIG. 2 modified to provide active illumination. Active light sources include a flashlight 55 having a synchronizer controlled by the processor 4. The flashlight 55 is arranged at an appropriate position, such as on the display 7 and next to the sensor 3, and irradiates the observer's face.

【0060】図14は、ビデオトラッキングシステム
2、特にデータプロセッサ4をさらに詳細に示す。デー
タプロセッサは、CPUバス57に接続された中央処理
装置(CPU)56を有する。システムメモリ58は、
バス57に接続され、データプロセッサを作動するため
のシステムソフトウェアをすべて含む。
FIG. 14 shows the video tracking system 2, in particular the data processor 4, in more detail. The data processor has a central processing unit (CPU) 56 connected to a CPU bus 57. The system memory 58
It is connected to the bus 57 and contains all system software for operating the data processor.

【0061】ビデオカメラ3は、ビデオディジタイザ5
9に接続され、ビデオディジタイザ59は、データバス
60、シンクロナイザを有するフラッシュライト55、
CPU56、および、オプションのビデオディスプレイ
61が設けられているときには、ビデオディスプレ61
に接続されている。フレームストア62は、データバス
60およびCPUバス57に接続されている。
The video camera 3 has a video digitizer 5
9, a video digitizer 59 includes a data bus 60, a flashlight 55 having a synchronizer,
When the CPU 56 and the optional video display 61 are provided, the video display 61
It is connected to the. The frame store 62 is connected to the data bus 60 and the CPU bus 57.

【0062】アクティブな照明を用いない実施態様で
は、フレームストアは、1つのフィールドの容量をもつ
だけでよい。640×240画素のフィールド解像度を
有する上記のビデオカメラ3の場合、24ビットのRG
Bカラー信号に対しては、640×240×3=460
800バイトの容量が必要である。アクティブな照明を
用いる実施態様については、フレームストア62は、2
つのフィールドのビデオデータの容量(即ち、9216
00バイト)を有する。
In embodiments that do not use active lighting, the frame store need only have one field capacity. In the case of the video camera 3 having a field resolution of 640 × 240 pixels, a 24-bit RG
640 × 240 × 3 = 460 for the B color signal
800 bytes capacity is required. For embodiments using active lighting, the frame store 62 is
One field of video data capacity (ie, 9216)
00 bytes).

【0063】使用時には、フラッシュライト55は、ビ
デオカメラ3およびビデオディジタイザ59と同期さ
れ、フラッシュライトは、画像がキャプチャされている
ときに、適切なタイミングでスイッチオンまたはオフさ
れる。
In use, the flashlight 55 is synchronized with the video camera 3 and the video digitizer 59, and the flashlight is switched on or off at the appropriate times when an image is being captured.

【0064】フラッシュライト55は、観察者の顔に光
を当てて、分布の均一性を高めるために用いられる。フ
ラッシュライト55が周辺光よりもはるかに強い場合、
顔の輝度は、フラッシュライト55によって主に決定さ
れる。しかし、強力な光源を用いると、過飽和状態の画
像を生成する傾向があり、この場合、多くの物体が、顔
のような領域として誤って検出され得る。さらに、強力
なフラッシュライトの使用は、観察者にとって不快であ
り、目に損傷を与え得る。
The flash light 55 is used to illuminate the observer's face to increase the uniformity of the distribution. If the flashlight 55 is much stronger than the ambient light,
The luminance of the face is mainly determined by the flash light 55. However, using a strong light source tends to produce supersaturated images, where many objects can be erroneously detected as face-like regions. In addition, the use of powerful flashlights is unpleasant for the observer and can damage the eyes.

【0065】従って、フラッシュライト55は、中庸な
強度であるのがよい。この場合、周辺光の影響は、純粋
な顔のような領域を検出する信頼性を向上させるために
減少される必要があり得る。
Therefore, the flashlight 55 preferably has a medium intensity. In this case, the effects of ambient light may need to be reduced to improve the reliability of detecting regions such as pure faces.

【0066】図6に示す方法は、1つがフラッシュライ
ト55を照射した状態で得られ、もう1つが周辺光のみ
で得られる2つの連続したフレームのビデオ画像データ
を比較するように改変され得る。従って、これらのフレ
ームのうちの最初のフレームは、周辺光およびフラッシ
ュライト55の両方の影響を含んでいる。従って、この
最初の画像I(a+f)は、2つの成分を含むものと見
なされ得る。 I(a+f)=I(a)+I(f) ここで、I(a)は、周辺光のみで得られた画像で、I
(f)は、唯一の光源がフラッシュライト55である場
合に生成されるであろう画像である。これは、以下のよ
うに書き直され得る。 I(f)=I(a+f)−I(a) 従って、ステップ21またはステップ22において、画
像画素データまたは解像度が低下したデータを減算する
ことによって、フラッシュライト55による背景の過飽
和の影響が低減され得る。さらなる低減は、フラッシュ
ライト55が、観察者の顔によって占有される可能性の
高い領域に主に光を方向づけることを確実にすることに
よって得られ得る。
The method shown in FIG. 6 can be modified to compare two consecutive frames of video image data, one obtained with the flashlight 55 illuminated and the other obtained with ambient light only. Thus, the first of these frames contains the effects of both ambient light and flashlight 55. Therefore, this first image I (a + f) can be considered to include two components. I (a + f) = I (a) + I (f) where I (a) is an image obtained only with ambient light,
(F) is an image that would be generated if the only light source was flashlight 55. This can be rewritten as follows. I (f) = I (a + f) -I (a) Therefore, in step 21 or step 22, the effect of the background oversaturation due to the flashlight 55 is reduced by subtracting the image pixel data or the data with reduced resolution. obtain. Further reductions may be obtained by ensuring that the flashlight 55 directs light primarily to areas likely to be occupied by the observer's face.

【0067】[0067]

【発明の効果】上記のように、本発明の方法および装置
によれば、人の皮膚が均一な彩度を有するという特性を
利用し、カラー画像における顔の候補を見いだす方法が
提供される。広範囲な照明条件は、カラー較正の必要な
く適応されるので、この技術は、公知の技術よりもより
信頼があり、便利である。画像の彩度の解像度を低下さ
せることによって、計算要件は大幅に減少し、比較的簡
単な方法が使用され得る。平均化によって、顔領域の彩
度の均一性が向上するので、この技術は、異なる年齢、
性別、および皮膚の色の人々の画像における顔の候補を
認識することができ、明るい色の眼鏡をかけている場合
にも対応できる。この技術は非常に効率的であるため、
リアルタイムで実現され、低コストの商業的な応用に使
用され得る。
As described above, according to the method and apparatus of the present invention, there is provided a method of finding a face candidate in a color image by utilizing the characteristic that human skin has uniform saturation. This technique is more reliable and convenient than known techniques, since a wide range of lighting conditions are accommodated without the need for color calibration. By reducing the saturation resolution of the image, the computational requirements are greatly reduced and a relatively simple method can be used. This technique works at different ages,
Face candidates in images of people of gender and skin color can be recognized, and it is possible to cope with wearing bright-colored glasses. Because this technology is so efficient,
It can be realized in real time and used for low cost commercial applications.

【0068】本発明によるこのような方法は、例えば、
観察者トラッキング自動立体ディスプレイと関連し得る
画像トラッキングシステムの初期化ステージで、画像内
の顔を検出し、ターゲット画像をキャプチャするための
他の方法と関連して使用することができる。このような
方法および装置は、例えば、皮膚の色の検出、顔の検出
および認識、安全監視、ビデオおよび画像圧縮、ビデオ
会議、マルチメディアデータベース検索、ならびにコン
ピュータゲームにおいて広範囲に適用可能である。
Such a method according to the invention is, for example,
The initialization stage of an image tracking system, which may be associated with an observer tracking autostereoscopic display, can be used in conjunction with other methods for detecting faces in an image and capturing a target image. Such methods and devices are widely applicable, for example, in skin color detection, face detection and recognition, security surveillance, video and image compression, video conferencing, multimedia database searching, and computer games.

【図面の簡単な説明】[Brief description of the drawings]

【図1】公知のタイプの観察者トラッキング自動立体デ
ィスプレイの概略ブロック図である。
FIG. 1 is a schematic block diagram of a known type of observer tracking autostereoscopic display.

【図2】本発明が適用され得る観察者トラッキングディ
スプレイの概略ブロック図である。
FIG. 2 is a schematic block diagram of an observer tracking display to which the present invention can be applied.

【図3】図2のディスプレイにおける観察者トラッキン
グを示す流れ図である。
FIG. 3 is a flowchart illustrating observer tracking in the display of FIG. 2;

【図4】図3に示す方法によってキャプチャされる典型
的なターゲット画像((a))またはテンプレート
((b))を示す。
FIG. 4 shows a typical target image ((a)) or template ((b)) captured by the method shown in FIG.

【図5】図2のディスプレイによるテンプレートキャプ
チャ中のディスプレイの外観を示す。
5 shows the appearance of the display during template capture by the display of FIG. 2;

【図6】本発明の実施態様を構成する顔のような領域を
検出する方法を示す流れ図である。
FIG. 6 is a flowchart showing a method for detecting a face-like region constituting an embodiment of the present invention.

【図7】色相彩度値(HSV、hue saturat
ion value)色方式を示す図である。
FIG. 7 shows a hue saturation value (HSV, hue saturat)
FIG. 4 is a diagram showing an (ion value) color system.

【図8】図6に示す方法における平均化による画像解像
度低下を示す図であり、(a)は与えられた画像構造で
あり、(b)は平均化によって空間解像度が低下された
画素構造を示す。
8A and 8B are diagrams showing a reduction in image resolution due to averaging in the method shown in FIG. 6, wherein FIG. 8A shows a given image structure, and FIG. Show.

【図9】(a)および(b)は、図6に示す方法におけ
る均一値の計算を説明する図である。
FIGS. 9A and 9B are diagrams for explaining calculation of a uniform value in the method shown in FIG. 6;

【図10】図6に示す方法における顔候補の選択に用い
られるパターンを示す図であり、(a)〜(d)は均一
値の4つのパターン、およびそれらのパターンに対応す
るビデオ画像内の顔候補のような画素彩度パターンの一
例を示す。
FIGS. 10A to 10D are diagrams showing patterns used for selecting a face candidate in the method shown in FIG. 6; FIG. 5 shows an example of a pixel saturation pattern such as a face candidate.

【図11】顔の異なる位置の、図6に示す方法に対する
影響を示す図であり、(a)は顔のような領域が2×2
のブロックをほぼ中心とする場合を示し、(b)は顔の
ような領域が水平および垂直方向に半画素だけシフトし
ている場合を示す。
11A and 11B are diagrams showing the influence of different positions of the face on the method shown in FIG. 6, wherein FIG.
(B) shows a case where a face-like region is shifted by half a pixel in the horizontal and vertical directions.

【図12】異なる顔の位置を収容する、図6に示す方法
への改変を示す図である。
FIG. 12 illustrates a modification to the method shown in FIG. 6, accommodating different face positions.

【図13】本発明が適用される観察者トラッキングディ
スプレイの概略ブロック図である。
FIG. 13 is a schematic block diagram of an observer tracking display to which the present invention is applied.

【図14】本発明の方法を実施するための、図13のデ
ィスプレイのビデオトラッキングシステムのシステムブ
ロック図である。
FIG. 14 is a system block diagram of the video tracking system of the display of FIG. 13 for implementing the method of the present invention.

【符号の説明】[Explanation of symbols]

1 ディスプレイシステム 2 トラッキングシステム 3 トラッキングセンサ 4 トラッキングプロセッサ 5 ディスプレイ制御プロセッサ 6 操縦機構 7 トラッキング機能を備えた3Dディスプレイ 8 マウス 9 初期化ステージ 10 トラッキングステージ 11 テンプレート Reference Signs List 1 display system 2 tracking system 3 tracking sensor 4 tracking processor 5 display control processor 6 control mechanism 7 3D display with tracking function 8 mouse 9 initialization stage 10 tracking stage 11 template

───────────────────────────────────────────────────── フロントページの続き (72)発明者 デービッド エズラ イギリス国 オーエックス10 0アールエ ル オックスフォードシャー, ワリング フォード, ブライトウェル−カム−ソト ウェル, モンクス ミード 19 ──────────────────────────────────────────────────の Continuing on the front page (72) Inventor David Ezra UK 100 ARL Oxfordshire, Wallingford, Brightwell-Kam-Sotwell, Monksmead 19

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】 カラー画像の顔のような領域を検出する
方法であって、 彩度を平均化することによって該カラー画像の解像度を
低下させるステップであって、解像度が低下した画像を
形成するステップと、 所定の形状を有する該解像度が低下した画像の領域であ
って、該所定の形状を取り囲む該解像度が低下した画像
の部分の彩度とは実質的に異なる実質的に均一な彩度を
有する該解像度が低下した画像の領域を検索するステッ
プと、 を包含する方法。
1. A method for detecting a face-like region of a color image, the method comprising the step of reducing the resolution of the color image by averaging the saturation, forming an image having a reduced resolution. A step of substantially uniform saturation in a region of the reduced resolution image having a predetermined shape, the saturation being substantially different from a saturation of a portion of the reduced resolution image surrounding the predetermined shape. Retrieving regions of the reduced resolution image having:
【請求項2】 前記カラー画像が複数の絵素を含み、前
記解像度が、前記所定の形状が2から3個の解像度が低
下した絵素にわたるように低下される、請求項1に記載
の方法。
2. The method of claim 1, wherein the color image includes a plurality of picture elements, and the resolution is reduced such that the predetermined shape spans two to three reduced resolution picture elements. .
【請求項3】 前記カラー画像が、M×N絵素の長方形
アレイを含み、前記解像度が低下した画像が、(M/
m)×(N/n)絵素を含み、それぞれが、該カラー画
像のm×n絵素に対応し、該解像度が低下した画像の各
絵素の彩度Pが、以下の式 【数1】 で表され、ここで、f(i,j)が、該m×n絵素のi
番目の列およびj番目の行の絵素の彩度である、請求項
2に記載の方法。
3. The color image includes a rectangular array of M × N picture elements, and the reduced-resolution image is (M / N
m) × (N / n) picture elements, each corresponding to the m × n picture element of the color image, and the saturation P of each picture element of the image with reduced resolution is represented by the following equation: 1) Where f (i, j) is the i of the m × n picture element
3. The method according to claim 2, wherein the saturation of the pixel in the jth column and the jth row is the saturation.
【請求項4】 ストアに前記彩度を格納するステップを
含む、請求項3に記載の方法。
4. The method according to claim 3, comprising storing the saturation in a store.
【請求項5】 前記解像度が低下した絵素のそれぞれの
彩度と、少なくとも1つの隣接した解像度が低下した絵
素の彩度とを比較することによって、該解像度が低下し
た絵素のそれぞれに均一値が割り当てられる、請求項3
または4に記載の方法。
5. Comparing the saturation of each of the reduced-resolution picture elements with the saturation of at least one adjacent reduced-resolution picture element, 4. A uniform value is assigned.
Or the method of 4.
【請求項6】 以下の式が満たされる場合、各均一値に
第1の値が割り当てられ、 (max(P)−min(P))/max(P)≦T ここで、max(P)およびmax(P)が、それぞ
れ、前記解像度が低下した絵素および前記または各隣接
した絵素の彩度の最大および最小であり、Tが閾値であ
り、該式が満たされない場合、該各均一値に、該第1の
値とは異なる第2の値が割り当てられる、請求項5に記
載の方法。
6. A first value is assigned to each uniform value if the following equation is satisfied: (max (P) −min (P)) / max (P) ≦ T, where max (P) And max (P) are the maximum and minimum of the saturation of the reduced-resolution picture element and the or each adjacent picture element, respectively, if T is a threshold and the equation is not satisfied, The method of claim 5, wherein the value is assigned a second value different from the first value.
【請求項7】 Tが実質的に0.15に等しい、請求項
6に記載の方法。
7. The method of claim 6, wherein T is substantially equal to 0.15.
【請求項8】 ストアに前記彩度を格納するステップを
含み、前記または各隣接した解像度が低下した絵素には
均一値が割り当てられず、該格納ステップにおいて、各
均一値が該対応する彩度の代わりに該ストアに格納され
る、請求項5から7のいずれか1つに記載の方法。
8. The method of claim 1, further comprising the step of storing the saturation in a store, wherein the or each adjacent reduced-resolution picture element is not assigned a uniform value, and in the storing step, each uniform value is assigned to the corresponding color saturation. The method according to any one of claims 5 to 7, wherein the method is stored in the store instead of the degree.
【請求項9】 前記所定の形状が2または3個の解像度
が低下した絵素にわたるように、前記解像度が低下さ
れ、前記方法が、さらに、前記第1の値の均一値が、1
つの解像度が低下した絵素、2つの垂直または水平に隣
接した解像度が低下した絵素、および絵素の長方形の2
×2アレイのいずれか1つに割り当てられ、前記第2の
値の均一値が、周囲の解像度が低下した絵素のそれぞれ
に割り当てられるとき、顔のような領域の検出を示すこ
とを含む、請求項6もしくは7に記載される方法。
9. The method of claim 1, wherein the resolution is reduced such that the predetermined shape spans two or three reduced resolution picture elements, and the method further comprises:
Two reduced resolution picture elements, two vertically or horizontally adjacent reduced resolution picture elements, and a picture element rectangle 2
Assigning to any one of the x2 arrays, wherein the uniform value of the second value is assigned to each of the surrounding reduced resolution picture elements, including indicating detection of a face-like region. A method as claimed in claim 6 or claim 7.
【請求項10】 ストアに前記彩度または前記均一値を
格納するステップを含み、該格納ステップにおいて、前
記対応する彩度または均一値の代わりに、前記第1およ
び第2の値とは異なる第3の値を該ストアに格納し、該
格納によって検出が示される、請求項9に記載の方法。
10. The method according to claim 10, further comprising the step of storing the saturation or the uniform value in a store, wherein in the storing step, a value different from the first and second values is substituted for the corresponding saturation or uniform value. 10. The method of claim 9, wherein a value of 3 is stored in the store, wherein the storage indicates a detection.
【請求項11】 前記検索ステップが、前記解像度低下
を繰り返し、前記カラー画像絵素に対して前記解像度が
低下した絵素がシフトした状態で、少なくとも1回は検
索をすることを含む、請求項2から10のいずれか1つ
に記載の方法。
11. The search step includes repeating the resolution reduction, and performing at least one search in a state where the reduced-resolution picture element is shifted with respect to the color image picture element. 11. The method according to any one of 2 to 10.
【請求項12】 彩度が、以下の式で、赤色、緑色およ
び青色成分から得られ、 (max(R,G,B)−min(R,G,B))/m
ax(R,G,B) ここで、max(R、G、B)およびmin(R、G、
B)が、それぞれ、該赤色、緑色および青色成分の最大
値および最小値である、請求項1から11のいずれか1
つに記載の方法。
12. The saturation is obtained from the red, green and blue components by the following equation: (max (R, G, B) −min (R, G, B)) / m
ax (R, G, B) where max (R, G, B) and min (R, G,
B) is the maximum and minimum of the red, green and blue components, respectively.
The method described in one.
【請求項13】 前記カラー画像をキャプチャするステ
ップを含む、請求項1から12のいずれか1つに記載の
方法。
13. The method according to claim 1, comprising capturing the color image.
【請求項14】 前記キャプチャステップは、前記カラ
ー画像がビデオカメラによってキャプチャされることを
含み、前記解像度低下ステップおよび検索ステップが、
該ビデオカメラからの異なるビデオフィールドまたはフ
レームに対して繰り返される、請求項13に記載の方
法。
14. The capturing step includes that the color image is captured by a video camera, wherein the resolution reducing step and the searching step include:
14. The method of claim 13, wherein the method is repeated for different video fields or frames from the video camera.
【請求項15】 前記キャプチャステップにおいて、第
1のカラー画像が、顔の位置の予想範囲を照射している
間にキャプチャされ、第2のカラー画像が、周辺光を用
いてキャプチャされ、該第2のカラー画像が該第1のカ
ラー画像から減算されてカラー画像を形成する、請求項
14に記載の方法。
15. In the capturing step, a first color image is captured while illuminating an expected area of the face position, and a second color image is captured using ambient light. 15. The method of claim 14, wherein two color images are subtracted from the first color image to form a color image.
【請求項16】 カラー画像の顔のような領域を検出す
るための装置であって、彩度を平均化することによって
該カラー画像の解像度を低下させ、解像度が低下した画
像を形成し、所定の形状を有する該解像度が低下した画
像の領域であって、該所定の形状を取り囲む該解像度が
低下した画像の部分の彩度とは実質的に異なる実質的に
均一な彩度を有する該解像度が低下した画像の領域を検
索するように配置されているデータプロセッサを有する
装置。
16. An apparatus for detecting a face-like region of a color image, wherein the resolution of the color image is reduced by averaging the saturation, and an image having a reduced resolution is formed. A region of the reduced-resolution image having a shape having a substantially uniform saturation that is substantially different from the saturation of a portion of the reduced-resolution image surrounding the predetermined shape. An apparatus having a data processor arranged to search for regions of an image with reduced image quality.
【請求項17】 請求項16に記載の装置を有する観察
者トラッキングディスプレイ。
17. An observer tracking display comprising the device according to claim 16.
JP01363499A 1998-01-23 1999-01-21 Method and apparatus for detecting a face-like area and observer tracking display Expired - Fee Related JP3938257B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB9801550.6 1998-01-23
GB9801550A GB2333590A (en) 1998-01-23 1998-01-23 Detecting a face-like region

Publications (2)

Publication Number Publication Date
JPH11288459A true JPH11288459A (en) 1999-10-19
JP3938257B2 JP3938257B2 (en) 2007-06-27

Family

ID=10825843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01363499A Expired - Fee Related JP3938257B2 (en) 1998-01-23 1999-01-21 Method and apparatus for detecting a face-like area and observer tracking display

Country Status (5)

Country Link
US (1) US6504942B1 (en)
EP (1) EP0932114B1 (en)
JP (1) JP3938257B2 (en)
DE (1) DE69906403T2 (en)
GB (1) GB2333590A (en)

Families Citing this family (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPP400998A0 (en) * 1998-06-10 1998-07-02 Canon Kabushiki Kaisha Face detection in digital images
EP1220182A3 (en) * 2000-12-25 2005-08-17 Matsushita Electric Industrial Co., Ltd. Image detection apparatus, program, and recording medium
EP1288860A1 (en) * 2001-09-03 2003-03-05 Agfa-Gevaert AG Method for processing digital photographic image data including a method for the automatic detection of red-eye defects
EP1293933A1 (en) * 2001-09-03 2003-03-19 Agfa-Gevaert AG Method for automatically detecting red-eye defects in photographic image data
GB2395780A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
US20040228505A1 (en) * 2003-04-14 2004-11-18 Fuji Photo Film Co., Ltd. Image characteristic portion extraction method, computer readable medium, and data collection and processing device
US7471846B2 (en) * 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US7620218B2 (en) * 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US7315630B2 (en) 2003-06-26 2008-01-01 Fotonation Vision Limited Perfecting of digital image rendering parameters within rendering devices using face detection
US7792335B2 (en) 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US7362368B2 (en) * 2003-06-26 2008-04-22 Fotonation Vision Limited Perfecting the optics within a digital image acquisition device using face detection
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US8155397B2 (en) * 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US7792970B2 (en) * 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US8363951B2 (en) 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US8989453B2 (en) * 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US8498452B2 (en) * 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US8682097B2 (en) * 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US7269292B2 (en) * 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US7844076B2 (en) * 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8593542B2 (en) * 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7565030B2 (en) * 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US7587068B1 (en) 2004-01-22 2009-09-08 Fotonation Vision Limited Classification database for consumer digital images
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US8330831B2 (en) * 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US7317815B2 (en) * 2003-06-26 2008-01-08 Fotonation Vision Limited Digital image processing composition using face detection information
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US9129381B2 (en) * 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US8553949B2 (en) * 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
TWI220234B (en) * 2003-10-21 2004-08-11 Ind Tech Res Inst A method to simulate animated images for an object
US7558408B1 (en) 2004-01-22 2009-07-07 Fotonation Vision Limited Classification system for consumer digital images using workflow and user interface modules, and face detection and recognition
US7555148B1 (en) 2004-01-22 2009-06-30 Fotonation Vision Limited Classification system for consumer digital images using workflow, face detection, normalization, and face recognition
US7551755B1 (en) 2004-01-22 2009-06-23 Fotonation Vision Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7564994B1 (en) 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
TWI236901B (en) * 2004-06-11 2005-08-01 Oriental Inst Technology An apparatus and method for identifying surrounding environment by means of image processing and for outputting the resutls
US7454039B2 (en) * 2004-07-12 2008-11-18 The Board Of Trustees Of The University Of Illinois Method of performing shape localization
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7315631B1 (en) * 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8503800B2 (en) * 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US7715597B2 (en) * 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
JP4830650B2 (en) * 2005-07-05 2011-12-07 オムロン株式会社 Tracking device
US7555149B2 (en) * 2005-10-25 2009-06-30 Mitsubishi Electric Research Laboratories, Inc. Method and system for segmenting videos using face detection
EP1977374A4 (en) 2005-11-30 2012-09-05 Seeing Machines Pty Ltd Visual tracking of eye glasses in visual head and eye tracking systems
US8265349B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US8150155B2 (en) * 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
US8265392B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
JP2007257148A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Image processing apparatus and method
JP2007264742A (en) * 2006-03-27 2007-10-11 Fujifilm Corp Method for detecting face and imaging device using it
US7801319B2 (en) 2006-05-30 2010-09-21 Sonitus Medical, Inc. Methods and apparatus for processing audio signals
EP2033142B1 (en) * 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Advances in extending the aam techniques from grayscale to color images
US7720281B2 (en) * 2006-07-31 2010-05-18 Mavs Lab, Inc. Visual characteristics-based news anchorperson segment detection method
WO2008015586A2 (en) * 2006-08-02 2008-02-07 Fotonation Vision Limited Face recognition with combined pca-based datasets
US7916897B2 (en) * 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) * 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8291912B2 (en) * 2006-08-22 2012-10-23 Sonitus Medical, Inc. Systems for manufacturing oral-based hearing aid appliances
EP2064916B1 (en) * 2006-09-08 2018-12-05 SoundMed, LLC Methods and apparatus for treating tinnitus
US7945075B2 (en) * 2006-12-19 2011-05-17 Seiko Epson Corporation Converting a digital image from color to gray-scale
US8055067B2 (en) * 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
JP2008199486A (en) * 2007-02-15 2008-08-28 Olympus Imaging Corp Single lens reflex type electronic imaging device
DE602008001607D1 (en) * 2007-02-28 2010-08-05 Fotonation Vision Ltd SEPARATION OF DIRECTIONAL ILLUMINATION VARIABILITY IN STATISTICAL FACE MODELING BASED ON TEXTURE SPACE MODULES
WO2008109622A1 (en) 2007-03-05 2008-09-12 Fotonation Vision Limited Face categorization and annotation of a mobile phone contact list
US8649604B2 (en) 2007-03-05 2014-02-11 DigitalOptics Corporation Europe Limited Face searching and detection in a digital image acquisition device
US7916971B2 (en) * 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US8270638B2 (en) * 2007-05-29 2012-09-18 Sonitus Medical, Inc. Systems and methods to provide communication, positioning and monitoring of user status
US20080304677A1 (en) * 2007-06-08 2008-12-11 Sonitus Medical Inc. System and method for noise cancellation with motion tracking capability
US20090028352A1 (en) * 2007-07-24 2009-01-29 Petroff Michael L Signal process for the derivation of improved dtm dynamic tinnitus mitigation sound
US20120235632A9 (en) * 2007-08-20 2012-09-20 Sonitus Medical, Inc. Intra-oral charging systems and methods
US8433080B2 (en) * 2007-08-22 2013-04-30 Sonitus Medical, Inc. Bone conduction hearing device with open-ear microphone
US8224013B2 (en) * 2007-08-27 2012-07-17 Sonitus Medical, Inc. Headset systems and methods
US7682303B2 (en) 2007-10-02 2010-03-23 Sonitus Medical, Inc. Methods and apparatus for transmitting vibrations
US20090105523A1 (en) * 2007-10-18 2009-04-23 Sonitus Medical, Inc. Systems and methods for compliance monitoring
US8795172B2 (en) * 2007-12-07 2014-08-05 Sonitus Medical, Inc. Systems and methods to provide two-way communications
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US8126221B2 (en) * 2008-02-14 2012-02-28 Ecole Polytechnique Federale De Lausanne (Epfl) Interactive device and method for transmitting commands from a user
US8270637B2 (en) 2008-02-15 2012-09-18 Sonitus Medical, Inc. Headset systems and methods
US7974845B2 (en) 2008-02-15 2011-07-05 Sonitus Medical, Inc. Stuttering treatment methods and apparatus
US8023676B2 (en) 2008-03-03 2011-09-20 Sonitus Medical, Inc. Systems and methods to provide communication and monitoring of user status
US20090226020A1 (en) 2008-03-04 2009-09-10 Sonitus Medical, Inc. Dental bone conduction hearing appliance
US8150075B2 (en) 2008-03-04 2012-04-03 Sonitus Medical, Inc. Dental bone conduction hearing appliance
US7855737B2 (en) * 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
WO2009131755A1 (en) * 2008-04-24 2009-10-29 Sonitus Medical, Inc. Microphone placement for oral applications
US20090270673A1 (en) * 2008-04-25 2009-10-29 Sonitus Medical, Inc. Methods and systems for tinnitus treatment
CN103402070B (en) 2008-05-19 2017-07-07 日立麦克赛尔株式会社 Record reproducing device and method
JP5547730B2 (en) 2008-07-30 2014-07-16 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド Automatic facial and skin beautification using face detection
JP5237037B2 (en) * 2008-10-01 2013-07-17 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2010063463A2 (en) * 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
US20100295782A1 (en) * 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US8379917B2 (en) * 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
EP2484125B1 (en) 2009-10-02 2015-03-11 Sonitus Medical, Inc. Intraoral appliance for sound transmission via bone conduction
US20110150296A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110211738A1 (en) * 2009-12-23 2011-09-01 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150295A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110211739A1 (en) * 2009-12-23 2011-09-01 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US8712110B2 (en) * 2009-12-23 2014-04-29 The Invention Science Fund I, LC Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150298A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110206245A1 (en) * 2009-12-23 2011-08-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150299A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US9875719B2 (en) * 2009-12-23 2018-01-23 Gearbox, Llc Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150297A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US20110150276A1 (en) * 2009-12-23 2011-06-23 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual
US8836777B2 (en) 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
JP5127972B1 (en) * 2011-09-30 2013-01-23 株式会社東芝 Electronic device, control method of electronic device
US20130201316A1 (en) 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
EP4250738A3 (en) 2014-04-22 2023-10-11 Snap-Aid Patents Ltd. Method for controlling a camera based on processing an image captured by other camera
WO2016207875A1 (en) 2015-06-22 2016-12-29 Photomyne Ltd. System and method for detecting objects in an image
JP6573193B2 (en) * 2015-07-03 2019-09-11 パナソニックIpマネジメント株式会社 Determination device, determination method, and determination program
US10627887B2 (en) 2016-07-01 2020-04-21 Microsoft Technology Licensing, Llc Face detection circuit
CN108280426B (en) * 2018-01-23 2022-02-25 山东极视角科技有限公司 Dark light source expression identification method and device based on transfer learning
CN110719407A (en) * 2019-10-18 2020-01-21 北京字节跳动网络技术有限公司 Picture beautifying method, device, equipment and storage medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2238440B (en) * 1989-11-24 1994-07-27 Olympus Optical Co Methods of detecting endoscope insertion direction
US5345242A (en) * 1990-09-27 1994-09-06 Loral Aerospace Corp. Clutter rejection using connectivity
US5557688A (en) * 1992-11-18 1996-09-17 Fuji Photo Film Co., Ltd. Method of extracting characteristic image data and color data conversion device for image processing apparatus
US5689575A (en) * 1993-11-22 1997-11-18 Hitachi, Ltd. Method and apparatus for processing images of facial expressions
US6128398A (en) * 1995-01-31 2000-10-03 Miros Inc. System, method and application for the recognition, verification and similarity ranking of facial or other object patterns
JP3086396B2 (en) * 1995-03-10 2000-09-11 シャープ株式会社 Image encoding device and image decoding device
US5715325A (en) * 1995-08-30 1998-02-03 Siemens Corporate Research, Inc. Apparatus and method for detecting a face in a video image

Also Published As

Publication number Publication date
DE69906403T2 (en) 2004-01-08
EP0932114A2 (en) 1999-07-28
GB2333590A (en) 1999-07-28
JP3938257B2 (en) 2007-06-27
EP0932114A3 (en) 2001-11-14
EP0932114B1 (en) 2003-04-02
GB9801550D0 (en) 1998-03-25
DE69906403D1 (en) 2003-05-08
US6504942B1 (en) 2003-01-07

Similar Documents

Publication Publication Date Title
JP3938257B2 (en) Method and apparatus for detecting a face-like area and observer tracking display
JP3761059B2 (en) Method and apparatus for detecting human face and observer tracking display
JP2541688B2 (en) Eye position detection device
JP3143819B2 (en) Eyelid opening detector
US6072892A (en) Eye position detecting apparatus and method therefor
US7912251B2 (en) Eyelid detection apparatus and program therefor
JP2006259900A (en) Image processing system, image processor and processing method, recording medium, and program
JP3490910B2 (en) Face area detection device
JPH0944685A (en) Face image processor
JP2008234208A (en) Facial region detection apparatus and program
JPH0862741A (en) Gradation correcting device
JP3459950B2 (en) Face detection and face tracking method and apparatus
KR100755800B1 (en) Face detector and detecting method using facial color and adaboost
US7835552B2 (en) Image capturing apparatus and face area extraction method
JP3227179B2 (en) Moving object detection and tracking processing method
CN115100556B (en) Augmented reality method and device based on image segmentation and fusion and electronic equipment
JPH04174309A (en) Driver&#39;s eye position detecting apparatus and condition detecting apparatus
JPH03165737A (en) Detecting method for line of sight direction
JPH0560515A (en) Device for detecting driver&#39;s eye position
KR100457302B1 (en) Auto tracking and auto zooming method of multi channel by digital image processing
Kryszczuk et al. Color correction for face detection based on human visual perception metaphor
JP2677010B2 (en) Eye position detection device
JP4636314B2 (en) Image processing apparatus and method, recording medium, and program
JP2002208013A (en) Device for extracting image area and method for the same
JP4687955B2 (en) Image processing apparatus and method, recording medium, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20031209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070320

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees