JP2003346158A - Face area tracking method by face image - Google Patents

Face area tracking method by face image

Info

Publication number
JP2003346158A
JP2003346158A JP2002153321A JP2002153321A JP2003346158A JP 2003346158 A JP2003346158 A JP 2003346158A JP 2002153321 A JP2002153321 A JP 2002153321A JP 2002153321 A JP2002153321 A JP 2002153321A JP 2003346158 A JP2003346158 A JP 2003346158A
Authority
JP
Japan
Prior art keywords
face
template
image
tracking
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002153321A
Other languages
Japanese (ja)
Inventor
Tsugumi Yamada
貢己 山田
Akiko Nakajima
朗子 中島
Atsuto Maki
淳人 牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2002153321A priority Critical patent/JP2003346158A/en
Publication of JP2003346158A publication Critical patent/JP2003346158A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face area tracking method by a face image capable of withstanding the deformation of a pattern, providing an excellent follow-up performance, and withstanding image noise by updating templates at proper timing since it is hard to accurately track the face area when the deformation of the face area pattern is increased. <P>SOLUTION: In this face area tracking method by the face image, the direction of the face of a person is tracked by comparing the plurality of templates with different sizes of corresponding areas with the inputted image, the relative position of a position on an input image where the similarity thereof to the large template becomes maximum to a position on the input image where the similarity thereof to the small template becomes maximum is obtained (9). When the amount of displacement from the relative position of the large and small templates at previous updating of the templates becomes larger than a specified amount (7), the templates are updated to accumulate the templates equivalent to the input image (6, 8). <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像中における人
物の顔領域を、高頑健性且つ高精度且つ高速に顔領域追
跡を行う、顔画像による顔領域追跡方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a face area tracking method using a face image, which performs a robust, high-accuracy, high-speed face area tracking of a person's face area in an image.

【0002】[0002]

【従来の技術】手が不自由な場合や、荷物などで手がふ
さがっている場合などに、顔の動きを用いた能動的なイ
ンタフェースが有用となる。通常の生活における人間の
コミュニケーション手段として、言葉や身振り手振りに
加えて、顔を縦に振ることで肯定を表現したり、何かを
指し示す意味でその方向に顔を向けて合図を送ることが
ある。このことは、計算機の入力インタフェースの場合
にもこのような顔を動かすしぐさによる入力支援方法が
有用であることを示している。
2. Description of the Related Art An active interface using a face movement is useful when a hand is inconvenient or when a hand is occupied by luggage or the like. As a means of human communication in normal life, in addition to words and gestures, there is a way to express affirmation by waving the face vertically, or send a signal with the face turned in that direction to indicate something . This indicates that such an input support method based on a gesture of moving a face is also useful for an input interface of a computer.

【0003】顔の動きを捉えることができれば、能動的
な操作方法として用いられるだけでなく、その人の興味
/注意の対象、嗜好(市場調査)、精神状態を把握する
ためにも使用可能である。
[0003] If the movement of the face can be captured, it can be used not only as an active operation method but also for the interest of the person.
It can also be used to understand the target of attention, preferences (market research), and mental status.

【0004】ここで、顔の動きを認識するには、まず画
像から顔を検出し、検出された顔を追跡しなければなら
ない。これまでは、顔の位置の制約やカメラの個数、ス
ピードが遅い、検出精度が低いなどの問題点があり、速
い顔の動きを精密に追跡することが難しかった。
Here, in order to recognize the movement of a face, a face must first be detected from an image and the detected face must be tracked. In the past, there were problems such as restrictions on the position of the face, the number of cameras, slow speed, and low detection accuracy, and it was difficult to accurately track fast face movements.

【0005】一方、顔を追跡せずに頭部動作を検出する
方法がある。顔と髪のコントラストに基づいて頭の3次
元的な動きを検出する方法である(“ヘッドリーダ:画
像による頭部動作の実時間検出”電子情報通信学会論文
誌、Vol.J74-D-II, No.3, pp.398-406, 1991年3月)。
しかしながら、この方法は、画像の濃淡を利用している
ため照明条件の変化の影響を受け易く、また、変化しな
い背景画像が必要である。さらに、頭髪が耳付近に掛か
っているかどうかの影響を受けてしまう。
On the other hand, there is a method of detecting a head movement without tracking a face. This is a method to detect the three-dimensional movement of the head based on the contrast between the face and the hair (“Head Reader: Real-time Detection of Head Movement Using Images” IEICE Transactions, Vol.J74-D-II , No.3, pp.398-406, March 1991).
However, this method is susceptible to changes in lighting conditions because it uses the shading of the image, and requires a background image that does not change. In addition, it is affected by whether the hair is hanging near the ears.

【0006】また、ステレオカメラを用い、顔の特徴点
を手入力で登録して、正規化相関マッチングで特徴点を
追跡して顔向きと視線方向を求める手法がある(“An a
lgorithm for real-time stereo vision implementatio
n of head pose and gaze direction measurement”. I
n Proc. of the Int'l Conf. on Automatic Face andGe
sture Recognition, 2000)。しかしながら、カメラが
複数必要であり、また、顔向き変化による特徴点パター
ンの変形の影響を考慮していなかった。
There is also a method of using a stereo camera to manually register feature points of a face and tracking the feature points by normalized correlation matching to obtain a face direction and a gaze direction (“An a
lgorithm for real-time stereo vision implementatio
n of head pose and gaze direction measurement ”. I
n Proc. of the Int'l Conf. on Automatic Face andGe
sture Recognition, 2000). However, a plurality of cameras are required, and the influence of the deformation of the feature point pattern due to the change in the face direction is not considered.

【0007】顔向き角度毎に顔のテンプレートを用意し
て、様々な顔向きに対応して顔を検出させる手法がある
(“View-based and modular eigenspaces for face re
cognition”. In Proc. IEEE Conf. on Computer Visio
n and Pattern Recognition,p.84, 1994)。しかしなが
ら、顔向き角度は予め設定された角度で撮影した顔画像
を用いなければならず、顔画像そのものから顔向き角度
毎に分類してテンプレートを作成することはできない。
[0007] There is a method of preparing a face template for each face orientation angle and detecting faces corresponding to various face orientations ("View-based and modular eigenspaces for face res").
cognition ”. In Proc. IEEE Conf. on Computer Visio
n and Pattern Recognition, p.84, 1994). However, a face image taken at a preset angle must be used as the face direction angle, and a template cannot be created by classifying each face direction angle from the face image itself.

【0008】追跡する対象をテンプレートを用いて追跡
する手法は、主として画像上を左上から右下に順次全走
査するラスタスキャン型のパターンサーチに基づく(例
えば、岡崎彰夫著。「はじめての画像処理技術」, 工業
調査会, 2000)。さらに、テンプレートを対象画像に対
応させる際の拡大倍率(縮小倍率)を変化させながらパ
ターンを追跡したり、探索したりする手法は確立されて
いない。このことは、顔領域の追跡を行う際に非常に計
算時間を要する一因となっている。
[0008] A method of tracking an object to be tracked using a template is mainly based on a raster scan type pattern search that sequentially scans the entire image sequentially from the upper left to the lower right (for example, by Akio Okazaki, "First Image Processing Technology"). ”, Industrial Research Council, 2000). Furthermore, a method of tracking or searching for a pattern while changing an enlargement magnification (reduction magnification) when associating a template with a target image has not been established. This is one of the reasons why it takes a very long calculation time to track the face area.

【0009】[0009]

【発明が解決しようとする課題】本発明は、上記事情を
考慮してなされたもので、その第1の目的は、大小テン
プレートの相対位置変化が大きくなったときにテンプレ
ートを更新することにより、顔領域のパターンの変形が
大きくなったときに適切なタイミングでテンプレートを
更新する、パターンの変形に頑健で追随性能の優れた、
画像ノイズに強い顔画像による顔領域追跡方法を提供す
ることにある。
SUMMARY OF THE INVENTION The present invention has been made in consideration of the above circumstances, and a first object of the present invention is to update a relative position of a large and small template when the relative position change becomes large. Update the template at an appropriate timing when the pattern deformation of the face area becomes large, robust to pattern deformation and excellent in following performance,
An object of the present invention is to provide a face area tracking method using a face image that is resistant to image noise.

【0010】第2の目的は、顔向き角度が不明である様
々な顔画像を用いながらも、顔画像そのものから顔向き
角度毎に分類されたテンプレートを作成することがで
き、テンプレートを適切に切り替えて顔領域追跡を行わ
せることができる、パターンの変形に頑健で追随性能の
優れた、画像ノイズに強い顔画像による顔領域追跡方法
を提供することにある。
A second object is to create a template classified by face direction angle from the face image itself while using various face images whose face direction angles are unknown, and to switch the template appropriately. It is an object of the present invention to provide a face area tracking method using a face image that is robust to pattern deformation and has excellent follow-up performance, and that is resistant to image noise, which enables face area tracking to be performed.

【0011】第3の目的は、テンプレートの位置、倍
率、回転角(x、y、r、φ)で張られる空間内を、前
回の追跡結果における(x、y、r、φ)の値を中心と
し、探索点の密度が中心が密の分布であるような探索に
よる追跡を行わせることで、高速で精密な顔領域追跡方
法を提供することにある。
A third object is to change the value of (x, y, r, φ) in the previous tracking result in a space spanned by the position, magnification, and rotation angle (x, y, r, φ) of the template. It is an object of the present invention to provide a high-speed and accurate face area tracking method by performing tracking by searching such that the density of search points is a dense distribution at the center.

【0012】[0012]

【課題を解決するための手段】上記課題を解決するため
に、請求項1に対応する発明は、対応領域の大きさが異
なる複数の大きさのテンプレートと入力された画像とを
比較することにより人物の顔領域を追跡する顔画像によ
る顔領域追跡方法であって、大きいテンプレートとの類
似度が最大になる入力画像上の位置と、小さいテンプレ
ートとの類似度が最大になる入力画像上の位置との相対
位置を求め、前回のテンプレート更新時の大小テンプレ
ートの相対位置からの変位量が所定の値よりも大きくな
ったときに、テンプレートを更新して、前記入力画像に
相当するテンプレートを蓄積することを特徴とする顔画
像による顔領域追跡方法を提供する。
According to a first aspect of the present invention, there is provided an image processing apparatus, comprising: comparing a plurality of templates having different sizes of corresponding regions with an input image; A face area tracking method based on a face image for tracking a person's face area, wherein a position on the input image at which the similarity with the large template is maximum and a position on the input image at which the similarity with the small template is maximum When the amount of displacement from the relative position of the large and small templates at the time of the previous template update becomes larger than a predetermined value, the template is updated and the template corresponding to the input image is stored. A face area tracking method using a face image is provided.

【0013】本発明はこのような大小テンプレートの位
置関係を用いてテンプレートの更新を制御することによ
り、パターンの変形に頑健で追随性能の優れた、画像ノ
イズに強い顔画像による顔領域追跡方法を提供すること
ができる。
The present invention provides a face area tracking method using a face image that is robust to pattern deformation and has excellent follow-up performance and is resistant to image noise by controlling the update of the template using the positional relationship between the large and small templates. Can be provided.

【0014】次に、請求項2に対応する発明は、対応領
域の大きさが異なる複数の大きさのテンプレートと入力
された画像とを比較することにより人物の顔向きを追跡
する顔画像による顔領域追跡方法であって、大きいテン
プレートとの類似度が最大になる入力画像上の位置と、
小さいテンプレートとの類似度が最大になる入力画像上
の位置との相対位置を求め、その相対位置の大きさに対
応して用意された複数の顔向きのテンプレートを用いて
顔領域を追跡することを特徴とする顔画像による顔領域
追跡方法を提供する。
Next, a second aspect of the present invention is to provide a face image based on a face image which tracks the orientation of a person by comparing the input image with a plurality of templates having different sizes of corresponding areas. An area tracking method, wherein a position on the input image at which the similarity with the large template is maximized;
Finding the relative position to the position on the input image that maximizes the similarity with the small template, and tracking the face area using multiple face orientation templates prepared according to the size of the relative position The present invention provides a face area tracking method using a face image characterized by:

【0015】本発明はこのような(x、y)に依存した
顔テンプレートの地図(顔テンプレートマップ)を利用
して顔向き変化による顔パターンの変形を考慮したテン
プレートの選択を行うことで、パターンの変形に頑健で
追随性能の優れた、画像ノイズに強い顔画像による顔領
域追跡方法を提供することができる。
The present invention uses such a map of a face template (face template map) depending on (x, y) to select a template in consideration of the deformation of the face pattern due to a change in the face direction. A face area tracking method using a face image that is robust to deformation and excellent in follow-up performance and resistant to image noise can be provided.

【0016】次に、請求項3に対応する発明は、所定の
画素数のテンプレートと入力された画像とを比較して、
画像とテンプレートとの一致度合いを検出する顔画像に
よる顔領域追跡方法であって、テンプレートを対応させ
る入力画像上の位置を(x、y)とし、画像上の任意の
大きさの領域に対してテンプレートを対応させるための
テンプレートの拡大または縮小の倍率をrとし、画像上
で回転した対象領域に対してテンプレートを対応させる
ためのテンプレートの回転角をφとし、前回の追跡結果
における(x、y、r、φ)の値を中心として、探索点
が中心が密の分布をするように(x、y)をテンプレー
トを変位させ、またはr、φを変動させたテンプレート
を変位させることにより、対象領域を追跡することを特
徴とする顔画像による顔領域追跡方法を提供する。
Next, according to a third aspect of the present invention, a template having a predetermined number of pixels is compared with an input image.
A face area tracking method based on a face image for detecting a degree of coincidence between an image and a template, wherein a position on an input image corresponding to a template is set to (x, y), and an area of an arbitrary size on the image is determined. The magnification of enlargement or reduction of the template for associating the template is r, the rotation angle of the template for associating the template with the target area rotated on the image is φ, and (x, y , R, φ), the (x, y) template is displaced so that the search points are densely distributed at the center, or the template with r, φ varied is displaced. Provided is a face area tracking method using a face image, which is characterized by tracking an area.

【0017】本発明はこのような、前回位置を中心とす
る、中心が密な分布に従って追跡を行うことで、高速で
精密な顔領域追跡方法を提供することができる。
The present invention can provide a high-speed and accurate face area tracking method by performing tracking in accordance with such a dense distribution centered on the previous position.

【0018】[0018]

【発明の実施の形態】以下、図面を参照しながら発明の
実施の形態を説明する。 (第1の実施形態)本実施形態では、顔画像による顔領
域追跡方法を説明する。図1は本発明の第1の実施の形
態に係る顔画像を用いた顔領域追跡方法及びこれを実現
するためのシステムの一例を示す構成図である。図2は
同実施形態に係る顔テンプレートマップを説明する概念
図である。図3は同実施形態に係る顔領域追跡処理の流
れを説明する流れ図である。
Embodiments of the present invention will be described below with reference to the drawings. (First Embodiment) In this embodiment, a face area tracking method using a face image will be described. FIG. 1 is a configuration diagram showing an example of a face area tracking method using a face image according to a first embodiment of the present invention and a system for realizing the method. FIG. 2 is a conceptual diagram illustrating a face template map according to the embodiment. FIG. 3 is a flowchart illustrating the flow of the face area tracking process according to the embodiment.

【0019】図1に示す顔領域追跡システム1は、シス
テム内部に、顔テンプレートマップ格納部6を有し、逐
次、顔テンプレートマップを学習・更新する機能を持つ
ことが大きな特徴である。顔領域追跡システム1は、画
像入力部2と、正面顔検出部3と、正面顔辞書格納部4
と、正面顔評価部5と、顔テンプレートマップ格納部6
と、テンプレート設定部7と、追跡テンプレート情報格
納部8と、テンプレート追跡部9から構成されている。
このような構成要素を具備することにより、顔領域追跡
システム1は、画像が入力されると、顔領域の位置、顔
向き情報、顔領域追跡計算の結果などの情報を出力する
とともに、学習・更新によりシステム内部に顔テンプレ
ートマップを構築する。
The major feature of the face area tracking system 1 shown in FIG. 1 is that the system has a face template map storage unit 6 therein and has a function of learning and updating the face template map sequentially. The face area tracking system 1 includes an image input unit 2, a front face detection unit 3, and a front face dictionary storage unit 4.
And a front face evaluation unit 5 and a face template map storage unit 6
, A template setting unit 7, a tracking template information storage unit 8, and a template tracking unit 9.
By providing such components, when an image is input, the face area tracking system 1 outputs information such as the position of the face area, face orientation information, the result of the face area tracking calculation, Build a face template map inside the system by updating.

【0020】画像入力部2は、システム外部からビデオ
カメラ等で撮影された被験者の画像を受け取り、画像処
理し易いようにデジタル形式の電子データに変換して、
その電子データを正面顔検出部3とテンプレート追跡部
9へ送る。
The image input unit 2 receives an image of the subject taken by a video camera or the like from outside the system, converts the image into digital electronic data for easy image processing,
The electronic data is sent to the front face detection unit 3 and the template tracking unit 9.

【0021】正面顔検出部3は、人物の正面画像検出の
ためのテンプレートが格納された正面顔辞書格納部4か
ら正面顔検出の為のテンプレートを受け取り、画像入力
部2から入力された画像とそのテンプレートとを比較す
ることにより、入力画像中から人物の顔画像を検出す
る。例えば、人物画像の目、鼻孔領域の画像をパターン
照合と円形分離度フィルタで検出し、それと顔全体パタ
ーン照合との併用による顔検出を行わせる方法を用いる
ことができる。この場合、テンプレートとは、顔と目と
鼻それぞれに対応した部分空間法の辞書パターンのこと
である。
The front face detection unit 3 receives a template for front face detection from a front face dictionary storage unit 4 storing a template for front image detection of a person, and stores an image input from the image input unit 2 By comparing with the template, a face image of a person is detected from the input image. For example, it is possible to use a method in which an image of the eyes and nostrils of a human image is detected by pattern matching and a circular separation filter, and face detection is performed by using the pattern matching and the whole face pattern matching. In this case, the template is a dictionary pattern of the subspace method corresponding to each of the face, eyes, and nose.

【0022】正面顔評価部5は、正面顔検出部3から人
物の顔画像と検出された顔領域の位置情報を受け取り、
顔テンプレートマップ格納部6から正面顔テンプレート
13を受け取り、検出された顔領域のデータが正面顔テ
ンプレート13としてより適しているときには、顔テン
プレートマップ格納部6の中の正面顔テンプレート13
を更新する。また、検出された顔領域の位置情報をテン
プレート設定部7へ送る。
The front face evaluation section 5 receives the face image of the person and the position information of the detected face area from the front face detection section 3,
When the front face template 13 is received from the face template map storage 6 and the data of the detected face area is more suitable as the front face template 13, the front face template 13 in the face template map storage 6 is used.
To update. The position information of the detected face area is sent to the template setting unit 7.

【0023】正面顔テンプレートとしてより適してかど
うかの判断は、例えば、テンプレートマッチングの類似
度の値、目と鼻孔の座標の配置等に基づいて判断するこ
とができる。
The determination as to whether or not it is more suitable as a front face template can be made based on, for example, the similarity value of template matching, the arrangement of the coordinates of eyes and nostrils, and the like.

【0024】顔テンプレートマップ格納部6は、図2に
示されるように、顔向き角度によって異なる大小の顔テ
ンプレートが、上向き、横向きの角度と対応づけて格納
されており、全体として顔テンプレートマップを構成し
ている。ここで大の顔テンプレートとは、両眼、口等の
顔の特徴部分を含む顔全体の画像テンプレートであり、
小の顔テンプレートとは、立体的に検出可能な顔の特徴
部分(例えば鼻など)を含む画像のテンプレートであ
る。
As shown in FIG. 2, the face template map storage section 6 stores large and small face templates that differ depending on the face orientation angle in association with upward and sideways angles. Make up. Here, the large face template is an image template of the entire face including characteristic parts of the face such as the eyes and the mouth.
The small face template is a template of an image including a characteristic part (for example, a nose) of a face that can be detected three-dimensionally.

【0025】顔テンプレートマップ格納部6に格納され
る顔テンプレートマップは、例えば初期状態では、顔向
き角度毎の各テンプレートがそれぞれブランク(空欄)
となっているが、まず正面顔評価部5で正面顔画像に適
すると判定された画像を利用して、大小の顔テンプレー
トが作成され、正面顔テンプレート13が生成される。
次に、テンプレート設定部7の働きにより、様々な顔向
きの顔画像が入力されるにつれて、正面顔以外の顔テン
プレートが学習され、更新される。
In the face template map stored in the face template map storage unit 6, for example, in the initial state, each template for each face direction angle is blank (blank).
First, a large and small face template is created using the image determined to be suitable for the front face image by the front face evaluation unit 5, and the front face template 13 is generated.
Next, the face template other than the front face is learned and updated as the face images of various face directions are input by the operation of the template setting unit 7.

【0026】テンプレート設定部7は、正面顔評価部5
から検出された正面顔の情報を受け取り、次回の顔領域
追跡に利用する追跡テンプレート22を決定し、追跡テ
ンプレート情報格納部8に格納する。
The template setting section 7 includes a front face evaluation section 5
, The tracking template 22 to be used for the next face area tracking is determined and stored in the tracking template information storage unit 8.

【0027】ここでテンプレート設定部7は、大小の顔
テンプレートの相対位置情報に基づき、検出された顔領
域を新たに顔テンプレートとして登録するかどうかを判
断する。これは例えば、被験者が横を向く等、顔向きが
変化すると、それに伴い小さい顔テンプレートのマッチ
ング位置が顔向き方向(例えば横方向)にシフトし、顔
向きの角度が大きい程、そのシフトの度合い(正面位置
からの相対位置)が大きくなるという性質を利用するも
のである。そしてあるしきい値よりもシフト量が大きく
なった場合には、必要に応じて、この検出された顔領域
を、左右、上下向き等の顔テンプレートとして顔テンプ
レートマップ格納部6に登録する。
Here, the template setting section 7 determines whether or not to register the detected face area as a new face template based on the relative position information of the large and small face templates. This is because, for example, when the face direction changes, such as when the subject turns sideways, the matching position of the small face template shifts in the face direction (for example, the horizontal direction), and the degree of the shift increases as the face angle increases. (Relative position from the front position) is used. When the shift amount becomes larger than a certain threshold value, the detected face area is registered in the face template map storage unit 6 as a face template such as left, right, up and down, as necessary.

【0028】3種類以上の大きさの複数のテンプレート
を用いて顔テンプレートマップを構築したり、顔領域追
跡を行わせることもできる。図9、10、11に示され
るように3種類の大きさ(大中小)のテンプレートを利
用する場合は、例えば顔テンプレート(大)に対する顔
テンプレート(中)の位置と、顔テンプレート(中)に
対する顔テンプレート(小)の位置が、顔向き角度の大
きさに関係しており、これらの値による総合判断に基づ
いて、検出された顔領域を、左右、上下向き等の顔テン
プレートとして顔テンプレートマップ格納部6に登録す
る。総合判断する方法には、相対位置のシフトの大きさ
の加算和などを用いることができる。このようにテンプ
レートの個数を増やすことにより、より安定した頑健性
の高い登録処理及び顔領域追跡を行わせることができ
る。
A face template map can be constructed using a plurality of templates of three or more sizes, and face area tracking can be performed. When using templates of three different sizes (large, medium, and small) as shown in FIGS. 9, 10, and 11, for example, the position of the face template (middle) with respect to the face template (large) and the position of the face template (middle) The position of the face template (small) is related to the size of the face orientation angle, and based on the comprehensive judgment based on these values, the detected face area is used as a face template for left, right, up, etc. Register in the storage unit 6. As a method of making a comprehensive judgment, an addition sum of magnitudes of shifts of relative positions can be used. By increasing the number of templates in this way, more stable and robust registration processing and face area tracking can be performed.

【0029】追跡テンプレート情報格納部8は、テンプ
レート設定部から追跡用の顔テンプレートを受け取り、
逐次更新される顔向きの追跡処理に用いる追跡テンプレ
ート22を格納し、必要に応じて、テンプレート設定部
7とテンプレート追跡部へ追跡テンプレート22を送
る。
The tracking template information storage section 8 receives a face template for tracking from the template setting section,
The tracking template 22 used for the tracking process of the face direction which is sequentially updated is stored, and the tracking template 22 is sent to the template setting unit 7 and the template tracking unit as needed.

【0030】テンプレート追跡部9は、画像入力部2か
ら入力画像を受け取り、追跡テンプレート情報格納部8
から追跡テンプレート22を受け取り、入力画像と追跡
テンプレートとを比較することにより、顔領域の追跡処
理を行なう。追跡の処理結果(顔領域追跡の成功/失
敗、顔領域の大きさ、位置、顔向き(角度)など)を出
力するとともに、テンプレート設定部7へ顔領域の情報
を送る。
The template tracking section 9 receives the input image from the image input section 2 and stores the tracking template information storage section 8
And performs a face area tracking process by comparing the input image with the tracking template. The tracking processing result (success / failure of face area tracking, size, position, face direction (angle), and the like of the face area) is output, and information on the face area is sent to the template setting unit 7.

【0031】追跡処理は、図4で示されるように、例え
ば9画素×9画素=81画素からなる追跡テンプレート
22を入力画像領域21上のある位置に対応させ、テン
プレートマッチング処理によって類似度を計算すること
を、複数の探索位置と倍率とを変更することにより達成
する。そして、最大類似度が所定の閾値を越えたとき
に、その位置と倍率のところに顔領域が検出されたと判
断する。
In the tracking process, as shown in FIG. 4, a tracking template 22 consisting of, for example, 9 pixels × 9 pixels = 81 pixels is made to correspond to a certain position on the input image area 21 and the similarity is calculated by the template matching process. Is achieved by changing a plurality of search positions and magnifications. Then, when the maximum similarity exceeds a predetermined threshold, it is determined that the face area is detected at the position and the magnification.

【0032】倍率とは画像の拡大、縮小率を示し、テン
プレートが対応する画像領域の画素数が9×9画素なら
ちょうど1倍となるが、n×n画素ならば倍率はn/9
倍となる。倍率が1でないときは、画像を拡大または縮
小することで追跡テンプレートの一つ一つの画素と対応
させることができる。ここでは、追跡テンプレートの画
素数は9×9としたが、いくつでもよく、問題に応じて
適切に設定すれば良い。
The magnification indicates an enlargement / reduction ratio of an image. If the number of pixels of the image area corresponding to the template is 9 × 9 pixels, the magnification is exactly 1 ×. If the number of pixels is n × n, the magnification is n / 9.
Double. When the magnification is not 1, the image can be made to correspond to each pixel of the tracking template by enlarging or reducing the image. Here, the number of pixels of the tracking template is set to 9 × 9, but any number may be set as appropriate, depending on the problem.

【0033】追跡処理における画像位置と倍率の探索
は、計算時間の制約が有り、現実的にはある程度の間隔
をおいてまばらに行わざるを得ないが、本実施例では、
位置に関しては図5、7、8に示すような値について行
い、倍率に関しては図6に示すような値について行う
と、より効率よく探索処理を行なうことができる。
The search for the image position and the magnification in the tracking process is limited by the calculation time, and in practice, it must be performed sparsely at a certain interval, but in this embodiment,
When the position is determined with respect to the values shown in FIGS. 5, 7, and 8, and the magnification is determined with respect to the value illustrated in FIG. 6, the search process can be performed more efficiently.

【0034】具体的には、前回位置が(x、y)のと
き、前回位置を基準として、その位置近傍を詳細に探索
し、探索位置が遠ざかるにつれて探索処理を粗く行な
う。例えば、追跡テンプレートを利用して入力画像の
(x、y)を探索し(第0探索)、次に(x±1、
y)、(x、y±1)、(x+1、y±1)、(x−
1、y±1)を探索し(第1探索)、次に(x±3、
y)、(x、y±3)、(x+3、y±3)、(x−
3、y±3)を探索し(第2探索)ということを第n探
索まで続ける。
Specifically, when the previous position is (x, y), the vicinity of the previous position is searched for in detail with reference to the previous position, and the search process is roughly performed as the search position moves away. For example, (x, y) of the input image is searched using the tracking template (0th search), and then (x ± 1,
y), (x, y ± 1), (x + 1, y ± 1), (x−
1, y ± 1) (first search), and then (x ± 3,
y), (x, y ± 3), (x + 3, y ± 3), (x−
3, y ± 3) (second search) is continued until the n-th search.

【0035】倍率の探索に関しても、具体的には前回倍
率がrのとき、前回の探索倍率を基準として、その倍率
近傍の画像を生成して詳細に探索する。例えば、ある小
さな定数a(0<a<1)を用いて、まずr倍の大きさ
の追跡テンプレートを利用して入力画像を探索し(第0
探索)、次にr*(1±a)の倍率の追跡テンプレート
を利用して探索し(第1探索)、次にr*(1±3a)
を探索し(第2探索)ということを第m探索まで続け
る。
Regarding the search for the magnification, specifically, when the previous magnification is r, an image near the previous magnification is generated based on the previous search magnification to search in detail. For example, using a certain small constant a (0 <a <1), first, an input image is searched using a tracking template of r times size (0 th
Search), then search using a tracking template with a magnification of r * (1 ± a) (first search), and then r * (1 ± 3a)
(Second search) is continued until the m-th search.

【0036】また回転の探索に関しても、前回の回転角
を基準として、その回転角近傍の回転を施したテンプレ
ートで詳細に探索し、その回転角からの回転変位が大き
くなるに従って粗い探索を行なう。例えば前回のテンプ
レートの回転角がαであったとすると、αの回転処理を
施された追跡テンプレートを用いて入力画像を探索し
(0次探索)、次にα(1±a)の回転を施した追跡テ
ンプレートを用いて探索し(1次探索)、更にα(1±
3a)の回転を施した追跡テンプレートを用いて探索
(2次探索)を続ける。
As for the search for the rotation, a detailed search is performed using a template having a rotation near the rotation angle with reference to the previous rotation angle, and a coarser search is performed as the rotation displacement from the rotation angle increases. For example, if the rotation angle of the previous template is α, the input image is searched (0-order search) using the tracking template that has been subjected to the rotation of α, and then the rotation of α (1 ± a) is performed. (Primary search) using the tracking template thus obtained, and α (1 ±
The search (secondary search) is continued using the rotated tracking template of 3a).

【0037】以上のように、前回パラメタ値を中心と
し、中心が密となるような探索を行うことで、顔の速い
動きに対しては荒いが高速な追跡を行い、顔のゆっくり
した動きに対しては精密な追跡を行わせることができ
る。
As described above, by performing a search in which the center is dense centering on the previous parameter value, rough but high-speed tracking is performed for a fast movement of the face, and a slow movement of the face is performed. For this, precise tracking can be performed.

【0038】図3は本実施形態における顔領域追跡方法
の追跡手順を示す流れ図である。
FIG. 3 is a flowchart showing a tracking procedure of the face area tracking method according to the present embodiment.

【0039】最初に、被験者またはシステムからの入力
等により、顔領域追跡を行うかどうかを判断し(ST
1)、行わない場合には処理を終了する。顔領域追跡を
行う場合は画像入力部からの入力画像を処理して正面顔
検出とテンプレート追跡を行なう(ST2)。次に、前
回の顔領域追跡処理が成功したか否か判断し(ST
3)、前回成功のときはステップST8へ進み、前回失
敗のときはステップST4へ進む。
First, it is determined whether or not to perform face area tracking based on an input from the subject or the system (ST).
1) If not, the process ends. When performing face area tracking, an input image from the image input unit is processed to perform front face detection and template tracking (ST2). Next, it is determined whether or not the previous face area tracking processing was successful (ST
3) If the previous time was successful, the process proceeds to step ST8; if the previous time was unsuccessful, the process proceeds to step ST4.

【0040】ステップST4では正面顔検出部3が正面
顔の検出処理を行い、正面顔が発見されたかどうか判断
し(ST5)、発見された場合はステップST6へ進
み、発見されなかった場合はステップST1へ戻る。
In step ST4, the front face detection section 3 performs a front face detection process to determine whether a front face has been found (ST5). If a front face has been found, the process proceeds to step ST6. Return to ST1.

【0041】ステップST6では、正面顔評価部5が正
面テンプレート更新処理を行い、正面テンプレートを追
跡テンプレート22へコピーし(ST7)、テンプレー
ト追跡部が大小テンプレートの追跡処理を行う(ST
8)。次に、テンプレート追跡が成功したかどうかを判
断し(ST9)、失敗したときはステップST1へ戻る
が、成功したときには顔位置情報を出力し(ST1
0)、大小テンプレートの相対位置変化の大きさに応じ
て(ST11)、大きいときには追跡テンプレート22
の更新を行い、いずれの場合もステップST1に戻る。
In step ST6, the front face evaluation unit 5 performs a front template updating process, copies the front template to the tracking template 22 (ST7), and the template tracking unit performs a large / small template tracking process (ST7).
8). Next, it is determined whether or not the template tracking has succeeded (ST9). If the template tracking has failed, the process returns to step ST1, but if the tracking succeeds, face position information is output (ST1).
0), according to the magnitude of the relative position change between the large and small templates (ST11).
Are updated, and in any case, the process returns to step ST1.

【0042】[0042]

【発明の効果】上記詳記したように本発明によれば、大
小テンプレートの位置関係を用いてテンプレートの更新
を制御することにより、パターンの変形に頑健で追随性
能の優れた、画像ノイズに強い顔画像による顔領域追跡
方法を提供することができる。
As described in detail above, according to the present invention, by controlling the updating of the template using the positional relationship between the large and small templates, it is robust to pattern deformation and excellent in follow-up performance and resistant to image noise. It is possible to provide a face area tracking method using a face image.

【0043】さらに、本発明によれば、大小テンプレー
トの相対位置(x、y)に依存した顔テンプレートの地
図(顔テンプレートマップ)を利用して顔向き変化によ
る顔パターンの変形を考慮したテンプレートの選択を行
うことで、パターンの変形に頑健で追随性能の優れた、
画像ノイズに強い顔画像による顔領域追跡方法を提供す
ることができる。
Further, according to the present invention, a template of a template in which the deformation of the face pattern due to a change in the face direction is considered using a map of the face template (face template map) depending on the relative position (x, y) of the large and small templates. By making a selection, it is robust to pattern deformation and has excellent following performance,
A face area tracking method using a face image that is resistant to image noise can be provided.

【0044】さらに、本発明によれば、前回位置を中心
とする、中心が密な分布に従って追跡を行うことで、高
速で精密な顔領域追跡方法を提供することができる。
Further, according to the present invention, a high-speed and accurate face area tracking method can be provided by performing tracking in accordance with a dense distribution centered on the previous position.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の第1の実施の形態に係る一例を示す
構成図。
FIG. 1 is a configuration diagram showing an example according to a first embodiment of the present invention.

【図2】 同実施形態に係る顔テンプレートマップを説
明する概念図。
FIG. 2 is an exemplary conceptual diagram illustrating a face template map according to the embodiment;

【図3】 同実施形態に係る顔領域追跡方法の処理の一
例を示す流れ図。
FIG. 3 is a flowchart showing an example of processing of the face area tracking method according to the embodiment.

【図4】 同実施形態に係る追跡テンプレートを利用し
た顔領域追跡を説明する概念図。
FIG. 4 is an exemplary conceptual diagram illustrating face area tracking using the tracking template according to the embodiment;

【図5】 同実施形態に係る中心が密な分布に従った顔
領域位置探索を説明する概念図。
FIG. 5 is a conceptual diagram illustrating a face area position search according to the embodiment according to a dense distribution.

【図6】 同実施形態に係る中心が密な分布に従った顔
テンプレート倍率探索を説明する概念図。
FIG. 6 is a conceptual diagram illustrating a face template magnification search according to the dense distribution according to the embodiment.

【図7】 同実施形態に係る中心が密な分布に従った顔
領域位置探索を説明する概念図。
FIG. 7 is an exemplary conceptual diagram illustrating a face area position search according to the embodiment according to a dense distribution.

【図8】 同実施形態に係る中心が密な分布に従った顔
領域位置探索を説明する概念図。
FIG. 8 is a conceptual diagram illustrating a face area position search according to the dense distribution according to the embodiment.

【図9】 同実施形態に係る顔テンプレートマップを説
明する概念図。
FIG. 9 is a conceptual diagram illustrating a face template map according to the embodiment.

【図10】 同実施形態に係る顔テンプレートマップを
説明する概念図。
FIG. 10 is a conceptual diagram illustrating a face template map according to the embodiment.

【図11】 同実施形態に係る顔テンプレートマップを
説明する概念図。
FIG. 11 is an exemplary conceptual diagram explaining the face template map according to the embodiment;

【符号の説明】[Explanation of symbols]

1…顔領域追跡システム 2…画像入力部 3…正面顔検出部 4…正面顔辞書格納部 5…正面顔評価部 6…顔テンプレートマップ格納部 7…テンプレート設定部 8…追跡テンプレート情報格納部 9…テンプレート追跡部 11…顔テンプレート(大) 12…顔テンプレート(小) 13…正面顔テンプレート 14…顔テンプレート(中) 21…入力画像領域 22…追跡テンプレート 1. Face area tracking system 2. Image input unit 3: Front face detection unit 4: Front face dictionary storage unit 5. Front face evaluation unit 6 ... Face template map storage 7 ... Template setting section 8. Tracking template information storage 9: Template tracking unit 11 ... Face template (large) 12 ... Face template (small) 13. Front face template 14 ... Face template (medium) 21: Input image area 22: Tracking template

───────────────────────────────────────────────────── フロントページの続き (72)発明者 牧 淳人 神奈川県川崎市幸区小向東芝町1番地 株 式会社東芝研究開発センター内 Fターム(参考) 5L096 CA04 FA67 FA69 GA13 HA05 JA03 JA09 JA16 JA18 KA03   ────────────────────────────────────────────────── ─── Continuation of front page    (72) Inventor Atsuto Maki             No. 1 Komukai Toshiba-cho, Kawasaki-shi, Kanagawa             Toshiba R & D Center F term (reference) 5L096 CA04 FA67 FA69 GA13 HA05                       JA03 JA09 JA16 JA18 KA03

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】対応領域の大きさが異なる複数の大きさの
テンプレートと入力された画像とを比較することにより
人物の顔向きを追跡する顔画像による顔領域追跡方法で
あって、大きいテンプレートとの類似度が最大になる入
力画像上の位置と、小さいテンプレートとの類似度が最
大になる入力画像上の位置との相対位置を求め、前回の
テンプレート更新時の大小テンプレートの相対位置から
の変位量が所定の値よりも大きくなったときに、テンプ
レートを更新して、前記入力画像に相当するテンプレー
トを蓄積することを特徴とする顔画像による顔領域追跡
方法。
1. A face area tracking method based on a face image for tracking a face direction of a person by comparing a plurality of templates having different sizes of corresponding regions with an input image, the method comprising: The relative position between the position on the input image at which the similarity of the template becomes maximum and the position on the input image at which the similarity with the small template becomes the maximum is calculated, and the displacement from the relative position of the large and small templates at the time of the previous template update A face area tracking method using a face image, characterized in that when the amount becomes larger than a predetermined value, the template is updated and a template corresponding to the input image is stored.
【請求項2】対応領域の大きさが異なる複数の大きさの
テンプレートと入力された画像とを比較することにより
人物の顔向きを追跡する顔画像による顔領域追跡方法で
あって、大きいテンプレートとの類似度が最大になる入
力画像上の位置と、小さいテンプレートとの類似度が最
大になる入力画像上の位置との相対位置を求め、その相
対位置に対応して用意された複数の顔向きのテンプレー
トを用いて顔領域を追跡することを特徴とする顔画像に
よる顔領域追跡方法。
2. A face area tracking method based on a face image for tracking a face direction of a person by comparing a template of a plurality of sizes having different sizes of corresponding areas with an input image, the method comprising: The relative position between the position on the input image that maximizes the similarity of the input image and the position on the input image that maximizes the similarity with the small template is calculated, and a plurality of face orientations prepared corresponding to the relative position are obtained. A face area tracking method using a face image, characterized in that the face area is tracked using the template.
【請求項3】所定の画素数のテンプレートと入力された
画像とを比較して、画像とテンプレートとの一致度合い
を検出する顔画像による顔領域追跡方法であって、テン
プレートを対応させる入力画像上の位置を(x、y)と
し、画像上の任意の大きさの領域に対してテンプレート
を対応させるためのテンプレートの拡大または縮小の倍
率をrとし、画像上で回転した対象領域に対してテンプ
レートを対応させるためのテンプレートの回転角をφと
し、前回の追跡結果における(x、y、r、φ)の値を
中心として、探索点が中心が密の分布をするように
(x、y)をテンプレートを変位させ、またはr、φを
変動させたテンプレートを変位させることにより、対象
領域を追跡することを特徴とする顔画像による顔領域追
跡方法。
3. A face area tracking method using a face image for comparing a template having a predetermined number of pixels with an input image and detecting a degree of coincidence between the image and the template. Is set to (x, y), the magnification of the template for making the template correspond to an area of an arbitrary size on the image is set to r, and the template rotated to the target area rotated on the image is set to r. Let the rotation angle of the template to correspond to φ be (φ, y) so that the search points are densely distributed around the center of the value of (x, y, r, φ) in the previous tracking result. A face area tracking method using a face image, wherein a target area is tracked by displacing a template or displacing a template in which r and φ are varied.
JP2002153321A 2002-05-28 2002-05-28 Face area tracking method by face image Pending JP2003346158A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002153321A JP2003346158A (en) 2002-05-28 2002-05-28 Face area tracking method by face image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002153321A JP2003346158A (en) 2002-05-28 2002-05-28 Face area tracking method by face image

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007329638A Division JP4660534B2 (en) 2007-12-21 2007-12-21 Method and apparatus for tracking face area based on face image

Publications (1)

Publication Number Publication Date
JP2003346158A true JP2003346158A (en) 2003-12-05

Family

ID=29770380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002153321A Pending JP2003346158A (en) 2002-05-28 2002-05-28 Face area tracking method by face image

Country Status (1)

Country Link
JP (1) JP2003346158A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005309765A (en) * 2004-04-21 2005-11-04 Fuji Xerox Co Ltd Image recognition device, image extraction device, image extraction method and program
JP2006163950A (en) * 2004-12-08 2006-06-22 Advanced Telecommunication Research Institute International Characteristic space learning device and method, and characteristic space program
JP2006227736A (en) * 2005-02-15 2006-08-31 Toyota Motor Corp Image processing device and image processing method
JP2007094637A (en) * 2005-09-28 2007-04-12 Denso Corp Face image authentication device
JP2007304852A (en) * 2006-05-11 2007-11-22 Univ Of Tsukuba Object tracking method and device
JP2008530700A (en) * 2005-02-21 2008-08-07 ミツビシ・エレクトリック・インフォメイション・テクノロジー・センター・ヨーロッパ・ビーヴィ Fast object detection method using statistical template matching
JP2009237634A (en) * 2008-03-25 2009-10-15 Seiko Epson Corp Object detection method, object detection device, object detection program and printer
JP2009277027A (en) * 2008-05-15 2009-11-26 Seiko Epson Corp Detection of organ area corresponding to facial organ image in image
WO2010018669A1 (en) * 2008-08-11 2010-02-18 オムロン株式会社 Detection information registration device, object detection device, electronic device, method for controlling detection information registration device, method for controlling object detection device, program for controlling detection information registration device, and program for controlling object detection device
JP2010092092A (en) * 2008-10-03 2010-04-22 Canon Inc Image processing apparatus and image processing method
US7769233B2 (en) 2004-03-22 2010-08-03 Fujifilm Corporation Particular-region detection method and apparatus
JP2010193406A (en) * 2009-02-20 2010-09-02 Canon Inc Image input apparatus, subject detecting method, and program
JP2012080592A (en) * 2012-01-23 2012-04-19 Nikon Corp Imaging apparatus
US8396262B2 (en) 2007-04-04 2013-03-12 Sony Corporation Apparatus and method for face recognition and computer program
US8606020B2 (en) 2011-05-16 2013-12-10 Kabushiki Kaisha Toshiba Search skip region setting function generation method, search skip region setting method, object search method, search skip region setting function generation apparatus, search skip region setting apparatus, and object search apparatus
JP2020021250A (en) * 2018-07-31 2020-02-06 キヤノン株式会社 Imaging device and control method thereof

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7769233B2 (en) 2004-03-22 2010-08-03 Fujifilm Corporation Particular-region detection method and apparatus
US7925093B2 (en) 2004-04-21 2011-04-12 Fuji Xerox Co., Ltd. Image recognition apparatus
JP2005309765A (en) * 2004-04-21 2005-11-04 Fuji Xerox Co Ltd Image recognition device, image extraction device, image extraction method and program
JP4507679B2 (en) * 2004-04-21 2010-07-21 富士ゼロックス株式会社 Image recognition apparatus, image extraction apparatus, image extraction method, and program
JP4505616B2 (en) * 2004-12-08 2010-07-21 株式会社国際電気通信基礎技術研究所 Eigenspace learning device, eigenspace learning method, and eigenspace program
JP2006163950A (en) * 2004-12-08 2006-06-22 Advanced Telecommunication Research Institute International Characteristic space learning device and method, and characteristic space program
JP2006227736A (en) * 2005-02-15 2006-08-31 Toyota Motor Corp Image processing device and image processing method
JP2008530700A (en) * 2005-02-21 2008-08-07 ミツビシ・エレクトリック・インフォメイション・テクノロジー・センター・ヨーロッパ・ビーヴィ Fast object detection method using statistical template matching
JP4739355B2 (en) * 2005-02-21 2011-08-03 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ Fast object detection method using statistical template matching
JP2007094637A (en) * 2005-09-28 2007-04-12 Denso Corp Face image authentication device
JP4553138B2 (en) * 2005-09-28 2010-09-29 株式会社デンソー Face image authentication device
JP2007304852A (en) * 2006-05-11 2007-11-22 Univ Of Tsukuba Object tracking method and device
US8396262B2 (en) 2007-04-04 2013-03-12 Sony Corporation Apparatus and method for face recognition and computer program
JP2009237634A (en) * 2008-03-25 2009-10-15 Seiko Epson Corp Object detection method, object detection device, object detection program and printer
JP2009277027A (en) * 2008-05-15 2009-11-26 Seiko Epson Corp Detection of organ area corresponding to facial organ image in image
CN102105904B (en) * 2008-08-11 2014-06-25 欧姆龙株式会社 Detection information registration device, object detection device, electronic device, method for controlling detection information registration device, method for controlling object detection device, program for controlling detection information registration device
JP2010044516A (en) * 2008-08-11 2010-02-25 Omron Corp Detection information registration device, electronic device, method for controlling detection information registration device, method for controlling electronic device, program for controlling detection information device, and program for controlling electronic device
CN102105904A (en) * 2008-08-11 2011-06-22 欧姆龙株式会社 Detection information registration device, object detection device, electronic device, method for controlling detection information registration device, method for controlling object detection device, program for controlling detection information registration device
WO2010018669A1 (en) * 2008-08-11 2010-02-18 オムロン株式会社 Detection information registration device, object detection device, electronic device, method for controlling detection information registration device, method for controlling object detection device, program for controlling detection information registration device, and program for controlling object detection device
US8774456B2 (en) 2008-08-11 2014-07-08 Omron Corporation Detective information registration device and target object detection device for detecting an object in an image
KR101166994B1 (en) 2008-08-11 2012-07-24 오므론 가부시키가이샤 Detection imformation registration device, object detection device, electronic device, method for controlling detection information registration device, method for controlling object detection device, program for controlling detection information registration device, and program for controlling object detection device
JP4497236B2 (en) * 2008-08-11 2010-07-07 オムロン株式会社 Detection information registration device, electronic device, detection information registration device control method, electronic device control method, detection information registration device control program, electronic device control program
JP2010092092A (en) * 2008-10-03 2010-04-22 Canon Inc Image processing apparatus and image processing method
JP2010193406A (en) * 2009-02-20 2010-09-02 Canon Inc Image input apparatus, subject detecting method, and program
US8606020B2 (en) 2011-05-16 2013-12-10 Kabushiki Kaisha Toshiba Search skip region setting function generation method, search skip region setting method, object search method, search skip region setting function generation apparatus, search skip region setting apparatus, and object search apparatus
JP2012080592A (en) * 2012-01-23 2012-04-19 Nikon Corp Imaging apparatus
JP2020021250A (en) * 2018-07-31 2020-02-06 キヤノン株式会社 Imaging device and control method thereof

Similar Documents

Publication Publication Date Title
Ballard Animat vision
JP2003346158A (en) Face area tracking method by face image
JP5715833B2 (en) Posture state estimation apparatus and posture state estimation method
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
CN105825524A (en) Target tracking method and apparatus
EP2704056A2 (en) Image processing apparatus, image processing method
CN104583902A (en) Improved identification of a gesture
US20070183665A1 (en) Face feature point detecting device and method
Tian et al. Scene Text Detection in Video by Learning Locally and Globally.
Paral et al. Vision sensor-based shoe detection for human tracking in a human–robot coexisting environment: A photometric invariant approach using DBSCAN algorithm
JP2010165046A (en) Information processing apparatus and information processing method
EP2639743A2 (en) Image processing device, image processing program, and image processing method
JP2009230703A (en) Object detection method, object detection device, and object detection program
Alcantarilla et al. Learning visibility of landmarks for vision-based localization
JP2004012429A (en) Self-position/attitude identification device and self-position/attitude identification method
Ouerhani et al. Visual attention-based robot self-localization
Yan Ear biometrics in human identification
JP4660534B2 (en) Method and apparatus for tracking face area based on face image
JP7374632B2 (en) Information processing device, information processing method and program
JP2007140729A (en) Method and device detecting position and attitude of article
Zhou et al. Visual tracking using improved multiple instance learning with co-training framework for moving robot
Köser Affine Registration
JP2003216935A (en) Face extracting device and method, and storage medium with those stored therein
CN112200076A (en) Method for carrying out multi-target tracking based on head and trunk characteristics
JP2021064120A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050207

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050415

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071221

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20071221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080513

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080805