JPH10162118A - Device and method for image processing - Google Patents

Device and method for image processing

Info

Publication number
JPH10162118A
JPH10162118A JP8319891A JP31989196A JPH10162118A JP H10162118 A JPH10162118 A JP H10162118A JP 8319891 A JP8319891 A JP 8319891A JP 31989196 A JP31989196 A JP 31989196A JP H10162118 A JPH10162118 A JP H10162118A
Authority
JP
Japan
Prior art keywords
image
image data
predetermined
image processing
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP8319891A
Other languages
Japanese (ja)
Inventor
Toshiaki Kondo
俊明 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP8319891A priority Critical patent/JPH10162118A/en
Publication of JPH10162118A publication Critical patent/JPH10162118A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect a specified image from one sheet of image data speedily with a simple constitution without using any background information. SOLUTION: Image data from an image data supply part 10 is divided by a band division part 20 into fHL including a horizontal high-frequency component and a vertical low-frequency component, fLH including a vertical high-frequency component and a horizontal low-frequency component, and fLL consisting of a low-frequency component. An edge detection part 30 detects a part, where an edge is present in a T shape by using fLH and fHL. Further, a symmetry axis detection part 40 calculates the degree of symmetry as to the part detected by the edge detection part 30 and a matching part 50 matches the part which is thus limited against a face standard pattern to detect the position of the face.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像データから人の
顔等の所定像の位置を自動的に検出する画像処理装置及
び方法に関するものである。更に詳しくは、本発明は、
画像データから人の顔等の所定像の位置を自動的に検出
し、人の顔の追尾機能や、伝送、圧縮する画像の特定、
或いは焦点合わせや肌色調節の自動化等の機能で、監視
カメラ、テレビ会議システム、ビデオフォン、ビデオカ
メラ、ビデオデータ編集装置等に適用可能な画像処理方
法及び装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method for automatically detecting the position of a predetermined image such as a human face from image data. More specifically, the present invention provides:
Automatically detects the position of a predetermined image such as a human face from image data, and tracks the human face, specifies the image to be transmitted and compressed,
Alternatively, the present invention relates to an image processing method and apparatus applicable to a surveillance camera, a video conference system, a videophone, a video camera, a video data editing apparatus, and the like with functions such as focusing and automatic skin color adjustment.

【0002】[0002]

【従来の技術】従来、顔の自動検出方法及び装置では、
以下に示す手法が取られている。すなわち、 既知の背景との差分を求め、この差分値の大きい位置
に顔が存在するものとして顔の自動検出を行う、 テレビ映像のフレームあるいはフィールド間差を求
め、差の大きい部分に顔が存在するものとして顔の自動
検出を行う、 カラー映像信号から肌色の領域を探すことで顔の自動
検出を行う、 パターンとして何らかの顔に関する何らかの知識(例
えば、輪郭モデルや統計的特徴)に基づいて類似パター
ンを探索することで顔の自動検出を行う、 無地な背景を前提として、画像データの水平、垂直方
向への投影値を求めて、この投影値に基づいて顔の自動
検出を行う、といった手法が一般的である。
2. Description of the Related Art Conventionally, in an automatic face detection method and apparatus,
The following method is used. That is, a difference from a known background is obtained, and a face is automatically detected assuming that a face exists at a position where the difference value is large.A difference between frames or fields of a television image is obtained, and a face exists at a portion where the difference is large. Automatically detects faces as a means to detect them, Automatically detects faces by searching for skin-colored areas from color video signals, Similar patterns based on some knowledge about faces (eg, contour models and statistical features) To automatically detect faces by searching for images, assuming a plain background, calculating the projection values of the image data in the horizontal and vertical directions, and automatically detecting faces based on these projection values. General.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来例の〜の手法では、次に述べるような課題があ
る。すなわち、の手法では、背景情報を既知としてい
るため、応用範囲がテレビ会議や監視カメラ等、所定の
場所に設置されたものに限られてしまう、の手法で
は、映像信号の時間差を求めるために高価な画像メモリ
が必要となる。また、人以外の動物体や移動体が画面に
含まれたり、映像入力装置(例えばカメラ)本体が動く
ような場合は、正しい検出が困難となる、の手法で
は、照明条件によって肌色も多様に変化するので、照明
に厳しい条件が課せられることになる、の手法では、
顔パターンと類似した領域を例えば相関演算により画像
の広い範囲で探索することが必要となる。このため演算
量が多く、低速であったり大規模な装置が必要となって
しまう、の手法では背景が無地な場合に応用が限られ
てしまい、汎用性に乏しい、といった問題がある。
However, the above-mentioned conventional methods have the following problems. In other words, in the method, since the background information is known, the application range is limited to those installed in a predetermined place such as a video conference or a surveillance camera. Expensive image memory is required. In addition, it is difficult to correctly detect when a moving object other than a person is included in the screen or the main body of the image input device (for example, a camera) moves. Change, which imposes severe conditions on the lighting.
It is necessary to search for a region similar to the face pattern in a wide range of the image by, for example, a correlation operation. For this reason, the method of requiring a large amount of calculation and requiring a low-speed or large-scale device has a problem that the application is limited when the background is plain and the versatility is poor.

【0004】本発明は、上記問題に鑑みてなされたもの
であり、背景情報を用いずに、一枚の画像データからの
特定像の検出を、簡易な構成でかつ高速に行うことを可
能とする画像処理方法及び装置を提供することを目的と
する。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has been made to enable a simple configuration and high speed detection of a specific image from one piece of image data without using background information. It is an object of the present invention to provide an image processing method and an image processing method.

【0005】また、本発明の他の目的は、照明条件の変
化による影響を受けにくく、安定した像検出を行える画
像処理方法及び装置を提供することを目的とする。
It is another object of the present invention to provide an image processing method and apparatus which are not easily affected by changes in illumination conditions and can perform stable image detection.

【0006】また、本発明の他の目的は、簡易なエッジ
検出、及びエッジ処理により素早く画像情報の乏しい無
地の領域、低コントラストな領域を顔探索の対象領域か
ら除去することを可能とし、高速な顔検出を可能とする
画像処理方法及び装置を提供することにある。
Another object of the present invention is to enable a simple area detection and edge processing to quickly remove a plain area or a low-contrast area where image information is scarce from a target area for face search by a simple edge detection and edge processing. It is an object of the present invention to provide an image processing method and an apparatus capable of detecting a complicated face.

【0007】また、本発明の他の目的は、複雑な背景か
ら左右対称の領域を抽出することにより、後段の顔探索
の負担を大幅に減ずることを可能とし、高速な顔検出を
可能とする画像処理方法及び装置を提供することにあ
る。
Another object of the present invention is to extract a symmetrical area from a complicated background, thereby greatly reducing the burden of the subsequent face search and enabling high-speed face detection. An image processing method and apparatus are provided.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
の本発明の画像処理方法は以下の工程を備える。すなわ
ち、画像データから自動的に所定像を検出する画像処理
方法であって、前記画像データを帯域分割する分割工程
と、前記分割工程によって帯域分割された画像データに
基づいて、前記所定像を探索すべき領域を限定する限定
工程と、前記限定工程で限定された領域において前記所
定像の位置検出を行う検出工程とを備える。
The image processing method of the present invention for achieving the above object has the following steps. That is, an image processing method for automatically detecting a predetermined image from image data, comprising: a dividing step of dividing the image data into bands; and searching for the predetermined image based on the image data band-divided by the dividing step. A limiting step of limiting an area to be performed; and a detecting step of detecting a position of the predetermined image in the area limited by the limiting step.

【0009】また、上記目的を達成する本発明の画像処
理装置は、画像データから自動的に所定像を検出する画
像処理装置であって、前記画像データを帯域分割する分
割手段と、前記分割手段によって帯域分割された画像デ
ータに基づいて、前記所定像を探索すべき領域を限定す
る限定手段と、前記限定手段で限定された領域において
前記所定像の位置検出を行う検出手段とを備える。
According to another aspect of the present invention, there is provided an image processing apparatus for automatically detecting a predetermined image from image data, comprising: a dividing unit for dividing the image data into bands; A limiting unit that limits an area in which the predetermined image is to be searched based on the image data band-divided by the unit; and a detecting unit that detects a position of the predetermined image in the area limited by the limiting unit.

【0010】[0010]

【発明の実施の形態】以下に説明する実施形態によれ
ば、帯域分割手段が処理対象の画像データを、水平・垂
直方向の高周波成分、低周波成分へ分割する。そして、
顔領域限定手段が、当該帯域分割手段によって分割され
た画像データを利用して、顔の存在する可能性のある領
域(顔領域)を限定していく。ここで、帯域分割手段に
おいては、画像の解像度もしくはサンプリングプレート
を落とす処理が行われる。そして、顔領域限定手段が当
該帯域分割手段の出力信号を直接利用して顔領域を限定
する。このため、高速で簡便な顔の検出方法及び装置を
提供できる。
According to the embodiment described below, a band dividing means divides image data to be processed into a high frequency component and a low frequency component in horizontal and vertical directions. And
The face area limiting means limits an area (face area) where a face may exist by using the image data divided by the band dividing means. Here, in the band dividing means, processing for reducing the resolution of the image or the sampling plate is performed. Then, the face area limiting means limits the face area by directly using the output signal of the band dividing means. For this reason, a fast and simple face detection method and apparatus can be provided.

【0011】また、顔領域限定手段により、エッジがT
字型に分布する部分が抽出される。このため、エッジ数
の乏しい低コントラストな領域とT字型にエッジが分布
しない無地な背景上の物体の輪郭域が顔領域から除去さ
れる。よって、比較的平坦な背景を持った画像からの顔
検出を容易に行える。また、エッジ検出には、上記帯域
分割手段の出力のうちの、水平方向の高周波成分及び垂
直方向の高周波成分が直接利用されるので極めて高速な
処理ができる。
Further, the edge is limited to T
A portion distributed in a character shape is extracted. For this reason, a low-contrast region having a small number of edges and a contour region of an object on a plain background having no T-shaped edge distribution are removed from the face region. Therefore, face detection can be easily performed from an image having a relatively flat background. Also, for the edge detection, the high-frequency component in the horizontal direction and the high-frequency component in the vertical direction of the output of the band dividing means are directly used, so that extremely high-speed processing can be performed.

【0012】更に、顔領域限定手段によれば、左・右対
称の度合の強い領域が抽出される。複雑な背景を持った
画像でも、左・右対称という特異な領域を抽出すること
により、顔の存在領域を効果的に限定することができ
る。また、対称形探索には、上記帯域分割手段の出力を
直接利用するので、極めて効率的な処理が可能である。
Further, according to the face area limiting means, an area having a high degree of left / right symmetry is extracted. Even in an image having a complicated background, by extracting a unique region having left / right symmetry, the region where the face exists can be effectively limited. Also, since the output of the band dividing means is directly used for the symmetric search, extremely efficient processing is possible.

【0013】以下、添付の図面を参照して本発明の好適
な実施形態をより具体的に説明する。
Hereinafter, preferred embodiments of the present invention will be described more specifically with reference to the accompanying drawings.

【0014】(第1の実施形態)図1は本実施形態の画
像処理装置の概略の構成を示すブロック図である。同図
において、101はCPUであり、ROM102等に格
納された制御プログラムを実行することにより、本画像
処理装置の各種処理を実現する。102はROMであ
り、CPU101が実行する制御プログラムや各種デー
タを格納する。103はRAMであり、CPU101が
各種制御を実行する際の作業領域を提供する。104は
外部記憶装置であり、例えばハードディスク、フロッピ
ーディスク等で構成される。外部記憶装置104には、
アプリケーションプログラムや画像データ等を格納する
ことができる。105は入力部であり、キーボードやマ
ウス等を備える。106はディスプレイであり、CPU
101の制御により各種表示を行う。
(First Embodiment) FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to the present embodiment. In FIG. 1, reference numeral 101 denotes a CPU, which implements various processes of the image processing apparatus by executing a control program stored in a ROM 102 or the like. A ROM 102 stores a control program executed by the CPU 101 and various data. A RAM 103 provides a work area when the CPU 101 executes various controls. Reference numeral 104 denotes an external storage device, for example, a hard disk, a floppy disk, or the like. In the external storage device 104,
Application programs, image data, and the like can be stored. An input unit 105 includes a keyboard, a mouse, and the like. 106 is a display, a CPU
Various displays are performed under the control of 101.

【0015】107はカメラインターフェースであり、
カメラ108より取り込まれた映像データをディジタル
データに変換してバス109へ出力する。108はカメ
ラであり、CCD等の撮像素子を備える。109はバス
であり、上述の各構成を接続する。なお、上記説明にお
いて、CPU101はROM102に格納されたプログ
ラムを実行するとしたが、外部記憶装置104に格納さ
れたプログラムをRAMU103にロードして、これを
CPU104によって実行するように構成してもよい。
また、カメラ108によって得られた画像データは外部
記憶装置104或いはRAM103に格納される。ま
た、画像を入力するための装置としては、上述のカメラ
108に限らず、例えばスキャナ等であってもよい。1
10は画像データから顔の位置を検出する顔位置検出部
である。
Reference numeral 107 denotes a camera interface.
The video data captured by the camera 108 is converted into digital data and output to the bus 109. Reference numeral 108 denotes a camera, which includes an image sensor such as a CCD. Reference numeral 109 denotes a bus that connects the above-described components. In the above description, the CPU 101 executes the program stored in the ROM 102. However, the CPU 101 may load the program stored in the external storage device 104 into the RAMU 103 and execute the program by the CPU 104.
The image data obtained by the camera 108 is stored in the external storage device 104 or the RAM 103. The device for inputting an image is not limited to the above-described camera 108, but may be, for example, a scanner or the like. 1
Reference numeral 10 denotes a face position detection unit that detects the position of a face from image data.

【0016】図2は第1の実施形態の画像処理装置にお
ける顔位置検出部に関る機能構成を示すブロック図であ
る。同図において、10は画像データ供給部であり、当
該システムへ画像データを供給する。なお、画像データ
供給部10は、カメラ108(或いはスキャナ等)によ
って構成される画像データ入力部であってもよいし、画
像データを格納する外部記憶装置104、RAM103
によって構成される画像データ格納部であってもよい。
20は帯域分割部、30はエッジ検出部、40は対称軸
検出部、50は顔の位置を決定するマッチング部であ
る。各部の機能の詳細は後述する。マッチング部50の
出力は、顔の位置を示すデータとして出力される。
FIG. 2 is a block diagram showing a functional configuration related to a face position detecting unit in the image processing apparatus according to the first embodiment. In FIG. 1, reference numeral 10 denotes an image data supply unit which supplies image data to the system. The image data supply unit 10 may be an image data input unit configured by a camera 108 (or a scanner or the like), an external storage device 104 that stores image data, a RAM 103
May be an image data storage unit constituted by
Reference numeral 20 denotes a band division unit, 30 denotes an edge detection unit, 40 denotes a symmetry axis detection unit, and 50 denotes a matching unit for determining a face position. Details of the function of each unit will be described later. The output of the matching unit 50 is output as data indicating the position of the face.

【0017】次に、図3を参照し、図2の機能構成の動
作を信号の流れに沿って詳しく説明する。図3は第1の
実施形態による顔位置検出の手順を示すフローチャート
である。画像入力部あるいは画像データ格納部等の画像
データ供給部10から画像データが入力される(ステッ
プS10)。なお、帯域分割部20は、画像を各空間周
波数帯に分割し、更にダウンサンプリング(間引き)に
より、画像サイズを縮小する。これは、ダウンサンプリ
ングにより処理すべき画像データの量を減少させ、以後
の処理をより高速にするためである。
Next, the operation of the functional configuration of FIG. 2 will be described in detail along the signal flow with reference to FIG. FIG. 3 is a flowchart showing the procedure of face position detection according to the first embodiment. Image data is input from an image data supply unit 10 such as an image input unit or an image data storage unit (Step S10). Note that the band dividing unit 20 divides the image into each spatial frequency band, and further reduces the image size by downsampling (decimation). This is to reduce the amount of image data to be processed by downsampling and to make the subsequent processing faster.

【0018】以後、簡単のため、入力画像をf(x,y)、
ダウンサンプリングされたサブ画像をfLL,fLH,fH
L,fHHと表記する。ここで、fLLはf(x,y)の水平垂直
方向の低周波成分から成るサブ画像、fLHはf(x,y)の
水平方向の低周波成分と垂直方向の高周波成分から成る
サブ画像、fHLはf(x,y)の水平方向の高周波成分と垂
直方向の低周波成分から成るサブ画像、fHHはf(x,y)
の水平垂直方向の高周波成分から成るサブ画像である。
図4はサブ画像の1例を示す図である。図4で左上がf
LL、右上がfLH、左下がfHL、右下がfHHにそれぞれ対
応する。fLH,fHLは共に、エッジ検出部30と対称軸
検出40へと入力される。また、fLLは顔の位置を決定
するマッチング部50へと入力される。なお、fHHは画
像情報が乏しいので本実施形態では使用しない。
Hereinafter, for simplicity, the input image is represented by f (x, y),
Downsampled sub-images are denoted by fLL, fLH, fH
Notated as L, fHH. Here, fLL is a sub-image composed of horizontal and vertical low-frequency components of f (x, y), fLH is a sub-image composed of horizontal low-frequency components and vertical high-frequency components of f (x, y), fHL is a sub-image consisting of a horizontal high-frequency component and a vertical low-frequency component of f (x, y), and fHH is f (x, y)
Is a sub-image composed of high-frequency components in the horizontal and vertical directions.
FIG. 4 is a diagram illustrating an example of the sub-image. In FIG. 4, the upper left is f
LL, upper right corresponds to fLH, lower left corresponds to fHL, and lower right corresponds to fHH. Both fLH and fHL are input to the edge detection unit 30 and the symmetry axis detection 40. Further, fLL is input to the matching unit 50 that determines the position of the face. Note that fHH is not used in this embodiment because image information is scarce.

【0019】さて、以上のようにして得られたfHL及び
fLHはエッジ検出部30に供給されて、エッジ検出が行
われ、処理を行うべき領域として有効ブロックが抽出さ
れる(ステップS11)。図5はエッジ検出部30内で
の処理の概要を示すフローチャートである。また、図6
はエッジ検出部30による処理のより詳細な手順を示す
フローチャートである。70はエッジ検出処理であり、
入力されたサブ画像fHL,fLHよりエッジ画像を獲得す
る。図5のフローチャートに従って説明すると、まず、
サブ画像fHL,fLHを入力し(ステップS701)、こ
れらサブ画像に対して閾値処理を施して2値化を行い、
f’HL及びf’LHを得る(ステップS702)。続い
て、ステップS703において、以上のようにして2値
化されたf’HL,f’LHの論理和(OR)を演算する。
こうして得られた画像がエッジ画像である。
The fHL and fLH obtained as described above are supplied to the edge detection unit 30, where edge detection is performed, and an effective block is extracted as a region to be processed (step S11). FIG. 5 is a flowchart showing an outline of the processing in the edge detection unit 30. FIG.
5 is a flowchart showing a more detailed procedure of processing by the edge detection unit 30. 70 is an edge detection process;
An edge image is obtained from the input sub-images fHL and fLH. According to the flowchart of FIG. 5, first,
The sub-images fHL and fLH are input (step S701), threshold processing is performed on these sub-images, and binarization is performed.
f′HL and f′LH are obtained (step S702). Subsequently, in step S703, the logical sum (OR) of the binarized f'HL and f'LH as described above is calculated.
The image thus obtained is an edge image.

【0020】図7はエッジ検出処理70の処理例を具体
的に示す図である。左上のサブ画像はfLL、右上のサブ
画像はfLHを所定の閾値で2値化して得られたサブ画像
f’LHである。また、右下のサブ画像はfLHを所定の閾
値で2値化して得られたサブ画像f’HL、そして右下が
これら2つのサブ画像(f’LH及びf’HL)の論理和、
即ち、エッジ画像を表している。
FIG. 7 is a diagram specifically showing a processing example of the edge detection processing 70. The upper left sub-image is fLL, and the upper right sub-image is a sub-image f'LH obtained by binarizing fLH with a predetermined threshold. The lower right sub-image is a sub-image f'HL obtained by binarizing fLH with a predetermined threshold, and the lower right is a logical sum of these two sub-images (f'LH and f'HL).
That is, it represents an edge image.

【0021】続いて、エッジ検出処理70によって得ら
れたエッジ画像は、エッジブロック抽出処理80に供給
される。エッジブロック抽出処理80では、前記エッジ
画像を小さいブロック(例えば、1ブロック当たり8×
8画素)に細かく分割し(ステップS801)、各ブロ
ックに含まれるエッジ数をカウントする(ステップS8
02)。そして、カウントされたエッジ数に対して閾値
処理を施すことにより、一定数以上のエッジを含むブロ
ックを抽出する(ステップS803)。こうして抽出さ
れたブロックをエッジブロックと呼ぶ。
Subsequently, the edge image obtained by the edge detection processing 70 is supplied to an edge block extraction processing 80. In the edge block extraction processing 80, the edge image is converted into a small block (for example, 8 ×
(8 pixels) (step S801), and the number of edges included in each block is counted (step S8).
02). Then, a block including a certain number of edges or more is extracted by performing threshold processing on the counted number of edges (step S803). The block extracted in this way is called an edge block.

【0022】図8はエッジ画像とエッジブロックの対応
を説明する図である。図8の(a)は図7で示したエッ
ジ画像であり、図8の(b)は図8の(a)のエッジ画
像からエッジ部の画素を所定個数以上含むブロックを抽
出した結果である。なお、本例では、ブロックサイズは
8×8画素で、1ブロックの総計64画素中8画素以上
がエッジである場合に、当該ブロックをエッジブロック
として黒く表示させている。図8より明らかなように、
この時点で既に無地の背景は除外されることになる。
FIG. 8 is a diagram for explaining the correspondence between an edge image and an edge block. 8A is the edge image shown in FIG. 7, and FIG. 8B is a result of extracting a block including a predetermined number or more of pixels of the edge portion from the edge image of FIG. 8A. . In this example, when the block size is 8 × 8 pixels and at least 8 pixels out of a total of 64 pixels in one block are edges, the block is displayed in black as an edge block. As is clear from FIG.
At this point, the already plain background will be excluded.

【0023】次に、顔エッジ抽出処理90では、前記処
理80で抽出されたエッジブロックからT字型に分布し
たエッジブロックを抽出する(ステップS901)。顔
エッジ抽出処理90内の処理を図9、図10を用いて更
に詳しく説明する。
Next, in the face edge extraction processing 90, T-shaped edge blocks are extracted from the edge blocks extracted in the processing 80 (step S901). The processing in the face edge extraction processing 90 will be described in more detail with reference to FIGS.

【0024】図9はT字型に分布したエッジブロックを
表わす図である。顔から検出されるエッジはT字型に分
布するので、このようなT字型に分布しているエッジブ
ロックのみを選択的に抽出し、顔の検出対象領域を制限
する。以下、このようにして抽出されたエッジブロック
を有効エッジブロックという。こうして抽出された有効
エッジブロックは、対称軸検出部40へ出力される。
FIG. 9 is a diagram showing T-shaped distributed edge blocks. Since the edges detected from the face are distributed in a T-shape, only the edge blocks distributed in such a T-shape are selectively extracted to restrict the face detection target area. Hereinafter, the edge block thus extracted is referred to as an effective edge block. The extracted effective edge blocks are output to the symmetry axis detection unit 40.

【0025】図10は顔エッジ抽出処理90の出力例を
示す図である。T字型にエッジブロックが分布する領域
のみを選択することにより、孤立したブロック、平坦な
背景を持つ物体の輪郭部に位置するブロックが除去さ
れ、以後の処理(対称軸検出部40による処理、マッチ
ング部50による処理)で、処理対象とすべき領域を大
幅に制限することができる。
FIG. 10 is a diagram showing an output example of the face edge extraction processing 90. By selecting only the region where the edge blocks are distributed in a T-shape, isolated blocks and blocks located on the contour of an object having a flat background are removed, and the subsequent processing (processing by the symmetry axis detecting unit 40, In the processing by the matching unit 50), the area to be processed can be significantly limited.

【0026】なお、本例では注目とするブロックを中心
に左・右・下方向に2個ずつのブロックから成るT字型
(図9)を用いたが、当設定は予想される顔のサイズ、
用いるブロックのサイズに応じて変更されるものであ
る。また、注目するT字型の近隣ブロック(本例の場
合、注目ブロックと6個のブロック)全てがエッジブロ
ックである必要はない。例えば、注目ブロックと注目す
べき近隣ブロックの内、一定数以上がエッジブロックで
あるならば有効エッジブロックであるとして、対応する
エッジブロックを選択するというように、緩い基準設定
をしても良い。なお、これらの基準設定は、入力部10
5より行う。
In this example, a T-shape (FIG. 9) consisting of two blocks in the left, right, and downward directions around the block of interest is used. ,
It is changed according to the size of the block used. Further, not all the T-shaped neighboring blocks of interest (in this example, the attention block and the six blocks) need to be edge blocks. For example, if a certain number or more of the focused block and the neighboring blocks to be focused on are edge blocks, a loose reference setting may be made such that a valid edge block is selected and a corresponding edge block is selected. Note that these reference settings are set in the input unit 10.
Perform from step 5.

【0027】更に、入力する顔のサイズが全く不明の場
合に備え、例えば画面サイズから12×12画素の最少
サイズまでの間で何段階かの異なるサイズで、エッジ検
出処理70,エッジブロック抽出処理80,顔エッジ抽
出処理90を実行することも可能である。このように、
複数段階のサイズで各々の処理を行い、各サイズの処理
で求められる対称性の度合と相関係数σの値が高いサイ
ズが、その時の入力画像に適切なサイズとして選択さ
れ、その後の処理に用いられる。以上のようなエッジ検
出部30の出力は、引続く処理で対象とする領域を示す
マップとして、対称軸検出部40の演算領域を制御す
る。
Further, in case that the size of the input face is completely unknown, the edge detection processing 70 and the edge block extraction processing are performed in several different sizes, for example, from the screen size to the minimum size of 12 × 12 pixels. 80, a face edge extraction process 90 can also be executed. in this way,
Perform each process in multiple stages of size, the size of the degree of symmetry and the value of the correlation coefficient σ that are high in the process of each size is selected as the appropriate size for the input image at that time, and the subsequent process Used. The output of the edge detection unit 30 as described above controls the calculation area of the symmetry axis detection unit 40 as a map indicating a target area in the subsequent processing.

【0028】さて、ステップS12(図3)では、以上
のようにして抽出された有効ブロックの領域の各部にお
いて対称性の度合を検出する。以下、対称軸検出部40
の処理を説明する。図11は対称軸検出部40の処理手
順を説明するフローチャートである。対称軸検出部40
では、上記エッジ検出部30によって有効とされた領域
でのみ実行される。
In step S12 (FIG. 3), the degree of symmetry is detected in each part of the effective block area extracted as described above. Hereinafter, the symmetric axis detection unit 40
Will be described. FIG. 11 is a flowchart illustrating a processing procedure of the symmetry axis detection unit 40. Symmetry axis detector 40
Is executed only in the area validated by the edge detection unit 30.

【0029】まず、帯域分離部20よりfHL及びfLHを
入力するとともに、エッジ検出部30より有効エッジブ
ロックを入力する(ステップS401)。そして、これ
らのデータに基づいて対称軸を検出する(ステップS4
02)。対称軸の検出は画像データの勾配(グラディエ
ント)の方向性に基づいて行われる。勾配ベクトルの方
向θは次の(1)式で表わされる。
First, fHL and fLH are input from the band separation unit 20, and an effective edge block is input from the edge detection unit 30 (step S401). Then, a symmetry axis is detected based on these data (step S4).
02). The detection of the axis of symmetry is performed based on the directionality of the gradient (gradient) of the image data. The direction θ of the gradient vector is expressed by the following equation (1).

【0030】[0030]

【数1】 (Equation 1)

【0031】ここで、上記(1)式の右辺の勾配は、画
像の高周波成分と等価であり、以下の(2)式が成立す
る。
Here, the gradient on the right side of the above equation (1) is equivalent to the high frequency component of the image, and the following equation (2) is established.

【0032】[0032]

【数2】 (Equation 2)

【0033】従って、本実施形態では、勾配ベクトルの
方向θを、帯域分割部20の出力fLH,fHLを直接利用
して、(1)式の替わりに、以下の(3)式を実行して
求める。
Therefore, in the present embodiment, the following equation (3) is executed instead of equation (1) by directly using the outputs fLH and fHL of the band dividing section 20 as the direction θ of the gradient vector. Ask.

【0034】[0034]

【数3】 (Equation 3)

【0035】上記の(3)式は、ソフトウェアで実行し
ても良いし、ルックアップテーブルを利用してハードウ
ェアで実行しても良い。
The above equation (3) may be executed by software, or may be executed by hardware using a look-up table.

【0036】次に、ステップS403において、画像の
各位置(x、y)における対称性の度合γを求める。γ
(x、y)は、θ(x、y)を用いて次の(4)式のよ
うに定義される。
Next, in step S403, the degree of symmetry γ at each position (x, y) of the image is determined. γ
(X, y) is defined by the following equation (4) using θ (x, y).

【0037】[0037]

【数4】 (Equation 4)

【0038】ここで、(4)式は当ブロック内の左・右
のθ差を演算する。なお、演算ブロック範囲は検出すべ
き顔のサイズとほぼ一致させる。顔のサイズが未知の場
合には何段階か異なるサイズのBを用いても良い。図1
2は帯域分離された画像データfLL(a)と対称性の度
合γ(b)との対応関係を示す図である。対称性が高い
場合、(4)式の第1項、第2項は共に、項内の相殺に
より小さい値を取る。また、(4)式は、絶対値を更に
2乗したものであるが、対称性の度合γは、単に絶対値
和であってもよい。
Here, equation (4) calculates the difference between the left and right θ in this block. It should be noted that the calculation block range is made to substantially match the size of the face to be detected. If the size of the face is unknown, B having a different size in several stages may be used. FIG.
2 is a diagram showing the correspondence between the band-separated image data fLL (a) and the degree of symmetry γ (b). When the symmetry is high, both the first and second terms of equation (4) take smaller values for the cancellation within the term. Further, although the expression (4) is obtained by further squaring the absolute value, the degree of symmetry γ may be simply a sum of absolute values.

【0039】図12の(b)の暗い垂直方向のストライ
プが顔の対称軸を示している。図12の(b)では説明
のため画像全域でγを演算し表示しているが、実際には
対象性の度合を求めるための演算はエッジ検出部30で
有効エッジブロックが抽出された領域でのみ実行され
る。図13は有効エッジブロックにおいて対象性の度合
γを算出した状態を示す図である。すなわち、図13は
図10と図12の論理積に等しくなる。
The dark vertical stripes in FIG. 12B indicate the axis of symmetry of the face. In FIG. 12B, γ is calculated and displayed for the entire image for the sake of explanation. However, in practice, the calculation for determining the degree of symmetry is performed in the area where the effective edge block is extracted by the edge detection unit 30. Only executed. FIG. 13 is a diagram showing a state in which the degree of symmetry γ has been calculated in the effective edge block. That is, FIG. 13 is equal to the logical product of FIG. 10 and FIG.

【0040】さて、以上のようにして対象性の度合γを
算出すると、ステップS404(図10)に進み、算出
されたγが所定の閾値以上の値を有する部分を抽出す
る。図13はγに閾値処理を施し、顔である可能性の高
い領域(顔候補領域)をより限定した結果を示す図であ
る。図14中の黒い島の部分において、マッチング部5
0(図2)による最終的な処理が実行され、顔の位置が
決定される(ステップS13、S14)。
When the degree of symmetry γ is calculated as described above, the process proceeds to step S404 (FIG. 10), and a portion where the calculated γ has a value equal to or larger than a predetermined threshold is extracted. FIG. 13 is a diagram illustrating a result of performing threshold processing on γ and further limiting an area (face candidate area) that is likely to be a face. In the black island portion in FIG.
0 (FIG. 2) is executed, and the position of the face is determined (steps S13 and S14).

【0041】マッチング部50は、エッジ検出部30、
対称軸検出部40による処理の結果、限定された顔候補
領域内(図14)で最も顔らしい位置を決定する。具体
的には典型的な顔をテンプレートとして保持しておき、
当該テンプレートと最も類似した場所を探索する。
The matching section 50 includes an edge detection section 30,
As a result of the processing by the symmetry axis detecting unit 40, the most likely face position is determined within the limited face candidate area (FIG. 14). Specifically, a typical face is stored as a template,
Search for a location that is most similar to the template.

【0042】類似度判定の基準は照明条件の変化に強い
正規化相互相関係数を用いる。当係数σ(x,y)は次の
(5)式で定義される。
As a criterion for similarity determination, a normalized cross-correlation coefficient that is strong against changes in illumination conditions is used. The coefficient σ (x, y) is defined by the following equation (5).

【0043】[0043]

【数5】 (Equation 5)

【0044】但し、f(x,y)は画像、w(x,y)はテン
プレート、fバーはω(x,y)と重なっているf(x,y)
の平均値、wバーはw(x,y)の平均値である。
Where f (x, y) is an image, w (x, y) is a template, and f bar is f (x, y) overlapping ω (x, y).
And w bar is the average value of w (x, y).

【0045】図15は図14の領域の内、上記正規化相
互相関係数σが0.35以上である領域を示す図である
(σは(5)式により−1〜+1にスケーリングされて
おり、1に近い程、類似)。
FIG. 15 is a diagram showing a region where the normalized cross-correlation coefficient σ is 0.35 or more in the region of FIG. 14 (σ is scaled from −1 to +1 by the equation (5)). And the closer to 1, the more similar).

【0046】図15に示される黒い島は、上記(5)式
によって処理を行った結果、顔である可能性が極めて高
い領域を示している。そして、図16の白い四角はσが
最大の場所を前記fLL上に重ねて表示させた図である。
ベストマッチング点が顔の位置(両目の間)を正しく検
出していることがわかる。
The black island shown in FIG. 15 shows an area where the possibility of being a face is extremely high as a result of processing according to the above equation (5). The white square in FIG. 16 is a view in which the place where σ is the maximum is displayed on the fLL.
It can be seen that the best matching point correctly detects the position of the face (between both eyes).

【0047】マッチング部50による顔の判定処理は、
上述したコリレーション(相関演算)の他に顔パターン
の多少の変形を許容する弾性マッチング、フーリエ変換
法等、既存のいかなる方法であっても良く、特に上記実
施形態に限定されるものではない。
The face determination process performed by the matching unit 50 is as follows.
In addition to the above-described correlation (correlation calculation), any existing method such as elastic matching that allows some deformation of the face pattern and Fourier transform method may be used, and is not particularly limited to the above embodiment.

【0048】以上説明したように、上記実施形態によれ
ば、有効エッジブロックを抽出することで対象性の検出
処理の処理量を低減し、更に、対象性の度合の高い部分
のみにパターンマッチングを施して顔の位置を決定する
ことで、パターンマッチングの処理量を大幅に低減して
いる。このため、高速な顔位置検出が可能となる。
As described above, according to the above-described embodiment, the processing amount of the process of detecting the symmetry is reduced by extracting the valid edge blocks, and the pattern matching is performed only on the portion having a high degree of the symmetry. By determining the position of the face, the processing amount of pattern matching is greatly reduced. Therefore, high-speed face position detection becomes possible.

【0049】更に、第1の実施形態によれば、 1.帯域分割部20(図2)の活用によりサンプリング
レートを落としているので、顔探索を効率的に実行でき
る、 2.帯域分割部20の出力を、後段のエッジ検出部3
0,対称軸検出部40(図2)で直接的に利用するの
で、演算が高速でハードウェア化も容易となる。特に無
地の背景、低コントラスト領域除去に効果がある、 3.対称軸検出部40は、画像データの勾配の方向を利
用しているので、照明条件の変化に影響を受けにくく、
安定した対称軸検出ができる。また、左・右対称形とい
う特異な領域を探索するので、複雑な背景であっても顔
領域を大幅に限定できるという効果がある。
Further, according to the first embodiment: 1. Since the sampling rate is reduced by utilizing the band division unit 20 (FIG. 2), the face search can be executed efficiently. The output of the band dividing unit 20 is output to the subsequent edge detecting unit 3
0, since it is directly used by the symmetry axis detection unit 40 (FIG. 2), the calculation is performed at high speed and the hardware can be easily realized. 2. It is particularly effective in removing a plain background and a low contrast area. Since the symmetry axis detection unit 40 uses the direction of the gradient of the image data, it is hardly affected by changes in illumination conditions,
Stable axis of symmetry detection is possible. In addition, since a unique area having a left / right symmetry is searched for, there is an effect that the face area can be significantly limited even in a complicated background.

【0050】また、帯域分割部20による処理を繰り返
し適用することにより、一つの入力画像に対する解像度
の異なる画像を生成することができる。これらの解像度
の異なる画像各々にエッジ検出部30及び対称軸検出部
40の処理を実行し、この中から、適切な情報を選択す
ることにより、先に述べた、複数段階のブロックサイズ
を用いてスケーリングの異なる画像が入力される場合に
対処するのと同様の効果が得られる。
Further, by repeatedly applying the processing by the band dividing section 20, it is possible to generate images having different resolutions for one input image. The processing of the edge detection unit 30 and the symmetry axis detection unit 40 is performed on each of these images having different resolutions, and by selecting appropriate information from the images, the above-described multi-step block size is used. The same effect can be obtained as in the case where images with different scalings are input.

【0051】(第2の実施形態)上記第1の実施形態で
は、顔領域を限定する手法として、エッジ検出部30
(図2)と対称軸検出部40(図2)を設けた。しかし
ながら、背景が無地であるような環境下では、エッジ検
出部30単独で顔領域の限定を行うこともできる。ま
た、逆に複雑な背景を対象とする場合には、対称軸検出
部単独で顔領域の限定を行っても良い。このように、第
2の実施形態によれば、取り扱う背景環境に応じて、不
必要な処理を取り除くことが可能となり、より効率的で
高速な顔検出が実現できる。
(Second Embodiment) In the first embodiment, the edge detection unit 30 is used as a method for limiting the face area.
(FIG. 2) and a symmetric axis detection unit 40 (FIG. 2). However, in an environment where the background is plain, the face area can be limited by the edge detection unit 30 alone. Conversely, when a complex background is targeted, the face area may be limited by the symmetric axis detection unit alone. As described above, according to the second embodiment, unnecessary processing can be removed according to the background environment to be handled, and more efficient and high-speed face detection can be realized.

【0052】図17は第2の実施形態の画像処理装置に
おける顔位置検出部に関る機能構成を示すブロック図で
ある。同図において第1の実施形態(図2)と同様の構
成には同じ参照番号を付し、ここでは説明を省略する。
第2の実施形態では、顔の位置検出に際して、モード
1、2、3の3通りを設定できる。モード1は第1の実
施形態と同様に、エッジ検出部30によって抽出された
有効ブロックの領域に対して対称軸検出部40が対称性
の度合γを検出し、所定値以上のγ値を有する領域につ
いてマッチング部50がマッチング処理を実行する。モ
ード2では、エッジ検出部30によって検出された有効
ブロックの領域についてマッチング部50によるマッチ
ング処理を実行する。また、モード3では、対称軸検出
部40が入力画像の全領域にわたって対称性の度合γを
算出し、マッチング部50が所定値以上のγ値を有する
部分にマッチング処理を実行する。
FIG. 17 is a block diagram showing a functional configuration related to a face position detecting unit in the image processing apparatus according to the second embodiment. In the figure, the same components as those of the first embodiment (FIG. 2) are denoted by the same reference numerals, and description thereof is omitted here.
In the second embodiment, when detecting the position of the face, the mode
1, 2, and 3 can be set. In mode 1, as in the first embodiment, the symmetry axis detection unit 40 detects the degree of symmetry γ in the area of the effective block extracted by the edge detection unit 30 and has a γ value equal to or greater than a predetermined value. The matching unit 50 performs a matching process on the region. In the mode 2, the matching unit 50 executes the matching process on the area of the effective block detected by the edge detection unit 30. Further, in the mode 3, the symmetry axis detection unit 40 calculates the degree of symmetry γ over the entire region of the input image, and the matching unit 50 performs matching processing on a portion having a γ value equal to or greater than a predetermined value.

【0053】図17において、100は切換器であり、
対称軸検出部40が対称軸の検出(対称性の度合の検
出)を行う領域を指定する信号を切り換える。モード1
では、、エッジ検出部30よりの有効ブロックの領域に
ついて対称軸検出部40が処理を行うので、エッジ検出
部30の出力を対称軸検出部40に供給するべくスイッ
チはa側に切り換える。また、モード3では対称軸検出
部40が全領域について対称性の度合γを算出するの
で、切換器100のスイッチはb側に切り換えられる。
In FIG. 17, reference numeral 100 denotes a switch.
The signal for designating a region in which the symmetry axis detection unit 40 detects the symmetry axis (detects the degree of symmetry) is switched. Mode 1
Then, since the symmetry axis detection unit 40 performs processing on the area of the effective block from the edge detection unit 30, the switch is switched to the a side to supply the output of the edge detection unit 30 to the symmetry axis detection unit 40. In the mode 3, the symmetry axis detection unit 40 calculates the degree of symmetry γ for the entire region, so that the switch of the switch 100 is switched to the b side.

【0054】切換器110もモードに応じて切り換えが
制御される。すなわち、モード2では、エッジ検出部3
0によって抽出された有効ブロックの領域についてマッ
チング部50が処理を施すので切換器110のスイッチ
はc側に切り換えられる。一方、モード1、3において
は、対称軸検出部40によって対称性の度合γが所定値
以上となった部分を処理するので、切換器110のスイ
ッチはd側に切り換えられる。
The switching of the switch 110 is also controlled according to the mode. That is, in the mode 2, the edge detection unit 3
Since the matching unit 50 performs processing on the area of the effective block extracted by 0, the switch of the switch 110 is switched to the c side. On the other hand, in the modes 1 and 3, since the symmetry axis detection unit 40 processes the portion where the degree of symmetry γ is equal to or more than the predetermined value, the switch of the switch 110 is switched to the d side.

【0055】図18は第2の実施形態の処理の流れを説
明するフローチャートである。同図において、図3と同
じ処理ステップには同一のステップ番号を付してある。
同図に示されるように、モード1が指定された場合(モ
ードの指定は入力部105より行うものとする)は、切
換器100がa側に、切換器110がd側に切り換えら
れる。この結果、ステップS21、S22の分岐を経由
して図3の手順と同様の処理が実行されることになる。
モード2の場合は、切換器110がc側に切り換えられ
るので、ステップS22よりステップS23へ処理が進
み、マッチング部50がエッジ検出部30で抽出された
有効ブロックの領域についてマッチング処理を実行す
る。そして、ステップS14で、マッチング度のもっと
も高い部分(ベストマッチング点)を顔の位置として決
定する。更に、モード3が指定された場合は、切換器1
00がb側に、切換器110がd側に切り換えられる。
このため、処理はステップS21からステップS24へ
進み、画像全域についてfLH及びfHLから対称性の度合
γが算出される。そして、ステップS13では、マッチ
ング部50が、度合γが所定値以上の部分についてマッ
チングを行い、ステップS14でベストマッチング点を
顔の位置として決定する。
FIG. 18 is a flowchart for explaining the flow of the processing of the second embodiment. In this figure, the same processing steps as those in FIG. 3 are denoted by the same step numbers.
As shown in the drawing, when mode 1 is designated (the mode is designated by the input unit 105), the switch 100 is switched to the a side, and the switch 110 is switched to the d side. As a result, the same processing as the procedure in FIG. 3 is executed via the branches of steps S21 and S22.
In the case of the mode 2, since the switch 110 is switched to the c side, the process proceeds from step S22 to step S23, and the matching unit 50 executes the matching process on the area of the effective block extracted by the edge detection unit 30. Then, in step S14, the part with the highest matching degree (best matching point) is determined as the position of the face. Further, when the mode 3 is designated, the switch 1
00 is switched to the b side, and the switch 110 is switched to the d side.
Therefore, the process proceeds from step S21 to step S24, and the degree of symmetry γ is calculated from fLH and fHL for the entire image. Then, in step S13, the matching unit 50 performs matching on a portion where the degree γ is equal to or more than a predetermined value, and determines the best matching point as the face position in step S14.

【0056】以上のように、第2の実施形態によれば、
顔位置検出のためのマッチング処理の実行範囲を限定す
る処理の内容を背景等の状態に応じて設定できる。この
ため、より効率的で高速な顔位置検出処理が実現する。
As described above, according to the second embodiment,
The content of the process for limiting the execution range of the matching process for face position detection can be set according to the state of the background or the like. Therefore, more efficient and faster face position detection processing is realized.

【0057】なお、上記各実施形態で説明した顔位置検
出処理は、専用のハードウエアで実現してもよいし、上
述の制御を実現するためのソフトウエアをCPU101
が実行することで実現されてもよいし、ソフトウエアと
ハードウエアを適切に混在させることで実現されてもよ
い。なお、ソフトウエアはROM102に格納されても
よいし、外部記憶装置104よりRAM103にロード
されてもよい。
The face position detection process described in each of the above embodiments may be realized by dedicated hardware, or software for realizing the above-described control may be implemented by the CPU 101.
May be realized by executing, or may be realized by appropriately mixing software and hardware. The software may be stored in the ROM 102 or may be loaded from the external storage device 104 into the RAM 103.

【0058】(第3の実施形態)第1の実施形態では対
称軸検出部40(図2)の対称性の指標として、画像勾
配の方向性を用いた。しかしながら、対称軸検出の方法
は、このような方法に限られるものではない。例えば、
勾配の絶対値の左・右差を求める(6)式及び勾配値そ
のもの左・右差を求める(7)式により画像勾配値その
ものを直接用いて、ブロック内の左・右差を演算しても
良いし、より簡単には、左・右差の絶対値和を求める
(8)式或いは(9)式、また、或いは左右のクロスコ
リレーション(相関演算)の(10)式により、画像値
(輝度値)を用いて対称性を演算しても良い。
(Third Embodiment) In the first embodiment, the directionality of the image gradient is used as an index of symmetry of the symmetry axis detection unit 40 (FIG. 2). However, the method of detecting the axis of symmetry is not limited to such a method. For example,
The left and right differences in the block are calculated by directly using the image gradient values themselves according to equation (6) for finding the left / right difference of the absolute value of the gradient and equation (7) for finding the left / right difference itself. More simply, or more simply, the image value is calculated by the equation (8) or (9) for calculating the sum of absolute values of the left and right differences, or the equation (10) of the cross correlation (correlation calculation) on the left and right. The symmetry may be calculated using (luminance value).

【0059】[0059]

【数6】 (Equation 6)

【0060】[0060]

【数7】 (Equation 7)

【0061】[0061]

【数8】 (Equation 8)

【0062】[0062]

【数9】 (Equation 9)

【0063】[0063]

【数10】 (Equation 10)

【0064】以上のように第3の実施形態によれば、画
像勾配値を直接用いることにより、当該勾配値の方向θ
を演算するプロセスを省くことができ、より簡潔な回路
構成(或いはプログラム構成)とすることが可能とな
る。画像値を用いる方法では、例えば前記ブロック内の
左・右間でクロスコリレーションを行うとすれば、相関
演算に必要なブロック内の平均値と分散値を最終段のマ
ッチング部50(図2)と共有することが可能である。
従って、計算量の多い相関演算量の負担を減らす効果が
ある。
As described above, according to the third embodiment, by directly using the image gradient value, the direction θ of the gradient value is used.
Can be omitted, and a simpler circuit configuration (or program configuration) can be achieved. In the method using image values, for example, if cross-correlation is performed between the left and right in the block, the average value and the variance value in the block required for the correlation operation are determined by the final-stage matching unit 50 (FIG. 2). It is possible to share with.
Therefore, there is an effect of reducing the burden of the correlation operation amount requiring a large amount of calculation.

【0065】なお、本発明は、複数の機器(例えばホス
トコンピュータ,インタフェイス機器,リーダ,プリン
タなど)から構成されるシステムに適用しても、一つの
機器からなる装置(例えば、複写機,ファクシミリ装置
など)に適用してもよい。
Even if the present invention is applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus (for example, a copying machine, a facsimile, etc.) comprising one device Device).

【0066】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。
Further, an object of the present invention is to supply a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and to provide a computer (or CPU) of the system or the apparatus.
And MPU) read and execute the program code stored in the storage medium.

【0067】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

【0068】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。
As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

【0069】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) running on the computer based on the instruction of the program code. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.

【0070】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0071】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明したフローチャートに対応す
るプログラムコードを格納することになるが、簡単に説
明すると、図19のメモリマップ例に示す各モジュール
を記憶媒体に格納することになる。
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the above-described flowcharts. Each module shown will be stored in a storage medium.

【0072】すなわち、少なくとも「分割処理モジュー
ル」「限定処理モジュール」および「検出処理モジュー
ル」の各モジュールのプログラムコードを記憶媒体に格
納すればよい。ここで、コレラモジュールは、画像デー
タから自動的に顔画像の位置を検出するための制御プロ
グラムを構成するものであり、分割処理モジュールは当
該画像データを帯域分割する分割処理を実現する。ま
た、限定処理モジュールは、分割処理によって帯域分割
された画像データを用いて顔画像を探索すべき領域を限
定する限定処理を実現する。そして、検出処理モジュー
ルは、限定処理で限定された領域において顔の位置検出
を行う検出処理を実現する。
That is, the program codes of at least the "division processing module", "limitation processing module" and "detection processing module" may be stored in the storage medium. Here, the cholera module constitutes a control program for automatically detecting the position of a face image from image data, and the division processing module realizes division processing for dividing the image data into bands. In addition, the limitation processing module implements limitation processing for limiting an area in which a face image is to be searched using image data that has been band-divided by the division processing. Then, the detection processing module implements a detection process for detecting the position of the face in the area limited by the limitation process.

【0073】以上説明したように、上記各実施形態によ
れば、高速で効率的な顔の検出をすることができる。ま
た、エッジ検出部30の処理により、低コントラストな
領域や無地領域を高速に除去することができる。更に、
対称軸検出部40を設けたことにより、複雑な背景の中
でも、左・右対称形という特異な領域を抽出することが
でき、顔の存在領域を大幅に限定することができる。特
に、上記実施形態によれば、対称軸検出部40による対
称軸の検出が画像データの勾配の方向を利用しているの
で、照明条件の変化に影響を受けにくく、左・右対称領
域をより確実に抽出することができる。
As described above, according to the above embodiments, it is possible to detect a face quickly and efficiently. Further, by the processing of the edge detection unit 30, a low-contrast region or a plain region can be removed at high speed. Furthermore,
By providing the symmetry axis detection unit 40, a unique region of left / right symmetry can be extracted even in a complicated background, and the region where the face exists can be largely limited. In particular, according to the above-described embodiment, since the detection of the symmetry axis by the symmetry axis detection unit 40 uses the direction of the gradient of the image data, it is hardly affected by changes in the illumination condition, and the left / right symmetry area is more effectively removed. It can be extracted reliably.

【0074】また、本発明を監視カメラやテレビ会議シ
ステム、ビデオフォンに適用することにより、自動追尾
機能を実現させたり、或いは所定画像のみの伝送、圧縮
を可能とし、伝送能力を向上させることができる。
Further, by applying the present invention to a surveillance camera, a video conference system, and a video phone, it is possible to realize an automatic tracking function, or to enable transmission and compression of only a predetermined image, thereby improving transmission capability. it can.

【0075】また、本発明をビデオカメラに適用するこ
とにより、所定像への自動焦点合わせや肌色自動調節を
実現できる。
By applying the present invention to a video camera, automatic focusing on a predetermined image and automatic adjustment of skin color can be realized.

【0076】また、本発明をビデオ編集装置に適用する
ことで、膨大なデータの中から人の顔等の所定像だけを
自動的に検出でき、編集作業の大幅な短縮が可能とな
る。
Further, by applying the present invention to a video editing apparatus, only a predetermined image such as a human face can be automatically detected from a huge amount of data, and the editing work can be greatly shortened.

【0077】更に、本発明は、セキュリティが求められ
るビル、オフィス、ATMや端末への不法なアクセスの
阻止、税関でのパスポート写真と本人の照合、顔のデー
タベースの検索等の自動化を可能とし、マンマシンイン
タフェースへの応用も可能である。
Further, the present invention makes it possible to prevent illegal access to buildings, offices, ATMs and terminals requiring security, to collate passport photos with a person at customs, to automate the search of a face database, and the like. Application to a man-machine interface is also possible.

【0078】[0078]

【発明の効果】以上説明したように本発明によれば、背
景情報を用いずに、一枚の画像データからの所定像の検
出を、簡易な構成でかつ高速に行うことが可能となる。
As described above, according to the present invention, it is possible to detect a predetermined image from one piece of image data at a high speed with a simple configuration without using background information.

【0079】また、本発明によれば、照明条件の変化に
よる影響を受けにくく、安定した像検出が行える。
Further, according to the present invention, it is hard to be affected by a change in illumination condition, and stable image detection can be performed.

【0080】また、本発明によれば、簡易なエッジ検
出、及びエッジ処理により素早く画像情報の乏しい無地
の領域、低コントラストな領域を顔探索の対象領域から
除去することが可能となる。このため、顔検出の対象と
なる領域が限定され、高速な顔検出が可能となる。
Further, according to the present invention, it is possible to quickly remove a plain area and a low-contrast area where image information is poor from a face search target area by simple edge detection and edge processing. For this reason, an area to be subjected to face detection is limited, and high-speed face detection can be performed.

【0081】また、本発明によれば、複雑な背景から左
右対称の領域を抽出することにより、後段の顔探索処理
の負担を大幅に減ずることが可能となり、高速な顔検出
が実現される。
Further, according to the present invention, by extracting a symmetrical area from a complicated background, it is possible to greatly reduce the load of the subsequent face search processing, and high-speed face detection is realized.

【0082】[0082]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態の画像処理装置の概略の構成を示す
ブロック図である。
FIG. 1 is a block diagram illustrating a schematic configuration of an image processing apparatus according to an embodiment.

【図2】第1の実施形態の画像処理装置における顔位置
検出部に関る機能構成を示すブロック図である。
FIG. 2 is a block diagram illustrating a functional configuration related to a face position detection unit in the image processing apparatus according to the first embodiment.

【図3】第1の実施形態による顔位置検出の手順を示す
フローチャートである。
FIG. 3 is a flowchart illustrating a procedure of face position detection according to the first embodiment.

【図4】サブ画像の1例を示す図である。FIG. 4 is a diagram illustrating an example of a sub image.

【図5】エッジ検出部30内での処理の概要を示すフロ
ーチャートである。
FIG. 5 is a flowchart showing an outline of processing in an edge detection unit 30;

【図6】エッジ検出部30による処理のより詳細な手順
を示すフローチャートである。
FIG. 6 is a flowchart illustrating a more detailed procedure of a process performed by the edge detection unit 30;

【図7】エッジ検出処理70の処理例を具体的に示す図
である。
FIG. 7 is a diagram specifically showing a processing example of edge detection processing 70;

【図8】エッジ画像とエッジブロックの対応を説明する
図である。
FIG. 8 is a diagram illustrating the correspondence between an edge image and an edge block.

【図9】T字型に分布したエッジブロックを表わす図で
ある。
FIG. 9 is a diagram illustrating edge blocks distributed in a T shape.

【図10】顔エッジ抽出処理90の出力例を示す図であ
る。
10 is a diagram illustrating an output example of a face edge extraction process 90. FIG.

【図11】対称軸検出部40の処理手順を説明するフロ
ーチャートである。
FIG. 11 is a flowchart illustrating a processing procedure of a symmetric axis detection unit 40;

【図12】帯域分離された画像データfLLと対称性の度
合γとの対応関係を示す図である。
FIG. 12 is a diagram showing a correspondence relationship between band-separated image data fLL and a degree of symmetry γ.

【図13】γに閾値処理を施し、顔である可能性の高い
領域(顔候補領域)をより限定した結果を示す図であ
る。
FIG. 13 is a diagram illustrating a result obtained by performing threshold processing on γ and further limiting an area (face candidate area) that is likely to be a face.

【図14】図13に示した状態より、対象性の度合γが
所定値以上の部分を抽出した状態を示す図である。
FIG. 14 is a diagram illustrating a state in which a portion having a degree of symmetry γ equal to or greater than a predetermined value is extracted from the state illustrated in FIG. 13;

【図15】図14に示した部分より、顔の標準パターン
とのマッチング度の高い部分を抽出した状態を示す図で
ある。
FIG. 15 is a diagram illustrating a state in which a portion having a high degree of matching with a standard face pattern is extracted from the portion illustrated in FIG. 14;

【図16】図15に示した部分において、最もマッチン
グどの高い部分と元画像との対応を示す図である。
16 is a diagram showing the correspondence between the highest matching part and the original image in the part shown in FIG.

【図17】第2の実施形態の画像処理装置における顔位
置検出部に関る機能構成を示すブロック図である。
FIG. 17 is a block diagram illustrating a functional configuration related to a face position detection unit in the image processing device according to the second embodiment.

【図18】第2の実施形態の処理の流れを説明するフロ
ーチャートである。
FIG. 18 is a flowchart illustrating a flow of a process according to the second embodiment.

【図19】本発明に係る制御プログラムを格納した記憶
媒体のメモリマップ例を示す図である。
FIG. 19 is a diagram showing an example of a memory map of a storage medium storing a control program according to the present invention.

【符号の説明】[Explanation of symbols]

10 画像データ供給部 20 帯域分割部 30 エッジ検出部 40 対称軸検出部 50 マッチング部 60 出力端子 DESCRIPTION OF SYMBOLS 10 Image data supply part 20 Band division part 30 Edge detection part 40 Symmetry axis detection part 50 Matching part 60 Output terminal

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 画像データから自動的に所定像を検出す
る画像処理方法であって、 前記画像データを帯域分割する分割工程と、 前記分割工程によって帯域分割された画像データに基づ
いて、前記所定像を探索すべき領域を限定する限定工程
と、 前記限定工程で限定された領域において前記所定像の位
置検出を行う検出工程とを備えることを特徴とする画像
処理方法。
1. An image processing method for automatically detecting a predetermined image from image data, comprising: a dividing step of dividing the image data into bands; and performing the predetermined processing based on the image data band-divided by the dividing step. An image processing method comprising: a limiting step of limiting an area where an image is to be searched; and a detecting step of detecting a position of the predetermined image in the area limited by the limiting step.
【請求項2】 前記所定像は、人間の顔であることを特
徴とする請求項1に記載の画像処理方法。
2. The image processing method according to claim 1, wherein the predetermined image is a human face.
【請求項3】 前記限定工程は、前記画像データより、
エッジがT字型に分布した領域を選択的に抽出すること
を特徴とする請求項2に記載の画像処理方法。
3. The method according to claim 1, wherein the limiting step includes:
3. The image processing method according to claim 2, wherein a region where edges are distributed in a T-shape is selectively extracted.
【請求項4】 前記限定工程は、帯域分割された画像デ
ータに基づいて画像のエッジ部分を抽出し、該画像を所
定個数の画素からなる複数のブロックに分割し、抽出さ
れた前記エッジ部分の画素を所定数以上含むブロックを
前記所定像を探索すべき領域として決定することを特徴
とする請求項2に記載の画像処理方法。
4. The limiting step includes extracting an edge portion of an image based on band-divided image data, dividing the image into a plurality of blocks each including a predetermined number of pixels, and extracting the edge portion of the extracted edge portion. 3. The image processing method according to claim 2, wherein a block including a predetermined number of pixels or more is determined as an area in which the predetermined image is to be searched.
【請求項5】 前記限定工程は、前記エッジ部分の画素
を所定数以上含むブロックがほぼT字状に連なる部分を
抽出し、これを前記所定像を探索すべき領域とすること
を特徴とする請求項4に記載の画像処理方法。
5. The method according to claim 1, wherein the limiting step extracts a portion in which a block including a predetermined number or more of pixels of the edge portion is connected in a substantially T-shape, and uses the portion as a region in which the predetermined image is searched. The image processing method according to claim 4.
【請求項6】 前記限定工程は、当該画像の各部におけ
る左右の対称の度合に基づいて前記所定像を探索すべき
領域を限定することを特徴とする請求項2に記載の画像
処理方法。
6. The image processing method according to claim 2, wherein the limiting step limits an area in which the predetermined image is to be searched based on a degree of left-right symmetry in each part of the image.
【請求項7】 前記対象の度合は、画像データ値、画像
データの勾配値、画像データの勾配の方向の少なくとも
一つを用いて検出されることを特徴とする請求項6に記
載の画像処理方法。
7. The image processing apparatus according to claim 6, wherein the degree of the target is detected using at least one of an image data value, a gradient value of the image data, and a direction of the gradient of the image data. Method.
【請求項8】 前記限定工程は、前記画像データより、
エッジがT字型に分布した領域を選択的に抽出し、該抽
出された領域の各部について左右の対称の度合を検出
し、該検出された度合に基づいて前記所定像を探索すべ
き領域を限定することを特徴とする請求項2に記載の画
像処理方法。
8. The method according to claim 1, wherein the limiting step includes:
A region where edges are distributed in a T-shape is selectively extracted, a degree of left-right symmetry is detected for each part of the extracted region, and a region where the predetermined image is to be searched is determined based on the detected degree. 3. The image processing method according to claim 2, wherein the image processing is limited.
【請求項9】 前記分割手段は、前記画像データを所定
の空間周波数帯に分割することを特徴とする請求項2に
記載の画像処理方法。
9. The image processing method according to claim 2, wherein the division unit divides the image data into a predetermined spatial frequency band.
【請求項10】 前記分割手段は、前記画像データを、
水平方向の高周波成分と垂直方向の低周波成分を含む第
1の画像データと、垂直方向の高周波成分と水平方向の
低周波成分を含む第2の画像データに分割することを特
徴とする請求項8に記載の画像処理方法。
10. The image processing device according to claim 1, wherein the dividing unit divides the image data into
The image data is divided into first image data including a high frequency component in a horizontal direction and a low frequency component in a vertical direction, and second image data including a high frequency component in a vertical direction and a low frequency component in a horizontal direction. 9. The image processing method according to 8.
【請求項11】 前記分割手段は、更に、前記分割され
た画像データに間引き処理を行い、分割された画像デー
タの画像サイズを減少することを特徴とする請求項8に
記載の画像処理方法。
11. The image processing method according to claim 8, wherein the dividing unit further performs a thinning process on the divided image data to reduce an image size of the divided image data.
【請求項12】 画像データから自動的に所定像を検出
する画像処理装置であって、 前記画像データを帯域分割する分割手段と、 前記分割手段によって帯域分割された画像データに基づ
いて、前記所定像を探索すべき領域を限定する限定手段
と、 前記限定手段で限定された領域において前記所定像の位
置検出を行う検出手段とを備えることを特徴とする画像
処理装置。
12. An image processing apparatus for automatically detecting a predetermined image from image data, comprising: a dividing unit that divides the image data into bands; An image processing apparatus comprising: a limiting unit that limits an area in which an image is to be searched; and a detecting unit that detects a position of the predetermined image in an area limited by the limiting unit.
【請求項13】 画像データから自動的に所定像を検出
するための制御プログラムを格納したコンピュータ可読
メモリであって、前記制御プログラムがコンピュータ
を、 前記画像データを帯域分割する分割手段と、 前記分割手段によって帯域分割された画像データに基づ
いて、前記所定像を探索すべき領域を限定する限定手段
と、 前記限定手段で限定された領域において前記所定像の位
置検出を行う検出手段として機能させることを特徴とす
るコンピュータ可読メモリ。
13. A computer-readable memory storing a control program for automatically detecting a predetermined image from image data, wherein the control program causes a computer to divide the image data into bands, Means for limiting an area to be searched for the predetermined image based on the image data band-divided by the means, and functioning as detection means for detecting the position of the predetermined image in the area limited by the limitation means A computer readable memory characterized by the following.
JP8319891A 1996-11-29 1996-11-29 Device and method for image processing Withdrawn JPH10162118A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8319891A JPH10162118A (en) 1996-11-29 1996-11-29 Device and method for image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8319891A JPH10162118A (en) 1996-11-29 1996-11-29 Device and method for image processing

Publications (1)

Publication Number Publication Date
JPH10162118A true JPH10162118A (en) 1998-06-19

Family

ID=18115393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8319891A Withdrawn JPH10162118A (en) 1996-11-29 1996-11-29 Device and method for image processing

Country Status (1)

Country Link
JP (1) JPH10162118A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000305548A (en) * 1999-04-16 2000-11-02 Ultimatte Corp Edge image improvement correction for improving image
JP2002175538A (en) * 2000-12-08 2002-06-21 Mitsubishi Electric Corp Device and method for portrait generation, recording medium with portrait generating program recorded thereon, terminal for communication, and communication method by terminal for communication
JP2004013319A (en) * 2002-06-04 2004-01-15 Earth Beat Inc Method of recognizing object in image
US6937773B1 (en) 1999-10-20 2005-08-30 Canon Kabushiki Kaisha Image encoding method and apparatus
JP2006508462A (en) * 2002-11-29 2006-03-09 ソニー・ユナイテッド・キングダム・リミテッド Face detection
CN100370483C (en) * 2003-03-07 2008-02-20 佳能株式会社 Method and apparatus for detecting symmetrical figure in image
JP2009140423A (en) * 2007-12-10 2009-06-25 Panasonic Electric Works Co Ltd Face centerline detecting device
US7672580B2 (en) 2005-03-17 2010-03-02 Canon Kabushiki Kaisha Imaging apparatus and method for controlling display device
JP2010170179A (en) * 2009-01-20 2010-08-05 Konica Minolta Opto Inc Image data transmission apparatus, image data receiving apparatus and image data transmission and receiving system
US7826639B2 (en) 2006-01-31 2010-11-02 Canon Kabushiki Kaisha Method for displaying an identified region together with an image, program executable in a computer apparatus, and imaging apparatus
JP2011114769A (en) * 2009-11-30 2011-06-09 Nikon Corp Imaging device
US8189090B2 (en) 2008-08-06 2012-05-29 Canon Kabushiki Kaisha Image pick-up apparatus and control method therefor
WO2013146206A1 (en) * 2012-03-28 2013-10-03 株式会社メガチップス Object detection device and program
WO2013161407A1 (en) * 2012-04-26 2013-10-31 株式会社メガチップス Object detection device and program
WO2013161417A1 (en) * 2012-04-27 2013-10-31 株式会社メガチップス Object detection device and program
WO2014157386A1 (en) * 2013-03-29 2014-10-02 Kddi株式会社 Video encoding device and video decoding device
JP2021022273A (en) * 2019-07-30 2021-02-18 株式会社Jvcケンウッド Onboard face image verifier, face image verification system, face image verification method, and face image verification program

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000305548A (en) * 1999-04-16 2000-11-02 Ultimatte Corp Edge image improvement correction for improving image
US6937773B1 (en) 1999-10-20 2005-08-30 Canon Kabushiki Kaisha Image encoding method and apparatus
JP2002175538A (en) * 2000-12-08 2002-06-21 Mitsubishi Electric Corp Device and method for portrait generation, recording medium with portrait generating program recorded thereon, terminal for communication, and communication method by terminal for communication
JP2004013319A (en) * 2002-06-04 2004-01-15 Earth Beat Inc Method of recognizing object in image
JP2006508462A (en) * 2002-11-29 2006-03-09 ソニー・ユナイテッド・キングダム・リミテッド Face detection
CN100370483C (en) * 2003-03-07 2008-02-20 佳能株式会社 Method and apparatus for detecting symmetrical figure in image
US7672580B2 (en) 2005-03-17 2010-03-02 Canon Kabushiki Kaisha Imaging apparatus and method for controlling display device
EP2448249A2 (en) 2006-01-31 2012-05-02 Canon Kabushiki Kaisha Method for displaying an identified region together with an image, and imaging apparatus
EP2448250A2 (en) 2006-01-31 2012-05-02 Canon Kabushiki Kaisha Method for displaying an identified region together with an image, and imaging apparatus
US7826639B2 (en) 2006-01-31 2010-11-02 Canon Kabushiki Kaisha Method for displaying an identified region together with an image, program executable in a computer apparatus, and imaging apparatus
JP2009140423A (en) * 2007-12-10 2009-06-25 Panasonic Electric Works Co Ltd Face centerline detecting device
US8189090B2 (en) 2008-08-06 2012-05-29 Canon Kabushiki Kaisha Image pick-up apparatus and control method therefor
JP2010170179A (en) * 2009-01-20 2010-08-05 Konica Minolta Opto Inc Image data transmission apparatus, image data receiving apparatus and image data transmission and receiving system
JP2011114769A (en) * 2009-11-30 2011-06-09 Nikon Corp Imaging device
JP2013228995A (en) * 2012-03-28 2013-11-07 Mega Chips Corp Object detection device and program
WO2013146206A1 (en) * 2012-03-28 2013-10-03 株式会社メガチップス Object detection device and program
US9514545B2 (en) 2012-03-28 2016-12-06 Megachips Corporation Object detection apparatus and storage medium
US9330318B2 (en) 2012-04-26 2016-05-03 Megachips Corporation Object detection apparatus and storage medium
JP2013228901A (en) * 2012-04-26 2013-11-07 Mega Chips Corp Object detection device and program
WO2013161407A1 (en) * 2012-04-26 2013-10-31 株式会社メガチップス Object detection device and program
JP2013232023A (en) * 2012-04-27 2013-11-14 Mega Chips Corp Object detection device and program
US9245184B2 (en) 2012-04-27 2016-01-26 Megachips Corporation Object detection apparatus and storage medium
WO2013161417A1 (en) * 2012-04-27 2013-10-31 株式会社メガチップス Object detection device and program
WO2014157386A1 (en) * 2013-03-29 2014-10-02 Kddi株式会社 Video encoding device and video decoding device
JP2014200021A (en) * 2013-03-29 2014-10-23 Kddi株式会社 Dynamic image encoder and dynamic image decoder
US10356402B2 (en) 2013-03-29 2019-07-16 Kddi Corporation Video encoding device and video decoding device
JP2021022273A (en) * 2019-07-30 2021-02-18 株式会社Jvcケンウッド Onboard face image verifier, face image verification system, face image verification method, and face image verification program

Similar Documents

Publication Publication Date Title
JPH10162118A (en) Device and method for image processing
Phan et al. A Laplacian method for video text detection
US5715325A (en) Apparatus and method for detecting a face in a video image
Davis et al. Fusion-based background-subtraction using contour saliency
KR101758684B1 (en) Apparatus and method for tracking object
KR102399017B1 (en) Method of generating image and apparatus thereof
JP4597391B2 (en) Facial region detection apparatus and method, and computer-readable recording medium
Kawato et al. Two-step approach for real-time eye tracking with a new filtering technique
CN111695540A (en) Video frame identification method, video frame cutting device, electronic equipment and medium
KR20120111153A (en) Pre- processing method and apparatus for license plate recognition
JP2001014457A (en) Image processor
CN112507767B (en) Face recognition method and related computer system
JPH06341821A (en) Travel lane detector
KR20080003617A (en) Object detector and detecting method using the adaboost and svm classifier
US11132778B2 (en) Image analysis apparatus, image analysis method, and recording medium
JP2962799B2 (en) Roadside detection device for mobile vehicles
KR20140026078A (en) Apparatus and method for extracting object
JP3578321B2 (en) Image normalizer
RU2718211C1 (en) Device for combining infrared images
KR20190001873A (en) Apparatus for searching object and method thereof
JP2017228297A (en) Text detection method and apparatus
JP3963789B2 (en) Eye detection device, eye detection program, recording medium for recording the program, and eye detection method
KR100292380B1 (en) Face and eye position detecting apparatus and method using T-type search region
JPS60189084A (en) Character area extracting circuit
KR100729265B1 (en) A face detection method using difference image and color information

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20040203