JP3992867B2 - Position detecting method and apparatus, and recording medium - Google Patents

Position detecting method and apparatus, and recording medium Download PDF

Info

Publication number
JP3992867B2
JP3992867B2 JP04144699A JP4144699A JP3992867B2 JP 3992867 B2 JP3992867 B2 JP 3992867B2 JP 04144699 A JP04144699 A JP 04144699A JP 4144699 A JP4144699 A JP 4144699A JP 3992867 B2 JP3992867 B2 JP 3992867B2
Authority
JP
Japan
Prior art keywords
image
predetermined
area
size
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04144699A
Other languages
Japanese (ja)
Other versions
JP2000242768A (en
Inventor
修司 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP04144699A priority Critical patent/JP3992867B2/en
Publication of JP2000242768A publication Critical patent/JP2000242768A/en
Application granted granted Critical
Publication of JP3992867B2 publication Critical patent/JP3992867B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、観察画像に含まれる略線対称の対象物の位置および/または大きさを検出する位置検出方法および装置並びに位置検出方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体に関するものである。
【0002】
【従来の技術】
超LSIなどの半導体デバイス製造、検査などにおけるウエハあるいはレチクル上の微細パターンの検査を行う検出装置において、前プロセス工程において製作された20μm程度の正方形ボックス上に10μm程度の正方形ボックスを検査対象物として製作し、各ボックスのエッジ位置を検出してアライメント精度を検査するものが知られている。このような検査装置において、検査の対象が略線対称であるという点に着目し、検査対象を表す観察画像の線対称の一方の側に第1の所定領域を設定し、この設定された第1の所定領域の画像を反転して第1の所定領域に係る基準画像を設定し、設定された基準画像を基準として線対称の他方の側に第2の所定領域を設定し、これら第1および第2の所定領域の位置の中心位置から検査対象物の位置を検出する方法が提案されている(特開平6−258045号)。この方法によれば、検査対象物の観察画像データから、対称性を有する対象パターンの位置を検出する際に、片方のエッジパターンを表す第1の所定領域の基準画像に基づいてもう片方のエッジパターンを確定することができ、検査対象物の画像状態に拘わらず両エッジパターンの中心位置すなわち検査対象物のアライメントを精度よく検出することができる。
【0003】
【発明が解決しようとする課題】
上記特開平6−258045号に記載された方法は略線対称の対象物については、精度よく位置を検出することができるが、例えば人物の顔画像のように略線対称ではあるが対象物の細部においてその対称性が損なわれている場合には、精度よく対象物の位置を検出することができない。
【0004】
本発明は上記事情に鑑みなされたものであり、略線対称ではあるものの、対象物の細部において対称性が崩れている場合にも精度よく対象物の位置および/または大きさを検出することができる位置検出方法および装置並びに位置検出方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体を提供することを目的とするものである。
【0005】
【課題を解決するための手段】
本発明による位置検出方法は、観察画像に含まれる対象物が略線対称であるときに、該対象物の位置および/または大きさを検出する位置検出方法であって、
前記対象物の線対称の一方の側に第1の所定領域を設定し、
該第1の所定領域内における特定領域以外の画像を反転して該第1の所定領域に係る基準画像を設定し、
該基準画像に基づいて前記線対称の他方の側に第2の所定領域を設定し、
前記第1および前記第2の所定領域の位置に基づいて、前記対象物の位置および/または大きさを検出することを特徴とするものである。
【0006】
ここで、「基準画像」は、第1の所定領域内において特定領域以外の領域を反転することにより作成される。
【0007】
また、「特定領域」とは、第1の所定領域内において対象物における対称性が損なわれている領域のことをいう。
【0008】
さらに、「反転する」とは、観察画像に含まれる対象物の略線対称な軸に平行な軸を対称軸として、特定領域以外の画像を線対称となるように反転することをいう。
【0009】
また、特定領域以外の画像の反転によって画像が欠落することを防止するために、特定領域の形状は、特定領域以外の画像を反転する際の対称軸に対して略線対称になるように設定することが好ましい。
【0010】
本発明による画像処理装置は、観察画像に含まれる対象物が略線対称であるときに、該対象物の位置および/または大きさを検出する位置検出装置であって、
前記対象物の線対称の一方の側に第1の所定領域を設定する第1の設定手段と、
該第1の所定領域内における特定領域以外の画像を反転して該第1の所定領域に係る基準画像を設定する基準画像設定手段と、
該基準画像に基づいて前記線対称の他方の側に第2の所定領域を設定する第2の設定手段と、
前記第1および前記第2の所定領域の位置に基づいて、前記対象物の位置および/または大きさを検出する検出手段とを備えたことを特徴とするものである。
【0011】
なお、本発明による位置検出方法をコンピュータに実行させるためのプログラムとして、コンピュータ読取り可能な記録媒体に記録して提供してもよい。
【0012】
【発明の効果】
本発明によれば、観察画像に含まれる略線対称の対象物の位置および/または大きさを検出する際に、対象物の線対称の一方の側に設定された第1の所定領域の内部における特定領域以外の画像を反転して基準画像を設定し、さらにこの基準画像に基づいて、線対称の他方の側に第2の所定領域を設定する。ここで、第1の所定領域内に線対称の他方の側とは対称性が崩れている部分がある場合にも、この対称性が崩れている部分を特定領域に設定すれば、対称性が崩れている部分に影響されることなく第1の所定領域と略線対称な位置に第2の所定領域を設定することができる。したがって、第1および第2の所定領域の位置から対象物の位置および/または大きさを精度よく検出することができる。
【0013】
【発明の実施の形態】
以下図面を参照して本発明の実施形態について説明する。
【0014】
図1は本発明の実施形態による位置検出装置の構成を示す概略ブロック図である。図1に示すように、本実施形態による位置検出装置1は、撮像手段2において取得された画像データSにより表される画像に含まれる略線対称の対象物の位置および/または大きさを検出するものであり、画像データSに基づいて、対象物の線対称の一方の側に第1の所定領域を設定するとともに、この第1の所定領域内にある特定領域以外の画像を反転して得られる第1の所定領域に係る基準画像をテンプレートTとして設定する第1の設定手段3と、第1の設定手段3において設定されたテンプレートTに基づいて、線対称の他方の側に第2の所定領域を設定する第2の設定手段4と、第1および第2の所定領域に基づいて対象物の位置および/または大きさを検出する検出手段5とを備える。
【0015】
なお、本実施形態においては対象物を人物の顔画像とし、人物の顔を撮像することにより取得された画像データSに基づいて、顔画像の位置および大きさを検出するものとするが、対象物としては顔画像に限定されるものではない。
【0016】
第1の設定手段3においては、以下のようにしてテンプレートTが設定される。図2(a)は画像データSにより表される人物の顔画像を示す図である。図2(a)に示す顔画像はY軸に平行な軸(破線)に関して対称性を有し、かつ目が向かって左側(人物から見たら右側)を向いているものである。第1の設定手段3においては、まず図3(a)に示すような明暗のパターンを検出するフィルタにより、線対称の一方の側(図2に向かって左側)においてフィルタリング処理を施し、図2(b)に示すように、左目を含む第1の所定領域A1を設定する。なお、本実施形態において位置および大きさが検出される顔画像は大きさが顕著に変化するものではないため、例えば顔画像の平均的な大きさに基づいて、図3(a)に示すフィルタの大きさが設定される。なお、図3(b)に示すフィルタを用いることにより、目が向かって右側を向いている場合にも対応することができる。
【0017】
さらに、図4に示すように第1の所定領域A1内の中央部に黒目を含む特定領域N1を設定し、この特定領域N1以外の領域N2をY軸に平行な軸を対称軸として反転し、特定領域N1と合成することにより、図5に示すようにテンプレートTを作成する。
【0018】
第2の設定手段4は、まず線対称の他方の側(図2に向かって右側)において、テンプレートTよりも十分に大きい探索エリアEを設定し、この探索エリアE内においてテンプレートTを走査しながら相互相関係数を求め、最も相関係数が大きい領域を検出し、この領域を図2(c)に示すように第2の所定領域A2として設定するものである。
【0019】
検出手段5は、第1の所定領域A1および第2の所定領域A2のX軸方向における中心座標X1,X2を算出し、この中心座標X1,X2に基づいて、顔画像の位置および大きさを求めるものである。具体的には、中心座標X1,X2の中点を両目の中点と見なしてこれを顔画像の位置、差分値を両目の間隔と見なしてこれを顔画像の大きさとして求める(図2(d)参照)。
【0020】
次いで、本実施形態の動作について説明する。図6は本実施形態の動作を示すフローチャートである。
【0021】
まず、撮像手段2において画像データSを取得する(ステップS1)。次に、図3(a)に示すフィルタにより、図2(a)の左側の領域においてフィルタリング処理を行い第1の所定領域A1を設定する(ステップS2)。次いで、設定された第1の所定領域A1のX軸方向におけるの中心座標をX1として算出する(ステップS3)。
【0022】
そして、図4に示すように第1の所定領域A1内に特定領域N1と特定領域N1以外の部分を表す領域N2を設定する(ステップS4)。さらに、図5に示すように領域N2をY軸に平行な軸を対称軸として反転してテンプレートTを作成する(ステップS5)。
【0023】
次に、図2(a)の右側の領域において、テンプレートTよりX軸方向に十分に大きい探索エリアEを設定する(ステップS6)。そして、探索エリアE内において、テンプレートTをX軸方向およびY軸方向に1画素ずつずらしながらテンプレートTと探索エリアE内におけるテンプレートTと対応する領域との相関係数を求めるテンプレートマッチングを行う(ステップS7)。
【0024】
次いで、求められた相関係数が最大値となるテンプレートTの領域を第2の所定領域A2として設定し(ステップS8)、第2の所定領域A2のX軸方向における中心位置をX2として求める(ステップS9)。そして、ステップS3において求められた座標X1とステップS9において求められた座標X2との中心座標Xcを、Xc=(X1+X2)/2の演算により顔画像の位置として求め、座標X2と座標X1との差分値ΔXを顔画像の大きさとして求めて(ステップS10)、処理を終了する。
【0025】
このように、本実施形態によれば、図2に示す目のみが横を向いた顔画像のように、略線対称ではあるが細部においてその対称性が崩れているような場合にも、対称性が崩れている部分に影響されることなく第1の所定領域A1と線対称な位置に第2の所定領域A2を設定することができるため、第1および第2の所定領域A1,A2の中心位置から顔画像等の対象物の位置および大きさを精度よく検出することができる。
【0026】
また、顔画像の位置および大きさを精度よく求めることができるため、人物が撮影された多数の画像から、安定な位置および大きさにより人物を切り出すことが可能となる。
【0027】
なお、上記実施形態においては、顔画像の位置および大きさの双方を求めているが、いずれか一方のみを求めるようにしてもよい。
【0028】
また、上記実施形態においては、第1の所定領域A1の中央部に特定領域N1を設定し、特定領域N1以外の領域N2を反転してテンプレートTを作成しているが、対象とする画像の所定領域A1の対称性が損なわれている状態に応じて、第1の所定領域A1の中央部以外の領域を特定領域N1として設定し、特定領域N1以外の領域N2を反転してテンプレートTを作成してもよい。
【0029】
さらに、上記実施形態においては、第1の所定領域A1の設定後、テンプレートTを作成して2次元的にテンプレートマッチングを行って、第2の所定領域A2を設定しているが、例えば顔画像の左右の位置のみを求めれば良いような場合には、以下のように左右の1次元方向のデータのみを対象に処理を行ってもよい。
【0030】
図7は本実施形態の他の動作を示すフローチャートである。まず、ステップS11において画像データSを取得し、ステップS12において第1の所定領域A1を設定する。次に、ステップS13において図8に示すように第1の所定領域A1におけるY軸方向の幅Y3の範囲内においてX軸方向におけるラインデータD[i](i:0〜(A−1)、Aはデータ数)を取得する。
【0031】
そして、ラインデータD[i]において、第1の所定領域A1内のデータを切り出してテンプレートTとする(ステップS14)。このとき、第1の所定領域A1の始点のX座標をX3、テンプレートTのデータ数をNとすると、切り出したデータT1[j](j:1〜(N−1))は、
T1[j]=D[X3+(N−1)−j]
となる。このデータT1[j]は第1の所定領域A1をY軸に平行な軸を対称軸として反転したものとなっている。
【0032】
次に、ラインデータD[i]が図8に示す領域N1におけるY軸方向の幅Y4の範囲内にあるか否かが判断され(ステップS15)、その範囲内にない場合はステップS17へ進む。その範囲内にある場合には、領域N1に対応するデータを反転する(ステップS16)。ここで、領域N1の始点のX座標をX4、データ数をqとするとデータをT2[k](k:0〜q−1)は、
T2[k]=D[X4+k]
となる。
【0033】
ステップS17においては、テンプレートTよりも十分に大きい探索エリアEを設定する。その始点のX座標をX5、データ数をL(N<L)とすると、探索エリアEのデータE[k](k:0〜L−1)は、
E[k]=D[X5+k]
となる。次いで、mの初期値を0と設定し(ステップS18)、ステップS19において、探索エリアE内からデータ数Nの分だけデータを切り出す。このとき切り出したデータEm[j](j:1〜(N−1))は、
Em[j]=E[m+j]
となる。
【0034】
そして、ステップS20において、Em[j]とT1[j]との相互相関係数を求めこれをC[m]とする。ステップS21,S22において、mを0から(L−N)まで変化させながら、ステップS19,S20の処理を行う。
【0035】
そして、相関係数C[m]の最大値となるmの値を求め、これをXmaxとする(ステップS23)。さらに、ステップS24において下記の式により、両目の中心座標Xcntを算出する。
【0036】
Xcnt=(X3+N−1+X5+Xmax)/2
これにより、1本のラインデータD[i]における両目の中心のX座標を求めることができる。
【0037】
そして、以上の処理を図8に示すY3の範囲内の全ラインデータに対して行って各ライン毎の中心座標Xcntを求め、これらの平均値を顔画像の位置として求める。
【0038】
このように、図7に示す処理によっても顔画像の位置を求めることができる。
【図面の簡単な説明】
【図1】本発明の実施形態による位置検出装置の構成を示す概略ブロック図
【図2】顔画像を示す図
【図3】第1の所定領域を設定するフィルタを示す図
【図4】第1の所定領域を示す図
【図5】テンプレートを示す図
【図6】本実施形態の動作を示すフローチャート
【図7】本実施形態の他の動作を示すフローチャート
【図8】図7の動作を説明するための図
【符号の説明】
1 位置検出装置
2 撮像手段
3 第1の設定手段
4 第2の設定手段
5 検出手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a position detection method and apparatus for detecting the position and / or size of a substantially line-symmetric object included in an observation image, and a computer-readable record in which a program for causing a computer to execute the position detection method is recorded. It relates to the medium.
[0002]
[Prior art]
In a detection apparatus for inspecting a fine pattern on a wafer or a reticle in manufacturing or inspection of semiconductor devices such as VLSI, a square box of about 10 μm is used as an inspection object on a square box of about 20 μm manufactured in the previous process. What is manufactured and inspects the alignment accuracy by detecting the edge position of each box is known. In such an inspection apparatus, paying attention to the fact that the inspection target is substantially line symmetric, a first predetermined region is set on one side of the line symmetry of the observation image representing the inspection target, and the set first An image of one predetermined area is inverted to set a reference image related to the first predetermined area, a second predetermined area is set on the other side of line symmetry with respect to the set reference image, and the first A method for detecting the position of the inspection object from the center position of the position of the second predetermined region has been proposed (Japanese Patent Laid-Open No. 6-258045). According to this method, when detecting the position of the target pattern having symmetry from the observation image data of the inspection target, the other edge is based on the reference image of the first predetermined area representing the one edge pattern. The pattern can be determined, and the center position of both edge patterns, that is, the alignment of the inspection object can be accurately detected regardless of the image state of the inspection object.
[0003]
[Problems to be solved by the invention]
The method described in Japanese Patent Laid-Open No. 6-258045 can detect the position of a substantially line-symmetric object with high accuracy. For example, although the object is substantially line-symmetric like a human face image, If the symmetry is lost in the details, the position of the object cannot be detected accurately.
[0004]
The present invention has been made in view of the above circumstances, and is capable of accurately detecting the position and / or size of an object even when the symmetry is broken in the details of the object, although it is substantially line symmetric. An object of the present invention is to provide a position detection method and apparatus that can be used, and a computer-readable recording medium that records a program for causing a computer to execute the position detection method.
[0005]
[Means for Solving the Problems]
The position detection method according to the present invention is a position detection method for detecting the position and / or size of an object when the object included in the observation image is substantially line symmetric.
A first predetermined region is set on one side of the object in line symmetry;
Reversing an image other than the specific area in the first predetermined area to set a reference image related to the first predetermined area;
Based on the reference image, a second predetermined region is set on the other side of the line symmetry,
The position and / or size of the object is detected based on the positions of the first and second predetermined regions.
[0006]
Here, the “reference image” is created by inverting an area other than the specific area in the first predetermined area.
[0007]
In addition, the “specific area” refers to an area in which symmetry in the object is impaired in the first predetermined area.
[0008]
Further, “invert” means to invert an image other than the specific region so as to be line symmetric with respect to an axis parallel to the substantially line symmetric axis of the object included in the observation image.
[0009]
In addition, in order to prevent the image from being lost due to the inversion of the image outside the specific area, the shape of the specific area is set to be substantially line symmetric with respect to the symmetry axis when the image other than the specific area is inverted. It is preferable to do.
[0010]
An image processing device according to the present invention is a position detection device that detects the position and / or size of an object when the object included in the observation image is substantially line symmetric.
First setting means for setting a first predetermined region on one side of line symmetry of the object;
A reference image setting means for inverting an image other than the specific area in the first predetermined area and setting a reference image related to the first predetermined area;
Second setting means for setting a second predetermined region on the other side of the line symmetry based on the reference image;
And detecting means for detecting the position and / or size of the object based on the positions of the first and second predetermined regions.
[0011]
In addition, you may record and provide on a computer-readable recording medium as a program for making a computer perform the position detection method by this invention.
[0012]
【The invention's effect】
According to the present invention, when detecting the position and / or size of a substantially line-symmetric object included in the observation image, the inside of the first predetermined region set on one side of the object's line symmetry A reference image is set by inverting an image other than the specific area in FIG. 2, and a second predetermined area is set on the other side of the line symmetry based on the reference image. Here, even if there is a portion in which the symmetry is broken with respect to the other side of line symmetry in the first predetermined region, if the portion in which the symmetry is broken is set as a specific region, the symmetry is reduced. The second predetermined area can be set at a position substantially symmetrical with the first predetermined area without being affected by the collapsed portion. Therefore, the position and / or size of the object can be accurately detected from the positions of the first and second predetermined regions.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0014]
FIG. 1 is a schematic block diagram showing a configuration of a position detection device according to an embodiment of the present invention. As shown in FIG. 1, the position detection device 1 according to the present embodiment detects the position and / or size of a substantially line-symmetric object included in an image represented by image data S acquired by the imaging means 2. Based on the image data S, a first predetermined area is set on one side of the line symmetry of the object, and an image other than the specific area in the first predetermined area is inverted. Based on the first setting means 3 for setting the obtained reference image relating to the first predetermined area as the template T and the template T set in the first setting means 3, the second image is set on the other side of the line symmetry. Second setting means 4 for setting the predetermined area, and detection means 5 for detecting the position and / or size of the object based on the first and second predetermined areas.
[0015]
In the present embodiment, the object is a human face image, and the position and size of the face image are detected based on the image data S acquired by imaging the human face. Things are not limited to face images.
[0016]
In the first setting means 3, the template T is set as follows. FIG. 2A is a diagram showing a human face image represented by the image data S. FIG. The face image shown in FIG. 2A has symmetry with respect to an axis (broken line) parallel to the Y axis, and the eyes are directed to the left side (right side when viewed from a person). In the first setting means 3, first, a filtering process is performed on one side of line symmetry (the left side as viewed in FIG. 2) by a filter for detecting a light and dark pattern as shown in FIG. As shown in (b), a first predetermined area A1 including the left eye is set. In the present embodiment, since the face image whose position and size are detected does not change significantly, for example, based on the average size of the face image, the filter shown in FIG. Is set. Note that the use of the filter shown in FIG. 3B can cope with the case where the eyes are facing the right side.
[0017]
Further, as shown in FIG. 4, a specific area N1 including a black eye is set at the center in the first predetermined area A1, and the area N2 other than the specific area N1 is inverted with an axis parallel to the Y axis as an axis of symmetry. Then, by combining with the specific area N1, a template T is created as shown in FIG.
[0018]
The second setting means 4 first sets a search area E sufficiently larger than the template T on the other side of the line symmetry (right side as viewed in FIG. 2), and scans the template T in the search area E. Thus, the cross-correlation coefficient is obtained, the area having the largest correlation coefficient is detected, and this area is set as the second predetermined area A2 as shown in FIG.
[0019]
The detecting means 5 calculates center coordinates X1 and X2 in the X-axis direction of the first predetermined area A1 and the second predetermined area A2, and determines the position and size of the face image based on the center coordinates X1 and X2. It is what you want. Specifically, the midpoint of the center coordinates X1 and X2 is regarded as the midpoint of both eyes, and this is regarded as the position of the face image, and the difference value is regarded as the distance between both eyes, which is obtained as the size of the face image (FIG. 2 ( d)).
[0020]
Next, the operation of this embodiment will be described. FIG. 6 is a flowchart showing the operation of this embodiment.
[0021]
First, the image data S is acquired by the imaging means 2 (step S1). Next, a filtering process is performed on the left area of FIG. 2A by the filter shown in FIG. 3A to set a first predetermined area A1 (step S2). Next, the center coordinate in the X-axis direction of the set first predetermined area A1 is calculated as X1 (step S3).
[0022]
Then, as shown in FIG. 4, an area N2 representing the specific area N1 and a part other than the specific area N1 is set in the first predetermined area A1 (step S4). Further, as shown in FIG. 5, a template T is created by inverting the region N2 with the axis parallel to the Y axis as the axis of symmetry (step S5).
[0023]
Next, in the area on the right side of FIG. 2A, a search area E that is sufficiently larger in the X-axis direction than the template T is set (step S6). Then, in the search area E, template matching is performed to obtain a correlation coefficient between the template T and a region corresponding to the template T in the search area E while shifting the template T pixel by pixel in the X-axis direction and the Y-axis direction ( Step S7).
[0024]
Next, the region of the template T where the calculated correlation coefficient is the maximum value is set as the second predetermined region A2 (step S8), and the center position of the second predetermined region A2 in the X-axis direction is determined as X2 ( Step S9). Then, the center coordinate Xc between the coordinate X1 obtained in step S3 and the coordinate X2 obtained in step S9 is obtained as the position of the face image by the calculation of Xc = (X1 + X2) / 2, and the coordinate X2 and the coordinate X1 The difference value ΔX is obtained as the size of the face image (step S10), and the process ends.
[0025]
As described above, according to the present embodiment, even in the case where only the eyes shown in FIG. 2 are face-to-face images, the lines are symmetrical but the symmetry is broken in the details. Since the second predetermined area A2 can be set at a position symmetrical to the first predetermined area A1 without being affected by the portion where the characteristics are broken, the first and second predetermined areas A1, A2 The position and size of an object such as a face image can be accurately detected from the center position.
[0026]
In addition, since the position and size of the face image can be obtained with high accuracy, it is possible to cut out the person with a stable position and size from a large number of images in which the person is photographed.
[0027]
In the above embodiment, both the position and the size of the face image are obtained, but only one of them may be obtained.
[0028]
In the above embodiment, the specific region N1 is set at the center of the first predetermined region A1, and the template T is created by inverting the region N2 other than the specific region N1, but the target image In accordance with the state in which the symmetry of the predetermined area A1 is impaired, the area other than the central part of the first predetermined area A1 is set as the specific area N1, and the template N is inverted by inverting the area N2 other than the specific area N1. You may create it.
[0029]
Furthermore, in the above-described embodiment, after setting the first predetermined area A1, the template T is created and template matching is performed two-dimensionally to set the second predetermined area A2. If only the left and right positions need to be obtained, the processing may be performed only on the left and right one-dimensional data as follows.
[0030]
FIG. 7 is a flowchart showing another operation of the present embodiment. First, the image data S is acquired in step S11, and the first predetermined area A1 is set in step S12. Next, in step S13, line data D [i] (i: 0 to (A-1) in the X axis direction within the range of the width Y3 in the Y axis direction in the first predetermined area A1 as shown in FIG. A is the number of data).
[0031]
Then, in the line data D [i], the data in the first predetermined area A1 is cut out as a template T (step S14). At this time, if the X coordinate of the start point of the first predetermined area A1 is X3 and the number of data of the template T is N, the cut out data T1 [j] (j: 1 to (N−1)) is
T1 [j] = D [X3 + (N-1) -j]
It becomes. The data T1 [j] is obtained by inverting the first predetermined area A1 with an axis parallel to the Y axis as an axis of symmetry.
[0032]
Next, it is determined whether or not the line data D [i] is within the range of the width Y4 in the Y-axis direction in the region N1 shown in FIG. 8 (step S15). If not, the process proceeds to step S17. . If it is within the range, the data corresponding to the region N1 is inverted (step S16). Here, if the X coordinate of the start point of the region N1 is X4 and the number of data is q, the data is T2 [k] (k: 0 to q-1),
T2 [k] = D [X4 + k]
It becomes.
[0033]
In step S17, a search area E that is sufficiently larger than the template T is set. If the X coordinate of the starting point is X5 and the number of data is L (N <L), the data E [k] (k: 0 to L-1) in the search area E is
E [k] = D [X5 + k]
It becomes. Next, the initial value of m is set to 0 (step S18), and data is cut out from the search area E by the number N of data in step S19. Data Em [j] (j: 1 to (N-1)) cut out at this time is
Em [j] = E [m + j]
It becomes.
[0034]
In step S20, a cross-correlation coefficient between Em [j] and T1 [j] is obtained and set as C [m]. In steps S21 and S22, the processes of steps S19 and S20 are performed while changing m from 0 to (L−N).
[0035]
Then, the value of m that is the maximum value of the correlation coefficient C [m] is obtained, and this is set as Xmax (step S23). In step S24, the center coordinates Xcnt of both eyes are calculated by the following formula.
[0036]
Xcnt = (X3 + N-1 + X5 + Xmax) / 2
Thereby, the X coordinate of the center of both eyes in one line data D [i] can be obtained.
[0037]
Then, the above processing is performed on all the line data within the range of Y3 shown in FIG. 8 to obtain the center coordinate Xcnt for each line, and the average value thereof is obtained as the position of the face image.
[0038]
As described above, the position of the face image can also be obtained by the processing shown in FIG.
[Brief description of the drawings]
FIG. 1 is a schematic block diagram showing a configuration of a position detection apparatus according to an embodiment of the present invention. FIG. 2 is a diagram showing a face image. FIG. 3 is a diagram showing a filter for setting a first predetermined region. FIG. 5 is a diagram showing a template. FIG. 6 is a flowchart showing the operation of the present embodiment. FIG. 7 is a flowchart showing another operation of the embodiment. FIG. Illustration for explanation [Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Position detection apparatus 2 Imaging means 3 1st setting means 4 2nd setting means 5 Detection means

Claims (3)

観察画像に含まれる対象物が略線対称であるときに、該対象物の位置および/または大きさを検出する位置検出方法であって、
前記対象物の線対称の一方の側に第1の所定領域を設定し、
該第1の所定領域内における特定領域以外の画像を反転して該第1の所定領域に係る基準画像を設定し、
該基準画像に基づいて前記線対称の他方の側に第2の所定領域を設定し、
前記第1および前記第2の所定領域の位置に基づいて、前記対象物の位置および/または大きさを検出することを特徴とする位置検出方法。
A position detection method for detecting a position and / or size of an object when the object included in the observation image is substantially line symmetric,
A first predetermined region is set on one side of the object in line symmetry;
Reversing an image other than the specific area in the first predetermined area to set a reference image related to the first predetermined area;
Setting a second predetermined region on the other side of the line symmetry based on the reference image;
A position detection method comprising detecting the position and / or size of the object based on the positions of the first and second predetermined regions.
観察画像に含まれる対象物が略線対称であるときに、該対象物の位置および/または大きさを検出する位置検出装置であって、
前記対象物の線対称の一方の側に第1の所定領域を設定する第1の設定手段と、
該第1の所定領域内における特定領域以外の画像を反転して該第1の所定領域に係る基準画像を設定する基準画像設定手段と、
該基準画像に基づいて前記線対称の他方の側に第2の所定領域を設定する第2の設定手段と、
前記第1および前記第2の所定領域の位置に基づいて、前記対象物の位置および/または大きさを検出する検出手段とを備えたことを特徴とする位置検出装置。
A position detection device for detecting the position and / or size of an object when the object included in the observation image is substantially line symmetric,
First setting means for setting a first predetermined region on one side of line symmetry of the object;
A reference image setting means for inverting an image other than the specific area in the first predetermined area and setting a reference image related to the first predetermined area;
Second setting means for setting a second predetermined region on the other side of the line symmetry based on the reference image;
A position detection apparatus comprising: a detection unit configured to detect a position and / or size of the object based on positions of the first and second predetermined regions.
観察画像に含まれる対象物が略線対称であるときに、該対象物の位置および/または大きさを検出する位置検出方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体であって、
前記対象物の線対称の一方の側に第1の所定領域を設定する手順と、
該第1の所定領域内における特定領域以外の画像を反転して該第1の所定領域に係る基準画像を設定する手順と、
該基準画像に基づいて前記線対称の他方の側に第2の所定領域を設定する手順と、
前記第1および前記第2の所定領域の位置に基づいて、前記対象物の位置および/または大きさを検出する手順とを有することを特徴とするコンピュータ読取り可能な記録媒体。
A computer-readable recording medium storing a program for causing a computer to execute a position detection method for detecting the position and / or size of an object when the object included in the observation image is substantially line symmetric There,
A procedure for setting a first predetermined region on one side of line symmetry of the object;
A procedure for inverting an image other than the specific area in the first predetermined area and setting a reference image related to the first predetermined area;
Setting a second predetermined region on the other side of the line symmetry based on the reference image;
A computer-readable recording medium comprising: a procedure for detecting the position and / or size of the object based on the positions of the first and second predetermined areas.
JP04144699A 1999-02-19 1999-02-19 Position detecting method and apparatus, and recording medium Expired - Fee Related JP3992867B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04144699A JP3992867B2 (en) 1999-02-19 1999-02-19 Position detecting method and apparatus, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04144699A JP3992867B2 (en) 1999-02-19 1999-02-19 Position detecting method and apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2000242768A JP2000242768A (en) 2000-09-08
JP3992867B2 true JP3992867B2 (en) 2007-10-17

Family

ID=12608611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04144699A Expired - Fee Related JP3992867B2 (en) 1999-02-19 1999-02-19 Position detecting method and apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP3992867B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3983469B2 (en) 2000-11-14 2007-09-26 富士フイルム株式会社 Image processing apparatus, method, and recording medium
JP2005339389A (en) * 2004-05-28 2005-12-08 Matsushita Electric Works Ltd Picture processing method and picture processor
DE102010047051A1 (en) * 2010-09-29 2012-03-29 Carl Zeiss Sms Gmbh Method for determining the position of a structure within an image and position measuring device for carrying out the method

Also Published As

Publication number Publication date
JP2000242768A (en) 2000-09-08

Similar Documents

Publication Publication Date Title
JP4815807B2 (en) Image processing apparatus, image processing program, and electronic camera for detecting chromatic aberration of magnification from RAW data
US11997398B2 (en) Imaging apparatus, image processing apparatus, and image processing method
EP2533198B1 (en) Imaging device and method, and image processing method for imaging device
JP6137316B2 (en) Depth position detection device, imaging device, and depth position detection method
JP3823328B2 (en) Focus detection device
JPS62209305A (en) Method for judging accuracy of dimension
TWI609178B (en) Pattern inspection device and pattern inspection method
CN105933593B (en) Focal position detection device and focal position detection method
JP3992867B2 (en) Position detecting method and apparatus, and recording medium
JP2005030776A (en) Superimposition measuring apparatus and method
CN104949659B (en) Distance detection device and method, imaging device and parallax amount detecting device
JPH0575797A (en) Adjustment device for image pickup element optical unit
JPH03201454A (en) Aligning method for semiconductor device
JP4178875B2 (en) Mark position detection device, mark position detection method, overlay measurement device, and overlay measurement method
JP2594715B2 (en) Automatic focusing method
JP2004179221A (en) Superposition inspecting device and superposition inspection method
JPH06258045A (en) Method and system for detecting position
JP5371015B2 (en) Cross mark detection apparatus and method, and program
JP7559015B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM
JPH10320560A (en) Image measuring instrument
JPH11120359A (en) Image processor, its method and transmission medium
CN109801213A (en) Picture Spot detection method, apparatus and terminal device is imaged in flake
JP3601506B2 (en) Apparatus and method for detecting motion vector, and apparatus and method for correcting image vibration
JPH11304426A (en) Measuring device of image by pattern matching
JP2000337855A (en) Method and device for detecting position, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040823

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070725

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100803

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110803

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110803

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120803

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120803

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130803

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees