JPH0341611A - Method for measuring position and angle by image - Google Patents

Method for measuring position and angle by image

Info

Publication number
JPH0341611A
JPH0341611A JP1175832A JP17583289A JPH0341611A JP H0341611 A JPH0341611 A JP H0341611A JP 1175832 A JP1175832 A JP 1175832A JP 17583289 A JP17583289 A JP 17583289A JP H0341611 A JPH0341611 A JP H0341611A
Authority
JP
Japan
Prior art keywords
image
angle
point
filtered
average
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1175832A
Other languages
Japanese (ja)
Inventor
Haruhiko Yokoyama
晴彦 横山
Daisuke Ogawara
大河原 大輔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP1175832A priority Critical patent/JPH0341611A/en
Priority to KR1019900010279A priority patent/KR930011688B1/en
Publication of JPH0341611A publication Critical patent/JPH0341611A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B5/00Recording by magnetisation or demagnetisation of a record carrier; Reproducing by magnetic means; Record carriers therefor
    • G11B5/48Disposition or mounting of heads or head supports relative to record carriers ; arrangements of heads, e.g. for scanning the record carrier to increase the relative speed
    • G11B5/58Disposition or mounting of heads or head supports relative to record carriers ; arrangements of heads, e.g. for scanning the record carrier to increase the relative speed with provision for moving the head for the purpose of maintaining alignment of the head relative to the record carrier during transducing operation, e.g. to compensate for surface irregularities of the latter or for track following

Abstract

PURPOSE:To measure the position and angle of an object at high speed without fail at low cost by measuring the position and angle of the object with the contour point or feature point of the object as a key. CONSTITUTION:The distance between a camera 11 and an object 12 is changed and the object is photographed in plural times. Then, the respective pictures of the object are filtered and a maximum value 18 and a minimum value 19 are extracted from the plural pictures filtered in the respective coordinate points in the pictures. For the average value of the extracted maximum value 18 and minimum value 19, a zero cross point is extracted in the image held as density in each coordinate point and accordingly, the contour point or feature point of the object 12 is acquired. Then, the position and angle of the object 12 are measured with the contour point or feature point of the object 12 as the key. Thus, the position and angle of the object can be surely and speedily measured at low cost.

Description

【発明の詳細な説明】[Detailed description of the invention]

産業上の利用分野 本発明は、磁気テープ読み取り用ヘッド(以下磁気ヘッ
ドとよぶ〉の位置調整または検査のため、ヘッドギャッ
プの深さ(以下、ギャップデプスとよぶ)を高精度で測
定する場合等に好適に適用し得る、画像による位置・角
度測定方法に関するものである。 従来の技術 ギャップデプスは、磁気ヘッドの構造上の問題で正面か
ら見ることができず、ギャップデプスに対し45度以上
の角度から見る必要があり、ギャップデプスの全体に焦
点が合った画像が得られず、測定が難しかった。そこで
、このような一部しか焦点が合わないような場合でも測
定を可能にする従来の磁気ヘッドのギャップデプス測定
方法としては、次のような方式がよく用いられてきた。 まず、カメラと被写体の距離を変えて複数回(N回〉撮
影する。次に撮影された画像のそれぞれを部分画像に分
割する。そして、部分画像毎にN個の撮影された画像の
うちで最も合焦点の高いものを選び、これらを合成して
一枚の画像にする。しかるのちに、合成された画像につ
いて被写体の輪郭点ないし特徴点を抽出し、それらを手
がかりに被写体の位置・角度測定する。 以下、図面を参照しながら、従来例について謂明する。 第3図は全体のブロック図である。第3図において、カ
メラ1で撮影された被写体2の画像を充電変換器3で充
電変換し、A/D変換器4でA/D変換しく変換出力を
原画像とよぶことにする)、画像記憶回路5に格納する
。さらに原画像をバイパスフィルタ6〈以HPFと略す
)でフィルタリングしくフィルタリング出力を高周波画
像とよぶことにする〉、高周波画像記憶回路7に格納す
る。以上の手順をカメラと被写体の距離を少しづつ変え
ながらN回繰り返し、N枚の原画像とN枚の高周波画像
を記憶する。 ここで、画像信号のボケ成分は低周波成分とみなせるの
で、バイパスフィルタ6の出力は合焦度と考えることが
できる。 原画像を、第4図に示すように、64X64の部分画像
に分割する。そして、高周波画像も同様に分割し、部分
画像の合焦度を、それに対応する高周波画像の部分の絶
対値の平均とする。 各部分画像について、撮影されたN枚の原画像の合焦度
を比較し、最も大きな値を持つものを選んで合成する。 合成されたものを合成画像とよぶ。 以上を、式を用いて示すと次の通りである。 i番目の画像を1゜ i番目の高周波画像をH とする。 I のj番目の部分画像をPI。 1+J Hlのj番目の部分画像をPH とする。 i番目の画像のj番目の部分画像の平均合焦度は me a n  (PH,−) 1+J と表される。 この平均合焦度 mean (PH、) の中で最大値をとるiを HMAX(i) と表すことにする。 (i=1・・・N〉 すると、合成画Sは る。 例えば第3図において、A、B、C,Dを合成した画像
をEとすると、次のように記述される。 E=A$B$CΦD■ 合成画像は、複数の非合焦度画像から合成された合焦点
画像と考えることができる。 上記手順でつくられた合成画像から、次のようにして測
定を行う。 第6図に示すようなマスクオペレータをもつGuenF
ilterによって合成画像をフィルタリングし、ゼロ
クロス点くフィルタリングデータがO−P 1aneと
交差する点〉の集合を抽出する。第7図の8は画像の濃
度変化グラフである。9はO−P 1aneである。グ
ラフとO−P 1aneの交点10がゼロクロス点であ
る。ゼロクロス点は、合成画像のフィルタリング結果の
正の領域と負の領域との境界点としても得られる。 以上のようにして得られたゼロクロス点の集合を手がか
りに、被写体の位置・角度を算出する。 例えば被写体の輪郭一部が直線状になっている場合は、
ゼロクロス点の集合を最小二乗法で直線近似することに
よって、位置・角度が算出できる。 発明が解決しようとする課題 しかしながら、上記の方法では次のような3つの問題点
がある。 ■8分割された部分画像の境界における連続性が保障さ
れないため、部分画像の境界線が被写体の輪郭線ないし
特徴線と誤認識される恐れがある。 2、大容量の記憶回路を必要とする。従来例の処理では
、主なデータとしてはN枚の原画像、N枚の高周波画像
がある。後者は平均合焦度計算の後は不要なので、1枚
分の容量でまかなえるが、前者は最後まで保持する必要
がある。 従って、原画像の大きさを5122、深さを8bitと
すれば、少なくともNX256Kbyteの大きさの記
憶回路が必要とされる。 3、従来例における画像合成の方法は、画像分割・平均
計算・比較・判定の組合せであり、複雑でハードウェア
で実現しにくいため、高速処理ができない。 課題を解決するための手段 上記問題点を解決するために、本発明の画像による位置
・角度測定方法は、カメラと被写体の距離を変えて複数
回撮影する工程と、撮影された各々の画像をフィルタリ
ングする工程と、画像内の各座標点において前記フィル
タリングされた複数枚の画像の最大値と最小値を抽出す
る工程と、前記抽出された最大値と最小値の平均値を各
座標点における濃度としてもつ画像においてゼロクロス
点を抽出することによって被写体の輪郭点ないし特徴点
を得る工程と、前記被写体の輪郭点ないし特徴点を手が
かりに被写体の位置・角度を計測する工程からなるもの
である。 作   用 本発明は上記の構成により、部分画像に分割することに
よる境界誤差を生ずることなくかつ大容量の記憶手段や
複雑な演算処理を要することなく被写体の位置・角度を
確実・高速かつ安価に計測できる。 実施例 以下、図面を参照しながら、本発明の一実施例について
説明する。 第1図は、全体ブロック図である。カメラ11で撮影さ
れた被写体12の画像は光電変換器13で光電変換、A
/D変換器14でA/D変換されて、画像記憶回路15
に格納され、さらに第6図のGeuen  Filte
rζ;よってフィルタリングされ〈フィルタリング出力
をフィルタリング画像とよぶことにする〉、フィルタリ
ング画像記憶回路16に格納される。以上をN回繰り返
す。 さて、各座標点ごとに、N枚のフィルタリング画像の中
から最大値・最小値を選ぶ。そして、最大値のみからな
る画像・最小値のみからなる画像のそれぞれを、最大フ
ィルタリング画像・最小フィルタリング画像とし、両者
を平均したものを平均フィルタリング画像とする。第2
図において、破線17はフィルタリング画像の濃度変化
グラフ、実線18は最大フィルタリング画像の濃度変化
グラフ、実線19は最小フィルタリング画像の濃度変化
グラフである。 以上を、式を用いて示すと、次のようになる。 i番目の原画像!。 i番目のフィルタリング画像をF。 最大フィルタリング画像をMAXF 最小フィルタリング画像をMINF 平均フィルタリング画像をMEANF 〈座標x、y)における濃度値をそれぞれF、(x、y
)、MAXF (x、y)、MINF(x、y)、ME
ANF (x、y) とする。 初期値を MAXF (x、y)=F□(x、y)x=o・”51
1.y=o・・・511・・・・・・(2〉 MINF (x、y)=F、(x、y)x=o・・・5
11 、  y=o・・・51 1・・・・・・(3) とし、 i=2・・・Nについて、以下を繰り返す。 MAXF (x、y)= MAX (MAXF (x、y)。 F、(x、y)) x=0−511.y=o−511 ・・・・・・(4) MIMF (x、y)= MIN (MINF (x、y)。 Fi(X、y)〉 x=O−511、y =O−511 ・・・・・・(5) (4)、(5)式を(N−1)回繰り返した後、の〈6
〉式により、 MEA、NF (x、y)= (MAXF (x、y)+ MrNF (x、y))/2 x=Q・・・511.y=o・・・511・・・・・・
(6) として、平均フィルタリング画像MEANFを得る。 平均フィルタリング画像のゼロクロス点(0−Plan
eを交差する点)の集合を抽出する。ゼロクロス点は、
平均フィルタリング画像の正の領域と負の領域との境界
点としても得られる。 以上のようにして得られたゼロクロス点の集合を手がか
りに、被写体の位置・角度を算出する。 被写体の輪郭一部が直線状になっている場合は、ゼロク
ロス点の集合を最小二乗法で直線近似することによって
、位置・角度が算出できる。 例えば次のような形でゼロクロス点の集合が与えられて
いるとする。 1 (x、f (x))l x=1・・・nt上記集合
は y=f (x) なるグラフに対応する。 これを y=alIx+b なる直線で近似する。 最小二乗誤差Sは次の式で与えられる。 Sが最小値をとることから a S / a a = 0 ・・・・・・(8) aS/ab=0 ・・・・・・(9) (8〉式より ・・・・・・(lO〉 nで割って x * f  (x) −a−x2−b−x=0・・・
・・・(11) (9)式より Σ
Industrial Field of Application The present invention is applicable to cases where the depth of a head gap (hereinafter referred to as gap depth) is to be measured with high accuracy for position adjustment or inspection of a magnetic tape reading head (hereinafter referred to as magnetic head). This invention relates to an image-based position/angle measurement method that can be suitably applied to the conventional technology.Due to the structure of the magnetic head, the gap depth cannot be viewed from the front; Measurement was difficult because it required viewing from an angle and it was difficult to obtain an image that focused on the entire gap depth. The following method has often been used to measure the gap depth of a magnetic head. First, images are taken multiple times (N times) while changing the distance between the camera and the subject. Next, each of the images taken is Divide into partial images.Then, for each partial image, choose the one with the highest focus among the N captured images, and combine them to make a single image. The contour points or feature points of the subject are extracted from the image, and the position and angle of the subject are measured using these as clues.The conventional example will be explained below with reference to the drawings.Figure 3 is an overall block diagram. In Fig. 3, an image of a subject 2 photographed by a camera 1 is charged and converted by a charging converter 3, and converted from A/D by an A/D converter 4 (the converted output is referred to as an original image). The image is stored in the image storage circuit 5. Furthermore, the original image is filtered by a bypass filter 6 (hereinafter abbreviated as HPF), and the filtered output is referred to as a high-frequency image), and is stored in the high-frequency image storage circuit 7. The above procedure is repeated N times while gradually changing the distance between the camera and the subject, and N original images and N high-frequency images are stored. Here, since the blur component of the image signal can be considered as a low frequency component, the output of the bypass filter 6 can be considered as the degree of focus. The original image is divided into 64×64 partial images as shown in FIG. Then, the high-frequency image is similarly divided, and the degree of focus of each partial image is determined as the average of the absolute values of the corresponding portions of the high-frequency image. For each partial image, the focusing degree of the N photographed original images is compared, and the one with the largest value is selected and combined. The composite image is called a composite image. The above is shown using the following formula. Let the i-th image be 1° and the i-th high-frequency image be H. PI is the j-th partial image of I. 1+J Let the j-th partial image of Hl be PH. The average degree of focus of the j-th partial image of the i-th image is expressed as mean (PH, -) 1+J. The maximum value i among the average focusing degrees mean (PH,) will be expressed as HMAX(i). (i = 1...N> Then, a composite image S is created. For example, in Fig. 3, if the image obtained by combining A, B, C, and D is E, it is described as follows. E = A $B$CΦD■ A composite image can be thought of as a focused image synthesized from multiple out-of-focus images. Measurement is performed as follows from the composite image created in the above procedure. 6th GuenF with a mask operator as shown in the figure
The synthesized image is filtered by Ilter, and a set of zero cross points (points where the filtered data intersects O-P 1ane) is extracted. 8 in FIG. 7 is a graph of image density changes. 9 is O-P 1ane. The intersection point 10 between the graph and O-P 1ane is the zero cross point. The zero-crossing point can also be obtained as a boundary point between a positive region and a negative region of the filtering result of the composite image. Using the set of zero-crossing points obtained as described above as clues, the position and angle of the subject are calculated. For example, if part of the outline of the subject is straight,
Positions and angles can be calculated by linearly approximating a set of zero-crossing points using the least squares method. Problems to be Solved by the Invention However, the above method has the following three problems. (2) Since continuity at the boundaries of the eight partial images is not guaranteed, there is a risk that the boundaries of the partial images may be mistakenly recognized as contour lines or feature lines of the subject. 2. Requires a large capacity storage circuit. In conventional processing, the main data includes N original images and N high-frequency images. The latter is not needed after calculating the average focus degree, so it can be covered by the capacity of one sheet, but the former needs to be retained until the end. Therefore, if the size of the original image is 5122 and the depth is 8 bits, a storage circuit with a size of at least NX256 Kbytes is required. 3. The image synthesis method in the conventional example is a combination of image division, average calculation, comparison, and judgment, which is complicated and difficult to implement with hardware, and therefore cannot be processed at high speed. Means for Solving the Problems In order to solve the above-mentioned problems, the image-based position/angle measurement method of the present invention includes a step of photographing a plurality of times while changing the distance between the camera and the subject, and a step of photographing each photographed image. a step of filtering, a step of extracting the maximum value and minimum value of the plurality of filtered images at each coordinate point in the image, and a step of extracting the average value of the extracted maximum value and minimum value at each coordinate point. This process consists of a step of obtaining contour points or feature points of the object by extracting zero-crossing points in the image, and a step of measuring the position and angle of the object using the contour points or feature points of the object as clues. Effect: With the above configuration, the present invention can reliably, quickly, and inexpensively determine the position and angle of a subject without causing boundary errors due to division into partial images, and without requiring large-capacity storage means or complicated arithmetic processing. It can be measured. EXAMPLE Hereinafter, an example of the present invention will be described with reference to the drawings. FIG. 1 is an overall block diagram. The image of the subject 12 taken by the camera 11 is photoelectrically converted by the photoelectric converter 13, and A
A/D converted by the /D converter 14 and stored in the image storage circuit 15
, and further stored in the Geuen Filter in FIG.
rζ; Therefore, it is filtered (the filtering output will be referred to as a filtered image) and stored in the filtered image storage circuit 16. Repeat the above N times. Now, for each coordinate point, the maximum value and minimum value are selected from among the N filtered images. Then, the image consisting only of the maximum value and the image consisting only of the minimum value are respectively defined as a maximum filtering image and a minimum filtering image, and the average of the two is defined as an average filtering image. Second
In the figure, a broken line 17 is a density change graph of the filtered image, a solid line 18 is a density change graph of the maximum filtered image, and a solid line 19 is a density change graph of the minimum filtered image. The above can be expressed using a formula as follows. i-th original image! . The i-th filtered image is F. The maximum filtering image is MAXF The minimum filtering image is MINF The average filtering image is MEANF The density value at <coordinates x, y) is F, (x, y), respectively.
), MAXF (x, y), MINF (x, y), ME
Let ANF (x, y). Set the initial value to MAXF (x, y) = F □ (x, y) x = o・”51
1. y=o...511...(2> MINF (x, y)=F, (x, y)x=o...5
11, y=o...51 1...(3), and repeat the following for i=2...N. MAXF (x, y) = MAX (MAXF (x, y). F, (x, y)) x = 0-511. y=o-511...(4) MIMF (x, y)= MIN (MINF (x, y). Fi(X, y)> x=O-511, y =O-511... ...(5) After repeating equations (4) and (5) (N-1) times, <6
> According to the formula, MEA, NF (x, y) = (MAXF (x, y) + MrNF (x, y))/2 x = Q...511. y=o...511...
(6) Obtain the average filtered image MEANF. Zero crossing point of average filtered image (0-Plan
(points that intersect e) are extracted. The zero crossing point is
It can also be obtained as the boundary point between the positive and negative regions of the average filtered image. Using the set of zero-crossing points obtained as described above as clues, the position and angle of the subject are calculated. If part of the outline of the subject is linear, the position and angle can be calculated by linearly approximating a set of zero-crossing points using the method of least squares. For example, suppose that a set of zero crossing points is given in the following form. 1 (x, f (x)) l x=1...nt The above set corresponds to the graph y=f (x). This is approximated by a straight line y=alIx+b. The least squares error S is given by the following formula. Since S takes the minimum value, a S / a a = 0 ...... (8) aS / ab = 0 ...... (9) (From formula 8) ...... ( lO〉 Divide by n x * f (x) −a−x2−b−x=0...
...(11) From equation (9), Σ

【 (x)  ]  −a ・ ΣX ・・・・・・〈12〉 nで割って f  (x)  −a ・ x−b=0 ・・・・・・(13〉 (11)。 (12)式から a= [x−f  (x)−x−f  (x)]/(x
  −x  ]           ・・・・・・(
14〉b=[f(x)・x2−x−f(x)・x】/E
x  −x  ]           ・・・・・・
〈15〉但し Xは(1・・・n)の平均 (即ちn・(n −1) / 2である)7は(12・
・・nJの平均 f (x)はIf (1)・・f (n)lの平均x−
r(x)は(f(1)−1−・・ f (n)・n)の平均 以上のようにして、ゼロクロス点列を直線近似できる。 また、本実施例において、フィルタリングをGeuen
Filterによったが、Geuen  F 1lte
rはGOG(Difference  Of  Gau
ssian)とよばれるアナログフィルタをコンピュー
タで処理しやすいようにディジタル化したものであり、
DOGによってフィルタリングしてもよい。 ただし、Gaussian関数 G (a r x −
y )−σは係数−はく16〉式で与えられるような関
数であり、DOGは違う係数をもつ2個のGaussi
an関数の差である。 G(σ* x、y ) = exp [−(x  +y  ) / (2・σ )1
・・・・・・(16) DOG (σ、σ2+  x 、y ) =G〈σ  
x、y)−G(σ2.x、y)・・・・・・(17) 画像F (x、y)に対するDOGによるフィルタリン
グ出力は、両者の畳み込みとして計算される。 発明の効果 以上のように、本発明は、カメラと被写体の距離を変え
て複数回撮影する工程と、撮影された各々の画像をフィ
ルタリングする工程と、画像内の各座標点において前記
フィルタリングされた複数枚の画像の最大値と最小値を
抽出する工程と、前記抽出された最大値と最小値の平均
値を各座標点における濃度としてもつ画像においてゼロ
クロス点を抽出することによって被写体の輪郭点ないし
特徴点を得る工程と、前記被写体の輪郭点ないし特徴点
を手がかりに被写体の位置・角度を計測する工程からな
り、従来の方法に比べて、被写体の位置・角度が確実・
高速かつ安価に計測できる。
[ (x) ] −a ・ Σ From the formula, a= [x-f (x)-x-f (x)]/(x
−x ] ・・・・・・(
14〉b=[f(x)・x2−x−f(x)・x]/E
x − x ] ・・・・・・
<15> However, X is the average of (1...n) (that is, n・(n -1) / 2) 7 is (12・
...The average f (x) of nJ is If (1) ... The average x- of f (n)l
The zero-cross point sequence can be linearly approximated by making r(x) larger than the average of (f(1)-1-...f(n).n). In addition, in this embodiment, filtering is performed using Geuen
Depending on the filter, Geuen F 1lte
r is GOG (Difference Of Gau
It is a digital version of an analog filter called ssian, which is easier to process on a computer.
Filtering may be performed by DOG. However, the Gaussian function G (a r x −
y)-σ is a function given by the coefficient-flux equation 16〉, and DOG is a function of two Gaussians with different coefficients.
This is the difference between the an functions. G(σ* x, y) = exp [−(x + y) / (2・σ)1
・・・・・・(16) DOG (σ, σ2+ x, y) = G〈σ
x, y)-G(σ2. Effects of the Invention As described above, the present invention includes the steps of photographing a plurality of times while changing the distance between the camera and the subject, filtering each photographed image, and filtering the filtered image at each coordinate point within the image. A process of extracting the maximum and minimum values of a plurality of images, and extracting zero-crossing points in the image having the average value of the extracted maximum and minimum values as the density at each coordinate point, the outline point or It consists of a step of obtaining feature points, and a step of measuring the position and angle of the object using the contour points or feature points of the object as clues.Compared to conventional methods, the position and angle of the object can be accurately determined.
Can be measured quickly and inexpensively.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例の全体ブロック図、第2図は
本実施例において平均フィルタリング画像を得る方法の
説明図、第3図は従来例の全体ブロック図、第4図は従
来例における部分画像への第7図はゼロクロス点の説明
図である。 11・・・・・・カメラ、12・・・・・・被写体、1
3・・・・・・光電変換器、14・・・・・・A/D変
換器、15・・・・・・画像記憶回路、16・・・・・
・フィルタリング画像記憶回路、17・・・・・・フィ
ルタリング画像の濃度変化グラフ、18・・・・・・最
大フィルタリング画像の濃度変化グラフ、19・・・・
・・最小フィルタリング画像の濃度変化グラフ。
Fig. 1 is an overall block diagram of an embodiment of the present invention, Fig. 2 is an explanatory diagram of a method for obtaining an average filtered image in this embodiment, Fig. 3 is an overall block diagram of a conventional example, and Fig. 4 is a conventional example. FIG. 7 to the partial image in is an explanatory diagram of zero crossing points. 11...Camera, 12...Subject, 1
3...Photoelectric converter, 14...A/D converter, 15...Image storage circuit, 16...
- Filtering image storage circuit, 17... Density change graph of filtered image, 18... Density change graph of maximum filtering image, 19...
... Density change graph of the minimum filtered image.

Claims (1)

【特許請求の範囲】[Claims] カメラと被写体の距離を変えて複数回撮影する工程と、
撮影された各々の画像をフィルタリングする工程と、画
像内の各座標点において前記フィルタリングされた複数
枚の画像の最大値と最小値を抽出する工程と、前記抽出
された最大値と最小値の平均値を各座標点における濃度
としてもつ画像においてゼロクロス点を抽出することに
よって被写体の輪郭点ないし特徴点を得る工程と、前記
被写体の輪郭点ないし特徴点を手がかりに被写体の位置
・角度を計測する工程を備えたことを特徴とする画像に
よる位置・角度測定方法。
The process of taking pictures multiple times by changing the distance between the camera and the subject,
a step of filtering each photographed image, a step of extracting the maximum value and minimum value of the plurality of filtered images at each coordinate point in the image, and an average of the extracted maximum value and minimum value. A step of obtaining contour points or feature points of the object by extracting zero-crossing points in an image having values as density at each coordinate point, and a step of measuring the position and angle of the object using the contour points or feature points of the object as clues. An image-based position/angle measurement method characterized by comprising:
JP1175832A 1989-07-07 1989-07-07 Method for measuring position and angle by image Pending JPH0341611A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP1175832A JPH0341611A (en) 1989-07-07 1989-07-07 Method for measuring position and angle by image
KR1019900010279A KR930011688B1 (en) 1989-07-07 1990-07-07 Method for measuring position and angle by image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1175832A JPH0341611A (en) 1989-07-07 1989-07-07 Method for measuring position and angle by image

Publications (1)

Publication Number Publication Date
JPH0341611A true JPH0341611A (en) 1991-02-22

Family

ID=16002998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1175832A Pending JPH0341611A (en) 1989-07-07 1989-07-07 Method for measuring position and angle by image

Country Status (2)

Country Link
JP (1) JPH0341611A (en)
KR (1) KR930011688B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7226227B2 (en) 2002-07-17 2007-06-05 L'oreal Device for packaging and dispensing a substance, in particular a cosmetic

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7226227B2 (en) 2002-07-17 2007-06-05 L'oreal Device for packaging and dispensing a substance, in particular a cosmetic

Also Published As

Publication number Publication date
KR910003580A (en) 1991-02-27
KR930011688B1 (en) 1993-12-18

Similar Documents

Publication Publication Date Title
CN110276734B (en) Image distortion correction method and device
WO2018209968A1 (en) Camera calibration method and system
JPH05119252A (en) Method and apparatus for distance measurement of camera and automatic quick focusing
JP2696044B2 (en) Focus detection method, non-contact displacement measuring method and apparatus using the same
JPH07311028A (en) Detecting method of flaw in examination of structure surface
KR20100019455A (en) Single-lens, single-aperture, single-sensor 3-d imaging device
JP4403477B2 (en) Image processing apparatus and image processing method
JP4489848B2 (en) Method for correcting image steadyness error in television film scanning, method for changing the motion sequence of a predetermined image object in a television image, and apparatus for performing the method
JPH04198741A (en) Shape defect detecting device
US20120170865A1 (en) Apparatus and method for correcting distortion of image
JPH03200007A (en) Stereoscopic measuring instrument
JPH0341611A (en) Method for measuring position and angle by image
JP4789097B2 (en) Method and apparatus for measuring inner diameter of ferrule hole, etc.
JPH0721365A (en) Method and device for processing picture
JPH10320558A (en) Calibration method, corresponding point search method and device therefor, focus distance detection method and device therefor, three-dimensional position information detection method and device therefor, and recording medium
JP2000171214A (en) Corresponding point retrieving method and three- dimensional position measuring method utilizing same
JPH0328690B2 (en)
CN114936994A (en) Multi-depth-of-field photographing fusion method and system in microsurgery
CN113298882B (en) Camera calibration device and method for microscopic three-dimensional topography measurement system
JPH08329110A (en) Method for processing picture
JP2001245307A (en) Image pickup device
JPH0875454A (en) Range finding device
JP2807137B2 (en) 3D shape detection method
CN114972084A (en) Image focusing accuracy evaluation method and system
KR100756300B1 (en) Method for 3-d shape recovery using 3-d focus measure operator