JP2006112964A - Optical sensor device - Google Patents

Optical sensor device Download PDF

Info

Publication number
JP2006112964A
JP2006112964A JP2004301830A JP2004301830A JP2006112964A JP 2006112964 A JP2006112964 A JP 2006112964A JP 2004301830 A JP2004301830 A JP 2004301830A JP 2004301830 A JP2004301830 A JP 2004301830A JP 2006112964 A JP2006112964 A JP 2006112964A
Authority
JP
Japan
Prior art keywords
linear image
image sensor
round bar
shadow
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004301830A
Other languages
Japanese (ja)
Inventor
Yoshihiko Okayama
喜彦 岡山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Azbil Corp
Original Assignee
Azbil Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Azbil Corp filed Critical Azbil Corp
Priority to JP2004301830A priority Critical patent/JP2006112964A/en
Publication of JP2006112964A publication Critical patent/JP2006112964A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Machine Tool Sensing Apparatuses (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an optical sensor device having a simple structure, capable of easily and accurately detecting the diameter of a round-bar object. <P>SOLUTION: Two sets of optics are prepared, each of which is constituted of a pair of a point source and a linear image sensor disposed opposite to the point source, and these two sets of optics are arranged, such that their optical axes are orthogonal to each other. Then, the positional coordinates of the round-bar object which is disposed in the optics, is obtained from the central position of a shadow form of the round-bar object detected by the respective linear image sensors, and a measurement scale factor for the optics is determined, in accordance with the positional coordinates, and the diameter of the round-bar object is computed accurately from the width 2a of the shadow form of the round-bar object detected, from the outputs of the liner image sensors, in accordance with the measurement scale factor. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、点光源から射出される所定の拡がり角を有する放射光をそのまま用いて、例えばドリル刃のような丸棒体の径を簡易に、しかも精度良く検出することのできる光学センサ装置に関する。   The present invention relates to an optical sensor device that can easily and accurately detect the diameter of a round bar, such as a drill blade, by directly using emitted light having a predetermined divergence angle emitted from a point light source. .

近時、プリント回路基板の高密度実装化に伴い、その多層化が図られており、またプリント回路基板にスルーホールを形成して複数の層間を電気的に接続することも行われている。このようなスルーホールは、専ら、例えば直径が50〜100μm程度の微小なドリル刃を用い、このドリル刃を高速回転させてプリント回路基板を所定深さの孔を穿いて形成される。この際、所定径のドリル刃を選択して用いることは勿論のこと、このドリル刃を芯ぶれのない状態でドリルのチャックに装着し、更にはドリル刃の先端位置を正確に把握して所望とする深さまで孔を穿つことが重要である。しかしながらこの種の微小径のドリル刃の径(ドリル径)を機械的に計測したり、チャックへの装着状態等を機械的に確認することは一般的には非常に困難であることから、通常、光学的な計測手段が用いられている(例えば特許文献1,2,3を参照)。   Recently, the printed circuit board has been multi-layered with high density mounting, and through holes are formed in the printed circuit board to electrically connect a plurality of layers. Such a through hole is exclusively formed by using a fine drill blade having a diameter of about 50 to 100 μm, for example, and rotating the drill blade at a high speed to form a hole of a predetermined depth in the printed circuit board. At this time, of course, it is possible to select and use a drill blade of a predetermined diameter, attach the drill blade to the chuck of the drill without any runout, and further accurately grasp the tip position of the drill blade as desired. It is important to drill holes to the depth of However, it is generally very difficult to mechanically measure the diameter (drill diameter) of this type of small-diameter drill blade and to mechanically check the mounting state on the chuck. Optical measuring means are used (see, for example, Patent Documents 1, 2, and 3).

しかしながら特許文献1,2,3に示されるようなドリル刃の光学的な計測手法は、ドリル刃による光の遮光を利用してその遮光幅をラインセンサ(リニアイメージセンサ)等により計測しているだけなので、直径が200μm以下の微小径のドリル刃の径等を正確に計測することが困難であった。即ち、この種の計測には、専ら、その光源としてレーザ光等の単色平行光が用いられる。しかしドリル刃により遮光されるエッジ部において光の回折が生じるので、この回折の影響によりドリル刃の径等を正確に計測することが困難であると言う問題がある。   However, the optical measurement method of a drill blade as shown in Patent Documents 1, 2, and 3 measures the light shielding width by a line sensor (linear image sensor) or the like using light shielding of the drill blade. Therefore, it was difficult to accurately measure the diameter of a fine drill blade having a diameter of 200 μm or less. That is, monochromatic parallel light such as laser light is exclusively used as the light source for this type of measurement. However, since diffraction of light occurs at the edge portion shielded by the drill blade, there is a problem that it is difficult to accurately measure the diameter of the drill blade due to the influence of this diffraction.

そこで本発明者は先にフレネル回折を生じた光の回折パターン(強度分布)をハイパボリックセカンド関数sech(x)を用いて近似した近似式を用いて、そのエッジ位置を簡易にしかも高精度に求める手法を提唱した(例えば特許文献4を参照)。
特開2003−170335号公報 特開平7−306020号公報 特開平7−260425号公報 特開2004−177335号公報
Therefore, the present inventor uses an approximate expression that approximates the diffraction pattern (intensity distribution) of the light that has been previously subjected to Fresnel diffraction using the hyperbolic second function sech (x), and easily and accurately obtains the edge position. A method was proposed (see, for example, Patent Document 4).
JP 2003-170335 A Japanese Patent Application Laid-Open No. 7-306020 JP 7-260425 A JP 2004-177335 A

ところで上述した従来の光学的な計測手法においては、専ら、その光源としてレーザ光等の単色平行光を用いている。具体的にはレーザダイオード(LD)から発せられたレーザ光を、光学レンズ(コリメータレンズ)を介して平行光線束に変換し、この平行光線束(単色平行光)をラインセンサの受光面に向けて投射している。そしてその光路中に位置付けられた検出対象物(遮蔽物)の影や、該検出対象物のエッジ部分にて生じたフレネル回折の光パターンを前記ラインセンサにて検出するようにしている。   By the way, in the conventional optical measurement method described above, monochromatic parallel light such as laser light is exclusively used as the light source. Specifically, the laser light emitted from the laser diode (LD) is converted into a parallel light beam via an optical lens (collimator lens), and the parallel light beam (monochromatic parallel light) is directed to the light receiving surface of the line sensor. Projecting. The line sensor detects the shadow of the detection object (shielding object) positioned in the optical path and the Fresnel diffraction light pattern generated at the edge of the detection object.

しかしながら単色平行光を投射する光源は、上述した光学レンズ(コリメータレンズ)等の光学素子を必要とするので、その構成が大掛かりとなる上、装置コスト上昇の要因ともなっている。しかも単色平行光の光線束幅を拡げようとした場合、例えば大口径の投光レンズが必要となり、また一般的にはLDと投光レンズとの光学距離を長く設定することが必要となるので、光源が大型化する等の不具合がある。   However, since the light source for projecting monochromatic parallel light requires an optical element such as the above-described optical lens (collimator lens), the configuration becomes large and the apparatus cost increases. Moreover, when trying to widen the beam bundle width of monochromatic parallel light, for example, a large-diameter projection lens is required, and generally, it is necessary to set a long optical distance between the LD and the projection lens. There are problems such as an increase in the size of the light source.

本発明はこのような事情を考慮してなされたもので、その目的は、光源の構成の複雑化を招来することなしに、具体的には点光源から射出される所定の拡がり角を有する放射光をそのまま用いて、例えばドリル刃のような丸棒体の径やその位置座標を簡易に、しかも精度良く求めることのできる光学センサ装置を提供することにある。   The present invention has been made in view of such circumstances, and its purpose is to specifically emit radiation having a predetermined divergence angle emitted from a point light source without incurring a complicated configuration of the light source. An object of the present invention is to provide an optical sensor device that can easily and accurately obtain the diameter and position coordinates of a round bar, such as a drill blade, using light as it is.

上述した目的を達成するべく本発明においては、レーザダイオード(LD)等の点光源から射出される所定の拡がり角を有する放射光をそのまま計測に用いることで光学レンズを不要とする等、その光学系の大幅な簡素化を図ると共に、上述した所定の拡がり角を有する放射光を用いた場合に生じる検出対象(丸棒体)の位置ずれに起因する誤差を、その光学系の幾何学的な関係や誤差分布等に基づいて補正することで、ドリル刃のような丸棒体の径やその位置座標を精度良く求めるようにしている。   In order to achieve the above-described object, the present invention eliminates the need for an optical lens by using, for measurement, radiation light having a predetermined divergence angle emitted from a point light source such as a laser diode (LD). In addition to greatly simplifying the system, the error caused by the displacement of the detection target (round bar) caused by using the above-mentioned synchrotron radiation having a predetermined divergence angle is considered to be a geometrical characteristic of the optical system. By correcting based on the relationship, error distribution, etc., the diameter of a round bar such as a drill blade and its position coordinates are obtained with high accuracy.

即ち、本発明に係る光学センサ装置は、基本的には請求項1に記載するように
(a) 複数の受光セルを直線状に配列した受光面をそれぞれ備え、上記受光セルの配列方向を異ならせて前記各受光面の視野領域を互いに交差させて配置した第1および第2のリニアイメージセンサと、
(b) 上記各リニアイメージセンサに対向配置されて各リニアイメージセンサの受光面の全体に到達する拡がり角の単色光をそれぞれ射出する第1および第2の点光源と、
(c) 前記点光源とリニアイメージセンサとの間に位置付けられた丸棒体により前記各リニアイメージセンサの受光面に生じた影の中心位置とその影幅とを前記各リニアイメージセンサの出力を解析してそれぞれ求める影解析手段と、
(d) 前記各リニアイメージセンサにて求められた前記影の中心位置に応じて前記各リニアイメージセンサと前記丸棒体との離間距離を求め、この離間距離と前記各リニアイメージセンサにて求められた前記影幅とから前記丸棒体の径を求める径算出手段と
を具備したことを特徴としている。
That is, the optical sensor device according to the present invention is basically as described in claim 1.
(a) First and second linear elements each having a light receiving surface in which a plurality of light receiving cells are arranged in a straight line, and arranged so that the light receiving cells are arranged in different directions and the visual field areas of the respective light receiving surfaces intersect each other. An image sensor;
(b) a first point light source and a second point light source that respectively emit monochromatic light having a divergence angle that is disposed opposite to each linear image sensor and reaches the entire light receiving surface of each linear image sensor;
(c) The output of each linear image sensor indicates the center position of the shadow generated on the light receiving surface of each linear image sensor and the width of the shadow by the round bar positioned between the point light source and the linear image sensor. Shadow analysis means to analyze and obtain each;
(d) A distance between each linear image sensor and the round bar is obtained according to the center position of the shadow obtained by each linear image sensor, and the distance is obtained by each linear image sensor. A diameter calculating means for obtaining a diameter of the round bar from the shadow width is provided.

具体的には点光源と、この点光源に対向して配置されるリニアイメージセンサとの対により構成される光学系を2組準備し、これらの2組の各光学系をその光軸が互いに直交するように交差させて配置する。そして上記光学系の光路内に検出対象(丸棒体)を位置付けたとき、前記各リニアイメージセンサにて検出される前記検出対象(丸棒体)により生じた影の中心位置から前記光路内における上記検出対象(丸棒体)の位置座標を求め、この位置座標に従って前記各リニアイメージセンサと前記検出対象(丸棒体)との離間距離WDをそれぞれ求める。そして前記点光源とリニアイメージセンサとの対向距離SD、上記離間距離WD、および各リニアイメージセンサの出力から検出される丸棒体の影幅2aとの間の幾何学的関係に従って上記丸棒体の径2rを、例えば
2r=2a(SD−WD)/{(2a)2+SD21/2
として高精度に求めることを特徴としている。
Specifically, two sets of an optical system composed of a pair of a point light source and a linear image sensor arranged to face the point light source are prepared, and the optical axes of these two sets of optical systems are mutually different. Place them so that they intersect at right angles. When the detection target (round bar) is positioned in the optical path of the optical system, the center of the shadow generated by the detection target (round bar) detected by each linear image sensor is within the optical path. The position coordinates of the detection target (round bar) are determined, and the distance WD between each linear image sensor and the detection target (round bar) is determined according to the position coordinates. The round bar according to the geometrical relationship between the opposing distance SD between the point light source and the linear image sensor, the separation distance WD, and the shadow width 2a of the round bar detected from the output of each linear image sensor. For example, 2r = 2a (SD−WD) / {(2a) 2 + SD 2 } 1/2
It is characterized by obtaining with high accuracy.

ちなみに前記影解析手段は、請求項2に記載するようにフレネル回折の近似式を用いて前記各リニアイメージセンサの出力を解析して前記各リニアイメージセンサによる受光パターンのエッジ位置XR,XLを求め、これらのエッジ位置から前記影の中心位置(XR+XL)/2とその影幅2a(=XR−XL)とをそれぞれ求めるように構成される。また前記径算出手段においては、好ましくは請求項3に記載するように前記各リニアイメージセンサにおいてそれぞれ検出される影の中心位置に応じて該リニアイメージセンサにて検出された影幅を補正する影幅補正手段を備えることが望ましい。 Incidentally, the shadow analyzing means analyzes the output of each linear image sensor using an approximate expression of Fresnel diffraction as described in claim 2, and detects the edge position X R , X L of the light receiving pattern by each linear image sensor. And the center position (X R + X L ) / 2 of the shadow and its shadow width 2a (= X R −X L ) are respectively determined from these edge positions. Further, in the diameter calculating means, it is preferable that the shadow for correcting the shadow width detected by the linear image sensor in accordance with the center position of the shadow detected by each of the linear image sensors. It is desirable to provide width correction means.

また本発明に係る光学センサ装置は、請求項4に記載するように
(e) 径の既知なる丸棒体(基準ピン)を、前記点光源とリニアイメージセンサとの間の予め定められた位置に設けたときに計測される上記丸棒体(基準ピン)の影の幅から、前記リニアイメージセンサの計測スパンを補正するパラメータを決定して該パラメータを記憶するパラメータ記憶手段と、
(f) その後、丸棒体(計測対象)の径および/または位置の計測時には、前記リニアイメージセンサの出力からそれぞれ求められる影幅を前記パラメータ記憶手段に記憶したパラメータを用いて補正する計測スパン補正手段と
を更に備えることを特徴としている。
An optical sensor device according to the present invention is as described in claim 4.
(e) The shadow of the round bar (reference pin) measured when a round bar (reference pin) with a known diameter is provided at a predetermined position between the point light source and the linear image sensor. Parameter storage means for determining a parameter for correcting the measurement span of the linear image sensor from the width of the linear image sensor and storing the parameter;
(f) Thereafter, when measuring the diameter and / or position of the round bar (measurement object), the measurement span for correcting the shadow width respectively obtained from the output of the linear image sensor using the parameters stored in the parameter storage means And a correction unit.

尚、前記点光源とリニアイメージセンサとの間の予め定められた位置は、例えば請求項5に記載するように前記第1の点光源と前記第1のリニアイメージセンサとの対向距離SD1、および前記第2の点光源と前記第2のリニアイメージセンサとの対向距離SD2をそれぞれ2分する中間点として定め、前記リニアイメージセンサの計測スパンを補正するパラメータについては、そのときに求められる前記影幅2aが前記丸棒体(基準ピン)の径2rの2倍となるように前記リニアイメージセンサにおける受光セルの配列ピッチwを補正する係数として求めるようにすれば良い。 The predetermined position between the point light source and the linear image sensor is, for example, an opposing distance SD 1 between the first point light source and the first linear image sensor, as described in claim 5. The parameter for correcting the measurement span of the linear image sensor is determined at that time by setting the opposing distance SD 2 between the second point light source and the second linear image sensor as an intermediate point that bisects each. What is necessary is just to obtain | require as a coefficient which correct | amends the arrangement | positioning pitch w of the light receiving cell in the said linear image sensor so that the said shadow width 2a may be twice the diameter 2r of the said round bar (reference | standard pin).

また点光源から射出される所定の拡がり角を有する放射光を用いた場合、リニアイメージセンサにおける受光セルの配列ピッチwに依存する計測誤差が生じることが否めず、しかもこの計測誤差は影幅およびリニアイメージセンサと丸棒体との離間距離WDに依存するので、例えば請求項6に記載するように
(g) 一方のリニアイメージセンサにて求められた前記影の中心位置に基づいて求められる他方のリニアイメージセンサと前記丸棒体との離間距離と、上記他方のリニアイメージセンサにて求められる前記丸棒体の影幅とに従って前記他方のリニアイメージセンサにおける複数の受光セルの配列ピッチに依存する前記影のエッジ位置の誤差パターンを求め、この誤差パターンに従って前記リニアイメージセンサの出力を解析して求められる受光パターンのエッジ位置を補正して前記影のエッジ位置を求めるエッジ位置補正手段を
備えることが望ましい。
In addition, when radiation light having a predetermined divergence angle emitted from a point light source is used, a measurement error depending on the arrangement pitch w of the light receiving cells in the linear image sensor cannot be denied. Since it depends on the distance WD between the linear image sensor and the round bar, for example, as described in claim 6
(g) A distance between the other linear image sensor and the round bar obtained based on the center position of the shadow obtained by one linear image sensor, and the distance obtained by the other linear image sensor. According to the shadow width of the round bar, an error pattern of the shadow edge position depending on the arrangement pitch of the plurality of light receiving cells in the other linear image sensor is obtained, and the output of the linear image sensor is analyzed according to the error pattern. It is desirable to provide edge position correcting means for correcting the edge position of the received light reception pattern to determine the edge position of the shadow.

尚、好ましくは請求項7に記載するように前述した光学センサ装置において、
前記第1および第2のリニアイメージセンサの出力からそれぞれ求められた前記丸棒体の径を互いに比較して、前記各リニアイメージセンサの出力に対する補正の適否を検証する検証手段を備えることも有用である。
更には請求項8に記載するように前述した光学センサ装置において、前記点光源とリニアイメージセンサとの間に位置付けられた丸棒体が回転していないときに求められる影幅と、上記丸棒体が回転しているときに求められる影幅とに従って前記丸棒体の回転時における芯ぶれ量を検出する芯ぶれ検出手段を備えると共に、前記第1および第2のリニアイメージセンサの各出力からそれぞれ求められる芯ぶれ量を相互に比較して芯ぶれ検出の適否を判定するようにしても良い。
Preferably, in the above-described optical sensor device as described in claim 7,
It is also useful to have verification means for comparing the diameters of the round bars obtained from the outputs of the first and second linear image sensors with each other and verifying the suitability of correction for the outputs of the linear image sensors. It is.
Furthermore, in the above-described optical sensor device according to claim 8, the shadow width required when the round bar positioned between the point light source and the linear image sensor is not rotating, and the round bar A center blur detecting means for detecting a center blur amount during rotation of the round bar according to a shadow width required when the body is rotating is provided, and from each output of the first and second linear image sensors. You may make it determine the appropriateness | suitability of a core blur detection by mutually comparing the amount of core blur calculated | required each.

また請求項9に記載するように前記第1および第2のリニアイメージセンサの各出力をそれぞれ解析して求められる前記丸棒体の中心位置を出力する座標出力手段を備えることも有用である。   It is also useful to provide coordinate output means for outputting the center position of the round bar obtained by analyzing the outputs of the first and second linear image sensors, respectively.

本発明に係る光学センサ装置によれば、点光源から射出される所定の拡がり角を有する単色光をそのまま用いるだけであり、光学レンズを用いて平行光線束を形成する必要がないのでその光学系の大幅な簡素化を図り得る。しかもその光軸を略直交させて配置した2系統の光学ユニットにて、丸棒体により遮光されて生じた影のリニアイメージセンサ上での位置をそれぞれ検出するので、これらの検出位置からその光学系における上記丸棒体の検出位置(座標)を幾何学的に特定することができる。その上でこの丸棒体の検出位置(座標)と前記点光源およびリニアイメージセンサとの光学的な位置関係に従って前記リニアイメージセンサにて検出される前記影の幅から幾何学的に前記丸棒体の径を求めるので、上記光学系における丸棒体の検出位置(位置ずれ)に拘わることなくその径を高精度に求めることが可能となる。   According to the optical sensor device of the present invention, it is only necessary to use monochromatic light having a predetermined divergence angle emitted from a point light source as it is, and it is not necessary to form a parallel light beam using an optical lens. Can be greatly simplified. In addition, the two optical units arranged with their optical axes substantially orthogonal to each other detect the positions on the linear image sensor of the shadows that are shielded from light by the round bar, so the optical positions are detected from these detection positions. The detection position (coordinates) of the round bar in the system can be specified geometrically. Further, the round bar is geometrically determined from the width of the shadow detected by the linear image sensor in accordance with the optical positional relationship between the detection position (coordinates) of the round bar and the point light source and the linear image sensor. Since the diameter of the body is obtained, it is possible to obtain the diameter with high accuracy without regard to the detection position (position shift) of the round bar in the optical system.

即ち、放射光を用いて丸棒体の径を測定する場合、その検出位置がずれると計測誤差が生じる。しかし丸棒体の検出位置がずれたことが分かれば、幾何学的な計算や誤差分布等に基づいて計測値を補正できるので、丸棒体の軸芯の位置(座標)が正確に測定できれば良い。そこで本発明においてはレーザ(点光源)とリニアイメージセンサのペアを2つ直角に配置して丸棒体の軸芯位置を監視してその位置ずれ(座標)を2次元で測定し、この位置情報に基づいて幾何学的な計算や誤差分布に従い、その計測値を補正するようにしている。   That is, when measuring the diameter of a round bar using synchrotron radiation, a measurement error occurs if the detection position is shifted. However, if it is known that the detection position of the round bar has shifted, the measurement value can be corrected based on geometric calculations, error distribution, etc. If the position (coordinates) of the axis of the round bar can be measured accurately, good. Therefore, in the present invention, two pairs of lasers (point light sources) and linear image sensors are arranged at right angles, the axial center position of the round bar is monitored, and the positional deviation (coordinates) is measured two-dimensionally. Based on the information, the measured values are corrected according to geometric calculation and error distribution.

ちなみに丸棒体の軸芯位置は、影における両側のエッジ位置を見つけてその真ん中の位置を求めるだけで良いので放射光の影響は受けず、丸棒体の位置がどこにあっても比較的精度良く測ることができる。そして位置ずれに起因する誤差を正確に補正したならば、上述した2系統の光学ユニットにてそれぞれ測った丸棒体の径や芯ぶれ量等は互いに一致する筈なので、この比較による補正の検証によりその計測(補正)が正確である有るか否かが判定できる。またこのような計測によれば、丸棒体の径や芯ぶれ測定だけでなく、その検出位置座標も正確に検出できるので、XY平面上の原点を検出することも可能となる。更には丸棒体をその軸方向に進退させ、そのときリニアイメージセンサの出力の変化から丸棒体の先端位置の検出を行えば、XYZの3次元の座標を検出すことも可能となる。   By the way, the axis position of the round bar is not affected by synchrotron radiation because it is only necessary to find the position of the edge on both sides in the shadow and find the middle position, and it is relatively accurate regardless of where the round bar is located. It can be measured well. If the error due to the positional deviation is corrected accurately, the diameter of the round bar and the amount of runout measured by the two optical units described above should match each other. Thus, it can be determined whether or not the measurement (correction) is accurate. In addition, according to such measurement, not only the diameter and runout measurement of the round bar, but also the detection position coordinates can be accurately detected, so that the origin on the XY plane can be detected. Further, if the round bar is moved back and forth in the axial direction, and the tip position of the round bar is detected from the change in the output of the linear image sensor at that time, the three-dimensional coordinates of XYZ can be detected.

また前述した2系統の光学系(放射光の光軸)を正確に直角に配置しなくても、その設置時に計測系のスパン調整を行っておけば、上記光学系の設置誤差等を簡易に補正することができる。従って点光源から射出される放射光をそのまま用いるといえども精度の高い光学計測を行うことが可能となり、その構成が簡単で、しかも安価に製作し得ることと相俟ってその実用的利点が多大である。   Even if the two optical systems described above (the optical axis of the radiated light) are not arranged at right angles, if the span of the measurement system is adjusted during installation, the installation error of the optical system can be simplified. It can be corrected. Therefore, even if radiated light emitted from a point light source is used as it is, it is possible to perform highly accurate optical measurement, and its practical advantage is coupled with the fact that the configuration is simple and can be manufactured at low cost. It is a great deal.

以下、図面を参照して本発明の一実施形態に係る光学センサ装置について説明する。
この光学センサ装置は、図1にその概略構成を示すように第1および第2の点光源1x,1yと、これらの各点光源1x,1yにそれぞれ所定の距離SDを隔てて対向配置された第1および第2のリニアイメージセンサ2x,2yとを備える。第1および第2の点光源1x,1yは、所定の拡がり角を有する単色光(レーザ光)を射出するレーザダイオード(LD)からなる。また第1および第2のリニアイメージセンサ2x,2yは、図2に示すように複数の受光セル3を所定のピッチW(例えば85μm)で直線状に配列して所定幅の受光面を形成したCCD等の、いわゆるラインセンサからなる。
Hereinafter, an optical sensor device according to an embodiment of the present invention will be described with reference to the drawings.
As shown in FIG. 1, the optical sensor device is arranged so as to be opposed to the first and second point light sources 1x and 1y with a predetermined distance SD from each of the point light sources 1x and 1y. First and second linear image sensors 2x and 2y are provided. The first and second point light sources 1x and 1y are formed of laser diodes (LD) that emit monochromatic light (laser light) having a predetermined divergence angle. In the first and second linear image sensors 2x and 2y, as shown in FIG. 2, a plurality of light receiving cells 3 are linearly arranged at a predetermined pitch W (for example, 85 μm) to form a light receiving surface having a predetermined width. It consists of a so-called line sensor such as a CCD.

そして第1の点光源1xおよび第1のリニアイメージセンサ2xは、第1の点光源1xから第1のリニアイメージセンサ2xに向けて照射される単色光(レーザ光)の光路内に位置付けられた検出対象物(丸棒体)4を検出する第1の光学系を構成し、また第2の点光源1yおよび第2のリニアイメージセンサ2yは、第2の点光源1yから第2のリニアイメージセンサ2yに向けて照射される単色光(レーザ光)の光路内に位置付けられた丸棒体4を検出する第2の光学系を構成している。   The first point light source 1x and the first linear image sensor 2x are positioned in the optical path of monochromatic light (laser light) emitted from the first point light source 1x toward the first linear image sensor 2x. A first optical system that detects the detection object (round bar) 4 is configured, and the second point light source 1y and the second linear image sensor 2y are connected to the second linear image from the second point light source 1y. The second optical system is configured to detect the round bar 4 positioned in the optical path of monochromatic light (laser light) irradiated toward the sensor 2y.

特に第1および第2の光学系における前記各リニアイメージセンサ2x,2yは、その受光面を構成する複数の受光セル3の配列方向を互いに直交させ、且つ各受光面が視野する向きを交差させて設けられている。そしてこれらの第1および第2の光学系は、前記各単色光(レーザ光)が交差する領域に位置付けられた検出対象物(丸棒体)4をX軸方向およびY軸方向からそれぞれ検出するものとなっている。   In particular, each of the linear image sensors 2x and 2y in the first and second optical systems has the arrangement direction of the plurality of light receiving cells 3 constituting the light receiving surface orthogonal to each other and intersects the direction in which each light receiving surface is viewed. Is provided. And these 1st and 2nd optical systems detect the detection target object (round bar body) 4 located in the area | region where each said monochromatic light (laser beam) cross | intersects from a X-axis direction and a Y-axis direction, respectively. It has become a thing.

ちなみに検出対象物(丸棒体)4の検出は、点光源1x,1yから射出された単色光がその光路内に位置付けられた丸棒体4により部分的に遮られ、これに伴ってリニアイメージセンサ2x,2yの受光面に、例えば図2に示すように上記丸棒体4の影Aが生じることから、この影Aを検出することによって行われる。特に影Aの検出は、後述するように計測部5x,5yにおいて前記各リニアイメージセンサ2x,2yの出力をそれぞれ解析することによって行われる。具体的には各リニアイメージセンサ2x,2yの出力から上記影Aのエッジ位置EL,ERを検出し(エッジ検出処理6)、これらのエッジ位置EL,ERから上記影Aの幅を[EL−ER]として求めると共に(影幅検出処理7)、上記各エッジ位置EL,ERから上記影Aの中心位置を[(EL+ER)/2]として求める(中心位置検出処理8)ことによって行われる。 Incidentally, the detection object (round bar body) 4 is detected by partially blocking the monochromatic light emitted from the point light sources 1x and 1y by the round bar body 4 positioned in the optical path. For example, as shown in FIG. 2, a shadow A of the round bar 4 is generated on the light receiving surfaces of the sensors 2 x and 2 y, and this shadow A is detected. In particular, the detection of the shadow A is performed by analyzing the outputs of the linear image sensors 2x and 2y in the measuring units 5x and 5y as described later. Specifically, the edge positions E L and E R of the shadow A are detected from the outputs of the linear image sensors 2x and 2y (edge detection processing 6), and the width of the shadow A is determined from these edge positions E L and E R. Is calculated as [E L −E R ] (shadow width detection process 7), and the center position of the shadow A is determined as [(E L + E R ) / 2] from the edge positions E L and E R (center). The position detection process 8) is performed.

そして演算部9においては、前記計測部5x,5yにてそれぞれ検出された前記リニアイメージセンサ2x,2y上での前記影Aの位置から前記光路内における検出対象物(丸棒体)4の存在位置、つまりX軸方向およびY軸方向の位置座標(X,Y)を検出している。更には演算部9では、上記検出位置座標から求められる前記検出対象物(丸棒体)4,点光源1x,1y,およびリニアイメージセンサ2x,2y間の光学的位置関係(幾何学的位置関係)に応じて特定される前記光学系での計測倍率と、前記リニアイメージセンサ2x,2yにて検出された前記影Aの幅とから、後述するようにして上記検出対象物(丸棒体)4の径を求めるものとなっている。   In the calculation unit 9, the presence of the detection object (round bar) 4 in the optical path from the position of the shadow A on the linear image sensors 2x and 2y detected by the measurement units 5x and 5y, respectively. The position, that is, the position coordinate (X, Y) in the X-axis direction and the Y-axis direction is detected. Further, in the calculation unit 9, an optical positional relationship (geometric positional relationship) between the detection object (round bar) 4, the point light sources 1x and 1y, and the linear image sensors 2x and 2y obtained from the detection position coordinates. ) And the width of the shadow A detected by the linear image sensors 2x and 2y, as described later, the detection object (round bar) The diameter of 4 is obtained.

尚、上記光学系において前記第1および第2の点光源1x,1yを同時に発光駆動した場合、丸棒体4での反射光により第1および第2のリニアイメージセンサ2x,2yに到達する光が干渉する虞がある。このような干渉を防ぐには、例えば上記点光源1x,1yの発光タイミングまたはリニアイメージセンサ2x,2yの受光タイミングをずらすようにすれば良い。具体的には各点光源1x,1yをそれぞれ4μ秒ずつパルス的に発光駆動して計測を行う場合には、これらの点光源1x,1yの発光体タイミングをミグを4μ秒ずらして、交互に発光駆動するようにすれば良い。   In the above optical system, when the first and second point light sources 1x and 1y are driven to emit light simultaneously, the light reaching the first and second linear image sensors 2x and 2y by the reflected light from the round bar 4 May interfere. In order to prevent such interference, for example, the light emission timing of the point light sources 1x and 1y or the light reception timing of the linear image sensors 2x and 2y may be shifted. Specifically, when measurement is performed by driving each point light source 1x, 1y in a pulsed manner for 4 μs each, the timing of the light emitters of these point light sources 1x, 1y is shifted alternately by 4 μs. The light emission may be driven.

ここで前述したリニアイメージセンサ2x,2yの出力に基づく丸棒体4による影Aの検出処理について説明すると、上述した影Aのエッジ位置の検出処理は、光源から発せられた光の一部が遮蔽物にて遮られたとき、その端部(エッジ)においてフレネル回折が生じることに着目して、リニアイメージセンサの受光面上での光強度分布に従って前記遮蔽物の端部(エッジ)の位置を高精度に検出することによって行われる。   Here, the detection process of the shadow A by the round bar 4 based on the outputs of the linear image sensors 2x and 2y described above will be described. In the above-described detection process of the edge position of the shadow A, a part of the light emitted from the light source is obtained. Paying attention to the fact that Fresnel diffraction occurs at the edge (edge) when blocked by the shield, the position of the edge (edge) of the shield according to the light intensity distribution on the light receiving surface of the linear image sensor Is detected with high accuracy.

即ち、遮蔽物がリニアイメージセンサにおける受光セルの配列方向の一端側から単色平行光の光路を遮る板状のものである場合、該遮蔽物のエッジにおけるフレネル回折による光強度分布は、図3に示すようにエッジ位置近傍で急峻に立ち上がり、エッジ位置から離れるに従って振動しながら収束する。このような光強度分布の特性は、単色平行光の波長をλ[nm]、遮蔽物のエッジから受光面までの距離をz[mm]、受光面上でのエッジ位置x[μm]を[0]としたとき、∫を[x=0]から[(2/λz)1/2・x]までの積分を示す演算記号として
光強度=(1/2){[1/2+S(x)]2+[1/2+C(x)]2
S(x)=∫sin(π/2)・U2dU
C(x)=∫cos(π/2)・U2dU
として表される。但し、Uは仮の変数である。
That is, when the shielding object is a plate-like object that blocks the optical path of monochromatic parallel light from one end side in the arrangement direction of the light receiving cells in the linear image sensor, the light intensity distribution due to Fresnel diffraction at the edge of the shielding object is shown in FIG. As shown, it rises steeply in the vicinity of the edge position and converges while vibrating as it moves away from the edge position. Such light intensity distribution characteristics are as follows: the wavelength of monochromatic parallel light is λ [nm], the distance from the edge of the shield to the light receiving surface is z [mm], and the edge position x [μm] on the light receiving surface is [ 0], ∫ is an operation symbol indicating an integration from [x = 0] to [(2 / λz) 1/2 · x]. Light intensity = (1/2) {[1/2 + S (x) ] 2 + [1/2 + C (x)] 2 }
S (x) = ∫sin (π / 2) · U 2 dU
C (x) = ∫cos (π / 2) · U 2 dU
Represented as: However, U is a temporary variable.

また上式中の関数S(x),C(x)については、専ら数学公式集に示されるようにフレネル関数を用いて、xが大きいところでは
S(x)’≒(1/2)−(1/πx)cos(πx2/2)
C(x)’≒(1/2)+(1/πx)sin(πx2/2)
としてそれぞれ近似することができる。従って基本的には上記近似式S(x)’,C(x)’を用いることにより、前記リニアイメージセンサの各受光セルによる受光強度から前述したエッジ位置を計算することができる。
As for the functions S (x) and C (x) in the above equation, the Fresnel function is used exclusively as shown in the mathematical formulas, and S (x) ′ ≈ (1/2) − where x is large. (1 / πx) cos (πx 2/2)
C (x) '≒ (1/2 ) + (1 / πx) sin (πx 2/2)
Can be approximated respectively. Therefore, basically, by using the approximate expressions S (x) ′ and C (x) ′, the edge position described above can be calculated from the received light intensity of each light receiving cell of the linear image sensor.

しかしながら実際に計算してみると、図4に示すように関数S(x),C(x)とその近似式S(x)’,C(x)’とは、その立ち上がり以降の収束部分(2山目以降)において非常に良好に近似するものの、最初の立ち上がり部分(1山目)において大きなずれがあることが否めない。特にこの最初の立ち上がり部分の特性はエッジ検出において重要な役割を担うものであり、その特性のずれはエッジ位置の検出精度の低下の要因となる。   However, when actually calculated, as shown in FIG. 4, the functions S (x) and C (x) and the approximate expressions S (x) ′ and C (x) ′ are converged after the rise ( Although it approximates very well in the second and subsequent peaks, it cannot be denied that there is a large shift in the first rising portion (first mountain). In particular, the characteristic of the first rising portion plays an important role in edge detection, and the deviation of the characteristic causes a decrease in the detection accuracy of the edge position.

そこで本発明者は先に特許文献4にて単色平行光のフレネル回折による受光面上での光強度分布の最初の立ち上がり部分、特にその1山目の分布特性が、a,b,cをそれぞれ係数として
y=a・sech(bx+c)
なるハイパボリックセカンド関数sech(x)に極めて良好に近似することを見出した。そしてこのハイパボリックセカンド関数sech(x)を用いて前記リニアイメージセンサの出力(光強度)を解析し、前述したフレネル回折による受光面上での光強度分布において光強度(相対値)が[0.25]となる位置xoを前記遮蔽物の前記受光セルの配列方向におけるエッジ位置として検出することを提唱した。
Therefore, the present inventor previously described in Patent Document 4 that the first rising portion of the light intensity distribution on the light receiving surface by Fresnel diffraction of monochromatic parallel light, particularly the distribution characteristics of the first mountain, a, b, c respectively. As coefficient y = a · sech (bx + c)
It was found that the hyperbolic second function sech (x) is very well approximated. Then, the output (light intensity) of the linear image sensor is analyzed using this hyperbolic second function sech (x), and the light intensity (relative value) in the light intensity distribution on the light receiving surface by Fresnel diffraction described above is [0. 25] is proposed as the edge position in the arrangement direction of the light receiving cells of the shield.

具体的には上述したハイパボリックセカンド関数を前述したフレネル回折による光強度分布の式に当て嵌めて該光強度分の最初の立ち上がり部分(1山目)までを近似すると、そのハイパボリックセカンド関数sech(x)は
光強度=1.37sech{1.98(2/λz)1/2x−2.39}
として示される。この近似式は3桁程度の精度で光強度分布の理論式に一致する。但し、上式においてλは光の波長[nm]、zはエッジから受光面までの距離[mm]、xは受光面上でのエッジ位置を[0]とする座標[μm]であり、これらの実用的な単位の下で上記各係数を設定している。
Specifically, when the above-described hyperbolic second function is applied to the above-described formula of the light intensity distribution by Fresnel diffraction and approximated to the first rising portion (first mountain) of the light intensity, the hyperbolic second function sech (x ) Is the light intensity = 1.37 sech {1.98 (2 / λz) 1/2 x-2.39}
As shown. This approximate expression agrees with the theoretical expression of the light intensity distribution with an accuracy of about three digits. Where λ is the wavelength of light [nm], z is the distance from the edge to the light receiving surface [mm], and x is the coordinate [μm] where the edge position on the light receiving surface is [0]. The above coefficients are set under practical units.

このようなハイパボリックセカンド関数sech(x)を用いたエッジ位置の検出処理のアルゴリズムについて説明する。ハイパボリックセカンド関数sech(x)を用いて近似される光強度の逆関数を計算すると、
Y=(y/1.37)
X=1.98(2/λz)1/2
とおいて、
X=2.39−ln{[1+(1−Y2)1/2]/Y}
として表すことができる。
An algorithm of edge position detection processing using such a hyperbolic second function sech (x) will be described. When calculating the inverse function of the approximated light intensity using the hyperbolic second function sech (x),
Y = (y / 1.37)
X = 1.98 (2 / λz) 1/2 x
Anyway,
X = 2.39−ln {[1+ (1−Y 2 ) 1/2 ] / Y}
Can be expressed as

そこで前述したエッジ検出処理においては、基本的には、例えば図5に示す手順に従って先ずリニアイメージセンサにおける複数(m個)の受光セルから求められる正規化された各受光強度y1,y2,〜ymから、互いに隣接して前述した基準光強度[0.25]よりも大きい受光強度を得た受光セルCnと、上記基準光強度[0.25]よりも小さい受光強度を得た受光セルCn-1とをそれぞれ求めている(ステップS1)。つまり複数の受光セル1a(C1,C2,〜Cm)間のそれぞれにおいて受光強度が[0.25]となる、互いに隣接する2つの受光セルCn,Cn-1を求める。そしてこれらの各受光セルCn,Cn-1の受光強度yn,yn-1を上述した係数[1.37]で除算してX-Y座標上での光強度Yn,Yn-1に変換する(ステップS2)。   Therefore, in the edge detection processing described above, basically, for example, according to the procedure shown in FIG. 5, first, the normalized received light intensity y1, y2,... Ym obtained from a plurality (m) of light receiving cells in the linear image sensor. The light receiving cell Cn that has received light intensity greater than the above-mentioned reference light intensity [0.25] and the light receiving cell Cn− that has received light intensity smaller than the above-mentioned reference light intensity [0.25]. 1 is obtained (step S1). That is, two adjacent light receiving cells Cn and Cn-1 having a light receiving intensity of [0.25] in each of the plurality of light receiving cells 1a (C1, C2, to Cm) are obtained. Then, the received light intensity yn, yn-1 of each of the light receiving cells Cn, Cn-1 is divided by the coefficient [1.37] described above to be converted into light intensity Yn, Yn-1 on the XY coordinates ( Step S2).

しかる後、これらの各受光セルCn,Cn-1の受光強度Yn,Yn-1が得られる該受光セルCn,Cn-1の受光面上での位置Xn,Xn-1を、前述した近似式に従って
Xn=2.39−ln{[1+(1−Yn2)1/2]/Yn}
Xn-1=2.39−ln{[1+(1−Yn-12)1/2]/Yn-1}
としてそれぞれ逆変換してX軸上の相対位置を計算する(ステップS3)。そして図6にその概念を示すようにこれらの位置Xn,Xn-1から受光セルCnの位置と、受光強度が[0.25]となるエッジ位置との差Δxを
Δx=W・[Xn/(Xn−Xn-1)]
なる補間演算により計算する(ステップS4)。
Thereafter, the positions Xn and Xn-1 on the light receiving surface of the light receiving cells Cn and Cn-1 from which the light receiving intensities Yn and Yn-1 of the light receiving cells Cn and Cn-1 are obtained are expressed by the above-described approximate expression. Xn = 2.39-ln accordance {[1+ (1-Yn 2 ) 1/2] / Yn}
Xn-1 = 2.39-ln {[1+ (1-Yn-1 2 ) 1/2 ] / Yn-1}
As a result, the relative position on the X-axis is calculated by performing inverse transformation (step S3). Then, as shown in FIG. 6, the difference Δx between the position of the light receiving cell Cn from these positions Xn and Xn−1 and the edge position where the light receiving intensity is [0.25] is expressed as Δx = W · [Xn / (Xn-Xn-1)]
It calculates by the interpolation calculation which becomes (step S4).

尚、上記差Δxは、受光強度が[0.25]となるエッジ位置xoから受光セルCnの位置までの距離であるので、リニアイメージセンサの受光面全体において1番目の受光セルC1から測ったときのエッジの絶対位置xは、nを光量Y2を得た受光セルのセル番号、受光セルの配列ピッチをWとしたとき
x=n・W−Δx
として求めることが可能となる。また上記逆変換において求められる相対位置Xn,Xn-1は、
X=1.98(2/λz)1/2
として示されるように[1.98(2/λz)1/2]倍された値であるが、上記補間演算で比を求めることにより実質的にこの項は削除される。
The difference Δx is the distance from the edge position xo where the received light intensity is [0.25] to the position of the light receiving cell Cn, and is thus measured from the first light receiving cell C1 on the entire light receiving surface of the linear image sensor. When the absolute position x of the edge is the cell number of the light receiving cell where the light quantity Y2 is obtained and the array pitch of the light receiving cells is W, x = n · W−Δx
Can be obtained as The relative positions Xn and Xn-1 obtained in the inverse transformation are
X = 1.98 (2 / λz) 1/2 x
As shown below, the value is multiplied by [1.98 (2 / λz) 1/2 ], but this term is substantially eliminated by obtaining the ratio by the above-described interpolation calculation.

この補間演算については前述した近似式を用いて実行しても良いが、上述した2つの受光セルCn,Cn-1間での光強度の変化が直線的であると見なし得る場合には、単純な直線補間であっても良い。またここでは隣接する受光セル間で光強度が[0.25]となる位置を見出し、その位置をセル境界とする2つの受光セルCn,Cn-1を特定したが、単に上記位置を挟む2つ以上の受光セルを特定しても良い。但し、この場合には必ず前述した近似式を用いて補間演算を行うことで、その演算精度の低下を防止するようにすれば良い。また上述した逆変換については、例えば予めその計算値を記憶したテーブルを用いることで、その演算処理負担を大幅に軽減して瞬時に実行することが可能である。   This interpolation calculation may be executed using the above-described approximate expression. However, if the change in light intensity between the two light receiving cells Cn and Cn-1 can be regarded as linear, it is simple. Simple linear interpolation may be used. Here, a position where the light intensity is [0.25] is found between adjacent light receiving cells, and the two light receiving cells Cn and Cn-1 having the position as the cell boundary are specified. Two or more light receiving cells may be specified. However, in this case, it is only necessary to prevent the calculation accuracy from being lowered by performing the interpolation calculation using the approximate expression described above. Further, the inverse transformation described above can be executed instantaneously, for example, by using a table in which the calculated values are stored in advance, thereby greatly reducing the calculation processing load.

ところで遮蔽物が前述したように微小径の棒状体、例えばドリル刃である場合、ドリル刃(丸棒体)の両側部においてそれぞれ単色平行光のフレネル回折が生じる。これ故、リニアイメージセンサ2x(2y)の受光面におけるフレネル回折パターンは、例えば図7(a)に示すようにドリル刃(丸棒体)の中心位置の両側においてそれぞれ振動しながら収束するような対称性を有するパターンとなる。またリニアイメージセンサ2x,2yの各受光セルでの受光強度は図7(b)に示すようになる。しかも丸棒体(ドリル刃)4の径が200μm以下である場合には、その受光強度が[0.25]まで低下しないことがある。従ってこの場合には、前述したようにフレネル回折の近似式を用いて光量が[0.25]となる位置を正確に求めることができない虞が生じる。   By the way, when the shield is a rod-shaped body having a very small diameter as described above, for example, a drill blade, Fresnel diffraction of monochromatic parallel light occurs at both sides of the drill blade (round bar body). Therefore, the Fresnel diffraction pattern on the light receiving surface of the linear image sensor 2x (2y) converges while vibrating on both sides of the center position of the drill blade (round bar) as shown in FIG. 7A, for example. The pattern has symmetry. Further, the received light intensity in each light receiving cell of the linear image sensors 2x and 2y is as shown in FIG. Moreover, when the diameter of the round bar (drilling blade) 4 is 200 μm or less, the received light intensity may not decrease to [0.25]. Therefore, in this case, there is a possibility that the position where the light quantity becomes [0.25] cannot be accurately obtained using the approximate expression of Fresnel diffraction as described above.

しかしながら図7(a)に示す回折パターンは、近似的には図7(c)に示すように遮蔽物(丸棒体)の両側においてそれぞれ生じたフレネル回折が合成したものであると看做し得る。従って、例えば半径rの丸棒体(遮蔽物)4の周囲を通過した光の強度A(x)は、その左側の回折パターンの光強度A(x)Lと、右側の回折パターンの光強度A(x)Rとを合成した
A(x)=A(x)L+A(x)R
=1.37sech{−1.98(2/λz)1/2(x+r)−2.39}
+1.37sech{1.98(2/λz)1/2(x−r)−2.39}
として捉えることができる。しかし丸棒体(ドリル刃)の径が細くなると、左側および右側の回折パターンの光強度A(x)L,A(x)Rにおける[0.25]付近での重なりが大きく影響し、リニアイメージセンサの受光面上での光強度が[0.25]を大きく上回るようになるので、前述したように光量が[0.25]となる位置をそのエッジ位置として直接検出することはできなくなる。
However, the diffraction pattern shown in FIG. 7 (a) is considered to be a composite of Fresnel diffraction generated on both sides of the shield (round bar) as shown in FIG. 7 (c). obtain. Therefore, for example, the intensity A (x) of the light passing through the periphery of the round bar (shield) 4 having the radius r is the light intensity A (x) L of the left diffraction pattern and the light intensity of the right diffraction pattern. A (x) R synthesized with A (x) R A (x) = A (x) L + A (x) R
= 1.37 sech {-1.98 (2 / λz) 1/2 (x + r) -2.39}
+1.37 sech {1.98 (2 / λz) 1/2 (x−r) −2.39}
Can be understood as However, as the diameter of the round bar (drilling blade) becomes smaller, the overlap of the left and right diffraction patterns near the [0.25] in the light intensities A (x) L and A (x) R greatly affects the linear pattern. Since the light intensity on the light receiving surface of the image sensor greatly exceeds [0.25], the position where the light amount is [0.25] cannot be directly detected as the edge position as described above. .

そこで径計測処理においては、上述した左側および右側の回折パターンの光強度A(x)L,A(x)Rにおいて、その最初の立ち上がり部分における他方の回折パターンの影響を殆ど受けることのない部位、具体的には光強度(光量)が[0.5〜0.9]となる部位に着目し、例えば図8にその処理手順を示すように光強度(光量)が、例えば[0.75]となる概略的なエッジ位置XR,XLをそれぞれ求めている(ステップS11,12)。そしてこれらの左右の概略的なエッジ位置XR,XLから回折パターンA(x)においてその光量が[0.75]となる影幅2aを求め(ステップS13)、この影幅2aに従って前述した丸棒体の半径rを逆算することでその径(直径)2rを求めている(ステップS14)。 Therefore, in the diameter measurement process, the light intensity A (x) L, A (x) R of the left and right diffraction patterns described above is a part that is hardly affected by the other diffraction pattern at the first rising portion. Specifically, attention is paid to a part where the light intensity (light quantity) is [0.5 to 0.9], and the light intensity (light quantity) is, for example, [0.75] as shown in FIG. , Approximate edge positions X R and X L are obtained (steps S11 and S12). Then, a shadow width 2a in which the amount of light is [0.75] in the diffraction pattern A (x) is obtained from these rough left and right edge positions X R and X L (step S13). The diameter (diameter) 2r is obtained by calculating back the radius r of the round bar (step S14).

具体的には右側の回折パターンA(x)Rから、光量が[0.75]となるエッジ位置XRを次のようにして求める。即ち、光強度y
y=1.37sech{1.98(2/λz)1/2X−1.21}
において、
Y=y/1.37
と置くと、
sech-1(Y)=±ln[{1+(1−Y2)1/2}/Y]
=X’−1.21
但し、0<y≦1.37,0<Y≦1.0,X’=1.98(2/λz)1/2
となる。
Specifically, the edge position X R where the light intensity is [0.75] is obtained from the right diffraction pattern A (x) R as follows. That is, the light intensity y
y = 1.37 sech {1.98 (2 / λz) 1/2 X−1.21}
In
Y = y / 1.37
And put
sech −1 (Y) = ± ln [{1+ (1−Y 2 ) 1/2 } / Y]
= X'-1.21
However, 0 <y ≦ 1.37, 0 <Y ≦ 1.0, X ′ = 1.98 (2 / λz) 1/2 X
It becomes.

そこで今、102セルからなるリニアイメージセンサ2x(2y)の各受光セルでの計測値(正規化したデータy0,y1,y2,…y101)で、[n−1]番目のセルとn番目のセルとの間に光強度が[0.75]となる位置が存在し、上記[n−1]番目およぴn番目のセルでの光強度がyn-1,ynであったとすると、
Yn-1=yn-1/1.37 ,Yn=yn/1.37
として、前述した図6に示した場合と同様に光強度が[0.75]となる位置は
X’n-1=1.21−ln[{1+(1−Yn-12)1/2}/Yn-1]
X’n=1.21−ln[{1+(1−Yn2)1/2}/Yn]
としてそれぞれ写像することができる。この結果、これらの写像位置からそのエッジ位置XR
R[μm]=w{n−X’n/(X’n−X’n-1)}
として補間処理により簡単に、しかも正確に求めることができる。但し、wはセルの幅である。尚、前述したようにX’n,X’n-1は、本来のセルの位置ではなく、1.98(2/λz)1/2倍された値であるが、上述したように比を求めることで実質的にはこの項が消去されるので、距離zが不明であっても正確に補間処理を行い得る。
Therefore, the measured values (normalized data y0, y1, y2,..., Y101) in each light receiving cell of the linear image sensor 2x (2y) composed of 102 cells are the [n−1] th cell and the nth cell. If there is a position where the light intensity is [0.75] between the cells and the light intensity in the [n-1] th and nth cells is yn-1, yn,
Yn-1 = yn-1 / 1.37, Yn = yn / 1.37
As in the case shown in FIG. 6 described above, the position where the light intensity is [0.75] is X′n−1 = 1.21−ln [{1+ (1−Yn−1 2 ) 1/2. } / Yn-1]
X′n = 1.21−ln [{1+ (1−Yn 2 ) 1/2 } / Yn]
Can be mapped respectively. As a result, the edge position X R is changed from these mapping positions to X R [μm] = w {n−X′n / (X′n−X′n−1)}.
Can be obtained easily and accurately by interpolation processing. Where w is the width of the cell. As described above, X′n and X′n−1 are not original cell positions but are values multiplied by 1.98 (2 / λz) 1/2. Since this term is substantially eliminated by obtaining, the interpolation process can be performed accurately even if the distance z is unknown.

また同様にして左側の回折パターンA(x)Lから、光量が[0.75]となるエッジ位置XLを求める。そしてこれらの各回折パターンA(x)R,A(x)Lからそれぞれ求めたエッジ位置XR,XLに従って、光量[0.75]となる位置での遮光幅(影幅)2aを
2a=XR−XL
として求める。
Similarly, an edge position X L at which the light amount is [0.75] is obtained from the left diffraction pattern A (x) L. Then, according to the edge positions X R and X L obtained from these diffraction patterns A (x) R and A (x) L, the light shielding width (shadow width) 2a at the position where the light quantity is [0.75] is set to 2a. = X R -X L
Asking.

次いで前述した右側および左側の回折パターンの光強度A(x)R,A(x)Lを合成した回折パターンを表す式に上記光量[0.75]と影幅2aの半分の値aとを代入し、丸棒体4の半径rを逆算して求める。このrの逆算については、例えばニュートン法を利用して数値計算するようにすれば良い。具体的には
f(r)=1.37sech{−1.98(2/λz)1/2(a+r)−2.39}
+1.37sech{1.98(2/λz)1/2(a−r)−2.39}
−0.75
とすれば、その微分は
f'(r)=−2.71(2/λz)1/2
×sech{−1.98(2/λz)1/2(a+r)−2.39}
×tanh{−1.98(2/λz)1/2(a+r)−2.39}
−2.71(2/λz)1/2
×sech{1.98(2/λz)1/2(a−r)−2.39}
×tanh{1.98(2/λz)1/2(a−r)−2.39}
となる。
Next, the above light quantity [0.75] and half the value a of the shadow width 2a are added to the expression representing the diffraction pattern obtained by combining the light intensities A (x) R and A (x) L of the right and left diffraction patterns. Substituting and calculating the radius r of the round bar 4 by back calculation. For the reverse calculation of r, for example, numerical calculation may be performed using the Newton method. Specifically, f (r) = 1.37 sech {-1.98 (2 / λz) 1/2 (a + r) -2.39}
+1.37 sech {1.98 (2 / λz) 1/2 (ar) -2.39}
-0.75
Then, the derivative is f ′ (r) = − 2.71 (2 / λz) 1/2
Xsech {-1.98 (2 / λz) 1/2 (a + r) -2.39}
Xtanh {-1.98 (2 / λz) 1/2 (a + r) -2.39}
-2.71 (2 / λz) 1/2
× sech {1.98 (2 / λz) 1/2 (ar) -2.39}
X tanh {1.98 (2 / λz) 1/2 (ar) -2.39}
It becomes.

そこでrの初期値r0を
r0={2a−0.845(λz)1/2}/2
とし、
n=rn-1−f(rn-1)/f'(rn-1)
n=1,2,3,…
として[rn−rn-1]の絶対値が、例えば0.01以下となるまで繰り返し計算すれば、その収束したrを丸棒体4の半径として求めることが可能となる。従って丸棒体4の径については、上記半径rの2倍として、具体的には2rとして求めることが可能となる。
Therefore, the initial value r0 of r is set to r0 = {2a−0.845 (λz) 1/2 } / 2
age,
r n = r n−1 −f (r n−1 ) / f ′ (r n−1 )
n = 1,2,3, ...
If it is repeatedly calculated until the absolute value of [r n −r n−1 ] is, for example, 0.01 or less, the converged r can be obtained as the radius of the round bar 4. Therefore, the diameter of the round bar 4 can be obtained as twice the radius r, specifically as 2r.

尚、丸棒体の径が或る程度太く、右側および左側の回折パターンの光強度A(x)R,A(x)L間の干渉が無視できる場合には、片方の回折パターンの光強度A(x)R,A(x)Lを用いるだけで、例えば
0.75=1.37sech{1.98(2/λz)1/2(a-r)−2.39}
を解くだけで、
2r=2a−0.845(λz)1/2
としてその半径rを求めることができる。即ち光量[0.75]での影幅2aからその光学系の規定値である[0.845(λz)1/2]を引くだけで簡単に丸棒体の直径(ドリル径)2rを求めることができる。
If the diameter of the round bar is somewhat thick and the interference between the right and left diffraction patterns A (x) R and A (x) L is negligible, the light intensity of one diffraction pattern By simply using A (x) R and A (x) L, for example, 0.75 = 1.37 sech {1.98 (2 / λz) 1/2 (ar) -2.39}
Just solve
2r = 2a-0.845 (λz) 1/2
The radius r can be obtained as follows. That is, the diameter (drill diameter) 2r of the round bar is simply obtained by simply subtracting [0.845 (λz) 1/2 ], which is the prescribed value of the optical system, from the shadow width 2a at the light amount [0.75]. be able to.

ところで本発明に係る光学センサ装置は前述したように点光源1x,1yからそれぞれ発せられた単色光をそのままリニアイメージセンサ2x,2yに向けて投光するように構成されている。この場合、点光源1x,1yからラインセンサ2x,2yに向けて投光される光は所定の拡がり角を有しており、前述した単色平行光ではないので厳密な意味では遮蔽物(丸棒体)の端部(エッジ)においてフレネル回折は生じない。しかし点光源1x,1yとしてのLDから発せられるレーザ光の拡がり角は、一般的には高々17°程度と比較的狭いので、これを平行光と看做して、つまりフレネル回折が生じていると看做して前述したようにエッジ検出を行っても殆ど計測誤差が生じない。従って点光源1x,1yとして上述した拡がり角が17°程度の単色光を発するレーザダイオード(LD)を用いた場合には、前述したエッジ検出の手法をそのまま用いることで、丸棒体4による影Aの幅2aを高精度に検出することが可能となる。   By the way, as described above, the optical sensor device according to the present invention is configured to project the monochromatic light respectively emitted from the point light sources 1x and 1y directly toward the linear image sensors 2x and 2y. In this case, the light projected from the point light sources 1x and 1y toward the line sensors 2x and 2y has a predetermined divergence angle and is not the above-mentioned monochromatic parallel light. Fresnel diffraction does not occur at the edge of the body. However, the divergence angle of the laser light emitted from the LD as the point light sources 1x and 1y is generally relatively narrow at about 17 ° at most, so that this is regarded as parallel light, that is, Fresnel diffraction occurs. Therefore, even if edge detection is performed as described above, almost no measurement error occurs. Therefore, when the above-described laser diode (LD) that emits monochromatic light having an divergence angle of about 17 ° is used as the point light sources 1x and 1y, by using the above-described edge detection method as it is, It becomes possible to detect the width 2a of A with high accuracy.

またこの光学センサ装置においては点光源1x,1yから所定の拡がり角を有する光をそのまま放射しているので、その光学系は、例えば図9に模式的に示すように点光源1x(1y)から発せられた単色光(レーザ光)の影が拡大されてリニアイメージセンサ2x(2y)の受光面に投影される拡大光学系となる。そして丸棒体4による影Aは、点光源1x(1y)とリニアイメージセンサ2x(2y)との距離SDと、上記丸棒体4とリニアイメージセンサ2x(2y)との距離WDとの比により定まる拡大率にてリニアイメージセンサ2x(2y)上に投影されることになる。   Further, in this optical sensor device, light having a predetermined divergence angle is emitted as it is from the point light sources 1x and 1y, so that the optical system is configured from a point light source 1x (1y) as schematically shown in FIG. A shadow of the emitted monochromatic light (laser light) is magnified, and the magnified optical system is projected onto the light receiving surface of the linear image sensor 2x (2y). The shadow A by the round bar 4 is a ratio between the distance SD between the point light source 1x (1y) and the linear image sensor 2x (2y) and the distance WD between the round bar 4 and the linear image sensor 2x (2y). Is projected onto the linear image sensor 2x (2y) at an enlargement ratio determined by

そして計測光として単色平行光を用いた場合、丸棒体4の影Aは該丸棒体4の径に相当して、例えば図10(a)に示すようにそのままリニアイメージセンサ2x(2y)に投影されるが、点光源1x(1y)からの所定の拡がり角を持つ単色光を用いた場合には、図10(b)に示すように丸棒体4の影Aが拡大されてリニアイメージセンサ2x(2y)に投影されることになる。従ってこの拡大された丸棒体の影Aの幅2aを前述した如く求めれば、前述した拡大光学系の拡大率が明らかであることを条件として上記計測値(影幅)2aから上記丸棒体4の径を求めることが可能となる。   When monochromatic parallel light is used as measurement light, the shadow A of the round bar 4 corresponds to the diameter of the round bar 4 and, for example, the linear image sensor 2x (2y) as it is as shown in FIG. In the case where monochromatic light having a predetermined divergence angle from the point light source 1x (1y) is used, the shadow A of the round bar 4 is enlarged and linear as shown in FIG. 10 (b). It is projected onto the image sensor 2x (2y). Accordingly, if the width 2a of the shadow A of the enlarged round bar is obtained as described above, the round bar is obtained from the measured value (shadow width) 2a on the condition that the enlargement ratio of the above-mentioned enlargement optical system is clear. 4 can be obtained.

即ち、丸棒体4の直径が2rである場合、上記拡大光学系によれば該丸棒体4の影幅2aは
2a=2r・SD/(SD−WD)
と拡大して検出される。従って丸棒体4の影幅2aを前述した如く計測すれば、丸棒体4の径2rは、その拡大率から逆算して
2r=2a(SD−WD)/SD
として求めることが可能となる。また同時にその計測誤差も[(SD−WD)/SD]だけ小さくすることができるので、その計測精度を高めることが可能となる。
That is, when the diameter of the round bar 4 is 2r, the shadow width 2a of the round bar 4 is 2a = 2r · SD / (SD−WD) according to the above-mentioned magnifying optical system.
It is detected by expanding. Therefore, if the shadow width 2a of the round bar 4 is measured as described above, the diameter 2r of the round bar 4 is calculated back from the enlargement factor 2r = 2a (SD-WD) / SD.
Can be obtained as At the same time, since the measurement error can be reduced by [(SD−WD) / SD], the measurement accuracy can be increased.

尚、厳密には遮蔽物が丸棒体なので、図9に示すように単色光に対するエッジ位置は点光源1x(1y)を通る接線上の位置になる。これ故、リニアイメージセンサ2x(2y)上で求められる影Aの幅2aは、実際の丸棒体4の径よりも若干狭くなる。しかし点光源1x(1y)とリニアイメージセンサ2x(2y)との距離SD、および丸棒体4とリニアイメージセンサ2x(2y)との距離WDがそれぞれ明らかであれば、その幾何学的関係から
2r=2a(SD−WD)/{(2a)2+SD21/2
として容易に丸棒体4の真の径2rを計算することができる。
Strictly speaking, since the shield is a round bar, the edge position with respect to the monochromatic light is a position on a tangent line passing through the point light source 1x (1y) as shown in FIG. Therefore, the width 2a of the shadow A obtained on the linear image sensor 2x (2y) is slightly narrower than the diameter of the actual round bar 4. However, if the distance SD between the point light source 1x (1y) and the linear image sensor 2x (2y) and the distance WD between the round bar 4 and the linear image sensor 2x (2y) are respectively clear, the geometric relationship can be obtained. 2r = 2a (SD-WD) / {(2a) 2 + SD 2 } 1/2
As a result, the true diameter 2r of the round bar 4 can be easily calculated.

ちなみに丸棒体4がドリルに装着(チャッキング)されるドリル刃であるような場合、通常、その装着位置が予め規定されているので、例えば前述した光学系における丸棒体(ドリル刃)4の位置を点光源1x,1yとリニアイメージセンサ2x,2yとの対向距離SDの中間点(1/2の点)として定めておけば、上述した幾何学的関係からその拡大率を2倍(略2倍)として容易に丸棒体(ドリル刃)4の径を求めることが可能となる。しかしながら丸棒体(ドリル刃)4が、必ずしも上記光学系の中間点に正確に位置付けられるとは限らない。そして丸棒体(ドリル刃)4が予め定められた位置(例えば中間点)からずれていると、当然のことながらが丸棒体4とリニアイメージセンサ2x(2y)との距離WDが変化するのでその拡大率が異なってくる。   Incidentally, when the round bar 4 is a drill blade to be mounted (chucked) on a drill, the mounting position is normally defined in advance, so that, for example, the round bar (drill blade) 4 in the optical system described above, for example. Is defined as an intermediate point (1/2 point) of the opposing distance SD between the point light sources 1x, 1y and the linear image sensors 2x, 2y, the magnification rate is doubled from the above geometric relationship ( As a result, the diameter of the round bar (drill blade) 4 can be easily obtained. However, the round bar (drill blade) 4 is not necessarily positioned accurately at the intermediate point of the optical system. If the round bar (drill blade) 4 is deviated from a predetermined position (for example, an intermediate point), the distance WD between the round bar 4 and the linear image sensor 2x (2y) naturally changes. So the magnification will be different.

具体的には、例えば図11に示すように丸棒体4が光軸方向にずれた場合、上記距離WDに応じて拡大率が変化するので、その拡大率に応じてリニアイメージセンサ2x(2y)の受光面上に形成される影Aの幅2aも変化する。即ち、丸棒体4とリニアイメージセンサ2x(2y)との距離WDが短くなるに従ってその拡大率が小さくなり、これに伴って影Aの幅2aが小さくなる。   Specifically, for example, as shown in FIG. 11, when the round bar 4 is displaced in the optical axis direction, the enlargement ratio changes according to the distance WD. Therefore, the linear image sensor 2x (2y ) Also changes the width 2a of the shadow A formed on the light receiving surface. That is, as the distance WD between the round bar 4 and the linear image sensor 2x (2y) becomes shorter, the enlargement ratio becomes smaller, and accordingly the width 2a of the shadow A becomes smaller.

また図12に示すように丸棒体4が光軸と直角な方向にずれた場合には、リニアイメージセンサ2x(2y)の受光面上に形成される影Aの位置のみならず、その幅2aも変化する。例えば丸棒体4がその光軸から角度φだけずれたとすると、リニアイメージセンサ2x(2y)の受光面上における影Aの中心位置は[SD・tanφ]だけ変位し、影Aの大きさ2aは
2a=SD・[tan(θ/2+φ)+tan(θ/2−φ)]
となる。但し、θは丸棒体4の中心を通る光軸と、点光源1x(1y)を通る丸棒体4の接線とのなす角度である。
As shown in FIG. 12, when the round bar 4 is displaced in the direction perpendicular to the optical axis, not only the position of the shadow A formed on the light receiving surface of the linear image sensor 2x (2y) but also its width. 2a also changes. For example, if the round bar 4 is shifted from the optical axis by an angle φ, the center position of the shadow A on the light receiving surface of the linear image sensor 2x (2y) is displaced by [SD · tan φ], and the size 2a of the shadow A 2a = SD · [tan (θ / 2 + φ) + tan (θ / 2−φ)]
It becomes. However, θ is an angle formed by the optical axis passing through the center of the round bar 4 and the tangent line of the round bar 4 passing through the point light source 1x (1y).

ちなみに丸棒体4が光軸上に存在するとすれば(φ=0)、その影Aの幅2aは最小で[2・SDtan(θ/2)]となる。この光軸と直角方向へのずれに起因する誤差は、丸棒体4の径が小さいもの程大きく、また前述した距離WDが大きい程大きくなる。しかし上述した光軸方向のずれに比べると理論的にはその誤差は小さく、実際上は殆ど無視することができる。従って前述したように点光源1x,1yからそれぞれ所定の距離SDを隔てて対向配置され、互いに直交する向きに配列された第1および第2の光学系のリニアイメージセンサ2x,2yにて、その光路内に位置付けられた丸棒体4により生じた影Aの幅2aとその中心位置とをそれぞれ求めれば、点光源1x,1yと上記影Aの中心位置との幾何学的な位置関係から丸棒体4の2次元的な位置座標(x,y)を求めることが可能となる。   Incidentally, if the round bar 4 is present on the optical axis (φ = 0), the shadow 2 has a minimum width 2a of [2 · SDtan (θ / 2)]. The error due to the deviation in the direction perpendicular to the optical axis is larger as the diameter of the round bar 4 is smaller, and is larger as the distance WD is larger. However, the error is theoretically smaller than the above-described deviation in the optical axis direction, and can be almost ignored in practice. Therefore, as described above, the linear image sensors 2x and 2y of the first and second optical systems, which are arranged to face each other with a predetermined distance SD from the point light sources 1x and 1y and arranged in directions orthogonal to each other, If the width 2a of the shadow A generated by the round bar 4 positioned in the optical path and the center position thereof are respectively obtained, the round position can be determined from the geometric positional relationship between the point light sources 1x and 1y and the center position of the shadow A. The two-dimensional position coordinates (x, y) of the rod 4 can be obtained.

そして上記丸棒体4の位置座標(x,y)から、該丸棒体4とリニアイメージセンサ2x,2yとの距離WDをそれぞれ求めることが可能となる。換言すればリニアイメージセンサ2yの出力から求められる影Aの中心位置から丸棒体4とリニアイメージセンサ2xとの距離WDを監視し、該リニアイメージセンサ2xにて検出される影Aの拡大率を求めることができる。逆にリニアイメージセンサ2xの出力から求められる影Aの中心位置から丸棒体4とリニアイメージセンサ2yとの距離WDを監視し、該リニアイメージセンサ2yにて検出される影Aの拡大率を求めることができる。   The distance WD between the round bar 4 and the linear image sensors 2x and 2y can be obtained from the position coordinates (x, y) of the round bar 4 respectively. In other words, the distance WD between the round bar 4 and the linear image sensor 2x is monitored from the center position of the shadow A obtained from the output of the linear image sensor 2y, and the enlargement ratio of the shadow A detected by the linear image sensor 2x. Can be requested. Conversely, the distance WD between the round bar 4 and the linear image sensor 2y is monitored from the center position of the shadow A obtained from the output of the linear image sensor 2x, and the enlargement ratio of the shadow A detected by the linear image sensor 2y is determined. Can be sought.

この結果、前記リニアイメージセンサ2x(2y)の出力から求められた前記影Aの幅2aと、当該リニアイメージセンサ2x(2y)と丸棒体4との離間距離WDとから、前述したように
2r=2a(SD−WD)/{(2a)2+SD21/2
として丸棒体4の径2rを幾何学的に精度良く算出することができる。また第1および第2のリニアイメージセンサ2x,2yの出力から上述したようにしてそれぞれ求められる丸棒体4の径2rを相互に比較すれば、これによって第1および第2の光学系による丸棒体4の径計測が正しく行われたか否かを容易に検証することが可能となる。
As a result, from the width 2a of the shadow A obtained from the output of the linear image sensor 2x (2y) and the separation distance WD between the linear image sensor 2x (2y) and the round bar 4, as described above. 2r = 2a (SD-WD) / {(2a) 2 + SD 2 } 1/2
The diameter 2r of the round bar 4 can be calculated geometrically with high accuracy. Further, if the diameters 2r of the round bars 4 obtained from the outputs of the first and second linear image sensors 2x and 2y as described above are compared with each other, the rounds by the first and second optical systems are thereby compared. It is possible to easily verify whether or not the diameter measurement of the rod 4 has been performed correctly.

ところで複数の受光セル3を85μmのピッチで配列したリニアイメージセンサ2x(2y)における各受光セル3は、そのセルでの受光量をセル幅に亘って積分した信号をそれぞれ出力する。これ故、影Aのエッジに掛かる受光セル3においては、前述したように影Aのエッジがセル幅のどの位置に存在するかによって前述したようにその出力が異なってくる。しかも影Aのエッジ部分において受光セル3に部分的に入射する光は前述したように厳密な意味でフレネル回折を生じたものではないので、エッジ位置を求める際の誤差要因となる。   By the way, each light receiving cell 3 in the linear image sensor 2x (2y) in which a plurality of light receiving cells 3 are arranged at a pitch of 85 μm outputs a signal obtained by integrating the amount of light received in the cell over the cell width. Therefore, in the light receiving cell 3 applied to the edge of the shadow A, as described above, the output differs depending on the position of the cell width where the edge of the shadow A exists. In addition, the light partially incident on the light receiving cell 3 at the edge portion of the shadow A does not cause Fresnel diffraction in a strict sense as described above, and thus becomes an error factor when obtaining the edge position.

更には前述したように回折により生じた左右の各エッジの光量分布が、互いに他方のエッジにおける光量変化に影響を与えるので、左右のエッジ位置の幅に相当する丸棒体4の径によっても上述した誤差の大きさが変化する。また丸棒体1がドリル刃であって、その径が100μm以下である場合、図13に模式的に示すようにドリル刃の螺旋ピッチが受光セル3の並び方向のピッチ(85μm)よりも小さくなり、受光セル3に対して中途半端な影を作る。このため、前述した補間演算において誤差が生じることが否めない。   Further, as described above, the light quantity distribution of the left and right edges caused by diffraction affects the change in the light quantity at the other edge, so that the above-mentioned also depends on the diameter of the round bar 4 corresponding to the width of the left and right edge positions. The magnitude of the error has changed. Further, when the round bar 1 is a drill blade and the diameter thereof is 100 μm or less, the spiral pitch of the drill blade is smaller than the pitch (85 μm) in the arrangement direction of the light receiving cells 3 as schematically shown in FIG. Thus, a halfway shadow is made on the light receiving cell 3. For this reason, it cannot be denied that an error occurs in the above-described interpolation calculation.

そこで実際に径の既知なる複数の丸棒体(ドリル刃)4を用い、これらの丸棒体4をリニアイメージセンサ2x(2y)における受光セル3の配列方向に沿って、つまり点光源1x(1y)から射出された光の光軸に直角な方向に一定速度で移動させ、左右のエッジ位置(リニアイメージセンサの左端および右端からの距離)の変化を記録し、その移動距離(直線)からのずれ(誤差成分)について調べてみた。そしてこの誤差分布からセル幅周期の成分をディジタルフィルタを用いて抽出してみたところ、例えば図14および図15にそれぞれ示すようにセル幅周期で変化する誤差分布を有していた。尚、図14は光学系の拡大率を2倍としたときの誤差成分であり、正弦波のような変化を示していた。また図15は光学系の拡大率を1.2倍としたときの誤差成分であり、周期的に歪んだ形状となっている。   Accordingly, a plurality of round bars (drilling blades) 4 having actually known diameters are used, and these round bars 4 are arranged along the arrangement direction of the light receiving cells 3 in the linear image sensor 2x (2y), that is, the point light source 1x ( 1y) is moved at a constant speed in the direction perpendicular to the optical axis of the emitted light, and changes in the left and right edge positions (distances from the left and right ends of the linear image sensor) are recorded, and from the movement distance (straight line) I examined the deviation (error component). Then, when the component of the cell width period is extracted from this error distribution using a digital filter, it has an error distribution that changes with the cell width period as shown in FIGS. 14 and 15, for example. FIG. 14 shows an error component when the magnification ratio of the optical system is doubled, and shows a change like a sine wave. FIG. 15 shows an error component when the magnification ratio of the optical system is 1.2 times, and has a periodically distorted shape.

またこのようなセル幅周期の誤差分布(形状、振幅および左右エッジの位相)は丸棒体4の径によって変化するだけでなく、リニアイメージセンサ2x(2y)との距離(拡大倍率)によっても変化する。そこで径の異なる各種の丸棒体4を用い、拡大光学系での計測倍率を種々変えて同様にして左右エッジ位置の誤差分布を求めてみたところ、次のことが明らかとなった。
(a) 光源として放射光を用いているので、丸棒体4の位置によって計測倍率が変わると影Aの幅が変化し、これに伴って誤差分布の振幅および形、更にはエッジ間の位相が変化する。
(b) また影幅に対する誤差振幅の大きさは概ね放物線のような関係にあり、概して影幅が小さい場合、および影幅が大きい場合には誤差分布の振幅が大きくなる。
(c) 更には丸棒体4の径に応じて計測倍率を変えて影幅を一定にした場合、左右のエッジ間の位相は変わらないが、誤差分布の振幅や形が変化する。
Further, such an error distribution (shape, amplitude, and phase of the left and right edges) of the cell width period not only changes depending on the diameter of the round bar 4, but also depends on the distance (enlargement magnification) from the linear image sensor 2x (2y). Change. Then, when various round rods 4 having different diameters were used and the error magnification of the right and left edge positions was similarly determined by changing the measurement magnification in the magnifying optical system in various ways, the following became clear.
(a) Since synchrotron radiation is used as the light source, the width of the shadow A changes when the measurement magnification changes depending on the position of the round bar 4, and accordingly, the amplitude and shape of the error distribution, and also the phase between edges. Changes.
(b) The magnitude of the error amplitude with respect to the shadow width is generally parabolic, and the amplitude of the error distribution increases when the shadow width is generally small and when the shadow width is large.
(c) Further, when the shadow magnification is made constant by changing the measurement magnification according to the diameter of the round bar 4, the phase between the left and right edges does not change, but the amplitude and shape of the error distribution change.

これらの原因は、丸棒体4の径が0.1mm程度と小さい場合にはその両側エッジでの回折の影響で誤差が大きくなり、径が2mm程度と大きい場合には放射光による回折パターンの誤差が増えるためと思われる。
以上の事実からセル幅周期に依存する誤差については、丸棒体4とリニアイメージセンサ2x(2y)との離間距離WDがわからないと正確に補正することはできないことが明らかとなった。換言すれば、丸棒体4による遮光幅と距離WDとが明らかであれば、セル幅周期で発生する誤差分布のパターン(形状)がわかるので、例えば予め丸棒体4に対する計測倍率(距離WD)を定めておけば、例えばその誤差分布の形状をサイン関数等で近似し、遮光幅に応じて上記誤差分布の振幅を定めることでセル幅周期に依存する誤差を補正するための関数を求めることができる。またドリル刃独特の螺旋ピッチによる上述した誤差についても、その遮光幅と距離WDとが明らかであれば、おおよその径がわかる。故に、例えばドリル径に対する螺旋ピッチを考慮した特別な誤差補正関数を作れば、この補正関数を用いて上記螺旋ピッチに起因する誤差を補正することができる。
When the diameter of the round bar 4 is as small as about 0.1 mm, the error increases due to the influence of diffraction at both side edges, and when the diameter is as large as about 2 mm, the diffraction pattern of the radiated light is increased. It seems that the error increases.
From the above facts, it has been clarified that the error depending on the cell width period cannot be corrected accurately unless the separation distance WD between the round bar 4 and the linear image sensor 2x (2y) is known. In other words, if the light shielding width and the distance WD by the round bar 4 are clear, the pattern (shape) of the error distribution generated in the cell width period can be known. ) Is determined, for example, the shape of the error distribution is approximated by a sine function or the like, and the function for correcting the error depending on the cell width period is obtained by determining the amplitude of the error distribution according to the light shielding width. be able to. Further, regarding the above-described error due to the spiral pitch unique to the drill blade, if the light shielding width and the distance WD are clear, an approximate diameter can be obtained. Therefore, for example, if a special error correction function considering the helical pitch with respect to the drill diameter is created, the error due to the helical pitch can be corrected using this correction function.

従ってリニアイメージセンサ2x(2y)の出力から左右のエッジ位置を求める際、上記誤差分布のパターン(補正関数f)に従って前述した如く求められるX軸上でのエッジ位置ΔXを
ΔX’=ΔX−f(Δx,WD,2a)
として補正すれば、これによってその検出精度を高めることが可能となる。
Accordingly, when the left and right edge positions are obtained from the output of the linear image sensor 2x (2y), the edge position ΔX on the X axis obtained as described above according to the error distribution pattern (correction function f) is expressed as follows: ΔX ′ = ΔX−f (Δx, WD, 2a)
As a result, the detection accuracy can be increased.

ちなみに上記補正関数fについては、例えば光路長SDが48mmの光学系においてリニアイメージセンサ2x(2y)と丸棒体4との距離WDを24mmとしてその計測倍率を2倍とした場合、そのときの遮光幅に応じて、例えば表1に示すようなセル幅85μmを1周期とするサイン関数(sin関数)として与えるようにすれば良く、また上記光学系において距離WDを8mm(計測倍率を1.2倍)とした場合には表2に示すようなセル幅85μmを1周期とするコサイン関数(cos関数)として与えるようにすれば良い。   Incidentally, with respect to the correction function f, for example, in an optical system having an optical path length SD of 48 mm, when the distance WD between the linear image sensor 2x (2y) and the round bar 4 is 24 mm and the measurement magnification is doubled, According to the light shielding width, for example, a cell width of 85 μm as shown in Table 1 may be given as a sine function (sin function), and the distance WD in the optical system is 8 mm (measurement magnification is 1.). 2 times), a cell width of 85 μm as shown in Table 2 may be given as a cosine function (cos function) with one period.

Figure 2006112964
Figure 2006112964

Figure 2006112964
Figure 2006112964

尚、距離WDに±1mm程度のずれが生じる虞がある場合には、予めそのずれ量に応じた補正関数fを、例えば0.1mmのずれピッチ毎に求めてテーブル化しておき、これらの補正関数fを選択的に用いるようにすれば良い。また上記補正関数fに代えて予め前記光学系での実測値をテーブル化しておき、これを用いてエッジ位置を補正するようにしても良い。このようにしてリニアイメージセンサ2x(2y)のセル幅周期に依存するエッジ位置の計測誤差を補正するようにすれば、効果的にその計測精度を更に高めることが可能となる。   When there is a possibility that a deviation of about ± 1 mm occurs in the distance WD, a correction function f corresponding to the deviation amount is obtained in advance for each deviation pitch of 0.1 mm, for example, and a table is formed. The function f may be selectively used. Further, instead of the correction function f, the actual measurement values in the optical system may be tabulated in advance and the edge position may be corrected using the table. If the measurement error of the edge position depending on the cell width period of the linear image sensor 2x (2y) is corrected in this way, the measurement accuracy can be further improved effectively.

ところで前述した丸棒体4がドリル刃である場合、上述した如くして丸棒体4の径およびその位置座標を求めることのみならず、上記ドリル刃が芯ぶれなく回転しているか否かを確認することも重要である。しかしドリル刃には、その周面に螺旋状に刃が刻まれているのでリニアイメージセンサ2x(2y)の受光面に投影される上述した光像(像パターン)はドリル刃(丸棒体)4の回転に伴って左右にぶれを生じることになる。   By the way, when the round bar 4 described above is a drill blade, not only the diameter and the position coordinates of the round bar 4 are obtained as described above, but also whether or not the drill blade is rotated without centering. It is also important to confirm. However, since the drill blade is engraved in a spiral shape on its peripheral surface, the above-described optical image (image pattern) projected on the light receiving surface of the linear image sensor 2x (2y) is the drill blade (round bar). As the 4 rotates, the left and right are shaken.

ちなみにドリル刃4がその軸心を中心として低速回転している場合には、そのぶれ自体が回転角に応じて周期的に生じるので、例えば前述したドリル径の計測時に求められる受光量が[0.75]となる位置での影幅2a(=XR−XL)を求める際、同時のその中心位置cを
c=(XR+XL)/2
として求めておけば、この中心位置cの変化幅を監視することでドリル刃4の芯ぶれを監視することができる。そして中心位置cの変化幅が所定の閾値を越えるような場合、芯ぶれ有りと判断することができる。
Incidentally, when the drill blade 4 rotates at a low speed around its axis, the vibration itself is periodically generated according to the rotation angle. For example, the amount of received light required at the time of measuring the drill diameter is 0. shadow width 2a at a position where the .75] (= X R -X L ) when calculating the, the center position c of simultaneous c = (X R + X L ) / 2
If this is obtained, the runout of the drill blade 4 can be monitored by monitoring the change width of the center position c. If the change width of the center position c exceeds a predetermined threshold value, it can be determined that there is a center shift.

しかしながらドリル刃4が高速回転している場合には、その周面に螺旋状に刻まれた刃による凹凸パターンが高速度に互いに重なり合うので、リニアイメージセンサ2x(2y)の受光面に投影される影Aが全体的にぼけた状態(いわゆるピンぼけ状態)となることが否めない。従って前述した受光量が[0.75]となる位置での影幅2a(=XR−XL)を求めること自体が困難となる。 However, when the drill blade 4 rotates at a high speed, the concave and convex patterns formed by the spirally engraved blades overlap each other at a high speed, and are thus projected onto the light receiving surface of the linear image sensor 2x (2y). It cannot be denied that the shadow A is totally blurred (so-called defocused state). Therefore, it is difficult to obtain the shadow width 2a (= X R −X L ) at the position where the received light amount is [0.75].

そこで高速回転されるドリル刃4の芯ぶれを検出するには、例えばドリル刃4が装着されるスピンドル(ドリルのチャック)に上記ドリル刃に代えて丸棒体(ダミー)4を装着し、この丸棒体4の芯ぶれを検出するようにすれば良い。即ち、ドリル刃と略同径の丸棒体(ダミー)を用いれば、前述したようにその両側部でそれぞれ回折した左右の回折パターンが合成された光像(像パターン)が得られる。しかし丸棒体(遮蔽物)4が芯ぶれを生じながら高速に回転していると、丸棒体(遮蔽物)4の位置がリニアイメージセンサ2x(2y)の受光セルの配列方向にぶれるので、概略的には左側にずれたときの回折パターンと右側にずれたときの回折パターンとが合成された、いわゆるピンぼけ状態の光像(像パターン)となる。換言すれば芯ぶれが生じるとそのエッジ自体がぼけた状態となり、本来、丸棒体4によって光が遮られて影となる部分の光量が増え、またその周辺部での光量が減少する。従ってこの状態において前述したようにして丸棒体4の径を測定すると、本来のエッジ境界部分での光量が増えた分だけ、丸棒体4の径が小さく求められる。   Therefore, in order to detect the run-out of the drill blade 4 rotated at high speed, for example, a round bar (dummy) 4 is attached to a spindle (drill chuck) to which the drill blade 4 is attached instead of the drill blade. What is necessary is just to detect the runout of the round bar 4. That is, when a round bar (dummy) having the same diameter as the drill blade is used, an optical image (image pattern) obtained by combining the left and right diffraction patterns diffracted on both sides as described above can be obtained. However, if the round bar body (shielding object) 4 rotates at a high speed while causing a runout, the position of the round bar body (shielding object) 4 is shaken in the arrangement direction of the light receiving cells of the linear image sensor 2x (2y). Schematically, the diffraction pattern when shifted to the left side and the diffraction pattern when shifted to the right side are combined to form a so-called defocused optical image (image pattern). In other words, when the runout occurs, the edge itself becomes blurred, and the light amount is originally blocked by the round bar 4 and the amount of light in the shadow portion increases, and the light amount in the peripheral portion decreases. Accordingly, when the diameter of the round bar 4 is measured in this state as described above, the diameter of the round bar 4 is required to be reduced by the amount of light at the original edge boundary.

一方、丸棒体(ドリル刃)4がその軸心を中心として高速に回転している場合(芯ぶれがない状態)、或いは丸棒体4の回転を停止させた状態においては、その光像(像パターン)に上述した芯ぶれの影響が生じないので、前述した手法により丸棒体4の径を精度良く計測することができる。また平行光の光路に丸棒体4を位置付けたときと、丸棒体4を外したときの前記リニアイメージセンサ2x(2y)による全受光量を比較すれば、丸棒体4によって光が遮られた分だけリニアイメージセンサ2x(2y)での受光量が低下するので、高い計測精度は望めないまでも、その受光量比から比較的簡単にドリル径を求めることができる。しかもこの受光量比は、単位時間・単位面積当たりに照射される光量が一定であるので丸棒体4に芯ぶれが生じているか否かに拘わらず一定である。従ってこのようにして求められる受光量比から、或いは芯ぶれのない初期状態において求められる丸棒体4の径と、前述した如く丸棒体7を高速に回転させている状態において求められる丸棒体4の径とを比較すれば、これによって丸棒体4が芯ぶれを生じているか否かを検出することが可能となる。   On the other hand, when the round bar body (drilling blade) 4 is rotating at high speed around its axis (in a state where there is no runout), or when the round bar body 4 is stopped from rotating, its optical image Since the influence of the above-mentioned center blur does not occur in (image pattern), the diameter of the round bar 4 can be accurately measured by the above-described method. Further, when the total amount of light received by the linear image sensor 2x (2y) when the round bar 4 is positioned on the optical path of the parallel light and when the round bar 4 is removed, the round bar 4 blocks the light. Since the amount of light received by the linear image sensor 2x (2y) is reduced by the amount obtained, the drill diameter can be determined relatively easily from the ratio of the amounts of received light even if high measurement accuracy cannot be expected. In addition, since the amount of light irradiated per unit time and unit area is constant, the ratio of the amount of received light is constant regardless of whether or not the round bar 4 is decentered. Accordingly, the diameter of the round bar 4 obtained in the initial state with no runout or the round bar obtained in the state where the round bar 7 is rotated at a high speed as described above from the ratio of received light quantity thus obtained. If the diameter of the body 4 is compared, it is possible to detect whether or not the round bar 4 has run out.

そこで本発明においては、例えば図16および図17に示す処理手順に従って高速回転または低速回転される丸棒体4の芯ぶれの有無を判定している。即ち、先ず初期調整作業として、単色光4の光路中に丸棒体4を入れない状態でリニアイメージセンサ2x(2y)による全受光パターンAiを求め(ステップS21)、各受光セルでの受光量の合計値S0(=ΣAi)を求める(ステップS22)。そして各受光セルでの受光量がそれぞれ[1]となるように、その正規化パラメータNi(=1/Ai)を求める(ステップS23)。 Therefore, in the present invention, for example, the presence or absence of runout of the round bar 4 rotated at high speed or low speed is determined according to the processing procedure shown in FIGS. That is, first, as an initial adjustment operation, the total light receiving pattern Ai is obtained by the linear image sensor 2x (2y) without the round bar 4 in the optical path of the monochromatic light 4 (step S21), and the amount of light received by each light receiving cell. The total value S 0 (= ΣAi) is obtained (step S22). Then, the normalization parameter Ni (= 1 / Ai) is obtained so that the amount of light received by each light receiving cell becomes [1] (step S23).

しかる後、リニアイメージセンサ2x(2y)から予め定められた距離WD、例えば拡大率が2倍となる位置(WD=SD/2)に丸棒体4を位置付け、そのときの受光パターンYiを求める(ステップS24)。そしてこの受光パターンYiを上述した正規化パラメータNiを用いて[yi=Yi×Ni]としてそれぞれ正規化し(ステップS25)、丸棒体4を入れたときの受光量の合計値S1(=Σyi)を求める(ステップS26)。その後、光路に丸棒体4を入れたときの光量S1と、丸棒体4を入れないときの光量S0との比から上記丸棒体4の半径ROPT
OPT=8670(S1/4・S0
として計算する(ステップS27)。但し、上記係数[8670]は、ピッチ幅wが85μmの受光セルを102個配列したリニアイメージセンサ2x(2y)の全体の長さを示している。
Thereafter, the round bar 4 is positioned at a predetermined distance WD from the linear image sensor 2x (2y), for example, a position where the enlargement ratio is doubled (WD = SD / 2), and the light receiving pattern Yi at that time is obtained. (Step S24). And the light receiving patterns Yi using normalization parameters Ni described above and each normalized as [yi = Yi × Ni] (step S25), and the total values S 1 of the light-receiving amount when inserting a round bar 4 (= Σyi ) Is obtained (step S26). Thereafter, the radius R OPT of the round bar body 4 is set to R OPT = 8670 (S from the ratio of the light quantity S 1 when the round bar body 4 is put into the optical path and the light quantity S 0 when the round bar body 4 is not put. 1/4 · S 0)
(Step S27). The coefficient [8670] indicates the overall length of the linear image sensor 2x (2y) in which 102 light receiving cells having a pitch width w of 85 μm are arranged.

次いで上記リニアイメージセンサ2x(2y)での受光パターンの前述した右側エッジでの回折パターンに着目し、受光量が[0.75]となる位置を挟む2つの点yn-1,ynを探し(ステップS28)、前述したように逆フレネル関数を用いて上記yn-1,ynをX軸に逆写像して位置Xn-1,Xnを求める(ステップS29)。そして逆写像した上記位置Xn-1,Xnから補間処理により、その右側エッジ位置XR
R=85[n−Xn/(Xn−Xn-1)]
として算出する(ステップS30)。
Next, paying attention to the diffraction pattern at the above-mentioned right edge of the light receiving pattern in the linear image sensor 2x (2y), two points yn-1 and yn sandwiching the position where the light receiving amount is [0.75] are searched for ( Step S28) As described above, the position Xn-1, Xn is obtained by inversely mapping yn-1, yn to the X axis using the inverse Fresnel function (step S29). Then, the right edge position X R is converted into X R = 85 [n−Xn / (Xn−Xn−1)] by interpolation from the inversely mapped positions Xn−1 and Xn.
(Step S30).

次に同様にして前記受光パターンの左側エッジでの回折パターンに着目し、左側エッジ位置XLを求める(ステップS31)。そして上記右側エッジ位置XRと左側エッジ位置XLとの差2aを受光量が[0.75]となる位置での遮光幅として求め(ステップS32)、更に上記右側エッジ位置XRと左側エッジ位置XLとから
c=(XR+XL)/2
として軸心の位置cを求める(ステップS33)。
Next, paying attention to the diffraction pattern at the left edge of the light receiving pattern, the left edge position X L is obtained (step S31). And calculated as a light-shielding width at a position where the amount of receiving a difference 2a of the right edge position X R and the left edge position X L is [0.75] (step S32), further the right edge position X R and the left edge From position X L c = (X R + X L ) / 2
As a result, the position c of the axis is obtained (step S33).

次いで前述した逆算により上記影幅2aから丸棒体4の径(半径)RCCDを求める(ステップS33)。そして前述した如く光量方式で求めた丸棒体4の径ROPTとリニアイメージセンサ2x(2y)の出力を解析して求めた上記丸棒体4の径(直径)2RCCDとの差を求め、その差が所定の閾値RMAXよりも小さいか否かを判定して芯ぶれの有無を判定する(ステップS34)。更には上述した如く求めた軸心の位置cの変位が規定値を上回るか否かを判定して芯ぶれの有無を判定する(ステップS35)。具体的には上記差(ROPT−2RCCD)が所定の閾値RMAXを越える場合には芯ぶれ有りと判定する。また上記差(ROPT−2RCCD)が所定の閾値RMAXよりも小さい場合には、更に軸心の位置cの変位が規定値を上回るか否かを判定し、軸心の位置の変位cが規定値いないであることを確認して、これを芯ぶれなしと判定する。しかし軸心の位置cの変位が規定値を上回る場合には、芯ぶれ有りと判定する。これらの2つの芯ぶれ判定の手法を併用することによって丸棒体4が低速回転しているか、或いは高速回転しているかに拘わらず、その一方の判定結果から芯ぶれの有無を容易に検出することが可能となる。 Next, the diameter (radius) R CCD of the round bar 4 is obtained from the shadow width 2a by the above-described reverse calculation (step S33). Then, as described above, the difference between the diameter R OPT of the round bar 4 obtained by the light quantity method and the diameter (diameter) 2R CCD of the round bar 4 obtained by analyzing the output of the linear image sensor 2x (2y) is obtained. Then, it is determined whether or not the difference is smaller than a predetermined threshold value R MAX to determine whether or not there is a center shift (step S34). Further, it is determined whether or not the displacement of the axial center position c obtained as described above exceeds a specified value to determine the presence or absence of the center deviation (step S35). Specifically, when the difference (R OPT −2R CCD ) exceeds a predetermined threshold value R MAX , it is determined that there is a runout. When the difference (R OPT −2R CCD ) is smaller than the predetermined threshold value R MAX , it is further determined whether or not the displacement of the axial center position c exceeds a specified value, and the displacement c of the axial center position is determined. Is determined not to be a specified value, and it is determined that there is no runout. However, if the displacement of the axial center position c exceeds a specified value, it is determined that there is a runout. By using these two methods for determining runout, whether or not the round bar 4 is rotating at low speed or high speed can easily detect the presence or absence of runout from one of the determination results. It becomes possible.

このようにして丸棒体4の芯ぶれの有無を判定する手法によれば、丸棒体4をドリルのチャックに装着して高速に回転させている状態において、その芯ぶれの有無を効果的に、且つ確実に検出することができる。しかも従来の一般的な手法に見られるように丸棒体4の軸心位置の変化を監視することなく、その芯ぶれの有無を検出することができる。換言すれば丸棒体4が高速に回転しているが故に、その軸心位置の変化を捉えることができないような状況下においても、その芯ぶれの有無を効果的に検出することができるので、その実用的利点が絶大である。特に第1および第2のリニアイメージセンサ2x(2y)の出力からそれぞれ検出される芯ぶれ量を相互に比較すれば、その芯ぶれ量の検出が正しく行われたか否かを容易に評価することが可能となる。   In this way, according to the method for determining the presence or absence of runout of the round bar 4, the presence or absence of runout is effective in a state where the round bar 4 is mounted on the chuck of the drill and rotated at high speed. In addition, it can be detected reliably. In addition, as seen in the conventional general method, it is possible to detect the presence or absence of the runout without monitoring the change in the axial center position of the round bar 4. In other words, since the round bar 4 rotates at high speed, it is possible to effectively detect the presence or absence of the runout even in a situation where the change of the axial center position cannot be detected. Its practical advantages are enormous. In particular, if the amounts of runout detected from the outputs of the first and second linear image sensors 2x (2y) are compared with each other, it is easy to evaluate whether the runout is correctly detected. Is possible.

尚、本発明は上述した実施形態に限定されるものではない。例えば丸棒体4の径を計測するに際して、この例では光量が[0.75]となる位置での遮光幅2aを求めたが、他方の回折パターンの影響がない部位においてその遮光幅(影幅)2aを求めるようにすれば良い。実用的には、例えば光量が[0.5〜0.9]となる範囲の任意の位置にて、その遮光幅2aを求めるようにすれば十分である。   The present invention is not limited to the embodiment described above. For example, when measuring the diameter of the round bar 4, in this example, the light shielding width 2a at the position where the light quantity is [0.75] is obtained. The width 2a may be obtained. Practically, for example, it is sufficient to obtain the light shielding width 2a at an arbitrary position in a range where the light quantity is [0.5 to 0.9].

また上述した構成の光学センサ装置を組み立てた際、予め径の既知なる丸棒体(基準ピン)4を、例えば各光学系の中間位置に設置して、そのときに計測される影Aの幅が上記丸棒体(基準ピン)4の2倍となるように、そのスパンパラメータを調整し、これを記憶するようにしておけば良い。このようにしてスパンパラメータを記憶しておけば、実際に上記光学センサ装置を用いて影Aの幅を計測したとき、上記スパンパラメータを用いて補正することができるので、点光源1x,1yとリニアイメージセンサ2x,2yとの位置関係の狂いに拘わることなく、影幅を正確に求めることが可能となる。従って点光源1x,1yとリニアイメージセンサ2x,2yとの光学的な配置関係のずれの影響を受けることなく、高精度に丸棒体4の径および位置検出を行うことができる。   In addition, when the optical sensor device having the above-described configuration is assembled, a round bar (reference pin) 4 having a known diameter is previously installed at, for example, an intermediate position of each optical system, and the width of the shadow A measured at that time The span parameter may be adjusted and stored so that becomes twice the round bar (reference pin) 4. If the span parameters are stored in this way, when the width of the shadow A is actually measured using the optical sensor device, correction can be made using the span parameters, so that the point light sources 1x, 1y and The shadow width can be accurately obtained without being confused with the positional relationship with the linear image sensors 2x and 2y. Therefore, the diameter and position of the round bar 4 can be detected with high accuracy without being affected by the deviation of the optical arrangement relationship between the point light sources 1x, 1y and the linear image sensors 2x, 2y.

また前述した如く求めた丸棒体4の検出位置座標を出力するようにすれば、これによって丸棒体4の位置制御を行うことも可能となり、例えば丸棒体4としてのドリル刃を用いた穴開け加工制御に有効に用いることが可能となる。その他、本発明はその要旨を逸脱しない範囲で種々変形して実施することができる。   If the detection position coordinates of the round bar 4 obtained as described above are output, it is possible to control the position of the round bar 4 by using, for example, a drill blade as the round bar 4. It can be effectively used for drilling control. In addition, the present invention can be variously modified and implemented without departing from the scope of the invention.

本発明の一実施形態に係る光学センサ装置の要部概略構成図。The principal part schematic block diagram of the optical sensor apparatus which concerns on one Embodiment of this invention. リニアイメージセンサの受光面を示す図。The figure which shows the light-receiving surface of a linear image sensor. 遮蔽物のエッジによりフレネル回折を生じた光の強度パターンを示す図。The figure which shows the intensity | strength pattern of the light which produced the Fresnel diffraction by the edge of the shield. フレネル回折による光強度分布の理論値と、関数を用いた近似特性とを対比して示す図。The figure which contrasts the theoretical value of the light intensity distribution by a Fresnel diffraction, and the approximate characteristic using a function. フレネル回折パターンからのエッジ検出処理の手順の一例を示す図。The figure which shows an example of the procedure of the edge detection process from a Fresnel diffraction pattern. 図5に示すエッジ検出の処理概念を示す図。The figure which shows the processing concept of the edge detection shown in FIG. 微小径のドリル刃により生じる回折パターンと本発明の計測原理を説明する為の図。The figure for demonstrating the diffraction pattern produced with a micro diameter drill blade, and the measurement principle of this invention. 本発明の一実施形態に係る径測定方法の処理手順を示す図。The figure which shows the process sequence of the diameter measuring method which concerns on one Embodiment of this invention. 拡大光学系における丸棒体の径と受光面上での影幅との関係を示す図。The figure which shows the relationship between the diameter of the round bar in an expansion optical system, and the shadow width on a light-receiving surface. 受光面上での影幅の変化を示す図。The figure which shows the change of the shadow width on a light-receiving surface. 拡大光学系における丸棒体の光軸方向へのずれに伴う受光面上での影の変化を示す図。The figure which shows the change of the shadow on the light-receiving surface accompanying the shift | offset | difference to the optical axis direction of the round bar in an expansion optical system. 拡大光学系における丸棒体の光軸方向と直角方向へのずれに伴う受光面上での影の変化を示す図。The figure which shows the change of the shadow on the light-receiving surface accompanying the shift | offset | difference to the orthogonal direction with the optical axis direction of the round bar in an expansion optical system. ドリル刃の螺旋ピッチに起因する誤差要因を模式的に示す図。The figure which shows typically the error factor resulting from the helical pitch of a drill blade. セル幅周期に依存するエッジ位置の誤差分布を示す図。The figure which shows the error distribution of the edge position depending on a cell width period. セル幅周期に依存するエッジ位置の誤差分布を示す図。The figure which shows the error distribution of the edge position depending on a cell width period. 芯ぶれ検出の具体的な処理手順の例を示す図。The figure which shows the example of the specific process sequence of core blur detection. 図16に示す処理手順に続く処理手順を示す図。The figure which shows the process sequence following the process sequence shown in FIG.

符号の説明Explanation of symbols

1x,1y 点光源
2x,2y リニアイメージセンサ
4 丸棒体
5x,5y 計測部
6 エッジ検出処理
7 影幅検出処理
8 位置検出処理
9 演算部
1x, 1y Point light source 2x, 2y Linear image sensor 4 Round bar 5x, 5y Measurement unit 6 Edge detection process 7 Shadow width detection process 8 Position detection process 9 Calculation unit

Claims (9)

複数の受光セルを直線状に配列した受光面をそれぞれ備え、上記受光セルの配列方向を異ならせて前記各受光面の視野領域を互いに交差させて配置した第1および第2のリニアイメージセンサと、
上記各リニアイメージセンサに対向配置されて各リニアイメージセンサの受光面の全体に到達する拡がり角の単色光をそれぞれ射出する第1および第2の点光源と、
前記点光源とリニアイメージセンサとの間に位置付けられた丸棒体により前記各リニアイメージセンサの受光面に生じた影の中心位置とその影幅とを前記各リニアイメージセンサの出力を解析してそれぞれ求める影解析手段と、
前記各リニアイメージセンサにて求められた前記影の中心位置に応じて前記各リニアイメージセンサと前記丸棒体との離間距離をそれぞれ求め、この離間距離と前記各リニアイメージセンサにて求められた前記影幅とから前記丸棒体の径を求める径算出手段と
を具備したことを特徴とする光学センサ装置。
A first linear image sensor and a second linear image sensor each having a light receiving surface in which a plurality of light receiving cells are arranged in a straight line; ,
A first point light source and a second point light source, each of which emits monochromatic light having a divergence angle that is opposed to each linear image sensor and reaches the entire light receiving surface of each linear image sensor;
By analyzing the output of each linear image sensor, the center position of the shadow generated on the light receiving surface of each linear image sensor and its shadow width by a round bar positioned between the point light source and the linear image sensor are analyzed. Each of the shadow analysis means to find,
The distance between each linear image sensor and the round bar is determined according to the center position of the shadow determined by each linear image sensor, and the distance and the distance determined by each linear image sensor. An optical sensor device comprising: a diameter calculating means for obtaining a diameter of the round bar from the shadow width.
前記影解析手段は、フレネル回折の近似式を用いて前記各リニアイメージセンサの出力を解析して前記各リニアイメージセンサによる受光パターンのエッジ位置を求め、これらのエッジ位置から前記影の中心位置とその影幅とをそれぞれ求めるものである請求項1に記載の光学センサ装置。   The shadow analysis means analyzes an output of each linear image sensor using an approximate expression of Fresnel diffraction to obtain an edge position of a light receiving pattern by each linear image sensor, and calculates the center position of the shadow from these edge positions. The optical sensor device according to claim 1, wherein each of the shadow widths is obtained. 前記径算出手段は、前記各リニアイメージセンサにおいてそれぞれ検出される影の中心位置に応じて該リニアイメージセンサにて検出された影幅を補正する影幅補正手段を備えることを特徴とする請求項1に記載の光学センサ装置。   The diameter calculating means includes shadow width correcting means for correcting a shadow width detected by the linear image sensor in accordance with a center position of a shadow detected by each of the linear image sensors. 2. The optical sensor device according to 1. 請求項1に記載の光学センサ装置において、
径の既知なる丸棒体を、前記点光源とリニアイメージセンサとの間の予め定められた位置に設けたときに計測される前記丸棒体の影の幅から、前記リニアイメージセンサの計測スパンを補正するパラメータを決定して該パラメータを記憶するパラメータ記憶手段と、
その後、丸棒体の径および/または位置の計測時には、前記リニアイメージセンサの出力からそれぞれ求められる影幅を前記パラメータ記憶手段に記憶したパラメータを用いて補正する計測スパン補正手段と
を備えることを特徴とする光学センサ装置。
The optical sensor device according to claim 1,
From the width of the shadow of the round bar measured when a round bar having a known diameter is provided at a predetermined position between the point light source and the linear image sensor, a measurement span of the linear image sensor is obtained. Parameter storage means for determining parameters for correcting and storing the parameters;
Thereafter, at the time of measuring the diameter and / or position of the round bar, it is provided with measurement span correction means for correcting the shadow width respectively obtained from the output of the linear image sensor using the parameters stored in the parameter storage means. An optical sensor device.
前記点光源とリニアイメージセンサとの間の予め定められた位置は、前記第1の点光源と前記第1のリニアイメージセンサとの対向距離、および前記第2の点光源と前記第2のリニアイメージセンサとの対向距離をそれぞれ2分する中間点であって、
前記リニアイメージセンサの計測スパンを補正するパラメータは、前記影の幅が前記丸棒体の径の2倍となるように前記リニアイメージセンサにおける受光セルの配列ピッチを補正する係数として求められる請求項4に記載の光学センサ装置。
The predetermined position between the point light source and the linear image sensor is the distance between the first point light source and the first linear image sensor, and the second point light source and the second linear sensor. It is an intermediate point that divides the facing distance with the image sensor into two parts,
The parameter for correcting the measurement span of the linear image sensor is obtained as a coefficient for correcting the arrangement pitch of the light receiving cells in the linear image sensor so that the width of the shadow is twice the diameter of the round bar. 5. The optical sensor device according to 4.
請求項1に記載の光学センサ装置において、
一方のリニアイメージセンサにて求められた前記影の中心位置に基づいて求められる他方のリニアイメージセンサと前記丸棒体との離間距離と、上記他方のリニアイメージセンサにて求められる前記丸棒体の影幅とに従って前記他方のリニアイメージセンサにおける複数の受光セルの配列ピッチに依存する前記影のエッジ位置の誤差パターンを求め、この誤差パターンに従って前記リニアイメージセンサの出力を解析して求められる受光パターンのエッジ位置を補正して前記影のエッジ位置を求めるエッジ位置補正手段を備えることを特徴とする光学センサ装置。
The optical sensor device according to claim 1,
The distance between the other linear image sensor and the round bar obtained based on the center position of the shadow obtained by one linear image sensor, and the round bar obtained by the other linear image sensor An error pattern of the edge position of the shadow depending on the arrangement pitch of the plurality of light receiving cells in the other linear image sensor is obtained according to the shadow width of the other, and the light reception obtained by analyzing the output of the linear image sensor according to the error pattern An optical sensor device comprising edge position correcting means for correcting an edge position of a pattern to obtain an edge position of the shadow.
請求項1〜6のいずれかに記載の光学センサ装置において、
前記第1および第2のリニアイメージセンサの出力からそれぞれ求められた前記丸棒体の径を互いに比較して、前記各リニアイメージセンサの出力に対する補正の適否を検証する検証手段を備えることを特徴とする光学センサ装置。
In the optical sensor device according to any one of claims 1 to 6,
The apparatus further comprises verification means for comparing the diameters of the round bars obtained from the outputs of the first and second linear image sensors with each other and verifying the suitability of correction for the outputs of the linear image sensors. An optical sensor device.
請求項1〜6のいずれかに記載の光学センサ装置において、
前記点光源とリニアイメージセンサとの間に位置付けられた丸棒体が回転していないときに求められる影幅と、上記丸棒体が回転しているときに求められる影幅とに従って前記丸棒体の回転時における芯ぶれ量を検出する芯ぶれ検出手段を備え、
前記第1および第2のリニアイメージセンサの各出力からそれぞれ求められる芯ぶれ量を相互に比較して芯ぶれ検出の適否を判定することを特徴とする光学センサ装置。
In the optical sensor device according to any one of claims 1 to 6,
The round bar according to the shadow width required when the round bar positioned between the point light source and the linear image sensor is not rotating and the shadow width required when the round bar is rotating A center blur detection means for detecting the amount of core blur at the time of rotation of the body,
An optical sensor device that determines whether or not the center shake detection is appropriate by comparing the amounts of center shake calculated from the outputs of the first and second linear image sensors.
前記第1および第2のリニアイメージセンサの各出力をそれぞれ解析して求められる前記丸棒体の中心位置を出力する座標出力手段を備えることを特徴とする請求項1〜8のいずれかに記載の光学センサ装置。   The coordinate output means which outputs the center position of the said round bar obtained by analyzing each output of the said 1st and 2nd linear image sensor, respectively is provided. Optical sensor device.
JP2004301830A 2004-10-15 2004-10-15 Optical sensor device Pending JP2006112964A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004301830A JP2006112964A (en) 2004-10-15 2004-10-15 Optical sensor device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004301830A JP2006112964A (en) 2004-10-15 2004-10-15 Optical sensor device

Publications (1)

Publication Number Publication Date
JP2006112964A true JP2006112964A (en) 2006-04-27

Family

ID=36381584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004301830A Pending JP2006112964A (en) 2004-10-15 2004-10-15 Optical sensor device

Country Status (1)

Country Link
JP (1) JP2006112964A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008082748A (en) * 2006-09-26 2008-04-10 Yamatake Corp Edge sensor, position detection method, and alignment method
JP2008082726A (en) * 2006-09-26 2008-04-10 Daido Steel Co Ltd Optical width measuring method for hot material
JP2009178818A (en) * 2008-01-31 2009-08-13 Toyama Prefecture Tool position measuring method and device
JP2011169664A (en) * 2010-02-17 2011-09-01 Keyence Corp Measuring system and method of calibrating the same
TWI477346B (en) * 2009-01-22 2015-03-21 Foxnum Technology Co Ltd Detecting system and method for cutting tools
CN113196006A (en) * 2018-12-21 2021-07-30 维美德自动化有限公司 Contactless thickness measurement
RU2774043C1 (en) * 2021-06-21 2022-06-14 Владимир Михайлович Киселев Device for control of sphericity of products with sphero-shaped

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008082748A (en) * 2006-09-26 2008-04-10 Yamatake Corp Edge sensor, position detection method, and alignment method
JP2008082726A (en) * 2006-09-26 2008-04-10 Daido Steel Co Ltd Optical width measuring method for hot material
JP2009178818A (en) * 2008-01-31 2009-08-13 Toyama Prefecture Tool position measuring method and device
TWI477346B (en) * 2009-01-22 2015-03-21 Foxnum Technology Co Ltd Detecting system and method for cutting tools
JP2011169664A (en) * 2010-02-17 2011-09-01 Keyence Corp Measuring system and method of calibrating the same
CN113196006A (en) * 2018-12-21 2021-07-30 维美德自动化有限公司 Contactless thickness measurement
RU2774043C1 (en) * 2021-06-21 2022-06-14 Владимир Михайлович Киселев Device for control of sphericity of products with sphero-shaped

Similar Documents

Publication Publication Date Title
US7433052B2 (en) Systems and methods for tilt and range measurement
CN118795723A (en) Imaging overlay targets using moire elements and rotationally symmetric arrangements
ES2910957T3 (en) Measurement system and manufacturing method of a shaft with a hole
CN105181298B (en) Multiple reflections formula confocal laser Long focal length measurement method and apparatus
JP2007071852A (en) Apparatus and method for measuring deep hole
US20140067316A1 (en) Measuring apparatus, detector deviation monitoring method and measuring method
JP2008046037A (en) Optical method and device for measuring angle/displacement
JP6711899B2 (en) Apparatus and method for characterizing a laser beam
JP2002286507A (en) Optical encoder device
JP2006112964A (en) Optical sensor device
EP2348287A2 (en) Displacement measuring apparatus and velocity measuring apparatus
JP6875923B2 (en) Scale device and biaxial displacement detector
CN110799816B (en) Measuring probe for beam scanning
JP4465676B2 (en) Edge detection method
JP4822342B2 (en) Position detection method
JP4509593B2 (en) Detection method of rod runout
JP4239202B2 (en) Measuring method of rod diameter
JP4415344B2 (en) How to detect the tip of a drill blade
JP2009068972A (en) Rotational deflection and shape measuring apparatus
JP5751514B2 (en) Sphere diameter measuring method and measuring device
JPH07253304A (en) Multi-axial positioning unit and length measuring method therefor
JP4726063B2 (en) Edge detection method and edge detection apparatus
JP4230758B2 (en) Non-contact sectional shape measuring method and apparatus
JP2005265742A (en) X-rays reflectivity measuring method
JP2008275492A (en) Autocollimator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090422

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090617

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091021