JP2016080546A - Shape measuring device and shape measuring method - Google Patents

Shape measuring device and shape measuring method Download PDF

Info

Publication number
JP2016080546A
JP2016080546A JP2014213169A JP2014213169A JP2016080546A JP 2016080546 A JP2016080546 A JP 2016080546A JP 2014213169 A JP2014213169 A JP 2014213169A JP 2014213169 A JP2014213169 A JP 2014213169A JP 2016080546 A JP2016080546 A JP 2016080546A
Authority
JP
Japan
Prior art keywords
imaging
measurement object
shape measuring
processing unit
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014213169A
Other languages
Japanese (ja)
Other versions
JP6372300B2 (en
Inventor
今野 雄介
Yusuke Konno
雄介 今野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Nippon Steel and Sumitomo Metal Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel and Sumitomo Metal Corp filed Critical Nippon Steel and Sumitomo Metal Corp
Priority to JP2014213169A priority Critical patent/JP6372300B2/en
Publication of JP2016080546A publication Critical patent/JP2016080546A/en
Application granted granted Critical
Publication of JP6372300B2 publication Critical patent/JP6372300B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a shape measuring device for easily and speedily measuring a surface shape of a measurement object, while achieving space saving even in the measurement object having a curbed surface.SOLUTION: A shape measuring device 10 is conveyed in one-dimensional direction, and includes: an imaging part 101 having an area sensor for imaging an image of a measurement object having a texture pattern on the surface, and a tilt lens provided with a tilt shaft in such a manner as to be in parallel to an imaging surface of the area sensor and orthogonal to a conveying direction; and an arithmetic processing part 103 for handling imaged data imaged by the imaging part as a set of one-dimensional signal for each width direction position of the measurement object, specifying a focusing position in the conveying direction of the imaged data, and converting the focusing position into a shape of the measurement object on the basis of the linear line determined according to a Scheimpflug condition from the focusing distance of the tilt lens, a tilt angle, and an imaging magnification of the imaging part, and imaging resolving power.SELECTED DRAWING: Figure 1A

Description

本発明は、形状測定装置及び形状測定方法に関する。   The present invention relates to a shape measuring device and a shape measuring method.

従来、測定対象物の表面を撮像し、撮像により得られた画像信号に基づいて測定対象物の表面形状を測定することが行われている。   Conventionally, the surface of a measurement object is imaged and the surface shape of the measurement object is measured based on an image signal obtained by the imaging.

例えば、以下の特許文献1には、レーザ光等を利用したライン光と撮像カメラとを利用し、ライン光の測定対象物表面からの反射光を撮像することで、いわゆる光切断法により測定対象物の表面形状を測定する技術が開示されている。   For example, in Patent Document 1 below, line light using laser light or the like and an imaging camera are used to image the reflected light from the surface of the measurement object of the line light, so that the measurement target is obtained by a so-called light cutting method. A technique for measuring the surface shape of an object is disclosed.

また、以下の特許文献2には、複数台の撮像カメラを利用して測定対象物の表面を撮像することで、いわゆるステレオ法により測定対象物の表面形状を測定する技術が開示されている。   Patent Document 2 below discloses a technique for measuring the surface shape of a measurement object using a so-called stereo method by imaging the surface of the measurement object using a plurality of imaging cameras.

一方、以下の非特許文献1には、高速な可変焦点レンズを用いて、焦点位置を変えながら測定対象物を撮像し、画面の各位置で焦点の合った奥行きを記憶することで、測定対象物の三次元形状を測定する技術が提案されている。   On the other hand, Non-Patent Document 1 below uses a high-speed variable focus lens to capture an image of a measurement object while changing the focal position, and memorizes the depth of focus at each position on the screen. Techniques for measuring the three-dimensional shape of an object have been proposed.

特開2004− 3930号公報Japanese Patent Laid-Open No. 2004-3930 特開2013−69100号公報JP 2013-69100 A

奥寛雅、門内靖明、石川正俊、“ミリセカンド高速液体可変焦点レンズとそのロボットビジョン応用への可能性”、第26回日本ロボット学会学術講演会、RSJ2008AC3I1−03、2008年9月。Hiromasa Oku, Masaaki Kadouchi, Masatoshi Ishikawa, “Millisecond high-speed liquid variable focus lens and its potential for robot vision application”, 26th Annual Conference of the Robotics Society of Japan, RSJ2008AC3I1-03, September 2008.

しかしながら、製造ライン等を搬送されている測定対象物に対して、上記特許文献1に開示されている光切断法や、搬送方向にカメラを複数台設置した上記特許文献2のようなステレオ法を適用した場合、測定装置の搬送方向のサイズが大きくなり、既存の製造ラインへ設備を追加する際に、設置が困難となる場合がある。   However, for the measurement object being transported on the production line or the like, the light cutting method disclosed in Patent Document 1 or the stereo method as described in Patent Document 2 in which a plurality of cameras are installed in the transport direction are used. When applied, the size of the measuring device in the transport direction increases, and installation may be difficult when equipment is added to an existing production line.

また、測定対象物の幅方向(搬送方向に対して直交する方向)に複数のカメラを設置した上記特許文献2のようなステレオ法を適用し、湾曲面を有する測定対象物を測定する場合、ステレオ法では互いのカメラ視野の重複部分しか測定できないため、カメラ台数が増加してしまう。   In addition, when applying the stereo method as in Patent Document 2 in which a plurality of cameras are installed in the width direction of the measurement object (direction orthogonal to the conveyance direction) and measuring the measurement object having a curved surface, Since the stereo method can measure only the overlapping part of the camera field of view, the number of cameras increases.

更に、上記非特許文献1のような可変焦点レンズを用いた場合には、焦点位置を変えながら同一部位を撮像する必要があるため、撮像処理は低速にならざるを得ず、製造ラインに適用することは困難である。   Furthermore, when the variable focus lens as in Non-Patent Document 1 is used, it is necessary to image the same part while changing the focal position, so the imaging process must be slow and applied to the production line. It is difficult to do.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、湾曲面を有する測定対象物であっても、省スペース化を図りつつより簡便かつ高速に測定対象物の表面形状を測定することが可能な、形状測定装置及び形状測定方法を提供することにある。   Therefore, the present invention has been made in view of the above problems, and the object of the present invention is to measure more simply and at high speed while saving space even for a measurement object having a curved surface. The object is to provide a shape measuring apparatus and a shape measuring method capable of measuring the surface shape of an object.

上記課題を解決するために、本発明のある観点によれば、一次元方向に搬送されており、表面に地肌模様を有する測定対象物の像を撮像するエリアセンサと、チルト軸が前記エリアセンサの撮像面に対して平行かつ搬送方向に対して直交するように設けられたチルトレンズと、を有する撮像部と、前記撮像部により撮像された撮像データを、前記測定対象物の幅方向位置毎の一次元信号の集合として取り扱い、当該撮像データの前記搬送方向における合焦位置を特定し、前記チルトレンズの焦点距離とチルト角と前記撮像部の撮像倍率とからシャインプルーフ条件によって定まる直線と、撮像分解能と、に基づいて、前記合焦位置を前記測定対象物の形状に変換する演算処理部と、を備える形状測定装置が提供される。   In order to solve the above-described problem, according to an aspect of the present invention, an area sensor that captures an image of a measurement object that is conveyed in a one-dimensional direction and has a ground pattern on a surface, and a tilt axis that is the area sensor. A tilt lens provided so as to be parallel to the imaging surface and perpendicular to the conveyance direction, and the imaging data captured by the imaging unit for each position in the width direction of the measurement object A straight line determined by Shineproof conditions from the focal length and tilt angle of the tilt lens and the imaging magnification of the imaging unit; A shape measuring device is provided that includes an arithmetic processing unit that converts the in-focus position into the shape of the measurement object based on the imaging resolution.

前記形状測定装置は、前記シャインプルーフ条件と、前記エリアセンサの搬送方向の長さと、から決まる合焦可能範囲は、前記測定対象物の奥行き範囲を含むように設定されていることが好ましい。   In the shape measuring apparatus, it is preferable that the focusable range determined by the Scheimpflug condition and the length of the area sensor in the conveyance direction is set so as to include the depth range of the measurement object.

前記演算処理部は、画素間隔をサンプリング間隔とした場合のナイキスト周波数で正規化した周波数に対して、通過帯域の下限が0.1以上0.3以下であり、上限が0.5以上0.7以下であるバンドパスフィルタを利用し、当該バンドパスフィルタを通過した前記一次元信号の強度が最大となる位置を、前記合焦位置として特定することが好ましい。   The arithmetic processing unit has a passband lower limit of 0.1 to 0.3 and an upper limit of 0.5 to 0. 0 with respect to the frequency normalized with the Nyquist frequency when the pixel interval is the sampling interval. Preferably, a bandpass filter that is 7 or less is used, and a position where the intensity of the one-dimensional signal that has passed through the bandpass filter is maximum is specified as the in-focus position.

前記演算処理部は、前記バンドパスフィルタを通過した前記一次元信号の絶対値で規定される絶対値波形を、左右対称な凸形状であり凸部ピークから離れるに従って値が0に漸近する関数により近似して、前記関数のピーク位置を、前記一次元信号の強度が最大となる位置とすることが好ましい。   The arithmetic processing unit is configured to convert an absolute value waveform defined by an absolute value of the one-dimensional signal that has passed through the bandpass filter into a left-right symmetrical convex shape and a value that gradually approaches 0 as the distance from the convex peak increases. It is preferable that the peak position of the function is approximated to a position where the intensity of the one-dimensional signal is maximized.

前記演算処理部は、前記関数として、三角波関数又はガウス関数を利用することが好ましい。   The arithmetic processing unit preferably uses a triangular wave function or a Gaussian function as the function.

前記演算処理部は、前記関数による近似に先立ち、前記絶対値波形のデータから当該絶対値波形のデータの最頻値を差し引いてもよい。   The arithmetic processing unit may subtract the mode value of the absolute value waveform data from the absolute value waveform data prior to the approximation by the function.

前記演算処理部は、前記関数による近似に先立ち、前記絶対値波形のデータから当該絶対値波形のデータの中央値を差し引いてもよい。   The arithmetic processing unit may subtract the median value of the absolute value waveform data from the absolute value waveform data prior to the approximation by the function.

また、上記課題を解決するために、本発明の別の観点によれば、一次元方向に搬送されており、表面に地肌模様を有する測定対象物の像を撮像するエリアセンサと、チルト軸が前記エリアセンサの撮像面に対して平行かつ搬送方向に対して直交するように設けられたチルトレンズと、を有する撮像部により、前記測定対象物を撮像するステップと、撮像された撮像データを、前記測定対象物の幅方向位置毎の一次元信号の集合として取り扱い、当該撮像データの前記搬送方向における合焦位置を特定するステップと、前記チルトレンズの焦点距離とチルト角と前記撮像部の撮像倍率とからシャインプルーフ条件によって定まる直線と、撮像分解能と、に基づいて、特定した前記合焦位置を前記測定対象物の形状に変換するステップと、を含む、形状測定方法が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, an area sensor that captures an image of a measurement object that is conveyed in a one-dimensional direction and has a ground pattern on the surface, and a tilt axis A step of imaging the measurement object by an imaging unit having a tilt lens provided so as to be parallel to the imaging surface of the area sensor and orthogonal to the conveyance direction, and the captured imaging data, Handling as a set of one-dimensional signals for each position in the width direction of the measurement object, specifying a focus position in the transport direction of the imaging data, focal length and tilt angle of the tilt lens, and imaging of the imaging unit Converting the identified in-focus position into the shape of the measurement object based on the straight line determined by the Scheinproof condition from the magnification and the imaging resolution. Shape measuring method are provided.

以上説明したように本発明によれば、所定のチルト角に設定されたチルトレンズを用いて測定対象物を撮像し、所定の演算処理を行うことで、湾曲面を有する測定対象物であっても、省スペース化を図りつつより簡便かつ高速に測定対象物の表面形状を測定することが可能となる。   As described above, according to the present invention, a measurement object having a curved surface is obtained by imaging a measurement object using a tilt lens set to a predetermined tilt angle and performing a predetermined calculation process. However, it is possible to measure the surface shape of the measurement object more easily and at high speed while saving space.

本発明の第1の実施形態に係る形状測定装置の構成例について示した説明図である。It is explanatory drawing shown about the structural example of the shape measuring apparatus which concerns on the 1st Embodiment of this invention. 同実施形態に係る形状測定装置の構成例について示した説明図である。It is explanatory drawing shown about the structural example of the shape measuring apparatus which concerns on the same embodiment. 同実施形態に係る形状測定装置の撮像部について模式的に示した説明図である。It is explanatory drawing shown typically about the imaging part of the shape measuring apparatus which concerns on the same embodiment. 同実施形態に係る形状測定装置の撮像部を説明するための説明図である。It is explanatory drawing for demonstrating the imaging part of the shape measuring apparatus which concerns on the same embodiment. 同実施形態に係る形状測定装置の撮像部を説明するための説明図である。It is explanatory drawing for demonstrating the imaging part of the shape measuring apparatus which concerns on the same embodiment. 同実施形態に係る形状測定装置の演算処理部の構成の一例について説明するためのブロック図である。It is a block diagram for demonstrating an example of a structure of the arithmetic processing part of the shape measuring apparatus which concerns on the same embodiment. 同実施形態に係る演算処理部が有するデータ処理部の構成の一例について説明するためのブロック図である。It is a block diagram for demonstrating an example of a structure of the data processing part which the arithmetic processing part which concerns on the same embodiment has. 同実施形態に係るデータ処理部で実施される処理について説明するための説明図である。It is explanatory drawing for demonstrating the process implemented by the data processing part which concerns on the same embodiment. 同実施形態に係るデータ処理部で実施される処理について説明するための説明図である。It is explanatory drawing for demonstrating the process implemented by the data processing part which concerns on the same embodiment. 同実施形態に係るデータ処理部で実施される処理について説明するための説明図である。It is explanatory drawing for demonstrating the process implemented by the data processing part which concerns on the same embodiment. 同実施形態に係る形状測定装置で実施される形状測定方法の流れの一例を示した流れ図である。It is the flowchart which showed an example of the flow of the shape measuring method implemented with the shape measuring apparatus which concerns on the same embodiment. 同実施形態に係る形状測定方法における形状算出処理の流れの一例を示した流れ図である。It is the flowchart which showed an example of the flow of the shape calculation process in the shape measuring method which concerns on the embodiment. 同実施形態に係る演算処理部のハードウェア構成の一例を示したブロック図である。It is the block diagram which showed an example of the hardware constitutions of the arithmetic processing part which concerns on the same embodiment. 実験例1について説明するための説明図である。FIG. 10 is an explanatory diagram for explaining an experimental example 1; 実験例1について説明するための説明図である。FIG. 10 is an explanatory diagram for explaining an experimental example 1; 実験例1について説明するための説明図である。FIG. 10 is an explanatory diagram for explaining an experimental example 1; 実験例1について説明するための説明図である。FIG. 10 is an explanatory diagram for explaining an experimental example 1; 実験例1について説明するための説明図である。FIG. 10 is an explanatory diagram for explaining an experimental example 1;

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

(実施形態)
<形状測定装置の全体的な構成について>
まず、図1A及び図1Bを参照しながら、本発明の実施形態に係る形状測定装置の全体的な構成について説明する。図1A及び図1Bは、本実施形態に係る形状測定装置の全体的な構成を模式的に示した説明図である。
(Embodiment)
<Overall configuration of shape measuring device>
First, an overall configuration of a shape measuring apparatus according to an embodiment of the present invention will be described with reference to FIGS. 1A and 1B. 1A and 1B are explanatory views schematically showing the overall configuration of the shape measuring apparatus according to the present embodiment.

本実施形態に係る形状測定装置10は、搬送ラインなどにより所定の一次元方向に搬送されている測定対象物の表面を撮像し、撮像された撮像データに対して所定の演算処理を施すことにより、測定対象物の表面形状を算出する装置である。本実施形態に係る形状測定装置10で測定可能な測定対象物は特に限定されるものではなく、例えば、製鉄ライン上を搬送される各種の鋼板、鋼管、線材のような工業製品から、一般的に利用されている各種の製品まで、各種のものを対象とすることが可能である。   The shape measuring apparatus 10 according to the present embodiment images the surface of the measurement object being conveyed in a predetermined one-dimensional direction by a conveyance line or the like, and performs a predetermined calculation process on the captured image data. This is a device for calculating the surface shape of the measurement object. The measurement object that can be measured by the shape measuring apparatus 10 according to the present embodiment is not particularly limited. For example, it is generally used from various industrial products such as various steel plates, steel pipes, and wire rods conveyed on an iron making line. It is possible to target various products, up to various products used in the industry.

以下の説明では、形状測定装置10が、測定対象物から射出された可視光線又は測定対象物で反射された可視光線を撮像する場合を例に挙げて説明を行う。   In the following description, the case where the shape measuring apparatus 10 captures an image of visible light emitted from the measurement object or visible light reflected by the measurement object will be described as an example.

この形状測定装置10は、例えば図1Aに示したように、撮像部101と、演算処理部103と、を主に備える。   For example, as illustrated in FIG. 1A, the shape measuring apparatus 10 mainly includes an imaging unit 101 and an arithmetic processing unit 103.

撮像部101は、例えば搬送ライン等により所定の方向に搬送されている測定対象物の表面を撮像して、撮像画像に対応する実体データ(二次元画像である撮像画像の各座標位置に対応した輝度値を表すデータであり、以下、撮像データともいう。)を生成する。本実施形態に係る撮像部101の詳細な構成については、以下で改めて詳述する。撮像部101により生成された撮像データは、演算処理部103へと出力される。   The imaging unit 101 captures an image of the surface of the measurement object being transported in a predetermined direction by, for example, a transport line, and corresponds to entity data corresponding to the captured image (corresponding to each coordinate position of the captured image that is a two-dimensional image). This is data representing a luminance value, and is hereinafter also referred to as imaging data). The detailed configuration of the imaging unit 101 according to the present embodiment will be described in detail later. Imaging data generated by the imaging unit 101 is output to the arithmetic processing unit 103.

演算処理部103は、撮像部101により生成された撮像データに対して、以下で詳述するような演算処理を施して、測定対象物の表面形状を算出する。また、演算処理部103は、必要に応じて、撮像部101により実施される様々な撮像処理の制御を行うことも可能である。演算処理部103の詳細な構成については、以下で詳述する。   The arithmetic processing unit 103 performs arithmetic processing as will be described in detail below on the imaging data generated by the imaging unit 101 to calculate the surface shape of the measurement object. The arithmetic processing unit 103 can also control various imaging processes performed by the imaging unit 101 as necessary. The detailed configuration of the arithmetic processing unit 103 will be described in detail below.

撮像部101及び演算処理部103を備える形状測定装置10は、図1Aに示したように、ある筺体内に一体的に実装されて一つの形状測定装置を形成してもよいが、例えば図1Bに示したように、撮像部101及び演算処理部103が互いに異なる機器や装置に分散して実装されていてもよい。   As shown in FIG. 1A, the shape measuring apparatus 10 including the imaging unit 101 and the arithmetic processing unit 103 may be integrally mounted in a certain housing to form one shape measuring apparatus. As shown in FIG. 5, the imaging unit 101 and the arithmetic processing unit 103 may be distributed and installed in different devices and apparatuses.

例えば図1Bに示した例では、撮像部101がレンズや撮像素子等を有する撮像機器に実装され、演算処理部103が、パーソナルコンピュータ、プロセスコンピュータ等といった演算処理装置に実装された例を図示している。このように、本実施形態に係る形状測定装置10は、複数の機器から構成される測定システムとして実現されていてもよい。   For example, in the example illustrated in FIG. 1B, an example in which the imaging unit 101 is mounted on an imaging device having a lens, an imaging element, and the like, and the arithmetic processing unit 103 is mounted on an arithmetic processing device such as a personal computer or a process computer is illustrated. ing. Thus, the shape measuring apparatus 10 according to the present embodiment may be realized as a measurement system including a plurality of devices.

なお、本実施形態に係る形状測定装置10では、演算処理部103の各機能が複数の機器に分散されて実現されていてもよい。すなわち、演算処理部103の機能の一部が撮像部101を有する撮像機器に実装され、かつ、演算処理部103の他の機能が演算処理装置に実装されるような態様であってもよい。   In the shape measuring apparatus 10 according to the present embodiment, each function of the arithmetic processing unit 103 may be realized by being distributed to a plurality of devices. That is, a mode in which a part of the functions of the arithmetic processing unit 103 is implemented in an imaging device having the imaging unit 101 and another function of the arithmetic processing unit 103 is implemented in the arithmetic processing device may be employed.

以上、図1A及び図1Bを参照しながら、本実施形態に係る形状測定装置10の全体構成について説明した。   The overall configuration of the shape measuring apparatus 10 according to the present embodiment has been described above with reference to FIGS. 1A and 1B.

<撮像部の構成について>
次に、図2〜図4を参照しながら、本実施形態に係る形状測定装置10が備える撮像部101について、詳細に説明する。図2は、本実施形態に係る形状測定装置の撮像部について模式的に示した説明図である。図3及び図4は、本実施形態に係る形状測定装置の撮像部を説明するための説明図である。
<About the configuration of the imaging unit>
Next, the imaging unit 101 included in the shape measuring apparatus 10 according to the present embodiment will be described in detail with reference to FIGS. FIG. 2 is an explanatory diagram schematically showing the imaging unit of the shape measuring apparatus according to the present embodiment. 3 and 4 are explanatory diagrams for explaining the imaging unit of the shape measuring apparatus according to the present embodiment.

図2に例示したように、本実施形態に係る撮像部101は、エリアセンサ113を有する撮像機器(以下、「エリアカメラ」ともいう。)111と、エリアカメラ111に装着されたチルトレンズ115と、を主に備える。また、撮像部101は、測定対象物の表面の少なくとも一部である撮像面に対し、所定の照明光を照射する照明光源117を、必要に応じて更に備えていても良い。   As illustrated in FIG. 2, the imaging unit 101 according to the present embodiment includes an imaging device (hereinafter also referred to as “area camera”) 111 having an area sensor 113, and a tilt lens 115 attached to the area camera 111. Is mainly provided. In addition, the imaging unit 101 may further include an illumination light source 117 that irradiates predetermined illumination light onto an imaging surface that is at least a part of the surface of the measurement object, if necessary.

エリアカメラ111は、例えば図2に示したように、エリアセンサ113の受光面が、測定対象物の撮像面と平行となるように設けられる。エリアカメラ111によって撮像された撮像データは、エリアセンサ113から演算処理部103へと出力され、後述する演算処理に利用される。   For example, as shown in FIG. 2, the area camera 111 is provided so that the light receiving surface of the area sensor 113 is parallel to the imaging surface of the measurement object. Image data captured by the area camera 111 is output from the area sensor 113 to the arithmetic processing unit 103 and used for arithmetic processing described later.

チルトレンズ115は、レンズ主面を撮像面に対して傾動させる操作(チルト操作)が可能なレンズである。チルトレンズ115の焦点距離や開放絞り値等といったレンズ特性は、特に限定されるものではなく、チルトレンズ115と測定対象物との離隔距離や測定対象物の周囲の明るさ等といった撮像条件に応じて、適宜設定すればよい。また、本実施形態では、チルトレンズ115として一枚の両凸レンズを代表させて便宜的に図示しているが、本実施形態に係るチルトレンズ115は、複数のレンズ群から構成されていてもよく、各レンズは、球面レンズであってもよいし非球面レンズであってもよい。   The tilt lens 115 is a lens capable of performing an operation (tilt operation) to tilt the lens main surface with respect to the imaging surface. The lens characteristics such as the focal length and the open aperture value of the tilt lens 115 are not particularly limited, and depend on the imaging conditions such as the distance between the tilt lens 115 and the measurement object, the brightness around the measurement object, and the like. Can be set as appropriate. In the present embodiment, a single biconvex lens is shown as a representative example of the tilt lens 115, but the tilt lens 115 according to the present embodiment may be composed of a plurality of lens groups. Each lens may be a spherical lens or an aspherical lens.

本実施形態に係る撮像部101では、チルトレンズ115の受光傾動軸が撮像面に対して平行かつ搬送方向に直角となるように、エリアカメラ111に対して装着される。   In the imaging unit 101 according to the present embodiment, the tilt lens 115 is attached to the area camera 111 so that the light receiving tilt axis is parallel to the imaging surface and perpendicular to the transport direction.

測定対象物の撮像面と、エリアカメラ111のエリアセンサ113と、チルトレンズ115との間の光学的な関係については、以下で図3及び図4を参照しながら改めて詳述する。   The optical relationship among the imaging surface of the measurement object, the area sensor 113 of the area camera 111, and the tilt lens 115 will be described in detail below with reference to FIGS.

照明光源117は、撮像面に対して照射される照明光を射出する光源であり、測定対象物を撮像する際に撮像環境が暗い状況下にある等といった場合に、必要に応じて設けられる。照明光源117からの照明光は、特に限定されるものではなく、可視光帯域に属する光を使用すればよい。   The illumination light source 117 is a light source that emits illumination light applied to the imaging surface, and is provided as necessary when the imaging environment is in a dark state when imaging the measurement object. The illumination light from the illumination light source 117 is not particularly limited, and light belonging to the visible light band may be used.

また、照明光源117を設置する場合の設置位置についても特に限定されるものではなく、測定対象物の撮像環境に応じて、適宜決定すればよい。   Further, the installation position when the illumination light source 117 is installed is not particularly limited, and may be determined as appropriate according to the imaging environment of the measurement object.

[撮像部の光学的な関係について]
次に、図3及び図4を参照しながら、撮像部101におけるエリアセンサ113及びチルトレンズ115と、測定対象物の撮像表面と、の間に成立する光学的な関係について、詳細に説明する。
[Optical relationship of the imaging unit]
Next, an optical relationship that is established between the area sensor 113 and the tilt lens 115 in the imaging unit 101 and the imaging surface of the measurement target will be described in detail with reference to FIGS. 3 and 4.

先述のように、本実施形態に係る撮像部101では、エリアセンサ113の受光面と測定対象物の撮像面とは互いに平行な位置関係になっており、かつ、エリアセンサ113の受光面とチルトレンズ115の主面とは互いに平行ではなく、交差するような位置関係となっている。このような光学的な位置関係での光学的な原理の一つに、シャインプルーフの原理(Scheimpflug principle)がある。この原理は、「フィルムの感光面とレンズ主面とがある1つの直線で交わるとき、合焦状態となる物体面もまた同一の直線で交わる」というものである。   As described above, in the imaging unit 101 according to the present embodiment, the light receiving surface of the area sensor 113 and the imaging surface of the measurement object are in a positional relationship parallel to each other, and the light receiving surface of the area sensor 113 is tilted. The main surface of the lens 115 is not parallel to each other, but has a positional relationship such that it intersects. One of the optical principles in such an optical positional relationship is the Scheimpflug principle. This principle is that “when the photosensitive surface of the film and the lens main surface intersect with one straight line, the object surface that is in focus also intersects with the same straight line”.

このシャインプルーフの原理を本実施形態に係る撮像部101に対して適用すると、「エリアセンサ113の受光面(図3中の面S1に対応)とチルトレンズ115の主面(図3中の面S2に対応)とがある1つの直線(図3中の直線Pに対応)で交わるとき、合焦状態となる物体面(以下、合焦面ともいう。図3中のS3に対応)もまた同一の直線で交わる」となる。このようなシャインプルーフの原理に基づく条件(以下、シャインプルーフ条件ともいう。)は、図3中に示したように、「受光面S1、レンズ主面S2及び合焦面S3が同一直線P上で互いに交差する」ことである。更に、結像のためには、結像条件として「レンズの光軸(主光軸Z1)と受光面S1との交点、及び、レンズの光軸(主光軸Z1)と合焦面S3との交点のそれぞれにおいて、結像関係(1/a)+(1/b)=(1/f)が成立する」ことが必要である。なお、この結像条件において、fは、チルトレンズの焦点距離を示し、aは、レンズの主光軸Z1と受光面S1との交点と、レンズの主点との離隔距離を示し、bは、レンズの主光軸Z1と合焦面S3との交点と、レンズの主点との離隔距離を示している。   When this Scheimpflug principle is applied to the imaging unit 101 according to the present embodiment, “the light receiving surface of the area sensor 113 (corresponding to the surface S1 in FIG. 3) and the main surface of the tilt lens 115 (the surface in FIG. 3). The object plane (hereinafter also referred to as the in-focus plane, which corresponds to S3 in FIG. 3), which is in a focused state when intersecting with one straight line (corresponding to the straight line P in FIG. 3) with It crosses on the same straight line. " As shown in FIG. 3, the condition based on the principle of such Scheimpflug (hereinafter also referred to as Scheinproof condition) is “the light receiving surface S1, the lens main surface S2, and the focusing surface S3 are on the same straight line P. Cross each other. " Further, for image formation, the image formation conditions include “the intersection of the optical axis of the lens (main optical axis Z1) and the light receiving surface S1, and the optical axis of the lens (main optical axis Z1) and the focusing surface S3. It is necessary that the image formation relationship (1 / a) + (1 / b) = (1 / f) is established at each of the intersections. In this imaging condition, f represents the focal length of the tilt lens, a represents the separation distance between the intersection of the main optical axis Z1 of the lens and the light receiving surface S1, and the main point of the lens, and b represents The distance between the intersection of the main optical axis Z1 of the lens and the focusing surface S3 and the main point of the lens is shown.

ここで、上記シャインプルーフ条件及び結像条件に加えて、チルトレンズ115の焦点距離及びチルト角(チルト操作の度合いを表す角)と、チルトレンズ115から測定対象物までの離隔距離と、エリアセンサ113の搬送方向に沿った大きさ(エリアセンサ113のサイズ)と、を更に考慮する。これらの諸条件により、図3に示したような、撮像面の前方(チルトレンズ115側)で合焦状態となっている範囲(前方合焦可能範囲)と、撮像面の後方で合焦状態となっている範囲(後方合焦可能範囲)とが決まる。   Here, in addition to the above Scheimpflug condition and imaging condition, the focal length and tilt angle of the tilt lens 115 (angle representing the degree of tilt operation), the separation distance from the tilt lens 115 to the measurement object, and the area sensor The size along the conveyance direction of 113 (the size of the area sensor 113) is further considered. Due to these conditions, as shown in FIG. 3, the in-focus state (front focusable range) in front of the imaging surface (tilt lens 115 side) and the in-focus state in the rear of the imaging surface. The range (the range in which rear focusing is possible) is determined.

その結果、チルトレンズ115を用いて測定対象物を撮像することによって、前方合焦可能範囲及び後方合焦可能範囲で規定される合焦可能範囲内に含まれる測定対象物は、合焦面S3上の何れかの場所(図3における合焦面S3を表す直線上の何れかの場所)で合焦状態となる。そのため、湾曲面を有する測定対象物を測定対象とした場合であっても、得られた撮像データには、ピントの合った領域が存在することとなる。そこで、本実施形態に係る形状測定装置10は、撮像データ上で合焦状態にある領域を特定した上で、かかる合焦状態にある領域の位置が合焦面S3上のいずれの位置に対応するかを判断し、合焦面S3上の位置を測定対象物の高さ方向位置、すなわち表面形状へと変換する。換言すれば、本実施形態に係る形状測定装置10では、合焦面S3で測定対象物を切断した線(合焦線)を測定して、かかる合焦線に基づいて測定対象物の表面形状を特定していると言える。   As a result, by measuring the measurement object using the tilt lens 115, the measurement object included in the focusable range defined by the front focusable range and the rear focusable range is the focus plane S3. An in-focus state occurs at any of the above locations (any location on the straight line representing the focusing surface S3 in FIG. 3). For this reason, even when a measurement object having a curved surface is used as a measurement object, a region in focus exists in the obtained imaging data. Therefore, the shape measuring apparatus 10 according to the present embodiment specifies a region in focus on the imaging data, and the position of the region in focus corresponds to any position on the focusing surface S3. The position on the focusing surface S3 is converted to the height direction position of the measurement object, that is, the surface shape. In other words, in the shape measuring apparatus 10 according to the present embodiment, a line (focusing line) obtained by cutting the measuring object at the focusing surface S3 is measured, and the surface shape of the measuring object is based on the focusing line. It can be said that it is specified.

なお、上記の合焦可能範囲の奥行きをDと表すこととすると、本実施形態に係る形状測定装置10では、撮像表面の法線方向に対応する奥行き範囲Dが合焦可能範囲の奥行きDに含まれるように制限して、撮像部101を利用することが好ましい。 Incidentally, when the depth of focus range of the above, which is represented as D B, the shape measuring apparatus 10 according to the present embodiment, the depth range D A corresponding to the normal direction of the imaging surface of the focusing range Depth limits to be included in D B, it is preferable to use the imaging unit 101.

奥行き範囲Dを、合焦可能範囲の奥行きDに対してどの程度小さくすれば良いかについては、測定対象物の設計値や過去の操業条件等から、測定対象物において撮像したい範囲(すなわち、奥行き範囲D)がどの程度の大きさであるかを予め解析しておくことで、決定することができる。 The extent to which the depth range D A should be reduced with respect to the depth D B of the focusable range is determined based on the design value of the measurement target, past operating conditions, etc. The depth range D A ) can be determined by analyzing in advance how large the depth range D A ) is.

また、上記のような奥行き範囲Dと合焦可能範囲の奥行きDとの間の条件を決めた上で、この条件を満たすようにチルトレンズ115のチルト角を決定するようにしてもよい。 Further, after determining the condition between the depth D B depth range D A and the focusing range as described above, it may be determined the tilt angle of the tilt lens 115 so as to satisfy the condition .

水平面に対する合焦面S3の傾斜角φの大きさは、例えば図4に示したように、受光面S1と、レンズ主面S2と、合焦面S3との間の幾何学的な位置関係から決定することができる。   For example, as shown in FIG. 4, the magnitude of the inclination angle φ of the focusing surface S3 with respect to the horizontal plane is determined from the geometrical positional relationship among the light receiving surface S1, the lens main surface S2, and the focusing surface S3. Can be determined.

すなわち、図4における△PACに着目すると、d・tanθ=aが成立し、△PBCに着目すると、d・tanθ’=bが成立することがわかる。従って、両式を連立することで、tanθ/tanθ’=(a/b)を得ることができる。一方、図4から明らかなように、φ=θ+θ’である。ここで、離隔距離a,bは、撮像される画像に求められる撮像倍率M=a/bと、チルトレンズの焦点距離fと、に応じて、結像公式から決まる値に予め設定される。従って、チルト角θを決定することで、上記2つの関係式に基づいて合焦面S3の傾斜角φが一義的に決定される。   In other words, when attention is paid to ΔPAC in FIG. 4, d · tan θ = a is established, and when ΔPBC is noted, d · tan θ ′ = b is established. Therefore, tan θ / tan θ ′ = (a / b) can be obtained by combining both equations. On the other hand, as is apparent from FIG. 4, φ = θ + θ ′. Here, the separation distances a and b are preset to values determined from the imaging formula according to the imaging magnification M = a / b required for the image to be captured and the focal length f of the tilt lens. Therefore, by determining the tilt angle θ, the tilt angle φ of the focusing surface S3 is uniquely determined based on the above two relational expressions.

かかる傾斜角φと、上記離隔距離a,bと、エリアセンサ113の搬送方向の大きさl(エリアセンサ113の端点J−K間の大きさ)と、を用いて、合焦可能範囲の奥行きDを求める方法を、図4を参照しながら説明する。図4では、エリアセンサ113の搬送方向の中心(点A)を光軸Z1が貫く場合を示しているが、以下の説明はかかる例に限られるものではない。 Using such an inclination angle φ, the separation distances a and b, and the size l in the transport direction of the area sensor 113 (the size between the end points J and K of the area sensor 113), the depth of the focusable range. the method of obtaining the D B, will be described with reference to FIG. FIG. 4 shows a case where the optical axis Z1 passes through the center (point A) in the transport direction of the area sensor 113, but the following description is not limited to such an example.

図4において、エリアセンサ113の大きさlと離隔距離aが決まると、△JKCは一意に定まる。そのため、直線KCと合焦面S3の交点Mと、直線JCとS3の交点Nと、を求めることができ、MとNの高さ方向の位置の差からDが求められる。 In FIG. 4, when the size l and the separation distance a of the area sensor 113 are determined, ΔJKC is uniquely determined. Therefore, the intersection M of the straight line KC and the focusing plane S3, the intersection N of straight lines JC and S3, can be obtained, is D B obtained from the difference between the position in the height direction of the M and N.

上記をまとめると、チルト角θ、焦点距離f、交点M、エリアセンサ113の大きさlから奥行きDが一意に決定されるため、DをDよりも大きくするためには、これらのパラメータを、物体の撮像分解能などと同時に考慮して決定する必要があるのは明らかである。lは、使用するエリアカメラ111の仕様で決まってしまい、f、Mは、測定対象物との離隔距離及び撮像分解能から決まるため、Dを他の条件と独立に決める自由度は、チルト角θとなる。 In summary, since the depth D B is uniquely determined from the tilt angle θ, the focal length f, the intersection M, and the size l of the area sensor 113, in order to make D B larger than D A , Obviously, the parameter needs to be determined in consideration of the imaging resolution of the object. l is will be determined by the specification of the area camera 111 uses, f, M, because determined by the distance and the imaging resolution of the measurement object, the degree of freedom to decide D B independently of the other conditions, the tilt angle θ.

図3からも明らかなように、本実施形態に係る撮像部101では、エリアセンサ113の受光面とチルトレンズ115の主面とのなす角として規定されるチルト角(図5における角度θ)を変化させることで、合焦可能範囲の奥行きDを制御することが可能である。 As apparent from FIG. 3, in the imaging unit 101 according to the present embodiment, a tilt angle (angle θ in FIG. 5) defined as an angle formed by the light receiving surface of the area sensor 113 and the main surface of the tilt lens 115 is set. by changing, it is possible to control the depth D B of the focusing range.

以上、図2〜図4を参照しながら、本実施形態に係る撮像部101について、詳細に説明した。   The imaging unit 101 according to the present embodiment has been described in detail above with reference to FIGS.

<演算処理部の構成について>
次に、図5〜図8Bを参照しながら、本実施形態に係る形状測定装置10が備える演算処理部103について、詳細に説明する。図5は、本実施形態に係る形状測定装置の演算処理部の構成の一例について説明するためのブロック図である。図6は、本実施形態に係る演算処理部が有するデータ処理部の構成の一例について説明するためのブロック図である。図7〜図8Bは、本実施形態に係るデータ処理部で実施されるデータ処理について説明するための説明図である。
<About the configuration of the arithmetic processing unit>
Next, the arithmetic processing unit 103 included in the shape measuring apparatus 10 according to the present embodiment will be described in detail with reference to FIGS. FIG. 5 is a block diagram for explaining an example of the configuration of the arithmetic processing unit of the shape measuring apparatus according to the present embodiment. FIG. 6 is a block diagram for explaining an example of the configuration of the data processing unit included in the arithmetic processing unit according to the present embodiment. 7 to 8B are explanatory diagrams for explaining data processing performed by the data processing unit according to the present embodiment.

本実施形態に係る演算処理部103は、図5に示したように、撮像制御部151と、データ取得部153と、データ処理部155と、処理結果出力部157と、表示制御部159と、記憶部161と、を主に備える。   As shown in FIG. 5, the arithmetic processing unit 103 according to the present embodiment includes an imaging control unit 151, a data acquisition unit 153, a data processing unit 155, a processing result output unit 157, a display control unit 159, And a storage unit 161.

撮像制御部151は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、通信装置等により実現される。撮像制御部151は、本実施形態に係る撮像部101による測定対象物の撮像処理全般を制御することができる。例えば、撮像制御部151は、測定対象物と撮像部101との間の相対的な位置を変化させる搬送ライン等の駆動機構から定期的に送出されるシフトパルス信号(例えば、測定対象物が1mm移動する毎等に出力されるPLG信号)に基づいて、撮像部101に対して撮像を開始するためのトリガ信号を送出する。これにより、撮像部101は、測定対象物の搬送方向の各位置における撮像データを随時生成することが可能となる。   The imaging control unit 151 is realized by, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a communication device, and the like. The imaging control unit 151 can control the entire imaging process of the measurement object by the imaging unit 101 according to the present embodiment. For example, the imaging control unit 151 may periodically transmit a shift pulse signal (for example, 1 mm for the measurement object) from a driving mechanism such as a conveyance line that changes the relative position between the measurement object and the imaging unit 101. A trigger signal for starting imaging is sent to the imaging unit 101 on the basis of a PLG signal output every time it moves. Thereby, the imaging unit 101 can generate imaging data at each position in the conveyance direction of the measurement object as needed.

また、撮像部101が照明光源117を有している場合には、撮像制御部151は、測定対象物の撮像を開始する場合に、照明光源117に対して、照明光の照射を開始させるための制御信号を送出してもよい。   When the imaging unit 101 includes the illumination light source 117, the imaging control unit 151 causes the illumination light source 117 to start irradiating illumination light when starting imaging of the measurement object. The control signal may be sent.

データ取得部153は、例えば、CPU、ROM、RAM、通信装置等により実現される。データ取得部153は、撮像部101によって生成され、撮像部101から出力された撮像データを取得して、後述するデータ処理部155へと伝送する。また、データ取得部153は、取得した撮像データに、当該データを取得した日時等に関する時刻情報を紐づけて、履歴情報として後述する記憶部161に格納してもよい。   The data acquisition unit 153 is realized by, for example, a CPU, a ROM, a RAM, a communication device, and the like. The data acquisition unit 153 acquires the imaging data generated by the imaging unit 101 and output from the imaging unit 101, and transmits the acquired imaging data to the data processing unit 155 described later. In addition, the data acquisition unit 153 may associate the acquired imaging data with time information related to the date and time when the data is acquired, and store it in the storage unit 161 described later as history information.

データ処理部155は、例えば、CPU、ROM、RAM等により実現される。データ処理部155は、撮像部101により生成された撮像データを利用し、この撮像データに対して以下で説明するような演算処理を施すことで、測定対象物の表面形状を算出する。データ処理部155は、表面形状の算出処理を終了すると、得られた処理結果に関する情報を、処理結果出力部157に伝送する。   The data processing unit 155 is realized by a CPU, a ROM, a RAM, and the like, for example. The data processing unit 155 calculates the surface shape of the measurement object by using the imaging data generated by the imaging unit 101 and performing arithmetic processing described below on the imaging data. When the data processing unit 155 finishes the calculation process of the surface shape, the data processing unit 155 transmits information on the obtained processing result to the processing result output unit 157.

なお、このデータ処理部155における表面形状の算出処理については、以下で詳述する。   The surface shape calculation process in the data processing unit 155 will be described in detail below.

処理結果出力部157は、例えば、CPU、ROM、RAM等により実現される。処理結果出力部157は、データ処理部155から出力された測定対象物の表面形状に関する情報を、後述する表示制御部159に出力する。これにより、測定対象物の表面形状に関する情報が、表示部(図示せず。)に出力されることとなる。また、処理結果出力部157は、得られた処理結果を、各種コンピュータ等の外部の装置に出力してもよく、得られた処理結果を利用して、製品に関する各種の帳票を作成してもよい。また、処理結果出力部157は、得られた表面形状に関する情報を、当該情報を算出した日時等に関する時刻情報と関連づけて、記憶部161等に履歴情報として格納してもよい。   The processing result output unit 157 is realized by a CPU, a ROM, a RAM, and the like, for example. The processing result output unit 157 outputs information on the surface shape of the measurement object output from the data processing unit 155 to the display control unit 159 described later. Thereby, the information regarding the surface shape of a measuring object will be output to a display part (not shown). Further, the processing result output unit 157 may output the obtained processing result to an external device such as various computers, or may create various forms related to the product using the obtained processing result. Good. Further, the processing result output unit 157 may store the obtained information regarding the surface shape as history information in the storage unit 161 or the like in association with time information regarding the date and time when the information is calculated.

表示制御部159は、例えば、CPU、ROM、RAM、出力装置等により実現される。表示制御部159は、処理結果出力部157から伝送された、測定対象物の表面形状に関する情報を、形状測定装置10が備えるディスプレイ等の出力装置や形状測定装置10の外部に設けられた出力装置等に表示する際の表示制御を行う。これにより、形状測定装置10の利用者は、測定対象物の表面形状等といった各種の処理結果を、その場で把握することが可能となる。   The display control unit 159 is realized by, for example, a CPU, a ROM, a RAM, an output device, and the like. The display control unit 159 transmits the information related to the surface shape of the measurement object transmitted from the processing result output unit 157, such as an output device such as a display provided in the shape measuring device 10 or an output device provided outside the shape measuring device 10. Display control when displaying on the screen. Thereby, the user of the shape measuring apparatus 10 can grasp various processing results such as the surface shape of the measurement object on the spot.

記憶部161は、例えば本実施形態に係る形状測定装置10が備えるRAMやストレージ装置等により実現される。記憶部161には、本実施形態に係る撮像部101や演算処理部103が、何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等、または、各種のデータベースやプログラム等が、適宜記録される。この記憶部161は、撮像制御部151、データ取得部153、データ処理部155、処理結果出力部157、表示制御部159等が、自由にデータのリード/ライト処理を行うことが可能である。   The storage unit 161 is realized by, for example, a RAM or a storage device provided in the shape measuring apparatus 10 according to the present embodiment. In the storage unit 161, various parameters, processing progresses, and the like that need to be saved when the imaging unit 101 and the arithmetic processing unit 103 according to the present embodiment perform some processing, or various databases and programs Etc. are recorded as appropriate. In this storage unit 161, the imaging control unit 151, the data acquisition unit 153, the data processing unit 155, the processing result output unit 157, the display control unit 159, and the like can freely perform data read / write processing.

[データ処理部における演算処理について]
続いて、図6〜図8B及び図13を参照しながら、本実施形態に係るデータ処理部155で実施される演算処理(より詳細には、表面形状の算出処理)について、詳細に説明する。
[Calculation processing in the data processor]
Next, the arithmetic processing (more specifically, the surface shape calculation processing) performed by the data processing unit 155 according to the present embodiment will be described in detail with reference to FIGS.

以下で詳述するデータ処理部155の役割は、撮像部101によって生成された画像中での合焦位置を特定することで、合焦線を求めることである。その目的のために、データ処理部155は、測定対処物(例えば、鋼板)の表面に存在する地肌模様を利用する。地肌模様に対して合焦した場合、撮像された画像の空間周波数スペクトルは高い周波数帯域まで広がるため、当該周波数帯域の成分の大きさに着目して、その大きさが最大となるように合焦位置を特定すればよい。   The role of the data processing unit 155, which will be described in detail below, is to determine a focus line by specifying a focus position in an image generated by the imaging unit 101. For that purpose, the data processing unit 155 uses a ground pattern existing on the surface of the measurement object (for example, a steel plate). When focusing on the background pattern, the spatial frequency spectrum of the captured image spreads to a high frequency band, so focus on the size of the component in the frequency band and focus on the maximum size. What is necessary is just to specify a position.

本実施形態に係るデータ処理部155は、例えば図6に示したように、フィルタ処理部171と、前処理部173と、近似処理部175と、形状算出部177と、を備える。   For example, as illustrated in FIG. 6, the data processing unit 155 according to the present embodiment includes a filter processing unit 171, a preprocessing unit 173, an approximation processing unit 175, and a shape calculation unit 177.

フィルタ処理部171は、例えば、CPU、ROM、RAM等により実現される。フィルタ処理部171は、データ取得部153から伝送された二次元の撮像画像としての撮像データを、一次元信号の集合(すなわち、測定対象物の搬送方向に沿った一次元信号(輝度データ)が、幅方向の各位置に対して紐づけられた信号群)として取り扱う。その上で、フィルタ処理部171は、それぞれの一次元信号(以下に示す図13におけるL(x))に対して、以下で説明するようなフィルタ演算処理を実施する。   The filter processing unit 171 is realized by a CPU, a ROM, a RAM, and the like, for example. The filter processing unit 171 converts the captured data as the two-dimensional captured image transmitted from the data acquisition unit 153 into a set of one-dimensional signals (that is, a one-dimensional signal (luminance data) along the conveyance direction of the measurement object). , A signal group associated with each position in the width direction). In addition, the filter processing unit 171 performs a filter calculation process as described below on each one-dimensional signal (L (x) in FIG. 13 shown below).

本実施形態に係る撮像部101では、デジタル撮像処理が行われているため、エリアセンサ113から出力される撮像データには、電気的ノイズが重畳している。従って、かかる電気的ノイズを撮像データから除去するために、ローパスフィルタを用いることが好ましい。また、以下で説明する表面形状算出処理では、撮像データの合焦判断を実施するが、合焦判断は局所的な地合いに着目する必要があるため、ハイパスフィルタを用いることが好ましい。以上のような2つの観点から、フィルタ処理部171は、データ取得部153から伝送された撮像データに対して、バンドパスフィルタを用いたフィルタ演算処理を行うことが好ましい。   In the imaging unit 101 according to the present embodiment, since digital imaging processing is performed, electrical noise is superimposed on the imaging data output from the area sensor 113. Therefore, it is preferable to use a low-pass filter in order to remove such electrical noise from the imaging data. Further, in the surface shape calculation process described below, in-focus determination of imaging data is performed. Since the in-focus determination needs to pay attention to local texture, it is preferable to use a high-pass filter. From the above two viewpoints, it is preferable that the filter processing unit 171 performs a filter calculation process using a bandpass filter on the imaging data transmitted from the data acquisition unit 153.

ここで、どのようなバンドパスフィルタを撮像データに対して作用させればよいかを検討するために、本発明者は、測定対象物として、表面に地肌模様を有する平板を測定した。その上で、以下で詳細に説明するような合焦位置の特定処理を実施して、合焦位置の搬送方向座標を画素単位で特定し、かかる座標のバラつき度合い(すなわち、標準偏差)を算出した。より詳細には、様々な通過帯域を有するバンドパスフィルタを利用した、以下で詳述するような合焦位置の特定処理を実施して、得られた合焦位置のバラつき度合いを検討した。   Here, in order to examine what band pass filter should be applied to the imaging data, the present inventor measured a flat plate having a ground pattern on the surface as a measurement object. Then, the focus position specifying process as described in detail below is performed, the transport direction coordinates of the focus position are specified in units of pixels, and the degree of variation (that is, standard deviation) of the coordinates is calculated. did. More specifically, the focus position specifying process as described in detail below using bandpass filters having various pass bands was performed, and the degree of variation in the focus position obtained was examined.

得られた結果を、図7に示した。
図7において、横軸は、バンドパスフィルタの透過帯域の下限側(以下、低周波側ともいう。)の周波数であり、縦軸は、バンドパスフィルタの透過帯域の上限側(以下、高周波側ともいう。)の周波数であり、各格子点における円形が標準偏差の大きさ(単位:画素)を示している。ここで、バンドパスフィルタの透過帯域周波数は、画素間隔に対応する空間周波数の1/2、すなわちナイキスト周波数を1として、表している。なお、図7では、円形状の直径が標準偏差に比例するように図示しており、標準偏差が100以上であるものについては、例えば(低周波側0、高周波側0.1)の位置の円形で表されるような一定の直径を有する円形として図示を行った。
The obtained results are shown in FIG.
In FIG. 7, the horizontal axis represents the frequency on the lower limit side (hereinafter also referred to as the low frequency side) of the transmission band of the bandpass filter, and the vertical axis represents the upper limit side (hereinafter referred to as the high frequency side) of the transmission band of the bandpass filter. The circle at each lattice point indicates the standard deviation (unit: pixel). Here, the transmission band frequency of the bandpass filter is represented by assuming that the spatial frequency corresponding to the pixel interval is 1/2, that is, the Nyquist frequency is 1. In FIG. 7, the diameter of the circular shape is shown to be proportional to the standard deviation, and for the case where the standard deviation is 100 or more, for example, at the position of (low frequency side 0, high frequency side 0.1). The illustration is made as a circle having a constant diameter as represented by a circle.

図7から明らかなように、画素間隔をサンプリング間隔とした場合のナイキスト周波数で正規化した周波数に対して、通過帯域の下限が0.1以上0.3以下であり、上限が0.5以上0.7以下であるバンドパスフィルタを利用した場合に、標準偏差が極めて小さくなることが明らかとなった。そのため、本実施形態に係るフィルタ処理部171は、一次元信号の集合である撮像データに対して、画素間隔をサンプリング間隔とした場合のナイキスト周波数で正規化した周波数周波数に対して、通過帯域の下限が0.1以上0.3以下であり、上限が0.5以上0.7以下であるバンドパスフィルタを用いたフィルタ演算処理を実施することが好ましい。その後、フィルタ処理部171は、得られたフィルタ処理後のデータ(図13におけるLbpf(x))を、前処理部173に出力する。 As is apparent from FIG. 7, the lower limit of the passband is 0.1 or more and 0.3 or less and the upper limit is 0.5 or more with respect to the frequency normalized by the Nyquist frequency when the pixel interval is the sampling interval. It was found that the standard deviation becomes extremely small when a band pass filter having a value of 0.7 or less is used. Therefore, the filter processing unit 171 according to the present embodiment has a passband of the imaging data that is a set of one-dimensional signals with respect to the frequency frequency normalized with the Nyquist frequency when the pixel interval is the sampling interval. It is preferable to perform a filter calculation process using a bandpass filter having a lower limit of 0.1 to 0.3 and an upper limit of 0.5 to 0.7. Thereafter, the filter processing unit 171 outputs the obtained data after filtering (L bpf (x) in FIG. 13) to the preprocessing unit 173.

前処理部173は、例えば、CPU、ROM、RAM等により実現される。前処理部173は、フィルタ処理部171によるフィルタ演算処理が実施された後の撮像データ(一次元信号の集合)に基づいて、かかる一次元信号の絶対値波形を算出する処理や、一次元信号のベースライン処理等といった各種の前処理を実施する。このような前処理を実施することで、データ処理部155は、精度良く合焦位置を特定して、より正確に表面形状を算出することが可能となる。以下、これらの前処理について、詳細に説明する。   The preprocessing unit 173 is realized by, for example, a CPU, a ROM, a RAM, and the like. The preprocessing unit 173 calculates the absolute value waveform of the one-dimensional signal based on the imaging data (the set of one-dimensional signals) after the filter calculation processing by the filter processing unit 171 is performed, Various pre-processing such as baseline processing is performed. By performing such preprocessing, the data processing unit 155 can accurately determine the in-focus position and calculate the surface shape more accurately. Hereinafter, these pre-processing will be described in detail.

前処理部173は、フィルタ演算処理後の撮像データ(一次元信号群)に対して、まず、絶対値波形を算出する処理を実施する。かかる絶対値波形(図13におけるLabs(x))の算出処理は、一次元信号のそれぞれについて、絶対値を取ることで実施される。 The preprocessing unit 173 first performs a process of calculating an absolute value waveform on the imaging data (one-dimensional signal group) after the filter calculation process. The calculation process of the absolute value waveform (L abs (x) in FIG. 13) is performed by taking an absolute value for each one-dimensional signal.

その後、前処理部173は、得られた絶対値波形から、絶対値波形のデータの最頻値(モード)又は中央値(メジアン)を差し引く処理を実施する。絶対値波形のデータは、絶対値を取るという操作によって算出されたものであるため、その波形の裾部の値はゼロとはならないことが多い。一方、後述する近似処理部175における近似処理で用いられる関数は、関数の裾の値がゼロとなるものであるため、絶対値波形の裾部の値がゼロではない場合には、後述する近似処理において誤差の要因となってしまう。そこで、前処理部173は、絶対値波形のデータの最頻値又は中央値を絶対値波形のデータから差し引くことで、後述する近似処理の精度をより向上させる。   Thereafter, the preprocessing unit 173 performs a process of subtracting the mode value (mode) or median value (median) of the data of the absolute value waveform from the obtained absolute value waveform. Since the data of the absolute value waveform is calculated by the operation of taking the absolute value, the value at the bottom of the waveform is not often zero. On the other hand, since the function used in the approximation processing in the approximation processing unit 175 described later has a function skirt value of zero, if the absolute value waveform skirt value is not zero, the function described later is approximated. It becomes a factor of error in processing. Therefore, the preprocessing unit 173 subtracts the mode value or median value of the absolute value waveform data from the absolute value waveform data, thereby further improving the accuracy of approximation processing described later.

前処理部173は、以上説明したような前処理を絶対値波形のデータに対して施した後、得られた絶対値波形のデータ(図13におけるL(x))を、後述する近似処理部175に出力する。 The pre-processing unit 173 performs pre-processing as described above on the absolute value waveform data, and then uses the obtained absolute value waveform data (L o (x) in FIG. 13) to approximate processing described later. Output to the unit 175.

近似処理部175は、例えば、CPU、ROM、RAM等により実現される。近似処理部175は、前処理部173から出力された前処理後の絶対値波形のデータ群のそれぞれについて、その絶対値波形を、左右対称な凸形状であり凸部ピークから離れるに従って値が0に漸近する関数により近似する。近似のためには、関数のパラメータを最適化手法により調整することが求められるが、この際、関数のパラメータは、必要最小限(すなわちピーク位置、ピークの幅、ピークの大きさの3つであること)が、安定な最適解を得るために望ましい。   The approximation processing unit 175 is realized by a CPU, a ROM, a RAM, and the like, for example. For each of the data groups of the pre-processed absolute value waveforms output from the pre-processing unit 173, the approximation processing unit 175 has the absolute value waveform having a symmetrical symmetrical convex shape and a value of 0 as the distance from the convex peak is increased. Is approximated by a function that is asymptotic to. For the approximation, it is required to adjust the function parameters by an optimization method. At this time, the function parameters are set to the minimum necessary values (that is, the peak position, the peak width, and the peak size). It is desirable to obtain a stable optimal solution.

このような、左右対称な凸形状の関数の例として、例えば、図8Aに示したような三角波関数や、図8Bに示したようなガウス関数を挙げることができる。   Examples of such left-right symmetrical convex functions include a triangular wave function as shown in FIG. 8A and a Gaussian function as shown in FIG. 8B.

図8Aに示した三角波関数は、高さA、半幅W及び中心pで規定される三角形状の関数であり、max(0,A×(1−|x−p|/w))で表される。また、図8Bに示したガウス関数は、高さA、中心p及び分散σを用いて、A×exp((x−p)/σ)で表される関数である。このような関数を用いることで、絶対値波形のピーク位置を精度良く特定することが可能となる。また、凸形状の関数として、特にガウス関数を用いた場合には、絶対値波形を滑らかな関数で近似することが可能となり、近似処理をより簡便に行うことが可能となる(図13におけるLfit(x))。 The triangular wave function shown in FIG. 8A is a triangular function defined by height A, half width W, and center p, and is represented by max (0, A × (1− | x−p | / w)). The The Gaussian function shown in FIG. 8B is a function represented by A × exp ((x−p) 2 / σ 2 ) using the height A, the center p, and the variance σ. By using such a function, the peak position of the absolute value waveform can be specified with high accuracy. Further, when a Gaussian function is used as the convex function, the absolute value waveform can be approximated by a smooth function, and the approximation process can be performed more simply (L in FIG. 13). fit (x)).

絶対値波形のデータを上記のような関数に近似する技法については、特に限定されるものではなく、多変数準ニュートン法のような公知の様々な手法を利用することが可能である。   A technique for approximating the absolute value waveform data to the function as described above is not particularly limited, and various known techniques such as a multivariable quasi-Newton method can be used.

近似処理部175は、前処理部173から出力された前処理後の絶対値波形のデータ群のそれぞれについて、上記のような凸形状の関数を用いて近似処理を行った後、そのピーク位置を特定する。近似処理部175は、このようにして得られたピーク位置を、着目している一次元信号における合焦位置として取り扱う。近似処理部175は、このような近似処理を、幅方向の各位置における一次元信号に対して実施することで、各幅方向位置での合焦位置を特定することができる。   The approximation processing unit 175 performs an approximation process on each of the preprocessed absolute value waveform data groups output from the preprocessing unit 173 using the convex function as described above, and then calculates the peak position. Identify. The approximation processing unit 175 handles the peak position obtained in this way as a focus position in the one-dimensional signal of interest. The approximation processing unit 175 can identify the in-focus position at each position in the width direction by performing such an approximation process on the one-dimensional signal at each position in the width direction.

近似処理部175は、着目している撮像データにおける各合焦位置に関する情報を、後述する形状算出部177に出力する。   The approximation processing unit 175 outputs information regarding each in-focus position in the imaging data of interest to the shape calculation unit 177 described later.

形状算出部177は、例えば、CPU、ROM、RAM等により実現される。形状算出部177は、近似処理部175により算出された合焦位置に関する情報と、撮像部101における撮像分解能と、チルトレンズ115のチルト角θから決まる合焦面の傾斜角φとに基づいて、測定対象物の表面形状を算出する。   The shape calculation unit 177 is realized by a CPU, a ROM, a RAM, and the like, for example. The shape calculation unit 177 is based on the information regarding the in-focus position calculated by the approximation processing unit 175, the imaging resolution in the imaging unit 101, and the inclining angle φ of the focusing surface determined from the tilt angle θ of the tilt lens 115. The surface shape of the measurement object is calculated.

より詳細には、形状算出部177は、それぞれの幅方向位置について、搬送方向に沿った合焦位置p(単位:画素、原点:エリアセンサ113の搬送方向中心)と、撮像分解能d(単位:mm/画素)と、合焦面の傾斜角φ(単位:度)とを利用して、以下の式101により規定される値H(i)を算出し、幅方向位置iにおける光軸Z1と合焦面S3の交点の高さを原点とする表面の高さとして取り扱う。   More specifically, the shape calculation unit 177 has, for each position in the width direction, an in-focus position p (unit: pixel, origin: center of the area sensor 113 in the conveyance direction) along the conveyance direction, and imaging resolution d (unit: mm / pixel) and the tilt angle φ (unit: degree) of the focal plane, a value H (i) defined by the following equation 101 is calculated, and the optical axis Z1 at the width direction position i is calculated. The height of the intersection point of the focal plane S3 is treated as the height of the surface with the origin.

H(i)=p×d×tanφ ・・・(式101)   H (i) = p × d × tan φ (Formula 101)

合焦面の傾斜角φの大きさに関する情報は、形状算出部177が撮像制御部151から予め取得したり、演算処理に先立ってユーザが予め演算処理部103に対して値を入力したりすることで、得ることが可能である。また、撮像分解能bは、撮像部101の光学設計値等に基づいて予め把握可能な値であるため、記憶部161等に予めデータベースとして格納しておけばよい。   Information regarding the size of the tilt angle φ of the focal plane is acquired in advance by the shape calculation unit 177 from the imaging control unit 151, or a user inputs a value to the calculation processing unit 103 in advance prior to the calculation processing. It is possible to obtain. Moreover, since the imaging resolution b is a value that can be grasped in advance based on the optical design value of the imaging unit 101 or the like, it may be stored in advance as a database in the storage unit 161 or the like.

形状算出部177は、以上説明したような演算処理により測定対象物の高さ分布を算出すると、得られた算出結果を、測定結果として処理結果出力部157に出力する。   When the shape calculation unit 177 calculates the height distribution of the measurement object by the arithmetic processing as described above, the shape calculation unit 177 outputs the obtained calculation result to the processing result output unit 157 as the measurement result.

以上、図5〜図8Bを参照しながら、本実施形態に係る形状測定装置10が備える演算処理部103について、詳細に説明した。   The arithmetic processing unit 103 included in the shape measuring apparatus 10 according to the present embodiment has been described in detail above with reference to FIGS.

以上、本実施形態に係る演算処理部の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。   Heretofore, an example of the function of the arithmetic processing unit according to the present embodiment has been shown. Each component described above may be configured using a general-purpose member or circuit, or may be configured by hardware specialized for the function of each component. In addition, the CPU or the like may perform all functions of each component. Therefore, it is possible to appropriately change the configuration to be used according to the technical level at the time of carrying out the present embodiment.

なお、上述のような本実施形態に係る演算処理部の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。   It should be noted that a computer program for realizing each function of the arithmetic processing unit according to the present embodiment as described above can be produced and installed in a personal computer or the like. In addition, a computer-readable recording medium storing such a computer program can be provided. The recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed via a network, for example, without using a recording medium.

<形状測定方法の流れについて>
続いて、図9及び図10を参照しながら、本実施形態に係る形状測定装置10で実施される形状測定方法の流れの一例について、簡単に説明する。図9及び図10は、本実施形態に係る形状測定方法の流れの一例を示した流れ図である。
<Flow of shape measurement method>
Subsequently, an example of the flow of the shape measuring method performed by the shape measuring apparatus 10 according to the present embodiment will be briefly described with reference to FIGS. 9 and 10. 9 and 10 are flowcharts showing an example of the flow of the shape measuring method according to the present embodiment.

[全体的な流れについて]
まず、図9を参照しながら、形状測定方法の全体的な流れについて簡単に説明する。
形状測定装置10の撮像部101は、演算処理部103の撮像制御部151による制御のもとで、所定の方向に搬送されている測定対象物を搬送方向に走査して撮像データを生成し(ステップS101)、得られた撮像データを演算処理部103に出力する。
[Overall flow]
First, the overall flow of the shape measuring method will be briefly described with reference to FIG.
The imaging unit 101 of the shape measuring apparatus 10 generates imaging data by scanning a measurement object conveyed in a predetermined direction in the conveyance direction under the control of the imaging control unit 151 of the arithmetic processing unit 103 ( In step S101), the obtained imaging data is output to the arithmetic processing unit 103.

演算処理部103のデータ取得部153は、撮像部101によって生成された撮像データを取得すると、取得した撮像データを、データ処理部155へと出力する。   When the data acquisition unit 153 of the arithmetic processing unit 103 acquires the imaging data generated by the imaging unit 101, the data acquisition unit 153 outputs the acquired imaging data to the data processing unit 155.

演算処理部103のデータ処理部155は、伝送された撮像データを利用して、形状算出処理を実施する(ステップS103)。その後、データ処理部155は、得られた測定対象物の測定結果を、処理結果出力部157に出力する。   The data processing unit 155 of the arithmetic processing unit 103 performs shape calculation processing using the transmitted imaging data (step S103). Thereafter, the data processing unit 155 outputs the obtained measurement result of the measurement object to the processing result output unit 157.

処理結果出力部157は、データ処理部155により算出された測定対象物の表面形状に関する情報を、ユーザや外部に設けられた各種の機器に出力する(ステップS105)。これにより、ユーザは、測定対象物の表面形状に関する測定結果を把握することが可能となる。   The processing result output unit 157 outputs information on the surface shape of the measurement target calculated by the data processing unit 155 to the user and various devices provided outside (step S105). Thereby, the user can grasp the measurement result regarding the surface shape of the measurement object.

[表面形状の算出処理の流れについて]
次に、図10を参照しながら、データ処理部155によって実施される表面形状の算出処理の流れについて、簡単に説明する。
[Surface shape calculation processing flow]
Next, the flow of the surface shape calculation process performed by the data processing unit 155 will be briefly described with reference to FIG.

データ処理部155は、データ取得部153から出力された撮像データI(x,y)(x:搬送方向、y:幅方向)を取得すると(ステップS201)、パラメータi=1に設定することで(ステップS203)、処理対象とする一次元信号L(x)を、I(x,i)とする(ステップS205)。   When the data processing unit 155 acquires the imaging data I (x, y) (x: transport direction, y: width direction) output from the data acquisition unit 153 (step S201), the data processing unit 155 sets the parameter i = 1. (Step S203), the one-dimensional signal L (x) to be processed is set to I (x, i) (Step S205).

続いて、データ処理部155のフィルタ処理部171は、処理対象である一次元信号L(x)に対して、上記のようなバンドパスフィルタ処理を実施し、フィルタ処理後の信号Lbpf(x)を生成する(ステップS207)。その後、フィルタ処理部171は、得られた信号Lbpf(x)を、前処理部173に出力する。 Subsequently, the filter processing unit 171 of the data processing unit 155 performs the bandpass filter processing as described above on the one-dimensional signal L (x) to be processed, and the filtered signal L bpf (x ) Is generated (step S207). Thereafter, the filter processing unit 171 outputs the obtained signal L bpf (x) to the preprocessing unit 173.

前処理部173は、まず、信号Lbpf(x)に対して絶対値処理を実施して、絶対値処理後の信号Labs(x)を生成する(ステップS209)。続いて、前処理部173は、得られた信号Labs(x)に対して、中央値又は最頻値を利用したベースライン処理を実施して、ベースライン処理後の信号L(x)を生成する(ステップS211)。その後、前処理部173は、得られた前処理後の信号L(x)を、近似処理部175に出力する。 First, the preprocessing unit 173 performs absolute value processing on the signal L bpf (x) to generate a signal L abs (x) after absolute value processing (step S209). Subsequently, the preprocessing unit 173 performs baseline processing using the median value or the mode value on the obtained signal L abs (x), and the signal L o (x) after the baseline processing is performed. Is generated (step S211). Thereafter, the preprocessing unit 173 outputs the obtained preprocessed signal L o (x) to the approximation processing unit 175.

続いて、近似処理部175は、ガウス関数や三角波関数等といった凸状関数を利用して、信号L(x)に対して関数近似処理を実施し(ステップS213)、ピーク位置pを特定する。その後、近似処理部175は、得られたピーク位置pに関する情報を、形状算出部177に出力する。 Subsequently, the approximation processing unit 175 performs function approximation processing on the signal L o (x) using a convex function such as a Gaussian function or a triangular wave function (step S213), and specifies the peak position p. . Thereafter, the approximation processing unit 175 outputs information on the obtained peak position p to the shape calculation unit 177.

続いて、形状算出部177は、近似処理部175によって算出されたピーク位置pと、撮像分解能dと、合焦面の傾斜角φと、を利用して、幅方向iにおける表面高さの分布を示す関数H(x)=p×d×tanφを算出する(ステップS215)。 Subsequently, the shape calculation unit 177 uses the peak position p calculated by the approximation processing unit 175, the imaging resolution d, and the tilt angle φ of the focal plane to distribute the surface height in the width direction i. A function H i (x) = p × d × tan φ is calculated (step S215).

その後、データ処理部155は、パラメータiが画像高さに等しいか否かを判断する(ステップS217)。パラメータiが画像高さに等しくない場合には、パラメータiをi+1に設定して(ステップS219)、データ処理部155は、ステップS205以降の処理を再び実行する。一方、パラメータiが画像高さに等しい場合には、得られたH(x)の集合を、着目している撮像データにおける幅方向の高さ分布とし(ステップS221)、処理結果出力部157に出力する。 Thereafter, the data processing unit 155 determines whether or not the parameter i is equal to the image height (step S217). If the parameter i is not equal to the image height, the parameter i is set to i + 1 (step S219), and the data processing unit 155 executes the processing after step S205 again. On the other hand, when the parameter i is equal to the image height, the obtained set of H i (x) is set as the height distribution in the width direction in the imaging data of interest (step S221), and the processing result output unit 157 Output to.

以上、図9及び図10を参照しながら、本実施形態に係る形状測定装置10で実施される形状測定方法の流れの一例について、簡単に説明した。   The example of the flow of the shape measuring method performed by the shape measuring apparatus 10 according to the present embodiment has been briefly described above with reference to FIGS. 9 and 10.

(ハードウェア構成について)
次に、図11を参照しながら、本発明の実施形態に係る演算処理部103のハードウェア構成の一例について、詳細に説明する。図11は、本発明の実施形態に係る演算処理部103のハードウェア構成の一例を説明するためのブロック図である。
(About hardware configuration)
Next, an example of a hardware configuration of the arithmetic processing unit 103 according to the embodiment of the present invention will be described in detail with reference to FIG. FIG. 11 is a block diagram for explaining an example of the hardware configuration of the arithmetic processing unit 103 according to the embodiment of the present invention.

演算処理部103は、主に、CPU901と、ROM903と、RAM905と、を備える。また、演算処理部103は、更に、バス907と、入力装置909と、出力装置911と、ストレージ装置913と、ドライブ915と、接続ポート917と、通信装置919とを備える。   The arithmetic processing unit 103 mainly includes a CPU 901, a ROM 903, and a RAM 905. The arithmetic processing unit 103 further includes a bus 907, an input device 909, an output device 911, a storage device 913, a drive 915, a connection port 917, and a communication device 919.

CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置913、またはリムーバブル記録媒体921に記録された各種プログラムに従って、形状測定装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるバス907により相互に接続されている。   The CPU 901 functions as an arithmetic processing device and a control device, and controls all or a part of the operation in the shape measuring device 10 according to various programs recorded in the ROM 903, the RAM 905, the storage device 913, or the removable recording medium 921. The ROM 903 stores programs used by the CPU 901, calculation parameters, and the like. The RAM 905 primarily stores programs used by the CPU 901, parameters that change as appropriate during execution of the programs, and the like. These are connected to each other by a bus 907 constituted by an internal bus such as a CPU bus.

バス907は、ブリッジを介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バスに接続されている。   The bus 907 is connected to an external bus such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge.

入力装置909は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなどユーザが操作する操作手段である。また、入力装置909は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、形状測定装置10の操作に対応したPDA等の外部接続機器923であってもよい。さらに、入力装置909は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。形状測定装置10のユーザは、この入力装置909を操作することにより、形状測定装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。   The input device 909 is an operation unit operated by the user, such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever. The input device 909 may be, for example, remote control means (so-called remote control) using infrared rays or other radio waves, or may be an external connection device 923 such as a PDA corresponding to the operation of the shape measuring apparatus 10. May be. Furthermore, the input device 909 includes, for example, an input control circuit that generates an input signal based on information input by a user using the operation unit and outputs the input signal to the CPU 901. The user of the shape measuring apparatus 10 can input various data and instruct a processing operation to the shape measuring apparatus 10 by operating the input device 909.

出力装置911は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置およびランプなどの表示装置や、スピーカおよびヘッドホンなどの音声出力装置や、プリンタ装置、携帯電話、ファクシミリなどがある。出力装置911は、例えば、形状測定装置10が行った各種処理により得られた結果を出力する。具体的には、表示装置は、形状測定装置10が行った各種処理により得られた結果を、テキストまたはイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。   The output device 911 is configured by a device that can notify the user of the acquired information visually or audibly. Examples of such devices include CRT display devices, liquid crystal display devices, plasma display devices, EL display devices and display devices such as lamps, audio output devices such as speakers and headphones, printer devices, mobile phones, and facsimiles. The output device 911 outputs results obtained by various processes performed by the shape measuring device 10, for example. Specifically, the display device displays the results obtained by various processes performed by the shape measuring device 10 as text or images. On the other hand, the audio output device converts an audio signal composed of reproduced audio data, acoustic data, and the like into an analog signal and outputs the analog signal.

ストレージ装置913は、演算処理部103の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置913は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイス等により構成される。このストレージ装置913は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。   The storage device 913 is a data storage device configured as an example of a storage unit of the arithmetic processing unit 103. The storage device 913 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device. The storage device 913 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.

ドライブ915は、記録媒体用リーダライタであり、形状測定装置10に内蔵、あるいは外付けされる。ドライブ915は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体921に記録されている情報を読み出して、RAM905に出力する。また、ドライブ915は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体921に記録を書き込むことも可能である。リムーバブル記録媒体921は、例えば、CDメディア、DVDメディア、Blu−ray(登録商標)メディア等である。また、リムーバブル記録媒体921は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、フラッシュメモリ、または、SDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体921は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)または電子機器等であってもよい。   The drive 915 is a recording medium reader / writer, and is built in or externally attached to the shape measuring apparatus 10. The drive 915 reads information recorded on a removable recording medium 921 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 905. The drive 915 can also write a record on a removable recording medium 921 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory. The removable recording medium 921 is, for example, a CD medium, a DVD medium, a Blu-ray (registered trademark) medium, or the like. The removable recording medium 921 may be a CompactFlash (registered trademark) (CompactFlash: CF), a flash memory, an SD memory card (Secure Digital memory card), or the like. Further, the removable recording medium 921 may be, for example, an IC card (Integrated Circuit card) on which a non-contact IC chip is mounted, an electronic device, or the like.

接続ポート917は、機器を形状測定装置10に直接接続するためのポートである。接続ポート917の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート、RS−232Cポート等がある。この接続ポート917に外部接続機器923を接続することで、形状測定装置10は、外部接続機器923から直接各種のデータを取得したり、外部接続機器923に各種のデータを提供したりする。   The connection port 917 is a port for directly connecting a device to the shape measuring apparatus 10. Examples of the connection port 917 include a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, and an RS-232C port. By connecting the external connection device 923 to the connection port 917, the shape measuring apparatus 10 acquires various data directly from the external connection device 923 or provides various data to the external connection device 923.

通信装置919は、例えば、通信網925に接続するための通信デバイス等で構成された通信インターフェースである。通信装置919は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カード等である。また、通信装置919は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデム等であってもよい。この通信装置919は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置919に接続される通信網925は、有線または無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信等であってもよい。   The communication device 919 is a communication interface configured with, for example, a communication device for connecting to the communication network 925. The communication device 919 is, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB). The communication device 919 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communication. The communication device 919 can transmit and receive signals and the like according to a predetermined protocol such as TCP / IP, for example, with the Internet and other communication devices. The communication network 925 connected to the communication device 919 is configured by a wired or wireless network, and may be, for example, the Internet, a home LAN, infrared communication, radio wave communication, satellite communication, or the like. .

以上、本発明の実施形態に係る演算処理部103の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。   Heretofore, an example of the hardware configuration capable of realizing the function of the arithmetic processing unit 103 according to the embodiment of the present invention has been shown. Each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Therefore, it is possible to change the hardware configuration to be used as appropriate according to the technical level at the time of carrying out this embodiment.

なお、以上では、可視光を利用する場合について説明したが、可視光以外の場合であっても、適切な撮像素子とレンズ材料とを組み合わせることで、本発明を適用できることは明らかである。例えば、遠赤外光を利用する場合には、撮像素子としてマイクロボロメータ、レンズ材料としてゲルマニウムやジンクセレンを用いればよい。   Although the case where visible light is used has been described above, it is apparent that the present invention can be applied by combining an appropriate image sensor and lens material even in cases other than visible light. For example, when using far-infrared light, a microbolometer may be used as the imaging element, and germanium or zinc selenium may be used as the lens material.

上記から明らかなように、対象の地肌模様はバンドパスフィルタの高周波側よりも高い周波数成分を含んでおり、かつその大きさが高周波側の電気ノイズより大きい必要がある。   As is apparent from the above, the target background pattern contains a higher frequency component than the high-frequency side of the bandpass filter, and its size needs to be larger than the electrical noise on the high-frequency side.

また、測定対象物が有する地肌模様にエンボス加工のような周期性がある場合には、関数近似の必要はなく、かかる周期に対応する周波数成分のみを透過する狭帯域バンドパスフィルタを用いて、バンドパスフィルタ出力の絶対値が最大となる位置を合焦位置pとすればよい。   In addition, when the texture of the measurement object has periodicity such as embossing, there is no need for function approximation, and a narrow bandpass filter that transmits only the frequency component corresponding to the period is used. The position where the absolute value of the bandpass filter output is maximized may be set as the in-focus position p.

続いて、具体例を示しながら、本発明の実施形態に係る形状測定装置及び形状測定方法について、具体的に説明を行う。ここで、以下に示す実験例は、本発明の実施形態に係る形状測定装置及び形状測定方法のあくまでも一例であって、本発明の実施形態に係る形状測定装置及び形状測定方法が、以下に示す実験例に限定されるものではない。   Subsequently, the shape measuring apparatus and the shape measuring method according to the embodiment of the present invention will be specifically described with specific examples. Here, the experimental example shown below is merely an example of the shape measuring apparatus and the shape measuring method according to the embodiment of the present invention, and the shape measuring apparatus and the shape measuring method according to the embodiment of the present invention are shown below. It is not limited to experimental examples.

(実験例1)
以下に示す実験例1では、本発明の実施形態に係る形状測定装置10を利用して、湾曲面を有する測定対象物を撮像し、正確な表面形状が測定されたか否かについて検証を行った。
(Experimental example 1)
In Experimental Example 1 shown below, the shape measuring apparatus 10 according to the embodiment of the present invention was used to image a measurement object having a curved surface, and whether or not an accurate surface shape was measured was verified. .

なお、撮像部101として、焦点距離f=85mm、F値=2.8のチルトレンズを利用し、チルト角を8.5°に設定し、撮像倍率を1倍に設定した。また、エリアカメラの撮像素子(エリアセンサ)は、幅方向2352画素×積分方向1726画素であり、撮像分解能は、0.01mm/画素であった。また、チルトレンズから測定対象物までの離隔距離は、190mmとした。   Note that a tilt lens having a focal length f = 85 mm and an F value = 2.8 was used as the imaging unit 101, the tilt angle was set to 8.5 °, and the imaging magnification was set to 1. Further, the imaging device (area sensor) of the area camera was 2352 pixels in the width direction × 1726 pixels in the integration direction, and the imaging resolution was 0.01 mm / pixel. The separation distance from the tilt lens to the measurement object was 190 mm.

また、湾曲面を有する測定対象物としては、直径24mmの棒鋼を利用した。   Further, a steel bar having a diameter of 24 mm was used as a measurement object having a curved surface.

更に、形状算出処理に用いられるバンドパスフィルタとしては、画素間隔を2とした周波数に対して、通過帯域が0.2〜0.6であるバンドパスフィルタを利用し、ベースライン処理では、絶対値波形のデータから中央値(メジアン)を差し引いた。また、絶対値波形を近似する凸状関数としては、ガウス関数を利用した。   Furthermore, as a band pass filter used for the shape calculation process, a band pass filter having a pass band of 0.2 to 0.6 with respect to a frequency with a pixel interval of 2 is used. The median (median) was subtracted from the value waveform data. In addition, a Gaussian function was used as a convex function for approximating the absolute value waveform.

図12は、上記のような撮像部101によって撮像された撮像データを示したものであり、図12の横方向が搬送方向(棒鋼の長手方向)xであり、縦方向が幅方向yである。図12から明らかなように、得られた撮像データには、ピントが合っている領域と、ピントが合っておらずボケた状態となっている領域とが混在していることがわかる。   FIG. 12 shows imaging data imaged by the imaging unit 101 as described above, and the horizontal direction in FIG. 12 is the conveying direction (longitudinal direction of the steel bar) x, and the vertical direction is the width direction y. . As can be seen from FIG. 12, the obtained imaging data includes a region in focus and a region out of focus and in a blurred state.

図12に示した撮像データのある幅方向位置について、一次元信号の強度分布L(x)を、図13の最上段に示した。この一次元信号L(x)に対して、上記のようなバンドパスフィルタを用いたフィルタ処理を行った結果、図13の上から2段目に示したような信号Lbpf(x)が得られた。次に、かかる信号Lbpf(x)に対して絶対値処理を行った結果、図13の上から3段目に示した絶対値波形信号Labs(x)が得られ、この絶対値波形に対してベースライン処理を行った結果、図13の下から2段目に示した信号L(x)が得られた。この信号L(x)をガウス関数でフィッティングした結果、図13の最下段に示したようなガウス関数が得られた。ガウス関数のピーク位置のx座標として、x=1680が出力された。 The intensity distribution L (x) of the one-dimensional signal is shown at the top of FIG. 13 with respect to the position in the width direction of the imaging data shown in FIG. As a result of performing the filtering process using the bandpass filter as described above on the one-dimensional signal L (x), a signal L bpf (x) as shown in the second stage from the top in FIG. 13 is obtained. It was. Next, as a result of performing absolute value processing on the signal L bpf (x), the absolute value waveform signal L abs (x) shown in the third row from the top in FIG. 13 is obtained, As a result of performing the baseline processing on the signal, the signal L o (x) shown in the second row from the bottom of FIG. 13 was obtained. As a result of fitting this signal L o (x) with a Gaussian function, a Gaussian function as shown at the bottom of FIG. 13 was obtained. X = 1680 was output as the x coordinate of the peak position of the Gaussian function.

このような処理を、撮像データの幅方向に対して随時実施した結果、図14に示したような合焦位置の分布が得られた。このような合焦位置の分布から算出された表面高さHを、図15Aに実線で示した。なお、図15Aでは、得られた測定値に対して7点移動平均を施した後の結果を、示している。また、図15Aでは、直径24mmの棒鋼の断面形状が真円であるとして算出した理論値を、破線であわせて示している。   As a result of performing such processing as needed in the width direction of the imaged data, a distribution of in-focus positions as shown in FIG. 14 was obtained. The surface height H calculated from the distribution of in-focus positions is shown by a solid line in FIG. 15A. In FIG. 15A, the result after the 7-point moving average is applied to the obtained measured value is shown. Moreover, in FIG. 15A, the theoretical value calculated on the assumption that the cross-sectional shape of the steel bar having a diameter of 24 mm is a perfect circle is also shown by a broken line.

図15Aから明らかなように、本発明の実施形態に係る形状測定装置10で測定された棒鋼の表面高さの測定値は、理論値に極めて一致していることがわかる。また、図15Bには、得られた測定値の理論値からの誤差を示しているが、得られた測定値の標準偏差は、0.12mmであった。   As is clear from FIG. 15A, it can be seen that the measured value of the surface height of the steel bar measured by the shape measuring apparatus 10 according to the embodiment of the present invention is very consistent with the theoretical value. FIG. 15B shows an error of the obtained measured value from the theoretical value, and the standard deviation of the obtained measured value was 0.12 mm.

ここで、上記特許文献2に開示されているようなステレオ法における高さ計測の誤差は、奥行きの1〜2%程度であることが知られている。一方、今回の実験例における奥行き方向の離隔距離は、上記のように190mmであるため、上記の誤差は、0.12mm/190mm×100=0.06%に対応する。従って、本発明の実施形態に係る形状測定装置10で得られた表面形状の測定結果は、ステレオ法によって測定された表面形状よりも極めて優れた精度を有していることが明らかとなった。   Here, it is known that the error of the height measurement in the stereo method as disclosed in Patent Document 2 is about 1-2% of the depth. On the other hand, since the separation distance in the depth direction in this experimental example is 190 mm as described above, the above error corresponds to 0.12 mm / 190 mm × 100 = 0.06%. Therefore, it has been clarified that the measurement result of the surface shape obtained by the shape measuring apparatus 10 according to the embodiment of the present invention has extremely superior accuracy than the surface shape measured by the stereo method.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

10 形状測定装置
101 撮像部
103 演算処理部
111 エリアカメラ
113 エリアセンサ
115 チルトレンズ
117 照明光源
151 撮像制御部
153 データ取得部
155 データ処理部
157 処理結果出力部
159 表示制御部
161 記憶部
171 フィルタ処理部
173 前処理部
175 近似処理部
177 形状算出部
DESCRIPTION OF SYMBOLS 10 Shape measuring apparatus 101 Imaging part 103 Arithmetic processing part 111 Area camera 113 Area sensor 115 Tilt lens 117 Illumination light source 151 Imaging control part 153 Data acquisition part 155 Data processing part 157 Processing result output part 159 Display control part 161 Storage part 171 Filter processing Unit 173 pre-processing unit 175 approximation processing unit 177 shape calculation unit

Claims (8)

一次元方向に搬送されており、表面に地肌模様を有する測定対象物の像を撮像するエリアセンサと、チルト軸が前記エリアセンサの撮像面に対して平行かつ搬送方向に対して直交するように設けられたチルトレンズと、を有する撮像部と、
前記撮像部により撮像された撮像データを、前記測定対象物の幅方向位置毎の一次元信号の集合として取り扱い、当該撮像データの前記搬送方向における合焦位置を特定し、前記チルトレンズの焦点距離とチルト角と前記撮像部の撮像倍率とからシャインプルーフ条件によって定まる直線と、撮像分解能と、に基づいて、前記合焦位置を前記測定対象物の形状に変換する演算処理部と、
を備える、形状測定装置。
An area sensor that is transported in a one-dimensional direction and captures an image of a measurement object having a background pattern on the surface, and a tilt axis that is parallel to the imaging surface of the area sensor and orthogonal to the transport direction An imaging unit having a provided tilt lens;
The imaging data captured by the imaging unit is handled as a set of one-dimensional signals for each position in the width direction of the measurement object, the in-focus position in the transport direction of the imaging data is specified, and the focal length of the tilt lens An arithmetic processing unit that converts the in-focus position into the shape of the measurement object based on a straight line determined by the Scheinproof condition from the tilt angle and the imaging magnification of the imaging unit, and the imaging resolution;
A shape measuring device.
前記シャインプルーフ条件と、前記エリアセンサの搬送方向の長さと、から決まる合焦可能範囲は、前記測定対象物の奥行き範囲を含むように設定されている、請求項1に記載の形状測定装置。   The shape measuring apparatus according to claim 1, wherein a focusable range determined by the Shineproof condition and a length in the conveyance direction of the area sensor is set so as to include a depth range of the measurement object. 前記演算処理部は、
画素間隔をサンプリング間隔とした場合のナイキスト周波数で正規化した周波数に対して、通過帯域の下限が0.1以上0.3以下であり、上限が0.5以上0.7以下であるバンドパスフィルタを利用し、
当該バンドパスフィルタを通過した前記一次元信号の強度が最大となる位置を、前記合焦位置として特定する、請求項1又は2に記載の形状測定装置。
The arithmetic processing unit includes:
A band pass whose lower limit of the passband is 0.1 or more and 0.3 or less and whose upper limit is 0.5 or more and 0.7 or less with respect to the frequency normalized with the Nyquist frequency when the pixel interval is set as the sampling interval Use filters,
The shape measuring apparatus according to claim 1, wherein a position where the intensity of the one-dimensional signal that has passed through the bandpass filter is maximum is specified as the in-focus position.
前記演算処理部は、
前記バンドパスフィルタを通過した前記一次元信号の絶対値で規定される絶対値波形を、左右対称な凸形状であり凸部ピークから離れるに従って値が0に漸近する関数により近似して、
前記関数のピーク位置を、前記一次元信号の強度が最大となる位置とする、請求項3に記載の形状測定装置。
The arithmetic processing unit includes:
The absolute value waveform defined by the absolute value of the one-dimensional signal that has passed through the bandpass filter is approximated by a function that is a convex shape that is symmetrical to the left and right and that gradually approaches 0 as the distance from the peak of the convex portion increases.
The shape measuring apparatus according to claim 3, wherein the peak position of the function is a position where the intensity of the one-dimensional signal is maximized.
前記演算処理部は、前記関数として、三角波関数又はガウス関数を利用する、請求項4に記載の形状測定装置。   The shape measurement apparatus according to claim 4, wherein the arithmetic processing unit uses a triangular wave function or a Gaussian function as the function. 前記演算処理部は、前記関数による近似に先立ち、前記絶対値波形のデータから当該絶対値波形のデータの最頻値を差し引く、請求項4又は5に記載の形状測定装置。   The shape measuring device according to claim 4, wherein the arithmetic processing unit subtracts the mode value of the absolute value waveform data from the absolute value waveform data prior to approximation by the function. 前記演算処理部は、前記関数による近似に先立ち、前記絶対値波形のデータから当該絶対値波形のデータの中央値を差し引く、請求項4又は5に記載の形状測定装置。   6. The shape measuring apparatus according to claim 4, wherein the arithmetic processing unit subtracts a median value of the absolute value waveform data from the absolute value waveform data prior to approximation by the function. 一次元方向に搬送されており、表面に地肌模様を有する測定対象物の像を撮像するエリアセンサと、チルト軸が前記エリアセンサの撮像面に対して平行かつ搬送方向に対して直交するように設けられたチルトレンズと、を有する撮像部により、前記測定対象物を撮像するステップと、
撮像された撮像データを、前記測定対象物の幅方向位置毎の一次元信号の集合として取り扱い、当該撮像データの前記搬送方向における合焦位置を特定するステップと、
前記チルトレンズの焦点距離とチルト角と前記撮像部の撮像倍率とからシャインプルーフ条件によって定まる直線と、撮像分解能と、に基づいて、特定した前記合焦位置を前記測定対象物の形状に変換するステップと、
を含む、形状測定方法。
An area sensor that is transported in a one-dimensional direction and captures an image of a measurement object having a background pattern on the surface, and a tilt axis that is parallel to the imaging surface of the area sensor and orthogonal to the transport direction A step of imaging the measurement object by an imaging unit having a tilt lens provided;
Treating the captured image data as a set of one-dimensional signals for each position in the width direction of the measurement object, and specifying a focus position in the transport direction of the image data;
The identified in-focus position is converted into the shape of the measurement object based on a straight line determined by Shineproof conditions from the focal length and tilt angle of the tilt lens and the imaging magnification of the imaging unit, and the imaging resolution. Steps,
A shape measuring method.
JP2014213169A 2014-10-17 2014-10-17 Shape measuring apparatus and shape measuring method Active JP6372300B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014213169A JP6372300B2 (en) 2014-10-17 2014-10-17 Shape measuring apparatus and shape measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014213169A JP6372300B2 (en) 2014-10-17 2014-10-17 Shape measuring apparatus and shape measuring method

Publications (2)

Publication Number Publication Date
JP2016080546A true JP2016080546A (en) 2016-05-16
JP6372300B2 JP6372300B2 (en) 2018-08-15

Family

ID=55956151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014213169A Active JP6372300B2 (en) 2014-10-17 2014-10-17 Shape measuring apparatus and shape measuring method

Country Status (1)

Country Link
JP (1) JP6372300B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10810714B2 (en) 2017-08-15 2020-10-20 Canon Kabushiki Kaisha Image restoration processing utilizing settings for image correction

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5500737A (en) * 1993-07-21 1996-03-19 General Electric Company Method for measuring the contour of a surface
JPH11211439A (en) * 1998-01-22 1999-08-06 Takaoka Electric Mfg Co Ltd Surface form measuring device
JPH11344321A (en) * 1998-06-01 1999-12-14 Akira Ishii Noncontact measuring method for three dimensional object shape and device
JP2001160953A (en) * 1999-12-01 2001-06-12 Sony Corp Image recorder and method
JP2006003335A (en) * 2004-06-17 2006-01-05 Akira Ishii Noncontact measuring method of shape of three dimensional object
JP2008140103A (en) * 2006-12-01 2008-06-19 Tokyo Electric Power Co Inc:The Image analysis system and computer program
JP2008185381A (en) * 2007-01-29 2008-08-14 Nikon Corp Shape measuring system
JP2008281776A (en) * 2007-05-10 2008-11-20 Mitsubishi Electric Corp Melody extraction device and melody extraction method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5500737A (en) * 1993-07-21 1996-03-19 General Electric Company Method for measuring the contour of a surface
JPH11211439A (en) * 1998-01-22 1999-08-06 Takaoka Electric Mfg Co Ltd Surface form measuring device
JPH11344321A (en) * 1998-06-01 1999-12-14 Akira Ishii Noncontact measuring method for three dimensional object shape and device
JP2001160953A (en) * 1999-12-01 2001-06-12 Sony Corp Image recorder and method
JP2006003335A (en) * 2004-06-17 2006-01-05 Akira Ishii Noncontact measuring method of shape of three dimensional object
JP2008140103A (en) * 2006-12-01 2008-06-19 Tokyo Electric Power Co Inc:The Image analysis system and computer program
JP2008185381A (en) * 2007-01-29 2008-08-14 Nikon Corp Shape measuring system
JP2008281776A (en) * 2007-05-10 2008-11-20 Mitsubishi Electric Corp Melody extraction device and melody extraction method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10810714B2 (en) 2017-08-15 2020-10-20 Canon Kabushiki Kaisha Image restoration processing utilizing settings for image correction

Also Published As

Publication number Publication date
JP6372300B2 (en) 2018-08-15

Similar Documents

Publication Publication Date Title
US9600928B2 (en) Method and device for automatically identifying a point of interest on the surface of an anomaly
US9875574B2 (en) Method and device for automatically identifying the deepest point on the surface of an anomaly
WO2015133287A1 (en) Surface texture indexing device, surface texture indexing method, and program
US6480287B2 (en) Three dimensional scanning system
US10306149B2 (en) Image processing apparatus, robot system, robot, and image processing method
JP6865046B2 (en) Methods and devices for automatically identifying points of interest in depth measurement of visible objects
JP2015535337A (en) Laser scanner with dynamic adjustment of angular scan speed
WO2016171263A1 (en) Shape measuring apparatus and shape measuring method
JP5385703B2 (en) Inspection device, inspection method, and inspection program
JP2016080674A (en) Method and device for automatically identifying point of interest on surface of anomaly
EP3271896A1 (en) Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
JPWO2016182055A1 (en) Shape inspection method, shape inspection apparatus, and program
JP6683088B2 (en) Surface texture inspection device, surface texture inspection method and program
JP6372300B2 (en) Shape measuring apparatus and shape measuring method
Ali et al. Camera based precision measurement in improving measurement accuracy
JP6149717B2 (en) Imaging apparatus and imaging method
JP6720358B2 (en) 3D scanning system
JPH11132740A (en) Image measuring device
JP3343583B2 (en) 3D surface shape estimation method using stereo camera with focal light source
JPH0260377A (en) Automatic focus adjustment of industrial or military video camera
JP2010014548A (en) Method for analysis of electron beam diffraction image and transmissive electron microscope
CN111179221B (en) Method, equipment and storage medium for detecting welding groove
KR20120084612A (en) Apparatus for providing focus information and apparatus for adjusting focus
JP2021051090A (en) Method for measuring surface shape
JP6820516B2 (en) Surface shape measurement method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180702

R151 Written notification of patent or utility model registration

Ref document number: 6372300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350