JP6074284B2 - Method and apparatus for measuring shape of belt-like rubber member - Google Patents

Method and apparatus for measuring shape of belt-like rubber member Download PDF

Info

Publication number
JP6074284B2
JP6074284B2 JP2013021537A JP2013021537A JP6074284B2 JP 6074284 B2 JP6074284 B2 JP 6074284B2 JP 2013021537 A JP2013021537 A JP 2013021537A JP 2013021537 A JP2013021537 A JP 2013021537A JP 6074284 B2 JP6074284 B2 JP 6074284B2
Authority
JP
Japan
Prior art keywords
image data
value
luminance value
luminance
cross
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013021537A
Other languages
Japanese (ja)
Other versions
JP2014153123A (en
Inventor
伸一 竹原
伸一 竹原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bridgestone Corp
Original Assignee
Bridgestone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bridgestone Corp filed Critical Bridgestone Corp
Priority to JP2013021537A priority Critical patent/JP6074284B2/en
Publication of JP2014153123A publication Critical patent/JP2014153123A/en
Application granted granted Critical
Publication of JP6074284B2 publication Critical patent/JP6074284B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、帯状ゴム部材等の被測定対象物の形状測定方法及び形状測定装置に関し、特に、長尺に連続して成型された帯状ゴム部材の断面形状を測定する形状測定方法及び形状測定装置に関するものである。   The present invention relates to a shape measuring method and a shape measuring apparatus for an object to be measured such as a belt-shaped rubber member, and in particular, a shape measuring method and a shape measuring apparatus for measuring a cross-sectional shape of a belt-shaped rubber member formed continuously in a long shape. It is about.

従来、押出成型により帯状ゴム部材として生産されるトレッドは、外形形状がオンライン検査により検査される。オンライン検査では、押出成型されたトレッドに対して、一つの照射手段からトレッドを幅方向に横切るように一定長さのスリット状のレーザからなる平面光を照射し、平面光が照射された光跡をカメラで撮影することで、トレッドの幅方向における断面形状の輪郭線を取得して画像処理装置に取り込み、画像処理装置内のソフトウェアにより実際のトレッドの断面形状となるように処理した後に、その断面形状が許容すべき規格内にあるかどうかの判定を行うことで、成型後のトレッドの形状の良否を判定するようにしている。   Conventionally, an outer shape of a tread produced as a belt-like rubber member by extrusion molding is inspected by online inspection. In the on-line inspection, the tread that has been extruded is irradiated with plane light consisting of a slit-shaped laser of a certain length so as to cross the tread in the width direction from one irradiation means, and the trace of light irradiated with the plane light Is taken with a camera to acquire the contour line of the cross-sectional shape in the width direction of the tread, import it into the image processing device, and after processing the software so that it becomes the actual cross-sectional shape of the tread by the software in the image processing device, It is determined whether the shape of the tread after molding is good or not by determining whether or not the cross-sectional shape is within an acceptable standard.

特開2006−337270号公報JP 2006-337270 A

しかしながら、一つの照射手段から照射されるスリット状の平面光は、裾広がりにトレッドに照射されるため、平面光の端部側で照射される光の強度が弱くなりやすい。このため、タイヤトレッドの端部であるショルダー部近傍において、平面光が照射された部位とそうでない部位とのコントラスト値が低くなり易く、ショルダー部の輪郭線が鮮明でないことからトレッドの断面形状の輪郭を特定することが難しかった。
また、複数の周溝等よりなるトレッドパターンが成型されるトレッド表面の上側には、トレッドの幅方向中心を示す標識線等が長手方向に延長して塗布されており、このような標識線等の塗膜上では、平面光の反射光が乱反射するため、画像において断面形状を正確に取得できない場合がある。この標識線を塗布する領域には、トレッド長手方向に延長する微小な一対の突部が成型され、この一対の突部で囲まれる凹部(溝)の中に標識線が塗布されている。この微小な突部は、撮像した際に平面光が乱反射してトレッドの中心付近の断面形状の取得において妨げとなり、トレッドの幅方向の中心位置を検出するときの精度を悪化させる要因となっている。
さらに、成型されたタイヤトレッドはゴム部材であるため、表面の部位によって平面光の反射率が異なり、撮影された画像において輪郭線が不鮮明に撮影されたり鮮明に撮影されたりすることになり、不鮮明に撮影された場合には実際の断面形状に異常がなくても異常有りとして検出されてしまう場合があった。
However, since the slit-shaped plane light irradiated from one irradiation means is irradiated on the tread so as to spread out, the intensity of the light irradiated on the end side of the plane light tends to be weak. For this reason, in the vicinity of the shoulder portion which is the end portion of the tire tread, the contrast value between the portion irradiated with the plane light and the portion not irradiated is likely to be low, and the contour of the shoulder portion is not clear, so the cross-sectional shape of the tread It was difficult to specify the contour.
Further, on the upper side of the tread surface on which a tread pattern composed of a plurality of circumferential grooves or the like is formed, a marker line or the like indicating the center in the width direction of the tread is applied extending in the longitudinal direction. Since the reflected light of the plane light is irregularly reflected on the coating film, the cross-sectional shape may not be accurately obtained in the image. A pair of minute projections extending in the longitudinal direction of the tread are formed in the region where the marker line is applied, and the marker line is applied in a recess (groove) surrounded by the pair of projections. The minute protrusions cause irregular reflection of plane light when taking an image and hinder acquisition of a cross-sectional shape near the center of the tread, and become a factor that degrades accuracy when detecting the center position in the width direction of the tread. Yes.
Furthermore, since the molded tire tread is a rubber member, the reflectivity of the plane light differs depending on the surface part, and the contour line in the photographed image will be photographed unclearly or clearly, resulting in unclearness. In some cases, it is detected that there is an abnormality even if there is no abnormality in the actual cross-sectional shape.

本発明は、上記問題点を鑑みてなされたもので、帯状ゴム部材の断面形状を精度よく測定する形状測定方法及び形状測定装置を提供する。   The present invention has been made in view of the above problems, and provides a shape measuring method and a shape measuring apparatus for accurately measuring the cross-sectional shape of a belt-like rubber member.

上記課題を解決するための被測定対象物の断面形状を測定する測定方法の形態として、被測定対象物の表面にスリット光を照射し、照射された部位を前記スリット光の光軸とは異なる方向から撮影して画像データを取得しながら被測定対象物を長さ方向にスキャニングして被測定対象物の断面形状を測定する帯状ゴム部材の形状測定方法であって、画像データを構成する所定範囲の領域毎に最大輝度値と最小輝度値とを検出する輝度値検出工程と、輝度値検出工程により検出された領域内の輝度値に関する輝度重心位置を領域毎に設定する輝度重心位置設定工程と、輝度重心位置設定工程により設定された互いに隣り合う輝度重心位置を結んで断面形状を取得する断面形状取得工程とを備え、輝度値検出工程は、検出された各領域の最大輝度値と最小輝度値とのコントラスト値を算出し、当該コントラスト値が所定の閾値以下のときに現在処理している画像データに対して時間的に一つ前に取得された画像データを加算してコントラスト値が所定の閾値以上となるように処理するようにしたことで、画像データが不鮮明であっても精度良く被測定対象物の断面形状を測定することができる。即ち、画像データの領域において所定の輝度値を検出し、検出された輝度値に基づいて領域の重心位置を設定することで、領域毎に輝度値が異なっていても、各領域の輝度値に基づいて重心値を算出しているので、各領域において最も明るいとされる重心値を結ぶことで、精度良く断面形状を測定することができる。ま、画像データにおいてぼやけて撮影された部位の輝度値が大きくなるので、コントラスト値を閾値以上にすることができ、画像データに撮影された断面形状を明確にすることができる。
また、上記課題を解決するための被測定対象物の断面形状を測定する測定方法の他の形態として、被測定対象物をタイヤトレッドとすることで、タイヤの製造工程において良質なトレッド部材を供給することができる。
また、上記課題を解決するための被測定対象物の断面形状を測定する測定装置の構成として、被測定対象物の表面にスリット光を照射し、照射された部位をスリット光の光軸とは異なる方向から撮影して画像データを取得しながら被測定対象物を長さ方向にスキャニングして被測定対象物の断面形状を測定する帯状ゴム部材の形状測定装置であって、画像データを構成する所定範囲の領域毎に最大輝度値と最小輝度値とを検出する輝度値検出手段と、輝度値検出手段により検出された領域内の輝度値に関する輝度重心位置を領域毎に設定する輝度重心位置設定手段と、輝度重心位置設定手段により設定された互いに隣り合う輝度重心位置を結んで断面形状を取得する断面形状取得手段とを備え、輝度値検出手段は、検出された各領域の最大輝度値と最小輝度値とのコントラスト値を算出し、当該コントラスト値が所定の閾値以下のときに現在処理している画像データに対して時間的に一つ前に取得された画像データを加算してコントラスト値が所定の閾値以上となるように処理することにより、画像データに撮影された画像が不鮮明であっても精度良く被測定対象物の断面形状を測定することができる。即ち、画像データの領域において所定の輝度値を検出し、検出された輝度値に基づいて領域の重心位置を設定することで、領域毎に輝度値が異なっていても、各領域の輝度値に基づいて重心値を算出しているので、各領域において最も明るいとされる重心値を結ぶことで、精度良く断面形状を測定することができる。
As a form of the measurement method for measuring the cross-sectional shape of the measurement object for solving the above-described problem, the surface of the measurement object is irradiated with slit light, and the irradiated portion is different from the optical axis of the slit light A shape measuring method of a belt-like rubber member for measuring a cross-sectional shape of a measurement target object by scanning the measurement target object in the length direction while acquiring image data by photographing from the direction, and is a predetermined measurement data constituting the image data A luminance value detection step for detecting the maximum luminance value and the minimum luminance value for each region of the range, and a luminance centroid position setting step for setting the luminance centroid position for the luminance value in the region detected by the luminance value detection step for each region When, and a cross-sectional shape obtaining step of obtaining a cross-sectional shape by connecting the luminance center position adjacent to each other which is Ri設 constant by the luminance gravity center position setting step, the luminance value detection step, the maximum luminance of each detected regions And the minimum luminance value is calculated, and when the contrast value is equal to or lower than a predetermined threshold value, the image data acquired at the previous time is added to the image data being processed at the previous time. value that was so that to process so that the above predetermined threshold value, the image data is even unclear can measure the cross-sectional shape of the high precision measurement object. That is, by detecting a predetermined luminance value in the area of the image data and setting the center of gravity position of the area based on the detected luminance value, even if the luminance value is different for each area, the luminance value of each area is set. Since the centroid value is calculated based on the centroid value, the cross-sectional shape can be measured with high accuracy by connecting the centroid value that is brightest in each region . Also, since the luminance value of a portion taken blurred in images data increases, it is possible to the contrast value above the threshold, the cross-sectional shape taken in the image data can be clarified.
Further, as another form of the measuring method for measuring the cross-sectional shape of the measurement target object for solving the above-mentioned problem, a high-quality tread member is supplied in the tire manufacturing process by using the measurement target object as a tire tread. can do.
Further, as a configuration of a measuring apparatus for measuring the cross-sectional shape of the measurement target object for solving the above-mentioned problem, the surface of the measurement target object is irradiated with slit light, and the irradiated part is the optical axis of the slit light. An apparatus for measuring the shape of a belt-like rubber member that measures the cross-sectional shape of an object to be measured by scanning the object to be measured in the length direction while acquiring image data by photographing from different directions, and constitutes image data Luminance value detecting means for detecting the maximum luminance value and the minimum luminance value for each area in the predetermined range, and luminance centroid position setting for setting the luminance centroid position for the luminance value in the area detected by the luminance value detecting means for each area and means, and a sectional shape acquiring means for acquiring cross-sectional shape by connecting the luminance center position adjacent to each other which is Ri設 constant by the luminance gravity center position setting unit, the luminance value detecting means, the maximum of each region detected Brightness The contrast value between the value and the minimum brightness value is calculated, and when the contrast value is equal to or less than a predetermined threshold value, the image data acquired immediately before is added to the image data currently being processed. the Rukoto be processed so that the contrast value is equal to or greater than a predetermined threshold value, even images captured in the image data is a blurred can measure the cross-sectional shape of the high precision measurement object. That is, by detecting a predetermined luminance value in the area of the image data and setting the center of gravity position of the area based on the detected luminance value, even if the luminance value is different for each area, the luminance value of each area is set. Since the centroid value is calculated based on the centroid value, the cross-sectional shape can be measured with high accuracy by connecting the centroid value that is brightest in each region.

本発明の実施形態に係る形状測定装置を示す図である。It is a figure which shows the shape measuring apparatus which concerns on embodiment of this invention. 投光器の照射範囲を示す図である。It is a figure which shows the irradiation range of a light projector. 各撮影手段により撮影された画像データを示す図である。It is a figure which shows the image data image | photographed by each imaging means. 左上側の画像データの端部近傍を示す部分拡大図である。It is the elements on larger scale which show the edge part vicinity of the upper left image data. 画像データの上側中心を拡大した部分拡大図である。It is the elements on larger scale which expanded the upper center of image data. 上側の画像データを合成した断面形状を示す図である。It is a figure which shows the cross-sectional shape which synthesize | combined the upper image data. 合成された画像データの良否判定を示す図である。It is a figure which shows the quality determination of the synthesized image data. 検査処理手段による画像処理のフローチャートである。It is a flowchart of the image processing by an inspection process means.

以下、発明の実施形態を通じて本発明を詳説するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態の中で説明される特徴の組み合わせのすべてが発明の解決手段に必須であるとは限らず、選択的に採用される構成を含むものである。   Hereinafter, the present invention will be described in detail through embodiments of the invention. However, the following embodiments do not limit the invention according to the claims, and all combinations of features described in the embodiments are included in the invention. It is not necessarily essential to the solution, but includes a configuration that is selectively adopted.

図1は、本発明に係る帯状ゴム部材の形状測定方法を実行する形状測定装置1の実施の形態を示す概略構成図である。
同図に示すように、本実施形態では、形状測定装置1は、タイヤを構成する部材としてのトレッドTを長尺帯状に成型する図外の押出成型機の搬送経路上に位置されて、形状取得手段2方向に搬送される。本実施形態では、トレッドTを被測定対象物として説明する。
形状測定装置1は、概略、押出し成型されたトレッドTの形状を取得するための形状取得手段2と、形状取得手段2により取得された画像を処理して成型されたトレッドTの形状の良否を判定する検査処理手段3とにより構成される。
FIG. 1 is a schematic configuration diagram showing an embodiment of a shape measuring apparatus 1 that executes the shape measuring method for a belt-like rubber member according to the present invention.
As shown in the figure, in the present embodiment, the shape measuring device 1 is positioned on the conveyance path of an unillustrated extrusion molding machine that forms a tread T as a member constituting a tire into a long strip shape. It is conveyed in the acquisition means 2 direction. In the present embodiment, the tread T is described as an object to be measured.
The shape measuring device 1 generally includes a shape acquisition unit 2 for acquiring the shape of the extruded tread T, and the quality of the shape of the tread T formed by processing the image acquired by the shape acquisition unit 2. It is comprised with the test | inspection process means 3 to determine.

形状取得手段2は、トレッド表面Taにスリット光を照射する照射手段40,41と、トレッド表面Taにおいてスリット光が照射された光跡を撮影する撮影手段50,51とを備える。
照射手段40,41は、トレッドTの幅方向断面の全外周に亘り光線が照射されるように複数の投光器4A乃至4Dにより構成される。すなわち、本実施形態では、トレッド表面Taの上側表面に、スリット光を左,右に照射する左上側投光器4A及び右上側投光器4Bと、下側表面(裏面)に、スリット光を左,右に照射する左下側投光器4C及び右下側投光器4Dにより構成される。なお、左,右は、図1に示すように、搬送方向に向かって左右を定義する。
The shape acquisition unit 2 includes irradiation units 40 and 41 that irradiate the tread surface Ta with slit light, and imaging units 50 and 51 that shoot the light traces of the tread surface Ta irradiated with the slit light.
The irradiating means 40 and 41 are configured by a plurality of light projectors 4A to 4D so that light rays are irradiated over the entire outer periphery of the cross section of the tread T in the width direction. That is, in this embodiment, the upper left surface projector 4A and the upper right side projector 4B that irradiate slit light left and right on the upper surface of the tread surface Ta, and the lower surface (rear surface) slit light left and right. It comprises a lower left projector 4C and a lower right projector 4D for irradiation. As shown in FIG. 1, left and right define left and right in the transport direction.

左上側投光器4A及び右上側投光器4B、左下側投光器4C及び右下側投光器4Dは、それぞれ2次元のシート状にレーザ光が調整された一定長さの線状のスリット光をトレッド表面Taに向けてほぼ垂直に照射する。左上側投光器4A及び右上側投光器4Bは、図2に示すように、トレッドTの長手方向に延長する中心標識線oを基準として左,右に位置され、左上側投光器4Aと右上側投光器4Bとから照射されるスリット光がそれぞれ中心標識線oを超えてはみ出すように中心標識線oの左半分、右半分を照射するとともに、左下側投光器4C及び右下側投光器4Dは、トレッドTの長手方向に延長する中心標識線oを基準として左右に設けられ、左下側投光器4Cと右下側投光器4Dとから照射されるスリット光をそれぞれ中心標識線oを超えるように中心標識線oの左半分、右半分を照射する。   The upper left projector 4A, the upper right projector 4B, the lower left projector 4C, and the lower right projector 4D each direct linear slit light of a certain length, in which laser light is adjusted in a two-dimensional sheet shape, toward the tread surface Ta. Irradiate almost vertically. As shown in FIG. 2, the upper left projector 4A and the upper right projector 4B are positioned on the left and right with respect to the center mark line o extending in the longitudinal direction of the tread T, and the upper left projector 4A and the upper right projector 4B. The left and right lower projectors 4C and 4D are arranged in the longitudinal direction of the tread T so that the slit light emitted from the center marker line o protrudes beyond the center marker line o. The left half of the center marker line o is provided on the left and right with respect to the center marker line o extending to the left and right, and the slit light emitted from the lower left projector 4C and the lower right projector 4D exceeds the center marker line o, respectively. Irradiate the right half.

つまり、左上側投光器4A及び右上側投光器4Bから照射される各スリット光はトレッドTの幅方向に延長するが、左下側投光器4C及び右下側投光器4Dから照射される各スリット光は、それぞれトレッドTの上面側及び下面側において幅方向に重複する範囲があるように設定されるために、上,下の2つの各スリット光同士が直線状に並ばないように設定される。
但し、左上側投光器4A及び左下側投光器4Cからそれぞれ照射されるスリット光、及び、右上側投光器4B及び右下側投光器4Dからそれぞれ照射されるスリット光は、トレッドTの延長方向に互いに位置ずれして配置される。
このように、トレッド表面Taの上側左右に投光器4A及び投光器4B、下側左右に投光器4C及び投光器4Dを配置してトレッド表面Taにスリット光を照射させることにより、トレッド表面Taに均一な光量のスリット光を照射することができる。即ち、トレッドTの幅方向に延長するスリット光は、裾広がりとなってトレッド表面Taに照射されるため、端部側の光量が中央部側の光量よりも少なくなる。この端部側の光量で後述の撮影手段50,51でスリット光の照射部位を撮影した場合、撮影された画像データにおいて、スリット光の端部側で照射された部位だけが不鮮明となってしまうが、本実施形態のように、投光器4A及び投光器4B、投光器4C及び投光器4DのようにトレッドTの幅方向に上側、下側に配置することにより、スリット光の端部側でトレッド表面Taを照射しなくて済むため、鮮明な画像データを得ることが可能となる。また、投光器4A及び投光器4B、投光器4C及び投光器4DのようにトレッドTの幅方向に複数としたことにより、同一出力の1つの投光器によりスリット光をトレッド表面Taに照射した場合に比べて、トレッド表面Taに対する投光器4A及び投光器4B、投光器4C及び投光器4Dの距離を近づけることができるので、トレッド表面Taに照射されるスリット光の光量が増加してより鮮明な断面形状を取得することができる。
That is, each slit light emitted from the upper left projector 4A and the upper right projector 4B extends in the width direction of the tread T, but each slit light emitted from the lower left projector 4C and the lower right projector 4D is tread. Since it is set so that there is an overlapping range in the width direction on the upper surface side and the lower surface side of T, it is set so that the upper and lower slit lights do not line up in a straight line.
However, the slit light emitted from the upper left projector 4A and the lower left projector 4C and the slit light emitted from the upper right projector 4B and the lower right projector 4D are displaced from each other in the extending direction of the tread T. Arranged.
Thus, by arranging the projectors 4A and 4B on the upper left and right sides of the tread surface Ta and the projectors 4C and 4D on the lower left and right sides and irradiating the tread surface Ta with slit light, a uniform amount of light can be applied to the tread surface Ta. The slit light can be irradiated. That is, the slit light extending in the width direction of the tread T spreads toward the bottom and is applied to the tread surface Ta, so that the light amount on the end side is smaller than the light amount on the center side. When a portion to be irradiated with slit light is imaged by the photographing means 50 and 51 (to be described later) with the amount of light on the end side, only the portion irradiated on the end side of the slit light is unclear in the captured image data. However, as in the present embodiment, the tread surface Ta is formed on the end side of the slit light by disposing the upper side and the lower side in the width direction of the tread T like the projector 4A, the projector 4B, the projector 4C, and the projector 4D. Since it is not necessary to irradiate, clear image data can be obtained. In addition, since a plurality of projectors in the width direction of the tread T, such as the projector 4A, the projector 4B, the projector 4C, and the projector 4D, the tread surface Ta is irradiated with slit light by a single projector having the same output. Since the distances of the projector 4A and the projector 4B, the projector 4C, and the projector 4D with respect to the surface Ta can be reduced, the amount of slit light applied to the tread surface Ta is increased and a clearer sectional shape can be obtained.

撮影手段50,51は、エリアカメラであって、上記4個の各投光器4A乃至4Dに対応して個別に設けられる。
即ち、撮影手段50は、左上側投光器4Aに対応する左上側撮影手段5A、右上側投光器4Bに対応する右上側撮影手段5Bよりなり、撮影手段51は、左下側投光器4Cに対応する左下側撮影手段5C、右下側投光器4Dに対応する右下側撮影手段5Dからなる。
The photographing means 50 and 51 are area cameras, and are provided individually corresponding to the four projectors 4A to 4D.
That is, the photographing means 50 includes a left upper photographing means 5A corresponding to the left upper projector 4A and an upper right photographing means 5B corresponding to the upper right projector 4B, and the photographing means 51 corresponds to the lower left photographing corresponding to the lower left projector 4C. Means 5C and lower right photographing means 5D corresponding to the lower right projector 4D.

各撮影手段5A乃至5Dは、それぞれに対応する投光器4A乃至4Dから照射されるスリット光の光軸に対して所定角度傾斜した位置からトレッド表面Taで反射した反射光を撮影して左上側画像データDa、右上側画像データDb、左下側画像データDc、右下側画像データDdとしてスリット光が照射された部位の断面形状Pの輪郭線をそれぞれ取得する。なお、各撮影手段5A乃至5Dの撮影する光軸とそれに対応する各スリット光の光軸とは、同じ角度に設定される。また、各投光器4A乃至4Dから照射されたスリット光のトレッド表面Taの照射部位と撮影手段5A乃至5Dまでの距離が等しくなるように設定される。
本実施形態では、トレッドTの表,裏面にスリット光を照射し、この表,裏のスリット光を撮影して、表,裏面側の外形を検出し、断面形状を測定する。この場合、トレッドTを搬送することで、トレッドTの長さ方向にスキャニングしながら断面形状をトレッドTの全長に亘って測定する。なお、一組の投光器と撮影手段とは、表,裏に2組設けているがこれは、解像度を高めるためであり、必要に応じてトレッドTの表,裏に1つずつ配置するようにしても良く、数は適宜設定すれば良い。
Each of the photographing means 5A to 5D photographs the reflected light reflected by the tread surface Ta from a position inclined by a predetermined angle with respect to the optical axis of the slit light irradiated from the corresponding projectors 4A to 4D. The contour lines of the cross-sectional shape P of the part irradiated with the slit light are respectively acquired as Da, upper right side image data Db, lower left side image data Dc, and lower right side image data Dd. In addition, the optical axis which each imaging | photography means 5A thru | or 5D image | photographs, and the optical axis of each slit light corresponding to it are set to the same angle. In addition, the distance between the irradiated portion of the tread surface Ta of the slit light irradiated from each of the projectors 4A to 4D and the photographing means 5A to 5D is set to be equal.
In this embodiment, the front and back surfaces of the tread T are irradiated with slit light, the front and back slit lights are photographed, the outer shapes of the front and back surfaces are detected, and the cross-sectional shape is measured. In this case, by conveying the tread T, the cross-sectional shape is measured over the entire length of the tread T while scanning in the length direction of the tread T. Note that two pairs of projectors and photographing means are provided on the front and back, but this is for increasing the resolution. If necessary, one set is provided on the front and back of the tread T. The number may be set as appropriate.

これにより、後述するように各撮影手段5A乃至5Dにより撮影された各画像データDa,Db,Dc,Ddに含まれる断面形状Pの大きさが一定となるため、各画像データDa,Db,Dc,Ddにおけるひずみを一定にできるので、画像データDa,Db,Dc,Ddを合成するときの合成精度を向上させることができる。
即ち、各撮影手段5A乃至5Dの撮影する光軸とそれに対応する各スリット光の光軸とを同じ角度に設定し、各投光器4A乃至4Dから照射されたスリット光のトレッド表面Taの照射部位と撮影手段5A乃至5Dまでの距離を等しく設定することにより、各撮影手段5A乃至5Dにより撮影されたそれぞれの画像データDa,Db,Dc,Ddに含まれる部分的な断面形状Pの大きさを一定にすることができるため、各画像データDa,Db,Dc,Ddにおけるひずみを一定にして画像データを合成するときの合成精度を向上させることができる。
As a result, the size of the cross-sectional shape P included in each of the image data Da, Db, Dc, and Dd photographed by each of the photographing means 5A to 5D as described later becomes constant, so that each of the image data Da, Db, and Dc. , Dd can be made constant, so that the synthesis accuracy when the image data Da, Db, Dc, Dd are synthesized can be improved.
That is, the optical axis photographed by each of the photographing means 5A to 5D and the corresponding optical axis of each slit light are set at the same angle, and the irradiation part of the tread surface Ta of the slit light emitted from each of the projectors 4A to 4D By setting the distances to the photographing means 5A to 5D to be equal, the size of the partial cross-sectional shape P included in each of the image data Da, Db, Dc, Dd photographed by the photographing means 5A to 5D is constant. Therefore, it is possible to improve the synthesis accuracy when synthesizing the image data with the distortion in each of the image data Da, Db, Dc, and Dd being constant.

上記各撮影手段5A乃至5Dにより撮影された各画像データDa,Db,Dc,Ddは、検査処理手段3に個別に出力される。具体的には、各画像データDa,Db,Dc,Ddは、図3に示すように、各撮影手段5A乃至5Dにより個別に撮影された断面形状Pの部分的な輪郭線Ca,Cb,Cc,Cdが、画像データDa,Db,Dc,Ddとしてそれぞれ取得されて、検査処理手段3に出力される。   The image data Da, Db, Dc, Dd photographed by the photographing means 5A to 5D are individually output to the inspection processing means 3. Specifically, each of the image data Da, Db, Dc, and Dd is, as shown in FIG. 3, a partial outline Ca, Cb, Cc of the cross-sectional shape P photographed individually by each photographing means 5A to 5D. , Cd are acquired as image data Da, Db, Dc, Dd, respectively, and output to the inspection processing means 3.

検査処理手段3は、いわゆるコンピュータであって、演算手段としてのCPU、記憶手段としてのROM,RAM、通信手段としての入出力インターフェイスを備える。記憶手段には、検査処理を実行するための処理プログラムが記憶され、処理プログラムを実行することにより、各撮影手段5A乃至5Dにより撮影された画像データDa,Db,Dc,Ddを画像処理することでトレッドTの外形形状が正規の形状の範囲を逸脱しているか否かの異常の有無を検査する。   The inspection processing means 3 is a so-called computer, and includes a CPU as a calculation means, a ROM and a RAM as storage means, and an input / output interface as a communication means. The storage means stores a processing program for executing inspection processing, and image processing is performed on the image data Da, Db, Dc, Dd photographed by the photographing means 5A to 5D by executing the processing program. Then, it is inspected whether there is an abnormality as to whether or not the outer shape of the tread T is out of the range of the regular shape.

具体的には、検査処理手段3は、各撮影手段5A乃至5Dにより撮影された画像データDa,Db,Dc,Ddの前処理を行なう画像前処理手段31と、前処理された画像データDa,Db,Dc,Ddからトレッドの幅方向中心位置を検出する中心位置検出手段32と、前処理された画像データDa,Db,Dc,Ddの輪郭線Ca,Cb,Cc,Cdを断面画像として合成する断面画像合成手段33と、断面画像の比較対象としてあらかじめ用意、記憶されたマスター画像と断面画像とを比較する画像比較判定手段34とを備える。   Specifically, the inspection processing unit 3 includes an image preprocessing unit 31 that performs preprocessing of the image data Da, Db, Dc, and Dd photographed by the photographing units 5A to 5D, and preprocessed image data Da, The center position detecting means 32 for detecting the center position in the width direction of the tread from Db, Dc, Dd and the contour lines Ca, Cb, Cc, Cd of the preprocessed image data Da, Db, Dc, Dd are combined as a cross-sectional image. A cross-sectional image synthesizing unit 33, and an image comparison / determination unit 34 that compares a cross-sectional image with a master image prepared and stored in advance as a cross-sectional image comparison target.

画像前処理手段31は、輝度値検出手段31aと重心位置検出手段31bと断面形状取得手段31cとを備える。画像前処理手段31では、各撮影手段5A乃至5Dから出力された画像データDa,Db,Dc,DdのフレームFを縦方向にスキャニングして各画素列を所定領域として設定し、この画素列に含まれる最大輝度値と最小輝度値を検出し、最大輝度値をフレームFの横方向に結ぶ断面形状Pの輪郭線Ca,Cb,Cc,Cdを検出する。画像データDa,Db,Dc,Ddで撮影されたスリット光の光跡は、断面形状Pの輪郭線として太い幅のぼやけた状態で取得されているため、実際の形状に近似する明確な輪郭線として特定することができない。つまり、フレームFの縦方向において複数の輝度値の集合が、横方向に連続することで輪郭線を形成しているため、断面形状Pの輪郭線が太くぼやけた状態にある。   The image preprocessing unit 31 includes a luminance value detection unit 31a, a gravity center position detection unit 31b, and a cross-sectional shape acquisition unit 31c. The image preprocessing unit 31 scans the frame F of the image data Da, Db, Dc, Dd output from each of the photographing units 5A to 5D in the vertical direction, sets each pixel column as a predetermined area, and sets the pixel column in this pixel column. The maximum luminance value and the minimum luminance value included are detected, and the contour lines Ca, Cb, Cc, Cd of the cross-sectional shape P connecting the maximum luminance values in the horizontal direction of the frame F are detected. Since the light trace of the slit light imaged with the image data Da, Db, Dc, Dd is acquired in a blurred state with a thick width as the contour line of the cross-sectional shape P, a clear contour line approximating the actual shape Cannot be specified as. That is, since a set of a plurality of luminance values in the vertical direction of the frame F forms a contour line by continuing in the horizontal direction, the contour line of the cross-sectional shape P is thick and blurred.

そこで、画像前処理手段31は、図4(a)に示すように、輝度値検出手段31aにより各画像データDa,Db,Dc,DdのフレームFを縦方向にスキャニングして画素列毎の最大輝度値を検出する。次に、画素列毎の最大輝度値を基準として上下方向に所定の画素数内の走査範囲内から最も輝度値の小さい最小輝度値を検出する。所定の画素数は、例えば3画素前後の範囲で設定すると良い。所定の画素数を多く設定した場合、各画像データDa,Db,Dc,Ddのぼやけた輪郭線Ca,Cb,Cc,Cdに対するコントラスト値が大きくなってしまい、後段の工程において輪郭線Ca,Cb,Cc,Cdを明確にすることができなくなってしまう虞がある。なお、図4の横軸は、スリット光の長さ方向(トレッドの幅方向)であり、縦軸はスキャン方向(トレッドの厚さ方向)を示し、フレームF中の1枡(1ブロック)が画素を示す。   Therefore, as shown in FIG. 4A, the image preprocessing unit 31 scans the frames F of the image data Da, Db, Dc, and Dd in the vertical direction by the luminance value detection unit 31a, and performs the maximum for each pixel column. Detect the luminance value. Next, the minimum luminance value having the smallest luminance value is detected from the scanning range within a predetermined number of pixels in the vertical direction with the maximum luminance value for each pixel column as a reference. For example, the predetermined number of pixels may be set in a range of around 3 pixels. When the predetermined number of pixels is set to be large, the contrast value of the image data Da, Db, Dc, Dd with respect to the blurred contour lines Ca, Cb, Cc, Cd becomes large, and the contour lines Ca, Cb in the subsequent process. , Cc, Cd may not be clarified. Note that the horizontal axis in FIG. 4 is the length direction of the slit light (tread width direction), the vertical axis is the scan direction (tread thickness direction), and 1 mm (one block) in the frame F is Indicates a pixel.

次に、画素列毎に検出された最大輝度値の平均値と、最小輝度値の平均値との差であるコントラスト値を画素列毎に求める。なお、画像データを構成する各画素は、例えば256階調のグレースケールであって、0〜255の範囲の輝度値で設定され、0から255に向かって暗→明である。   Next, a contrast value that is the difference between the average value of the maximum luminance values detected for each pixel column and the average value of the minimum luminance values is obtained for each pixel column. Each pixel constituting the image data is, for example, a gray scale of 256 gradations, and is set with a luminance value in the range of 0 to 255, and is darker to brighter from 0 to 255.

次に、コントラスト値が所定の閾値α以上の場合には、各フレームF内で検出された画素列毎の最大画素値を接続して断面形状Pの輪郭線として設定記憶する。
また、コントラスト値が所定の閾値αよりも小さい場合には、現在処理している画像データDa,Db,Dc,Ddに、同一の位置において時間的に一つ前で撮影された画像データを重ね合わせることで、現在処理している画像データの輝度値に、一つ前で撮影された画像データの輝度値を足し合わせて、再び、画素列毎の最大輝度値及び最小輝度値を求め、最大輝度値の平均値と最小輝度値の平均値との差であるコントラスト値を算出する。これにより、所定のコントラスト値が得られなかった画像フレームFの輪郭線を明確にすることができる。
Next, when the contrast value is equal to or greater than the predetermined threshold value α, the maximum pixel value for each pixel column detected in each frame F is connected and set and stored as an outline of the cross-sectional shape P.
When the contrast value is smaller than the predetermined threshold value α, the image data Da, Db, Dc, Dd currently processed is overlaid with the image data taken immediately before at the same position. By combining the brightness values of the image data that is currently being processed with the brightness values of the previously captured image data, the maximum brightness value and the minimum brightness value for each pixel column are obtained again, and the maximum A contrast value that is a difference between the average value of the luminance values and the average value of the minimum luminance values is calculated. Thereby, it is possible to clarify the outline of the image frame F in which a predetermined contrast value cannot be obtained.

なお、画像データの重ね合わせは、例えば2回から3回の範囲で設定することで、画像データに含まれる輪郭線がぶれた状態で重ね合わされることを防止できる。即ち、搬送されているトレッドTは、搬送手段上を少なからず左右に蛇行したり、搬送手段の振動によって上下に移動しながら搬送されるため、撮影毎に微妙に位置が変化することになる。したがって、画像データの重ね合わせ回数が多くなると、現在処理している画像データよりも前に撮影された画像データの輪郭線が、処理中の画像データの輪郭線に対してブレたように重ね合わされることになり、検査における精度が低下するとともに基準となるコントラスト値を得ることができなくなってしまう。そこで、画像データの重ね合わせを上記2回から3回の回数以下となるように設定しておくことで、本来の欠陥を検出することができる。なお、被検査対象である帯状ゴム部材が、例えば、ガイド手段にガイドされながら搬送される場合には、搬送によってほとんど位置が変化しないので、上記回数に制限されるものではない。   Note that the image data can be overlaid in a range of 2 to 3 times, for example, so that the image data can be prevented from being overlaid in a blurred state. That is, since the tread T being conveyed meanders right and left on the conveying means and moves while moving up and down due to the vibration of the conveying means, the position of the tread T changes slightly for each photographing. Therefore, when the number of times of superimposing image data increases, the contour line of the image data photographed before the image data currently being processed is superimposed so as to be blurred with respect to the contour line of the image data being processed. As a result, the accuracy in the inspection is lowered and a reference contrast value cannot be obtained. Therefore, the original defect can be detected by setting the superimposition of the image data so as to be equal to or less than the above two to three times. For example, when the belt-like rubber member to be inspected is transported while being guided by the guide means, the position is hardly changed by the transport, and thus the number of times is not limited.

次に、画像前処理手段31の重心位置設定手段31bでは、所定のコントラスト値が得られた画像データDa,Db,Dc,Ddを再びフレームFの縦方向に画素列毎にスキャニングして、図4(b)の黒縁取りで示すように、画素列毎の輝度値の重心位置Gを算出し、実際のトレッド表面Taに相当する点として重心位置Gと重心位置Gにおける輝度値とを記憶する。なお、重心位置Gは、フレームF内における座標位置、例えばフレームF左上を原点として右方向にX座標、下方向にY座標として記憶される。次に、断面形状取得手段により重心として設定された隣接する座標位置を直線的に結び断面形状Pにおける表面として設定して記憶される。ここで、重心位置Gとは、画素列により構成される所定領域内に基準となる基準画素を設定し、この基準画素を中心とする仮想の座標系をさらに設定して、基準画素から各画素まで距離(画素数で表わされる)と各画素における輝度値の積を求め、基準画素に対する上記積の和の大きさが釣り合う位置として定義される。   Next, the center-of-gravity position setting unit 31b of the image preprocessing unit 31 scans the image data Da, Db, Dc, and Dd for which a predetermined contrast value is obtained for each pixel column in the vertical direction of the frame F again. As indicated by the black border in 4 (b), the center of gravity G of the luminance value for each pixel column is calculated, and the center of gravity G and the luminance value at the center of gravity G are stored as points corresponding to the actual tread surface Ta. . The center-of-gravity position G is stored as a coordinate position in the frame F, for example, an X coordinate in the right direction and an Y coordinate in the downward direction with the upper left corner of the frame F as the origin. Next, the adjacent coordinate positions set as the center of gravity by the cross-sectional shape acquisition means are linearly connected and set as the surface in the cross-sectional shape P and stored. Here, the center-of-gravity position G is a reference pixel that is set as a reference in a predetermined area constituted by a pixel row, and a virtual coordinate system centered on the reference pixel is further set, and each pixel from the reference pixel is set. The product of the distance (expressed by the number of pixels) and the luminance value at each pixel is obtained, and the product is defined as a position where the magnitude of the sum of the products with respect to the reference pixel is balanced.

このように、画像データDa,Db,Dc,DdのフレームFにおける縦方向の画素列毎に輝度値の重心位置Gを検出し、その位置を断面形状Pの表面に相当する点として設定することにより、画像データDa,Db,Dc,Ddにぼやけた状態で取得された輪郭線Ca,Cb,Cc,Cdを構成する各点が、画素列毎に平均的に特定されるので、トレッド表面Taのスリット光の反射率の違いの影響を受けることなくほぼ真の断面形状Pの輪郭線として特定することができる。   Thus, the barycentric position G of the luminance value is detected for each vertical pixel column in the frame F of the image data Da, Db, Dc, Dd, and the position is set as a point corresponding to the surface of the cross-sectional shape P. Thus, the points constituting the contour lines Ca, Cb, Cc, Cd acquired in a blurred state in the image data Da, Db, Dc, Dd are specified on an average basis for each pixel column, so that the tread surface Ta It can be specified as a contour line of a substantially true cross-sectional shape P without being affected by the difference in reflectance of the slit light.

次に、中心位置検出手段32では、左,右上側撮影手段5A,5Bにより撮影された画像データDa,Dbからトレッド表面Taに形成された一対の突部8を検出する。具体的には、中心位置検出手段32は、上記画像前処理手段31で特定された輪郭線Ca,Cb,Cc,Cdに沿って走査して、勾配の変化に基づいて、上側のトレッド表面Taの中心に形成された一対の突部8,8を検出する。   Next, the center position detecting means 32 detects the pair of protrusions 8 formed on the tread surface Ta from the image data Da and Db photographed by the left and upper right photographing means 5A and 5B. Specifically, the center position detecting means 32 scans along the contour lines Ca, Cb, Cc, Cd specified by the image preprocessing means 31, and based on the change in the gradient, the upper tread surface Ta. A pair of protrusions 8, 8 formed at the center of is detected.

この検出された突部8,8の間に所定の大きさの小窓Wを設定する。次に、小窓Wを構成する画素の輝度値の重心位置Gを算出してトレッド中心位置MA,MBとして設定する。
トレッド表面Taにおいて幅方向中心を示す中心標識線oは、反射したスリット光が、図5に示すように、画像データDa,Db,Dc,Ddにおいてトレッド表面Taに成型された突部8,8間において円形形状に撮影されることから、中心標識線oを示す円形形状の輝度値の重心位置Gを算出することで、画像データDa,Db内の輪郭線Ca,Cbにおけるトレッド表面Taのトレッド中心位置MA,MBを特定することができる。
A small window W having a predetermined size is set between the detected protrusions 8 and 8. Next, the gravity center position G of the luminance value of the pixels constituting the small window W is calculated and set as the tread center positions MA and MB.
The center marker line o indicating the center in the width direction on the tread surface Ta indicates that the projected slits 8 and 8 formed by the reflected slit light on the tread surface Ta in the image data Da, Db, Dc, and Dd as shown in FIG. Since a circular shape is photographed between them, the tread of the tread surface Ta at the contour lines Ca and Cb in the image data Da and Db is calculated by calculating the gravity center position G of the circular luminance value indicating the center marker line o. The center positions MA and MB can be specified.

次に、中心位置検出手段32は、図6に示すように、左上側撮影手段5Aで撮影された画像データDaで特定されたトレッド中心位置MAと、右上側撮影手段5Bで撮影された画像データDbで特定されたトレッド中心位置Cbとを重ね合わせることで、トレッド表面Taの上側における画像データDa,Db同士を合成して上側合成画像データに合成する。次に、上側合成画像データからトレッド表面Taにおける左右の両端部Ea,Ebの位置を検出し、両端部Ea,Eb間の長さの半分の位置を算術中心位置として算出して上記トレッド中心位置MA(MB)と一致しているかどうかの判定を行う。   Next, as shown in FIG. 6, the center position detection means 32 includes the tread center position MA specified by the image data Da photographed by the upper left photographing means 5A and the image data photographed by the upper right photographing means 5B. By superimposing the tread center position Cb specified by Db, the image data Da and Db on the upper side of the tread surface Ta are combined to be combined with the upper combined image data. Next, the positions of the left and right ends Ea and Eb on the tread surface Ta are detected from the upper composite image data, and the half position between the ends Ea and Eb is calculated as the arithmetic center position to calculate the tread center position. It is determined whether or not it matches MA (MB).

次に、断面画像合成手段33では、左下側撮影手段5Cで撮影された画像データDc及び右下側撮影手段5Dで撮影された画像データ5dからトレッドTの両端部Ec,Edの位置を検出する。さらに、上記合成された上側合成画像データの左端部Eaに対して画像データDcの端部Ecを一致させ、右端部Ebに対して画像データDdの端部Edを一致させることで、画像データ同士を合成し、1つの断面形状Pの全体を示す輪郭線を生成する。   Next, the cross-sectional image synthesizing unit 33 detects the positions of both end portions Ec and Ed of the tread T from the image data Dc photographed by the lower left photographing unit 5C and the image data 5d photographed by the lower right photographing unit 5D. . Further, by matching the end Ec of the image data Dc with the left end Ea of the above synthesized upper composite image data and matching the end Ed of the image data Dd with the right end Eb, the image data Are generated, and a contour line indicating the entire cross-sectional shape P is generated.

画像比較判定手段34は、断面画像合成手段33により合成された断面画像が所定の形状内であるかどうかの判定を行う。画像比較判定手段34は、図7に示すように、合成された断面画像の比較対象としてのマスター画像Mを記憶し、このマスター画像M,Mの許容範囲S内に断面画像が有るか否かを比較判定することで、トレッドTの外形形状の良否の判定を行う。画像比較判定手段34が記憶するマスター画像M,Mは、図7に示すように、良否判定において許容範囲Sを有するように所定の幅をもって構成され、合成された断面形状Pが許容範囲S内の場合には良、許容範囲Sから断面形状Pが逸脱した場合には否(不良)との判定を行う。   The image comparison determination unit 34 determines whether or not the cross-sectional image synthesized by the cross-sectional image synthesis unit 33 is within a predetermined shape. As shown in FIG. 7, the image comparison / determination means 34 stores a master image M as a comparison target of the combined cross-sectional images, and whether or not there is a cross-sectional image within the allowable range S of the master images M and M. By comparing and determining, the quality of the outer shape of the tread T is determined. As shown in FIG. 7, the master images M and M stored by the image comparison determination unit 34 are configured with a predetermined width so as to have an allowable range S in the pass / fail determination, and the combined cross-sectional shape P is within the allowable range S. If the cross-sectional shape P deviates from the permissible range S, it is determined as no (defect).

以下、本発明に係る形状測定装置1の検査処理手段3の動作について図8のフローチャートを用いて説明する。
まず、撮影手段5A乃至5Dにより同期して撮影された各画像データDa,Db,Dc,Ddが、検査処理手段3に出力される。
Hereinafter, the operation of the inspection processing means 3 of the shape measuring apparatus 1 according to the present invention will be described with reference to the flowchart of FIG.
First, each image data Da, Db, Dc, Dd photographed synchronously by the photographing means 5A to 5D is output to the inspection processing means 3.

出力された各画像データDa,Db,Dc,Ddは、それぞれ検査処理手段3の画像前処理手段31により前処理される。
画像前処理手段31は、ステップ101により各画像データDa,Db,Dc,DdのフレームFを縦方向にスキャニングして縦方向に並ぶ各画素列から最大輝度値を検出し、この最大輝度値を中心として上下方向に所定の画素数内から最小輝度値を検出する。
次に、ステップ102により各画素列で検出された最大輝度値の平均値と最小輝度値の平均値とを算出する。
次に、ステップ103により最大輝度値の平均値と最小輝度値の平均値との差、即ちコントラスト値が所定値以上であるかどうかの判定を行う。コントラスト値が所定値以上の場合は、ステップ104に移行し、コントラスト値が所定値よりも低い場合はステップ105に移行する。
The output image data Da, Db, Dc, and Dd are preprocessed by the image preprocessing unit 31 of the inspection processing unit 3, respectively.
In step 101, the image preprocessing means 31 scans the frame F of each image data Da, Db, Dc, Dd in the vertical direction, detects the maximum luminance value from each pixel row arranged in the vertical direction, and uses this maximum luminance value. A minimum luminance value is detected from a predetermined number of pixels in the vertical direction as the center.
Next, in step 102, the average value of the maximum luminance value and the average value of the minimum luminance value detected in each pixel column are calculated.
Next, in step 103, it is determined whether or not the difference between the average value of the maximum luminance values and the average value of the minimum luminance values, that is, the contrast value is greater than or equal to a predetermined value. If the contrast value is equal to or greater than the predetermined value, the process proceeds to step 104. If the contrast value is lower than the predetermined value, the process proceeds to step 105.

まず、ステップ105に移行した場合について説明する。
ステップ105では、処理中の画像データDa,Db,Dc,Ddを撮影したときよりも一つ前で撮影したときの画像データを呼び出して処理中の画像データに重ね合わせる。これにより、処理中の画像データを構成する各画素の輝度値に対して、一つ前の画像データの同一位置における各画素の輝度値が足されることになり、処理中の画像データの暗い輝度値を明るくすることができ、コントラスト値を大きくすることができる。次に、ステップ101に戻り、ステップ103までを繰り返す。そして、コントラスト値が所定値以上となるとステップ104に移行する。
First, the case where the process proceeds to step 105 will be described.
In step 105, the image data that was captured immediately before the image data Da, Db, Dc, Dd being processed is recalled and superimposed on the image data being processed. As a result, the luminance value of each pixel at the same position of the previous image data is added to the luminance value of each pixel constituting the image data being processed, and the image data being processed is dark. The brightness value can be increased and the contrast value can be increased. Next, it returns to step 101 and repeats to step 103. Then, when the contrast value is equal to or greater than the predetermined value, the routine proceeds to step 104.

ステップ104では、所定のコントラスト値が得られた各画像データの各フレームFを縦方向に画素列毎にスキャニングして、各画素列の輝度値の重心位置Gを算出して記憶する。
次に、ステップ106では、画素列毎に設定された隣接する重心位置Gを直線的に結び断面形状Pにおける表面位置として設定して処理が終了する。
In step 104, each frame F of each image data obtained with a predetermined contrast value is scanned for each pixel column in the vertical direction, and the barycentric position G of the luminance value of each pixel column is calculated and stored.
Next, in step 106, the adjacent center-of-gravity position G set for each pixel column is linearly connected and set as the surface position in the cross-sectional shape P, and the process ends.

次に、中心位置検出手段32によりステップ107が実行される。
ステップ107では、画像データDa及び画像データDbから上側のトレッド表面Taに形成された一対の突部8,8を検出する。
次に、ステップ108では、検出された突部8,8の間に所定の大きさの小窓Wを設定する。
次に、ステップ109では、小窓Wを構成する画素の輝度値の重心位置Gを算出し、この重心位置Gを各画像データDa,Dbそれぞれのトレッド中心位置MA,MBに設定する。
Next, step 107 is executed by the center position detecting means 32.
In step 107, a pair of protrusions 8 and 8 formed on the upper tread surface Ta are detected from the image data Da and the image data Db.
Next, in step 108, a small window W having a predetermined size is set between the detected protrusions 8 and 8.
Next, in step 109, the barycentric position G of the luminance values of the pixels constituting the small window W is calculated, and the barycentric position G is set as the tread center positions MA and MB of the respective image data Da and Db.

次に、ステップ110では、画像データDaで特定されたトレッド中心位置MAと、画像データDbで特定されたトレッド中心位置MBとを重ね合わせて上側合成画像データに合成する。
次に、ステップ111では、上側合成画像データから上側のトレッド表面Taにおける左右の両端部Ea,Ebの位置を検出し、両端部Ea,Eb間の長さの半分の位置である算術中心位置を算出する。
次に、ステップ112では、上側合成画像データのトレッド中心位置MA(MB)と算術中心位置とが一致しているかどうかの判定を行い、トレッド中心位置MA(MB)と算術中心位置とが一致している場合には、ステップ113に移行し、一致していない場合にはステップ114に移行して中心位置検出エラーとして報知する。
Next, in step 110, the tread center position MA specified by the image data Da and the tread center position MB specified by the image data Db are superimposed and combined with the upper composite image data.
Next, in step 111, the positions of the left and right ends Ea, Eb on the upper tread surface Ta are detected from the upper composite image data, and the arithmetic center position, which is a half of the length between the ends Ea, Eb, is determined. calculate.
Next, in step 112, it is determined whether or not the tread center position MA (MB) of the upper composite image data matches the arithmetic center position, and the tread center position MA (MB) matches the arithmetic center position. If yes, the process proceeds to step 113. If they do not match, the process proceeds to step 114, and a center position detection error is notified.

次に、断面画像合成手段33によりステップ113が実行される。
ステップ113では、左下側撮影手段5cで撮影された画像データDc及び右下側撮影手段5dで撮影された画像データDdからトレッドTの両端部Ec,Edの位置をそれぞれ検出し、上側合成画像データの左端部Eaと左下側の画像データDcの端部Ecとを一致させ、上側合成画像データの右端部Ebと右下側の画像データDdの端部Edとを一致させることで、1つの断面形状Pの輪郭線として合成する。
Next, step 113 is executed by the cross-sectional image synthesis means 33.
In step 113, the positions of both ends Ec and Ed of the tread T are detected from the image data Dc photographed by the lower left photographing means 5c and the image data Dd photographed by the lower right photographing means 5d, respectively, and the upper composite image data is detected. By matching the left end portion Ea of the image data Dc with the end portion Ec of the lower left image data Dc and the right end portion Eb of the upper composite image data with the end portion Ed of the lower right image data Dd, one cross section is obtained. Composite as a contour line of shape P.

次に、画像比較判定手段34によりステップ114が実行される。
ステップ114では、断面画像合成手段33により合成された断面画像がマスター画像Mの許容範囲S内であるかどうかの判定を行う。合成された断面画像が許容範囲S内の場合には良として出力し、許容範囲Sから断面画像がはみ出した場合には否(不良)として出力する。
上記ステップ101からステップ114の処理を撮影する毎に繰り返すことで、断面形状Pのオンライン処理が実行される。
Next, step 114 is executed by the image comparison determination means 34.
In step 114, it is determined whether or not the cross-sectional image combined by the cross-sectional image combining unit 33 is within the allowable range S of the master image M. When the combined cross-sectional image is within the allowable range S, it is output as “good”, and when the cross-sectional image protrudes from the allowable range S, it is output as “no” (defective).
By repeating the processing from step 101 to step 114 each time an image is taken, online processing of the cross-sectional shape P is executed.

なお、上記画像前処理手段による処理では、フレームFにおける最大輝度値の平均値及び最小輝度値の平均値をフレームF単位で算出するとして説明したが、他の処理方法として、フレームFを均等な複数の領域に分割しておき、各領域毎のコントラスト値を算出することで、必要最小限の画像データの重ね合わせで、コントラスト値を所定値以上に設定するようにしても良い。   In the processing by the image preprocessing unit, the average value of the maximum luminance value and the average value of the minimum luminance value in the frame F have been described in units of the frame F. However, as another processing method, the frame F is equally By dividing the image into a plurality of areas and calculating the contrast value for each area, the contrast value may be set to a predetermined value or more by superimposing a minimum amount of image data.

また、被測定対象物を左,右のスリット光を照射撮影するとして説明したが、被測定対象物が、より幅広野場合には、左,右のスリット光で被測定対象物の左,右を撮影し、中央のスリット光でその中央側を撮影するように照射手段を構成しても良い。
また、被測定対象物としてはタイヤトレッドの測定に限定されず、他の部材の形状を測定するものであっても良い。
In addition, although it has been described that the object to be measured is irradiated with the left and right slit lights, if the object to be measured is wider, the left and right slit lights can be used for the left and right of the object to be measured. The irradiating means may be configured so that the center side is photographed with the slit light at the center.
Further, the object to be measured is not limited to the measurement of the tire tread, and may be one that measures the shape of another member.

1 形状測定装置、2 形状取得手段、3 検査処理手段、4A乃至4D 投光器、
5A乃至5D 撮影手段、8 突部、31 画像前処理手段、32 中心位置検出手段、
33 断面画像合成手段、34 画像比較判定手段、
Ca,Cb,Cc,Cd 輪郭線、Da,Db,Dc,Dd 画像データ、
G 重心位置、M マスター画像、o 中心標識線、P 断面形状、
T トレッド、Ta トレッド表面。
1 shape measuring device, 2 shape obtaining means, 3 inspection processing means, 4A to 4D projector,
5A to 5D photographing means, 8 protrusions, 31 image preprocessing means, 32 center position detecting means,
33 cross-sectional image synthesis means, 34 image comparison determination means,
Ca, Cb, Cc, Cd contour line, Da, Db, Dc, Dd image data,
G center of gravity, M master image, o center marker line, P cross-sectional shape,
T tread, Ta tread surface.

Claims (3)

被測定対象物の表面にスリット光を照射し、照射された部位を前記スリット光の光軸とは異なる方向から撮影して画像データを取得しながら被測定対象物を長さ方向にスキャニングして被測定対象物の断面形状を測定する帯状ゴム部材の形状測定方法であって、
前記画像データを構成する所定範囲の領域毎に最大輝度値と最小輝度値とを検出する輝度値検出工程と、
前記輝度値検出工程により検出された前記領域内の輝度値に関する輝度重心位置を領域毎に設定する輝度重心位置設定工程と、
前記輝度重心位置設定工程により設定された互いに隣り合う輝度重心位置を結んで断面形状を取得する断面形状取得工程とを備え
前記輝度値検出工程は、検出された各領域の最大輝度値と最小輝度値とのコントラスト値を算出し、当該コントラスト値が所定の閾値以下のときに現在処理している画像データに対して時間的に一つ前に取得された画像データを加算して前記コントラスト値が所定の閾値以上となるように処理することを特徴とする帯状ゴム部材の形状測定方法。
The surface of the object to be measured is irradiated with slit light, and the irradiated object is scanned from the direction different from the optical axis of the slit light to obtain image data, and the object to be measured is scanned in the length direction. A method for measuring a shape of a belt-like rubber member for measuring a cross-sectional shape of an object to be measured,
A luminance value detection step of detecting a maximum luminance value and a minimum luminance value for each of a predetermined range of the image data;
A luminance centroid position setting step for setting, for each region, a luminance centroid position related to a luminance value in the region detected by the luminance value detection step;
A cross-sectional shape acquisition step of acquiring a cross-sectional shape by connecting the luminance gravity center positions adjacent to each other set by the luminance center-of-gravity position setting step ,
The luminance value detection step calculates a contrast value between the maximum luminance value and the minimum luminance value of each detected area, and calculates time for image data currently being processed when the contrast value is equal to or less than a predetermined threshold value. shape measuring method of the belt-shaped rubber member said contrast value by adding the image data obtained one time before, characterized that you treated as equal to or greater than a predetermined threshold value manner.
測定対象物がタイヤトレッドであることを特徴とする請求項1に記載の帯状ゴム部材の形状測定方法。 The shape measuring method for a belt-shaped rubber member according to claim 1, wherein the object to be measured is a tire tread. 被測定対象物の表面にスリット光を照射し、照射された部位をスリット光の光軸とは異なる方向から撮影して画像データを取得しながら被測定対象物を長さ方向にスキャニングして被測定対象物の断面形状を測定する帯状ゴム部材の形状測定装置であって、
前記画像データを構成する所定範囲の領域毎に最大輝度値と最小輝度値とを検出する輝度値検出手段と、
前記輝度値検出手段により検出された前記領域内の輝度値に関する輝度重心位置を領域毎に設定する輝度重心位置設定手段と、
前記輝度重心位置設定手段により設定された互いに隣り合う輝度重心位置を結んで断面形状を取得する断面形状取得手段とを備え
前記輝度値検出手段は、検出された各領域の最大輝度値と最小輝度値とのコントラスト値を算出し、当該コントラスト値が所定の閾値以下のときに現在処理している画像データに対して時間的に一つ前に取得された画像データを加算して前記コントラスト値が所定の閾値以上となるように処理することを特徴とする帯状ゴム部材の形状測定装置。
The surface of the object to be measured is irradiated with slit light, and the irradiated object is scanned from the direction different from the optical axis of the slit light to acquire image data, and the object to be measured is scanned in the length direction to be measured. A shape measuring device for a belt-like rubber member for measuring a cross-sectional shape of a measurement object,
A luminance value detecting means for detecting a maximum luminance value and a minimum luminance value for each region of a predetermined range constituting the image data;
A luminance barycentric position setting unit that sets a luminance barycentric position for the luminance value in the area detected by the luminance value detecting unit for each area;
A cross-sectional shape obtaining unit that obtains a cross-sectional shape by connecting the luminance centroid positions adjacent to each other set by the luminance centroid position setting unit ;
The luminance value detecting means calculates a contrast value between the maximum luminance value and the minimum luminance value of each detected area, and calculates time for image data currently being processed when the contrast value is equal to or less than a predetermined threshold value. shape measuring apparatus of the belt-shaped rubber member said contrast value by adding the image data obtained one time before, characterized that you treated as equal to or greater than a predetermined threshold value manner.
JP2013021537A 2013-02-06 2013-02-06 Method and apparatus for measuring shape of belt-like rubber member Expired - Fee Related JP6074284B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013021537A JP6074284B2 (en) 2013-02-06 2013-02-06 Method and apparatus for measuring shape of belt-like rubber member

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013021537A JP6074284B2 (en) 2013-02-06 2013-02-06 Method and apparatus for measuring shape of belt-like rubber member

Publications (2)

Publication Number Publication Date
JP2014153123A JP2014153123A (en) 2014-08-25
JP6074284B2 true JP6074284B2 (en) 2017-02-01

Family

ID=51575135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013021537A Expired - Fee Related JP6074284B2 (en) 2013-02-06 2013-02-06 Method and apparatus for measuring shape of belt-like rubber member

Country Status (1)

Country Link
JP (1) JP6074284B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200005631A (en) * 2017-05-25 2020-01-15 가부시키가이샤 고베 세이코쇼 Rubber sheet monitoring device and rubber sheet monitoring method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6733379B2 (en) * 2016-07-14 2020-07-29 日本製鉄株式会社 Steel piece cross-sectional shape measuring device and steel piece cross-sectional shape measuring method
US10018570B2 (en) * 2016-11-09 2018-07-10 The Boeing Company Combined surface inspection using multiple scanners

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003240521A (en) * 2002-02-21 2003-08-27 Bridgestone Corp Method and apparatus for inspection of external appearance and shape of specimen
JP5116537B2 (en) * 2008-04-04 2013-01-09 株式会社ブリヂストン Tire appearance inspection device
JP5053947B2 (en) * 2008-07-15 2012-10-24 株式会社ブリヂストン Shape quality determination method and shape quality determination device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200005631A (en) * 2017-05-25 2020-01-15 가부시키가이샤 고베 세이코쇼 Rubber sheet monitoring device and rubber sheet monitoring method
KR102271039B1 (en) * 2017-05-25 2021-07-01 가부시키가이샤 고베 세이코쇼 Rubber sheet monitoring device and rubber sheet monitoring method

Also Published As

Publication number Publication date
JP2014153123A (en) 2014-08-25

Similar Documents

Publication Publication Date Title
US9097514B2 (en) Device and method for inspecting tyre shape
CN104075659B (en) A kind of three-dimensional imaging recognition methods based on RGB structure light source
KR20140001205A (en) Method for identifying and defining basic patterns forming the tread design of a tyre
KR20210033030A (en) System and method for measuring the surface of a contoured glass sheet
JP6074284B2 (en) Method and apparatus for measuring shape of belt-like rubber member
JP5053947B2 (en) Shape quality determination method and shape quality determination device
US10410336B2 (en) Inspection device, storage medium, and program
KR101902068B1 (en) How to profile deviation analysis for the finished tire tread
JP6781969B1 (en) Measuring device and measuring method
JP5136108B2 (en) 3D shape measuring method and 3D shape measuring apparatus
KR101327433B1 (en) Apparatus for monitoring three-dimensional shape of target object
JP7003502B2 (en) Inspection equipment
Bračun et al. A method for surface quality assessment of die-castings based on laser triangulation
JP2019120644A (en) Surface inspection device and surface inspection method
JP2015059854A (en) Defect inspection method and defect inspection device
US20160231107A1 (en) Chassis Measurement under Ambient Light
JP5768349B2 (en) Slit light intensity distribution design method and light cutting uneven surface wrinkle detecting device
CN112005104A (en) Image acquisition method, measurement method, and image acquisition apparatus
JP2020129187A (en) Contour recognition device, contour recognition system and contour recognition method
JP6247191B2 (en) Perspective distortion measuring apparatus and perspective distortion measuring method
US20240075627A1 (en) Three-dimensional measuring apparatus, three-dimensional measuring method, storage medium, system, and method for manufacturing an article
US20240062401A1 (en) Measurement system, inspection system, measurement device, measurement method, inspection method, and program
JP5087165B1 (en) Adjustment device for outputting data for adjusting surface inspection device, adjustment data output method and program
CN109297686B (en) Method and system for measuring line width of graph and data processing device
JP7124569B2 (en) inspection equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170106

R150 Certificate of patent or registration of utility model

Ref document number: 6074284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees