JP2018146401A - Controller for inspection device, inspection device, method for controlling inspection device, and program - Google Patents

Controller for inspection device, inspection device, method for controlling inspection device, and program Download PDF

Info

Publication number
JP2018146401A
JP2018146401A JP2017042058A JP2017042058A JP2018146401A JP 2018146401 A JP2018146401 A JP 2018146401A JP 2017042058 A JP2017042058 A JP 2017042058A JP 2017042058 A JP2017042058 A JP 2017042058A JP 2018146401 A JP2018146401 A JP 2018146401A
Authority
JP
Japan
Prior art keywords
crack
image data
inspection
data
shape data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017042058A
Other languages
Japanese (ja)
Inventor
直弥 坂本
Naoya Sakamoto
直弥 坂本
達哉 大嶽
Tatsuya Otake
達哉 大嶽
徹郎 相川
Tetsuo Aikawa
徹郎 相川
美徳 佐藤
Yoshinori Sato
美徳 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Energy Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2017042058A priority Critical patent/JP2018146401A/en
Publication of JP2018146401A publication Critical patent/JP2018146401A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a controller for an inspection device which can accurately detect cracks generated in an inspection target while suppressing an increase in scan time.SOLUTION: A controller for an inspection device controls a body of the inspection device, the inspection device including: a sensor unit for acquiring image data and shape data from a surface of an inspection target; a moving mechanism for moving and rotating the sensor unit around the inspection target; and a control unit for controlling the sensor unit and the moving mechanism. The controller for the inspection device includes: a crack candidate operation processor; and a detection result output device, the crack candidate operation processor detecting candidates of cracks from the shape data and correcting the image data on the basis of the shape data, detecting the candidates of the cracks from the corrected image data, integrating the candidates of the cracks detected from the shape data and the candidates of the cracks detected from the image data with each other and outputting the integrated candidates as a result of inspection, and the detection result output device outputting the result of the inspection output from the crack candidate operation processor to a user.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、検査装置用制御装置、検査装置、検査装置制御方法、及び、プログラムに関する。   Embodiments described herein relate generally to an inspection apparatus control apparatus, an inspection apparatus, an inspection apparatus control method, and a program.

ガスタービンの静翼等のような検査対象物に関する使用後の非破壊検査による品質確認では、目視検査や超音波探傷検査などの非破壊検査技術が用いられている。例えば、静翼の内在欠陥等は超音波探傷検査やECT探傷検査等が主に用いられているが、表面上のき裂や減肉といった損傷等の欠陥は目視検査により手作業で記録されている。そのため、き裂発生時のき裂補修を含め、長い検査時間が必要になり、高い検査コストが発生することになる。そこで、検査工程における歩留まりの向上と工期短縮を可能とする自動検査が望まれている。   Non-destructive inspection techniques such as visual inspection and ultrasonic flaw inspection are used for quality confirmation by non-destructive inspection after use for inspection objects such as stationary blades of gas turbines. For example, ultrasonic flaw inspection and ECT flaw inspection are mainly used for the internal defects of a stationary blade, but defects such as damage on the surface such as cracks and thinning are recorded manually by visual inspection. Yes. For this reason, a long inspection time is required, including crack repair when a crack is generated, resulting in high inspection costs. Therefore, an automatic inspection that can improve the yield and shorten the construction period in the inspection process is desired.

き裂を検出する主な方法としては、形状データ比較による方法と画像データの画像処理による方法とが挙げられる。形状データ比較による方法を利用する場合、検査時間を短縮するためには検査対象物から距離を離した広範囲の撮影をする必要があるが、それによって計測データの分解能が不足し、細かいき裂の検出漏れが発生する恐れがある。さらに、形状データを取得するためには、基本的に三角測量の原理を用いることから、死角が発生することがあり、例えば、き裂輪郭の片側や端部が欠ける等の問題がある。一方で、画像データの画像処理による方法を利用する場合、標準の状態の輝度と現状の状態の輝度の特徴を比較することで、き裂を検出するが、検査対象物の形状変化にともない、き裂の発生以外の要因で輝度の分布が変化してしまい、き裂検出漏れが生じる問題がある。   The main methods for detecting cracks include a method based on shape data comparison and a method based on image processing of image data. When using the method based on shape data comparison, it is necessary to take a wide range of images at a distance from the object to be inspected in order to shorten the inspection time. There is a risk of detection omission. Furthermore, in order to acquire shape data, the principle of triangulation is basically used, so that a blind spot may occur. For example, there is a problem that one side or an end of a crack outline is missing. On the other hand, when using a method by image processing of image data, a crack is detected by comparing the luminance characteristics of the standard state and the luminance state of the current state, but along with the shape change of the inspection object, There is a problem in that the luminance distribution changes due to factors other than the occurrence of cracks, resulting in crack detection failure.

さらに、画像データを用いた方法では、正常な状態で撮影した画像データの輝度分布と検査対象物を撮影した画像データの輝度分布の差分から特徴量を算出し、そのデータをもとにき裂を検出するが、検査対象物の形状変化とそれによる照明条件変化(影など)の影響により、正常な状態をリファレンスとして求めた時の特徴量と異なる特徴量が計算され、検出したいき裂が検出できないという問題もある。   Furthermore, in the method using image data, the feature amount is calculated from the difference between the luminance distribution of the image data photographed in a normal state and the luminance distribution of the image data photographed of the inspection object, and the crack is based on the data. However, due to the influence of the change in the shape of the inspection object and the resulting change in lighting conditions (such as shadows), a feature value that is different from the feature value obtained when the normal state is obtained as a reference is calculated. There is also a problem that it cannot be detected.

特許文献1は、取得した画像をもとに照明を制御し、複数の画像データを取得しそれより諧調が均一となる画像データを生成し欠陥の検出を容易にする方法を開示する。しかし、特許文献1の方法では、細かいき裂を検出する精度が十分とは言い難い。また、特許文献2は、観察部分を二次元的に移動させながら輝度分布を求め、求められた撮像輝度分布から、なだらかな輝度分布の変化成分に対応するベース輝度分布を算出し、輝度分布からベース輝度分布を除いた補正輝度分布を検査に用いる方法を開示する。しかし、特許文献2の方法では、細かいき裂を検出するためには、高分解能な形状データが必要となることから、スキャン速度を落としたり、スキャン間隔を細かくしたりする必要性があり、スキャンに要する時間が増大してしまう。   Patent Document 1 discloses a method of facilitating detection of defects by controlling illumination based on an acquired image, acquiring a plurality of image data, generating image data having a uniform gradation, and thereby detecting defects. However, it is difficult to say that the method of Patent Document 1 has sufficient accuracy for detecting a fine crack. Further, Patent Document 2 obtains a luminance distribution while moving an observation part two-dimensionally, calculates a base luminance distribution corresponding to a change component of the gentle luminance distribution from the obtained imaging luminance distribution, and calculates the luminance distribution from the luminance distribution. A method of using the corrected luminance distribution excluding the base luminance distribution for inspection is disclosed. However, in the method of Patent Document 2, since high-resolution shape data is required to detect a fine crack, it is necessary to reduce the scanning speed or to reduce the scanning interval. The time required for this will increase.

特開2013−140040号公報JP2013-140040A 国際公開第2009/139394号International Publication No. 2009/139394

本実施形態の目的は、検査対象物に生じたき裂を、スキャン時間の増大を抑制しつつ、精度良く検出可能な検査装置用制御装置、検査装置、検査装置制御方法、及び、プログラムを提供することである。   An object of this embodiment is to provide an inspection apparatus control device, an inspection apparatus, an inspection apparatus control method, and a program capable of accurately detecting a crack generated in an inspection object while suppressing an increase in scan time. That is.

本実施形態に係る検査装置用制御装置は、検査対象物の表面から画像データと形状データとを取得する、センサ部と、前記センサ部を前記検査対象物の周囲で移動させ、回転させる、移動機構と、前記センサ部と前記移動機構とを制御する、制御部と、を備える検査装置本体部の制御を行う検査装置用制御装置であって、前記形状データから、き裂候補を検出するとともに、前記形状データに基づいて前記画像データを補正し、この補正した前記画像データから、き裂候補を検出し、前記形状データから検出されたき裂候補と、前記画像データから検出されたき裂候補を統合して、検査結果として出力する、き裂候補演算処理装置と、前記き裂候補演算処理装置から出力された前記検査結果をユーザに出力する、検出結果出力装置と、を備える。   The inspection apparatus control device according to the present embodiment acquires image data and shape data from the surface of the inspection object, moves the sensor part around the inspection object, and rotates the sensor part. An inspection apparatus control device that controls an inspection apparatus main body including a mechanism, a control unit that controls the sensor unit and the moving mechanism, and detects crack candidates from the shape data , Correcting the image data based on the shape data, detecting crack candidates from the corrected image data, and detecting crack candidates detected from the shape data and crack candidates detected from the image data. A crack candidate calculation processing device that integrates and outputs the result as an inspection result, and a detection result output device that outputs the inspection result output from the crack candidate calculation processing device to a user. .

本実施形態に係る検査装置は、検査対象物の表面から画像データと形状データとを取得する、センサ部と、前記センサ部を前記検査対象物の周囲で移動させ、回転させる、移動機構と、前記センサ部と前記移動機構とを制御する、制御部と、前記形状データから、き裂候補を検出するとともに、前記形状データに基づいて前記画像データを補正し、この補正した前記画像データから、き裂候補を検出し、前記形状データから検出されたき裂候補と、前記画像データから検出されたき裂候補を統合して、検査結果として出力する、き裂候補演算処理装置と、前記き裂候補演算処理装置から出力された前記検査結果をユーザに出力する、検出結果出力装置と、を備える。   The inspection apparatus according to the present embodiment acquires image data and shape data from the surface of an inspection object, a sensor unit, a movement mechanism that moves and rotates the sensor unit around the inspection object, From the control unit that controls the sensor unit and the moving mechanism, the crack candidate is detected from the shape data, the image data is corrected based on the shape data, and from the corrected image data, A crack candidate calculation processing device that detects a crack candidate, integrates the crack candidate detected from the shape data and the crack candidate detected from the image data, and outputs the result as an inspection result, and the crack candidate A detection result output device that outputs the inspection result output from the arithmetic processing device to a user.

本実施形態に係る検査装置制御方法は、検査対象物の表面から画像データと形状データとを取得する、センサ部と、前記センサ部を前記検査対象物の周囲で移動させ、回転させる、移動機構と、前記センサ部と前記移動機構とを制御する、制御部と、を備える検査装置本体部の制御を行う検査装置制御方法であって、前記制御部を介して、前記移動機構とセンサ部を制御して、前記検査対象物の表面の前記画像データと前記形状データとを取得するステップと、前記形状データから、き裂候補を検出するとともに、前記形状データに基づいて前記画像データを補正し、この補正した前記画像データから、き裂候補を検出し、前記形状データから検出されたき裂候補と、前記画像データから検出されたき裂候補を統合して、検査結果として出力するステップと、前記出力された前記検査結果をユーザに出力するステップと、を備える。   The inspection apparatus control method according to the present embodiment acquires image data and shape data from the surface of an inspection object, and moves and rotates the sensor unit and the sensor unit around the inspection object. And a control unit that controls the sensor unit and the moving mechanism, and an inspection device control method for controlling the inspection device main body unit, wherein the moving mechanism and the sensor unit are connected via the control unit. Controlling to acquire the image data and the shape data of the surface of the inspection object; detecting crack candidates from the shape data; and correcting the image data based on the shape data The crack candidate is detected from the corrected image data, and the crack candidate detected from the shape data and the crack candidate detected from the image data are integrated and output as an inspection result. Comprising that the step, and outputting the outputted the inspection results to the user, the.

本実施形態に係るプログラムは、検査対象物の表面から画像データと形状データとを取得する、センサ部と、前記センサ部を前記検査対象物の周囲で移動させ、回転させる、移動機構と、前記センサ部と前記移動機構とを制御する、制御部と、を備える検査装置本体部の制御を行うコンピュータに読み込まれて実行されるプログラムであって、当該プログラムは、前記コンピュータに、前記制御部を介して、前記移動機構とセンサ部を制御して、前記検査対象物の表面の前記画像データと前記形状データとを取得するステップと、前記形状データから、き裂候補を検出するとともに、前記形状データに基づいて前記画像データを補正し、この補正した前記画像データから、き裂候補を検出し、前記形状データから検出されたき裂候補と、前記画像データから検出されたき裂候補を統合して、検査結果として出力するステップと、前記出力された前記検査結果をユーザに出力するステップと、を実行させる。   The program according to the present embodiment includes a sensor unit that acquires image data and shape data from the surface of an inspection object, a movement mechanism that moves and rotates the sensor unit around the inspection object, and A program that is read and executed by a computer that controls the inspection apparatus main body unit, the control unit controlling the sensor unit and the moving mechanism, and the program is provided to the computer. Via the step of acquiring the image data and the shape data of the surface of the inspection object by controlling the moving mechanism and the sensor unit, detecting crack candidates from the shape data, and the shape Correcting the image data based on the data, detecting a crack candidate from the corrected image data, and detecting the crack candidate detected from the shape data; By integrating the detected crack candidate from the image data, to execute the steps of outputting a test result, and outputting the outputted the inspection results to the user, the.

第1実施形態に係る検査装置を機能的に説明するブロック図。1 is a block diagram functionally illustrating an inspection apparatus according to a first embodiment. 図1に示す検査装置とその検査対象物の一例を説明する斜視図。The perspective view explaining an example of the inspection apparatus shown in FIG. 1 and its inspection object. 第1実施形態に係る検査装置のき裂検査処理内容を説明するフローチャート。The flowchart explaining the crack inspection process content of the inspection apparatus which concerns on 1st Embodiment. 第2実施形態に係る検査装置を機能的に説明するブロック図。A block diagram functionally explaining an inspection device concerning a 2nd embodiment. 第2実施形態に係る検査装置のき裂検査処理内容を説明するフローチャート。The flowchart explaining the crack inspection process content of the inspection apparatus which concerns on 2nd Embodiment. 検査対象物に対するセンサ部と照明の位置関係と、画像データの輝度分布の一例を説明する図。The figure explaining the positional relationship of the sensor part with respect to a test | inspection object, and an example of luminance distribution of image data. 第3実施形態に係る検査装置を機能的に説明するブロック図。The block diagram functionally explaining the inspection device concerning a 3rd embodiment. 第3実施形態に係る検査装置のき裂検査処理内容を説明するフローチャート。The flowchart explaining the crack inspection process content of the inspection apparatus which concerns on 3rd Embodiment. 補正量データにより補正をした画像データと、その輝度分布と、き裂判別閾値との関係を説明する図。The figure explaining the relationship between the image data correct | amended by correction amount data, the luminance distribution, and a crack discrimination threshold value. 第2実施形態と第3実施形態を組み合わせた場合の検査装置のブロック図。The block diagram of the inspection apparatus at the time of combining 2nd Embodiment and 3rd Embodiment.

以下、図面を参照しながら、実施形態に係る検査装置を説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行うこととする。   Hereinafter, an inspection apparatus according to an embodiment will be described with reference to the drawings. In the following description, components having substantially the same functions and configurations are denoted by the same reference numerals, and redundant description will be provided only when necessary.

(第1実施形態)
図1は、第1実施形態に係る検査装置1の構成を機能的に説明するためのブロック図である。この図1に示すように、本実施形態において、検査対象物100のき裂の有無の検査を行う検査装置1は、スキャン装置200と、制御装置300と、演算処理装置400と、記録装置500と、検出結果出力装置600とを備えて、構成されている。
(First embodiment)
FIG. 1 is a block diagram for functionally explaining the configuration of the inspection apparatus 1 according to the first embodiment. As shown in FIG. 1, in this embodiment, an inspection apparatus 1 that inspects the presence or absence of a crack in an inspection object 100 includes a scanning apparatus 200, a control apparatus 300, an arithmetic processing apparatus 400, and a recording apparatus 500. And a detection result output device 600.

検査対象物100は、例えば、ガスタービンの静翼などであり、複雑な形状を有しているが、高い精度で製作された機械的構造物である。スキャン装置200は、センサ部210と、移動機構220とを備えている。センサ部210は、画像データ取得部212と、形状データ取得部214とを備えており、検査対象物100の表面からき裂を検出するために、検査対象物100の表面の計測を行う。移動機構220は、X移動ステージ230とY移動ステージ232とZ移動ステージ234とX回転ステージ240とY回転ステージ242とZ回転ステージ244と備えており、センサ部210を、様々な形状の検査対象物100の表面に沿って移動させ、検査対象物100の表面を全体的に計測することを可能にする。スキャン装置200はさらに照明250を備えており、この照明250は、移動機構220とともに移動して、センサ部210で画像データや形状データを取得する際に、検査対象物100に光を照射する。   The inspection object 100 is, for example, a stationary blade of a gas turbine and has a complicated shape, but is a mechanical structure manufactured with high accuracy. The scanning device 200 includes a sensor unit 210 and a moving mechanism 220. The sensor unit 210 includes an image data acquisition unit 212 and a shape data acquisition unit 214, and measures the surface of the inspection object 100 in order to detect a crack from the surface of the inspection object 100. The moving mechanism 220 includes an X moving stage 230, a Y moving stage 232, a Z moving stage 234, an X rotating stage 240, a Y rotating stage 242, and a Z rotating stage 244, and the sensor unit 210 is inspected in various shapes. It is possible to move along the surface of the object 100 and measure the entire surface of the inspection object 100. The scanning device 200 further includes an illumination 250. The illumination 250 moves with the moving mechanism 220, and irradiates the inspection object 100 with light when the sensor unit 210 acquires image data and shape data.

より詳しくは、センサ部210に設けられた画像データ取得部212は、例えば、画像データを取得できるカメラにより構成されている。すなわち、画像データ取得部212は、カメラにより撮像された二次元の画像データを取得する。同じく、センサ部210に設けられた形状データ取得部214は、例えば、三角測量の原理を基にしたステレオカメラやレーザとカメラを組み合わせたセンサにより構成されており、検査対象物100の形状データを取得する。すなわち、形状データ取得部214は、X座標、Y座標、Z座標からなる三次元の座標データの集合体である形状データを取得する。   More specifically, the image data acquisition unit 212 provided in the sensor unit 210 is configured by, for example, a camera that can acquire image data. That is, the image data acquisition unit 212 acquires two-dimensional image data captured by the camera. Similarly, the shape data acquisition unit 214 provided in the sensor unit 210 is configured by, for example, a stereo camera based on the principle of triangulation or a sensor that combines a laser and a camera, and the shape data of the inspection object 100 is obtained. get. That is, the shape data acquisition unit 214 acquires shape data that is an aggregate of three-dimensional coordinate data including X coordinates, Y coordinates, and Z coordinates.

移動機構220は、検査対象物100の裏面や側面などを含む表面のデータを全体的に取得するために、センサ部210の移動制御を行う。具体的には、移動機構220のX移動ステージ230は、センサ部210をX方向に移動させる機能を有しており、Y移動ステージ232は、センサ部210をY方向に移動させる機能を有しており、Z移動ステージ234は、センサ部210をZ方向に移動させる機能を有している。   The moving mechanism 220 performs movement control of the sensor unit 210 in order to acquire the entire surface data including the back surface and the side surface of the inspection object 100. Specifically, the X moving stage 230 of the moving mechanism 220 has a function of moving the sensor unit 210 in the X direction, and the Y moving stage 232 has a function of moving the sensor unit 210 in the Y direction. The Z moving stage 234 has a function of moving the sensor unit 210 in the Z direction.

さらに、移動機構220のX回転ステージ240は、センサ部210を、X軸を中心に回転させる機能を有しており、Y回転ステージ242は、センサ部210を、Y軸を中心に回転させる機能を有しており、Z回転ステージ244は、センサ部210を、Z軸を中心に回転させる機能を有している。   Further, the X rotation stage 240 of the moving mechanism 220 has a function of rotating the sensor unit 210 around the X axis, and the Y rotation stage 242 has a function of rotating the sensor unit 210 around the Y axis. The Z rotation stage 244 has a function of rotating the sensor unit 210 around the Z axis.

つまり、移動機構220は、検査対象物100の表面を全体的に計測できるようにするために、センサ部210を、XYZの3軸で移動させ、XYZの3軸で回転させることにより、センサ部210の移動制御を行う。換言すれば、移動機構220は、合計6軸の移動制御と回転制御により、画像データ取得部212と形状データ取得部214を備えるセンサ部210を移動させる機構であり、センサ部210の原点からの移動量と回転量とにより制御され、これら移動量と回転量とを記録装置500に記録させることができる。また、移動機構220の照明250は、検査対象物100の表面を明るく照らし、画像データの取得を補助する役割を有している。この照明250は、例えば、センサ部210に追加的に設けることができるが、この検査装置1に、検査対象物100の検査を行うための十分な明るさがある場合等は、省略可能である。   That is, the moving mechanism 220 moves the sensor unit 210 along the three axes XYZ and rotates it along the three axes XYZ so that the entire surface of the inspection object 100 can be measured. The movement control 210 is performed. In other words, the moving mechanism 220 is a mechanism that moves the sensor unit 210 including the image data acquisition unit 212 and the shape data acquisition unit 214 by movement control and rotation control of a total of six axes. The movement amount and the rotation amount are controlled by the movement amount and the rotation amount, and the movement amount and the rotation amount can be recorded in the recording apparatus 500. The illumination 250 of the moving mechanism 220 has a role of illuminating the surface of the inspection object 100 and assisting in acquiring image data. The illumination 250 can be additionally provided, for example, in the sensor unit 210, but may be omitted when the inspection apparatus 1 has sufficient brightness for inspecting the inspection object 100. .

制御装置300は、画像データ取得部212と形状データ取得部214とを備えるセンサ部210と移動機構220とを、計測計画に基づいて通信制御する。本実施形態においては、制御装置300は、画像データ取得部コントローラ312と、形状データ取得部コントローラ314とを備えて構成されている。   The control device 300 controls communication of the sensor unit 210 and the moving mechanism 220 including the image data acquisition unit 212 and the shape data acquisition unit 214 based on the measurement plan. In the present embodiment, the control device 300 includes an image data acquisition unit controller 312 and a shape data acquisition unit controller 314.

画像データ取得部コントローラ312は、画像データ取得部212に制御データを送信し、画像データ取得部212の動作制御を行う。形状データ取得部コントローラ314は、形状データ取得部214に制御データを送信し、形状データ取得部214の動作制御を行う。   The image data acquisition unit controller 312 transmits control data to the image data acquisition unit 212 and controls the operation of the image data acquisition unit 212. The shape data acquisition unit controller 314 transmits control data to the shape data acquisition unit 214 and controls the operation of the shape data acquisition unit 214.

さらに、制御装置300は、X移動ステージコントローラ330と、Y移動ステージコントローラ332と、Z移動ステージコントローラ334と、X回転ステージコントローラ340と、Y回転ステージコントローラ342と、Z回転ステージコントローラ344と、照明制御コントローラ350とを、備えて構成されている。X移動ステージコントローラ330と、Y移動ステージコントローラ332と、Z移動ステージコントローラ334と、X回転ステージコントローラ340と、Y回転ステージコントローラ342と、Z回転ステージコントローラ344は、それぞれ、X移動ステージ230と、Y移動ステージ232と、Z移動ステージ234と、X回転ステージ240と、Y回転ステージ242とZ回転ステージ244とに制御データを送信し、動作制御を行う。照明制御コントローラ350は、照明250の電流若しくは電圧を制御して、照明250の照度を制御するとともに、照明250の位置や姿勢の制御を行う。   Further, the control device 300 includes an X movement stage controller 330, a Y movement stage controller 332, a Z movement stage controller 334, an X rotation stage controller 340, a Y rotation stage controller 342, a Z rotation stage controller 344, and an illumination. The control controller 350 is provided. The X movement stage controller 330, the Y movement stage controller 332, the Z movement stage controller 334, the X rotation stage controller 340, the Y rotation stage controller 342, and the Z rotation stage controller 344, respectively, Control data is transmitted to the Y movement stage 232, the Z movement stage 234, the X rotation stage 240, the Y rotation stage 242, and the Z rotation stage 244 to perform operation control. The illumination controller 350 controls the current or voltage of the illumination 250 to control the illuminance of the illumination 250 and to control the position and orientation of the illumination 250.

スキャン装置200と制御装置300を用いて検査対象物100の表面を計測するため、制御装置300に対して、事前に、スキャン装置200のスキャンすべき計測軌道経路を設定しておく必要がある。計測軌道経路の設定は、例えば、計測したい位置の座標や姿勢角度を記録し、羅列することで、移動機構220が移動する始点と終点を設定することが出来る。これら始点と終点の組み合わせを全経路について設定することで、制御装置300から自動的にスキャン装置200に指令を出すことができるようになる。   In order to measure the surface of the inspection object 100 using the scanning device 200 and the control device 300, it is necessary to set a measurement trajectory path to be scanned by the scanning device 200 in advance for the control device 300. The measurement trajectory path can be set, for example, by recording the coordinates and posture angles of the position to be measured and enumerating them, thereby setting the start point and the end point at which the moving mechanism 220 moves. By setting the combination of the start point and the end point for all routes, the control device 300 can automatically issue a command to the scanning device 200.

また、検査対象物100が移動した場合や、別個体と交換された場合に、検査対象物100とスキャン装置200の位置関係は、変わる可能性がある。そこで、制御装置300は、計測軌道経路を作成した検査対象物100とスキャン装置200の位置関係を基準位置としたときの計測軌道経路に対して、現在の検査対象物100とスキャン装置200の位置関係から位置や姿勢角度を求める機能を有している。制御装置300は、この求めた位置や姿勢角度を基づいて、基準とした計測軌道経路に対して座標変換することで、現在の検査対象物100に対するスキャン装置200がスキャンすべき計測軌道経路を補正することが可能になる。   Further, when the inspection object 100 moves or is replaced with a separate body, the positional relationship between the inspection object 100 and the scanning device 200 may change. Therefore, the control device 300 determines the current position of the inspection object 100 and the scanning apparatus 200 with respect to the measurement orbit path when the positional relationship between the inspection object 100 that created the measurement orbit path and the scanning apparatus 200 is used as a reference position. It has a function to obtain the position and posture angle from the relationship. The control device 300 corrects the measurement trajectory path to be scanned by the scanning device 200 with respect to the current inspection object 100 by performing coordinate conversion on the reference measurement trajectory route based on the obtained position and orientation angle. It becomes possible to do.

なお、現時点における検査対象物100とスキャン装置200の位置関係と、基準としたときの検査対象物100とスキャン装置200の位置関係を求めるためには、例えば、形状データ取得部214を備えたセンサ部210により、検査対象物100の形状を計測し、得られた形状データと基準位置における検査対象物100の形状データとを用いて、位置合わせ調整演算することで、基準位置に対する現在位置の位置や姿勢角度を求めることができる。   In order to obtain the current positional relationship between the inspection object 100 and the scanning device 200 and the positional relationship between the inspection object 100 and the scanning device 200 as a reference, for example, a sensor including a shape data acquisition unit 214 is used. The position of the current position with respect to the reference position is obtained by measuring the shape of the inspection object 100 by the unit 210 and performing alignment adjustment calculation using the obtained shape data and the shape data of the inspection object 100 at the reference position. And the posture angle can be obtained.

制御装置300に対して設定すべき計測軌道経路については、記録装置500に予め記録しておき、制御装置300が記録装置500に記録されている計測軌道経路のデータを読み込むことで、スキャン装置200の移動や姿勢を制御する。これにより、画像データ取得部212と形状データ取得部214を用いて、検査対象物100の表面を計測したデータを自動的に取得可能にしている。   The measurement trajectory path to be set for the control device 300 is recorded in advance in the recording device 500, and the control device 300 reads the data of the measurement trajectory route recorded in the recording device 500, whereby the scanning device 200. Control the movement and posture of the camera. Thereby, using the image data acquisition unit 212 and the shape data acquisition unit 214, data obtained by measuring the surface of the inspection object 100 can be automatically acquired.

演算処理装置400は、形状データき裂検出処理部410と、キャリブレーション部420と、面識別部430と、画像補正判定部440と、画像補正部450と、画像データき裂検出部460と、き裂統合部470と、結果出力処理部480とを備えて構成されている。これらの各処理部は、記録装置500に記録されたプログラムを演算処理装置400が読み込んで実行することにより、実現される処理である。或いは、これらの各処理部が実行する処理を予め機能として組み込まれたASIC(Application Specific Integrated Circuit)により、演算処理装置400を構成し、これらの処理を実行させてもよい。これらの各処理部の詳細については、後述する。なお、演算処理装置400が、本実施形態におけるき裂候補演算処理装置を構成する。   The arithmetic processing device 400 includes a shape data crack detection processing unit 410, a calibration unit 420, a surface identification unit 430, an image correction determination unit 440, an image correction unit 450, an image data crack detection unit 460, A crack integration unit 470 and a result output processing unit 480 are provided. Each of these processing units is a process realized when the arithmetic processing device 400 reads and executes a program recorded in the recording device 500. Alternatively, the arithmetic processing device 400 may be configured by an ASIC (Application Specific Integrated Circuit) in which the processing executed by each of these processing units is previously incorporated as a function, and these processing may be executed. Details of these processing units will be described later. The arithmetic processing device 400 constitutes a crack candidate arithmetic processing device in the present embodiment.

図2は、本実施形態に係る検査装置1と、この検査装置1を用いて、き裂の有無の検査を行う検査対象物100の一例とを説明するための斜視図である。この図2に示すように、検査装置1の下方には、検査対象物100が載置される。この検査対象物100の上方に、スキャン装置200が位置することとなる。   FIG. 2 is a perspective view for explaining the inspection apparatus 1 according to the present embodiment and an example of the inspection object 100 that performs inspection for the presence or absence of a crack using the inspection apparatus 1. As shown in FIG. 2, an inspection object 100 is placed below the inspection apparatus 1. The scanning device 200 is positioned above the inspection object 100.

スキャン装置200におけるX移動ステージ230は、X方向に延びるガイドレールにより構成されており、Y移動ステージ232は、Y方向に延びるガイドレールにより構成されており、Z移動ステージ234は、Z方向に延びるガイドレールにより構成されている。Z移動ステージ234には、センサ部210が支持機構を介して取り付けられており、センサ部210をZ方向に移動可能である。Z移動ステージ234は、X移動ステージ230により、X方向に移動可能であり、X移動ステージ230は、Y移動ステージ232により、Y方向に移動可能である。この結果、センサ部210は、X方向、Y方向、Z方向の3方向に移動可能である。   The X moving stage 230 in the scanning apparatus 200 is configured by a guide rail extending in the X direction, the Y moving stage 232 is configured by a guide rail extending in the Y direction, and the Z moving stage 234 extends in the Z direction. It is composed of guide rails. A sensor unit 210 is attached to the Z movement stage 234 via a support mechanism, and the sensor unit 210 can be moved in the Z direction. The Z movement stage 234 can be moved in the X direction by the X movement stage 230, and the X movement stage 230 can be moved in the Y direction by the Y movement stage 232. As a result, the sensor unit 210 can move in three directions, the X direction, the Y direction, and the Z direction.

また、センサ部210には、X回転ステージ240、Y回転ステージ242、Z回転ステージ244が設けられており、3軸に回転可能である。さらに、センサ部210には、照明250も設けられており、画像データや形状データを取得する際に、検査対象物100を明るく照らすことができる。   Further, the sensor unit 210 is provided with an X rotation stage 240, a Y rotation stage 242, and a Z rotation stage 244, and is rotatable about three axes. Further, the sensor unit 210 is also provided with an illumination 250, which can brightly illuminate the inspection object 100 when acquiring image data and shape data.

上述したように、スキャン装置200は、制御装置300により制御される。制御装置300の全体的な制御は、コンピュータ610により行われる。つまり、上述した演算処理装置400と記録装置500と検出結果出力装置600は、コンピュータ610により実現される。このコンピュータ610が、本実施形態における検査装置用制御装置を構成し、この検査装置用制御装置により制御されるスキャン装置200と制御装置300とが、本実施形態における検査装置本体部を構成する。また、コンピュータ610が、所定のプログラム(例えば、記録装置500に記録されているプログラム)を読み込んで実行し、本実施形態における検査装置本体部を制御する。   As described above, the scanning device 200 is controlled by the control device 300. Overall control of the control device 300 is performed by a computer 610. That is, the arithmetic processing device 400, the recording device 500, and the detection result output device 600 described above are realized by the computer 610. The computer 610 constitutes the inspection apparatus control apparatus in the present embodiment, and the scanning apparatus 200 and the control apparatus 300 controlled by the inspection apparatus control apparatus constitute an inspection apparatus main body in the present embodiment. In addition, the computer 610 reads and executes a predetermined program (for example, a program recorded in the recording apparatus 500), and controls the inspection apparatus main body in the present embodiment.

次に、図3に示すフローチャートに基づいて、き裂検査処理の流れについて説明する。この図3に示すように、検査装置1を用いた、き裂検査処理においては、検査装置1のオペレータ等であるユーザは、制御装置300に計測軌道経路を入力する(ステップS100)。具体的には、上述したように、制御装置300は、ユーザからの指示に基づいて、記録装置500に記録されている計測軌道経路のデータを、演算処理装置400を介して読み込む。   Next, the flow of crack inspection processing will be described based on the flowchart shown in FIG. As shown in FIG. 3, in the crack inspection process using the inspection apparatus 1, a user such as an operator of the inspection apparatus 1 inputs a measurement trajectory path to the control apparatus 300 (step S100). Specifically, as described above, the control device 300 reads the measurement trajectory path data recorded in the recording device 500 via the arithmetic processing device 400 based on an instruction from the user.

次に、検査装置1のユーザは、検査対象物100を計測位置に配置する(ステップS102)。続いて、検査装置1の制御装置300は、スキャン装置200を制御して、形状データ取得部214により、検査対象物100の形状データを取得して(ステップS104)、さらに、画像データ取得部212により、検査対象物100の画像データを取得する(ステップS106)。これら取得した形状データと画像データとに基づいて、後述するき裂候補検出を行う。   Next, the user of the inspection apparatus 1 places the inspection object 100 at the measurement position (step S102). Subsequently, the control device 300 of the inspection apparatus 1 controls the scanning device 200 to acquire the shape data of the inspection object 100 by the shape data acquisition unit 214 (step S104), and further, the image data acquisition unit 212. Thus, the image data of the inspection object 100 is acquired (step S106). Based on the acquired shape data and image data, crack candidate detection described later is performed.

次に、演算処理装置400の形状データき裂検出処理部410は、ステップS104で取得した形状データに基づいて、き裂候補を検出する(ステップS108)。すなわち、形状データき裂検出処理部410は、形状データから、き裂候補となる検査対象物100の表面に開口した部分を検出する。本実施形態においては、形状データからのき裂候補検出方法は、2つの方法がある。   Next, the shape data crack detection processing unit 410 of the arithmetic processing device 400 detects a crack candidate based on the shape data acquired in step S104 (step S108). That is, the shape data crack detection processing unit 410 detects a portion opened on the surface of the inspection object 100 as a crack candidate from the shape data. In this embodiment, there are two methods for detecting crack candidates from shape data.

第1の方法は、基準となるき裂のない新品状態の形状データを事前に取得しておき、現状の検査対象物100の形状データと各計測点の距離の差が最小となるよう、最小二乗法等により位置合わせし、位置と姿勢角度を算出する。事前に取得しておく形状データは、この検査装置1により計測しておいてもよいし、設計データ等から計算で求めるようにしてもよい。   The first method is to obtain new shape data without cracks as a reference in advance, and minimize the difference between the current shape data of the inspection object 100 and the distance between each measurement point. Align by square method etc. and calculate the position and posture angle. The shape data acquired in advance may be measured by the inspection apparatus 1 or may be obtained by calculation from design data or the like.

そして、最小二乗法等により位置合わせした結果から、基準となる形状データに対する現状の形状データを、位置と姿勢角度を用いて、座標変換する。これにより基準となる形状データと現状の形状データとの間の各計測点座標を比較演算することができるようになり、開口したき裂候補を検出することができる。   Then, from the result of alignment by the least square method or the like, the current shape data with respect to the reference shape data is coordinate-converted using the position and orientation angle. As a result, the coordinates of the measurement points between the reference shape data and the current shape data can be compared and calculated, and an open crack candidate can be detected.

形状データからのき裂候補検出方法の第2の方法は、現状の形状データから、任意の断面を切り出し、この断面に沿って存在する計測点に連続的に隣接する計測点間の勾配角度を微分演算により求める。求めた微分演算結果より、平坦性がないと判断される閾値を設定し、閾値以上となる計測点を抽出する。抽出した計測点を中心に断面方向に対して、前後方向の微分値を検査し、平坦性がないと判断される開口部分の際を抽出し、断面方向の開口区間を抽出して、この開口区間をき裂候補として検出する。   The second method of crack candidate detection method from shape data is to cut out an arbitrary cross section from the current shape data and determine the gradient angle between measurement points that are continuously adjacent to the measurement points existing along this cross section. Obtained by differential operation. A threshold value determined to have no flatness is set from the obtained differential calculation result, and measurement points that are equal to or greater than the threshold value are extracted. The differential value in the front-rear direction is inspected with respect to the cross-sectional direction with the extracted measurement point as the center, the opening portion that is judged to be flat is extracted, the open section in the cross-sectional direction is extracted, and this opening The section is detected as a crack candidate.

次に、演算処理装置400のキャリブレーション部420は、形状データと画像データの位置合わせを行う(ステップS110)。換言すれば、キャリブレーション部420は、同一計測領域の画像データと形状データを統合する。この処理は、画像データの画素と形状データの計測点の対応付け処理である。ここでは、画像データが形状データより細かい分解能を持つ場合について述べるが、その逆の場合も同様の処理が可能である。画像データの画素と形状データの計測点が一致する部分を検出するための方法として、予め長さや幅がわかっている部材を計測し、この時の部材とスキャン装置200の原点からの距離を記録する。任意の距離における部材の両端部や部材に記録したマーキング部の画像データの画素と形状データの計測点を抽出する。   Next, the calibration unit 420 of the arithmetic processing device 400 performs alignment between the shape data and the image data (step S110). In other words, the calibration unit 420 integrates image data and shape data of the same measurement region. This process is a process of associating pixels of image data with measurement points of shape data. Here, the case where the image data has a finer resolution than the shape data will be described, but the same processing can be performed in the opposite case. As a method for detecting a portion where the pixel of the image data and the measurement point of the shape data coincide with each other, a member whose length or width is known in advance is measured, and the distance from the member at this time to the origin of the scanning device 200 is recorded. To do. The pixel of the image data of the marking part recorded on the both ends or the member at an arbitrary distance and the measurement point of the shape data are extracted.

例えば、画像データの画素が始点(100,100)、終点(500,100)であり、画像データの始点に対応する形状データの計測座標(10,10)、終点(50,10)とすると、この各座標値を記録することで、画像データと形状データの対応付けに必要な分解能係数が得られ、画像データもしくは形状データの分解能が低いほうに対して、データを補間することが可能になる。なお、検査対象物100とスキャン装置200の画像データと形状データは、最低でも2か所で取得することが望ましく、さらには、姿勢による差異を取得するためには、3か所以上の画像データ及び計測データを取得することが望ましい。これは姿勢角度の3軸を最小二乗法により安定して取得するためである。   For example, if the pixels of the image data are the start point (100, 100) and the end point (500, 100), and the measurement coordinates (10, 10) and end point (50, 10) of the shape data corresponding to the start point of the image data are By recording each coordinate value, a resolution coefficient necessary for associating the image data with the shape data can be obtained, and the data can be interpolated with respect to the lower resolution of the image data or the shape data. . The image data and shape data of the inspection object 100 and the scanning apparatus 200 are desirably acquired at least in two places. Furthermore, in order to obtain a difference depending on the posture, three or more pieces of image data are obtained. It is desirable to acquire measurement data. This is because the three axes of the posture angle are stably acquired by the least square method.

次に、演算処理装置400の面識別部430は、形状データより、面情報を算出して面を識別する(ステップS112)。具体的には、面識別部430は、形状データから各計測点が属する面の法線ベクトルを求める。法線ベクトルは各計測点の周囲の計測点を用いて、注目した中心となる計測点を基準とした三角形網を作成し、各頂点の座標値から一般的な方法により法線ベクトルを求める。周囲の点を8点選択した場合には、8面の法線ベクトルが得られ、これら法線ベクトルを合成することで、注目した計測点の面の法線ベクトルを求めることが可能になる。ここで求めた法線ベクトルと予め用意した基準形状データに記録した面の向きすなわち法線ベクトルの基準座標系に対する角度の範囲内にそれぞれ該当する面を分類し、各計測点が表面なのか裏面なのか側面なのかを識別する。さらに、面識別部430は、ここで分類された面に、検出したき裂候補がどの面に属するかを、記録する機能も備えている。   Next, the surface identification unit 430 of the arithmetic processing unit 400 calculates surface information from the shape data and identifies the surface (step S112). Specifically, the surface identification unit 430 obtains a normal vector of the surface to which each measurement point belongs from the shape data. For the normal vector, a triangular network is created using the measurement points around each measurement point as a reference, and the normal measurement point vector is obtained from the coordinate value of each vertex by a general method. When eight surrounding points are selected, eight normal vectors are obtained, and by synthesizing these normal vectors, it is possible to obtain the normal vector of the surface of the measured measurement point. The normal vector obtained here and the direction of the surface recorded in the reference shape data prepared in advance, that is, the corresponding surface is classified within the range of the angle of the normal vector with respect to the reference coordinate system, and each measurement point is the front or back Identify whether it is a side or a side. Furthermore, the surface identification unit 430 has a function of recording which surface the detected crack candidate belongs to the surfaces classified here.

次に、演算処理装置400の画像補正判定部440は、形状データにおけるき裂候補と同一位置の画像データの輝度と、それ以外の領域の画像データの輝度とから、補正量データの算出を行う(ステップS114)。具体的には、画像補正判定部440は、まずキャリブレーション部420の方法により、求めた画像データと形状データの対応付け結果を基に、形状データから開口したき裂候補を検出し、それに対応する同一量計測領域内の画像データの輝度データを取得する。また、き裂候補以外の領域の輝度を取得することで、き裂候補を検出する画像の補正量データを演算する。例えば、取得した画像データから、き裂候補領域の輝度A1と、それ以外の領域の輝度A2が、それぞれ50と100(0〜255を輝度の値の範囲とした場合)であった場合、き裂候補領域とそれ以外の領域の輝度差が大きいとき裂候補とより判別しやすくなる。そこで、き裂候補領域が0や10等の低い輝度B1、それ以外の領域が250や255等の高い輝度B2が理想であり、この時の実際の輝度A1と輝度A2の差分を輝度差Aとし、補正後の輝度B1と輝度B2の差分を輝度差Bとする。すなわち、画像補正判定部440は、輝度差Aと輝度差Bの比率が増加する補正量データを演算する機能を備えているといえる。   Next, the image correction determination unit 440 of the arithmetic processing device 400 calculates correction amount data from the luminance of the image data at the same position as the crack candidate in the shape data and the luminance of the image data in other regions. (Step S114). Specifically, the image correction determination unit 440 first detects a crack candidate opened from the shape data based on the result of association between the obtained image data and the shape data by the method of the calibration unit 420, and responds to it. The luminance data of the image data in the same amount measurement area to be acquired is acquired. Moreover, the correction amount data of the image which detects a crack candidate is calculated by acquiring the brightness | luminance of area | regions other than a crack candidate. For example, from the acquired image data, when the luminance A1 of the crack candidate region and the luminance A2 of the other region are 50 and 100 (when the range of luminance value is 0 to 255), respectively, When the luminance difference between the crack candidate region and the other region is large, it becomes easier to distinguish from the crack candidate. Therefore, ideally, the crack candidate area has a low brightness B1 such as 0 or 10 and the other areas have a high brightness B2 such as 250 or 255. The difference between the actual brightness A1 and the brightness A2 at this time is the brightness difference A. And the difference between the corrected brightness B1 and brightness B2 is the brightness difference B. That is, it can be said that the image correction determination unit 440 has a function of calculating correction amount data in which the ratio of the luminance difference A and the luminance difference B increases.

演算処理装置400の画像補正部450は、補正量データより、画像データの輝度分布を補正する(ステップS116)。具体的には、画像補正部450は、上述の方法により求めた補正量データをもとに、画像データ取得部212により取得された画像の輝度を補正する。ここで、元の画像のき裂候補有無間の輝度差Aを、補正量に基づいたき裂候補有無間の輝度差Bに補正する方法は、輝度の線形補間やガンマ補正等の方法により実施される。   The image correction unit 450 of the arithmetic processing device 400 corrects the luminance distribution of the image data from the correction amount data (step S116). Specifically, the image correction unit 450 corrects the luminance of the image acquired by the image data acquisition unit 212 based on the correction amount data obtained by the above method. Here, the method of correcting the luminance difference A between the presence and absence of a crack candidate in the original image to the luminance difference B between the presence and absence of a crack candidate based on the correction amount is performed by a method such as linear interpolation of luminance or gamma correction. The

次に、演算処理装置400の画像データき裂検出部460は、補正された画像データに基づき、き裂候補を検出する(ステップS118)。具体的には、画像データき裂検出部460は、画像補正部450にて補正した画像データを読込み、この画像データに基づいて、き裂候補を検出する。き裂候補を検出する処理の流れについては、まず、初めに任意に設定した領域サイズに応じた小領域を補正された画像データから抽出し、その小領域に対してエッジ検出処理を実施する。なお、小領域の抽出処理は必ずしも必要はないため、処理を省くことができる。   Next, the image data crack detection unit 460 of the arithmetic processing device 400 detects a crack candidate based on the corrected image data (step S118). Specifically, the image data crack detection unit 460 reads the image data corrected by the image correction unit 450 and detects a crack candidate based on the image data. Regarding the flow of processing for detecting crack candidates, first, a small region corresponding to a region size arbitrarily set is first extracted from the corrected image data, and edge detection processing is performed on the small region. Note that the small area extraction process is not necessarily required, and thus the process can be omitted.

続いて行われるエッジ検出処理においては、注目した画素の輝度値を基に隣接する4近傍もしくは8近傍の輝度値に対してエッジ検出フィルタ(例えば、ソーベルフィルタ)によりエッジ強度、濃度勾配を算出する。また、エッジ強度に対して任意に設定した閾値を用いた2値化処理により、エッジか否かを判別し、エッジ領域を検出する。また、濃度勾配結果とエッジ領域検出結果を用いて、隣接する画素間の内積により濃度勾配方向に同様の値を持つ画素を追跡する。画像上のき裂候補は閉領域となることを利用して、追跡結果より閉領域(任意の出発点となる画素からどちらか一方の方向に追跡したときに同じ出発点の画素に戻ってくる)を検出する。   In the subsequent edge detection processing, the edge intensity and density gradient are calculated by the edge detection filter (for example, Sobel filter) for the adjacent four or eight adjacent luminance values based on the luminance value of the pixel of interest. To do. In addition, by binarization processing using a threshold value arbitrarily set for the edge strength, it is determined whether or not it is an edge, and an edge region is detected. Further, by using the density gradient result and the edge region detection result, pixels having similar values in the density gradient direction are traced by the inner product between adjacent pixels. By using the fact that the crack candidate on the image becomes a closed region, the tracking result returns to the closed region (the pixel of the same starting point when tracking in either direction from the pixel that is an arbitrary starting point) ) Is detected.

ここで、検出された閉領域にはき裂候補以外を含む可能性がある。き裂候補の領域とき裂候補以外の領域は画素の面積や閉領域の形状等の演算情報から判別し、誤検出部分を除去する。これら処理を全画像データに対して実施するが、処理の途中で、領域が途切れ、本来一つのき裂を二つ以上のき裂候補として認識する場合がある。そこで、領域連結処理により、閉領域の輪郭同士が任意に設定した画素距離以内であれば、輪郭の幅に合わせき裂候補として認識されていない空白領域をき裂候補として認識し、2つ以上に分かれた閉領域を連結する。連結後のき裂候補が画像データき裂検出部によって検出されたき裂候補である。   Here, the detected closed region may include other than the crack candidate. The area other than the crack candidate and the area other than the crack candidate are discriminated from calculation information such as the area of the pixel and the shape of the closed area, and the erroneously detected portion is removed. Although these processes are performed on all image data, the area may be interrupted during the process, and one crack may be recognized as two or more crack candidates. Therefore, if the contours of the closed regions are within the arbitrarily set pixel distance by region connection processing, a blank region that is not recognized as a crack candidate according to the width of the contour is recognized as a crack candidate, and two or more Concatenate the closed areas. The connected crack candidate is a crack candidate detected by the image data crack detection unit.

次に、演算処理装置400のき裂統合部470は、形状データから検出されたき裂候補と、画像データから検出されたき裂候補とを統合する(ステップS120)。具体的には、き裂統合部470は、形状データき裂検出処理部410で検出したき裂候補と、画像データき裂検出部460で検出したき裂候補との双方を、き裂候補とする。ここでは、画像データ取得部212と形状データ取得部214の分解能に応じて、き裂候補の幅閾値を任意の値に決めておく。そして、それぞれで求めたき裂候補の幅を計測する。裂候補の幅の計測は中心線に直交する垂線とき裂の輪郭の両接点の距離を開始点から終端点まで求め、その平均値、最大値、最小値から任意に選択した値をき裂の幅として求める。   Next, the crack integration unit 470 of the arithmetic processing device 400 integrates the crack candidate detected from the shape data and the crack candidate detected from the image data (step S120). Specifically, the crack integration unit 470 treats both the crack candidate detected by the shape data crack detection processing unit 410 and the crack candidate detected by the image data crack detection unit 460 as a crack candidate. To do. Here, according to the resolution of the image data acquisition unit 212 and the shape data acquisition unit 214, the width threshold value of the crack candidate is set to an arbitrary value. And the width | variety of the crack candidate calculated | required by each is measured. The width of the crack candidate is measured by calculating the distance between the start point and the end point of the contact point of the perpendicular and the contour of the crack perpendicular to the center line, and select an arbitrary value from the average, maximum, and minimum values of the crack. Calculate as width.

ただし、き裂に分岐点がある場合には、求めたき裂の幅が長く求まる可能性があるため、任意に設定した分岐点前後の区間を除外するか否かの選択ができるようにしてもよい。この幅の計測結果より、画像データき裂検出部460が検出したき裂候補のうち、閾値よりもき裂候補の幅が狭い場合、き裂検出結果として出力し、き裂候補の幅が閾値よりも広い場合は消去する。同じく形状データき裂検出処理部410が検出したき裂候補のうち、閾値より広いものをき裂として出力し、狭いものを消去する。これにより、同じき裂候補がそれぞれ重複してき裂として出力されないようになる。   However, if there is a branch point in the crack, the obtained crack width may be long, so it is possible to select whether or not to exclude the section before and after the arbitrarily set branch point. Good. If the width of the crack candidate is narrower than the threshold among the crack candidates detected by the image data crack detection unit 460 based on the measurement result of the width, the crack detection result is output as the crack candidate width. If it is wider, erase it. Similarly, out of the crack candidates detected by the shape data crack detection processing unit 410, those wider than the threshold are output as cracks, and narrow ones are deleted. As a result, the same crack candidate is not duplicated and output as a crack.

なお、本実施形態においては、ステップS120において、形状データから検出されたき裂候補と、画像データから検出されたき裂候補とを統合する際には、形状データから検出されたき裂候補は出力しないようにし、画像データから検出されたき裂候補は出力するようにしてもよい。これは、形状データに基づいて検出されたき裂候補は比較的大きい場合が多く、肉眼でも認識しやすく、一方で、画像データに基づいて検出されたき裂候補は比較的小さい場合が多く、肉眼では認識しにくいことから、検査装置1では、肉眼では認識しにくい画像データに基づくき裂候補だけを出力すれば足りるとも考えられるからである。   In this embodiment, when integrating the crack candidate detected from the shape data and the crack candidate detected from the image data in step S120, the crack candidate detected from the shape data is not output. The crack candidates detected from the image data may be output. This is because the crack candidates detected based on the shape data are often relatively large and are easily recognized by the naked eye, while the crack candidates detected based on the image data are often relatively small. This is because, since it is difficult to recognize, it is considered that it is sufficient for the inspection apparatus 1 to output only crack candidates based on image data that is difficult to recognize with the naked eye.

次に、演算処理装置400の結果出力処理部480は、検査結果を検出結果出力装置600に出力する(ステップS122)。具体的には、結果出力処理部480は、面識別部430で求めた面情報と、き裂統合部470により統合されたき裂候補と、形状データから作成した検査対象物100の形状の輪郭を合成し、任意の視点からのき裂検出結果投影画像を作成する。形状輪郭を検出する方法は、検査対象物100の形状データと基準となる形状データのそれぞれに対して、エッジとなる形状変化点を法線ベクトルや形状勾配量(形状データの周辺の微分値)から検出する。検出された形状変化点を用いて、その変化点が連続する点のみを検出する。不連続となる場合には、任意に設定した形状変化点の連続店として判別する閾値以内であれば、連続点として検出する。これにより、検査対象物100の形状輪郭が検出される。   Next, the result output processing unit 480 of the arithmetic processing device 400 outputs the inspection result to the detection result output device 600 (step S122). Specifically, the result output processing unit 480 obtains the contour of the shape of the inspection object 100 created from the surface information obtained by the surface identifying unit 430, the crack candidates integrated by the crack integrating unit 470, and the shape data. Combine and create a crack detection result projection image from an arbitrary viewpoint. The method of detecting the shape contour is based on the shape change point serving as the edge and the normal vector or shape gradient amount (differential value around the shape data) for each of the shape data of the inspection object 100 and the reference shape data. Detect from. Using the detected shape change points, only the points where the change points are continuous are detected. In the case of discontinuity, the point is detected as a continuous point if it is within a threshold value that is determined as a continuous store of arbitrarily set shape change points. Thereby, the shape outline of the test object 100 is detected.

続いて、結果出力処理部480は、検出した検査対象物100の輪郭を3次元空間上の任意に指定した視点から2次元空間に投影した投影画像を作成する。任意に指定する点は、例えば検査対象物100の上面から見た状態や側面を見た状態であり、適宜視点は変えられる。以上により、演算処理装置400が実行するき裂検査処理は終了する。   Subsequently, the result output processing unit 480 creates a projection image obtained by projecting the detected contour of the inspection object 100 onto the two-dimensional space from an arbitrarily designated viewpoint on the three-dimensional space. The arbitrarily designated point is, for example, a state viewed from the upper surface or a side surface of the inspection object 100, and the viewpoint can be changed as appropriate. Thus, the crack inspection process executed by the arithmetic processing unit 400 is completed.

再び図1に戻り、検出結果出力装置600は、結果出力処理部480からの検査結果をユーザに出力する。具体的には、検出結果出力装置600は、視点の座標値を入力する手段と、3次元空間上で任意の視点から検査対象物100の形状データを確認できる表示手段を備えており、演算処理装置400に対する入力補助装置であるマウスやキーボードで、ユーザが指定する手段を備えている。また、き裂検出結果投影画像にき裂幅等のき裂情報を合成画像に描画する。この検出結果出力装置600により、ユーザは、検査装置1が自動的に検出したき裂候補を把握することができる。   Returning to FIG. 1 again, the detection result output device 600 outputs the inspection result from the result output processing unit 480 to the user. Specifically, the detection result output device 600 includes a means for inputting the coordinate value of the viewpoint and a display means for confirming the shape data of the inspection object 100 from an arbitrary viewpoint in the three-dimensional space. Means provided by the user with a mouse or keyboard that is an input assist device for the device 400 is provided. Further, crack information such as crack width is drawn on the composite image in the crack detection result projection image. With this detection result output device 600, the user can grasp the crack candidates automatically detected by the inspection device 1.

次に、演算処理装置400における画像補正判定部440の変形例について説明する。上述した説明では、画像補正判定部440は、き裂候補が存在する領域とそれ以外の領域の輝度差が増加する補正量データを生成したが、き裂候補が存在しない場合は、この補正量データが存在しなくなる。以下に、その場合の処理方法を述べる。形状データにおいて、き裂候補が検出されていない場合は、補正量データを得ることができない。そこで、該当する画像データと形状データがどの面に属しているかのデータを面識別部430により求めた面情報と照合し、補正量データの中から該当する面情報の補正量データを抽出する。さらに、このき裂候補が存在しない位置の画像データと形状データで、き裂候補が検出できている最も位置関係が距離的に近い補正量データを抽出することで、画像データの撮影状況と形状データの計測状況が酷似した状態の補正量データを取得することが可能になる。   Next, a modified example of the image correction determination unit 440 in the arithmetic processing device 400 will be described. In the above description, the image correction determination unit 440 generates the correction amount data in which the luminance difference between the region where the crack candidate exists and the other region increases. If there is no crack candidate, this correction amount is generated. Data no longer exists. The processing method in that case will be described below. If no crack candidate is detected in the shape data, correction amount data cannot be obtained. Therefore, the data to which the corresponding image data and shape data belong is collated with the surface information obtained by the surface identifying unit 430, and the correction amount data of the corresponding surface information is extracted from the correction amount data. Further, by extracting the correction amount data having the closest positional relationship that can detect the crack candidate from the image data and the shape data at the position where the crack candidate does not exist, the photographing situation and shape of the image data are extracted. It is possible to acquire correction amount data in a state in which the data measurement state is very similar.

さらに、検査対象物100とスキャン装置200のセンサ部210との距離に応じて、撮影状況が異なることから、上述した画像補正判定部440における、画像データの輝度の補正量データも異なることとなる。これは、照明250による照射強度は、検査対象物100とスキャン装置200のセンサ部210の距離により異なるためであり、撮影時の距離に応じて、補正量データを補正する必要がある。そこで、本実施形態においては、検査対象物100とスキャン装置200のセンサ部210の距離に応じた補正量データを演算するため、以下のような方法を用いる。   Furthermore, since the photographing situation differs depending on the distance between the inspection object 100 and the sensor unit 210 of the scanning device 200, the correction amount data of the brightness of the image data in the image correction determination unit 440 described above also differs. . This is because the irradiation intensity by the illumination 250 differs depending on the distance between the inspection object 100 and the sensor unit 210 of the scanning apparatus 200, and the correction amount data needs to be corrected according to the distance at the time of photographing. Therefore, in the present embodiment, the following method is used to calculate correction amount data according to the distance between the inspection object 100 and the sensor unit 210 of the scanning device 200.

画像補正判定部440の距離に応じた補正量データの演算方法は、予め、き裂を模擬した部材間の距離を変化させて画像データを取得し、き裂が存在する領域とき裂が存在しない領域の輝度比率から、補正量データを算出する。この時、画像データを取得していない距離においては、前後の距離の補正量データから線形補間もしくは多項式近似により補正量データを補正する式を求める。線形補間もしくは多項式近似は、照明250の照射状態により実測値により近似する補間方法を選択する。最後に、実際に計測中の距離において補正量データを距離に応じて補正する式に適用し、補正量データを算出する。この方法により、計測距離が異なった場合にも、実際の撮影状況に適した補正量データを算出することが可能になる。   The correction amount data calculation method according to the distance of the image correction determination unit 440 acquires image data in advance by changing the distance between the members simulating the crack, and there is no crack in the region where the crack exists. Correction amount data is calculated from the luminance ratio of the region. At this time, for a distance for which image data has not been acquired, an expression for correcting the correction amount data by linear interpolation or polynomial approximation is obtained from the correction amount data of the preceding and following distances. For the linear interpolation or polynomial approximation, an interpolation method that approximates the measured value according to the irradiation state of the illumination 250 is selected. Finally, the correction amount data is calculated by applying the correction amount data to the equation for correcting the correction amount data according to the distance at the actually measured distance. According to this method, it is possible to calculate correction amount data suitable for an actual photographing situation even when the measurement distances are different.

さらに、画像補正判定部440は、検査対象物100の表面とセンサ部210の傾きにより発生する照明250の照射姿勢による撮影画像内の輝度変化に対応することもできる。センサ部210の形状データ取得部214で取得した形状データは、3次元的な断面もしくは平面を取得可能であり、センサ部210に対する検査対象物100の表面との姿勢角度を求めることが可能である。姿勢角度は、センサ部210の形状データ取得部214の計測方向は一定であることから、計測した形状データの座標値が最低3点あれば、3軸の姿勢角度を最小二乗法等により求めることが可能である。この姿勢角度を、予め、き裂を模擬した部材間の姿勢角度を変化させて画像データを取得し、き裂とそれ以外の領域の輝度比率から補正量データを算出する。   Further, the image correction determination unit 440 can cope with a luminance change in the captured image due to the illumination posture of the illumination 250 generated by the inclination of the surface of the inspection object 100 and the sensor unit 210. The shape data acquired by the shape data acquisition unit 214 of the sensor unit 210 can acquire a three-dimensional cross section or plane, and can determine the posture angle of the sensor unit 210 with the surface of the inspection object 100. . Since the measurement direction of the shape data acquisition unit 214 of the sensor unit 210 is constant, the posture angle is obtained by the least square method or the like if the coordinate values of the measured shape data are at least three points. Is possible. Image data is acquired in advance by changing the posture angle between members simulating a crack, and correction amount data is calculated from the luminance ratio of the crack and other regions.

この時、画像データを取得していない姿勢角度においては、前後の姿勢角度の補正量データから線形補間もしくは多項式近似により補正量データを補正する式を求める。補正式における線形補間もしくは多項式近似は、照明250の照射状態により実測値により近似する補間方法を選択する。最後に、実際に計測中の姿勢角度において補正量データを距離に応じて補正する式に適用し、補正量データを演算する。この方法により、計測姿勢角度が異なった場合にも、実際の撮影状況に適した補正量データを算出することが可能になる。   At this time, for a posture angle for which image data has not been acquired, an equation for correcting the correction amount data by linear interpolation or polynomial approximation is obtained from the correction amount data of the front and rear posture angles. For the linear interpolation or polynomial approximation in the correction formula, an interpolation method that approximates the measured value according to the irradiation state of the illumination 250 is selected. Finally, the correction amount data is calculated by applying the correction amount data to the equation for correcting the correction according to the distance at the posture angle actually being measured. This method makes it possible to calculate correction amount data suitable for the actual shooting situation even when the measurement posture angle is different.

以上のように、本実施形態に係る検査装置1によれば、検査対象物100の表面上のき裂を検出するために、形状データに基づいて、画像データの輝度分布を補正することで、検査対象物100の画像データが不良にならずに、検査に必要な画像データを取得することができる。これにより、画像データに基づき、き裂を検出することで、短時間かつ検出率の良い検査装置1を実現することができる。   As described above, according to the inspection apparatus 1 according to the present embodiment, in order to detect a crack on the surface of the inspection object 100, the luminance distribution of the image data is corrected based on the shape data. The image data necessary for the inspection can be acquired without causing the image data of the inspection object 100 to be defective. Thereby, the inspection apparatus 1 with a good detection rate can be realized in a short time by detecting a crack based on the image data.

より具体的には、本実施形態に係る検査装置1においては、検査対象物100を対象として取得した形状データと画像データに対し、形状データで検出されたき裂候補領域に対応する画像データの輝度分布を補正することで、形状データでは検出できないより細かいき裂を検出することができるようになる。また、画像データのみを用いたき裂検出処理では、検出漏れにつながっていた形状が変化した検査対象物100についても、良好にき裂検出をすることができるようになる。さらに、形状データのみを用いたき裂検査に比べ、画像データを併用したき裂検査処理を行うことで、検査対象物100の表面上のき裂検査を自動化し、き裂検査処理に要する時間の短縮やコストの削減を図ることができる。また、き裂検査処理における歩留まりの向上と工程短縮にも寄与することができる。   More specifically, in the inspection apparatus 1 according to the present embodiment, the luminance of the image data corresponding to the crack candidate region detected by the shape data with respect to the shape data and image data acquired for the inspection object 100. By correcting the distribution, a finer crack that cannot be detected by shape data can be detected. Further, in the crack detection process using only image data, it is possible to detect a crack well even for the inspection object 100 whose shape has changed which has led to detection omission. Furthermore, compared with the crack inspection using only the shape data, the crack inspection process using the image data is performed to automate the crack inspection on the surface of the inspection object 100, and the time required for the crack inspection process is reduced. Shortening and cost reduction can be achieved. Moreover, it can contribute to the improvement of the yield and the process shortening in the crack inspection process.

(第2実施形態)
第2実施形態に係る検査装置1は、演算処理装置400がセンサ部210や照明250の位置や姿勢を制御することにより、検査対象物100の表面の画像データをより検査に適した状態で取得できるようにしたものである。以下、上述した第1実施形態と異なる部分を説明する。
(Second Embodiment)
In the inspection apparatus 1 according to the second embodiment, the arithmetic processing device 400 controls the position and orientation of the sensor unit 210 and the illumination 250 to obtain image data on the surface of the inspection object 100 in a state more suitable for inspection. It is something that can be done. Hereinafter, a different part from 1st Embodiment mentioned above is demonstrated.

図4は、第2実施形態に係る検査装置1の構成を機能的に説明するためのブロック図であり、上述した第1実施形態における図1に対応する図である。   FIG. 4 is a block diagram for functionally explaining the configuration of the inspection apparatus 1 according to the second embodiment, and corresponds to FIG. 1 in the first embodiment described above.

この図4に示すように、本実施形態に係る検査装置1の演算処理装置400は、第1実施形態の演算処理装置400に対して、位置姿勢校正部700と、照明制御部710と、センサ部位置姿勢制御部720とを、さらに備えて構成されている。   As shown in FIG. 4, the arithmetic processing device 400 of the inspection apparatus 1 according to the present embodiment is different from the arithmetic processing device 400 of the first embodiment in a position / orientation calibration unit 700, an illumination control unit 710, and a sensor. The unit position and orientation control unit 720 is further provided.

位置姿勢校正部700は、画像データや形状データを取得するセンサ部210と照明250との相対的な位置や姿勢を取得し、画像データに対するキャリブレーションを行う。照明制御部710は、照明250の位置や姿勢を制御し、画像データの輝度の分布を調整する。センサ部位置姿勢制御部720は、画像補正判定部440により算出された輝度の補正量データに基づき、き裂領域とそれ以外領域の輝度の比が増加するようなセンサ部210の位置と姿勢を算出し、この算出結果に基づいて、センサ部210を制御する。   The position / orientation calibration unit 700 acquires the relative position and orientation of the illumination unit 250 and the sensor unit 210 that acquires image data and shape data, and calibrates the image data. The illumination control unit 710 controls the position and orientation of the illumination 250 and adjusts the luminance distribution of the image data. The sensor unit position / orientation control unit 720 determines the position and orientation of the sensor unit 210 such that the ratio of the luminance between the crack region and the other region increases based on the luminance correction amount data calculated by the image correction determination unit 440. The sensor unit 210 is controlled based on the calculation result.

図5は、本実施形態に係る検査装置1のき裂検査処理の流れを説明するフローチャートを示す図であり、上述した第1実施形態における図3に対応する図である。上述した第1実施形態と異なる部分を説明すると、ステップS106において画像データを取得した後、本実施形態においては、演算処理装置400における位置姿勢校正部700が、画像データと形状データとを取得するセンサ部210と、照明250との相対的な位置や姿勢を取得し、キャリブレーションを行う(ステップS200)。   FIG. 5 is a diagram illustrating a flow chart for explaining the flow of the crack inspection process of the inspection apparatus 1 according to the present embodiment, and corresponds to FIG. 3 in the first embodiment described above. Explaining the difference from the first embodiment described above, after acquiring image data in step S106, in this embodiment, the position / orientation calibration unit 700 in the arithmetic processing unit 400 acquires image data and shape data. A relative position and orientation between the sensor unit 210 and the illumination 250 are acquired, and calibration is performed (step S200).

より具体的には、位置姿勢校正部700は、画像データと形状データとを取得するセンサ部210と、照明250との相対的な位置と姿勢を取得するため、照明250に対して正対する位置に平板を置き、照射状態をセンサ部210の画像データ取得部212で撮影する。この時、図6に示すように、照射距離Lと、画像データ取得部212と形状データ取得部214と照明250との相対的な角度θとを、最低3パターン以上の組み合わせで、撮影を実施する。その際に撮影した画像から、図6に示すような撮影画像データの輝度分布が得られるので、これを照射強度分布(物体反射分布に相当)とする。   More specifically, the position / orientation calibration unit 700 is a position facing the illumination 250 in order to obtain the relative position and orientation of the illumination unit 250 and the sensor unit 210 that acquires image data and shape data. A flat plate is placed on the camera, and the irradiation state is imaged by the image data acquisition unit 212 of the sensor unit 210. At this time, as shown in FIG. 6, photographing is performed with a combination of at least three patterns of the irradiation distance L and the relative angle θ of the image data acquisition unit 212, the shape data acquisition unit 214, and the illumination 250. To do. Since the brightness distribution of the captured image data as shown in FIG. 6 is obtained from the image captured at that time, this is referred to as an irradiation intensity distribution (corresponding to an object reflection distribution).

この照射強度分布すなわち輝度分布をそれぞれの組み合わせで記録し、図6の破線で区切った領域の平均輝度を取得する。この区切る領域は任意に設定し、最低4つ以上の領域を設けることが望ましい。ここでは、事例として、図6に示す9分割した領域(L11〜L33)として説明し、輝度分布はL11〜L13にかけて強く、L31〜L33にかけて弱くなっていく分布と仮定する。各領域の平均輝度からL11からL13方向とL11からL31方向についてL11,L12,L13とL11,L21,L31を起点とした輝度分布の補正式の係数を算出する。ここに輝度分布の補正式は、区切った領域数に応じて存在するものとし、係数を算出する方法は線形補正もしくは多項式近似によるものとする。補正式における線形補間もしくは多項式近似は、照明250の照射状態により実測値により近似する補間方法を選択する。   The irradiation intensity distribution, that is, the luminance distribution is recorded in each combination, and the average luminance of the area divided by the broken line in FIG. 6 is acquired. It is desirable to arbitrarily set the area to be divided and to provide at least four areas. Here, as an example, it will be described as a nine-divided region (L11 to L33) shown in FIG. 6, and the luminance distribution is assumed to be a distribution that is strong from L11 to L13 and weakened from L31 to L33. The coefficient of the correction formula of the luminance distribution starting from L11, L12, L13 and L11, L21, L31 in the L11 to L13 direction and the L11 to L31 directions is calculated from the average luminance of each region. Here, it is assumed that the correction formula of the luminance distribution exists according to the number of divided areas, and the method of calculating the coefficient is based on linear correction or polynomial approximation. For the linear interpolation or polynomial approximation in the correction formula, an interpolation method that approximates the measured value according to the irradiation state of the illumination 250 is selected.

このステップS200のキャリブレーションにおいては、位置姿勢校正部700が照明制御部710とセンサ部位置姿勢制御部720を調整した後、ステップS106に戻り、画像データを複数回、取得する。すなわち、これらの画像データ取得部212と形状データ取得部214と照明250との相対的な位置と姿勢について、複数のパターンの組み合わせで補正式を作成し、照射距離と相対角度とを合わせて参照テーブルを生成し、記録装置500に記録する。   In the calibration in step S200, the position / orientation calibration unit 700 adjusts the illumination control unit 710 and the sensor unit position / orientation control unit 720, and then returns to step S106 to acquire image data a plurality of times. That is, for the relative positions and orientations of the image data acquisition unit 212, the shape data acquisition unit 214, and the illumination 250, a correction formula is created by combining a plurality of patterns, and the irradiation distance and the relative angle are referred to together. A table is generated and recorded in the recording device 500.

移動機構220によりセンサ部210を移動や回転させ、検査対象物100の表面計測する画像データ取得部212と形状データ取得部214を備えたセンサ部210による計測中のデータ取得の際に、撮影された画像を図6に示したように任意に設定した数の領域を区切り、輝度分布すなわち照明の照度強度分布を求める。この時、キャリブレーションした際の領域数と同じ設定とすることが望ましく、異なる場合は領域間の補正係数を事前に求め、記録装置500の参照テーブルに記録しておく。   The sensor unit 210 is moved or rotated by the moving mechanism 220 and is photographed when data is being measured by the sensor unit 210 including the image data acquisition unit 212 and the shape data acquisition unit 214 that measure the surface of the inspection object 100. As shown in FIG. 6, an arbitrarily set number of regions are segmented to obtain a luminance distribution, that is, an illumination intensity distribution. At this time, it is desirable to set the same number as the number of areas at the time of calibration. If they are different, a correction coefficient between the areas is obtained in advance and recorded in the reference table of the recording apparatus 500.

これらの処理により、現在の画像データ取得部212と形状データ取得部214と照明250の相対的な位置や姿勢が、記録装置500に記録された参照テーブルを参照することで、求められる。この時、輝度分布(照明の照射強度分布)に任意に設定する照明偏り判定閾値以上で偏りがあると推定される位置と姿勢であった場合、照明250が均一に照射されるように照明250を制御する。照明250が均一に照射された状態は、前述のキャリブレーション時の照明250に対して正対する位置に平板を置いた状態の補正式の参照データを基準とする。この時の輝度分布と一致もしくは任意に設定した輝度分布の近似閾値以下の範囲内に入る画像データ取得部212と形状データ取得部214と照明250の相対的な位置と姿勢を参照データから取得する。これにより、検査対象物100の表面の開口したき裂候補とそれ以外の領域の輝度の分布が、き裂候補を検出しやすい状態を作り出し、照明制御部710を演算処理装置400より通信制御する。そして、第1実施形態で説明したステップS108に移行する。   Through these processes, the relative positions and orientations of the current image data acquisition unit 212, shape data acquisition unit 214, and illumination 250 are obtained by referring to the reference table recorded in the recording apparatus 500. At this time, the illumination 250 is irradiated so that the illumination 250 is uniformly irradiated when the brightness distribution (irradiation intensity distribution of illumination) is at a position and orientation that are estimated to be biased at or above the illumination bias determination threshold value arbitrarily set. To control. The state in which the illumination 250 is uniformly irradiated is based on the reference data of the correction formula in a state where a flat plate is placed at a position facing the illumination 250 at the time of calibration described above. The relative positions and orientations of the image data acquisition unit 212, the shape data acquisition unit 214, and the illumination 250 that coincide with the luminance distribution at this time or fall within the range below the approximate threshold of the arbitrarily set luminance distribution are acquired from the reference data. . Thereby, the distribution of the brightness of the crack candidate opened on the surface of the inspection object 100 and the other area creates a state in which the crack candidate can be easily detected, and the illumination control unit 710 is communication-controlled by the arithmetic processing unit 400. . Then, the process proceeds to step S108 described in the first embodiment.

さらに、本実施形態にいては、ステップS114においても、画像補正判定部440が画像データの輝度に関する補正量データを算出するが、画像補正判定部440は、さらに、算出された補正量データに基づき、き裂候補領域とそれ以外の領域の輝度の比率が増加するようにセンサ部210の位置と姿勢を制御する。取得した補正量データから、画像データ取得部212により取得した現在の画像データのき裂候補の領域と、き裂候補以外の領域の比率を求め、より比率が増加する補正量データを取得する。この際、比率に対する任意に設定可能な閾値を設け、上限を設定し、補正量データを取得してもよい。これにより取得した補正量データに対応するセンサ部210の位置と姿勢を取得し、センサ部位置姿勢制御部720が演算処理装置400として通信制御を行う。そして、ステップS116に移行し、画像補正部450が、補正量データに基づいて、画像データの輝度分布を補正する。   Furthermore, in the present embodiment, also in step S114, the image correction determination unit 440 calculates correction amount data related to the brightness of the image data. The image correction determination unit 440 further calculates the correction amount data based on the calculated correction amount data. The position and orientation of the sensor unit 210 are controlled so that the luminance ratio between the crack candidate region and the other region is increased. From the acquired correction amount data, the ratio between the crack candidate region of the current image data acquired by the image data acquisition unit 212 and the region other than the crack candidate is obtained, and correction amount data whose ratio further increases is acquired. At this time, an arbitrarily set threshold for the ratio may be provided, an upper limit may be set, and the correction amount data may be acquired. Accordingly, the position and orientation of the sensor unit 210 corresponding to the acquired correction amount data are acquired, and the sensor unit position / orientation control unit 720 performs communication control as the arithmetic processing device 400. In step S116, the image correction unit 450 corrects the luminance distribution of the image data based on the correction amount data.

以上のように、本実施形態に係る検査装置1によっても、画像データに基づき、き裂を検出することで、短時間かつ検出率の良い検査装置1を実現することができる。また、検査対象物100の表面上のき裂を検出するために、輝度分布を補正し、計測中にセンサ部210や照明250の位置や姿勢を制御することとしたので、検査対象物100の画像データが不良にならず検査に必要なデータを効率的に取得することができる。   As described above, also by the inspection apparatus 1 according to the present embodiment, the inspection apparatus 1 can be realized in a short time and with a high detection rate by detecting a crack based on the image data. Further, in order to detect a crack on the surface of the inspection object 100, the luminance distribution is corrected, and the position and orientation of the sensor unit 210 and the illumination 250 are controlled during measurement. Data necessary for inspection can be efficiently acquired without causing image data to be defective.

(第3実施形態)
第3実施形態に係る検査装置1は、演算処理装置400が、算出された補正量データに基づいて、き裂を判別する特徴量のき裂判別閾値を変化させることで、き裂を検出する精度向上を図ったものである。以下、上述した第1実施形態と異なる部分を説明する。
(Third embodiment)
In the inspection device 1 according to the third embodiment, the arithmetic processing device 400 detects a crack by changing a crack determination threshold value of a feature amount for determining a crack based on the calculated correction amount data. The accuracy is improved. Hereinafter, a different part from 1st Embodiment mentioned above is demonstrated.

図7は、第3実施形態に係る検査装置1の構成を機能的に説明するためのブロック図であり、上述した第1実施形態における図1に対応する図である。   FIG. 7 is a block diagram for functionally explaining the configuration of the inspection apparatus 1 according to the third embodiment, and corresponds to FIG. 1 in the first embodiment described above.

この図7に示すように、本実施形態に係る演算処理装置400は、第1実施形態の演算処理装置400に対して、き裂判別閾値処理部800をさらに備えて構成されている。このき裂判別閾値処理部800は、画像補正判定部440で算出した補正量データに基づいて補正した画像データの輝度分布において、き裂を判別する特徴量のき裂判別閾値を変化させる機能を有している。   As shown in FIG. 7, the arithmetic processing device 400 according to the present embodiment is configured to further include a crack determination threshold value processing unit 800 with respect to the arithmetic processing device 400 of the first embodiment. The crack determination threshold value processing unit 800 has a function of changing a crack determination threshold value of a feature amount for determining a crack in the luminance distribution of image data corrected based on the correction amount data calculated by the image correction determination unit 440. Have.

図8は、本実施形態に係る検査装置1のき裂検査処理の流れを説明するフローチャートを示す図であり、上述した第1実施形態における図3に対応する図である。上述した第1実施形態と異なる部分を説明すると、ステップS116において画像データの輝度分布を補正した後、本実施形態においては、演算処理装置400におけるき裂判別閾値処理部800が、き裂を判別するための特徴量である輝度の閾値であるき裂判別閾値を輝度分布に基づいて動的に設定する(ステップS300)。   FIG. 8 is a diagram illustrating a flow chart for explaining the flow of the crack inspection process of the inspection apparatus 1 according to the present embodiment, and corresponds to FIG. 3 in the first embodiment described above. Explaining the difference from the first embodiment described above, after correcting the luminance distribution of the image data in step S116, in this embodiment, the crack discrimination threshold processing unit 800 in the arithmetic processing unit 400 discriminates the crack. A crack determination threshold value, which is a luminance threshold value, which is a feature amount to be set, is dynamically set based on the luminance distribution (step S300).

より具体的には、き裂判別閾値処理部800は、距離による輝度の補正量データや、検査対象物100とセンサ部210の傾きによる輝度の補正量データを用いて、図9に示す画像データの輝度分布に対するき裂判別閾値を可変にする制御を行う。図9の画像データの輝度分布に対して固定のき裂判別閾値であった場合には、き裂候補の領域とき裂候補以外を含む領域との双方を、き裂候補として判別してしまう可能性がある。そこで、き裂判別閾値処理部800は、輝度分布の補正量データに対応付けされるき裂判別閾値を設定し、実際に撮影した画像に対してき裂判別閾値を動的に設定する。   More specifically, the crack determination threshold value processing unit 800 uses the brightness correction amount data based on the distance and the brightness correction amount data based on the inclination of the inspection object 100 and the sensor unit 210 to display the image data shown in FIG. Control is performed to vary the crack discrimination threshold for the luminance distribution of the image. In the case of a fixed crack discrimination threshold for the luminance distribution of the image data in FIG. 9, it is possible to discriminate both crack candidate areas and areas including other than crack candidates as crack candidates. There is sex. Therefore, the crack determination threshold value processing unit 800 sets a crack determination threshold value associated with the luminance distribution correction amount data, and dynamically sets a crack determination threshold value for an actually captured image.

例えば、図9(a)に示すような画像データに対して、補正量データに基づき補正を行い、図9(b)に示すような補正後の画像データを取得する。この図9(b)の補正後の画像データから、図9(c)に示すような輝度分布を抽出し、き裂候補が含まれる領域とき裂候補が含まれない領域とにおける輝度の2つの山と1つの谷を抽出する。例えば、図9(a)及び図9(b)のように、画像中のき裂が開口していると、内部まで照明光が入りにくいため、暗い輝度分布を示すことが多い。一方、き裂候補を含まない領域は表面に照明250からの照射光が照射されているため、明るい輝度分布を示すことが多い。このような場合に、輝度値0に最も近い山が、き裂候補を含む領域と判別することができ、輝度値255に最も近い山がき裂候補を含まない領域と判別することができる。   For example, the image data as shown in FIG. 9A is corrected based on the correction amount data, and the corrected image data as shown in FIG. 9B is acquired. A luminance distribution as shown in FIG. 9C is extracted from the corrected image data in FIG. 9B, and the two luminance values in the region including the crack candidate and the region not including the crack candidate are extracted. Extract a mountain and a valley. For example, as shown in FIGS. 9A and 9B, when a crack in the image is open, illumination light is difficult to enter to the inside, and thus a dark luminance distribution is often exhibited. On the other hand, the region that does not include the crack candidate is often illuminated with light from the illumination 250 on the surface, and thus often exhibits a bright luminance distribution. In such a case, the mountain closest to the luminance value 0 can be determined as the region including the crack candidate, and the mountain closest to the luminance value 255 can be determined as the region not including the crack candidate.

ここで、輝度分布に単峰性の1つの山のみであるか双峰性の2つ以上の山であるかを判別する。この判別には、山のピークを画素数の頻度数から検出する。任意に設定した頻度数以上でなければ、山のピークは存在しないものとする。   Here, it is determined whether the luminance distribution is only a single peak or two or more peaks. In this determination, the peak of the mountain is detected from the frequency number of the number of pixels. It is assumed that there is no peak in the mountain unless the frequency is arbitrarily set.

ここで、山が1つであり、かつピークの輝度値が255に近い(例えば、最大輝度値255の20%以内)場合には、き裂候補が画像データ中に存在しないとして、ピークから最も輝度が低く、且つ、頻度が所定の頻度数以下になる輝度値を、き裂判別閾値とする。山が1つであり、かつピークの輝度値が0に近い(例えば、最小輝度値0の20%以内)場合には、き裂候補が画像データ中に存在するとして、ピークから最も輝度が高く、且つ、頻度が所定の頻度数以下になる輝度値をき裂判別閾値とする。   Here, when there is one peak and the peak luminance value is close to 255 (for example, within 20% of the maximum luminance value 255), it is assumed that no crack candidate is present in the image data, and the peak is the highest. A luminance value having a low luminance and a frequency equal to or lower than a predetermined frequency number is set as a crack determination threshold value. When there is only one mountain and the peak luminance value is close to 0 (for example, within 20% of the minimum luminance value 0), the highest luminance from the peak is assumed that a crack candidate exists in the image data. In addition, a luminance value whose frequency is equal to or less than a predetermined frequency number is set as a crack determination threshold value.

き裂候補の領域とき裂候補以外の領域とが存在する場合、通常は2つ以上の山が存在し、双峰性であると判別される。この場合、上述の方法により山のピークを検出し、双方の山のピークの輝度値間に谷が存在することになるため、画素値の頻度数が最も少なくなる輝度値を検出する。これにより、き裂候補とき裂候補以外の領域の境界となる部分にき裂判別閾値が可変的に設定可能になる。   When there are a crack candidate region and a region other than the crack candidate, usually two or more mountains exist, and it is determined that the region is bimodal. In this case, the peak of the peak is detected by the above-described method, and a valley exists between the luminance values of the peaks of both peaks. Therefore, the luminance value with the smallest frequency of pixel values is detected. This makes it possible to variably set a crack discrimination threshold at a portion that is a boundary between regions other than a crack candidate and a crack candidate.

図9(c)の輝度分布を例に取ると、図9(d)に示すように、上述した第1実施形態及び第2実施形態では、き裂判別閾値は固定値であるが、図9(e)に示すように、第3実施形態では、き裂判別閾値が小さい輝度値の方向へ移動する。このため、ノイズ等の影響を排除し、適切な輝度のき裂判別閾値を設定することができるようになる。   Taking the luminance distribution of FIG. 9C as an example, as shown in FIG. 9D, in the first and second embodiments described above, the crack determination threshold is a fixed value. As shown to (e), in 3rd Embodiment, it moves to the direction of a luminance value with a small crack discrimination threshold value. For this reason, it becomes possible to eliminate the influence of noise or the like and set a crack determination threshold value with appropriate luminance.

そして、センサ部210の画像データ取得部212により撮影した画像データに対して、画像補正判定部440により算出された補正量データと対応付けられたき裂判別閾値を用いて、画像データ取得部212で撮影した画像データに対して、可変的なき裂判別閾値を設定することが可能になり、このき裂判別閾値を用いて、画像データき裂検出部460は、画像データのき裂を検出することができるようになる。このステップS300の後、画像データき裂検出部460は、設定されたき裂判別閾値を用いて、ステップS118において、画像データに基づいてき裂候補の検出を行う。   Then, the image data acquisition unit 212 uses the crack determination threshold associated with the correction amount data calculated by the image correction determination unit 440 for the image data captured by the image data acquisition unit 212 of the sensor unit 210. It becomes possible to set a variable crack discrimination threshold for the captured image data, and the image data crack detection unit 460 uses this crack discrimination threshold to detect a crack in the image data. Will be able to. After step S300, the image data crack detection unit 460 uses the set crack determination threshold value to detect a crack candidate based on the image data in step S118.

以上のように、本実施形態に係る検査装置1によれば、演算処理装置400にき裂判別閾値処理部800を追加的に設けたので、画像補正判定部440による補正量データと、可変的なき裂判別閾値を設定可能なき裂判別閾値処理部800とにより、検査対象物100の画像データが不良にならず、精度良く、検査対象物100の表面上のき裂を検出することができるようになる。   As described above, according to the inspection apparatus 1 according to the present embodiment, since the crack determination threshold value processing unit 800 is additionally provided in the arithmetic processing device 400, the correction amount data by the image correction determination unit 440 and the variable amount are variable. The crack determination threshold value processing unit 800 capable of setting a crack determination threshold value can detect the crack on the surface of the inspection object 100 with high accuracy without causing the image data of the inspection object 100 to be defective. become.

なお、本実施形態は、第2実施形態に適用することも可能である。すなわち、図10に示すように、第2実施形態に係る検査装置1の演算処理装置400に、き裂判別閾値処理部800をさらに設けることにより、画像データを取得する際にセンサ部210や照明250の位置や姿勢を制御しつつ、取得した画像データに対するき裂判別閾値を変更可能にし、精度良く、検査対象物100の表面上のき裂を検出するようにしてもよい。   Note that this embodiment can also be applied to the second embodiment. That is, as shown in FIG. 10, by providing a crack determination threshold value processing unit 800 in the arithmetic processing unit 400 of the inspection apparatus 1 according to the second embodiment, when acquiring image data, the sensor unit 210 and the illumination unit While controlling the position and orientation of 250, the crack discrimination threshold for the acquired image data may be changed, and a crack on the surface of the inspection object 100 may be detected with high accuracy.

以上、いくつかの実施形態を説明したが、これらの実施形態は、例としてのみ提示したものであり、発明の範囲を限定することを意図したものではない。本明細書で説明した新規な装置および方法は、その他の様々な形態で実施することができる。また、本明細書で説明した装置および方法の形態に対し、発明の要旨を逸脱しない範囲内で、種々の省略、置換、変更を行うことができる。添付の特許請求の範囲およびこれに均等な範囲は、発明の範囲や要旨に含まれるこのような形態や変形例を含むように意図されている。   Although several embodiments have been described above, these embodiments are presented as examples only and are not intended to limit the scope of the invention. The novel apparatus and methods described herein can be implemented in a variety of other forms. In addition, various omissions, substitutions, and changes can be made to the forms of the apparatus and method described in the present specification without departing from the spirit of the invention. The appended claims and their equivalents are intended to include such forms and modifications as fall within the scope and spirit of the invention.

1:検査装置、100:検査対象物、200:スキャン装置、210:センサ部、212:画像データ取得部、214:形状データ取得部、220:移動機構、250:照明、300:制御装置、400:演算処理装置、500:記録装置、600:検出結果出力装置 DESCRIPTION OF SYMBOLS 1: Inspection apparatus, 100: Inspection object, 200: Scan apparatus, 210: Sensor part, 212: Image data acquisition part, 214: Shape data acquisition part, 220: Movement mechanism, 250: Illumination, 300: Control apparatus, 400 : Arithmetic processing device, 500: recording device, 600: detection result output device

Claims (11)

検査対象物の表面から画像データと形状データとを取得する、センサ部と、
前記センサ部を前記検査対象物の周囲で移動させ、回転させる、移動機構と、
前記センサ部と前記移動機構とを制御する、制御部と、
を備える検査装置本体部の制御を行う検査装置用制御装置であって、
前記形状データから、き裂候補を検出するとともに、前記形状データに基づいて前記画像データを補正し、この補正した前記画像データから、き裂候補を検出し、前記形状データから検出されたき裂候補と、前記画像データから検出されたき裂候補を統合して、検査結果として出力する、き裂候補演算処理装置と、
前記き裂候補演算処理装置から出力された前記検査結果をユーザに出力する、検出結果出力装置と、
を備えることを特徴とする検査装置用制御装置。
A sensor unit for acquiring image data and shape data from the surface of the inspection object;
A moving mechanism that moves and rotates the sensor unit around the inspection object;
A control unit for controlling the sensor unit and the moving mechanism;
A control device for an inspection apparatus that controls an inspection apparatus main body, comprising:
A crack candidate is detected from the shape data, the image data is corrected based on the shape data, a crack candidate is detected from the corrected image data, and a crack candidate detected from the shape data is detected. A crack candidate calculation processing device that integrates the crack candidates detected from the image data and outputs the result as an inspection result;
A detection result output device for outputting the inspection result output from the crack candidate calculation processing device to a user;
A control apparatus for an inspection apparatus, comprising:
前記き裂候補演算処理装置は、画像補正判定部を備えており、
前記画像補正判定部は、前記形状データから検出されたき裂候補と同一計測領域内の画像データの輝度と、それ以外の領域の輝度との比を、増加させる補正量データを算出することを特徴とする、請求項1に記載の検査装置用制御装置。
The crack candidate calculation processing device includes an image correction determination unit,
The image correction determination unit calculates correction amount data for increasing a ratio between the luminance of the image data in the same measurement region as the crack candidate detected from the shape data and the luminance of the other region. The control device for an inspection apparatus according to claim 1.
前記き裂候補演算処理装置は、前記形状データより、面情報を算出して面を識別する面識別部を備えており、
前記画像補正判定部は、前記形状データに基づくき裂候補が存在しない場合、前記面識別部で同一面と認識され、かつ最も距離が近い輝度の補正量データを、前記き裂候補が存在しない領域の補正量データとして用いることを特徴とする、請求項2に記載の検査装置用制御装置。
The crack candidate calculation processing device includes a surface identification unit that calculates surface information and identifies a surface from the shape data,
When there is no crack candidate based on the shape data, the image correction determination unit recognizes the correction amount data of the brightness that is recognized as the same surface by the surface identification unit and has the closest distance, and the crack candidate does not exist. The inspection apparatus control apparatus according to claim 2, wherein the inspection apparatus control apparatus is used as area correction amount data.
前記画像補正判定部は、前記形状データに基づいて、前記検査対象物とセンサ部との間の距離を算出し、算出された距離に応じて、前記画像データの輝度の補正量データを算出する、ことを特徴とする請求項3に記載の検査装置用制御装置。   The image correction determination unit calculates a distance between the inspection object and the sensor unit based on the shape data, and calculates luminance correction amount data of the image data according to the calculated distance. The control apparatus for an inspection apparatus according to claim 3. 前記画像補正判定部は、前記形状データに基づいて、前記検査対象物とセンサ部の傾きを算出し、算出された傾きに応じて、前記画像データの輝度の補正量データを算出する、ことを特徴とする請求項3に記載の検査装置用制御装置。   The image correction determination unit calculates the inclination of the inspection object and the sensor unit based on the shape data, and calculates the luminance correction amount data of the image data according to the calculated inclination. The control device for an inspection device according to claim 3, wherein the control device is an inspection device. 前記検査装置本体部は、前記検査対象物に光を照射する照明をさらに備えており、
前記き裂候補演算処理装置は、
前記センサ部と前記照明との相対的な位置と姿勢を取得し、キャリブレーションを行う位置姿勢校正部と、
前記照明を制御して、画像データの輝度の分布を調整する照明制御部と、
をさらに備えることを特徴とする請求項4又は請求項5に記載の検査装置用制御装置。
The inspection apparatus main body further includes illumination for irradiating the inspection object with light,
The crack candidate calculation processing device comprises:
A position and orientation calibration unit that acquires a relative position and orientation of the sensor unit and the illumination and performs calibration;
An illumination control unit that controls the illumination to adjust the distribution of luminance of the image data;
The inspection apparatus control device according to claim 4, further comprising:
前記き裂候補演算処理装置は、
前記画像補正判定部により算出された前記補正量データに基づいて、き裂領域の輝度とそれ以外領域の輝度との比を増加させる前記センサ部の位置と姿勢を算出し、この算出結果に基づいて前記センサ部の制御を行う、センサ部位置姿勢制御部を、
さらに備えることを特徴とする請求項4又は請求項5に記載の検査装置用制御装置。
The crack candidate calculation processing device comprises:
Based on the correction amount data calculated by the image correction determination unit, the position and orientation of the sensor unit that increases the ratio between the luminance of the crack region and the luminance of the other region are calculated, and based on the calculation result The sensor unit position and orientation control unit for controlling the sensor unit
The inspection apparatus control device according to claim 4, further comprising:
前記き裂候補演算処理装置は、
前記画像補正判定部で算出した補正量データに基づいて、き裂を判別する特徴量のき裂判別閾値を変化させるき裂判別閾値処理部を、
さらに備えることを特徴とする、請求項4乃至請求項7のいずれかに記載の検査装置用制御装置。
The crack candidate calculation processing device comprises:
Based on the correction amount data calculated by the image correction determination unit, a crack determination threshold value processing unit that changes a crack determination threshold value of a feature amount for determining a crack,
The inspection apparatus control device according to claim 4, further comprising:
検査対象物の表面から画像データと形状データとを取得する、センサ部と、
前記センサ部を前記検査対象物の周囲で移動させ、回転させる、移動機構と、
前記センサ部と前記移動機構とを制御する、制御部と、
前記形状データから、き裂候補を検出するとともに、前記形状データに基づいて前記画像データを補正し、この補正した前記画像データから、き裂候補を検出し、前記形状データから検出されたき裂候補と、前記画像データから検出されたき裂候補を統合して、検査結果として出力する、き裂候補演算処理装置と、
前記き裂候補演算処理装置から出力された前記検査結果をユーザに出力する、検出結果出力装置と、
を備えることを特徴とする検査装置。
A sensor unit for acquiring image data and shape data from the surface of the inspection object;
A moving mechanism that moves and rotates the sensor unit around the inspection object;
A control unit for controlling the sensor unit and the moving mechanism;
A crack candidate is detected from the shape data, the image data is corrected based on the shape data, a crack candidate is detected from the corrected image data, and a crack candidate detected from the shape data is detected. And a crack candidate calculation processing device that integrates the crack candidates detected from the image data and outputs them as inspection results;
A detection result output device for outputting the inspection result output from the crack candidate calculation processing device to a user;
An inspection apparatus comprising:
検査対象物の表面から画像データと形状データとを取得する、センサ部と、
前記センサ部を前記検査対象物の周囲で移動させ、回転させる、移動機構と、
前記センサ部と前記移動機構とを制御する、制御部と、
を備える検査装置本体部の制御を行う検査装置制御方法であって、
前記制御部を介して、前記移動機構とセンサ部を制御して、前記検査対象物の表面の前記画像データと前記形状データとを取得するステップと、
前記形状データから、き裂候補を検出するとともに、前記形状データに基づいて前記画像データを補正し、この補正した前記画像データから、き裂候補を検出し、前記形状データから検出されたき裂候補と、前記画像データから検出されたき裂候補を統合して、検査結果として出力するステップと、
前記出力された前記検査結果をユーザに出力するステップと、
を備えることを特徴とする検査装置制御方法。
A sensor unit for acquiring image data and shape data from the surface of the inspection object;
A moving mechanism that moves and rotates the sensor unit around the inspection object;
A control unit for controlling the sensor unit and the moving mechanism;
An inspection apparatus control method for controlling an inspection apparatus main body comprising:
Via the control unit, controlling the moving mechanism and the sensor unit, obtaining the image data and the shape data of the surface of the inspection object;
A crack candidate is detected from the shape data, the image data is corrected based on the shape data, a crack candidate is detected from the corrected image data, and a crack candidate detected from the shape data is detected. And integrating the crack candidates detected from the image data and outputting as inspection results;
Outputting the output inspection result to a user;
An inspection apparatus control method comprising:
検査対象物の表面から画像データと形状データとを取得する、センサ部と、
前記センサ部を前記検査対象物の周囲で移動させ、回転させる、移動機構と、
前記センサ部と前記移動機構とを制御する、制御部と、
を備える検査装置本体部の制御を行うコンピュータに読み込まれて実行されるプログラムであって、当該プログラムは、前記コンピュータに、
前記制御部を介して、前記移動機構とセンサ部を制御して、前記検査対象物の表面の前記画像データと前記形状データとを取得するステップと、
前記形状データから、き裂候補を検出するとともに、前記形状データに基づいて前記画像データを補正し、この補正した前記画像データから、き裂候補を検出し、前記形状データから検出されたき裂候補と、前記画像データから検出されたき裂候補を統合して、検査結果として出力するステップと、
前記出力された前記検査結果をユーザに出力するステップと、
を実行させることを特徴とするプログラム。
A sensor unit for acquiring image data and shape data from the surface of the inspection object;
A moving mechanism that moves and rotates the sensor unit around the inspection object;
A control unit for controlling the sensor unit and the moving mechanism;
A program that is read and executed by a computer that controls the inspection apparatus main body, and the program is stored in the computer,
Via the control unit, controlling the moving mechanism and the sensor unit, obtaining the image data and the shape data of the surface of the inspection object;
A crack candidate is detected from the shape data, the image data is corrected based on the shape data, a crack candidate is detected from the corrected image data, and a crack candidate detected from the shape data is detected. And integrating the crack candidates detected from the image data and outputting as inspection results;
Outputting the output inspection result to a user;
A program characterized by having executed.
JP2017042058A 2017-03-06 2017-03-06 Controller for inspection device, inspection device, method for controlling inspection device, and program Pending JP2018146401A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017042058A JP2018146401A (en) 2017-03-06 2017-03-06 Controller for inspection device, inspection device, method for controlling inspection device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017042058A JP2018146401A (en) 2017-03-06 2017-03-06 Controller for inspection device, inspection device, method for controlling inspection device, and program

Publications (1)

Publication Number Publication Date
JP2018146401A true JP2018146401A (en) 2018-09-20

Family

ID=63591102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017042058A Pending JP2018146401A (en) 2017-03-06 2017-03-06 Controller for inspection device, inspection device, method for controlling inspection device, and program

Country Status (1)

Country Link
JP (1) JP2018146401A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022529924A (en) * 2019-04-15 2022-06-27 イリノイ トゥール ワークス インコーポレイティド A system that visually scans articles during non-destructive (NDT) inspection

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022529924A (en) * 2019-04-15 2022-06-27 イリノイ トゥール ワークス インコーポレイティド A system that visually scans articles during non-destructive (NDT) inspection

Similar Documents

Publication Publication Date Title
RU2518288C2 (en) Method of nondestructive control of mechanical part
ES2936507T3 (en) Method and device for detecting defective points
JP5217221B2 (en) Method for detecting surface defect shape of welded portion and computer program
JP5175528B2 (en) Tunnel lining crack inspection system
JP5418176B2 (en) Pantograph height measuring device and calibration method thereof
WO2013061976A1 (en) Shape inspection method and device
CN104508423A (en) Method and device for inspecting surfaces of an examined object
JP5342413B2 (en) Image processing method
JP6756417B1 (en) Work surface defect detection device and detection method, work surface inspection system and program
JP5913903B2 (en) Shape inspection method and apparatus
JP2006010392A (en) Through hole measuring system, method, and through hole measuring program
KR101889833B1 (en) Pattern-measuring device and computer program
JP2021056183A (en) Apparatus and method for detecting surface defect of workpiece, surface inspection system for workpiece, and program
WO2021075170A1 (en) Inspection system and non-transitory computer-readable medium
JP2005283267A (en) Through hole measuring device, method, and program for through hole measurement
JP2018146401A (en) Controller for inspection device, inspection device, method for controlling inspection device, and program
JP5379571B2 (en) Pattern inspection apparatus and pattern inspection method
JP5895733B2 (en) Surface defect inspection apparatus and surface defect inspection method
US10317203B2 (en) Dimension measuring apparatus and computer readable medium
JP2011033428A (en) Pantograph height measuring device
JP6796348B1 (en) Shape inspection device and shape inspection method
JP6577243B2 (en) Surface defect evaluation apparatus, surface defect inspection system, and surface defect inspection method
US7117047B1 (en) High accuracy inspection system and method for using same
CN114543697A (en) Measuring apparatus, control apparatus, and control method
JP5391172B2 (en) Foreign object inspection apparatus and alignment adjustment method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20171108

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20171109