JP2021072048A - Image processing system and image processing method - Google Patents
Image processing system and image processing method Download PDFInfo
- Publication number
- JP2021072048A JP2021072048A JP2019200026A JP2019200026A JP2021072048A JP 2021072048 A JP2021072048 A JP 2021072048A JP 2019200026 A JP2019200026 A JP 2019200026A JP 2019200026 A JP2019200026 A JP 2019200026A JP 2021072048 A JP2021072048 A JP 2021072048A
- Authority
- JP
- Japan
- Prior art keywords
- development
- image
- vector
- cross
- defect
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 73
- 238000003672 processing method Methods 0.000 title claims description 8
- 238000011161 development Methods 0.000 claims abstract description 140
- 230000007547 defect Effects 0.000 claims abstract description 82
- 239000013598 vector Substances 0.000 claims abstract description 71
- 238000000034 method Methods 0.000 claims abstract description 39
- 238000000605 extraction Methods 0.000 claims abstract description 29
- 239000000284 extract Substances 0.000 claims abstract description 16
- 230000008569 process Effects 0.000 claims description 25
- 238000002604 ultrasonography Methods 0.000 abstract 1
- 230000018109 developmental process Effects 0.000 description 125
- 239000000523 sample Substances 0.000 description 45
- 238000007689 inspection Methods 0.000 description 23
- 238000013528 artificial neural network Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000011176 pooling Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000000946 synaptic effect Effects 0.000 description 2
- 238000003466 welding Methods 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態は、画像処理システムおよび画像処理方法に関する。 Embodiments of the present invention relate to image processing systems and image processing methods.
従来、超音波検査技術は、構造物の検査を行う手段として広く使われている。超音波検査によって得られる断面画像から欠陥があるかないかを判定するのは検査員であり、専門知識と経験に基づいて判定を行っている。そのため検査員の技量によって判定結果にばらつきが生じる場合がある。そこで、超音波検査から信号処理またはAIなどを用いて自動判定する技術が知られている。例えば、超音波の反射に基づいて画像中に出現する出現像(エコー像)の画素移動を追跡し、連続する前後の画像に連続して出現する出現像を欠陥候補として自動判定する技術が知られている。しかし、この技術では被検査対象の形状による出現像も連続的に出現する可能性があり、これら出現像も欠陥候補として判定される可能性がある。また、層状の被検査対象で得られた超音波画像において、特定の出現像を削除して残った出現像の位置から領域を分割し、層の境界または関心領域を自動で抽出する技術が知られている。この技術を用いることで検査工程の効率化が見込まれるが、欠陥の有無の判定のばらつき改善にはつながらない。 Conventionally, ultrasonic inspection technology has been widely used as a means for inspecting structures. It is the inspector who judges whether or not there is a defect from the cross-sectional image obtained by the ultrasonic inspection, and makes the judgment based on his expertise and experience. Therefore, the judgment result may vary depending on the skill of the inspector. Therefore, there is known a technique for automatically determining from ultrasonic inspection using signal processing or AI. For example, there is a technology that tracks the pixel movement of the output development (echo image) that appears in the image based on the reflection of ultrasonic waves, and automatically determines the output development that appears continuously in the images before and after the continuation as a defect candidate. Has been done. However, with this technique, there is a possibility that development due to the shape of the object to be inspected may appear continuously, and these developments may also be determined as defect candidates. In addition, in an ultrasonic image obtained from a layered object to be inspected, a technique is known in which a specific output development is deleted, an area is divided from the position of the remaining output development, and a layer boundary or an area of interest is automatically extracted. Has been done. Although the efficiency of the inspection process is expected to be improved by using this technique, it does not lead to the improvement of the variation in the determination of the presence or absence of defects.
溶接部の超音波検査の場合には、欠陥以外にも検査対象の形状、溶接部の組織、内在物などの多様な原因に基づいて出現像が画像中に現れる。超音波の当たり方次第では、複数の出現像の強度または形状が類似した様相となったり、それぞれの出現像が重畳したりする。そのため、欠陥の有無の判定の基準となる特徴量に差が得られず誤った判定をしてしまうおそれがある。 In the case of ultrasonic inspection of a welded portion, development occurs in the image based on various causes such as the shape of the inspection target, the structure of the welded portion, and internal objects in addition to the defect. Depending on how the ultrasonic waves are applied, the intensities or shapes of the plurality of output developments may be similar, or the output developments may be superimposed on each other. Therefore, there is a possibility that an erroneous judgment may be made because a difference cannot be obtained in the feature amount that is a reference for determining the presence or absence of a defect.
本発明の実施形態は、このような事情を考慮してなされたもので、超音波検査の画像に基づいて欠陥の有無を判定する精度を向上させることができる画像処理技術を提供することを目的とする。 An embodiment of the present invention has been made in consideration of such circumstances, and an object of the present invention is to provide an image processing technique capable of improving the accuracy of determining the presence or absence of a defect based on an image of an ultrasonic inspection. And.
本発明の実施形態に係る画像処理システムは、検査の対象となる対象物に超音波を送信して前記超音波の反射に基づいて画像を取得する画像取得部と、前記対象物が有する状態に応じて前記画像に出現する出現像を抽出する出現像抽出部と、前記出現像の長軸方向の端二点を始点と終点とするベクトルを抽出するベクトル抽出部と、前記ベクトルに基づいて、前記出現像が出現した原因を判定可能な処理を行う判定処理部と、を備える。 The image processing system according to the embodiment of the present invention has an image acquisition unit that transmits ultrasonic waves to an object to be inspected and acquires an image based on the reflection of the ultrasonic waves, and a state that the object has. Based on the vector, the output development extraction unit that extracts the output development appearing in the image, the vector extraction unit that extracts the vector having the two end points in the long axis direction of the output development as the start point and the end point, and the vector. It is provided with a determination processing unit that performs processing capable of determining the cause of the appearance of development.
本発明の実施形態により、超音波検査の画像に基づいて欠陥の有無を判定する精度を向上させることができる画像処理技術が提供される。 An embodiment of the present invention provides an image processing technique capable of improving the accuracy of determining the presence or absence of a defect based on an image of an ultrasonic inspection.
以下、図面を参照しながら、画像処理システムおよび画像処理方法の実施形態について詳細に説明する。なお、断面図では、理解を助けるためにハッチングを省略している。 Hereinafter, embodiments of the image processing system and the image processing method will be described in detail with reference to the drawings. In the cross-sectional view, hatching is omitted to aid understanding.
図1の符号1は、本実施形態の画像処理システムである。この画像処理システム1は、検査の対象となる対象物Qに超音波を送信し、その超音波の反射に基づいて対象物Qの内部を非破壊で検査するために用いられる。例えば、超音波の反射に基づいて対象物Qの断面画像G(図18)を生成し、この断面画像Gにより対象物Qの内部に欠陥があるか否かを判定する。なお、欠陥の有無の判定は、画像処理システム1の自動的な処理で行っても良いし、画像処理システム1が表示する断面画像Gを視認するユーザーの人手で行っても良い。
画像処理システム1は、フェーズドアレイプローブ2と検査用コンピュータ3とを備える。フェーズドアレイプローブ2は、検査用コンピュータ3に接続されている。本実施形態では、フェーズドアレイプローブ2を用いて電子的に走査する。なお、単一プローブを用いて機械的に走査しても良い。
The
このフェーズドアレイプローブ2は、複数の探触子4を備える。なお、探触子4とは、超音波を送信または受信する振動子を組み込んだセンサーのことである。本実施形態では、複数の探触子4が一列に並んだフェーズドアレイプローブ2を例示する。なお、複数の探触子4が平面的に並んだフェーズドアレイプローブ2を用いても良い。
The
対象物Qの表面にフェーズドアレイプローブ2を接触させた状態で超音波Uを送信するとともに、超音波Uの反射波をフェーズドアレイプローブ2で取得する。
The ultrasonic wave U is transmitted in a state where the
図3に示すように、対象物Qの欠陥D1には、対象物Qの内部または表面に生じた空洞、亀裂または疵が含まれる。図4に示すように、超音波検査では、対象物Qの断面画像Gに欠陥D1と疑われる出現像E1(エコー)が出現する。つまり、出現像E1は、対象物Qが有する状態に応じて断面画像Gに出現する。 As shown in FIG. 3, the defect D1 of the object Q includes cavities, cracks or flaws formed inside or on the surface of the object Q. As shown in FIG. 4, in the ultrasonic inspection, the development E1 (echo) suspected to be the defect D1 appears in the cross-sectional image G of the object Q. That is, the development E1 appears in the cross-sectional image G according to the state of the object Q.
次に、画像処理システム1のシステム構成を図2に示すブロック図を参照して説明する。
Next, the system configuration of the
検査用コンピュータ3は、ディスプレイ5と入力操作部6と記憶部7と通信部8とメイン制御部9とを備える。
The
ディスプレイ5は、フェーズドアレイプローブ2を用いて取得した断面画像Gを表示する。また、ディスプレイ5は、欠陥Dの有無の判定結果を表示する。さらに、その他の情報をディスプレイ5に表示させても良い。つまり、本実施形態の画像処理システム1には、画像の出力を行うディスプレイなどの表示装置が含まれる。
The
入力操作部6は、検査用コンピュータ3を使用するユーザーにより操作される。この入力操作部6には、マウスまたはキーボードなどの入力装置が含まれる。つまり、これら入力装置の操作に応じて所定の情報が検査用コンピュータ3に入力される。
The
記憶部7は、フェーズドアレイプローブ2を用いて取得した断面画像Gを記憶する。また、記憶部7は、欠陥Dの有無の判定結果を記憶する。さらに、その他の情報を記憶部7に記憶させても良い。
The
通信部8は、通信回線を介して他のコンピュータとの通信を行う。なお、通信部8は、WAN(Wide Area Network)、インターネット回線、または携帯通信網を介して他のコンピュータと通信を行っても良い。その他にも、LANケーブルまたはUSBケーブルにより他のコンピュータと接続して通信を行っても良い。なお、画像処理システム1は、1台の検査用コンピュータ3を用いて構成しても良いし、通信回線で互いに接続された複数台の検査用コンピュータ3を用いて構成しても良い。
The communication unit 8 communicates with another computer via a communication line. The communication unit 8 may communicate with another computer via a WAN (Wide Area Network), an Internet line, or a mobile communication network. In addition, a LAN cable or a USB cable may be used to connect to another computer for communication. The
メイン制御部9は、画像処理システム1を統括的に制御する。このメイン制御部9は、画像取得部10と出現像抽出部11とベクトル抽出部12と判定処理部13とを備える。これらは、メモリまたはHDDに記憶されたプログラムがCPUによって実行されることで実現される。
The
画像取得部10は、フェーズドアレイプローブ2により取得した情報に基づいて、対象物Qの断面画像Gを生成する。つまり、フェーズドアレイプローブ2が検査の対象となる対象物Qに超音波Uを送信し、この超音波Uの反射に基づいて画像取得部10が断面画像Gを取得する。
The
出現像抽出部11は、後述するように、対象物Qが有する状態に応じて断面画像Gに出現する出現像E(図18)を抽出する。なお、出現像Eには、欠陥Dに起因するもの、またはノイズに起因するものがある。本実施形態の画像処理システム1では、欠陥Dに起因するものとノイズに起因するものとを識別することができる。
As will be described later, the output
ベクトル抽出部12は、後述するように、出現像Eの長軸方向の端二点を始点T1と終点T2とするベクトルVを抽出(算出)する(図13から図16)。
As will be described later, the
判定処理部13は、後述するように、ベクトルVに基づいて、出現像Eが出現した原因を判定可能な処理を行う。この判定処理部13は、欠陥判定部14とノイズ判定部15と比較処理部16と自動判定部17と表示制御部18とを備える。
As will be described later, the
欠陥判定部14は、後述するように、超音波Uの入射方向NとベクトルVの向きとを比較し、出現像Eが出現した原因が欠陥であるか否かを判定する。このようにすれば、ベクトルVの向きに基づいて、出現像Eが出現した原因が欠陥であるか否かを判定できる。
As will be described later, the
ノイズ判定部15は、後述するように、超音波Uの入射方向NとベクトルVの向きとを比較し、出現像Eが出現した原因がノイズであるか否かを判定する。このようにすれば、ベクトルVの向きに基づいて、出現像Eが出現した原因がノイズであるか否かを判定できる。
As will be described later, the
比較処理部16は、後述するように、位置的または時間的に連続する複数の断面画像Gのうち隣接する少なくとも2つの断面画像Gを比較可能な処理を行う。このようにすれば、複数の断面画像Gに基づいて欠陥Dの有無を判定するため、判定精度を向上させることができる。
As will be described later, the
自動判定部17は、後述するように、出現像Eが出現した原因を判定する処理を行う。このようにすれば、画像処理システム1が自動的に出現像Eの原因を判定することができる。
As will be described later, the
表示制御部18は、断面画像Gをディスプレイ5に表示させる処理を行う。また、ディスプレイ5に欠陥Dの有無の判定結果を表示させる制御を行う。さらに、その他の情報をディスプレイ5に表示させる制御を行っても良い。
The
この表示制御部18では、例えば、ディスプレイ5に表示される出現像EにベクトルVを重ねて表示する処理を行う。これによりユーザーが出現像Eが欠陥に起因するものかノイズに起因するものかを判定し易くなる。このようにすれば、人手により出現像Eの原因を判定することができる。
The
つまり、表示制御部18は、ディスプレイ5に表示される画像の制御を行う。なお、ディスプレイ5は、検査用コンピュータ3の本体と別体であっても良いし、一体であっても良い。さらに、ネットワークを介して接続される他のコンピュータが備えるディスプレイに表示される画像の制御を表示制御部18が行っても良い。
That is, the
本実施形態の「出現像Eが出現した原因を判定可能な処理」には、表示制御部18により断面画像Gをディスプレイ5に表示する処理が含まれる。このディスプレイ5に表示された断面画像Gに基づいて、ユーザーの人手により出現像Eの出現原因を判定することができる。ユーザーは、自身が行った判定の結果を、入力操作部6を用いて入力することができる。
The "process capable of determining the cause of the appearance of the development E" of the present embodiment includes a process of displaying the cross-sectional image G on the
また、「位置的または時間的に連続する複数の断面画像Gのうち隣接する少なくとも2つの断面画像Gを比較可能な処理」には、表示制御部18により複数の断面画像Gを比較可能な態様でディスプレイ5に表示する処理が含まれる。このディスプレイ5に表示された断面画像Gに基づいて、ユーザーの人手により断面画像Gを比較することができる。
Further, in the "process in which at least two adjacent cross-sectional images G among a plurality of cross-sectional images G that are continuous in position or time can be compared", the
なお、本実施形態では、表示装置としてディスプレイ5を例示するが、その他の態様であっても良い。例えば、紙媒体に情報を印字するプリンタをディスプレイ5の替りとして用いても良い。つまり、表示制御部18が制御する対象として、プリンタが含まれても良い。
In this embodiment, the
本実施形態の検査用コンピュータ3は、CPU、ROM、RAM、HDDなどのハードウェア資源を有し、CPUが各種プログラムを実行することで、ソフトウェアによる情報処理がハードウェア資源を用いて実現されるコンピュータで構成される。さらに、本実施形態の画像処理方法は、各種プログラムをコンピュータに実行させることで実現される。
The
次に、本実施形態の画像処理システム1を用いて実施される画像処理方法を図3から図23を参照して詳細に説明する。
Next, the image processing method implemented using the
図3に示すように、フェーズドアレイプローブ2では、複数の探触子4から同時に超音波Uを送信すると(同時励振)、対象物Qの表面から垂直方向に超音波Uが伝搬される。なお、フェーズドアレイプローブ2は、複数の探触子4から超音波Uを送信するタイミング(遅延時間)を変えることによって、超音波の入射角を変化させることができる。例えば、図9に示すように、複数の探触子4が並んだ順番に沿って超音波Uを順次送信すると(時間差励振)、対象物Qの表面から斜め方向に超音波Uが伝搬される。
As shown in FIG. 3, in the phased
なお、フェーズドアレイプローブ2を用いて取得される画像は、ピクセル画像(平面画像)でも良いし、ボクセル画像(立体画像)でも良い。以下の説明では、ピクセル画像としての断面画像Gを例示する。なお、対象物Qの断面画像Gとは、超音波Uの入射方向Nに対して垂直方向から見た場合の画像である。つまり、断面画像Gとは、対象物Qを超音波Uの入射部分に沿って仮想的に断面にした場合の画像である。
The image acquired by using the phased
図3、図5、図7は、対象物Qに対してフェーズドアレイプローブ2から超音波Uを垂直入射した場合に、欠陥Dでの超音波Uが反射または散乱する様子を示している。図9、図11は、対象物Qに対してフェーズドアレイプローブ2から超音波Uを射角入射した場合に欠陥Dでの超音波Uが反射または散乱する様子を示している。
FIGS. 3, 5, and 7 show how the ultrasonic wave U at the defect D is reflected or scattered when the ultrasonic wave U is vertically incident on the object Q from the phased
対象物Qの上面側にフェーズドアレイプローブ2を取り付けて超音波Uを送信し、その反射波を得ることで所定の範囲Rが画像化された断面画像G(図4、図6、図8、図10、図12)を生成することができる。断面画像Gには、欠陥Dと対象物Qの下面で超音波Uが反射することで、欠陥Dに起因する出現像Eと対象物Qの下面に起因する出現像Bとが現れる。
A cross-sectional image G (FIGS. 4, 6, 6, 8) in which a predetermined range R is imaged by attaching a phased
図3に示すように、垂直入射の超音波Uの入射方向Nに対して欠陥D1の長軸方向が平行を成している場合には、所定の探触子4から送信された超音波Uが欠陥D1の上端で散乱する。また、その隣の探触子4から送信された超音波Uは、欠陥D1に当たらず、対象物Qの下面側で反射される。そのため、欠陥D1で散乱または反射し、フェーズドアレイプローブ2で受信される超音波Uの強度は弱く、この超音波Uに基づいて画像化される範囲Rの断面画像G(図4)に現れる出現像E1も弱く、小さいものとなる。
As shown in FIG. 3, when the major axis direction of the defect D1 is parallel to the incident direction N of the vertically incident ultrasonic wave U, the ultrasonic wave U transmitted from the
図5に示すように、垂直入射の超音波Uの入射方向Nに対して欠陥D2の長軸方向が傾斜している場合には、欠陥D2に超音波Uが当たっても、その反射波がフェーズドアレイプローブ2の方に戻り難くなっている。例えば、欠陥D2が45°で傾いている場合には、フェーズドアレイプローブ2から送信された超音波Uは、その入射方向に対して直角に曲がって進行してしまう。そのため、この超音波Uに基づいて画像化される範囲Rの断面画像G(図6)に現れる出現像E2も弱く、小さいものとなる。例えば、欠陥D2の上端と下端で散乱された2つの小さな出現像E2が現れる。
As shown in FIG. 5, when the major axis direction of the defect D2 is inclined with respect to the incident direction N of the vertically incident ultrasonic wave U, even if the ultrasonic wave U hits the defect D2, the reflected wave is generated. It is difficult to return to the phased
図7に示すように、垂直入射の超音波Uの入射方向Nに対して欠陥D3の長軸方向が垂直を成している場合には、欠陥D3に当たった超音波Uの反射波がフェーズドアレイプローブ2の方に戻る。さらに、欠陥D2に所定の幅があれば、その幅の分だけ他の探触子4で送信した超音波Uの反射波が得られるようになる。そのため、この超音波Uに基づいて画像化される範囲Rの断面画像G(図8)に現れる出現像E3は、強く、大きいものとなる。
As shown in FIG. 7, when the major axis direction of the defect D3 is perpendicular to the incident direction N of the vertically incident ultrasonic wave U, the reflected wave of the ultrasonic wave U hitting the defect D3 is phased. Return to the
なお、図5、図7に示す欠陥D2,D3と同じ形状であっても、超音波Uの入射角度θ’を変えることで断面画像Gの出現像Eが変化する。 Even if the shape has the same shape as the defects D2 and D3 shown in FIGS. 5 and 7, the output development E of the cross-sectional image G changes by changing the incident angle θ'of the ultrasonic wave U.
図9に示すように、欠陥D2に対して垂直になるような角度で超音波Uを射角入射させると、欠陥D2に当たった超音波Uの反射波がフェーズドアレイプローブ2の方に戻る。そのため、この超音波Uに基づいて画像化される範囲Rの断面画像G(図10)に現れる出現像E4は、強く、大きいものとなる。出現像E4の向きも、実際の欠陥D2と同じ向きで強く現れる。
As shown in FIG. 9, when the ultrasonic wave U is incident at an angle perpendicular to the defect D2, the reflected wave of the ultrasonic wave U hitting the defect D2 returns to the phased
図11に示すように、射角入射であっても、超音波Uの入射方向Nに対して欠陥D3の長軸方向が傾斜している場合には、欠陥D2に超音波Uが当たっても、その反射波がフェーズドアレイプローブ2の方に戻り難くなる。そのため、この超音波Uに基づいて画像化される範囲Rの断面画像G(図12)に現れる出現像E5も弱く、小さいものとなる。
As shown in FIG. 11, even if the angle of incidence is incident, if the major axis direction of the defect D3 is inclined with respect to the incident direction N of the ultrasonic wave U, even if the ultrasonic wave U hits the defect D2. , It becomes difficult for the reflected wave to return to the phased
このように、超音波Uの入射方向Nと欠陥Dの形状によって出現像Eの長軸方向、形状、強度が変化する。特に、出現像Eの長軸方向は、物理的に超音波Uの反射波が得られない方向を向いている場合に電気的なノイズなどの可能性があり、欠陥Dとノイズとの識別に有用な1つの特徴である。 In this way, the long axis direction, shape, and intensity of the developed development E change depending on the incident direction N of the ultrasonic wave U and the shape of the defect D. In particular, the long axis direction of the developed development E may be electrical noise or the like when the reflected wave of the ultrasonic wave U is physically oriented in a direction in which the reflected wave cannot be obtained. This is one useful feature.
そこで、本実施形態では、超音波Uの入射方向N(図17)と欠陥Dの長軸方向の向きによって超音波Uの反射特性が変わることに着目し、出現像Eの長軸方向の向きを表すベクトルV(図18)を利用して欠陥の有無の判定を行う。なお、本実施形態のベクトルVとは、ピクセル画像(平面画像)の場合は平面ベクトルのことであり、ボクセル画像(立体画像)の場合は空間ベクトルのことである。 Therefore, in the present embodiment, attention is paid to the fact that the reflection characteristic of the ultrasonic wave U changes depending on the incident direction N (FIG. 17) of the ultrasonic wave U and the direction of the defect D in the long axis direction, and the direction of the output development E in the long axis direction. The presence or absence of defects is determined using the vector V (FIG. 18) representing the above. The vector V of the present embodiment is a plane vector in the case of a pixel image (plane image) and a space vector in the case of a boxel image (stereoscopic image).
出現像抽出部11では、出現像Eの長軸方向を特定する際に、断面画像Gに含まれる出現像Eを抽出する処理を行う。例えば、出現像Eをバウンディングボックス19で囲う方法(図13)と、出現像Eのエッジを抽出する方法(図15)とがある。そして、ベクトル抽出部12では、出現像抽出部11にて抽出した出現像Eに基づいて、ベクトルV(図14、図16)を抽出する処理を行う。
The output
バウンディングボックス19を用いる場合には、図13に示すように、出現像抽出部11は、出現像Eが内接するようなバウンディングボックス19を生成し、このバウンディングボックス19により出現像Eを囲む処理を行う。
When the
図14に示すように、ベクトル抽出部12は、出現像Eの長軸方向の向きを特定するためのベクトルVを抽出する。例えば、出現像Eの抽出に使用したバウンディングボックス19の長辺L1と短辺L2とを特定する。そして、バウンディングボックス19の4つの頂点のうち、出現像Eが内接する部分に近い方の2つの頂点を、それぞれ始点T1と終点T2とするベクトルVを算出する。なお、2つの頂点(端二点)のうち、超音波Uの入射側に遠い方を始点T1とし、近い方を終点T2とする。
As shown in FIG. 14, the
例えば、図14の紙面上方から超音波Uが入射されているとした場合に、フェーズドアレイプローブ2から離れている左下の頂点が始点T1、フェーズドアレイプローブ2に近い右上の頂点が終点T2となる。このようにして、始点T1から終点T2に向かうベクトルVが求められる。
For example, assuming that the ultrasonic wave U is incident from above the paper surface of FIG. 14, the lower left apex away from the phased
出現像Eのエッジを抽出する場合には、図15に示すように、出現像抽出部11は、出現像Eのエッジ20(輪郭)を抽出する処理を行う。例えば、画素値の変化勾配が閾値以上の部分をエッジ20としても良いし、その他の方法を用いても良い。
When extracting the edge of the output development E, as shown in FIG. 15, the output
図16に示すように、ベクトル抽出部12は、出現像Eの長軸方向の向きを特定するためのベクトルVを抽出する。例えば、出現像Eの抽出に使用したエッジ20の長辺L1と短辺L2とを特定する。そして、エッジ20の長軸方向の端二点を、それぞれ始点T1と終点T2とするベクトルVを算出する。なお、端二点のうち、超音波Uの入射側に遠い方を始点T1とし、近い方を終点T2とする。
As shown in FIG. 16, the
この抽出したエッジ20において、フェーズドアレイプローブ2から離れている端部が始点T1、フェーズドアレイプローブ2に近い端部が終点T2となる。このようにして、始点T1から終点T2に向かうベクトルVが求められる。
In the extracted
表示制御部18は、ベクトル抽出部12が抽出したベクトルVを対応する出現像Eに重ね合せた態様でディスプレイ5に表示する。
The
図17に示すように、ノイズ判定部15は、超音波Uの入射方向Nに延びる仮想線KとベクトルVとのなす角θが0°〜30°の範囲である場合に、このベクトルV対応する出現像Eがノイズに起因するものであると判定する。このようにすれば、なす角θに基づいてノイズの判定が可能になる。
As shown in FIG. 17, the
例えば、縦波の超音波Uを使用して断面画像Gを取得した場合に、超音波Uの欠陥Dに対する入射角度θが30°以下であると、縦波の大部分が横波にモード変換されたり、反射した超音波Uがその入射側に戻らなかったりするため、縦波の反射強度が低下する。つまり、欠陥Dに起因するものであれば、殆ど超音波Uを反射しないようになる。そのため、前述のなす角θが0°〜30°の範囲となって現れる出現像Eは、欠陥Dに起因するものではなく、ノイズに起因するものであることが推定される。なお、判定に用いるなす角θは、超音波Uの入射方向Nに延びる仮想線KとベクトルVとの交点に生じる4つのなす角θのうち、小さい方のなす角(劣角)である。 For example, when the cross-sectional image G is acquired using the ultrasonic U of the longitudinal wave, if the incident angle θ with respect to the defect D of the ultrasonic U is 30 ° or less, most of the longitudinal wave is mode-converted to the transverse wave. Or, the reflected ultrasonic wave U does not return to the incident side, so that the reflection intensity of the longitudinal wave is lowered. That is, if it is caused by the defect D, the ultrasonic wave U is hardly reflected. Therefore, it is presumed that the undeveloped development E in which the above-mentioned angle θ formed in the range of 0 ° to 30 ° is not caused by the defect D but is caused by noise. The formed angle θ used for the determination is the smaller of the four formed angles θ formed at the intersection of the virtual line K extending in the incident direction N of the ultrasonic wave U and the vector V (inferior angle).
また、自動判定部17は、超音波Uの入射方向Nに延びる仮想線KとベクトルVとのなす角θが30°〜90°の範囲であり、特定の閾値以上の強度を有する場合に、このベクトルV対応する出現像Eが欠陥Dに起因するものであると判定する。
Further, the
なお、表示制御部18は、超音波Uの入射方向Nに延びる仮想線Kをディスプレイ5に表示しても良い。そして、ディスプレイ5に表示された仮想線Kに基づいて、ユーザーの人手により出現像Eの出現原因を判定しても良い。また、表示制御部18は、判定に用いるなす角θの数値をディスプレイ5に表示しても良い。
The
図18に示すように、断面画像Gに複数の出現像Eが現れている場合には、これら出現像EのそれぞれのベクトルVを抽出する。そして、ベクトルVに基づいて出現像Eが、欠陥Dに起因するものか、ノイズに起因するものかを判定する。例えば、ディスプレイ5に断面画像Gを表示する場合に、判定に基づく判定後画像処理を行う。
As shown in FIG. 18, when a plurality of development Es appear in the cross-sectional image G, each vector V of these developments E is extracted. Then, based on the vector V, it is determined whether the development E is caused by the defect D or the noise. For example, when displaying the cross-sectional image G on the
ノイズ判定部15は、例えば、ノイズに起因する出現像E6と、欠陥Dに起因する出現像E7とが、断面画像Gに現れている場合に、ベクトルVの向きに基づいて、ノイズに起因する出現像E6を特定する。
The
表示制御部18は、例えば、図19に示すように、欠陥Dに起因する出現像E7を削除してノイズに起因する出現像E6を残す処理を断面画像Gに施しても良い。また、図20に示すように、欠陥Dに起因する出現像E7を残してノイズに起因する出現像E6を削除する処理を断面画像Gに施しても良い。また、図21に示すように、ノイズに起因する出現像E6を強調表示する処理を断面画像Gに施しても良い。
For example, as shown in FIG. 19, the
これらの処理を行うことで、欠陥Dに起因する出現像E7を認識し易くなる。また、ノイズまたは所定の形状に起因する出現像E6を削除することで視認性を向上できる。 By performing these processes, it becomes easier to recognize the development E7 caused by the defect D. Further, the visibility can be improved by removing the development E6 caused by noise or a predetermined shape.
図22に示すように、対象物Qの表面に沿ってフェーズドアレイプローブ2を走査した場合には、走査方向Wに沿って並ぶ複数の断面画像Gが得られる。ここで、比較処理部16は、位置的に連続する複数の断面画像Gのうち隣接する断面画像Gを比較可能な処理を行う。
As shown in FIG. 22, when the phased
ベクトル抽出部12で抽出された出現像EのベクトルVの大きさは、出現像Eの元となる欠陥Dの大きさを表す。例えば、対象物Qの溶接線21の検査において、フェーズドアレイプローブ2を走査した場合に、対象物Qにおける位置P1〜PNに亘って連続的に取得される複数の断面画像Gが得られる。なお、図22における位置P1〜PNは、走査方向Wに並んだ位置を示す。
The size of the vector V of the output development E extracted by the
図23(A)は、位置Pn−1に対応する断面画像Gの出現像E8を示す。図23(B)は、位置Pnに対応する断面画像Gの出現像E9を示す。図23(C)は、位置Pn+1に対応する断面画像Gの出現像E10を示す。なお、図23における位置Cは、走査方向Wに対して直角を成す方向の所定の位置を示す。 FIG. 23 (A) shows the output development E8 of the cross-sectional image G corresponding to the position P n-1. FIG. 23B shows the output development E9 of the cross-sectional image G corresponding to the position Pn. FIG. 23C shows the development E10 of the cross-sectional image G corresponding to the position P n + 1. The position C in FIG. 23 indicates a predetermined position in a direction perpendicular to the scanning direction W.
例えば、位置Pnに対応する断面画像Gに現れた出現像E9に対してベクトルVを求めると、出現像E9の長軸方向の向きと大きさが分かる(図23(B))。この断面画像Gに対して位置的に前後する断面画像G(図23(A)および図23(C))において、同じ位置Cに出現像E8,E10がある場合に、同じ欠陥Dに起因するものであることが推定される。 For example, when the vector V is obtained for the output development E9 appearing in the cross-sectional image G corresponding to the position Pn , the orientation and size of the output development E9 in the long axis direction can be found (FIG. 23 (B)). In the cross-sectional images G (FIGS. 23 (A) and 23 (C)) that are positioned before and after the cross-sectional image G, when the developed developments E8 and E10 are located at the same position C, the defect D is caused. It is presumed to be a thing.
特に、位置Pn−1から位置Pn+1まで連続して広がっている欠陥Dの場合は、その位置が大きく変化せず、出現像E8,E9,E10のベクトルVは、互いに交差するようになる。その場合には、出現像E8,E9,E10が欠陥Dに起因するものであると判定することができる。一方、位置Pn−1から位置Pn+1まで連続して広がっている欠陥Dの位置が大きく変化している、または、ベクトルVが互いに交差していないような場合には、出現像E8,E9,E10がノイズに起因するものであると判定することができる。 In particular, in the case of the defect D that continuously extends from the position P n-1 to the position P n + 1 , the position does not change significantly, and the vectors V of the developed developments E8, E9, and E10 intersect with each other. .. In that case, it can be determined that the developments E8, E9, and E10 are caused by the defect D. On the other hand, if the positions of the defects D that continuously extend from the position P n-1 to the position P n + 1 have changed significantly, or if the vectors V do not intersect each other, the developments E8 and E9 , E10 can be determined to be due to noise.
一般的に、亀裂のような位置的に連続して広がっている欠陥Dの大きさは、その位置によって変化するため、ベクトルVの大きさも前後の断面画像Gで変化し得る。この前後の断面画像のベクトルVの情報を記録し、連続する断面画像Gとの変化を見ることで、出現像Eの元となる反射源の特性を知ることができる。 In general, the size of the defect D that continuously spreads in a position such as a crack changes depending on the position, so that the size of the vector V can also change in the front and rear cross-sectional images G. By recording the information of the vector V of the cross-sectional images before and after this and observing the change from the continuous cross-sectional image G, it is possible to know the characteristics of the reflection source that is the source of the development E.
これら連続する断面画像Gの比較に基づいて出現像Eが出現した原因を判定することができる。この判定は、自動判定部17による自動的な処理で行っても良いし、ディスプレイ5に表示される断面画像Gを視認するユーザーの人手で行っても良い。
The cause of the appearance of the development E can be determined based on the comparison of these continuous cross-sectional images G. This determination may be performed by automatic processing by the
なお、ベクトルVを記録する際には、断面画像Gの座標と対応したデータとして記録したり、断面画像GにベクトルVの変化の軌跡を描画したりするなどの記録手法を用いても良い。 When recording the vector V, a recording method such as recording as data corresponding to the coordinates of the cross-sectional image G or drawing a locus of change of the vector V on the cross-sectional image G may be used.
なお、本実施形態では、位置的に連続する複数の断面画像Gのうち隣接する断面画像Gを比較して出現像Eの出現原因の判定をしているが、その他の態様であっても良い。例えば、ボクセル画像(立体画像)を用いて判定を行う場合には、時間的に連続して取得された複数のボクセル画像のうち隣接するボクセル画像を比較して出現像Eの出現原因の判定をしても良い。 In the present embodiment, the cause of the appearance of the development E is determined by comparing the adjacent cross-sectional images G among the plurality of positionally continuous cross-sectional images G, but other embodiments may be used. .. For example, when making a judgment using a voxel image (stereoscopic image), the cause of appearance of development E is determined by comparing adjacent voxel images among a plurality of voxel images acquired continuously in time. You may.
次に、画像処理システム1が実行する画像処理方法について図24のフローチャートを用いて説明する。なお、図2に示すブロック図を適宜参照する。
Next, the image processing method executed by the
まず、ステップS11において、画像取得部10は、フェーズドアレイプローブ2により取得した情報に基づいて、断面画像Gを取得する。
First, in step S11, the
次のステップS12において、出現像抽出部11は、対象物Qが有する状態に応じて断面画像Gに出現する出現像E(図18)を抽出する。
In the next step S12, the
次のステップS13において、ベクトル抽出部12は、出現像Eの長軸方向の端二点を始点T1と終点T2とするベクトルVを抽出する(図13から図16)。
In the next step S13, the
次のステップS14において、表示制御部18は、画像表示処理を実行する。この画像表示処理により断面画像Gがディスプレイ5に表示される。ここで、表示制御部18は、ベクトル抽出部12が抽出したベクトルVを対応する出現像Eに重ね合せた態様でディスプレイ5に表示する。
In the next step S14, the
次のステップS15において、判定処理部13の自動判定部17は、ベクトルVの向きに基づいて、出現像Eが欠陥Dに起因するものであるか否かの判定を行う。なお、ディスプレイ5に表示された断面画像Gに基づいて、ユーザーの人手により出現像Eが欠陥Dに起因するものであるか否かの判定を行っても良い。
In the next step S15, the
次のステップS16において、判定処理部13の自動判定部17は、ベクトルVの向きに基づいて、出現像Eがノイズに起因するものであるか否かの判定を行う。なお、ディスプレイ5に表示された断面画像Gに基づいて、ユーザーの人手により出現像Eがノイズに起因するものであるか否かの判定を行っても良い。
In the next step S16, the
次のステップS17において、比較処理部16は、画像比較処理を実行する。この画像比較処理により、位置的または時間的に連続する複数の断面画像Gのうち隣接する断面画像Gの比較が行われる。
In the next step S17, the
次のステップS18において、判定処理部13の自動判定部17は、複数の断面画像Gの比較に基づいて、出現像Eが欠陥Dに起因するものであるか否かの判定を行う。なお、ディスプレイ5に表示された複数の画像をユーザーが比較し、出現像Eが欠陥Dに起因するものであるか否かの判定を行っても良い。
In the next step S18, the
次のステップS19において、判定処理部13の自動判定部17は、複数の断面画像Gの比較に基づいて、出現像Eがノイズに起因するものであるか否かの判定を行う。なお、ディスプレイ5に表示された複数の画像をユーザーが比較し、出現像Eがノイズに起因するものであるか否かの判定を行っても良い。
In the next step S19, the
次のステップS20において、表示制御部18は、判定後画像処理を実行する。この判定後画像処理では、判定結果に基づいて、断面画像Gの表示を更新する。例えば、欠陥Dに起因する出現像E7を削除してノイズに起因する出現像E6を残す処理を行う(図19)。欠陥Dに起因する出現像E7を残してノイズに起因する出現像E6を削除する処理を行う(図20)。ノイズに起因する出現像E6を強調表示する処理を行う(図21)。そして、処理を終了する。
In the next step S20, the
なお、本実施形態のフローチャートにおいて、各ステップが直列に実行される形態を例示しているが、必ずしも各ステップの前後関係が固定されるものでなく、一部のステップの前後関係が入れ替わっても良い。また、一部のステップが他のステップと並列に実行されても良い。 Although the flowchart of the present embodiment illustrates a mode in which each step is executed in series, the context of each step is not necessarily fixed, and even if the context of some steps is exchanged. good. Also, some steps may be executed in parallel with other steps.
なお、検査用コンピュータ3には、機械学習を行う人工知能(AI:Artificial Intelligence)を備えるコンピュータが含まれても良い。そして、人工知能が断面画像Gに出現像Eが出現した原因を判定しても良い。また、検査用コンピュータ3には、深層学習に基づいて、複数のパターンから特定のパターンを抽出する深層学習部が含まれても良い。
The
本実施形態のコンピュータを用いた解析には、人工知能の学習に基づく解析技術を用いることができる。例えば、ニューラルネットワークによる機械学習により生成された学習モデル、その他の機械学習により生成された学習モデル、深層学習アルゴリズム、回帰分析などの数学的アルゴリズムを用いることができる。また、機械学習の形態には、クラスタリング、深層学習などの形態が含まれる。 For the analysis using the computer of the present embodiment, an analysis technique based on learning of artificial intelligence can be used. For example, a learning model generated by machine learning by a neural network, another learning model generated by machine learning, a deep learning algorithm, a mathematical algorithm such as regression analysis can be used. Further, the form of machine learning includes forms such as clustering and deep learning.
本実施形態のシステムは、機械学習を行う人工知能を備えるコンピュータを含む。例えば、ニューラルネットワークを備える1台のコンピュータでシステムを構成しても良いし、ニューラルネットワークを備える複数台のコンピュータでシステムを構成しても良い。 The system of this embodiment includes a computer having artificial intelligence that performs machine learning. For example, the system may be configured by one computer provided with a neural network, or the system may be configured by a plurality of computers provided with a neural network.
ここで、ニューラルネットワークとは、脳機能の特性をコンピュータによるシミュレーションによって表現した数学モデルである。例えば、シナプスの結合によりネットワークを形成した人工ニューロン(ノード)が、学習によってシナプスの結合強度を変化させ、問題解決能力を持つようになるモデルを示す。さらに、ニューラルネットワークは、深層学習(Deep Learning)により問題解決能力を取得する。 Here, the neural network is a mathematical model that expresses the characteristics of brain function by computer simulation. For example, we show a model in which artificial neurons (nodes) that form a network by synaptic connection change the synaptic connection strength by learning and have problem-solving ability. In addition, neural networks acquire problem-solving abilities through deep learning.
例えば、ニューラルネットワークには、6層のレイヤーを有する中間層が設けられる。この中間層の各レイヤーは、300個のユニットで構成されている。また、多層のニューラルネットワークに学習用データを用いて予め学ばせておくことで、回路またはシステムの状態の変化のパターンの中にある特徴量を自動で抽出することができる。なお、多層のニューラルネットワークは、ユーザインターフェース上で、任意の中間層数、任意のユニット数、任意の学習率、任意の学習回数、任意の活性化関数を設定することができる。 For example, a neural network is provided with an intermediate layer having six layers. Each layer of this intermediate layer is composed of 300 units. In addition, by having a multi-layer neural network learn in advance using learning data, it is possible to automatically extract features in a pattern of changes in the state of a circuit or system. In the multi-layer neural network, an arbitrary number of intermediate layers, an arbitrary number of units, an arbitrary learning rate, an arbitrary number of learning times, and an arbitrary activation function can be set on the user interface.
なお、学習対象となる各種情報項目に報酬関数が設定されるとともに、報酬関数に基づいて価値が最も高い情報項目が抽出される深層強化学習をニューラルネットワークに用いても良い。 A reward function may be set for various information items to be learned, and deep reinforcement learning for extracting the information item having the highest value based on the reward function may be used for the neural network.
例えば、画像認識で実績のあるCNN(Convolution Neural Network)を用いる。このCNNでは、中間層が畳み込み層とプーリング層で構成される。畳み込み層は、前の層で近くにあるノードにフィルタ処理を施すことで特徴マップを取得する。プーリング層は、畳込み層から出力された特徴マップを、さらに縮小して新たな特徴マップとする。この際に特徴マップにおいて着目する領域に含まれる画素の最大値を得ることで、特徴量の位置の多少のずれも吸収することができる。 For example, CNN (Convolution Neural Network), which has a proven track record in image recognition, is used. In this CNN, the intermediate layer is composed of a convolutional layer and a pooling layer. The convolution layer acquires a feature map by filtering nearby nodes in the previous layer. The pooling layer further reduces the feature map output from the convolutional layer into a new feature map. At this time, by obtaining the maximum value of the pixels included in the region of interest in the feature map, it is possible to absorb a slight deviation in the position of the feature amount.
畳み込み層は、画像の局所的な特徴を抽出し、プーリング層は、局所的な特徴をまとめる処理を行う。これらの処理では、入力画像の特徴を維持しながら画像を縮小処理する。つまり、CNNでは、画像の持つ情報量を大幅に圧縮(抽象化)することができる。そして、ニューラルネットワークに記憶された抽象化された画像イメージを用いて、入力される画像を認識し、画像の分類を行うことができる。 The convolution layer extracts the local features of the image, and the pooling layer performs a process of summarizing the local features. In these processes, the image is reduced while maintaining the characteristics of the input image. That is, in CNN, the amount of information contained in the image can be significantly compressed (abstracted). Then, using the abstracted image stored in the neural network, the input image can be recognized and the image can be classified.
なお、深層学習には、オートエンコーダ、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)、GAN(Generative Adversarial Network)などの各種手法がある。これらの手法を本実施形態の深層学習に適用しても良い。 There are various methods for deep learning such as autoencoder, RNN (Recurrent Neural Network), RSTM (Long Short-Term Memory), and GAN (Generative Adversarial Network). These methods may be applied to the deep learning of the present embodiment.
本実施形態のシステムは、専用のチップ、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)、またはCPU(Central Processing Unit)などのプロセッサを高集積化させた制御装置と、ROM(Read Only Memory)またはRAM(Random Access Memory)などの記憶装置と、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などの外部記憶装置と、ディスプレイなどの表示装置と、マウスまたはキーボードなどの入力装置と、通信インターフェースとを備える。このシステムは、通常のコンピュータを利用したハードウェア構成で実現できる。 The system of this embodiment includes a control device in which a dedicated chip, a controller such as an FPGA (Field Programmable Gate Array), a GPU (Graphics Processing Unit), or a CPU (Central Processing Unit) is highly integrated, and a ROM (Read Only). Storage devices such as Memory) or RAM (Random Access Memory), external storage devices such as HDD (Hard Disk Drive) or SSD (Solid State Drive), display devices such as displays, and input devices such as mice or keyboards. , With a communication interface. This system can be realized by a hardware configuration using a normal computer.
なお、本実施形態のシステムで実行されるプログラムは、ROMなどに予め組み込んで提供される。もしくは、このプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)などのコンピュータで読み取り可能な非一過性の記憶媒体に記憶されて提供するようにしても良い。 The program executed by the system of the present embodiment is provided by incorporating it into a ROM or the like in advance. Alternatively, the program may be a computer-readable, non-transient storage medium such as a CD-ROM, CD-R, memory card, DVD, or flexible disk (FD) with a file in an installable or executable format. It may be stored and provided in.
また、このシステムで実行されるプログラムは、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせて提供するようにしても良い。また、このシステムは、構成要素の各機能を独立して発揮する別々のモジュールを、ネットワークまたは専用線で相互に接続し、組み合わせて構成することもできる。 Further, the program executed by this system may be stored on a computer connected to a network such as the Internet, and may be downloaded and provided via the network. The system can also be configured by connecting separate modules that independently perform the functions of the components to each other via a network or a dedicated line, and combining them.
以上説明した実施形態によれば、出現像の長軸方向の端二点を始点と終点とするベクトルを抽出するベクトル抽出部を備えることにより、超音波検査の画像に基づいて欠陥の有無を判定する精度を向上させることができる。 According to the embodiment described above, the presence or absence of defects is determined based on the image of the ultrasonic inspection by providing the vector extraction unit that extracts the vector whose start point and end point are the two end points in the long axis direction of output development. It is possible to improve the accuracy of the extraction.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, changes, and combinations can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, as well as in the scope of the invention described in the claims and the equivalent scope thereof.
1…画像処理システム、2…フェーズドアレイプローブ、3…検査用コンピュータ、4…探触子、5…ディスプレイ、6…入力操作部、7…記憶部、8…通信部、9…メイン制御部、10…画像取得部、11…出現像抽出部、12…ベクトル抽出部、13…判定処理部、14…欠陥判定部、15…ノイズ判定部、16…比較処理部、17…自動判定部、18…表示制御部、19…バウンディングボックス、20…エッジ、21…溶接線、B…出現像、C…位置、D(D1〜3)…欠陥、E(E1〜10)…出現像、G…断面画像、K…仮想線、L1…長辺、L2…短辺、N…入射方向、P…位置、Q…対象物、R…画像化される範囲、T1…始点、T2…終点、U…超音波、V…ベクトル、W…走査方向。 1 ... image processing system, 2 ... phased array probe, 3 ... inspection computer, 4 ... probe, 5 ... display, 6 ... input operation unit, 7 ... storage unit, 8 ... communication unit, 9 ... main control unit, 10 ... Image acquisition unit, 11 ... Output development extraction unit, 12 ... Vector extraction unit, 13 ... Judgment processing unit, 14 ... Defect judgment unit, 15 ... Noise judgment unit, 16 ... Comparison processing unit, 17 ... Automatic judgment unit, 18 ... Display control unit, 19 ... Bounding box, 20 ... Edge, 21 ... Welding line, B ... Image development, C ... Position, D (D1-3) ... Defects, E (E1-10) ... Output development, G ... Cross section Image, K ... virtual line, L1 ... long side, L2 ... short side, N ... incident direction, P ... position, Q ... object, R ... imaged range, T1 ... start point, T2 ... end point, U ... super Sound wave, V ... vector, W ... scanning direction.
Claims (8)
前記対象物が有する状態に応じて前記画像に出現する出現像を抽出する出現像抽出部と、
前記出現像の長軸方向の端二点を始点と終点とするベクトルを抽出するベクトル抽出部と、
前記ベクトルに基づいて、前記出現像が出現した原因を判定可能な処理を行う判定処理部と、
を備える、
画像処理システム。 An image acquisition unit that transmits ultrasonic waves to an object to be inspected and acquires an image based on the reflection of the ultrasonic waves.
A development extraction unit that extracts output development that appears in the image according to the state of the object, and a development extraction unit.
A vector extraction unit that extracts a vector having two end points in the long axis direction of development and development as a start point and an end point,
A determination processing unit that performs processing capable of determining the cause of the appearance of development based on the vector, and a determination processing unit.
To prepare
Image processing system.
請求項1に記載の画像処理システム。 The determination processing unit includes a defect determination unit that compares the incident direction of the ultrasonic wave with the direction of the vector and determines whether or not the cause of the appearance of the development is a defect.
The image processing system according to claim 1.
請求項1または請求項2に記載の画像処理システム。 The determination processing unit includes a noise determination unit that compares the incident direction of the ultrasonic wave with the direction of the vector and determines whether or not the cause of the appearance of the development is noise.
The image processing system according to claim 1 or 2.
請求項3に記載の画像処理システム。 The noise determination unit determines that the noise is when the angle formed by the virtual line extending in the incident direction of the ultrasonic wave and the vector is in the range of 0 ° to 30 °.
The image processing system according to claim 3.
前記判定処理部は、連続する複数の前記断面画像のうち隣接する少なくとも2つの前記断面画像を比較可能な処理を行う比較処理部を備える、
請求項1から請求項4のいずれか1項に記載の画像処理システム。 The image is a cross-sectional image of the object,
The determination processing unit includes a comparison processing unit that performs processing capable of comparing at least two adjacent cross-sectional images among a plurality of continuous cross-sectional images.
The image processing system according to any one of claims 1 to 4.
請求項1から請求項5のいずれか1項に記載の画像処理システム。 The determination processing unit includes an automatic determination unit that performs processing for determining the cause of the appearance of development.
The image processing system according to any one of claims 1 to 5.
請求項1から請求項6のいずれか1項に記載の画像処理システム。 The determination processing unit includes a display control unit that performs a process of superimposing the vector on the output development displayed on the display.
The image processing system according to any one of claims 1 to 6.
前記対象物が有する状態に応じて前記画像に出現する出現像を抽出するステップと、
前記出現像の長軸方向の端二点を始点と終点とするベクトルを抽出するステップと、
前記ベクトルに基づいて、前記出現像が出現した原因を判定可能な処理を行うステップと、
を含む、
画像処理方法。 A step of transmitting ultrasonic waves to an object to be inspected and acquiring an image based on the reflection of the ultrasonic waves, and
A step of extracting the output development appearing in the image according to the state of the object, and
A step of extracting a vector having two end points in the long axis direction of development and development as a start point and an end point,
A step of performing a process capable of determining the cause of the appearance of the development based on the vector, and
including,
Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019200026A JP2021072048A (en) | 2019-11-01 | 2019-11-01 | Image processing system and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019200026A JP2021072048A (en) | 2019-11-01 | 2019-11-01 | Image processing system and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021072048A true JP2021072048A (en) | 2021-05-06 |
Family
ID=75713261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019200026A Pending JP2021072048A (en) | 2019-11-01 | 2019-11-01 | Image processing system and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021072048A (en) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005156305A (en) * | 2003-11-25 | 2005-06-16 | Daido Steel Co Ltd | Evaluation method of internal defect |
JP2005274444A (en) * | 2004-03-25 | 2005-10-06 | Toshiba Corp | Ultrasonic flaw detection image processor, and processing method therefor |
JP2007298326A (en) * | 2006-04-28 | 2007-11-15 | Mitsubishi Heavy Ind Ltd | Processing method and device of ultrasonic flaw detection data, and flaw detection data processing program |
JP2008122187A (en) * | 2006-11-10 | 2008-05-29 | Mitsubishi Heavy Ind Ltd | Ultrasonic flaw detector, ultrasonic flaw detection method and program |
JP2009236794A (en) * | 2008-03-28 | 2009-10-15 | Sumitomo Metal Ind Ltd | Ultrasonic flaw detecting method and device of pipe |
JP2010527015A (en) * | 2007-05-15 | 2010-08-05 | シーメンス アクチエンゲゼルシヤフト | Nondestructive material inspection method and apparatus for inspection object using ultrasonic wave |
JP2010243375A (en) * | 2009-04-08 | 2010-10-28 | National Maritime Research Institute | Extended crack detection method, apparatus, and program |
JP2011141123A (en) * | 2010-01-05 | 2011-07-21 | Hitachi-Ge Nuclear Energy Ltd | Ultrasonic inspection method and ultrasonic inspection device |
JP2013242162A (en) * | 2012-05-17 | 2013-12-05 | Toshiba Corp | Ultrasonic flaw detection device and method |
JP2014149156A (en) * | 2013-01-31 | 2014-08-21 | Hitachi Ltd | Method and device for ultrasonography |
JP2018139685A (en) * | 2017-02-27 | 2018-09-13 | セイコーエプソン株式会社 | Ultrasonic image processing device and ultrasonic image processing method |
-
2019
- 2019-11-01 JP JP2019200026A patent/JP2021072048A/en active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005156305A (en) * | 2003-11-25 | 2005-06-16 | Daido Steel Co Ltd | Evaluation method of internal defect |
JP2005274444A (en) * | 2004-03-25 | 2005-10-06 | Toshiba Corp | Ultrasonic flaw detection image processor, and processing method therefor |
JP2007298326A (en) * | 2006-04-28 | 2007-11-15 | Mitsubishi Heavy Ind Ltd | Processing method and device of ultrasonic flaw detection data, and flaw detection data processing program |
JP2008122187A (en) * | 2006-11-10 | 2008-05-29 | Mitsubishi Heavy Ind Ltd | Ultrasonic flaw detector, ultrasonic flaw detection method and program |
JP2010527015A (en) * | 2007-05-15 | 2010-08-05 | シーメンス アクチエンゲゼルシヤフト | Nondestructive material inspection method and apparatus for inspection object using ultrasonic wave |
JP2009236794A (en) * | 2008-03-28 | 2009-10-15 | Sumitomo Metal Ind Ltd | Ultrasonic flaw detecting method and device of pipe |
JP2010243375A (en) * | 2009-04-08 | 2010-10-28 | National Maritime Research Institute | Extended crack detection method, apparatus, and program |
JP2011141123A (en) * | 2010-01-05 | 2011-07-21 | Hitachi-Ge Nuclear Energy Ltd | Ultrasonic inspection method and ultrasonic inspection device |
JP2013242162A (en) * | 2012-05-17 | 2013-12-05 | Toshiba Corp | Ultrasonic flaw detection device and method |
JP2014149156A (en) * | 2013-01-31 | 2014-08-21 | Hitachi Ltd | Method and device for ultrasonography |
JP2018139685A (en) * | 2017-02-27 | 2018-09-13 | セイコーエプソン株式会社 | Ultrasonic image processing device and ultrasonic image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6874846B2 (en) | Defect detection using ultrasonic scan data | |
Ijjeh et al. | Full wavefield processing by using FCN for delamination detection | |
Posilović et al. | Flaw detection from ultrasonic images using YOLO and SSD | |
US9207639B2 (en) | Transforming A-scan data samples into a three-dimensional space for facilitating visualization of flaws | |
Latête et al. | Towards using convolutional neural network to locate, identify and size defects in phased array ultrasonic testing | |
Gantala et al. | Automated defect recognition for welds using simulation assisted TFM imaging with artificial intelligence | |
CN114359193B (en) | Defect classification method and system based on ultrasonic phased array imaging | |
Posilović et al. | Generative adversarial network with object detector discriminator for enhanced defect detection on ultrasonic B-scans | |
Saini et al. | Optimisation of the half-skip total focusing method (HSTFM) parameters for sizing surface-breaking cracks | |
WO2021039483A1 (en) | Ultrasonic testing device and ultrasonic testing method | |
JP7081196B2 (en) | Defect detection using ultrasonic scan data | |
Virupakshappa et al. | Multi-class classification of defect types in ultrasonic NDT signals with convolutional neural networks | |
Provencal et al. | Identification of weld geometry from ultrasound scan data using deep learning | |
JP5156707B2 (en) | Ultrasonic inspection method and apparatus | |
Medak et al. | Deep learning-based defect detection from sequences of ultrasonic B-scans | |
US20220276207A1 (en) | Ultrasonic testing for defect detection | |
Pyle et al. | Interpretable and explainable machine learning for ultrasonic defect sizing | |
Kuchipudi et al. | Automated detection and segmentation of internal defects in reinforced concrete using deep learning on ultrasonic images | |
Sudharsan et al. | Multi modal data fusion of PAUT with thermography assisted by Automatic Defect Recognition System (M-ADR) for NDE Applications | |
KR101615627B1 (en) | Apparatus for non-destructive testing and Method thereof | |
JP2021072048A (en) | Image processing system and image processing method | |
CN116735723A (en) | Rail damage ultrasonic positioning and identifying system | |
JP2014149156A (en) | Method and device for ultrasonography | |
Sutcliffe et al. | Automatic defect recognition of single-v welds using full matrix capture data, computer vision and multi-layer perceptron artificial neural networks | |
Eckels et al. | Application of a U-net convolutional neural network to ultrasonic wavefield measurements for defect characterization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230508 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230613 |