JP2021072048A - Image processing system and image processing method - Google Patents

Image processing system and image processing method Download PDF

Info

Publication number
JP2021072048A
JP2021072048A JP2019200026A JP2019200026A JP2021072048A JP 2021072048 A JP2021072048 A JP 2021072048A JP 2019200026 A JP2019200026 A JP 2019200026A JP 2019200026 A JP2019200026 A JP 2019200026A JP 2021072048 A JP2021072048 A JP 2021072048A
Authority
JP
Japan
Prior art keywords
development
image
vector
cross
defect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019200026A
Other languages
Japanese (ja)
Inventor
あずさ 菅原
Azusa Sugawara
あずさ 菅原
栞太 高橋
Kanta Takahashi
栞太 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Energy Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2019200026A priority Critical patent/JP2021072048A/en
Publication of JP2021072048A publication Critical patent/JP2021072048A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image processing technique capable of improving the accuracy to determine the presence or absence of defects based on ultrasonography images.SOLUTION: An image processing system 1 includes: an image acquisition unit 10 that acquires an image G based on reflection of ultrasonic wave U by transmitting the ultrasonic wave U to an object Q to be inspected; a development extraction unit 11 that extracts an appeared image E that appears in the image G according to the state that the object Q has; a vector extraction unit 12 that extracts a vector V whose start point and end point are two ends in the long-axis direction of the appeared image E; and a determination processing unit 13 that performs a series of processing to determine the cause of the appearance of the appeared image E based on the vector V.SELECTED DRAWING: Figure 2

Description

本発明の実施形態は、画像処理システムおよび画像処理方法に関する。 Embodiments of the present invention relate to image processing systems and image processing methods.

従来、超音波検査技術は、構造物の検査を行う手段として広く使われている。超音波検査によって得られる断面画像から欠陥があるかないかを判定するのは検査員であり、専門知識と経験に基づいて判定を行っている。そのため検査員の技量によって判定結果にばらつきが生じる場合がある。そこで、超音波検査から信号処理またはAIなどを用いて自動判定する技術が知られている。例えば、超音波の反射に基づいて画像中に出現する出現像(エコー像)の画素移動を追跡し、連続する前後の画像に連続して出現する出現像を欠陥候補として自動判定する技術が知られている。しかし、この技術では被検査対象の形状による出現像も連続的に出現する可能性があり、これら出現像も欠陥候補として判定される可能性がある。また、層状の被検査対象で得られた超音波画像において、特定の出現像を削除して残った出現像の位置から領域を分割し、層の境界または関心領域を自動で抽出する技術が知られている。この技術を用いることで検査工程の効率化が見込まれるが、欠陥の有無の判定のばらつき改善にはつながらない。 Conventionally, ultrasonic inspection technology has been widely used as a means for inspecting structures. It is the inspector who judges whether or not there is a defect from the cross-sectional image obtained by the ultrasonic inspection, and makes the judgment based on his expertise and experience. Therefore, the judgment result may vary depending on the skill of the inspector. Therefore, there is known a technique for automatically determining from ultrasonic inspection using signal processing or AI. For example, there is a technology that tracks the pixel movement of the output development (echo image) that appears in the image based on the reflection of ultrasonic waves, and automatically determines the output development that appears continuously in the images before and after the continuation as a defect candidate. Has been done. However, with this technique, there is a possibility that development due to the shape of the object to be inspected may appear continuously, and these developments may also be determined as defect candidates. In addition, in an ultrasonic image obtained from a layered object to be inspected, a technique is known in which a specific output development is deleted, an area is divided from the position of the remaining output development, and a layer boundary or an area of interest is automatically extracted. Has been done. Although the efficiency of the inspection process is expected to be improved by using this technique, it does not lead to the improvement of the variation in the determination of the presence or absence of defects.

特許第4728762号公報Japanese Patent No. 4728762 特開2018−190388号公報JP-A-2018-190388

溶接部の超音波検査の場合には、欠陥以外にも検査対象の形状、溶接部の組織、内在物などの多様な原因に基づいて出現像が画像中に現れる。超音波の当たり方次第では、複数の出現像の強度または形状が類似した様相となったり、それぞれの出現像が重畳したりする。そのため、欠陥の有無の判定の基準となる特徴量に差が得られず誤った判定をしてしまうおそれがある。 In the case of ultrasonic inspection of a welded portion, development occurs in the image based on various causes such as the shape of the inspection target, the structure of the welded portion, and internal objects in addition to the defect. Depending on how the ultrasonic waves are applied, the intensities or shapes of the plurality of output developments may be similar, or the output developments may be superimposed on each other. Therefore, there is a possibility that an erroneous judgment may be made because a difference cannot be obtained in the feature amount that is a reference for determining the presence or absence of a defect.

本発明の実施形態は、このような事情を考慮してなされたもので、超音波検査の画像に基づいて欠陥の有無を判定する精度を向上させることができる画像処理技術を提供することを目的とする。 An embodiment of the present invention has been made in consideration of such circumstances, and an object of the present invention is to provide an image processing technique capable of improving the accuracy of determining the presence or absence of a defect based on an image of an ultrasonic inspection. And.

本発明の実施形態に係る画像処理システムは、検査の対象となる対象物に超音波を送信して前記超音波の反射に基づいて画像を取得する画像取得部と、前記対象物が有する状態に応じて前記画像に出現する出現像を抽出する出現像抽出部と、前記出現像の長軸方向の端二点を始点と終点とするベクトルを抽出するベクトル抽出部と、前記ベクトルに基づいて、前記出現像が出現した原因を判定可能な処理を行う判定処理部と、を備える。 The image processing system according to the embodiment of the present invention has an image acquisition unit that transmits ultrasonic waves to an object to be inspected and acquires an image based on the reflection of the ultrasonic waves, and a state that the object has. Based on the vector, the output development extraction unit that extracts the output development appearing in the image, the vector extraction unit that extracts the vector having the two end points in the long axis direction of the output development as the start point and the end point, and the vector. It is provided with a determination processing unit that performs processing capable of determining the cause of the appearance of development.

本発明の実施形態により、超音波検査の画像に基づいて欠陥の有無を判定する精度を向上させることができる画像処理技術が提供される。 An embodiment of the present invention provides an image processing technique capable of improving the accuracy of determining the presence or absence of a defect based on an image of an ultrasonic inspection.

本実施形態の画像処理システムを示す全体構成図。The whole block diagram which shows the image processing system of this embodiment. 画像処理システムを示すブロック図。A block diagram showing an image processing system. 垂直入射の超音波の入射方向に対して欠陥の長軸方向が平行を成している場合の対象物を示す断面図。A cross-sectional view showing an object when the major axis direction of a defect is parallel to the incident direction of a vertically incident ultrasonic wave. 図3に対応する対象物を示す断面画像図。FIG. 3 is a cross-sectional image showing an object corresponding to FIG. 垂直入射の超音波の入射方向に対して欠陥の長軸方向が傾斜している場合の対象物を示す断面図。A cross-sectional view showing an object when the major axis direction of a defect is inclined with respect to the incident direction of vertically incident ultrasonic waves. 図5に対応する対象物を示す断面画像図。FIG. 5 is a cross-sectional image showing an object corresponding to FIG. 垂直入射の超音波の入射方向に対して欠陥の長軸方向が垂直を成している場合の対象物を示す断面図。A cross-sectional view showing an object when the major axis direction of a defect is perpendicular to the incident direction of vertically incident ultrasonic waves. 図7に対応する対象物を示す断面画像図。FIG. 6 is a cross-sectional image showing an object corresponding to FIG. 7. 射角入射の超音波の入射方向に対して欠陥の長軸方向が垂直を成している場合の対象物を示す断面図。A cross-sectional view showing an object when the major axis direction of the defect is perpendicular to the incident direction of the ultrasonic wave incident at an angle of incidence. 図9に対応する対象物を示す断面画像図。FIG. 9 is a cross-sectional image showing an object corresponding to FIG. 射角入射の超音波の入射方向に対して欠陥の長軸方向が傾斜している場合の対象物を示す断面図。A cross-sectional view showing an object when the major axis direction of the defect is inclined with respect to the incident direction of the ultrasonic wave incident at an angle of incidence. 図11に対応する対象物を示す断面画像図。FIG. 6 is a cross-sectional image showing an object corresponding to FIG. 出現像をバウンディングボックスで囲った状態を示す説明図。Explanatory drawing which shows the state which surrounded the output development with a bounding box. バウンディングボックスによりベクトルを抽出した状態を示す説明図。An explanatory diagram showing a state in which a vector is extracted by a bounding box. 出現像のエッジを抽出した状態を示す説明図。Explanatory drawing which shows the state which extracted the edge of output development. エッジによりベクトルを抽出した状態を示す説明図。Explanatory drawing which shows the state which the vector was extracted by the edge. 超音波の入射方向に延びる仮想線とベクトルとのなす角を示す説明図。Explanatory drawing which shows the angle between a virtual line extending in the incident direction of an ultrasonic wave and a vector. 欠陥起因の出現像とノイズ起因の出現像を特定する状態を示す断面画像図。A cross-sectional image diagram showing a state in which output development due to defects and output development due to noise are specified. 欠陥起因の出現像を削除してノイズ起因の出現像を残した状態を示す断面画像図。A cross-sectional image diagram showing a state in which the output development caused by defects is deleted and the output development caused by noise is left. 欠陥起因の出現像を残してノイズ起因の出現像を削除した状態を示す断面画像図。A cross-sectional image diagram showing a state in which output development due to noise is deleted while output development due to defects is left. ノイズ起因の出現像を強調表示した状態を示す断面画像図。A cross-sectional image diagram showing a state in which development due to noise is highlighted. 溶接線に沿ってフェーズドアレイプローブを走査している状態を示す平面図。Top view showing the state of scanning the phased array probe along the welding line. 画像比較処理に用いる複数の断面画像図。Multiple cross-sectional image views used for image comparison processing. 画像処理方法を示すフローチャート。A flowchart showing an image processing method.

以下、図面を参照しながら、画像処理システムおよび画像処理方法の実施形態について詳細に説明する。なお、断面図では、理解を助けるためにハッチングを省略している。 Hereinafter, embodiments of the image processing system and the image processing method will be described in detail with reference to the drawings. In the cross-sectional view, hatching is omitted to aid understanding.

図1の符号1は、本実施形態の画像処理システムである。この画像処理システム1は、検査の対象となる対象物Qに超音波を送信し、その超音波の反射に基づいて対象物Qの内部を非破壊で検査するために用いられる。例えば、超音波の反射に基づいて対象物Qの断面画像G(図18)を生成し、この断面画像Gにより対象物Qの内部に欠陥があるか否かを判定する。なお、欠陥の有無の判定は、画像処理システム1の自動的な処理で行っても良いし、画像処理システム1が表示する断面画像Gを視認するユーザーの人手で行っても良い。 Reference numeral 1 in FIG. 1 is the image processing system of the present embodiment. This image processing system 1 is used to transmit ultrasonic waves to an object Q to be inspected and to nondestructively inspect the inside of the object Q based on the reflection of the ultrasonic waves. For example, a cross-sectional image G (FIG. 18) of the object Q is generated based on the reflection of ultrasonic waves, and it is determined from this cross-sectional image G whether or not there is a defect inside the object Q. The presence or absence of defects may be determined by automatic processing of the image processing system 1 or by the user who visually recognizes the cross-sectional image G displayed by the image processing system 1.

画像処理システム1は、フェーズドアレイプローブ2と検査用コンピュータ3とを備える。フェーズドアレイプローブ2は、検査用コンピュータ3に接続されている。本実施形態では、フェーズドアレイプローブ2を用いて電子的に走査する。なお、単一プローブを用いて機械的に走査しても良い。 The image processing system 1 includes a phased array probe 2 and an inspection computer 3. The phased array probe 2 is connected to the inspection computer 3. In this embodiment, the phased array probe 2 is used for electronic scanning. In addition, you may scan mechanically using a single probe.

このフェーズドアレイプローブ2は、複数の探触子4を備える。なお、探触子4とは、超音波を送信または受信する振動子を組み込んだセンサーのことである。本実施形態では、複数の探触子4が一列に並んだフェーズドアレイプローブ2を例示する。なお、複数の探触子4が平面的に並んだフェーズドアレイプローブ2を用いても良い。 The phased array probe 2 includes a plurality of probes 4. The probe 4 is a sensor incorporating an oscillator that transmits or receives ultrasonic waves. In this embodiment, a phased array probe 2 in which a plurality of probes 4 are arranged in a row is illustrated. A phased array probe 2 in which a plurality of probes 4 are arranged in a plane may be used.

対象物Qの表面にフェーズドアレイプローブ2を接触させた状態で超音波Uを送信するとともに、超音波Uの反射波をフェーズドアレイプローブ2で取得する。 The ultrasonic wave U is transmitted in a state where the phased array probe 2 is in contact with the surface of the object Q, and the reflected wave of the ultrasonic wave U is acquired by the phased array probe 2.

図3に示すように、対象物Qの欠陥D1には、対象物Qの内部または表面に生じた空洞、亀裂または疵が含まれる。図4に示すように、超音波検査では、対象物Qの断面画像Gに欠陥D1と疑われる出現像E1(エコー)が出現する。つまり、出現像E1は、対象物Qが有する状態に応じて断面画像Gに出現する。 As shown in FIG. 3, the defect D1 of the object Q includes cavities, cracks or flaws formed inside or on the surface of the object Q. As shown in FIG. 4, in the ultrasonic inspection, the development E1 (echo) suspected to be the defect D1 appears in the cross-sectional image G of the object Q. That is, the development E1 appears in the cross-sectional image G according to the state of the object Q.

次に、画像処理システム1のシステム構成を図2に示すブロック図を参照して説明する。 Next, the system configuration of the image processing system 1 will be described with reference to the block diagram shown in FIG.

検査用コンピュータ3は、ディスプレイ5と入力操作部6と記憶部7と通信部8とメイン制御部9とを備える。 The inspection computer 3 includes a display 5, an input operation unit 6, a storage unit 7, a communication unit 8, and a main control unit 9.

ディスプレイ5は、フェーズドアレイプローブ2を用いて取得した断面画像Gを表示する。また、ディスプレイ5は、欠陥Dの有無の判定結果を表示する。さらに、その他の情報をディスプレイ5に表示させても良い。つまり、本実施形態の画像処理システム1には、画像の出力を行うディスプレイなどの表示装置が含まれる。 The display 5 displays the cross-sectional image G acquired by using the phased array probe 2. Further, the display 5 displays the determination result of the presence or absence of the defect D. Further, other information may be displayed on the display 5. That is, the image processing system 1 of the present embodiment includes a display device such as a display that outputs an image.

入力操作部6は、検査用コンピュータ3を使用するユーザーにより操作される。この入力操作部6には、マウスまたはキーボードなどの入力装置が含まれる。つまり、これら入力装置の操作に応じて所定の情報が検査用コンピュータ3に入力される。 The input operation unit 6 is operated by a user who uses the inspection computer 3. The input operation unit 6 includes an input device such as a mouse or a keyboard. That is, predetermined information is input to the inspection computer 3 according to the operation of these input devices.

記憶部7は、フェーズドアレイプローブ2を用いて取得した断面画像Gを記憶する。また、記憶部7は、欠陥Dの有無の判定結果を記憶する。さらに、その他の情報を記憶部7に記憶させても良い。 The storage unit 7 stores the cross-sectional image G acquired by using the phased array probe 2. Further, the storage unit 7 stores the determination result of the presence / absence of the defect D. Further, other information may be stored in the storage unit 7.

通信部8は、通信回線を介して他のコンピュータとの通信を行う。なお、通信部8は、WAN(Wide Area Network)、インターネット回線、または携帯通信網を介して他のコンピュータと通信を行っても良い。その他にも、LANケーブルまたはUSBケーブルにより他のコンピュータと接続して通信を行っても良い。なお、画像処理システム1は、1台の検査用コンピュータ3を用いて構成しても良いし、通信回線で互いに接続された複数台の検査用コンピュータ3を用いて構成しても良い。 The communication unit 8 communicates with another computer via a communication line. The communication unit 8 may communicate with another computer via a WAN (Wide Area Network), an Internet line, or a mobile communication network. In addition, a LAN cable or a USB cable may be used to connect to another computer for communication. The image processing system 1 may be configured by using one inspection computer 3 or may be configured by using a plurality of inspection computers 3 connected to each other by a communication line.

メイン制御部9は、画像処理システム1を統括的に制御する。このメイン制御部9は、画像取得部10と出現像抽出部11とベクトル抽出部12と判定処理部13とを備える。これらは、メモリまたはHDDに記憶されたプログラムがCPUによって実行されることで実現される。 The main control unit 9 comprehensively controls the image processing system 1. The main control unit 9 includes an image acquisition unit 10, a development extraction unit 11, a vector extraction unit 12, and a determination processing unit 13. These are realized by executing the program stored in the memory or the HDD by the CPU.

画像取得部10は、フェーズドアレイプローブ2により取得した情報に基づいて、対象物Qの断面画像Gを生成する。つまり、フェーズドアレイプローブ2が検査の対象となる対象物Qに超音波Uを送信し、この超音波Uの反射に基づいて画像取得部10が断面画像Gを取得する。 The image acquisition unit 10 generates a cross-sectional image G of the object Q based on the information acquired by the phased array probe 2. That is, the phased array probe 2 transmits the ultrasonic wave U to the object Q to be inspected, and the image acquisition unit 10 acquires the cross-sectional image G based on the reflection of the ultrasonic wave U.

出現像抽出部11は、後述するように、対象物Qが有する状態に応じて断面画像Gに出現する出現像E(図18)を抽出する。なお、出現像Eには、欠陥Dに起因するもの、またはノイズに起因するものがある。本実施形態の画像処理システム1では、欠陥Dに起因するものとノイズに起因するものとを識別することができる。 As will be described later, the output development extraction unit 11 extracts the output development E (FIG. 18) that appears in the cross-sectional image G according to the state of the object Q. Some of the developed development E are caused by the defect D or some are caused by noise. In the image processing system 1 of the present embodiment, it is possible to distinguish between those caused by the defect D and those caused by noise.

ベクトル抽出部12は、後述するように、出現像Eの長軸方向の端二点を始点T1と終点T2とするベクトルVを抽出(算出)する(図13から図16)。 As will be described later, the vector extraction unit 12 extracts (calculates) a vector V having two end points in the long axis direction of the development E as a start point T1 and an end point T2 (FIGS. 13 to 16).

判定処理部13は、後述するように、ベクトルVに基づいて、出現像Eが出現した原因を判定可能な処理を行う。この判定処理部13は、欠陥判定部14とノイズ判定部15と比較処理部16と自動判定部17と表示制御部18とを備える。 As will be described later, the determination processing unit 13 performs processing capable of determining the cause of the appearance of the development E based on the vector V. The determination processing unit 13 includes a defect determination unit 14, a noise determination unit 15, a comparison processing unit 16, an automatic determination unit 17, and a display control unit 18.

欠陥判定部14は、後述するように、超音波Uの入射方向NとベクトルVの向きとを比較し、出現像Eが出現した原因が欠陥であるか否かを判定する。このようにすれば、ベクトルVの向きに基づいて、出現像Eが出現した原因が欠陥であるか否かを判定できる。 As will be described later, the defect determination unit 14 compares the incident direction N of the ultrasonic wave U with the direction of the vector V, and determines whether or not the cause of the appearance of the development E is a defect. In this way, it is possible to determine whether or not the cause of the appearance of the development E is a defect based on the direction of the vector V.

ノイズ判定部15は、後述するように、超音波Uの入射方向NとベクトルVの向きとを比較し、出現像Eが出現した原因がノイズであるか否かを判定する。このようにすれば、ベクトルVの向きに基づいて、出現像Eが出現した原因がノイズであるか否かを判定できる。 As will be described later, the noise determination unit 15 compares the incident direction N of the ultrasonic wave U with the direction of the vector V, and determines whether or not the cause of the appearance of the development E is noise. In this way, it is possible to determine whether or not the cause of the appearance of the development E is noise based on the direction of the vector V.

比較処理部16は、後述するように、位置的または時間的に連続する複数の断面画像Gのうち隣接する少なくとも2つの断面画像Gを比較可能な処理を行う。このようにすれば、複数の断面画像Gに基づいて欠陥Dの有無を判定するため、判定精度を向上させることができる。 As will be described later, the comparison processing unit 16 performs a process capable of comparing at least two adjacent cross-sectional images G among a plurality of positionally or temporally continuous cross-sectional images G. By doing so, since the presence or absence of the defect D is determined based on the plurality of cross-sectional images G, the determination accuracy can be improved.

自動判定部17は、後述するように、出現像Eが出現した原因を判定する処理を行う。このようにすれば、画像処理システム1が自動的に出現像Eの原因を判定することができる。 As will be described later, the automatic determination unit 17 performs a process of determining the cause of the appearance of the development E. In this way, the image processing system 1 can automatically determine the cause of the development E.

表示制御部18は、断面画像Gをディスプレイ5に表示させる処理を行う。また、ディスプレイ5に欠陥Dの有無の判定結果を表示させる制御を行う。さらに、その他の情報をディスプレイ5に表示させる制御を行っても良い。 The display control unit 18 performs a process of displaying the cross-sectional image G on the display 5. Further, the display 5 is controlled to display the determination result of the presence or absence of the defect D. Further, control for displaying other information on the display 5 may be performed.

この表示制御部18では、例えば、ディスプレイ5に表示される出現像EにベクトルVを重ねて表示する処理を行う。これによりユーザーが出現像Eが欠陥に起因するものかノイズに起因するものかを判定し易くなる。このようにすれば、人手により出現像Eの原因を判定することができる。 The display control unit 18 performs a process of superimposing the vector V on the development E displayed on the display 5, for example. This makes it easier for the user to determine whether the development E is due to a defect or noise. In this way, the cause of development E can be manually determined.

つまり、表示制御部18は、ディスプレイ5に表示される画像の制御を行う。なお、ディスプレイ5は、検査用コンピュータ3の本体と別体であっても良いし、一体であっても良い。さらに、ネットワークを介して接続される他のコンピュータが備えるディスプレイに表示される画像の制御を表示制御部18が行っても良い。 That is, the display control unit 18 controls the image displayed on the display 5. The display 5 may be separate from or integrated with the main body of the inspection computer 3. Further, the display control unit 18 may control the image displayed on the display of another computer connected via the network.

本実施形態の「出現像Eが出現した原因を判定可能な処理」には、表示制御部18により断面画像Gをディスプレイ5に表示する処理が含まれる。このディスプレイ5に表示された断面画像Gに基づいて、ユーザーの人手により出現像Eの出現原因を判定することができる。ユーザーは、自身が行った判定の結果を、入力操作部6を用いて入力することができる。 The "process capable of determining the cause of the appearance of the development E" of the present embodiment includes a process of displaying the cross-sectional image G on the display 5 by the display control unit 18. Based on the cross-sectional image G displayed on the display 5, the cause of the appearance of the development E can be determined manually by the user. The user can input the result of the determination made by himself / herself by using the input operation unit 6.

また、「位置的または時間的に連続する複数の断面画像Gのうち隣接する少なくとも2つの断面画像Gを比較可能な処理」には、表示制御部18により複数の断面画像Gを比較可能な態様でディスプレイ5に表示する処理が含まれる。このディスプレイ5に表示された断面画像Gに基づいて、ユーザーの人手により断面画像Gを比較することができる。 Further, in the "process in which at least two adjacent cross-sectional images G among a plurality of cross-sectional images G that are continuous in position or time can be compared", the display control unit 18 can compare the plurality of cross-sectional images G. The process of displaying on the display 5 is included. Based on the cross-sectional image G displayed on the display 5, the cross-sectional image G can be manually compared by the user.

なお、本実施形態では、表示装置としてディスプレイ5を例示するが、その他の態様であっても良い。例えば、紙媒体に情報を印字するプリンタをディスプレイ5の替りとして用いても良い。つまり、表示制御部18が制御する対象として、プリンタが含まれても良い。 In this embodiment, the display 5 is illustrated as the display device, but other modes may be used. For example, a printer that prints information on a paper medium may be used instead of the display 5. That is, a printer may be included as an object controlled by the display control unit 18.

本実施形態の検査用コンピュータ3は、CPU、ROM、RAM、HDDなどのハードウェア資源を有し、CPUが各種プログラムを実行することで、ソフトウェアによる情報処理がハードウェア資源を用いて実現されるコンピュータで構成される。さらに、本実施形態の画像処理方法は、各種プログラムをコンピュータに実行させることで実現される。 The inspection computer 3 of the present embodiment has hardware resources such as a CPU, ROM, RAM, and HDD, and when the CPU executes various programs, information processing by software is realized by using the hardware resources. It consists of a computer. Further, the image processing method of the present embodiment is realized by causing a computer to execute various programs.

次に、本実施形態の画像処理システム1を用いて実施される画像処理方法を図3から図23を参照して詳細に説明する。 Next, the image processing method implemented using the image processing system 1 of the present embodiment will be described in detail with reference to FIGS. 3 to 23.

図3に示すように、フェーズドアレイプローブ2では、複数の探触子4から同時に超音波Uを送信すると(同時励振)、対象物Qの表面から垂直方向に超音波Uが伝搬される。なお、フェーズドアレイプローブ2は、複数の探触子4から超音波Uを送信するタイミング(遅延時間)を変えることによって、超音波の入射角を変化させることができる。例えば、図9に示すように、複数の探触子4が並んだ順番に沿って超音波Uを順次送信すると(時間差励振)、対象物Qの表面から斜め方向に超音波Uが伝搬される。 As shown in FIG. 3, in the phased array probe 2, when ultrasonic waves U are simultaneously transmitted from a plurality of probes 4 (simultaneous excitation), the ultrasonic waves U are propagated in the vertical direction from the surface of the object Q. The phased array probe 2 can change the incident angle of ultrasonic waves by changing the timing (delay time) of transmitting ultrasonic waves U from a plurality of probes 4. For example, as shown in FIG. 9, when the ultrasonic waves U are sequentially transmitted in the order in which the plurality of probes 4 are arranged (time difference excitation), the ultrasonic waves U are propagated diagonally from the surface of the object Q. ..

なお、フェーズドアレイプローブ2を用いて取得される画像は、ピクセル画像(平面画像)でも良いし、ボクセル画像(立体画像)でも良い。以下の説明では、ピクセル画像としての断面画像Gを例示する。なお、対象物Qの断面画像Gとは、超音波Uの入射方向Nに対して垂直方向から見た場合の画像である。つまり、断面画像Gとは、対象物Qを超音波Uの入射部分に沿って仮想的に断面にした場合の画像である。 The image acquired by using the phased array probe 2 may be a pixel image (planar image) or a voxel image (stereoscopic image). In the following description, a cross-sectional image G as a pixel image will be illustrated. The cross-sectional image G of the object Q is an image when viewed from a direction perpendicular to the incident direction N of the ultrasonic wave U. That is, the cross-sectional image G is an image when the object Q is virtually cross-sectioned along the incident portion of the ultrasonic wave U.

図3、図5、図7は、対象物Qに対してフェーズドアレイプローブ2から超音波Uを垂直入射した場合に、欠陥Dでの超音波Uが反射または散乱する様子を示している。図9、図11は、対象物Qに対してフェーズドアレイプローブ2から超音波Uを射角入射した場合に欠陥Dでの超音波Uが反射または散乱する様子を示している。 FIGS. 3, 5, and 7 show how the ultrasonic wave U at the defect D is reflected or scattered when the ultrasonic wave U is vertically incident on the object Q from the phased array probe 2. 9 and 11 show how the ultrasonic wave U at the defect D is reflected or scattered when the ultrasonic wave U is incident on the object Q from the phased array probe 2 at an angle of incidence.

対象物Qの上面側にフェーズドアレイプローブ2を取り付けて超音波Uを送信し、その反射波を得ることで所定の範囲Rが画像化された断面画像G(図4、図6、図8、図10、図12)を生成することができる。断面画像Gには、欠陥Dと対象物Qの下面で超音波Uが反射することで、欠陥Dに起因する出現像Eと対象物Qの下面に起因する出現像Bとが現れる。 A cross-sectional image G (FIGS. 4, 6, 6, 8) in which a predetermined range R is imaged by attaching a phased array probe 2 to the upper surface side of the object Q, transmitting an ultrasonic wave U, and obtaining a reflected wave thereof. 10 and 12) can be generated. In the cross-sectional image G, the ultrasonic wave U is reflected by the defect D and the lower surface of the object Q, so that the development E caused by the defect D and the development B caused by the lower surface of the object Q appear.

図3に示すように、垂直入射の超音波Uの入射方向Nに対して欠陥D1の長軸方向が平行を成している場合には、所定の探触子4から送信された超音波Uが欠陥D1の上端で散乱する。また、その隣の探触子4から送信された超音波Uは、欠陥D1に当たらず、対象物Qの下面側で反射される。そのため、欠陥D1で散乱または反射し、フェーズドアレイプローブ2で受信される超音波Uの強度は弱く、この超音波Uに基づいて画像化される範囲Rの断面画像G(図4)に現れる出現像E1も弱く、小さいものとなる。 As shown in FIG. 3, when the major axis direction of the defect D1 is parallel to the incident direction N of the vertically incident ultrasonic wave U, the ultrasonic wave U transmitted from the predetermined probe 4 Is scattered at the upper end of the defect D1. Further, the ultrasonic wave U transmitted from the probe 4 next to it does not hit the defect D1 and is reflected on the lower surface side of the object Q. Therefore, the intensity of the ultrasonic wave U that is scattered or reflected by the defect D1 and is received by the phased array probe 2 is weak, and appears in the cross-sectional image G (FIG. 4) of the range R that is imaged based on the ultrasonic wave U. The image E1 is also weak and small.

図5に示すように、垂直入射の超音波Uの入射方向Nに対して欠陥D2の長軸方向が傾斜している場合には、欠陥D2に超音波Uが当たっても、その反射波がフェーズドアレイプローブ2の方に戻り難くなっている。例えば、欠陥D2が45°で傾いている場合には、フェーズドアレイプローブ2から送信された超音波Uは、その入射方向に対して直角に曲がって進行してしまう。そのため、この超音波Uに基づいて画像化される範囲Rの断面画像G(図6)に現れる出現像E2も弱く、小さいものとなる。例えば、欠陥D2の上端と下端で散乱された2つの小さな出現像E2が現れる。 As shown in FIG. 5, when the major axis direction of the defect D2 is inclined with respect to the incident direction N of the vertically incident ultrasonic wave U, even if the ultrasonic wave U hits the defect D2, the reflected wave is generated. It is difficult to return to the phased array probe 2. For example, when the defect D2 is tilted at 45 °, the ultrasonic wave U transmitted from the phased array probe 2 bends at a right angle to the incident direction and travels. Therefore, the development E2 appearing in the cross-sectional image G (FIG. 6) of the range R imaged based on the ultrasonic wave U is also weak and small. For example, two small undeveloped E2s appear scattered at the top and bottom of the defect D2.

図7に示すように、垂直入射の超音波Uの入射方向Nに対して欠陥D3の長軸方向が垂直を成している場合には、欠陥D3に当たった超音波Uの反射波がフェーズドアレイプローブ2の方に戻る。さらに、欠陥D2に所定の幅があれば、その幅の分だけ他の探触子4で送信した超音波Uの反射波が得られるようになる。そのため、この超音波Uに基づいて画像化される範囲Rの断面画像G(図8)に現れる出現像E3は、強く、大きいものとなる。 As shown in FIG. 7, when the major axis direction of the defect D3 is perpendicular to the incident direction N of the vertically incident ultrasonic wave U, the reflected wave of the ultrasonic wave U hitting the defect D3 is phased. Return to the array probe 2. Further, if the defect D2 has a predetermined width, the reflected wave of the ultrasonic wave U transmitted by the other probe 4 can be obtained by the width. Therefore, the development E3 appearing in the cross-sectional image G (FIG. 8) of the range R imaged based on the ultrasonic wave U is strong and large.

なお、図5、図7に示す欠陥D2,D3と同じ形状であっても、超音波Uの入射角度θ’を変えることで断面画像Gの出現像Eが変化する。 Even if the shape has the same shape as the defects D2 and D3 shown in FIGS. 5 and 7, the output development E of the cross-sectional image G changes by changing the incident angle θ'of the ultrasonic wave U.

図9に示すように、欠陥D2に対して垂直になるような角度で超音波Uを射角入射させると、欠陥D2に当たった超音波Uの反射波がフェーズドアレイプローブ2の方に戻る。そのため、この超音波Uに基づいて画像化される範囲Rの断面画像G(図10)に現れる出現像E4は、強く、大きいものとなる。出現像E4の向きも、実際の欠陥D2と同じ向きで強く現れる。 As shown in FIG. 9, when the ultrasonic wave U is incident at an angle perpendicular to the defect D2, the reflected wave of the ultrasonic wave U hitting the defect D2 returns to the phased array probe 2. Therefore, the development E4 appearing in the cross-sectional image G (FIG. 10) of the range R imaged based on the ultrasonic wave U is strong and large. The orientation of the output development E4 also appears strongly in the same orientation as the actual defect D2.

図11に示すように、射角入射であっても、超音波Uの入射方向Nに対して欠陥D3の長軸方向が傾斜している場合には、欠陥D2に超音波Uが当たっても、その反射波がフェーズドアレイプローブ2の方に戻り難くなる。そのため、この超音波Uに基づいて画像化される範囲Rの断面画像G(図12)に現れる出現像E5も弱く、小さいものとなる。 As shown in FIG. 11, even if the angle of incidence is incident, if the major axis direction of the defect D3 is inclined with respect to the incident direction N of the ultrasonic wave U, even if the ultrasonic wave U hits the defect D2. , It becomes difficult for the reflected wave to return to the phased array probe 2. Therefore, the development E5 appearing in the cross-sectional image G (FIG. 12) of the range R imaged based on the ultrasonic wave U is also weak and small.

このように、超音波Uの入射方向Nと欠陥Dの形状によって出現像Eの長軸方向、形状、強度が変化する。特に、出現像Eの長軸方向は、物理的に超音波Uの反射波が得られない方向を向いている場合に電気的なノイズなどの可能性があり、欠陥Dとノイズとの識別に有用な1つの特徴である。 In this way, the long axis direction, shape, and intensity of the developed development E change depending on the incident direction N of the ultrasonic wave U and the shape of the defect D. In particular, the long axis direction of the developed development E may be electrical noise or the like when the reflected wave of the ultrasonic wave U is physically oriented in a direction in which the reflected wave cannot be obtained. This is one useful feature.

そこで、本実施形態では、超音波Uの入射方向N(図17)と欠陥Dの長軸方向の向きによって超音波Uの反射特性が変わることに着目し、出現像Eの長軸方向の向きを表すベクトルV(図18)を利用して欠陥の有無の判定を行う。なお、本実施形態のベクトルVとは、ピクセル画像(平面画像)の場合は平面ベクトルのことであり、ボクセル画像(立体画像)の場合は空間ベクトルのことである。 Therefore, in the present embodiment, attention is paid to the fact that the reflection characteristic of the ultrasonic wave U changes depending on the incident direction N (FIG. 17) of the ultrasonic wave U and the direction of the defect D in the long axis direction, and the direction of the output development E in the long axis direction. The presence or absence of defects is determined using the vector V (FIG. 18) representing the above. The vector V of the present embodiment is a plane vector in the case of a pixel image (plane image) and a space vector in the case of a boxel image (stereoscopic image).

出現像抽出部11では、出現像Eの長軸方向を特定する際に、断面画像Gに含まれる出現像Eを抽出する処理を行う。例えば、出現像Eをバウンディングボックス19で囲う方法(図13)と、出現像Eのエッジを抽出する方法(図15)とがある。そして、ベクトル抽出部12では、出現像抽出部11にて抽出した出現像Eに基づいて、ベクトルV(図14、図16)を抽出する処理を行う。 The output development extraction unit 11 performs a process of extracting the output development E included in the cross-sectional image G when specifying the major axis direction of the output development E. For example, there are a method of surrounding the development E with a bounding box 19 (FIG. 13) and a method of extracting the edge of the development E (FIG. 15). Then, the vector extraction unit 12 performs a process of extracting the vector V (FIGS. 14 and 16) based on the output development E extracted by the output development extraction unit 11.

バウンディングボックス19を用いる場合には、図13に示すように、出現像抽出部11は、出現像Eが内接するようなバウンディングボックス19を生成し、このバウンディングボックス19により出現像Eを囲む処理を行う。 When the bounding box 19 is used, as shown in FIG. 13, the development extraction unit 11 generates a bounding box 19 in which the development E is inscribed, and the bounding box 19 surrounds the development E. Do.

図14に示すように、ベクトル抽出部12は、出現像Eの長軸方向の向きを特定するためのベクトルVを抽出する。例えば、出現像Eの抽出に使用したバウンディングボックス19の長辺L1と短辺L2とを特定する。そして、バウンディングボックス19の4つの頂点のうち、出現像Eが内接する部分に近い方の2つの頂点を、それぞれ始点T1と終点T2とするベクトルVを算出する。なお、2つの頂点(端二点)のうち、超音波Uの入射側に遠い方を始点T1とし、近い方を終点T2とする。 As shown in FIG. 14, the vector extraction unit 12 extracts the vector V for specifying the orientation of the development E in the long axis direction. For example, the long side L1 and the short side L2 of the bounding box 19 used for the extraction of the development E are specified. Then, among the four vertices of the bounding box 19, the vector V is calculated with the two vertices closer to the portion inscribed by the development E as the start point T1 and the end point T2, respectively. Of the two vertices (two ends), the one farther from the incident side of the ultrasonic wave U is set as the start point T1, and the closer one is set as the end point T2.

例えば、図14の紙面上方から超音波Uが入射されているとした場合に、フェーズドアレイプローブ2から離れている左下の頂点が始点T1、フェーズドアレイプローブ2に近い右上の頂点が終点T2となる。このようにして、始点T1から終点T2に向かうベクトルVが求められる。 For example, assuming that the ultrasonic wave U is incident from above the paper surface of FIG. 14, the lower left apex away from the phased array probe 2 is the start point T1, and the upper right apex near the phased array probe 2 is the end point T2. .. In this way, the vector V from the start point T1 to the end point T2 is obtained.

出現像Eのエッジを抽出する場合には、図15に示すように、出現像抽出部11は、出現像Eのエッジ20(輪郭)を抽出する処理を行う。例えば、画素値の変化勾配が閾値以上の部分をエッジ20としても良いし、その他の方法を用いても良い。 When extracting the edge of the output development E, as shown in FIG. 15, the output development extraction unit 11 performs a process of extracting the edge 20 (contour) of the output development E. For example, the portion where the change gradient of the pixel value is equal to or greater than the threshold value may be set as the edge 20, or another method may be used.

図16に示すように、ベクトル抽出部12は、出現像Eの長軸方向の向きを特定するためのベクトルVを抽出する。例えば、出現像Eの抽出に使用したエッジ20の長辺L1と短辺L2とを特定する。そして、エッジ20の長軸方向の端二点を、それぞれ始点T1と終点T2とするベクトルVを算出する。なお、端二点のうち、超音波Uの入射側に遠い方を始点T1とし、近い方を終点T2とする。 As shown in FIG. 16, the vector extraction unit 12 extracts the vector V for specifying the orientation of the development E in the long axis direction. For example, the long side L1 and the short side L2 of the edge 20 used for the extraction of the development E are specified. Then, a vector V is calculated in which the two end points of the edge 20 in the long axis direction are the start point T1 and the end point T2, respectively. Of the two end points, the one farther from the incident side of the ultrasonic wave U is set as the start point T1, and the closer one is set as the end point T2.

この抽出したエッジ20において、フェーズドアレイプローブ2から離れている端部が始点T1、フェーズドアレイプローブ2に近い端部が終点T2となる。このようにして、始点T1から終点T2に向かうベクトルVが求められる。 In the extracted edge 20, the end point away from the phased array probe 2 is the start point T1, and the end point close to the phased array probe 2 is the end point T2. In this way, the vector V from the start point T1 to the end point T2 is obtained.

表示制御部18は、ベクトル抽出部12が抽出したベクトルVを対応する出現像Eに重ね合せた態様でディスプレイ5に表示する。 The display control unit 18 displays the vector V extracted by the vector extraction unit 12 on the display 5 in a manner of superimposing it on the corresponding output development E.

図17に示すように、ノイズ判定部15は、超音波Uの入射方向Nに延びる仮想線KとベクトルVとのなす角θが0°〜30°の範囲である場合に、このベクトルV対応する出現像Eがノイズに起因するものであると判定する。このようにすれば、なす角θに基づいてノイズの判定が可能になる。 As shown in FIG. 17, the noise determination unit 15 corresponds to this vector V when the angle θ formed by the virtual line K extending in the incident direction N of the ultrasonic wave U and the vector V is in the range of 0 ° to 30 °. It is determined that the output development E to be performed is caused by noise. In this way, noise can be determined based on the angle θ formed.

例えば、縦波の超音波Uを使用して断面画像Gを取得した場合に、超音波Uの欠陥Dに対する入射角度θが30°以下であると、縦波の大部分が横波にモード変換されたり、反射した超音波Uがその入射側に戻らなかったりするため、縦波の反射強度が低下する。つまり、欠陥Dに起因するものであれば、殆ど超音波Uを反射しないようになる。そのため、前述のなす角θが0°〜30°の範囲となって現れる出現像Eは、欠陥Dに起因するものではなく、ノイズに起因するものであることが推定される。なお、判定に用いるなす角θは、超音波Uの入射方向Nに延びる仮想線KとベクトルVとの交点に生じる4つのなす角θのうち、小さい方のなす角(劣角)である。 For example, when the cross-sectional image G is acquired using the ultrasonic U of the longitudinal wave, if the incident angle θ with respect to the defect D of the ultrasonic U is 30 ° or less, most of the longitudinal wave is mode-converted to the transverse wave. Or, the reflected ultrasonic wave U does not return to the incident side, so that the reflection intensity of the longitudinal wave is lowered. That is, if it is caused by the defect D, the ultrasonic wave U is hardly reflected. Therefore, it is presumed that the undeveloped development E in which the above-mentioned angle θ formed in the range of 0 ° to 30 ° is not caused by the defect D but is caused by noise. The formed angle θ used for the determination is the smaller of the four formed angles θ formed at the intersection of the virtual line K extending in the incident direction N of the ultrasonic wave U and the vector V (inferior angle).

また、自動判定部17は、超音波Uの入射方向Nに延びる仮想線KとベクトルVとのなす角θが30°〜90°の範囲であり、特定の閾値以上の強度を有する場合に、このベクトルV対応する出現像Eが欠陥Dに起因するものであると判定する。 Further, the automatic determination unit 17 determines that the angle θ formed by the virtual line K extending in the incident direction N of the ultrasonic wave U and the vector V is in the range of 30 ° to 90 ° and has an intensity equal to or higher than a specific threshold value. It is determined that the output development E corresponding to this vector V is caused by the defect D.

なお、表示制御部18は、超音波Uの入射方向Nに延びる仮想線Kをディスプレイ5に表示しても良い。そして、ディスプレイ5に表示された仮想線Kに基づいて、ユーザーの人手により出現像Eの出現原因を判定しても良い。また、表示制御部18は、判定に用いるなす角θの数値をディスプレイ5に表示しても良い。 The display control unit 18 may display the virtual line K extending in the incident direction N of the ultrasonic wave U on the display 5. Then, the cause of the appearance of the development E may be manually determined by the user based on the virtual line K displayed on the display 5. Further, the display control unit 18 may display the numerical value of the angle θ used for the determination on the display 5.

図18に示すように、断面画像Gに複数の出現像Eが現れている場合には、これら出現像EのそれぞれのベクトルVを抽出する。そして、ベクトルVに基づいて出現像Eが、欠陥Dに起因するものか、ノイズに起因するものかを判定する。例えば、ディスプレイ5に断面画像Gを表示する場合に、判定に基づく判定後画像処理を行う。 As shown in FIG. 18, when a plurality of development Es appear in the cross-sectional image G, each vector V of these developments E is extracted. Then, based on the vector V, it is determined whether the development E is caused by the defect D or the noise. For example, when displaying the cross-sectional image G on the display 5, post-determination image processing based on the determination is performed.

ノイズ判定部15は、例えば、ノイズに起因する出現像E6と、欠陥Dに起因する出現像E7とが、断面画像Gに現れている場合に、ベクトルVの向きに基づいて、ノイズに起因する出現像E6を特定する。 The noise determination unit 15 causes noise based on the direction of the vector V, for example, when the development E6 caused by noise and the development E7 caused by defect D appear in the cross-sectional image G. The output development E6 is specified.

表示制御部18は、例えば、図19に示すように、欠陥Dに起因する出現像E7を削除してノイズに起因する出現像E6を残す処理を断面画像Gに施しても良い。また、図20に示すように、欠陥Dに起因する出現像E7を残してノイズに起因する出現像E6を削除する処理を断面画像Gに施しても良い。また、図21に示すように、ノイズに起因する出現像E6を強調表示する処理を断面画像Gに施しても良い。 For example, as shown in FIG. 19, the display control unit 18 may perform a process of deleting the output development E7 caused by the defect D and leaving the output development E6 caused by noise on the cross-sectional image G. Further, as shown in FIG. 20, the cross-sectional image G may be subjected to a process of removing the output development E6 caused by noise while leaving the output development E7 caused by the defect D. Further, as shown in FIG. 21, the cross-sectional image G may be subjected to a process of highlighting the development E6 caused by noise.

これらの処理を行うことで、欠陥Dに起因する出現像E7を認識し易くなる。また、ノイズまたは所定の形状に起因する出現像E6を削除することで視認性を向上できる。 By performing these processes, it becomes easier to recognize the development E7 caused by the defect D. Further, the visibility can be improved by removing the development E6 caused by noise or a predetermined shape.

図22に示すように、対象物Qの表面に沿ってフェーズドアレイプローブ2を走査した場合には、走査方向Wに沿って並ぶ複数の断面画像Gが得られる。ここで、比較処理部16は、位置的に連続する複数の断面画像Gのうち隣接する断面画像Gを比較可能な処理を行う。 As shown in FIG. 22, when the phased array probe 2 is scanned along the surface of the object Q, a plurality of cross-sectional images G arranged along the scanning direction W are obtained. Here, the comparison processing unit 16 performs processing capable of comparing adjacent cross-sectional images G among a plurality of positionally continuous cross-sectional images G.

ベクトル抽出部12で抽出された出現像EのベクトルVの大きさは、出現像Eの元となる欠陥Dの大きさを表す。例えば、対象物Qの溶接線21の検査において、フェーズドアレイプローブ2を走査した場合に、対象物Qにおける位置P〜Pに亘って連続的に取得される複数の断面画像Gが得られる。なお、図22における位置P〜Pは、走査方向Wに並んだ位置を示す。 The size of the vector V of the output development E extracted by the vector extraction unit 12 represents the size of the defect D that is the source of the output development E. For example, in the inspection of the weld line 21 of the object Q, when scanned phased array probe 2, a plurality of cross-sectional images G that are sequentially acquired over the position P 1 to P N in the object Q is obtained .. The position P 1 to P N in FIG. 22 shows the positions arranged in the scanning direction W.

図23(A)は、位置Pn−1に対応する断面画像Gの出現像E8を示す。図23(B)は、位置Pに対応する断面画像Gの出現像E9を示す。図23(C)は、位置Pn+1に対応する断面画像Gの出現像E10を示す。なお、図23における位置Cは、走査方向Wに対して直角を成す方向の所定の位置を示す。 FIG. 23 (A) shows the output development E8 of the cross-sectional image G corresponding to the position P n-1. FIG. 23B shows the output development E9 of the cross-sectional image G corresponding to the position Pn. FIG. 23C shows the development E10 of the cross-sectional image G corresponding to the position P n + 1. The position C in FIG. 23 indicates a predetermined position in a direction perpendicular to the scanning direction W.

例えば、位置Pに対応する断面画像Gに現れた出現像E9に対してベクトルVを求めると、出現像E9の長軸方向の向きと大きさが分かる(図23(B))。この断面画像Gに対して位置的に前後する断面画像G(図23(A)および図23(C))において、同じ位置Cに出現像E8,E10がある場合に、同じ欠陥Dに起因するものであることが推定される。 For example, when the vector V is obtained for the output development E9 appearing in the cross-sectional image G corresponding to the position Pn , the orientation and size of the output development E9 in the long axis direction can be found (FIG. 23 (B)). In the cross-sectional images G (FIGS. 23 (A) and 23 (C)) that are positioned before and after the cross-sectional image G, when the developed developments E8 and E10 are located at the same position C, the defect D is caused. It is presumed to be a thing.

特に、位置Pn−1から位置Pn+1まで連続して広がっている欠陥Dの場合は、その位置が大きく変化せず、出現像E8,E9,E10のベクトルVは、互いに交差するようになる。その場合には、出現像E8,E9,E10が欠陥Dに起因するものであると判定することができる。一方、位置Pn−1から位置Pn+1まで連続して広がっている欠陥Dの位置が大きく変化している、または、ベクトルVが互いに交差していないような場合には、出現像E8,E9,E10がノイズに起因するものであると判定することができる。 In particular, in the case of the defect D that continuously extends from the position P n-1 to the position P n + 1 , the position does not change significantly, and the vectors V of the developed developments E8, E9, and E10 intersect with each other. .. In that case, it can be determined that the developments E8, E9, and E10 are caused by the defect D. On the other hand, if the positions of the defects D that continuously extend from the position P n-1 to the position P n + 1 have changed significantly, or if the vectors V do not intersect each other, the developments E8 and E9 , E10 can be determined to be due to noise.

一般的に、亀裂のような位置的に連続して広がっている欠陥Dの大きさは、その位置によって変化するため、ベクトルVの大きさも前後の断面画像Gで変化し得る。この前後の断面画像のベクトルVの情報を記録し、連続する断面画像Gとの変化を見ることで、出現像Eの元となる反射源の特性を知ることができる。 In general, the size of the defect D that continuously spreads in a position such as a crack changes depending on the position, so that the size of the vector V can also change in the front and rear cross-sectional images G. By recording the information of the vector V of the cross-sectional images before and after this and observing the change from the continuous cross-sectional image G, it is possible to know the characteristics of the reflection source that is the source of the development E.

これら連続する断面画像Gの比較に基づいて出現像Eが出現した原因を判定することができる。この判定は、自動判定部17による自動的な処理で行っても良いし、ディスプレイ5に表示される断面画像Gを視認するユーザーの人手で行っても良い。 The cause of the appearance of the development E can be determined based on the comparison of these continuous cross-sectional images G. This determination may be performed by automatic processing by the automatic determination unit 17, or may be performed manually by a user who visually recognizes the cross-sectional image G displayed on the display 5.

なお、ベクトルVを記録する際には、断面画像Gの座標と対応したデータとして記録したり、断面画像GにベクトルVの変化の軌跡を描画したりするなどの記録手法を用いても良い。 When recording the vector V, a recording method such as recording as data corresponding to the coordinates of the cross-sectional image G or drawing a locus of change of the vector V on the cross-sectional image G may be used.

なお、本実施形態では、位置的に連続する複数の断面画像Gのうち隣接する断面画像Gを比較して出現像Eの出現原因の判定をしているが、その他の態様であっても良い。例えば、ボクセル画像(立体画像)を用いて判定を行う場合には、時間的に連続して取得された複数のボクセル画像のうち隣接するボクセル画像を比較して出現像Eの出現原因の判定をしても良い。 In the present embodiment, the cause of the appearance of the development E is determined by comparing the adjacent cross-sectional images G among the plurality of positionally continuous cross-sectional images G, but other embodiments may be used. .. For example, when making a judgment using a voxel image (stereoscopic image), the cause of appearance of development E is determined by comparing adjacent voxel images among a plurality of voxel images acquired continuously in time. You may.

次に、画像処理システム1が実行する画像処理方法について図24のフローチャートを用いて説明する。なお、図2に示すブロック図を適宜参照する。 Next, the image processing method executed by the image processing system 1 will be described with reference to the flowchart of FIG. The block diagram shown in FIG. 2 will be referred to as appropriate.

まず、ステップS11において、画像取得部10は、フェーズドアレイプローブ2により取得した情報に基づいて、断面画像Gを取得する。 First, in step S11, the image acquisition unit 10 acquires the cross-sectional image G based on the information acquired by the phased array probe 2.

次のステップS12において、出現像抽出部11は、対象物Qが有する状態に応じて断面画像Gに出現する出現像E(図18)を抽出する。 In the next step S12, the development extraction unit 11 extracts the development E (FIG. 18) that appears in the cross-sectional image G according to the state of the object Q.

次のステップS13において、ベクトル抽出部12は、出現像Eの長軸方向の端二点を始点T1と終点T2とするベクトルVを抽出する(図13から図16)。 In the next step S13, the vector extraction unit 12 extracts the vector V having the two end points in the long axis direction of the development E as the start point T1 and the end point T2 (FIGS. 13 to 16).

次のステップS14において、表示制御部18は、画像表示処理を実行する。この画像表示処理により断面画像Gがディスプレイ5に表示される。ここで、表示制御部18は、ベクトル抽出部12が抽出したベクトルVを対応する出現像Eに重ね合せた態様でディスプレイ5に表示する。 In the next step S14, the display control unit 18 executes the image display process. By this image display processing, the cross-sectional image G is displayed on the display 5. Here, the display control unit 18 displays the vector V extracted by the vector extraction unit 12 on the display 5 in a manner of superimposing it on the corresponding output development E.

次のステップS15において、判定処理部13の自動判定部17は、ベクトルVの向きに基づいて、出現像Eが欠陥Dに起因するものであるか否かの判定を行う。なお、ディスプレイ5に表示された断面画像Gに基づいて、ユーザーの人手により出現像Eが欠陥Dに起因するものであるか否かの判定を行っても良い。 In the next step S15, the automatic determination unit 17 of the determination processing unit 13 determines whether or not the development E is caused by the defect D based on the direction of the vector V. It should be noted that, based on the cross-sectional image G displayed on the display 5, it may be manually determined by the user whether or not the development E is caused by the defect D.

次のステップS16において、判定処理部13の自動判定部17は、ベクトルVの向きに基づいて、出現像Eがノイズに起因するものであるか否かの判定を行う。なお、ディスプレイ5に表示された断面画像Gに基づいて、ユーザーの人手により出現像Eがノイズに起因するものであるか否かの判定を行っても良い。 In the next step S16, the automatic determination unit 17 of the determination processing unit 13 determines whether or not the development E is caused by noise based on the direction of the vector V. It should be noted that, based on the cross-sectional image G displayed on the display 5, it may be manually determined by the user whether or not the development E is caused by noise.

次のステップS17において、比較処理部16は、画像比較処理を実行する。この画像比較処理により、位置的または時間的に連続する複数の断面画像Gのうち隣接する断面画像Gの比較が行われる。 In the next step S17, the comparison processing unit 16 executes the image comparison processing. By this image comparison processing, the adjacent cross-sectional images G among the plurality of cross-sectional images G that are continuous in position or time are compared.

次のステップS18において、判定処理部13の自動判定部17は、複数の断面画像Gの比較に基づいて、出現像Eが欠陥Dに起因するものであるか否かの判定を行う。なお、ディスプレイ5に表示された複数の画像をユーザーが比較し、出現像Eが欠陥Dに起因するものであるか否かの判定を行っても良い。 In the next step S18, the automatic determination unit 17 of the determination processing unit 13 determines whether or not the development E is caused by the defect D based on the comparison of the plurality of cross-sectional images G. The user may compare a plurality of images displayed on the display 5 and determine whether or not the development E is caused by the defect D.

次のステップS19において、判定処理部13の自動判定部17は、複数の断面画像Gの比較に基づいて、出現像Eがノイズに起因するものであるか否かの判定を行う。なお、ディスプレイ5に表示された複数の画像をユーザーが比較し、出現像Eがノイズに起因するものであるか否かの判定を行っても良い。 In the next step S19, the automatic determination unit 17 of the determination processing unit 13 determines whether or not the development E is caused by noise based on the comparison of the plurality of cross-sectional images G. The user may compare a plurality of images displayed on the display 5 and determine whether or not the development E is caused by noise.

次のステップS20において、表示制御部18は、判定後画像処理を実行する。この判定後画像処理では、判定結果に基づいて、断面画像Gの表示を更新する。例えば、欠陥Dに起因する出現像E7を削除してノイズに起因する出現像E6を残す処理を行う(図19)。欠陥Dに起因する出現像E7を残してノイズに起因する出現像E6を削除する処理を行う(図20)。ノイズに起因する出現像E6を強調表示する処理を行う(図21)。そして、処理を終了する。 In the next step S20, the display control unit 18 executes image processing after the determination. In this post-determination image processing, the display of the cross-sectional image G is updated based on the determination result. For example, a process is performed in which the output development E7 caused by the defect D is deleted and the output development E6 caused by noise is left (FIG. 19). A process of deleting the output development E6 caused by noise is performed while leaving the output development E7 caused by the defect D (FIG. 20). A process of highlighting the output development E6 caused by noise is performed (FIG. 21). Then, the process ends.

なお、本実施形態のフローチャートにおいて、各ステップが直列に実行される形態を例示しているが、必ずしも各ステップの前後関係が固定されるものでなく、一部のステップの前後関係が入れ替わっても良い。また、一部のステップが他のステップと並列に実行されても良い。 Although the flowchart of the present embodiment illustrates a mode in which each step is executed in series, the context of each step is not necessarily fixed, and even if the context of some steps is exchanged. good. Also, some steps may be executed in parallel with other steps.

なお、検査用コンピュータ3には、機械学習を行う人工知能(AI:Artificial Intelligence)を備えるコンピュータが含まれても良い。そして、人工知能が断面画像Gに出現像Eが出現した原因を判定しても良い。また、検査用コンピュータ3には、深層学習に基づいて、複数のパターンから特定のパターンを抽出する深層学習部が含まれても良い。 The inspection computer 3 may include a computer having artificial intelligence (AI) for performing machine learning. Then, the artificial intelligence may determine the cause of the development E appearing in the cross-sectional image G. Further, the inspection computer 3 may include a deep learning unit that extracts a specific pattern from a plurality of patterns based on deep learning.

本実施形態のコンピュータを用いた解析には、人工知能の学習に基づく解析技術を用いることができる。例えば、ニューラルネットワークによる機械学習により生成された学習モデル、その他の機械学習により生成された学習モデル、深層学習アルゴリズム、回帰分析などの数学的アルゴリズムを用いることができる。また、機械学習の形態には、クラスタリング、深層学習などの形態が含まれる。 For the analysis using the computer of the present embodiment, an analysis technique based on learning of artificial intelligence can be used. For example, a learning model generated by machine learning by a neural network, another learning model generated by machine learning, a deep learning algorithm, a mathematical algorithm such as regression analysis can be used. Further, the form of machine learning includes forms such as clustering and deep learning.

本実施形態のシステムは、機械学習を行う人工知能を備えるコンピュータを含む。例えば、ニューラルネットワークを備える1台のコンピュータでシステムを構成しても良いし、ニューラルネットワークを備える複数台のコンピュータでシステムを構成しても良い。 The system of this embodiment includes a computer having artificial intelligence that performs machine learning. For example, the system may be configured by one computer provided with a neural network, or the system may be configured by a plurality of computers provided with a neural network.

ここで、ニューラルネットワークとは、脳機能の特性をコンピュータによるシミュレーションによって表現した数学モデルである。例えば、シナプスの結合によりネットワークを形成した人工ニューロン(ノード)が、学習によってシナプスの結合強度を変化させ、問題解決能力を持つようになるモデルを示す。さらに、ニューラルネットワークは、深層学習(Deep Learning)により問題解決能力を取得する。 Here, the neural network is a mathematical model that expresses the characteristics of brain function by computer simulation. For example, we show a model in which artificial neurons (nodes) that form a network by synaptic connection change the synaptic connection strength by learning and have problem-solving ability. In addition, neural networks acquire problem-solving abilities through deep learning.

例えば、ニューラルネットワークには、6層のレイヤーを有する中間層が設けられる。この中間層の各レイヤーは、300個のユニットで構成されている。また、多層のニューラルネットワークに学習用データを用いて予め学ばせておくことで、回路またはシステムの状態の変化のパターンの中にある特徴量を自動で抽出することができる。なお、多層のニューラルネットワークは、ユーザインターフェース上で、任意の中間層数、任意のユニット数、任意の学習率、任意の学習回数、任意の活性化関数を設定することができる。 For example, a neural network is provided with an intermediate layer having six layers. Each layer of this intermediate layer is composed of 300 units. In addition, by having a multi-layer neural network learn in advance using learning data, it is possible to automatically extract features in a pattern of changes in the state of a circuit or system. In the multi-layer neural network, an arbitrary number of intermediate layers, an arbitrary number of units, an arbitrary learning rate, an arbitrary number of learning times, and an arbitrary activation function can be set on the user interface.

なお、学習対象となる各種情報項目に報酬関数が設定されるとともに、報酬関数に基づいて価値が最も高い情報項目が抽出される深層強化学習をニューラルネットワークに用いても良い。 A reward function may be set for various information items to be learned, and deep reinforcement learning for extracting the information item having the highest value based on the reward function may be used for the neural network.

例えば、画像認識で実績のあるCNN(Convolution Neural Network)を用いる。このCNNでは、中間層が畳み込み層とプーリング層で構成される。畳み込み層は、前の層で近くにあるノードにフィルタ処理を施すことで特徴マップを取得する。プーリング層は、畳込み層から出力された特徴マップを、さらに縮小して新たな特徴マップとする。この際に特徴マップにおいて着目する領域に含まれる画素の最大値を得ることで、特徴量の位置の多少のずれも吸収することができる。 For example, CNN (Convolution Neural Network), which has a proven track record in image recognition, is used. In this CNN, the intermediate layer is composed of a convolutional layer and a pooling layer. The convolution layer acquires a feature map by filtering nearby nodes in the previous layer. The pooling layer further reduces the feature map output from the convolutional layer into a new feature map. At this time, by obtaining the maximum value of the pixels included in the region of interest in the feature map, it is possible to absorb a slight deviation in the position of the feature amount.

畳み込み層は、画像の局所的な特徴を抽出し、プーリング層は、局所的な特徴をまとめる処理を行う。これらの処理では、入力画像の特徴を維持しながら画像を縮小処理する。つまり、CNNでは、画像の持つ情報量を大幅に圧縮(抽象化)することができる。そして、ニューラルネットワークに記憶された抽象化された画像イメージを用いて、入力される画像を認識し、画像の分類を行うことができる。 The convolution layer extracts the local features of the image, and the pooling layer performs a process of summarizing the local features. In these processes, the image is reduced while maintaining the characteristics of the input image. That is, in CNN, the amount of information contained in the image can be significantly compressed (abstracted). Then, using the abstracted image stored in the neural network, the input image can be recognized and the image can be classified.

なお、深層学習には、オートエンコーダ、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)、GAN(Generative Adversarial Network)などの各種手法がある。これらの手法を本実施形態の深層学習に適用しても良い。 There are various methods for deep learning such as autoencoder, RNN (Recurrent Neural Network), RSTM (Long Short-Term Memory), and GAN (Generative Adversarial Network). These methods may be applied to the deep learning of the present embodiment.

本実施形態のシステムは、専用のチップ、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)、またはCPU(Central Processing Unit)などのプロセッサを高集積化させた制御装置と、ROM(Read Only Memory)またはRAM(Random Access Memory)などの記憶装置と、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などの外部記憶装置と、ディスプレイなどの表示装置と、マウスまたはキーボードなどの入力装置と、通信インターフェースとを備える。このシステムは、通常のコンピュータを利用したハードウェア構成で実現できる。 The system of this embodiment includes a control device in which a dedicated chip, a controller such as an FPGA (Field Programmable Gate Array), a GPU (Graphics Processing Unit), or a CPU (Central Processing Unit) is highly integrated, and a ROM (Read Only). Storage devices such as Memory) or RAM (Random Access Memory), external storage devices such as HDD (Hard Disk Drive) or SSD (Solid State Drive), display devices such as displays, and input devices such as mice or keyboards. , With a communication interface. This system can be realized by a hardware configuration using a normal computer.

なお、本実施形態のシステムで実行されるプログラムは、ROMなどに予め組み込んで提供される。もしくは、このプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)などのコンピュータで読み取り可能な非一過性の記憶媒体に記憶されて提供するようにしても良い。 The program executed by the system of the present embodiment is provided by incorporating it into a ROM or the like in advance. Alternatively, the program may be a computer-readable, non-transient storage medium such as a CD-ROM, CD-R, memory card, DVD, or flexible disk (FD) with a file in an installable or executable format. It may be stored and provided in.

また、このシステムで実行されるプログラムは、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせて提供するようにしても良い。また、このシステムは、構成要素の各機能を独立して発揮する別々のモジュールを、ネットワークまたは専用線で相互に接続し、組み合わせて構成することもできる。 Further, the program executed by this system may be stored on a computer connected to a network such as the Internet, and may be downloaded and provided via the network. The system can also be configured by connecting separate modules that independently perform the functions of the components to each other via a network or a dedicated line, and combining them.

以上説明した実施形態によれば、出現像の長軸方向の端二点を始点と終点とするベクトルを抽出するベクトル抽出部を備えることにより、超音波検査の画像に基づいて欠陥の有無を判定する精度を向上させることができる。 According to the embodiment described above, the presence or absence of defects is determined based on the image of the ultrasonic inspection by providing the vector extraction unit that extracts the vector whose start point and end point are the two end points in the long axis direction of output development. It is possible to improve the accuracy of the extraction.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, changes, and combinations can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, as well as in the scope of the invention described in the claims and the equivalent scope thereof.

1…画像処理システム、2…フェーズドアレイプローブ、3…検査用コンピュータ、4…探触子、5…ディスプレイ、6…入力操作部、7…記憶部、8…通信部、9…メイン制御部、10…画像取得部、11…出現像抽出部、12…ベクトル抽出部、13…判定処理部、14…欠陥判定部、15…ノイズ判定部、16…比較処理部、17…自動判定部、18…表示制御部、19…バウンディングボックス、20…エッジ、21…溶接線、B…出現像、C…位置、D(D1〜3)…欠陥、E(E1〜10)…出現像、G…断面画像、K…仮想線、L1…長辺、L2…短辺、N…入射方向、P…位置、Q…対象物、R…画像化される範囲、T1…始点、T2…終点、U…超音波、V…ベクトル、W…走査方向。 1 ... image processing system, 2 ... phased array probe, 3 ... inspection computer, 4 ... probe, 5 ... display, 6 ... input operation unit, 7 ... storage unit, 8 ... communication unit, 9 ... main control unit, 10 ... Image acquisition unit, 11 ... Output development extraction unit, 12 ... Vector extraction unit, 13 ... Judgment processing unit, 14 ... Defect judgment unit, 15 ... Noise judgment unit, 16 ... Comparison processing unit, 17 ... Automatic judgment unit, 18 ... Display control unit, 19 ... Bounding box, 20 ... Edge, 21 ... Welding line, B ... Image development, C ... Position, D (D1-3) ... Defects, E (E1-10) ... Output development, G ... Cross section Image, K ... virtual line, L1 ... long side, L2 ... short side, N ... incident direction, P ... position, Q ... object, R ... imaged range, T1 ... start point, T2 ... end point, U ... super Sound wave, V ... vector, W ... scanning direction.

Claims (8)

検査の対象となる対象物に超音波を送信して前記超音波の反射に基づいて画像を取得する画像取得部と、
前記対象物が有する状態に応じて前記画像に出現する出現像を抽出する出現像抽出部と、
前記出現像の長軸方向の端二点を始点と終点とするベクトルを抽出するベクトル抽出部と、
前記ベクトルに基づいて、前記出現像が出現した原因を判定可能な処理を行う判定処理部と、
を備える、
画像処理システム。
An image acquisition unit that transmits ultrasonic waves to an object to be inspected and acquires an image based on the reflection of the ultrasonic waves.
A development extraction unit that extracts output development that appears in the image according to the state of the object, and a development extraction unit.
A vector extraction unit that extracts a vector having two end points in the long axis direction of development and development as a start point and an end point,
A determination processing unit that performs processing capable of determining the cause of the appearance of development based on the vector, and a determination processing unit.
To prepare
Image processing system.
前記判定処理部は、前記超音波の入射方向と前記ベクトルの向きとを比較し、前記出現像が出現した原因が欠陥であるか否かを判定する欠陥判定部を備える、
請求項1に記載の画像処理システム。
The determination processing unit includes a defect determination unit that compares the incident direction of the ultrasonic wave with the direction of the vector and determines whether or not the cause of the appearance of the development is a defect.
The image processing system according to claim 1.
前記判定処理部は、前記超音波の入射方向と前記ベクトルの向きとを比較し、前記出現像が出現した原因がノイズであるか否かを判定するノイズ判定部を備える、
請求項1または請求項2に記載の画像処理システム。
The determination processing unit includes a noise determination unit that compares the incident direction of the ultrasonic wave with the direction of the vector and determines whether or not the cause of the appearance of the development is noise.
The image processing system according to claim 1 or 2.
前記ノイズ判定部は、前記超音波の入射方向に延びる仮想線と前記ベクトルとのなす角が0°〜30°の範囲である場合に前記ノイズであると判定する、
請求項3に記載の画像処理システム。
The noise determination unit determines that the noise is when the angle formed by the virtual line extending in the incident direction of the ultrasonic wave and the vector is in the range of 0 ° to 30 °.
The image processing system according to claim 3.
前記画像が前記対象物の断面画像であり、
前記判定処理部は、連続する複数の前記断面画像のうち隣接する少なくとも2つの前記断面画像を比較可能な処理を行う比較処理部を備える、
請求項1から請求項4のいずれか1項に記載の画像処理システム。
The image is a cross-sectional image of the object,
The determination processing unit includes a comparison processing unit that performs processing capable of comparing at least two adjacent cross-sectional images among a plurality of continuous cross-sectional images.
The image processing system according to any one of claims 1 to 4.
前記判定処理部は、前記出現像が出現した原因を判定する処理を行う自動判定部を備える、
請求項1から請求項5のいずれか1項に記載の画像処理システム。
The determination processing unit includes an automatic determination unit that performs processing for determining the cause of the appearance of development.
The image processing system according to any one of claims 1 to 5.
前記判定処理部は、ディスプレイに表示される前記出現像に前記ベクトルを重ねて表示する処理を行う表示制御部を備える、
請求項1から請求項6のいずれか1項に記載の画像処理システム。
The determination processing unit includes a display control unit that performs a process of superimposing the vector on the output development displayed on the display.
The image processing system according to any one of claims 1 to 6.
検査の対象となる対象物に超音波を送信して前記超音波の反射に基づいて画像を取得するステップと、
前記対象物が有する状態に応じて前記画像に出現する出現像を抽出するステップと、
前記出現像の長軸方向の端二点を始点と終点とするベクトルを抽出するステップと、
前記ベクトルに基づいて、前記出現像が出現した原因を判定可能な処理を行うステップと、
を含む、
画像処理方法。
A step of transmitting ultrasonic waves to an object to be inspected and acquiring an image based on the reflection of the ultrasonic waves, and
A step of extracting the output development appearing in the image according to the state of the object, and
A step of extracting a vector having two end points in the long axis direction of development and development as a start point and an end point,
A step of performing a process capable of determining the cause of the appearance of the development based on the vector, and
including,
Image processing method.
JP2019200026A 2019-11-01 2019-11-01 Image processing system and image processing method Pending JP2021072048A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019200026A JP2021072048A (en) 2019-11-01 2019-11-01 Image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019200026A JP2021072048A (en) 2019-11-01 2019-11-01 Image processing system and image processing method

Publications (1)

Publication Number Publication Date
JP2021072048A true JP2021072048A (en) 2021-05-06

Family

ID=75713261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019200026A Pending JP2021072048A (en) 2019-11-01 2019-11-01 Image processing system and image processing method

Country Status (1)

Country Link
JP (1) JP2021072048A (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005156305A (en) * 2003-11-25 2005-06-16 Daido Steel Co Ltd Evaluation method of internal defect
JP2005274444A (en) * 2004-03-25 2005-10-06 Toshiba Corp Ultrasonic flaw detection image processor, and processing method therefor
JP2007298326A (en) * 2006-04-28 2007-11-15 Mitsubishi Heavy Ind Ltd Processing method and device of ultrasonic flaw detection data, and flaw detection data processing program
JP2008122187A (en) * 2006-11-10 2008-05-29 Mitsubishi Heavy Ind Ltd Ultrasonic flaw detector, ultrasonic flaw detection method and program
JP2009236794A (en) * 2008-03-28 2009-10-15 Sumitomo Metal Ind Ltd Ultrasonic flaw detecting method and device of pipe
JP2010527015A (en) * 2007-05-15 2010-08-05 シーメンス アクチエンゲゼルシヤフト Nondestructive material inspection method and apparatus for inspection object using ultrasonic wave
JP2010243375A (en) * 2009-04-08 2010-10-28 National Maritime Research Institute Extended crack detection method, apparatus, and program
JP2011141123A (en) * 2010-01-05 2011-07-21 Hitachi-Ge Nuclear Energy Ltd Ultrasonic inspection method and ultrasonic inspection device
JP2013242162A (en) * 2012-05-17 2013-12-05 Toshiba Corp Ultrasonic flaw detection device and method
JP2014149156A (en) * 2013-01-31 2014-08-21 Hitachi Ltd Method and device for ultrasonography
JP2018139685A (en) * 2017-02-27 2018-09-13 セイコーエプソン株式会社 Ultrasonic image processing device and ultrasonic image processing method

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005156305A (en) * 2003-11-25 2005-06-16 Daido Steel Co Ltd Evaluation method of internal defect
JP2005274444A (en) * 2004-03-25 2005-10-06 Toshiba Corp Ultrasonic flaw detection image processor, and processing method therefor
JP2007298326A (en) * 2006-04-28 2007-11-15 Mitsubishi Heavy Ind Ltd Processing method and device of ultrasonic flaw detection data, and flaw detection data processing program
JP2008122187A (en) * 2006-11-10 2008-05-29 Mitsubishi Heavy Ind Ltd Ultrasonic flaw detector, ultrasonic flaw detection method and program
JP2010527015A (en) * 2007-05-15 2010-08-05 シーメンス アクチエンゲゼルシヤフト Nondestructive material inspection method and apparatus for inspection object using ultrasonic wave
JP2009236794A (en) * 2008-03-28 2009-10-15 Sumitomo Metal Ind Ltd Ultrasonic flaw detecting method and device of pipe
JP2010243375A (en) * 2009-04-08 2010-10-28 National Maritime Research Institute Extended crack detection method, apparatus, and program
JP2011141123A (en) * 2010-01-05 2011-07-21 Hitachi-Ge Nuclear Energy Ltd Ultrasonic inspection method and ultrasonic inspection device
JP2013242162A (en) * 2012-05-17 2013-12-05 Toshiba Corp Ultrasonic flaw detection device and method
JP2014149156A (en) * 2013-01-31 2014-08-21 Hitachi Ltd Method and device for ultrasonography
JP2018139685A (en) * 2017-02-27 2018-09-13 セイコーエプソン株式会社 Ultrasonic image processing device and ultrasonic image processing method

Similar Documents

Publication Publication Date Title
JP6874846B2 (en) Defect detection using ultrasonic scan data
Ijjeh et al. Full wavefield processing by using FCN for delamination detection
Posilović et al. Flaw detection from ultrasonic images using YOLO and SSD
US9207639B2 (en) Transforming A-scan data samples into a three-dimensional space for facilitating visualization of flaws
Latête et al. Towards using convolutional neural network to locate, identify and size defects in phased array ultrasonic testing
Gantala et al. Automated defect recognition for welds using simulation assisted TFM imaging with artificial intelligence
CN114359193B (en) Defect classification method and system based on ultrasonic phased array imaging
Posilović et al. Generative adversarial network with object detector discriminator for enhanced defect detection on ultrasonic B-scans
Saini et al. Optimisation of the half-skip total focusing method (HSTFM) parameters for sizing surface-breaking cracks
WO2021039483A1 (en) Ultrasonic testing device and ultrasonic testing method
JP7081196B2 (en) Defect detection using ultrasonic scan data
Virupakshappa et al. Multi-class classification of defect types in ultrasonic NDT signals with convolutional neural networks
Provencal et al. Identification of weld geometry from ultrasound scan data using deep learning
JP5156707B2 (en) Ultrasonic inspection method and apparatus
Medak et al. Deep learning-based defect detection from sequences of ultrasonic B-scans
US20220276207A1 (en) Ultrasonic testing for defect detection
Pyle et al. Interpretable and explainable machine learning for ultrasonic defect sizing
Kuchipudi et al. Automated detection and segmentation of internal defects in reinforced concrete using deep learning on ultrasonic images
Sudharsan et al. Multi modal data fusion of PAUT with thermography assisted by Automatic Defect Recognition System (M-ADR) for NDE Applications
KR101615627B1 (en) Apparatus for non-destructive testing and Method thereof
JP2021072048A (en) Image processing system and image processing method
CN116735723A (en) Rail damage ultrasonic positioning and identifying system
JP2014149156A (en) Method and device for ultrasonography
Sutcliffe et al. Automatic defect recognition of single-v welds using full matrix capture data, computer vision and multi-layer perceptron artificial neural networks
Eckels et al. Application of a U-net convolutional neural network to ultrasonic wavefield measurements for defect characterization

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230508

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230613