JP2023047998A - Inspection apparatus, learning model generation apparatus, and program - Google Patents

Inspection apparatus, learning model generation apparatus, and program Download PDF

Info

Publication number
JP2023047998A
JP2023047998A JP2021157224A JP2021157224A JP2023047998A JP 2023047998 A JP2023047998 A JP 2023047998A JP 2021157224 A JP2021157224 A JP 2021157224A JP 2021157224 A JP2021157224 A JP 2021157224A JP 2023047998 A JP2023047998 A JP 2023047998A
Authority
JP
Japan
Prior art keywords
feature points
image
feature point
feature
inspected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021157224A
Other languages
Japanese (ja)
Inventor
幸寛 中川
Sachihiro Nakagawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
System Square Inc
Original Assignee
System Square Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by System Square Inc filed Critical System Square Inc
Priority to JP2021157224A priority Critical patent/JP2023047998A/en
Priority to CN202210998675.4A priority patent/CN115880518A/en
Publication of JP2023047998A publication Critical patent/JP2023047998A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

To provide an inspection apparatus which can identify each of test objects to inspect them, on the basis of an image that represents two or more test objects.SOLUTION: An inspection apparatus includes: feature point information output means which outputs information for identifying positions of multiple feature points in an entire image, the information obtained by inputting the entire image to a trained model equipped in advance, the entire image being an image that represents two or more test objects; feature point set extraction means which extracts, from among the feature points output by the feature point information output means, a feature-point set which is a set of two or more feature points each representing two or more sections of the test objects, and satisfying requirements of positional relationship based on a tendency of skeleton shape of the test objects; and inspection means which performs, based on the feature-point set, inspection of the test objects represented in the entire image, specified by positions of the feature points constituting the feature-point set.SELECTED DRAWING: Figure 1

Description

本発明は、2以上の被検査物が表現された画像に基づき、それぞれの被検査物を検査する検査装置、学習モデル生成装置及びプログラムに関する。 The present invention relates to an inspection device, a learning model generation device, and a program for inspecting each object based on an image representing two or more objects to be inspected.

搬送手段により搬送中の複数の被検査物を撮影した全体画像から、被検査物ごとの画像を切り出し、学習済みモデルに入力して被検査物が正常品であるか否かを判定する検査装置が特許文献1、2に開示されている。 An inspection device that cuts out an image for each inspected object from an overall image obtained by photographing a plurality of inspected objects being conveyed by a conveying means, inputs the image into a trained model, and determines whether or not the inspected object is a normal product. are disclosed in Patent Documents 1 and 2.

特許第6754155号公報Japanese Patent No. 6754155 国際公開第2020/189043号WO2020/189043

2以上の被検査物が表現された画像から、被検査物ごとの画像を切り出すには、画像において個々の被検査物を識別できる必要がある。画像における個々の被検査物の識別は、例えばアーモンドや豆のような粒状のものなど、搬送中に他の被検査物との重なりが生じにくいものであれば、個々の被検査物がばらけた状態で撮影されるため容易である。しかし、搬送中に重なりや接触が生じやすい被検査物の場合、複数の被検査物に重なりや接触が生じている状態で撮影されることがある。この場合、重なった部分や接触した部分で各被検査物の像が連結された状態となり、画像において個々の被検査物を識別するのは容易ではない。 In order to extract an image for each inspection object from an image representing two or more inspection objects, it is necessary to be able to identify individual inspection objects in the image. Identification of individual inspected objects in an image is difficult if they are granular objects such as almonds and beans, which are less likely to overlap with other inspected objects during transportation. It is easy because it is photographed in the state. However, in the case of inspected objects that are likely to overlap or come into contact with each other during transportation, images may be taken in a state in which a plurality of inspected objects overlap or come into contact with each other. In this case, the images of the objects to be inspected are connected at overlapping portions or contact portions, and it is not easy to identify individual objects to be inspected in the image.

本発明は上記の課題に鑑みてなされたものであり、2以上の被検査物が表現された画像に基づき、各被検査物を識別して検査を行うことが可能な検査装置、学習モデル生成装置及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems. The purpose is to provide a device and a program.

本発明の検査装置は、2以上の被検査物が表現された画像を全体画像として、予め備える学習済みモデルに全体画像を入力することにより得られた、全体画像における複数の特徴点の位置を特定可能な情報を出力する特徴点情報出力手段と、被検査物の骨格形状の傾向に基づく位置関係の要件を満たす、被検査物における2以上の所定の個数の部位をそれぞれ代表する特徴点の組である特徴点組を、複数の特徴点の中から抽出する特徴点組抽出手段と、特徴点組を構成する各特徴点の位置から特定される、全体画像に表現された被検査物の検査を、特徴点組に基づき行う検査手段と、を備える。 The inspection apparatus of the present invention uses an image representing two or more objects to be inspected as an overall image, and inputs the overall image to a pre-prepared trained model to determine the positions of a plurality of feature points in the overall image. Feature point information output means for outputting identifiable information, and feature point information representing two or more predetermined number of parts of the object to be inspected, satisfying the requirements of the positional relationship based on the tendency of the skeletal shape of the object to be inspected. Feature point set extracting means for extracting a set of feature points from among a plurality of feature points; and inspection means for performing inspection based on the set of feature points.

位置関係の要件は、複数の特徴点の中から仮の特徴点組として抽出した所定の個数の特徴点を順次結んで形成された円弧に対する要件であってもよい。 The positional relationship requirement may be a requirement for an arc formed by sequentially connecting a predetermined number of feature points extracted as a set of temporary feature points from among a plurality of feature points.

円弧に対する要件は、円弧の曲率半径に関する要件であってもよい。 The requirement on the arc may be a requirement on the radius of curvature of the arc.

また、円弧に対する要件は、円弧の長さに関する要件であってもよい。 Also, the requirement on the arc may be a requirement on the length of the arc.

特徴点情報出力手段は、全体画像を学習済みモデルに入力することにより得られた、全体画像における複数の特徴点のそれぞれが代表する部位の情報を更に出力し、特徴点組抽出手段は、複数の特徴点の中から、所定の個数の特徴点からなる仮の特徴点組を部位の情報を加味して抽出した上で、仮の特徴点組が位置関係の要件を満たしているか否かを判定することにより特徴点組を抽出してもよい。 The feature point information output means further outputs information of a region represented by each of the plurality of feature points in the whole image obtained by inputting the whole image to the trained model, and the feature point set extraction means After extracting a provisional feature point set consisting of a predetermined number of feature points from the feature points of A feature point set may be extracted by the determination.

被検査物を示す特徴点組を、被検査物の一方の端部、中央部及び他方の端部のそれぞれを代表する3個の特徴点の組とし、特徴点組抽出手段は、複数の特徴点の中から仮の特徴点組として、代表する部位が中央部である特徴点と、代表する部位が端部である2個の特徴点と、を抽出した上で、位置関係の要件を満たしているか否かを判定することにより特徴点組を抽出してもよい。 A set of feature points representing an object to be inspected is a set of three feature points representing one end, a central portion, and the other end of the object to be inspected. A feature point whose representative part is the central part and two feature points whose representative part is the edge are extracted as a temporary feature point set from the points, and then the positional relationship requirements are satisfied. A set of feature points may be extracted by determining whether or not the

位置関係の要件は、代表する部位が中央部である特徴点と代表する部位が端部である特徴点との距離が所定の範囲内にあるという要件であってもよい。 The requirement for the positional relationship may be a requirement that the distance between the feature point whose representative part is the central part and the feature point whose representative part is the end part is within a predetermined range.

特徴点組に属する特徴点の位置を基点とした所定の範囲を、特徴点が代表する被検査物の部位の画像として全体画像から切り出す切り出し手段を更に備え、検査手段は、切り出し手段において切り出された画像に基づき被検査物の検査を行ってもよい。 The inspection means further comprises a clipping means for clipping a predetermined range with the position of the feature point belonging to the feature point set as a base point from the entire image as an image of the part of the inspection object represented by the feature points, wherein the inspection means is clipped by the clipping means. The object to be inspected may be inspected based on the obtained image.

特徴点情報出力手段において、全体画像を学習済みモデルに入力することにより得られる特徴点の位置を特定可能な情報は、特徴点の位置が中央値かつ最頻値として表現された、確率密度が正規分布に従う確率分布であってもよい。 In the feature point information output means, the information capable of specifying the positions of the feature points obtained by inputting the entire image to the trained model is expressed as the median and mode values of the feature point positions, and the probability density is It may be a probability distribution following a normal distribution.

被検査物を搬送する搬送手段と、搬送手段により搬送される被検査物に所定の電磁波を照射する照射手段と、照射手段から照射され被検査物を経た電磁波を検出可能な位置に配置され、電磁波を検出して検出データを出力する検出手段と、検出データに基づき全体画像を生成して、特徴点情報出力手段に提供する画像生成手段と、を更に備えてもよい。 transportation means for transporting an object to be inspected; irradiation means for irradiating a predetermined electromagnetic wave to the object to be inspected transported by the transportation means; It may further include detection means for detecting electromagnetic waves and outputting detection data, and image generation means for generating an entire image based on the detection data and providing it to the feature point information output means.

本発明の学習モデル生成装置は、2以上の被検査物が表現された画像である学習用画像と、正解ラベルである、学習用画像における複数の特徴点のそれぞれの位置の情報と、を含む教師データを用いて機械学習を実行することにより、複数の特徴点が未知である、2以上の被検査物が表現された画像である全体画像が入力されることにより、全体画像における複数の特徴点の位置を特定可能な情報を出力する学習モデルを生成する。 The learning model generating apparatus of the present invention includes a learning image that is an image representing two or more objects to be inspected, and positional information of each of a plurality of feature points in the learning image that are correct labels. By executing machine learning using the training data, a plurality of features in the whole image is input by inputting a whole image that is an image representing two or more inspected objects in which a plurality of feature points are unknown. Generate a learning model that outputs information that can identify the position of a point.

正解ラベルは、学習用画像における複数の特徴点のそれぞれが代表する部位の情報を更に含み、学習モデルは、全体画像における複数の特徴点のそれぞれが代表する部位の情報を更に出力してもよい。 The correct label may further include information about the part represented by each of the plurality of feature points in the learning image, and the learning model may further output information about the part represented by each of the plurality of feature points in the whole image. .

学習モデルが、特徴点の位置を特定可能な情報として、特徴点の位置が中央値かつ最頻値として表現された、確率密度が正規分布に従う確率分布を出力し、正解ラベルを、正解ラベルとして学習用画像に設定した特徴点の位置が、中央値かつ最頻値である、確率密度が正規分布に従う確率分布とし、機械学習においては、学習モデルが出力した確率分布と、正解ラベルである確率分布との一致度が高まるように学習モデルのパラメータを調整してもよい。 The learning model outputs a probability distribution whose probability density follows a normal distribution, in which the positions of the feature points are expressed as the median and the mode, as information that can identify the positions of the feature points. The position of the feature point set in the learning image is the median and mode, and the probability distribution follows the normal distribution. In machine learning, the probability distribution output by the learning model and the probability of being the correct label The parameters of the learning model may be adjusted so as to increase the degree of matching with the distribution.

本発明の検査装置は、本発明の検査装置の機能が記述されたプログラムをコンピュータで実行することにより実現してもよい。 The inspection apparatus of the present invention may be realized by executing a program describing the functions of the inspection apparatus of the present invention on a computer.

本発明の学習モデル生成装置は、本発明の学習モデル生成装置の機能が記述されたプログラムをコンピュータで実行することにより実現してもよい。 The learning model generation device of the present invention may be realized by executing a program describing the functions of the learning model generation device of the present invention on a computer.

本発明の検査装置、学習モデル生成装置及びプログラムによれば、重なりや接触がある状態で撮影された2以上の被検査物が表現された画像であっても、各被検査物を識別して検査を行うことが可能となる。 According to the inspection device, the learning model generation device, and the program of the present invention, each object can be identified even in an image representing two or more objects to be inspected that are photographed in a state of overlap or contact. Inspection can be performed.

検査装置100及び学習モデル生成装置200の構成図である。1 is a configuration diagram of an inspection device 100 and a learning model generation device 200; FIG. 被検査物W1と被検査物W2とが一部重なった状態を示す図である。It is a figure which shows the state which the to-be-inspected object W1 and the to-be-inspected object W2 partially overlapped. 被検査物W1、W2の電磁波透過画像P1を示す図である。FIG. 4 is a diagram showing an electromagnetic wave transmission image P1 of inspected objects W1 and W2; 学習済みモデルから特徴点の位置自体が出力される例を示す図である。FIG. 10 is a diagram showing an example in which positions of feature points themselves are output from a trained model; 学習済みモデルから特徴点に対応する確率分布が出力される例を示す図である。FIG. 10 is a diagram showing an example in which a probability distribution corresponding to feature points is output from a learned model; 学習済みモデルから出力される確率分布から特徴点の位置を特定可能であることを説明する図である。FIG. 10 is a diagram explaining that the positions of feature points can be specified from the probability distribution output from the trained model; 被検査物W11と被検査物W12とが一部重なった状態を示す図である。It is a figure which shows the state which the to-be-inspected object W11 and the to-be-inspected object W12 partially overlapped. 被検査物W11、W12の電磁波透過画像P11を示す図である。FIG. 4 is a diagram showing an electromagnetic wave transmission image P11 of inspected objects W11 and W12; 被検査物W11、W12に特徴点自体を設定した例を示す図である。It is a figure which shows the example which set the feature point itself to to-be-tested object W11 and W12. 被検査物W11、W12に設定された特徴点を確率分布に変換した例を示す図である。FIG. 10 is a diagram showing an example of converting feature points set on the objects to be inspected W11 and W12 into a probability distribution; 学習モデルから特徴点に対応する確率分布が出力される別の例を示す図である。FIG. 10 is a diagram showing another example of outputting a probability distribution corresponding to feature points from a learning model; 学習モデルから出力された確率分布に基づく特徴点と正解ラベルである特徴点とのずれを説明する図である。FIG. 10 is a diagram illustrating deviations between feature points based on a probability distribution output from a learning model and feature points that are correct labels; 特徴点組に属する各特徴点を順次結んで形成された円弧の一例を示す図である。FIG. 10 is a diagram showing an example of an arc formed by sequentially connecting feature points belonging to a feature point set; 特徴点組に属する各特徴点を順次結んで形成された円弧の別の一例を示す図である。FIG. 11 is a diagram showing another example of an arc formed by sequentially connecting feature points belonging to a feature point set; 特徴点組を電磁波透過画像P1に重畳させた状態を示す図である。It is a figure which shows the state which superimposed the feature point group on the electromagnetic wave transmission image P1. 全体画像から部分画像を切り出す一例を示す図である。FIG. 10 is a diagram showing an example of cutting out a partial image from the entire image; 全体画像から部分画像を切り出す別の一例を示す図である。FIG. 10 is a diagram showing another example of cutting out a partial image from the entire image;

以下、本発明の実施形態を図面に基づいて説明する。なお、以下の説明では、同一の部材には同一の符号を付し、一度説明した部材については適宜その説明を省略する。 BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below with reference to the drawings. In the following description, the same members are denoted by the same reference numerals, and the description of members that have already been described will be omitted as appropriate.

図1に、本発明の検査装置100及び学習モデル生成装置200の構成図を示す。 FIG. 1 shows a configuration diagram of an inspection device 100 and a learning model generation device 200 of the present invention.

検査装置100は、搬送手段110、照射手段120、検出手段130、画像生成手段140、特徴点情報出力手段150、特徴点組抽出手段160、及び検査手段170を備える。 The inspection apparatus 100 includes transport means 110 , irradiation means 120 , detection means 130 , image generation means 140 , feature point information output means 150 , feature point set extraction means 160 and inspection means 170 .

搬送手段110は、載置された被検査物WをY軸方向に所定の速度で搬送する任意の方式のコンベヤである。搬送手段110は、正面から見て搬送方向であるY軸方向に直交するX軸方向に奥行きを持つ。 The conveying means 110 is a conveyor of any type that conveys the placed inspection object W in the Y-axis direction at a predetermined speed. The conveying means 110 has a depth in the X-axis direction perpendicular to the Y-axis direction, which is the conveying direction, when viewed from the front.

照射手段120は、搬送手段110により搬送される被検査物Wに向け所定の電磁波を照射する。照射する電磁波の種類は、例えば、X線、可視光、赤外線など、検査の内容に応じて適宜選択してよい。 The irradiating means 120 irradiates a predetermined electromagnetic wave to the inspection object W conveyed by the conveying means 110 . The type of electromagnetic waves to be irradiated may be appropriately selected according to the contents of the inspection, such as X-rays, visible light, and infrared rays.

検出手段130は、照射手段120から照射され被検査物Wを経た電磁波を検出可能な位置に配置され、被検査物Wを経て、又は直接的に到達した電磁波を検出して、所定の周期ごとに検出データを出力する。図1では、被検査物Wを透過した電磁波を検出可能とすべく、照射手段120に対向して配置される例を示している。検出手段130は、図1に示すように搬送手段110の内側に設け、搬送手段110のコンベヤベルト等を更に透過した後の電磁波を検出するように構成してもよいし、Y軸方向に配設された2つの搬送手段110の間にわずかな隙間を設けて、被検査物Wを透過した電磁波を直接検出するように構成してもよい。搬送手段110のコンベヤベルト等を経た電磁波を検出する場合、照射手段120から照射される電磁波の透過性が高い材質のコンベヤベルト等を採用するとよい。 The detection means 130 is arranged at a position where it can detect the electromagnetic wave emitted from the irradiation means 120 and passed through the object W to be inspected. Output detection data to . FIG. 1 shows an example in which the electromagnetic wave transmitted through the object W to be inspected is arranged to face the irradiating means 120 so that the electromagnetic wave can be detected. The detection means 130 may be provided inside the conveying means 110 as shown in FIG. A slight gap may be provided between the two conveying means 110 provided so that the electromagnetic wave transmitted through the object W to be inspected may be directly detected. When detecting electromagnetic waves passing through the conveyor belt or the like of the conveying means 110, it is preferable to adopt a conveyor belt or the like made of a material having high permeability for the electromagnetic waves emitted from the irradiation means 120. FIG.

検出手段130は、搬送方向に直交する方向にライン状に整列して配設された複数の検出素子を備え、それぞれの検出素子が、到達した電磁波を検出し検出データを出力する。図1の例では、複数の検出素子は、Y軸方向に直交するX軸方向に配列される。 The detection means 130 includes a plurality of detection elements arranged in a line in a direction orthogonal to the conveying direction, and each detection element detects the electromagnetic wave that has reached it and outputs detection data. In the example of FIG. 1, the multiple detection elements are arranged in the X-axis direction orthogonal to the Y-axis direction.

照射手段120及び検出手段130は、搬送手段110に対する位置が固定されており、搬送手段110によりY軸方向に搬送中の被検査物Wの全体が、X軸方向にライン状に配設された検出手段130を横切ることで、被検査物WをXY平面で見た透過電磁波の検出データを得ることができる。 The positions of the irradiation means 120 and the detection means 130 are fixed with respect to the transport means 110, and the entire inspection object W being transported in the Y-axis direction by the transport means 110 is arranged in a line in the X-axis direction. By traversing the detection means 130, detection data of the transmitted electromagnetic wave when the inspection object W is viewed on the XY plane can be obtained.

画像生成手段140は、検出手段130で得られた被検査物Wの透過電磁波の検出データに基づき、濃淡等により被検査物Wの形状や内部状態が表現された電磁波透過画像を生成する。このとき、2以上の被検査物が重なり合って搬送されていたときには、その重なり合った状態がXY平面視で表現された一体的な電磁波透過画像が生成される。例えば、2個の被検査物W1、W2が図2に示すように一部が重なり合って搬送された場合、図3に示すような輪郭の電磁波透過画像P1が生成される。 The image generating means 140 generates an electromagnetic wave transmission image that expresses the shape and internal state of the object W to be inspected by shading or the like, based on the detection data of the electromagnetic wave transmitted through the object W obtained by the detecting means 130 . At this time, when two or more objects to be inspected are transported while overlapping each other, an integrated electromagnetic wave transmission image is generated in which the overlapping state is expressed in an XY plan view. For example, when two objects W1 and W2 to be inspected are transported while partially overlapping each other as shown in FIG. 2, an electromagnetic wave transmission image P1 having a contour as shown in FIG. 3 is generated.

このように生成された、2以上の被検査物が重なり合った状態が表現された電磁波透過画像P1が、全体画像として特徴点情報出力手段150に提供される。 An electromagnetic wave transmission image P1 expressing a state in which two or more objects to be inspected are superimposed in this way is provided to the feature point information output means 150 as a whole image.

特徴点情報出力手段150は、画像生成手段140から提供された全体画像を、予め備える学習済みモデルに入力することにより得られた、全体画像における複数の特徴点のそれぞれの位置を特定可能な情報を出力する。 The feature point information output means 150 is obtained by inputting the whole image provided from the image generation means 140 into a pre-prepared trained model, and is information capable of specifying the position of each of the plurality of feature points in the whole image. to output

特徴点の位置を特定可能な情報としては、例えば、特徴点の位置の情報そのものや、特徴点の位置が中央値かつ最頻値として表現された、確率密度が正規分布に従う確率分布などが挙げられる。 Examples of information that can specify the position of a feature point include information on the position of the feature point itself, and a probability distribution whose probability density follows a normal distribution, in which the position of the feature point is expressed as a median value and a mode value. be done.

具体的には、例えば被検査物ごとに3個の特徴点の位置を出力する場合、2個の被検査物W1、W2に対する図3に示す電磁波透過画像P1の入力により、図4に示すように、特徴点C1~C6の位置の情報そのものを出力してもよいし、図5に示すように、特徴点C1~C6のそれぞれの位置が中央値かつ最頻値として表現された確率密度のヒートマップである確率分布H1~H6を出力してもよい。この場合、図6に示すように確率分布H1~H6のそれぞれの中央を特徴点C1~C6と特定することができる。学習済みモデルからの確率分布の出力に関しての具体的な説明は後述する。 Specifically, for example, when outputting the positions of three feature points for each object to be inspected, by inputting the electromagnetic wave transmission image P1 shown in FIG. Alternatively, as shown in FIG. 5, each position of the feature points C1 to C6 is expressed as the median and mode of the probability density. Probability distributions H1 to H6, which are heat maps, may be output. In this case, as shown in FIG. 6, the respective centers of probability distributions H1 to H6 can be identified as feature points C1 to C6. A detailed description of the output of the probability distribution from the trained model will be given later.

学習済みモデルは、予め、学習モデル生成装置200において生成される。学習モデル生成装置200は、2以上の被検査物が表現された画像である学習用画像と、正解ラベルである、学習用画像における複数の特徴点のそれぞれの位置の情報と、を含む教師データを多数用いて、機械学習を繰り返し実行することにより、全体画像の入力により、当該全体画像における複数の特徴点のそれぞれの位置を特定可能な情報を出力する学習済みモデルを生成する。機械学習は、人が特徴量を定義する一般的な機械学習であってもよいし、マシンが特徴量を定義するディープラーニングであってもよい。 A learned model is generated in advance by the learning model generation device 200 . The learning model generation device 200 generates teacher data including a learning image that is an image representing two or more inspected objects, and positional information of each of a plurality of feature points in the learning image, which is a correct label. By repeatedly executing machine learning using a large number of , a trained model is generated that outputs information that can specify the positions of each of the plurality of feature points in the entire image based on the input of the entire image. Machine learning may be general machine learning in which a person defines feature amounts, or deep learning in which a machine defines feature amounts.

装置利用者等は、正解ラベルとして、学習用画像における、それぞれの被検査物に対応する部分について、所定の個数の特徴点を設定する。特徴点は、全体画像に表現される被検査物の骨格形状を特徴付ける特徴点組を構成する一点であるとともに、設定された位置に対応する被検査物の部位を代表し、当該部位の画像の切り出しに用いられる基点である。そのため、特徴点の設定位置及び設定箇所数は、被検査物の骨格形状の傾向や検査を行いたい部位等に応じて決定するとよい。例えば、骨格形状が曲線状であれば、一端部、中央部及び他端部の3箇所に設定してもよい。 The device user or the like sets a predetermined number of feature points as correct labels for portions corresponding to the respective objects to be inspected in the learning image. A feature point is one point that constitutes a set of feature points that characterize the skeletal shape of an object to be inspected expressed in the entire image, and also represents a part of the object to be inspected that corresponds to a set position. This is the base point used for clipping. Therefore, the setting position and the number of setting points of the feature points should be determined according to the tendency of the skeleton shape of the object to be inspected, the part to be inspected, and the like. For example, if the skeletal shape is curvilinear, it may be set at three locations, one end, the center, and the other end.

2個の被検査物W11、W12が図7に示すように一部が重なり合った状態が表現された図8に示す電磁波透過画像P11が学習用画像であるとき、被検査物W1に対応する部分の一端部、中央部及び他端部にそれぞれ特徴点C11、C12、C13を設定し、被検査物W2に対応する部分の一端部、中央部及び他端部にそれぞれ特徴点C14、C15、C16を設定した例を図9に示す。 When the electromagnetic wave transmission image P11 shown in FIG. 8, in which the two objects W11 and W12 partially overlap each other as shown in FIG. 7, is a learning image, the portion corresponding to the object W1 Characteristic points C11, C12 and C13 are set at one end, center and other end of the inspection object W2, respectively, and characteristic points C14, C15 and C16 are respectively set at one end, center and other end of the portion corresponding to the object to be inspected W2. is shown in FIG.

学習モデルの生成及び学習は、一般に、学習データを学習モデルに入力して得られた出力と学習データの正解ラベルとの一致度を判定し、一致度を高めるパラメータの調整を学習モデルに施す処理を繰り返すことにより行われる。学習モデル生成装置200において生成する、全体画像の入力により当該全体画像における複数の特徴点のそれぞれの位置を特定可能な情報を出力する学習モデルは、複数の特徴点のそれぞれの位置が直接出力される学習モデルであってもよい。しかし、複数の特徴点の位置が直接出力される学習モデルを学習させる場合、学習モデルから出力された特徴点の位置と、正解ラベルである、学習用画像に設定された特徴点の位置は共に点であって、両者が一致する確率はほぼゼロである。そのため、一致度を判定することができず、上記の一般的な学習方法では学習させることは困難である。 The generation and learning of a learning model is generally a process of determining the degree of matching between the output obtained by inputting learning data to the learning model and the correct label of the learning data, and adjusting the parameters to increase the degree of matching to the learning model. is performed by repeating A learning model generated by the learning model generation device 200 that outputs information that can specify the positions of each of a plurality of feature points in the entire image based on the input of the entire image directly outputs the positions of each of the plurality of feature points. It may be a learning model that However, when training a learning model that directly outputs the positions of multiple feature points, the positions of the feature points output from the learning model and the positions of the feature points set in the learning image, which are the correct labels, are both points, and the probability that they match is almost zero. Therefore, the degree of matching cannot be determined, and it is difficult to learn with the general learning method described above.

そこで例えば、学習用画像における位置を確率変数とし、正解ラベルとして学習用画像に設定した特徴点の位置が、中央値かつ最頻値である、確率密度が正規分布に従う確率分布という形に正解ラベルを変換し、変換された正解ラベルを学習に使用する。正解ラベルの変換は、例えば適宜作成したアプリケーションを用いて行ってもよい。このように変換された正解ラベルを用いて学習を行うことで、学習用画像の入力に対する出力として、特徴点の位置が中央値かつ最頻値として表現された、確率密度が正規分布に従う確率分布を出力する学習モデルが生成される。そして、学習モデルからの出力と、変換された正解ラベルは共に位置の確率分布であることから、一致度の判定が可能となり、例えば、中央値の一致度の判定を行い、一致度を高めるパラメータの調整を学習モデルに施すことができる。また、学習モデルに対して繰り返し学習を施すにより生成された学習済みモデルに全体画像を入力することで出力される確率分布には、特徴点の位置が中央値かつ最頻値として表現されているため、当該学習済みモデルは、全体画像の入力により特徴点の位置を特定可能な情報を出力する学習済みモデルに該当する。 Therefore, for example, the position in the learning image is a random variable, and the position of the feature point set in the learning image as the correct label is the median value and the mode value, and the probability density follows a normal distribution. and use the transformed correct labels for training. Correct label conversion may be performed using, for example, an appropriately created application. By performing learning using the correct label converted in this way, as an output for the input of the training image, a probability distribution whose probability density follows a normal distribution, in which the position of the feature point is expressed as the median value and the mode value. A learning model is generated that outputs Since both the output from the learning model and the converted correct label are positional probability distributions, it is possible to determine the degree of matching. adjustments can be applied to the learning model. In addition, in the probability distribution output by inputting the whole image to the trained model generated by repeatedly performing learning on the learning model, the position of the feature point is expressed as the median value and the mode value. Therefore, the learned model corresponds to a learned model that outputs information that enables the positions of feature points to be specified based on the input of the entire image.

学習モデルからの出力である確率分布と正解ラベルである確率分布は、共に確率密度が特徴点の位置である中央において最大で、中央から離れるにつれ正規分布に従い低下するものであるため、例えば、中央が最も濃度が高く、中央から離れるにつれて同心円状に濃度が薄くなるヒートマップの形で画像表現することができる。そのため、学習モデルからの出力である確率分布と正解ラベルである確率分布をそれぞれヒートマップ画像化することで、両確率分布の最高濃度位置の離隔の程度から、中央値の一致度を画像上で判定することができる。 Both the probability distribution that is the output from the learning model and the probability distribution that is the correct label have the maximum probability density at the center, which is the position of the feature point, and decrease according to a normal distribution as they move away from the center. is the highest density, and the image can be expressed in the form of a heat map in which the density decreases concentrically with increasing distance from the center. Therefore, by creating a heat map image of the probability distribution output from the learning model and the probability distribution of the correct label, the degree of agreement between the median values can be calculated on the image from the degree of separation between the highest density positions of both probability distributions. can judge.

例えば、学習データとして図8に示す電磁波透過画像P11と、図9に示す電磁波透過画像P11に対応する正解ラベルである特徴点C11~C16を用いて学習モデルに対する学習を施す場合、まず、正解ラベルである特徴点C11~C16を、図10に示すようにヒートマップ表現された確率分布H11~H16に変換するとともに、電磁波透過画像P11を学習モデルに入力して、図11に示すようにヒートマップ表現された確率分布H21~H26の出力を得て、確率分布H21~H26に対応する特徴点C21~C26を特定する。これにより、学習モデルから出力された確率分布に基づく特徴点C21~C26と、正解ラベルである特徴点C11~C16との位置のずれD1~D6が図12に示すように得られるため、これに基づき一致度を高めるパラメータの調整を学習モデルに施すことができる。 For example, when learning a learning model using the electromagnetic wave transmission image P11 shown in FIG. are converted into probability distributions H11 to H16 represented by a heat map as shown in FIG. Outputs of the expressed probability distributions H21 to H26 are obtained, and feature points C21 to C26 corresponding to the probability distributions H21 to H26 are specified. As a result, positional deviations D1 to D6 between the feature points C21 to C26 based on the probability distribution output from the learning model and the feature points C11 to C16, which are the correct labels, are obtained as shown in FIG. Parameter adjustments can be made to the learning model to increase the match based on.

特徴点組抽出手段160は、被検査物の骨格形状の傾向に基づく位置関係の要件を満たす、被検査物における2以上の所定の個数の部位をそれぞれ代表する特徴点の組である特徴点組を、特徴点情報出力手段150が出力した複数の特徴点の中から抽出する。 The feature point set extraction means 160 is a feature point set that is a set of feature points that respectively represent two or more predetermined numbers of parts of the object to be inspected, satisfying the requirements of the positional relationship based on the tendency of the skeletal shape of the object to be inspected. are extracted from the plurality of feature points output by the feature point information output means 150 .

学習済みモデルが出力した複数の特徴点に属する各特徴点は、全体画像に表現されたいずれかの被検査物のいずれかの部位を代表する位置にあるが、いずれの被検査物の部位を代表する特徴点であるかは明らかではない。そこで、特徴点組抽出手段160は被検査物の骨格形状の傾向に基づき、それぞれの被検査物の特徴点をグループ化する。 Each feature point belonging to a plurality of feature points output by the trained model is located at a position representative of any part of any inspection object represented in the whole image. It is not clear whether it is a representative feature point. Therefore, the feature point group extracting means 160 groups the feature points of each object based on the tendency of the skeleton shape of the object.

特徴点組の具体的な抽出方法としては、例えば、複数の特徴点の中から、仮の特徴点組として所定の個数の部位に対応する所定の個数の特徴点を抽出した上で、抽出した各特徴点を順次結んで形成された円弧に関する要件を、位置関係の要件として定義して、この要件を充足する特徴点組を抽出する方法が挙げられる。 As a specific method for extracting feature point sets, for example, a predetermined number of feature points corresponding to a predetermined number of parts are extracted as a provisional feature point set from among a plurality of feature points, and then extracted. There is a method of defining a requirement regarding an arc formed by sequentially connecting each feature point as a positional relationship requirement, and extracting a feature point set that satisfies this requirement.

図2に示す被検査物W1及びW2がウインナーである場合を例にとると、一般にウインナーの骨格形状は、曲がり過ぎていない、長さが一定の範囲内にある、などの商品としての一定の規格を満たしている。そのため、例えばこれらの規格に対応する、曲率半径が一定値以上であるか、円弧の長さが一定の範囲内か、などの円弧に関する要件を定義することができる。 Taking the case where the objects W1 and W2 to be inspected shown in FIG. meet the standards. Therefore, for example, it is possible to define requirements related to arcs, such as whether the radius of curvature is a certain value or more and whether the length of the arc is within a certain range, corresponding to these standards.

図3に示す被検査物W1及びW2に対する電磁波透過画像P1を学習済みモデルに入力し、図4に示すような位置関係で、1個の被検査物につき3個ずつ、計6個の特徴点C1~C6が出力された場合、3個の特徴点からなる仮の特徴点組を2組抽出し、それぞれ、3個の特徴点を順次結んで円弧を形成する。例えば、図13に示すように、特徴点C1、C2、C6を順次結んで円弧A1を形成し、特徴点C3、C4、C5を順次結んで円弧A2を形成したとき、円弧A1については円弧の長さが長すぎ、円弧A2については曲率半径が小さすぎるというように判定することが可能である。このような判定を、仮の特徴点の組を構成する特徴点の組み合わせを変えながら繰り返し行い、最終的に、図14に示すように各要件を満たす特徴点C1、C2、C3を順次結んだ円弧A3、及び特徴点C4、C5、C6を順次結んだ円弧A4の特定に至ることで、円弧A3を構成する各特徴点からなる特徴点組G1、及び円弧A4を構成する各特徴点からなる特徴点組G2を抽出することができる。 The electromagnetic wave transmission image P1 for the objects to be inspected W1 and W2 shown in FIG. 3 is input to the learned model, and in the positional relationship shown in FIG. When C1 to C6 are output, two sets of temporary feature points each consisting of three feature points are extracted, and each of the three feature points is sequentially connected to form an arc. For example, as shown in FIG. 13, when the characteristic points C1, C2, and C6 are sequentially connected to form an arc A1, and the characteristic points C3, C4, and C5 are sequentially connected to form an arc A2, the arc A1 is a circular arc. It can be determined that the length is too long and the radius of curvature for arc A2 is too small. Such determination is repeated while changing the combination of the feature points that constitute the set of provisional feature points, and finally, as shown in FIG. By specifying the arc A3 and the arc A4 connecting the feature points C4, C5, and C6 in order, the feature point set G1 consisting of the feature points forming the arc A3 and the feature points forming the arc A4 are identified. A feature point set G2 can be extracted.

なお、円弧を形成する代わりに、各特徴点を順次結ぶ曲線を区分多項式で表現し、円弧の半径に代えて、区分多項式の係数に一定の関係式や範囲を設けるという形で要件を定義してもよい。 In addition, instead of forming an arc, a curve that sequentially connects each feature point is expressed by a piecewise polynomial, and instead of the radius of the arc, the requirements are defined in the form of providing a certain relational expression or range for the coefficients of the piecewise polynomial. may

特徴点組抽出手段160における特徴点組の抽出に先立つ仮の特徴点組の抽出は、特徴点が代表する部位の情報を加味して行ってもよい。具体的には、学習モデルの生成及び学習の際に、正解ラベルに、それぞれの特徴点について、特徴点が代表する部位の情報を加え、学習済みモデルの出力として、それぞれの特徴点が代表する部位の情報が得られるように学習モデルを構成する。そして例えば、被検査物ごとに両端部と中央部の計3個の特徴点を設定した場合、学習済みモデルの出力として、それぞれの特徴点が中央部を代表するものか、端部を代表するものかの情報を得ることができるため、特徴点組抽出手段160において、仮の特徴点組として、中央部を代表する特徴点と、端部を代表する2つの特徴点とにより構成したものを抽出する。このように部位の情報を加味する抽出方法を採ることで、不自然な位置関係の特徴点の組み合わせによる仮の特徴点組の判定を回避することができるため、抽出処理時間を短縮できるとともに、抽出精度を高めることができる。なお、被検査物ごとに両端部と中央部の計3個の特徴点を設定する場合、代表する部位が中央部である特徴点と代表する部位が端部である特徴点との距離が所定の範囲内にあるという位置関係の要件を更に加味して仮の特徴点組の判定を行ってもよい。これにより、より抽出精度を高めることができる。 Extraction of a provisional feature point set prior to extraction of a feature point set by the feature point set extraction means 160 may be performed in consideration of information of a site represented by the feature point. Specifically, when generating and learning a learning model, information about the region represented by each feature point is added to the correct label, and each feature point represents the output of the learned model. A learning model is configured to obtain information on body parts. For example, if a total of three feature points, one at both ends and one at the center, are set for each object to be inspected, each feature point represents the center or the edge as the output of the trained model. Since it is possible to obtain information about the object, the feature point set extraction means 160 extracts a provisional feature point set consisting of a feature point representing the central portion and two feature points representing the end portions. Extract. By adopting an extraction method that takes into account the information of the parts in this way, it is possible to avoid the determination of a provisional feature point set based on a combination of feature points with an unnatural positional relationship, so the extraction processing time can be shortened. Extraction accuracy can be improved. When setting three feature points for each object to be inspected, that is, both ends and the center, the distance between the feature point representing the central portion and the feature point representing the end is a predetermined distance. The provisional feature point set may be determined by further considering the requirement of the positional relationship that it is within the range of . This makes it possible to further improve the extraction accuracy.

また、特徴点が代表する部位の情報に加え、隣接する特徴点への向きの情報も加味する方法を採ってもよい。具体的には、学習モデルの生成及び学習の際に、正解ラベルに、それぞれの特徴点について、特徴点が代表する部位の情報及び隣接する特徴点への向きの情報を加え、学習済みモデルの出力として、それぞれの特徴点が代表する部位の情報及び隣接する特徴点への向きの情報を得られるように学習モデルを構成する。そして、特徴点組抽出手段160において仮の特徴点組を構成する特徴点の選択に、部位の情報及び隣接する特徴点への向きの情報を加味する。例えば、被検査物ごとに両端部と中央部の計3個の特徴点を設定した場合、学習済みモデルの出力として、それぞれの特徴点が中央部を代表するものか、端部を代表するものかの情報を得ることができ、かつ、中央部であれば各端部への向きの情報を、端部であれば中央部への向きの情報を更に得ることができるため、仮の特徴点組を、中央部を代表する特徴点と、向きの情報が逆向きに概ね一致する、端部を代表する2つの特徴点とにより構成する。これにより、部位の情報のみを加味する場合より、判定すべき仮の特徴点組の数を減らすことができるため、抽出処理時間をより短縮できるとともに、抽出精度をより高めることができる。 Moreover, in addition to the information of the part represented by the feature point, a method of adding information of the direction to the adjacent feature point may be adopted. Specifically, when generating and learning a learning model, for each feature point, information on the part represented by the feature point and information on the direction to the adjacent feature point are added to the correct label, and the learned model's The learning model is configured so that information on the part represented by each feature point and information on the direction to the adjacent feature point can be obtained as outputs. Then, the feature point set extracting means 160 selects the feature points that form the provisional feature point set, taking into account the part information and the direction information to the adjacent feature points. For example, if a total of three feature points are set for each object to be inspected, i.e., at both ends and at the center, each feature point will either represent the center or end as the output of the trained model. If it is the central part, information on the direction to each end can be obtained, and if it is the end, information on the direction to the central part can be obtained. A set is composed of a feature point representing the central portion and two feature points representing the end portions whose orientation information is roughly the same in opposite directions. As a result, the number of temporary feature point sets to be determined can be reduced compared to the case where only the information of the part is taken into consideration, so that the extraction processing time can be further shortened and the extraction accuracy can be further improved.

なお、特徴点組抽出手段160における複数の特徴点からの特徴点組の抽出は、上記の方法のほか、複数の特徴点の入力により特徴点組を出力する学習済みモデルを用いて行う方法を採ってもよい。この場合、特徴点組抽出手段160で用いる学習済みモデルは、例えば、学習モデル生成装置200に、全体画像の入力により当該全体画像における複数の特徴点のそれぞれの位置を特定可能な情報を出力する学習モデルを生成する機能に加え、複数の特徴点の入力により特徴点組を出力する学習モデルを生成する機能を設け、ここで生成された学習済みモデルの提供を受けてもよいし、図示しない別の学習モデル生成装置において生成された学習済みモデルの提供を受けてもよい。複数の特徴点の入力により特徴点組を出力する学習モデルは、複数の特徴点の位置関係の情報と、正解ラベルである特徴点組を構成する特徴点の情報と、を含む教師データを多数用いて機械学習を繰り返し実行することにより生成することができる。 Note that the extraction of feature point sets from a plurality of feature points by the feature point set extraction means 160 may be performed using a trained model that outputs a feature point set upon input of a plurality of feature points, in addition to the above method. may be taken. In this case, the trained model used in the feature point group extraction means 160 outputs information that can specify the positions of each of the plurality of feature points in the whole image to the learning model generation device 200, for example, based on the input of the whole image. In addition to the function of generating a learning model, a function of generating a learning model that outputs a set of feature points by inputting a plurality of feature points may be provided, and the trained model generated here may be provided, or not shown. A trained model generated by another learning model generating device may be provided. A learning model that outputs a set of feature points by inputting a plurality of feature points contains a large amount of teacher data including information on the positional relationship of the plurality of feature points and information on the feature points that make up the set of feature points that are correct labels. It can be generated by repeatedly performing machine learning using

検査手段170は、特徴点組を構成する各特徴点の位置から特定される、全体画像に表現された被検査物の検査を、当該特徴点組に基づき行う。例えば、特徴点組を構成する各特徴点を結んだ円弧の形状や長さから、被検査物の曲がり具合や長さの正常性を判定することができる。 The inspection means 170 inspects the inspection object represented by the entire image specified from the position of each feature point forming the feature point set, based on the feature point set. For example, it is possible to determine the normality of the degree of curvature and the length of the object to be inspected from the shape and length of an arc connecting each feature point forming the feature point set.

また、特徴点組抽出手段160と検査手段170との間に、特徴点組抽出手段160において抽出された特徴点組に属する特徴点の位置を基点とした所定の範囲を、当該特徴点が代表する被検査物の部位の画像として全体画像から切り出す切り出し手段180を設け、検査手段170が、切り出し手段180において切り出された画像に基づき被検査物の検査を行うように構成してもよい。 Further, between the feature point group extraction means 160 and the inspection means 170, a predetermined range with the position of the feature point belonging to the feature point group extracted by the feature point group extraction means 160 as a base point is defined as a representative feature point. A clipping means 180 may be provided for clipping the entire image as an image of the part of the object to be inspected, and the inspection means 170 may inspect the object based on the image clipped by the clipping means 180 .

切り出し手段180において被検査物の部位の画像を全体画像から切り出す所定の範囲、具体的には形状、大きさ、向きなどは、被検査物の形状、大きさ、向きなどに応じて適宜決定してよい。また、部位ごとに切り出す形状、大きさ、向きは、それぞれ異なってもよい。 The predetermined range, specifically the shape, size, direction, etc., for cutting out the image of the part of the object to be inspected from the whole image in the cutting out means 180 is appropriately determined according to the shape, size, direction, etc. of the object to be inspected. you can Also, the shape, size, and direction to be cut out for each part may be different.

例えば、図3に示す2個の被検査物W1及びW2に対する電磁波透過画像P1に対して、2組の特徴点組G1、G2が図14に示すように抽出された場合、図15に示すように、特徴点組G1、G2を電磁波透過画像P1の対応する位置に重畳させ、特徴点C1~C6のそれぞれを基点として所定の範囲を電磁波透過画像P1からそれぞれ切り出す。このとき、特徴点組G1に属する特徴点C1~C3を基点に切り出したそれぞれの画像は、被検査物W1の一端部、中央部、他端部の部分画像であり、特徴点組G2に属する特徴点C4~C6を基点に切り出したそれぞれの画像は、被検査物W2の一端部、中央部、他端部の部分画像である。図16に、特徴点組G1を構成する特徴点C1~C3を基点に、被検査物W1の一端部、中央部、他端部の部分画像T1~T3を切り出す例を、図17に、特徴点組G2を構成する特徴点C4~C6を基点に、被検査物W2の一端部、中央部、他端部の部分画像T4~T6を切り出す例を、それぞれ示す。 For example, when two sets of feature points G1 and G2 are extracted as shown in FIG. Then, the feature point sets G1 and G2 are superimposed on the corresponding positions of the electromagnetic wave transmission image P1, and predetermined ranges are cut out from the electromagnetic wave transmission image P1 using each of the feature points C1 to C6 as base points. At this time, the respective images extracted from the feature points C1 to C3 belonging to the feature point group G1 are partial images of one end, center and other end of the inspection object W1, and belong to the feature point group G2. The images cut out from the characteristic points C4 to C6 are partial images of one end, center, and other end of the inspection object W2. FIG. 16 shows an example of cutting out partial images T1 to T3 of one end, center, and other end of the object W1 to be inspected using the feature points C1 to C3 forming the feature point group G1 as base points. An example of cutting out partial images T4 to T6 of one end, center, and other end of the inspection object W2 using the feature points C4 to C6 forming the set of points G2 as base points is shown.

切り出し手段180において切り出された画像に基づき検査手段170が行う検査は、画像処理により行ってもよいし、予め用意された検査用の学習済みモデルに入力することにより行ってもよい。なお、切り出し手段180において切り出された画像は、被検査物の部位ごとの部分画像であるため、検査結果は被検査物の部位ごとの検査結果であるが、部位ごとの検査結果を総合判定することで、被検査物全体の検査結果を得ることができる。 The inspection performed by the inspection means 170 based on the image cut out by the cutout means 180 may be performed by image processing, or may be performed by inputting to a trained model for inspection prepared in advance. Since the image cut out by the cutout means 180 is a partial image of each part of the object to be inspected, the inspection result is the inspection result of each part of the object to be inspected. Thus, it is possible to obtain the inspection result of the entire object to be inspected.

なお、例えば両端部については検査を行うが、中央部については検査を行わないなど、一部の部位の検査を省略する場合には、切り出し手段180において当該一部の部位の画像を切り出す必要はない。 Note that if the inspection of a part of the region is omitted, for example, the both ends are inspected but the central portion is not inspected, there is no need to cut out the image of the part of the region by the clipping means 180. do not have.

本発明の検査装置及び学習モデル生成装置は、各装置の機能が記述されたプログラムをコンピュータに実行させることにより実現してもよい。すなわち、コンピュータにおいて、任意の記憶手段に記憶させたプログラムをCPUが読み出して実行することにより各装置の機能を実現してもよい。 The inspection device and learning model generation device of the present invention may be realized by causing a computer to execute a program in which the functions of each device are described. That is, in a computer, the functions of each device may be realized by having the CPU read out and execute a program stored in an arbitrary storage means.

以上説明した本発明の検査装置及び学習モデル生成装置によれば、重なりや接触がある状態で撮影された2以上の被検査物が表現された画像であっても、各被検査物を識別して検査を行うことが可能となる。 According to the inspection apparatus and the learning model generation apparatus of the present invention described above, each object can be identified even in an image representing two or more objects photographed in a state of overlap or contact. inspection can be carried out

なお、本発明は上記各実施形態に限定されるものではない。各実施形態は例示であり、本発明の特許請求の範囲に記載された技術的思想と実質的に同一な構成を有し、同様な作用効果を奏するものは、いかなるものであっても本発明の技術的範囲に包含される。すなわち、本発明において表現されている技術的思想の範囲内で適宜変更が可能であり、その様な変更や改良を加えた形態も本発明の技術的範囲に含む。 In addition, the present invention is not limited to the above embodiments. Each embodiment is an example, and the present invention can be any one that has substantially the same configuration as the technical idea described in the claims of the present invention and produces similar effects. included in the technical scope of That is, modifications can be made as appropriate within the scope of the technical ideas expressed in the present invention, and forms with such modifications and improvements are also included in the technical scope of the present invention.

100 検査装置
110 搬送手段
120 照射手段
130 検出手段
140 画像生成手段
150 特徴点情報出力手段
160 特徴点組抽出手段
170 検査手段
180 切り出し手段
A1~A4 円弧
C1~C6、C11~C16、C21~C26 特徴点
D1~D6 位置のずれ
G1、G2 特徴点組
H1~H6、H11~H16 H21~H26 確率分布
P1、P11 全体画像
T1~T6 部分画像
W1、W2、W11、W12 被検査物
100 inspection device 110 transportation means 120 irradiation means 130 detection means 140 image generation means 150 feature point information output means 160 feature point set extraction means 170 inspection means 180 clipping means A1 to A4 arcs C1 to C6, C11 to C16, C21 to C26 Features Points D1 to D6 Positional shifts G1, G2 Characteristic point sets H1 to H6, H11 to H16 H21 to H26 Probability distributions P1, P11 Whole images T1 to T6 Partial images W1, W2, W11, W12 Object to be inspected

Claims (15)

2以上の被検査物が表現された画像を全体画像として、予め備える学習済みモデルに前記全体画像を入力することにより得られた、前記全体画像における複数の特徴点の位置を特定可能な情報を出力する特徴点情報出力手段と、
前記被検査物の骨格形状の傾向に基づく位置関係の要件を満たす、前記被検査物における2以上の所定の個数の部位をそれぞれ代表する特徴点の組である特徴点組を、前記複数の特徴点の中から抽出する特徴点組抽出手段と、
前記特徴点組を構成する各特徴点の位置から特定される、前記全体画像に表現された前記被検査物の検査を、前記特徴点組に基づき行う検査手段と、
を備える検査装置。
Information capable of specifying the positions of a plurality of feature points in the overall image obtained by inputting the overall image to a pre-prepared trained model with an image representing two or more inspected objects as the overall image. feature point information output means for output;
A feature point set, which is a set of feature points respectively representing a predetermined number of two or more parts of the object to be inspected, satisfying the requirements of the positional relationship based on the tendency of the skeletal shape of the object to be inspected, is defined as the plurality of features. feature point set extraction means for extracting from points;
inspection means for inspecting the inspection object expressed in the overall image, which is specified from the positions of the feature points forming the feature point set, based on the feature point set;
inspection device.
前記位置関係の要件は、前記複数の特徴点の中から仮の特徴点組として抽出した前記所定の個数の特徴点を順次結んで形成された円弧に対する要件であることを特徴とする請求項1に記載の検査装置。 2. The requirement for the positional relationship is a requirement for an arc formed by sequentially connecting the predetermined number of feature points extracted as a set of temporary feature points from the plurality of feature points. The inspection device described in . 前記円弧に対する要件は、前記円弧の曲率半径に関する要件であることを特徴とする請求項2に記載の検査装置。 3. The inspection apparatus according to claim 2, wherein the requirement for the arc is a requirement for the radius of curvature of the arc. 前記円弧に対する要件は、前記円弧の長さに関する要件であることを特徴とする請求項2に記載の検査装置。 3. The inspection apparatus according to claim 2, wherein the requirement for the arc is a requirement for the length of the arc. 前記特徴点情報出力手段は、前記全体画像を前記学習済みモデルに入力することにより得られた、前記全体画像における複数の特徴点のそれぞれが代表する部位の情報を更に出力し、
前記特徴点組抽出手段は、前記複数の特徴点の中から、前記所定の個数の特徴点からなる仮の特徴点組を前記部位の情報を加味して抽出した上で、前記仮の特徴点組が前記位置関係の要件を満たしているか否かを判定することにより前記特徴点組を抽出する
ことを特徴とする請求項1から4のいずれか1項に記載の検査装置。
The feature point information output means further outputs information of a part represented by each of the plurality of feature points in the whole image, which is obtained by inputting the whole image into the trained model,
The feature point set extracting means extracts a provisional feature point set composed of the predetermined number of feature points from among the plurality of feature points in consideration of the part information, and extracts the provisional feature point set. 5. The inspection apparatus according to any one of claims 1 to 4, wherein the set of feature points is extracted by determining whether or not the set satisfies the requirements of the positional relationship.
前記被検査物を示す前記特徴点組は、前記被検査物の一方の端部、中央部及び他方の端部のそれぞれを代表する3個の特徴点の組であり、
前記特徴点組抽出手段は、前記複数の特徴点の中から仮の特徴点組として、代表する部位が中央部である特徴点と、代表する部位が端部である2個の特徴点と、を抽出した上で、前記位置関係の要件を満たしているか否かを判定することにより前記特徴点組を抽出する
ことを特徴とする請求項5に記載の検査装置。
The set of feature points indicating the object to be inspected is a set of three feature points representing one end, a central portion, and the other end of the object to be inspected,
The feature point set extracting means extracts, as a provisional feature point set from the plurality of feature points, a feature point whose representative portion is the central portion, two feature points whose representative portions are end portions, 6. The inspection apparatus according to claim 5, wherein the feature point set is extracted by determining whether or not the positional relationship requirements are satisfied after extracting .
前記位置関係の要件は、代表する部位が中央部である特徴点と代表する部位が端部である特徴点との距離が所定の範囲内にあるという要件であることを特徴とする請求項6に記載の検査装置。 6. The requirement for the positional relationship is a requirement that a distance between a feature point representing a central portion and a feature point representing an end portion be within a predetermined range. The inspection device described in . 前記特徴点組に属する前記特徴点の位置を基点とした所定の範囲を、前記特徴点が代表する前記被検査物の部位の画像として前記全体画像から切り出す切り出し手段を更に備え、
前記検査手段は、前記切り出し手段において切り出された画像に基づき前記被検査物の検査を行う
ことを特徴とする請求項1から7のいずれか1項に記載の検査装置。
further comprising clipping means for clipping a predetermined range with the position of the feature point belonging to the feature point set as a base point from the entire image as an image of the part of the object to be inspected represented by the feature point;
8. The inspection apparatus according to claim 1, wherein said inspection means inspects said inspection object based on the image cut out by said cutout means.
前記特徴点情報出力手段において、前記全体画像を前記学習済みモデルに入力することにより得られる前記特徴点の位置を特定可能な情報は、前記特徴点の位置が中央値かつ最頻値として表現された、確率密度が正規分布に従う確率分布であることを特徴とする請求項1から8のいずれか1項に記載の検査装置。 In the feature point information output means, the information capable of specifying the positions of the feature points obtained by inputting the whole image into the trained model is expressed as a median value and a mode value of the positions of the feature points. 9. The inspection apparatus according to any one of claims 1 to 8, wherein the probability density is a probability distribution following a normal distribution. 前記被検査物を搬送する搬送手段と、
前記搬送手段により搬送される前記被検査物に所定の電磁波を照射する照射手段と、
前記照射手段から照射され前記被検査物を経た電磁波を検出可能な位置に配置され、前記電磁波を検出して検出データを出力する検出手段と、
前記検出データに基づき前記全体画像を生成して、前記特徴点情報出力手段に提供する画像生成手段と、
を備える請求項1から9のいずれか1項に記載の検査装置。
a transport means for transporting the object to be inspected;
irradiating means for irradiating the object to be inspected transported by the transporting means with a predetermined electromagnetic wave;
a detection means arranged at a position capable of detecting an electromagnetic wave irradiated from the irradiation means and having passed through the object to be inspected, for detecting the electromagnetic wave and outputting detection data;
image generation means for generating the entire image based on the detection data and providing it to the feature point information output means;
The inspection device according to any one of claims 1 to 9, comprising:
2以上の被検査物が表現された画像である学習用画像と、正解ラベルである、前記学習用画像における複数の特徴点のそれぞれの位置の情報と、を含む教師データを用いて機械学習を実行することにより、複数の特徴点が未知である、2以上の被検査物が表現された画像である全体画像が入力されることにより、前記全体画像における複数の特徴点の位置を特定可能な情報を出力する学習モデルを生成する学習モデル生成装置。 Machine learning is performed using teacher data including a learning image, which is an image in which two or more inspected objects are expressed, and positional information of each of a plurality of feature points in the learning image, which is a correct label. By executing the method, an entire image, which is an image representing two or more inspected objects in which a plurality of feature points are unknown, is input, so that the positions of the plurality of feature points in the entire image can be specified. A learning model generation device that generates a learning model that outputs information. 前記正解ラベルは、前記学習用画像における複数の特徴点のそれぞれが代表する部位の情報を更に含み、
前記学習モデルは、前記全体画像における複数の特徴点のそれぞれが代表する部位の情報を更に出力する
ことを特徴とする請求項11に記載の学習モデル生成装置。
The correct label further includes information on a part represented by each of the plurality of feature points in the learning image,
12. The learning model generating apparatus according to claim 11, wherein the learning model further outputs information of a region represented by each of the plurality of feature points in the entire image.
前記学習モデルは前記特徴点の位置を特定可能な情報として、前記特徴点の位置が中央値かつ最頻値として表現された、確率密度が正規分布に従う確率分布を出力し、
前記正解ラベルは、正解ラベルとして学習用画像に設定した特徴点の位置が、中央値かつ最頻値である、確率密度が正規分布に従う確率分布であり、
前記機械学習においては、前記学習モデルが出力した確率分布と、前記正解ラベルである確率分布との一致度が高まるように前記学習モデルのパラメータを調整する
ことを特徴とする請求項11又は12に記載の学習モデル生成装置。
The learning model outputs a probability distribution according to a normal distribution in which the positions of the feature points are expressed as median and mode values as information that can specify the positions of the feature points,
The correct label is a probability distribution whose probability density follows a normal distribution in which the position of the feature point set in the learning image as the correct label is the median value and the mode value,
13. The method according to claim 11, wherein in the machine learning, parameters of the learning model are adjusted so that the probability distribution output by the learning model and the probability distribution of the correct label are more likely to match. The learning model generation device described.
コンピュータを請求項1から10のいずれか1項に記載の検査装置として機能させるためのプログラム。 A program for causing a computer to function as the inspection apparatus according to any one of claims 1 to 10. コンピュータを請求項11から13のいずれか1項に記載の学習モデル生成装置として機能させるためのプログラム。
A program for causing a computer to function as the learning model generation device according to any one of claims 11 to 13.
JP2021157224A 2021-09-27 2021-09-27 Inspection apparatus, learning model generation apparatus, and program Pending JP2023047998A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021157224A JP2023047998A (en) 2021-09-27 2021-09-27 Inspection apparatus, learning model generation apparatus, and program
CN202210998675.4A CN115880518A (en) 2021-09-27 2022-08-19 Inspection device, learning model generation device, method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021157224A JP2023047998A (en) 2021-09-27 2021-09-27 Inspection apparatus, learning model generation apparatus, and program

Publications (1)

Publication Number Publication Date
JP2023047998A true JP2023047998A (en) 2023-04-06

Family

ID=85769653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021157224A Pending JP2023047998A (en) 2021-09-27 2021-09-27 Inspection apparatus, learning model generation apparatus, and program

Country Status (2)

Country Link
JP (1) JP2023047998A (en)
CN (1) CN115880518A (en)

Also Published As

Publication number Publication date
CN115880518A (en) 2023-03-31

Similar Documents

Publication Publication Date Title
CN113095303B (en) Model training method, forest land change detection system, forest land change detection device and forest land change detection medium
CN110930347A (en) Convolutional neural network training method, and method and device for detecting welding spot defects
EP3699579B1 (en) Inspection method and inspection device and computer-readable medium
JP5616182B2 (en) X-ray inspection equipment
US11574395B2 (en) Damage detection using machine learning
JP2008292365A (en) Shape evaluation method, shape evaluation device, and three-dimensional inspection device
CN109117814A (en) Image processing method, device, electronic equipment and medium
US20230062924A1 (en) Methods and devices for determining a location associated with a gemstone
CN109542562A (en) The recognition methods of interface images and device
Kim et al. End-to-end digitization of image format piping and instrumentation diagrams at an industrially applicable level
JP7282409B2 (en) Bicycle non-destructive inspection device, method, and computer-readable recording medium based on scale value variation analysis
JP2023047998A (en) Inspection apparatus, learning model generation apparatus, and program
Frustaci et al. Robust and high-performance machine vision system for automatic quality inspection in assembly processes
Chen et al. Structure guided texture inpainting through multi-scale patches and global optimization for image completion
JP2021050959A (en) Inspection device and program
KR102647255B1 (en) Information processing methods and computer programs recorded on recording media
CN111240978A (en) Data report generation and analysis method
Ziabari et al. A two-tier convolutional neural network for combined detection and segmentation in biological imagery
CN112101385B (en) Weak supervision text detection method
JP7457281B2 (en) Information processing device, information processing method, and program
CN104598384B (en) code detection method and device
KR102082129B1 (en) Apparatus and method for identifying specific animal species based on image recognition
Zhang et al. Deep learning approach in characterizing salt body on seismic images
JP2022128310A (en) Counting device, learning model generation device, inspection device, and program
Chen et al. Timber Knot Detector with Low False-Positive Results by Integrating an Overlapping Bounding Box Filter with Faster R-CNN Algorithm.