JP2023111297A - Program, inspection method, and inspection device - Google Patents

Program, inspection method, and inspection device Download PDF

Info

Publication number
JP2023111297A
JP2023111297A JP2022013087A JP2022013087A JP2023111297A JP 2023111297 A JP2023111297 A JP 2023111297A JP 2022013087 A JP2022013087 A JP 2022013087A JP 2022013087 A JP2022013087 A JP 2022013087A JP 2023111297 A JP2023111297 A JP 2023111297A
Authority
JP
Japan
Prior art keywords
image
orientation
identifying
planar
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022013087A
Other languages
Japanese (ja)
Inventor
眞平 佐藤
Shinpei Sato
侑馬 小山
Yuma Koyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Acuity Inc
Original Assignee
Acuity Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Acuity Inc filed Critical Acuity Inc
Priority to JP2022013087A priority Critical patent/JP2023111297A/en
Publication of JP2023111297A publication Critical patent/JP2023111297A/en
Pending legal-status Critical Current

Links

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

To provide a program with which it is possible to identify a mismatch point where an object and design data do not match by a reduced amount of calculation.SOLUTION: A program pertaining to the present invention causes a computer to execute the steps of: acquiring a captured image P of an object 30 which is placed on an inspection table 5; extracting the geometric feature of the object 30 on the basis of the captured image P and generating a first plane image 51 in which the extracted geometric feature is included; extracting the geometric feature of a three-dimensional model 40 on the basis of a two-dimensional shape indicated by the three-dimensional model 40 while the three-dimensional model 40 is directed in a first direction corresponding to the bearing of the object 30 on the inspection table 5, and generating a second plane image 52 in which the extracted geometric feature is included; identifying a mismatch point 53 where the geometric feature of the object in the first plane image 51 and the geometric feature of the three-dimensional model in the second plane image 52 do not match; and outputting information that indicates the mismatch point 53.SELECTED DRAWING: Figure 2

Description

本発明は、プログラム、検査方法、及び検査装置に関する。 The present invention relates to a program, an inspection method, and an inspection apparatus.

従来、立体構造物の撮像画像から抽出された立体構造物のエッジ線と、CADモデルの稜線とを重畳させて表示する技術が知られている(例えば、特許文献1を参照)。 Conventionally, there is known a technique for superimposing and displaying edge lines of a three-dimensional structure extracted from a captured image of the three-dimensional structure and edge lines of a CAD model (see, for example, Patent Document 1).

特開2017-91078号公報JP-A-2017-91078

従来の技術では、撮像画像から抽出されたエッジ線を、三次元のCADモデルの各稜線に重畳させる、あるいは3Dスキャナーなどで3次元構造を全て計測する必要があり、計算量の多い演算処理が必要であるという問題があった。 With the conventional technology, it is necessary to superimpose the edge lines extracted from the captured image on each edge line of the three-dimensional CAD model, or to measure the entire three-dimensional structure with a 3D scanner, etc., which requires a large amount of computational processing. The problem was that it was necessary.

そこで、本発明はこれらの点に鑑みてなされたものであり、少ない計算量で対象物と設計データとの不一致箇所を特定できるプログラム、検査方法、及び検査装置を提供することを目的とする。 Therefore, the present invention has been made in view of these points, and it is an object of the present invention to provide a program, an inspection method, and an inspection apparatus that can identify a mismatching point between an object and design data with a small amount of calculation.

上記課題を解決するための本発明のプログラムは、コンピュータに、検査台に載置された対象物を撮像装置で撮影することにより生成された撮像画像を取得する画像取得ステップと、前記撮像画像に基づき前記対象物の形状的特徴を抽出し、抽出した前記形状的特徴が含まれる第1平面画像を生成する第1画像生成ステップと、前記対象物の三次元CADデータによって表される立体モデルが前記対象物の前記検査台における向きに対応する第1向きに向けられた状態で前記立体モデルが示す二次元形状に基づき、前記立体モデルの形状的特徴を抽出し、抽出した前記形状的特徴が含まれる第2平面画像を生成する第2画像生成ステップと、前記第1平面画像における前記対象物の形状的特徴と、前記第2平面画像における前記立体モデルの形状的特徴とが一致しない不一致箇所を特定する不一致箇所特定ステップと、前記不一致箇所を示す情報を出力する出力ステップと、を実行させる。 A program according to the present invention for solving the above-mentioned problems includes, in a computer, an image acquisition step of acquiring a captured image generated by capturing an image of an object placed on an examination table with an imaging device; a first image generating step of extracting the shape features of the object based on the above, and generating a first planar image including the extracted shape features; Based on a two-dimensional shape shown by the three-dimensional model in a state in which the object is oriented in a first direction corresponding to the orientation on the examination table, geometric features of the three-dimensional model are extracted, and the extracted shape features are a second image generating step of generating a second planar image to be included; and a mismatched portion where the geometric features of the object in the first planar image do not match the geometric features of the stereo model in the second planar image. and an output step of outputting information indicating the inconsistent portion.

前記画像取得ステップでは、前記対象物に対して所定の位置関係で配置された図形パターンと前記対象物とを前記撮像装置で一緒に撮像することにより生成された前記撮像画像を取得し、前記第2画像生成ステップは、取得した前記図形パターンの画像に基づいて前記対象物の向きを特定するステップと、特定した前記対象物の向きと前記立体モデルの向きとが対応するように、前記立体モデルを前記第1向きに向けることにより前記第2平面画像を生成するステップと、を有してもよい。 In the image acquisition step, the captured image generated by capturing an image of the object together with a figure pattern arranged in a predetermined positional relationship with respect to the object with the imaging device is acquired, The 2-image generating step includes: identifying the orientation of the object based on the obtained image of the figure pattern; generating said second planar image by orienting in said first orientation.

前記対象物の向きを特定するステップでは、前記図形パターンの画像に基づいて前記図形パターンの向きを特定し、前記対象物と前記図形パターンとの位置関係を示す情報を参照することにより、特定した前記図形パターンの向きに対応する前記対象物の向きを特定してもよい。 In the step of identifying the orientation of the object, the orientation of the graphic pattern is identified based on the image of the graphic pattern, and the orientation of the graphic pattern is identified by referring to information indicating the positional relationship between the object and the graphic pattern. An orientation of the object corresponding to the orientation of the graphic pattern may be identified.

前記画像取得ステップでは、前記検査台に載置された、前記対象物を位置決めする治具に対して所定の位置関係で配置された治具用図形パターンを撮像することにより生成された前記撮像画像を取得し、前記第2画像生成ステップは、取得した前記治具用図形パターンの画像に基づいて前記治具の向きを特定するステップと、特定した前記治具の向き対応する前記対象物の向きと前記立体モデルの向きとが対応するように、前記立体モデルを前記第1向きに向けることにより前記第2平面画像を生成するステップと、を有してもよい。 In the image acquisition step, the imaged image generated by imaging a jig figure pattern arranged in a predetermined positional relationship with respect to a jig for positioning the object, which is placed on the inspection table. is obtained, and the second image generating step includes: identifying the orientation of the jig based on the obtained image of the jig graphic pattern; and identifying the orientation of the object corresponding to the identified orientation of the jig. generating the second planar image by orienting the three-dimensional model in the first direction such that the direction of the three-dimensional model corresponds to the direction of the three-dimensional model.

前記第2画像生成ステップでは、前記図形パターンに含まれる複数の図形を結ぶベクトルの向きを特定することにより、前記図形パターンの向きを特定してもよい。 In the second image generating step, the direction of the figure pattern may be specified by specifying the direction of a vector connecting a plurality of figures included in the figure pattern.

前記第2画像生成ステップは、前記第1平面画像が示す前記対象物の形状的特徴と、前記第1向きに対応する前記立体モデルに基づく形状的特徴との一致度が閾値以上であるか否かを判定するステップと、前記一致度が前記閾値未満である場合に、前記第1向きと異なる第2向きに向けられた状態で前記立体モデルが示す二次元形状に基づき更新形状的特徴を抽出するステップと、前記第1平面画像が示す前記対象物の形状的特徴と、前記更新形状的特徴との一致度が前記閾値以上である場合に、前記更新形状的特徴が含まれる前記第2平面画像を生成するステップと、を有してもよい。 The second image generating step determines whether a degree of matching between the shape feature of the object indicated by the first planar image and the shape feature based on the stereo model corresponding to the first orientation is equal to or greater than a threshold. extracting an updated geometric feature based on a two-dimensional shape shown by the solid model in a state of being oriented in a second direction different from the first direction if the degree of matching is less than the threshold; and the second plane including the updated geometric feature when a degree of matching between the geometric feature of the object indicated by the first plane image and the updated geometric feature is equal to or greater than the threshold value. and generating an image.

前記第2画像生成ステップは、前記立体モデルに基づいて生成された複数の前記第2平面画像を参照し、複数の前記第2平面画像の中から前記第1平面画像に類似度が最も高い1つを選択してもよい。 The second image generating step refers to a plurality of the second plane images generated based on the stereo model, and selects one having the highest similarity to the first plane image among the plurality of the second plane images. You can choose one.

前記第2画像生成ステップは、前記対象物に形成された複数の構造部の画像に基づいて前記対象物の向きを特定するステップと、特定した前記対象物の向きと前記立体モデルの向きとが対応するように、前記立体モデルを前記第1向きに向けることにより前記第2平面画像を生成するステップと、を有してもよい。 The second image generation step includes: specifying an orientation of the object based on images of a plurality of structural parts formed on the object; Correspondingly, generating said second planar image by orienting said solid model in said first orientation.

前記複数の構造部の画像に基づいて前記対象物の向きを特定するステップは、前記三次元CADデータを参照してそれぞれの前記構造部が所定の位置及び/又は所定の形状であるかを判定し、3つ以上の前記構造部が所定の位置及び/又は所定の形状であった場合に、前記複数の構造部の画像に基づいて前記対象物の向きを特定するステップを含んでもよい。 The step of identifying the orientation of the object based on the images of the plurality of structural parts refers to the three-dimensional CAD data and determines whether each of the structural parts has a predetermined position and/or a predetermined shape. and determining the orientation of the object based on the images of the plurality of structures when three or more of the structures have predetermined positions and/or predetermined shapes.

前記画像取得ステップは、複数の前記撮像装置で前記対象物を複数の向きから撮影して生成された複数の前記撮像画像を取得するステップを含み、前記不一致箇所特定ステップは、それぞれの前記撮像画像に基づいて生成された前記第1平面画像及び第2平面画像に基づいて、前記対象物の複数の向きにおける前記不一致箇所を特定するステップを含んでもよい。 The image acquisition step includes acquiring a plurality of captured images generated by capturing images of the object from a plurality of orientations with a plurality of the imaging devices, and the mismatching portion identifying step includes capturing each of the captured images. identifying the inconsistent points in a plurality of orientations of the object based on the first planar image and the second planar image generated based on.

前記画像取得ステップは、1つ又は複数の前記撮像装置が複数の前記対象物を撮影して生成された前記撮像画像を取得するステップを含み、前記不一致箇所特定ステップは、前記複数の対象物のそれぞれについて前記不一致箇所を特定するステップを含んでもよい。 The image acquisition step includes a step of acquiring the captured images generated by photographing a plurality of the objects by one or a plurality of the imaging devices, and the mismatching part identifying step includes: The step of identifying the discrepancies for each may be included.

前記第1画像生成ステップは、前記撮像装置で前記対象物を連続的に撮影して前記第1平面画像を更新するステップを含み、前記不一致箇所特定ステップは、更新後の前記第1平面画像と更新前の前記第1平面画像との一致度が所定の閾値未満である場合に、更新後の前記第1平面画像に基づいて前記不一致箇所を特定するステップを含んでもよい。 The first image generation step includes a step of continuously photographing the object with the imaging device to update the first planar image, and the discrepancy identifying step includes updating the first planar image and The method may include identifying the mismatched portion based on the first planar image after updating when the degree of matching with the first planar image before updating is less than a predetermined threshold.

前記対象物の形状的特徴及び前記立体モデルの形状的特徴が、前記対象物及び前記立体モデルのエッジ線であり、前記不一致箇所特定ステップでは、前記対象物のエッジ線と、前記対象物のエッジ線に対応する部分の前記立体モデルの前記エッジ線とが所定の閾値以上離れている箇所を前記不一致箇所と特定してもよい。 The geometrical features of the object and the geometrical features of the three-dimensional model are edge lines of the object and the three-dimensional model, and in the discrepancy identifying step, edge lines of the object and edges of the object A location where the portion corresponding to the line and the edge line of the three-dimensional model are separated by a predetermined threshold or more may be specified as the mismatch location.

前記出力ステップは、前記撮像画像における前記対象物の画像に前記立体モデルの前記形状的特徴であるエッジ線を重畳させた画像である検査結果画像を出力するステップを含んでもよい。 The output step may include a step of outputting an inspection result image, which is an image obtained by superimposing the edge line, which is the shape feature of the stereo model, on the image of the object in the captured image.

前記出力ステップは、前記対象物に対して、前記不一致箇所の位置を示す光、又は、前記三次元CADデータが表す設計上の前記対象物の構造部の位置及び/又は形状を示す光を投影するステップを含んでいてもよい。 In the output step, light indicating the position of the non-matching portion or light indicating the position and/or shape of the structural portion of the designed object represented by the three-dimensional CAD data is projected onto the object. may include the step of

前記出力ステップは、前記不一致箇所が存在することを示す情報、前記不一致箇所の位置を示す情報、又は、前記三次元CADデータが表す設計上の前記対象物の構造部の位置及び/又は形状の情報を、表示部に出力するステップを含んでもよい。 The output step includes information indicating the presence of the non-matching portion, information indicating the position of the non-matching portion, or position and/or shape of the structural portion of the design object represented by the three-dimensional CAD data. A step of outputting the information to a display may be included.

前記不一致箇所特定ステップは、前記第1平面画像に基づいて前記不一致箇所を特定した後、更新された前記第1平面画像に基づいて不一致箇所を再度特定するステップを含み、前記出力ステップは、前記更新された第1平面画像に基づいて不一致箇所を再度特定するステップにおいて特定された不一致箇所の数又は範囲が所定の基準値未満となった場合に、表示部にその旨を示す情報を出力してもよい。 The mismatching point identifying step includes identifying the mismatching point based on the first planar image, and then re-identifying the mismatching point based on the updated first planar image. When the number or range of mismatched points identified in the step of re-identifying the mismatched points based on the updated first planar image is less than a predetermined reference value, outputting information to that effect to the display unit. may

前記出力ステップは、前記不一致箇所となっている部分に関連付けられた作業情報を出力するステップを含んでもよい。 The outputting step may include outputting work information associated with the inconsistent portion.

本発明の検査方法は、コンピュータが実行する、検査台に載置された対象物を撮像装置で撮影することにより生成された撮像画像を取得する画像取得ステップと、前記撮像画像に基づき前記対象物の形状的特徴を抽出し、抽出した前記形状的特徴が含まれる第1平面画像を生成する第1画像生成ステップと、前記対象物の三次元CADデータによって表される立体モデルが前記対象物の前記検査台における向きに対応する向きに向けられた状態で前記立体モデルが示す二次元形状に基づき、前記立体モデルの形状的特徴を抽出し、抽出した前記形状的特徴が含まれる第2平面画像を生成する第2画像生成ステップと、前記第1平面画像における前記対象物の形状的特徴と、前記第2平面画像における前記立体モデルの形状的特徴とが一致しない不一致箇所を特定する不一致箇所特定ステップと、前記不一致箇所を示す情報を出力する出力ステップと、を有する。 An inspection method of the present invention includes an image acquisition step of acquiring a captured image generated by capturing an image of an object placed on an inspection table with an imaging device, executed by a computer; a first image generating step of extracting the geometrical features of the object and generating a first planar image containing the extracted geometrical features; Based on the two-dimensional shape shown by the three-dimensional model while being oriented in the direction corresponding to the orientation on the examination table, the shape features of the three-dimensional model are extracted, and a second planar image including the extracted shape features. a second image generating step of generating a non-matching portion identification of identifying a mismatched portion between the shape feature of the object in the first planar image and the shape feature of the three-dimensional model in the second planar image; and an output step of outputting information indicating the inconsistent portion.

本発明の検査装置は、検査台に載置された対象物を撮像装置で撮影することにより生成された撮像画像を取得する画像取得部と、前記撮像画像に基づき前記対象物の形状的特徴を抽出し、抽出した前記形状的特徴が含まれる第1平面画像を生成する第1画像生成部と、前記対象物の三次元CADデータによって表される立体モデルが前記対象物の前記検査台における向きに対応する向きに向けられた状態で前記立体モデルが示す二次元形状に基づき、前記立体モデルの形状的特徴を抽出し、抽出した前記形状的特徴が含まれる第2平面画像を生成する第2画像生成部と、前記第1平面画像における前記対象物の形状的特徴と、前記第2平面画像における前記立体モデルの形状的特徴とが一致しない不一致箇所を特定する不一致箇所特定部と、前記不一致箇所を示す情報を出力する出力部と、を備える。 An inspection apparatus of the present invention includes an image acquisition unit that acquires a captured image generated by capturing an image of an object placed on an inspection table with an imaging device, and a shape feature of the object based on the captured image. a first image generation unit that extracts and generates a first planar image that includes the extracted shape features; a second planar image that extracts geometric features of the three-dimensional model based on the two-dimensional shape shown by the three-dimensional model while being oriented in a direction corresponding to a second planar image that includes the extracted geometric features; an image generating unit, a mismatching point identifying unit that identifies mismatching points where the geometrical features of the object in the first planar image and the geometrical features of the stereo model in the second planar image do not match, and the mismatching part. and an output unit that outputs information indicating the location.

本発明によれば、少ない計算量で対象物と設計データとの不一致箇所を特定できるプログラム、検査方法、及び検査装置を提供できるという効果を奏する。 ADVANTAGE OF THE INVENTION According to this invention, it is effective in the ability to provide the program, the inspection method, and the inspection apparatus which can specify the non-matching part of a target object and design data with a small amount of calculations.

本実施形態の検査システムの構成を示すブロック図である。1 is a block diagram showing the configuration of an inspection system of this embodiment; FIG. 図1の検査システムによる検査方法の概要を説明するための図である。2 is a diagram for explaining an outline of an inspection method by the inspection system of FIG. 1; FIG. 対象物の具体例を示す斜視図である。It is a perspective view which shows the example of a target object. 撮像装置によって撮影された撮像画像の一例である。It is an example of the captured image image|photographed with the imaging device. 第1平面画像の具体的な一例である。It is a specific example of the first plane image. 第2平面画像の具体的な一例である。It is a specific example of the second plane image. 検査結果を示す検査結果画像の一例である。It is an example of an inspection result image showing an inspection result. 検査システムによる動作フローの一例である。It is an example of the operation flow by an inspection system. 第2の実施形態の検査システムを示す図である。It is a figure which shows the inspection system of 2nd Embodiment. 撮像装置が撮影した対象物の画像の一例である。It is an example of the image of the object which the imaging device image|photographed. 複数の撮像装置を備える検査システムの例を示す図である。1 is a diagram illustrating an example of an inspection system that includes multiple imaging devices; FIG. 出力部が投影装置に出力を行う構成を示すブロック図である。3 is a block diagram showing a configuration in which an output unit outputs to a projection device; FIG.

<第1の実施形態>
[検査システムS100の概要]
図1は、本実施形態の検査システムS100の構成を示すブロック図である。図2は、図1の検査システムS100による検査方法の概要を説明するための図である。以下の説明では、同一又は対応する要素には同一又は対応する符号を付し、重複する説明は省略する。
<First embodiment>
[Overview of inspection system S100]
FIG. 1 is a block diagram showing the configuration of an inspection system S100 of this embodiment. FIG. 2 is a diagram for explaining an outline of an inspection method by the inspection system S100 of FIG. In the following description, the same or corresponding elements are denoted by the same or corresponding reference numerals, and overlapping descriptions are omitted.

(検査システムS100による検査方法の概要)
検査システムS100は、図1に示すように、撮像装置1と検査装置2とを備える。撮像装置1は、図2に示すように、現実空間において検査台5に載置された対象物30を撮影して撮像画像Pを生成する。検査装置2は、撮像装置1が生成した撮像画像Pに基づき第1平面画像51を生成する。第1平面画像51は、撮像画像Pに写っている対象物30から抽出された二次元的な形状的特徴を含む平面画像である。
(Outline of inspection method by inspection system S100)
The inspection system S100 includes an imaging device 1 and an inspection device 2, as shown in FIG. As shown in FIG. 2, the imaging device 1 captures an object 30 placed on an examination table 5 in real space to generate a captured image P. As shown in FIG. The inspection device 2 generates a first planar image 51 based on the captured image P generated by the imaging device 1 . The first planar image 51 is a planar image including two-dimensional shape features extracted from the object 30 appearing in the captured image P. FIG.

検査装置2は、また、対象物30の設計データである三次元CADデータが示す立体モデル40に基づいて第2平面画像52を生成する。第2平面画像52は、CAD空間の立体モデル40が対象物30の検査台5における向きに対応する第1向きに向けられた状態で立体モデル40が示す形状から抽出された二次元的な形状的特徴を含む平面画像である。 The inspection device 2 also generates a second planar image 52 based on the three-dimensional model 40 indicated by the three-dimensional CAD data, which is the design data of the object 30 . The second planar image 52 is a two-dimensional shape extracted from the shape shown by the three-dimensional model 40 in the CAD space when the three-dimensional model 40 is oriented in the first direction corresponding to the orientation of the object 30 on the examination table 5. 2 is a planar image containing the characteristic features.

検査装置2は、第1平面画像51と第2平面画像52とを比較して形状的特徴が互いに一致しない不一致箇所53を特定し、特定した結果を出力する。 The inspection device 2 compares the first planar image 51 and the second planar image 52 to identify mismatching portions 53 where the shape features do not match each other, and outputs the identified result.

このような構成によれば、対象物30の形状的特徴と立体モデル40の形状的特徴との不一致箇所が検査装置2によって特定され、出力されるので、ユーザは、例えば対象物30が設計データどおりに製造されているか等を確認できる。また、検査装置2は、対象物30及び立体モデル40の三次元形状ではなく二次元形状に基づいて不一致箇所53を特定するため、不一致箇所53を特定する演算処理における計算コストが少なくて済む。 According to such a configuration, the inspecting apparatus 2 identifies and outputs the mismatched points between the geometrical features of the object 30 and the geometrical features of the three-dimensional model 40, so that the user can, for example, specify the object 30 as the design data. You can check if it is manufactured correctly. In addition, since the inspection device 2 identifies the non-matching portion 53 based on the two-dimensional shape of the object 30 and the three-dimensional model 40 rather than the three-dimensional shape, the computational cost for identifying the non-matching portion 53 can be reduced.

[検査システムS100の詳細な構成]
以下、図3に示すような形状の対象物30を検査システムS100が検査する場合を例として用いて検査システムS100の詳細について説明する。図3は、対象物30の具体例を示す斜視図である。図3(a)は実際に製造された対象物30の斜視図であり、図3(b)は対象物30の立体モデル40である。
[Detailed Configuration of Inspection System S100]
The details of the inspection system S100 will be described below using the case where the inspection system S100 inspects an object 30 having a shape as shown in FIG. 3 as an example. FIG. 3 is a perspective view showing a specific example of the target object 30. As shown in FIG. 3(a) is a perspective view of an actually manufactured object 30, and FIG. 3(b) is a three-dimensional model 40 of the object 30. FIG.

対象物30は、本体部31と、突出部32とを有する。本体部31には一例として4つの孔31a、孔31b、孔31c及び孔31dが形成されている。突出部32は、本体部31の上部から突出している。 The object 30 has a body portion 31 and a projecting portion 32 . As an example, the body portion 31 is formed with four holes 31a, 31b, 31c and 31d. The protruding portion 32 protrudes from the upper portion of the main body portion 31 .

立体モデル40は、対象物30の設計データである三次元CADデータが示すモデルある。立体モデル40と対象物30との形状的な相違点については、他の図面も参照して後述する。 The three-dimensional model 40 is a model indicated by three-dimensional CAD data, which is design data of the object 30 . A difference in shape between the three-dimensional model 40 and the object 30 will be described later with reference to other drawings.

(撮像装置1)
撮像装置1は、図1及び図2に示すように対象物30を撮影するカメラであり、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を有する。撮像装置1は、一例として単焦点のカメラである。第1の実施形態では撮像装置1が1つのみの構成について説明する。複数の撮像装置1を備える実施形態については後述する。
(Imaging device 1)
The imaging device 1 is a camera for imaging an object 30 as shown in FIGS. 1 and 2, and has an imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The imaging device 1 is, for example, a single focus camera. In the first embodiment, a configuration in which only one imaging device 1 is provided will be described. An embodiment including a plurality of imaging devices 1 will be described later.

撮像装置1は、例えばカメラスタンド(不図示)によって支持され、検査台5の側に向けられている。撮像装置1は、対象物30を良好に撮影できるように不図示の照明装置を有していてもよい。照明装置としては、任意の方式を利用可能であり、例えば透過照明方式、反射照明方式、又は同軸落射照明方式等が利用される。 The imaging device 1 is supported by, for example, a camera stand (not shown) and directed toward the examination table 5 . The imaging device 1 may have an illumination device (not shown) so that the object 30 can be photographed well. Any system can be used as the illumination device, and for example, a transmissive illumination system, a reflected illumination system, or a coaxial epi-illumination system can be used.

撮像装置1は、対象物30を撮影し撮像画像Pを生成する。図4は、撮像装置1によって撮影された撮像画像Pの一例である。撮像装置1は、図4に示すように、検査台5に載置された対象物30と図形パターン60とを一緒に撮像して撮像画像Pを生成する。 The imaging device 1 captures an image of an object 30 and generates a captured image P. FIG. FIG. 4 is an example of a captured image P captured by the imaging device 1. As shown in FIG. As shown in FIG. 4, the imaging device 1 images the object 30 placed on the inspection table 5 and the figure pattern 60 together to generate a captured image P. As shown in FIG.

図形パターン60は、対象物30に対して所定の位置関係で配置されている。図形パターン60は、後述するように、検査台5の上に載置された対象物30の向きを特定するためのものである。図形パターン60は、互いに所定の間隔で並んだ複数の図形61を含んでいる。図形パターン60は、サークルグリッドのパターンであり、例えば格子状に等間隔で配置された円形のドットの図形61を有する。図形パターン60は、一例として、対象物30に対して所定の位置関係となる位置にユーザによって取り付けられる。 The figure pattern 60 is arranged in a predetermined positional relationship with respect to the target object 30 . The graphic pattern 60 is for specifying the orientation of the object 30 placed on the inspection table 5, as will be described later. A figure pattern 60 includes a plurality of figures 61 arranged at predetermined intervals. The figure pattern 60 is a circle grid pattern, and has, for example, figures 61 of circular dots arranged at regular intervals in a grid. As an example, the graphic pattern 60 is attached by the user at a position having a predetermined positional relationship with respect to the object 30 .

なお、図形パターン60は、図4に示すもの以外にも種々変更可能である。図形パターンは、対象物30の一部に貼り付けられてもよい。図形パターンは、対象物30と別体に形成されてもよいし、対象物30に一体的に形成されてもよい。例えば、対象物30の複数の箇所に例えば樹脂部品等が配置され、これら複数の樹脂部品が図形パターンとして機能するものであってもよい。 It should be noted that the figure pattern 60 can be modified in various ways other than the one shown in FIG. A graphic pattern may be applied to a portion of the object 30 . The graphic pattern may be formed separately from the object 30 or integrally formed with the object 30 . For example, resin parts or the like may be arranged at a plurality of locations on the object 30, and the plurality of resin parts may function as a graphic pattern.

図形パターンは、また、例えば四角形の複数の図形を含むスクエアグリッドのパターンや二次元バーコードであってもよい。スクエアグリッドのパターンについては第2の実施形態で例示する。検査装置2は、図形パターンではなく、対象物30に形成された複数の構造部の画像に基づいて対象物30が向いている向きを特定することも可能である。これについては第3の実施形態で説明する。 The graphic pattern may also be, for example, a square grid pattern containing a plurality of rectangular graphics, or a two-dimensional barcode. A square grid pattern is exemplified in the second embodiment. The inspection apparatus 2 can also identify the orientation of the object 30 based on images of a plurality of structural portions formed on the object 30 instead of the graphic pattern. This will be explained in a third embodiment.

(検査装置2)
検査装置2は、本発明の一実施形態のコンピュータプログラムがインストールされたコンピュータである。検査装置2は、図1に示すように、入力デバイス21、表示部22、記憶部23、及び制御部24を有している。
(Inspection device 2)
The inspection device 2 is a computer installed with a computer program according to one embodiment of the present invention. The inspection apparatus 2 has an input device 21, a display section 22, a storage section 23, and a control section 24, as shown in FIG.

入力デバイス21は、ユーザからの入力を受け付けるためのデバイスである。入力デバイス21は、例えばキーボード、マウス、タッチディスプレイ等の任意のデバイスである。表示部22は、各種の情報を表示する1つ又は複数のディスプレイである。 The input device 21 is a device for receiving input from a user. The input device 21 is any device such as a keyboard, mouse, touch display, or the like. The display unit 22 is one or more displays that display various types of information.

記憶部23は、各種のデータを記憶する記憶媒体であり、ROM(Read Only Memory)、RAM(Random Access Memory)、及びハードディスク等を有する。記憶部23は、制御部24が実行するコンピュータプログラムを記憶する。記憶部23は、図形パターン60の対象物30に対する位置関係を示す情報を記憶する。記憶部23は、対象物30の三次元CADデータを、対象物30の識別情報に関連付けて記憶していてもよい。記憶部23は、治具用図形パターン60A(図9)の治具70に対する位置関係を示す情報を記憶してもよい。記憶部23は、例えば、検査装置2が不一致箇所を特定する際に参照する、対象物30のエッジ線と立体モデル40のエッジ線との間の距離の閾値情報を記憶してもよい。 The storage unit 23 is a storage medium that stores various data, and includes a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk, and the like. The storage unit 23 stores computer programs executed by the control unit 24 . The storage unit 23 stores information indicating the positional relationship of the graphic pattern 60 with respect to the object 30 . The storage unit 23 may store the three-dimensional CAD data of the target object 30 in association with the identification information of the target object 30 . The storage unit 23 may store information indicating the positional relationship of the jig figure pattern 60A ( FIG. 9 ) with respect to the jig 70 . The storage unit 23 may store, for example, threshold information of the distance between the edge line of the object 30 and the edge line of the three-dimensional model 40, which the inspection device 2 refers to when identifying the mismatched portion.

制御部24は、CPU(Central Processing Unit)等を有する。制御部24は、記憶部23が記憶するコンピュータプログラムを実行することにより、画像取得部241、第1画像生成部242、第2画像生成部243、不一致箇所特定部244、及び出力部245として機能する。 The control unit 24 has a CPU (Central Processing Unit) and the like. The control unit 24 functions as an image acquisition unit 241, a first image generation unit 242, a second image generation unit 243, a mismatched part identification unit 244, and an output unit 245 by executing computer programs stored in the storage unit 23. do.

(制御部24の各機能部について)
以下、制御部24の各機能部の機能について、第1平面画像51及び第2平面画像52の具体的な例を参照しながら説明する。図5は、第1平面画像51の具体的な一例である。図6は、第2平面画像52の具体的な一例である。
(Regarding each functional unit of the control unit 24)
The function of each functional unit of the control unit 24 will be described below with reference to specific examples of the first planar image 51 and the second planar image 52 . FIG. 5 is a specific example of the first planar image 51. As shown in FIG. FIG. 6 is a specific example of the second plane image 52. As shown in FIG.

画像取得部241は、撮像装置1が検査台5に載置された対象物30を撮影することにより生成した撮像画像Pを取得する。画像取得部241は、具体的には、撮像装置1が図形パターン60と対象物30とを一緒に撮像することにより生成した撮像画像P(図4)を取得する。 The image acquisition unit 241 acquires a captured image P generated by capturing an image of the object 30 placed on the inspection table 5 by the imaging device 1 . Specifically, the image acquisition unit 241 acquires the captured image P ( FIG. 4 ) generated by the imaging device 1 capturing the graphic pattern 60 and the target object 30 together.

(第1平面画像51を生成する処理)
第1画像生成部242は、画像取得部241が取得した撮像画像Pに基づき第1平面画像51(図2参照)を生成する。第1画像生成部242は、具体的には、撮像画像Pの対象物30の形状的特徴を抽出する。第1画像生成部242は、より具体的には、対象物30のエッジ線を形状的特徴として抽出する。エッジ線の抽出は、従来公知の技術により実施可能である。第1画像生成部242は、図5に示すように、抽出したエッジ線E1を含む画像を二次元の画像である第1平面画像51として生成する。
(Processing for Generating First Planar Image 51)
The first image generating section 242 generates the first planar image 51 (see FIG. 2) based on the captured image P acquired by the image acquiring section 241 . Specifically, the first image generator 242 extracts the shape feature of the target object 30 of the captured image P. As shown in FIG. More specifically, the first image generator 242 extracts the edge line of the object 30 as a shape feature. Extraction of edge lines can be performed by a conventionally known technique. As shown in FIG. 5, the first image generator 242 generates an image including the extracted edge line E1 as a first planar image 51, which is a two-dimensional image.

(第2平面画像52を生成する処理)
第2画像生成部243は、対象物30に対応する立体モデル40のデータを記憶部23から読み込む。第2画像生成部243は、具体的には、ユーザが入力した対象物30の識別情報に関連付けられた立体モデル40のデータを記憶部23から読み込む。第2画像生成部243は、検査装置2とは異なる外部の記憶装置(不図示)から立体モデル40のデータを読み込んでもよい。
(Processing for Generating Second Planar Image 52)
The second image generator 243 reads the data of the three-dimensional model 40 corresponding to the object 30 from the storage unit 23 . Specifically, the second image generation unit 243 reads from the storage unit 23 the data of the three-dimensional model 40 associated with the identification information of the object 30 input by the user. The second image generator 243 may read the data of the three-dimensional model 40 from an external storage device (not shown) different from the inspection device 2 .

第2画像生成部243は、立体モデル40に基づいて第2平面画像52を生成する。第2画像生成部243は、具体的には、立体モデル40が対象物30の検査台5における向きに対応する第1向きに向けられた状態で立体モデル40が示す二次元形状に基づき、立体モデル40の形状的特徴を抽出する。第2画像生成部243は、図4に示すように、撮像画像P内の図形パターン60の画像に基づいて、撮像画像P内に写っている対象物30の向きを特定する。 The second image generator 243 generates the second planar image 52 based on the stereo model 40 . Specifically, the second image generation unit 243 generates a three-dimensional shape based on the two-dimensional shape shown by the three-dimensional model 40 when the three-dimensional model 40 is oriented in a first direction corresponding to the orientation of the object 30 on the examination table 5 . Geometric features of the model 40 are extracted. The second image generator 243 identifies the orientation of the object 30 in the captured image P based on the image of the figure pattern 60 in the captured image P, as shown in FIG.

第2画像生成部243は、具体的には、図形パターン60に含まれる複数の図形61の各座標を検出し、図形61どうしを結ぶベクトルの向きを特定することにより、ベクトルに向きに応じた図形パターン60の向きを特定する。そして、第2画像生成部243は、特定した図形パターン60の向きの情報と、図形パターン60の対象物30に対する配置位置を示す情報(対象物30に対してどのような位置及びどのような向きで図形パターン60が配置されているかを示す情報)とを参照することにより、特定した図形パターン60の向きに対応する対象物30の向きを特定する。 Specifically, the second image generation unit 243 detects the coordinates of each of the plurality of figures 61 included in the figure pattern 60, and identifies the direction of the vector connecting the figures 61, thereby generating the image corresponding to the direction of the vector. The orientation of the graphic pattern 60 is specified. Then, the second image generation unit 243 generates information on the orientation of the specified graphic pattern 60 and information indicating the arrangement position of the graphic pattern 60 with respect to the object 30 (what kind of position and what kind of orientation with respect to the object 30 (information indicating whether or not the graphic pattern 60 is arranged) is referred to, the orientation of the object 30 corresponding to the identified orientation of the graphic pattern 60 is identified.

本実施形態では、対象物30に対して図形パターン60がどのような位置及びどのような向きで配置されているかの情報が記憶部23に記憶されているので、第2画像生成部243は、その情報と、図形パターン60の画像に基づいて特定された向きの情報とに基づいて、検査台5上の対象物30の向きを特定できる。 In the present embodiment, since the storage unit 23 stores information about the position and orientation of the graphic pattern 60 with respect to the object 30, the second image generation unit 243 The orientation of the object 30 on the inspection table 5 can be identified based on the information and the orientation information identified based on the image of the graphic pattern 60 .

対象物30の向きが特定されたら、第2画像生成部243は、対象物30の向きと立体モデル40の向きとが対応する(例えば、ほぼ一致する)ように、CAD空間内で立体モデル40の向きを回転させる、立体モデル40を拡大若しくは縮小する、及び/又は立体モデル40の位置を移動させることにより、立体モデル40を第1向きに向ける。 After the orientation of the object 30 is identified, the second image generator 243 generates the stereo model 40 in the CAD space so that the orientation of the object 30 and the orientation of the stereo model 40 correspond (for example, substantially match). The stereo model 40 is oriented in a first orientation by rotating the orientation of the stereo model 40 , enlarging or reducing the stereo model 40 , and/or moving the position of the stereo model 40 .

第2画像生成部243は、第1向きを向いた立体モデル40が示す二次元形状に基づき、立体モデル40の形状的特徴を抽出する。形状的特徴は、一例として立体モデル40のエッジ線である。本実施形態では、第2画像生成部243が、立体モデル40の三次元形状ではなく、立体モデル40が示す二次元形状に基づいて立体モデル40の形状的特徴を抽出する。 The second image generation unit 243 extracts the geometric features of the three-dimensional model 40 based on the two-dimensional shape indicated by the three-dimensional model 40 facing the first direction. The geometric features are edge lines of the three-dimensional model 40, for example. In the present embodiment, the second image generator 243 extracts the geometric features of the stereo model 40 based on the two-dimensional shape represented by the stereo model 40 instead of the three-dimensional shape of the stereo model 40 .

第2画像生成部243は、図6に示すように、上記のようにして抽出したエッジ線E2を含む平面画像を第2平面画像52として生成する。 The second image generator 243 generates a plane image including the edge line E2 extracted as described above as a second plane image 52, as shown in FIG.

なお、第2画像生成部243は、生成した第2平面画像52の形状的特徴が第1平面画像51の形状的特徴に一致するように、第1平面画像51又は第2平面画像52の少なくともいずれかを変形させる処理を行ってもよい。第2画像生成部243は、例えば、第2平面画像52の輪郭形状と第1平面画像51との輪郭形状とが一致するように第1平面画像51又は第2平面画像52の少なくともいずれかを変形させてもよい。 Note that the second image generation unit 243 generates at least the first plane image 51 or the second plane image 52 so that the shape features of the generated second plane image 52 match the shape features of the first plane image 51 . You may perform the process which transforms either. The second image generation unit 243 generates at least one of the first plane image 51 and the second plane image 52 so that the outline shape of the second plane image 52 and the outline shape of the first plane image 51 match, for example. You can transform it.

(立体モデル40の向きを調整する処理)
第2平面画像52の形状的特徴と第1平面画像51の形状的特徴との一致度が所定の閾値より低い場合には、第2画像生成部243は、下記のように立体モデル40の向きを修正して第2平面画像52を再度生成してもよい。
(Processing for Adjusting Orientation of Solid Model 40)
If the degree of matching between the shape features of the second plane image 52 and the shape features of the first plane image 51 is lower than a predetermined threshold, the second image generator 243 determines the orientation of the stereo model 40 as follows. may be modified to generate the second planar image 52 again.

第2画像生成部243は、まず、第1平面画像51が示す対象物30の形状的特徴と、第1向きに対応する立体モデル40に基づく形状的特徴との一致度(一例として、図5のエッジ線E1の形状と図6のエッジ線E2の形状との一致度)が所定の閾値以上であるか否かを判定する。第2画像生成部243は、一致度が閾値未満である場合、立体モデル40を第1向きと異なる第2向きに向け、その状態で立体モデル40が示す二次元形状に基づき更新された形状的特徴(「更新形状的特徴」という)を抽出する。 The second image generation unit 243 first determines the degree of matching between the shape features of the target object 30 indicated by the first planar image 51 and the shape features based on the three-dimensional model 40 corresponding to the first orientation (for example, FIG. 5 6) is equal to or greater than a predetermined threshold. If the degree of matching is less than the threshold, the second image generating unit 243 orients the stereo model 40 in a second direction different from the first direction, and in that state, updates the geometrical shape based on the two-dimensional shape shown by the stereo model 40 . Extract features (referred to as “updated geometric features”).

第2画像生成部243は、第1平面画像51が示す対象物30の形状的特徴と、更新形状的特徴との一致度が閾値以上である場合に、更新形状的特徴が含まれる第2平面画像を生成する。 If the degree of matching between the shape feature of the target object 30 indicated by the first plane image 51 and the updated shape feature is equal to or greater than a threshold, the second image generation unit 243 generates a second plane including the updated shape feature. Generate an image.

このような構成によれば、第2平面画像52の形状的特徴と、第1平面画像51の形状的特徴との一致度が低い場合であっても、立体モデル40の向きを変更して第1平面画像51の形状的特徴との一致度が高い第2平面画像52の形状的特徴を生成できる。その結果、より精度よく不一致箇所が特定される。 According to such a configuration, even when the degree of matching between the shape features of the second plane image 52 and the shape features of the first plane image 51 is low, the direction of the stereo model 40 is changed to obtain the first plane image. It is possible to generate the shape features of the second plane image 52 that have a high degree of matching with the shape features of the one plane image 51 . As a result, the non-matching portion can be identified with higher accuracy.

なお、上記の処理において、第1向きから第2向きに立体モデル40をどの程度移動させるかは、立体モデル40の形状又はサイズ等に応じて適宜設定される。 In the above process, how much the three-dimensional model 40 is moved from the first orientation to the second orientation is appropriately set according to the shape, size, or the like of the three-dimensional model 40 .

第2画像生成部243は、第1平面画像51が示す対象物30の形状的特徴と、更新形状的特徴との一致度が閾値未満の場合には、上記のような第2平面画像52の再抽出を複数回繰り返してもよい。再抽出が所定回数実行されても一致度が閾値未満の場合(つまり、第1平面画像51の形状的特徴に対する一致度が高い第2平面画像52の形状的特徴が得られない場合)、第2画像生成部243は出力部245に通知し、出力部245が第1平面画像51に一致する第2平面画像52が取得できない旨をユーザに出力してもよい。 When the degree of matching between the shape feature of the target object 30 indicated by the first plane image 51 and the updated shape feature is less than a threshold, the second image generation unit 243 generates the second plane image 52 as described above. Re-extraction may be repeated multiple times. If the degree of matching is less than the threshold even after the re-extraction is performed a predetermined number of times (that is, if the shape features of the second plane image 52 with a high degree of matching with the shape features of the first plane image 51 are not obtained), the first The two-image generation unit 243 may notify the output unit 245 and output to the user that the output unit 245 cannot acquire the second plane image 52 that matches the first plane image 51 .

(不一致箇所を特定する処理)
不一致箇所特定部244は、第1平面画像51における対象物30の形状的特徴と、第2平面画像52における立体モデル40の形状的特徴とを比較し、両者が一致しない不一致箇所を特定する。不一致箇所特定部244は、一例として、対象物30のエッジ線と、そのエッジ線に対応する部分の立体モデル40のエッジ線とが所定の閾値以上離れている箇所を不一致箇所と特定する。不一致箇所特定部244は、例えば記憶部23が対象物30に関連付けて記憶する閾値情報を参照し、その閾値情報を基準として不一致箇所を特定してもよい。
(Processing for Identifying Mismatched Locations)
The mismatching point identification unit 244 compares the shape features of the object 30 in the first planar image 51 and the shape features of the three-dimensional model 40 in the second plane image 52, and identifies mismatching points where the two do not match. As an example, the non-matching part identification unit 244 identifies a part where the edge line of the object 30 and the edge line of the three-dimensional model 40 corresponding to the edge line are separated by a predetermined threshold or more as a non-matching part. For example, the non-matching part identification unit 244 may refer to threshold information stored in the storage unit 23 in association with the object 30 and identify the non-matching part based on the threshold information.

不一致箇所特定部244は、対象物30の輪郭形状だけではなく、例えば、対象物30の構造部である孔31a~31dの位置及び/又は大きさが、立体モデル40における対象物30の孔31a~31dの位置及び/又は大きさに対して所定の閾値以上異なっている場合に、その箇所を不一致箇所と特定する。 The non-matching part identification unit 244 determines whether not only the outline shape of the object 30 but also the positions and/or sizes of the holes 31a to 31d, which are structural parts of the object 30, are determined by the hole 31a of the object 30 in the three-dimensional model 40. If the positions and/or sizes of ˜31d are different by a predetermined threshold value or more, that portion is specified as a non-matching portion.

なお、この種の検査においては、検査対象がどのような製品であるか又は検査対象の部位がどのような特性であるか等に応じて、検査結果の合否が異なることとなる。例えば、検査項目が、所定のネジが設計データ通りに取り付けられているかという内容である場合、画像上に表れる形状的特徴の違いは比較的小さくなる。一方、検査項目が例えば比較的大きな部品が設計データ通りに取り付けられているかという内容である場合、画像上に表れる形状的特徴の違いはネジの場合よりも大きくなる。したがって、記憶部23は、検査項目に応じて異なる閾値を記憶しており、不一致箇所特定部244はその閾値を基準として、画像の一致度又は不一致度に応じて、不一致箇所を特定してもよい。 It should be noted that in this type of inspection, the pass/fail of the inspection result differs depending on the kind of product to be inspected or the characteristics of the part to be inspected. For example, if the inspection item is whether or not a predetermined screw is attached according to design data, the differences in the shape features appearing on the image are relatively small. On the other hand, if the inspection item is, for example, whether a relatively large part is attached according to the design data, the difference in the shape features appearing on the image is greater than in the case of screws. Therefore, the storage unit 23 stores different thresholds according to inspection items, and the mismatching part specifying unit 244 uses the thresholds as a reference to specify mismatching parts according to the degree of matching or mismatching of images. good.

また、閾値の設定に関し、例えば実際に検査を実施した結果、不一致箇所と判定される程度を調整する必要が生じることも想定される。そこで、検査装置2の制御部24は、例えばユーザからの入力に応じて又は自律的に閾値を変更する機能を有していてもよい。 In addition, regarding the setting of the threshold, it is also assumed that, for example, as a result of actually performing the inspection, it will be necessary to adjust the extent to which the non-matching portion is determined. Therefore, the control unit 24 of the inspection device 2 may have a function of changing the threshold according to an input from the user or autonomously.

閾値の設定に関し、閾値が所定の範囲外の値に設定されることを防止するため、制御部24は、記憶部23が検査対象に関連付けて記憶している閾値の設定最大値又は設定最小値の少なくともいずれかを参照し、閾値が設定最大値以上の値に設定されることを禁止してもよく、又は、閾値が設定最小値未満の値に設定されることを禁止してもよい。 Regarding the setting of the threshold, in order to prevent the threshold from being set to a value outside the predetermined range, the control unit 24 sets the maximum set value or the minimum set value of the threshold stored in the storage unit 23 in association with the inspection target. , the threshold may be prohibited from being set to a value equal to or greater than the set maximum value, or may be prohibited to be set to a value less than the set minimum value.

(出力処理)
出力部245は、不一致箇所特定部244が特定した不一致箇所を示す情報を出力する。図7は、検査結果を示す検査結果画像55の一例である。出力部245は、一例として、表示部22に図7の検査結果画像55を表示させる。検査結果画像55は、撮像装置1が撮影した対象物30の画像に、対象物30のエッジ線E1及び立体モデル40のエッジ線E2を重畳させた画像である。なお、検査結果画像55は、対象物30の画像に立体モデル40のエッジ線E2のみを重畳させたものであってもよい。
(output processing)
The output unit 245 outputs information indicating the non-matching portion identified by the non-matching portion identification unit 244 . FIG. 7 is an example of an inspection result image 55 showing inspection results. As an example, the output unit 245 causes the display unit 22 to display the inspection result image 55 of FIG. The inspection result image 55 is an image obtained by superimposing the edge lines E1 of the object 30 and the edge lines E2 of the three-dimensional model 40 on the image of the object 30 captured by the imaging device 1 . Note that the inspection result image 55 may be obtained by superimposing only the edge line E2 of the three-dimensional model 40 on the image of the object 30 .

この例では、立体モデル40の突出部32の形状と、実際の対象物30の突出部32の形状とが異なっているため、この部分が不一致箇所53となっている。具体的には、一例として、実際の対象物30の突出部32が、設計データが示す突出部32よりも短く形成されている。また、立体モデル40の孔31dの位置と対象物30の孔31dの位置とが異なっているため、この部分も不一致箇所53となっている。 In this example, the shape of the protruding portion 32 of the three-dimensional model 40 and the shape of the protruding portion 32 of the actual object 30 are different, so this portion is the inconsistent portion 53 . Specifically, as an example, the projecting portion 32 of the actual object 30 is formed shorter than the projecting portion 32 indicated by the design data. Moreover, since the position of the hole 31d of the three-dimensional model 40 and the position of the hole 31d of the object 30 are different, this portion is also a non-matching portion 53. FIG.

検査結果画像55が表示部22に表示されることで、ユーザは、検査結果画像55に含まれる不一致箇所53を確認し、例えば製品である対象物30が設計データ通りに製造されているか否かを確認できる。なお、不一致箇所53を示す情報としては、単に、設計データである立体モデル40に基づいて生成されたエッジ線E2が対象物30の画像に重畳されて表示されてもよいし、又は、不一致箇所53が存在していることを示すテキスト情報や、不一致箇所53の位置を示す画像若しくは座標情報等が表示されてもよい。 Since the inspection result image 55 is displayed on the display unit 22, the user can confirm the mismatching part 53 included in the inspection result image 55 and, for example, whether the target object 30, which is a product, is manufactured according to the design data. can be confirmed. As the information indicating the non-matching portion 53, the edge line E2 generated based on the three-dimensional model 40, which is the design data, may simply be superimposed on the image of the object 30 and displayed, or the non-matching portion may be displayed. Text information indicating that 53 exists, an image or coordinate information indicating the position of the mismatched portion 53, or the like may be displayed.

出力部245が、不一致箇所を出力する態様は種々変更可能であり、例えば、出力部245は、不一致箇所53が存在することを示す情報を表示部22に出力してもよい。出力部245は、また、不一致箇所53の位置を示す情報を表示部22に出力してもよい。 The manner in which the output unit 245 outputs the non-matching portion can be changed in various ways. The output unit 245 may also output information indicating the position of the mismatched part 53 to the display unit 22 .

出力部245は表示部22に出力する以外にも、例えば、スピーカ(不図示)を通じて音声情報として不一致箇所を示す情報を出力してもよい。出力部245の更に他の態様については、後述する。 In addition to outputting to the display unit 22, the output unit 245 may output, for example, information indicating a mismatched portion as audio information through a speaker (not shown). Further aspects of the output unit 245 will be described later.

(結果データの蓄積)
なお、制御部24が不図示のデータ処理部をさらに有し、このデータ処理部が、不一致箇所特定部244が特定した不一致箇所のデータを記憶部23又は検査装置2とは異なる不図示の記憶装置に記憶させてもよい。データ処理部は、具体的には、不一致箇所のデータを、検査対象の製品に関連付けて及び/又は不一致箇所として特定された構造部に関連付けて記憶させてもよい。
(Accumulation of result data)
Note that the control unit 24 further has a data processing unit (not shown), and this data processing unit stores the data of the mismatched portion specified by the mismatched portion specifying unit 244 in a storage (not shown) different from the storage unit 23 or the inspection device 2 . It may be stored in the device. Specifically, the data processing unit may store the data of the discrepancy in association with the product to be inspected and/or in association with the structure identified as the discrepancy.

データ処理部は、ある基準値以上の回数及び/又は頻度で不一致箇所が特定される場合、その検査対象を例えば不良が頻発する検査対象と特定してもよい。データ処理部は、また、ある基準値以上の回数及び/又は頻度で不一致箇所が特定される場合、その検査対象に関する閾値を変更することをユーザに提示してもよい。 The data processing unit may identify, for example, an inspection target in which defects frequently occur when a mismatching portion is specified at a number and/or frequency equal to or greater than a certain reference value. The data processing unit may also present to the user that the threshold value for the inspection target is changed when mismatched points are identified with a number and/or frequency equal to or greater than a certain reference value.

データ処理部は、不一致箇所特定部244が特定した不一致箇所を、検査対象の製品及び/又は不一致箇所として特定された構造部に関連付けてリスト化し、リスト化されたデータをユーザに提示してもよい。このような構成によれば、ユーザは、リストに表示された1つ又は複数の不一致箇所を順次確認し、例えば、対象物30に所定の部品を取り付けるなどして、不一致箇所の消し込み作業を容易に行うことができる。 The data processing unit lists the mismatching points identified by the mismatching point identification unit 244 in association with the product to be inspected and/or the structural part identified as the mismatching point, and presents the listed data to the user. good. According to such a configuration, the user sequentially confirms one or more inconsistent points displayed in the list, and, for example, attaches a predetermined part to the target object 30 to erase the inconsistent points. can be easily done.

(検査システムS100の動作)
上記のように構成された検査システムS100の動作について、以下説明する。図8は、検査システムS100による動作フローの一例である。検査装置2が検査を行う前提として、図形パターン60が取り付けられた対象物30がユーザによって検査台5に配置されているものとする。
(Operation of inspection system S100)
The operation of the inspection system S100 configured as described above will be described below. FIG. 8 is an example of an operation flow by the inspection system S100. As a premise for the inspection by the inspection apparatus 2, it is assumed that the object 30 to which the figure pattern 60 is attached is placed on the inspection table 5 by the user.

まず、ステップS1において、画像取得部241が、撮像装置1が対象物30を撮影することによって生成した撮像画像P(図4参照)を取得する。 First, in step S1, the image acquisition unit 241 acquires a captured image P (see FIG. 4) generated by the imaging device 1 capturing an image of the target object 30. FIG.

次いで、ステップS2において、第1画像生成部242が、画像取得部241が取得した撮像画像Pに基づき第1平面画像51(図5参照)を生成する。前述したように、第1画像生成部242は、対象物30の二次元画像からエッジ線E1を抽出し、エッジ線E1を含む第1平面画像51を生成する。 Next, in step S2, the first image generating section 242 generates the first planar image 51 (see FIG. 5) based on the captured image P acquired by the image acquiring section 241. FIG. As described above, the first image generator 242 extracts the edge lines E1 from the two-dimensional image of the object 30 and generates the first planar image 51 including the edge lines E1.

次いで、ステップS3において、第2画像生成部243が、図形パターン60の画像に基づいて図形パターン60の向いている向きを特定する。具体的には、第2画像生成部243は、例えば図形パターン60の複数の図形61を結ぶベクトルの向きを特定することによって、図形パターン60の向きを特定する。そして、第2画像生成部243は、特定した図形パターン60の向きの情報と、図形パターン60の対象物30に対する配置位置を示す情報(対象物30に対してどのような位置及びどのような向きで図形パターン60が配置されているかを示す情報)とを参照して対象物30の向きを特定する。 Next, in step S<b>3 , the second image generator 243 identifies the orientation of the graphic pattern 60 based on the image of the graphic pattern 60 . Specifically, the second image generator 243 identifies the orientation of the graphic pattern 60 by identifying the orientation of a vector connecting the plurality of graphics 61 of the graphic pattern 60, for example. Then, the second image generation unit 243 generates information on the orientation of the specified graphic pattern 60 and information indicating the arrangement position of the graphic pattern 60 with respect to the object 30 (what kind of position and what kind of orientation with respect to the object 30 (information indicating whether or not the figure pattern 60 is arranged), and the orientation of the target object 30 is specified.

第2画像生成部243は、対象物30に対応する立体モデル40のデータを記憶部23から読み込み、対象物30の向きが特定されたら、対象物30の向きと立体モデル40の向きとが対応するように、立体モデル40の方向を変更し、立体モデル40を第1向きに向ける。 The second image generator 243 reads the data of the three-dimensional model 40 corresponding to the object 30 from the storage unit 23, and when the orientation of the object 30 is specified, the orientation of the object 30 corresponds to the orientation of the three-dimensional model 40. The direction of the three-dimensional model 40 is changed so that the three-dimensional model 40 is oriented in the first direction.

次いで、ステップS4において、第2画像生成部243は、第1向きに向けられた立体モデル40が示す二次元的形状に基づき、この立体モデル40の形状的特徴(エッジ線E2)を抽出する。そして、第2画像生成部243は、図6に示したように、抽出したエッジ線E2を含む平面画像を第2平面画像52として生成する。 Next, in step S4, the second image generation unit 243 extracts the shape feature (edge line E2) of the three-dimensional model 40 directed in the first direction based on the two-dimensional shape shown by the three-dimensional model 40. Then, the second image generator 243 generates a plane image including the extracted edge line E2 as the second plane image 52, as shown in FIG.

ここまでの工程で、実際に対象物30を撮影して取得された対象物30の画像に基づく第1平面画像51と、対象物30の設計データである立体モデル40に基づく第2平面画像52とが生成される。 In the steps up to this point, a first planar image 51 based on an image of the object 30 obtained by actually photographing the object 30 and a second planar image 52 based on the three-dimensional model 40 which is the design data of the object 30 and are generated.

次いで、ステップS5において、不一致箇所特定部244が、第1平面画像51の形状的特徴と第2平面画像52の形状的特徴とを比較して不一致箇所53を特定する。本実施形態では、図7を参照して上述したように、対象物30における突出部32の箇所、及び、孔31dの箇所が、実際の対象物30の形状と立体モデル40の形状とが一致しない不一致箇所53となる。 Next, in step S<b>5 , the non-matching point identification unit 244 identifies the non-matching point 53 by comparing the shape features of the first plane image 51 and the shape features of the second plane image 52 . In the present embodiment, as described above with reference to FIG. 7, the locations of the projections 32 and the locations of the holes 31d in the object 30 match the shape of the actual object 30 and the shape of the three-dimensional model 40. A non-matching portion 53 is obtained.

次いで、ステップS6において、出力部245は、不一致箇所53を示す情報を含む検査結果画像55を表示部22に出力する。表示部22に表示される検査結果画像55では、対象物30の画像に、立体モデル40に基づいて抽出されたエッジ線E2の画像が重畳させられている。 Next, in step S<b>6 , the output unit 245 outputs the inspection result image 55 including information indicating the non-matching part 53 to the display unit 22 . In the inspection result image 55 displayed on the display unit 22 , the image of the edge line E2 extracted based on the three-dimensional model 40 is superimposed on the image of the object 30 .

(第1の実施形態の作用効果)
以上説明したように本実施形態の構成よれば、対象物30の形状的特徴と立体モデル40の形状的特徴との不一致箇所が検査装置2によって特定され、検査結果画像55が表示部22に表示される。そのため、ユーザは、例えば対象物30が立体モデル40の形状どおりに製造されているか等を確認できる。特に、検査装置2は、対象物30及び立体モデル40の三次元形状ではなく、対象物30の撮像画像に基づいて生成した二次元画像である第1平面画像51、及び、立体モデル40に基づいて生成した二次元画像である第2平面画像52を用いて不一致箇所53を特定するため、不一致箇所53を特定する演算処理における計算コストが少なくて済む。
(Action and effect of the first embodiment)
As described above, according to the configuration of the present embodiment, the inspection device 2 identifies the location where the shape feature of the object 30 and the shape feature of the three-dimensional model 40 do not match, and the inspection result image 55 is displayed on the display unit 22. be done. Therefore, the user can confirm, for example, whether the target object 30 is manufactured according to the shape of the three-dimensional model 40 . In particular, the inspection apparatus 2 uses the first planar image 51, which is a two-dimensional image generated based on the captured image of the object 30 instead of the three-dimensional shapes of the object 30 and the three-dimensional model 40, and the three-dimensional model 40. Since the non-matching portion 53 is specified using the second planar image 52 which is a two-dimensional image generated by the above method, the calculation cost in the arithmetic processing for specifying the non-matching portion 53 can be reduced.

本実施形態の構成によれば、検査装置2は、対象物30に対して所定の位置関係で配置された図形パターン60の向きを特定することによって対象物30の向きを特定する。つまり、検査台5上に配置された対象物30が撮像装置1に対して厳密に所定の向きを向いていない場合であっても、検査装置2は検査台5上に配置された対象物30の向きに応じた不一致箇所の特定を行うことができる。したがって、ユーザが、検査のために対象物30を検査台5上に厳密に位置決めして配置する必要がない。その結果、作業性よく対象物30の検査を実施できる。 According to the configuration of this embodiment, the inspection apparatus 2 identifies the orientation of the object 30 by identifying the orientation of the graphic pattern 60 arranged in a predetermined positional relationship with respect to the object 30 . In other words, even if the object 30 placed on the inspection table 5 is not oriented in a strictly predetermined direction with respect to the imaging device 1, the inspection apparatus 2 can detect the object 30 placed on the inspection table 5 It is possible to specify a mismatched portion according to the orientation of the . Therefore, it is not necessary for the user to precisely position and place the object 30 on the inspection table 5 for inspection. As a result, the object 30 can be inspected with good workability.

また、第2画像生成部243は、第1平面画像51が示す対象物30の形状的特徴と、立体モデル40に基づく形状的特徴との一致度が閾値未満である場合に、立体モデル40を第1向きと異なる第2向きに向け、その状態の立体モデル40に基づいて形状的特徴を抽出し直して第2平面画像52を生成して、不一致箇所を特定する。このような構成によれば、第2平面画像52の形状的特徴と第1平面画像51の形状的特徴との一致度が低い場合であっても、立体モデル40の向きを変更して第1平面画像51の形状的特徴との一致度が高い第2平面画像52を生成でき、高精度に不一致箇所を特定できる。 Further, the second image generation unit 243 generates the stereo model 40 when the degree of matching between the shape feature of the target object 30 indicated by the first planar image 51 and the shape feature based on the stereo model 40 is less than a threshold. In a second direction different from the first direction, the shape features are extracted again based on the stereo model 40 in that state, a second planar image 52 is generated, and inconsistent portions are identified. According to such a configuration, even when the degree of matching between the shape features of the second plane image 52 and the shape features of the first plane image 51 is low, the direction of the stereo model 40 is changed to obtain the first plane image. A second planar image 52 having a high degree of matching with the shape features of the planar image 51 can be generated, and a non-matching portion can be specified with high precision.

<第2の実施形態>
図9は、第2の実施形態の検査システムS100Aを示す図である。検査システムS100Aは、治具70を介して検査台5に載置された対象物30を撮影する。検査システムS100Aは、治具70に設けられた治具用図形パターン60Aの画像に基づいて対象物30の向きを特定する点で、上述した実施形態の検査システムS100と異なる。それ以外については第1の実施形態の検査システムS100と同様であるため、重複する説明は省略する。
<Second embodiment>
FIG. 9 is a diagram showing an inspection system S100A of the second embodiment. The inspection system S100A photographs the object 30 placed on the inspection table 5 via the jig 70 . The inspection system S100A differs from the inspection system S100 of the above-described embodiment in that the orientation of the object 30 is specified based on the image of the jig graphic pattern 60A provided on the jig 70 . Other than that, it is the same as the inspection system S100 of the first embodiment, so redundant description will be omitted.

治具70は、図9に示すように、対象物30が載置される支持面71と、対象物30を支持面71上で位置合わせするための位置合わせ部72とを有している。治具70は、図9のような構成に限定されるものではなく、対象物30を所定の位置に位置決めするものであればどのような構成であってもよく、対象物30が支持面71に載置される構成に限定されない。 As shown in FIG. 9 , the jig 70 has a support surface 71 on which the object 30 is placed, and an alignment portion 72 for aligning the object 30 on the support surface 71 . The jig 70 is not limited to the configuration shown in FIG. It is not limited to the configuration placed on the

治具70は、図形パターン60Aを有している。図形パターン60Aは、治具70に対して所定の位置関係で配置されている。図形パターン60Aは、一例として支持面71に配置されている。図形パターン60Aは、この例では、複数の四角形を含むスクウェアグリッドのパターンであるが、第1の実施形態のように円形のドットを含むドットパターン等であってもよい。 The jig 70 has a figure pattern 60A. The figure pattern 60A is arranged in a predetermined positional relationship with respect to the jig 70. As shown in FIG. The figure pattern 60A is arranged on the support surface 71 as an example. The figure pattern 60A is a square grid pattern including a plurality of squares in this example, but may be a dot pattern including circular dots as in the first embodiment.

本実施形態では、図形パターン60Aは、対象物30が支持面71に配置された状態で対象物30によって覆われるような位置に配置されている。しかし、図形パターン60Aの位置は任意であり、図形パターン60Aは、対象物30が配置された状態で対象物30によって覆われず、撮像装置1で撮影可能な位置に配置されていてもよい。 In this embodiment, the graphic pattern 60A is positioned such that it is covered by the object 30 when the object 30 is placed on the support surface 71 . However, the position of the figure pattern 60A is arbitrary, and the figure pattern 60A may be arranged at a position where it can be photographed by the imaging device 1 without being covered by the object 30 when the object 30 is arranged.

治具70は、対象物30の検査時に、例えばユーザによって検査台5上に載置される。治具70は、不図示の固定具によって、検査台5に対して位置が固定されてもよい。治具70は、例えば、治具70と検査台5の間に設けられた凹凸構造などの係合手段により、検査台5に対して予め決められた所定の位置に配置されてもよい。 The jig 70 is placed on the inspection table 5 by the user, for example, when the object 30 is inspected. The position of the jig 70 may be fixed with respect to the inspection table 5 by a fixture (not shown). The jig 70 may be arranged at a predetermined position with respect to the inspection table 5 , for example, by an engaging means such as an uneven structure provided between the jig 70 and the inspection table 5 .

(対象物30の向きを特定するための処理)
検査システムS100Aの検査装置2は、第1の実施形態と同様、制御部24(図1)を有する。画像取得部241は、検査装置2が撮像した、対象物30が配置されていない状態で検査台5上に置かれた治具70の撮像画像を取得する。撮像画像には、治具70とともに図形パターン60Aの画像も写っている。
(Processing for Identifying Orientation of Object 30)
The inspection device 2 of the inspection system S100A has a control section 24 (FIG. 1) as in the first embodiment. The image acquisition unit 241 acquires a captured image of the jig 70 placed on the inspection table 5 without the object 30 placed thereon, captured by the inspection apparatus 2 . An image of the figure pattern 60A is also shown together with the jig 70 in the captured image.

第1画像生成部242は、治具70上に位置決めされた対象物30に基づき、第1の実施形態と同様、対象物30の形状的特徴を抽出して第1平面画像51を生成する。 Based on the object 30 positioned on the jig 70, the first image generation unit 242 extracts the shape features of the object 30 and generates the first planar image 51, as in the first embodiment.

第2画像生成部243は、治具70の図形パターン60Aの画像に基づいて、検査台5上の治具70の向きを特定する。図形パターン60Aの向きは、第1の実施形態と同様の手法で特定可能である。本実施形態では、対象物30に図形パターン60は取り付けられていないが、治具70に図形パターン60Aが設けられている。治具70は、対象物30を位置決めする部材であるため、治具70の向きが特定されれば、治具70上に位置決めされた対象物30の向きも間接的に特定されることとなる。 The second image generator 243 identifies the orientation of the jig 70 on the inspection table 5 based on the image of the figure pattern 60A of the jig 70 . The orientation of the figure pattern 60A can be identified by the same method as in the first embodiment. In this embodiment, the graphic pattern 60 is not attached to the object 30, but the jig 70 is provided with the graphic pattern 60A. Since the jig 70 is a member that positions the object 30, if the orientation of the jig 70 is specified, the orientation of the object 30 positioned on the jig 70 is also indirectly specified. .

そこで、第2画像生成部243は、第1の実施形態において図形パターン60に基づいて対象物30の向きを特定したように、図形パターン60Aの画像に基づいて治具70の向きを特定する。 Therefore, the second image generator 243 identifies the orientation of the jig 70 based on the image of the graphic pattern 60A, just as the orientation of the object 30 is identified based on the graphic pattern 60 in the first embodiment.

第2画像生成部243は、その後、特定した治具70の向きに対応する対象物30の向きに対応する向きと立体モデル40の向きとが対応するように、立体モデル40を第1向きに向ける。具体的には、第2画像生成部243は、記憶部23が記憶する治具70の向きと対象物30の向きとの関係を示す情報を参照し、対象物30の向きを特定し、対象物30の向きに対応するように立体モデル40を第1向きに向ける。 After that, the second image generation unit 243 orients the three-dimensional model 40 in the first orientation so that the orientation corresponding to the orientation of the object 30 corresponding to the specified orientation of the jig 70 corresponds to the orientation of the three-dimensional model 40. turn. Specifically, the second image generation unit 243 refers to information indicating the relationship between the orientation of the jig 70 and the orientation of the target object 30 stored in the storage unit 23, specifies the orientation of the target object 30, and determines the orientation of the target object 30. The three-dimensional model 40 is oriented in a first orientation so as to correspond to the orientation of the object 30. - 特許庁

第2画像生成部243は、立体モデル40を第1向きに向けた後、第1の実施形態と同様、立体モデル40の形状的特徴を抽出して第2平面画像52を生成する。 After orienting the three-dimensional model 40 in the first direction, the second image generation unit 243 extracts the shape features of the three-dimensional model 40 and generates the second planar image 52, as in the first embodiment.

以降、不一致箇所特定部244は、第1の実施形態と同様、第1平面画像51及び第2平面画像52(図2参照)を比較して不一致箇所を特定し、出力部245は不一致箇所の情報を出力する。 After that, as in the first embodiment, the mismatching part identifying unit 244 compares the first planar image 51 and the second planar image 52 (see FIG. 2) to identify the mismatching part, and the output part 245 identifies the mismatching part. Output information.

本実施形態では、第1の実施形態のように図形パターン60が対象物30に対して取り付けられるのではなく、図形パターン60Aが治具70に設けられている。したがって、図形パターン60が対象物30に取り付けられた際に生じる、図形パターン60と対象物30との位置ズレに起因した、第2画像生成部243が特定する向きのバラツキが低減し、対象物30の向きを高精度に特定することが可能となる。 In this embodiment, the figure pattern 60A is provided on the jig 70 instead of the figure pattern 60 being attached to the object 30 as in the first embodiment. Therefore, the variation in the direction specified by the second image generation unit 243 due to the positional deviation between the graphic pattern 60 and the object 30 that occurs when the graphic pattern 60 is attached to the object 30 is reduced, and the object It becomes possible to specify the orientation of 30 with high accuracy.

本実施形態の場合、いったん治具70の向きが特定されれば、対象物30を検査する度に対象物30に取り付けられた図形パターン60の画像を解析して対象物30の方向を特定する必要はない。すなわち、対象物30に図形パターン60が配置されている必要はない。しかし、対象物30に図形パターン60が配置され、治具70上に配置された対象物30について検査装置2が第1の実施形態と同様の手法による不一致箇所の特定を行ってもよい。 In this embodiment, once the orientation of the jig 70 is specified, the orientation of the object 30 is specified by analyzing the image of the graphic pattern 60 attached to the object 30 each time the object 30 is inspected. No need. That is, it is not necessary for the object 30 to have the graphic pattern 60 arranged thereon. However, the graphic pattern 60 may be arranged on the object 30, and the inspection apparatus 2 may identify the non-matching portion of the object 30 arranged on the jig 70 by the same method as in the first embodiment.

<第3の実施形態>
上述した実施形態では、対象物30の図形パターン60又は治具70の図形パターン60Aを利用して対象物30の向きを特定することを説明した。本実施形態では、対象物自体の複数の構造部の画像に基づいて対象物30の方向を特定することを説明する。図10は、撮像装置1が撮影した対象物30の画像の一例である。対象物30は、同一形状の円形に形成された4つの孔31a~31dを有する。検査システムS100の構成は第1の実施形態と同様である。
<Third Embodiment>
In the above-described embodiment, the orientation of the target object 30 is identified using the graphic pattern 60 of the target object 30 or the graphic pattern 60A of the jig 70 . In this embodiment, identifying the orientation of the object 30 based on images of multiple structures of the object itself is described. FIG. 10 is an example of an image of the object 30 captured by the imaging device 1 . The object 30 has four circular holes 31a to 31d of the same shape. The configuration of the inspection system S100 is the same as that of the first embodiment.

本実施形態では、画像取得部241が、撮像装置1が対象物30を撮影して生成した撮像画像Pを取得する。対象物30は、ユーザによって検査台5上に配置され、対象物30には図形パターン60は取り付けられていない。 In this embodiment, the image acquisition unit 241 acquires the captured image P generated by capturing the object 30 by the imaging device 1 . The object 30 is placed on the inspection table 5 by the user, and no graphic pattern 60 is attached to the object 30 .

第1画像生成部242は、撮像画像Pに基づき、第1の実施形態と同様、対象物30の画像から形状的特徴を抽出することにより第1平面画像51(図5参照)を生成する。 Based on the captured image P, the first image generation unit 242 generates the first planar image 51 (see FIG. 5) by extracting the shape feature from the image of the target object 30, as in the first embodiment.

第2画像生成部243は、対象物30に形成された複数の構造部である孔の画像に基づいて対象物30の向きを特定する。具体的には、第2画像生成部243は、撮像画像Pの対象物30の画像に含まれる孔31a~31dを特定する。第2画像生成部243は、孔31a~31dを特定した後、設計データである三次元CADデータを参照し、それぞれの孔31a~31dが所定の位置及び/又は所定の形状であるかを判定する。 The second image generator 243 identifies the orientation of the object 30 based on the images of the holes, which are the plurality of structural parts formed in the object 30 . Specifically, the second image generator 243 identifies the holes 31a to 31d included in the image of the object 30 in the captured image P. As shown in FIG. After specifying the holes 31a to 31d, the second image generation unit 243 refers to the three-dimensional CAD data, which is the design data, and determines whether each of the holes 31a to 31d has a predetermined position and/or a predetermined shape. do.

このような処理を行う理由は、本実施形態による対象物30の方向の特定処理は、対象物30の複数の構造部が設計データに対して所定の閾値内の位置及び/又は形状に形成されていることが前提であるためである。本実施形態では、孔31a~31dのうち孔31dが設計データに対して正しくない位置に形成されているものとする。第2画像生成部243は、孔31a~孔31cは所定の位置及び所定の形状であり、孔31dは所定の位置及び/又は所定の形状ではないと判定する。 The reason for performing such a process is that the process of specifying the direction of the object 30 according to this embodiment is performed so that the plurality of structural parts of the object 30 are formed at positions and/or shapes within a predetermined threshold with respect to the design data. This is because it is assumed that In this embodiment, it is assumed that the hole 31d among the holes 31a to 31d is formed at an incorrect position with respect to the design data. The second image generator 243 determines that the holes 31a to 31c are at predetermined positions and shapes, and the hole 31d is not at a predetermined position and/or shape.

対象物30の構造部に基づいて対象物30の向きを特定するためには、基準となる構造部の数が、少なくとも3つ以上である必要がある。そこで、第2画像生成部243は、所定の位置及び/又は所定の形状に形成された構造部が基準の個数(少なくとも3つ)以上あるか否かを判定し、基準となる構造部が基準の個数以上である場合に、複数の構造部の画像に基づいて対象物30の向きを特定する処理を実行する。 In order to specify the orientation of the target object 30 based on the structural parts of the target object 30, the number of reference structural parts must be at least three or more. Therefore, the second image generation unit 243 determines whether or not there are a reference number (at least three) or more of structural parts formed in a predetermined position and/or in a predetermined shape, If the number is equal to or greater than the number of structural parts, a process of specifying the orientation of the target object 30 is executed based on the images of the plurality of structural parts.

第2画像生成部243は、本実施形態では、孔31a~孔31cの画像に基づき、対象物30の向きを特定する。具体的には、第2画像生成部243は、孔31a~孔31cの画像どうしを結ぶベクトルの向きを特定することにより、対象物30の向きを特定する。 In this embodiment, the second image generator 243 identifies the orientation of the object 30 based on the images of the holes 31a to 31c. Specifically, the second image generator 243 identifies the orientation of the object 30 by identifying the orientation of the vector connecting the images of the holes 31a to 31c.

第2画像生成部243は、上記のようにして特定した対象物30の向きと立体モデル40の向きとが対応するように、第1の実施形態と同様、立体モデル40を第1向きに向ける。第2画像生成部243は、その後、第1の実施形態と同様、立体モデル40の形状的特徴を抽出して第2平面画像を生成する。 The second image generator 243 orients the three-dimensional model 40 in the first direction, as in the first embodiment, so that the orientation of the object 30 specified as described above corresponds to the orientation of the three-dimensional model 40. . The second image generator 243 then extracts the shape features of the three-dimensional model 40 to generate a second planar image, as in the first embodiment.

このようにして生成された第1平面画像51及び第2平面画像52に基づき、第1の実施形態と同様、不一致箇所特定部244が不一致箇所を特定し、出力部245が不一致箇所の情報を出力する。 Based on the first planar image 51 and the second planar image 52 generated in this way, as in the first embodiment, the non-matching part identification unit 244 specifies the non-matching part, and the output part 245 outputs information on the non-matching part. Output.

このような構成によれば、例えば対象物30に対して図形パターン60を取り付けることなく、対象物30自体の構造部の画像を利用して対象物30の向きを特定し、不一致箇所の特定を実施することができる。 According to such a configuration, for example, the orientation of the object 30 can be specified using the image of the structural part of the object 30 itself without attaching the figure pattern 60 to the object 30, and the non-matching portion can be specified. can be implemented.

なお、上記では対象物30の孔31a~孔31cの画像に基づき対象物30の方向を特定することを例示したが、第2画像生成部243は、孔31a~31c以外の任意の構造部の画像に基づいて対象物30の方向を特定してもよい。 In the above description, the direction of the object 30 is specified based on the images of the holes 31a to 31c of the object 30. The orientation of the object 30 may be identified based on the image.

<第4の実施形態>
図11は、複数の撮像装置1を備える検査システムS100Bの例を示す図である。図11の検査システムS100Bは、第1撮像装置1a及び第2撮像装置1bを備える。第1撮像装置1aは対象物30を第1の方向から撮影し、第2撮像装置1bは対象物30を第1の方向とは異なる第2の方向から撮影する。一例として、第1撮像装置1aは対象物30の上方から対象物30を撮影し、第2撮像装置1bは対象物30の右側面側から対象物30を撮影する。
<Fourth Embodiment>
FIG. 11 is a diagram showing an example of an inspection system S100B that includes multiple imaging devices 1. As shown in FIG. An inspection system S100B in FIG. 11 includes a first imaging device 1a and a second imaging device 1b. The first imaging device 1a photographs the object 30 from a first direction, and the second imaging device 1b photographs the object 30 from a second direction different from the first direction. As an example, the first imaging device 1a photographs the object 30 from above the object 30, and the second imaging device 1b photographs the object 30 from the right side of the object 30. FIG.

検査装置2の画像取得部241は、第1撮像装置1a及び第2撮像装置1bが対象物30を複数の向きから撮影して生成した複数の撮像画像を取得する。 The image acquisition unit 241 of the inspection device 2 acquires a plurality of captured images generated by capturing images of the object 30 from a plurality of directions by the first imaging device 1a and the second imaging device 1b.

第1画像生成部242は、第1撮像装置1aが生成した第1撮像画像に基づき、上方から見た状態の対象物30の形状的特徴を抽出し、第1平面画像を生成する。第1画像生成部242は、また、第2撮像装置1bからの第2撮像画像に基づき、右側面側から見た状態の対象物30の形状的特徴を抽出して他の第1平面画像を生成する。 The first image generation unit 242 extracts the shape features of the target object 30 viewed from above based on the first captured image generated by the first imaging device 1a, and generates a first planar image. The first image generator 242 also extracts the shape features of the object 30 viewed from the right side based on the second captured image from the second imaging device 1b, and generates another first planar image. Generate.

図11において図示は省略するが、図形パターンは、一例として、第1撮像装置1aと第2撮像装置1bとの両方によって撮影される位置に配置されている。又は、第1撮像装置1aが撮影する図形パターンと、第2撮像装置1bが撮影する図形パターンとが別々に対象物30に設けられていてもよい。 Although illustration is omitted in FIG. 11, as an example, the graphic pattern is arranged at a position photographed by both the first imaging device 1a and the second imaging device 1b. Alternatively, the graphic pattern captured by the first imaging device 1a and the graphic pattern captured by the second imaging device 1b may be provided on the object 30 separately.

第2画像生成部243は、第1撮像装置1aからの第1撮像画像に基づき、対象物30の向きを特定して、その向きに対応する第2平面画像を生成する。第2画像生成部243は、また、第2撮像装置1bからの第2撮像画像に基づき、対象物30の向きを特定して、その向きに対応する他の第2平面画像を生成する。 The second image generator 243 identifies the orientation of the target object 30 based on the first captured image from the first imaging device 1a, and generates a second planar image corresponding to the orientation. The second image generator 243 also identifies the orientation of the target object 30 based on the second captured image from the second imaging device 1b, and generates another second planar image corresponding to the orientation.

不一致箇所特定部244は、上記のようにして生成された複数の方向の第1平面画像及び第2平面画像をそれぞれ比較し、各方向における不一致箇所を特定する。出力部245は、不一致箇所特定部244が特定した上記複数の方向の不一致箇所の情報を出力する。 The inconsistent part identification unit 244 compares the first planar images and the second planar images in a plurality of directions generated as described above, and identifies inconsistent parts in each direction. The output unit 245 outputs information on the non-matching portions in the plurality of directions identified by the non-matching portion identification unit 244 .

上述したように、本実施形態の検査装置は、複数の撮像装置から取得されたそれぞれの撮像画像に基づいて生成された第1平面画像及び第2平面画像に基づいて、対象物30の複数の向きにおける不一致箇所を特定することも可能である。 As described above, the inspection apparatus of the present embodiment captures a plurality of images of the object 30 based on the first planar image and the second planar image generated based on the respective captured images acquired from the plurality of imaging devices. It is also possible to identify discrepancies in orientation.

<第5の実施形態>
図12は、出力部245が投影装置25に出力を行う構成を示すブロック図である。検査システムS100Cは、図1の構成に加えさらに投影装置25を備えている。投影装置25は、一例として光学プロジェクタであり、光を出力する光出力ユニット(不図示)を有している。
<Fifth Embodiment>
FIG. 12 is a block diagram showing a configuration in which the output unit 245 outputs to the projection device 25. As shown in FIG. The inspection system S100C further includes a projection device 25 in addition to the configuration of FIG. The projection device 25 is an optical projector, for example, and has a light output unit (not shown) that outputs light.

投影装置25は、出力部245からの制御信号に応じて、画像情報や文字情報などの任意の情報を表す光を被投影対象に向けて投影する。 The projection device 25 projects light representing arbitrary information such as image information and character information toward the projection target according to the control signal from the output unit 245 .

本実施形態では、出力部245が投影装置25に制御信号を送信し、投影装置25は、受信した制御信号にしたがって、対象物30に対して、例えば、不一致箇所の位置を示す光を投影する。投影装置25は、また、設計データが表す設計上の対象物30の構造部の位置及び/又は形状を示す光を投影してもよい。 In the present embodiment, the output unit 245 transmits a control signal to the projection device 25, and the projection device 25 projects light indicating, for example, the position of the non-matching portion onto the object 30 according to the received control signal. . The projection device 25 may also project light indicative of the position and/or shape of features of the design object 30 represented by the design data.

このように投影装置25が対象物30に対して光を投影する構成によれば、ユーザは、対象物30に投影された光が表す情報を見て、例えば、不一致箇所を確認できる。また、投影装置25が設計上の構造部の位置及び/又は形状を示す光を対象物30に投稿する構成によれば、ユーザは、設計上の正しい構造部の位置や形状を確認できる。 According to the configuration in which the projection device 25 projects light onto the target object 30 in this way, the user can see the information represented by the light projected onto the target object 30 and can confirm, for example, a non-matching portion. Moreover, according to the configuration in which the projection device 25 posts light indicating the position and/or shape of the designed structural portion to the object 30, the user can confirm the correct position and shape of the designed structural portion.

なお、投影装置25は、対象物30に対して直接光を投影するのではなく、対象物30以外のものに光を投影してもよい。投影装置25は、必ずしも画像情報や文字情報などを表す光を投影するものに限定されず、レーザポインタのようなものであってもよい。また、光を投影する投影装置25と一緒に、又は、投影装置25に代えて、対象物の任意の箇所を指し示すことができるハードウェアデバイスが設けられていてもよい。ハードウェアデバイスとしては、例えば、出力部245からの出力に応じて対象物30の任意の箇所を指し示す特定の指し棒と、それを移動させる駆動部とを備える構成であってもよい。 Note that the projection device 25 may project light onto something other than the object 30 instead of projecting the light directly onto the object 30 . The projection device 25 is not necessarily limited to a device that projects light representing image information or character information, and may be a device such as a laser pointer. Also, together with the projection device 25 for projecting light, or instead of the projection device 25, there may be provided a hardware device capable of pointing to any part of the object. The hardware device may include, for example, a specific pointer that points to an arbitrary location on the object 30 according to the output from the output unit 245, and a drive unit that moves the pointer.

出力部245は、設計上の構造部の位置及び/又は形状を示す情報を表示部22に出力して表示させてもよい。また、出力部245は、例えば、不一致箇所特定部244が特定箇所をどのような手順で加工又は修繕するかを示すガイダンス情報を表示部22に出力してもよい。 The output unit 245 may output information indicating the position and/or shape of the designed structural part to the display unit 22 for display. Further, the output unit 245 may output guidance information to the display unit 22, for example, indicating in what procedure the mismatched portion identifying unit 244 processes or repairs the specific portion.

<変形例1>
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。上記実施形態では、対象物30は1つであったが、検査システムS100は複数の対象物30を同時に検査する構成であってもよい。
<Modification 1>
Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes are possible within the scope of the gist thereof. be. In the above embodiment, the number of objects 30 is one, but the inspection system S100 may be configured to inspect a plurality of objects 30 at the same time.

一例として、検査装置2の画像取得部241は複数の対象物30を撮影して生成された一つ又は複数の撮像画像を取得し、不一致箇所特定部244が複数の対象物30のそれぞれについて不一致箇所を特定してもよい。 As an example, the image acquisition unit 241 of the inspection device 2 acquires one or more captured images generated by photographing the plurality of objects 30 , and the mismatched part identification unit 244 detects the mismatch for each of the plurality of objects 30 You can specify the location.

この場合、画像取得部241は、1つの撮像装置が撮影した撮像画像を取得してもよいし、複数の撮像装置が撮影した複数の撮像画像を取得してもよい。 In this case, the image acquisition unit 241 may acquire a captured image captured by one imaging device, or may acquire a plurality of captured images captured by a plurality of imaging devices.

<変形例2>
上記の実施形態では、図形パターン60の向きに対応する向きに立体モデル40を向けて第2平面画像を生成することを例示したが、検査装置2は、複数の第2平面画像の候補の中から1つの第2平面画像を選択することによって第2平面画像を決定してもよい。具体的には、検査装置2の第2画像生成部243が、立体モデル40に基づいて生成された複数の第2平面画像を参照し、複数の第2平面画像の中から、例えば、第1平面画像に類似度が最も高い1つを選択する。第2画像生成部243はこのようにして、複数の第2平面画像の候補の中から1つの第2平面画像を選択してもよい。複数の第2平面画像は、例えば、それぞれ異なる向きに向けられた立体モデル40が示す二次元的な画像から抽出された形状的特徴を含むものであってもよい。
<Modification 2>
In the above embodiment, the stereo model 40 is oriented in the direction corresponding to the orientation of the figure pattern 60 to generate the second plane image. The second planar image may be determined by selecting one second planar image from . Specifically, the second image generation unit 243 of the inspection apparatus 2 refers to the plurality of second plane images generated based on the stereo model 40, and selects, for example, the first plane image from among the plurality of second plane images. Select the one with the highest similarity to the planar image. The second image generator 243 may thus select one second plane image from a plurality of second plane image candidates. The plurality of second planar images may include, for example, geometric features extracted from two-dimensional images shown by the three-dimensional model 40 oriented in different directions.

<変形例3>
対象物30が何らかの製造上又は組み立て上の不良箇所を含んでいる場合であっても、例えばユーザがその不良箇所を直すことで、不良状態が解消する場合がある。そこで、検査システムS100は、撮像装置1で対象物30を連続的に撮影し、検査装置2が下記のような処理を実行してもよい。なお、撮像装置1は、例えば所定の時間間隔で対象物30を撮影する。時間間隔は任意であり、一定の時間間隔に限定されない。撮影回数は2回以上であればよい。
<Modification 3>
Even if the object 30 contains some manufacturing or assembly defects, the defect condition may be resolved by, for example, the user correcting the defects. Therefore, in the inspection system S100, the imaging device 1 may continuously photograph the object 30, and the inspection device 2 may perform the following processing. In addition, the imaging device 1 photographs the object 30 at predetermined time intervals, for example. The time intervals are arbitrary and are not limited to fixed time intervals. The number of shots may be two or more.

検査装置2の第1画像生成部242は、撮像装置1が撮影した対象物30の撮像画像に基づいて、既に生成していた第1平面画像とは異なる第1平面画像を生成し、第1平面画像を更新する。 The first image generation unit 242 of the inspection device 2 generates a first plane image different from the already generated first plane image based on the captured image of the object 30 captured by the imaging device 1, and generates a first plane image. Update the planar image.

第2画像生成部243は、更新後の第1平面画像51に対応する第2平面画像52を生成するため、撮像装置1が撮影した対象物30の更新後の撮像画像に基づいて、既に生成していた第2平面画像とは異なる第2平面画像を生成する。不一致箇所特定部244は、このようにして生成された更新後の第1平面画像及び第2平面画像を比較して不一致箇所を特定する。 In order to generate the second plane image 52 corresponding to the updated first plane image 51 , the second image generation unit 243 already generates the second plane image 52 based on the updated captured image of the object 30 captured by the imaging device 1 . A second planar image that is different from the second planar image that has been generated is generated. The mismatched part identifying unit 244 compares the updated first planar image and the second planar image generated in this way to identify the mismatched part.

なお、撮像装置1が連続的に対象物30を撮影する場合であっても、対象物30の撮像画像が生成される都度、不一致箇所特定部244が不一致箇所の特定処理を行う必要はない。例えば、ユーザが対象物30の不良箇所を直した場合にのみ不一致箇所の特定処理が行われるように、不一致箇所特定部244は、更新後の第1平面画像と更新前の第1平面画像との一致度が所定の閾値未満である場合に、更新後の第1平面画像に基づいて不一致箇所を特定してもよい。 Note that even when the imaging device 1 continuously captures the target object 30, the mismatching part specifying unit 244 does not need to perform the mismatching part specifying process each time a captured image of the target object 30 is generated. For example, the inconsistent part identification unit 244 may compare the first planar image after updating and the first planar image before updating so that the process of identifying the inconsistent part is performed only when the user corrects the defective part of the target object 30 . is less than a predetermined threshold, the non-matching portion may be specified based on the updated first planar image.

上記のように撮像装置1が連続的に対象物30を撮影する構成の場合、検査装置2はさらに下記のように構成されていてもよい。具体的には、不一致箇所特定部244は、第1平面画像に基づいて不一致箇所を特定した後、更新された第1平面画像に基づいて不一致箇所を再度特定する。そして、不一致箇所特定部244は、不一致箇所の数又は範囲が所定の基準値未満となったか否かを判定する。この基準値は、不一致箇所として特定される対象物30の構造の形状及び/又は特性に応じて異なる値が設定され、一例として記憶部23が記憶していてもよい。 In the case where the imaging device 1 is configured to continuously image the object 30 as described above, the inspection device 2 may be further configured as follows. Specifically, after identifying the mismatching portion based on the first planar image, the mismatching portion identifying section 244 again identifies the mismatching portion based on the updated first planar image. Then, the non-matching part identification unit 244 determines whether or not the number or range of non-matching parts is less than a predetermined reference value. This reference value may be set to a different value according to the shape and/or characteristics of the structure of the target object 30 identified as the non-matching portion, and may be stored in the storage unit 23 as an example.

出力部245は、不一致箇所特定部244が対象物30の不一致箇所の数又は範囲が所定の基準値未満と判定した場合、表示部22にその旨を示す情報を出力する。出力部245は、一例として「○」及び「×」、又は「合格」及び「不合格」といった文字情報を表示部22に表示させる。 The output unit 245 outputs information indicating the fact to the display unit 22 when the mismatching part specifying unit 244 determines that the number or range of mismatching parts of the object 30 is less than a predetermined reference value. The output unit 245 causes the display unit 22 to display character information such as “○” and “X” or “Pass” and “Fail”, for example.

<変形例4>
本発明の一形態の検査装置2は、下記のように、出力部245が不一致箇所53となっている部分に関連付けられた作業情報を出力してもよい。具体的には、まず、検査装置2の不一致箇所特定部244が、特定された1つ又は複数の不一致箇所53が対象物におけるどの部分であるかを特定し、そして、当該部分に関連付けられた作業情報を例えば記憶部23から読み込む。
<Modification 4>
The inspection apparatus 2 according to one embodiment of the present invention may output work information associated with the portion where the output unit 245 is the mismatched portion 53 as described below. Specifically, first, the non-matching part identification unit 244 of the inspection device 2 identifies which part of the object the one or more identified non-matching parts 53 are. Work information is read from the storage unit 23, for example.

具体的には、例えば、不一致箇所53が、ある対象物において「xxドライバーを用いてyyネジを締め込む」部分であるとする。この場合、不一致箇所特定部244が、不一致箇所53の部分を特定し、その部分に関連付けられた作業情報(「xxドライバーを用いてyyネジを締め込む」)を読み込む。次いで、出力部245は、不一致箇所特定部244が読み込んだ作業情報を、ユーザに提示するように出力する。出力部245は、例えば表示部22に作業情報を出力する。 Specifically, for example, assume that the non-matching portion 53 is a portion of a certain object in which "yy screw is tightened using xx driver". In this case, the inconsistent part identification unit 244 identifies the inconsistent part 53 and reads the work information (“tighten the yy screw using the xx driver”) associated with that part. Next, the output unit 245 outputs the work information read by the inconsistent part identification unit 244 so as to present it to the user. The output unit 245 outputs work information to the display unit 22, for example.

このような構成によれば、不良箇所に応じて、その不良箇所を直すための作業に必要な器具等をユーザに対して自動で提示できるので、ユーザはどのような作業を実施すればよいかを容易に把握できる。なお、上記ではネジやドライバー等を作業情報の一例として説明したが、作業情報としては、例えば、その作業に必要な部品を示す情報、その作業に必要な工具の情報、その作業の難易度及び/又は所要時間を示す情報などのうち少なくともいずれかを含むものであってもよい。 According to such a configuration, it is possible to automatically present to the user the tools and the like necessary for the work for repairing the defective portion according to the defective portion, so that what kind of work the user should perform. can be easily grasped. In the above description, screws, screwdrivers, and the like have been described as examples of work information. / Or at least one of information indicating required time and the like may be included.

上記のような構成によれば、対象物30が何らかの製造上又は組み立て上の不良箇所を含んでおり、ユーザがその不良箇所を直した場合に、不一致箇所特定部244による判定結果が、一例として、不一致箇所が残っている「不合格」の状態から「合格」の状態となるので、ユーザは検査結果を見て対象物30の加工や修繕が完了したことを確認できる。 According to the configuration as described above, when the object 30 includes some manufacturing or assembly defect and the user corrects the defect, the determination result by the non-matching part identification unit 244 is, for example, , the status changes from "failed" in which unmatched portions remain to "accepted", so that the user can confirm that the processing and repair of the object 30 have been completed by looking at the inspection results.

なお、撮像装置1は、所定の時間間隔ではなく、例えば、ユーザからの入力の指示を受け付けた場合に、対象物30の2回目以降の撮影を行ってもよい。 Note that the imaging device 1 may capture the object 30 for the second and subsequent times, for example, when an input instruction from the user is received instead of at predetermined time intervals.

以上、本発明を実施の形態を用いて説明したが、前述したように、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 The present invention has been described above using the embodiments, but as described above, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications can be made within the scope of the gist thereof. and can be changed. For example, all or part of the device can be functionally or physically distributed and integrated in arbitrary units. In addition, new embodiments resulting from arbitrary combinations of multiple embodiments are also included in the embodiments of the present invention. The effect of the new embodiment caused by the combination has the effect of the original embodiment.

1 撮像装置
1a 第1撮像装置
1b 第2撮像装置
2 検査装置
5 検査台
21 入力デバイス
22 表示部
23 記憶部
24 制御部
25 投影装置
30 対象物
31 本体部
31a~31d 孔
32 突出部
40 立体モデル
51 第1平面画像
52 第2平面画像
53 不一致箇所
55 検査結果画像
60 図形パターン
60A 図形パターン
61 図形
70 治具
71 支持面
72 位置合わせ部
241 画像取得部
242 第1画像生成部
243 第2画像生成部
244 不一致箇所特定部
245 出力部
E1 エッジ線
E2 エッジ線
P 撮像画像
S100、S100A~S100C 検査システム
1 imaging device 1a first imaging device 1b second imaging device 2 inspection device 5 inspection table 21 input device 22 display unit 23 storage unit 24 control unit 25 projection device 30 object 31 main body 31a to 31d hole 32 projection 40 three-dimensional model 51 First planar image 52 Second planar image 53 Mismatched portion 55 Inspection result image 60 Graphic pattern 60A Graphic pattern 61 Graphic 70 Jig 71 Support surface 72 Alignment unit 241 Image acquisition unit 242 First image generation unit 243 Second image generation Unit 244 Mismatched part identification unit 245 Output unit E1 Edge line E2 Edge line P Captured images S100, S100A to S100C Inspection system

Claims (20)

コンピュータに、
検査台に載置された対象物を撮像装置で撮影することにより生成された撮像画像を取得する画像取得ステップと、
前記撮像画像に基づき前記対象物の形状的特徴を抽出し、抽出した前記形状的特徴が含まれる第1平面画像を生成する第1画像生成ステップと、
前記対象物の三次元CADデータによって表される立体モデルが前記対象物の前記検査台における向きに対応する第1向きに向けられた状態で前記立体モデルが示す二次元形状に基づき、前記立体モデルの形状的特徴を抽出し、抽出した前記形状的特徴が含まれる第2平面画像を生成する第2画像生成ステップと、
前記第1平面画像における前記対象物の形状的特徴と、前記第2平面画像における前記立体モデルの形状的特徴とが一致しない不一致箇所を特定する不一致箇所特定ステップと、
前記不一致箇所を示す情報を出力する出力ステップと、
を実行させるためのプログラム。
to the computer,
an image acquisition step of acquiring a captured image generated by capturing an image of an object placed on an inspection table with an imaging device;
a first image generating step of extracting a shape feature of the object based on the captured image and generating a first planar image including the extracted shape feature;
The stereo model represented by the three-dimensional CAD data of the object is oriented in a first direction corresponding to the orientation of the object on the examination table, and the stereo model is based on a two-dimensional shape shown by the stereo model. a second image generation step of extracting a shape feature of and generating a second planar image containing the extracted shape feature;
a mismatching point identifying step of identifying mismatching points where the geometric features of the object in the first planar image and the geometric features of the stereo model in the second planar image do not match;
an output step of outputting information indicating the inconsistent portion;
program to run the
前記画像取得ステップでは、
前記対象物に対して所定の位置関係で配置された図形パターンと前記対象物とを前記撮像装置で一緒に撮像することにより生成された前記撮像画像を取得し、
前記第2画像生成ステップは、
取得した前記図形パターンの画像に基づいて前記対象物の向きを特定するステップと、
特定した前記対象物の向きと前記立体モデルの向きとが対応するように、前記立体モデルを前記第1向きに向けることにより前記第2平面画像を生成するステップと、
を有する、
請求項1に記載のプログラム。
In the image acquisition step,
Acquiring the captured image generated by capturing an image of a figure pattern arranged in a predetermined positional relationship with respect to the object and the object together with the imaging device,
The second image generation step includes:
identifying the orientation of the object based on the acquired image of the graphic pattern;
generating the second planar image by orienting the three-dimensional model in the first direction so that the orientation of the identified object and the orientation of the three-dimensional model correspond;
having
A program according to claim 1.
前記対象物の向きを特定するステップでは、
前記図形パターンの画像に基づいて前記図形パターンの向きを特定し、前記対象物と前記図形パターンとの位置関係を示す情報を参照することにより、特定した前記図形パターンの向きに対応する前記対象物の向きを特定する、
請求項2に記載のプログラム。
In determining the orientation of the object,
The object corresponding to the specified orientation of the figure pattern by specifying the orientation of the figure pattern based on the image of the figure pattern and referring to information indicating the positional relationship between the object and the figure pattern. identify the orientation of the
3. A program according to claim 2.
前記画像取得ステップでは、
前記検査台に載置された、前記対象物を位置決めする治具に対して所定の位置関係で配置された治具用図形パターンを撮像することにより生成された前記撮像画像を取得し、
前記第2画像生成ステップは、
取得した前記治具用図形パターンの画像に基づいて前記治具の向きを特定するステップと、
特定した前記治具の向き対応する前記対象物の向きと前記立体モデルの向きとが対応するように、前記立体モデルを前記第1向きに向けることにより前記第2平面画像を生成するステップと、
を有する、請求項1から3のいずれか一項に記載のプログラム。
In the image acquisition step,
Acquiring the imaged image generated by imaging a jig figure pattern arranged in a predetermined positional relationship with respect to a jig for positioning the object, which is placed on the inspection table;
The second image generation step includes:
identifying the orientation of the jig based on the acquired image of the jig figure pattern;
generating the second planar image by orienting the three-dimensional model in the first direction so that the orientation of the object corresponding to the identified orientation of the jig corresponds to the orientation of the three-dimensional model;
4. The program according to any one of claims 1 to 3, comprising:
前記第2画像生成ステップでは、前記図形パターンに含まれる複数の図形を結ぶベクトルの向きを特定することにより、前記図形パターンの向きを特定する、
請求項2または3に記載のプログラム。
In the second image generating step, the direction of the figure pattern is specified by specifying the direction of a vector connecting a plurality of figures included in the figure pattern.
4. A program according to claim 2 or 3.
前記第2画像生成ステップは、
前記第1平面画像が示す前記対象物の形状的特徴と、前記第1向きに対応する前記立体モデルに基づく形状的特徴との一致度が閾値以上であるか否かを判定するステップと、
前記一致度が前記閾値未満である場合に、前記第1向きと異なる第2向きに向けられた状態で前記立体モデルが示す二次元形状に基づき更新形状的特徴を抽出するステップと、
前記第1平面画像が示す前記対象物の形状的特徴と、前記更新形状的特徴との一致度が前記閾値以上である場合に、前記更新形状的特徴が含まれる前記第2平面画像を生成するステップと、
を有する、請求項1から5のいずれか一項に記載のプログラム。
The second image generation step includes:
determining whether or not a degree of matching between the shape features of the object indicated by the first planar image and the shape features based on the three-dimensional model corresponding to the first orientation is equal to or greater than a threshold;
a step of extracting an updated shape feature based on a two-dimensional shape shown by the three-dimensional model while being oriented in a second direction different from the first direction, if the degree of matching is less than the threshold;
generating the second planar image including the updated geometrical features when a degree of matching between the geometrical features of the object indicated by the first planar image and the updated geometrical features is equal to or greater than the threshold; a step;
6. The program according to any one of claims 1 to 5, comprising:
前記第2画像生成ステップは、
前記立体モデルに基づいて生成された複数の前記第2平面画像を参照し、複数の前記第2平面画像の中から前記第1平面画像に類似度が最も高い1つを選択する、
請求項1から6のいずれか一項に記載のプログラム。
The second image generation step includes:
referring to the plurality of second planar images generated based on the stereo model, and selecting one of the plurality of second planar images that has the highest degree of similarity to the first planar image;
A program according to any one of claims 1 to 6.
前記第2画像生成ステップは、
前記対象物に形成された複数の構造部の画像に基づいて前記対象物の向きを特定するステップと、
特定した前記対象物の向きと前記立体モデルの向きとが対応するように、前記立体モデルを前記第1向きに向けることにより前記第2平面画像を生成するステップと、
を有する、
請求項1から7のいずれか一項に記載のプログラム。
The second image generation step includes:
determining an orientation of the object based on images of a plurality of structures formed on the object;
generating the second planar image by orienting the three-dimensional model in the first direction so that the orientation of the identified object and the orientation of the three-dimensional model correspond;
having
A program according to any one of claims 1 to 7.
前記複数の構造部の画像に基づいて前記対象物の向きを特定するステップは、
前記三次元CADデータを参照してそれぞれの前記構造部が所定の位置及び/又は所定の形状であるかを判定し、3つ以上の前記構造部が所定の位置及び/又は所定の形状であった場合に、前記複数の構造部の画像に基づいて前記対象物の向きを特定するステップを含む、
請求項8に記載のプログラム。
Identifying the orientation of the object based on the images of the plurality of structures comprises:
determining whether or not each structural portion has a predetermined position and/or a predetermined shape by referring to the three-dimensional CAD data; determining the orientation of the object based on the images of the plurality of structures, if
9. A program according to claim 8.
前記画像取得ステップは、
複数の前記撮像装置で前記対象物を複数の向きから撮影して生成された複数の前記撮像画像を取得するステップを含み、
前記不一致箇所特定ステップは、
それぞれの前記撮像画像に基づいて生成された前記第1平面画像及び第2平面画像に基づいて、前記対象物の複数の向きにおける前記不一致箇所を特定するステップを含む、
請求項1から9のいずれか一項に記載のプログラム。
The image acquisition step includes:
Acquiring a plurality of the captured images generated by photographing the object from a plurality of directions with a plurality of the imaging devices,
The discrepancy identifying step includes:
Based on the first planar image and the second planar image generated based on each of the captured images, identifying the inconsistent points in a plurality of orientations of the object,
A program according to any one of claims 1 to 9.
前記画像取得ステップは、
1つ又は複数の前記撮像装置が複数の前記対象物を撮影して生成された前記撮像画像を取得するステップを含み、
前記不一致箇所特定ステップは、
前記複数の対象物のそれぞれについて前記不一致箇所を特定するステップを含む、
請求項1から10のいずれか一項に記載のプログラム。
The image acquisition step includes:
Acquiring the captured images generated by one or more of the imaging devices capturing a plurality of the objects,
The discrepancy identifying step includes:
identifying the non-matching location for each of the plurality of objects;
A program according to any one of claims 1 to 10.
前記第1画像生成ステップは、
前記撮像装置で前記対象物を連続的に撮影して前記第1平面画像を更新するステップを含み、
前記不一致箇所特定ステップは、
更新後の前記第1平面画像と更新前の前記第1平面画像との一致度が所定の閾値未満である場合に、更新後の前記第1平面画像に基づいて前記不一致箇所を特定するステップを含む、
請求項1から11のいずれか一項に記載のプログラム。
The first image generation step includes:
continuously photographing the object with the imaging device to update the first planar image;
The discrepancy identifying step includes:
identifying the inconsistent portion based on the first planar image after updating when the degree of matching between the first planar image after updating and the first planar image before updating is less than a predetermined threshold; include,
A program according to any one of claims 1 to 11.
前記対象物の形状的特徴及び前記立体モデルの形状的特徴が、前記対象物及び前記立体モデルのエッジ線であり、
前記不一致箇所特定ステップでは、
前記対象物のエッジ線と、前記対象物のエッジ線に対応する部分の前記立体モデルの前記エッジ線とが所定の閾値以上離れている箇所を前記不一致箇所と特定する、
請求項1から12のいずれか一項に記載のプログラム。
wherein the geometric features of the object and the geometric features of the solid model are edge lines of the object and the solid model;
In the discrepancy identifying step,
identifying a location where the edge line of the object and the edge line of the stereo model corresponding to the edge line of the object are separated by a predetermined threshold or more as the mismatch location;
A program according to any one of claims 1 to 12.
前記出力ステップは、
前記撮像画像における前記対象物の画像に前記立体モデルの前記形状的特徴であるエッジ線を重畳させた画像である検査結果画像を出力するステップを含む、
請求項1から13のいずれか一項に記載のプログラム。
The output step includes:
outputting an inspection result image that is an image obtained by superimposing the edge line, which is the shape feature of the stereo model, on the image of the object in the captured image;
14. A program according to any one of claims 1-13.
前記出力ステップは、前記対象物に対して、
前記不一致箇所の位置を示す光、又は、
前記三次元CADデータが表す設計上の前記対象物の構造部の位置及び/又は形状を示す光を投影するステップを含む、
請求項1から14のいずれか一項に記載のプログラム。
In the output step, for the object,
Light indicating the position of the mismatched portion, or
Projecting light indicating the position and/or shape of the structural part of the design object represented by the three-dimensional CAD data;
15. A program according to any one of claims 1-14.
前記出力ステップは、
前記不一致箇所が存在することを示す情報、
前記不一致箇所の位置を示す情報、又は、
前記三次元CADデータが表す設計上の前記対象物の構造部の位置及び/又は形状の情報を、
表示部に出力するステップを含む、
請求項1から15のいずれか一項に記載のプログラム。
The output step includes:
information indicating that the mismatched portion exists;
Information indicating the position of the mismatched part, or
Information on the position and/or shape of the structural part of the design object represented by the three-dimensional CAD data,
including a step of outputting to the display unit,
16. A program according to any one of claims 1-15.
前記不一致箇所特定ステップは、
前記第1平面画像に基づいて前記不一致箇所を特定した後、更新された前記第1平面画像に基づいて不一致箇所を再度特定するステップを含み、
前記出力ステップは、
前記更新された第1平面画像に基づいて不一致箇所を再度特定するステップにおいて特定された不一致箇所の数又は範囲が所定の基準値未満となった場合に、表示部にその旨を示す情報を出力する、
請求項1から16のいずれか一項に記載のプログラム。
The discrepancy identifying step includes:
After identifying the inconsistent portion based on the first planar image, re-identifying the inconsistent portion based on the updated first planar image;
The output step includes:
When the number or range of mismatched points identified in the step of re-identifying the mismatched points based on the updated first planar image is less than a predetermined reference value, outputting information to that effect to the display unit. do,
17. A program according to any one of claims 1-16.
前記出力ステップは、
前記不一致箇所となっている部分に関連付けられた作業情報を出力するステップを含む、
請求項1から17のいずれか一項に記載のプログラム。
The output step includes:
including the step of outputting work information associated with the inconsistent portion;
18. A program according to any one of claims 1-17.
コンピュータが実行する、
検査台に載置された対象物を撮像装置で撮影することにより生成された撮像画像を取得する画像取得ステップと、
前記撮像画像に基づき前記対象物の形状的特徴を抽出し、抽出した前記形状的特徴が含まれる第1平面画像を生成する第1画像生成ステップと、
前記対象物の三次元CADデータによって表される立体モデルが前記対象物の前記検査台における向きに対応する向きに向けられた状態で前記立体モデルが示す二次元形状に基づき、前記立体モデルの形状的特徴を抽出し、抽出した前記形状的特徴が含まれる第2平面画像を生成する第2画像生成ステップと、
前記第1平面画像における前記対象物の形状的特徴と、前記第2平面画像における前記立体モデルの形状的特徴とが一致しない不一致箇所を特定する不一致箇所特定ステップと、
前記不一致箇所を示す情報を出力する出力ステップと、
を有する検査方法。
the computer runs
an image acquisition step of acquiring a captured image generated by capturing an image of an object placed on an inspection table with an imaging device;
a first image generating step of extracting a shape feature of the object based on the captured image and generating a first planar image including the extracted shape feature;
The shape of the three-dimensional model represented by the three-dimensional CAD data of the object based on the two-dimensional shape shown by the three-dimensional model when the object is oriented in the direction corresponding to the orientation of the object on the examination table. a second image generating step of extracting a physical feature and generating a second planar image including the extracted shape feature;
a mismatching point identifying step of identifying mismatching points where the geometric features of the object in the first planar image and the geometric features of the stereo model in the second planar image do not match;
an output step of outputting information indicating the inconsistent portion;
inspection method.
検査台に載置された対象物を撮像装置で撮影することにより生成された撮像画像を取得する画像取得部と、
前記撮像画像に基づき前記対象物の形状的特徴を抽出し、抽出した前記形状的特徴が含まれる第1平面画像を生成する第1画像生成部と、
前記対象物の三次元CADデータによって表される立体モデルが前記対象物の前記検査台における向きに対応する向きに向けられた状態で前記立体モデルが示す二次元形状に基づき、前記立体モデルの形状的特徴を抽出し、抽出した前記形状的特徴が含まれる第2平面画像を生成する第2画像生成部と、
前記第1平面画像における前記対象物の形状的特徴と、前記第2平面画像における前記立体モデルの形状的特徴とが一致しない不一致箇所を特定する不一致箇所特定部と、
前記不一致箇所を示す情報を出力する出力部と、
を備える検査装置。
an image acquisition unit that acquires a captured image generated by capturing an image of an object placed on an inspection table with an imaging device;
a first image generation unit that extracts a shape feature of the object based on the captured image and generates a first planar image that includes the extracted shape feature;
The shape of the three-dimensional model represented by the three-dimensional CAD data of the object based on the two-dimensional shape shown by the three-dimensional model when the object is oriented in the direction corresponding to the orientation of the object on the examination table. a second image generation unit that extracts a physical feature and generates a second planar image that includes the extracted shape feature;
a mismatching point identification unit that identifies mismatching points where the shape features of the object in the first plane image and the shape features of the stereo model in the second plane image do not match;
an output unit that outputs information indicating the inconsistent part;
inspection device.
JP2022013087A 2022-01-31 2022-01-31 Program, inspection method, and inspection device Pending JP2023111297A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022013087A JP2023111297A (en) 2022-01-31 2022-01-31 Program, inspection method, and inspection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022013087A JP2023111297A (en) 2022-01-31 2022-01-31 Program, inspection method, and inspection device

Publications (1)

Publication Number Publication Date
JP2023111297A true JP2023111297A (en) 2023-08-10

Family

ID=87551948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022013087A Pending JP2023111297A (en) 2022-01-31 2022-01-31 Program, inspection method, and inspection device

Country Status (1)

Country Link
JP (1) JP2023111297A (en)

Similar Documents

Publication Publication Date Title
CA2507174C (en) Method of registering and aligning multiple images
WO2012053521A1 (en) Optical information processing device, optical information processing method, optical information processing system, and optical information processing program
US20070091174A1 (en) Projection device for three-dimensional measurement, and three-dimensional measurement system
JP6503153B2 (en) System and method for automatically selecting a 3D alignment algorithm in a vision system
CN113146073B (en) Vision-based laser cutting method and device, electronic equipment and storage medium
US20130058526A1 (en) Device for automated detection of feature for calibration and method thereof
WO2014045508A1 (en) Inspection device, inspection method, and inspection program
US20170061209A1 (en) Object processing method, reference image generating method, reference image generating apparatus, object processing apparatus, and recording medium
JP2020047049A (en) Image processing device and image processing method
KR20120054689A (en) Inspection method
US10252417B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
CN109804730B (en) Substrate inspection apparatus and substrate distortion compensation method using the same
US20100060903A1 (en) Image Measuring Apparatus and Computer Program
JP5757156B2 (en) Method, apparatus and program for calculating center position of detection object
CN104168414A (en) Object image shooting and splicing method
JP2019039846A (en) Inspection system and method of correcting image for inspection
CN115615350A (en) Detection method and system thereof
CN111199533B (en) Image processing apparatus and method
JP2023111297A (en) Program, inspection method, and inspection device
TW201443393A (en) Method for photographing and piecing together the images of an object
JPH09329440A (en) Coordinating method for measuring points on plural images
US20220373324A1 (en) Fracture surface inspection device and fracture surface inspection method
JP2020057298A (en) Determination device, determination method, and determination program
JP7204504B2 (en) Object confirmation device
JP2020197495A (en) Information processing apparatus, measuring device, information processing method, program, system, and method for manufacturing article

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231025