JPH0798217A - Method and device for automatic inspection of three dimensional object - Google Patents

Method and device for automatic inspection of three dimensional object

Info

Publication number
JPH0798217A
JPH0798217A JP5241371A JP24137193A JPH0798217A JP H0798217 A JPH0798217 A JP H0798217A JP 5241371 A JP5241371 A JP 5241371A JP 24137193 A JP24137193 A JP 24137193A JP H0798217 A JPH0798217 A JP H0798217A
Authority
JP
Japan
Prior art keywords
inspection
data
measurement
dimensional
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5241371A
Other languages
Japanese (ja)
Other versions
JP3583450B2 (en
Inventor
Yasuo Otsuki
康生 大築
Sumihiro Ueda
澄広 上田
Takao Kanamaru
孝夫 金丸
Hirofumi Morita
弘文 森田
Itaru Kimura
格 木村
Yoshisuke Watanabe
義介 渡邊
Atsushi Ohashi
淳志 大橋
Hideo Nakamura
日出男 中村
Hajime Minami
一 南
Taketo Wakahara
剛人 若原
Masatoshi Nomura
正利 野村
Haruo Koyanagi
晴生 小柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JGC Corp
Niigata Engineering Co Ltd
Kawasaki Heavy Industries Ltd
Kubota Corp
Nissan Motor Co Ltd
Sharp Corp
HTK Engineering Co Ltd
Original Assignee
JGC Corp
Niigata Engineering Co Ltd
Kawasaki Heavy Industries Ltd
Kubota Corp
Nissan Motor Co Ltd
Honda Engineering Co Ltd
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JGC Corp, Niigata Engineering Co Ltd, Kawasaki Heavy Industries Ltd, Kubota Corp, Nissan Motor Co Ltd, Honda Engineering Co Ltd, Sharp Corp filed Critical JGC Corp
Priority to JP24137193A priority Critical patent/JP3583450B2/en
Publication of JPH0798217A publication Critical patent/JPH0798217A/en
Application granted granted Critical
Publication of JP3583450B2 publication Critical patent/JP3583450B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To automate various inspections by identifying and recognizing objects to-be-examined based on obtained design data, etc., deciding a measuring and inspecting method to be carried out, and controlling sensor and lighting systems. CONSTITUTION:The data on design, examination, etc., of an object 1 to-be- examined is given through communication means, and based on this, position and attitude of a sensor 7 and a lighting system 8 are controlled, so that the object 1 to-be-examined is identified and recognized to determine an inspection method. For example, the object 1 to-be-examined is transported by an autonomous unmanned transportation robot 2, and carried into/out of a measurement stage 6 by handling robots 3 and 4. A sensor 7 detects the object 1 to-be- examined lit by the lighting means 8. The sensor 7 and lighting means 8 are controlled in their position and attitude by robots 3, 10, 11, etc.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、たとえば製造ラインに
おける3次元形状をもった検査対象物の外観を自動的に
検査するためなどに実施することができる3次元物体の
自動検査装置および方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic inspection apparatus and method for a three-dimensional object which can be used for automatically inspecting the appearance of an inspection object having a three-dimensional shape in a manufacturing line. .

【0002】[0002]

【従来の技術】このような製造ラインにおいて用いられ
る従来からの検査装置では、人手がかかり、無駄時間が
長いという問題がある一部自動化されたものでも、特定
対象の検査用であり、多様な状況(多品種、種々の姿勢
など)に対応できない。またその検査で検査対象物の欠
陥を検出しても、その解析、要因分析、さらにはその結
果をもとにした設計の見直しを行うループは特になく、
担当技術者の熱意にまかされている。したがって設計上
の欠陥が修正されず、またはその修正が遅れることにな
る。
2. Description of the Related Art In the conventional inspection apparatus used in such a production line, even a partially automated apparatus, which has a problem of requiring a lot of manpower and a long dead time, is for inspecting a specific object, and has various types. It is not possible to cope with the situation (multi-product, various postures, etc.). Even if the inspection detects defects in the inspection object, there is no particular loop for analysis, factor analysis, and design review based on the results.
Enthusiasm of the engineer in charge. Therefore, the design defect is not corrected or the correction is delayed.

【0003】[0003]

【発明が解決しようとする課題】本発明の目的は、状況
に応じた多様な検査を自動的に行うことができるように
し、たとえ欠陥が検出されても、その解析などを自動的
に行うことができるようにした3次元物体の自動検査装
置および方法を提供することである。
SUMMARY OF THE INVENTION An object of the present invention is to make it possible to automatically perform various inspections according to the situation, and to automatically analyze even a defect is detected. It is an object of the present invention to provide an automatic inspection device and method for a three-dimensional object, which is capable of

【0004】[0004]

【課題を解決するための手段】本発明は、検査対象物を
ハンドリングする手段と、センサ・照明系と、センサや
照明装置の位置姿勢を制御する手段と、センサ信号を処
理する手段と、対象物の同定・認識を行う第1演算手段
と、対象物のデータを外部と通信する手段と、データと
認識結果から対象に適した計測法や検査法を決定する第
2演算手段とを含むことを特徴とする3次元物体の自動
検査装置である。
SUMMARY OF THE INVENTION The present invention provides a means for handling an inspection object, a sensor / illumination system, a means for controlling the position and orientation of a sensor or an illumination device, a means for processing a sensor signal, and an object. Includes first calculation means for identifying / recognizing an object, means for communicating data of an object with the outside, and second calculation means for determining a measurement method or inspection method suitable for the object from the data and the recognition result. Is an automatic inspection device for three-dimensional objects.

【0005】また本発明は、センサ信号処理手段による
検査結果から不良部分の要因分析をする第3演算手段
と、該第3演算手段の演算結果を外部の設計手段または
製造手段に出力する手段とを含むことを特徴とする。
Further, according to the present invention, there is provided a third arithmetic means for analyzing the cause of the defective portion from the inspection result by the sensor signal processing means, and a means for outputting the arithmetic result of the third arithmetic means to an external design means or manufacturing means. It is characterized by including.

【0006】また本発明は、検査対象物の形状に関する
データを出力する形状データ出力手段と、検査対象物の
3次元の形状、位置、姿勢のいずれか少なくとも1つを
計測する手段と、形状データ出力手段および計測手段の
出力に応答して、検査対象物の認識を行い、計測のため
の検査指令情報を出力し、その検査指令情報によって計
測手段は、検査対象物の予め定める部位の計測を行う認
識/指令手段と、形状データ出力手段と計測手段との出
力に応答して、検査対象物の欠陥などの検査をする手段
とを含むことを特徴とする3次元物体の自動検査装置で
ある。
The present invention also relates to shape data output means for outputting data relating to the shape of the inspection object, means for measuring at least one of the three-dimensional shape, position and orientation of the inspection object, and shape data. Responsive to the output of the output means and the measuring means, the inspection target object is recognized, the inspection command information for measurement is output, and the measurement means uses the inspection command information to measure the predetermined portion of the inspection target object. An automatic inspection apparatus for a three-dimensional object, comprising: a recognition / instruction means to perform; and a means for inspecting a defect or the like of an inspection object in response to an output of a shape data output means and a measurement means. .

【0007】また本発明は、認識/指令手段は、検査対
象物の検査を行う検査方法と、その検査方法を行う計測
手段の検査ツールとを決定して、計測手段を計測動作さ
せることを特徴とする。
Further, the present invention is characterized in that the recognition / command means determines the inspection method for inspecting the inspection object and the inspection tool of the measurement means for performing the inspection method, and operates the measurement means. And

【0008】また本発明は、検査ツールは、検査対象物
を光学的に検査する光学的検出手段と、検査対象物に光
を照射する光源と、光学的検査手段および光源を予め定
める検査条件となるように動作させる手段とを含むこと
を特徴とする。
According to the present invention, the inspection tool has an optical detecting means for optically inspecting the inspection object, a light source for irradiating the inspection object with light, and inspection conditions for predetermining the optical inspection means and the light source. And means for operating so that

【0009】また本発明は、予め登録された検査対象物
のデータと初期計測データから、対象物の同定に必要な
計測が実現できるように、対象物やセンサ・照明系等の
位置姿勢を決定しハンドリング手段に指令を生成する工
程と、登録データと計測データを比較して対象物の同定
を行う工程と、同定された対象物に求められる検査を実
現することができるように、対象物やセンサ・照明系等
の位置姿勢を決定しハンドリング手段に指令を生成する
工程と、検査結果を外部に出力する工程とを含むことを
特徴とする3次元物体の自動検査方法である。
Further, according to the present invention, the position and orientation of the object, the sensor, the illumination system and the like are determined so that the measurement necessary for identifying the object can be realized from the data of the inspection object registered in advance and the initial measurement data. Then, a step of generating a command to the handling means, a step of identifying the target object by comparing the registered data with the measurement data, and a target object so that the inspection required for the identified target object can be realized. An automatic inspection method for a three-dimensional object, comprising: a step of determining a position and orientation of a sensor / illumination system and the like, generating a command to a handling means; and a step of outputting an inspection result to the outside.

【0010】[0010]

【作用】本発明に従えば、たとえば従来からの検査のた
めのセンサ、検査対象物を搬送する手段、検査対象物に
光を照射する光源である照明系およびそれを光学的に検
出する画像処理系などを備える装置にさらに、検査対象
物の設計、その他、検査に関するデータを、通信手段を
介して与え、これによってセンサおよび照明系の位置お
よび姿勢などを制御し、検査対象物を同定、認識し、検
査対象物の検査法を生成する。こうしてセンサ、照明系
および画像処理系などで検査対象物の特徴を抽出し、た
とえば通信手段などを通じて入手した設計データなどか
ら検査対象物の同定、認識を行い、同定した検査対象物
に対して行うべき計測法および検査法を決定し、センサ
および照明系の位置、姿勢などを制御して検査を行う。
According to the present invention, for example, a conventional sensor for inspection, a means for conveying an inspection object, an illumination system as a light source for irradiating the inspection object with light, and image processing for optically detecting the illumination system. Further, the device including the system is provided with data related to the design of the inspection object and other inspections through the communication means, thereby controlling the position and orientation of the sensor and the illumination system to identify and recognize the inspection object. Then, the inspection method of the inspection object is generated. In this way, the characteristics of the inspection object are extracted by the sensor, the illumination system, the image processing system, etc., and the inspection object is identified and recognized from the design data and the like obtained through, for example, communication means, and the identified inspection object is performed. The power measurement method and inspection method are determined, and the inspection is performed by controlling the position and orientation of the sensor and illumination system.

【0011】さらに本発明に従えば、検査によって検出
された欠陥の要因を推定し、その演算結果を、設計およ
び生産計画を行う部分に通信手段によって出力し、この
ようにして検査結果から欠陥の要因分析を行い、設計お
よび製造部門へ検討結果を送る。そのため設計の見直し
および生産の検討を行うことができず、たとえば設計上
の欠陥を修正することができるようになる。
Further, according to the present invention, the factor of the defect detected by the inspection is estimated, and the calculation result is output to the portion for designing and production planning by the communication means, and thus the defect is detected from the inspection result. Perform factor analysis and send study results to design and manufacturing departments. Therefore, the design cannot be reviewed and the production cannot be examined, and, for example, a design defect can be corrected.

【0012】[0012]

【実施例】【Example】

(1)本発明の一実施例のシステム全体の構成を述べ
る。
(1) The configuration of the entire system of one embodiment of the present invention will be described.

【0013】製品の多様化、短納期化に伴い、CAD/
CAMシステムが導入され、設計から製造に至る合理化
が図られている。これに伴い、品質向上と生産性向上の
ため設計、製造から検査加工に至る有機的に結合された
システムが望まれているが、現状、CAD情報の利用は
加工のためのNCデータの生成や3次元測定機のオフラ
インティーチングといった決められた手続きに従う動作
レベルのプログラム生成に利用されているにすぎない。
「製品Aを検査せよ」とか「製品Bを組立てろ」といっ
た作業レベルの指示により、検査対象の形状などのCA
D情報や公差、検査箇所、計測精度といった非形状情報
に基づいて、自律的にまた学習的に計測・検査のための
動作計画を立案し、柔軟性とタフさを備えたシステムの
開発が望まれる。
With the diversification of products and the shortening of delivery time, CAD /
The CAM system has been introduced to streamline design and manufacturing. Along with this, there is a demand for an organically connected system from design and manufacturing to inspection and processing in order to improve quality and productivity. Currently, CAD information is used to generate NC data for processing and It is only used to create an operation level program according to a predetermined procedure such as offline teaching of a coordinate measuring machine.
CA such as the shape of the inspection object is given by the instruction of the work level such as "inspect product A" or "assemble product B".
It is desirable to develop an operation plan for measurement / inspection autonomously and learning based on non-shape information such as D information, tolerances, inspection points, and measurement accuracy, and develop a system with flexibility and toughness. Be done.

【0014】その解決策として、本件出願人は「アクテ
ィブな自動検査システム」を提案し、その早期実現の必
要性を述べている。
As a solution to this problem, the applicant of the present invention has proposed an "active automatic inspection system" and stated the need for its early realization.

【0015】このアクティブな自動検査システムに求め
られる機能として次の項目a〜dが挙げられる。
The following items a to d are listed as the functions required for this active automatic inspection system.

【0016】(a)機械加工・組立の製造ラインにおい
ては、検査の対象が3次元形状をした物体であるため、
3次元形状ならびに位置・姿勢の計測、物体の認識が重
要である。
(A) In the machining / assembly manufacturing line, the object to be inspected is a three-dimensional object,
It is important to measure 3D shape, position / orientation, and recognize objects.

【0017】(b)特に、3次元形状を対象とした場
合、2次元に比べてデータ量が増え、検査の高速化に適
した計測方法、検査モデルの生成、計測結果と検査モデ
ルとの比較照合のアルゴリズムが必要となる。
(B) Especially when a three-dimensional shape is targeted, the amount of data increases compared to two-dimensional, and a measuring method suitable for speeding up the inspection, generation of an inspection model, comparison between the measurement result and the inspection model. A matching algorithm is required.

【0018】(c)また、3次元という立体を対象とす
るため複雑な形状や凹凸などの段差のある形状の場合、
一方向からの計測だけでは、死角等が存在し対象物体の
必要な形状を計測するのは不可能であり、アクティブな
計測を行うためにCAD情報や計測する場の環境情報に
基づき、自律的に計測および検査のための動作計画を立
案できる検査システムが望まれる。
(C) In addition, since the object is a three-dimensional solid, in the case of a complicated shape or a shape having steps such as unevenness,
It is impossible to measure the required shape of the target object due to the existence of blind spots etc. only by measuring from one direction, and autonomous measurement is performed based on CAD information and environment information of the measurement site for active measurement. It is desirable to have an inspection system that can draw up an operation plan for measurement and inspection.

【0019】(d)さらに、現在は検査対象毎に検査の
ためのプログラミングを要し、多品種少量生産において
は、検査プログラムの作成に要する費用が莫大なものと
なる。
(D) At present, programming for inspection is required for each inspection object, and in high-mix low-volume production, the cost required to create an inspection program becomes enormous.

【0020】そのため、検査対象物体と設計データが与
えられたら、合目的的、経済的かつ安全な計測・認識お
よび検査のためのプログラムを自律的に生成していく機
能と、汎用性、柔軟性を有した3次元物体の計測・認識
・検査システムが必要となる。
Therefore, when an object to be inspected and design data are given, a function of autonomously generating a program for purposeful, economical and safe measurement / recognition and inspection, versatility and flexibility. A three-dimensional object measurement / recognition / inspection system is required.

【0021】図1は、本発明の一実施例の具体的な構成
を示す斜視図である。製造ラインにおける3次元形状を
もった検査対象物1の外観を、自動的に検査する。検査
対象物1は自律無人搬送ロボット2によって搬送され、
ハンドリングロボット3,4,5などを用いて計測台6
に搬入/搬出され、テレビカメラおよびその他の光学的
検出手段あるいはその他の検出手段であるセンサ7は、
光源である照明手段8によって照射される検査対象物1
を検出する。センサ7および照明手段8は、ロボット3
だけでなくロボット9,10,11などによってその位
置および姿勢などが制御される。
FIG. 1 is a perspective view showing a specific structure of an embodiment of the present invention. The appearance of the inspection object 1 having a three-dimensional shape on the manufacturing line is automatically inspected. The inspection object 1 is transferred by the autonomous unmanned transfer robot 2,
Measuring table 6 using handling robots 3, 4, 5 etc.
The sensor 7, which is carried in / out of the TV camera, is a television camera and other optical detection means or other detection means,
Inspection object 1 illuminated by illumination means 8 which is a light source
To detect. The sensor 7 and the illumination means 8 are the robot 3
In addition, the positions, postures, etc. of the robots 9, 10, 11 are controlled.

【0022】図2は、本発明の一実施例のアクティブ検
査および計測装置の全体の構成の概略を示すブロック図
であり、図3はその実施例のさらに具体的な構成を示す
ブロック図である。この図3に示される構成のさらに詳
細な構成は、図4および図5に示されている。このよう
な図4および図5に示される構成のさらに詳細な説明
を、図6以降の図面を参照して詳述する。
FIG. 2 is a block diagram showing the outline of the overall construction of the active inspection and measurement apparatus of one embodiment of the present invention, and FIG. 3 is a block diagram showing the more specific construction of that embodiment. . A more detailed structure of the structure shown in FIG. 3 is shown in FIGS. 4 and 5. A more detailed description of the configuration shown in FIGS. 4 and 5 will be described in detail with reference to the drawings starting from FIG.

【0023】図6に示される外観の自動検査システムA
0は、図7に示される3次元物体の認識および検査部A
1と、3次元物体の計測部A2とから構成される。図6
のリソースとは、検査を行う際に必要となる物理的な手
段であり、たとえば検査具、取付具、搬送装置およびそ
の他検査対象物を除くすべてのものを含む。3次元物体
の認識および検査部A1には、図8のように3次元物体
の計測部A2で計測された3次元情報A2aやCADに
よる設計システムより送られた形状などの検査に関する
情報を伴ったプロダクトモデルデータA1aから、検査
に必要な検査モデルの生成と複数のモデルの中から特定
の3次元物体を認識するための3次元物体の認識部A1
2が設けられ、生成された検査モデルから検査の目的に
応じてエキスパートシステムなどにより、検査方法を自
動的に選定し、検査プログラムを自動的に生成するため
の検査方法の自動選定・自動プログラミング部A11、
検査モデルと計測データの比較により寸法・形状・欠陥
の検査を行うための寸法・形状・欠陥検査部A13であ
る。
Automatic appearance inspection system A shown in FIG.
0 is a three-dimensional object recognition and inspection unit A shown in FIG.
1 and a three-dimensional object measuring unit A2. Figure 6
Resource is a physical means required when performing an inspection, and includes, for example, an inspection tool, a fixture, a transport device, and all other objects than an inspection object. The three-dimensional object recognition and inspection unit A1 is accompanied by the three-dimensional information A2a measured by the three-dimensional object measuring unit A2 as shown in FIG. 8 and the inspection information such as the shape sent from the CAD design system. A three-dimensional object recognition unit A1 for generating an inspection model required for inspection and recognizing a specific three-dimensional object from a plurality of models from the product model data A1a.
2 is provided, and the inspection system is automatically selected and generated by an expert system or the like according to the purpose of the inspection from the generated inspection model and the inspection program is automatically generated. A11,
The size / shape / defect inspection unit A13 is used to inspect sizes / shapes / defects by comparing an inspection model with measurement data.

【0024】また、3次元物体の計測部A2には、図9
のように検査指令データに基づき計測をアクティブに行
うためにセンシングデバイス、照明装置、ハンド、ロボ
ット、搬送装置から構成されるアクティブな計測部A2
3、計測された3次元点列データより距離・傾き・エッ
ジ・密度画像を生成する3次元情報の獲得部A21と、
獲得されたデータにより3次元形状を生成する3次元物
体の計測部A22である。
Further, in the measuring section A2 for the three-dimensional object, FIG.
An active measurement unit A2 including a sensing device, a lighting device, a hand, a robot, and a transfer device in order to actively perform measurement based on the inspection command data like
3. A three-dimensional information acquisition unit A21 that generates a distance / tilt / edge / density image from the measured three-dimensional point sequence data,
It is a measurement unit A22 of a three-dimensional object that generates a three-dimensional shape from the acquired data.

【0025】次項より、これらの構成要素をさらに詳細
に展開し、情報および処理の流れと、必要となる要素技
術について述べることとする。
From the next section, these components will be developed in more detail, and the flow of information and processing and the necessary elemental technology will be described.

【0026】(2)各構成要素の説明 (2−1)検査方法の自動選定・自動プログラミング部
A11 検査方法の自動選定・自動プログラミング部A11は、
図8のように3次元物体の認識部A12および設計シス
テムから種々の情報を受け、検査作業計画を立案し、検
査方法、順序、ツール、条件および経路に関して自動選
定・自動プログラミング作業を行い、その結果を図9の
3次元物体の計測部A2の中のアクティブな計測部A2
3および3次元情報の獲得部A21に送る。
(2) Description of each component (2-1) Automatic selection / automatic programming unit A11 of inspection method The automatic selection / automatic programming unit A11 of inspection method is
As shown in FIG. 8, various information is received from the three-dimensional object recognition unit A12 and the design system, an inspection work plan is prepared, and automatic selection / automatic programming work is performed with respect to the inspection method, sequence, tools, conditions, and routes. The result is the active measurement unit A2 in the measurement unit A2 of the three-dimensional object in FIG.
It is sent to the 3D and 3D information acquisition unit A21.

【0027】ただし、センサフュージョンによる情報処
理およびアクティブな検査を行うマニピュレータ等の運
転プログラムのマイナーな変更は、アクティブな計測部
におけるローカル処理として行う。
However, minor changes in the operating program of the manipulator or the like for performing information processing by sensor fusion and active inspection are performed as local processing in the active measuring section.

【0028】以上の方針から、検査方法の自動選定・自
動プログラミング部A11には図10のように、以下の
6つの構成要素a1〜a6を設ける。
From the above policy, the automatic selection / automatic programming unit A11 for the inspection method is provided with the following six constituent elements a1 to a6 as shown in FIG.

【0029】(a1)検査・特徴抽出作業展開A111 (a2)検査方法決定A112 (a3)検査順序決定A113 (a4)検査ツール決定A114 (a5)検査条件決定A115 (a6)検査経路生成A116 情報および処理の流れと、必要となる要素技術は次のと
おりである。
(A1) Inspection / feature extraction work development A111 (a2) Inspection method determination A112 (a3) Inspection order determination A113 (a4) Inspection tool determination A114 (a5) Inspection condition determination A115 (a6) Inspection path generation A116 Information and The flow of processing and required elemental technologies are as follows.

【0030】図10のように3次元物体の認識部A12
から送られてくる情報は、被検査物の識別情報IDが未
確認である場合の特徴抽出要求A12aと、IDを確認
した後、3次元物体の認識部A12で作成された検査モ
デル、位置・姿勢データ、検査精度・部位等A12bで
ある。このような情報A12a,A12bから全体的な
検査作業計画を立案するために、検査・特徴抽出作業展
開部A111を設ける。
As shown in FIG. 10, a three-dimensional object recognition unit A12
The information sent from is the feature extraction request A12a when the identification information ID of the inspected object is unconfirmed, and the inspection model, position / orientation created by the recognition unit A12 of the three-dimensional object after confirming the ID. Data, inspection accuracy, part, etc. are A12b. An inspection / feature extraction work expansion unit A111 is provided in order to draw up an overall inspection work plan from such information A12a and A12b.

【0031】検査・特徴抽出作業展開部A111では、
3次元物体の認識部A12からの情報が特徴抽出要求A
12aの場合は、その旨であることを確認し、検査指令
データとしてそのまま特徴抽出要求を3次元物体の計測
部A2へ送る。
In the inspection / feature extraction work expansion unit A111,
Information from the three-dimensional object recognition unit A12 is the feature extraction request A
In the case of 12a, the fact is confirmed, and the feature extraction request is sent as it is to the measurement unit A2 of the three-dimensional object as the inspection command data.

【0032】また、3次元物体の認識部A12からの情
報が、抽出された特徴から確認されたID情報を伴った
検査対象物の検査モデル、位置・姿勢データ、検査精度
・部位等A12bの場合は、検査作業を行う意図を確認
し、送られてきた情報をベースに検査作業計画の立案を
行う。ここでは、視覚情報処理のアルゴリズムや制御戦
略等の汎用的な知識がすでに与えられており、さらに被
検査物や目的等が情報として与えられることにより、全
体的な作業計画の概要が決定される。この構成要素で
は、検査作業計画を行うAI(人工知能)プランナが重
要である。
When the information from the recognition unit A12 of the three-dimensional object is the inspection model, position / orientation data, inspection accuracy / part, etc. A12b of the inspection object accompanied by the ID information confirmed from the extracted features. Confirms the intent to perform inspection work and makes an inspection work plan based on the information sent. Here, general-purpose knowledge such as visual information processing algorithms and control strategies has already been given, and the outline of the overall work plan is determined by giving information such as the object to be inspected and the purpose. . In this component, an AI (Artificial Intelligence) planner for planning inspection work is important.

【0033】検査・特徴抽出作業展開部A111で検査
作業計画が立てられると、それをもとに被検査物や目的
等の応用に対し、最適な検査方法とその情報処理アルゴ
リズム、さらにその適用手順を自動的に生成する必要が
生じる。そこで、検査方法決定部A112、検査順序決
定部A113および検査ツール決定部A114を設け
た。
When an inspection work plan is prepared in the inspection / feature extraction work development unit A111, an optimum inspection method, its information processing algorithm, and its application procedure are applied to the application of the object to be inspected or the purpose based on it. Will need to be generated automatically. Therefore, the inspection method determination unit A112, the inspection order determination unit A113, and the inspection tool determination unit A114 are provided.

【0034】検査方法決定部A112では、検査モデル
や位置・姿勢データ等の情報から、検査部位の最適な検
査方法とその情報処理アルゴリズムが自動選定される。
ここでは検査方法データベースより、過去の事例が参照
され、検査部位の形状、大きさ、精度等から接触式また
は非接触式、非接触式の場合は受動型または能動型とい
った検査方法やその情報処理アルゴリズムが決定され
る。ここでは過去の事例を用いることが可能で、さらに
学習機能を兼ね備えた事例ベース推論を応用している。
The inspection method determination unit A112 automatically selects the optimum inspection method for the inspection site and its information processing algorithm from the information such as the inspection model and the position / orientation data.
Here, past cases are referred to from the inspection method database, and the inspection method such as contact type or non-contact type in the case of shape, size, accuracy of the inspection site, passive type or active type in the case of non-contact type and its information processing. The algorithm is determined. Here, past cases can be used, and case-based reasoning with a learning function is applied.

【0035】検査順序決定部A113では、検査モデル
等の情報と検査方法決定部A112で決定された検査方
法を受け、複数の検査部位を検査方法や情報処理アルゴ
リズムを考慮しながら、どの順序で検査するかを決定す
る。ここでは検査作業の効率等を考慮して、エキスパー
トシステムを用いたスケジューリング機能を設けてい
る。
The inspection order determining unit A113 receives information such as the inspection model and the inspection method determined by the inspection method determining unit A112, and inspects a plurality of inspection parts in any order while considering the inspection method and the information processing algorithm. Decide what to do. Here, a scheduling function using an expert system is provided in consideration of the efficiency of inspection work.

【0036】検査ツール決定部A114では、検査方法
決定部A112で決定された検査方法をもとに検査ツー
ルが自動選定される。検査精度等の情報を加味しなが
ら、多眼視(CCD(電荷蓄積素子)またはPSD(光
検出素子))、レンジファインダ、タッチプローブ等の
検査ツールが選定される。ここでは検査精度・部位等の
情報を利用し、検査ツール選定のルールを作成すること
により、検査ツールデータベースからルールベース推論
を用いた検査ツール選定システムを構築している。
The inspection tool determination unit A114 automatically selects an inspection tool based on the inspection method determined by the inspection method determination unit A112. Inspection tools such as multi-view (CCD (charge storage element) or PSD (photodetection element)), range finder, and touch probe are selected while taking into consideration information such as inspection accuracy. Here, an inspection tool selection system using rule-based inference is constructed from an inspection tool database by creating a rule for selecting an inspection tool by using information such as inspection accuracy and site.

【0037】視覚システムの能力を向上させるために
は、入力された画像の情報処理能力を向上させるだけで
なく、カメラの焦点や絞り、あるいはその位置や方向、
さらには照明光の位置、方向明るさ等をシステムが自律
的に制御して、能動的に処理しやすい画像を入力するこ
とが重要である。このため、カメラや照明系等、画像化
についての知識(有効な対象物、目的、機能、効率等)
をシステムに与えておき、アクティブな計測部A23で
応用目的に応じた最適な画像が得られるように、検査条
件決定部A115および検査経路生成部A116を設け
る。
In order to improve the ability of the visual system, not only the information processing ability of the input image is improved, but also the focus or aperture of the camera or its position or direction,
Furthermore, it is important for the system to autonomously control the position, direction brightness, etc. of the illumination light and input an image that is easy to actively process. Therefore, knowledge about imaging such as cameras and lighting systems (valid objects, purposes, functions, efficiency, etc.)
Is provided to the system, and an inspection condition determination unit A115 and an inspection path generation unit A116 are provided so that the active measurement unit A23 can obtain an optimum image according to the application purpose.

【0038】検査条件決定部A115では、検査モデル
等の情報と検査順序決定部A113で決定された検査順
序、検査ツール決定部で決定された検査ツール等の情報
からカメラの焦点や絞り、ライティング等の最適な検査
条件を決定する。また、照明系がマニピュレータに設置
され、アクティブなライティング作業が行われる場合
は、その位置や方向を決定し、マニピュレータの経路生
成を行う。ここでは、事例ベース推論による検査条件の
決定と、マニピュレータの動作計画技術が重要な技術と
して必要とされると思われる。
The inspection condition determining unit A115 uses the information such as the inspection model, the inspection order determined by the inspection order determining unit A113, and the information about the inspection tool determined by the inspection tool determining unit to determine the focus, aperture, lighting, etc. of the camera. To determine the optimum inspection conditions. Further, when the illumination system is installed in the manipulator and active writing work is performed, the position and direction of the illumination system are determined, and the route of the manipulator is generated. Here, it is considered that determination of inspection conditions by case-based reasoning and operation planning technology for manipulators are required as important technologies.

【0039】検査経路生成部A116は、検査モデル等
の情報と検査順序決定部A113で決定部された検査順
序、検査ツール決定部で決定された検査ツールの情報か
らカメラ等の検査ツールを搭載したマニピュレータの経
路生成を行う。この過程には、マニピュレータが検査ツ
ールを搭載したり、被検査物をセッティングしたりする
一連の動作計画を含む。ここではマニピュレータの動作
計画技術が重要な技術であり、障害物回避等のロボット
の動作計画に関する現状の技術を応用している。
The inspection path generation unit A116 mounts an inspection tool such as a camera on the basis of information such as the inspection model, the inspection order determined by the inspection order determination unit A113, and the inspection tool information determined by the inspection tool determination unit. Generates the route of the manipulator. This process includes a series of operation plans in which the manipulator mounts the inspection tool and sets the inspection object. The manipulator motion planning technology is an important technology here, and the current technology concerning robot motion planning such as obstacle avoidance is applied.

【0040】このようにして決定された各情報は、検査
指令データA11bとしてまとめられ、3次元物体の計
測部A2の構成要素であるアクティブな計測部A23お
よび3次元情報の獲得部A21に送られることになる。
The respective information thus determined are collected as inspection command data A11b and sent to the active measuring section A23 and the three-dimensional information acquiring section A21 which are the constituent elements of the measuring section A2 of the three-dimensional object. It will be.

【0041】(2−2)3次元物体の認識技術部A12 被検査物は検査システムの入口で、まず認識のステージ
を通過することになる。認識部A12は、被検査物が入
荷されたという信号を受けると、検査方法の自動選定・
自動プログラミング部A11へ特徴抽出要求を発し、計
測部A22から被検査物の特徴量データ(計測データ)
を受けて、これに基づいて認識を行う。認識後、認識結
果である被検査物の種類と位置・姿勢を、検査情報を含
んだ検査モデルとともに、検査方法の自動選定・自動プ
ログラミング部A11や寸法・形状・欠陥検査部A13
へ渡す。認識された被検査物は搬送系によって検査ステ
ージへと送られる。
(2-2) Three-dimensional object recognition technology section A12 The object to be inspected first passes through the recognition stage at the entrance of the inspection system. When the recognition unit A12 receives a signal that the inspection object has arrived, the recognition unit A12 automatically selects the inspection method.
A feature extraction request is issued to the automatic programming unit A11, and the feature amount data (measurement data) of the object to be inspected from the measurement unit A22.
In response to this, recognition is performed based on this. After the recognition, the type and position / orientation of the inspected object, which is the recognition result, together with the inspection model including the inspection information are automatically selected / automatically programmed for the inspection method A11 and the dimension / shape / defect inspection section A13.
Hand over to. The recognized inspection object is sent to the inspection stage by the transportation system.

【0042】3次元形状認識の基本的な考え方は、シー
ンの3次元画像から得られた被検査物の記述と予め用意
しておいた被検査物の認識モデルの記述を照合すること
により、被検査物の種類、および3次元的な位置・姿勢
を求めることである。したがって、3次元形状認識は、
図11のように、予め認識のための被検査物の認識モデ
ルを作成する認識・検査モデル作成部A122と、計測
データが入ってきた時点で認識モデルとシーンの記述を
照合させて認識を行う3次元物体の認識部A123から
構成される。
The basic idea of the three-dimensional shape recognition is to compare the description of the inspection object obtained from the three-dimensional image of the scene with the description of the recognition model of the inspection object prepared in advance. To obtain the type of inspection object and the three-dimensional position / orientation. Therefore, 3D shape recognition is
As shown in FIG. 11, the recognition / inspection model creating unit A122, which creates a recognition model of the inspected object for recognition in advance, and the recognition model and the description of the scene are collated at the time when the measurement data comes in for recognition. It is composed of a three-dimensional object recognition unit A123.

【0043】ところで、認識・検査モデル作成部A12
2において、認識モデルは被検査物の3次元形状モデル
に基づいて作成される場合が多い。被検査物が製品また
は製品の一部という位置付けからすると、3次元形状モ
デルは、CADモデルまたはプロダクトモデルの形状デ
ータとして設計工程などの上流から与えられる場合が想
定されるが、CADモデルがない場合には、被検査物自
体やクレイモデルの表面を直接センシングし、得られた
3次元座標データから3次元形状モデルを作成する処理
を行う3次元形状モデル作成部A121が要求される。
3次元形状モデル作成部A121では、被計測物が計測
台にセットされたという信号を受けると、検査方法の自
動選定・自動プログラミング部A11へセンシング指令
を発し、計測部A22から被計測物表面の3次元座標デ
ータ(x,y,z)を受け、これを処理して被検査物の
3次元形状モデルを作成する。
By the way, the recognition / inspection model creating unit A12
In 2, the recognition model is often created based on the three-dimensional shape model of the inspection object. Considering that the object to be inspected is a product or a part of the product, it is assumed that the three-dimensional shape model is given from the upstream of the design process as shape data of the CAD model or product model, but there is no CAD model. Requires a three-dimensional shape model creating unit A121 that directly senses the surface of the object to be inspected or the clay model and creates a three-dimensional shape model from the obtained three-dimensional coordinate data.
Upon receiving a signal that the object to be measured is set on the measuring table, the three-dimensional shape model creating unit A121 issues a sensing command to the automatic selection / automatic programming unit A11 of the inspection method, and the measuring unit A22 measures the surface of the object to be measured. The three-dimensional coordinate data (x, y, z) is received and processed to create a three-dimensional shape model of the inspection object.

【0044】(2−3)寸法・形状・欠陥検査A13 図12は、50種類程度の、既知の3次元被検査物を認
識した後の検査モデルデータに基づいて、寸法・形状・
欠陥検査および仕分け・分類の検査を行うシステムの参
照モデルを示している。
(2-3) Dimension / Shape / Defect Inspection A13 FIG. 12 shows the size / shape / defect based on the inspection model data after recognizing about 50 kinds of known three-dimensional inspection objects.
The reference model of the system for performing defect inspection and sorting / classification inspection is shown.

【0045】検査モデルに含まれる情報としては、被検
査物のID、ならびに検査項目・検査部位等の検査指令
系統の情報および、寸法や公差・検査精度といった検査
に要求される基本情報、さらに被検査物の状態を表す形
状・位置・姿勢等の情報が備わっているものとする。
The information included in the inspection model includes the ID of the object to be inspected, information on the inspection command system such as inspection items and inspection parts, and basic information required for inspection such as dimensions, tolerances and inspection accuracy. Information such as the shape, position, and orientation indicating the state of the inspection object should be provided.

【0046】この検査モデル中の検査項目の情報によ
り、図中、検査項目の選択部A131で検査項目の選択
処理を行い、その選択結果を、寸法・形状の検査部A1
32、または外観の欠陥検査部A133、または仕分け
・分類の検査部A134に対して、検査実行指示として
指令を与える。
Based on the information of the inspection item in this inspection model, the inspection item selection unit A131 in the figure performs the inspection item selection process, and the selection result is used as the size / shape inspection unit A1.
32, or a defect inspection section A133 of appearance or an inspection section A134 of sorting / classification, a command is given as an inspection execution instruction.

【0047】これらの各検査は、ある場合は単独で、ま
た検査項目が複数の場合は、検査処理の順序を含めた検
査実行指示として、検査項目の選択部A131から指令
され、順次検査が行われる。
Each of these inspections is performed individually in some cases, and when there are a plurality of inspection items, it is instructed by the inspection item selection unit A131 as an inspection execution instruction including the order of inspection processing, and the inspections are sequentially performed. Be seen.

【0048】検査実行指示を受けた各検査の実行工程
(A132−A134)では、検査モデル中の位置・姿
勢情報と被検査物の確認ID情報ならびに、被検査物の
認識が終わった後のさらに詳細な、3次元情報に含まれ
る座標基準値等のデータに基づいて、検査のための、ロ
ーカルな座標系の設定を行う。
In the execution process (A132-A134) of each inspection in response to the inspection execution instruction, the position / orientation information in the inspection model, the confirmation ID information of the inspection object, and further after the recognition of the inspection object are finished. A local coordinate system for inspection is set based on detailed data such as coordinate reference values included in the three-dimensional information.

【0049】上記座標系の設定処理で得られた座標値
と、検査モデル中の検査部位・検査精度情報、ならびに
3次元情報中の詳細計測データの組合わせにより、検査
対象部分の抽出を実行する。
Extraction of the portion to be inspected is performed by the combination of the coordinate values obtained by the setting processing of the coordinate system, the inspection site / inspection accuracy information in the inspection model, and the detailed measurement data in the three-dimensional information. .

【0050】検査対象部分の箇所の座標値と検査精度が
決定されると、実際の検査の判定が行われる。これは、
検査モデルに含まれる寸法・形状あるいは公差と、検査
評価用のデータベースに蓄えられている、判定方法・判
定基準データにより実行される。この場合データベース
は、判定の結果も過去の検査結果として記憶され、常に
最新の検査に対して判定基準値としてフィードバックが
かけられる仕組みとなっている。
When the coordinate value and the inspection accuracy of the portion of the inspection target portion are determined, the actual inspection is determined. this is,
It is executed according to the dimensions / shapes or tolerances included in the inspection model and the determination method / determination reference data stored in the inspection / evaluation database. In this case, the database also stores determination results as past inspection results and always feeds back the latest inspection as a determination reference value.

【0051】検査の結果は、計測の画像生データや、数
値化・グラフ化等に加工されたデータとともに、検査情
報として、表示・印字され、同時に必要に応じて上流の
工程に対して送出される。
The inspection result is displayed and printed as inspection information together with the raw image data of the measurement and the data processed into numerical values and graphs, and at the same time, it is sent to the upstream process if necessary. It

【0052】(2−4)3次元物体の計測A22 3次元情報の獲得部A21にて得られた様々な3次元情
報を入力し、計測処理した結果を3次元物体の認識部A
12へ出力する。入力データの内容によっては、簡易的
な認識処理まで行い、寸法・形状・欠陥検査部A13へ
出力する。
(2-4) Three-dimensional object measurement A22 Various three-dimensional information obtained by the three-dimensional information acquisition unit A21 is input, and the measurement processing result is used as the three-dimensional object recognition unit A.
Output to 12. Depending on the contents of the input data, even a simple recognition process is performed and output to the dimension / shape / defect inspection unit A13.

【0053】図13のように、データの判別部A225
は、入力されたデータを判別し、その後の処理方法の選
択に必要なデータ種類IDを設定する。データは、画像
データを基本とするが、寸法データ等も対象とする。
As shown in FIG. 13, the data discriminating section A 225
Determines the input data and sets the data type ID necessary for subsequent selection of the processing method. The data is basically image data, but also dimension data and the like.

【0054】画像データの種類は、たとえば (b1)距離画像 (b2)高さ画像 (b3)傾き画像 (b4)濃淡画像 (b5)カラー画像 である。The types of image data are, for example, (b1) distance image (b2) height image (b3) tilt image (b4) grayscale image (b5) color image.

【0055】処理の選択部A224は、入力データの判
別結果に従い、その後の計測処理プロセス選択に必要な
処理IDを設定する。入力が単眼画像(TVカメラ1台
を用いる構成)の場合、不足している3次元情報を付加
する処理プロセスを行うものとする。複眼画像(カメラ
を複数台用いる構成)の場合、そのまま3次元情報を抽
出する処理プロセスを行う。
The processing selection unit A224 sets a processing ID required for subsequent measurement processing process selection according to the determination result of the input data. When the input is a monocular image (a configuration using one TV camera), a processing process for adding the missing three-dimensional information is performed. In the case of a compound eye image (a configuration using a plurality of cameras), the processing process of extracting the three-dimensional information is performed as it is.

【0056】画像分割部A223は、選択された処理プ
ロセスIDに従い、最適な画像分割方法を選択し、処理
を行う。
The image dividing unit A223 selects an optimum image dividing method according to the selected process process ID and performs the process.

【0057】画像分割方法は、たとえば (c1)2値化処理方法 (c2)エッジ検出法 (c3)領域法 である。The image division method is, for example, (c1) binarization processing method (c2) edge detection method (c3) area method.

【0058】画像分割処理を行う必要がないデータにつ
いてはそのまま通過させる。
Data that does not need to be subjected to image division processing is passed as it is.

【0059】選択した処理により、結果が得られなかっ
た場合、他の処理方法を選択して、自動的にリトライさ
せる。
If no result is obtained by the selected processing, another processing method is selected to automatically retry.

【0060】リトライした履歴データを付加し、次プロ
セスへ出力する。
The retry history data is added and output to the next process.

【0061】特徴抽出部A222は、選択された処理プ
ロセスIDに従い、最適な特徴抽出方法と選択し、処理
を行う。
The feature extraction unit A222 selects the optimum feature extraction method according to the selected process process ID and performs the process.

【0062】特徴抽出は、たとえば以下の方法による。The feature extraction is performed by the following method, for example.

【0063】(d1)大局的特徴抽出 (d2)輪郭に着目した特徴 (d3)位置関係の抽出 特徴抽出処理を行う必要がないデータについては、その
まま通過させる。また、選択した処理により、結果が得
られなかった場合、他の処理方法と選択し自動的にリト
ライさせる。
(D1) Global feature extraction (d2) Feature focused on contour (d3) Extraction of positional relationship Data for which feature extraction processing does not need to be passed through as it is. Also, if the selected process does not produce a result, another process method is selected and the process is automatically retried.

【0064】リトライした履歴データを付加し、次プロ
セスへ出力する。
The retry history data is added and output to the next process.

【0065】データの出力部A221は、処理した結果
を、内容に応じて出力する。本プロセスで得た計測デー
タを、3次元物体の認識処理を行う場合は、3次元物体
の認識部A123へ出力する。本プロセスで得た計測デ
ータを、そのまま検査をして活用できる場合は寸法・形
状・欠陥検査部A13へ出力する。本プロセスの過程に
おいて、うまくデータが得られなかったケースについて
データベースへ入力し、ノウハウとして蓄積を図る。
The data output unit A221 outputs the processed result according to the content. When performing the recognition process of the three-dimensional object, the measurement data obtained in this process is output to the three-dimensional object recognition unit A123. The measurement data obtained in this process is output to the dimension / shape / defect inspection unit A13 if it can be directly inspected and utilized. In the process of this process, the cases where data could not be obtained successfully are entered in the database and accumulated as know-how.

【0066】(2−5)3次元情報の獲得部A21 このブロックでは、アクティブな計測部A23で得られ
たセンシングデータに処理を施し、3次元データに合成
して3次元物体の計測部A22に転送する役割を果す。
以下に図14を参照してモデル展開図を説明する。
(2-5) Acquisition unit A21 of three-dimensional information In this block, the sensing data obtained by the active measuring unit A23 is processed, and the processed sensing data is combined into three-dimensional data to be measured by the measuring unit A22 of the three-dimensional object. Play the role of transfer.
The model development diagram will be described below with reference to FIG.

【0067】センシングデータには視覚センサからの情
報とそれ以外のものがあり、センシングデータ分類部A
212で分類される。視覚センサからの情報は通常、セ
ンシングデータによる距離データ生成部A214に入力
されるが、獲得手法により1)単眼視の濃淡画像、2)
三角測量法に基づくものや距離センサからの情報のよう
にすでに距離情報の形に変換されているデータの2種類
がある。1)については2値化およびパターンマッチン
グ(対応点決定)等により距離データに加工する。単眼
視画像は距離生成において何らかの仮定、つまりシーン
知識が必要であり、それはこの部分に予め用意されてい
る。なお本ブロックにおける情報のみで3次元データを
構築できない場合、画像前処理等の部A213で前処理
のみを行う場合もある。
The sensing data includes information from the visual sensor and other information, and the sensing data classification unit A
It is classified by 212. The information from the visual sensor is normally input to the distance data generation unit A214 based on sensing data, but 1) monocular grayscale image, 2) depending on the acquisition method.
There are two types of data that have already been converted to the form of distance information, such as those based on triangulation and information from distance sensors. Regarding 1), it is processed into distance data by binarization and pattern matching (corresponding point determination). The monocular image needs some assumption in distance generation, that is, scene knowledge, which is prepared in advance in this part. When the three-dimensional data cannot be constructed only by the information in this block, the preprocessing may be performed only by the image preprocessing unit A213.

【0068】視覚センサ以外の情報は3)光学系の動作
や製品の搬送などの動画像を構成する要素として距離デ
ータ生成に必要なものであり、相対位置・運動による距
離データ生成部A215に入力される。検査方法展開部
A211では、上位からの検査指令情報から検査方法
を抽出、光学系の位置関係や視野、投影パターンなどの
固定パラメータを、相対位置・運動による距離データ生
成部A215に送る。ここで前述の3)とともに視覚情
報以外で距離データ生成を行う。
Information other than the visual sensor is 3) necessary for distance data generation as an element that constitutes a moving image such as operation of an optical system and conveyance of a product, and is input to the distance data generation unit A215 by relative position / motion. To be done. The inspection method expansion unit A211 extracts the inspection method from the inspection command information from the upper layer, and sends fixed parameters such as the positional relationship of the optical system, the visual field, and the projection pattern to the distance data generation unit A215 by relative position / motion. Here, together with the above 3), distance data generation is performed using information other than visual information.

【0069】相対位置・運動による距離データ生成部A
215、およびセンシングデータによる距離データ生成
部A214で生成される距離データは、いずれかが1次
元座標データであれば、もう一方は2次元座標データと
いうように互いを補い合って、最終的に、3次元データ
生成部A216において3次元データを生成し、3次元
物体の計測部A22に送られる。
Distance data generation unit A based on relative position / motion
215 and the distance data generated by the distance data generation unit A214 based on the sensing data complement each other such that if either one is one-dimensional coordinate data, the other is two-dimensional coordinate data, and finally 3 The three-dimensional data generation unit A216 generates three-dimensional data and sends it to the three-dimensional object measurement unit A22.

【0070】(2−6)アクティブな計測部A23 図15にアクティブな計測のモデル展開図を示す。上位
より検査指令情報を受取りセンシングデータと走査情
報、照明情報等を出力する5つのサブモジュールから構
成される。
(2-6) Active measurement unit A23 FIG. 15 shows a model development view of active measurement. It is composed of five sub-modules that receive inspection command information from the host and output sensing data, scanning information, illumination information and the like.

【0071】上位より入力された検査指令情報は、セン
シング作業展開部A231で解釈され、被検査物の搬送
を制御する搬送制御部A235と、被検査物およびセン
サ・照明系の位置・経路等を制御する被検査物取出し/
検査経路制御部A234へ制御情報として転送される。
センシングに必要とされる照明装置やセンサの種類・数
とセンシング系固有のパラメータ等も同時に、照明装置
選択部A233と、センサ選択部A232へ出力され
る。センサ選択部A232〜搬送制御部A235は、そ
れぞれ指示された情報に従って所定の作業を行いセンシ
ングデータと各部状態情報を上位へ返す。センシングデ
バイスとしては、CCD、PSD等の画像センサや距離
センサだけでなく、電気信号、質量等の物理量を計測す
るセンサについても補助的に用いられる。
The inspection command information input from the host is interpreted by the sensing work developing unit A231, and the conveyance control unit A235 for controlling the conveyance of the inspection object, the inspection object and the position / route of the sensor / illumination system, etc. Controlled object removal /
It is transferred to the inspection route control unit A234 as control information.
The types and number of lighting devices and sensors required for sensing, parameters unique to the sensing system, and the like are also simultaneously output to the lighting device selection unit A233 and the sensor selection unit A232. The sensor selection unit A232 to the transport control unit A235 perform a predetermined work according to the instructed information and return the sensing data and the state information of each unit to a higher level. As the sensing device, not only an image sensor such as a CCD or a PSD or a distance sensor, but also a sensor for measuring a physical quantity such as an electric signal or a mass is used auxiliary.

【0072】被検査物は、搬送制御部A235によって
制御されるAGV(AutomaticGuided Vehicle、電磁波
および光などによって案内走行する移動体をいう)、コ
ンベア等によって検査ステーションヘローディングされ
所定の治具あるいは計測台等へセッティングされる。被
検査物が未知の場合、ロボットハンドとセンシング系に
より探索的計測が行われる。このデータにより上位シス
テムが対象の認識を行った後、再度詳細な検査・計測が
行われる。計測完了後、被検査物は再び、搬送制御部A
235の制御により次工程へ搬送される。
The object to be inspected is loaded on an inspection station by an AGV (Automatic Guided Vehicle, a moving body which guides and travels by electromagnetic waves and light) controlled by the transport control section A 235, a conveyor, etc. Etc. are set. If the object to be inspected is unknown, exploratory measurement is performed by the robot hand and the sensing system. After the host system recognizes the target based on this data, detailed inspection and measurement are performed again. After the measurement is completed, the object to be inspected is again conveyed by the transfer control unit A
It is conveyed to the next process by the control of 235.

【0073】ロボットハンド等のアクチュエータもアク
ティブな計測を行うためのセンシングシステムの一部を
構成する。したがって、実際に検査を行うセンシング部
はセンサ群、照明装置群、ロボットハンドの3つのモジ
ュールより構成される。
An actuator such as a robot hand also constitutes a part of a sensing system for active measurement. Therefore, the sensing unit that actually performs the inspection includes three modules, that is, a sensor group, a lighting device group, and a robot hand.

【0074】このような実施例において検査対象物の検
査対象の種類と、その検査項目を、一例として表1に示
す。
Table 1 shows, as an example, the types of the inspection object and the inspection items in the embodiment.

【0075】[0075]

【表1】 [Table 1]

【0076】[0076]

【発明の効果】以上のように本発明によれば、検査対象
物の検査を、自動的に、効率よく、しかも必要十分に、
行うことができるようになり、これによって人手が省か
れ、無駄時間がなくなる。
As described above, according to the present invention, the inspection of the inspection object can be performed automatically, efficiently, and in a necessary and sufficient manner.
It can be done, which saves manpower and wastes time.

【0077】さらに本発明によれば、検査対象物の検査
結果から、自動的に、製品の設計および製造上の修正情
報を得ることができ、これによって設計の見直しなどを
行うことができるようになる。
Further, according to the present invention, it is possible to automatically obtain product design and manufacturing correction information from the inspection result of the inspection object, so that the design can be reviewed. Become.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の全体の構成を示す斜視図で
ある。
FIG. 1 is a perspective view showing the overall configuration of an embodiment of the present invention.

【図2】本発明の一実施例のアクティブ検査・計測装置
の全体の構成を示すブロック図である。
FIG. 2 is a block diagram showing the overall configuration of an active inspection / measurement apparatus according to an embodiment of the present invention.

【図3】本発明の一実施例の全体の構成の概略を示すブ
ロック図である。
FIG. 3 is a block diagram showing an outline of the overall configuration of an embodiment of the present invention.

【図4】図3に示される実施例の構成の一部分をさらに
詳細に示すブロック図である。
FIG. 4 is a block diagram showing in more detail a portion of the configuration of the embodiment shown in FIG.

【図5】図3に示される実施例の構成の他の部分をさら
に詳細に示すブロック図である。
5 is a block diagram showing in further detail another portion of the configuration of the embodiment shown in FIG.

【図6】本発明の一実施例の自動検査システムの全体の
構成を示すブロック図である。
FIG. 6 is a block diagram showing the overall configuration of an automatic inspection system according to an embodiment of the present invention.

【図7】その実施例の全体の構成を展開して示すブロッ
ク図である。
FIG. 7 is a block diagram showing the entire configuration of the embodiment in an expanded manner.

【図8】3次元の検査対象物の認識および検査部A1の
展開したブロック図である。
FIG. 8 is a developed block diagram of recognition and inspection unit A1 of a three-dimensional inspection object.

【図9】3次元の検査対象物の計測部A2の展開した構
成を示すブロック図である。
FIG. 9 is a block diagram showing a developed configuration of a measurement unit A2 of a three-dimensional inspection object.

【図10】検査方法の自動選定・自動プログラミング部
A11の展開した構成を示すブロック図である。
FIG. 10 is a block diagram showing a developed configuration of an automatic selection / automatic programming unit A11 of an inspection method.

【図11】3次元の検査対象物の認識技術部A12の展
開した構成を示すブロック図である。
FIG. 11 is a block diagram showing a developed configuration of a three-dimensional inspection object recognition technology unit A12.

【図12】検査対象物の寸法・形状・欠陥の検査部A1
3の展開した構成を示すブロック図である。
FIG. 12: Inspection part A1 for the size, shape, and defect of the inspection object
3 is a block diagram showing an expanded configuration of FIG.

【図13】3次元の検査対象物の計測部A22の構成を
示すブロック図である。
FIG. 13 is a block diagram showing a configuration of a measurement unit A22 of a three-dimensional inspection object.

【図14】3次元の検査対象物の情報獲得部A21の構
成の展開したブロック図である。
FIG. 14 is a developed block diagram of a configuration of a three-dimensional inspection object information acquisition unit A21.

【図15】アクティブ計測部A23の構成の展開したブ
ロック図である。
FIG. 15 is a developed block diagram of a configuration of an active measurement unit A23.

【符号の説明】[Explanation of symbols]

1 検査対象物 2 自律無人搬送ロボット 3,4,5 ハンドリングロボット 6 計測台 8 照明装置 9,10,11 ロボット A0 外観の自動検査システム A1 3次元の検査対象物の認識および検査部 A2 3次元の検査対象物の計測部 A11 検査方法の自動選定自動プログラミング部 A12 3次元検査対象物の認識部 A13 寸法・形状・欠陥検査部 A21 3次元情報の獲得部 A22 3次元物体の計測部 A23 アクティブな計測部 1 Inspection object 2 Autonomous unmanned transfer robot 3,4,5 Handling robot 6 Measuring table 8 Lighting device 9,10,11 Robot A0 Automatic appearance inspection system A1 3D inspection object recognition and inspection unit A2 3D Measurement part of inspection object A11 Automatic selection of inspection method Automatic programming part A12 Recognition part of three-dimensional inspection object A13 Dimension / shape / defect inspection part A21 Acquisition part of three-dimensional information A22 Measurement part of three-dimensional object A23 Active measurement Department

【手続補正書】[Procedure amendment]

【提出日】平成5年10月26日[Submission date] October 26, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0011[Correction target item name] 0011

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0011】さらに本発明に従えば、検査によって検出
された欠陥の要因を推定し、その演算結果を、設計およ
び生産計画を行う部分に通信手段によって出力し、この
ようにして検査結果から欠陥の要因分析を行い、設計お
よび製造部門へ検討結果を送る。そのため設計の見直し
および生産の検討を行うことができ、たとえば設計上の
欠陥を修正することができるようになる。
Further, according to the present invention, the factor of the defect detected by the inspection is estimated, and the calculation result is output to the portion for designing and production planning by the communication means, and thus the defect is detected from the inspection result. Perform factor analysis and send study results to design and manufacturing departments. Therefore, the design can be reviewed and the production can be examined, and for example, the design defect can be corrected.

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0023[Name of item to be corrected] 0023

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0023】図6に示される外観の自動検査システムA
0は、図7に示される3次元物体の認識および検査部A
1と、3次元物体の計測部A2とから構成される。図6
のリソースとは、検査を行う際に必要となる物理的な手
段であり、たとえば検査具、取付具、搬送装置およびそ
の他検査対象物を除くすべてのものを含む。3次元物体
の認識および検査部A1には、図7,8のように3次元
物体の計測部A2で計測された3次元情報A2aやCA
Dによる設計システムより送られた形状などの検査に関
する情報を伴ったプロダクトモデルデータA1aから、
検査に必要な検査モデルの生成と複数のモデルの中から
特定の3次元物体を認識するための3次元物体の認識部
A12が設けられ、生成された検査モデルから検査の目
的に応じてエキスパートシステムなどにより、検査方法
を自動的に選定し、検査プログラムを自動的に生成する
ための検査方法の自動選定・自動プログラミング部A1
1、検査モデルと計測データの比較により寸法・形状・
欠陥の検査を行うための寸法・形状・欠陥検査部A13
である。
Automatic appearance inspection system A shown in FIG.
0 is a three-dimensional object recognition and inspection unit A shown in FIG.
1 and a three-dimensional object measuring unit A2. Figure 6
Resource is a physical means necessary for performing an inspection, and includes, for example, an inspection tool, a fixture, a transportation device, and all other objects than an inspection object. As shown in FIGS. 7 and 8, the three-dimensional object recognition and inspection unit A1 includes three-dimensional information A2a and CA measured by the three-dimensional object measuring unit A2.
From the product model data A1a accompanied by the information about the inspection such as the shape sent from the design system by D,
A three-dimensional object recognition unit A12 for generating an inspection model necessary for inspection and recognizing a specific three-dimensional object from a plurality of models is provided, and an expert system is provided from the generated inspection model according to the purpose of inspection. Automatic selection and automatic programming of inspection method for automatically selecting inspection method and automatically generating inspection program by
1. By comparing inspection model and measurement data,
Dimension / shape / defect inspection unit A13 for inspecting defects
Is.

【手続補正3】[Procedure 3]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図5[Name of item to be corrected] Figure 5

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図5】 [Figure 5]

───────────────────────────────────────────────────── フロントページの続き (71)出願人 000005049 シャープ株式会社 大阪府大阪市阿倍野区長池町22番22号 (71)出願人 000003931 株式会社新潟鉄工所 東京都千代田区霞が関1丁目4番1号 (71)出願人 000113425 ホンダエンジニアリング株式会社 埼玉県狭山市新狭山1丁目10番地1 (71)出願人 000003997 日産自動車株式会社 神奈川県横浜市神奈川区宝町2番地 (72)発明者 大築 康生 兵庫県明石市川崎町1番1号 川崎重工業 株式会社明石工場内 (72)発明者 上田 澄広 兵庫県明石市川崎町1番1号 川崎重工業 株式会社明石工場内 (72)発明者 金丸 孝夫 兵庫県明石市川崎町1番1号 川崎重工業 株式会社明石工場内 (72)発明者 森田 弘文 神奈川県横浜市南区別所一丁目14番1号 日揮株式会社横浜事業所内 (72)発明者 木村 格 神奈川県横浜市南区別所一丁目14番1号 日揮株式会社横浜事業所内 (72)発明者 渡邊 義介 大阪府大阪市浪速区敷津東一丁目2番47号 株式会社クボタ内 (72)発明者 大橋 淳志 大阪府大阪市浪速区敷津東一丁目2番47号 株式会社クボタ内 (72)発明者 中村 日出男 大阪府大阪市阿倍野区長池町22番22号 シ ヤープ株式会社内 (72)発明者 南 一 神奈川県横浜市磯子区新磯子町27番地 株 式会社新潟鐵工所横浜開発センター内 (72)発明者 若原 剛人 神奈川県横浜市磯子区新磯子町27番地 株 式会社新潟鐵工所横浜開発センター内 (72)発明者 野村 正利 埼玉県狭山市新狭山1丁目10番地1 ホン ダエンジニアリング株式会社内 (72)発明者 小柳 晴生 神奈川県横浜市神奈川区宝町2番地 日産 自動車株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (71) Applicant 000005049 Sharp Co., Ltd. 22-22 Nagaike-cho, Abeno-ku, Osaka-shi, Osaka (71) Applicant 000003931 Niigata Iron Works Co., Ltd. 1-4-1, Kasumigaseki, Chiyoda-ku, Tokyo ( 71) Applicant 000113425 Honda Engineering Co., Ltd. 1-10-1 Shin-Sayama, Sayama-shi, Saitama Prefecture (71) Applicant 000003997 Nissan Motor Co., Ltd. 2-2 Takara-cho, Kanagawa-ku, Yokohama-shi, Kanagawa (72) Inventor Yasushi Otsuki Akashi, Hyogo-ken 1-1 Kawasaki-cho, Ichi, Kawasaki Heavy Industries, Ltd. Inside Akashi Plant (72) Inventor Sumihiro Ueda 1-1, Kawasaki-cho, Akashi-shi, Hyogo Prefecture Akashi Plant, Kawasaki Heavy Industries, Ltd. (72) Takao Kanemaru Akashi-shi, Hyogo Prefecture 1-1 Kawasaki Town Kawasaki Heavy Industries Ltd. Akashi Factory (72) Inventor Hirofumi Morita Yokohama City, Kanagawa Prefecture 1-14-1 Jigokusho JGC Corporation Yokohama Office (72) Inventor Satoshi Kimura Minami-Differential Office 1-14-1 JCM Corporation Yokohama Office (72) Inventor Yoshisuke Watanabe Osaka Prefecture Osaka Kubota Co., Ltd. 1-247 Shishizu Higashi, Naniwa-ku, Osaka (72) Inventor Atsushi Ohashi 1-247 Shikitsu Higashi-shi, Naniwa-ku, Osaka City, Osaka (72) Inventor Hideo Nakamura Osaka 22-22 Nagaikecho, Abeno-ku, Osaka-shi, Osaka Prefecture (72) Inventor Minamiichi Minamiichi 27, Shinisogo-cho, Isogo-ku, Yokohama-shi Kanagawa Prefecture Niigata Ironworks Yokohama Development Center (72) Inventor Wakahara Taketo, 27, Shinisogo-cho, Isogo-ku, Yokohama-shi, Kanagawa Stock company Niigata Ironworks Yokohama Development Center (72) Inventor Masatoshi Nomura 1-10 Shin-Sayama, Sayama-shi, Saitama Prefecture Honda Engineering Co., Ltd. (72 Inventor Haruo Koyanagi 2 Takaracho, Kanagawa-ku, Yokohama-shi, Kanagawa Nissan Motor Co., Ltd. In the expression company

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 検査対象物をハンドリングする手段と、 センサ・照明系と、 センサや照明装置の位置姿勢を制御する手段と、 センサ信号を処理する手段と、 対象物の同定・認識を行う第1演算手段と、 対象物のデータを外部と通信する手段と、 データと認識結果から対象に適した計測法や検査法を決
定する第2演算手段とを含むことを特徴とする3次元物
体の自動検査装置。
1. A means for handling an inspection object, a sensor / illumination system, a means for controlling the position and orientation of a sensor or an illumination device, a means for processing a sensor signal, and an identification / recognition of the object. One calculation means, means for communicating the data of the object with the outside, and second calculation means for determining a measurement method or inspection method suitable for the object from the data and the recognition result are included. Automatic inspection device.
【請求項2】 センサ信号処理手段による検査結果から
不良部分の要因分析をする第3演算手段と、 該第3演算手段の演算結果を外部の設計手段または製造
手段に出力する手段とを含むことを特徴とする請求項1
記載の3次元物体の自動検査装置。
2. A third arithmetic means for analyzing a factor of a defective portion from an inspection result by the sensor signal processing means, and a means for outputting the arithmetic result of the third arithmetic means to an external design means or manufacturing means. Claim 1 characterized by the above-mentioned.
The automatic inspection device for the three-dimensional object described.
【請求項3】 検査対象物の形状に関するデータを出力
する形状データ出力手段と、 検査対象物の3次元の形状、位置、姿勢のいずれか少な
くとも1つを計測する手段と、 形状データ出力手段および計測手段の出力に応答して、
検査対象物の認識を行い、計測のための検査指令情報を
出力し、その検査指令情報によって計測手段は、検査対
象物の予め定める部位の計測を行う認識/指令手段と、 形状データ出力手段と計測手段との出力に応答して、検
査対象物の欠陥などの検査をする手段とを含むことを特
徴とする3次元物体の自動検査装置。
3. Shape data output means for outputting data relating to the shape of the inspection object; means for measuring at least one of the three-dimensional shape, position, and orientation of the inspection object; shape data output means; In response to the output of the measuring means,
The inspection object is recognized, the inspection command information for measurement is output, and the measurement means uses the inspection command information to perform recognition / command means for measuring a predetermined part of the inspection object, and shape data output means. An automatic inspection device for a three-dimensional object, comprising: a device for inspecting a defect or the like of an inspection object in response to an output from the measuring device.
【請求項4】 認識/指令手段は、 検査対象物の検査を行う検査方法と、その検査方法を行
う計測手段の検査ツールとを決定して、計測手段を計測
動作させることを特徴とする請求項3記載の3次元物体
の自動検査装置。
4. The recognition / command means determines an inspection method for inspecting an inspection object and an inspection tool of a measurement means for performing the inspection method, and operates the measurement means. Item 3. The automatic inspection device for a three-dimensional object according to item 3.
【請求項5】 検査ツールは、 検査対象物を光学的に検査する光学的検出手段と、 検査対象物に光を照射する光源と、 光学的検査手段および光源を予め定める検査条件となる
ように動作させる手段とを含むことを特徴とする請求項
4記載の3次元物体の自動検査装置。
5. The inspection tool has optical detection means for optically inspecting the inspection object, a light source for irradiating the inspection object with light, and inspection conditions for predetermining the optical inspection means and the light source. 5. The automatic inspection device for a three-dimensional object according to claim 4, further comprising: an operating unit.
【請求項6】 予め登録された検査対象物のデータと初
期計測データから、対象物の同定に必要な計測が実現で
きるように、対象物やセンサ・照明系等の位置姿勢を決
定しハンドリング手段に指令を生成する工程と、 登録データと計測データを比較して対象物の同定を行う
工程と、 同定された対象物に求められる検査を実現することがで
きるように、対象物やセンサ・照明系等の位置姿勢を決
定しハンドリング手段に指令を生成する工程と、 検査結果を外部に出力する工程とを含むことを特徴とす
る3次元物体の自動検査方法。
6. A handling means for determining the position and orientation of an object, a sensor, an illumination system, etc. so that the measurement necessary for identifying the object can be realized from the data of the inspection object registered in advance and the initial measurement data. To generate the command, to compare the registered data with the measurement data to identify the target object, and to implement the inspection required for the identified target object, sensor and lighting. An automatic inspection method for a three-dimensional object, comprising: a step of determining a position and orientation of a system etc. and generating a command to a handling means; and a step of outputting an inspection result to the outside.
JP24137193A 1993-09-28 1993-09-28 Automatic three-dimensional object inspection apparatus and method Expired - Fee Related JP3583450B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24137193A JP3583450B2 (en) 1993-09-28 1993-09-28 Automatic three-dimensional object inspection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24137193A JP3583450B2 (en) 1993-09-28 1993-09-28 Automatic three-dimensional object inspection apparatus and method

Publications (2)

Publication Number Publication Date
JPH0798217A true JPH0798217A (en) 1995-04-11
JP3583450B2 JP3583450B2 (en) 2004-11-04

Family

ID=17073294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24137193A Expired - Fee Related JP3583450B2 (en) 1993-09-28 1993-09-28 Automatic three-dimensional object inspection apparatus and method

Country Status (1)

Country Link
JP (1) JP3583450B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1073419A (en) * 1996-08-29 1998-03-17 Daihatsu Motor Co Ltd Device for inspecting erroneous and missing parts mounted externally on engine
JP2006071376A (en) * 2004-08-31 2006-03-16 Horiba Ltd Analyzing system, analyzer, computer program and recording medium
JP2006208237A (en) * 2005-01-28 2006-08-10 Konica Minolta Sensing Inc Three-dimensional measurement system, inspection method, and program
EP1901032A2 (en) * 2006-09-12 2008-03-19 Cognitens Ltd. System and method for image acquisition
WO2012127714A1 (en) 2011-03-24 2012-09-27 大日本スクリーン製造株式会社 Three-dimensional position/posture recognition device, three-dimensional position/posture recognition method, and three-dimensional position/posture recognition program
KR101338443B1 (en) * 2011-11-21 2013-12-10 현대자동차주식회사 Automatic inspecting method and engine parts
JP2015085493A (en) * 2013-11-01 2015-05-07 セイコーエプソン株式会社 Robot, processor, and inspection method
JP2018506127A (en) * 2014-11-24 2018-03-01 キトフ システムズ エルティーディー. Automatic inspection method
CN110709214A (en) * 2017-12-05 2020-01-17 株式会社大气社 Control method of surface treatment system
KR102119185B1 (en) * 2019-08-06 2020-06-04 이수진 Wood furniture production system
JP2020532440A (en) * 2017-09-01 2020-11-12 カリフォルニア大学The Regents of the University of California Robot systems and methods for robustly gripping and targeting objects
JP2021085797A (en) * 2019-11-29 2021-06-03 株式会社Screenホールディングス Three-dimensional shape measuring device and three-dimensional shape measuring method
EP4001836A3 (en) * 2020-11-11 2022-07-13 Volume Graphics GmbH Computer-implemented method for determining a value of a geometric parameter
IT202100030503A1 (en) * 2021-12-02 2023-06-02 Danieli Off Mecc ROBOTIC GROUP AND PROCEDURE FOR THE CONTROL OF A METALLIC PRODUCT IN MOTION IN AN APPARATUS AND PROCEDURE FOR THE PRODUCTION OF METAL COILS
US11679501B2 (en) 2019-11-07 2023-06-20 Fanuc Corporation Controller for determining modification method of position or orientation of robot

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1073419A (en) * 1996-08-29 1998-03-17 Daihatsu Motor Co Ltd Device for inspecting erroneous and missing parts mounted externally on engine
JP2006071376A (en) * 2004-08-31 2006-03-16 Horiba Ltd Analyzing system, analyzer, computer program and recording medium
JP2006208237A (en) * 2005-01-28 2006-08-10 Konica Minolta Sensing Inc Three-dimensional measurement system, inspection method, and program
EP1901032A2 (en) * 2006-09-12 2008-03-19 Cognitens Ltd. System and method for image acquisition
EP1901032A3 (en) * 2006-09-12 2008-12-31 Cognitens Ltd. System and method for image acquisition
WO2012127714A1 (en) 2011-03-24 2012-09-27 大日本スクリーン製造株式会社 Three-dimensional position/posture recognition device, three-dimensional position/posture recognition method, and three-dimensional position/posture recognition program
KR101338443B1 (en) * 2011-11-21 2013-12-10 현대자동차주식회사 Automatic inspecting method and engine parts
JP2015085493A (en) * 2013-11-01 2015-05-07 セイコーエプソン株式会社 Robot, processor, and inspection method
JP2018506127A (en) * 2014-11-24 2018-03-01 キトフ システムズ エルティーディー. Automatic inspection method
JP2022078043A (en) * 2014-11-24 2022-05-24 キトフ システムズ エルティーディー. Automatic inspection method
JP2020532440A (en) * 2017-09-01 2020-11-12 カリフォルニア大学The Regents of the University of California Robot systems and methods for robustly gripping and targeting objects
CN110709214A (en) * 2017-12-05 2020-01-17 株式会社大气社 Control method of surface treatment system
US20200198154A1 (en) * 2017-12-05 2020-06-25 Taikisha Ltd. Method of Controlling Surface Treatment System
KR102119185B1 (en) * 2019-08-06 2020-06-04 이수진 Wood furniture production system
US11679501B2 (en) 2019-11-07 2023-06-20 Fanuc Corporation Controller for determining modification method of position or orientation of robot
JP2021085797A (en) * 2019-11-29 2021-06-03 株式会社Screenホールディングス Three-dimensional shape measuring device and three-dimensional shape measuring method
EP4001836A3 (en) * 2020-11-11 2022-07-13 Volume Graphics GmbH Computer-implemented method for determining a value of a geometric parameter
IT202100030503A1 (en) * 2021-12-02 2023-06-02 Danieli Off Mecc ROBOTIC GROUP AND PROCEDURE FOR THE CONTROL OF A METALLIC PRODUCT IN MOTION IN AN APPARATUS AND PROCEDURE FOR THE PRODUCTION OF METAL COILS
WO2023100211A1 (en) * 2021-12-02 2023-06-08 Danieli & C. Officine Meccaniche S.P.A. Robotized unit and method for controlling a metal product in movement in an apparatus, and method to produce metal reels

Also Published As

Publication number Publication date
JP3583450B2 (en) 2004-11-04

Similar Documents

Publication Publication Date Title
JP3583450B2 (en) Automatic three-dimensional object inspection apparatus and method
EP2045772B1 (en) Apparatus for picking up objects
Golnabi et al. Design and application of industrial machine vision systems
CN101370624B (en) Method and system allowing the automatic picking of parts
JP5458885B2 (en) Object detection method, object detection apparatus, and robot system
CN112837371A (en) Object grabbing method and device based on 3D matching and computing equipment
Rajaraman et al. Automated workpiece localization for robotic welding
CN113284178A (en) Object stacking method and device, computing equipment and computer storage medium
CN113601501B (en) Flexible operation method and device for robot and robot
Capela et al. Engine labels detection for vehicle quality verification in the assembly line: a machine vision approach
Stelmakh et al. Features of the implementation of computer vision in the problems of automated product quality contro
Van Gool et al. Intelligent robotic vision systems
Batchelor et al. Commercial vision systems
Ivanovska et al. Visual Inspection and Error Detection in a Reconfigurable Robot Workcell: An Automotive Light Assembly Example.
JP2011173188A (en) Automatic chamfering device
Hu et al. The next-best-view for workpiece localization in robot workspace
Kim et al. Bin picking method using multiple local features
Funakubo et al. Verification of illumination tolerance for clothes recognition
Jiang et al. Target object identification and localization in mobile manipulations
JPH05322531A (en) Three-dimensional shape measuring device of object
Cruz-Ramirez et al. Detection of screws on metal-ceiling structures for dismantling tasks in buildings
Coelho et al. A low-cost vision system using a retrofitted robot for locating parts for welding process
CN109636792B (en) Lens defect detection method based on deep learning
Bailey Machine vision: A multi-disciplinary systems engineering problem
Affes et al. Detection and Location of Sheet Metal Parts for Industrial Robots

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20031208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040406

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040727

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040729

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees