JP3583450B2 - 3次元物体の自動検査装置および方法 - Google Patents
3次元物体の自動検査装置および方法 Download PDFInfo
- Publication number
- JP3583450B2 JP3583450B2 JP24137193A JP24137193A JP3583450B2 JP 3583450 B2 JP3583450 B2 JP 3583450B2 JP 24137193 A JP24137193 A JP 24137193A JP 24137193 A JP24137193 A JP 24137193A JP 3583450 B2 JP3583450 B2 JP 3583450B2
- Authority
- JP
- Japan
- Prior art keywords
- inspection
- measurement
- data
- unit
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【産業上の利用分野】
本発明は、たとえば製造ラインにおける3次元形状をもった検査対象物の外観を自動的に検査するためなどに実施することができる3次元物体の自動検査装置および方法に関する。
【0002】
【従来の技術】
このような製造ラインにおいて用いられる従来からの検査装置では、人手がかかり、無駄時間が長いという問題がある一部自動化されたものでも、特定対象の検査用であり、多様な状況(多品種、種々の姿勢など)に対応できない。またその検査で検査対象物の欠陥を検出しても、その解析、要因分析、さらにはその結果をもとにした設計の見直しを行うループは特になく、担当技術者の熱意にまかされている。したがって設計上の欠陥が修正されず、またはその修正が遅れることになる。
【0003】
【発明が解決しようとする課題】
本発明の目的は、状況に応じた多様な検査を自動的に行うことができるようにし、たとえ欠陥が検出されても、その解析などを自動的に行うことができるようにした3次元物体の自動検査装置および方法を提供することである。
【0004】
【課題を解決するための手段】
本発明は、検査対象物をハンドリングする手段と、
センサ・照明系と、
センサや照明装置の位置姿勢を制御する手段と、
センサ信号を処理する手段と、
対象物の同定・認識を行う第1演算手段と、
対象物のデータを外部と通信する手段と、
データと認識結果から対象に適した計測法や検査法を決定する第2演算手段とを含むことを特徴とする3次元物体の自動検査装置である。
【0005】
また本発明は、センサ信号処理手段による検査結果から不良部分の要因分析をする第3演算手段と、
該第3演算手段の演算結果を外部の設計手段または製造手段に出力する手段とを含むことを特徴とする。
【0006】
また本発明は、検査対象物の形状に関するデータを出力する形状データ出力手段と、
検査対象物の3次元の形状、位置、姿勢のいずれか少なくとも1つを計測する手段と、
形状データ出力手段および計測手段の出力に応答して、検査対象物の認識を行い、計測のための検査指令情報を出力し、その検査指令情報によって計測手段は、検査対象物の予め定める部位の計測を行う認識/指令手段と、
形状データ出力手段と計測手段との出力に応答して、検査対象物の欠陥などの検査をする手段とを含むことを特徴とする3次元物体の自動検査装置である。
【0007】
また本発明は、認識/指令手段は、
検査対象物の検査を行う検査方法と、その検査方法を行う計測手段の検査ツールとを決定して、計測手段を計測動作させることを特徴とする。
【0008】
また本発明は、検査ツールは、
検査対象物を光学的に検査する光学的検出手段と、
検査対象物に光を照射する光源と、
光学的検査手段および光源を予め定める検査条件となるように動作させる手段とを含むことを特徴とする。
【0009】
また本発明は、予め登録された検査対象物のデータと初期計測データから、対象物の同定に必要な計測が実現できるように、対象物やセンサ・照明系等の位置姿勢を決定しハンドリング手段に指令を生成する工程と、
登録データと計測データを比較して対象物の同定を行う工程と、
同定された対象物に求められる検査を実現することができるように、対象物やセンサ・照明系等の位置姿勢を決定しハンドリング手段に指令を生成する工程と、
検査結果を外部に出力する工程とを含むことを特徴とする3次元物体の自動検査方法である。
【0010】
【作用】
本発明に従えば、たとえば従来からの検査のためのセンサ、検査対象物を搬送する手段、検査対象物に光を照射する光源である照明系およびそれを光学的に検出する画像処理系などを備える装置にさらに、検査対象物の設計、その他、検査に関するデータを、通信手段を介して与え、これによってセンサおよび照明系の位置および姿勢などを制御し、検査対象物を同定、認識し、検査対象物の検査法を生成する。こうしてセンサ、照明系および画像処理系などで検査対象物の特徴を抽出し、たとえば通信手段などを通じて入手した設計データなどから検査対象物の同定、認識を行い、同定した検査対象物に対して行うべき計測法および検査法を決定し、センサおよび照明系の位置、姿勢などを制御して検査を行う。
【0011】
さらに本発明に従えば、検査によって検出された欠陥の要因を推定し、その演算結果を、設計および生産計画を行う部分に通信手段によって出力し、このようにして検査結果から欠陥の要因分析を行い、設計および製造部門へ検討結果を送る。そのため設計の見直しおよび生産の検討を行うことができ、たとえば設計上の欠陥を修正することができるようになる。
【0012】
【実施例】
(1)本発明の一実施例のシステム全体の構成を述べる。
【0013】
製品の多様化、短納期化に伴い、CAD/CAMシステムが導入され、設計から製造に至る合理化が図られている。これに伴い、品質向上と生産性向上のため設計、製造から検査加工に至る有機的に結合されたシステムが望まれているが、現状、CAD情報の利用は加工のためのNCデータの生成や3次元測定機のオフラインティーチングといった決められた手続きに従う動作レベルのプログラム生成に利用されているにすぎない。「製品Aを検査せよ」とか「製品Bを組立てろ」といった作業レベルの指示により、検査対象の形状などのCAD情報や公差、検査箇所、計測精度といった非形状情報に基づいて、自律的にまた学習的に計測・検査のための動作計画を立案し、柔軟性とタフさを備えたシステムの開発が望まれる。
【0014】
その解決策として、本件出願人は「アクティブな自動検査システム」を提案し、その早期実現の必要性を述べている。
【0015】
このアクティブな自動検査システムに求められる機能として次の項目a〜dが挙げられる。
【0016】
(a)機械加工・組立の製造ラインにおいては、検査の対象が3次元形状をした物体であるため、3次元形状ならびに位置・姿勢の計測、物体の認識が重要である。
【0017】
(b)特に、3次元形状を対象とした場合、2次元に比べてデータ量が増え、検査の高速化に適した計測方法、検査モデルの生成、計測結果と検査モデルとの比較照合のアルゴリズムが必要となる。
【0018】
(c)また、3次元という立体を対象とするため複雑な形状や凹凸などの段差のある形状の場合、一方向からの計測だけでは、死角等が存在し対象物体の必要な形状を計測するのは不可能であり、アクティブな計測を行うためにCAD情報や計測する場の環境情報に基づき、自律的に計測および検査のための動作計画を立案できる検査システムが望まれる。
【0019】
(d)さらに、現在は検査対象毎に検査のためのプログラミングを要し、多品種少量生産においては、検査プログラムの作成に要する費用が莫大なものとなる。
【0020】
そのため、検査対象物体と設計データが与えられたら、合目的的、経済的かつ安全な計測・認識および検査のためのプログラムを自律的に生成していく機能と、汎用性、柔軟性を有した3次元物体の計測・認識・検査システムが必要となる。
【0021】
図1は、本発明の一実施例の具体的な構成を示す斜視図である。製造ラインにおける3次元形状をもった検査対象物1の外観を、自動的に検査する。検査対象物1は自律無人搬送ロボット2によって搬送され、ハンドリングロボット3,4,5などを用いて計測台6に搬入/搬出され、テレビカメラおよびその他の光学的検出手段あるいはその他の検出手段であるセンサ7は、光源である照明手段8によって照射される検査対象物1を検出する。センサ7および照明手段8は、ロボット3だけでなくロボット9,10,11などによってその位置および姿勢などが制御される。
【0022】
図2は、本発明の一実施例のアクティブ検査および計測装置の全体の構成の概略を示すブロック図であり、図3はその実施例のさらに具体的な構成を示すブロック図である。この図3に示される構成のさらに詳細な構成は、図4および図5に示されている。このような図4および図5に示される構成のさらに詳細な説明を、図6以降の図面を参照して詳述する。
【0023】
図6に示される外観の自動検査システムA0は、図7に示される3次元物体の認識および検査部A1と、3次元物体の計測部A2とから構成される。図6のリソースとは、検査を行う際に必要となる物理的な手段であり、たとえば検査具、取付具、搬送装置およびその他検査対象物を除くすべてのものを含む。3次元物体の認識および検査部A1には、図7,8のように3次元物体の計測部A2で計測された3次元情報A2aやCADによる設計システムより送られた形状などの検査に関する情報を伴ったプロダクトモデルデータA1aから、検査に必要な検査モデルの生成と複数のモデルの中から特定の3次元物体を認識するための3次元物体の認識部A12が設けられ、生成された検査モデルから検査の目的に応じてエキスパートシステムなどにより、検査方法を自動的に選定し、検査プログラムを自動的に生成するための検査方法の自動選定・自動プログラミング部A11、検査モデルと計測データの比較により寸法・形状・欠陥の検査を行うための寸法・形状・欠陥検査部A13である。
【0024】
また、3次元物体の計測部A2には、図9のように検査指令データに基づき計測をアクティブに行うためにセンシングデバイス、照明装置、ハンド、ロボット、搬送装置から構成されるアクティブな計測部A23、計測された3次元点列データより距離・傾き・エッジ・密度画像を生成する3次元情報の獲得部A21と、獲得されたデータにより3次元形状を生成する3次元物体の計測部A22である。
【0025】
次項より、これらの構成要素をさらに詳細に展開し、情報および処理の流れと、必要となる要素技術について述べることとする。
【0026】
(2)各構成要素の説明
(2−1)検査方法の自動選定・自動プログラミング部A11
検査方法の自動選定・自動プログラミング部A11は、図8のように3次元物体の認識部A12および設計システムから種々の情報を受け、検査作業計画を立案し、検査方法、順序、ツール、条件および経路に関して自動選定・自動プログラミング作業を行い、その結果を図9の3次元物体の計測部A2の中のアクティブな計測部A23および3次元情報の獲得部A21に送る。
【0027】
ただし、センサフュージョンによる情報処理およびアクティブな検査を行うマニピュレータ等の運転プログラムのマイナーな変更は、アクティブな計測部におけるローカル処理として行う。
【0028】
以上の方針から、検査方法の自動選定・自動プログラミング部A11には図10のように、以下の6つの構成要素a1〜a6を設ける。
【0029】
(a1)検査・特徴抽出作業展開A111
(a2)検査方法決定A112
(a3)検査順序決定A113
(a4)検査ツール決定A114
(a5)検査条件決定A115
(a6)検査経路生成A116
情報および処理の流れと、必要となる要素技術は次のとおりである。
【0030】
図10のように3次元物体の認識部A12から送られてくる情報は、被検査物の識別情報IDが未確認である場合の特徴抽出要求A12aと、IDを確認した後、3次元物体の認識部A12で作成された検査モデル、位置・姿勢データ、検査精度・部位等A12bである。このような情報A12a,A12bから全体的な検査作業計画を立案するために、検査・特徴抽出作業展開部A111を設ける。
【0031】
検査・特徴抽出作業展開部A111では、3次元物体の認識部A12からの情報が特徴抽出要求A12aの場合は、その旨であることを確認し、検査指令データとしてそのまま特徴抽出要求を3次元物体の計測部A2へ送る。
【0032】
また、3次元物体の認識部A12からの情報が、抽出された特徴から確認されたID情報を伴った検査対象物の検査モデル、位置・姿勢データ、検査精度・部位等A12bの場合は、検査作業を行う意図を確認し、送られてきた情報をベースに検査作業計画の立案を行う。ここでは、視覚情報処理のアルゴリズムや制御戦略等の汎用的な知識がすでに与えられており、さらに被検査物や目的等が情報として与えられることにより、全体的な作業計画の概要が決定される。この構成要素では、検査作業計画を行うAI(人工知能)プランナが重要である。
【0033】
検査・特徴抽出作業展開部A111で検査作業計画が立てられると、それをもとに被検査物や目的等の応用に対し、最適な検査方法とその情報処理アルゴリズム、さらにその適用手順を自動的に生成する必要が生じる。そこで、検査方法決定部A112、検査順序決定部A113および検査ツール決定部A114を設けた。
【0034】
検査方法決定部A112では、検査モデルや位置・姿勢データ等の情報から、検査部位の最適な検査方法とその情報処理アルゴリズムが自動選定される。ここでは検査方法データベースより、過去の事例が参照され、検査部位の形状、大きさ、精度等から接触式または非接触式、非接触式の場合は受動型または能動型といった検査方法やその情報処理アルゴリズムが決定される。ここでは過去の事例を用いることが可能で、さらに学習機能を兼ね備えた事例ベース推論を応用している。
【0035】
検査順序決定部A113では、検査モデル等の情報と検査方法決定部A112で決定された検査方法を受け、複数の検査部位を検査方法や情報処理アルゴリズムを考慮しながら、どの順序で検査するかを決定する。ここでは検査作業の効率等を考慮して、エキスパートシステムを用いたスケジューリング機能を設けている。
【0036】
検査ツール決定部A114では、検査方法決定部A112で決定された検査方法をもとに検査ツールが自動選定される。検査精度等の情報を加味しながら、多眼視(CCD(電荷蓄積素子)またはPSD(光検出素子))、レンジファインダ、タッチプローブ等の検査ツールが選定される。ここでは検査精度・部位等の情報を利用し、検査ツール選定のルールを作成することにより、検査ツールデータベースからルールベース推論を用いた検査ツール選定システムを構築している。
【0037】
視覚システムの能力を向上させるためには、入力された画像の情報処理能力を向上させるだけでなく、カメラの焦点や絞り、あるいはその位置や方向、さらには照明光の位置、方向明るさ等をシステムが自律的に制御して、能動的に処理しやすい画像を入力することが重要である。このため、カメラや照明系等、画像化についての知識(有効な対象物、目的、機能、効率等)をシステムに与えておき、アクティブな計測部A23で応用目的に応じた最適な画像が得られるように、検査条件決定部A115および検査経路生成部A116を設ける。
【0038】
検査条件決定部A115では、検査モデル等の情報と検査順序決定部A113で決定された検査順序、検査ツール決定部で決定された検査ツール等の情報からカメラの焦点や絞り、ライティング等の最適な検査条件を決定する。また、照明系がマニピュレータに設置され、アクティブなライティング作業が行われる場合は、その位置や方向を決定し、マニピュレータの経路生成を行う。ここでは、事例ベース推論による検査条件の決定と、マニピュレータの動作計画技術が重要な技術として必要とされると思われる。
【0039】
検査経路生成部A116は、検査モデル等の情報と検査順序決定部A113で決定部された検査順序、検査ツール決定部で決定された検査ツールの情報からカメラ等の検査ツールを搭載したマニピュレータの経路生成を行う。この過程には、マニピュレータが検査ツールを搭載したり、被検査物をセッティングしたりする一連の動作計画を含む。ここではマニピュレータの動作計画技術が重要な技術であり、障害物回避等のロボットの動作計画に関する現状の技術を応用している。
【0040】
このようにして決定された各情報は、検査指令データA11bとしてまとめられ、3次元物体の計測部A2の構成要素であるアクティブな計測部A23および3次元情報の獲得部A21に送られることになる。
【0041】
(2−2)3次元物体の認識技術部A12
被検査物は検査システムの入口で、まず認識のステージを通過することになる。認識部A12は、被検査物が入荷されたという信号を受けると、検査方法の自動選定・自動プログラミング部A11へ特徴抽出要求を発し、計測部A22から被検査物の特徴量データ(計測データ)を受けて、これに基づいて認識を行う。認識後、認識結果である被検査物の種類と位置・姿勢を、検査情報を含んだ検査モデルとともに、検査方法の自動選定・自動プログラミング部A11や寸法・形状・欠陥検査部A13へ渡す。認識された被検査物は搬送系によって検査ステージへと送られる。
【0042】
3次元形状認識の基本的な考え方は、シーンの3次元画像から得られた被検査物の記述と予め用意しておいた被検査物の認識モデルの記述を照合することにより、被検査物の種類、および3次元的な位置・姿勢を求めることである。したがって、3次元形状認識は、図11のように、予め認識のための被検査物の認識モデルを作成する認識・検査モデル作成部A122と、計測データが入ってきた時点で認識モデルとシーンの記述を照合させて認識を行う3次元物体の認識部A123から構成される。
【0043】
ところで、認識・検査モデル作成部A122において、認識モデルは被検査物の3次元形状モデルに基づいて作成される場合が多い。被検査物が製品または製品の一部という位置付けからすると、3次元形状モデルは、CADモデルまたはプロダクトモデルの形状データとして設計工程などの上流から与えられる場合が想定されるが、CADモデルがない場合には、被検査物自体やクレイモデルの表面を直接センシングし、得られた3次元座標データから3次元形状モデルを作成する処理を行う3次元形状モデル作成部A121が要求される。3次元形状モデル作成部A121では、被計測物が計測台にセットされたという信号を受けると、検査方法の自動選定・自動プログラミング部A11へセンシング指令を発し、計測部A22から被計測物表面の3次元座標データ(x,y,z)を受け、これを処理して被検査物の3次元形状モデルを作成する。
【0044】
(2−3)寸法・形状・欠陥検査A13
図12は、50種類程度の、既知の3次元被検査物を認識した後の検査モデルデータに基づいて、寸法・形状・欠陥検査および仕分け・分類の検査を行うシステムの参照モデルを示している。
【0045】
検査モデルに含まれる情報としては、被検査物のID、ならびに検査項目・検査部位等の検査指令系統の情報および、寸法や公差・検査精度といった検査に要求される基本情報、さらに被検査物の状態を表す形状・位置・姿勢等の情報が備わっているものとする。
【0046】
この検査モデル中の検査項目の情報により、図中、検査項目の選択部A131で検査項目の選択処理を行い、その選択結果を、寸法・形状の検査部A132、または外観の欠陥検査部A133、または仕分け・分類の検査部A134に対して、検査実行指示として指令を与える。
【0047】
これらの各検査は、ある場合は単独で、また検査項目が複数の場合は、検査処理の順序を含めた検査実行指示として、検査項目の選択部A131から指令され、順次検査が行われる。
【0048】
検査実行指示を受けた各検査の実行工程(A132−A134)では、検査モデル中の位置・姿勢情報と被検査物の確認ID情報ならびに、被検査物の認識が終わった後のさらに詳細な、3次元情報に含まれる座標基準値等のデータに基づいて、検査のための、ローカルな座標系の設定を行う。
【0049】
上記座標系の設定処理で得られた座標値と、検査モデル中の検査部位・検査精度情報、ならびに3次元情報中の詳細計測データの組合わせにより、検査対象部分の抽出を実行する。
【0050】
検査対象部分の箇所の座標値と検査精度が決定されると、実際の検査の判定が行われる。これは、検査モデルに含まれる寸法・形状あるいは公差と、検査評価用のデータベースに蓄えられている、判定方法・判定基準データにより実行される。この場合データベースは、判定の結果も過去の検査結果として記憶され、常に最新の検査に対して判定基準値としてフィードバックがかけられる仕組みとなっている。
【0051】
検査の結果は、計測の画像生データや、数値化・グラフ化等に加工されたデータとともに、検査情報として、表示・印字され、同時に必要に応じて上流の工程に対して送出される。
【0052】
(2−4)3次元物体の計測A22
3次元情報の獲得部A21にて得られた様々な3次元情報を入力し、計測処理した結果を3次元物体の認識部A12へ出力する。入力データの内容によっては、簡易的な認識処理まで行い、寸法・形状・欠陥検査部A13へ出力する。
【0053】
図13のように、データの判別部A225は、入力されたデータを判別し、その後の処理方法の選択に必要なデータ種類IDを設定する。データは、画像データを基本とするが、寸法データ等も対象とする。
【0054】
画像データの種類は、たとえば
(b1)距離画像
(b2)高さ画像
(b3)傾き画像
(b4)濃淡画像
(b5)カラー画像
である。
【0055】
処理の選択部A224は、入力データの判別結果に従い、その後の計測処理プロセス選択に必要な処理IDを設定する。入力が単眼画像(TVカメラ1台を用いる構成)の場合、不足している3次元情報を付加する処理プロセスを行うものとする。複眼画像(カメラを複数台用いる構成)の場合、そのまま3次元情報を抽出する処理プロセスを行う。
【0056】
画像分割部A223は、選択された処理プロセスIDに従い、最適な画像分割方法を選択し、処理を行う。
【0057】
画像分割方法は、たとえば
(c1)2値化処理方法
(c2)エッジ検出法
(c3)領域法
である。
【0058】
画像分割処理を行う必要がないデータについてはそのまま通過させる。
【0059】
選択した処理により、結果が得られなかった場合、他の処理方法を選択して、自動的にリトライさせる。
【0060】
リトライした履歴データを付加し、次プロセスへ出力する。
【0061】
特徴抽出部A222は、選択された処理プロセスIDに従い、最適な特徴抽出方法と選択し、処理を行う。
【0062】
特徴抽出は、たとえば以下の方法による。
【0063】
(d1)大局的特徴抽出
(d2)輪郭に着目した特徴
(d3)位置関係の抽出
特徴抽出処理を行う必要がないデータについては、そのまま通過させる。また、選択した処理により、結果が得られなかった場合、他の処理方法と選択し自動的にリトライさせる。
【0064】
リトライした履歴データを付加し、次プロセスへ出力する。
【0065】
データの出力部A221は、処理した結果を、内容に応じて出力する。本プロセスで得た計測データを、3次元物体の認識処理を行う場合は、3次元物体の認識部A123へ出力する。本プロセスで得た計測データを、そのまま検査をして活用できる場合は寸法・形状・欠陥検査部A13へ出力する。本プロセスの過程において、うまくデータが得られなかったケースについてデータベースへ入力し、ノウハウとして蓄積を図る。
【0066】
(2−5)3次元情報の獲得部A21
このブロックでは、アクティブな計測部A23で得られたセンシングデータに処理を施し、3次元データに合成して3次元物体の計測部A22に転送する役割を果す。以下に図14を参照してモデル展開図を説明する。
【0067】
センシングデータには視覚センサからの情報とそれ以外のものがあり、センシングデータ分類部A212で分類される。視覚センサからの情報は通常、センシングデータによる距離データ生成部A214に入力されるが、獲得手法により1)単眼視の濃淡画像、2)三角測量法に基づくものや距離センサからの情報のようにすでに距離情報の形に変換されているデータの2種類がある。1)については2値化およびパターンマッチング(対応点決定)等により距離データに加工する。単眼視画像は距離生成において何らかの仮定、つまりシーン知識が必要であり、それはこの部分に予め用意されている。なお本ブロックにおける情報のみで3次元データを構築できない場合、画像前処理等の部A213で前処理のみを行う場合もある。
【0068】
視覚センサ以外の情報は3)光学系の動作や製品の搬送などの動画像を構成する要素として距離データ生成に必要なものであり、相対位置・運動による距離データ生成部A215に入力される。検査方法展開部A211では、上位からの検査指令情報▲3▼から検査方法を抽出、光学系の位置関係や視野、投影パターンなどの固定パラメータを、相対位置・運動による距離データ生成部A215に送る。ここで前述の3)とともに視覚情報以外で距離データ生成を行う。
【0069】
相対位置・運動による距離データ生成部A215、およびセンシングデータによる距離データ生成部A214で生成される距離データは、いずれかが1次元座標データであれば、もう一方は2次元座標データというように互いを補い合って、最終的に、3次元データ生成部A216において3次元データを生成し、3次元物体の計測部A22に送られる。
【0070】
(2−6)アクティブな計測部A23
図15にアクティブな計測のモデル展開図を示す。上位より検査指令情報を受取りセンシングデータと走査情報、照明情報等を出力する5つのサブモジュールから構成される。
【0071】
上位より入力された検査指令情報は、センシング作業展開部A231で解釈され、被検査物の搬送を制御する搬送制御部A235と、被検査物およびセンサ・照明系の位置・経路等を制御する被検査物取出し/検査経路制御部A234へ制御情報として転送される。センシングに必要とされる照明装置やセンサの種類・数とセンシング系固有のパラメータ等も同時に、照明装置選択部A233と、センサ選択部A232へ出力される。センサ選択部A232〜搬送制御部A235は、それぞれ指示された情報に従って所定の作業を行いセンシングデータと各部状態情報を上位へ返す。センシングデバイスとしては、CCD、PSD等の画像センサや距離センサだけでなく、電気信号、質量等の物理量を計測するセンサについても補助的に用いられる。
【0072】
被検査物は、搬送制御部A235によって制御されるAGV(Automatic Guided Vehicle、電磁波および光などによって案内走行する移動体をいう)、コンベア等によって検査ステーションヘローディングされ所定の治具あるいは計測台等へセッティングされる。被検査物が未知の場合、ロボットハンドとセンシング系により探索的計測が行われる。このデータにより上位システムが対象の認識を行った後、再度詳細な検査・計測が行われる。計測完了後、被検査物は再び、搬送制御部A235の制御により次工程へ搬送される。
【0073】
ロボットハンド等のアクチュエータもアクティブな計測を行うためのセンシングシステムの一部を構成する。したがって、実際に検査を行うセンシング部はセンサ群、照明装置群、ロボットハンドの3つのモジュールより構成される。
【0074】
このような実施例において検査対象物の検査対象の種類と、その検査項目を、一例として表1に示す。
【0075】
【表1】
【0076】
【発明の効果】
以上のように本発明によれば、検査対象物の検査を、自動的に、効率よく、しかも必要十分に、行うことができるようになり、これによって人手が省かれ、無駄時間がなくなる。
【0077】
さらに本発明によれば、検査対象物の検査結果から、自動的に、製品の設計および製造上の修正情報を得ることができ、これによって設計の見直しなどを行うことができるようになる。
【図面の簡単な説明】
【図1】本発明の一実施例の全体の構成を示す斜視図である。
【図2】本発明の一実施例のアクティブ検査・計測装置の全体の構成を示すブロック図である。
【図3】本発明の一実施例の全体の構成の概略を示すブロック図である。
【図4】図3に示される実施例の構成の一部分をさらに詳細に示すブロック図である。
【図5】図3に示される実施例の構成の他の部分をさらに詳細に示すブロック図である。
【図6】本発明の一実施例の自動検査システムの全体の構成を示すブロック図である。
【図7】その実施例の全体の構成を展開して示すブロック図である。
【図8】3次元の検査対象物の認識および検査部A1の展開したブロック図である。
【図9】3次元の検査対象物の計測部A2の展開した構成を示すブロック図である。
【図10】検査方法の自動選定・自動プログラミング部A11の展開した構成を示すブロック図である。
【図11】3次元の検査対象物の認識技術部A12の展開した構成を示すブロック図である。
【図12】検査対象物の寸法・形状・欠陥の検査部A13の展開した構成を示すブロック図である。
【図13】3次元の検査対象物の計測部A22の構成を示すブロック図である。
【図14】3次元の検査対象物の情報獲得部A21の構成の展開したブロック図である。
【図15】アクティブ計測部A23の構成の展開したブロック図である。
【符号の説明】
1 検査対象物
2 自律無人搬送ロボット
3,4,5 ハンドリングロボット
6 計測台
8 照明装置
9,10,11 ロボット
A0 外観の自動検査システム
A1 3次元の検査対象物の認識および検査部
A2 3次元の検査対象物の計測部
A11 検査方法の自動選定自動プログラミング部
A12 3次元検査対象物の認識部
A13 寸法・形状・欠陥検査部
A21 3次元情報の獲得部
A22 3次元物体の計測部
A23 アクティブな計測部
Claims (6)
- 検査対象物をハンドリングする手段と、
センサ・照明系と、
センサや照明装置の位置姿勢を制御する手段と、
センサ信号を処理する手段と、
対象物の同定・認識を行う第1演算手段と、
対象物のデータを外部と通信する手段と、
データと認識結果から対象に適した計測法や検査法を決定する第2演算手段とを含むことを特徴とする3次元物体の自動検査装置。 - センサ信号処理手段による検査結果から不良部分の要因分析をする第3演算手段と、
該第3演算手段の演算結果を外部の設計手段または製造手段に出力する手段とを含むことを特徴とする請求項1記載の3次元物体の自動検査装置。 - 検査対象物の形状に関するデータを出力する形状データ出力手段と、
検査対象物の3次元の形状、位置、姿勢のいずれか少なくとも1つを計測する手段と、
形状データ出力手段および計測手段の出力に応答して、検査対象物の認識を行い、計測のための検査指令情報を出力し、その検査指令情報によって計測手段は、検査対象物の予め定める部位の計測を行う認識/指令手段と、
形状データ出力手段と計測手段との出力に応答して、検査対象物の欠陥などの検査をする手段とを含むことを特徴とする3次元物体の自動検査装置。 - 認識/指令手段は、
検査対象物の検査を行う検査方法と、その検査方法を行う計測手段の検査ツールとを決定して、計測手段を計測動作させることを特徴とする請求項3記載の3次元物体の自動検査装置。 - 検査ツールは、
検査対象物を光学的に検査する光学的検出手段と、
検査対象物に光を照射する光源と、
光学的検査手段および光源を予め定める検査条件となるように動作させる手段とを含むことを特徴とする請求項4記載の3次元物体の自動検査装置。 - 予め登録された検査対象物のデータと初期計測データから、対象物の同定に必要な計測が実現できるように、対象物やセンサ・照明系等の位置姿勢を決定しハンドリング手段に指令を生成する工程と、
登録データと計測データを比較して対象物の同定を行う工程と、
同定された対象物に求められる検査を実現することができるように、対象物やセンサ・照明系等の位置姿勢を決定しハンドリング手段に指令を生成する工程と、
検査結果を外部に出力する工程とを含むことを特徴とする3次元物体の自動検査方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24137193A JP3583450B2 (ja) | 1993-09-28 | 1993-09-28 | 3次元物体の自動検査装置および方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24137193A JP3583450B2 (ja) | 1993-09-28 | 1993-09-28 | 3次元物体の自動検査装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0798217A JPH0798217A (ja) | 1995-04-11 |
JP3583450B2 true JP3583450B2 (ja) | 2004-11-04 |
Family
ID=17073294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP24137193A Expired - Fee Related JP3583450B2 (ja) | 1993-09-28 | 1993-09-28 | 3次元物体の自動検査装置および方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3583450B2 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3372014B2 (ja) * | 1996-08-29 | 2003-01-27 | ダイハツ工業株式会社 | エンジン外付け部品の誤欠品検査装置 |
JP2006071376A (ja) * | 2004-08-31 | 2006-03-16 | Horiba Ltd | 分析システム、分析装置、コンピュータプログラム、及び記録媒体 |
JP4682630B2 (ja) * | 2005-01-28 | 2011-05-11 | コニカミノルタセンシング株式会社 | 3次元計測システム、検査方法およびプログラム |
US20080212840A1 (en) * | 2006-09-12 | 2008-09-04 | Tamir Shalom | Imaging system, method, and accessory therefor |
JP2012202732A (ja) | 2011-03-24 | 2012-10-22 | Dainippon Screen Mfg Co Ltd | 3次元位置・姿勢認識装置、3次元位置・姿勢認識方法、3次元位置・姿勢認識プログラム |
KR101338443B1 (ko) * | 2011-11-21 | 2013-12-10 | 현대자동차주식회사 | 엔진 가공품의 무인 검사 방법 |
JP6337445B2 (ja) * | 2013-11-01 | 2018-06-06 | セイコーエプソン株式会社 | ロボット、処理装置及び検査方法 |
CN112837266A (zh) * | 2014-11-24 | 2021-05-25 | 基托夫系统有限公司 | 自动检查 |
JP2020532440A (ja) * | 2017-09-01 | 2020-11-12 | カリフォルニア大学The Regents of the University of California | オブジェクトをロバストに把持し、ターゲティングするためのロボットシステムおよび方法 |
JP6678155B2 (ja) * | 2017-12-05 | 2020-04-08 | 株式会社大気社 | 表面処理システムの制御方法 |
KR102119185B1 (ko) * | 2019-08-06 | 2020-06-04 | 이수진 | 가구 제작 시스템 |
JP7359657B2 (ja) | 2019-11-07 | 2023-10-11 | ファナック株式会社 | ロボットの位置または姿勢の修正方法を判定する制御装置 |
JP7284076B2 (ja) * | 2019-11-29 | 2023-05-30 | 株式会社Screenホールディングス | 三次元形状計測装置および三次元形状計測方法 |
DE102020129792B4 (de) * | 2020-11-11 | 2023-03-09 | Volume Graphics Gmbh | Computerimplementiertes Verfahren zum Ermitteln eines Werts eines geometrischen Parameters |
IT202100030503A1 (it) * | 2021-12-02 | 2023-06-02 | Danieli Off Mecc | Gruppo robotizzato e procedimento per il controllo di un prodotto metallico in movimento in un apparato e procedimento per la produzione di bobine metalliche |
-
1993
- 1993-09-28 JP JP24137193A patent/JP3583450B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH0798217A (ja) | 1995-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3583450B2 (ja) | 3次元物体の自動検査装置および方法 | |
EP2045772B1 (en) | Apparatus for picking up objects | |
CN110560373B (zh) | 一种多机器人协作分拣运输方法及系统 | |
CN113226612A (zh) | 借助深度卷积神经网络识别激光加工系统的加工缺陷 | |
CN113284178A (zh) | 物体码垛方法、装置、计算设备及计算机存储介质 | |
CN113601501B (zh) | 机器人柔性作业方法、装置及机器人 | |
CN110914021A (zh) | 带有用于执行至少一个工作步骤的操纵设备的操纵装置以及方法和计算机程序 | |
Van Gool et al. | Intelligent robotic vision systems | |
Phyu et al. | Verification of illumination tolerance for photo-model-based cloth recognition | |
Ivanovska et al. | Visual Inspection and Error Detection in a Reconfigurable Robot Workcell: An Automotive Light Assembly Example. | |
US20230030852A1 (en) | Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system | |
Phyu et al. | Verification of recognition performance of cloth handling robot with photo-model-based matching | |
Batchelor et al. | Commercial vision systems | |
Haag et al. | Chain of refined perception in self-optimizing assembly of micro-optical systems | |
JPH05322531A (ja) | 物体の3次元形状測定装置 | |
Funakubo et al. | Verification of illumination tolerance for clothes recognition | |
Salichs et al. | Localization system for mobile robots in indoor environments | |
Hu et al. | The next-best-view for workpiece localization in robot workspace | |
Cruz-Ramirez et al. | Detection of screws on metal-ceiling structures for dismantling tasks in buildings | |
JP7508206B2 (ja) | 画像処理方法、エッジモデル作成方法、ロボットシステム、および物品の製造方法 | |
Blessing et al. | Vision-based handling with a mobile robot | |
US20230050932A1 (en) | Autonomous measuring robot system | |
Blessing | Fault detection and recovery in a mobile robot vision system | |
Kohut et al. | Vision Systems for a UR5 Cobot on a Quality Control Robotic Station | |
Kirci et al. | EuroPallet Detection with RGB-D Camera Based on Deep Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20031208 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040406 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040727 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040729 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |