JP2015114722A - 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム - Google Patents

情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム Download PDF

Info

Publication number
JP2015114722A
JP2015114722A JP2013254486A JP2013254486A JP2015114722A JP 2015114722 A JP2015114722 A JP 2015114722A JP 2013254486 A JP2013254486 A JP 2013254486A JP 2013254486 A JP2013254486 A JP 2013254486A JP 2015114722 A JP2015114722 A JP 2015114722A
Authority
JP
Japan
Prior art keywords
assembly
orientation
evaluation value
component
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013254486A
Other languages
English (en)
Other versions
JP6444027B2 (ja
Inventor
圭祐 立野
Keisuke Tateno
圭祐 立野
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013254486A priority Critical patent/JP6444027B2/ja
Priority to US14/557,608 priority patent/US10234844B2/en
Publication of JP2015114722A publication Critical patent/JP2015114722A/ja
Application granted granted Critical
Publication of JP6444027B2 publication Critical patent/JP6444027B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32179Quality control, monitor production tool with multiple sensors
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Automatic Assembly (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)

Abstract

【課題】学習時と異なる姿勢で検査部品を撮影する場合においても、安定的に組み付け成否の判定を行う。【解決手段】情報処理装置であって、第1の部品および第1の部品が組み付けられた第2の部品を含む画像に基づいて、第1の部品および第2の部品の各位置姿勢を推定する位置姿勢推定部と、第1の部品および第2の部品の各位置姿勢に基づいて、組み付けの状態を評価するための評価値を算出する評価値算出部と、評価値に基づいて組み付けの成否を判定する成否判定部とを備える。【選択図】 図1

Description

本発明は、情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラムに関し、特に、対象部品を把持して被組付け部品の所定位置へ組付ける動作の成否を判定する技術に関する。
近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットでは、ハンドなどのエンドエフェクタによって部品をピックして組み付けを行う。ロボットによる部品ピックやその後の組み付け作業では、ハンド機構による部品把持時の部品位置姿勢のずれや正常でない部品の混入等の原因により部品組み付けに失敗することがある。そのため、部品を組み付けた後に、正常に組み付けが行われたかどうかを確認する部品組み付け後検査が必要になる。この組み付け後検査としては、これまでは、組み付け作業者の目視による検査が一般的であった。しかし、近年は、この自動化を目的とした取り組みが行われ始めている。
特許文献1では、予め、組み付ける部品の基準となるマスタ画像を複数撮影し、部品を実際に組み付ける際の実画像を複数撮影し、各マスタ画像と各実画像との相関値をそれぞれ求め、各相関値に基づいて部品の組み付けの良否を判定する方法が開示されている。
特開2008-170331号公報
しかしながら、特許文献1に記載の技術では、学習時にあらかじめ撮影したマスタ画像と撮影画像とを2次元画像上で比較することで成否判定を行うため、学習時と違う姿勢で検査部品を撮影した場合には適切な判定を行うことができないという課題がある。
本発明は、以上の課題を鑑みてなされたものであり、学習時と異なる姿勢で検査部品を撮影する場合においても安定的に組み付け成否の判定を行えるようにすることを目的とする。
上記の目的を達成する本発明に係る情報処理装置は、
第1の部品および前記第1の部品が組み付けられた第2の部品を含む画像に基づいて、前記第1の部品および前記第2の部品の各位置姿勢を推定する位置姿勢推定手段と、
前記第1の部品および前記第2の部品の各位置姿勢に基づいて、組み付けの状態を評価するための評価値を算出する評価値算出手段と、
前記評価値に基づいて前記組み付けの成否を判定する成否判定手段と
を備えることを特徴とする。
本発明によれば、学習時と異なる姿勢で検査部品を撮影する場合においても、安定的に組み付け成否の判定を行うことが可能になる。
本発明の一実施形態に係る情報処理装置の構成を示す図。 本発明の一実施形態に係る組み付け成否判定対象となる、組み付け元部品および組み付け先部品の一例を示す図。 本発明の一実施形態に係る3次元形状モデルの構成要素を説明する図。 本発明の一実施形態に係る3次元形状モデル中に設定される組み付け接触部位の設定を説明する図。 本発明の一実施形態に係る情報処理装置が実施する組み付け検査の処理手順を示すフローチャート。 本発明の一実施形態に係る情報処理装置が実施する組み付け検査における、組み付け元部品および組み付け先部品の位置姿勢推定処理の手順を示すフローチャート。 本発明の一実施形態に係る組み付け検査における、組み付け成否を判定するための評価値算出の処理手順を示すフローチャート。 本発明の一実施形態に係るロボットシステムの構成例を示す図。
以下、添付図面を参照して、本発明の好適な実施形態について詳細に説明する。
(第1実施形態:両部品の着目部位間の距離を組み付け評価値として使用)
<1.処理の概要>
本実施形態では、情報処理装置を、組み付け工程において2部品間の組み付けが正常に行われたかを判定する組み付け後検査手法に適用した場合について説明する。
本実施形態における組み付け後検査の対象としては、図2(c)に一例を示すような2部品から構成される組み付け済み部品70を想定する。組み付け済み部品70は、図2(a)に示すようなロボットハンドにより把持・移動される組み付け元部品50と、当該組み付け元部品50を組み付ける相手となる図2(b)に示すような組み付け先部品60とを含んでいる。本実施形態における組み付け後検査とは、組み付け済み部品70の撮影画像に基づいて、適切に組み付けが行われているか否かを判定することである。具体的には、組み付け元部品50と組み付け先部品60とが接触する部位が、所定範囲よりもずれている場合に失敗と判定し、所定範囲内に収まっている場合に成功と判定する。また、本実施形態で述べる「位置姿勢」とは、組み付け先部品または組み付け元部品と当該部品を撮影するカメラとの位置姿勢の関係のことを意味する。
以下、本実施形態における組み付け後検査の処理の概要を簡単に述べる。組み付け後検査処理では、まず、組み付け元部品50および組み付け先部品60の3次元形状モデルを用意する。3次元形状モデルには、図4中の斜線に示すように、組み付け時に接触面となる部位が、着目部位として設定されているものとする。そして、この3次元形状モデルと、組み付け済みの検査対象部品が撮影された画像とに基づいて、組み付け先部品60および組み付け元部品50の3次元的な位置姿勢を算出する。次に、それぞれの3次元位置姿勢と3次元形状モデルとに基づいて、組み付け先部品60および組み付け元部品50の着目部位間の3次元距離を算出する。この距離が0に近いほど、組み付けのずれが少ないと判定することができるため、着目部位間の3次元距離を「組み付け評価値」として使用する。そして、当該組み付け評価値を、あらかじめ設定しておいた組み付け評価値の閾値と比較することで、組み付け成否を判定する。
このように、組み付けられた2部品の位置姿勢を撮影画像から推定し、2部品の接触面間の3次元距離を推定することで組み付け成否を判定する。そのため、あらかじめ正解画像を撮影しておく必要がなく、かつ、自由な姿勢から観察して組み付け成否を判定することが可能になる。また、組み付け接触面間の3次元距離を評価値に用いるため、組み付け成否判定の精度を容易に変更することが可能である。すなわち、組み付け精度の要求が厳しい場合は、閾値を厳しく設定し、要求がゆるい場合は、閾値を易しく設定するなどにより、容易に調整することが可能である。
以下の説明では、組み付けられた2部品間の3次元的な位置姿勢の差に基づいて組み付け評価値を算出し、当該算出した組み付け評価値に基づいて組み付け成否判定を行う処理について詳細を述べる。
<2.情報処理装置の構成>
まずは図1を参照して、本実施形態に係る情報処理装置1の構成例を説明する。情報処理装置1は、3次元形状モデル入力部110と、画像入力部120と、位置姿勢推定部130と、組み付け評価値算出部140と、組み付け許容値設定部150と、組み付け成否判定部160とを備えている。
3次元形状モデル入力部110は、組み付け元部品の形状を表す3次元形状モデル10と、組み付け先部品の形状を表す3次元形状モデル20とを入力する。本実施形態では、図3に示す3次元形状モデルは、図3(b)のような、3次元位置と3次元法線方向とから構成される物体表面上の局所的な3次元平面情報(以後、「局所面特徴」と称する)と、図3(a)のような、3次元位置と3次元線分方向とから構成される物体輪郭上の局所的な3次元線分情報(以後、「局所線特徴」と称する)によって構成されるものとする。なお、単に幾何特徴と称した場合は、局所面特徴と局所線特徴との両方を指すものとする。
ただし、3次元形状モデルとして保持する形状情報は、対象形状を表す3次元的な幾何情報であれば良く、表現形式に特に制限はない。例えば、単純な3次元点の集合や、稜線を表す3次元ラインの集合、3次元点3点で構成される面および線の集合で表されるポリゴン形式の形状情報など、他の表現形式で表しても良い。また、図4中で、3次元形状モデル10および20の太枠線および斜線部分に示されるように、組み付け工程において接触面となる部位を、着目部位として定義する。そして、着目部位に属する局所面特徴と局所線特徴とを参照できるように設定されているものとする。3次元形状モデル10および20は、3次元形状モデル入力部110に保存されており、位置姿勢推定部130に入力される。
2次元画像撮影装置30は、通常の2次元画像を撮影するカメラである。撮影される2次元画像は濃淡画像であってもよいしカラー画像であってもよい。本実施形態では、2次元画像撮影装置30は濃淡画像を出力する。2次元画像撮影装置30が撮影する画像は画像入力部120を介して情報処理装置1に入力される。カメラの焦点距離や主点位置、レンズ歪みパラメータなどの内部パラメータは、使用する機器の仕様を参照するか、または、[R. Y. Tsai, "A versatile camera calibration technique for high−accuracy 3D machine vision metrology using off−the−shelf TV cameras and lenses, " IEEE Journal of Robotics and Automation, vol.RA−3, no.4, 1987.]で開示される方法によって事前にキャリブレーションしておく。
距離画像撮影装置40は、計測対象である物体表面上の点の3次元情報を計測する。距離画像撮影装置40として距離画像を出力する距離センサを用いる。距離画像は、各画素が奥行きの情報を持つ画像である。本実施形態では、距離センサとして、波長の異なる色IDを付与したマルチスリットラインを対象に照射し、その反射光をカメラで撮影して三角測量によって距離計測を行うワンショットアクティブ式のものを利用する。しかしながら、距離センサはこれに限るものではなく、光の飛行時間を利用するTime−of−flight方式であってもよい。また、ステレオカメラが撮影する画像から三角測量によって各画素の奥行きを計算するパッシブ式であってもよい。その他、距離画像を計測するものであればいかなるものであっても本発明の本質を損なうものではない。
距離画像撮影装置40が計測した距離画像は、画像入力部120を介して情報処理装置1に入力される。また、距離画像撮影装置40と2次元画像撮影装置30との光軸は一致しており、2次元画像撮影装置30が出力する濃淡画像の各画素と、距離画像撮影装置が出力する距離画像の各画素との対応関係は既知であるものとする。しかしながら、本発明の適用は、濃淡画像と距離画像とが同一の視点である場合に限るものではない。
例えば、濃淡画像を撮影する撮影装置と、距離画像を撮影する撮影装置とが別の位置姿勢にあり、濃淡画像と距離画像とをそれぞれ別の視点から撮影しても良い。この場合は、撮影装置間の相対的な位置姿勢は既知であるとして、距離画像中の3次元点群を濃淡画像に投影することにより、濃淡画像と距離画像の対応を取る。同一の物体を撮影する撮影装置間の相対的な位置姿勢が既知であり、その画像間の対応が計算できる限り、撮影装置の位置関係に特に制限はない。
位置姿勢推定部130は、2次元画像撮影装置30及び距離画像撮影装置40により撮影された濃淡画像及び距離画像と、3次元形状モデル入力部110により保持された3次元形状モデル10および3次元形状モデル20とに基づいて、組み付け元部品および組み付け先部品の両部品の位置姿勢を推定する。処理の詳細については後述する。
組み付け評価値算出部140は、位置姿勢推定部130により推定された位置姿勢情報に基づいて、組み付け評価値を算出する。本実施形態では、3次元形状モデル10および3次元形状モデル20の着目部位間の3次元距離を組み付け評価値として算出する。具体的には、両部品の着目部位に所属する局所面特徴間で最近傍となるペアを算出し、最近傍となる局所面特徴間の3次元距離を算出、最近傍ペア中の最大値を組み付け評価値として算出する。なお、組み付け評価値として算出する値は、以上に述べた方法に限るものでなく、組み付け元部品と組み付け先部品との着目部位間の空間的なずれの大きさに応じて増減する値であれば何でも良く、計算方法および表現に特に制限はない。例えば、着目部位をポリゴンモデルで表現する場合は、その構成要素である3角メッシュ間の距離を組み付け評価値としてもよい。組み付け評価値算出の処理の詳細については後述する。
組み付け許容値設定部150は、組み付け評価値算出部140が算出する評価値に対する、失敗と成功とを判定するための閾値を設定する。閾値としては、ユーザの精度要求に応じて任意の精度を設定すればよく、厳しく判定する場合は小さく、大まかに判定する場合は大きく閾値を設定すればよい。例えば、組み付けの精度を300[μm]まで抑えたい場合は、組み付け許容値を300[μm]と設定すればよい。このようにすることで、組み付け接触面間の距離が300[μm]以上にずれた場合には、組み付け失敗と判定することが可能である。
また、組み付け元部品50および組み付け先部品60のCADモデルまたは設計図面があり、各部位の公差情報が取得できる場合は、公差情報に基づいて組み付け評価値を設定してもよい。具体的には、正しく組み付けが行われている場合は組み付け元部品50および組み付け先部品60の組み付け接触面のズレ量は組み付け接触部位毎の公差の和の範囲に収まっているはずという考えの下、両部品の組み付け接触部位の公差の和を、組み付け評価値の閾値として設定する。
また、情報処理装置1に組み付け評価値の閾値を設定するためのユーザインタフェースを備えて、ユーザ操作によって閾値の設定を受け付けてもよい。組み付け評価値の閾値を設定する方法に特に制限はなく、任意の基準・任意の方法で閾値を設定しても特に問題はない。本実施形態では、組み付け元部品50および組み付け先部品60の公差情報から組み付け評価値の閾値を設定するものとする。閾値設定処理の詳細については後述する。
組み付け成否判定部160は、組み付け評価値算出部140により算出された組み付け評価値と、組み付け許容値設定部150により設定された組み付け評価値の閾値とに基づいて、組み付けに成功したか失敗したかを判定する。判定処理の詳細については後述する。
以上が、情報処理装置1の構成の一例についての説明である。なお、情報処理装置1には、コンピュータが内蔵されている。コンピュータには、CPU等の主制御部、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶部が具備される。また、コンピュータにはその他、ボタンやディスプレイ又はタッチパネル等の入出力部、ネットワークカード等の通信手段等も具備されていてもよい。なお、これら各構成部は、バス等により接続され、主制御部が記憶部に記憶されたプログラムを読み出して実行することで制御される。
<3.情報処理装置が実施する組み付け成否判定処理>
次に、本実施形態における組み付け成否判定の処理手順について説明する。図5は、本実施形態に係る情報処理装置が実施する組み付け成否判定の処理手順を示すフローチャートである。
(ステップS1000)
まず、ステップS1000において、組み付け許容値設定部150は、組み付け評価値の閾値を設定する。組み付け元部品50の設計図面またはCADモデルから、3次元形状モデル10の組み付け接触部位に対応する部位の公差情報を全て参照し、部位中の公差の最悪値を組み付け元部品50の公差として取得する。次に、組み付け先部品60の設計図面またはCADモデルから、3次元形状モデル20の組み付け接触部位に対応する部位の公差情報を全て参照し、部位中の公差の最悪値を組み付け先部品60の公差として取得する。そして、取得した公差情報の和を組み付け評価値の閾値として設定する。組み付け許容値の設定が終了したら、ステップS1000の処理を終了し、ステップS1100に進む。
(ステップS1100)
ステップS1100において、画像入力部120は、2部品が組み付けられた状態の検査対象部品の濃淡画像および距離画像を入力する。まず、2次元画像撮影装置30から濃淡画像を取得する。同様に、距離画像撮影装置40から距離画像を取得する。本実施形態では、距離画像には距離画像撮影装置40から計測対象物体の表面までの距離が格納されているものとする。前述のように、2次元画像撮影装置30と距離画像撮影装置40との光軸は一致しているため、濃淡画像の各画素と距離画像の各画素との対応は既知である。濃淡画像および距離画像の入力が終了したら、ステップS1100の処理を終了し、ステップS1200に進む。
(ステップS1200)
次に、ステップS1200において、位置姿勢推定部130は、ステップS1100において入力された濃淡画像及び距離画像と、3次元形状モデル10および20との対応付けを行い、対応付けた結果に基づいて組み付け先部品および組み付け元部品の位置姿勢を推定する。以下、図6のフローチャートを参照して、ステップS1200における位置姿勢推定処理について詳述する。
[ステップS1210]
まず、ステップS1210において、位置姿勢推定部130は、2次元画像撮影装置30と距離画像撮影装置40からなる撮影装置に対する組み付け元部品と組み付け先部品の位置及び姿勢の概略値を入力する。本実施形態では、物体が置かれているおおよその位置や姿勢があらかじめわかっているものとして、その値を概略値として用いる。
しかしながら、位置及び姿勢の概略値の設定方法はこれに限るものではない。例えば、位置姿勢推定部130は時間軸方向に連続して計測を行うものとして、前回(前時刻)の計測値を概略の位置及び姿勢として用いるものとしてもよい。また、過去の位置及び姿勢の計測に基づいて物体の速度や角速度を時系列フィルタにより推定し、過去の位置及び姿勢と推定された速度・加速度から現在の位置及び姿勢を予測したものでもよい。また、様々な姿勢で撮影した対象物体の画像をテンプレートとして保持しておき、入力する画像に対してテンプレートマッチングを行うことによって、対象物体の大まかな位置と姿勢を推定してもよい。
あるいは、他のセンサによる物体の位置及び姿勢の計測が可能である場合には、該センサによる出力値を位置及び姿勢の概略値として用いてもよい。センサは、例えばトランスミッタが発する磁界を、物体に装着するレシーバで検出することにより位置及び姿勢を計測する磁気式センサであってもよい。また、物体上に配置されたマーカをシーンに固定されたカメラによって撮影することにより位置及び姿勢を計測する光学式センサであってもよい。その他、6自由度の位置及び姿勢を計測するセンサであればいかなるセンサであってもよい。
[ステップS1220]
次に、ステップS1220において、位置姿勢推定部130は、ステップS1210において入力された、組み付け元部品と組み付け先部品との概略位置姿勢に基づいて、ステップS1100において計測された距離画像中の3次元点群と、3次元形状モデル10および3次元形状モデル20との対応付けを行う。それぞれの物体の概略位置姿勢と校正済みの距離画像撮影装置40の内部パラメータとを用いて、3次元形状モデルを構成する各局所面特徴を距離画像上に投影する。そして、投影した各局所面特徴に対応する距離画像上の距離点を、各面に対応する3次元点として保持する。
このとき、3次元形状モデル10と3次元形状モデル20とが画像上で重なりオクルージョンが発生している場合は、オクルージョン領域の推定を行い、オクルージョン領域における対応付けを抑制してもよい。具体的には、3次元形状モデル10と3次元形状モデル20との概略位置姿勢に基づいて、両モデルの相対位置関係を算出し、撮影機器に対する3次元形状モデル間の前後判定を行う。これにより、大まかにオクルージョン領域を推定し、オクルージョンが発生している領域ではモデルと画像との対応付けを抑制することで処理を行う。
[ステップS1230]
次に、ステップS1230において、位置姿勢推定部130は、濃淡画像上のエッジと3次元形状モデルとの対応付けを行う。ステップS1220と同様に、それぞれの物体の概略位置姿勢と校正済みの2次元画像撮影装置30の内部パラメータとを用いて3次元形状モデルを構成する局所線特徴を画像へ投影し、画像上で検出されたエッジと3次元形状モデル中の局所線特徴とを対応付ける。エッジが各局所線特徴に対応して複数検出された場合には、複数検出されたエッジのうち、投影された局所線特徴に対して画像上で最も近いエッジを対応付ける。
[ステップS1240]
次に、ステップS1240において、位置姿勢推定部130は、ステップS1230で検出した3次元形状モデル中の各線分に対応する濃淡画像上のエッジと、ステップS1220で算出した3次元形状モデル中の各面に対応する距離画像中の3次元点との対応データに基づいて、組み付け先部品および組み付け元部品の位置姿勢を算出する。本ステップでは、算出した対応データに基づいて、計測データと3次元形状モデルとの間の誤差が最小になるように、線形連立方程式を解くことで、位置姿勢の更新を行う。
ここで、画像上の距離と3次元空間中での距離とでは尺度が異なるため、単純に連立方程式を解くだけでは計測データのどちらか一方に寄与率が偏ってしまう可能性がある。そのため、本実施形態では、[立野,小竹,内山,"ビンピッキングのための距離・濃淡画像を最ゆうに統合する高精度高安定なモデルフィッティング手法",電子情報通信学会論文誌D, 情報・システム J94-D(8), 1410−1422, 2011.]に示すような最尤推定に基づく最適化を行うことで、尺度を合わせた位置姿勢推定を行う。
最尤推定に基づく位置姿勢推定方法に関しては、本発明の本質に関わる話ではないため、詳細な処理の記述は省略する。詳細は上述の文献を参照されたい。なお、計測対象物体の位置及び姿勢の算出方法は、上述の最尤推定に基づく手法に限るものでなく、例えば、Levenberg-Marquardt法による繰り返し演算を行ってもよいし、よりシンプルな方法である最急降下法によって行ってもよい。また、共役勾配法やICCG法など、他の非線形最適化計算手法を用いてもよい。
[ステップS1250]
次に、ステップS1250において、位置姿勢推定部130は、ステップS1240で更新した位置姿勢が、収束しているか否か、すなわち、さらに反復計算を必要とするか否かの判定を行う。具体的には、補正値がほぼ0である場合や、誤差ベクトルの二乗和の補正前と補正後との差がほぼ0である場合に収束したと判定する。収束していなければ(S1250;NO)、ステップS1120に戻り、更新した位置姿勢を用いて、再度位置姿勢推定処理を行う。収束していると判断した場合は(S1250;YES)、この処理は終了し、撮影装置と計測対象物体間の相対的な位置姿勢の最終的な推定値が決定される。
(ステップS1300)
次に、ステップS1300において、組み付け評価値算出部140は、3次元形状モデル10および20と、ステップS1200で推定された、それぞれの位置姿勢とに基づいて、組み付け評価値を算出する。以下、図7のフローチャートを参照して、ステップS1300における組み付け評価値算出処理について詳述する。
[ステップS1310]
まず、ステップS1310において、組み付け評価値算出部140は、ステップS1200で推定された組み付け元部品50の位置姿勢と組み付け先部品60の位置姿勢とに基づいて、両部品間の相対的な位置姿勢を算出する。
[ステップS1320]
次に、ステップS1320において、組み付け評価値算出部140は、モデル間の相対的な位置姿勢に基づいて、3次元形状モデル10の着目部位に属する局所面特徴と、3次元形状モデル20の着目部位に属する局所面特徴との間で最近傍となるペアの算出を行う。法線付き3次元点間の最近傍対応付けの方法としては、例えば、[大石岳史,中澤篤志,池内克史, "インデックス画像を用いた複数距離画像の高速同時位置あわせ、" 電子情報通信学会論文誌, Vol.J89-D No.3, pp.513-521,Mar.2006.]等の距離画像位置合わせにおける対応付け方法を用いればよい。
[ステップS1330]
次に、ステップS1330において、組み付け評価値算出部140は、局所面特徴の最近傍ペア間の距離を算出する。3次元形状モデル10の局所面特徴の点位置をPa (Pax、 Pay、 Paz)、法線方向をNa (Nax、 Nay、 Naz)、3次元形状モデル20の局所面特徴の点位置をPb (Pbx、 Pby、 Pbz)とすると、局所面特徴の局所平面間の距離dは以下の式で計算できる。
Figure 2015114722
対応付けされたペア全てからdを算出し、その中で最大距離となるdを、組み付け評価値として算出する。
以上の組み付け評価値の算出が終了したら、ステップS1330の処理を終了し、ステップS1400に進む。
(ステップS1400)
次に、ステップS1400において、組み付け成否判定部160は、ステップS1300で算出した組み付け評価値と、ステップS1000において設定された組み付け評価値の閾値とに基づいて、組み付けに成功したか失敗したかを判定する。ステップS1300で算出された組み付け評価値が、設定した閾値よりも下回っている場合は組み付けが成功したと判定し、閾値を超える場合は組み付けに失敗したと判定する。組み付け成否の判定が終了したら、この処理は終了し、組み付け成否が最終的に判定される。
以上説明したように、本実施形態では、検査対象の組み付け済み部品の撮影画像から推定した、組み付け元部品と組み付け先部品との3次元位置姿勢に基づいて、組み付け接触部位間の3次元距離を組み付け評価値として算出し、当該組み付け評価値とあらかじめ設定した組み付け評価値の閾値とを比較することで、組み付け成否を判定する。
本実施形態によれば、2部品間の接触面の3次元距離に基づいて判定するため、あらかじめ正解画像を撮影する必要なく、かつ自由な姿勢から観察して組み付け成否を判定することが可能になる。また、観察視点に関わらない統一的な値として、組み付け成否判定の厳しさを調整できるという利点がある。
このように本実施形態によれば、学習時と異なる姿勢で検査部品を撮影するような場合においても、安定的に組み付け成否の判別を行うことが可能になる。また、あらかじめ学習としてマスタ画像を撮影することなく、組み付け成否の判別を行うことが可能になる。
(第2実施形態:情報処理装置の適用事例)
本発明に係る情報処理装置1の好適な適用事例としては、図8に示すように、2次元画像撮影装置30および距離画像撮影装置40により得られる2次元画像と距離画像とに基づいて、産業用のロボット90により組み付けられた組み付け済み部品70の組み付け成否判定を行う利用例があげられる。以下、図8を参照して、本発明の一実施形態である情報処理装置1の適用例を説明する。
図8は、情報処理装置1、ロボット90を用いて部品組み付け処理を行うロボットシステムの構成例を示す。ロボット90は、制御部として機能するロボットコントローラ80により制御され、指令された位置に手先を移動させ物体の把持・組み付け処理などを行うロボットである。組み付け済み部品70は、組み付け元部品と組み付け先部品とにより構成される。2次元画像撮影装置30は通常の2次元画像を撮影するカメラであり、距離画像撮影装置40は物体表面までの距離を計測する距離センサであり、産業用ロボットアームの手先等の被計測物体を撮影できる位置に設置される。
情報処理装置1は、2次元画像撮影装置30および距離画像撮影装置40から得られる2次元画像と距離画像とに基づいて、組み付け済み部品70を構成する組み付け元部品および組み付け先部品の位置姿勢を推定する。そして、推定した位置姿勢に基づいて、組み付け済み部品が組み付けに失敗しているか否かの判定を行う。組み付けに失敗している場合は、組み付け済み部品を工程から除外するように組み付け済み部品を把持・移動させるようにロボットを制御する。なお、組み付け失敗に対する処理としては、上述の方法以外にも、工程を停止させる、警告を発する、改めて組み付けを行うなどの別の処理を行っても良く、処理の選択に特に制限はない。
このように、情報処理装置と、当該情報処理装置による組み付けの成否判定の結果に基づいて組み付け動作を制御する制御部(ロボットコントローラ)と備えた情報処理システム(ロボットシステム)に本発明を適用できる。なお、制御部(ロボットコントローラ)を情報処理装置に含めて一体的に構成してもよい。
以上説明したように、本実施形態によれば、ロボットシステムにおいて、組み付け済み部品が正しく組み付けられているか否かを判定することが可能となり、組み付けに失敗した部品を正常な工程に流れないように除外することが可能になる。
[変形例1](組み付け評価値算出のバリエーション:位置姿勢差)
上述の実施形態では、3次元形状モデル10と3次元形状モデル20との接触部位から算出される組み付け評価値に基づいて組み付け成否を判定していた。しかし、組み付け評価値の算出手法は、これに限るものではない。例えば、組み付け先部品と組み付け元部品との3次元位置姿勢の差に基づいて、組み付け評価値を算出してもよい。この場合、あらかじめ、組み付け先部品60と組み付け元部品50とが正しく組み付けられた場合の部品間位置姿勢を理想値として算出しておく。また、組み付け許容値としてあらかじめ2部品間の3次元位置の差と3次元角度差の許容値を閾値として設定しておく。そして、検査対象となる画像から、組み付け先部品と組み付け元部品との部品間位置姿勢を算出し、部品間位置姿勢の理想値との差を算出する。算出した位置差と角度差それぞれが、設定した閾値以下か否かによって組み付けの成否を判定する。このとき、成否の判定方法としては、位置差と角度差の両方をチェックする方法に限るものでなく、位置差のみ、角度差のみから、成否を判定してもよい。
以上説明したように、組み付け先部品と組み付け元部品間との位置姿勢から、組み付け評価値を算出することで、3次元形状モデルの接触部位の情報を設定することなく、組み付け成否を判定することが可能である。
[変形例2](組み付け評価値算出のバリエーション:部品間理想値による画像上残差)
上述の実施形態では、3次元形状モデル10と3次元形状モデル20との接触部位の3次元距離に基づいて算出した組み付け評価値に基づいて、組み付け成否を判定していた。しかし、組み付け評価値の算出手法は、これに限るものではない。例えば、組み付けが正しく行われた状態を仮定した3次元モデル形状を用意して、撮影画像と3次元形状モデルとの差、すなわち、画像上での残差から組み付け評価値を算出してもよい。この場合、あらかじめ、組み付け先部品60と組み付け元部品50とが正しく組み付けられた場合の部品間位置姿勢を、部品間位置姿勢の理想値として与えておくものとする。
まずステップS1200の位置姿勢推定処理において、3次元形状モデル10または3次元形状モデル20のどちらかの位置姿勢を推定する。そして、推定していない方のモデルの位置姿勢を、推定した方のモデルの位置姿勢情報とあらかじめ算出した部品間位置姿勢理想値を用いて算出する。次に、理想値を用いて位置姿勢を算出した方の3次元モデルと距離画像とに基づいて、3次元形状モデルの各面と距離画像中の3次元点との残差を算出する。
組み付け元部品50と組み付け先部品60とが正しく組みあがっている場合は、部品間位置姿勢の理想値と実際値とが一致するため、距離画像上の部品像と3次元モデルとの残差は小さくなる。一方、正しく組みあがっていない場合は、部品間位置姿勢が実際値と理想値とで異なることによって、残差は大きな値として観測される。そこで、3次元形状モデルと画像との残差の中央値を、組み付け評価値として算出する。そして、算出した組み付け評価値を用いることによって、ステップS1400での組み付け成否判定を行う。
なお、この場合は、ステップS1200の段階で、組み付け評価値算出を終えるため、ステップS1300のモデル間差異に基づく組み付け評価値算出処理は行わない。また、組み付け評価値として計量する残差やその統計量の計算は、3次元形状モデルと撮影画像との差が検出できる限り、計算方式に特に制限はない。
このように変形例2では、第1の部品(組み付け元部品50)および当該第1の部品が組み付けられた第2の部品(組み付け先部品60)を含む画像に基づいて第1の部品または第2の部品の一方の位置姿勢を推定する。そして、一方の位置姿勢と予め保持された組み付け成功状態の位置姿勢とに基づいて他方の位置姿勢を算出する。算出された他方の位置姿勢に対応する部品の形状モデルと画像とに基づいて、組み付けの状態を評価するための評価値を算出する。さらに、当該評価値に基づいて組み付けの成否を判定する。
以上説明したように、組み付け先部品60または組み付け元部品50の位置姿勢を画像から算出し、組み付けが正しく行われた成功状態を仮定した3次元モデル形状と、撮影画像との差を算出することで、組み付け先部品と組み付け元部品の両方の位置姿勢を推定することなく、組み付け成否を判定することが可能である。
[変形例3](組み付け評価値算出のバリエーション:組み付け済み部品の画像上残差)
上述の変形例では、組み付け元部品50と組み付け先部品60との3次元形状モデルと、それらが正しく組みあがった場合の部品間位置姿勢の理想値とを用いて、組み付け評価値の算出を行っていた。しかし、組み付け元部品50と組み付け先部品60の3次元形状モデルを用いるのではなく、組み付け済み部品70の3次元形状モデル1つを用いて判定を行ってもよい。この場合、組み付け済み部品70の3次元形状モデル中に、組み付け成否の判定の際に着目する部位をあらかじめ指定しておく。着目部位としては、例えば、組み付け接触部位近辺などが好適である。ただし、着目部位としては、モデル全体やごく一部の部位のみを用いてもよく、組み付け成否を正しく判定できる限り、着目部位の設定に特に制限はない。
基本的な処理の流れは上述の変形例と同様である。まず、ステップS1200において、位置姿勢推定部130が組み付け済み部品70の位置姿勢を推定する。そして、3次元形状モデル中での着目部位に属する各面と距離画像中の3次元点との残差を算出する。正しく組みあがっている場合は、組み付け済み部品70の3次元形状モデルと、実際の画像上の像とが一致するため、ここでの残差も小さくなる。この残差の中央値を、組み付け評価値として用いて、組み付け成否判定を行う。
このように変形例3では、第1の部品(組み付け元部品50)および当該第1の部品が組み付けられた第2の部品(組み付け先部品60)を含む画像に基づいて、第1の部品および第2の部品を含む組み付け済部品の位置姿勢を推定する。そして、組み付け済部品の形状モデルと画像とに基づいて、組み付けの状態を評価するための評価値を算出する。さらに、当該評価値に基づいて組み付けの成否を判定する。
以上説明したように、組み付け済み部品70の3次元形状モデルのみを用いて成否判定を行うことで、1つの3次元形状モデルを保持、位置姿勢推定するのみで、組み付け成否を判定することが可能となる。
[変形例4](組み付け許容値自動設定方法:正確画像入力による学習ベース手法)
上述の実施形態では、組み付け評価値の閾値となる組み付け許容値は、あらかじめユーザが手動で設定するものとしていた。しかしながら、組み付け許容値は固定値を与える方式のみに限るものではない。例えば、あらかじめ与えられた正解画像を手掛かりにして、組み付け許容値を自動的に設定してもよい。この場合、組み付け許容値自動設定処理としては以下のような処理が考えられる。
まず、あらかじめ、組み付け先部品と組み付け元部品が正しく組み付けされた部品を撮影した正解画像を用意する。そして、正解画像に対しステップS1100からステップS1300までの処理を行い、正解画像に対して算出された組み立て評価値を組み付け評価値の閾値として設定する。このとき、算出された組み付け評価値をそのまま設定するのではなく、一定のバイアスを加え、組み付け成否判定の厳しさを調整してもよい。
以上の処理を行うことで、ユーザがあらかじめ組み付け許容値を設定する必要なく、組み付け判定を行うことが可能となる。このとき、特許文献1の手法と異なり、正解画像と同じ視点から検査対象の画像を撮影するという制約はなく、自由な視点から検査対象を撮影して、判定を行うことができるという利点がある。
[変形例5](マッチングにより位置姿勢推定してもよい。)
上述の実施形態・変形例では、画像および幾何特徴の対応付けに基づく位置姿勢推定手法として、非線形最小二乗法を用いる例を述べた。しかしながら、本発明の情報処理装置における検査対象物体の位置姿勢推定手法としては、上述の方式に限るものではない。例えば、3次元形状モデルと画像との対応付けに基づくマッチングにより位置姿勢を算出してもよい。すなわち、概略の位置及び姿勢を中心に一定範囲において6自由度の値が網羅的にカバーできるように多数の位置及び姿勢を生成し、それぞれの位置及び姿勢において観測できる幾何特徴と濃淡画像及び距離画像とのマッチング度を評価することで、組み付け元部品50および組み付け先部品60の位置及び姿勢を算出してもよい。
具体的には、まず、探索する位置及び姿勢の生成として、概略として入力された位置及び姿勢の値を中心に位置及び姿勢6自由度全組み合わせの値を生成する。このとき、網羅的に生成する位置の最大幅・ステップ幅、および、姿勢の最大幅・ステップ幅の設定に関しては特に制限はない。本変形例では、位置の最大幅は、組み付け元部品50および組み付け先部品60のサイズと同等に、姿勢の最大幅は90度にして、位置のステップ幅は1[mm]、姿勢のステップ幅は1[度]として、探索する位置及び姿勢を生成する。
次に、生成した位置及び姿勢ごとに、その位置姿勢において観測される幾何特徴と、距離画像中の3次元点群と濃淡画像上のエッジとの対応付けを行う。そして、距離画像中の3次元点群と局所面特徴、濃淡画像上のエッジと局所線特徴との距離を、マッチング度を表す評価値として算出する。以上の処理を、生成した全ての位置及び姿勢に対して行うことで最も評価値が高い位置及び姿勢の値を探索する。そして、もっとも評価値が高い位置及び姿勢を、組み付け元部品50および組み付け先部品60の位置姿勢として出力する。そして、算出した位置姿勢を用いて、ステップS1300において組み付け評価値を算出し、組み付け成否判定を行う。
以上説明したように、組み付け検査を行うために利用する部品の位置姿勢を推定する方式としては、最小二乗法に基づく手法に限るものでない。組み付け先部品および組み付け元部品の位置姿勢を算出できる限り算出方法に特に制限は無く、いかなる方式を用いてもよい。
[変形例6](距離画像のみ、濃淡画像のみでも良い)
上述の実施形態では、濃淡画像と距離画像を撮影する場合について説明していた。しかし、本発明に係る情報処理装置は、濃淡画像と距離画像を両方撮影する場合に限るものではない。例えば、距離画像のみが撮影される場合でも本発明の情報処理装置を適用できる。この場合、本変形例における情報処理装置は、図1の構成から2次元画像撮影装置30を除外した構成となる。また、位置姿勢推定処理に関しては、ステップS1100における濃淡画像の入力処理が無くなり、ステップS1230における濃淡画像と局所線特徴との対応付け処理がなくなる以外、上述の実施形態と変更はない。
同様に濃淡画像のみが撮影される場合においても、本発明に係る情報処理装置を適用できる。この場合、図1の構成から距離画像撮影装置40を除外した構成となり、ステップS1100における距離画像の入力処理が無くなり、ステップS1220における距離画像と幾何特徴との対応付け処理がなくなる以外、上述の実施形態と変更はない。このようにして算出した位置姿勢を用いて、ステップS1300において組み付け評価値を算出し、組み付け成否判定を行う。
以上説明したように、濃淡画像と距離画像が両方得られる場合に限るものでなく、どちらか片方の画像が得られる限り、本発明に係る情報処理装置を適用することが可能である。
[各実施形態及び変形例の効果]
第1実施形態によれば、2部品間の接触面の3次元距離に基づいて判定を行うことで、あらかじめ正解画像を撮影する必要なく、かつ自由な姿勢から観察して組み付け成否を判定することが可能となる。また、観察視点に関わらない統一的な値として、組み付け成否判定の厳しさを容易に調整できるという利点がある。
第2実施形態では、本発明の情報処理装置の適用により、ロボットシステムが、組み付け済み部品が正しく組み付けられているか否かを判定することで、組み付けに失敗した部品が正常な工程に流れないように制御することができる。
第1の変形例によれば、組み付け先部品60と組み付け元部品50間の位置姿勢から、組み付け評価値を算出することで、3次元形状モデルの接触部位の情報を設定することなく、組み付け成否を判定することが可能となる。
第2の変形例によれば、組み付け先部品60または組み付け元部品50の位置姿勢を画像から算出し、組み付けが正しく行われた状態を仮定した3次元モデル形状と、撮影画像との差を算出することで、組み付け先部品と組み付け元部品の両方の位置姿勢を推定することなく、組み付け成否を判定することが可能となる。
第3の変形例によれば、組み付け済み部品70の3次元形状モデルのみを用いて成否判定を行うことで、1つの3次元形状モデルを保持、位置姿勢推定するのみで、組み付け成否を判定することが可能となる。
第4の変形例によれば、正しく組み付けが行われた部品を撮影した正解画像を用意し、正解画像から算出した組み付け評価値に基づいて、組み付け成否を判定する閾値を設定することで、人があらかじめ組み付け許容値を設定する必要なく組み付け判定を行うことを可能にした。このとき、特許文献1の手法と異なり、正解画像と同じ視点から検査対象の画像を撮影するという制約はなく、自由な視点から検査対象を撮影して、判定を行うことができるという利点がある。
第5の変形例によれば、部品の位置姿勢を推定する方式として、3次元形状モデルと画像との対応付けに基づくマッチングにより算出した位置姿勢を用いて、組み付け評価値の算出を行うことができる。
第6の変形例によれば、濃淡画像または距離画像のみを用いて位置姿勢推定を行うことで、どちらか片方の画像のみが得られるような場合においても、組み付け成否判定を実行することができる
[その他の変形例]
本発明の説明を通して、組み付け元部品50および組み付け先部品60の3次元モデル情報として、局所面特徴と局所線特徴により構成されたモデルを例に説明した。しかし、3次元形状モデルとしては他の表現方式を用いても良い。例えば、3点と3辺および1面により構成されるポリゴンの集合として、3次元形状モデルを表現してもよいし、単純な3次元点の集合として3次元形状を表現してもよい。また陰関数の組み合わせによりパラメトリックに3次元形状を表現する方法を用いてもよい。組み付け先部品60または組み付け元部品50の形状に即する限り、3次元形状モデルの表現方法に特に制限はない。
2次元画像撮影装置30は、濃淡画像を出力するカメラに限るものではなく、対象像が得られる限り他の方式でもよい。例えば、濃淡画像であってもよいしカラー画像であってもよい。
距離画像撮影装置40は、波長の異なる色IDを付与したマルチスリットラインを対象に照射し、その反射光をカメラで撮影して三角測量によって距離計測を行うワンショットアクティブ方式の装置に限るものではなく、他の方式のものでもよい。例えば、ステレオカメラが撮影する画像から三角測量によって各画素の奥行きを計算するパッシブ式であってもよい。また、パターン投光用のプロジェクタは液晶プロジェクタに限るものではなく、パターン光の投影ができる限り他の方式のものでもよい。例えば、DMD(デジタルミラーデバイス)やLCOSを用いたプロジェクタであってもよい。
位置姿勢決定において、組み付け先部品60または組み付け元部品50の位置姿勢の算出方法はGauss−Newton法に限るものではない。例えば、より計算がロバストであるLevenberg−Marquardt法によって行ってもよいし、よりシンプルな方法である最急降下法によって行ってもよい。また、共役勾配法やICCG法など、他の非線形最適化計算手法を用いてもよい。また、最適化計算ベースの位置姿勢推定以外にも、概略の位置及び姿勢を中心に一定範囲において6自由度の値が網羅的にカバーできるように多数の位置及び姿勢を生成し、それぞれの位置及び姿勢において観測できる幾何特徴と濃淡画像及び距離画像とのマッチング具合を評価することで、位置姿勢の推定を行ってもよい。
位置姿勢決定においては、濃淡画像と距離画像を同時に利用して位置姿勢を推定する例を説明したが、本発明は濃淡画像のみ、距離画像のみを用いて位置姿勢推定を行う場合においても同様に適用可能である.
組み付け評価値の算出は、3次元形状モデル10および3次元形状モデル20の着目部位間の3次元距離を組み付け評価値として算出する例を示したが、他の方法により組み付け評価値を算出してもよい。例えば、3次元形状モデル10および3次元形状モデル20の相対位置姿勢の理想値と観測値との差を、組み付け評価値として利用してもよいし、3次元形状モデルと撮影画像との残差に基づいて組み付け評価値を計算してもよい。組み付け元部品50と組み付け先部品60との組み付け部分のズレ量に応じて変動する値である限り、いかなる方式で算出した値を組み付け評価値として用いても良く、特に制限はない。
組み付け許容値の設定において、組み付け評価値の閾値として、組み付け元部品50および組み付け先部品60の設計図面またはCADモデルから参照できる公差情報に基づいて算出した値を設定する例を示したが、これに限るものではない。例えば、ユーザが閾値を入力できるインタフェースを設けユーザに設定してもらう、あるいは、あらかじめ正しく組み付けられた結果を撮影した正解画像を入力し、正解画像から閾値を算出するなどを行ってもよい。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (14)

  1. 第1の部品および前記第1の部品が組み付けられた第2の部品を含む画像に基づいて、前記第1の部品および前記第2の部品の各位置姿勢を推定する位置姿勢推定手段と、
    前記第1の部品および前記第2の部品の各位置姿勢に基づいて、組み付けの状態を評価するための評価値を算出する評価値算出手段と、
    前記評価値に基づいて前記組み付けの成否を判定する成否判定手段と
    を備えることを特徴とする情報処理装置。
  2. 前記第1の部品の形状モデルおよび前記第2の部品の形状モデルを入力する形状モデル入力手段をさらに備え、
    前記位置姿勢推定手段は、前記画像と、前記第1の部品の形状モデルおよび前記第2の部品の形状モデルとに基づいて、前記各位置姿勢を推定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記評価値の許容値を設定する許容値設定手段をさらに備え、
    前記成否判定手段は、前記評価値と前記許容値との比較に基づいて前記組み付けの成否を判定することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記許容値設定手段は、前記第1の部品の形状モデルおよび前記第2の部品の形状モデルから前記第1の部品および前記第2の部品が接触する接触部位の公差情報を取得し、前記公差情報に基づいて前記許容値を設定することを特徴とする請求項3に記載の情報処理装置。
  5. 前記評価値算出手段は、前記第1の部品および第2の部品の相対的な位置姿勢に基づいて、前記第1の部品および第2の部品の各形状モデルにおける着目部位間の距離を算出し、当該距離に基づいて前記評価値を算出することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
  6. 前記評価値算出手段は、前記第1の部品および前記第2の部品の相対的な位置姿勢と、予め保持された組み付け成功状態の部品間位置姿勢との差に基づいて、前記評価値を算出することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
  7. 前記許容値設定手段は、組み付け成功状態の前記第1の部品および第2の部品が撮影された画像に基づいて算出された評価値に基づいて前記許容値を設定することを特徴とする請求項3に記載の情報処理装置。
  8. 前記位置姿勢推定手段は、前記画像と、前記第1の部品の形状モデルおよび前記第2の部品の形状モデルとを対応付けてマッチングすることにより、前記各位置姿勢を推定することを特徴とする請求項1に記載の情報処理装置。
  9. 前記画像は、濃淡画像および距離画像の少なくとも一方を含むことを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
  10. 第1の部品および前記第1の部品が組み付けられた第2の部品を含む画像に基づいて前記第1の部品または前記第2の部品の一方の位置姿勢を推定し、前記一方の位置姿勢と予め保持された組み付け成功状態の位置姿勢とに基づいて他方の位置姿勢を算出する位置姿勢推定手段と、
    前記他方の位置姿勢に対応する部品の形状モデルと前記画像に基づいて、組み付けの状態を評価するための評価値を算出する評価値算出手段と、
    前記評価値に基づいて前記組み付けの成否を判定する成否判定手段と
    を備えることを特徴とする情報処理装置。
  11. 第1の部品および前記第1の部品が組み付けられた第2の部品を含む画像に基づいて、前記第1の部品および前記第2の部品を含む組み付け済部品の位置姿勢を推定する位置姿勢推定手段と、
    前記組み付け済部品の形状モデルと前記画像とに基づいて、組み付けの状態を評価するための評価値を算出する評価値算出手段と、
    前記評価値に基づいて前記組み付けの成否を判定する成否判定手段と
    を備えることを特徴とする情報処理装置。
  12. 請求項1乃至11の何れか1項に記載の情報処理装置と、
    前記組み付けの成否判定の結果に基づいて組み付け動作を制御する制御手段と
    を備えることを特徴とする情報処理システム。
  13. 情報処理装置の制御方法であって、
    位置姿勢推定手段が、第1の部品および前記第1の部品が組み付けられた第2の部品を含む画像に基づいて、前記第1の部品および前記第2の部品の各位置姿勢を推定する工程と、
    評価値算出手段が、前記第1の部品および前記第2の部品の各位置姿勢に基づいて、組み付けの状態を評価するための評価値を算出する工程と、
    成否判定手段が、前記評価値に基づいて前記組み付けの成否を判定する工程と
    を有することを特徴とする情報処理装置の制御方法。
  14. 請求項13に記載の情報処理装置の制御方法の各工程をコンピュータに実行させるためのプログラム。
JP2013254486A 2013-12-09 2013-12-09 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム Active JP6444027B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013254486A JP6444027B2 (ja) 2013-12-09 2013-12-09 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム
US14/557,608 US10234844B2 (en) 2013-12-09 2014-12-02 Information processing apparatus, control method thereof, information processing system, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013254486A JP6444027B2 (ja) 2013-12-09 2013-12-09 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2015114722A true JP2015114722A (ja) 2015-06-22
JP6444027B2 JP6444027B2 (ja) 2018-12-26

Family

ID=53271093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013254486A Active JP6444027B2 (ja) 2013-12-09 2013-12-09 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム

Country Status (2)

Country Link
US (1) US10234844B2 (ja)
JP (1) JP6444027B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017144498A (ja) * 2016-02-15 2017-08-24 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
JP2017162449A (ja) * 2016-03-02 2017-09-14 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
JP2018103309A (ja) * 2016-12-26 2018-07-05 ファナック株式会社 組付動作を学習する機械学習装置および部品組付システム
US10252417B2 (en) 2016-03-02 2019-04-09 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and storage medium
WO2019107180A1 (ja) * 2017-12-01 2019-06-06 ソニー株式会社 符号化装置、符号化方法、復号装置、および復号方法
CN110866310A (zh) * 2018-08-14 2020-03-06 波音公司 装配过程的自动监督和检查
JP2021007993A (ja) * 2019-06-28 2021-01-28 三菱電機株式会社 ロボットシステム、組立体の組立方法、組立体の検査方法、電動ハンドの検査方法および電動ハンド性能検査治具
JP2021165639A (ja) * 2020-04-06 2021-10-14 医療法人社団皓有会 姿勢推定装置
JP2022030615A (ja) * 2020-08-07 2022-02-18 トヨタ自動車株式会社 色味補正システム及び色味補正方法
JP2023503426A (ja) * 2019-11-19 2023-01-30 サクミ コオペラティヴァ メッカニチ イモラ ソシエタ コオペラティヴァ 衛生陶器の光学検査のための装置
WO2024048426A1 (ja) * 2022-08-29 2024-03-07 リンクウィズ株式会社 製造システム、制御方法及び制御プログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2528963B (en) 2014-08-07 2018-07-25 Artform Int Ltd Product display shelf, system and method
JP6578857B2 (ja) * 2015-09-30 2019-09-25 ブラザー工業株式会社 数値制御装置と数値制御装置の制御方法
CA3015501A1 (en) 2016-01-18 2017-07-27 Dci Marketing, Inc. Dba Dci - Artform Sensors, devices, adapters and mating structures for merchandisers and related methods
US10588427B2 (en) 2016-03-23 2020-03-17 Retail Space Solutions Llc Low product indicator for self facing merchandiser and related methods
JPWO2017169732A1 (ja) * 2016-03-28 2019-02-14 オリンパス株式会社 計測装置及び計測方法
CA3040176C (en) 2016-10-18 2023-07-11 Retail Space Solutions Llc Illuminated merchandiser, retrofit kit and related methods
JP6917762B2 (ja) * 2017-05-09 2021-08-11 株式会社キーエンス 画像検査装置
CN110794763B (zh) * 2019-11-20 2021-01-29 航天科技控股集团股份有限公司 基于智能相机的电机装配到位判定系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006235699A (ja) * 2005-02-22 2006-09-07 Denso Corp シミュレーション装置及びシミュレーション方法
JP2009037392A (ja) * 2007-08-01 2009-02-19 Olympus Corp 作業支援システム
JP2010528318A (ja) * 2007-05-29 2010-08-19 コグネックス・テクノロジー・アンド・インベストメント・コーポレーション 2次元画像による3次元組立て検査

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69736348T2 (de) * 1996-10-24 2006-11-30 Fanuc Ltd. Roboterkraftsteuersystem mit visuellem sensor für zusammenfügungsarbeiten
EP1633534B1 (en) * 2003-04-28 2018-09-12 Nikon Metrology NV Cmm arm with exoskeleton
US7868904B2 (en) 2005-04-01 2011-01-11 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP2008170331A (ja) 2007-01-12 2008-07-24 Toyota Motor Corp 組み付け検査方法
US7627447B2 (en) * 2007-01-23 2009-12-01 The Boeing Company Method and apparatus for localizing and mapping the position of a set of points on a digital model
JP5290864B2 (ja) 2009-05-18 2013-09-18 キヤノン株式会社 位置姿勢推定装置及び方法
JP2011115877A (ja) * 2009-12-02 2011-06-16 Canon Inc 双腕ロボット
JP5612916B2 (ja) 2010-06-18 2014-10-22 キヤノン株式会社 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
JP5743499B2 (ja) * 2010-11-10 2015-07-01 キヤノン株式会社 画像生成装置、画像生成方法、およびプログラム
JP5839971B2 (ja) * 2010-12-14 2016-01-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP5915214B2 (ja) * 2012-02-01 2016-05-11 セイコーエプソン株式会社 ロボット装置、組立て方法、及び組立てプログラム
JP6000579B2 (ja) 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP6004809B2 (ja) 2012-03-13 2016-10-12 キヤノン株式会社 位置姿勢推定装置、情報処理装置、情報処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006235699A (ja) * 2005-02-22 2006-09-07 Denso Corp シミュレーション装置及びシミュレーション方法
JP2010528318A (ja) * 2007-05-29 2010-08-19 コグネックス・テクノロジー・アンド・インベストメント・コーポレーション 2次元画像による3次元組立て検査
JP2009037392A (ja) * 2007-08-01 2009-02-19 Olympus Corp 作業支援システム

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017144498A (ja) * 2016-02-15 2017-08-24 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
US10242438B2 (en) 2016-02-15 2019-03-26 Canon Kabushiki Kaisha Information processing apparatus, control method of information processing apparatus, and storage medium for image recognition of the assembly of an object
US10252417B2 (en) 2016-03-02 2019-04-09 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP2017162449A (ja) * 2016-03-02 2017-09-14 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
US10502253B2 (en) 2016-12-26 2019-12-10 Fanuc Corporation Machine learning device for learning assembly operation and component assembly system
JP2018103309A (ja) * 2016-12-26 2018-07-05 ファナック株式会社 組付動作を学習する機械学習装置および部品組付システム
WO2019107180A1 (ja) * 2017-12-01 2019-06-06 ソニー株式会社 符号化装置、符号化方法、復号装置、および復号方法
JP7184050B2 (ja) 2017-12-01 2022-12-06 ソニーグループ株式会社 符号化装置、符号化方法、復号装置、および復号方法
CN111480342A (zh) * 2017-12-01 2020-07-31 索尼公司 编码装置、编码方法、解码装置和解码方法
JPWO2019107180A1 (ja) * 2017-12-01 2020-11-26 ソニー株式会社 符号化装置、符号化方法、復号装置、および復号方法
CN111480342B (zh) * 2017-12-01 2024-04-23 索尼公司 编码装置、编码方法、解码装置、解码方法和存储介质
US11653023B2 (en) 2017-12-01 2023-05-16 Sony Corporation Encoding device, encoding method, decoding device, and decoding method
CN110866310A (zh) * 2018-08-14 2020-03-06 波音公司 装配过程的自动监督和检查
CN110866310B (zh) * 2018-08-14 2024-02-09 波音公司 装配过程的自动监督和检查
JP2021007993A (ja) * 2019-06-28 2021-01-28 三菱電機株式会社 ロボットシステム、組立体の組立方法、組立体の検査方法、電動ハンドの検査方法および電動ハンド性能検査治具
JP7080203B2 (ja) 2019-06-28 2022-06-03 三菱電機株式会社 ロボットシステム、組立体の組立方法、組立体の検査方法、電動ハンドの検査方法および電動ハンド性能検査治具
JP2023503426A (ja) * 2019-11-19 2023-01-30 サクミ コオペラティヴァ メッカニチ イモラ ソシエタ コオペラティヴァ 衛生陶器の光学検査のための装置
JP7450032B2 (ja) 2019-11-19 2024-03-14 サクミ コオペラティヴァ メッカニチ イモラ ソシエタ コオペラティヴァ 衛生陶器の光学検査のための装置
JP7219243B2 (ja) 2020-04-06 2023-02-07 医療法人社団皓有会 姿勢推定装置
JP2021165639A (ja) * 2020-04-06 2021-10-14 医療法人社団皓有会 姿勢推定装置
JP7310750B2 (ja) 2020-08-07 2023-07-19 トヨタ自動車株式会社 色味補正システム及び色味補正方法
JP2022030615A (ja) * 2020-08-07 2022-02-18 トヨタ自動車株式会社 色味補正システム及び色味補正方法
WO2024048426A1 (ja) * 2022-08-29 2024-03-07 リンクウィズ株式会社 製造システム、制御方法及び制御プログラム

Also Published As

Publication number Publication date
US20150160651A1 (en) 2015-06-11
JP6444027B2 (ja) 2018-12-26
US10234844B2 (en) 2019-03-19

Similar Documents

Publication Publication Date Title
JP6444027B2 (ja) 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP5567908B2 (ja) 3次元計測装置、その計測方法及びプログラム
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
JP6677522B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
CN108965690B (zh) 图像处理系统、图像处理装置及计算机可读存储介质
US9630322B2 (en) Information processing apparatus, method therefor, measurement apparatus, and working apparatus for estimating a position/orientation of a three-dimensional object based on relative motion
EP2543483A1 (en) Information processing apparatus and information processing method
JP2014169990A (ja) 位置姿勢計測装置及び方法
US20130054025A1 (en) Information processing apparatus, control method for information processing apparatus, and recording medium
JP2012123781A (ja) 情報処理装置、情報処理システム及び情報処理方法
JP2011027623A (ja) 位置姿勢計測方法及び装置
US11446822B2 (en) Simulation device that simulates operation of robot
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JP6626338B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
US10252417B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2015132523A (ja) 位置姿勢計測装置、位置姿勢計測方法及びプログラム
JP2011128020A (ja) 移動体位置推定装置及び移動体位置推定方法
JP6285765B2 (ja) 情報処理装置、情報処理方法
JP6766229B2 (ja) 位置姿勢計測装置及び方法
Madhusudanan Fast Eye-In-Hand 3D Scanner-Robot Calibration for Low Stitching Errors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180919

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181127

R151 Written notification of patent or utility model registration

Ref document number: 6444027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151