JP2017101946A - 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム - Google Patents

複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム Download PDF

Info

Publication number
JP2017101946A
JP2017101946A JP2015233181A JP2015233181A JP2017101946A JP 2017101946 A JP2017101946 A JP 2017101946A JP 2015233181 A JP2015233181 A JP 2015233181A JP 2015233181 A JP2015233181 A JP 2015233181A JP 2017101946 A JP2017101946 A JP 2017101946A
Authority
JP
Japan
Prior art keywords
orientation
model data
combination
degree
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015233181A
Other languages
English (en)
Other versions
JP6117901B1 (ja
Inventor
佐藤 大雅
Taiga Sato
大雅 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2015233181A priority Critical patent/JP6117901B1/ja
Priority to CN201610920742.5A priority patent/CN106826809B/zh
Priority to DE102016013986.2A priority patent/DE102016013986B4/de
Priority to US15/361,273 priority patent/US10055805B2/en
Application granted granted Critical
Publication of JP6117901B1 publication Critical patent/JP6117901B1/ja
Publication of JP2017101946A publication Critical patent/JP2017101946A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複数の物品の位置姿勢を正確に計測することができる位置姿勢計測装置、及び、該位置姿勢計測装置とロボットとを含み、該物品に対する該ロボットの作業を正確に行うことができるロボットシステムの提供。
【解決手段】位置姿勢計測装置22は、ワーク16の形状を表す3次元形状データをモデルデータとして記憶するモデルデータ記憶部38と、3次元センサ20から送られるシーンデータとモデルデータ記憶部38に記憶されているモデルデータとを照合することにより、複数のワーク16のそれぞれの検出と位置姿勢の計算を行う位置姿勢計算部40と、位置姿勢計算部40によって計算された位置姿勢の全ての組み合わせに対して評価値を計算し、評価値が最大となる位置姿勢の組み合わせを計測結果としてロボット制御装置14に送る組み合わせ評価部42とを有する。
【選択図】図3

Description

本発明は、複数の物品の位置及び姿勢を計測する位置姿勢計測装置に関し、さらに、該位置姿勢計測装置と、該複数の物品に対して作業を行うロボットとを有するロボットシステムに関する。
コンテナやパレット等の所定領域内に配置された複数の物品に対し、ロボットを用いた取り出し等の作業を行うロボットシステムでは、該作業を行う前に、作業対象となる物品の位置及び姿勢(以降、位置姿勢とも称する)を計測する作業が行われる。従来、この作業対象物品の位置姿勢を計測する種々の方法や装置が提案されている。
例えば特許文献1には、対象物の集合の3次元位置・姿勢データと、位置と姿勢を変化させた対象物の3次元モデルの位置・姿勢データとを比較して対象物を認識し、対象物の集合から、3次元モデルの位置・姿勢に一致度の高い対象物を決定するようにした、3次元位置・姿勢認識装置が記載されている。
また特許文献2には、スピンイメージ等の対象物体の特徴量に基づく高速な位置決めを行うことにより、対象物体の3次元形状データ(モデル)と、距離センサから得られる距離データ(シーン)とを照合して、対象物体の3次元的な位置姿勢を迅速に認識することを企図した物体認識装置が記載されており、さらに、物体認識装置から出力される位置姿勢情報を利用することによって、実際の物体の位置姿勢に沿ってロボットを迅速に動作させることができる旨が記載されている。
特開2010−210511号公報 特開2009−128191号公報
同じ形状の複数の物品が密着して配置されている、例えばバラ積み状態などでは、3次元モデルと計測データとの照合等によって各物品の位置姿勢を求めようとすると、同じ特徴が計測領域内に繰り返し出現するため、誤計測が発生しやすい(後述する図5に関する説明を参照)。このような誤った計測結果は、複数の物品同士の位置関係によって生じ得るものであり、特許文献1又は2に記載されているような、個々の物品に対する計測精度を向上させる技術では、解決することが困難であり、その結果、当該計測結果に基づくロボットによる物品の取出し作業も適切に行うことが困難となる。
そこで本発明は、複数の同種の物品がバラ積みされているような場合であっても、各物品の位置姿勢を正確に計測することができる位置姿勢計測装置、及び、該位置姿勢計測装置とロボットとを含み、該物品に対する該ロボットの作業を正確に行うことができるロボットシステムを提供することを目的とする。
上記目的を達成するために、本願第1の発明は、計測領域内に配置された複数の物品の位置姿勢を計測する位置姿勢計測装置であって、前記物品の形状情報をモデルデータとして記憶するモデルデータ記憶部と、前記計測領域内を計測し、前記複数の物品を含むシーンデータとして取得するセンサ部と、前記モデルデータと前記シーンデータとを照合し、前記複数の物品の位置姿勢を計算する位置姿勢計算部と、前記位置姿勢計算部によって計算された複数の位置姿勢から、単一の位置姿勢を含む位置姿勢の組み合わせを複数組選択し、選択された前記位置姿勢の組み合わせのそれぞれについて評価値を計算し、前記評価値が最大となった位置姿勢の組み合わせを、前記複数の物品の位置姿勢として出力する組み合わせ評価部と、を備える、位置姿勢計測装置を提供する。
第2の発明は、第1の発明において、前記組み合わせ評価部は、それぞれの物品の位置姿勢に前記モデルデータを配置し、配置された前記モデルデータと前記シーンデータとの一致度と、前記位置姿勢の組み合わせに含まれる全ての位置姿勢に前記モデルデータを配置したときに、配置された前記モデルデータ同士が重複する領域を計算することにより得られる重複度とを計算し、前記一致度及び前記重複度から前記評価値を計算する、位置姿勢計測装置を提供する。
第3の発明は、第2の発明において、前記モデルデータ記憶部は、前記物品の3次元モデルデータを前記形状情報として記憶し、前記組み合わせ評価部は、前記位置姿勢の組み合わせに含まれる全ての位置姿勢に前記モデルデータを配置したときに、配置された前記モデルデータ同士が重複する体積を、前記重複度として計算する、位置姿勢計測装置を提供する。
第4の発明は、第2又は第3の発明において、前記モデルデータ記憶部は、前記物品の3次元モデルデータを前記形状情報として記憶し、前記センサ部は、前記計測領域内の複数の対象物品の表面の3次元形状をシーンデータとして取得し、前記組み合わせ評価部は、それぞれの物品の位置姿勢に前記3次元モデルデータを配置したときに前記3次元モデルデータの表面と前記シーンデータとが一致する領域の面積、又は前記3次元モデルデータの表面と前記シーンデータとで対応する3次元点の個数を、前記一致度として計算する、位置姿勢計測装置を提供する。
第5の発明は、第2又は第4の発明において、前記センサ部は、前記計測領域内の複数の対象物品の画像を前記シーンデータとして取得し、前記組み合わせ評価部は、前記位置姿勢の組み合わせに含まれる全ての位置姿勢に前記モデルデータを配置したときに、前記画像上で前記モデルデータ同士が重複する面積を、前記重複度として計算する、位置姿勢計測装置を提供する。
第6の発明は、第2、第3又は第5の発明において、前記モデルデータ記憶部は、前記物品の形状情報から抽出した前記物品の特徴点の集合を記憶し、前記組み合わせ評価部は、前記シーンデータから特徴点を抽出し、前記位置姿勢に前記モデルデータを配置したときに前記モデルデータに含まれる特徴点と、前記シーンデータから抽出された特徴点とが一致した数を、前記一致度として計算する、位置姿勢計測装置を提供する。
第7の発明は、第1〜第6の発明のいずれか1つに係る位置姿勢計測装置と、前記複数の物品に対して作業を行うように構成されたロボットと、前記ロボットを制御するロボット制御装置と、を有するロボットシステムを提供する。
本発明に係る位置姿勢計測装置によれば、ワーク毎に求められた位置姿勢候補に対して計算される評価値ではなく、複数の位置姿勢候補に対して計算する評価値に基づいて位置姿勢候補を選択することができ、ワーク毎の位置姿勢候補を評価するだけでは判別の難しい誤計測が生じる可能性を大きく低減することができる。また、それぞれの位置姿勢候補に対する評価値とは異なる基準で誤計測を除去することが可能となるため、それぞれの位置姿勢に対する評価値の閾値を低く設定することができ、実在するにも関わらず計測結果として出力されない対象物品が発生する確率を低減することができる。
また上記位置姿勢計測装置を含むロボットシステムでは、ロボットが正しく作業を行う確率を改善することができる。特に、ロボットが計測領域内の全ての対象物品に作業を行う必要がある場合に、作業漏れが発生する確率を低減することができる。
本発明の第1の実施形態に係るロボットシステムの概略構成を示す図である。 単一のワークの形状の一例を示す図である。 図1の位置姿勢計測装置の機能ブロック図である。 図1のロボットシステムにおける処理の一例を示すフローチャートである。 複数のワークがバラ積み配置されている状態の一例を示す図である。 本発明の第2の実施形態に係るロボットシステムの概略構成を示す図である。
図1は、本発明の第1の実施形態に係るロボットシステム10の概略構成を示す図である。ロボットシステム10は、ロボット12と、ロボット12に接続されてロボット12を制御するロボット制御装置14と、ロボット12による作業対象物品(ワーク)16が存在する計測領域18を撮像し、ワーク16の表面の3次元形状をシーンデータとして取得するセンサ部(3次元センサ)20と、3次元センサ20に接続されるとともに、3次元センサ20が取得したシーンデータに基づいてワークの位置姿勢を計測するワーク位置姿勢計測部(位置姿勢計測装置)22とを有する。
ロボット12は、例えば6軸の多関節ロボットであり、ロボットアーム24等の可動部と、ロボットアーム24の先端に取り付けられたロボットハンド(グリッパ)26とを有し、所定の(図示例ではパレット28上の)作業領域18に配置された複数のワーク16を逐次的に(通常は1つずつ)、グリッパ26で把持して取出すことができるように構成されている。またロボット制御装置14は、位置姿勢計測部22が計測・出力したワーク16の位置姿勢に基づいて、ロボット12(ロボットアーム24及びグリッパ26の動作)を制御し、ワークの取出し作業を行う。
3次元センサ20は、計測範囲内に配置された複数のワーク16の表面形状のデータ(シーンデータ)を位置姿勢算出装置22に送る。3次元センサ20としては、種々の非接触方式のものが利用可能であり、例えば、カメラ2台を用いたステレオ方式、レーザスリット光を走査する方式、レーザスポット光を走査する方式、プロジェクタ等を用いてパターン光を物品に投影する方式、光が投光器から出射されてから物品表面で反射し受光器に入射するまでの時間を利用する方式、等のものが3次元センサ20として使用可能である。なお図1の例では、3次元センサ20は専用の架台30に固定されているが、ロボットアーム22等の可動部に取り付けてもよい。
図2は、単一のワーク16の形状の一例を示す図である。ワーク16は、円柱形状の大径部分32と、大径部分32より小径でかつ大径部分32と同軸に接続された小径部分34とを有し、小径部分34の軸方向端部には切欠き36が形成されている。本実施形態では、複数のワーク16は全て同一形状かつ同一寸法であるとするが、本発明はこれに限定されるものではない。
図3は、位置姿勢計測装置22の機能ブロック図である。位置姿勢計測装置22は、ワーク16の形状を表す3次元形状データ(形状情報)をモデルデータとして記憶するモデルデータ記憶部38と、3次元センサ20から送られるシーンデータとモデルデータ記憶部38に記憶されているモデルデータとを照合することにより、複数のワーク16のそれぞれの検出と位置姿勢の計算を行う位置姿勢計算部40と、位置姿勢計算部40によって計算された位置姿勢の全ての組み合わせに対して評価値を計算し、評価値が最大となる位置姿勢の組み合わせを計測結果としてロボット制御装置14に送る組み合わせ評価部42とを有する。なおモデルデータは、ワーク16のCADデータやCADデータから生成されるデータであってもよいし、3次元センサ20がワーク16の形状を測定することによって得られたデータから生成してもよい。
次に、ロボットシステム10における処理の流れについて、図4のフローチャートを参照しつつ説明する。先ず、ステップS101において、図1に示すように、計測領域18内(例えばパレット28上)に配置された複数(ここでは同一形状かつ同一寸法)のワーク16を3次元センサ20で計測し、計測領域18内の複数のワーク16の表面形状を含むシーンデータを取得する。取得したシーンデータは、位置姿勢計測装置22(の位置姿勢計算部40)に送信される。
次にステップS102において、位置姿勢計算部40が、送信されたシーンデータと、モデルデータ記憶部38に記憶されているモデルデータとを照合し、複数のワーク16の位置姿勢を算出する。
ステップS102に関し、モデルデータとシーンデータとを照合して、ワークの3次元位置姿勢を計算する方法には種々の方法があり、特段の制約はない。例えば、モデルデータの表面上の複数の3次元位置からPPF(Point Pair Feature)特徴量やSHOT(Signature of Histogram of Orientation)特徴量のような3次元特徴を計算しておき、計測データについても3次元特徴を計算し、シーンデータから同じ特徴量を持つ3次元位置を探索することにより、そこから位置姿勢を算出する方法がある。別の方法として、予め決められた探索位置範囲や探索姿勢範囲内でモデルデータの位置姿勢を変化させていき、モデルデータとシーンデータの表面が一致する領域を計算し、一致する領域の面積が所定値以上であれば、そのときの位置姿勢を算出結果として出力する方法もある。
次にステップS103において、組み合わせ評価部42が、位置姿勢計算部40によって計算された複数のワークのそれぞれの位置姿勢に対して、モデルデータ記憶部38に記憶されている3次元モデルデータを仮想的に配置し、モデルデータの表面とシーンデータとを照合して、両者が一致する領域の面積を一致度として計算する。なおシーンデータが3次元点群のような形で取得されている場合は、シーンデータとモデルデータの表面とで対応する(所定の誤差範囲内で合致する)3次元点の個数を一致度として計算する。組み合わせ評価部42はさらに、位置姿勢計算部40によって計算された位置姿勢の全てのペアに対し、モデルデータ記憶部38に記憶されているモデルデータを仮想的に配置し、モデルデータ同士が重複する領域の体積を重複度として計算する(ステップS104)。
次にステップS105において、組み合わせ評価部42は、位置姿勢計算部40によって計算された全ての位置姿勢から、評価値がまだ計算されていない位置姿勢の組み合わせを選択する。そしてステップS106において、選択された位置姿勢の組み合わせに対して、ステップS103で計算した一致度とステップ104で計算した重複度とのうち、選択した組み合わせに含まれるものを使用して組み合わせの評価値を計算する。そして、これまでに計算した組み合わせの評価値で最大のものよりも、現在選択している組み合わせの評価値の方が大きい場合は、現在選択している組み合わせを計測結果候補として組み合わせ評価部42又は適当なメモリ等に記憶(保持)する。
ステップS106に関し、組み合わせ評価部42は、位置姿勢計算部40によって計算された位置姿勢の全ての組み合わせに対して、それぞれの組み合わせに含まれる位置姿勢の一致度と位置姿勢同士の重複度とから、それぞれの組み合わせの評価値を計算する。より具体的には、選択されたワークの位置姿勢に対応する一致度と、選択されたワークの組み合わせに含まれる全てのペアに対応する重複度から、位置姿勢の組み合わせの評価値を計算する。この評価値の計算式の一例を以下の式(1)に示す。
Figure 2017101946
式(1)において、組み合わせCaの評価値Saは、例えば、組み合わせCaに含まれる位置姿勢xiの一致度f(xi)に重みk1を乗算したものから、組み合わせCaに含まれる2つの位置姿勢xi、xjの重複度g(xi,xj)に重みk2を乗算したものを減算することによって得られる。
上述の処理を、複数のワークが図5のような状態にバラ積み配置されている場合を一例として説明する。図5の例では、実際には3つのワーク16a、16b及び16cが存在するが、ワーク16bの大径部分32bとワーク16cの小径部分34cとが略同軸となるように当接している場合、従来の位置姿勢検出方法では、大径部分32bと小径部分34cからなる(実際には存在しない)ワークが、1つのワーク16dとして検出されることがある。この場合、ステップS102において検出されるワークの位置姿勢は4通りとなり、またそれらの組み合わせには、ワーク16dとワーク16bや、ワーク16dとワーク16cの組み合わせ等、ワーク16dを含む組み合わせも含まれる。
しかし、ワーク16d及びワーク16bを含む組み合わせについて評価値を計算すると、ワーク16dの大径部分はワーク16bの大径部分32bと同一なので、両者は重複することになり、結果として式(1)の評価値は比較的低い値となる。同様に、ワーク16d及びワーク16cを含む組み合わせについて評価値を計算すると、ワーク16dの小径部分はワーク16cの小径部分34cと同一なので、両者は重複することになり、結果として式(1)の評価値はやはり比較的低い値となる。
結果として、図5の例では、ワーク16a〜16dの位置姿勢の全ての組み合わせについて評価値をそれぞれ求めると、ワーク16a、16b及び16cを含む(ワーク16dを含まない)組み合わせの評価値が最も高い値となり、これが複数(この場合3つ)のワークの位置姿勢として位置姿勢計測部22からロボット制御装置14に送られる。従ってロボット12は、正しい計測結果に基づいてワークの取出しを行うことができる。
なお評価値を求める式は、上述の式(1)に限られない。例えば、計算された位置姿勢に、モデルデータ記憶部38に記憶されているモデルデータを仮想的に配置し、これをシーンデータと照合して、シーンデータと物理的に一致しない領域を計算し、計算された領域を組み合わせの評価値に組み込むこともできる。
第1の実施形態では、組み合わせ評価部42は位置姿勢計算部40によって計算された位置姿勢の全ての組み合わせに対して評価値を計算し、計測結果を出力するが、評価値を計算する組み合わせを、予め選択したものに限定してもよい。例えば、評価値を求める位置姿勢の組み合わせを、特定のワークを含む組み合わせに限定してもよいし、逆に特定のワークを含まない組み合わせに限定することもできる。また上述の式(1)は、2次整数計画問題に書き換えることができ、効率的に近似解を求めることもできる。
再び図4を参照し、ステップステップS107において、全ての組み合わせについて評価値の計算が完了しているか否かを判定し、完了している場合はステップS108に進む。一方、評価値の計算が完了していない組み合わせがある場合は、ステップS105に戻る。
ステップS108では、位置姿勢計測装置22が保持している計測結果候補(つまり評価値が最大のもの)が、計測結果としてロボット制御装置14に出力・転送される。そして次のステップS109では、ロボット制御装置14が、転送された計測結果に対応する位置姿勢に基づいて、ロボット12を制御し、グリッパ26で対象ワークを保持し、取り出す。
第1の実施形態では、それぞれの組み合わせについて求めた評価値が一致度及び重複度を含み、該評価値は一致度が高いほど高く、重複度が高いほど低くなるように設定されるので、一致度が高くても重複度も高い組み合わせは評価値が低くなり、ロボット制御装置14に送られる位置姿勢の組み合わせには採用されないようにすることができる。このように、位置姿勢計測装置22において、単一のワークの位置姿勢のみについてではなく、単一の位置姿勢を含むワークの位置姿勢の組み合わせについての評価値を求めることにより、図5に例示したような誤検出の発生を極力抑制することができる。従って、位置姿勢計測装置22が出力した位置姿勢に基づいてロボット制御装置14がロボット12を制御するロボットシステム10では、ロボット12が正確な位置姿勢情報に基づいてワーク16に対するハンドリング作業等を行うことができる。
また第1の実施形態では、計測領域内の複数のワーク16の表面の形状データであるシーンデータに対して、モデルデータが一致する領域の面積を一致度とすることで、シーンデータに対して一致する部分がより多くなるような位置姿勢候補の組み合わせが計測結果として得られる。これにより、ロボットが計測領域内の対象物品に対して作業漏れの確率を減少することができる。さらに、3次元形状データによってそれぞれ位置姿勢候補に配置したモデルデータ同士の重複する領域の体積を重複度とすることで、物理的に共存しえないような位置姿勢候補の組み合わせを判別することができ、不正な位置姿勢候補の組み合わせを正確に除去することができる。これにより、ロボットが正しく作業を行う確率を改善することができる。
図6は、本発明の第2の実施形態に係るロボットシステム10′の概略構成を示す図である。なお第2の実施形態では、第1の実施形態と異なる部分についてのみ説明し、第1の実施形態と同様の構成要素については同じ参照符号を付与して詳細な説明は省略する。
第2の実施形態では、取出し対象のワーク44は板金等の平面的な形状を有し、ロボット12の作業領域(計測領域)18内の平面上に複数配置されている。参照符号46は、ワークの2次元画像をシーンデータとして取得する2次元センサを示しており、例えば(1台の)カメラである。カメラ46は、計測領域18内の複数のワーク44の画像をシーンデータとして取得することができる。
位置姿勢計測装置22に含まれるモデルデータ記憶部38は、ワーク44をカメラ46で撮像して得られた2次元画像と、その2次元画像上のワーク44の領域をモデルデータとして保持(記憶)している。モデルデータ記憶部38はさらに、ワーク44の形状情報から抽出したワークの特徴点の集合も記憶している。
位置姿勢計測装置22の位置姿勢計算部40は、ワークのモデルデータとシーンデータとを照合することにより、各ワークの2次元画像上の位置姿勢を特定する。ここで、モデルデータとシーンデータを照合して、対象物品の2次元画像上の位置姿勢を算出する方法には種々の方法があり、特段の制約はない。例えば、モデルデータからSIFT(Scale Invariant Feature Transform)特徴やSURF(Speeded Up Robust Features)特徴のような画像特徴を計算しておき、シーンデータについても同様の画像特徴を計算し、両画像特徴間の対応関係を4つ以上求めることによって位置姿勢を算出する方法がある。
また位置姿勢計算部40は、ワーク44が配置されている平面(ここではパレット28の上面)の情報を保持しており、該情報と2次元画像上の各ワークの位置から、各ワーク44の3次元位置姿勢を特定することができる。
位置姿勢計測装置22の組み合わせ評価部42は、一致度を計算するために、モデルデータとシーンデータから画像のエッジ特徴(特徴点)を抽出する。そして組み合わせ評価部42は、位置姿勢計算部40によって計算された位置姿勢に、モデルデータ記憶部38に記憶されているモデルデータを仮想的に配置したときの該モデルデータに含まれるエッジ特徴の位置姿勢を計算し、シーンデータから抽出されたエッジ特徴と照合して、それぞれの位置姿勢に対する一致度を計算する。具体的には、ワーク44の3次元モデルの形状情報から抽出した特徴点と、シーンデータから抽出される特徴点とが一致した数を一致度とすることができる。
さらに、組み合わせ評価部42は、位置姿勢計算部40によって計算された位置姿勢に、モデルデータ記憶部38に記憶されているモデルデータを仮想的に配置し、位置姿勢のペアについて、モデルデータ記憶部38に記憶されているモデルデータの領域が、2次元センサにより得られた画像上で重複する面積を、重複度として計算する。
第2の実施形態では、ワーク44の各々が実質平面形状を有しているので、シーンデータを取得するセンサとして3次元センサを使用せずとも、比較的安価な2次元センサ(カメラ等)によって誤計測の少ないシステムを構築することができる。また、ワークの形状情報から抽出した特徴点とシーンデータから抽出した特徴点が一致した数を一致度とし、2次元画像上でモデルデータ同士が重複する面積を重複度とした評価値を計算することにより、正しい位置姿勢候補の組み合わせを計測結果として得ることができる。
なお第1及び第2の実施形態のそれぞれにおいて説明した一致度及び重複度の計算方法は、適宜組み合わせてももちろんよい。例えば、第1の実施形態で説明した一致度の計算方法と、第2の実施形態で説明した重複度の計算方法とを組み合わせることも可能である。
10 ロボットシステム
12 ロボット
14 ロボット制御装置
16、44 ワーク
20 3次元センサ
22 位置姿勢計測装置
38 モデルデータ記憶部
40 位置姿勢計算部
42 組み合わせ評価部
46 2次元センサ
上記目的を達成するために、本願第1の発明は、計測領域内に配置された複数の物品の位置姿勢を計測する位置姿勢計測装置であって、前記物品の形状情報をモデルデータとして記憶するモデルデータ記憶部と、前記計測領域内を計測し、前記複数の物品を含むシーンデータとして取得するセンサ部と、前記モデルデータと前記シーンデータとを照合し、前記複数の物品の位置姿勢を計算する位置姿勢計算部と、前記位置姿勢計算部によって計算された複数の位置姿勢から、位置姿勢の組み合わせを複数組選択し、選択された前記位置姿勢の組み合わせのそれぞれについて評価値を計算し、前記評価値が最大となった位置姿勢の組み合わせを、前記複数の物品の正しい位置姿勢の組み合わせとして出力する組み合わせ評価部と、を備える、位置姿勢計測装置を提供する。

Claims (7)

  1. 計測領域内に配置された複数の物品の位置姿勢を計測する位置姿勢計測装置であって、
    前記物品の形状情報をモデルデータとして記憶するモデルデータ記憶部と、
    前記計測領域内を計測し、前記複数の物品を含むシーンデータとして取得するセンサ部と、
    前記モデルデータと前記シーンデータとを照合し、前記複数の物品の位置姿勢を計算する位置姿勢計算部と、
    前記位置姿勢計算部によって計算された複数の位置姿勢から、単一の位置姿勢を含む位置姿勢の組み合わせを複数組選択し、選択された前記位置姿勢の組み合わせのそれぞれについて評価値を計算し、前記評価値が最大となった位置姿勢の組み合わせを、前記複数の物品の位置姿勢として出力する組み合わせ評価部と、
    を備える、位置姿勢計測装置。
  2. 前記組み合わせ評価部は、それぞれの物品の位置姿勢に前記モデルデータを配置し、配置された前記モデルデータと前記シーンデータとの一致度と、前記位置姿勢の組み合わせに含まれる全ての位置姿勢に前記モデルデータを配置したときに、配置された前記モデルデータ同士が重複する領域を計算することにより得られる重複度とを計算し、前記一致度及び前記重複度から前記評価値を計算する、請求項1に記載の位置姿勢計測装置。
  3. 前記モデルデータ記憶部は、前記物品の3次元モデルデータを前記形状情報として記憶し、
    前記組み合わせ評価部は、前記位置姿勢の組み合わせに含まれる全ての位置姿勢に前記モデルデータを配置したときに、配置された前記モデルデータ同士が重複する体積を、前記重複度として計算する、請求項2に記載の位置姿勢計測装置。
  4. 前記モデルデータ記憶部は、前記物品の3次元モデルデータを前記形状情報として記憶し、
    前記センサ部は、前記計測領域内の複数の対象物品の表面の3次元形状をシーンデータとして取得し、
    前記組み合わせ評価部は、それぞれの物品の位置姿勢に前記3次元モデルデータを配置したときに前記3次元モデルデータの表面と前記シーンデータとが一致する領域の面積、又は前記3次元モデルデータの表面と前記シーンデータとで対応する3次元点の個数を、前記一致度として計算する、請求項2又は3に記載の位置姿勢計測装置。
  5. 前記センサ部は、前記計測領域内の複数の対象物品の画像を前記シーンデータとして取得し、
    前記組み合わせ評価部は、前記位置姿勢の組み合わせに含まれる全ての位置姿勢に前記モデルデータを配置したときに、前記画像上で前記モデルデータ同士が重複する面積を、前記重複度として計算する、請求項2又は4に記載の位置姿勢計測装置。
  6. 前記モデルデータ記憶部は、前記物品の形状情報から抽出した前記物品の特徴点の集合を記憶し、
    前記組み合わせ評価部は、前記シーンデータから特徴点を抽出し、前記位置姿勢に前記モデルデータを配置したときに前記モデルデータに含まれる特徴点と、前記シーンデータから抽出された特徴点とが一致した数を、前記一致度として計算する、請求項2、3又は5に記載の位置姿勢計測装置。
  7. 請求項1〜6のいずれか1項に記載の位置姿勢計測装置と、
    前記複数の物品に対して作業を行うように構成されたロボットと、
    前記ロボットを制御するロボット制御装置と、を有するロボットシステム。
JP2015233181A 2015-11-30 2015-11-30 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム Active JP6117901B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015233181A JP6117901B1 (ja) 2015-11-30 2015-11-30 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
CN201610920742.5A CN106826809B (zh) 2015-11-30 2016-10-21 位置姿势测量装置以及机器人系统
DE102016013986.2A DE102016013986B4 (de) 2015-11-30 2016-11-23 Vorrichtung zum messen von positionen und stellungen einer mehrzahl von artikeln sowie die vorrichtung aufweisendes robotersystem
US15/361,273 US10055805B2 (en) 2015-11-30 2016-11-25 Device for measuring positions and postures of plurality of articles, and robot system having the device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015233181A JP6117901B1 (ja) 2015-11-30 2015-11-30 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム

Publications (2)

Publication Number Publication Date
JP6117901B1 JP6117901B1 (ja) 2017-04-19
JP2017101946A true JP2017101946A (ja) 2017-06-08

Family

ID=58667144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015233181A Active JP6117901B1 (ja) 2015-11-30 2015-11-30 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム

Country Status (4)

Country Link
US (1) US10055805B2 (ja)
JP (1) JP6117901B1 (ja)
CN (1) CN106826809B (ja)
DE (1) DE102016013986B4 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020194443A (ja) * 2019-05-29 2020-12-03 株式会社マーケットヴィジョン 画像処理システム

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP6589847B2 (ja) * 2016-12-26 2019-10-16 株式会社ダイフク 物品積載設備
CN110740841B (zh) * 2017-06-13 2023-10-27 川崎重工业株式会社 作业系统
JP6897396B2 (ja) * 2017-07-28 2021-06-30 セイコーエプソン株式会社 制御装置、ロボットシステムおよび制御方法
JP6695843B2 (ja) 2017-09-25 2020-05-20 ファナック株式会社 装置、及びロボットシステム
US11504853B2 (en) * 2017-11-16 2022-11-22 General Electric Company Robotic system architecture and control processes
CN109814492B (zh) * 2017-11-22 2024-05-14 发那科株式会社 工具姿势控制装置
JP6937995B2 (ja) * 2018-04-05 2021-09-22 オムロン株式会社 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法
US10967507B2 (en) * 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
JP7057214B2 (ja) 2018-05-18 2022-04-19 トヨタ自動車株式会社 把持装置、タグが付された容器、対象物把持プログラムおよび対象物把持方法
JP7031540B2 (ja) 2018-09-07 2022-03-08 オムロン株式会社 対象物認識装置、マニピュレータ、および移動ロボット
CN111185900B (zh) * 2018-11-14 2023-08-29 科沃斯机器人股份有限公司 机器人控制方法及清洁机器人
US11046519B2 (en) 2019-02-25 2021-06-29 Rehrig Pacific Company Delivery system
CN112584986A (zh) * 2019-03-15 2021-03-30 欧姆龙株式会社 参数调整装置、参数调整方法以及程序
JP7186128B2 (ja) * 2019-04-24 2022-12-08 株式会社日立製作所 物品認識システムおよび物品認識方法
JP7316134B2 (ja) * 2019-07-22 2023-07-27 ファナック株式会社 位置姿勢特定装置、位置姿勢特定方法及び位置姿勢特定プログラム
CN112711249B (zh) * 2019-10-24 2023-01-03 科沃斯商用机器人有限公司 机器人定位方法、装置、智能机器人和存储介质
US11922253B2 (en) 2020-04-20 2024-03-05 Rehrig Pacific Company Camera enabled portal
US11823440B2 (en) 2021-08-19 2023-11-21 Rehrig Pacific Company Imaging system with unsupervised learning
CA3181434A1 (en) 2021-11-01 2023-05-01 Rehrig Pacific Company Delivery system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090033655A1 (en) * 2007-08-02 2009-02-05 Boca Remus F System and method of three-dimensional pose estimation
JP2009129189A (ja) * 2007-11-22 2009-06-11 Ihi Corp 物体認識方法
JP2012163450A (ja) * 2011-02-07 2012-08-30 Ihi Corp 形状認識装置、形状認識方法、および、そのプログラム
JP2014160370A (ja) * 2013-02-20 2014-09-04 Kyushu Institute Of Technology 物体検出方法および物体検出装置
US20150262012A1 (en) * 2014-03-12 2015-09-17 Electronics And Telecommunications Research Institute Object picking system, object detecting device, object detecting method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0204516A3 (en) * 1985-06-04 1990-01-31 Adept Technology, Inc. Vision system for distinguishing touching parts
JP5092711B2 (ja) * 2007-11-22 2012-12-05 株式会社Ihi 物体認識装置およびロボット装置
JP5544464B2 (ja) * 2009-03-11 2014-07-09 本田技研工業株式会社 対象物の3次元位置・姿勢認識装置及びその方法
JP4940461B2 (ja) * 2010-07-27 2012-05-30 株式会社三次元メディア 3次元物体認識装置及び3次元物体認識方法
JP5977544B2 (ja) * 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP6004809B2 (ja) * 2012-03-13 2016-10-12 キヤノン株式会社 位置姿勢推定装置、情報処理装置、情報処理方法
JP6415026B2 (ja) * 2013-06-28 2018-10-31 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090033655A1 (en) * 2007-08-02 2009-02-05 Boca Remus F System and method of three-dimensional pose estimation
JP2009129189A (ja) * 2007-11-22 2009-06-11 Ihi Corp 物体認識方法
JP2012163450A (ja) * 2011-02-07 2012-08-30 Ihi Corp 形状認識装置、形状認識方法、および、そのプログラム
JP2014160370A (ja) * 2013-02-20 2014-09-04 Kyushu Institute Of Technology 物体検出方法および物体検出装置
US20150262012A1 (en) * 2014-03-12 2015-09-17 Electronics And Telecommunications Research Institute Object picking system, object detecting device, object detecting method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
秋月 秀一, 橋本 学: "特徴的3−Dベクトルペアマッチングによるバラ積み部品の高速認識", 情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM), vol. 2012−CVIM−182−15, JPN6016046959, 16 May 2012 (2012-05-16), JP, pages 1 - 7, ISSN: 0003507228 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020194443A (ja) * 2019-05-29 2020-12-03 株式会社マーケットヴィジョン 画像処理システム

Also Published As

Publication number Publication date
US20170154397A1 (en) 2017-06-01
DE102016013986B4 (de) 2019-01-31
JP6117901B1 (ja) 2017-04-19
CN106826809B (zh) 2018-04-10
US10055805B2 (en) 2018-08-21
CN106826809A (zh) 2017-06-13
DE102016013986A1 (de) 2017-06-01

Similar Documents

Publication Publication Date Title
JP6117901B1 (ja) 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
EP3550470B1 (en) Object recognition processing apparatus and method, and object picking apparatus and method
US10894324B2 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
JP4226623B2 (ja) ワーク取り出し装置
KR100693262B1 (ko) 화상 처리 장치
JP6529302B2 (ja) 情報処理装置、情報処理方法、プログラム
CN106808472B (zh) 工件位置姿势计算装置以及搬运系统
JP5088278B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
JP6703812B2 (ja) 3次元物体検査装置
JP2013036988A (ja) 情報処理装置及び情報処理方法
US20180247150A1 (en) Information processing device, information processing method, and article manufacturing method
US11654571B2 (en) Three-dimensional data generation device and robot control system
JP6747665B2 (ja) ロボット
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JP6192088B2 (ja) 物体検出方法および物体検出装置
CN111745640A (zh) 物体检测方法、物体检测装置以及机器人系统
CN109983299A (zh) 工业机器人的测量系统和方法
JP2011093058A (ja) 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム
Kang et al. Robotic vision system for random bin picking with dual-arm robots
JP2011174891A (ja) 位置姿勢計測装置、位置姿勢計測方法、及びプログラム
JP6644846B1 (ja) ワークの位置姿勢認識装置およびピッキングシステム
JP2003141511A (ja) 3次元形状認識方法、装置およびプログラム
US11436754B2 (en) Position posture identification device, position posture identification method and position posture identification program
WO2023188407A1 (ja) ロボットシステム
JP6766229B2 (ja) 位置姿勢計測装置及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170323

R150 Certificate of patent or registration of utility model

Ref document number: 6117901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150