JP2021016922A - 三次元データ生成装置及びロボット制御システム - Google Patents

三次元データ生成装置及びロボット制御システム Download PDF

Info

Publication number
JP2021016922A
JP2021016922A JP2019134552A JP2019134552A JP2021016922A JP 2021016922 A JP2021016922 A JP 2021016922A JP 2019134552 A JP2019134552 A JP 2019134552A JP 2019134552 A JP2019134552 A JP 2019134552A JP 2021016922 A JP2021016922 A JP 2021016922A
Authority
JP
Japan
Prior art keywords
virtual
dimensional data
work
visual sensor
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019134552A
Other languages
English (en)
Other versions
JP7376268B2 (ja
Inventor
寛之 米山
Hiroyuki Yoneyama
寛之 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2019134552A priority Critical patent/JP7376268B2/ja
Priority to US16/920,755 priority patent/US11654571B2/en
Priority to DE102020118635.5A priority patent/DE102020118635A1/de
Priority to CN202010691324.XA priority patent/CN112276936B/zh
Publication of JP2021016922A publication Critical patent/JP2021016922A/ja
Application granted granted Critical
Publication of JP7376268B2 publication Critical patent/JP7376268B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Manipulator (AREA)

Abstract

【課題】ワーク検出用マスタデータの作成工数を低減すると共に、高速なマッチング処理を実現するワーク検出用マスタデータを提供する。【解決手段】三次元データ生成装置1は、仮想ワーク21の一部が仮想視覚センサ22の撮像範囲26に収まるように仮想ワーク21及び仮想視覚センサ22を仮想空間20上に配置する仮想空間配置部10と、配置した仮想ワーク21と仮想視覚センサ22と間の配置関係を計算する配置関係計算部11と、計算した配置関係に基づき、撮像範囲26に収まるワークの部分形状を表す部分三次元データ28を生成する部分三次元データ生成部12と、を備える。【選択図】図1

Description

本発明は、三次元データ生成装置及びロボット制御システムに関し、特にロボットビジョンにおけるワーク検出用マスタデータとしてワークの部分三次元データをオフラインで生成する三次元データ生成装置及びロボット制御システムに関する。
産業用ロボットの制御に活用されているロボットビジョンでは、視覚センサで取得したデータの中からワークを検出することにより、予め教示したロボットの位置及び姿勢の少なくとも一方を補正したり、ロボットの位置及び姿勢の少なくとも一方を直接教示したりすることが行われている。ワーク検出方法としてはパターンマッチングが広く採用されており、パターンマッチングではワーク検出用マスタデータとして二次元パターン又は三次元パターンが利用されている。三次元パターンは、ワークの回転、スケール変化だけでなく、輝度値の変化に対してもロバストにワークを検出できる点で、二次元パターンより優れている。
三次元パターンとしては、ワークの全体形状を表す全体三次元データの他、ワークの部分形状を表す部分三次元データが利用されている。部分三次元データは、高速なマッチング処理を可能にするだけでなく、近年行われてきたバラ積みピッキングのようなワーク同士が重なり合う場面でも、高精度なマッチング処理を実現している。本願に関連する技術としては、後述の文献が公知である。
特許文献1には、教示したモデルパターンに幾何学的変換を施した変換モデルパターンを使ってパターンマッチングを行うことにより、平行移動、回転移動、拡大縮小に加え、三次元的に異なる相対姿勢の対象物も認識できることが記載されている。
特許文献2には、バラ積みされた複数のワークの中から1つずつワークをロボットで取出す場合に、ワークの代表的な部分形状と、この部分形状に適した把持位置の優先順位を記憶しておくことにより、バラ積みされたワークの把持位置を短時間で決定して迅速にワークの取出しを行うことが記載されている。また、優先順位の高い把持位置を選択することにより、取出しを行うワークと他のワークとの引っ掛かりを防止することも記載されている。
特許文献3には、ワーク全体を形状モデルとして登録せずに、ワークの一部を形状モデルとしてワークを検出することにより、検出の画像処理時間を高速化し、ワークの位置姿勢を決定することが記載されている。
特許文献4には、ステレオカメラ等の三次元視覚センサの設定内容が適切であるか否かを容易に確認するため、撮像手段で取得した認識対象物の少なくとも一部分のエッジの三次元情報と、認識対象物の全体を表す三次元モデルとを、撮像手段の座標系に透視変換し、透視変換した認識対象物のエッジの投影像と三次元モデルの投影像を照合可能な態様で表示することが記載されている。
特許文献5には、山積みされた複数の物体に対する距離情報を取得し、距離情報と物体の部分的な形状を表す部分モデルとに基づいて計測対象物体の位置姿勢を導出し、物体の全体形状を表す全体モデルに基づいて計測対象物体と計測対象物体を格納する容器との間に干渉が生じるかを判定することが記載されている。
特許文献6には、ロボットビジョンを用いたバラ積みピッキングにおいて、複数のサーチモデルを用いた三次元サーチを行って入力画像中から各ワークの位置姿勢を特定し、三次元サーチに成功したサーチモデルに対応するワーク表面の位置姿勢に加えて、三次元サーチに失敗したサーチモデル又はサーチの信頼性が低いサーチモデルに対応するワーク表面の位置姿勢も特定し、把持候補位置として利用可能にすることが記載されている。
特開2004−295223号公報 特開2010−89238号公報 特開2010−184308号公報 特開2010−211746号公報 特開2016−179534号公報 特開2018−144167号公報
ワーク検出用マスタデータとして登録するワークの三次元データは、オンライン又はオフラインでロボットに教示されている。オンライン教示の場合には、実機である実ロボット、実視覚センサ、実ワーク等を用意し、ワークの三次元データを生成するものの、ワークの光沢、照明、外光等の影響に起因してワークの三次元データを精度良く生成できないことがある。従って、教示者の試行錯誤を要し、工数が掛かるという問題がある。
他方、オフライン教示の場合には、一般にワークのCAD(computer-aided design)データを用意し、ソフトウェア上でCADデータからワーク検出用マスタデータを生成するため、教示者の手間を軽減する。ところが、ワークの全体形状を表す全体三次元データでは、マッチング処理が遅くなるだけでなく、バラ積みピッキングのような一部のアプリケーションには適用できないことがある。また、ワークの部分形状を表す部分三次元データであっても、部分三次元データの大きさに対して視覚センサの撮像範囲が広い場合には、マッチング処理に時間を要することになる。
そこで、ワーク検出用マスタデータの作成工数を低減すると共に、高速なマッチング処理を実現するワーク検出用マスタデータを提供する技術が求められている。
本開示の一態様は、仮想ワークの一部が仮想視覚センサの撮像範囲に収まるように仮想ワーク及び仮想視覚センサを仮想空間上に配置する仮想空間配置部と、配置した仮想ワークと仮想視覚センサと間の配置関係を計算する配置関係計算部と、計算した配置関係に基づき、撮像範囲に収まるワークの部分形状を表す部分三次元データを生成する部分三次元データ生成部と、を備える、三次元データ生成装置を提供する。
本開示の一態様によれば、オンライン教示の場合と比べ、ワーク検出用マスタデータを概ね自動で生成できるため、教示者の試行錯誤を必要とせず、ワーク検出用マスタデータの作成工数を低減できる。また、仮想視覚センサの撮像範囲に収まるワークの部分三次元データを生成することにより、ワークと視覚センサとの間の配置関係へロボットを移動さえすれば、制限された撮像範囲の中からワークを迅速に検出できることとなる。従って、高速なマッチング処理を実現可能なワーク検出用マスタデータを提供できる。
一実施形態における三次元データ生成装置の構成図である。 仮想ワーク、仮想視覚センサ、及び仮想ロボットの配置例を示す斜視図である。 仮想ワーク、仮想視覚センサ、及び仮想ロボットの配置例を示す斜視図である。 部分三次元データの生成例を示す斜視図である。 部分三次元データの生成例を示す斜視図である。 一実施形態における三次元データ生成装置のフローチャートである。 予め設定した撮像範囲の一例を示す斜視図である。 視覚センサの仕様に応じて変更した撮像範囲の一例を示す斜視図である。 視覚センサの仕様に応じて変更した撮像範囲の一例を示す斜視図である。 ワーク検出位置への移動前及び移動後のロボットの一例を示す斜視図である。 ワーク検出位置への移動前及び移動後のロボットの一例を示す斜視図である。
以下、添付図面を参照して本開示の実施形態を詳細に説明する。各図面において、同一又は類似の構成要素には同一又は類似の符号が付与されている。また、以下に記載する実施形態は、特許請求の範囲に記載される発明の技術的範囲及び用語の意義を限定するものではない。本書において、「ワーク」、「視覚センサ」、及び「ロボット」と単に表記する場合には、「仮想ワーク」と「実ワーク」、「仮想視覚センサ」と「実視覚センサ」、並びに「仮想ロボット」と「仮想ワーク」を夫々含むことに留意されたい。また、本書において、「三次元モデル」とは、物体の面情報を少なくとも含む三次元データを意味し、「三次元エッジ」とは、物体の面情報を含まず、物体の辺情報を少なくとも含む三次元データを意味し、「三次元点群データ」とは、物体の面情報及び辺情報を含まず、物体の点情報を少なくとも含むデータを意味することに留意されたい。
図1は、本実施形態における三次元データ生成装置1の構成を示している。三次元データ生成装置1は、CPU(central processing unit)、FPGA(field-programmable gate array)等のプロセッサを備えた公知のコンピュータ装置で構成される。三次元データ生成装置1は、ロボット制御装置(図示せず。)とは別個のオフライン教示装置であるが、ロボット制御装置と一体化して構成してもよい。また、三次元データ生成装置1は、生成したデータをロボット制御装置に渡すため、有線又は無線を介してロボット制御装置と通信可能に構成されるが、外部メモリを介してロボット制御装置へデータを渡してもよい。図1に示す三次元データ生成装置1の構成要素「〜部」は、機能ブロック又は機能セクションを表すことに留意されたい。
三次元データ生成装置1は、仮想空間配置部10、配置関係計算部11、及び部分三次元データ生成部12を備えている。仮想空間配置部10は、仮想ワーク、仮想視覚センサ、仮想ロボット等の全体形状を表す全体三次元データをメモリから夫々読出し、仮想空間上に配置する。全体三次元データとしては、三次元モデル、三次元エッジ、又は三次元点群データでもよい。三次元モデルは、例えばCADデータ、ポリゴンデータ等でよく、三次元エッジは、例えばワイヤフレームデータ等でよく、三次元点群データは、例えばTOF(time of flight)カメラ、レーザスキャナ等で生成した点群データ等でよい。
図2A−図2Bは、仮想ワーク21、仮想視覚センサ22、及び仮想ロボット23の配置例を示している。仮想空間配置部10は、仮想ワーク21の一部が仮想視覚センサ22の撮像範囲に収まるように仮想ワーク21及び仮想視覚センサ22を仮想空間20上に配置する。図2Aに示す例では、仮想視覚センサ22が仮想ロボット23のエンドエフェクタ、例えばハンド24の近傍に配置されているのに対し、図2Bに示す例では、仮想視覚センサ22が仮想ロボット23とは別個の位置、例えば固定構造体25に固定されている点に留意されたい。仮想視覚センサ22は二次元センサでもよいし又は三次元センサでよい。二次元センサは、例えばCCD(charge-coupled device)カメラ、CMOS(complementary metal-oxide-semiconductor)カメラ等でよく、三次元センサは、例えばステレオカメラ、TOFカメラ、レーザスキャナ等でよい。仮想空間20上に、仮想空間20の原点O1、仮想ワーク21の原点O2、仮想視覚センサ22の原点O3、及び仮想ロボット23の原点O4を夫々設定し、原点O1−O4を中心とした各直交座標系の間で三次元データを座標変換できるように構成する。
図1を再び参照すると、配置関係計算部11は、配置した仮想ワーク21と仮想視覚センサ22との間の配置関係を計算する。配置関係は、例えば仮想視覚センサ22の位置及び姿勢の少なくとも一方に対する仮想ワーク21の位置及び姿勢の少なくとも一方でもよいし、又は仮想ワーク21の位置及び姿勢の少なくとも一方に対する仮想視覚センサ22の位置及び姿勢の少なくとも一方でもよい。
部分三次元データ生成部12は、計算した配置関係に基づき、仮想視覚センサ22の撮像範囲に収まるワークの部分三次元データを生成する。図3−図4は、部分三次元データ28の生成例を示している。撮像範囲26は、予め用意した三次元モデルでよく、図3に示す例では、撮像範囲26が四角錐の形状を呈している。仮想ワーク21が例えば三次元モデルである場合には、撮像範囲26の三次元モデルの各面と仮想ワーク21の三次元モデルの各面との交差線を夫々求め、求めた交差線に基づき仮想ワーク21の部分三次元モデル27を切出し、仮想視覚センサ22の各画素から延びる視線(図示せず。)と部分三次元モデル27の各面との交点を求め、求めた交点の三次元点群データをワークの部分三次元データ28として生成することができる。又は、切出した部分三次元モデル27自体をワークの部分三次元データとして生成してもよい。
また部分三次元データの生成手法の変形例として、仮想ワーク21が例えば三次元エッジである場合には、撮像範囲26の三次元モデルの各面と仮想ワーク21の三次元エッジの各辺との交差点を夫々求め、求めた交差点に基づき仮想ワーク21の部分三次元エッジを切出し、切出した部分三次元エッジ自体を部分三次元データとして生成してもよい。
部分三次元データの生成手法の他の変形例として、ワークの部分三次元モデル又は部分三次元エッジを切出さずに、仮想視覚センサ22の各画素から延びる視線(図示せず。)と仮想ワーク21の全体三次元モデルの各面との交点を求め、求めた交点の三次元点群データをワークの部分三次元データ28として直接生成することも可能である。
部分三次元データの生成手法の別の変形例として、仮想ワーク21が例えば三次元点群データである場合には、撮像範囲26の三次元モデルに収まる三次元点群データをワークの部分三次元データ28として直接生成してもよい。仮想ワーク21の三次元点群データの点間ピッチが仮想視覚センサ22の各画素から延びる視線間ピッチに一致しない場合には、仮想ワーク21の点間ピッチを仮想視覚センサ22の視線間ピッチに一致させる処理を行うことが望ましい。
図5は三次元データ生成装置1のフローチャートを示している。このフローチャートに従って記述されるプログラムは三次元データ生成装置1のプロセッサで実行されることに留意されたい。ステップS10では、仮想ワーク21、仮想視覚センサ22、及び仮想ロボット23等の全体形状を表す三次元データをメモリに読出し、仮想ワーク21の一部が仮想視覚センサ22の撮像範囲26に収まるように仮想ワーク21及び仮想視覚センサ22を仮想空間20上に配置する。ステップS11では、配置した仮想ワーク21と仮想視覚センサ22との間の配置関係を計算する。ステップS12では、計算した配置関係に基づき、撮像範囲26に収まるワークの部分三次元データ28を生成する。部分三次元データの生成手法は前述の通りである。
図1を再び参照すると、三次元データ生成装置1は、撮像範囲設定部13及び撮像範囲表示部14をさらに備えていてもよい。撮像範囲設定部13は、仮想視覚センサ22の撮像範囲26の設定画面をモニタ上に表示させ、撮像範囲26を教示者に設定させる。図6は、設定した撮像範囲26の一例を示している。撮像範囲26の形状は、仮想視覚センサ22の種類によって様々であるため、視覚センサの仕様に応じて変更可能にしてもよい。視覚センサの仕様は、例えば視覚センサの画素数、焦点距離(又は画角)、視覚センサからワークまでの推奨距離のうちの少なくとも1つを含む。図7A−図7Bは、視覚センサの仕様に応じて変更した撮像範囲26の一例を示している。図7Aに示す例では、視覚センサの焦点距離に応じて画角が狭くなっていてワークまでの推奨距離が遠くなっているのに対し、図7Bに示す例では、視覚センサの焦点距離に応じて画角が広くなっていてワークまでの推奨距離が近くなっている。撮像範囲表示部14は、設定又は変更した撮像範囲26をモニタ上に表示させ、教示者に撮像範囲26を確認させる。
図1を再び参照すると、三次元データ生成装置1は、移動プログラム生成部15をさらに備えていてもよい。移動プログラム生成部15は、計算した配置関係に基づき、視覚センサによるワーク検出位置へロボットを移動させる移動プログラムを生成する。図8A−図8Bは、ワーク検出位置への移動前(破線で示す。)及び移動後(実線で示す。)のロボットの一例を示している。図8Aに示す例では、視覚センサ22がロボット23のエンドエフェクタ、例えばハンド24の近傍に配置されていて、ロボット23が移動プログラムに従って移動することにより、ハンド24の近傍に配置した視覚センサ22をワーク21との配置関係へ移動させていることに留意されたい。また図8Bに示すでは、視覚センサ22がロボット23とは別個の位置、例えば固定構造体25に固定されていて、ロボット23が移動プログラムに従って移動することにより、ハンド24で把持したワーク21を視覚センサ22との配置関係へ移動させていることに留意されたい。移動プログラムにより、仮想空間でのワーク検出シミュレーションと、実機によるワーク検出処理との双方を実施することが可能になる。また、移動プログラムによってワーク21と視覚センサ22のとの間の配置関係へロボット23を移動さえすれば、制限された撮像範囲26の中からワークを迅速に検出できることとなる。
図1を再び参照すると、三次元データ生成装置1は、データ送信部16をさらに備えていてもよい。データ送信部16は、生成したデータ、例えば前述の配置関係、部分三次元データ、及び移動プログラムのうちの少なくとも1つをロボット制御装置(図示せず。)へ送信する。受信したワークの部分三次元データは、ロボット制御装置でワーク検出用マスタデータとして登録される。ロボット制御装置は、受信した移動プログラムに従って実視覚センサによる実ワークの検出位置へ実ロボットを移動させ、受信した部分三次元データに基づき実視覚センサで取得したデータの中から実ワークを検出すると共に、検出した実ワークの位置及び姿勢の少なくとも一方に基づき実ロボットの位置及び姿勢の少なくとも一方を制御する。また、データ生成装置1がロボット制御装置と一体化して構成される場合には、ロボット制御装置自体が、前述の配置関係、部分三次元データ、及び移動プログラムのうちの少なくとも1つをソフトウェア上で、即ちオフラインで生成してもよい。
前述した実施形態によれば、オンライン教示の場合と比べ、ワーク検出用マスタデータを概ね自動で生成できるため、教示者の試行錯誤を必要とせず、ワーク検出用マスタデータの作成工数を低減できる。また、仮想視覚センサの撮像範囲に収まるワークの部分三次元データを生成することにより、ワークと視覚センサとの間の配置関係へロボットを移動さえすれば、制限された撮像範囲の中からワークを迅速に検出できることとなる。従って、高速なマッチング処理を実現可能なワーク検出用マスタデータを提供できる。
前述のプロセッサによって実行されるプログラムは、コンピュータ読取り可能な非一時的記録媒体、例えばCD−ROM等に記録して提供してもよい。
本明細書において種々の実施形態について説明したが、本発明は、前述の実施形態に限定されるものではなく、以下の特許請求の範囲に記載された範囲内において種々の変更を行えることを認識されたい。
1 三次元データ生成装置
10 仮想空間配置部
11 配置関係計算部
12 部分三次元データ生成部
13 撮像範囲設定部
14 撮像範囲表示部
15 移動プログラム生成部
16 データ送信部
20 仮想空間
21 仮想ワーク又はワーク
22 仮想視覚センサ又は視覚センサ
23 仮想ロボット又はロボット
24 ハンド
25 固定構造体
26 撮像範囲
27 部分三次元モデル
28 部分三次元データ
O1 仮想空間の原点
O2 仮想ワークの原点
O3 仮想視覚センサの原点
O4 仮想ロボットの原点

Claims (14)

  1. 仮想ワークの一部が仮想視覚センサの撮像範囲に収まるように前記仮想ワーク及び前記仮想視覚センサを仮想空間上に配置する仮想空間配置部と、
    配置した前記仮想ワークと前記仮想視覚センサとの間の配置関係を計算する配置関係計算部と、
    計算した前記配置関係に基づき、前記撮像範囲に収まるワークの部分形状を表す部分三次元データを生成する部分三次元データ生成部と、
    を備える、三次元データ生成装置。
  2. 前記部分三次元データ生成部は、前記撮像範囲に収まる前記ワークの部分形状を表す部分三次元モデルを切出し、前記部分三次元モデルから前記部分三次元データを生成する、請求項1に記載の三次元データ生成装置。
  3. 前記撮像範囲を設定する撮像範囲設定部をさらに備える、請求項1又は2に記載の三次元データ生成装置。
  4. 前記撮像範囲は視覚センサの仕様に応じて変更可能である、請求項3に記載の三次元データ生成装置。
  5. 前記視覚センサの仕様は、前記視覚センサの画素数、焦点距離、及び前記視覚センサからワークまでの推奨距離のうちの少なくとも1つを含む、請求項4に記載の三次元データ生成装置。
  6. 前記撮像範囲を表示する撮像範囲表示部をさらに備える、請求項1から5のいずれか一項に記載の三次元データ生成装置。
  7. 前記配置関係に基づき、視覚センサによるワーク検出位置へロボットを移動させる移動プログラムを生成する移動プログラム生成部をさらに備える、請求項1から6のいずれか一項に記載の三次元データ生成装置。
  8. 前記配置関係、前記部分三次元データ、及び前記移動プログラムのうちの少なくとも一つをロボット制御装置へ送信するデータ送信部をさらに備える、請求項7に記載の三次元データ生成装置。
  9. 前記仮想視覚センサは、仮想ロボットのエンドエフェクタの近傍に設置されるか、又は前記仮想ロボットとは別個の位置に固定される、請求項1から8のいずれか一項に記載の三次元データ生成装置。
  10. 前記仮想視覚センサは二次元センサ又は三次元センサを含む、請求項1から9のいずれか一項に記載の三次元データ生成装置。
  11. 前記仮想ワーク、前記仮想視覚センサ、前記撮像範囲、又は前記部分三次元データは、三次元モデル、三次元エッジ、又は三次元点群で構成される、請求項1から10のいずれか一項に記載の三次元データ生成装置。
  12. 実ワーク、実視覚センサ、実ロボット、ロボット制御装置、及び請求項7又は8に記載の三次元データ生成装置を備え、
    前記ロボット制御装置は、前記移動プログラムに従って前記実視覚センサによる前記実ワークの検出位置へ前記実ロボットを移動させる、ロボット制御システム。
  13. 実ワーク、実視覚センサ、実ロボット、ロボット制御装置、及び請求項1から11のいずれか一項に記載の三次元データ生成装置を備え、
    前記ロボット制御装置は、前記部分三次元データに基づき前記実視覚センサで取得したデータの中から前記実ワークを検出し、検出した前記実ワークの位置及び姿勢の少なくとも一方に基づき前記実ロボットの位置及び姿勢の少なくとも一方を制御する、ロボット制御システム。
  14. 前記三次元データ生成装置は前記ロボット制御装置と一体化して構成されており、前記ロボット制御装置が、前記配置関係、前記部分三次元データ、及び前記移動プログラムのうちの少なくとも1つをオフラインで生成する、請求項12に記載のロボット制御システム。
JP2019134552A 2019-07-22 2019-07-22 三次元データ生成装置及びロボット制御システム Active JP7376268B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019134552A JP7376268B2 (ja) 2019-07-22 2019-07-22 三次元データ生成装置及びロボット制御システム
US16/920,755 US11654571B2 (en) 2019-07-22 2020-07-06 Three-dimensional data generation device and robot control system
DE102020118635.5A DE102020118635A1 (de) 2019-07-22 2020-07-15 3D-Datenerzeugungsvorrichtung und Robotersteuersystem
CN202010691324.XA CN112276936B (zh) 2019-07-22 2020-07-17 三维数据生成装置以及机器人控制系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019134552A JP7376268B2 (ja) 2019-07-22 2019-07-22 三次元データ生成装置及びロボット制御システム

Publications (2)

Publication Number Publication Date
JP2021016922A true JP2021016922A (ja) 2021-02-15
JP7376268B2 JP7376268B2 (ja) 2023-11-08

Family

ID=74098746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019134552A Active JP7376268B2 (ja) 2019-07-22 2019-07-22 三次元データ生成装置及びロボット制御システム

Country Status (4)

Country Link
US (1) US11654571B2 (ja)
JP (1) JP7376268B2 (ja)
CN (1) CN112276936B (ja)
DE (1) DE102020118635A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113450379A (zh) * 2021-07-02 2021-09-28 湖南国天电子科技有限公司 一种异形工件断面轮廓线提取和分析方法和装置
CN117565062A (zh) * 2024-01-16 2024-02-20 泓浒(苏州)半导体科技有限公司 基于机器学习的晶圆搬运机械手自动控制方法及系统
WO2024154218A1 (ja) * 2023-01-17 2024-07-25 ファナック株式会社 プログラミング装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11694452B1 (en) * 2019-10-07 2023-07-04 Deshazo, LLC Crane-mounted system for automated object detection and identification
WO2021118458A1 (en) * 2019-12-09 2021-06-17 Augmentus Pte. Ltd. Method and system for programming a robot
TWI757108B (zh) * 2021-03-03 2022-03-01 所羅門股份有限公司 操作路徑產生方法及系統
CN113829344B (zh) * 2021-09-24 2022-05-03 深圳群宾精密工业有限公司 适用于柔性产品的视觉引导轨迹生成方法、装置、设备及介质
CN114066893A (zh) * 2022-01-17 2022-02-18 湖南视比特机器人有限公司 检测工件质量的方法、装置和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009175954A (ja) * 2008-01-23 2009-08-06 Fanuc Ltd 加工用ロボットプラグラムの作成装置
JP2010089238A (ja) * 2008-10-10 2010-04-22 Honda Motor Co Ltd ワーク取り出し方法
JP2014184543A (ja) * 2013-03-25 2014-10-02 Seiko Epson Corp ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP2015136770A (ja) * 2014-01-23 2015-07-30 ファナック株式会社 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP2015136781A (ja) * 2014-01-24 2015-07-30 ファナック株式会社 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置
JP2016179534A (ja) * 2015-03-24 2016-10-13 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6259815B1 (en) * 1999-03-04 2001-07-10 Mitsubishi Electric Research Laboratories, Inc. System and method for recognizing scanned objects with deformable volumetric templates
WO2004003850A1 (ja) * 2002-06-28 2004-01-08 Fujitsu Limited 3次元イメージ比較プログラム、3次元イメージ比較方法、および3次元イメージ比較装置
JP3842233B2 (ja) 2003-03-25 2006-11-08 ファナック株式会社 画像処理装置及びロボットシステム
JP2005353047A (ja) * 2004-05-13 2005-12-22 Sanyo Electric Co Ltd 立体画像処理方法および立体画像処理装置
US8090194B2 (en) * 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
DE102007048320A1 (de) * 2007-10-09 2008-05-15 Daimler Ag Verfahren zur Anpassung eines Objektmodells an eine dreidimensionale Punktwolke
JP5289087B2 (ja) 2009-02-10 2013-09-11 ファナック株式会社 ワーク取り出し装置
US8290305B2 (en) * 2009-02-13 2012-10-16 Harris Corporation Registration of 3D point cloud data to 2D electro-optical image data
JP5245938B2 (ja) 2009-03-12 2013-07-24 オムロン株式会社 3次元認識結果の表示方法および3次元視覚センサ
US8630456B2 (en) * 2009-05-12 2014-01-14 Toyota Jidosha Kabushiki Kaisha Object recognition method, object recognition apparatus, and autonomous mobile robot
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
US9972120B2 (en) * 2012-03-22 2018-05-15 University Of Notre Dame Du Lac Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces
US9715761B2 (en) * 2013-07-08 2017-07-25 Vangogh Imaging, Inc. Real-time 3D computer vision processing engine for object recognition, reconstruction, and analysis
US9996974B2 (en) * 2013-08-30 2018-06-12 Qualcomm Incorporated Method and apparatus for representing a physical scene
JP5897624B2 (ja) * 2014-03-12 2016-03-30 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP5829306B2 (ja) * 2014-05-12 2015-12-09 ファナック株式会社 レンジセンサの配置位置評価装置
WO2016040862A2 (en) * 2014-09-12 2016-03-17 Chizeck Howard Jay Integration of auxiliary sensors with point cloud-based haptic rendering and virtual fixtures
SG11201804933SA (en) * 2015-12-16 2018-07-30 Mbl Ltd Robotic kitchen including a robot, a storage arrangement and containers therefor
US10074160B2 (en) * 2016-09-30 2018-09-11 Disney Enterprises, Inc. Point cloud noise and outlier removal for image-based 3D reconstruction
WO2018085797A1 (en) * 2016-11-04 2018-05-11 Aquifi, Inc. System and method for portable active 3d scanning
JP2018144167A (ja) 2017-03-03 2018-09-20 株式会社キーエンス 画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
MX2019013390A (es) * 2017-05-08 2020-07-29 Physna Inc Sistema y metodos para la evaluacion de modelado 3d.
JP6487495B2 (ja) * 2017-05-19 2019-03-20 ファナック株式会社 ワーク取出しシステム
US10909369B2 (en) * 2017-07-14 2021-02-02 Mitsubishi Electric Research Laboratories, Inc Imaging system and method for object detection and localization
US10521914B2 (en) * 2017-09-07 2019-12-31 Symbol Technologies, Llc Multi-sensor object recognition system and method
US10796403B2 (en) * 2017-09-14 2020-10-06 The Regents Of The University Of Colorado, A Body Corporate Thermal-depth fusion imaging
US20190096135A1 (en) * 2017-09-26 2019-03-28 Aquifi, Inc. Systems and methods for visual inspection based on augmented reality

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009175954A (ja) * 2008-01-23 2009-08-06 Fanuc Ltd 加工用ロボットプラグラムの作成装置
JP2010089238A (ja) * 2008-10-10 2010-04-22 Honda Motor Co Ltd ワーク取り出し方法
JP2014184543A (ja) * 2013-03-25 2014-10-02 Seiko Epson Corp ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP2015136770A (ja) * 2014-01-23 2015-07-30 ファナック株式会社 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP2015136781A (ja) * 2014-01-24 2015-07-30 ファナック株式会社 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置
JP2016179534A (ja) * 2015-03-24 2016-10-13 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113450379A (zh) * 2021-07-02 2021-09-28 湖南国天电子科技有限公司 一种异形工件断面轮廓线提取和分析方法和装置
CN113450379B (zh) * 2021-07-02 2022-05-27 湖南国天电子科技有限公司 一种异形工件断面轮廓线提取和分析方法和装置
WO2024154218A1 (ja) * 2023-01-17 2024-07-25 ファナック株式会社 プログラミング装置
CN117565062A (zh) * 2024-01-16 2024-02-20 泓浒(苏州)半导体科技有限公司 基于机器学习的晶圆搬运机械手自动控制方法及系统
CN117565062B (zh) * 2024-01-16 2024-03-19 泓浒(苏州)半导体科技有限公司 基于机器学习的晶圆搬运机械手自动控制方法及系统

Also Published As

Publication number Publication date
CN112276936A (zh) 2021-01-29
US20210023718A1 (en) 2021-01-28
DE102020118635A1 (de) 2021-01-28
CN112276936B (zh) 2024-09-10
US11654571B2 (en) 2023-05-23
JP7376268B2 (ja) 2023-11-08

Similar Documents

Publication Publication Date Title
JP7376268B2 (ja) 三次元データ生成装置及びロボット制御システム
US10551821B2 (en) Robot, robot control apparatus and robot system
JP5897624B2 (ja) ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP4492654B2 (ja) 3次元計測方法および3次元計測装置
JP5469216B2 (ja) バラ積みされた物品をロボットで取出す装置
JP5743499B2 (ja) 画像生成装置、画像生成方法、およびプログラム
JP6703812B2 (ja) 3次元物体検査装置
JP5113666B2 (ja) ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法
JP6902369B2 (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
US11446822B2 (en) Simulation device that simulates operation of robot
CN110340883A (zh) 信息处理装置、信息处理方法以及计算机可读存储介质
JP2019188477A (ja) ロボットの動作教示装置、ロボットシステムおよびロボット制御装置
JP2015007639A (ja) 情報処理装置、情報処理方法およびプログラム
JP5083715B2 (ja) 三次元位置姿勢計測方法および装置
JP6237122B2 (ja) ロボット、画像処理方法及びロボットシステム
JP2014238687A (ja) 画像処理装置、ロボット制御システム、ロボット、画像処理方法及び画像処理プログラム
US20240017412A1 (en) Control device, control method, and program
US20220410394A1 (en) Method and system for programming a robot
Fröhlig et al. Three-dimensional pose estimation of deformable linear object tips based on a low-cost, two-dimensional sensor setup and AI-based evaluation
JP2014185901A (ja) 3次元物体認識装置
WO2023157083A1 (ja) ワークの位置を取得する装置、制御装置、ロボットシステム、及び方法
WO2022249295A1 (ja) ロボットシミュレーション装置
JP2023004158A (ja) ロボット制御システム、ロボット制御装置、ロボット制御方法及びプログラム
JP2021003782A (ja) 物体認識処理装置、物体認識処理方法およびピッキング装置
JP2022045466A (ja) 画像認識方法およびロボットシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231026

R150 Certificate of patent or registration of utility model

Ref document number: 7376268

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150