JP2009523623A - ワーク自動把持の方法と装置 - Google Patents

ワーク自動把持の方法と装置 Download PDF

Info

Publication number
JP2009523623A
JP2009523623A JP2008551815A JP2008551815A JP2009523623A JP 2009523623 A JP2009523623 A JP 2009523623A JP 2008551815 A JP2008551815 A JP 2008551815A JP 2008551815 A JP2008551815 A JP 2008551815A JP 2009523623 A JP2009523623 A JP 2009523623A
Authority
JP
Japan
Prior art keywords
virtual
actual
work
gripping
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008551815A
Other languages
English (en)
Other versions
JP5281414B2 (ja
Inventor
ジェローム グロボア,
Original Assignee
ジェローム グロボア,
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジェローム グロボア, filed Critical ジェローム グロボア,
Publication of JP2009523623A publication Critical patent/JP2009523623A/ja
Application granted granted Critical
Publication of JP5281414B2 publication Critical patent/JP5281414B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40038Black list, exclude operation on workpiece when not possible, collision, error
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Abstract

本方法は以下の手順を含むものである。(a)実際の作業状況(RWS)の表面を、3次元座標[N(X,Y,Z)]の点群データ(N)として3次元デジタル化する。(b)(a)の段階で得られた点群データ(N)内において、バーチャルな各ワーク(P’j)、およびバーチャル作業環境(5’)を自動的に位置決定する。その際、実際のワーク(Pj)および実際の作業環境(5)についての、3次元CADのデジタルモデルを利用する。(c)3次元のバーチャル作業状況(VWS)を自動的に構築する。その際、各々の実際のワーク(Pj)および実際の作業環境(5)についての3次元CADのデジタルモデル、ならびに、(b)の段階で決定された、バーチャルな各ワーク(P’j)とバーチャル作業環境(5’)についての位置データ[(x,y,z);(α,β,γ)]を利用する。(d)バーチャル作業状況(VWS)内で、バーチャルなワーク(P’j)の一つを選択する。(e)実際の把持装置(11)へコマンドを送信し、(d)の段階で選択されたバーチャルなワーク(P’j)に対応する実際のワーク(Pj)を自動的に把持する。
【選択図】 図1

Description

本発明は、把持ロボットを用いた1個または複数のワークの把持に関する。この発明は、1台の把持ロボットを用いて個別に複数のワークを操作しなければならないあらゆる産業において応用されるものである。
個別に複数のワークを操作するためには、通常、多関節把持ロボットを用いる。このロボットは関節のあるアームを持ち、その先端には、把持すべきワークの形状に合わせたハンドないしそれに相当する把持装置が備えられている。
把持すべき1個ないし複数のワークが、ロボットの作業空間内で一定の位置に置かれているか、そうでなければ任意の方向を向いている時、把持装置によって自動的に個別のワークを把持するのは一層困難である。何故なら、把持すべきワークに対する把持装置の位置(3方向への移動)と方向(3方向への回転)を自動的に管理することがとりわけ必要とされ、また、把持ロボットが動く際に、把持したワークや把持装置が、作業環境内の事物(例えば、1個または複数のワークがストックされた容器の仕切りや、1個または複数のワークを運搬するコンベヤ)と干渉するという問題が存在するからである。
同時に、把持すべきワークが無作為にバラ積みされている時には、ワーク把持の順序の問題が生じる。
欧州特許出願EP 1 428 634では、1台の把持ロボットを用いたバラ積みされたワークの自動把持の一方法が提示されており、この把持の方法では、自動的にワーク把持の順序を管理し、かつロボットの把持アームの干渉を管理できる。
この出願に提示された方法は、二種類のセンサを組み合わせて使用するものである。すなわち、3次元視覚センサおよびレンジファインダである。
3次元視覚センサ(EP 1 428 634の図において(4)と指示されるもの)は、ロボットの把持アームの先端に装着され、センシングの手段と、物体に反射した光線束を検知できるビデオカメラとを組み合わせている。
レンジファインダ(EP 1 428 634の図において(10)と指示されるもの)は、作業状況の上方に固定される。このレンジファインダ(10)は、例えば超音波を使用するものである。
最も洗練されたバージョンとして、EP 1 428 634において記述されている把持の方法は、以下の手順を利用するものである。
−段階S1からS3 3次元視覚センサを用いて作業状況の画像を獲得し、得られた画像内に検出された各ワークに対して、センサの照準距離を計算する。得られた計測データwk(照準距離)はメモリに蓄積される。
−段階S4からS5 スキャニングとレンジファインダを用いた高さ測定によって、バラ積みされた一山の物体の表面のトポグラフィーを得る。この表面のトポグラフィー(データhij)は、メモリに保存される。
−段階S6 データwk(照準距離)と、表面のトポグラフィーについてのデータ(hij)から、表面のトポグラフィー上での各ワークの位置を決定する(各ワークに対応する各照準距離wkと、トポグラフィーの表面の一要素Sijとの交差による)。例えば、EP 1 428 634の図2の曲面(1個のワークが交点40で位置決定された、表面のトポグラフィー)が得られる。
−段階S7 各ワークについて、ワークの概略の姿勢(Fk)の決定。
−段階S8 把持するワークの選択。この選択は、例えば二つの基準、最も高い位置にあるワーク(基準1)、その姿勢Fkが、確実な把持に相応しいか(基準2)に応じて行われる。
−段階S9 3次元視覚センサによってより近くから計測するための、適当なロボットの位置(S8の段階で選択されたワークに近い位置)の計算。
−段階S10 段階S9において計算された近距離の計測位置における、ロボットの把持アーム(とりわけ、ロボットの把持アームに装着された3次元視覚センサ)と、環境との干渉可能性の確認。
−段階S11 干渉の問題が存在しない場合、段階S9で計算された近距離の計測位置への把持アームの移動(位置と姿勢)と、装着された3次元視覚センサによる、把持するワークの3次元の位置および空間内における姿勢の検出。
−段階S12 段階S11において実行された近距離の計測に基づく、ワーク把持のための、把持アームの位置と姿勢の決定。
−段階S13 ロボットの把持アーム(とりわけ、ロボットの把持アームに装着された3次元視覚センサ)と環境(バラ積みされた他のワークを含む)との間の干渉可能性の確認。推奨される方法は、アームがワーク把持の位置にある際、把持アームの周囲に、状況内の他のいかなる要素も存在を許されない禁止領域を設定しておくものである。干渉が検知されたら、段階S8(把持する他のワークの選択)へ戻る。
−段階S14 ロボットによるワーク把持実行のためのロボット操作。
このEP 1 428 634が興味深いのは、記述された把持の方法によって以下のことが可能になるからである。
−ワーク把持の順序の自動管理(段階S8を参照)
−把持に最適な把持装置の状態の自動管理(段階S12)
−この把持装置と環境との干渉管理(段階S10およびS11)
しかしながら、この方法には幾つかの不具合が存在する。ワークの把持管理は非常に複雑である。何故なら、3次元視覚センサとレンジファインダを組み合わせて用い、3次元視覚センサによる情報取得が二段階にわたるからである。第1段階は把持するワークを選択し近似的に位置を決定するため、第2段階は、把持の前に、選択されたワークに近づきより正確な画像を取得するためである。
この方法(3次元視覚センサとレンジファインダの組み合わせ)では、干渉の自動管理もまた複雑である。とりわけ、この方法では、干渉の管理は把持装置とその環境との間にのみ実行され、とりわけ把持装置が掴んだワークを考慮に入れないことになる。
また、この方法は、実際に把持の障害となりうる別のワークとの重なりを検知することもできない。
欧州特許出願EP 1 442 848においては、把持ロボットを用いた、バラ積みされたワークの位置決定と把持を自動的に行う解決手法が提示されている。この解決手法においては、ロボットの把持アームの先端に取付けたCCDカメラ型の3次元センサを用いる。最初の段階では、把持するワークから離してこの3次元センサを配置し、複数のワーク全体の画像を撮像する。この全体画像の中で自動的にワークの検出と位置決定を行う。第2段階では3次元センサを把持するワークに近づけ、対象ワークの接近画像を撮像し、このワークの自動把持を可能とする。この解決手法では、ワークを複数の異なる方向から見た各々のタイプの3次元画像を取得し、把持するワークの教示モデルを事前に構築する必要がある。これらの教示モデルは、前述のワークの自動検出と自動位置決定の段階の実現、また、前述の選択されたワークの自動把持の段階の実現のために用いられる。一方で、複数の異なる方向から見たワークの画像取得による教示モデルの利用は、この把持の解決手法を不確かで、かつ複雑な構造のワークの把持には不適当なものとする。他方、画像取得による事前のモデル構築は煩雑である。
事物の把持のための半自動ロボットはまた、E. Natonek他,“Model Based Vision as feedback for Virtual Reality Robotics Environments(バーチャルリアリティ・ロボティクス環境のためのフィードバックとしてのモデルに基づくビジョン)”、Proceedings of the virtual reality annual international symposium research triangle park,IEEE,1995年3月11日、pp.110−117において提案されている。
このロボットはバーチャル環境と関連づけられ、オペレーターはそれと相互に作用することができる。この技術的解決手法において、オペレーターはバーチャル環境内に、実際のロボットと実際に把持する物体に対応するバーチャルなロボットとバーチャルな物体を、手動で作成・配置し、このバーチャル環境内におけるロボットの最適な軌道を、とりわけロボットと物体についての3次元モデルを利用しながら、定義する。このバーチャル環境は、オペレーターによって一度作成されると、物体把持時の実際のロボットの軌道を自動的に制御・修正するために用いられる。この技術的解決手法では、その都度手動で、ロボットと関連づけられたバーチャル環境、とりわけ実際に把持する物体に対応するバーチャルな物体を構築する必要があり、とりわけ把持する1個または複数の物体の自動位置決定を含む、完全に自動的な把持を可能にするものではない。
本発明は、把持装置を含む1台のロボットを用いた、1個以上のワークを自動把持するための新しい技術的解決手法を提供するものである。欧州特許出願EP 1 428 634およびEP 1 442 848に記載された前述の把持の方法と比較して、本発明は、把持するワークのより完全でより高性能な自動位置決定を可能にし、ワークが複数存在する場合には、ワーク把持の順序をより完全、より高性能に管理できるものである。
本発明の第1の目標は、実際の作業環境内に置かれた少なくとも1個の実際のワーク(Pj)を、実際の把持装置を利用して自動的に把持することである。この方法は、以下の連続した段階を含む。
(a)実際の作業環境およびこの作業環境に存在する各ワーク(Pj)によって構成される実際の作業状況(RWS)の表面を、3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)[Nj(Xj,Yj,Zj)]として3次元デジタル化する。
(b)実際のワーク(Pj)および実際の作業環境についての、3次元CADのデジタルモデルを利用し、段階(a)で得られた点群データ(N)内において、バーチャルな各ワーク(P’j)、およびバーチャル作業環境を自動的に位置決定する。
(c)実際の作業状況(RWS)に対応し、また、段階(b)で位置決定されたバーチャルな各ワーク(P’j)およびバーチャル作業環境によって構成される、3次元のバーチャル作業状況(VWS)を自動的に構築する。この構築は、各々の実際のワーク(Pj)および実際の作業環境についての3次元CADのデジタルモデル、ならびに、段階(b)で決定された、バーチャルな各ワーク(P’j)とバーチャル作業環境についての位置データ[(x,y,z);(α,β,γ)]を利用することによって、自動的に実現される。
(d)段階(c)で構築されたバーチャル作業状況(VWS)内において、バーチャルなワーク(P’j)の一つを自動的に選択する。
(e)実際の把持装置へコマンドを送信し、段階(d)で選択されたバーチャルなワーク(P’j)に対応する実際のワーク(Pj)を自動的に把持する。
本発明の方法は、無作為に重なり合った一山のワーク(一山のバラ積みされたワーク)から1個のワークを自動的に把持する際に格別に有効であるが、それにもかかわらず、単独のワークを把持したり、重なり合ってはいないワークの全体の中から1個のワークを把持するのにも利用できる。
本発明の範囲内では、把持すべき1個または複数のワークは同一のもの(その場合、ワークについての唯一の3次元CADモデルを用いる)であっても、異なるもの(その場合、ワークのタイプそれぞれに対応する、複数のCADモデルを用いる)であってもよい。
本発明の範囲内では、把持すべき1個または複数のワークは、把持ロボットの作業空間内において、固定されていても(例えば、容器内や作業平面上に置かれた1個または複数のワーク)、移動中(例えば、作動中のコンベヤに置かれた1個または複数のワーク)でもよい。1個または複数のワークが移動している場合は、把持の段階でロボットへのコマンド送信を最も正確に行うために、コンベヤの運動法則を事前に知っておかねばならない。ロボットの運動とコンベヤの運動を同期させることが問題となるのである。
本発明の把持の方法は、以下に追加する技術的特性を個別的ないし複合的に含んでいることが好ましいが、本発明によってそれを強制するものではない。
−実際の作業環境は2個以上の実際のワーク(Pj)を含み、段階(a)から(e)までは、実際の作業環境内にワークがなくなるまで自動的に繰り返される。
−実際の作業環境は2個以上の実際のワーク(Pj)を含む。また、段階(d)でバーチャルなワーク(P’j)の選択を最終的に許可する前に、バーチャル作業状況(VWS)において、重なり状態について事前に定めた基準を一つ以上適用し、選択したバーチャルなワーク(P’j)に対し近接のバーチャルなワークが少なくとも部分的に重なっているかどうかを予め確認する。そのバーチャルなワーク(P’j)に事前に定めた基準通りに近接のバーチャルなワークが重なっている場合には、そのワークを選択しない。
−段階(d)でバーチャルなワーク(P’j)の選択を最終的に許可する前に、バーチャル作業状況(VWS)において、少なくともそのバーチャルなワーク(P’j)とバーチャル作業環境とが干渉しないかどうか、および/あるいは、少なくともそのバーチャルなワーク(P’j)と、別の1個のバーチャルなワークとが干渉しないかどうかを予め確認し、干渉が検知された場合には、そのワークを選択しない。
−段階(d)でバーチャルなワーク(P’j)の選択を最終的に許可する前に、バーチャル作業状況(VWS)内に、実際の把持装置についての3次元CADのデジタルモデルによって定義されたバーチャルな把持装置を配置し、このバーチャルな把持装置が、前述のバーチャルなワーク(P’j)に対して、事前に定めた少なくとも一つの把持の形状に置かれるようにした際、少なくともこのバーチャルな把持装置と、バーチャルな作業環境とが干渉しないかどうか、および/あるいは、少なくともこのバーチャルな把持装置と、別の1個のバーチャルなワークとが干渉しないかどうかを確認し、干渉が検知された場合には、そのワーク(P’j)を選択しない。
−この方法は、バラ積みされた複数のワークの全体の中から、1個以上の実際のワーク(Pj)を自動的に把持するために使用される。
本発明はまた、他に以下のものを含む。
−実際の作業環境内に置かれた1個以上の実際のワーク(Pj)を自動的に把持するためのシステム。この把持システムは1個以上の実際の把持装置を備えた1台の把持ロボット、少なくとも把持ロボットにコマンドを送信できるコマンド装置、先に定義された把持方法の段階(a)を実現するための3次元デジタル化装置、および、先に定義された把持の方法の(b)から(d)までの段階を自動的に実現するための演算手段を含む。コマンド装置は、演算手段によって得られた演算データに基づいて、先に定義された把持の方法の段階(e)を実現するように構成されている。
−記憶媒体上あるいはメモリ内に搭載され、一方で、把持のシステムについてプログラムすることが可能な演算手段によって自動的に実行される演算プログラム。この把持システムはさらに、1個以上の実際の把持装置を備えた1台の把持ロボット、少なくとも把持ロボットにコマンドを送信できるコマンド装置、および、1個の実際の物体、ないしは複数の実際の物体の全体の表面を、3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)として3次元にデジタル化することのできる3次元デジタル化装置を含んでいる。この演算プログラムは、前述の演算手段によって実行された際に、先に定義された把持の方法の(b)から(d)までの段階を自動的に実現できるものである。
図面の簡単な記述
本発明のその他の特徴と利点は、発明の好ましい実現例についての以下の詳細な説明において、より明らかになるだろう。この説明は模範例であり、発明に制限を課したり、また網羅的であったりするものではなく、付記された図面を参照するものである。図面は以下の通りである。
図1は、多関節のロボットに備え付けた把持装置を含む、本発明の把持システムを図式的に表したものである。
図2は、図1の把持ロボットの把持装置によって把持および操作されうるワーク例の3次元図である。
図3は、図1のロボットの把持装置が、把持の第1の形状において、図2と同じワークを把持している図である。
図4は、図1のロボットの把持装置が、把持の第2の形状において、図2と同じワークを把持している図である。
図5は、図1の把持システムの取得手段によって得られた3次元点群データの一例である。
図6は、とりわけ図5の点群データを基に自動的に構築された、バーチャル作業状況(VWS)の3次元図像である。
図7は、バーチャル作業状況(VWS)が、図2と同じワークの一山を含んでいる3次元図像であり、これらのワークは容器の中にバラ積みされ、幾つかのワークは部分的に重なり合い、1個のワークが図1のロボットの把持装置によって、前述の把持の第1の形状において、他のワークとの重なりの問題がない状態で把持されている。
図8は、バーチャル作業状況(VWS)が、図7と同じバラ積みされたワークを含んでいる3次元図像であり、1個のワークが図1のロボットの把持装置によって、前述の把持の第1の形状において把持されているが、隣接する別のワークとの重なりの問題が見られる。
図9は、バーチャル作業状況(VWS)が、図7と同じバラ積みされたワークを含んでいる3次元図像であり、1個のワークが図1のロボットの把持装置によって、前述の把持の第2の形状において、他のワークとの重なりの問題がない状態で把持されている。
図10は、バーチャル作業状況(VWS)が、図7と同じバラ積みされたワークを含んでいる3次元図像であり、1個のワークが図1のロボットの把持装置によって、前述の把持の第2の形状において把持されているが、他の隣接するワークとの干渉の問題が見られる。
図11は、図2と同じワークが、容器内の仕切りの中に個別に並べられている3次元図像である。
図12は、図2と同じワークが、容器内に同じ方向を向いて(上から同じ面が見えている)、半ばバラ積みされて置かれている3次元図像であり、例えば、同じように並べられたワークが移動の際に動いてしまった場合である。
図13は、本発明の自動把持の方法が、個別的に実用された一例の主要な段階を示したフローチャートである。
本発明に適った把持システムの一実施形態を図1に示す。
把持システム
この把持システムは以下のものを含む。
−多関節把持ロボット1
−3次元デジタル化装置2
−コマンド装置3
−演算手段4
図1の個別応用例において、把持システムは、容器5内に収められた実際のワークPjを自動的に1個ずつ把持するために用いられる。
以下に記述される例において、全てのワークPjは図2に表したものと同じとする。ただし、本発明は、図2とは形状の異なるワークPj、および/あるいは全てが同じ形状ではないワークPjにも利用可能である。
本発明は、容器内に収められたワークの把持に限定されず、より一般的に、作業環境内における1個以上のワークの把持に利用できる。この作業環境とは、容器5である必要はなく、および/あるいは、前記のワークは、付記の図の個別例のように静止したものであっても、例えば把持ロボット1との関連で作動するコンベヤに置かれるといったように、作業環境内を移動しているものであってもよい。
以下の説明において、容器5をより一般的に「実際の作業環境」と呼ぶことにする。実際の作業環境5、およびこの実際の作業環境5内に存在する実際のワークPjによって構成される全体を、「実際の作業状況」と呼ぶ。図1において、実際の作業状況をRWSの略号で示す。
把持ロボット(1)
把持ロボット1の構造は周知のものである。このロボットは多関節のアーム10を持ち、その先端には把持のための可動式ハンド、およびアーム10の動きを操作するための駆動装置が備えられている。
本発明は、図1のロボット1と把持装置11の個別例に限定されるものではない。より一般的に、他のあらゆるタイプのロボット、他のあらゆるタイプの把持装置を用いて利用することができる。特に、ロボットのタイプは、とりわけ把持装置の運動にとって望ましい自由度に応じて選ばれる。作業範囲内での機械へのアクセシビリティー次第で、ロボットは地上に固定することも、天井から吊るすこともできる。把持装置11はハンドの形状をしている必要はなく、把持や操作をするべきワークの形状に合わせて選ばれる。
3次元デジタル化装置(2)
3次元デジタル化装置2は一般的に、3次元点群データとして、物体の表面をデジタル化できるものである。
本発明の範囲内では、この装置は、実際の作業状況RWSを構成する物体の表面、すなわち、実際の作業環境(例図の容器5)およびこの実際の作業環境に存在する各ワーク(Pj)の表面を、3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)としてデジタル化するために使用される。この3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)は、実際の作業状況RWSを構成する物体の表面の、3次元形状の離散表現である。
図1の個別例において、3次元デジタル化装置2は、3次元デジタルセンサ21と、画像処理装置20を含むものである。
自明の通り、画像処理装置20は1個のプロセッサと、少なくとも1個のメモリを内蔵し、メモリ内には「デジタル化プログラム」と呼ばれるプログラムが記憶され、このプログラムはプロセッサで実行可能である。また、入出力のインターフェイスを備えることで、3次元デジタルセンサ21、コマンド装置3および以下に記述する演算手段4と、プロセッサとが交信できる。
このプロセッサでのデジタル化プログラムの実行によって、画像処理装置20はデジタルセンサ21を操作でき、このセンサ21が測定を行う。画像処理装置20は、センサ21から得られた生の測定値を、センサ21の座標内でコード化された3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)として処理する。こうして実行された3次元デジタル化は、実際の作業状況RWSを構成する物体の表面の離散表現を成す。3次元デジタル化に続いて、画像処理装置20は3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)を演算手段4に送る。
本発明の範囲内において、3次元デジタルセンサ21は、センサのタイプによって接触型ないし非接触型の測定を行う、様々なタイプのセンサによって構成されることも可能である。
接触型測定を行えるセンサとしては、あらゆる表面形状測定装置の名を挙げることができる。それは、実際の作業状況RWSの要素(図1の例の中では容器5の仕切りと実際のワークPj)の表面と接触させたまま移動させることができる。
しかしながら、本発明の利用に際しては、非接触型測定が行える3次元デジタルセンサ21が望ましく、それは以下のようなものである。
−レーザーの光源と組み合わされた1台以上のカメラ(CCDタイプないしその他)。このカメラは、視野内に置かれたデジタル化すべき物体の表面に反射した光束を捕えることができるものである。このタイプのカメラは三角測定によって機能する。
−遠隔測定によって機能し、レーザー光源、超音波、マイクロ波等を用いるセンサ。
非接触型センサは、場合に応じて、実際の作業状況RWSに対して固定されても、移動するものであっても構わない。
図1の個別例では、3次元デジタルセンサ21として1個のデジタルカメラとレーザー光源とを、ロボット1の把持アーム10に装着して用いている。発明の別の実用例においては、固定された、ないし移動可能なデジタルセンサ21を、把持ロボット1とは独立した土台に備え付けて用いることもできる。
また別の発明の実用例においては、異なる測定方向を向いた少なくとも2個の3次元デジタルセンサ21を用いることもでき、そうすると少なくとも2種類の互いに補完的な3次元点群データを得られる。例えば、実際の作業状況RWSに対して異なる位置、異なる方向に2個目のセンサを配置することで、最初のセンサによって得られた3次元点群データでは隠れている表面が、2個目のセンサによって得られた3次元点群データ上でよりはっきりと可視化できる。
コマンド装置(3)
ロボットのコマンド装置3はよく知られており、詳述しない。一般にはコントロールボードという形を取り、1個のプロセッサ、少なくとも1個のメモリを含み、そのメモリ内に「コマンド」と呼ばれるプログラムが記憶され、このプロセッサによって実行される。また入出力インターフェイスを備えている。コマンド装置3のプロセッサは、ロボットの駆動装置、把持装置11の操作手段、3次元デジタル化装置2の画像処理装置20と通信するものである。
コマンドのプログラムは一般的なものであるので詳述しない。このプログラムは、コマンド装置3のプロセッサによって実行された際に、以下のことを行うことができる。
−画像処理装置20に送信されたコマンドによって3次元デジタル化を開始する。
−ロボットの多関節アーム10の運動を制御し、把持ロボット1の把持ハンド11を操作(開/閉)する。
演算手段(4)
演算手段4は、あらゆるタイプのプログラム可能なプロセッシングユニットによって実装可能なものである。例えば、マイクロプロセッサやマイクロコントローラを搭載したプリント基板によって演算手段を実装することができる。肝心なのは、このプロセッシングユニットが1個のプロセッサ、プロセッサによって実行可能なローカルプログラムを記憶できる少なくとも1個のメモリ、そしてコミュニケーションインターフェイス(入出力)を含むことである。このインターフェイスによって、プロセッサは、コマンド装置3のプロセッサ、そして図1の個別例においては画像処理装置20のプロセッサとも、通信が可能である。
この演算手段4は、例えば1個のマイクロコンピューターや、1個または複数の特別なプリント基板によって実現できるものである。発明の応用の際には、演算手段4はスクリーンのような視覚化インターフェイスを含むことも、含まないことも可能である。
演算手段4のメモリ内には、本発明固有の演算プログラムが記憶されている。
演算手段4のプロセッサによる演算プログラムの実行は、画像処理装置20のデジタル化プログラムの実行および、コマンド装置3のコマンド・プログラムの実行と組み合わせることで、本発明の自動把持の方法の実用を可能とする。
把持の方法―図13
本発明の自動把持の方法の実用の一個別例を、これより図13のフローチャートを参照しながら詳述する。
段階130−作業状況のデジタル化
コマンド装置3は、画像処理装置20にデジタル化のコマンドを送信する。画像処理装置20のプロセッサは3次元デジタルセンサ21を操作し、実際の作業状況RWSの表面を自動的に3次元デジタル化する(デジタル化プログラムの実行)。
図1の例において、この実際の作業状況RWSは、バラ積みされた6個の同形のワークP1からP6を収めた容器5によって構成されている。
このデジタル化の結果としての3次元座標[Nj(Xj,Yj,Zj)]の点群データNをコード化したデータは、画像処理装置20によって直接に演算手段4に送られる。別の実現例において、画像処理装置20が演算手段4と接続されていない時は、この3次元座標[Nj(Xj,Yj,Zj)]の点群データNは、画像処理装置20によって、コマンド装置3を経由して、演算手段4に送られることも可能である。
使用する3次元デジタルセンサ21のタイプ次第で、場合によっては、このデジタル化の操作のために、実際の作業状況RWSに対してセンサ21を移動させて、前述の実際の作業状況RWSの表面のスキャンを実行する必要がある。
同様に、発明の応用の際には、用いられるセンサ21、デジタル化に求められる正確さ、このデジタル化のサイクルの時間、実際の作業状況RWSの規模に応じて、実際の作業状況RWSの全体をセンサによって(必要であれば実際の作業状況RWSに対して移動させて)捉えることも、実際の作業状況RWSを、より小さい規模の複数の作業状況に分割することもできる。後者の例では、図13のフローチャート上の段階130は、より小さな規模の作業状況(例えば容器5の一部分だけと、その部分に収められたワークPj)に適用され、図13の把持の方法は、より小さな規模の作業状況上に対して繰り返され、その全体が実行される。
以下の説明においては、段階130の時点で、容器5の全体とその全ての中身によって構成される実際の作業状況RWSの表面の3次元デジタル化を行うものと考える。
例として、図1の実際の作業状況RWS(バラ積みされた6つのワークP1からP6を収めた容器5)の3次元デジタル化の結果である、3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)を図5に示した。
段階131−位置決定
この段階131以降、演算手段4のプロセッサが実行する演算プログラムによって、把持の方法が実現される。
演算手段4のメモリに記憶されているのは以下のものである。
−実際のワークPjについての3次元CADのデジタルモデルを含むファイル、或いはその同等物。
−実際の作業環境、すなわち付記された図例における容器5についての3次元CADのデジタルモデルを含むファイル、或いはその同等物。
実際の物体(実際のワークPjあるいは実際の作業環境5)についての3次元CADのデジタルモデルとは、物体の表面の形状を、数学的形態(平面、円柱、円錐、ベジェ曲面、NURBS曲面等)の下に描いたデータ全体を指す。
付記された図の個別例では、全てのワークPjは同一形状であるため、全ワークに対して単一の3次元CADのデジタルモデルを使用している。発明の応用にあたって、把持するワークPjが異なる(形状および/あるいは大きさが異なる)場合、演算手段4のメモリ内に、実際のワークPjのそれぞれのタイプについての3次元CADのデジタルモデルを記憶させる。
実際のワークPjについての1個ないし複数の3次元CADのデジタルモデルと、実際の作業環境5についての3次元CADのデジタルモデルは、一般的にそれらの設計時に用いた描画プログラムを利用して作成される。しかしながら、自明の通り、表面の3次元デジタル化によって再構築することも可能である。位置決定の段階131の中で、演算手段4のプロセッサは3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)を処理し、実際のワークPjおよび実際の作業環境5についての3次元CADのデジタルモデルを用いて、実際のワークPjに対応するそれぞれのバーチャルなワークP’j、および実際の作業環境5に対応するバーチャル作業環境5’を位置決定する。この位置決定の段階において、演算手段4は、3次元座標の点群データ(N)内に位置決定されたそれぞれのバーチャルなワークP’jおよびバーチャル作業環境5’について、3次元デジタルセンサの座標内で、例えば位置(x,y,z)および方向(α,β,γ)などの、空間位置決定のデータを自動的に定める。
位置決定には様々な方法を利用することが可能である。
本発明に制限を課すものでなく、汎用的でもない例として、それぞれの3次元CADのデジタルモデルを元に以下の連続的な二つの段階を通じて位置決定を実現することが可能である。
(1)3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)と、(実際のワークPjおよび実際の作業環境5についての)3次元CADのデジタルモデルを対応させる最初の段階。
(2)3次元CADのデジタルモデルに対し、3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)のアライメントを行う第2段階。
(1)対応の段階
既知の様々な技術によって、3次元座標[Nj(Xj,Yj,Zj)]の点群データN内で、バーチャルなワークP’jあるいはバーチャル作業環境5’の近似的な位置(x,y,z)と方向(α,β,γ)を認識することができる。これら様々な技術の基本原則は、実際のワークPjあるいは実際の作業環境5について、それらが空間内に占める位置と方向とは独立した、局所的形状の特徴を抽出することにある。その際に考慮される基準は、3次元座標[Nj(Xj,Yj,Zj)]の点群データNと3次元CADのデジタルモデルから算出される。
特に、3次元CADのデジタルモデルのデータのツリー構造と、3次元座標[Nj(Xj,Yj,Zj)]の点群データNのデータのツリー構造を構築して、抽出された様々な局所的形状の特徴を結合する。3次元座標の点群データN内で3次元CADのデジタルモデルに対応する物体の位置を決定するために、3次元CADのデジタルモデルから抽出されたツリー構造と、3次元座標[Nj(Xj,Yj,Zj)]の点群データNから抽出されたツリー構造とを比較する。
局所的形状の特徴を抽出するための第1のアプローチは、3次元CADのデジタルモデルと3次元座標[Nj(Xj,Yj,Zj)]の点群データNとに固有の局所領域全体の中から、形状パラメータを抽出することにある。例えば、平均曲率、ガウス曲率、平均法線などである。
2番目のアプローチは、3次元CADのデジタルモデルの表面と3次元座標[Nj(Xj,Yj,Zj)]の点群データNとを、一連のいわゆる単純な表面(平面、円柱、円錐、トーラスなど)によって近似的に表すことにある。NURBS曲面やベジェ曲面のような複雑な表面は、例えば単純な表面を複数用いて表すことができよう。3次元CADのデジタルモデルの表面を最も近似的に表すためのいわゆる単純な表面は、表面の曲率次第で決定される。曲率が小さい場合には平面が適応され、曲率がかなり大きいが比較的一定である場合には円柱が適応されうる。点群データでは、それぞれの局所領域が、1個のいわゆる単純な平面によって近似的に表される。単純な表面の選択もまた、推算された曲率に応じて決定される。
3番目のアプローチは、3次元CADのデジタルモデルと3次元座標[Nj(Xj,Yj,Zj)]の点群データNから、基準(最大曲率、曲率の指標の変化、曲面の方向変化など)に応じて、特徴的な点だけを抽出することにある。
処理速度を上げるため、特に、実際のワークPjおよび実際の作業環境5の3次元CADのデジタルモデルから抽出される形状データの演算は、図13のフローチャートの開始前に一度だけ実行される。それぞれのCADのデジタルモデルから抽出されたこれらの形状データは演算手段4のメモリ内に記憶される。この場合、結果として、図13の位置決定の段階131は、ワークPjおよび作業環境5の3次元CADのデジタルモデルを直接基にするのではなく、この3次元CADのデジタルモデルから抽出され、メモリ内に記憶された形状データを基に実行される。
(2)アライメントの段階
対応の段階(1)を終えると、それぞれのバーチャルなワークP’jおよびバーチャル作業環境5’に対して、位置決定(位置と方向)を可能とする1個または複数の解が、場合に応じて見出されたことになる。
立体的形態を修正するために、それぞれの解は3次元CADのデジタルモデルを用いて自動的に試験される。演算を繰り返して最良の立体的形態の修正を決定し、3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)と3次元CADのデジタルモデルとの間の隔たりを最小二乗の意味で最小化する。実際には、演算の結果得られる平均的な誤差は、3次元座標[Nj(Xj,Yj,Zj)]の点群データ上で考慮された各点と、3次元CADのデジタルモデルの表面との間の平均的な隔たりを示している。誤差は直接的には、測定の不正確さや、3次元CADのデジタルモデルに対する実際のワークPjあるいは実際の作業環境5の形態上の欠陥に関連している。
3次元CADのデジタルモデルを用いた物体の自動認識についての更なる情報を得るには、例えば以下の論文を参照のこと。Jan Boehm, Claus Brenner, Jens Guehring, Dieter Fritsch,“Automated extraction of features from CAD models for 3D object recognition(3次元物体認識のためのCADモデルによる特徴の自動抽出)”,ISPRS,Vol.XXXIII,アムステルダム、2000年。
点群データと表面モデルとのアライメントのアルゴリズムについての更なる情報を得るには、例えば以下の論文を参照のこと。P.J.Besl & N.D.Mckay,“A method for registration of 3−d shapes(3次元形状のレジストリ化の一方法)”,IEEE Trans,Pat.Anal. & Mach.Intel.14(2),1992年2月、pp.239−256。
3次元点群データ内において物体(実際のワークPjおよび実際の作業環境5)を位置決定するために、その物体の3次元CADのデジタルモデルを用いることで、測定のノイズ(異常な点)を除去することができる。
段階132−バーチャル作業状況VWSの構築
位置決定の段階131の後、演算手段4は、位置(x,y,z)と方向(α,β,γ)のような空間位置データをメモリ内に含んでおり、バーチャル作業環境5’とそれぞれのバーチャルなワークP’jを、3次元デジタルセンサ21の3次元座標内に位置決定することができる。
演算手段4は、段階131で位置決定されたバーチャル作業環境5’とそれぞれのバーチャルなワークP’jについての空間位置データ[位置(x,y,z)と方向(α,β,γ)]、およびそれらの3次元CADのデジタルモデルから、デジタルなバーチャル作業状況(VWS)を構築する。
このデジタルなバーチャル作業状況(VWS)は、実際のワークPjに対応するバーチャルなワークP’jおよび、実際の作業環境5に対応するバーチャルな作業環境5’(バーチャルな容器の仕切り)によって構築される。このデジタルなバーチャル作業状況VWS内において、デジタル化されたバーチャルな物体とは、面によって描かれた3次元の物体である。
3次元CADのデジタルモデルの使用には、このデジタルなバーチャル作業状況VWSの構築の際に、3次元デジタルセンサ21では可視化されない物体の隠れた表面を考慮できるという利点がある。
テスト133
バーチャル作業状況VWS内にバーチャルなワークP’jが存在しなければ、作業環境(容器5)は空であるため、演算手段4は演算プログラムを停止する。把持の方法は完了したことになる。
テスト134
バーチャル作業状況VWS内に、1個以上のバーチャルなワークP’jが存在する場合、演算手段4はこれらのワークの中に(前回のプロセスでの段階135において)まだ選別されなかったワークが少なくとも1個は存在するかどうかを確認する。
テストの結果が否定(位置決定された全てのワークは既に選別されている)の場合、演算手段4はエラー・コード等を生成し、演算プログラムは中断されることになる。
テストの結果が肯定(まだ選別されていないワークが存在する)の場合、演算手段4は演算プログラムを引き続き実行する(段階135以降)。
段階135
演算手段4は、まだ選別されていない1個または複数のワークの中から、事前に定められた1個または複数の選択基準を適用し、自動的にバーチャルなワークP’jを選択する。
別の実用例においては、例えば無作為の選択も可能である。
また別の実用例においては、演算手段4はまだ選別されていないワークの中から、例えば垂直軸(Y)に従って、ワークの高さ(y)を比較し、最も高い位置にあるワークを選択する。
テスト136
演算手段4は、前の段階132において構築されたバーチャル作業状況VWS内で、事前に定めた重なりについての基準を少なくとも一つ以上適用して、段階135において選択されたバーチャルなワークP’jが、少なくとも部分的に他の隣接するワークが重なっていないか、自動的に確認する。
この重なりについての基準は、二つのワークの重なりの程度にかかわらず重なりが検知される、全か無かのタイプでありうる。
この重なりについての基準は、ワークの重なりについて事前に定めた面積の最小値を考慮することもできる。この場合、演算プログラムは、特に使用者によってパラメータを設定できる大小の許容度を事前に定めた上で、重なりのテスト136が実行されるように設計される。そうすることでワークの重なりの面積が考慮され、例えば、ワークの重なり部分の面積が事前に定めた値を超えている場合のみに重なりが検知される。また例えば重なりが許可されない体積(円柱、平行六面体、等)を定めるなど、重なりについての基準は他にも定義できる。こうした体積は一般に、把持装置の形状を考慮することで定義される。
重なりが検知された場合、演算手段4はテスト134に戻り、別のワークを選択する。
重なりが存在しない場合、演算手段4は演算プログラムを継続する(テスト137以降)。
図8は一例としてデジタルなバーチャル作業状況VWSを表したものである。段階135において選択されたワークはワークP’4であるが、それについて演算手段4は、重なりのテスト136の実施時に、バーチャルなワークP’5との重なりの問題を自動的に検出している。
強調しておくべきは、発明の応用次第ではこの重なりのテストは任意なものだということである。図8の応用例のように、把持するワークが無作為にバラ積みされており、重なりの可能性がある場合には、この重なりのテストを実施することが好ましい。反対に、図11や図12の応用例のように、1個のワークが部分的に別のワークと重なる可能性がないあらゆる応用においては、このテストは不要である。
テスト137および段階138
付記された図中の実際のワークPjは、把持装置11によって、事前に定めたはっきり区別される二通りの形状で把持されうる。それぞれ図3、図4に描かれた個別例においては、二つの形状は把持ハンド11の間隔の調節に違いが認められる。この把持の二通りの形状は、演算手段4のメモリ内に事前に登録されている。それぞれの把持の形状に関して、使用者は、例えば周知のCADのソフトを用いて、ワークに対する把持装置の位置を定義する。把持するワークに合わせたそれぞれの把持形状について、座標系内での把持装置の立体的な変形がメモリに保存される。把持装置のCADのデジタルモデルは、全ての形状に対して同一であることも、異なっていることも(同じハンドの開き具合を変える、異なるハンドを利用する、等)可能である。
1個のワークP’jが選択され(段階135)、重なっていないとテストされた(テスト136)際、演算手段4は、このワークP’jについて、(前回のプロセスの際に)まだテストされていない把持の形状が存在するかどうかを自動的に確認する(テスト137)。
否定(このワークに対して把持の全ての形状が既にテストされた)の場合、演算手段4はテスト134に戻り、別のワークを選択する。
肯定の場合、演算手段4は、このワークに対してまだテストされていない把持の形状の一つを自動的に選択する(段階138)。
テスト139(干渉)および段階140
一度把持の形状が選択されると、演算手段4は、段階134で選択されたワークP’jとの関係において、段階132で構築されたバーチャル作業状況(VWS)内で、段階138で選択された把持の形状に一致するように、(実際の把持装置11に対応する)バーチャルな把持装置11’を配置する。
この演算は、実際の把持装置11についての3次元CADのデジタルモデル、および選択されたバーチャルなワークP’jの空間位置データ[位置(x,y,z)と方向(α,β,γ)]を用いて実現される。
例として次のものを掲載した。
−図7上には、バーチャル作業状況VWS内で、バーチャルな把持装置11’が、選択されたバーチャルなワークP’3に対して、第1の形状にあるシミュレーション。
−図8上には、バーチャル作業状況VWS内に、バーチャルな把持装置11’が、選択されたバーチャルなワークP’4に対して、第1の形状にあるシミュレーションの結果。
−図9上には、バーチャル作業状況VWS内に、バーチャルな把持装置11’が、選択されたバーチャルなワークP’5に対して、第2の形状にあるシミュレーションの結果。
−図10上には、バーチャル作業状況VWS内に、バーチャルな把持装置11’が、選択されたバーチャルなワークP’1に対して、第2の形状にあるシミュレーションの結果。
演算手段4は、選択されたバーチャルなワークP’jに対して、バーチャルな把持装置11’が把持の位置にあるバーチャル作業状況VWSにおいて、次のことを確認する。
(i)選択されたバーチャルなワークP’jに対して配置されたバーチャルな把持装置11’によって構成される表面全体と、他の1個以上のバーチャルなワークの表面との間に交差が存在するかどうか。
(ii)選択されたバーチャルなワークP’jに対して配置されたバーチャルな把持装置11’によって構成される表面全体と、バーチャルな作業環境5’の表面との間に交差が存在するかどうか。
もし、上記(i)または(ii)の条件の少なくとも一つが満たされた(交差の存在)場合、干渉を検出し(図10の例の場合、バーチャルな把持装置11’とバーチャルな作業環境5’の仕切りの一つとの干渉)、演算手段4はテスト134に戻り、別のワークを選択する。安全上の理由から、干渉テストの実施時には、テスト(i)および(ii)の際に、交差をテストする代わりに、最小限の許容範囲或いは隔たりを考慮に入れることができる。こうして、実際の状況上でテストされる二つの要素の間に最小限の距離を物理的に保障することになる。
演算プログラムの完成されたバージョンでは、上記(i)および(ii)の干渉検知は、バーチャルな把持装置11’および選択されたワークP’jによって構成される全体を引き上げる運動をシミュレートし、引き上げの軌道上でこの全体が取る様々な位置での干渉(i)および(ii)を確認することで行われる。
もし、図7および/あるいは図9の場合のように、上記(i)および(ii)の二つの条件が否定された(干渉が検知されない)場合、演算手段4はワークP’jおよび選択された把持の形状を許可し、コマンド装置3に以下のものを送信する(段階140)。すなわち、許可された把持の形状、および、許可されたバーチャルなワークP’jに対応する実際のワークPjの、把持ロボット1の座標上での位置データ[位置(x’,y’,z’)と方向(α’,β’,γ’)]。
段階141
この段階141はコマンド装置3のプロセッサによって実行される(コマンド・プログラム)。
コマンド装置3は、自明の適切な仕方で、把持ロボット1の駆動装置、および実際の把持装置11を操作し、空間内で実際の把持装置11を移動させ、位置データがコマンド装置3に送信された実際のワークPjを、コマンド装置3に送信された把持の形状において、把持することを可能にする。
実際のワークPjが実際の作業環境5から把持ロボット1によって取り出されると、演算手段4は段階130に戻る。
把持の方法は、演算プログラムが、段階132で構築されたバーチャル作業状況VWS内にワークを検知しなくなる(テスト133および「作業終了」)まで実行される。
多関節のロボットに備え付けた把持装置を含む、本発明の把持システムを図式的に表したものである。 図1の把持ロボットの把持装置によって把持および操作されうるワーク例の3次元図である。 図1のロボットの把持装置が、把持の第1の形状において、図2と同じワークを把持している図である。 図1のロボットの把持装置が、把持の第2の形状において、図2と同じワークを把持している図である。 図1の把持システムの取得手段によって得られた3次元点群データの一例である。 図5の点群データを基に自動的に構築された、バーチャル作業状況(VWS)の3次元図像である。 バーチャル作業状況(VWS)が、図2と同じワークの一山を含んでいる3次元図像であり、これらのワークは容器の中にバラ積みされ、幾つかのワークは部分的に重なり合い、1個のワークが図1のロボットの把持装置によって、前述の把持の第1の形状において、他のワークとの重なりの問題がない状態で把持されている。 バーチャル作業状況(VWS)が、図7と同じバラ積みされたワークを含んでいる3次元図像である。 バーチャル作業状況(VWS)が、図7と同じバラ積みされたワークを含んでいる3次元図像である。 バーチャル作業状況(VWS)が、図7と同じバラ積みされたワークを含んでいる3次元図像である。 図2と同じワークが、容器内の仕切りの中に個別に並べられている3次元図像である。 図2と同じワークが、容器内に同じ方向を向いて(上から同じ面が見えている)、半ばバラ積みされて置かれている3次元図像である。 本発明の自動把持の方法が、個別的に実用された一例の主要な段階を示したフローチャートである。

Claims (8)

  1. 実際の作業環境(5)内に置かれた、少なくとも1個の実際のワーク(Pj)を、実際の把持装置(11)を利用して自動的に把持するための、以下の連続した段階を含むことを特徴とする方法:
    (a)実際の作業環境(5)およびこの作業環境に存在する各ワーク(Pj)によって構成される実際の作業状況(RWS)の表面を、3次元座標[Nj(Xj,Yj,Zj)]の点群データ[Nj(Xj,Yj,Zj)](N)として自動的に3次元デジタル化する;
    (b)(a)の段階で得られた点群データ(N)内において、バーチャルな各ワーク(P’j)、およびバーチャル作業環境(5’)を自動的に位置決定する、その際、実際のワーク(Pj)および実際の作業環境(5)についての、3次元CADのデジタルモデルを利用する;
    (c)実際の作業状況(RWS)に対応し、また、(b)の段階で位置決定されたバーチャルな各ワーク(P’j)およびバーチャル作業環境(5’)によって構成される、3次元のバーチャル作業状況(VWS)を自動的に構築する、この構築は、各々の実際のワーク(Pj)および実際の作業環境(5)についての3次元CADのデジタルモデル、ならびに、(b)の段階で決定された、バーチャルな各ワーク(P’j)とバーチャル作業環境(5’)についての位置データ[(x,y,z);(α,β,γ)]を利用することによって、自動的に実現される;
    (d)(c)の段階で構築されたバーチャル作業状況(VWS)内において、バーチャルなワーク(P’j)の一つを自動的に選択する;
    (e)実際の把持装置(11)へコマンドを送信し、(d)の段階で選択されたバーチャルなワーク(P’j)に対応する実際のワーク(Pj)を自動的に把持する。
  2. 実際の作業環境(5)が、2個以上の実際のワーク(Pj)を含むこと、および、(a)から(e)までの段階が、実際の作業環境(5)内にワークがなくなるまで自動的に繰り返されることを特徴とする、請求項1に記載の方法。
  3. 実際の作業環境(5)が2個以上の実際のワーク(Pj)を含むこと、および、(d)の段階においてバーチャルなワーク(P’j)の選択を最終的に許可する以前に、バーチャル作業状況(VWS)において、重なり状態について事前に定めた基準の一つ以上を適用して、そのバーチャルなワーク(P’j)に対し近接のバーチャルなワークが少なくとも部分的に重なっているかどうかを予め確認し、そのバーチャルなワーク(P’j)に事前に定めた基準通りに近接のバーチャルなワークが重なっている場合には、そのワークを選択しないことを特徴とする、請求項1あるいは請求項2に記載の方法。
  4. (d)の段階においてバーチャルなワーク(P’j)の選択を最終的に許可する以前に、バーチャル作業状況(VWS)において、少なくともそのバーチャルなワーク(P’j)とバーチャル作業環境(5’)とが干渉しないかどうか、および/あるいは、少なくともそのバーチャルなワーク(P’j)と、別の1個のバーチャルなワークとが干渉しないかどうかを予め確認し、干渉が検知された場合には、そのワークを選択しないことを特徴とする、請求項1から請求項3の内のいずれか1項に記載の方法。
  5. (d)の段階においてバーチャルなワーク(P’j)の選択を最終的に許可する以前に、バーチャル作業状況(VWS)内に、実際の把持装置(11)についての3次元CADのデジタルモデルによって定義されたバーチャルな把持装置(11’)を配置し、このバーチャルな把持装置(11’)が、前述のバーチャルなワーク(P’j)に対して、事前に定めた少なくとも一つの把持の形状に置かれるようにした際、少なくともこのバーチャルな把持装置(11’)と、バーチャルな作業環境(5’)とが干渉しないかどうか、および/あるいは、少なくともこのバーチャルな把持装置(11’)と、別の1個のバーチャルなワークとが干渉しないかどうかを確認し、干渉が検知された場合には、そのワーク(P’j)を選択しないことを特徴とする、請求項1から請求項4の内のいずれか1項に記載の方法。
  6. バラ積みされた複数のワークの全体の中から、1個以上の実際のワーク(Pj)を自動的に把持するために使用されることを特徴とする、請求項1から請求項5の内のいずれか1項に記載の方法。
  7. 実際の作業環境(5)内に置かれた1個以上の実際のワーク(Pj)を自動的に把持するためのシステム:この把持システムは1個以上の実際の把持装置(11)を備えた1台の把持ロボット(1)、および、少なくとも把持ロボット(1)にコマンドを送信できるコマンド装置(3)を含み、請求項1から請求項6の内のいずれか1項において定義された把持の方法の段階(a)を実現するための3次元デジタル化装置(2)、および、請求項1から請求項6の内のいずれか1項において定義された把持の方法の(b)から(d)までの段階を自動的に実現するための演算手段(4)を含むことを特徴とし、かつ、演算手段(4)によって得られた演算データに基づいて、請求項1から請求項6の内のいずれか1項において定義された把持の方法の段階(e)を実現するために、コマンド装置(3)が構成されていることを特徴とする。
  8. 記憶媒体上あるいはメモリ内に搭載され、一方で、把持システムについてプログラム可能な演算手段(4)によって自動的に実行可能な演算プログラム:この把持システムはさらに、1個以上の実際の把持装置(11)を備えた1台の把持ロボット(1)、少なくとも把持ロボット(1)にコマンドを送信できるコマンド装置(3)、および、1個の実際の物体、ないしは複数の実際の物体の全体の表面を、3次元座標[Nj(Xj,Yj,Zj)]の点群データ(N)[Nj(Xj,Yj,Zj)]として3次元にデジタル化することのできる3次元デジタル化装置(2)を含んでおり、この演算プログラムは、前述の演算手段(4)によって実行された際に、請求項1から請求項6の内のいずれか1項において定義された把持の方法の(b)から(d)までの段階を自動的に実現できるものである。
JP2008551815A 2006-01-23 2007-01-22 ワーク自動把持のための方法及びシステム Active JP5281414B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0600569 2006-01-23
FR0600569A FR2896441B1 (fr) 2006-01-23 2006-01-23 Procede et systeme permettant la prehension automatisee de piece(s)
PCT/FR2007/000114 WO2007083039A2 (fr) 2006-01-23 2007-01-22 Procede et systeme permettant la prehension automatisee de piece(s)

Publications (2)

Publication Number Publication Date
JP2009523623A true JP2009523623A (ja) 2009-06-25
JP5281414B2 JP5281414B2 (ja) 2013-09-04

Family

ID=37124071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008551815A Active JP5281414B2 (ja) 2006-01-23 2007-01-22 ワーク自動把持のための方法及びシステム

Country Status (6)

Country Link
EP (1) EP1976671B1 (ja)
JP (1) JP5281414B2 (ja)
CN (1) CN101370624B (ja)
CA (1) CA2674317C (ja)
FR (1) FR2896441B1 (ja)
WO (1) WO2007083039A2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011167815A (ja) * 2010-02-19 2011-09-01 Ihi Corp 物体認識ロボットシステム
JP2015147256A (ja) * 2014-02-04 2015-08-20 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
WO2018105121A1 (ja) * 2016-12-09 2018-06-14 トーヨーカネツソリューションズ株式会社 物品探りあて把持装置
JP2018144164A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2018144162A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
CN109318226A (zh) * 2017-08-01 2019-02-12 欧姆龙株式会社 机器人控制装置、机器人控制方法及存储介质
KR20190053850A (ko) * 2016-09-28 2019-05-20 제롬 그호부와 로봇 손을 이용해 크레이트에 오브젝트를 자동화 적재하는 방법
WO2020153299A1 (ja) * 2019-01-25 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
WO2022264726A1 (ja) * 2021-06-15 2022-12-22 三菱電機株式会社 搬送システム、物品の搬送を制御するためにコンピュータで実行される方法、および、当該方法をコンピュータに実行させるプログラム
US12103162B2 (en) 2019-01-25 2024-10-01 Sony Interactive Entertainment Inc. Robotic device having an image analysis system

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4226623B2 (ja) 2006-09-29 2009-02-18 ファナック株式会社 ワーク取り出し装置
DE102007026956A1 (de) 2007-06-12 2008-12-18 Kuka Innotec Gmbh Verfahren und System zum Roboter geführten Depalettieren von Reifen
JP2010094777A (ja) * 2008-10-16 2010-04-30 Fuji Electric Systems Co Ltd 遠隔操作支援装置
US8442304B2 (en) * 2008-12-29 2013-05-14 Cognex Corporation System and method for three-dimensional alignment of objects using machine vision
DE102009009569B4 (de) * 2009-02-19 2019-12-19 Daimler Ag Verfahren zum Ermitteln einer Teilfläche eines Bauteils
FR2945136A1 (fr) * 2009-05-04 2010-11-05 Turbomeca Structure de donnees d'une nomenclature
JP6092530B2 (ja) 2012-06-18 2017-03-08 キヤノン株式会社 画像処理装置、画像処理方法
JP5670397B2 (ja) * 2012-08-29 2015-02-18 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP6015282B2 (ja) * 2012-09-21 2016-10-26 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP5754454B2 (ja) * 2013-03-18 2015-07-29 株式会社安川電機 ロボットピッキングシステム及び被加工物の製造方法
JP2015089590A (ja) * 2013-11-05 2015-05-11 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
DE102016212695B4 (de) * 2016-05-31 2019-02-21 Siemens Aktiengesellschaft Industrieroboter
AT518859B1 (de) * 2016-08-12 2018-02-15 Qness Gmbh Verfahren und Vorrichtung zur Härteprüfung
CN107742199A (zh) * 2017-10-17 2018-02-27 东华大学 一种考虑结构件几何特征的物料清点系统
DE102018205669B4 (de) * 2018-04-13 2021-12-23 Kuka Deutschland Gmbh Aufnehmen von Nutzlasten mittels eines robotergeführten Werkzeugs
CN110480684A (zh) * 2018-07-10 2019-11-22 肇庆市高新区晓靖科技有限公司 一种机械手的无死角识别器
CN111376239B (zh) * 2018-12-29 2023-06-27 希姆通信息技术(上海)有限公司 机器人的抓取方法及系统
FR3108183B1 (fr) * 2020-03-13 2022-02-25 Orano Ds Demantelement Et Services Procédé de réalisation automatique d’une opération sur un objet avec un outil porté par un système polyarticulé
EP3989164A1 (en) 2020-10-26 2022-04-27 Purple S.r.l. a socio unico Method for identifying a discontinuity on the surface of an object
CN112917486B (zh) * 2021-01-21 2022-06-14 江苏科技大学 一种基于无人机的船舶外板智能喷涂路径自动规划方法
WO2024187346A1 (en) * 2023-03-13 2024-09-19 Abb Schweiz Ag Method for determining gripping sequence, controller, and computer readable storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09167234A (ja) * 1995-12-15 1997-06-24 Okayama Univ Cad情報を用いた3次元認識手法及び装置
JP2004188562A (ja) * 2002-12-13 2004-07-08 Fanuc Ltd ワーク取出し装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5568593A (en) * 1994-01-13 1996-10-22 Ethicon, Inc. Robotic control system for a needle sorting and feeding apparatus
DE10080012B4 (de) * 1999-03-19 2005-04-14 Matsushita Electric Works, Ltd., Kadoma Dreidimensionales Verfahren zum Erkennen von Gegenständen und System zum Aufnehmen eines Gegenstandes aus einem Behältnis mit Verwendung des Verfahrens
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP3805310B2 (ja) * 2003-01-30 2006-08-02 ファナック株式会社 ワーク取出し装置
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09167234A (ja) * 1995-12-15 1997-06-24 Okayama Univ Cad情報を用いた3次元認識手法及び装置
JP2004188562A (ja) * 2002-12-13 2004-07-08 Fanuc Ltd ワーク取出し装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011167815A (ja) * 2010-02-19 2011-09-01 Ihi Corp 物体認識ロボットシステム
JP2015147256A (ja) * 2014-02-04 2015-08-20 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP7026102B2 (ja) 2016-09-28 2022-02-25 ジェローム グロスボワ, グリッパーロボットを使用して物体を箱に自動的に装填する方法
KR102444067B1 (ko) 2016-09-28 2022-09-16 제롬 그호부와 로봇 손을 이용해 크레이트에 오브젝트를 자동화 적재하는 방법
KR20190053850A (ko) * 2016-09-28 2019-05-20 제롬 그호부와 로봇 손을 이용해 크레이트에 오브젝트를 자동화 적재하는 방법
JP2019529128A (ja) * 2016-09-28 2019-10-17 ジェローム グロスボワ, グリッパーロボットを使用して物体を箱に自動的に装填する方法
WO2018105121A1 (ja) * 2016-12-09 2018-06-14 トーヨーカネツソリューションズ株式会社 物品探りあて把持装置
JPWO2018105121A1 (ja) * 2016-12-09 2019-12-12 トーヨーカネツソリューションズ株式会社 物品探りあて把持装置
JP7027335B2 (ja) 2016-12-09 2022-03-01 トーヨーカネツ株式会社 物品探りあて把持装置
JP2018144164A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2018144162A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
CN109318226A (zh) * 2017-08-01 2019-02-12 欧姆龙株式会社 机器人控制装置、机器人控制方法及存储介质
JP7116901B2 (ja) 2017-08-01 2022-08-12 オムロン株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP2019025618A (ja) * 2017-08-01 2019-02-21 オムロン株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP2020116711A (ja) * 2019-01-25 2020-08-06 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
WO2020153299A1 (ja) * 2019-01-25 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
JP7309371B2 (ja) 2019-01-25 2023-07-18 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
US12103162B2 (en) 2019-01-25 2024-10-01 Sony Interactive Entertainment Inc. Robotic device having an image analysis system
WO2022264726A1 (ja) * 2021-06-15 2022-12-22 三菱電機株式会社 搬送システム、物品の搬送を制御するためにコンピュータで実行される方法、および、当該方法をコンピュータに実行させるプログラム
JP7499967B2 (ja) 2021-06-15 2024-06-14 三菱電機株式会社 搬送システム、物品の搬送を制御するためにコンピュータで実行される方法、および、当該方法をコンピュータに実行させるプログラム

Also Published As

Publication number Publication date
CN101370624A (zh) 2009-02-18
WO2007083039A3 (fr) 2007-09-13
EP1976671B1 (fr) 2013-09-18
FR2896441A1 (fr) 2007-07-27
FR2896441B1 (fr) 2009-07-03
WO2007083039A2 (fr) 2007-07-26
CN101370624B (zh) 2011-04-13
CA2674317C (fr) 2015-05-26
EP1976671A2 (fr) 2008-10-08
CA2674317A1 (fr) 2007-07-26
JP5281414B2 (ja) 2013-09-04

Similar Documents

Publication Publication Date Title
JP5281414B2 (ja) ワーク自動把持のための方法及びシステム
CN110640730B (zh) 生成用于机器人场景的三维模型的方法和系统
US11511421B2 (en) Object recognition processing apparatus and method, and object picking apparatus and method
US10335951B2 (en) Information processing apparatus, information processing method, robot control apparatus, and robot system
JP6586532B2 (ja) ロボットの把持のための深層機械学習方法および装置
JP7154815B2 (ja) 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体
Nieuwenhuisen et al. Mobile bin picking with an anthropomorphic service robot
JP5835926B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5458885B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
WO2021177239A1 (ja) 取り出しシステム及び方法
US20220024037A1 (en) Robot control apparatus and method for learning task skill of the robot
JP2017136677A (ja) 情報処理装置、情報処理方法、ロボット制御装置及びロボットシステム
JP2004295223A (ja) 画像処理装置及びロボットシステム
JP6598814B2 (ja) 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法
WO2020190166A1 (ru) Способ и система захвата объекта с помощью роботизированного устройства
JP6632656B2 (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2018144144A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
CN112512754A (zh) 对工业机器人编程的方法
JP7454132B2 (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
CN110914021A (zh) 带有用于执行至少一个工作步骤的操纵设备的操纵装置以及方法和计算机程序
JP2018179859A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
US12097627B2 (en) Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system
WO2022123850A1 (ja) 制御装置、制御方法、プログラム
KR102452315B1 (ko) 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치 및 그 방법
CN112824060B (zh) 加工路径生成装置及其方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110712

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110929

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120706

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120913

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130524

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5281414

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250