JP5911299B2 - 情報処理装置、情報処理装置の制御方法およびプログラム - Google Patents

情報処理装置、情報処理装置の制御方法およびプログラム Download PDF

Info

Publication number
JP5911299B2
JP5911299B2 JP2011286623A JP2011286623A JP5911299B2 JP 5911299 B2 JP5911299 B2 JP 5911299B2 JP 2011286623 A JP2011286623 A JP 2011286623A JP 2011286623 A JP2011286623 A JP 2011286623A JP 5911299 B2 JP5911299 B2 JP 5911299B2
Authority
JP
Japan
Prior art keywords
unit
route
target object
path
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011286623A
Other languages
English (en)
Other versions
JP2013132742A5 (ja
JP2013132742A (ja
Inventor
山本 貴久
貴久 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011286623A priority Critical patent/JP5911299B2/ja
Priority to US13/710,360 priority patent/US9095977B2/en
Publication of JP2013132742A publication Critical patent/JP2013132742A/ja
Publication of JP2013132742A5 publication Critical patent/JP2013132742A5/ja
Application granted granted Critical
Publication of JP5911299B2 publication Critical patent/JP5911299B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45063Pick and place manipulator
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Description

本発明は、情報処理装置、情報処理装置の制御方法およびプログラムに関する。

ロボットハンドを制御して、ばら積みされたワークの中から対象物体(ターゲットワーク)を取り出すためには、まずカメラ等を用いてばら積みの状態を撮影し、何らかの手法を用いて、ロボットハンドが把持するワークの位置姿勢の推定を行う。そして、推定されたワークの位置姿勢に基づいて、ロボットハンドがワークを把持する動作を行うための経路を算出することが必要となる。
特許文献1では、ロボットハンドの予想される手先軌道を示す軌道テンプレートを予め複数登録しておき、各軌道テンプレートに基づいて、ロボットハンドと障害物との干渉を検査する。そして、検査結果により干渉が生じないと判定されると、干渉が生じないと判定された軌道テンプレートに基づいて、ロボットハンドの手先軌道を生成している。
特許文献2では、画像または距離画像に基づいて、物体が取り得る位置姿勢候補を求め、その位置姿勢候補に基づいて、空間を物体空間とそれ以外とに領域分割した環境モデルを作成する。そして、作成された環境モデルに基づいて、対象物体を取り出すためのロボットハンドの動作経路を生成している。
特許文献3では、ロボットハンドの接近経路および離隔経路として、異なる複数の経路パターンを経路パターン記憶部に記憶しておく。次に、視覚センサによって検出されたワークの位置に基づいて、経路パターン記憶部に記憶された複数の経路パターンから一つの経路パターンを選択する。その上で、ロボットハンドが向かうべき目標位置と実際のワークの位置とが一致するように、選択された経路パターンを修正したものを接近経路および離隔経路として規定し、規定された接近経路および離隔経路に沿ってロボットハンドを移動させるように制御している。
特許文献4では、ワーク取出しのサイクルタイムを短くするために、ロボットハンドがワークを把持しようとしている間にも、次回のワーク取出し用の撮影ができるように、ロボットハンドに遮蔽部を設置している。通常、ロボットハンドがワークを把持しようとしている間に撮影を行うと、ロボットハンドも画像に映り込み、後段の画像処理に支障をきたす。それに対し、遮蔽部を設置することで、画像中で遮蔽されている領域とされていない領域との分離を容易にし、後段の画像処理を可能にしている。
上述したように、ばら積みされたワークからロボットハンドにより順次ワークを取出すには、ロボットハンドがワークを把持する動作を行うための経路を算出することが必要となる。作業効率の面から、短時間で作業が終了するような経路を算出することが求められる。
特開平5−127718号公報 特開平10−128686号公報 特開2006−175532号公報 特開平1−183395号公報
しかしながら、特許文献1の手法では、障害物との干渉の有無を基準として経路選択を行っており、作業時間を短縮するような経路を選択することは考慮されていない。
また特許文献2の手法では、把持対象物体とそれ以外の物体との間に、ロボットハンドが入り込む空間が存在することを保証するように動作経路を生成している。従って、この場合も、作業時間を短縮するような経路を選択することは考慮されていない。
また特許文献3の手法では、実際のワークの位置に応じて、他の物体との干渉を避けながらロボットハンドの動作の無駄を低減させるような経路パターンをあらかじめ用意しておくことで、作業時間の短縮を図っている。従って、特許文献3における経路パターン選択の基準はワークの位置であり、作業時間の長短ではない。さらには、ばら積みされたワークから、ロボットハンドにより順次ワークを取出すような場合の作業時間の短縮は考慮されていない。
また特許文献4の手法では、ロボットハンドに遮蔽部を設け、ロボットハンドがワークを把持しようとしている間にも、次回のワーク取出し用の撮影ができるようにすることで、ワーク取出しのサイクルタイムを短くしている。しかしながら、遮蔽されている領域にあるワークの画像は取得できないため、順次ワークを取出す際のターゲットワークの選定に制限が発生してしまう。
また、ばら積みされたワークから順次ワークを取出すような作業の作業時間を短縮化することを考えた場合、次のような問題点がある。
一般に、ばら積みされたワークから順次ワークを取出す場合には、まずカメラ等でばら積み状態を撮影し、撮影画像を用いてそれぞれのワークの位置や姿勢を推定することで、今回取出すべきワーク(ターゲットワーク)を決める。その後、ロボットハンドを制御して、ターゲットワークを把持させて、指定の取出し位置まで搬送する。この手順を順次繰り返す。
このような作業を高速に行うには、ロボットハンドがターゲットワークを把持してからなるべく早く次のターゲットワークのための撮影を行う必要がある。しかしながら、ロボットハンドがターゲットワークを把持した瞬間に撮影を行うと、撮影画像にロボットハンドが映り込んでしまい、ワークの位置姿勢の推定に支障をきたす。また、把持後の搬送途中に撮影する場合でも、撮影画像にロボットハンドが映り込んでしまう場合は、同様にワークの位置姿勢の推定に支障をきたす。
すなわち、一連のワーク取出しの作業時間を短縮するには、ターゲットワークの把持後なるべく早くカメラでの撮影を可能にするように、ロボットハンドを動作させる必要があるが、このような動作に関しては、これまで考慮されてなかった。
上記の課題に鑑み、本発明は、ロボットハンドにより順次ワークを取出すような場合の作業時間を短縮することを目的とする。
上記の目的を達成する本発明に係る情報処理装置は、
撮像手段により撮像された複数の物体を含む画像を取得する取得手段と、
前記取得手段により取得された前記画像に基づいて、前記複数の物体から保持手段により取り出されて保持される対象物体を決定する決定手段と、
前記対象物体の位置に基づいて、前記対象物体の位置から目標位置までの経路を複数生成する生成手段と、
記生成手段により生成された複数の経路から選択することによって前記対象物体を前記目標位置に搬送する搬送経路を決定する経路決定手段とを備え
前記生成手段が生成する複数の経路は、前記対象物体を保持した後に前記撮像手段の撮像範囲外を経由し、その後前記撮像範囲内を経由して前記目標位置に至る第1の経路を含むことを特徴とする。
本発明によれば、ロボットハンドにより順次ワークを取出すような場合の作業時間を短縮することが可能となる。
第1実施形態に係る物体把持装置の構成図。 第1実施形態に係る物体把持装置の俯瞰図。 第1実施形態に係る物体把持装置の俯瞰図。 第1実施形態に係る把持位置ごとの退避位置算出処理の手順を示すフローチャート。 第1実施形態に係るタイミングチャート。 第1実施形態に係る動作シーケンス。 第2実施形態に係る物体把持装置の俯瞰図。 第2実施形態に係るタイミングチャート。 第2実施形態に係る物体把持装置の構成図。 第2実施形態に係る動作シーケンス。 第3実施形態に係る物体把持装置の俯瞰図。
(第1実施形態)
図1を参照して、第1実施形態に係る物体把持装置の構成を説明する。物体把持装置は、ロボットアーム101と、ロボットアーム101のエンドエフェクタであるハンド機構102と、カメラ103と、シーケンス設定部104と、画像処理部107と、カメラ制御部108と、シーケンス制御部114とを備える。また、シーケンス設定部104は、動作経路候補設定部111と、ワーク取出し時間算出部112と、シーケンス選択部113とを備える。画像処理部107は、ワーク状態推定部109と、取出しワーク選定部110とを備える。
カメラ103は、不図示のフレーム上部または天井等に固定的に取り付けられており、トレイ105および当該トレイ105の上に積載されている複数のワーク106を撮影し画像データを生成する。カメラ制御部108は、カメラ103による画像データの取得を制御する。
ワーク状態推定部109は、カメラ103が撮影した画像をカメラ制御部108から取得して所定の処理を行い、ばら積みされた複数のワーク106の位置姿勢を推定する。ワーク106の位置姿勢の推定を行う手法は、公知の手法を用いればよい。例えばワーク106を球状に包み込んだあらゆる方向から撮影した画像を、姿勢情報(ワークを包み込んだ球上での撮影方向、つまり球上の緯度、経度)と対応付けてテンプレートとし、カメラ103からの入力画像との相関をとることにより推定を行う手法を用いることができる。
取出しワーク選定部110は、ワーク状態推定部109により推定された推定結果である各ワークの位置姿勢の情報と当該情報の信頼度とを用いて、ロボットハンド102が今回把持を行って取り出すべき取出し対象ワーク(ターゲットワーク)を決定する。さらに、そのターゲットワークの位置姿勢情報をシーケンス設定部104へ出力する。取出しワークの選定手法は、ワーク状態推定部109による位置姿勢推定の信頼度(例えば、相関演算で得られる相関値)が高いワークを選択するものとする。例えば、最も信頼度が高いワークを取り出すべきワークとして選択してもよいし、信頼度が所定値以上のワークから任意のワークを取り出すべきワークとして選択してもよい。 次に、動作経路候補設定部111の動作について説明していくが、その前に図2(a)および図2(b)を参照してワークの取出しに関連する位置関係について説明する。
図2(a)は、図1に示した物体把持装置のトレイ105、ロボットアーム101およびロボットハンド102付近を、上方から(カメラ103のさらに上から)俯瞰した図である。本来はカメラ103がトレイ105と重なって見えるはずであるが、煩雑になるので省略してある。図1と同じ構成要素(観察方向が違うだけのもの)には同じ符号を付与している。図2(a)において網掛けられたワーク106が、画像処理部107によって決定された今回の取出し作業におけるターゲットワークであるとする。
図2(a)では、すでにワークが2つ取出されて、ワーク取置き用トレイ201に整列して取り置かれている様子が示されている。また白星印は、次に取出されるワークを取り置く位置(以下、「取置き位置21」と称する)を示している。取置き位置21は、取置き用トレイ201の位置と、ワークの整列状態(取置いたワークの間隔等)が指定されていれば、一意に定まる。本実施形態では、ワークを取出すごとに取置き位置21が算出できるものとする。また図2(a)において、黒星印は、退避位置20を示している。退避位置20については後述する。
動作経路候補設定部111は、取出しワーク選定部110から取得したターゲットワーク106の位置姿勢と、算出した取置き位置21とから、ロボットアーム101およびロボットハンド102の動作経路の候補を複数設定する。さらに、 動作経路候補設定部111は、ロボットアーム101およびロボットハンド102がその経路を動作するときの動作時間をそれぞれの候補に対して算出する。
動作経路の設定の説明のために、ロボットハンド102の位置に関して、以下のように用語を定義する。ロボットハンド102のホームポジションを「デフォルト位置」、ターゲットワーク106を把持するときの位置を「把持位置」と称する。また、ターゲットワーク106を取置き位置に置くときの位置はそのまま「取置き位置」と称する。さらに、デフォルト位置を始点とし把持位置を終点とする動作経路を「アプローチ経路」、把持位置を始点とし取置き位置を終点とする経路を「搬送経路」、取置き位置を始点としデフォルト位置を終点とする経路を「リターン経路」と称する。さらに、搬送経路のうち、経由点の指定がある場合を「経由有り搬送経路」、経由点の指定がない場合を「経由無し搬送経路」と称する。
図2(b)は、それぞれの経路を矢印で示している。図2(b)において、一点鎖線がアプローチ経路、実線が経由無し搬送経路、破線が経由有り搬送経路(経由点として退避位置20を指定した場合)、二点鎖線がリターン経路の例を示している。
始点と終点とを指定された場合、ロボットハンド102がその間をどのように移動するかは、公知の手法を用いて算出すればよい。両点の間を補間して始点と終点との間の位置を細かく規定する手法でもよい。同様に始点と終点と経由点を指定された場合にその間をどのように移動するかも、公知の手法を用いて算出すればよい。
また、始点と終点とが指定された経路を、ロボットアーム101およびロボットハンド102が移動するときの動作時間を算出する手法も公知のものを用いればよい。例えば、動作をシミュレートするためのシミュレータを動作経路候補設定部111に用意しておき、それを用いて算出してもよい。あるいは、始点および終点の組ごとに予めオフラインでシミュレートしておき、その結果をテーブルとして保持しておく手法を用いてもよい。テーブルを保持しておく場合には、全ての始点と終点の組ごとに動作時間を保持することは現実的ではないこともありうる。その場合には、始点と終点の位置をある程度量子化したようなテーブルを用意し、使用するときには、最近傍のテーブルデータを使用する構成であってもよい。
ロボットアーム101およびロボットハンド102を動作させてターゲットワーク106を取出すためには、アプローチ経路、搬送経路、リターン経路のセットから構成される動作経路を定める必要がある。動作経路候補設定部111による複数の動作経路候補の設定とは、このセットを複数設定することを意味する。
本実施形態では、動作経路候補設定部111は、第一の動作経路候補として、アプローチ経路、経由無し搬送経路、リターン経路からなる動作経路を設定する。さらに第二の動作経路候補として、アプローチ経路、経由有り搬送経路、リターン経路からなる動作経路を設定する。第二の動作経路候補の経由有り搬送経路で指定される経由点としては、図2(b)の退避位置20を指定する。つまり、第二の動作経路候補の経由有り搬送経路では、ロボットハンド102は、まず把持位置から退避位置に移動し、その後取置き位置に移動するような経路をたどることになる。
ここで図5(a)および図5(b)を参照して、ロボットハンド102が、第一の動作経路候補、第二の動作経路候補のそれぞれに従って動作した場合の動作シーケンスを説明する。
図5(a)の第一の動作経路候補のタイミングチャートに示された動作シーケンスでは、カメラ103によりばら積みされた複数のワークを撮影した後、画像処理部107により、今回把持対象とするターゲットワークが選定される。その後、動作経路候補設定部111により設定されたアプローチ経路、経由無し搬送経路、リターン経路に従って、ロボットハンド102がアプローチ動作、経由無し搬送動作、リターン動作を行うことで、ばら積みされた複数のワークからのワークの取り置きが実行される。その後、この動作シーケンスを繰り返すことで、順次ワークを取出す。この第一の動作経路候補に関する動作は、一般的なシーケンスである。
一方、図5(b)の第二の動作経路候補のタイミングチャートに示された動作シーケンスでは、経由有り動作経路に関して、把持位置から退避位置までの移動動作(退避動作)と、退避位置から取置き位置までの移動動作(退避後搬送動作)とに分かれている。
図5(b)の第二の動作経路候補のタイミングチャートに示された動作シーケンスでは、カメラ103によりばら積みされた複数のワークを撮影した後、画像処理部107により、今回把持対象とするターゲットワークが選定される。ここまでは第一の動作経路候補も第二の動作経路候補も処理は共通である。動作経路候補設定部111により設定されたアプローチ経路、経由有り搬送経路、リターン経路に従って、ロボットハンド102がアプローチ動作、経由有り搬送動作、リターン動作を行う。その一連の動作の途中でロボットハンド102が退避位置20にあるときに、次回のターゲットワーク選定用の撮影を行う。すなわち、経由有り搬送動作のうち、退避動作の後、退避後搬送動作を行う前に撮影を行う。なお、退避動作の後、退避後搬送動作を行う前に限定されず、ロボットハンド102が動作経路に従って移動中であって撮影範囲外に移動した際に、次回の取出し対象ワークの選定のために、ばら積みされた複数のワークを改めて撮影すればよい。これにより、ワーク状態推定部109によるワークの位置姿勢の推定処理および画像処理部107による把持対象とするターゲットワークの選定処理と、ロボットハンド102の退避位置から取置き位置への移動動作(退避後搬送動作)およびデフォルト位置への移動動作(リターン動作)と、を並列に実行することができる。すなわち、順次ワークを取出すサイクルタイムを短縮することが可能となる。
ここで退避位置20について説明する。退避位置20とは、ロボットハンド102をその場所に移動させると、ロボットアーム101およびロボットハンド102が、カメラ103の撮影範囲から外れる位置であり、かつ把持位置からの移動予測時間が最も短い位置である。
図3(a)は、ロボットハンド102が把持位置にある場合の俯瞰図であり、図3(b)は、ロボットハンド102が退避位置20にある場合の俯瞰図である。本実施形態では、簡単化のために、トレイ105の大きさが、カメラ103の撮影範囲と同じ大きさとしている。従って、図3(b)の状態では、ロボットアーム101およびロボットハンド102は、撮影範囲に含まれていない。
上述したように、退避位置20は、ロボットアーム101およびロボットハンド102が、カメラ103の撮影範囲から外れる位置であり、かつ把持位置からの移動予測時間が最も短い位置のことである。従って、把持位置(ターゲットワークの位置)に応じて退避位置20は変化することになる。予めオフラインでシミュレーションを行って把持位置ごとに対応する退避位置を算出しておき、その結果をテーブルとして保持しておき、当該テーブルを参照することによって把持位置ごとの退避位置20が算出可能となる。
図4のフローチャートを参照して、オフラインでのシミュレーションよる、把持位置ごとの退避位置の算出処理について説明する。
ステップS400において、物体把持装置が有する不図示の制御部は、ロボットアーム101およびロボットハンド102の移動範囲のうち、ロボットアーム101およびロボットハンド102がカメラ103の撮影範囲から外れる位置を、退避候補位置として複数設定する。退避候補位置の個数は、多いほどより正確な退避位置が算出できることになるが、その分シミュレーションの時間がかかる。よって、シミュレーション時間に制限があるのであれば、カメラ103の撮影範囲からロボットアーム101およびロボットハンド102が外れるまでの移動予測時間が短くなるように、両者のトレードオフで決定すればよい。
ステップS401において、制御部は、トレイ105の内側に、把持候補位置を複数設定する。把持候補位置の個数もシミュレーションの時間とのトレードオフで決定すればよい。例えば、トレイ105の内部をメッシュ状に分割して、その交点を把持候補位置とするような手法で把持候補位置の個数を削減してもよい。
ステップS402において、制御部は、ステップS401で設定された複数の把持候補位置から一つを選択する。ステップS403において、制御部は、ステップS400で設定された複数の退避候補位置から一つを選択する。
ステップS404において、制御部は、ステップS402で選択された把持候補位置から、ステップS403で選択された退避候補位置までの移動予測時間をシミュレーションにより算出する。このシミュレーションは公知の手法を用いればよい。
ステップS405において、制御部は、現在選択されている把持候補位置に対して、S400で設定された全ての退避候補位置が選択済みであるか否かを判定する。全ての退避候補位置が選択済みであると判定された場合(S405;YES)、ステップS407へ進む。一方、まだ選択されていない退避候補位置があると判定された場合(S405;NO)、ステップS406へ進む。
ステップS406において、制御部は、現在選択されている把持候補位置に対して、まだ選択されていない退避候補位置を選択する。その後、ステップS404へ戻る。ステップS407において、制御部は、現在選択されている把持候補位置に対して、ステップS404で算出された移動予測時間が最少となる退避候補位置を、その把持候補位置に対する退避位置としてメモリに記録する。これにより退避経路の経路設定が行われる。
ステップS408において、制御部は、ステップS401で設定された全ての把持候補位置が選択済みであるか否かを判定する。全ての把持候補位置が選択済みであると判定された場合(S408;YES)、シミュレーション処理を終了する。一方、まだ選択されていない把持候補位置があると判定された場合(S408;NO)、ステップS409へ進む。ステップS409において、制御部は、まだ選択されていない把持候補位置を選択する。その後、ステップS403へ戻り、新たな退避候補位置の選択を開始する。以上で図4のフローチャートの各処理が終了する。
図4のフローチャートに示す手順により把持位置ごとに退避位置を算出し、算出結果をテーブル化したものを動作経路候補設定部111に用意しておく。取出しワーク選定部110から取得したターゲットワーク106の位置姿勢から把持位置を算出し、さらにテーブルを参照して照らし合わせることによって退避位置を得ることができる。ただし、テーブルとして用意された把持位置が密にサンプリングされていない場合(上述のようにメッシュ状の分割等の場合)には、動作経路候補設定部111は、算出された把持位置に最も近い把持位置(テーブルに存在する把持位置)に対応する退避位置を得ればよい。
退避位置が取得できれば、公知の技術により、把持位置から退避位置へ、あるいは退避位置から取置き位置へ、ロボットハンド102が移動するのに要する動作時間を算出できる。ここで、ロボットハンド102が把持位置から退避位置へ移動するための動作時間を「退避時間」と称する。ロボットハンド102が退避位置から取置き位置へ移動するための動作時間を「退避後搬送時間」と称する。なお、把持位置から退避位置への動作時間である「退避時間」は、図4のオフラインシミュレーションによりS404で算出した値をテーブルに記録しておき、その値を使用してもよい。
以上のようにして、動作経路候補設定部111は、第一の動作経路候補(アプローチ経路、経由無し搬送経路、リターン経路)に沿ってロボットハンド102が移動するときの動作時間を経路ごとに算出できる。同様に、第二の動作経路候補(アプローチ経路、経由有り搬送経路、リターン経路)に沿ってロボットハンド102が移動するときの動作時間を経路ごとに算出できる。動作経路候補設定部111は、これら経路ごとに算出した動作時間を後述のワーク取出し時間算出部112へ出力する。つまり、第一の動作経路候補に関して、アプローチ経路の動作時間、経由有り搬送経路の動作時間、およびリターン経路の動作時間を、ワーク取出し時間算出部112へ出力する。さらに第二の動作経路候補に関して、アプローチ経路の動作時間、経由無し搬送経路の動作時間、およびリターン経路の動作時間を、ワーク取出し時間算出部112へ出力する。第二の動作経路候補の経由無し搬送経路の動作時間としては、退避時間と退避後搬送時間とをワーク取出し時間算出部112へ出力すればよい。
ワーク取出し時間算出部112は、動作経路候補設定部111から取得した、(それぞれが経路ごとに算出されている)第一及び第二の動作経路候補の動作時間に基づいて、ロボットハンド102が、あるワークを把持してから次のワークを把持するまでに要する時間(以下、「ワーク取出し時間」と称する)を推定する。
このワーク取出し時間の推定は、図5に示すシーケンスを想定して行う。第一の動作経路候補の場合、図5(a)に示されるように、あるワークを把持してからの、経由無し搬送動作に要する時間、リターン動作に要する時間、撮影に要する時間、ワーク状態の推定/選定に要する時間、およびアプローチ動作の要する時間の合計がワーク取出し時間となる。
第二の動作経路候補の場合、図5(b)に示されるように、あるワークを把持してからの、退避動作に要する時間、撮影に要する時間、ワーク状態の推定/選定に要する時間と、退避後搬送動作に要する時間およびリターン動作に要する時間の和との長い方、およびアプローチ動作に要する時間の合計がワーク取出し時間となる。なお、ワーク状態の推定/選定に要する時間と、退避後搬送動作に要する時間およびリターン動作に要する時間の和とのうち長い方を採用するのは、両方の処理が終わって初めてアプローチ動作へ進めるからである。例えば図5(b)の場合にはワーク状態の推定/選定の時間は用いずに、退避後搬送動作およびリターン動作に要する時間の和を用いて算出する。逆にワーク状態の推定/選定に要する時間が退避後搬送動作およびリターン動作に要する時間よりも長い場合は、ワーク状態の推定/選定に要する時間を用いて算出すればよい。
ワーク取出し時間算出部112は、動作経路候補設定部111から、ロボットハンド102が移動するときの経路ごとの動作時間を取得している。従って、カメラ103が撮影に要する時間と、画像処理部107がワーク状態の推定/選定に要する時間がわかれば、第一及び第二の動作経路候補に対応するワーク取出し時間をそれぞれ算出できる。
これらのうちカメラ103が撮影に要する時間は、予め測定しておくことにより知ることができる。また、ワーク状態の推定/選定に要する時間も予め測定しておけば知ることができる。あるいは、ワーク状態の推定/選定に要する時間が画像ごとに変動するような場合には、前回のワーク取出し時に画像処理部107で要した処理時間で代用してもよい。
ワーク取出し時間算出部112は、ロボットハンド102が第一及び第二の動作経路候補に対するワーク取出し時間を上述したように算出して、算出結果をシーケンス選択部113へ出力する。
シーケンス選択部113は、ワーク取出し時間算出部112から取得した二つのワーク取出し時間を比較して、ワーク取出し時間が短い方に対応するシーケンスを選択する(動作経路選択処理)。さらに、選択結果をシーケンス制御部114へ出力する。
シーケンス制御部114では、シーケンス選択部113から取得したシーケンスに従ってロボットアーム101およびロボットハンド102を制御する。また、所定のタイミングでカメラ103が撮影を行うように、カメラ制御部108の制御も行う。シーケンス制御部114がロボットアーム101およびロボットハンド102の動作を制御することにより、ばら積み状態で積載されているトレイ105からワーク106を順々に把持して取出すことが可能となる。
以上が図1に示す本実施形態に係る物体把持装置の構成の説明である。
続いて、図6(a)および図6(b)を参照して、本実施形態に係る物体把持装置の動作を説明する。図6(a)は、シーケンス設定部104により第一の動作経路が選択された場合の動作を示している。図6(b)は、シーケンス設定部104により第二の動作経路が選択された場合の動作を示している。図6(a)および図6(b)において、カメラ103によるばら積みワークの撮影、画像処理部107によるターゲットワークの選定、シーケンス設定部104による動作経路の選択、までの動作は共通である。シーケンス設定部104による動作経路の選択結果に従って、図6(a)または図6(b)の何れかの動作へ分岐する。
シーケンス設定部104が第一の動作経路を選択した場合には、図6(a)において、ロボットアーム101およびロボットハンド102は、シーケンス制御部114の制御に従って、アプローチ経路、経由無し搬送経路、リターン経路の各動作を行う。この一連の動作により、ばら積みワークからターゲットワークを取出し、取置き位置へ置くという動作が実現される。さらに、その後、カメラ103によるばら積みワークの撮影に戻ることで、ワークを順次取出していく。
シーケンス設定部104が第二の動作経路を選択した場合には、図6(b)において、ロボットアーム101およびロボットハンド102は、シーケンス制御部114の制御に従って、アプローチ経路、経由有り搬送経路(退避動作と退避後搬送動作)、リターン経路の各動作を行う。この一連の動作により、ばら積みワークからターゲットワークを取出し、取置き位置へ置くという動作が実現される。この場合、シーケンス制御部114は、ロボットアーム101およびロボットハンド102が退避位置にあるときに、カメラ103によるばら積みワークの撮影を行うように制御する。この場合、画像処理部107によるターゲットワークの選定と、ロボットハンド102の退避後搬送動作およびリターン動作とが並列に動作することになる。
以上説明したように、本実施形態では、シーケンス設定部104により、ロボットアーム101およびロボットハンド102の動作経路の候補を複数設定する。さらに、あるワークを把持してから、次のワークを把持するまでに要する時間(ワーク取出し時間)が短くなるように、複数の動作経路の候補から実際に動作する動作経路を選択する。これにより、順次ワークを取出す場合の作業時間の短縮を可能にしている。 特に、動作経路候補として、カメラの撮像領域から一旦退避し、その後ワーク取置き領域に搬送するような経路を含めておくことで、一旦退避している間にばら積みされたワークの画像を取得することを可能にしている。それによって、一旦退避した後のワーク取置き領域への搬送動作と、取得した画像を用いたばら積みワークの状態の推定とを並列に行うことができ、作業時間の短縮を可能にしている。
(第2実施形態)
第1実施形態において、第一の動作経路を選択した場合の動作シーケンスでは、ロボットハンド102がリターン動作を終了してから次の撮影を開始している(図5(a)および図6(a)参照)。本実施形態では、第一の動作経路を選択した場合の動作シーケンスとして、ロボットハンド102が、経由無し搬送動作中あるいはリターン動作中であっても、カメラ103の撮影範囲から外れた瞬間に撮影を開始する例について説明する。
図7は、把持位置から取置き位置21への経由無し搬送動作中に、ロボットハンド102がカメラ103の撮影範囲から外れた瞬間の俯瞰図を示している。ここで、ロボットハンド102がカメラ103の撮影範囲から外れた瞬間の位置を「搬送中フレームアウト位置」と称する。本実施形態では、第一の動作経路を選択した場合の動作シーケンスとして、この瞬間にカメラ103の撮影を開始するものとする。
ここで図9を参照して、第2実施形態に係る物体把持装置の構成を説明する。物体把持装置は、第1実施形態と同様に、ロボットアーム101と、ロボットアーム101のエンドエフェクタであるハンド機構102と、カメラ103と、シーケンス設定部104と、画像処理部107と、カメラ制御部108と、シーケンス制御部114とを備える。画像処理部107は、ワーク状態推定部109と、取出しワーク選定部110とを備える。画像処理部107は、第1実施形態と同様に、ワーク状態推定部109と、取出しワーク選定部110とを備える。ただし、シーケンス設定部104は、第1実施形態とは異なり、動作経路候補設定部911と、ワーク取出し時間算出部912と、シーケンス選択部913とを備える。
動作経路候補設定部911は、ロボットハンド102が把持位置(ターゲットワークの位置)から搬送中フレームアウト位置へ移動するときの動作時間を算出する。搬送中フレームアウト位置は、把持位置によって異なる。従って、予め把持位置と搬送中フレームアウト位置とを調べておき、その結果をテーブルで用意しておくことにより、把持位置が決まれば搬送中フレームアウト位置も決めることができる。搬送中フレームアウト位置が決まれば、始点を把持位置、終点を取置き位置、経由点を搬送中フレームアウト位置として、第1実施形態と同様に公知の手法でシミュレーションを行い、動作時間を算出することができる。
動作経路候補設定部911は、第1実施形態で説明した動作経路候補設定部111と同様に、第一の動作経路候補および第二の動作経路候補の動作時間を経路ごとに算出する。さらに、上述したように、ロボットハンド102が把持位置から搬送中フレームアウト位置へ移動するときの動作時間を算出する。動作経路候補設定部911は、経路ごとに算出したこれらの動作時間をワーク取出し時間算出部912へ出力する。
ここで図8(a)および図8(b)を参照して、ロボットハンド102が第一の動作経路候補および第二の動作経路候補のそれぞれに従って動作した場合の動作シーケンスを説明する。ただし、図8(b)の第二の動作経路候補のタイミングチャートは、図5(b)と同様である。 図8(a)の第一の動作経路候補のタイミングチャートに示された動作シーケンスでは、動作経路候補設定部911により設定されたアプローチ経路、経由無し搬送経路、リターン経路に従ってロボットハンド102が動作する。その一連の動作の途中でロボットハンド102が搬送中フレームアウト位置に移動したときに、次回のターゲットワーク選定用の撮影を行う。これにより、第1実施形態の第一の動作経路候補での動作よりもサイクルタイムの短縮が可能となる。
ワーク取出し時間算出部912は、第1実施形態で説明したワーク取出し時間算出部112と同様に、動作経路候補設定部911から取得した、第一及び第二の動作経路候補の動作時間に基づいて、ロボットハンド102が、あるワークを把持した後から、次のワークを把持するまでに要する時間(ワーク取出し時間)を推定する。
ただし、本実施形態では、第一の動作経路候補の動作時間の推定は、経由無し搬送動作中に、次のワーク取出しのためのカメラ103による撮影が行われるシーケンスに従って行われる。つまり、ロボットハンド102が、搬送中フレームアウト位置に到達した瞬間にカメラ103による撮影を開始する。この場合、カメラ103による撮影と、経由無し搬送動作(の一部)あるいはリターン動作とが並行して行われる。並列動作の時間は、動作時間の長い方を用いてワーク取出し時間を算出する。例えば、図8(a)のような場合には、経由無し搬送動作(搬送中フレームアウト位置以降の部分)とリターン動作撮影の時間は用いずに、ワーク状態の推定/選定の時間を用いて算出を行う。
ワーク取出し時間算出部912は、ロボットハンド102が第一及び第二の動作経路をとった場合の各ワーク取出し時間を算出し、シーケンス選択部913へ出力する。
シーケンス選択部913は、ワーク取出し時間算出部912から取得した二つのワーク取出し時間を比較し、ワーク取出し時間が短い方に対応するシーケンスを選択する。さらに、選択結果をシーケンス制御部114へ出力する。
続いて、図10(a)および図10(b)を参照して、本実施形態に係る物体把持装置の動作を説明する。図10(a)は、シーケンス設定部104により第一の動作経路が選択された場合の動作を示している。図10(b)は、シーケンス設定部104により第二の動作経路が選択された場合の動作を示している。ただし、図10(b)は図6(b)と同じである。図10(a)および図10(b)において、カメラ103によるばら積みワークの撮影、画像処理部107によるターゲットワークの選定、シーケンス設定部104による動作経路の選択、までの動作は共通である。シーケンス設定部104による動作経路の選択結果に従って、図10(a)または図10(b)の何れかの動作へ分岐する。
シーケンス設定部104が第一の動作経路を選択した場合には、図10(a)に示されるように、ロボットアーム101およびロボットハンド102は、シーケンス制御部914の制御に従って、アプローチ経路、経由無し搬送経路、リターン経路の各動作を行う。この一連の動作により、ばら積みワークからターゲットワークを取出し、取置き位置へ置くという動作が実現される。この場合、シーケンス制御部114は、ロボットアーム101およびロボットハンド102が搬送中フレームアウト位置にあるときに、カメラ103によるばら積みワークの撮影を行うように制御する。この場合、画像処理部107によるターゲットワークの選定と、ロボットハンド102の経由無し搬送動作およびリターン動作とが並列に動作する。
シーケンス設定部104が第二の動作経路を選択した場合には、図10(b)に示されるように、第1実施形態の場合と同様の動作を行う。以上が本発明による物体把持装置の動作である。
以上説明したように、本実施形態では、シーケンス設定部104が、ロボットアーム101およびロボットハンド102の動作経路の候補を複数設定する。そのときに、第1実施形態の場合よりもワーク取出し時間が短くなる可能性のある候補を設定している。従って、結果的に、第1実施形態よりも、順次ワークを取出す場合の作業時間が短縮される可能性がある。
(第3実施形態)
第1実施形態および第2実施形態では、把持位置(ターゲットワークの位置)に応じて退避位置を変更している。本実施形態では、把持位置に依存することなく退避位置を固定した場合について説明する。なお、本実施形態に係る物体把持装置の構成は第1実施形態で説明した構成と同様であるため、説明を省略する。
本実施形態における退避位置とは、ロボットハンド102をその場所に移動させると、カメラ103の撮影範囲からロボットアーム101およびロボットハンド102が外れる位置のことである。本実施形態では退避位置は固定であるので、図4のフローチャートを参照して第1実施形態で説明したようなオフラインのシミュレーションによる把持位置ごとの退避位置の算出および算出結果のテーブル保持の必要はない。
本実施形態に係る動作経路候補設定部111は、第一の動作経路候補として、アプローチ経路、経由無し搬送経路、リターン経路からなる動作経路を設定する。これは第1実施形態の場合と同じである。さらに第二の動作経路候補として、アプローチ経路、経由有り搬送経路、リターン経路からなる動作経路を設定する。第二の動作経路候補の経由有り搬送経路で指定される経由点は、固定の退避位置を指定する。
図11は、ロボットハンド102のホームポジションの近くに固定退避位置1100を設定した例である。動作経路候補設定部111は、第一および第二の動作経路候補の各経路(アプローチ経路、搬送経路、リターン経路)に始点と終点と経由点(固定退避位置1100)とを設定し、その動作時間を算出する。算出手法は、第1実施形態の場合と同じく公知の手法でよい。動作経路候補設定部111以外の各処理部は、第1実施形態と同様に動作する。また、図11では固定退避位置1100が1か所の場合について説明したが、固定退避位置が複数あってもよい。その場合には、把持位置に応じて固定退避位置を選択すればよい。例えば、把持位置から最も近い固定退避位置を選択してもよい。
以上説明したように、本実施形態によれば、把持位置に依存することなく退避位置を固定とした場合、第1実施形態で示したように把持位置ごとに退避位置を調べる必要がなくなるため、動作経路候補設定部111の処理が簡易になり処理時間の短縮につながるという利点がある。
(第4実施形態)
第1乃至第3実施形態では、ターゲットワークを取出すたびに、シーケンス設定部104が、ロボットアーム101およびロボットハンド102の動作経路を複数の候補から選択している。
しかしながら、把持位置(ターゲットワークの位置)が変更されても、シーケンス選択部113の選択結果が変わらないことが予め判明していれば、その限りではない。
例えば、把持位置から退避位置までの移動予測時間が最も大きくなる(「最大退避時間」と称する)場合でも、第二の動作候補経路を選択した方がワーク取出し時間が短ければ、第一の動作経路候補が選択されることはない。その判断をするためには、あらかじめ最大退避時間を調べておく必要がある。第1実施形態の図4で示した手順中に、最大退避時間を計測する手順を追加することにより、最大退避時間を予め調べておくことができる。
そのうえで、最初のターゲットワークに対するシーケンス設定部104の処理において、これまでの実施形態で示した処理を行うのと同時に、最大退避時間を用いたときの第二の動作候補経路と、第一の動作候補経路とのワーク取出し時間の比較も行えばよい。その結果、最大退避時間の場合でも、第二の動作候補経路を選択した方がワーク取出し時間が短ければ、以降のターゲットワークの取出しにおいて、第一の動作経路候補の設定は省略可能である。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (9)

  1. 撮像手段により撮像された複数の物体を含む画像を取得する取得手段と、
    前記取得手段により取得された前記画像に基づいて、前記複数の物体から保持手段により取り出されて保持される対象物体を決定する決定手段と、
    前記対象物体の位置に基づいて、前記対象物体の位置から目標位置までの経路を複数生成する生成手段と、
    記生成手段により生成された複数の経路から選択することによって前記対象物体を前記目標位置に搬送する搬送経路を決定する経路決定手段とを備え
    前記生成手段が生成する複数の経路は、前記対象物体を保持した後に前記撮像手段の撮像範囲外を経由し、その後前記撮像範囲内を経由して前記目標位置に至る第1の経路を含むことを特徴とする情報処理装置。
  2. 前記生成手段が生成する複数の経路は、前記撮像手段の撮像範囲から前記保持手段が退避するための退避位置を経由せず、前記対象物体の位置と前記目標位置とを直線で結んだ第2の経路を含むことを特徴とする請求項1に記載の情報処理装置。
  3. 更に、前記生成手段により生成された複数の経路に対して、前記決定手段により決定された対象物体を保持してから、次に保持する対象物体を保持するまでに要する時間を計算する計算手段と、
    前記経路決定手段は、前記計算手段の計算結果に基づいて、前記搬送経路を決定することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記経路決定手段は、前記計算手段により計算される時間が最短時間の経路を決定することを特徴とする請求項3に記載の情報処理装置。
  5. 前記経路決定手段が前記第1の経路を搬送経路として決定した場合に、前記取得手段は、前記保持手段が前記撮像範囲外を経由している間に、新たに前記複数の物体の画像を取得し、
    前記決定手段は、前記保持手段が前記撮像範囲外から前記撮像範囲内を経由している間に、前記新たに取得された画像に基づき次に取り出されて保持される物体を決定する処理を行うことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記取得手段により取得された前記画像から前記複数の物体の位置姿勢を推定する推定手段をさらに備え、
    前記決定手段は、前記推定手段の推定結果に基づいて、前記複数の物体から前記保持手段により取り出されて保持される前記対象物体を決定することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記決定手段により決定された前記対象物体の位置に対応する前記撮像範囲外の退避位置を記憶する記憶手段をさらに備え、
    前記生成手段は、前記第1の経路として前記退避位置を経由するような経路を生成することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 情報処理装置の制御方法であって、
    取得手段が、撮像手段により撮像された複数の物体を含む画像を取得する工程と、
    決定手段が、前記取得された前記画像に基づいて、前記複数の物体から保持手段により取り出されて保持される対象物体を決定する工程と、
    生成手段が、前記対象物体の位置に基づいて、前記対象物体の位置から目標位置までの経路を複数生成する工程と、
    経路決定手段が、前記生成された複数の経路から選択することによって前記対象物体を前記目標位置に搬送する搬送経路を決定する工程と、
    を有し、
    前記生成する工程で生成された複数の経路は、前記対象物体を保持した後に前記撮像手段の撮像範囲外を経由し、その後前記撮像範囲内を経由して前記目標位置に至る第1の経路を含む
    ことを特徴とする情報処理装置の制御方法。
  9. 撮像手段により撮像された複数の物体を含む画像を取得する工程と、
    前記取得された前記画像に基づいて、前記複数の物体から保持手段により取り出されて保持される対象物体を決定する工程と、
    前記対象物体の位置に基づいて、前記対象物体の位置から目標位置までの経路を複数生成する工程と、
    前記生成された複数の経路から選択することによって前記対象物体を前記目標位置に搬送する搬送経路を決定する工程と、
    を有し、
    前記生成する工程で生成された複数の経路は、前記対象物体を保持した後に前記撮像手段の撮像範囲外を経由し、その後前記撮像範囲内を経由して前記目標位置に至る第1の経路を含むことを特徴とする情報処理方法の各工程をコンピュータに実行させるためのプログラム。
JP2011286623A 2011-12-27 2011-12-27 情報処理装置、情報処理装置の制御方法およびプログラム Expired - Fee Related JP5911299B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011286623A JP5911299B2 (ja) 2011-12-27 2011-12-27 情報処理装置、情報処理装置の制御方法およびプログラム
US13/710,360 US9095977B2 (en) 2011-12-27 2012-12-10 Object gripping apparatus, control method for object gripping apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011286623A JP5911299B2 (ja) 2011-12-27 2011-12-27 情報処理装置、情報処理装置の制御方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2013132742A JP2013132742A (ja) 2013-07-08
JP2013132742A5 JP2013132742A5 (ja) 2015-02-19
JP5911299B2 true JP5911299B2 (ja) 2016-04-27

Family

ID=48655338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011286623A Expired - Fee Related JP5911299B2 (ja) 2011-12-27 2011-12-27 情報処理装置、情報処理装置の制御方法およびプログラム

Country Status (2)

Country Link
US (1) US9095977B2 (ja)
JP (1) JP5911299B2 (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120290130A1 (en) * 2011-05-10 2012-11-15 Agile Planet, Inc. Method to Model and Program a Robotic Workcell
JP5787642B2 (ja) * 2011-06-28 2015-09-30 キヤノン株式会社 対象物保持装置、対象物保持装置の制御方法、およびプログラム
US9586320B2 (en) * 2013-10-04 2017-03-07 GM Global Technology Operations LLC System and method for controlling a vision guided robot assembly
DE102014114272B4 (de) 2013-10-04 2019-03-07 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren zum Steuern einer durch Bilderfassung gelenkten Roboteranordnung
CN105083977B (zh) * 2014-05-14 2018-04-10 泰科电子(上海)有限公司 自动配料设备
KR101716805B1 (ko) * 2014-12-26 2017-03-16 전자부품연구원 로봇 제어 시각화 장치
JP6632208B2 (ja) * 2015-03-24 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP6554900B2 (ja) * 2015-04-28 2019-08-07 オムロン株式会社 テンプレート作成装置及びテンプレート作成方法
JP2017042859A (ja) * 2015-08-25 2017-03-02 キヤノン株式会社 ピッキングシステム、並びに、そのための処理装置、方法及びプログラム
EP3753687B1 (en) 2015-09-01 2022-11-02 Berkshire Grey Operating Company, Inc. Systems and methods for providing dynamic robotic control systems
US11370128B2 (en) 2015-09-01 2022-06-28 Berkshire Grey Operating Company, Inc. Systems and methods for providing dynamic robotic control systems
CN107407075B (zh) * 2015-09-30 2020-09-25 株式会社小松制作所 图像数据生成方法
US10625432B2 (en) 2015-11-13 2020-04-21 Berkshire Grey, Inc. Processing systems and methods for providing processing of a variety of objects
CA3117170C (en) * 2016-02-08 2023-08-29 Berkshire Grey, Inc. Systems and methods for providing processing of a variety of objects employing motion planning
US9981381B1 (en) * 2016-06-08 2018-05-29 X Development Llc Real time generation of phase synchronized trajectories
CN106302009A (zh) * 2016-08-09 2017-01-04 衣佳鑫 工作时间在物联网中统计方法及系统
JP6514171B2 (ja) * 2016-09-27 2019-05-15 ファナック株式会社 最適な物品把持経路を学習する機械学習装置、及び機械学習方法
CN110167723B (zh) * 2017-01-12 2022-10-04 株式会社富士 作业机
EP3592510B1 (en) 2017-03-06 2023-09-06 Berkshire Grey Operating Company, Inc. Systems and methods for efficiently moving a variety of objects
DE112017007399B4 (de) * 2017-04-04 2021-09-23 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
WO2018185855A1 (ja) 2017-04-04 2018-10-11 株式会社Mujin 制御装置、ピッキングシステム、物流システム、プログラム、制御方法、及び、生産方法
CN110520259B (zh) 2017-04-04 2021-09-21 牧今科技 控制装置、拾取系统、物流系统、存储介质以及控制方法
DE112017007392B4 (de) 2017-04-04 2021-11-04 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
CN110621451B (zh) 2017-04-04 2021-07-06 牧今科技 信息处理装置、拾取系统、物流系统、程序以及信息处理方法
JP6828572B2 (ja) * 2017-04-18 2021-02-10 富士通株式会社 ロボット移動時間推定プログラム及びロボット移動時間推定方法
US10933533B2 (en) * 2017-06-23 2021-03-02 Kindred Systems Inc. Systems, devices, articles, and methods for stow verification
WO2019014274A1 (en) 2017-07-10 2019-01-17 Hypertherm, Inc. METHODS AND SYSTEMS USED BY ROBOTIC MATERIAL PROCESSOR PATHWAY GENERATION COMPUTERS
JP7116901B2 (ja) * 2017-08-01 2022-08-12 オムロン株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
CN110958932B (zh) 2017-08-02 2023-05-16 伯克希尔格雷营业股份有限公司 用于获取和移动具有复杂的外表面的物体的系统和方法
US11370111B2 (en) 2017-09-20 2022-06-28 Magna International Inc. System and method for adaptive bin picking for manufacturing
JP6676030B2 (ja) * 2017-11-20 2020-04-08 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
JP6895086B2 (ja) * 2018-03-09 2021-06-30 オムロン株式会社 ロボットの制御装置、制御方法及びプログラム
JP7233858B2 (ja) * 2018-06-13 2023-03-07 オムロン株式会社 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
US10399778B1 (en) * 2018-10-25 2019-09-03 Grey Orange Pte. Ltd. Identification and planning system and method for fulfillment of orders
US20220016773A1 (en) * 2018-11-27 2022-01-20 Sony Group Corporation Control apparatus, control method, and program
JP7251555B2 (ja) * 2019-01-18 2023-04-04 株式会社安川電機 ロボット制御システム及びロボット制御方法
US11485015B2 (en) * 2019-02-21 2022-11-01 Hiwin Technologies Corp. System for eliminating interference of randomly stacked workpieces
CN110221602B (zh) * 2019-05-06 2022-04-26 上海秒针网络科技有限公司 目标对象捕捉方法和装置、存储介质及电子装置
US11648674B2 (en) * 2019-07-23 2023-05-16 Teradyne, Inc. System and method for robotic bin picking using advanced scanning techniques
JP7331527B2 (ja) 2019-07-26 2023-08-23 オムロン株式会社 ロボットの動作を決定する装置、方法およびプログラム
JP7346133B2 (ja) * 2019-07-29 2023-09-19 株式会社キーエンス ロボット設定装置及びロボット設定方法
JP6908908B2 (ja) * 2019-10-10 2021-07-28 株式会社トキワシステムテクノロジーズ ロボットアームの経路生成装置および経路生成プログラム
JP7273692B2 (ja) * 2019-11-01 2023-05-15 株式会社東芝 制御装置、制御方法およびプログラム
DE102020113278A1 (de) 2020-05-15 2021-11-18 Gerhard Schubert Gesellschaft mit beschränkter Haftung Verfahren zur Steuerung des Betriebs eines Industrieroboters
KR20220087623A (ko) * 2020-12-17 2022-06-27 삼성전자주식회사 기판 처리 장치
TWI785878B (zh) * 2021-11-05 2022-12-01 所羅門股份有限公司 物件揀取方法及系統
WO2023238215A1 (ja) * 2022-06-07 2023-12-14 川崎重工業株式会社 ロボットシステム、ピッキング方法およびコンピュータプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62114890A (ja) * 1985-11-08 1987-05-26 日立金属株式会社 視覚付ロボツトを用いた移載方法
US5032975A (en) 1987-08-07 1991-07-16 Canon Kabushiki Kaisha Controller for automatic assembling apparatus
JPH01183395A (ja) * 1988-01-09 1989-07-21 Toyoda Mach Works Ltd 視覚装置を備えたロボット
JP3115297B2 (ja) 1989-10-09 2000-12-04 キヤノン株式会社 自動装置の制御装置
JPH03239487A (ja) * 1990-02-19 1991-10-25 Canon Inc 視覚を備えた自動組立装置
JPH05127718A (ja) 1991-11-08 1993-05-25 Fujitsu Ltd マニピユレータの手先軌道自動生成装置
CA2179971C (en) 1995-06-30 2001-10-30 Takahisa Yamamoto An adaptable communication apparatus and an adaptable communication system
JPH10128686A (ja) 1996-10-30 1998-05-19 Nippon Telegr & Teleph Corp <Ntt> ロボットマニピュレータの制御方法およびロボットマニピュレータの制御装置
JP4532712B2 (ja) 2000-09-29 2010-08-25 キヤノン株式会社 電子機器
JP3826039B2 (ja) 2002-01-22 2006-09-27 キヤノン株式会社 信号処理装置
JP4109902B2 (ja) 2002-05-27 2008-07-02 キヤノン株式会社 表示装置
JP4087841B2 (ja) 2004-12-21 2008-05-21 ファナック株式会社 ロボット制御装置
JP4933055B2 (ja) * 2005-05-06 2012-05-16 国立大学法人 熊本大学 ワーク搬送システム、経路設定方法及び経路設定プログラム
JP4199264B2 (ja) * 2006-05-29 2008-12-17 ファナック株式会社 ワーク取り出し装置及び方法
JP5184824B2 (ja) 2007-06-15 2013-04-17 キヤノン株式会社 演算処理装置及び方法
JP5003890B2 (ja) * 2007-09-06 2012-08-15 株式会社安川電機 基板搬送用ロボット及びそれを備えた基板搬送装置、半導体製造装置
JP4706684B2 (ja) * 2007-10-04 2011-06-22 セイコーエプソン株式会社 作業対象物の配置決定方法、作業対象物の配置決定支援装置、作業対象物の配置決定支援プログラム及びロボットシステム
US8549742B2 (en) 2007-12-19 2013-10-08 Canon Kabushiki Kaisha High-voltage power supply device and image forming apparatus having same
JP5495822B2 (ja) 2010-01-29 2014-05-21 キヤノン株式会社 情報処理装置、その制御方法及びプログラム
JP5869759B2 (ja) 2010-11-04 2016-02-24 キヤノン株式会社 無線電力伝送システム、無線電力伝送システムの制御方法、無線送電装置、無線送電装置の制御方法、およびプログラム
JP5794686B2 (ja) 2011-08-10 2015-10-14 キヤノン株式会社 撮像装置及びその駆動方法

Also Published As

Publication number Publication date
US20130166061A1 (en) 2013-06-27
JP2013132742A (ja) 2013-07-08
US9095977B2 (en) 2015-08-04

Similar Documents

Publication Publication Date Title
JP5911299B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
US11049280B2 (en) System and method for tying together machine vision coordinate spaces in a guided assembly environment
JP2017042859A (ja) ピッキングシステム、並びに、そのための処理装置、方法及びプログラム
JP4226623B2 (ja) ワーク取り出し装置
US9302391B2 (en) Object gripping apparatus, method of controlling the same and storage medium
US8861785B2 (en) Information processing device, information processing method and program
JP2013132742A5 (ja) 物体把持装置、装置、それらの制御方法およびプログラム
CN109407603B (zh) 一种控制机械臂抓取物体的方法及装置
JP2007319938A (ja) ロボット装置及び物体の三次元形状の取得方法
CN111683798A (zh) 工件拾取装置以及工件拾取方法
WO2020022302A1 (ja) 把持装置
JP6576050B2 (ja) 物体移動方法及びシステム
JP2013099808A (ja) 組み付け装置、およびその方法、組み付け動作プログラム
JP2008023630A (ja) アームを誘導可能な移動体およびアームを誘導する方法
CN110587592B (zh) 机器人控制装置、机器人控制方法及计算机可读记录介质
JP2008014691A (ja) ステレオ画像計測方法とそれを実施する装置
CN111745640A (zh) 物体检测方法、物体检测装置以及机器人系统
JP5573275B2 (ja) 特徴点抽出装置及びこれを用いた動作教示装置、動作処理装置
CN114310892A (zh) 基于点云数据碰撞检测的物体抓取方法、装置和设备
JP6293968B2 (ja) 移動ロボット運用システム、移動ロボット、及び対象物取り出し方法
WO2021146989A1 (en) Method and apparatus for estimating system state
JP6659886B1 (ja) ランダムに積み重ねた複数の対象物の干渉を排除するシステム
TW202339917A (zh) 機器人系統
JP2020040147A (ja) 移動式マニピュレータ、移動ロボット、サーバ、および移動式マニピュレータシステム
JP2002236924A (ja) 2次元連続画像を利用した3次元物体の動き追跡方法及び同装置等

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160229

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160329

R151 Written notification of patent or utility model registration

Ref document number: 5911299

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees