JP6140204B2 - 3次元センサを備えた搬送ロボットシステム - Google Patents

3次元センサを備えた搬送ロボットシステム Download PDF

Info

Publication number
JP6140204B2
JP6140204B2 JP2015022623A JP2015022623A JP6140204B2 JP 6140204 B2 JP6140204 B2 JP 6140204B2 JP 2015022623 A JP2015022623 A JP 2015022623A JP 2015022623 A JP2015022623 A JP 2015022623A JP 6140204 B2 JP6140204 B2 JP 6140204B2
Authority
JP
Japan
Prior art keywords
dimensional
dimensional information
robot
information
acquisition unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015022623A
Other languages
English (en)
Other versions
JP2016144841A (ja
Inventor
象太 滝澤
象太 滝澤
文和 藁科
文和 藁科
伴 一訓
一訓 伴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2015022623A priority Critical patent/JP6140204B2/ja
Priority to CN201610052279.7A priority patent/CN105858188B/zh
Priority to DE102016000995.0A priority patent/DE102016000995B4/de
Priority to US15/014,656 priority patent/US9844882B2/en
Publication of JP2016144841A publication Critical patent/JP2016144841A/ja
Application granted granted Critical
Publication of JP6140204B2 publication Critical patent/JP6140204B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/902Devices for picking-up and depositing articles or materials provided with drive systems incorporating rotary and rectilinear movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/905Control arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39107Pick up article, object, measure, test it during motion path, place it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40564Recognize shape, contour of object, extract position and orientation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45063Pick and place manipulator
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • Y10S901/31Gripping jaw
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • Y10S901/40Vacuum or mangetic
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device

Description

本発明は、積重ねられた対象物を搬送するロボットシステムに関する。
ダンボール等の積重ねられた対象物をロボットによって順次搬送するロボットシステムが公知である。ロボットは、対象物を把持する把持装置をアーム先端に備えており、把持装置によって把持した対象物を後工程のために別の場所に在る載置部まで搬送するように構成される。
従来のロボットシステムにおいては、対象物の底面が載置部の表面に一致するように予め作成された指令位置に従ってロボットを動作させることによって載置工程が実行される。しかしながら、対象物の実際の寸法が想定された寸法とは異なる場合、対象物の位置決めが適切に行われずに、過度の押圧力が対象物に付与されたり、又は対象物を落下させたりする虞がある。
別の従来のロボットシステムは、対象物が載置部に接触したことを検出するセンサを備えており、対象物が載置部に接触した時点で対象物が解放されるようになっている。しかしながら、このようなロボットシステムにおいては、載置部から十分に離れた位置から対象物を載置部に向かって低速で移動させる必要があり、搬送効率が低下する。
センサによって積重ねられた対象物の位置情報を取得して、搬送工程を実行するように構成された種々のロボットシステムが公知である(特許文献1〜7参照)。
特開2010−005769号公報 特開平7−053054号公報 特開平7−299782号公報 特開2001−317911号公報 特開2013−154457号公報 特開2012−192490号公報 特開2011−247819号公報 特開2013−101045号公報
「カメラキャリブレーション」, CVIM 148, PP. 1-18, 2005 「A review of recent range image registration methods with accuracy evaluation」, Image and Vision Computing Volume 25, Issue 5, pp. 578-596, 2007
従来のロボットシステムは、対象物の3次元形状及び寸法が未知である場合、或いは対象物の個体差が大きい場合に、搬送工程を適切に実行するのが困難であった。そこで、対象物の3次元形状又は寸法が未知であっても、搬送工程を適切に実行可能なロボットシステムが求められている。
本願の1番目の発明によれば、積重ねられた複数の対象物を順次搬送して載置部に載置するロボットシステムであって、前記複数の対象物の3次元情報を取得する3次元センサと、前記複数の対象物のうちの少なくとも1つを把持する把持装置を備えるロボットと、積重ねられた前記複数の対象物の3次元情報を、前記3次元センサによって第一の3次元情報として取得する第一の3次元情報取得部と、前記第一の3次元情報に基づいて、前記複数の対象物のうち、搬送されるべき搬送対象物を特定するとともに、該搬送対象物の位置を取得する対象物位置取得部と、前記搬送対象物を前記把持装置によって把持するとともに前記ロボットによって残りの対象物から離れて移動させた後、前記残りの対象物の3次元情報を、前記3次元センサによって第二の3次元情報として取得する第二の3次元情報取得部と、前記第一の3次元情報及び前記第二の3次元情報に基づいて、前記第一の3次元情報を取得する際に前記3次元センサの死角に位置する部位を含む前記搬送対象物の3次元形状情報を取得する形状情報取得部と、前記形状情報取得部によって取得される前記搬送対象物の3次元形状情報に基づいて、前記搬送対象物を前記載置部に載置するときに、前記載置部に接触するようになる前記搬送対象物の接触部から前記把持装置又は前記ロボットの基準点までの距離と、前記搬送対象物を前記載置部に安定的に載置できるようになる前記搬送対象物の安定姿勢と、の少なくとも一方を取得する載置情報取得部と、前記接触部から前記基準点までの距離と前記安定姿勢との少なくとも一方に基づいて、前記搬送対象物を前記載置部に載置するときの前記ロボットの位置及び姿勢を計算する位置姿勢計算部と、を備えるロボットシステムが提供される。
本願の2番目の発明によれば、1番目の発明に係るロボットシステムが、前記把持装置によって把持されている前記搬送対象物の3次元情報を、前記3次元センサによって第三の3次元情報として取得する第三の3次元情報取得部をさらに備えており、前記形状情報取得部が、前記第一の3次元情報、前記第二の3次元情報及び前記第三の3次元情報に基づいて、前記搬送対象物の3次元形状情報を取得するように構成される。
本願の3番目の発明によれば、1番目又は2番目の発明に係るロボットシステムにおいて、少なくとも1つの前記対象物を搬送した後において、前記第一の3次元情報取得部が、以前の搬送工程を実行する際に取得された前記第二の3次元情報を前記第一の3次元情報として取得するように構成される。
本願の4番目の発明によれば、1番目から3番目のいずれかの発明に係るロボットシステムにおいて、前記3次元センサが、前記ロボットとは別個の架台に取付けられている。
本願の5番目の発明によれば、1番目から3番目のいずれかの発明に係るロボットシステムにおいて、前記3次元センサが、前記ロボットのアーム先端部に取付けられている。
本願の6番目の発明によれば、積重ねられた複数の対象物を順次搬送して載置部に載置するロボットシステムであって、前記複数の対象物の3次元情報を取得する3次元センサと、前記複数の対象物のうちの少なくとも1つを把持する把持装置を備えるロボットと、積重ねられた前記複数の対象物の3次元情報を、前記3次元センサによって第一の3次元情報として取得する第一の3次元情報取得部と、前記第一の3次元情報に基づいて、前記複数の対象物のうち、搬送されるべき搬送対象物を特定するとともに、該搬送対象物の位置を取得する対象物位置取得部と、前記把持装置によって把持されている前記搬送対象物の3次元情報を、前記3次元センサによって第三の3次元情報として取得する第三の3次元情報取得部と、前記第一の3次元情報及び前記第三の3次元情報に基づいて、前記第一の3次元情報を取得する際に前記3次元センサの死角に位置する部位を含む前記搬送対象物の3次元形状情報を取得する形状情報取得部と、前記形状情報取得部によって取得される前記搬送対象物の3次元形状情報に基づいて、前記搬送対象物を前記載置部に載置するときに、前記載置部に接触するようになる前記搬送対象物の接触部から前記把持装置又は前記ロボットの基準点までの距離と、前記搬送対象物を前記載置部に安定的に載置できるようになる前記搬送対象物の安定姿勢と、の少なくとも一方を取得する載置情報取得部と、前記接触部から前記基準点までの距離と前記安定姿勢との少なくとも一方に基づいて、前記搬送対象物を前記載置部に載置するときの前記ロボットの位置及び姿勢を計算する位置姿勢計算部と、を備えるロボットシステムが提供される。
本願の7番目の発明によれば、6番目の発明に係るロボットシステムにおいて、前記第三の3次元情報を取得する際の前記ロボットの位置及び姿勢の少なくとも一方が、前記搬送対象物を前記把持装置によって把持したときとは異なる。
これら及び他の本発明の目的、特徴及び利点は、添付図面に示される本発明の例示的な実施形態に係る詳細な説明を参照することによって、より明らかになるであろう。
本発明に係るロボットシステムによれば、対象物を取出す前後の3次元情報に基づいて、搬送される対象物の3次元形状情報を取得する。そして、取得された対象物の3次元形状情報に従って対象物を載置する際のロボットの位置及び姿勢を計算する。それにより、対象物の形状又は寸法が未知である場合、又は対象物の個体差が大きい場合であっても、搬送工程を適切に実行できるようになる。
一実施形態に係るロボットシステムの構成を示す概略図である。 載置部及び載置部に載置される対象物を示す図である。 一実施形態に係るロボットシステムの機能ブロック図である。 一実施形態に係るロボットシステムによって実行される搬送工程の流れを示すフローチャートである。 第一の3次元情報を示す図である。 第二の3次元情報を示す図である。 第一及び第二の3次元情報に基づいて得られる抽出点集合を示す図である。 第一の3次元情報を示す図である。 第二の3次元情報を示す図である。 第一及び第二の3次元情報に基づいて得られる抽出点集合を示す図である。 載置部及び載置部に載置される対象物を示す図である。 別の実施形態に係るロボットシステムの機能ブロック図である。 第一の3次元情報を示す図である。 対象物の把持工程を示す図である。 第三の3次元情報を示す図である。 第三の3次元情報を構成する各々の3次元点に対して同次変換を適用して得られる抽出点集合を示す図である。 第二の3次元情報を示す図である。 対象物の例を示す図である。 第一の3次元情報を示す図である。 対象物の把持工程を示す図である。 第三の3次元情報を示す図である。 第三の3次元情報を構成する各々の3次元点に対して同次変換を適用して得られる抽出点集合を示す図である。 第二の3次元情報を示す図である。
以下、添付図面を参照して本発明の実施形態を説明する。図示される実施形態の構成要素は、本発明の理解を助けるために寸法が適宜変更されている。また、同一又は対応する構成要素には、同一の参照符号が使用される。
図1は、一実施形態に係るロボットシステムの構成を示す概略図である。ロボットシステム10は、アーム31の先端に手首32を有するロボット30と、ロボット30の手首32に取付けられた把持装置33と、ロボット30を制御するロボット制御装置60と、架台41に取付けられた3次元センサ40と、を備えている。図示されるロボット30は、垂直多関節ロボットであるものの、移動機構ロボット、パラレルリンクロボット、直動機構ロボットなど任意のタイプのロボットが用いられてもよい。
ロボット制御装置60は、通信ケーブル等の公知の通信手段によってロボット30に接続されている。ロボット30は、ロボット制御装置60から送出される制御指令に従って各関節軸に設けられたサーボモータが駆動され、それにより所望の位置及び姿勢を有するように動作する。
把持装置33は、手首32に形成されたメカニカルインタフェースを介してロボット30に取付けられる。把持装置33は、把持工程において周囲の対象物50、対象物50を収容するコンテナ又はパレット(図示せず)などと干渉することなく、少なくとも1つの対象物50を搬送可能であれば、その形状及び構成については何ら限定されない。例えば、把持装置33は、対象物50に対して機械的に圧力を付与する機械式把持装置、負圧を発生させて対象物50に対して吸引力を付与する真空吸着式把持装置、又は磁力を利用して対象物50に対して吸引力を付与する磁力式把持装置である。
対象物50は、図示されるように積重ねられた状態で設けられている。本明細書において、搬送工程を実行するために把持装置33に把持される対象物を「搬送対象物」と称し、他の対象物と区別することがある。ロボットシステム10によれば、把持装置33によって把持された搬送対象物51は、ロボット30によって他の対象物50から離れて移動させられ、図2に示されるような載置部52に載置される。載置部52は、搬送対象物51を安定的に載置可能な構成を有していればよく、特定の形態には限定されない。載置部52は、例えばコンベヤであり、搬送対象物51を後工程のために順次移動させられるようになっている。載置部52は、コンベヤなどの独立した移動機構を有しない机、パレット又は治具であってもよい。
3次元センサ40は、積重ねられた対象物50の概ね上方に設けられている。3次元センサ40は、対象物50の表面上に在る複数点の3次元位置情報をそれぞれ取得するとともに、取得した3次元点の集合を3次元情報として出力するように構成されている。
3次元センサ40の構成は何ら限定されず、例えば空間コード方式、位相シフト方式、ランダムドットパターン方式、TOF方式、光切断方式、ステレオカメラ方式などの公知の原理を利用した任意のセンサである。3次元情報の出力形式は何ら限定されない。便宜上、本明細書では、3次元点の集合(「point cloud」としても知られる)から構成される3次元情報を用いる例に基づいて実施形態を説明する。
3次元センサ40は、ロボットシステム10の基準座標系における3次元情報を取得できるように予めキャリブレーションされている。センサ座標系と基準座標系とを関連付けるキャリブレーションは、公知の方法に従って実行される(例えば非特許文献1参照)。
3次元センサ40を制御するセンサ制御装置(図示せず)は、ロボット制御装置60に内蔵されていてもよいし、ロボット制御装置60とは別個に設けられていてもよい。一実施形態において、3次元センサ40は、3次元位置情報に加えてグレースケール画像又はカラー画像などの2次元情報をさらに取得するように構成されていてもよい。
図3は、ロボットシステム10の機能ブロック図である。図示されるように、ロボットシステム10は、第一の3次元情報取得部12と、対象物位置取得部14と、第二の3次元情報取得部16と、形状情報取得部18と、載置情報取得部20と、位置姿勢計算部22と、を備えている。各々の機能を実行するのに必要な計算、情報の記憶及び読出し、並びにデータ及び信号の送受信は、CPU、ROM、RAMなど公知のハードウェア構成を有するデジタルコンピュータによって実行される。
第一の3次元情報取得部12は、積重ねられた複数の対象物50の3次元情報を、3次元センサ40によって第一の3次元情報として取得する。第一の3次元情報は、搬送対象物51を搬送する前の状態における対象物50の3次元情報である。
対象物位置取得部14は、第一の3次元情報に基づいて、複数の対象物50のうち、搬送されるべき搬送対象物51を特定するとともに、搬送対象物51の位置を取得する。搬送対象物51は、例えば、対象物50のうち、最も高い位置に在る対象物である。或いは、把持装置33のタイプに応じて定まる最も把持し易い位置に在る対象物、又は周囲の対象物50と干渉せずに取出すことができる対象物を搬送対象物51として選定してもよい。
3次元情報に基づいて搬送対象物51の位置を認識する方法は特に限定されず、公知の方法を採用できる(例えば非特許文献2参照)。また、特許文献8に記載されているように、3次元情報及び2次元情報を組合せて搬送対象物51の位置が認識されてもよい。搬送対象物51の位置は、把持工程において把持装置33を位置決めするのに用いられる。すなわち、搬送対象物51の位置に従って、ロボット30の位置及び姿勢が制御され、搬送対象物51を把持するのに適切な位置に把持装置33が位置決めされる。
第二の3次元情報取得部16は、搬送対象物51を把持装置33によって把持するとともにロボット30によって残りの対象物50から離れて移動させた後、残りの対象物50の3次元情報を、3次元センサ40によって第二の3次元情報として取得する。第二の3次元情報は、ロボット30及び搬送対象物51が、図1の破線で示される3次元センサ40の検出範囲外まで移動された後に取得される。しかしながら、第二の3次元情報を取得するにあたって支障がない場合は、搬送対象物51又はロボット30が3次元センサ40の検出範囲内に含まれる状態で第二の3次元情報が取得されてもよい。
形状情報取得部18は、第一の3次元情報及び第二の3次元情報に基づいて、第一の3次元情報を取得する際に3次元センサ40の死角に位置する部位を含む搬送対象物51の3次元形状情報を取得する。第一の3次元情報を取得する際には、搬送対象物51の、3次元センサ40とは反対側の部位は3次元センサ40の死角に位置しており、3次元情報が取得されない。そこで、本実施形態によれば、第一の3次元情報と第二の3次元情報を対比することによって、第一の3次元情報に含まれていなかった搬送対象物51の箇所の形状情報を取得できる。それにより、搬送対象物51の概ね全体の3次元形状を取得できる。
載置情報取得部20は、形状情報取得部18によって取得される搬送対象物51の3次元形状情報に基づいて、搬送対象物51を載置部52に載置するときに、載置部52に接触するようになる搬送対象物51の接触部から把持装置33又はロボット30の基準点までの距離と、搬送対象物51を載置部52に安定的に載置できるようになる搬送対象物51の安定姿勢と、の少なくとも一方を取得する。
位置姿勢計算部22は、搬送対象物51の接触部から把持装置33又はロボット30の基準点までの距離と、搬送対象物51の安定姿勢と、の少なくとも一方に基づいて、搬送対象物51を載置部52に載置するときのロボット30の位置及び姿勢を計算する。
図4は、本実施形態に係るロボットシステム10によって実行される搬送工程の流れを示すフローチャートである。以下の説明では、対象物50が直方体形状である例(図1及び図2参照)を適宜参照する。
まず、ステップS401において、第一の3次元情報取得部12が、積重ねられた対象物50の3次元情報(第一の3次元情報)を取得する。図5Aは、2段に積重ねられた5つの対象物50について取得される第一の3次元情報を示している。太線X1は、第一の3次元情報として取得される3次元点が分布する範囲を示している。このように、第一の3次元情報X1は、対象物50の表面上に位置する多数の3次元点の位置情報を含んでいる。
ステップS402において、対象物位置取得部14が、第一の3次元情報X1に基づいて搬送対象物51を特定するとともに、搬送対象物51の位置を取得する。ステップS402において取得される搬送対象物51の位置は、例えば搬送対象物51の上面の重心の位置(図5Aの「G」参照)である。ステップS401及びステップS402の工程を実行している間は、必要に応じてロボット30に別の作業を実行させてもよい。
ステップS403において、ロボット30を駆動して、搬送対象物51を残りの対象物50から離れて移動させる。ロボット30は、ステップS402において取得された搬送対象物51の位置に基づいて、把持装置33が搬送対象物51を把持できる位置に把持装置33を位置決めする。例えば、把持装置33が、一点の把持点で搬送対象物51を把持するように構成される吸着式把持装置である場合、把持装置33の基準点(例えば把持点)が、搬送対象物51の位置(例えば重心G)に一致するように、把持装置33を位置決めする。把持装置33の位置決めが完了したら、把持装置33を作動させて搬送対象物51を把持する。その後、ロボット30を制御して、搬送対象物51を残りの対象物50から離れて移動させる。
ステップS404において、第二の3次元情報取得部16が、搬送対象物51を取出した後に残っている対象物50を3次元センサ40で検出し、第二の3次元情報X2を取得する(図5B参照)。図5Bに示されるように、搬送対象物51を除く4つの対象物50の3次元情報が第二の3次元情報X2として取得される。
ステップS405において、形状情報取得部18が、第一の3次元情報及び第二の3次元情報に基づいて、搬送対象物51の3次元形状情報を取得する。この形状情報には、搬送対象物51を取出す前に3次元センサ40の死角に位置していた部位の搬送対象物51の形状情報が含まれる。
ステップS406において、載置情報取得部20が、搬送対象物51を載置部52に載置する際に、載置部52に接触するようになる搬送対象物51の接触部から把持装置33の基準点(例えば把持点)までの距離と、搬送対象物51の安定姿勢と、の少なくとも一方を取得する。ロボット30と把持装置33との位置関係は既知であるので、基準点は、ロボット30に対して設定されてもよい。
対象物50が直方体の形状を有していて、図5Aに示されるように搬送対象物51の底面が平面であるように概ね整列して積重ねられている場合、搬送対象物51の姿勢を変更しなくても、搬送対象物51を載置部52に安定的に載置できる。したがって、この場合、ステップS406において安定姿勢を取得する工程を省略してもよい。他方、搬送対象物51の載置工程を適切に実行するためには、把持装置33(又はロボット30)の基準点から搬送対象物51の接触部(すなわち底面)までの距離を決定する必要がある。反対に、ロボットシステム10は、把持装置33又はロボット30の基準点から搬送対象物51の接触部までの距離を取得する工程を省略し、搬送対象物51の安定姿勢のみを取得するように構成されてもよい。搬送対象物51の接触部から基準点までの距離、及び安定姿勢を取得する具体的な方法については後述する。
ステップS407において、位置姿勢計算部22が、搬送対象物51を載置部52に載置する際のロボット30の位置及び姿勢を計算する。ロボット30の位置及び姿勢は、搬送対象物51の接触部から把持装置33又はロボット30の基準点までの距離と、搬送対象物51の安定姿勢と、の少なくとも一方に従って計算される。
ステップS408において、ステップS407で計算された位置及び姿勢に従ってロボット30を駆動し、搬送対象物51を載置部52まで移動させる。搬送対象物51が所定の位置に位置決めされたら、把持装置33を解放して搬送対象物51を載置部52に載置し、搬送工程を完了する。
ステップS401〜S408の工程は、すべての対象物50の搬送が完了するまで繰返し実行される。なお、二回目以降の任意の搬送工程において、ステップS401の工程を省略して、以前の搬送工程において取得された第二の3次元情報を第一の3次元情報として用いてもよい。或いは、対象物50の個体差が小さい場合、二回目以降の搬送工程において、ステップS401〜ステップS405の工程を省略して、一旦得られた搬送対象物51の3次元形状情報を用いてもよい。
次に、3次元情報から搬送対象物51の3次元形状情報を求める方法、及び搬送対象物51の3次元形状情報に基づいて、搬送対象物51の接触部から把持装置33又はロボット30の基準点までの距離、及び搬送対象物51の安定姿勢を計算する方法について説明する。
(第一実施例)
図5A、図5B及び図6を参照して、第一実施例について説明する。本実施例において、対象物50は直方体形状を有している。前述したように、図5A及び図5Bに示される3次元情報X1、X2は、多数の3次元点の集合の位置情報から構成される。第一の3次元情報X1と第二の3次元情報X2とを比較することによって、搬送対象物51の3次元形状情報が求められる。
例えば、第二の3次元情報X2を構成する各々の3次元点について、該3次元点の3次元点のうち、最も近位に位置する第一の3次元情報の3次元点を「最近傍点」と定義する。最近傍点の候補となる第一の3次元情報の3次元点は、第二の3次元情報の3次元点から水平方向に所定の距離の範囲内に位置するものに限定されてもよい。このようにすれば、最近傍点を計算するのに要する時間が短縮される。第一の3次元情報における同一の3次元点が、第二の3次元情報の複数の3次元点に対する共通の最近傍点として設定されてもよい。なお、「最も近位に位置する」とは、2点間の距離が最も小さいことを意味し、「距離」は、マンハッタン距離(L1ノルム)、ユークリッド距離、マハラノビス距離、最大値ノルムなど任意の方式に従って定義される。
そして、第二の3次元情報X2の3次元点から対応する最近傍点までの距離が、予め定められる閾値を超える場合に、最近傍点をそれぞれ抽出する。抽出された最近傍点の集合(「抽出点集合」と称する。)は、搬送対象物51を取出す前後において、対応する3次元点のうち位置が変化した3次元点を表す。したがって、抽出点集合に基づいて、搬送工程の前において3次元センサ40の死角に入っていた搬送対象物51の、3次元センサ40とは反対側の形状を特定できる。
抽出点集合を抽出する際に用いられる閾値は、例えば3次元センサ40の分解能に応じて適宜設定される。或いは、対象物50の個体差、要求される検出精度、又は対象物50の最薄部の寸法に応じて閾値が設定されてもよい。
代替的な実施形態において、第一の3次元情報X1に含まれる3次元点のうち、搬送対象物51の範囲に含まれる3次元点の集合に対して水平方向に同一の範囲に含まれる第二の3次元情報の3次元点の集合を抽出点集合としてもよい。
図6は、搬送対象物51に対して求められた抽出点集合Yを示している。図6の「O」は、把持装置33の基準点を表している。例えば、基準点Oは、把持装置33の把持点である。把持装置33の基準点Oから抽出点集合Yを構成する各々の3次元点までのベクトルVのZ軸方向(例えば鉛直方向)の成分の最大値が、基準点Oから、載置部52に接触するようになる搬送対象物51の接触部までの距離Dである。
本実施例によれば、搬送対象物51の載置工程において、ロボット30は、把持装置33の基準点Oが載置部52の表面から距離Dだけ離れた位置に配置されるように制御される。
(第二実施例)
図7A、図7B、図8及び図9を参照して、第二実施例について説明する。本実施例は、載置工程において、搬送対象物51を安定的に載置するための安定姿勢を取得する必要がある場合に対応する。図7Aに示されるように、対象物50が錐台形状を有する場合、積重ねられた搬送対象物51の底部の面積が非常に小さい。そのため、搬送対象物51を載置部52に安定的に載置するためには、搬送対象物51の安定姿勢を搬送工程において取得する必要がある。そこで、本実施例では、把持装置33の基準点Oから搬送対象物51の接触部までの距離に加えて、搬送対象物51の安定姿勢を取得する。
図7Aの太線X1は第一の3次元情報を示しており、図7Bの太線X2は第二の3次元情報を示している。第一実施例と同様に、第一の3次元情報X1及び第二の3次元情報X2に基づいて、搬送対象物51の取出工程の前後において位置が変化する3次元点の集合を抽出点集合として抽出する。図8の太線Yは抽出点集合を示している。
抽出点集合Yにおいて、最大の面積を有する面、すなわち平面Pを特定する。搬送対象物51が、この平面Pにおいて載置部52に接触するように載置すれば、搬送対象物51を安定的に載置できる(図9参照)。搬送対象物51の安定姿勢は、平面Pに対する法線ベクトルNの向きに従って求められる。すなわち、法線ベクトルNが鉛直方向上方を向くようにロボット30の姿勢を計算する。それにより、搬送対象物51は安定した姿勢で載置部52に載置されるようになる。なお、最大の面積を有する平面P以外に、予め定められる閾値を超える面積を有する面が存在する場合、当該面において搬送対象物51を載置部52に載置するような姿勢を安定姿勢としてもよい。
把持装置33の基準点Oから平面Pまでの距離は、基準点Oから抽出点集合Yを構成する各々の3次元点に向かって定義されるベクトルVと、法線ベクトルNに基づいて求められる。例えば、ベクトルVと法線ベクトルNの内積の最大値を、基準点Oから平面Pまでの距離Dとして定義する。法線ベクトルNの向き及び距離Dに従ってロボット30を制御すれば、搬送対象物50を安定的に載置するのに必要な位置まで移動できる。
別の実施形態において、例えば、載置部52との接触部が搬送対象物51の曲面の部位である場合、曲率が予め定められる閾値以下になる領域ごとに近似平面を求め、面積が最大になる近似平面に対する法線ベクトルに基づいて安定姿勢を求めてもよい。
(第三実施例)
図10〜図15を参照して、第三実施例について説明する。本実施例において、対象物50は、図11に示されるように円柱形状を概ね有している。
図10は、本実施例に係るロボットシステム10の機能ブロック図である。図3と図10を対比すれば分かるように、ロボットシステム10は、第三の3次元情報取得部24をさらに備えている。
第三の3次元情報取得部24は、把持装置33によって把持されている搬送対象物51の3次元情報を、3次元センサ40によって第三の3次元情報として取得する。例えば、第三の3次元情報は、図13に示されるように、搬送対象物51を把持した後に、ロボット30を移動させるとともに手首32を回転させて把持装置33の姿勢を変更することによって取得される。
本実施例に係るロボットシステム10において、抽出点集合Yを取得する方法について説明する。まず、他の実施例と同様に、第一の3次元情報X1を取得する(図11参照)。次いで、把持装置33が搬送対象物51を把持できる位置までロボット30を移動した時点(図12参照)におけるロボット30の位置及び姿勢(「第一のロボット位置」と称する。)を取得する。次いで、図13に示されるようにロボット30を移動させるとともに手首32を回転させて把持装置33の姿勢を変更し、搬送対象物51の反対側の部位を含む第三の3次元情報X3を取得する。また、第三の3次元情報X3を取得したときのロボット30の位置及び姿勢(「第二のロボット位置」と称する。)を取得する。
続いて、第一のロボット位置と、第二のロボット位置との差に基づいて、第三の3次元情報を同次変換して抽出集合点Yを取得する。例えば、第一のロボット位置に対応する同次変換行列をH1、第二のロボット位置に対応する同次変換行列をH2とする。この場合、搬送対象物51の位置及び姿勢の変化量に対応する同次変換行列H3は、次の式で表される。
H3=H1×H2-1
なお、H2-1は、H2の逆行列である。
第三の3次元情報X3を構成する各々の3次元点に対して同次変換行列H3を適用すれば、図14の太線Yで示されるような抽出点集合が得られる。図11に示される第一の3次元情報X1及び図14に示される抽出点集合Yに基づいて、搬送対象物51の3次元形状情報が取得される。一実施形態において、第三の3次元情報を複数回にわたって取得してもよい。一実施形態において、第一の3次元情報X1及び第三の3次元情報X3に加えて、図15に示される第二の3次元情報X2をさらに用いて搬送対象物51の3次元形状情報を取得してもよい。第二の3次元情報X2は、前述したように、搬送対象物51を残りの対象物50から離れて移動させた後に取得される対象物50の3次元情報である。
(第四実施例)
図16〜図21を参照して、第四実施例について説明する。本実施例においては、搬送対象物51の安定姿勢を求めるために、複数の方向から搬送対象物51の第三の3次元情報を取得する。例えば、図16に示されるように、正六角柱の対象物50に凹部50aが形成されている場合、凹部50aに隣接する第一の面50bを載置部52に向けて対象物50を載置すると、対象物50の姿勢が不安定になって倒れる虞がある。この場合、対象物50の安定姿勢は、凹部50aとは反対側の第二の面50cを載置部52に向けた姿勢である。このような安定姿勢を求めるには、複数の方向から対象物50の3次元情報を取得する必要がある。
本実施例によれば、第三の3次元情報を複数の方向から取得する以外は、第三実施例と同様の方法で搬送工程が実行される。すなわち、搬送対象物51が搬送される前に、第一の3次元情報取得部12が、積重ねられた対象物50の第一の3次元情報X1を取得する(図17参照)。ロボット30は、次いで図18に示されるように、把持装置33が搬送対象物51を把持可能になる位置まで移動する。このときのロボット30の位置及び姿勢は、「第一のロボット位置」として記憶される。
さらに、搬送対象物51を残りの対象物50から離れて移動させた後に、手首32を回転させることによって、搬送対象物51の第三の3次元情報を複数の方向から取得する。第三の3次元情報を取得する際のロボット30の位置及び姿勢は、「第二のロボット位置」として記憶される。図19は、搬送対象物51の凹部51aを3次元センサ40に向けた状態で第三の3次元情報取得部24によって取得される第三の3次元情報X3を示している。続いて、第一のロボット位置及び第二のロボット位置との差に基づいて、第三の3次元情報を同次変換して抽出点集合Yを取得する。図20は、図19に示される第三の3次元情報X3に同次変換を適用して得られる抽出点集合Yを示している。さらに、搬送対象物51を視覚センサ40の検出範囲外まで移動させた後に、第二の3次元情報X2が第二の3次元情報取得部16によって取得される(図21参照)。このようにして得られた第一の3次元情報X1、第二の3次元情報X2及び抽出点集合Yに基づいて、凹部51aを含む搬送対象物51の3次元形状情報が、形状情報取得部18によって取得される。いったん搬送対象物51の3次元情報が取得されれば、各々の面の面積、搬送対象物51の重心位置などに基づいて、搬送対象物51の安定姿勢が求められる。
前述した種々の実施形態に係るロボットシステム10によれば、次の効果が得られる。
(1)積重ねられた対象物の3次元形状及び寸法が未知である場合、又は対象物の個体差が大きい場合であっても、搬送工程を適切に実行できる。それにより、農産物、木材、鉱物などの一定の形状を有しない対象物の搬送工程も容易に実行できる。
(2)対象物は安定した姿勢で載置部に載置されるので、対象物が倒れて破損するのを防止できる。また、対象物が一定の基準に従った姿勢で載置部に載置されるので、後工程の処理効率が向上する。
(3)対象物がコンテナ内に収容されている場合など、側方から対象物の状態を確認できない場合であっても、対象物の3次元形状情報を取得できる。
(4)1つの3次元センサを用いて搬送工程に必要な情報を取得できるので、安価なロボットシステムを提供できるようになる。
(5)ロボットシステムが対象物の接触部からロボットの基準点までの距離及び対象物の安定姿勢に関する情報を事前に用意しておく必要がなくなり、準備工程を簡略化できる。
一実施形態に係るロボットシステムにおいて、3次元センサは、ロボットのアームの先端部に取付けられていてもよい。一実施形態に係るロボットシステムにおいて、複数のロボットが1箇所に積重ねられた対象物を搬送するように構成されてもよい。一実施形態に係るロボットシステムにおいて、少なくとも1つのロボットが、複数箇所に積重ねられた対象物を順次搬送するように構成されてもよい。一実施形態において、互いに異なる位置に設けられた複数の載置部まで対象物が搬送されるようにロボットシステムが構成されていてもよい。
以上、本発明の種々の実施形態について説明したが、当業者であれば、他の実施形態によっても本発明の意図する作用効果を実現できることを認識するであろう。特に、本発明の範囲を逸脱することなく、前述した実施形態の構成要素を削除又は置換することができるし、或いは公知の手段をさらに付加することができる。また、本明細書において明示的又は暗示的に開示される複数の実施形態の特徴を任意に組合せることによっても本発明を実施できることは当業者に自明である。
10 ロボットシステム
12 第一の3次元情報取得部
14 対象物位置取得部
16 第二の3次元情報取得部
18 形状情報取得部
20 載置情報取得部
22 位置姿勢計算部
24 第三の3次元情報取得部
30 ロボット
31 アーム
32 手首
33 把持装置
40 3次元センサ
41 架台
50 対象物
51 搬送対象物
60 ロボット制御装置
X1 第一の3次元情報
X2 第二の3次元情報
X3 第三の3次元情報
Y 抽出点集合

Claims (7)

  1. 積重ねられた複数の対象物を順次搬送して載置部に載置するロボットシステムであって、
    前記複数の対象物の3次元情報を取得する3次元センサと、
    前記複数の対象物のうちの少なくとも1つを把持する把持装置を備えるロボットと、
    積重ねられた前記複数の対象物の3次元情報を、前記3次元センサによって第一の3次元情報として取得する第一の3次元情報取得部と、
    前記第一の3次元情報に基づいて、前記複数の対象物のうち、搬送されるべき搬送対象物を特定するとともに、該搬送対象物の位置を取得する対象物位置取得部と、
    前記搬送対象物を前記把持装置によって把持するとともに前記ロボットによって残りの対象物から離れて移動させた後、前記残りの対象物の3次元情報を、前記3次元センサによって第二の3次元情報として取得する第二の3次元情報取得部と、
    前記第一の3次元情報及び前記第二の3次元情報に基づいて、前記第一の3次元情報を取得する際に前記3次元センサの死角に位置する部位を含む前記搬送対象物の3次元形状情報を取得する形状情報取得部と、
    前記形状情報取得部によって取得される前記搬送対象物の3次元形状情報に基づいて、前記搬送対象物を前記載置部に載置するときに、前記載置部に接触するようになる前記搬送対象物の接触部から前記把持装置又は前記ロボットの基準点までの距離と、前記搬送対象物を前記載置部に安定的に載置できるようになる前記搬送対象物の安定姿勢と、の少なくとも一方を取得する載置情報取得部と、
    前記接触部から前記基準点までの距離と前記安定姿勢との少なくとも一方に基づいて、前記搬送対象物を前記載置部に載置するときの前記ロボットの位置及び姿勢を計算する位置姿勢計算部と、を備えるロボットシステム。
  2. 前記把持装置によって把持されている前記搬送対象物の3次元情報を、前記3次元センサによって第三の3次元情報として取得する第三の3次元情報取得部をさらに備えており、
    前記形状情報取得部が、前記第一の3次元情報、前記第二の3次元情報及び前記第三の3次元情報に基づいて、前記搬送対象物の3次元形状情報を取得するように構成される、請求項1に記載のロボットシステム。
  3. 少なくとも1つの前記対象物を搬送した後において、前記第一の3次元情報取得部が、以前の搬送工程を実行する際に取得された前記第二の3次元情報を前記第一の3次元情報として取得するように構成される、請求項1又は2に記載のロボットシステム。
  4. 前記3次元センサが、前記ロボットとは別個の架台に取付けられている、請求項1から3のいずれか1項に記載のロボットシステム。
  5. 前記3次元センサが、前記ロボットのアーム先端部に取付けられている、請求項1から3のいずれか1項に記載のロボットシステム。
  6. 積重ねられた複数の対象物を順次搬送して載置部に載置するロボットシステムであって、
    前記複数の対象物の3次元情報を取得する3次元センサと、
    前記複数の対象物のうちの少なくとも1つを把持する把持装置を備えるロボットと、
    積重ねられた前記複数の対象物の3次元情報を、前記3次元センサによって第一の3次元情報として取得する第一の3次元情報取得部と、
    前記第一の3次元情報に基づいて、前記複数の対象物のうち、搬送されるべき搬送対象物を特定するとともに、該搬送対象物の位置を取得する対象物位置取得部と、
    前記把持装置によって把持されている前記搬送対象物の3次元情報を、前記3次元センサによって第三の3次元情報として取得する第三の3次元情報取得部と、
    前記第一の3次元情報及び前記第三の3次元情報に基づいて、前記第一の3次元情報を取得する際に前記3次元センサの死角に位置する部位を含む前記搬送対象物の3次元形状情報を取得する形状情報取得部と、
    前記形状情報取得部によって取得される前記搬送対象物の3次元形状情報に基づいて、前記搬送対象物を前記載置部に載置するときに、前記載置部に接触するようになる前記搬送対象物の接触部から前記把持装置又は前記ロボットの基準点までの距離と、前記搬送対象物を前記載置部に安定的に載置できるようになる前記搬送対象物の安定姿勢と、の少なくとも一方を取得する載置情報取得部と、
    前記接触部から前記基準点までの距離と前記安定姿勢との少なくとも一方に基づいて、前記搬送対象物を前記載置部に載置するときの前記ロボットの位置及び姿勢を計算する位置姿勢計算部と、を備えるロボットシステム。
  7. 前記第三の3次元情報を取得する際の前記ロボットの位置及び姿勢の少なくとも一方が、前記搬送対象物を前記把持装置によって把持したときとは異なる、請求項6に記載のロボットシステム。
JP2015022623A 2015-02-06 2015-02-06 3次元センサを備えた搬送ロボットシステム Active JP6140204B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015022623A JP6140204B2 (ja) 2015-02-06 2015-02-06 3次元センサを備えた搬送ロボットシステム
CN201610052279.7A CN105858188B (zh) 2015-02-06 2016-01-26 具备三维传感器的搬运机器人系统
DE102016000995.0A DE102016000995B4 (de) 2015-02-06 2016-01-29 Förderrobotersystem mit dreidimensionalem Sensor
US15/014,656 US9844882B2 (en) 2015-02-06 2016-02-03 Conveyor robot system provided with three-dimensional sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015022623A JP6140204B2 (ja) 2015-02-06 2015-02-06 3次元センサを備えた搬送ロボットシステム

Publications (2)

Publication Number Publication Date
JP2016144841A JP2016144841A (ja) 2016-08-12
JP6140204B2 true JP6140204B2 (ja) 2017-05-31

Family

ID=56498556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015022623A Active JP6140204B2 (ja) 2015-02-06 2015-02-06 3次元センサを備えた搬送ロボットシステム

Country Status (4)

Country Link
US (1) US9844882B2 (ja)
JP (1) JP6140204B2 (ja)
CN (1) CN105858188B (ja)
DE (1) DE102016000995B4 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9956687B2 (en) * 2013-03-04 2018-05-01 Microsoft Technology Licensing, Llc Adapting robot behavior based upon human-robot interaction
US9056396B1 (en) * 2013-03-05 2015-06-16 Autofuss Programming of a robotic arm using a motion capture system
JP6632208B2 (ja) * 2015-03-24 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP6472363B2 (ja) * 2015-10-16 2019-02-20 キヤノン株式会社 計測装置、計測方法および物品の製造方法
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP2018034242A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
US10315866B2 (en) * 2016-10-20 2019-06-11 Intelligrated Headquarters, Llc 3D-2D vision system for robotic carton unloading
US10597235B2 (en) 2016-10-20 2020-03-24 Intelligrated Headquarters, Llc Carton unloader tool for jam recovery
US10279480B1 (en) 2016-10-21 2019-05-07 X Development Llc Sensor fusion
JP6470321B2 (ja) 2017-01-11 2019-02-13 ファナック株式会社 物品搬送装置
JP6450788B2 (ja) * 2017-02-21 2019-01-09 ファナック株式会社 ワーク取出システム
CN107009358B (zh) * 2017-04-13 2020-06-02 武汉库柏特科技有限公司 一种基于单相机的机器人无序抓取装置及方法
JP6626036B2 (ja) * 2017-04-18 2019-12-25 ファナック株式会社 測定機能を有するレーザ加工システム
JP6680732B2 (ja) * 2017-08-23 2020-04-15 ファナック株式会社 物品積み付け装置及び機械学習装置
JP6662836B2 (ja) * 2017-11-24 2020-03-11 ファナック株式会社 収容領域又は治具にワークを配置するワーク配置システム
JP6795007B2 (ja) * 2018-04-27 2020-12-02 株式会社ダイフク ピッキング設備
WO2020072815A1 (en) * 2018-10-03 2020-04-09 Nicholas Payton Hybrid robotic picking device
JP7134073B2 (ja) * 2018-11-14 2022-09-09 株式会社ダイフク 物品積載設備
US10549928B1 (en) 2019-02-22 2020-02-04 Dexterity, Inc. Robotic multi-item type palletizing and depalletizing
US11741566B2 (en) 2019-02-22 2023-08-29 Dexterity, Inc. Multicamera image processing
JP7275759B2 (ja) * 2019-03-28 2023-05-18 セイコーエプソン株式会社 物体検出方法、物体検出装置およびロボットシステム
CN114787838A (zh) 2019-11-12 2022-07-22 光明机器公司 软件定义的制造/组装系统
JP7432231B2 (ja) * 2020-03-13 2024-02-16 株式会社イシダ 物品排出システム
JPWO2022269984A1 (ja) * 2021-06-22 2022-12-29
CN113858199B (zh) * 2021-09-27 2023-02-28 河南松源企业管理咨询有限公司 一种家具搬运机器人
WO2023107318A1 (en) * 2021-12-10 2023-06-15 Boston Dynamics, Inc. Systems and methods for object detection and pick order determination
DE102022123762A1 (de) * 2022-09-16 2024-03-21 Haver & Boecker Ohg Verfahren zum Greifen und Überführen wenigstens einer Einzeleinheit und Verwendung eines Systems

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2555822B2 (ja) * 1991-10-30 1996-11-20 日本電装株式会社 山積み部品の高速ピッキング装置
JP3315736B2 (ja) 1992-10-16 2002-08-19 株式会社リコー 原稿分離給紙装置
JPH0753054A (ja) 1993-08-10 1995-02-28 Mitsubishi Electric Corp 自動荷卸し装置
JP3516067B2 (ja) 1994-04-26 2004-04-05 川崎重工業株式会社 デパレタイズ用画像作成方法および画像作成装置
JP3380062B2 (ja) * 1994-09-19 2003-02-24 スズキ株式会社 工業用ロボット
JP3482938B2 (ja) 2000-05-02 2004-01-06 株式会社ダイフク 物品位置認識装置
DE102007026956A1 (de) * 2007-06-12 2008-12-18 Kuka Innotec Gmbh Verfahren und System zum Roboter geführten Depalettieren von Reifen
DE102007050232A1 (de) * 2007-10-20 2009-04-23 Deutsches Zentrum für Luft- und Raumfahrt e.V. Handhabungsroboter und Verfahren zur Steuerung eines Handhabungsroboters
JP5448326B2 (ja) * 2007-10-29 2014-03-19 キヤノン株式会社 把持装置および把持装置制御方法
JP2010005769A (ja) 2008-06-30 2010-01-14 Ihi Corp デパレタイズ装置および方法
JP4565023B2 (ja) * 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
JP2010032744A (ja) 2008-07-29 2010-02-12 Ricoh Co Ltd 照明装置
JP4708464B2 (ja) * 2008-09-30 2011-06-22 ファナック株式会社 ワーク把持装置
JP5556382B2 (ja) 2010-05-28 2014-07-23 トヨタ自動車株式会社 ワーク段積み状態認識装置
FI20106387A (fi) * 2010-12-30 2012-07-01 Zenrobotics Oy Menetelmä, tietokoneohjelma ja laite tartuntakohdan määrittämiseksi
JP2012192490A (ja) 2011-03-16 2012-10-11 Toyota Motor Corp 荷姿認識装置
JP2013022705A (ja) * 2011-07-25 2013-02-04 Sony Corp ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
JP2013101045A (ja) 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP2013154457A (ja) 2012-01-31 2013-08-15 Asahi Kosan Kk ワーク移載システム、ワーク移載方法及びプログラム
JP6000029B2 (ja) * 2012-09-10 2016-09-28 株式会社アプライド・ビジョン・システムズ ハンドリングシステム、ハンドリング方法及びプログラム
JP5642759B2 (ja) * 2012-10-31 2014-12-17 ファナック株式会社 物品取出装置及び物品取出方法
JP2014176923A (ja) * 2013-03-14 2014-09-25 Yaskawa Electric Corp ロボットシステムおよび被加工物の製造方法
US9333649B1 (en) * 2013-03-15 2016-05-10 Industrial Perception, Inc. Object pickup strategies for a robotic device
JP6415026B2 (ja) * 2013-06-28 2018-10-31 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム

Also Published As

Publication number Publication date
DE102016000995B4 (de) 2019-01-31
US20160229061A1 (en) 2016-08-11
CN105858188B (zh) 2018-07-27
US9844882B2 (en) 2017-12-19
DE102016000995A1 (de) 2016-08-11
CN105858188A (zh) 2016-08-17
JP2016144841A (ja) 2016-08-12

Similar Documents

Publication Publication Date Title
JP6140204B2 (ja) 3次元センサを備えた搬送ロボットシステム
US11413753B2 (en) Robotic system control method and controller
US11396101B2 (en) Operating system, control device, and computer program product
CN111730603B (zh) 机器人系统的控制装置以及控制方法
US11717971B2 (en) Method and computing system for performing motion planning based on image information generated by a camera
JP5977544B2 (ja) 情報処理装置、情報処理方法
US9149932B2 (en) Robot picking system, control device, and method of manufacturing a workpiece
JP5582126B2 (ja) ワーク取出システム、ロボット装置および被加工物の製造方法
JP2019509559A (ja) センサ誘導式ロボットを用いたボックスの位置特定、分離、およびピッキング
JP6697204B1 (ja) ロボットシステムの制御方法、非一過性のコンピュータ読取可能な記録媒体及びロボットシステムの制御装置
US11654571B2 (en) Three-dimensional data generation device and robot control system
US10434652B2 (en) Workpiece picking system
US11288814B2 (en) System and method of object detection based on image data
JP6810173B2 (ja) 物体把持システム
JP5544464B2 (ja) 対象物の3次元位置・姿勢認識装置及びその方法
CN115703232A (zh) 具有基于图像的尺寸确定机制的机器人系统及其操作方法
JP2020075340A (ja) 作動システム、制御装置、およびプログラム
JP2017170567A (ja) ワーク認識方法及びランダムピッキング方法
JP7398662B2 (ja) ロボット多面グリッパアセンブリ及びその操作方法
WO2022264381A1 (ja) ワーク取出し個数算出装置、ハンドシステム、及び表示装置
CN115609569A (zh) 具有基于图像的尺寸确定机制的机器人系统及其操作方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170428

R150 Certificate of patent or registration of utility model

Ref document number: 6140204

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150