JP2018187687A - 物品取出システム - Google Patents

物品取出システム Download PDF

Info

Publication number
JP2018187687A
JP2018187687A JP2017089023A JP2017089023A JP2018187687A JP 2018187687 A JP2018187687 A JP 2018187687A JP 2017089023 A JP2017089023 A JP 2017089023A JP 2017089023 A JP2017089023 A JP 2017089023A JP 2018187687 A JP2018187687 A JP 2018187687A
Authority
JP
Japan
Prior art keywords
article
sensor
space
workpiece
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017089023A
Other languages
English (en)
Other versions
JP6526100B2 (ja
Inventor
潤 和田
Jun Wada
潤 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2017089023A priority Critical patent/JP6526100B2/ja
Priority to US15/933,985 priority patent/US10518417B2/en
Priority to CN201810367322.8A priority patent/CN108789499B/zh
Priority to DE102018206209.9A priority patent/DE102018206209B4/de
Publication of JP2018187687A publication Critical patent/JP2018187687A/ja
Application granted granted Critical
Publication of JP6526100B2 publication Critical patent/JP6526100B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39155Motion skill, relate sensor data to certain situation and motion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39476Orient hand relative to object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

【課題】収容容器内の物品が種々の状態で収容されていても、より多くの物品を収容容器から取り出す。
【解決手段】収容容器X内に収容されている物品Wの状態を計測するセンサ3と、センサ3により計測された物品Wの状態に基づいて、物品Wを検出する物品検出手段と、物品検出手段により検出された物品Wを取り出すまたは物品Wの位置姿勢を変更させるハンドリング手段2,4と、センサ3、物品検出手段およびハンドリング手段2,4を制御する制御部5とを備え、制御部5が、センサ3により計測された物品Wの状態毎に、物品Wの存在する空間を分割する空間分割手段と、空間分割手段により分割された空間毎に、センサ3による計測方法、物品検出手段による検出方法およびハンドリング手段2,4による取り出し方法の少なくとも1つを切り替える切替手段とを備える物品取出システム1を提供する。
【選択図】図1

Description

本発明は、物品取出システムに関するものである。
従来、コンテナ等の収容容器内に収容された物品をロボットによって取り出すシステムが知られている(例えば、特許文献1参照。)。このシステムでは、収容容器内の物品の3次元形状を3次元センサにより計測し、取得された3次元データに基づいて物品の位置および姿勢を特定することにより、ロボットによる取り出しを実現している。
特開2013−10155号公報
しかしながら、収容容器内の物品の状態は一様ではなく、同一の計測方法、検出方法および取り出し方法を一律に適用したのでは、全ての物品を収容容器から取り出すことができないという不都合がある。
本発明は上述した事情に鑑みてなされたものであって、収容容器内の物品が種々の状態で収容されていても、より多くの物品を収容容器から取り出すことができる物品取出システムを提供することを目的としている。
上記目的を達成するため、本発明は以下の手段を提供する。
本発明の一態様は、収容容器内に収容されている物品の状態を計測するセンサと、該センサにより計測された前記物品の状態に基づいて、前記物品を検出する物品検出手段と、該物品検出手段により検出された前記物品を取り出すまたは前記物品の位置姿勢を変更させるハンドリング手段と、前記センサ、前記物品検出手段および前記ハンドリング手段を制御する制御部とを備え、該制御部が、前記センサにより計測された前記物品の状態毎に、前記物品の存在する空間を分割する空間分割手段と、該空間分割手段によって分割された前記空間毎に、前記センサによる計測方法、前記物品検出手段による検出方法および前記ハンドリング手段による取り出し方法の少なくとも1つを切り替える切替手段とを備える物品取出システムを提供する。
本態様によれば、収容容器内の物品の状態がセンサにより計測され、計測された物品の状態に基づいて物品が物品検出手段により検出され、ハンドリング手段により、検出された物品が収容容器内から取り出され、または物品の位置姿勢が変更される。
この場合に、収容容器内の物品の存在する空間が、空間分割手段によってセンサにより計測された物品の状態毎に分割され、分割された空間毎に計測方法、検出方法および取り出し方法の少なくとも1つが切り替えられる。これにより、異なる状態の物品に同一の計測方法、検出方法および取り出し方法が適用されるのではなく、物品の状態に応じて異なる計測方法、検出方法あるいは取り出し方法が適用され、収容容器内の物品が種々の状態で収容されていても、より多くの物品を収容容器から取り出すことができる。
上記態様においては、前記センサが、前記物品の2次元画像を取得する2次元カメラと、前記物品の3次元形状を取得する3次元カメラとを備えていてもよい。
このようにすることで、物品の明るさ、色などの状態を含む2次元画像が2次元カメラにより取得されるとともに、物品の姿勢や高さなどの状態を含む3次元形状が3次元カメラにより取得される。これにより、物品の2次元画像および3次元形状に基づいて、物品を状態毎に分割することができる。
また、上記態様においては、前記空間分割手段が、前記センサにより取得された前記2次元画像および前記3次元形状の少なくとも一方に基づいて前記空間を分割し、前記切替手段が、分割された前記空間毎に、前記センサにより前記2次元画像または前記3次元形状の少なくとも一方を計測する条件を切り替えてもよい。
このようにすることで、センサにより取得された2次元画像および3次元形状の少なくとも一方に基づいて分割された空間毎に、計測する条件を切り替えて計測することにより、その後の物品の検出を精度よく行うことができる。
また、上記態様においては、前記空間分割手段が、前記センサにより取得された前記2次元画像および前記3次元形状の少なくとも一方に基づいて前記空間を分割し、前記切替手段が、分割された前記空間毎に、前記物品検出手段による前記物品の検出ツールを切り替えてもよい。
このようにすることで、例えば、整列している物品と荷崩れしている物品とが混在する場合に、物品の2次元画像および3次元形状の少なくとも一方に基づいて、両物品の属する空間毎に分割し、空間毎に異なる検出ツールを切り替えることで、各空間の物品を精度よく検出することができる。
また、上記態様においては、前記空間分割手段が、前記センサにより取得された前記2次元画像および前記3次元形状の少なくとも一方に基づいて、前記収容容器の前記空間を分割し、前記切替手段が、分割された前記空間毎に、前記ハンドリング手段による取り出しまたは前記物品の位置姿勢を変更させる方法を切り替えてもよい。
例えば、収容容器の内壁から遠い位置に配置されている物品については、ハンドリング手段と収容容器の内壁との干渉を気にすることなく取り出し作業を行うことができる一方、収容容器の内壁に近い物品についてはハンドリング手段による取り出しまたは物品の位置姿勢を変更させる方法が制限される。
このようにすることで、物品が収容容器の内壁に近いか否かによって取り出し方法が切り替えられるので、より多くの物品を収容容器内から取り出すことができる。
また、上記態様においては、前記切替手段によって切り替えられる計測方法、検出方法および取り出し方法の内、前記物品の状態に応じた最適な計測方法、検出方法および取り出し方法が、機械学習により設定されていてもよい。
このようにすることで、物品の状態に応じた最適な計測方法、検出方法および取り出し方法が、機械学習により統計的に設定されるので、空間を分割するための明確な条件がない場合であっても、適正な計測方法、検出方法および取り出し方法を設定することができる。
本発明によれば、収容容器内の物品が種々の状態で収容されていても、より多くの物品を収容容器から取り出すことができるという効果を奏する。
本発明の一実施形態に係る物品取出システムを示す全体構成図である。 図1の物品取出システムを示すブロック図である。 図1の物品取出システムのセンサにより取得された2次元画像と空間分割の一例を示す図である。 図3の場合の物品取出システムの動作を説明するフローチャートである。 図1の物品取出システムによる空間分割の他の例を示す図である。 図5の場合の物品取出システムの動作を説明するフローチャートである。 図1の物品取出システムによる空間分割の他の例を示す図である。 図7の場合の物品取出システムの動作を説明するフローチャートである。 図1の物品取出システムにおいて、ユーザが分割した空間に検出ツールを割り当てる機械学習の学習モデルの構築を説明するフローチャートである。 図9の学習モデルを適用した物品の取り出しの動作を説明するフローチャートである。
本発明の一実施形態に係る物品取出システム1について、図面を参照して以下に説明する。
本実施形態に係る物品取出システム1は、図1に示されるように、上方に開口するコンテナのような収容容器X内に収容された多数の機械部品のようなワーク(物品)Wをロボット(ハンドリング手段)2によって取り出すまたはワークWの位置姿勢を変更させるシステムである。
本実施形態に係る物品取出システム1は、収容容器Xの上方に配置され、下方に配置されている収容容器X内のワークWの状態を取得するセンサ(2次元カメラ、3次元カメラ)3と、ワークWを把持可能なハンド(ハンドリング手段)4が手首先端に取り付けられたロボット2と、ロボット2、センサ3およびハンド4を制御する制御部5とを備えている。
センサ3は、ワークWの2次元画像を取得する2次元カメラ(図示略)およびワークWの3次元形状データを取得する3次元カメラ(図示略)を備えている。
ワークWは、例えば、平板状で板厚方向に貫通する円形の貫通孔100を備える形状のものである。
ロボット2は、例えば、垂直多関節型ロボットであり、ハンド4は、ワークWの貫通孔100に挿入される2本の爪6を備え、閉じた状態で貫通孔100に挿入した爪6を開くことにより、ワークWを把持することができる構造を有している。ロボット2の形態およびハンド4の構造は任意でよい。
制御部5は、図2に示されるように、センサ3により取得されたワークWの状態に基づいてワークWを検出するワーク検出部(物品検出手段)7と、センサ3により計測されたワークWの状態毎に、ワークWの存在する空間を分割する空間分割部(空間分割手段)8と、ロボット2およびハンド4を制御する取出制御部9と、空間分割部8によって分割された空間毎に、センサ3による計測方法、ワーク検出部7による検出方法および取出制御部9によるロボット2およびハンド4を用いたワークWの取り出し方法の少なくとも1つを切り替える切替部(切替手段)10とを備えている。制御部5は、コンピュータであって、データを記憶する記憶部(図示略)およびデータを処理するプロセッサ(図示略)を備えている。
図3に示す例では、空間分割部8は、センサ3により取得されたワークWの2次元画像の明るさに基づいて、空間を明るい空間と暗い空間(図中にハッチングで示す。)とに分割するようになっている。そして、空間分割部8は、空間を分割する境界線(図中に破線で示す。)がワークWを横切らないように、境界線を実線のように補正するようになっている。この場合には、ワークWを横切る境界線に対してより多くの部分が存在する側にワークWが含められるように、境界線が補正されるようになっている。
そして、切替部10は、分割された空間毎に、センサ3による計測方法を切り替えるようになっている。すなわち、明るい空間においては露出を減少させてセンサ3に2次元画像を取得させ、暗い空間においては露出を増加させてセンサ3に2次元画像を取得させるようになっている。
この場合の手順を説明すると、図4に示されるように、まず、センサ3による収容容器X内のデータ取得が行われ(ステップS1)、取得された2次元画像に基づいて、ワークWの状態(明るさ、条件)が計測され(ステップS2)、ワークWの状態に応じて空間が分割される(ステップS3)。
そして、分割された空間毎にセンサ3による露出が切り替えられて(ステップS4)、データの再取得が行われ(ステップS5)、分割された全ての空間についてステップS4からの工程が繰り返される(ステップS6)。そして、取得された2次元画像および3次元形状データに基づいて、ワークWの検出が行われた後に(ステップS7)、ワークWの位置および姿勢が算出され(ステップS8)、ロボット2およびハンド4によるワークWの位置姿勢の変更や取り出しが行われる(ステップS9)。
また、図5に示す例では、整列されているワークWの1つが荷崩れしている場合を示している。このような場合には、空間分割部8は、センサ3により取得されたワークWの3次元形状データに基づいて、空間におけるワークWの高さの変化が他の場所と異なる空間を残りの空間から分割するようになっている。空間分割部8によって境界線(図中に実線で示す。)を用いて分割された空間は、ワークWが整列状態に積み重ねられた空間に対して高さの変化が異なる、ワークWが荷崩れしている空間である。
そして、切替部10は、分割された空間毎に、ワーク検出部7によるワークWの検出ツールを切り替えるようになっている。すなわち、ワークWが整列状態に積み重ねられた空間では、貫通孔100がほぼ円形に見えるので、円形のパターンによってパターンマッチングを行うことによりワークWを検出することができ、ワークWが荷崩れしている空間では、貫通孔100は楕円形となるので、円形のパターンの歪みを許容するパターンマッチングを行うことにより、ワークWを検出することができる。
そして、ワークWが整列されている空間では、貫通孔100に対して正面(鉛直上方)からハンド4を下向きに差し込むことで、ワークWを把持することができ、ワークWが荷崩れしている空間では、ハンド4を斜め方向から貫通孔100に差し込み、あるいは、ハンド4によってワークWを押すことで荷崩れを修正(ワークWの位置姿勢を変更)し、またはワークWを除去した後に、整列した空間と同じ取り出し方法でワークWを取り出すことができる。
この場合の手順を説明すると、図6に示されるように、まず、センサ3による収容容器X内の計測(データ取得)が行われ(ステップS1)、取得された3次元形状データに基づいて、ワークWの状態(傾き等、条件)が計測され(ステップS2)、ワークWの状態に応じて空間が分割される(ステップS3)。
そして、分割された空間毎に検出ツールが切り替えられて(ステップS10)、ワークWの検出が行われ(ステップS7)、分割された全ての空間についてステップS10からの工程が繰り返される(ステップS6)。そして、ワークWの位置および姿勢が算出され(ステップS8)、空間毎に取り出し方法が切り替えられてロボット2およびハンド4による取り出しが行われる(ステップS9)。
また、図7に示す例では、収容容器X内に多数のワークWがバラ積みされている状態を示している。このような場合には、空間分割部8は収容容器Xの内壁からの距離が離れているか否かによって空間を分割するようになっている。
具体的には、空間分割部8は、図7に破線で示す境界線のように、収容容器Xから所定距離以上離れているか否かによって空間を分割するとともに、境界線が2次元画像あるいは3次元形状データによって検出されるワークWを横切らないように境界線を実線のように補正するようになっている。
さらに詳細には、破線で示される境界線を境界として内側と外側のどちらに多くワークWが存在しているかによって、より多くの部分が存在している方の空間にワークW全体を配置するように境界線を実線のように補正するようになっている。
そして、切替部10は、空間毎にロボット2およびハンド4による取り出し方法を切り替えるようになっている。すなわち、内側の空間では、ハンド4が収容容器Xの内壁に干渉しないので、比較的自由にロボット2およびハンド4の姿勢を決定してワークWを取り出すことができる。
一方、外側の空間では、近接している収容容器Xの内壁にハンド4が干渉する可能性が高いので、内壁とは反対側からハンド4をワークWに近接させて、ワークWを内側の空間内に引き込んだ後に、内側の空間における取り出し方法によってワークWを取り出すことができる。
この場合の手順を説明すると、図8に示されるように、まず、センサ3による収容容器X内の計測(データ取得)が行われ(ステップS1)、取得された3次元形状データに基づいて、収容容器Xからの距離(ワークWの状態、条件)が計測され(ステップS2)、ワークWの状態に応じて空間が分割される(ステップS3)。
そして、ワークWの検出が行われ(ステップS7)、ワークWの位置および姿勢が算出され(ステップS8)、空間毎に取り出し方法が切り替えられて(ステップS11)、ロボット2およびハンド4による取り出しが行われ(ステップS9)、分割された全ての空間についてステップS11からの工程が繰り返される(ステップS6)。
このように構成された本実施形態に係る物品取出システム1によれば、収容容器X内のワークWが種々の状態で収容されていても、より多くのワークWを精度よく検出して収容容器Xから取り出すことができるという利点がある。
なお、本実施形態に係る物品取出システム1においては、空間分割部8が、センサ3により検出された2次元画像および3次元形状の少なくとも一方におけるワークWの状態に基づいて空間を分割することとしたが、機械学習を用いて空間を分割することにしてもよい。例えば、図9に示されるように、センサ3により2次元画像あるいは3次元形状データが取得され(ステップS1)、センサ3により取得された2次元画像あるいは3次元形状データにおいて、ユーザが空間を分割するとともに(ステップS20)、各空間に予め作成された検出ツールを割り当て(ステップS21)、空間と計測結果とを対応づけて教師データとして記憶していく(ステップS22)。ステップS21およびステップS22の工程を繰り返してデータを蓄積した後に(ステップS23)、学習モデルを構築することができる(ステップS24)。
学習モデルが構築された後には、図10に示されるように、センサ3によりワークWの2次元画像および3次元形状データを取得すると(ステップS1)、学習モデルが適用されて(ステップS25)、収容容器X内の空間が分割されるとともに、各空間に適当な検出ツールが割り当てられる(ステップS26)。これにより、空間分割の条件が曖昧な場合であっても、学習モデルによって明確にいずれかの空間に分類することができ、ワークWの位置および姿勢を精度よく計算して(ステップS27)、収容容器X内からより多くのワークWを取り出すことができる(ステップS9)。
また、本実施形態においては、ワークWとして、円形の貫通孔100を有する平板状のものを例示したが、これに限定されるものではない。また、ハンド4としてもワークWの形状に応じて任意の構造のものを採用することができる。
また、学習モデルによって、ワークWに空間と検出ツールとを対応づけることとしたが、これに代えて、センサ3による計測方法、ワークWの検出ツールおよびロボット2およびハンド4による取出方法の少なくとも1つを切り替えることにしてもよい。
1 物品取出システム
2 ロボット(ハンドリング手段)
3 センサ(2次元カメラ、3次元カメラ)
4 ハンド(ハンドリング手段)
5 制御部
7 ワーク検出部(物品検出手段)
8 空間分割部(空間分割手段)
10 切替部(切替手段)
W ワーク(物品)
X 収容容器

Claims (6)

  1. 収容容器内に収容されている物品の状態を計測するセンサと、
    該センサにより計測された前記物品の状態に基づいて、前記物品を検出する物品検出手段と、
    該物品検出手段により検出された前記物品を取り出すまたは前記物品の位置姿勢を変更させるハンドリング手段と、
    前記センサ、前記物品検出手段および前記ハンドリング手段を制御する制御部とを備え、
    該制御部が、前記センサにより計測された前記物品の状態毎に、前記物品の存在する空間を分割する空間分割手段と、該空間分割手段によって分割された前記空間毎に、前記センサによる計測方法、前記物品検出手段による検出方法および前記ハンドリング手段による取り出し方法の少なくとも1つを切り替える切替手段とを備える物品取出システム。
  2. 前記センサが、前記物品の2次元画像を取得する2次元カメラと、前記物品の3次元形状を取得する3次元カメラとを備える請求項1に記載の物品取出システム。
  3. 前記空間分割手段が、前記センサにより取得された前記2次元画像および前記3次元形状の少なくとも一方に基づいて前記空間を分割し、
    前記切替手段が、分割された前記空間毎に、前記センサにより前記2次元画像または前記3次元形状の少なくとも一方を計測する条件を切り替える請求項2に記載の物品取出システム。
  4. 前記空間分割手段が、前記センサにより取得された前記2次元画像および前記3次元形状の少なくとも一方に基づいて前記空間を分割し、
    前記切替手段が、分割された前記空間毎に、前記物品検出手段による前記物品の検出ツールを切り替える請求項2または請求項3に記載の物品取出システム。
  5. 前記空間分割手段が、前記センサにより取得された前記2次元画像および前記3次元形状の少なくとも一方に基づいて、前記収容容器の前記空間を分割し、
    前記切替手段が、分割された前記空間毎に、前記ハンドリング手段による取り出しまたは前記物品の位置姿勢を変更させる方法を切り替える請求項2から請求項4のいずれかに記載の物品取出システム。
  6. 前記切替手段によって切り替えられる計測方法、検出方法および取り出し方法の内、前記物品の状態に応じた最適な計測方法、検出方法および取り出し方法が、機械学習により設定されている請求項1から請求項5のいずれかに記載の物品取出システム。

JP2017089023A 2017-04-28 2017-04-28 物品取出システム Active JP6526100B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017089023A JP6526100B2 (ja) 2017-04-28 2017-04-28 物品取出システム
US15/933,985 US10518417B2 (en) 2017-04-28 2018-03-23 Article retrieval system
CN201810367322.8A CN108789499B (zh) 2017-04-28 2018-04-23 物品取出系统
DE102018206209.9A DE102018206209B4 (de) 2017-04-28 2018-04-23 Artikelentnahmesystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017089023A JP6526100B2 (ja) 2017-04-28 2017-04-28 物品取出システム

Publications (2)

Publication Number Publication Date
JP2018187687A true JP2018187687A (ja) 2018-11-29
JP6526100B2 JP6526100B2 (ja) 2019-06-05

Family

ID=63797614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017089023A Active JP6526100B2 (ja) 2017-04-28 2017-04-28 物品取出システム

Country Status (4)

Country Link
US (1) US10518417B2 (ja)
JP (1) JP6526100B2 (ja)
CN (1) CN108789499B (ja)
DE (1) DE102018206209B4 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021006306A1 (ja) * 2019-07-08 2021-01-14 TechMagic株式会社 食器自動洗浄システム、食器自動洗浄方法、食器自動洗浄プログラム及び記憶媒体
JP2021020266A (ja) * 2019-07-26 2021-02-18 オムロン株式会社 ロボットの動作を決定する装置、方法およびプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP6453922B2 (ja) * 2017-02-06 2019-01-16 ファナック株式会社 ワークの取り出し動作を改善するワーク取り出し装置およびワーク取り出し方法
JP6680750B2 (ja) * 2017-11-22 2020-04-15 ファナック株式会社 制御装置及び機械学習装置
US11275951B2 (en) * 2018-08-22 2022-03-15 Connie Jordan Carmichael Surveillance drone with microbots
JP2020166371A (ja) * 2019-03-28 2020-10-08 セイコーエプソン株式会社 情報処理方法、情報処理装置、物体検出装置およびロボットシステム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
JP2014237188A (ja) * 2013-06-07 2014-12-18 株式会社安川電機 ワーク検出装置、ロボットシステム、被加工物の製造方法及びワーク検出方法
JP2015030044A (ja) * 2013-07-31 2015-02-16 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
JP2015079374A (ja) * 2013-10-17 2015-04-23 セイコーエプソン株式会社 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット
JP2015089590A (ja) * 2013-11-05 2015-05-11 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP2017064910A (ja) * 2015-07-31 2017-04-06 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3516067B2 (ja) 1994-04-26 2004-04-05 川崎重工業株式会社 デパレタイズ用画像作成方法および画像作成装置
JP3876260B2 (ja) 2004-09-16 2007-01-31 ファナック株式会社 物品供給装置
JP5333344B2 (ja) 2009-06-19 2013-11-06 株式会社安川電機 形状検出装置及びロボットシステム
JP5402697B2 (ja) * 2009-10-26 2014-01-29 株式会社安川電機 ロボット装置及びワーク取り出しシステム並びにワーク取り出し方法
JP4938115B2 (ja) * 2010-07-27 2012-05-23 ファナック株式会社 ワーク取出し装置およびワーク取出し方法
JP5787642B2 (ja) 2011-06-28 2015-09-30 キヤノン株式会社 対象物保持装置、対象物保持装置の制御方法、およびプログラム
JP5642759B2 (ja) 2012-10-31 2014-12-17 ファナック株式会社 物品取出装置及び物品取出方法
WO2016120724A1 (en) * 2015-01-29 2016-08-04 Abb Technology Ag 3d segmentation for robotic applications
JP6512852B2 (ja) 2015-02-10 2019-05-15 キヤノン株式会社 情報処理装置、情報処理方法
US9486921B1 (en) * 2015-03-26 2016-11-08 Google Inc. Methods and systems for distributing remote assistance to facilitate robotic object manipulation
DE102016009030B4 (de) 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
JP2014237188A (ja) * 2013-06-07 2014-12-18 株式会社安川電機 ワーク検出装置、ロボットシステム、被加工物の製造方法及びワーク検出方法
JP2015030044A (ja) * 2013-07-31 2015-02-16 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
JP2015079374A (ja) * 2013-10-17 2015-04-23 セイコーエプソン株式会社 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット
JP2015089590A (ja) * 2013-11-05 2015-05-11 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP2017064910A (ja) * 2015-07-31 2017-04-06 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021006306A1 (ja) * 2019-07-08 2021-01-14 TechMagic株式会社 食器自動洗浄システム、食器自動洗浄方法、食器自動洗浄プログラム及び記憶媒体
JPWO2021006306A1 (ja) * 2019-07-08 2021-10-21 TechMagic株式会社 食器自動洗浄システム、食器自動洗浄方法、食器自動洗浄プログラム及び記憶媒体
JP7018637B2 (ja) 2019-07-08 2022-02-14 TechMagic株式会社 食器自動洗浄システム、食器自動洗浄方法、食器自動洗浄プログラム及び記憶媒体
JP2021020266A (ja) * 2019-07-26 2021-02-18 オムロン株式会社 ロボットの動作を決定する装置、方法およびプログラム
JP7331527B2 (ja) 2019-07-26 2023-08-23 オムロン株式会社 ロボットの動作を決定する装置、方法およびプログラム

Also Published As

Publication number Publication date
CN108789499B (zh) 2019-12-31
DE102018206209A1 (de) 2018-10-31
US20180311824A1 (en) 2018-11-01
CN108789499A (zh) 2018-11-13
DE102018206209B4 (de) 2020-08-13
JP6526100B2 (ja) 2019-06-05
US10518417B2 (en) 2019-12-31

Similar Documents

Publication Publication Date Title
JP2018187687A (ja) 物品取出システム
US9957120B2 (en) Stowage pattern calculation device and stowage device for stowing plurality types of objects
JP6461712B2 (ja) 荷役装置及びその動作方法
US10124489B2 (en) Locating, separating, and picking boxes with a sensor-guided robot
JP6140204B2 (ja) 3次元センサを備えた搬送ロボットシステム
JP5642759B2 (ja) 物品取出装置及び物品取出方法
JP4938115B2 (ja) ワーク取出し装置およびワーク取出し方法
CN109176521A (zh) 一种机械臂及其抓取控制方法和系统
JP6549655B2 (ja) 物品搬送装置
JP6487495B2 (ja) ワーク取出しシステム
JP2014161965A (ja) 物品取り出し装置
JP2019136828A (ja) 箱状物ピッキング装置及びその方法
US10722992B2 (en) Workpiece placement system for placing workpiece in containment area or on jig
JP5458807B2 (ja) 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム
JP2017170567A (ja) ワーク認識方法及びランダムピッキング方法
JP2020049558A (ja) 物品取り出しシステム
CN113269112A (zh) 一种抓取区域的识别方法、装置、电子设备及存储介质
Martinez et al. Automated 3D vision guided bin picking process for randomly located industrial parts
JP7232652B2 (ja) ワーク移載システム
CN113977637A (zh) 可用于非精度料箱的机器人视觉识别抓件系统及方法
JP7261597B2 (ja) 移載対象ワーク記憶システム
JP7286524B2 (ja) ピッキングロボット、ピッキング方法及びプログラム
Karwasz et al. Using Visions Systems and Manipulators in Industry 4.0
Herbert et al. Two-Stage Robotic Bin Picking of Small Metallic Objects
JP2023539403A (ja) 重なり処理機構を備えたロボットシステム及びその操作方法

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180829

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R150 Certificate of patent or registration of utility model

Ref document number: 6526100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150