JP6868684B2 - 複数の物体から少なくとも1つの物体を分離するための方法、コンピュータ・プログラム、装置およびシステム - Google Patents

複数の物体から少なくとも1つの物体を分離するための方法、コンピュータ・プログラム、装置およびシステム Download PDF

Info

Publication number
JP6868684B2
JP6868684B2 JP2019505157A JP2019505157A JP6868684B2 JP 6868684 B2 JP6868684 B2 JP 6868684B2 JP 2019505157 A JP2019505157 A JP 2019505157A JP 2019505157 A JP2019505157 A JP 2019505157A JP 6868684 B2 JP6868684 B2 JP 6868684B2
Authority
JP
Japan
Prior art keywords
image
robot
area
processing area
removal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019505157A
Other languages
English (en)
Other versions
JP2019533570A (ja
Inventor
トゥオマス ルッカ
トゥオマス ルッカ
ヤンネ クヤラ
ヤンネ クヤラ
Original Assignee
ゼンロボティクス オイ
ゼンロボティクス オイ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ゼンロボティクス オイ, ゼンロボティクス オイ filed Critical ゼンロボティクス オイ
Publication of JP2019533570A publication Critical patent/JP2019533570A/ja
Application granted granted Critical
Publication of JP6868684B2 publication Critical patent/JP6868684B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • B07C5/3422Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/36Sorting apparatus characterised by the means used for distribution
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/023Cartesian coordinate type
    • B25J9/026Gantry-type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/425Teaching successive positions by numerical control, i.e. commands being entered to control the positioning servo of the tool head or end effector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1447Methods for optical code recognition including a method step for retrieval of the optical code extracting optical codes from image or text carrying said optical code
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39106Conveyor, pick up article, object from conveyor, bring to test unit, place it

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Specific Conveyance Elements (AREA)
  • Sorting Of Articles (AREA)
  • Processing Of Solid Wastes (AREA)

Description

謝辞
本出願につながる計画は、贈与契約第673690号の下で、欧州連合のホライズン2020研究およびイノベーション・プログラムからの財政的援助を受けた。
本開示は、ロボット・システムに関し、詳細には、ロボット・システムが複数の物体から物体を選定する必要があるシステムに関する。
ロボット・システムは、操作される物理的対象を視覚的にまたは認識的に実際にモデリングする能力をほとんど必要としない反復的な作業、または捉えることおよび移動させることにほとんど技能を必要としない反復的な作業を行うために、多くの産業で広範に使用されてきた。ロボットはまた、人間の現場作業者には適さない環境で機能するように、あるいは、毒性のもしくは放射性の物質、廃棄物、または巨大な物体などの人間にとって危険な物質を伴う作業が可能であるように、組み立てられ得る。人間の関与が必要とされる量を最小限に抑えるために、そのようなロボット・システムをできるだけ自律的に作ることが望ましい。
特許文献1は、ロボット・システムにおける物理的対象の選択に関する問題に対処している。特許文献1によって開示された解決策は、装置が第1のセンサから第1のセンサ・データを受信してそのデータから目標位置を判定する方法に関連し、目標位置は、ロボット・アーム内のグリッパの空間における位置または向きであり得る。グリッパを目標位置まで移動させるために、ロボット・アームまたはグリッパに第1の命令が発せられる。ロボット・アームまたはグリッパのどちらかに関連付けられたフォース・フィードバック・センサから、または第1のセンサから、フォース・フィードバック・センサ・データが受信される。第1の命令を実行することの失敗が判定される。少なくとも1つの第1のセンサから、第2のセンサ・データが受信される。第2のセンサ・データから、物体の把持の成功が判定される。把持の成功の判定に応答して、少なくとも1つの第2のセンサから検証センサ・データが受信され、アームを所定の位置まで移動させてグリッパの把持を解放するために、ロボット・アームに第2の命令が発せられる。
上記の解決策では、フォース・フィードバック・センサが、フィードバックとして使用される限られた情報を提供することが、問題である。
Sergey Levine、Peter Pastor、Alex Krizhevsky、およびDeirdre Quilleによる「Learning Hand−Eye Coordination for Robotic Grasping with Deep Learning and Large−Scale Data Collection」という題の論文では、ロボット学習システムが開示されている。この論文は、例えば、www.arxiv.orgにおいて「arXiv:1603.02199」を参照することにより利用可能である。
この論文は、単眼画像からのロボット把持のための視覚と手の協調関係への学習に基づいた対処法を説明している。把持のための視覚と手の協調関係を学習するために、研究者らは、単眼カメラ画像のみを使用してまたカメラ較正または現在のロボットの姿勢とは無関係にグリッパの作業空間動作が把持の成功に終わる可能性を予測するための大規模な畳み込みニューラル・ネットワークを訓練した。これは、ネットワークがその場面におけるグリッパと物体との空間的関係性を観察すること、したがって視覚と手の協調関係を学習することを必要とする。次いで、研究者らは、把持の成功を達成するために、このネットワークを使用してグリッパをリアルタイムでサーボする。研究者らは、彼らのネットワークを訓練するために、様々なカメラ配置およびハードウェアを用いて、いつでも6台から14台の間のロボット・マニピュレータを使用して、2ヶ月間にわたって800,000回を超える把持の試みを収集した。彼らの実験評価は、彼らの方法が効果的なリアルタイム制御を達成し、新規の物体を首尾よく把持することができ、かつ、連続的なサーボにより間違いを修正することを示す。
その研究論文では、フィードバックの有意性は、連続的な視覚フィードバックを使用することによって示される。したがって、さらに発達したフィードバック構成が必要とされることは、明らかである。さらに、様々な用途が、様々なタイプの構成から恩恵を受け得る。
特許文献2は、物体ベルト上を移動している不規則に配向されかつ不規則に位置決めされた物体を拾い上げて操作して、送り先ベルト上を移動している不規則に配向されかつ不規則に位置決めされた送り先へ移動させるための装置および方法である、自動化された組立ておよび包装システムを開示している。視覚システムを使用する画像処理ユニットが、所定の物体の最適数に至るまで、連続的に重複する視覚窓において物体および送り先を識別しかつ位置を見定める。それらの物体および送り先の位置は、第1のロボット動作コントローラの物体および送り先位置キューに伝達される出力キューに入れられる。第1のロボットは、物体および送り先が通過している間に利用可能な時間内でそれが可能である全ての物体を拾い上げて送り先に置き、また、拾い上げられなかった物体の位置および物体が配置されていない送り先を、第2のロボット動作コントローラの物体および送り先位置キューに伝達される出力キューに入れる。
上記の従来技術の文献では、不規則なシステムを選定するためのロボット・システムの原理が説明されている。さらに、これらの文献は、フィードバック情報がそのようなシステムでどのように使用され得るかを説明している。これらの原理は、当業者には公知であると思われるので、より詳細には説明しない。
国際公開WO2011/161304号 国際公開WO9111885号
Sergey Levine、Peter Pastor、Alex Krizhevsky、およびDeirdre Quille、「Learning Hand−Eye Coordination for Robotic Grasping with Deep Learning and Large−Scale Data Collection」
ロボット・システムにおけるフィードバック構成が開示される。フィードバック情報は、あらゆる機械学習システムにおける重要な側面である。複数の物体から物体を選定しているロボット・システムでは、これは、選定された物体の画像を取得することによって構成されている。選定の後で画像が取得される場合、それらは正確に撮像されることができ、また、選定に関する情報、さらに投下の成功に関する情報は、取得した画像を、物体の選定および投下を制御するために使用されている機械学習構成におけるフィードバックとして使用することによって、強化され得る。
一実施形態では、複数の物体から少なくとも1つの物体を分離するための方法が開示される。方法は、制御ユニットにより、処理領域内の物体を操作するための命令を決定するステップと、処理領域内の物体を操作するように、操作要素を備えるロボット・システムに命令するステップと、を含む。命令は、除去場所を決定するのに必要な情報をさらに含む。方法は、少なくとも1つの操作される物体の少なくとも1つの画像を受信するステップであって、少なくとも1つの操作される物体が処理領域から除去された後で画像が取得されるステップと、受信された少なくとも1つの画像を、制御ユニットにおいて、操作および除去の成功のフィードバックとして使用するステップと、をさらに含む。
一実施形態では、方法は、撮像領域内の物体を検出するステップをさらに含む。別の実施形態では、方法は、検出するステップへの応答として物体の画像を取得するように撮像ユニットに命令するステップをさらに含む。
さらなる実施形態では、方法は、操作すべき物体を検出するために処理領域を分析するステップをさらに含む。別の実施形態では、方法は、検出された物体の特性に基づいて命令を決定するステップをさらに含む。
さらなる実施形態では、上記の方法は、コンピュータ・プログラムとして実施される。別の実施形態では、装置が開示される。装置は、コンピュータ・プログラムを実行するように構成された少なくとも1つのプロセッサと、コンピュータ・プログラムおよびコンピュータ・プログラムのためのデータを保存するように構成された少なくとも1つのメモリとを備える。装置は、さらに、外部装置に接続可能である。装置は、さらに、上記の方法を行うように構成される。
別の実施形態では、システムが開示される。システムは、処理領域内の物体を操作してその物体を除去領域へ移動させるように構成された少なくとも1台のロボットを備える。システムは、物体の画像を取得するように構成された少なくとも1つの撮像ユニットと、上記のような装置とをさらに備える。一実施形態では、撮像装置は、除去領域に配置される。別の実施形態では、除去領域は、さらなるコンベヤに接続され、撮像装置は、コンベヤ上の物体の画像を取得するように構成される。さらなる実施形態では、撮像装置は、取得した画像を装置に送信するように構成される。
説明された実施形態の便益は、処理領域から正しい物体を選定することとそれらの物体を正しい除去領域へ移動させることとを伴うシステムの全体的性能を向上させることを含む。
説明された実施形態のさらなる便益は、既存のロボット・システムへの追加が容易であり、かつ、ロボットを変更することを必要としないが、必要とされる撮像ユニットが、選定された物体の画像を取得することができまた選定された物体が正しいr領域へ移動されるのであれば見ることができるように、独立して設置され得ることである。説明された実施形態のさらなる便益は、撮像ユニットおよびロボット・システムは較正される必要がないことである。取得された画像が正しい選定および投下手順に関連付けられたことをシステムが記録することができればよい。しかし、これは、いかなる特定の較正も必要としない。
ロボット・システムにおけるフィードバック構成に対するさらなる理解を提供しかつ本明細書の一部を構成するために含まれている添付の図面は、実施形態を示し、かつ、記述と一緒にロボット・システムにおけるフィードバック構成の原理を説明するのに役立つ。
ロボット・システムにおける本フィードバック構成の例示的実施形態のブロック図である。 ロボット・システムにおける本フィードバック構成の一実施形態による例示的方法の流れ図である。 ロボット・システムにおける本フィードバック構成の一実施形態による例示的方法の流れ図である。
次に、添付の図面にそれらの例が示されている実施形態を詳細に参照する。
説明では、以下の表現が様々な実施形態で使用される。この文脈におけるロボットとは、所定の処理領域から物体を選定してそれらを所定の除去領域へ運ぶことが可能な把持部またはグリッパを備えるロボットである。この要件は、いわゆる腕ロボットまたは線形ロボットなどのいくつかの異なるタイプのロボットによって果たされ得る。以下の説明で開示されるフィードバック構成は、あらゆるロボットのタイプに適している。
以下の説明における操作とは、処理領域内の物体を操作するためにロボットが行う動作を意味する。典型的には、ロボットは、ロボットが物体を操作するのに用いるツールまたはグリッパを備えている。以下の説明における操作命令とは、ロボットによる物体の操作に必要とされる任意のパラメータを意味する。例えば、操作は、指状のグリッパを用いて物体を掴むことであってもよく、その場合、操作命令は、例えば、グリッパの開き幅およびグリッパを閉じる前にグリッパを配置するための3d空間における座標、ならびに把持後に物体を投げる速度および方向から成ってもよい。あるいは、操作は、例えば、物体を押すこと、真空吸引グリッパを用いて物体を把持すること、またはロボットによって移動される吸引管を用いて吸い込むことにより物体を移動させることであってもよい。
以下の説明における処理領域とは、1台のロボットがそこから物体を選定することができる領域を意味する。処理領域は、典型的には、ロボットの到達可能性によって限定されるが、壁または他の障害物によって限定される場合もある。この説明における処理領域は、1台のロボットのための処理領域であると理解されるべきである。作業を行うために2台以上のロボットを追加することにより実施形態におけるようなロボット・システムの能力が強化され得ることは明らかであるので、説明されるシステムは、複数の処理領域を有し得る。処理領域は、例えば、ロボットが動作可能でありかつコンベヤが処理領域を通過している領域であり得る。したがって、選定されるべき物体は、コンベヤによって処理領域に持ち込まれることになり、選定されなかった物体は、次のロボットの処理領域へ、またはコンベヤの終わりにあるコンテナへと、さらに前進することになる。
以下の説明では、除去領域として2つの投下領域を有する実施形態が論じられるが、これは、限定として理解されるべきではない。投下領域の数は、用途に基づいて選択されるものであり、2つ以上の投下領域を使用することも可能である。処理領域がコンベヤを含む場合、投下領域は、コンベヤの両側に配置され得る。ロボット・システムは、処理領域から物体を拾い上げ、その物体を投下領域まで移動させて、それを投下する。
投下領域は、選定された物体を運搬用コンテナまたはさらなる処置へ移動させるために使用される立坑、シュート、または類似のものであり得る。投下される物体は、シュートから、物体をコンテナまたは保管場所へ連れて行くさらなるコンベヤに直接投下されてもよく、または、シュートの直下にコンテナまたは保管場所があってもよい。
以下の説明において、選定(picking)とは、ロボットの意図が、選定された物体を拾上げ領域(pickup area)から除去領域へ移動させることであることを意味する。しかし、これは、広範に理解されるべきである。例えば、物体は、操作に関して上記されたような持ち上げるための様々な手段を使用することによって除去され得る。物体を持ち上げることは必ずしも必須ではなく、物体は、除去領域または投下領域へ引っ張られてもよくまたは押されてもよい。
以下、フィードバック構成の詳細な実施形態が開示される。フィードバック構成は、撮像ユニットによって取得される選定された物体の画像を機械学習のためのフィードバックとして使用する構成の様々な実施形態である。フィードバック情報は、選定動作および選定結果を向上させるようにシステムを教育するために使用される。
図1は、開示されたフィードバック構成をロボット・システムにおいて使用するシステムのブロック図である。図1の例は、上方から描かれている。図1の例では、典型的な廃棄物分離の用途が示されている。廃棄物は、ロボットを用いて選定され得る建設廃棄物または類似の廃棄物であり得る。
図では、レール10aおよび10b上で動作する線形ロボットが開示されている。レール上には、移動可能なレール11が配置されている。レール11は、把持要素12をさらに備える。把持要素12は、レール11上で移動可能である。したがって、把持要素は、レール10および11の高さよりも低いところで動いているコンベヤ13の上方で、所望の位置へ移動され得る。レールの高さとコンベヤとの間の距離は、物体の大きさによって決定される。下方の選定領域に到着する廃棄物は、カメラを使用して撮像され、把持要素12を使用して従来の方法で選定される。カメラは、固定接続または無線接続によりコントローラ・ユニット16に接続され得るように、把持要素12または固定位置に配置され得る。
コントローラ16は、少なくとも1つのプロセッサ17、および少なくとも1つのメモリを備える。少なくとも1つのプロセッサ17は、把持要素が最初に正しい位置へ移動されて次いで把持動作が行われるように、ロボット機構10−12を制御するように構成されたコンピュータ・プログラムを実行するように構成される。コントローラは、その後、選定された物体を検出してそれがどの投下領域に属するのかを判定するように構成されている。次いで、物体は、正しい投下領域へ投下される。少なくとも1つのメモリ18は、少なくとも1つのプロセッサ16によって実行されるコンピュータ・プログラム、さらに実行されるコンピュータ・プログラムに関連するデータを保存するように構成されている。
図1には、4つの投下領域14a〜14dが示されている。投下領域は、用途に応じて全て類似のタイプであってもよいし、異なるタイプのものであってもよい。例えば、処置すべき廃棄物が、典型的には重量または大きさが異なる様々なタイプの部分を含む場合には、異なるタイプの投下領域が使用され得る。さらに、投下領域は、空間利用要件のために、全体として異なっていてもよい。
以下では、投下領域14bについてより詳細に論じられる。他の投下領域14a、14c、および14dは、異なっていてもよく、また、他の例は、投下領域14bが説明された後で簡単に論じられる。投下領域14bは、把持要素12によって選定された物体がそれを通してさらなるコンベヤ19に提供される立坑である。コンベヤ19は、選定された物体を保管場所または類似の場所へ運ぶ。コンベヤ19の上方には、撮像ユニット15が設けられる。
撮像ユニット15は、選定されて投下された画像の画像を取得するための少なくとも1つのカメラ・デバイスを備える。コンベヤ19の配置により、次の物体が投下される前に前の物体がすでにコンベヤ19上でさらに移動してしまっているので、選定されて投下された物体が1度に1つだけ撮像される形で物体を移動させることが可能である。撮像ユニット15によって取得された画像は、コントローラ16へ送信され、コントローラ16は、受信した画像を、選定命令を生成するために使用される学習システムを教育するためのフィードバックとして使用する。
コントローラ16は、任意の知られた機械学習構成であり得る機械学習を伴う構成を使用している。例えば、機械学習に使用され得る一般に知られた方法は、単純ベイズ分類器、ベイジアン・ネットワーク、決定木、ランダム・フォレスト、勾配ブースト回帰ツリー、人工ニューラル・ネットワーク、ファジー論理モデル、確率的分類モデルを、単独でまたは組合せで含む。
機械学習構成は、候補操作命令を例えば成功する可能性または失敗する可能性といった所定のクラスに分類するように訓練されるか、または、操作が一連の結果のそれぞれをもたらすことになる可能性を出力し、次いでコントローラ16が機械学習構成を使用して所望の結果に終わる可能性が最も高い命令を一連の候補操作命令から選択することができるように訓練される、機械学習法であり得る。そのような候補操作命令は、例えば、無作為化された命令を生成すること、または、両立できる操作命令を出力するようになされたより単純なコントローラを使用することにより、生成され得る。あるいは、機械学習構成は、例えば、グリッパを配置するための一連の座標を出力して、操作命令をその出力として直接出力してもよい。機械学習構成を使用することおよび訓練することは、操作命令および環境に関連する特徴を計算することと、計算された特徴を機械学習構成への入力の少なくとも一部として使用することとを含み得る。例えば、そのような特徴は、選択された機械学習構成に適したものにするために例えばロボット・グリッパと位置合わせされるか縮小されるか他の方法で処理されるなどの適切な方法で処理されたカメラ画像または3dカメラ画像のデータ、または、入力画像内の物体もしくは材料を認識するように構成された機械学習構成によって生成された物体認識結果を含み得る。
上記では、投下領域に対して配置されたシュートの後に位置する第2のコンベヤ上で物体が撮像された構成。これは、単に、フィードバック構成の実施例であった。フィードバックは、他の方法で取得されてもよい。
例えば、一実施形態では、ロボットは、把持を解放して物体を投下領域へ投下する前に、投下すべき物体を撮像ゾーンに連れて行くように構成される。撮像ゾーンでは、カメラが、フィードバックとして使用される画像を取得するように構成される。別の実施形態では、撮像ゾーンは、物体が投下される窪みなどの領域である。投下の後、物体の画像が取得される。画像が取得された後、物体は、例えば、立坑またはコンベヤへとさらに押され得る。
上記の構成のそれぞれにおいて、物体の画像は、選定が行われかつ投下領域が決定された後で、取得される。したがって、フィードバック情報からは、選定の成功だけではなく、正しい投下領域を決定することの成功も判定される。これは、選定された物体が属する廃棄物部分を判定することに対応する。フィードバック情報からは、例えば、正しい部分の2物体が投下領域に入ったが誤った部分の1物体も投下領域に入る結果になった操作といった、操作結果の分布も判定され得る。そのような操作は、システム全体の用途に応じて、成功したまたは失敗した操作と見なされ得るが、いずれの場合でも、フィードバックは、コントローラ16において使用され得る。
上記では、操作される物体の画像が取得される。取得された画像が物体を含まないか、または画像が取得されない可能性もある。これは、例えば、選定動作中に物体がロボットから落下して、投下領域に決して到達できなかった場合に起こり得る。
上記の例では、いくつかの投下領域を使用して複数の部分が分離されたが、構成は、廃棄物の流れから1つの部分を分離するために使用されてもよく、残りの廃棄物は、次の段階で別個に処置される。そのような例では、1つの投下領域のみが必要とされる。フィードバック情報は、選定が成功であったかどうか、および、選定された物体が投下領域に実際に属したかどうかを判定するために使用される。
図2では、本フィードバック構成による方法の流れ図が説明されている。以下の方法は、図1で説明されたような構成とともに使用されるのに適しているが、一例に過ぎない。方法は、コントローラ、制御ユニット、サーバ、または類似のものによって制御されるロボット把持要素を有すること、および、カメラ、複数のカメラ、デプス・カメラ、スペクトル撮像ユニット、赤外線撮像ユニット、NIR撮像ユニット、XRF撮像ユニット、もしくはX線撮像ユニット、撮像金属検出器、またはフィードバックを提供するための任意の類似の撮像ユニットなどの撮像ユニットをさらに有することという要件を満たす他の構成で使用されてもよい。図2の方法は、システム全体を制御するコントローラにおいて実施される。
方法は、選定のための命令を決定するステップ20によって開始される。選定領域は、上記のように、固定されたまたは動いているコンベヤであり得る。選定領域は、カメラ機構によって検出される様々なタイプの物体を含む。カメラ機構は画像を取得し、画像からは、どの物体が次に選定されるべきかが判定される。決定は、種々の変数に基づいて行われ得る。例えば、2台以上のロボットが直列に配置される場合、後に続くロボットが異なる特性を有し得るかまたはそれらの投下領域が異なるタイプの物体に割り当てられるので、後に続くロボットの選定能力が考慮され得る。
決定される命令は、少なくとも、どの物体を選定すればよいかに関する情報を含む。これは、例えば、選定座標を指示することによって行われ得る。選定座標は、コンベヤの動作により時間とともに変わりつつある場合があり、これは、考慮される必要がある。命令はまた、所望の投下領域の情報を含み得る。2つ以上の適切な投下領域が存在する場合、ロボット・システムの後続の動作が最適化されるように投下領域を決定することが可能である。
次いで、ステップ21において、命令がロボットに送信される。命令は、システム全体を制御するコントローラにより、把持を行うロボットに直接送られてもよく、または、システム全体を制御するコントローラとロボットとの間にさらなる制御ユニットが存在してもよい。
次いで、ロボットは、コントローラから命令を受信し、それに応じて正しい位置まで移動する。その位置に到達すると、把持動作が行われて、命令によって定められた目標物体が選定される。次いで、選定された物体は、投下領域の近傍に連れて行かれて、投下領域に落ちるように解放される。
物体は、選定された後、撮像される必要がある。これは、物体が解放される前に、例えばロボットが解放位置の近くにいるときに、すでに行われていてもよい。他の選択肢には、解放された物体が投下領域へ落下しているときに検出されて空中でまたは投下領域に着いた後で撮像されることが含まれる。
方法2が適している実施形態では、物体の存在は、自動的に、また、図2の方法が行われるコントローラとは独立して検出される。例えば、物体を検出するために、運動センサまたは他の検出器が使用され得る。物体が検出されると、画像が取得されて、コントローラへ送信される。
コントローラは、ステップ22において、少なくとも1つの画像を受信し、ステップ23において、その画像をコントローラにおける機械学習プロセスで使用されるフィードバック情報として処理する。
図3では、全体的なシステムの機能性を記述する方法が説明されている。この方法では、ステップ30において、分離または分類されるべき廃棄物などの物体が、コンベヤまたはコンテナにより、処理領域へ運ばれる。物体は、ステップ31において、様々な物体のタイプおよび量を検出するために連続的に分析される。分析結果に基づき、ステップ32において、選定のための命令が決定される。
選定命令は、ステップ33において、把持要素を含むロボットによって実行される。ロボットは、ステップ34において、所望の物体を拾い上げて、それを正しい投下領域に落とす。物体が落とされると、ステップ35において、物体の画像が取得される。次いで、取得された画像は、ステップ36において、物体を分析して選定命令を決定することに関与する機械学習テンティティへ送られる。最後に、ステップ37において、投下された物体は、保管場所へ送られる。例えば、次の場所への運搬を待つため、または、近傍に配置された廃棄物処理システムへ直接運搬されるためである。
上述の方法は、他のデバイスと通信することができるコンピューティング・デバイスにおいて実行されるコンピュータ・ソフトウェアとして実施されてもよい。コンピューティング・デバイスにおいてソフトウェアが実行される場合、ソフトウェアは、上記の本発明の方法を実行するように構成される。ソフトウェアは、図1のコントローラ16などのコンピューティング・デバイスに提供され得るように、コンピュータ可読媒体上に具現化される。
上述のように、例示的な実施形態の構成要素は、本実施形態の教示に従ってプログラムされた命令を保持するための、また、データ構造、表、レコード、および/または本明細書で説明される他のデータを保持するための、コンピュータ可読媒体またはメモリを含み得る。コンピュータ可読媒体は、実行するためのプロセッサに命令を提供することに関与する、任意の適切な媒体を含み得る。一般的な形態のコンピュータ可読媒体は、例えば、フロッピー・ディスク、フレキシブル・ディスク、ハード・ディスク、磁気テープ、任意の他の適切な磁気媒体、CD−ROM、CD±R、CD±RW、DVD、DVD−RAM、DVD±RW、DVD±R、HD DVD、HD DVD−R、HD DVD−RW、HD DVD−RAM、ブルーレイ・ディスク、任意の他の適切な光学媒体、RAM、PROM、EPROM、FLASH−EPROM、任意の他の適切なメモリ・チップもしくはカートリッジ、搬送波、またはコンピュータが読み出すことができる任意の他の適切な媒体を含み得る。
ロボット・システムにおけるフィードバック構成の基本的な考え方は技術の進歩とともに様々な方法で実施され得ることは、当業者には明白である。したがって、ロボット・システムにおけるフィードバック構成およびその実施形態は、上記の例に限定されるものではなく、特許請求の範囲の範囲内で変化し得るものである。

Claims (11)

  1. 様々なタイプの部分に属している複数の物体から少なくとも1つの物体を分けるための方法であって、前記方法は、
    制御ユニットにより、処理領域内の物体を操作するための命令を決定するステップと、
    前記処理領域内の前記物体を操作するように、操作要素を備えるロボット・システムに命令するステップと、
    を含み、
    前記命令が、除去場所を決定するのに必要な情報をさらに含み、前記方法が、
    前記少なくとも1つの操作される物体の少なくとも1つの画像を受信するステップであって、前記少なくとも1つの操作される物体が所定の除去領域へ運ばれるために前記処理領域から除去された後で前記画像が取得されるステップと、
    前記受信された少なくとも1つの画像を前記制御ユニットにおいて機械学習プロセスにおける前記操作および前記除去の成功のフィードバックとして使用するステップと、
    をさらに含むことを特徴とする、方法。
  2. 撮像領域内の物体を検出するステップをさらに含む、請求項1に記載の方法。
  3. 前記検出するステップへの応答として、前記物体の画像を取得するように撮像ユニットに命令する、請求項2に記載の方法。
  4. 操作すべき物体を検出するために処理領域を分析するステップをさらに含む、請求項1〜3のいずれか一項に記載の方法。
  5. 操作すべき物体を検出するステップに対する応答として、前記検出された物体の特性に基づいて前記命令を決定するステップをさらに含む、請求項4に記載の方法。
  6. 様々なタイプの部分に属している複数の物体から少なくとも1つの物体を分けるためのコンピュータ・プログラムであって、前記コンピュータ・プログラムが、コンピューティング・デバイスにおいて実行されたときに請求項1〜5のいずれか一項に記載のステップを実行するように構成されていることを特徴とする、コンピュータ・プログラム。
  7. 様々なタイプの部分に属している複数の物体から少なくとも1つの物体を分けるための装置であって、
    コンピュータ・プログラムを実行するように構成された少なくとも1つのプロセッサ(17)と、
    コンピュータ・プログラムおよびコンピュータ・プログラムのためのデータを保存するように構成された少なくとも1つのメモリ(18)と、
    を備え、
    前記装置が、外部装置に接続可能であり、
    前記装置が、さらに、請求項1〜5のいずれか一項に記載の方法を行うように構成されていることを特徴とする、装置。
  8. 様々なタイプの部分に属している複数の物体から少なくとも1つの物体を分けるためのシステムであって、
    処理領域内の物体を操作して前記物体を除去領域へ移動させるように構成された少なくとも1台のロボット(10−12)と、
    前記物体の画像を取得するように構成された少なくとも1つの撮像ユニット(15)と、
    を備えるシステムにおいて、
    請求項7に記載の装置(16)
    を特徴とする、システム。
  9. 前記撮像ユニット(15)が、前記除去領域に配置される、請求項8に記載のシステム。
  10. 前記除去領域が、さらなるコンベヤに接続され、前記撮像ユニット(15)が、前記コンベヤ上の物体の画像を取得するように構成されている、請求項8に記載のシステム。
  11. 前記撮像ユニット(15)が、取得した画像を前記装置(16)に送信するように構成されている、請求項8〜10のいずれか一項に記載のシステム。
JP2019505157A 2016-08-04 2017-07-27 複数の物体から少なくとも1つの物体を分離するための方法、コンピュータ・プログラム、装置およびシステム Active JP6868684B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FI20165603A FI127100B (en) 2016-08-04 2016-08-04 A method and apparatus for separating at least one piece from a plurality of pieces
FI20165603 2016-08-04
PCT/FI2017/050556 WO2018024944A1 (en) 2016-08-04 2017-07-27 A method, a computer program, an apparatus and a system for separating at least one object from a plurality of objects

Publications (2)

Publication Number Publication Date
JP2019533570A JP2019533570A (ja) 2019-11-21
JP6868684B2 true JP6868684B2 (ja) 2021-05-12

Family

ID=60156684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019505157A Active JP6868684B2 (ja) 2016-08-04 2017-07-27 複数の物体から少なくとも1つの物体を分離するための方法、コンピュータ・プログラム、装置およびシステム

Country Status (7)

Country Link
US (2) US10839474B2 (ja)
EP (1) EP3493925A4 (ja)
JP (1) JP6868684B2 (ja)
AU (1) AU2017305864A1 (ja)
CA (1) CA2974869C (ja)
FI (1) FI127100B (ja)
WO (1) WO2018024944A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6599827B2 (ja) * 2016-08-29 2019-10-30 ファナック株式会社 ワーク取出システム
EP3515671B1 (en) * 2017-06-19 2020-05-13 Google LLC Robotic grasping prediction using neural networks and geometry aware object representation
WO2019079598A1 (en) 2017-10-18 2019-04-25 Brown University PROBABILISTIC PROBABILISTIC OBJECTS-ROBUST AND REPRODUCIBLE PLACEMENT
US11504853B2 (en) * 2017-11-16 2022-11-22 General Electric Company Robotic system architecture and control processes
SE543130C2 (en) * 2018-04-22 2020-10-13 Zenrobotics Oy A waste sorting robot gripper
SE1830136A1 (en) * 2018-04-22 2019-10-23 Zenrobotics Oy Waste Sorting Gantry Robot
US11584016B2 (en) 2018-04-24 2023-02-21 Fanuc Corporation Robot controller and system
JP6987698B2 (ja) * 2018-05-21 2022-01-05 大王製紙株式会社 選別装置、選別方法及び選別プログラム並びにコンピュータで読み取り可能な記録媒体
US10967507B2 (en) * 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
SE544741C2 (en) * 2018-05-11 2022-11-01 Genie Ind Bv Waste Sorting Gantry Robot and associated method
US20220137597A1 (en) * 2019-03-07 2022-05-05 Abb Schweiz Ag Method Of Controlling An Industrial System, Control System And Industrial System
US11185980B2 (en) * 2019-04-16 2021-11-30 Abb Schweiz Ag Machine learning-based systems and methods for controlling robotic object picking and placement in training and run time environments
WO2021155037A1 (en) * 2020-01-28 2021-08-05 Embodied Intelligence Inc. Identifying scene correspondences with neural networks
WO2021178873A1 (en) * 2020-03-06 2021-09-10 Embodied Intelligance Inc. Imaging process for detecting failure modes
EP4128027A1 (en) 2020-03-26 2023-02-08 Digimarc Corporation Arrangements for digital marking and reading of items, useful in recycling
CN111790638A (zh) * 2020-04-24 2020-10-20 山东潍泉电子科技有限公司 行程定位动力金属分选系统
CN112295933B (zh) * 2020-09-17 2022-03-11 东南大学 一种机器人快速分拣货物的方法
CN114310869B (zh) * 2020-09-29 2023-04-25 上海科技大学 机器人手眼标定方法、系统以及终端
SE2030325A1 (en) * 2020-10-28 2021-12-21 Zenrobotics Oy Waste sorting robot and method for detecting faults
CN112621750B (zh) * 2020-12-07 2022-12-16 合肥阿格德信息科技有限公司 一种工业机器人自动控制系统
US11922368B1 (en) * 2020-12-11 2024-03-05 Amazon Technologies, Inc. Object classification exception handling via machine learning
EP4323918A1 (en) 2021-04-16 2024-02-21 Digimarc Corporation Methods and arrangements to aid recycling
WO2023067656A1 (ja) * 2021-10-18 2023-04-27 株式会社Pfu 物体処理装置
CN114193446B (zh) * 2021-11-22 2023-04-25 上海交通大学宁波人工智能研究院 一种基于形态学图像处理的闭环抓取检测方法
CN114758243B (zh) * 2022-04-29 2022-11-11 广东技术师范大学 基于补充训练与双类位置预测的茶叶采摘方法和装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE500076C2 (sv) * 1989-03-23 1994-04-11 Sellbergs Engineering Ab Sätt att omhänderta avfall
US5100005A (en) * 1989-08-11 1992-03-31 Plastics Recovery, Inc. Trash bags for recyclable articles and system and method for collecting recyclable waste
AU7251591A (en) 1990-01-29 1991-08-21 Technistar Corporation Automated assembly and packaging system
JP3104949B2 (ja) * 1994-04-12 2000-10-30 株式会社栗本鐵工所 廃瓶の選別装置
US6008636A (en) * 1997-09-30 1999-12-28 Motorola, Inc. Test system with robot arm for delivering a device under test
JP2001259536A (ja) * 2000-03-21 2001-09-25 Nkk Plant Engineering Corp 廃棄物の分別方法および分別装置
DE102008029497A1 (de) * 2008-06-20 2009-12-24 Krones Ag Vorrichtung und Verfahren zum Zusammenstellen von Gebinden für eine Verpackungsmaschine
IT1394135B1 (it) 2009-03-25 2012-05-25 Opm S P A Metodo e impianto di confezionamento per inserire prodotti in contenitori tramite una serie di robot
FI20105732A0 (fi) 2010-06-24 2010-06-24 Zenrobotics Oy Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä
JP5803124B2 (ja) 2011-02-10 2015-11-04 セイコーエプソン株式会社 ロボット、位置検出装置、位置検出プログラム、および位置検出方法
WO2013126048A1 (en) * 2012-02-21 2013-08-29 Amazon Technologies, Inc. System and method for automatic picking of products in a materials handling facility
US8996174B2 (en) * 2012-06-21 2015-03-31 Rethink Robotics, Inc. User interfaces for robot training
US9238304B1 (en) * 2013-03-15 2016-01-19 Industrial Perception, Inc. Continuous updating of plan for robotic object manipulation based on received sensor data
US10268983B2 (en) * 2013-06-26 2019-04-23 Amazon Technologies, Inc. Detecting item interaction and movement
SG2013069893A (en) * 2013-09-13 2015-04-29 Jcs Echigo Pte Ltd Material handling system and method
US9082071B2 (en) * 2013-11-26 2015-07-14 Canon Kabushiki Kaisha Material classification using object/material interdependence with feedback
FI126537B (fi) * 2014-08-13 2017-01-31 Metrosense Oy Menetelmä, laitteisto ja järjestelmä jätteiden lajittelemiseksi
EP4235540A3 (en) * 2015-09-11 2023-09-27 Berkshire Grey Operating Company, Inc. Robotic systems and methods for identifying and processing a variety of objects
US9718188B2 (en) * 2015-09-21 2017-08-01 Amazon Technologies, Inc. Networked robotic manipulators
US9819865B2 (en) * 2015-10-30 2017-11-14 Essential Products, Inc. Imaging device and method for generating an undistorted wide view image
US9639535B1 (en) * 2015-12-16 2017-05-02 Waste Repurposing International, Inc. Waste identification systems and methods
US9707595B2 (en) * 2015-12-16 2017-07-18 Waste Repurposing International, Inc. Household hazardous waste recovery
US9990685B2 (en) * 2016-03-21 2018-06-05 Recognition Robotics, Inc. Automated guidance system and method for a coordinated movement machine
US10322506B2 (en) * 2016-05-06 2019-06-18 Kindred Systems Inc. Systems, devices, articles, and methods for using trained robots
US10245724B2 (en) * 2016-06-09 2019-04-02 Shmuel Ur Innovation Ltd. System, method and product for utilizing prediction models of an environment
US10059005B2 (en) * 2016-06-22 2018-08-28 Quanta Storage Inc. Method for teaching a robotic arm to pick or place an object
US10221015B2 (en) * 2016-06-27 2019-03-05 Amazon Technologies, Inc. Automated item singulation

Also Published As

Publication number Publication date
EP3493925A1 (en) 2019-06-12
AU2017305864A1 (en) 2019-03-07
CA2974869C (en) 2019-06-11
JP2019533570A (ja) 2019-11-21
FI127100B (en) 2017-11-15
US20180036774A1 (en) 2018-02-08
WO2018024944A1 (en) 2018-02-08
US11682097B2 (en) 2023-06-20
US10839474B2 (en) 2020-11-17
FI20165603A (fi) 2017-11-15
US20210110504A1 (en) 2021-04-15
EP3493925A4 (en) 2020-01-08
CA2974869A1 (en) 2017-10-25

Similar Documents

Publication Publication Date Title
JP6868684B2 (ja) 複数の物体から少なくとも1つの物体を分離するための方法、コンピュータ・プログラム、装置およびシステム
JP7466150B2 (ja) 自動パッケージ登録メカニズムを備えたロボットシステム、および、その動作方法
CN114585576B (zh) 协调多个机器人以满足工作流程并避免冲突
US20240165671A1 (en) Robotic System Having Shuttle
CN108349083B (zh) 用于提供各种物体的分拣的分拣系统和方法
JP6534126B2 (ja) ピッキングシステム及びその制御方法
JP5806301B2 (ja) ロボットシステムにおける物理的な物体の選択のための方法
JP2017520418A (ja) 軌道計画のための物体測定基準のリアルタイム確定
JP2013193202A (ja) 人間援助型タスクデモンストレーションを使用してロボットを訓練するための方法およびシステム
CN114405866B (zh) 视觉引导钢板分拣方法、视觉引导钢板分拣装置和系统
JP2022160552A (ja) 動的動き調節機構を有するロボットシステム及びそれを動作させる方法
EP4288254A1 (en) Systems, apparatuses, and methods for robotic learning and execution of skills including navigation and manipulation functions
JP2017014012A (ja) 仕分装置
US20230286140A1 (en) Systems and methods for robotic system with object handling
Lim et al. Human-robot collaboration and safety management for logistics and manipulation tasks
TW202241669A (zh) 可適性機器人單分系統
Lim et al. Mobile manipulation for autonomous packaging in realistic environments: EuRoC challenge 2, stage II, showcase
KR102479343B1 (ko) 인공지능 기반의 식재료 추적 장치 및 방법과 이를 이용한 요리 로봇 시스템
JP7505676B2 (ja) ピッキング方法及びピッキングシステム
JP7505674B2 (ja) ピッキングシステム
Siswoyo Developing A Robot to Improve The Accuracy of Ring Retrieval and Throwing at The ABU Robocon Indonesia Robot Competition
Yun et al. Development of Autonomous Robotic Bin Picking System Using Convolutional Neural Network (CNN) Initially Trained by Human Skills
Ankit et al. Multi-agent Cooperative Framework for Autonomous Wall Construction
CN114896798A (zh) 碰撞检测方法、控制方法、抓取系统及计算机存储介质
JP2023063110A (ja) ピッキングシステム、ピッキング装置、制御装置、プログラム、及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210412

R150 Certificate of patent or registration of utility model

Ref document number: 6868684

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250