JP2020042421A - 対象物認識装置、マニピュレータ、および移動ロボット - Google Patents

対象物認識装置、マニピュレータ、および移動ロボット Download PDF

Info

Publication number
JP2020042421A
JP2020042421A JP2018168033A JP2018168033A JP2020042421A JP 2020042421 A JP2020042421 A JP 2020042421A JP 2018168033 A JP2018168033 A JP 2018168033A JP 2018168033 A JP2018168033 A JP 2018168033A JP 2020042421 A JP2020042421 A JP 2020042421A
Authority
JP
Japan
Prior art keywords
state
unit
objects
result
recognition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018168033A
Other languages
English (en)
Other versions
JP7031540B2 (ja
Inventor
嘉典 小西
Yoshinori Konishi
嘉典 小西
達也 古賀
Tatsuya Koga
達也 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2018168033A priority Critical patent/JP7031540B2/ja
Priority to US17/267,039 priority patent/US11964399B2/en
Priority to EP19856640.8A priority patent/EP3848898B1/en
Priority to PCT/JP2019/009027 priority patent/WO2020049766A1/ja
Priority to CN201980051605.4A priority patent/CN112534476A/zh
Publication of JP2020042421A publication Critical patent/JP2020042421A/ja
Application granted granted Critical
Publication of JP7031540B2 publication Critical patent/JP7031540B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40014Gripping workpiece to place it in another place
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40532Ann for vision processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Abstract

【課題】所定の空間領域内に配置された複数の対象物の状態を認識することができる技術を提供する。【解決手段】互いに異なる手法によって所定の空間領域における対象物の姿勢状態を算出する複数の演算処理部(21,22)と、前記空間領域に配置されている複数の対象物全体の配置状態を認識する状態認識部(23)と、前記状態認識部(23)による認識結果に応じて、前記演算処理部(21,22)による算出結果の利用方法を決定する方法決定部(24)と、決定された算出結果の利用方法によって、前記対象物の姿勢状態を認識する対象物認識部(25)とを備える。【選択図】図3

Description

本発明は、対象物認識装置、マニピュレータ、および移動ロボットに関する。
従来、隣接して荷積した複数のワークのそれぞれをロボットでピッキングすることで、ワークを把持、及び搬送する技術が知られている。これらの技術では、ワークの位置を、予めロボットにティーチングし、ティーチング位置にワークを並べることで、ロボットは、ワークをピッキングする。一方で、複数のワークを並べる位置にずれが生じた場合や、荷積された複数のワークに荷崩れが生じ、ばら積み状態となった場合には、ロボットが各ワークをピッキングすることができなくなる。
そこで、荷積された複数のワークを撮影した全体画像から各ワークのエッジ部分を検出し、エッジ部分を境界として、各ワークの位置と姿勢を認識して、ワークをロボットでピッキングする技術が提案されている。(例えば、特許文献1参照)。
特許第5429614号明細書
しかしながら、ワークに荷崩れが生じ、ばら積み状態となった場合、照明条件の悪化や、背景に同色のワークがあること等により各ワークのエッジ部分の検出が困難となる。そのため、ばら積み状態のワークには、撮影画像からワークのエッジを検出して、ワークの位置と姿勢を認識する手法は有効ではなく、ワークの状態を認識することができる技術が望まれていた。
本発明の一態様は、上述した事情に鑑みてなされたものであり、所定の空間領域内に配置された複数の対象物の状態を認識することができる技術を提供することを目的とする。
前記の課題を解決するために、本発明の一態様に係る対象物認識装置は、複数の対象物が配置されることが可能な所定の空間領域における、前記対象物の姿勢状態を算出する複数の演算処理部であって、各演算処理部は互いに異なる手法によって前記対象物の姿勢状態を算出する複数の演算処理部と、前記空間領域に配置されている複数の対象物全体の配置状態を認識する状態認識部と、前記状態認識部による認識結果に応じて、前記複数の演算処理部による算出結果の利用方法を決定する方法決定部と、前記方法決定部によって決定された算出結果の利用方法によって、前記対象物の姿勢状態を認識する対象物認識部とを備える構成である。
前記の構成によれば、所定の空間領域内に配置された複数の対象物全体の配置状態に適した算出手法を用いて、各対象物の形状、位置、向き、傾き等を示す姿勢状態を認識することが可能となる。よって、複数の対象物が整列状態であっても、ばら積み状態であっても、その配置状態によらず、各対象物の姿勢状態を正確に認識することができる。
また、本発明の一態様に係る対象物認識装置は、前記複数の演算処理部は、前記空間領域を撮像した2次元画像のエッジ検出を行い、該エッジ検出結果と、前記対象物の形状、およびテスクチャの少なくとも何れか一方とのパターンマッチングを行うことによって前記対象物の姿勢状態を算出する2次元画像演算処理部と、前記空間領域に対して所定の3次元形状算出手法によって前記対象物の姿勢状態を算出する3次元画像演算処理部と、を含んでいてもよい。
前記の構成によれば、2次元画像演算処理部によって算出された対象物の姿勢状態と、3次元画像演算処理部によって算出された対象物の姿勢状態と、の算出結果のうち少なくとも何れか一方を用いて、各対象物の姿勢状態を認識することができる。よって、複数の対象物全体の配置状態によらず、各対象物の姿勢状態を正確に認識することができる。
また、本発明の一態様に係る対象物認識装置は、前記方法決定部は、前記状態認識部による認識結果に応じて、前記複数の演算処理部の中から特定の演算処理部を選択し、前記対象物認識部は、前記方法決定部によって選択された演算処理部による算出結果に基づいて、前記対象物の姿勢状態を認識してもよい。
前記の構成によれば、2次元画像演算処理部の算出結果と、3次元画像演算処理部の算出結果と、のうち複数の対象物全体の配置状態に応じて、適した算出結果を用いて各対象物の姿勢状態を正確に認識することができる。
また、本発明の一態様に係る対象物認識装置は、前記方法決定部は、前記状態認識部による認識結果に応じて、前記複数の演算処理部による算出結果に対して重み付けを付与し、前記対象物認識部は、前記方法決定部によって重み付けを付与された、各演算処理部による算出結果に基づいて、前記対象物の姿勢状態を認識してもよい。
前記の構成によれば、2次元画像演算処理部の算出結果と、3次元画像演算処理部の算出結果と、の両方を複数の対象物全体の配置状態に応じた配分に応じて重み付けをして用いて、各対象物の姿勢状態を認識することができる。これにより、複数の対象物の配置状態によらず、各対象物の姿勢状態を正確に認識することができる。
また、本発明の一態様に係る対象物認識装置は、前記状態認識部は、前記複数の演算処理部のうち、所定の演算処理部による算出結果に基づいて算出された、前記空間領域に含まれる面の法線方向の分布状態に基づいて、前記複数の対象物全体の配置状態を認識してもよい。
前記の構成によれば、2次元画像演算処理部の算出結果と、3次元画像演算処理部の算出結果との少なくとも何れかの算出結果に基づいて複数の対象物全体の配置状態を認識し、配置状態に適した算出結果を利用して各対象物の姿勢状態を正確に認識することができる。
また、本発明の一態様に係る対象物認識装置は、前記状態認識部は、前記空間領域を撮像した2次元画像のエッジ検出を行い、該エッジ検出結果と、前記対象物の形状、およびテクスチャの少なくとも何れか一方とのパターンマッチングを行うことによって前記対象物の姿勢状態を算出する2次元画像演算処理部による算出結果の信頼度を算出し、該信頼度に基づいて、前記複数の対象物全体の配置状態を認識してもよい。
前記の構成によれば、複数の対象物全体の配置状態を正確に認識することができ、配置状態に応じて適した算出結果を用いて、各対象物の姿勢状態を正確に認識することができる。
また、本発明の一態様に係る対象物認識装置は、前記状態認識部は、前記複数の演算処理部のうち、所定の演算処理部による算出結果に関して、前記複数の対象物全体の所定の配置状態毎に機械学習を行った学習結果を参照して、前記複数の対象物全体の配置状態を認識してもよい。
前記の構成によれば、複数の対象物全体の配置状態を機械学習を行った学習結果を参照して正確に認識することができ、配置状態に応じて適した算出結果を用いて、各対象物の姿勢状態を正確に認識することができる。
前記の課題を解決するために、本発明の一態様に係るマニピュレータは、対象物に対する把持動作を行うロボットアームと、前記対象物認識装置と、前記対象物認識装置による対象物認識結果に基づいて前記ロボットアームの動作を制御する制御部と、を備える構成である。
前記の構成によれば、ロボットアームの動作により、複数の対象物全体の配置状態に因らず、対象物を適切にピッキングすることができる。
前記の課題を解決するために、本発明の一態様に係る移動ロボットは、前記マニピュレータと、前記マニピュレータを搬送する無人搬送車とを備える構成である。
前記の構成によれば、無人搬送車、およびロボットアームの動作により、複数の対象物全体の配置状態に因らず、対象物を適切にピッキングすることができる。
本発明の一態様によれば、所定の空間領域内に配置された複数の対象物の状態を認識することができる。
本実施形態に係る対象物認識装置が使用されるシステム環境の概要を示す図である。 対象物認識装置のハードウェア構成図である。 対象物認識装置の要部構成を示すブロック図である。 (a)は整列状態の複数の対象物全体の配置状態を模式的に示し、(b)はばら積み状態の複数の対象物全体の配置状態を模式的に示す図である。 対象物認識装の処理の流れを示すフローチャートである。 マニピュレータ、およびマニピュレータを備える移動ロボットの要部構成を示すブロック図である。 移動ロボットの外観構成を示す斜視図である。
以下、本発明の一側面に係る実施形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。
§1 適用例
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係る対象物認識装置10が使用されるシステム環境の概要を示す図である。対象物認識装置10は、ロボットアーム50で把持し、搬送する複数の対象物2の状態を認識するために用いられる装置である。複数の対象物2は、例えばコンテナー3、またはパレット等によって規定される所定の空間領域に載置されている。対象物認識装置10は、センサ5から取得したセンサ情報を参照して、所定の空間領域における対象物2の配置状態を認識する。
また、対象物認識装置10は、所定の空間領域における対象物2の姿勢状態を算出する演算処理部を複数備え、各演算処理部による算出結果の利用方法を、複数の対象物2全体の配置状態に応じて決定する。これにより、対象物認識装置10は、複数の対象物2全体の配置状態に応じた手法で、各対象物2の姿勢状態(位置、及び姿勢)を正確に認識する。
対象物認識装置10は、対象物2に対する把持動作を行うロボットアーム50と、ロボットアーム50の動作を制御するロボット制御部と、共に、マニピュレータ120を構成してもよい。マニピュレータ120は、対象物認識装置10によって認識された対象物2の姿勢状態に応じて、ロボットアーム50を動かして、対象物2を把持し、搬送する。
また、対象物認識装置10は、マニピュレータ120の機能部として、マニピュレータ120を搬送する無人搬送車150に搭載され、移動ロボット100を構成してもよい。
§2 構成例
〔実施形態1〕
以下、本発明の実施形態1に係る対象物認識装置10の構成について、図1、図2、および図3に基づいて詳細に説明する。図1は、対象物認識装置10の概略構成を模式的に示す図である。図2は、対象物認識装置10のハードウェア構成図である。図3は、対象物認識装置10の要部構成を示すブロック図である。
図1に示すように、対象物認識装置10は、センサ5、及びPLC4(Programmable Logic Controller)に接続されている。対象物認識装置10は、センサ5からのセンサ情報を取得する。また、対象物認識装置10は、センサ5から取得したセンサ情報に応じた情報をPLC4に提供する。なお、図1では、1つのセンサ5を示しているが、対象物認識装置10には、複数のセンサ5が接続されていてもよい。
センサ5は、2次元画像を撮像するカメラ5a、ステレオ撮影する2台のカメラ5a、および不図示の光照射部から照射された光の反射光をセンシングするセンサの少なくとも何れかを備えている。センサ5は、ロボットアーム50によって把持、及び搬送される(以下、把持、及び搬送を、ピッキングともいう)複数の対象物2(ワークとも称する)の状態を検出する。対象物2は、対象物2を配置可能な空間領域を既定するコンテナー3内に収容されている。センサ5は、例えば、コンテナー3内に収容されている複数の対象物2の状態を示す画像を撮影し、撮影画像を出力する。
〔対象物認識装置10のハードウェア構成について〕
図2に示すように、対象物認識装置10では、CPU(Central Processing Unit)10a、メインメモリ10b、バッファ10c、ハードディスク10e、入力インターフェイス10f、表示コントローラ10g、PLCインターフェイス10h、通信インターフェイス10i、およびデータリーダ/ライタ10jが、バス10kを介して接続されている。
CPU10aは、例えばRAMやフラッシュメモリなどの記憶素子に記憶されたプログラムを実行することにより、対象物認識装置10内の各種構成を統括的に制御するものである。
メインメモリ10bは、CPU10aが使用する各種データ、及びCPU10aの演算結果などを一時的に記憶する。メインメモリ10bは、例えば、RAM、ROM、フラッシュメモリ等の不揮発性メモリにより構成されている。
バッファ10cは、複数のセンサ5から取得したセンサ情報を一時的に保持する。バッファ10cは、複数のセンサ5から取得した、カメラ5aが撮像した画像データを一時的に保持する画像バッファ10dを含んでいてもよい。
ハードディスク10eは、対象物認識装置10で使用される情報を記録し、読み出す記憶装置である。
入力インターフェイス10fは、対象物認識装置10にマウス13を接続し、マウス13からの入力を受け付ける。入力インターフェイス10fは、無線通信(近距離無線通信)、または有線通信を介して、マウス13を対象物認識装置10に接続する。
表示コントローラ10gは、対象物認識装置10にディスプレイ12を接続し、ディスプレイ12の表示を制御する。
PLCインターフェイス10hは、対象物認識装置10にPLC4を接続し、PLC4間でのデータ送受信を行う。PLCインターフェイス10hは、無線通信、または有線通信を介して、PLC4と通信する。
通信インターフェイス10iは、対象物認識装置10に、例えばコンソール等の外部機器を接続する。通信インターフェイス10iは、無線通信、または有線通信を介して、外部機器と通信する。
データリーダ/ライタ10jは、対象物認識装置10に外部のメモリカード14等の記憶装置を接続し、メモリカード14間でデータの読み出しと書き込みを行う。
〔対象物認識装置10の機能構成について〕
図3に示すように、対象物認識装置10は、取得部15、通信部16、記憶部18、および制御部20を備えている。
取得部15は、複数のセンサ5から出力されるセンサ情報を取得する。センサ5は、3Dカメラ、および2Dカメラの少なくとも何れかを備えている。センサ5は、複数のカメラを備えている構成であってもよい。また、センサ5は、温度センサ、光センサ、エッジセンサおよび赤外線カメラなどのセンサを備えていてもよい。複数のセンサ5は、それぞれ、対象物の画像を取得したり、対象物のエッジ、対象物の表面のテクスチャ、対象物の表面の輝度、および対象物の所定の点までの距離を計測したりすることができてもよい。取得部15は、センサ5から取得したセンサ情報を制御部20に提供する。
通信部16は、対象物認識装置10、センサ5、およびロボットアーム50を統括的に制御するPLC4と通信する。通信部16は、PLC4から受信した制御情報を制御部20に提供すると共に、制御部20による認識結果をPLC4に送信する。
記憶部18は、制御部20が用いる各種データを記憶している。
制御部20は、対象物認識装置10の全体を統括的に制御する。制御部20は、2次元画像演算処理部21、3次元画像演算処理部22、状態認識部23、方法決定部24、対象物認識部25を含んでいる。なお、以下の説明において、2次元画像演算処理部21、および3次元画像演算処理部22をまとめて演算処理部とも称する。
2次元画像演算処理部21は、取得部15を介してセンサ5から取得した、所定の空間領域に配置された複数の対象物の2次元画像から、各対象物のエッジ検出を行う。2次元画像演算処理部21は、2次元画像から検出した対象物のエッジを、記憶部18に記憶されている対象物の形状のモデルとのパターンマッチングを行うことによって対象物の3次元位置姿勢を認識する。また、2次元画像演算処理部21は、2次元画像から検出した、対象物の表面のテスクチャのモデルとのパターンマッチングを行うことによって対象物の3次元位置姿勢を認識してもよい。
3次元画像演算処理部22は、取得部15を介してセンサ5から取得したセンサ情報に基づいて、所定の3次元形状計測手法により、所定の空間領域に配置された複数の対象物の姿勢状態を算出する。
例えば、センサ5は、不図示の光照射部を備え、当該光照射部から所定の空間領域に配置された複数の対象物に対して2次元パターン(定周期模様)の光、または、直線状の光を照射する。そして、センサ5は、対象物に対して照射した光のパターンの歪みを撮影した画像、または光センサの出力を3次元画像演算処理部22に提供する。3次元画像演算処理部22は、対象物に対して照射した光のパターンの歪みに基づいて、所定の空間領域に配置された複数の対象物の3次元形状を計測し、計測した対象物の3次元形状に基づいて、対象物の姿勢状態を算出してもよい。3次元画像演算処理部22は、センサ5から取得したセンサ情報に基づいて、光の送信から対象に反射して受信するまでの時間によって画素毎に距離を測るTOF(time of flight)方式によって、所定の空間領域に配置された複数の対象物の姿勢状態を算出してもよい。
また、センサ5は、所定の空間領域に配置された複数の対象物をステレオ撮影する2台のカメラを備え、3次元画像演算処理部22は、取得部15を介してセンサ5から取得した、対象物をステレオ撮影した画像を参照して、所定の空間領域に配置された複数の対象物の姿勢状態を算出してもよい。
なお、センサ5は、2次元画像演算処理部21、および3次元画像演算処理部22のそれぞれにセンサ出力を提供する構成であってもよい。また、対象物認識装置10には、2次元画像演算処理部21、および3次元画像演算処理部22のそれぞれに対応するセンサ5が複数設けられていてもよい。
このように、対象物認識装置10は、複数の対象物が配置されることが可能な所定の空間領域における姿勢状態を算出する複数の演算処理部21,22を備えている。そして、各演算処理部21,22は、互いに異なる手法によって所定の空間領域に配置された複数の対象物の姿勢状態の算出を行う。
状態認識部23は、演算処理部21,22の少なくとも何れかの算出結果に基づいて、空間領域に配置されている複数の対象物全体の配置状態が、整列した状態で配置されている状態である整列状態であるのか、ばらばらに山積みされた状態であるばら積み状態であるのかを認識する。
状態認識部23は、演算処理部21,22の少なくとも何れか一方による、複数の対象物の姿勢状態の算出結果に基づいて、空間領域に含まれる面の法線方向の分布状態を算出し、算出した空間領域に含まれる面の法線方向の分布状態に基づいて、複数の対象物全体の配置状態が整列状態であるのか、ばら積み状態であるのかを認識する。
また、状態認識部23は、2次元画像演算処理部21による3次元位置姿勢認識結果の信頼度を算出し、該信頼度が所定値以上であれば整列状態であると判定し、該信頼度が所定値未満であれば、ばら積み状態であると判定することによって、複数の対象物全体の配置状態を認識してもよい。
また、状態認識部23は、演算処理部21,22のうち、所定の演算処理部21,22による姿勢状態の算出に関して、複数の対象物全体の所定の配置状態毎に事前に機械学習した学習結果を参照して、現在の複数の対象物全体の配置状態を認識してもよい。記憶部18には、複数の対象物全体の配置状態が整列状態であるのか、ばら積み状態であるのかを識別するための識別器としての機械学習の学習結果が保存されている。状態認識部23は、記憶部18に記憶されている識別器と、演算処理部21,22の少なくとも何れか一方による対象物の姿勢状態の算出結果と、を比較することで、現在の複数の対象物全体の配置状態を認識する。
なお、記憶部18には、複数の対象物全体の配置状態が整列状態である場合について事前に機械学習した学習結果と、複数の対象物全体の配置状態がばら積み状態である場合について事前に機械学習した学習結果と、がそれぞれ記憶されていてもよい。そして、状態認識部23は、記憶部18に記憶されている複数の対象物全体の所定の配置状態毎の機械学習の学習結果と、演算処理部21,22の少なくとも何れか一方による対象物の姿勢状態の算出結果と、を比較することで、現在の複数の対象物全体の配置状態を認識してもよい。
記憶部18には、複数の整列状態の画像データ(2D、3D)の候補と、複数のばら積み状態の画像データ(2D、3D)の候補とが記憶されていてもよい。状態認識部23は、演算処理部21,22によって算出された現在の複数の対象物全体の配置状態と、記憶部18に記憶されている複数の対象物全体の配置状態毎の複数の画像データとの一致度、または類似度に基づいて、現在の複数の対象物全体の配置状態を認識してもよい。
方法決定部24は、状態認識部23による認識結果に応じて、演算処理部21,22のそれぞれによる算出結果の利用方法を決定する。
図4は、複数の対象物全体の所定の空間領域における配置状態の例を示す図であり、図4の(a)は整列状態の例を示し、図4の(b)はばら積み状態の例を示している。図4の(a)に示すように、複数の対象物全体の配置状態が整列状態である場合、複数の対象物の配置領域が、画像では1つの平面のようになる。このため、3次元画像演算処理部22による算出結果を用いた場合、各対象物の形状、および姿勢を認識するのは困難である。一方で、2次元画像演算処理部21による算出結果を用いることにより、各対象物の境界、および各対象物の表面のテクスチャ、模様、および文字等の特徴を用いて、各対象物の形状、および対象物の向き、または傾きなどの姿勢を認識することができる。
また、図4の(b)に示すように、複数の対象物全体の配置状態がばら積み状態である場合、複数の対象物のそれぞれの境界、および形状が見えにくくなる。また、センサ5に対して傾いて配置されている対象物では、光照射部からの光の照明条件が変化する。さらに、表面が無地である対象物では、表面のテクスチャ、模様、および文字等を用いて対象物の向き、および傾きを2次元画像算出の結果からは、認識することができない。このため、2次元画像演算処理部21による算出結果を用いた場合、各対象物の形状、および姿勢を認識するのは困難である。一方で、3次元画像演算処理部22による算出結果を用いることにより、各対象物の形状、および姿勢を認識することができる。
方法決定部24は、状態認識部23による複数の対象物全体の配置状態の認識結果が、整列状態である場合には、2次元画像演算処理部21による算出結果を用いることを選択し、状態認識部23による複数の対象物全体の配置状態の認識結果が、ばら積み状態である場合には、3次元画像演算処理部22による算出結果を用いることを選択してもよい。
また、状態認識部23による認識結果が整列状態である場合でも、対象物をロボットアーム50でピッキングするためには、対象物の3次元空間での位置と姿勢に関する奥行情報を取得する必要がある。さらに、箱形状の対象物が複数段重ねて配置されていたり、大きさの違う箱形状の対象物が段違いで並べられていたりする場合には、対象物の重なり状態に関する情報を取得する必要がある。このため、方法決定部24は、2次元画像演算処理部21による算出結果を用いて対象物の境界、および対象物の向き等の状態を認識し、さらに、3次元画像演算処理部22による算出結果を用いて対象物の奥行、および重なり状態を認識するように、算出結果の利用方法を決定してもよい。
また、複数の対象物がばら積み状態である場合でも、2次元の特徴量が対象物の状態を認識するのに有効な場合もある。このため、方法決定部24は、状態認識部23による認識結果が、整列状態であるか、ばら積み状態であるかに応じて、2次元画像演算処理部21による算出結果と、3次元画像演算処理部22による算出結果とのそれぞれに対して重み付けを付与してもよい。方法決定部24は、対象物の配置状態について事前に機械学習した学習結果に基づいて、2次元画像演算処理部21による算出結果と、3次元画像演算処理部22による算出結果とのそれぞれに対して付与する重みを変化させることができてもよい。
また、方法決定部24は、状態認識部23によって算出された、現在の対象物の配置状態と、対象物の所定の配置状態毎に機械学習を行った学習結果との一致度、または類似度を用いて、2次元画像演算処理部21による算出結果を重視するか、3次元画像演算処理部22による算出結果を重視するかを決定してもよい。さらに、方法決定部24は、現在の対象物の配置状態と、配置状態毎の機械学習の学習結果との一致度、または類似度を用いて、2次元画像演算処理部21による算出結果と、3次元画像演算処理部22による算出結果とをそれぞれどのくらい重視するかを決定してもよい。
このように、方法決定部24は、各対象物の状態を認識するために、2次元画像演算処理部21による算出結果を利用するべきか、3次元画像演算処理部22による算出結果を利用するべきか、2次元画像演算処理部21による算出結果と、3次元画像演算処理部22による算出結果との間を利用するべきかを決定する。
対象物認識部25は、方法決定部24によって決定された算出結果の利用方法によって、複数の対象物のうち、特定の対象物の位置、形状、向き、傾き等の状態である姿勢状態を認識する。対象物認識部25は、ロボットアーム50によって次にピッキングする対象物の姿勢状態を認識し、認識結果を通信部16を介してPLC4に提供する。
対象物認識部25は、方法決定部24によって選択された演算処理部21,22による対象物の姿勢状態の算出結果の利用方法によって、特定の対象物の姿勢状態を認識する。対象物認識部25は、方法決定部24によって、2次元画像演算処理部21による算出結果を利用することが選択された場合には、2次元画像演算処理部21による姿勢状態の算出結果を用いて、特定の対象物の位置、形状、向き、傾き等の姿勢状態を認識する。また、対象物認識部25は、方法決定部24によって、3次元画像演算処理部22による算出結果を利用することが選択された場合には、3次元画像演算処理部22による姿勢状態の算出結果を用いて、特定の対象物の位置、形状、向き、傾き等の姿勢状態を認識する。
また、対象物認識部25は、方法決定部24によって重み付けを付与された、各演算処理部21,22による対象物の3次元形状の算出結果に基づいて、特定の対象物の姿勢状態を認識してもよい。
〔対象物認識装置10の処理の流れについて〕
図5は、対象物認識装置10の処理の流れを示すフローチャートである。
(ステップS1)
対象物認識装置10の制御部20は、取得部15を介してセンサ5の出力を取得する。センサ5の出力は、センサ5が備えるカメラによって撮影されたコンテナー3内の対象物2の2D画像を含んでいてもよい。また、センサ5の出力は、センサ5が備える複数のカメラによってステレオ撮影されたコンテナー3内の対象物2の3D画像を含んでいてもよい。
(ステップS2)
制御部20は、演算処理部21,22の機能により、コンテナー3における複数の対象物2の姿勢状態を算出する。
(ステップS3)
制御部20は、状態認識部23の機能により、演算処理部21,22の少なくとも何れかの算出結果を参照して、コンテナー3に配置されている複数の対象物2全体の配置状態を認識する。
(ステップS4)
制御部20は、方法決定部24の機能により、ステップ3にて状態認識部23が認識した複数の対象物2全体の配置状態が、整列状態であるか否かを判定する。方法決定部24は、複数の対象物2の配置状態が整列状態であると判定すると(ステップS4でYes)、2次元画像演算処理部21による姿勢状態の算出結果を利用することを選択して、ステップS5に進む。方法決定部24は、複数の対象物2の配置状態が整列状態ではないと判定すると(ステップS4でNo)、3次元画像演算処理部22による姿勢状態の算出結果を利用することを選択して、ステップS6に進む。
(ステップS5)
対象物認識部25は、2次元画像演算処理部21による姿勢状態の算出結果を利用して、コンテナー3における複数の対象物2のうち、特定の対象物の位置、形状、向き、傾き等の状態である姿勢状態を認識する。
(ステップS6)
対象物認識部25は、3次元画像演算処理部22による姿勢状態の算出結果を利用して、コンテナー3における複数の対象物2のうち、特定の対象物の位置、形状、向き、傾き等の状態である姿勢状態を認識する。
(ステップS7)
制御部20は、対象物認識部25の認識結果を通信部16を介してPLC4に送信する。PLC4は、対象物認識装置10から提供された対象物2の姿勢状態を参照して、コンテナー3における特定の対象物2を、ロボットアーム50により把持し、搬送する。
(ステップS8)
対象物認識装置10の制御部20は、センサ5からのセンサ出力を参照して、コンテナー3は空か(コンテナー3内に対象物2は無いか?)否かを判定する。制御部20は、コンテナー3に対象物2が残っている場合には(ステップS8でNo)、ステップS1〜ステップS8の処理を繰り返す。制御部20は、コンテナー3に対象物2が残っていない場合には(ステップS8でYes)、処理を終了する。
コンテナー3における複数の対象物2の配置状態を示す特徴量は、ロボットアーム50により特定の対象物をピッキングする都度変わっていく。そのため、制御部20は、ロボットアーム50によるピッキングを行う度に、コンテナー3おける複数の対象物2の配置状態を認識して、演算処理部21,22の算出結果のどちらを、どれくらい利用するかの配分を決定する。これにより、制御部20は、所定の空間領域における複数の対象物のうち、特定の対象物の位置、形状、向き、傾き等の状態である姿勢状態を、ロボットアーム50によるピッキングの度に正確に認識することができる。
〔実施形態2〕
本発明の実施形態2について、以下に説明する。なお、説明の便宜上、上記実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
図6は、実施形態2に係るマニピュレータ120、およびマニピュレータ120を備える移動ロボット100の要部構成を示すブロック図である。図7は、移動ロボット100の外観構成を示す斜視図である。
図6、および図7に示すように、マニピュレータ120は、ロボットアーム50と、対象物認識装置10と、ロボット制御部55(制御部)と、を備えている。
ロボットアーム50は、コンテナー3内に配置された対象物2に対する把持動作を行う。センサ5は、例えば、ロボットアーム50における、対象物2を把持する把持部の近傍に設けられている。
ロボット制御部55は、PLC4から提供される、対象物認識装置10による対象物認識結果に基づく制御情報に応じて、ロボットアーム50の動作を制御する。また、ロボット制御部55は、センサ5によって、コンテナー3内に配置された複数の対象物2全体の画像を撮影できるように、センサ5が取り付けられたロボットアーム50を動作させることができてもよい。
マニピュレータ120は、マニピュレータ120を搬送する無人搬送車150に搭載されていてもよい。移動ロボット100は、マニピュレータ120と、無人搬送車150とを備えて構成されている。
無人搬送車150は、駆動部156と、搬送車制御部155と、を備え、自律走行可能なロボットである。
駆動部156は、駆動輪、モータ、バッテリー、セーフティーセンサー等の、無人搬送車150の走行を実現するための各種ハードウェアを備えている。
搬送車制御部155は、PLC4からの制御情報に応じて、駆動部156の各部を駆動し、無人搬送車150を走行させる。
移動ロボット100は、対象物認識装置10の制御部20、ロボット制御部55、および搬送車制御部155が、それぞれPLC4と通信し、対象物2の認識、ロボットアーム50による対象物2の把持、および、無人搬送車150による対象物2の搬送を、自律して行うことができる。
このように、移動ロボット100は、対象物認識装置10の機能により、所定の空間領域に配置された複数の対象物2全体の配置状態を認識し、認識した配置状態に適した算出手法を用いて、ロボットアーム50で次にピッキンングする特定の対象物2の姿勢状態を認識することができる。そして、移動ロボット100は、対象物認識装置10による認識結果におじて、ロボットアーム50を制御し、対象物2をピッキングするとともに、無人搬送車150を制御して、対象物2を所定の場所に搬送することができる。また、移動ロボット100は、無人搬送車150を制御し、複数の対象物2が配置された所定の空間領域からロボットアーム50により対象物2をピッキングすることができるように、自律して移動することができる。
〔ソフトウェアによる実現例〕
対象物認識装置10の制御部20の制御ブロック(特に2次元画像演算処理部21、3次元画像演算処理部22、状態認識部23、方法決定部24、および対象物認識部25)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、対象物認識装置10は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、前記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、前記コンピュータにおいて、前記プロセッサが前記プログラムを前記記録媒体から読み取って実行することにより、本発明の目的が達成される。前記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。前記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、前記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、前記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して前記コンピュータに供給されてもよい。なお、本発明の一態様は、前記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
なお、演算処理部21,22による対象物の姿勢状態の算出、状態認識部23による対象物の配置状態の認識、方法決定部24による姿勢状態の算出に用いる演算処理部21,22の算出結果の利用方法、および対象物認識部25による対象物の姿勢状態の認識の具体構成は本実施形態を限定するものではなく、例えば、以下のような機械学習的手法の何れかまたはそれらの組み合わせを用いることができる。
・サポートベクターマシン(SVM: Support Vector Machine)
・クラスタリング(Clustering)
・帰納論理プログラミング(ILP: Inductive Logic Programming)
・遺伝的アルゴリズム(GP: Genetic Programming)
・ベイジアンネットワーク(BN: Baysian Network)
・ニューラルネットワーク(NN: Neural Network)
ニューラルネットワークを用いる場合、データをニューラルネットワークへのインプット用に予め加工して用いるとよい。このような加工には、データの1次元的配列化、または多次元的配列化に加え、例えば、データオーグメンテーション(Data Augmentation)等の手法を用いることができる。
また、ニューラルネットワークを用いる場合、畳み込み処理を含む畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)を用いてもよい。より具体的には、ニューラルネットワークに含まれる1又は複数の層(レイヤ)として、畳み込み演算を行う畳み込み層を設け、当該層に入力される入力データに対してフィルタ演算(積和演算)を行う構成としてもよい。またフィルタ演算を行う際には、パディング等の処理を併用したり、適宜設定されたストライド幅を採用したりしてもよい。
また、ニューラルネットワークとして、数十〜数千層に至る多層型又は超多層型のニューラルネットワークを用いてもよい。
また、演算処理部21,22による対象物の姿勢状態の算出、状態認識部23による対象物の配置状態の認識、方法決定部24による姿勢状態の算出に用いる演算処理部21,22の算出結果の利用方法、および対象物認識部25による対象物の姿勢状態の認識に用いられる機械学習は、教師あり学習であってもよいし、教師なし学習であってもよい。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
2 対象物
3 コンテナー(所定の空間領域)
5 センサ
10 対象物認識装置
15 取得部
16 通信部
18 記憶部
20 制御部
21 2次元画像演算処理部(演算処理部)
22 3次元画像演算処理部(演算処理部)
23 状態認識部
24 方法決定部
25 対象物認識部
50 ロボットアーム
55 ロボット制御部(制御部)
100 移動ロボット
120 マニピュレータ
150 無人搬送車

Claims (9)

  1. 複数の対象物が配置されることが可能な所定の空間領域における、前記対象物の姿勢状態を算出する複数の演算処理部であって、各演算処理部は互いに異なる手法によって前記対象物の姿勢状態を算出する複数の演算処理部と、
    前記空間領域に配置されている複数の対象物全体の配置状態を認識する状態認識部と、
    前記状態認識部による認識結果に応じて、前記複数の演算処理部による算出結果の利用方法を決定する方法決定部と、
    前記方法決定部によって決定された算出結果の利用方法によって、前記対象物の姿勢状態を認識する対象物認識部とを備える対象物認識装置。
  2. 前記複数の演算処理部は、
    前記空間領域を撮像した2次元画像のエッジ検出を行い、該エッジ検出結果と、前記対象物の形状、およびテスクチャの少なくとも何れか一方とのパターンマッチングを行うことによって前記対象物の姿勢状態を算出する2次元画像演算処理部と、
    前記空間領域に対して所定の3次元形状算出手法によって前記姿勢状態を算出する3次元画像演算処理部と、
    を含んでいる請求項1記載の対象物認識装置。
  3. 前記方法決定部は、前記状態認識部による認識結果に応じて、前記複数の演算処理部の中から特定の演算処理部を選択し、
    前記対象物認識部は、前記方法決定部によって選択された演算処理部による算出結果に基づいて、前記対象物の姿勢状態を認識する請求項1または2に記載の対象物認識装置。
  4. 前記方法決定部は、前記状態認識部による認識結果に応じて、前記複数の演算処理部による算出結果に対して重み付けを付与し、
    前記対象物認識部は、前記方法決定部によって重み付けを付与された、各演算処理部による算出結果に基づいて、前記対象物の姿勢状態を認識する請求項1または2に記載の対象物認識装置。
  5. 前記状態認識部は、前記複数の演算処理部のうち、所定の演算処理部による算出結果に基づいて算出された、前記空間領域に含まれる面の法線方向の分布状態に基づいて、前記複数の対象物全体の配置状態を認識する請求項1〜4のいずれか一項に記載の対象物認識装置。
  6. 前記状態認識部は、前記空間領域を撮像した2次元画像のエッジ検出を行い、該エッジ検出結果と、前記対象物の形状、およびテクスチャの少なくとも何れか一方とのパターンマッチングを行うことによって前記対象物の姿勢状態を算出する2次元画像演算処理部による算出結果の信頼度を算出し、該信頼度に基づいて、前記複数の対象物全体の配置状態を認識する請求項1〜4のいずれか一項に記載の対象物認識装置。
  7. 前記状態認識部は、前記複数の演算処理部のうち、所定の演算処理部による算出結果に関して、前記複数の対象物全体の所定の配置状態毎に機械学習を行った学習結果を参照して、前記複数の対象物全体の配置状態を認識する請求項1〜4のいずれか一項に記載の対象物認識装置。
  8. 対象物に対する把持動作を行うロボットアームと、
    請求項1〜7のいずれか一項に記載の対象物認識装置と、
    前記対象物認識装置による対象物認識結果に基づいて前記ロボットアームの動作を制御する制御部と、
    を備えるマニピュレータ。
  9. 請求項8に記載のマニピュレータと
    前記マニピュレータを搬送する無人搬送車とを備える移動ロボット。
JP2018168033A 2018-09-07 2018-09-07 対象物認識装置、マニピュレータ、および移動ロボット Active JP7031540B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018168033A JP7031540B2 (ja) 2018-09-07 2018-09-07 対象物認識装置、マニピュレータ、および移動ロボット
US17/267,039 US11964399B2 (en) 2018-09-07 2019-03-07 Target object recognition device, manipulator, and mobile robot
EP19856640.8A EP3848898B1 (en) 2018-09-07 2019-03-07 Target object recognition device, manipulator, and mobile robot
PCT/JP2019/009027 WO2020049766A1 (ja) 2018-09-07 2019-03-07 対象物認識装置、マニピュレータ、および移動ロボット
CN201980051605.4A CN112534476A (zh) 2018-09-07 2019-03-07 对象物识别装置、操作器以及移动机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018168033A JP7031540B2 (ja) 2018-09-07 2018-09-07 対象物認識装置、マニピュレータ、および移動ロボット

Publications (2)

Publication Number Publication Date
JP2020042421A true JP2020042421A (ja) 2020-03-19
JP7031540B2 JP7031540B2 (ja) 2022-03-08

Family

ID=69721567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018168033A Active JP7031540B2 (ja) 2018-09-07 2018-09-07 対象物認識装置、マニピュレータ、および移動ロボット

Country Status (4)

Country Link
EP (1) EP3848898B1 (ja)
JP (1) JP7031540B2 (ja)
CN (1) CN112534476A (ja)
WO (1) WO2020049766A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6909937B1 (ja) * 2021-01-15 2021-07-28 Dmg森精機株式会社 無人搬送システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006242943A (ja) * 2005-02-04 2006-09-14 Canon Inc 位置姿勢計測方法及び装置
JP2015203680A (ja) * 2014-04-16 2015-11-16 キヤノン株式会社 情報処理装置、方法、プログラム
JP2015212644A (ja) * 2014-05-01 2015-11-26 キヤノン株式会社 情報処理装置およびその方法、計測装置、並びに、作業装置
JP2016170050A (ja) * 2015-03-12 2016-09-23 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5429614B1 (ja) 1970-06-15 1979-09-25
JP3525896B2 (ja) * 1999-03-19 2004-05-10 松下電工株式会社 3次元物体認識方法および同方法を使用したビンピッキングシステム
JP4992289B2 (ja) * 2006-05-11 2012-08-08 コニカミノルタホールディングス株式会社 認証システム、認証方法、及びプログラム
KR100951890B1 (ko) * 2008-01-25 2010-04-12 성균관대학교산학협력단 상황 모니터링을 적용한 실시간 물체 인식 및 자세 추정 방법
JP4565023B2 (ja) * 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
KR101225644B1 (ko) * 2010-07-16 2013-01-24 성균관대학교산학협력단 로봇의 물체 인식 및 자세 추정 방법
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP5786896B2 (ja) * 2013-06-07 2015-09-30 株式会社安川電機 ワーク検出装置、ロボットシステム、被加工物の製造方法及びワーク検出方法
CN104134188A (zh) * 2014-07-29 2014-11-05 湖南大学 一种基于二维和三维摄像机融合的三维视觉信息获取方法
US9486921B1 (en) * 2015-03-26 2016-11-08 Google Inc. Methods and systems for distributing remote assistance to facilitate robotic object manipulation
DE102016009030B4 (de) * 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
JP6117901B1 (ja) * 2015-11-30 2017-04-19 ファナック株式会社 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
JP2018034243A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット、ロボット制御装置、及びロボットシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006242943A (ja) * 2005-02-04 2006-09-14 Canon Inc 位置姿勢計測方法及び装置
JP2015203680A (ja) * 2014-04-16 2015-11-16 キヤノン株式会社 情報処理装置、方法、プログラム
JP2015212644A (ja) * 2014-05-01 2015-11-26 キヤノン株式会社 情報処理装置およびその方法、計測装置、並びに、作業装置
JP2016170050A (ja) * 2015-03-12 2016-09-23 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6909937B1 (ja) * 2021-01-15 2021-07-28 Dmg森精機株式会社 無人搬送システム
JP2022023766A (ja) * 2021-01-15 2022-02-08 Dmg森精機株式会社 無人搬送システム

Also Published As

Publication number Publication date
JP7031540B2 (ja) 2022-03-08
US20210299878A1 (en) 2021-09-30
EP3848898A1 (en) 2021-07-14
EP3848898A4 (en) 2022-06-15
EP3848898B1 (en) 2024-04-10
CN112534476A (zh) 2021-03-19
WO2020049766A1 (ja) 2020-03-12

Similar Documents

Publication Publication Date Title
US11383380B2 (en) Object pickup strategies for a robotic device
US10933527B2 (en) Robotic system with enhanced scanning mechanism
CN111776759B (zh) 具有自动化包裹登记机构的机器人系统及其操作方法
US10870204B2 (en) Robotic system control method and controller
US9630316B2 (en) Real-time determination of object metrics for trajectory planning
US9424470B1 (en) Systems and methods for scale invariant 3D object detection leveraging processor architecture
CN106575438B (zh) 立体和结构光处理的组合
US20220016764A1 (en) Object grasping system
CN115703232A (zh) 具有基于图像的尺寸确定机制的机器人系统及其操作方法
WO2020049766A1 (ja) 対象物認識装置、マニピュレータ、および移動ロボット
US20230027984A1 (en) Robotic system with depth-based processing mechanism and methods for operating the same
US11964399B2 (en) Target object recognition device, manipulator, and mobile robot
CN111470244B (zh) 机器人系统的控制方法以及控制装置
JP7218881B1 (ja) 物体更新機構を備えたロボットシステム及びロボットシステムを操作するための方法
WO2023073780A1 (ja) 学習データの生成装置および学習データの生成方法、並びに学習データを使用する機械学習装置および機械学習方法
JP7398763B2 (ja) 重なり処理機構を備えたロボットシステム及びその操作方法
US20230182315A1 (en) Systems and methods for object detection and pick order determination
CN115609569A (zh) 具有基于图像的尺寸确定机制的机器人系统及其操作方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220207

R150 Certificate of patent or registration of utility model

Ref document number: 7031540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150