JP2019150911A - ロボット作業システム、及びロボット作業システムの制御方法 - Google Patents

ロボット作業システム、及びロボット作業システムの制御方法 Download PDF

Info

Publication number
JP2019150911A
JP2019150911A JP2018037340A JP2018037340A JP2019150911A JP 2019150911 A JP2019150911 A JP 2019150911A JP 2018037340 A JP2018037340 A JP 2018037340A JP 2018037340 A JP2018037340 A JP 2018037340A JP 2019150911 A JP2019150911 A JP 2019150911A
Authority
JP
Japan
Prior art keywords
work target
robot
work
working system
control parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018037340A
Other languages
English (en)
Other versions
JP2019150911A5 (ja
JP6873941B2 (ja
Inventor
亮 坂井
Akira Sakai
亮 坂井
宣隆 木村
Nobutaka Kimura
宣隆 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018037340A priority Critical patent/JP6873941B2/ja
Priority to CN201910141331.XA priority patent/CN110216649B/zh
Priority to US16/289,742 priority patent/US11065762B2/en
Priority to EP19160316.6A priority patent/EP3534230B1/en
Publication of JP2019150911A publication Critical patent/JP2019150911A/ja
Publication of JP2019150911A5 publication Critical patent/JP2019150911A5/ja
Application granted granted Critical
Publication of JP6873941B2 publication Critical patent/JP6873941B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39102Manipulator cooperating with conveyor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40007Optimize sequence of pick and place operations upon arrival of workpiece on conveyor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40014Gripping workpiece to place it in another place
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40532Ann for vision processing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40554Object recognition to track object on conveyor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Abstract

【課題】搬送機を用いてロボットにより作業を行う際のパフォーマンスを向上させる。【解決手段】情報処理装置が、搬送機により搬送される複数の作業対象候補を含む領域を撮影した撮影画像に基づき、作業対象候補の位置と、作業対象候補を作業対象としたときに当該作業対象に対する作業のパフォーマンスを最大化する搬送機の制御パラメータである搬送機最適制御パラメータと、の組合せを複数求め、上記組合せに基づき、上記作業対象候補の中から作業対象を決定し、決定した作業対象の搬送機最適制御パラメータに基づき搬送機を制御し、決定した作業対象の位置と当該作業対象の搬送機最適制御パラメータとに基づき、ロボットの制御計画を生成し、生成した制御計画に従ってロボットを制御する。【選択図】図4

Description

本発明は、ロボット作業システム、及びロボット作業システムの制御方法に関する。
特許文献1には、「バラ積みされた状態を含む、乱雑に置かれた複数のワークからハンド部によってワークを取り出すロボットの動作を学習する機械学習装置を開示する。当該機械学習装置は、ワーク毎の三次元マップを取得する三次元計測器の出力データを含むロボットの状態量を観測する状態量観測部と、ハンド部によってワークを取り出すロボットの取り出し動作の結果を取得する動作結果取得部と、状態量観測部からの出力および動作結果取得部からの出力を受け取り、ワークの取り出し動作をロボットに指令する指令データを含む操作量を、ロボットの状態量および取り出し動作の結果に関連付けて学習する学習部と、を備える。」と記載されている。
特開2017−30135号公報 H. Deng, Z. Xia and J. Xiong, "Robotic Manipulation Planning Using Dynamic RRT," Proc. of The 2016 IEEE Int. Conf. on Real-time Computing and Robotics, pp. 500-504, 2016.
自動車等の機械部品の組立て、電気部品の組立て、商品(食品、薬品、化粧品等)の分類や仕分け等、ロボットを用いて作業を自動化したシステムが様々な用途に幅広く活用されている。こうしたシステムにおいては、部品や商品等の物品をロボットによる作業が可能な場所まで搬送するために搬送ロボットやベルトコンベア等の搬送機が用いられることが多い。
しかし従来、こうしたシステムにおいては、ロボットによる作業が行われる際、ロボットが作業を行うために搬送機を一旦静止させる必要があり、その分、作業に時間を要してこれがシステム全体のパフォーマンスを低下させる要因となっている。
ここで上記の特許文献1では、機械学習により乱雑に置かれたワークを取り出すときのロボットの最適な動作を人間の介在無しに学習することが記載されている。しかしシステム全体のパフォーマンスを向上するために搬送機の動作を考慮することについては何も記載されていない。
本発明は、こうした観点に鑑みてなされたもので、搬送機を用いてロボットにより作業を行う際のパフォーマンスを向上させることが可能な、ロボット作業システム、及びロボット作業システムの制御方法を提供することを目的とする。
上記目的を達成するための本発明のうちの一つは、搬送機により搬送される作業対象に対してロボットが作業を行うシステムであって、プロセッサ及び記憶装置を有する情報処理装置を備え、前記プロセッサが記憶装置に記憶されているプログラムを読み出して実行することにより実現される、搬送機により搬送される複数の作業対象候補を含む領域を撮影した撮影画像に基づき、前記作業対象候補の位置と、前記作業対象候補を作業対象とし
たときに当該作業対象に対する作業のパフォーマンスを最大化する前記搬送機の制御パラメータである搬送機最適制御パラメータと、の組合せを複数求める認識処理部と、前記組合せに基づき、前記作業対象候補の中から作業対象を決定する作業対象決定部と、決定した前記作業対象の前記搬送機最適制御パラメータに基づき前記搬送機を制御する搬送機制御部と、決定した前記作業対象の位置と当該作業対象の前記搬送機最適制御パラメータとに基づき、前記ロボットの制御計画を生成するロボット制御計画生成部と、を備える。
その他、本願が開示する課題、及びその解決方法は、発明を実施するための形態の欄、及び図面により明らかにされる。
本発明によれば、搬送機を用いてロボットにより作業を行う際のパフォーマンスを向上させることができる。
ロボット作業システム1の第1例の概略的な構成を示す図である。 ロボット作業システム1の第2例の概略的な構成を示す図である。 情報処理装置のハードウェア構成の一例である。 情報処理装置が備える主な機能及びデータを示す図である。 ロボット制御処理を説明するフローチャートである。 認識処理の第1の実現方法に用いる畳み込みニューラルネットワークを説明する図である。 撮影画像を格子に分割した場合における出力層の具体例を示す図である。 第1の実現方法における学習データの生成方法を説明するフローチャートである。 第1の実現方法における学習データの生成方法を説明する図である。 学習データの生成を情報処理装置がシミュレーションにより自動的に行う場合を説明する図である。 第1の実現方法における学習モデル生成処理を説明するフローチャートである。 第1の実現方法における総合差分値算出処理を説明するフローチャートである。 認識処理の第2の実現方法に用いる畳み込みニューラルネットワークを説明する図である。 撮影画像を格子に分割した場合における出力層の具体例を示す図である。 第2の実現方法における学習データの生成方法を説明するフローチャートである。 第2の実現方法における個別学習モデル生成処理を説明するフローチャートである。 第2の実現方法における総合差分値算出処理を説明するフローチャートである。
以下、図面を参照しつつ実施形態について説明する。尚、以下の説明において、同一の又は類似する構成について共通の符号を付して重複した説明を省略することがある。
図1に実施形態として示すロボット作業システム1の第1例を示している。同図に示すように、ロボット作業システム1は、情報処理装置10、マニピュレータ20、搬送機30、及び撮影装置40を含む。情報処理装置10は、マニピュレータ20、搬送機30、及び撮影装置40と通信可能に接続し、これらの装置との間でのデータの送受信やこれら
の装置の制御を行う。
第1例のロボット作業システム1は、搬送機30に載せられている箱2に収容されている複数の物品5を箱2の上方開口から1つずつ取り出して移動先6(作業台や他の箱、搬送コンベア等)に載置する作業を行う、いわゆるピッキングシステムである。ロボット作業システム1は、上記の作業を搬送機30が搬送中の状態(動いている状態)で行うこともできる。
ロボット作業システム1は、箱2に収容されている複数の物品5(作業対象候補)の中からピッキング対象(作業対象)とする物品5を一つ決定し、決定した物品5に対して作業(ピッキング)を行う。作業は当該作業を効率よく行うために物品5の表面に設定された把持点位置をマニピュレータ20が把持することにより行われる。
マニピュレータ20は、例えば、ロボットアームや産業用ロボット等のロボットである。尚、図1にはマニピュレータ20を一つしか描いていないが、ロボット作業システム1は、情報処理装置10と通信可能に接続された複数のマニピュレータ20を含んでいてもよい。
マニピュレータ20は、例えば、多軸多関節型で構成されたアーム21及びハンド22を有する。マニピュレータ20の各関節部23の駆動軸は、情報処理装置10による制御が可能な駆動機構(サーボモータ等)によって制御される。マニピュレータ20は、例えば、アーム21の先端とハンド22との間に6軸の力覚センサを有する。力覚センサは、ハンド22にかかる過負荷を検出する。マニピュレータ20が、例えば、バラ積みされた物品5を箱2から取り出す場合、ハンド22又はハンド22に把持された物品5が箱2の壁面や他の物品5と干渉(衝突又は接触)することにより生じる過負荷を検出すると、情報処理装置10は検出された過負荷を逃がすようにマニピュレータ20の駆動軸を制御する。
力覚センサはハンド22に作用する力を検出する。ハンド22が物品5を把持した場合、ハンド22に物品5の重さが作用する。例えば情報処理装置10は、物品5のピッキングを実行した後、力覚センサの検出値が所定の閾値を超えていれば、ハンド22が現在、物品5を把持していると判定する。ハンド22が現在、物品5を把持しているか否かの判定を、情報処理装置10が触覚センサ等の他の種類のセンサを用いて行うようにしてもよい。ハンド22が現在、物品5を把持しているか否かの判定を、カメラにより撮影された画像に基づき情報処理装置10が判定するようにしてもよい。またハンド22が吸着式ハンドである場合、圧力計の計測結果から情報処理装置10が物品5を把持しているか否かを判定するようにしてもよい。尚、ハンド22は、物品5を把持可能であれば様々な形態のものを採用することができる。例えば、ハンド22は、複数の指を開閉することによって物品5を把持するタイプのものでもよいし、物品5を吸引することにより把持するタイプのものでもよい。
搬送機30は、例えば、自律搬送ロボット、AI(Artificial Intelligence) 搬送ロボット、自律走行ロボット等のいわゆる搬送ロボットである。搬送機30は、例えば、撮影装置40による撮影が可能な範囲(以下、撮影可能範囲と称する。)や、マニピュレータ20による作業が可能な範囲(以下、作業可能範囲と称する。)まで箱2(物品5)を搬送する。搬送機30は、自律的な制御によって能動的に、もしくは情報処理装置10から送られてくる制御信号による制御により受動的に動作することができる。上記制御は、例えば、搬送機30の移動速度、搬送機30の移動方向、搬送機30の移動ルート等の制御である。
情報処理装置10は、搬送機30の現在位置や移動速度、移動方向等の情報を、測距センサ(レーザ式測距センサ、超音波式測距センサ、ステレオカメラ等)、測位センサ(無線LAN、GPS(Global Positioning System)、無線信号の位相差を利用した位置検
知センサ、加速度センサ、ジャイロセンサ、磁気センサ、光センサ、ミリ波レーダ等を利用して、搬送機30自身により直接的に、もしくは情報処理装置10により間接的に、取得することができる。
撮影装置40は、例えば、光学式カメラ、距離画像を取得可能な装置(タイムオブフライト(TOF: Time Of Flight)カメラ、ステレオカメラ等)等を用いて構成される。撮影
装置40は、箱2及び箱2に収容されている複数の物品5を箱2の上方開口側から撮影した二次元もしくは深さ(奥行)の情報を含む三次元の画像(以下、撮影画像と称する。)を取得する。撮影装置40は、搬送機30が撮影可能範囲に存在するときに上記の撮影画像を取得し、取得した撮影画像を情報処理装置10に送信する。
情報処理装置10は、撮影画像について後述の認識処理を行い、認識処理の結果に基づき搬送機30やマニピュレータ20を制御する。認識処理の詳細については後述する。
図2はロボット作業システム1の第2例として示すネジ締め作業システムである。同図に示すように、ロボット作業システム1は、情報処理装置10、マニピュレータ20、搬送機30、及び撮影装置40を含む。第1例と同様、情報処理装置10は、マニピュレータ20、搬送機30、及び撮影装置40と通信可能に接続し、これらの装置との間でのデータの送受信やこれらの装置の制御を行う。
第2例の搬送機30はベルトコンベアであり、物品5を作業可能範囲まで搬送する。搬送機30は、情報処理装置10から送られてくる制御信号によって受動的に制御(搬送速度等の制御)することができる。尚、第2例の搬送機30についても第1例と同様に能動的な制御が可能な構成としてもよい。
第2例のロボット作業システム1は、搬送機30に載せられて搬送されてくる物品5に設けられている複数のネジ孔(作業対象候補)の中から作業対象とするネジ孔を決定し、決定した作業対象に対してネジ締め作業を行う。ロボット作業システム1は、上記の作業を搬送機30が物品5を搬送中の状態(動いている状態)で行うことができる。
第2例のマニピュレータ20の基本的な構成は第1例と同様であるが、第2例のマニピュレータ20の先端にはネジ回し工具25が設けられている。第2例の撮影装置40の構成は第1例と同様である。また第2例の情報処理装置10の構成も第1例と基本的に同じであり、情報処理装置10は撮影画像について後述する認識処理を行い、認識処理の結果に基づきマニピュレータ20を制御する。
同図に示すように、第2例のロボット作業システム1は、情報処理装置10によって個別に制御される複数(同図では2つ)のマニピュレータ20を含む。情報処理装置10は、例えば、撮影装置40によって取得された一つの撮影画像に基づき認識処理を行い、情報処理装置10は、上記認識処理の結果に基づき、マニピュレータ20の夫々が異なる作業対象(ネジ孔)に対して作業を行うように各マニピュレータ20を制御することができる。
尚、ロボット作業システム1は、例えば、搬送されてくる物品5に対して半田付けや組付け等の他の作業を行うシステムであってもよい。以下、とくに断らない限り、第1例のロボット作業システム1を例として説明する。
図3は情報処理装置10のハードウェア構成の一例である。同図に示すように、情報処理装置10は、プロセッサ110、主記憶装置120、補助記憶装置130、入力装置140、出力装置150、及び通信装置160を備える。これらは図示しないバス等の通信手段を介して互いに通信可能に接続されている。尚、情報処理装置10は、独立したハードウェアであってもよいし、例えば、マニピュレータ20に実装されているマイクロコンピュータのようにロボット作業システム1の他の構成が備えるハードウェアを利用するものであってもよい。また情報処理装置10は、例えば、クラウドシステムにより提供されるクラウドサーバのような仮想的な情報処理資源を用いて実現されるものであってもよい。
プロセッサ110は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)、AIチップ等を用いて構成されている。プロセッサ110が、主記憶
装置120に格納されているプログラムを読み出して実行することにより、情報処理装置10の様々な機能が実現される。主記憶装置120は、プログラムやデータを記憶する装置であり、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ(NVRAM(Non Volatile RAM))等である。補助記憶装置130は、例えば、ハードディスクドライブ、SSD(Solid State Drive)、光学式記憶装置(CD
(Compact Disc)、DVD(Digital Versatile Disc)等)、ストレージシステム、ICカード、SDカードや光学式記録媒体等の記録媒体の読取/書込装置、クラウドサーバの記憶領域等である。補助記憶装置130には、記録媒体の読取装置や通信装置160を介してプログラムやデータを読み込むことができる。補助記憶装置130に記憶されているプログラムやデータは主記憶装置120に随時読み込まれる。
入力装置140は、外部からの入力を受け付けるインタフェースであり、例えば、キーボード、マウス、タッチパネル、カードリーダ、音声入力装置等である。
出力装置150は、処理経過や処理結果等の各種情報(例えば、後述する、撮影画像451、認識結果452、搬送機制御パラメータ453、マニピュレータ制御計画454、学習データ461、学習モデル462等)を出力するインタフェースであり、例えば、上記の各種情報を可視化する表示装置(液晶モニタ、LCD(Liquid Crystal Display)、グラフィックカード等)、音声出力装置(スピーカ等)、印字装置等である。尚、例えば、情報処理装置10が通信装置160を介して他の装置との間で情報の入力や出力を行う構成としてもよい。
通信装置160は、マニピュレータ20、搬送機30、及び撮影装置40との間の通信を実現する装置である。通信装置160は、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット等の通信手段を介した他の装置との間の通信を実現
する有線方式又は無線方式の通信インタフェースであり、例えば、NIC(Network Interface Card)、無線通信モジュール、USB(Universal Serial Interface)モジュール、シリアル通信モジュール等である。
図4に情報処理装置10が備える主な機能及びデータを示す。同図に示すように、情報処理装置10は、撮影処理部411、認識処理部412、作業対象決定部413、搬送機制御部414、マニピュレータ制御計画生成部415(ロボット制御計画生成部)、マニピュレータ制御部416(ロボット制御部)、学習データ生成部421、及び学習モデル生成部422の各機能を備える。これらの機能は、情報処理装置10のプロセッサ110が、主記憶装置120に格納されているプログラムを読み出して実行することにより実現される。情報処理装置10は、オペレーティングシステム、ファイルシステム、DBMS(Data Base Management System)等を備えていてもよい。
同図に示すように、情報処理装置10は、撮影画像451、認識結果452、搬送機制御パラメータ453、マニピュレータ制御計画454、学習データ461、及び学習モデル462を記憶する。情報処理装置10は、これらのデータを、例えば、ファイル、DBMSによって管理されるデータベースのテーブル等として管理する。
上記機能のうち、撮影処理部411は、撮影対象が撮影可能範囲に入ると後述する撮影タイミングに合わせて撮影対象を撮影し、撮影した画像を撮影画像451として記憶する。
認識処理部412は、撮影画像について後述する認識処理を行い認識結果452を生成して記憶する。生成された認識結果452は、作業対象の決定、搬送機30やマニピュレータ20の制御等に用いられる。認識処理は、学習データ生成部421による機械学習によって生成された学習モデル462を用いて実現される。作業対象決定部413は、認識結果452に基づき、作業対象候補の中から作業対象を決定する。
搬送機制御部414は、作業対象決定部413が決定した作業対象についての後述の搬送機最適制御パラメータに基づき後述の搬送機制御パラメータ453を生成し、生成した搬送機制御パラメータ453を搬送機30に送信することにより搬送機30を制御する。
マニピュレータ制御計画生成部415は、作業対象決定部413が決定した作業対象の位置(撮影画像における作業対象候補の位置)と後述の搬送機制御パラメータとに基づき、マニピュレータ20の動作や制御タイミングを規定した情報を含むマニピュレータ制御計画454を生成する。マニピュレータ制御部416は、作業対象が後述する制御準備開始距離内に入ったことを検知すると、マニピュレータ制御計画454に従ってマニピュレータ20を制御し、決定した作業対象に対して作業を行う。
学習データ生成部421は、学習モデル462の機械学習に用いる学習データ461を生成する。学習モデル生成部422は、例えば相当数の学習データ461を学習することにより学習モデル462を生成する。学習データ生成部421及び学習モデル生成部422の夫々が行う処理の詳細については後述する。
撮影画像451は、撮影装置40によって撮影(取得)された画像であり、例えば、ピクセル(pixel)形式の画像である。
認識結果452は、例えば、撮影画像451における(撮影画像451に設定した二次元又は三次元座標系における)作業対象候補の位置と、作業対象候補の夫々の後述する搬送機最適制御パラメータと、の組合せを含む。また認識結果452は、例えば、撮影画像451における作業対象候補の位置と、作業対象候補の夫々の後述する搬送機最適制御パラメータと後述するパフォーマンスの組合せと、を含む。また認識結果452は、例えば、作業対象候補の位置と、作業対象候補の夫々の後述する搬送機最適制御パラメータと後述するマニピュレータ20の最適制御パラメータの組合せと、を含む。また認識結果452は、例えば、作業対象候補の位置と、作業対象候補の夫々の後述する搬送機最適制御パラメータと後述するパフォーマンスと後述するマニピュレータ20の最適制御パラメータとの組合せと、を含む。
学習データ461は、学習モデル462の機械学習に用いる多数のデータ(教師データ、訓練データ)を含む。学習データ461は、例えば、撮影画像と、作業対象候補の位置と作業対象候補の夫々の後述する搬送機最適制御パラメータと、の組合せを含む。また学習データ461は、例えば、撮影画像と、作業対象候補の位置と作業対象候補の夫々の後
述する搬送機最適制御パラメータと後述するパフォーマンスの組合せと、を含む。また学習データ461は、例えば、撮影画像と、作業対象候補の位置と作業対象候補の夫々の後述する搬送機最適制御パラメータと後述するマニピュレータ20の最適制御パラメータの組合せと、を含む。また学習データ461は、例えば、撮影画像と、作業対象候補の位置と、作業対象候補の夫々の後述する搬送機最適制御パラメータと後述するパフォーマンスと後述するマニピュレータ20の最適制御パラメータとの組合せと、を含む。
学習モデル462は、後述する認識処理を実現するための畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)の後述する中間層612を構成するパラメータ群を含む。上記パラメータは、例えば、畳み込みニューラルネットワークの各パーセプトロンに与えられる重み(バイアスを含む。)である。
図5は、作業対象に対して作業を行う際に情報処理装置10が行う処理(以下、ロボット制御処理と称する。)を説明するフローチャートである。以下、同図とともにロボット制御処理について説明する。尚、符号の前に付している「S」の文字は処理ステップを意味する。
同図に示すように、情報処理装置10の撮影処理部411は、撮影対象が撮影装置40から所定距離(以下、撮影準備開始距離と称する。)内に入った否かをリアルタイムに監視している(S511:NO)。撮影処理部411が撮影装置40から撮影準備開始距離内に入ったことを検知すると(S511:YES)、処理はS512に進む。
尚、撮影処理部411は、例えば、搬送機30又は撮影対象の現在位置を示す情報、撮影装置40の周辺に設けられた物体検知センサや測距センサ等から取得される情報、搬送機30や撮影対象を撮影した映像等に基づき、撮影対象が撮影装置40から撮影準備開始距離内に入ったことを検知する。
S512では、撮影処理部411は、撮影対象の撮影タイミングを求める。即ち、撮影対象は搬送機30とともに動いているため、撮影処理部411は、例えば、撮影対象が撮影装置40から撮影準備開始距離内に入ってから撮影装置40の撮影位置に至るまでの時間を求め、求めた時間に基づき撮影タイミングを求める。
尚、撮影対象が撮影装置40から撮影準備開始距離内に入ってから撮影装置40の撮影位置に至るまでの時間は、例えば、搬送機30の現在位置、移動速度、移動方向、移動ルート等の情報に基づき求める。ロボット作業システム1が第1例である場合、撮影対象は箱2と箱2に収容されている物品5であり、第2例である場合、撮影対象は搬送機30に載せられている物品5である。
続いて、撮影処理部411は、撮影対象が撮影可能範囲に入るとS512で求めた撮影タイミングに合わせて撮影対象を撮影し、撮影画像451として記憶する(S513)。
続いて、認識処理部412が、S513で取得した撮影画像451を学習モデル462(中間層612)に入力することにより、撮影画像451における作業対象候補の(撮影画像451の座標系における)位置と、上記作業対象候補の夫々についての搬送機30の最適な制御パラメータ(以下、搬送機最適制御パラメータと称する。)と、の組合せを求める処理(以下、認識処理と称する。)を実行し、求めた結果を認識結果452として記憶する処理(以下、認識処理S514と称する。)を行う。このように認識処理S514により、学習モデル462を用いて撮影画像451における作業対象候補の位置と、上記作業対象候補の夫々についての搬送機最適制御パラメータと、の組合せを求めることで、作業の効率(以下、パフォーマンスと称する。)を最大化するための搬送機30の制御パ
ラメータを精度よく求めることができる。
上記の搬送機最適制御パラメータは、例えば、搬送機30の物品5の搬送速度や、搬送機30の移動ルート等である。また上記のパフォーマンスは、ロボット作業システム1が行う作業の効率(搬送機30とマニピュレータ20が協調することにより得られる効率)を評価する指標であり、例えば、搬送機30の搬送速度、作業の成功率(以下、作業成功率と称する。)、上記搬送速度と上記作業成功率とを乗算した値等である。尚、上記の作業成功率は、例えば、実際のシステムを用いた実験や情報処理装置によるシミュレーション等によって取得することができる。作業成功率は、搬送機30の物品5の搬送速度を増減することで変化し、搬送機30の移動ルートをマニピュレータ20に近づけたり、遠ざけたりすることでも、物品5とマニピュレータ20との位置関係が変わり、変化する。
尚、認識処理S514は、例えば、撮影画像451における作業対象候補の位置と、作業対象候補の夫々の後述する搬送機最適制御パラメータと後述するパフォーマンスの組合せと、の組合せを求める処理であってもよい。また認識処理S514は、例えば、作業対象候補の位置と作業対象候補の夫々の搬送機最適制御パラメータとマニピュレータ20の最適制御パラメータ(以下、マニピュレータ最適制御パラメータと称する。)の組合せを求める処理であってもよい。ここで、マニピュレータ最適制御パラメータとは、例えば、マニピュレータ20が作業対象候補を掴む瞬間の、搬送機30の移動方向の位置である。このマニピュレータ最適パラメータを変えることでパフォーマンスが変化する。更に認識処理S514は、例えば、撮影画像451における作業対象候補の位置と、作業対象候補の夫々の搬送機最適制御パラメータと後述するパフォーマンスとマニピュレータ最適制御パラメータ(ロボット最適制御パラメータ)との組合せを求める処理であってもよい。認識処理S514をこのような処理とすることで、作業全体のパフォーマンスを最大化するための搬送機30の制御パラメータやマニピュレータ20の制御パラメータとして適切なものを求めることができる。
続いて、作業対象決定部413が、認識結果452に基づき、作業対象候補の中から作業対象を決定する(S515)。作業対象決定部413は、例えば、作業のパフォーマンスが最大となる作業対象候補を作業対象として決定する。このように、作業対象決定部413は、パフォーマンス(搬送機30とマニピュレータ20が協調することにより得られる効率)が最大となる作業対象候補を作業対象として決定するので、ロボット作業システム1の全体的な視点から作業の効率を最適化することができる。
続いて、搬送機制御部414が、決定した作業対象の搬送機最適制御パラメータに基づき搬送機30の制御パラメータ(以下、搬送機制御パラメータと称する。)を生成し(S516)、生成した制御パラメータを搬送機30に送信する(S517)。
続いて、マニピュレータ制御計画生成部415が、決定した作業対象の位置(撮影画像における作業対象候補の位置)と搬送機制御パラメータとに基づき、マニピュレータ20の動作と制御のタイミング(以下、制御タイミングと称する。)とを含むマニピュレータ20の制御計画(マニピュレータ制御計画454)を生成する(S518)。尚、認識処理S514でマニピュレータ最適制御パラメータを求めた場合、マニピュレータ制御計画生成部415がマニピュレータ最適制御パラメータに基づきマニピュレータ制御計画454を生成するようにしてもよい。
続いて、マニピュレータ制御部416は、作業対象がマニピュレータ20から所定距離(以下、制御準備開始距離と称する。)内に入った否かを監視する(S519:NO)。マニピュレータ制御部416が、作業対象が制御準備開始距離内に入ったことを検知すると(S519:YES)、処理はS520に進む。マニピュレータ制御部416は、例え
ば、搬送機30又は作業対象の現在位置、マニピュレータ20の周辺に設けられた物体検知センサや測距センサ等から取得される情報、搬送機30又は作業対象を撮影した映像等に基づき、作業対象がマニピュレータ20から制御準備開始距離内に入ったと判定する。
S520では、マニピュレータ制御部416が、S518で生成したマニピュレータ制御計画に従ってマニピュレータ20を制御し、作業対象に対して作業を行う。例えば、第1例の場合であれば、マニピュレータ制御部416はマニピュレータ20を制御して作業対象である物品5をピッキングし、また例えば、第2例の場合であれば、マニピュレータ制御部416はマニピュレータ20を制御して作業対象であるネジ孔についてネジ締めを行う。
S521では、情報処理装置10は、当該ロボット制御処理を終了する否かを判定する。情報処理装置10がロボット制御処理を終了しないと判定した場合(S521:NO)、処理はS511に戻る。情報処理装置10がロボット制御処理を終了すると判定した場合(S521:YES)、当該処理は終了する。情報処理装置10は、例えば、ユーザから作業の停止操作を受け付けた場合にロボット制御処理を終了すると判定する。
続いて、図5の認識処理S514の実現方法について説明する。
[認識処理の第1の実現方法]
図6は認識処理S514の第1の実現方法に用いる畳み込みニューラルネットワークの構造を説明する図である。畳み込みニューラルネットワークの入力層611には撮影画像が入力される。中間層612は、複数(例えば20層程度)の畳み込み層を含む。中間層612は、出力層613における、搬送機最適制御パラメータr1,0、作業対象候補位置r2,0、作業対象候補可能性r3,0、及び非作業対象候補可能性r4,0等の各予測値を求める。ここで上記の各予測値に付している添え字の1つ目は出力値の種類を表し、添え字の2つ目は入力層611に与えられる撮影画像を複数の正方形状の単位領域(複数の作業対象候補の予測位置が同一領域内に入らない程度の大きさの領域。以下、格子と称する。)に分割して生成される各格子の識別子である。
図7は撮影画像をS個(本例ではS=25)の格子に分割した場合における出力層613の具体例を示す。同図において(u,v)は格子内の位置を示す座標である。格子内に示す円の中心は作業対象候補の把持点位置を示す。円の色は搬送機30の搬送速度を表す。
学習モデル462(中間層612の各層のパラメータを含む。)の生成に際し、学習モデル生成部422は、例えば、中間層612が求めた予測値との差が許容範囲内である学習データ461を特定し、特定した学習データ461の予測値を損失関数(以下、総合差分値Lとする。)に与え、総合差分値Lの値を減らす方向に中間層612の各層のパラメータを更新していくことにより学習モデル462を生成する。上記のパラメータの更新は、例えば、確率的勾配降下法や誤差逆伝播法により行ってもよい。総合差分値Lの算出方法の例を以下に示す。
Figure 2019150911
Figure 2019150911
Figure 2019150911
Figure 2019150911
尚、上記の各重要度は、作業対象候補における搬送機制御パラメータの重要度を1としたときの相対値である。
以上のように、第1の実現方法によれば、作業のパフォーマンスを最大化する搬送機30の制御パラメータ(搬送機最適制御パラメータ)を求めることができ、搬送機30が動いている状態で作業を行ったときに作業のパフォーマンスが最大となる搬送機30の制御パラメータを求めることができる。
尚、以上では、中間層612が、搬送機最適制御パラメータr1,0、作業対象候補位置r2,0、作業対象候補可能性r3,0、及び非作業対象候補可能性r4,0を予測値として求める場合を例示したが、中間層612が、パフォーマンスr5,0やマニピュレータ最適制御パラメータr6,0を更に出力層613として求める構成としてもよい。
図8は第1の実現方法における学習データ461の生成方法を説明するフローチャートであり、図9は第1の実現方法における学習データ461の生成方法を説明する図である。尚、学習データ461の生成は、例えば、第1例や第2例として示した図1又は図2に示すロボット作業システム1の構成を利用して行うことができる。以下、これらの図とともに第1の実現方法における学習データ461の生成方法について説明する。
まずユーザは、撮影装置40により複数の物品5が収容された箱2を、箱2の上方開口
側から撮影することにより撮影画像を取得する(S811)。
続いて、学習データ生成部421は、出力装置150に撮影画像を表示しつつ、入力装置140を介してユーザから作業対象候補(図9の符号7)の設定(第1例であれば物品5の把持点位置の設定、第2例であればネジ孔位置の設定)の入力を受け付ける(S812)。
続くS813では、学習データ生成部421は、当該処理(S813)で未選択の作業対象候補を一つ選択する。
続くS814では、学習データ生成部421は、当該処理(S814)で未選択の搬送機制御パラメータを一つ選択する。尚、情報処理装置10は、選択可能な複数の搬送機制御パラメータ(例えば、搬送機30の移動速度であれば0.1m/s、0.2m/s・・・1.0m/s等。搬送機30の移動ルートであれば、マニピュレータ20との距離10cm、15cm・・・30cm等。)を予め記憶しているものとする。また図6においてマニピュレータ最適制御パラメータを出力層613として求める構成とする場合、情報処理装置10は、選択可能な複数のマニピュレータ制御パラメータ(例えば、マニピュレータ20が作業対象を掴む瞬間の、マニピュレータ20から見た搬送機30の移動方向の位置0cm、±5cm、±10cm・・・±25cm等。)を予め記憶しているものとする。
続いて、学習データ生成部421は、選択中の搬送機制御パラメータに基づき、搬送機30が作業対象候補を搬送する中(搬送機30が動いている中)、マニピュレータ20により作業を行ったときのパフォーマンスを求める(S815)。尚、マニピュレータ20により作業を行ったときのパフォーマンスは、例えば、作業成功率であり、非特許文献1に開示されている方法(dynamic RRT = dynamic Rapidly-exploring Random Tree)によ
り作業遂行のためのマニピュレータ20の動作の計画を複数回試行し、その動作計画の成功率として求めることができる。
続いて、学習データ生成部421は、S814において未選択の搬送機制御パラメータが存在するか否かを判定する(S816)。未選択の搬送機制御パラメータが存在する場合(S816:YES)、処理はS814に戻って他の未選択の搬送機制御パラメータを選択する。未選択の搬送機制御パラメータが存在しない場合(S816:NO)、処理はS817に進む。
S817では、学習データ生成部421は、S814〜S816の処理で選択した搬送機制御パラメータのうち作業のパフォーマンスが最大のものを、S813で選択中の作業対象物候補の搬送機最適制御パラメータとして選出する。
続いて、学習データ生成部421は、S813で未選択の作業対象候補が存在するか否かを判定する(S818)。未選択の作業対象候補が存在する場合(S818:YES)、処理はS813に戻って他の未選択の作業対象候補を選択し、以上と同様の処理を行う。未選択の搬送機制御パラメータが存在しない場合(S818:NO)、処理はS819に進む。
S819では、学習データ生成部421は、S811で取得した撮影画像と、作業対象候補の位置と作業対象候補の夫々についての搬送機最適制御パラメータの組合せと、を含むデータを学習データ461として記憶する。
続くS820では、ユーザが十分な数の学習データを取得することができたか否かを判定する(S820)。十分な数の学習データを取得できていないとユーザが判定した場合
(S820:NO)、処理はS811に戻る。また十分な数の学習データを取得することができたとユーザが判定した場合(S820:YES)、学習データの生成は終了する。
尚、前述したように、中間層612が、パフォーマンスr5,0やマニピュレータ最適制御パラメータr6,0を更に出力層613として求める構成とする場合、例えば、S814乃至S819のループと同様のループを、パフォーマンスやマニピュレータ最適制御パラメータについても行うようにする。またその場合、S819では、学習データ生成部421が、撮影画像と、作業対象候補の位置と作業対象候補の夫々の搬送機最適制御パラメータ及びパフォーマンス(又はマニピュレータ最適制御パラメータ)の組合せと、を含むデータを学習データ461として記憶するようにする。
ところで、図8では撮影画像の取得(S811)や作業対象候補の位置の設定をユーザが行っているが(S812)、これらの作業を情報処理装置10がシミュレーションにより自動的に行う構成としてもよい。
即ち、例えば図10に示すように、情報処理装置10が物品の形状やテクスチャ、寸法を含む物体モデルを用いて複数の物品5が箱2に収容されている状態の撮影画像を生成し(S1011)、物品5の面を特定して、例えば、その面の中心位置を作業対象候補とする(S1012)。そして搬送機30が作業対象候補を搬送する中、マニピュレータ20による作業を行った場合をシミュレーションして(S1013)パフォーマンスを求める(S1014)。そのようにすることで、図8において手作業で行われている部分の多くを自動化することができる。
図11及び図12は、第1の実現方法における学習データ461を用いて行われる学習モデル462の生成処理(以下、学習モデル生成処理と称する。)を説明するフローチャートである。以下、これらの図とともに学習モデル生成処理について説明する。
図11に示すように、まず学習モデル生成部422は、学習モデル(中間層612)のパラメータの初期値を設定する(S1111)。
続いて、学習モデル生成部422は、現在設定中のパラメータの学習モデル(以下、現在モデルと称する。)について後述する総合差分値(以下、現在モデル総合差分値と称する。)を求める(S1112)。
続いて、学習モデル生成部422は、現在設定中のパラメータの周辺のパラメータを設定した学習モデル(以下、周辺モデルと称する。)について後述する総合差分値(以下、周辺モデル総合差分値と称する。)を求める(S1113)。
続いて、学習モデル生成部422は、S1112で求めた現在モデル総合差分値と周辺モデル総合差分値とに基づき、現在モデル総合差分値が現在よりも小さくなるように現在モデルのパラメータを更新する(S1114)。
続いて、学習モデル生成部422は、学習モデル生成処理を終了するか否かを判定する。学習モデル生成部422が学習モデル生成処理を終了しないと判定した場合(S1115:NO)、処理はS1112に戻り、更新後のパラメータの現在モデルについてS1112からの処理を行う。学習モデル生成部422が学習モデル生成処理を終了すると判定した場合(S1115:YES)、学習モデル生成部422は最終的に生成された学習モデルを学習モデル462として記憶し、学習モデル生成処理は終了する。
尚、例えばS1114でパラメータを更新しても現在モデル総合差分値が収束しない場
合(S1112〜S1115の1ループ実行後の総合差分値の減少量が閾値以下となった場合)や、S1112〜S1115のループの実行回数が予め設定された回数に達した場合に学習モデル生成部422は学習モデル生成処理を終了すると判定する。
図12は、図11の第1の実現方法における学習モデル生成処理のS1112又はS1113の処理(現在モデル総合差分値又は周辺モデル総合差分値を求める処理。以下、総合差分値算出処理と称する。)を説明するフローチャートである。
まず学習モデル生成部422は、学習データ461に含まれている撮影画像のうち未選択のものを一つ選択する(S1211)。
続いて、学習モデル生成部422は、設定中のパラメータ(総合差分値算出処理の呼び出し元がS1112の場合は現在モデルのパラメータ、総合差分値算出処理の呼び出し元がS1113の場合は周辺モデルのパラメータ。)のモデル(現在モデル又は周辺モデル)を用いて、S1211で選択した撮影画像を入力層611に与えて作業対象候補と搬送機最適制御パラメータとの組を複数予測する(S1212)。
続いて、学習モデル生成部422は、予測した上記作業対象候補と搬送機最適制御パラメータとの組の夫々について、選択中の撮影画像の学習データ461との差分値を求める(S1213)。
続いて、学習モデル生成部422は、S1211で未選択の撮影画像が存在するか否かを判定する(S1214)。未選択の撮影画像が存在する場合(S1214:YES)、学習モデル生成部422は、他の学習データの撮影画像を選択してS1211からの処理を繰り返す。未選択の撮影画像が存在しない場合(S1214:YES)、学習モデル生成部422は、総合差分値算出処理を終了し、処理は図12の学習モデル生成処理のS1112又はS1113の処理に後続する処理に進む。
尚、中間層612が、パフォーマンスr5,0、及びマニピュレータ最適制御パラメータr6,0を更に出力層613の要素として求める構成とする場合、例えば、搬送機最適制御パラメータについて行っているS1212及びS1213と同様の処理を、パフォーマンス及びマニピュレータ最適制御パラメータの夫々についても行うようにする。
[認識処理の第2の実現方法]
続いて、図5の認識処理S514の第2の実現方法について説明する。第2の実現方法では、搬送機制御パラメータ(例えば、搬送機30の搬送速度や、搬送機30の移動ルート等。)を固定して学習モデル462を生成する。そして、搬送機制御パラメータの離散値ごとに学習モデル462を準備して、夫々の学習モデル462に対し、撮影画像を入力として、作業対象候補位置とパフォーマンスを認識結果の一つとして出力する。その出力された結果のうち、パフォーマンスが最大となる作業対象候補が得られた学習モデル462の搬送機制御パラメータが、搬送機最適制御パラメータとなる。このように搬送機制御パラメータを固定して学習モデル462を生成した場合、学習モデル462の複雑さが低下するため学習精度の向上が期待でき、固定した個々の学習モデル462は軽負荷で生成することができる。尚、以下において、第1の実現方法と共通する部分については説明を省略する。
図13は第2の実現方法において用いる畳み込みニューラルネットワークの構造を説明する図である。畳み込みニューラルネットワークの入力層611には撮影画像が入力される。中間層612は、複数(例えば20層程度)の畳み込み層を含む。中間層612は、出力層613における、パフォーマンスr1,0、作業対象候補位置r2,0、作業対象
候補可能性r3,0、非作業対象候補可能性r4,0等の各予測値を求める。
図14は第2の実現方法における出力層613の具体例である。同図において(u,v)は格子内の位置を示す座標である。格子内に示す円の中心は作業対象候補の把持点位置を示す。円の色はパフォーマンス(作業成功率)を表す。本例では搬送機30の搬送速度を0.5m/sに固定した場合である。
第1の実現方法と同様、学習モデル462の生成に際し、学習モデル生成部422は、例えば、中間層612により求められた予測値との差が許容範囲内である学習データ461を特定し、特定した学習データ461の予測値を総合差分値Lに与え、総合差分値Lの値を減らす方向に中間層612の各層のパラメータを更新していくことにより学習モデル462を生成する。上記のパラメータの更新は、例えば、確率的勾配降下法や誤差逆伝播法により行ってもよい。第2の実現方法における、学習モデル462(中間層612の各層のパラメータを含む。)の生成に際して用いる総合差分値Lの算出方法の例を以下に示す。
Figure 2019150911
Figure 2019150911
Figure 2019150911
Figure 2019150911
尚、上記の各重要度は、作業対象候補における搬送機制御パラメータの重要度を1としたときの相対値である。
式3及び式4の構成は、第1の実現方法における式1及び式2と類似するが、第2の実現方法では、式3における総合差分値L及び画像別差分値Λは、いずれも固定値である搬送機制御パラメータ毎に定義される。また第2の実現方法では、第1の実現方法の式2における「搬送機最適制御パラメータr1」が「パフォーマンスr1」となり、また式2における「非作業対象候補における搬送機制御パラメータ予測の重要度」が「非作業対象候補におけるパフォーマンス予測の重要度」となる。
図15は第2の実現方法における学習データ461の生成方法を説明するフローチャートである。以下、同図とともに第2の実現方法における学習データ461の生成方法について説明する。
まずユーザは、撮影装置40により複数の物品5が収容された箱2を、箱2の上方開口側から撮影することにより撮影画像を取得する(S1511)。
続いて、学習データ生成部421は、出力装置150に撮影画像を表示しつつ、入力装置140を介してユーザから作業対象候補に関する設定(第1例であれば物品5の把持点位置の設定、第2例であればネジ孔位置の設定)の入力(指定)を受け付ける(S1512)。
続くS1513では、学習データ生成部421は、当該処理(S1513)で未選択の作業対象候補を一つ選択する。
続くS1514では、学習データ生成部421は、当該処理(S1514)で未選択の搬送機制御パラメータを一つ選択する。尚、情報処理装置10は、選択可能な複数の搬送機制御パラメータ(例えば、搬送機30の搬送速度(0.1m/s、0.2m/s・・・1.0m/s等)や、搬送機の移動ルート(マニピュレータ20からの距離10cm、15cm・・・25cm))を予め記憶しているものとする。
続いて、学習データ生成部421は、選択中の搬送機制御パラメータに基づき、搬送機30が動いている中(作業対象候補を搬送する中)、マニピュレータ20により作業を行ったときのパフォーマンスを求める(S1515)。尚、マニピュレータ20により作業を行った場合におけるパフォーマンスは、例えば、作業成功率であり、非特許文献1に開示されている方法(dynamic RRT)により作業遂行のためのマニピュレータ20の動作の
計画を複数回試行し、その動作計画の成功率として求めることができる。
続いて、学習データ生成部421は、S1514において未選択の搬送機制御パラメータが存在するか否かを判定する。未選択の搬送機制御パラメータが存在する場合(S1516:YES)、処理はS1514に戻って他の未選択の搬送機制御パラメータを選択する。未選択の搬送機制御パラメータが存在しない場合(S1516:NO)、処理はS1517に進む。
続いて、学習データ生成部421は、S1513で未選択の作業対象候補が存在するか
否かを判定する(S1517)。未選択の作業対象候補が存在する場合(S1517:YES)、処理はS1513に戻って他の未選択の作業対象候補を選択する。未選択の搬送機制御パラメータが存在しない場合(S1517:NO)、処理はS1518に進む。
S1518では、学習データ生成部421は、S1511で取得した撮影画像と、作業対象候補の位置と作業対象候補の夫々のパフォーマンスの組合せと、を含むデータを学習データ461として記憶する。
続くS1519では、ユーザが十分な数の学習データを取得することができたか否かを判定する(S1519)。十分な数の学習データを取得できていないとユーザが判定した場合(S1519:NO)、処理はS1519に戻る。また十分な数の学習データを取得することができたとユーザが判定した場合(S1519:YES)、学習データの生成は終了する。
尚、中間層612が、例えば、マニピュレータ20の制御パラメータ(以下、マニピュレータ制御パラメータと称する。)r5,0を更に出力層613の要素として求める構成としてもよい。その場合、例えば、S1514乃至S1518のループと同様のループをマニピュレータ制御パラメータ(例えば、マニピュレータ20が作業対象を掴む瞬間の、マニピュレータ20から見た搬送機30の進行方向の位置(0cm、±5cm、±10cm・・・±25cm等))についても行うようにする。またその場合、S1518では、学習データ生成部421が、撮影画像と、作業対象候補の位置と作業対象候補の夫々のパフォーマンス及びマニピュレータ制御パラメータの組合せと、を含むデータを学習データ461として記憶するようにする。
図16及び図17は、第2の実現方法における学習モデル462の生成処理(以下、個別学習モデル生成処理と称する。)を説明するフローチャートである。以下、これらの図とともに個別学習モデル生成処理について説明する。
図16に示すように、まず学習モデル生成部422は、学習モデル(中間層612)のパラメータの初期値(搬送機制御パラメータを固定した初期値)を設定する(S1611)。
続いて、学習モデル生成部422は、現在設定中のパラメータの学習モデル(以下、現在モデルと称する。)について後述する総合差分値(以下、現在モデル総合差分値と称する。)を求める(S1612)。
続いて、学習モデル生成部422は、現在設定中のパラメータの周辺のパラメータを設定した学習モデル(以下、周辺モデルと称する。)について後述する総合差分値(以下、周辺モデル総合差分値と称する。)を求める(S1613)。
続いて、学習モデル生成部422は、S1612で求めた現在モデル総合差分値と周辺モデル総合差分値とに基づき、現在モデル総合差分値が現在よりも小さくなるように現在モデルのパラメータを更新する(S1614)。
続くS1615では、学習モデル生成部422は、個別学習モデル生成処理を終了するか否かを判定する。学習モデル生成部422が個別学習モデル生成処理を終了しないと判定した場合(S1615:NO)、処理はS1612に戻り、更新後のパラメータの現在モデルについてS1612からの処理を行う。学習モデル生成部422が個別学習モデル生成処理を終了すると判定した場合(S1615:YES)、学習モデル生成部422は最終的に生成された学習モデルを学習モデル462として記憶し、個別学習モデル生成処
理は終了する。尚、例えば、S1614でパラメータを更新しても現在モデル総合差分値が収束しない場合(総合差分値の減少量が閾値以下となった場合)や、S1612〜S1615の繰り返し実行回数が予め設定された回数に達した場合、学習モデル生成部422は個別学習モデル生成処理を終了すると判定する。
図17は、図16の個別学習モデル生成処理のS1612又はS1613の処理(現在モデル総合差分値又は周辺モデル総合差分値を求める処理。以下、総合差分値算出処理と称する。)を説明するフローチャートである。
まず学習モデル生成部422は、学習データ461に含まれている撮影画像のうち未選択のものを一つ選択する(S1711)。
続いて、学習モデル生成部422は、設定中のパラメータ(総合差分値算出処理の呼び出し元がS1612の場合は現在モデルのパラメータ、総合差分値算出処理の呼び出し元がS1613の場合は周辺モデルのパラメータ。)のモデル(現在モデル又は周辺モデル)を用いて、S1711で選択した撮影画像を入力層611に与えて作業対象候補とパフォーマンスとの組を複数予測する(S1712)。
続いて、学習モデル生成部422は、予測した上記作業対象候補とパフォーマンスとの組の夫々について、選択中の撮影画像の学習データ461との差分値を求める(S1713)。
続いて、学習モデル生成部422は、S1711で未選択の撮影画像が存在するか否かを判定する(S1714)。未選択の撮影画像が存在する場合(S1714:YES)、学習モデル生成部422は、他の学習データの撮影画像を選択してS1711からの処理を繰り返す。未選択の撮影画像が存在しない場合(S1714:YES)、学習モデル生成部422は、総合差分値算出処理を終了し、処理は図16の個別学習モデル生成処理のS1612又はS1613の処理に後続する処理に進む。
尚、前述したように、中間層612がマニピュレータ制御パラメータr5,0を更に出力層613として求める構成とする場合、例えば、パフォーマンスについて行っているS1612及びS1613と同様の処理を、マニピュレータ制御パラメータの夫々についても行うようにする。
ところで、以上に説明した認識処理の第2の実現方法では、搬送機制御パラメータを固定した学習モデルを用いたが、これと同様に、例えば、マニピュレータ制御パラメータを固定した学習モデルを用いてもよい。その場合、マニピュレータ制御パラメータの離散値ごとに学習モデル462を準備して、夫々の学習モデル462に対し、撮影画像を入力として、作業対象候補位置とパフォーマンスを認識結果の一つとして出力する。その出力された結果のうち、パフォーマンスが最大となる作業対象候補が得られた学習モデル462のマニピュレータ制御パラメータが、マニピュレータ最適制御パラメータとなる。
またパフォーマンスの要素(搬送速度、作業成功率等)を出力層603として学習モデル462を生成し、パフォーマンスについては上記の要素に基づき(例えば、搬送速度と作業成功率とを乗算して)求めるようにしてもよい。
尚、以上の実施形態では畳み込みニューラルネットワークのモデルを用いたが、教師有り学習のモデルであれば畳み込みニューラルネットワークのモデルに限定されず、例えば、サポートベクターマシンやランダムフォレストの他のモデルにより機械学習を行う構成としてもよい。
以上に説明したように、本実施形態のロボット作業システム1によれば、搬送機30を用いてマニピュレータ20(ロボット)により作業を行う際に、搬送機30の動作についても考慮してロボット作業システム1全体として作業のパフォーマンスを向上させることができる。
ところで、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加、削除、又は置換をしてもよい。
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、IC(Integrated Circuit)カ
ード、SDカード、DVD(Digital Versatile Disc)の記録媒体に格納することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。
1 ロボット作業システム、2 箱、5 物品、6 移動先、10 情報処理装置、20
マニピュレータ、21 アーム、23 関節部、30 搬送機、40 撮影装置、411 撮影処理部、412 認識処理部、413 作業対象決定部、414 搬送機制御部、415 マニピュレータ制御計画生成部、416 マニピュレータ制御部、421 学習データ生成部、422 学習モデル生成部、451 撮影画像、452 認識結果、453 搬送機制御パラメータ、454 マニピュレータ制御計画、461 学習データ、462 学習モデル

Claims (15)

  1. 搬送機により搬送される作業対象に対してロボットが作業を行うシステムであって、
    プロセッサ及び記憶装置を有する情報処理装置を備え、
    前記プロセッサが記憶装置に記憶されているプログラムを読み出して実行することにより実現される、
    搬送機により搬送される複数の作業対象候補を含む領域を撮影した撮影画像に基づき、前記作業対象候補の位置と、前記作業対象候補を作業対象としたときに当該作業対象に対する作業のパフォーマンスを最大化する前記搬送機の制御パラメータである搬送機最適制御パラメータと、の組合せを複数求める認識処理部と、
    前記組合せに基づき、前記作業対象候補の中から作業対象を決定する作業対象決定部と、
    決定した前記作業対象の前記搬送機最適制御パラメータに基づき前記搬送機を制御する搬送機制御部と、
    決定した前記作業対象の位置と当該作業対象の前記搬送機最適制御パラメータとに基づき、前記ロボットの制御計画を生成するロボット制御計画生成部と、
    を備える、ロボット作業システム。
  2. 請求項1に記載のロボット作業システムであって、
    前記作業対象決定部は、前記組合せのうち前記パフォーマンスが最大となる前記作業対象候補を作業対象として決定する、
    ロボット作業システム。
  3. 請求項1に記載のロボット作業システムであって、
    前記パフォーマンスは、前記搬送機の搬送速度、前記作業の成功率、及び前記搬送速度と前記成功率とを乗算した値、のうちの少なくともいずれかである、
    ロボット作業システム。
  4. 請求項1乃至3のいずれか一項に記載のロボット作業システムであって、
    前記認識処理部は、複数の作業対象候補を含む領域を撮影することにより取得される撮影画像を入力とし、前記作業対象候補の位置と前記搬送機最適制御パラメータとの組合せを出力とした学習データを機械学習することにより生成される学習モデルによって実現される、
    ロボット作業システム。
  5. 請求項4に記載のロボット作業システムであって、
    前記学習モデルは畳み込みニューラルネットワークを用いて構成され、
    前記学習モデルの中間層は、前記撮影画像を入力として与えることにより、複数の前記作業対象候補の位置と前記作業対象候補の夫々の前記搬送機最適制御パラメータとを出力する、
    ロボット作業システム。
  6. 請求項1乃至3のいずれか一項に記載のロボット作業システムであって、
    前記認識処理部は、複数の作業対象候補を含む領域を撮影することにより取得される撮影画像を入力とし、前記作業対象候補の位置と前記作業対象候補の前記搬送機最適制御パラメータと前記パフォーマンスとの組合せを出力とした学習データを機械学習することにより生成される学習モデルによって実現される、
    ロボット作業システム。
  7. 請求項6に記載のロボット作業システムであって、
    前記学習モデルは畳み込みニューラルネットワークを用いて構成され、
    前記学習モデルの中間層は、前記撮影画像を入力として与えることにより、複数の前記作業対象候補の位置と前記作業対象候補の夫々の前記搬送機最適制御パラメータと前記パフォーマンスとを出力する、
    ロボット作業システム。
  8. 請求項1乃至3のいずれか一項に記載のロボット作業システムであって、
    前記認識処理部は、複数の作業対象候補を含む領域を撮影することにより取得される撮影画像を入力とし、前記作業対象候補の位置と、前記作業対象候補の前記搬送機最適制御パラメータと、前記パフォーマンスと前記パフォーマンスを最大化する前記ロボットの制御パラメータであるロボット最適制御パラメータとの組合せを出力とした学習データを機械学習することにより生成される学習モデルによって実現される、
    ロボット作業システム。
  9. 請求項8に記載のロボット作業システムであって、
    前記学習モデルは畳み込みニューラルネットワークを用いて構成され、
    前記学習モデルの中間層は、前記撮影画像を入力として与えることにより、複数の前記作業対象候補の位置と前記作業対象候補の夫々の前記搬送機最適制御パラメータと前記パフォーマンスと前記ロボット最適制御パラメータとを出力する、
    ロボット作業システム。
  10. 請求項1乃至3のいずれか一項に記載のロボット作業システムであって、
    前記認識処理部は、複数の作業対象候補を含む領域を撮影することにより取得される撮影画像を入力とし、前記作業対象候補の位置と、前記搬送機の制御パラメータを固定した場合における前記パフォーマンスとの組合せを出力とした学習データを機械学習することにより生成される学習モデルによって実現される、
    ロボット作業システム。
  11. 請求項1乃至3のいずれか一項に記載のロボット作業システムであって、
    前記認識処理部は、複数の前記作業対象候補を含む領域を撮影することにより取得される撮影画像を入力とし、前記作業対象候補の位置と、前記搬送機の制御パラメータを固定した場合における、前記作業対象候補の前記パフォーマンスと前記パフォーマンスを最大化する前記ロボットの制御パラメータであるロボット最適制御パラメータとの組合せを出力とした学習データを機械学習することにより生成される学習モデルによって実現される、
    ロボット作業システム。
  12. 請求項10に記載のロボット作業システムであって、
    前記認識処理部は、前記搬送機の制御パラメータの離散値ごとに準備した複数の前記学習モデルによって実現される、
    ロボット作業システム。
  13. 請求項1乃至3のいずれか一項に記載のロボット作業システムであって、
    前記認識処理部は、複数の作業対象候補を含む領域を撮影することにより取得される撮影画像を入力とし、前記作業対象候補の位置と、前記パフォーマンスを最大化する前記ロボットの制御パラメータであるロボット最適制御パラメータを固定した場合における前記パフォーマンスとの組合せを出力とした学習データを学習することにより得られる機械学習の学習モデルによって実現される、ロボット作業システム。
  14. 請求項13に記載のロボット作業システムであって、
    前記認識処理部は、前記ロボットの制御パラメータの離散値ごとに準備した複数の前記学習モデルによって実現される、
    ロボット作業システム。
  15. 搬送機により搬送される作業対象に対してロボットが作業を行うロボット作業システムの制御方法であって、
    プロセッサ及び記憶装置を有する情報処理装置が、
    搬送機により搬送される複数の作業対象候補を含む領域を撮影した撮影画像に基づき、前記作業対象候補の位置と、前記作業対象候補を作業対象としたときに当該作業対象に対する作業のパフォーマンスを最大化する前記搬送機の制御パラメータである搬送機最適制御パラメータと、の組合せを複数求めるステップと、
    前記組合せに基づき、前記作業対象候補の中から作業対象を決定するステップと、
    決定した前記作業対象の前記搬送機最適制御パラメータに基づき前記搬送機を制御するステップと、
    決定した前記作業対象の位置と当該作業対象の前記搬送機最適制御パラメータとに基づき、前記ロボットの制御計画を生成するステップと、
    を実行する、ロボット作業システムの制御方法。
JP2018037340A 2018-03-02 2018-03-02 ロボット作業システム、及びロボット作業システムの制御方法 Active JP6873941B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018037340A JP6873941B2 (ja) 2018-03-02 2018-03-02 ロボット作業システム、及びロボット作業システムの制御方法
CN201910141331.XA CN110216649B (zh) 2018-03-02 2019-02-26 机器人作业系统、以及机器人作业系统的控制方法
US16/289,742 US11065762B2 (en) 2018-03-02 2019-03-01 Robot work system and method of controlling robot work system
EP19160316.6A EP3534230B1 (en) 2018-03-02 2019-03-01 Robot work system and method of controlling robot work system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018037340A JP6873941B2 (ja) 2018-03-02 2018-03-02 ロボット作業システム、及びロボット作業システムの制御方法

Publications (3)

Publication Number Publication Date
JP2019150911A true JP2019150911A (ja) 2019-09-12
JP2019150911A5 JP2019150911A5 (ja) 2020-03-19
JP6873941B2 JP6873941B2 (ja) 2021-05-19

Family

ID=65685143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018037340A Active JP6873941B2 (ja) 2018-03-02 2018-03-02 ロボット作業システム、及びロボット作業システムの制御方法

Country Status (4)

Country Link
US (1) US11065762B2 (ja)
EP (1) EP3534230B1 (ja)
JP (1) JP6873941B2 (ja)
CN (1) CN110216649B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112935772A (zh) * 2021-01-08 2021-06-11 佛山科学技术学院 视觉引导机器人拧螺丝的方法、装置、存储介质和设备
WO2021200438A1 (ja) * 2020-03-31 2021-10-07 ミネベアミツミ株式会社 較正システム、情報処理システム、ロボット制御システム、較正方法、情報処理方法、ロボット制御方法、較正プログラム、情報処理プログラム、較正装置、情報処理装置、及びロボット制御装置
US11253999B2 (en) * 2018-03-29 2022-02-22 Fanuc Corporation Machine learning device, robot control device and robot vision system using machine learning device, and machine learning method
US11278997B2 (en) 2019-09-27 2022-03-22 Fanuc Corporation Machine system performing workpiece transport control
KR102464963B1 (ko) * 2022-05-25 2022-11-10 주식회사 애자일소다 데이터 기반의 물체 위치 최적화를 위한 강화학습 장치

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10120364B2 (en) * 2015-03-27 2018-11-06 GM Global Technology Operations LLC Self-corrective nut running for robotic applications
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
CN111727108B (zh) * 2018-03-05 2023-09-15 欧姆龙株式会社 用于控制机器人的方法、装置及系统以及存储介质
JP6918756B2 (ja) * 2018-08-31 2021-08-11 ファナック株式会社 検出システム
JP7221183B2 (ja) * 2019-09-20 2023-02-13 株式会社日立製作所 機械学習方法、フォークリフト制御方法、及び機械学習装置
JP2021053718A (ja) * 2019-09-27 2021-04-08 ファナック株式会社 ワークを検出する検出システム
JP7192748B2 (ja) * 2019-11-25 2022-12-20 トヨタ自動車株式会社 搬送システム、学習済みモデル生成方法、学習済みモデル、制御方法およびプログラム
WO2022003878A1 (ja) * 2020-07-01 2022-01-06 三菱電機株式会社 制御パラメータ調整システム、制御パラメータ調整装置および制御パラメータ調整方法
CN111906781B (zh) * 2020-07-08 2021-07-13 西安交通大学 基于图神经网络的机器人自主工具构建方法、系统及相关设备
DE102020004813A1 (de) 2020-08-07 2022-02-10 Günther Zimmer Transportbehälter-Entladestation und Verfahren zum Entladen
CN113172621B (zh) * 2021-04-13 2023-05-09 哈尔滨工业大学(威海) 一种面向scara机械臂的动力学参数辨识方法
USD996486S1 (en) * 2021-06-17 2023-08-22 Autostore Technology AS Remotely operated storage vehicle
CN113618709B (zh) * 2021-07-07 2023-12-29 浙江大学 一种用于智能产线的多模态力控无损抓取装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01257586A (ja) * 1988-04-08 1989-10-13 Kobe Steel Ltd ロボットとコンベアの協働装置
JPH08323669A (ja) * 1995-03-28 1996-12-10 Matsushita Electric Works Ltd 部品供給方法およびその装置
JP2005111607A (ja) * 2003-10-07 2005-04-28 Fanuc Ltd ロボット物流トラッキング装置
JP2009536872A (ja) * 2006-05-12 2009-10-22 デュール システムズ ゲゼルシャフト ミット ベシュレンクテル ハフツング コーティング設備およびコーティング設備の作動方法
JP2016060004A (ja) * 2014-09-18 2016-04-25 株式会社安川電機 ロボットシステム、ロボット装置およびワークピッキング方法
EP3456485A1 (de) * 2017-09-15 2019-03-20 Siemens Aktiengesellschaft Optimieren eines automatisierten vorganges zum auswählen und greifen eines objektes durch einen roboter

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2876066A1 (en) * 2012-07-20 2015-05-27 Kabushiki Kaisha Yaskawa Denki Robot system and article transfer method
CN108081268A (zh) * 2013-10-10 2018-05-29 精工爱普生株式会社 机器人控制系统、机器人、程序以及机器人控制方法
JP6715565B2 (ja) * 2014-09-18 2020-07-01 株式会社安川電機 ロボットシステムおよびワークピッキング方法
JP6522488B2 (ja) 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
US11230006B2 (en) * 2016-05-20 2022-01-25 Abb Schweiz Ag Industrial object handling robot
US11580398B2 (en) * 2016-10-14 2023-02-14 KLA-Tenor Corp. Diagnostic systems and methods for deep learning models configured for semiconductor applications

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01257586A (ja) * 1988-04-08 1989-10-13 Kobe Steel Ltd ロボットとコンベアの協働装置
JPH08323669A (ja) * 1995-03-28 1996-12-10 Matsushita Electric Works Ltd 部品供給方法およびその装置
JP2005111607A (ja) * 2003-10-07 2005-04-28 Fanuc Ltd ロボット物流トラッキング装置
JP2009536872A (ja) * 2006-05-12 2009-10-22 デュール システムズ ゲゼルシャフト ミット ベシュレンクテル ハフツング コーティング設備およびコーティング設備の作動方法
JP2016060004A (ja) * 2014-09-18 2016-04-25 株式会社安川電機 ロボットシステム、ロボット装置およびワークピッキング方法
EP3456485A1 (de) * 2017-09-15 2019-03-20 Siemens Aktiengesellschaft Optimieren eines automatisierten vorganges zum auswählen und greifen eines objektes durch einen roboter

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11253999B2 (en) * 2018-03-29 2022-02-22 Fanuc Corporation Machine learning device, robot control device and robot vision system using machine learning device, and machine learning method
US11278997B2 (en) 2019-09-27 2022-03-22 Fanuc Corporation Machine system performing workpiece transport control
WO2021200438A1 (ja) * 2020-03-31 2021-10-07 ミネベアミツミ株式会社 較正システム、情報処理システム、ロボット制御システム、較正方法、情報処理方法、ロボット制御方法、較正プログラム、情報処理プログラム、較正装置、情報処理装置、及びロボット制御装置
JP7423387B2 (ja) 2020-03-31 2024-01-29 ミネベアミツミ株式会社 較正システム、情報処理システム、ロボット制御システム、較正方法、情報処理方法、ロボット制御方法、較正プログラム、情報処理プログラム、較正装置、情報処理装置、及びロボット制御装置
CN112935772A (zh) * 2021-01-08 2021-06-11 佛山科学技术学院 视觉引导机器人拧螺丝的方法、装置、存储介质和设备
KR102464963B1 (ko) * 2022-05-25 2022-11-10 주식회사 애자일소다 데이터 기반의 물체 위치 최적화를 위한 강화학습 장치

Also Published As

Publication number Publication date
EP3534230A3 (en) 2020-02-26
CN110216649B (zh) 2022-05-10
EP3534230A2 (en) 2019-09-04
CN110216649A (zh) 2019-09-10
EP3534230B1 (en) 2022-05-11
US11065762B2 (en) 2021-07-20
JP6873941B2 (ja) 2021-05-19
US20190270200A1 (en) 2019-09-05

Similar Documents

Publication Publication Date Title
JP6873941B2 (ja) ロボット作業システム、及びロボット作業システムの制御方法
Zhou et al. Intuitive robot teleoperation for civil engineering operations with virtual reality and deep learning scene reconstruction
KR102327825B1 (ko) 로봇 행동들에 대한 보정들의 결정 및 이용
US10759051B2 (en) Architecture and methods for robotic mobile manipulation system
JP5904635B2 (ja) 制御装置、制御方法及びロボット装置
Taryudi et al. Eye to hand calibration using ANFIS for stereo vision-based object manipulation system
Zhang et al. Sim2real learning of obstacle avoidance for robotic manipulators in uncertain environments
CN114347033A (zh) 机器人物品抓取方法、装置、机器人及存储介质
Raessa et al. Teaching a robot to use electric tools with regrasp planning
CN114516060A (zh) 用于控制机器人装置的设备和方法
Zhou et al. 3d pose estimation of robot arm with rgb images based on deep learning
JP2022187983A (ja) 高次元のロボット作業を学習するためのネットワークモジュール化
US10933526B2 (en) Method and robotic system for manipulating instruments
US20150019011A1 (en) Robot system and work facility
US20240033907A1 (en) Pixelwise predictions for grasp generation
US11883962B2 (en) Object manipulation with collision avoidance using complementarity constraints
JP2022187984A (ja) モジュール化ニューラルネットワークを用いた把持学習
Peng et al. Sensor-guided assembly of segmented structures with industrial robots
Ivanov et al. Bin Picking Pneumatic-Mechanical Gripper for Industrial Manipulators
Ata Inverse dynamic analysis and trajectory planning for flexible manipulator
Junare et al. Deep Learning based end-to-end Grasping Pipeline on a lowcost 5-DOF Robotic arm
Rud Robotic Grasping with Obstacle Avoidance Using Octrees
Wang et al. Research summary of" Camellia oleifera fruit picking robot" technical analysis
WO2024051978A1 (en) Action abstraction controller for fully actuated robotic manipulators
Marín et al. Telerobotic system based on natural language and computer vision

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210421

R150 Certificate of patent or registration of utility model

Ref document number: 6873941

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150