JP2017087326A - ロボット制御装置およびロボット制御方法 - Google Patents

ロボット制御装置およびロボット制御方法 Download PDF

Info

Publication number
JP2017087326A
JP2017087326A JP2015218215A JP2015218215A JP2017087326A JP 2017087326 A JP2017087326 A JP 2017087326A JP 2015218215 A JP2015218215 A JP 2015218215A JP 2015218215 A JP2015218215 A JP 2015218215A JP 2017087326 A JP2017087326 A JP 2017087326A
Authority
JP
Japan
Prior art keywords
target object
information
gripping
robot
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015218215A
Other languages
English (en)
Other versions
JP6711591B2 (ja
JP2017087326A5 (ja
Inventor
哲理 園田
Tetsutoshi Sonoda
哲理 園田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015218215A priority Critical patent/JP6711591B2/ja
Priority to US15/298,983 priority patent/US10695905B2/en
Priority to KR1020160146389A priority patent/KR102086884B1/ko
Priority to CN201610963497.6A priority patent/CN106945035B/zh
Publication of JP2017087326A publication Critical patent/JP2017087326A/ja
Publication of JP2017087326A5 publication Critical patent/JP2017087326A5/ja
Application granted granted Critical
Publication of JP6711591B2 publication Critical patent/JP6711591B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/905Control arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39102Manipulator cooperating with conveyor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40555Orientation and distance

Abstract


【課題】ロボットが対象物体を適切に把持できるようにするロボット制御装置を提供すること。
【解決手段】対象物体を把持するロボットの動作を制御するロボット制御装置であって、前記対象物体の位置および姿勢に関する情報を取得する取得手段と、複数の把持精度に対応する複数の把持モードの中から、前記対象物体の撮像画像に基づいて、1つの把持モードを選択する選択手段と、前記取得手段が取得した情報であって、前記選択手段が選択した把持モードに対応する情報を用いて、前記ロボットの把持動作を規定する把持動作データを生成する生成手段と、を備える。
【選択図】 図2

Description

本発明は、対象物体を把持するロボットの制御装置および制御方法に関する。
近年、供給された対象物体を把持して、所定の場所に配置するロボット装置において、変化する対象物体の供給状況に対応するため、各種センサを用いて対象物体の種類、位置および姿勢を認識、計測した後に対象物体を把持する手法が開発されている。例えば、ベルトコンベアで搬送された対象物体の映像を取得し、当該映像に基づいて、ロボットの支持部材を回転した後、把持手段により物体を把持するロボット装置が知られている(特許文献1)。また、対象物体の置かれた状況に応じて姿勢を変更できるワーク把持手段を備えた装置も知られている(特許文献2)。
特許3314890号公報 特許3805310号公報
しかしながら、特許文献1や特許文献2の装置は、対象物体の撮像画像から当該対象物体の位置や姿勢を正しく認識出来ることを前提としている。したがって、照明が不十分で暗い場合、対象物体が汚れている場合等の悪条件により対象物体の認識が不完全または不可能な場合は、対象物体の把持が出来なくなることもある。対象物体の把持が出来なくなれば(把持の成功率が下がれば)、ロボットの作業効率も下がる。
本発明は、上記課題を解決するためになされたものであり、対象物体の位置や姿勢を正確に認識できない場合でも、ロボットが対象物体を適切に把持できるようにするロボット制御装置を提供することを目的とする。
本発明の1つの態様によるロボット制御装置は、対象物体を把持するロボットの動作を制御するロボット制御装置であって、前記対象物体の位置および姿勢に関する情報を取得する取得手段と、複数の把持精度に対応する複数の把持モードの中から、前記対象物体の撮像画像に基づいて、1つの把持モードを選択する選択手段と、前記取得手段が取得した情報であって、前記選択手段が選択した把持モードに対応する情報を用いて、前記ロボットの把持動作を規定する把持動作データを生成する生成手段と、を備える。
本発明によれば、ロボットにより対象物体を適切に把持することが出来る。
実施形態1のロボット制御装置を含むロボットシステムを示す概略平面図。 実施形態1のロボット制御装置の動作を説明する流れ図。 実施形態1の物体情報取得ステップの詳細を説明する流れ図。 実施形態1における背景画像と、撮像画像と、差分画像とを示す図。 差分画像における対象物体の重心と主軸を示す図。 実施形態1における正規化画像を示す図。 実施形態1における対象物体の3種類の配置姿勢を示す図。 図7の3種類の配置姿勢に対応する3つのテンプレートを示す図。 実施形態2のロボット制御装置の動作を説明する流れ図。 実施形態3のロボット制御装置の動作を説明する流れ図。 ロボットシステムのブロック図。
以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置およびシステムの構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。
実施形態1
以下において、カメラにより撮像した対象物体の撮像画像を用いて、対象物体の物体情報を取得して対象物体の把持を行うロボットシステムを説明する。本実施形態において、対象物体は加工前または後の部品であるとする。本実施形態において、物体情報は、対象物体の位置および姿勢に関する情報であるとする。
(ロボットシステムの構成)
図1(a)は、本実施形態のロボットシステムを上方から見たときの図である。カメラ101は、ベルトコンベア102に載置された対象物体103を撮像できるように配置されている。
ロボットシステムは、カメラ101と、情報取得部104と、把持モード選択部105と、把持動作生成部106と、ロボット107とを含む。カメラ101、情報取得部104、把持モード選択部105、把持動作生成部106およびロボット107は、ライン110により有線接続されている。本実施形態のロボット107は、単腕ロボットである。
ベルトコンベア102は、対象物体103を載置して、矢印111の方向に対象物体103を搬送する。ベルトコンベア102は、対象物体103を搬送することにより、ロボット107に対象物体103を供給するので、供給部と称することができる。ベルトコンベア102は、複数の対象物体103を載置して搬送することができる。対象物体103は、平面視において、矩形状の本体と、本体から突出する半円形の突出部とからなる。
図1(b)は対象物体103の斜視図である。図1(b)は、図1(a)の対象物体103を、矢印111の反対方向から見た場合を示している。上記したように、対象物体103は、平面視において矩形状の本体103aと、本体103aから突出する半円形の突出部103bとからなっている。
図1(a)に示されているように、カメラ101は、ベルトコンベア102によって供給される対象物体103を上方から撮像し、対象物体103の撮像画像を取得する。カメラ101は、所定の撮像範囲112を有し、撮像範囲112に搬送されてきた対象物体103を撮像することができる。本実施形態では、対象物体103の撮像画像は、例えば、部品(物体)の計測値(例えば、対象物体の画素単位の輝度値)を得るために用いられる。したがって、カメラ101は、対象物体の計測部として機能する。対象物体の輝度値は、対象物体の物性情報の一例である。ロボットハンド109の位置および姿勢は、カメラ101の座標系上で表すことができる。カメラ101が取得した撮像画像は、情報取得部104に送られる。カメラ101は、例えば、CCDイメージセンサやCMOSイメージセンサ等の撮像素子(視覚センサ)を備えるデジタルカメラ(ビデオカメラを含む)である。
(制御装置の構成)
図1に示した実施形態において、情報取得部104と把持モード選択部105と把持動作生成部106とにより、ロボット107を制御するロボット制御装置114が構成される。ロボット制御装置114は、把持動作生成部106が生成した把持動作データをロボット107に送ることにより、ロボット107の把持動作を制御する。
情報取得部104は、カメラ101が取得した撮像画像を用いて、対象物体103の物体情報を取得する。本実施形態において、情報取得部104は複数の種類の物体情報を取得する。複数の種類の物体情報とは、物体詳細情報、物体概略情報および物体手がかり情報である。情報取得部104は、物体詳細情報、物体概略情報および物体手がかり情報を取得するための処理(計算)を実行する。物体詳細情報、物体概略情報および物体手がかり情報は、対象物体103の認識精度(撮像精度)に応じて段階的に設定される。物体詳細情報、物体概略情報および物体手がかり情報の詳細は後述する。
把持モード選択部105は、対象物体103の撮像画像に基づいて、複数の把持モードから1つの把持モードを選択する。複数の把持モードは、対象物体103の把持精度に対応している。本実施形態では、把持モード選択部105は、4つの把持モードの中から1つの把持モードを選択する。4つの把持モードは、詳細位置決め把持モード、概略位置決め把持モード、位置範囲指定把持モード、およびランダム把持モードである。詳細位置決め把持モードは、対象物体103の撮像画像から対象物体103の詳細な情報が取得(認識)できた場合に選択される。概略位置決め把持モードは、撮像画像から対象物体103の概略情報が取得できた場合に選択される。位置範囲指定把持モードは、撮像画像から対象物体103の手がかりとなる情報が取得できた場合に選択される。ランダム把持モードは、対象物体103の詳細な情報、概略情報、手がかり情報が取得できなかった場合に選択される。各把持モードの詳細は後述する。4つの把持モードは、対象物体103の4段階の把持精度に対応して設定されている。
把持動作生成部106は、把持モード選択部105が選択した把持モードに基づいて、対象物体103を把持するためのロボット107の把持動作データを生成する。把持動作データは、ロボット107の把持動作を規定するデータである。
ロボット107は、ロボットアーム108とロボットハンド109とベース部113とを有する。ロボットアーム108は、例えば、多関節アームである。ロボットハンド109は、ロボットアーム108の先端に取り付けられている。ロボットハンド109は、対象物体103を把持する把持部(エフェクタ)である。図1のロボットハンド109は、二本指の標準的なロボットハンドである。ロボット107は、さらに、ロボットアーム108を駆動するサーボモータ(図示せず)と、当該サーボモータの角度位置を検出するエンコーダ(図示せず)等を有する。ロボット107は、把持動作生成部106で生成された把持動作データ(コマンド)に従って動作し、対象物体103を把持する。ロボットアーム108の基部は、ベース部113に取り付けられている。ベース部113は、ロボットアーム108を支持する架台である。
(処理フロー)
図2は、本実施形態のロボット107がカメラ101により撮像した対象物体103の撮像画像を用いて、対象部品(対象物体)の物体情報を取得して把持を行う動作を説明するフローチャートである。以下、図2に基づいて、ロボット制御装置114の動作を説明する。図2のフローチャートは、例えば、ロボット107の電源がオンにされると開始する。
S201において、カメラ101は、対象物体103を上方から撮影し、撮像画像を取得する。
S202において、情報取得部104は、S201で取得した撮像画像を用いて、物体情報(物体詳細情報、物体概略情報、物体手がかり情報)を取得する。物体詳細情報は、対象物体103の正確な位置および姿勢を表す(特定する)情報である。つまり、物体詳細情報は、対象物体103の詳細な位置および姿勢を特定できる情報である。物体概略情報は、対象物体103の取り得る位置および姿勢の範囲を示す情報である。つまり、物体概略情報は、対象物体103の範囲付きの位置および姿勢を表す情報である。物体手がかり情報は、所定の領域内において対象物体103が存在することを示す情報である。つまり、物体手がかり情報は、対象物体103の存在範囲を示す位置範囲情報である。本実施形態では、1つのステップ(S202)において、複数の物体情報(物体詳細情報、物体概略情報、物体手がかり情報)を取得する。
S202で物体情報を取得する際、情報取得部104は、対象物体103の撮像画像の走査を行い、撮像画像と背景画像との差分を取ることにより、差分画像を求める。また、情報取得部104は、差分画像中における、画素の輝度値が0よりも大きい画素の画素数mDを検出(算出)する。さらに、情報取得部104は、対象物体103の正規化画像を取得し、正規化画像に対してテンプレートマッチングを行い、最小マッチング誤差eminを求める。S202における物体情報の取得処理(差分画像の取得、画素数の検出、正規化画像の取得等)の詳細については、図3を用いて後述する。
S203において、把持モード選択部105は、S202で求めた最小マッチング誤差eminと予め設定した閾値epreciseとの比較を行う。最小マッチング誤差eminが閾値epreciseよりも小さい場合(S203:YES)は、対象物体103の詳細な情報(正確な位置および姿勢)が撮像画像から認識(検出)できたと判定してS204へ進む。最小マッチング誤差eminが閾値eprecise以上の場合(S203:NO)は、対象物体103の詳細な情報が撮像画像から認識(検出)できないと判定してS207へ進む。S202で最小マッチング誤差eminと閾値epreciseとの比較を行うことにより、実際に認識できる対象物体103の情報の精度が高いか否かを判定している。精度が高いとは、対象物体103の位置および姿勢を詳細に特定できるという意である。
S204において、把持モード選択部105は、把持モードとして詳細位置決めモードを選択する。詳細位置決めモードでは、後述するように、ロボットハンド109の目的位置は、対象物体103の正確な位置および姿勢に基づいて決定される。以下の記載において「位置および姿勢」は「位置姿勢」と称する。
S205において、把持動作生成部106は、詳細位置決めモードで把持動作O1を計算し、ロボット107に出力する。カメラ101の座標系上におけるロボットハンドの初期位置姿勢をR0とし、目標位置姿勢をR1とすると、初期位置姿勢R0および目標位置姿勢R1は以下の(1)式で表される。把持動作O1は把持動作データと称してもよい。
Figure 2017087326
ここで、Rpreciseは、S202で求めた物体詳細情報(対象物体103の正確な位置姿勢)を示す。Rhは、対象物体103の座標系を基準としたときの、ロボットハンド109の把持位置姿勢を示す。Rhは、対象物体103の位置姿勢を計測した環境下で、適切に対象物体103を把持可能な位置姿勢を予め対象物体103の座標系で設定したものである。把持動作O1は、時系列的に初期位置姿勢R0と目標位置姿勢R1の間を繋ぐ位置姿勢Rの集合として、初期位置姿勢R0と目標位置姿勢R1を用いて以下の(2)式で表される。
Figure 2017087326
ここで、lは初期位置姿勢R0と目標位置姿勢R1の間の分割数を示す。なお、それぞれの位置姿勢Rは4×4の行列表現を用いているが、(2)式の実際の姿勢の補完計算は、正規直交性を維持するためにクォータニオン表現を用いて実施する。
このように、把持動作生成部106は、情報取得部104が取得した物体情報であって、把持モード選択部105が選択した把持モードに対応する情報である物体詳細情報Rpreciseを用いて、ロボット107の把持動作を規定する把持動作データを生成する。
S206において、ロボット107は、把持動作生成部106が生成した把持動作O1を実行して、対象物体103を把持する。ロボット107が対象物体103を把持すると、このフローチャートは完了する。なお、ロボット107は、対象物体103を把持した後、対象物体103を所定の位置(部位)に組み付ける。
S203の判定がNOの場合、S207において、把持モード選択部105は、S202で求めた最小マッチング誤差eminと予め設定した第2の閾値eroughとの比較を行う。最小マッチング誤差eminが第2の閾値eroughよりも小さい場合(S207:YES)、把持モード選択部105は、対象物体103の概略情報が撮像画像から認識(検出)できたと判定してS208へ進む。最小マッチング誤差eminが第2の閾値erough以上の場合(S207:NO)は、把持モード選択部105は、撮像画像から対象物体103の概略情報(対象物体の概略の位置姿勢)が認識・検出できないと判定してS210へ進む。
S208において、把持モード選択部105は、把持モードとして概略位置決めモードを選択する。概略位置決めモードでは、後述するように、ロボットハンド107の目的位置は、対象物体103の概略の位置姿勢に基づいて決定される。
S209において、把持動作生成部106は、概略位置決めモードで把持動作O2を計算し、ロボット107に出力する。カメラ101の座標系上における目標位置姿勢をR2とすると、目標位置姿勢R2は以下の(3)式で表される。
Figure 2017087326
ここで、Rroughは、S202で求めた物体概略情報(対象物体103の範囲付きの位置姿勢)を示す。αとβは、それぞれ後述する位置と姿勢のばらつきに対する重みづけ係数を示す。xrand、yrand、zrand、λrandは、それぞれ任意の0〜1の値を持つ実数乱数を示す。本ステップにおける(3)式のRroughは(1)式のRpreciseよりも正確な物体情報ではない。したがって、本実施形態では、物体概略情報Rroughを用いる場合、誤った把持位置を取得するのを防ぐために、Rvによって所定のばらつきを与えて目標位置姿勢R2を求める。把持動作O2は、時系列的に初期位置姿勢R0と目標位置姿勢R2の間を繋ぐ位置姿勢Rの集合として、(2)式中のR1をR2に置き換えて生成する。本ステップ(S209)の後、S206に進み、ロボット107は、把持動作生成部106が生成した把持動作O2を実行して、対象物体103を把持する。
S207の判定がNOの場合、S210において、把持モード選択部105は、S202で求めた画像数mD(差分画像D中における、画素の輝度値が0よりも大きい画素の数)と、予め設定した画素数閾値mclueとの比較を行う。画像数mDが画素数閾値mclue以上の場合(S210:YES)、把持モード選択部105は、対象物体103の手がかり情報(対象物体が存在する位置範囲)が検出できたと判定してS211に進む。画像数mDが画素数閾値mclueよりも小さい場合(S210:NO)、把持モード選択部105は、対象物体103の手がかり情報が検出できないと判断してS213へ進む。
S211において、把持モード選択部105は、把持モードとして位置範囲指定把持モードを選択する。位置範囲指定把持モードでは、後述するように、ロボットハンド109の目的位置は、物体手がかり情報から得られた対象物体103が存在する位置範囲(領域)に基づいて決定される。
S212において、把持動作生成部106は、位置範囲指定把持モードで把持動作O3を計算し、ロボット107に出力する。この場合、カメラ101の座標系上における目標位置姿勢をR3とすると、ロボットハンド109の目標位置姿勢R3は以下の(4)式で表される。
Figure 2017087326
u、yu、δx、δyについては、図3を用いて後述する。xR3rand、yR3randは、それぞれ−1〜1で任意の値を持つ実数乱数を示す。zfixはベルトコンベア102上の対象物体103を把持するのに適切なロボットハンド109の高さを予め設定した固定値を示す。本ステップにおいては、物体手がかり情報で得られた物体の位置範囲u(xu±δx, yu±δy)の範囲内の位置をランダムに指定することで、目標位置姿勢R3を生成する。把持動作O3は、時系列的に初期位置姿勢R0と目標位置姿勢R3の間を繋ぐ位置姿勢Rの集合として、(2)式中のR1をR3に置き換えて生成する。本ステップ(S212)の後、S206に進み、ロボット107は、把持動作生成部106が生成した把持動作O3を実行して、対象物体103を把持する。
S210の判定がNOの場合、S213において、把持モード選択部105は、把持モードとしてランダム把持モードを選択する。ランダム把持モードでは、後述するように、ロボットの目的位置(ロボットハンドの移動先位置)は、物体情報を用いずに決定される。
S214において、把持動作生成部106は、ランダム把持モードで把持動作O4を計算し、ロボット107に出力する。カメラ101の座標系上における目標位置姿勢をR4とすると、ロボットハンド109の目標位置姿勢R4は以下の(5)式で表される。
Figure 2017087326
ここでxR4randとyR4randは、それぞれ供給部であるベルトコンベア102が存在するx方向の範囲xconveyor min〜xconveyor maxとy方向の範囲yconveyor min〜yconveyor maxの中で任意の値を持つ実数乱数を示す。本ステップにおいては、把持動作生成部106は、対象物体103の位置姿勢を用いない。把持動作生成部106は、供給部全体の範囲(図1のベルトコンベア102の範囲内で且つカメラ101の撮像範囲112に入っている部分)内の位置をランダムに指定することで、目標位置姿勢R4を生成する。把持動作O4は、時系列的に初期位置姿勢R0と目標位置姿勢R4の間を繋ぐ位置姿勢Rの集合として、(2)式中のR1をR4に置き換えて生成する。本ステップ(S214)の後、S206に進み、ロボット107は、把持動作生成部106が生成した把持動作O4を実行して、対象物体103を把持する。
このように、S201〜S214の動作を実施することで、ロボット107を用いて対象物体103の把持を適切に行うことが出来る。ロボット107は、対象物体103を把持した後、対象物体103を所定の位置(部位)に組み付ける。
(物体情報取得処理)
次に、S202の物体情報取得処理の詳細について、図3のフローチャートを用いて説明する。図3のフローチャートの説明は、図4〜図8を参照して行う。図3に示した各ステップ(S301〜S308)は、情報取得部104が実行する。
S301において、情報取得部104は、撮像画像の走査を行い、背景画像との差分を計算して差分画像Dを取得する。
図4は、差分画像Dの取得を説明する図である。図4(a)に示すように、対象物体103が存在しない状態で撮影した背景画像Bを予め作成(用意)する。背景画像は、図1のベルトコンベア102の上部の画像である。図4(b)は、現在の撮像画像Cを示す。つまり、図1の状態で撮像した画像が撮像画像Cである。対象物体103がベルトコンベア102に載置されている。図4(c)は差分画像Dを示す。背景画像Bと撮像画像Cとの間で(6)式の様に差分を取り、対象物体103を示す画素のみを抽出することにより、差分画像Dを求めることができる。
Figure 2017087326
ここで、Ib、Icおよび Idはそれぞれ背景画像B、撮像画像Cおよび差分画像Dを構成する各画素の輝度値を示す。また、Itは差分画像を求めるために使用する輝度差の閾値を示す。撮像画像の全ての画像を走査することにより、(6)式の計算を撮像画像の全ての画素に適用し、差分画像Dを求める。
図5は、差分画像Dの対象物体103の重心gと、対象物体103の長辺方向を示す直線hとを示す図である。直線hは、対象物体103の重心gを通っており、対象物体103の主軸であると言える。
S302において、情報取得部104は、撮像画像中における対象物体103の位置を規定する重心g(xg, yg)と主軸hとを計算する。図5は、対象物体103の差分画像Dにおける重心g(xg, yg)と主軸hとを示している。対象物体103の重心gは、以下の(7)式で表される。
Figure 2017087326
ここで、xdとydは、差分画像D中の、画素の輝度値が0よりも大きい画素dの各位置(x座標位置とy座標位置)を示し、mDは画素数を示す。また、主軸となる直線hは、以下の(8)式で表される。図5の横方向がx方向であり、縦方向がy方向である。
Figure 2017087326
S303において、情報取得部104は、対象物体103のテンプレートマッチングによる認識が可能となるように、差分画像Dの各画素位置、回転およびスケールの正規化を行い、図6に示す正規化画像Nを取得する。図6の横方向がx方向であり、縦方向がy方向である。正規化画像を構成する各画素n(xn, yn)は、以下の(9)式で表される。
Figure 2017087326
ここでxdmax、xdminは、それぞれ差分画像D中における、画素の輝度値が0よりも大きい画素dの全てのxdの中での最大値と最小値を示す。画素の輝度値が0よりも大きい画素dの全ての画素について(9)式を適用することで、正規化画像Nを取得する。
S304において、情報取得部104は、正規化画像Nに対してテンプレートマッチングを行い、現在の対象物体103の配置姿勢を認識する。本実施形態では、図7(a)、図7(b)および図7(c)に示すように、対象物体103の配置姿勢は3種類存在するとする。3種類の配置姿勢を予め上方から(図7の矢印701の方向から)観察し、S301〜S303と同様の手順を用いて正規化画像Nを生成し、これら正規化画像Nを各姿勢のテンプレートT1〜T3とする。図8(a)、図8(b)および図8(c)は、図7(a)、図7(b)および図7(c)にそれぞれ対応するテンプレートT1、T2、T3を示す。各テンプレートを用いて、以下の(10)式でテンプレートマッチングを行う。
Figure 2017087326
ここで、Inは正規化画像Nの各画素の輝度値を示し、ItkはテンプレートTkの各画素の輝度値を示し、mNは正規化画像の全画素数を示し、ekはテンプレートTkに対するマッチング誤差を示す。求めたe1〜e3の中から最小マッチング誤差eminを選択し、最小マッチング誤差eminに対応するテンプレートTkを用いてマッチング結果を出力する。
S305において、情報取得部104は、最小マッチング誤差eminに対応するテンプレートTkに対する、撮像画像中の対象物体103のスケールsを計算する。スケールsは、以下の(11)式で求められる。
Figure 2017087326
ここで、sdはS303の(4)式において求めた数値であり、seminは最小マッチング誤差eminに対応するテンプレートTkを予め計算する際に求めたsdに相当する数値である。
S306において、情報取得部104は、物体詳細情報として、対象物体103の三次元位置姿勢を示すRpreciseを計算して出力する。Rpreciseは、以下の(12)式で求められる。
Figure 2017087326
ここで、fはカメラ101の焦点距離を示し、ztkは最小マッチング誤差eminに対応するテンプレートTkの撮像時における対象物体103のz方向位置(z座標位置)を示す。焦点距離fは、カメラ101のキャリブレーションを行うことにより、予め取得しておく。ztkは、テンプレートTkの撮像時に実測を行うことにより、予め取得しておく。
S307において、情報取得部104は、物体概略情報として、対象物体の三次元の範囲つきの位置姿勢を示すRroughを計算して出力する。Rroughは以下の(13)式で求められる。
Figure 2017087326
ここで、αは対象物体103の三次元位置のばらつきと、最小マッチング誤差eminとを関連付けるための重みづけ係数を示す。βはz軸回転方向のばらつきと最小マッチング誤差eminとを関連付けるための重みづけ係数を示す。係数α、βは、予め対象物体103を様々な位置、姿勢に配置してテンプレートマッチングを実施して、最小マッチング誤差eminと位置、姿勢のばらつきとの間の数値変化を求めて、設定しておく。
S308において、情報取得部104は、物体手がかり情報として、対象物体103の存在範囲を示す位置範囲uを計算して出力する。位置範囲uは、以下の(14)式で求められる。
Figure 2017087326
ここでydmaxとydminは、それぞれ差分画像D中における、画素の輝度値が0よりも大きい画素dの全てのydの中での最大値と最小値を示す。
上記したようにロボット107の把持動作を制御することによって、本実施形態のロボット制御装置114は、撮像画像から得られた対象物体103の情報の精度(撮像精度)に応じて把持モードを選択して、対象物体103の把持を行うことが出来る。これにより、悪条件下で対象物体103の詳細な(正確な)情報が取得できない場合にも、対象物体103の把持の成功率を高めることが出来る。
本実施形態では、例えば、ロボット107が対象物体103を特定位置に嵌め込む動作を行う場合、対象物体103の詳細な情報が取得(認識)できたならば(S203:YES)、詳細位置決め把持モードを選択する。そうすることにより、素早く対象物体103の嵌め込み動作を行うことが出来る。この場合、対象物体103の詳細な(正確な)位置および姿勢が認識できているので、対象物体103を再把持することはない。また、対象物体103の詳細情報が認識(検出)できず概略情報が検出できた場合(S207:YES)は、概略位置決め把持モードを選択して対象物体103の把持を行う。この場合、一旦ロボットハンド109で対象物体103を把持して、別の場所(例えば、再把持のための載置台)に対象物体103を移送する。そして、対象物体103を載置台に置いて、再把持を行う。再把持の後、対象物体103の嵌めこみ動作を行う。例えば、この載置台の近傍には、対象物体103の詳細な位置および姿勢を撮像できる機器が設けられており、対象物体103の詳細な位置および姿勢を検出した後、対象物体103の把持を速やかに行うことができるようになっている。対象物体103の詳細情報と概略情報が検出できず、手がかり情報が検出できた場合(S210:YES)は、位置範囲指定把持モードを選択して把持を行う。この場合も、一旦ロボットハンド109で対象物体103を把持して、再把持のための載置台等に対象物体103を移送する。そして、対象物体103を載置台に置いて、再把持を行う。再把持の後、対象物体103の嵌めこみ動作を行う。このように、対象物体103の位置姿勢を正しく認識できない場合にも、異常停止することなく嵌め込み動作を行えるため、対象物体103の把持の成功率を高めることが出来る。
従来のロボット装置は、カメラからの撮像画像を用いて、対象物体の詳細な位置姿勢を認識(検出)し、対象物体の詳細な位置姿勢に基づいて対象物体の把持を行っている。したがって、撮影環境や対象物体の認識条件(状態)が悪い場合には、正確な(詳細な)位置姿勢の認識に失敗し、対象物体の把持が出来なくなる可能性がある。これに対し、本実施形態では、対象物体の詳細な位置姿勢に対応する物体詳細情報だけでなく、大まかな位置姿勢である物体概略情報や、対象物体が存在する手がかりを示す物体手がかり情報を同時に(1つのステップS202で)取得するための処理を行う。そして、対象物体103の撮像画像に基づいて(実際に認識できる対象物体103の情報の精度に基づいて)把持モードを選択し、当該把持モードに対応する物体情報を用いて、対象物体103の把持を行う。よって、悪条件下で対象物体の詳細な情報が取得できない場合にも、対象物体の把持の成功率を高めることが出来る。
なお、上記の説明において、カメラ101と、情報取得部104と、把持モード選択部105と、把持動作生成部106と、ロボット107とは、ライン110により有線接続されているとしたが、無線接続されてもよい。
実施形態2
本発明は、上記した実施形態1以外の形態でも実施することができる。実施形態1においては、情報取得部104は1つのステップ(S202)で3種類の物体情報(物体詳細情報、物体概略情報、物体手がかり情報)の取得処理を行っている。そして、実施形態1では、物体情報の取得処理(S202)の後、実際に認識できた対象物体103の情報の精度(撮像精度)に基づいて把持モードを選択(決定)している。実施形態2では、情報取得部104は、1つのステップで1種類の物体情報を取得する。つまり、実施形態2では情報取得部104における1ステップの処理負荷を低減させる。これによって、最短で動作する場合となる、詳細位置決めモードを選択した際の動作(ロボットシステム全体としての動作)を高速化することができる。
本実施形態で用いるロボットシステムの構成は、実施形態1(図1)で説明したものと同様である。したがって、以下の記載においては、実施形態1と同じ参照符号を使用する。実施形態2においても、カメラ101により対象物体103を撮像し、情報取得部104が当該撮像画像を用いて、対象物体103の物体情報を取得し、ロボット107が対象物体103の把持を行う。
図9は、本実施形態のロボット制御装置114の処理を説明するフローチャートである。以下に、図9のステップに従って動作説明を行う。
S901において、カメラ101は、対象物体103を上方から撮影し、対象物体103の撮像画像を取得する。S901は、実施形態1におけるS201と同じであるので詳細な説明は省略する。
S902において、情報取得部104は、S901で取得した撮像画像を用いて物体詳細情報を取得する。情報取得部104は、実施形態1におけるS301〜S306(図3)と同様な手順により物体詳細情報を取得する。このとき、実施形態1と同じように(S301、S304)、差分画像Dと最小マッチング誤差eminを求める。
S903において、把持モード選択部105は、S902で求めた最小マッチング誤差eminと予め設定した第1の閾値epreciseとの比較を行う。最小マッチング誤差eminが第1の閾値epreciseよりも小さい場合(S903:YES)は、撮像画像から対象物体103の詳細な情報(正確な位置と姿勢)が認識できたと判定してS904へ進む。最小マッチング誤差eminが第1の閾値eprecise以上の場合(S903:NO)は、対象物体103の詳細情報が認識(検出)できなかったと判定してS907へ進む。
S904〜S906において、把持モード選択部105が把持モード選択を行い、把持動作生成部106が把持動作を生成し、ロボット107が物体把持動作を行う。S904〜S906の内容は、実施形態1におけるS204〜206と同様であるので、説明を省略する。
S903の判定がNOの場合、S907において、情報取得部104は、S901で取得した撮像画像を用いて物体概略情報を取得する。情報取得部104は、実施形態1におけるS307と同様な処理により物体概略情報を取得する。
S908において、把持モード選択部105は、S902で求めた最小マッチング誤差eminと予め設定した第2の閾値eroughとの比較を行う。最小マッチング誤差eminが第2の閾値eroughよりも小さい場合(S908:YES)は、対象物体103の概略情報が認識(検出)できたと判定してS909へ進む。最小マッチング誤差eminが第2の閾値erough以上の場合(S908:NO)は、対象物体103の概略情報が認識できなかったと判定してS911へ進む。
S909および910において、把持モード選択および把持動作生成を行う。S909の内容は実施形態1におけるS208と同様であり、S910の内容は実施形態1における209と同様であるので、説明は省略する。S910の後、S906に進み、物体把持動作を実行する。
S908の判定がNOの場合、S911において、情報取得部104は、S901で取得した撮像画像を用いて物体手がかり情報を取得する。情報取得部104は、実施形態1におけるS308と同様な処理により物体手がかり情報を取得する。
S912において、把持モード選択部105は、S902で求めた差分画像D中における、画素の輝度値が0よりも大きい画素の画素数mDと、予め設定した閾値である画素数閾値mclueとの比較を行う。画素数mDが画素数閾値mclue以上の場合(S912:YES)は、対象物体103の手がかりとなる情報が認識できたと判定してS913に進む。画素数mDが画素数閾値mclueよりも小さい場合(S908:NO)は、対象物体103の手がかりとなる情報が認識できなかったと判定してS915へ進む。
S913およびS914において、把持モード選択および把持動作生成を行う。S913の内容は実施形態1におけるS211と同様であり、S914の内容は実施形態1における212と同様であるので、説明は省略する。S914の後、S906に進み、物体把持動作を実行する。
S908の判定がNOの場合、S915において把持モード選択部105がランダム把持モードを選択し、S916において把持動作生成部106が把持動作を生成する。S915の内容は実施形態1におけるS213と同様であり、S916の内容は実施形態1における214と同様であるので、説明は省略する。S916の後、S906に進み、物体把持動作を実行する。
このように、S901〜916の動作を実施することで、ロボット107を用いて対象物体103の把持を行うことが出来る。
上記したようにロボット107の把持動作を制御することによって、本実施形態では、各物体情報の取得を逐次(同時ではなく順次)行っている。物体情報を逐次取得することにより、例えば、物体詳細情報を取得した後に、対象物体103の詳細な情報が認識できたならば(S903:YES)、物体概略情報の取得(S907)は行わないし、物体手がかり情報の取得(S911)も行わない。また、物体概略情報を取得した後に、対象物体103の概略情報が認識できれば(S908:YES)、物体手がかり情報の取得(S911)は行わない。つまり、実施形態2では各物体情報の取得を逐次行うことにより、実施形態1よりも低い処理負荷で所望の物体情報を取得することができる場合がある。この場合、情報取得部104における処理時間を短縮することができる。
実施形態2では、各物体情報の取得を逐次行うので、情報取得部104において1ステップで1種類ずつ物体情報の取得を行うことになる。これにより、1ステップの処理負荷を低減させている。1ステップの処理負荷を低減することができれば、1ステップにおける情報取得部104の処理時間を短縮することができる。
本実施形態においても、物体情報の取得を行い、撮像画像に基づいて把持モードを選択(決定)して、対象物体103の把持を行うことが出来る。したがって、実施形態1の効果に加えて、詳細位置決め把持モード時及び概略位置決め把持モード時における動作を高速化することができる。特に、対象物体の撮影環境が良好で、詳細位置決め把持モードを選択する場合が多いロボットにおいては、本実施形態がより好適である。
実施形態3
本発明は上記した実施形態1および2に限定されない。実施形態1においては、情報取得部104で複数種類の物体情報の取得を行い、実際に得られる(認識できる)対象物体103の情報の精度に基づいて把持モードを決定している。このようにせずに、情報取得部104は物体詳細情報の取得のみを行い、撮像画像に基づいて把持モードを選択するという構成にしてもよい。この構成のロボット制御装置を実施形態3として説明する。実施形態3で用いるロボットシステムの構成は、実施形態1(図1)で説明したものと同様である。したがって、以下の記載においては、実施形態1と同じ参照符号を使用する。実施形態3においても、カメラ101により対象物体103を撮像し、情報取得部104が当該撮像画像を用いて、対象物体103の物体情報を取得し、ロボット107が対象物体103の把持を行う。実施形態3では物体詳細情報のみを取得し、撮像画像に基づいて把持モードを選択することによって、ロボット107の動作の高速化が可能になる。
図10は、本実施形態のロボット制御装置114の処理を説明するフローチャートである。以下に、図10のステップに従って動作説明を行う。
S1001において、カメラ101は、対象物体103を上方から撮影し、撮像画像を取得する。S1001は、実施形態1のS201と同様のステップである。
S1002において、情報取得部104は、S1001で取得した撮像画像を用いて物体詳細情報を取得する。具体的には、情報取得部104は、実施形態1におけるS301〜S306と同様の処理を行う。このとき、実施形態1と同じように(S304)、最小マッチング誤差eminを求める。
S1003において、把持モード選択部105は、S1002で求めた最小マッチング誤差eminと予め設定した閾値epreciseとの比較を行う。最小マッチング誤差eminが閾値epreciseよりも小さい場合(S1003:YES)は、対象物体103の詳細情報が認識(取得)できたと判定してS1004へ進む。最小マッチング誤差eminが閾値eprecise以上の場合(S1003:NO)は、対象物体103の詳細情報が認識できていないと判定してS1007へ進む。
S1004〜1006において、把持モード選択部105が把持モード選択を行い、把持動作生成部106が把持動作を生成し、ロボット107が物体把持動作を行う。S1004〜S1006の内容は、実施形態1におけるS204〜206と同様であるので、説明を省略する。
S1003の判定がNOの場合、S1007において、把持モード選択部105がランダム把持モードを選択し、S1008において把持動作生成部106が把持動作を生成する。S1007の内容は実施形態1におけるS213と同様であり、S1008の内容は実施形態1における214と同様であるので、説明は省略する。S1008の後、S1006に進み、物体把持動作を実行する。
このように、S1001〜1008の動作を実施することで、ロボット107を用いて対象物体103の把持を行うことが出来る。
上記したように、本実施形態では、物体詳細情報の取得処理のみを行い、実際に得られる対象物体103の情報の精度(撮像精度)に基づいて(S1003)把持モードを選択して、対象物体の把持を行う。これにより、情報取得部104における処理時間が短くなり、かつ把持モード選択部105におけるステップの分岐も大幅に削減される(図2と図10を比較すると、図10ではS207とS210に相当するステップがない)。したがって、実施形態1の効果に加えて、ロボット制御装置114の処理速度やロボット107の動作全体が高速化する。対象物体103が把持しやすく、ランダム把持モードにおいても把持が成功しやすいようなロボットにおいては、本実施形態がより好適である。
変形例
本発明は上記した実施形態1〜3に限定されない。例えば、上記した実施形態において以下のような変更や追加をしてもよい。
(ロボットの動作が実施形態1とは異なる変形例)
実施形態1におけるロボット107は、対象物体103を把持した後に、対象物体103を所定位置(部位)に組み付けるとしたが、ロボット107の動作はこれに限定されない。例えば、撮像した物体情報の情報の精度に応じて選択した把持モードによって対象物体103を把持した後、ロボット107は、対象物体103の配置位置を変更するようにしてもよい。
具体的には、対象物体103の詳細情報が得られた(認識できた)場合には、ロボット制御装置114は、対象物体103が正常な状態の物体であると判定し、正常物体用のベルトコンベア(図示せず)に対象物体103を移送配置する。対象物体103詳細情報が得られず、概略情報が得られた場合には、ロボット制御装置114は、対象物体103に問題がある可能性があると判定し、ロボット107によって、検査用のベルトコンベア(図示せず)に対象物体103を移送配置する。対象物体103の概略情報が得られず、手がかり情報が得られた場合には、ロボット制御装置114は、対象物体103に何らかの異常があると判定し、ロボット107によって、異常物体用のベルトコンベア(図示せず)に対象物体103を移送配置する。手がかり情報も得られない場合には、ロボット制御装置114は、対象物体103を廃棄物用のベルトコンベア(図示せず)に移送配置するようにロボット107を制御する。このように、取得できた対象物体103の情報の精度に応じた把持モードを選択し、さらにその後の配置位置(移送先)を変更することで、対象物体103の状態に適した動作を行うことが出来る。
(三次元撮像センサを用いる変形例)
実施形態1〜3におけるカメラ101は、対象物体103を上方から撮影し、物体計測値である撮像画像を取得するので、上記した実施形態においてカメラ101は計測部であるが、本発明の計測部は、カメラ101に限定されない。本発明の計測部は、対象物体についての物体情報(位置、姿勢、画素、輝度など)を計算するための物体計測値が取得できれば、どのようなものであってもよい。例えば、物体計測値として対象物体の画素単位の輝度値でなく、計測部からの距離値を取得出来るTime-of-Flight形式の三次元撮像センサを計測部として(カメラ101の代わりに)用いてもよい。三次元撮像センサを用いることで、物体詳細情報としてより正確な位置姿勢を求めることができる。また、三次元撮像センサを用いることで、物体手がかり情報としても輝度差分でなく距離差分を用いることができるので、より正確な物体手がかり情報を得ることが出来るようになる。
(画像センサ以外の計測部を用いる変形例)
ロボット制御装置またはロボットシステムの計測部は、画像センサに限定されない。例えば、ロボットシステムの計測部は、超音波を用いた測定や、探査針を用いた接触測定により計測部からの距離を計測し、上記の三次元撮像センサと同様の物体計測値を得てもよい。超音波や接触測定を用いると、対象物体表面の光の反射率に依存しない計測が可能となるため、透過性のある対象物体を把持する場合などに好適である。
本発明のロボットシステムの計測部は、対象物体についての物体情報を計算するための物体計測値が取得できれば、どのようなものであってもよい。
(詳細位置決め把持モードを省略した変形例)
実施形態1および2における情報取得部104では、3つの物体情報(物体詳細情報、物体概略情報、物体手がかり情報)を求めている。しかし、ロボット107が扱う対象物体の形状・サイズ等やロボット107の作業目的によっては、必ずしも3つの物体情報を求める必要は無い。例えば、対象物体の把持が容易で、かつ把持後に正確な組み付けでなく、単純な平置きを行うような作業の場合は、物体詳細情報を取得せず、より簡易な物体概略情報と物体手がかり情報とを取得するようにしてもよい。あるいは、物体詳細情報を取得せず、物体概略情報と物体手がかり情報のいずれかを作業目的等に応じて選択的に取得するようにしてもよい。この場合、把持モードも物体情報に対応して、詳細位置決め把持モードでなく、概略位置決め把持モード、位置範囲指定把持モードを選択して把持動作を生成する。このように、対象物体の形状・サイズ等とロボット107の作業目的等に応じて物体詳細情報が必要ないと考えられる場合には、物体詳細情報の計算(取得)を省略することで、情報取得部104における処理の高速化を図ることが出来る。
このような構成のロボットシステムにするには、例えば、図1のカメラ101と情報取得部104との間に、制御部を設ける。そして、制御部は、対象物体103の形状・サイズ等および/またはロボットの作業目的に基づいて、情報取得部104に対して、物体詳細情報の取得処理をしないように指示する。つまり、制御部は、3つの物体情報のうち不要な物体情報を検出する。この検出結果に基づいて、制御部は、例えば、物体詳細情報の取得処理を省略するための制御を行う。その結果、図2のS203〜S205は実行されなくなる。図2のS202の後、S203に進まず、S207に進むことになる。ロボットの作業目的は、予め、制御部に入力されているとする。
(物体詳細情報の算出手法を変えた変形例)
実施形態1〜3における情報取得部104では、物体詳細情報を算出するために、重心位置gと長辺方向の主軸hを求めて正規化を行い、テンプレートマッチングを計算しているが、本発明はこのような算出手法に限定されない。対象物体103の正確な位置姿勢を求めることができる手法であれば、正規化処理やテンプレートマッチング以外の手法を用いてもよい。例えば、対象物体が円形状に近く、長辺の主軸が安定して求められない場合は、対象物体の画像の正規化が困難になる。このような場合には、対象物体の回転方向に依存しないSIFT(Scale−Invariant Feature Transform)などの画像特徴量を検出、記録しておき、正規化を行わずに直接マッチングするようにしてもよい。これにより、より多様な対象物体の形状にも対応できるようになる。
(物体概略情報の算出手法を変えた変形例)
実施形態1〜3における情報取得部104では、物体概略情報を算出するために、テンプレートマッチング時の最小マッチング誤差に重みづけを掛けて対象物体103の位置・姿勢にばらつきを与えているが、本発明はこのような算出手法に限定されない。例えば、対象物体の画像の正規化が困難な場合は、SIFTによる上位のマッチング候補と、それに対応する位置姿勢をランダムに選択してもよい。このとき、最小マッチング誤差eminに相当する値は選択した上位マッチング結果の誤差を用いればよい。これにより、より多様な対象物体の形状に対応できるようになる。さらに、ランダムに上位のマッチング候補の位置姿勢を取ることで、誤認識による局所解を用いて、誤った位置姿勢を選択し続けるという問題を回避することができる。
(物体手がかり情報の算出手法を変えた変形例)
実施形態1〜3における情報取得部104は、物体手がかり情報を算出する際に、差分画像Dが存在する領域を用いているが、本発明はこれに限定されない。例えば、背景の輝度と対象物体の輝度が近い場合には、輝度差分に変わって輝度分散値、輝度エッジや輝度コーナの位置、数などの値を用いて物体手がかり情報を求めてもよい。ベルトコンベアなどの背景画像の輝度は均一な値であるのに対し、対象物体は相対的に複雑な形状を有し、輝度分散、輝度エッジ、輝度コーナを多く有することが予想される。このように、対象物体が有すると予想できる値が存在する位置範囲を求めることで物体手がかり情報とすることが出来る。
また、前記した三次元撮像センサを用いる場合は、距離差分以外にも、対象物体の形状に応じて最近傍距離、近傍領域の位置、面積、距離分散値、距離エッジ、距離コーナの位置、数などの値を用いて物体手がかり情報を求めてもよい。三次元撮像センサからベルトコンベアなどの背景までの距離は均一な距離であるのに対し、対象物体は相対的に複雑な形状を有し、距離分散、距離エッジ、距離コーナを多く有することが予想される。また、三次元撮像センサから対象物体までの距離は、三次元撮像センサからベルトコンベアまでの距離よりも近距離となるため、その最近傍位置、もしくは近傍領域には対象物体が存在することが予想される。このように、対象物体が有すると予想できる値が存在する位置範囲を、物体手がかり情報とすることが出来る。
あるいは、対象物体の位置部分に貼付されている特定のバーコードや、対象物体に特有の模様や形状を物体手がかり情報としてもよい。対象物体がこれらの固有の特徴を有する場合には、より良好に物体手がかり情報を取得することが出来る。
本発明のロボット制御装置の情報取得部は、対象物体についての物体情報が計算できるものであれば、どのようなものであってもよい。
(把持部を変えた変形例)
実施形態1〜3におけるロボットの把持部は、図1に示す二本指の標準的なロボットハンド109であるが、本発明はこれに限定されない。例えば、ロボットハンドは、様々な形状の対象物体を、特定の姿勢以外でも同一動作で把持できるようなユニバーサルハンドであってもよい。ユニバーサルハンドは、例えば、薄いゴム製の袋に粉体を詰め、内部の空気をポンプで吸い出すことによってゴム部を硬化させて対象物体の把持を行うことができるタイプのユニバーサルハンドである。
本発明のロボットの把持部は、対象物体を任意の姿勢で把持することが可能な把持部であれば、どのようなものであってもよい。
(ハードウエア構成)
図11はロボットシステムのハードウエア構成の一例を示すブロック図である。図11に示されるように、ロボットシステムは、カメラ101と、ロボット制御装置114と、ロボット107とを有する。ロボット制御装置114は、画像処理部120、インターフェース121、CPU122、ROM123、RAM124、HDD125およびインターフェース126を有する。CPU122は、ロボット制御装置114の演算部である。ロボット制御装置114は、記憶部としてROM123とRAM124を備えている。インターフェース121、CPU122、ROM123、RAM124、HDD125およびインターフェース126は、バス127で相互接続されている。ROM123には、BIOS(Basic Input/Output System)等の基本プログラムが格納されている。RAM124は、CPU122の演算処理結果等の各種データを一時的に記憶する。HDD125は、CPU122の演算結果や外部から取得した各種データを記憶すると共に、CPU122に各種の演算処理を実行させるためのプログラム128を記憶する。CPU122は、HDD125に記憶されたプログラム128に基づいてロボット107の把持動作等を制御する。CPUは、Central Processing Unitの略である。ROMは、Read Only Memoryの略である。RAMは、Random Access Memoryの略である。HDDは、Hard Disk Driveの略である。
インターフェース121には、画像処理部120が接続されている。画像処理部120は、カメラ101から入力された撮像画像から対象物体103の位置および姿勢を求める画像処理を行い、対象物体103の位置および姿勢を示すデータをインターフェース121およびバス127を介してCPU122に送信する。もう1つのインターフェース126には、ロボット107が接続されている。CPU122は、把持動作データ生成用のプログラム128に基づいてロボットアーム109の把持動作を計算し、ロボットアームおよびロボットハンドの駆動部に指令を送信する。なお、バス127には、書き換え可能な不揮発メモリや外付けHDD等の外部記憶装置が接続されてもよい。
(コンピュータによる実施形態)
実施形態1〜3における情報取得部104、把持モード選択部105および把持動作生成部106は、それらの機能を実現するソフトウエアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給する形式で設けられてもよい。本発明の目的は、そのシステムあるいは装置のコンピュータ(またはCPUまたはMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することとなり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM、DVDなどを用いることができる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現される。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も、本発明の技術的範囲に含まれる。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれる。そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も、本発明の技術的範囲に含まれる。
(その他の変形例)
実施形態1および2ではロボット107の把持モードが4つあるとし、実施形態3では把持モードが2つであるとしたが、把持モードの数は2または4に限定されない。
本発明のロボット107の把持モード選択部は、対象物体の撮像画像に基づいて把持モードを選択するものであれば、どのようなものであってもよい。
本発明のロボット制御装置114の把持動作生成部は、選択された把持モードに従って把持動作を生成するものであれば、どのようなものであってもよい。
ロボット制御装置114は、カメラ101(または三次元撮像センサ)と、情報取得部104と、把持モード選択部105と、把持動作生成部106とにより構成さてもよい。
本発明は、上記した実施形態のうちの1つ以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。ASICは、Application Specific Integrated Circuitの略である。
101…カメラ、104…情報取得部、105…把持モード選択部、106…把持動作生成部、107…ロボット、108…ロボットアーム、109…ロボットハンド、114…ロボット制御装置

Claims (16)

  1. 対象物体を把持するロボットの動作を制御するロボット制御装置であって、
    前記対象物体の位置および姿勢に関する情報を取得する取得手段と、
    複数の把持精度に対応する複数の把持モードの中から、前記対象物体の撮像画像に基づいて、1つの把持モードを選択する選択手段と、
    前記取得手段が取得した情報であって、前記選択手段が選択した把持モードに対応する情報を用いて、前記ロボットの把持動作を規定する把持動作データを生成する生成手段と、
    を備えることを特徴とするロボット制御装置。
  2. 前記取得手段は、複数の種類の前記位置および姿勢に関する情報を取得し、
    前記生成手段は、前記取得手段が取得した複数の種類の前記位置および姿勢に関する情報の中から、前記選択した把持モードに対応する情報を用いて、前記把持動作データを生成することを特徴とする請求項1に記載のロボット制御装置。
  3. 前記取得手段は、1つの種類の前記位置および姿勢に関する情報を取得し、
    前記選択手段が前記1つの種類の位置および姿勢に関する情報に対応する把持モードを選択することができた場合には、前記生成手段は前記1つの種類の位置および姿勢に関する情報を用いて、前記把持動作データを生成し、
    前記選択手段が前記1つの種類の位置および姿勢に関する情報に対応する把持モードを選択することができなかった場合には、前記取得手段は他の種類の位置および姿勢に関する情報を取得することを特徴とする請求項1に記載のロボット制御装置。
  4. 前記取得手段は、1つの種類の前記位置および姿勢に関する情報を取得し、
    前記選択手段が前記1つの種類の位置および姿勢に関する情報に対応する把持モードを選択することができた場合には、前記生成手段は前記1つの種類の位置および姿勢に関する情報を用いて、前記把持動作データを生成し、
    前記選択手段が前記1つの種類の位置および姿勢に関する情報に対応する把持モードを選択することができなかった場合には、前記選択手段は、他の把持モードを選択することを特徴とする請求項1に記載のロボット制御装置。
  5. 前記対象物体を計測する計測手段をさらに備え、前記選択手段は前記計測手段により計測された値を用いて前記把持モードを選択することを特徴とする請求項1〜4のいずれか1項に記載のロボット制御装置。
  6. 前記位置および姿勢に関する情報は、前記対象物体の位置および姿勢を特定する情報を含むことを特徴とする請求項1〜5のいずれか1項に記載のロボット制御装置。
  7. 前記位置および姿勢に関する情報は、前記対象物体の取り得る位置および姿勢の範囲を示す情報を含むことを特徴とする請求項1〜6のいずれか1項に記載のロボット制御装置。
  8. 前記位置および姿勢に関する情報は、所定の領域内において前記対象物体が存在することを示す情報を含むことを特徴とする請求項1〜7のいずれか1項に記載のロボット制御装置。
  9. 前記撮像画像に基づいて、前記対象物体の位置および姿勢を特定することができた場合、前記選択手段は、前記対象物体の当該位置および姿勢に基づいて把持モードを選択することを特徴とする請求項6に記載のロボット制御装置。
  10. 前記撮像画像に基づいて、前記対象物体の位置および姿勢を特定することができず、前記対象物体の取り得る位置および姿勢の範囲を検出できた場合は、前記選択手段は、前記対象物体の当該取り得る位置および姿勢の範囲に基づいて把持モードを選択することを特徴とする請求項6、7または9に記載のロボット制御装置。
  11. 前記撮像画像に基づいて、前記対象物体の位置および姿勢を特定できず且つ前記対象物体の取り得る位置および姿勢の範囲を検出できず、所定の領域内において前記対象物体が存在することを検出できた場合は、前記選択手段は、所定の領域の情報に基づいて把持モードを選択することを特徴とする請求項6〜10のいずれか1項に記載のロボット制御装置。
  12. 前記選択手段が選択した把持モードが、前記取得手段が取得した情報のいずれにも対応しない場合、前記生成手段は、前記対象物体の位置および姿勢に関する情報を用いずに把持動作データを生成することを特徴とする請求項1〜11のいずれか1項に記載のロボット制御装置。
  13. 前記複数の種類の位置および姿勢に関する情報の中から、前記取得手段が取得すべき位置および姿勢に関する情報を決定する決定手段をさらに備えることを特徴とする請求項2記載のロボット制御装置。
  14. 請求項1〜13のいずれか1項に記載のロボット制御装置と、前記対象物体を把持するロボットと、を備えるロボットシステム。
  15. 対象物体を把持するロボットの動作を制御するロボット制御方法であって、
    前記対象物体の位置および姿勢に関する情報を取得する取得ステップと、
    複数の把持精度に対応する複数の把持モードの中から、前記対象物体の撮像画像に基づいて、1つの把持モードを選択する選択ステップと、
    前記取得ステップで取得した情報であって、前記選択した把持モードに対応する情報を用いて、前記ロボットの把持動作を規定する把持動作データを生成する生成ステップと、
    を有することを特徴とするロボット制御方法。
  16. コンピュータを、請求項1乃至13のいずれか1項に記載のロボット制御装置として機能させるためのコンピュータプログラム。
JP2015218215A 2015-11-06 2015-11-06 ロボット制御装置およびロボット制御方法 Active JP6711591B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015218215A JP6711591B2 (ja) 2015-11-06 2015-11-06 ロボット制御装置およびロボット制御方法
US15/298,983 US10695905B2 (en) 2015-11-06 2016-10-20 Robot control apparatus and robot control method
KR1020160146389A KR102086884B1 (ko) 2015-11-06 2016-11-04 로봇 제어 장치 및 로봇 제어 방법
CN201610963497.6A CN106945035B (zh) 2015-11-06 2016-11-04 机器人控制设备及其控制方法和机器人系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015218215A JP6711591B2 (ja) 2015-11-06 2015-11-06 ロボット制御装置およびロボット制御方法

Publications (3)

Publication Number Publication Date
JP2017087326A true JP2017087326A (ja) 2017-05-25
JP2017087326A5 JP2017087326A5 (ja) 2018-12-20
JP6711591B2 JP6711591B2 (ja) 2020-06-17

Family

ID=58668465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015218215A Active JP6711591B2 (ja) 2015-11-06 2015-11-06 ロボット制御装置およびロボット制御方法

Country Status (4)

Country Link
US (1) US10695905B2 (ja)
JP (1) JP6711591B2 (ja)
KR (1) KR102086884B1 (ja)
CN (1) CN106945035B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020121352A (ja) * 2019-01-29 2020-08-13 日本金銭機械株式会社 物体把持システム
JP2020168711A (ja) * 2019-04-03 2020-10-15 株式会社Mujin オブジェクト識別メカニズムおよびオブジェクトハンドリングメカニズムを有するロボットシステムおよびその動作方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6589847B2 (ja) * 2016-12-26 2019-10-16 株式会社ダイフク 物品積載設備
JP6880457B2 (ja) * 2017-11-14 2021-06-02 オムロン株式会社 把持方法、把持システム及びプログラム
US11314220B2 (en) 2018-04-26 2022-04-26 Liberty Reach Inc. Non-contact method and system for controlling an industrial automation machine
JP7028092B2 (ja) * 2018-07-13 2022-03-02 オムロン株式会社 把持姿勢評価装置及び把持姿勢評価プログラム
US11312014B2 (en) * 2018-09-10 2022-04-26 Kindred Systems Inc. System and method for robotic gripping utilizing dynamic collision modeling for vacuum suction and finger control
JP7467041B2 (ja) 2018-09-27 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法及びシステム
EP3646995A1 (de) * 2018-10-29 2020-05-06 Siemens Aktiengesellschaft Vollautomatisierte montage und kontaktierung elektrischer bauteile
US10369701B1 (en) 2018-10-30 2019-08-06 Mujin, Inc. Automated package registration systems, devices, and methods
DE112019000125B4 (de) 2018-10-30 2021-07-01 Mujin, Inc. Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung
KR102619004B1 (ko) * 2018-12-14 2023-12-29 삼성전자 주식회사 로봇 장치 및 로봇의 작업 기술을 학습하는 방법
JP7391571B2 (ja) * 2019-08-28 2023-12-05 キヤノン株式会社 電子機器、その制御方法、プログラム、および記憶媒体
CN111470070B (zh) * 2020-05-09 2022-03-22 清华大学 一种空间非合作目标无接触消旋辨识装置及方法
CN112614181B (zh) * 2020-12-01 2024-03-22 深圳乐动机器人股份有限公司 一种基于高亮目标的机器人定位方法及装置
KR102473296B1 (ko) * 2021-08-17 2022-12-02 박광중 픽앤플레이스 모니터링 방법, 그의 제어 장치 및 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04109815U (ja) * 1991-02-28 1992-09-24 ダイキン工業株式会社 部品供給装置
JP2013046937A (ja) * 2011-08-29 2013-03-07 Dainippon Screen Mfg Co Ltd 対象物把持装置および対象物把持方法および対象物把持プログラム
JP2014240106A (ja) * 2013-06-12 2014-12-25 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットの駆動方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3314890B2 (ja) 1993-04-23 2002-08-19 澁谷工業株式会社 物品整列装置
JP3805310B2 (ja) 2003-01-30 2006-08-02 ファナック株式会社 ワーク取出し装置
WO2005099417A2 (en) * 2004-04-12 2005-10-27 Strider Labs, Inc. System and method for computing grasps for a robotic hand with a palm
KR101003579B1 (ko) 2006-02-02 2010-12-22 가부시키가이샤 야스카와덴키 로봇 시스템
JP4481291B2 (ja) * 2006-12-01 2010-06-16 本田技研工業株式会社 ロボット、ならびにその制御方法および制御プログラム
JP4316630B2 (ja) * 2007-03-29 2009-08-19 本田技研工業株式会社 ロボット、ロボットの制御方法およびロボットの制御プログラム
JP5448326B2 (ja) 2007-10-29 2014-03-19 キヤノン株式会社 把持装置および把持装置制御方法
CN103517789B (zh) * 2011-05-12 2015-11-25 株式会社Ihi 运动预测控制装置和方法
US9014857B2 (en) * 2012-01-13 2015-04-21 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and computer-program products for generating grasp patterns for use by a robot
JP5426719B2 (ja) * 2012-05-18 2014-02-26 ファナック株式会社 ロボットシステムの動作シミュレーション装置
US20130343640A1 (en) * 2012-06-21 2013-12-26 Rethink Robotics, Inc. Vision-guided robots and methods of training them
DE102012013022A1 (de) * 2012-06-29 2014-04-24 Liebherr-Verzahntechnik Gmbh Vorrichtung zur automatisierten Handhabung von Werkstücken
JP6323993B2 (ja) 2012-08-28 2018-05-16 キヤノン株式会社 情報処理装置、情報処理方法、及びコンピュータプログラム
JP5905549B1 (ja) * 2014-09-16 2016-04-20 ファナック株式会社 バラ積みされた物品を取出す物品取出装置
JP6529302B2 (ja) * 2015-03-24 2019-06-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04109815U (ja) * 1991-02-28 1992-09-24 ダイキン工業株式会社 部品供給装置
JP2013046937A (ja) * 2011-08-29 2013-03-07 Dainippon Screen Mfg Co Ltd 対象物把持装置および対象物把持方法および対象物把持プログラム
JP2014240106A (ja) * 2013-06-12 2014-12-25 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットの駆動方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020121352A (ja) * 2019-01-29 2020-08-13 日本金銭機械株式会社 物体把持システム
JP2020168711A (ja) * 2019-04-03 2020-10-15 株式会社Mujin オブジェクト識別メカニズムおよびオブジェクトハンドリングメカニズムを有するロボットシステムおよびその動作方法
JP2020168709A (ja) * 2019-04-03 2020-10-15 株式会社Mujin ロボットシステム、ロボットシステムの方法及び非一時的コンピュータ可読媒体
JP2020168710A (ja) * 2019-04-03 2020-10-15 株式会社Mujin ロボットシステム、ロボットシステムの方法及び非一時的コンピュータ可読媒体

Also Published As

Publication number Publication date
KR102086884B1 (ko) 2020-03-09
KR20170053585A (ko) 2017-05-16
CN106945035A (zh) 2017-07-14
CN106945035B (zh) 2020-10-30
US20170129101A1 (en) 2017-05-11
JP6711591B2 (ja) 2020-06-17
US10695905B2 (en) 2020-06-30

Similar Documents

Publication Publication Date Title
JP6711591B2 (ja) ロボット制御装置およびロボット制御方法
JP6396516B2 (ja) 視覚センサのキャリブレーション装置、方法及びプログラム
JP5612916B2 (ja) 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
JP5949242B2 (ja) ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
US11094082B2 (en) Information processing apparatus, information processing method, robot system, and non-transitory computer-readable storage medium
Lambrecht Robust few-shot pose estimation of articulated robots using monocular cameras and deep-learning-based keypoint detection
JP6838833B2 (ja) 把持装置、把持方法、及びプログラム
JP2010184300A (ja) 姿勢変更システムおよび姿勢変更方法
JP7372076B2 (ja) 画像処理システム
JP6265784B2 (ja) 姿勢推定システム、プログラムおよび姿勢推定方法
JP2021079464A (ja) 設定装置、設定方法およびプログラム
CN115082550A (zh) 从对象的相机图像中定位对象的位置的设备和方法
JP6836628B2 (ja) ピッキングまたはデバンニング用対象物認識装置、ピッキングまたはデバンニング用対象物認識方法、ならびにプログラム
JP2018017610A (ja) 三次元計測装置、ロボット、ロボット制御装置、及びロボットシステム
WO2019093299A1 (ja) 位置情報取得装置およびそれを備えたロボット制御装置
US20230154162A1 (en) Method For Generating Training Data Used To Learn Machine Learning Model, System, And Non-Transitory Computer-Readable Storage Medium Storing Computer Program
WO2022172471A1 (ja) 支援システム、画像処理装置、支援方法およびプログラム
US20230419643A1 (en) Machine learning device and machine learning method
US20230390936A1 (en) Control method, recording medium, method for manufacturing product, and system
US20230415349A1 (en) Method for controlling a robot for manipulating, in particular picking up, an object
JP2022183723A (ja) 処理装置、サーボシステム、処理方法、およびプログラム
JP2021077290A (ja) 情報処理装置、情報処理方法、プログラム、システム及び物品の製造方法
JP2020110851A (ja) ピッキングシステム
JP6179267B2 (ja) 画像処理装置、ロボット制御システム、画像処理方法及びプログラム
JP2020184110A (ja) 画像処理方法、物品の製造方法、画像処理装置、ロボットシステム、プログラム、及び記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200528

R151 Written notification of patent or utility model registration

Ref document number: 6711591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151