JP2021063667A - 作業位置決定方法、ロボット制御方法、作業位置決定装置、および面状物ハンドリングシステム - Google Patents

作業位置決定方法、ロボット制御方法、作業位置決定装置、および面状物ハンドリングシステム Download PDF

Info

Publication number
JP2021063667A
JP2021063667A JP2019186983A JP2019186983A JP2021063667A JP 2021063667 A JP2021063667 A JP 2021063667A JP 2019186983 A JP2019186983 A JP 2019186983A JP 2019186983 A JP2019186983 A JP 2019186983A JP 2021063667 A JP2021063667 A JP 2021063667A
Authority
JP
Japan
Prior art keywords
edge
work position
image
position determination
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019186983A
Other languages
English (en)
Inventor
基善 北井
Motoyoshi Kitai
基善 北井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kurabo Industries Ltd
Kurashiki Spinning Co Ltd
Original Assignee
Kurabo Industries Ltd
Kurashiki Spinning Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kurabo Industries Ltd, Kurashiki Spinning Co Ltd filed Critical Kurabo Industries Ltd
Priority to JP2019186983A priority Critical patent/JP2021063667A/ja
Publication of JP2021063667A publication Critical patent/JP2021063667A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】様々な形状の対象物に対して、作業位置を決定する作業位置決定方法を提供する。【解決手段】作業位置決定方法は、面状の対象物を異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、第1画像および第2画像のそれぞれにおいて対象物のエッジの少なくとも一部を抽出するエッジ抽出工程と、抽出したエッジの少なくとも1点の三次元座標を取得する三次元座標取得工程と、三次元座標に基づいて、対象物に対する作業位置を決定する作業位置決定工程と、を含む。【選択図】図3

Description

本発明は、作業位置決定方法、ロボット制御方法、作業位置決定装置、および面状物ハンドリングシステムに関する。
布等の可撓性を有する面状の対象物を扱う作業を、ロボットを利用して自動化することが行われている。例えば、特許文献1には、三次元カメラにより撮影した画像に基づいて、タオル、またはシーツ等の布片の三次元形状を取得して、布片の角部を把持する方法が開示されている。
特開2018−114028号公報
特許文献1に記載された方法では、矩形以外の形状の対象物を取り扱うことが困難である。
そこで、本発明では、面状で様々な形状の、可撓性を有する対象物を認識して作業位置を決定する方法を提供することを課題とする。
本発明に係る作業位置決定方法は、
面状の対象物を異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、
前記第1画像および前記第2画像のそれぞれにおいて前記対象物のエッジの少なくとも一部を抽出するエッジ抽出工程と、
抽出した前記エッジの少なくとも1点の三次元座標を取得する三次元座標取得工程と、
前記三次元座標に基づいて、前記対象物に対する作業位置を決定する作業位置決定工程と、
を含む。
本発明によれば、面状で様々な形状の、可撓性を有する面状の対象物を認識して作業位置を決定する方法を提供することができる。
実施の形態1に係る面状物ハンドリングシステムの構成を示すブロック図である。 実施の形態1に係る面状物ハンドリングシステムの構成を示す概略図である。 実施の形態1に係るロボット制御方法のフローチャートである。 第1カメラにより撮像された対象物の第1画像において対象物の領域を検出する処理を説明する図である。 第1カメラにより撮像された対象物の第1画像の二値化処理を説明する図である。 第1カメラにより撮像された対象物の第1画像においてエッジを抽出する処理を説明する図である。 第1カメラにより撮像された対象物の第1画像において端点を抽出する処理を説明する図である。 第1カメラにより撮像された対象物の第1画像において端点を抽出する処理を説明する図である。 第1カメラにより撮像された対象物の第1画像において端点を抽出する処理を説明する図である。 第1カメラにより撮像された対象物の第1画像において端点を抽出する処理を説明する図である。 対象物のエッジの三次元形状を示す図である。
第1の態様に係る作業位置決定方法は、
面状の対象物を異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、
前記第1画像および前記第2画像のそれぞれにおいて前記対象物のエッジの少なくとも一部を抽出するエッジ抽出工程と、
抽出した前記エッジの少なくとも1点の三次元座標を取得する三次元座標取得工程と、
前記三次元座標に基づいて、前記対象物に対する作業位置を決定する作業位置決定工程と、
を含む。
この構成によると、面状で様々な形状の、可撓性を有する面状の対象物を認識して作業位置を決定することができる。
第2の態様に係る作業位置決定方法は、
前記三次元座標取得工程は、前記エッジの一端点の前記三次元座標を取得することを含んでいてもよい。
第3の態様に係る作業位置決定方法は、
前記対象物は、付属品を有してもよい。
第4の態様に係る作業位置決定方法は、
前記エッジは、第1エッジおよび第2エッジを含んでいてもよい。
これらの構成によると、面状の対象物の2つのエッジの三次元座標を取得するため、対象物の大まかな面の形状および向きを取得することができる。したがって、様々な形状の対象物に対する作業位置をより正確に算出することができる。
第5の態様に係る作業位置決定方法は、
前記対象物が可撓性を有していてもよい。
この構成によると、可撓性を有する対象物に対しても、作業位置を容易に決定することができる。可撓性を有する対象物の場合、形状が一定ではないため、三次元CADのデータと第1カメラおよび第2カメラにより取得した三次元座標とのマッチングが困難である。しかし、本発明のように対象物のエッジの三次元座標を取得することで、作業位置を容易に決定することができる。
第6の態様に係るロボット制御方法は、
面状の対象物を異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、
前記第1画像および前記第2画像のそれぞれにおいて、前記対象物のエッジの少なくとも一部を抽出するエッジ抽出工程と、
抽出した前記エッジの少なくとも1点の三次元座標を取得する三次元座標取得工程と、
前記三次元座標に基づいて、前記対象物に対する作業位置を決定する作業位置決定工程と、
前記作業位置に対してロボットハンドに作業させる作業工程と、
を含む。
この構成によると、面状で様々な形状の対象物に対して、作業位置を決定し、作業位置をロボットに指示することによりロボットに作業を実行させることができる。特に、可撓性を有する対象物に対して、より効果を発揮する。
第7の態様に係る作業位置決定装置は、
面状の対象物を異なる視点から撮像する第1カメラおよび第2カメラと、
前記第1カメラおよび前記第2カメラにより撮像されたそれぞれの画像において前記対象物のエッジの少なくとも一部を抽出するエッジ抽出部と、抽出した前記エッジの少なくとも1点の三次元座標を取得する三次元座標取得部と、前記三次元座標に基づいて前記対象物に対する作業位置を決定する作業位置決定部と、を含む演算部と、
を備える。
この構成によると、面状で様々な形状の面状の対象物を認識して作業位置を決定することができる。特に、可撓性を有する対象物に対して、より効果を発揮する。
第8の態様に係る面状物ハンドリングシステムは、
第7の態様に係る作業位置決定装置と、
前記作業位置に対して作業を行うロボットハンドを有するロボットと、
を備える。
この構成によると、面状で様々な形状の対象物に対して、作業位置を決定し、作業位置をロボットに指示することによりロボットに作業を実行させることができる。特に、可撓性を有する対象物に対して、より効果を発揮する。
(実施の形態1)
以下、実施の形態に係る作業位置決定方法、ロボット制御方法、作業位置決定装置、および面状物ハンドリングシステムについて、添付図面を参照しながら説明する。なお、図面において実質的に同一の部材については同一の符号を付している。
[全体構成]
図1は、実施の形態1に係る作業位置決定装置および面状物ハンドリングシステムの構成を示すブロック図である。図2は、実施の形態1に係る面状物ハンドリングシステムの構成を示す概略図である。
本実施の形態の作業位置決定装置2は、第1カメラ11および第2カメラ12と、制御部18と、を備える。制御部18は、領域検出部13と、エッジ抽出部14と、端点抽出部15と、三次元座標取得部16と、作業位置決定部17と、を含む。また、本実施の形態の面状物ハンドリングシステム1は、図1に示すように、作業位置決定装置2と、ロボット3と、ロボット制御部4とを備える。本実施の形態では、図2に示すように、計測ステージ21に載置された対象物22を、作業位置決定装置2のカメラ11、12により撮像して得られた画像に基づいて、作業位置決定装置2が対象物22の三次元座標を取得し、ロボット3の作業位置を決定する。本実施の形態では、計測ステージ21に載置された対象物22から端部22aが垂れ下がり、計測ステージ21の側面21aを背景として、端部22aの部分をカメラ11、12により撮像する。計測ステージ21の側面21aの色は、後述する画像処理を容易にするため、対象物22の端部22aと明度の差が大きい色であるとよい。さらに、側面21aの色は一色であると好ましい。撮像用背景として、対象物22の端部22aと明度の異なる背景ボード等を別途用意してもよい。決定された作業位置に基づいて、ロボット制御部4が、ロボット3を制御して対象物22に対して作業を実施させる。
対象物22は、布、紙、フィルム等の可撓性を有する面状あるいはシート状の物体である。本実施の形態では、対象物22は付属品を有しており、付属品として対象物22の端部22aにフック22bが設けられている。なお、フック22b等の付属品は、対象物22の必須の構成ではなく、対象物22が付属品を有していなくても構わない。付属品には、フック22bのように対象物22の端部22aに設けられたもののほか、例えば対象物22の内部に設けられた金属リングまたはスナップボタン等を含む。本実施の形態の面状物ハンドリングシステム1は、ロボット3を操作して、端部22aを把持してフック穴22cにフック22bをかける作業を実施させる。なお、ロボット3に操作させる作業はこれに限らない。また、対象物22には、面状の物体であれば、様々な形状のものを採用することができる。
<作業位置決定装置>
作業位置決定装置2は、対象物22の三次元座標を取得し、取得した三次元座標に基づいてロボット3の作業位置を決定する。ここで、対象物22の三次元座標とは、後述する図10に示すように、対象物22の端部22aのエッジE1、エッジE2、対象物22とフック22bとの境界であるエッジE3、対象物の撮像領域におけるエッジE4、または、フック22bの対象物22の端部と接していないエッジE5の部分の三次元座標である。対象物22は面状の物体であるため、図10のように対象物22のエッジ(エッジE1、エッジE2、エッジE3、エッジE4およびエッジE5)上の少なくとも1点の三次元座標を取得すると、ロボット3によるおおよその作業位置を決定することができる。
「作業」には、対象物に対する把持、挟持、および吸着等の保持作業、または対象物に対する塗装、マーキング、溶接、切断、部品取り付け、縫製、またははんだ付け等の加工作業を含む。「作業位置」とは、人またはロボットが、対象物に対して把持、挟持、または吸着等の保持作業、または塗装、マーキング、溶接、切断、部品取り付け、縫製、はんだ付け等の加工作業を行う際に、作業のターゲット位置となる三次元座標をいう。
作業位置決定装置2を構成する各構成要素について、以下に説明する。
<カメラ>
第1カメラ11および第2カメラ12は、面状の対象物22を異なる視点から撮像する。第1カメラ11により撮像された第1画像と、第2カメラ12により撮像された第2画像とに基づいて、対象物22の三次元座標を取得する。すなわち、作業位置決定装置2は、ステレオ法により、対象物22のエッジE1、エッジE2、エッジE3、エッジE4、またはエッジE5の三次元座標を取得する。可撓性を有する面状体のエッジであるエッジE1、エッジE2、エッジE3、エッジE4、またはエッジE5を取得すると、本発明の効果をより発揮することができる。
<制御部>
制御部18によって、第1画像および第2画像の画像処理を行う。制御部18は、例えば、コンピュータ装置である。このコンピュータ装置としては、汎用的なものを用いることができる。制御部18は、例えば、図1に示すように、処理部18a、記憶部18bを含む。制御部18は、さらに、表示部、入力装置、記憶装置、またはインタフェース等を含んでいてもよい。なお、制御部18が本発明の「演算部」に相当する。
<処理部>
処理部18aは、例えば、中央演算処理装置(CPU、MPU等)、マイクロコンピュータ、または、コンピュータで実行可能な命令を実行できる処理装置であればよい。
<記憶部>
記憶部18bは、例えば、ROM、EEPROM、RAM、フラッシュSSD、ハードディスク、USBメモリ、磁気ディスク、光ディスク、光磁気ディスク等のうち少なくとも1つであってもよい。記憶部18bには、後述する領域検出部13、エッジ抽出部14、端点抽出部15、三次元座標取得部16、および作業位置決定部17を処理部18aで実行可能なプログラムとして含み、これらが記憶部18bから読み出されて、処理部18aにより実行される。
<領域検出部>
領域検出部13は、第1画像および第2画像のそれぞれにおいて、対象物22の領域を検出する。例えば、二値化処理により対象物22の領域を検出することができる。二値化処理により対象物22の領域を検出する場合、対象物22は単色であるとよい。または、ラスタースキャンにより対象物22の領域の輪郭を検出してもよい。また、その他の公知の方法により、対象物22の領域の検出を行ってもよい。
<エッジ抽出部>
エッジ抽出部14は、第1画像および第2画像のそれぞれの領域から、対象物22のエッジE1、エッジE2、エッジE3、エッジE4、またはエッジE5(図10参照)のうち、少なくとも1つを抽出する。エッジE1、エッジE2、エッジE3、エッジE4、またはエッジE5の抽出は、隣接する画素同士の差をとる差分演算等、公知の方法により行うことができる。なお、対象物22のうち、CADデータのマッチング等で形状を認識することが難しい可撓性を有する部分のエッジ(エッジE1およびエッジE2)を抽出すると、本発明の効果をより発揮する。
<端点抽出部>
端点抽出部15は、第1画像および第2画像のそれぞれにおいて、エッジの一端点を抽出する。エッジの一端点は、エッジE1、エッジE2、エッジE3、エッジE4、またはエッジ5のうちいずれかのエッジの1つの端点、またはフック22bの端点であってもよい。本実施の形態では、面状物の端点、すなわち、後述する図10に示すエッジE1およびエッジE2とフック22bとの交点(端点I1、I2)を使用している。これは、フック22bの端点よりも対象物22の端点の方が認識精度が高いためである。面状物の端点を抽出するか、フックの端点を抽出するかは、その後のロボットの作業内容によって好ましい方を抽出する。端点の抽出は、隣接する画素同士の差分演算等、公知の方法により行うことができる。
<三次元座標取得部>
三次元座標取得部16は、第1画像および第2画像それぞれの端点に基づいて、エッジの端点(I1、I2)の三次元座標を取得する。本実施の形態では、三次元座標は、第1画像および第2画像それぞれにおいて、エッジE1の少なくとも1つの点の三次元座標と、エッジE2の少なくとも1つの点の三次元座標を含む。なお、エッジE1、エッジE2、エッジE3、エッジE4、またはエッジE5のうち1つ以上のエッジにおいて、少なくとも1点の三次元座標を取得すればよい。好ましくは、エッジE1、エッジE2、エッジE3、エッジE4、またはエッジE5のうち1つ以上のエッジの一端点の三次元座標を取得するとよい。エッジの端点を基準として、ステレオ法によって、第1画像および第2画像に基づいて、エッジの三次元座標を取得することができる。
<作業位置決定部>
作業位置決定部17は、抽出したエッジの三次元座標に基づいて、対象物22に対する作業位置を算出する。例えば、フック22bまたは端点I1、I2等から所定の距離の位置を作業位置として決定することができる。
<面状物ハンドリングシステム>
面状物ハンドリングシステム1は、作業位置決定装置2と、ロボット3と、ロボット制御部4とを備える。上述した作業位置決定装置2により決定された対象物22の作業位置に対して、ロボット3を制御して作業を実施させる。面状物ハンドリングシステムを構成する各構成要素について、以下に説明する。
<ロボット>
ロボット3は、作業位置決定装置2により算出された作業位置に基づいて、対象物22に対して作業を実施する。ロボット3は、例えば、ロボットアーム31と、一対のフィンガ(把持部)を有するロボットハンド32とを備える。ロボットアーム31に設けられた複数の関節31aを駆動することにより、ロボットハンド32を移動して、対象物22の作業位置において把持動作を実施することができる。
<ロボット制御部>
ロボット制御部4は、ロボット3に対して作業位置を指示し、ロボット3を制御して作業を実施させる。ロボット制御部4は、図2のように、独立して存在してもよい。または、他の構成要素の一部と共有されていてもよい。例えば、作業位置決定装置2の制御部18に、ロボット制御部4が含まれていてもよい。ロボット制御部4は、制御部18と同様に、例えば、CPU、メモリ、記憶部、表示部、入力部、およびインタフェース等、通常のパーソナルコンピュータの物理的な構成要素を備えていればよい。
[動作]
図3は、実施の形態1に係るロボット制御方法のフローチャートである。図4〜図10は、第1カメラにより撮像された対象物の第1画像の画像処理を説明する図である。図11は、対象物のエッジの三次元座標を示す図である。なお、第2カメラにより撮像された第2画像については図示しないが、第1画像と同様の画像処理が施される。図3のフローチャート、および図4〜図10を参照して、面状物ハンドリングシステム1の動作について説明する。
(1)ステップS01において、第1カメラ11および第2カメラ12により、対象物22を異なる視点から撮像した第1画像L(図4〜図10)および第2画像R(図示省略)を取得する(撮像工程)。対象物22の全体を撮像する必要はなく、ロボット3による所望の作業位置の決定に必要な範囲の画像を取得すればよい。本実施の形態では、計測ステージ21の側面21aを背景として、対象物22の端部22a(図2参照)を含む周辺部分を撮像し、画像を取得する。
(2)ステップS02において、第1画像Lおよび第2画像Rのそれぞれにおいて、対象物22の端部22aの領域を検出する。図4は第1カメラにより取得された第1画像Lである。第1画像Lにおいて、二値化処理を実行する。本実施の形態では、対象物22の色の明度が高いため、背景である計測ステージ21の側面21aの色を明度の低い色にすることで、第1画像Lにおいて、対象物22と背景とのコントラストが大きくなるようにしている。このため、図5に示すように、二値化処理によって、対象物22の端部22aの領域を検出することができる。なお、領域の検出方法は二値化処理に限らず、公知の手法を用いることができる。例えば、対象物22と計測ステージ21の側面21aとのコントラストが小さい場合には、二値化処理に代わり、ラスタースキャンにより対象物22の輪郭を検出することで対象物22の端部22aの領域を検出してもよい。領域検出部13は、フック22bを含む対象物22の領域を検出していてもよいが、フック22bを除く対象物22の端部22aの領域のみを検出する方が後述するエッジ抽出をしやすいため、好ましい。図5では、対象物22の端部22aとフック22bとの色が似ているため、両者の領域を抽出している。なお、ステップS02の領域検出工程を飛ばして、後述するステップS03のエッジ抽出を行ってもよい。
(3)ステップS03において、第1画像Lおよび第2画像Rのそれぞれで検出された領域から、対象物22のエッジE1、エッジE2を抽出する(エッジ抽出工程)。本実施の形態では、対象物22のエッジのうち、2つのエッジE1およびエッジE2を抽出するが、抽出するエッジの数はこれに限らない。なお、エッジE1が本発明の「第1エッジ」に相当し、エッジE2が本発明の「第2エッジ」に相当する。エッジE1〜エッジE5のうち、少なくとも1つ以上のエッジの一部分を抽出できればよい。2つ以上のエッジを抽出すれば、対象物22の大まかな形状や向きを把握することができるため、好ましい。互いに交わらない2辺を抽出すると、より精確な対象物22の形状や向きを把握できるため、エッジE1とエッジE2を抽出することが特に好ましい。エッジE1とエッジE2は、図8に示すようにフック22bのエッジ部分を含んでいてもいいし、含んでいなくてもよい。なお、ステップS02において対象物22の端部22aとフック22bとを合わせて検出し、ステップS03において、エッジ抽出部は、検出した領域の太い領域と細い領域との境界をエッジE3として抽出してもよい。
エッジの抽出は、公知の手法を用いて行うことができる。例えば、第1画像Lにおいて水平方向にサーチして、明度の差を検出することにより行うことができる。また、2つのエッジE1とエッジE2との中央に位置する中心線Cを算出する。図6を参照して、中心線Cは、例えば、水平方向にサーチする際、エッジE1を示す点E10とエッジE2を示す点E20との中点C1を特定し、それぞれの水平方向サーチで特定した中点をつなぐことにより算出することができる。中心線Cと、第1画像Lにおける垂直線Pとの角度θを算出する。ここで、例えば、アフィン変換等を用いて、第1画像Lを角度θ回転させ、中心線Cが垂直方向となるようにする(図7参照)。
(4)ステップS04において、第1画像Lおよび第2画像Rのそれぞれにおいて、エッジE1、エッジE2の端点を抽出する。図8に示すように、角度θ回転させた第1画像Lにおいて、エッジE1およびエッジE2に挟まれた部分を垂直方向にサーチして、明度の差により、対象物22の端部22aとフック22bとのエッジE3p1〜E3p5を抽出する。このとき、エッジE3p1〜E3p5は不連続な線分の集合となる。検出したエッジE3p1〜E3p5を、例えば最小二乗法により直線化して、エッジE3を得る(図9参照)。図10に示すように、エッジE3とエッジE1との交点およびエッジE3とエッジE2との交点が、エッジE1およびエッジE2における面状体の端点I1、端点I2となる。端点I1および端点I2を抽出することにより、エッジE1およびエッジE2における面状体エッジの範囲が決定される。
(5)ステップS05において、第1画像Lおよび第2画像Rのそれぞれの端点I1および端点I2に基づいて、エッジE1およびエッジE2の少なくとも1点の三次元座標を取得する(三次元座標取得工程)。本実施の形態では、異なる視点から撮像した第1画像Lおよび第2画像Rを利用して、三角測量の原理で三次元座標を取得するステレオ法が採用されている。ステレオ法では、視点の異なる第1画像Lおよび第2画像Rにおける端点I1、I2等の対応点を求め、第1画像Lおよび第2画像Rでの対応点と第1カメラ11および第2カメラ12との位置関係により、エッジE1およびエッジE2の三次元座標を取得することができる(図11参照)。本実施の形態では、第1画像Lおよび第2画像のそれぞれにおける、端点I1から延びるエッジE1、および端点I2から延びるエッジE2を構成する画素をそれぞれ対応点として対応させて、エッジE1およびエッジE2の三次元座標を取得している。なお、本実施の形態においては、フック22bを含まないエッジE1、E2のみの三次元座標を取得しているため、対象物22の面全体の三次元座標を算出するよりも計算量が少なくて済む。
(6)ステップS06において、エッジE1、E2の三次元座標に基づいて、対象物22に対する作業位置を算出する(作業位置決定工程)。作業位置は、例えば、図10に示すように、ステップS04で抽出した端点I1、I2を通る直線(エッジE3)からの距離Dによって決定することができる。本実施の形態では、エッジE3からの距離Dが例えば10mmの位置、あるいは、例えば5mm以上15mm以下の範囲を作業位置Wとして算出する。作業内容によっては、付属品に対する作業位置を算出してもよい。なお、ステップS01〜ステップS06は、作業位置決定装置2により実行される。
(7)ステップS07において、作業位置Wをロボット3に指示し、ロボットハンドに作業をさせる(作業工程)。作業位置決定装置2により算出された作業位置Wを、ロボット制御部4がロボット3に指示し、対象物22に対する作業を実施させる。本実施の形態では、ロボット3が図11の矢印の方向にロボットハンド32を移動し、対象物22を把持する。なお、本実施の形態において、対象物22は面状で可撓性を有するため、エッジE1、E2の三次元座標と作業位置Wとが決まると、ロボットに作業を実施させることができる。また、エッジE1〜E5のうち、2以上のエッジの三次元座標を取得すれば、対象物22の大まかな形状を算出することができるため、作業位置に加えてロボットに作業させる作業方向も決定することができる。本実施形態では、エッジE1およびエッジE2からなる面に平行な方向である、図11の矢印の方向を作業方向とすることができる。対象物22に対する作業は、例えばロボットハンド32による対象物22の把持、吸着、穿刺、引掛け等である。本実施の形態では、ロボット3に、対象物22の作業位置Wをロボットハンド32により把持し、フック22bをフック穴22cにかける作業を実施させることができる。
[効果]
本実施の形態の、作業位置決定方法、ロボット制御方法、作業位置決定装置、および面状物ハンドリングシステムによると、面状の対象物22のエッジの三次元座標を取得することにより作業位置を決定し、様々な形状の対象物22に対してロボット3に作業を実施させることができる。TOFカメラのように対象物22の面全体の三次元座標の点群データを取得する三次元計測機を用いると、エッジの認識が難しく、またデータ量が多いため処理が難しい。しかし、本実施の形態のようにステレオカメラを用いることで、不要な情報は落として、エッジの三次元座標を取得することができるため、画像処理が容易であり、安定して三次元座標を取得することができる。また、本実施の形態のように、フック22b等の付属品が設けられた対象物22に対しても、三次元座標を取得することができる。
また、ステレオ法による三次元座標の取得において、各画像上の対応点を探索するマッチング処理は、最も情報処理の負荷が高くコストのかかるプロセスであるが、本実施の形態では、第1画像Lおよび第2画像Rそれぞれにおいて、エッジを構成する画素をマッチングすればよいため、マッチング処理の負荷を軽減することができる。
また、対象物22のエッジの三次元座標を取得することにより、例えば、マーカー等の画像処理のための目印となるものがなくても、所望の作業位置を決定することができる。
上述した実施の形態を挙げて本発明を説明したが、本開示の実施の形態はこれに限定されない。
例えば、上述した実施の形態においては、対象物22の先端部にフック22bが設けられているが、フックのない対象物であってもよい。
また、対象物22は面状であれば、様々な形状のものを採用することができる。また、対象物22は単色の材料で構成されていてもよい。この場合、上述した二値化処理において領域の検出が容易である。
また、上述した実施の形態では、ロボット制御部4が作業位置決定装置2の外部に設けられているが、ロボット制御部4は作業位置決定装置2に内蔵されていてもよい。また、作業位置決定装置2のカメラとそれ以外とが個別の装置として設けられていてもよい。
なお、本開示においては、前述した様々な実施の形態および/または実施例のうちの任意の実施の形態および/または実施例を適宜組み合わせることを含むものであり、それぞれの実施の形態および/または実施例が有する効果を奏することができる。
本発明に係る作業位置決定方法、ロボット制御方法、作業位置決定装置、および面状物ハンドリングシステムによると、様々な形状の対象物に対して、作業位置を決定し、作業位置をロボットに指示することによりロボットに作業を実行させることができる。
1 面状物ハンドリングシステム
2 作業位置決定装置
3 ロボット
4 ロボット制御部
11 第1カメラ
12 第2カメラ
13 領域検出部
14 エッジ抽出部
15 端点抽出部
16 三次元座標取得部
17 作業位置決定部
22 対象物

Claims (8)

  1. 面状の対象物を異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、
    前記第1画像および前記第2画像のそれぞれにおいて前記対象物のエッジの少なくとも一部を抽出するエッジ抽出工程と、
    抽出した前記エッジの少なくとも1点の三次元座標を取得する三次元座標取得工程と、
    前記三次元座標に基づいて、前記対象物に対する作業位置を決定する作業位置決定工程と、
    を含む、
    作業位置決定方法。
  2. 前記三次元座標取得工程は、前記エッジの一端点の前記三次元座標を取得することを含む、
    請求項1に記載の作業位置決定方法。
  3. 前記対象物は、付属品を有する、
    請求項1または2に記載の作業位置決定方法。
  4. 前記エッジは、第1エッジおよび第2エッジを含む、
    請求項1ないし3のいずれか1項に記載の作業位置決定方法。
  5. 前記対象物は、可撓性を有する、
    請求項1ないし4のいずれか1項に記載の作業位置決定方法。
  6. 面状の対象物を異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、
    前記第1画像および前記第2画像のそれぞれにおいて、前記対象物のエッジの少なくとも一部を抽出するエッジ抽出工程と、
    抽出した前記エッジの少なくとも1点の三次元座標を取得する三次元座標取得工程と、
    前記三次元座標に基づいて、前記対象物に対する作業位置を決定する作業位置決定工程と、
    前記作業位置に対してロボットハンドに作業させる作業工程と、
    を含む、
    ロボット制御方法。
  7. 面状の対象物を異なる視点から撮像する第1カメラおよび第2カメラと、
    前記第1カメラおよび前記第2カメラにより撮像されたそれぞれの画像において前記対象物のエッジの少なくとも一部を抽出するエッジ抽出部と、抽出した前記エッジの少なくとも1点の三次元座標を取得する三次元座標取得部と、前記三次元座標に基づいて前記対象物に対する作業位置を決定する作業位置決定部と、を含む演算部と、
    を備える、
    作業位置決定装置。
  8. 請求項7に記載の作業位置決定装置と、
    前記作業位置に対して作業を行うロボットハンドを有するロボットと、
    を備える、
    面状物ハンドリングシステム。
JP2019186983A 2019-10-10 2019-10-10 作業位置決定方法、ロボット制御方法、作業位置決定装置、および面状物ハンドリングシステム Pending JP2021063667A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019186983A JP2021063667A (ja) 2019-10-10 2019-10-10 作業位置決定方法、ロボット制御方法、作業位置決定装置、および面状物ハンドリングシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019186983A JP2021063667A (ja) 2019-10-10 2019-10-10 作業位置決定方法、ロボット制御方法、作業位置決定装置、および面状物ハンドリングシステム

Publications (1)

Publication Number Publication Date
JP2021063667A true JP2021063667A (ja) 2021-04-22

Family

ID=75487938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019186983A Pending JP2021063667A (ja) 2019-10-10 2019-10-10 作業位置決定方法、ロボット制御方法、作業位置決定装置、および面状物ハンドリングシステム

Country Status (1)

Country Link
JP (1) JP2021063667A (ja)

Similar Documents

Publication Publication Date Title
US10347005B2 (en) Object state identification method, object state identification apparatus, and carrier
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
CN106826815B (zh) 基于彩色图像与深度图像的目标物体识别与定位的方法
US10163225B2 (en) Object state identification method, object state identification apparatus, and carrier
US20130230235A1 (en) Information processing apparatus and information processing method
WO2018076977A1 (zh) 一种基于单目机器视觉的身高测量方法
CN110926330B (zh) 图像处理装置和图像处理方法
KR20150107597A (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP6736414B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN108022264A (zh) 相机位姿确定方法及设备
CN113284178B (zh) 物体码垛方法、装置、计算设备及计算机存储介质
US9595095B2 (en) Robot system
JP2010133752A (ja) 形状測定装置およびプログラム
JP5858773B2 (ja) 3次元計測方法、3次元計測プログラム及びロボット装置
JP2009129058A (ja) 位置特定装置および動作指示装置並びに自走式ロボット
JP2020021212A (ja) 情報処理装置、情報処理方法及びプログラム
JP2021085751A (ja) 作業位置決定方法、ロボット制御方法、作業位置決定装置、およびロボット制御システム
JP2021063667A (ja) 作業位置決定方法、ロボット制御方法、作業位置決定装置、および面状物ハンドリングシステム
JP2020071739A (ja) 画像処理装置
JP2016194847A (ja) 画像検出装置、画像検出方法およびプログラム
KR101747350B1 (ko) 비주얼 서보잉을 위한 객체의 좌표 인식 방법
JP6042289B2 (ja) 姿勢推定装置、姿勢推定方法およびプログラム
JP5536131B2 (ja) 位置特定装置および動作指示装置並びに自走式ロボット
JP2009210286A (ja) 画像処理装置および画像処理プログラム
JP7178802B2 (ja) 2次元位置姿勢推定装置及び2次元位置姿勢推定方法