JP7197653B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP7197653B2
JP7197653B2 JP2021145479A JP2021145479A JP7197653B2 JP 7197653 B2 JP7197653 B2 JP 7197653B2 JP 2021145479 A JP2021145479 A JP 2021145479A JP 2021145479 A JP2021145479 A JP 2021145479A JP 7197653 B2 JP7197653 B2 JP 7197653B2
Authority
JP
Japan
Prior art keywords
image processing
work
data
tool
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021145479A
Other languages
English (en)
Other versions
JP2021185016A (ja
Inventor
信夫 大石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2021145479A priority Critical patent/JP7197653B2/ja
Publication of JP2021185016A publication Critical patent/JP2021185016A/ja
Application granted granted Critical
Publication of JP7197653B2 publication Critical patent/JP7197653B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/04Gripping heads and other end effectors with provision for the remote detachment or exchange of the head or parts thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Description

本明細書は、画像処理データ作成用のデータ構造および画像処理データ作成方法について開示する。
従来より、ワークに対して作業が可能な産業用の多関節ロボットが知られている(例えば、特許文献1参照)。
特開2004-362018号公報
現代の多変種変量セル生産ラインにおいては、多数の品種の生産を混流させることが多いため、多品種多数の部品(ワーク)が段取り替えなしに同時に供給されることが望まれており、ワークの配置、供給方法が大きな課題となっている。多関節ロボットの基本的な作業の一つとしては、対象ワークを把持(ピッキング)して搬送する作業がある。従来の産業用ロボットにおけるワークの供給は、多関節ロボットが把持し易いように、専用の供給装置を用いて、ワークを、1つ1つ方向および位置を整列させた状態で行なうことが多かった。しかしながら、専用の供給装置は、ワークごとに専用の設計が必要な上、設置スペースや設置コストも小さくないため、多変種変量セル生産のライン形成に適さない。
このため、ワークの供給は、専用の供給装置を用いることなく、小さな設置面積で、より多数のワークを供給できるように、ケース(部品箱)や小型コンベア等の汎用的な供給装置上にワークをバラ置きするだけのよりシンプルな形態が望まれる。専用の供給装置は、毎回決まった位置、姿勢でワークを供給する。このため、多関節ロボットは、予め決められた通りの把持動作を行なえばよい。しかしながら、汎用的な供給装置では、ワークがバラ置きされ、ワークが配置される位置、姿勢が不定な上、把持対象外のワークとの干渉状態によって把持が不可能な場合がある。このため、多関節ロボットは、ワークの配置状態を認識した上で、適正な把持点、把持姿勢となるようにアームを制御する必要がある。
ワークの配置状態は、ロボット制御装置に付属される画像処理装置にて、カメラ撮像と画像処理とにより自動的に認識される。画像処理装置は、ワークの配置条件、すなわち対象ワークの位置、方向、姿勢および対象外ワークとの干渉状態を認識し、対象ワークを把持することができるか否かを判定する。こうした画像処理を実現するための画像処理データの生成は、通常、大きな労力がかかる。しかし、多変種変量生産の生産ラインにおいては、より多くの品種を短時間に切り替えて効率よく生産することが求められ、より多くの品種の画像処理データを短時間で容易に生成できることが望まれる。
本開示は、多品種の画像処理データを少ない労力で作成することが可能なデータ構造または作成方法を提供することを主目的とする。
本開示は、上述の主目的を達成するために以下の手段を採った。
本開示の画像処理データ作成用のデータ構造は、供給された複数のワークの中から多関節ロボットが作業可能な対象ワークを抽出するにあたり、前記複数のワークの撮像画像に対して画像処理を行なうために必要な画像処理データを作成するための画像処理データ作成用のデータ構造であって、パターンマッチングによって前記対象ワークを認識するためのワーク形状データと、前記ツールと周辺ワークとの干渉の有無をチェックするためのツールデータと、を有し、前記ワーク形状データと前記ツールデータの組み合わせを、ワーク毎またはツール毎に組み替えることが可能に構成されることを要旨とする。
これにより、データ作成者は、共通項目について1回だけ設定データを作成すればよく、以降は、共通のデータを使用して多品種に展開することができる。この結果、多品種の画像処理データを少ない労力で作成することができる。
ロボットシステム10の構成の概略を示す構成図である。 ロボット20の構成の概略を示す構成図である。 ロボット20とロボット制御装置70と画像処理装置80との電気的な接続関係を示すブロック図である。 画像処理データのデータ構造を示す説明図である。 ボルト形のワークのワーク形状モデルを示す説明図である。 円筒形のワークのワーク形状モデルを示す説明図である。 ボルト形のワークをピッキングツールT1(電磁チャック)でピッキングする様子を示す説明図である。 円筒形のワークをピッキングツールT2(メカチャック)でピッキングする様子を示す説明図である。 ボルト形のワークをピッキングツールT3(吸着ノズル)でピッキングする様子を示す説明図である。 電磁チャック用のピッキングツールモデルの一例を示す説明図である。 メカチャック用のピッキングツールモデルの一例を示す説明図である。 吸着ノズル用のピッキングツールモデルの一例を示す説明図である。 ピッキング可否を示す説明図である。 ピッキング可否を示す説明図である。 ピッキング可否を示す説明図である。 画像処理シーケンスの一例を示す説明図である。 ワーク供給装置を場所Aに設置した場合のワークWおよびその背景の様子を示す説明図である。 ワーク供給装置を場所Bに設置した場合のワークWおよびその背景の様子を示す説明図である。 ワーク供給装置12AでワークWを供給する際の検索領域ASを示す説明図である。 ワーク供給装置12BでワークWを供給する際の検索領域ASを示す説明図である。 ワーク形状モデルの差し替えによって画像処理データを作成する様子を示す説明図である。 ピッキングツールモデルの差し替えによって画像処理データを作成する様子を示す説明図である。 画像処理設定モデルの差し替えによって画像処理データを作成する様子を示す説明図である。
次に、本開示を実施するための形態について図面を参照しながら説明する。
図1は、ロボットシステム10の構成の概略を示す構成図である。図2は、ロボット20の構成の概略を示す構成図である。図3は、ロボット20とロボット制御装置70と画像処理装置80の電気的な接続関係を示すブロック図である。なお、図1中、前後方向はX軸方向であり、左右方向はY軸方向であり、上下方向はZ軸方向である。
ロボットシステム10は、ロボット20と、ロボット制御装置70と、画像処理装置80とを備える。ロボットシステム10は、本実施形態では、ワーク供給装置12により供給されたワークWをピッキング(把持)し、ピッキングしたワークWを、トレイ搬送装置14により搬送されたトレイT上に整列させてプレースするピックアンドプレースシステムとして構成される。尚、ロボットシステムは、ピックアンドプレースシステムに限られず、ロボット20を用いてワークWに対して作業を行なうものであれば、如何なる作業システムにも適用できる。
ロボット20は、5軸の垂直多関節アーム(以下、アームという)22を備える。アーム22は、6つのリンク(第1~第6リンク31~36)と、各リンクを回転または旋回可能に連結する5つの関節(第1~第5関節41~45)とを有する。各関節(第1~第5関節41~45)には、対応する関節を駆動するモータ(サーボモータ)51~55と、対応するモータの回転位置を検出するエンコーダ(ロータリエンコーダ)61~65とが設けられている。
アーム22の先端リンク(第6リンク36)には、エンドエフェクタとしての複数種のピッキングツールT1~T3が着脱可能となっている。本実施形態では、ピッキングツールT1は、磁性体からなるワークWを電磁石により吸着する電磁チャックである。また、ピッキングツールT2は、ワークWを保持する近接位置とワークWの保持を解除する離間位置との間を移動可能な一対のクランプ爪を有するメカニカルチャック(以下、メカチャックという)である。さらに、ピッキングツールT3は、ワークWを負圧によって吸着する吸着ノズルである。先端リンクに装着するピッキングツールは、ピッキングしようとするワークWの形状や素材に合わせて適宜選択される。
また、アーム22の先端部(第5リンク35)には、カメラ24が取り付けられている。カメラ24は、ワーク供給装置12により供給された各ワークWの位置および姿勢を認識するために当該ワークWを撮像し、トレイ搬送装置14により搬送されたトレイTの位置を認識するために当該トレイTを撮像するためのものである。
アーム22の基端リンク(第1リンク31)は、作業台11に固定されている。作業台11には、ワーク供給装置12やトレイ搬送装置14などが配置されている。ワーク供給装置12は、本実施形態では、前後方向(Y軸方向)に離間して配置された駆動ローラおよび従動ローラに架け渡されたコンベアベルト13を備えるベルトコンベア装置により構成される。コンベアベルト13には複数のワークWがバラ置きされ、ワーク供給装置12は、駆動ローラを回転駆動することにより、コンベアベルト13上の複数のワークWを後方から前方へ供給する。なお、ワーク供給装置は、ベルトコンベア装置に代えて或いはベルトコンベア装置に併設して、ケース(部品箱)に収容された複数のワークをケースごと供給するケース供給装置とされてもよい。トレイ搬送装置14は、ベルトコンベア装置により構成され、ワークWの供給方向とは直交する方向(X軸方向)にトレイTを搬送し、略中央位置にて位置決め保持する。
ロボット制御装置70は、CPU71を中心としたマイクロプロセッサとして構成され、CPU71の他に、ROM72やHDD73、RAM74、図示しない入出力インタフェース、図示しない通信インタフェースなどを備える。ロボット制御装置70には、エンコーダ61~65などからの検知信号が入力される。また、ロボット制御装置70からは、ワーク供給装置12やトレイ搬送装置14、モータ51~55、ツールアクチュエータ56などへの制御信号が出力される。ツールアクチュエータ56は、ロボット20に装着されているピッキングツールを駆動するためのアクチュエータである。
ロボット制御装置70は、ロボット20の各モータ51~55を駆動制御することにより、ロボット20に、ワークWをピッキングさせるピッキング処理と、ピッキングさせたワークWをトレイTにプレースさせるプレース処理とを実行する。ピッキング処理は、具体的には、以下のようにして行なわれる。即ち、ロボット制御装置70は、目標とされるピッキング位置および姿勢に対応するアーム22の各関節の目標位置を取得する。続いて、ロボット制御装置70は、各関節の位置が当該取得した目標位置に一致するように対応するモータ51~55を駆動制御する。そして、ロボット制御装置70は、ピッキングツールによってワークWがピッキング(把持)されるようツールアクチュエータ56を制御する。プレース処理は、具体的には、以下のようにして行なわれる。即ち、ロボット制御装置80は、目標とされるプレース位置および姿勢に対応するアーム22の各関節の目標位置を取得する。続いて、ロボット制御装置70は、各関節の位置が当該取得した目標位置に一致するように対応するモータ51~55を駆動制御する。そして、ロボット制御装置70は、ピッキングしたワークWがプレース(ワークWの把持が解除)されるようツールアクチュエータ56を制御する。
画像処理装置80は、CPU81を中心としたマイクロプロセッサとして構成され、CPU81の他に、ROM82やHDD83、RAM84、図示しない入出力インタフェース、図示しない通信インタフェースなどを備える。画像処理装置80には、カメラ24からの画像信号や入力装置85からの入力信号などが入力される。また、画像処理装置80からは、カメラ24への駆動信号や出力装置86への出力信号などが出力される。ここで、入力装置85は、例えばキーボードやマウス等、オペレータが入力操作を行なう入力デバイスである。出力装置86は、例えば液晶ディスプレイ等、各種情報を表示するための表示デバイスである。画像処理装置80は、ロボット制御装置70と通信可能に接続されており、互いに制御信号やデータのやり取りを行なっている。
画像処理装置80は、ロボット制御装置70に制御信号を送信してアーム22(カメラ24)をワーク供給装置12により供給されたワークWの撮像ポイントへ移動させ、カメラ24を駆動してワークWを撮像し、得られた画像信号(撮像画像)を入力する。続いて、画像処理装置80は、入力した画像信号を処理して、撮像画像中のワークWを認識する。そして、画像処理装置80は、認識したワークWのうちピッキング可能な対象ワークを抽出して当該対象ワークをピッキングするためのピッキングツールの目標位置および目標姿勢を割り出し、ロボット制御装置70に送信する。こうした処理は、画像処理データに基づく画像処理シーケンスに従って実行される。図4は、画像処理データのデータ構造を示す説明図である。画像処理データは、ワーク形状モデルとピッキングツールモデルと画像処理設定モデルとが組み合わされた統合画像処理データとして構成される。
ワーク形状モデルは、撮像画像からワークWを認識する際のパターンマッチングのテンプレートである。このワーク形状モデルには、ワークWの輪郭形状と、ワークWのピッキング位置PPとが含まれる。図5Aは、ボルト形のワークのワーク形状モデルであり、図5Bは、円筒形のワークのワーク形状モデルである。図中、実線は、ワークの輪郭形状を示し、丸点は、ワークのピッキング位置PPを示す。ワーク形状モデルのワークWの輪郭形状は、ピッキング時の姿勢で配置したワークWをカメラ24で撮像し、得られた撮像画像からワークWの輪郭を抽出することにより作成することができる。ワーク形状モデルのピッキング位置PPは、作成したワークWの輪郭形状に対する位置座標を入力装置77を用いて入力することにより作成することができる。ワーク形状モデルは、品種ごとに異なるため、品種ごとに作成される。
ピッキングツールモデルは、ピッキングツールで対象ワークをピッキングする際に当該ピッキングツールが周辺ワークと干渉しないかどうかをチェックする干渉チェック領域AIが含まれる。干渉チェック領域AIは、ピッキングツールの先端形状と、ピッキングツールの可動域(影響が及ぶ範囲)の形状とによって作成することができる。ピッキングツールモデルは、ピッキングツール種ごとに異なるため、ピッキングツール種ごとに作成される。
図6Aは、ボルト形のワークをピッキングツールT1(電磁チャック)でピッキングする様子を示し、図7Aは、電磁チャック用のピッキングツールモデルを示す。電磁チャックのピッキングツールモデル(干渉チェック領域AI)は、図6A,図7Aに示すように、ピッキング位置PPを中心として電磁チャックの磁力が及ぶ円形領域として作成される。円形領域は、円の半径の寸法R11によって規定することができる。
図6Bは、円筒形のワークをピッキングツールT2(メカチャック)でピッキングする様子を示し、図7Bは、メカチャック用のピッキングツールモデルを示す。メカチャックのピッキングツールモデル(干渉チェック領域AI)は、図6B,図7Bに示すように、ピッキング位置PPを中心としてメカチャックの一対のクランプ爪が近接位置(把持位置)と離間位置(把持解除位置)との間を移動する移動領域を形成する2つの方形領域として作成される。各方形領域の中心座標は、ピッキング位置PPからのオフセット量OffsetY21,OffsetY22によって規定することができる。また、各方形領域の外形は、長辺の寸法X21,X22と短辺の寸法Y21,Y22とによって規定することができる。
図6Cは、円筒形のワークをピッキングツールT3(吸着ノズル)でピッキングする様子を示し、図7Cは、吸着ノズル用のピッキングツールモデルを示す。吸着ノズルのピッキングツールモデル(干渉チェック領域AI)は、図6C,図7Cに示すように、ピッキング位置を中心として吸着ノズルの負圧が及ぶ円形領域として作成される。円形領域は、円の半径の寸法R31によって規定することができる。
図8は、ピッキング可否を示す説明図である。図8Aは、2つのボルトのねじ部(円筒部)同士が重なった状態を示す。この状態では、画像処理装置80は、撮像画像中にボルトの輪郭形状を認識することができないため、ピッキング不能と判断する。図8Bは、2つのボルトのうち一方のボルトのねじ先と他方のボルトの頭部とが近接した状態を示す。この状態では、画像処理装置80は、撮像画像中に2つのボルトの輪郭形状を認識する。しかし、画像処理装置80は、図8B左側のボルトの干渉チェック領域AIに同図右側のボルトの頭部が侵入しているため、同図左側のボルトをピッキング不能と判断する。一方、画像処理装置80は、同図右側のボルトの干渉チェック領域AIには周辺のボルトが侵入していないため、同図右側のボルトをピッキング可能と判断する。図8Cは、ボルトのねじ先が立った状態を示す。図8Cのボルトは、周辺のボルトと干渉していないが、通常とは異なる特殊な姿勢である。このため、画像処理装置80は、撮像画像中にボルトの輪郭形状を認識することができず、ピッキング不能と判断する。
画像処理設定モデルは、画像処理シーケンスと、当該画像シーケンスに付随するパラメータ設定とが含まれる。図9は、画像処理シーケンスの一例を示す説明図である。画像処理シーケンスでは、画像処理装置80は、撮像パラメータを設定してワークWをカメラ24で撮像する(S100)。撮像パラメータは、パラメータ設定で定められるパラメータの一つであり、例えば、ロボットシステム10の設置場所が変更されたり、照明設備が変更されたりする等、以前とは照明条件が変化した場合に変更される。撮像パラメータは、カメラ26の露光時間やゲイン(信号増幅率)などが含まれる。例えば、ロボットシステム10の設置場所が図10Aに示す場所Aから図10Bに示す場所Bへ変更されて照明が暗くなった場合、露光時間は、長くなるように調整される。
続いて、画像処理装置80は、撮像画像中の検索領域ASを設定する(S110)。検索領域ASは、パラメータ設定で定められるパラメータの一つであり、撮像画像中におけるワークWのサーチ範囲を定めるものである。例えば、図11Aに示すワーク供給装置12Aでは、カメラ24の撮像領域の一部に他の周辺機器が写るため、その一部の領域を除いた領域(図中、点線で囲まれた領域)が検索領域ASに設定される。図11Bに示すワーク供給装置12Bでは、カメラ24の撮像領域全域でワークWの背景となるため、撮像領域全域(図中、点線で囲まれた領域)が検索領域ASに設定される。
そして、画像処理装置80は、撮像画像中のワークWと背景とを分離するためのワーク/背景条件を設定し(S130)、設定したワーク/背景条件に従って検索領域内の背景色の検出(S140)とワーク色の検出(S150)とを行なう。ワーク/背景条件は、パラメータ設定で定められるパラメータの一つであり、背景色を指定する背景色パラメータと、ワーク色を指定するワーク色パラメータとを含む。背景色パラメータは、ワーク供給装置ごとにワークWの背景が異なる場合があるため、使用するワーク供給装置ごとに設定される。また、ワーク色パラメータについても、ワークWごと色が異なる場合があるため、使用するワークWごとに設定される。
次に、画像処理装置80は、輪郭抽出条件に従ってワークWの輪郭(エッジ)を抽出する輪郭抽出処理を行なう(S150)。輪郭抽出条件は、パラメータ設定で定められるパラメータの一つであり、輪郭抽出に用いる閾値(輪郭抽出レベル閾値)が含まれる。続いて、画像処理装置80は、抽出したワークWの輪郭形状がワーク形状モデルと概ね一致するかを判定すると共に(S160)、抽出したワークWの干渉チェック領域AIに他のワークWが侵入していないかを判定し(S170)、これらの判定結果に基づいて抽出したワークWがピッキング可能か否かを判定する(S180)。画像処理装置80は、ピッキングが可能と判定したワークWのピッキング位置PPに基づいてピッキングツールの目標位置および目標姿勢を設定すると共に設定した目標位置および目標姿勢を各モータ51~55の目標位置に座標変換する(S190)。そして、画像処理装置80は、座標変換した目標位置をロボット制御装置70へ送信して(S200)、画像処理シーケンスを終了する。
図12Aは、ワーク形状モデルの差し替えによって画像処理データを作成する様子を示す説明図である。いま、ピッキング方法(ピッキングツール)およびワーク供給方法(ワーク供給装置)を共通の環境とし、ワーク(ボルト)の品種2を追加する場合を考える。この場合、データ作成者は、まず、元の品種1(例えば、M3×8)をピッキングする場合の画像処理に必要な画像処理データを作成し、動作確認をする。続いて、データ作成者は、新たに追加する品種2(例えば、M5×12)でワーク形状モデルを作成する。そして、データ作成者は、品種1の画像処理データのコピーを作成し、ワーク形状モデルのみを品種1のものから品種2のものに差し替え、品種2の画像処理データとして画像処理装置80のHDD83に保存する。最後に、データ作成者は、品種1を配置パターンを変えて撮像し、画像処理テストを行なって、画像処理装置80が正常に品種2を認識できることを確認する。データ作成者は、ワークの品種を追加する度に、こうした作業を行なうことにより、多品種に対応する画像処理データを少ない労力で作成することができる。
図12Bは、ピッキングツールモデルの差し替えによって画像処理データを作成する様子を示す説明図である。いま、同じ1つのワーク(品種1)に対してピッキングツールをピッキングツール1からピッキングツール2へ変更する場合を考える。ピッキングツールを変更する場合とは、例えば、ワーク材料が磁性体(鉄)から非磁性体(ステンレス)へ変更されたことにより、ピッキングツールを電磁チャックからメカチャックに変更する場合を挙げることができる。また、ピッキングツールを変更する場合とは、例えば、生産量低下などのため、吸着ノズルを用いて生産していた生産ラインとメカチャックを用いて生産していた生産ラインとを、1ラインに統合し、ピッキングツールをメカチャックに共通化する場合を挙げることができる。この場合、データ作成者は、まず、ピッキングツール1で品種1をピッキングする場合の画像処理に必要な画像処理データを作成し、動作確認をする。続いて、データ作成者は、ピッキングツール2のピッキングツールモデルを作成する。そして、データ作成者は、品種1/ピッキングツール1の画像処理データのコピーを作成し、ピッキングツールモデルのみをピッキングツール1のものからピッキングツール2のものに差し替え、品種1/ピッキングツール2の画像処理データとして保存する。最後に、データ作成者は、品種1を配置パターンを変えて撮像し、画像処理テストを行なって、画像処理装置80が正常に品種1を認識できることを確認する。データ作成者は、ピッキングツールを変更する度に、こうした作業を行なうことにより、多品種に対応する画像処理データを少ない労力で作成することができる。
図12Cは、画像処理設定モデルの差し替えによって画像処理データを作成する様子を示す説明図である。いま、同じ1つのワーク(品種1)に対して、環境条件を環境条件1から環境条件2へ変更する場合を考える。環境条件を変更する場合とは、例えば、ワーク供給装置を変更する場合や、ロボットシステム10の設置場所を変更する場合、照明設備を変更する場合などを挙げることができる。また、環境条件を変更する場合とは、例えば、生産時とは異なる背景条件でワークを撮像してワーク形状モデルを作成する場合を挙げることができる。後者の場合は、生産時のワーク供給装置の背景が複雑で、ワークの輪郭抽出が困難なため、ワーク形状モデル作成時には、均一な色、輝度の背景でワークを撮像する場合が該当する。データ作成者は、まず、品種1/環境条件1で画像処理データを作成し、動作確認をする。続いて、データ作成者は、品種1/環境条件1の画像処理データのコピーを作成し、作成したコピーをベースとして環境条件2でカメラ撮像した画像に基づいて画像処理パラメータのパラメータ設定を行ない、品種1/環境条件2用の画像処理データとして保存する。そして、データ作成者は、環境条件2で品種1を配置パターンを変えて撮像し、画像処理テストを行なって、画像処理装置80が正常に品種1を認識できることを確認する。データ作成者は、環境条件を変更する度に、こうした作業を行なうことにより、環境条件の変更に対応する画像処理データを少ない労力で作成することができる。
以上説明した本実施形態のデータ構造では、画像処理データは、ワーク形状モデルとピッキングツールモデルと画像処理設定モデルとに分離され、これらの組み合わせによって構成される。そして、画像処理データは、ワークの品種ごと、ピッキングツールの種類ごと、ロボットシステム10の環境条件ごとにそれぞれ対応するモデルを自由に組み替えることができるように構成される。データ作成者は、画像処理データを一度作成しておけば、以降、ワークの品種、ピッキングツールの種類、環境条件の何れかを変更する場合でも、その変更に係る項目のみを新たに作成すればよく、多品種変量に容易に展開することができる。この結果、多品種変量の画像処理データを少ない労力で作成することができる。
本実施形態のデータ構造は、画像処理データを、ワーク形状モデルとピッキングツールモデルと画像処理設定モデルとに分離し、各モデルを組み替えることが可能に構成したが、ワーク形状モデルとピッキングツールモデルのみ組み替えることが可能に構成するものとしてもよい。この場合のデータ構造は、ロボットシステム10の環境条件が変わらないシステムに採用するのが好適である。
以上説明したように、本開示の画像処理データ作成用のデータ構造は、供給された複数のワークの中から多関節ロボットが作業可能な対象ワークを抽出するにあたり、前記複数のワークの撮像画像に対して画像処理を行なうために必要な画像処理データを作成するための画像処理データ作成用のデータ構造であって、パターンマッチングによって前記対象ワークを認識するためのワーク形状データと、前記ツールと周辺ワークとの干渉の有無をチェックするためのツールデータと、を有し、前記ワーク形状データと前記ツールデータの組み合わせを、ワーク毎またはツール毎に組み替えることが可能に構成されることを要旨とする。
こうした本開示の画像処理データ作成用のデータ構造において、前記ワーク形状データは、前記ワークの外形と、前記ツールが前記ワークに対して作業を行なうツール作業位置とを含むものとしてもよい。
また、本開示の画像処理データ作成用のデータ構造において、前記ツールデータは、前記対象ワークに対して周辺ワークの干渉を禁止する干渉禁止領域(干渉チェック領域)を含むものとしてもよい。こうすれば、多関節ロボットは、装着されるツールが変更されても、周辺ワークと干渉することなく、対象ワークに対する作業を適切に行なうことができる。この場合、前記干渉禁止領域は、前記ツールが前記ワークに対して作業を行なうツール作業位置を基準とした領域として指定されるものとしてもよい。こうすれば、ワーク形状データとツールデータとの連係を適切に行なうことができる。さらにこの場合、前記干渉禁止領域は、円形領域または方形領域として指定されるものとしてもよい。こうすれば、より少ないデータ量でツールデータを作成することができる。
また、本開示の画像処理データ作成用のデータ構造において、更に、前記画像処理のシーケンスおよびパラメータ設定を含むプロセスデータを有し、前記ワーク形状データと前記ツールデータと前記プロセスデータの組み合わせを、環境条件毎に組み替えることが可能に構成されるものとしてもよい。こうすれば、環境条件が変わった場合でも、プロセスデータだけを変更すれば、ワーク形状データやツールデータは既存のデータを使用することができるため、少ない労力で画像処理データを作成することができる。なお、前記環境条件は、前記ワークの供給方法または前記ワークの照明条件が含まれるものとしてもよい。
なお、本開示では、画像処理データ作成用のデータ構造の形態に限られず、画像処理データの作成方法の形態とすることもできる。
なお、本発明は上述した実施形態に何ら限定されることはなく、本開示の発明の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。
本開示は、画像処理装置や多関節ロボットの製造産業などに利用可能である。
10 ロボットシステム、11 作業台、12,12A,12B ワーク供給装置、13 コンベアベルト、14 トレイ搬送装置、20 ロボット、22 アーム、24 カメラ、31 第1リンク、32 第2リンク、33 第3リンク、34 第4リンク、35 第5リンク、36 第6リンク、41 第1関節、42 第2関節、43 第3関節、44 第4関節、45 第5関節、51~55 モータ、56 ツールアクチュエータ、61~65 エンコーダ、70 ロボット制御装置、71 CPU、72 ROM、73 HDD、74 RAM、80 画像処理装置、81 CPU、82 ROM、83 HDD、84 RAM、85 入力装置、86 出力装置、W ワーク、T トレイ、T1~T3 ピッキングツール、PP ピッキング位置、AI 干渉チェック領域、AS 検索領域。

Claims (4)

  1. 供給された複数のワークの中から多関節ロボットが作業可能な対象ワークを抽出するにあたり、前記複数のワークの撮像画像に対して、画像処理データを用いて画像処理を行なう画像処理装置であって、
    前記画像処理データは、
    パターンマッチングによって前記対象ワークを認識するためのワーク形状データと、
    前記多関節ロボットに装着されるツールが前記対象ワークに対して作業を行なうツール作業位置を基準として前記ツールと前記対象ワークに対する周辺ワークとの干渉を禁止する領域を指定する干渉領域を含むツールデータと、
    を有し、
    前記ワーク形状データは、ワークの外形と前記ワークのツール作業位置とを含み、
    前記多関節ロボットには、複数種の前記ツールが選択的に装着可能であり、
    前記ツールデータは、複数種の前記ツールの各々について作成され、
    前記干渉領域は、前記ツール作業位置を中心として前記ツールの影響が及ぶ範囲として
    作成され、
    前記ワーク形状データと前記ツールデータの組み合わせを、ワーク毎またはツール毎に組み替えることが可能に構成されるものであり、
    前記画像処理装置は、前記撮像画像から抽出されるワークの輪郭形状が前記ワーク形状データと概ね一致するか否かにより前記対象ワークを認識し、前記認識した対象ワークに対する前記干渉領域に前記周辺ワークが侵入していないか否かにより前記ツールが前記対象ワークを作業可能か否かを判定する、
    画像処理装置。
  2. 前記干渉領域は、円形領域または方形領域として指定される、
    請求項1に記載の画像処理装置。
  3. 前記画像処理データは、
    更に、前記画像処理のシーケンスおよびパラメータ設定を含むプロセスデータを有し、
    前記ワーク形状データと前記ツールデータとに対する前記プロセスデータの組み合わせを、環境条件毎に組み替えることが可能に構成されるものであり、
    前記画像処理装置は、前記撮像画像に対する画像処理のシーケンスを前記パラメータ設
    定に従って実行する、
    請求項1または2に記載の画像処理装置。
  4. 前記環境条件は、前記ワークの供給方法または前記ワークの照明条件が含まれる、
    請求項に記載の画像処理装置。
JP2021145479A 2017-03-06 2021-09-07 画像処理装置 Active JP7197653B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021145479A JP7197653B2 (ja) 2017-03-06 2021-09-07 画像処理装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
PCT/JP2017/008767 WO2018163242A1 (ja) 2017-03-06 2017-03-06 画像処理データ作成用のデータ構造および画像処理データ作成方法
JP2019503833A JP7145146B2 (ja) 2017-03-06 2017-03-06 画像処理データ作成方法
JP2021145479A JP7197653B2 (ja) 2017-03-06 2021-09-07 画像処理装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019503833A Division JP7145146B2 (ja) 2017-03-06 2017-03-06 画像処理データ作成方法

Publications (2)

Publication Number Publication Date
JP2021185016A JP2021185016A (ja) 2021-12-09
JP7197653B2 true JP7197653B2 (ja) 2022-12-27

Family

ID=63447382

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019503833A Active JP7145146B2 (ja) 2017-03-06 2017-03-06 画像処理データ作成方法
JP2021145479A Active JP7197653B2 (ja) 2017-03-06 2021-09-07 画像処理装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019503833A Active JP7145146B2 (ja) 2017-03-06 2017-03-06 画像処理データ作成方法

Country Status (5)

Country Link
US (1) US11222417B2 (ja)
EP (1) EP3593960A4 (ja)
JP (2) JP7145146B2 (ja)
CN (1) CN110382172B (ja)
WO (1) WO2018163242A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6897396B2 (ja) * 2017-07-28 2021-06-30 セイコーエプソン株式会社 制御装置、ロボットシステムおよび制御方法
JP7221409B2 (ja) * 2019-09-26 2023-02-13 株式会社Fuji 高さ測定装置
AT524608B1 (de) * 2020-12-23 2022-12-15 Tgw Logistics Group Gmbh Verfahren zum Umladen von Waren mit Hilfe eines Roboters mit verbesserter Effizienz und Lager- und Kommissioniersystem hierzu
KR102604646B1 (ko) * 2021-12-28 2023-11-23 에스아이에스(주) 자율주행 이송 모빌리티

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004230513A (ja) 2003-01-30 2004-08-19 Fanuc Ltd ワーク取出し装置
JP2008033419A (ja) 2006-07-26 2008-02-14 Honda Motor Co Ltd ロボット教示用cad装置及びロボット教示方法
JP2010032258A (ja) 2008-07-25 2010-02-12 Ihi Corp デパレタイズ用のワーク位置認識装置および方法
WO2012066819A1 (ja) 2010-11-17 2012-05-24 三菱電機株式会社 ワーク取り出し装置
JP2012101320A (ja) 2010-11-10 2012-05-31 Canon Inc 画像生成装置、画像生成方法、およびプログラム
JP2013069100A (ja) 2011-09-22 2013-04-18 Dainippon Screen Mfg Co Ltd 三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体
JP2014205209A (ja) 2013-04-11 2014-10-30 三菱電機株式会社 ロボットシステム、及びロボットシステムの制御方法
JP2015009314A (ja) 2013-06-28 2015-01-19 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2015044274A (ja) 2013-08-29 2015-03-12 三菱電機株式会社 部品供給装置および部品供給装置のプログラム生成方法
JP2015100866A (ja) 2013-11-22 2015-06-04 三菱電機株式会社 ロボットシミュレーション装置、プログラム、記録媒体及び方法
JP2017030135A (ja) 2015-07-31 2017-02-09 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2703655B2 (ja) * 1990-09-03 1998-01-26 キヤノン株式会社 ワークの把持装置
JPH04294989A (ja) * 1991-03-20 1992-10-19 Canon Inc 部品分離整列装置
JP4000306B2 (ja) 2003-06-02 2007-10-31 本田技研工業株式会社 多関節ロボットのティーチングデータ作成方法
JP4238256B2 (ja) * 2006-06-06 2009-03-18 ファナック株式会社 ロボットシミュレーション装置
JP4309439B2 (ja) * 2007-03-30 2009-08-05 ファナック株式会社 対象物取出装置
DE102007060653A1 (de) * 2007-12-15 2009-06-18 Abb Ag Positionsermittlung eines Objektes
JP4835616B2 (ja) 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
JP5754454B2 (ja) * 2013-03-18 2015-07-29 株式会社安川電機 ロボットピッキングシステム及び被加工物の製造方法
US11004177B2 (en) * 2014-03-13 2021-05-11 Fuji Corporation Image processing device and board production system
CN104057459B (zh) * 2014-06-25 2017-02-22 上海发那科机器人有限公司 一种机器人智能分拣工件的装置及方法
JP6548422B2 (ja) * 2015-03-27 2019-07-24 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP6632224B2 (ja) * 2015-06-02 2020-01-22 キヤノン株式会社 把持制御装置、把持制御方法及びプログラム
JP6325509B2 (ja) * 2015-11-11 2018-05-16 ファナック株式会社 工作機械

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004230513A (ja) 2003-01-30 2004-08-19 Fanuc Ltd ワーク取出し装置
JP2008033419A (ja) 2006-07-26 2008-02-14 Honda Motor Co Ltd ロボット教示用cad装置及びロボット教示方法
JP2010032258A (ja) 2008-07-25 2010-02-12 Ihi Corp デパレタイズ用のワーク位置認識装置および方法
JP2012101320A (ja) 2010-11-10 2012-05-31 Canon Inc 画像生成装置、画像生成方法、およびプログラム
WO2012066819A1 (ja) 2010-11-17 2012-05-24 三菱電機株式会社 ワーク取り出し装置
JP2013069100A (ja) 2011-09-22 2013-04-18 Dainippon Screen Mfg Co Ltd 三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体
JP2014205209A (ja) 2013-04-11 2014-10-30 三菱電機株式会社 ロボットシステム、及びロボットシステムの制御方法
JP2015009314A (ja) 2013-06-28 2015-01-19 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2015044274A (ja) 2013-08-29 2015-03-12 三菱電機株式会社 部品供給装置および部品供給装置のプログラム生成方法
JP2015100866A (ja) 2013-11-22 2015-06-04 三菱電機株式会社 ロボットシミュレーション装置、プログラム、記録媒体及び方法
JP2017030135A (ja) 2015-07-31 2017-02-09 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法

Also Published As

Publication number Publication date
EP3593960A4 (en) 2020-01-22
CN110382172A (zh) 2019-10-25
WO2018163242A1 (ja) 2018-09-13
CN110382172B (zh) 2023-01-31
US20200027205A1 (en) 2020-01-23
EP3593960A1 (en) 2020-01-15
JPWO2018163242A1 (ja) 2019-11-21
JP7145146B2 (ja) 2022-09-30
US11222417B2 (en) 2022-01-11
JP2021185016A (ja) 2021-12-09

Similar Documents

Publication Publication Date Title
JP7197653B2 (ja) 画像処理装置
CN104690551B (zh) 一种机器人自动化装配系统
Nerakae et al. Using machine vision for flexible automatic assembly system
JP7163506B2 (ja) 作業ロボットおよび作業システム
CN110980276B (zh) 一种三维视觉配合机器人实施铸件自动下料的方法
US11305432B2 (en) Work machine and pick-up position selection method
US10895030B1 (en) Palletless sewing methods and systems
CN114174007A (zh) 自主式机器人工装系统、控制系统、控制方法及存储介质
KR101926351B1 (ko) 예술 작품을 모사하는 로봇 장치
JP7133017B2 (ja) エンドエフェクタの選択方法および選択システム
JP2015182212A (ja) ロボットシステム、ロボット、制御装置、及び制御方法
CN204868885U (zh) 用于操控工件的机器人系统
CN111278612B (zh) 元件移载装置
JP7112528B2 (ja) 作業座標作成装置
JP6842753B2 (ja) ワークの把持位置指示システムおよびピッキング装置
JP7105223B2 (ja) ロボットシステム
JP6915085B2 (ja) 作業機および把持位置探索方法
TWI507267B (zh) 加工工具機
Fuwen et al. Vision modeling optimization of freely placed and moving objects
KR20230042877A (ko) 의류 원단 핸들링 자동화 장치 및 방법
CN117396311A (zh) 工作站及其操作方法
CN115715245A (zh) 机器人系统
Hamada et al. Flexible handling robot system for cloth using 3-D sensor
Gulati et al. Component Assemblies in a Flexible Work-Cell via Intelligent Control

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210913

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221215

R150 Certificate of patent or registration of utility model

Ref document number: 7197653

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150