JP2019185204A - 画像処理装置、ロボットシステム、画像処理方法 - Google Patents

画像処理装置、ロボットシステム、画像処理方法 Download PDF

Info

Publication number
JP2019185204A
JP2019185204A JP2018072207A JP2018072207A JP2019185204A JP 2019185204 A JP2019185204 A JP 2019185204A JP 2018072207 A JP2018072207 A JP 2018072207A JP 2018072207 A JP2018072207 A JP 2018072207A JP 2019185204 A JP2019185204 A JP 2019185204A
Authority
JP
Japan
Prior art keywords
article
background
shadow
image processing
background data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2018072207A
Other languages
English (en)
Inventor
佑毅 茶薗
Yuki Chazono
佑毅 茶薗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP2018072207A priority Critical patent/JP2019185204A/ja
Publication of JP2019185204A publication Critical patent/JP2019185204A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

【課題】物品自体の陰影の影響を抑えて物品を精度よく認識すること。【解決手段】載置面を背景にした物品をラインセンサ(15)で撮像して、物品を画像認識する画像処理装置(40)であり、撮像画像から陰影の背景データ及び陰影外の背景データを取得するデータ取得部(41)と、陰影の背景データ及び陰影外の背景データに基づいて各背景データの背景色分布を統計処理する統計処理部(42)と、統計処理の処理結果に応じて各背景データの背景色分布を包含する包含モデルを生成するモデル生成部(43)と、撮像画像において包含モデルに基づいて物品を背景から切り出して認識する物品認識部(44)とを備える構成にした。【選択図】図4

Description

本開示は、画像処理装置、ロボットシステム、画像処理方法に関する。
近年のロボットシステムでは、コンベア等の搬送機構で物品を搬送してロボットハンドにピッキングさせて仕分け作業や移載作業が実施される。この場合、ロボットハンドに設けられた三次元計測器で物品の位置と姿勢が立体的に認識されて、認識結果に応じてロボットハンドによって物品が適切に把持されている。この種の認識処理として、CADモデル等の物品の形状モデルを予め記憶しておき、この形状モデルが三次元計測器で物品を計測した計測点群と最も一致する位置と姿勢を探索して、任意に置かれた物品を認識する方法が提案されている(例えば、特許文献1参照)。
特開平9−277184号公報
特許文献1では、物品の認識方法としてICP(Iterative Closest Point)アルゴリズムが採用されている。ICPアルゴリズムは、物品の形状モデルである三次元辞書点群と三次元計測器の計測点群との間で、対応点の誤差が最小となるように座標計算を繰返すことで位置合わせしている。しかしながら、柔軟なパッケージで包装した物品の多くは不定形であるため、予め形状モデルを登録しておくことができない。また、透明パッケージでは、パッケージ形状を光学的に三次元計測することが難しい。三次元計測の代わりに画像認識を用いることで物品を認識可能だが、物品自体の陰影によって物品を精度よく認識できない場合がある。
本開示はかかる点に鑑みてなされたものであり、物品自体の陰影の影響を抑えて物品を精度よく認識することができる画像処理装置、ロボットシステム、画像処理方法を提供することを目的の1つとする。
本開示の一態様の画像処理装置は、載置面を背景にした物品の撮像画像から該物品を画像認識する画像処理装置であって、前記撮像画像から陰影の背景データ及び陰影外の背景データを取得するデータ取得部と、陰影の背景データ及び陰影外の背景データに基づいて各背景データの背景色分布を統計処理する統計処理部と、統計処理の処理結果に応じて各背景データの背景色分布を包含する包含モデルを生成するモデル生成部と、前記撮像画像において、前記包含モデルに基づいて物品を背景から切り出して認識する物品認識部とを備えたことを特徴とする。
本開示によれば、撮像画像の陰影と陰影外の背景データを用いて、陰影が付いた載置面と陰影が付いていない載置面を含む背景色の包含モデルが生成される。包含モデルには陰影が付いた背景色と陰影の全くない背景色に加えて、これらの背景色の中間色が含まれている。このため、包含モデルの内側には陰影の有無に関わらず背景色の画素データ(背景データ)が点在し、包含モデルの外側には背景色以外の画素データが点在する。撮像画像の画素データを包含モデルによって背景の画素データと物品の画素データに分けることができ、背景に陰影があっても撮像画像から物品だけを精度よく切り出して認識することができる。
本実施の形態のロボットシステムの構成図である。 比較例の物品認識処理の一例を示す図である。 本実施の形態のラインセンサと遮光体の位置関係を示す図である。 本実施の形態の画像処理装置のブロック図である。 本実施の形態の背景データの取得処理の一例を示す図である。 本実施の形態の統計処理の一例を示す図である。 本実施の形態の主成分分析のフローチャートの一例を示す図である。 本実施の形態の包含モデルの生成処理の一例を示す図である。 本実施の形態の物品認識処理の一例を示す図である。 本実施の形態の物品の取り出し動作の一例を示す図である。
以下、本実施の形態のロボットシステムについて説明する。図1は、本実施の形態のロボットシステムの構成図である。なお、図1のロボットシステムは一例を示すものであり、図で示した構成に限定されない。
図1に示すように、ロボットシステム1は、工場等に設置されたコンベア(搬送機構)10で物品Pを搬送し、ロボット20によってコンベア10上の物品Pに対して仕分け作業や移載作業を実施するように構成されている。ロボット20は、いわゆる垂直多関節ロボットであり、回転台21に設けたロボットアーム22の先端にロボットハンド23が装着されている。回転台21は設置面に対して垂直軸回りに回転可能に設置され、ロボットアーム22は回転台21に対して揺動可能に連結されている。ロボットアーム22は複数のアーム部を連結して、各アーム部の関節の回転角度をサーボモータ等で制御している。
ロボットハンド23には、吸着パッド24や距離センサ25が設けられており、距離センサ25で物品Pの高さを計測して、吸着パッド24の物品Pの表面に位置付けて把持している。ロボット20にはロボットコントローラ26が接続されており、ロボットコントローラ26によって回転台21の鉛直軸回りの回転角度、各アーム部の関節の回転角度が制御されて、ロボットアーム22の先端のロボットハンド23が所望の位置及び姿勢に調整される。なお、ロボットコントローラ26は、ロボット20と一体に構成されていてもよいし、ロボット20とは別体に構成されていてもよい。
コンベア10の上方には、ロボットハンド23による取り出し位置よりも上流側にラインセンサ15の撮像位置が設定されている。ラインセンサ15は、コンベア10の搬送方向を横切る1ラインを撮像領域16にして、物品Pが撮像領域16を通過する度に、搬送面11を背景にして物品Pを撮像している。物品Pの撮像画像はラインセンサ15から画像処理装置40に出力されて、画像処理装置40にて物品Pの重心位置が求められる。物品Pの重心位置は画像処理装置40からロボットコントローラ26に出力されて、ロボットコントローラ26によってロボットハンド23の移動先として物品Pの重心位置が設定されている。
ロボットシステム1では、コンベア10に搬送された物品Pがラインセンサ15の下方を通過することで物品Pが画像認識される。ロボット20による取り出し位置まで物品Pが搬送されると、画像認識の認識結果に基づいてロボットハンド23が物品Pに近づけられる。そして、ロボットハンド23によって物品Pが把持されると、物品Pを把持した状態でコンベア10上から物品Pが取り出されて、コンベア10の近辺に載置された出荷コンテナ29に物品Pが詰め込まれる。このようなロボット20の動作によって物品Pの仕分け作業等が自動的に実施されている。
ところで、図2の比較例に示すように、物品Pの撮像画像には物品Pだけでなくコンベア10の搬送面11も背景として含まれている。このため、撮像画像から物品Pを認識するためには、撮像画像から背景の搬送面11を除去して物品Pだけを切り出さなければならない。しかしながら、物品Pによって搬送面11上に陰影が作られると、搬送面11の陰影箇所18が物品Pの一部として切り出されて物品Pの形状を正確に認識できない場合がある。特に、陰影箇所18の影響によって物品Pの重心位置Oの算出結果に誤差が生じるため、ロボット20で物品Pを安定的に把持できないおそれがある。
この場合、コンベア10の搬送面11や陰影箇所18の背景色等を事前にデータベースに登録して、撮像画像から搬送面11や陰影箇所18の背景色を除去する構成も考えられる。しかしながら、ロボットシステム1の環境下では、時間帯によって窓からの自然光で屋内の明るさや色合いが変動したり、コンベア10の近くの作業者やロボット20によって一時的に照明が遮られたりする。このため、コンベア10の搬送面11や陰影の背景色をデータベースに一律に登録させておくことが難しい。コンベア10を覆うように照明装置を設けて、照明変動を無くすことも考えられるが、設備コストが高くなってしまう。
このような問題は、ロボットシステム1においてコンベア10で搬送される物品Pを画像認識する場合に限らず、静止した物品Pを画像認識する場合等のように様々なシチュエーションで起こり得る。よって、陰影の影響を受けることなく、撮像画像から物品Pだけを切り出して認識する方法が望まれている。
そこで、本実施の形態の画像処理装置40では、物品Pの背景に意図的に陰影を作り出して、撮像画像の陰影の背景データと陰影外の背景データを用いて、撮像画像の色分布から背景色分布を除去する包含モデル60(図8A参照)を生成している。包含モデル60内には背景データだけが含まれるため、包含モデル60外の色分布の画素データを使用することで、背景から物品Pを切り出して認識することができる。特に、ロボットシステム1では物品Pの重心位置Oを精度良く求めることができ、ロボットハンド23で物品Pを安定的に把持することが可能になっている。
以下、図3から図9を参照して、ロボットシステムの画像処理装置について詳細に説明する。図3は、本実施の形態のラインセンサと遮光体の位置関係を示す図である。図4は、本実施の形態の画像処理装置のブロック図である。図5は、本実施の形態の背景データの取得処理の一例を示す図である。図6は、本実施の形態の統計処理の一例を示す図である。図7は、本実施の形態の主成分分析のフローチャートの一例を示す図である。図8は、本実施の形態の包含モデルの生成処理の一例を示す図である。図9は、本実施の形態の物品認識処理の一例を示す図である。
図3A及び図3Bに示すように、ラインセンサ15はコンベア10の上方に位置付けられ、コンベア10の搬送方向に直交する幅方向を直線状の撮像領域16にしている。また、撮像領域16の一端側には遮光体30が設けられている。遮光体30は、本体部分31から撮像領域16を挟み込むように一対の平行壁32を突出させて形成されている。屋内の光源19からの光が遮光体30によって遮光されることで、一対の平行壁32の内側で撮像領域16の一端側に陰影が形成される。遮光体30に一対の平行壁32を持たせることで、平行壁32と本体部分31によって陰影を安定的に作り出すことが可能になっている。
なお、本実施の形態においてラインセンサ15、遮光体30、光源19の位置関係は適宜変更されてもよい。ラインセンサ15の撮像領域16は遮光体30に作り出された陰影を撮像可能に位置付けられていればよく、遮光体30は光源19からの光を遮光してコンベア10の搬送方向に直交する幅方向の一端側に陰影を形成するように位置付けられていればよい。例えば、図3Cに示すように、遮光体30によって搬送方向の上流側に陰影が形成される場合には、ラインセンサ15は遮光体30よりも搬送方向の上流側を撮像領域16に含めるように位置付けられていればよい。
図4に示すように、画像処理装置40にはラインセンサ15が接続されており、ラインセンサ15で撮像された撮像画像が入力される。画像処理装置40には、撮像画像から陰影の背景データ及び陰影外の背景データを取得するデータ取得部41が設けられている。上記したように、ラインセンサ15の撮像領域の一端側には遮光体30によって陰影が形成され、搬送面11の撮像領域の中央には物品Pが存在している。このため、ラインセンサ15の撮像領域16の一端側から陰影が付いた背景データが取得され、ラインセンサ15の撮像領域16の他端側から陰影が付いていない背景データが取得される。
例えば、図5Aに示すように、データ取得部41には、ラインセンサ15からNライン分の画素列が入力され、Nライン分の画素列の両端側から数画素が背景データとして取得されている。陰影の背景データは遮光体30に近い幅方向の一端側ほど背景色のRGB値が低くなるが、陰影外の背景データは幅方向の他端側から離れてもRGB値に大きな変化はない。したがって、幅方向の一端側の陰影の背景データについては、RGB値が低いデータ数を確保するために、幅方向の一端側に近い画素の比率を高めるように取得されてもよい。
この場合、図5Bに示すように、幅方向の一端側の背景データの取得範囲を狭める代わりに、幅方向の一端側の背景データのデータ数を整数倍してRGB値が低いデータ数を確保してもよい。具体的には、Nラインの画素列から陰影の背景データを取得する際には、陰影の背景データとしてNラインの各画素列の一端からn/2個目までの画素データを取得して2倍する。これにより、Nラインという限られた画素列の中でRGB値が低い背景データを十分に確保することができる。一方で、陰影外の背景データを取得する際には、陰影外の背景データとしてNラインの各画素列の他端からn個目までの画素データを取得する。
なお、Nラインは、物品Pの搬送方向の長さ寸法の半分に相当することが好ましい。これにより、物品Pがロボット20による取り出し位置に到達する前に、画素データの取得処理から物品Pの認識処理まで済ませることができる。
図4に戻り、画像処理装置40には、陰影の背景データ及び陰影外の背景データに基づいて各背景データの各背景色分布51、54(図6A参照)を統計処理する統計処理部42が設けられている。また、画像処理装置40には、統計処理の処理結果に応じて陰影及び陰影外の各背景色分布51、54を包含する包含モデル60(図8A参照)を生成するモデル生成部43が設けられている。統計処理部42では色空間での各背景色分布51、54のバラツキ方向が特定され、モデル生成部43ではバラツキ方向に基づいて陰影の濃淡による背景色の変化を含めるように包含モデル60が生成されている。
例えば、図6Aに示すように、統計処理部42では、陰影及び陰影外の背景データ(画素データ)がRGB値に応じて色空間に配置されると、これら陰影及び陰影外の各背景色分布51、54に対して統計処理が実施される。統計処理としては、主成分分析(PCA: Principal Component Analysis)が実施されて各背景色分布51、54のバラツキが大きな主軸方向が求められる。主成分分析では、各背景色分布51、54の平均値から分散を得て共分散行列が作成され、この行列が対角化することで色分布が近似された特徴ベクトル、すなわち固有ベクトルが得られる。固有ベクトルは主軸ベクトルの傾き比として用いることができる。
この場合、図6Bに示すように、各背景色分布で主軸ベクトル(固有ベクトル)が求められると、色空間での主軸ベクトルの傾きが求められる。主軸ベクトルをE、E、Eとすると、次式(1)によって色空間の各平面に投射した主軸ベクトルの角度θ、θ、θが表され、次式(2)によって主軸ベクトルとGB平面上に投射した主軸ベクトルが成す角度θPoleが表される。
Figure 2019185204
Figure 2019185204
ここで、主成分分析処理の処理フローについて簡単に説明すると、図7に示すように、先ず各背景色分布51、54の点群のRGB値の平均値が算出される(ステップS01)。次に、背景色分布51、54の点群のRGB値と平均値とから共分散行列が作成される(ステップS02)。次に、共分散行列から固有値が算出され(ステップS03)、主軸として固有ベクトルが算出される(ステップS04)。そして、RG平面、GB平面、BR平面に対する固有ベクトルの角度が算出されて主軸方向が算出される(ステップS05)。ここでは、主成分分析で各背景色分布51、54の主軸を算出したが、他の統計処理を用いて各背景色分布51、54から主軸を算出してもよい。
図8Aに示すように、モデル生成部43では、陰影及び陰影外の各背景色分布51、54を含むように楕円体形状の包含モデル60が生成される。陰影の背景色分布51及び陰影外の背景色分布54の中間色は、これら背景色分布51、54の間に分布すると想定される。このため、背景色分布51、54を含むように包含モデル60を生成することで、陰影の濃淡による背景色の変化を含めることができる。楕円体の方程式は、X軸方向の径の半分をa、Y軸方向の径の半分をb、Z軸方向の径の半分をcとすると、次式(3)にて示される。
Figure 2019185204
図8Bに示すように、上記の楕円体の方程式には傾きが含まれないため、包含モデル60の傾きについては別途設定しなければならない。この場合、陰影の背景色分布51の主軸方向52及び陰影外の背景色分布54の主軸方向55の向きから包含モデル60の長軸61の向きが設定される。上記の式(2)によって陰影の背景色分布51の主軸方向52及び陰影外の背景色分布54の主軸方向55が求められるため、主軸方向52、55の間を通るように主軸方向52、55を合成した向きに包含モデル60の長軸61の向きが決定される。なお、包含モデル60のRG平面、GB平面、BR平面に対する角度は、上記した式(1)によって求めることができる。これにより、楕円体形状の包含モデル60を色空間で最適な向きに調整できる。
図8Cに示すように、楕円体のパラメータa−cについては、陰影及び陰影外の各背景色分布51、54の中で包含モデル60の長軸方向でモデル中心から最も離れた画素データ、包含モデル60の短軸方向で長軸61から最も離れた画素データを楕円体が含むように設定される。包含モデル60の向き及び楕円体のパラメータa−cを設定することで、陰影の濃淡による背景色の変化を含めて背景色を識別することができる。なお、包含モデル60は、陰影及び陰影外の背景色分布51、54を丁度含む大きさよりも、誤差を考慮して大きく形成されていることが好ましい。
このように、包含モデル60を楕円体形状にして背景色の分布範囲だけをカバーするようにしたので、物品Pが背景色に近い色であっても背景色だけを包含モデル60に含めることができる。また、包含モデル60の大きさは適宜変更が可能であり、例えば、包含モデル60の長軸61を伸ばすことで、光の反射によって明るくなった背景色や過剰に暗くなった背景色を包含モデル60に含めることができる。なお、本実施の形態では、包含モデル60は楕円体形状に限られず、例えば、物品Pの色が背景色と全く異なる場合には直方体形状に形成されていてもよい。
図4に戻り、画像処理装置40には、撮像画像において包含モデル60に基づいて背景から物品Pを切り離して認識する物品認識部44が設けられている。また、画像処理装置40には、背景から切り離した物品Pの重心位置Oを算出する重心算出部45が設けられている。物品認識部44には、データ取得部41から物品P全体を撮像した撮像画像の画素データが入力される。包含モデル60に含まれる画素データは背景を構成するデータであるとして無視され、包含モデル60に含まれない画素データが物品Pを構成するデータであるとして抽出される。
図9Aに示すように、物品認識部44では、物品Pの撮像画像の画素データがRGB値に応じて色空間に配置されると、包含モデル60内の背景データの除いた画素データだけで画像が生成される。これにより、図9Bに示すように、背景に陰影があっても撮像画像から物品Pだけを精度よく切り出して認識することができる。重心算出部45では、撮像画像から切り出された物品Pの外形形状に基づいて重心位置Oが算出される。このとき、背景の陰影が物品Pの外形形状と認識されることがないため、物品Pの重心位置Oを精度良く求めることが可能になっている。
なお、データ取得部41、統計処理部42、モデル生成部43、物品認識部44、重心算出部45は各種処理を実行するプロセッサやメモリ等により構成されている。メモリは、用途に応じてROM(Read Only Memory)、RAM(Random Access Memory)等の一つ又は複数の記憶媒体で構成されている。メモリには、画像処理方法を画像処理装置40に実行させるプログラムが記憶されている。
続いて、図10を参照して、ロボットシステムによる物品の取り出し動作について説明する。図10は、本実施の形態の物品の取り出し動作の一例を示す図である。なお、図10では、図4の符号を適宜使用して説明する。
図10Aに示すように、コンベア10の搬送面11には、幅方向の一端側にだけ遮光体30で陰影が作られている。コンベア10によって物品Pがラインセンサ15の下方に搬送されると、ラインセンサ15によってコンベア10の幅方向の横一列を撮像領域16にして物品Pが撮像される。このとき、物品Pの周辺領域だけでなく、背景領域としてコンベア10の幅方向の両端側も同時に撮像される。データ取得部41によって物品Pの周辺領域の画素データと同じ取得タイミングで、コンベア10の幅方向の両端側の陰影及び陰影外の背景データも取得される。
次に、図10Bに示すように、統計処理部42によって陰影及び陰影外の背景データの各背景色分布51、54が統計処理され、モデル生成部43によって統計処理の処理結果に応じて陰影及び陰影外の背景色分布51、54を包含する包含モデル60が生成される。包含モデル60によって陰影の濃淡による背景色のバラツキ範囲が色空間内で規定される。そして、物品認識部44によって物品Pの周辺領域の画素データのうち包含モデル60外の画素データが使用されることで、背景の陰影が物品Pの一部として認識されることがなく、撮像画像から背景が除去されて物品Pだけが切り出されて認識される。
次に、図10Cに示すように、重心算出部45によって物品Pの重心位置O(図10B参照)が算出されると、ロボット20によってロボットハンド23が物品Pの重心位置Oに位置付けられる。これにより、ロボットハンド23によって物品Pを安定的に把持することが可能になっている。また、物品Pと搬送面11の幅方向の両端を同時に撮像しているため、物品Pを撮像した時点の陰影及び陰影外の背景データを用いて物品Pを画像認識できる。物品Pをリアルタイムで画像認識することができるため、天候の変化等の環境変動や室内の照明変動の影響を受けることがない。
以上のように、本実施の形態では、撮像画像の陰影と陰影外の背景データを用いて、陰影が付いた載置面と陰影が付いていない載置面を含む背景色の包含モデル60が生成される。包含モデル60には陰影が付いた背景色と陰影の全くない背景色に加えて、これらの背景色の中間色が含まれている。このため、包含モデル60の内側には陰影の有無に関わらず背景色の画素データが点在し、包含モデル60の外側には背景色以外の画素データが点在する。撮像画像の画素データの色分布を包含モデル60によって背景の画素データと物品の画素データに分けることができ、背景に陰影があっても撮像画像から物品Pだけを精度よく切り出して認識することが可能になっている。
なお、上記した本実施の形態では、本開示の技術を物品の画像認識を重心位置の算出に使用する構成にしたが、この構成に限定されない。本開示の技術は、物品を背景から切り出して認識する構成に適用可能であり、例えば、物品の重心位置以外の位置の検出処理や物品の画像認識を物品の判別処理に使用してもよい。
また、上記した本実施の形態では、本開示の技術を搬送中の物品の画像認識に使用する構成にしたが、この構成に限定されない。本開示の技術は静止中の物品の画像認識に使用することもできる。
また、上記した本実施の形態では、物品は食品及び工業製品に限定されるものではなく、画像認識の対象になるものであればよい。
また、上記した本実施の形態では、一種類の背景色から物品を切り出して認識する構成にしたが、この構成に限定されない。複数種類の背景色から物品を切り出して認識することも可能である。
また、上記した本実施の形態では、各画素データの色情報の表現形式としてRGBを例示して説明したが、この構成に限定されない。各画素データの色情報の表現形式としてYUV等の他の表現形式を使用してもよい。
また、上記した本実施の形態では、撮像装置としてラインセンサを使用して、物品と搬送面の幅方向の両端を同時に撮像する構成にしたが、この構成に限定されない。複数の撮像装置を使用して、物品と幅方向の両端を個別に撮像してもよい。
また、上記した本実施の形態では、搬送路脇に遮光体を設けて搬送面に陰影を形成する構成にしたが、この構成に限定されない。搬送面に陰影が存在する場合には遮光体を設けなくてもよい。すなわち、陰影は遮光体によって形成されるものに限定されない。
また、上記した本実施の形態では、搬送面の幅方向の両端から陰影及び陰影外の背景データを取得する構成にしたが、この構成に限定されない。陰影及び陰影外の背景データを取得する構成であれば、背景データの取得位置は限定されない。例えば、物品によって形成された陰影の背景データを取得するようにしてもよい。この場合、搬送面に光源を近づけて物品の陰影を一方向に延ばすようにして、物品が搬送されない位置で撮像装置で物品の陰影の背景データを取得してもよい。
また、上記した本実施の形態では、陰影及び陰影外の背景色分布を使用して包含モデルを生成する構成にしたが、この構成に限定されない。陰影及び陰影外の背景色分布に加えて、陰影と陰影外の中間色の背景色分布を使用して包含モデルを生成してもよい。
また、上記した本実施の形態では、陰影及び陰影外の各背景データの背景色分布を全て包含するように包含モデルを生成したが、この構成に限定されない。包含モデルは、陰影及び陰影外の各背景データの背景色分布を完全に包含するように生成される構成に限定されず、陰影及び陰影外の各背景データの背景色分布の少なくとも一方を部分的に包含するように生成されてもよい。このような構成であっても、例えば、物品で作られる陰影が暗くなり過ぎなければ、撮像画像から物品を精度良く切り出すことができる。
また、上記した本実施の形態では、物品が撮像される度に包含モデルを作成して画像認識する構成にしたが、この構成に限定されない。数分に1回等のように定期的に包含モデルを作成して画像認識する構成でもよい。すなわち、包含モデルの生成タイミングと物品の認識タイミングが一致していなくてもよい。
また、本実施の形態においては、ロボットとして垂直多関節ロボットを例示したが、この構成に限定されない。ロボットは、水平多関節ロボット(スカラーロボット)、直交ロボット、パラレルリングロボット等の他の産業用ロボットでもよい。
また、本実施の形態においては、楕円体形状の包含モデルを例示して説明したが、この構成に限定されない。包含モデルは少なくとも背景色を包含するように形成されていればよく、モデル形状は特に限定されない。
また、本実施の形態においては、本開示の技術をロボットシステムに適用する構成にしたが、この構成に限定されない。本開示の技術は背景から物品を切り出して認識する他のシステムにも適用可能である。
また、本実施の形態のプログラムは記憶媒体に記憶されてもよい。記録媒体は、特に限定されないが、光ディスク、光磁気ディスク、フラッシュメモリ等の非一過性の記録媒体であってもよい。
また、本実施の形態及び変形例を説明したが、他の実施の形態として、上記実施の形態及び変形例を全体的又は部分的に組み合わせたものでもよい。
また、本実施の形態は上記の実施の形態及び変形例に限定されるものではなく、技術的思想の趣旨を逸脱しない範囲において様々に変更、置換、変形されてもよい。さらに、技術の進歩又は派生する別技術によって、技術的思想を別の仕方で実現することができれば、その方法を用いて実施されてもよい。したがって、特許請求の範囲は、技術的思想の範囲内に含まれ得る全ての実施態様をカバーしている。
下記に、上記の実施の形態における特徴点を整理する。
上記実施の形態に記載の画像処理装置は、載置面を背景にした物品の撮像画像から該物品を画像認識する画像処理装置であって、撮像画像から陰影の背景データ及び陰影外の背景データを取得するデータ取得部と、陰影の背景データ及び陰影外の背景データに基づいて各背景データの背景色分布を統計処理する統計処理部と、統計処理の処理結果に応じて各背景データの背景色分布を包含する包含モデルを生成するモデル生成部と、撮像画像において、包含モデルに基づいて物品を背景から切り出して認識する物品認識部とを備えたことを特徴とする。
上記実施の形態に記載の画像処理方法は、載置面を背景にした物品の撮像画像から該物品を画像認識する画像処理方法であって、撮像画像から陰影の背景データ及び陰影外の背景データを取得するステップと、陰影の背景データ及び陰影外の背景データに基づいて各背景データの背景色分布を統計処理するステップと、統計処理の処理結果に応じて各背景データの背景色分布を包含する包含モデルを生成するステップと、撮像画像において、包含モデルに基づいて物品を背景から切り出して認識するステップとを備えたことを特徴とする。
これらの構成によれば、撮像画像の陰影と陰影外の背景データを用いて、陰影が付いた載置面と陰影が付いていない載置面を含む背景色の包含モデルが生成される。包含モデルには陰影が付いた背景色と陰影の全くない背景色に加えて、これらの背景色の中間色が含まれている。このため、包含モデルの内側には陰影の有無に関わらず背景色の画素データが点在し、包含モデルの外側には背景色以外の画素データが点在する。撮像画像の画素データの色分布を包含モデルによって背景の画素データと物品の画素データに分けることができ、背景に陰影があっても撮像画像から物品だけを精度よく切り出して認識することができる。
上記実施の形態に記載の画像処理装置において、モデル生成部は、陰影の背景データ及び陰影外の背景データの背景色分布を完全に包含する包含モデルを生成する。この構成によれば、全ての背景データの背景色分布を包含するような包含モデルによって撮像画像から物品だけを精度よく切り出すことができる。
上記実施の形態に記載の画像処理装置において、モデル生成部は、楕円体形状の包含モデルを生成する。この構成によれば、物品が背景色に近い色であっても背景色だけを包含モデルに含めることができ、撮像画像から物品だけを精度良く切り出すことができる。
上記実施の形態に記載の画像処理装置において、統計処理部は、陰影の背景データ及び陰影外の背景データの各背景色分布を統計処理してそれぞれ主軸方向を求め、モデル生成部は、各背景色分布の主軸の向きに基づいて楕円体形状の長軸の向きを設定する。この構成によれば、背景色だけを含めるように、楕円体形状の包含モデルの向きを設定することができる。
上記実施の形態に記載の画像処理装置において、撮像装置によって撮像画像が撮像され、遮光体によって載置面に陰影が形成される。この構成によれば、遮光体によって載置面に意図的に陰影を作り出すことができる。
上記実施の形態に記載の画像処理装置において、載置面は搬送機構の搬送面であり、搬送面の搬送方向に直交する幅方向の一端側に陰影が形成されており、データ取得部は、搬送面の幅方向の一端側で陰影の背景データを取得すると共に他端側で陰影外の背景データを取得する。この構成によれば、搬送中の物品を撮像画像から精度よく切り出して認識することができる。
上記実施の形態に記載の画像処理装置において、撮像画像が物品及び搬送面の幅方向の両端を同時に撮像した画像であり、物品認識部は、撮像画像において、包含モデルに基づいて物品を背景から切り出してリアルタイムで認識する。この構成によれば、リアルタイムで物品を認識しているため、室内の照明変動や周囲の環境変動の影響を受けることない。
上記実施の形態に記載の画像処理装置において、撮像画像は、搬送面の幅方向を撮像領域とする単一のラインセンサで撮像した画像である。この構成によれば、単一のラインセンサによって搬送面の両端側を同時に撮像することができるため、部品点数を減らしてコストを低減することができる。
上記実施の形態に記載のロボットシステムは、載置面に陰影を作り出す遮光体と、載置面を背景にして物品を撮像する撮像装置と、上記の画像処理装置と、画像処理装置の認識結果に基づいて載置面から物品を取り出すロボットとを備え、画像処理装置は背景から切り出した物品の重心位置を算出し、ロボットが物品の重心位置を把持することを特徴とする。この構成によれば、画像処理装置で物品だけを切り出して重心位置が精度よく求められるため、ロボットで物品の重心位置を把持して安定的に物品を持ち上げることができる。
1 :ロボットシステム
10:コンベア(搬送機構)
11:搬送面(載置面)
15:ラインセンサ(撮像装置)
20:ロボット
30:遮光体
40:画像処理装置
41:データ取得部
42:統計処理部
43:モデル生成部
44:物品認識部
51:背景色分布
52:主軸方向
54:背景色分布
55:主軸方向
60:包含モデル
61:長軸
O :重心位置
P :物品

Claims (10)

  1. 載置面を背景にした物品の撮像画像から該物品を画像認識する画像処理装置であって、
    前記撮像画像から陰影の背景データ及び陰影外の背景データを取得するデータ取得部と、
    陰影の背景データ及び陰影外の背景データに基づいて各背景データの背景色分布を統計処理する統計処理部と、
    統計処理の処理結果に応じて各背景データの背景色分布を包含する包含モデルを生成するモデル生成部と、
    前記撮像画像において、包含モデルに基づいて物品を背景から切り出して認識する物品認識部とを備えたことを特徴とする画像処理装置。
  2. 前記モデル生成部は、陰影の背景データ及び陰影外の背景データの背景色分布を完全に包含する包含モデルを生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記モデル生成部は、楕円体形状の包含モデルを生成することを特徴とする請求項1または請求項2に記載の画像処理装置。
  4. 前記統計処理部は、陰影の背景データ及び陰影外の背景データの各背景色分布を統計処理してそれぞれ主軸方向を求め、
    前記モデル生成部は、各背景色分布の主軸の向きに基づいて前記楕円体形状の長軸の向きを設定することを特徴とする請求項3に記載の画像処理装置。
  5. 撮像装置によって前記撮像画像が撮像され、遮光体によって前記載置面に陰影が形成されることを特徴とする請求項1から請求項4のいずれかに記載の画像処理装置。
  6. 前記載置面は搬送機構の搬送面であり、
    前記搬送面の搬送方向に直交する幅方向の一端側に陰影が形成されており、
    前記データ取得部は、前記搬送面の幅方向の一端側で陰影の背景データを取得すると共に他端側で陰影外の背景データを取得することを特徴とする請求項1から請求項5のいずれかに記載の画像処理装置。
  7. 前記撮像画像が物品及び前記搬送面の幅方向の両端を同時に撮像した画像であり、
    前記物品認識部は、前記撮像画像において、包含モデルに基づいて物品を背景から切り出してリアルタイムで認識することを特徴とする請求項6に記載の画像処理装置。
  8. 前記撮像画像は、前記搬送面の幅方向を撮像領域とする単一のラインセンサで撮像した画像であることを特徴とする請求項6又は請求項7に記載の画像処理装置。
  9. 前記載置面に陰影を作り出す遮光体と、
    前記載置面を背景にして物品を撮像する撮像装置と、
    請求項1から請求項8のいずれかに記載の画像処理装置と、
    前記画像処理装置の認識結果に基づいて前記載置面から物品を取り出すロボットとを備え、
    前記画像処理装置は背景から切り出した物品の重心位置を算出し、前記ロボットが物品の重心位置を把持することを特徴とするロボットシステム。
  10. 載置面を背景にした物品の撮像画像から該物品を画像認識する画像処理方法であって、
    前記撮像画像から陰影の背景データ及び陰影外の背景データを取得するステップと、
    陰影の背景データ及び陰影外の背景データに基づいて各背景データの背景色分布を統計処理するステップと、
    統計処理の処理結果に応じて各背景データの背景色分布を包含する包含モデルを生成するステップと、
    前記撮像画像において、包含モデルに基づいて物品を背景から切り出して認識するステップとを備えたことを特徴とする画像処理方法。
JP2018072207A 2018-04-04 2018-04-04 画像処理装置、ロボットシステム、画像処理方法 Withdrawn JP2019185204A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018072207A JP2019185204A (ja) 2018-04-04 2018-04-04 画像処理装置、ロボットシステム、画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018072207A JP2019185204A (ja) 2018-04-04 2018-04-04 画像処理装置、ロボットシステム、画像処理方法

Publications (1)

Publication Number Publication Date
JP2019185204A true JP2019185204A (ja) 2019-10-24

Family

ID=68341187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018072207A Withdrawn JP2019185204A (ja) 2018-04-04 2018-04-04 画像処理装置、ロボットシステム、画像処理方法

Country Status (1)

Country Link
JP (1) JP2019185204A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03201173A (ja) * 1989-12-28 1991-09-03 Dainippon Printing Co Ltd 切抜き処理方法及び装置
JPH09274658A (ja) * 1996-04-08 1997-10-21 Kubota Corp 画像処理装置
JP2013140090A (ja) * 2012-01-05 2013-07-18 Omron Corp 画像検査装置の検査領域設定方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03201173A (ja) * 1989-12-28 1991-09-03 Dainippon Printing Co Ltd 切抜き処理方法及び装置
JPH09274658A (ja) * 1996-04-08 1997-10-21 Kubota Corp 画像処理装置
JP2013140090A (ja) * 2012-01-05 2013-07-18 Omron Corp 画像検査装置の検査領域設定方法
US20140314302A1 (en) * 2012-01-05 2014-10-23 Omron Corporation Inspection area setting method for image inspecting device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DAWEI LI, LIHONG XU, AND ERIK D. GOODMAN: "Illumination-Robust Foreground Detection in a Video Surveillance System", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, vol. 23, no. 10, JPN7022001117, 29 January 2013 (2013-01-29), US, pages 1637 - 1650, XP011528515, ISSN: 0004726512, DOI: 10.1109/TCSVT.2013.2243649 *
浮田 宗伯: "位置・色調統合空間におけるターゲット色検出のためのサンプルデータ学習法", 情報処理学会研究報告 VOL.2004 NO.91, vol. 第2004巻 第91号, JPN6022009955, 11 September 2004 (2004-09-11), pages 85 - 92, ISSN: 0004726511 *

Similar Documents

Publication Publication Date Title
JP4309439B2 (ja) 対象物取出装置
CN110322457B (zh) 一种2d与3d视觉结合的拆垛方法
US20210358162A1 (en) Image processing method and image capturing apparatus
JP5429614B2 (ja) 箱状ワーク認識装置および方法
JP6736257B2 (ja) 情報処理装置、情報処理方法、プログラム
Nerakae et al. Using machine vision for flexible automatic assembly system
JP2011027724A (ja) 3次元計測装置、その計測方法及びプログラム
US10713530B2 (en) Image processing apparatus, image processing method, and image processing program
JP2015114292A (ja) ワークの位置情報特定装置および方法
KR20220137926A (ko) 복합 3차원 블롭 도구 및 그 작동 방법
JP6973444B2 (ja) 制御システム、情報処理装置および制御方法
Roy et al. Pose estimation of texture-less cylindrical objects in bin picking using sensor fusion
JP2022160363A (ja) ロボットシステム、制御方法、画像処理装置、画像処理方法、物品の製造方法、プログラム、及び記録媒体
JP2010210511A (ja) 対象物の3次元位置・姿勢認識装置及びその方法
US20190358819A1 (en) Image processing apparatus, robot and robot system
JP2019185204A (ja) 画像処理装置、ロボットシステム、画像処理方法
WO2023082417A1 (zh) 抓取点信息获取方法、装置、电子设备和存储介质
US20230297068A1 (en) Information processing device and information processing method
JP7129616B2 (ja) 投影指示装置、荷物仕分けシステムおよび投影指示方法
WO2023083273A1 (zh) 抓取点信息获取方法、装置、电子设备和存储介质
US11875528B2 (en) Object bin picking with rotation compensation
US11823414B2 (en) Information processing device, information processing method, and information processing non-transitory computer readable medium
JP2020021520A (ja) 情報処理システム
US20220318942A1 (en) Robot system, control method, image processing apparatus, image processing method, method of manufacturing products, and recording medium
US11436754B2 (en) Position posture identification device, position posture identification method and position posture identification program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20220517