JP7007324B2 - 画像処理装置、画像処理方法、及びロボットシステム - Google Patents

画像処理装置、画像処理方法、及びロボットシステム Download PDF

Info

Publication number
JP7007324B2
JP7007324B2 JP2019084349A JP2019084349A JP7007324B2 JP 7007324 B2 JP7007324 B2 JP 7007324B2 JP 2019084349 A JP2019084349 A JP 2019084349A JP 2019084349 A JP2019084349 A JP 2019084349A JP 7007324 B2 JP7007324 B2 JP 7007324B2
Authority
JP
Japan
Prior art keywords
pixel
image
image data
distance
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019084349A
Other languages
English (en)
Other versions
JP2020181391A (ja
Inventor
順一郎 吉田
象太 滝澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2019084349A priority Critical patent/JP7007324B2/ja
Priority to DE102020110624.6A priority patent/DE102020110624A1/de
Priority to US16/854,919 priority patent/US11138684B2/en
Priority to CN202010332808.5A priority patent/CN111862198A/zh
Publication of JP2020181391A publication Critical patent/JP2020181391A/ja
Application granted granted Critical
Publication of JP7007324B2 publication Critical patent/JP7007324B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Description

本発明は、画像処理装置、画像処理方法、及びロボットシステムに関する。
対象物をカメラで認識し、認識した対象物をロボットでハンドリングするように構成されたロボットシステムが知られている。例えば、特許文献1は、目標対象物を選択する目標対象物選択部と、他の対象物が目標対象物に近接して配置されているか否かを判定する近接状態判定部と、対象物との干渉が起きないように、回避ベクトルを決定する回避ベクトル決定部と、回避ベクトルに基づいて取出経路を補正した補正経路を作成する取出経路補正部とを備えるロボットシステムを記載する。特許文献2に記載のシステムは、対象物体の2次元情報若しくは3次元情報を取得する第1のセンサと、対象物体の2次元情報若しくは3次元情報を取得する第2のセンサとを用いて、該対象物体の3次元位置姿勢計測を行う。
特開2016-185573号公報 特開2013-186088号公報
対象物の認識に2次元画像を取得する2次元カメラを用いる場合、2次元画像から対象物の輪郭を抽出し対象物の分離に用いるが、対象物の表面の模様(例えば、対象物としての段ボール箱の表面に張られたガムテープ)に影響されて対象物の輪郭が適切に抽出されず対象物の誤認識を生ずる場合がある。他方、対象物の認識に対象物までの距離を表す距離画像を取得可能な3次元カメラを用いることで、対象物表面の模様に影響されずに対象物の輪郭を抽出する手法がある。しかしながら、複数の対象物が密集して配置されているような場合、低解像度の距離画像では対象物同士の狭い隙間を分離して認識できない場合がある。
本開示の一態様は、同一の撮像対象を異なる露光条件で撮像した複数の2次元画像データを記憶する2次元画像記憶部と、前記撮像対象の空間位置に依存する距離情報を表す距離画像データであって、前記2次元画像データの画素配列に対し既知の関係の画素配列を有する距離画像データを記憶する距離画像記憶部と、前記複数の2次元画像データの各々における複数の画素のうち、同一画素同士の輝度の差が所定値よりも小さい第1画素を抽出する画素抽出部と、前記画素配列において前記第1画素に対応する位置にある前記距離画像データの第2画素を特定し、前記第2画素を前記距離画像データにおける非画像化画素とする距離画像調整部と、を備える画像処理装置である。
本開示の別の態様は、ロボットと、前記ロボットを制御するロボット制御装置と、上述の画像処理装置と、を備え、前記ロボット制御装置は、前記距離画像調整部が前記第2画素を前記非画像化画素とした結果の前記距離画像データに基づいて、前記ロボットに前記撮像対象をハンドリングさせる、ロボットシステムである。
本開示のさらに別の態様は、画像処理装置のCPUにより実行される画像処理方法であって、同一の撮像対象を異なる露光条件で撮像した複数の2次元画像データを2次元画像記憶部に記憶し、前記撮像対象の空間位置に依存する距離情報を表す距離画像データであって、前記2次元画像データの画素配列に対し既知の関係の画素配列を有する距離画像データを距離画像記憶部に記憶し、前記複数の2次元画像データの各々における複数の画素のうち、同一画素同士の輝度の差が所定値よりも小さい第1画素を抽出し、前記画素配列において前記第1画素に対応する位置にある前記距離画像データの第2画素を特定し、前記第2画素を前記距離画像データにおける非画像化画素とする、画像処理方法である。
上述の構成によれば、距離画像から高い精度で対象物を認識することが可能となる。
添付図面に示される本発明の典型的な実施形態の詳細な説明から、本発明のこれらの目的、特徴および利点ならびに他の目的、特徴および利点がさらに明確になるであろう。
一実施形態に係る画像処理装置を備えたロボットシステムの全体構成を表す図である。 画像処理装置及びロボット制御装置の機能ブロック図である。 画像処理装置により実行される画像処理を表すフローチャートである。 画像処理により撮像された2つの段ボール箱の2次元画像を示している。 距離画像を説明するための図である。 2次元画像を用いた対象物の画像認識について説明するための図である。 高解像度の3次元カメラを用いて2つの段ボール箱を撮像した場合の距離画像を示す。 低解像度の3次元カメラを用いて2つの段ボール箱を撮像した場合の距離画像を示す。 同一の撮像対象を異なる露光条件で撮像した3つの2次元画像の例を示す。 図3の画像処理により生成される距離画像について説明するための図である。 ロボットシステムにおいて実行される対象物取出処理を表すフローチャートである。 位置マークとしての孔が形成されたワークを撮像して得られた距離画像に対して図3の画像処理を施した後の距離画像を示す。 細いスリットが形成されたワークを撮像して得られた距離画像に対して図3の画像処理を施した後の距離画像を表している。
次に、本開示の実施形態について図面を参照して説明する。参照する図面において、同様の構成部分または機能部分には同様の参照符号が付けられている。理解を容易にするために、これらの図面は縮尺を適宜変更している。また、図面に示される形態は本発明を実施するための一つの例であり、本発明は図示された形態に限定されるものではない。
図1は一実施形態に係る画像処理装置30を備えたロボットシステム100の全体構成を表す図である。図2は、画像処理装置30及びロボット制御装置20の機能ブロック図である。図1に示すように、ロボットシステム100は、ロボット10と、ロボット10を制御するロボット制御装置20と、画像処理装置30とを備える。図2に示すように、画像処理装置30は、同一の撮像対象Wを異なる露光条件で撮像した複数の2次元画像データを記憶する2次元画像記憶部31と、撮像対象Wの空間位置に依存する距離情報を表す距離画像データであって、2次元画像データの画素配列に対し既知の関係の画素配列を有する距離画像データを記憶する距離画像記憶部32と、複数の2次元画像データの各々における複数の画素のうち、同一画素同士の輝度の差が所定値よりも小さい画素(以下、第1画素とも記載する)を抽出する画素抽出部33と、上記画素配列において第1画素に対応する位置にある距離画像データの画素(以下、第2画素とも記載する)を特定し、第2画素を距離画像データにおける非画像化画素とする距離画像調整部34と、を備える。
ロボットシステム100は、さらに、画像処理装置30に接続された画像取得装置50を備える。画像取得装置50は、撮像対象Wの空間位置に依存する距離情報を表す距離画像を取得する3次元カメラとしての機能と、距離画像の画素配列と同じ画素配列で撮像対象Wの2次元画像を取得する2次元カメラとしての機能とを有する。一例として、画像取得装置50は、光源と、パターン光を投影するプロジェクタと、プロジェクタを挟んでプロジェクタの両側に配置された2つのカメラとを有し、パターン光が投影された対象物を、異なる位置に配置された2つのカメラから撮像してステレオ法により対象物の3次元位置情報を取得する構成であっても良い。この場合、画像処理装置50は、同一の画素配列を有する距離画像及び2次元画像、又は、画素配列の対応関係が既知の距離画像及び2次元画像を取得することができる。対象物の3次元位置情報を取得するための方式として他の種類の方式が用いられても良い。画像取得装置50は、ロボット10が配置される作業空間内の既知の位置に配置され、撮像対象Wを上方から撮像する。なお、画像取得装置50は、ロボット10のアーム先端の手首部に取り付けても良い。
本実施形態では、画像取得装置50として、距離画像と2次元画像との双方を1台のカメラが取得する構成を採用している。しかしこれに限定されず、画像取得装置50として、対象物の距離画像を取得する3次元カメラと、2次元画像を取得する2次元カメラとを別々にロボットシステム100内に配置しても良い。この場合、距離画像の画素配列と、2次元画像の画素配列との対応関係を、予めキャリブレーションを行って既知の状態にしておく。
ロボット制御装置20は、画像処理装置30によって調整された距離画像データに基づいてロボット10に撮像対象Wをハンドリングさせる。一例として、図2に示すように、ロボット制御装置20は、画像処理装置30により調整された距離画像データを用いてパターンマッチングにより対象物の画像認識を行う対象物認識部21と、対象物の取り出し動作を実行する取出動作実行部22とを有する構成であっても良い。ロボット10のアーム先端の手首部には把持装置15が装着されている。この構成において、取出動作実行部22は、対象物認識部21により距離画像を用いて認識された対象物を、ロボット10を移動させて把持装置15で把持し取り出す。
図1においてロボット10は垂直多関節ロボットであるものとして示されているが、ロボット10としては他のタイプのロボットが用いられても良い。ロボット制御装置20及び画像処理装置30の各々は、CPU、ROM、RAM、記憶装置、操作部、表示部、ネットワークインタフェース、外部機器インタフェース等を有する一般的なコンピュータとしての構成を有していても良い。
ここで、2次元画像又は距離画像を用いて対象物を認識する場合に生じる可能性のある誤認識の問題について説明する。例示として、図1に示したように、撮像対象Wが隙間を空けて並置される複数の物体(2つの段ボール箱W1、W2)の面を含む場合について考える。図4は、2つの段ボール箱W1、W2を図1に示した画像取得装置50により撮像した2次元画像201を示している。なお、本実施形態において2次元画像はグレイスケール画像として取得されるものとする。図4の2次元画像201には、2つの段ボール箱W1、W2が写っている。段ボール箱W1の中央部には、段ボール箱W1の本体よりもやや暗い濃淡度で縦方向に延びるガムテープ61が写っており、段ボール箱W2の中央部にも、段ボール箱W2の本体よりもやや暗い濃淡度で縦方向に延びるガムテープ62が写っている。2つの段ボール箱W1、W2の間の狭い隙間G1は、2次元画像201中で暗く映る。
図5は、距離画像を説明するための図である。図5に示すように設置フロアFに対して傾斜して配置された物体Tの距離画像を画像取得装置50で取得することを考える。画像取得装置50からみて、物体Tの第2部分T2側が第1部分T1側よりも遠い。距離画像の生成では、カメラから対象物までの距離に応じて色や濃淡を変化させることで距離情報を画像化する。図5の距離画像300は、画像取得装置50に近い位置にあるほど明るく表現し、画像取得装置50から遠い位置にあるほど暗く表現した場合の例である。そのため、距離画像300では、物体Tのうち第2部分T2側が暗く表現され、第1部分T1側が明るく表現されている。
ここで、図4のように取得された2次元画像201を用いてパターンマッチングにより段ボール箱W1、W2を個々に認識する場合について考える。図6(a)は、2つの段ボール箱W1、W2が、破線の太枠251、252で示したように正しく認識された場合を示している。しかしながら、2次元画像で対象物の認識を行った場合、図6(b)に破線の太枠253で示したように、ガムテープ61の輪郭線61aとガムテープ62の輪郭線62aを認識対象の段ボール箱の輪郭線と誤認識し、認識対象の段ボール箱が太枠253の位置にあると誤認識する場合が生じ得る。また、図6(c)に破線の太枠254で示すように、2つの段ボール箱W1、W2全体を囲む輪郭線を一つの段ボール箱として誤認識する場合も生じ得る。図6(c)のように誤認識するのは、対象物の認識処理において、対象物の高さ(カメラから対象物までの距離)に応じて2次元画像上で対象物の大きさが変化することに対応して、テンプレートの大きさを拡大又は縮小する場合があるためである。図6(c)は、認識対象の段ボール箱が図6(a)の場合よりも画像取得装置50に近い位置にあると誤認識された場合に相当する。以上のように、2次元画像による対象物の認識では、対象物の位置を誤認識する場合がある。
図7は、高解像度の3次元カメラを用いて図1に示した段ボール箱W1、W2を画像取得装置50の位置から撮像した場合の距離画像301を示す。図7に示される通り、距離画像301では、2つの段ボール箱W1、W2の間の隙間G1が正確に描写されている。距離画像では、対象物上の模様は画像化されない。よって、距離画像301では、段ボール箱W1、W2上にガムテープ61、62は現れないため、上述の図6(b)に図示したようなガムテープの輪郭線に起因する誤認識の問題は生じない。他方、図8は、低解像度の3次元カメラを用いて図1に示した段ボール箱W1、W2を画像取得装置50の位置から撮像した場合の距離画像302を示す。図8に示すように、距離画像302の場合、隙間G1の画像がぼやけてつぶれてしまっている。距離画像302で画像認識を行った場合、2つの段ボール箱W1、W2を分離して認識することができない。このように、距離画像は、対象物の模様に影響を受けない反面、細部を再現するためには高価な高解像度の3次元カメラを用いる必要が生じる。
本実施形態に係る画像処理装置30は、距離画像を用いて対象物の画像認識を行う場合に生じ得る上述のような問題を解決するように構成されている。図3を参照して画像処理装置30により実現される画像処理方法ついて説明する。図3は、画像処理装置30のCPUによる制御の下で実行される画像処理を表すフローチャートである。画像処理装置30は、画像取得装置50により取得される距離画像データ及び2次元画像データを用いて以下のように画像処理を実行する。はじめに、画像処理装置30は、同一の撮像対象Wを異なる露光条件で撮像した複数の2次元画像データを2次元画像記憶部31に記憶する(ステップS1)。次に、画像処理装置30は、撮像対象Wの空間位置に依存する距離情報を表す距離画像データであって、2次元画像データの画素配列に対し既知の関係の画素配列を有する距離画像データを距離画像記憶部32に記憶する(ステップS2)。
図9は、同一の撮像対象Wを異なる露光条件で撮像した3つの2次元画像211-213の例を示している。露光条件の変更は、照明光の光源の輝度、露光時間、絞り、撮像素子の感度の調節等、各種手法により行うことができる。ここでは、一例として露光時間を調節したものとする。図9に示した2次元画像211-213では、2次元画像211の露光時間が1番長く、2次元画像212の露光時間が2番目に長く、2次元画像213の露光時間が一番短い。通常、画像全体の明るさは露光時間に比例する。そのため、段ボール箱W1、W2の表面は、露光時間の長さに応じて濃淡が変化している。具体的には、2次元画像211中の段ボール箱W1、W2の表面が一番明るく、2次元画像212中の段ボール箱W1、W2の表面が2番目に明るく、2次元画像213中の段ボール箱W1、W2の表面が一番暗い。露光時間の変化による段ボール箱W1、W2の表面の明るさの変化とは対照的に、段ボール箱W1と段ボール箱W2の間の隙間G1の部分の画像の明るさはほとんど変化せず暗いままとなっている。これは、隙間G1のような空所からは光が画像取得装置50まで返ってき難いため、このような空所は露光時間によらず常に暗く映るためである。画像処理装置30(画素抽出部33)は、このように隙間、スリット、穴等の空所の部分の画像は他の部分の画像よりも露光条件の変化に対する明るさの変化の度合いが小さいことに基づき、空所部分の画像(画素)を抽出する。
ステップS3では、複数の2次元画像データの各々における複数の画素のうち、同一画素同士の輝度の差が所定値よりも小さい第1画素を抽出する。一例として、第1画素の抽出は以下のように行うことができる。
(1)2次元画像211と2次元画像212間で、露光時間の変化に対する輝度の変化の度合いを全画素について求める。
(2)2次元画像212と2次元画像213間で、露光時間の変化に対する輝度の変化の度合いを全画素について求める。
(3)上記(1)及び(2)の平均値を各画素について求める。
(4)上記(3)で求めた「単位露光時間の変化に対する輝度の変化の度合い」が所定値よりも小さい画素を抽出する。
上記(1)から(4)の処理により隙間G1部分の画像を構成する第1画素を抽出することができる。ここで「所定値」は、実験値や経験値等の固定的な値を設定するやり方、上記(3)で得られた各画素についての「露光時間の変化に対する輝度の変化」に基づいて「所定値」を設定するやり方等様々なやり方が有り得る。後者の場合には、「露光時間の変化に対する輝度の変化」の全画素における最大値からある値を差し引いた値、或いは、「露光時間の変化に対する輝度の変化」の全画素の平均値からある値を差し引いた値を上記「所定値」とするやり方が有り得る。なお、第1画素の抽出は、同一の撮像対象Wを異なる露光条件で撮像した2つの2次元画像があれば行うことができる。
ステップS4では、画像処理装置30は、距離画像302中の画素配列において、ステップS3で2次元画像中で抽出された第1画素に対応する位置にある距離画像データの第2画素を特定し、第2画素を距離画像データにおける非画像化画素とする。ここで、非画像化画素とするとは、距離情報を表す画素とはしないことを意味する。一例として、第2画素の画素値をゼロやその他の距離情報を表さない無効な値に設定しても良い。これにより、距離画像302において隙間G1部分で対象物を分離し、正確な対象物の認識を行うことが可能になる。ステップS4での処理について図10を参照して説明する。図10に示すように、2次元画像201中の隙間G1の部分に含まれる第1画素を上述の手法にて抽出し、距離画像302中の隙間G1の部分に対応する第2画素を非画像化画素とする。それにより、図10中右側に示した距離画像310が得られる。距離画像310では、隙間G1の部分の第2画素が非画像化画素とされ、段ボール箱W1と、段ボール箱W2が隙間G1の部分で分離されている。これにより段ボール箱W1と段ボール箱W2を個々に正しく認識することが可能になる。
次に、図11を参照して、ロボットシステム100において段ボール箱W1、W2を取り出す動作を実行する場合の処理(以下、対象物取出処理と記す)について説明する。対象物取出処理は、画像処理装置30とロボット制御装置20の協働した動作により実行される。はじめに、画像処理装置30は、画像取得装置50に撮像対象Wの距離画像を撮像させ、撮像された距離画像を記憶する(ステップS101)。次に、画像処理装置30は、画像取得装置50に露光条件を変えながら所定の回数、撮像対象Wの2次元画像を撮像させ、撮像された2次元画像を記憶する(ステップS102、S103、S104)。これにより、図9に例示したような、露光条件の異なる撮像対象Wの複数の2次元画像が取得される。
次に、画像処理装置30は、2次元画像内で、露光時間の変化に対する輝度の変化の度合いが所定値よりも小さい画素を探索する(ステップS105)。画像処理装置30は、探索された画素を、段ボール箱W1、W2間の隙間G1に対応する部分の画素(第1画素)と認識する(ステップS106)。次に画像処理装置30は、ステップS101で取得した距離画像における、隙間G1に対応する箇所の画素(第2画素)を非画像化画素とする(ステップS107)。
次に、ロボット制御装置20の対象物認識部21は、段ボール箱W1、W2のモデルデータを用いて、距離画像内で、段ボール箱W1又はW2を認識する(ステップS108)。対象物認識のためのモデルデータは、ロボット制御装置20の記憶装置(不図示)に格納されている。次に、ロボット制御装置20の取出動作実行部22は、距離画像内で認識された段ボール箱W1又はW2の位置と、画像取得装置50のロボット座標系内での位置とに基づいて、ロボット座標系における段ボール箱W1又はW2の位置を算出する。そして、取出動作実行部22は、算出された段ボール箱W1又はW2のロボット座標系での位置に基づいて、ロボット10を移動させて把持装置15で段ボール箱W1又はW2を個別に把持して取り出す動作を実行する(ステップS109)。
同一の撮像対象を異なる露光条件で撮像した複数の2次元画像データの各々における複数の画素のうち、同一画素同士の輝度の差が所定値よりも小さい第1画素を抽出することによる上述の手法は、物体間の隙間の抽出以外にも、物体に形成された穴やスリット等、照明光の反射光がカメラに返ってき難い空所の撮像情報を保持する画素の抽出に用いることができる。図12は、位置マークとしての孔C1が形成された平板状のワークW3を撮像して得られた距離画像に対して、図3の画像処理を施した後の距離画像410を表している。このような孔C1の部分についても、2次元画像上では露光条件の変化によらず常に暗い状態に写る。このような孔C1が比較的小さく低解像度の3次元カメラで取得した距離画像では再現されない場合でも、図3の画像処理を行うことで、図12に示すように距離画像410上で位置マークとしての孔C1をワークW3の画像から分離して認識することが可能である。その結果、距離画像410を用いて、ワークW3の向きを正しく認識することが可能となる。
図13は、細いスリットL1が形成されたワークW4の距離画像に対して図3の画像処理を施した後の距離画像420を表している。このようなスリットL1の部分についても照明光の反射光がカメラに返ってき難いため、2次元画像におけるスリットL1の部分は露光条件の変化によらず常に暗い状態に写る。このようなスリットL1が細く低解像度の距離画像では再現されない場合でも、図3の画像処理を行うことで、図13に示すように距離画像420上でスリットL1をワークW4の画像から分離して認識することが可能である。その結果、距離画像420を用いて、ワークW4の形状を正しく認識することが可能となる。
以上説明したように、本実施形態によれば、距離画像から高い精度で対象物を認識することが可能となる。
以上、典型的な実施形態を用いて本発明を説明したが、当業者であれば、本発明の範囲から逸脱することなしに、上述の各実施形態に変更及び種々の他の変更、省略、追加を行うことができるのを理解できるであろう。
図1で示したロボットシステムの構成、図2で示した機能ブロック図の構成は一例であり、本発明が図1-2に示した構成に限定されるものではない。例えば、図1に示した画像処理装置30としての各種機能がロボット制御装置20内に実現されていても良い。図2における画像処理装置30の機能の一部がロボット制御装置20側に配置されていても良い。或いは、ロボット制御装置20の機能の一部が画像処理装置30に配置されていても良い。
上述の実施形態における、同一の撮像対象を異なる露光条件で撮像した複数の2次元画像データを用いて、2次元画像データの各々における複数の画素のうち、同一画素同士の輝度の差が所定値よりも小さい第1画素を抽出し、第1画素に対応する位置にある距離画像データの第2画素を非画像化画素とするという手法は、2次元画像データ上で同一画素同士の輝度の差が所定値よりも小さい画素の情報を用いて、距離画像の情報を補う手法であると表現することもできる。
図3の画像処理におけるステップS3(同一画素同士の輝度の差が所定値よりも小さい第1画素を抽出)を実行する場合に、同一画素同士の輝度の差が所定値よりも小さい画素がある程度の塊で存在する場合にのみこのような画素を抽出するようにしても良い。これにより、距離画像上で再現される必要のないキズ等の部分の画素が抽出されることを回避することができる。
10 ロボット
15 把持装置
20 ロボット制御装置
21 対象物認識部
22 取出動作実行部
30 画像処理装置
31 2次元画像記憶部
32 距離画像記憶部
33 画素抽出部
34 距離画像調整部
50 画像取得装置
100 ロボットシステム

Claims (6)

  1. 同一の撮像対象を異なる露光条件で撮像した複数の2次元画像データを記憶する2次元画像記憶部と、
    前記撮像対象の空間位置に依存する距離情報を表す距離画像データであって、前記2次元画像データの画素配列に対し既知の関係の画素配列を有する距離画像データを記憶する距離画像記憶部と、
    前記複数の2次元画像データの各々における複数の画素のうち、同一画素同士の輝度の差が所定値よりも小さい第1画素を抽出する画素抽出部と、
    前記画素配列において前記第1画素に対応する位置にある前記距離画像データの第2画素を特定し、前記第2画素を前記距離画像データにおける非画像化画素とする距離画像調整部と、を備える画像処理装置。
  2. 前記第1画素は、前記撮像対象における空所の撮像情報を保持する画素である、請求項1に記載の画像処理装置。
  3. ロボットと、
    前記ロボットを制御するロボット制御装置と、
    請求項1又は2に記載の画像処理装置と、を備え、
    前記ロボット制御装置は、
    前記距離画像調整部が前記第2画素を前記非画像化画素とした結果の前記距離画像データに基づいて、前記ロボットに前記撮像対象をハンドリングさせる、
    ロボットシステム。
  4. 前記複数の2次元画像データ及び前記距離画像データを取得する画像取得装置をさらに備える、請求項3に記載のロボットシステム。
  5. 前記撮像対象が、隙間を空けて並置される複数の物体の面を含み、前記第1画素が、前記隙間の撮像情報を保持し、前記ロボットは、前記複数の物体の各々を個別に把持する、請求項3又は4に記載のロボットシステム。
  6. 画像処理装置のCPUにより実行される画像処理方法であって、
    同一の撮像対象を異なる露光条件で撮像した複数の2次元画像データを2次元画像記憶部に記憶し、
    前記撮像対象の空間位置に依存する距離情報を表す距離画像データであって、前記2次元画像データの画素配列に対し既知の関係の画素配列を有する距離画像データを距離画像記憶部に記憶し、
    前記複数の2次元画像データの各々における複数の画素のうち、同一画素同士の輝度の差が所定値よりも小さい第1画素を抽出し、
    前記画素配列において前記第1画素に対応する位置にある前記距離画像データの第2画素を特定し、前記第2画素を前記距離画像データにおける非画像化画素とする、画像処理方法。
JP2019084349A 2019-04-25 2019-04-25 画像処理装置、画像処理方法、及びロボットシステム Active JP7007324B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019084349A JP7007324B2 (ja) 2019-04-25 2019-04-25 画像処理装置、画像処理方法、及びロボットシステム
DE102020110624.6A DE102020110624A1 (de) 2019-04-25 2020-04-20 Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und robotersystem
US16/854,919 US11138684B2 (en) 2019-04-25 2020-04-22 Image processing apparatus, image processing method, and robot system
CN202010332808.5A CN111862198A (zh) 2019-04-25 2020-04-24 图像处理装置、图像处理方法以及机器人系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019084349A JP7007324B2 (ja) 2019-04-25 2019-04-25 画像処理装置、画像処理方法、及びロボットシステム

Publications (2)

Publication Number Publication Date
JP2020181391A JP2020181391A (ja) 2020-11-05
JP7007324B2 true JP7007324B2 (ja) 2022-01-24

Family

ID=72921541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019084349A Active JP7007324B2 (ja) 2019-04-25 2019-04-25 画像処理装置、画像処理方法、及びロボットシステム

Country Status (4)

Country Link
US (1) US11138684B2 (ja)
JP (1) JP7007324B2 (ja)
CN (1) CN111862198A (ja)
DE (1) DE102020110624A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6959277B2 (ja) * 2019-02-27 2021-11-02 ファナック株式会社 3次元撮影装置および3次元撮影条件調整方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092955A (ja) 1999-09-21 2001-04-06 Fuji Photo Film Co Ltd 画像処理方法および装置
US20120074296A1 (en) 2010-09-23 2012-03-29 Sick Ag Optoelectronic sensor
JP2013101045A (ja) 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP2015114292A (ja) 2013-12-16 2015-06-22 川崎重工業株式会社 ワークの位置情報特定装置および方法

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0519719B1 (en) * 1991-06-20 1999-03-17 Canon Kabushiki Kaisha Arrangement of a plurality of image sensors in a video camera
US6453069B1 (en) * 1996-11-20 2002-09-17 Canon Kabushiki Kaisha Method of extracting image from input image using reference image
AU2003235679A1 (en) * 2002-01-14 2003-07-30 Carnegie Mellon University Conveyor belt inspection system and method
EP1345154A1 (en) * 2002-03-11 2003-09-17 Bracco Imaging S.p.A. A method for encoding image pixels and method for processing images aimed at qualitative recognition of the object reproduced by one more image pixels
DE10251584B4 (de) * 2002-11-06 2004-11-04 Leuze Lumiflex Gmbh + Co. Kg Verfahren und Vorrichtung zur Überwachung eines Erfassungsbereiches
JP4409166B2 (ja) * 2002-12-05 2010-02-03 オリンパス株式会社 画像処理装置
JP4746841B2 (ja) * 2004-01-23 2011-08-10 ルネサスエレクトロニクス株式会社 半導体集積回路装置の製造方法
US7701455B2 (en) * 2004-07-21 2010-04-20 Che-Chih Tsao Data rendering method for volumetric 3D displays
JP4466260B2 (ja) * 2004-07-30 2010-05-26 パナソニック電工株式会社 画像処理装置
JP4328286B2 (ja) * 2004-12-14 2009-09-09 本田技研工業株式会社 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム
US7609892B2 (en) * 2005-08-19 2009-10-27 Panasonic Corporation Image processing method, image processing system, and image processing program
WO2007032082A1 (ja) * 2005-09-16 2007-03-22 Fujitsu Limited 画像処理方法及び画像処理装置
JP2007206797A (ja) * 2006-01-31 2007-08-16 Omron Corp 画像処理方法および画像処理装置
JP4309439B2 (ja) * 2007-03-30 2009-08-05 ファナック株式会社 対象物取出装置
US7760238B2 (en) * 2007-07-25 2010-07-20 National Instruments Corporation Vision system with deterministic low-latency communication
JP4525812B2 (ja) * 2008-08-08 2010-08-18 株式会社デンソー 露出設定装置、露出設定プログラム、および画像処理装置
US8174611B2 (en) * 2009-03-26 2012-05-08 Texas Instruments Incorporated Digital image segmentation using flash
KR101807886B1 (ko) * 2009-10-14 2017-12-11 돌비 인터네셔널 에이비 깊이 맵 처리를 위한 방법 및 디바이스
IN2012DN03206A (ja) * 2009-10-19 2015-10-23 Sumitomo Electric Industries
US8885978B2 (en) * 2010-07-05 2014-11-11 Apple Inc. Operating a device to capture high dynamic range images
US8730318B2 (en) * 2010-07-29 2014-05-20 Hitachi-Ge Nuclear Energy, Ltd. Inspection apparatus and method for producing image for inspection
US10157495B2 (en) * 2011-03-04 2018-12-18 General Electric Company Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US8654219B2 (en) * 2011-04-26 2014-02-18 Lg Electronics Inc. Method and apparatus for restoring dead pixel using light intensity map in a time-of-flight camera
JP5832855B2 (ja) * 2011-11-01 2015-12-16 クラリオン株式会社 画像処理装置、撮像装置および画像処理プログラム
US9113142B2 (en) * 2012-01-06 2015-08-18 Thomson Licensing Method and device for providing temporally consistent disparity estimations
JP6000579B2 (ja) 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
US8792013B2 (en) * 2012-04-23 2014-07-29 Qualcomm Technologies, Inc. Method for determining the extent of a foreground object in an image
US8619082B1 (en) * 2012-08-21 2013-12-31 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras that contain occlusions using subsets of images to perform depth estimation
JP2014126943A (ja) * 2012-12-25 2014-07-07 Fanuc Ltd 画像中の対象物を検出するために画像処理を行う画像処理装置及び方法
KR102111823B1 (ko) * 2013-01-16 2020-05-15 스미또모 가가꾸 가부시키가이샤 화상 생성 장치, 결함 검사 장치 및 결함 검사 방법
JP6020199B2 (ja) * 2013-01-24 2016-11-02 株式会社ソシオネクスト 画像処理装置、方法、及びプログラム、並びに撮像装置
KR102168143B1 (ko) * 2013-01-30 2020-10-20 스미또모 가가꾸 가부시키가이샤 화상 생성 장치, 결함 검사 장치 및 결함 검사 방법
JP6214236B2 (ja) * 2013-03-05 2017-10-18 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
US9412172B2 (en) * 2013-05-06 2016-08-09 Disney Enterprises, Inc. Sparse light field representation
CN105230000B (zh) * 2013-05-31 2019-03-22 株式会社尼康 摄像元件以及摄像装置
US10375300B2 (en) * 2014-04-28 2019-08-06 Lynx System Developers, Inc. Methods for processing event timing data
US9582888B2 (en) * 2014-06-19 2017-02-28 Qualcomm Incorporated Structured light three-dimensional (3D) depth map based on content filtering
CN105225217B (zh) * 2014-06-23 2018-04-10 株式会社理光 基于深度的背景模型更新方法和系统
CN105430255A (zh) * 2014-09-16 2016-03-23 精工爱普生株式会社 图像处理装置以及机器人系统
JP6573354B2 (ja) * 2014-11-28 2019-09-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US20160175964A1 (en) * 2014-12-19 2016-06-23 Lincoln Global, Inc. Welding vision and control system
JP6345612B2 (ja) * 2015-02-06 2018-06-20 株式会社ソニー・インタラクティブエンタテインメント 撮像装置、情報処理システム、マット、および画像生成方法
WO2016144744A1 (en) * 2015-03-09 2016-09-15 Illinois Tool Works Inc. Methods and apparatus to provide visual information associated with welding operations
JP6548422B2 (ja) * 2015-03-27 2019-07-24 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP6489894B2 (ja) 2015-03-27 2019-03-27 ファナック株式会社 対象物の取出経路を補正する機能を有するロボットシステム
JP6643122B2 (ja) * 2016-02-03 2020-02-12 キヤノン株式会社 距離画像装置、撮像装置、および距離画像補正方法
JP6795993B2 (ja) * 2016-02-18 2020-12-02 株式会社ミツトヨ 形状測定システム、形状測定装置及び形状測定方法
JP6540557B2 (ja) * 2016-03-07 2019-07-10 オムロン株式会社 画像計測システムおよびコントローラ
US10212408B1 (en) * 2016-06-29 2019-02-19 Amazon Technologies, Inc. Depth-map augmentation techniques
US10502556B2 (en) * 2016-07-20 2019-12-10 Mura Inc. Systems and methods for 3D surface measurements
DE102016118227A1 (de) * 2016-09-27 2018-03-29 Claas Selbstfahrende Erntemaschinen Gmbh Bildanlysesystem für landwirtschaftliche Arbeitsmaschinen
JP6527178B2 (ja) * 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
WO2018165753A1 (en) * 2017-03-14 2018-09-20 University Of Manitoba Structure defect detection using machine learning algorithms
US10917543B2 (en) * 2017-04-24 2021-02-09 Alcon Inc. Stereoscopic visualization camera and integrated robotics platform
JP6420404B1 (ja) * 2017-04-26 2018-11-07 ファナック株式会社 物体認識装置
US10863105B1 (en) * 2017-06-27 2020-12-08 Amazon Technologies, Inc. High dynamic range imaging for event detection and inventory management
JP6970551B2 (ja) * 2017-07-31 2021-11-24 株式会社キーエンス 形状測定装置及び形状測定方法
WO2019047985A1 (zh) * 2017-09-11 2019-03-14 Oppo广东移动通信有限公司 图像处理方法和装置、电子装置和计算机可读存储介质
US10498963B1 (en) * 2017-12-04 2019-12-03 Amazon Technologies, Inc. Motion extracted high dynamic range images
JP6740288B2 (ja) * 2018-07-13 2020-08-12 ファナック株式会社 物体検査装置、物体検査システム、及び検査位置を調整する方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092955A (ja) 1999-09-21 2001-04-06 Fuji Photo Film Co Ltd 画像処理方法および装置
US20120074296A1 (en) 2010-09-23 2012-03-29 Sick Ag Optoelectronic sensor
JP2013101045A (ja) 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP2015114292A (ja) 2013-12-16 2015-06-22 川崎重工業株式会社 ワークの位置情報特定装置および方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Xinjian Fan et al.,"A combined 2D-3D vision system for automatic robot picking",Proceedings of the 2014 International Conference on Advanced Mechatronic Systems,米国,IEEE,2014年08月10日,pp.513-516
橋本 学、外2名,"低解像度距離画像と濃淡画像を用いた物体移載ロボット用視覚システムの構築",電子情報通信学会論文誌,日本,社団法人電子情報通信学会,2001年06月01日,Vol.J84-D-II, No.6,pp.985-993

Also Published As

Publication number Publication date
DE102020110624A1 (de) 2020-11-12
US20200342563A1 (en) 2020-10-29
US11138684B2 (en) 2021-10-05
JP2020181391A (ja) 2020-11-05
CN111862198A (zh) 2020-10-30

Similar Documents

Publication Publication Date Title
EP1555507B1 (en) Three-dimensional visual sensor
EP1413850B1 (en) Optical sensor for measuring position and orientation of an object in three dimensions
JP3951984B2 (ja) 画像投影方法、及び画像投影装置
US9712755B2 (en) Information processing method, apparatus, and program for correcting light field data
US8098928B2 (en) Apparatus for picking up objects
CN108898634B (zh) 基于双目相机视差对绣花机目标针眼进行精确定位的方法
JP2015203652A (ja) 情報処理装置および情報処理方法
JP4042750B2 (ja) 画像処理装置、コンピュータプログラム、及び画像処理方法
JP5145605B2 (ja) 変形性薄物展開装置
JP5145606B2 (ja) 変形性薄物展開装置
JP7007324B2 (ja) 画像処理装置、画像処理方法、及びロボットシステム
CN113221953B (zh) 基于实例分割和双目深度估计的目标姿态识别系统与方法
EP3499178B1 (en) Image processing system, image processing program, and image processing method
JP2003065714A (ja) カメラ・キャリブレーションのためのガイド装置及びガイド方法、並びに、カメラ・キャリブレーション装置
JP7379299B2 (ja) 位置姿勢推定装置、位置姿勢推定方法及びプログラム
JP2020021212A (ja) 情報処理装置、情報処理方法及びプログラム
JP6025400B2 (ja) ワーク位置検出装置、及びワーク位置検出方法
KR20130075712A (ko) 레이저비전 센서 및 그 보정방법
CN111536895B (zh) 外形识别装置、外形识别系统以及外形识别方法
JP7028814B2 (ja) 外形認識装置、外形認識システム及び外形認識方法
JP2005216191A (ja) ステレオ画像処理装置およびステレオ画像処理方法
EP4332499A1 (en) Three-dimensional measuring apparatus, three-dimensional measuring method, storage medium, system, and method for manufacturing an article
JP2007205982A (ja) 3次元視覚センサ
TW202300086A (zh) 基於視覺辨識的圖案光投影方法與系統、應用於口腔檢測的方法與系統、及機械加工系統
CN115136196A (zh) 三维拍摄装置以及拍摄条件调整方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220106

R150 Certificate of patent or registration of utility model

Ref document number: 7007324

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150