JP6836561B2 - 画像処理装置及び画像処理方法 - Google Patents
画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- JP6836561B2 JP6836561B2 JP2018176026A JP2018176026A JP6836561B2 JP 6836561 B2 JP6836561 B2 JP 6836561B2 JP 2018176026 A JP2018176026 A JP 2018176026A JP 2018176026 A JP2018176026 A JP 2018176026A JP 6836561 B2 JP6836561 B2 JP 6836561B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- model pattern
- images
- point
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000001514 detection method Methods 0.000 claims description 63
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 4
- 238000000034 method Methods 0.000 description 40
- 238000003384 imaging method Methods 0.000 description 12
- 230000000007 visual effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/20—Linear translation of whole images or parts thereof, e.g. panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Description
図1は、本発明の一実施形態に係る画像処理装置1の主要な構成を示す図である。画像処理装置1は、作業台2に載置されたワーク3を撮像する少なくとも2つのカメラ4(本実施形態では、一対の第1のカメラ4A及び第2のカメラ4B)に接続されている。画像処理装置1は、ワーク3の輪郭線によってワーク3の形状を特定する機能を備える。
●手順a1)モデルパターンとして教示したい対象物をカメラの視野内に配置し、対象物の画像を撮像する。この時のカメラと対象物の位置関係は、対象物を検出するときと同じになるようにして行うことが望ましい
●手順a2)手順1で撮像した画像において、対象物が映った領域を矩形や円形で指定する。指定した領域をモデルパターン指定領域と呼ぶ。
●手順a3)モデルパターン指定領域からエッジ点を抽出し、エッジ点の位置、姿勢(輝度勾配の方向)、輝度勾配の大きさ等の物理量を求める。また、指定された領域内にモデルパターン座標系を定義し、エッジ点の位置や姿勢を、画像座標系で表現された値から、モデルパターン座標系で表現された値に変換する
●手順a4)抽出されたエッジ点の位置、姿勢(輝度勾配の方向)、輝度勾配の大きさ等の物理量をモデルパターンを構成するモデル特徴点Piとしてモデルパターン記憶部に記憶する
●手順a5)生成されたモデルパターンに修正の必要があれば、操作者がモデルパターンを修正する操作を行う。例えば、必要のないモデル特徴点(ノイズや同一の平面に乗っていない特徴点)を削除して、モデルパターン座標系の原点を変更する
●手順b1)カメラの撮像面上に原点を置くローカル座標系を定義する。
●手順b2)予め、カメラをキャリブレーションしておく。これにより、ローカル座標系で表現された3次元点をカメラ画像上の2次元点に変換することができる。
●手順b3)ローカル座標系にCADデータとして表現された対象物を仮想的に配置する。配置されたCADデータはローカル座標系で表現される。カメラと対象物の相対関係は、実際に対象物の検出を行うときの相対関係と大体同じになるようにする。
●手順b4)輪郭線から所定の間隔で輪郭線上の3次元点群を取得する。必要があれば、CADデータの中からモデルパターンとして使う輪郭線を指定する。
●手順b5)3次元点群をカメラ画像上に投影し、画像座標系上の2次元点群を求める。CADデータ上で明暗の向きを指定すれば、輝度勾配の方向も付加することができる。ここで、明暗の向きとは、輪郭線を境界とする二つの領域のどちらが明るいかを示すものである。
●手順b6)求められた画像座標系上の2次元点群をモデル座標系で表現するように変換し、モデル特徴点としてモデルパターン記憶部に記憶する。
例えば、上記した実施形態では2つのカメラ4を用いた例を示したが、他の実施形態として、3つ以上のカメラ4を用いて対象物を撮像して得られた3つ以上の画像データに対して上記した処理を実行し、各画像データ内の対象物の対応点の3次元位置を得ることにより、対象物の3次元位置姿勢を求めることも可能である。この様に、多数の対応点の3次元位置姿勢を使うことで、対象物の位置姿勢の推定の誤差を減らすことができる。
また、対応点取得部124は、モデルパターン変換部123が変換したモデルパターンのモデル特徴点について、該モデル特徴点を画像データに重畳した場合の近傍のエピポーラ線と、該モデル特徴点に隣合う第1の特徴点を結ぶ線分との交点を対応点として取得するようにしても良い。
●手順c2)手順c1で選択した対象物に対してモデルパターンを重畳して対応点を取得し、その中の対応点の1つ(図10における対応点Pci)を選択する。
●手順c3)手順c2で選択した特徴点を通るエピポーラ線(図10におけるエピポーラ線Ei)を計算する。
●手順c4)手順c3で計算したエピポーラ線と重なるエピポーラ面を通る第2のカメラ4Bから取得された画像データのエピポーラ線(図10におけるエピポーラ線Ej)を計算する。
●手順c5)手順c2で計算したエピポーラ線が通る対象物上の対応点(図10における特徴点Pci)と、手順c3で計算したエピポーラ線を通る対象物上の対応点(図10における特徴点Pcj)とが、モデルパターンの同一のモデル特徴点に対応している場合(即ち、モデルパターンの同一のモデル特徴点に対応する対象物上の位置が同一のエピポーラ面の上にある場合)、それら対象物は互いに対応する対象物である可能性がある。
●手順c6)上記手順を、すべてのモデルパターンのモデル特徴点に対して行い、互いに対応する可能性が高い対象物(例えば、同一のエピポーラ面に載る対応点の数が多い対象物や、エピポーラ線を通る同一の対応点が多い対象物)を特定する。
2 作業台
3 ワーク
4,4A,4B カメラ
5 ロボット
11 CPU
12 ROM
13 RAM
14 不揮発性メモリ
18,19,20,21 インタフェース
22 バス
70 表示装置
71 入力装置
100 視覚センサ制御部
110 画像データ取得部
120 画像処理部
121 エッジ抽出部
122 対象物検出部
123 モデルパターン変換部
124 対応点取得部
125 対応点セット選択部
126 3次元位置算出部
200 キャリブレーションデータ記憶部
210 モデルパターン記憶部
Claims (8)
- 少なくとも1つのカメラにより撮像された検出対象物の複数の画像から、該検出対象物の各特徴点の3次元位置を求める画像処理装置において、
前記検出対象物に対する複数のモデル特徴点から構成されたモデルパターンを記憶するモデルパターン記憶部と、
前記カメラにより同一の前記検出対象物を撮像することにより得られた複数の画像を取得する画像データ取得部と、
前記複数の画像から第1の特徴点を抽出する特徴点抽出部と、
前記複数の画像から抽出された第1の特徴点と、前記モデルパターン記憶部に記憶されたモデルパターンとのマッチングを行うことにより、前記複数の画像から検出対象物の像を検出する対象物検出部と、
前記モデルパターンのモデル特徴点が、前記対象物検出部が検出した前記複数の画像内の検出対象物の像に重畳するように、前記モデルパターンのモデル特徴点の位置姿勢を変換するモデルパターン変換部と、
前記モデルパターン変換部が変換した前記モデルパターンのモデル特徴点に対応する前記画像上の点を対応点として取得する対応点取得部と、
前記複数の画像のそれぞれの検出対象物の像に対して求められた対応点から、同一のモデル特徴点に基づいて得られた対応点を対応点セットとして選択する対応点セット選択部と、
前記対応点セット選択部が選択した対応点セットに基づいて前記検出対象物の各特徴点の3次元位置を算出する3次元位置算出部と、
を備えた画像処理装置。 - 前記対応点取得部は、前記モデルパターン変換部が変換した前記モデルパターンのモデル特徴点に対応する前記画像内の位置を対応点として取得する、
請求項1に記載の画像処理装置。 - 前記対応点取得部は、前記モデルパターン変換部が変換した前記モデルパターンのモデル特徴点について、該モデル特徴点の近傍の第1の特徴点を探索し、対応点として取得する、
請求項1に記載の画像処理装置。 - 前記対応点取得部は、前記モデルパターン変換部が変換した前記モデルパターンのモデル特徴点について、それぞれの前記第1の特徴点を通るエピポーラ線の内で該モデル特徴点を前記画像に重畳した場合の近傍のエピポーラ線と、該モデル特徴点と隣合う第1の特徴点を結ぶ線分との交点を対応点として取得する、
請求項1に記載の画像処理装置。 - 前記対応点セット選択部は、前記対象物検出部が前記複数の画像のそれぞれに複数の検出対象物を検出した場合、前記モデルパターンの同一のモデル特徴点が、同一のエピポーラ面上にある対象物同士を同一の検出対象物とみなす、
請求項1〜4のいずれか1つに記載の画像処理装置。 - 前記モデルパターンは前記検出対象物を撮像した入力画像から生成される、
請求項1〜5のいずれか1つに記載の画像処理装置。 - 前記モデルパターンは前記検出対象物の3次元形状データから生成される、
請求項1〜6のいずれか1つに記載の画像処理装置。 - 少なくとも1つのカメラにより撮像された検出対象物の複数の画像から、該検出対象物の各特徴点の3次元位置を求める画像処理方法において、
前記カメラにより同一の前記検出対象物を撮像することにより得られた複数の画像を取得する第1ステップと、
前記複数の画像から第1の特徴点を抽出する第2ステップと、
前記複数の画像から抽出された第1の特徴点と、前記検出対象物に対する複数のモデル特徴点から構成されたモデルパターンとのマッチングを行うことにより、前記複数の画像から検出対象物の像を検出する第3ステップと、
前記モデルパターンのモデル特徴点が、第3ステップで検出した前記複数の画像内の検出対象物の像に重畳するように、前記モデルパターンのモデル特徴点の位置姿勢を変換する第4ステップと、
前記第4ステップで変換した前記モデルパターンのモデル特徴点に対応する点を取得する第5ステップと、
前記複数の画像のそれぞれの検出対象物の像に対して求められた対応点から、同一のモデル特徴点に基づいて得られた対応点を対応点セットとして選択する第6ステップと、
前記第6ステップで選択した対応点セットに基づいて前記検出対象物の各特徴点3次元位置を算出する第7ステップと、
を実行する画像処理方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018176026A JP6836561B2 (ja) | 2018-09-20 | 2018-09-20 | 画像処理装置及び画像処理方法 |
DE102019124810.8A DE102019124810A1 (de) | 2018-09-20 | 2019-09-16 | Bildverarbeitungsgerät und Bildverarbeitungsverfahren |
CN201910887065.5A CN110926330B (zh) | 2018-09-20 | 2019-09-19 | 图像处理装置和图像处理方法 |
US16/575,388 US11625842B2 (en) | 2018-09-20 | 2019-09-19 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018176026A JP6836561B2 (ja) | 2018-09-20 | 2018-09-20 | 画像処理装置及び画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020047049A JP2020047049A (ja) | 2020-03-26 |
JP6836561B2 true JP6836561B2 (ja) | 2021-03-03 |
Family
ID=69725183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018176026A Active JP6836561B2 (ja) | 2018-09-20 | 2018-09-20 | 画像処理装置及び画像処理方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11625842B2 (ja) |
JP (1) | JP6836561B2 (ja) |
CN (1) | CN110926330B (ja) |
DE (1) | DE102019124810A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6863946B2 (ja) * | 2018-10-31 | 2021-04-21 | ファナック株式会社 | 画像処理装置 |
KR20190103085A (ko) * | 2019-08-15 | 2019-09-04 | 엘지전자 주식회사 | 지능형 진단 디바이스 |
EP4131166A4 (en) * | 2020-03-27 | 2023-05-10 | Panasonic Intellectual Property Management Co., Ltd. | THREE-DIMENSIONAL MODEL GENERATION METHOD AND THREE-DIMENSIONAL MODEL GENERATION DEVICE |
CN111815718B (zh) * | 2020-07-20 | 2022-03-01 | 四川长虹电器股份有限公司 | 一种基于视觉的工业螺钉机器人切换工位的方法 |
JPWO2022124017A1 (ja) * | 2020-12-08 | 2022-06-16 | ||
TW202239546A (zh) | 2020-12-10 | 2022-10-16 | 日商發那科股份有限公司 | 圖像處理系統及圖像處理方法 |
JP7528009B2 (ja) * | 2021-03-17 | 2024-08-05 | 株式会社東芝 | 画像処理装置および画像処理方法 |
US12002214B1 (en) * | 2023-07-03 | 2024-06-04 | MOVRS, Inc. | System and method for object processing with multiple camera video data using epipolar-lines |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3834297B2 (ja) | 2003-05-12 | 2006-10-18 | ファナック株式会社 | 画像処理装置 |
CN100559398C (zh) | 2007-06-19 | 2009-11-11 | 北京航空航天大学 | 自动的深度图像配准方法 |
CN100554873C (zh) | 2007-07-11 | 2009-10-28 | 华中科技大学 | 一种基于二维编码的三维形貌测量方法 |
CN100573586C (zh) | 2008-02-21 | 2009-12-23 | 南京航空航天大学 | 一种双目立体测量系统的标定方法 |
CN101251373A (zh) | 2008-03-28 | 2008-08-27 | 北京工业大学 | 微结构三维尺寸立体图像快速检测方法 |
CN101710932B (zh) | 2009-12-21 | 2011-06-22 | 华为终端有限公司 | 图像拼接方法及装置 |
US9124873B2 (en) * | 2010-12-08 | 2015-09-01 | Cognex Corporation | System and method for finding correspondence between cameras in a three-dimensional vision system |
JP5858773B2 (ja) * | 2011-12-22 | 2016-02-10 | キヤノン株式会社 | 3次元計測方法、3次元計測プログラム及びロボット装置 |
JP5911934B2 (ja) * | 2014-09-18 | 2016-04-27 | ファナック株式会社 | 輪郭線計測装置およびロボットシステム |
JP6348093B2 (ja) * | 2015-11-06 | 2018-06-27 | ファナック株式会社 | 入力データから検出対象物の像を検出する画像処理装置および方法 |
US10634918B2 (en) * | 2018-09-06 | 2020-04-28 | Seiko Epson Corporation | Internal edge verification |
-
2018
- 2018-09-20 JP JP2018176026A patent/JP6836561B2/ja active Active
-
2019
- 2019-09-16 DE DE102019124810.8A patent/DE102019124810A1/de active Pending
- 2019-09-19 US US16/575,388 patent/US11625842B2/en active Active
- 2019-09-19 CN CN201910887065.5A patent/CN110926330B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US20200098118A1 (en) | 2020-03-26 |
CN110926330A (zh) | 2020-03-27 |
JP2020047049A (ja) | 2020-03-26 |
US11625842B2 (en) | 2023-04-11 |
CN110926330B (zh) | 2022-12-02 |
DE102019124810A1 (de) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6836561B2 (ja) | 画像処理装置及び画像処理方法 | |
US9672630B2 (en) | Contour line measurement apparatus and robot system | |
JP6573354B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6348093B2 (ja) | 入力データから検出対象物の像を検出する画像処理装置および方法 | |
US8600192B2 (en) | System and method for finding correspondence between cameras in a three-dimensional vision system | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
Azad et al. | Stereo-based 6d object localization for grasping with humanoid robot systems | |
JP4709668B2 (ja) | 3次元物体認識システム | |
US20120147149A1 (en) | System and method for training a model in a plurality of non-perspective cameras and determining 3d pose of an object at runtime with the same | |
JP5156601B2 (ja) | 形状測定装置およびプログラム | |
JP4836086B2 (ja) | 3次元形状検出装置 | |
JP6172432B2 (ja) | 被写体識別装置、被写体識別方法および被写体識別プログラム | |
JP5858773B2 (ja) | 3次元計測方法、3次元計測プログラム及びロボット装置 | |
JP2017123087A (ja) | 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法 | |
JP2010133751A (ja) | 形状測定装置およびプログラム | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP6410231B2 (ja) | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム | |
US20210335010A1 (en) | Calibration method and calibration apparatus | |
US11989928B2 (en) | Image processing system | |
JP7298687B2 (ja) | 物体認識装置及び物体認識方法 | |
CN111199533B (zh) | 图像处理装置 | |
JP7502343B2 (ja) | 画像処理システム | |
JP6890422B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
KR20160049639A (ko) | 부분 선형화 기반의 3차원 영상 정합 방법 | |
WO2012076979A1 (en) | Model-based pose estimation using a non-perspective camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200210 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200616 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200924 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6836561 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |