JP2012068062A - Alignment device, alignment system and alignment program - Google Patents
Alignment device, alignment system and alignment program Download PDFInfo
- Publication number
- JP2012068062A JP2012068062A JP2010211195A JP2010211195A JP2012068062A JP 2012068062 A JP2012068062 A JP 2012068062A JP 2010211195 A JP2010211195 A JP 2010211195A JP 2010211195 A JP2010211195 A JP 2010211195A JP 2012068062 A JP2012068062 A JP 2012068062A
- Authority
- JP
- Japan
- Prior art keywords
- point
- alignment
- feature point
- hole
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、位置合わせ装置、位置合わせシステム及び位置合わせプログラムに関する。 The present invention relates to an alignment apparatus, an alignment system, and an alignment program.
対象物の形状から穴や円筒の端点等の部分を抽出する技術が提案されている。 Techniques for extracting portions such as holes and cylindrical end points from the shape of an object have been proposed.
これに関連する技術として、特許文献1には、対象物を撮影した画像から得られるエッジの情報から円となり得る点列の情報を抽出する手段と、当該点列の三次元の位置を計測する手段と、計測した点列の三次元の位置に基づいて点列を含む平面を特定する手段と、特定した平面上で点列の情報に対して円近似を行って、近似した円の中から予め定めた条件を満たすものを選択する手段と、選択された円に関して三次元位置姿勢を検出する手段とを有する三次元位置姿勢装置が開示されている。
As a technique related to this,
本発明の目的は、対象物の撮影画像から抽出される形状に基づいて、対象物の撮影画像と当該対象物の設計情報とを位置合わせする位置合わせ装置、位置合わせシステム及び位置合わせプログラムを提供することにある。 An object of the present invention is to provide an alignment device, an alignment system, and an alignment program for aligning a captured image of an object and design information of the object based on a shape extracted from the captured image of the object. There is to do.
[1]対象物を撮影した撮影画像から、当該対象物の孔の選択を受け付ける受付手段と、
前記受付手段が選択を受け付けた孔の特徴点を抽出する特徴点抽出手段と、
前記対象物の設計の内容を示す設計情報から前記特徴点に対応する対応点を選択する対応点選択手段と、
前記設計情報に前記対応点の座標を変換する作用素を適用し、前記撮影画像と当該設計情報とを位置合わせする位置合わせ手段とを有する位置合わせ装置。
[1] Accepting means for accepting selection of a hole of the object from a captured image obtained by photographing the object;
Feature point extracting means for extracting feature points of the holes accepted by the accepting means;
Corresponding point selection means for selecting corresponding points corresponding to the feature points from design information indicating the design contents of the object;
An alignment apparatus that includes an alignment unit that aligns the photographed image and the design information by applying an operator that converts the coordinates of the corresponding point to the design information.
[2]前記位置合わせ装置は、さらに、
前記対象物を撮影する撮影手段の視点及び前記特徴点を通る直線と、前記対応点との距離が最小となるように、前記作用素を算出する算出手段、
を備えることを特徴とする請求項1に記載の位置合わせ装置。
[2] The alignment device further includes:
Calculating means for calculating the operator so that the distance between the corresponding point and the straight line passing through the viewpoint and the feature point of the imaging means for imaging the object is minimized;
The alignment apparatus according to
[3]前記算出手段は、前記受付手段が選択を受け付けた孔を平面視した形状に対する、前記撮影画像中の当該孔の形状の変化率に応じて、前記視点及び当該孔の特徴点を通る直線と、前記対応点との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点の座標を変換する作用素を算出する請求項2に記載の位置合わせ装置。
[3] The calculation unit passes through the viewpoint and the feature point of the hole in accordance with a change rate of the shape of the hole in the captured image with respect to the shape of the hole that the reception unit has received the selection in plan view. The alignment apparatus according to
[4]前記算出手段は、前記受付手段が選択を受け付けた孔を平面視した形状の面積に対する、前記撮影画像中の当該孔の形状の面積の変化率に応じて、前記視点及び当該孔の特徴点を通る直線と、前記対応点との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点の座標を変換する作用素を算出する請求項2に記載の位置合わせ装置。
[4] The calculation means determines the viewpoint and the hole according to a change rate of the area of the shape of the hole in the photographed image with respect to the area of the shape of the hole when the selection is received by the reception means. 3. The alignment apparatus according to
[5]前記算出手段は、前記特徴点と前記視点との距離、前記特徴点の前記視点からの視角及び前記特徴点の前記撮影画像における画質の少なくとも1つに応じて、前記撮影画像の視点及び前記特徴点を通る直線と、前記対応点との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点の座標を変換する作用素を算出する請求項2に記載の位置合わせ装置。
[5] The calculation means determines the viewpoint of the photographed image according to at least one of a distance between the feature point and the viewpoint, a viewing angle of the feature point from the viewpoint, and an image quality of the feature point in the photographed image. 3. The position according to
[6]前記位置合わせ装置は、さらに、
前記対象物を撮影する撮影手段の視点及び前記特徴点を通る直線と、前記対応点を通る直線との距離が最小となるように、前記対応点の座標を変換する作用素を算出する算出手段、
を備えることを特徴とする請求項1に記載の位置合わせ装置。
[6] The alignment apparatus further includes:
Calculating means for calculating an operator for converting the coordinates of the corresponding points so that a distance between a straight line passing through the viewpoint and the feature point of the photographing means for photographing the object and the corresponding point is minimized;
The alignment apparatus according to
[7]前記算出手段は、前記受付手段が選択を受け付けた孔を平面視した形状に対する、前記撮影画像中の当該孔の形状の変化率に応じて、前記視点及び当該孔の特徴点を通る直線と、前記対応点を通る直線との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点の座標を変換する作用素を算出する請求項6に記載の位置合わせ装置。 [7] The calculation unit passes through the viewpoint and the feature point of the hole in accordance with a change rate of the shape of the hole in the captured image with respect to the shape of the hole that the reception unit has received the selection in plan view. The alignment apparatus according to claim 6, wherein the distance between the straight line and the straight line passing through the corresponding point is weighted, and an operator that converts the coordinates of the corresponding point is calculated so that the weighted distance is minimized.
[8]前記算出手段は、前記受付手段が選択を受け付けた孔を平面視した形状の面積に対する、前記撮影画像中の当該孔の形状の面積の変化率に応じて、前記視点及び当該孔の特徴点を通る直線と、前記対応点を通る直線との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点の座標を変換する作用素を算出する請求項6に記載の位置合わせ装置。 [8] The calculation unit may determine the viewpoint and the hole according to a change rate of the area of the shape of the hole in the captured image with respect to the area of the shape in plan view of the hole received by the reception unit. The weight of the distance between a straight line passing through a feature point and the straight line passing through the corresponding point is weighted, and an operator that converts the coordinates of the corresponding point is calculated so that the weighted distance is minimized. Alignment device.
[9]前記算出手段は、前記特徴点と前記視点との距離、前記特徴点の前記視点からの視角及び前記特徴点の前記撮影画像における画質の少なくとも1つに応じて、前記撮影画像の視点及び前記特徴点を通る直線と、前記対応点を通る直線との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点を通る直線を変換する作用素を算出する請求項6に記載の位置合わせ装置。 [9] The calculation means may determine the viewpoint of the photographed image according to at least one of a distance between the feature point and the viewpoint, a viewing angle of the feature point from the viewpoint, and an image quality of the feature point in the photographed image. And weighting a distance between a straight line passing through the feature point and a straight line passing through the corresponding point, and calculating an operator for converting the straight line passing through the corresponding point so that the weighted distance is minimized. The alignment device described in 1.
[10]コンピュータを、
対象物を撮影した撮影画像から、当該対象物の孔の選択を受け付ける受付手段と、
前記受付手段が選択を受け付けた孔の特徴点を抽出する特徴点抽出手段と、
前記対象物の設計の内容を示す設計情報から前記特徴点に対応する対応点を選択する対応点選択手段と、
前記設計情報に前記対応点の座標を変換する作用素を適用し、前記撮影画像と当該設計情報とを位置合わせする位置合わせ手段として機能させるための位置合わせプログラム。
[10] The computer
Accepting means for accepting selection of a hole of the object from a captured image obtained by photographing the object;
Feature point extracting means for extracting feature points of the holes accepted by the accepting means;
Corresponding point selection means for selecting corresponding points corresponding to the feature points from design information indicating the design contents of the object;
An alignment program for applying an operator that converts the coordinates of the corresponding points to the design information, and causing the photographed image and the design information to function as alignment means.
[11]対象物を予め定めた視点から撮影した撮影画像及び前記対象物の見本となる設計情報を格納する記憶装置と、
前記対象物を撮影した撮影画像から、当該対象物の孔の選択を受け付ける受付手段と、前記受付手段が選択を受け付けた孔の特徴点を抽出する特徴点抽出手段と、前記設計情報から前記特徴点に対応する対応点を選択する対応点選択手段と、前記設計情報に前記対応点の座標を変換する作用素を適用し、前記撮影画像と当該設計情報とを位置合わせする位置合わせ手段とを有する位置合わせ装置と、
から構成される位置合わせシステム。
[11] A storage device that stores a photographed image obtained by photographing the object from a predetermined viewpoint and design information serving as a sample of the object;
An accepting unit that accepts selection of a hole of the object from a captured image obtained by photographing the object, a feature point extracting unit that extracts a feature point of the hole accepted by the accepting unit, and the feature from the design information Corresponding point selecting means for selecting a corresponding point corresponding to a point, and alignment means for applying an operator that converts coordinates of the corresponding point to the design information and aligning the photographed image with the design information An alignment device;
An alignment system consisting of
請求項1、10又は11に係る発明によれば、対象物の撮影画像から抽出される形状に基づいて、対象物の撮影画像と当該対象物の設計情報とを位置合わせすることができる。
According to the invention which concerns on
請求項2に係る発明によれば、本構成を有しない場合と比較して、対象物の撮影画像と当該対象物の設計情報との位置合わせの精度を向上させることができる。
According to the invention which concerns on
請求項3又は7に係る発明によれば、撮影画像中の対象物の一部分の形状の変化率が大きいほど、対象物の撮影画像と当該対象物の設計情報との位置合わせの重み付けを小さくすることができる。
According to the invention of
請求項4又は8に係る発明によれば、撮影画像中の対象物の一部分の形状の面積の変化率が大きいほど、対象物の撮影画像と当該対象物の設計情報との位置合わせの重み付けを小さくすることができる。
According to the invention according to
請求項5又は9に係る発明によれば、距離が近いほど、視角が小さいほど、撮影画像の状態が良いほど、対象物の撮影画像と当該対象物の設計情報との位置合わせの重み付けを大きくすることができる。 According to the fifth or ninth aspect of the invention, the closer the distance, the smaller the viewing angle, and the better the state of the captured image, the greater the weighting of alignment between the captured image of the object and the design information of the object. can do.
請求項6に係る発明によれば、撮影画像の視点及び特徴点を通る直線と、対応点を通る直線との距離に基づいて、対象物の撮影画像と当該対象物の設計情報とを位置合わせすることができる。 According to the invention of claim 6, based on the distance between the straight line passing through the viewpoint and the feature point of the captured image and the straight line passing through the corresponding point, the captured image of the target object and the design information of the target object are aligned. can do.
(位置合わせシステムの構成)
図1は、本実施形態に係る位置合わせシステムの構成例を示す概略図である。
(Configuration of alignment system)
FIG. 1 is a schematic diagram illustrating a configuration example of an alignment system according to the present embodiment.
この位置合わせシステム5は、位置合わせ装置1と、対象物3を撮影するカメラ2とをUSB(Universal Serial Bus)ケーブル等で接続して構成される。
The
位置合わせ装置1は、情報を処理するための機能を備えたCPU(Central Processing Unit)や記憶部等の電子部品を本体内部に備え、カメラ2で撮影された画像情報を処理する情報処理装置であり、画像を表示する液晶ディスプレイ等の表示部12、操作内容に応じた操作信号を出力するキーボードやマウス等の操作部13等を有する。なお、位置合わせ装置1は、例えば、パーソナルコンピュータであり、その他にPDA(Personal Digital Assistant)、携帯電話機等を用いることもできる。
The
カメラ2は、対象物3を撮影方向20a以外にも複数の撮影方向から撮影し、撮影した撮影方向20aを撮影画像情報とともに記録し、これらの情報を位置合わせ装置1に送信する。
The
対象物3は、単一又は複数の面から構成され、それぞれの面に他の部品を固定するためのネジ等を貫通させる孔31〜35を有する。なお、対象物3の面を貫通しない穴を有していてもよい。
The
(位置合わせ装置の構成)
図2は、本実施形態に係る位置合わせ装置1の構成例を示すブロック図である。
(Configuration of alignment device)
FIG. 2 is a block diagram illustrating a configuration example of the
位置合わせ装置1は、CPU等から構成され各部を制御するとともに各種のプログラムを実行する制御部10と、HDD(Hard Disk Drive)やフラッシュメモリ等の記憶媒体であって情報を記憶する記憶部11と、液晶ディスプレイ等であって文字や画像を表示する表示部12と、キーボード及びマウス等であって操作内容に応じた操作信号を出力する操作部13と、カメラ2と情報を送信及び受信する通信部14とを備える。
The
なお、位置合わせ装置1は、例えば、パーソナルコンピュータやPDA、携帯電話等の電子機器であるが、表示部12や操作部13を備えないサーバ装置のようなものでもよく、その場合はネットワーク等により接続された端末装置の操作部や表示部がそれらの機能を代替する。
The
制御部10は、後述する位置合わせプログラム110を実行することで、撮影画像情報受付手段100、特徴点抽出手段102、特徴点選択受付手段101、対応点選択手段103、位置合わせ手段104及び精度計算手段105等として機能する。
The
撮影画像情報受付手段100は、通信部14を介してカメラ2で撮影された撮影画像情報111及び撮影方法に関する内容を含む撮影情報112を受け付けて、記憶部11に格納する。
The photographed image
特徴点選択受付手段101は、撮影画像情報受付手段100が受け付けた撮影画像情報111から、利用者の操作部13に対する操作内容に応じて、位置合わせに用いる座標点(以降、「特徴点」という。)を抽出するために、撮影画像情報111の表示画像中の孔に該当する領域の選択を受け付ける。
The feature point
特徴点抽出手段102は、特徴点選択受付手段101が受け付けた撮影画像情報111の表示画像中の領域から、孔の重心を特徴点として抽出する。例えば、ネジ孔の中心点を特徴点として抽出する。なお、面に設けられた開口部の形状は真円に限らず、視点に関わらずその中心を一意に定めることができる形状であればよい。また、開口部の形状は閉曲線に限らない。
The feature
対応点選択手段103は、対象物3を製造するために三次元で記載された設計情報である対象物三次元情報113から、利用者の操作部13に対する操作に応じて、特徴点抽出手段102が抽出した特徴点に対応する対応点を選択する。
Corresponding point selection means 103 is a feature point extraction means 102 from object three-
位置合わせ手段104は、特徴点と対応点との距離の差を最小にするような対応点に対する変換行列を計算して求め、その変換行列によって撮影画像情報111と対象物三次元情報113とを位置合わせする。変換行列は3次元位置を平行移動・回転・拡大縮小させる行列である。なお、位置合わせは、行列に限らず3次元位置を平行移動・回転・拡大縮小させる作用素であればよい。
The
精度計算手段105は、位置合わせされた撮影画像情報111及び対象物三次元情報113の形状の誤差を精度として計算する。
The
記憶部11は、制御部10を上述した各手段100〜105として動作させる位置合わせプログラム110、カメラ2で撮影された対象物3の画像情報である撮影画像情報111、撮影を行ったときのカメラ2の姿勢等の情報を含む撮影情報112、対象物3を製造するために三次元で記載された設計情報である対象物三次元情報113及び特徴点と対応点との対応関係の情報である対応情報114等を記憶する。
The storage unit 11 includes an
図3(a)は撮影画像情報の内容の一例を示す概略図、図3(b)は撮影情報の内容の一例を示す概略図である。 FIG. 3A is a schematic diagram illustrating an example of the content of the captured image information, and FIG. 3B is a schematic diagram illustrating an example of the content of the captured information.
図3(a)に示す撮影画像情報111aは、後述する図3(c)に示す撮影情報112に示すようにカメラ2によって撮影方向20aから対象物3を撮影した撮影画像情報である。
The photographed
図3(b)に示す撮影画像情報111bは、図3(c)に示す撮影情報112に示すようにカメラ2によって撮影方向20bから対象物3を撮影した撮影画像情報である。
The photographed image information 111b shown in FIG. 3B is photographed image information obtained by photographing the
図3(c)に示す撮影情報112は、カメラ2で生成される撮影画像情報の識別子が記録される撮影画像情報欄及び撮影画像情報の撮影方向が記録される撮影方向欄等を有する。
The shooting
図4は、対象物三次元情報113の表示画像の一例を示す概略図である。
FIG. 4 is a schematic diagram illustrating an example of a display image of the target object three-
対象物三次元表示画像113Aは、対応点選択手段103によって対象物三次元情報113を再生することで表示画面120に表示される画像である。対象物三次元表示画像113Aは、操作部13に対する利用者の操作内容に応じてその表示内容を拡大・縮小や回転等されるものであってもよい。
The object three-
(位置合わせ装置の動作)
以下に、位置合わせ装置1の動作例を図1〜図8を参照しつつ、(1)基本動作、(2)特徴点抽出動作、(3)対応点選択動作、(4)位置合わせ動作に分けて説明する。
(Operation of alignment device)
Hereinafter, with reference to FIGS. 1 to 8, an example of the operation of the
(1)基本動作
まず、利用者は、カメラ2によって複数の撮影方向から対象物3を撮影する。撮影した撮影画像情報111及び付随する撮影情報112は、カメラ2の記憶部に格納される。
(1) Basic operation First, the user photographs the
利用者は、位置合わせ装置1の操作部13を操作してカメラ2との通信を指示する。操作部13は、操作に応じて操作信号を出力する。
The user operates the
位置合わせ装置1は、操作部13から操作信号を受信するとカメラ2と通信部14を介して通信を開始する。次に、撮影画像情報受付手段100は、カメラ2の記憶部から撮影画像情報111及び撮影情報112を受け付けて記憶部11に格納する。なお、撮影画像情報受付手段100は、カメラ2以外の外部装置から予め撮影された撮影画像情報111及び撮影情報112を受け付けてもよい。
When receiving the operation signal from the
次に、利用者が操作部13を介して記憶部に格納された撮影画像情報111と対象物三次元情報113との位置合わせを要求すると、位置合わせ装置1の特徴点選択受付手段101は、まず、撮影画像情報111を再生して表示画像を表示部12に表示する。
Next, when the user requests alignment of the captured
図5(a)及び(b)は、撮影画像情報の表示画像の一例を示す概略図である。 5A and 5B are schematic diagrams illustrating an example of a display image of photographed image information.
特徴点選択受付手段101は、図5(a)に示すように、表示画面120に撮影方向20aから撮影された撮影画像情報111aと、操作部13の出力する操作信号に応じて動作するカーソル101aとを表示する。
As shown in FIG. 5A, the feature point
(2)特徴点選択動作
利用者は、図5(a)に示す表示画面120を参照して、操作部13を介してカーソル101aをドラッグ操作し、ドラッグ操作により表示される選択枠101bによって使用する孔(ネジ穴)を選択する。
(2) Feature Point Selection Operation The user refers to the
図10は、本発明の実施形態に係る位置合わせ装置1の動作例を示すフローチャートである。
FIG. 10 is a flowchart showing an operation example of the
特徴点選択受付手段101は、上記操作により選択された図5(a)に示す選択枠101bによる選択を受け付け、選択枠101b内の特徴点を抽出するよう、特徴点抽出手段102に指示する。
The feature point
特徴点抽出手段102は、選択枠101b内の撮影画像情報111aを画像解析処理し、ネジ穴に相当する画像領域の中心を特徴点31aとして抽出する(S1)。なお、特徴点は、ネジ穴(孔)の中心に限らず、ネジ穴(孔)の形状の重心等でもよい。
The feature
特徴点選択受付手段101は、特徴点抽出手段102が抽出した特徴点31aを記憶部11の対応情報114に書き込む。
The feature point
(3)対応点選択動作 (3) Corresponding point selection operation
次に、対応点選択手段103は、対象物三次元情報113を再生して対象物三次元表示画像113Aを表示部12に表示する。
Next, the corresponding
図6は、対象物三次元表示画像113Aの一例を示す概略図である。
FIG. 6 is a schematic diagram illustrating an example of the object three-
対応点選択手段103は、図6に示すように、表示画面120に対象物三次元表示画像113Aと、操作部13の出力する操作信号に応じて動作するカーソル103aとを表示する。
As shown in FIG. 6, the corresponding
利用者は、図6に示す表示画面120を参照して、ステップS1で選択した特徴点31aに対応する対応点をカーソル103aによって選択するよう操作部13を操作する。
The user operates the
対応点選択手段103は、操作部13から上記操作内容に応じた操作信号を受信すると、対象物三次元情報113に定義された対応点41aを選択する(S2)。なお、対応点41aは、以下に示すように定義されているものとする。
When the corresponding
図7は、対象三次元情報と対応点との関係を示す概略図である。 FIG. 7 is a schematic diagram illustrating a relationship between target 3D information and corresponding points.
対象物三次元情報113において孔41は元々、円筒形状により定義されているため、対応点選択手段103は、円筒の上面及び低面の中心を対応点41a及び41bとして定義する。なお、図6のカーソル103aによって対応点41a又は41bが選択される場合は、表示上の視点から近いもの、図6の例では対応点41aを選択し、対応情報114に書き込む。
Since the
次に、以上のステップS1によって書き込まれた特徴点及びS2によって書き込まれた対応点から対応情報114が作成される。
Next,
図8は、対応情報114の構成の一例を示す概略図である。
FIG. 8 is a schematic diagram illustrating an example of the configuration of the
対応情報114は、特徴点を識別する識別子を示す特徴点ID欄と、特徴点が選択された撮影画像情報111の撮影方向を示す撮影方向欄と、選択された特徴点(座標)を示す特徴点欄と、撮影方向を定義する視点と特徴点とを通る特徴直線を示す特徴直線欄と、特徴点に対応させた対応点を示す対応点欄とを有する。
The
撮影方向欄及び特徴点欄は、上記したように特徴点抽出手段102によって入力され、対応点欄は、対応点選択手段103によって入力される。なお、特徴直線欄の特徴直線は、撮影方向欄の撮影方向の視点(視点a又はb)と、特徴点欄の特徴点とを通る直線であり、次に説明する位置合わせ手段104によって算出される。
The shooting direction column and the feature point column are input by the feature
次に、位置合わせ手段104は、対応情報114の情報が位置合わせをするのに十分な数だけ入力されたか確認し、十分であるとき(S3;Yes)、例えば、本実施の形態においては特徴点と対応点との組み合わせが3以上であるとき、(4)位置合わせ動作を実行する。また、対応情報114の情報が十分でないとき(S3;No)、ステップS1及びS2を繰り返す。
Next, the alignment means 104 confirms whether or not a sufficient number of pieces of information of the
(4)位置合わせ動作
図9は、位置合わせ手段104の動作例を示す概略図である。
(4) Positioning Operation FIG. 9 is a schematic diagram showing an operation example of the positioning means 104.
位置合わせ手段104は、以下に示す式の値が最小となる変換行列Tを求める。
なお、piは対応点の座標、視点a又はbと特徴点とを通るliは特徴直線、f(x,y)は点xと直線yとの距離である。 Here, p i is the coordinates of the corresponding point, l i passing through the viewpoint a or b and the feature point is a feature line, and f (x, y) is the distance between the point x and the line y.
つまり、対応情報114のうち、図9に示す特徴直線51a、52a、55a、52b、55b…と、それぞれ対応した対応点41a、42a、45a、42a、45a…を変換行列Tで回転した点との距離の和が最小となるようなTを求める。
That is, in the
次に、精度計算手段105は、変換行列Tを求めた後、変換行列Tによって回転された対象物三次元情報113に対する対象物3とを比較し、対象物3の形状の工作精度等を計算する。また、精度計算手段105は、上記式[1]の値から対象物三次元情報113に対する対象物3の孔31〜35の位置精度を計算してもよい。
Next, after calculating the transformation matrix T, the accuracy calculating means 105 compares the
[変形例1]
(4−1)位置合わせ動作
なお、位置合わせ手段104は、図7に示すように対応点41a又は41bの利用者の選択ミスを考慮して全ての対応点について式[1]を計算してもよい。
[Modification 1]
(4-1) Positioning Operation The
つまり、以下に示す色の値が最小となる変換行列Tを求める。
なお、pijは対応点の座標であり、j=1、2の場合はそれぞれ図7に示す対応点41a、41bに対応する。
Note that p ij is the coordinates of the corresponding points. When j = 1, 2, they correspond to the corresponding
[変形例2]
図11は、対象三次元情報と対応直線との関係を示す概略図である。
[Modification 2]
FIG. 11 is a schematic diagram illustrating the relationship between the target three-dimensional information and the corresponding straight line.
対応点選択手段103は、上記実施の形態において図7に示す対象物三次元情報113から孔41を形成する円筒の上面及び低面の中心である対応点41a及び41bによって孔41を定義したが、変形例として対応点41a又は41bの選択ミスがなくなるように対応点41a及び41bの2点を通る対応直線61によって定義してもよい。
The corresponding point selection means 103 defines the
つまり、上記したステップS2において、対応点選択手段103は、操作部13から操作信号を受信すると、対象物三次元情報113に定義された対応直線61を選択する。
That is, in step S <b> 2 described above, when the corresponding
(4−2)位置合わせ動作
位置合わせ手段104は、選択された対応直線を用いて以下に説明する計算を行う。
(4-2) Positioning Operation The positioning means 104 performs the calculation described below using the selected corresponding straight line.
図12は、位置合わせ手段104の他の動作例を示す概略図である。
FIG. 12 is a schematic diagram illustrating another example of the operation of the
位置合わせ手段104は、以下に示す式の値が最小となる変換行列Tを求める。
なお、孔に定義される2点の対応点を通るhiは対応直線、liは特徴直線、g(x,y)は直線xと直線yとの距離である。 Note that h i passing through two corresponding points defined in the hole is a corresponding line, l i is a characteristic line, and g (x, y) is a distance between the line x and the line y.
つまり、対応情報114のうち、図12に示す特徴直線51a、52a、55a、52b、55b…と、それぞれ対応した対応直線61、62、65、62、65…を変換行列Tで回転した直線との距離の和が最小となるようにする。
That is, among the
なお、式[3]を用いた位置合わせ計算において、ステップS3の対応直線の数が十分か否かの判断は、全ての対応直線が平行でない場合は2つ以上であればよい。また、対応直線が平行である場合は、3つ以上であればよいが、平行である場合は、以下に示すように対応直線方向に自由度があり、位置合わせができない。 In the alignment calculation using Expression [3], whether or not the number of corresponding lines in step S3 is sufficient may be two or more when all the corresponding lines are not parallel. Further, when the corresponding straight lines are parallel, the number may be three or more. However, when the corresponding straight lines are parallel, there is a degree of freedom in the corresponding straight line direction as shown below, and the alignment cannot be performed.
(4−3)位置合わせ動作
図13は、位置合わせ手段104の他の動作例を示す概略図である。
(4-3) Positioning Operation FIG. 13 is a schematic diagram illustrating another example of the
位置合わせ手段104は、対応直線66〜68がそれぞれ平行であるとき、式[3]の値が最小であっても、撮影画像情報111と対象物三次元情報113との位置合わせには相対的に対応直線66〜68の方向に自由度が生じる。
When the corresponding straight lines 66 to 68 are parallel to each other, the alignment means 104 is relatively relative to the alignment of the captured
そのため、位置合わせ手段104は、対応直線66〜68と平行でない対応直線を有する他の孔が存在する場合は、表示部12にメッセージ等を表示して他の孔を選択するよう利用者に対して要求する。
Therefore, when there is another hole having a corresponding straight line that is not parallel to the corresponding straight lines 66 to 68, the positioning means 104 displays a message or the like on the
また、対象物三次元表示画像113Aにおいて、利用者の操作に応じて自由度のある対応直線66〜68の方向にのみ対象物を平行移動可能とし、利用者の目視で位置合わせをするよう要求してもよい。
Further, in the object three-
また、対応直線に加えて、さらに特徴点と対応点の対を指定するよう利用者に要求し、以下の式の値が最小となる変数aを求めてもよい。
なお、aは変数、hは平行な対応直線の方向を表すベクトルである。 Here, a is a variable, and h is a vector representing the direction of parallel corresponding straight lines.
[変形例3]
(4−4)位置合わせ動作
図14(a)及び(b)は、撮影画像情報111中の孔の形状を示す概略図である。
[Modification 3]
(4-4) Positioning Operation FIGS. 14A and 14B are schematic diagrams showing the shape of holes in the captured
孔31A及び31Bは、それぞれ異なる撮影方向から対象物3の孔31を撮影したものである。
The
特徴点抽出手段102は、孔31A及び31Bから特徴点を抽出するが、孔31Aのように真円に近い程その特徴点の抽出精度は高く、孔31Bのように楕円の長軸と短軸との差が大きい程精度が低くなる。また、撮影画像情報111の視点から孔31A及び31Bへの距離が大きいほど特徴点の抽出精度は低くなる。さらに、孔31A及び31Bに画像のピントが合っておらず不鮮明な場合も抽出精度は低くなる。
The feature point extraction means 102 extracts feature points from the
そのため、位置合わせ手段104は、撮影画像情報111中の孔の形状、視点からの距離、画像の鮮明さ等に応じた係数wiを式[1]に乗じて重み付けし、以下の式を最小にする変換行列Tを求める。
[変形例4]
図10におけるステップS3において、対応点の数が十分でない場合(S3;No)、ステップS1及びS2を繰り返すが、対象物3の孔の数が十分でない場合や、孔の数が十分(S3;Yes)だが孔の位置が対称的である場合は、一意的に定まる位置合わせ計算を行うことができない。
[Modification 4]
In step S3 in FIG. 10, when the number of corresponding points is not sufficient (S3; No), steps S1 and S2 are repeated. However, when the number of holes in the
そのため、位置合わせ手段104は、孔から抽出される特徴点及びそれに対応する対応点に加え、対象物の形状等から抽出される特徴点及びその特徴点に対応する対応点の選択を利用者に要求する。
Therefore, in addition to the feature points extracted from the holes and the corresponding points corresponding thereto, the
(2−5)特徴点抽出動作
図15(a)及び(b)は、撮影画像情報の表示画像の一例を示す概略図である。
(2-5) Feature Point Extraction Operation FIGS. 15A and 15B are schematic diagrams illustrating an example of a display image of photographed image information.
利用者は、図15(a)に示す表示画面120を参照して、操作部13を介してカーソル101aをドラッグ操作し、ドラッグ操作により表示される選択枠101bによって使用する特徴点を選択する。
The user refers to the
特徴点選択受付手段101は、操作部13から上記操作に応じた操作信号を受信すると、図15(a)に示す選択枠101b内の特徴点を抽出するよう、特徴点抽出手段102に指示する。
When the feature point
特徴点抽出手段102は、選択枠101b内の撮影画像情報111cを画像解析処理し、例えば、角形状等を特徴点71として抽出する。
The feature
(3−5)対応点選択動作 (3-5) Corresponding point selection operation
次に、対応点選択手段103は、対象物三次元表示画像を表示部12に表示する。
Next, the corresponding
図16は、対象物三次元表示画像の一例を示す概略図である。 FIG. 16 is a schematic diagram illustrating an example of an object three-dimensional display image.
対応点選択手段103は、図16に示すように、表示画面120に対象物三次元表示画像113Bと、操作部13の出力する操作信号に応じて動作するカーソル103aとを表示する。
As illustrated in FIG. 16, the corresponding
利用者は、図16に示す表示画面120を参照して、選択した特徴点71に対応する対応点をカーソル103aによって選択するよう操作部13を操作する。
The user operates the
対応点選択手段103は、操作部13から上記操作内容に応じた操作信号を受信すると、対象物三次元情報113に定義された対応点81を選択する。
(4−5)位置合わせ動作
位置合わせ手段104は、上記(2−5)特徴点選択動作及び(3−5)対応点選択動作で選択した特徴点71及び対応点81を用いて、以下に示す式の値が最小となる変換行列Tを求める。
(4-5) Alignment Operation The
なお、qkは対象物3の角の対応点81の座標、mkは対象物3の角の特徴点71と視点を通る特徴直線、w1及びw2は重み付けの係数である。なお、抽出精度が角形状に比べて孔形状の方が高い点からw1を大きくすることが望ましい。
Here, q k is the coordinates of the corresponding point 81 at the corner of the
[他の実施の形態]
なお、本発明は、上記実施の形態に限定されず、本発明の要旨を逸脱しない範囲で種々な変形が可能である。例えば、図17に示すように、特徴点抽出手段102は、楕円形状の孔39から最も外側のエッジを抽出してその重心を特徴点39aとして抽出してもよいし、突起形状の中心又は重心を特徴点として抽出してもよい。また、位置合わせ計算手段は、対象物3の孔が誤った位置に設けられていた場合に、Thompsonの棄却検定等の手法を用いて誤った位置に設けられた孔を式[1]〜式[6]のpi、li、hiから除外してもよい。
[Other embodiments]
The present invention is not limited to the above embodiment, and various modifications can be made without departing from the gist of the present invention. For example, as shown in FIG. 17, the feature point extracting means 102 may extract the outermost edge from the
また、上記位置合わせプログラム110をCD−ROM等の記憶媒体に格納して提供することも可能であり、インターネット等のネットワークに接続されているサーバ装置等から装置内の記憶部にダウンロードしてもよい。また、撮影画像情報受付手段100、特徴点抽出手段102、特徴点選択受付手段101、対応点選択手段103、位置合わせ手段104及び精度計算手段105の一部又は全部をASIC等のハードウェアによって実現してもよい。なお、上記実施の形態の動作説明で示した各ステップは、順序の変更、ステップの省略、追加が可能である。
Further, the
1…位置合わせ装置、2…カメラ、3…対象物、5…位置合わせシステム、10…制御部、11…記憶部、12…表示部、13…操作部、14…通信部、20a、20b…撮影方向、100…撮影画像情報受付手段、101…特徴点選択受付手段、102…特徴点抽出手段、103…対応点選択手段、104…計算手段、105…精度計算手段、110…位置合わせプログラム、111…撮影画像情報、112…撮影情報、113…対象物三次元情報、114…対応情報、120…表示画面
DESCRIPTION OF
Claims (11)
前記受付手段が選択を受け付けた孔の特徴点を抽出する特徴点抽出手段と、
前記対象物の設計の内容を示す設計情報から前記特徴点に対応する対応点を選択する対応点選択手段と、
前記設計情報に前記対応点の座標を変換する作用素を適用し、前記撮影画像と当該設計情報とを位置合わせする位置合わせ手段とを有する位置合わせ装置。 Accepting means for accepting selection of a hole of the object from a captured image obtained by photographing the object;
Feature point extracting means for extracting feature points of the holes accepted by the accepting means;
Corresponding point selection means for selecting corresponding points corresponding to the feature points from design information indicating the design contents of the object;
An alignment apparatus that includes an alignment unit that aligns the photographed image and the design information by applying an operator that converts the coordinates of the corresponding point to the design information.
前記対象物を撮影する撮影手段の視点及び前記特徴点を通る直線と、前記対応点との距離が最小となるように、前記作用素を算出する算出手段、を備えることを特徴とする請求項1に記載の位置合わせ装置。 The alignment device further includes:
2. A calculation unit that calculates the operator so that a distance between a viewpoint of an imaging unit that images the object and a straight line passing through the feature point and the corresponding point is minimized. The alignment device described in 1.
前記対象物を撮影する撮影手段の視点及び前記特徴点を通る直線と、前記対応点を通る直線との距離が最小となるように、前記対応点の座標を変換する作用素を算出する算出手段、を備えることを特徴とする請求項1に記載の位置合わせ装置。 The alignment device further includes:
Calculating means for calculating an operator for converting the coordinates of the corresponding points so that a distance between a straight line passing through the viewpoint and the feature point of the photographing means for photographing the object and the corresponding point is minimized; The alignment apparatus according to claim 1, further comprising:
対象物を撮影した撮影画像から、当該対象物の孔の選択を受け付ける受付手段と、
前記受付手段が選択を受け付けた孔の特徴点を抽出する特徴点抽出手段と、
前記対象物の設計の内容を示す設計情報から前記特徴点に対応する対応点を選択する対応点選択手段と、
前記設計情報に前記対応点の座標を変換する作用素を適用し、前記撮影画像と当該設計情報とを位置合わせする位置合わせ手段として機能させるための位置合わせプログラム。 Computer
Accepting means for accepting selection of a hole of the object from a captured image obtained by photographing the object;
Feature point extracting means for extracting feature points of the holes accepted by the accepting means;
Corresponding point selection means for selecting corresponding points corresponding to the feature points from design information indicating the design contents of the object;
An alignment program for applying an operator that converts the coordinates of the corresponding points to the design information, and causing the photographed image and the design information to function as alignment means.
前記対象物を撮影した撮影画像から、当該対象物の孔の選択を受け付ける受付手段と、前記受付手段が選択を受け付けた孔の特徴点を抽出する特徴点抽出手段と、前記設計情報から前記特徴点に対応する対応点を選択する対応点選択手段と、前記設計情報に前記対応点の座標を変換する作用素を適用し、前記撮影画像と当該設計情報とを位置合わせする位置合わせ手段とを有する位置合わせ装置と、から構成される位置合わせシステム。
A storage device for storing a photographed image obtained by photographing the object from a predetermined viewpoint and design information as a sample of the object;
An accepting unit that accepts selection of a hole of the object from a captured image obtained by photographing the object, a feature point extracting unit that extracts a feature point of the hole accepted by the accepting unit, and the feature from the design information Corresponding point selecting means for selecting a corresponding point corresponding to a point, and alignment means for applying an operator that converts coordinates of the corresponding point to the design information and aligning the photographed image with the design information An alignment system comprising an alignment device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010211195A JP2012068062A (en) | 2010-09-21 | 2010-09-21 | Alignment device, alignment system and alignment program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010211195A JP2012068062A (en) | 2010-09-21 | 2010-09-21 | Alignment device, alignment system and alignment program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012068062A true JP2012068062A (en) | 2012-04-05 |
Family
ID=46165520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010211195A Pending JP2012068062A (en) | 2010-09-21 | 2010-09-21 | Alignment device, alignment system and alignment program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012068062A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018522240A (en) * | 2015-07-13 | 2018-08-09 | レニショウ パブリック リミテッド カンパニーRenishaw Public Limited Company | Method for measuring artifacts |
KR20220015395A (en) | 2019-05-30 | 2022-02-08 | 닛키 글로벌 가부시키가이샤 | Positioning method for use in plants |
CN114674222A (en) * | 2022-02-17 | 2022-06-28 | 成都飞机工业(集团)有限责任公司 | Method for aligning coordinate systems of composite material part and forming tool of airplane |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08136220A (en) * | 1994-11-14 | 1996-05-31 | Mazda Motor Corp | Method and device for detecting position of article |
JPH0981779A (en) * | 1995-09-08 | 1997-03-28 | Ainesu:Kk | Method and device for generating partially solid model |
JP2003510701A (en) * | 1999-09-20 | 2003-03-18 | 松下電器産業株式会社 | A method for measuring geometric characteristics of a pattern displayed on a curved surface |
JP2008224323A (en) * | 2007-03-09 | 2008-09-25 | Mitsubishi Electric Corp | Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program |
-
2010
- 2010-09-21 JP JP2010211195A patent/JP2012068062A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08136220A (en) * | 1994-11-14 | 1996-05-31 | Mazda Motor Corp | Method and device for detecting position of article |
JPH0981779A (en) * | 1995-09-08 | 1997-03-28 | Ainesu:Kk | Method and device for generating partially solid model |
JP2003510701A (en) * | 1999-09-20 | 2003-03-18 | 松下電器産業株式会社 | A method for measuring geometric characteristics of a pattern displayed on a curved surface |
JP2008224323A (en) * | 2007-03-09 | 2008-09-25 | Mitsubishi Electric Corp | Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018522240A (en) * | 2015-07-13 | 2018-08-09 | レニショウ パブリック リミテッド カンパニーRenishaw Public Limited Company | Method for measuring artifacts |
KR20220015395A (en) | 2019-05-30 | 2022-02-08 | 닛키 글로벌 가부시키가이샤 | Positioning method for use in plants |
US20220230349A1 (en) * | 2019-05-30 | 2022-07-21 | Jgc Corporation | Alignment method for use in plant |
US11810315B2 (en) | 2019-05-30 | 2023-11-07 | Jgc Corporation | Alignment method for use in plant |
CN114674222A (en) * | 2022-02-17 | 2022-06-28 | 成都飞机工业(集团)有限责任公司 | Method for aligning coordinate systems of composite material part and forming tool of airplane |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6125100B2 (en) | Robust tracking using point and line features | |
JP5538667B2 (en) | Position / orientation measuring apparatus and control method thereof | |
WO2015180659A1 (en) | Image processing method and image processing device | |
JP5725975B2 (en) | Imaging apparatus and imaging method | |
JP2012160904A (en) | Information processor, information processing method, program, and imaging apparatus | |
JPWO2018235163A1 (en) | Calibration apparatus, calibration chart, chart pattern generation apparatus, and calibration method | |
JP5377537B2 (en) | Object display device, object display method, and object display program | |
JP2016212784A (en) | Image processing apparatus and image processing method | |
JP5809607B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2008217526A (en) | Image processor, image processing program, and image processing method | |
CN107925740A (en) | Image management system, image management method and program | |
JP2012068062A (en) | Alignment device, alignment system and alignment program | |
WO2015072091A1 (en) | Image processing device, image processing method, and program storage medium | |
JP5996233B2 (en) | Imaging device | |
CN112969963B (en) | Information processing apparatus, control method thereof, and storage medium | |
JP2020071854A (en) | Image processing apparatus, image processing method, and program | |
WO2015141185A1 (en) | Imaging control device, imaging control method, and storage medium | |
JP2023063807A (en) | Image processing device, image processing method, program, and recording medium | |
WO2019053790A1 (en) | Position coordinate calculation method and position coordinate calculation device | |
JP2018032991A (en) | Image display unit, image display method and computer program for image display | |
JP5458877B2 (en) | Imaging apparatus and imaging program | |
JP2011071746A (en) | Video output device, and video output method | |
JP4135934B2 (en) | Electronics | |
JP5636966B2 (en) | Error detection apparatus and error detection program | |
JP6640876B2 (en) | Work support device, work support method, work support program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140304 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140421 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140610 |