JP2012068062A - Alignment device, alignment system and alignment program - Google Patents

Alignment device, alignment system and alignment program Download PDF

Info

Publication number
JP2012068062A
JP2012068062A JP2010211195A JP2010211195A JP2012068062A JP 2012068062 A JP2012068062 A JP 2012068062A JP 2010211195 A JP2010211195 A JP 2010211195A JP 2010211195 A JP2010211195 A JP 2010211195A JP 2012068062 A JP2012068062 A JP 2012068062A
Authority
JP
Japan
Prior art keywords
point
alignment
feature point
hole
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010211195A
Other languages
Japanese (ja)
Inventor
Atsushi Shingu
淳 新宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2010211195A priority Critical patent/JP2012068062A/en
Publication of JP2012068062A publication Critical patent/JP2012068062A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an alignment device, an alignment system and an alignment program for aligning a photographic image of an object and design information of the object, based on a shape extracted from the photographic image of the object.SOLUTION: An alignment device 1 comprises: feature point selection accepting means 101 that selects a hole provided in an object 3 from photographic image information 111 photographing the object 3; feature point extract means 102 that extracts a feature point of the hole whose selection is accepted by the feature point selection accepting means 101; corresponding point selection means 103 that selects a corresponding point corresponding to the feature point to be a sample of the object 3 from object three-dimensional information 113; and alignment means 104 that performs coordinate conversion of the corresponding point so as to minimize a distance between a straight line passing through a view point and the feature point of the photographic image and the corresponding point and to align the photographic image information 111 of the object 3 and the object three-dimensional information 113 to be a sample of the object 3.

Description

本発明は、位置合わせ装置、位置合わせシステム及び位置合わせプログラムに関する。   The present invention relates to an alignment apparatus, an alignment system, and an alignment program.

対象物の形状から穴や円筒の端点等の部分を抽出する技術が提案されている。   Techniques for extracting portions such as holes and cylindrical end points from the shape of an object have been proposed.

これに関連する技術として、特許文献1には、対象物を撮影した画像から得られるエッジの情報から円となり得る点列の情報を抽出する手段と、当該点列の三次元の位置を計測する手段と、計測した点列の三次元の位置に基づいて点列を含む平面を特定する手段と、特定した平面上で点列の情報に対して円近似を行って、近似した円の中から予め定めた条件を満たすものを選択する手段と、選択された円に関して三次元位置姿勢を検出する手段とを有する三次元位置姿勢装置が開示されている。   As a technique related to this, Patent Document 1 discloses a means for extracting point sequence information that can be a circle from edge information obtained from an image obtained by photographing an object, and measures the three-dimensional position of the point sequence. Means, a means for specifying a plane including the point sequence based on the three-dimensional position of the measured point sequence, and performing a circle approximation on the information of the point sequence on the specified plane, from among the approximated circles There is disclosed a three-dimensional position / orientation apparatus having means for selecting one that satisfies a predetermined condition and means for detecting a three-dimensional position / orientation with respect to a selected circle.

特開平10−326347号公報JP-A-10-326347

本発明の目的は、対象物の撮影画像から抽出される形状に基づいて、対象物の撮影画像と当該対象物の設計情報とを位置合わせする位置合わせ装置、位置合わせシステム及び位置合わせプログラムを提供することにある。   An object of the present invention is to provide an alignment device, an alignment system, and an alignment program for aligning a captured image of an object and design information of the object based on a shape extracted from the captured image of the object. There is to do.

[1]対象物を撮影した撮影画像から、当該対象物の孔の選択を受け付ける受付手段と、
前記受付手段が選択を受け付けた孔の特徴点を抽出する特徴点抽出手段と、
前記対象物の設計の内容を示す設計情報から前記特徴点に対応する対応点を選択する対応点選択手段と、
前記設計情報に前記対応点の座標を変換する作用素を適用し、前記撮影画像と当該設計情報とを位置合わせする位置合わせ手段とを有する位置合わせ装置。
[1] Accepting means for accepting selection of a hole of the object from a captured image obtained by photographing the object;
Feature point extracting means for extracting feature points of the holes accepted by the accepting means;
Corresponding point selection means for selecting corresponding points corresponding to the feature points from design information indicating the design contents of the object;
An alignment apparatus that includes an alignment unit that aligns the photographed image and the design information by applying an operator that converts the coordinates of the corresponding point to the design information.

[2]前記位置合わせ装置は、さらに、
前記対象物を撮影する撮影手段の視点及び前記特徴点を通る直線と、前記対応点との距離が最小となるように、前記作用素を算出する算出手段、
を備えることを特徴とする請求項1に記載の位置合わせ装置。
[2] The alignment device further includes:
Calculating means for calculating the operator so that the distance between the corresponding point and the straight line passing through the viewpoint and the feature point of the imaging means for imaging the object is minimized;
The alignment apparatus according to claim 1, further comprising:

[3]前記算出手段は、前記受付手段が選択を受け付けた孔を平面視した形状に対する、前記撮影画像中の当該孔の形状の変化率に応じて、前記視点及び当該孔の特徴点を通る直線と、前記対応点との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点の座標を変換する作用素を算出する請求項2に記載の位置合わせ装置。 [3] The calculation unit passes through the viewpoint and the feature point of the hole in accordance with a change rate of the shape of the hole in the captured image with respect to the shape of the hole that the reception unit has received the selection in plan view. The alignment apparatus according to claim 2, wherein a distance between the straight line and the corresponding point is weighted, and an operator that converts the coordinates of the corresponding point is calculated so that the weighted distance is minimized.

[4]前記算出手段は、前記受付手段が選択を受け付けた孔を平面視した形状の面積に対する、前記撮影画像中の当該孔の形状の面積の変化率に応じて、前記視点及び当該孔の特徴点を通る直線と、前記対応点との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点の座標を変換する作用素を算出する請求項2に記載の位置合わせ装置。 [4] The calculation means determines the viewpoint and the hole according to a change rate of the area of the shape of the hole in the photographed image with respect to the area of the shape of the hole when the selection is received by the reception means. 3. The alignment apparatus according to claim 2, wherein a distance between the straight line passing through the feature point and the corresponding point is weighted, and an operator for converting the coordinates of the corresponding point is calculated so that the weighted distance is minimized. .

[5]前記算出手段は、前記特徴点と前記視点との距離、前記特徴点の前記視点からの視角及び前記特徴点の前記撮影画像における画質の少なくとも1つに応じて、前記撮影画像の視点及び前記特徴点を通る直線と、前記対応点との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点の座標を変換する作用素を算出する請求項2に記載の位置合わせ装置。 [5] The calculation means determines the viewpoint of the photographed image according to at least one of a distance between the feature point and the viewpoint, a viewing angle of the feature point from the viewpoint, and an image quality of the feature point in the photographed image. 3. The position according to claim 2, wherein a distance between the straight line passing through the feature point and the corresponding point is weighted, and an operator for converting the coordinates of the corresponding point is calculated so that the weighted distance is minimized. Alignment device.

[6]前記位置合わせ装置は、さらに、
前記対象物を撮影する撮影手段の視点及び前記特徴点を通る直線と、前記対応点を通る直線との距離が最小となるように、前記対応点の座標を変換する作用素を算出する算出手段、
を備えることを特徴とする請求項1に記載の位置合わせ装置。
[6] The alignment apparatus further includes:
Calculating means for calculating an operator for converting the coordinates of the corresponding points so that a distance between a straight line passing through the viewpoint and the feature point of the photographing means for photographing the object and the corresponding point is minimized;
The alignment apparatus according to claim 1, further comprising:

[7]前記算出手段は、前記受付手段が選択を受け付けた孔を平面視した形状に対する、前記撮影画像中の当該孔の形状の変化率に応じて、前記視点及び当該孔の特徴点を通る直線と、前記対応点を通る直線との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点の座標を変換する作用素を算出する請求項6に記載の位置合わせ装置。 [7] The calculation unit passes through the viewpoint and the feature point of the hole in accordance with a change rate of the shape of the hole in the captured image with respect to the shape of the hole that the reception unit has received the selection in plan view. The alignment apparatus according to claim 6, wherein the distance between the straight line and the straight line passing through the corresponding point is weighted, and an operator that converts the coordinates of the corresponding point is calculated so that the weighted distance is minimized.

[8]前記算出手段は、前記受付手段が選択を受け付けた孔を平面視した形状の面積に対する、前記撮影画像中の当該孔の形状の面積の変化率に応じて、前記視点及び当該孔の特徴点を通る直線と、前記対応点を通る直線との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点の座標を変換する作用素を算出する請求項6に記載の位置合わせ装置。 [8] The calculation unit may determine the viewpoint and the hole according to a change rate of the area of the shape of the hole in the captured image with respect to the area of the shape in plan view of the hole received by the reception unit. The weight of the distance between a straight line passing through a feature point and the straight line passing through the corresponding point is weighted, and an operator that converts the coordinates of the corresponding point is calculated so that the weighted distance is minimized. Alignment device.

[9]前記算出手段は、前記特徴点と前記視点との距離、前記特徴点の前記視点からの視角及び前記特徴点の前記撮影画像における画質の少なくとも1つに応じて、前記撮影画像の視点及び前記特徴点を通る直線と、前記対応点を通る直線との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点を通る直線を変換する作用素を算出する請求項6に記載の位置合わせ装置。 [9] The calculation means may determine the viewpoint of the photographed image according to at least one of a distance between the feature point and the viewpoint, a viewing angle of the feature point from the viewpoint, and an image quality of the feature point in the photographed image. And weighting a distance between a straight line passing through the feature point and a straight line passing through the corresponding point, and calculating an operator for converting the straight line passing through the corresponding point so that the weighted distance is minimized. The alignment device described in 1.

[10]コンピュータを、
対象物を撮影した撮影画像から、当該対象物の孔の選択を受け付ける受付手段と、
前記受付手段が選択を受け付けた孔の特徴点を抽出する特徴点抽出手段と、
前記対象物の設計の内容を示す設計情報から前記特徴点に対応する対応点を選択する対応点選択手段と、
前記設計情報に前記対応点の座標を変換する作用素を適用し、前記撮影画像と当該設計情報とを位置合わせする位置合わせ手段として機能させるための位置合わせプログラム。
[10] The computer
Accepting means for accepting selection of a hole of the object from a captured image obtained by photographing the object;
Feature point extracting means for extracting feature points of the holes accepted by the accepting means;
Corresponding point selection means for selecting corresponding points corresponding to the feature points from design information indicating the design contents of the object;
An alignment program for applying an operator that converts the coordinates of the corresponding points to the design information, and causing the photographed image and the design information to function as alignment means.

[11]対象物を予め定めた視点から撮影した撮影画像及び前記対象物の見本となる設計情報を格納する記憶装置と、
前記対象物を撮影した撮影画像から、当該対象物の孔の選択を受け付ける受付手段と、前記受付手段が選択を受け付けた孔の特徴点を抽出する特徴点抽出手段と、前記設計情報から前記特徴点に対応する対応点を選択する対応点選択手段と、前記設計情報に前記対応点の座標を変換する作用素を適用し、前記撮影画像と当該設計情報とを位置合わせする位置合わせ手段とを有する位置合わせ装置と、
から構成される位置合わせシステム。
[11] A storage device that stores a photographed image obtained by photographing the object from a predetermined viewpoint and design information serving as a sample of the object;
An accepting unit that accepts selection of a hole of the object from a captured image obtained by photographing the object, a feature point extracting unit that extracts a feature point of the hole accepted by the accepting unit, and the feature from the design information Corresponding point selecting means for selecting a corresponding point corresponding to a point, and alignment means for applying an operator that converts coordinates of the corresponding point to the design information and aligning the photographed image with the design information An alignment device;
An alignment system consisting of

請求項1、10又は11に係る発明によれば、対象物の撮影画像から抽出される形状に基づいて、対象物の撮影画像と当該対象物の設計情報とを位置合わせすることができる。   According to the invention which concerns on Claim 1, 10 or 11, based on the shape extracted from the picked-up image of a target object, the picked-up image of a target object and the design information of the said target object can be aligned.

請求項2に係る発明によれば、本構成を有しない場合と比較して、対象物の撮影画像と当該対象物の設計情報との位置合わせの精度を向上させることができる。   According to the invention which concerns on Claim 2, compared with the case where it does not have this structure, the precision of alignment with the picked-up image of a target object and the design information of the said target object can be improved.

請求項3又は7に係る発明によれば、撮影画像中の対象物の一部分の形状の変化率が大きいほど、対象物の撮影画像と当該対象物の設計情報との位置合わせの重み付けを小さくすることができる。   According to the invention of claim 3 or 7, as the rate of change of the shape of a part of the object in the captured image is larger, the weighting for alignment between the captured image of the object and the design information of the object is reduced. be able to.

請求項4又は8に係る発明によれば、撮影画像中の対象物の一部分の形状の面積の変化率が大きいほど、対象物の撮影画像と当該対象物の設計情報との位置合わせの重み付けを小さくすることができる。   According to the invention according to claim 4 or 8, as the rate of change in the area of the shape of a part of the object in the captured image is larger, the weighting of the alignment between the captured image of the object and the design information of the object is increased. Can be small.

請求項5又は9に係る発明によれば、距離が近いほど、視角が小さいほど、撮影画像の状態が良いほど、対象物の撮影画像と当該対象物の設計情報との位置合わせの重み付けを大きくすることができる。   According to the fifth or ninth aspect of the invention, the closer the distance, the smaller the viewing angle, and the better the state of the captured image, the greater the weighting of alignment between the captured image of the object and the design information of the object. can do.

請求項6に係る発明によれば、撮影画像の視点及び特徴点を通る直線と、対応点を通る直線との距離に基づいて、対象物の撮影画像と当該対象物の設計情報とを位置合わせすることができる。   According to the invention of claim 6, based on the distance between the straight line passing through the viewpoint and the feature point of the captured image and the straight line passing through the corresponding point, the captured image of the target object and the design information of the target object are aligned. can do.

図1は、本実施形態に係る位置合わせシステムの構成例を示す概略図である。FIG. 1 is a schematic diagram illustrating a configuration example of an alignment system according to the present embodiment. 図2は、本実施形態に係る位置合わせ装置の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of the alignment apparatus according to the present embodiment. 図3(a)は撮影画像情報の内容の一例を示す概略図、図3(b)は撮影情報の内容の一例を示す概略図である。FIG. 3A is a schematic diagram illustrating an example of the content of the captured image information, and FIG. 3B is a schematic diagram illustrating an example of the content of the captured information. 図4は、対象物三次元情報の表示画像の一例を示す概略図である。FIG. 4 is a schematic diagram illustrating an example of a display image of the object three-dimensional information. 図5(a)及び(b)は、撮影画像情報の表示画像の一例を示す概略図である。5A and 5B are schematic diagrams illustrating an example of a display image of photographed image information. 図6は、対象物三次元情報の表示画像の一例を示す概略図である。FIG. 6 is a schematic diagram illustrating an example of a display image of target three-dimensional information. 図7は、対象三次元情報と対応点との関係を示す概略図である。FIG. 7 is a schematic diagram illustrating a relationship between target 3D information and corresponding points. 図8は、対応情報の構成の一例を示す概略図である。FIG. 8 is a schematic diagram illustrating an example of the configuration of correspondence information. 図9は、位置合わせ計算手段の動作例を示す概略図である。FIG. 9 is a schematic diagram showing an operation example of the alignment calculation means. 図10は、本実施形態に係る位置合わせ装置の動作例を示すフローチャートである。FIG. 10 is a flowchart illustrating an operation example of the alignment apparatus according to the present embodiment. 図11は、対象三次元情報と対応直線との関係を示す概略図である。FIG. 11 is a schematic diagram illustrating the relationship between the target three-dimensional information and the corresponding straight line. 図12は、位置合わせ計算手段の他の動作例を示す概略図である。FIG. 12 is a schematic diagram showing another operation example of the alignment calculation means. 図13は、位置合わせ計算手段の他の動作例を示す概略図である。FIG. 13 is a schematic diagram showing another operation example of the alignment calculation means. 図14(a)及び(b)は、撮影画像情報中の孔の形状を示す概略図である。FIGS. 14A and 14B are schematic diagrams showing the shape of holes in the captured image information. 図15(a)及び(b)は、撮影画像情報の表示画像の一例を示す概略図である。FIGS. 15A and 15B are schematic diagrams illustrating an example of a display image of photographed image information. 図16は、対象物三次元情報の表示画像の一例を示す概略図である。FIG. 16 is a schematic diagram illustrating an example of a display image of target three-dimensional information. 図17は、対象三次元情報と対応点との関係を示す概略図である。FIG. 17 is a schematic diagram illustrating a relationship between target 3D information and corresponding points.

(位置合わせシステムの構成)
図1は、本実施形態に係る位置合わせシステムの構成例を示す概略図である。
(Configuration of alignment system)
FIG. 1 is a schematic diagram illustrating a configuration example of an alignment system according to the present embodiment.

この位置合わせシステム5は、位置合わせ装置1と、対象物3を撮影するカメラ2とをUSB(Universal Serial Bus)ケーブル等で接続して構成される。   The alignment system 5 is configured by connecting an alignment apparatus 1 and a camera 2 that captures an object 3 with a USB (Universal Serial Bus) cable or the like.

位置合わせ装置1は、情報を処理するための機能を備えたCPU(Central Processing Unit)や記憶部等の電子部品を本体内部に備え、カメラ2で撮影された画像情報を処理する情報処理装置であり、画像を表示する液晶ディスプレイ等の表示部12、操作内容に応じた操作信号を出力するキーボードやマウス等の操作部13等を有する。なお、位置合わせ装置1は、例えば、パーソナルコンピュータであり、その他にPDA(Personal Digital Assistant)、携帯電話機等を用いることもできる。   The alignment device 1 is an information processing device that includes an electronic component such as a CPU (Central Processing Unit) having a function for processing information and a storage unit inside the main body, and processes image information captured by the camera 2. A display unit 12 such as a liquid crystal display for displaying an image; an operation unit 13 such as a keyboard or a mouse for outputting an operation signal corresponding to the operation content; The alignment apparatus 1 is, for example, a personal computer, and a PDA (Personal Digital Assistant), a mobile phone, or the like can also be used.

カメラ2は、対象物3を撮影方向20a以外にも複数の撮影方向から撮影し、撮影した撮影方向20aを撮影画像情報とともに記録し、これらの情報を位置合わせ装置1に送信する。   The camera 2 shoots the object 3 from a plurality of shooting directions in addition to the shooting direction 20 a, records the shot shooting direction 20 a together with the shot image information, and transmits these pieces of information to the alignment apparatus 1.

対象物3は、単一又は複数の面から構成され、それぞれの面に他の部品を固定するためのネジ等を貫通させる孔31〜35を有する。なお、対象物3の面を貫通しない穴を有していてもよい。   The object 3 is composed of a single surface or a plurality of surfaces, and has holes 31 to 35 through which screws or the like for fixing other components are passed through each surface. In addition, you may have the hole which does not penetrate the surface of the target object 3. FIG.

(位置合わせ装置の構成)
図2は、本実施形態に係る位置合わせ装置1の構成例を示すブロック図である。
(Configuration of alignment device)
FIG. 2 is a block diagram illustrating a configuration example of the alignment apparatus 1 according to the present embodiment.

位置合わせ装置1は、CPU等から構成され各部を制御するとともに各種のプログラムを実行する制御部10と、HDD(Hard Disk Drive)やフラッシュメモリ等の記憶媒体であって情報を記憶する記憶部11と、液晶ディスプレイ等であって文字や画像を表示する表示部12と、キーボード及びマウス等であって操作内容に応じた操作信号を出力する操作部13と、カメラ2と情報を送信及び受信する通信部14とを備える。   The alignment apparatus 1 includes a CPU and the like. The control unit 10 controls each unit and executes various programs. A storage unit 11 is a storage medium such as an HDD (Hard Disk Drive) or a flash memory and stores information. A display unit 12 for displaying characters and images, such as a liquid crystal display, an operation unit 13 for outputting an operation signal corresponding to the operation content, such as a keyboard and a mouse, and the camera 2 for transmitting and receiving information. And a communication unit 14.

なお、位置合わせ装置1は、例えば、パーソナルコンピュータやPDA、携帯電話等の電子機器であるが、表示部12や操作部13を備えないサーバ装置のようなものでもよく、その場合はネットワーク等により接続された端末装置の操作部や表示部がそれらの機能を代替する。   The alignment device 1 is, for example, an electronic device such as a personal computer, a PDA, or a mobile phone. However, the alignment device 1 may be a server device that does not include the display unit 12 or the operation unit 13, and in this case, the network device or the like. The operation unit and display unit of the connected terminal device replace these functions.

制御部10は、後述する位置合わせプログラム110を実行することで、撮影画像情報受付手段100、特徴点抽出手段102、特徴点選択受付手段101、対応点選択手段103、位置合わせ手段104及び精度計算手段105等として機能する。   The control unit 10 executes a registration program 110, which will be described later, so that the captured image information reception unit 100, the feature point extraction unit 102, the feature point selection reception unit 101, the corresponding point selection unit 103, the registration unit 104, and the accuracy calculation. It functions as the means 105 or the like.

撮影画像情報受付手段100は、通信部14を介してカメラ2で撮影された撮影画像情報111及び撮影方法に関する内容を含む撮影情報112を受け付けて、記憶部11に格納する。   The photographed image information accepting unit 100 accepts the photographed image information 111 photographed by the camera 2 via the communication unit 14 and the photographed information 112 including the contents relating to the photographing method, and stores them in the storage unit 11.

特徴点選択受付手段101は、撮影画像情報受付手段100が受け付けた撮影画像情報111から、利用者の操作部13に対する操作内容に応じて、位置合わせに用いる座標点(以降、「特徴点」という。)を抽出するために、撮影画像情報111の表示画像中の孔に該当する領域の選択を受け付ける。   The feature point selection accepting unit 101 uses coordinate points (hereinafter referred to as “feature points”) to be used for alignment according to the operation content of the user on the operation unit 13 from the photographed image information 111 accepted by the photographed image information accepting unit 100. .) Is extracted, the selection of the area corresponding to the hole in the display image of the captured image information 111 is accepted.

特徴点抽出手段102は、特徴点選択受付手段101が受け付けた撮影画像情報111の表示画像中の領域から、孔の重心を特徴点として抽出する。例えば、ネジ孔の中心点を特徴点として抽出する。なお、面に設けられた開口部の形状は真円に限らず、視点に関わらずその中心を一意に定めることができる形状であればよい。また、開口部の形状は閉曲線に限らない。   The feature point extracting unit 102 extracts the center of gravity of the hole as a feature point from the region in the display image of the captured image information 111 received by the feature point selection receiving unit 101. For example, the center point of the screw hole is extracted as the feature point. Note that the shape of the opening provided on the surface is not limited to a perfect circle, and may be any shape that can uniquely determine the center regardless of the viewpoint. The shape of the opening is not limited to a closed curve.

対応点選択手段103は、対象物3を製造するために三次元で記載された設計情報である対象物三次元情報113から、利用者の操作部13に対する操作に応じて、特徴点抽出手段102が抽出した特徴点に対応する対応点を選択する。   Corresponding point selection means 103 is a feature point extraction means 102 from object three-dimensional information 113, which is design information written in three dimensions to manufacture the object 3, according to the user's operation on the operation unit 13. A corresponding point corresponding to the extracted feature point is selected.

位置合わせ手段104は、特徴点と対応点との距離の差を最小にするような対応点に対する変換行列を計算して求め、その変換行列によって撮影画像情報111と対象物三次元情報113とを位置合わせする。変換行列は3次元位置を平行移動・回転・拡大縮小させる行列である。なお、位置合わせは、行列に限らず3次元位置を平行移動・回転・拡大縮小させる作用素であればよい。   The alignment unit 104 calculates and obtains a transformation matrix for the corresponding point that minimizes the difference in distance between the feature point and the corresponding point, and the captured image information 111 and the object three-dimensional information 113 are obtained by the transformation matrix. Align. A transformation matrix is a matrix that translates, rotates, and scales a three-dimensional position. Note that the alignment is not limited to a matrix, and any operator that translates, rotates, and enlarges or reduces a three-dimensional position may be used.

精度計算手段105は、位置合わせされた撮影画像情報111及び対象物三次元情報113の形状の誤差を精度として計算する。   The accuracy calculation unit 105 calculates the error in the shapes of the aligned captured image information 111 and the object three-dimensional information 113 as accuracy.

記憶部11は、制御部10を上述した各手段100〜105として動作させる位置合わせプログラム110、カメラ2で撮影された対象物3の画像情報である撮影画像情報111、撮影を行ったときのカメラ2の姿勢等の情報を含む撮影情報112、対象物3を製造するために三次元で記載された設計情報である対象物三次元情報113及び特徴点と対応点との対応関係の情報である対応情報114等を記憶する。   The storage unit 11 includes an alignment program 110 that causes the control unit 10 to operate as each of the above-described units 100 to 105, captured image information 111 that is image information of the object 3 captured by the camera 2, and a camera when the image is captured Shooting information 112 including information such as the posture of the object 2, object three-dimensional information 113 which is design information described in three dimensions for manufacturing the object 3, and information on the correspondence between the feature points and the corresponding points. Correspondence information 114 and the like are stored.

図3(a)は撮影画像情報の内容の一例を示す概略図、図3(b)は撮影情報の内容の一例を示す概略図である。   FIG. 3A is a schematic diagram illustrating an example of the content of the captured image information, and FIG. 3B is a schematic diagram illustrating an example of the content of the captured information.

図3(a)に示す撮影画像情報111aは、後述する図3(c)に示す撮影情報112に示すようにカメラ2によって撮影方向20aから対象物3を撮影した撮影画像情報である。   The photographed image information 111a shown in FIG. 3A is photographed image information obtained by photographing the object 3 from the photographing direction 20a by the camera 2 as shown in the photograph information 112 shown in FIG.

図3(b)に示す撮影画像情報111bは、図3(c)に示す撮影情報112に示すようにカメラ2によって撮影方向20bから対象物3を撮影した撮影画像情報である。   The photographed image information 111b shown in FIG. 3B is photographed image information obtained by photographing the object 3 from the photographing direction 20b by the camera 2 as shown in the photograph information 112 shown in FIG.

図3(c)に示す撮影情報112は、カメラ2で生成される撮影画像情報の識別子が記録される撮影画像情報欄及び撮影画像情報の撮影方向が記録される撮影方向欄等を有する。   The shooting information 112 shown in FIG. 3C includes a shooting image information column in which an identifier of shooting image information generated by the camera 2 is recorded, a shooting direction column in which the shooting direction of the shooting image information is recorded, and the like.

図4は、対象物三次元情報113の表示画像の一例を示す概略図である。   FIG. 4 is a schematic diagram illustrating an example of a display image of the target object three-dimensional information 113.

対象物三次元表示画像113Aは、対応点選択手段103によって対象物三次元情報113を再生することで表示画面120に表示される画像である。対象物三次元表示画像113Aは、操作部13に対する利用者の操作内容に応じてその表示内容を拡大・縮小や回転等されるものであってもよい。   The object three-dimensional display image 113 </ b> A is an image displayed on the display screen 120 by reproducing the object three-dimensional information 113 by the corresponding point selection unit 103. The target object three-dimensional display image 113 </ b> A may be an image whose display content is enlarged / reduced or rotated according to the user's operation content on the operation unit 13.

(位置合わせ装置の動作)
以下に、位置合わせ装置1の動作例を図1〜図8を参照しつつ、(1)基本動作、(2)特徴点抽出動作、(3)対応点選択動作、(4)位置合わせ動作に分けて説明する。
(Operation of alignment device)
Hereinafter, with reference to FIGS. 1 to 8, an example of the operation of the alignment apparatus 1 will be described in (1) basic operation, (2) feature point extraction operation, (3) corresponding point selection operation, and (4) alignment operation. Separately described.

(1)基本動作
まず、利用者は、カメラ2によって複数の撮影方向から対象物3を撮影する。撮影した撮影画像情報111及び付随する撮影情報112は、カメラ2の記憶部に格納される。
(1) Basic operation First, the user photographs the object 3 from a plurality of photographing directions with the camera 2. The captured image information 111 and the associated shooting information 112 are stored in the storage unit of the camera 2.

利用者は、位置合わせ装置1の操作部13を操作してカメラ2との通信を指示する。操作部13は、操作に応じて操作信号を出力する。   The user operates the operation unit 13 of the alignment apparatus 1 to instruct communication with the camera 2. The operation unit 13 outputs an operation signal according to the operation.

位置合わせ装置1は、操作部13から操作信号を受信するとカメラ2と通信部14を介して通信を開始する。次に、撮影画像情報受付手段100は、カメラ2の記憶部から撮影画像情報111及び撮影情報112を受け付けて記憶部11に格納する。なお、撮影画像情報受付手段100は、カメラ2以外の外部装置から予め撮影された撮影画像情報111及び撮影情報112を受け付けてもよい。   When receiving the operation signal from the operation unit 13, the alignment apparatus 1 starts communication with the camera 2 via the communication unit 14. Next, the photographed image information accepting unit 100 accepts the photographed image information 111 and the photographed information 112 from the storage unit of the camera 2 and stores them in the storage unit 11. Note that the photographed image information accepting unit 100 may accept photographed image information 111 and photographed information 112 previously photographed from an external device other than the camera 2.

次に、利用者が操作部13を介して記憶部に格納された撮影画像情報111と対象物三次元情報113との位置合わせを要求すると、位置合わせ装置1の特徴点選択受付手段101は、まず、撮影画像情報111を再生して表示画像を表示部12に表示する。   Next, when the user requests alignment of the captured image information 111 and the object three-dimensional information 113 stored in the storage unit via the operation unit 13, the feature point selection receiving unit 101 of the alignment apparatus 1 First, the captured image information 111 is reproduced and a display image is displayed on the display unit 12.

図5(a)及び(b)は、撮影画像情報の表示画像の一例を示す概略図である。   5A and 5B are schematic diagrams illustrating an example of a display image of photographed image information.

特徴点選択受付手段101は、図5(a)に示すように、表示画面120に撮影方向20aから撮影された撮影画像情報111aと、操作部13の出力する操作信号に応じて動作するカーソル101aとを表示する。   As shown in FIG. 5A, the feature point selection accepting unit 101 includes a cursor 101a that operates in accordance with captured image information 111a captured from the capturing direction 20a on the display screen 120 and an operation signal output from the operation unit 13. Is displayed.

(2)特徴点選択動作
利用者は、図5(a)に示す表示画面120を参照して、操作部13を介してカーソル101aをドラッグ操作し、ドラッグ操作により表示される選択枠101bによって使用する孔(ネジ穴)を選択する。
(2) Feature Point Selection Operation The user refers to the display screen 120 shown in FIG. 5A and drags the cursor 101a via the operation unit 13, and uses the selection frame 101b displayed by the drag operation. Select the hole (screw hole) to be used.

図10は、本発明の実施形態に係る位置合わせ装置1の動作例を示すフローチャートである。   FIG. 10 is a flowchart showing an operation example of the alignment apparatus 1 according to the embodiment of the present invention.

特徴点選択受付手段101は、上記操作により選択された図5(a)に示す選択枠101bによる選択を受け付け、選択枠101b内の特徴点を抽出するよう、特徴点抽出手段102に指示する。   The feature point selection receiving unit 101 receives the selection by the selection frame 101b shown in FIG. 5A selected by the above operation, and instructs the feature point extraction unit 102 to extract the feature points in the selection frame 101b.

特徴点抽出手段102は、選択枠101b内の撮影画像情報111aを画像解析処理し、ネジ穴に相当する画像領域の中心を特徴点31aとして抽出する(S1)。なお、特徴点は、ネジ穴(孔)の中心に限らず、ネジ穴(孔)の形状の重心等でもよい。   The feature point extraction unit 102 performs image analysis processing on the captured image information 111a in the selection frame 101b, and extracts the center of the image area corresponding to the screw hole as the feature point 31a (S1). The feature point is not limited to the center of the screw hole (hole) but may be the center of gravity of the shape of the screw hole (hole).

特徴点選択受付手段101は、特徴点抽出手段102が抽出した特徴点31aを記憶部11の対応情報114に書き込む。   The feature point selection accepting unit 101 writes the feature point 31 a extracted by the feature point extracting unit 102 in the correspondence information 114 of the storage unit 11.

(3)対応点選択動作 (3) Corresponding point selection operation

次に、対応点選択手段103は、対象物三次元情報113を再生して対象物三次元表示画像113Aを表示部12に表示する。   Next, the corresponding point selection unit 103 reproduces the object three-dimensional information 113 and displays the object three-dimensional display image 113 </ b> A on the display unit 12.

図6は、対象物三次元表示画像113Aの一例を示す概略図である。   FIG. 6 is a schematic diagram illustrating an example of the object three-dimensional display image 113A.

対応点選択手段103は、図6に示すように、表示画面120に対象物三次元表示画像113Aと、操作部13の出力する操作信号に応じて動作するカーソル103aとを表示する。   As shown in FIG. 6, the corresponding point selection unit 103 displays a target three-dimensional display image 113 </ b> A and a cursor 103 a that operates according to an operation signal output from the operation unit 13 on the display screen 120.

利用者は、図6に示す表示画面120を参照して、ステップS1で選択した特徴点31aに対応する対応点をカーソル103aによって選択するよう操作部13を操作する。   The user operates the operation unit 13 with reference to the display screen 120 shown in FIG. 6 so that the corresponding point corresponding to the feature point 31a selected in step S1 is selected by the cursor 103a.

対応点選択手段103は、操作部13から上記操作内容に応じた操作信号を受信すると、対象物三次元情報113に定義された対応点41aを選択する(S2)。なお、対応点41aは、以下に示すように定義されているものとする。   When the corresponding point selection unit 103 receives an operation signal corresponding to the operation content from the operation unit 13, the corresponding point selection unit 103 selects the corresponding point 41a defined in the object three-dimensional information 113 (S2). It is assumed that the corresponding point 41a is defined as shown below.

図7は、対象三次元情報と対応点との関係を示す概略図である。   FIG. 7 is a schematic diagram illustrating a relationship between target 3D information and corresponding points.

対象物三次元情報113において孔41は元々、円筒形状により定義されているため、対応点選択手段103は、円筒の上面及び低面の中心を対応点41a及び41bとして定義する。なお、図6のカーソル103aによって対応点41a又は41bが選択される場合は、表示上の視点から近いもの、図6の例では対応点41aを選択し、対応情報114に書き込む。   Since the hole 41 is originally defined by a cylindrical shape in the object three-dimensional information 113, the corresponding point selection unit 103 defines the centers of the upper and lower surfaces of the cylinder as corresponding points 41a and 41b. When the corresponding point 41a or 41b is selected by the cursor 103a in FIG. 6, the corresponding point 41a is selected from the viewpoint on the display, and in the example of FIG.

次に、以上のステップS1によって書き込まれた特徴点及びS2によって書き込まれた対応点から対応情報114が作成される。   Next, correspondence information 114 is created from the feature points written in step S1 and the corresponding points written in S2.

図8は、対応情報114の構成の一例を示す概略図である。   FIG. 8 is a schematic diagram illustrating an example of the configuration of the correspondence information 114.

対応情報114は、特徴点を識別する識別子を示す特徴点ID欄と、特徴点が選択された撮影画像情報111の撮影方向を示す撮影方向欄と、選択された特徴点(座標)を示す特徴点欄と、撮影方向を定義する視点と特徴点とを通る特徴直線を示す特徴直線欄と、特徴点に対応させた対応点を示す対応点欄とを有する。   The correspondence information 114 includes a feature point ID column indicating an identifier for identifying a feature point, a shooting direction column indicating a shooting direction of the shooting image information 111 from which the feature point is selected, and a feature indicating the selected feature point (coordinates). It has a point field, a feature line field that indicates a feature line that passes through the viewpoint and feature points that define the shooting direction, and a corresponding point field that indicates corresponding points corresponding to the feature points.

撮影方向欄及び特徴点欄は、上記したように特徴点抽出手段102によって入力され、対応点欄は、対応点選択手段103によって入力される。なお、特徴直線欄の特徴直線は、撮影方向欄の撮影方向の視点(視点a又はb)と、特徴点欄の特徴点とを通る直線であり、次に説明する位置合わせ手段104によって算出される。   The shooting direction column and the feature point column are input by the feature point extracting unit 102 as described above, and the corresponding point column is input by the corresponding point selecting unit 103. The feature line in the feature line column is a straight line that passes through the viewpoint (viewpoint a or b) in the shooting direction in the shooting direction column and the feature point in the feature point column, and is calculated by the alignment unit 104 described below. The

次に、位置合わせ手段104は、対応情報114の情報が位置合わせをするのに十分な数だけ入力されたか確認し、十分であるとき(S3;Yes)、例えば、本実施の形態においては特徴点と対応点との組み合わせが3以上であるとき、(4)位置合わせ動作を実行する。また、対応情報114の情報が十分でないとき(S3;No)、ステップS1及びS2を繰り返す。   Next, the alignment means 104 confirms whether or not a sufficient number of pieces of information of the correspondence information 114 have been input for alignment, and if it is sufficient (S3; Yes), for example, in the present embodiment, it is a feature. When the combination of the point and the corresponding point is 3 or more, (4) the alignment operation is executed. Moreover, when the information of the correspondence information 114 is not sufficient (S3; No), steps S1 and S2 are repeated.

(4)位置合わせ動作
図9は、位置合わせ手段104の動作例を示す概略図である。
(4) Positioning Operation FIG. 9 is a schematic diagram showing an operation example of the positioning means 104.

位置合わせ手段104は、以下に示す式の値が最小となる変換行列Tを求める。

Figure 2012068062
The alignment means 104 obtains a transformation matrix T that minimizes the value of the following equation.
Figure 2012068062

なお、pは対応点の座標、視点a又はbと特徴点とを通るlは特徴直線、f(x,y)は点xと直線yとの距離である。 Here, p i is the coordinates of the corresponding point, l i passing through the viewpoint a or b and the feature point is a feature line, and f (x, y) is the distance between the point x and the line y.

つまり、対応情報114のうち、図9に示す特徴直線51a、52a、55a、52b、55b…と、それぞれ対応した対応点41a、42a、45a、42a、45a…を変換行列Tで回転した点との距離の和が最小となるようなTを求める。   That is, in the correspondence information 114, the characteristic straight lines 51a, 52a, 55a, 52b, 55b... Shown in FIG. 9 and the corresponding corresponding points 41a, 42a, 45a, 42a, 45a. T is calculated such that the sum of the distances is minimized.

次に、精度計算手段105は、変換行列Tを求めた後、変換行列Tによって回転された対象物三次元情報113に対する対象物3とを比較し、対象物3の形状の工作精度等を計算する。また、精度計算手段105は、上記式[1]の値から対象物三次元情報113に対する対象物3の孔31〜35の位置精度を計算してもよい。   Next, after calculating the transformation matrix T, the accuracy calculating means 105 compares the object 3 with the object 3D information 113 rotated by the transformation matrix T, and calculates the working accuracy of the shape of the object 3 and the like. To do. Further, the accuracy calculation unit 105 may calculate the positional accuracy of the holes 31 to 35 of the object 3 with respect to the object three-dimensional information 113 from the value of the above equation [1].

[変形例1]
(4−1)位置合わせ動作
なお、位置合わせ手段104は、図7に示すように対応点41a又は41bの利用者の選択ミスを考慮して全ての対応点について式[1]を計算してもよい。
[Modification 1]
(4-1) Positioning Operation The positioning unit 104 calculates the equation [1] for all corresponding points in consideration of the user's selection mistake of the corresponding point 41a or 41b as shown in FIG. Also good.

つまり、以下に示す色の値が最小となる変換行列Tを求める。

Figure 2012068062
That is, the transformation matrix T that minimizes the color value shown below is obtained.
Figure 2012068062

なお、pijは対応点の座標であり、j=1、2の場合はそれぞれ図7に示す対応点41a、41bに対応する。 Note that p ij is the coordinates of the corresponding points. When j = 1, 2, they correspond to the corresponding points 41a and 41b shown in FIG.

[変形例2]
図11は、対象三次元情報と対応直線との関係を示す概略図である。
[Modification 2]
FIG. 11 is a schematic diagram illustrating the relationship between the target three-dimensional information and the corresponding straight line.

対応点選択手段103は、上記実施の形態において図7に示す対象物三次元情報113から孔41を形成する円筒の上面及び低面の中心である対応点41a及び41bによって孔41を定義したが、変形例として対応点41a又は41bの選択ミスがなくなるように対応点41a及び41bの2点を通る対応直線61によって定義してもよい。   The corresponding point selection means 103 defines the hole 41 by the corresponding points 41a and 41b which are the centers of the upper surface and the lower surface of the cylinder forming the hole 41 from the object three-dimensional information 113 shown in FIG. 7 in the above embodiment. As a modification, it may be defined by a corresponding straight line 61 passing through two points, corresponding points 41a and 41b, so that selection mistakes of corresponding points 41a or 41b are eliminated.

つまり、上記したステップS2において、対応点選択手段103は、操作部13から操作信号を受信すると、対象物三次元情報113に定義された対応直線61を選択する。   That is, in step S <b> 2 described above, when the corresponding point selection unit 103 receives the operation signal from the operation unit 13, the corresponding point selection unit 103 selects the corresponding straight line 61 defined in the object three-dimensional information 113.

(4−2)位置合わせ動作
位置合わせ手段104は、選択された対応直線を用いて以下に説明する計算を行う。
(4-2) Positioning Operation The positioning means 104 performs the calculation described below using the selected corresponding straight line.

図12は、位置合わせ手段104の他の動作例を示す概略図である。   FIG. 12 is a schematic diagram illustrating another example of the operation of the alignment unit 104.

位置合わせ手段104は、以下に示す式の値が最小となる変換行列Tを求める。

Figure 2012068062
The alignment means 104 obtains a transformation matrix T that minimizes the value of the following equation.
Figure 2012068062

なお、孔に定義される2点の対応点を通るhは対応直線、lは特徴直線、g(x,y)は直線xと直線yとの距離である。 Note that h i passing through two corresponding points defined in the hole is a corresponding line, l i is a characteristic line, and g (x, y) is a distance between the line x and the line y.

つまり、対応情報114のうち、図12に示す特徴直線51a、52a、55a、52b、55b…と、それぞれ対応した対応直線61、62、65、62、65…を変換行列Tで回転した直線との距離の和が最小となるようにする。   That is, among the correspondence information 114, the characteristic straight lines 51a, 52a, 55a, 52b, 55b... Shown in FIG. 12 and the corresponding straight lines 61, 62, 65, 62, 65. So that the sum of the distances is minimized.

なお、式[3]を用いた位置合わせ計算において、ステップS3の対応直線の数が十分か否かの判断は、全ての対応直線が平行でない場合は2つ以上であればよい。また、対応直線が平行である場合は、3つ以上であればよいが、平行である場合は、以下に示すように対応直線方向に自由度があり、位置合わせができない。   In the alignment calculation using Expression [3], whether or not the number of corresponding lines in step S3 is sufficient may be two or more when all the corresponding lines are not parallel. Further, when the corresponding straight lines are parallel, the number may be three or more. However, when the corresponding straight lines are parallel, there is a degree of freedom in the corresponding straight line direction as shown below, and the alignment cannot be performed.

(4−3)位置合わせ動作
図13は、位置合わせ手段104の他の動作例を示す概略図である。
(4-3) Positioning Operation FIG. 13 is a schematic diagram illustrating another example of the positioning unit 104.

位置合わせ手段104は、対応直線66〜68がそれぞれ平行であるとき、式[3]の値が最小であっても、撮影画像情報111と対象物三次元情報113との位置合わせには相対的に対応直線66〜68の方向に自由度が生じる。   When the corresponding straight lines 66 to 68 are parallel to each other, the alignment means 104 is relatively relative to the alignment of the captured image information 111 and the object three-dimensional information 113 even if the value of the expression [3] is minimum. The degree of freedom is generated in the direction of the corresponding straight lines 66-68.

そのため、位置合わせ手段104は、対応直線66〜68と平行でない対応直線を有する他の孔が存在する場合は、表示部12にメッセージ等を表示して他の孔を選択するよう利用者に対して要求する。   Therefore, when there is another hole having a corresponding straight line that is not parallel to the corresponding straight lines 66 to 68, the positioning means 104 displays a message or the like on the display unit 12 to select another hole. To request.

また、対象物三次元表示画像113Aにおいて、利用者の操作に応じて自由度のある対応直線66〜68の方向にのみ対象物を平行移動可能とし、利用者の目視で位置合わせをするよう要求してもよい。   Further, in the object three-dimensional display image 113A, the object can be translated only in the directions of the corresponding straight lines 66 to 68 having a degree of freedom in accordance with the user's operation, and the user is required to align the position visually. May be.

また、対応直線に加えて、さらに特徴点と対応点の対を指定するよう利用者に要求し、以下の式の値が最小となる変数aを求めてもよい。

Figure 2012068062
Further, in addition to the corresponding straight line, the user may be further requested to specify a pair of feature points and corresponding points, and the variable a that minimizes the value of the following expression may be obtained.
Figure 2012068062

なお、aは変数、hは平行な対応直線の方向を表すベクトルである。   Here, a is a variable, and h is a vector representing the direction of parallel corresponding straight lines.

[変形例3]
(4−4)位置合わせ動作
図14(a)及び(b)は、撮影画像情報111中の孔の形状を示す概略図である。
[Modification 3]
(4-4) Positioning Operation FIGS. 14A and 14B are schematic diagrams showing the shape of holes in the captured image information 111. FIG.

孔31A及び31Bは、それぞれ異なる撮影方向から対象物3の孔31を撮影したものである。   The holes 31A and 31B are obtained by photographing the hole 31 of the object 3 from different photographing directions.

特徴点抽出手段102は、孔31A及び31Bから特徴点を抽出するが、孔31Aのように真円に近い程その特徴点の抽出精度は高く、孔31Bのように楕円の長軸と短軸との差が大きい程精度が低くなる。また、撮影画像情報111の視点から孔31A及び31Bへの距離が大きいほど特徴点の抽出精度は低くなる。さらに、孔31A及び31Bに画像のピントが合っておらず不鮮明な場合も抽出精度は低くなる。   The feature point extraction means 102 extracts feature points from the holes 31A and 31B. The closer to a perfect circle as in the hole 31A, the higher the feature point extraction accuracy, and the longer and shorter axes of the ellipse as in the hole 31B. The greater the difference, the lower the accuracy. In addition, as the distance from the viewpoint of the captured image information 111 to the holes 31A and 31B increases, the feature point extraction accuracy decreases. Furthermore, the extraction accuracy also decreases when the images are not in focus in the holes 31A and 31B and are unclear.

そのため、位置合わせ手段104は、撮影画像情報111中の孔の形状、視点からの距離、画像の鮮明さ等に応じた係数wを式[1]に乗じて重み付けし、以下の式を最小にする変換行列Tを求める。

Figure 2012068062
Therefore, the alignment means 104, the shape of the holes in the captured image information 111, the distance from the viewpoint, the coefficient w i corresponding to the sharpness of the image is weighted by multiplying the equation [1], the minimum of the following formula A transformation matrix T is obtained.
Figure 2012068062

[変形例4]
図10におけるステップS3において、対応点の数が十分でない場合(S3;No)、ステップS1及びS2を繰り返すが、対象物3の孔の数が十分でない場合や、孔の数が十分(S3;Yes)だが孔の位置が対称的である場合は、一意的に定まる位置合わせ計算を行うことができない。
[Modification 4]
In step S3 in FIG. 10, when the number of corresponding points is not sufficient (S3; No), steps S1 and S2 are repeated. However, when the number of holes in the object 3 is not sufficient or the number of holes is sufficient (S3; Yes) However, if the position of the hole is symmetric, a uniquely determined alignment calculation cannot be performed.

そのため、位置合わせ手段104は、孔から抽出される特徴点及びそれに対応する対応点に加え、対象物の形状等から抽出される特徴点及びその特徴点に対応する対応点の選択を利用者に要求する。   Therefore, in addition to the feature points extracted from the holes and the corresponding points corresponding thereto, the alignment unit 104 selects the feature points extracted from the shape of the object and the corresponding points corresponding to the feature points to the user. Request.

(2−5)特徴点抽出動作
図15(a)及び(b)は、撮影画像情報の表示画像の一例を示す概略図である。
(2-5) Feature Point Extraction Operation FIGS. 15A and 15B are schematic diagrams illustrating an example of a display image of photographed image information.

利用者は、図15(a)に示す表示画面120を参照して、操作部13を介してカーソル101aをドラッグ操作し、ドラッグ操作により表示される選択枠101bによって使用する特徴点を選択する。   The user refers to the display screen 120 shown in FIG. 15A, drags the cursor 101a via the operation unit 13, and selects a feature point to be used by the selection frame 101b displayed by the drag operation.

特徴点選択受付手段101は、操作部13から上記操作に応じた操作信号を受信すると、図15(a)に示す選択枠101b内の特徴点を抽出するよう、特徴点抽出手段102に指示する。   When the feature point selection accepting unit 101 receives an operation signal corresponding to the above operation from the operation unit 13, the feature point selection accepting unit 101 instructs the feature point extracting unit 102 to extract a feature point within the selection frame 101b shown in FIG. .

特徴点抽出手段102は、選択枠101b内の撮影画像情報111cを画像解析処理し、例えば、角形状等を特徴点71として抽出する。   The feature point extraction unit 102 performs image analysis processing on the captured image information 111 c in the selection frame 101 b and extracts, for example, a corner shape or the like as the feature point 71.

(3−5)対応点選択動作 (3-5) Corresponding point selection operation

次に、対応点選択手段103は、対象物三次元表示画像を表示部12に表示する。   Next, the corresponding point selection unit 103 displays the target object three-dimensional display image on the display unit 12.

図16は、対象物三次元表示画像の一例を示す概略図である。   FIG. 16 is a schematic diagram illustrating an example of an object three-dimensional display image.

対応点選択手段103は、図16に示すように、表示画面120に対象物三次元表示画像113Bと、操作部13の出力する操作信号に応じて動作するカーソル103aとを表示する。   As illustrated in FIG. 16, the corresponding point selection unit 103 displays a target three-dimensional display image 113 </ b> B and a cursor 103 a that operates according to an operation signal output from the operation unit 13 on the display screen 120.

利用者は、図16に示す表示画面120を参照して、選択した特徴点71に対応する対応点をカーソル103aによって選択するよう操作部13を操作する。   The user operates the operation unit 13 with reference to the display screen 120 shown in FIG. 16 so that the corresponding point corresponding to the selected feature point 71 is selected by the cursor 103a.

対応点選択手段103は、操作部13から上記操作内容に応じた操作信号を受信すると、対象物三次元情報113に定義された対応点81を選択する。
(4−5)位置合わせ動作
位置合わせ手段104は、上記(2−5)特徴点選択動作及び(3−5)対応点選択動作で選択した特徴点71及び対応点81を用いて、以下に示す式の値が最小となる変換行列Tを求める。

Figure 2012068062
When the corresponding point selection unit 103 receives an operation signal corresponding to the operation content from the operation unit 13, the corresponding point selection unit 103 selects the corresponding point 81 defined in the object three-dimensional information 113.
(4-5) Alignment Operation The alignment unit 104 uses the feature points 71 and the corresponding points 81 selected in the above (2-5) feature point selection operation and (3-5) corresponding point selection operation, as follows. A transformation matrix T that minimizes the value of the expression shown is obtained.
Figure 2012068062

なお、qは対象物3の角の対応点81の座標、mは対象物3の角の特徴点71と視点を通る特徴直線、w及びwは重み付けの係数である。なお、抽出精度が角形状に比べて孔形状の方が高い点からwを大きくすることが望ましい。 Here, q k is the coordinates of the corresponding point 81 at the corner of the object 3, m k is a feature line 71 passing through the viewpoint with the feature point 71 at the corner of the object 3, and w 1 and w 2 are weighting coefficients. It should be noted that it is desirable to increase w 1 because the extraction accuracy is higher in the hole shape than in the square shape.

[他の実施の形態]
なお、本発明は、上記実施の形態に限定されず、本発明の要旨を逸脱しない範囲で種々な変形が可能である。例えば、図17に示すように、特徴点抽出手段102は、楕円形状の孔39から最も外側のエッジを抽出してその重心を特徴点39aとして抽出してもよいし、突起形状の中心又は重心を特徴点として抽出してもよい。また、位置合わせ計算手段は、対象物3の孔が誤った位置に設けられていた場合に、Thompsonの棄却検定等の手法を用いて誤った位置に設けられた孔を式[1]〜式[6]のp、l、hから除外してもよい。
[Other embodiments]
The present invention is not limited to the above embodiment, and various modifications can be made without departing from the gist of the present invention. For example, as shown in FIG. 17, the feature point extracting means 102 may extract the outermost edge from the elliptical hole 39 and extract the center of gravity as the feature point 39a, or the center or center of gravity of the protrusion shape. May be extracted as feature points. In addition, when the hole of the object 3 is provided at an incorrect position, the alignment calculation means calculates the hole provided at the incorrect position using a method such as Thompson's rejection test. [6] may be excluded from p i , l i and h i .

また、上記位置合わせプログラム110をCD−ROM等の記憶媒体に格納して提供することも可能であり、インターネット等のネットワークに接続されているサーバ装置等から装置内の記憶部にダウンロードしてもよい。また、撮影画像情報受付手段100、特徴点抽出手段102、特徴点選択受付手段101、対応点選択手段103、位置合わせ手段104及び精度計算手段105の一部又は全部をASIC等のハードウェアによって実現してもよい。なお、上記実施の形態の動作説明で示した各ステップは、順序の変更、ステップの省略、追加が可能である。   Further, the alignment program 110 can be provided by being stored in a storage medium such as a CD-ROM, and can be downloaded from a server device connected to a network such as the Internet to a storage unit in the device. Good. The photographed image information receiving unit 100, the feature point extracting unit 102, the feature point selection receiving unit 101, the corresponding point selecting unit 103, the alignment unit 104, and the accuracy calculating unit 105 are partially or entirely realized by hardware such as an ASIC. May be. Note that each step shown in the operation description of the above embodiment can be changed in order, omitted or added.

1…位置合わせ装置、2…カメラ、3…対象物、5…位置合わせシステム、10…制御部、11…記憶部、12…表示部、13…操作部、14…通信部、20a、20b…撮影方向、100…撮影画像情報受付手段、101…特徴点選択受付手段、102…特徴点抽出手段、103…対応点選択手段、104…計算手段、105…精度計算手段、110…位置合わせプログラム、111…撮影画像情報、112…撮影情報、113…対象物三次元情報、114…対応情報、120…表示画面 DESCRIPTION OF SYMBOLS 1 ... Position alignment apparatus, 2 ... Camera, 3 ... Object, 5 ... Position alignment system, 10 ... Control part, 11 ... Memory | storage part, 12 ... Display part, 13 ... Operation part, 14 ... Communication part, 20a, 20b ... Shooting direction, 100 ... photographed image information receiving means, 101 ... feature point selection receiving means, 102 ... feature point extracting means, 103 ... corresponding point selecting means, 104 ... calculating means, 105 ... accuracy calculating means, 110 ... positioning program, 111: Shooting image information, 112: Shooting information, 113: Object three-dimensional information, 114: Corresponding information, 120 ... Display screen

Claims (11)

対象物を撮影した撮影画像から、当該対象物の孔の選択を受け付ける受付手段と、
前記受付手段が選択を受け付けた孔の特徴点を抽出する特徴点抽出手段と、
前記対象物の設計の内容を示す設計情報から前記特徴点に対応する対応点を選択する対応点選択手段と、
前記設計情報に前記対応点の座標を変換する作用素を適用し、前記撮影画像と当該設計情報とを位置合わせする位置合わせ手段とを有する位置合わせ装置。
Accepting means for accepting selection of a hole of the object from a captured image obtained by photographing the object;
Feature point extracting means for extracting feature points of the holes accepted by the accepting means;
Corresponding point selection means for selecting corresponding points corresponding to the feature points from design information indicating the design contents of the object;
An alignment apparatus that includes an alignment unit that aligns the photographed image and the design information by applying an operator that converts the coordinates of the corresponding point to the design information.
前記位置合わせ装置は、さらに、
前記対象物を撮影する撮影手段の視点及び前記特徴点を通る直線と、前記対応点との距離が最小となるように、前記作用素を算出する算出手段、を備えることを特徴とする請求項1に記載の位置合わせ装置。
The alignment device further includes:
2. A calculation unit that calculates the operator so that a distance between a viewpoint of an imaging unit that images the object and a straight line passing through the feature point and the corresponding point is minimized. The alignment device described in 1.
前記算出手段は、前記受付手段が選択を受け付けた孔を平面視した形状に対する、前記撮影画像中の当該孔の形状の変化率に応じて、前記視点及び当該孔の特徴点を通る直線と、前記対応点との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点の座標を変換する作用素を算出する請求項2に記載の位置合わせ装置。   The calculation means is a straight line that passes through the viewpoint and the feature point of the hole according to a change rate of the shape of the hole in the captured image with respect to the shape of the hole that the reception means has received a selection in plan view. The alignment apparatus according to claim 2, wherein the distance between the corresponding points is weighted, and an operator that converts the coordinates of the corresponding points is calculated so that the weighted distance is minimized. 前記算出手段は、前記受付手段が選択を受け付けた孔を平面視した形状の面積に対する、前記撮影画像中の当該孔の形状の面積の変化率に応じて、前記視点及び当該孔の特徴点を通る直線と、前記対応点との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点の座標を変換する作用素を算出する請求項2に記載の位置合わせ装置。   The calculation means calculates the viewpoint and the feature point of the hole in accordance with a change rate of the area of the shape of the hole in the captured image with respect to the area of the shape of the hole that the reception means has received a selection in plan view. The alignment apparatus according to claim 2, wherein the distance between the passing line and the corresponding point is weighted, and an operator that converts the coordinates of the corresponding point is calculated so that the weighted distance is minimized. 前記算出手段は、前記特徴点と前記視点との距離、前記特徴点の前記視点からの視角及び前記特徴点の前記撮影画像における画質の少なくとも1つに応じて、前記撮影画像の視点及び前記特徴点を通る直線と、前記対応点との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点の座標を変換する作用素を算出する請求項2に記載の位置合わせ装置。   The calculating means determines the viewpoint and the feature of the photographed image according to at least one of a distance between the feature point and the viewpoint, a viewing angle of the feature point from the viewpoint, and an image quality of the feature point in the photographed image. The alignment apparatus according to claim 2, wherein a distance between a straight line passing through a point and the corresponding point is weighted, and an operator that converts coordinates of the corresponding point is calculated so that the weighted distance is minimized. 前記位置合わせ装置は、さらに、
前記対象物を撮影する撮影手段の視点及び前記特徴点を通る直線と、前記対応点を通る直線との距離が最小となるように、前記対応点の座標を変換する作用素を算出する算出手段、を備えることを特徴とする請求項1に記載の位置合わせ装置。
The alignment device further includes:
Calculating means for calculating an operator for converting the coordinates of the corresponding points so that a distance between a straight line passing through the viewpoint and the feature point of the photographing means for photographing the object and the corresponding point is minimized; The alignment apparatus according to claim 1, further comprising:
前記算出手段は、前記受付手段が選択を受け付けた孔を平面視した形状に対する、前記撮影画像中の当該孔の形状の変化率に応じて、前記視点及び当該孔の特徴点を通る直線と、前記対応点を通る直線との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点の座標を変換する作用素を算出する請求項6に記載の位置合わせ装置。   The calculation means is a straight line that passes through the viewpoint and the feature point of the hole according to a change rate of the shape of the hole in the captured image with respect to the shape of the hole that the reception means has received a selection in plan view. The alignment apparatus according to claim 6, wherein a distance to the straight line passing through the corresponding point is weighted, and an operator for converting the coordinates of the corresponding point is calculated so that the weighted distance is minimized. 前記算出手段は、前記受付手段が選択を受け付けた孔を平面視した形状の面積に対する、前記撮影画像中の当該孔の形状の面積の変化率に応じて、前記視点及び当該孔の特徴点を通る直線と、前記対応点を通る直線との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点の座標を変換する作用素を算出する請求項6に記載の位置合わせ装置。   The calculation means calculates the viewpoint and the feature point of the hole in accordance with a change rate of the area of the shape of the hole in the captured image with respect to the area of the shape of the hole that the reception means has received a selection in plan view. The alignment apparatus according to claim 6, wherein the distance between a straight line passing through and a straight line passing through the corresponding point is weighted, and an operator that converts the coordinates of the corresponding point is calculated so that the weighted distance is minimized. . 前記算出手段は、前記特徴点と前記視点との距離、前記特徴点の前記視点からの視角及び前記特徴点の前記撮影画像における画質の少なくとも1つに応じて、前記撮影画像の視点及び前記特徴点を通る直線と、前記対応点を通る直線との距離に重み付けし、当該重み付けされた距離が最小となるように、前記対応点を通る直線を変換する作用素を算出する請求項6に記載の位置合わせ装置。   The calculating means determines the viewpoint and the feature of the photographed image according to at least one of a distance between the feature point and the viewpoint, a viewing angle of the feature point from the viewpoint, and an image quality of the feature point in the photographed image. The distance between a straight line passing through a point and a straight line passing through the corresponding point is weighted, and an operator for converting the straight line passing through the corresponding point is calculated so that the weighted distance is minimized. Alignment device. コンピュータを、
対象物を撮影した撮影画像から、当該対象物の孔の選択を受け付ける受付手段と、
前記受付手段が選択を受け付けた孔の特徴点を抽出する特徴点抽出手段と、
前記対象物の設計の内容を示す設計情報から前記特徴点に対応する対応点を選択する対応点選択手段と、
前記設計情報に前記対応点の座標を変換する作用素を適用し、前記撮影画像と当該設計情報とを位置合わせする位置合わせ手段として機能させるための位置合わせプログラム。
Computer
Accepting means for accepting selection of a hole of the object from a captured image obtained by photographing the object;
Feature point extracting means for extracting feature points of the holes accepted by the accepting means;
Corresponding point selection means for selecting corresponding points corresponding to the feature points from design information indicating the design contents of the object;
An alignment program for applying an operator that converts the coordinates of the corresponding points to the design information, and causing the photographed image and the design information to function as alignment means.
対象物を予め定めた視点から撮影した撮影画像及び前記対象物の見本となる設計情報を格納する記憶装置と、
前記対象物を撮影した撮影画像から、当該対象物の孔の選択を受け付ける受付手段と、前記受付手段が選択を受け付けた孔の特徴点を抽出する特徴点抽出手段と、前記設計情報から前記特徴点に対応する対応点を選択する対応点選択手段と、前記設計情報に前記対応点の座標を変換する作用素を適用し、前記撮影画像と当該設計情報とを位置合わせする位置合わせ手段とを有する位置合わせ装置と、から構成される位置合わせシステム。
A storage device for storing a photographed image obtained by photographing the object from a predetermined viewpoint and design information as a sample of the object;
An accepting unit that accepts selection of a hole of the object from a captured image obtained by photographing the object, a feature point extracting unit that extracts a feature point of the hole accepted by the accepting unit, and the feature from the design information Corresponding point selecting means for selecting a corresponding point corresponding to a point, and alignment means for applying an operator that converts coordinates of the corresponding point to the design information and aligning the photographed image with the design information An alignment system comprising an alignment device.
JP2010211195A 2010-09-21 2010-09-21 Alignment device, alignment system and alignment program Pending JP2012068062A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010211195A JP2012068062A (en) 2010-09-21 2010-09-21 Alignment device, alignment system and alignment program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010211195A JP2012068062A (en) 2010-09-21 2010-09-21 Alignment device, alignment system and alignment program

Publications (1)

Publication Number Publication Date
JP2012068062A true JP2012068062A (en) 2012-04-05

Family

ID=46165520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010211195A Pending JP2012068062A (en) 2010-09-21 2010-09-21 Alignment device, alignment system and alignment program

Country Status (1)

Country Link
JP (1) JP2012068062A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018522240A (en) * 2015-07-13 2018-08-09 レニショウ パブリック リミテッド カンパニーRenishaw Public Limited Company Method for measuring artifacts
KR20220015395A (en) 2019-05-30 2022-02-08 닛키 글로벌 가부시키가이샤 Positioning method for use in plants
CN114674222A (en) * 2022-02-17 2022-06-28 成都飞机工业(集团)有限责任公司 Method for aligning coordinate systems of composite material part and forming tool of airplane

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08136220A (en) * 1994-11-14 1996-05-31 Mazda Motor Corp Method and device for detecting position of article
JPH0981779A (en) * 1995-09-08 1997-03-28 Ainesu:Kk Method and device for generating partially solid model
JP2003510701A (en) * 1999-09-20 2003-03-18 松下電器産業株式会社 A method for measuring geometric characteristics of a pattern displayed on a curved surface
JP2008224323A (en) * 2007-03-09 2008-09-25 Mitsubishi Electric Corp Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08136220A (en) * 1994-11-14 1996-05-31 Mazda Motor Corp Method and device for detecting position of article
JPH0981779A (en) * 1995-09-08 1997-03-28 Ainesu:Kk Method and device for generating partially solid model
JP2003510701A (en) * 1999-09-20 2003-03-18 松下電器産業株式会社 A method for measuring geometric characteristics of a pattern displayed on a curved surface
JP2008224323A (en) * 2007-03-09 2008-09-25 Mitsubishi Electric Corp Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018522240A (en) * 2015-07-13 2018-08-09 レニショウ パブリック リミテッド カンパニーRenishaw Public Limited Company Method for measuring artifacts
KR20220015395A (en) 2019-05-30 2022-02-08 닛키 글로벌 가부시키가이샤 Positioning method for use in plants
US20220230349A1 (en) * 2019-05-30 2022-07-21 Jgc Corporation Alignment method for use in plant
US11810315B2 (en) 2019-05-30 2023-11-07 Jgc Corporation Alignment method for use in plant
CN114674222A (en) * 2022-02-17 2022-06-28 成都飞机工业(集团)有限责任公司 Method for aligning coordinate systems of composite material part and forming tool of airplane

Similar Documents

Publication Publication Date Title
JP6125100B2 (en) Robust tracking using point and line features
JP5538667B2 (en) Position / orientation measuring apparatus and control method thereof
WO2015180659A1 (en) Image processing method and image processing device
JP5725975B2 (en) Imaging apparatus and imaging method
JP2012160904A (en) Information processor, information processing method, program, and imaging apparatus
JPWO2018235163A1 (en) Calibration apparatus, calibration chart, chart pattern generation apparatus, and calibration method
JP5377537B2 (en) Object display device, object display method, and object display program
JP2016212784A (en) Image processing apparatus and image processing method
JP5809607B2 (en) Image processing apparatus, image processing method, and image processing program
JP2008217526A (en) Image processor, image processing program, and image processing method
CN107925740A (en) Image management system, image management method and program
JP2012068062A (en) Alignment device, alignment system and alignment program
WO2015072091A1 (en) Image processing device, image processing method, and program storage medium
JP5996233B2 (en) Imaging device
CN112969963B (en) Information processing apparatus, control method thereof, and storage medium
JP2020071854A (en) Image processing apparatus, image processing method, and program
WO2015141185A1 (en) Imaging control device, imaging control method, and storage medium
JP2023063807A (en) Image processing device, image processing method, program, and recording medium
WO2019053790A1 (en) Position coordinate calculation method and position coordinate calculation device
JP2018032991A (en) Image display unit, image display method and computer program for image display
JP5458877B2 (en) Imaging apparatus and imaging program
JP2011071746A (en) Video output device, and video output method
JP4135934B2 (en) Electronics
JP5636966B2 (en) Error detection apparatus and error detection program
JP6640876B2 (en) Work support device, work support method, work support program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140421

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140610