JP3227797B2 - Imaging process identification device - Google Patents

Imaging process identification device

Info

Publication number
JP3227797B2
JP3227797B2 JP16574592A JP16574592A JP3227797B2 JP 3227797 B2 JP3227797 B2 JP 3227797B2 JP 16574592 A JP16574592 A JP 16574592A JP 16574592 A JP16574592 A JP 16574592A JP 3227797 B2 JP3227797 B2 JP 3227797B2
Authority
JP
Japan
Prior art keywords
image
imaging
magnification
photographing
wireframe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP16574592A
Other languages
Japanese (ja)
Other versions
JPH063132A (en
Inventor
利幸 青木
鉱二 亀島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP16574592A priority Critical patent/JP3227797B2/en
Publication of JPH063132A publication Critical patent/JPH063132A/en
Application granted granted Critical
Publication of JP3227797B2 publication Critical patent/JP3227797B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明はプラントなどの大規模構
造物の建設・保守における計測装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a measuring device in construction and maintenance of a large-scale structure such as a plant.

【0002】[0002]

【従来の技術】プラント建設の合理化のために、特開平
2−209562 号公報に記載されているアズビルドデータベ
ースを用いた建設プロセスが提案された。このプロセス
においては、次の技術が用いられている。
2. Description of the Related Art In order to streamline plant construction, Japanese Patent Application Laid-Open
A construction process using an as-built database described in Japanese Patent Application Laid-Open No. 2-209562 has been proposed. In this process, the following techniques are used.

【0003】幾何モデルと単眼画像を動的に照合するこ
とにより、対象物の3次元位置を推定する技術として、
次の発明がある。パターン力学の概念に基づく2自由度
照合アルゴリズムが開発された。次いで、照合アルゴリ
ズムを3自由度に拡張された。
A technique for estimating the three-dimensional position of an object by dynamically comparing a geometric model with a monocular image is as follows.
There are the following inventions. A two-degree-of-freedom matching algorithm based on the concept of pattern mechanics has been developed. The matching algorithm was then extended to three degrees of freedom.

【0004】そこで、画像を用いた計測のためのカメラ
の校正法としては、村井等による非測定用カメラの評定
法と笹沢によるカメラのキャリブレーションがある。
Therefore, as a method of calibrating a camera for measurement using an image, there are a rating method of a non-measuring camera by Murai et al. And a camera calibration by Sasawa.

【0005】前者の評定法では、写真用カメラの位置・
姿勢,写真中心の主点のずれ、焦点距離,レンズの歪み
を表す多項式の二つの係数,フィルムの湾曲を表す多項
式の六つの係数の校正が行われた。その手法として、観
測方程式の線形化を行い、地上での基準点の位置,写真
上での基準点の位置をもとにして、最小二乗法による正
規方程式を求め、その解より近似値の補正を行う。この
作業の繰り返すことにより、未知パラメータを収束させ
た。
In the former rating method, the position of the photographic camera
Calibration was performed on the two coefficients of the polynomial representing the posture, the shift of the principal point at the center of the photograph, the focal length, and the distortion of the lens, and the six coefficients of the polynomial representing the curvature of the film. As a method, linearize the observation equation, find the normal equation by the least squares method based on the position of the reference point on the ground and the position of the reference point on the photograph, and correct the approximate value from the solution. I do. By repeating this operation, the unknown parameters were converged.

【0006】後者のキャリブレーションでは、CCDカ
メラを用いて、カメラの位置・姿勢,写真中心の主点の
ずれ,焦点距離,レンズの歪みを表す多項式の二つの係
数の校正が行われた。手法としては、地上での基準点の
位置,画面上での基準点の位置をもとにして、最小二乗
法を用いて正規方程式を求め、正規方程式を解くことに
より未知パラメータを求めた。
In the latter calibration, using a CCD camera, two coefficients of a polynomial representing the position and orientation of the camera, the shift of the principal point at the center of the photograph, the focal length, and the distortion of the lens are calibrated. As a method, based on the position of the reference point on the ground and the position of the reference point on the screen, a normal equation was obtained using the least squares method, and unknown parameters were obtained by solving the normal equation.

【0007】[0007]

【発明が解決しようとする課題】建設系作業では、作業
の進行と共に構造物形状が絶えず変化する。実際、プラ
ント等の構造物の建設に当たっては、事前に作り上げら
れた設計情報を工事の進行に合わせて具体化しながら、
製作・搬入・取付けが行われる。このようなダイナミッ
クな生産を一貫して支援するためには、刻々と変化する
構造物の状況を絶えず設計データとして管理しなければ
ならない。このようなダイナミックな設計情報は、アズ
ビルドデータベースと呼ばれている。
In construction work, the shape of a structure constantly changes as the work progresses. In fact, when constructing a structure such as a plant, the design information created in advance is materialized as the construction progresses,
Manufacture, delivery and installation are performed. In order to support such dynamic production consistently, it is necessary to constantly manage the situation of a constantly changing structure as design data. Such dynamic design information is called an as-build database.

【0008】さて、アズビルドデータベースの精度は、
一般に、次の2点で規定されることになる。即ち、
(1)物体の形状誤差、(2)物体の取付け誤差、であ
る。このうち、(1)については、工場管理が可能であ
る。したがって、本発明では(2)の問題のみを考察す
る。
Now, the accuracy of the as-built database is as follows:
Generally, it is defined by the following two points. That is,
(1) the shape error of the object, and (2) the mounting error of the object. Of these, (1) allows factory management. Therefore, in the present invention, only the problem (2) is considered.

【0009】さて、アズビルドデータベースを生成・維
持するためには、頻繁に構造物を計測しなければならな
い。ここで、設計データが、物体の位置の予測データと
して利用可能なことに着目すると、図3の様な対話型シ
ステムを構成することができる。
Now, in order to generate and maintain an as-built database, the structure must be frequently measured. Here, focusing on the fact that the design data can be used as prediction data of the position of the object, an interactive system as shown in FIG. 3 can be configured.

【0010】このシステムは次の手順で設計データベー
スをアズビルド化する。先ず、作業現場に設置したカメ
ラを用いて物体を撮影し、ワークステーションの画面上
に表示する。次に、設計データベースを検索し、計測対
象物体のデータ(クラス)から対象物体の位置・姿勢情
報(物体記述)を取り出し、コンピュータ・グラフィッ
クスの手法を用いて物体のワイヤフレーム像を生成す
る。このワイヤフレーム像は、物体像に重ねて表示す
る。操作者は、このワイヤフレーム像と物体像を画面上
で照合することにより、物体の位置を修正する。このよ
うに更新された位置データを用いて、現実に対応する物
体データ(インスタンス)を作り出す。この手法を物体
ごとに繰り返すことにより、時々刻々変化する構造物の
状況がダイナミックな設計情報として管理されることに
なる。
This system forms a design database as-built in the following procedure. First, an object is photographed using a camera installed at a work site, and displayed on a screen of a workstation. Next, the design database is searched, position / posture information (object description) of the target object is extracted from the data (class) of the measurement target object, and a wireframe image of the object is generated using a computer graphics technique. This wire frame image is displayed so as to overlap the object image. The operator corrects the position of the object by comparing the wire frame image and the object image on the screen. Using the updated position data, object data (instance) corresponding to reality is created. By repeating this method for each object, the situation of the structure, which changes every moment, is managed as dynamic design information.

【0011】図3に示す方法で物体モデルと物体画像を
照合した場合、カメラ位置を基準とした物体位置が決定
されることになる。この様なカメラ座標基準の位置・姿
勢に関しては、自動計測アルゴリズムが開発され、精度
確認もなされている。
When the object model and the object image are collated by the method shown in FIG. 3, the object position is determined based on the camera position. For such a position / posture based on the camera coordinates, an automatic measurement algorithm has been developed and its accuracy has been confirmed.

【0012】従来技術では、画像上での基準点の位置に
基づいて、カメラの校正が行われるため、この基準点の
画面上の計測精度は画面の分解能を超えることはない。
このため、画面の分解能以上の精度を出すには、基準点
を多く計測しなければならない。
In the prior art, since the camera is calibrated based on the position of the reference point on the image, the measurement accuracy of the reference point on the screen does not exceed the resolution of the screen.
Therefore, in order to obtain an accuracy higher than the resolution of the screen, many reference points must be measured.

【0013】本発明の目的は、統計効果により精度良く
計測できるパターン照合を用い、撮影手段の位置,倍
率,画面中心のずれを精度良く求める撮像プロセス同定
装置及び手順を提供することにある。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an imaging process identification apparatus and a procedure for accurately determining a position, a magnification, and a shift of the center of a screen of a photographing means by using pattern matching which can be accurately measured by a statistical effect.

【0014】[0014]

【課題を解決するための手段】上記目的を達成するた
め、本発明の撮像プロセス同定装置は物体を撮影し影像
を生成する撮影手段、前記撮影手段の姿勢を計測する計
測手段、物体の形状・位置の情報を有している物体情報
記憶手段、影像情報を有する影像記憶手段、物体のワイ
ヤフレーム像を生成するワイヤフレーム像生成手段、前
記影像記憶手段より得られる影像に写った物体像と前記
ワイヤフレーム生成手段より得られるワイヤフレーム像
を照合することにより、前記撮影手段の位置を計測する
照合手段、前記影像と前記ワイヤフレーム像を表示する
照合表示手段、前記撮影手段の位置・姿勢、前記照合表
示手段の画面中心と前記撮像手段の光軸とのずれ、前記
撮像手段の倍率の情報を有している撮像プロセス情報記
憶装置、前記照合手段から得られる前記撮影手段の位置
及び前記撮像プロセス情報記憶装置より得られる前記照
合表示手段の画面中心と前記撮像手段の光軸とのずれ、
前記撮像手段の倍率より、前記撮影手段の位置,倍率及
び前記照合表示手段の画面中心と前記撮像手段の光軸と
のずれの補正量を計算するパラメータ計算手段からな
る。
In order to achieve the above object, an imaging process identification apparatus according to the present invention comprises: an imaging means for imaging an object to generate a shadow image; a measuring means for measuring a posture of the imaging means; Object information storage means having position information, image storage means having image information, wireframe image generation means for generating a wireframe image of an object, an object image shown in an image obtained from the image storage means, A collating unit that measures the position of the photographing unit by collating the wireframe image obtained from the wireframe generating unit, a collation display unit that displays the shadow image and the wireframe image, a position / posture of the photographing unit, An imaging process information storage device having information on a shift between a center of a screen of a collation display unit and an optical axis of the imaging unit, and magnification of the imaging unit; Deviation of the optical axis center of the screen and the image pickup means of the comparison display means obtained from the position and the imaging process information storage unit of the imaging unit resulting from,
Parameter calculating means for calculating the amount of correction of the position of the photographing means, the magnification, and the deviation between the center of the screen of the collation display means and the optical axis of the image taking means, from the magnification of the image taking means.

【0015】[0015]

【作用】照合手段を設け、ワイヤフレーム像と物体像を
重ね合わせることにより、各倍率に対する撮影手段の位
置を精度良く計測することができる。この各倍率に対す
る撮影手段の位置データに基づき、撮影手段の位置,倍
率,画面中心のずれを求める。
The position of the photographing means with respect to each magnification can be accurately measured by providing the collating means and superposing the wire frame image and the object image. Based on the position data of the photographing means for each magnification, the displacement of the position of the photographing means, the magnification, and the center of the screen are obtained.

【0016】[0016]

【実施例】先ず、撮像プロセスの数理モデルの導出を行
う。
First, a mathematical model of an imaging process is derived.

【0017】カメラの位置・姿勢は計測毎に変化するた
め、カメラと測量機を組み合わせた装置を用いた。
Since the position and orientation of the camera change every measurement, an apparatus combining a camera and a surveying instrument was used.

【0018】撮像装置は次の過程を経て影像を作り出
す。先ず受光段階で像は幾何学的な変換を受ける。この
変換はレンズ及び受光素子の位置と大きさによって定ま
る。次に、像は電気的信号に変換され、ディスプレイに
表示される。この段階で、像には電気的変形が発生す
る。本発明では、以上の像発生過程を次のようにモデル
化する。
The imaging device produces an image through the following steps. First, in the light receiving stage, the image undergoes a geometric transformation. This conversion is determined by the position and size of the lens and the light receiving element. Next, the image is converted into an electrical signal and displayed on a display. At this stage, an electrical deformation occurs in the image. In the present invention, the above-described image generation process is modeled as follows.

【0019】本装置では、構造上測量機中心とカメラ中
心とが異なる。この偏差(カメラオフセット)を用いる
と、計測座標からカメラ座標への変換は次式で表され
る。
In the present apparatus, the center of the surveying instrument and the center of the camera are structurally different. Using this deviation (camera offset), the conversion from the measurement coordinates to the camera coordinates is represented by the following equation.

【0020】[0020]

【数1】 (Equation 1)

【0021】但し、α,β,γ,emx,emy,emzはカ
メラオフセットである。本装置では、角度オフセット
(α,β)は0に設計してある。レンズが歪みを持たな
いとすると受光素子上の像は次式にしたがって作られる
ことになる。
[0021] However, α, β, γ, e mx, e my, e mz is a camera offset. In the present apparatus, the angle offset (α, β) is designed to be zero. Assuming that the lens has no distortion, an image on the light receiving element is formed according to the following equation.

【0022】[0022]

【数2】 (Equation 2)

【0023】ここで、crx、及び、cryは、x、y方向
のレンズ倍率である。ここで、レンズに対する受光素子
のずれを考慮すると、受光素子の出力する像は次式で表
現できる。
Here, crx and cry are lens magnifications in the x and y directions. Here, considering the shift of the light receiving element with respect to the lens, the image output from the light receiving element can be expressed by the following equation.

【0024】[0024]

【数3】 (Equation 3)

【0025】ここに、esx、esyは受光素子のずれを表
すものである。受光素子の出力像は、光電変換及び電気
的変換を経てワークステーションのメモリに格納され
る。このような変換において、画像の中心の変位および
倍率の変化が生じる。このような画像の歪みは次式で表
現することができる。
Here, e sx and e sy represent the shift of the light receiving element. The output image of the light receiving element is stored in the memory of the workstation through photoelectric conversion and electrical conversion. In such a conversion, a displacement of the center of the image and a change in the magnification occur. Such image distortion can be expressed by the following equation.

【0026】[0026]

【数4】 (Equation 4)

【0027】ここで、eix、eiyは受光素子中心と画像
中心とのずれを、cix、ciyは受光素子と画像との倍率
を表している。本装置の像はワークステーションのメモ
リ上に記憶され、同じメモリ上に生成されるワイヤフレ
ーム像と照合される。したがって、ブラウン管の歪み
は、原理的に考慮する必要がない。以上をまとめると、
次式が得られる。
Here, e ix and e iy represent the shift between the center of the light receiving element and the image center, and c ix and c iy represent the magnification between the light receiving element and the image. The image of the device is stored on the memory of the workstation and compared with a wireframe image generated on the same memory. Therefore, the distortion of the cathode ray tube does not need to be considered in principle. To summarize the above,
The following equation is obtained.

【0028】[0028]

【数5】 (Equation 5)

【0029】[0029]

【数6】 (Equation 6)

【0030】ここに、 x,y,z :測量機に固定された座標系に関する
物体位置 xm,ym,zm :カメラ座標系に関する物体位置 xi,yi :画面座標系に関する物体像の位置 である。また、 emx,emy,emz:測量機座標系に関するカメラの位置 α,β,γ :測量機座標系に関するカメラの姿勢 cx,cy :レンズ,光電変換,電気的変換を合
わせた倍率 ex,ey :画面座標系に関する光軸の変位 であり、いずれも撮像装置の組立・設置状態に依存して
変化するパラメータである。建設・保守作業環境では、
撮像装置の厳格な管理は実際的ではないことを考慮し
て、本発明では、これらemx,emy,emz,α,β,
γ,cx,cy,ex,eyを未知パラメータとして扱う。
[0030] Here, x, y, z: object position relative coordinate system fixed to the surveying instrument x m, y m, z m : object position to a camera coordinate system x i, y i: object picture of the screen coordinate system The position of. Moreover, e mx, e my, e mz: position of the camera about the surveying instrument coordinate system alpha, beta, gamma: the attitude c x of the camera about the surveying instrument coordinate system, c y: the combined lens, a photoelectric conversion, an electrical conversion magnification e x, e y: the displacement of the optical axis relating to the screen coordinate system, all of which are parameters that vary depending on the assembly and installation state of the imaging apparatus. In the construction and maintenance work environment,
Strict control of the image pickup device in consideration that it is not practical, the present invention, these e mx, e my, e mz , α, β,
gamma, handles c x, c y, e x , and e y as unknown parameters.

【0031】さて、数5の未知パラメータ中のemx,e
my,emzは計測システムの保守条件に依存するため、精
度管理が容易でない。また、数6のcx,cyは、映像の
電気的変位に依存するため、カメラとワークステーショ
ンの組み合わせにより、ばらつきが生じると予想され
る。但し、数5のα,β,γおよび数6のex,eyは、
カメラ単体の組立精度のみにより決定されるため、比較
的に誤差が小さいと考えられる。そこで、本発明では、
α,βをex,eyに含めて同定することにする。この
α,βをex,eyに含めたことによる誤差については、
通常の計測条件では、カメラ光軸と測量器光軸とのずれ
角は十分小さいと期待できる。このことに着目して、数
5および数6のex を次式で定義されるetxで置き換え
る。また、γについてはワイヤフレームを物体像とを重
ね合わせることにより求める。
Now, e mx , e in the unknown parameters of equation (5)
Since my and emz depend on the maintenance conditions of the measurement system, accuracy control is not easy. In addition, since c x and cy in Equation 6 depend on the electrical displacement of the image, it is expected that variations will occur depending on the combination of the camera and the workstation. However, the number 5 alpha, beta, gamma and 6 of e x, e y is
Since it is determined only by the assembling accuracy of the camera alone, the error is considered to be relatively small. Therefore, in the present invention,
alpha, a beta e x, to be identified, including the e y. The alpha, a beta e x, the error due to the inclusion in the e y is
Under normal measurement conditions, the deviation angle between the camera optical axis and the surveying instrument optical axis can be expected to be sufficiently small. Focusing on this fact, replacing the number 5 and 6 of the e x in e tx defined by the following equation. Further, γ is obtained by superposing a wire frame on an object image.

【0032】このように未知パラメータを整理した場合
には、撮像プロセスのモデルは次のように単純化され
る。
When the unknown parameters are arranged as described above, the model of the imaging process is simplified as follows.

【0033】[0033]

【数7】 (Equation 7)

【0034】[0034]

【数8】 (Equation 8)

【0035】この時、未知パラメータはθ=(emx,e
my,emz,cx,cy,ex,ey)となる。
At this time, the unknown parameter is θ = (e mx , e
my, e mz, c x, c y, e x, the e y).

【0036】[0036]

【数9】 (Equation 9)

【0037】但し、αはずれ角である。この時、画面中
心と画面端の間には、高々次式で表される測定誤差er
αが現われる。
Here, α is a deviation angle. At this time, there is a measurement error er expressed by
α appears.

【0038】[0038]

【数10】 (Equation 10)

【0039】ここで、θsはカメラの視野角を、zmはカ
メラと対象物体との距離である。今、θs =20度,z
m =5000mmとし、θ=0.1 度としたとき、測定誤
差は0.27mm となる。したがって、この置き換えによ
る誤差は、通常の建設系作業では許容範囲にあると考え
られる。
Here, θ s is the viewing angle of the camera, and z m is the distance between the camera and the target object. Now, θ s = 20 degrees, z
When m = 5000 mm and θ = 0.1 degrees, the measurement error is 0.27 mm. Therefore, the error due to the replacement is considered to be within an allowable range in normal construction work.

【0040】数7および数8を用いると撮像プロセスを
シミュレートすることができる。言い換えれば、数7お
よび数8を用いて生成される対象物のワイヤフレームと
物体像を重ね合わせることにより、対象物と撮像装置の
相対的な位置・姿勢が検出できることになる。本発明で
は、このことを利用して、数7および数8の未知パラメ
ータを同定する。
The equations (7) and (8) can be used to simulate the imaging process. In other words, by superimposing the object image and the wire frame of the object generated using Equations 7 and 8, the relative position and orientation of the object and the imaging device can be detected. In the present invention, using this, the unknown parameters of Equations 7 and 8 are identified.

【0041】さて、対象物のワイヤフレームと物体像を
重ね合わせる時、次の二つの原理が成立する。
When the wire frame of the object and the object image are superimposed, the following two principles are established.

【0042】(1)位置・姿勢の既知の物体像と、同一
条件で生成したワイヤフレーム像は一致する。
(1) An object image whose position and orientation are known matches a wireframe image generated under the same conditions.

【0043】(2)カメラ位置・姿勢の変化により、ワ
イヤフレーム像と物体像のずれには特有のパターンが生
じる(図4参照)。
(2) Due to a change in the camera position / posture, a unique pattern is generated in the shift between the wire frame image and the object image (see FIG. 4).

【0044】図4の説明を行う。物体に対して、カメラ
の位置・姿勢が変化したとき、移動形態に対応して特有
の画像の歪みが生じる。この歪みはオプティカルフロー
と呼ばれる。オプティカルフローが入手できる場合に
は、カメラの移動量fを逆算できる。但し、zはオプテ
ィカルフローであり、um,urは画像及び物体モデルの
拡散像を表す。また、γはゲインマトリクスである。
Referring to FIG. When the position / posture of the camera changes with respect to the object, a specific image distortion occurs according to the movement mode. This distortion is called an optical flow. If the optical flow is available, the movement amount f of the camera can be calculated backward. However, z is the optical flow, u m, u r represents the diffusion image of the image and the object model. Γ is a gain matrix.

【0045】この原理に基づいて、撮像プロセスモデル
数7および数8を同定する方法を考察する。問題は、
x、y、zとxi、yiを与えて(すなわち形状・位置・
姿勢が既知の物体像を用いて)、パラメータθ=
(emx,emy,emz,cx,cy,ex,ey )を求めるこ
とにある。
Based on this principle, a method for identifying the imaging process models 7 and 8 will be considered. The problem is,
Given x, y, z and x i , y i (that is, shape, position,
Using an object image whose posture is known), the parameter θ =
(e mx , e my , e mz , c x , c y , e x , e y ).

【0046】さて、数7および数8は、xi,yiが未知
パラメータに非線形に依存することを示している。この
ような状況では、パラメータ推定が困難となる。実際パ
ラメータemxとex,emyとeyの変化に対してワイヤフ
レーム像は同傾向のずれを生じるため、照合時の切り分
けができない。そこで、本発明では、繰り返し計算によ
り、各未知パラメータを分解しながら推定することを試
みた。
Equations 7 and 8 show that x i and y i depend nonlinearly on unknown parameters. In such a situation, parameter estimation becomes difficult. Indeed parameters e mx and e x, because wireframe image to changes in e my and e y is to slip the same trend can not isolate the time of verification. Therefore, in the present invention, an attempt was made to perform estimation while decomposing each unknown parameter by iterative calculation.

【0047】本発明で導入した繰り返し計算の原理を図
6に示す。
FIG. 6 shows the principle of the iterative calculation introduced in the present invention.

【0048】図5には、簡単のためにx−zの関係のみ
が表示されている。繰り返し計算は以下のような手順で
実行する。先ず、ex に初期値0を与え、物体1・2を
計測する。但し、物体1は近傍に、物体2は遠方に配置
するものとする。この時、各物体像は次式で表される位
置に現われるはずである。
FIG. 5 shows only the relationship of xz for simplicity. The repetitive calculation is performed in the following procedure. First, it is given an initial value 0 in e x, to measure the object 1 & 2. However, the object 1 is located near and the object 2 is located far away. At this time, each object image should appear at a position represented by the following equation.

【0049】[0049]

【数11】 [Equation 11]

【0050】[0050]

【数12】 (Equation 12)

【0051】ところで、cxとemx,cxとemzの間には
次の関係が成立する。
The following relationship is established between c x and e mx and between c x and e mz .

【0052】[0052]

【数13】 (Equation 13)

【0053】[0053]

【数14】 [Equation 14]

【0054】ただし、However,

【0055】[0055]

【数15】 (Equation 15)

【0056】[0056]

【数16】 (Equation 16)

【0057】[0057]

【数17】 [Equation 17]

【0058】[0058]

【数18】 (Equation 18)

【0059】である。今、上記のように遠近二つの物体
に関して倍率cx を変化させながら照合操作を行うと、
数13および数14は2本のグラフを作り出すことにな
る。さて、これらの二本のグラフの交点に対応する倍率
xは、初めに設定したexが真値の場合には一致するは
ずである。換言すれば、cxの不一致はexの不一致を表
している。この点に着目して、cxが一致しない場合に
は、exを次式にしたがって補正する。
Is as follows. Now, as described above, when the collation operation is performed while changing the magnification c x with respect to the two objects in the distance,
Equations 13 and 14 produce two graphs. Now, the magnification c x corresponding to the intersection of these two graphs should match if the initially set ex is a true value. In other words, mismatches c x represents a mismatch e x. Focusing on this point, when the c x do not match, correct the e x according to the following equation.

【0060】[0060]

【数19】 [Equation 19]

【0061】但し、zm1,zm2はカメラ中心から各モデ
ルまでの距離を、nはex を求める作業の繰返し回数を
表している。この補正されたex を用いて、数11以下
を繰り返す。この繰り返しが収束する場合には、全ての
パラメータが推定されたことになる。
[0061] However, z m1, z m2 is the distance from the camera center to the model, n represents represents a number of repetitions of operations for obtaining the e x. Using the corrected ex, the equation 11 and below are repeated. If this repetition converges, all parameters have been estimated.

【0062】本発明の一実施例を図1により説明する。
本発明例は、撮影手段1と、計測手段2と、計測手段2
と接続された撮像プロセス情報記憶装置6と、撮像プロ
セス情報記憶装置6と接続されたワイヤフレーム像生成
手段3と、撮影手段1とワイヤフレーム像生成手段3と
接続された照合手段4と、照合手段4とワイヤフレーム
像生成手段3と接続されたパラメータ計算手段5と、ワ
イヤフレーム像生成手段3と接続された物体情報記憶手
段7と、撮影手段1と照合手段4と接続された影像情報
記憶装置8を備えている装置を用いる。
One embodiment of the present invention will be described with reference to FIG.
The example of the present invention includes a photographing unit 1, a measuring unit 2, and a measuring unit 2.
An imaging process information storage device 6 connected to the imaging process information storage device 6, a wire frame image generation unit 3 connected to the imaging process information storage device 6, a collation unit 4 connected to the imaging unit 1 and the wire frame image generation unit 3, A parameter calculation means 5 connected to the means 4 and the wireframe image generation means 3; an object information storage means 7 connected to the wireframe image generation means 3; and an image information storage connected to the imaging means 1 and the collation means 4. A device provided with the device 8 is used.

【0063】撮影手段1では、対象物体を撮影する。計
測手段2は、撮影手段1を組み合わされ、撮影手段1の
姿勢を計測する。撮像プロセス情報記憶装置6は、撮影
手段の位置・姿勢,画面中心の主点のずれ,焦点距離の
情報を有している。ワイヤフレーム像生成手段3では、
撮像プロセス上方と物体情報より、ワイヤフレーム像を
生成する。照合手段4では、映像とワイヤフレーム像を
照合することにより、撮影手段の位置を計測する。パラ
メータ計算手段5では、撮影手段の位置とその時の焦点
距離より、撮影手段の位置,焦点距離と画面中心の補正
量を計算する。物体情報記憶手段7では、物体の形状・
位置の情報を有している。影像情報記憶手段8では、影
像の情報を有している。
The photographing means 1 photographs a target object. The measuring means 2 is combined with the photographing means 1 and measures the attitude of the photographing means 1. The imaging process information storage device 6 has information on the position and orientation of the imaging means, the shift of the principal point at the center of the screen, and the focal length. In the wireframe image generating means 3,
A wire frame image is generated from the upper part of the imaging process and the object information. The collating means 4 measures the position of the photographing means by collating the video with the wire frame image. The parameter calculating means 5 calculates the position of the photographing means, the focal length and the correction amount of the center of the screen from the position of the photographing means and the focal length at that time. In the object information storage means 7, the shape of the object
It has location information. The image information storage means 8 has image information.

【0064】図1の撮像プロセス同定装置を用いて、図
2に示す手順で撮像プロセスの同定を行う。
Using the imaging process identification apparatus shown in FIG. 1, the identification of the imaging process is performed in accordance with the procedure shown in FIG.

【0065】撮影手段との距離の異なる既知物体1・2
を撮影する(ステップ1)。次に撮影手段の姿勢を、計
測手段により計測する(ステップ2)。そして、照合手
段および照合表示手段において、ワイヤフレームを物体
像とを重ね合わせることにより、γを求める(ステップ
3)。また、照合手段および照合表示手段において、画
面中心のずれexを固定して、倍率cxを変化させながら
物体1を計測する。具体的には、各倍率cx に対して、
撮影手段の位置の横方向の値emx、撮影手段の位置の奥
行き方向の値emzを計測する。この作業は、数11にお
いて、画面中心のずれex,倍率cxより、撮影手段の位
置の横方向の値emx、撮影手段の位置の奥行き方向の値
mzを求めることに対応する(ステップ4)。ステップ
5では、物体2についてステップ4の作業を行う。この
作業により、数12において、画面中心のずれex,倍
率cxより、撮影手段の位置の横方向の値emx,撮影手
段の位置の奥行き方向の値emzが求められたことにな
る。
Known objects 1 and 2 at different distances from the photographing means
Is photographed (step 1). Next, the attitude of the photographing means is measured by the measuring means (step 2). Then, the matching unit and the matching display unit obtain γ by overlapping the wire frame with the object image (step 3). Further, in the matching means and the matching display means, the object 1 is measured while the displacement e x of the center of the screen is fixed and the magnification c x is changed. Specifically, for each magnification c x ,
Transverse values e mx position of the imaging means, for measuring the depth direction values e mz position of the imaging means. This operation corresponds to obtaining the lateral value e mx of the position of the photographing unit and the value emz of the position of the photographing unit in the depth direction from the displacement e x of the center of the screen and the magnification c x in Expression (11). Step 4). In step 5, the operation of step 4 is performed on the object 2. As a result of this operation, in Expression 12, the lateral value e mx of the position of the image capturing means and the value emz in the depth direction of the position of the image capturing means are obtained from the displacement e x of the screen center and the magnification c x. .

【0066】ステップ6で、パラメータ計算手段におい
て、物体1・2に対して最小2乗法を用いて、倍率cx
と撮影手段の位置の奥行き方向の値emzの間の正規方程
式をそれぞれ求め、これらの正規方程式の解を求める。
この解を倍率cx の推定値とする。この作業は、物体1
・2に対して数14のa1,b1を求め、これらの式の解
を求めることに対応している。
In step 6, the parameter calculation means uses the least squares method for the objects 1 and 2 to calculate the magnification c x
And normal values between the values e mz in the depth direction of the position of the photographing means, and solutions of these normal equations are obtained.
This solution is used as an estimated value of the magnification c x . This operation is performed for object 1
(2) This corresponds to finding a 1 and b 1 of Equation 14 for 2 and finding solutions to these equations.

【0067】ステップ7;パラメータ計算手段におい
て、物体1・2に対して最小2乗法を用いて、倍率cx
と撮影手段の位置の奥行き方向の値emzの間の正規方程
式をそれぞれ求め、物体1・2に関して倍率の推定値c
x に対する撮影手段の位置の横方向の値emx1,emx2
求める。この作業は、物体1・2に対して数13の
2,b2を求め、これらの式における倍率の推定値cx
に対する撮影手段の位置の横方向の値を求めることに対
応している。
Step 7: The parameter calculation means uses the least squares method for the objects 1 and 2 to calculate the magnification c x
And a normal equation between the depth value e mz of the position of the photographing means and the estimated value c of the magnification for the objects 1 and 2
The horizontal values e mx1 and e mx2 of the position of the photographing means with respect to x are obtained. In this work, a 2 and b 2 of Expression 13 are obtained for the objects 1 and 2, and the estimated value c x of the magnification in these equations is obtained.
This corresponds to obtaining a value in the horizontal direction of the position of the photographing means with respect to.

【0068】ステップ8;倍率の推定値cxに対する撮
影手段の位置の横方向の値emx1 ,emx2の差が0.5mm
以内である場合、計算を終了する。そうでない場合には
数19を用いて、画面中心のずれex の補正を行い、ス
テップ4へ戻る。
Step 8: The difference between the lateral direction values e mx1 and e mx2 of the position of the photographing means with respect to the estimated magnification value c x is 0.5 mm.
If not, the calculation ends. Otherwise in the case with number 19, corrects the deviation e x of the screen center, the process returns to step 4.

【0069】y−zの計測にかかわるパラメータに関し
てもステップ4からステップ8の手順で、撮像プロセス
てを同定する。
Regarding the parameters related to the measurement of yz, the imaging process is identified by the procedure from step 4 to step 8.

【0070】[0070]

【発明の効果】本発明によれば、パターン照合により、
撮影手段の位置,倍率,画面中心のずれに関して精度向
上が図られる。また、パラメータ推定に必要な測定点の
個数が少なく、撮影時の作業が減少する。
According to the present invention, by pattern matching,
The accuracy of the position of the photographing means, the magnification, and the displacement of the center of the screen can be improved. Further, the number of measurement points required for parameter estimation is small, and the work at the time of photographing is reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例を示す撮像プロセス同定装置
を示す説明図。
FIG. 1 is an explanatory diagram showing an imaging process identification device according to an embodiment of the present invention.

【図2】本発明の一実施例を示す撮像プロセス同定手順
を示す説明図。
FIG. 2 is an explanatory diagram showing an imaging process identification procedure according to an embodiment of the present invention.

【図3】アズビルドデータベース生成システムを示す説
明図。
FIG. 3 is an explanatory diagram showing an as-build database generation system.

【図4】オプティカルフローの構造を示す説明図。FIG. 4 is an explanatory diagram showing a structure of an optical flow.

【図5】同定プロセスを示す説明図。FIG. 5 is an explanatory diagram showing an identification process.

【符号の説明】[Explanation of symbols]

1…撮影手段、2…計測手段、3…ワイヤフレーム生成
手段、4…照合手段、4A…照合表示手段、5…パラメ
ータ計算手段、6…撮像プロセス情報記憶装置、7…物
体記憶装置、8…影像記憶装置。
DESCRIPTION OF SYMBOLS 1 ... Photographing means, 2 ... Measurement means, 3 ... Wire frame generation means, 4 ... Collation means, 4A ... Collation display means, 5 ... Parameter calculation means, 6 ... Imaging process information storage device, 7 ... Object storage device, 8 ... Image storage.

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 - 11/30 E04G 21/00 ──────────────────────────────────────────────────続 き Continued on the front page (58) Fields surveyed (Int. Cl. 7 , DB name) G01B 11/00-11/30 E04G 21/00

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】物体を撮影し影像を生成する撮影手段、前
記撮影手段の姿勢を計測する計測手段、前記物体の形状
・位置の情報を有している物体情報記憶手段、影像情報
を有する影像記憶手段、前記物体のワイヤフレーム像を
生成するワイヤフレーム像生成手段、前記影像記憶手段
より得られる影像に写った物体像と前記ワイヤフレーム
生成手段より得られる前記ワイヤフレーム像を照合する
ことにより、前記撮影手段の位置を計測する照合手段、
前記影像と前記ワイヤフレーム像を表示する照合表示手
段、前記撮影手段の位置・姿勢、前記照合表示手段の画
面中心と前記撮像手段の光軸とのずれ、前記撮像手段の
倍率の情報を有している撮像プロセス情報記憶装置、前
記照合手段から得られる前記撮影手段の位置及び前記撮
像プロセス情報記憶装置より得られる前記照合表示手段
の画面中心と前記撮像手段の光軸とのずれ、前記撮像手
段の倍率より、前記撮影手段の位置,倍率及び前記照合
表示手段の画面中心と前記撮像手段の光軸とのずれの補
正量を計算するパラメータ計算手段からなることを特徴
とする撮像プロセス同定装置。
A photographing means for photographing an object to generate an image, a measuring means for measuring a posture of the photographing means, an object information storing means having information on the shape and position of the object, and an image having image information Storage means, a wireframe image generation means for generating a wireframe image of the object, by comparing the object image in the image obtained from the image storage means and the wireframe image obtained from the wireframe generation means, Collating means for measuring the position of the photographing means,
The collation display means for displaying the shadow image and the wireframe image, the position and orientation of the photographing means, a shift between the center of the screen of the collation display means and the optical axis of the imaging means, and information on the magnification of the imaging means. An imaging process information storage device, a position of the imaging device obtained from the collation device, a shift between a screen center of the collation display device obtained from the imaging process information storage device and an optical axis of the imaging device, the imaging device An imaging process identification apparatus, comprising: a parameter calculating unit that calculates a correction amount of a shift between an optical axis of the imaging unit and a position of the imaging unit, a magnification, and a center of a screen of the collation display unit from the magnification of the imaging unit.
JP16574592A 1992-06-24 1992-06-24 Imaging process identification device Expired - Fee Related JP3227797B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16574592A JP3227797B2 (en) 1992-06-24 1992-06-24 Imaging process identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16574592A JP3227797B2 (en) 1992-06-24 1992-06-24 Imaging process identification device

Publications (2)

Publication Number Publication Date
JPH063132A JPH063132A (en) 1994-01-11
JP3227797B2 true JP3227797B2 (en) 2001-11-12

Family

ID=15818275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16574592A Expired - Fee Related JP3227797B2 (en) 1992-06-24 1992-06-24 Imaging process identification device

Country Status (1)

Country Link
JP (1) JP3227797B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3350745B2 (en) * 1994-08-17 2002-11-25 株式会社日立製作所 Image measurement device

Also Published As

Publication number Publication date
JPH063132A (en) 1994-01-11

Similar Documents

Publication Publication Date Title
EP1378790B1 (en) Method and device for correcting lens aberrations in a stereo camera system with zoom
US6438507B1 (en) Data processing method and processing device
EP1596330B1 (en) Estimating position and orientation of markers in digital images
US6754378B2 (en) Image forming apparatus, image forming method and computer-readable storage medium having an image forming program
US6816187B1 (en) Camera calibration apparatus and method, image processing apparatus and method, program providing medium, and camera
JP3347508B2 (en) Captured image processing device and captured image processing method
JP2005308553A (en) Three-dimensional image measuring device and method
CN111486864B (en) Multi-source sensor combined calibration method based on three-dimensional regular octagon structure
KR101346192B1 (en) Aviation surveying system for correction realtime of aviation image
JPH06131420A (en) Method and device for supporting construction
KR100520275B1 (en) Method for correcting geometry of pushbroom image using solidbody rotation model
JP4006657B2 (en) Image processing apparatus and image processing method
KR101346206B1 (en) Aviation surveying system for processing the aviation image in gps
JP4102386B2 (en) 3D information restoration device
JP4112077B2 (en) Image measurement processing method and apparatus, and recording medium recording image measurement processing program
JP4149732B2 (en) Stereo matching method, three-dimensional measurement method, three-dimensional measurement apparatus, stereo matching method program, and three-dimensional measurement program
KR102265081B1 (en) System for determining position and attitude of camera using the inner product of vectors and three-dimensional coordinate transformation
JPH02209562A (en) Construction device
JP3227797B2 (en) Imaging process identification device
CN110232715B (en) Method, device and system for self calibration of multi-depth camera
CN115880369A (en) Device, system and method for jointly calibrating line structured light 3D camera and line array camera
JP2005174151A (en) Three-dimensional image display device and method
JP4282361B2 (en) Photogrammetry method and photogrammetry program
CN112927299B (en) Calibration method and device and electronic equipment
US10054421B2 (en) Apparatus for measuring three-dimensional position of target object

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees