JP3315240B2 - Imaging system parameter measurement method and device - Google Patents

Imaging system parameter measurement method and device

Info

Publication number
JP3315240B2
JP3315240B2 JP06065894A JP6065894A JP3315240B2 JP 3315240 B2 JP3315240 B2 JP 3315240B2 JP 06065894 A JP06065894 A JP 06065894A JP 6065894 A JP6065894 A JP 6065894A JP 3315240 B2 JP3315240 B2 JP 3315240B2
Authority
JP
Japan
Prior art keywords
imaging system
image
image display
visual sensor
graphic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP06065894A
Other languages
Japanese (ja)
Other versions
JPH07270124A (en
Inventor
晃市 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP06065894A priority Critical patent/JP3315240B2/en
Publication of JPH07270124A publication Critical patent/JPH07270124A/en
Application granted granted Critical
Publication of JP3315240B2 publication Critical patent/JP3315240B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、視覚センサを入力手段
として得られる情報から、実環境中において計測及び作
業を行う上で必要となる当該視覚センサの位置姿勢情
報、画像中心等の撮像系パラメータ等を算出する方法と
装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an imaging system for obtaining position and orientation information of a visual sensor and image center necessary for performing measurement and work in a real environment from information obtained using a visual sensor as input means. The present invention relates to a method and an apparatus for calculating parameters and the like.

【0002】[0002]

【従来の技術】通常、撮像系パラメータを算出するため
に用いられる手法は、テストパタンとして空間中の既知
の位置に配置した複数の点あるいは線分を検出し、射影
幾何学の問題として計算するものである。
2. Description of the Related Art Usually, a technique used to calculate an imaging system parameter is to detect a plurality of points or line segments arranged at known positions in space as a test pattern, and calculate it as a projective geometry problem. Things.

【0003】この場合、歪みがなく理想的な撮像系であ
れば純粋な幾何学問題として扱えるのであるが、現実に
はレンズの歪曲収差や撮像素子の歪み等が影響し誤差を
もたらす事になる。歪みによる誤差を解決するために用
いられてきた手法は、撮像系モデルに歪モデルを加え、
算出された撮像系モデルと実際の入力画像との誤差を最
小にするように各パラメータを反復計算する方法であっ
た。
In this case, an ideal image pickup system without distortion can be treated as a pure geometrical problem. However, in reality, an error is caused by the lens distortion and the image sensor distortion. . A technique that has been used to resolve errors due to distortion is to add a distortion model to the imaging system model,
In this method, each parameter is repeatedly calculated so as to minimize the error between the calculated imaging system model and the actual input image.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、この方
法では試験対象であるテストパタンの配置や撮像モデル
に対する初期値の与え方が解の収束に影響する。ここ
で、適切な初期値は完全に未知であるため安定な結果を
得ることは難かしい。通常は、初期値として理想的な歪
みの無いモデルを設定するが、広角レンズや、魚眼レン
ズといった歪みの強い光学系では、解の収束が期待でき
ず適用は困難である。また、歪が大きいほど反復計算に
時間を要する。
In this method, however, the convergence of the solution is affected by the arrangement of the test pattern to be tested and the way of giving initial values to the imaging model. Here, it is difficult to obtain a stable result because an appropriate initial value is completely unknown. Normally, an ideal model without distortion is set as an initial value. However, in an optical system having strong distortion such as a wide-angle lens or a fish-eye lens, convergence of a solution cannot be expected and application is difficult. Also, the larger the distortion, the longer it takes to perform the iterative calculation.

【0005】さらに、点や線分の検出は適切な二値化処
理を必要とし、入力画像にノイズを伴う場合は十分な精
度が得られない問題がある。また、これらの検出には量
子化誤差が含まれるため、これも計算結果に影響を及ぼ
す問題がある。
Further, detection of points and line segments requires an appropriate binarization process, and there is a problem that sufficient accuracy cannot be obtained when an input image is accompanied by noise. In addition, since these detections include a quantization error, there is a problem that this also affects the calculation result.

【0006】試験対象であるテストパタンの設置にも厳
密な精度が必要とされ、この精度も直接、結果に影響す
る。よって高精度を得ようとすれば測定の簡易性は乏し
いものとなる。
[0006] Strict precision is also required for setting the test pattern to be tested, and this precision directly affects the results. Therefore, the simplicity of the measurement is poor if high accuracy is to be obtained.

【0007】本発明の目的は、上記従来の手法において
問題とされていた試験対象設置の容易性、処理の高速
性、計測誤差等の処理結果への伝搬等の問題点を解決し
た撮像系パラメータ測定法とその装置を提供することに
ある。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an imaging system parameter which solves problems such as easiness of installation of a test object, high-speed processing, and propagation of a measurement error or the like to a processing result, which are problems in the conventional method. An object of the present invention is to provide a measuring method and an apparatus therefor.

【0008】[0008]

【課題を解決するための手段】上記の目的を達成するた
め、請求項1の発明の撮像系パラメータ測定法は、平面
かつ高精度な画素配列を有する画像表示手段を計測対象
である視覚センサの前方に設置して該視覚センサにより
撮影して入力するとともに、該視覚センサに観測される
画像表示手段上の描画図形を角度または平行移動で変化
させる第一の段階と、該視覚センサの入力図形と該変化
させた画像表示装置上の描画図形の情報より視覚センサ
の空間中での位置姿勢とレンズ及び撮像素子を含む撮像
系に起因するパラメータを決定する第二の段階を有
し、上記段階を一回または複数回繰り返す。
In order to achieve the above object, an image pickup system parameter measuring method according to the first aspect of the present invention is a method of measuring an image display means having a planar and high-precision pixel array by a visual sensor to be measured. A first stage in which the image is input by photographing with the visual sensor installed in front, and a drawing figure on the image display means observed by the visual sensor is changed by an angle or a translation; And the change
And a second step of determining the parameters resulting from the imaging system including the position and orientation and lenses and the image sensor in a space of the visual sensor from the information of the drawing shapes on the image display device with the above stage Repeat one or more times.

【0009】また、請求項2の発明は、平面かつ高精度
な画素配列を有し測定対象である視覚センサの前方に設
置した画像表示手段と、前記画像表示手段の表示画面上
に図形を角度または平行移動で変化させて描画するとと
もに該変化させた描画図形を前記視覚センサより入力し
て該描画図形と該視覚センサの入力図形から視覚センサ
の空間中での位置姿勢とレンズ及び撮像素子を含む撮像
系に起因するパラメータを決定する計算処理手段と、を
有する装置構成とする。
Further, the inventions of claim 2, an image display means placed in front of the visual sensor to be measured has a flat and accurate pixel array, the graphics on a display screen of said image display means position and orientation and the lens and the image sensor in a space of a visual sensor drawing figures obtained by the change from the input graphic image drawing figures and the visual sensor and input from the visual sensor with drawing by changing an angle or parallel movement And a calculation processing means for determining a parameter caused by the imaging system.

【0010】また、請求項3の発明は、請求項1の方法
において、第二の段階が、第一の段階における入力図形
と描画図形情報から撮像系パラメータを計算する第
の処理手順と、第の処理手順で得られた撮像系パラメ
ータと真値との誤差を検出し誤差があれば条件を変えて
第一の段階に戻る第の処理手順と、第の処理手順で
の誤差が無くなった時点で撮像系パラメータを出力する
の処理手順と、で構成する。
Further, the inventions of claim 3, The method of claim 1, the second stage, the input figure in the first stage
First calculating the imaging system parameters from the information in the drawing figures and
And the error between the imaging system parameter obtained in the first processing procedure and the true value is detected, and if there is an error, the condition is changed.
A second processing procedure returns to the first step, a third procedure that outputs an imaging system parameters at the time the error is gone in the second procedure, in configuring.

【0011】また、請求項4の発明は、上記請求項3の
発明において、第一の段階では、画像表示手段への描画
図形を平行線群の角度または少なくとも2つの異なる方
向からの直線の平行移動で変化させ、第二の段階の
の処理手順では、画像表示手段に描画された少なくとも
角度が異なる3つの平行線群の入力図形の消失点から、
または少なくとも2つの異なる方向から平行移動された
直線の交点の入力図形から画像中心を撮像系パラメー
タとして求めることとする。
Further, the inventions of claim 4, in the invention of the claim 3, in a first stage, drawing on the image display means
Draw the figure at the angle of a set of parallel lines or at least two different
Varied translation straight line from direction, the second step first
In the processing procedure of at least, at least
From the vanishing point of the input figure of the three parallel lines with different angles,
Or from at least two different intersections of the moved <br/> linear translation in the direction of the input figure, the imaging system images a center parameter
To be determined as data.

【0012】また、請求項5の発明は、上記請求項3の
発明において、第の処理手順では、撮像系パラメータ
として求めた画像中心から撮像面上で直交する直線上の
等距離にある点を画像表示手段へ描画処理し、画像表示
手段上の該2直線の交点のなす角度と該交点からの前記
点の対応点の距離から視覚センサの位置姿勢を撮像系
パラメータとして計算することとする。
Further, the inventions of claim 5, in the invention of the third aspect, in the first processing procedure, from the image center determined as the imaging system parameters equidistant straight line perpendicular on the imaging surface draw processing point to the image display means, the imaging system the position and orientation of the vision sensor from the distance of the corresponding point of the point from the 2 angle of the straight line of intersection and intersection points on the image display means
And Rukoto be calculated as a parameter.

【0013】さらに、請求項6の発明は、上記の各測定
法において、画像表示手段への描画図形である線分もし
くは点もしくは図形を視覚センサの入力図形として検出
する処理を、画像表示手段への描画図形を反転表示もし
くは明度変化させて複数枚の画像の差分処理で行うこと
とする。
Furthermore, the inventions of claim 6, in each measurement method described above, the process of detecting a line segment or point or shape is drawn figures to the image display unit as input figure of the visual sensor, the image display means It is assumed that the image to be drawn is displayed in a reversed manner or the brightness is changed to perform the difference processing of a plurality of images.

【0014】[0014]

【作用】本発明の撮像系パラメータ測定法とその装置で
は、試験対象である画像表示手段の設置を、測定対象の
視覚センサの前方に配置するのみでよくすることによ
り、設置の融通性を非常に高いものとして、試験対象設
置の容易性を実現する。
According to the method and the apparatus for measuring the parameters of the imaging system of the present invention, the installation of the image display means to be tested need only be arranged in front of the visual sensor to be measured. To realize the easiness of installation of the test object.

【0015】また、純粋な幾何学計算により、撮像系パ
ラメータを求めることにより、従来問題であった解の収
束性、初期値問題等を無くし、一撃的に解を求める事を
可能として、処理の高速性を実現する。
Further, by obtaining the imaging system parameters by pure geometric calculation, the convergence of the solution, the initial value problem, and the like, which have been problems in the past, can be eliminated, and the solution can be obtained at a stroke. Achieve high speed.

【0016】さらに、画像表示手段により試験対象等の
図形や線分、点を表示することで、それらの反転表示、
明度変化を可能とし、複数枚の画像による差分処理のみ
で図形等を検出することにより、図形等の検出精度を向
上させて誤差を減少させ、図形検出誤差による処理結果
への影響を軽減した撮像系パラメータの測定を可能とす
る。
Further, by displaying figures, line segments, and points of the test object or the like by the image display means, they can be inverted and displayed.
Imaging that enables brightness change and detects figures etc. only by differential processing with multiple images, improves the detection accuracy of figures etc., reduces errors, and reduces the influence of figure detection errors on processing results Enables measurement of system parameters.

【0017】[0017]

【実施例】以下、本発明の実施例を図面により詳細に説
明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0018】図1は、本発明の一実施例を説明する図で
あって、1は試験対象である画像表示装置、2は測定対
象である視覚センサ、3は視覚センサ2及び画像表示装
置1からの入力を受け取って処理を行う計算処理装置、
4は視覚センサ2の入力を表示するモニタである。画像
表示装置1としては例えば液晶等のように平面かつ高精
度な画像表示素子配列を有するものとし、その設置に関
しては、視覚センサ2に対して適度に傾斜を保つ様にモ
ニタ4を見ながら設置する。
FIG. 1 is a view for explaining an embodiment of the present invention. 1 is an image display device to be tested, 2 is a visual sensor to be measured, 3 is a visual sensor 2 and an image display device 1 A processing unit that receives input from and performs processing
Reference numeral 4 denotes a monitor for displaying the input of the visual sensor 2. The image display device 1 has a flat and high-precision image display element array such as a liquid crystal, for example, and is installed while looking at the monitor 4 so as to maintain an appropriate inclination with respect to the visual sensor 2. I do.

【0019】図2は本実施例の処理手順概略を示す図で
ある。<1>は画像表示装置1へ図形を描画し視覚セン
サ2にてその図形を検出する処理、<2>は図形検出処
理<1>における図形情報から撮像系パラメータを計算
し取得する処理、<3>は撮像系パラメータ取得処理<
2>で得られた撮像系パラメータと真値との誤差を検出
する処理、<4>は誤差検出処理<3>での誤差が無く
なった時点で撮像系パラメータを出力する処理結果出力
処理である。
FIG. 2 is a diagram showing an outline of the processing procedure of this embodiment. <1> is a process of drawing a graphic on the image display device 1 and detecting the graphic by the visual sensor 2, <2> a process of calculating and acquiring an imaging system parameter from graphic information in the graphic detection process <1>, <3> is an imaging system parameter acquisition process <
A process for detecting an error between the imaging system parameter obtained in 2> and the true value, and a processing result output process for outputting the imaging system parameter when the error in the error detection process <3> disappears. .

【0020】図3は図2中の図形検出処理<1>の具体
例を示す処理手順の構成図である。5はレンズ歪検出処
理、6は通常レンズ画像中心検出処理、7は歪曲収差中
心検出処理、8は描画処理、9は図形検出処理、10は
図形判定処理である。以下、各処理について説明する。
FIG. 3 is a configuration diagram of a processing procedure showing a specific example of the graphic detection processing <1> in FIG. Reference numeral 5 denotes lens distortion detection processing, 6 denotes normal lens image center detection processing, 7 denotes distortion aberration center detection processing, 8 denotes drawing processing, 9 denotes figure detection processing, and 10 denotes figure determination processing. Hereinafter, each process will be described.

【0021】図5はレンズ歪検出処理5を説明するため
の図であって、13,14は視覚センサからの入力画像
である。レンズ歪検出処理5では、画像表示装置1上に
直線群を描画し、これを図1の視覚センサ2により観測
する。この時、図5(a)に示す入力画像13の様に全
ての直線が完全な直線として観測される場合は通常画像
レンズ中心検出処理6に、図5(b)に示す入力画像1
4の様に曲線として観測される場合は歪曲収差中心検出
処理7へと移行する。
FIG. 5 is a diagram for explaining the lens distortion detection processing 5, and 13 and 14 are input images from a visual sensor. In the lens distortion detection processing 5, a straight line group is drawn on the image display device 1, and this is observed by the visual sensor 2 in FIG. At this time, when all the straight lines are observed as perfect straight lines as in the input image 13 shown in FIG. 5A, the normal image lens center detection processing 6 is performed and the input image 1 shown in FIG.
If it is observed as a curve as in 4, the process proceeds to distortion aberration center detection processing 7.

【0022】図6は通常画像レンズ中心検出処理6を説
明するための図であって、図6(a)において16は画
像表示装置に描画された平行線群、15はその平行線群
16の消失点である。通常画像レンズ中心検出処理6で
は、任意の角度θで交差する平行線群16を描画し、各
々の平行線の消失点15を計算する。同様の処理を画像
表示装置1の視覚センサ2に対する角度を変更し3回行
う。
FIG. 6 is a diagram for explaining the normal image lens center detection processing 6. In FIG. 6A, reference numeral 16 denotes a group of parallel lines drawn on the image display device, and 15 denotes a group of the parallel lines 16. It is a vanishing point. In the normal image lens center detection processing 6, a parallel line group 16 intersecting at an arbitrary angle θ is drawn, and a vanishing point 15 of each parallel line is calculated. The same processing is performed three times by changing the angle of the image display device 1 with respect to the visual sensor 2.

【0023】図6(b)に示すように、この3回の処理
により得られた3組の消失点をそれぞれ15a,15
b,15cとし、画像表示装置1上での交差角をθa,
θb,θcとする。ここでθa〜θcの各交差角が90
度であるとすると、画像プレーンP上の一組の消失点に
対しCCDカメラの視点位置は、消失点を結んだ直線を
直径とする球の表面に限定できる。この球が3組独立に
設定でき、全ての球が交わる一点Oが視点位置となる。
よって画像プレーンP上に対し視点位置Oから下ろした
垂線の交わる点O’が画像中心である。また、OO’の
長さfが焦点距離となる。
As shown in FIG. 6B, three sets of vanishing points obtained by these three processes are respectively denoted by 15a and 15a.
b, 15c, and the intersection angle on the image display device 1 is θa,
θb and θc. Here, each intersection angle of θa to θc is 90
In terms of degrees, the viewpoint position of the CCD camera with respect to a set of vanishing points on the image plane P can be limited to the surface of a sphere whose diameter is a straight line connecting the vanishing points. The three spheres can be set independently, and one point O where all the spheres intersect is the viewpoint position.
Therefore, the point O 'where the perpendicular line lowered from the viewpoint position O on the image plane P intersects is the center of the image. The length f of OO 'is the focal length.

【0024】図7は歪曲収差中心検出処理7を説明する
ための図であって、17,18は視覚センサにより観測
される直線、19はそれらの直線の交点である。歪曲収
差中心検出処理7では、図7(a)に示すように直線1
7を平行移動しながら描画を繰り返し完全な直線18と
して観測される位置を検出する。図7(b)に示すよう
に、この処理を異なる方向から少なくとも二回以上行い
その交点19を求める。この交点19が歪の中心であ
り、すなわち画像中心となる。
FIG. 7 is a diagram for explaining the distortion aberration center detecting process 7, wherein 17 and 18 are straight lines observed by the visual sensor, and 19 is the intersection of these straight lines. In the distortion center detection process 7, as shown in FIG.
The drawing is repeated while moving 7 in parallel, and the position observed as a complete straight line 18 is detected. As shown in FIG. 7B, this processing is performed at least twice from different directions, and the intersection 19 is obtained. This intersection 19 is the center of the distortion, that is, the center of the image.

【0025】図8は描画処理8、図形検出処理9、図形
判定処理10における目的とする描画図形を説明するた
めの図である。この一連の処理では、モニタ4上の画像
中心19から水平方向、垂直方向に等距離nに投影され
る対応点21〜24を画像表示装置1上に描画する。
FIG. 8 is a diagram for explaining a target drawing figure in the drawing processing 8, the graphic detection processing 9, and the graphic determination processing 10. In this series of processing, corresponding points 21 to 24 projected at equal distances n in the horizontal and vertical directions from the image center 19 on the monitor 4 are drawn on the image display device 1.

【0026】図9は描画処理8、図形検出処理9、図形
判定処理10における、図形描画手法を説明するための
図である。点21を例とすると、図9(a)に示す画像
表示装置1の任意の領域26を点滅させたとき、図8の
モニタ4上の点21でその変化が観測されれば領域26
が候補領域となり、そうでなければ、領域26以外の部
分が候補となる。さらに、図9(b)に示すように候補
領域となった画像表示装置1上の部分に対し領域2分割
をおこない同様に一方の領域27のみを点滅させ、候補
領域の限定を行う。上記処理を、複数回繰り返すことに
より、対応点21が決定される。同様の処理を点22〜
24について行う。
FIG. 9 is a diagram for explaining a graphic drawing technique in the drawing processing 8, the graphic detection processing 9, and the graphic determination processing 10. Taking the point 21 as an example, when an arbitrary area 26 of the image display device 1 shown in FIG. 9A is blinked, if the change is observed at the point 21 on the monitor 4 in FIG.
Is a candidate area, otherwise, a part other than the area 26 is a candidate. Further, as shown in FIG. 9B, the area on the image display device 1 which has become a candidate area is divided into two areas, and only one area 27 is similarly turned on and off, thereby limiting the candidate area. The corresponding point 21 is determined by repeating the above process a plurality of times. The same processing is performed at points 22 to
24.

【0027】図10は画像表示装置1上での描画結果を
説明するための図であって、Pは画像表示装置1の表示
部分である。上記の処理の結果、図10(a)の画像表
示装置の表示部分Pに、モニタ4上の画像中心19と各
対応点21〜24が描画される。ここで、図10(b)
に示すように、点21と点19の画像表示装置1上での
距離をa、点22と点19の画像表示装置1上での距離
をb、点23と点19の画像表示装置1上での距離を
c、点24と点19の画像表示装置1上での距離をd、
点21と点23および点22と点24を結ぶ直線が交差
する角度をθとする。
FIG. 10 is a diagram for explaining a drawing result on the image display device 1, where P is a display portion of the image display device 1. As a result of the above processing, the image center 19 and the corresponding points 21 to 24 on the monitor 4 are drawn on the display portion P of the image display device in FIG. Here, FIG.
As shown in the figure, the distance between the points 21 and 19 on the image display device 1 is a, the distance between the points 22 and 19 on the image display device 1 is b, and the points 23 and 19 are on the image display device 1. Is the distance at c, the distance between the points 24 and 19 on the image display device 1 is d,
The angle at which the straight line connecting the points 21 and 23 and the line connecting the points 22 and 24 intersects is θ.

【0028】図4は図2中の撮像系パラメータ取得処理
<2>の具体例を示す処理手順構成図である。撮像系パ
ラメータ取得処理<2>は、視点位置計算処理11と、
撮像系パラメータ導出処理12から成る。以下、これら
の各処理について説明する。
FIG. 4 is a processing procedure block diagram showing a specific example of the imaging system parameter acquisition processing <2> in FIG. The imaging system parameter acquisition process <2> includes a viewpoint position calculation process 11,
It comprises an imaging system parameter deriving process 12. Hereinafter, each of these processes will be described.

【0029】図11は視点位置計測の原理を説明するた
めの図である。視覚センサ2において、画像中心19か
ら等間隔に観測された点21〜24は、視覚センサ2の
3次元空間中での位置29を頂点とする円錐28の円錐
面上の点であり、点19は円錐の軸方向である。点21
と点23および点22と点24を結ぶ直線はこの円錐の
底面で直交する直線として投影される。ここで、視覚セ
ンサの受光素子からの出力について縦横比に差がある場
合、円錐ではなく楕円錐となる。
FIG. 11 is a diagram for explaining the principle of viewpoint position measurement. In the visual sensor 2, points 21 to 24 observed at equal intervals from the image center 19 are points on the conical surface of the cone 28 having the vertex at the position 29 in the three-dimensional space of the visual sensor 2. Is the axial direction of the cone. Point 21
The straight line connecting the point 23 and the point 22 and the point 22 and the point 24 is projected as a straight line orthogonal to the bottom of the cone. Here, when there is a difference in the aspect ratio with respect to the output from the light receiving element of the visual sensor, the output is not a cone but an elliptical cone.

【0030】図12は点21と点23を結んだ線分によ
る、視覚センサ視点位置推定を説明するための図であ
る。点29を頂点とする円錐または楕円錐は、図12
(a)に示すように、中心軸である点29と点19を結
ぶ直線を含む面で切断すると、その断面は三角形とな
り、中心軸は角の二点分線である。この条件から視点位
置29の存在範囲を求めると、図12(b)に示すよう
に、a>bとしたときに点21と点23を結んだ線分の
点23方向への延長上で点19から距離ab/(a−
b)の点30を中心とする半径ab/(a−b)の球g
1の表面となる。同様にして点21と点23を結んだ線
分についても球g2が設定できる。よって視点位置は、
図12(c)に示すようにこの2個の球の交わる円S上
に拘束される。
FIG. 12 is a diagram for explaining the visual sensor viewpoint position estimation based on the line segment connecting the points 21 and 23. A cone or elliptical cone with the vertex at point 29 is shown in FIG.
As shown in (a), when cut along a plane including a straight line connecting the points 29 and 19, which are the central axes, the cross section becomes a triangle, and the central axis is a two-pointed line of an angle. When the existence range of the viewpoint position 29 is obtained from this condition, as shown in FIG. 12B, when a> b, the point extending on the line 23 connecting the points 21 and 23 in the direction of the point 23 is obtained. Distance ab / (a-
sphere g of radius ab / (ab) centered on point 30 of b)
1 surface. Similarly, a sphere g2 can be set for a line segment connecting the points 21 and 23. Therefore, the viewpoint position is
As shown in FIG. 12C, the sphere is constrained on a circle S where the two spheres intersect.

【0031】だだし、光軸に対して画像表示装置1が垂
直に置かれた場合、球gの半径が無限大となり視点位置
計算ができなくなる。この場合、画像表示装置1を傾け
て置くように指示を出し、再度、視点位置計算を行わせ
る方法、あるいは垂直位置のままでカメラパラメータを
計算する方法が考えられる。
However, when the image display device 1 is placed perpendicular to the optical axis, the radius of the sphere g becomes infinite and the viewpoint position cannot be calculated. In this case, a method of instructing the image display apparatus 1 to be inclined and placing it again to calculate the viewpoint position, or a method of calculating the camera parameters while maintaining the vertical position can be considered.

【0032】垂直位置のままで計算を行う場合には、従
来提案されている方法を適用することが可能であり、例
えば、下記のような手法が適用できる。
When the calculation is performed with the vertical position unchanged, a conventionally proposed method can be applied. For example, the following method can be applied.

【0033】収差歪みが大きい場合の手法:Y.Nom
ura,H.Naruse,M.Sagara and
A.Ide.「Simple caliblatio
nalgorithm for high−disto
rtion−lens camera」(文献1:IE
EE Trans. on Pattern Anal
isys and Machin Intellige
nce,Vol PAMI−14,No.11,pp.
1095−1099,Nov.1992.)収差歪みが
小さい場合の手法:J.Weng.「Camera C
aliblation with Distortio
n Models and Accuracy Eva
luation」(文献2:IEEE Trans.
onPattern Analisys and Ma
chin Intelligence,Vol PAM
I−14,No.10,pp.965−980,Oc
t.1992.)ここで、従来手法において入力画像と
実際の3次元画像の対応決定は手作業で行う以外に方法
がなかった。この点に関して本手法では、描画と画像入
力を同時に行っているため、手作業で対応点決定をする
必要がなく、従来手法の問題を解決している。
Method when aberration distortion is large: Nom
ura, H .; Naruse, M .; Sagara and
A. Ide. "Simple caliblatio
nalgorithm for high-disto
rotation-lens camera "(Reference 1: IE
EE Trans. on Pattern Anal
isys and Machine Intellige
nce, Vol PAMI-14, No. 11, pp.
1095-1099, Nov. 1992. Method when aberration distortion is small: Weng. "Camera C
Alibration with Distortion
n Models and Accuracy Eva
luation "(Reference 2: IEEE Trans.
onPattern Analysys and Ma
chin Intelligence, Vol PAM
I-14, No. 10, pp. 965-980, Oc
t. 1992. Here, in the conventional method, there is no method other than manually determining the correspondence between the input image and the actual three-dimensional image. In this regard, in the present method, since drawing and image input are performed at the same time, there is no need to manually determine a corresponding point, and the problem of the conventional method is solved.

【0034】図13は点21と点23および点22と点
24を結ぶ直線が直角に観測されることを条件とした視
覚センサ視点位置推定を説明するための図である。この
二直線が直交するように観測される視点位置は、点19
を頂点とした長軸短軸比がcos(sin-1(tan
(θ/2))):1である楕円を底面とする楕円錐の表
面となる。この楕円錐の表面と前述した円は二点で交わ
り、この内画像表示装置の表面方向に位置する点29が
視覚センサの視点位置となる。以上の様にして、画像表
示装置1に対する視覚センサ2の結像点位置が計算可能
である。
FIG. 13 is a diagram for explaining the visual sensor viewpoint position estimation on the condition that a straight line connecting the points 21 and 23 and the points 22 and 24 is observed at a right angle. The viewpoint position at which the two straight lines are observed to be orthogonal to each other is point 19
Is defined as cos (sin -1 (tan
(Θ / 2))) is the surface of an elliptical cone with the ellipse of 1 as the base. The surface of the elliptical cone and the circle intersect at two points, and the point 29 located in the surface direction of the inner image display device is the viewpoint position of the visual sensor. As described above, the imaging point position of the visual sensor 2 with respect to the image display device 1 can be calculated.

【0035】処理<3>は、処理<2>で求めた視覚セ
ンサの結像点位置の誤差を検証する処理である。具体的
には、画像表示装置に別の図形を描画し、ここから計算
されるこの実際の図形形状と視覚センサ情報のみから計
算した図形形状との差により検証するものとする。ここ
で誤差が検出された場合、画像中心等のパラメータを変
更し図2の処理<1>へもどり、誤差が無ければ、撮像
素子上の各点について、光軸を天頂とした時の極座標変
換テーブルを計算し処理<4>へ移行する。極座標変換
テーブルの計算は、処理8〜10と同様の操作によって
可能である。これは、図15に示すように画像表示装置
の液晶等の表示面上の任意の位置を点滅させた場合、モ
ニタおよび、表示面上の位置関係から光軸を天頂とした
時、点滅方向の緯度、経度が一意に求まることを原理と
している。
The process <3> is a process for verifying the error of the imaging point position of the visual sensor obtained in the process <2>. Specifically, another graphic is drawn on the image display device, and verification is performed based on a difference between the actual graphic shape calculated from the graphic and the graphic shape calculated only from the visual sensor information. Here, if an error is detected, the parameters such as the center of the image are changed and the process returns to the process <1> in FIG. 2. If there is no error, each point on the image sensor is transformed into a polar coordinate with the optical axis at the zenith. The table is calculated, and the process proceeds to <4>. The calculation of the polar coordinate conversion table can be performed by the same operation as in processes 8 to 10. This is because, when an arbitrary position on a display surface such as a liquid crystal of an image display device is blinked as shown in FIG. The principle is that the latitude and longitude are uniquely determined.

【0036】処理<4>では、処理<3>で得られた結
果を利用し撮像系パラメータを計算する。ここで言う撮
像系パラメータとは、焦点距離、レンズ収差、画像中心
等の光学パラメータおよび、実空間中でのカメラの位
置、姿勢といった外部パラメータである。この内、画像
中心に関しては導出済みであるため、焦点距離、レンズ
歪み等を求めればよい。これは、先に示した文献2に示
されるような光学モデルに対し、導出した変換系テーブ
ルがフィティングするよう、光学モデルの各係数を求め
ることで行う。
In the process <4>, the imaging system parameters are calculated using the result obtained in the process <3>. The imaging system parameters referred to here are optical parameters such as a focal length, a lens aberration, an image center, and external parameters such as a position and a posture of a camera in a real space. Since the center of the image has been derived, the focal length, lens distortion, etc. may be obtained. This is performed by obtaining each coefficient of the optical model such that the derived conversion system table fits the optical model as shown in the above-mentioned document 2.

【0037】また、外部パラメータに関しては、画像表
示装置の表示面とカメラ位置の関係が求まっているの
で、実空間中の基準となる位置からの表示面の方向、距
離、姿勢を正確に実計測することで導出できる。
As for the external parameters, since the relationship between the display surface of the image display device and the camera position is determined, the direction, distance, and orientation of the display surface from a reference position in the real space can be accurately measured. Can be derived.

【0038】図14において点30,21,23を結ぶ
三角形の頂点角θ1と、点30,22,24を結ぶ三角
形の頂点角θ2について、各々の二等分角の正接を計算
することで撮像素子の縦横比の計算が可能である。
In FIG. 14, the image is obtained by calculating the tangent of each bisecting angle of the vertex angle θ1 of the triangle connecting the points 30, 21, and 23 and the vertex angle θ2 of the triangle connecting the points 30, 22, and 24. Calculation of the aspect ratio of the element is possible.

【0039】よって、必要とする撮像系パラメータが導
出可能となる。
Therefore, necessary imaging system parameters can be derived.

【0040】以上までに述べた各処理において、画像表
示装置に表示された図形等を検出する場合、線分もしく
は点もしくは図形の検出処理を、画像表示手段への描画
図形を反転表示もしくは明度変化させて得られる複数枚
の画像の差分処理で行うことによって、容易に、かつ検
出誤差を減少させることができる。
In each of the processes described above, when detecting a figure or the like displayed on the image display device, the process of detecting a line segment, a point, or a figure is performed by reversely displaying a figure to be drawn on the image display means or by changing the brightness. By performing the difference processing of a plurality of images obtained by this, it is possible to easily and reduce the detection error.

【0041】以上で述べたように、本実施例は、画像表
示装置を視覚センサの前方に適度に傾けて設置するこ
と、視覚センサからの入力情報により画像表示装置上の
図形等を逐次変更し、視覚センサの観測図形等および画
像表示装置上の表示図形等両方の幾何学情報から撮像系
パラメータの計算を行うこと、図形等検出時は、表示図
形等の複数回の反転表示あるいは明度変化を行いその差
分画像を検出すること、を主要な特徴とする。
As described above, in the present embodiment, the image display device is installed at an appropriate inclination in front of the visual sensor, and the graphics and the like on the image display device are sequentially changed according to the input information from the visual sensor. Calculating the imaging system parameters from geometric information of both the observation figure etc. of the visual sensor and the display figure etc. on the image display device. When the figure etc. is detected, the inverted display or brightness change of the display figure etc. is performed multiple times. The main feature is that the difference image is detected.

【0042】このような特徴的な構成によって、従来技
術とは、試験対象である画像表示装置の設置に融通性が
高いこと、撮像系に強い収差歪あるいは画像の縦横比が
異なる場合においても計測可能であり、計算の高速かつ
高精度を実現していること、ノイズ状況下においても、
高精度に図形検出が可能であること、というような異な
る効果が得られる。
With such a characteristic configuration, the present invention is different from the prior art in that it has high flexibility in installing the image display device to be tested and measures even when the imaging system has a strong aberration distortion or a different aspect ratio of the image. It is possible to realize high-speed and high-precision calculation, even under noisy conditions,
Different effects such as high-accuracy figure detection can be obtained.

【0043】なお、上記の実施例の処理を同様の撮像系
に対し複数回繰り返せば、さらなる精度向上を図ること
ができ、また入力を複数の視覚センサとすれば視覚セン
サ相互の位置関係も測定が可能であるから、視覚センサ
による3次元計測あるいは視覚センサによるナビゲーシ
ョンシステムにおいても、精度を向上させる効果があ
る。
It should be noted that if the processing of the above embodiment is repeated a plurality of times for the same image pickup system, the accuracy can be further improved. If the input is made to a plurality of visual sensors, the positional relationship between the visual sensors can be measured. Therefore, there is an effect of improving accuracy even in three-dimensional measurement using a visual sensor or in a navigation system using a visual sensor.

【0044】[0044]

【発明の効果】以上説明したように、請求項1、請求項
2に代表される本発明の撮像系パラメータ測定法とその
装置によれば、純粋な幾何学計算のみで撮像パラメータ
の導出が可能であり、解の収束性、初期値問題等は無
く、一撃的に解を求める事ができ、処理の高速性が得ら
れる。また、試験のための画像表示手段の設置は、視覚
センサに対して任意に配置するのみでよく、設置の融通
性が非常に高く、試験対象設置の容易性が得られる。
As described above, according to the imaging system parameter measuring method and the apparatus according to the present invention represented by claims 1 and 2, it is possible to derive the imaging parameters only by pure geometric calculations. There is no convergence of the solution, no initial value problem, etc., and the solution can be obtained at a stroke, resulting in high processing speed. Further, the image display means for the test need only be arbitrarily arranged with respect to the visual sensor, so that the flexibility of the installation is very high and the test object can be easily installed.

【0045】また、請求項1、請求項2に代表される本
発明、特に請求項6の発明によれば、画像表示手段を用
いたことで、その表示を反転表示、明度変化させること
が可能であるため、複数枚の画像による差分処理のみで
図形等の検出ができ、図形等の検出精度が向上し、かつ
受光素子毎の対応領域も検出可能であるので、量子化誤
差も少ない。従って、光学系歪、あるいは量子化誤差、
図形検出誤差による処理結果への影響を軽減した撮像系
パラメータの測定が可能となる。
Further, according to the present invention represented by the first and second aspects, in particular, according to the sixth aspect of the present invention, it is possible to reverse the display and change the brightness by using the image display means. Therefore, a figure or the like can be detected only by the difference processing using a plurality of images, the detection accuracy of the figure or the like can be improved, and the corresponding area for each light receiving element can be detected, so that the quantization error is small. Therefore, optical system distortion or quantization error,
It is possible to measure the imaging system parameters with less influence on the processing result due to the figure detection error.

【0046】また、請求項3の発明によれば、特に、誤
差検出を行い、誤差の無い撮像系パラメータを出力する
ので、一層の精度向上が図れる。
According to the third aspect of the present invention, in particular, an error is detected and an imaging system parameter having no error is output, so that the accuracy can be further improved.

【0047】また、請求項4の発明によれば、特に、撮
像系パラメータの一つである画像中心が容易に求められ
る。
According to the fourth aspect of the invention, particularly, the center of the image, which is one of the imaging system parameters, can be easily obtained.

【0048】さらに、請求項5の発明によれば、特に、
視覚センサの位置、姿勢に関する撮像系パラメータが容
易に求められる。
Further, according to the invention of claim 5, in particular,
Imaging system parameters relating to the position and orientation of the visual sensor can be easily obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例を示す構成図FIG. 1 is a configuration diagram showing one embodiment of the present invention.

【図2】上記実施例の処理手順概略を示す図FIG. 2 is a diagram showing an outline of a processing procedure of the embodiment.

【図3】図2の処理手順における図形検出処理の具体例
を示す図
FIG. 3 is a diagram showing a specific example of a graphic detection process in the processing procedure of FIG. 2;

【図4】図2の処理手順における撮像系パラメータ取得
処理の具体例を示す図
FIG. 4 is a diagram showing a specific example of an imaging system parameter acquisition process in the procedure of FIG. 2;

【図5】(a),(b)は図3の図形検出処理における
上記レンズ歪検出処理を説明するための図
FIGS. 5A and 5B are diagrams for explaining the lens distortion detection processing in the graphic detection processing of FIG. 3;

【図6】(a),(b)は図3の図形検出処理における
通常レンズ画像中心検出処理を説明するための図
6A and 6B are diagrams for explaining a normal lens image center detection process in the graphic detection process of FIG. 3;

【図7】(a),(b)は図3の図形検出処理における
歪曲中心推定処理を説明するための図
7A and 7B are diagrams for explaining a distortion center estimation process in the graphic detection process of FIG. 3;

【図8】図3の図形検出処理における描画処理、図形検
出処理、図形判定処理において目標となる図形を説明す
るための図
8 is a diagram for explaining a target graphic in the drawing processing, the graphic detection processing, and the graphic determination processing in the graphic detection processing in FIG. 3;

【図9】(a),(b)は図3の図形検出処理中の描画
処理、図形検出処理、図形判定処理における図形描画手
法を説明するための図
FIGS. 9A and 9B are diagrams for explaining a graphic drawing technique in the graphic processing, graphic detection processing, and graphic determination processing in the graphic detection processing of FIG. 3;

【図10】(a),(b)は図9の図形描画手法による
描画画像を説明するための図
10A and 10B are diagrams for explaining a drawing image by the graphic drawing method of FIG. 9;

【図11】図4の撮像系パラメータ取得処理における視
点位置計測の原理を説明するための図
11 is a view for explaining the principle of viewpoint position measurement in the imaging system parameter acquisition processing of FIG.

【図12】(a),(b),(c)は図4の撮像系パラ
メータ取得処理における視覚センサ視点位置推定を説明
するための図
12A, 12B, and 12C are diagrams for explaining visual sensor viewpoint position estimation in the imaging system parameter acquisition processing of FIG. 4;

【図13】図4の撮像系パラメータ取得処理における具
体的な条件による視覚センサ視点位置推定を説明するた
めの図
FIG. 13 is a view for explaining the visual sensor viewpoint position estimation based on specific conditions in the imaging system parameter acquisition processing of FIG. 4;

【図14】図2の処理結果出力処理における出力画像の
縦横比の導出を説明するための図
14 is a view for explaining derivation of an aspect ratio of an output image in the processing result output processing of FIG. 2;

【図15】図2の誤差検出処理における極座標変換テー
ブルの計算の原理を説明するための図
15 is a view for explaining the principle of calculation of a polar coordinate conversion table in the error detection processing of FIG. 2;

【符号の説明】[Explanation of symbols]

1…画像表示装置 2…視覚センサ 3…計算処理装置 4…モニタ 5…レンズ歪検出処理 6…通常レンズ画像中心検出処理 7…歪曲収差中心検出処理 8…描画処理 9…図形検出処理 10…図形判定処理 11…視点位置計算処理 12…撮像系パラメータ導出処理 13,14…視点センサからの入力画像 15…消失点 16…平行線群 17,18…直線 19…直線の交点(画像中心) 21〜24…画像中心より等距離に観測される点 26,27…点滅領域 28…円錐 29…視覚センサの視点位置 DESCRIPTION OF SYMBOLS 1 ... Image display apparatus 2 ... Visual sensor 3 ... Calculation processing apparatus 4 ... Monitor 5 ... Lens distortion detection processing 6 ... Normal lens image center detection processing 7 ... Distortion aberration center detection processing 8 ... Drawing processing 9 ... Graphic detection processing 10 ... Graphic Judgment process 11: viewpoint position calculation process 12: imaging system parameter derivation process 13, 14, input image from viewpoint sensor 15: vanishing point 16: parallel line group 17, 18, straight line 19: intersection of straight lines (image center) 21 to 21 24: points observed equidistant from the center of the image 26, 27 ... blinking area 28 ... cone 29 ... viewpoint position of visual sensor

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 - 11/30 102 G06T 1/00 G06T 3/00 G06T 7/00 Continuation of front page (58) Fields investigated (Int.Cl. 7 , DB name) G01B 11/00-11/30 102 G06T 1/00 G06T 3/00 G06T 7/00

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 平面かつ高精度な画素配列を有する画像
表示手段を計測対象である視覚センサの前方に設置して
該視覚センサにより撮影して入力するとともに、該視覚
センサに観測される画像表示手段上の描画図形を角度ま
たは平行移動で変化させる第一の段階と、該視覚センサ
の入力図形と該変化させた画像表示装置上の描画図形の
情報より視覚センサの空間中での位置姿勢とレンズ及び
撮像素子を含む撮像系に起因するパラメータを決定する
第二の段階を有し、上記段階を一回または複数回繰り
返すことを特徴とする撮像系パラメータ測定法。
1. An image display means having a planar and high-precision pixel array is installed in front of a visual sensor to be measured, an image is taken and input by the visual sensor, and an image displayed by the visual sensor is displayed. Angle the drawn figure on the
Others a first step of changing a parallel movement, the position and orientation and lenses and the image sensor in a space of the visual sensor from the information of the drawing shapes on the image display device with the input graphic and said change of said visual sensor Determine the parameters caused by the imaging system including
And a second step, the imaging system parameter measurement method and repeating one or more times the above steps.
【請求項2】 平面かつ高精度な画素配列を有し測定対
象である視覚センサの前方に設置した画像表示手段と、
前記画像表示手段の表示画面上に図形を角度または平行
移動で変化させて描画するとともに該変化させた描画図
形を前記視覚センサより入力して該描画図形と該視覚セ
ンサの入力図形から視覚センサの空間中での位置姿勢と
レンズ及び撮像素子を含む撮像系に起因するパラメータ
を決定する計算処理手段と、を有することを特徴とする
撮像系パラメータ測定装置。
2. An image display means provided in front of a visual sensor to be measured having a planar and highly accurate pixel arrangement,
Angle or parallel figures on the display screen of the image display means
Drawing figure obtained by the change over to draw varied Or type from said visual sensor image drawing figures and the visual cell
An image processing system parameter measuring device, comprising: a calculation processing means for determining a position and orientation in a space of a visual sensor and a parameter caused by an imaging system including a lens and an imaging device from an input graphic of the sensor.
【請求項3】 第二の段階が、第一の段階における入力
図形と描画図形情報から撮像系パラメータを計算する
の処理手順と、第の処理手順で得られた撮像系パ
ラメータと真値との誤差を検出し誤差があれば条件を変
えて第一の段階に戻る第の処理手順と、第の処理手
順での誤差が無くなった時点で撮像系パラメータを出力
する第の処理手順と、から成ることを特徴とする請求
項1記載の撮像系パラメータ測定法。
3. The method according to claim 1, wherein the second step is an input in the first step .
The change in the first procedure of calculating the imaging system parameters from the graphic information of the drawing figures, the detected condition if there is an error the error between the obtained imaging system parameters and true value in the first processing procedure a second processing procedure returns to one stage, according to claim 1, characterized in that it consists of a third procedure for outputting the imaging system parameters at the time the error is gone in the second procedure Imaging system parameter measurement method.
【請求項4】 第一の段階では、画像表示手段への描画
図形を平行線群の角度または少なくとも2つの異なる方
向からの直線の平行移動で変化させ、第二の段階の
の処理手順では、画像表示手段に描画された少なくとも
角度が異なる3つの平行線群の入力図形の消失点から、
または少なくとも2つの異なる方向から平行移動された
直線の交点の入力図形から画像中心を撮像系パラメー
タとして求めることを特徴とする請求項3記載の撮像系
パラメータ測定
In the first stage, drawing on an image display means is performed.
Draw the figure at the angle of a set of parallel lines or at least two different
Varied translation straight line from direction, the second step first
In the processing procedure of at least, at least
From the vanishing point of the input figure of the three parallel lines with different angles,
Or from at least two different intersections of the moved <br/> linear translation in the direction of the input figure, the imaging system images a center parameter
Imaging system parameter measuring method according to claim 3, wherein the benzalkonium determined as data.
【請求項5】 第の処理手順では、撮像系パラメータ
として求めた画像中心から撮像面上で直交する直線上の
等距離にある点を画像表示手段へ描画処理し、画像表示
手段上の該2直線の交点のなす角度と該交点からの前記
点の対応点の距離から視覚センサの位置姿勢を撮像系
パラメータとして計算することを特徴とする請求項3
たは4記載の撮像系パラメータ測定
5. In a first processing procedure , a point at an equidistant point on a straight line orthogonal to an image pickup plane from an image center obtained as an image pickup system parameter is drawn on an image display means, and the point on the image display means is drawn. imaging system the position and orientation of the distance of the corresponding point of the point from the angle and intersection point of the two lines of intersection the visual sensor
Claim 3, wherein the benzalkonium be calculated as a parameter or
Or the method of measuring imaging system parameters according to 4 .
【請求項6】 画像表示手段への描画図形である線分も
しくは点もしくは図形を視覚センサの入力図形として
出する処理を、画像表示手段への描画図形を反転表示も
しくは明度変化させて複数枚の画像の差分処理で行うこ
とを特徴とする請求項3または請求項4または請求項5
に記載の撮像系のパラメータ測定法。
6. A process for detecting a line segment , a point, or a graphic which is a graphic to be drawn on an image display means as an input graphic of a visual sensor, by inverting a graphic to be displayed on the image display means or changing brightness. 6. The method according to claim 3, wherein the difference processing is performed on a plurality of images.
3. A method for measuring parameters of an imaging system according to item 1.
JP06065894A 1994-03-30 1994-03-30 Imaging system parameter measurement method and device Expired - Lifetime JP3315240B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06065894A JP3315240B2 (en) 1994-03-30 1994-03-30 Imaging system parameter measurement method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06065894A JP3315240B2 (en) 1994-03-30 1994-03-30 Imaging system parameter measurement method and device

Publications (2)

Publication Number Publication Date
JPH07270124A JPH07270124A (en) 1995-10-20
JP3315240B2 true JP3315240B2 (en) 2002-08-19

Family

ID=13148663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06065894A Expired - Lifetime JP3315240B2 (en) 1994-03-30 1994-03-30 Imaging system parameter measurement method and device

Country Status (1)

Country Link
JP (1) JP3315240B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6490541B1 (en) * 1999-06-25 2002-12-03 Mitutoyo Corporation Method and apparatus for visual measurement
US6710765B1 (en) 1999-10-05 2004-03-23 Nippon Telegraph And Telephone Corporation Input device of 3-D translation and rotation and its method and recording medium
JP4304997B2 (en) * 2003-02-06 2009-07-29 株式会社日立製作所 Multi-camera video composition display device
JP4340923B2 (en) 2007-02-23 2009-10-07 セイコーエプソン株式会社 Projector, program, and information storage medium
JP2013243621A (en) * 2012-05-22 2013-12-05 Toshiba Corp Electronic device, electronic device control method, control program, and image display device

Also Published As

Publication number Publication date
JPH07270124A (en) 1995-10-20

Similar Documents

Publication Publication Date Title
US8432395B2 (en) Method and apparatus for surface contour mapping
US7860295B2 (en) Measuring method and measuring unit for determining the spatial position of a wheel rim as well as a wheel alignment measuring system
JP5334835B2 (en) Method and system for measuring shape of reflecting surface
JP4245963B2 (en) Method and system for calibrating multiple cameras using a calibration object
JP3511450B2 (en) Position calibration method for optical measuring device
US8526705B2 (en) Driven scanning alignment for complex shapes
CN109163657B (en) Round target pose detection method based on binocular vision three-dimensional reconstruction
CN101329764B (en) Method for positioning video camera using two arbitrary coplane circles
US11346666B2 (en) System and method for measuring a displacement of a mobile platform
Pedersini et al. Accurate and simple geometric calibration of multi-camera systems
CN111123242B (en) Combined calibration method based on laser radar and camera and computer readable storage medium
CN111256591A (en) External parameter calibration device and method for structured light sensor
JPH06137840A (en) Automatic calibration device for visual sensor
JP2018522240A (en) Method for measuring artifacts
TW200422754A (en) Method for determining the optical parameters of a camera
CN115187612A (en) Plane area measuring method, device and system based on machine vision
JP3315240B2 (en) Imaging system parameter measurement method and device
CN111220118B (en) Laser range finder based on visual inertial navigation system and range finding method
CN111754584A (en) Remote large-field-of-view camera parameter calibration system and method
CN112233186A (en) Equipment air tightness detection camera self-calibration method based on image perception
US8102516B2 (en) Test method for compound-eye distance measuring apparatus, test apparatus, and chart used for the same
TW200422755A (en) Method for determining the optical parameters of a camera
CN109239901A (en) A kind of micro imaging system focusing plane Fast Calibration, focusing localization method and device
CN111707446B (en) Method and system for adjusting alignment of light spot center and detector receiving surface center
CN115290008A (en) Angle calibration algorithm of image measurement collimator

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090607

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090607

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100607

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100607

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110607

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120607

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130607

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140607

Year of fee payment: 12

EXPY Cancellation because of completion of term