JPH07270124A - Method and apparatus for measurement of imaging system parameter - Google Patents

Method and apparatus for measurement of imaging system parameter

Info

Publication number
JPH07270124A
JPH07270124A JP6060658A JP6065894A JPH07270124A JP H07270124 A JPH07270124 A JP H07270124A JP 6060658 A JP6060658 A JP 6060658A JP 6065894 A JP6065894 A JP 6065894A JP H07270124 A JPH07270124 A JP H07270124A
Authority
JP
Japan
Prior art keywords
image display
image
visual sensor
imaging system
system parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6060658A
Other languages
Japanese (ja)
Other versions
JP3315240B2 (en
Inventor
Kouichi Katou
晃市 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP06065894A priority Critical patent/JP3315240B2/en
Publication of JPH07270124A publication Critical patent/JPH07270124A/en
Application granted granted Critical
Publication of JP3315240B2 publication Critical patent/JP3315240B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To easily install an object, to be tested, for an imaging-system parameter measurement, to measure and process the object, to be tested, at high speed and to avoid a measuring error or the like being propagated to a processed result. CONSTITUTION:An image display device 1 which is flat and in which pixels are arranged with high accuracy is installed in front of a visual sensor 2 for an object to be measured. Thereby, the object to be measured is installed with high flexibility and easily. On the basis of input information from the visual sensor 2, a graphic form on the image display device 1 is changed sequentially, and an imaging-system parameter is computed on the basis of geometric information on an observed graphic form by the visual sensor 2 and on the graphic form displayed on the image display device 1. By means of a purely geometrical computation in this manner, the convergence of a solution, the problem of an initial value and the like are eliminated, and the solution can be found at one blow. In addition, when the image display device 1 is used, the graphic form can be detected by processing only the difference between a plurality of images by an inverting display, a brightness change or the like, the detection accuracy of the graphic form is enhanced, an error is reduced, and the influence of the error on a processed result can be reduced.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、視覚センサを入力手段
として得られる情報から、実環境中において計測及び作
業を行う上で必要となる当該視覚センサの位置姿勢情
報、画像中心等の撮像系パラメータ等を算出する方法と
装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an imaging system such as position and orientation information of the visual sensor, image center, etc., which is necessary for performing measurement and work in an actual environment from information obtained using the visual sensor as an input means. The present invention relates to a method and apparatus for calculating parameters and the like.

【0002】[0002]

【従来の技術】通常、撮像系パラメータを算出するため
に用いられる手法は、テストパタンとして空間中の既知
の位置に配置した複数の点あるいは線分を検出し、射影
幾何学の問題として計算するものである。
2. Description of the Related Art Generally, a method used to calculate an imaging system parameter is to detect a plurality of points or line segments arranged at known positions in space as a test pattern and calculate them as a problem of projective geometry. It is a thing.

【0003】この場合、歪みがなく理想的な撮像系であ
れば純粋な幾何学問題として扱えるのであるが、現実に
はレンズの歪曲収差や撮像素子の歪み等が影響し誤差を
もたらす事になる。歪みによる誤差を解決するために用
いられてきた手法は、撮像系モデルに歪モデルを加え、
算出された撮像系モデルと実際の入力画像との誤差を最
小にするように各パラメータを反復計算する方法であっ
た。
In this case, an ideal image pickup system having no distortion can be treated as a pure geometrical problem, but in reality, the distortion aberration of the lens, the distortion of the image pickup element, or the like causes an error. . The method that has been used to solve the error due to distortion is to add a distortion model to the imaging system model,
This is a method of iteratively calculating each parameter so as to minimize the error between the calculated imaging system model and the actual input image.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、この方
法では試験対象であるテストパタンの配置や撮像モデル
に対する初期値の与え方が解の収束に影響する。ここ
で、適切な初期値は完全に未知であるため安定な結果を
得ることは難かしい。通常は、初期値として理想的な歪
みの無いモデルを設定するが、広角レンズや、魚眼レン
ズといった歪みの強い光学系では、解の収束が期待でき
ず適用は困難である。また、歪が大きいほど反復計算に
時間を要する。
However, in this method, the arrangement of the test pattern to be tested and the way of giving the initial value to the imaging model influence the convergence of the solution. Here, it is difficult to obtain a stable result because the appropriate initial value is completely unknown. Normally, an ideal model without distortion is set as an initial value, but it is difficult to apply it to an optical system with a strong distortion such as a wide-angle lens or a fisheye lens because the solution cannot be expected to converge. In addition, the larger the distortion, the longer iterative calculation takes.

【0005】さらに、点や線分の検出は適切な二値化処
理を必要とし、入力画像にノイズを伴う場合は十分な精
度が得られない問題がある。また、これらの検出には量
子化誤差が含まれるため、これも計算結果に影響を及ぼ
す問題がある。
Furthermore, the detection of points and line segments requires an appropriate binarization process, and there is a problem that sufficient accuracy cannot be obtained when the input image is accompanied by noise. Further, since these detections include a quantization error, this also has a problem of affecting the calculation result.

【0006】試験対象であるテストパタンの設置にも厳
密な精度が必要とされ、この精度も直接、結果に影響す
る。よって高精度を得ようとすれば測定の簡易性は乏し
いものとなる。
Strict accuracy is also required for setting the test pattern to be tested, and this accuracy also directly affects the result. Therefore, if high accuracy is sought, the simplicity of measurement becomes poor.

【0007】本発明の目的は、上記従来の手法において
問題とされていた試験対象設置の容易性、処理の高速
性、計測誤差等の処理結果への伝搬等の問題点を解決し
た撮像系パラメータ測定法とその装置を提供することに
ある。
An object of the present invention is to solve the problems of the conventional method, such as the ease of setting a test object, the high speed of processing, and the problem of propagation of measurement error to the processing result. It is to provide a measuring method and its device.

【0008】[0008]

【課題を解決するための手段】上記の目的を達成するた
め、請求項1の発明の撮像系パラメータ測定法では、平
面かつ高精度な画素配列を有する画像表示手段を計測対
象である視覚センサの前方に設置して該視覚センサによ
り撮影し、該視覚センサに観測される画像表示手段上の
描画図形を情報としてその図形を変化させる段階と、該
視覚センサの入力図形と画像表示装置上の描画図形の情
報より視覚センサの空間中での位置姿勢と、レンズ及び
撮像素子を含む撮像系に起因するパラメータを決定する
段階を有し、上記段階を一回または複数回繰り返す。
In order to achieve the above object, in the image pickup system parameter measuring method according to the first aspect of the invention, an image display means having a plane and highly accurate pixel array is used as a measuring object of a visual sensor. A step of installing the image in front of the visual sensor, taking an image with the visual sensor, and changing the figure on the image display means observed by the visual sensor as information; The method includes the step of determining the position and orientation of the visual sensor in space and the parameter caused by the image pickup system including the lens and the image pickup element from the information of the figure, and the above step is repeated once or plural times.

【0009】また、請求項2の発明では、平面かつ高精
度な画素配列を有し測定対象である視覚センサの前方に
設置した画像表示手段と、前記画像表示手段の表示画面
上に図形を描画するとともに該描画図形を前記視覚セン
サより入力して該描画図形と該入力図形から視覚センサ
の空間中での位置姿勢とレンズ及び撮像素子を含む撮像
系に起因するパラメータを決定する計算処理手段と、を
有する装置構成とする。
According to the second aspect of the present invention, the image display means having a plane and highly accurate pixel array is installed in front of the visual sensor to be measured, and a graphic is drawn on the display screen of the image display means. And a calculation processing means for inputting the drawn figure from the visual sensor, and determining the position and orientation of the visual sensor in the space and the parameters caused by the image pickup system including the lens and the image pickup element from the drawn figure and the input figure. The device configuration has ,.

【0010】また、請求項3の発明では、請求項1の方
法において、パラメータを決定する段階を、画像表示手
段へ図形を描画し視覚センサにてその図形を検出する第
1の処理手順と、第1の処理手順における図形情報から
撮像系パラメータを計算する第2の処理手順と、第2の
処理手順で得られた撮像系パラメータと真値との誤差を
検出し誤差があれば条件を変えて第1の処理手順に戻る
第3の処理手順と、第3の処理手順での誤差が無くなっ
た時点で撮像系パラメータを出力する第4の処理手順
と、で構成する。
According to a third aspect of the invention, in the method of the first aspect, the step of determining the parameters includes a first processing procedure of drawing a figure on the image display means and detecting the figure with the visual sensor. The second processing procedure for calculating the imaging system parameter from the graphic information in the first processing procedure, and the error between the imaging system parameter and the true value obtained in the second processing procedure are detected, and if there is an error, the condition is changed. And a third processing procedure for returning to the first processing procedure and a fourth processing procedure for outputting the imaging system parameter when the error in the third processing procedure disappears.

【0011】また、請求項4の発明では、上記請求項3
の発明において、第2の処理手順を、画像表示手段に少
なくとも2組の平行線群を表示して検出した各組の直線
の交点から画像中心を求めるものとする。
According to the invention of claim 4, the above-mentioned claim 3 is adopted.
In the present invention, in the second processing procedure, the image center is obtained from the intersection of the straight lines of each set which is displayed by displaying at least two sets of parallel line groups on the image display means.

【0012】また、請求項5の発明では、上記請求項3
の発明において、第2の処理手順が、撮像系パラメータ
として求めた画像中心から撮像面上で直交する直線上の
等距離にある点を画像表示手段へ描画処理し、画像表示
手段上の該2直線の交点のなす角度と該交点からの前記
点の対応点の距離から視覚センサの位置姿勢を計算する
ものであることを特徴とする請求項3記載の撮像系パラ
メータ測定装置。
According to the invention of claim 5, the above-mentioned claim 3 is used.
In the invention, the second processing procedure draws on the image display means points equidistant on a straight line orthogonal to the image plane from the image center obtained as the imaging system parameter, and the points on the image display means 4. The imaging system parameter measuring device according to claim 3, wherein the position and orientation of the visual sensor are calculated from the angle formed by the intersection of the straight lines and the distance of the corresponding point from the intersection.

【0013】さらに、請求項6の発明では、上記の各測
定法において、線分もしくは点もしくは図形を検出する
処理を、画像表示手段への描画図形を反転表示もしくは
明度変化させて複数枚の画像の差分処理で行うこととす
る。
Further, in the sixth aspect of the present invention, in each of the above measuring methods, the process of detecting a line segment, a point or a figure is performed by reversing the displayed figure on the image display means or changing the brightness of the plurality of images. The difference processing will be performed.

【0014】[0014]

【作用】本発明の撮像系パラメータ測定法とその装置で
は、試験対象である画像表示手段の設置を、測定対象の
視覚センサの前方に配置するのみでよくすることによ
り、設置の融通性を非常に高いものとして、試験対象設
置の容易性を実現する。
In the imaging system parameter measuring method and the apparatus therefor according to the present invention, the installation of the image display means to be tested need only be arranged in front of the visual sensor of the object to be measured. As a result, it is easy to install the test object.

【0015】また、純粋な幾何学計算により、撮像系パ
ラメータを求めることにより、従来問題であった解の収
束性、初期値問題等を無くし、一撃的に解を求める事を
可能として、処理の高速性を実現する。
Further, by obtaining the imaging system parameters by pure geometric calculation, it is possible to eliminate the convergence of the solution, the initial value problem, etc., which have been problems in the past, and to obtain the solution in a single stroke. Achieve high speed.

【0016】さらに、画像表示手段により試験対象等の
図形や線分、点を表示することで、それらの反転表示、
明度変化を可能とし、複数枚の画像による差分処理のみ
で図形等を検出することにより、図形等の検出精度を向
上させて誤差を減少させ、図形検出誤差による処理結果
への影響を軽減した撮像系パラメータの測定を可能とす
る。
Further, by displaying figures, line segments, and points of the test object or the like by the image display means, they can be displayed in reverse,
By changing the brightness and detecting figures etc. only by the difference processing with multiple images, the accuracy of figure detection etc. is improved and the error is reduced, and the influence of the figure detection error on the processing result is reduced. Allows measurement of system parameters.

【0017】[0017]

【実施例】以下、本発明の実施例を図面により詳細に説
明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0018】図1は、本発明の一実施例を説明する図で
あって、1は試験対象である画像表示装置、2は測定対
象である視覚センサ、3は視覚センサ2及び画像表示装
置1からの入力を受け取って処理を行う計算処理装置、
4は視覚センサ2の入力を表示するモニタである。画像
表示装置1としては例えば液晶等のように平面かつ高精
度な画像表示素子配列を有するものとし、その設置に関
しては、視覚センサ2に対して適度に傾斜を保つ様にモ
ニタ4を見ながら設置する。
FIG. 1 is a diagram for explaining an embodiment of the present invention, in which 1 is an image display device as a test object, 2 is a visual sensor as a measurement object, 3 is a visual sensor 2 and an image display device 1. A computing device that receives and processes input from
Reference numeral 4 is a monitor that displays the input of the visual sensor 2. The image display device 1 is assumed to have a flat and highly accurate image display element array such as a liquid crystal, and is installed while looking at the monitor 4 so as to keep an appropriate inclination with respect to the visual sensor 2. To do.

【0019】図2は本実施例の処理手順概略を示す図で
ある。<1>は画像表示装置1へ図形を描画し視覚セン
サ2にてその図形を検出する処理、<2>は図形検出処
理<1>における図形情報から撮像系パラメータを計算
し取得する処理、<3>は撮像系パラメータ取得処理<
2>で得られた撮像系パラメータと真値との誤差を検出
する処理、<4>は誤差検出処理<3>での誤差が無く
なった時点で撮像系パラメータを出力する処理結果出力
処理である。
FIG. 2 is a diagram showing the outline of the processing procedure of this embodiment. <1> is a process of drawing a graphic on the image display device 1 and detecting the graphic with the visual sensor 2, <2> is a process of calculating and acquiring an imaging system parameter from the graphic information in the graphic detection process <1>, <3> is the imaging system parameter acquisition process <
2> is a process of detecting an error between the imaging system parameter and the true value, and <4> is a process result output process of outputting the imaging system parameter when the error in the error detection process <3> is eliminated. .

【0020】図3は図2中の図形検出処理<1>の具体
例を示す処理手順の構成図である。5はレンズ歪検出処
理、6は通常レンズ画像中心検出処理、7は歪曲収差中
心検出処理、8は描画処理、9は図形検出処理、10は
図形判定処理である。以下、各処理について説明する。
FIG. 3 is a block diagram of a processing procedure showing a concrete example of the figure detection processing <1> in FIG. 5 is a lens distortion detection process, 6 is a normal lens image center detection process, 7 is a distortion aberration center detection process, 8 is a drawing process, 9 is a figure detection process, and 10 is a figure determination process. Hereinafter, each process will be described.

【0021】図5はレンズ歪検出処理5を説明するため
の図であって、13,14は視覚センサからの入力画像
である。レンズ歪検出処理5では、画像表示装置1上に
直線群を描画し、これを図1の視覚センサ2により観測
する。この時、図5(a)に示す入力画像13の様に全
ての直線が完全な直線として観測される場合は通常画像
レンズ中心検出処理6に、図5(b)に示す入力画像1
4の様に曲線として観測される場合は歪曲収差中心検出
処理7へと移行する。
FIG. 5 is a diagram for explaining the lens distortion detection processing 5, in which 13 and 14 are input images from the visual sensor. In the lens distortion detection process 5, a straight line group is drawn on the image display device 1 and is observed by the visual sensor 2 in FIG. At this time, when all the straight lines are observed as perfect straight lines as in the input image 13 shown in FIG. 5A, the normal image lens center detection processing 6 is performed, and the input image 1 shown in FIG.
When it is observed as a curve like 4, the process shifts to distortion aberration center detection processing 7.

【0022】図6は通常画像レンズ中心検出処理6を説
明するための図であって、図6(a)において16は画
像表示装置に描画された平行線群、15はその平行線群
16の消失点である。通常画像レンズ中心検出処理6で
は、任意の角度θで交差する平行線群16を描画し、各
々の平行線の消失点15を計算する。同様の処理を画像
表示装置1の視覚センサ2に対する角度を変更し3回行
う。
FIG. 6 is a diagram for explaining the normal image lens center detection processing 6, wherein in FIG. 6A, 16 is a group of parallel lines drawn on the image display device, and 15 is a group of parallel lines 16 thereof. It is a vanishing point. In the normal image lens center detection processing 6, a parallel line group 16 intersecting at an arbitrary angle θ is drawn, and a vanishing point 15 of each parallel line is calculated. The same process is performed three times while changing the angle of the image display device 1 with respect to the visual sensor 2.

【0023】図6(b)に示すように、この3回の処理
により得られた3組の消失点をそれぞれ15a,15
b,15cとし、画像表示装置1上での交差角をθa,
θb,θcとする。ここでθa〜θcの各交差角が90
度であるとすると、画像プレーンP上の一組の消失点に
対しCCDカメラの視点位置は、消失点を結んだ直線を
直径とする球の表面に限定できる。この球が3組独立に
設定でき、全ての球が交わる一点Oが視点位置となる。
よって画像プレーンP上に対し視点位置Oから下ろした
垂線の交わる点O’が画像中心である。また、OO’の
長さfが焦点距離となる。
As shown in FIG. 6 (b), three sets of vanishing points obtained by the three processings are set to 15a and 15 respectively.
b and 15c, the crossing angle on the image display device 1 is θa,
Let θb and θc. Here, each intersection angle of θa to θc is 90.
In terms of degrees, the viewpoint position of the CCD camera with respect to a set of vanishing points on the image plane P can be limited to the surface of a sphere having a straight line connecting the vanishing points as a diameter. Three sets of these spheres can be set independently, and a point O where all the spheres intersect is the viewpoint position.
Therefore, the point O ′ where the perpendicular line drawn from the viewpoint position O intersects on the image plane P is the image center. Further, the length f of OO 'is the focal length.

【0024】図7は歪曲収差中心検出処理7を説明する
ための図であって、17,18は視覚センサにより観測
される直線、19はそれらの直線の交点である。歪曲収
差中心検出処理7では、図7(a)に示すように直線1
7を平行移動しながら描画を繰り返し完全な直線18と
して観測される位置を検出する。図7(b)に示すよう
に、この処理を異なる方向から少なくとも二回以上行い
その交点19を求める。この交点19が歪の中心であ
り、すなわち画像中心となる。
FIG. 7 is a diagram for explaining the distortion aberration center detection processing 7, wherein 17 and 18 are straight lines observed by the visual sensor, and 19 is an intersection of these straight lines. In the distortion aberration center detection processing 7, as shown in FIG.
Drawing is repeated while moving 7 in parallel, and the position observed as a perfect straight line 18 is detected. As shown in FIG. 7B, this process is performed at least twice from different directions to obtain the intersection point 19 thereof. This intersection 19 is the center of distortion, that is, the center of the image.

【0025】図8は描画処理8、図形検出処理9、図形
判定処理10における目的とする描画図形を説明するた
めの図である。この一連の処理では、モニタ4上の画像
中心19から水平方向、垂直方向に等距離nに投影され
る対応点21〜24を画像表示装置1上に描画する。
FIG. 8 is a diagram for explaining a target drawing figure in the drawing process 8, the figure detecting process 9, and the figure judging process 10. In this series of processes, corresponding points 21 to 24 are projected on the image display device 1 from the image center 19 on the monitor 4 at equal distances n in the horizontal and vertical directions.

【0026】図9は描画処理8、図形検出処理9、図形
判定処理10における、図形描画手法を説明するための
図である。点21を例とすると、図9(a)に示す画像
表示装置1の任意の領域26を点滅させたとき、図8の
モニタ4上の点21でその変化が観測されれば領域26
が候補領域となり、そうでなければ、領域26以外の部
分が候補となる。さらに、図9(b)に示すように候補
領域となった画像表示装置1上の部分に対し領域2分割
をおこない同様に一方の領域27のみを点滅させ、候補
領域の限定を行う。上記処理を、複数回繰り返すことに
より、対応点21が決定される。同様の処理を点22〜
24について行う。
FIG. 9 is a diagram for explaining a graphic drawing method in the drawing processing 8, the graphic detection processing 9, and the graphic determination processing 10. Taking the point 21 as an example, when an arbitrary area 26 of the image display device 1 shown in FIG. 9A is blinked, if the change is observed at the point 21 on the monitor 4 in FIG.
Is a candidate area, and if not, a part other than the area 26 is a candidate area. Further, as shown in FIG. 9B, the area on the image display device 1 which has become the candidate area is divided into two areas, and similarly, only one area 27 is blinked to limit the candidate area. The corresponding point 21 is determined by repeating the above-mentioned processing a plurality of times. Do the same processing from point 22
Do about 24.

【0027】図10は画像表示装置1上での描画結果を
説明するための図であって、Pは画像表示装置1の表示
部分である。上記の処理の結果、図10(a)の画像表
示装置の表示部分Pに、モニタ4上の画像中心19と各
対応点21〜24が描画される。ここで、図10(b)
に示すように、点21と点19の画像表示装置1上での
距離をa、点22と点19の画像表示装置1上での距離
をb、点23と点19の画像表示装置1上での距離を
c、点24と点19の画像表示装置1上での距離をd、
点21と点23および点22と点24を結ぶ直線が交差
する角度をθとする。
FIG. 10 is a diagram for explaining a drawing result on the image display device 1, and P is a display portion of the image display device 1. As a result of the above processing, the image center 19 on the monitor 4 and the corresponding points 21 to 24 are drawn on the display portion P of the image display device of FIG. Here, FIG. 10B
As shown in, the distance between the points 21 and 19 on the image display device 1 is a, the distance between the points 22 and 19 on the image display device 1 is b, and the distance between the points 23 and 19 is on the image display device 1. , The distance on the image display device 1 between the points 24 and 19 is d,
The angle at which the straight lines connecting the points 21 and 23 and the points 22 and 24 intersect is θ.

【0028】図4は図2中の撮像系パラメータ取得処理
<2>の具体例を示す処理手順構成図である。撮像系パ
ラメータ取得処理<2>は、視点位置計算処理11と、
撮像系パラメータ導出処理12から成る。以下、これら
の各処理について説明する。
FIG. 4 is a processing procedure configuration diagram showing a specific example of the imaging system parameter acquisition processing <2> in FIG. The imaging system parameter acquisition process <2> includes the viewpoint position calculation process 11 and
It is composed of an imaging system parameter derivation process 12. Hereinafter, each of these processes will be described.

【0029】図11は視点位置計測の原理を説明するた
めの図である。視覚センサ2において、画像中心19か
ら等間隔に観測された点21〜24は、視覚センサ2の
3次元空間中での位置29を頂点とする円錐28の円錐
面上の点であり、点19は円錐の軸方向である。点21
と点23および点22と点24を結ぶ直線はこの円錐の
底面で直交する直線として投影される。ここで、視覚セ
ンサの受光素子からの出力について縦横比に差がある場
合、円錐ではなく楕円錐となる。
FIG. 11 is a diagram for explaining the principle of viewpoint position measurement. In the visual sensor 2, points 21 to 24 observed at equal intervals from the image center 19 are points on the conical surface of the cone 28 having the apex at the position 29 of the visual sensor 2 in the three-dimensional space. Is the axial direction of the cone. Point 21
And the line connecting point 23 and point 22 and point 24 are projected as straight lines orthogonal to each other on the bottom surface of this cone. Here, when there is a difference in the aspect ratio of the output from the light receiving element of the visual sensor, it is an elliptical cone instead of a cone.

【0030】図12は点21と点23を結んだ線分によ
る、視覚センサ視点位置推定を説明するための図であ
る。点29を頂点とする円錐または楕円錐は、図12
(a)に示すように、中心軸である点29と点19を結
ぶ直線を含む面で切断すると、その断面は三角形とな
り、中心軸は角の二点分線である。この条件から視点位
置29の存在範囲を求めると、図12(b)に示すよう
に、a>bとしたときに点21と点23を結んだ線分の
点23方向への延長上で点19から距離ab/(a−
b)の点30を中心とする半径ab/(a−b)の球g
1の表面となる。同様にして点21と点23を結んだ線
分についても球g2が設定できる。よって視点位置は、
図12(c)に示すようにこの2個の球の交わる円S上
に拘束される。
FIG. 12 is a diagram for explaining the visual sensor viewpoint position estimation by the line segment connecting the points 21 and 23. The cone or elliptical cone with the point 29 as the apex is shown in FIG.
As shown in (a), when cut by a plane including a straight line connecting the points 29 and 19 which are the central axes, the cross section becomes a triangle, and the central axis is an angle two-dotted line. When the existence range of the viewpoint position 29 is obtained from this condition, as shown in FIG. 12B, when a> b, the line segment connecting the points 21 and 23 is extended in the direction of the point 23, Distance from 19 ab / (a-
Sphere g with radius ab / (ab) centered on point 30 in b)
It becomes the surface of 1. Similarly, the sphere g2 can be set for the line segment connecting the points 21 and 23. Therefore, the viewpoint position is
As shown in FIG. 12 (c), it is constrained on the circle S where these two spheres intersect.

【0031】だだし、光軸に対して画像表示装置1が垂
直に置かれた場合、球gの半径が無限大となり視点位置
計算ができなくなる。この場合、画像表示装置1を傾け
て置くように指示を出し、再度、視点位置計算を行わせ
る方法、あるいは垂直位置のままでカメラパラメータを
計算する方法が考えられる。
However, when the image display device 1 is placed perpendicular to the optical axis, the radius of the sphere g becomes infinite, and the viewpoint position cannot be calculated. In this case, a method of instructing to place the image display device 1 at an angle and then performing the viewpoint position calculation again, or a method of calculating the camera parameters while keeping the vertical position is conceivable.

【0032】垂直位置のままで計算を行う場合には、従
来提案されている方法を適用することが可能であり、例
えば、下記のような手法が適用できる。
When the calculation is performed in the vertical position as it is, the conventionally proposed method can be applied. For example, the following method can be applied.

【0033】収差歪みが大きい場合の手法:Y.Nom
ura,H.Naruse,M.Sagara and
A.Ide.「Simple caliblatio
nalgorithm for high−disto
rtion−lens camera」(文献1:IE
EE Trans. on Pattern Anal
isys and Machin Intellige
nce,Vol PAMI−14,No.11,pp.
1095−1099,Nov.1992.)収差歪みが
小さい場合の手法:J.Weng.「Camera C
aliblation with Distortio
n Models and Accuracy Eva
luation」(文献2:IEEE Trans.
onPattern Analisys and Ma
chin Intelligence,Vol PAM
I−14,No.10,pp.965−980,Oc
t.1992.)ここで、従来手法において入力画像と
実際の3次元画像の対応決定は手作業で行う以外に方法
がなかった。この点に関して本手法では、描画と画像入
力を同時に行っているため、手作業で対応点決定をする
必要がなく、従来手法の問題を解決している。
Method when aberration distortion is large: Y. Nom
ura, H .; Naruse, M .; Sagara and
A. Ide. "Simple calibratio
nalgorithm for high-disto
region-lens camera ”(Reference 1: IE
EE Trans. on Pattern Anal
isys and Machine Intellige
nce, Vol PAMI-14, No. 11, pp.
1095-1099, Nov. 1992. ) Method when aberration distortion is small: J. Weng. "Camera C
calibration with Distortio
n Models and Accuracy Eva
luation ”(Reference 2: IEEE Trans.
onPattern Analysys and Ma
chin Intelligence, Vol PAM
I-14, No. 10, pp. 965-980, Oc
t. 1992. ) Here, in the conventional method, there is no method other than manually determining the correspondence between the input image and the actual three-dimensional image. With regard to this point, in the present method, since the drawing and the image input are simultaneously performed, it is not necessary to manually determine the corresponding points, and the problem of the conventional method is solved.

【0034】図13は点21と点23および点22と点
24を結ぶ直線が直角に観測されることを条件とした視
覚センサ視点位置推定を説明するための図である。この
二直線が直交するように観測される視点位置は、点19
を頂点とした長軸短軸比がcos(sin-1(tan
(θ/2))):1である楕円を底面とする楕円錐の表
面となる。この楕円錐の表面と前述した円は二点で交わ
り、この内画像表示装置の表面方向に位置する点29が
視覚センサの視点位置となる。以上の様にして、画像表
示装置1に対する視覚センサ2の結像点位置が計算可能
である。
FIG. 13 is a diagram for explaining the visual sensor viewpoint position estimation under the condition that the straight lines connecting the points 21 and 23 and the points 22 and 24 are observed at right angles. The viewpoint position observed so that these two straight lines intersect at right angles is point 19
The ratio of the major axis to the minor axis with c as the apex is cos (sin −1 (tan
(Θ / 2))): The surface of an elliptical cone whose bottom surface is an ellipse of 1. The surface of this elliptical cone and the above-mentioned circle intersect at two points, and the point 29 located in the surface direction of the inner image display device becomes the viewpoint position of the visual sensor. As described above, the image forming point position of the visual sensor 2 with respect to the image display device 1 can be calculated.

【0035】処理<3>は、処理<2>で求めた視覚セ
ンサの結像点位置の誤差を検証する処理である。具体的
には、画像表示装置に別の図形を描画し、ここから計算
されるこの実際の図形形状と視覚センサ情報のみから計
算した図形形状との差により検証するものとする。ここ
で誤差が検出された場合、画像中心等のパラメータを変
更し図2の処理<1>へもどり、誤差が無ければ、撮像
素子上の各点について、光軸を天頂とした時の極座標変
換テーブルを計算し処理<4>へ移行する。極座標変換
テーブルの計算は、処理8〜10と同様の操作によって
可能である。これは、図15に示すように画像表示装置
の液晶等の表示面上の任意の位置を点滅させた場合、モ
ニタおよび、表示面上の位置関係から光軸を天頂とした
時、点滅方向の緯度、経度が一意に求まることを原理と
している。
The process <3> is a process for verifying the error in the image forming point position of the visual sensor obtained in the process <2>. Specifically, another figure is drawn on the image display device, and verification is performed by the difference between this actual figure shape calculated from this figure and the figure shape calculated only from the visual sensor information. If an error is detected here, the parameters such as the image center are changed and the process returns to the process <1> of FIG. 2. If there is no error, the polar coordinate conversion is performed for each point on the image sensor when the optical axis is the zenith. The table is calculated and the process <4> is entered. The calculation of the polar coordinate conversion table can be performed by the same operation as the processing 8 to 10. This is because when an arbitrary position on the display surface such as a liquid crystal of the image display device is blinked as shown in FIG. 15, when the optical axis is set to the zenith from the positional relationship on the monitor and the display surface, the blinking direction is changed. The principle is that the latitude and longitude are uniquely obtained.

【0036】処理<4>では、処理<3>で得られた結
果を利用し撮像系パラメータを計算する。ここで言う撮
像系パラメータとは、焦点距離、レンズ収差、画像中心
等の光学パラメータおよび、実空間中でのカメラの位
置、姿勢といった外部パラメータである。この内、画像
中心に関しては導出済みであるため、焦点距離、レンズ
歪み等を求めればよい。これは、先に示した文献2に示
されるような光学モデルに対し、導出した変換系テーブ
ルがフィティングするよう、光学モデルの各係数を求め
ることで行う。
In process <4>, the imaging system parameters are calculated using the result obtained in process <3>. The imaging system parameters mentioned here are optical parameters such as focal length, lens aberration, and image center, and external parameters such as the position and orientation of the camera in real space. Among these, since the image center has already been derived, the focal length, lens distortion, and the like may be obtained. This is performed by obtaining each coefficient of the optical model so that the derived conversion system table fits to the optical model as shown in the above-mentioned reference 2.

【0037】また、外部パラメータに関しては、画像表
示装置の表示面とカメラ位置の関係が求まっているの
で、実空間中の基準となる位置からの表示面の方向、距
離、姿勢を正確に実計測することで導出できる。
Regarding the external parameters, since the relationship between the display surface of the image display device and the camera position is obtained, the direction, distance, and attitude of the display surface from the reference position in the real space can be accurately measured. It can be derived by doing.

【0038】図14において点30,21,23を結ぶ
三角形の頂点角θ1と、点30,22,24を結ぶ三角
形の頂点角θ2について、各々の二等分角の正接を計算
することで撮像素子の縦横比の計算が可能である。
In FIG. 14, an image is obtained by calculating the tangents of the bisectors of a triangle connecting the points 30, 21, 23 and a vertex angle θ2 of the triangle connecting the points 30, 22, 24. It is possible to calculate the aspect ratio of the device.

【0039】よって、必要とする撮像系パラメータが導
出可能となる。
Therefore, the necessary imaging system parameters can be derived.

【0040】以上までに述べた各処理において、画像表
示装置に表示された図形等を検出する場合、線分もしく
は点もしくは図形の検出処理を、画像表示手段への描画
図形を反転表示もしくは明度変化させて得られる複数枚
の画像の差分処理で行うことによって、容易に、かつ検
出誤差を減少させることができる。
In the processes described above, when detecting a figure or the like displayed on the image display device, the process of detecting a line segment, a point or a figure is performed by reversing the displayed figure or changing the brightness. By performing the difference processing of the plurality of images obtained in this way, the detection error can be easily reduced.

【0041】以上で述べたように、本実施例は、画像表
示装置を視覚センサの前方に適度に傾けて設置するこ
と、視覚センサからの入力情報により画像表示装置上の
図形等を逐次変更し、視覚センサの観測図形等および画
像表示装置上の表示図形等両方の幾何学情報から撮像系
パラメータの計算を行うこと、図形等検出時は、表示図
形等の複数回の反転表示あるいは明度変化を行いその差
分画像を検出すること、を主要な特徴とする。
As described above, in the present embodiment, the image display device is installed in front of the visual sensor with an appropriate inclination, and the figure etc. on the image display device is sequentially changed by the input information from the visual sensor. , Calculate the imaging system parameters from the geometric information of both the visual figure of the visual sensor and the visual figure on the image display device. The main feature is that the difference image is detected.

【0042】このような特徴的な構成によって、従来技
術とは、試験対象である画像表示装置の設置に融通性が
高いこと、撮像系に強い収差歪あるいは画像の縦横比が
異なる場合においても計測可能であり、計算の高速かつ
高精度を実現していること、ノイズ状況下においても、
高精度に図形検出が可能であること、というような異な
る効果が得られる。
Due to such a characteristic configuration, measurement is possible even in the case where the image display device to be tested is highly flexible from the prior art, strong aberration distortion in the image pickup system or the aspect ratio of the image is different. It is possible, it realizes high speed and high accuracy of calculation, and even in a noisy situation,
Different effects such as high-precision figure detection are obtained.

【0043】なお、上記の実施例の処理を同様の撮像系
に対し複数回繰り返せば、さらなる精度向上を図ること
ができ、また入力を複数の視覚センサとすれば視覚セン
サ相互の位置関係も測定が可能であるから、視覚センサ
による3次元計測あるいは視覚センサによるナビゲーシ
ョンシステムにおいても、精度を向上させる効果があ
る。
If the processing of the above embodiment is repeated a plurality of times for the same image pickup system, the accuracy can be further improved, and if a plurality of visual sensors are used as inputs, the positional relationship between the visual sensors can be measured. Therefore, there is an effect of improving accuracy even in the three-dimensional measurement by the visual sensor or the navigation system by the visual sensor.

【0044】[0044]

【発明の効果】以上説明したように、請求項1、請求項
2に代表される本発明の撮像系パラメータ測定法とその
装置によれば、純粋な幾何学計算のみで撮像パラメータ
の導出が可能であり、解の収束性、初期値問題等は無
く、一撃的に解を求める事ができ、処理の高速性が得ら
れる。また、試験のための画像表示手段の設置は、視覚
センサに対して任意に配置するのみでよく、設置の融通
性が非常に高く、試験対象設置の容易性が得られる。
As described above, according to the imaging system parameter measuring method and the apparatus thereof according to the present invention represented by claims 1 and 2, the imaging parameters can be derived only by pure geometric calculation. Therefore, there is no solution convergence, initial value problem, etc., and the solution can be obtained in one shot, and the processing speed is high. Further, the image display means for the test need only be arbitrarily arranged with respect to the visual sensor, the flexibility of the installation is very high, and the test object can be easily installed.

【0045】また、請求項1、請求項2に代表される本
発明、特に請求項6の発明によれば、画像表示手段を用
いたことで、その表示を反転表示、明度変化させること
が可能であるため、複数枚の画像による差分処理のみで
図形等の検出ができ、図形等の検出精度が向上し、かつ
受光素子毎の対応領域も検出可能であるので、量子化誤
差も少ない。従って、光学系歪、あるいは量子化誤差、
図形検出誤差による処理結果への影響を軽減した撮像系
パラメータの測定が可能となる。
Further, according to the present invention represented by claims 1 and 2, particularly according to the invention of claim 6, by using the image display means, the display can be reversed and the brightness can be changed. Therefore, the figure or the like can be detected only by the difference processing using a plurality of images, the detection accuracy of the figure or the like can be improved, and the corresponding region of each light receiving element can be detected, so that the quantization error is small. Therefore, optical system distortion, or quantization error,
It is possible to measure the imaging system parameters while reducing the influence of the figure detection error on the processing result.

【0046】また、請求項3の発明によれば、特に、誤
差検出を行い、誤差の無い撮像系パラメータを出力する
ので、一層の精度向上が図れる。
According to the third aspect of the invention, in particular, the error is detected and the imaging system parameter having no error is output, so that the accuracy can be further improved.

【0047】また、請求項4の発明によれば、特に、撮
像系パラメータの一つである画像中心が容易に求められ
る。
According to the fourth aspect of the invention, in particular, the image center, which is one of the imaging system parameters, can be easily obtained.

【0048】さらに、請求項5の発明によれば、特に、
視覚センサの位置、姿勢に関する撮像系パラメータが容
易に求められる。
Further, according to the invention of claim 5, in particular,
Imaging system parameters relating to the position and orientation of the visual sensor can be easily obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示す構成図FIG. 1 is a configuration diagram showing an embodiment of the present invention.

【図2】上記実施例の処理手順概略を示す図FIG. 2 is a diagram showing an outline of a processing procedure of the above embodiment.

【図3】図2の処理手順における図形検出処理の具体例
を示す図
FIG. 3 is a diagram showing a specific example of figure detection processing in the processing procedure of FIG. 2;

【図4】図2の処理手順における撮像系パラメータ取得
処理の具体例を示す図
FIG. 4 is a diagram showing a specific example of imaging system parameter acquisition processing in the processing procedure of FIG. 2;

【図5】(a),(b)は図3の図形検出処理における
上記レンズ歪検出処理を説明するための図
5A and 5B are views for explaining the lens distortion detection process in the figure detection process of FIG.

【図6】(a),(b)は図3の図形検出処理における
通常レンズ画像中心検出処理を説明するための図
6A and 6B are views for explaining a normal lens image center detection process in the figure detection process of FIG. 3;

【図7】(a),(b)は図3の図形検出処理における
歪曲中心推定処理を説明するための図
7A and 7B are views for explaining distortion center estimation processing in the figure detection processing of FIG.

【図8】図3の図形検出処理における描画処理、図形検
出処理、図形判定処理において目標となる図形を説明す
るための図
8 is a diagram for explaining a target figure in the drawing process, the figure detecting process, and the figure determining process in the figure detecting process of FIG. 3;

【図9】(a),(b)は図3の図形検出処理中の描画
処理、図形検出処理、図形判定処理における図形描画手
法を説明するための図
9A and 9B are diagrams for explaining a graphic drawing method in the drawing processing, the graphic detection processing, and the graphic determination processing during the graphic detection processing of FIG.

【図10】(a),(b)は図9の図形描画手法による
描画画像を説明するための図
10A and 10B are diagrams for explaining a drawn image by the graphic drawing method of FIG. 9.

【図11】図4の撮像系パラメータ取得処理における視
点位置計測の原理を説明するための図
11 is a diagram for explaining the principle of viewpoint position measurement in the imaging system parameter acquisition processing of FIG.

【図12】(a),(b),(c)は図4の撮像系パラ
メータ取得処理における視覚センサ視点位置推定を説明
するための図
12A, 12B, and 12C are views for explaining visual sensor viewpoint position estimation in the imaging system parameter acquisition processing of FIG.

【図13】図4の撮像系パラメータ取得処理における具
体的な条件による視覚センサ視点位置推定を説明するた
めの図
13 is a diagram for explaining visual sensor viewpoint position estimation under specific conditions in the imaging system parameter acquisition process of FIG.

【図14】図2の処理結果出力処理における出力画像の
縦横比の導出を説明するための図
14 is a diagram for explaining the derivation of the aspect ratio of the output image in the processing result output processing of FIG.

【図15】図2の誤差検出処理における極座標変換テー
ブルの計算の原理を説明するための図
15 is a diagram for explaining the principle of calculation of a polar coordinate conversion table in the error detection process of FIG.

【符号の説明】[Explanation of symbols]

1…画像表示装置 2…視覚センサ 3…計算処理装置 4…モニタ 5…レンズ歪検出処理 6…通常レンズ画像中心検出処理 7…歪曲収差中心検出処理 8…描画処理 9…図形検出処理 10…図形判定処理 11…視点位置計算処理 12…撮像系パラメータ導出処理 13,14…視点センサからの入力画像 15…消失点 16…平行線群 17,18…直線 19…直線の交点(画像中心) 21〜24…画像中心より等距離に観測される点 26,27…点滅領域 28…円錐 29…視覚センサの視点位置 DESCRIPTION OF SYMBOLS 1 ... Image display device 2 ... Visual sensor 3 ... Calculation processing device 4 ... Monitor 5 ... Lens distortion detection processing 6 ... Normal lens image center detection processing 7 ... Distortion aberration center detection processing 8 ... Drawing processing 9 ... Graphic detection processing 10 ... Graphic Judgment process 11 ... Viewpoint position calculation process 12 ... Imaging system parameter derivation process 13, 14 ... Input image from viewpoint sensor 15 ... Vanishing point 16 ... Parallel line group 17, 18 ... Straight line 19 ... Straight line intersection (image center) 21 to 21 24 ... Points observed equidistant from the center of the image 26, 27 ... Flashing area 28 ... Cone 29 ... Viewpoint position of visual sensor

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 平面かつ高精度な画素配列を有する画像
表示手段を計測対象である視覚センサの前方に設置して
該視覚センサにより撮影し、該視覚センサに観測される
画像表示手段上の描画図形を情報としてその図形を変化
させる段階と、該視覚センサの入力図形と画像表示装置
上の描画図形の情報より視覚センサの空間中での位置姿
勢と、レンズ及び撮像素子を含む撮像系に起因するパラ
メータを決定する段階を有し、上記段階を一回または複
数回繰り返すことを特徴とする撮像系パラメータ測定
法。
1. An image display means having a flat and highly accurate pixel array is installed in front of a visual sensor to be measured, and an image is taken by the visual sensor, and drawing on the image display means observed by the visual sensor. Due to the step of changing the figure by using the figure as information, the position and orientation of the visual sensor in the space from the information of the input figure of the visual sensor and the drawn figure on the image display device, and the imaging system including the lens and the image sensor. A method for measuring an imaging system parameter, comprising the step of determining a parameter to be performed, and repeating the above steps once or a plurality of times.
【請求項2】 平面かつ高精度な画素配列を有し測定対
象である視覚センサの前方に設置した画像表示手段と、
前記画像表示手段の表示画面上に図形を描画するととも
に該描画図形を前記視覚センサより入力して該描画図形
と該入力図形から視覚センサの空間中での位置姿勢とレ
ンズ及び撮像素子を含む撮像系に起因するパラメータを
決定する計算処理手段と、を有することを特徴とする撮
像系パラメータ測定装置。
2. An image display means having a flat and highly accurate pixel array and installed in front of a visual sensor to be measured,
An image is drawn on the display screen of the image display means, and the drawn figure is input from the visual sensor, and the drawing figure and the position and orientation of the visual sensor in space from the input figure, and an image including a lens and an image sensor. An image pickup system parameter measuring device, comprising: a calculation processing unit that determines a parameter caused by the system.
【請求項3】 パラメータを決定する段階が、画像表示
手段へ図形を描画し視覚センサにてその図形を検出する
第1の処理手順と、第1の処理手順における図形情報か
ら撮像系パラメータを計算する第2の処理手順と、第2
の処理手順で得られた撮像系パラメータと真値との誤差
を検出し誤差があれば条件を変えて第1の手順に戻る第
3の処理手順と、第3の処理手順での誤差が無くなった
時点で撮像系パラメータを出力する第4の処理手順と、
から成ることを特徴とする請求項1記載の撮像系パラメ
ータ測定法。
3. The step of deciding the parameter includes a first processing procedure for drawing a figure on the image display means and detecting the figure with a visual sensor, and calculating an imaging system parameter from the figure information in the first processing procedure. The second processing procedure for
The error between the imaging system parameter and the true value obtained in the processing procedure is detected, and if there is an error, the condition is changed and the procedure returns to the first procedure. A fourth processing procedure for outputting imaging system parameters at the time
The imaging system parameter measuring method according to claim 1, wherein
【請求項4】 第2の処理手順が、画像表示手段に少な
くとも2組の平行線群を表示して検出した各組の直線の
交点から画像中心を求めるものであることを特徴とする
請求項3記載の撮像系パラメータ測定装置。
4. The second processing procedure is to display at least two sets of parallel line groups on the image display means and obtain the image center from the intersection of the detected straight lines. 3. The imaging system parameter measurement device according to item 3.
【請求項5】 第2の処理手順が、撮像系パラメータと
して求めた画像中心から撮像面上で直交する直線上の等
距離にある点を画像表示手段へ描画処理し、画像表示手
段上の該2直線の交点のなす角度と該交点からの前記点
の対応点の距離から視覚センサの位置姿勢を計算するも
のであることを特徴とする請求項3記載の撮像系パラメ
ータ測定装置。
5. The second processing procedure draws on the image display means points equidistant on a straight line orthogonal to the image plane from the center of the image obtained as the imaging system parameter, and draws the points on the image display means. 4. The imaging system parameter measuring device according to claim 3, wherein the position and orientation of the visual sensor are calculated from the angle formed by the intersection of the two straight lines and the distance of the corresponding point from the intersection.
【請求項6】 線分もしくは点もしくは図形を検出する
処理を、画像表示手段への描画図形を反転表示もしくは
明度変化させて複数枚の画像の差分処理で行うことを特
徴とする請求項3または請求項4または請求項5に記載
の撮像系のパラメータ測定法。
6. The process of detecting a line segment, a point or a figure is performed by a difference process of a plurality of images by reversing or changing the brightness of a figure drawn on an image display means. The parameter measuring method of an imaging system according to claim 4 or 5.
JP06065894A 1994-03-30 1994-03-30 Imaging system parameter measurement method and device Expired - Lifetime JP3315240B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06065894A JP3315240B2 (en) 1994-03-30 1994-03-30 Imaging system parameter measurement method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06065894A JP3315240B2 (en) 1994-03-30 1994-03-30 Imaging system parameter measurement method and device

Publications (2)

Publication Number Publication Date
JPH07270124A true JPH07270124A (en) 1995-10-20
JP3315240B2 JP3315240B2 (en) 2002-08-19

Family

ID=13148663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06065894A Expired - Lifetime JP3315240B2 (en) 1994-03-30 1994-03-30 Imaging system parameter measurement method and device

Country Status (1)

Country Link
JP (1) JP3315240B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6490541B1 (en) * 1999-06-25 2002-12-03 Mitutoyo Corporation Method and apparatus for visual measurement
US6710765B1 (en) 1999-10-05 2004-03-23 Nippon Telegraph And Telephone Corporation Input device of 3-D translation and rotation and its method and recording medium
JP2004242049A (en) * 2003-02-06 2004-08-26 Hitachi Ltd Multi-camera image composite display
US8025414B2 (en) 2007-02-23 2011-09-27 Seiko Epson Corporation Projector, projected image adjustment method, and program for projecting an image while correcting the shape of the image
JP2013243621A (en) * 2012-05-22 2013-12-05 Toshiba Corp Electronic device, electronic device control method, control program, and image display device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6490541B1 (en) * 1999-06-25 2002-12-03 Mitutoyo Corporation Method and apparatus for visual measurement
US6710765B1 (en) 1999-10-05 2004-03-23 Nippon Telegraph And Telephone Corporation Input device of 3-D translation and rotation and its method and recording medium
US7253801B2 (en) 1999-10-05 2007-08-07 Nippon Telegraph And Telephone Corporation Input device of 3-D translation and rotation and its method and recording medium
JP2004242049A (en) * 2003-02-06 2004-08-26 Hitachi Ltd Multi-camera image composite display
US8025414B2 (en) 2007-02-23 2011-09-27 Seiko Epson Corporation Projector, projected image adjustment method, and program for projecting an image while correcting the shape of the image
US8177373B2 (en) 2007-02-23 2012-05-15 Seiko Epson Corporation Projector, projected image adjustment method, and program for projecting an image while correcting the shape of the image to project an image at a desired aspect ratio
JP2013243621A (en) * 2012-05-22 2013-12-05 Toshiba Corp Electronic device, electronic device control method, control program, and image display device

Also Published As

Publication number Publication date
JP3315240B2 (en) 2002-08-19

Similar Documents

Publication Publication Date Title
CN105716582B (en) Measurement method, device and the camera field of view angle measuring instrument at camera field of view angle
US9197880B2 (en) Method and apparatus for three-dimensional measurement and image processing device
US20100315422A1 (en) Method and apparatus for surface contour mapping
WO2012053521A1 (en) Optical information processing device, optical information processing method, optical information processing system, and optical information processing program
WO2016106694A1 (en) System and method for adjusting a baseline of an imaging system with microlens array
JP2004127239A (en) Method and system for calibrating multiple cameras using calibration object
CN109764858A (en) A kind of photogrammetric survey method and system based on monocular camera
JP6333396B2 (en) Method and apparatus for measuring displacement of mobile platform
JP2023505379A (en) Method and Apparatus for Generating Panoramic Lookaround Images of Transportation
CN111220130A (en) Focusing measurement method and terminal capable of measuring object at any position in space
JPH1038533A (en) Instrument and method for measuring shape of tire
CN116597013A (en) Satellite image geometric calibration method based on different longitude and latitude areas
JP2018522240A (en) Method for measuring artifacts
CN112767249B (en) Image unfolding and splicing method and system for surface defect detection of small pipe fitting
JPH06167564A (en) Position measuring system and device using fish eye lens
Legarda et al. Comparison and error analysis of the standard pin-hole and Scheimpflug camera calibration models
JPH07270124A (en) Method and apparatus for measurement of imaging system parameter
CN115239801B (en) Object positioning method and device
Ulrich et al. A camera model for cameras with hypercentric lenses and some example applications
JP3343583B2 (en) 3D surface shape estimation method using stereo camera with focal light source
CN111707446B (en) Method and system for adjusting alignment of light spot center and detector receiving surface center
JP2023050516A5 (en)
JP2961140B2 (en) Image processing method
CN106097297A (en) A kind of photographic head blocks range computation method
CN112788292A (en) Method and device for determining inspection observation point, inspection robot and storage medium

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090607

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090607

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100607

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100607

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110607

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120607

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130607

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140607

Year of fee payment: 12

EXPY Cancellation because of completion of term