JPH06101023B2 - Robot 3D measurement system - Google Patents

Robot 3D measurement system

Info

Publication number
JPH06101023B2
JPH06101023B2 JP62175907A JP17590787A JPH06101023B2 JP H06101023 B2 JPH06101023 B2 JP H06101023B2 JP 62175907 A JP62175907 A JP 62175907A JP 17590787 A JP17590787 A JP 17590787A JP H06101023 B2 JPH06101023 B2 JP H06101023B2
Authority
JP
Japan
Prior art keywords
camera
cylindrical body
mapping
point
spherical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62175907A
Other languages
Japanese (ja)
Other versions
JPS6421580A (en
Inventor
俊彦 森田
進 川上
隆 内山
康 稲本
裕介 安川
Original Assignee
工業技術院長
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 工業技術院長 filed Critical 工業技術院長
Priority to JP62175907A priority Critical patent/JPH06101023B2/en
Publication of JPS6421580A publication Critical patent/JPS6421580A/en
Publication of JPH06101023B2 publication Critical patent/JPH06101023B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】 〔概要〕 移動機構を有するカメラを並進させながら撮影した複数
枚の画像データを演算手段で写像して対象物を3次元的
に計測するシステムに関し、 ロボットの計測対象物が円柱体である時の3次元計測を
可能にすることを目的とし、 計測対象が円柱体のとき、演算手段が、円柱体の輪郭線
からその中心軸方位を求め、該中心軸方位に垂直でカメ
ラの中心を通る平面で該円柱体を切った断面円に接する
左右両接線を求め、更に両接線の二等分線をカメラの並
進により複数生成することによって生じる集積交点を抽
出し以て該円柱体の中心軸位置を求めるように構成す
る。
DETAILED DESCRIPTION OF THE INVENTION [Outline] A system for three-dimensionally measuring an object by mapping a plurality of image data taken by a camera having a moving mechanism while translating the image data by a calculation means, and a measurement object of a robot. In order to enable three-dimensional measurement when is a cylindrical body, when the measurement target is a cylindrical body, the calculating means obtains the central axis direction from the contour line of the cylindrical body, and is perpendicular to the central axis direction. Then, by obtaining the left and right tangents tangent to the cross-section circle that cuts the cylinder in a plane passing through the center of the camera, and further extracting the accumulative intersections generated by generating a plurality of bisectors of the tangents by the translation of the camera. The configuration is such that the central axis position of the cylindrical body is obtained.

〔産業上の利用分野〕[Industrial application field]

本発明はロボットが3次元的に対象物を計測するシステ
ムに関し、特に移動機構を有するカメラを並進させなが
ら撮影した複数枚の画像データを演算手段で写像して対
象物を3次元的に計測するシステムに関するものであ
る。
The present invention relates to a system in which a robot measures an object three-dimensionally, and particularly, the object is three-dimensionally measured by mapping a plurality of image data taken by a camera having a moving mechanism while translating it. It is about the system.

昨今、ロボットは、工場の中だけでなく原子力発電施設
内等の人間が立ち入ることのできない環境へとその利用
範囲が拡大されつつある。そのような複雑な環境の中
で、ロボットが作業するためには、外界の状態を的確に
計測し、それに随時適応していく必要がある。特に原子
力発電施設内においては、配管等が多数設置されてお
り、ロボットがその中で移動し且つ作業するためには、
対象物の位置・姿勢を3次元的に計測する機能が不可欠
である。
In recent years, the use range of robots has been expanded not only in factories but also in environments where humans cannot enter, such as in nuclear power generation facilities. In order for a robot to work in such a complicated environment, it is necessary to accurately measure the state of the external world and adapt to it as needed. Especially in the nuclear power generation facility, many pipes are installed, and in order for the robot to move and work in it,
The function of measuring the position and orientation of an object in three dimensions is essential.

〔従来の技術〕[Conventional technology]

この環境認識機能を実現するための有力な手段として、
カメラ(例えば球面カメラ)で入力した画像を用いるこ
とにより、対象物の3次元形状を計測する技術が、これ
までに種々提案されている。
As a powerful means to realize this environment recognition function,
Various techniques for measuring a three-dimensional shape of an object by using an image input by a camera (for example, a spherical camera) have been proposed so far.

即ち、対象物の直線線分の抽出及びその方位の計測につ
いては特開昭59−184973号公報で、そして抽出された直
線線分との距離については特願昭61−258141号公報で共
に本出願人により既に提案されている。以下、それぞれ
の原理を説明する。
That is, Japanese Patent Application Laid-Open No. Sho 59-184973 discloses the extraction of a straight line segment of an object and measurement of its orientation, and Japanese Patent Application No. 61-258141 discloses the distance between the straight line segment and the extracted straight line segment. It has already been proposed by the applicant. Each principle will be described below.

対象物の直線線分の抽出(特開昭59−184973号公
報): これについては第14図に示すように、外部の立体21を平
面22上に投影する平面投影法ではなく、立体21を球面23
に投影する球面投影法を用いる。この場合、単眼の球面
カメラを用いると、このカメラは球面23の中心に位置す
ることになる。
Extraction of straight line segment of object (Japanese Patent Laid-Open No. 59-184973): For this, as shown in FIG. 14, the solid 21 is not projected by the plane projection method in which the external solid 21 is projected on the plane 22. Spherical surface 23
The spherical projection method is used for projecting onto. In this case, if a monocular spherical camera is used, this camera will be located at the center of the spherical surface 23.

第15図は球面投影により点を直線(球面上では大円)に
対応させる例を示しており、3次元空間内の点Pは同図
(A)に示すように球面投影により球面23上の点P′に
投影される。そして、更に同図(B)に示すように、点
P′は球面写像により大円である直線lに写像される。
これは点P′が北極で大円lが赤道の関係に相当する。
FIG. 15 shows an example in which a point is made to correspond to a straight line (a great circle on a spherical surface) by spherical projection, and a point P in the three-dimensional space is on the spherical surface 23 by spherical projection as shown in FIG. It is projected on the point P '. Then, as shown in FIG. 7B, the point P'is mapped to the straight line l which is a great circle by the spherical mapping.
This corresponds to the relation that the point P'is the North Pole and the great circle l is the equator.

これを用いて直線線分の写像を行うが、第16図では3次
元空間内の直線Lを球面23上の直線L′に球面投影し、
直線L上の点P1,P2,P3,…を、直線L′上の点P′1,
P′2,P′3,…に各々投影させる。これらの各点P′1,
P′2,P′3,…は球面写像により大円群である直線群
l1,l2,l3,…に写像されるが、これらの大円は原点O
について対称な2点(対心点)で交わる。この2点は数
学的に1点であり、片方で代表させて写像集積点Sと呼
ばれる。これにより、直線Lの情報が、球面写像によっ
て1点Sに凝縮されたことになる。
This is used to map a straight line segment. In FIG. 16, the straight line L in the three-dimensional space is spherically projected onto the straight line L ′ on the spherical surface 23,
The points P 1 , P 2 , P 3 , ... On the straight line L are replaced by the points P ′ 1 ,
Project onto P ′ 2 , P ′ 3 ,. Each of these points P ′ 1 ,
P ′ 2 , P ′ 3 , ... Are groups of straight lines that are great circles due to spherical mapping
Mapped to l 1 , l 2 , l 3 , ..., these great circles are the origin O
Intersect at two points (anti-center) that are symmetric about. These two points are mathematically one point, and one of them is represented as a mapping accumulation point S. As a result, the information on the straight line L is condensed into one point S by the spherical mapping.

抽出された線分の方位の計測(特開昭59−184973号公
報): 今、抽出された線分の方位を求めるために、第17図に示
すように、カメラC(原点Oに位置する)を相対的に平
行移動させたとすると、抽出された線分は図示のように
平行線P、Q、Rとなる筈である。この場合の平行線
P、Q、Rを球面写像して上記の集積点SP,SR,SQを順
次求め、それらを球面写像すると、描いた大円群は一点
SSで交わる。この交点SSと原点Oとを結ぶベクトル方向
は並行線P、Q、Rの方向と一致している。
Measurement of orientation of extracted line segment (Japanese Patent Laid-Open No. 59-184973): Now, in order to obtain the orientation of the extracted line segment, as shown in FIG. ), The extracted line segments should be parallel lines P, Q, and R as shown in the figure. In this case, the parallel lines P, Q, R are spherically mapped to obtain the above accumulation points S P , S R , S Q one by one, and when they are spherically mapped, the drawn great circle group is one point.
Meet at SS. The vector direction connecting the intersection SS and the origin O coincides with the directions of the parallel lines P, Q, and R.

従って、この方向が抽出された線分の方位を示すことに
なる。
Therefore, this direction indicates the direction of the extracted line segment.

方位が抽出された線分との距離の計測(特願昭61−25
8141号(特開昭63−113782号)): 今、線分Lとカメラ位置Cとの距離を求めるため、第18
図を用いて説明すると、まず線分Lを球面写像して線分
L′を得る。この線分L′が求まれば、その集積点Sは
上記と同様にして得られる。
Measurement of distance from line segment from which direction is extracted (Japanese Patent Application No. 61-25)
No. 8141 (Japanese Patent Laid-Open No. 63-113782): Now, in order to obtain the distance between the line segment L and the camera position C,
Explaining with reference to the drawing, first, the line segment L is spherically mapped to obtain the line segment L '. If this line segment L'is obtained, the accumulation point S is obtained in the same manner as above.

一方、線分Lの方位も上記のようにして点Cと極SSとを
結ぶベクトルに平行であることが求められる。従って、
この極SSの大円lSS上に位置する集積点Sを大円lSSに沿
って90°回転させると、線分L′上の点Hが求められ、
この場合に原点Oと点Hとを結んだ直線hの延長線上に
線分Lが垂直に位置している。
On the other hand, the azimuth of the line segment L is also required to be parallel to the vector connecting the point C and the pole SS as described above. Therefore,
When the integration point S located on the great circle l SS of the pole SS rotated 90 ° along a great circle l SS, H point on the line segment L 'is obtained,
In this case, the line segment L is vertically positioned on the extension line of the straight line h that connects the origin O and the point H.

従って、直線hと線分Lとの交点をDとすれば、点Dと
Cとの距離が線分Lとの距離に相当することになる。
Therefore, if the intersection of the straight line h and the line segment L is D, the distance between the points D and C corresponds to the distance between the line segment L and the line segment L.

尚、この点Dを求めるには、第19図に示すように、カメ
ラの中心CをC0,C1,…Ciというように相対移動させる
ことにより、それぞれ得られる視線Sh0,Sh1,…Shi
交点Pを求め、この交点Pが線分Lを上から見た点に相
当するので、カメラと線分Lとの距離を求めることがで
きる。
In order to obtain this point D, as shown in FIG. 19, the center C of the camera is relatively moved to C 0 , C 1 , ... C i to obtain respective lines of sight Sh 0 , Sh 1 obtained. , ... Sh i 's intersection point P is obtained, and since this intersection point P corresponds to the point when the line segment L is viewed from above, the distance between the camera and the line segment L can be obtained.

この交点Pを求めるに当たっては、一般に知られたピー
ク抽出法(フィルタ係数を乗じてピーク部を浮き上がら
せる方法)を用いる。尚、本出願人はこのピーク抽出法
に関し、別途、特願昭61−258136号(特開昭63−113777
号)、特願昭61−258138号(特開昭63−113779号)、及
び特願昭61−258139号(特開昭63−113780号)で球面上
でのピーク抽出処理の提案を行っている。
In obtaining the intersection point P, a generally known peak extraction method (method of multiplying a filter coefficient to raise the peak portion) is used. The applicant of the present invention is concerned with this peak extraction method separately from Japanese Patent Application No. 61-258136 (Japanese Patent Application Laid-Open No. 63-113777).
), Japanese Patent Application No. 61-258138 (Japanese Patent Application Laid-Open No. 63-113779), and Japanese Patent Application No. 61-258139 (Japanese Patent Application Laid-Open No. 63-113780), which propose peak extraction processing on a spherical surface. There is.

〔発明が解決しようとする問題点〕[Problems to be solved by the invention]

しかしながら、上述した従来のいずれの手法を用いて
も、計測する対象物が円柱体である場合は計測が困難で
あった。
However, even if any of the above-mentioned conventional methods is used, measurement is difficult when the object to be measured is a cylindrical body.

その理由は、カメラから見た円柱体の輪郭(例えば垂直
線分)は、カメラの移動(水平移動)により変化してし
まうため、距離の計測ができないからである。
The reason is that the contour (for example, a vertical line segment) of the cylindrical body viewed from the camera changes due to the movement (horizontal movement) of the camera, so that the distance cannot be measured.

従って、本発明は、移動機構を有するカメラを並進させ
ながら撮影した複数枚の画像データを演算手段で写像し
て対象物を3次元的に計測するシステムにおいて、ロボ
ットの計測対象物が円柱体である時の3次元計測を可能
にすることを目的とする。
Therefore, the present invention is a system for three-dimensionally measuring an object by mapping a plurality of image data taken by translating a camera having a moving mechanism by a calculation means, and the object to be measured by the robot is a cylindrical body. The purpose is to enable three-dimensional measurement at a certain time.

〔問題点を解決するための手段〕[Means for solving problems]

第1図は、上記の目的を達成するための本発明に係るロ
ボットの3次元計測システムを概念的に示したブロック
図で、1は移動機構を有するカメラ、2は演算手段であ
り、この演算手段2は、第2図を参照すると、円柱体B
の輪郭線lR,lLからその中心軸方位SSを求め、中心軸方
位SSに垂直でカメラ1の中心Cを通る平面Ωで円柱体B
を切った断面円に接する左右両接線hR,hLを求め、更に
両接線の二等分線hbをカメラ1の並進により複数生成す
ることによって生じる集積交点Qを抽出し以て円柱体B
の中心軸位置を求める。
FIG. 1 is a block diagram conceptually showing a three-dimensional measuring system for a robot according to the present invention for achieving the above object. Reference numeral 1 is a camera having a moving mechanism, and 2 is a calculation means. The means 2 is, as shown in FIG.
The central axis azimuth SS is obtained from the contour lines l R and l L of the cylindrical body B with the plane Ω perpendicular to the central axis azimuth SS and passing through the center C of the camera 1,
The left and right tangent lines h R and h L tangent to the cross-section circle that is cut are obtained, and the intersection point Q generated by generating a plurality of bisectors h b of both tangent lines by translation of the camera 1 is extracted to obtain a cylindrical body. B
Find the central axis position of.

〔作用〕[Action]

本発明では、円柱体Bをカメラで撮像し、その画像に空
間微分処理を施せば、円柱体側面の輪郭直線が得られ
る。第2図に示したlR,lLは、円柱体Bをカメラ1の撮
像面Λ上に撮像して得た輪郭直線の例である。
In the present invention, if the cylindrical body B is imaged by a camera and the image is spatially differentiated, a contour straight line on the side surface of the cylindrical body can be obtained. L R and l L shown in FIG. 2 are examples of contour straight lines obtained by imaging the cylindrical body B on the imaging surface Λ of the camera 1.

ここで、円柱体Bの中心軸方位SSをまず求めた後、SSに
垂直でカメラ中心Cを通る平面Ωを考える。平面Ωと線
lR,lLとの交点をそれぞれHR,HLとし、平面Ω上でカメ
ラ中心Cと点HR,HLを通る直線をそれぞれhR,hLとすれ
ば、hR,hLは共に円柱体Bに接する。円柱体Bを平面Ω
で切った断面は円であるから、直線hR,hLは同時刻での
カメラからその円へ引いた左右両接線となる。
Here, the central axis azimuth SS of the cylindrical body B is first obtained, and then the plane Ω perpendicular to SS and passing through the camera center C is considered. Plane Ω and line
l R, intersection H each R with l L, and H L, the camera center C and the point H R on a plane Omega, a straight line passing through the H L respectively h R, if h L, h R, h L Contact the cylindrical body B together. Cylinder B is a plane Ω
Since the cross section cut by is a circle, the straight lines h R and h L are the left and right tangents drawn from the camera to the circle at the same time.

このことは、第3図に示した入力画像に対して空間微分
処理を施して球面投影した円柱体Bについても同様であ
り、円柱体Bの中心軸の方位SSが分かれば、それを極と
する大円lSSが定まり、輪郭線lR,lLについての集積点S
R,SLを大円lSSに沿って90°回転した点HR,HLを求めれ
ば、中心Cと点HR,HLとを結んだ直線hR,hLが円柱体B
の断面である円への接線となる。
This also applies to the cylindrical body B, which is obtained by subjecting the input image shown in FIG. 3 to the spatial differentiation processing and spherical projection, and if the azimuth SS of the central axis of the cylindrical body B is known, it is regarded as the pole. The great circle l SS is determined, and the accumulation point S for the contour lines l R and l L
R, point and rotated 90 ° along the S L to the great circle l SS H R, by obtaining the H L, center C and the point H R, straight h R that connects the H L, h L columnar body B
It becomes a tangent to the circle that is the cross section of.

従って、hRとhLの二等分線hbを生成すれば、円柱体Bの
断面である円の中心Qはこの二等分線hb上にあることが
分かる。
Therefore, if the bisector h b of h R and h L is generated, it can be seen that the center Q of the circle which is the cross section of the cylindrical body B is on this bisector h b .

そして、カメラを順次並進させながら同一平面Ω上で上
記の二等分線hbを生成する処理を繰り返せば、それらは
点Qの位置に集積する。従って第4図に示すように、そ
の集積交点を求めれば、円柱体Bの断面である円の中心
Qを求めることができる。点Qは、カメラから円柱体の
中心軸へ下ろした垂線の足であり、その位置が分かれ
ば、先の中心軸方位SSと合わせて、計測対象である円柱
体の中心軸の位置が一意に定まる。
Then, by repeating the process of generating the above bisector h b on the same plane Ω while sequentially translating the camera, they are integrated at the position of the point Q. Therefore, as shown in FIG. 4, the center Q of the circle, which is the cross section of the cylindrical body B, can be found by finding the intersection point. Point Q is the foot of the perpendicular line drawn from the camera to the center axis of the cylinder, and if the position is known, the position of the center axis of the cylinder to be measured is uniquely combined with the previous center axis azimuth SS. Determined.

〔実施例〕〔Example〕

以下、本発明に係るロボットの3次元計測システムの実
施例を説明する。
Embodiments of the robot three-dimensional measurement system according to the present invention will be described below.

(1)システムのハードウェア構成の説明: 第5図において、30はマイクロプロセッサー(以下、MP
Uと略称する)、31は3次元位置決め装置としての移動
機構を内蔵したカメラ(例えば球面カメラ)、32は原画
メモリ、34は移動方向計測用データ作成部、35は移動方
向判定部、36〜38は写像プロセッサー、39〜41は写像メ
モリ、42はパラレルインタフェースであり、これらで演
算手段2を形成している。
(1) Description of system hardware configuration: In FIG. 5, 30 is a microprocessor (hereinafter, MP).
U is abbreviated as U), 31 is a camera (for example, a spherical camera) having a moving mechanism as a three-dimensional positioning device, 32 is an original image memory, 34 is a moving direction measurement data creating section, 35 is a moving direction determining section, and 36- 38 is a mapping processor, 39 to 41 are mapping memories, and 42 is a parallel interface, which form the computing means 2.

以上の構成において、MPU30は球面カメラ31、原画メモ
リ32、移動方向計測用データ作成部34、移動方向判定部
35等を制御するもの、球面カメラ31は対象物を撮影し、
得られた画像データを極座標(r,θ)形式で出力するも
の、原画メモリ32は球面カメラ31より出力され、輪郭抽
出処理が行われた後の極座標形式の画像データを格子状
に対応付けして格納するものであり、経度方向にN個、
緯度方向にM個に分割された格納領域を有するもの、移
動方向計測用データ作成部34は計測対象空間上の任意の
複数の点を注目点として設定するものであり、例えば輪
郭抽出された原画像の内、複数の線分の交差する頂点を
注目点として設定したり、或いは計測対象空間上に複数
の光点を照射したときの原画像と照射しないときの原画
像の差分を求め、得られた複数の光点の座標を注目点と
して設定するもの、移動方向判定部35は写像メモリ39に
展開された交点がどの座標に格納されているかをもとに
して球面カメラ31の移動方向を判定するもの、写像プロ
セッサー36は原画メモリ32に格納された各画素毎の画像
データに対して大円情報を生成し、内部に設けられた写
像メモリ内に順次写像結果を格納するもの、写像メモリ
39は写像プロセッサー36内の写像結果であるピーク点
(交点)が転送されて格納されるもの、写像プロセッサ
ー37は写像メモリ39に格納されたピーク点を有する画素
に対して大円情報を生成して内部に設けられた写像メモ
リに順次写像結果を格納するもの、写像メモリ40は写像
プロセッサー37の写像結果であるピーク点が写像プロセ
ッサー37内の内部メモリから転送されて格納されるも
の、写像プロセッサー38は写像メモリ40内に格納された
ピーク点を有する画素に対して大円情報を生成して内部
に設けられた写像メモリに順次写像結果を格納するも
の、写像メモリ41は写像プロセッサー38内の写像メモリ
に格納されたピーク点が転送されて格納されるもの、パ
ラレルインタフェース42はMPU30等が写像メモリ39〜41
に対してアクセスするものである。
In the above configuration, the MPU 30 includes the spherical camera 31, the original image memory 32, the moving direction measurement data creation unit 34, and the moving direction determination unit.
One that controls 35 etc., spherical camera 31 shoots the object,
The obtained image data is output in polar coordinates (r, θ) format, the original image memory 32 is output from the spherical camera 31, and the image data in polar coordinates format after the contour extraction processing is performed is associated with the grid shape. Is stored as N in the longitudinal direction,
The moving direction measurement data creation unit 34 has a storage area divided into M pieces in the latitude direction, and sets a plurality of arbitrary points in the measurement target space as points of interest. In the image, the vertices that intersect a plurality of line segments are set as the points of interest, or the difference between the original image when multiple light spots are irradiated on the measurement target space and the difference between the original image when not irradiated and obtained The movement direction determination unit 35 determines the movement direction of the spherical camera 31 based on which coordinate the intersection developed in the mapping memory 39 is stored. What is determined, the mapping processor 36 generates great circle information for the image data of each pixel stored in the original image memory 32, and the mapping result is sequentially stored in the mapping memory provided inside, the mapping memory
39 is a peak point (intersection point) which is the mapping result in the mapping processor 36 is transferred and stored, and the mapping processor 37 generates great circle information for the pixel having the peak point stored in the mapping memory 39. And a mapping memory 40 that sequentially stores the mapping results in a mapping memory provided internally. The mapping memory 40 stores the peak points that are the mapping results of the mapping processor 37 transferred from the internal memory in the mapping processor 37 and stored therein. Reference numeral 38 is a means for generating great circle information for the pixels having the peak points stored in the mapping memory 40 and sequentially storing the mapping result in a mapping memory provided inside, and the mapping memory 41 is a memory in the mapping processor 38. The peak points stored in the mapping memory are transferred and stored. In the parallel interface 42, the MPU 30 and the like are mapped memories 39 to 41.
To access.

(2)動作の説明: (イ)線分の方向の計測: まず、球面カメラ31はMPU30の制御下で計測対象空間
を撮影し、極座標(r,θ)形式で輪郭抽出された画像デ
ータを出力する。そして、MPU30は球面カメラ31からの
画像データ(座標位置と濃度値)を画素単位に原画メモ
リ32に書き込む。
(2) Description of operation: (a) Measurement of direction of line segment: First, the spherical camera 31 captures an image of the measurement target space under the control of the MPU 30 and displays the image data of the contour extracted in polar coordinates (r, θ) format. Output. Then, the MPU 30 writes the image data (coordinate position and density value) from the spherical camera 31 in the original image memory 32 in pixel units.

次に、写像プロセッサー36により原画メモリ32内の各
画素の画像データに対して球面写像関数(大円)を生成
し、ピーク抽出した結果を写像メモリ39内に格納する。
Next, the mapping processor 36 generates a spherical mapping function (great circle) for the image data of each pixel in the original image memory 32, and stores the peak extraction result in the mapping memory 39.

従って、この写像メモリ39内には輪郭抽出されて得られ
た各線分を構成する各点に対応して生成した大円の交
点、即ち線分の極S点が格納されることになる。
Therefore, the mapping memory 39 stores the intersections of the great circles generated corresponding to the respective points constituting each line segment obtained by the contour extraction, that is, the pole S point of the line segment.

MPU30は写像プロセッサー36での球面写像関数生成処
理が終了後、球面カメラ31に搭載される図示しない移動
機構を動作させ、球面カメラ31を所定ピッチ分移動させ
る。
After the spherical mapping function generation process in the mapping processor 36 is completed, the MPU 30 operates a moving mechanism (not shown) mounted on the spherical camera 31 to move the spherical camera 31 by a predetermined pitch.

そして、前記、の処理を実行させ、これ以降は球面
カメラ31を直進(並進)移動させて所定フレーム数の撮
影を行う。
Then, the above-mentioned processing is executed, and thereafter, the spherical camera 31 is moved straight (translationally) to photograph a predetermined number of frames.

その後、写像プロセッサー37により写像メモリ39内に
格納された各ピーク点の画素に対して球面写像関数を生
成し、ピーク抽出した結果を写像メモリ40内に格納す
る。従って、この写像メモリ40内には計測対象空間上に
存在した線分の方向を示す情報が交点(SS点)として格
納されることとなる。
Thereafter, the mapping processor 37 generates a spherical mapping function for the pixel of each peak point stored in the mapping memory 39, and stores the peak extraction result in the mapping memory 40. Therefore, in the mapping memory 40, information indicating the direction of the line segment existing in the measurement target space is stored as the intersection (SS point).

(ロ)カメラの移動方向計測: 第6図はカメラの移動方向計測方法の基本原理を示した
図で、P0 t,P1 t,P2 t…(tは時系列情報であり、t=
0,1,2…)は計測対象空間上での任意の注目点であり、
球面Aは注目点P0 t,P1 t,P2 t…を撮影するカメラの情
報を記録する球面メモリを示している。
(B) Camera moving direction measurement: FIG. 6 is a diagram showing the basic principle of the camera moving direction measuring method. P 0 t , P 1 t , P 2 t ... (t is time series information, t =
0,1,2 ...) is an arbitrary point of interest in the measurement target space,
A spherical surface A indicates a spherical memory for recording information of a camera for photographing the points of interest P 0 t , P 1 t , P 2 t ....

今、カメラを直線移動させながら静止している複数の注
目点P0 t,P1 t,P2 tを見ると、複数の点が平行に直線移
動しているように見える。
Now, when the plurality of points of interest P 0 t , P 1 t , and P 2 t that are stationary while the camera is linearly moved are viewed, it seems that the plurality of points are linearly moved in parallel.

そこで、例えば、第6図のように複数のそれぞれの点を
各時点で球面写像(大円生成)し、その結果を球面メモ
リA(移動方向計測用データ作成部の内部メモリ)に蓄
積して行くと、写像プロセッサー36により大円情報の交
点Σの点列Σ,Σ,Σ,…が得られ写像メモリ39
に書き込む。このΣ点列に対して写像プロセッサー37が
球面写像を施し、大円情報を球面メモリA上に書き込む
と、それらの交点vが得られ写像メモリ40に書き込む。
Therefore, for example, as shown in FIG. 6, a plurality of respective points are spherically mapped (great circle generation) at each time point, and the results are stored in the spherical memory A (internal memory of the moving direction measurement data creation unit). When going, the mapping processor 36 obtains a point sequence Σ 0 , Σ 1 , Σ 2 , ... Of the intersection points Σ of great circle information, and the mapping memory 39
Write in. When the mapping processor 37 performs spherical mapping on this Σ point sequence and writes great circle information on the spherical memory A, their intersection v is obtained and written on the mapping memory 40.

ここで、この交点vと球の中心とを結ぶベクトルVは球
面の性質上、球面上に投影された各点列を結んだ複数の
直線と平行である。
Here, the vector V connecting the intersection point v and the center of the sphere is parallel to a plurality of straight lines connecting the point sequences projected on the sphere due to the nature of the sphere.

一方、球面メモリA上に投影された複数の直線とカメラ
の移動方向は一致しているので、カメラの移動方向はこ
のベクトルVと一致していることになる。
On the other hand, since the plurality of straight lines projected on the spherical memory A and the moving direction of the camera coincide with each other, the moving direction of the camera coincides with this vector V.

従って、球面メモリA上の交点vのアドレスからカメラ
の3次元方向を知ることができる。
Therefore, the three-dimensional direction of the camera can be known from the address of the intersection v on the spherical memory A.

そして、移動方向判定部35が、MPU30によって制御され
て写像メモリ40内の交点vを読み出し、その読み出した
位置に対応した球面カメラ31の移動方向を判定する。
Then, the moving direction determination unit 35 is controlled by the MPU 30 to read the intersection v in the mapping memory 40, and determine the moving direction of the spherical camera 31 corresponding to the read position.

以上の線分の方向計測(線分の集積点計測を含む)及び
カメラの移動方向計測処理動作は、いずれも上記の従来
例において既に説明されている事項であり、本発明はこ
れらの公知の技術を用いて以下に説明するように円柱体
の3次元情報(中心位置及び半径)を抽出するものであ
る。
The above-described line segment direction measurement (including line segment integration point measurement) and camera movement direction measurement processing operation are both items that have already been described in the above-described conventional example, and the present invention is based on these known techniques. The technique is used to extract three-dimensional information (center position and radius) of the cylindrical body as described below.

まず、計測すべき円柱体のパラメータを改めて整理す
る。ここで計測すべき円柱体のパラメータは、第7図に
示すように5つである。すなわち、中心軸の方位SS
(α,β)、軸に垂直な断面上での中心軸の位置Q
(ρ,θ)および半径rである。このうち,本発明に関
わるのは中心軸の位置Q(ρ,θ)と半径rの計測方法
である。中心軸の方位SS(α,β)については、上述の
従来技術のように第8図のカメラの並進移動により求め
ることが可能である。また、カメラの移動方向vも上記
した様に求めることができる。
First, the parameters of the cylinder to be measured are re-arranged. The parameters of the cylindrical body to be measured here are five, as shown in FIG. That is, the azimuth SS of the central axis
(Α, β), central axis position Q on a cross section perpendicular to the axis
(Ρ, θ) and radius r. Of these, the method of measuring the position Q (ρ, θ) of the central axis and the radius r is relevant to the present invention. The azimuth SS (α, β) of the central axis can be obtained by the translational movement of the camera shown in FIG. 8 as in the above-mentioned conventional technique. Also, the moving direction v of the camera can be obtained as described above.

以下では、本発明による中心軸の位置Qと半径rの計測
方法の実施例を説明する。尚、本発明を適用した円柱体
の3次元計測処理の概略的な流れを第9図に示した。
Hereinafter, an embodiment of a method of measuring the position Q of the central axis and the radius r according to the present invention will be described. Incidentally, FIG. 9 shows a schematic flow of the three-dimensional measurement processing of the cylindrical body to which the present invention is applied.

本発明の実施例では、円柱体の中心軸の位置を求めるた
め、第10図に示すように、実際処理上、平面Ω上での生
成処理を、原点Oを有する別の球面(以下、距離球面O
と呼ぶ)上に投影する。距離球面Oは、図示のように、
カメラの初期位置C0を中心とする球面(輪郭画像を投影
した球面:以下、撮像球面と呼ぶ)を、円柱体の中心軸
に沿って適当な距離だけ並進させた位置にあると考える
ことができる。そして、平面Ωと球面Oとの対応を、O
を中心とする射影で定義すれば、平面Ω上でのアルゴリ
ズムを球面O上で等価に実行し得る。これにより、計測
できる奥行きの範囲を無限大にまで拡大できるメリット
がある。
In the embodiment of the present invention, in order to obtain the position of the central axis of the cylindrical body, as shown in FIG. 10, in actual processing, the generation processing on the plane Ω is performed by another spherical surface (hereinafter, distance O) having the origin O. Spherical surface O
Call it). The distance sphere O is, as shown,
It may be considered that a sphere centering on the initial position C 0 of the camera (a sphere onto which a contour image is projected: hereinafter referred to as an imaging sphere) is translated by an appropriate distance along the central axis of the cylinder. it can. Then, the correspondence between the plane Ω and the spherical surface O is O
If it is defined by a projection centered at, the algorithm on the plane Ω can be equivalently executed on the sphere O. This has the advantage that the measurable depth range can be expanded to infinity.

まず、カメラの初期位置C0を中心とし、カメラの光軸方
向を北極Zとする撮像球面を定義する。第11図はこの撮
影球面の北半球を極座標形式で表現したものである。こ
の撮影球面上での球面写像により上記のように以下の点
が求められる。
First, an imaging sphere whose center is the initial position C 0 of the camera and whose optical axis direction is the north pole Z is defined. Figure 11 shows the northern hemisphere of this photographic sphere in polar coordinates. By the spherical mapping on this photographing spherical surface, the following points are obtained as described above.

S(Sα ,Sβ ):線分を含む大円の極(時刻をtと
した) SS(SSα,SSβ):円筒の軸方位を表す点 v(vα,vβ):カメラの移動方位を球面上で求めた点 ただし、座標は(α座標、β座標)で表す。
S (S α t , S β t ): Pole of great circle including line segment (time is t) SS (SS α , SS β ): Point representing axial direction of cylinder v (v α, v β): Camera The moving azimuth of the point is obtained on the spherical surface, where the coordinates are represented by (α coordinate, β coordinate).

これらの点Sは第5図の写像メモリ39に格納され、点SS
及び移動方位vは写像メモリ40に格納される。
These points S are stored in the mapping memory 39 shown in FIG.
And the moving direction v are stored in the mapping memory 40.

次に、円柱体の位置を計測するための距離球面を写像プ
ロセッサー38において第12図に示す如く定義する。この
球面は前述したように、円柱体の軸方位SSを北極とする
球面(距離球面)である。
Next, the range sphere for measuring the position of the cylinder is defined in the mapping processor 38 as shown in FIG. As described above, this spherical surface is a spherical surface (distance spherical surface) whose axial direction SS is the north pole.

写像プロセッサー38では、更に距離球面上で円柱体Bの
中心位置計測を実施するために、まずカメラの位置を距
離球面に射影した点Ct(Cα ,Cβ )を算出する。こ
のうちα座標のCα を求めるためには、撮像球面上で
SS及びvを通る大円が、SSを極とする大円lSSと交差す
る点LXを考え、大円lSSと赤道の交点Xとの距離▲
▼≡δvを求めればよい。すなわち、 Cα =δv =mod2π(π/2−ψ) ただし、 また、β座標のCβ は各時刻tについて以下の式で求
まる。
The mapping processor 38 first calculates a point C t (C α t , C β t ) obtained by projecting the position of the camera on the distance sphere in order to measure the center position of the cylindrical body B on the distance sphere. Among these, in order to obtain C α t of α coordinate, on the imaging spherical surface,
Considering the point L X where the great circle passing through SS and v intersects with the great circle l SS having the SS pole, the distance between the great circle l SS and the intersection X of the equator ▲
▼ ≡ δv should be calculated. That is, C α t = δv = mod (π / 2−ψ) where Further, C β t of β coordinate is obtained by the following formula for each time t.

β =tan-1(η・sinγ・t) ただし、 η=ΔX/R0 γ=cos-1{cosvβ cosSSβ+sinvβ sinSSβ cos(v
α−SSα)} ΔX:カメラの移動ピッチ R0:撮像球面と距離球面の距離 また、平面Ω上で着目している円柱体へ引いた接線の方
向を表す点Ht(Hα ,Hβ )は、やはり撮像球面上で
大円lSSに沿った長さ▲▼≡δ,▲▼≡δ
を用いて以下の式で求める。
C β t = tan −1 (η · sin γ · t) where η = ΔX / R 0 γ = cos −1 {cosvβ cosSSβ + sinvβ sinSSβ cos (v
α-SSα)} ΔX: Moving pitch of camera R 0 : Distance between imaging spherical surface and distance spherical surface H t (H α t , H) that represents the direction of the tangent line drawn to the cylinder of interest on the plane Ω. β t ) is also the length along the great circle l SS on the imaging sphere ▲ ▼ ≡δ S , ▲ ▼ ≡δ h
Is calculated by the following formula.

δ =cos-1{sinSβsin(Sα−SSα)} =modπ(δ +π/2) Hβ=π/2 本発明では、異なる時刻の2つの接線hR t,hL tから、第
13図に示すように、その二等分線hb tを求める。そのた
めにはまず、両接線の方位を示す2点HR t,HL tから、二
等分線の方位を示す点Hb t(Hbα,π/2)を求める。
δ S t = cos -1 {sinSβ t sin (Sα t -SSα)} = Mod πS t + π / 2) Hβ t = π / 2 In the present invention, from the two tangent lines h R t and h L t at different times,
As shown in Fig. 13, find the bisector h b t . For that purpose, first, a point H b t (H b α t , π / 2) indicating the direction of the bisector is obtained from two points H R t and H L t indicating the directions of both tangent lines.

カメラの位置を表すCtとHb tとを通る大円が所望の二等
分線hb tであり、その極Bt(Bα,Bα)は以下の式
で算出できる。
The great circle passing through C t and H b t representing the camera position is the desired bisector h b t , and its pole B t (Bα t , Bα t ) can be calculated by the following formula.

Bβ=|cot-1{tanCβ+sin|Hα−Cα|}
| ここで、カメラを動かしながらBtを球面写像して行くこ
とにより、集積交点Q(Qα,Qβ)が得られ、平面Ω上
での円筒中心の位置(ρ,θ)は、以下の式で求まる。
Bβ t = | cot -1 {tanCβ t + sin | H b α t -Cα t |}
| Here, the cumulative intersection Q (Qα, Qβ) is obtained by spherically mapping B t while moving the camera, and the position (ρ, θ) of the cylinder center on the plane Ω is calculated by the following equation. Can be obtained with.

ρ=R0tanQβ,θ=Qα これらの値を算出した写像プロセッサー38は写像メモリ
41に格納する。
ρ = R 0 tanQβ, θ = Qα The mapping processor 38 that calculated these values is a mapping memory.
Store in 41.

このようにして円柱体Bの中心軸の位置Qが求まれば、
それを元の平面Ω上に逆投影し、平面Ω上で位置Qと各
接線との距離を算出し、そのヒストグラムを作成する。
度数が最大となる距離が半径であるから、それを検出す
れば、円柱体の半径を求めることができる。
If the position Q of the central axis of the cylindrical body B is obtained in this way,
It is back-projected on the original plane Ω, the distance between the position Q and each tangent line is calculated on the plane Ω, and the histogram thereof is created.
Since the distance at which the frequency is maximum is the radius, the radius of the cylinder can be obtained by detecting it.

〔発明の効果〕〔The invention's effect〕

以上のように本発明に係るロボットの3次元計測システ
ムによれば、写像法を用い、カメラを移動して得た複数
枚の画像から中心軸方位を求め、この軸に垂直でカメラ
の中心を通る平面で対象物たる円柱体を切ることによ
り、円柱体の接線を求め、更にその接線の二等分線を複
数生成することにより、集積交点を求めたので、円柱体
の位置・姿勢を3次元的に計測することが可能となる。
As described above, according to the robot three-dimensional measurement system of the present invention, the central axis azimuth is obtained from a plurality of images obtained by moving the camera by using the mapping method, and the center of the camera is measured perpendicularly to this axis. The tangent to the cylinder is obtained by cutting the cylinder, which is the target object, in the plane that passes through, and a plurality of bisectors of the tangent are generated to obtain the intersection point, so the position / orientation of the cylinder is 3 It becomes possible to measure dimensionally.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明に係るロボットの3次元計測システムを
概念的に示したブロック図、 第2図は本発明により円柱体の接線を生成するため、円
柱体を平面投影したところを説明するための斜視図、 第3図は本発明により円柱体の接線を生成するため、円
柱体を球面投影したところを説明するための斜視図、 第4図は本発明の基本概念を説明するための図、 第5図は本発明のロボットの3次元計測システムのハー
ドウェア構成図、 第6図はカメラの移動方向計測方法の原理を説明する
図、 第7図は円柱体のパラメータを説明するための図、 第8図は円柱体の中心軸方位を計測するための説明図、 第9図は本発明のアルゴリズムを概略的に示す流れ図、 第10図はカメラを移動させた時の距離球面上に投影され
た様子を示す斜視図、 第11図はカメラの撮影球面の北半球を極座標で表した
図、 第12図は円柱体の軸方位を北極とする距離球面を極座標
で表した図、 第13図は本発明により生成される円柱体の接線の二等分
線を極座標で表した図、 第14図は対象物を平面投影及び球面投影したときの様子
を示す図、 第15図は点に対する球面写像を説明するための図、 第16図は球面写像された線分の集積点の生成を説明する
ための図、 第17図はカメラを平行移動したときに求められる線分の
方位を説明するための図、 第18図は線分を球面写像してカメラまでの距離を求める
ための説明図、 第19図はカメラを移動させることにより対象点を抽出さ
せるところを示した図、である。 1……カメラ、 2……演算手段、 B……円柱体、 S……集積点、 SS……中心軸方位、 v……カメラの移動方向 lR,lL……輪郭線、 lSS……大円、 Q……中心軸位置、 hR,hL……接線、 HR,HL……接線の方位を表す点。 尚、図中、同一符号は同一又は相当部分を示す。
FIG. 1 is a block diagram conceptually showing a three-dimensional measuring system for a robot according to the present invention, and FIG. 2 is a view for explaining a plan projection of a cylindrical body in order to generate a tangent line of the cylindrical body according to the present invention. FIG. 3 is a perspective view for explaining a spherical projection of the cylindrical body in order to generate the tangent line of the cylindrical body according to the present invention, and FIG. 4 is a view for explaining the basic concept of the present invention. 5, FIG. 5 is a hardware configuration diagram of a robot three-dimensional measurement system of the present invention, FIG. 6 is a diagram for explaining the principle of a camera movement direction measurement method, and FIG. 7 is a diagram for explaining parameters of a cylindrical body. Fig. 8 is an explanatory view for measuring the central axis direction of a cylindrical body, Fig. 9 is a flow chart schematically showing the algorithm of the present invention, and Fig. 10 is a distance spherical surface when the camera is moved. Fig. 11 is a perspective view showing the projected state. Fig. 12 is a diagram showing the northern hemisphere of the photographic sphere of La in polar coordinates, Fig. 12 is a diagram showing in polar coordinates a distance sphere where the axial direction of the cylinder is the north pole, and Fig. 13 is a tangent line of the cylinder produced by the present invention. Diagram showing bisectors in polar coordinates, Fig. 14 is a diagram showing a state when an object is subjected to plane projection and spherical projection, Fig. 15 is a diagram for explaining a spherical mapping to a point, and Fig. 16 is FIG. 17 is a diagram for explaining the generation of the accumulation points of spherically mapped line segments, FIG. 17 is a diagram for explaining the azimuth of the line segments obtained when the camera is translated, and FIG. FIG. 19 is an explanatory diagram for mapping and obtaining the distance to the camera, and FIG. 19 is a diagram showing that the target point is extracted by moving the camera. 1 ...... camera, 2 ...... calculating means, B ...... cylinder, S ...... accumulation point, SS ...... central axis orientation, v moving direction l R of ...... camera, l L ...... outline, l SS ... … Great circle, Q …… Center axis position, h R , h L …… Tangential line, H R , H L …… Point indicating the azimuth of the tangent line. In the drawings, the same reference numerals indicate the same or corresponding parts.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 安川 裕介 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 審査官 広岡 浩平 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Yusuke Yasukawa 1015 Kamiodanaka, Nakahara-ku, Kawasaki-shi, Kanagawa Fujitsu Limited Examiner Kohei Hirooka

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】移動機構を有するカメラ(1)を並進させ
ながら撮影した複数枚の画像データを演算手段(2)で
写像して対象物を3次元的に認識するシステムにおい
て、 該計測対象が円柱体(B)のとき、該演算手段(2)
が、該円柱体(B)の輪郭線(lR,lL)からその中心軸
方位(SS)を求め、該中心軸方位(SS)に垂直で該カメ
ラの中心(C)を通る平面(Ω)で該円柱体(B)を切
った断面円に接する左右両接線(hR,hL)を求め、更に
両接線の二等分線(hb)を該カメラの並進により複数生
成することによって生じる集積交点(Q)を抽出し以て
該円柱体(B)の中心軸位置を求めることを特徴とする
ロボットの3次元計測システム。
1. A system for recognizing an object three-dimensionally by mapping a plurality of image data taken by a camera (1) having a moving mechanism while translating the image data by a calculation means (2). When it is a cylindrical body (B), the calculation means (2)
Is obtained from the contour line (l R , l L ) of the cylindrical body (B), and a plane (perpendicular to the center axis azimuth (SS) and passing through the center (C) of the camera ( Ω) is used to find the left and right tangents (h R , h L ) tangent to the cross-section circle that cuts the cylindrical body (B), and a plurality of bisectors (h b ) of the tangents are generated by translation of the camera. A three-dimensional measurement system for a robot, characterized in that a central axis position of the cylindrical body (B) is obtained by extracting an accumulated intersection (Q) caused by the above.
【請求項2】前記演算手段(2)が、前記中心軸位置を
極とする大円(lSS)に沿い、前記輪郭線(lR,lL)か
ら得られる集積点(SR,SL)を90°回転させることによ
り得られる点(HR,HL)と前記カメラの中心(C)とを
結んだ線を前記円柱体(B)の接線として求めることを
特徴とする特許請求の範囲第1項に記載のロボットの3
次元計測システム。
2. An accumulation point (S R , S) obtained from said contour line (l R , l L ) by said computing means (2) along a great circle (l SS ) having the center axis position as a pole. A line connecting the point (H R , H L ) obtained by rotating L ) by 90 ° and the center (C) of the camera is obtained as a tangent to the cylindrical body (B). 3 of the robot described in the first section
Dimensional measurement system.
【請求項3】前記演算手段(2)が、前記中心軸位置と
各接線との距離のヒストグラムをとることによって、前
記円柱体(B)の半径を求めることを特徴とする特許請
求の範囲第1項に記載のロボットの3次元計測システ
ム。
3. The calculation means (2) obtains the radius of the cylindrical body (B) by taking a histogram of the distance between the central axis position and each tangent line. The robot three-dimensional measurement system according to item 1.
JP62175907A 1987-07-16 1987-07-16 Robot 3D measurement system Expired - Lifetime JPH06101023B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62175907A JPH06101023B2 (en) 1987-07-16 1987-07-16 Robot 3D measurement system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62175907A JPH06101023B2 (en) 1987-07-16 1987-07-16 Robot 3D measurement system

Publications (2)

Publication Number Publication Date
JPS6421580A JPS6421580A (en) 1989-01-24
JPH06101023B2 true JPH06101023B2 (en) 1994-12-12

Family

ID=16004322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62175907A Expired - Lifetime JPH06101023B2 (en) 1987-07-16 1987-07-16 Robot 3D measurement system

Country Status (1)

Country Link
JP (1) JPH06101023B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5103697B2 (en) * 2001-04-19 2012-12-19 株式会社島津製作所 3D optical camera

Also Published As

Publication number Publication date
JPS6421580A (en) 1989-01-24

Similar Documents

Publication Publication Date Title
Sandini et al. Active tracking strategy for monocular depth inference over multiple frames
Ahmed et al. Pothole 3D reconstruction with a novel imaging system and structure from motion techniques
Dorai et al. From images to models: Automatic 3D object model construction from multiple views
Xiong et al. Automatic three-dimensional reconstruction based on four-view stereo vision using checkerboard pattern
WO2023133125A1 (en) System and method for mapping the skin
JPH06101023B2 (en) Robot 3D measurement system
Chen et al. Virtual binocular vision systems to solid model reconstruction
JPH0610602B2 (en) Robot 3D measurement system
JP3512919B2 (en) Apparatus and method for restoring object shape / camera viewpoint movement
JP2697917B2 (en) 3D coordinate measuring device
JPH0610603B2 (en) Robot 3D measurement system
JP3548652B2 (en) Apparatus and method for restoring object shape
JPH08261719A (en) Device and method for calculating amount of relative movement
Wang et al. Full Period Three-dimensional (3-D) Reconstruction Method for a Low Cost Singlelayer Lidar.
Noble et al. CAD-based inspection using X-ray stereo
Lin et al. A new approach to automatic reconstruction of a 3-D world using active stereo vision
JPH0238804A (en) Apparatus for measuring object
Lee et al. 3D surface reconstruction using structured circular light patterns
Lewis et al. Measuring the human chest with structured lighting
JPH0668765B2 (en) 3D measuring method of circle
Martins et al. Camera calibration using reflections in planar mirrors and object reconstruction using volume carving method
Urquhart et al. Toward real-time dynamic close-range photogrammetry
JPH0614356B2 (en) Information extraction method
JP2675999B2 (en) Plane measurement method
Hierholzer et al. Methods of Evaluation and Analysis of Rasterstereographic Surface Measurements

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term