JPH0610602B2 - Robot 3D measurement system - Google Patents

Robot 3D measurement system

Info

Publication number
JPH0610602B2
JPH0610602B2 JP62175903A JP17590387A JPH0610602B2 JP H0610602 B2 JPH0610602 B2 JP H0610602B2 JP 62175903 A JP62175903 A JP 62175903A JP 17590387 A JP17590387 A JP 17590387A JP H0610602 B2 JPH0610602 B2 JP H0610602B2
Authority
JP
Japan
Prior art keywords
camera
cylindrical body
point
mapping
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62175903A
Other languages
Japanese (ja)
Other versions
JPS6421305A (en
Inventor
俊彦 森田
進 川上
隆 内山
康 稲本
裕介 安川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP62175903A priority Critical patent/JPH0610602B2/en
Publication of JPS6421305A publication Critical patent/JPS6421305A/en
Publication of JPH0610602B2 publication Critical patent/JPH0610602B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【発明の詳細な説明】 〔概 要〕 移動機構を有するカメラを並進させながら撮影した複数
枚の画像データを演算手段で写像して対象物を3次元的
に計測するシステムに関し、 ロボットの計測対象物が円柱体である時の3次元計測を
可能にすることを目的とし、 計測対象が円柱体のとき、演算手段が、円柱体の輪郭線
からその中心軸方位を求め、該中心軸方位に垂直でカメ
ラの中心を通る平面で該円柱体を切った断面円に接する
接線を求め、更に各接線を仮定半径長だけ平行移動させ
た直線をカメラの並進により複数生成することによって
生じる集積交点を抽出して以て該円柱体の中心軸位置を
求めるように構成する。
DETAILED DESCRIPTION OF THE INVENTION [Outline] The present invention relates to a system for three-dimensionally measuring an object by mapping a plurality of image data taken by a camera having a moving mechanism while translating the image data, and a measuring object of a robot. For the purpose of enabling three-dimensional measurement when an object is a cylindrical body, when the measurement target is a cylindrical body, the calculation means obtains the central axis direction from the contour line of the cylindrical body, A tangential line that is tangent to the cross-sectional circle that cuts the cylinder in a plane that is vertical and passes through the center of the camera is obtained, and the accumulated intersection points that are generated by translating the tangential lines in parallel by the camera's translation The central axis position of the cylindrical body is obtained after extraction.

〔産業上の利用分野〕[Industrial application field]

本発明はロボットが3次元的に対象物を計測するシステ
ムに関し、特に移動機構を有するカメラを並進させなが
ら撮影した複数枚の画像データを演算手段で写像して対
象物を3次元的に計測するシステムに関するものであ
る。
The present invention relates to a system in which a robot measures an object three-dimensionally, and particularly, the object is three-dimensionally measured by mapping a plurality of image data taken by a camera having a moving mechanism while translating it. It is about the system.

昨今、ロボットは、工場の中だけでなく原子力発電施設
内等の人間が立ち入ることのできない環境へとその利用
範囲が拡大されつつある。そのような複雑な環境の中
で、ロボットが作業するためには、外界の状態を的確に
計測し、それに随時適応していく必要がある。特に原子
力発電施設内においては、配管等の多数設置されてお
り、ロボットがその中で移動し且つ作業するためには、
対象物の位置・姿勢を3次元的に計測する機能が不可欠
である。
In recent years, the use range of robots has been expanded not only in factories but also in environments where humans cannot enter, such as in nuclear power generation facilities. In order for a robot to work in such a complicated environment, it is necessary to accurately measure the state of the external world and adapt to it as needed. Especially in the nuclear power generation facility, many pipes are installed, and in order for the robot to move and work in it,
The function of measuring the position and orientation of an object in three dimensions is essential.

〔従来の技術〕[Conventional technology]

この環境認識機能を実現するための有力な手段として、
カメラ(例えば球面カメラ)で入力した画像を用いるこ
とにより、対象物の3次元形状を計測する技術が、これ
までに種々提案されている。
As a powerful means to realize this environment recognition function,
Various techniques for measuring a three-dimensional shape of an object by using an image input by a camera (for example, a spherical camera) have been proposed so far.

即ち、対象物の直線線分の抽出及びその方位の計測につ
いては特開昭59−184973号公報で、そして抽出された直
線線分との距離については特願昭61−258141号公報で共
に本出願人により既に提案されている。以下、それぞれ
の原理を説明する。
That is, Japanese Patent Application Laid-Open No. Sho 59-184973 discloses the extraction of a straight line segment of an object and measurement of its orientation, and Japanese Patent Application No. 61-258141 discloses the distance between the straight line segment and the extracted straight line segment. It has already been proposed by the applicant. Each principle will be described below.

対象物の直線線分の抽出(特開昭59−184973号公
報): これについては第14図に示すように、外部の立体21
を平面22上に投影する平面投影法ではなく、立体21
を球面23に投影する球面投影法を用いる。この場合、
単眼の球面カメラを用いると、このカメラは球面23の
中心に位置することになる。
Extraction of a straight line segment of an object (Japanese Patent Laid-Open No. 59-184973): As shown in FIG.
Is not a plane projection method that projects
A spherical projection method is used to project the to the spherical surface 23. in this case,
If a monocular spherical camera is used, this camera will be located at the center of the spherical surface 23.

第15図は球面投影により点を直線(球面上では大円)
に対応させる例を示しており、3次元空間内の点Pは同
図(A)に示すように球面投影により球面23上の点
P’に投影される。そして、更に同図(B)に示すよう
に、点P’は球面写像により大円である直線lに写像さ
れる。これは点P’が北極で大円lが赤道の関係に相当
する。
In Fig. 15, the points are straight lines (a great circle on the sphere) by spherical projection.
The point P in the three-dimensional space is projected onto the point P ′ on the spherical surface 23 by spherical projection as shown in FIG. Then, as shown in FIG. 3B, the point P ′ is mapped to the straight line l which is a great circle by the spherical mapping. This corresponds to the relation that the point P'is the North Pole and the great circle l is the equator.

これを用いて直線線分の写像を行うが、第16図では3
次元空間内の直線Lを球面23上の直線L’に球面投影
し、直線L上の点P1,2,3,…を、直線L’上の点P
1’,P2’,P3’,…にそれぞれ投影される。これら
の各点P1’,P2’,P3’,…は球面写像により大円
群である直線群l1,2,3,…に写像されるのが、これ
らの大円は原点Oについて対称な2点(対心点)で交わ
る。この2点は数学的に1点であり、片方で代表させて
写像集積点Sと呼ばれる。これにより、直線Lの情報
が、球面写像によって1点Sに凝縮されたことになる。
The straight line segment is mapped using this, and in FIG.
A straight line L in the dimensional space is spherically projected onto a straight line L ′ on the spherical surface 23, and points P 1, P 2, P 3, ...
1 ', P 2', P 3 ', are projected respectively ... to. Each of these points P 1 ′, P 2 ′, P 3 ′, ... Is mapped by the spherical map to a group of straight lines l 1, l 2, l 3 , . It intersects with the origin O at two symmetrical points (anti-center points). These two points are mathematically one point, and one of them is represented as a mapping accumulation point S. As a result, the information on the straight line L is condensed into one point S by the spherical mapping.

抽出された線分の方位の計測(特開昭59-184973号公
報): 今、抽出された線分の方位を求めるために、第17図に
示すように、カメラC(原点Oに位置する)を相対的に
平行移動させたとすると、抽出された線分は逗子のよう
に平行線P、Q、Rとなる筈である。この場合は平行線
P、Q、Rを球面写像して上記の集積点SP,R,Q
順次求め、それらを球面写像すると、描いた大円群は一
点SSで交わる。この交点SSと原点Oとを結ぶベクトル方
向は平行線P、Q、Rの方向と一致している。
Measurement of orientation of extracted line segment (Japanese Patent Laid-Open No. 59-184973): In order to obtain the orientation of the extracted line segment, as shown in FIG. ), The extracted line segments should be parallel lines P, Q, and R like Zushi. In this case, the parallel lines P, Q, and R are spherically mapped to sequentially obtain the above-mentioned accumulation points S P, S R, and S Q, and when they are spherically mapped, the drawn great circle groups intersect at one point SS. The vector direction connecting the intersection SS and the origin O coincides with the directions of the parallel lines P, Q, and R.

従って、この方向が抽出された線分の方位を示すことに
なる。
Therefore, this direction indicates the direction of the extracted line segment.

方位が抽出された線分との距離の計測(特願昭61−25
8141号公報): 今、線分Lとカメラ位置Cとの距離を求めるため、第1
8図を用いて説明すると、まず線分Lを球面投影して線
分L’を得る。この線分L’が求まれば、その集積点S
は上記と同様にして得られる。
Measurement of distance from line segment from which direction is extracted (Japanese Patent Application No. 61-25)
No. 8141): Now, in order to obtain the distance between the line segment L and the camera position C, the first
This will be described with reference to FIG. 8. First, the line segment L is spherically projected to obtain the line segment L ′. If this line segment L'is obtained, its accumulation point S
Can be obtained in the same manner as above.

一方、線分Lの方位も上記ようにして点Cと極SSとを結
ぶベクトルに平行であることが求められる。従って、こ
の極SSの大円lSS上に位置する集積点Sを大円lSSに沿
って90°回転させると、線分L’上に点Hが求めら
れ、この場合に原点Oと点Hとを結んだ直線hの延長線
上に線分Lが垂直に位置している。
On the other hand, the azimuth of the line segment L is also required to be parallel to the vector connecting the point C and the pole SS as described above. Therefore, the 90 ° rotation along the great circle l SS integrated point S located on the great circle l SS of the pole SS, the point H is required on the line L ', the origin O and the point in this case A line segment L is vertically positioned on an extension of a straight line h connecting H and H.

従って、直線hと線分Lとの交点をDとすれば、点Dと
Cとの距離が線分Lとの距離に相当することになる。
Therefore, if the intersection of the straight line h and the line segment L is D, the distance between the points D and C corresponds to the distance between the line segment L and the line segment L.

尚、この点Dを求めるには、第19図に示すように、カ
メラの中心CをC0,C1,…Cというように相対移動さ
せることにより、それぞれ得られる視線Sh0,Sh1,…Sh
の交点Pを求め、この交点Pが線分Lを上から見た点に
相当するので、カラメと線分Lとの距離を求めることが
できる。この交点Pを求めるに当たっては、一般に知ら
れたピーク抽出法(フィルタ係数を乗じてピーク部を浮
き上がらせる方法)を用いる。尚、本出願人はこのピー
ク抽出法に関し、別途、特願昭61−258136号、特願昭61
−258138号、及び特願昭61−258139号で球面上でのピー
ク抽出処理の提案を行っている。
Incidentally, in order to determine the point D, as shown in FIG. 19, the center C of the camera C 0, C 1, ... by relatively moving so that C i, sight Sh 0 respectively obtained, Sh 1 , ... Sh i
The intersection point P is obtained, and this intersection point P corresponds to the point where the line segment L is viewed from above. Therefore, the distance between the caramel and the line segment L can be obtained. In obtaining the intersection point P, a generally known peak extraction method (method of multiplying a filter coefficient to raise the peak portion) is used. The applicant of the present invention is concerned with this peak extraction method separately in Japanese Patent Application No. 61-258136 and Japanese Patent Application No. 61-258136.
No. 258138 and Japanese Patent Application No. 61-258139 propose a peak extraction process on a spherical surface.

〔発明が解決しようとする問題点〕[Problems to be solved by the invention]

しかしながら、上述した従来のいずれの手法を用いて
も、対称物が円柱体である場合は計測が困難であった。
However, even if any of the above-mentioned conventional methods is used, measurement is difficult when the symmetrical object is a cylindrical body.

その理由は、カメラから見た円柱体の輪郭(例えば垂直
線分)は、カメラの移動(水平移動)により変化してし
まうため、距離の計測ができないからである。
The reason is that the contour (for example, a vertical line segment) of the cylindrical body viewed from the camera changes due to the movement (horizontal movement) of the camera, so that the distance cannot be measured.

従って、本発明は、移動機構を有するカメラを並進させ
ながら撮影した複数枚の画像データを演算手段で写像し
て対称物を3次元に計測するシステムにおいて、ロボッ
トの計測対象物が円柱体である時の3次元計測を可能に
することを目的とする。
Therefore, according to the present invention, in a system in which a plurality of image data taken while a camera having a moving mechanism is translated is imaged by a calculation means and a symmetrical object is three-dimensionally measured, the measurement object of the robot is a cylindrical body. The purpose is to enable three-dimensional measurement of time.

〔問題点を解決するための手段〕[Means for solving problems]

第1図は、上記の目的を達成するための本発明に係るロ
ボットの3次元計測システムを概念的に示しブロック図
で、1は移動機構を有するカメラ、2は演算手段であ
り、この演算手段2は、第2図を参照すると、円柱体B
の写像した輪郭線lからその中心方位SSを求め、中心
軸方位SSに垂直でカメラ1の中心Cを通る平面Ωで円柱
体Bを切った断面円に接する接線hを求め、更に生成し
た各接線を仮定半径長だけ平行移動させた直線hをカ
メラ1の並進により複数生成することによって生じる集
積交点Qを抽出して凍て円柱体Bの中心軸位置を求め
る。
FIG. 1 is a block diagram conceptually showing a three-dimensional measuring system for a robot according to the present invention for achieving the above object. 1 is a camera having a moving mechanism, 2 is a computing means, and this computing means 2 is a cylindrical body B with reference to FIG.
The center azimuth SS is obtained from the contour line l h that is mapped, and the tangent h that is tangent to the cross section circle of the cylindrical body B cut by the plane Ω that is perpendicular to the center axis azimuth SS and passes through the center C of the camera 1 is further generated. A central axis position of the cylindrical body B is obtained by extracting and freezing the accumulated intersection points Q generated by generating a plurality of straight lines h b obtained by translating each tangent line by the assumed radius length by the translation of the camera 1.

〔作 用〕[Work]

本発明では、円柱体Bをカメラで撮像し、その画像に空
間微分処理を施せば、円柱体側面の輪郭直線が得られ
る。第2図に示したlは、円柱体Bをカメラ1の撮像
面Λ上に撮像して得た輪郭直線の例である。
In the present invention, if the cylindrical body B is imaged by a camera and the image is spatially differentiated, a contour straight line on the side surface of the cylindrical body can be obtained. L h shown in FIG. 2 is an example of a contour straight line obtained by imaging the cylindrical body B on the imaging surface Λ of the camera 1.

ここで、円柱体Bの中心軸方位SSをまず求めた後、SSに
垂直でカメラ中心Cを通る平面Ωを考える。平面Ωと線
との交点をHとし、平面Ω上でカメラ中心Cと点H
を通る視線をhとすれば、hは円柱体Bに接する。円柱
体Bを平面Ωで切った断面は円であるから、視線hはカ
メラ1からその円へ引いた接線となる。
Here, the central axis azimuth SS of the cylindrical body B is first obtained, and then the plane Ω perpendicular to SS and passing through the camera center C is considered. Let H be the intersection of the plane Ω and the line l h, and the camera center C and the point H on the plane Ω.
If the line of sight passing through is h, then h is in contact with the cylindrical body B. Since the cross section of the cylindrical body B cut by the plane Ω is a circle, the line of sight h is a tangent line drawn from the camera 1 to the circle.

このことは、第3図に示した入力画像に対して空間微分
処理を投影した円柱体Bについても同様であり、円柱体
Bの中心軸の方位SSが分かれば、それに極とする大円l
SSが定まり、輪郭線lについての集積点Sを大円lSS
に沿って90°回転した点Hを求めれば、中心Cと点Hと
を結んだ視線hが円柱体Bの断面である円への接線とな
る。
This also applies to the cylindrical body B obtained by projecting the spatial differentiation processing on the input image shown in FIG. 3, and if the azimuth SS of the central axis of the cylindrical body B is known, then the great circle l
SS is determined, and the accumulation point S for the contour line l h is set to the great circle l SS
If the point H rotated by 90 ° along the line is obtained, the line of sight h connecting the center C and the point H becomes the tangent to the circle that is the cross section of the cylindrical body B.

ここで、円柱体Bの半径rを或る値に仮定して設定す
る。そして、求めた接線を仮定半径長だけ左右に平行移
動したオフセット線を生成する。もし、仮定した半径が
正しければ、左右のいずれかのオフセット線は断面であ
る円の中心Qを通るはずである。
Here, the radius r of the cylindrical body B is set assuming a certain value. Then, an offset line is generated by translating the obtained tangent line to the left and right by the assumed radius length. If the assumed radius is correct, either the left or right offset line should pass through the center Q of the cross section circle.

従って、カメラ1を並進させながら同一平面Ωでそれぞ
れのオフセット線を複数生成すれば、それらは点Qの位
置に集積する。
Therefore, if a plurality of offset lines are generated in the same plane Ω while the camera 1 is translated, they are integrated at the position of the point Q.

点Qは、カメラから円柱体の中心軸へ下ろした垂線の足
であり、その位置が分かれば、先の中心軸方位SSと合わ
せて、計測対象である円柱体の中心軸の位置が一意に定
まる。そして、点Qが求められたときの仮定半径長が実
際の円柱体の半径に相当することとなる。
Point Q is the foot of the perpendicular line drawn from the camera to the center axis of the cylinder, and if the position is known, the position of the center axis of the cylinder to be measured is uniquely combined with the previous center axis azimuth SS. Determined. The assumed radius length when the point Q is obtained corresponds to the actual radius of the cylinder.

従って、半径情報が始めから分かっているときには、直
ちに円柱体の位置・姿勢を計測でき、半径が未知のとき
でも、幾通りかの仮定半径を設けて順次処理を繰り返せ
ば、正確な円柱体の3次元情報を得ることができる。
Therefore, when the radius information is known from the beginning, the position / orientation of the cylinder can be measured immediately, and even if the radius is unknown, if several assumed radii are set and the processing is repeated sequentially, an accurate cylinder It is possible to obtain three-dimensional information.

〔実 施 例〕〔Example〕

以下、本発明に係るロボットの3次元計測システムの実
施例を説明する。
Embodiments of the robot three-dimensional measurement system according to the present invention will be described below.

(1)システムのハードウェア構成の説明: 第5図において、30はマイクロプロセッサー(以下、
MPUと略称する)、31は3次元位置決め装置として
の移動機構を内蔵したカメラ(例えば球面カメラ)、3
2原画メモリ、34は移動方向計測用データ作成部、3
5は移動方向判定部、36〜3は写像プロセッサー、3
9〜41な写像メモリ、42はパラレルインタフェース
であり、これらで演算手段2を形成している。
(1) Description of system hardware configuration: In FIG. 5, 30 is a microprocessor (hereinafter,
MPU is abbreviated), 31 is a camera (for example, a spherical camera) having a moving mechanism as a three-dimensional positioning device, 3
2 original image memory, 34 is a moving direction measurement data creation unit, 3
5 is a moving direction determination unit, 36 to 3 are mapping processors, 3
The mapping memories 9 to 41 and the parallel interface 42 form the computing means 2.

以上の構成において、MPU30は球面カメラ31、原
画メモリ32、移動方向計測用データ作成部34、移動
方向判定部35等を制御するもの、球面カメラ31は対
象物を撮影し、得られた画像データを極座標(r,θ)
形式で出力するもの、画像メモリ32は球面カメラ31
より出力され、輪郭抽出処理が行われた後極座標形式の
画像データを格子状に対応付けして格納するものであ
り、経度方向にN個、緯度方向にM個に分割された格納
領域を有するもの、移動方向計測用データ作成部34は
計測対象空間上の任意の複数の点を注目点として設定す
るものであり、例えば輪郭抽出された原画像の内、複数
の線分の交差する頂点を注目点として設定したり、或い
は計測対象空間上に複数の光点を照射したときの原画像
と照射しないときの原画像の差分を求め、得られた複数
の光点の座標を注目点として設定するもの、移動方向判
定部35は写像メモリ39に回転された交点がどの座標
に格納されているかをもとにして球面カメラ31の移動
方向を判定するもの、写像プロセッサー36は原画メモ
リ32に格納された各画素毎の画像データに対して大円
情報を生成し、内部に設けられた写像メモリ内に順次写
像結果を格納するもの、写像メモリ39は写像プロセッ
サー36内の写像結果であるピーク点(交点)が転送さ
れて格納されるもの、写像プロセッサー37は写像メモ
リ39に格納されたピーク点を有する画素に対して大円
情報を生成して内部に設けられた写像メモリに順次写像
結果を格納するもの、写像メモリ40は写像プロセッサ
ー37の写像結果であるピーク点が写像プロセッサー3
7内の内部メモリから転送されて格納されるもの、写像
プロセッサー38は写像メモリ40内に格納されたピー
ク点を有する画素に対して大円情報を生成して内部に設
けられた写像メモリに順次写像結果を格納するもの、写
像メモリ41は写像プロセッサー38内の写像メモリに
格納されたピーク点が転送されて格納されるもの、パラ
レルインタフェース42はMPU30等が写像メモリ3
9〜41に対してアクセスするものである。
In the above configuration, the MPU 30 controls the spherical camera 31, the original image memory 32, the moving direction measurement data creation unit 34, the moving direction determination unit 35, and the like. The spherical camera 31 photographs an object and obtains image data. In polar coordinates (r, θ)
Image memory 32 is output in the form of a spherical camera 31
The image data of the post-polar coordinate format that has been output by the above and has been subjected to the contour extraction processing is stored in association with a grid, and has a storage area divided into N pieces in the longitude direction and M pieces in the latitude direction. The moving direction measurement data creation unit 34 sets arbitrary points in the measurement target space as points of interest. For example, in the original image from which contours have been extracted, vertices intersecting a plurality of line segments are set. Set as a point of interest, or find the difference between the original image when multiple light points are irradiated on the measurement target space and the original image when not irradiated, and set the coordinates of the obtained multiple light points as the point of interest. The moving direction determination unit 35 determines the moving direction of the spherical camera 31 based on which coordinate the rotated intersection is stored in the mapping memory 39. The mapping processor 36 stores the original image memory 32. Was done Large circle information is generated for image data of each pixel, and mapping results are sequentially stored in a mapping memory provided inside. A mapping memory 39 is a peak point (intersection point) which is a mapping result in the mapping processor 36. Is transferred and stored, the mapping processor 37 generates great circle information for the pixel having the peak point stored in the mapping memory 39, and sequentially stores the mapping result in the mapping memory provided therein. In the mapping memory 40, the peak point which is the mapping result of the mapping processor 37 is the mapping processor 3
7, which is transferred and stored from the internal memory in the mapping memory 38, the mapping processor 38 generates great circle information for the pixel having the peak point stored in the mapping memory 40 and sequentially transfers it to the mapping memory provided inside. The mapping memory 41 stores the mapping result, the mapping memory 41 stores and transfers the peak points stored in the mapping memory in the mapping processor 38, and the parallel interface 42 stores the mapping memory 3 in the MPU 30 or the like.
9 to 41 are accessed.

(2)動作の説明: (イ)線分の方向の計測: まず、球面カメラ31はMPU30の制御下で計測対
象空間を撮影し、極座標(r,θ)形式で輪郭抽出され
た画像データを出力する。そして、MPU30は球面カ
メラ31からの画像データ(座標位置と濃度値)を画素
単位に原画メモリ32に書き込む。
(2) Description of operation: (a) Measurement of direction of line segment: First, the spherical camera 31 captures an image of the measurement target space under the control of the MPU 30, and extracts the image data of the contour extracted in polar coordinates (r, θ) format. Output. Then, the MPU 30 writes the image data (coordinate position and density value) from the spherical camera 31 to the original image memory 32 in pixel units.

次に、写像プロセッサー36により原画メモリ32内
の各画素の画像データに対して球面写像関数(大円)を
生成し、ピーク抽出した結果を写像メモリ39内に格納
する。
Next, the mapping processor 36 generates a spherical mapping function (great circle) for the image data of each pixel in the original image memory 32, and stores the peak extraction result in the mapping memory 39.

従って、この写像メモリ39内には輪郭抽出されて得ら
れた各線分を構成する各点に対して生成した大円の交
点、即ち線分の極S点が格納されることになる。
Therefore, the mapping memory 39 stores the intersections of the great circles generated for the respective points constituting each line segment obtained by the contour extraction, that is, the pole S point of the line segment.

MPU30は写像プロセッサー36での球面写像関数
生成処理が終了後、球面カメラ31に搭載される図示し
ない移動機構を動作させ、球面カメラ31を所定ピッチ
分移動させる。
After the spherical mapping function generation process in the mapping processor 36 is completed, the MPU 30 operates a moving mechanism (not shown) mounted on the spherical camera 31 to move the spherical camera 31 by a predetermined pitch.

そして、前記、の処理を実行させ、これ以降は球面
カメラ31を直進(並進)移動させて所定フレーム数の
撮影を行う。
Then, the above process is executed, and thereafter, the spherical camera 31 is moved linearly (translationally) to capture a predetermined number of frames.

その後、写像プロセッサー37により写像メモリ39
内に格納された各ピーク点の画素に対して球面写像関数
を生成し、ピーク抽出した結果を写像メモリ40内に格
納する。従って、この写像メモリ40内には計測対象空
間上に存在した線分の方向を示す情報が交点(SS点)と
して格納されることとなる。
After that, the mapping memory 37 is mapped by the mapping processor 37.
A spherical mapping function is generated for each pixel of each peak point stored in, and the peak extraction result is stored in the mapping memory 40. Therefore, the information indicating the direction of the line segment existing in the measurement target space is stored in the mapping memory 40 as the intersection (SS point).

(ロ)カメラの移動方向計測: 第6図はカレアの移動方向計測方法の基本原理を示した
図で、P ,P ,P …(tは時系列情報であ
り、t=0,1,2…)は計測対象空開上での任意の注
目点であり、球面Aは注目点P ,P ,P
を撮影するカメラの情報を記録する球面メモリを示して
いる。
(B) Measurement of moving direction of camera: FIG. 6 is a diagram showing the basic principle of the moving direction measuring method of Karea, P 0 t , P 1 t , P 2 t ... (t is time series information, t = 0, 1, 2, ...) is an arbitrary point of interest on the open space of the measurement object, and the spherical surface A has points of interest P 0 t , P 1 t , P 2 t
3 shows a spherical memory for recording information of a camera for photographing.

今、カメラを直線移動させながら静止している複数の注
目点P ,P ,P を見ると、複数の点が平行
に直線移動しているように見える。
Now, looking at the plurality of points of interest P 0 t , P 1 t , and P 2 t that are stationary while moving the camera in a straight line, it seems that the plurality of points are moving in a straight line in parallel.

そこで、例えば、第6図のように複数のそれぞれの点を
各時点で球面写像(大円生成)し、その結果を球面メモ
リA(移動方向計測用データ作成部の内部メモリ)に蓄
積して行くと、写像プロセッサー36により大円情報交
点Σの点列Σの点列E0,Σ1,Σ2,…が得られ写像メモリ
39に書き込む。このΣ点列に対して写像プロセッサー
37が球面写像を施し、大円情報を球面メモリA上に書
き込むとそれらの交点vが得られ写像メモリ40に書き
込む。
Therefore, for example, as shown in FIG. 6, a plurality of respective points are spherically mapped (great circle generation) at each time point, and the results are stored in the spherical memory A (internal memory of the moving direction measurement data creation unit). When going, the map processor 36 obtains the point sequence E 0, Σ 1, Σ 2, ... Of the point sequence Σ of the great circle information intersection Σ and writes it in the mapping memory 39. The mapping processor 37 performs spherical mapping on this Σ point sequence, and when great circle information is written on the spherical memory A, their intersection v is obtained and written on the mapping memory 40.

ここで、この交点vと球の中心とを結ぶベクトルVは球
面の性質上、球面上に投影された各点列を結んだ複数の
直線と平行である。
Here, the vector V connecting the intersection point v and the center of the sphere is parallel to a plurality of straight lines connecting the point sequences projected on the sphere due to the nature of the sphere.

一方、球面メモリA上に投影された複数の直線とカメラ
の移動方向は一致しているので、カメラの移動方向はこ
のベクトルVと一致していることになる。
On the other hand, since the plurality of straight lines projected on the spherical memory A and the moving direction of the camera coincide with each other, the moving direction of the camera coincides with this vector V.

従って、球面メモリA上の交点vのアドレスからカメラ
の3次元方向を知ることができる。
Therefore, the three-dimensional direction of the camera can be known from the address of the intersection v on the spherical memory A.

そして、移動方向判定部35が、MPU30によって制
御されて写像メモリ40内の交点vを読み出し、その読
み出した位置に対応した球面カメラ31の移動方向を判
定する。
Then, the moving direction determination unit 35 is controlled by the MPU 30 to read the intersection v in the mapping memory 40 and determine the moving direction of the spherical camera 31 corresponding to the read position.

以上の線分の方向計測(線分の集積点計測を含む)及び
カメラの移動方向計測処理動作は、いずれも上記の従来
例において既に説明されている事項であり、本発明はこ
れらの公知の技術を用いて以下に説明するように円柱体
の3次元情報(中心位置及び半径)を抽出するものであ
る。
The above-described line segment direction measurement (including line segment integration point measurement) and camera movement direction measurement processing operation are both items that have already been described in the above-described conventional example, and the present invention is based on these known techniques. The technique is used to extract three-dimensional information (center position and radius) of the cylindrical body as described below.

まず、計測すべき円柱体のパラメータを改めて整理す
る。ここで計測すべき円柱体のパラメータは、第7図に
示すように5つである。すなわち、中心軸の方位SS
(α,β)、軸に垂直な断面上での中心軸の位置Q
(ρ,θ)および半径rである。このうち、本発明に係
わるのは中心軸の位置Q(ρ,θ)と半径rの計測方法
である。中心軸の方位SS(α,β)については、上述の
従来技術のように第8図のカメラの並進移動により求め
ることが可能である。また、カメラの移動方向vも上記
した様に求めることができる。
First, the parameters of the cylinder to be measured are re-arranged. The parameters of the cylindrical body to be measured here are five, as shown in FIG. That is, the azimuth SS of the central axis
(Α, β), central axis position Q on a cross section perpendicular to the axis
(Ρ, θ) and radius r. Of these, the present invention relates to a method of measuring the position Q (ρ, θ) of the central axis and the radius r. The azimuth SS (α, β) of the central axis can be obtained by the translational movement of the camera shown in FIG. 8 as in the above-mentioned conventional technique. Also, the moving direction v of the camera can be obtained as described above.

以下では、本発明による中心軸の位置Qと半径rの計測
方法の実施例を説明する。尚、本発明を適用した円柱体
の3次元計測処理の概略的な流れを第9図に示した。
Hereinafter, an embodiment of a method of measuring the position Q of the central axis and the radius r according to the present invention will be described. Incidentally, FIG. 9 shows a schematic flow of the three-dimensional measurement processing of the cylindrical body to which the present invention is applied.

本発明の実施例では、円柱体の中心軸の位置を求めるた
め、第10図に示すように、実際処理上、平面Ω上での
生成処理を、原点Oを有する別の球面(以下、距離球面
Oと呼ぶ)上に投影する。距離球面Oは、図示のよう
に、カメラの初期位置Cを中心とする球面(輪郭画像
を投影した球面:以下、撮像球面と呼ぶ)を、円柱体の
中心軸に沿って適当な距離だけ並進させた位置にあると
考えることができる。そして、平面Ωと球面Oとの対応
を、Oを中心とする射影で定義すれば、平面Ω上でのア
ルゴリズムを球面O上で等価に実行し得る。これによ
り、計測できる奥行きの範囲を無限大にまで拡大できる
メリットがある。
In the embodiment of the present invention, in order to obtain the position of the central axis of the cylindrical body, as shown in FIG. 10, in actual processing, the generation processing on the plane Ω is performed by another spherical surface (hereinafter, distance O) having the origin O. It is projected on a spherical surface O). As shown in the figure, the distance sphere O is a sphere centered on the initial position C 0 of the camera (a sphere onto which a contour image is projected: hereinafter referred to as an imaging sphere) at an appropriate distance along the central axis of the cylindrical body. It can be considered to be in the translated position. Then, if the correspondence between the plane Ω and the sphere O is defined by a projection centered on O, the algorithm on the plane Ω can be equivalently executed on the sphere O. This has the advantage that the measurable depth range can be expanded to infinity.

まず、カメラの初期位置Cを中心とし、カメラの光軸
方向を北極Zとする撮像球面を定義する。第11図はこ
の撮像球面の北半球を極座標形式で表現したものであ
る。この撮像球面上の球面写像により上記のように以下
の点が求められる。
First, an imaging sphere whose center is the initial position C 0 of the camera and whose optical axis direction is the north pole Z is defined. FIG. 11 shows the northern hemisphere of this imaging sphere in a polar coordinate format. The following points are obtained from the spherical mapping on the imaging spherical surface as described above.

S(Sαt,Sβt):線分を含む大円の極(時刻をtと
した) SS(SSα,SSβ):円筒の軸方位を表す点 v(vα,vβ):カメラの移動方位を球面上で求めた
点 ただし、座標は(α座標、β座標)で表す。
S (Sα t, Sβ t) : great circle of electrode including a segment (time was a t) SS (SSα, SSβ) : point represents the axial orientation of the cylindrical v (vα, vβ): a movement direction of the camera Points obtained on the sphere where the coordinates are expressed as (α coordinate, β coordinate).

これらの点Sは第5図の写像メモリ39に格納され、点
SS及び移動方位vは写像メモリ40に格納される。
These points S are stored in the mapping memory 39 shown in FIG.
The SS and the moving direction v are stored in the mapping memory 40.

次に、円柱体の位置を計測するたの距離球面を写像プロ
セッサー38において第12図に示す如く定義する。こ
の球面は前述したように、円柱体の軸方位SSを北極とす
る球面(距離球面)である。
Next, the distance spherical surface for measuring the position of the cylindrical body is defined in the mapping processor 38 as shown in FIG. As described above, this spherical surface is a spherical surface (distance spherical surface) whose axial direction SS is the north pole.

写像プロセッサー38では、更に距離球面上で円柱体B
の中心位置計測を実施するために、まずカメラの一を距
離球面に射影した点C(Cαt,Cβt)を算出する。
このうちα座標のCαtを求めるためには、撮像球面上
でSSを及びvを通る大円が、SSを極とする大円lSSと交
差する点Lxを考え、大円lSSと赤道の交点Xとの距離
▲▼≡δvを求めればよい。すなわち、 Cαt=δv =mod2π(π/2−ψ) ただし、 また、β座標のCβtは各時刻tについて以下の式で求
まる。
In the mapping processor 38, the cylindrical body B is further arranged on the distance sphere.
In order to measure the center position of, the point C t (Cα t , Cβ t ) obtained by projecting one of the cameras onto the distance sphere is first calculated.
Among these, in order to obtain Cα t of α coordinate, consider a point Lx where a great circle passing through SS and v on the imaging sphere intersects a great circle l SS having SS as a pole, and considers the great circle l SS and the equator. The distance ▲ ▼ ≡δv from the intersection point X of That, Cα t = δv = mod 2π (π / 2-ψ) However, Further, Cβ t of β coordinate is obtained by the following formula for each time t.

Cβt=tan-1(η・sinγ・t) ただし、 η=ΔX/R γ=cos-1{cosvβ cosSSβ +sinvβ sinSSβ cos(vα−SSα)} ΔX:カメラの移動ピッチ R:撮像球面と距離球面の距離 また、平面Ω上で着目している円柱体へ引いた接線の方
向を表す点H(Hαt,Hβt)は、やはり撮像球面上
で大円lSSに沿った長さ▲▼≡δ,▲▼≡δ
を用いて以下の式で求める。
t = tan −1 (η · sin γ · t) where η = ΔX / R 0 γ = cos −1 {cosvβ cosSSβ + sinvβ sinSSβ cos (vα-SSα)} ΔX: camera movement pitch R 0 : imaging sphere and Distance The distance of the spherical surface The point H t (Hα t , Hβ t ) representing the direction of the tangent line drawn to the cylinder of interest on the plane Ω is also the length along the great circle l SS on the imaging spherical surface. ▲ ▼ ≡δ S , ▲ ▼ ≡δ
It is calculated by the following equation using h .

δ =cos-1{sinSβtsin(Sαt-SSα)} ∴Hαt=δ =modπ(δs t+π/2) Hβt=π/2 本発明では、第13図に示すように、半径rを設定し、
各視線hをrだけ並行移動させた大円を描く。そのた
めには、まず、視線の方位を示す点Hとカメラの位置
Cとから、接線の極G(Gαt,Gβt)を求める。
The δ S t = cos -1 {sinSβ t sin (Sα t -SSα)} ∴Hα t = δ h t = mod π (δ s t + π / 2) Hβ t = π / 2 the invention, in FIG. 13 Set the radius r as shown,
Draw a great circle that translates each line of sight h t by r. For that purpose, first, the tangent pole G t (Gα t , Gβ t ) is obtained from the point H t indicating the azimuth of the line of sight and the position C of the camera.

視線を左右に並行移動した大円の極をB± (Bα±,Bβ±)とすると、それぞれの演算結果は
次のようになる。
Gaze right and left in parallel moved great circle of pole B ± t (Bα ± t, Bβ ± t) When each of the operation result is as follows.

Bα±=Gα ただし、 r:設定した円柱体の半径 R:撮影球面と距離球面の距離 ここで、カメラを動かしながらB±を球面写像して行
くことにより、集積交点Q(Qα,Qβ))が得られ、
平面Ω上での円筒中心の位置(ρ,θ)は、以下の式で
求まる。
Bα ± t = Gα t However, r: radius of the set cylindrical body R 0 : distance between the shooting spherical surface and the distance spherical surface Here, by accumulating the spherical surface of B ± t while moving the camera, the accumulated intersection point Q (Qα, Qβ)) is obtained. The
The position (ρ, θ) of the center of the cylinder on the plane Ω is obtained by the following formula.

ρ=RtanQβ,θ=Qα これらの値を算出した撮像プロセッサー38は写像メモ
リ41に格納する。
ρ = R 0 tanQβ, θ = Qα The image pickup processor 38 that has calculated these values stores them in the mapping memory 41.

このようにして円柱体Bの中心軸の位置Qと半径rとを
同時に求めることができる。
In this way, the position Q of the central axis of the cylindrical body B and the radius r can be obtained at the same time.

〔発明の効果〕〔The invention's effect〕

以上のように本発明に係るロボットの3次元計測システ
ムによれば、写像法を用い、カメラを移動して得た複数
枚の画像から中心軸方位を求め、この軸に垂直でカメラ
の中心を通る平面で対象物たる円柱体を切ることによ
り、円柱体の接線を求め、更に各接線を仮定半径長だけ
オフセットさせた直線をカメラの並進により複数複数生
成して集積交点を求めらので、円柱体の位置・姿勢を3
次元的に計測することが可能となる。
As described above, according to the robot three-dimensional measurement system of the present invention, the central axis azimuth is obtained from a plurality of images obtained by moving the camera by using the mapping method, and the center of the camera is measured perpendicularly to this axis. The tangents to the cylinder are obtained by cutting the cylinder that is the object in the plane that passes through, and a plurality of straight lines with each tangent offset by the assumed radius length are generated by translation of the camera to obtain the accumulation intersection. Body position / posture 3
It becomes possible to measure dimensionally.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明に係るロボットの3次元計測システムを
概念的に示したブロック図、 第2図は本発明により円柱体の接線を生成するため、円
柱体を平面投影したところを説明するための斜視図、 第3図は本発明により円柱体の接線を生成するため、円
柱体を球面投影したところを説明するための斜視図、 第4図は本発明の基本概念を説明するための図、 第5図は本発明のロボットの3次元計測システムのハー
ドウェア構成図、 第6図はカメラの移動方向計測方法の原理を説明する
図、 第7図は円柱体のパラメータを説明するための図、 第8図は円柱体の中心軸方位を計測するための説明図、 第9図は本発明のアルゴリズムを概略的に示す流れ図、 第10図はカメラを移動させた時の距離球面上に投影さ
れた様子を示す斜視図、 第11図はカメラの撮影球面の北半球を極座標で表した
図、 第12図は円柱体の軸方位を北極とする距離球面を極座
標で表した図、 第13図は本発明により生成される円柱体の接線の左右
両平行線を極座標で表わした図、 第14図は対象物を平面投影及び球面投影したときの様
子を示す図、 第15図は点に対する球面写像を説明するための図、 第16図は球面写像された線分の集積点の生成を説明す
るための図、 第17図はカメラを並行移動したときに求められる線分
の方位を説明するための図、 第18図は線分を球面写像してカメラまでの距離を求め
るための説明図、 第19図はカメラを移動させることにより対象点を抽出
させるところを示した図、である。 1……カメラ、 2……演算手段、 B……円柱体、 S……集積点、 SS……中心軸方位、 v……カメラの移動方向、 l……輪郭線、 lSS……大円、 Q……中心軸位置、 h……接線。 尚、図中、同一符号は同一又は相当部分を示す。
FIG. 1 is a block diagram conceptually showing a three-dimensional measuring system for a robot according to the present invention, and FIG. 2 is a view for explaining a plan projection of a cylindrical body in order to generate a tangent line of the cylindrical body according to the present invention. FIG. 3 is a perspective view for explaining a spherical projection of the cylindrical body in order to generate the tangent line of the cylindrical body according to the present invention, and FIG. 4 is a view for explaining the basic concept of the present invention. 5, FIG. 5 is a hardware configuration diagram of a robot three-dimensional measurement system of the present invention, FIG. 6 is a diagram for explaining the principle of a camera movement direction measurement method, and FIG. 7 is a diagram for explaining parameters of a cylindrical body. Fig. 8 is an explanatory diagram for measuring the central axis azimuth of a cylindrical body, Fig. 9 is a flowchart schematically showing the algorithm of the present invention, and Fig. 10 is a distance spherical surface when the camera is moved. Fig. 11 is a perspective view showing the projected state Is a diagram showing the northern hemisphere of the photographing sphere of the camera in polar coordinates. FIG. 12 is a diagram showing in polar coordinates a distance sphere in which the axial direction of the cylinder is the north pole. FIG. 13 is a tangent line of the cylinder produced by the present invention. Fig. 14 is a diagram showing both left and right parallel lines in polar coordinates, Fig. 14 is a diagram showing a state when an object is projected on a plane and a spherical surface, Fig. 15 is a diagram for explaining a spherical mapping to a point, Fig. 16 Is a diagram for explaining the generation of the accumulation points of the spherically mapped line segments, FIG. 17 is a diagram for explaining the direction of the line segments obtained when the camera is moved in parallel, and FIG. FIG. 19 is an explanatory diagram for obtaining a distance to a camera by spherical mapping, and FIG. 19 is a diagram showing that a target point is extracted by moving the camera. 1 ...... camera, 2 ...... calculating means, B ...... cylinder, S ...... accumulation point, SS ...... central axis orientation, v moving direction of the ...... camera, l h ...... outline, l SS ...... Univ Circle, Q: central axis position, h: tangent line. In the drawings, the same reference numerals indicate the same or corresponding parts.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 安川 裕介 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 審査官 田部 元史 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Yusuke Yasukawa No. 1015 Kamiodanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture Fujitsu Limited Examiner, Genji Tabe

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】移動機構を有するカメラ(1)を並進させな
がら撮影した複数枚の画像データを演算手段(2)で写像
して対象物を3次元的に計測するシステムにおいて、 該計測対象が円柱体(B)のとき、該演算手段(2)が、該円
柱体(B)の輪郭線(l)からその中心軸方位(SS)を求
め、該中心軸方位(SS)に垂直で該カメラの中心(C)を通
る平面(Ω)で該円柱体(B)を切った断面円に接する
接線(h)を求め、更に各接線を仮定半径長だけ平行移動
させた直線を該カメラの並進により複数生成することに
よって生じる集積交点(Q)を抽出し以て該円柱体(B)の中
心軸位置と半径を求めることを特徴とするロボットの3
次元計測システム。
1. A system for three-dimensionally measuring an object by mapping a plurality of image data taken by translating a camera (1) having a moving mechanism by a computing means (2). In the case of a cylindrical body (B), the computing means (2) obtains the central axis azimuth (SS) from the contour line (l h ) of the cylindrical body (B), and determines the central axis azimuth (SS) perpendicularly to the central axis azimuth (SS). A tangent line (h) tangent to a cross-section circle cut through the cylindrical body (B) at a plane (Ω) passing through the center (C) of the camera is obtained, and a straight line obtained by translating each tangent line by an assumed radius length is taken by the camera. 3 of the robot characterized in that the central axis position and the radius of the cylindrical body (B) are obtained by extracting the accumulated intersection points (Q) generated by generating a plurality by the translation of
Dimensional measurement system.
【請求項2】前記演算手段(2)が、前記中心軸位置を極
とする大円(lSS)に沿い、前記輪郭線(l)から得
られる集積点(S)を90°回転させることにより得られ
る点(H)と前記カメラの中心(C)とを結んだ線を前記円柱
体(B)の接線(h)として求めることを特徴とする特許請求
の範囲第1項に記載のロボットの3次元計測システム。
2. The computing means (2) rotates an integration point (S) obtained from the contour line (l h ) by 90 ° along a great circle (l SS ) having a pole at the central axis position. The line connecting the point (H) obtained by the above and the center (C) of the camera is obtained as the tangent line (h) of the cylindrical body (B). Robot 3D measurement system.
JP62175903A 1987-07-16 1987-07-16 Robot 3D measurement system Expired - Lifetime JPH0610602B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62175903A JPH0610602B2 (en) 1987-07-16 1987-07-16 Robot 3D measurement system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62175903A JPH0610602B2 (en) 1987-07-16 1987-07-16 Robot 3D measurement system

Publications (2)

Publication Number Publication Date
JPS6421305A JPS6421305A (en) 1989-01-24
JPH0610602B2 true JPH0610602B2 (en) 1994-02-09

Family

ID=16004249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62175903A Expired - Lifetime JPH0610602B2 (en) 1987-07-16 1987-07-16 Robot 3D measurement system

Country Status (1)

Country Link
JP (1) JPH0610602B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02276911A (en) * 1989-04-19 1990-11-13 Agency Of Ind Science & Technol Method for extracting movement track information by time-series mapping with limited movement range
WO1990016037A1 (en) * 1989-06-20 1990-12-27 Fujitsu Limited Method for measuring position and posture of object

Also Published As

Publication number Publication date
JPS6421305A (en) 1989-01-24

Similar Documents

Publication Publication Date Title
JP4685313B2 (en) Method for processing passive volumetric image of any aspect
CN112001926B (en) RGBD multi-camera calibration method, system and application based on multi-dimensional semantic mapping
CN111079565B (en) Construction method and identification method of view two-dimensional attitude template and positioning grabbing system
JP2005115420A (en) Three-dimensional shape generation device
Ahmed et al. Pothole 3D reconstruction with a novel imaging system and structure from motion techniques
CN111060006A (en) Viewpoint planning method based on three-dimensional model
CN106500625A (en) A kind of telecentricity stereo vision measuring apparatus and its method for being applied to the measurement of object dimensional pattern micron accuracies
CN114782470B (en) Three-dimensional panoramic recognition positioning method of alimentary canal, storage medium and equipment
CN110599501B (en) Real scale three-dimensional reconstruction and visualization method for gastrointestinal structure
Klein et al. The view-cube: An efficient method of view planning for 3d modelling from range data
JPH0610602B2 (en) Robot 3D measurement system
Bunschoten et al. Range estimation from a pair of omnidirectional images
WO2023133125A1 (en) System and method for mapping the skin
JP3512894B2 (en) Relative moving amount calculating apparatus and relative moving amount calculating method
JPH0610603B2 (en) Robot 3D measurement system
JPH06101023B2 (en) Robot 3D measurement system
Chen et al. Virtual binocular vision systems to solid model reconstruction
JP2697917B2 (en) 3D coordinate measuring device
Wang et al. Full Period Three-dimensional (3-D) Reconstruction Method for a Low Cost Singlelayer Lidar.
JP3548652B2 (en) Apparatus and method for restoring object shape
Zancajo-Blazquez et al. Segmentation of indoor mapping point clouds applied to crime scenes reconstruction
JPH0238804A (en) Apparatus for measuring object
JPH0614356B2 (en) Information extraction method
CN110772258A (en) Multi-view ranging method for measuring human body size
JP2675999B2 (en) Plane measurement method

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term