JPS6393076A - Form measuring instrument - Google Patents

Form measuring instrument

Info

Publication number
JPS6393076A
JPS6393076A JP61238472A JP23847286A JPS6393076A JP S6393076 A JPS6393076 A JP S6393076A JP 61238472 A JP61238472 A JP 61238472A JP 23847286 A JP23847286 A JP 23847286A JP S6393076 A JPS6393076 A JP S6393076A
Authority
JP
Japan
Prior art keywords
point
measured
slope
brightness
surface element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61238472A
Other languages
Japanese (ja)
Inventor
Masami Ogata
昌美 緒形
Shigeo Komuro
小室 茂雄
Tetsuzo Kuragano
哲造 倉賀野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP61238472A priority Critical patent/JPS6393076A/en
Publication of JPS6393076A publication Critical patent/JPS6393076A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To obtain an external form in a short time and with high accuracy by obtaining element points adjacent to the intersecting point of equi-luminance lines for lightness of a surface element of an object to be measured from a reflectance map of a reference object and then obtaining the gradient of the lightness surface element through interpolation arithmetic. CONSTITUTION:Light sources 4A, 4B and 4C are successively turned on to obtain the reflectance maps RM1-RM3 showing the lightness corresponding to the gradient of the surface element of a reference object via one TV camera 5. Then the lightness of the surface element of an object 3 to be measured is obtained in response to those maps RM1-RM3 and based on sampling data on the object 3B obtained by means of light sources 4A-4C and via the camera 5. Then the element points adjacent to the intersecting point of the equi- luminance lines having lightness equal to that of the surface element of the object 3B are obtained from the elements of maps RM1-RM3. Then interpolation arithmetic is carried out at said element points to obtain the gradient of the surface element of the object 3B. Thus the external form data is obtained. In such a way, the form of the object 3B is measured in a short time and with high accuracy.

Description

【発明の詳細な説明】 以下の順序で本発明を説明する。[Detailed description of the invention] The present invention will be explained in the following order.

A産業上の利用分野 B発明の概要 C従来の技術 り発明が解決しようとする問題点 E問題点を解決するための手段(第1図及び第23図) F作用(第1図及び第23図) G実施例(第1図〜第6図) (Gl)実施例の構成(第1図) (G2)リフレクタンスマツプの作成(第1図〜第6図
) (G3)被測定物体3Bの面素の傾き(第1図及び第2
図、第7図〜第9図) (G4)リフレクタンスマツプの検索(第F図及び第2
図、第10図〜第23図) (G5)曲面の再構成(第1図及び第2図、第24図及
び第25図) (G6)他の実施例 H発明の効果 A産業上の利用分野 本発明は形状測定装置に関し、特に3次元物体の外形形
状情報を得る場合に適用して好適なものである。
A: Industrial field of application B: Outline of the invention C: Conventional technology: Problems to be solved by the invention E: Means for solving the problem (Figs. 1 and 23) F: Effects (Figs. 1 and 23) Figure) Example G (Figures 1 to 6) (Gl) Configuration of Example (Figure 1) (G2) Creation of reflectance map (Figures 1 to 6) (G3) Object to be measured 3B The slope of the surface element (Figs. 1 and 2)
Figures 7 to 9) (G4) Search for reflectance maps (Figures F and 2)
(Figs. 10 to 23) (G5) Reconstruction of curved surfaces (Figs. 1 and 2, Figs. 24 and 25) (G6) Other embodiments H Effects of the invention A Industrial application FIELD OF THE INVENTION The present invention relates to a shape measuring device, and is particularly suitable for obtaining external shape information of a three-dimensional object.

B発明の1既要 本発明は、1台のテレビジョンカメラによって基準物体
に基づいて被測定物体の外形形状を測定する形状測定装
置において、基準物体から得られるリフレクタンスマツ
プの中から被測定物体の所定の面素の明るさの等輝度線
の交点に隣接する要素の点を求めた後、この要素の点に
おいて補間演算を用いて当該明るさの面素の傾きを求め
ることにより、短い計算時間で被測定物体の面素の傾き
を求めることができ、かくするにつき、被測定物体の外
形形状を短時間の内に容易にかつ精度良く、測定するこ
とができる。
B Invention 1 Existing Invention The present invention provides a shape measuring device that measures the outer shape of an object to be measured based on a reference object using one television camera. After finding the point of the element adjacent to the intersection of the isobrightness lines of the brightness of a given surface element of The inclination of the surface elements of the object to be measured can be determined in time, and the external shape of the object to be measured can thus be easily and accurately measured within a short period of time.

C従来の技術 従来この種の形状測定装置として、被測定物体の表面に
プローブを当てて表面をなぞって行くいわゆる接触型の
ものが用いられている。
C. Prior Art Conventionally, as this type of shape measuring device, a so-called contact type device has been used in which a probe is applied to the surface of an object to be measured and the surface is traced.

ところが接触型の形状測定装置は、第1に、データの取
り込みにかなり時間がかかる問題がある。
However, the first problem with contact-type shape measuring devices is that it takes a considerable amount of time to capture data.

また第2に特に巨大な物体、例えば飛行機、船舶等の物
体の形状を計測するような場合や、微細加工物の検査等
のように特に微小な物体を計測するような場合には、実
際上適用し得ない問題がある。
Secondly, when measuring the shape of particularly large objects such as airplanes and ships, or when measuring particularly minute objects such as inspecting microfabricated objects, it is difficult to There is a problem where it cannot be applied.

さらに第3に被測定物体が柔らかい物体である場合には
、プローブが接触した時表面が曲がったり、凹んだりす
るために正しい外形形状を計測できない場合がある。
Third, if the object to be measured is a soft object, the surface may be bent or depressed when the probe comes into contact with it, making it impossible to measure the correct external shape.

かかる問題点を解決するため従来被測定物体の外形形状
を非接触的手法を用いて計測する方法として、両眼立体
視計測法、光を用いる距離センサによる計測法、単眼視
計測法等が考えられている。
To solve this problem, conventional methods for measuring the external shape of an object using a non-contact method include binocular stereoscopic measurement, measurement using a distance sensor using light, and monocular measurement. It is being

D発明が解決しようとする問題点 しかし、従来は、非接触型の形状測定装置として、実用
上十分な精度で物体の形状を測定し得る構成のものを実
現することは困難であった。
D Problems to be Solved by the Invention However, conventionally, it has been difficult to realize a non-contact type shape measuring device that can measure the shape of an object with sufficient precision for practical use.

本発明は以上の点を考IQシてなされたもので、単眼視
計測法の中の1つの手法である照度差ステレオ法(Ph
otometric 5tereo法)を用いて被測定
物体の外形形状を確実に測定し得るようにした形状測定
装置を提案しようとするものである。
The present invention has been made with the above points in mind, and is one of the monocular visual measurement methods, the photometric stereo method (Ph
This paper attempts to propose a shape measuring device that can reliably measure the external shape of an object to be measured using the otometric 5-tereo method.

E問題点を解決するための手段 かかる問題点を解決するため本発明においては、複数の
光源4A、4B、4Cを順次点灯して、1台のテレビジ
ョンカメラ5を介して得られろ基準物体3Aのサンプリ
ングデータDATAに基づいて、基準物体3Aの面素S
Sの傾きに対応する明るさR+(Tar 、q、) 、
RZ(p、 、q、) 、R3(p、、、q3)を表す
複数のりフレクションマップRMI、RM2、RM3を
得、基準物体3Aと同一の光m4A、4B、4Cを用い
てテレビジョンカメラ5を介して得られる被測定物体3
BのサンプリングデータDATAに基づいて、リフレク
ションマツプRMI、RM2、RM3に対応する被測定
物体3Bの面素SSの明るさ It、Iz、■3を求め
、リフレクタンスマツプRMI、RM2、RM3を構成
する要素の中から、被測定物体3Bの所定の面素SSの
明るさIt、It、Isと等しい明るさの等輝度kg 
 LR+(p、q) 、LRz(plq) 、LRz(
1)Sq)の交点P、に隣接する要素の点P (161
+11 、P (+a+I+n) 、P (111?1
−11 、P (*+1+、、−11を求め、当該要素
の点 P (++++ nl 、P (s*I+ nl
 、P (no□11 、P (s*l+n−Hにおい
て補間演算により被測定物体3Bの面素SSの(頃き(
p、q)を求め、当該面素SSの傾き(1)、q)に基
づいて被測定物体3Bの外形形状データFOMを求める
ようにする。
E Means for Solving Problem E To solve this problem, in the present invention, a plurality of light sources 4A, 4B, and 4C are sequentially turned on to obtain a reference object through one television camera 5. Based on the sampling data DATA of 3A, the surface element S of the reference object 3A is
Brightness R+(Tar, q,) corresponding to the slope of S,
Obtain multiple reflection maps RMI, RM2, RM3 representing RZ(p, , q,), R3(p, , q3), and use the same lights m4A, 4B, 4C as the reference object 3A to create a television camera. Object to be measured 3 obtained through 5
Based on the sampling data DATA of B, the brightness It, Iz, ■3 of the surface element SS of the object to be measured 3B corresponding to the reflection maps RMI, RM2, RM3 are determined, and the reflectance maps RMI, RM2, RM3 are constructed. Among the elements, isoluminance kg whose brightness is equal to the brightness It, It, Is of a predetermined surface element SS of the object to be measured 3B
LR+(p, q), LRz(plq), LRz(
1) Point P of the element adjacent to the intersection P of Sq) (161
+11, P (+a+I+n), P (111?1
-11, P (*+1+,, -11 is calculated, and the point P (+++++ nl , P (s*I+ nl
, P (no□11, P (s*l+n-H), the surface element SS of the object to be measured 3B is
p, q), and the external shape data FOM of the object to be measured 3B is determined based on the slope (1), q) of the surface element SS.

F作用 1台のテレビジョンカメラ5によって撮像して得られる
サンプリングデータDATAから検出した面素SSの傾
き(p、q)を積分すれば、被測定物体3Bの外形形状
を表す外形形状データFOMが得られる。
F effect If the slope (p, q) of the surface element SS detected from the sampling data DATA obtained by imaging with one television camera 5 is integrated, the external shape data FOM representing the external shape of the object to be measured 3B is obtained. can get.

面素SSの傾き(p、q)を求める際に、等輝度線t、
Rt(p、q) 、LRz(p、q) 、LR3(p、
q)の交点P、に隣接する要素の点 P (a+ R1
、P (#、、+y+l 、P (+c+n−1) 、
P (a*I+n−1)を求め、要素の点 P (s+
+ Fil 、P (@。L+111 、P (Ill
++%−1、P (*+l+n−11において補間演算
を用いて当該面素SSの傾き(p、q)を求めることに
より、短い演算時間で精度良く面素SSの傾き(p、q
)を求めることができる。
When calculating the slope (p, q) of the surface element SS, the isobrightness line t,
Rt(p, q), LRz(p, q), LR3(p,
Point P (a+ R1) of the element adjacent to the intersection P of q)
, P (#,, +y+l , P (+c+n-1),
Find P (a*I+n-1) and find the element point P (s+
+ Fil, P (@.L+111, P (Ill
++%-1, P (*By calculating the slope (p, q) of the surface element SS using interpolation in +l+n-11, the slope (p, q) of the surface element SS can be calculated with high accuracy in a short calculation time.
) can be obtained.

G実施例 以下図面について、本発明の一実施例を詳述する。G example An embodiment of the present invention will be described in detail below with reference to the drawings.

(G1)実施例の構成 第1図において、1は形状測定装置を示し、テーブル2
上に載置した観測対象3を、互いに異なる位置に配設さ
れた複数例えば3つの光源4A、4B、4Cによってそ
れぞれ照明する。
(G1) Configuration of Example In FIG. 1, 1 indicates a shape measuring device, and table 2
The observation object 3 placed thereon is illuminated by a plurality of light sources, for example, three light sources 4A, 4B, and 4C arranged at different positions.

光源4A、4B、4Cは、順次1つずつ点灯されること
により、観測対象3に対して異なる方向から照明光を照
射できるようになされ、かくして観測対象3の外表面上
に、その外形形状に応じて異なる陰影を生じさせるよう
になされている。
The light sources 4A, 4B, and 4C are sequentially turned on one by one, so that they can irradiate the observation object 3 with illumination light from different directions, and thus illuminate the outer surface of the observation object 3 according to its external shape. It is designed to produce different shades depending on the color.

観測対象3は1台のテレビジョンカメラ5によって撮像
され、そのラスクビデオ信号VDがアナログ/ディジタ
ル変換回路6においてディジタルデータに変換された後
フレームメモリ7に書き込まれる。
The observation object 3 is imaged by one television camera 5, and the rusk video signal VD thereof is converted into digital data in an analog/digital conversion circuit 6 and then written into a frame memory 7.

以上の構成によって、観測対象3の外表面の外形形状情
報を、2次元的な明るさの分布(すなわち輝度分布)を
表す画像データとしてフレームメモリ7に書き込むよう
にしてなる形状情報発生部8が形成されている。
With the above configuration, the shape information generating section 8 writes the shape information of the outer surface of the observation object 3 into the frame memory 7 as image data representing a two-dimensional brightness distribution (i.e., brightness distribution). It is formed.

形状測定装置1は、例えばパーソナルコンピュータ、エ
ンジニアリングワークステーション、大型計算機などで
なる画像データ処理装置11を有し、そのバス12を通
じて、フレームメモリ7に書き込まれたビデオデータD
ATAを、形状情報発生部8の出力として画像データ処
理装置11に取り込み得るようになされている。
The shape measuring device 1 has an image data processing device 11 made up of, for example, a personal computer, an engineering workstation, a large computer, etc.
The ATA can be input into the image data processing device 11 as an output of the shape information generating section 8.

画像データ処理袋ff1lは3次元データ作成部11八
及び曲面生成部11Bを有し、第2図に示す処理ステッ
プを実行することによって、先ず3次元データ作成部1
1Aにおいて取り込んだビデオデータDATAから観測
対象3の面素の傾きを表す3次元データを作成すると共
に、曲面生成部11Bにおいて当該3次元データに基づ
いて観測対象3の表面形状を表す曲面を生成する。
The image data processing bag ff1l has a three-dimensional data generating section 118 and a curved surface generating section 11B, and by executing the processing steps shown in FIG.
1A creates three-dimensional data representing the inclination of the surface elements of the observation object 3 from the captured video data DATA, and at the same time generates a curved surface representing the surface shape of the observation object 3 based on the three-dimensional data in the curved surface generation section 11B. .

このようにして3次元データ作成部11Aにおいて作成
された3次元データ及び曲面生成部11Bにおいて生成
された曲面データは、バス12を介して例えばディスク
記憶装置でなる外部メモリ13に蓄積される。
The three-dimensional data thus created in the three-dimensional data creation section 11A and the curved surface data created in the curved surface creation section 11B are stored via the bus 12 in an external memory 13 made of, for example, a disk storage device.

また画像データ処理装置11は、外部メモリ13に格納
されているデータをバス12を介して読み出してグラフ
ィックディスプレイ14上に表示し得る。
The image data processing device 11 can also read data stored in the external memory 13 via the bus 12 and display it on the graphic display 14 .

さらに画像データ処理装置11は、外部メモリ13に蓄
積されたデータをバス12を介して読み出してNC工作
機械15に対する加工情報として供給し、これによりN
C工作機械15のツールを駆動することによって観測対
象3と同じ外形形状を有する製品を削り出すことができ
るようになされている。
Furthermore, the image data processing device 11 reads data accumulated in the external memory 13 via the bus 12 and supplies it as machining information to the NC machine tool 15.
By driving the tools of the C machine tool 15, a product having the same external shape as the observation object 3 can be cut out.

さらに第1図の実施例の場合、画像データ処理装置11
は、外部メモリ13に格納されているデータをバス12
を介して読み出してロボット装置15のロボット本体1
6に供給することにより、当8亥データをロボットの目
として利用してロボット本体16の動きを制御すること
ができるようになされている。
Furthermore, in the case of the embodiment shown in FIG. 1, the image data processing device 11
transfers data stored in external memory 13 to bus 12
The robot body 1 of the robot device 15 is read out via the
By supplying the data to the robot body 16, the movement of the robot body 16 can be controlled using the data as the eyes of the robot.

(G2)リフレクタンスマツプの作成 画像データ処理装置11の3次元データ作成部11Aは
、第2図のステップSPIにおいて外形形状が既知の基
準物体3Aについてリフレクタンスマツプ(反射率地図
)RMを作成すると共に、ステップSP2において被測
定物体3Bを観測して画像データを得ると共に、ステッ
プSP3において当該被測定物体3Bの画像データと、
リフレクタンスマツプから得られる傾きデータとに基づ
いて面素の傾きを計算する。
(G2) Creation of reflectance map The three-dimensional data creation unit 11A of the image data processing device 11 creates a reflectance map (reflectance map) RM for the reference object 3A whose external shape is known in step SPI of FIG. At the same time, in step SP2, the object to be measured 3B is observed to obtain image data, and in step SP3, the image data of the object to be measured 3B,
The slope of the surface element is calculated based on the slope data obtained from the reflectance map.

その後、画像データ処理装置110曲面生成部11Bは
、第2図のステップSP4においてステップSP3の処
理によって得られた面素の傾きに基づいて被測定物体3
Bの外形形状を表す曲面を再構成する。
Thereafter, the curved surface generation unit 11B of the image data processing device 110 generates the object to be measured 3 based on the slope of the surface element obtained by the process of step SP3 in step SP4 of FIG.
A curved surface representing the external shape of B is reconstructed.

先ず、3次元データ作成部11Aは、第2図のステップ
SPIにおいて、第3図に示すような処理手順に従って
、リフレクタンスマツプRMを作成する。
First, in step SPI of FIG. 2, the three-dimensional data creation section 11A creates a reflectance map RM according to the processing procedure shown in FIG. 3.

すなわち第1図のテーブル2上の観測対象3として外形
形状が既知であり、かつ面素SSとしてあらゆる方向の
傾きを有する曲面(例えば半球面)を有する基準物体3
Aについて、第1の光源4A、第2の光源4B、第3の
光源4Cを順次点灯させた状態で、テレビジョンカメラ
5によってラスクビデオ信号VDを得る。
That is, a reference object 3 whose external shape is known as the observation object 3 on the table 2 in FIG.
Regarding A, a rusk video signal VD is obtained by the television camera 5 with the first light source 4A, second light source 4B, and third light source 4C turned on in sequence.

このとき得られるラスクビデオ信号VDの内容は、光源
4A、4B、4Cの照明方向に応じて、基準物体3Aの
外表面上の各点の明るさに対応する2次元的な濃淡画像
PCRを表している。
The content of the rask video signal VD obtained at this time represents a two-dimensional grayscale image PCR corresponding to the brightness of each point on the outer surface of the reference object 3A, depending on the illumination direction of the light sources 4A, 4B, and 4C. ing.

すなわち、テレビジョンカメラ5を、半球面をもつ基準
物体3への中心を通るz軸上の上方位置に設定すると、
濃淡画像PCRには、基準物体3Aを平面図として見た
と同様の円形形状に対して、基準物体3A上の面素SS
の明るさを濃淡模様として表した画像をxy直交座標上
に描いてなる2次元的濃淡画像PCRが得られる。この
濃淡画像PCRのxy座標上の各点(Xユ、yj)の明
るさは、基準物体3Aのテレビジョンカメラ5の方向(
すなわち観測方向)から見た面素SSの傾きと、光源4
A、又は4B、又は4Cからの照明光の向きとによって
決まる輝度になる。
That is, when the television camera 5 is set at an upper position on the z-axis passing through the center of the reference object 3 having a hemispherical surface,
The grayscale image PCR includes surface elements SS on the reference object 3A for a circular shape similar to that seen in a plan view of the reference object 3A.
A two-dimensional grayscale image PCR is obtained by drawing an image representing the brightness of the image as a grayscale pattern on xy orthogonal coordinates. The brightness of each point (XY, yJ) on the xy coordinates of this grayscale image PCR is determined by the direction of the television camera 5 of the reference object 3A (
In other words, the inclination of the surface element SS as seen from the observation direction) and the light source 4
The brightness is determined by the direction of the illumination light from A, 4B, or 4C.

半球面の外形形状を存する基準物体3Aの表面は、xy
座標上の各点(xi% Yt ’における2方向の高さ
として z = f (xl、yj)        ・・・・
・・(1)のように基準物体3Aの外形形状を表す方程
式f(Xt % ’/j)によって表現し得る。
The surface of the reference object 3A having a hemispherical external shape is xy
As the height in two directions at each point on the coordinates (xi% Yt') z = f (xl, yj)...
...It can be expressed by the equation f(Xt%'/j) representing the external shape of the reference object 3A as shown in (1).

また、基準物体3Aのxy座標上の点(xl、yj)に
ある面素SSの法線ベクトルnは、・・・・・・(2) のように表すことができる。
Further, the normal vector n of the surface element SS at the point (xl, yj) on the xy coordinates of the reference object 3A can be expressed as follows (2).

因に、(2)式においてa f / a xは、第4図
に示すように、面素SS(その中心が点(Xt、yJ)
にある)のX方向の傾きを示し、またaf/ayは面素
SSのX方向の傾きを示す。そして法線ベクトルnは、
xy平面上の点(xi、yj)から見たX方向の傾きを
表すベクトルaと、X方向の傾きを表すベクトルbとの
外積を求めることによって、(2)式のように表すこと
ができる。
Incidentally, in equation (2), a f / a x is the surface element SS (the center of which is the point (Xt, yJ)
) in the X direction, and af/ay represents the tilt in the X direction of the surface element SS. And the normal vector n is
By finding the cross product of vector a representing the inclination in the X direction as seen from point (xi, yj) on the xy plane and vector b representing the inclination in the X direction, it can be expressed as in equation (2). .

リフレクタンスマツプRMは、第5図に示すように、こ
の面素SSの傾きa f / a x及びaf/ayを
変数とするpq直交座標系によって表現される。
As shown in FIG. 5, the reflectance map RM is expressed by a pq orthogonal coordinate system in which the slopes a f /ax and af/ay of this surface element SS are variables.

すなわちX方向の傾きp及びX方向の傾きqをそれぞれ のように表せば、面素SSのX方向の傾きp及びX方向
の傾きqで表されるpq直交座標系における任意の点の
座標(p、q)によって、基準物体3A上の面素SSの
全ての方向の傾きを表すことができる。そしてこの傾き
p及びqは、xy平面上の点(Xム、yj)における法
線ベクトルnの方向に対応している。さらにこの法線ベ
クトルnは、テレビジョンカメラ5から見たときの面素
SSの明るさに対応しているので、結局リフレクタンス
マツプRMを表すpq直交座標上の点(p、q)の位置
は、ラスクビデオ信号VDが表す2次元的な濃淡画像P
CRを構成する面素SSの明るさを表しているものであ
る。
That is, if the slope p in the X direction and the slope q in the X direction are respectively expressed as p, q) can represent the inclination of the surface element SS on the reference object 3A in all directions. The inclinations p and q correspond to the direction of the normal vector n at the point (X, yj) on the xy plane. Furthermore, since this normal vector n corresponds to the brightness of the surface element SS when viewed from the television camera 5, the position of the point (p, q) on the pq orthogonal coordinates representing the reflectance map RM is is a two-dimensional grayscale image P represented by the rask video signal VD.
It represents the brightness of the surface element SS that constitutes CR.

そこでpq直交座標上に、輝度Iが等しい点を結んで、
これを次式 %式%(5) のように傾きp及びqの関数R(p、q)で表される等
輝度線として表示すれば、結局当該等輝度線によって濃
淡画像PCR(第3図)上の濃淡模様(従って基準物体
3Aの表面の面素SSの傾き分布)を、リフレクタンス
マツプRMの等輝度線によって表すことができることに
なる。
Therefore, on the pq orthogonal coordinates, connect points with equal brightness I,
If this is expressed as an isobrightness line expressed by a function R (p, q) with slopes p and q as shown in the following equation (5), the density image PCR (Fig. ) (therefore, the slope distribution of the surface elements SS on the surface of the reference object 3A) can be represented by the isobrightness lines of the reflectance map RM.

ここでリフレクタンスマツプRM上に現れる等輝度線の
模様は、面素SSの明るさの分布に対応するが、当該面
素SSの明るさはその傾き以外にも、面素を構成する表
面の反射の性rt<すなわち拡散反射成分及び鏡面反射
成分の割合)などの影響をも含んだ値になる。従って一
般的には、面素SSの明るさから面素SSの傾きを求め
るためには、表面の反射の性質等を予め知っておき、こ
れを補正する必要があり、実際上かかる構成は極めて困
難である。
Here, the pattern of isoluminance lines appearing on the reflectance map RM corresponds to the brightness distribution of the surface element SS, but the brightness of the surface element SS is determined not only by its slope but also by the distribution of the surface elements constituting the surface element. The value also includes the influence of the reflection property rt (ie, the ratio of the diffuse reflection component to the specular reflection component). Therefore, in general, in order to obtain the slope of the surface element SS from the brightness of the surface element SS, it is necessary to know the reflection properties of the surface in advance and to correct this. In practice, such a configuration is extremely difficult. Have difficulty.

ところがこの問題は、基準物体3Aとして、その表面の
反射の性質等が被測定物体3Bと同一になるような物質
のものを予め選定しておけば、これらの要素は、リフレ
クタンスマツプRMに含ませたままその補正処理をしな
くとも、実用上当該表面の反射の性質等の影響を受けず
に正しい傾きを求めることができる。この実施例の場合
基準物体3Aとして、かかる条件を満足させるような物
体が選定されている。
However, this problem can be solved by selecting a material whose surface reflection properties are the same as those of the measured object 3B as the reference object 3A, so that these elements can be included in the reflectance map RM. In practice, it is possible to obtain the correct inclination without being affected by the reflective properties of the surface, etc., without performing any correction processing on the surface. In this embodiment, an object that satisfies these conditions is selected as the reference object 3A.

このようにして3次元データ作成部11Aは、(5)式
によって表される多数の等輝度線によって形成されたリ
フレクタンスマツプRM (RMI、RM2、RM3)
を得るようなデータの処理を、第1、第2、第3の光源
4A、4B、4Cの照明状態の下にそれぞれについて演
算処理し、かくして第6図(A)、(B)、(C)に示
すように、R+(p、、q)−1・・・・・・(6)R
t(p−q)= 1         ・・・・・・(
7)R3(p−q)=I         ・・・・・
・(8)で表されるリフレクタンスマツプRMI、RM
2、RM3のデータを取り込んで外部メモリ13に格納
して行く。
In this way, the three-dimensional data creation unit 11A creates a reflectance map RM (RMI, RM2, RM3) formed by a large number of isobrightness lines expressed by equation (5).
6A, 6B, and 6C under the illumination conditions of the first, second, and third light sources 4A, 4B, and 4C. ), R+(p,,q)-1...(6)R
t(p-q)=1 ・・・・・・(
7) R3(p-q)=I...
・Reflectance map RMI, RM expressed by (8)
2. Take in the data of RM3 and store it in the external memory 13.

(G3)被測定物体3Bの面素の傾き 3次元データ作成部11Aは、第2図のステップSP2
において被測定物体3Bを観測する。
(G3) Inclination of surface elements of object to be measured 3B The three-dimensional data creation unit 11A performs step SP2 in FIG.
The object to be measured 3B is observed at.

その際オペレータは、第7図に示すように、テーブル2
上に観測対象3として例えばダルマ形状の被測定物体3
Bを載置し、第3図について上述した3つの光源4A、
4B、4Cによる照明条件を変更せずに、順次これらの
光源4A、4B、4Cによって被測定物体3Bを順次照
明して行く。
At that time, the operator should move the table 2 as shown in FIG.
For example, a Darma-shaped object to be measured 3 is shown as an observation object 3 on the top.
B and the three light sources 4A described above with respect to FIG.
The object to be measured 3B is sequentially illuminated by the light sources 4A, 4B, and 4C without changing the illumination conditions by the light sources 4B and 4C.

かくして得られる3枚の濃淡画像PCO(PCOl、P
CO2、PCO3)について、3次元データ作成部11
Aは全ての点CXt 、)’J )における明るさを表
す輝度データを取り込んで外部メモリ13に格納する。
The three gray scale images PCO (PCOl,P
Regarding CO2, PCO3), the three-dimensional data creation unit 11
A takes in brightness data representing the brightness at all points CXt, )'J) and stores it in the external memory 13.

ここで、テレビジョンカメラ5によって2軸の上方から
被測定物体3Bを撮像して得られる濃淡画像PCOL、
PCO2、PCO3は、それぞれ第8図(A)、(B)
、(C)に示すように、光源4A、4B、4Cの照射方
向が異なることにより、互いに陰影の位置が異なる映像
になる。この陰影に対応する画像データでなるビデオデ
ータDATAが3次元データ作成部11Aに取り込まれ
て行く。
Here, a grayscale image PCOL obtained by imaging the object to be measured 3B from above on two axes by the television camera 5,
PCO2 and PCO3 are shown in Figure 8 (A) and (B), respectively.
, (C), the different irradiation directions of the light sources 4A, 4B, and 4C result in images with different shadow positions. Video data DATA consisting of image data corresponding to this shadow is taken into the three-dimensional data creation section 11A.

かくして3次元データ作成部11Aは、被測定物体3B
の観測を終了し、第2図のステップSP3におイテ、濃
淡画像PCO(PCOL、pc。
In this way, the three-dimensional data creation section 11A creates the object to be measured 3B.
After completing the observation, proceed to step SP3 in FIG. 2, where the grayscale image PCO (PCOL, pc.

2、PCO3)のxy座標上の各点(xt 、y、)(
i−・・・・・・i−1、i、i+l・旧・・、j=・
旧・・j−1,Lj+1・・・・・・)を順次指定して
当該指定された点(X! 、’It )における濃淡画
像Pc01、PCO2、PCO3上の明るさII、1z
sI、を求め、当該明るさII、Iz、11と同じ明る
さを有する等輝度線I  (−It 1 L 、13)
(第6図)のデータを、外部メモリー3に格納されてい
るリフレクタンスマツプRM (RMI、RM2、RM
3)から抽出する。
2, PCO3) on the xy coordinates of each point (xt , y, ) (
i-... i-1, i, i+l・old..., j=・
The brightness II, 1z on the grayscale images Pc01, PCO2, PCO3 at the specified point (X!, 'It) by sequentially specifying the old...j-1, Lj+1...)
sI, and find the isobrightness line I (-It 1 L, 13) having the same brightness as the brightness II, Iz, 11.
(Fig. 6) is stored in the external memory 3 as a reflectance map RM (RMI, RM2, RM
3) Extract from.

かくして抽出された明るさ!+ 、It、Isの等輝度
線は、次式 %式%(9) のように、それぞれ関数R+(pSq) 、Rz(p、
q) 、R:+(p、q)の方程式によって表される。
The brightness thus extracted! The isobrightness lines of +, It, and Is are expressed by the functions R+(pSq) and Rz(p,
q), R: + (p, q).

そこで3次元データ作成部11Aは(9)〜(11)式
の連立方程式を解くことにより、3本の等輝度線11%
  z、Iyの交点(p、q)をリフ■ レフタンスマツプRMI、RM2、RM3を重ね合わせ
る処理をすることにより求める。
Therefore, the three-dimensional data creation unit 11A solves the simultaneous equations (9) to (11) to calculate the three isoluminance lines at 11%.
The intersection point (p, q) of z and Iy is obtained by superimposing the leftance maps RMI, RM2, and RM3.

か(して第1、第2、第3の光源を照射した時のxy座
標上の点(x8、yj)の明るさI3、It、Isに基
づいて、これら3つの撮影条件を同時に満足する傾き(
p、q)を、リフレクタンスマツプRM (RMI、R
M2、RM3)を用いて、一意的に決定することができ
る。
(Then, based on the brightness I3, It, and Is of the point (x8, yj) on the xy coordinates when irradiated with the first, second, and third light sources, these three shooting conditions are simultaneously satisfied. Slope (
p, q) as a reflectance map RM (RMI, R
M2, RM3), it can be uniquely determined.

因にかかる演算処理は、先ず第1の光源4Aによって基
準物体3A及び被測定物体3Bを照射することによって
得られるリフレクタンスマツプRMl  (第9図(A
))上の等輝度線IIに対して、第9図(B)に示すよ
うに、第2の光源4Bによって照射されることによって
得られるリフレクタンスマツプRM2の等輝度線I2を
重ね合わせることによって互いに交差する2つの傾きの
点lNC11及びINC+zを求める。続いて第9図(
C)に示すように、第3の光源4Cによって照射される
ことによって得られるリフレクタンスマツプRM3の等
輝度線I、を重ね合わせることにより、一方の交点I 
N CIIだけを一意的に点 (Xl、yj)の位置に
おける面素の傾きSSであると決定することができる。
In this calculation process, first, the reflectance map RMl (Fig. 9(A)
)) By superimposing the isoluminance line I2 of the reflectance map RM2 obtained by irradiation with the second light source 4B, as shown in FIG. 9(B), on the isoluminance line II above. Two slope points lNC11 and INC+z that intersect with each other are determined. Next, Figure 9 (
As shown in C), one intersection I
Only N CII can be uniquely determined to be the slope SS of the surface element at the position of the point (Xl, yj).

このようにして3次元データ作成部11Aは、xy座標
上の点(Xl 、)’j )における面素SSの傾きを
一意的に求めることができ、以下同様にしてxy座標上
の全ての点について同様の演算を実行することにより、
被測定物体3Bでなる観測対象3をテレビジョンカメラ
5によって2次元濃淡画像PCO(PCOI、PCO2
、PCO3)を得ることによって、観測対象3の映像を
措成する全ての面素SSについてその傾きを2次元濃淡
画像から求めることができる。
In this way, the three-dimensional data creation unit 11A can uniquely determine the slope of the surface element SS at the point (Xl,)'j) on the xy coordinates, and in the same way, all points on the xy coordinates. By performing similar operations on
A two-dimensional gray scale image PCO (PCOI, PCO2
, PCO3), the slopes of all the surface elements SS forming the image of the observation object 3 can be obtained from the two-dimensional grayscale image.

なおこの実施例の場合、テレビジョンカメラ5によって
2軸上の上方位置から観測するようになされているので
、濃淡画像PCO(PCOI、PCO2、PCO3)に
おいて観測対象3の映像に対して背景となる部分におい
てはa f / a x = af/ay=0となって
いる。
In the case of this embodiment, since the television camera 5 is used to observe from an upper position on two axes, it becomes the background for the image of the observation object 3 in the grayscale image PCO (PCOI, PCO2, PCO3). In the part, a f / a x = af/ay = 0.

(G4)リフレクタンスマツプの検索 ところが実際上、形状情1発生部8においては、第10
図に示すように、X方向及びX方向について、所定の間
隔だけ離れたサンプリング位置(・・・…X1−1 %
 Xl % Xi*1 ’°0…)\ (……yj−皿
、11% ’jJ。1・・・・・・)において離散的に
観測対象の明るさをサンプリングしてディジタルデータ
を得るようになされ、これに基づいて作成されるリフレ
クタンスマツプRM (RMI、RM2、RM3)は第
11図に示すように明るさのデータをもつ要素が所定の
傾き(pr 、qs )の間隔で繰り返す離散的な表の
形で外部メモリ13に格納される。
(G4) Search for reflectance map However, in reality, in the shape information 1 generation unit 8, the 10th
As shown in the figure, sampling positions separated by a predetermined interval in the X direction and the
Digital data is obtained by discretely sampling the brightness of the observation target at The reflectance map RM (RMI, RM2, RM3) created based on this is a discrete map in which elements with brightness data repeat at intervals of a predetermined slope (pr, qs), as shown in Figure 11. The information is stored in the external memory 13 in the form of a table.

従って各リフレクタンスマツプRM(RMI、RM2、
RM3)上の等輝度線は、次式%式%(12) で表される離散的な式の形で表される。
Therefore, each reflectance map RM (RMI, RM2,
The isobrightness lines on RM3) are expressed in the form of a discrete equation expressed by the following equation (12).

従って被測定物体3Bの濃淡画像PCR(PCRl、P
CR2、PCR3)をサンプリングして得られる明るさ
f、 、I2及びI3と同じ明るさの等輝度線が、リフ
レクタンスマツプRMの要素上で必ずしも交点を結ばな
い状態が生じ、対応する面素の傾き(p、q)をリフレ
クタンスマツプRMから直接水めることができない場合
がある。
Therefore, the grayscale image PCR (PCRl, P
A situation arises in which isoluminance lines with the same brightness as brightness f, , I2, and I3 obtained by sampling CR2, PCR3) do not necessarily connect the intersection points on the elements of the reflectance map RM, and the corresponding surface elements There are cases where the slope (p, q) cannot be determined directly from the reflectance map RM.

この実施例の場合、リフレクタンスマツプRM上で等輝
度線の交点に最も近い要素の点を求め、当該要素の点を
囲む要素の点の領域において、補間演算することにより
、交点の傾きをもとめるようにする。
In the case of this example, the element point closest to the intersection of the isobrightness lines is found on the reflectance map RM, and the slope of the intersection is determined by performing interpolation calculations in the area of the element points surrounding the element point. do it like this.

このため3次元データ作成部11Aは、第12図に示す
ような処理手順を実行して、交点に最も近い要素の点を
求める。
Therefore, the three-dimensional data creation unit 11A executes the processing procedure shown in FIG. 12 to find the point of the element closest to the intersection.

すなわち3次元データ作成部11Aは、ステップ5PI
Iから当該処理手順に入ってステップ5P12において
第13図に示すようにリフレクタンスマツプRMIをラ
スクスキャンして(この場合はm及びnが順次増加する
方向に)等輝度線LR+(p、q)の開始点を検索する
That is, the three-dimensional data creation unit 11A performs step 5PI
Entering the processing procedure from I, in step 5P12, the reflectance map RMI is scanned as shown in FIG. Find the starting point of.

この開始点の検索は、リフレクタンスマツプRMlの各
要素の点において、次式 %式%) を満足するか否かの判断を行う。
In this search for the starting point, it is determined whether or not the following formula (%) is satisfied at each element point of the reflectance map RM1.

さらに(18)式において肯定結果が得られたときは次
式 %式%) を満足するか否かの判断を行う。
Further, when a positive result is obtained in equation (18), it is determined whether the following equation (%) is satisfied.

ここで第14図に示すように、4つの要素の点P la
+r+1 % P (M++++Il % P (@4
11R1% P (111+1+FllI+で囲まれた
セルS L +11.Fil において、点P (II
I Ill及びP ls+a+I+ の間を等輝度線L
RI(1)、q)が通過する際に、点 P (11+ 
1%)の明るさの方が点P(lR+ n * I l 
より明るい場合は、次式%式%(20) が得られ、(15)式を満足する結果が得られる。逆に
点P (s+nl の明るさの方が点P (s+ n 
+ H)よりagい場合は、次式 %式%(22) の結果が得られ、(15)式を満足する結果が得られる
Here, as shown in FIG. 14, the four element points P la
+r+1 % P (M++++Il % P (@4
11R1% P (In the cell S L +11.Fil surrounded by 111+1+FllI+, the point P (II
An isobrightness line L is drawn between I Ill and P ls+a+I+
When RI(1), q) passes, point P (11+
1%) is brighter than point P(lR+ n * I l
If it is brighter, the following formula % (20) is obtained, and a result that satisfies the formula (15) is obtained. On the contrary, the brightness of point P (s+nl is higher than that of point P(s+n
+ H), the result of the following formula % formula % (22) is obtained, and a result satisfying the formula (15) is obtained.

これに対して等輝度線LRI(p、q)が、点P f+
I+ IIl上を通過する場合は、点P (s+ nl
 の明るさが等輝度線の明るさR,(p、q)と等しく
なり、(17)式を満足する結果が得られる。
On the other hand, the isoluminance line LRI(p, q) is the point P f+
When passing over I+ IIl, point P (s+ nl
The brightness of R, (p, q) becomes equal to the brightness of the isoluminant line, and a result that satisfies equation (17) is obtained.

さらに点P (soR)及び点P(@”I+ al の
間を等輝度線LR+(p、q)が通過する際に、点P 
(1m+ +slO方が点P (m*l+lI+ より
も明るい場合は、次式%式%(24) が得られ、(16)弐において肯定結果が得られる。
Furthermore, when the isoluminant line LR+(p, q) passes between the point P (soR) and the point P(@"I+ al, the point P
(1m++slO is brighter than point P (m*l+lI+), the following formula (24) is obtained, and an affirmative result is obtained in (16) 2.

これに対して点P +s+ ?1)の方が点P (*+
1++s)よりも暗い場合は、次式 %式%(26) が得られ、(16)式において肯定結果が得られる。
On the other hand, the point P +s+? 1) is better at point P (*+
1++s), the following equation %(26) is obtained, and an affirmative result is obtained in equation (16).

さらに第15図に示すように、等輝度)JI L R、
(p、q)が点P fll+I+lll上を通過する場
合は、点p、。l+I%+ の明るさと等輝度線LR+
(p、q)の明るさR+(p、q)が等しくなり(18
)式の関係を満足する。
Further, as shown in FIG. 15, equiluminance) JI L R,
If (p, q) passes over the point P fll+I+llll, then the point p,. The brightness of l+I%+ and the isobrightness line LR+
The brightness R + (p, q) of (p, q) is equal and (18
) satisfies the relationship of Eq.

このとき点P (a*1++sl を通った等輝度線L
 RI (p、 q)が点P(輸−・墓)及びP(―・
I+++・l)の間を通過する場合は、次式 %式%(28) の関係が得られるか、又は、次式 R11,□1)−11<0       ・・・・・・
(30)RI (IllIll ml) −11> O
・・・・・・(31)の関係が得られ、その結果(19
)式の関係を満足する結果が得られる。
At this time, the isobrightness line L passing through the point P (a*1++sl
RI (p, q) is the point P (export-・grave) and P(-・
When passing between I+++・l), the following formula % formula % (28) is obtained, or the following formula R11,□1)-11<0...
(30) RI (IllIll ml) -11>O
...The relationship (31) is obtained, and the result is (19
) can be obtained.

これに対して、等輝度線LR+(p、q)が点P(、、
い、、) 又はP (s+l+a+Il上を通過すると
きは次式 %式%(32) の関係が得られ、(19)式を満足する結果が得られる
On the other hand, the isoluminant line LR+(p, q) is the point P(,,
When passing over s+l+a+Il, the following relationship is obtained, and a result that satisfies equation (19) is obtained.

以上の結果から、3次元データ作成部11Aは、等輝度
線LR+(p、q)に対して、(15)〜(19)式の
関係を満足する点P (11+ a)を検出し、これを
等輝度線LR1(p、q)の開始点P (s。、fi。
From the above results, the three-dimensional data creation unit 11A detects a point P (11+ a) that satisfies the relationships of equations (15) to (19) with respect to the isobrightness line LR+(p, q), and is the starting point P (s., fi.) of the isoluminant line LR1 (p, q).

、と規定して、次のステップ5P13に移り、当該セル
の中を通る等輝度線LR1(p、q)の残りの一端の位
置を検索する。
, the process moves to the next step 5P13, and the position of the remaining end of the isobrightness line LR1 (p, q) passing through the cell is searched.

例えばステップ5PIIにおいて、(15)式を満足す
るような結果が得られた場合、第16図に示すように点
P (IIIRI及びP (Ill+1+1)間を通っ
た等輝度線LRt(p、q)は、実際上、各要素間の間
隔を実用上の範囲で小さくとると、点P。、l、1上、
点P (*+1+*)及び P (fi+l+lI+l
l 0間、点P (m+1++s。1)上と点P(、。
For example, in step 5PII, if a result that satisfies equation (15) is obtained, as shown in FIG. In practice, if the spacing between each element is kept as small as practical, then on the point P.,l,1,
Points P (**+1+*) and P (fi+l+lI+l
l 0, on point P (m+1++s.1) and point P(,.

In ll”+1及びP。+R011の間のいずれかを
通過する。
In ll”+1 and P.+R011.

これに対して、例えば第17図に示すように、(17)
式を満足するように点P (11+ Ill 上を通過
した等輝度線LRI(p−q)は、点 P (+a。1
.に、及び点P (#(il+ 1%。1)の間、点 
P (s+1+、1+ll上と点P1゜11.や、)及
びP (Ill +a+1)の間を通過する。
On the other hand, as shown in FIG. 17, for example, (17)
The isoluminant line LRI(p-q) that passed over the point P (11+Ill) satisfies the formula is the point P (+a.1
.. , and between the point P (#(il+1%.1), the point
It passes between P (s+1+, 1+ll and the point P1°11.) and P (Ill +a+1).

従って各点P (lI+11> 、P (#*1+*)
 、P (a+*、、1及びP (@*l+ II。、
)について(15)式から(17)式と同様の関係式を
立てて、これを満足するか否かを判断することにより等
輝度線LR+(p、q)がセルS L +III M)
のどの方向に向かって進むかを確認することができる。
Therefore, each point P (lI+11>, P (#*1+*)
,P (a+*,,1 and P (@*l+ II.,
), the isoluminance line LR+(p, q) is determined by the cell S L +III
You can check which direction you are heading.

このようにして、等輝度線t、R+(plq)の残りの
一端が求められると、3次元データ作成部11Aは次の
ステップ5P14に移って等輝度線LR+(p、q)に
沿って次のセルの要素の点の検出を行う。
In this way, when the remaining end of the isoluminance line t, R+(plq) is obtained, the three-dimensional data creation unit 11A moves to the next step 5P14 and calculates the next end along the isoluminance line LR+(p, q). Performs point detection of cell elements.

すなわち第18図に示すようにセルS L tar n
)において(工5)式から(19)式の演算を行って開
始点P(、。、7゜、を求めた後、等輝度線LRt(p
、、q)の一端が、例えば点P (a+1.+1)及び
P (114111%や、)間にあるとき、3次元デー
タ作成部11Aは次のセルS L tear n + 
1 +に移って点P (a++s+I)を注目点P (
6111+1) として3次元データ作成部11Aに備
えられたメモリに記憶する。続いて3次元データ作成部
11Aはステップ5P15に移って当該セルS L (
−、−や、)がリフレクタンスマツプRMIの最外周か
否かの判断を行い、ここで否定結果が得られるとステッ
プ5P16に移って、当EKセルSL +lj+ II
 li l l が開始点P0゜、、、。、のセルか否
かの判断を行う。
That is, as shown in FIG.
), calculate the starting point P(,.,7°,) by calculating equations (5) to (19), and then calculate the isoluminance line LRt(p
.
1 Move to + and change point P (a++s+I) to point of interest P (
6111+1) is stored in the memory provided in the three-dimensional data creation unit 11A. Subsequently, the three-dimensional data creation unit 11A moves to step 5P15 and stores the cell S L (
-, -, ) is the outermost periphery of the reflectance map RMI. If a negative result is obtained here, the process moves to step 5P16 and the current EK cell SL +lj+ II
li l l is the starting point P0°,... , it is determined whether the cell is a cell or not.

ここで否定結果が得られるとステップ5P13に戻り、
再び第16図及び第17図について上述したように、点
P (#+ a*1)及びP I+a+++*+I+ 
の間からセルS L (−、−1,)に進入した等輝度
線LR,(p、q)が、どの方向に出て行(かを求める
。この場合、点P (M+l+ n。1.及びP。*+
*n*21の間を通って出たことが求まり、次のステッ
プ5P14に移って点P (**I+ fi+11 を
注目点P (16,1+□1.としてメモリに記憶する
If a negative result is obtained here, return to step 5P13,
Again, as described above with respect to FIGS. 16 and 17, the points P (#+ a*1) and P I+a+++*+I+
Find out in which direction the isoluminant line LR, (p, q) that entered the cell S L (-, -1,) from between the points P (M+l+ n.1. and P. *+
It is determined that the point passed through *n*21 and exited, and the process moves to the next step 5P14, where the point P (**I+ fi+11 is stored in the memory as the point of interest P (16,1+□1.).

かくして、3次元データ作成部11Aは、ステップ5P
13−3P14−3P15−3P13のループを繰り返
すことにより、等輝度8.’ILR1(p、q)の通る
セル”” ”’ S L (m+ 、11 、S L 
(a+ Il”l) 、S L (s、l+ ++*1
+ 、S L 1mal asり・・・・・・のラスタ
スキャン間始端側の点 P (11+ a)、 P (
al n。3.、P (s+l+w++Il 、P (
a*l*+tl ・・”・・を注目点としてメモリに記
憶する。
Thus, the three-dimensional data creation unit 11A performs step 5P.
By repeating the loop of 13-3P14-3P15-3P13, equal brightness 8. 'Cell through which ILR1 (p, q) passes'' S L (m+, 11, S L
(a+ Il”l), S L (s, l+ ++*1
+, S L 1mal asri... Points on the start side between raster scans P (11+ a), P (
al n. 3. ,P(s+l+w++Il,P(
a*l*+tl . . . is stored in the memory as a point of interest.

ステップ5P15において否定結果が得られると(この
ことは、第19図に示すように、等輝度線LR+(p、
q)がリフレクタンスマツプRMIの最外周のセルに到
達したことを意味する)、3次元データ作成部11Aは
ステップ5PI7に移って等輝度St’XLR+(p−
q)のこの方向への追跡を終了して開始点P1゜、1゜
、に戻る。
If a negative result is obtained in step 5P15 (this means that the isoluminance line LR+(p,
q) has reached the outermost cell of the reflectance map RMI), the three-dimensional data creation unit 11A moves to step 5PI7 and calculates the equal brightness St'XLR+(p-
q) ends in this direction and returns to the starting point P1°, 1°.

続いて3次元データ作成部11Aはステップ5P18に
移ってそれまで追跡した方向と逆方向(この場合はセル
S L (III n)からセルS L t、r a 
−r >の方向に)に等輝度線LR+(p、q)を追跡
したか否かの判断を行う。
Next, the three-dimensional data creation unit 11A moves to step 5P18 and moves in the opposite direction to the direction tracked up to that point (in this case, from cell S L (III n) to cell S L t,ra
-r > direction)), it is determined whether or not the isobrightness line LR+(p, q) has been traced.

ここで否定結果が得られると、3次元データ作成部11
Aはステップ5P13に戻ってステップ5P13−3P
14−3P15−3P16−3P13のループを再び繰
り返してセルS L tam、 R1からS L +l
l++ 1%−1)の方向に等輝度線LR+(1)、q
)の追跡を行う。
If a negative result is obtained here, the three-dimensional data creation section 11
A returns to step 5P13 and steps 5P13-3P
14-3P15-3P16-3P13 loop is repeated again and cells S L tam, R1 to S L +l
Isobrightness line LR+(1), q in the direction of l++ 1%-1)
).

等輝度線LR+(1)、Q)の残りの一端が、リフレク
タンスマツプRMIの最外周のセルに到達すると、ステ
ップ5P15において否定結果が得られ、ステップ5P
17に移って開始点P(m。、3゜。
When the remaining end of the isoluminance line LR+(1), Q) reaches the outermost cell of the reflectance map RMI, a negative result is obtained in step 5P15, and step 5P
17 and start point P (m., 3°.

に戻る。Return to

続いて3次元データ作成部11Aはステップ5P18に
移って反対側の方向(この場合はセルSL (@+ 1
1>からS L (an a (11)の方向に)等輝
度線LR+(p、q)の追跡を行ったか否かの判断を行
い、この場合肯定結果が得られ、ステップ5P19に移
って当該処理を終了する。
Next, the three-dimensional data creation unit 11A moves to step 5P18 and moves to the opposite direction (in this case, cell SL (@+1
1>, it is determined whether or not the isoluminance line LR+(p, q) has been traced (in the direction of an a (11)). Finish the process.

これに対して例えば第20図に示すように、゛等輝度v
ALR+(p、q)を追跡して行くと再び元の開始点P
(+++。、7゜、に戻るような等輝度線LR+(p、
q)の場合は、開始点P(、。、fi。)に戻った際に
ステップ5P16において肯定結果が得られ、ステップ
5P19に移って当該処理を終了する。
On the other hand, for example, as shown in FIG.
Tracing ALR+(p, q) returns to the original starting point P
(+++., 7°, isoluminant line LR+(p,
In the case of q), when returning to the starting point P(,.,fi.), an affirmative result is obtained in step 5P16, and the process moves to step 5P19 to end the process.

続いて3次元データ作成部11Aは、各注目点・・・・
・・P (m+ fil ・・・・・・の位置するセル
・・・・・・S L (III R)・・・・・・を求
め、各セル・・・・・・S L (al Fl)・・・
・・・を囲む4つの点 ”・・・・P (IIIRI 
、P (s++q++1 、P (s*1++sl 、
P (s*L++、+11 ・・・・・・ に対応する
明るさ  ・・・・・・(Rl (III II)、R
2Tel 11+、R3(III 111 )、(R1
(+*+e*Il、R!(lI+1%+1)、R□(1
m+n、、l)   、(Rr<am+r+n)、R2
(1や11,11、R3(、やl+ al )   、
(RI (lI+l+ no+1、R1(m*l+n*
1)、Rs (salt n−n )・・・・・・を用
いて、次式 %式% で表される値dが最小値になる注目点P (s、。の傾
き(pr、qs)(以下この点を近似点と呼ぶ)を求め
る。
Next, the three-dimensional data creation unit 11A selects each point of interest...
Find the cell...S L (III R)... in which P (m+ fil...) is located, and calculate each cell...S L (al Fl )...
Four points surrounding ``...P (IIIRI
, P (s++q++1 , P (s*1++sl ,
Brightness corresponding to P (s*L++, +11......(Rl (III II), R
2Tel 11+, R3 (III 111 ), (R1
(+*+e*Il, R!(lI+1%+1), R□(1
m+n,,l),(Rr<am+r+n),R2
(1, 11, 11, R3 (, l+ al),
(RI (lI+l+ no+1, R1(m*l+n*
1) Using Rs (salt n-n)......, find the slope (pr, qs) of the point of interest P (s,.) where the value d expressed by the following formula % is the minimum value. (hereinafter this point will be referred to as the approximate point).

このことは、第21図に示すように、互いに直交する明
るさを基準にする3本の座標軸 ■1、r、、Icで構
成される座標空間において、被測定物体3Bの所定の面
素SSの明るさIfl II、■、及びリフレクタンス
マツプRMの各要素の明るさRr(pr 、q、) 、
Rt(pr 、qs ) 、Rx(1)r 、qs )
を座標軸1..1%、ICにそれぞれプロットすること
により、当該座標空間上に明るさ!+、It、Isで表
される点P及びリフレクタンスマツプRMの各要素の明
るさRl(p r、q3)、R1(pl、q、)、R1
(p、、、q、)で表される点P (pr 、qs )
をとり、この点Pに対して最も近い距離dに位置する要
素の点 P(p、、、q3)の傾き(p、、、qs)を
近似点の傾きとして求めたことを意味している。
As shown in FIG. 21, this means that in a coordinate space consisting of three coordinate axes based on brightness that are perpendicular to each other; The brightness of Ifl II,■, and the brightness of each element of the reflectance map RM Rr(pr, q,),
Rt(pr, qs), Rx(1)r, qs)
coordinate axis 1. .. 1%, brightness on the coordinate space by plotting each on IC! +, It, Is and the brightness of each element of the reflectance map RM Rl (p r, q3), R1 (pl, q,), R1
Point P (pr, qs) represented by (p,,,q,)
This means that the slope (p, , qs) of the element point P (p, , q3) located at the closest distance d to this point P was found as the slope of the approximate point. .

このようにして得られた近似点P (111111に基
づいて、第22図に示すようにこれに隣接する8個の点
P (m−1n□1) 、P (1m−1+F1) 、
P (II−1+R+l) 、P (Anti−1) 
%  P (11111011s  P (m*1++
a−1) sPl。1.72、 P +a*1++s+
l+ で構成されるセルSL、□1oll−1) 、S
 L (IB−+++%l 、S L +lj+R−1
1、SL (@I 11)について、等輝度線LRI(
plq) 、LR1(り、q) 、LR3(p、q)の
交点P8の存在するセルを求める。
Based on the approximate point P (111111) obtained in this way, eight points adjacent to it P (m-1n□1), P (1m-1+F1), as shown in FIG.
P (II-1+R+l), P (Anti-1)
% P (11111011s P (m*1++
a-1) sPl. 1.72, P +a*1++s+
Cell SL composed of l+, □1oll-1), S
L (IB-+++%l, S L +lj+R-1
1. For SL (@I 11), isoluminant line LRI (
plq), LR1(ri, q), and LR3(p, q). Find the cell where the intersection P8 exists.

コノため各(’ )L/ S L +1l−II 11
−13 、S L (II−1+ l 、S L (I
II n−11、S L (*+ 11)において、近
似点P T11+ R)の対角位置にある点 P (I
I−1121−11、P (m−1+11”l) 、P
 (lj+l+11−1+ 、P (a*I+noI)
について(34)式の計算を行い、それぞれ点について
値d (s−1o n−11、d (@−In□l) 
、d (salt n−1+、d (a。I+a*1)
を求める。このとき例えば交点PXカセ)Lt S L
 (11,+1− +> の中にあると、このセル S
L (an Fl−1)の点P (Ill−1+R−1
1の値d (11+l+ R1,が他の点P (II−
1oll−11、P偵−1,7゜11 、P (+s*
I+y+。1゜の値d 111&−II1l−11、d
 (*−1+no++ 、d (lj、I+ll□。
Each (')L/S L +1l-II 11
-13, S L (II-1+ l, S L (I
II n-11, S L (*+ 11), the point P (I
I-1121-11, P (m-1+11"l), P
(lj+l+11-1+, P (a*I+noI)
Calculate equation (34) for each point, and calculate the value d (s-1o n-11, d (@-In□l) for each point.
, d (salt n-1+, d (a.I+a*1)
seek. In this case, for example, the intersection PX
(11, +1- +>, this cell S
Point P (Ill-1+R-1) of L (an Fl-1)
1 value d (11+l+ R1, is the other point P (II-
1oll-11, P detective-1, 7゜11, P (+s*
I+y+. 1° value d 111&-II1l-11, d
(*-1+no++ , d (lj, I+ll□.

よりも小さな値になる。will be a smaller value.

このようにして要素の点P(□1.a−1)及び近似点
P CIm+n) テ囲まれるセル5L(lIl、1−
I) の中に交点P、が存在することが確認されると、
次に3次元データ作成部11Aは、当該セルS L T
I++ n −I。
In this way, the cell 5L (lIl, 1-
When it is confirmed that there is an intersection P in I),
Next, the three-dimensional data creation unit 11A selects the cell S L T
I++ n −I.

を囲む要素の点 P (@+ 11−11 、P (I
lj+1+ 11−11 、P(sや、、い、及び近似
点P (an ++u について以下の補間演算を実行
して、交点P、の傾き(p、q)を求める。
Points of elements surrounding P (@+ 11-11 , P (I
lj+1+ 11-11 , P(s, , i, and the approximate point P (an ++u ), and perform the following interpolation calculation to find the slope (p, q) of the intersection point P.

ここで、近似点P (111+ 111及び点P (1
11+ 11−11 、P (1m+1+ 1%−11
、P (#*I+ n)について、その傾きをそれぞれ
(p+、qz)、(p+sq+)、(pt%q+)及び
(pz、qt)とおき、(34)式を適用して得られる
値dをdl、d2、d3及びd4とお(。
Here, approximate point P (111+111 and point P (1
11+ 11-11, P (1m+1+ 1%-11
, P (#*I+ n), let the slopes be (p+, qz), (p+sq+), (pt%q+), and (pz, qt), respectively, and apply equation (34) to obtain the value d. dl, d2, d3 and d4 (.

第23図に示すように各要素の点P (III 11−
1+、P (11411,1−11% P (ll14
1+ R)及び近似点P (lIllI%l を正方形
状の平面の各頂点に配置した際に、近似点P (sr 
1%)及び要素の点P C+*+n−+1間をその値d
1及びd2の比で内分する点Q、を求める。
As shown in FIG. 23, the point P (III 11-
1+, P (11411, 1-11% P (ll14
1+R) and the approximate point P (lIllI%l) are placed at each vertex of the square plane, the approximate point P (sr
1%) and the element point P C+*+n-+1 as its value d
Find a point Q that is internally divided by the ratio of 1 and d2.

続いて要素の点P(m。1.fi)及びP (1141
111−11間をその値d4及びd3の比で内分する点
Q2を求める。同様にして、要素の点 P (l11+
 、、−11及びP(―・鵞・Fl−11間と近似点P
 (@1 n)及び要素の点P1゜3.R,間をその値
d2及びd3とdi及びd4で内分する点Q、及びG4
を求める。
Then the element points P(m.1.fi) and P(1141
A point Q2 that internally divides the range 111-11 by the ratio of the values d4 and d3 is found. Similarly, the element point P (l11+
,, -11 and P (-, Goose, Fl-11 and the approximate point P
(@1 n) and element point P1゜3. R, a point Q that internally divides the interval by its values d2 and d3 and di and d4, and G4
seek.

このようにして得られた内分点 Q、 、Q、、Ql、
G4において、内分点Q、及びQtを結ぶ直線L1と内
分点Q、及びQ、を結ぶ直線L2とが結ぶ交点Q、を求
める。
The internal division points obtained in this way Q, ,Q,,Ql,
In G4, the intersection Q between the straight line L1 connecting the internal division points Q and Qt and the straight line L2 connecting the internal division points Q and Q is determined.

続いてこの正方形状の領域に、交点Q、を通り、近似点
P (ann)及び要素の点 P(+a。1.7) に
平行な直線LXIと近(以点 Po、1及び要素の点P
 torn−I、に平行な直線LX2をとり、この直線
LXI及びLX2を交点Q8が分割する比dpl:dp
2及びdql:dq2を求める。
Next, in this square area, a straight line LXI passing through the intersection point Q and parallel to the approximate point P (ann) and the element point P (+a.1.7) (hereinafter the point Po, 1 and the element point P
Take a straight line LX2 parallel to torn-I, and divide the straight lines LXI and LX2 by the intersection Q8, dpl:dp
2 and dql: Find dq2.

続いて3次元データ作成部11Aは分割比ctp1:d
p2及びdql:dq2に基づいて次式で表される傾き
(po、qo)を求める。
Next, the three-dimensional data creation unit 11A sets the division ratio ctp1:d.
The slope (po, qo) expressed by the following equation is determined based on p2 and dql:dq2.

このことは、離散的なリフレクタンスマツプ及びサンプ
リングデータに基づいて近似点P (11+ Illよ
りもさらに等註度線の交点P、の傾き(p、 q)に近
い傾き(po、’qo)を内分点を求めるという簡易な
補間演算で求めたことを意味しており、この傾き(po
、qO)に基づいて外形形状データを得ることにより近
似点P (@+ N)の傾きを用いた場合に比して、よ
り実際の被測定物体3Bの外形形状に近いデータを得る
ことができる。
This means that based on the discrete reflectance map and sampling data, the slope (po, 'qo) is closer to the slope (p, q) of the approximate point P (11 + Ill), which is the intersection point P of the isoblast lines. This means that it was found by a simple interpolation calculation to find the internal division point, and this slope (po
, qO), data closer to the actual outer shape of the object to be measured 3B can be obtained than when using the slope of the approximate point P (@+N). .

続いて3次元データ作成部11Aは、被測定物体3Bの
、サンプリング点について順次上述の演算処理を繰り返
し、かくして被測定物体3Bの全てのサンプリング点に
ついて傾き(p、q)が得られる。
Subsequently, the three-dimensional data creation unit 11A sequentially repeats the above-mentioned arithmetic processing for the sampling points of the object to be measured 3B, thus obtaining the slopes (p, q) for all the sampling points of the object to be measured 3B.

(G5)曲面の再構成 以上の処理ステップによって3次元データ作成部11A
による3次元データの作成処理が終了し、続いて画像デ
ータ処理装置11は第2図のステップSP4に移って曲
面生成部11Bによって外形形状を表す曲面の再構成処
理を実行する。
(G5) Three-dimensional data creation unit 11A through processing steps beyond reconstruction of the curved surface.
After the three-dimensional data creation process is completed, the image data processing device 11 proceeds to step SP4 in FIG. 2, and the curved surface generation unit 11B executes the reconstruction process of the curved surface representing the external shape.

この処理はステップSP3において画素SSの傾きp 
= a f / a x、又はq = a f / a
 yが得られていることにより、これを積分すれば2方
向の高さf  (Xt % yj)を求めることができ
ることに基づいて、積分演算を実行する。
This process is performed in step SP3 with the slope p of the pixel SS.
= a f / a x, or q = a f / a
Since y has been obtained, the height f (Xt % yj) in two directions can be obtained by integrating this, so an integral calculation is performed.

この演算は、第24図に示すように、例えばX方向の傾
きpを用いてそれぞれ直線3’=)’J  (j=・・
・・・・j−1、L j+1・・・・・・)上の全ての
サンプリング点・・・・・・xi−1、Xi 、X□。
As shown in FIG. 24, this calculation uses, for example, the slope p in the X direction to calculate the straight line 3'=)'J (j=...
... j-1, L j+1 ......) all sampling points on...xi-1, Xi, X□.

、・・・・・・について、積分を実行する。, . . . , perform integration.

かくしてxy平面上の点(Xi、)’j )の外形形状
の高さf (xi、y、)は、 !+ ミfj(Xt) (i=・・・・・・i−1、i、i+l・・・・・・j
=・・・・・・j−1、j、j+1・・・・・・)・・
・・・・(37) によって表すことができる。
Thus, the height f (xi, y,) of the external shape of the point (Xi,)'j) on the xy plane is ! + Mi fj (Xt) (i=...i-1, i, i+l...j
=...j-1, j, j+1...)...
...(37) It can be expressed as follows.

(37)式は、第7図の濃淡画像pco上のX方向の線
y=・・・・・・Vt−r 、Yj−、’It*I・・
・・・・上において、X方向の傾きp = a f /
 a xをXt−閃からXtXlまで積分すれば、被測
定物体3Bの点(xi、y、)(l=・・・・・・1−
11111+1・・・・・・、j=・・・・・・j−1
,j、j+1)の外形形状の高さを求めることができる
ことを表している。この積分演算を被測定物体3Bの映
像の範囲の各点について実行すれば、第24図に示すよ
うに、被測定物体3BOX方向の線 y=・・・・・・
yJ−3、yj、Yj++・・・・・・上の外形形状デ
ータFOM(・旧・・FOMy−j−+ 、F OM、
5、F OMy−J。1・・・・・・)を得ることがで
き、かくしてこれらの外形形状データ(・・・・・・F
OMy、j−1,20M9.j1FOMy5j、l・・
・・・・)によって被測定物体3Bの外形形状を表す曲
面を再構成することができる。
Equation (37) is the line y in the X direction on the grayscale image pco in FIG. 7 =...Vt-r, Yj-, 'It*I...
...In the top, the slope in the X direction p = a f /
If a x is integrated from Xt-flash to XtXl, the point (xi, y,) (l=...1-
11111+1...,j=...j-1
, j, j+1) can be determined. If this integral calculation is executed for each point in the range of the image of the object to be measured 3B, as shown in FIG. 24, a line in the direction of the object to be measured 3BOX y=...
yJ-3, yj, Yj++... Upper external shape data FOM (old... FOMy-j-+, FOM,
5.FOMy-J. 1...), and thus these external shape data (...F
OMy, j-1, 20M9. j1FOMy5j, l...
), it is possible to reconstruct the curved surface representing the external shape of the object to be measured 3B.

この実施例の場合、曲面生成部11Bは、第10図につ
いて上述した離散的な位置からサンプリングしたビデオ
データDATAに基づいて、第25図に示す直線近似の
手法によって積分処理を実行する。
In the case of this embodiment, the curved surface generation unit 11B executes the integration process using the linear approximation method shown in FIG. 25, based on the video data DATA sampled from the discrete positions described above with reference to FIG.

すなわち、離散的な座標位置 ・・・・・・(Xs−s
、yJ ) 、  (Xi−2X )’ J )  、
  (xl−1、yj ) 、(Xえ、y、)・・・・
・・ について求めた傾き ・旧・・p(i−31ハp
C止−ffi)j% p (i−+1j’ I’目°゛
°°゛°を1第2図のステップSP3において、次式 のように求めたとき、この傾き ・・・・・・pu−s
x、p(i−HJs l) (1−11js pij・
・・・・・はそれぞれ対応する面素の幅区間 ・・・・
・・LL−3、Lt−z 、LL−+ %Li・・・・
・・の中央位置において求めたデータであると考える。
In other words, discrete coordinate positions ......(Xs-s
,yJ), (Xi-2X)'J),
(xl-1, yj), (Xe, y,)...
・・The slope obtained for ・Old...p (i-31 hap
C stop - ffi)j% p (i-+1j'I'th °゛°°゛° is calculated as follows in step SP3 of Fig. 2, this slope......pu -s
x, p(i-HJs l) (1-11js pij・
... is the width section of the corresponding surface element ...
...LL-3, Lt-z, LL-+%Li...
It is assumed that the data is obtained at the center position of...

ここで傾き・・・・・・p(i−3)j、p、□−2.
J、p(A−1,J、pij・・・・・・が0以外の値
をとるときには、当該面素位置に被測定物体3Bの映像
があると考えることができ、逆にOであるときは背景の
映像があると考えることができることにより、(37)
式に基づく積分動作は、当該被測定物体3Bの映像が開
始する面素(第25図の場合幅区間Li−zの位置)か
らX方向に積分をして行くことになる。
Here, the slope...p(i-3)j, p, □-2.
When J, p(A-1, J, pij... take a value other than 0, it can be considered that there is an image of the object to be measured 3B at the relevant surface element position, and conversely, O. By being able to think that there is a background image, (37)
The integration operation based on the formula is performed in the X direction from the plane element where the image of the object to be measured 3B starts (in the case of FIG. 25, the position of the width section Li-z).

従って積分演算結果f  (Xt 、’/j)は、幅区
間り五−1においてf (xi、yj)=Oであり、続
く幅区間L i−2において、f (xえ、y、)の値
はXの値が大きくなって行くに従って、幅区間L L−
3の端部の値(=0)から傾きり+i−z+rによって
決まる直線に沿って直線的に上昇して行く。
Therefore, the integral operation result f (Xt, '/j) is f (xi, yj) = O in the width interval 5-1, and in the following width interval L i-2, the result of f (x, y,) is As the value of X increases, the width interval L L-
It increases linearly from the value at the end of 3 (=0) along the straight line determined by the slope +i-z+r.

続いてXの値が幅区間Li−2から幅区間り、−1に移
ると、傾きがp(i−1)Jに切り換わることにより、
積分値f(xi、yj)の値は幅区間Li−1の範囲に
おいてXの値が大きくなって行くに従って、幅区間L 
i−!の端部の値から、傾きp(t−+)jの直線に沿
って上昇して行く。
Subsequently, when the value of X moves from the width interval Li-2 to -1, the slope switches to p(i-1)J,
The value of the integral value f(xi, yj) increases as the value of X increases within the width interval Li-1.
i-! It increases from the value at the end of , along a straight line with an inclination p(t-+)j.

続いてXの値が幅区間Li−1からLiに移ると、当該
幅区間Liの傾きがptjに切り換わるので、積分値f
 (xi、yj)の値は幅区間Li−1の端部の値から
さらに傾きp目の直線に沿って上昇して行く。
Subsequently, when the value of X moves from the width section Li-1 to Li, the slope of the width section Li switches to ptj, so the integral value f
The value of (xi, yj) further increases from the value at the end of the width section Li-1 along the straight line with the pth slope.

このようにすれば、被測定物体3Bの映像の端部から離
散的なサンプリング点(xi、yj)について得た傾き
データル目に基づいて、X方向に延長する直vAy =
 y J上のサンプリング点 ・・・・・・Xi−+ 
% Xi 、”io+・・・・・・における被測定物体
3Bの外形形状を表す外形形状データFOM、、Jを生
成することができる。
In this way, based on the inclination data obtained at discrete sampling points (xi, yj) from the edge of the image of the object to be measured 3B, the straight line vAy =
Sampling point on y J...Xi-+
It is possible to generate external shape data FOM, J representing the external shape of the object to be measured 3B at % Xi, "io+...

そしてかかる演算をy方向の全てのサンプリンク点・・
・・・・)’j−+ 、’/J s ’lia+・・・
・・・について演算すれば、この演算結果によって被測
定物体3Bの3次元の外形形状を表す外形形状データF
OM (−・・・・・・F OMy、ノー 1 、F 
OMy−J s F OMywj+1・・・・・・)を
生成することができる。
Then, perform this operation on all sample link points in the y direction...
...)'j-+,'/J s 'lia+...
. . . and the result of this calculation is used to generate external shape data F representing the three-dimensional external shape of the object to be measured 3B.
OM (-...F OMy, no 1, F
OMy-J s F OMywj+1...) can be generated.

以上の構成によれば、被測定物体3Bの外形形状を、1
つのテレビジョンカメラを用いて非接触の手法によって
確実に再構成することができる。
According to the above configuration, the outer shape of the object to be measured 3B is
can be reliably reconstructed using a non-contact method using two television cameras.

かくするにつき、観測対象3としての基準物体3Aの表
面形状を撮像した条件(すなわち光源の位置、観測対象
の位置など)と同一の条件の下に、被測定物体3Bを撮
像するようにしたことにより、基準物体3A及び被測定
物体3Bから得た2つの2次元画像の位置合せをする処
理を必要としない。
In this way, the object to be measured 3B is imaged under the same conditions as the conditions (i.e., the position of the light source, the position of the observation object, etc.) under which the surface shape of the reference object 3A as the observation object 3 was imaged. Therefore, there is no need for a process of aligning two two-dimensional images obtained from the reference object 3A and the measured object 3B.

これに加えて被測定物体3Bの表面の性質を基準物体3
Aと一敗させるようにすれば、表面の性質に基づいて測
定結果を補正する必要をなくし得る。
In addition to this, the surface properties of the object to be measured 3B are determined by the reference object 3.
If A is made to lose once, it is possible to eliminate the need to correct the measurement results based on the properties of the surface.

(G6)他の実施例 (11上述の実施例においては、観測対象3 (第1図
)に対して3つの光源4A、4B、4Cを照明すること
により、3つのリフレクタンスマツプRM1、RM2、
RM3を作成するようにした場合について述べたが、2
つのリフレクタンスマツプによって被測定物体3Bの全
ての面素の傾きを特定できる場合には、2つの光源を用
意すれば良い。
(G6) Other Examples (11) In the above-mentioned example, three reflectance maps RM1, RM2,
I mentioned the case where RM3 is created, but 2
If the inclinations of all surface elements of the object to be measured 3B can be specified using one reflectance map, two light sources may be provided.

(2)また上述の実施例においては、等輝度線に沿う要
素の点を求めた後、この中から近似点を求めて補間演算
する場合について述べたが、近似点の求め方はこれに限
らず、例えば各要素の点の値dを順次求めたりする種々
の方法を適用することができる。
(2) In addition, in the above embodiment, after finding the points of the elements along the isobrightness line, approximate points are found from these and interpolation calculations are performed, but the method of finding the approximate points is not limited to this. First, various methods can be applied, such as sequentially determining the value d of each element point.

(3)また上述の実施例においては、交点P、を有する
セルの中でセルを囲む要素の点の値dを用いてセルを内
分することにより、交点P8の明るさを求めるようにし
たが、内分する値dはこれに限らず、リフレクタンスマ
ツプの傾きp及びqの配列に応じて例えば各要素の点の
値dを2乗した値d2で内分する点を求めるようにして
も良い。
(3) In the above embodiment, the brightness of the intersection point P8 is determined by internally dividing the cell using the values d of the elements surrounding the cell in the cell having the intersection point P. However, the value d to be internally divided is not limited to this, and depending on the arrangement of the slopes p and q of the reflectance map, for example, the point to be internally divided by the value d2, which is the square of the value d of the point of each element, can be found. Also good.

H発明の効果 以上のように本発明によれば、2次元的画像データを構
成する面素の傾きデータに基づいて被測定物体の外形形
状を再構成するにつき、これに要する面素の傾きデータ
を、離散的なリフレクタンスマツプ及びサンプリングデ
ータから簡易な計算によって高い精度で求めることがで
き、被測定物体の外形形状を短い時間で再構成すること
ができる。
H Effects of the Invention As described above, according to the present invention, when reconstructing the external shape of an object to be measured based on the slope data of the surface elements constituting the two-dimensional image data, the slope data of the surface elements necessary for reconstructing the external shape of the object to be measured is can be determined with high accuracy by simple calculation from the discrete reflectance map and sampling data, and the external shape of the object to be measured can be reconstructed in a short time.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明による形状測定装置の一実施例を示すブ
ロック図、第2図はその測定処理手順を示すフローチャ
ート、第3図は基準物体3Aについてのリフレクタンス
マツプRMの作成方法を示す路線的系統図、第4図は面
素SSの(頃きの説明に供する路線図、第5図はリフレ
クタンスマツプRMの一例を示す曲線図、第6図は3つ
の光源によって形成されるリフレクタンスマツプRMI
、RM2、RM3を示す路線図、第7図は被測定物体3
Bについての画像データ発生方法を示す路線的系統図、
第8図は3つの光源によって発生された被測定物体3B
の映像を示す路線図、第9図は面素SSの傾きの特定方
法を示す路線図、第10図はラスクビデオ信号VDのサ
ンプリング点を示す路線図、第11図は離散的なリフレ
クタンスマツプを示す図表、第12図は等輝度線の追跡
処理手順を示すフローチャート、第13図はリフレクタ
ンスマツプのラスクスキャンを示す路線図、第14図及
び第15図は開始点の検出の説明に供する路線図、第1
6図及び第17図は等輝度線の検索の説明に供する路線
図、第18図は等輝度線の追跡の説明に供する路線図、
第19図及び第20図は等輝度線の形態を示す路線図、
第21図は輝度を軸にとった座標空間を示す路線図、第
22図及び第23図は交点の傾きを求める処理手順を示
す路線図、第24図及び第25図は積分処理による曲面
の再構成方法の説明に供する路線図である。 1・・・・・・形状測定装置、2・・・・・・テーブル
、3・・・・・・観測対象、3A・・・・・・基準物体
、3B・・・・・・被測定物体、4A、4B、4C・・
・・・・光源、5・・・・・・テレビジョンカメラ、6
・・・・・・アナログ/ディジタル変換回路、7・・・
・・・フレームメモリ、8・・・・・・形状情報発生部
、11・・・・・・画像データ処理装置、IIA・・・
・・・3次元データ作成部、IIB・・・・・・曲面生
成部、13・・・・・・外部メモリ、RM (RMI〜
RM3)・・・・・・リフレクタンスマツプ、PCO(
PC01〜PC03)・・・・・・濃淡画像、FOM 
(・・・・・・F OM、、、−1、FOMア、1% 
F OMy、j+1・・・・・・)・・・・・・外形形
状データ、LRt(pSq) 、LRz(p、q) 、
LR3(p、q)・・・・・・等輝度線、P、・・・・
・・交点、P (m+ n)、P (II−1u11−
11・・・・・・要素の点、P(s。1、。、・・・・
・・開始点、S L (III 111・・・・・・セ
ル。
FIG. 1 is a block diagram showing an embodiment of a shape measuring device according to the present invention, FIG. 2 is a flowchart showing its measurement processing procedure, and FIG. 3 is a route showing a method for creating a reflectance map RM for a reference object 3A. Fig. 4 is a route map for explaining the area element SS (Fig. 5 is a curve diagram showing an example of the reflectance map RM, Fig. 6 is a reflectance map formed by three light sources. Matup RMI
, RM2, RM3 route map, Figure 7 shows the object to be measured 3
A route diagram showing the image data generation method for B;
Figure 8 shows the object to be measured 3B generated by three light sources.
Figure 9 is a route map showing the method of determining the slope of the surface element SS, Figure 10 is a route map showing the sampling points of the rask video signal VD, and Figure 11 is a discrete reflectance map. 12 is a flowchart showing the isoluminance line tracing processing procedure, FIG. 13 is a route map showing the rusk scan of the reflectance map, and FIGS. 14 and 15 are used to explain the detection of the starting point. Route map, 1st
6 and 17 are route maps for explaining the search for isobright lines, and FIG. 18 is a route map for explaining the tracing of isobright lines.
Figures 19 and 20 are route maps showing the form of isobright lines;
Figure 21 is a route map showing the coordinate space with luminance as the axis, Figures 22 and 23 are route maps showing the processing procedure for calculating the slope of the intersection, and Figures 24 and 25 are route maps showing the processing procedure for calculating the slope of the intersection point. It is a route map provided for explanation of the reconfiguration method. 1... Shape measuring device, 2... Table, 3... Observation target, 3A... Reference object, 3B... Measured object , 4A, 4B, 4C...
...Light source, 5...Television camera, 6
...Analog/digital conversion circuit, 7...
... Frame memory, 8 ... Shape information generation section, 11 ... Image data processing device, IIA ...
...Three-dimensional data creation unit, IIB...Curved surface generation unit, 13...External memory, RM (RMI~
RM3)...Reflectance map, PCO (
PC01~PC03)... Grayscale image, FOM
(...FOM,,,-1,FOMA,1%
F OMy, j+1...)...External shape data, LRt(pSq), LRz(p, q),
LR3 (p, q)...Isoluminant line, P,...
・Intersection, P (m+ n), P (II-1u11-
11...Element point, P(s.1,.,...
...Starting point, S L (III 111...Cell.

Claims (1)

【特許請求の範囲】 複数の光源を順次点灯して、1台のテレビジョンカメラ
を介して得られる基準物体のサンプリングデータに基づ
いて、上記基準物体の面素の傾きに対応する明るさを表
す複数のリフレクタンスマップを得、上記基準物体と同
一の光源を用いて上記テレビジョンカメラを介して得ら
れる被測定物体のサンプリングデータに基づいて、上記
リフレクタンスマップに対応する上記被測定物体の面素
の明るさを求め、上記リフレクタンスマップを構成する
要素の中から、上記被測定物体の所定の面素の明るさと
等しい明るさの等輝度線の交点に隣接する要素の点を求
め、当該要素の点において補間演算により上記被測定物
体の面素の傾きを求め、当該面素の傾きに基づいて上記
被測定物体の外形形状データを求める ようにしたことを特徴とする形状測定装置。
[Claims] Based on sampling data of a reference object obtained through one television camera by sequentially lighting a plurality of light sources, the brightness corresponding to the slope of the surface elements of the reference object is expressed. A plurality of reflectance maps are obtained, and a surface of the measured object corresponding to the reflectance map is determined based on sampling data of the measured object obtained through the television camera using the same light source as the reference object. Find the elemental brightness, and from among the elements constituting the reflectance map, find the point of the element adjacent to the intersection of the isoluminance line whose brightness is equal to the brightness of the predetermined surface element of the object to be measured, and A shape measuring device characterized in that the slope of a surface element of the object to be measured is determined by interpolation calculation at the point of an element, and the external shape data of the object to be measured is determined based on the slope of the surface element.
JP61238472A 1986-10-07 1986-10-07 Form measuring instrument Pending JPS6393076A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61238472A JPS6393076A (en) 1986-10-07 1986-10-07 Form measuring instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61238472A JPS6393076A (en) 1986-10-07 1986-10-07 Form measuring instrument

Publications (1)

Publication Number Publication Date
JPS6393076A true JPS6393076A (en) 1988-04-23

Family

ID=17030744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61238472A Pending JPS6393076A (en) 1986-10-07 1986-10-07 Form measuring instrument

Country Status (1)

Country Link
JP (1) JPS6393076A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02110788A (en) * 1988-10-20 1990-04-23 Niigata Eng Co Ltd Method for recognizing shape of three-dimensional object
KR20040039062A (en) * 2002-10-30 2004-05-10 (주)웰텍소프트 Digital microscope system for 3D shape reconstruction using photometric stereo method and binocular stereo method
WO2010041584A1 (en) * 2008-10-10 2010-04-15 Kabushiki Kaisha Toshiba Imaging system and method
JP2013054011A (en) * 2011-09-06 2013-03-21 Nippon Hoso Kyokai <Nhk> Surface normal measurement device, surface normal measurement system, and surface normal measurement program
JP2015232478A (en) * 2014-06-09 2015-12-24 株式会社キーエンス Inspection device, inspection method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02110788A (en) * 1988-10-20 1990-04-23 Niigata Eng Co Ltd Method for recognizing shape of three-dimensional object
KR20040039062A (en) * 2002-10-30 2004-05-10 (주)웰텍소프트 Digital microscope system for 3D shape reconstruction using photometric stereo method and binocular stereo method
WO2010041584A1 (en) * 2008-10-10 2010-04-15 Kabushiki Kaisha Toshiba Imaging system and method
JP2012505368A (en) * 2008-10-10 2012-03-01 株式会社東芝 Imaging system and method
US8451322B2 (en) 2008-10-10 2013-05-28 Kabushiki Kaisha Toshiba Imaging system and method
JP2013054011A (en) * 2011-09-06 2013-03-21 Nippon Hoso Kyokai <Nhk> Surface normal measurement device, surface normal measurement system, and surface normal measurement program
JP2015232478A (en) * 2014-06-09 2015-12-24 株式会社キーエンス Inspection device, inspection method, and program

Similar Documents

Publication Publication Date Title
EP1522051B1 (en) Discrete linear space sampling method and apparatus for generating digital 3d models
Beraldin et al. Object model creation from multiple range images: acquisition, calibration, model building and verification
Acosta et al. Laser triangulation for shape acquisition in a 3D scanner plus scan
Li Camera calibration of a head-eye system for active vision
CN107767440A (en) Historical relic sequential images subtle three-dimensional method for reconstructing based on triangulation network interpolation and constraint
Sansoni et al. 3-D optical measurements in the field of cultural heritage: the case of the Vittoria Alata of Brescia
CN108253909A (en) The measuring method and measuring device of a kind of flatness
JPS6393076A (en) Form measuring instrument
Wang et al. Implementation and experimental study on fast object modeling based on multiple structured stripes
Habib et al. Alternative approaches for utilizing lidar data as a source of control information for photogrammetric models
CN115272080A (en) Global deformation measurement method and system based on image stitching
CN113432558B (en) Device and method for measuring irregular object surface area based on laser
Urquhart The active stereo probe: the design and implementation of an active videometrics system
JPS6383873A (en) Form measuring device
JPS6383874A (en) Form measuring device
CN116625242B (en) Path planning method and system for optical three-coordinate measuring machine, electronic equipment and medium
Urquhart et al. Toward real-time dynamic close-range photogrammetry
JPS6382577A (en) Variable density picture data forming method
Docchio et al. Inspection, 3D modelling, and rapid prototyping of cultural heritage by means of a 3D optical digitiser
JPS6376073A (en) Shape measuring instrument
Wong Development of a calibration pipeline for a monocular-view structured illumination 3D sensor utilizing an array projector
JPH06129833A (en) Three dimensional restoration method
Rottensteiner Precise photogrammetric measurement: location of targets and reconstruction of object surfaces
Woodhouse Geometric models appropriate for engineering analysis from vision metrology data
Heipke et al. Toward surface reconstruction using multi-image shape from shading