JPS6383873A - Form measuring device - Google Patents

Form measuring device

Info

Publication number
JPS6383873A
JPS6383873A JP61229075A JP22907586A JPS6383873A JP S6383873 A JPS6383873 A JP S6383873A JP 61229075 A JP61229075 A JP 61229075A JP 22907586 A JP22907586 A JP 22907586A JP S6383873 A JPS6383873 A JP S6383873A
Authority
JP
Japan
Prior art keywords
measured
slope
brightness
surface element
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61229075A
Other languages
Japanese (ja)
Inventor
Masami Ogata
昌美 緒形
Shigeo Komuro
小室 茂雄
Tetsuzo Kuragano
哲造 倉賀野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP61229075A priority Critical patent/JPS6383873A/en
Publication of JPS6383873A publication Critical patent/JPS6383873A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To easily measure the external form of a matter to be measured by deciding the gradient of the surface element of the matter to be measured based on the element of a reflectance map having lightness most approximate to the lightness of a prescribed surface element of the matter to be measured. CONSTITUTION:The reflectance maps RM1-3 showing lightness R1-R3 corresponding to the gradient of a surface element SS of a reference matter 3A are obtained based on the sampling data DATA on the matter 3A obtained via a TV camera 5 after turning on light sources 4A-4C respectively. Then the lightness I1-I3 of a surface element SS of a matter 3B to be measured are obtained based on the sampling data DATA on the matter 3B obtained from light sources 4A-4C. Thus the gradient of elements of maps RM1-3 of the lightness R1-R3 most approximate to the lightness I1-I3 are obtained as the gradient of the surface element SS. The external form of the matter B is obtained based on the gradient of the element SS.

Description

【発明の詳細な説明】 以下の順序で本発明を説明する。[Detailed description of the invention] The present invention will be explained in the following order.

A産業上の利用分野 B発明の概要 C従来の技術 り発明が解決しようとする問題点 E問題点を解決するための手段(第1図及び第12図) F作用(第1図及び第12図) G実施例(第1図〜第14図) (G1)実施例の構成(第1図) (G2)リフレクタンスマツプの作成(第1図〜第6図
) (G3)被測定物体3Bの面素の傾き(第1図及び第2
図、第7図〜第9図) (G4)リフレクタンス、マツプの検索(第1図及び第
2図、第1θ図〜第12図) (G5)曲面の再構成(第1図及び第2図、第13図及
び第14図) (G6)他の実施例 H発明の効果 A産業上の利用分野 本発明は形状測定装置に関し、特に3次元物体の外形形
状情報を得る場合に適用して好適なものである。
A: Industrial field of application B: Outline of the invention C: Conventional technology: Problems to be solved by the invention E: Means for solving the problem (Figs. 1 and 12) F: Effect (Figs. 1 and 12) Figure) Example G (Figures 1 to 14) (G1) Configuration of Example (Figure 1) (G2) Creation of reflectance map (Figures 1 to 6) (G3) Object to be measured 3B The slope of the surface element (Figs. 1 and 2)
(G4) Search for reflectance and maps (Figs. 1 and 2, Figs. 1θ to 12) (G5) Reconstruction of curved surfaces (Figs. 1 and 2) 13 and 14) (G6) Other Embodiments H Effects of the Invention A Industrial Application Field The present invention relates to a shape measuring device, and is particularly applicable to obtaining external shape information of a three-dimensional object. It is suitable.

B発明の概要 本発明は、1台のテレビジョンカメラによって得られた
基準物体及び被測定物体の明るさに基づいて被測定物体
の外形形状を測定する形状測定装置において、被測定物
体の所定の面素の明るさに最も近い明るさを有するリフ
レクタンスマツプの要素に基づいて当該被測定物体の面
素の傾きを決定することにより、節易な計算式で被測定
物体の面素の傾きを求めることができ、かくするにつき
被測定物体の外形形状を容易に測定することができる。
B. Summary of the Invention The present invention provides a shape measuring device that measures the external shape of an object based on the brightness of a reference object and the object to be measured obtained by one television camera. By determining the slope of the surface element of the object to be measured based on the element of the reflectance map whose brightness is closest to the brightness of the surface element, the slope of the surface element of the object to be measured can be calculated using a simple calculation formula. Therefore, the external shape of the object to be measured can be easily measured.

C従来の技術 従来この種の形状測定装置として、被測定物体の表面に
プローブを当てて表面をなぞって行くいわゆる接触型の
ものが用いられている。
C. Prior Art Conventionally, as this type of shape measuring device, a so-called contact type device has been used in which a probe is applied to the surface of an object to be measured and the surface is traced.

ところが接触型の形状測定装置は、第1に、データの取
り込みにかなり時間がかかる問題がある。
However, the first problem with contact-type shape measuring devices is that it takes a considerable amount of time to capture data.

また第2に特に巨大な物体、例えば飛行機、船舶等の物
体の形状を計測するような場合や、微細加工物の検査等
のように特に微小な物体を計測するような場合には、実
際上適用し得ない問題がある。
Secondly, when measuring the shape of particularly large objects such as airplanes and ships, or when measuring particularly minute objects such as inspecting microfabricated objects, it is difficult to There is a problem where it cannot be applied.

さらに第3に被測定物体が柔らかい物体である場合には
、プローブが接触した時表面が曲がったり、凹んだりす
るために正しい外形形状を計測できない場合がある。
Third, if the object to be measured is a soft object, the surface may be bent or depressed when the probe comes into contact with it, making it impossible to measure the correct external shape.

かかる問題点を解決するため従来被測定物体の外形形状
を非接触的手法を用いて計測する方法として、両眼立体
視計測法、光を用いる距離センサによる計測法、単眼視
計測法等が考えられている。
To solve this problem, conventional methods for measuring the external shape of an object using a non-contact method include binocular stereoscopic measurement, measurement using a distance sensor using light, and monocular measurement. It is being

D発明が解決しようとする問題点 しかし、従来は、非接触型の形状測定装置として、実用
上十分な晴度で物体の形状を測定し得る構成のものを実
現することは困難であフた。
D Problems to be Solved by the Invention However, conventionally, it has been difficult to realize a non-contact shape measuring device that can measure the shape of an object under sufficiently clear sunlight for practical use. .

本発明は以上の点を考慮してなされたもので、単眼視計
測法の中の1つの手法である照度差ステレオ法(Pho
tometric St’ereo法)を用いて被測定
物体の外形形状を確実に測定し得るようにした形状測定
装置を提案しようとするものである。
The present invention has been made in consideration of the above points, and is based on the photometric stereo method (Pho), which is one of the monocular visual measurement methods.
This paper attempts to propose a shape measuring device that can reliably measure the external shape of an object to be measured using the tometric St'ereo method.

E問題点を解決するための手段 かかる問題点を解決するため本発明においては、複数の
光源4人、4B、4Cを順次点灯して、1台のテレビジ
ョンカメラ5を介して得られる基準物体3Aのサンプリ
ングデータDATAに基づいて、基準物体3Aの面素S
Sの傾き(p、q)に対応する明るさRt(pr 、(
11)、 Rt(pr、qs ) 、Rs(pr 、q
s )を表す複数のリフレクタンスマツプRM (RM
I、RM2、RM3)を得、基準物体3Aと同一の光源
4A、4B、4Cを用いてテレビジョンカメラ5を介し
て得られる被測定物体3BのサンプリングデータDAT
Aに基づいて、リフレクタンスマツプRM(RMl、R
M2、RM3)に対応する被測定物体3Bの所定の面素
SSの明るさII 、It、IIIを求め、明るさII
 、It、13に最も近い明るさ R1(1)r\qs
)1Rz(+)r)Qs)〜 R3(+)r\qよ)の
リフレクタンスマツプRM (RMI、RM2、RM3
)の要素の傾き(pr 、qg )を面素SSの傾き(
p、q)として求め、当該面素SSの傾き(p、q)に
基づいて被測定物体3Bの外形形状データFOMを求め
るようにする。
E Means for Solving the Problem In order to solve this problem, in the present invention, a plurality of four light sources 4B and 4C are sequentially turned on to obtain a reference object obtained through one television camera 5. Based on the sampling data DATA of 3A, the surface element S of the reference object 3A is
The brightness Rt(pr, (
11), Rt(pr, qs), Rs(pr, q
A plurality of reflectance maps RM (RM
I, RM2, RM3) and sampled data DAT of the object to be measured 3B obtained through the television camera 5 using the same light sources 4A, 4B, 4C as the reference object 3A.
Based on A, the reflectance map RM (RMl, R
The brightness II, It, and III of a predetermined surface element SS of the object to be measured 3B corresponding to M2, RM3) are determined, and the brightness II
, It, the brightness closest to 13 R1(1)r\qs
)1Rz(+)r)Qs)~R3(+)r\qyo) reflectance map RM (RMI, RM2, RM3
) is the slope (pr, qg) of the element SS of the surface element SS (
p, q), and the external shape data FOM of the object to be measured 3B is determined based on the slope (p, q) of the surface element SS.

F作用 基準物体3Aから得られたリフレクタンスマツプRM(
RMI、RM2、RM3)の要素の明るさRt(pr 
、Qs ) 、Rz(pr 、Qs >、 R,(pr
 、Qs )に対して、被測定物体3Bの各面素SSの
明るさII、1.、Iユを対比させることにより、被測
定物体3Bの各面素SSの傾き(p、q)を求めること
ができ、この−傾き(p、q)を積分すれば、被測定物
体3Bの外形形状を表す外形影状データFOMを得るこ
とができる。
Reflectance map RM obtained from F action reference object 3A (
RMI, RM2, RM3) element brightness Rt(pr
, Qs ), Rz(pr , Qs >, R,(pr
, Qs), the brightness II of each surface element SS of the object to be measured 3B, 1. By comparing , Outline shadow data FOM representing the shape can be obtained.

かくするにつき当該被測定物体3Bの面素SSの傾き(
p、q)を求める際に、当該面素の明るさ■1、II、
■3に最も近い明るさR+(pr、ql)、R2(p、
、q6)、R1(pr、、q、)のリフレクタンスマツ
プの要素の傾き(pr 、q。
In this way, the slope of the surface element SS of the object to be measured 3B (
p, q), the brightness of the surface element ■1, II,
■ Brightness closest to 3 R+ (pr, ql), R2 (p,
, q6), the slope (pr, q,) of the element of the reflectance map of R1(pr, , q,).

)を求めることにより、簡易な計算によって当該被測定
物体3Bの面素SSの傾きを求めることができる。
), the slope of the surface element SS of the object to be measured 3B can be determined by simple calculation.

G実施例 以下図面について、本発明の一実施例を詳述する。G example An embodiment of the present invention will be described in detail below with reference to the drawings.

(G1)実施例の構成 第1図において、1は形状測定装置を示し、テーブル2
上に!!置した観測対象3を、互いに異なる位置に配設
された複数例えば3つの光源4A、4B、4Cによって
それぞれ照明する。
(G1) Configuration of Example In FIG. 1, 1 indicates a shape measuring device, and table 2
above! ! The placed observation object 3 is illuminated by a plurality of light sources, for example, three light sources 4A, 4B, and 4C arranged at different positions.

光源4A、4B、4Cは、順2次1つずつ点灯されるこ
とにより、観測対象3に対して異なる方向から照明光を
照射できるようになされ、かくして観測対象3の外表面
上に、その外形形状に応じて異なる陰影を生じさせるよ
うになされている。
The light sources 4A, 4B, and 4C are turned on one after another in order, so that they can irradiate the observation object 3 with illumination light from different directions. It is designed to produce different shades depending on the shape.

観測対象3は1台のテレビジョンカメラ5によって撮像
され、そのラスクビデオ信号VDがアナログ/ディジタ
ル変換回路6においてディジタルデータに変換された後
フレームメモリ7に書き込まれる。
The observation object 3 is imaged by one television camera 5, and the rusk video signal VD thereof is converted into digital data in an analog/digital conversion circuit 6 and then written into a frame memory 7.

以上の構成によって、観測対象3の外表面の外形形状情
報を、2次元的な明るさの分布(すなわち耀度分布)を
表す画像データとしてフレームメモリ7に書き込むよう
にしてなる形状情報発生部8が形成されている。
With the above configuration, the shape information generating section 8 writes the external shape information of the outer surface of the observation object 3 into the frame memory 7 as image data representing a two-dimensional brightness distribution (i.e., brightness distribution). is formed.

形状測定′it置1は、例えばパーソナルコンピュータ
、エンジニアリングワークステーション、大型計算機な
どでなる画像データ処理装置11を有し、そのバス12
を通じて、フレームメモリ7に書き込まれたビデオデー
タDATAを、形状情報発生部8の出力として画像デー
タ処理装置11に取り込み得るようになされている。
The shape measurement unit 1 has an image data processing device 11 consisting of, for example, a personal computer, an engineering workstation, a large computer, etc., and a bus 12 thereof.
Through this, the video data DATA written in the frame memory 7 can be taken into the image data processing device 11 as an output of the shape information generating section 8.

画像データ処理装置11は3次元データ作成部11A及
び曲面生成部11Bを有し、第2図に示す処理ステップ
を実行することによって、先ず3次元データ作成部11
Aにおいて取り込んだビデオデータDATAから観測対
象3の面素の傾きを表す3次元データを作成すると共に
、曲面生成部11Bにおいて当該3次元データに基づい
て観測対象30表面形状を表す曲面を生成する。
The image data processing device 11 has a three-dimensional data generating section 11A and a curved surface generating section 11B, and by executing the processing steps shown in FIG.
Three-dimensional data representing the inclination of the surface elements of the observation object 3 is created from the video data DATA captured in A, and a curved surface representing the surface shape of the observation object 30 is generated based on the three-dimensional data in the curved surface generation section 11B.

このようにして3次元データ作成部11Aにおいて作成
された3次元データ及び曲面生成部11Bにおいて生成
された曲面データは、バス12を介して例えばディスク
記憶装置でなる外部メモリ13に蓄積される。
The three-dimensional data thus created in the three-dimensional data creation section 11A and the curved surface data created in the curved surface creation section 11B are stored via the bus 12 in an external memory 13 made of, for example, a disk storage device.

また画像データ処理装置11は、外部メモリI3に格納
されているデータをバス12を介して読み出してグラフ
ィックディスプレイ14上に表示し得る。
The image data processing device 11 can also read data stored in the external memory I3 via the bus 12 and display it on the graphic display 14.

さらに画像データ処理装置11は、外部メモリ13に蓄
積されたデータをバス12を介して読み出してNC工作
機械15に対する加工情報として供給し、これによりN
C工作機械15のツールを駆動することによって観測対
象3と同じ外形形状を有する製品を削り出すことができ
るようになされている。
Furthermore, the image data processing device 11 reads data accumulated in the external memory 13 via the bus 12 and supplies it as machining information to the NC machine tool 15.
By driving the tools of the C machine tool 15, a product having the same external shape as the observation object 3 can be cut out.

さらに第1図の実施例の場合、画像データ処理装置11
は、外部メモリ13に格納されているデータをバス12
を介して読み出してロボット装置15(7)0,1−ッ
ト本体1Gに供給することにより、当J亥データをロボ
ットの目として利用してロボット本体16の動きを制御
することができるようになされている。
Furthermore, in the case of the embodiment shown in FIG. 1, the image data processing device 11
transfers data stored in external memory 13 to bus 12
By reading the data through the robot device 15 (7) 0, 1 and supplying it to the robot body 1G, this data can be used as the robot's eyes to control the movement of the robot body 16. being done.

(G2)リフレクタンスマツプの作成 画像データ処理装置11の3次元データ作成部11Aは
、第2図のステップSPIにおいて外形形状が既知の基
準物体3Aについてリフレクタンスマツプ(反射率地図
)RMを作成すると共に、ステップSP2において被測
定物体3Bを観測して画像データを得ると共に、ステッ
プSP3において当該被測定物体3Bの画像データと、
リフレクタンスマップから得られる傾きデータとに基づ
いて面素の傾きを計算する。
(G2) Creation of reflectance map The three-dimensional data creation unit 11A of the image data processing device 11 creates a reflectance map (reflectance map) RM for the reference object 3A whose external shape is known in step SPI of FIG. At the same time, in step SP2, the object to be measured 3B is observed to obtain image data, and in step SP3, the image data of the object to be measured 3B,
The slope of the surface element is calculated based on the slope data obtained from the reflectance map.

その後、画像データ処理装置11の曲面生成部11Bは
、第2図のステップSP4においてステップSP3の処
理によって得られた面素の傾きに基づいて被測定物体3
Bの外形形状を表す曲面を再構成する。
Thereafter, the curved surface generation unit 11B of the image data processing device 11 generates a curved surface of the object to be measured based on the slope of the surface element obtained by the process of step SP3 in step SP4 of FIG.
A curved surface representing the external shape of B is reconstructed.

先ず、3次元データ作成部11Aは、第2図のステップ
SPIにおいて、第3図に示すような処理手順に従って
、リフレクタンスマツプRMを作成する。
First, in step SPI of FIG. 2, the three-dimensional data creation section 11A creates a reflectance map RM according to the processing procedure shown in FIG. 3.

すなわち第1図のテーブル2上の観測対象3として外形
形状が既知であり、かつ面素SSとしてあらゆる方向の
傾きを有する曲面(例えば半球面)を有する基準物体3
Aについて、第1の光源4A、第2の光源4B、第3の
光源4Cを順次点灯させた状態で、テレビジョンカメラ
5によってラスクビデオ信号VDを得る。
That is, a reference object 3 whose external shape is known as the observation object 3 on the table 2 in FIG.
Regarding A, a rusk video signal VD is obtained by the television camera 5 with the first light source 4A, second light source 4B, and third light source 4C turned on in sequence.

このとき得られるラスクビデオ信号VDの内容は、光源
4A、4B、4Cの照明方向に応じて、基準物体3Aの
外表面上の各点の明るさに対応する2次元的な濃淡画像
PCRを表している。
The content of the rask video signal VD obtained at this time represents a two-dimensional grayscale image PCR corresponding to the brightness of each point on the outer surface of the reference object 3A, depending on the illumination direction of the light sources 4A, 4B, and 4C. ing.

すなわち、テレビジョンカメラ5を、半球面をもつ基準
物体3Aの中心を通るz軸上の上方位置に設定すると、
濃淡画像PCRには、基準物体3Aを平面図として見た
と同様の円形形状に対して、基準物体3A上の面素SS
の明るさを濃淡模様として表した画像をxy直交座標上
に描いてなる2次元的濃淡画像PCRが得られる。この
濃淡画像PCRのxy座標上の各点(Xi 、y、)の
明るさは、基準物体3Aのテレビジョンカメラ5の方向
(すなわち観測方向)から見た面素SSの傾きと、光源
4A、又は4B、又は4Cからの照明光の向きとによっ
て決まる明るさになる。
That is, when the television camera 5 is set at an upper position on the z-axis passing through the center of the hemispherical reference object 3A,
The grayscale image PCR includes surface elements SS on the reference object 3A for a circular shape similar to that seen in a plan view of the reference object 3A.
A two-dimensional grayscale image PCR is obtained by drawing an image representing the brightness of the image as a grayscale pattern on xy orthogonal coordinates. The brightness of each point (Xi, y,) on the xy coordinates of this grayscale image PCR is determined by the inclination of the surface element SS of the reference object 3A viewed from the direction of the television camera 5 (that is, the observation direction), the light source 4A, Or the brightness is determined by the direction of the illumination light from 4B or 4C.

半球面の外形形状を有する基準物体3Aの表面は、xy
座標上の各点(Xi 、yj)における2方向の高さと
して z−f (x 6 % yJ)        ・・・
・・・(1)のように基準物体3Aの外形形状を表す方
程式r(xis)’、)によって表現し得る。
The surface of the reference object 3A having a hemispherical external shape is xy
The height in two directions at each point (Xi, yj) on the coordinates is z-f (x 6 % yJ)...
. . . As shown in (1), it can be expressed by the equation r(xis)', ) representing the external shape of the reference object 3A.

また基準物体3Aのxy座標上の点 (Xi、yt)に
ある面素SSの法線ベクトルnは、・・・・・・(2) のように表すことができる。
Further, the normal vector n of the surface element SS at the point (Xi, yt) on the xy coordinates of the reference object 3A can be expressed as follows (2).

因に、(2)式においてaf/axは、第4図に示すよ
うに、面素SS(その中心が点(Xi、yj)にある)
のX方向の傾きを示し、またaf/ayは面素SSのX
方向の傾きを示す。そして法線ベクトルnは、xy平面
上の点(x=、)’j)から見たX方向の傾きを表すベ
クトルaと、X方向の傾きを表すベクトルbとの外積を
求めることによって、(2)式のように表すことができ
る。
Incidentally, in equation (2), af/ax is the surface element SS (its center is at the point (Xi, yj)), as shown in Figure 4.
, and af/ay is the slope of the surface element SS in the X direction.
Indicates the inclination of the direction. The normal vector n is determined by calculating the cross product of the vector a representing the inclination in the X direction and the vector b representing the inclination in the X direction as seen from the point (x=,)'j) on the xy plane. 2) It can be expressed as follows.

リフレクタンスマツプRMは、第5図に示すように、こ
の面素SSの傾きa f / a x及びaf/ayを
変数とするpq直交座標系によって表現される。
As shown in FIG. 5, the reflectance map RM is expressed by a pq orthogonal coordinate system in which the slopes a f /ax and af/ay of this surface element SS are variables.

すなわちX方向の傾きp及びX方向の傾きqをそれぞれ のように表せば、面素SSのX方向の傾きp及びX方向
の傾きqで表されるpq直交座標系における任意の点の
座標(p、q)によって、基準物体3A上の面素SSの
全ての方向の傾きを表すことができる。そしてこの傾き
p及びqは、xy平面上の点(Xi 、’lJ)におけ
る法線ベクトルnの方向に対応している。さらにこの法
線ベクトルnは、テレビジョンカメラ5から見たときの
面素SSの明るさに対応しているので、結局リフレクタ
ンスマツプRMを表すpq直交座標上の点(p、q)の
位置は、ラスクビデオ信号VDが表す2次元的な濃淡画
像PCRを構成する面素SSの明るさを表しているもの
である。
That is, if the slope p in the X direction and the slope q in the X direction are respectively expressed as p, q) can represent the inclination of the surface element SS on the reference object 3A in all directions. The slopes p and q correspond to the direction of the normal vector n at the point (Xi, 'lJ) on the xy plane. Furthermore, since this normal vector n corresponds to the brightness of the surface element SS when viewed from the television camera 5, the position of the point (p, q) on the pq orthogonal coordinates representing the reflectance map RM is represents the brightness of the surface element SS constituting the two-dimensional grayscale image PCR represented by the rask video signal VD.

そこでpq直交座標上に、輝度■が等しい点を結んで、
これを次式 %式%(5) のように傾きp及びqの関数R(p、q)で表される等
輝度線として表示すれば、結局当該等輝度線によって濃
淡画像PCR(第3図)上の濃淡模様(従って基準物体
3Aの表面の面素SSの傾き分布)を、リフレクタンス
マツプRMの等輝度線によって表すことができることに
なる。
Therefore, on the pq orthogonal coordinates, connect the points with equal brightness ■,
If this is expressed as an isobrightness line expressed by a function R (p, q) with slopes p and q as shown in the following equation (5), the density image PCR (Fig. ) (therefore, the slope distribution of the surface elements SS on the surface of the reference object 3A) can be represented by the isobrightness lines of the reflectance map RM.

ここでリフレクタンスマツプRM上に現れる等輝度線の
模様は、面素SSの明るさの分布に対応するが、当該面
素SSの明るさはその傾き以外にも、面素を構成する表
面の反射の性質(すなわち拡散反射成分及び鏡面反射成
分の割合)などの影響をも含んだ値になる。従って一般
的には、面素SSの明るさから面素SSの傾きを求める
ためには、表面の反射の性質等を予め知っておき、これ
を補正する必要があり、実際上かかる構成は極めて困難
である。
Here, the pattern of isoluminance lines appearing on the reflectance map RM corresponds to the brightness distribution of the surface element SS, but the brightness of the surface element SS is determined not only by its slope but also by the distribution of the surface elements constituting the surface element. It is a value that also includes the influence of the nature of reflection (that is, the proportion of diffuse reflection components and specular reflection components). Therefore, in general, in order to obtain the slope of the surface element SS from the brightness of the surface element SS, it is necessary to know the reflection properties of the surface in advance and to correct this. In practice, such a configuration is extremely difficult. Have difficulty.

ところがこの問題は、基準物体3Aとして、その表面の
反射の性質等が被測定物体3Bと同一になるような物質
のものを予め選定しておけば、これらの要素は、リフレ
クタンスマツプRMに含ませたままその補正処理をしな
くとも、実用上当該表面の反射の性質等の影響を受けず
に正しい傾きを求めることができる。この実施例の場合
基準物体3Aとして、かかる条件を満足させるような物
体が選定されている。
However, this problem can be solved by selecting a material whose surface reflection properties are the same as those of the measured object 3B as the reference object 3A, so that these elements can be included in the reflectance map RM. In practice, it is possible to obtain the correct inclination without being affected by the reflective properties of the surface, etc., without performing any correction processing on the surface. In this embodiment, an object that satisfies these conditions is selected as the reference object 3A.

このようにして3次元データ作成部11Aは、(5)式
によって表される多数の等輝度線によって形成されたリ
フレクタンスマツプRM(RMI、RM2、RM3)を
得るようなデータの処理を、第1、第2、第3の光源4
A、4B、4Cの照明状態の下にそれぞれについて演算
処理し、かくして第6図(A)、(B)、(C)に示す
ように、R+(p−q)= r         ・・
・・・・(6)Rz(p 、、q)= 1      
   ・・・・・・(7)Rs(p 、 q)= 1 
        ・・・・・・(8)で表されるリフレ
クタンスマツプRMI、RM2、RM3のデータが外部
メモリ13に格納される。
In this way, the three-dimensional data creation unit 11A processes the data to obtain the reflectance map RM (RMI, RM2, RM3) formed by a large number of isobrightness lines expressed by equation (5). 1, second, third light source 4
Arithmetic processing is performed for each under the illumination conditions A, 4B, and 4C, and thus, as shown in FIGS. 6(A), (B), and (C), R+(p-q)=r...
...(6) Rz(p,,q)=1
・・・・・・(7) Rs(p, q)=1
The data of the reflectance maps RMI, RM2, and RM3 represented by (8) are stored in the external memory 13.

(G3)被測定物体3Bの面素の傾き 3次元データ作成部11Aは、第2図のステップSP2
において被測定物体3Bを観測する。
(G3) Inclination of surface elements of object to be measured 3B The three-dimensional data creation unit 11A performs step SP2 in FIG.
The object to be measured 3B is observed at.

その際オペレータは、第7図に示すように、テーブル2
上に観測対象3として例えばダルマ形状の被測定物体3
Bを載置し、第3図について上述した3つの光[4A、
4B、4Cによる照明条件を変更せずに、順次これらの
光源4A、4B、4Cによって被測定物体3Bを順次照
明して行く。
At that time, the operator should move the table 2 as shown in FIG.
For example, a Darma-shaped object to be measured 3 is shown as an observation object 3 on the top.
B and the three lights [4A,
The object to be measured 3B is sequentially illuminated by the light sources 4A, 4B, and 4C without changing the illumination conditions by the light sources 4B and 4C.

か(して得られる3枚の濃淡画像PCO(PCOl、p
c○2、PCO3)について、3次元データ作成部11
Aは全ての点(x、、yJ)における3つの光源4A、
4B、4Cに対応した明るさを表す輝度データを取り込
んで外部メモリ13に格納する。
The three grayscale images PCO (PCOl, p
c○2, PCO3), 3D data creation unit 11
A is three light sources 4A at all points (x,, yJ),
Luminance data representing brightness corresponding to 4B and 4C is captured and stored in the external memory 13.

ここで、テレビジョンカメラ5によって2軸の上方から
被測定物体3Bを撮像して得られる濃淡画像pcoi、
PCO2、PCO3は、それぞれ第8図(A)、(B)
、(C)に示すように、光源4A、4B、4Cの照射方
向が異なることにより、互いに陰影の位置が異なる映像
になる。この陰影に対応する画像データでなるビデオデ
ータDATAが3次元データ作成部11Aに取り込まれ
で行く。
Here, a grayscale image pcoi obtained by imaging the object to be measured 3B from above on two axes by the television camera 5,
PCO2 and PCO3 are shown in Figure 8 (A) and (B), respectively.
, (C), the different irradiation directions of the light sources 4A, 4B, and 4C result in images with different shadow positions. Video data DATA consisting of image data corresponding to this shadow is taken into the three-dimensional data creation section 11A.

かくして3次元データ作成部11Aは、被測定物体3B
の観測を終了し、第2図のステップsp3において、濃
淡画像PCO(PCOI、PCO2、PCO3)のxy
座標上の各点(x8、y、)(i=・・・・・・i−1
、iS i+1・・・・・・、j=・・・・・・j−1
、Lj+1・・・・・・)を順次指定して当該指定され
た点(Xi、yj)における濃淡画像PC01、PCO
2、PCO3上の明るさI、、I、、■、を求め、当8
亥明るさ■1、2、■3と同じ■ 明るさを有する等輝度線1  (−I+ 、It 、L
)(第6図)の交点のデータを、外部メモリー3に格納
されているリフレクタンスマツプRM (RMl、RM
2、RM 3 )から抽出する。
In this way, the three-dimensional data creation section 11A creates the object to be measured 3B.
After completing the observation, in step sp3 of FIG. 2, the xy
Each point on the coordinates (x8, y,) (i=...i-1
, iS i+1..., j=...j-1
, Lj+1...) to create gray scale images PC01 and PCO at the designated points (Xi, yj).
2. Find the brightness I, , I, , ■ on PCO3, and
Isobrightness line 1 with the same brightness as ■1, 2, and ■3 (-I+, It, L
) (Fig. 6) on the reflectance map RM (RMl, RM
2, extracted from RM 3 ).

かくして抽出された明るさIt、Iz、Iiの等輝度線
は、°次式 %式%(9) のように、それぞれ関数R+(p、q) 、Rz(p、
q) 、R3(1)、Q)の方程式によって表される。
The isobrightness lines of brightness It, Iz, and Ii extracted in this way are expressed by the functions R+(p, q) and Rz(p,
q), R3(1), and Q).

そこで3次元データ作成部11Aは(9)〜(11)式
の連立方程式を解くことにより、3本の等輝度線1+、
It、Izの交点(p、q)をリフレクタンスマツプR
MI、RM2、RM3を重ね合わせる処理をすることに
より求める。
Therefore, the three-dimensional data creation unit 11A solves the simultaneous equations (9) to (11), and calculates the three isoluminance lines 1+,
Reflectance map R of the intersection (p, q) of It and Iz
It is obtained by superimposing MI, RM2, and RM3.

かくして第1、第2、第3の光源4A、4B、4Cを照
射した時のxy座標上の点(x、、y、)の明るさ11
、2、■、に基づいて、これら3つの措影条件を同時に
満足する傾き(p、q)を、リフレクタンスマツプRM
 (RMI、RM2、RM3)を用いて、一意的に決定
することができる。
Thus, the brightness of the point (x,,y,) on the xy coordinates when irradiated with the first, second, and third light sources 4A, 4B, and 4C is 11
, 2, ■, the slope (p, q) that simultaneously satisfies these three measurement conditions is calculated as
It can be uniquely determined using (RMI, RM2, RM3).

因にかかる演算処理は、先ず第1の光源4Aによって基
準物体3A及び被測定物体3Bを照射することによって
得られるリフレクタンスマツプRMl  (第9図(A
))上の等輝度線■1に対して、第9図(B)に示すよ
うに、第2の光源4Bによって照射されることによって
得られるリフレクタンスマツプRM2の等輝度線I2を
重ね合わせることによって互いに交差する2つの傾きの
点lNC0及びINC,2を求める。続いて第9図(C
)に示すように、第3の光源4Cによって照射されるこ
とによって得られるリフレクタンスマツプRM3の等輝
度線I、を重ね合わせることにより、一方の交点INC
,,だけを一意的に点 (xl、yj)の位置における
面素の傾きSSであると決定することができる。
In this calculation process, first, the reflectance map RMl (Fig. 9(A)
)) Superimpose the isoluminance line I2 of the reflectance map RM2 obtained by irradiation with the second light source 4B, as shown in FIG. 9(B), on the isoluminance line ■1 above. Find two slope points lNC0 and INC,2 that intersect with each other. Next, Figure 9 (C
), by superimposing the isobrightness lines I of the reflectance map RM3 obtained by irradiation with the third light source 4C, one intersection point INC
, , can be uniquely determined to be the slope SS of the surface element at the position of the point (xl, yj).

このようにして3次元データ作成部11Aは、xy座標
上の点(x、、y、)における面素SSの傾きを一意的
に求めることができ、以下同様にしてxy座標上の全て
の点について同様の演算を実行することにより、被測定
物体3Bでなる観測対象3をテレビジョンカメラ5によ
って2次元濃淡画像PCO(PCOI、PCO2、PC
O3)を得ることによって、観測対象3の映像を構成す
る全ての面素SSについてその傾きを2次元濃淡画像か
ら求めることができる。
In this way, the three-dimensional data creation unit 11A can uniquely find the slope of the surface element SS at the point (x,,y,) on the xy coordinates, and thereafter in the same way at all points on the xy coordinates. By performing similar calculations on the object to be measured 3B, the television camera 5 obtains a two-dimensional grayscale image PCO (PCOI, PCO2, PC
O3), the slopes of all the surface elements SS constituting the image of the observation object 3 can be determined from the two-dimensional grayscale image.

なおこの実施例の場合、テレビジョンカメラ5によって
2軸上の上方位置から観測するようになされているので
、濃淡画像PCO(PCOI、PCO2、PCO3)に
おいて観測対象3の映像に対して背景となる部分におい
てはa f / a x = af / a y = 
0となっている。
In the case of this embodiment, since the television camera 5 is used to observe from an upper position on two axes, it becomes the background for the image of the observation object 3 in the grayscale image PCO (PCOI, PCO2, PCO3). In the part a f / a x = af / a y =
It is 0.

(G4)リフレクタンスマツプの検索 ところが実際上、形状情報発生部8においては、第10
図に示すように、X方向及びy方向について、所定の間
隔だけ離れたサンプリング位置(・・・…X1−1  
\Xi  %  xi+1  ”””)  s−(””
”)’j−1、y4、yJ、I・・・・・・)において
離散的に観測対象の明るさをサンプリングしてディジタ
ルデータを得るようになされ、これに基づいて作成され
るリフレクタンスマツプRM(RMI、RM2、RM3
)は第11図に示すように明るさのデータをもつ要素が
所定の傾き(pr 、qs )の間隔で繰り返す離散的
な表の形で外部メモリ13に格納される。
(G4) Search for reflectance map However, in reality, in the shape information generating section 8, the 10th
As shown in the figure, sampling positions (...X1-1
\Xi % xi+1 ”””) s-(””
”) 'j-1, y4, yJ, I...) The brightness of the observation target is sampled discretely to obtain digital data, and the reflectance map is created based on this. RM (RMI, RM2, RM3
) is stored in the external memory 13 in the form of a discrete table in which elements having brightness data are repeated at intervals of a predetermined slope (pr, qs), as shown in FIG.

すなわち各リフレクタンスマツプRM (RMI、RM
2、RM3)上の等輝度線は、次式%式%(12) で表される離散的な式の形で表される。
That is, each reflectance map RM (RMI, RM
2, RM3) is expressed in the form of a discrete equation expressed by the following equation (12).

従って被測定物体3Bの濃淡画像PCR(PCRl、P
CR2、PCR3)をサンプリングして得られる明るさ
I、 、I、及びI3と同じ明るさの等輝度線が、リフ
レクタンスマツプRMの要素上で必ずしも交点を結ばな
い状態が生じ、対応する面素SSの傾き(p、q)をリ
フレクタンスマツプRMの交点から直接求めることがで
きない場合がある。
Therefore, the grayscale image PCR (PCRl, P
A situation arises in which isobrightness lines with the same brightness as brightness I, , I, and I3 obtained by sampling CR2, PCR3) do not necessarily connect the intersection points on the elements of the reflectance map RM, and the corresponding surface elements There are cases where the slope (p, q) of SS cannot be directly determined from the intersection of the reflectance map RM.

この実施例の場合、3次元データ作成部11Aは、第1
0図について上述した離散的な位置からサンプリングし
たビデオデータDATAの明るさr、 、r、、r、に
基づいて次式 %式%) で表される値dが最小値になる傾き(pr、q工)をリ
フレクタンスマツプの要素から求めることにより、当該
面素SSの傾きを決定する。
In the case of this embodiment, the three-dimensional data creation section 11A
The slope (pr, q) from the elements of the reflectance map, the slope of the surface element SS is determined.

このことは、第12図に示すように、互いに直交する明
るさを基準にする3本の座標軸1.、rb、t。で構成
される座標空間において、被測定物体3Bの所定の面素
SSの明るさの組■1、L、1.及びリフレクタンスマ
ツプRMの各要素の明るさR+(pr 、qs ) 、
Rz(pr 、q−)、Rs(pr 、qs )を座標
軸1..1.、ICにそれぞれプロットすることにより
、 当該座標空間上に明るさIt 、Ig、I3で表さ
れる点P及びリフレクタンスマツプRMの各要素の明る
さR,(pr % qs ) 、Rz(pr 、qs 
)、 Rz (p r、q、)で表される点P (pr
 、Qm )をとり、この点Pに対して最も近い距離d
に位置する要素の点P(pr、qiの傾き(pr、qs
)を、面素SSの傾きとして近似することを意味してい
る。
As shown in FIG. 12, this means that three coordinate axes 1. , rb, t. In the coordinate space consisting of 1, L, 1, . and the brightness R+(pr, qs) of each element of the reflectance map RM,
Let Rz (pr, q-) and Rs (pr, qs) be coordinate axes 1. .. 1. , IC, the point P represented by the brightness It, Ig, I3 on the coordinate space and the brightness R, (pr% qs), Rz(pr, qs
), Rz (pr, q,), point P (pr
, Qm), and find the closest distance d to this point P.
The slope (pr, qs
) is approximated as the slope of the surface element SS.

すなわち、3次元データ作成部11Aは、外部メモリ1
3に格納されたリフレクタンスマツプRM(RMI、R
M2、RM3)から、所定の順序で傾き (pr、qs
)の要素の明るさR+ (p r、Qs) 、Rz(p
r 、qs) 、Rs(pr 、qs)を読み出して(
15)式の計算を行い、最も小さい値dが得られる明る
さR+(pr 、(is ) 、Rz(pr、qs )
 、R3(pr 、qs )の傾き(pr 、q−)を
明るさIt 、It、Itの面素SSの傾きとして求め
る。
That is, the three-dimensional data creation unit 11A
The reflectance map RM (RMI, R
M2, RM3), the slope (pr, qs
) element brightness R+ (p r, Qs), Rz(p
r, qs), Rs(pr, qs) and (
15) Calculate the brightness R+(pr, (is), Rz(pr, qs) for which the smallest value d is obtained by calculating the formula.
, R3 (pr, qs) is determined as the slope of the surface element SS of brightness It, It, It.

続いて次の面素SSに移って同様に(15)式の計算を
繰り返し、被測定物体3Bの全ての面素SSに対して傾
き(pr、qs)を求める。
Subsequently, moving to the next surface element SS, the calculation of equation (15) is similarly repeated, and the slope (pr, qs) is obtained for all surface elements SS of the object to be measured 3B.

このようにすると、互いに離散的なリフレクタンスマツ
プ及びサンプルリングデータを用いた節易な計算によっ
て被測定物体3Bの面素SSの傾きを求めることができ
る。
In this way, the slope of the surface element SS of the object to be measured 3B can be determined by simple calculation using the reflectance map and sampling data which are discrete from each other.

(G5)曲面の再構成 以上の処理ステップによって3次元データ作成部11A
による3次元データの作成処理が終了し、続いて画像デ
ータ処理装置11は第2図のステップSP4に移って曲
面生成部11Bによって外形形状を表す曲面の再構成処
理を実行する。
(G5) Three-dimensional data creation unit 11A through processing steps beyond reconstruction of the curved surface.
After the three-dimensional data creation process is completed, the image data processing device 11 proceeds to step SP4 in FIG. 2, and the curved surface generation unit 11B executes the reconstruction process of the curved surface representing the external shape.

この処理はステップSP3において面素SSの傾きp 
= a f / a x、又はq=ar7ayが得られ
ていることにより、これを積分すれば2方向の高さf 
 (Xi 、YJ)を求めることができることに基づい
て、積分演算を実行する。
This process is performed in step SP3 with the slope p of the surface element SS.
Since = a f / a x or q = ar7ay is obtained, by integrating this, the height f in two directions can be obtained.
An integral operation is performed based on the fact that (Xi, YJ) can be obtained.

この演算は、第13図に示すように、例えばX方向の傾
きpを用いてそれぞれ直線y=yj (j=・・・・・
・j−1、jS j+1・旧・・)上の全てのサンプリ
ング点・・・・・・xt−t 、Xi 、Xi*1 ・
旧・・につぃて、積分を実行する。
As shown in FIG. 13, this calculation uses, for example, the inclination p in the
・All sampling points on j-1, jS j+1, old...) xt-t, Xi, Xi*1 ・
Old... Execute the integral.

かくしてxy平面上の点CX= 、y))の外形形状の
高さf (xi、y、)は、 ミf J(Xi) (i=・・・・・・i−1、i、i+l・・・・・・j
=・・・・・・j−1、L j+1・旧・・)・・・・
・・(16) によって表すことができる。
Thus, the height f (xi, y,) of the external shape of the point CX= , y) on the xy plane is M f J (Xi) (i=...i-1, i, i+l・・・・・・j
=...j-1, L j+1・old...)...
...(16) It can be expressed as follows.

(16)式は、第7図の濃淡画像pco上のX方向のL
’Ay=・・・・・・Yj−+ 1)’j s yjや
、・・・・・・上において、X方向の傾きp = a 
f / a xをXt−閃からXtXiまで積分すれば
、被測定物体3Bの点(Xt、yi)(t=・・・・・
・i−1、t、、i+1・・・・・・、j=・・・・・
・j−1、L j+1)の外形形状の高さを求めること
ができることを表している。この積分演算を被測定物体
3Bの映像の範囲の各点について実行すれば、第13図
に示すように、被測定物体3BOX方向の線 yi・・
・・・・yi1、Yj、y、や、・・・・・・上の外形
形状データFOM (・・・・・・FOMy−J−+ 
、F OMy−= 、F OMywj*+ ・・・・・
・)を得ることができ、 かくしてこれらの外形形状デ
ータ   (・・・・・・FOMysj−1、FOM、
、、、    FOM y + 1゜1・・・・・・)
によって被測定物体3Bの外形形状を表す曲面を再構成
することができる。
Equation (16) is expressed as L in the X direction on the grayscale image pco in FIG.
'Ay=...Yj-+ 1)'j s yj,......The slope in the X direction p = a
If f/a x is integrated from Xt-flash to XtXi, the point (Xt, yi) of the object to be measured 3B (t=...
・i-1, t,, i+1..., j=...
・It represents that the height of the external shape of j−1, L j+1) can be determined. If this integral calculation is executed for each point in the range of the image of the object to be measured 3B, as shown in FIG. 13, a line yi...
...yi1, Yj, y, ...... Upper external shape data FOM (...FOMy-J-+
, FOMy−= , FOMywj*+ ・・・・・
・), and thus these external shape data (...FOMysj-1, FOM,
,,, FOM y + 1゜1...)
It is possible to reconstruct the curved surface representing the external shape of the object to be measured 3B.

この実施例の場合、曲面生成部11Bは、第10図につ
いて上述した離散的な位置からサンプリングしたビデオ
データDATAに基づいて、第14図に示す直線近似の
手法によって積分処理を実行する。
In the case of this embodiment, the curved surface generation unit 11B executes the integration process using the linear approximation method shown in FIG. 14, based on the video data DATA sampled from the discrete positions described above with reference to FIG.

すなわち、離散的な座標位置 ・・・・・・(Xi−3
、y、)、(Xt−t 、Yj)、(Xt−+ 、yj
)、(Xi 、yJ)・・・・・・ について求めた1
頃き ・・・・・・1) (=−+>ハ1) +!−2
1j% p (五−1)j翫p目°0−1を1第2図の
ステップSP3において、次式 のように求めたとき、このI頃き ・・・・・・T;)
u−s)i、1) (i−21j% p +1−+)J
s p iJ・・・・・・はそれぞれ対応する面素の幅
区間 ・・・・・・Lt−x 、Lt−z 、L(−1
、L&・・・・・・の中央位置において求めたデータで
あると考える。
In other words, discrete coordinate positions ......(Xi-3
, y, ), (Xt-t , Yj), (Xt-+ , yj
), (Xi, yJ)... 1 found for
Around the time...1) (=-+>ha1) +! -2
1j% p (5-1) When the p-th angle 0-1 is calculated as shown in the following formula in step SP3 of Fig. 2, around this I ......T;)
u-s)i, 1) (i-21j% p +1-+)J
s p iJ...... are the width sections of the corresponding plane elements...Lt-x, Lt-z, L(-1
, L&..., it is considered that the data is obtained at the center position.

ここで傾き°”””p(1−31js p(!−1)j
s p(i−11jsp!j・・・・・・が0以外の値
をとるときには、当該面素位置に被測定物体3Bの映像
があると考えることができ、逆にOであるときは背景の
映像があると考えることができることにより、(16)
式に基づく積分動作は、当該被測定物体3Bの映像が開
始する面素(第14図の場合幅区間Li4の位置)から
X方向に積分をして行くことになる。
Here, the slope °”””p(1-31js p(!-1)j
When s p (i-11j sp! (16)
The integration operation based on the formula is performed in the X direction from the surface element where the image of the object to be measured 3B starts (in the case of FIG. 14, the position of the width section Li4).

従って積分演算結果f  (Xi 、y、)は、幅区間
り五−3においてf  (xi、yi )=0であり、
続く幅区間Li−zにおいて、f (xi、yJ)の値
はXの値が大きくなって行くに従って、幅区間り、−1
の端部の値(=0)から傾きp<t−3)、によって決
まる直線に沿って直線的に上昇して行く。
Therefore, the integral calculation result f (Xi, y,) is f (Xi, yi) = 0 in the width interval 5-3,
In the following width interval Li-z, the value of f (xi, yJ) increases by -1 as the value of X increases.
It rises linearly from the value at the end (=0) along the straight line determined by the slope p<t-3).

続いてXの値が幅区間り、−2から幅区間Ll−1に移
ると、傾きがp+i−+1jに切り換わることにより、
積分値r  (xi、yj)の値は幅区間り、−1の範
囲においてXの値が大きくなって行くに従って、幅区間
り、−2の端部の値から、傾きp(1−+)jの直線に
沿って上昇して行く。
Subsequently, when the value of
The value of the integral r (xi, yj) increases over the width interval, and as the value of It rises along the straight line of j.

続いてXの値が幅区間Li−1からり、に移ると、当該
幅区間Liの傾きがp目に切り換わるので、積分値f 
 (Xt 、y* )の値は幅区間L i−1の端部の
値からさらに傾きp=jの直線に沿って上昇して行く。
Subsequently, when the value of X moves from width interval Li-1 to
The value of (Xt, y*) further increases from the value at the end of the width section L i-1 along a straight line with an inclination p=j.

このようにすれば、被測定物体3Bの映像の端部から離
散的なサンプリング点(X8% )’J )について得
た傾きデータpijに基づいて、X方向に延長する直線
yiyj上のサンプリング点 ・・・・・・xi−1、
XI、XI、1・・・・・・における被測定物体3Bの
外形形状を表す外形形状データFOM、jを生成するこ
とができる。
In this way, based on the inclination data pij obtained for discrete sampling points (X8%)'J) from the edge of the image of the object to be measured 3B, the sampling points on the straight line yiyj extending in the X direction can be determined. ...xi-1,
Outer shape data FOM,j representing the outer shape of the object to be measured 3B at XI, XI, 1, . . . can be generated.

そしてかかる演算をy方向の全てのサンプリンク点・・
・・・・’It−+ 、YJ% yj++ ・・・・・
・について演算すれば、この演算結果によって被測定物
体3Bの3次元の外形形状を表す外形形状データFOM
(=−= F OMy−j−t −F OMy、J、 
F OMy−J++・・・・・・)を生成することがで
きる。
Then, perform this operation on all sample link points in the y direction...
...'It-+ , YJ% yj++ ...
If the calculation result is calculated, the external shape data FOM representing the three-dimensional external shape of the object to be measured 3B
(=-= F OMy-j-t - F OMy, J,
FOMy-J++...) can be generated.

以上の構成によれば、被測定物体3Bの外形形状ヲ、1
つのテレビジョンカメラを用いて非接触の手法によって
確実に再構成することができる。
According to the above configuration, the external shape of the object to be measured 3B is
can be reliably reconstructed using a non-contact method using two television cameras.

かくするにつき、観測対象3としての基準物体3Aの表
面形状を撮像した条件(すなわち光源の位置、観測対象
の位置など)と同一の条件の下に、被測定物体3Bを撮
像するようにしたことにより、基準物体3A及び被測定
物体3Bから得た2つの2次元画像の位置合せをする処
理を必要としない。
In this way, the object to be measured 3B is imaged under the same conditions as the conditions (i.e., the position of the light source, the position of the observation object, etc.) under which the surface shape of the reference object 3A as the observation object 3 was imaged. Therefore, there is no need for a process of aligning two two-dimensional images obtained from the reference object 3A and the measured object 3B.

これに加えて被測定物体3Bの表面の性質を基準物体3
Aと一致させるようにすれば、表面の性質に基づいて測
定結果を補正する必要をなくし得る。
In addition to this, the surface properties of the object to be measured 3B are determined by the reference object 3.
By matching A, it is possible to eliminate the need to correct the measurement results based on surface properties.

(G6)他の実施例 上述の実施例においては、観測対象3(第1図)に対し
て3つの光源4A、4B、4Cを照明することにより、
リフレクタンスマツプRMI、RM2、RM3を作成す
るようにした場合について述べたが、2つのリフレクタ
ンスマツプによって被測定物体3Bの全ての面素の傾き
を特定できる場合には、2つの光源を用意すれば良い。
(G6) Other Embodiments In the above embodiment, by illuminating the observation object 3 (FIG. 1) with three light sources 4A, 4B, and 4C,
We have described the case where the reflectance maps RMI, RM2, and RM3 are created, but if the inclinations of all surface elements of the object to be measured 3B can be specified using two reflectance maps, two light sources should be prepared. Good.

H発明の効果 以上のように本発明によれば、2次元的画像データを構
成する面素の傾きデータに基づいて積分処理をすること
により被測定物体の外形形状を再構成するにつき、再構
成に要する面素の傾きデータを離散的なリフレクタンス
マツプ及びサンプリングデータから簡易な計算によって
容易に求めることができ、被測定物体の外形形状を短い
時間で再構成することができる。
H Effects of the Invention As described above, according to the present invention, when reconstructing the external shape of an object to be measured by performing integral processing based on the slope data of surface elements constituting two-dimensional image data, the reconstruction The slope data of the surface elements required for can be easily obtained from the discrete reflectance map and sampling data by simple calculation, and the external shape of the object to be measured can be reconstructed in a short time.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明による形状測定装置の一実施例を示すブ
ロック図、第2図はその測定処理手順を示すフローチャ
ート、第3図は基準物体3Aについてのリフレクタンス
マツプRMの作成方法を示す路線的系統図、第4図は面
素SSの傾きの説明に供する路線図、第5図はリフレク
タンスマツプRMの一例を示す曲線図、第6図は3つの
光源によって形成されるリフレクタンスマツプRMI、
RM2、RM3を示す路線図、第7図は被測定物体3B
についての画像データ発生方法を示す路線的系統図、第
8図は3つの光源によって発生された被測定物体3Bの
映像を示す路線図、第9図は面素SSの傾きの特定方法
を示す路線図、第10図はラスクビデオ信号VDのサン
プリング点を示す路線図、第11図は離散的なリフレク
タンスマツプを示す図表、第12図は明るさを基準にと
った座標空間を示す路線図、第13図及び第14図は積
分処理による曲面の再構成方法の説明に供する路線図で
ある。 1・・・・・・形状測定装置、2・・・・・・テーブル
、3・・・・・・観測対象、3A・・・・・・基準物体
、3B・・・・・・被測定物体、4A、4B、4C・・
・・・・光源、5・・・・・・テレビジョンカメラ、6
・・・・・・アナログ/ディジタル変換回路、7・・・
・・・フレームメモリ、8・・・・・・形状情報発生部
、11・・・・・・画像データ処理装置、11A・・・
・・・3次元データ作成部、11B・・・・・・曲面生
成部、13・・・・・・外部メモリ、RM(RMI〜R
M3)・・・・・・リフレクタンスマツプ、PCO(P
COI〜PC03)・・・・・・濃淡画像、FOM (
・・・・・・F OM y −1−1%FOM、、、、
FOMア、5.I・・・・・・)・・・・・・外形形状
データ。
FIG. 1 is a block diagram showing an embodiment of a shape measuring device according to the present invention, FIG. 2 is a flowchart showing its measurement processing procedure, and FIG. 3 is a route showing a method for creating a reflectance map RM for a reference object 3A. Fig. 4 is a route diagram for explaining the slope of the surface element SS, Fig. 5 is a curve diagram showing an example of the reflectance map RM, and Fig. 6 is a reflectance map RMI formed by three light sources. ,
Route map showing RM2 and RM3, Figure 7 is measured object 3B
Figure 8 is a route diagram showing the image of the object to be measured 3B generated by three light sources, and Figure 9 is a route diagram showing the method for determining the slope of the surface element SS. 10 is a route map showing sampling points of the rask video signal VD, FIG. 11 is a chart showing a discrete reflectance map, and FIG. 12 is a route map showing a coordinate space based on brightness. FIGS. 13 and 14 are route maps for explaining a method of reconstructing a curved surface using integral processing. 1... Shape measuring device, 2... Table, 3... Observation target, 3A... Reference object, 3B... Measured object , 4A, 4B, 4C...
...Light source, 5...Television camera, 6
...Analog/digital conversion circuit, 7...
... Frame memory, 8 ... Shape information generation section, 11 ... Image data processing device, 11A ...
...Three-dimensional data creation unit, 11B...Curved surface generation unit, 13...External memory, RM (RMI to R
M3)...Reflectance map, PCO (P
COI~PC03)... Grayscale image, FOM (
...FOM y -1-1%FOM,,,,
FOMa, 5. I...)...External shape data.

Claims (1)

【特許請求の範囲】 複数の光源を順次点灯して、1台のテレビジョンカメラ
を介して得られる基準物体のサンプリングデータに基づ
いて、上記基準物体の面素の傾きに対応する明るさを表
す複数のリフレクタンスマップを得、上記基準物体と同
一の光源を用いて上記テレビジョンカメラを介して得ら
れる被測定物体のサンプリングデータに基づいて、上記
リフレクタンスマップに対応する上記被測定物体の面素
の明るさを求め、上記被測定物体の所定の面素の明るさ
に最も近い明るさの上記リフレクタンスマップの要素の
傾きを上記面素の傾きとして求め、当該面素の傾きに基
づいて上記被測定物体の外形形状データを求める ようにしたことを特徴とする形状測定装置。
[Claims] Based on sampling data of a reference object obtained through one television camera by sequentially lighting a plurality of light sources, the brightness corresponding to the slope of the surface elements of the reference object is expressed. A plurality of reflectance maps are obtained, and a surface of the measured object corresponding to the reflectance map is determined based on sampling data of the measured object obtained through the television camera using the same light source as the reference object. Find the element brightness, find the slope of the element of the reflectance map whose brightness is closest to the brightness of a predetermined surface element of the object to be measured as the slope of the surface element, and based on the slope of the surface element, A shape measuring device characterized in that it obtains external shape data of the object to be measured.
JP61229075A 1986-09-27 1986-09-27 Form measuring device Pending JPS6383873A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61229075A JPS6383873A (en) 1986-09-27 1986-09-27 Form measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61229075A JPS6383873A (en) 1986-09-27 1986-09-27 Form measuring device

Publications (1)

Publication Number Publication Date
JPS6383873A true JPS6383873A (en) 1988-04-14

Family

ID=16886347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61229075A Pending JPS6383873A (en) 1986-09-27 1986-09-27 Form measuring device

Country Status (1)

Country Link
JP (1) JPS6383873A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19726094B4 (en) * 1996-06-25 2008-01-31 Matsushita Electric Works, Ltd., Kadoma Method for detecting surface defects

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19726094B4 (en) * 1996-06-25 2008-01-31 Matsushita Electric Works, Ltd., Kadoma Method for detecting surface defects

Similar Documents

Publication Publication Date Title
Li et al. High-accuracy, high-speed 3D structured light imaging techniques and potential applications to intelligent robotics
JP4492654B2 (en) 3D measuring method and 3D measuring apparatus
CN112161619B (en) Pose detection method, three-dimensional scanning path planning method and detection system
WO2003107276A2 (en) Discrete linear space sampling method and apparatus for generating digital 3d models
EP0797171A2 (en) Image processing method and apparatus
JPH11166818A (en) Calibrating method and device for three-dimensional shape measuring device
Mahdy et al. Projector calibration using passive stereo and triangulation
CN108253909A (en) The measuring method and measuring device of a kind of flatness
JP3950376B2 (en) Shape model generation method and apparatus from three-dimensional point group, shape model generation program from three-dimensional point group, and recording medium recording the program
JP4382430B2 (en) Head three-dimensional shape measurement system
JPS6383873A (en) Form measuring device
CN110849285A (en) Welding spot depth measuring method, system and medium based on monocular camera
JPS6393076A (en) Form measuring instrument
Kuhmstedt et al. Optical 3D sensor for large objects in industrial application
CN109990715A (en) Tin cream based on wireless network scans thickness measuring detection method
Salfelder et al. Markerless 3D spatio-temporal reconstruction of microscopic swimmers from video
JP2001084362A (en) Method and device for estimating light source direction and three-dimensional shape and recording medium
BARON et al. APPLICATION OF AUGMENTED REALITY TOOLS TO THE DESIGN PREPARATION OF PRODUCTION.
JPS6382577A (en) Variable density picture data forming method
JP2005292027A (en) Processor and method for measuring/restoring three-dimensional shape
JPS6383874A (en) Form measuring device
JPS6376073A (en) Shape measuring instrument
WO1994014029A1 (en) Measuring system suitable for strain analysis of three-dimensional components
JPH03113305A (en) Three-dimensional coordinate measuring instrument
JPH06129833A (en) Three dimensional restoration method