JP2000193433A - Method and device for measuring 3-dimension form and storage medium where 3-dimension form measuring program is stored - Google Patents

Method and device for measuring 3-dimension form and storage medium where 3-dimension form measuring program is stored

Info

Publication number
JP2000193433A
JP2000193433A JP10372682A JP37268298A JP2000193433A JP 2000193433 A JP2000193433 A JP 2000193433A JP 10372682 A JP10372682 A JP 10372682A JP 37268298 A JP37268298 A JP 37268298A JP 2000193433 A JP2000193433 A JP 2000193433A
Authority
JP
Japan
Prior art keywords
light
measurement
light receiving
space
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10372682A
Other languages
Japanese (ja)
Other versions
JP3800841B2 (en
Inventor
Naoya Murota
直哉 室田
Masami Bushi
正美 武士
Takeshi Nakajima
毅 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Original Assignee
Suzuki Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp filed Critical Suzuki Motor Corp
Priority to JP37268298A priority Critical patent/JP3800841B2/en
Publication of JP2000193433A publication Critical patent/JP2000193433A/en
Application granted granted Critical
Publication of JP3800841B2 publication Critical patent/JP3800841B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To generate a distance image data with no degraded precision for easier handling. SOLUTION: A space code specifying process A3 where a space code is specified for each position corresponding to each light-reception element based on the order of measurement lights received in a light-reception process A2, a measurement impossible point extracting process A4 wherein a light-reception element which did not receive the measurement light is extracted from the light-reception elements on a light-reception plane, an interpolation process A5 wherein an interpolation value is calculated based on a space code value at the light-reception element near the measurement impossible point for the space code at the measurement impossible point extracted in the measurement impossible point extracting process A4, a distance calculation process A6 which calculates, for each light-reception element, a distance from an original point to the surface of an object to be measured, on a pre-set coordinate system based on the space code calculated in the space code processing processes A3-A5 and the position of light-reception element, are provided.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、三次元形状を計測
する方法および装置ならびに三次元形状計測用プログラ
ムを記憶した記憶媒体に係り、特に、高精度で測定対象
物の表面の位置を計測する三次元形状を計測する方法お
よび装置ならびに三次元形状計測用プログラムを記憶し
た記憶媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for measuring a three-dimensional shape and a storage medium storing a three-dimensional shape measuring program, and in particular, to measure the position of the surface of a measuring object with high accuracy. The present invention relates to a method and an apparatus for measuring a three-dimensional shape, and a storage medium storing a three-dimensional shape measurement program.

【0002】[0002]

【従来の技術】従来、三次元形状を計測するために、レ
ーザ光の照射角度と当該レーザ光の戻り光を受光するC
CDの受光素子の位置とに基づいて、三角測量の原理に
より測定対象物表面までの距離を算出している。レーザ
光の照射角度を、角度コード又は空間コードという。こ
の空間コードがそれぞれ定義されたスリット光を照射
し、このスリット光の角度コードを空間コードとするこ
とができる。そして、スリット光の角度コードとこの角
度コードのスリット光を受光した画素位置とから、測定
対象物までの距離を算出することができる。
2. Description of the Related Art Conventionally, in order to measure a three-dimensional shape, an irradiation angle of a laser beam and a C which receives a return beam of the laser beam are used.
The distance to the surface of the object to be measured is calculated based on the principle of triangulation based on the position of the light receiving element of the CD. The irradiation angle of the laser beam is called an angle code or a space code. The space code irradiates the defined slit light, and the angle code of the slit light can be used as the space code. Then, the distance to the object to be measured can be calculated from the angle code of the slit light and the pixel position that has received the slit light of the angle code.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来例では、スリット光は測定対象物の傾斜によっては細
くなってしまうことがあり、受光素子の大きさよりも細
く、かつ受光素子と受光素子の間に戻り光が位置するよ
うな場合には、測定不能な画素が存在してしまう、とい
う不都合があった。また、空間分解能を向上させるため
にスリット光を細くすると、同様に、測定不能点が生じ
てしまう。そして、この穴の空いた状態の空間コード化
画像から距離画像データを生成したときに、測定対象物
の面に穴が空いた状態のデータとなってしまう、という
不都合があった。
However, in the above-mentioned conventional example, the slit light may be thin depending on the inclination of the object to be measured, and is smaller than the size of the light receiving element, and the distance between the light receiving elements is small. In the case where the return light is located at a position, there is a disadvantage that an unmeasurable pixel exists. In addition, if the slit light is made thinner to improve the spatial resolution, a measurement impossible point similarly occurs. Then, when the distance image data is generated from the space-coded image in which the holes are vacant, there is a disadvantage that the data becomes a state in which holes are pierced in the surface of the measurement object.

【0004】距離画像データに穴が存在すると、距離画
像データからポリゴンを生成する処理や、また、測定対
象物の段差や稜線(エッジ)などの形状の特徴を抽出す
る処理が複雑となってしまう、という不都合があった。
If holes are present in the distance image data, the process of generating polygons from the distance image data and the process of extracting shape features such as steps and ridges (edges) of the object to be measured become complicated. , There was an inconvenience.

【0005】また、ノイズの影響を除去する画像処理の
手法として、例えば、局所空間フィルタと呼ばれるフィ
ルタリング処理がある。この処理は注目画素の近傍画像
のデータ(明るさ)を用いて注目画素のデータを近傍値
の最大値・最小値・中央値などに置換えることで、ノイ
ズの除去を行う。しかしながら、ノイズを除去するに
は、画像全体に対してフィルタリング処理を行う必要が
あり、フィルタリング処理後はノイズ以外の画素のデー
タも変更が加えられるという欠点がある。三次元計測装
置より出力される空間コード化画像は、その画素位置と
コードの値を用いて三次元座標へ変換されるため、コー
ド値が変化することは精度の面から好ましくない。
As a method of image processing for removing the influence of noise, for example, there is a filtering processing called a local spatial filter. In this process, noise is removed by replacing the data of the target pixel with the maximum value, minimum value, median value, etc. of the nearby value using the data (brightness) of the neighboring image of the target pixel. However, in order to remove noise, it is necessary to perform a filtering process on the entire image, and after the filtering process, there is a disadvantage that data of pixels other than the noise is also changed. Since the spatially coded image output from the three-dimensional measurement device is converted into three-dimensional coordinates using the pixel position and the code value, a change in the code value is not preferable in terms of accuracy.

【0006】[0006]

【発明の目的】本発明は、係る従来例の有する不都合を
改善し、特に、精度を落さずに取扱いを容易とする距離
画像データを生成することのできる三次元形状を計測す
る方法および装置を提供することを、その目的とする。
SUMMARY OF THE INVENTION An object of the present invention is to provide a method and apparatus for measuring a three-dimensional shape capable of improving the disadvantages of the prior art, and in particular, generating range image data that can be easily handled without reducing accuracy. The purpose is to provide.

【0007】[0007]

【課題を解決するための手段】そこで、本発明では、測
定対象物を含む空間を分割する空間コードに対応した計
測光を照射する照射工程と、この照射工程で照射された
計測光を当該計測光の照射角度に対して予め定められた
角度をなす受光平面に二次元に配列された各受光素子に
て受光する受光工程と、この受光工程にて受光した計測
光の順序に基づいて各受光素子に対応する位置ごとに空
間コードを算出する空間コード処理工程と、この空間コ
ード処理工程にて算出された空間コードと受光素子の位
置とに基づいて予め定められた座標系での原点から測定
対象物の表面までの距離を各受光素子毎に算出する距離
算出工程とを備えている。しかも、空間コード処理工程
が、受光平面上の各受光素子のうち計測光を受光しなか
った受光素子を抽出する測定不能点抽出工程と、この測
定不能点抽出工程にて抽出された測定不能点の空間コー
ドについて当該測定不能点の近傍の受光素子での空間コ
ードの値に基づく補完値を算出する補完工程とを備え
た、という構成を採っている。これにより前述した目的
を達成しようとするものである。
Therefore, according to the present invention, there is provided an irradiation step of irradiating measurement light corresponding to a space code for dividing a space including an object to be measured, and a measurement light irradiated in this irradiation step. A light receiving step in which light is received by each light receiving element two-dimensionally arranged on a light receiving plane at a predetermined angle with respect to a light irradiation angle, and each light receiving step is performed based on an order of measurement light received in the light receiving step. A space code processing step of calculating a space code for each position corresponding to the element, and measurement from an origin in a predetermined coordinate system based on the space code calculated in the space code processing step and the position of the light receiving element Calculating a distance to the surface of the object for each light receiving element. In addition, the spatial code processing step includes a non-measurable point extracting step of extracting light receiving elements that did not receive the measurement light among the light receiving elements on the light receiving plane, and a non-measurable point extracted in the non-measurable point extracting step. And a complementary step of calculating a complementary value based on the value of the space code in the light receiving element near the unmeasurable point. This aims to achieve the above-mentioned object.

【0008】照射工程では、角度コードをそれぞれ定義
されるスリット光や、スポット光を計測光として照射す
る。受光工程では、例えばエリア型のCCDセンサを使
用して計測光を受光する。空間コード処理工程では、計
測光の種類に応じて、例えばスリット光であれば輝度値
が最大となったスリット光の順序に基づいて、空間コー
ド化画像を生成する。そして、距離算出工程では、計測
光の角度(空間コード)と、空間コード化画像の画素位
置とに応じて三角測量の原理により測定対象物までの距
離を算出する。このとき、例えば受光の焦点位置を原点
としても良いし、また較正を行うことで測定対象物を含
む空間の一点を原点としても良い。
[0008] In the irradiation step, a slit light or a spot light, each of which defines an angle code, is irradiated as measurement light. In the light receiving step, measurement light is received using, for example, an area type CCD sensor. In the spatial code processing step, a spatially coded image is generated according to the type of the measurement light, for example, based on the order of the slit light having the maximum luminance value in the case of slit light. Then, in the distance calculation step, the distance to the measurement target is calculated based on the principle of triangulation according to the angle of the measurement light (space code) and the pixel position of the space-coded image. At this time, for example, the focus position of the light reception may be set as the origin, or one point of a space including the measurement target may be set as the origin by performing calibration.

【0009】空間コード処理工程では、測定不能点抽出
工程にて、受光平面上の各受光素子のうち計測光を受光
しなかった受光素子を抽出する。すると、受光工程で種
々の理由によってスリット光や最も細いパターン光を受
光しない画素が生じてしまっても、この受光不能となっ
た受光素子またはその対応する空間コード化画像の画素
位置を抽出する。続いて、補完工程にて、測定不能点の
空間コードについて当該測定不能点の近傍の受光素子で
の空間コードの値に基づく補完値を算出する。すると、
正常に算出した空間コードを変更することなく、測定不
能点に補完値が格納される。このため、距離算出工程に
て算出された距離の配列からなる距離画像データは、穴
のない連続的な形状を表す。
In the spatial code processing step, in the unmeasurable point extracting step, the light receiving elements which did not receive the measurement light among the light receiving elements on the light receiving plane are extracted. Then, even if a pixel that does not receive slit light or the finest pattern light occurs for various reasons in the light receiving step, the light receiving element that cannot receive light or the pixel position of the corresponding spatially coded image is extracted. Subsequently, in a complementing step, a complement value based on the value of the spatial code at the light receiving element near the non-measurable point is calculated for the spatial code of the non-measurable point. Then
The complementary value is stored at the unmeasurable point without changing the normally calculated space code. For this reason, the distance image data composed of the array of distances calculated in the distance calculation step represents a continuous shape without holes.

【0010】本発明による三次元形状計測装置は、測定
対象物を含む空間を分割する空間コードに対応した計測
光を照射する照射手段と、この照射手段によって照射さ
れた計測光を当該計測光の照射角度に対して予め定めら
れた角度をなす受光平面に二次元に配列された各受光素
子を有する受光手段と、この受光手段の各受光素子が受
光した計測光の順序に基づいて各受光素子に対応する位
置ごとに空間コードを算出する空間コード処理手段とを
備えている。しかも、この空間コード処理手段によって
算出された空間コードを各受光素子に対応した画素位置
に記憶する空間コード記憶手段と、この空間コード記憶
手段の各画素位置及び当該画素に格納された空間コード
に基づいて予め定められた座標系での原点から測定対象
物の各表面までの距離を各受光素子毎に算出する距離算
出手段とを備えている。そして、空間コード処理手段
が、空間コードが格納されなかった画素を抽出する測定
不能点抽出部と、この測定不能点抽出部によって抽出さ
れた測定不能点の空間コードについて当該測定不能点の
近傍の画素に格納された空間コードに基づく補完値を算
出する補完値算出部とを備えた、という構成を採ってい
る。
A three-dimensional shape measuring apparatus according to the present invention comprises: an irradiating means for irradiating measurement light corresponding to a space code for dividing a space including an object to be measured; and a measuring light irradiated by the irradiating means. A light receiving means having light receiving elements arranged two-dimensionally on a light receiving plane forming a predetermined angle with respect to an irradiation angle; and each light receiving element based on an order of measurement light received by each light receiving element of the light receiving means. And a space code processing means for calculating a space code for each position corresponding to. Moreover, the space code storage means for storing the space code calculated by the space code processing means at a pixel position corresponding to each light receiving element, and the space code stored at each pixel position and the pixel of the space code storage means. Distance calculating means for calculating, for each light receiving element, a distance from an origin in a predetermined coordinate system to each surface of the measuring object based on the predetermined coordinate system. Then, the spatial code processing means extracts an unmeasurable point extracting unit that extracts pixels for which no spatial code has been stored, and a spatial code of the unmeasurable point extracted by the unmeasurable point extracting unit in the vicinity of the unmeasurable point. A complementary value calculation unit that calculates a complementary value based on the space code stored in the pixel.

【0011】ここでは、空間コード処理手段は、計測光
の種類に応じて受光素子の位置毎に空間コードを特定
し、空間コード化画像を生成する。そして、空間コード
記憶手段が、当該空間コードを記憶する。続いて、測定
不能点抽出部は、計測光を受光しなかった画素に対応し
た空間コード化画像の画素位置を特定する。例えば、空
間コードが初期値のままのものや、または、空間コード
の格納の有無を示すフラグを参照して、当該測定不能で
あった画素を抽出する。すると、補完値算出部は、この
測定不能点抽出部によって抽出された測定不能点の空間
コードを補完する。すなわち、測定不能点の近傍の画素
に格納された空間コードを読出すと共に、例えば、4近
傍または8近傍の空間コードを読出すと共に、これらの
値の平均や中央値を補完値とする。このため、空間コー
ド化画像およびこの空間コード化画像に基づいて算出し
た距離画像データは連続的なデータとなる。また、補完
値の算出では、近傍値のうち初期値を除いた値の中央値
等とすると、死角領域をそのままにCCDの構造上の理
由等で生じた穴のみが補完される。
Here, the space code processing means specifies a space code for each position of the light receiving element in accordance with the type of the measurement light, and generates a space-coded image. Then, the space code storage means stores the space code. Subsequently, the unmeasurable point extraction unit specifies the pixel position of the spatially coded image corresponding to the pixel that did not receive the measurement light. For example, the pixel that cannot be measured is extracted by referring to the space code that is kept at the initial value or the flag indicating whether the space code is stored. Then, the complement value calculation unit complements the spatial code of the unmeasurable point extracted by the unmeasurable point extraction unit. That is, the space code stored in the pixel near the unmeasurable point is read, and the space codes near, for example, 4 or 8 are read, and the average or median of these values is used as a complement value. Therefore, the space-coded image and the distance image data calculated based on the space-coded image are continuous data. In the calculation of the complement value, assuming that the median value of the neighboring values excluding the initial value is the same, the blind spot area is left as it is, and only holes generated due to structural reasons of the CCD are complemented.

【0012】[0012]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。図1に示すように、測定対象物を
含む空間を分割する空間コードに対応した計測光を照射
する照射工程A1と、この照射工程A1で照射された計
測光の照射角度に対して予め定められた角度をなす受光
平面に二次元に配列された各受光素子にて当該計測光を
受光する受光工程A2と、この受光工程A2にて受光し
た計測光の順序に基づいて各受光素子に対応する位置ご
とに空間コードを特定する空間コード特定工程A3とを
備えている。
Embodiments of the present invention will be described below with reference to the drawings. As shown in FIG. 1, an irradiation step A1 for irradiating measurement light corresponding to a space code that divides a space including a measurement target, and an irradiation angle of the measurement light irradiated in this irradiation step A1 are predetermined. The light receiving step A2 receives the measurement light by the light receiving elements arranged two-dimensionally on the light receiving plane at an angle, and the light receiving elements correspond to the light receiving elements based on the order of the measurement light received in the light receiving step A2. A space code specifying step A3 for specifying a space code for each position.

【0013】さらに、空間コード特定工程A3に続い
て、受光平面上の各受光素子のうち計測光を受光しなか
った受光素子を抽出する測定不能点抽出工程A4と、こ
の測定不能点抽出工程A4にて抽出された測定不能点の
空間コードについて当該測定不能点の近傍の受光素子で
の空間コードの値に基づく補完値を算出する補完工程A
5と、この空間コード処理工程A3乃至A5にて算出さ
れた空間コードと受光素子の位置とに基づいて予め定め
られた座標系での原点から測定対象物の表面までの距離
を各受光素子毎に算出する距離算出工程A6と、この距
離算出工程A6にて算出された距離画像データを出力す
る距離画像データ出力工程とを備えている。
Further, following the spatial code specifying step A3, a measurement impossible point extracting step A4 for extracting a light receiving element which has not received the measurement light among the light receiving elements on the light receiving plane, and a measurement impossible point extracting step A4 Complementation step A for calculating a complement value based on the value of the space code at the light receiving element near the measurement impossible point for the space code of the measurement impossible point extracted in
5 and the distance from the origin in the predetermined coordinate system to the surface of the object to be measured in a predetermined coordinate system based on the space code calculated in the space code processing steps A3 to A5 and the position of the light receiving element. And a distance image data output step of outputting the distance image data calculated in the distance calculation step A6.

【0014】測定不能点抽出工程A4では、受光素子の
配列と等しい配列の空間コード化画像から、空間コード
が格納されなかった画素を探索することで、計測光を受
光しなかった受光素子を抽出するようにしても良い。ま
た、空間コード特定工程A3は、各受光素子について計
測光を受光したか否かを示す受光フラグを設定する受光
フラグ設定工程を備え、測定不能点抽出工程A4が、受
光フラグを参照して測定不能点を探索する受光フラグ参
照工程を備える構成としてもよい。
In the unmeasurable point extracting step A4, the pixels in which the spatial code is not stored are searched from the spatially coded image having the same arrangement as the array of the light receiving elements, thereby extracting the light receiving elements which have not received the measuring light. You may do it. Further, the space code specifying step A3 includes a light receiving flag setting step of setting a light receiving flag indicating whether or not measurement light has been received for each light receiving element, and the unmeasurable point extracting step A4 performs measurement with reference to the light receiving flag. A configuration may be provided that includes a light receiving flag reference step of searching for an impossible point.

【0015】このように、本実施形態では、有効な測定
点であるか否かを判定し、さらに空間コードの連続性の
性質を利用して、空間コード化画像中の測定が不能であ
った画素位置の検出を行う。測定が不能であった画素位
置についてのみ例えば近傍画像のコードの中央値を記録
することで、正しいデータを変化させることなく、測定
不能な画素にコードを補完する。有効な測定点であるか
否かの判定は、例えば測定不能な画素にはデータが初期
値のままであることを利用するか、または、メモリ・ア
ドレス(画素位置)について測定中にアクセスされたか
否かを示すフラグを用いる。
As described above, in the present embodiment, it is determined whether or not the measurement point is an effective measurement point, and further, the measurement in the spatially coded image is impossible by utilizing the continuity property of the spatial code. The pixel position is detected. By recording, for example, the median value of the code of the neighboring image only at the pixel position where measurement was impossible, the code is complemented to the pixel that cannot be measured without changing the correct data. The determination as to whether or not the pixel is a valid measurement point may be made, for example, by using the fact that data remains at an initial value for a pixel that cannot be measured, or by accessing a memory address (pixel position) during measurement. A flag indicating whether or not it is used is used.

【0016】図2は空間コードを利用した距離計測の原
理を示す説明図である。図2に示す例では、照射工程A
1を実現する照射手段は、レーザ光源22と、ガルバノ
ミラー23とを備えている。また、受光工程A2は、カ
メラ3を使用する。レーザ光源22,ガルバノミラー2
3及びカメラ3は、図2に示すように、床面(水平面)
に対して水平である同一平面上に位置している。また、
ガルバノミラー23は、カメラ3の光軸から長さlの距
離で配置されており、カメラ3の受光素子31の水平走
査線に対して垂直方向(スリット光Rと平行方向)を軸
として回転する。この配置により、スリット光Rを受光
素子31の水平走査線に沿って平行方向に移動させてカ
メラ3の受光素子31に受光させることを可能としてい
る。
FIG. 2 is an explanatory diagram showing the principle of distance measurement using a space code. In the example shown in FIG.
The irradiation means for realizing 1 includes a laser light source 22 and a galvanomirror 23. In the light receiving step A2, the camera 3 is used. Laser light source 22, Galvano mirror 2
As shown in FIG. 2, the camera 3 and the camera 3 are on a floor surface (horizontal surface).
Are located on the same plane which is horizontal with respect to. Also,
The galvanometer mirror 23 is disposed at a distance of l from the optical axis of the camera 3 and rotates around a vertical direction (parallel to the slit light R) with respect to the horizontal scanning line of the light receiving element 31 of the camera 3. . With this arrangement, it is possible to move the slit light R in the parallel direction along the horizontal scanning line of the light receiving element 31 and allow the light receiving element 31 of the camera 3 to receive the light.

【0017】空間コードは、例えば図2に示すθの値に
対応してガルバノスキャナ23の走査方向に一定角度毎
に増加させた値とする。任意の画素について投光角度θ
が特定され、且つ、各画素の位置座標のx成分からカメ
ラ3からスリット光R位置の角度αが特定される(図2
では直角となっている)。また、カメラ3とガルバノミ
ラー23との離間距離lは既値であるため、例えば、距
離h=l・sinθ/sin(α+θ)から求められる。θの
値はガルバノスキャナの走査角度によって定り、αの値
は受光した受光素子の位置によって定るため、この2つ
の角度と予め定められた距離lとから、計測光が照射さ
れた位置の測定対象物表面までの距離hを算出すること
ができる。
The space code is, for example, a value that is increased at regular intervals in the scanning direction of the galvano scanner 23 in accordance with the value of θ shown in FIG. Projection angle θ for any pixel
And the angle α of the slit light R position from the camera 3 is specified from the x component of the position coordinates of each pixel (FIG. 2).
Is a right angle.) Further, since the separation distance l between the camera 3 and the galvanometer mirror 23 is a known value, it can be obtained from, for example, the distance h = l · sin θ / sin (α + θ). The value of θ is determined by the scanning angle of the galvano scanner, and the value of α is determined by the position of the light receiving element that has received the light. Therefore, from these two angles and the predetermined distance l, the position of the position irradiated with the measurement light is determined. The distance h to the surface of the measurement object can be calculated.

【0018】図3及び図4は空間コードの例を示す説明
図である。図3(A)および図4(A)では、空間コー
ドを濃淡で表しており、黒で示す空間コードが最小で、
白で示す空間コードが最大である。図3(A)に示す例
では、飛び飛びに黒点が現れていて、これが測定不能点
である。図3(B)に示すように、測定不能点の空間コ
ードは最小となる。一方、補完処理を行うと、図4
(A)に示す如くとなる。測定対象物が平面である場
合、空間コードは水平画素座標の増加に応じて単調に増
加する。
FIGS. 3 and 4 are explanatory diagrams showing examples of space codes. In FIG. 3A and FIG. 4A, the space code is represented by shading, and the space code shown in black is the minimum,
The space code shown in white is the largest. In the example shown in FIG. 3 (A), black spots appear intermittently, which are unmeasurable points. As shown in FIG. 3B, the spatial code at the unmeasurable point is minimized. On the other hand, when the complementing process is performed, FIG.
As shown in FIG. If the measurement object is a plane, the spatial code monotonically increases as the horizontal pixel coordinates increase.

【0019】図5に補完工程A5での補完処理の一例を
示す。補完工程A5での補完の手法は種々あるが、例え
ば、測定不能点の近傍値のうち初期値以外の空間コード
に基づいて当該測定不能点の補完値を特定するようにし
てもよい。すなわち、空間コード化画像をラスタ走査し
て測定不能点(例えば0等の初期値)を検索する。次い
で、測定不能な画素近傍の画素位置におけるコードの中
央値を求め、測定不能点のコード‘0’と置換える。図
5(A)に8近傍の例を、図5(B)に4近傍の例を示
す。
FIG. 5 shows an example of the complementing process in the complementing step A5. There are various methods of complementation in the complementing step A5. For example, the complement value of the measurement impossible point may be specified based on a space code other than the initial value among the values near the measurement impossible point. That is, the spatially coded image is raster-scanned to search for an unmeasurable point (for example, an initial value such as 0). Next, the central value of the code at the pixel position near the unmeasurable pixel is obtained and replaced with the code “0” at the unmeasurable point. FIG. 5A shows an example of eight neighborhoods, and FIG. 5B shows an example of four neighborhoods.

【0020】補完処理の具体例としては、注目画素が測
定不能点であれば、8近傍コードの中央値を注目画素位
置に記録する。また、近傍コード値のうち、0でないも
のの中央値を注目画素位置に記録するようにするとよ
い。さらに、近傍コード値のうち、0でないものの平均
値を注目画素位置に記録するようにしてもよい。する
と、死角による測定不能点の影響を受けない。
As a specific example of the complementing process, if the target pixel is a point at which measurement is impossible, the median value of the eight neighboring codes is recorded at the target pixel position. In addition, among the neighboring code values, the median of the non-zero code values may be recorded at the target pixel position. Further, among the neighboring code values, an average value of non-zero values may be recorded at the target pixel position. Then, it is not affected by the unmeasurable point due to the blind spot.

【0021】また、補完工程A5が、測定不能点の補完
値について計測光の走査方向にて空間コードが増加又は
減少する方向であるのに連続して減少または増加する値
となったときには当該補完値を修正する工程を備えるよ
うにしても良い。これは、図3及び図4に示すように、
空間コードは測定対象物の形状に関わらず増加(または
減少)するため、その予め定められた増加方向にて空間
コードが例えば3連続で減少してしまうような補完値は
削除するようにする。すると、測定対象物表面から死角
へ至るエッジの画素の値に不正確な補完値を格納するこ
とがない。
In the complementing step A5, when the complementing value of the unmeasurable point becomes a value that continuously decreases or increases in the scanning direction of the measuring light while the spatial code increases or decreases, the complementing is performed. A step of correcting the value may be provided. This is, as shown in FIGS. 3 and 4,
Since the space code increases (or decreases) irrespective of the shape of the object to be measured, a complementary value such that the space code decreases, for example, three times in a predetermined increasing direction is deleted. Then, an incorrect complement value is not stored in the value of the pixel at the edge from the surface of the measurement object to the blind spot.

【0022】図6は本実施形態による三次元形状計測方
法の実施に好適な三次元形状計測装置の構成を示すブロ
ック図である。図6に示すように、本実施形態による三
次元形状計測装置は、測定対象物を含む空間を分割する
空間コードに対応した計測光を照射する照射手段2と、
この照射手段2によって照射された計測光の照射角度に
対して予め定められた角度をなす受光平面に二次元に配
列された各受光素子を有する受光手段3と、この受光手
段3の各受光素子が受光する計測光の順序に基づいて各
受光素子に対応する位置ごとに空間コードを算出する空
間コード処理手段4とを備えている。
FIG. 6 is a block diagram showing a configuration of a three-dimensional shape measuring apparatus suitable for carrying out the three-dimensional shape measuring method according to the present embodiment. As shown in FIG. 6, the three-dimensional shape measuring apparatus according to the present embodiment includes an irradiation unit 2 that irradiates measurement light corresponding to a space code that divides a space including a measurement target,
A light receiving means 3 having light receiving elements arranged two-dimensionally on a light receiving plane at a predetermined angle with respect to the irradiation angle of the measuring light irradiated by the irradiation means 2; and each light receiving element of the light receiving means 3 And a space code processing means 4 for calculating a space code for each position corresponding to each light receiving element based on the order of measurement light received by the light receiving element.

【0023】この計測装置はさらに、この空間コード処
理手段4によって算出された空間コードを各受光素子に
対応した画素位置に記憶する空間コード記憶手段42
と、この空間コード記憶手段42の各画素位置及び当該
画素に格納された空間コードに基づいて予め定められた
座標系での原点から測定対象物の各表面までの距離を各
受光素子毎に算出する距離算出手段100とを備えてい
る。
The measuring apparatus further includes a space code storage means 42 for storing the space code calculated by the space code processing means 4 at a pixel position corresponding to each light receiving element.
And calculating the distance from the origin in the predetermined coordinate system to each surface of the measurement object for each light receiving element based on each pixel position of the space code storage means 42 and the space code stored in the pixel. And distance calculating means 100 for calculating the distance.

【0024】そして、空間コード処理手段4が、空間コ
ードが格納されなかった画素を抽出する測定不能点抽出
部4Bと、この測定不能点抽出部4Bによって抽出され
た測定不能点の空間コードについて当該測定不能点の近
傍の画素に格納された空間コードに基づく補完値を算出
する補完値算出部4Cとを備えている。
Then, the spatial code processing means 4 extracts the unmeasurable point extracting unit 4B for extracting the pixels in which the spatial code is not stored and the spatial code of the unmeasurable point extracted by the unmeasurable point extracting unit 4B. And a complementary value calculation unit 4C that calculates a complementary value based on a space code stored in a pixel near the unmeasurable point.

【0025】この空間コード処理手段のうち、測定不能
点抽出部4Bと、補完値算出部4Cとは、コンピュータ
等の演算装置を使用して実現することができる。この場
合、演算装置は、三次元計測用プログラムを記憶した記
憶手段と、このプログラムを実行する事により測定不能
点抽出部4B等として機能するCPUと、このCPUの
主記憶装置となるRAMとを備えている。この三次元計
測用プログラムは、演算装置を動作させる指令として、
空間コード化画像の各画素のうち空間コード化画像が格
納されなかった画素を抽出させる測定不能点抽出指令
と、この測定不能点抽出指令に応じて抽出される画素の
空間コードについて当該測定不能点の近傍の受光素子で
の空間コードの値に基づく補完値を算出させる補完指令
とを備える。これにより、図6に示す構成を実現し、さ
らに、この図6に示す構成を使用することで図1に示す
処理が行われる。
Of the space code processing means, the unmeasurable point extraction unit 4B and the complement value calculation unit 4C can be realized by using an arithmetic device such as a computer. In this case, the arithmetic unit includes a storage unit that stores the three-dimensional measurement program, a CPU that functions as a non-measurable point extracting unit 4B by executing the program, and a RAM that is a main storage device of the CPU. Have. This three-dimensional measurement program is a command for operating the arithmetic device,
An unmeasurable point extraction command for extracting a pixel in which the spatially coded image is not stored among the pixels of the space coded image, and the unmeasurable point for the spatial code of the pixel extracted according to the unmeasurable point extraction instruction And a complementary command for calculating a complementary value based on the value of the space code in the light receiving element in the vicinity of. Thereby, the configuration shown in FIG. 6 is realized, and the processing shown in FIG. 1 is performed by using the configuration shown in FIG.

【0026】[0026]

【実施例】次に、三次元形状計測処理の実施例を図面を
参照して説明する。 <較正>図7乃至図9に三次元形状計測装置の構成を行
う例を示す。図2に示すように、個別の照射角度と受光
素子の画素位置とにより、測定対象物までの距離を算出
することができるが、実際には、カメラの画角や、設置
時の調整の困難性や、測定対象物を含む座標系での値が
扱が容易である等の理由から、本実施例では、空間コー
ドと画素位置との関係を較正している。
Next, an embodiment of a three-dimensional shape measuring process will be described with reference to the drawings. <Calibration> FIGS. 7 to 9 show examples of the configuration of the three-dimensional shape measuring apparatus. As shown in FIG. 2, the distance to the object to be measured can be calculated from the individual irradiation angles and the pixel positions of the light receiving elements. However, in practice, it is difficult to adjust the angle of view of the camera and the adjustment at the time of installation. In the present embodiment, the relationship between the spatial code and the pixel position is calibrated for reasons such as the property and the value in the coordinate system including the measurement object is easy to handle.

【0027】一般に、撮像画面は平面状のCCD撮像セ
ンサにより検出されるため。、カメラ座標系は、Xc−
Ycの二次元座標系によって得られる。物体座標系とこ
のカメラ座標系との関係を同次座標系表現で表すと、次
式(1)のように表される。ここで、物体座標系をカメ
ラ座標系に変換する行列Cをカメラパラメータという。
Generally, an imaged screen is detected by a planar CCD image sensor. , The camera coordinate system is Xc-
It is obtained by a two-dimensional coordinate system of Yc. When the relationship between the object coordinate system and the camera coordinate system is represented by a homogeneous coordinate system expression, it is represented by the following equation (1). Here, the matrix C for converting the object coordinate system into the camera coordinate system is called a camera parameter.

【0028】[0028]

【数1】 (Equation 1)

【0029】一方、プロジェクタは、一次元方向の変位
を求めるため、得られる座標系はXpの一次元のみであ
る。このプロジェクタ座標系と物体座標系との関係を同
次座標系表現で表すと、次式(2)のように表される。
ここで、物体座標系をプロジェクタ座標系に変換する行
列Pをプロジェクタパラメータという。
On the other hand, since the projector obtains the displacement in one-dimensional direction, the obtained coordinate system is only one-dimensional Xp. When the relationship between the projector coordinate system and the object coordinate system is represented by a homogeneous coordinate system expression, it is represented by the following equation (2).
Here, a matrix P for transforming the object coordinate system into the projector coordinate system is called a projector parameter.

【0030】[0030]

【数2】 (Equation 2)

【0031】これら各パラメータを展開し、連立して整
理することにより、次式(3),(4),(5)の関係
が求められる。
By developing these parameters and organizing them simultaneously, the following equations (3), (4) and (5) are obtained.

【0032】[0032]

【数3】 (Equation 3)

【0033】従って、行列Qに逆行列が存在すれば、カ
メラ座標系(Xc,Yc)及びプロジェクタ座標系Xpか
ら物体座標系V=(X,Y,Z)を求めることができ
る。前述した各手法により三次元形状の測定を行う場合
には、この行列Qを求めるために、前述したカメラパラ
メータ及びプロジェクタパラメータを予め求める必要が
ある。
Therefore, if an inverse matrix exists in the matrix Q, the object coordinate system V = (X, Y, Z) can be obtained from the camera coordinate system (Xc, Yc) and the projector coordinate system Xp. When the three-dimensional shape is measured by each of the above-described methods, it is necessary to obtain the camera parameters and the projector parameters in advance in order to obtain the matrix Q.

【0034】まず、CCDカメラで基準立方体Bの明暗
画像とスリットプロジェクタで空間コード化法によりコ
ード化画像を取り込む。そして、明暗画像を二値化して
指標部を取り出し、各立方体の面内で相対する指標同士
を仮想的に結んで格子状に得られるその交点を基準点
(Xi,Yi,Zi)として抽出する。
First, a bright / dark image of the reference cube B is captured by a CCD camera and a coded image is captured by a slit projector by a spatial coding method. Then, the bright and dark images are binarized to take out the index portion, and the intersections obtained by virtually connecting the opposing indices in the plane of each cube and obtained in a grid shape are extracted as reference points (Xi, Yi, Zi). .

【0035】カメラパラメータを算出する場合には、こ
の物体座標系上の基準点(既知)の位置座標と、撮像画
像上のCCDカメラのイメージセンサ上における画素位
置(カメラ座標系上の位置座標(Xci,Yci))をペア
で記憶する。
When calculating the camera parameters, the position coordinates of the reference point (known) on the object coordinate system and the pixel positions on the image sensor of the CCD camera on the captured image (position coordinates on the camera coordinate system ( Xci, Yci)) are stored in pairs.

【0036】この物体座標系上の基準点の位置座標(X
i,Yi,Zi)とカメラ座標系上の位置座標(Xci,Yc
i)との間には、前述の式(3),(4)から求まる次
式(6),(7)の関係が成立する。
The position coordinates (X) of the reference point on the object coordinate system
i, Yi, Zi) and position coordinates (Xci, Yc) on the camera coordinate system.
i), the following equations (6) and (7) obtained from the above equations (3) and (4) hold.

【0037】[0037]

【数4】 (Equation 4)

【0038】各式(6),(7)のC11・・・C21・・
・C34の合計12の未知数を求めるには、少なくとも同
一平面上にない少なくとも六つ以上の基準点についてカ
メラ座標系上の点を検出する必要がある。そして、未知
数は最小二乗法により求めることができる。
C11... C21... Of the equations (6) and (7)
To find a total of 12 unknowns of C34, it is necessary to detect points on the camera coordinate system for at least six or more reference points that are not on the same plane. The unknown can be obtained by the least square method.

【0039】図7に三次元計測装置および較正装置の一
例を示す。三次元形状計測装置は、測定対象物に対して
一定の一次元方向について位置座標を付する照射光を照
射する照射機構としてのプロジェクタ202と、照射光
を照射された測定対象物を撮像するカメラ3と、このカ
メラ3による撮像画像から測定対象物の三次元画像デー
タを算出する画像処理ボード201とを備えている。
FIG. 7 shows an example of a three-dimensional measuring device and a calibration device. The three-dimensional shape measuring apparatus includes a projector 202 as an irradiation mechanism that irradiates irradiation light with position coordinates in a certain one-dimensional direction to the measurement target, and a camera that captures the measurement target irradiated with the irradiation light 3 and an image processing board 201 for calculating three-dimensional image data of the object to be measured from an image captured by the camera 3.

【0040】プロジェクタ202は、ストライプ状のパ
ターン光をピッチを変えて照射することが可能であり、
ホストコンピュータ200により照射タイミングやパタ
ーン光のピッチの指定等の動作制御が行われる。また、
パターン光に代えて、スリット光を照射するようにして
もよい。一次元座標系たるプロジェクタ座標系は、スト
ライプの並び方向(パターン光を垂直に横切る方向)に
形成される。
The projector 202 can irradiate stripe-shaped pattern light at different pitches.
Operation control such as designation of irradiation timing and pattern light pitch is performed by the host computer 200. Also,
Instead of the pattern light, slit light may be applied. The projector coordinate system, which is a one-dimensional coordinate system, is formed in the direction in which the stripes are arranged (the direction perpendicular to the pattern light).

【0041】CCDカメラ3は、受光した光の輝度に応
じた輝度信号を出力する受光素子を備えている。この受
光素子は、平面状に配置された画素となる。二次元座標
系たるカメラ座標系は、このCCD撮像センサの平面に
対応して形成され、各画素の位置が座標系の位置座標に
対応する。
The CCD camera 3 has a light receiving element for outputting a luminance signal according to the luminance of the received light. This light receiving element is a pixel arranged in a plane. A camera coordinate system, which is a two-dimensional coordinate system, is formed corresponding to the plane of the CCD image sensor, and the position of each pixel corresponds to the position coordinates of the coordinate system.

【0042】画像処理ボード201は、プロジェクタ2
02とCCDカメラ3の同期を図り、また、CCDカメ
ラ3の出力に基づいて三次元形状データを算出する。
The image processing board 201 includes the projector 2
02 and the CCD camera 3 are synchronized, and three-dimensional shape data is calculated based on the output of the CCD camera 3.

【0043】次に、三次元形状計測装置の較正装置につ
いて説明する。この較正装置は、平滑な一平面221上
に既知の配置で複数の指標222を付した較正用二次元
ゲージ202と、このゲージ202をその一平面221
に垂直な方向に移動自在に保持する一軸数値制御テーブ
ル230と、この一軸数値制御テーブル230に装備さ
れ,較正用二次元ゲージ202の移動量を調節する調節
手段としての一軸数値制御コントローラ240とを備え
ている。
Next, a calibration device of the three-dimensional shape measuring device will be described. The calibration device includes a calibration two-dimensional gauge 202 having a plurality of indices 222 in a known arrangement on a smooth plane 221, and the gauge 202 is attached to the plane 221.
A uniaxial numerical control table 230 that is movably held in a direction perpendicular to the axis, and a uniaxial numerical control controller 240 that is provided in the uniaxial numerical control table 230 and that serves as adjusting means for adjusting the amount of movement of the calibration two-dimensional gauge 202. Have.

【0044】較正用二次元ゲージ202は、図7に示す
ように、正方形の一平面221を有し、この一平面22
1がCCDカメラ3及びプロジェクタ202に正対する
ように一軸数値制御テーブル230に保持されている。
そして、CCDカメラ3の対物レンズの光軸と一平面2
21の法線とが平行である。即ち、これにより、一平面
221に対してプロジェクタ202からパターン光の照
射が行われ、CCDカメラ3は一平面221における明
暗画像の撮像ができ、ホストコンピュータ200では、
後述する三次元座標データを画像処理ボード201を介
して得ることができる。
As shown in FIG. 7, the calibration two-dimensional gauge 202 has a single plane 221 of a square.
1 is held in the uniaxial numerical control table 230 so as to face the CCD camera 3 and the projector 202.
Then, the optical axis of the objective lens of the CCD camera 3 and one plane 2
The normal to 21 is parallel. That is, thereby, the pattern light is emitted from the projector 202 to the one plane 221, the CCD camera 3 can capture a bright and dark image on the one plane 221, and the host computer 200
Three-dimensional coordinate data described later can be obtained via the image processing board 201.

【0045】三次元座標系である物体座標系は、較正用
二次元ゲージ202を基準にして設定される。即ち、図
7の位置(この位置を現位置とする)にある較正用二次
元ゲージ202において、図8(A)に示すように、座
標系のX軸は一平面221の左上方の角を原点として水
平右方向に設定され、座標系のY軸は一平面21の同じ
角を原点として垂直下方向に設定されている。また、座
標系のZ軸は、図8(B)に示すように、一平面221
の同じ角を原点として当該一平面221の法線方向に沿
ってCCDカメラ3と反対側に向けて設定されている。
本実施例では、この物体座標系の原点からの距離を空間
コードと画素位置とに基づいて算出する。
The object coordinate system, which is a three-dimensional coordinate system, is set with reference to the calibration two-dimensional gauge 202. That is, in the calibration two-dimensional gauge 202 at the position shown in FIG. 7 (this position is assumed to be the current position), as shown in FIG. The origin is set horizontally rightward, and the Y-axis of the coordinate system is set vertically downward with the same angle of one plane 21 as the origin. Further, as shown in FIG. 8B, the Z axis of the coordinate system is
Are set to the opposite side to the CCD camera 3 along the normal direction of the one plane 221 with the same angle as the origin.
In this embodiment, the distance from the origin of the object coordinate system is calculated based on the space code and the pixel position.

【0046】さらに、較正用二次元ゲージ202の一平
面221上は白色に彩られ、その上に基準点23を決定
する黒点である指標222が付されている。指標222
は、図8(A)に示す如く、X軸,Y軸と各辺を平行と
した正方形の四辺上に五つずつ等ピッチpで配列されて
いる。互いに対向する辺上にある各指標は、それぞれが
他方の辺上にある指標と対応しており、図8(A)の点
線で示すように、対応する二つの指標は、X軸又はY軸
に平行な直線で結ばれる。この対応する指標を結ぶ各直
線の交点が基準点223となる。これら基準点223
は、一平面21上に升目状に5×5=25個が展開され
る。各指標21は、前述した物体座標系において、いず
れも既知の位置座標上に位置しており、これに伴い、各
基準点23の位置座標も既知となる。
Further, one plane 221 of the two-dimensional calibration gauge 202 is colored white, and an index 222 which is a black point for determining the reference point 23 is attached thereon. Index 222
As shown in FIG. 8A, five are arranged at equal pitch p on four sides of a square having each side parallel to the X-axis and Y-axis. The indices on the sides facing each other correspond to the indices on the other side, respectively, and as shown by the dotted line in FIG. Are connected by a straight line parallel to. The intersection of each straight line connecting the corresponding indices is the reference point 223. These reference points 223
5 × 5 = 25 cells are developed in a grid on one plane 21. Each index 21 is located on a known position coordinate in the object coordinate system described above, and accordingly, the position coordinate of each reference point 23 is also known.

【0047】一軸数値制御テーブル230は、較正用二
次元ゲージ202の保持部材231と、これと係合しZ
軸方向に保持部材31を送るボールネジ32と、ボール
ネジ32を一軸数値制御コントローラ4による数値制御
のもとで駆動するステッピングモータ33とを備えてい
る。
The one-axis numerical control table 230 includes a holding member 231 of the two-dimensional calibration
The ball screw 32 that feeds the holding member 31 in the axial direction, and a stepping motor 33 that drives the ball screw 32 under numerical control by the single-axis numerical controller 4 are provided.

【0048】一軸数値制御コントローラ240は、ホス
トコンピュータ200からのZ方向の送り量の数値入力
を受けて、これに対応する駆動量でステッピングモータ
233を駆動制御し、較正用二次元ゲージ202をZ方
向について任意の位置に位置決めすることができる。較
正の際に一軸数値制御テーブル230は、通常、較正用
二次元ゲージ202の送り方向をCCDカメラ3の対物
レンズの光軸と平行にして置かれ、当該較正用二次元ゲ
ージ202を、Z方向について、基準点223のピッチ
pと等しい送り量で現位置から四回送る。
The one-axis numerical controller 240 receives a numerical input of the feed amount in the Z direction from the host computer 200, controls the drive of the stepping motor 233 by the corresponding drive amount, and controls the two-dimensional It can be positioned at any position in the direction. At the time of calibration, the one-axis numerical control table 230 is usually set so that the feed direction of the calibration two-dimensional gauge 202 is parallel to the optical axis of the objective lens of the CCD camera 3, and the calibration two-dimensional gauge 202 is moved in the Z direction. Is sent four times from the current position with a feed amount equal to the pitch p of the reference point 223.

【0049】ホストコンピュータ200は、三次元形状
計測装置及び較正装置の動作制御を行うと共に測定情報
の演算を行う。図9に示す三次元形状計測装置の自動較
正システムの動作は、全て、このホストコンピュータ2
00に予め入力されたプログラムによって行われる。
The host computer 200 controls the operation of the three-dimensional shape measuring device and the calibrating device and calculates the measurement information. The operation of the automatic calibration system of the three-dimensional shape measuring apparatus shown in FIG.
This is performed by a program input in advance at 00.

【0050】図9は、本実施形態の動作を示すフローチ
ャートである。以下、これに基づいて本実施形態の三次
元形状計測に先だって行われる三次元形状計測装置の較
正動作を説明する。
FIG. 9 is a flowchart showing the operation of this embodiment. Hereinafter, a calibration operation of the three-dimensional shape measuring apparatus performed prior to the three-dimensional shape measurement of the present embodiment will be described based on this.

【0051】ホストコンピュータ200に記憶される変
数ステップを0に初期化する(工程S1)。
The variable step stored in the host computer 200 is initialized to 0 (step S1).

【0052】そして、三次元形状計測装置のプロジェク
タ202から出力されるレーザ光を連続的に投影し、較
正用二次元ゲージ202の一平面上に付された各指標の
画像をCCDカメラ3によって取り込み明暗画像を得
る。これにより、ホストコンピュータ200は、その記
憶領域に二次元座標系たるカメラ座標系Xc−Ycを設定
する(工程S2)。
Then, the laser light output from the projector 202 of the three-dimensional shape measuring apparatus is continuously projected, and the image of each index provided on one plane of the two-dimensional calibration gauge 202 is captured by the CCD camera 3. Obtain light and dark images. Thereby, the host computer 200 sets the camera coordinate system Xc-Yc as a two-dimensional coordinate system in the storage area (step S2).

【0053】次に、プロジェクタ202からグレイコー
ドパターン(ストライプ上のパターン光)を順次照射し
て空間コード化画像をCCDカメラ3により撮像する。
ホストコンピュータ200は、取り込まれた画像から空
間コードを得て、これにより記憶領域に一次元座標系た
るプロジェクタ座標系Xpを設定する(工程S3)。
Next, a gray code pattern (pattern light on a stripe) is sequentially emitted from the projector 202 and a spatially coded image is captured by the CCD camera 3.
The host computer 200 obtains a space code from the captured image, and thereby sets a projector coordinate system Xp as a one-dimensional coordinate system in the storage area (step S3).

【0054】撮像した明暗画像を二値化し、円形たる各
指標222の重心画素(中心)を求める(工程S4)。
The captured light-dark image is binarized, and the center-of-gravity pixel (center) of each circular index 222 is obtained (step S4).

【0055】ホストコンピュータ200では、正対する
各々の指標22同士を結んだ直線の仮想交点を較正用の
実座標基準点23として計算により求める(工程S
5)。
In the host computer 200, a virtual intersection of a straight line connecting the indices 22 facing each other is obtained by calculation as a real coordinate reference point 23 for calibration (step S).
5).

【0056】そして、ホストコンピュータの記憶領域に
おいて、各基準点223のカメラ座標系上の位置座標
(Xc−Yc)とプロジェクタ座標形状の位置座標Xpを
それぞれ対応させてデータとして記憶する(工程S
6)。
Then, in the storage area of the host computer, the position coordinates (Xc-Yc) of each reference point 223 on the camera coordinate system and the position coordinates Xp of the projector coordinate shape are stored as data corresponding to each other (step S).
6).

【0057】ホストコンピュータ200では、ステップ
をインクリメントして(工程S7)、較正用二次元ゲー
ジ202をピッチpの距離だけZ方向に移動させる(工
程S8)。
The host computer 200 increments the step (step S7) and moves the calibration two-dimensional gauge 202 in the Z direction by a distance of the pitch p (step S8).

【0058】較正用二次元ゲージ202の撮像が五回行
われたか、即ち、Z軸方向の移動が四回行われたかを確
認し(工程S9)、もし目標回数を達していなければ工
程S2から工程S8の動作を繰り返す。また、達してい
れば、記憶された上記データを基に、カメラパラメータ
とプロジェクタパラメータを求めてシステムパラメータ
を計算する(工程S10)。そして、これにより較正が
終了する。
It is confirmed whether or not the imaging of the calibration two-dimensional gauge 202 has been performed five times, that is, whether or not the movement in the Z-axis direction has been performed four times (step S9). The operation of step S8 is repeated. If it has reached, the camera parameters and the projector parameters are obtained based on the stored data to calculate the system parameters (step S10). Then, the calibration is completed.

【0059】また、本実施形態では、空間コード化法に
基づいて三次元形状の計測を行う三次元形状計測装置1
00に対する較正作業を行う例を示したが、一つのスリ
ット光の走査により三次元形状の計測を行う計測装置や
他の手法に基づく計測装置に対しても有効である。
In this embodiment, a three-dimensional shape measuring apparatus 1 for measuring a three-dimensional shape based on a spatial coding method is used.
Although the example in which the calibration work is performed for 00 is shown, the present invention is also effective for a measuring device that measures a three-dimensional shape by scanning one slit light or a measuring device based on another method.

【0060】このように、図7に示す較正装置を使用し
て画素位置と空間コードとの関係を予め較正しておく。
すると、実際の計測では空間コードとその画素位置とか
ら、物体座標系での原点からの距離を算出することがで
きる。
As described above, the relationship between the pixel position and the space code is calibrated in advance using the calibration device shown in FIG.
Then, in the actual measurement, the distance from the origin in the object coordinate system can be calculated from the space code and the pixel position.

【0061】<計測>空間コード化画像を得るには、ス
リット光を用いる光切断法と、時系列空間コード化パタ
ーン(グレイコード化パターン)を使用するパターン光
投影法などがある。パターン光投影法については、パタ
ーン光の投影では、死角領域や受光素子自体の異常など
の他には穴あきは生じがたい。一方、スリット光投影で
の空間コード化画像の算出処理では穴あきが生じてしま
うことがあるため、以下、光切断法を例として測定対象
物の形状計測の一例を説明する。
<Measurement> In order to obtain a space-coded image, there are a light cutting method using slit light, a pattern light projection method using a time-series space coding pattern (gray coding pattern), and the like. Regarding the pattern light projection method, in the projection of the pattern light, holes are unlikely to occur other than the blind spot area and the abnormality of the light receiving element itself. On the other hand, in the calculation processing of the spatially coded image by the slit light projection, a hole may be generated. Therefore, an example of the shape measurement of the measurement object will be described below using the light section method as an example.

【0062】図10は、本実施例のブロック図である。
ここでは、測定対象物Sに対してスリット光Rを走査す
る照射手段2と、この照射手段2とは異なる方向から走
査により移動するスリット光Rを複数回撮像するカメラ
3と、複数の撮像画像から空間コード(角度コード)を
算出する空間コード処理手段4とを備えている。
FIG. 10 is a block diagram of the present embodiment.
Here, an irradiation unit 2 that scans the measurement object S with the slit light R, a camera 3 that images the slit light R that moves by scanning from a direction different from the irradiation unit 2 a plurality of times, and a plurality of captured images And a space code processing means 4 for calculating a space code (angle code) from the data.

【0063】また、この三次元形状の計測装置は、図示
の如く、空間コード処理手段4で算出した三次元画像デ
ータをデジタルI/Oボード102を介して接続された
コンピュータ100に出力する。一方、コンピュータ1
00は、空間コード処理手段4からの角度コード化画像
(空間コード化画像)とその画素位置とに基づいて三次
元形状を算出する。この算出では、上述した較正装置を
用いて算出したカメラパラメータ等を用い、物体座標系
での距離を算出する。
The three-dimensional shape measuring apparatus outputs the three-dimensional image data calculated by the space code processing means 4 to the computer 100 connected via the digital I / O board 102, as shown in the figure. Meanwhile, computer 1
00 calculates a three-dimensional shape based on the angle coded image (space coded image) from the space code processing means 4 and its pixel position. In this calculation, a distance in the object coordinate system is calculated using camera parameters and the like calculated using the above-described calibration device.

【0064】照射手段2は、レーザドライバ21により
駆動される一本のスリット状のレーザ光(以下、スリッ
ト光Rとする)を照射するレーザ光源22と、照射され
たスリット光Rを測定対象物S側に反射するガルバノミ
ラー23と、ガルバノミラー23を回転してスリット光
Rを測定対象物Sに対して走査するガルバノスキャナ2
4と、ガルバノスキャナ24の駆動制御を行うスキャナ
ドライバ25と、空間コード処理手段4からの角度信号
に基づいてスキャナドライバ25に投光角度指令を出力
する投光角度指令作成回路26とを備える。
The irradiating means 2 includes a laser light source 22 for irradiating one slit-shaped laser beam (hereinafter, referred to as a slit beam R) driven by a laser driver 21, and an illuminating slit beam R for measuring an object to be measured. A galvanometer mirror 23 that reflects to the S side, and a galvanometer scanner 2 that rotates the galvanometer mirror 23 to scan the slit light R with respect to the measurement target S.
4, a scanner driver 25 for controlling the drive of the galvano scanner 24, and a projection angle command generation circuit 26 for outputting a projection angle command to the scanner driver 25 based on the angle signal from the space code processing means 4.

【0065】レーザ光源22から射出されるスリット光
Rは、測定時における床面に対して垂直方向(図10に
おける上下方向)に沿った棒状の光であり、ガルバノミ
ラー23により当該スリット光Rと垂直方向に移動して
測定対象物Sに対して走査を行う。また、スリット光R
は、カメラ3の受光素子31の水平走査線に対して垂直
となるように予めその向きが設定されている。
The slit light R emitted from the laser light source 22 is a rod-shaped light along the vertical direction (up and down direction in FIG. 10) with respect to the floor surface at the time of measurement. The object S to be measured is scanned by moving in the vertical direction. Also, the slit light R
Is set in advance so as to be perpendicular to the horizontal scanning line of the light receiving element 31 of the camera 3.

【0066】投光角度指令作成回路26には、空間コー
ド処理手段4のメモリアドレス作成回路46から投光角
度信号が出力され、これに基づいてガルバノスキャナ2
4の駆動制御が行われる。
The light emitting angle command generating circuit 26 outputs a light emitting angle signal from the memory address generating circuit 46 of the space code processing means 4 and, based on the signal, outputs a galvano scanner 2 signal.
4 is performed.

【0067】また、レーザ光源22,ガルバノミラー2
3及びカメラ3は、図2に示すように、床面(水平面)
に対して水平である同一平面上に位置している。そし
て、ガルバノミラー23は、カメラ3の受光素子31の
水平走査線に対して垂直方向(スリット光Rと平行方
向)を軸として回転する。この配置により、スリット光
Rを受光素子31の水平走査線に沿って平行方向に移動
させてカメラ3の受光素子31に受光させることを可能
としている。
The laser light source 22, the galvanometer mirror 2
As shown in FIG. 2, the camera 3 and the camera 3 are on a floor surface (horizontal surface).
Are located on the same plane which is horizontal with respect to. Then, the galvanomirror 23 rotates around a vertical direction (a direction parallel to the slit light R) with respect to the horizontal scanning line of the light receiving element 31 of the camera 3. With this arrangement, it is possible to move the slit light R in the parallel direction along the horizontal scanning line of the light receiving element 31 and allow the light receiving element 31 of the camera 3 to receive the light.

【0068】受光素子31は、本実施例では、各画素が
水平走査線方向に256個設けられ、そして、かかる水
平走査線が243本設けられ、計256×243個の画
素が規則正しく配置されている。各画素からの輝度信号
の出力は、水平走査線ごとに、羅列された水平走査線方
向の並び順に行われる。このときの一本の水平走査線の
輝度信号の出力する期間を出力期間といい、出力が行わ
れない出力期間と出力期間との間の期間を帰線期間とい
う。また、一つの水平走査線上の各画素は、出力期間の
間にその配列順に出力を行う。そして、全ての画素にお
ける出力が映像信号として空間コード処理手段4に送ら
れる。このように、本実施例では、カメラ3の水平走査
線方向の画素数と同一の空間コードを有する。
In this embodiment, the light receiving element 31 is provided with 256 pixels in the horizontal scanning line direction, and 243 such horizontal scanning lines, and a total of 256 × 243 pixels are regularly arranged. I have. The output of the luminance signal from each pixel is performed for each horizontal scanning line in the arrangement order in the horizontal scanning line direction. At this time, a period during which the luminance signal of one horizontal scanning line is output is called an output period, and a period between an output period during which no output is performed and an output period is called a blanking period. Further, each pixel on one horizontal scanning line outputs in the arrangement order during the output period. Then, outputs from all the pixels are sent to the space code processing means 4 as video signals. As described above, in this embodiment, the camera 3 has the same space code as the number of pixels in the horizontal scanning line direction.

【0069】また、カメラ3は、スリット光Rの一回の
走査を走査線上の画素数(256)で分割して撮像を行
う。このため、ガルバノスキャナ24の走査範囲角度を
256分割し、各角度ごとに撮像を行うべく、後述する
空間コード処理手段4の同期回路43から出力される水
平,垂直同期信号により同期が図られる。
The camera 3 captures an image by dividing one scan of the slit light R by the number of pixels (256) on the scanning line. For this reason, the scanning range angle of the galvano scanner 24 is divided into 256, and synchronization is achieved by a horizontal and vertical synchronization signal output from a synchronization circuit 43 of the space code processing unit 4 described later in order to perform imaging at each angle.

【0070】空間コード処理手段4のブロック図を図1
1に示す。この空間コード処理手段4は、受光素子31
の各走査線ごとに各画素から出力される輝度の最大値を
検出し特定するピーク検出部5と、このピーク検出部5
の検出に対応して,最大輝度を出力する画素について走
査線上の位置を検出し特定する画素位置検出部8と、受
光素子31の各画素に個別に対応する輝度の記録領域を
有する輝度メモリ41と、ピーク検出部5に検出された
輝度と画素位置検出部8に検出された画素の位置に基づ
いて,輝度メモリ41の対応する画素の記録領域に記録
された記録輝度との大小を比較する比較部としての第二
の比較回路6と、検出輝度が記録輝度よりも大きい場合
に輝度メモリ41の記録輝度を検出輝度の値に更新する
第一の更新部としての第三の選択回路7と、各画素に個
別に対応する投光角度の記録領域を有する角度コード化
メモリ42を備えている。
FIG. 1 is a block diagram of the spatial code processing means 4.
It is shown in FIG. The space code processing means 4 includes a light receiving element 31
A peak detector 5 for detecting and specifying the maximum value of the luminance output from each pixel for each scanning line,
In response to the detection, the pixel position detector 8 detects and specifies the position on the scanning line for the pixel that outputs the maximum luminance, and the luminance memory 41 having a recording area of the luminance individually corresponding to each pixel of the light receiving element 31. Based on the luminance detected by the peak detection unit 5 and the position of the pixel detected by the pixel position detection unit 8, the magnitude of the recording luminance recorded in the recording area of the corresponding pixel in the luminance memory 41 is compared. A second comparing circuit 6 as a comparing section, and a third selecting circuit 7 as a first updating section for updating the recording luminance of the luminance memory 41 to the value of the detected luminance when the detected luminance is larger than the recording luminance. And an angle coding memory 42 having a recording area of a projection angle individually corresponding to each pixel.

【0071】さらに、空間コード処理手段4は、カメラ
3の水平,垂直同期を図る同期回路43と、上記カメラ
3からの映像信号の輝度信号を量子化するA/D変換回
路44と、輝度メモリ41及び角度コード化メモリ42
のアドレスを作成するメモリアドレス作成回路46を備
えている。
Further, the spatial code processing means 4 includes a synchronizing circuit 43 for synchronizing the camera 3 in the horizontal and vertical directions, an A / D conversion circuit 44 for quantizing the luminance signal of the video signal from the camera 3, and a luminance memory. 41 and angle coded memory 42
And a memory address creation circuit 46 for creating an address.

【0072】このメモリアドレス作成回路46は、同期
回路43からの水平同期信号をカウントすることによ
り、受光素子31の現在出力中の画素が位置する水平走
査線番号(端から何番目の水平走査線上で出力を行って
いるか、を示す。以下、垂直アドレスyとする)を出力
する。
The memory address generating circuit 46 counts the horizontal synchronizing signal from the synchronizing circuit 43 to determine the horizontal scanning line number at which the pixel currently being output from the light receiving element 31 is located. Indicates that the output is being performed. Hereinafter, this is referred to as a vertical address y).

【0073】さらに、メモリアドレス作成回路46は、
水平駆動周波数(走査線中画素数768、14.318
MHz)を三分周(走査線中画素数を256とするた
め)したものをカウントし、受光素子31の現在出力中
の画素の水平走査線上の位置(水平走査線上で端から何
番目の画素が出力を行っているか、を示す。以下、水平
アドレスxとする)を出力する。
Further, the memory address creation circuit 46
Horizontal drive frequency (number of pixels in a scanning line 768, 14.318)
MHz) is divided by 3 (to make the number of pixels in the scanning line 256), and the position of the pixel currently being output from the light receiving element 31 on the horizontal scanning line (the number of pixels from the end on the horizontal scanning line) Indicates whether the horizontal address x is output.

【0074】また、同期回路43からの垂直同期信号を
カウントし、投光角度信号を作成する共に照射手段2に
出力する。さらに、このメモリアドレス作成回路46で
は、水平同期信号により、後述するピーク検出部5の一
時輝度メモリ51及び画素位置検出部8の一時位置メモ
リ81のクリア信号を一水平走査線の出力ごとに作成し
出力する。
The vertical synchronizing signal from the synchronizing circuit 43 is counted, and a projection angle signal is created and output to the irradiation means 2. Further, in the memory address creation circuit 46, a clear signal of a temporary brightness memory 51 of the peak detection unit 5 and a temporary location memory 81 of the pixel position detection unit 8, which will be described later, is created for each output of one horizontal scanning line by a horizontal synchronization signal. And output.

【0075】ところで、A/D変換回路44により量子
化された輝度信号は、ピーク検出部5に出力される。こ
のピーク検出部5は、一つの走査線上で最大レベルとな
る輝度のみを記録する一時輝度メモリ51と、A/D交
換回路44にて量子化された輝度信号の信号レベル(以
下、単に「輝度」とする)と走査線中最大輝度メモリ5
1に記録された輝度とを比較し、いずれの輝度が高いか
を出力する第一の比較回路53と、この第一の比較回路
53の出力に基づいていずれか高い方の輝度を選択し、
一時輝度メモリ51中の記録輝度を更新する第一の選択
回路54とを備えている。
The luminance signal quantized by the A / D conversion circuit 44 is output to the peak detector 5. The peak detection unit 5 includes a temporary luminance memory 51 for recording only the luminance at the maximum level on one scanning line, and a signal level of a luminance signal quantized by the A / D exchange circuit 44 (hereinafter simply referred to as “luminance”). ") And the maximum luminance memory 5 in the scanning line.
A first comparison circuit 53 that compares the luminance recorded with the first and outputs which luminance is higher, and selects the higher luminance based on the output of the first comparison circuit 53;
And a first selection circuit 54 for updating the recording luminance in the temporary luminance memory 51.

【0076】なお、上述の一時輝度メモリ51は、一画
素分の輝度信号を記録できれば足りるので、その記憶容
量は、輝度分解能×1(8bit)である。また、一時
輝度メモリ51の内容は、各水平帰線期間中(一水平走
査線ごと)に0にクリアされる。
Since the temporary luminance memory 51 described above only needs to record a luminance signal for one pixel, its storage capacity is luminance resolution × 1 (8 bits). The contents of the temporary luminance memory 51 are cleared to 0 during each horizontal blanking period (for each horizontal scanning line).

【0077】上記の構成からピーク検出部5では、各走
査線ごとの輝度信号の最大レベルが検出され記録され
る。
With the above configuration, the peak detector 5 detects and records the maximum level of the luminance signal for each scanning line.

【0078】また、このピーク検出部5による一走査線
上の最大輝度が検出される際に、同時に画素位置検出部
8では、上記最大輝度を出力する画素の水平アドレスx
が検出される。この画素位置検出部8は、一つの走査線
上で最大輝度を出力する画素の水平アドレスxのみを記
録する一時位置メモリ81と、メモリアドレス作成回路
46から順次出力される各画素に対応する水平アドレス
xの内、前述したピーク検出部5の第一の比較回路53
の出力により選択された最大輝度を出力する画素の水平
アドレスxを一時位置メモリ81に上書きする第二の選
択回路82とを備えている。
When the peak detector 5 detects the maximum luminance on one scanning line, the pixel position detector 8 simultaneously outputs the horizontal address x of the pixel outputting the maximum luminance.
Is detected. The pixel position detection unit 8 includes a temporary position memory 81 that records only the horizontal address x of the pixel that outputs the maximum luminance on one scanning line, and a horizontal address corresponding to each pixel sequentially output from the memory address generation circuit 46. x, the first comparison circuit 53 of the peak detection unit 5 described above.
And a second selection circuit 82 that overwrites the temporary position memory 81 with the horizontal address x of the pixel that outputs the maximum luminance selected by the output.

【0079】なお、上述の一時位置メモリ81は、25
6ある内のいずれかの画素であるかを記録できれば足り
るので、その記憶容量は、256×1(8bit)であ
る。また、一時位置メモリ81の内容は、各水平帰線期
間中(一水平走査線ごと)に0にクリアされる。
The above-mentioned temporary position memory 81 stores 25
It is enough to be able to record which of the six pixels it is, so its storage capacity is 256 × 1 (8 bits). The contents of the temporary position memory 81 are cleared to 0 during each horizontal blanking period (for each horizontal scanning line).

【0080】上記の構成から画素位置検出部8では、各
走査線ごとの最大輝度を出力する画素の水平アドレスx
が検出され記録される。
With the above configuration, the pixel position detector 8 outputs the horizontal address x of the pixel that outputs the maximum luminance for each scanning line.
Are detected and recorded.

【0081】上記各一時輝度メモリ51は、ゲート91
を介して前述の第二の比較回路6及び第三の選択回路7
に接続されており、ゲート91が閉じた場合に一時輝度
メモリ51中の記録輝度がこれらに出力される。一方、
一時位置メモリ81は、ゲート92を介して輝度メモリ
42及び角度コード化メモリ42に接続されており、ゲ
ート92が閉じた場合に一時位置メモリ81中の水平ア
ドレスxがこれらに出力される。
Each temporary luminance memory 51 has a gate 91
Via the second comparison circuit 6 and the third selection circuit 7
The recording luminance in the temporary luminance memory 51 is output to these when the gate 91 is closed. on the other hand,
The temporary position memory 81 is connected to the luminance memory 42 and the angle coding memory 42 via a gate 92, and when the gate 92 is closed, the horizontal address x in the temporary position memory 81 is output to them.

【0082】これらのゲート91,92は、いずれもメ
モリアドレス作成回路46に接続されており、受光素子
31の水平同期信号の出力を受けている。そして、これ
らのゲート91,92は、通常は開かれており、水平同
期信号から受光素子31が帰線期間中であることが入力
されると閉じられる。
Each of these gates 91 and 92 is connected to the memory address generation circuit 46 and receives the output of the horizontal synchronizing signal of the light receiving element 31. These gates 91 and 92 are normally open, and are closed when it is input from the horizontal synchronization signal that the light receiving element 31 is in the flyback period.

【0083】これら各ゲート91,92は、受光素子3
1が帰線期間中のときに同時に一時輝度メモリ51及び
一時位置メモリ81の記録内容を出力させる出力同期部
9を構成している。
The gates 91 and 92 are connected to the light receiving element 3
1 constitutes an output synchronizing unit 9 for simultaneously outputting the recorded contents of the temporary luminance memory 51 and the temporary position memory 81 during the flyback period.

【0084】次に、輝度メモリ41について説明する。
この輝度メモリ41は、受光素子31の各画素に個別に
対応する輝度の記録領域が形成されている(図13参
照)。そして、この輝度メモリ41の各記録領域中に
は,それぞれ予め0乃至通常のスリット光の輝度よりも
小さい値に設定された輝度が記録されている。
Next, the luminance memory 41 will be described.
In the luminance memory 41, a recording area of luminance corresponding to each pixel of the light receiving element 31 is formed (see FIG. 13). In each recording area of the luminance memory 41, a luminance set in advance to a value smaller than 0 to a value smaller than the luminance of the normal slit light is recorded.

【0085】前述の如く、各ゲート91,92が閉じら
れると、一時輝度メモリ51から第二の比較回路6に最
大輝度が出力され、一時位置メモリ81からその水平ア
ドレスxが輝度メモリ41に出力される。また、メモリ
アドレス作成回路46からは、輝度メモリ41に常時現
在の垂直アドレスyが出力される。
As described above, when the gates 91 and 92 are closed, the maximum luminance is output from the temporary luminance memory 51 to the second comparison circuit 6, and the horizontal address x is output from the temporary position memory 81 to the luminance memory 41. Is done. The current vertical address y is always output from the memory address creation circuit 46 to the luminance memory 41.

【0086】これにより、輝度メモリ41に対して、水
平アドレスxと垂直アドレスyから最大輝度を出力した
画素が、受光素子31の画素の内のいずれのものである
かが特定され、これに対応する記録領域から記録輝度が
第二の比較回路6に出力される。
As a result, to the luminance memory 41, it is specified which of the pixels of the light receiving element 31 is the pixel which has output the maximum luminance from the horizontal address x and the vertical address y. The recording luminance is output to the second comparison circuit 6 from the recording area to be recorded.

【0087】第二の比較回路6では、一時輝度メモリ5
1からの輝度と輝度メモリ41に既に記録された輝度と
の比較を行い、いずれが高いかを出力する。第三の選択
回路7では、第二の比較回路6の出力を受けて、一時輝
度メモリ51からの輝度が高い場合には輝度メモリ41
の記録輝度を一時輝度メモリ51の輝度に更新し、そう
でない場合には、輝度メモリ41の記録輝度をそのまま
維持する。
In the second comparison circuit 6, the temporary luminance memory 5
The luminance from 1 is compared with the luminance already recorded in the luminance memory 41, and which is higher is output. The third selection circuit 7 receives the output of the second comparison circuit 6 and, when the luminance from the temporary luminance memory 51 is high, the luminance memory 41
Is updated to the luminance of the temporary luminance memory 51; otherwise, the recording luminance of the luminance memory 41 is maintained as it is.

【0088】次に、角度コード化メモリ42について説
明する。この角度コード化メモリ42は、受光素子31
の各画素に個別に対応するスリット光Rの投光角度(こ
こでは、ガルバノミラー23の回転角度と同義)θの記
録領域を備えている。
Next, the angle encoding memory 42 will be described. The angle coded memory 42 stores the light receiving element 31
The recording area of the projection angle θ of the slit light R (which is synonymous with the rotation angle of the galvanomirror 23 in this case) θ corresponding to each pixel is provided.

【0089】また、この角度コード化メモリ42には、
各記録領域の投光角度θの更新を行う第二の更新部とし
ての第四の選択回路45が併設されている。かかる第四
の選択回路45は、ゲート91が閉じられることにより
作動する第二の比較回路6と接続されており、また同時
にメモリアドレス作成回路46から現在の投光角度θを
示す投光角度信号が入力されている。
The angle encoding memory 42 has
A fourth selection circuit 45 as a second updating unit for updating the projection angle θ of each recording area is also provided. The fourth selection circuit 45 is connected to the second comparison circuit 6 that operates when the gate 91 is closed, and at the same time, emits a light emission angle signal indicating the current light emission angle θ from the memory address creation circuit 46. Is entered.

【0090】一方、角度コード化メモリ42には、常
時、メモリアドレス作成回路46から現在の垂直アドレ
スyが入力され、また、ゲート92が閉じられることに
より、一時位置メモリ81から最大輝度を出力した画素
の水平アドレスxが入力される。これにより、角度コー
ド化メモリ42に対して、水平アドレスxと垂直アドレ
スyから最大輝度を出力した画素が、受光素子31の画
素の内のいずれのものであるかが特定され、第四の選択
回路45による入力待ち状態となる。
On the other hand, the current vertical address y is always input from the memory address creation circuit 46 to the angle coding memory 42, and the maximum luminance is output from the temporary position memory 81 by closing the gate 92. The horizontal address x of the pixel is input. As a result, the pixel which has output the maximum luminance from the horizontal address x and the vertical address y to the angle coding memory 42 is identified as one of the pixels of the light receiving element 31, and the fourth selection is performed. The input state by the circuit 45 is awaited.

【0091】第四の選択回路45は、第二の比較回路6
により、一時輝度メモリ51の輝度と輝度メモリ41の
輝度の内,一時輝度メモリ51の輝度が高いと出力され
た場合に、メモリアドレス作成回路46からの投光角度
θを対応する記録領域に記録し、輝度メモリ41の輝度
が高いと出力された場合には更新を行わない。このよう
に、第三及び第四の選択回路7,45は、いずれも第二
の比較回路6の出力により更新を行うため、輝度メモリ
41に対して一時輝度メモリ51の輝度が更新されたと
きにのみ、角度コード化メモリ42に対する投光角度θ
の記録(既に記録されている場合には更新)が行われ
る。
The fourth selection circuit 45 includes a second comparison circuit 6
When the luminance of the temporary luminance memory 51 is higher than the luminance of the temporary luminance memory 51 and the luminance of the luminance memory 41, the light projection angle θ from the memory address creation circuit 46 is recorded in the corresponding recording area. However, if the luminance memory 41 outputs that the luminance is high, the update is not performed. As described above, since the third and fourth selection circuits 7 and 45 are both updated by the output of the second comparison circuit 6, when the luminance of the temporary luminance memory 51 is updated with respect to the luminance memory 41, Only, the projection angle θ to the angle coding memory 42
(Update if already recorded) is performed.

【0092】ここで、上述した輝度メモリ41及び角度
コード化メモリ42は、いずれも、測定開始時におい
て、その記録が0にクリアされる。
Here, the recording of each of the above-mentioned luminance memory 41 and angle coding memory 42 is cleared to 0 at the start of measurement.

【0093】図12(A)は、この受光素子31上に撮
像されたスリット光Rを示している。このとき、照射機
構による走査範囲を256分割し、各分割された範囲ご
とに撮像が行われるため、投光角度を撮像順に1から2
56の番号で表すこととする。図12(B)は、走査線
番号1の水平走査線に沿った各画素から検出された輝度
レベルを示している。この図によれば、水平走査線方向
の位置x0で最大輝度レベルが観測され、これをスリッ
ト光と見なすことができる。
FIG. 12A shows the slit light R imaged on the light receiving element 31. At this time, the scanning range by the irradiation mechanism is divided into 256, and imaging is performed for each of the divided ranges.
It will be represented by the number 56. FIG. 12B shows the luminance level detected from each pixel along the horizontal scanning line of scanning line number 1. According to this figure, a maximum luminance level is observed at a position x0 in the horizontal scanning line direction, and this can be regarded as slit light.

【0094】上記各部の機能を総合すると、三次元形状
の計測装置10では、出力期間中の水平走査線上におい
て最大輝度を検出した画素をスリット光の照射位置とみ
なし、各走査線ごとに最大輝度を検出した画素の水平ア
ドレスxを求め、且つ照射したスリット光の投光角度を
求め、角度コード化メモリ42を完成させる。これによ
り、各画素のアドレスについて投光角度が求められる
と、各アドレスに撮像された測定対象物Sからカメラ3
までの距離を算出することが可能となり、コンピュータ
100により三次元形状の計測が行われる。
When the functions of the above sections are combined, the three-dimensional shape measuring apparatus 10 regards the pixel which has detected the maximum luminance on the horizontal scanning line during the output period as the irradiation position of the slit light, and sets the maximum luminance for each scanning line. Then, the horizontal address x of the pixel in which is detected is obtained, and the projection angle of the irradiated slit light is obtained, thereby completing the angle encoding memory 42. With this, when the projection angle is obtained for each pixel address, the camera 3 can determine the projection angle from the measurement target S imaged at each address.
, And the computer 100 measures the three-dimensional shape.

【0095】このため、まず、ピーク検出部5によって
現在出力期間中である水平走査線について、その水平走
査線上の画素から出力される輝度の内、最大となる輝度
が特定され一時輝度メモリ51に記録される。また、同
出力期間中に、画素位置検出部8により、最大輝度を出
力する画素の水平アドレスxが特定され、これが一時位
置メモリ81に記録される。
For this reason, first, for the horizontal scanning line that is currently in the output period, the peak luminance among the luminances output from the pixels on the horizontal scanning line is specified by the peak detecting section 5 and the temporary luminance memory 51 stores the maximum luminance. Be recorded. In addition, during the output period, the horizontal address x of the pixel that outputs the maximum luminance is specified by the pixel position detection unit 8 and is recorded in the temporary position memory 81.

【0096】各メモリ51,81に記録された最大輝度
及び水平アドレスxは、その出力期間が終わり帰線期間
となるまで保留され、出力同期部9により、帰線期間に
移行した時点で輝度メモリ41又は角度コード化メモリ
42側に出力される。このように、輝度及び水平アドレ
スxは、出力期間の間,保留されるため、途中経過で最
大と判断された輝度については、その下流側での処理
(輝度メモリ41,角度コード化メモリ42への記録)
が行われない。
The maximum luminance and the horizontal address x recorded in each of the memories 51 and 81 are held until the output period ends and a blanking period is reached. It is output to 41 or the angle coding memory 42 side. As described above, since the luminance and the horizontal address x are suspended during the output period, the luminance determined to be the maximum in the course of the processing is processed on the downstream side (to the luminance memory 41 and the angle encoding memory 42). Record)
Is not done.

【0097】そして、これらの出力及びメモリアドレス
作成回路46による垂直アドレスy及び投光角度信号の
出力により、第二の比較回路6及び第三の選択回路7に
よって特定されたアドレスの輝度について、輝度メモリ
41が比較更新される。即ち、全ての投光角度による撮
像画像に対して全ての水平走査線について上述の比較又
は更新が行われることにより、全ての画素について、各
投光角度によって撮像された全ての撮像画像を通じて最
高となった輝度のみが輝度メモリ41中に保管される。
Then, based on these outputs and the output of the vertical address y and the projection angle signal by the memory address creation circuit 46, the brightness of the address specified by the second comparison circuit 6 and the third selection circuit 7 is reduced. The memory 41 is compared and updated. That is, by performing the above-described comparison or update on all the horizontal scanning lines with respect to the captured images at all the projection angles, the highest is achieved through all the captured images captured at the respective projection angles for all the pixels. Only the changed luminance is stored in the luminance memory 41.

【0098】また、角度コード化メモリ42には、第二
の比較回路6と接続された第四の選択回路45が併設さ
れているため、同様にして、全ての画素について、各投
光角度によって撮像された全ての撮像画像を通じて最高
となった輝度が検出されたときの当該投光角度のみが角
度コード化メモリ42中に保管される。
Further, since the angle coding memory 42 is provided with the fourth selection circuit 45 connected to the second comparison circuit 6, the same applies to all pixels for each light emission angle. Only the light projection angle when the highest luminance is detected through all the captured images is stored in the angle coding memory 42.

【0099】そして、完成した角度コード化メモリ42
の情報を出力し、コンピュータ100により三次元形状
の計測が行われる。
Then, the completed angle encoding memory 42
And the computer 100 measures the three-dimensional shape.

【0100】ここで、空間コード処理手段4の演算処理
方法を図13乃至図15に示す簡単な例を用いて説明す
る。ここでは、カメラ3の受光素子31の画素数を3×
3(水平方向×垂直方向)と仮定して説明する。また、
輝度メモリ41及び角度コード化メモリ42の各記録領
域は、測定開始前には全て0にリセットされているもの
とする。
Here, the arithmetic processing method of the spatial code processing means 4 will be described with reference to simple examples shown in FIGS. Here, the number of pixels of the light receiving element 31 of the camera 3 is 3 ×
3 (horizontal direction × vertical direction). Also,
It is assumed that all recording areas of the luminance memory 41 and the angle coding memory 42 have been reset to 0 before the start of measurement.

【0101】水平方向の画素数が三つであるため、これ
に対応してスリット光Rが各画素単位で撮像されるガル
バノミラー23の回転角度θ0,θ1,θ2で撮像が行わ
れるものとする。
Since the number of pixels in the horizontal direction is three, the image is taken at the rotation angles θ 0, θ 1, θ 2 of the galvanomirror 23 corresponding to which the slit light R is imaged in each pixel unit. .

【0102】まず、投光角度θ=θ0のときの処理を図
13に基づいて説明する。まず、投光角度θ=θ0のと
きのスリット光Rの受光素子31の撮像画像を図13
(A)に示す。受光素子31において、横方向は水平ア
ドレスx(図における左から順番に画素に付した番
号),縦方向は垂直アドレスy(図における上から順番
に水平走査線に付した番号)を示すものとする。また、
図13(B)に更新記録前の輝度メモリ41を示す。
First, the processing when the light projection angle θ = θ0 will be described with reference to FIG. First, an image captured by the light receiving element 31 of the slit light R when the projection angle θ = θ0 is shown in FIG.
It is shown in (A). In the light receiving element 31, the horizontal direction indicates a horizontal address x (numbers assigned to pixels in order from the left in the figure), and the vertical direction indicates a vertical address y (numbers assigned to horizontal scanning lines in order from the top in the figure). I do. Also,
FIG. 13B shows the luminance memory 41 before update recording.

【0103】受光素子31の垂直アドレスy=1の水平
走査線の出力期間において、各画素の検出輝度が順番に
出力され、ピーク検出部5により出力期間の終わりまで
に最大輝度が200と特定され、同時にその水平アドレ
スxがx=1と特定される。そして、帰線期間に移行す
ると、特定された最大輝度が輝度メモリ41の記録輝度
と比較され、その後、当該最大輝度が記録輝度として更
新される(図13(C))。また、輝度メモリ41の更
新と同時に、角度コード化メモリ42における水平アド
レスx=1,垂直アドレスy=1の記録領域の内容が、
そのときの投光角度θ0に更新される(図13
(D))。
In the output period of the horizontal scanning line of the vertical address y = 1 of the light receiving element 31, the detected luminance of each pixel is sequentially output, and the peak detector 5 specifies the maximum luminance as 200 by the end of the output period. At the same time, the horizontal address x is specified as x = 1. Then, when shifting to the flyback period, the specified maximum luminance is compared with the recording luminance of the luminance memory 41, and thereafter, the maximum luminance is updated as the recording luminance (FIG. 13C). Simultaneously with the updating of the luminance memory 41, the contents of the recording area of the horizontal address x = 1 and the vertical address y = 1 in the angle encoding memory 42 are
The projection angle θ0 at that time is updated (FIG. 13
(D)).

【0104】同様の処理が、垂直アドレスy=2,y=
3についても行われる(同図(E),(F)はy=2の
ときの輝度メモリ41,角度コード化メモリ42の更新
を示し、同図(G),(H)はy=3のときの輝度メモ
リ41,角度コード化メモリ42の更新を示す)。
The same processing is performed by setting the vertical addresses y = 2 and y =
3 (E) and (F) show the updating of the luminance memory 41 and the angle coding memory 42 when y = 2, and FIGS. 3 (G) and 3 (H) show the case where y = 3. The update of the luminance memory 41 and the angle encoding memory 42 at the time is shown.)

【0105】次に、投光角度θ=θ1のときの処理を図
14に基づいて説明する。まず、投光角度θ=θ1のと
きのスリット光Rの受光素子31の撮像画像を図14
(A)に示す。これに基づき、後の処理は、θ=θ0の
ときと同様にして、y=1について輝度メモリ41を更
新(図14(B))し、角度コード化メモリ42を更新
する(図14(C))。
Next, the processing when the light projection angle θ = θ1 will be described with reference to FIG. First, an image captured by the light receiving element 31 of the slit light R when the light projection angle θ = θ1 is shown in FIG.
It is shown in (A). Based on this, the subsequent processing updates the luminance memory 41 for y = 1 (FIG. 14B) and updates the angle coded memory 42 in the same manner as when θ = θ0 (FIG. 14C). )).

【0106】さらに、同様の処理が、垂直アドレスy=
2,y=3についても行われる(同図(D),(E)は
y=2のときの輝度メモリ41,角度コード化メモリ4
2の更新を示し、同図(F),(G)はy=3のときの
輝度メモリ41,角度コード化メモリ42の更新を示
す)。
Further, the same processing is performed with the vertical address y =
2 and y = 3 ((D) and (E) in FIG. 4 show the luminance memory 41 and the angle coded memory 4 when y = 2).
2 (F) and (G) show the updating of the luminance memory 41 and the angle coding memory 42 when y = 3).

【0107】最後に、投光角度θ=θ2のときの処理を
図15に基づいて説明する。まず、投光角度θ=θ2の
ときのスリット光Rの受光素子31の撮像画像を図15
(A)に示す。これに基づき、後の処理は、θ=θ0の
ときと同様にして、y=1について輝度メモリ41を更
新(図15(B))し、角度コード化メモリ42を更新
する(図15(C))。
Finally, the processing when the light projection angle θ = θ2 will be described with reference to FIG. First, an image captured by the light receiving element 31 of the slit light R when the light projection angle θ = θ2 is shown in FIG.
It is shown in (A). Based on this, the subsequent processing updates the luminance memory 41 for y = 1 (FIG. 15B) and updates the angle coding memory 42 in the same manner as when θ = θ0 (FIG. 15C). )).

【0108】そして、垂直アドレスy=2のとき、スリ
ット光が受光素子31に照射されていないので、かかる
水平走査線上では、スリット光以外の光(例えば、測定
対象物の他の部位に照射されたスリット光の反射光等の
ノイズ)が最大輝度として特定されるが、既に輝度メモ
リ41上に記録された輝度を越えることは実質上有り得
ないので、かかる検出輝度は輝度メモリ41上に更新さ
れることはない。
When the vertical address y = 2, the slit light is not irradiated on the light receiving element 31, so that light other than the slit light (for example, other parts of the object to be measured is irradiated on the horizontal scanning line). Noise, such as reflected light of the slit light, is specified as the maximum luminance. However, since it is almost impossible that the luminance exceeds the luminance already recorded on the luminance memory 41, the detected luminance is updated on the luminance memory 41. Never.

【0109】さらに、垂直アドレスy=3についても、
最大輝度及び水平アドレスxが特定され、これにより、
輝度メモリ41上の記録輝度及び角度コード化メモリ4
2上の投光角度が更新される。(図15(D),
(E))。
Further, for the vertical address y = 3,
The maximum brightness and horizontal address x are specified, whereby
Recording luminance and angle coding memory 4 on luminance memory 41
2 is updated. (FIG. 15D,
(E)).

【0110】これにより、全ての投光角度の撮像画像の
処理が終了し、角度コード化メモリ42が完成する。か
かる角度コード化メモリ42の全てのデータは、コンピ
ュータ100に出力される。
As a result, the processing of the captured images at all the projection angles is completed, and the angle encoding memory 42 is completed. All the data in the angle encoding memory 42 is output to the computer 100.

【0111】さらに、コンピュータ(演算装置)100
では、角度コード化メモリに格納された角度コードデー
タ(空間コード化画像)のうち、測定不能点を抽出し、
さらに補完値を算出する。その後、補完後の角度コード
(空間コード)とその角度コード化メモリ42に格納さ
れた画素位置とから物体座標系での距離を算出する。
Further, a computer (arithmetic device) 100
In the angle code data (spatial coded image) stored in the angle coded memory, an unmeasurable point is extracted,
Further, a complement value is calculated. After that, the distance in the object coordinate system is calculated from the complemented angle code (space code) and the pixel position stored in the angle coding memory 42.

【0112】図16および図17は角度コードを算出す
るまでの処理例を示すフローチャートである。
FIGS. 16 and 17 are flowcharts showing an example of processing up to calculation of an angle code.

【0113】まず、同期回路43及びメモリアドレス作
成回路46によりカメラ3と照射手段2の同期が図ら
れ、測定対象物Sに対するスリット光Rの照射と撮像が
行われる(ステップS1)。かかる同期によりスリット
光は、受光素子31上を水平走査線方向に一画素ごとに
位置を変えて撮像される。
First, the camera 3 and the irradiating means 2 are synchronized by the synchronization circuit 43 and the memory address creation circuit 46, and irradiation and imaging of the slit light R on the measuring object S are performed (step S1). With this synchronization, the slit light is imaged on the light receiving element 31 while changing its position for each pixel in the horizontal scanning line direction.

【0114】まず、投光角度1の撮像画像に応じて、走
査線番号1の水平走査線から当該走査線上の各画素の並
び順に輝度の出力が行われる。このときの一つの水平走
査線上の全ての画素から出力が終了するまでが当該水平
走査線における出力期間である(ステップS2)。
First, in accordance with the captured image at the light projection angle 1, the luminance is output from the horizontal scanning line of the scanning line number 1 in the order in which the pixels on the scanning line are arranged. The output period for all the pixels on one horizontal scanning line at this time is the output period for the horizontal scanning line (step S2).

【0115】かかる撮像画像に基づいてピーク検出部5
により各水平走査線ごとに最大輝度の検出が行われ、同
時に、かかる検出に基づいて最大輝度を出力する画素の
水平アドレスの検出が行われる(ステップS3)。この
とき検出された最大輝度は一時輝度メモリ51に保管さ
れ、水平アドレスxは一時位置メモリ81に保管され
る。
The peak detecting section 5 based on the captured image
, The maximum luminance is detected for each horizontal scanning line, and at the same time, the horizontal address of the pixel outputting the maximum luminance is detected based on the detection (step S3). The maximum luminance detected at this time is stored in the temporary luminance memory 51, and the horizontal address x is stored in the temporary position memory 81.

【0116】上記各検出は、一つの水平走査線の出力期
間が終了するまで継続して行われ、最終的に、当該水平
走査線について全ての画素の出力に基づいて最大輝度及
び水平アドレスが求められ、記録される(ステップS
4)。
The above detections are continued until the end of the output period of one horizontal scanning line, and finally, the maximum luminance and horizontal address of the horizontal scanning line are obtained based on the outputs of all the pixels. And recorded (step S
4).

【0117】そして、出力期間から帰線期間に移行する
と、一時輝度メモリ51及び一時位置メモリ81の各ゲ
ート91,92が閉路する(ステップS5)。
When the transition from the output period to the flyback period is completed, the gates 91 and 92 of the temporary luminance memory 51 and the temporary position memory 81 are closed (step S5).

【0118】ゲート91の閉路により、走査線番号1の
水平走査線中の最大輝度が一時輝度メモリ51から第二
の比較回路6に出力される。この第二の比較回路6で
は、検出された最大輝度と輝度メモリ41のアドレス
(x,y)=(x0,1)に記録された輝度とを比較す
る(ステップS6,S7)。そして、検出された最大輝
度の方が高い場合に、第三の選択回路7により輝度メモ
リ41のアドレス(x0,1)の記録輝度が検出された
最大輝度の数値に更新される(ステップS8)。
When the gate 91 is closed, the maximum luminance in the horizontal scanning line of the scanning line number 1 is output from the temporary luminance memory 51 to the second comparison circuit 6. The second comparison circuit 6 compares the detected maximum luminance with the luminance recorded at the address (x, y) = (x0, 1) in the luminance memory 41 (steps S6 and S7). If the detected maximum luminance is higher, the recording luminance of the address (x0, 1) of the luminance memory 41 is updated by the third selection circuit 7 to the detected maximum luminance value (step S8). .

【0119】なお、このときの輝度メモリ41は、測定
開始前に予め初期化されて記録輝度が0の状態であるた
め、スリット光Rの輝度レベルであれば、通常更新が行
われる。また、投光角度が2以降に進行している場合に
は、それまでの撮像画像による検出によって、既に同じ
アドレスについて最大輝度が更新されていることもあり
得るが、かかる場合も同様にして検出輝度が高い場合に
は更新される。
Note that the luminance memory 41 at this time is initialized in advance before the start of measurement and has a recording luminance of 0, and therefore, if the luminance level of the slit light R is attained, normal updating is performed. Further, when the light projection angle has advanced to 2 or later, the maximum luminance may have already been updated for the same address by the detection based on the captured image up to that point. If the luminance is high, it is updated.

【0120】輝度メモリ41の更新が行われると、角度
コード化メモリ42のアドレス(x,y)=(x0,
1)にも、そのときの投光角度1が記録される(ステッ
プS9)。
When the brightness memory 41 is updated, the address (x, y) of the angle coding memory 42 is (x0,
Also in 1), the projection angle 1 at that time is recorded (step S9).

【0121】一方、検出された最大輝度レベルの方が低
い場合には、輝度メモリ41の更新は行われず、同時
に、角度コード化メモリ42の記録も行われない(ステ
ップS10)。
On the other hand, if the detected maximum luminance level is lower, the luminance memory 41 is not updated, and at the same time, the angle coded memory 42 is not recorded (step S10).

【0122】そして、一つのスリット光Rに対して、全
ての水平走査線について上記の工程が繰り返し行われる
(ステップS11)。これにより、投光角度1における
スリット光について各水平走査線方向の位置(水平アド
レスx)が角度コード化メモリ42上に記録される。
Then, for one slit light R, the above steps are repeatedly performed for all the horizontal scanning lines (step S11). Thereby, the position (horizontal address x) of each slit light at the light projection angle 1 in the horizontal scanning line direction is recorded on the angle encoding memory 42.

【0123】一つのスリット光について処理が終わる
と、次の投光角度のスリット光の撮像が行われ、上記の
工程が繰り返される(ステップS12)。そして、全て
の投光角度におけるスリット光の処理が終わると、角度
コード化メモリ42の記録情報が測定データとしてコン
ピュータ100に出力される(ステップS13)。コン
ピュータ100は、角度コード化メモリ42からの出力
により、補完処理および三次元形状演算を行い表示する
(ステップS14)。
When the processing is completed for one slit light, an image of the slit light at the next projection angle is picked up, and the above steps are repeated (step S12). Then, when the processing of the slit light at all the projection angles is completed, the information recorded in the angle encoding memory 42 is output to the computer 100 as the measurement data (step S13). The computer 100 performs the complementing process and the three-dimensional shape calculation based on the output from the angle coding memory 42 and displays the result (step S14).

【0124】本実施例では、記録輝度の設定輝度レベル
が、スリット光の検出輝度の記録を妨げるほどに高くな
い場合には、仮に、スリット光が照射されない部分が生
じた場合,或いはスリット光が暗くしか照射されなかっ
た場合に、ノイズを選択して取り込むことを防止するこ
とが可能である。これは、ノイズはスリット光の輝度よ
りもかなり低い輝度であり、上述の例にように予めスリ
ット光の半分程度の輝度が輝度メモリ41に入力されて
いれば、これに満たないノイズの輝度が更新記録するこ
とはないからである。
In the present embodiment, if the set luminance level of the recording luminance is not high enough to prevent the recording of the detected luminance of the slit light, it is assumed that there is a portion where the slit light is not irradiated, or that the slit light is not irradiated. It is possible to prevent noise from being selected and taken in when only dark illumination is performed. This is because the noise is considerably lower than the luminance of the slit light, and if the luminance of about half of the slit light is input to the luminance memory 41 in advance as in the above example, the luminance of the noise less than this is lower than the luminance of the slit light. This is because there is no update record.

【0125】<補完>次に、補完処理を説明する。本実
施例では、コード化画像の測定前の初期値(例えば0)
を測定不能点として判断する。すなわち、測定装置内部
の空間コード記録用メモリを測定前に一定値で初期化し
ておく。測定終了後、初期値が記録されている画素は測
定不能点(画素)として処理する。図18(A)に示す
ように、角度コードの初期値を0とすると、測定不能点
が存在する場合には測定後の角度コード化メモリ42に
は測定された角度コード42cが格納されず、初期値4
2dのままとなる。このため、測定不能点を探索するに
は、この初期値42dを検索するとよい。
<Complement> Next, complement processing will be described. In the present embodiment, the initial value of the coded image before measurement (for example, 0)
Is determined as an unmeasurable point. That is, the space code recording memory inside the measuring device is initialized with a constant value before measurement. After the measurement is completed, the pixel in which the initial value is recorded is processed as an unmeasurable point (pixel). As shown in FIG. 18A, when the initial value of the angle code is set to 0, the measured angle code 42c is not stored in the angle-coded memory 42 after the measurement when there is an unmeasurable point. Initial value 4
It remains at 2d. Therefore, in order to search for an unmeasurable point, the initial value 42d may be searched.

【0126】また、角度コード化メモリの各画素にアク
セスされたか否かを示すフラグを設けるようにしてもよ
い。すなわち、メモリ・アクセス用のフラグを1bit設
け、フラグにより判定するようにしてもよい。空間コー
ド記録用メモリを1bit増やす。例えば、投光角度コー
ドが0から255であれば、8+1=9bitとする。測
定前にフラグ用bitを1(または0)に設定しておく。
測定中にアクセスされたメモリ・アドレス(画素位置)
のフラグbitを0(または1)とする。測定後当該フラ
グを調べることで測定不能点(画素)の検出が可能とな
る。図18(B)に示す例では、フラグの初期値を1と
すると、測定後には測定不能点42eのみフラグが1と
なり、角度コードが格納された画素のフラグは0とな
る。これにより、測定不能点を抽出する。
A flag indicating whether or not each pixel of the angle encoding memory has been accessed may be provided. That is, a 1-bit memory access flag may be provided, and determination may be made based on the flag. Increase the space code recording memory by 1 bit. For example, if the light projection angle code is from 0 to 255, 8 + 1 = 9 bits. Before measurement, the flag bit is set to 1 (or 0).
Memory address (pixel position) accessed during measurement
Is set to 0 (or 1). By examining the flag after measurement, it is possible to detect a measurement impossible point (pixel). In the example shown in FIG. 18B, assuming that the initial value of the flag is 1, only the unmeasurable point 42e is set to 1 after measurement, and the flag of the pixel storing the angle code is set to 0. As a result, an unmeasurable point is extracted.

【0127】図20は測定不能点の発生理由の一例を説
明するための説明図である。図20に示すように、CC
D等の固体撮像素子では、受光素子31の間に垂直転送
用のCCD32があるため、各画素と画素の境目の領域
が存在する。ある投光角度のときに、スリット光Rがこ
の境界領域に入ってしまうと、その投光角度におけるス
リット位置が図中R1,R2となり、図中符号42dで示
す画素位置には投光角度が記録されず、測定不能とな
る。
FIG. 20 is an explanatory diagram for explaining an example of the reason why an unmeasurable point has occurred. As shown in FIG.
In a solid-state imaging device such as D, since the CCD 32 for vertical transfer is provided between the light receiving elements 31, there is a boundary region between pixels. If the slit light R enters this boundary region at a certain projection angle, the slit positions at the projection angle are R1 and R2 in the figure, and the projection angle is set at the pixel position indicated by the reference numeral 42d in the figure. It is not recorded and cannot be measured.

【0128】また、図21に示すように、異なる投光角
度においてスリット光で測定対象を照明したとき、画像
中のスリット光の位置がR3,R4,R5のようになる場
合がある。この場合も図中符号42dで示すの画素位置
には投光角度が記録されず測定不能点となる。
As shown in FIG. 21, when the object to be measured is illuminated with slit light at different light projection angles, the positions of the slit light in the image may be R3, R4, and R5. Also in this case, the light projection angle is not recorded at the pixel position indicated by the reference numeral 42d in the figure, and it becomes an unmeasurable point.

【0129】また、照明が当らない死角部分も測定不能
点となる。しかし、この場合には、異なった角度から測
定を行った結果をつなぎ合せることにより死角領域のデ
ータを補うことが可能である。すなわち、死角領域は一
般に画像中の広い範囲に存在するため、中央値によって
補完する本提案では近傍画素にデータがなければ死角領
域への影響もない。例えば、近傍画素の値が0であれ
ば、補完されるデータも0となる。
[0129] Further, a blind spot where illumination is not applied is also an unmeasurable point. However, in this case, it is possible to supplement the data in the blind spot area by joining the results of measurements from different angles. That is, since a blind spot area generally exists in a wide range in an image, in the present proposal complemented by the median value, there is no influence on the blind spot area if there is no data in a neighboring pixel. For example, if the value of the neighboring pixel is 0, the complemented data is also 0.

【0130】図22は測定された空間コード化画像の一
部分(6×6の領域)の空間コード値である。この例で
は、測定不能点をコード値0で検出する。図22では、
測定不能点を符号42dおよび42eで示す。近傍のコ
ードから、符号42fで示す画素は123、符号42g
で示す画素は122と推測される。この画素について周
辺4近傍のデータの0以外の中央値を用いた平滑化処理
を行うと図23の結果を得る。
FIG. 22 shows the spatial code values of a part (6 × 6 area) of the measured spatially coded image. In this example, an unmeasurable point is detected with a code value of 0. In FIG.
Unmeasurable points are indicated by reference numerals 42d and 42e. From the neighboring codes, the pixel denoted by reference numeral 42f is 123, and the reference numeral 42g
The pixel indicated by is estimated to be 122. When this pixel is subjected to a smoothing process using a median value other than 0 of the data in the vicinity of the four surroundings, the result of FIG. 23 is obtained.

【0131】図22と図23との比較すると、正しい測
定データが影響を受けずに符号42fで示す画素は12
3、符号42gで示す画素は122となり推測どおりの
平滑化が行われた。この例では、A,B点のデータを測
定不能点の4近傍のコードの中央値を用いて補完した
が、4近傍でなく8近傍でもよい。また中央値でなく測
定不能点を除く近傍のコードの平均値を用いても良い。
When comparing FIG. 22 with FIG. 23, correct measurement data is not affected and the pixel indicated by reference numeral 42f has 12 pixels.
3. The number of pixels indicated by reference numeral 42g is 122, and smoothing is performed as expected. In this example, the data at the points A and B are complemented by using the median of the codes near the four points near the unmeasurable point. Instead of the median value, the average value of the neighboring codes excluding the unmeasurable point may be used.

【0132】図24は図17の符号14で示す三次元形
状の演算処理中、補完処理の一例を示すフローチャート
である。ここでは、画素数256×256(x×y)、
空間コード化画像をCode(x,y)とする。図24
に示すように、xおよびyの値を0に初期化する(ステ
ップC1)。続いて、測定不能点を検出する(ステップ
C2)。測定不能点であれば(ステップC3)、中央値
を演算する(ステップC4)。そして、x=255でな
ければ、xの値をカウントアップして(ステップC
6)、ステップC2に戻る。水平方向の走査が終了する
と、次にyの値をカウントアップして(ステップC7,
8)、補完処理を継続する。これを垂直走査方向につい
て完了するまで繰返す。
FIG. 24 is a flowchart showing an example of the complementing process during the calculation process of the three-dimensional shape indicated by reference numeral 14 in FIG. Here, the number of pixels is 256 × 256 (x × y),
Let the spatially coded image be Code (x, y). FIG.
, The values of x and y are initialized to 0 (step C1). Subsequently, an unmeasurable point is detected (step C2). If the point cannot be measured (step C3), a median value is calculated (step C4). If x is not equal to 255, the value of x is counted up (step C).
6) Return to step C2. When the horizontal scanning is completed, the value of y is counted up next (step C7,
8) Continue the complementing process. This is repeated until completion in the vertical scanning direction.

【0133】図25は補完処理の一例を示す説明図であ
る。図25に示すように、補完処理を行わないと穴の多
い立体形状となってしまうが、補完処理を行うと、表面
が連続した距離画像データを得ることができる。
FIG. 25 is an explanatory diagram showing an example of the complementing process. As shown in FIG. 25, if the complementing process is not performed, a three-dimensional shape having many holes will be formed. However, if the complementing process is performed, distance image data having a continuous surface can be obtained.

【0134】上述したように本実施例によると、測定不
能であった画素を検出し、その画素についてのみフィル
タリング処理を行うため、正しい測定データを変更せず
に補完処理を行うことができる。この補間後に生成する
距離画像では、ポリゴン生成も隣の画素を順次接続する
ことで行うことができるため、ポリゴン生成が容易とな
る。また、ジャンプエッジの検出などは近傍画素の微分
によって行うことが可能となるため、測定対象物の段差
などの特徴抽出処理を簡便化することができる。
As described above, according to the present embodiment, a pixel that cannot be measured is detected, and the filtering process is performed only on the pixel. Therefore, the complementing process can be performed without changing the correct measurement data. In the distance image generated after the interpolation, polygon generation can also be performed by connecting adjacent pixels in sequence, thereby facilitating polygon generation. In addition, since jump edge detection and the like can be performed by differentiating neighboring pixels, feature extraction processing such as a step of a measurement target can be simplified.

【0135】[0135]

【発明の効果】本発明は以上のように構成され機能する
ので、これによると、測定不能点抽出工程にて、受光平
面上の各受光素子のうち計測光を受光しなかった受光素
子を抽出し、続いて、補完工程にて、測定不能点の空間
コードについて当該測定不能点の近傍の受光素子での空
間コードの値に基づく補完値を算出するため、正常に算
出した空間コードを変更することなく、種々の理由で受
光できなかった受光素子に対応する空間コード化画像の
測定不能点に補完値を格納することができ、さらに、補
完工程では、測定不能点の近傍の値に基づいて補完値を
算出するため、空間コードの連続性に基づいて正確な補
完値を算出することができ、従って、空間コードに不連
続に穴が生じてしまっても、この補完工程にて空間コー
ドを連続にすることができ、すると、測定対象物の表面
に画素一つ分の穴が空いてしまう状態の発生を有効に防
止することができ、このため、例えばポリゴン生成も隣
の画素を順次接続することで行うことができ、従って、
距離画像に基づくポリゴン生成が容易となり、その他、
測定対象物の段差などの特徴抽出処理を簡便化すること
ができ、このように、取扱いの容易な距離画像データを
生成することができるという従来にない優れた三次元形
状計測方法を提供することができる。
Since the present invention is constructed and functions as described above, according to this, in the unmeasurable point extracting step, the light receiving elements which did not receive the measurement light among the light receiving elements on the light receiving plane are extracted. Then, in the complementing step, the normally calculated space code is changed in order to calculate a complementary value based on the value of the space code in the light receiving element near the unmeasurable point for the space code of the unmeasurable point. Without, a complementary value can be stored in the measurement impossible point of the spatially coded image corresponding to the light receiving element that could not receive light for various reasons, and further, in the complementing step, based on the value near the measurement impossible point. Since the interpolation value is calculated, an accurate interpolation value can be calculated based on the continuity of the spatial code. Therefore, even if a discontinuity occurs in the spatial code, the spatial code is calculated in the interpolation process. Be continuous Then, it is possible to effectively prevent a state in which a hole for one pixel is formed on the surface of the measurement object, and therefore, for example, polygon generation is also performed by sequentially connecting adjacent pixels. And therefore,
Polygon generation based on range images becomes easier,
To provide an unprecedented superior three-dimensional shape measurement method capable of simplifying feature extraction processing such as a step of a measurement object and thus generating easily-handled distance image data. Can be.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第一の実施形態の構成を示すフローチ
ャートである。
FIG. 1 is a flowchart showing a configuration of a first embodiment of the present invention.

【図2】図1に示した空間コードと受光素子の位置と測
定対象物までの距離の関係を示す説明図である。
FIG. 2 is an explanatory diagram showing a relationship between a space code shown in FIG. 1, a position of a light receiving element, and a distance to an object to be measured.

【図3】測定不能点を有する空間コード化画像の一例を
示す説明図であり、図3(A)は空間コードを濃淡で示
した図で、図3(B)は図3(A)中の矢印にて切断し
た空間コードの例を示す図である。
3A and 3B are explanatory diagrams showing an example of a space-coded image having an unmeasurable point; FIG. 3A is a diagram showing a space code in shades; FIG. 3B is a diagram in FIG. It is a figure which shows the example of the space code cut | disconnected by the arrow of FIG.

【図4】補完処理後の空間コード化画像の一例を示す説
明図であり、図4(A)は空間コードを濃淡で示した図
で、図4(B)は図4(A)中の矢印にて切断した空間
コードの例を示す図である。
4A and 4B are explanatory diagrams illustrating an example of a space-coded image after a complementation process. FIG. 4A is a diagram illustrating a space code by shading, and FIG. 4B is a diagram in FIG. It is a figure showing the example of the space code cut by the arrow.

【図5】図1に示した補完処理にて近傍画素を参照する
例を示す説明図であり、図5(A)は8近傍の例を示す
図で、図5(B)は4近傍の例を示す図である。
5A and 5B are explanatory diagrams showing an example in which neighboring pixels are referred to in the complementing process shown in FIG. 1; FIG. 5A is a diagram showing an example of eight neighboring pixels, and FIG. It is a figure showing an example.

【図6】本発明による三次元形状計測装置の構成を示す
ブロック図である。
FIG. 6 is a block diagram showing a configuration of a three-dimensional shape measuring apparatus according to the present invention.

【図7】図6に示した三次元計測装置を較正する較正装
置の例を示す斜視図である。
7 is a perspective view showing an example of a calibration device for calibrating the three-dimensional measurement device shown in FIG.

【図8】図7に開示した較正用二次元ゲージを示す図
で、図8(A)はその正面図、図8(B)は側面図であ
る。
8 is a diagram showing the calibration two-dimensional gauge disclosed in FIG. 7, wherein FIG. 8 (A) is a front view and FIG. 8 (B) is a side view.

【図9】図7に示した装置による較正処理例を示すフロ
ーチャートである。
FIG. 9 is a flowchart illustrating an example of a calibration process performed by the device illustrated in FIG. 7;

【図10】光切断法による三次元計測装置の構成を示す
ブロック図である。
FIG. 10 is a block diagram showing a configuration of a three-dimensional measuring apparatus using a light section method.

【図11】図10に示した空間コード処理手段の一例を
示すブロック図である。
FIG. 11 is a block diagram showing an example of a spatial code processing means shown in FIG.

【図12】図12(A)はスリット光を撮像したCCD
撮像センサを示す説明図であり、図12(B)は走査線
番号1の水平走査線を構成する画素の出力を並び順に示
す説明図である。
FIG. 12 (A) is a CCD imaging slit light.
FIG. 12B is an explanatory diagram illustrating an image sensor, and FIG. 12B is an explanatory diagram illustrating outputs of pixels forming a horizontal scanning line of a scanning line number 1 in an arrangement order.

【図13】空間コード処理手段の動作を説明する構成を
簡易化して示した説明図であり、図13(A)は一つ目
のスリット光を撮像したCCD撮像センサを示し、図1
3(B)は初期化された輝度メモリを示し、図13
(C)は図13(A)のスリット光の撮像により得られ
た一番目の走査線における輝度を記録した輝度メモリを
示し、図13(D)は図13(C)の輝度メモリに基づ
いて記録された角度コード化メモリを示す。そして、図
13(E)から図13(H)までは、同様にして各走査
線ごとに輝度メモリ及び角度コード化メモリが記録され
る状態を示している。
FIG. 13 is an explanatory diagram showing a simplified configuration for explaining the operation of the space code processing means. FIG. 13 (A) shows a CCD image sensor for capturing the first slit light, and FIG.
FIG. 3B shows an initialized luminance memory, and FIG.
FIG. 13C shows a luminance memory in which the luminance of the first scanning line obtained by imaging the slit light in FIG. 13A is recorded, and FIG. 13D is based on the luminance memory in FIG. 4 shows a recorded angle coded memory. FIGS. 13 (E) to 13 (H) show a state in which a luminance memory and an angle coded memory are recorded for each scanning line in the same manner.

【図14】算出手段の動作を説明する構成を簡易化して
示した図13の続きの説明図であり、図14(A)は二
つ目のスリット光を撮像したCCD撮像センサを示し、
図14(B)は図14(A)のスリット光の撮像により
得られた一番目の走査線における輝度を記録した輝度メ
モリを示し、図14(C)は図14(B)の輝度メモリ
に基づいて記録された角度コード化メモリを示す。そし
て、図14(D)から図14(G)までは、同様にして
各走査線ごとに輝度メモリ及び角度コード化メモリが記
録される状態示している。
FIG. 14 is a continuation explanatory view of FIG. 13 showing a simplified configuration for explaining the operation of the calculating means, and FIG. 14 (A) shows a CCD image sensor for capturing the second slit light;
FIG. 14B shows a luminance memory in which the luminance of the first scanning line obtained by imaging the slit light in FIG. 14A is recorded, and FIG. 14C shows the luminance memory in FIG. 14B. 3 shows an angle coded memory recorded on the basis of this. FIGS. 14D to 14G show a state in which a luminance memory and an angle coded memory are similarly recorded for each scanning line.

【図15】算出手段の動作を説明する構成を簡易化して
示した図5の続きの説明図であり、図15(A)は三つ
目のスリット光を撮像したCCD撮像センサを示し、図
15(B)は図15(A)のスリット光の撮像により得
られた一番目の走査線の輝度を記録した輝度メモリを示
し、図15(C)は図15(B)の輝度メモリに基づい
て記録された角度コード化メモリを示す。そして、図1
5(D)は三番目の走査線の輝度を記録した輝度メモリ
を示し、図15(E)は図15(D)の輝度メモリに基
づいて記録された角度コード化メモリを示す。
FIG. 15 is a continuation explanatory view of FIG. 5 showing a simplified configuration for explaining the operation of the calculation means, and FIG. 15 (A) shows a CCD image sensor that has captured a third slit light; 15B shows a luminance memory in which the luminance of the first scanning line obtained by imaging the slit light in FIG. 15A is recorded, and FIG. 15C is based on the luminance memory shown in FIG. Fig. 7 shows an angle coded memory recorded in the memory. And FIG.
5 (D) shows a luminance memory recording the luminance of the third scanning line, and FIG. 15 (E) shows an angle coded memory recorded based on the luminance memory of FIG. 15 (D).

【図16】図10に示した構成により光切断法に基づく
空間コードの生成処理の一例を示すフローチャートの前
段である。
FIG. 16 is a first part of a flowchart illustrating an example of a space code generation process based on the light section method with the configuration illustrated in FIG. 10;

【図17】図10に示した構成により光切断法に基づく
空間コードの生成処理の一例を示すフローチャートの後
段である。
FIG. 17 is a second half of a flowchart showing an example of processing for generating a space code based on the light section method with the configuration shown in FIG. 10;

【図18】測定不能点の抽出処理の一例を示す説明図で
あり、図18(A)はコードの初期値を示す図で、図1
8(B)は測定後のコードの例を示す図である。
FIG. 18 is an explanatory diagram showing an example of an unmeasurable point extraction process. FIG. 18A is a diagram showing an initial value of a code.
FIG. 8B is a diagram illustrating an example of a code after measurement.

【図19】測定不能点の抽出処理の他の例を示す説明図
であり、図19(A)はコードの初期値を示す図で、図
19(B)は測定後のコードの例を示す図である。
19 is an explanatory diagram showing another example of the unmeasurable point extraction process. FIG. 19A shows an initial value of a code, and FIG. 19B shows an example of a code after measurement. FIG.

【図20】測定不能点が生じる理由を説明するための説
明図である。
FIG. 20 is an explanatory diagram for explaining the reason why an unmeasurable point occurs.

【図21】測定不能点が生じる他の理由を説明するため
の説明図である。
FIG. 21 is an explanatory diagram for explaining another reason why an unmeasurable point occurs.

【図22】測定不能点を有する空間コード化画像の一例
を示す説明図である。
FIG. 22 is an explanatory diagram illustrating an example of a space-coded image having a measurement impossible point.

【図23】図22に示した空間コード画像を補完した例
を示す説明図である。
FIG. 23 is an explanatory diagram showing an example in which the space code image shown in FIG. 22 is complemented.

【図24】補完処理の一例を示すフローチャートであ
る。
FIG. 24 is a flowchart illustrating an example of a complementing process.

【図25】補完処理の結果を示す説明図であり、図25
(A)は補完処理前の空間コード化画像から算出した距
離画像データの一例を示す図で、図25(B)は補完処
理後の空間コード化画像から算出した距離画像の例を示
す説明図である。
FIG. 25 is an explanatory diagram showing the result of the complementing process;
FIG. 25A is a diagram illustrating an example of distance image data calculated from the spatially coded image before the complementing process, and FIG. 25B is an explanatory diagram illustrating an example of a distance image calculated from the spatially coded image after the complementing process. It is.

【符号の説明】[Explanation of symbols]

2 照射機構 3 カメラ 4 算出手段 31 受光素子 41 輝度メモリ 42 角度コード化メモリ R スリット光 S 測定対象物 2 Irradiation mechanism 3 Camera 4 Calculation means 31 Light receiving element 41 Luminance memory 42 Angle coding memory R Slit light S Object to be measured

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中島 毅 神奈川県横浜市都筑区桜並木2番1号 ス ズキ株式会社技術研究所内 Fターム(参考) 2F065 AA04 AA53 FF01 FF04 GG04 HH05 HH12 JJ03 JJ26 LL13 QQ31 UU05  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Takeshi Nakajima 2-1, Sakuranamiki, Tsuzuki-ku, Yokohama-shi, Kanagawa Prefecture S-Suzuki Co., Ltd. Technical Research Institute F-term (reference) 2F065 AA04 AA53 FF01 FF04 GG04 HH05 HH12 JJ03 JJ26 LL13 QQ31 UU05

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 測定対象物を含む空間を分割する空間コ
ードに対応した計測光を照射する照射工程と、この照射
工程で照射された計測光の照射角度に対して予め定めら
れた角度をなす受光平面に二次元に配列された各受光素
子にて当該計測光を受光する受光工程と、この受光工程
にて受光した計測光の順序に基づいて各受光素子に対応
する位置ごとに空間コードを算出する空間コード処理工
程と、この空間コード処理工程にて算出された空間コー
ドと前記受光素子の位置とに基づいて予め定められた座
標系での原点から前記測定対象物の表面までの距離を各
受光素子毎に算出する距離算出工程とを備えた三次元形
状計測方法において、 前記空間コード処理工程が、前記受光平面上の各受光素
子のうち前記計測光を受光しなかった受光素子を抽出す
る測定不能点抽出工程と、この測定不能点抽出工程にて
抽出された測定不能点の空間コードについて当該測定不
能点の近傍の受光素子での空間コードの値に基づく補完
値を算出する補完工程とを備えたことを特徴とする三次
元形状計測方法。
An irradiation step of irradiating measurement light corresponding to a space code for dividing a space including a measurement object, and forming a predetermined angle with respect to an irradiation angle of the measurement light irradiated in the irradiation step. A light receiving step of receiving the measurement light with each light receiving element two-dimensionally arranged on the light receiving plane, and a space code for each position corresponding to each light receiving element based on the order of the measurement light received in the light receiving step. The space code processing step to be calculated, and the distance from the origin in the coordinate system predetermined on the basis of the space code and the position of the light receiving element calculated in the space code processing step to the surface of the measurement object. A three-dimensional shape measuring method comprising: a distance calculating step of calculating for each light receiving element; wherein the spatial code processing step extracts light receiving elements not receiving the measurement light among light receiving elements on the light receiving plane. A non-measurable point extracting step, and a complementing step of calculating a complementary value based on a value of a spatial code at a light receiving element near the non-measurable point with respect to the spatial code of the non-measurable point extracted in the non-measurable point extracting step. A three-dimensional shape measuring method comprising:
【請求項2】 前記空間コード処理工程が、前記各受光
素子について前記計測光を受光したか否かを示す受光フ
ラグを設定する受光フラグ設定工程を備え、 前記測定不能点抽出工程が、前記受光フラグを参照して
測定不能点を探索する受光フラグ参照工程を備えたこと
を特徴とする請求項1記載の三次元形状計測方法。
2. The spatial code processing step includes a light receiving flag setting step of setting a light receiving flag indicating whether or not the measurement light has been received for each of the light receiving elements. 2. The three-dimensional shape measuring method according to claim 1, further comprising a light receiving flag reference step of searching for an unmeasurable point by referring to the flag.
【請求項3】 前記補完工程が、前記測定不能点の近傍
値のうち初期値以外の空間コードに基づいて当該測定不
能点の補完値を特定する工程を備えたことを特徴とする
請求項1記載の三次元形状計測方法。
3. The method according to claim 1, wherein the complementing step includes a step of specifying a complement value of the unmeasurable point based on a space code other than an initial value among the neighboring values of the unmeasurable point. The three-dimensional shape measurement method described.
【請求項4】 測定対象物を含む空間を分割する空間コ
ードに対応した計測光を照射する照射手段と、この照射
手段によって照射された計測光の照射角度に対して予め
定められた角度をなす受光平面に二次元に配列された各
受光素子を有する受光手段と、この受光手段の各受光素
子が受光する計測光の順序に基づいて各受光素子に対応
する位置ごとに空間コードを算出する空間コード処理手
段とを備えると共に、 この空間コード処理手段によって算出された空間コード
を前記各受光素子に対応した画素位置に記憶する空間コ
ード記憶手段と、この空間コード記憶手段の各画素位置
及び当該画素に格納された空間コードに基づいて予め定
められた座標系での原点から前記測定対象物の各表面ま
での距離を前記各受光素子毎に算出する距離算出手段と
を備えた三次元形状計測装置において、 前記空間コード処理手段が、前記空間コードが格納され
なかった画素を抽出する測定不能点抽出部と、この測定
不能点抽出部によって抽出された測定不能点の空間コー
ドについて当該測定不能点の近傍の画素に格納された空
間コードに基づく補完値を算出する補完値算出部とを備
えたことを特徴とする三次元形状測定装置。
4. An irradiating means for irradiating measurement light corresponding to a space code for dividing a space including a measurement object, and forming a predetermined angle with respect to an irradiation angle of the measuring light radiated by the irradiating means. A light receiving means having light receiving elements arranged two-dimensionally on a light receiving plane, and a space for calculating a space code for each position corresponding to each light receiving element based on the order of measurement light received by each light receiving element of the light receiving means. A space code storage unit for storing a space code calculated by the space code processing unit at a pixel position corresponding to each of the light receiving elements; and a pixel position of the space code storage unit and the corresponding pixel. A distance calculating means for calculating, for each of the light receiving elements, a distance from an origin in a predetermined coordinate system based on a space code stored in the light receiving element. In the three-dimensional shape measuring apparatus, the spatial code processing means extracts a pixel in which the spatial code is not stored, a measurement impossible point extraction unit, and a measurement impossible point extracted by the measurement impossible point extraction unit. A complementary value calculation unit for calculating a complementary value based on a space code stored in a pixel near the unmeasurable point with respect to the space code.
【請求項5】 測定対象物を含む空間を分割する空間コ
ードに対応した計測光を照射させる照射装置と、この照
射装置によって照射された照射された計測光を当該計測
光の照射角度に対して予め定められた角度をなす受光平
面に二次元に配列された各受光素子にて受光する受光装
置と、この受光装置にて受光した計測光の順序に基づい
て各受光素子に対応する位置ごとに空間コードを算出す
る空間コード処理装置と、この空間コード処理装置によ
って生成された空間コード化画像に基づいて予め定めら
れた座標系での原点から前記測定対象物の表面までの距
離を各受光素子毎に算出する演算装置とを備えた三次元
形状計測装置を使用して前記測定対象物の形状を測定す
る三次元形状計測用プログラムを記憶した記憶媒体であ
って、 前記三次元形状計測用プログラムは前記演算装置を動作
させる指令として、前記空間コード化画像の各画素のう
ち空間コード化画像が格納されなかった画素を抽出させ
る測定不能点抽出指令と、この測定不能点抽出指令に応
じて抽出される画素の空間コードについて当該測定不能
点の近傍の受光素子での空間コードの値に基づく補完値
を算出させる補完指令とを備えたことを特徴とする三次
元形状計測用プログラムを記憶した記憶媒体。
5. An irradiation device for irradiating measurement light corresponding to a space code for dividing a space including an object to be measured, and irradiating the measurement light irradiated by the irradiation device with respect to an irradiation angle of the measurement light. A light-receiving device that receives light at each light-receiving element two-dimensionally arranged on a light-receiving plane that forms a predetermined angle, and a position corresponding to each light-receiving element based on the order of measurement light received by the light-receiving device. A space code processing device that calculates a space code, and a distance from an origin in a predetermined coordinate system based on a space-coded image generated by the space code processing device to a surface of the measurement target is defined by each light receiving element. A storage medium storing a three-dimensional shape measurement program for measuring the shape of the measurement object using a three-dimensional shape measurement device including a calculation device that calculates the three-dimensional shape, The state measurement program includes, as commands for operating the arithmetic device, a measurement impossible point extraction command for extracting a pixel in which the space coded image is not stored among the pixels of the space coded image, and a measurement impossible point extraction command for A complement command for calculating a complement value based on the value of the spatial code at the light receiving element near the unmeasurable point for the spatial code of the pixel extracted according to the three-dimensional shape measuring program. Storage medium that stores.
JP37268298A 1998-12-28 1998-12-28 Method and apparatus for measuring 3D shape and storage medium storing 3D shape measurement program Expired - Fee Related JP3800841B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP37268298A JP3800841B2 (en) 1998-12-28 1998-12-28 Method and apparatus for measuring 3D shape and storage medium storing 3D shape measurement program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP37268298A JP3800841B2 (en) 1998-12-28 1998-12-28 Method and apparatus for measuring 3D shape and storage medium storing 3D shape measurement program

Publications (2)

Publication Number Publication Date
JP2000193433A true JP2000193433A (en) 2000-07-14
JP3800841B2 JP3800841B2 (en) 2006-07-26

Family

ID=18500876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP37268298A Expired - Fee Related JP3800841B2 (en) 1998-12-28 1998-12-28 Method and apparatus for measuring 3D shape and storage medium storing 3D shape measurement program

Country Status (1)

Country Link
JP (1) JP3800841B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012056520A1 (en) * 2010-10-26 2012-05-03 財団法人機械振興協会 Tool collision prevention system and tool collision prevention method
JP2016048239A (en) * 2014-08-27 2016-04-07 ステインビッヒラー オプトテヒニク ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and device for measuring 3-d coordinates of object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09218940A (en) * 1996-02-13 1997-08-19 Terumo Corp Picture processor
JPH10300443A (en) * 1997-04-25 1998-11-13 Suzuki Motor Corp Three-dimensional shape measuring device
JPH11108633A (en) * 1997-09-30 1999-04-23 Peteio:Kk Three-dimensional shape measuring device and three-dimensional engraving device using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09218940A (en) * 1996-02-13 1997-08-19 Terumo Corp Picture processor
JPH10300443A (en) * 1997-04-25 1998-11-13 Suzuki Motor Corp Three-dimensional shape measuring device
JPH11108633A (en) * 1997-09-30 1999-04-23 Peteio:Kk Three-dimensional shape measuring device and three-dimensional engraving device using the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012056520A1 (en) * 2010-10-26 2012-05-03 財団法人機械振興協会 Tool collision prevention system and tool collision prevention method
JP5543476B2 (en) * 2010-10-26 2014-07-09 一般財団法人機械振興協会 Tool collision prevention system and tool collision prevention method
JP2016048239A (en) * 2014-08-27 2016-04-07 ステインビッヒラー オプトテヒニク ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and device for measuring 3-d coordinates of object
US10502554B2 (en) 2014-08-27 2019-12-10 Carl Zeiss Optotechnik GmbH Process and device for determining the 3D coordinates of an object

Also Published As

Publication number Publication date
JP3800841B2 (en) 2006-07-26

Similar Documents

Publication Publication Date Title
US7456842B2 (en) Color edge based system and method for determination of 3D surface topology
JP4885584B2 (en) Rangefinder calibration method and apparatus
US6549288B1 (en) Structured-light, triangulation-based three-dimensional digitizer
JP3714063B2 (en) 3D shape measuring device
EP1814083A1 (en) Photometric measurements using at least three light sources
WO2012053521A1 (en) Optical information processing device, optical information processing method, optical information processing system, and optical information processing program
JP2006038843A (en) Method for calibrating distance image sensor
WO2003029046A1 (en) Apparatus and method for sensing the occupancy status of parking spaces in a parking lot
JP4402458B2 (en) Method for determining corresponding points in 3D measurement
JP2019101000A (en) Distance measurement point group data measurement system and control program
JP3800842B2 (en) Method and apparatus for measuring three-dimensional shape, and storage medium storing three-dimensional shape measuring program
WO2022050279A1 (en) Three-dimensional measurement device
JPH1144533A (en) Preceding vehicle detector
JP3991501B2 (en) 3D input device
JP3621215B2 (en) 3D measuring device
JP3800841B2 (en) Method and apparatus for measuring 3D shape and storage medium storing 3D shape measurement program
JP2000337829A (en) Luminance measuring method, storage medium to store program for measuring luminance, and three-dimensional measuring device
JP2002131031A (en) Method and device for measuring three-dimensional shape
JP2001012913A (en) Coil position detector
JP2775924B2 (en) Image data creation device
JPH0467887B2 (en)
JP3013690B2 (en) Method and apparatus for measuring three-dimensional curved surface shape
JP2001227921A (en) Range finder device
KR102423217B1 (en) Crack investigation device using 3D distance distribution information of ToF sensor and method of deriving crack information using the same
JPS61241612A (en) Three-dimensional form measuring system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060424

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090512

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100512

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110512

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110512

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120512

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120512

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130512

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130512

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140512

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees