JPH07280518A - Object measurement device - Google Patents

Object measurement device

Info

Publication number
JPH07280518A
JPH07280518A JP6076071A JP7607194A JPH07280518A JP H07280518 A JPH07280518 A JP H07280518A JP 6076071 A JP6076071 A JP 6076071A JP 7607194 A JP7607194 A JP 7607194A JP H07280518 A JPH07280518 A JP H07280518A
Authority
JP
Japan
Prior art keywords
optical
light
focal length
image
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6076071A
Other languages
Japanese (ja)
Inventor
Akito Nagatsu
昭人 永津
Hideo Suzuki
英夫 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP6076071A priority Critical patent/JPH07280518A/en
Publication of JPH07280518A publication Critical patent/JPH07280518A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To measure at high speed a three-dimensional position of an edge part from an image of an object obtained by the external lighting by measuring a three-dimensional position of a real edge part of an object and an edge part of a pattern having difference of density drawn on a structural face of the object. CONSTITUTION:An image of an object that is illuminated by a natural light or an external light is inputted to an optical edge-detection section 240 via a variable focal length lens 220. A focal length control section 230 controls a focal of the lens 220 so as to take a certain focal length for measuring the object, then a value of the focal length at that time is stored in a focal length- storing register 250 as depth information. The detection section 240 detects a part in true focus having great difference of density from an optical image focused by the lens 220 as an edge part and a two-dimensional detection section 260 detects the coordinates of the plane position thereof so that the coordinates together with the focal length stored in the register 250 are outputted. The above operations are repeated with respect to various focal lengths, thereby measuring the position and shape of the object.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、物体計測装置に係り、
特に、情景の中から物体に関する3次元的な情報を測定
する物体計測装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object measuring device,
In particular, the present invention relates to an object measuring device that measures three-dimensional information about an object from a scene.

【0002】詳しくは、1つの実物体を撮影している情
景から、その物体の3次元的な形状を取得するものであ
る。また、情景の中に複数の物体がある時、それらの物
体の左右、上下、前後等の3次元的な位置関係を取得す
るものである。こうした物体の3次元情報の計測は、例
えば、単体の物体であれば、設計工程でのモックアップ
形状測定、製造工程での部品の取付け位置等の把握、検
査工程での製造物の形状測定、製造工程での部品の取付
け位置等の把握、検査工程での製造物の形状測定による
欠陥商品の除去等のために必要である。
More specifically, the three-dimensional shape of an object is acquired from a scene in which one object is photographed. Further, when there are a plurality of objects in the scene, the three-dimensional positional relationship of those objects such as left, right, up and down, front and back is acquired. For measuring the three-dimensional information of such an object, for example, in the case of a single object, mock-up shape measurement in the design process, grasp of mounting positions of parts in the manufacturing process, shape measurement of the product in the inspection process, It is necessary for grasping the mounting position of parts in the manufacturing process and removing defective products by measuring the shape of the product in the inspection process.

【0003】また、情景に複数の物体が存在する場合と
しては、自律走行車において、前方に見える障害物、標
識等の認識があげられる。また、作業用ロボットにおい
ては、多種多様な部品がある中から必要な形状の部品を
得るための視覚システムとしても必要なものである。
When a plurality of objects are present in a scene, recognition of obstacles, signs, etc. seen ahead in an autonomous vehicle can be mentioned. Further, the work robot is also required as a visual system for obtaining a part having a required shape from among various kinds of parts.

【0004】[0004]

【従来の技術】従来、物体の3次元情報の取得について
は、センサを用いる方法、ステレオ視を用いる方法、単
眼視を用いる方法、能動光計測を用いる方法等が提案さ
れている。
2. Description of the Related Art Conventionally, for obtaining three-dimensional information of an object, a method using a sensor, a method using stereo vision, a method using monocular vision, a method using active light measurement, etc. have been proposed.

【0005】センサを用いる方法は、レーザ光等を発光
し、反射してきた光の強度をセンサで測定することによ
り、物体までの距離を計る近接センサや、発光した光が
物体から反射してくるまでの時間を計ることにより、距
離を測定するレンジファインダーなどがある。
The method using a sensor is to emit a laser beam or the like and measure the intensity of the reflected light with the sensor to measure the distance to the object, or the emitted light is reflected from the object. There is a range finder that measures the distance by measuring the time to.

【0006】ステレオ視は、2台のテレビカメラを用い
て両方の画像から対応点を検出することにより、物体の
3次元形状を計測する一般的な方法である。これは、一
定距離だけ離した2つのテレビカメラから取り込んだ画
像から、三角測量の原理により物体上の各点の相対的な
位置を知るものである。
Stereo vision is a general method for measuring the three-dimensional shape of an object by detecting corresponding points from both images using two television cameras. This is to know the relative position of each point on the object by the principle of triangulation from the images captured from two TV cameras separated by a certain distance.

【0007】ステレオ視に対して単眼視を用いる方法
は、テレビカメラが1台ですみ、方式的にも比較的容易
に実現できるという利点がある。奥行き情報を得るため
には、陰影情報、遠近法的な情報、テクスチャ情報等を
用いる方法、物体に対してテレビカメラを移動し、物体
情報を取得する方法、テレビカメラの焦点距離を変化さ
せ、奥行き情報を得る等の方法がある。
The method of using monocular vision for stereo vision has the advantage that it requires only one television camera and can be implemented relatively easily. In order to obtain depth information, a method using shadow information, perspective information, texture information, etc., a method of moving the TV camera with respect to an object and acquiring object information, changing the focal length of the TV camera, There are methods such as obtaining depth information.

【0008】単眼視を用いる方法は、テレビカメラが1
台ですむこと、方式的にも比較的容易に実現できるた
め、他の方法と比較して有利であり、さまざまな研究が
なされている。これらの研究は大きく(1)電子処理に
よる方法、(2)能動光計測を用いた方法、(3)エッ
ジ検出専用光デバイスによる方法に分けられる。
A method using monocular vision is one in which a television camera is used.
Since it requires only a table and can be realized relatively easily in terms of method, it is advantageous as compared with other methods, and various studies have been conducted. These studies are roughly divided into (1) a method using electronic processing, (2) a method using active optical measurement, and (3) a method using an optical device dedicated to edge detection.

【0009】(1)の例としては、安野等の方法があげ
られる(安野、岡田、横山、北川:「連続的に焦点距離
が変化する多重画像を用いた立体計測」、情報処理学会
第36回(昭和63年前期)全国大会5W−8)。この
方法では、まずカメラレンズの焦点距離を変えながら画
像をフレームメモリに複数枚取り込む。次に各画像につ
いて、電子処理により1次微分等でエッジ像を抽出し、
各エッジについて強度的なピーク値が現れるフレームを
検出する。さらに、ハフ変換を用いて直線成分を抽出
し、物体の3次元情報を得るものである。
As an example of (1), there is the method of Anno et al. (Anno, Okada, Yokoyama, Kitagawa: “Stereoscopic measurement using multiple images with continuously changing focal length”, IPSJ 36th. (National convention 5W-8). In this method, first, a plurality of images are captured in the frame memory while changing the focal length of the camera lens. Next, for each image, an edge image is extracted by first-order differentiation or the like by electronic processing,
A frame in which an intensity peak value appears for each edge is detected. Further, the Hough transform is used to extract the linear component to obtain the three-dimensional information of the object.

【0010】(2)の能動光計測は、スリット光または
ある特定のパターンを持った光を物体に投影し、物体に
投影された光パターンをテレビカメラで取り込み、各点
の位置ずれを検出し、距離情報を得るものである。この
方法は、物体の測定範囲は、レーザ光等の照射できる距
離に限られる。しかし、単眼視による方法と併用して物
体の3次元情報を正確に得ることができる。
In the active light measurement of (2), slit light or light having a specific pattern is projected on an object, the light pattern projected on the object is captured by a television camera, and the positional deviation of each point is detected. , To obtain distance information. In this method, the measurement range of the object is limited to the distance that can be irradiated with laser light or the like. However, the three-dimensional information of the object can be accurately obtained by using the method with the monocular vision together.

【0011】能動光計測の例として、例えば、荒木らの
方法があげられる(荒木、清水、野田、千葉、津田、池
谷、三宮、五味:「高速・連続3次元計測システム」、
画像光学コンファレンス論文集、Vol.22 (992) pp.243-
246)。この方法では、スリット光を物体に照射し、1台
のテレビカメラで投影像を捉えるが、この時、通常の撮
像素子の代わりに1次元PSD(位置検出素子)を平面
上に並べて、物体各点におけるスリット光の位置のずれ
を高速に検出し、物体の3次元計測を行うものである。
Examples of active light measurement include the method of Araki et al. (Araki, Shimizu, Noda, Chiba, Tsuda, Ikeya, Sannomiya, Gomi: "High-speed, continuous three-dimensional measurement system",
Image Optics Conference Proceedings, Vol.22 (992) pp.243-
246). In this method, the slit light is radiated to the object and the projected image is captured by one TV camera. At this time, instead of the normal image sensor, a one-dimensional PSD (position detection element) is arranged on the plane to detect each object. The displacement of the slit light at a point is detected at high speed to perform three-dimensional measurement of the object.

【0012】(3)のエッジ検出専用光デバイスによる
方法としては、例えばランジ(Lange) らにようる方法が
ある(E.Lange, E. Funatsu, K.Hara and K.KYuma: 「直
接画像処理のための光ニューロチップ(“Optical neur
ochip for direct image processing") 」、1992年
電子情報通信学会春期大会 D-83) 。この方法は、2次
元半導体光素子に直接入力された画像から濃淡差の大き
い部分をエッジ部分として検出するものである。
As a method using the optical device dedicated to edge detection of (3), for example, there is a method according to Lange et al. (E. Lange, E. Funatsu, K. Hara and K. KYuma: "Direct image processing". Optical Neurochip for “(Optical neur
ochip for direct image processing ")", 1992 IEICE Spring Conference D-83). This method is to detect a portion having a large grayscale difference as an edge portion from an image directly input to the two-dimensional semiconductor optical device.

【0013】[0013]

【発明が解決しようとする課題】しかしながら、上記の
センサを用いる方法は、照射するレーザ光は、スポット
光であるため、広がりをもった物体を測定するために
は、2次元的にセンサを走査させる必要があり、計測の
ために非常に時間を要する。また、近接センサの場合に
は、十分物体の近くにセンサを近づけなければならず、
物体の凹凸の小さい物体の計測どまりであり、奥行きに
ある物体については光の伝搬時間が短いため測定が困難
であり、ある程度離れた物体の距離情報を得るものであ
る。
However, in the method using the above-described sensor, since the laser light to be emitted is a spot light, the sensor is two-dimensionally scanned in order to measure an object having a spread. Therefore, it takes a very long time for measurement. Also, in the case of a proximity sensor, the sensor must be sufficiently close to the object,
It is a measurement measurement of an object with small unevenness, and it is difficult to measure an object at a depth because the propagation time of light is short, and the distance information of an object that is some distance away is obtained.

【0014】ステレオ視を用いる方法は、テレビカメラ
が2台必要であること、両方の画像から対応点を検出す
ることが難しいこと、距離そのものの絶対値を知ること
は、困難である等の問題を有する。
The method using stereo vision requires two TV cameras, it is difficult to detect corresponding points from both images, and it is difficult to know the absolute value of the distance itself. Have.

【0015】電子処理による方法は、複数枚の画像を取
り込むために大容量のフレームメモリを必要とするこ
と、全てを電子計算機により実行するため、処理時間が
係るという問題があり、また、濃淡差が大きい部分をエ
ッジとして検出しているが、実際に存在するエッジであ
っても外部照明によって濃淡差が生じない場合には検出
できないという問題がある。
The method using electronic processing has a problem that a large-capacity frame memory is required to capture a plurality of images and that all the processing is performed by an electronic computer, which requires processing time. Although a large portion is detected as an edge, there is a problem that even if the edge actually exists, it cannot be detected if there is no shade difference due to external illumination.

【0016】能動光計測を用いた方法は、物体の正確な
3次元形状情報を得られるが、物体全体についての3次
元形状を得るには、照射するスリット光を場所的に走査
させる必要がある。また、光位置検出素子の出力結果を
光電変換し、最終的には計算機で処理するが、光電変換
及び計算機での処理部分については処理速度的な改善は
図られない。さらに、本方法は、電子処理による方法と
は逆に物体構成面上に描かれた濃淡差の大きい模様は検
出できない。
The method using active light measurement can obtain accurate three-dimensional shape information of an object, but in order to obtain a three-dimensional shape of the entire object, it is necessary to scan the slit light to be irradiated locally. . Further, although the output result of the optical position detecting element is photoelectrically converted and finally processed by the computer, the processing speed cannot be improved for the photoelectric conversion and the processing part in the computer. Further, in contrast to the method using electronic processing, this method cannot detect a pattern with a large difference in shade drawn on the object constituting surface.

【0017】エッジ検出専用光デバイスによる方法は、
光エッジ検出専用光デバイス単独ではピントが合ったエ
ッジ部分だけを検出することはできない。また、電子処
理による方法と同様に、実際に存在するエッジであって
も濃淡差が生じない場合には、検出できない。さらに、
現在の研究では、スライド等の2次元的な光画像を提示
してエッジ像が検出されることを検証している段階であ
り、実物体から直接エッジ部分を抽出した報告はない。
The method using the optical device dedicated to edge detection is
The optical device dedicated to the optical edge detection cannot detect only the focused edge portion. Further, similarly to the method by the electronic processing, even if the edge actually exists, it cannot be detected if the difference in gray level does not occur. further,
The current research is in the stage of verifying that an edge image is detected by presenting a two-dimensional optical image such as a slide, and there is no report that the edge portion is directly extracted from the real object.

【0018】これにより、実物体の3次元情報の測定に
おいては、物体に対して光パターンを投影できる場合だ
けとは限らないため、外部的な照明光であっても、物体
の実エッジ部分及び物体構成面に描かれた模様中のエッ
ジ部分が検出される事が望ましい。さらに、光パターン
が投影できる程度、十分距離が近い物体については、装
置構成を変えることなく、濃淡差の情報だけでは得られ
ない実エッジ部分の3次元位置及び物体構成面の形状や
傾き情報を計測できることが望ましい。
Thus, in the measurement of three-dimensional information of a real object, it is not limited to the case where a light pattern can be projected onto the object. It is desirable that the edge part in the pattern drawn on the object constituting surface is detected. Furthermore, for an object that is sufficiently close to the extent that a light pattern can be projected, the three-dimensional position of the actual edge portion and the shape and inclination information of the object configuration surface, which cannot be obtained only by the information on the grayscale difference, are obtained without changing the device configuration. It is desirable to be able to measure.

【0019】本発明は、上記の点に鑑みなされたもの
で、上記従来の問題点を解決し、物体に対して特殊な照
明光源を用意することなく、外部的な照明光だけによっ
て得られた物体像から実エッジ部分及び物体構成表面上
に描かれた濃淡差の大きい模様中のエッジ部分の3次元
位置情報を計測することができる物体計測装置を提供す
ることを目的とする。
The present invention has been made in view of the above points, and has been achieved by solving the above-mentioned conventional problems and by using only external illumination light without preparing a special illumination light source for an object. It is an object of the present invention to provide an object measuring device capable of measuring three-dimensional position information of an actual edge portion and an edge portion in a pattern having a large shade difference drawn on the surface of the object constituting the object image.

【0020】また、本発明は、光パターンが投影できる
程度十分距離が近い物体については、装置構成を変える
ことなく、さまざなな形状の光パターンを物体に投影す
ることにより濃淡差の情報だけでは得られない実エッジ
部分の3次元位置及び物体構成面の形状や傾き情報を計
測可能とする物体計測装置を提供することを目的とす
る。
Further, according to the present invention, for an object that is sufficiently close to the extent that a light pattern can be projected, by projecting light patterns of various shapes on the object without changing the device configuration, it is possible to obtain only the information on the grayscale difference. An object of the present invention is to provide an object measuring device capable of measuring the three-dimensional position of an unobtainable real edge portion and the shape and inclination information of the object constituting surface.

【0021】さらに、本発明は、最終的な高速な処理を
可能とし、かつコンパクトな実装で実現できる3次元物
体を計測できる物体計測装置を提供することを目的とす
る。
A further object of the present invention is to provide an object measuring apparatus capable of performing final high-speed processing and capable of measuring a three-dimensional object which can be realized by compact mounting.

【0022】[0022]

【課題を解決するための手段】図1は、本発明の原理構
成図(その1)である。
FIG. 1 is a principle configuration diagram (1) of the present invention.

【0023】本発明の物体計測装置は、焦点距離を連続
的に変化させる焦点可変手段120と、焦点可変手段1
20により結像された光画像の中からピントの合ったエ
ッジ部分を抽出する光エッジ検出手段130と、エッジ
部の2次元的な位置座標とその時の焦点距離を出力する
3次元位置検出手段140を有し、実物体の実エッジ部
分及び物体構成面上に描かれた濃淡差のある模様中のエ
ッジ部分の3次元位置を計測する。
The object measuring apparatus of the present invention comprises a focus changing means 120 for continuously changing the focal length and a focus changing means 1.
Optical edge detecting means 130 for extracting a focused edge portion from the optical image formed by 20, and three-dimensional position detecting means 140 for outputting the two-dimensional position coordinates of the edge portion and the focal length at that time. And measures the three-dimensional positions of the real edge portion of the real object and the edge portion in the pattern having a shade difference drawn on the object constituting surface.

【0024】図2は、本発明の原理構成図(その2)で
ある。
FIG. 2 is a principle configuration diagram (No. 2) of the present invention.

【0025】本発明の物体計測装置は、上記の図1の構
成に、さまざまな形状の光パターンを物体に照射する光
パターン投影手段150を付加して、濃淡差の情報だけ
では得られない、実エッジ部分の3次元位置及び物体構
成面の形状や傾きを計測可能とする。
The object measuring apparatus according to the present invention is not able to obtain the information only on the gray level difference by adding the light pattern projection means 150 for irradiating the object with the light patterns of various shapes to the above-mentioned configuration of FIG. It is possible to measure the three-dimensional position of the actual edge portion and the shape and inclination of the object constituting surface.

【0026】[0026]

【作用】本発明は、焦点可変手段120により結像され
た光画像から外部照明光により照明された実物体の実エ
ッジ部分及び物体構成面上の濃淡差のある模様中のエッ
ジ部分を抽出して、ぼけたエッジ部分を除去してピント
の合ったエッジ部分が検出できる。さらに、3次元位置
検出手段140によりそれぞれの焦点距離において、物
体のピントの合った実エッジ部分、物体構成面上に描か
れた濃淡差のある模様のエッジ部分、物体構成面に投影
されたピントが合っている光パターンの2次元的な位置
座標を検出することにより、物体の3次元位置情報を計
測することができる。
According to the present invention, the real edge portion of the real object illuminated by the external illumination light and the edge portion in the shaded pattern on the object constituting surface are extracted from the optical image formed by the focus varying means 120. By removing the blurred edge portion, the focused edge portion can be detected. Further, at each focal length by the three-dimensional position detecting means 140, the actual edge portion of the object in focus, the edge portion of the pattern having a shade on the object constituting surface, and the focus projected on the object constituting surface. The three-dimensional position information of the object can be measured by detecting the two-dimensional position coordinates of the matching light pattern.

【0027】また、本発明は、光パターン投影手段15
0を上記の物体計測装置の構成に加えることにより、あ
る形状の光パターンが物体に投影されている場合には、
物体構成面上に投影された特定の光パターンのみを検出
し、濃淡差の情報だけでは得られない実エッジ部分の3
次元位置及び物体構成面の形状や傾きを、外部的な照明
における物体計測結果と様々な形状の光パターンを投影
して得た物体計測結果を合成して、それぞれの3次元位
置情報を同時に出力することが可能である。
Further, according to the present invention, the light pattern projection means 15 is provided.
By adding 0 to the configuration of the above object measuring apparatus, when a light pattern of a certain shape is projected on the object,
Only the specific light pattern projected on the object configuration surface is detected, and 3
The 3D position information is output simultaneously by combining the 3D position and the shape and inclination of the object configuration surface with the object measurement result obtained by external illumination and the object measurement result obtained by projecting light patterns of various shapes. It is possible to

【0028】[0028]

【実施例】以下、図面と共に本発明の実施例を詳細に説
明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0029】図3は、本発明の第1の実施例のシステム
構成を示す。同図に示す物体計測装置200は、焦点可
変手段120である焦点可変レンズ220、焦点距離保
持レジスタ250、焦点距離制御部230、光エッジ検
出手段130である光エッジ検出部240、3次元位置
検出手段140である2次元位置検出部260より構成
される。
FIG. 3 shows the system configuration of the first embodiment of the present invention. The object measuring apparatus 200 shown in the figure has a focus variable lens 220 which is a focus varying means 120, a focal length holding register 250, a focal length control section 230, an optical edge detecting section 240 which is an optical edge detecting section 130, and a three-dimensional position detection It is composed of a two-dimensional position detector 260 which is the means 140.

【0030】自然光或いは外部照明光によって照明され
た入力物体の像は、焦点可変レンズ220を通して、光
エッジ検出部240に入力される。焦点可変レンズ22
0の焦点距離は、焦点距離制御部230により制御され
る。また、焦点距離制御部230により設定された焦点
距離の値は、焦点距離保持レジスタ250に格納され
る。光エッジ検出部240は、焦点可変レンズ220に
より結像した物体の光画像中からピントの合った濃淡差
の大きい部分をエッジ部分として検出する。ピントがあ
ったエッジ部分の各点の平面位置座標は、2次元位置検
出部260により検出され、焦点距離保持レジスタ25
0に格納された焦点距離とともに出力される。物体計測
のためには、焦点距離制御部230は、ある焦点距離の
値をとるように、焦点可変レンズ220の焦点を制御
し、その時の焦点距離の値を奥行き情報として出力す
る。一方、光エッジ検出部240、2次元位置検出素子
260は、その焦点距離において結像された画像中から
ピントが合ったエッジ部分について2次元座標値を出力
する。これを焦点距離のさまざまな値について繰り返す
ことにより、物体計測を可能とする。
The image of the input object illuminated by natural light or external illumination light is input to the optical edge detector 240 through the variable focus lens 220. Focus variable lens 22
The focal length of 0 is controlled by the focal length control unit 230. The value of the focal length set by the focal length control unit 230 is stored in the focal length holding register 250. The optical edge detection unit 240 detects, as an edge portion, a focused portion having a large grayscale difference from the optical image of the object formed by the variable focus lens 220. The two-dimensional position detection unit 260 detects the plane position coordinates of each point of the edge portion that is in focus, and the focal length holding register 25
It is output together with the focal length stored in 0. For object measurement, the focal length control unit 230 controls the focal point of the variable focus lens 220 so as to take a certain focal length value, and outputs the focal length value at that time as depth information. On the other hand, the optical edge detection unit 240 and the two-dimensional position detection element 260 output two-dimensional coordinate values for the focused edge portion in the image formed at the focal length. By repeating this for various values of the focal length, it is possible to measure the object.

【0031】以下、物体計測装置200の各部を詳細に
説明する。焦点可変レンズ220及び焦点制御部230
は、例えば、電動式のズームレンズであってもよい。本
実施例では焦点可変レンズ220は、電動ズームレンズ
であり、焦点距離制御部230は、電動ズームレンズの
回転量を制御するものである。最も簡単な実現例は、単
レンズの前後の移動である。焦点距離は、レンズの前後
への移動距離により変えることができる。この場合に、
焦点可変レンズ220は、前後に移動可能なレンズであ
るので、焦点距離制御部230は、レンズの前後移動量
を制御するステージである。以上の例は、機械的な動作
により焦点距離を変えるものである。
Hereinafter, each part of the object measuring device 200 will be described in detail. Focus variable lens 220 and focus control unit 230
May be, for example, an electric zoom lens. In this embodiment, the variable focus lens 220 is an electric zoom lens, and the focal length control unit 230 controls the rotation amount of the electric zoom lens. The simplest implementation is to move the single lens back and forth. The focal length can be changed by moving the lens back and forth. In this case,
Since the focus variable lens 220 is a lens that can move back and forth, the focal length control unit 230 is a stage that controls the amount of front and back movement of the lens. In the above example, the focal length is changed by a mechanical operation.

【0032】また、機械的な動作を必要としない方法も
存在する。例えば、フレネルレンズのように、同心円上
の回析パターンを描くことにより、レンズと同じ役割を
果たすことが知られている。
There are also methods that do not require mechanical operation. For example, like a Fresnel lens, it is known to play the same role as a lens by drawing a diffraction pattern on a concentric circle.

【0033】図4は、本発明の第1の実施例の焦点可変
レンズ及び焦点距離制御部の構成例を示す。同図におい
て、フレネルレンズパターンは、透過型液晶パネル50
0に表示される。また、焦点距離制御部230は、表示
すべきフレネルレンズパターンを生成し、透過型液晶パ
ネル500に表示させる制御器となる。焦点距離の変化
は表示するフレネルレンズパターンの形状を変えること
により実現でき、機械的動作を必要としない。これによ
り、高速な焦点可変レンズ220を実現できる。フレネ
ルレンズパターンの表示は必ずしも透過型液晶パネル5
00に限られるものではなく、種々の空間光変調器によ
り実現できる。
FIG. 4 shows an example of the configuration of the variable focus lens and the focal length control section of the first embodiment of the present invention. In the figure, the Fresnel lens pattern is a transmissive liquid crystal panel 50.
Displayed at 0. The focal length control unit 230 also serves as a controller that generates a Fresnel lens pattern to be displayed and causes the transmissive liquid crystal panel 500 to display it. The change in the focal length can be realized by changing the shape of the Fresnel lens pattern to be displayed, and does not require mechanical operation. Thereby, the high-speed variable focus lens 220 can be realized. The Fresnel lens pattern is not always displayed on the transmissive liquid crystal panel 5.
However, it is not limited to 00 and can be realized by various spatial light modulators.

【0034】光エッジ検出部240についても様々な構
成がある。例えば、空間並列光ディジタル演算により画
像中から濃淡のエッジ部分を高速に検出する方法が知ら
れている。例えば、S.D.Goodman らによる文献『記号置
換法の画像処理への適用("Symbolic substitution appl
ication to image processing") 、Applied Optics Vo
l.27 p.1708(1988)) 』にはその一例が記載されてい
る。また、空間光変調器を用いた方法もある。例えば、
鈴木等による文献『FLC-SLM を用いた画像のエッジ検
出」、第53回応用物理学会講演予稿集17p-Q-12,1992
年に提案されている方法がある。この方法では、空間光
変調器の特性を用いて像から直接輪郭線を検出し、さら
に光学的フィルタリングを施すことにより、画像うちピ
ントの合ったエッジ部分を明るいエッジ像として検出す
るものである。
The optical edge detector 240 also has various configurations. For example, a method is known in which a grayscale edge portion is detected at high speed from an image by spatial parallel optical digital calculation. For example, SD Goodman et al. “Apply the symbol substitution method to image processing (“ Symbolic substitution appl ”
ication to image processing "), Applied Optics Vo
l.27 p.1708 (1988)) ”, an example thereof is described. There is also a method using a spatial light modulator. For example,
Suzuki et al., "Image edge detection using FLC-SLM", Proceedings of the 53rd Japan Society of Applied Physics 17p-Q-12,1992
There is a method proposed in the year. In this method, the contour line is directly detected from the image by using the characteristic of the spatial light modulator, and further the optical filtering is applied to detect the focused edge portion of the image as a bright edge image.

【0035】焦点距離保持レジスタ250は、焦点距離
を記憶するためのレジスタまたは、小容量のメモリでよ
い。2次元位置検出部260は、2次元フォトダイオー
ドアレイや1次元位置検出素子を平面的に並べたものな
どである。
The focal length holding register 250 may be a register for storing the focal length or a small capacity memory. The two-dimensional position detecting unit 260 is a two-dimensional photodiode array or one-dimensional position detecting elements arranged in a plane.

【0036】図5は、本発明の第1の実施例の物体計測
装置の具体的な構成を示す。同図は、空間並列ディジタ
ル演算によりエッジ検出を行う場合の物体計測装置の例
である。同図に示す物体計測装置は、液晶レンズ20、
フレネルレンズパターン表示制御器21、焦点距離保持
レジスタ22、2次元光素子30、光源31、レンズア
レイ32、レンズ33、偏光ビームスプリッタ34、レ
ンズ35、レンズアレイ36、1/2波長板37、複屈
折板アレイ38、レンズアレイ39、レンズ40、光閾
値素子41、2次元フォトダイオードアレイ60及びそ
れらを接続する光路1、5及び信号線2、3、6、7よ
り構成される。
FIG. 5 shows a specific structure of the object measuring apparatus according to the first embodiment of the present invention. The figure shows an example of an object measuring apparatus in the case of performing edge detection by spatial parallel digital calculation. The object measuring device shown in FIG.
Fresnel lens pattern display controller 21, focal length holding register 22, two-dimensional optical element 30, light source 31, lens array 32, lens 33, polarization beam splitter 34, lens 35, lens array 36, half-wave plate 37, compound lens It comprises a refraction plate array 38, a lens array 39, a lens 40, an optical threshold element 41, a two-dimensional photodiode array 60, optical paths 1 and 5 and signal lines 2, 3, 6 and 7 connecting them.

【0037】まず、自然光または、外部照明光により照
明された入力物体像10は、光路1のように液晶レンズ
20を通過し、2次元光素子30に書き込まれ、記憶さ
れる。この時、書き込まれる画像において、焦点距離が
合っているエッジ部分は濃淡差が大きく、焦点距離が合
っていないエッジ部分は、濃淡差が小さくぼけたエッジ
像となる。液晶レンズ20は、図4に示したような透過
型液晶パネル500であり、フレネルレンズパターン表
示制御部21は、液晶レンズ20に表示するフレネルレ
ンズパターンを生成し、信号線2を介して、液晶レンズ
20に表示させる制御器である。一方、フレネルレンズ
パターン表示制御部21は、その時の焦点距離の値を信
号線3を介して焦点距離保持レジスタ22に格納する。
First, the input object image 10 illuminated by natural light or external illumination light passes through the liquid crystal lens 20 like the optical path 1 and is written and stored in the two-dimensional optical element 30. At this time, in the image to be written, the edge portion where the focal length is matched has a large shade difference, and the edge portion where the focal length is not matched is a blurred edge image with a small shade difference. The liquid crystal lens 20 is the transmissive liquid crystal panel 500 as shown in FIG. 4, and the Fresnel lens pattern display control unit 21 generates a Fresnel lens pattern to be displayed on the liquid crystal lens 20, and the liquid crystal is transmitted via the signal line 2. It is a controller for displaying on the lens 20. On the other hand, the Fresnel lens pattern display control unit 21 stores the value of the focal length at that time in the focal length holding register 22 via the signal line 3.

【0038】2次元光素子30は、インコヒーレント光
画像または、レーザ光画像を書込み、記憶し、読み出す
ことのできる光素子である。そのような光素子として
は、例えば、福島等による文献『強誘伝性液晶を用いた
双安定空間光変調器("Bistable spatial light modula
tor using a ferroelectric liquid-crystal")』、Opti
cs Letters Vol.15 p.285(1990))に記載されている強誘
電性液晶空間光変調器ががあげられる。図6は、強誘電
性液晶空間光変調器の構成を示す。同図において、強誘
電性液晶空間光変調器は、透明電極(ITO)をコート
した2枚のガラス301、301’の間に、水素化アモ
ルファスシリコンの伝導膜(a-Si:H PC)304、誘電ミ
ラー(DM)306、及び強誘電性液晶305をはさん
だ構造である。図4の左方向から消去光と入力として書
込み光が照射される。一方、右側から直線変更の光が照
射されると、書き込まれた光画像の光強度(明るさ)に
応じて、読み出し光の偏光状態が変化する。即ち、書き
込まれた光画像が明るい部分で、読み出し後の光の偏光
状態は、入射された光とは直交した偏光状態の光とな
る。一方、書き込まれた光画像が暗い部分では、読み出
し後の光の偏光状態は、入射された光と同じ偏光状態の
光のままである。従って、読み出し後の光の行路上に入
射光の偏光状態とは直交する偏光状態の光を通過させる
偏光板を入れることにより、書込み画像と同様な光画像
を得ることができ、入射光の偏光状態と同じ偏光状態の
光を通過させる偏光板を入れると、反転画像が得られる
ことになる。また、図6に示す空間光変調器に使用する
液晶は、強誘電性液晶に限定されるものではない。ま
た、BSO等の光学的複屈折性をもつ結晶や磁気光学効
果をもつ材料を用いて同様な空間光変調器は実現でき
る。
The two-dimensional optical element 30 is an optical element capable of writing, storing and reading an incoherent light image or a laser light image. Examples of such an optical element include, for example, the document “Bistable spatial light modulator using a strongly conductive liquid crystal (“ Bistable spatial light modulator ”by Fukushima et al.
tor using a ferroelectric liquid-crystal ")”, Opti
The ferroelectric liquid crystal spatial light modulator described in cs Letters Vol.15 p.285 (1990)) can be mentioned. FIG. 6 shows the structure of a ferroelectric liquid crystal spatial light modulator. In the same figure, a ferroelectric liquid crystal spatial light modulator has a conductive film (a-Si: H PC) 304 of hydrogenated amorphous silicon between two glass plates 301 and 301 'coated with transparent electrodes (ITO). , A dielectric mirror (DM) 306, and a ferroelectric liquid crystal 305. The erasing light and the writing light as an input are emitted from the left side of FIG. On the other hand, when the light for changing the straight line is irradiated from the right side, the polarization state of the read light changes according to the light intensity (brightness) of the written optical image. That is, in the bright portion of the written optical image, the polarization state of the read light becomes the light in the polarization state orthogonal to the incident light. On the other hand, in the dark portion of the written optical image, the polarization state of the read light remains the same as the incident light. Therefore, an optical image similar to the written image can be obtained by inserting a polarizing plate on the optical path of the read light so that the light having a polarization state orthogonal to the polarization state of the incident light is inserted. If a polarizing plate that allows light having the same polarization state as that of the above-mentioned state to pass is inserted, an inverted image will be obtained. The liquid crystal used in the spatial light modulator shown in FIG. 6 is not limited to the ferroelectric liquid crystal. Further, a similar spatial light modulator can be realized by using a crystal having an optical birefringence such as BSO or a material having a magneto-optical effect.

【0039】図5において、光源31から行路4のよう
に出射した直線偏光の光は、レンズアレイ32により複
数の点光源となる。さらに、レンズ33、偏光ビームス
プリッタ34を通り、2次元光素子を照射する。このと
き、レンズアレイ32によって生成された複数点の光源
からの光線は、2次元素子30に書き込まれ物体の画像
を同時に読み出す。2次元光素子30から反射された光
線は、光路5のように、レンズ35、レンズアレイ36
を通過する。さらに1/2波長板37により光源31と
同じ偏光情報の光となる。複屈折板アレイ38の手前で
は、光路5の光画像は、2次元光素子30に書き込まれ
た光画像が多重結像した光画像となっている。
In FIG. 5, the linearly polarized light emitted from the light source 31 as shown by the path 4 becomes a plurality of point light sources by the lens array 32. Further, the light passes through the lens 33 and the polarization beam splitter 34 to illuminate the two-dimensional optical element. At this time, the light rays from the light sources at a plurality of points generated by the lens array 32 are written in the two-dimensional element 30 and the image of the object is read out at the same time. The light beam reflected from the two-dimensional optical element 30 has a lens 35 and a lens array 36 as in the optical path 5.
Pass through. Further, the half-wave plate 37 makes the light of the same polarization information as the light source 31. In front of the birefringent plate array 38, the optical image of the optical path 5 is an optical image in which the optical images written in the two-dimensional optical element 30 are multiplexed.

【0040】複屈折板アレイ38は、特定の形状のエッ
ジを持った画像部分だけを検出するように、多重結像さ
れた光画像のそれぞれについて、ある一定の方向に一定
の量だけ画像をシフトするように屈折させる。
The birefringent plate array 38 shifts the image of each of the multiple-focused optical images in a certain direction by a certain amount so as to detect only an image portion having an edge of a particular shape. Refract as you do.

【0041】さらにレンズアレイ39、レンズ40を通
過した後、光閾値素子41上では、複屈折板アレイ38
により、各々一定の方向に一定の量だけシフトした画像
は、重ね合わされ1つの画像となる。光閾値素子41
は、重ね合わされた画像のうち、各点における光強度を
閾値処理し、2値化する。即ち、閾値よりも強い光強度
を持つ点は明るい点として、閾値よりも弱い光強度をも
つ点は暗い点となる。このような光閾値素子41は、一
般の空間光変調器で実現できる。
After passing through the lens array 39 and the lens 40, the birefringent plate array 38 is provided on the optical threshold element 41.
As a result, the images respectively shifted by a certain amount in a certain direction are superimposed to form one image. Optical threshold element 41
Of the superposed images, the light intensity at each point is thresholded and binarized. That is, points having light intensity higher than the threshold value are bright points, and points having light intensity lower than the threshold value are dark points. Such an optical threshold element 41 can be realized by a general spatial light modulator.

【0042】光閾値素子41において、閾値以上の強度
を持つ点はエッジ部分において、ピントが合っており、
濃淡差が大きいエッジ部分である。2次元フォトダイオ
ードアレイ60は、画像中で明るい点の2次元平面位置
座標を信号線6を介して出力する。これにより、物体の
3次元位置情報70のうち、ある焦点距離におけるピン
トの合ったエッジ部分の位置座標が計測される。一方、
焦点距離保持レジスタ22は、この時の焦点距離の値を
信号線7を介して出力するので、物体の3次元位置情報
70のうち物体の奥行き情報が計測できる。
In the optical threshold element 41, a point having an intensity equal to or higher than the threshold is in focus at the edge portion,
This is an edge part where the difference in shade is large. The two-dimensional photodiode array 60 outputs the two-dimensional plane position coordinates of a bright point in the image via the signal line 6. As a result, the position coordinates of the focused edge portion at a certain focal length in the three-dimensional position information 70 of the object are measured. on the other hand,
Since the focal length holding register 22 outputs the value of the focal length at this time through the signal line 7, the depth information of the object can be measured among the three-dimensional position information 70 of the object.

【0043】次に、第1の実施例の他の例を示す。本実
施例は、上記の第1の実施例の図5の別のパターンの物
体計測装置の構成である。但し、図3に示すシステム構
成は同様である。
Next, another example of the first embodiment will be shown. The present embodiment is a configuration of an object measuring device having another pattern of FIG. 5 of the first embodiment. However, the system configuration shown in FIG. 3 is the same.

【0044】図7は、本発明の第1の実施例の他の物体
計測装置の構成図である。同図に示す物体計測装置は、
鈴木等による文献『FLC-SLM を用いた画像のエッジ検
出」、第53回応用物理学会講演予稿集17 p-Q-12,1992
年』のエッジ検出方法を用いた場合の例である。
FIG. 7 is a block diagram of another object measuring apparatus according to the first embodiment of the present invention. The object measuring device shown in FIG.
Suzuki et al., "Image edge detection using FLC-SLM", Proceedings of the 53rd Japan Society of Applied Physics 17 pQ-12,1992
This is an example when the edge detection method of “year” is used.

【0045】図7に示す物体計測装置は、液晶レンズ2
0、フレネルレンズパターン表示制御器21、焦点距離
保持レジスタ22、光輪郭抽出素子50、光源51、偏
光ビームスプリッタ52、レンズ53、偏光ビームスプ
リッタ54、光フィルタリング素子55、フィルタパタ
ーン56、レンズ57、レンズ58、2次元フォトダイ
オードアレイ60、光路1、5、9及び信号線2、3、
6、7、8より構成される。
The object measuring device shown in FIG.
0, Fresnel lens pattern display controller 21, focal length holding register 22, light contour extraction element 50, light source 51, polarization beam splitter 52, lens 53, polarization beam splitter 54, optical filtering element 55, filter pattern 56, lens 57, The lens 58, the two-dimensional photodiode array 60, the optical paths 1, 5, 9 and the signal lines 2, 3,
It is composed of 6, 7, and 8.

【0046】まず、自然光または、外部照明光により照
明された入力物体の像10は、液晶レンズ20を通過し
て光輪郭抽出素子50に書き込まれる。ここで、液晶レ
ンズ20、フレネルレンズパターン表示制御器21及び
焦点距離保持レジスタ22の構成及び動作は図5と同様
である。
First, the image 10 of the input object illuminated by natural light or external illumination light passes through the liquid crystal lens 20 and is written in the light contour extraction element 50. Here, the configurations and operations of the liquid crystal lens 20, the Fresnel lens pattern display controller 21, and the focal length holding register 22 are the same as those in FIG.

【0047】光源51から出射された直線偏光の光は、
光路4のように偏光ビームスプリッタ42を通り、光輪
郭抽出素子50を照射する。光輪郭抽出素子50は、図
6に示した強誘電性液晶空間光変調器と同様の光素子で
あるが、前述した鈴木らの方法を用いることにより、直
接エッジ像を読み出すことができる。即ち、入射光の偏
光方向と液晶のラビング方法(液晶に電圧信号がかかて
いない場合の配向方向と一致させると、濃淡差の境界部
分が輪郭像として得られることを利用して、物体の輪郭
線を抽出するものである。但し、輪郭像において、焦点
距離が合っているエッジ部分は線幅が細い輪郭として現
れる。読み出されたエッジ像は、レンズ53を通過する
ことにより、光学的にフーリエ変換され、光フィルタリ
ング素子55上で光学フーリエ変換像となる。光フィル
タリング素子55は、図6の空間光変調器であり、通常
の2値化を行う光素子でる。光フィルタリング素子55
には、フィルタパターン56が結像レンズ57通して書
き込まれる。従って、光フィルタリング素子55上で、
読み出し側の光学フーリエ変換像と書き込まれたフィル
タパターンとの積画像が読み出し後の画像となる。フィ
ルタリングされた光画像は、レンズ58を通過して2次
元フォトダイオードアレイ60上に到達するが、この時
得られるエッジ像は、ピントが合ったエッジ部分だけ明
るく(光強度的に強く)出力される。従って、2次元フ
ォトダイオードアレイ60は、明るいエッジ部分が存在
する部分の位置座標を信号線6を介して出力すればよ
い。これにより、物体の3次元位置情報70のうちある
焦点距離におけるピントの合ったエッジ部分の位置座標
が計測される。一方、焦点距離保持レジスタ22は、こ
の時の焦点距離の値を信号線7を介して出力するので、
物体の3次元位置情報70のうち奥行き情報も計測され
る。
The linearly polarized light emitted from the light source 51 is
The light beam is extracted from the light contour extraction element 50 through the polarization beam splitter 42 like the optical path 4. The light contour extraction element 50 is an optical element similar to the ferroelectric liquid crystal spatial light modulator shown in FIG. 6, but the edge image can be read directly by using the method of Suzuki et al. That is, the polarization direction of the incident light and the rubbing method of the liquid crystal (when the alignment direction when the voltage signal is not applied to the liquid crystal is made coincident, the boundary portion of the grayscale difference is obtained as a contour image, A contour line is extracted, except that an edge portion having a matching focal length appears as a contour having a narrow line width in the contour image. Fourier transform into an optical Fourier transform image on the optical filtering element 55. The optical filtering element 55 is the spatial light modulator of Fig. 6 and is an optical element that performs normal binarization.
The filter pattern 56 is written in the image data through the imaging lens 57. Therefore, on the optical filtering element 55,
The product image of the optical Fourier transform image on the readout side and the written filter pattern is the image after readout. The filtered light image passes through the lens 58 and reaches the two-dimensional photodiode array 60, but the edge image obtained at this time is output brightly (strong in light intensity) only at the focused edge portion. It Therefore, the two-dimensional photodiode array 60 may output the position coordinates of the portion where the bright edge portion exists via the signal line 6. As a result, the position coordinates of the focused edge portion at a certain focal length in the three-dimensional position information 70 of the object are measured. On the other hand, since the focal length holding register 22 outputs the value of the focal length at this time through the signal line 7,
The depth information of the three-dimensional position information 70 of the object is also measured.

【0048】図8は、本発明の第1の実施例の計測物体
と計測結果の関係を示す。物体はくさび型の物体であ
り、物体の左方向からは(a)に示すように、物体の上
方向からは(b)のように、物体の左方向からは(c)
の図のように見えるように置かれているものとする。ま
た、物体計測方向及び外部照明光方向は同図に示す矢印
の方向であるとする。(d)は計測方向から見える実エ
ッジ像であるが、物体は奥行き方向に広がりがあるた
め、テレビカメラは全てのエッジにピントが合った状態
では検出できない。
FIG. 8 shows the relationship between the measurement object and the measurement result according to the first embodiment of the present invention. The object is a wedge-shaped object, as shown in (a) from the left side of the object, (b) from above the object, and (c) from the left side of the object.
It should be placed so that it looks like the figure. Further, the object measurement direction and the external illumination light direction are assumed to be the directions of the arrows shown in the figure. (D) is a real edge image seen from the measurement direction, but since the object has a spread in the depth direction, the television camera cannot detect it when all the edges are in focus.

【0049】ここで、焦点距離を変化させ、1、2、3
の面にピントが合った場合に検出できるエッジ像をそれ
ぞれ(e),(f),(g)に示す。
Here, the focal length is changed to 1, 2, 3
Edge images that can be detected when the surface is focused are shown in (e), (f), and (g), respectively.

【0050】このように第1の実施例の方法により、各
焦点距離でピントが合ったエッジ部分が検出される。し
かし、この場合、手前側のエッジ部分は図8の外部照明
方向では濃度差を生じないため、検出できない。
As described above, according to the method of the first embodiment, the focused edge portion is detected at each focal length. However, in this case, the edge portion on the front side cannot be detected because there is no density difference in the external illumination direction in FIG.

【0051】[第2の実施例]次に、本発明の第2の実
施例について述べる。
[Second Embodiment] Next, a second embodiment of the present invention will be described.

【0052】図9は、本発明の第2の実施例のシステム
構成を示し、図3と同一構成部分には、同一符号を付
す。
FIG. 9 shows the system configuration of the second embodiment of the present invention. The same components as those in FIG. 3 are designated by the same reference numerals.

【0053】まず、同図に基づいて、第2の実施例のシ
ステム全体を説明する。図9に示すシステムは、図3に
示す構成に、光パターン投影手段150である光パター
ン投影光源270が付加された構成である。
First, the entire system of the second embodiment will be described with reference to FIG. The system shown in FIG. 9 has a configuration in which a light pattern projection light source 270, which is the light pattern projection unit 150, is added to the structure shown in FIG.

【0054】ここでは、光パターン投影光源270から
発光した光パターンが物体に照射される。光パターンが
投影された入力物体の像は、焦点可変レンズ220を通
して、光エッジ検出部280に入力される。焦点可変レ
ンズ220の焦点距離は、焦点距離制御部230により
制御される。また、焦点距離制御部230により設定さ
れた焦点距離の値は、焦点距離保持レジスタ250に格
納される。光エッジ検出部240は、焦点可変レンズ2
20を介して入力された物体像の中から特定の形状の光
パターンを検出するものである。検出された光パターン
は、2次元位置検出素子260に送られる。2次元位置
検出素子260は、光パターンの存在する平面位置座標
を検出するものである。物体計測のためには、焦点距離
制御部230は、ある焦点距離の値をとるように焦点可
変レンズ220の焦点を制御すると共に、その時の焦点
距離の値を得る。一方、光エッジ検出素子240と2次
元位置検出素子260は、ピントが合ったエッジ部分だ
けを検出し、その光パターンが存在する2次元位置座標
を焦点距離保持レジスタ250に格納された焦点距離と
ともに出力する。これを焦点距離のさまざまな値につい
て繰り返すことにより、物体計測を可能とする。
Here, the object is irradiated with the light pattern emitted from the light pattern projection light source 270. The image of the input object on which the light pattern is projected is input to the optical edge detection unit 280 through the variable focus lens 220. The focal length of the variable focus lens 220 is controlled by the focal length controller 230. The value of the focal length set by the focal length control unit 230 is stored in the focal length holding register 250. The optical edge detection unit 240 uses the variable focus lens 2
A light pattern having a specific shape is detected from the object image input via 20. The detected light pattern is sent to the two-dimensional position detecting element 260. The two-dimensional position detecting element 260 detects the plane position coordinates where the light pattern exists. For object measurement, the focal length control unit 230 controls the focal point of the variable focus lens 220 so as to take a certain focal length value, and also obtains the focal length value at that time. On the other hand, the optical edge detection element 240 and the two-dimensional position detection element 260 detect only the in-focus edge portion, and the two-dimensional position coordinates where the optical pattern exists are recorded together with the focal length stored in the focal length holding register 250. Output. By repeating this for various values of the focal length, it is possible to measure the object.

【0055】焦点可変レンズ220、焦点距離制御部2
30、光エッジ検出部240、焦点距離保持レジスタ2
50、2次元検出素子260の構成方法は、前述したも
のと同様である。
Focus variable lens 220, focal length control unit 2
30, optical edge detector 240, focal length holding register 2
50, the method of configuring the two-dimensional detection element 260 is the same as that described above.

【0056】第2の実施例の具体的な例については、光
パターン投影光源270を除いて前述の図4、図5で説
明された構成と同一であるので、本実施例では、第1の
実施例と同様の部分については説明を省略する。
The specific example of the second embodiment is the same as the configuration described in FIGS. 4 and 5 except for the light pattern projection light source 270, so that in the present embodiment, the first embodiment is used. Description of the same parts as those in the embodiment will be omitted.

【0057】図10は、光パターン投影光源の構成を示
す。光パターン投影光源は、光源81、回析格子82及
びレンズ83より構成される。光源81から出射された
光線は、回析格子82により、多数呼の光パターンとし
て回析される。回析格子82を通過した光は、レンズ8
3により平行光線となり、ある形状の光パターンが2次
元的に分布したものとなる。投影する光パターンの形状
としては、様々なものが考えられる。
FIG. 10 shows the structure of the light pattern projection light source. The light pattern projection light source includes a light source 81, a diffraction grating 82 and a lens 83. The light beam emitted from the light source 81 is diffracted by the diffraction grating 82 as a multicall optical pattern. The light that has passed through the diffraction grating 82 is reflected by the lens 8
3 makes parallel light rays, and a certain-shaped light pattern is two-dimensionally distributed. Various shapes can be considered as the shape of the projected light pattern.

【0058】図11は、物体に投影する光パターンの形
状を示す。同図(a)は、横線のスリット光が縦方向に
一定間隔で並んだ光パターンである。同図(b)は、縦
線の複数スリット光が横方向に一定間隔で並んだ光パタ
ーンである。同図(c)は、十字型の光パターンが、縦
横方向に一定間隔で並んだ光パターンである。光パター
ンの形状は、これだけに限られるものでないが、縦及び
横線スリット光及び十字型の光パターンの場合には、回
析格子による生成が容易であること、投影されたパター
ンは、縦、横又は斜め方向の直線またはその組み合わせ
の光パターンとなるため、光エッジ検出部240での検
出が容易であるという利点を持つ。
FIG. 11 shows the shape of the light pattern projected on the object. FIG. 4A shows an optical pattern in which slit light of horizontal lines is arranged in the vertical direction at regular intervals. FIG. 2B shows an optical pattern in which a plurality of slit light beams of vertical lines are arranged in the horizontal direction at regular intervals. FIG. 3C is a light pattern in which cross-shaped light patterns are arranged at regular intervals in the vertical and horizontal directions. The shape of the light pattern is not limited to this, but in the case of vertical and horizontal line slit light and a cross-shaped light pattern, it is easy to generate with a diffraction grating, and the projected pattern is vertical and horizontal. Alternatively, since the light pattern is an oblique straight line or a combination thereof, there is an advantage that the light edge detection unit 240 can easily detect the light pattern.

【0059】第2の実施例における焦点可変レンズ22
0、焦点距離制御装置230、2次元位置検出部260
(素子)、焦点距離保持レジスタ250の構成は第1の
実施例と同様である。図9における光パターン検出素子
280も第1の実施例と同様であって構わない。但し、
図5における複屈折アレイ36での画像のシフトの方法
及び大きさは投影された光パターンを検出できるように
調節されている必要がある。図7においては、フィルタ
リングパターン46は、投影された光パターンを検出で
きるパターンにする必要がある。
Focus variable lens 22 in the second embodiment.
0, focal length control device 230, two-dimensional position detection unit 260
The configuration of the (element) and the focal length holding register 250 is the same as that of the first embodiment. The optical pattern detection element 280 in FIG. 9 may be the same as that in the first embodiment. However,
The method and magnitude of image shifting in the birefringent array 36 in FIG. 5 needs to be adjusted so that the projected light pattern can be detected. In FIG. 7, the filtering pattern 46 needs to be a pattern that can detect the projected light pattern.

【0060】図12は、本発明の第2の実施例の計測物
体と計測結果の関係を示す。物体の置き方は、図8と同
様である。光パターンの投影光源は、図12に示すよう
に、斜め上方向から照射するものとする。また、投影す
る光パターンの形状は、図11(a)に示すような縦線
の複数スリット光が横方向に一定間隔で並んだ光パター
ンとする。図12において、焦点距離を変化させ、1〜
3の面にピントが合った場合に検出できる光パターン像
をそれぞれ(e),(f),(g)に示す。光パターン
は物体構成面上に投影されるため、奥行き方向に傾いた
物体面の場合、各焦点距離において、ピントが合った時
奥行きに存在する光パターンだけが検出され、物体面の
傾きが検出できる。また、物体の手前のエッジ部分は、
図8においては、濃淡差がないため、検出できなかった
が、図12では投影された光パターン形状変化部分とし
て抽出することができる。即ち、投影された光パターン
が横方向のスリット光として検出される領域と縦方向の
スリット光として検出される領域に分かれるため、その
境界のエッジ部分が検出できる。
FIG. 12 shows the relationship between the measurement object and the measurement result according to the second embodiment of the present invention. How to place the object is the same as in FIG. As shown in FIG. 12, the projection light source of the light pattern emits light obliquely from above. The shape of the projected light pattern is a light pattern in which a plurality of vertical slit light beams are arranged at regular intervals in the horizontal direction as shown in FIG. In FIG. 12, by changing the focal length,
Light pattern images that can be detected when the surface of No. 3 is in focus are shown in (e), (f), and (g), respectively. Since the light pattern is projected on the object configuration surface, in the case of the object surface tilted in the depth direction, only the light pattern existing in the depth when the object is in focus is detected at each focal length, and the tilt of the object surface is detected. it can. Also, the edge part in front of the object is
In FIG. 8, it was not possible to detect because there is no difference in shade, but in FIG. 12, it can be extracted as the projected light pattern shape change portion. That is, since the projected light pattern is divided into a region detected as horizontal slit light and a region detected as vertical slit light, the edge portion of the boundary can be detected.

【0061】また、上記の第2の実施例では、球形、円
柱、円錐などの曲面が存在する場合にも、投影光パター
ンの傾きの連続的変化として物体の3次元位置情報が検
出できるという特徴を持つ。
In the second embodiment, the three-dimensional position information of the object can be detected as a continuous change in the inclination of the projected light pattern even when there is a curved surface such as a sphere, a cylinder, or a cone. have.

【0062】なお、本発明は、上記実施例に限定される
ことなく、特許請求の範囲内において種々変更が可能で
ある。
The present invention is not limited to the above embodiment, but various modifications can be made within the scope of the claims.

【0063】[0063]

【発明の効果】上述のように本発明の物体計測装置は、
光電変換及び電子的な処理を必要とせず、最終的な位置
計測の段階まで全て光素子及び光学部品だけで構成する
ことにより、高速な処理を可能とし、かつコンパクトな
実装を可能とする。
As described above, the object measuring device of the present invention is
Since photoelectric conversion and electronic processing are not required and only the optical elements and optical components are used until the final position measurement step, high-speed processing is possible and compact mounting is possible.

【0064】本発明は、物体に対して特殊な照明光源を
用意することなく、外部的な照明光だけによって得られ
た物体像から実エッジ部分及び物体構成面上に描かれた
濃淡差の大きい模様中のエッジ部分の3次元位置情報を
計測可能とする。
According to the present invention, without preparing a special illumination light source for an object, there is a large difference in shade drawn on the actual edge portion and the object constituting surface from the object image obtained only by the external illumination light. It is possible to measure the three-dimensional position information of the edge portion in the pattern.

【0065】また、光パターンが投影できる程度十分距
離が近い物体については、装置構成を変えることなく、
様々な形状の光パターンを物体に投影することにより、
濃淡差の情報だけでは得られない実エッジ部分の3次元
位置及び物体構成面の形状や傾き情報を計測可能にす
る。
For an object that is sufficiently close to the extent that a light pattern can be projected, without changing the device configuration,
By projecting light patterns of various shapes on the object,
It is possible to measure the three-dimensional position of the real edge portion and the shape and inclination information of the object constituting surface, which cannot be obtained only by the information on the grayscale difference.

【0066】さらに、外部的な照明における物体計測結
果と様々な形状の光パターンを投影して得た物体計測結
果を物体計測装置上で合成し、それぞれの3次元位置情
報を同時に出力することも可能であり、実物体の実エッ
ジ部分の3次元形状と共に物体構成面に描かれたマー
ク、記号等の抽出、それが記載された面の傾き、形状等
も測定できる。
Further, it is also possible to combine on the object measuring device the object measurement result obtained by projecting light patterns of various shapes with the object measurement result under external illumination, and output the respective three-dimensional position information at the same time. It is possible to measure the three-dimensional shape of the real edge portion of the real object, as well as the extraction of marks, symbols and the like drawn on the object-constituting surface, and the inclination and shape of the surface on which the marks and symbols are described.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理構成図(その1)である。FIG. 1 is a principle configuration diagram (1) of the present invention.

【図2】本発明の原理構成図(その2)である。FIG. 2 is a principle configuration diagram (2) of the present invention.

【図3】本発明の一実施例のシステム構成図である。FIG. 3 is a system configuration diagram of an embodiment of the present invention.

【図4】本発明の一実施例の焦点可変レンズ及び焦点距
離制御部の構成例を示す図である。
FIG. 4 is a diagram showing a configuration example of a variable focus lens and a focal length control unit according to an embodiment of the present invention.

【図5】本発明の第1の実施例の物体計測装置の構成図
である。
FIG. 5 is a configuration diagram of an object measuring device according to a first embodiment of the present invention.

【図6】強誘電性液晶空間光変調器の構成図である。FIG. 6 is a configuration diagram of a ferroelectric liquid crystal spatial light modulator.

【図7】本発明の第1の実施例の物体計測装置の構成図
である。
FIG. 7 is a configuration diagram of an object measuring device according to a first embodiment of the present invention.

【図8】本発明の第1の実施例の計測物体と計測結果の
関係を示す図である。
FIG. 8 is a diagram showing a relationship between a measurement object and a measurement result according to the first embodiment of this invention.

【図9】本発明の第1の実施例のシステム構成図であ
る。
FIG. 9 is a system configuration diagram of the first embodiment of the present invention.

【図10】光パターン投影光源の構成図である。FIG. 10 is a configuration diagram of an optical pattern projection light source.

【図11】物体に投影する光パターンの形状を示す図で
ある。
FIG. 11 is a diagram showing a shape of a light pattern projected on an object.

【図12】本発明の第2の実施例の計測物体と計測結果
の関係を示す図である。
FIG. 12 is a diagram showing a relationship between a measurement object and a measurement result according to the second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 入力物体像からの光画像の光路 2 液晶レンズへの制御信号線 3 信号線 4 直線変更の読み出し入射光 5 光エッジ検出の光路 6 信号線 7 信号線 8 光フィルタリング素子らの読み出し光の光路 9 フィルタパターンの書込み光の光路 10 入力物体 20 液晶レンズ 21 フレネルレンズパターン表示制御器 22 焦点距離保持レジスタ 30 2次元光素子 31 光源 32 レンズアレイ 33 レンズ 34 変更ビームスプリッタ 36 レンズ 37 1/2波長板 38 複屈折板アレイ 39 レンズアレイ 40 レンズ 41 光閾値素子 50 光輪郭抽出素子 51 光源 52 変更ビームスプリッタ 53 レンズ 54 偏光ビームスプリッタ 55 光フィルタリング素子 56 フィルタパターン 57 レンズ 58 レンズ 60 2次元フォトダイオードアレイ 70 3次元位置情報 81 光源 82 回析格子 83 レンズ 100,200,210 物体計測装置 120 焦点可変手段 130 光エッジ検出手段 140 3次元位置検出手段 150 光パターン投影手段 220 焦点可変レンズ 230 焦点距離制御部 240 光エッジ検出部 250 焦点距離保持レジスタ 260 2次元位置検出部 270 光パターン投影光源 301 ガラス 303 透明電極 304 光伝導膜 305 強誘電性液晶 306 誘電性ミラー 500 透過型液晶パネル 2301 フレネルレンズパターン表示制御器 1 Optical path of optical image from input object image 2 Control signal line to liquid crystal lens 3 Signal line 4 Linear incident read light 5 Optical edge detection optical path 6 Signal line 7 Signal line 8 Optical path of read light from optical filtering element 9 Optical Path of Writing Light of Filter Pattern 10 Input Object 20 Liquid Crystal Lens 21 Fresnel Lens Pattern Display Controller 22 Focal Length Holding Register 30 Two-Dimensional Optical Element 31 Light Source 32 Lens Array 33 Lens 34 Change Beam Splitter 36 Lens 37 1/2 Wave Plate 38 birefringent plate array 39 lens array 40 lens 41 optical threshold element 50 optical contour extraction element 51 light source 52 modified beam splitter 53 lens 54 polarization beam splitter 55 optical filtering element 56 filter pattern 57 lens 58 lens 60 two-dimensional photodiode array Ray 70 Three-dimensional position information 81 Light source 82 Diffraction grating 83 Lens 100, 200, 210 Object measuring device 120 Focus changing means 130 Optical edge detecting means 140 Three-dimensional position detecting means 150 Optical pattern projecting means 220 Focus variable lens 230 Focal length control Section 240 optical edge detection section 250 focal length holding register 260 two-dimensional position detection section 270 light pattern projection light source 301 glass 303 transparent electrode 304 photoconductive film 305 ferroelectric liquid crystal 306 dielectric mirror 500 transmissive liquid crystal panel 2301 Fresnel lens pattern display Controller

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 ある情景の中から3次元入力物体を計測
する物体計測装置において、 3次元入力物体の像を様々な焦点距離で結像させる焦点
可変手段と、 該焦点可変手段により結像した光画像中からピントのあ
ったエッジ部分を検出する光エッジ検出手段と、 該光エッジ検出手段により検出された該エッジ部分の2
次元座標とその時の焦点距離を出力する3次元位置検出
手段とを有し、 物体の実エッジ部分及び物体構成面上に描かれた濃淡差
のある模様中のエッジ部分の3次元位置を計測すること
を特徴とする物体計測装置。
1. An object measuring device for measuring a three-dimensional input object from a scene, comprising: focus changing means for forming an image of the three-dimensional input object at various focal lengths; and image formation by the focus changing means. 2 of the optical edge detecting means for detecting the focused edge portion in the optical image and the edge portion detected by the optical edge detecting means.
It has a three-dimensional position detecting means for outputting the three-dimensional coordinates and the focal length at that time, and measures the three-dimensional positions of the actual edge portion of the object and the edge portion in the pattern having the shade difference drawn on the object constituting surface. An object measuring device characterized by the above.
【請求項2】 3次元入力物体に様々な形状の光パター
ンを投影する光パターン投影手段を含む請求項1記載の
物体計測装置。
2. The object measuring device according to claim 1, further comprising a light pattern projection means for projecting light patterns of various shapes onto a three-dimensional input object.
【請求項3】 前記焦点可変手段は、 表示手段に表示すべき同心円上の回析パターンによりな
るフレネルレンズパターンを生成し、表示する請求項1
記載の物体計測装置。
3. The focus varying means generates and displays a Fresnel lens pattern which is a concentric diffraction pattern to be displayed on the display means.
The object measuring device described.
【請求項4】 前記光エッジ検出手段は、 空間並列ディジタル演算により特定の形状のエッジをも
った画像部分だけを検出する請求項1記載の物体計測装
置。
4. The object measuring device according to claim 1, wherein the optical edge detecting means detects only an image portion having an edge of a specific shape by spatial parallel digital calculation.
【請求項5】 前記光エッジ検出手段は、 光画像中の濃淡差の境界部分により直接エッジ像を読み
出す光輪郭抽出素子を用いる請求項1記載の物体計測装
置。
5. The object measuring device according to claim 1, wherein the optical edge detection means uses an optical contour extraction element that directly reads an edge image at a boundary portion of a gray level difference in an optical image.
JP6076071A 1994-04-14 1994-04-14 Object measurement device Pending JPH07280518A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6076071A JPH07280518A (en) 1994-04-14 1994-04-14 Object measurement device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6076071A JPH07280518A (en) 1994-04-14 1994-04-14 Object measurement device

Publications (1)

Publication Number Publication Date
JPH07280518A true JPH07280518A (en) 1995-10-27

Family

ID=13594569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6076071A Pending JPH07280518A (en) 1994-04-14 1994-04-14 Object measurement device

Country Status (1)

Country Link
JP (1) JPH07280518A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010066156A (en) * 2008-09-11 2010-03-25 Nikon Corp Profile measuring apparatus
JP2010066155A (en) * 2008-09-11 2010-03-25 Nikon Corp Profile measuring apparatus
JP2011047883A (en) * 2009-08-28 2011-03-10 Victor Co Of Japan Ltd Three dimensional form sensor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010066156A (en) * 2008-09-11 2010-03-25 Nikon Corp Profile measuring apparatus
JP2010066155A (en) * 2008-09-11 2010-03-25 Nikon Corp Profile measuring apparatus
JP2011047883A (en) * 2009-08-28 2011-03-10 Victor Co Of Japan Ltd Three dimensional form sensor

Similar Documents

Publication Publication Date Title
JP3481631B2 (en) Apparatus and method for determining a three-dimensional shape of an object using relative blur in an image due to active illumination and defocus
Altschuler et al. Laser electro-optic system for rapid three-dimensional (3-D) topographic mapping of surfaces
US6600168B1 (en) High speed laser three-dimensional imager
JP4197844B2 (en) Improvements on pattern recognition
CN112469361B (en) Apparatus, method and system for generating dynamic projection patterns in confocal cameras
US9025067B2 (en) Apparatus and method for image super-resolution using integral shifting optics
EP0580353B1 (en) Stereoscopic display apparatus and method
WO2000033026A1 (en) Apparatus and method to measure three-dimensional data
JP2007521491A (en) High-speed multiple line 3D digitization method
US5239595A (en) Optical method for identifying or recognizing a pattern to be identified
JPH0568196A (en) Joint conversion correlator type range finder/automatic focusing device and its driving system
WO2008023196A1 (en) Three-dimensional image recording and display apparatus
JPH07280518A (en) Object measurement device
TWI357973B (en) Apparatus and method for simulataneous confocal fu
US20180238676A1 (en) Method and apparatus for deriving a topography of an object surface
JP2002257718A (en) Light beam scanning type magnetic domain detector
JP3451264B2 (en) Spatial integrated slide image correlator
JP3062664B2 (en) Optical pattern recognition device having coordinate conversion function
CN104205006B (en) Measuring method and the device for performing the measuring method
KR950004508B1 (en) Logarithmic polar coordinate transforming method vision recognizing method and optical information processing apparatus
Choi et al. Depth extraction using depth of field imaging with tilted retroreflective structure
JP2841762B2 (en) Visual recognition device
Kim Foundations and Applications of 3D Imaging
Kramer et al. An inexpensive real-time 3-D camera with a smart optical sensor
JP2559443B2 (en) Three-dimensional object measuring device