JPH11201717A - Object recognizing device - Google Patents

Object recognizing device

Info

Publication number
JPH11201717A
JPH11201717A JP1496698A JP1496698A JPH11201717A JP H11201717 A JPH11201717 A JP H11201717A JP 1496698 A JP1496698 A JP 1496698A JP 1496698 A JP1496698 A JP 1496698A JP H11201717 A JPH11201717 A JP H11201717A
Authority
JP
Japan
Prior art keywords
lens
distance
focusing
object recognition
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1496698A
Other languages
Japanese (ja)
Inventor
Hiromichi Shibatani
弘道 柴谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP1496698A priority Critical patent/JPH11201717A/en
Publication of JPH11201717A publication Critical patent/JPH11201717A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Exposure Of Semiconductors, Excluding Electron Or Ion Beam Exposure (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve range finding accuracy by utilizing the defocusing characteristic of an optical system. SOLUTION: The difference A-B between the detection signal amplitude A of a zero-cross detector when the focal position is shifted from a short range to a long range as shown in Fig. (a) and the detection signal amplitude B of the zero-cross detector when the focal position is shifted from a long range to short range as shown in Fig. (b) is found from the relation between 'focal point drift' and 'defocusing of image' to detect a zero-cross point t0 as shown in Fig. (c), and distance can be accurately measured.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、前後方向に存在す
る物体の位置関係を精密に計測して出力する物体認識装
置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object recognizing device for precisely measuring and outputting the positional relationship of an object existing in the front-back direction.

【0002】[0002]

【従来の技術】従来、三次元画像計測法には図9に示す
ような各種の方法が存在することが、井口:三次元形状
計測の最近の動向、「計測と制御」第34巻第6号19
95年6月号429頁〜434頁に記載されている。
2. Description of the Related Art Conventionally, there have been various methods for three-dimensional image measurement as shown in FIG. 9. Iguchi: Recent trends in three-dimensional shape measurement, "Measurement and Control," Vol. No.19
June 1995, pp. 429-434.

【0003】[0003]

【発明が解決しようとする課題】しかしながら上述の焦
点調節法は、正確にピント位置を決めるためにはぼけを
大きくしなければならず、そのためには非常に焦点深度
が浅くかつ口径が大きなレンズを必要とする。顕微鏡の
ようなレンズ系では焦点深度が極めて浅くなるために、
この原理を利用した微小高さ計が実用化されているが、
数m以上の測定に対して十分に浅い焦点深度を実現する
ことは難しく、満足な計測精度を得ることはできないこ
とが、井口、佐藤共著:三次元画像計測、昭晃堂199
0年11月19日初版発行、18頁〜19頁で指摘され
ている。
However, in the above-mentioned focus adjustment method, the blur must be increased in order to accurately determine the focus position. For this purpose, a lens having a very small depth of focus and a large aperture is required. I need. In a lens system like a microscope, the depth of focus is extremely shallow,
A micro height gauge utilizing this principle has been put into practical use,
It is difficult to achieve a sufficiently shallow depth of focus for measurements of several meters or more, and it is difficult to obtain satisfactory measurement accuracy. Iguchi and Sato: 3D image measurement, Shokodo 199
It is pointed out in the first edition, November 19, 2000, pages 18-19.

【0004】本発明の目的は、上述の問題点を解消し、
焦点位置を可変とする光学系と光電変換した出力の画像
処理系との組合わせにより、光学系のぼけ特性を利用し
て測距精度を向上した物体認識装置を提供することにあ
る。
An object of the present invention is to solve the above-mentioned problems,
It is an object of the present invention to provide an object recognizing apparatus in which distance measurement accuracy is improved by using a blur characteristic of an optical system by combining an optical system for changing a focal position and an image processing system for output of photoelectric conversion.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
の本発明に係る物体認識装置は、レンズを組合わせた光
学系の焦点調節を利用して物体の位置関係を計測するこ
とを特徴とする。
The object recognizing device according to the present invention for achieving the above object is characterized in that the positional relationship of an object is measured by utilizing the focus adjustment of an optical system combined with a lens. I do.

【0006】[0006]

【発明の実施の形態】本発明を図1〜図8に図示の実施
例に基づいて詳細に説明する。図1は第1の実施例のブ
ロック回路の構成図を示し、光学系1には、光路O上に
対物レンズ2、接眼レンズ3、光電変換器4が配列さ
れ、接眼レンズ3にはレンズ移動機構5が接続され、光
電変換器4の出力はバンドパスフィルタ6と出力端子7
に接続されている。バンドパスフィルタ6の出力は、表
示メモリ特性を有するディスプレイ8、メモリ/画像処
理ユニット9に接続され、メモリ/画像処理ユニット9
の出力は、ゼロクロス検出器10、時間/位置変換器1
1、出力演算器12、出力端子13に順次に接続されて
いる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail with reference to the embodiments shown in FIGS. FIG. 1 shows a block diagram of a block circuit according to the first embodiment. In an optical system 1, an objective lens 2, an eyepiece 3, and a photoelectric converter 4 are arranged on an optical path O. The output of the photoelectric converter 4 is connected to a band-pass filter 6 and an output terminal 7.
It is connected to the. The output of the band-pass filter 6 is connected to a display 8 having a display memory characteristic, a memory / image processing unit 9, and a memory / image processing unit 9.
Output is a zero-cross detector 10, a time / position converter 1
1, the output computing unit 12 and the output terminal 13 are sequentially connected.

【0007】レンズ移動機構5の出力は、レンズ位置エ
ンコーダ14、水平方向アドレス指定ユニット15、デ
ィスプレイ8に順次に接続されており、またレンズ位置
エンコーダ14の出力は時間/位置変換器11に接続さ
れている。基準クロック発生器16の出力が同期信号発
生器17とゼロクロス検出器10に接続され、同期信号
発生器17の出力は移動波形成発生器18、レンズ移動
ドライバ19、レンズ移動機構5に順次に接続され、ま
た垂直方向アドレス指定ユニット20を介してディスプ
レイ8に接続されている。
The output of the lens moving mechanism 5 is sequentially connected to a lens position encoder 14, a horizontal addressing unit 15, and a display 8, and the output of the lens position encoder 14 is connected to a time / position converter 11. ing. The output of the reference clock generator 16 is connected to the synchronizing signal generator 17 and the zero-cross detector 10, and the output of the synchronizing signal generator 17 is sequentially connected to the moving wave generator 18, the lens moving driver 19, and the lens moving mechanism 5. And is connected to the display 8 via a vertical addressing unit 20.

【0008】上述の構成において、光学系1を光路O方
向に存在する被写体に向けると、フォーカシングの条件
を満たす接眼レンズ3の位置では、光電変換器4の面に
被写体が結像して鮮明な画像を得ることができる。一
方、合焦の条件を満たさない接眼レンズ3の位置では、
不鮮明な画像しか得られない。このとき、被写体の位置
を挟んで合焦の距離を近→遠→近→遠と繰り返すと、繰
り返しの間に2度合焦の条件が満たされて被写体の鮮明
な画像が得られるが、その鮮明度と距離Lの関係は近→
遠の場合と遠→近の場合で異なる。
In the above-described configuration, when the optical system 1 is directed to a subject existing in the direction of the optical path O, the subject forms an image on the surface of the photoelectric converter 4 at the position of the eyepiece 3 that satisfies the focusing condition, and is sharp. Images can be obtained. On the other hand, at the position of the eyepiece 3 that does not satisfy the focusing condition,
I get only blurry images. At this time, if the focusing distance is repeated in the order of near → far → near → far across the position of the subject, the focusing condition is satisfied twice during the repetition, and a clear image of the subject is obtained. The relationship between degree and distance L is near →
It is different in the case of far and the case of far → near.

【0009】光電変換器4の出力信号である画像信号か
ら、バンドパスフィルタ6によって特定周波数成分の信
号強度を抽出すると、同一被写体に対する信号強度は合
焦時に最大となり、焦点ずれが大きくなるにつれて減少
してゆく(坂野:オートフォーカス技術「光学」第12
巻、第5号、1983年8月号351頁〜358頁)。
When the signal intensity of a specific frequency component is extracted from the image signal which is the output signal of the photoelectric converter 4 by the band pass filter 6, the signal intensity for the same subject becomes maximum at the time of focusing and decreases as the defocus increases. (Sakano: 12th autofocus technology "Optics")
Vol. 5, No. 5, August 1983, pp. 351-358).

【0010】このとき、近→遠の方向に合焦する場合
と、遠→近の方向に合焦する場合とでは、信号強度と距
離の関係が異なる。図2はレンズ位置移動による被写体
までの距離検出の説明図を示し、図2(a) は光学系の配
置、図2(b) は光電変換器4の光電素子の出力Pと被写
体までの距離Lの関係、図2(c) はレンズ位置移動時の
ドライブ波形を示している。
At this time, the relationship between the signal intensity and the distance differs between the case where focusing is performed in the near → far direction and the case where focusing is performed in the direction of far → near. 2A and 2B are explanatory diagrams of the detection of the distance to the subject by moving the lens position. FIG. 2A shows the arrangement of the optical system, and FIG. 2B shows the distance between the output P of the photoelectric element of the photoelectric converter 4 and the subject. FIG. 2C shows a drive waveform when the lens position moves.

【0011】本システム全体の基準クロック発生器16
のクロック信号を基準とする同期信号発生器17の出力
から、移動波形発生器18において図2(c) に示す三角
波を作成し、これをレンズ移動ドライバ19に入力して
レンズ移動機構5を駆動し、接眼レンズ3を近→遠→近
→遠と移動する。
Reference clock generator 16 of the entire system
2 (c) is created in the moving waveform generator 18 from the output of the synchronizing signal generator 17 based on the clock signal of FIG. 2 and input to the lens moving driver 19 to drive the lens moving mechanism 5. Then, the eyepiece 3 is moved from near to far to near to far.

【0012】一方、光電変換器4の信号出力は、バンド
パスフィルタ6を介して表示メモリ特性を有するディス
プレイ8に供給され、その信号強度が輝度変化又は色変
化として表示される。このとき、ディスプレイ8上の横
方向表示位置を接眼レンズ3の位置と同期させるため
に、レンズ位置エンコーダ14の出力により水平方向ア
ドレス指定ユニット15を駆動し、例えばディスプレイ
8の画面の左端を光学系1の対物レンズ2の位置に対応
させ、ディスプレイ8の画面の右端を無限遠の位置に対
応させる。
On the other hand, the signal output of the photoelectric converter 4 is supplied to a display 8 having a display memory characteristic via a band pass filter 6, and the signal intensity is displayed as a change in luminance or a change in color. At this time, in order to synchronize the horizontal display position on the display 8 with the position of the eyepiece 3, the horizontal addressing unit 15 is driven by the output of the lens position encoder 14. The right end of the screen of the display 8 is made to correspond to the position at infinity.

【0013】また、ディスプレイ8の垂直方向アドレス
の選択は、垂直方向アドレス指定ユニット20により行
う。即ち、図2(b) に示すように距離L1、L2、L3に被写
体が存在する場合には、図3に示すようなパターンがデ
ィスプレイ8に表示される。図3において、幅dは画像
の鮮明度、fの矢印はアドレスの指定方向、左端のRは
対物レンズ2の位置、右端の∞は被写体の無限遠位置を
表している。
The vertical address of the display 8 is selected by the vertical address specifying unit 20. That is, when the subject exists at the distances L1, L2, L3 as shown in FIG. 2 (b), a pattern as shown in FIG. In FIG. 3, the width d indicates the sharpness of the image, the arrow f indicates the address designation direction, the left end R indicates the position of the objective lens 2, and the right end ∞ indicates the infinity position of the subject.

【0014】更に、バンドパスフィルタ6の出力はメモ
リ/画像処理ユニット9にも導かれ、図4に示すように
信号処理が実行される。図4(a) は接眼レンズ3を近→
遠に移動したときのゼロクロス検出器10の出力振幅信
号Aのグラフ図、図4(b) は同様に遠→近に移動したと
きの出力振幅信号Bのグラフ図、図4(c) は出力振幅信
号A、Bの差A−Bのグラフ図を示す。
Further, the output of the band-pass filter 6 is also guided to a memory / image processing unit 9, where signal processing is performed as shown in FIG. Fig. 4 (a) shows the eyepiece lens 3 close.
FIG. 4B is a graph of the output amplitude signal A of the zero-crossing detector 10 when moving far, FIG. 4B is a graph of the output amplitude signal B when moving far to near, and FIG. FIG. 4 shows a graph of a difference AB between amplitude signals A and B.

【0015】図4(c) のゼロクロス検出器10で得られ
るゼロクロス点toが、基準クロック発生器16の出力で
あるクロック周期単位で精密に検出され、時間/位置変
換器11により距離情報が得られる。このとき、被写体
が静止していれば、距離L1、L2、L3の情報は図3に示す
ようにディスプレイ8の表示画面上に縦に並び、一定値
として得られる。また、被写体が光路Oの方向に運動し
ている場合は、距離L1、L2、L3の位置は左右に移動し、
この移動量の時間的変化を出力演算器12により演算す
ることにより、被写体の運動の移動方向及び移動速度を
検出することができる。
The zero-cross point to obtained by the zero-cross detector 10 shown in FIG. 4C is precisely detected in units of a clock cycle which is the output of the reference clock generator 16, and the time / position converter 11 obtains distance information. Can be At this time, if the subject is stationary, the information of the distances L1, L2, L3 is vertically arranged on the display screen of the display 8 as shown in FIG. When the subject is moving in the direction of the optical path O, the positions of the distances L1, L2, and L3 move left and right,
By calculating the temporal change of the moving amount by the output calculator 12, the moving direction and the moving speed of the movement of the subject can be detected.

【0016】上述の運動の様子は時々刻々ディスプレイ
8に表示され、被写体が本システムに近付き過ぎて衝突
する危険がある場合には警告を発したり、本システム全
体を他の駆動機構により被写体から隔離して一定の距離
に保持することもできる。また、図3の距離L1、L2、L3
の情報をゾーン分けして、各ゾーンに入ってきた被写体
に特定の色を付けたり、特定のゾーンに入ってきた被写
体又は移動速度が一定値を越えている被写体に対して
は、像を点滅させたりすることもできる。
The state of the above-described exercise is displayed on the display 8 from moment to moment. If the subject is too close to the present system and there is a danger of collision, a warning is issued or the entire system is isolated from the subject by another drive mechanism. And can be maintained at a fixed distance. Also, distances L1, L2, L3 in FIG.
Information is divided into zones, and a specific color is added to the subject entering each zone. You can also make it.

【0017】このように、「焦点ずれ」対「像のぼけ」
の関係の内、焦点位置を近距離から遠距離にシフトする
場合と、遠距離から近距離にシフトする場合の「差」を
検出することにより、より正確な距離計測が可能とな
る。また、「差」の時間経過を連続的に計測することに
より、被写体の移動方向及び移動速度に関するデータを
収集することができる。
Thus, "defocus" versus "image blur"
By detecting the "difference" between the case where the focal position shifts from a short distance to a long distance and the case where the focus position shifts from a long distance to a short distance, more accurate distance measurement can be performed. Further, by continuously measuring the time lapse of the “difference”, data on the moving direction and the moving speed of the subject can be collected.

【0018】図5は第2の実施例の側面図を示し、図1
の接眼レンズ3、レンズ移動機構5を液体レンズ25に
置き換えたものである。液体レンズ25は空気よりも大
きい屈折率を有する透明液体26と、可撓性を有する円
形透明絶縁膜27a、27bから形成され、周縁部で接
着した絶縁膜27a、27bにより透明液体26は被覆
され、絶縁膜27a、27bはそれぞれ所定面積を有す
る透明電極28a、28bにより覆われている。そし
て、液体レンズ25は円形蛇腹29a、29bを介し
て、光学系1の内壁30a、30bに取り付けられてい
る。
FIG. 5 shows a side view of the second embodiment, and FIG.
The eyepiece 3 and the lens moving mechanism 5 are replaced with a liquid lens 25. The liquid lens 25 is formed of a transparent liquid 26 having a refractive index larger than that of air and flexible circular transparent insulating films 27a and 27b, and the transparent liquid 26 is covered with insulating films 27a and 27b adhered at the peripheral edges. And the insulating films 27a and 27b are covered with transparent electrodes 28a and 28b each having a predetermined area. The liquid lens 25 is attached to the inner walls 30a, 30b of the optical system 1 via circular bellows 29a, 29b.

【0019】図6は液体レンズ25の正面図とその駆動
手段を示し、透明電極28a、28bには中央に中央部
電極31、その外側にリング状電極32、更に外側に半
円形電極33a、33b、最も外側に1/4円弧状電極
34a、34b、34c、35dが配設されている。電
極31、32、33a、33b、34a〜34dには、
それぞれリード線35、36、37a、37b、38a
〜38dが接続されている。そして、各リード線35〜
38dにはレンズ制御電圧発生ユニット39の出力が接
続され、レンズ制御電圧発生ユニット39には移動波形
発生器18の出力が接続されている。その他の構成は図
1と同様である。
FIG. 6 shows a front view of the liquid lens 25 and its driving means. The transparent electrodes 28a and 28b have a central electrode 31 at the center, a ring-shaped electrode 32 outside thereof, and semicircular electrodes 33a and 33b outside. The outermost quarter-arc electrodes 34a, 34b, 34c, and 35d are provided. The electrodes 31, 32, 33a, 33b, 34a to 34d have
Lead wires 35, 36, 37a, 37b, 38a respectively
To 38d are connected. And each lead wire 35 ~
The output of the lens control voltage generation unit 39 is connected to 38d, and the output of the moving waveform generator 18 is connected to the lens control voltage generation unit 39. Other configurations are the same as those in FIG.

【0020】上述の構成において、液体レンズ25にリ
ード線35〜38dを介して絶縁膜27a側の透明電極
28aに電荷q1を与え、絶縁膜27bの側の透明電極2
8bに電荷q2を与えると、クーロンの法則により絶縁膜
27a、27bの間には、次の式で示す力Fが作用す
る。 F=(1/4πε0 )・(q1・q2/r2 ) …(1)
In the above-described configuration, a charge q1 is applied to the transparent electrode 28a on the insulating film 27a side via the lead wires 35 to 38d to the liquid lens 25, and the transparent electrode 2 on the insulating film 27b side is provided.
When a charge q2 is given to 8b, a force F expressed by the following equation acts between the insulating films 27a and 27b according to Coulomb's law. F = (1 / 4πε 0 ) · (q1 · q2 / r 2 ) (1)

【0021】ここで、ε0 は電極で挟まれた透明絶縁体
部分の誘電率、rは電極間の距離である。
Here, ε 0 is the dielectric constant of the transparent insulator portion sandwiched between the electrodes, and r is the distance between the electrodes.

【0022】従って、レンズ制御電圧発生ユニット39
により電荷q1、q2の量を制御することによって、絶縁膜
27a、27bが形成する湾曲面の曲率を変更し、液体
レンズ25の焦点距離を変えることができる。これによ
り、図5の光線の軌跡R1に示すように、光学系1の合焦
位置が例えば至近距離にある場合から、光線の軌跡R2に
示すように、合焦位置が無限遠にある場合までフォーカ
シングの制御を行うことができる。
Therefore, the lens control voltage generating unit 39
By controlling the amounts of the electric charges q1 and q2, the curvature of the curved surface formed by the insulating films 27a and 27b can be changed, and the focal length of the liquid lens 25 can be changed. Thereby, from the case where the focus position of the optical system 1 is at a close distance, for example, as shown by the ray trajectory R1 of FIG. 5, to the case where the focus position is at infinity, as shown by the ray trajectory R2. Focusing can be controlled.

【0023】このように、図1から接眼レンズ位置移動
機構5を除去し、この機構5が受け持っている機能を液
体レンズ25によって電気的に遂行することにより、動
作速度を向上させることができるので、移動速度計測時
に第1の実施例よりも高速側の速度計測が可能となる。
As described above, the operation speed can be improved by removing the eyepiece position moving mechanism 5 from FIG. 1 and electrically performing the function of the mechanism 5 by the liquid lens 25. At the time of moving speed measurement, speed measurement on a higher speed side than in the first embodiment becomes possible.

【0024】図7は第3の実施例の構成図、図8は奥行
標本化方式による立体画像収集の説明図を示している。
画像形成装置40の各出力は、伝送路又は記録・記憶装
置41を介して、画像表示装置42の入力端子にそれぞ
れ接続されている。そして、観察者の頭部H又は図1の
光学系1の前方には、順次に近距離の被写体S1、中距離
の被写体S2、遠距離の被写体S3が存在する。観察者Hの
眼球位置E又は光学系1の対物レンズ2から被写体S1、
S2、S3の前面までが、それぞれ距離L1、L2、L3である。
FIG. 7 is a block diagram of the third embodiment, and FIG. 8 is an explanatory diagram of stereoscopic image collection by the depth sampling method.
Each output of the image forming apparatus 40 is connected to an input terminal of an image display device 42 via a transmission path or a recording / storage device 41. A subject S1, a subject S2 at a short distance, a subject S2 at a medium distance, and a subject S3 at a long distance sequentially exist in front of the observer's head H or the optical system 1 in FIG. From the eyeball position E of the observer H or the object S1 from the objective lens 2 of the optical system 1,
Distances L1, L2, and L3 to the front surfaces of S2 and S3, respectively.

【0025】上述の配置において、奥行き標本化方式に
よる立体画像情報を収集する際には、従来は距離L1〜L3
方向に等間隔に標本化しているが、被写体S1〜S3が存在
していないか又は観察者Hから見えない陰の部分、例え
ばD1、D2のスペースについては標本化する必要がない。
また、見える部分についても凹凸のない空間周波数の低
い部分については標本化する必要がなく、前後の標本値
から補間して間に合わせることができる。
In the above arrangement, when collecting stereoscopic image information by the depth sampling method, conventionally, distances L1 to L3
Although sampling is performed at equal intervals in the direction, it is not necessary to sample the shadows where the subjects S1 to S3 do not exist or are not seen by the observer H, for example, the spaces of D1 and D2.
Also, as for the visible part, it is not necessary to sample a part having no unevenness and a low spatial frequency, and it is possible to interpolate from the preceding and following sample values to make up for it.

【0026】従って、図8に点線で示すような不均一間
隔でサンプリングを行い、そのサンプリング面は第1の
実施例による距離情報に基づいて決定する。即ち、各サ
ンプリング面の画像情報を距離情報により作成し、この
距離情報と共に伝送路又は記録・記憶装置41を介して
画像表示装置42に再現する。
Therefore, sampling is performed at non-uniform intervals as indicated by dotted lines in FIG. 8, and the sampling plane is determined based on the distance information according to the first embodiment. That is, image information of each sampling plane is created based on the distance information, and is reproduced on the image display device 42 via the transmission path or the recording / storage device 41 together with the distance information.

【0027】図8の標本化面1、2、3、…、j、…、
m、nの画像情報とそれぞれの位置情報を、図1の出力
端子7からの画像情報と出力端子13からの位置情報と
を画像形成装置40で混合して、画像形成装置40の
1、2、3、…、j…、m、n端子から送出し、伝送路
又は記録・記憶装置41を介して、又は直接に画像表示
装置42に立体画像を再現する。
The sampling planes 1, 2, 3,..., J,.
The image information of m and n and their respective position information are mixed in the image forming apparatus 40 with the image information from the output terminal 7 and the position information from the output terminal 13 in FIG. , J,..., M, n terminals, and reproduces a stereoscopic image on the image display device 42 via the transmission path or the recording / storage device 41 or directly.

【0028】このように、従来の均一な距離差で空間を
切断する奥行き標本化方式と異なり、合計の標本化面の
数を減じながら、立体視情報量の多い被写体が存在する
面のみ、又は凹凸の不規則な面のみについて密な標本化
を行うことによって、伝送又は記録・記憶すべき合計の
情報量を少なくすることができる。
As described above, unlike the conventional depth sampling method in which the space is cut at a uniform distance difference, while reducing the total number of sampling surfaces, only the surface on which a subject having a large amount of stereoscopic information exists, or By performing dense sampling only on the irregular surface of the irregularities, the total amount of information to be transmitted or recorded / stored can be reduced.

【0029】[0029]

【発明の効果】以上説明したように本発明に係る物体認
識装置は、物体に対するレンズを組合わせた光学系の焦
点調節を利用することによって、位置関係をクロック周
波数の周期単位で精度良く計測することができる。
As described above, the object recognition apparatus according to the present invention utilizes the focus adjustment of an optical system in which a lens is combined with an object to accurately measure a positional relationship in units of a clock frequency cycle. be able to.

【0030】また、物体の配置及び物体が静止している
か移動しているかを検出・表示することもでき、奥行き
標本化方式による三次元画像形成の際の標本化面の設定
に適用することができる。
Further, the arrangement of the object and whether the object is stationary or moving can be detected and displayed, and the present invention can be applied to the setting of a sampling plane when forming a three-dimensional image by the depth sampling method. it can.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施例の構成図である。FIG. 1 is a configuration diagram of a first embodiment.

【図2】レンズ位置移動による被写体までの距離検出の
説明図である。
FIG. 2 is an explanatory diagram of distance detection to a subject by moving a lens position.

【図3】ディスプレイ上の表示パターンの説明図であ
る。
FIG. 3 is an explanatory diagram of a display pattern on a display.

【図4】ゼロクロス検出器の動作の説明図である。FIG. 4 is an explanatory diagram of the operation of the zero-cross detector.

【図5】第2の実施例の液体レンズの側面図である。FIG. 5 is a side view of a liquid lens according to a second embodiment.

【図6】液体レンズの駆動手段の説明図である。FIG. 6 is an explanatory diagram of a liquid lens driving unit.

【図7】第3の実施例の画像形成・表示装置の接続の説
明図である。
FIG. 7 is an explanatory diagram of the connection of the image forming / display device of the third embodiment.

【図8】奥行標本化方式による立体画像収集の説明図で
ある。
FIG. 8 is an explanatory diagram of stereoscopic image collection by a depth sampling method.

【図9】従来の三次元画像計測法一覧の説明図である。FIG. 9 is an explanatory diagram of a conventional three-dimensional image measurement method list.

【符号の説明】[Explanation of symbols]

1 光学系 2 対物レンズ 3 接眼レンズ 4 光電変換器 5 レンズ移動機構 6 バンドパスフィルタ 8 ディスプレイ 9 メモリ/画像処理ユニット 10 ゼロクロス検出器 11 時間/位置変換器 14 レンズ位置エンコーダ 15 水平方向アドレス指定ユニット 16 基本クロック発生器 17 同期信号発生器 18 移動波形発生器 20 垂直方向アドレス指定ユニット 25 液体レンズ 39 レンズ制御電圧発生ユニット 40 画像形成装置 41 伝送路又は記録・記憶装置 42 画像表示装置 DESCRIPTION OF SYMBOLS 1 Optical system 2 Objective lens 3 Eyepiece 4 Photoelectric converter 5 Lens moving mechanism 6 Bandpass filter 8 Display 9 Memory / image processing unit 10 Zero cross detector 11 Time / position converter 14 Lens position encoder 15 Horizontal addressing unit 16 Basic clock generator 17 Synchronous signal generator 18 Moving waveform generator 20 Vertical addressing unit 25 Liquid lens 39 Lens control voltage generating unit 40 Image forming device 41 Transmission path or recording / storage device 42 Image display device

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 レンズを組合わせた光学系の焦点調節を
利用して物体の位置関係を計測することを特徴とする物
体認識装置。
1. An object recognition apparatus characterized in that a positional relationship of an object is measured by using focus adjustment of an optical system combined with a lens.
【請求項2】 前記焦点調節は至近距離から無限遠の距
離まで合焦可能な前記光学系の合焦度合いとした請求項
1に記載の物体認識装置。
2. The object recognition apparatus according to claim 1, wherein the focus adjustment is a focusing degree of the optical system capable of focusing from a close distance to an infinite distance.
【請求項3】 前記合焦度合いが前記物体までの距離に
よって変化することを利用する請求項2に記載の物体認
識装置。
3. The object recognition apparatus according to claim 2, wherein the fact that the degree of focusing changes with the distance to the object is used.
【請求項4】 前記合焦度合いが前記物体位置の手前側
と奥側で異なることを利用する請求項3に記載の物体認
識装置。
4. The object recognition device according to claim 3, wherein the degree of focusing is different between the near side and the far side of the object position.
【請求項5】 前記合焦は可変焦点液体レンズにより行
う請求項2に記載の物体認識装置。
5. The object recognition apparatus according to claim 2, wherein the focusing is performed by a variable focus liquid lens.
【請求項6】 前記物体位置をディスプレイ上に表示し
て、前記物体の静止状態又は移動状態を出力する請求項
1に記載の物体認識装置。
6. The object recognition device according to claim 1, wherein the position of the object is displayed on a display to output a stationary state or a moving state of the object.
【請求項7】 前記物体の移動状態は移動方向及び移動
速度とした請求項6に記載の物体認識装置。
7. The object recognition device according to claim 6, wherein the moving state of the object is a moving direction and a moving speed.
【請求項8】 前記位置関係は奥行標本化方式による三
次元画像計測による位置情報とした請求項1に記載の物
体認識装置。
8. The object recognition apparatus according to claim 1, wherein the positional relationship is position information obtained by three-dimensional image measurement using a depth sampling method.
JP1496698A 1998-01-09 1998-01-09 Object recognizing device Pending JPH11201717A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1496698A JPH11201717A (en) 1998-01-09 1998-01-09 Object recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1496698A JPH11201717A (en) 1998-01-09 1998-01-09 Object recognizing device

Publications (1)

Publication Number Publication Date
JPH11201717A true JPH11201717A (en) 1999-07-30

Family

ID=11875730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1496698A Pending JPH11201717A (en) 1998-01-09 1998-01-09 Object recognizing device

Country Status (1)

Country Link
JP (1) JPH11201717A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046027A (en) * 2006-08-17 2008-02-28 National Institute Of Advanced Industrial & Technology Height measuring method and device therefor
US7589818B2 (en) 2003-12-23 2009-09-15 Asml Netherlands B.V. Lithographic apparatus, alignment apparatus, device manufacturing method, and a method of converting an apparatus
JP2011047883A (en) * 2009-08-28 2011-03-10 Victor Co Of Japan Ltd Three dimensional form sensor
KR20190089490A (en) * 2018-01-23 2019-07-31 엘지이노텍 주식회사 Lens curvature variation apparatus, camera, and image display apparatus including the same
CN115469515A (en) * 2022-10-27 2022-12-13 中国科学院光电技术研究所 Ultraviolet light-emitting diode exposure device and system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7589818B2 (en) 2003-12-23 2009-09-15 Asml Netherlands B.V. Lithographic apparatus, alignment apparatus, device manufacturing method, and a method of converting an apparatus
JP2008046027A (en) * 2006-08-17 2008-02-28 National Institute Of Advanced Industrial & Technology Height measuring method and device therefor
JP4665125B2 (en) * 2006-08-17 2011-04-06 独立行政法人産業技術総合研究所 Method for measuring height and apparatus therefor
JP2011047883A (en) * 2009-08-28 2011-03-10 Victor Co Of Japan Ltd Three dimensional form sensor
KR20190089490A (en) * 2018-01-23 2019-07-31 엘지이노텍 주식회사 Lens curvature variation apparatus, camera, and image display apparatus including the same
JP2021512359A (en) * 2018-01-23 2021-05-13 エルジー イノテック カンパニー リミテッド Lens curvature variable device
US11500192B2 (en) 2018-01-23 2022-11-15 Lg Innotek Co., Ltd. Lens curvature variation apparatus
CN115469515A (en) * 2022-10-27 2022-12-13 中国科学院光电技术研究所 Ultraviolet light-emitting diode exposure device and system

Similar Documents

Publication Publication Date Title
US6320979B1 (en) Depth of field enhancement
CN101832760B (en) Remote three-dimensional micro-deformation visual on-line monitoring method and system
CN102980561B (en) A kind of mobile terminal distance-finding method and device
JP2007058222A (en) System and method for producing magnified images of microscope slide
US4071297A (en) Method and apparatus for photoelectrically determining the position of at least one image focus plane
CN103487927A (en) Automatic focusing method of microscope
CN105004723A (en) Pathological section scanning 3D imaging and fusion device and method
JPH11201717A (en) Object recognizing device
US4053934A (en) Measuring the quality of images
JP2010273323A (en) Camera system with eye finder modules
US5349433A (en) Automatic lensmeter
JP5508214B2 (en) System and method for creating magnified image of microscope slide
US6128071A (en) Range data recordation
CN1458528A (en) New enginering structure and material deformation measuring technology
JP2681745B2 (en) A method for measuring the vertical and lateral movement of an object to be measured with a speckle pattern using laser light.
US3800074A (en) Apparatus for scanning the surface of a cylindrical body
EP0140972A1 (en) Three-dimensional distance-measuring device
US3402298A (en) Optical-electronic displacement transducer
US5023724A (en) Focus enhancing method
JPS6146780B2 (en)
CN109856422A (en) Acceleration transducer, acceleration measurement device and method
GB2054839A (en) Determining electrophoretic mobility of cells
KR20190022573A (en) Apparatus and method for generating data representing a pixel beam
JPH0425772A (en) Method and device for measuring electrostatic charge amount of charged powder particle
JPS6155041B2 (en)