JP3463967B2 - Distance measuring device and method - Google Patents

Distance measuring device and method

Info

Publication number
JP3463967B2
JP3463967B2 JP27596295A JP27596295A JP3463967B2 JP 3463967 B2 JP3463967 B2 JP 3463967B2 JP 27596295 A JP27596295 A JP 27596295A JP 27596295 A JP27596295 A JP 27596295A JP 3463967 B2 JP3463967 B2 JP 3463967B2
Authority
JP
Japan
Prior art keywords
data
sensor data
sensor
inverted
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP27596295A
Other languages
Japanese (ja)
Other versions
JPH09119828A (en
Inventor
和廣 川尻
清隆 佐藤
Original Assignee
富士フイルムマイクロデバイス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルムマイクロデバイス株式会社 filed Critical 富士フイルムマイクロデバイス株式会社
Priority to JP27596295A priority Critical patent/JP3463967B2/en
Publication of JPH09119828A publication Critical patent/JPH09119828A/en
Application granted granted Critical
Publication of JP3463967B2 publication Critical patent/JP3463967B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、測距に関し、特に
三角測距方式を用いた測距技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to distance measuring, and more particularly to distance measuring technology using a triangular distance measuring method.

【0002】[0002]

【従来の技術】図14(A)は、位相差検出型測距装置
の外光三角方式光学系を説明するための概略図である。
測距対象物133から発せられる光ビーム134B,1
34Rは、2つのレンズ131B,131Rを通して、
2組の光センサ132B,132R上に写し出される。
2. Description of the Related Art FIG. 14A is a schematic view for explaining an external light triangular optical system of a phase difference detection type distance measuring device.
Light beams 134B, 1 emitted from the distance measurement object 133
34R passes through two lenses 131B and 131R,
It is projected on the two sets of optical sensors 132B and 132R.

【0003】基準レンズ131Bを通る光ビーム134
Bは、基準光センサ132B上に結像され、測距対象物
133の像が写し出される。参照レンズ131Rを通る
光ビーム134Rは、参照光センサ132R上に結像さ
れ、測距対象物133の像が写し出される。測距対象物
133の像は、基準光センサ132B上と参照光センサ
132R上にそれぞれ写し出される。
Light beam 134 passing through reference lens 131B
B is imaged on the reference optical sensor 132B, and the image of the distance measurement object 133 is projected. The light beam 134R passing through the reference lens 131R is imaged on the reference light sensor 132R, and the image of the distance measurement object 133 is projected. The image of the distance measurement object 133 is projected on the reference light sensor 132B and the reference light sensor 132R, respectively.

【0004】測距対象物133がレンズ131から無限
遠に位置すれば、基準光センサ132B上に結像される
像と参照光センサ132R上に結像される像との間隔
は、基線長Bとなる。図に示すように測距対象物133
がレンズ131から距離Lだけ離れている場合には、基
準光センサ132B上に結像される像と参照光センサ1
32R上に結像される像の間隔は、B+xの距離とな
る。つまり、基線長Bに加え位相差xの長さだけ離れ
て、光センサ132上に結像される。
If the distance measuring object 133 is located at infinity from the lens 131, the distance between the image formed on the standard light sensor 132B and the image formed on the reference light sensor 132R is the baseline length B. Becomes As shown in FIG.
Is separated from the lens 131 by a distance L, the image formed on the reference optical sensor 132B and the reference optical sensor 1
The distance between the images formed on 32R is B + x. That is, an image is formed on the optical sensor 132 with a distance of the phase difference x in addition to the baseline length B.

【0005】レンズ・センサ間距離fは、レンズ131
から、測距対象物133の光像が写し出される光センサ
132の面までの長さである。測距距離Lは、測距対象
物133からレンズ131までの距離であり、この距離
が測距装置から測距対象物までの距離として測定され
る。
The distance f between the lens and the sensor is determined by the lens 131.
To the surface of the optical sensor 132 on which the optical image of the distance measurement object 133 is projected. The distance measuring distance L is the distance from the distance measuring object 133 to the lens 131, and this distance is measured as the distance from the distance measuring device to the distance measuring object.

【0006】図に示すように、測距対象物133が基準
レンズ131Bの光軸上にあるとする。この時参照レン
ズ131Rの光軸、測距対象物133から参照レンズ1
31Rの中心を通る光線、測距対象物133を含む物平
面、光センサ132上の像平面が作る2つの三角形は相
似となり、 L/B=f/x ・・・(1) の関係が成り立つ。
As shown in the figure, it is assumed that the distance measuring object 133 is on the optical axis of the reference lens 131B. At this time, the optical axis of the reference lens 131R, the reference lens 1
The two triangles formed by the ray passing through the center of 31R, the object plane including the distance measurement object 133, and the image plane on the optical sensor 132 are similar, and the relationship of L / B = f / x (1) holds. .

【0007】すなわち、図14(B)に示すように L=B・f/x ・・・(2) が成立する。That is, as shown in FIG.       L = B · f / x (2) Is established.

【0008】xをセンサピッチpの数nで表すと L=B・f/(n・p) ・・・(3) となる。When x is represented by the number n of the sensor pitch p,       L = B · f / (n · p) (3) Becomes

【0009】センサピッチpは、光センサを構成する複
数の受光素子の間隔であり、例えば20[μm]程度の
値をとる。この時は、分母はセンサピッチpの整数倍の
精度で表わされる。
The sensor pitch p is an interval between a plurality of light receiving elements forming an optical sensor, and takes a value of, for example, about 20 [μm]. At this time, the denominator is represented with an accuracy of an integral multiple of the sensor pitch p.

【0010】センサピッチpをさらに補間法を用いてk
分割して、その小区分でxを表したときi個に相当する
とすれば、x=i(p/k)となり、 L=B・f/(i/k)p ・・・(4) となる。つまり、補間法により分母をp/kの整数倍の
精度で表すことができ、式(3)よりも高精度の測距距
離Lが得られる。
The sensor pitch p is further converted into k by using an interpolation method.
When it is divided and when x is represented by the subdivision, and it corresponds to i, x = i (p / k), and L = B · f / (i / k) p (4) Become. In other words, the denominator can be represented by the interpolation method with an accuracy that is an integral multiple of p / k, and the distance measurement distance L that is more accurate than Expression (3) is obtained.

【0011】次に、基準光センサ132B上の像と参照
光センサ132R上の像との位相差xを求めるために行
う相関演算について説明する。図15は、相関演算によ
る位相差検出について説明するための概念図である。
Next, the correlation calculation performed to obtain the phase difference x between the image on the standard light sensor 132B and the image on the reference light sensor 132R will be described. FIG. 15 is a conceptual diagram for explaining the phase difference detection by the correlation calculation.

【0012】図15(A)は、光センサ上に結像される
像を表す。光センサ132B,132Rは、フォトダイ
オードを1次元に複数個配置したラインセンサである。
光センサ132を構成するフォトダイオードの数は、光
センサ132上に結像される画像の画素数に相当する。
参照光センサ132Rの画素数は、基準光センサ132
Bの画素数に比べて同じかそれよりも多い。
FIG. 15A shows an image formed on the photosensor. The optical sensors 132B and 132R are line sensors in which a plurality of photodiodes are arranged one-dimensionally.
The number of photodiodes forming the photosensor 132 corresponds to the number of pixels of the image formed on the photosensor 132.
The number of pixels of the reference light sensor 132R is the standard light sensor 132R.
The number of pixels of B is equal to or more than that.

【0013】基準光センサ132Bには、基準レンズ1
31Bを介して測距対象物の画像が結像されている。ま
た、基準光センサ132Bと基線長水平方向に離された
参照光センサ132Rには、参照レンズ131Rを介し
て測距対象物の画像が結像されている。
The reference optical sensor 132B includes a reference lens 1
An image of the object for distance measurement is formed via 31B. An image of the object to be measured is formed on the reference light sensor 132R separated from the reference light sensor 132B in the horizontal direction of the base line via the reference lens 131R.

【0014】測距対象物が無限遠位置にあるときは、基
準光センサ132Bと参照光センサ132Rの対応する
フォトダイオードの受光素子には同一の画像が結像され
る。測距対象物が無限遠位置になければ、光センサ13
2B,132R上の画像は水平方向に変位する。すなわ
ち、測距対象物が近付けば画像間の距離は広がり、測距
対象物が遠ざかれば画像間の距離は近付く。この画像間
の距離の変動を検出するために、参照光センサ132R
は基準光センサ132Bよりも画素数が多く設定されて
いる場合が多い。
When the object to be measured is at the infinity position, the same image is formed on the light receiving elements of the photodiodes corresponding to the standard light sensor 132B and the reference light sensor 132R. If the object to be measured is not at infinity, the optical sensor 13
The images on 2B and 132R are displaced in the horizontal direction. That is, the distance between the images increases as the object to be measured approaches, and the distance between the images decreases as the object to measure distance increases. In order to detect the variation in the distance between the images, the reference light sensor 132R
In many cases, the number of pixels is set to be larger than that of the reference light sensor 132B.

【0015】基準光センサ132B上の画像と参照光セ
ンサ132R上の画像間の距離の変動を検出するため
に、相関演算による位相差検出法が用いられている。相
関演算による位相差検出は、次式(5)に基づく演算に
より光センサ132B,132R上の一対の結像の相関
値H(n)を求め、相関値が最小となるまでのこれらの
結像の相対移動値(位相差)を求める。
In order to detect the variation in the distance between the image on the standard light sensor 132B and the image on the reference light sensor 132R, a phase difference detection method by a correlation calculation is used. In the phase difference detection by the correlation calculation, the correlation value H (n) of the pair of image formations on the optical sensors 132B and 132R is obtained by the calculation based on the following equation (5), and these image formations are performed until the correlation value becomes the minimum. The relative movement value (phase difference) of is calculated.

【0016】 H(n)=Σ(j=1〜i)|B(j)−R(j+n)| ‥‥(5) ただし、Σ(j=1〜i)はjが1からiまでの関数の
和を表す。jは基準光センサ132B内の画素を指定す
る。また、nはたとえば−6から6までの整数で、参照
光センサ内の上記の相対移動量を示す。
H (n) = Σ (j = 1 to i) | B (j) −R (j + n) | (5) where Σ (j = 1 to i) is from j to 1 Represents the sum of functions. j designates a pixel in the reference light sensor 132B. Further, n is an integer from -6 to 6, for example, and indicates the relative movement amount in the reference light sensor.

【0017】B(j)は基準光センサ132Bの各画素
より時系列的に出力される電気信号であり、R(j+
n)は参照光センサ132Rの画素より時系列的に出力
される電気信号である。
B (j) is an electrical signal output from each pixel of the reference photosensor 132B in time series, and R (j +
n) is an electric signal output from the pixel of the reference light sensor 132R in time series.

【0018】図15(B)は、画素シフト量と相関値の
関係を示す。画素シフト量nを−6から6まで順次変化
させる毎に上記式(5)の演算を行えば、図に示すよう
な相関値H(−6)、H(−5)、・・・、H(6)が
得られる。例えば、相関値H(0)が最小値となる場合
に測距対象物までの距離が所定の値になるようにあらか
じめ設定しておく。これよりずれた位置での相関値が最
小値となれば、そのずれ量によって測距対象物の所定位
置からのずれ、すなわち測距対象物までの距離を検出す
ることができる。
FIG. 15B shows the relationship between the pixel shift amount and the correlation value. When the calculation of the above equation (5) is performed every time the pixel shift amount n is sequentially changed from −6 to 6, correlation values H (−6), H (−5), ..., H as shown in FIG. (6) is obtained. For example, it is set in advance so that the distance to the object to be measured becomes a predetermined value when the correlation value H (0) becomes the minimum value. When the correlation value at the position deviated from this is the minimum value, the deviation of the object to be measured from the predetermined position, that is, the distance to the object to be measured can be detected by the amount of deviation.

【0019】ところで、基準光センサ132B、参照光
センサ132Rの受光素子は、例えば20[μm]のピ
ッチで配置されている。相関値は画像面において20
[μm]を単位とした距離毎に演算される。測距対象物
までの距離が、受光素子のピッチの中間位置に相当する
ときは、図の破線で示すように相関値の極値の右側の相
関値と左側の相関値の値が異なるようになる。このよう
な場合、補間演算を行うことによってピッチ間隔以上の
解像度を得ることができる。
By the way, the light receiving elements of the standard light sensor 132B and the reference light sensor 132R are arranged at a pitch of 20 [μm], for example. The correlation value is 20 on the image plane.
It is calculated for each distance in units of [μm]. When the distance to the object to be measured corresponds to the middle position of the pitch of the light receiving element, make sure that the correlation value on the right side of the extreme value of the correlation value and the correlation value on the left side are different as shown by the broken line in the figure. Become. In such a case, it is possible to obtain a resolution equal to or greater than the pitch interval by performing interpolation calculation.

【0020】図15(C)は、3点補間の方法を説明す
るための概略図である。極小の相関値の得られた位置を
x2とし、その両側のサンプル位置をx1、x3とす
る。実際に演算で得られた相関値を黒丸で示す。図で示
すように、x3における相関値y3がx1における相関
値y1より低い場合、真の極小値はx2からx3に幾分
進んだところに存在すると考えられる。
FIG. 15C is a schematic diagram for explaining the method of three-point interpolation. The position where the minimum correlation value is obtained is defined as x2, and the sample positions on both sides thereof are defined as x1 and x3. The correlation value actually obtained by calculation is shown by a black circle. As shown in the figure, when the correlation value y3 at x3 is lower than the correlation value y1 at x1, it is considered that the true minimum value exists somewhere in advance from x2 to x3.

【0021】もし、極小値が正確にx2の位置にある場
合、相関値曲線は破線g1で示すようにx2で折れ曲が
り、左右対称に立ち上がるとすればx3における相関値
y3aはx1における相関値y1と等しくなる。
If the minimum value is exactly at the position of x2, the correlation value curve is bent at x2 as shown by the broken line g1, and if it rises symmetrically, the correlation value y3a at x3 is the correlation value y1 at x1. Will be equal.

【0022】一方、x2とx3の中点が真の最小相関値
の位置であるとすれば、相関値曲線は破線g2で示すよ
うにx2とx3の中点で折れ曲がり、x2における相関
値y2とx3における相関値y3bは等しくなる。図に
示すように、これら2つの場合における相関値の差(y
3a−y3b)はx1とx2の間の相関値の差(y1−
y2)に等しい。すなわち、半ピッチ進むことによって
1単位の相関値が変化する。そこで、実際に演算で得ら
れた相関値が上に述べた2つの場合のどの中間位置にあ
るかを調べることにより、真の相関値最小の位置を得る
ことができる。x2からのずれ量dは、隣接するサンプ
ル点間の距離を1としたとき、 d=(y1−y3)/2(y1−y2) ・・・(6) で与えられる。
On the other hand, if the midpoint between x2 and x3 is the position of the true minimum correlation value, the correlation value curve is bent at the midpoint between x2 and x3 as shown by the broken line g2, and the correlation value y2 at x2 becomes The correlation value y3b at x3 becomes equal. As shown in the figure, the difference (y
3a-y3b) is the difference in correlation value between x1 and x2 (y1-
equal to y2). That is, the correlation value of one unit changes as the pitch advances by half a pitch. Therefore, the true correlation value minimum position can be obtained by checking which intermediate position of the above-mentioned two cases the correlation value actually obtained by the calculation is. The shift amount d from x2 is given by d = (y1-y3) / 2 (y1-y2) (6) when the distance between adjacent sample points is 1.

【0023】[0023]

【発明が解決しようとする課題】現在、多数の画素を有
する測距装置が、望まれている。例えば、2次元の画素
領域を有する測距装置がある。2次元の測距装置は、2
次元領域内において複数のエリアについての測距値を検
出することができる。測距に用いる相関演算は、式
(5)に示すように、画素数が多くなるほど、多くの演
算を必要とするので、測距値を得るのに長時間を要す
る。
At present, a distance measuring device having a large number of pixels is desired. For example, there is a distance measuring device having a two-dimensional pixel area. Two-dimensional distance measuring device is 2
It is possible to detect distance measurement values for a plurality of areas within the dimensional area. As shown in Expression (5), the correlation calculation used for distance measurement requires more calculation as the number of pixels increases, and thus it takes a long time to obtain the distance measurement value.

【0024】また、センサに接続されるアンプとA/D
変換器が、基準センサ用のものと参照センサ用のものに
分けて設けられている等の場合、2つのセンサによるセ
ンサデータは、バイアスレベルが異なってしまう。バイ
アスレベルが異なると、相関演算に悪影響を与える。
Further, an amplifier and an A / D connected to the sensor
When the converter is provided separately for the standard sensor and the reference sensor, the sensor data from the two sensors will have different bias levels. If the bias level is different, the correlation calculation is adversely affected.

【0025】本発明の目的は、バイアスレベル差による
悪影響をなくし、高速に測距を行うことができる測距装
置を提供することである。
An object of the present invention is to provide a distance measuring device which eliminates the adverse effect of a bias level difference and can perform distance measurement at high speed.

【0026】[0026]

【課題を解決するための手段】本発明の1観点によれ
ば、それぞれ複数画素によって構成される第1および第
2の光センサが出力する第1および第2のセンサデータ
を受け取るデータ入力端子と、前記データ入力端子が受
け取る第1および第2のセンサデータについて、それぞ
れ所定の画素位置を軸にして反転した第1および第2の
反転センサデータを生成する反転手段と、前記第1のセ
ンサデータと前記第2の反転センサデータを加算し第1
の加算データを生成し、前記第2のセンサデータと前記
第1の反転センサデータを加算し第2の加算データを生
成する加算手段と、前記第1の加算データと前記第2の
加算データとの相関度を演算する相関演算手段と、前記
相関演算手段による演算結果に応じて測距値を演算する
測距値演算手段とを有する測距装置が提供される。
According to one aspect of the present invention, a data input terminal for receiving first and second sensor data output from first and second photosensors each composed of a plurality of pixels. Inverting means for generating first and second inverted sensor data which are inverted with respect to the first and second sensor data received by the data input terminal about a predetermined pixel position, respectively, and the first sensor data. And the second inverted sensor data are added to
Addition data for generating the second addition data and adding the second sensor data and the first inverted sensor data to generate the second addition data; and the first addition data and the second addition data. There is provided a distance measuring device having a correlation calculating means for calculating the correlation degree and a distance measuring value calculating means for calculating a distance measuring value according to a calculation result by the correlation calculating means.

【0027】本発明の他の観点によれば、それぞれ複数
画素によって構成される第1および第2の光センサが出
力する第1および第2のセンサデータを受け取る工程
と、前記第1および第2のセンサデータについて、それ
ぞれ所定の画素位置を軸にして反転した第1および第2
の反転センサデータを生成する工程と、前記第1のセン
サデータと前記第2の反転センサデータを加算し第1の
加算データを生成し、前記第2のセンサデータと前記第
1の反転センサデータを加算し第2の加算データを生成
する工程と、前記第1の加算データと前記第2の加算デ
ータとの相関度を演算する工程と、前記相関度の演算結
果に応じて測距値を演算する工程とを含む測距方法が提
供される。
According to another aspect of the present invention, the steps of receiving first and second sensor data output from first and second photosensors each composed of a plurality of pixels, and the first and second sensor data. Of the sensor data of the first and the second inverted with respect to each predetermined pixel position as an axis.
Generating the inverted sensor data, and adding the first sensor data and the second inverted sensor data to generate first added data, the second sensor data and the first inverted sensor data. To generate second addition data, a step of calculating a correlation degree between the first addition data and the second addition data, and a distance measurement value is calculated according to a calculation result of the correlation degree. A distance measuring method including a step of calculating is provided.

【0028】本発明の他の観点によれば、それぞれ複数
画素によって構成される第1および第2の光センサが出
力する第1および第2のセンサデータを受け取るデータ
入力端子と、前記データ入力端子が受け取る第1および
第2のセンサデータについて、それぞれ所定の画素位置
を軸にして反転した第1および第2の反転センサデータ
を生成する反転手段と、前記第1のセンサデータと前記
第2の反転センサデータを加算し第1の加算データを生
成し、前記第2のセンサデータと前記第1の反転センサ
データを加算し第2の加算データを生成する加算手段
と、前記第1の加算データ又は前記第2の加算データか
らピーク値を検出し、該ピーク値から位相差を求めるピ
ーク値検出手段と、前記ピーク値検出手段により求めた
位相差に応じて測距値を演算する測距値演算手段とを有
する測距装置が提供される。本発明の更に他の観点によ
れば、それぞれ複数画素によって構成される第1および
第2の光センサが出力する第1および第2のセンサデー
タを受け取る工程と、前記第1および第2のセンサデー
タについて、それぞれ所定の画素位置を軸にして反転し
た第1および第2の反転センサデータを生成する工程
と、前記第1のセンサデータと前記第2の反転センサデ
ータを加算し第1の加算データを生成し、前記第2のセ
ンサデータと前記第1の反転センサデータを加算し第2
の加算データを生成する工程と、前記第1の加算データ
又は前記第2の加算データからピーク値を検出し、該ピ
ーク値から位相差を求める工程と、前記ピーク値から位
相差を求める工程において求められた位相差に応じて測
距値を演算する工程とを含む測距方法が提供される。
According to another aspect of the present invention, a data input terminal for receiving the first and second sensor data output from the first and second photosensors each composed of a plurality of pixels, and the data input terminal. Inverting means for generating first and second inverted sensor data which are inverted with respect to each of the first and second sensor data received by the sensor, and the first sensor data and the second sensor data. Adding means for adding inverted sensor data to generate first added data, adding the second sensor data and the first inverted sensor data to generate second added data, and the first added data Alternatively, a peak value is detected from the second addition data and a phase difference is obtained from the peak value, and distance measurement is performed according to the phase difference obtained by the peak value detecting means. Distance measuring apparatus is provided having a distance value calculating means for calculating a. According to still another aspect of the present invention, a step of receiving first and second sensor data output from first and second photosensors each composed of a plurality of pixels, and the first and second sensors. A step of generating first and second inverted sensor data that are inverted with respect to the data with respect to a predetermined pixel position as an axis; and adding the first sensor data and the second inverted sensor data, and performing a first addition Data is generated and the second sensor data and the first inverted sensor data are added to generate a second
In the step of generating the addition data, the step of detecting a peak value from the first addition data or the second addition data, and obtaining the phase difference from the peak value, and the step of obtaining the phase difference from the peak value. And a step of calculating a distance measurement value according to the obtained phase difference.

【0029】[0029]

【発明の実施の形態】図1は、本発明の第1の実施例に
よる測距装置の機能を説明するための図である。
1 is a view for explaining the function of a distance measuring device according to a first embodiment of the present invention.

【0030】センサユニットは、右センサユニット1R
と左センサユニット1Lからなる。右センサユニット1
Rは、右用レンズ2Rと2次元光センサ3Rを有する。
左センサユニット1Lは、左用レンズ2Lと2次元光セ
ンサ3Lを有する。光センサ3R,3Lは、それぞれレ
ンズ2R,2Lを介して入射される光の量を電気信号に
変換する。
The sensor unit is the right sensor unit 1R.
And the left sensor unit 1L. Right sensor unit 1
R has a right lens 2R and a two-dimensional optical sensor 3R.
The left sensor unit 1L has a left lens 2L and a two-dimensional optical sensor 3L. The optical sensors 3R and 3L convert the amount of light incident through the lenses 2R and 2L into electric signals.

【0031】右センサデータ取り込み部4Rは、光セン
サ3Rにより生成される電気信号を右センサデータとし
て取り込む。左センサデータ取り込み部4Lは、光セン
サ3Lにより生成される電気信号を左センサデータとし
て取り込む。
The right sensor data fetching section 4R fetches the electric signal generated by the optical sensor 3R as right sensor data. The left sensor data capturing unit 4L captures the electric signal generated by the optical sensor 3L as left sensor data.

【0032】図2に、センサデータの具体例を示す。横
軸は画素位置であり、縦軸はセンサデータである。セン
サデータは、2次元データであるが、ラインデータ毎に
処理を行うので、以下、ラインデータについて説明す
る。
FIG. 2 shows a specific example of sensor data. The horizontal axis is the pixel position, and the vertical axis is the sensor data. Although the sensor data is two-dimensional data, since the processing is performed for each line data, the line data will be described below.

【0033】DRは、右センサデータ取り込み部4Rに
より取り込まれる右センサデータである。DLは、左セ
ンサデータ取り込み部4Lにより取り込まれる左センサ
データである。右センサデータDRと左センサデータD
Lのずれ量(位相差)は、dである。右センサで生成さ
れるデータa1は、左センサにおいてはdだけずれ、a
2として取り込まれる。
DR is the right sensor data captured by the right sensor data capturing section 4R. DL is the left sensor data captured by the left sensor data capturing unit 4L. Right sensor data DR and left sensor data D
The shift amount (phase difference) of L is d. The data a1 generated by the right sensor is shifted by d in the left sensor,
Taken in as 2.

【0034】図1において、右センサデータ反転処理部
5Rは、右センサデータDRについて反転処理を行う。
左センサデータ反転処理部5Lは、左センサデータDL
について反転処理を行う。
In FIG. 1, the right sensor data inversion processing section 5R inverts the right sensor data DR.
The left sensor data inversion processing unit 5L uses the left sensor data DL
Inversion processing is performed for.

【0035】反転処理部5R,5Lは、1ライン毎に処
理を行う。1ライン中のある位置(例えば真ん中)を軸
として、画素位置について反転したセンサデータを生成
する。
The inversion processing units 5R and 5L perform processing line by line. The sensor data inverted with respect to the pixel position is generated with a certain position (for example, the middle) in one line as an axis.

【0036】図3に、反転センサデータの具体例を示
す。DR’は、右センサデータDR(図2)について軸
Aで反転した反転センサデータである。センサデータD
Rにおいて軸Aの左に位置していたデータa1は、セン
サデータDR’においてはデータa1’として軸Aの右
に位置している。
FIG. 3 shows a specific example of the inverted sensor data. DR ′ is inverted sensor data obtained by inverting the right sensor data DR (FIG. 2) on the axis A. Sensor data D
The data a1 located on the left of the axis A in R is located on the right of the axis A as the data a1 ′ in the sensor data DR ′.

【0037】DL’は、左センサデータDL(図2)に
ついて軸Aで反転した反転センサデータである。センサ
データDLにおいて軸Aの右に位置していたデータa2
は、センサデータDL’においてはデータa2’として
軸Aの左に位置している。
DL 'is inverted sensor data obtained by inverting the left sensor data DL (FIG. 2) along the axis A. Data a2 located to the right of axis A in sensor data DL
Is located on the left of the axis A as the data a2 ′ in the sensor data DL ′.

【0038】反転センサデータDR’とDL’の間のず
れ量は、dである。しかし、センサデータを反転してい
るため、センサデータDRとDLの場合(図2)に比
べ、ずれ方向が逆である。
The shift amount between the inverted sensor data DR 'and DL' is d. However, since the sensor data is inverted, the shift direction is opposite to that in the case of the sensor data DR and DL (FIG. 2).

【0039】図1において、加算器6Rは、左センサデ
ータDLと右反転センサデータDR’を加算する。加算
器6Lは、右センサデータDRと左反転センサデータD
L’を加算する。
In FIG. 1, the adder 6R adds the left sensor data DL and the right inverted sensor data DR '. The adder 6L has the right sensor data DR and the left inverted sensor data D.
Add L '.

【0040】図4に、加算器6R,6Lの加算結果であ
るセンサデータDR+DL’とセンサデータDL+D
R’の例を示す。センサデータDR+DL’は、データ
DR(図2)とデータDL’(図3)を加算したデータ
である。センサデータDL+DR’は、データDL(図
2)とデータDR’(図3)を加算したデータである。
In FIG. 4, sensor data DR + DL 'and sensor data DL + D, which are the addition results of the adders 6R and 6L, are shown.
An example of R'is shown. The sensor data DR + DL ′ is data obtained by adding the data DR (FIG. 2) and the data DL ′ (FIG. 3). The sensor data DL + DR ′ is data obtained by adding the data DL (FIG. 2) and the data DR ′ (FIG. 3).

【0041】センサデータDR+DL’中のデータc1
は、データa1(図2)とデータa2’(図3)の加算
値である。センサデータDL+DR’中のデータc2
は、データa2(図2)とデータa1’(図3)の加算
値である。
Data c1 in the sensor data DR + DL '
Is an added value of the data a1 (FIG. 2) and the data a2 ′ (FIG. 3). Data c2 in the sensor data DL + DR '
Is an added value of the data a2 (FIG. 2) and the data a1 ′ (FIG. 3).

【0042】センサデータDR+DL’とセンサデータ
DL+DR’の間のずれ量は、dである。図1におい
て、相関演算部7は、センサデータDR+DL’とセン
サデータDL+DR’との間で、式(5)を用いて、相
関演算を行う。相関演算は、全部のセンサデータについ
て行う必要はない。図4において、軸Aよりも左のセン
サデータについてのみ行えばよい。軸Aが全センサの真
ん中に位置するとすると、半分の相関演算量で済む。な
お、軸Aよりも右のセンサデータについてのみ相関演算
を行ってもよい。
The amount of deviation between the sensor data DR + DL 'and the sensor data DL + DR' is d. In FIG. 1, the correlation calculation unit 7 performs the correlation calculation between the sensor data DR + DL ′ and the sensor data DL + DR ′ using the equation (5). The correlation calculation does not need to be performed on all sensor data. In FIG. 4, only the sensor data on the left of the axis A needs to be performed. If the axis A is located at the center of all the sensors, half the amount of correlation calculation is required. The correlation calculation may be performed only on the sensor data on the right side of the axis A.

【0043】センサデータDR+DL’とセンサデータ
DL+DR’は、それぞれ軸Aを境界とした左の領域に
全てのセンサ情報が入っている。右の領域についても、
全てのセンサ情報が入っている。したがって、全ての領
域について相関演算を行わなくても、右または左のいず
れかの領域について相関演算を行えば十分である。
The sensor data DR + DL 'and the sensor data DL + DR' each include all sensor information in the left area with the axis A as a boundary. Also for the right area,
Contains all sensor information. Therefore, it is sufficient to perform the correlation calculation on either the right or left region without performing the correlation calculation on all the regions.

【0044】また、センサデータDR+DL’とセンサ
データDL+DR’は、いずれも右センサの情報と左セ
ンサの情報が加算されたデータであるので、バイアスレ
ベルが同じになる。例えば、右センサのバイアスレベル
をr1とし、左センサのバイアスレベルをr2とする
と、右センサデータと左センサデータは、それぞれ、 DR(n)+r1 DL(n)+r2 で表される。ここで、nは画素位置である。
Further, since the sensor data DR + DL 'and the sensor data DL + DR' are both data obtained by adding the information of the right sensor and the information of the left sensor, they have the same bias level. For example, when the bias level of the right sensor is r1 and the bias level of the left sensor is r2, the right sensor data and the left sensor data are represented by DR (n) + r1 DL (n) + r2, respectively. Here, n is a pixel position.

【0045】右反転センサデータと左反転センサデータ
は、それぞれ、 DR(n)’+r1 DL(n)’+r2 で表される。
The right inverted sensor data and the left inverted sensor data are represented by DR (n) '+ r1 DL (n)' + r2, respectively.

【0046】加算器6R,6Lで加算されるデータは、
それぞれ、 DL(n)+DR(n)’+r1+r2 DR(n)+DL(n)’+r1+r2 で表される。いずれも、バイアスレベルはr1+r2に
なる。この2つのデータについて相関演算を行えば、バ
イアスレベルは打ち消される。
The data added by the adders 6R and 6L is
Each is represented by DL (n) + DR (n) ′ + r1 + r2 DR (n) + DL (n) ′ + r1 + r2. In both cases, the bias level is r1 + r2. The bias level is canceled by performing the correlation calculation on these two data.

【0047】図1において、相関演算部7は、式(5)
の相関演算を行った後、式(6)の3点補間演算を行
い、最小の相関値を求める。測距値演算部8は、求めら
れた最小の相関値を基にして、式(4)により測距値L
を求め、出力する。
In FIG. 1, the correlation calculation unit 7 uses the equation (5)
After performing the correlation calculation of, the three-point interpolation calculation of Expression (6) is performed to obtain the minimum correlation value. The distance measurement value calculation unit 8 calculates the distance measurement value L by the formula (4) based on the obtained minimum correlation value.
And output.

【0048】図5は、以上の演算過程のデータを簡単化
したモデルである。右データDRは、画素データα1と
画素データα2を有する。左データDLは、画素データ
β1と画素データβ2を有する。同一の対象物が、右セ
ンサ上にデータα1,α2として、左センサ上にデータ
β1,β2として表される。右データα1,α2と左デ
ータβ1,β2のずれ量(位相差)は、dである。
FIG. 5 is a model in which the data of the above-described calculation process is simplified. The right data DR has pixel data α1 and pixel data α2. The left data DL has pixel data β1 and pixel data β2. The same object is represented as data α1, α2 on the right sensor and data β1, β2 on the left sensor. The shift amount (phase difference) between the right data α1 and α2 and the left data β1 and β2 is d.

【0049】右反転データDR’は、右データDRを軸
Aで反転したデータである。左反転データDL’は、左
データDLを軸Aで反転したデータである。右データα
1,α2と左データβ1,β2の位相差は、やはりdで
ある。
The right inverted data DR 'is data obtained by inverting the right data DR on the axis A. The left inverted data DL ′ is data obtained by inverting the left data DL on the axis A. Right data α
The phase difference between 1 and α2 and the left data β1 and β2 is still d.

【0050】データDR+DL’は、右データDRと左
反転データDL’を加算したデータである。データDL
+DR’は、左データDLと右反転データDR’を加算
したデータである。軸Aを境界にして、データDR+D
L’の左側の領域にはデータα1,β2が含まれてい
る。データDL+DR’の左側の領域にはデータβ1,
α2が含まれている。
The data DR + DL 'is data obtained by adding the right data DR and the left inverted data DL'. Data DL
+ DR ′ is data obtained by adding the left data DL and the right inverted data DR ′. Data DR + D with axis A as the boundary
The area on the left side of L'includes data α1 and β2. In the area on the left side of the data DL + DR ′, the data β1,
α2 is included.

【0051】つまり、データDR+DL’の左側の領域
とデータDL+DR’の左側の領域との間における相関
値を演算すれば、全てのデータα1,α2,β1,β2
が反映されることになる。この時の位相差はdである。
That is, if the correlation value between the area on the left side of the data DR + DL 'and the area on the left side of the data DL + DR' is calculated, all the data α1, α2, β1, β2.
Will be reflected. The phase difference at this time is d.

【0052】左側の領域について相関演算を行えば、必
ずしも右側の領域について相関演算を行う必要はない。
なお、データDR+DL’とデータDL+DR’のそれ
ぞれの右側の領域についても、全てのデータα1,α
2,β1,β2が含まれているので、右側の領域につい
てのみ相関演算を行うようにしてもよい。
If the correlation calculation is performed on the left side area, it is not always necessary to perform the correlation calculation on the right side area.
It should be noted that the data DR + DL ′ and the data DL + DR ′ on the right-hand side of the respective areas also have all the data α1, α.
Since 2, β1 and β2 are included, the correlation calculation may be performed only for the right area.

【0053】次に、センサデータの加算原理について説
明する。右センサデータDRと左センサデータDLの間
における相関演算を行えば、正しい位相差dが得られる
ことは、図15(A)〜(C)で示した通りである。本
実施例では、それに代わり、データDR+DL’とデー
タDL+DR’の間における相関演算を行うことを示し
た。この場合においても、正しい位相差dが得られるこ
とを説明する。つまり、センサデータの加算を行ったデ
ータDR+DL’とDL+DR’の間においても、位相
差dが保存される。
Next, the principle of addition of sensor data will be described. As shown in FIGS. 15A to 15C, the correct phase difference d can be obtained by performing the correlation calculation between the right sensor data DR and the left sensor data DL. In the present embodiment, instead of this, it is shown that the correlation calculation between the data DR + DL ′ and the data DL + DR ′ is performed. It will be described that the correct phase difference d can be obtained even in this case. That is, the phase difference d is stored even between the data DR + DL ′ and DL + DR ′ obtained by adding the sensor data.

【0054】図6は、一般的な基本関数f(x),f
(x−d),g(x),g(x−d)を示す。関数f
(x)と関数g(x)は、相互に独立である。関数f
(x−d)は、関数f(x)に対してdだけずれた関数
である。関数g(x−d)は、関数g(x)に対してd
だけずれた関数である。
FIG. 6 shows general basic functions f (x), f
(X-d), g (x), g (x-d) are shown. Function f
(X) and the function g (x) are independent of each other. Function f
(X-d) is a function deviated from the function f (x) by d. The function g (x-d) is d with respect to the function g (x).
The function is deviated by

【0055】ここで、関数f(x)はデータDRに相当
し、関数f(x−d)はデータDLに相当する。関数g
(x)はデータDL’に相当し、関数g(x−d)はデ
ータDR’に相当する。
Here, the function f (x) corresponds to the data DR, and the function f (x-d) corresponds to the data DL. Function g
(X) corresponds to the data DL ′, and the function g (x−d) corresponds to the data DR ′.

【0056】図7は、基本関数を加算した関数H
(x),H(x−d)を示す。関数H(x)を、 H(x)=f(x)+g(x) で表すと、関数H(x−d)は、 H(x−d)=f(x−d)+g(x−d) で表すことができる。
FIG. 7 shows a function H obtained by adding basic functions.
(X) and H (x-d) are shown. When the function H (x) is represented by H (x) = f (x) + g (x), the function H (x-d) is H (x-d) = f (x-d) + g (x- d) can be represented.

【0057】この際、関数H(x)と関数H(x−d)
との間においても、位相差dは保存されることが証明さ
れる。したがって、関数H(x)と関数H(x−d)の
間において相関演算を行っても、正しい位相差dを検出
することができる。
At this time, the function H (x) and the function H (x-d)
It is proved that the phase difference d is also preserved between and. Therefore, even if the correlation calculation is performed between the function H (x) and the function H (x-d), the correct phase difference d can be detected.

【0058】以上より、データDR+DL’とデータD
L+DR’の間で相関演算を行った場合にも、正しい位
相差dを検出することができる。なお、データDR+D
L’,DL+DR’は、それぞれ距離の異なる対象物に
ついてのセンサデータが加算されることになるので、そ
の点に問題がないか否かが問題となる。
From the above, data DR + DL 'and data D
Even when the correlation calculation is performed between L + DR ′, the correct phase difference d can be detected. The data DR + D
Since sensor data of objects having different distances are added to L ′ and DL + DR ′, there is a problem in that respect.

【0059】しかし、元来、センサ上に投影される2次
元画像は、遠近の対象物が混在したものであり、遠近の
混在は当初から是認されている。したがって、センサデ
ータについても、距離情報の異なるデータを加算しても
特別な問題は生じない。
However, originally, the two-dimensional image projected on the sensor is a mixture of objects in perspective and perspective, and the mixture of perspective is approved from the beginning. Therefore, regarding the sensor data, no special problem occurs even if data with different distance information is added.

【0060】図8は、本実施例による測距装置の全体構
成を示す。センサユニットは、右センサユニット1Rと
左センサユニット1Lからなる。右センサユニット1R
は、右用レンズ2Rと2次元光センサ3Rを有し、左セ
ンサユニット1Lは、左用レンズ2Lと2次元光センサ
3Lを有する。光センサ3R,3Lは、それぞれレンズ
2R,2Lを介して入射される光の量を電気信号に変換
する。
FIG. 8 shows the overall structure of the distance measuring device according to this embodiment. The sensor unit includes a right sensor unit 1R and a left sensor unit 1L. Right sensor unit 1R
Has a right lens 2R and a two-dimensional optical sensor 3R, and the left sensor unit 1L has a left lens 2L and a two-dimensional optical sensor 3L. The optical sensors 3R and 3L convert the amount of light incident through the lenses 2R and 2L into electric signals.

【0061】システムコントローラ14は、例えばマイ
コンであり、センサ制御系12が生成するタイミングパ
ルスを受け取り、センサ制御信号をセンサ制御系12へ
返す。センサ制御系12は、センサ制御信号を基に、駆
動パルスを駆動回路11R,11Lに供給する。
The system controller 14 is, for example, a microcomputer, receives a timing pulse generated by the sensor control system 12, and returns a sensor control signal to the sensor control system 12. The sensor control system 12 supplies a drive pulse to the drive circuits 11R and 11L based on the sensor control signal.

【0062】駆動回路11R,11Lは、駆動パルスに
応じて、センサ3R,3Lを駆動する。センサ3R,3
Lからセンサデータ量子化部13へ、センサデータが供
給される。センサデータ量子化部13は、センサデータ
の量子化を行う。
The drive circuits 11R and 11L drive the sensors 3R and 3L according to the drive pulse. Sensor 3R, 3
The sensor data is supplied from L to the sensor data quantization unit 13. The sensor data quantizer 13 quantizes sensor data.

【0063】システムコントローラ14は、書き込み制
御信号と書き込みアドレスを画像メモリ15に供給す
る。画像メモリ15は、例えばSRAMであり、書き込
み制御信号に応じて、センサデータ量子化部13で量子
化された量子化データを記憶する。
The system controller 14 supplies the write control signal and the write address to the image memory 15. The image memory 15 is, for example, an SRAM, and stores the quantized data quantized by the sensor data quantization unit 13 according to the write control signal.

【0064】演算部16は、例えばRISCマイコンで
あり、転送制御信号をパラレル入出力回路(パラレルI
O)18に供給する。パラレル入出力回路18は、測距
を行いたいエリア等の条件を外部機器19から取り込
み、データ転送メモリ17に転送する。データ転送メモ
リ17は、例えばSRAMである。
The arithmetic unit 16 is, for example, a RISC microcomputer, and sends a transfer control signal to a parallel input / output circuit (parallel I
O) supply to 18. The parallel input / output circuit 18 takes in conditions such as an area for which distance measurement is desired from an external device 19 and transfers it to the data transfer memory 17. The data transfer memory 17 is, for example, SRAM.

【0065】また、演算部16は、読み出し書き込み制
御信号およびアドレスを、画像メモリ15またはデータ
転送メモリ17へ供給する。演算部16は、画像メモリ
15からセンサデータDR,DLを読み出して、センサ
データの反転処理を行い、反転データDR’,DL’を
生成する。
The arithmetic unit 16 also supplies the read / write control signal and the address to the image memory 15 or the data transfer memory 17. The calculation unit 16 reads the sensor data DR, DL from the image memory 15, performs an inversion process on the sensor data, and generates inverted data DR ′, DL ′.

【0066】その後、加算処理を行い、データDR+D
L’,DL+DR’を生成し、データDR+DL’とデ
ータDL+DR’の間における相関演算を行う。相関演
算の後、3点補間を行い、高精度の位相差dを求める。
位相差dを求めた後、測距値を演算する。
After that, addition processing is performed and data DR + D
L ′, DL + DR ′ are generated, and the correlation calculation between the data DR + DL ′ and the data DL + DR ′ is performed. After the correlation calculation, three-point interpolation is performed to obtain a highly accurate phase difference d.
After obtaining the phase difference d, the distance measurement value is calculated.

【0067】演算部16は、求めらた測距値をデータ転
送メモリ17に書き込む。パラレル入出力回路18は、
演算部16から転送制御信号を受けて、データ転送メモ
リ17に記憶されている測距値を外部機器19に転送す
る。
The arithmetic section 16 writes the obtained distance measurement value in the data transfer memory 17. The parallel input / output circuit 18 is
Upon receiving a transfer control signal from the arithmetic unit 16, the distance measurement value stored in the data transfer memory 17 is transferred to the external device 19.

【0068】図9は、本実施例による測距装置の処理手
順を示すフローチャートである。測距装置は、2次元領
域中の複数エリアにおいて、各エリアにおける測距値を
検出することができる。
FIG. 9 is a flow chart showing the processing procedure of the distance measuring apparatus according to this embodiment. The distance measuring device can detect the distance measuring value in each area in a plurality of areas in the two-dimensional area.

【0069】ステップS1では、光センサ3R,3Lか
ら得られるセンサデータを、2次元の画像データとして
画像メモリ15へ書き込む。ステップS1の処理は、シ
ステムコントローラ14が行う。この後の処理は、演算
部16が行う。
In step S1, the sensor data obtained from the optical sensors 3R and 3L is written in the image memory 15 as two-dimensional image data. The system controller 14 performs the process of step S1. The calculation unit 16 performs the subsequent processing.

【0070】ステップS2では、外部機器19から得ら
れる諸条件を、データ転送メモリ17へ取り込む。諸条
件とは、例えば、測距を行いたいエリアの指定や、エリ
アの大きさの指定を含み、後に測距値演算を行う際に用
いられる。
In step S2, various conditions obtained from the external device 19 are loaded into the data transfer memory 17. The various conditions include, for example, designation of an area for which distance measurement is desired and designation of the size of the area, and are used when performing a distance measurement value calculation later.

【0071】ステップS3では、全ラインの処理が終了
したか否かを判定する。2次元画像データは、複数のラ
インからなり、ライン毎に処理を行う。全てのラインに
ついての演算処理が終了していないときには、ステップ
S4へ進む。
In step S3, it is determined whether or not the processing of all lines has been completed. The two-dimensional image data consists of a plurality of lines, and processing is performed for each line. If the arithmetic processing has not been completed for all lines, the process proceeds to step S4.

【0072】ステップS4では、画像メモリ15から1
ラインのデータを取り込む。ステップS5では、取り込
んだラインデータの前処理を行う。この前処理が本実施
例における重要な処理である。
In step S4, the image memory 15
Capture line data. In step S5, preprocessing of the captured line data is performed. This pretreatment is an important treatment in this embodiment.

【0073】演算部16は、画像メモリ15から取り込
んだセンサデータDR,DLについて、反転処理を行
い、反転データDR’,DL’を生成する。その後、加
算処理を行い、データDR+DL’,DL+DR’を生
成する。
The calculation section 16 performs inversion processing on the sensor data DR, DL fetched from the image memory 15 to generate inverted data DR ', DL'. After that, addition processing is performed to generate data DR + DL ′ and DL + DR ′.

【0074】ステップS6では、全エリアの処理が終了
したか否かを判定する。ラインデータは、複数のエリア
を含む。ラインデータ中の全てのエリアについて、演算
処理を行っていないときには、ステップS7へ進む。
In step S6, it is determined whether or not the processing for all areas has been completed. The line data includes a plurality of areas. When the arithmetic processing is not performed for all areas in the line data, the process proceeds to step S7.

【0075】ステップS7では、1エリアの相関演算を
行う。相関演算は、データDR+DL’とデータDL+
DR’の間において行う。その後、式(6)による3点
補間を行い、高精度の位相差dを求める。そして、式
(4)を用いて、距離演算を行い、測距値を求める。
In step S7, the correlation calculation for one area is performed. Correlation calculation is performed by data DR + DL ′ and data DL +
Perform during DR '. After that, three-point interpolation according to the equation (6) is performed to obtain a highly accurate phase difference d. Then, the distance calculation is performed using the equation (4) to obtain the distance measurement value.

【0076】ステップS8では、求めた測距値のデータ
を転送メモリ17へ書き込む。その後、ステップS6へ
戻り、次のエリアについての測距値を求める。ステップ
S6において、ラインデータ中の全てのエリアについて
の演算が終了したと判断されたときには、ステップS3
へ戻り、次のラインについての処理を繰り返す。
In step S8, the data of the obtained distance measurement value is written in the transfer memory 17. After that, the process returns to step S6 to obtain the distance measurement value for the next area. When it is determined in step S6 that the calculation has been completed for all areas in the line data, step S3
Return to and repeat the process for the next line.

【0077】ステップS3において、全てのラインにつ
いての演算が終了したと判断されたときには、処理を終
了する。図10は、本発明の第2の実施例による測距装
置の機能を説明するための図である。
If it is determined in step S3 that the calculation has been completed for all lines, the process is ended. FIG. 10 is a diagram for explaining the function of the distance measuring device according to the second embodiment of the present invention.

【0078】センサユニット1R,1L、センサデータ
取り込み部4R,4L、センサデータ反転処理部5R,
5L、加算器6R,6Lは、第1の実施例(図1)と同
じである。加算器6Rは、データDL+DR’を出力
し、加算器6Lは、データDR+DL’を出力する。
The sensor units 1R and 1L, the sensor data fetching units 4R and 4L, the sensor data inversion processing unit 5R,
5L and adders 6R and 6L are the same as in the first embodiment (FIG. 1). The adder 6R outputs data DL + DR ', and the adder 6L outputs data DR + DL'.

【0079】ピーク値検出部27は、データDL+D
R’のピーク値を求める。そして、このピーク値を基
に、位相差dを求める。つまり、相関演算の代わりにピ
ーク値検出を行い、位相差dを求める。詳細は、後に説
明する。なお、データDL+DR’の代わりに、データ
DR+DL’のピーク値を求めるようにしてもよい。
The peak value detector 27 uses the data DL + D
Find the peak value of R '. Then, the phase difference d is obtained based on this peak value. That is, the peak value is detected instead of the correlation calculation, and the phase difference d is obtained. Details will be described later. Note that the peak value of the data DR + DL ′ may be obtained instead of the data DL + DR ′.

【0080】測距値演算部8は、位相差dを基に測距値
を演算し、出力する。図11は、図10のピーク値検出
部27が位相差dを検出する方法を示すグラフである。
The distance measurement value calculation unit 8 calculates and outputs the distance measurement value based on the phase difference d. FIG. 11 is a graph showing a method of detecting the phase difference d by the peak value detecting unit 27 of FIG.

【0081】横軸は画素位置nであり、縦軸は関数P
(n)である。関数P(n)は、 P(n)=DL(n)+DR(n)’ であり、加算器6Rの出力値を示す。
The horizontal axis is the pixel position n, and the vertical axis is the function P.
(N). The function P (n) is P (n) = DL (n) + DR (n) 'and indicates the output value of the adder 6R.

【0082】軸Aは、センサデータ反転処理部5R,5
Lにおいてセンサデータの反転を行った際の軸である。
軸Bは、関数P(n)のピーク値を表す軸である。軸A
の位置は、既知である。軸Bの位置は、ピーク検出によ
り求めるべきパラメータである。
The axis A is for the sensor data inversion processing units 5R and 5R.
This is the axis when the sensor data is inverted at L.
The axis B is an axis representing the peak value of the function P (n). Axis A
The position of is known. The position of the axis B is a parameter to be obtained by peak detection.

【0083】関数P(n)は、軸Bを軸にしてほぼ左右
対称になる。軸Bの付近は、凸部を形成する。軸Aと軸
Bの間隔は、位相差dの半分のd/2である。このこと
は、図4、図5を見ても明らかである。
The function P (n) is substantially symmetrical about the axis B. The vicinity of the axis B forms a convex portion. The distance between the axis A and the axis B is d / 2, which is half the phase difference d. This is clear even if FIG. 4 and FIG. 5 are seen.

【0084】軸Aの位置は分かっているので、軸Bの位
置さえ検出できれば、位相差dを求めることができる。
位相差dを求めれば、測距値を求めることができる。次
に、軸Bの位置、すなわち関数P(n)のピーク値の検
出方法を示す。
Since the position of the axis A is known, the phase difference d can be obtained if only the position of the axis B can be detected.
If the phase difference d is obtained, the distance measurement value can be obtained. Next, a method of detecting the position of the axis B, that is, the peak value of the function P (n) will be described.

【0085】図12は、関数P(n)のピーク値を検出
する方法を示すグラフである。横軸は画素位置nであ
り、縦軸は関数S(n)である。関数S(n)は、 S(n)=P(n)−P(n+k) ・・・(7) である。図のグラフは、kが2の場合を示す。
FIG. 12 is a graph showing a method for detecting the peak value of the function P (n). The horizontal axis represents the pixel position n, and the vertical axis represents the function S (n). The function S (n) is S (n) = P (n) -P (n + k) ... (7). The graph in the figure shows the case where k is 2.

【0086】軸Aの画素位置n(横軸)は予め分かって
いる。関数S(n)が0になる画素位置をZRとする。
軸Aとゼロ点ZRの間隔は、 d/2+k/2 である。ゼロ点ZRは、軸Bの位置に対応する。
The pixel position n (horizontal axis) of the axis A is known in advance. The pixel position where the function S (n) becomes 0 is ZR.
The distance between the axis A and the zero point ZR is d / 2 + k / 2. The zero point ZR corresponds to the position of the axis B.

【0087】したがって、ゼロ点ZRを検出することに
より、位相差dを求めることができる。この方法によ
り、位相差dを求めれば、相関演算を行わずに済み、演
算時間がかなり短くなる。高速で測距値を求めることが
できる。また、関数P(n)=DL(n)+DR
(n)’を基にしているので、前述のように、左右のセ
ンサのバイアスレベル差による悪影響を受けることはな
い。
Therefore, the phase difference d can be obtained by detecting the zero point ZR. By this method, if the phase difference d is obtained, it is not necessary to perform the correlation calculation, and the calculation time is considerably shortened. The distance measurement value can be obtained at high speed. Also, the function P (n) = DL (n) + DR
Since it is based on (n) ', as described above, it is not adversely affected by the bias level difference between the left and right sensors.

【0088】なお、本実施例では、式(7)においてk
が2である場合について述べたが、kは他の値でもよ
い。関数P(n)のピークが鋭い凸部になっているとき
には、kの値を小さくし、ピークが平坦部を含むなだら
かな凸部になっているときには、kの値を大きくするの
が望ましい。そこで、前処理として、凸部の形状を調べ
てからkの値を決めてもよい。
In this embodiment, k in equation (7)
However, k may be another value. It is desirable to reduce the value of k when the peak of the function P (n) has a sharp convex portion, and to increase the value of k when the peak has a gentle convex portion including a flat portion. Therefore, as a preprocessing, the value of k may be determined after examining the shape of the convex portion.

【0089】また、式(7)の関数S(n)を用いて位
相差dを検出する場合のみならず、他の方法により、図
11のピークを示す軸Bの位置を検出して、位相差dを
検出するようにしてもよい。
Further, not only when the phase difference d is detected by using the function S (n) of the equation (7), the position of the axis B showing the peak in FIG. The phase difference d may be detected.

【0090】ピーク検出の対称となる関数P(n)=D
L(n)+DR(n)’を生成する際、一般的にセンサ
の真ん中の画素位置を軸として、センサデータDR
(n)の反転を行い、反転データDR’(n)を生成す
ることが好ましい。
A symmetric function P (n) = D for peak detection
When L (n) + DR (n) ′ is generated, sensor data DR is generally set with the pixel position in the center of the sensor as an axis.
It is preferable to invert (n) and generate inverted data DR ′ (n).

【0091】ただし、センサデータDR(n)が高周波
である場合は、軸の位置によって正しい位相差dを検出
できない場合がある。次に、その際の対処方法を説明す
る。図13は、高周波のセンサデータDR,DLを基に
位相差dを求める方法を示すグラフである。横軸は画素
位置であり、縦軸はセンサデータである。
However, when the sensor data DR (n) has a high frequency, the correct phase difference d may not be detected depending on the position of the axis. Next, a coping method in that case will be described. FIG. 13 is a graph showing a method of obtaining the phase difference d based on the high frequency sensor data DR and DL. The horizontal axis is the pixel position, and the vertical axis is the sensor data.

【0092】右センサデータDRと左センサデータDL
の位相差は、dである。右センサで生成されるピークデ
ータa1は、左センサにおいてはdだけずれ、a2とし
て表される。
Right sensor data DR and left sensor data DL
The phase difference of is d. The peak data a1 generated by the right sensor is deviated by d in the left sensor and is represented as a2.

【0093】軸Cは、センサの真ん中の画素位置を示
す。センサデータDRとDLは、共に軸Cよりも左にピ
ークa1,a2を有する。この場合は、軸Cを基に反転
データを生成し、データDR+DL’を求めてもピーク
が2つできてしまい、正しい位相差dを求めることがで
きない。
Axis C shows the pixel position in the middle of the sensor. Both the sensor data DR and DL have peaks a1 and a2 to the left of the axis C. In this case, even if the inverted data is generated based on the axis C and the data DR + DL ′ is obtained, two peaks are formed and the correct phase difference d cannot be obtained.

【0094】そこで、ピークa1とピークa2の間の画
素位置に軸Aを設定し、反転データDR’とDL’を生
成する。右反転データDR’は、右センサデータDRを
軸Aで反転したデータである。センサデータDRのピー
クデータa1は、センサデータDR’においてはデータ
a1’として表される。
Therefore, the axis A is set at the pixel position between the peak a1 and the peak a2, and the inverted data DR 'and DL' are generated. The right inverted data DR ′ is data obtained by inverting the right sensor data DR on the axis A. The peak data a1 of the sensor data DR is represented as data a1 ′ in the sensor data DR ′.

【0095】左反転データDL’は、左センサデータD
Lを軸Aで反転したデータである。センサデータDLの
ピークデータa2は、センサデータDL’においてはデ
ータa2’として表される。反転センサデータDR’と
DL’の間の位相差は、dである。
The left inverted data DL 'is the left sensor data D.
It is data obtained by inverting L on the axis A. The peak data a2 of the sensor data DL is represented as data a2 'in the sensor data DL'. The phase difference between the inverted sensor data DR 'and DL' is d.

【0096】センサデータDR+DL’は、右データD
Rと左反転データDL’を加算したデータである。セン
サデータDL+DR’は、左データDLと右反転データ
DR’を加算したデータである。
The sensor data DR + DL 'is the right data D
This is data obtained by adding R and the left inverted data DL ′. The sensor data DL + DR ′ is data obtained by adding the left data DL and the right inverted data DR ′.

【0097】ピーク検出は、データDR+DL’または
データDL+DR’のいずれか一方について行えばよ
い。ピーク検出により、検出されるピークの画素位置を
軸Bとすると、軸Bと反転軸Aの間隔はd/2で表され
る。
Peak detection may be performed on either data DR + DL 'or data DL + DR'. Assuming that the pixel position of the peak detected by peak detection is axis B, the interval between axis B and inversion axis A is represented by d / 2.

【0098】以上のように、データDRのピーク値とデ
ータDLのピーク値を検出し、そのピーク値に対応する
画素位置に応じて、軸Aの位置を決めることにより、正
しい位相差dを検出することができる。
As described above, by detecting the peak value of the data DR and the peak value of the data DL and determining the position of the axis A according to the pixel position corresponding to the peak value, the correct phase difference d is detected. can do.

【0099】このように、2つのセンサデータの一方を
反転して他方に加算した時、対応するピークが重なり、
1つのピークを形成するように反転軸を選べば高周波デ
ータにも対応できる。例えば、対応するピークのシフト
範囲内に反転軸を選ぶ。
Thus, when one of the two sensor data is inverted and added to the other, the corresponding peaks overlap,
High frequency data can be handled by selecting the inversion axis so as to form one peak. For example, choose an inversion axis within the shift range of the corresponding peak.

【0100】また、光学系をデフォーカスすることによ
り、センサデータの波長(ピクセル数)が、検出できる
最大シフト数を越えないようにしてもよい。言い換えれ
ば、センサデータを低周波に変換するようにすればよ
い。
Further, the wavelength (number of pixels) of the sensor data may not exceed the maximum shift number that can be detected by defocusing the optical system. In other words, the sensor data may be converted into low frequency.

【0101】第2の実施例によれば、左右のセンサデー
タのバイアスレベル差により悪影響を受けることがな
い。また、相関演算の代わりにピーク検出を行い、位相
差dを検出するので、演算時間をかなり短縮することが
でき、高速な測距を行うことができる。
According to the second embodiment, there is no adverse effect due to the bias level difference between the left and right sensor data. In addition, instead of the correlation calculation, peak detection is performed and the phase difference d is detected, so that the calculation time can be considerably shortened and high-speed distance measurement can be performed.

【0102】なお、本実施例による測距装置は、一般カ
メラ用にも車載用にも用いることができる。車載用に用
いれば、高速に多点測距を行うことができ、そのメリッ
トは大きい。
The distance measuring device according to this embodiment can be used for both a general camera and a vehicle. If it is used for vehicles, it can perform multi-point distance measurement at high speed, which is a great advantage.

【0103】以上実施例に沿って本発明を説明したが、
本発明はこれらに制限されるものではない。例えば、種
々の変更、改良、組み合わせ等が可能なことは当業者に
自明であろう。
The present invention has been described above with reference to the embodiments.
The present invention is not limited to these. For example, it will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.

【0104】[0104]

【発明の効果】以上説明したように、本発明によれば、
第1の光センサによるセンサデータと第2の光センサに
よるセンサデータとの間にバイアスレベルの差があって
も、その差を打ち消した相関演算を行うことができる。
As described above, according to the present invention,
Even if there is a difference in the bias level between the sensor data obtained by the first optical sensor and the sensor data obtained by the second optical sensor, it is possible to perform the correlation calculation by canceling the difference.

【0105】また、第1の加算データと第2の加算デー
タとの間で相関度を演算する際には、全ての画素につい
ての相関度を演算する必要はなく、センサデータの反転
を行った軸を境界にして片側の画素領域についてのみ相
関度を演算すれば足りるので、高速な測距を行うことが
できる。
When calculating the correlation between the first addition data and the second addition data, it is not necessary to calculate the correlation for all pixels, and the sensor data is inverted. Since it is sufficient to calculate the correlation degree only for the pixel region on one side with the axis as a boundary, it is possible to perform high-speed distance measurement.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例による測距装置の機能を
説明するためのブロック図である。
FIG. 1 is a block diagram for explaining a function of a distance measuring device according to a first embodiment of the present invention.

【図2】センサデータDR,DLの具体例を示すグラフ
である。
FIG. 2 is a graph showing a specific example of sensor data DR and DL.

【図3】反転センサデータDR’,DL’の具体例を示
すグラフである。
FIG. 3 is a graph showing a specific example of inverted sensor data DR ′ and DL ′.

【図4】加算センサデータDR+DL’,DL+DR’
の例を示すグラフである。
FIG. 4 is an addition sensor data DR + DL ′, DL + DR ′.
It is a graph which shows the example of.

【図5】本実施例の演算過程のデータを簡単化した概略
図である。
FIG. 5 is a schematic diagram in which data in the calculation process of the present embodiment is simplified.

【図6】一般的な基本関数f(x),f(x−d),g
(x),g(x−d)を示すグラフである。
FIG. 6 shows general basic functions f (x), f (x-d), g
It is a graph which shows (x) and g (x-d).

【図7】基本関数を加算した関数H(x),H(x−
d)を示すグラフである。
FIG. 7 shows functions H (x) and H (x−, which are obtained by adding basic functions.
It is a graph which shows d).

【図8】本実施例による測距装置の全体構成を示すブロ
ック図である。
FIG. 8 is a block diagram showing an overall configuration of a distance measuring device according to the present embodiment.

【図9】本実施例による測距装置の処理手順を示すフロ
ーチャートである。
FIG. 9 is a flowchart showing a processing procedure of the distance measuring apparatus according to the present embodiment.

【図10】本発明の第2の実施例による測距装置の機能
を説明するためのブロック図である。
FIG. 10 is a block diagram for explaining the function of the distance measuring device according to the second embodiment of the present invention.

【図11】図10のピーク値検出部が位相差を検出する
方法を示すグラフである。
FIG. 11 is a graph showing a method of detecting a phase difference by the peak value detection unit of FIG.

【図12】関数P(n)のピーク値を検出する方法を示
すグラフである。
FIG. 12 is a graph showing a method for detecting a peak value of a function P (n).

【図13】高周波のセンサデータを基に位相差を求める
方法を示すグラフである。
FIG. 13 is a graph showing a method for obtaining a phase difference based on high-frequency sensor data.

【図14】測距距離の計測方法を説明するための概略図
である。図14(A)は、位相差検出型測距装置の外光
三角方式光学系の概略図であり、図14(B)は、測距
距離を算出するための演算式である。
FIG. 14 is a schematic diagram for explaining a measuring method of a distance measuring distance. FIG. 14A is a schematic diagram of an external light triangulation optical system of the phase difference detection type distance measuring device, and FIG. 14B is an arithmetic expression for calculating the distance measuring distance.

【図15】相関演算による位相差検出を説明するための
図である。図15(A)は基準部と参照部に得られる画
像信号を示すグラフ、図15(B)は得られる相関値曲
線を示すグラフ、図15(C)は3点補間の方法を説明
するための概略図である。
FIG. 15 is a diagram for explaining phase difference detection by correlation calculation. FIG. 15A is a graph showing image signals obtained in the reference part and the reference part, FIG. 15B is a graph showing obtained correlation value curves, and FIG. 15C is for explaining a three-point interpolation method. FIG.

【符号の説明】[Explanation of symbols]

1 センサユニット 2 レンズ 3 光センサ 4 センサデータ取り込み部 5 センサデータ反転処理部 6 加算器 7 相関演算部 8 測距値演算部 11 駆動回路 12 センサ制御系 13 センサデータ量子化部 14 システムコントローラ 15 画像メモリ 16 演算部 17 データ転送メモリ 18 パラレル入出力回路 19 外部機器 27 ピーク値検出部 1 sensor unit 2 lenses 3 optical sensor 4 Sensor data acquisition unit 5 Sensor data inversion processing section 6 adder 7 Correlation calculator 8 Distance measurement unit 11 Drive circuit 12 Sensor control system 13 Sensor data quantizer 14 System controller 15 image memory 16 Operation part 17 Data transfer memory 18 Parallel input / output circuit 19 External equipment 27 Peak value detector

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G01C 3/00 - 3/32 G01B 11/00 - 11/30 102 G02B 7/28 - 7/40 G03B 13/32 - 13/36 ─────────────────────────────────────────────────── ─── Continuation of front page (58) Fields surveyed (Int.Cl. 7 , DB name) G01C 3/00-3/32 G01B 11/00-11/30 102 G02B 7 /28-7/40 G03B 13 / 32-13/36

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 それぞれ複数画素によって構成される第
1および第2の光センサが出力する第1および第2のセ
ンサデータを受け取るデータ入力端子と、 前記データ入力端子が受け取る第1および第2のセンサ
データについて、それぞれ所定の画素位置を軸にして反
転した第1および第2の反転センサデータを生成する反
転手段と、 前記第1のセンサデータと前記第2の反転センサデータ
を加算し第1の加算データを生成し、前記第2のセンサ
データと前記第1の反転センサデータを加算し第2の加
算データを生成する加算手段と、 前記第1の加算データと前記第2の加算データとの相関
度を演算する相関演算手段と、 前記相関演算手段による演算結果に応じて測距値を演算
する測距値演算手段とを有する測距装置。
1. A data input terminal for receiving first and second sensor data output from first and second photosensors each having a plurality of pixels, and first and second data input terminals for receiving the data. With respect to the sensor data, an inversion means for generating first and second inversion sensor data which are respectively inverted with respect to a predetermined pixel position as an axis, and the first sensor data and the second inversion sensor data are added to obtain an inversion means. Adding data for generating the second addition data and adding the second sensor data and the first inverted sensor data to generate the second addition data; and the first addition data and the second addition data. A distance measuring device having a correlation calculating means for calculating the correlation degree and a distance measuring value calculating means for calculating a distance measuring value according to a calculation result by the correlation calculating means.
【請求項2】 それぞれ複数画素によって構成される第
1および第2の光センサが出力する第1および第2のセ
ンサデータを受け取る工程と、 前記第1および第2のセンサデータについて、それぞれ
所定の画素位置を軸にして反転した第1および第2の反
転センサデータを生成する工程と、 前記第1のセンサデータと前記第2の反転センサデータ
を加算し第1の加算データを生成し、前記第2のセンサ
データと前記第1の反転センサデータを加算し第2の加
算データを生成する工程と、 前記第1の加算データと前記第2の加算データとの相関
度を演算する工程と、前記相関度の演算結果に応じて測
距値を演算する工程とを含む測距方法。
2. A step of receiving first and second sensor data output from first and second photosensors each composed of a plurality of pixels, and predetermined steps for the first and second sensor data, respectively. A step of generating first and second inverted sensor data which are inverted with a pixel position as an axis; and a step of adding the first sensor data and the second inverted sensor data to generate a first addition data, Adding second sensor data and the first inverted sensor data to generate second added data; calculating a degree of correlation between the first added data and the second added data; And a step of calculating a distance measurement value according to the calculation result of the correlation degree.
【請求項3】 それぞれ複数画素によって構成される第
1および第2の光センサが出力する第1および第2のセ
ンサデータを受け取るデータ入力端子と、 前記データ入力端子が受け取る第1および第2のセンサ
データについて、それぞれ所定の画素位置を軸にして反
転した第1および第2の反転センサデータを生成する反
転手段と、 前記第1のセンサデータと前記第2の反転センサデータ
を加算し第1の加算データを生成し、前記第2のセンサ
データと前記第1の反転センサデータを加算し第2の加
算データを生成する加算手段と、 前記第1の加算データ又は前記第2の加算データからピ
ーク値を検出し、該ピーク値から位相差を求めるピーク
値検出手段と、 前記ピーク値検出手段により求めた位相差に応じて測距
値を演算する測距値演算手段とを有する測距装置。
3. A data input terminal for receiving first and second sensor data output from first and second photosensors each composed of a plurality of pixels, and first and second data input terminals for receiving the data. With respect to the sensor data, an inversion means for generating first and second inversion sensor data which are respectively inverted with respect to a predetermined pixel position as an axis, and the first sensor data and the second inversion sensor data are added to obtain an inversion means. From the first addition data or the second addition data; and addition means for generating the addition data for generating the second addition data and adding the second sensor data and the first inverted sensor data to generate the second addition data. A peak value detecting means for detecting a peak value and obtaining a phase difference from the peak value, and a distance measuring value calculation for calculating a distance measuring value according to the phase difference obtained by the peak value detecting means. Distance measuring apparatus and a stage.
【請求項4】 それぞれ複数画素によって構成される第
1および第2の光センサが出力する第1および第2のセ
ンサデータを受け取る工程と、 前記第1および第2のセンサデータについて、それぞれ
所定の画素位置を軸にして反転した第1および第2の反
転センサデータを生成する工程と、 前記第1のセンサデータと前記第2の反転センサデータ
を加算し第1の加算データを生成し、前記第2のセンサ
データと前記第1の反転センサデータを加算し第2の加
算データを生成する工程と、 前記第1の加算データ又は前記第2の加算データからピ
ーク値を検出し、該ピーク値から位相差を求める工程
と、 前記ピーク値から位相差を求める工程において求められ
た位相差に応じて測距値を演算する工程とを含む測距方
法。
4. A step of receiving first and second sensor data output from first and second photosensors each composed of a plurality of pixels, and predetermined steps for the first and second sensor data, respectively. A step of generating first and second inverted sensor data which are inverted with a pixel position as an axis; and a step of adding the first sensor data and the second inverted sensor data to generate a first addition data, A step of adding second sensor data and the first inverted sensor data to generate second added data; detecting a peak value from the first added data or the second added data; And a step of calculating a distance measurement value according to the phase difference obtained in the step of obtaining the phase difference from the peak value.
JP27596295A 1995-10-24 1995-10-24 Distance measuring device and method Expired - Fee Related JP3463967B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27596295A JP3463967B2 (en) 1995-10-24 1995-10-24 Distance measuring device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27596295A JP3463967B2 (en) 1995-10-24 1995-10-24 Distance measuring device and method

Publications (2)

Publication Number Publication Date
JPH09119828A JPH09119828A (en) 1997-05-06
JP3463967B2 true JP3463967B2 (en) 2003-11-05

Family

ID=17562853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27596295A Expired - Fee Related JP3463967B2 (en) 1995-10-24 1995-10-24 Distance measuring device and method

Country Status (1)

Country Link
JP (1) JP3463967B2 (en)

Also Published As

Publication number Publication date
JPH09119828A (en) 1997-05-06

Similar Documents

Publication Publication Date Title
JP3205477B2 (en) Inter-vehicle distance detection device
EP0347912B1 (en) Deformation measuring method and device using cross-correlation function between speckle patterns
JP3191232B2 (en) Image forming device
JPH10253351A (en) Range finder
JPH05119252A (en) Method and apparatus for distance measurement of camera and automatic quick focusing
JPS6036905A (en) Distance measuring apparatus
EP0408224B1 (en) Computational methods and electronic camera apparatus for determining distance of objects, rapid autofocusing and obtaining improved focus images
US5131740A (en) Distance measuring apparatus
JPH09113223A (en) Non-contacting method and instrument for measuring distance and attitude
JP3463967B2 (en) Distance measuring device and method
JPH09119829A (en) Apparatus and method for measurement of distance
JPH0798429A (en) Range finder
JPH09138125A (en) Distance measuring apparatus
JPH09138124A (en) Distance measuring device
JP2001004367A (en) Distance measurement computing device
JPH0798205A (en) Distance measuring system
JP3430746B2 (en) Passive triangulation distance meter
JP3065699B2 (en) Focus position detection device
JPH0412805B2 (en)
JP2002031511A (en) Three-dimensional digitizer
JP3354448B2 (en) Vehicle distance measuring device
JPH0933248A (en) Passive triangulation-type range finder
JPS63222247A (en) Correction of image distortion
JP3819555B2 (en) Vehicle distance measuring device
JP3923181B2 (en) Vehicle distance measuring device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030805

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080822

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080822

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090822

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090822

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100822

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130822

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees