JPS61120001A - Position coordinate measuring instrument - Google Patents

Position coordinate measuring instrument

Info

Publication number
JPS61120001A
JPS61120001A JP24189784A JP24189784A JPS61120001A JP S61120001 A JPS61120001 A JP S61120001A JP 24189784 A JP24189784 A JP 24189784A JP 24189784 A JP24189784 A JP 24189784A JP S61120001 A JPS61120001 A JP S61120001A
Authority
JP
Japan
Prior art keywords
coordinates
measurement
target point
measuring device
optical sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP24189784A
Other languages
Japanese (ja)
Inventor
Takashi Nishibe
隆 西部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP24189784A priority Critical patent/JPS61120001A/en
Publication of JPS61120001A publication Critical patent/JPS61120001A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

PURPOSE:To measure position coordinates of an object of measurement without specifying an angle which specifies the object of measurement by providing a couple of lenses and optical sensor arrays corresponding to those lenses, determining the coordinates of the image formation object point coordinates of the photosensor arrays, and calculating the coordinates of the object of measurement from those coordinates. CONSTITUTION:An image of the object OJ of measurement is formed on corresponding the optical sensor arrays 20L and 20R through the couple of lenses 10L and 10R having base line length (b). Then, an image forming detection signal which exceeds a threshold value is supplied through a switch 36, an object point determining means 30 determines coordinates SL and SR of image forming object points IL and IR from the maximum value of said signal, and a coordinate determining means 40 performs arithmetic based upon equations I and II on the basis of the coordinates SL and SR, and a coordinate determining means 40 measures coordinates (x, y) of the object OJ from an origin which divides the base line length (b) into distances bL and bR. Consequently, the position coordinates are measured of the object of measurement are measured easily with high precision without specifying angles at which the lenses 10L and 10R are directed to the object OJ to specify the object of measurement. In the equations, (f) is the focal length of the lenses.

Description

【発明の詳細な説明】[Detailed description of the invention] 【発明の属する技術分野】[Technical field to which the invention pertains]

本発明は例えばロボットなどの眼として対象たとえばワ
ークの現在位置を確定するために、該対象の位置を示す
座標たとえばx、y直角座標やr。 θ極座標を対象に触れることなく遠隔測定をすることが
できる位置座標測定装置に関する。
The present invention uses coordinates, such as x, y rectangular coordinates, or r, indicating the position of the object, in order to determine the current position of an object, such as a workpiece, as the eyes of a robot. The present invention relates to a position coordinate measuring device that can remotely measure θ polar coordinates without touching the target.

【従来技術とその問題点】[Prior art and its problems]

前述のように対象とは無接触の条件でその位置を測定で
きる従来例としては、例えば第11図に原理を示す距離
測定装置がある。この図において調定対象は上方に示さ
れた対FiOJであって、これから距離dを隔てた所に
短い焦点距離fを有する1対の固定されたレンズ1,2
があり、これらのレンズ
As mentioned above, as a conventional example that can measure the position of an object without contacting it, there is a distance measuring device whose principle is shown in FIG. 11, for example. In this figure, the object to be adjusted is the pair of FiOJ shown above, and a pair of fixed lenses 1 and 2 having a short focal length f are located at a distance d from the pair.
There are these lenses

【、2はその先軸を互いに平行
にかつ基線長と呼ばれる距離dを相互に隔てて同かれて
いる。 レンズ1,2の対1!OJとの反対側の焦点面上にはそ
れぞれ多数個の光電センサを一列に並べた光センサアレ
イ3.4が置かれており、その受光面上に対i0Jから
のレンズ1.2を経由する光L1.L2が映像目、12
としてそれぞれ結像される。容易にわかるように対象O
Jが無限遠にあるとき、すなわち距fgdが無限大のと
きには、映像I+、 12の中心はレンズ1.2の光軸
が光センサアレイ3.4と交わる基準点に結像されるが
、距fidが有限である場合には映像11.+2の中心
は前述の基準点からそれぞれ距gIsl、s2だけずれ
る。いまもしこのずれ’ft51.s2を測定すること
ができれば、簡単な三角i!!量の原理から −f d 瓢 □ 1−s2 グ成立するので、’16 fflに個有な数値d、rと
ずれ131、s2から距El dを測定することができ
る。なお、上式におけるずれ景sl、s2は図の矢印S
が示す方向を正としてあり、対象OJが図示の位置にあ
るときにはずれN s lは正でずれls2が負である
ことに留意されたい、また、上式中の1sl−s2は基
線長すを隔てた2個のレンズ1.2によ、て作られる映
像11.12間のいわゆるバララックスと称される量で
あり、これをΔs −il −s2とすると、ずれ1t
sL、s2を個別に測定することは必要なく、距Ndの
測定はバララックスΔSを測定することに帰着する。こ
の量ΔSの測定は後に第4図について説明するように純
電子回路、とくに極小の集積回路によって得ることがで
きる。 この従来例による距離測定装置は、全く可動部がな(、
i&近の高感度の光センサアレイを用いれば比較的暗視
野でも測定が可能であり、かつ非常に高速測定できる大
きな利点ををする。しかし、測定項目は距離dに限られ
ていて対象OJの位置座標を決めることはできず、距離
測定の対象の指定にはファインダ等を用いてレンズLl
、L2の光軸が対象OJに向くように装置を必要に応じ
て傾けてやらねばならない、この点の解決のため、本件
発明者は先H(特願昭58−144332号)において
、第12図に原理を示すような装置正面から角度θだけ
傾いた位置にある対象OJまでの距#lIdを測定でき
る距離測定装置を提案した。 第12図に示すこの距離測定装置では、レンズLL。 L2の光軸から角度θだけ傾いた線が光センサアレイ3
.4と交わる点をそれぞれ基準点とし、映像11.12
の中心の基準点からのずれ量をs l + s 2とす
ると次式が成立する。 −f d 関 □ (sl−s2)cosθ この場合にも、ずれ量5Ls2を個別に測定する必要は
な(、パララックスΔ5=sl−s2を測定すれば距@
dが得られるのは前と同様である。しかも、角度θと距
ll1dがわかれば、対象OJの極座標d、θが得られ
るのであるから、対象OJの位置座標が測定できるよう
に考えられるかも知れないが、実際にはそう巧くは行か
ない、すなわち、角度θを距離測定装置側で設定してや
る必要があり、これによって始めて設定された角度θの
方向にある対象OJまでの距Mdが測定できるのであっ
て、vi置の  。 前面にある対111OJのもつ位置座標がこれによって
自然に得られるわけではない。 なお、上の第11図および第12図で説明した従来装置
はいずれもいわゆるパッシブ方式のものであるが、距離
測定装置としてはこのほかにアクティブ方式のものがあ
る。しかし、その多(はパルス状の光または音波を発射
して測定対象からの反射波を検出し、発射時点から反射
波検出時点までの時間によって距離を測定するものであ
って、この内の音波を利用する方式は元来指向性があま
り良好でなく対象の座標測定には不向きであり、光を利
用するものでは第12図で説明したと同様の機能は持ち
うろが、角度θを測定装置側で設定しなければならない
ことに変わりはなく、位置座標をこれによって簡単に得
ることはできない。 【発明の目的] 上述のような従来技術の現状に立脚して、本発明の目的
は測定対象を特定するための角度を指定することな(装
置の前面にある対象の位置を遠隔測定することができる
位置座標測定装置を得ることにある0本発明の副次的な
目的はパッシブ方式が本来持つ利点を生かしながらかか
る装置を得ることに島る。 【発明の買点] 本発明においては前述の、目的達成のために、従来装置
における互いに基線長を隔てて配設され位置座標を測定
すべき対象からの光を受け入れて該対象が示すパターン
を備え、た映像を結像させる1対の光学的手段と、咳各
光学的手段により結像された映像をそれぞれ受け該映像
のパターンに応じた映像信号列を発する光電形の1対の
光センサアレイ手段とに、光センサアレイ手段が発する
映像信号列を受けて該映像信号列の示すパターンから位
置座標測定のための測定対象点を決定し、該測定対象点
の光センサアレイ上の座標を少なくとも一方の光センサ
アレイ側について決定する対象点決定手段と、両光セン
サアレイ側についてそれぞれ決定された前記対象点座標
に基づいてあるいは一方の光センサアレイ側について決
定された対象点座標と両光センサアレイからの映像信号
列の示すパターン上の相互ずれ量とに基づいて測定対象
の位置座標を決定する座標決定手段とを組み合わせて、
これにより光学的手段の光軸を含む測定面内における測
定対象の位置座標を測定できるようにする。 以下第1図〜第5図を参照しながら本発明の上述の構成
の原理を説明する。 まず第1図は前に説明した第11図〜12図に対応する
本発明装置の原理構成図であって、測定対象OJからの
光は1対の光学的手段109例えば左右の小さなレンズ
10L、10.lIによって受け入れられ、それらから
短い焦点距gllfだけ後方に配置された左右の光セン
サアレイ20L、20+?上に左右の映像IL、 IR
として結像される。対象OJのもつ位置座標x、  y
の座標軸の原点0は図示のように例えば左右のレンズ1
0L、10R間の基線長す内にあり、X座標軸は該基線
長方向と−敗しY座標は左右のレンズIOL。 10Rの光軸を含む測定面内にあワてX座標軸と直交し
、座標原点0は左右のレンズIOL、 IORの中心か
らそれぞれbL、 bRの距離にあるとする。さらに、
映像IL、 IRの中心と左右のレンズIOL、 10
11の光軸がそれぞれ左右の光センサアレイ20L、2
0Rと交わる基準点との間の距離ないしはずれ量をそれ
ぞれsL、sRとし、かつこの正の方向をX座榎軸とは
反対方向の図の矢印3で示された方向であるとする。 三角形の相似関係から次式が成立する。 x+bL      sL y     r x −bRsR y     r これらから測定すべき座411x、yを求めるとsL 
−bR+5R−bL   5t−bR+5R−bLsL
 −sRΔ5 b−r     b−r y “             3 sL −sRA s となり(ただしΔ5−sL−sRとする)、2個のずれ
1lsL+sRt−測定すれば座[X、yを求め得るこ
とがわかる。この内厚myの方は第11図で説明した距
離dと当然同じになり、したがってバララックス看ΔS
がわかれば直ちに決定できる。しかし、座1!!xの方
はバララックスΔSのみでは決定できず、ずれ量sL+
 sRの値が独立に知られない限り決定できず、これが
従来の距N渕定の場合と大きく異なる点である。なお、
上述の座標Xの式は座標原点Oを左右のレンズIOL、
 IOHの内の一方の中心。 例えば第2図18+に示すように左方のレンズIOLの
中心と一致させると間車化される。すなわち、上式でb
L−0,bR−bと置けば   −sL ΔS となり、本発明の実施に当たって測定回路等を間車化さ
せる上で有利である。 また、第2図中)に示すように測定すべき座標を極座標
「、θとし、例えば座標原点0を左方のレンズIOLの
中心とし、角度θを基線長すに直交する角度基準軸から
時計回り方向に正とするとθ−Lg−’(−) となり、同様にずれ量sL、 sRから決定することが
できる。 さて、以上の座標決定の基礎となるずれlsL。 sRは、前述のようにレンズIOL、 IORの光軸と
光センサアレイ20L、20Rの交点を基準点としてお
り、この基準点は光センサアレイ20L、20Rの定点
である。しかし映像IL、 IHの中心は映像IR,I
Lが一般には分布をもっているので、その分布中の一点
を座標測定の対象点として決めなければならない。 本発明装置における対象点決定手段30はこのために設
けられたものであって、第1図に示すように左右のセン
サアレイ20L、 20Rからの映像(ε号列ISL。 ISRが例えばスイッチ手段36を介して対象点決定手
段30に交互に人力される。光センサアレイ20L。 20Rが第1図または第5図(δ)に例示するようにア
ナログ値の映像13号が明に1な極値点1すなわち極大
値点をもつ場合は、この極大値点を測定の対象点として
a単に決定することができる。しかし、第5図fa+に
示すように明確な極値点をもつ場合でも、映像信号列I
sはいわば裾野の拡がりをもつことが多いので、適宜に
選ばれたしきい値thを用いて裾野部を除くことにより
、映像信号列のもつ拡がりを縮少させるのが望ましい、
なお、光センサアレイは個別の光センサの集まりであっ
て極値点として対象点3Cの値は整数値に限られはする
が、各光センサ間のビフチpは数ミクロン程度にまで小
さくできるので通常の測定には精度上の問題はあまりな
い、しかし、より高精度を要する場合には、各映像信号
がアナログ値であることを利用して対象点sCを値を小
数点以下の値をも持つように補正をすることができる。 この補正の要領は同図(al)に示すように映像信号列
の極値点付近の波形を例えば抛物線近似させる。同図(
al)において、対象点として得られた整数値をsOと
し、映像信号の極大値を! (0) 、その左右の光セ
ンサからの映像信号の値をそれぞれIC+1)、 +(
−1)とすると補正された対象点sCの値は殆物線近似
の場合次式で与えられる。 +         1(+1)−1(−1)2p  
   21(0)−1(+1) −1(−1)かかる補
正は極値点付近の映像信号列の波形がなだらかである場
合にとくに有効である。 第5図伽)に例示するように映像信号列Isが明確なI
!j値点を有しないが映像の端部が明確な場合には、し
きい値thで切ることにより映像信号列中の映像部を浮
き上がらせた上でその端su、slを容易に検出できる
ので、両端の中点もしくは両者間を定められた比で内分
する点を対象点3Cとして決めろことができる。さらに
映像信号列からは同図+01に示すように明確な極値点
も映像の端部も検出できない場合もあるが、このような
ときにもしきい値thで映像信号列中のノイズ分を除い
た後に映像信号値の分布の重心点を対象点ICとして決
定することができる。 以上のように映像信号列のデータ処理により対象点は決
定できるが、測定対象OJに点光源例えばLEDやマー
ク等の明確なt*mを付すことにより対象点の決定をよ
り容易にかつ正確にすることができる。また、測定対象
OJの背景が比較的明るい場合や複雑な場合には照明と
(に赤外光の照明を測定対象に当てて測定対象を視野内
で際立たせるのも有利である。かかろ照明の指向性はと
くに良好である必要はなく、また光センサアレイにシリ
コン系半導体を用いる場合には近赤外領域での感度がよ
いので近赤外光で照明ずゐのが有利である。 もちろんかかる照明を持続させる必要はなく、装置の測
定動作に同期してパルス状ないしはクラッシュ状に与え
ることで充分である。 上記のようにして対象点決定手段により決定された対象
点sCの光センサアレイ上の座標としてのずれ量sL、
 sRは第1[に示すように座標決定手段40たとえば
マイクロコンビエータに送られて、前述の数式に基づい
て対象OJのもつ位置!!lIx、yあるいはr、θが
決定される。 さて、この測定すべき位置座標x、yあるいは「、θの
内の座標x、yは従来からの距離測定装置によっても測
定が可能なので、本発明装置を距離測定回路を利用して
構成することもできる。第3図はかかる構成の原理図で
あって、この場合には距離測定回路50からのパララッ
クス量Δ3と一方のずれ量例えば図示のようにずれJi
sLとを座標決定手段40に与えればよい、第4図はこ
の距離測定回路50の公知の回路例を例示するもので、
この例ではマイクロコンピュータとして構成された座標
決定手段40が回路に対する制御パルス敗を与える。こ
の回路構成を闇路に説明すると次のとおりである。 光センサアレイ20L、20Rからのアナログ値の映像
信号列ISL、 ISRは図の上方のアナログディジタ
ル変換器51L、51Rによってディジタル値の映像デ
ータ列にそれぞれ変換されてその下方のシフトレジスタ
52L、52Rにそれぞれ格納される。これらの映像デ
ータ列は座標決定手段40からの互いに同期されたシフ
トパルスSPL、 SPRによってシフトレジスタ52
L、52Rからイクスクルーシプノアゲート53に逐次
出力されデータの一敗、不−敗が検定され、左右の映像
データ列間の一敗データ敗がカウンタ54内に記憶され
る。シフトレジスタ52L、52R内の映像データは還
流されており、1回の左右の映像データ列間の一致検定
終了後に左方のシフトレジスタ52L内のデータをシフ
トパルスSPLにより1段ずらせた後に同様の左右の映
像データ列間の一致検定が操り返されろ、各−敗検定後
に比較回路55はその下方のカウンタ56のカウント値
とカウンタ54内の毎回の一敗検定結果のカウント値を
比較して、常に左右の映像列間のデータの最大−成敗を
カウンタ56に記憶させると同時にその旨をレジスタ5
8に伝える。レジスタ58の上方のカウンタ57は毎回
の一致検定に対応するパララックス量ΔSを座標決定手
段からのパルスをカウントすることにより記憶しており
、レジスタ58は比較回路55からの信号に基づいてカ
ウンタ57のカウント値を読み込むので、その中には左
右の映像データ列間が最大−敗したときのパララックス
量Δ3が記憶されていることになり、−敗検定をすべて
終えた後にパララックス量ΔSがレジスタ58から出力
される。 以上の説明かられかるように距mm定回路50自体の構
成はやや?x雑になるが、既存の距離測定回路を利用す
ることにより、本発明の座標決定手段を間易に構成する
ことができる。 【発明の実施例】 以下第6図から第10図を参照しながら本発明の実施例
を詳細説明する。 第6図は前に第5図fatで示したように映像信号列I
sが明確な極値点を有する場合に適する対象点決定手段
の具体回路例を示すものである。図中の光センサアレイ
手段20は第1図または第3図の左右の光センサアレイ
20L、20Hの一方を代表しており、例えば公知のC
CD方式やNO5形イメージセンサからなる光センサア
レイである。この光センサアレイ手段20からの映像信
号列Isは、図の下方に示された座標決定手段40から
のクロ7クパルスφに同期してアナログ値の映像信号を
1個ずつ8亥手段の右端からしきい種回路31に与える
。また上のクロックパルスφはカウンタ34にも与えら
れており、該カウンタ34はクロックパルスφによって
出方される映像信号の番号1(1−N)をカウント値と
して記憶している。しきい種回路31の右方に示されて
いるのはサンプルホールド回路32であって、スイッチ
ングトランジスタ32aと、キャパシタ32bと、ボル
テージフォロワ接続の演算増幅器32cとからなり、例
えばF!!Tとして構成されたスイッチングトランジス
タ32aのゲートにストローブ信号SSを受けたとき該
トランジスタ32aがオンして、アナログディジタル変
換器31からの映像信号の値をキャパシタ32bの充電
電圧として記憶し、その右方に示されたコンパレータ3
3の反転入力に与える。コンパレータ33はその非反転
入力にクロックパルスφに同期してしきい種回路31か
ら毎回発しられる映像信号値を受けており、サンプルホ
ールド回路32から受けている映像信号値を毎回の映像
信号値が越えたときにのみストローブ信号SSを発する
。従うて、このストローブ信号SSにより記憶動作をす
るサンプルホールド回路32は、常に光センサアレイ手
段から順次出力される映像信号の内の最大値を記憶して
いることになる。ストローブ信号SSは前述のカウンタ
34の下方に示されたレジスタ35にも与えられており
、このレジスタ35はストローブ信号SSを受けるつど
カウンタ34のカウントMを図示のようにビットパラレ
ルに読み込むので、サンプルホールド回路32内に記憶
されている映像信号列Is内の最大の映像信号値をもつ
映像信号番号を常に記憶していることになる。従って光
センサアレイ手段20内のN個の映像信号が出力された
後、座標決定手段40はレジスタ35の記憶値をずれ1
lsLまたはsRとして読み取れば、映像信号列Is中
の極値として決定された対象点3Cの座標を得ることが
できる。 座標決定手段40は前述のようにそれ自体を1個のマイ
クロコンビエータとして構成するのがよく、ずれ量SL
+sRあろし)はバラランクス量Δ3を受けて座標X、
7あるいはr、θを数値計算した上で出力する。第7図
はこの座標決定手段40としてのマイクロコンピュータ
に対象点決定手段30のもつ機能のかなりの部分を受け
持たせるようにした本発明の異なる実施例を示すもので
ある。 第7図において、それぞれN個の左右の光センサアレイ
20L、20Rからの映像信号列ISL、 rsRは、
座標決定手段40によってl1liIIi1される電子
スイッチ36、シきい種回路31およびADC回路37
を介して多ビットのディジタル値の映像データ列に変換
された上で座標決定手段40内に読み込まれる。座標決
定手段40はCPt141.ROM42およびRAM4
3を備えたマイクロコンビエータであり、その入力ポー
トを介して前述の映像データ列と座標決定の測定開始指
令MSを受け、その出力ボート45を介して左右の光セ
ンサアレイ20L、2011からの映像信号列ISL、
 ISRの出力を指令するクロックパルスφL、φgと
電子スイッチ36への切換指令S曾とを発するとともに
、測定結果としての位置座標に、yあるいはr、θを出
力する。 以下、第8図〜第10図に示されたフローを参照しなが
らこの第7図の実施例の動作を説明する。 第8図のフローは前述の測定開始指令MSによって起動
され、図の左方の列のフローは映像データの読み込みフ
ロー、中央の列のフローが対象点決定手段30としての
動作フロー、右方の列のフローが座標決定手段40とし
ての動作フローである。最初のステップStでは映像デ
ータ番号(1〜n)を表す変数1が1にセントされ、ス
テップS2では切換指令鋪が0に指定されて電子スイッ
チ36はこれによって図示のように左方の光センサアレ
イ20L側に接続される。ステップS3では該左方の光
センチアレイ2OLに対するクロックパルスφLが1個
出力され、これによってi′#目の映像データIL(i
)が読み込まれる。つづいてステップS4では切換)旨
令S−がlに指定され、これによって電子スイッチ36
を右方の光センサアレイ2ORの側に接続した上で、ス
テップS5でクロックパルスφLを1個発して右方の光
センナアレイ20I?からの1番目の映像データIR(
+)を読み込む、ステップS6では常に変数1に1を加
算し、左右の光センサアレイ20L、20Rからの全映
像データIL、IRを読み込んで、ステップS7で変数
豊がNよりも大と判定されるまでステップ82〜S7を
操り返す。 全映像データIL、IRの読み込み完了後にフローは対
象点の決定のためのフローに入る。第8図のこの部分の
フローは府と同様に映像データの極値点を対象点と決め
てそのずれlsL、sRを決めるためのフローである。 ステップS8では左右の映像データ列それぞれ中の最大
データ値を表す変数ILM。 ILRの値をOにセフ)し、ステップS9では変数1を
再び1にセントする。ステップ510ではI#r目の左
方の映像データIL(1) tr変数ILHと比較し、
前者が後者よりも大なるときに限り次のステップ511
において変数ILM @ l #目の左方の映像データ
IL(i)に置き換えるとともに左方のずれ量を示す変
敗sLをlと置く、同様にステップ512.513にお
いては右方の映像データIR(1)を変数IRMと比較
して前者の方が大なときに変数IRMとsRとをそれぞ
れIR(1)、 lで置き換える。ステップS14で変
数iに1を加算し、次の判定ステップS15で変数iが
Nより大と判定されろまでステップ81G −515の
フローを操り返し、これによって左右の映像データ列I
L、 IR中の最大値をもつ映像データ番号SL。 SRを対象点と決定し、その番号を対象点の光センサア
レイ20L、 20R中の座標として得る。ステップS
15の後に、この図には記されていないが、必要な場合
は前に第5図fatで説明したこの座標SL、SRに対
する補正フローを挿入することができる。 座標決定手段40としてのフローの最初のステップでは
左右の基準点の庄t!!SLO,SROを前の左右の対
象点の座標sL、 sRから差し引くことによりずれ!
lsL+sR4を得る。この基準点の座標SLO,SR
Oは第1図のレンズ10L、IORの光りと光センサア
レイ20L。 20Rとの交点のもつ光センサアレイ上の座標であり、
整数とは限らず一般的な数値をもち得る0次のステップ
S17ではパララックス量ΔSがずれ景sL、sRから
計算され、最後のステップ518.319においてそれ
ぞれ枠内に示された式によって求める位置座標x、yが
計算されて全フローを終える。 なお、最後のステップ519における算式中のPは前述
の光センサアレイ中の光センサ間ピッチである。 第9図に示されたフローは第8図のステップ38〜51
5に対応して、前の第5図世)で説明した手段により対
象点を決定するためのフローであり、簡明化のため左右
の映像データ列に対するフローの内の一方に対するフロ
ーのみが示されている。この最初のステップ52Gでは
検出すべき映像端su。 slのもつ座標の和を示す変数33と映像端の数を示す
変数nを0にセントする。つづくステップ321では映
像データ番号変数1を2とおき、ステップ522では1
番目の映像データ!(i)とi−1番目の映像データD
i   1)との差の絶対値が所定値1thより大か否
かが判定されろ0判定結果が真であれば映像端であるこ
とを示すので、次のステップ323において変敗S3に
1を加算した上で0.5を減じ、変数nに1を加算する
。0.5の減算は映像端が1番目と1−1番目との間に
あるとするためである。 前と同様の1の加算ステップS24と判定ステップS2
5を経由してN個の映像データ全部について映像端を検
出した上で、ステップ326において変数Ssを変数n
で除した座標Sを1)て、これを左方の対象点座標SL
または右方の対象点座標SRとする。 この場合、映像の両端が正規に検出されておればn−2
となるはずであるが、第5図世)に示したしきいtfi
thが不適切なときは、上式が成立しない場合もあるの
で、第7図に示すようにしきい値変更櫓令TSをしきい
値回路31に与えてしきい値を変更することができる。 また、対象の映像パターンの種1や背景の次第によって
、しきい値を変えてもn−2が成立しないこともあるの
で、この場合には第1θ図のフローに移行するようにす
ることができる。 第10図のフローは対象点決定手段30に第5図to)
に示した手段により対象点を決定させろためのもので、
第9図と同様に左右の映像データの一方に対するフロー
のみが示されている。最初のステップS27では映像デ
ータ番号lと映像データI(L)との積の和を示す変数
517と映像データr (1)の和を示す変数S+を0
にセットし、ステップ32Bで変数lを1に置いてから
繰り返しフローに入る。ステップS29では変数stt
、stに所定の加算をし、ステップS30.331を経
てステップS32において両変数の比から映像の重心と
しての対象点の座1llsを得る。第9図または第10
図のフローから得られる左右の対象点座標sL+ sR
は第8図の座標決定手段40に引き継がれて座標決定に
用いられる。 なお、第8図の中央列、第9図および第10図に示され
た対象点決定手段30としてのフローは、相互に独立し
て利用することもできるし、あるいはその一つの決定が
不適当なときに他のフローに自動的に入るようにするこ
ともできる。また、これらのフローのほかにより複雑な
公知のパターン認識の手法を利用してもよく、パターン
Lu1mにより測定対象の映像の区域が光センサアレイ
上の座標について特定できさえすれば、この区域内にお
いて対象点を目的に応じたアルゴリズムにより決定する
ことができる。もちろん、かかる代替えフローを複数個
並用して位置座標測定結果のf8傾度をf1認すること
も可能である。 また、以上の実施例説明においては位置座標としては二
次元の例えばx、y座標のみについて説明したが、三次
元座標例えばx、y、z座標が必要な場合には、本発明
装置内の光学的手段と光センサアレイ手段とを2組用い
、その測定面すなわちレンズIOL、 IORの光軸が
決定する面を互いに直交させることによって三次元の位
2[1を測定することができる。この場合、対象点決定
手段と座標決定手段とはこの2組の光センサアレイ手段
からの映像信号列を切換えで入力して処理をすることが
できる。 上述のいずれの実施例においても、得られる位1座櫟の
情度は若干の補正式を用いても結局は光センサアレイ内
の光センサ間のピッチPと光センサ数Nとにより左右さ
れる。11近の進んだ光センサアレイ技術によれば、セ
ンサ間ピッチPは5ミクロン程度または若干これを下回
る程度にまで短いものの製作が可能で、センサ敗も10
24個またはそれ以上のものが得られる。かかる光セン
サ技術を用いれば、比較的小形のアレイで1%以下の高
い精度で位置座標測定が可能で、通常のロボットアイな
どの用途には充分使用できる。また、本発明装置の実施
に必要な電子回路は集積化が容易で、光センサアレイと
ともに1個の半導体チップ内に収納することもできる。 また、前述の対象点決定のためのフローはいずれも比較
的簡単なので、プログラムを記憶するRAMエリアが少
なくてすみ、座標決定手段と合わせても1チツプマイク
ロコンピユータ内に納めて小形で安価な圧型測定装置を
提供することができる。 【発明の効果] 本発明による位置座標測定装置によれば、装置前面にあ
る測定対象からの光をいずれは固定された1対の光学的
手段とこれに対応して設けられた光センサアレイ手段に
より受け入れ、咳光センサアレイ手段からの映像18号
列を光センサアレイ手段が発する映像信号列を受けて該
映像信号列の示す、パターンから位置座1測定のための
測定対象点を決定し、該測定対象点の光センサアレイ上
の座標を少なくとも一方の光センサアレイ側について決
定する対象点決定手段と、両光センサアレイ側について
それぞれ決定された前記対象点座標に基づいてあるいは
一方の光センサアレイ側について決定された対象点座標
と両光センサアレイからの映像信号列の示すパターン上
の相互ずれ蚤とに基づいて測定対象の位置座標を決定す
る座標決定手段とにより処理することにより、光学的手
段の光軸を含む測定面内における測定対象の位置座標を
測定することができるので、従来のように装置を測定対
象の方にいちいち向けなくても対象をいわば自動的に見
付けてその位置座標を遠隔測定することができる。従っ
て本発明装置は、所定の形状やパターンを有するワーク
などの対象の位置を確認してそれに応じた動作をする必
要があるロボットや自動走行車両等の人間にかわる限と
しての機能を果たすことができる。前述のように本装置
による位置座標測定結果の精度は、必要に応じてかなり
の精度にまで高めろことが可能である。また、本発明装
置が利用される上述のような用途向きには既にマイクロ
コンピュータが組み込まれている場合が多いので、本発
明の構成中の対象点決定手段と座標決定手段との機能を
この既設のマイクロコンピュータに受け持たせれば、眼
球に相当する小形の光学的手段と光センサアレイ手段と
を所望の部位に必要数取り付けるだけで、大した失費な
しに本発明を実施して大きな効果を挙げろことができる
, 2 are arranged with their leading axes parallel to each other and separated from each other by a distance d called the baseline length. A pair of lenses 1 and 2! A photosensor array 3.4 in which a large number of photoelectric sensors are arranged in a line is placed on the focal plane on the opposite side from OJ, and light from i0J passes through lens 1.2 on the light receiving surface of the optical sensor array 3.4. Light L1. L2 is the image eye, 12
are imaged as respectively. Target O for easy understanding
When J is at infinity, that is, when the distance fgd is infinite, the center of the image I+, 12 is focused on the reference point where the optical axis of the lens 1.2 intersects with the photosensor array 3.4, but the distance is If fid is finite, image 11. The centers of +2 are shifted from the aforementioned reference point by distances gIsl and s2, respectively. Now this gap 'ft51. If we can measure s2, we can use simple triangle i! ! From the principle of quantity, -f d □ 1-s2 holds true, so the distance El d can be measured from the numerical values d and r unique to '16 ffl, and the deviation 131 and s2. Note that the shifted scenes sl and s2 in the above equation are indicated by the arrow S in the figure.
Note that the direction indicated by is positive, and when the target OJ is at the position shown in the figure, the deviation Nsl is positive and the deviation ls2 is negative.In addition, 1sl-s2 in the above equation is the baseline length. This is the so-called variation between the image 11.12 created by the two lenses 1.2 separated from each other, and if this is Δs -il -s2, then the deviation is 1t.
It is not necessary to measure sL, s2 separately; measuring the distance Nd results in measuring the balax ΔS. The measurement of this quantity .DELTA.S can be obtained by purely electronic circuits, in particular by extremely small integrated circuits, as will be explained later with reference to FIG. This conventional distance measuring device has no moving parts (
Using i&Nihon's highly sensitive optical sensor array, it has the great advantage of being able to perform measurements even in a relatively dark field and at very high speed. However, the measurement item is limited to the distance d, and it is not possible to determine the position coordinates of the object OJ.
, the device must be tilted as necessary so that the optical axis of L2 faces the target OJ. We have proposed a distance measuring device that can measure the distance #lId from the front of the device to a target OJ located at an angle θ, the principle of which is shown in the figure. In this distance measuring device shown in FIG. 12, the lens LL. A line inclined by an angle θ from the optical axis of L2 is the optical sensor array 3.
.. The points that intersect with 4 are the reference points, and the images 11 and 12 are
If the amount of deviation from the center of the reference point is s l + s 2 , the following equation holds true. -f d Seki □ (sl-s2)cosθ In this case as well, there is no need to measure the deviation amount 5Ls2 separately (, if you measure the parallax Δ5=sl-s2, the distance @
d is obtained as before. Moreover, if the angle θ and the distance ll1d are known, the polar coordinates d and θ of the target OJ can be obtained, so it may be thought that the position coordinates of the target OJ can be measured, but in reality it is not so skillful. In other words, it is necessary to set the angle θ on the distance measuring device side, and only then can the distance Md to the target OJ in the direction of the set angle θ be measured. The position coordinates of the pair 111OJ in the front are not naturally obtained from this. The conventional devices explained in FIGS. 11 and 12 above are all of the so-called passive type, but there are other distance measuring devices of the active type. However, most of them emit pulsed light or sound waves, detect the reflected waves from the measurement target, and measure the distance based on the time from the time of emission to the time of detection of the reflected waves. The method using light originally has poor directivity and is not suitable for measuring the coordinates of an object.The method using light may have the same function as explained in Fig. 12, but it is difficult to measure the angle θ. The position coordinates must still be set by the user, and the position coordinates cannot be easily obtained by this method. [Object of the Invention] Based on the current state of the prior art as described above, the purpose of the present invention is to A secondary object of the present invention is to obtain a position coordinate measuring device capable of remotely measuring the position of an object in front of the device (without specifying an angle for determining the position). [Advantageous Points of the Invention] In order to achieve the above-mentioned purpose, the present invention utilizes the conventional devices that are arranged apart from each other by a baseline length to measure position coordinates. a pair of optical means for receiving light from an object and forming an image of the pattern shown by the object; a pair of photoelectric type photosensor array means that emit a video signal train, which receives the video signal train emitted by the photosensor array means, and determines a measurement target point for position coordinate measurement from a pattern indicated by the video signal train. and a target point determining means for determining the coordinates of the measurement target point on the optical sensor array for at least one optical sensor array side, and a target point determining means for determining the coordinates of the measurement target point on the optical sensor array side; A coordinate determining means for determining the positional coordinates of the measurement target based on the target point coordinates determined for the optical sensor array side and the amount of mutual deviation on the pattern indicated by the video signal sequences from both optical sensor arrays,
This makes it possible to measure the positional coordinates of the object to be measured within the measurement plane including the optical axis of the optical means. The principle of the above-described structure of the present invention will be explained below with reference to FIGS. 1 to 5. First, FIG. 1 is a diagram showing the basic structure of the apparatus of the present invention corresponding to FIGS. 11 and 12 described above, in which light from the object of measurement OJ is transmitted through a pair of optical means 109, for example, small left and right lenses 10L, 10. Left and right photosensor arrays 20L, 20+? received by lI and placed a short focal length gllf behind them. Above are left and right images IL and IR
imaged as. Position coordinates x, y of target OJ
The origin 0 of the coordinate axis is, for example, the left and right lenses 1 as shown in the figure.
It is within the baseline length between 0L and 10R, the X coordinate axis is in the direction of the baseline length, and the Y coordinate is the left and right lens IOL. It is assumed that the measurement plane includes the optical axis of 10R and is perpendicular to the X coordinate axis, and the coordinate origin 0 is located at distances bL and bR from the centers of the left and right lenses IOL and IOR, respectively. moreover,
Image IL, IR center and left and right lens IOL, 10
11 optical axes are located on the left and right optical sensor arrays 20L and 2, respectively.
Let sL and sR be the distance or amount of deviation between 0R and the reference point that intersects with it, respectively, and let the positive direction be the direction indicated by arrow 3 in the figure opposite to the X seat axis. The following equation is established from the similarity relationship of triangles. sL
-bR+5R-bL 5t-bR+5R-bLsL
-sRΔ5 b-r b-ry " 3 sL -sRA s (however, it is assumed to be Δ5-sL-sR), and it can be seen that by measuring the two deviations 1lsL+sRt-, the locus [X, y can be found. The thickness my is naturally the same as the distance d explained in FIG.
Once you know this, you can make a decision immediately. But za 1! ! x cannot be determined only by the balax ΔS, and the deviation amount sL+
This cannot be determined unless the value of sR is independently known, which is a major difference from the conventional case of determining the distance N. In addition,
The formula for the coordinate X above uses the coordinate origin O as the left and right lens IOL,
One center of IOH. For example, as shown in FIG. 2 18+, when the left lens is aligned with the center of the IOL, it becomes a spacer. That is, in the above formula, b
If L-0 and bR-b are set, -sL ΔS is obtained, which is advantageous in implementing the present invention by using a measuring circuit or the like as a timer. In addition, as shown in Figure 2), the coordinates to be measured are polar coordinates ", θ," for example, the coordinate origin 0 is the center of the left lens IOL, and the angle θ is clockwise from the angle reference axis perpendicular to the baseline length. If it is positive in the rotational direction, it becomes θ-Lg-'(-), which can be similarly determined from the deviation amounts sL and sR. Now, the deviation lsL is the basis for determining the above coordinates. sR is as described above. The intersection of the optical axes of the lenses IOL and IOR and the optical sensor arrays 20L and 20R is used as a reference point, and this reference point is a fixed point of the optical sensor arrays 20L and 20R.However, the center of the images IL and IH is the center of the images IR and IH.
Since L generally has a distribution, one point in the distribution must be determined as the target point for coordinate measurement. The target point determination means 30 in the apparatus of the present invention is provided for this purpose, and as shown in FIG. The optical sensor array 20L is alternately manually inputted to the target point determining means 30 via the optical sensor array 20L.As illustrated in FIG. 1 or FIG. If you have point 1, that is, a local maximum point, you can simply determine this local maximum point as the measurement target point.However, even if you have a clear local maximum point as shown in Figure 5 fa+, the image Signal train I
Since s often has a broadening of the base, it is desirable to reduce the broadening of the video signal sequence by removing the base using an appropriately selected threshold value th.
Note that the optical sensor array is a collection of individual optical sensors, and the value of the target point 3C as an extreme value point is limited to an integer value, but the bift p between each optical sensor can be reduced to about several microns. There are not many accuracy problems in normal measurements, but if higher precision is required, use the fact that each video signal is an analog value to determine the value of the target point sC, which also has values below the decimal point. You can make corrections like this. The principle of this correction is to approximate the waveform near the extreme point of the video signal sequence to a parabola, for example, as shown in FIG. Same figure (
In al), the integer value obtained as the target point is sO, and the maximum value of the video signal is ! (0), the values of the video signals from the left and right optical sensors are respectively IC+1), +(
-1), the corrected value of the target point sC is given by the following equation in the case of almost line approximation. + 1 (+1) - 1 (-1) 2p
21(0)-1(+1)-1(-1) Such a correction is particularly effective when the waveform of the video signal sequence near the extreme point is gentle. As illustrated in Fig. 5), the video signal sequence Is is clear I
! If there is no j-value point but the edges of the video are clear, cutting at the threshold th will make the video part in the video signal string stand out, and the edges su and sl can be easily detected. , the midpoint between the two ends or a point that internally divides the two at a predetermined ratio can be determined as the target point 3C. Furthermore, as shown in +01 in the same figure, there are cases in which clear extreme points and edges of the video cannot be detected from the video signal train, but even in such cases, the noise in the video signal train is removed using the threshold th. After that, the center of gravity of the distribution of video signal values can be determined as the target point IC. As described above, the target point can be determined by data processing of the video signal sequence, but it is easier and more accurate to determine the target point by attaching a clear t*m such as a point light source such as an LED or a mark to the OJ to be measured. can do. In addition, when the background of the OJ object to be measured is relatively bright or complex, it is advantageous to illuminate the object with infrared light to make it stand out in the field of view. The directivity does not need to be particularly good, and when a silicon-based semiconductor is used for the optical sensor array, it is advantageous to use near-infrared light for illumination because the sensitivity is good in the near-infrared region. It is not necessary to continue the illumination, and it is sufficient to apply it in a pulsed or crashed manner in synchronization with the measurement operation of the device. The amount of deviation sL as the coordinates of
sR is sent to the coordinate determination means 40, for example, a micro combinator, as shown in the first column, and the position of the target OJ is determined based on the above-mentioned formula! ! lIx, y or r, θ are determined. Now, since the position coordinates x, y to be measured or the coordinates x, y in ", θ" can be measured by a conventional distance measuring device, it is possible to configure the device of the present invention using a distance measuring circuit. FIG. 3 is a diagram showing the principle of such a configuration, and in this case, the parallax amount Δ3 from the distance measuring circuit 50 and the deviation amount of one side, for example, the deviation Ji as shown in the figure.
sL to the coordinate determining means 40. FIG. 4 illustrates a known circuit example of this distance measuring circuit 50.
Coordinate determining means 40, which in this example is configured as a microcomputer, supplies control pulses to the circuit. A rough explanation of this circuit configuration is as follows. The analog-value video signal strings ISL and ISR from the optical sensor arrays 20L and 20R are converted into digital-value video data strings by analog-digital converters 51L and 51R in the upper part of the figure, respectively, and are sent to shift registers 52L and 52R in the lower part. Each is stored. These video data strings are transferred to a shift register 52 by mutually synchronized shift pulses SPL and SPR from the coordinate determining means 40.
The data is sequentially outputted from L and 52R to the exclusive gate 53, and it is verified whether the data is one loss or no loss, and the one loss data loss between the left and right video data rows is stored in the counter 54. The video data in the shift registers 52L and 52R are circulated, and after one matching test between the left and right video data strings is completed, the data in the left shift register 52L is shifted by one step using a shift pulse SPL, and then the same process is performed. When the matching test between the left and right video data strings is repeated, after each loss test, the comparison circuit 55 compares the count value of the counter 56 below it with the count value of the one-loss test result of each time in the counter 54. , the maximum success/failure of the data between the left and right video columns is always stored in the counter 56, and at the same time, the register 5
Tell 8. A counter 57 above the register 58 stores the parallax amount ΔS corresponding to each coincidence test by counting pulses from the coordinate determination means, and the register 58 stores the parallax amount ΔS corresponding to each coincidence test by counting pulses from the coordinate determining means. Since the count value of is read, the parallax amount Δ3 between the left and right video data rows at the maximum when there is a loss is stored in it. It is output from register 58. As can be seen from the above explanation, the configuration of the distance mm constant circuit 50 itself is somewhat complicated. Although it is complicated, the coordinate determining means of the present invention can be easily constructed by using an existing distance measuring circuit. Embodiments of the Invention Embodiments of the present invention will be described in detail below with reference to FIGS. 6 to 10. FIG. 6 shows the video signal sequence I as previously shown in FIG.
A specific circuit example of a target point determining means suitable for the case where s has a clear extremum point is shown. The photosensor array means 20 in the figure represents one of the left and right photosensor arrays 20L and 20H in FIG.
This is an optical sensor array consisting of a CD type or NO5 type image sensor. The video signal string Is from the photosensor array means 20 is synchronized with the clock pulse φ from the coordinate determination means 40 shown at the bottom of the figure, and analog value video signals are sent one by one from the right end of the means. is applied to the threshold circuit 31. The upper clock pulse φ is also applied to a counter 34, and the counter 34 stores the number 1 (1-N) of the video signal outputted by the clock pulse φ as a count value. Shown to the right of the threshold circuit 31 is a sample and hold circuit 32, which consists of a switching transistor 32a, a capacitor 32b, and an operational amplifier 32c connected as a voltage follower. ! When the strobe signal SS is received at the gate of the switching transistor 32a configured as a T, the transistor 32a turns on and stores the value of the video signal from the analog-to-digital converter 31 as the charging voltage of the capacitor 32b. Comparator 3 shown in
Give it to the inverting input of 3. The comparator 33 receives at its non-inverting input the video signal value that is generated each time from the threshold circuit 31 in synchronization with the clock pulse φ, and the video signal value that is received from the sample and hold circuit 32 is the video signal value that is generated each time. The strobe signal SS is generated only when the threshold is exceeded. Therefore, the sample-and-hold circuit 32, which performs a storage operation based on the strobe signal SS, always stores the maximum value of the video signals sequentially output from the photosensor array means. The strobe signal SS is also applied to the register 35 shown below the counter 34, and this register 35 reads the count M of the counter 34 in bit parallel as shown in the figure each time it receives the strobe signal SS. This means that the video signal number having the maximum video signal value in the video signal string Is stored in the hold circuit 32 is always stored. Therefore, after the N video signals in the photosensor array means 20 are output, the coordinate determining means 40 shifts the stored value of the register 35 by 1.
By reading it as lsL or sR, it is possible to obtain the coordinates of the target point 3C determined as the extreme value in the video signal sequence Is. The coordinate determining means 40 is preferably configured as one micro combinator as described above,
+sR ratio) receives the balance amount Δ3 and changes the coordinate X,
7 or r and θ are calculated numerically and then output. FIG. 7 shows a different embodiment of the present invention in which a microcomputer serving as the coordinate determining means 40 is responsible for a considerable part of the functions of the target point determining means 30. In FIG. 7, the video signal sequences ISL and rsR from the N left and right photosensor arrays 20L and 20R, respectively, are as follows:
The electronic switch 36, the input circuit 31 and the ADC circuit 37 are
The image data is converted into a video data string of multi-bit digital values through the converter and then read into the coordinate determining means 40. The coordinate determination means 40 is CPt141. ROM42 and RAM4
3, which receives the above-mentioned video data string and measurement start command MS for determining coordinates through its input port, and receives images from the left and right optical sensor arrays 20L, 2011 through its output port 45. signal train ISL,
It issues clock pulses φL and φg that command the output of the ISR and a switching command S to the electronic switch 36, and also outputs y, r, and θ as the position coordinates as the measurement results. The operation of the embodiment shown in FIG. 7 will be described below with reference to the flows shown in FIGS. 8 to 10. The flow in FIG. 8 is started by the measurement start command MS mentioned above, the flow in the left column of the figure is the flow of reading video data, the flow in the center column is the operation flow as the target point determining means 30, and the flow in the right column is the flow of reading video data. The flow of columns is the operation flow of the coordinate determining means 40. In the first step St, the variable 1 representing the video data number (1 to n) is set to 1, and in step S2, the switching command is specified to 0, and the electronic switch 36 is thereby set to the left optical sensor as shown in the figure. Connected to the array 20L side. In step S3, one clock pulse φL is outputted to the left optical centiarray 2OL, thereby causing the i′#th video data IL(i
) is loaded. Subsequently, in step S4, the switching command S- is designated as l, and thereby the electronic switch 36
is connected to the right optical sensor array 2OR side, and one clock pulse φL is emitted in step S5 to connect the right optical sensor array 20I? The first video data IR from (
+). In step S6, 1 is always added to variable 1, and all video data IL and IR from the left and right optical sensor arrays 20L and 20R are read. In step S7, variable Fuku is determined to be larger than N. Steps 82 to S7 are repeated until the result is reached. After the reading of all the video data IL and IR is completed, the flow enters a flow for determining the target point. This part of the flow in FIG. 8 is a flow for determining the extreme value point of the video data as the target point and determining the deviations lsL and sR, as in the case of Fu. In step S8, a variable ILM representing the maximum data value in each of the left and right video data strings. The value of ILR is set to O, and the variable 1 is set to 1 again in step S9. In step 510, the I#rth left video data IL(1) is compared with the tr variable ILH,
Next step 511 only when the former is greater than the latter
In Steps 512 and 513, the variable ILM @ l # is replaced with the left image data IL(i) of the eye, and the change sL indicating the amount of left shift is set as l.Similarly, in steps 512 and 513, the right image data IR ( 1) is compared with the variable IRM, and if the former is larger, the variables IRM and sR are replaced with IR(1) and l, respectively. In step S14, 1 is added to the variable i, and in the next determination step S15, the flow of step 81G-515 is repeated until the variable i is determined to be greater than N.
L, video data number SL with the maximum value in IR. SR is determined as the target point, and its number is obtained as the coordinates of the target point in the optical sensor arrays 20L, 20R. Step S
After step 15, although not shown in this figure, if necessary, the correction flow for these coordinates SL and SR previously explained in connection with figure 5 fat can be inserted. In the first step of the flow as the coordinate determining means 40, the left and right reference points t! ! Shift by subtracting SLO and SRO from the coordinates sL and sR of the previous left and right target points!
Obtain lsL+sR4. Coordinates of this reference point SLO, SR
O is the lens 10L in FIG. 1, the light of the IOR, and the optical sensor array 20L. The coordinates on the optical sensor array of the intersection with 20R,
In the zero-order step S17, which can have a general value rather than an integer, the parallax amount ΔS is calculated from the shifted views sL and sR, and in the final step 518 and 319, the position is calculated using the formulas shown in the respective frames. The coordinates x, y are calculated and the whole flow ends. Note that P in the formula in the final step 519 is the pitch between the optical sensors in the aforementioned optical sensor array. The flow shown in FIG. 9 corresponds to steps 38 to 51 in FIG.
Corresponding to 5, this is a flow for determining a target point by the means explained in the previous figure 5), and for the sake of simplicity, only one of the flows for the left and right video data strings is shown. ing. In this first step 52G, the video edge su to be detected. A variable 33 indicating the sum of the coordinates of sl and a variable n indicating the number of image edges are set to 0. In the following step 321, the video data number variable 1 is set to 2, and in step 522, it is set to 1.
th video data! (i) and i-1st video data D
It is determined whether the absolute value of the difference between i1) and After the addition, 0.5 is subtracted, and 1 is added to the variable n. The reason for subtracting 0.5 is to assume that the video edge is between the 1st and 1-1st. Addition step S24 of 1 and determination step S2 as before
After detecting the video edge for all N video data via step 5, in step 326, the variable Ss is changed to the variable n
The coordinate S divided by 1) is calculated as the left target point coordinate SL.
Alternatively, the coordinates of the right target point are SR. In this case, if both ends of the video are properly detected, n-2
The threshold tfi shown in Figure 5) should be
If th is inappropriate, the above equation may not hold, so the threshold value can be changed by giving a threshold value change command TS to the threshold value circuit 31 as shown in FIG. Also, depending on the type 1 of the target video pattern and the background, n-2 may not hold even if the threshold value is changed, so in this case, it is recommended to shift to the flow shown in Figure 1θ. can. The flow in FIG. 10 is shown in FIG.
This is to determine the target point using the method shown in
Similar to FIG. 9, only the flow for one of the left and right video data is shown. In the first step S27, the variable 517 representing the sum of the products of the video data number l and the video data I(L) and the variable S+ representing the sum of the video data r(1) are set to 0.
, and the variable l is set to 1 in step 32B before entering the repeat flow. In step S29, the variable stt
, st by a predetermined value, and through steps S30 and 331, in step S32, the locus 1lls of the target point as the center of gravity of the image is obtained from the ratio of both variables. Figure 9 or 10
Left and right target point coordinates sL + sR obtained from the flow in the figure
is taken over by the coordinate determination means 40 of FIG. 8 and used for coordinate determination. Note that the flows as the target point determining means 30 shown in the center column of FIG. 8, FIGS. 9 and 10 can be used independently of each other, or if one of them is inappropriate You can also automatically enter other flows when necessary. In addition to these flows, a more complex known pattern recognition method may also be used; as long as the area of the image to be measured can be specified in terms of the coordinates on the optical sensor array using the pattern Lu1m, Target points can be determined using an algorithm depending on the purpose. Of course, it is also possible to use a plurality of such alternative flows in parallel to recognize the f8 slope of the position coordinate measurement result as f1. In addition, in the above description of the embodiment, only two-dimensional, e.g., x, y coordinates were explained as position coordinates, but if three-dimensional coordinates, e.g. The three-dimensional order 2[1 can be measured by using two sets of optical means and optical sensor array means, and by making their measurement surfaces, that is, the planes determined by the optical axes of the lenses IOL and IOR, orthogonal to each other. In this case, the target point determining means and the coordinate determining means can input and process video signal sequences from these two sets of optical sensor array means by switching. In any of the above-mentioned embodiments, even if some correction formulas are used, the degree of accuracy obtained depends on the pitch P between the optical sensors in the optical sensor array and the number N of optical sensors. . According to nearly 11 years of advanced optical sensor array technology, it is possible to manufacture sensors with a pitch P as short as 5 microns or slightly less, and the sensor failure can also be reduced to 10 times.
24 or more are obtained. Using such optical sensor technology, it is possible to measure position coordinates with a high accuracy of 1% or less with a relatively small array, which is sufficient for use in applications such as ordinary robot eyes. Furthermore, the electronic circuitry required to implement the device of the present invention is easy to integrate and can be housed together with the optical sensor array in one semiconductor chip. In addition, since the flow for determining the target point described above is relatively simple, the RAM area for storing the program is small, and even the coordinate determination means can be stored in a single chip microcomputer, making it possible to create a compact and inexpensive press. A measuring device can be provided. Effects of the Invention According to the position coordinate measuring device according to the present invention, a pair of fixed optical means and an optical sensor array means provided corresponding to the fixed optical means are used to detect the light from the measurement target on the front side of the device. receives the video signal train No. 18 from the cough light sensor array means and determines the measurement target point for position 1 measurement from the pattern indicated by the video signal train; a target point determining means for determining the coordinates of the measurement target point on the optical sensor array for at least one optical sensor array side; and a target point determining means for determining the coordinates of the measurement target point on the optical sensor array side, and based on the target point coordinates determined for both optical sensor array sides or for one optical sensor. optical It is possible to measure the position coordinates of the object to be measured within the measurement plane including the optical axis of the instrument, so the object can be automatically found and located without the need to point the device toward the object as in the past. Coordinates can be measured remotely. Therefore, the device of the present invention can function as a substitute for humans, such as robots and automatic driving vehicles, which need to confirm the position of objects such as workpieces having a predetermined shape or pattern and take actions accordingly. can. As mentioned above, the accuracy of the position coordinate measurement results by this device can be increased to a considerable level of accuracy if necessary. Furthermore, since microcomputers are often already incorporated in the above-mentioned applications in which the device of the present invention is used, the functions of the target point determining means and coordinate determining means in the configuration of the present invention can be implemented using this existing device. If the microcomputer is in charge of this, the present invention can be carried out without much expense and a great effect can be achieved by simply attaching the necessary number of small optical means corresponding to eyeballs and optical sensor array means to desired parts. I can list them.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図〜第1O図は本発明に関するもので、内第1図は
本発明による位置座標測定装置の原理構成図、第2図は
本発明装置により測定される位置座標の座標軸の例示説
明図、第3図は第1図の変形例としての原理説明図、第
4図は従来装置および本発明装置に利用可能な距離測定
回路例のブロック回路図、IR5図は対象点決定手段の
動作態様例を説明するための映像信号列の波形図、第6
図は本発明の一実施例における対象点決定手段の回路図
、第7図はマイクロコンビエータとして構成された座標
決定手段に対象点決定手段の機能を分担させ4本発明の
異なる実施例の回路図、第8図は該異なる実施例の動作
フロー図、第9図および第10図は対象点決定手段のそ
れぞれ興なる動作態様を示すフロー図である。第11図
と第12図とはそれぞれ異なる従来技術による距M11
1定装置の原理構成図である0図において、 10+光学的手段、IOL、IOR:左右のレンズ、2
0:光センサアレイ手段、201..20R?左右の光
センサアレイ、30:対象点決定手段、40:座標決定
手段、50:距離測定回路、b:基線長、d:対象まで
の距離、r i L、ンスlOL、109 f)P、点
圧M、IL。 ■R:対象の左右の映像、+1映像信号列、ISL、I
SR:左右の映像信号列、0;座標軸原点、OJ:l定
対象、N:光センサアレイ内の光センサ数、P:光セン
サ間ピッチ、r、θ:W1座標で表された位置座標、3
C:対象点のもつ座標、sL、sR:左右のずれ貝、s
Lo、sRO:左右の光センサアレイ上の平準点座標、
su+sl  : Bj!像の両端の座標、x、y:直
交座標で表された位π座標、X、Y:i交座標軸、であ
る。 第2図 第4図     第5図 第9図
Figures 1 to 1O relate to the present invention, in which Figure 1 is a diagram of the principle configuration of the position coordinate measuring device according to the present invention, and Figure 2 is an illustration of the coordinate axes of position coordinates measured by the device of the present invention. , FIG. 3 is a principle explanatory diagram as a modification of FIG. 1, FIG. 4 is a block circuit diagram of an example of a distance measuring circuit that can be used in the conventional device and the device of the present invention, and IR5 is an operational mode of the target point determining means. Waveform diagram of video signal train for explaining an example, No. 6
The figure is a circuit diagram of a target point determining means in an embodiment of the present invention, and FIG. 8 are operation flowcharts of the different embodiments, and FIGS. 9 and 10 are flowcharts showing different operation modes of the target point determining means. FIG. 11 and FIG. 12 each show a distance M11 according to different conventional techniques.
1. In Figure 0, which is a diagram of the principle configuration of the constant device, 10 + optical means, IOL, IOR: left and right lenses, 2
0: Optical sensor array means, 201. .. 20R? Left and right optical sensor arrays, 30: Target point determining means, 40: Coordinate determining means, 50: Distance measuring circuit, b: Baseline length, d: Distance to target, r i L, lOL, 109 f) P, point Pressure M, IL. ■R: Target left and right images, +1 video signal sequence, ISL, I
SR: left and right video signal strings, 0: coordinate axis origin, OJ: l constant target, N: number of photosensors in the photosensor array, P: pitch between photosensors, r, θ: position coordinates expressed by W1 coordinates, 3
C: Coordinates of target point, sL, sR: Left and right deviation shell, s
Lo, sRO: Level point coordinates on the left and right optical sensor arrays,
su+sl: Bj! Coordinates of both ends of the image, x, y: π coordinates expressed in orthogonal coordinates, X, Y: i orthogonal coordinate axes. Figure 2 Figure 4 Figure 5 Figure 9

Claims (1)

【特許請求の範囲】 1)互いに基線長を隔てて配設され位置座標を測定すべ
き対象からの光を受け入れて該対象が示すパターンを備
えた映像を結像させる1対の光学的手段と、該各光学的
手段により結像された映像をそれぞれ受け該映像のパタ
ーンに応じた映像信号列を発する光電形の1対の光セン
サアレイ手段と、該光センサアレイ手段が発する映像信
号列を受けて該映像信号列の示すパターンから位置座標
測定のための測定対象点を決定し、該測定対象点の光セ
ンサアレイ上の座標を少なくとも一方の光センサアレイ
側について決定する対象点決定手段と、両光センサアレ
イ側についてそれぞれ決定された前記対象点座標に基づ
いてあるいは一方の光センサアレイ側について決定され
た対象点座標と両光センサアレイからの映像信号列の示
すパターン上の相互ずれ量とに基づいて測定対象の位置
座標を決定する座標決定手段とを備え、前記光学的手段
の光軸を含む測定面内における測定対象の位置座標を測
定することを特徴とする位置座標測定装置。 2)特許請求の範囲第1項記載の装置において、測定対
象の位置座標が基線長を含む線を一方の座標軸とし、こ
れに直角な測定面内の線を他方の座標軸とする直角座標
であることを特徴とする位置座標測定装置。 3)特許請求の範囲第2項記載の装置において、座標軸
の原点が1対の光学的手段の内の一方の中心に選定され
たことを特徴とする位置座標測定装置。 4)特許請求の範囲第1項記載の装置において、測定対
象の位置座標が一方の光学的手段の中心を座標原点とし
基線長方向と直角な測定面内の線を角度基準軸とする極
座標であることを特徴とする位置座標測定装置。 5)特許請求の範囲第1項記載の装置において、対象点
決定手段が映像信号列中の信号値の極値を示す点を測定
対象点として決定することを特徴とする位置座標測定装
置。 6)特許請求の範囲第5項記載の装置において、信号値
の極値を発生させるための点光源が測定対象に設けられ
ることを特徴とする位置座標測定装置。 7)特許請求の範囲第5項記載の装置において、信号値
の極値を発生させるための標識が測定対象に取り付けら
れることを特徴とする位置座標測定装置。 8)特許請求の範囲第1項記載の装置において、対象点
決定手段が映像信号列の示すパターンの両端を検出し、
該両端間を所定の比で内分する点を測定対象点として決
定することを特徴とする位置座標測定装置。 9)特許請求の範囲第1項記載の装置において、対象点
決定手段が映像信号列の信号値上の重心点を測定対象点
として決定することを特徴とする位置座標測定装置。 10)特許請求の範囲第1項記載の装置において、映像
信号列で測定対象の映像パターンを背景から際立たせる
ための照明が測定対象に当てられることを特徴とする位
置座標測定装置。 11)特許請求の範囲第10項記載の装置において、照
明として近赤外光が用いられることを特徴とする位置座
標測定装置。 12)特許請求の範囲第10項記載の装置において、照
明が位置座標の測定と同期してパルス状に与えられるこ
とを特徴とする位置座標測定装置。
[Scope of Claims] 1) A pair of optical means disposed apart from each other by a baseline length and receiving light from an object whose positional coordinates are to be measured and forming an image having a pattern shown by the object; , a pair of photoelectric photosensor array means each receiving an image formed by each of the optical means and emitting a video signal train corresponding to the pattern of the image; target point determining means for determining a measurement target point for position coordinate measurement from the pattern indicated by the video signal sequence, and determining the coordinates of the measurement target point on the optical sensor array for at least one optical sensor array side; , based on the coordinates of the target point determined for both optical sensor array sides, or the coordinates of the target point determined for one optical sensor array side, and the amount of mutual deviation in the pattern indicated by the video signal sequences from both optical sensor arrays. A position coordinate measuring device comprising: coordinate determining means for determining the position coordinates of the measuring object based on the above, and measuring the positional coordinates of the measuring object within a measurement plane including the optical axis of the optical means. 2) In the device according to claim 1, the positional coordinates of the measurement target are rectangular coordinates in which one coordinate axis is a line including the base length, and the other coordinate axis is a line in the measurement plane perpendicular to the line. A position coordinate measuring device characterized by: 3) A position coordinate measuring device according to claim 2, wherein the origin of the coordinate axis is selected at the center of one of the pair of optical means. 4) In the apparatus according to claim 1, the positional coordinates of the object to be measured are polar coordinates with the center of one optical means as the coordinate origin and a line in the measurement plane perpendicular to the baseline length direction as the angular reference axis. A position coordinate measuring device characterized by the following. 5) A positional coordinate measuring device according to claim 1, wherein the target point determining means determines a point indicating an extreme value of a signal value in a video signal sequence as a measurement target point. 6) A position coordinate measuring device according to claim 5, characterized in that a point light source for generating an extreme value of a signal value is provided on the measurement object. 7) A position coordinate measuring device according to claim 5, characterized in that a marker for generating an extreme value of a signal value is attached to the object to be measured. 8) In the apparatus according to claim 1, the target point determining means detects both ends of the pattern indicated by the video signal sequence,
A position coordinate measuring device characterized in that a point that internally divides the distance between the two ends at a predetermined ratio is determined as a point to be measured. 9) A positional coordinate measuring device according to claim 1, wherein the target point determining means determines the center of gravity on the signal value of the video signal sequence as the measurement target point. 10) A position coordinate measuring device according to claim 1, characterized in that the object to be measured is illuminated with illumination for making the image pattern of the object to be measured stand out from the background in the video signal sequence. 11) A position coordinate measuring device according to claim 10, characterized in that near-infrared light is used as illumination. 12) The position coordinate measuring device according to claim 10, wherein the illumination is applied in a pulsed manner in synchronization with the measurement of the position coordinates.
JP24189784A 1984-11-16 1984-11-16 Position coordinate measuring instrument Pending JPS61120001A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24189784A JPS61120001A (en) 1984-11-16 1984-11-16 Position coordinate measuring instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24189784A JPS61120001A (en) 1984-11-16 1984-11-16 Position coordinate measuring instrument

Publications (1)

Publication Number Publication Date
JPS61120001A true JPS61120001A (en) 1986-06-07

Family

ID=17081176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24189784A Pending JPS61120001A (en) 1984-11-16 1984-11-16 Position coordinate measuring instrument

Country Status (1)

Country Link
JP (1) JPS61120001A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63128413U (en) * 1987-02-13 1988-08-23
JPS6423195A (en) * 1987-07-20 1989-01-25 Nippon Atomic Ind Group Co Fuel assembly
US5155347A (en) * 1990-08-01 1992-10-13 Fuji Electric Co., Ltd. Object detector for an optical instrument
US5602944A (en) * 1990-06-26 1997-02-11 Fuji Electric Co., Ltd. Object-detecting system for optical instrument

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54161963A (en) * 1978-06-12 1979-12-22 Mitsubishi Electric Corp Size measuring apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54161963A (en) * 1978-06-12 1979-12-22 Mitsubishi Electric Corp Size measuring apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63128413U (en) * 1987-02-13 1988-08-23
JPS6423195A (en) * 1987-07-20 1989-01-25 Nippon Atomic Ind Group Co Fuel assembly
US5602944A (en) * 1990-06-26 1997-02-11 Fuji Electric Co., Ltd. Object-detecting system for optical instrument
US5155347A (en) * 1990-08-01 1992-10-13 Fuji Electric Co., Ltd. Object detector for an optical instrument

Similar Documents

Publication Publication Date Title
JPS60200103A (en) Light cutting-plate line extraction circuit
JPS6036905A (en) Distance measuring apparatus
EP0302512B1 (en) Simplified calibration for a distance information obtaining device
JPS61116611A (en) Distance measurement
US5485209A (en) Pupil divisional type focusing position detection apparatus for electronic cameras
JPS6069714A (en) Object positioning apparatus and method
JPS61120001A (en) Position coordinate measuring instrument
US4971443A (en) Optical position detecting method and apparatus therefor
JPH0328689B2 (en)
JPS5997070A (en) Method of optically measuring position of part
JPS62220803A (en) Three-dimensional coordinate measuring instrument
EP0415405A2 (en) Device for obtaining distance information from an object by instantaneously illuminating the object by a light beam
JPS6281616A (en) Focus position detecting device
JPS6345504A (en) Range finder
SU1040455A1 (en) Device for investigating animal mobility
JPS6418001A (en) Bright spot position detector
JPS55164823A (en) Orthogonal projection image forming method of three-dimensional object
JPS55124007A (en) Light angle detector
JPS63198818A (en) Distance detecting device
JP2002366930A (en) Image measuring camera
JPS6141902A (en) Detecting device for position
JPS57113342A (en) Eccentricity measurement
JPH04285802A (en) Inspecting apparatus for external appearance
Gordon Real-time 3D range sensor
JPS6416907A (en) Signal processing method for multi-lens visual device and multi-lens visual device using same method