JPS61198014A - Object information processor - Google Patents

Object information processor

Info

Publication number
JPS61198014A
JPS61198014A JP3905585A JP3905585A JPS61198014A JP S61198014 A JPS61198014 A JP S61198014A JP 3905585 A JP3905585 A JP 3905585A JP 3905585 A JP3905585 A JP 3905585A JP S61198014 A JPS61198014 A JP S61198014A
Authority
JP
Japan
Prior art keywords
distance
image
sensor
lens
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3905585A
Other languages
Japanese (ja)
Other versions
JPH061189B2 (en
Inventor
Masahiro Tanmachi
反町 誠宏
Masato Tamatoshi
玉利 真人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP3905585A priority Critical patent/JPH061189B2/en
Publication of JPS61198014A publication Critical patent/JPS61198014A/en
Publication of JPH061189B2 publication Critical patent/JPH061189B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Manipulator (AREA)
  • Image Input (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE:To process an object three-dimensionally based on distance information by forming a mask means obtained by forming a prescribed pattern of a relation of negative and positive, in two divided optical paths in a light guide means, from a stripe-shaped color filter. CONSTITUTION:An object image 60 contains the same part of an image from a lens 41 and an image from a lens 42, and it is constituted so that it is shifted in the direction of a scanning line and forms an image. As a result, on a photosensor 52, images which have passed through both optical paths from the lenses 41, 42 are not overlapped but arranged alternately. In such a state, by aligning the array direction of mosaic masks which are arranged alternately, with the direction of a scanning line on the photosensor 52, the same object images from both the optical paths by the lenses 41, 42 can be projected adjacently, for instance, as shown by B or D in the figure, onto the same scanning line of the photosensor 52. With regard to the adjacent same object images which have been obtained in this way, distance information can be detected, based on a principle for measuring a distance.

Description

【発明の詳細な説明】 〔技術公費〕 本発明は、簡単な構成で、距離情報を用いて環境を認識
することが可能な物体情報処理装置に関するものである
DETAILED DESCRIPTION OF THE INVENTION [Technical Public Fund] The present invention relates to an object information processing device that has a simple configuration and is capable of recognizing the environment using distance information.

〔従来技術〕[Prior art]

視覚センサを使って環境を認識する技術は各種研究され
ている。その多くは人間の視覚認識の機能を模したもの
で、テレビカメラによって得られる信号から環境の明暗
、色彩の分布の特徴を抽出し、これと記憶情報を対比す
ることによって行っている。例えばカメラを用いて物体
の形状−一縁線2色、濃淡等の解析をし、物体が何であ
るかの判断をする方法がある。しかしながら、このよう
な方法は、積み木のような単純な物を認識するのにも分
オーダの時間を要し、リアルタイム処理は不可能で、実
用化は難しい状態であった。又物体までの距離分布をス
リット状の光束を投射することによって計測する方法も
提案されている(テレビジョン学会誌第34巻第3号、
1980等)。さらに超音波センサによって環境対象物
までの距離を測定する方法も提案されている。しかし、
明暗の分布に基く方法では、環境を立体的に認識するこ
とが困難で、スリット光投射による光切断法は立体形状
の認識には有効であるが計算処理すべきデータ量が多く
比較的大きなコンピュータを使っても1画面数十秒から
数分の処理時間が必要である。更にスリット光を移動さ
せることが必要であるため機構的に可動部を要し、精度
の問題が生じる恐れがあり又、明るい環境を認識するた
めにはスリット光の光源に多くのエネルギを供給しなけ
ればならないという欠点もあった。
Various technologies are being researched to recognize the environment using visual sensors. Many of these systems imitate the human visual recognition function, and are performed by extracting the characteristics of the environment's brightness, darkness, and color distribution from signals obtained by a television camera, and comparing these with stored information. For example, there is a method in which a camera is used to analyze the shape of an object, its edges, two colors, shading, etc., and determine what the object is. However, such a method requires time on the order of minutes even to recognize a simple object such as building blocks, and real-time processing is not possible, making it difficult to put it into practical use. A method of measuring the distance distribution to an object by projecting a slit-shaped light beam has also been proposed (Television Society of Japan Vol. 34, No. 3,
1980 etc.). Furthermore, a method of measuring the distance to an environmental object using an ultrasonic sensor has also been proposed. but,
It is difficult to recognize the environment three-dimensionally using the method based on the distribution of brightness and darkness, and the light cutting method using slit light projection is effective for recognizing three-dimensional shapes, but requires a large amount of data to be processed and requires a relatively large computer. Even if one screen is used, processing time of several tens of seconds to several minutes is required for one screen. Furthermore, since it is necessary to move the slit light, mechanically moving parts are required, which may cause problems with accuracy, and in order to recognize bright environments, a lot of energy must be supplied to the light source of the slit light. There was also the drawback that it had to be done.

又、超音波センサを用いるものは、その特性上、超音波
の投射ビームを細くすることが難しく、従って像の分解
能を、あげることができないという問題点があった。
Further, in the case of using an ultrasonic sensor, due to its characteristics, it is difficult to make the ultrasonic projection beam narrower, and therefore, there is a problem in that the resolution of the image cannot be increased.

又、2次元の光センサを用いて、対象物体までの距離の
分布を測定して立体認識を行う場合、前述のように対象
物体の明るさの変化のみをもとに距離を算出する方法が
考えられる。この場合、人間の眼には明確に認められる
色彩の差も、光センサの出力に変化を与えない場合があ
り、この時には距離の測定はできない。カメツの測距で
は被写体上の一点までの距r*測定で、7アインダ内で
コントラストのある部分に測距位置を合せることが可能
であるが、例えば、特願昭59−44920のように環
境認識する場合、距離パターンを測定する場合には視野
内の多方向の距離を測定するので、測定不能の機会も増
加する。
Furthermore, when performing stereoscopic recognition by measuring the distribution of distance to a target object using a two-dimensional optical sensor, there is a method that calculates the distance based only on changes in the brightness of the target object, as described above. Conceivable. In this case, even a difference in color that is clearly visible to the human eye may not cause a change in the output of the optical sensor, and in this case, distance cannot be measured. In Kametsu distance measurement, it is possible to measure the distance r* to a single point on the subject, and adjust the distance measurement position to a contrasting part within the 7-pointer. When recognizing and measuring distance patterns, distances in multiple directions within the field of view are measured, which increases the chances of failure in measurement.

一方、単板式ビデオカメラでは2次元光センサの表面に
カラーモザイクフィルタをかけてカラー撮影を行うが、
このモザイクフィルタをかけた光センサでは基準視野と
参照視野を比較する測距法では、両視野内の同一物体点
からの像に同じ色フィルタをかけることはできない、こ
れは同一物体点からの結像位置が、距離によって変るた
めである。従って、色彩の変化により、距離情報が、不
正確になり誤まった環境認識をしてしまうという欠点が
あった。
On the other hand, in a single-chip video camera, a color mosaic filter is applied to the surface of the two-dimensional optical sensor to take color pictures.
In the distance measurement method that compares the standard field of view and the reference field of view with an optical sensor with this mosaic filter applied, it is not possible to apply the same color filter to images from the same object point in both fields of view. This is because the image position changes depending on the distance. Therefore, due to the change in color, the distance information becomes inaccurate, resulting in erroneous environment recognition.

〔目的〕〔the purpose〕

以上の点に鑑み、本願発明の目的は簡単な回路構成で、
物体を距離情報に基づいて3次元的に処理する物体情報
処理装置を提供することKあり、更に、明度だけでなく
、色相、彩度等の変化のある物体に対しても、正確に物
体情報を処理することができる物体情報処理装置を提供
することにある。
In view of the above points, the purpose of the present invention is to provide a simple circuit configuration,
It is an object of the present invention to provide an object information processing device that processes an object three-dimensionally based on distance information. An object of the present invention is to provide an object information processing device capable of processing.

□ 又、距離パターンを作成するためのマスクパターン
をストライプ状の複数の色フィルタにより構成すること
にある。
□ Also, the mask pattern for creating the distance pattern is composed of a plurality of striped color filters.

〔実施例〕〔Example〕

次に、本願発明の適用が可能な視覚センサの説明を行う
Next, a visual sensor to which the present invention can be applied will be explained.

第1図は視覚センサの1実施例の原理図である。10.
11はディストーションの充分少ないレンズ、fはレン
ズの焦点距離、dは物体12までの距離、Bはレンズ間
距離、δは物体像の光軸からのズレを示す。図から明ら
かなように一=−従って δ=」ニエ・・・・・・・・
・・・・■である。
FIG. 1 is a principle diagram of one embodiment of a visual sensor. 10.
11 is a lens with sufficiently low distortion, f is the focal length of the lens, d is the distance to the object 12, B is the distance between the lenses, and δ is the deviation of the object image from the optical axis. As is clear from the figure, 1 = - Therefore δ = ``Nie...
...■.

B δ d  f’         d 前記同様に第2図に示す視覚センサでは全反射2面鏡1
3、全反射鏡14を用いて、物体像を自己走査型センサ
アレイ15(受光要素15a)上に結像するように構成
している。なお、発光部を用いて補助光を具備するよう
にしてもよい。
B δ d f' d Similarly to the above, in the visual sensor shown in FIG.
3. The total reflection mirror 14 is used to form an object image on the self-scanning sensor array 15 (light receiving element 15a). Note that an auxiliary light may be provided using a light emitting section.

なお、図示の側基外に多方向の測距が可能で、基準視野
側のレンズ光軸上にない物点でも、該物点を通り光軸に
直交する平面までの距離はd== B二J−で算出され
る。実際の距離は、物体δ 方向と光軸との間の角度をθとすればd −sec。
Note that multidirectional distance measurement is possible outside the side base shown in the figure, and even if an object point is not on the optical axis of the lens on the reference visual field side, the distance from the object point to the plane perpendicular to the optical axis is d== B It is calculated as 2J-. The actual distance is d - sec, where θ is the angle between the object δ direction and the optical axis.

となるが、例えばロボット等の移動制御であれば、dの
ままでも支障はない。又、自己走査型センサは、例えば
CCDアレイであり、10μ程度の巾の多数個の微小セ
グメントの受光要素15aから構成されている。自己走
査型センサー5は、周知の如く上記の多数個の微小セグ
メントの各受光要素15aで検知した物体像の各画素部
分の照度に対応した電気信号を予め決められた順序に従
って、時系列信号として出力する機能を有するものであ
る。なお、レンズ間距離Bを変えることによって測定精
度を可変にしてもよく又、レンズは、11の焦点距離を
変えることによって、横方向の視野範囲を変えることが
できる。ここでは2像12′に関する走査出力が第3図
(b)(第3図(a)参照)K示すように信号S−1,
S−2の如き波形として取り出されるため、2像に対応
する信号s−i、s−2の間隔を電気信号処理回路にズ
検知しく83図(C)L■式を用いて物体までの距離測
定を行うものである。
However, for example, when controlling the movement of a robot, etc., there is no problem even if it remains as d. The self-scanning sensor is, for example, a CCD array, and is composed of light-receiving elements 15a in the form of a large number of minute segments with a width of about 10 μm. As is well known, the self-scanning sensor 5 converts electrical signals corresponding to the illuminance of each pixel portion of the object image detected by each of the light receiving elements 15a of the plurality of minute segments into time-series signals in a predetermined order. It has an output function. Note that the measurement accuracy may be made variable by changing the distance B between the lenses, and the lateral viewing range of the lens 11 can be changed by changing the focal length of the lens. Here, the scanning output for the two images 12' is the signal S-1, as shown in FIG. 3(b) (see FIG. 3(a)).
Since it is extracted as a waveform such as S-2, the interval between the signals s-i and s-2 corresponding to the two images must be detected by the electrical signal processing circuit. It is used to perform measurements.

さて、ここに示す視覚センサにあっては、以上の様な距
M測定原理に基づき自己走査型センサ(以後センサ・ア
レイと略称する)を用いて、2像の相互間隔を検知せん
とするものであるが、か様な視覚センサにおいては認識
しようとする物体空間を明確にすること、換言すれば、
測定視覚Lsを何らかの手段で規定すると共に、同時に
もう一方の像をとらえる視野(これを参照視野Lnと称
する)を規定する必要がある。
Now, the visual sensor shown here uses a self-scanning sensor (hereinafter abbreviated as sensor array) based on the distance M measurement principle described above to detect the mutual distance between two images. However, in various visual sensors, it is necessary to clarify the object space to be recognized, in other words,
It is necessary to define the measurement visual field Ls by some means, and at the same time define the visual field for capturing the other image (this is referred to as the reference visual field Ln).

ここに示すセンサにおいては、像12の結像位置近傍に
測定視野を設定し、これに対し像1fが物体12の距離
に従って移動する範囲を参照視野とする。
In the sensor shown here, the measurement field of view is set near the imaging position of the image 12, and the range in which the image 1f moves in accordance with the distance of the object 12 is set as the reference field of view.

以上の視覚センナの原理の詳細なブロック図を第4図に
示す。15は前述のCOD等の自己走査型センサアレイ
(測定視野相当のセル数N1参照視野相当のセル数N+
M−1)でクロック制御回路21、駆動回路20及びシ
フトクロック、転送りロックにより駆動され、ccDア
レイ上のデータは量子化回路22によって(例えばコン
パレータによって所定のしきい値と比較し、大小によっ
で0,1に分ける。)I量子化される。次に測定視野、
参照視野それぞれの量子化データを各々シフトレジスタ
26.27に入れ、クロック制御回路21から出力した
クロックによってシフトさせながらゲート28によって
上記それぞれの量子化データが合致したか否かを検出し
、合致数比較回路24によって上記合致数をカウンタ2
4−1によってカウントすると共にN個の比較終了後カ
ウンタ24−1の出力信号はラッチ24−3に入力され
る。当然ながら最初にラッチ回路24−3はクリアされ
ている。N個の値の比較をシフトレジスタ26゜27に
よってシフトさせながら行った後、シフトレジスタ27
は値を1つすすめて今度は2番目からN+1番目までの
値を再びシフトレジスタ26のNHの値と順に比較して
いく。3回目は3番目からN+2番目をシフトレジスタ
26のN個と比較する。これをM回繰り返し、最後はM
番目から(M+N−1)番目の値の比較を行う。つまり
、N個の比較を、1つづつM回ずらしながら行う。合致
位置は合致位置検出回路23においてこのN個の比較の
回数(≦M)をカウントすると共に合致数比較回路24
のフンパレータ24−2のA)Bの出力が出るごとに回
数をラッチすれば最も合致数の多かった回数が最終的に
得られ、この値が合致位置に対応する。次に物体情報信
号出力回路25においてこの合致回数即ち合致位置の値
を用い、式■の関係より物体との距離が求められる。そ
の距離情報はCPU、メモリ等に出力される。
A detailed block diagram of the principle of the visual sensor described above is shown in FIG. 15 is a self-scanning sensor array such as the above-mentioned COD (number of cells equivalent to measurement field of view N1 number of cells equivalent to reference field of view N+
M-1) is driven by a clock control circuit 21, a drive circuit 20, a shift clock, and a transfer lock, and the data on the CCD array is compared with a predetermined threshold value by a quantization circuit 22 (for example, by a comparator) and is Therefore, it is divided into 0 and 1.) I is quantized. Next, the measurement field of view,
The quantized data of each reference field of view is put into the shift registers 26 and 27, and while being shifted by the clock output from the clock control circuit 21, the gate 28 detects whether or not the respective quantized data match, and calculates the number of matches. The comparison circuit 24 calculates the number of matches by the counter 2.
After the completion of N comparisons, the output signal of the counter 24-1 is input to the latch 24-3. Naturally, the latch circuit 24-3 is initially cleared. After comparing N values while shifting them by the shift registers 26 and 27, the shift registers 27
advances one value and then compares the second to N+1st values again with the value of NH in the shift register 26 in order. For the third time, the 3rd to N+2nd values are compared with N values in the shift register 26. Repeat this M times, finally M
The (M+N-1)th values are compared. That is, N comparisons are performed while shifting one by one M times. The matching position is determined by counting the number of times (≦M) of these N comparisons in the matching position detecting circuit 23 and checking the matching number comparing circuit 24.
If the number of times is latched every time the outputs of A) and B of the funparator 24-2 are output, the number of times with the largest number of matches is finally obtained, and this value corresponds to the matching position. Next, the object information signal output circuit 25 uses this number of matches, that is, the value of the matching position, and calculates the distance to the object from the relationship of equation (2). The distance information is output to the CPU, memory, etc.

次に、視覚センサの走査方法について述べる。Next, the scanning method of the visual sensor will be described.

第5図は視覚センサの制御ブロック図である。FIG. 5 is a control block diagram of the visual sensor.

30は視覚センサを選択走査するためのスキャナ、31
は距離情報等のパターンを記憶する丸めのメモリ、32
はセンナを制御すると共に演算処理等を行う丸めのCP
Uである。
30 is a scanner for selectively scanning the visual sensor; 31
is a rounding memory that stores patterns such as distance information, 32
is a rounding CP that controls Senna and performs arithmetic processing, etc.
It is U.

以上の説明に基づいて、本願発明適用の1実施例につい
て説明する。第6図は、本願発明適用の1実施例である
視覚センサの構成ブロック図である。41.42は対物
レンズ、43 、44゜45は全反射鏡、46はポジマ
スク、48はネガマスク、47.49はコンデンサレン
ズ、40は半透明鏡、51は結像レンズ、52は1ライ
ンの画像を画素単位で読取るCOD等の7オトセンサで
ある。
Based on the above explanation, one embodiment of the application of the present invention will be described. FIG. 6 is a block diagram of a visual sensor that is an embodiment of the present invention. 41.42 is an objective lens, 43, 44°, 45 is a total reflection mirror, 46 is a positive mask, 48 is a negative mask, 47.49 is a condenser lens, 40 is a semi-transparent mirror, 51 is an imaging lens, 52 is a one-line image It is a 7-photo sensor such as COD that reads the image in pixel units.

上記構成において、認識すべき環境の像は所定の間隔を
おいて設けた対物レンズ41.42を介して、それぞれ
マスク46.48の近傍ニ結像する。マスク46は第7
−1図にその一部を拡大して示したように1例えば透明
なガラス板の上にモザイク状に不透明部分46bを設け
たものである。マスク48は第7−2図に示し九ように
マスク46の透明部46aと不透明部46bを反転させ
たもので、48aは透明部、48bは不透明部である。
In the above configuration, images of the environment to be recognized are formed in the vicinity of masks 46 and 48, respectively, via objective lenses 41 and 42 provided at predetermined intervals. Mask 46 is the seventh
As shown in FIG. 1, a portion of which is enlarged, an opaque portion 46b is provided in a mosaic pattern on a transparent glass plate, for example. The mask 48 is obtained by inverting the transparent part 46a and the opaque part 46b of the mask 46 as shown in FIG. 7-2, with 48a being the transparent part and 48b being the opaque part.

第8図は、前記第6図に示した視覚センナの模式図であ
る。60は環境(物体)像である。
FIG. 8 is a schematic diagram of the visual sensor shown in FIG. 6. 60 is an environment (object) image.

なおここでは簡単に2次元で説明したが、実際は3次元
の物体である。又、41.42は前述の対物レンズ、以
下同様に43.44.45は全反射鏡、46はポジマス
ク、48はネガマスク、40は半透明鏡、51は結像レ
ンズ、52は1ラインの画像を画素単位で読みとるフォ
トセンサであるCOD (第8図では3ライン)及びC
CD上にレンズ51によって結像される物体像である。
Note that although the explanation has been made here in a simple two-dimensional manner, it is actually a three-dimensional object. Also, 41.42 is the aforementioned objective lens, 43.44.45 is a total reflection mirror, 46 is a positive mask, 48 is a negative mask, 40 is a semi-transparent mirror, 51 is an imaging lens, and 52 is a one-line image. COD (3 lines in Figure 8), which is a photosensor that reads the
This is an object image formed by the lens 51 on the CD.

なおフォトセンサはCODである必要はなく、又、面状
センサであってもよく、ライン数もこれに限る必要はな
い。なお、マスク46及び48は、両者の透明部と不透
明部が合うように構成しておく。更に物体像は、レンズ
41からの像とレンズ42からの像の同一部 。
Note that the photosensor does not need to be a COD, or may be a planar sensor, and the number of lines is not limited to this. Note that the masks 46 and 48 are configured so that their transparent and opaque parts match. Furthermore, the object image is the same part of the image from lens 41 and the image from lens 42.

分(本実施例ではBとDがCCD52上に、それぞれ2
個存在している。)を含み、走査線方向にずれて結像す
るように構成する。その結果7オトセンサ52上にはレ
ンズ41.42からの両光路を経た像が重なることなく
交互に並べられる。そして7オトセンサ52上の走査線
の方向と交互に並べられるモザイクマスクの配列方向を
合わせることによって、フォトセンサの同一走査線上に
レンズ41.42による両光路からの同一物体像を例え
ば第8図のB又はDの様に隣接して投影することができ
る。なお、物体像は複数の走査線上に投影されてもよい
。そして、以上の様にして得られた隣接する同一物体像
について、第1図〜第4図に示した距離測定の原理に基
づいて距離情報を検知することができる。
minutes (in this example, B and D are displayed on the CCD 52, each 2 minutes).
Individuals exist. ), and is configured to form an image shifted in the scanning line direction. As a result, images from the lenses 41 and 42 passing through both optical paths are arranged alternately on the 7-photo sensor 52 without overlapping. By aligning the direction of the scanning lines on the photo sensor 52 with the arrangement direction of the mosaic masks arranged alternately, the same object image from both optical paths by the lenses 41 and 42 is displayed on the same scanning line of the photosensor, for example as shown in FIG. They can be projected adjacently like B or D. Note that the object image may be projected onto a plurality of scanning lines. Distance information can be detected for adjacent images of the same object obtained in the above manner based on the principle of distance measurement shown in FIGS. 1 to 4.

次に、7オトセンサ52であるCCDの説明をする。第
9図は、CCD上に投影された像の一部を示す図で、そ
れぞれ61−1.61−2゜61−3.61−4のブロ
ックが第2図〜第4図において、説明したセンサアレイ
15にそれぞれ相当するものである。第9図においては
、CCD52上に物体像rBJが、走査M4本Kまたが
って投影される例を示したが、その数は、読取り精度、
速度等によって何本であってもよい。なお、61−5は
第3図、第4図におい【説明した測定視野で、61−6
は参照視野に相当する。本実施例では、測定視野61−
5は32ビツト、参照視野61−6は94ビツトである
Next, the CCD, which is the 7-point sensor 52, will be explained. FIG. 9 is a diagram showing a part of the image projected on the CCD, and the blocks 61-1.61-2 and 61-3.61-4 are shown in FIGS. 2 to 4. Each corresponds to the sensor array 15. In FIG. 9, an example is shown in which the object image rBJ is projected onto the CCD 52 across four scanning lines K, but the number depends on the reading accuracy and
The number may be any number depending on the speed etc. In addition, 61-5 is shown in FIGS. 3 and 4 [with the measurement field of view explained].
corresponds to the reference field of view. In this embodiment, the measurement field of view 61-
5 is 32 bits, and reference field 61-6 is 94 bits.

よって分割数は62(94−32)であるが、この分割
数は距離測定精度によって、任意に可変となるよう構成
すればよい。又、面CCD52の大きさはY方向6.6
mmXX方向8.8 m mで、走査ラインはX方向7
57ライン、Y方向245ラインで構成されている。な
お、この構成に限る必要はない。又、第9図にはX方向
、Y方向にそれぞれ61−1.61−2.61−3.6
1−4.62−1・・・・・・・・・と同様の不図示の
ブロックが多数存在していることは、言うまでもない。
Therefore, the number of divisions is 62 (94-32), but this number of divisions may be configured to be arbitrarily variable depending on the accuracy of distance measurement. Also, the size of the plane CCD 52 is 6.6 in the Y direction.
mmXX direction 8.8 mm, scanning line is X direction 7
It consists of 57 lines and 245 lines in the Y direction. Note that it is not necessary to be limited to this configuration. Also, in Fig. 9, there are 61-1.61-2.61-3.6 in the X direction and Y direction, respectively.
It goes without saying that there are many blocks (not shown) similar to 1-4.62-1...

次に、上記複数のブロックを有するCCD52における
走査の切換制御の説明を行う。第4図において説明した
ように、1ブロツクにおける距離情報を得るためには、
NXM個のクロックが必要である。そして、このクロッ
ク数をカウントして第4図のクロック制御回路21によ
り、走査すべきブロックを、例えば第9図の61−1か
ら62−IK更に61−2に切換えるというように、所
定のエリアについてスキャンするよう切換制御する。
Next, scanning switching control in the CCD 52 having the plurality of blocks will be explained. As explained in Fig. 4, in order to obtain distance information in one block,
NXM clocks are required. Then, by counting the number of clocks, the clock control circuit 21 in FIG. 4 switches the block to be scanned from 61-1 to 62-IK and then to 61-2 in FIG. 9, for example, in a predetermined area. Switching control is performed to scan for.

次に、以上の視覚センサを用いた四ポットのシステムプ
四ツク図を第10図に示す。52は前述の7オトセンサ
(CCD)、70はA/D変換器、71はスイッチング
回路で、上記CCD52のセンサブ胃ツクを選択し、視
覚センサブ田ツク処理回路72において、物体の距離情
情を得るものである。検知された距離情報は73のRA
M上に距離パターンとして書き込まれる。・32はCP
Uで、74はマツプメモリである。マツプメモリ74は
、過去の距離パターン又は指令用のマツプが格納されて
おり、マツプメモリ74上の距離パターンと現在の距離
ハターンとを比較し、最適のアーム制御、移動制御等を
行うものである。なお、CPU32は、複数のプロセッ
サを有し、各種データをそれぞれプロセッサで同時、並
行的に処理する非ノイマン系のコンピュータであっても
よい。又、外部からの指令信号を受けるためのターミナ
ルを有していてもよい。更に、移動の方向、速度。
Next, FIG. 10 shows a four-pot system diagram using the above visual sensor. Reference numeral 52 denotes the above-mentioned 7 optical sensor (CCD), 70 an A/D converter, and 71 a switching circuit which selects the sensor position of the CCD 52, and the visual sensor sensor data processing circuit 72 obtains the distance information of the object. It is something. The detected distance information is 73 RA
It is written on M as a distance pattern.・32 is CP
In U, 74 is a map memory. The map memory 74 stores past distance patterns or command maps, and compares the distance pattern on the map memory 74 with the current distance pattern to perform optimal arm control, movement control, etc. Note that the CPU 32 may be a non-Neumann type computer that has a plurality of processors and processes various data simultaneously and in parallel with each processor. It may also have a terminal for receiving command signals from the outside. Furthermore, the direction and speed of movement.

距離等のセンサ、あるいは演算処理部からのデータと上
記距離パターンからの情報に基づいて駆動制御75.ア
ーム制御76を行うようにしている。
Drive control 75 based on data from a distance sensor or arithmetic processing unit and information from the distance pattern. Arm control 76 is performed.

前記実施例では視覚センサブロック処理回路をWfi並
置した例を示したが、これは処理時間とCCD走査時間
との整合をとるためのもので互層算出処理の高速化、又
はCOD走査速度の調整によっては複数並置しなくても
良い。又、A/Dコン−バータフ0とスイッチング回路
71との順序が逆であってもよい。
In the above embodiment, an example was shown in which the visual sensor block processing circuits were arranged side by side with Wfi, but this was done in order to match the processing time and CCD scanning time. It is not necessary to arrange multiple . Further, the order of the A/D converter 0 and the switching circuit 71 may be reversed.

又、距離情報が得られるため高速の飛翔物を正確に避け
たり捕捉したり、自動車等において障害物を避けるため
のセンサとして使用したりすることもできる。その他用
途はこれに限る必要はない。
Furthermore, since distance information can be obtained, it is possible to accurately avoid or capture high-speed flying objects, and it can also be used as a sensor for avoiding obstacles in automobiles and the like. Other uses need not be limited to this.

また、機械的に移動する部分を使わずに、視野内の環境
対象物までの距離の分布を、超音波測定に比べて特に横
方向に高い分解能をもって測定することができ、又二つ
の光路を通った同一対象物の像が7オトセンサ上に隣接
して結ばれるので、これまでステレオ法(TV学会誌第
34巻第3号、1980P211)で対応点の照応が困
難とされていた問題が解決する。さらに演算処理を並列
に行うことも可能で非ノイマン系のコンピュータを搭載
することもでき、又ロボットに必要な高速処理も可能に
なる。以上、詳述したように距離の分布を計測すること
は対象を立体的に認識する上に有効で、特にロボットの
眼、盲人の歩行補助具用センサ等に実用可能である。
In addition, it is possible to measure the distribution of distances to environmental objects within the field of view with higher resolution, especially in the lateral direction, than with ultrasonic measurements, without using mechanically moving parts. Images of the same object passed through are formed adjacent to each other on the 7 otosensors, which solves the problem of difficulty in matching corresponding points with the stereo method (TV Society Journal, Vol. 34, No. 3, 1980, p. 211). do. Furthermore, it is possible to perform arithmetic processing in parallel, it is possible to mount a non-Neumann type computer, and it also becomes possible to perform high-speed processing required for robots. As described above, measuring the distance distribution is effective in recognizing objects three-dimensionally, and is particularly applicable to robot eyes, sensors for walking aids for blind people, and the like.

以上詳述し九ように、簡単な回路構成で環境を距離のパ
ターンとして立体的に認識することが可能な物体情報処
理装置を提供することが可能と表った。
As described in detail above, it has been shown that it is possible to provide an object information processing device that can three-dimensionally recognize the environment as a distance pattern with a simple circuit configuration.

次に、第11図に1本発明の装置の搭載が可能なロボッ
トの制御フローチャートの一部を簡単に示す。このプロ
グラムは例えばCPU32のROMに格納されている。
Next, FIG. 11 briefly shows a part of a control flowchart of a robot capable of mounting the apparatus of the present invention. This program is stored in the ROM of the CPU 32, for example.

本例では、第9図に示したCCD上の各61−1等の視
覚センサブロックに、第10図の各視覚センサブロック
処理回路72が対応する。画像データの各ブロックの切
換えと上記視覚センサブロック処理回路72の処理速度
にもよるが、視覚センサブロック処理回路72は設置2
つあれば良い。なお本例ではCCD52上の1ライン分
の処理回路は例えばn3個(視覚センサブロックもn1
個)とする。第11図のステップ1において、まずn=
1とし、ステップ2で、CCD内のブロック■(1ライ
ンにn8個のブロックがある)からの距離データをセン
サブロック処理回路■(視覚センサブロックに対応して
1ラインにn1個ある)に供給する。次に、ステップ3
で、視覚センサブロック処理回路■から、物体情報信号
■が、第4図の如く出力され、第10図に示す距離パタ
ーンに格納される。この処理は、例えば、約3 m s
で、ステップ3はタイマによる判別□を行なうようにし
てもよい。次に、ステップ4では次のブロック■からの
距離データについての処理を行なうぺ<、n+−n+1
の処理を行ない、今の場合、ステップ5ではn≦n□で
あり、ステップ2に進み、上記同様の処理を繰り返す。
In this example, each visual sensor block processing circuit 72 shown in FIG. 10 corresponds to each visual sensor block such as 61-1 on the CCD shown in FIG. Depending on the switching of each block of image data and the processing speed of the visual sensor block processing circuit 72, the visual sensor block processing circuit 72 may be
It's good if you have one. In this example, the number of processing circuits for one line on the CCD 52 is n3 (the visual sensor block is also n1).
). In step 1 of FIG. 11, first n=
1, and in step 2, the distance data from block ■ (there are n8 blocks in one line) in the CCD is supplied to the sensor block processing circuit ■ (there are n1 blocks in one line corresponding to the visual sensor block). do. Next, step 3
Then, the object information signal (2) is outputted from the visual sensor block processing circuit (2) as shown in FIG. 4, and is stored in the distance pattern shown in FIG. 10. This process takes approximately 3 ms, for example.
In step 3, the determination □ may be performed using a timer. Next, in step 4, the distance data from the next block ■ is processed.
In this case, n≦n□ in step 5, and the process proceeds to step 2, where the same process as described above is repeated.

そして、1ラインの処理が終了すると、ステップ5にお
いて、NOに進む、そして、ステップ6において、次の
列の処理を行なうためY−Y+1とし、ステップ7では
、yt(面CCD52が第9図Y方向に11列あるとす
る)列つまり一画面が終了したか否かを判定する。
When the processing of one line is completed, the process goes to NO in step 5, and in step 6, Y-Y+1 is set to process the next column, and in step 7, yt (plane CCD 52 is (Assuming there are 11 columns in the direction), it is determined whether a column, that is, one screen has ended.

ステップ7で、距離データの処理が一画面終了していな
い場合は、次の列において、距離データの処理を行なう
べく、ステ、ツブ$2に戻る。
In step 7, if the distance data processing for one screen has not been completed, the process returns to Step 2 to process the distance data in the next column.

ステップ7でY≦y、でなかった場合、つまりCOD−
画面分の距離データの処理が終了している場合は、第1
0図の距離パターンRAM73には、CCD−画面分の
距離パターンが完成しており、ステップ8では、このC
OD−画面あるいは、数置面分の距離パターンデータに
基づいて、更に又、第10図に示すマツプメモリ74光
フアイバジヤイロ等の方位センサ等からのデータに基づ
いて、各種駆動部75.アーム部76を制御し、例えば
、距離パターンデータから近くに物体がない方向を判定
し、その方向へ、四ポット本体の移動させる。
If Y≦y is not established in step 7, that is, COD-
If the distance data for the screen has been processed, the first
In the distance pattern RAM 73 in Figure 0, a distance pattern for the CCD screen has been completed, and in step 8, this CCD
Various driving units 75. The arm section 76 is controlled to determine, for example, a direction in which there is no object nearby from the distance pattern data, and the four-pot body is moved in that direction.

次に、色彩の変化も距離を算出する情報として利用する
場合について説明する。つまり、明度が同じでも色相又
は彩度に変化のある物体までの距離測定を可能にするも
ので、マスクパターンをストライプ状にすることKよっ
て、モザイク状の場合と比較して、位置合せが容易とな
り、製造上の利点も生じるというもので、以下に詳細に
説明する。
Next, a case will be described in which a change in color is also used as information for calculating distance. In other words, it is possible to measure the distance to an object that has the same brightness but changes in hue or saturation, and by making the mask pattern into stripes, alignment is easier than with a mosaic pattern. Therefore, manufacturing advantages also arise, which will be explained in detail below.

第6図のマスクパターン46.48、つまり、。Mask patterns 46, 48 of FIG. 6, ie.

第7−1図、第7−2図のマスクパターンの代わりに、
本実施例では、第12図に示すパターンを用いる。10
1aは基台、10oはCOD等の2次元センナ、102
は色フィルタである。
Instead of the mask patterns in Figures 7-1 and 7-2,
In this example, a pattern shown in FIG. 12 is used. 10
1a is a base, 10o is a two-dimensional sensor such as COD, 102
is a color filter.

第13図にマスクパターンである色フィルタのパターン
を拡大した図を示す。102a、102b。
FIG. 13 shows an enlarged view of a color filter pattern which is a mask pattern. 102a, 102b.

102Cはそれぞれ赤、緑、青の3色、あるいは更に透
明部を加えた4色を縞状に繰り返し施したもので、個々
の線巾は光センサ上の走査線巾と等しい。そして、この
ように構成した光センサの同一走査線上に投影された、
複数の光路を通った物体像の位置関係から前述の処理に
より、距離を算出するので、比較する情報は総て同じ色
のフィルタを通った光である。又、副走査方向(第9図
、°第13図のY方向)に隣接した走査線では異った色
フィルタを通った物体像の距離を算出することになり、
視野内で!IF数の走査線に互って投影される物体は複
数の色分解像で距離を算出することができる。
102C has three colors of red, green, and blue, or four colors including a transparent part, repeatedly applied in a striped pattern, and the width of each line is equal to the width of the scanning line on the optical sensor. Then, the images projected on the same scanning line of the optical sensor configured in this way,
Since the distance is calculated by the above-described processing from the positional relationship of object images that have passed through a plurality of optical paths, the information to be compared is all light that has passed through filters of the same color. Also, the distance of the object image passing through different color filters is calculated for scanning lines adjacent to each other in the sub-scanning direction (Fig. 9, °Y direction in Fig. 13).
Within sight! Distances of objects projected onto the same number of IF scan lines can be calculated using a plurality of color-separated images.

なお、フィルタ(マスクパターン)は光センサ上に直接
蒸着法やスパッタリングによって装着するようKしても
よい。又、光センサが可視光以外に感度を持つ場合には
赤外光や紫外光の情報をフィルタにより分離して行なう
場合も考えられる。
Note that the filter (mask pattern) may be attached directly onto the optical sensor by vapor deposition or sputtering. Further, if the optical sensor has sensitivity to light other than visible light, it is also possible to separate information on infrared light and ultraviolet light using a filter.

以上、詳述したように、明度に変化が少くても、色度に
変化のある物体までの距離が容易に測定でき、より正確
な距離パターンを作成することができる。
As described in detail above, even if the change in brightness is small, the distance to an object with a change in chromaticity can be easily measured, and a more accurate distance pattern can be created.

〔効果〕 以上、詳述したように本願発明により、簡単な回路構成
で、物体を距離情報に基づいて3次元的に処理すること
ができ、更に明度だけでなく、色相、彩度等の変化のあ
る物体に対しても、正確に物体情報を処理することがで
きる物体情報処理装置を提供することが可能となった。
[Effects] As detailed above, according to the present invention, objects can be processed three-dimensionally based on distance information with a simple circuit configuration, and further, changes in not only brightness but also hue, saturation, etc. It has become possible to provide an object information processing device that can accurately process object information even for objects that have a certain shape.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、視覚センサの原理を示す図である。 第2図は、視覚センサの構成を示す図である。 第3図は、視覚センサの距離信号を示す図である。 第4図は、視覚センサの詳細なブロック図を示す図であ
る。 第5図は、視覚センサの走査方法を示す図である。 第6図は、本発明適用の1実施例である視覚センサの構
成ブロック図である。 第7−1図は、マスク46の説明図である。 第7−2図は、マスク48の説明図である。 f$8図は、視覚センサの模式図である。 第9図は、7オトセンサ52上の走査プ四ツクの説明図
である。 第10図は、ロボットのシステムブロック図である。 第11図は、ロボットの制御フローチャートの一部を示
す図である。 第12図は、光センサ及び、マスクパターンの構成を示
す図である。 ita図は、マスクパターンの拡大図である。 102・・・・・・色フィルタ 、 32・・・・−C
P U52・・・・・・視覚センサ  、 31・・曲
メ% !J72・・曲視覚センサブロック 、73・・
・・・・ffi[パターンRAM第5図 躬6図 第72図 第7B区
FIG. 1 is a diagram showing the principle of a visual sensor. FIG. 2 is a diagram showing the configuration of the visual sensor. FIG. 3 is a diagram showing the distance signal of the visual sensor. FIG. 4 is a diagram showing a detailed block diagram of the visual sensor. FIG. 5 is a diagram showing a scanning method of the visual sensor. FIG. 6 is a block diagram of a visual sensor according to an embodiment of the present invention. FIG. 7-1 is an explanatory diagram of the mask 46. FIG. 7-2 is an explanatory diagram of the mask 48. Figure f$8 is a schematic diagram of the visual sensor. FIG. 9 is an explanatory diagram of the scanning platform on the 7-point sensor 52. FIG. 10 is a system block diagram of the robot. FIG. 11 is a diagram showing a part of a control flowchart of the robot. FIG. 12 is a diagram showing the configuration of an optical sensor and a mask pattern. The ita diagram is an enlarged view of the mask pattern. 102...color filter, 32...-C
P U52...Visual sensor, 31...Song me%! J72...Tune visual sensor block, 73...
...ffi [Pattern RAM Fig. 5 Fig. 6 Fig. 72 Fig. 7B section

Claims (1)

【特許請求の範囲】 物体点からの光情報を結像するための結像手段、 上記物体点からの光情報を少なくとも第1の光路、第2
の光路に分け、上記結像手段に導く、導光手段、 上記導光手段において、分けられた第1の光路内、及び
第2の光路内にそれぞれネガ、ポジの関係にある所定の
パターンが形成されたマスク手段は複数の色からなるス
トライプ状の色フィルタからなることを特徴とする物体
情報処理装置。
[Scope of Claims] Imaging means for forming an image of optical information from an object point;
a light guiding means which divides the optical path into two optical paths and guides it to the imaging means; in the light guiding means, a predetermined pattern having a negative and positive relationship is formed in the divided first optical path and the second optical path, respectively; An object information processing device characterized in that the formed mask means is composed of a striped color filter made of a plurality of colors.
JP3905585A 1985-02-28 1985-02-28 Object information processing device Expired - Lifetime JPH061189B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3905585A JPH061189B2 (en) 1985-02-28 1985-02-28 Object information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3905585A JPH061189B2 (en) 1985-02-28 1985-02-28 Object information processing device

Publications (2)

Publication Number Publication Date
JPS61198014A true JPS61198014A (en) 1986-09-02
JPH061189B2 JPH061189B2 (en) 1994-01-05

Family

ID=12542441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3905585A Expired - Lifetime JPH061189B2 (en) 1985-02-28 1985-02-28 Object information processing device

Country Status (1)

Country Link
JP (1) JPH061189B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250159A (en) * 2004-03-04 2005-09-15 Nec Viewtechnology Ltd Projector with distance and tilt angle measuring instrument
JP2006162531A (en) * 2004-12-10 2006-06-22 Sokkia Co Ltd Absolute position detector
KR100673087B1 (en) 2005-01-21 2007-01-22 (주) 시리우스 A system for recognizing an object
US7579119B2 (en) * 1992-11-27 2009-08-25 Dai Nippon Printing Co., Ltd. Hologram recording sheet, holographic optical element using said sheet, and its production process

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7579119B2 (en) * 1992-11-27 2009-08-25 Dai Nippon Printing Co., Ltd. Hologram recording sheet, holographic optical element using said sheet, and its production process
JP2005250159A (en) * 2004-03-04 2005-09-15 Nec Viewtechnology Ltd Projector with distance and tilt angle measuring instrument
JP4535749B2 (en) * 2004-03-04 2010-09-01 Necディスプレイソリューションズ株式会社 Projector having distance inclination angle measuring device
JP2006162531A (en) * 2004-12-10 2006-06-22 Sokkia Co Ltd Absolute position detector
JP4521260B2 (en) * 2004-12-10 2010-08-11 株式会社 ソキア・トプコン Absolute position detector
KR100673087B1 (en) 2005-01-21 2007-01-22 (주) 시리우스 A system for recognizing an object

Also Published As

Publication number Publication date
JPH061189B2 (en) 1994-01-05

Similar Documents

Publication Publication Date Title
US7139424B2 (en) Stereoscopic image characteristics examination system
US7078720B2 (en) Range finder for measuring three-dimensional geometry of object and method thereof
US20020154318A1 (en) Visual displacement sensor
CN102589475A (en) Three dimensional shape measurement method
US9664507B2 (en) Depth value measurement using illumination by pixels
US20130075585A1 (en) Solid imaging device
WO2014074003A1 (en) Method for monitoring linear dimensions of three-dimensional objects
US11182918B2 (en) Distance measurement device based on phase difference
US6980210B1 (en) 3D stereo real-time sensor system, method and computer program therefor
JP2006322795A (en) Image processing device, image processing method and image processing program
JP3507865B2 (en) Method and apparatus for real-time shape measurement by CCD camera using DMD
CN112415010A (en) Imaging detection method and system
WO1997018494A1 (en) Single lens range imaging method and apparatus
Valocký et al. Measure distance between camera and object using camera sensor
JP2001338280A (en) Three-dimensional space information input device
US20200128188A1 (en) Image pickup device and image pickup system
JPS61198014A (en) Object information processor
JPH03293507A (en) Three-dimensional shape measuring apparatus
CN107835931B (en) Method for monitoring linear dimension of three-dimensional entity
EP1676238B1 (en) A method for measuring dimensions by means of a digital camera
JPH0246984B2 (en) BUTSUTAIJOHOSHORISOCHI
US5222156A (en) Object information processing apparatus
JPS6219146A (en) Alignment apparatus for ophthalmic machine
KR100943405B1 (en) A 3D Shape Measuring System using Lateral Scan
JPH0723684Y2 (en) Range finder

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term