JPH0644364A - Correlation processing system - Google Patents

Correlation processing system

Info

Publication number
JPH0644364A
JPH0644364A JP4249956A JP24995692A JPH0644364A JP H0644364 A JPH0644364 A JP H0644364A JP 4249956 A JP4249956 A JP 4249956A JP 24995692 A JP24995692 A JP 24995692A JP H0644364 A JPH0644364 A JP H0644364A
Authority
JP
Japan
Prior art keywords
correlation
data
image
receptive field
polar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4249956A
Other languages
Japanese (ja)
Other versions
JP2796221B2 (en
Inventor
Susumu Kawakami
進 川上
Hiroaki Okamoto
浩明 岡本
Toshihiko Morita
俊彦 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP4249956A priority Critical patent/JP2796221B2/en
Priority to US07/987,954 priority patent/US6005984A/en
Publication of JPH0644364A publication Critical patent/JPH0644364A/en
Priority to US08/470,061 priority patent/US5901252A/en
Application granted granted Critical
Publication of JP2796221B2 publication Critical patent/JP2796221B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To provide the function binocular stereoscopic vision by easily deciding the correspondent parts of plural graphics with correlation processing and further performing the decision with a little processing. CONSTITUTION:First and second image data are mapped to paired planes 17 and 27 by performing pole transformation processing at pole conversion parts 14 and 24. Otherwise, the pole converted results are mapped to paired planes by further performing filter processing at one-dimensional filters 16 and 26 respectively. A correlation processing part 30 calculates a correlative amount (correlation data) with positions (rho,theta) of the mapped data on the paired planes and a gap between the mapped data to perform the correlation processing as element parameters, calculates a point having any feature correlative parameter (such as a maximal value, for example), and measures a parameter (parallax, moving direction or velocity) to specify the relation between the graphical features (such as tangents, for example,) of respective reception field images based on the value of the element parameter to apply the correlative parameter.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は相関処理方式に係わり、
特に2つの画像間の図形的特徴の間の関係を相関処理結
果である相関パラメータに基づいて求める相関処理方式
に関する。
The present invention relates to a correlation processing method,
In particular, the present invention relates to a correlation processing method for obtaining a relationship between graphic features between two images based on a correlation parameter which is a result of the correlation processing.

【0002】[0002]

【従来の技術】ロボットの移動や自律的動作を制御する
ためには、ロボットが動作する環境を立体的に把握する
必要がある。かかる立体把握には、左右2つの目の見え
方の違い(視差)から三角測量の原理で奥行きを測る
「両眼立体視」と自分が移動することで生じる運動視差
から立体感をつかむ「運動立体視」がある。我々は2つ
の目で立体視を行っていることから、両眼立体視の開発
が古くから試みられてきた。しかし、両眼立体視では左
右の目に写った画像の中から対応する部分を抽出する必
要があり、かかる対応点の抽出が難しく、未だ実用にな
っていない。
2. Description of the Related Art In order to control the movement and autonomous operation of a robot, it is necessary to three-dimensionally grasp the environment in which the robot operates. For such stereoscopic grasping, "binocular stereoscopic vision", in which the depth is measured based on the principle of triangulation based on the difference in the appearance (parallax) of the two left and right eyes, and "movement that captures a stereoscopic effect from the motion parallax that occurs when one moves There is "stereoscopic vision". Since we perform stereoscopic vision with two eyes, development of binocular stereoscopic vision has been attempted for a long time. However, in binocular stereoscopic vision, it is necessary to extract corresponding portions from the images captured in the left and right eyes, and it is difficult to extract such corresponding points, which has not yet been put into practical use.

【0003】図57は両眼立体視の原理を説明するもの
で、平面上のA,B2点に物体が置いてあるものとす
る。それぞれの目で判るのは、A,Bの方向だけである
が、左目がAを見る視線と右目がAを見る視線の交点に
よって、Aの奥行きがわかり、Bについても同様にして
その奥行きが知覚される。すなわち、図58に示すよう
に、両眼の間隔をd、左右目の視線が垂直線となす角度
をρL,ρRとすれば、奥行きDは次式 D=d/(tanρL+tanρR) により求まる。
FIG. 57 illustrates the principle of binocular stereoscopic vision, and it is assumed that an object is placed at points A and B on the plane. Only the directions of A and B can be seen by each eye, but the depth of A can be known by the intersection of the line of sight of the left eye looking at A and the line of sight of the right eye looking at A. Is perceived. That is, as shown in FIG. 58, if the distance between both eyes is d and the angles between the lines of sight of the left and right eyes are vertical lines ρ L and ρ R , the depth D is expressed by the following equation: D = d / (tan ρ L + tan ρ R ).

【0004】[0004]

【発明が解決しようとする課題】しかし、視線の交点は
他にもできる。左目がAを見る視線は、右目がBを見る
視線とも交わる。この交点が偽点βであり、同様に、偽
点αが生じ、両眼立体視ではこの偽点を除く必要があ
る。我々の大脳では、形を見る能力(形態視)が発達し
ているため、偽点α、βを簡単に除くことができるが、
これまでの両眼立体視の技術では難しく対応点問題とし
て課題となっている。
However, there may be other points of intersection of the lines of sight. The line of sight of the left eye looking at A intersects with the line of sight of the right eye looking at B. This intersection is a false point β, and similarly, a false point α occurs, and it is necessary to remove this false point in binocular stereoscopic vision. In our cerebrum, the ability to see shapes (morphoscopic vision) has developed, so we can easily remove false points α and β.
It is difficult to use conventional binocular stereoscopic technology, and it is a problem as a corresponding point problem.

【0005】以上から本発明の第1の目的は、複数の図
形の対応点を簡単な手続き及び少ない処理量で正確に決
定でき、両眼立体視の機能を実現できる相関処理方式を
提供することである。本発明の第2の目的は、移動する
物体を時間的に異なる画像から対応付けて追尾したり、
その移動方向、移動速度を計測できる相関処理方式を提
供することである。本発明の第3の目的は、1つの画面
内での同じ模様の程度を調べるテクスチュア解析などに
適用できる相関処理方式を提供することである。本発明
の第4の目的は、三原色、あるいは色の三要素毎などの
色相関処理を行うことにより、両眼立体視や移動物体注
視やテクスチュア解析を更に確実にする相関処理方式を
提供することである。
From the above, a first object of the present invention is to provide a correlation processing method capable of accurately determining corresponding points of a plurality of figures with a simple procedure and a small processing amount, and realizing a binocular stereoscopic function. Is. A second object of the present invention is to track a moving object in association with each other from temporally different images,
It is to provide a correlation processing method capable of measuring the moving direction and moving speed. A third object of the present invention is to provide a correlation processing method that can be applied to texture analysis or the like for examining the degree of the same pattern in one screen. A fourth object of the present invention is to provide a correlation processing method that further secures binocular stereoscopic vision, moving object gaze, and texture analysis by performing color correlation processing for each of the three primary colors or three color elements. Is.

【0006】本発明の第5の目的は、複数の図形におけ
る対応する接線(線・隙間、縁)を求めることができ、
しかもその位置や、方位、視差、速度を定量的に求める
ことができる相関処理方式を提供することである。本発
明の第6の目的は、的確なフィルタリングを行うことが
でき、「左右の目で同じに見える特徴の抽出」や「前の
画像と同じ特徴の追跡」等を行う際に適用して好適な相
関処理方式を提供することである。本発明の第7の目的
は、輪郭が不明瞭な物体の両眼立体視や追尾を、明るさ
や色合いのゆるい変化などを手掛かりにして行うことが
できる相関処理方式を提供することである。
A fifth object of the present invention is to obtain corresponding tangent lines (lines / gaps, edges) in a plurality of figures,
Moreover, it is to provide a correlation processing method capable of quantitatively obtaining the position, direction, parallax, and speed. The sixth object of the present invention is suitable for performing accurate filtering, and is suitable for performing "extraction of features that look the same between the left and right eyes" and "tracking of features that are the same as the previous image". To provide a simple correlation processing method. A seventh object of the present invention is to provide a correlation processing method capable of performing binocular stereoscopic vision and tracking of an object with an unclear contour by using a gradual change in brightness or hue as a clue.

【0007】[0007]

【課題を解決するための手段】図1は本発明の原理図で
ある。14,24は第1、第2の画像データに対して極
変換処理を施す極変換部、16,26は極変換結果に一
次元フィルタ処理を施す一次元フィルタ、17,27は
フィルタ処理結果(ハイパーコラム像)を記憶するρ−
θの双対プレーン(ハイパーコラムメモリ)、30は各
双対プレーンに写像されたデータ間に相関処理を施す相
関処理部である。
FIG. 1 shows the principle of the present invention. Reference numerals 14 and 24 are polar conversion units that perform polar conversion processing on the first and second image data, 16 and 26 are one-dimensional filters that perform one-dimensional filter processing on the polar conversion results, and 17 and 27 are filter processing results ( Memorize hyper column image)
A dual plane of θ (hyper column memory), 30 is a correlation processing unit for performing a correlation process between the data mapped to each dual plane.

【0008】[0008]

【作用】第1、第2の画像データに対して極変換部1
4,24で極変換処理を施して双対プレーン17,27
に写像し、あるいは、極変換処理結果に対して更に一次
元フィルタ16,26でフィルタ処理を施してそれぞれ
双対プレーン17,27に写像し、相関処理部30は双
対プレーン上における写像データの位置(ρ,θ)及び
相関処理を施す写像データ間の間隔(シフト量)を要素
パラメータとして相関量(相関パラメータ)を求め、特
徴的な相関パラメータ(例えば極大値)を有する点を求
め、該特徴的な相関パラメータを与える要素パラメータ
の値に基づいて各画像の図形的特徴(例えば接線)間の
関係を規定する変数(視差、移動方向、速度等)を計測
する。極変換により、第1、第2の画像に含まれる輪郭
接線(直線の場合は直線そのもの)は点に次元を縮小し
て変換されるため、2次元での接線対応の問題を一次元
での点対応問題に置き換えることができ、この結果、相
関処理により複数図形の対応部分の決定を簡単に、しか
も少ない処理量で正確に行うことができ、両眼立体視の
機能を実現できる。
The polar converter 1 for the first and second image data
4 and 24 are used to perform the polar conversion processing and the dual planes 17 and 27
To the dual planes 17 and 27, and the correlation processing unit 30 positions the mapping data on the dual plane ( ρ, θ) and the interval (shift amount) between mapping data to be subjected to correlation processing are used as element parameters to obtain a correlation amount (correlation parameter), and a point having a characteristic correlation parameter (for example, a maximum value) is obtained. Variables (parallax, moving direction, speed, etc.) that define the relationship between the graphic features (for example, tangent lines) of each image are measured based on the values of the element parameters that give different correlation parameters. By the polar transformation, the contour tangent lines (the straight line itself in the case of a straight line) included in the first and second images are transformed into points by reducing the dimension, so that the problem of tangent line correspondence in two dimensions can be solved in one dimension. This can be replaced by a point correspondence problem, and as a result, the corresponding portions of a plurality of figures can be determined easily and accurately with a small amount of processing by the correlation processing, and the binocular stereoscopic function can be realized.

【0009】又、1画面を小領域である受容野に分割し
た時の受容野像に対して極変換処理、フィルタ処理、相
関処理を行うことにより処理量を著しく減少できる。更
に、各受容野像が2又は3つのカメラにより捕捉した異
なる画面に属する場合には、両眼立体視、三眼立体視の
機能を実現でき、各受容野像が時間的に異なる画面に属
する場合には、受容野内に写る特徴(線、コーナ等)の
移動方向や移動速度を計測でき、このため、対象物を視
野の中心に捉えたまま移動することが可能となり、移動
ロボットや無人自走車などへの応用を期待できる。
Further, the processing amount can be remarkably reduced by performing polar conversion processing, filter processing, and correlation processing on the receptive field image when one screen is divided into receptive fields which are small areas. Further, when each receptive field image belongs to a different screen captured by two or three cameras, the functions of binocular stereoscopic vision and trinocular stereoscopic vision can be realized, and each receptive field image belongs to a temporally different screen. In this case, it is possible to measure the moving direction and moving speed of the features (lines, corners, etc.) that appear in the receptive field, which makes it possible to move while keeping the target object in the center of the visual field. It can be expected to be applied to running vehicles.

【0010】又、各受容野像を同じ画面の異なる受容野
の画像とし、あるいは同一受容野像とすることにより、
1つの画面内での同じ模様の程度を調べるテクスチュア
解析などを行うことができる。更に、複数の受容野像間
での相関処理を同一色毎に、あるいは色の差信号毎に、
あるいは色の三要素毎に行うことにより両眼立体視や移
動物体注視やテクスチュア解析を更に確実に行うことが
できる。
Further, by setting each receptive field image as an image of a different receptive field on the same screen, or by using the same receptive field image,
It is possible to perform a texture analysis or the like to check the degree of the same pattern on one screen. Furthermore, correlation processing between a plurality of receptive field images is performed for each same color or for each color difference signal.
Alternatively, binocular stereoscopic vision, moving object gaze, and texture analysis can be more reliably performed by performing the process for each of the three color elements.

【0011】又、極変換後に一次元ガウシャンフィルタ
処理を施すことにより、あるいは極変換処理の前に2次
元ガウシャンフィルタ処理を施すことにより、複数図形
における対応する線あるいは隙間を求めることができ、
また極変換後に一次元グラディエントフィルタ処理と一
次元ガウシャンフィルタ処理を施すことにより、あるい
は極変換処理の前に2次元ガウシャンフィルタ処理を施
し、極変換処理後に一次元グラディエントフィルタ処理
を施すことにより、複数図形における対応する縁を求め
ることができ、更にはこれら図形要素の位置や、方位、
視差、移動方向、移動速度を求めることができる。
Further, by performing the one-dimensional Gaussian filter processing after the pole conversion or by performing the two-dimensional Gaussian filter processing before the pole conversion processing, it is possible to obtain the corresponding lines or gaps in a plurality of figures. ,
Also, by performing one-dimensional gradient filter processing and one-dimensional Gaussian filter processing after polar conversion, or by performing two-dimensional Gaussian filter processing before polar conversion processing and performing one-dimensional gradient filter processing after polar conversion processing. , It is possible to obtain the corresponding edges in a plurality of figures, and further, the positions and orientations of these figure elements,
The parallax, the moving direction, and the moving speed can be obtained.

【0012】更に、複数の受容野像が空間的に異なる画
面に属する場合、θ軸方向の相関パラメータC(ρ,
θ,σ)を演算することにより、あるいは、(ρ,θ)
プレーンの相関パラメータC(ρ,θ,σ1,σ2)を演
算することにより方位を変えながら移動する接線の抽出
が可能となる。又、複数の受容野像が時間的に異なる画
面に属する場合、ρ軸方向の相関パラメータC(ρ,
θ,τ)を演算することにより、平行移動する接線の位
置、方位、速度を定量的に求めることができ、また、θ
軸方向の相関パラメータC(ρ,θ,τ)を演算するこ
とにより、受容野中心を通る接線の位置、方位、方位回
転速度等を定量的に求めることができ、更に、(ρ,
θ)プレーンの相関パラメータC(ρ,θ,τ1,τ2
を演算することにより、方向を変えながら移動する接線
の位置、方位、移動速度、回転速度等を定量的に計測で
きる。
Further, when a plurality of receptive field images belong to spatially different screens, the correlation parameter C (ρ, ρ,
θ, σ), or (ρ, θ)
By calculating the correlation parameter C (ρ, θ, σ 1 , σ 2 ) of the plane, it is possible to extract the tangent line that moves while changing the azimuth. When a plurality of receptive field images belong to different screens in terms of time, the correlation parameter C (ρ, ρ,
By calculating θ, τ), it is possible to quantitatively determine the position, orientation, and velocity of the tangent line that moves in parallel.
By calculating the correlation parameter C (ρ, θ, τ) in the axial direction, the position, azimuth, azimuth rotation speed, etc. of the tangent line passing through the receptive field center can be quantitatively obtained.
θ) plane correlation parameter C (ρ, θ, τ 1 , τ 2 )
By calculating, it is possible to quantitatively measure the position, orientation, moving speed, rotational speed, etc. of the tangent line that moves while changing the direction.

【0013】更に、相関パラメータC(ρ,θ,σ)を
空間的シフト量σを示すσ軸方向に投影し、あるいは接
線位置を示すρ軸方向に投影し、あるいは接線方向を示
すθ軸方向に投影し、あるいはこれら任意の2軸方向に
投影することにより、相関パラメータを記憶するメモリ
容量を1軸分あるいは2軸分減少でき、しかも、投影方
向を選択することにより接線の位置、視差、方位等のう
ち所望の値を得ることができる。又、相関パラメータC
(ρ,θ,τ)を時間的シフト量τを示すτ軸方向に投
影し、あるいは接線位置を示すρ軸方向に投影し、ある
いは接線方向を示すθ軸方向に投影し、あるいはこれら
任意の2軸方向に投影することにより、相関パラメータ
を記憶するメモリ容量を1軸分あるいは2軸分減少で
き、しかも、投影方向を選択することにより接線の位
置、方位、平行移動速度、回転速度等のうち所望の値を
得ることができる。
Further, the correlation parameter C (ρ, θ, σ) is projected in the σ axis direction showing the spatial shift amount σ, or in the ρ axis direction showing the tangent position, or in the θ axis direction showing the tangent direction. Or by projecting in any of these two axis directions, the memory capacity for storing the correlation parameter can be reduced by one axis or two axes, and by selecting the projection direction, the tangent position, parallax, It is possible to obtain a desired value in the azimuth and the like. Also, the correlation parameter C
(Ρ, θ, τ) is projected in the τ axis direction showing the temporal shift amount τ, in the ρ axis direction showing the tangent position, or in the θ axis direction showing the tangential direction, or any of these By projecting in the two-axis direction, the memory capacity for storing the correlation parameter can be reduced by one axis or two axes, and by selecting the projection direction, the tangent position, azimuth, parallel movement speed, rotation speed, etc. Of these, the desired value can be obtained.

【0014】更に、受容野像に対して極変換処理を施し
てρ−θの双対プレーンに写像し、該双対プレーンの写
像データa(ρ,θ)と別の双対プレーンに設定されて
いる写像データb(ρ,θ)とのうちρ軸方向に座標値
が所定量ずれている組を取り出し、その積和を演算する
ことにより的確なフィルタリングを行うことができ、
「左右の目で同じに見える特徴の抽出」や「前の画像と
同じ特徴の追跡」等を行う際に適用して好適である。
Further, the receptive field image is subjected to polar conversion processing to be mapped on a dual plane of ρ-θ, and mapping data a (ρ, θ) of the dual plane is set to another dual plane. Accurate filtering can be performed by extracting a set of coordinate values deviated by a predetermined amount in the ρ-axis direction from the data b (ρ, θ) and calculating the sum of the products,
It is suitable to be applied when performing “extraction of features that look the same to the left and right eyes” and “tracking of features that are the same as the previous image”.

【0015】又、双対プレーンの写像データa(ρ,
θ)に対して、他の写像データb(ρ,θ)をρ軸方向
あるいはθ軸方向にシフトさせた後に減算すると共に、
順次、該シフト量を変化させて減算し、得られた減算結
果を相関パラメータとすることにより、輪郭が不明瞭な
物体の両眼立体視や追尾を、明るさや色合いのゆるい変
化などを手掛かりにして行うことができる。
Further, the mapping data a (ρ,
other mapping data b (ρ, θ) with respect to θ) is shifted in the ρ-axis direction or the θ-axis direction and then subtracted,
By sequentially changing the shift amount and subtracting, and using the obtained subtraction result as a correlation parameter, binocular stereoscopic vision and tracking of an object with an unclear contour can be used as a clue to a gentle change in brightness or hue. Can be done by

【0016】[0016]

【実施例】【Example】

(A) 本発明の概略 両眼立体視において従来は、画面内の対応する”図形”
を探索していた。このため、形の処理に弱い現在のコン
ピュータでは安定な対応決定が困難であった。そこで、
最も簡単な特徴、つまり図形の輪郭を構成する”接線”
(輪郭を微小な長さで切断した時の要素、直線の場合に
は直線そのものとなる)により対応決定を行う。この”
接線”法では、両眼に写る接線(直線)を比較すれば良
く、その手続きは簡単で安定な対応決定を行える。尚、
以後の説明では接線、輪郭接線、輪郭線という用語が現
われるが、後述する小領域である受容野内の受容野像を
考察するときは、これら用語は同義語と成る。かかる接
線比較により、扱う図形は簡単になるが、二次元の画面
で対応接線を決定する必要があり、処理に時間がかか
る。ところで、入力画像を極変換して、線の方向θと位
置ρを座標軸とする双対プレーンに写像すると、左右画
像中の”接線”が”点”に次元を縮小して変換される。
従って、二次元での接線対応の問題を一次元で行うこと
ができて、処理量を大幅に削減できる。
(A) Outline of the Invention Conventionally, in binocular stereoscopic vision, the corresponding "graphic" on the screen is used.
Was exploring. Therefore, it is difficult for the current computer, which is weak in shape processing, to make a stable correspondence decision. Therefore,
The simplest feature, the "tangent" that makes up the outline of the figure
Correspondence is determined by (the element when the contour is cut with a minute length, in the case of a straight line, the straight line itself). this"
In the "tangent" method, tangents (straight lines) appearing in both eyes can be compared, and the procedure is simple and stable correspondence can be determined.
In the following description, the terms tangent line, contour tangent line, and contour line appear, but when considering the receptive field image in the receptive field, which is a small region described later, these terms are synonymous. Although such a tangent line comparison simplifies the figure to be handled, it is necessary to determine the corresponding tangent line on the two-dimensional screen, which requires a long processing time. By the way, when the input image is pole-transformed and mapped onto a dual plane having the line direction θ and the position ρ as the coordinate axes, the “tangent” in the left and right images is transformed into “points” with reduced dimensions.
Therefore, the problem of tangential line correspondence in two dimensions can be performed in one dimension, and the amount of processing can be greatly reduced.

【0017】図2は本発明の両眼立体視の原理を説明す
るものである。 1. 空間内の”接線”は左右眼の入力画像IML,IMR
ではSLL,SLRで示すように平行にずれて見える。 2. 一方、入力画像を極変換して得られるハイパーコラ
ム像を写像するρ−θの双対プレーンHCPL,HCPR
では、傾きがθPの”接線”(平行線)はθ=θPのρ軸
上の”点列”に変換される。 3. 従って、左右眼の入力画像IML,IMRで平行にず
れて見えている”接線”SLL,SLRは、双対プレーン
HCPL,HCPRでは同じθPのρ軸上の2点PL,PR
に変換される。 4. その2点間の距離σPを求めると、左右画像IML
IMRでの”接線”SL L,SLRの平行移動量、つまり
視差が決定される。 5. そのσPと両眼の間隔から、”接線”の空間的奥行き
を決定でき、両眼立体視の機能が実現されたことにな
る。 以上から、入力画像を極変換することにより、「二次元
での”接線”の比較」を「ρ軸上の”点”を比較する一
次元処理」に簡略化でき、対応決定を少ない処理量で行
うことができる。
FIG. 2 illustrates the principle of binocular stereoscopic vision according to the present invention.
It is something. 1. The "tangent" in the space is the input image IM of the left and right eyesL, IMR
Then SLL, SLRIt appears to be displaced in parallel as shown by. 2. On the other hand, a hyper-colla obtained by polar transformation of the input image
H-CP dual plane HCPL, HCPR
Then, the inclination is θP"Tangent line" (parallel line) is θ = θPΡ axis
Converted to the above "point sequence". 3. Therefore, the input images IM of the left and right eyesL, IMRNot parallel to
The "tangent" SL that is visibleL, SLRIs a dual plane
HCPL, HCPRThen the same θPTwo points P on the ρ axis ofL, PR
Is converted to. 4. Distance between the two points σPTo find the left and right images IML
IMR"Tangent" SL at L, SLRThe amount of translation of
The parallax is determined. 5. That σPAnd the space between both eyes, the spatial depth of the "tangent"
And the binocular stereoscopic function has been realized.
It From the above, the two-dimensional
"Comparison of" tangents "" in "Comparison of" points "on the ρ axis
Dimension processing "can be simplified, and correspondence determination can be performed with a small amount of processing.
I can.

【0018】以下に”極変換”及び後で必要になる”受
容野”について説明をする。極変換 極変換としては球面上の極変換または円筒上の極変換ま
たは平面上の極変換など任意の曲面上の極変換がある。
図3は球面写像(球面上の極変換)の説明図である。球
面写像は図3(a)に示すように、球面上の任意の点P
を、それを極とする大円(球面上の最大の円で赤道に相
当する)Rに変換する操作である。この球面写像によれ
ば、図3(b)に示すように、線分Lを構成する点P1,P
2,P3・・・について、それらが球面上に投影された点
1′,P2′,P3′・・・を極とする大円R1,R2
3・・・を描いていくと、各大円は常に一点Sで交差
する。この交差点Sが線分Lに1対1に対応した固有の
点になる。そして、線分Lが長い程Lの要素である点の
数は多く、従って大円の数も増え、Sでの大円の重なり
の度合が高くなる。このようにして、線分はそれと対応
する球面上の点として抽出され、又、各点での大円の交
差度のヒストグラムをとると線分の長さも計測できる。
尚、線分Lに対応する点Sの幾何学的意味は、「線分L
の球面上への投影L′を大円とする極である」といえ
る。
The "polar transformation" and the "receptive field" that will be required later will be described below. The polar transformation includes polar transformation on an arbitrary curved surface such as polar transformation on a spherical surface, polar transformation on a cylinder, or polar transformation on a plane.
FIG. 3 is an explanatory diagram of a spherical map (polar conversion on a spherical surface). As shown in Fig. 3 (a), the spherical map is an arbitrary point P on the sphere.
Is an operation to convert R into a great circle having the pole as its pole (the largest circle on the sphere and corresponding to the equator). According to this spherical map, as shown in FIG. 3 (b), the points P 1 and P forming the line segment L are formed.
2 , P 3, ... Great circles R 1 , R 2 , with their points P 1 ′, P 2 ′, P 3 ′ ...
As you draw a R 3 ···, each great circles always intersect at one point S. This intersection S is a unique point corresponding to the line segment L on a one-to-one basis. Then, the longer the line segment L, the greater the number of points that are elements of L, and thus the number of great circles also increases, and the degree of overlap of great circles at S increases. In this way, the line segment is extracted as a point on the spherical surface corresponding to it, and the length of the line segment can also be measured by taking a histogram of the degree of intersection of the great circles at each point.
The geometrical meaning of the point S corresponding to the line segment L is "line segment L
Is a pole whose projection L'is a great circle.

【0019】図4は円筒上の極変換の説明図である。円
筒上の極変換では直線(楕円の交線)と点とが互いに移
り変わる。すなわち、原点Oを通る平面PL上の直線S
を円筒上に投影した楕円ELPは、原点Oにおける平面
PLの法線NLと円筒との交点である極Pに極変換さ
れ、極Pは逆に楕円ELPに極変換される。この円筒を
軸に平行に切り開くと平面に展開できる。この平面上で
は、直線(正弦曲線)と点とが互いに移り変わる。以上
から、カメラから入力された画像の輪郭を抽出して投影
画像メモリに書き込み、輪郭点を極変換部で大円あるい
は正弦曲線に変換して該大円あるいは正弦曲線の情報を
写像メモリに書き込み、同様にして、全輪郭点を極変換
して大円あるいは正弦曲線に変換し、しかる後、写像メ
モリの各セルをスキャンして、カウント値のピーク位置
を求めれば、該ピーク位置が線分の極となり、線分が抽
出できる。尚、写像メモリの各セルは例えばカウンタご
ときもので構成され、書き込まれる毎に記憶内容を増加
するようになっている。
FIG. 4 is an explanatory diagram of the pole conversion on the cylinder. In the polar transformation on a cylinder, a straight line (intersection line of an ellipse) and a point move to each other. That is, the straight line S on the plane PL passing through the origin O
The ellipse ELP obtained by projecting on the cylinder is pole-transformed into a pole P which is an intersection of the normal NL of the plane PL at the origin O and the cylinder, and the pole P is inversely transformed into an ellipse ELP. When this cylinder is cut open parallel to the axis, it can be developed into a plane. On this plane, a straight line (sinusoidal curve) and a point move to each other. From the above, the contour of the image input from the camera is extracted and written in the projection image memory, the contour points are converted into a great circle or a sine curve by the polar conversion unit, and the information of the great circle or the sine curve is written in the mapping memory. Similarly, all contour points are pole-transformed to be transformed into a great circle or a sine curve, and then each cell of the mapping memory is scanned to find the peak position of the count value. It becomes the pole of and the line segment can be extracted. Each cell of the mapping memory is composed of, for example, a counter, and the stored content is increased each time it is written.

【0020】受容野法 ところで、画面全体を極変換して線分を抽出する方法で
は、処理量が増大し、高速化処理ができない。その理由
は、線分を抽出するために入力画像中の各点を極変換、
すなわち、球面上の大円あるいは正弦曲線へと次元を拡
大して写像することにある。入力画像のサイズをN×N
とすれば、極変換で各点を長さNの大円あるいは正弦曲
線に変換するには、入力画像のN倍のN3の処理が必要
となり高速化の障害となる。そこで、入力される画像を
小領域である受容野毎の画像(受容野像)に分割し、各
受容野像に対して極変換を行なうと、処理量が大幅に減
少し、小型のハ−ドウェアでも高速の極変換を行なえ
る。
Receptive field method By the way, in the method of extracting the line segment by polar-transforming the entire screen, the processing amount increases, and the high speed processing cannot be performed. The reason is that each point in the input image is pole-transformed to extract a line segment,
That is, it is to enlarge the dimension and map it to a great circle or a sine curve on a spherical surface. Input image size is N × N
Then, in order to convert each point into a great circle or a sine curve having a length N by the polar conversion, it is necessary to process N 3 times N times the input image, which is an obstacle to speeding up. Therefore, if the input image is divided into images (receptive field images) for each receptive field, which is a small region, and the polar transformation is performed on each receptive field image, the processing amount is greatly reduced and a small size High-speed polar conversion can be performed with software.

【0021】図5は受容野法の原理説明図であり、1は
所定入力プレーンに投影されたN×Nサイズの対象物体
画像(入力画像)IMGを記憶する入力メモリ、2は入
力プレーンをm×mの小領域である受容野に分割した
時、各受容野内の画像(受容野像)を記憶する受容野メ
モリ、3は各受容像に極変換を施す極変換部、4は極変
換された画像(ハイパーコラム像)を写像するρ−θの
双対プレーン(ハイパーコラムメモリ)である。
FIG. 5 is an explanatory view of the principle of the receptive field method. Reference numeral 1 is an input memory for storing an N × N size target object image (input image) IMG projected onto a predetermined input plane, and 2 is an input plane. When divided into receptive fields, which are small areas of × m, a receptive field memory that stores the image (receptive field image) in each receptive field, 3 is a polar transformation unit that performs polar transformation on each receptive image, and 4 is polar transformed. It is a dual plane (hyper column memory) of ρ-θ that maps an image (hyper column image).

【0022】入力メモリ1に記憶されるN×Nサイズの
対象物体画像IMGをm×mの小領域である受容野に分
割し、各受容野像を順に受容野メモリ2に記憶し、極変
換部3で各受容野像に対して極変換を施して出力(ハイ
パーコラム像)を双対プレーン4に写像し、極変換出力
に基づいて線分等の特徴を抽出する。
The N × N size target object image IMG stored in the input memory 1 is divided into receptive fields which are m × m small areas, and each receptive field image is sequentially stored in the receptive field memory 2 and the polar transformation is performed. The unit 3 polarizes each receptive field image to map the output (hyper column image) onto the dual plane 4, and extracts features such as line segments based on the polar conversion output.

【0023】受容野法の具体的な手続きを、最も簡単な
極変換、すなわち、「平面投影入力+円筒上極変換」で
説明すると、次のようになる。すなわち、「入力画像を
m×mに分割した各受容野内の画素を、円筒上極変換
し、得られた曲線(円筒上極変換では正弦波)を双対プ
レーン上に描く」である。以上は、「平面投影入力+円
筒上極変換」の場合であるが、「球面投影入力+球面上
極変換」の場合には、上記において正弦曲線を大円に変
更すればよい。主なフローを以下に示す。 (a) 球面上に投影された画像を小領域(受容野)に分割 (b) 受容野内の各画素を球面上で極変換する(画素に対
応する大円を描く) (c) 受容野全体は球面上の帯に極変換されるが、受容野
は一般的に小さいので、この帯を平面に展開する。これ
が、各受容野に対応する双対プレーン(ハイパーコラム
プレーン)である。(b)の極変換は、「画素→正弦波」に
近似され、受容野とハイパーコラムとの変換は、「受容
野の各画素を、双対プレーン上の対応する正弦曲線に変
換する」となる。双対プレーンにおける各軸は受容野内
における線の位置ρと方向θを示すもので、画像プレー
ン(受容野)内の線分は正弦波の交点に濃縮され、交点
座標ρ0、θ0が受容野内における線分の位置と方向を示
すことになる。
The specific procedure of the receptive field method will be described below with reference to the simplest pole transformation, that is, "plane projection input + cylindrical pole transformation". That is, “the pixels in each receptive field obtained by dividing the input image into m × m are cylindrically pole-transformed, and the obtained curve (sinusoidal wave in the cylindrical pole-transformation) is drawn on the dual plane”. The above is the case of “planar projection input + cylindrical polar transformation”, but in the case of “spherical projection input + spherical polar transformation”, the sine curve may be changed to a great circle in the above. The main flow is shown below. (a) Divide the image projected on the sphere into small areas (receptive field) (b) Pole transform each pixel in the receptive field on the sphere (draw a great circle corresponding to the pixel) (c) Receptive field overall Is transformed into a band on the sphere, but the receptive field is generally small, so this band is expanded to a plane. This is a dual plane (hyper column plane) corresponding to each receptive field. The polar transformation of (b) is approximated to "pixel → sine wave", and the transformation between the receptive field and the hypercolumn is "convert each pixel in the receptive field into the corresponding sine curve on the dual plane". . Each axis in the dual plane indicates the position ρ of the line in the receptive field and the direction θ, and the line segments in the image plane (receptive field) are concentrated at the intersections of the sine waves, and the intersection coordinates ρ 0 , θ 0 are in the receptive field. Indicates the position and direction of the line segment at.

【0024】図6に従って詳細に説明すると、受容野R
C内の点Pは、極変換により次元を増やして大円(直
線)Rに写像される。これを繰り返すと受容野全体は球
面上の帯BLTに写像される(図6(a))。この帯を切り
開いて平面に展開すると(図6(b))、線の方向θと線の
位置ρを座標軸とする長方形格子となる。この極変換で
受容野内の各画素は、双対プレーンの複数の格子点(正
弦波状)に多価写像される。これを繰り返すと、受容野
内の線分は、それを構成する点列が極変換された”正弦
波群の交点”として抽出される。すなわち、交点Qが受
容野内の線分L(図6(c))を濃縮したものとなり、その
θ軸及びρ軸座標値θ0,ρ0が受容野における線分の方
向と位置を示すことになる。
Explaining in detail with reference to FIG. 6, the receptive field R
The point P in C is mapped to a great circle (straight line) R with an increased dimension by polar transformation. By repeating this, the entire receptive field is mapped to the band BLT on the spherical surface (Fig. 6 (a)). When this band is cut open and developed on a plane (FIG. 6 (b)), a rectangular grid is formed with the line direction θ and the line position ρ as coordinate axes. By this polar transformation, each pixel in the receptive field is multivalued mapped to a plurality of grid points (sinusoidal) on the dual plane. By repeating this, the line segment in the receptive field is extracted as the "intersection point of the sine wave group" in which the point sequence that constitutes it is pole-transformed. That is, the intersection point Q is a concentration of the line segment L (FIG. 6 (c)) in the receptive field, and its θ axis and ρ axis coordinate values θ 0 , ρ 0 indicate the direction and position of the line segment in the receptive field. become.

【0025】受容野法では、このように、m×mの受容
野内の画像について極変換を施すだけでよいため、球面
上の極変換の場合には、受容野内の各画素について長さ
mの大円を描くだけでよく、処理量がm×N2になり、
Nの大円を描く従来例(N3の処理量が必要)に比べて
大幅に減少し、しかもハードウェアの小型化が可能とな
る。尚、極変換の詳細については本願出願人が既に出願
済みの特願平3-327723号(発明の名称:画像処理方法、
出願日:平成3年12月11日)を参照されたい。
In the receptive field method, it is only necessary to perform the polar transformation on the image in the m × m receptive field in this way. Therefore, in the case of the polar transformation on the spherical surface, each pixel in the receptive field has a length m. All you have to do is draw a big circle, and the processing amount becomes m × N 2 ,
Compared with the conventional example that draws a large circle of N (the processing amount of N 3 is required), it is significantly reduced and the hardware can be downsized. For details of the polar conversion, the applicant of the present application has already filed Japanese Patent Application No. 3-327723 (Title of the invention: image processing method,
Filing date: December 11, 1991).

【0026】(B) 本発明の基本構成 以上をまとめると、両眼立体視の基本構成は 入力画像→極変換→一次元相関処理 となる。極変換は前述のように、接線比較を一次元で行
うために、”接線”を”点”に変換する操作であり、一
次元相関処理は、θが同じρ軸上の”点列”から対応す
る”点”を抽出する操作である。極変換された両眼の双
対プレーンにおける写像データをそれぞれL(ρ,
θ)、R(ρ,θ)、写像データ間の間隔(シフト量)
をσとして次式 C(ρ,θ,σ)=L(ρ,θ)・R(ρ+σ,θ) (1) により相関量(相関パラメータという)を演算する。そ
して、相関量C(ρ,θ,σ)が極大となる要素パラメ
ータρ,θ,σの値(ρP,θP,σP)を求めると、こ
の要素パラメータの値に基づいて、対応する接線が決定
され、又、その接線の位置、方位、視差が定量的に求め
られる。尚、相関パラメータは(1)式の非対称型相関演
算の他、次式の対称型相関演算により算出することもで
きる。 C(ρ,θ,σ)=L(ρ−σ,θ)・R(ρ+σ,θ) (1)′ 但し、以後では(1)式の非対称型相関演算により相関パ
ラメータを演算するものとして説明する。又、以後で
は、相関量、相関パラメータ、相関結果という用語が混
在して使われるが同義語である。
(B) Basic Configuration of the Present Invention In summary, the basic configuration of binocular stereoscopic vision is input image → polar conversion → one-dimensional correlation processing. As described above, the polar transformation is an operation that transforms a "tangent" into a "point" in order to perform tangential comparison in one dimension. One-dimensional correlation processing is performed from a "point sequence" on the ρ axis with the same θ. This is an operation for extracting the corresponding "point". The mapping data on the dual planes of both eyes that have been polar-transformed are respectively denoted by L (ρ,
θ), R (ρ, θ), interval between mapping data (shift amount)
Where σ is σ, the correlation amount (referred to as correlation parameter) is calculated by the following expression C (ρ, θ, σ) = L (ρ, θ) · R (ρ + σ, θ) (1). Then, when the values (ρ P , θ P , σ P ) of the element parameters ρ, θ, σ that maximize the correlation amount C (ρ, θ, σ) are obtained, the corresponding values are obtained based on the values of the element parameters. The tangent line is determined, and the position, orientation, and parallax of the tangent line are quantitatively obtained. The correlation parameter can be calculated by the symmetric correlation calculation of the following formula in addition to the asymmetric correlation calculation of formula (1). C (ρ, θ, σ) = L (ρ−σ, θ) · R (ρ + σ, θ) (1) ′ However, in the following, the correlation parameter is calculated by the asymmetrical correlation calculation of equation (1). As described below. Further, hereinafter, the terms correlation amount, correlation parameter, and correlation result are used in a mixed manner, but they are synonyms.

【0027】(C) 本発明の実施例 図7は入力画像→受容野分割→極変換→一次元相関処理
により2つの画像に含まれる対応する接線の位置、方
位、視差を求める本発明の実施例構成図である。図中、
11,21は左右眼の入力画像IML,IMRを記憶する
入力メモリ、12,22は入力プレーンをm×mの小領
域である受容野に分割した時、順次受容野内の画像(受
容野像)を切り出して出力する受容野切り出し回路、1
3,23は各受容野内の画像(受容野像)を記憶する受
容野メモリ、14,24は各受容野像に極変換を施す極
変換回路、15,25は極変換された双対プレーン(ハ
イパーコラムプレーン)上の画像(ハイパーコラム像)
を記憶する極変換ハイパーコラムメモリである。極変換
ハイパーコラムメモリ15,25はρ方向にρmax,θ方
向にθmax、総計ρmax×θmax個の記憶域(ハイパーコラ
ム細胞)で構成されている。
(C) Embodiment of the present invention FIG. 7 is a diagram showing an embodiment of the present invention for obtaining the position, orientation and parallax of corresponding tangent lines included in two images by input image → receptive field division → polar transformation → one-dimensional correlation processing. It is an example block diagram. In the figure,
Reference numerals 11 and 21 denote input memories for storing input images IM L and IM R for the left and right eyes. Reference numerals 12 and 22 denote images in the receptive field (receptive field) when the input plane is divided into receptive fields which are small areas of m × m. Receptive field clipping circuit for clipping and outputting (image) 1
3, 23 are receptive field memories that store images (receptive field images) in each receptive field, 14 and 24 are polar conversion circuits that perform polar conversion on each receptive field image, and 15 and 25 are dual polar planes (hyper planes). Image on column plane) (Hyper column image)
It is a polar transformation hyper column memory that stores The polar conversion hypercolumn memories 15 and 25 are composed of ρmax in the ρ direction, θmax in the θ direction, and a total of ρmax × θmax storage areas (hypercolumn cells).

【0028】16,26は極変換により得られたハイパ
ーコラム像に一次元フィルタ処理を施す一次元フィルタ
回路、17,27はフィルタ処理を施されたハイパーコ
ラム像を記憶する双対プレーン(ハイパーコラムメモ
リ)、30は相関処理部である。相関処理部30におい
て、31は(1)式に従って一次元相関演算を行う相関演
算部、32は相関値(相関パラメータ)を記憶するρ−
σ−θの次元を有する相関パラメータ記憶部、33は相
関パラメータ記憶部の記憶データをスキャンして極大点
(ρP,θP,σP)を検出するピーク検出部である。
Reference numerals 16 and 26 denote one-dimensional filter circuits for performing one-dimensional filter processing on the hyper-column image obtained by the polar transformation. Reference numerals 17 and 27 denote dual planes (hyper-column memory) for storing the filtered hyper-column image. ) And 30 are correlation processing units. In the correlation processing unit 30, 31 is a correlation calculation unit that performs one-dimensional correlation calculation according to the equation (1), and 32 is a correlation value (correlation parameter) that stores ρ−
A correlation parameter storage unit having a dimension of σ−θ, 33 is a peak detection unit that scans the storage data of the correlation parameter storage unit and detects the maximum points (ρ P , θ P , σ P ).

【0029】極変換回路14,24は、受容野内の各画
素を極変換し、すなわち画素を対応する大円に変換して
極変換ハイパーコラムメモリ15,25に記憶する。
尚、実際には、極変換は「画素→正弦波」に近似され、受
容野の各画素をハイパーコラム上の対応する正弦曲線に
変換して極変換ハイパーコラムメモリ15,25に記憶
する。
The polar conversion circuits 14 and 24 polar-convert each pixel in the receptive field, that is, convert the pixel into a corresponding great circle and store it in the polar-conversion hyper-column memories 15 and 25.
Actually, the polar conversion is approximated to “pixel → sine wave”, and each pixel in the receptive field is converted into a corresponding sine curve on the hyper column and stored in the polar conversion hyper column memories 15 and 25.

【0030】一次元フィルタ回路16,26は尖鋭な線
・縁・隙間抽出を少ない処理量で行うためのものであ
る。輪郭強調や特徴抽出を行うために、通常、画像デー
タに二次元コンボリューションフィルタをかけ、しかる
後、極変換を施している。しかし、かかるコンボリュー
ション法によれば、フィルタサイズをaとすると各入力
点に対してa2の処理が必要となり、フィルタサイズの
増大とともに処理量が増加する。しかし、「二次元コン
ボリューションフィルタ+極変換」は「極変換後にρ方
向に一次元フィルタ処理を行うこと」と等価であるか
ら、図7の実施例では極変換後に一次元フィルタを掛け
ている。このようにすれば、処理量は一次元フィルタの
ため各入力点に対してaと少なく、コンボリューション
法に比べて約2/aに処理量が減少する。
The one-dimensional filter circuits 16 and 26 are for extracting sharp lines, edges and gaps with a small processing amount. In order to perform edge enhancement and feature extraction, image data is usually subjected to a two-dimensional convolution filter and then subjected to polar transformation. However, according to such a convolution method, when the filter size is a, it is necessary to process a 2 for each input point, and the processing amount increases as the filter size increases. However, "two-dimensional convolution filter + pole conversion" is equivalent to "performing one-dimensional filter processing in the ρ direction after pole conversion". Therefore, in the embodiment of FIG. 7, a one-dimensional filter is applied after pole conversion. . By doing so, the processing amount is as small as a for each input point because it is a one-dimensional filter, and the processing amount is reduced to about 2 / a as compared with the convolution method.

【0031】相関演算 相関演算部31は、左眼の双対プレーン17における写
像データL(ρ,θ)と、該写像データL(ρ,θ)か
らρ軸方向にσシフトした右眼の双対プレーン27にお
ける写像データR(ρ+σ,θ)とを乗算して相関パラ
メータ記憶部に記憶し、以後、順次、該シフト量σを0
〜σmaxまで、ρを0〜ρmax(受容野幅)まで、θを0〜
θmax(受容野幅)まで変化させて各乗算結果を相関パラ
メータ記憶部32に記憶する。
Correlation Calculation The correlation calculation unit 31 maps the mapping data L (ρ, θ) on the dual plane 17 of the left eye and the dual plane of the right eye σ shifted from the mapping data L (ρ, θ) in the ρ-axis direction. 27 and the mapping data R (ρ + σ, θ) in 27 are stored in the correlation parameter storage unit, and thereafter, the shift amount σ is sequentially set to 0.
To σmax, ρ to 0 to ρmax (receptive field width), and θ to 0
The multiplication result is changed up to θmax (receptive field width), and each multiplication result is stored in the correlation parameter storage unit 32.

【0032】図8は相関演算処理の流れ図であり、相関
演算に際して0→θ、0→ρ、0→ρとする(ステップ
101〜103)。ついで、(1)式により、相関パラメ
ータを演算して相関パラメータ記憶部32に記憶する
(ステップ104,105)。ついで、σをインクリメン
トすると共に、σ>σmaxかどうかを判断し(ステップ
106、107)、σ≦σmaxであれば、ステップ10
4に戻って以降の処理を繰返す。そして、σ>σmaxと
なれば、ρをインクリメントすると共にρ>ρmaxかど
うかを判断し(ステップ108、109)、ρ≦ρmax
であれば、ステップ103に戻って以降の処理を繰返
す。ρ>ρmaxとなれば、θをインクリメントすると共
にθ>θmaxかどうかを判断し(ステップ110、11
1)、θ≦θmaxであれば、ステップ102に戻って以
降の処理を繰返し、θ>θmaxとなれば、相関演算処理
を終了する。
FIG. 8 is a flow chart of the correlation calculation processing, where 0 → θ, 0 → ρ, and 0 → ρ are set in the correlation calculation (steps 101 to 103). Then, the correlation parameter is calculated by the equation (1) and stored in the correlation parameter storage unit 32.
(Steps 104 and 105). Then, σ is incremented, and it is determined whether σ> σmax (steps 106 and 107). If σ ≦ σmax, step 10
Returning to step 4, the subsequent processing is repeated. When σ> σmax, ρ is incremented and it is determined whether ρ> ρmax (steps 108 and 109), and ρ ≦ ρmax
If so, the process returns to step 103 to repeat the subsequent processing. If ρ> ρmax, θ is incremented and it is determined whether θ> θmax (steps 110 and 11).
1) If θ ≦ θmax, the process returns to step 102 and the subsequent processes are repeated. If θ> θmax, the correlation calculation process ends.

【0033】極変換回路 極変換回路14(極変換回路24も同様)は図9に示す
ように、受容野メモリ13の番地から順次1画素づつ受
容野像(振幅)を読み出し、該番地と振幅値を出力する
読み出し制御部14aと、各画素に対して極変換(画素
番地→正弦波番地への変換)を施す極変換部14bと、
極変換により得られた正弦波番地が示す極変換ハイパー
コラムメモリ15の複数の記憶位置に読み取った振幅を
書き込む書き込み制御部14cを備えている。
Pole conversion circuit The pole conversion circuit 14 (similarly to the pole conversion circuit 24) reads the receptive field image (amplitude) from the address of the receptive field memory 13 one pixel at a time as shown in FIG. A read control unit 14a that outputs a value, a polar conversion unit 14b that performs polar conversion (conversion from pixel address to sine wave address) for each pixel,
A write control unit 14c for writing the read amplitudes into a plurality of storage positions of the polar conversion hyper column memory 15 indicated by the sine wave address obtained by the polar conversion is provided.

【0034】極変換部14bは受容野メモリ13の画素
番地を極変換ハイパーコラムメモリ15の複数の番地に
対応させる番地変換テーブルメモリ14b-1と、受容野メ
モリ13の番地を極変換ハイパーコラムメモリ15の番
地に変換する番地変換回路14b-2を備えている。番地変
換テーブルメモリ14b-1に記憶されている番地変換テ
ーブルは、受容野像における点をハイパーコラムプレー
ン上の正弦波に極変換するためのもので、受容野像の点
に応じた番地を、正弦波を構成する点列の各点が位置す
る極変換ハイパーコラムメモリ上の多数の番地に変換す
るものである。
The pole conversion unit 14b converts the pixel address of the receptive field memory 13 to a plurality of addresses of the polar conversion hyper column memory 15 and the address conversion table memory 14b-1 and the receptive field memory 13 to polar conversion hyper column memory. An address conversion circuit 14b-2 for converting into 15 addresses is provided. The address conversion table stored in the address conversion table memory 14b-1 is for polarizing a point in the receptive field image into a sine wave on the hyper column plane, and an address corresponding to the point in the receptive field image is This is a conversion to a large number of addresses on the polar conversion hyper column memory where each point of the point sequence forming the sine wave is located.

【0035】読み出し制御部14aは、受容野メモリ1
3の第1番地から振幅データを読み取り、該振幅データ
と番地データ(第1番地)を極変換部14bに入力す
る。極変換部14bは受容野メモリの第1番地(画素)
を極変換ハイパーコラムメモリ15の正弦波点列の多数
のアドレスに変換し、該アドレスと振幅を出力する。書
き込み制御部14cは、極変換部14bより入力された
振幅データを同様に入力された極変換ハイパーコラムメ
モリ15の各アドレスの内容(初期値は0)に加算して
該アドレスに書き込む。以後、順次、受容野メモリ14
の全番地に対して上記処理を行えば、受容野像に対する
極変換が終了する。
The read control unit 14a uses the receptive field memory 1
The amplitude data is read from the first address of No. 3, and the amplitude data and the address data (first address) are input to the pole conversion unit 14b. The pole converter 14b is the first address (pixel) of the receptive field memory.
Is converted into a large number of addresses in the sine wave point sequence of the polar conversion hyper column memory 15, and the addresses and amplitudes are output. The write control unit 14c adds the amplitude data input from the pole conversion unit 14b to the contents (initial value is 0) of each address of the pole conversion hyper column memory 15 which is also input and writes the added data to the address. After that, sequentially, receptive field memory 14
If the above process is performed for all the addresses, the polar transformation for the receptive field image ends.

【0036】一次元フィルタ回路 一次元フィルタ回路16(一次元フィルタ回路26も同
様)は図10に示すように、極変換ハイパーコラムメモ
リ15におけるθ一定のρmax個の番地(たとえば斜線
部参照)から振幅を読み出して出力する読み出し制御部
16aと、読み出された各振幅に対して一次元フィルタ
リング処理を施す一次元フィルタ部16bと、一次元フ
ィルタリング処理結果を双対プレーン(ハイパーコラム
メモリ)17の記憶域に書き込む書き込み制御部16c
を備えている。
One-Dimensional Filter Circuit The one-dimensional filter circuit 16 (similarly to the one-dimensional filter circuit 26), as shown in FIG. A read control unit 16a that reads and outputs the amplitude, a one-dimensional filter unit 16b that performs a one-dimensional filtering process on each read amplitude, and a one-dimensional filtering process result stored in a dual plane (hyper column memory) 17. Write control unit 16c for writing in the area
Is equipped with.

【0037】一次元フィルタ部16bは例えばFIR型
デジタルフィルタ構成になっており、一次元フィルタメ
モリ16b-1と積和回路16b-2を有している。一次元フィル
タメモリ16b-1には横軸をρ軸とした一次元フィルタ特
性値(係数)が離散的に記憶されている。すなわち、ρ
方向の−ρmax/2〜ρmax/2のそれぞれの位置に対して一
次元フィルタ特性値を記憶しており、該特性値により一
次元フィルタ部16bを一次元一次微分フィルタ、一次
元二次微分フィルタとすることができる。尚、フィルタ
の幅や値は必要に応じて適当に決定される。積和回路16
b-2は極変換ハイパーコラム15から読み出されたρmax
個の振幅と一次元フィルタメモリ16b-1に記憶されてい
る対応するρmax個の特性値をそれぞれ掛け合わせ、乗
算結果の総和(振幅)を出力すると共に、前記対応関係を
1画素づつずらして同様の積和演算を行って演算結果を
出力する。
The one-dimensional filter section 16b has, for example, a FIR digital filter configuration, and has a one-dimensional filter memory 16b-1 and a product-sum circuit 16b-2. The one-dimensional filter memory 16b-1 discretely stores one-dimensional filter characteristic values (coefficients) with the horizontal axis as the ρ axis. That is, ρ
The one-dimensional filter characteristic value is stored for each position of −ρmax / 2 to ρmax / 2 in the direction, and the one-dimensional filter unit 16b is configured to use the one-dimensional first-order differential filter and the one-dimensional second-order differential filter according to the characteristic value. Can be The width and the value of the filter are appropriately determined as needed. Sum of products circuit 16
b-2 is ρmax read from the polar conversion hypercolumn 15
And the corresponding ρmax characteristic values stored in the one-dimensional filter memory 16b-1 are respectively multiplied, and the sum (amplitude) of the multiplication result is output. The sum of products is calculated and the calculation result is output.

【0038】たとえば、まず、θ=i(初期値は1)とな
る極変換ハイパーコラムメモリ15における全番地(ρ
max個の番地)からρmax個の振幅を読み出す。ついで、
一次元フィルタメモリ16b-1におけるフィルタ特性ρ=
0の位置を、ρmax個の最左端番地A0iに対応付けす
る。しかる後、それぞれ対応する振幅値と特性値の乗算
を行うと共に、乗算結果の総和Σ0iを演算し、該総和を
書き込み制御部16cをしてハイパーコラムメモリ17
の番地A0iに書き込む。
For example, first, all addresses (ρ
ρ max amplitudes are read out from max addresses). Then,
Filter characteristic ρ in one-dimensional filter memory 16b-1
The position of 0 is associated with the ρmax leftmost addresses A 0i . Thereafter, the corresponding amplitude value and characteristic value are multiplied, and the sum Σ 0i of the multiplication results is calculated.
Write at address A 0i .

【0039】以上の処理が終了すると、フィルタ特性値
ρ=0の位置を、左から2番目の番地A1iに対応させ、
それぞれ対応する振幅値と特性値の乗算を行い、その乗
算結果の総和Σ1iを書き込み制御部16cをしてハイパ
ーコラムメモリ17の番地A 1iに書き込む。以後、同様
な処理を行い、フィルタ特性値ρ=0の位置を最右端番
地Amax,iに対応させて上記処理を終了すれば、以後i
+1→iとして上記積和演算を繰り返して一次元フィル
タリング処理を行う。
When the above processing is completed, the filter characteristic value
The position of ρ = 0 is the second address A from the left.1iCorresponding to
Multiply the corresponding amplitude value and characteristic value, and then multiply
Sum of calculation results Σ1iWrite controller 16c
-Address A of column memory 17 1iWrite in. After that, the same
And perform the appropriate processing to set the position of the filter characteristic value ρ = 0 to the rightmost end.
Ground Amax, iIf the above process is completed in response to
One-dimensional fill by repeating the above product-sum operation as + 1 → i
Perform the tarring process.

【0040】シミュレーション結果 図11〜図13は、線を抽出するために図7の一次元フ
ィルタ16,26として一次元ガウシャンフィルタを用
いた場合のシミュレーション結果説明図である。極変換
と一次元ガウシャンフィルタ処理により画像IML,I
R中の”線”は、線の位置ρと線の方位θを座標軸と
する双対プレーン内の”点”に変換される。図11
(a),(b)における円形部CL,CRは左右眼の受容野、円
形内の像は左右眼に写る受容野像であり、プラント内の
情景中四角で囲んだ部分の十字線の図形が写っている。
尚、全てのデータは信号の強さを等高線で示してある。
Simulation Results FIGS. 11 to 13 are explanatory diagrams of simulation results when a one-dimensional Gaussian filter is used as the one-dimensional filters 16 and 26 in FIG. 7 for extracting lines. The image IM L , I is obtained by the polar transformation and the one-dimensional Gaussian filter processing.
The "line" in M R is converted into a "point" in the dual plane having the line position ρ and the line direction θ as coordinate axes. Figure 11
(a), the circular part C L in (b), C R are the left and right eyes receptive field, the image of the circular is receptive field images caught on the right and left eyes, cross-hairs of the portion surrounded by a scene in a square in the plant The figure is shown.
All the data show the signal strength by contour lines.

【0041】図12(a),(b)は前述の「極変換+一次元ガ
ウシャンフィルタ」処理を施したρ−θの双対プレーン
上のハイパーコラム像であり、十字線を構成する2本の
線はそれぞれ900と1800のρ軸上の2点PL1
L2;PR1,PR2に変換されている。尚、それらのピー
クは一次元フィルタリングにより先鋭化され、その副作
用として両側に負のサブピークPL1′,PL2′;
R1′,PR2′を伴っている。このサブピークは、次の
相関処理をシャープにするのに非常に有効である。
FIGS. 12 (a) and 12 (b) are hypercolumn images on the dual plane of ρ-θ, which have been subjected to the above-mentioned “polar transformation + one-dimensional Gaussian filter” processing, and which form two crosshair lines. Are two points P L1 on the ρ axis of 90 0 and 180 0 , respectively.
It has been converted into P L2 ; P R1 and P R2 . Incidentally, those peaks are sharpened by one-dimensional filtering, and as a side effect thereof, negative sub-peaks P L1 ′, P L2 ′ on both sides are obtained.
With P R1 ′ and P R2 ′. This subpeak is very effective in sharpening the next correlation process.

【0042】図13は左右眼の双対プレーンデータか
ら、(1)式の相関量(相関パラメータ)C(ρ,θ,σ)を
求めた結果を、横軸をρ(位置)、縦軸をσ(視差)、
奥行きをθ(方位)とするρ−σ−θプレーンに展開
し、相関値を等高線で示すもので、説明の都合上、一番
上にはθ=900のρ−θプレーン示されている。相関
パラメータC(ρ,θ,σ)がピーク(極大)となる
(ρP,θP,σP)を求めると、左右眼に写った十字線
の対応関係が定量的に求められ、ρP,θP,σPそれぞ
れが線の位置、方位、視差を示すことになる。十字線を
構成する2つの線のうち縦棒(θ=900)が左右の眼
で見える視差を求めてみると、10であり、両眼の間隔
を6cmとして縦棒までの距離を計算すると360cmとな
り、正確に両眼立体視が行われていたことが確認でき
る。
FIG. 13 shows the result of obtaining the correlation amount (correlation parameter) C (ρ, θ, σ) of the equation (1) from the dual plane data of the left and right eyes, with the horizontal axis representing ρ (position) and the vertical axis representing. σ (parallax),
It is developed on a ρ-σ-θ plane having a depth of θ (azimuth) and the correlation values are shown by contour lines. For convenience of explanation, the ρ-θ plane of θ = 90 0 is shown at the top. . When the correlation parameter C (ρ, θ, σ) reaches a peak (maximum) (ρ P , θ P , σ P ), the correspondence between the crosshairs in the left and right eyes is quantitatively obtained, and ρ P , Θ P and σ P respectively indicate the position, direction and parallax of the line. When the two lines constituting the cross line vertical bar (theta = 90 0) is try seeking parallax visible left and right eyes, a 1 0, calculate the distance to the vertical bars the distance between both eyes as a 6cm Then, it becomes 360 cm, and it can be confirmed that the binocular stereoscopic vision was accurately performed.

【0043】評価 以上で説明したように、基本処理(極変換+一次元相関
処理)により以下の効果が得られる。 図形の特徴を接線で比較することによる効果 左右画像から同じ図形を見出すのは、現在の画像処理技
術が”形”の処理に弱いため困難である。そこで、図形
輪郭を構成する接線で対応を求めることにすると、最も
簡単な直線図形となるため、簡単な手続きで対応決定を
行える。
Evaluation As described above, the following effects can be obtained by the basic processing (polar conversion + one-dimensional correlation processing). Effect of tangential comparison of features of figure It is difficult to find the same figure from left and right images because current image processing technology is weak in processing of "shape". Therefore, if the correspondence is determined by the tangent line that constitutes the figure contour, the correspondence is determined by a simple procedure because the simplest straight-line figure is obtained.

【0044】 接線の二次元対応を一次元で処理する効果 左右画像中の接線対応を決定するには、二次元での処理
が必要である。しかし、対応処理の前に極変換処理を行
って双対プレーンに写像すると、平行線群はρ軸上の点
列に変換される極変換の性質により、接線の対応はρ軸
上の一次元相関の問題に還元され、処理量が大幅に軽減
されると共に、対応の安定性も向上する。
Effect of Processing Two-Dimensional Correspondence of Tangent Lines in One Dimension Two-dimensional processing is required to determine the correspondence of tangent lines in the left and right images. However, when the polar transformation process is performed before the correspondence process and mapped onto the dual plane, the parallel line group is transformed into a sequence of points on the ρ-axis. The problem is reduced to a large amount, the processing amount is greatly reduced, and the stability of the response is improved.

【0045】高度フィルタリングによる効果 極変換の後で既に出願済みの高度な一次元フィルタリン
グ処理を施すことができ、この結果、極変換→一次元フ
ィルタ→一次元相関処理の構成とすることにより確実な
対応決定が可能となり、又後述の各種の相関パラメータ
を精密に計測することが可能となる。尚、一次元フィル
タリングの種類と機能としては以下がある。 ・奇関数フィルタリングによる縁の対応決定:画像の最
も重要な特徴であるが従来の二次元コンボリューション
フィルタでは抽出困難な縁(明るさの境界)を抽出で
き、縁の対応決定が可能となる。これは、事前に極変換
を施すことにより、奇関数フィルタが可能になったこと
による。 ・マルチフィルタリングによる安定な対応決定:極変換
したデータに対しては、幅の異なるフィルタを多数同時
に施すことができる(マルチフィルタ)。これにより、
従来の方法では困難な、画像中に混在する”ボケ特徴”
と”細かい特徴”を同時に抽出でき、安定な対応決定が
可能となる。 ・スケルトンフィルタリングによる高速の処理:極変換
したデータに対しては、最も効率的なスケルトンフィル
タを施すことができる。これにより、上記の奇関数フィ
ルタやマルチフィルタを高速で実現できる。なお、奇関
数フィルタ、マルチフィルタ、スケルトンフィルタ等の
詳細については本願出願人が既に出願済みの特願平3-32
7722号(発明の名称:画像処理方法、出願日:平成3年
12月11日)を参照されたい。
Effect of advanced filtering After the polar transformation, the advanced one-dimensional filtering processing already applied for can be performed, and as a result, the polar transformation-> one-dimensional filter-> one-dimensional correlation processing ensures reliable operation. Correspondence can be determined, and various correlation parameters described later can be precisely measured. The types and functions of one-dimensional filtering are as follows. Edge correspondence determination by odd function filtering: Edges (brightness boundaries), which are the most important feature of an image but are difficult to extract with a conventional two-dimensional convolution filter, can be extracted, and edge correspondence determination is possible. This is because the odd function filter has become possible by performing pole transformation in advance.・ Stable correspondence determination by multi-filtering: A large number of filters with different widths can be applied simultaneously to pole-transformed data (multi-filter). This allows
"Blur feature" mixed in the image, which is difficult with the conventional method
And "fine features" can be extracted at the same time, and stable correspondence can be determined. High-speed processing by skeleton filtering: The most efficient skeleton filter can be applied to pole-transformed data. As a result, the odd function filter and the multi-filter can be realized at high speed. The details of the odd function filter, the multi-filter, the skeleton filter, etc. are described in Japanese Patent Application No.
See No. 7722 (Title of Invention: Image Processing Method, Application Date: December 11, 1991).

【0046】(D) 本発明の拡張 以上では判り易さのために、両眼立体視を例に相関フィ
ルタリングの原理と効果を説明してきた。しかし、本質
は画像間で図形の相関の度合を計測して判断することに
あり、両眼での対応だけでなく、移動する物体を時間的
に異なる画像から対応付けて追尾する用途や、1つの画
面内でも同じ模様の程度を調べるテクスチュア解析など
に広く活用できるものである。以下、本発明の相関フィ
ルタリングの拡張を詳しく説明する。
(D) Expansion of the Invention For the sake of clarity, the principle and effect of correlation filtering have been described above by taking binocular stereoscopic vision as an example. However, the essence is to judge by measuring the degree of correlation of figures between images, and not only the correspondence between both eyes but also the use of tracking moving objects by associating them with temporally different images, and It can be widely used for texture analysis to check the degree of the same pattern in one screen. Hereinafter, the extension of the correlation filtering of the present invention will be described in detail.

【0047】(a) 基本フロー 図14は相関フィルタリングの基本フローであり、入力
データA,Bに極変換処理を施し(ステップ51a、5
1b)、該極変換結果に一次元フィルタリング処理を施
して相関双対プレーンに写像し(ステップ52a,52
b)、各双対プレーンに写像されたデータ間に相関処理
を施す(ステップ53)である。尚、入力データは受容
野に分割するのが望ましいが必ずしも受容野分割する必
要はない。また、一次元フィルタ処理は必要に応じて施
せば良く、その種類は先の特願平3-327722号に開示され
ているフィルタを用いることができる。更に、極変換の
代わりに、相反変換や直交補空間などの全てを適用でき
る。又、入力データはカメラからの画像に限定されるこ
となく、例えばカメラ画像を極変換したデータを入力し
ても良く、しかも、入力データは2つに限ることなく、
3つ以上あっても良い。
(A) Basic Flow FIG. 14 is a basic flow of correlation filtering, in which polar conversion processing is performed on the input data A and B (steps 51a, 5).
1b), the one-dimensional filtering process is performed on the polar transformation result, and the result is mapped to the correlation dual plane (steps 52a, 52).
b), Correlation processing is performed on the data mapped on each dual plane (step 53). It is desirable to divide the input data into receptive fields, but it is not always necessary to divide into receptive fields. Further, the one-dimensional filter processing may be performed as necessary, and the type thereof may be the filter disclosed in the above-mentioned Japanese Patent Application No. 3-327722. Further, instead of polar transformation, reciprocal transformation, orthogonal complementary space, etc. can be applied. Further, the input data is not limited to the image from the camera, for example, the data obtained by polar conversion of the camera image may be input, and the input data is not limited to two,
There may be three or more.

【0048】以下では、受容野分割、一次元フィルタ処
理を施すものとして説明する。 (b) 相関の作用画面 作用画面、すなわち基本フローにおける入力データA,
Bには以下の場合があり、それぞれ固有の相関パラメー
タを計測できる。 (b-1) 異なる画像間の相関 空間的に異なる画面間の相関 入力データA,Bが空間的に異なる画面、例えば別のカ
メラで撮像された画面の画像データであり、この入力デ
ータに相関フィルタリングを施す場合であり、空間的に
異なる画面間の特徴相関パラメータを抽出できる。両眼
立体視と三眼立体視が特に有用な例である。
In the following, description will be made assuming that receptive field division and one-dimensional filter processing are performed. (b) Correlation action screen Action screen, that is, input data A in the basic flow,
B has the following cases, and the respective unique correlation parameters can be measured. (b-1) Correlation between different images Correlation between spatially different screens Input data A and B are image data of screens that are spatially different, for example, screens captured by different cameras, and are correlated to this input data. This is a case where filtering is performed, and the feature correlation parameter between the screens spatially different can be extracted. Binocular stereoscopic vision and tricular stereoscopic vision are particularly useful examples.

【0049】図15は空間的に異なる画面間の相関フィ
ルタリングのフロー図であり、(a)は2つのカメラから
入力される画面の場合、(b)は3つのカメラから入力さ
れる画面の場合である。 ・2つのカメラから入力される画面の場合(図15
(a)) カメラが2つの場合、左カメラCML、右カメラCMR
で撮像した1画面分の画像データIML,IMRを受容野
像に分割し(ステップ50a,50b)、各受容野像I
L′,IMR′に極変換処理を施し(ステップ51a、
51b)、該極変換結果に一次元フィルタリング処理を
施して双対プレーンに写像し(ステップ52a,52
b)、各双対プレーンに写像されたデータ間に相関処理
を施す(ステップ53)。前述の両眼立体視がこれに相
当する。
FIG. 15 is a flow chart of correlation filtering between spatially different screens. (A) is a screen input from two cameras, (b) is a screen input from three cameras. Is.・ In the case of a screen input from two cameras (Fig. 15)
(a)) When there are two cameras, the left camera CML and the right camera CMR
The image data IM L , IM R for one screen captured in step S1 is divided into receptive field images (steps 50a and 50b), and each receptive field image I is divided.
A polar conversion process is performed on M L ′ and IM R ′ (step 51a,
51b), performs one-dimensional filtering processing on the polar transformation result and maps it on a dual plane (steps 52a, 52).
b), correlation processing is performed between the data mapped to each dual plane (step 53). The above-mentioned binocular stereoscopic vision corresponds to this.

【0050】 ・3つのカメラから入力される画面の場合(図15
(b)) 両眼立体視では見る角度が2つのため、対応決定を間違
う場合がある。我々でもビックリハウスなどで錯覚する
のは眼が2つのせいである。工学的には3つの眼も可能
であり、もう1つのカメラを増やして、3つの角度から
見ると錯覚は各段に減少する。3つのカメラを三角形の
頂点に配置すると、全ての方向で錯覚を減少できて更に
改良される。カメラが3つの場合、左カメラCML、中
央カメラCMC、右カメラCMRで撮像した1画面分の
画像データIML,IMR,IMCを受容野像に分割し
(ステップ50a〜50c)、各受容野像IML′,I
R′,IMC′に極変換処理を施し(ステップ51a〜
51c)、該極変換結果に一次元フィルタリング処理を
施して双対プレーンに写像し(ステップ52a〜52
c)、各双対プレーンに写像されたデータ間に相関処理
を施す(ステップ53)。
In the case of a screen input from three cameras (see FIG. 15)
(b)) Since there are two viewing angles in binocular stereoscopic vision, the correspondence decision may be incorrect. Even in us, the illusion in surprised houses is due to two eyes. From an engineering point of view, three eyes are possible, and with one more camera, the illusion decreases from three angles. Placing the three cameras at the vertices of the triangle further reduces the illusion in all directions, which is a further improvement. When there are three cameras, the image data IM L , IM R , and IM C for one screen captured by the left camera CML, the central camera CMC, and the right camera CMR are divided into receptive field images (steps 50a to 50c), and each receptive field image is received. Field image IM L ′, I
A polar conversion process is performed on M R ′ and IM C ′ (steps 51a to
51c), performs a one-dimensional filtering process on the polar conversion result and maps it to a dual plane (steps 52a to 52).
c), correlation processing is performed between the data mapped to each dual plane (step 53).

【0051】時間的に異なる画面間の相関 基本フローにおける入力データA,Bが、時間的に異な
る画面、例えばカメラを動かしながら撮像された画面の
画像データであり、この入力データに相関フィルタリン
グを施す場合である。この相関フィルタリングにより、
例えば受容野内に写る特徴(対象物のコーナや輪郭線な
ど)の移動方向や移動速度などを計測できるため、対象
物を視野の中心に捉えたまま移動することが可能とな
り、移動ロボットや無人自走車などへの応用を期待でき
る。大脳の第一次視覚野でも、受容野に写る接線の移動
方向を検出する細胞が存在して、眼球運動の制御部(上
丘や外側膝状体)には信号を送りだして対象物を視野中
心に捉えると共に、高次の視覚野にも並行して信号を送
りだして、視野に写る情景の動きを立体的に計測してい
る。
Correlation Between Time-Different Screens Input data A and B in the basic flow are image data of time-different screens, for example, screens taken while moving the camera, and the input data is subjected to correlation filtering. This is the case. By this correlation filtering,
For example, it is possible to measure the moving direction and moving speed of the features (corner, contour line, etc.) of the object in the receptive field, which makes it possible to move while keeping the object in the center of the field of view. It can be expected to be applied to running vehicles. Even in the primary visual cortex of the cerebrum, there are cells that detect the direction of movement of the tangent line reflected in the receptive field, and signals are sent to the eye movement control section (upper colliculus or lateral geniculate body) to view the object. In addition to capturing it in the center, it also sends signals to the higher visual cortex in parallel to three-dimensionally measure the movement of the scene in the visual field.

【0052】図16は時間的に異なる画面間の相関フィ
ルタリングのフロー図である。左カメラCMで撮像した
1画面分の画像データIMLは遅延せず、一方、右カメ
ラCMRで撮像した1画面分の画像データIMRは遅延
部で遅延し(ステップ49)、遅延しない画像データI
Lと遅延した画像データIMR′をそれぞれ受容野像に
分割し(ステップ50a,50a′)、各受容野像IM
L,IMR′に極変換処理を施し(ステップ51a,51
a′)、該極変換結果に一次元フィルタリング処理を施
して双対プレーンに写像し(ステップ52a,52
a′)、各双対プレーンに写像されたデータ間に相関処
理を施す(ステップ53)。すなわち、入力された画像
データを時間的に遅らせたものと、遅らせないものに分
けて、それらを図14の基本相関フィルタに入力した構
成を有し、時間的な相関パラメータが得られる。従っ
て、遅延部を除いて、前述の両眼立体視のシミュレーシ
ョンと同様に実行できる。
FIG. 16 is a flow chart of correlation filtering between screens which are temporally different. The image data IM L for one screen imaged by the left camera CM is not delayed, while the image data IM R for one screen imaged by the right camera CMR is delayed by the delay unit (step 49) and is not delayed. I
M L and the delayed image data IM R ′ are divided into receptive field images (steps 50a and 50a ′), and each receptive field image IM is divided.
A polar conversion process is performed on L and IM R ′ (steps 51a, 51
a ′), the polar transformation result is subjected to one-dimensional filtering processing and mapped to a dual plane (steps 52a, 52).
a '), correlation processing is performed between the data mapped to each dual plane (step 53). That is, the input image data is divided into one that is delayed in time and one that is not delayed, and these are input to the basic correlation filter of FIG. 14, and a temporal correlation parameter is obtained. Therefore, the simulation can be performed in the same manner as the above-described binocular stereoscopic simulation except for the delay unit.

【0053】時間的及び空間的に異なる画面間の相関 複数台のカメラを動かしながら撮像した画面に相関フィ
ルタリングを施した場合であり、2台のカメラの場合に
は、両眼立体視空間相関フィルタと時間相関フィルタを
複合したものと同等となる。図17はかかる時間的及び
空間的に異なる画面間の相関フィルタリングのフロー図
であり、左カメラCMLで撮像した1画面分の画像デー
タIMLを遅延部で遅延し(ステップ49a)、遅延し
ない画像データIMLと遅延した画像データIML′をそ
れぞれ受容野像に分割し(ステップ50a,50
a′)、各受容野像IML,IML′に極変換処理を施し
(ステップ51a,51a′)、該極変換結果に一次元
フィルタリング処理を施してそれぞれ双対プレーンに写
像する(ステップ52a,52a′)。以上と並行し
て、右カメラCMRで撮像した1画面分の画像データI
Rを遅延部で遅延し(ステップ49b)、遅延しない
画像データIMRと遅延した画像データIMR′をそれぞ
れ受容野像に分割し(ステップ50b,50b′)、各
受容野像IMR,IMR′に極変換処理を施し(ステップ
51b,51b′)、該極変換結果に一次元フィルタリ
ング処理を施してそれぞれ双対プレーンに写像する(ス
テップ52b,52b′)。そして、各双対プレーンに
写像されたデータ間に相関処理を施す(ステップ5
3)。この時間的及び空間的に異なる画面間の相関フィ
ルタリングにより、両眼立体視で視差を抽出しながら対
象物を追跡すると、人間のような複合機能が可能とな
る。このような時間と空間とが融合したフィルタの存在
は、心理学で「Spatiotemporaフィルタ」として知られて
いるが、本項目はそれを工学に寄与するために、始めて
定式化したものである。
Correlation between screens temporally and spatially different Correlation filtering is applied to screens taken while moving a plurality of cameras. In the case of two cameras, binocular stereoscopic spatial correlation filter Is equivalent to a combination of a time correlation filter and FIG. 17 is a flow chart of such correlation filtering between screens that differ temporally and spatially. The image data IM L for one screen captured by the left camera CML is delayed by the delay unit (step 49a), and the image is not delayed. The data IM L and the delayed image data IM L ′ are divided into receptive field images (steps 50a, 50).
a ′), the receptive field images IM L , IM L ′ are subjected to polar conversion processing (steps 51a and 51a ′), and the polar conversion results are subjected to one-dimensional filtering processing to be mapped to dual planes (steps 52a, 52a, 51a, 51a ′). 52a '). In parallel with the above, one screen of image data I captured by the right camera CMR
The delay unit delays M R (step 49b) and divides the non-delayed image data IM R and the delayed image data IM R ′ into receptive field images (steps 50b and 50b ′), and receptive field images IM R , The IM R ′ is subjected to polar conversion processing (steps 51b and 51b ′), and the polar conversion result is subjected to one-dimensional filtering processing to be mapped to dual planes (steps 52b and 52b ′). Then, correlation processing is performed between the data mapped to each dual plane (step 5).
3). By tracking the object while extracting the parallax by binocular stereoscopic vision by the correlation filtering between the screens that are temporally and spatially different, a human-like composite function becomes possible. The existence of such a filter that fuses time and space is known in psychology as a "Spatiotempora filter", but this item was formulated for the first time in order to contribute to engineering.

【0054】(b-2) 同じ画像間の相関 以上では、異なる画面間の相関フィルタリングであった
が、同じ画面内の相関も有効である。 受容野間の相関 図18は同一画面の各受容野間の相関フィルタリングの
フロー図である。カメラCMで捉えられた1画面分の画
像は入力メモリIMMに記憶され、切り出し制御部によ
り受容野A,B,・・,N毎に切り出されて受容野像I
A,IMB,・・IMNとされ(ステップ48)、各受
容野像IMA,IMB,・・IMNに極変換処理を施し
(ステップ51a〜51n)、各極変換結果に一次元フ
ィルタリング処理を施してそれぞれ双対プレーンに写像
し(ステップ52a〜52n)、各双対プレーンに写像
されたデータ間に相関処理を施す(ステップ53)。こ
のような同一画面の異なる受容野間の相関の場合には、
受容野像IMAの画像特徴を受容野像IMB,・・IMN
の特徴と正確に比較することができて、画像内の肌理の
具合などのテクスチュア解析が可能となる。その処理
は、両眼立体視の左右眼を各受容野に変えたものであ
り、前述のシミュレーションと同様に実行できる。
(B-2) Correlation between the same images The correlation filtering between different screens has been described above, but the correlation within the same screen is also effective. Correlation between receptive fields FIG. 18 is a flow chart of correlation filtering between receptive fields on the same screen. An image for one screen captured by the camera CM is stored in the input memory IMM, and is cut out for each of the receptive fields A, B, ...
M A, IM B, ·· IM N and is (step 48), each receptive field image IM A, IM B, ·· IM N pole conversion processing on (step 51A~51n), primary to each pole conversion result The original filtering process is performed to map each to the dual plane (steps 52a to 52n), and the correlation process is performed to the data mapped to each dual plane (step 53). In the case of such a correlation between different receptive fields on the same screen,
Image features receptive field image IM A receptive field image IM B, ·· IM N
Can be compared accurately with the features of the above, and texture analysis such as the texture of the image can be performed. The processing is performed by changing the right and left eyes of binocular stereoscopic vision to respective receptive fields, and can be executed in the same manner as the above-described simulation.

【0055】受容野内の相関 以上では、受容野間の相関を説明したが、同一画面の同
一受容野内の相関も可能である。図19は同一画面の同
一受容野内の相関フィルタリングのフロー図で、ρ軸間
の相関フィルタリングの場合である。受容野像は極変換
を施されてρ−θの双対プレーン(ハイパーコラムメモ
リ)HCMに記憶され、切り出し制御部によりρ軸A,
ρ軸B,・・,ρ軸N毎に切り出され(ステップ4
8′)、各ρ軸A〜Nのハイパーコラム像に極変換処理
を施し(ステップ51a′〜51n′)、各極変換結果
に一次元フィルタリング処理を施してそれぞれ双対プレ
ーンに写像し(ステップ52a′〜52n′)、各双対
プレーンに写像されたデータ間に相関処理を施す(ステ
ップ53)。この相関フィルタでは、受容野内の更に細
かいテクスチュア解析が可能となり、の場合と同じ理
由で両眼立体視のシミュレーションを同様に実行でき
る。尚、ρ軸間の相関を説明したが、θ軸方向の相関も
同様に可能であり、更に(ρ,θ)プレーンでの相関も
二次元的な相関として有効である。
Correlation Within Receptive Field The correlation between receptive fields has been described above, but the correlation within the same receptive field on the same screen is also possible. FIG. 19 is a flow chart of correlation filtering in the same receptive field on the same screen, which is the case of correlation filtering between ρ axes. The receptive field image is pole-transformed and stored in a dual plane (hyper column memory) HCM of ρ−θ, and the clipping control unit controls the ρ axis A,
Each ρ-axis B, ..., P-axis N is cut out (step 4
8 '), polar transformation processing is performed on each hypercolumn image of each ρ-axis A to N (steps 51a' to 51n '), one-dimensional filtering processing is performed on each polar transformation result, and each is mapped to a dual plane (step 52a). '~ 52n'), correlation processing is performed between the data mapped to each dual plane (step 53). This correlation filter enables a more detailed texture analysis in the receptive field, and the binocular stereoscopic simulation can be similarly performed for the same reason as in the case. Although the correlation between the ρ axes has been described, the correlation in the θ axis direction is also possible, and the correlation in the (ρ, θ) plane is also effective as a two-dimensional correlation.

【0056】(b-3) 異なる色画像間の相関 以上では、入力画像の明るさ等の強度信号の相関フィル
タリングを説明してきたが、入力データを色情報にして
図14の相関フィルタリングを行うと、色の微妙な違い
を検知して更に詳細なフィルタリングが可能となる。入
力する色情報としては問題に応じて各種の加工を施した
色情報が可能であるが、基本的な色情報は以下の通りで
ある。 三原色での相関 三原色の相関が最も基本的な色相関であり、図20は異
なる画像間の三原色での色相関フィルタリングのフロー
図である。左カメラCMLで撮像した1画面分の色画像
をそれぞれ赤、青、緑フィルタ(RFL,BFL,GF
L)を通して赤、青、緑画像に分離し、しかる後、それ
ぞれ赤、青、緑の受容野像IMR,IMB,IMGに分割
し(ステップ60a〜60c)、各受容野像IMR,I
B,IMGに極変換処理を施し(ステップ61a〜61
c)、該極変換結果に一次元フィルタリング処理を施し
て双対プレーンに写像する(ステップ62a〜62
c)。同様に、図示しないが右カメラで撮像した1画面
分の色画像をそれぞれ赤、青、緑フィルタを通して赤、
青、緑画像に分離し、しかる後、それぞれ赤、青、緑の
受容野像に分割し、各受容野像に極変換処理を施し、該
極変換結果に一次元フィルタリング処理を施して双対プ
レーンに写像する。そして、赤同士、青同士、緑同士で
各双対プレーンに写像されたデータ間に赤相関処理、青
相関処理、緑相関処理を施す(ステップ63a〜63
c)。この色相関フィルタリングにより、各三原色の相
関パラメータを計測できる。
(B-3) Correlation between different color images In the above, the correlation filtering of the intensity signal such as the brightness of the input image has been described. If the input data is used as the color information and the correlation filtering of FIG. 14 is performed. , It is possible to detect subtle differences in color and perform more detailed filtering. The color information to be input can be color information that has been subjected to various processes depending on the problem, but the basic color information is as follows. Correlation in Three Primary Colors The correlation between the three primary colors is the most basic color correlation, and FIG. 20 is a flow chart of color correlation filtering in the three primary colors between different images. Color images for one screen captured by the left camera CML are respectively filtered with red, blue and green filters (RFL, BFL, GF).
Red through L), separated blue, green image, after which each of red, blue, green receptive field image IM R, IM B, divided into IM G (step 60 a to 60 c), each receptive field image IM R , I
M B, subjected to polar transformation processing IM G (step 61a~61
c), the polar transformation result is subjected to one-dimensional filtering processing and mapped to a dual plane (steps 62a to 62).
c). Similarly, although not shown, one screen of color image captured by the right camera is passed through the red, blue, and green filters to produce red,
It is separated into blue and green images, and then divided into red, blue, and green receptive field images, and each receptive field image is subjected to polar conversion processing, and the polar conversion result is subjected to one-dimensional filtering processing to obtain a dual plane. Map to. Then, the red correlation processing, the blue correlation processing, and the green correlation processing are performed on the data mapped to the dual planes for red, blue, and green (steps 63a to 63).
c). By this color correlation filtering, the correlation parameter of each of the three primary colors can be measured.

【0057】 色の三要素(明度、彩度、色相)での相関 次に基本的な色相関は、物理的な三原色を人間が主観的
に見える量、つまり明るさ(明度)、あざやかさ(彩
度)、色の具合(色相)に変換した後で、相関フィルタ
リングを施す方法である。このフィルタでは、心理学的
に整理された色の相関パラメータを計測できる。図21
は異なる画像間の三要素での色相関フィルタリングのフ
ローである。左カメラCMLで撮像した1画面分の色画
像をそれぞれ赤、青、緑フィルタで赤、青、緑画像に分
離し、しかる後、色変換部で三原色の色情報を明度・彩
度・色相の色の三要素IMV,IMS,IMHに変換し
(ステップ59)、それぞれ明度・彩度・色相の受容野
像IMV′,IMS′,IMH′に分割し(ステップ60
a′〜60c′)、各受容野像IMV′,IMS′,IM
H′に極変換処理を施し(ステップ61a′〜61
c′)、該極変換結果に一次元フィルタリング処理を施
して双対プレーンに写像する(ステップ62a′〜62
c′)。同様に、図示しないが右カメラで撮像した1画
面分の色画像をそれぞれ赤、青、緑フィルタで赤、青、
緑画像に分離し、しかる後、色変換部で三原色の色情報
を明度・彩度・色相の色の三要素に変換し、それぞれ明
度・彩度・色相の受容野像に分割し、各受容野像に極変
換処理を施し、該極変換結果に一次元フィルタリング処
理を施して双対プレーンに写像する。そして、明度同
士、彩度同士、色相同士で各双対プレーンに写像された
データ間に明度相関処理、彩度相関処理、色相相関処理
を施す(ステップ63a′〜63c′)。
Correlation in Three Elements of Color (Lightness, Saturation, Hue) Next, the basic color correlation is an amount by which a human can visually perceive the three primary physical colors, that is, brightness (brightness), vividness ( This is a method of performing correlation filtering after converting into saturation and color condition (hue). This filter can measure psychologically organized color correlation parameters. Figure 21
Is a flow of color correlation filtering with three elements between different images. A color image for one screen captured by the left camera CML is separated into red, blue, and green images by the red, blue, and green filters, respectively, and then the color conversion unit converts the color information of the three primary colors into lightness, saturation, and hue. It is converted into three color elements IM V , IM S , and IM H (step 59) and divided into receptive field images IM V ′, IM S ′, and IM H ′ of lightness, saturation, and hue (step 60).
a ′ to 60c ′), each receptive field image IM V ′, IM S ′, IM
Subjected to polar transformation process in H '(step 61a'~61
c '), the one-dimensional filtering process is applied to the polar conversion result, and the result is mapped to the dual plane (steps 62a'-62).
c '). Similarly, although not shown, a color image for one screen taken by the right camera is red, blue, and green with red, blue, and green filters, respectively.
After separating it into a green image, the color conversion unit converts the color information of the three primary colors into three elements of lightness, saturation, and hue, and divides them into lightness, saturation, and hue receptive field images. A pole transformation process is performed on the field image, and a one-dimensional filtering process is performed on the pole transformation result to map it on a dual plane. Then, the lightness correlation processing, the saturation correlation processing, and the hue correlation processing are performed between the data mapped to the dual planes for the lightness, the saturation, and the hues (steps 63a 'to 63c').

【0058】色の差信号での相関 赤と緑の変わり目など、色の境界部分の相関パラメータ
を正確に計測するには、色の差信号に相関処理を施すの
が有効である。特に、三原色を補色の関係で差信号とす
るのが効果的である。図22は異なる画像間の色の差信
号での色相関フィルタリングのフロー図である。左カメ
ラCMLで撮像した1画面分の色画像をそれぞれ赤、
青、緑フィルタで赤、青、緑画像に分離し、しかる後、
赤と緑、緑と青、青と赤の差信号をそれぞれ演算し(ス
テップ58a〜58c)、各差信号の受容野像I
R-G,IMG-B,IMB-Rに分割し、各受容野像I
R-G,IMG-B,IMB-Rに極変換処理を施し(ステッ
プ61a″〜61c″)、該極変換結果に一次元フィル
タリング処理を施して双対プレーンに写像する(ステッ
プ62a″〜62c″)。同様に、図示しないが右カメ
ラで撮像した1画面分の色画像をそれぞれ赤、青、緑フ
ィルタで赤、青、緑画像に分離し、しかる後、赤と緑、
緑と青、青と赤の差信号をそれぞれ演算し、各差信号の
受容野像に極変換処理を施し、該極変換結果に一次元フ
ィルタリング処理を施して双対プレーンに写像する。そ
して、対応する色の差信号同士で各双対プレーンに写像
されたデータ間に赤−緑相関処理、緑−青相関処理、青
−赤相関処理を施す(ステップ63a″〜63c″)。
尚、差をとる代わりに割算や対数変換後の差も効果的で
ある。又、極変換あるいは一次元フィルタの後で差ある
いは割算をしても良い。以上の色相関では異なる画像間
の色相関を説明したが、色相関法を上記(b-1),(b-2)で
説明した各種相関法と組み合わせることができ、両眼立
体視や移動物体注視やテクスチュア解析などの相関フィ
ルタリングを更に確実なものにできる。
Correlation with Color Difference Signal In order to accurately measure the correlation parameter at the color boundary, such as the transition between red and green, it is effective to perform correlation processing on the color difference signal. In particular, it is effective to use the difference signals of the three primary colors in the relationship of complementary colors. FIG. 22 is a flow chart of color correlation filtering with a color difference signal between different images. Color images for one screen taken with the left camera CML are red,
Separated into red, blue and green images with blue and green filters, and then
The difference signals of red and green, green and blue, and blue and red are calculated (steps 58a to 58c), and the receptive field image I of each difference signal is calculated.
It is divided into M RG , IM GB , and IM BR , and each receptive field image I
The polar conversion process is performed on M RG , IM GB , and IM BR (steps 61a ″ to 61c ″), and the polar conversion result is subjected to one-dimensional filtering process to be mapped on the dual plane (steps 62a ″ to 62c ″). Similarly, although not shown, one screen of color image captured by the right camera is separated into red, blue, and green images by red, blue, and green filters, respectively.
The difference signals of green and blue, and blue and red are respectively calculated, the receptive field image of each difference signal is subjected to polar conversion processing, and the polar conversion result is subjected to one-dimensional filtering processing to be mapped on the dual plane. Then, the red-green correlation processing, the green-blue correlation processing, and the blue-red correlation processing are performed between the data mapped to the dual planes by the difference signals of the corresponding colors (steps 63a "to 63c").
Instead of taking the difference, the difference after division or logarithmic conversion is also effective. Further, the difference or division may be performed after the polar conversion or the one-dimensional filter. Although the color correlation between different images has been described in the above color correlation, the color correlation method can be combined with the various correlation methods described in (b-1) and (b-2) above to enable binocular stereoscopic vision and movement. Correlation filtering such as object gaze and texture analysis can be made more reliable.

【0059】(c) 相関の作用方向 両眼立体視の例(図7参照)では、双対プレーンの方位
θが同じであるρ軸方向のデータを組み合わせて相関を
とったが、ρ軸に限る必要はなく、又、ρ軸内でも以下
の一般化が可能である。 (c-1) ρ軸方向の相関 θが同じρ軸の相関 これは前述の両眼立体視等の場合であるが、この「θが
同じρ軸相関」の意味は図2で説明したように、両画面
内の平行線のずれ量を相関法で正確に計測することにあ
る。図23はθが同一のρ軸相関フィルタリングのフロ
ー図であり、各入力データA,Bを受容野像に分割し
(ステップ50a,50b)、各受容野像に極変換処理
を施し(ステップ51a、51b)、該極変換結果に一
次元フィルタリング処理を施して双対プレーンに写像し
(ステップ52a,52b)、各双対プレーンより
θ0,θ1,・・毎にρ軸方向のデータを選択し(ステッ
プ54a 0,54a1,・・;54b0,54b1,・
・)、同一のθ値のデータ間に相関処理を施す(ステッ
プ530,531,・・)。尚、図23はθ値毎に並列的
に相関演算する場合であるが、1つの相関演算部を設け
て順次各θ値の相関演算を行うこともでき、その場合に
は図15(a)のフロー図と同一になる。
(C) Direction of Correlation In the example of binocular stereoscopic vision (see FIG. 7), the azimuth of the dual plane
Correlation is performed by combining data in the ρ-axis direction where θ is the same.
However, it is not necessary to limit to the ρ axis, and even within the ρ axis
Can be generalized. (c-1) Correlation in the ρ-axis direction Correlation in the same ρ-axis with the same θ This is the case of the above-mentioned binocular stereoscopic vision, etc.
The meaning of "same ρ-axis correlation" is as shown in FIG.
To accurately measure the amount of deviation of parallel lines in the
It Fig. 23 shows the flow of ρ-axis correlation filtering with the same θ.
It is a diagram, and each input data A, B is divided into receptive field images
(Steps 50a, 50b), polar conversion processing for each receptive field image
(Steps 51a and 51b), and
Dimensional filtering is applied to map to dual planes.
(Steps 52a and 52b), from each dual plane
θ0, Θ1, ... Select the data in the ρ-axis direction for each (step
54a 0, 54a1, ...; 54b0, 54b1・ ・ ・
・), Correlation processing is performed between data with the same θ value (step
P530, 531, ...). Note that FIG. 23 is parallel for each θ value.
In the case of performing the correlation calculation on the
It is also possible to perform correlation calculation of each θ value sequentially in that case.
Is the same as the flow chart of FIG.

【0060】θが異なるρ軸の相関 この相関は、方位が異なる接線間の相関パラメータを計
測するフィルタリングである。このフィルタリングは
の平行線の相関だけでなく、方位が変わりながら移動す
る接線の抽出が可能であり、悪路を走行する自動車への
応用を期待できる。図24はかかるθが異なるρ軸相関
フィルタリングのフロー図である。入力データA,Bを
受容野像に分割し(ステップ50a,50b)、各受容
野像に極変換処理を施し(ステップ51a、51b)、
該極変換結果に一次元フィルタリング処理を施して双対
プレーンに写像し(ステップ52a,52b)、各双対
プレーンよりθi,θi+1,・・;θj,θj+1,・・毎に
ρ軸方向のデータを選択し(ステップ54a0,54
1,・・;54b0,54b1,・・)、異なるθ値の
データ間に相関処理を施す(ステップ530′,5
1′,・・)。
Correlation of ρ-axis with different θ This correlation is filtering for measuring a correlation parameter between tangent lines with different directions. This filtering can extract not only the correlation of parallel lines of but also the tangents that move while changing the direction, and can be expected to be applied to automobiles running on rough roads. FIG. 24 is a flow chart of ρ-axis correlation filtering with different θ. The input data A and B are divided into receptive field images (steps 50a and 50b), and polar conversion processing is performed on each receptive field image (steps 51a and 51b).
The polar conversion result is subjected to one-dimensional filtering processing to be mapped to a dual plane (steps 52a and 52b), and θ i , θ i + 1 , ...; θ j , θ j + 1 , ... Data in the ρ-axis direction is selected (steps 54a 0 , 54
a 1, ··; 54b 0, 54b 1, ··), different θ values subjected to correlation processing between data (step 53 0 ', 5
3 1 ', ...).

【0061】(c-1) θ軸方向の相関 ρが同じθ同士の相関パラメータに意味は、図25で説
明すると、ρ=0のθ相関では(図25(a))、受容野の
中心Cを通る接線SLの回転量を抽出できる。又、ρ≠
0のθ軸相関では、受容野中心Cを共用する半径ρの円
CIRに接する接線SLの回転移動量を検出できる。図
26はρが同一のθ軸相関フィルタリングのフロー図で
あり、各入力データA,Bを受容野像に分割し(ステッ
プ50a,50b)、各受容野像に極変換処理を施し
(ステップ51a、51b)、該極変換結果に一次元フ
ィルタリング処理を施して双対プレーンに写像し(ステ
ップ52a,52b)、各双対プレーンよりρ0,ρ1
・・毎にρ軸方向のデータを選択し(ステップ55
0,55a1,・・;55b0,55b1・・)、同一の
ρ値のデータ間に相関処理を施す(ステップ530,5
1・・)。尚、図26はρ値毎に並列的に相関演算す
る場合であるが、1つの相関演算部を設けて順次各ρ値
の相関演算を行うことができる。
(C-1) Correlation in the θ-axis direction The meaning of the correlation parameter between θs having the same ρ is explained with reference to FIG. 25. In the θ correlation with ρ = 0 (FIG. 25 (a)), the center of the receptive field is The rotation amount of the tangent line SL passing through C can be extracted. Also, ρ ≠
With the θ axis correlation of 0, the rotational movement amount of the tangent line SL tangent to the circle CIR having the radius ρ sharing the receptive field center C can be detected. FIG. 26 is a flowchart of the θ-axis correlation filtering with the same ρ. The input data A and B are divided into receptive field images (steps 50a and 50b), and each receptive field image is subjected to polar conversion processing (step 51a). , 51b), performs a one-dimensional filtering process on the polar transformation result and maps it to a dual plane (steps 52a, 52b), and outputs ρ 0 , ρ 1 , from each dual plane.
.. Select data for each ρ axis direction (step 55
a 0, 55a 1, ··; 55b 0, 55b 1 ··), subjected to a correlation processing between the data of the same ρ value (step 53 0, 5
3 1 ...). Although FIG. 26 shows a case where the correlation calculation is performed in parallel for each ρ value, one correlation calculation unit may be provided to sequentially perform the correlation calculation for each ρ value.

【0062】(c-3) (ρ,θ)プレーンでの相関 以上では、ρ軸あるいはθ軸方向の一次元相関を説明し
たが、(ρ,θ)プレーンでの二次元相関も可能であ
る。この相関では、方位を変えながら移動する接線の相
関を正確に行うことが可能となる。図27は(ρ,θ)プ
レーンでの相関フィルタリングのフロー図である。各入
力データA,Bを受容野像に分割し(ステップ50a,
50b)、各受容野像に極変換処理を施し(ステップ5
1a、51b)、該極変換結果に一次元フィルタリング
処理を施して双対プレーンに写像し(ステップ52a,
52b)、各双対プレーンでの二次元相関処理を施す
(ステップ53)。尚、二次元相関量C(ρ,θ,
σ1,σ2)は各双対プレーン上のデータをa(ρ,
θ)、b(ρ,θ)、双対プレーンデータのρ軸方向及
びθ軸方向のシフト量をσ1,σ2として次式 C(ρ,θ,σ1,σ2)=a(ρ,θ)・b(ρ+σ1,θ+σ2) (2) で与えられる。
(C-3) Correlation in (ρ, θ) plane In the above, one-dimensional correlation in the ρ-axis or θ-axis direction is explained, but two-dimensional correlation in the (ρ, θ) plane is also possible. . With this correlation, it is possible to accurately perform the correlation of the tangent line that moves while changing the azimuth. FIG. 27 is a flowchart of correlation filtering on the (ρ, θ) plane. Each input data A, B is divided into receptive field images (step 50a,
50b), and polar conversion processing is applied to each receptive field image (step 5).
1a, 51b), one-dimensional filtering processing is performed on the polar conversion result, and the result is mapped to a dual plane (steps 52a, 52a, 51b).
52b), two-dimensional correlation processing is performed on each dual plane (step 53). The two-dimensional correlation amount C (ρ, θ,
σ 1 , σ 2 ) is the data on each dual plane a (ρ,
θ), b (ρ, θ), and the shift amounts in the ρ-axis direction and the θ-axis direction of the dual plane data are σ 1 and σ 2 , the following equation C (ρ, θ, σ 1 , σ 2 ) = a (ρ, θ) · b (ρ + σ 1 , θ + σ 2 ) (2)

【0063】(d) 相関パラメータ 両眼立体視の例では説明を簡単にするために、(1)式の
相関量(相関パラメータ)で対応接線を求める方法を述
べたが、以下で示すように各種の相関パラメータを定義
でき、それぞれ特徴的な相関処理を行うことができる。 (d-1) 基本相関パラメータ 基本的な相関パラメータは以下で示すように、一般にC
(ρ,θ,σ)などと三次元で表現され、ρ,θ,σの
三次元空間は図28に示すようになる。図中τは時間的
に異なる画面間の相関において導入されるデータ間シフ
ト量(移動速度)で、後述する。相関パラメータC
(ρ,θ,σ)が極大になる三次元空間の点(ρP
θP,σP)を求めると、両眼立体視の対応決定や、移動
する接線の対応決定などが行われ、その極大点を与える
各座標値(要素パラメータの値)からそれぞれ接線の位
置、方位、視差あるいは速度を定量的に計測できる。
尚、(ρ,θ)プレーンの二次元相関では、相関パラメ
ータは四次元空間のパラメータC(ρ,θ,σ1,σ2
となる。
(D) Correlation Parameter In the example of binocular stereoscopic vision, the method of finding the corresponding tangent line by the correlation amount (correlation parameter) of the equation (1) has been described in order to simplify the description. Various correlation parameters can be defined, and characteristic correlation processing can be performed for each. (d-1) Basic correlation parameter The basic correlation parameter is generally C
It is expressed in three dimensions such as (ρ, θ, σ), and the three-dimensional space of ρ, θ, σ is as shown in FIG. In the figure, τ is the shift amount (moving speed) between data that is introduced in the correlation between screens that differ in time, which will be described later. Correlation parameter C
The point in the three-dimensional space where (ρ, θ, σ) is maximum (ρ P ,
θ P , σ P ) is obtained, correspondence determination of binocular stereoscopic vision, correspondence determination of moving tangents, and the like are performed. From each coordinate value (value of element parameter) that gives the maximum point, the position of the tangent, Azimuth, parallax or speed can be measured quantitatively.
In the two-dimensional correlation of the (ρ, θ) plane, the correlation parameter is the parameter C (ρ, θ, σ 1 , σ 2 ) of the four-dimensional space.
Becomes

【0064】空間的相関パラメータ 相関の作用画面が、空間的に異なる画面あるいは受容野
の場合(前述の(b-1)、(b-2)の場合)であり、以下の
相関パラメータの極大点から、対応する接線の視差など
の対応の程度を示す相関量を計測できる。 (1) ρ方向の相関パラメータC(ρ,θ,σ):平行線
群の空間的相関度を示すパラメータである。前述の両眼
立体視の相関パラメータがこの一例であり、C(ρ,
θ,σ)が極大となるρP,θP,σPを求めると、平行
線群の中から対応する接線が決定され、その接線の位
置、方位、視差を定量的に計測できる。尚、相関パラメ
ータは各双対プレーン上のデータをa(ρ,θ),b
(ρ,θ)、ρ軸方向のシフト量をσとすれば次式 C(ρ,θ,σ)=a(ρ,θ)・b(ρ+σ,θ) で与えられる。
Spatial Correlation Parameter When the action screen of the correlation is a spatially different screen or receptive field (cases (b-1) and (b-2) described above), the following maximum points of the correlation parameters From this, it is possible to measure the correlation amount indicating the degree of correspondence such as parallax of the corresponding tangent line. (1) Correlation parameter C (ρ, θ, σ) in the ρ direction: This is a parameter indicating the degree of spatial correlation of the parallel line group. The correlation parameter of the binocular stereoscopic vision described above is an example of this, and
When ρ P , θ P , and σ P at which θ, σ) becomes maximum, the corresponding tangent line is determined from the parallel line group, and the position, orientation, and parallax of the tangent line can be quantitatively measured. As the correlation parameter, the data on each dual plane is a (ρ, θ), b
(Ρ, θ), where σ is the shift amount in the ρ-axis direction, it is given by the following formula C (ρ, θ, σ) = a (ρ, θ) · b (ρ + σ, θ).

【0065】(2) θ方向の相関パラメータCθ(ρ,
θ,σ):受容野の中心を共用する半径ρの円に接する
接線群の空間的相関度を示すパラメータである。ρ=0
のθ相関処理では、Cθ(ρ,θ,σ)が極大となるρ
P,θP,σPから、放射線群の中から対応する接線が決
定され、その接線の位置、方位、方位変化量を定量的に
計測できる。尚、相関パラメータはθ軸方向のシフト量
をσとすれば、次式 C θ(ρ,θ,σ)=a(ρ,θ)・b(ρ,θ+σ) (3) で与えられる。
(2) Correlation parameter in the θ direction Cθ (ρ,
θ, σ): A parameter indicating the degree of spatial correlation of a tangent group tangent to a circle having a radius ρ sharing the center of the receptive field. ρ = 0
In the θ correlation processing of, Cθ (ρ, θ, σ) is the maximum ρ
The corresponding tangent line is determined from the radiation groups from P , θ P , and σ P , and the position, azimuth, and azimuth change amount of the tangent line can be quantitatively measured. The correlation parameter is given by the following equation C θ (ρ, θ, σ) = a (ρ, θ) · b (ρ, θ + σ) (3), where σ is the shift amount in the θ-axis direction.

【0066】(3) (ρ,θ)プレーンの相関パラメータ
C(ρ,θ,σ1,σ2):方向が変化しながら移動する
接線群の空間的相関度を示すパラメータであり、双対プ
レーンでの二次元相関の程度を上記の一次元相関パラメ
ータに比べてより詳しく評価できる。尚、相関パラメー
タは(2)式、すなわち、次式 C(ρ,θ,σ1,σ2)=a(ρ,θ)・b(ρ+σ1
θ+σ2) で与えられる。
(3) Correlation parameters C (ρ, θ, σ 1 , σ 2 ) of the (ρ, θ) plane: parameters showing the spatial correlation of the tangent group moving while the direction changes, and the dual plane The degree of two-dimensional correlation can be evaluated in more detail than the one-dimensional correlation parameter described above. The correlation parameter is expressed by equation (2), that is, the following equation C (ρ, θ, σ 1 , σ 2 ) = a (ρ, θ) · b (ρ + σ 1 ,
given by θ + σ 2 ).

【0067】時間的相関パラメータ 相関の作用画面が、時間的に異なる画面あるいは受容野
の場合((b-1)などの場合)であり、以下の相関パラメ
ータの極大点などから、移動する接線の移動方向や移動
速度などを計測できる。 (1) ρ軸方向の相関パラメータC(ρ,θ,τ):平行
線群の時間的相関度を示すパラメータである。後述する
実施例、すなわち、移動する接線を追尾する場合の相関
パラメータがこの一例であり、C(ρ,θ,τ)が極大
となるρP,θP,τPから、平行移動する接線の位置、
方位、速度を定量的に計測できる。尚、相関パラメータ
はρ軸方向の移動速度をτとすると次式 C(ρ,θ,τ)=a(ρ,θ)・b(ρ+τ,θ) (4) で与えられる。尚、a(ρ,θ)=at(ρ,θ)、b
(ρ+τ,θ)=at+DELT A(ρ+τ,θ)と表現すると
相関パラメータは次式 C(ρ,θ,τ)=at(ρ,θ)・at+DELTA(ρ+τ,θ) (4)′ で与えられる。すなわち、図16のステップ53におい
て(4)′式の相関処理を実行する。ここでDELTAは遅れ時
間を表し、平行移動する接線の速度VはΔρをρ方向の
分解能として V=(τP・Δρ)/DELTA と求められる。これは、生体の大脳視覚野の「Direction
al Selectivity単純細胞」の機能をモデル化したもので
ある。その細胞は、特定の方向に動く刺激に反応するが
反対方向の刺激には応答しない独特の性質を示す。これ
は、上式のτを正あるいは負に制限することで実現で
き、生体の神経は正と負の情報を同時に送れない制約が
反映されたものである。尚、この細胞は正確には、「非
線型応答型」のDirectional Selectivity単純細胞であ
る。ところで、時間的相関パラメータは(4)式の非対称
型相関演算の他、次式の対称型相関演算により算出する
こともできる。 C(ρ,θ,τ)=a(ρ−τ,θ)・b(ρ+τ,θ) (4)″ 但し、以後では(4)式の非対称型相関演算により時間的
相関パラメータを演算するものとして説明する。
Temporal Correlation Parameter When the action screen of the correlation is a screen that is temporally different or a receptive field (in the case of (b-1) etc.), the moving tangent of It can measure the moving direction and moving speed. (1) Correlation parameter C (ρ, θ, τ) in the ρ-axis direction: This is a parameter indicating the degree of temporal correlation of parallel line groups. An example to be described later, that is, a correlation parameter in the case of tracking a moving tangent line, is an example of this, and ρ P , θ P , τ P where C (ρ, θ, τ) has a maximum value, position,
Azimuth and speed can be measured quantitatively. The correlation parameter is given by the following equation C (ρ, θ, τ) = a (ρ, θ) · b (ρ + τ, θ) (4) where τ is the moving speed in the ρ-axis direction. Note that a (ρ, θ) = a t (ρ, θ), b
When expressed as (ρ + τ, θ) = a t + DELT A (ρ + τ, θ), the correlation parameter is expressed by the following equation C (ρ, θ, τ) = a t (ρ, θ) · at + DELTA ( ρ + τ, θ) (4) ′. That is, the correlation processing of the equation (4) 'is executed in step 53 of FIG. Here, DELTA represents a delay time, and the velocity V of the tangential line moving in parallel is calculated as V = (τ P · Δρ) / DELTA with Δρ being the resolution in the ρ direction. This is the "Direction" of the cerebral visual cortex of the living body.
It is a model of the function of "al Selectivity simple cell". The cells exhibit the unique property of responding to stimuli that move in a particular direction but not to stimuli in the opposite direction. This can be realized by limiting τ in the above equation to positive or negative, and reflects the constraint that the nerves of the living body cannot send positive and negative information at the same time. To be precise, this cell is a “non-linear response type” Directional Selectivity simple cell. By the way, the temporal correlation parameter can be calculated not only by the asymmetrical correlation calculation of equation (4) but also by the symmetrical correlation calculation of the following equation. C (ρ, θ, τ) = a (ρ−τ, θ) ・ b (ρ + τ, θ) (4) ″ However, in the following, the temporal correlation parameter is calculated by the asymmetrical correlation calculation of equation (4). It will be explained as what is done.

【0068】θ方向の相関パラメータCθ(ρ,θ,
τ):受容野の中心を共用する半径ρの円に接する接線
群の時間的相関度を示すパラメータである。ρ=0のθ
相関処理では、Cθ(ρ,θ,τ)が極大となるρP
θP,τPから、受容野中心を通る接線の位置、方位、方
位回転速度を定量的に計測できる。尚、相関パラメータ
はθ軸方向の移動速度をτとすると次式 Cθ(ρ,θ,σ)=a(ρ,θ)・b(ρ,θ+τ) (5) で与えられる。尚、a(ρ,θ)=at(ρ,θ)、b
(ρ,θ+τ)=at+DELT A(ρ,θ+τ)と表現すると
相関パラメータは次式 Cθ(ρ,θ,τ)=at(ρ,θ)・at+DELTA(ρ,θ+τ) (5)′ で与えられる。すなわち、図16のステップ53におい
て(5)′式の相関処理を実行する。ここでDELTAは遅れ時
間を表し、回転速度ωは ω=(τP・Δρ)/DELTA と求められる。生体に回転を検出する細胞があり、それ
をモデル化したものである。
Correlation parameter C θ (ρ, θ,
τ): This is a parameter indicating the degree of temporal correlation of a tangent group tangent to a circle having a radius ρ sharing the center of the receptive field. θ with ρ = 0
In the correlation processing, ρ P , where Cθ (ρ, θ, τ) becomes maximum,
From θ P and τ P , it is possible to quantitatively measure the position, orientation, and orientation rotation speed of the tangent line passing through the center of the receptive field. The correlation parameter is given by the following expression Cθ (ρ, θ, σ) = a (ρ, θ) · b (ρ, θ + τ) (5) where τ is the moving speed in the θ-axis direction. Note that a (ρ, θ) = a t (ρ, θ), b
(Ρ, θ + τ) = a t + DELT A (ρ, θ + τ) correlation parameters and expressed by the following equation Cθ (ρ, θ, τ) = a t (ρ, θ) · a t + DELTA ( ρ, θ + τ) (5) ′. That is, the correlation processing of the equation (5) 'is executed in step 53 of FIG. Here, DELTA represents a delay time, and the rotation speed ω is obtained as ω = (τ P · Δρ) / DELTA. There are cells that detect rotation in the living body, which are modeled.

【0069】(3) (ρ,θ)プレーンの相関パラメータ
C(ρ,θ,τ1,τ2):方向が変化しながら移動する
接線群の時間的相関度を示すパラメータである。C
(ρ,θ,τ1,τ2)が極大となるρP,θP,τ1P,τ
2Pから、受容野中心を通る接線の位置、方位、移動速
度、回転速度を一次元相関パラメータに比べて、より詳
しく計測できる。尚、相関パラメータは次式 C(ρ,θ,τ1,τ2)=a(ρ,θ)・b(ρ+τ1,θ+τ2) (6) で与えられる。すなわち、図16のステップ53におい
て(6)式の相関処理を実行する。尚、a(ρ,θ)=at
(ρ,θ)、b(ρ+τ1,θ+τ2)=at+DEL TA(ρ
+τ1,θ+τ2)と表現すると相関パラメータは次式 C(ρ,θ,τ1,τ2)=at(ρ,θ)・at+DELTA(ρ+τ1,θ+τ2) ・・・(6)′ で与えられる。すなわち、図16のステップ53におい
て(6)′式の相関処理を実行する。ここでDELTAは遅れ時
間を表し、平行移動速度Vと回転速度ωは V=(τ1P・Δρ)/DELTA ω=(τ2P・Δρ)/DELTA と求められる。
(3) Correlation parameter C (ρ, θ, τ 1 , τ 2 ) of (ρ, θ) plane: This is a parameter indicating the temporal correlation of a tangent group moving while the direction changes. C
Ρ P , θ P , τ 1P , τ where (ρ, θ, τ 1 , τ 2 ) is maximum
From 2P , the position, orientation, moving speed, and rotation speed of the tangent line passing through the center of the receptive field can be measured in more detail than the one-dimensional correlation parameter. The correlation parameter is given by the following equation C (ρ, θ, τ 1 , τ 2 ) = a (ρ, θ) · b (ρ + τ 1 , θ + τ 2 ) (6). That is, the correlation processing of the equation (6) is executed in step 53 of FIG. In addition, a (ρ, θ) = a t
(Ρ, θ), b (ρ + τ 1 , θ + τ 2 ) = a t + DEL TA
+ Tau 1, the correlation parameter a is expressed as θ + τ 2) by the following equation C (ρ, θ, τ 1 , τ 2) = a t (ρ, θ) · a t + DELTA (ρ + τ 1, θ + τ 2) ··· ( 6) ′. That is, in step 53 of FIG. 16, the correlation processing of the equation (6) ′ is executed. Here, DELTA represents a delay time, and the parallel movement speed V and the rotation speed ω are obtained as V = (τ 1P · Δρ) / DELTA ω = (τ 2P · Δρ) / DELTA.

【0070】(d-2) 基本相関パラメータの投影 以上の基本相関パラメータでは、接線の位置(ρP)、
方位(θP)、視差/速度(σP/τP)の相関パラメー
タを全て決定することができたが、その反面で三次元以
上の大きな相関パラメータ記憶部が必要となる課題があ
る。以下では、相関判定のパラメータ数を必要に応じて
抑えて、相関パラメータ記憶部の容量を削減できる相関
パラメータの定義と特質を以下で説明する。空間的相関
パラメータC(ρ,θ,σ)と時間的相関パラメータC
(ρ,θ,τ)について説明するが、(ρ,θ)プレー
ンの相関パラメータC(ρ,θ,σ1,σ2),C(ρ,
θ,τ1,τ2)の場合にも同様に定義できて、一次元相
関パラメータの場合より詳しい相関計測が可能となる。
(D-2) Projection of Basic Correlation Parameter With the above basic correlation parameters, the position of the tangent (ρ P ),
Although all the correlation parameters of the azimuth (θ P ) and the parallax / velocity (σ P / τ P ) can be determined, on the other hand, there is a problem that a large correlation parameter storage unit having three dimensions or more is required. Hereinafter, the definition and characteristics of the correlation parameter that can reduce the number of parameters for the correlation determination as necessary and reduce the capacity of the correlation parameter storage unit will be described below. Spatial correlation parameter C (ρ, θ, σ) and temporal correlation parameter C
(Ρ, θ, τ) will be described. Correlation parameters C (ρ, θ, σ 1 , σ 2 ) and C (ρ,
The same can be defined for the cases of θ, τ 1 , τ 2 ), and more detailed correlation measurement is possible than with the one-dimensional correlation parameter.

【0071】σあるいはτ方向に投影 対応する接線の位置ρと方位θが重要で、視差σ(移動
速度τ)を直接計測しなくて良い場合には、基本相関パ
ラメータC(ρ,θ,σ)又はC(ρ,θ,τ)をσ又
はτ方向に加算した次式のCPRJ-σ(ρ,θ)またはC
PRJ-τ(ρ,θ)が有効であり、相関パラメータ記憶部
は入力の双対プレーンと同じρ−θの二次元に削減され
る。 CPRJ-σ(ρ,θ)=ΣC(ρ,θ,σ) (但し、σ=0,1,2,・・・σmax) (7) CPRJ-τ(ρ,θ)=ΣC(ρ,θ,τ) (但し、τ=0,1,2,・・・τmax) (8)
When the position ρ and the azimuth θ of the tangent line corresponding to the projection in the σ or τ direction are important and the parallax σ (moving speed τ) does not have to be directly measured, the basic correlation parameter C (ρ, θ, σ ) Or C (ρ, θ, τ) is added in the σ or τ direction as C PRJ- σ (ρ, θ) or C
PRJ- τ (ρ, θ) is effective, and the correlation parameter storage unit is reduced to two dimensions of ρ−θ, which is the same as the input dual plane. C PRJ- σ (ρ, θ) = ΣC (ρ, θ, σ) (where σ = 0, 1, 2, ... σmax) (7) C PRJ- τ (ρ, θ) = ΣC (ρ , Θ, τ) (However, τ = 0,1,2, ・ ・ ・ τmax) (8)

【0072】図29は基本相関パラメータC(ρ,θ,
σ)を投影するフィルタリング処理のフロー図である。
入力データA,Bを受容野像に分割し(ステップ50
a,50b)、各受容野像に極変換処理を施し(ステッ
プ51a、51b)、該極変換結果に一次元フィルタリ
ング処理を施して双対プレーンに写像し(ステップ52
a,52b)、各双対プレーンのデータに(1)′式の相
関処理を施し(ステップ53)、相関処理により得られ
た相関パラメータC(ρ,θ,σ)を(7)式に従って積
算し(ステップ71)、積算結果をρ−θの相関パラメー
タメモリに記憶する(ステップ72)。
FIG. 29 shows the basic correlation parameter C (ρ, θ,
It is a flowchart of the filtering process which projects (σ).
The input data A and B are divided into receptive field images (step 50
a, 50b), polar transformation processing is performed on each receptive field image (steps 51a, 51b), and one-dimensional filtering processing is performed on the polar transformation result to map it to a dual plane (step 52).
a, 52b), the correlation processing of the equation (1) ′ is applied to the data of each dual plane (step 53), and the correlation parameter C (ρ, θ, σ) obtained by the correlation processing is integrated according to the equation (7). (Step 71), the integration result is stored in the correlation parameter memory of ρ-θ (step 72).

【0073】図30は相関パラメータを演算してσ方向
に投影する処理の流れ図である。相関演算に際して0→
θ、0→ρ、0→σとする(ステップ201〜20
3)。ついで、(1)′式により、相関パラメータC
(ρ,θ,σ)を演算し(ステップ204)、該相関パ
ラメータを(7)式に従って積算する(ステップ20
5)。ついで、σをインクリメントすると共に、σ>σ
maxかどうかを判断し(ステップ206、207)、σ
≦σmaxであれば、ステップ204に戻って以降の処理
を繰返す。そして、σ>σmaxとなれば、積算値をρ、
θが示す相関パラメータ記憶部のマトリックス交点に記
憶する(ステップ208)。以後、ρをインクリメント
すると共にρ>ρmaxかどうかを判断し(ステップ20
9、210)、ρ≦ρmaxであれば、ステップ203に
戻って以降の処理を繰返す。ρ>ρmaxとなれば、θを
インクリメントすると共にθ>θmaxかどうかを判断し
(ステップ211,212)、θ≦θmaxであれば、ス
テップ202に戻って以降の処理を繰返し、θ>θmax
となれば、相関演算・投影処理を終了する。
FIG. 30 is a flow chart of the process of calculating the correlation parameter and projecting it in the σ direction. 0 for correlation calculation
θ, 0 → ρ, 0 → σ (steps 201 to 20)
3). Then, using the equation (1) ′, the correlation parameter C
(Ρ, θ, σ) is calculated (step 204), and the correlation parameters are integrated according to the equation (7) (step 20).
5). Then σ is incremented and σ> σ
It is determined whether it is max (steps 206 and 207), and σ
If ≦ σmax, the process returns to step 204 and the subsequent processes are repeated. If σ> σmax, the integrated value is ρ,
It is stored at the matrix intersection of the correlation parameter storage indicated by θ (step 208). Thereafter, ρ is incremented and it is determined whether ρ> ρmax (step 20
9, 210), and ρ ≦ ρmax, the process returns to step 203 and the subsequent processes are repeated. If ρ> ρmax, θ is incremented and it is determined whether θ> θmax (steps 211 and 212).
If so, the correlation calculation / projection process ends.

【0074】ρ方向に投影 対応する接線の方位θと視差σ(又は移動速度τ)が重
要で、位置ρを直接計測しなくても良い場合には、基本
相関パラメータC(ρ,θ,σ)をρ方向に加算した次
式で与えられる相関パラメータCPRJ-ρ(θ,σ)また
はCPRJ-ρ(θ,τ)が有効であり、相関パラメータ記
憶部は入力の双対プレーンと同じ二次元に削減される。 CPRJ-ρ(θ,σ)=ΣC(ρ,θ,σ) (但し、ρ=0,1,2,・・・ρmax) (9) CPRJ-ρ(θ,τ)=ΣC(ρ,θ,τ) (但し、ρ=0,1,2,・・・ρmax) (10) この相関パラメータは、視野内で動く輪郭線を検出する
場合に効果的であり、移動している輪郭接線の方位θと
移動速度τを、線の位置ρに無関係に計測できる。大脳
のハイパーコラムでも同様の働きをする細胞があり、視
野内で直線が平行移動すると強く発火し、止まると信号
を出さなくなるもので、「DirectionalSelectivity複雑
細胞」として知られている。これは、後述する「オプチカ
ル フローの計測」や「ランダムドットからの両眼立体視」
に重要な役割を果たす。
Projection in ρ direction The azimuth θ of the corresponding tangent line and the parallax σ (or moving speed τ) are important, and when the position ρ does not have to be directly measured, the basic correlation parameter C (ρ, θ, σ ) Is added in the ρ direction, the correlation parameter C PRJ− ρ (θ, σ) or C PRJ− ρ (θ, τ) given by the following equation is effective, and the correlation parameter storage unit stores the same two parameters as the input dual plane. Reduced to dimension. C PRJ- ρ (θ, σ) = ΣC (ρ, θ, σ) (where ρ = 0,1,2, ... ρmax) (9) C PRJ- ρ (θ, τ) = ΣC (ρ , Θ, τ) (however, ρ = 0,1,2, ・ ・ ・ ρmax) (10) This correlation parameter is effective when detecting a contour line moving in the visual field, The azimuth θ of the tangent line and the moving speed τ can be measured regardless of the position ρ of the line. Some cells in the cerebral hypercolumn work in the same way. When a straight line moves in parallel in the field of view, it ignites strongly and ceases to give a signal when stopped, and is known as a "Directional Selectivity complex cell". This is described later in "Optical flow measurement" and "Binocular stereoscopic vision from random dots."
Play an important role in.

【0075】θ方向に投影 対応する接線の位置ρと視差σ(又は移動速度τ)が重
要で、方位θを直接計測しなくても良い場合には、基本
相関パラメータC(ρ,θ,σ)をθ方向に加算した次
式で与えられる相関パラメータCPRJ-θ(ρ,σ)また
はCPRJ-θ(ρ,τ)が有効であり、相関パラメータ記
憶部は入力の双対プレーンと同じ二次元に削減される。 CPRJ-θ(ρ,σ)=ΣC(ρ,θ,σ) (但し、θ=0,1,2,・・・θmax) (11) CPRJ-θ(ρ,τ)=ΣC(ρ,θ,τ) (但し、θ=0,1,2,・・・θmax) (12) この相関パラメータは受容野近傍に捕捉しながら、動い
ていく輪郭線を追尾する場合に効果的である。受容野中
心からの輪郭線の距離ρと移動速度τを、線の方位に無
関係に計測できるという特質を有する。これに似た細胞
は蛙などの網膜に存在してハエ等の獲物を追跡するのに
使用されている。
When the position ρ of the corresponding tangent line and the parallax σ (or moving speed τ) are important and the azimuth θ does not have to be directly measured, the basic correlation parameter C (ρ, θ, σ ) In the θ direction, the correlation parameter C PRJ− θ (ρ, σ) or C PRJ− θ (ρ, τ) given by the following equation is effective, and the correlation parameter storage unit stores the same two parameters as the input dual plane. Reduced to dimension. C PRJ- θ (ρ, σ) = ΣC (ρ, θ, σ) (where θ = 0, 1, 2, ... θmax) (11) C PRJ- θ (ρ, τ) = ΣC (ρ , Θ, τ) (however, θ = 0, 1, 2, ... θmax) (12) This correlation parameter is effective for tracking a moving contour line while capturing it in the vicinity of the receptive field. . The characteristic is that the distance ρ of the contour line from the center of the receptive field and the moving speed τ can be measured independently of the direction of the line. Similar cells exist in the retina of frogs and are used to track prey such as flies.

【0076】ρσあるいはρτ方向に投影 対応する接線の方位θが重要で、位置ρと視差σ(移動
速度τ)を直接計測しなくて良い場合には、基本相関パ
ラメータC(ρ,θ,σ)をρσ方向(又はρτ方向)
に加算した次式で与えられる相関パラメータCPRJ-ρσ
(θ)またはC PRJ-ρτ(θ)が有効であり、相関パラ
メータ記憶部は一次元に削減される。 CPRJ-ρσ(θ)=ΣΣC(ρ,θ,σ) (但し、ρ=0,1,2,・・・ρmax、σ=0,1,2,・・・σmax) (13) CPRJ-ρτ(θ)=ΣΣC(ρ,θ,τ) (但し、ρ=0,1,2,・・・ρmax、σ=0,1,2,・・・σmax) (14) この相関パラメータは、受容野内をある方位の輪郭線が
移動したことを検知するのに効果的であり、移動してい
る輪郭線の方位θを、輪郭線の位置や移動速度に無関係
に計測できるという特質を有している。
Projection in the ρσ or ρτ direction The azimuth θ of the corresponding tangent is important, and the position ρ and the parallax σ (movement
When it is not necessary to directly measure the velocity τ), the basic correlation pattern
Parameter C (ρ, θ, σ) in ρσ direction (or ρτ direction)
Correlation parameter C given byPRJ-ρσ
(Θ) or C PRJ-ρτ (θ) is effective and the correlation parameter
The meter storage is reduced to one dimension. CPRJ-ρσ (θ) = ΣΣC (ρ, θ, σ) (where ρ = 0,1,2, ... ρmax, σ = 0,1,2, ... σmax) (13) CPRJ-ρτ (θ) = ΣΣC (ρ, θ, τ) (where ρ = 0,1,2, ... ρmax, σ = 0,1,2, ... σmax) (14) This correlation parameter is The outline of a certain direction in the receptive field
It is effective in detecting that you have moved,
The azimuth θ of the contour line is independent of the position and movement speed of the contour line.
It has the characteristic of being able to measure.

【0077】ρθに投影 対応する輪郭線の視差ρ(移動速度τ)が重要で、位置
ρと方位θを直接計測しなくて良い場合には、基本相関
パラメータC(ρ,θ,σ)をρθ方向に加算した次式
で与えられる相関パラメータCPRJ-ρθ(σ)またはC
PRJ-ρθ(τ)が有効であり、相関パラメータ記憶部は
一次元に削減される。 CPRJ-ρθ(σ)=ΣΣC(ρ,θ,σ) (但し、ρ=0,1,2,・・・ρmax、θ=0,1,2,・・・θmax) (15) CPRJ-ρθ(τ)=ΣΣC(ρ,θ,τ) (但し、ρ=0,1,2,・・・ρmax、θ=0,1,2,・・・θmax) (16) この相関パラメータは、受容野内を移動する輪郭線をそ
の速度と共に検知したい場合に効果的であり、(16)式の
場合には移動している輪郭線速度τを、輪郭線の位置や
方位に無関係に計測できるという特質を有している。
When the parallax ρ (moving speed τ) of the contour line corresponding to the projection on ρθ is important and it is not necessary to directly measure the position ρ and the azimuth θ, the basic correlation parameter C (ρ, θ, σ) is set. Correlation parameter C PRJ- ρθ (σ) or C given by the following equation added in the ρθ direction
PRJ- ρθ (τ) is effective, and the correlation parameter storage unit is reduced to one dimension. C PRJ- ρθ (σ) = ΣΣC (ρ, θ, σ) (where ρ = 0,1,2, ... ρmax, θ = 0,1,2, ... θmax) (15) C PRJ - ρθ (τ) = ΣΣC ( ρ, θ, τ) ( where, ρ = 0,1,2, ··· ρmax, θ = 0,1,2, ··· θmax) (16) this correlation parameter , It is effective when you want to detect the contour line moving in the receptive field together with its velocity. In the case of equation (16), the moving contour line velocity τ can be measured irrespective of the position and direction of the contour line. It has the characteristic of

【0078】θρσあるいはθρτに投影 受容野内に対応した輪郭線が有るか否かだけが重要で、
位置ρ、方位θ、視差σ(移動速度τ)を計測しなくて
良い場合には、基本相関パラメータC(ρ,θ,σ)を
ρθσ方向(又はρθτ方向)に加算した次式で与えら
れる相関パラメータCPRJ-θρσまたはCPRJ-θρτが
効果的であり、相関パラメータ記憶部は1細胞のみの0
次元に削減される。 CPRJ-θρσ=ΣΣΣC(ρ,θ,σ) (但しρ=0,1,2,・・・ρmax、θ=0,1,2,・・・θmax、σ=0,1,2,・・・σmax) (17) CPRJ-θρτ=ΣΣΣC(ρ,θ,τ) (但しρ=0,1,2,・・・ρmax、θ=0,1,2,・・・θmax、σ=0,1,2,・・・σmax) (18) このようなケースは、(18)式を例にとると受容野内を移
動する輪郭線が存在するか否かだけを検知したい場合に
効果的であり、輪郭線の位置や方位や移動速度に無関係
に計測できるという特質を有している。これに似た細胞
は蛙などの下等動物の網膜に共通的に存在して、受容野
の中にハエ等の獲物が入ってきたかを少ない細胞で、か
つ素早く検出するために、極端に細胞数の少ない処理系
を構成している知恵が推察される。工学的にも、使用I
Cの数が非常に限定される惑星探査用の自走車などで、
概略の移動状況を受容野単位で把握する場合に有効であ
る。
Only whether or not there is a contour line corresponding to the projected receptive field in θρσ or θρτ is important.
When it is not necessary to measure the position ρ, the azimuth θ, and the parallax σ (moving speed τ), the basic correlation parameter C (ρ, θ, σ) is added in the ρθσ direction (or ρθτ direction) by the following formula. The correlation parameter C PRJ- θρσ or C PRJ- θρτ is effective, and the correlation parameter storage unit stores 0 for only one cell.
Reduced to dimension. C PRJ- θρσ = ΣΣΣC (ρ, θ, σ) (where ρ = 0,1,2, ... ρmax, θ = 0,1,2, ... θmax, σ = 0,1,2, ...・ ・ Σmax) (17) C PRJ- θρτ = ΣΣΣC (ρ, θ, τ) (However, ρ = 0,1,2, ... ρmax, θ = 0,1,2, ... θmax, σ = 0,1,2, ... σmax) (18) Such a case is effective when it is desired to detect only whether or not there is a contour line that moves within the receptive field, using Equation (18) as an example. Therefore, it has a characteristic that measurement can be performed regardless of the position and direction of the contour line and the moving speed. Cells similar to this exist in common in the retinas of lower animals such as frogs, and are extremely few cells that quickly detect whether prey such as flies has entered the receptive field, The wisdom that makes up the small number of processing systems can be inferred. Engineering, use I
In a self-propelled vehicle for planetary exploration where the number of C is very limited,
This is effective when grasping the rough movement status on a receptive field basis.

【0079】(ρ,τ)あるいは(ρ,σ)プレーン
の斜め方向に投影 以上では、相関パラメータ記憶部の容量削減のために、
基本相関パラメータC(ρ,θ,σ),C(ρ,θ,
τ)などの要素パラメータの方向、つまり輪郭線の位置
ρ、方位θ、視差σ、移動速度τの方向に直接投影し
た。ここでは、上記の各要素パラメータの性質を残した
ままで相関パラメータ記憶部の容量を削減する方法を説
明する。基本相関パラメータC(ρ,θ,σ),C
(ρ,θ,τ)を図28の(ρ,τ)あるいは(ρ,
σ)プレーンの任意の斜めの方向に投影するとρ、τ、
σの性質を残して相関パラメータ記憶部を二次元に削減
できる。この斜め投影を、(ρ,σ)の450方向に投
影した例で説明する。投影方向に直交する軸をξとする
と、450方向に投影された相関パラメータCPRJ-45σ
(θ,ξ)は次式で与えられ、相関パラメータCPRJ-45
σ(θ,ξ)が極大となるθP、ξPを求めると、対応す
る輪郭線の方位θPと「位置ρと視差σを複合したパラ
メータξP」が計測される。 CPRJ-45σ(θ,ξ)=ΣC(ρ+i,θ,σ+i) (但し、i=1,2・・・) (19)
Projecting in the diagonal direction of the (ρ, τ) or (ρ, σ) plane Above, in order to reduce the capacity of the correlation parameter storage unit,
Basic correlation parameters C (ρ, θ, σ), C (ρ, θ,
τ) and other element parameters, that is, the contour line position ρ, azimuth θ, parallax σ, and moving speed τ. Here, a method will be described in which the capacity of the correlation parameter storage unit is reduced while the above-described properties of each element parameter remain. Basic correlation parameters C (ρ, θ, σ), C
(Ρ, θ, τ) is represented by (ρ, τ) or (ρ,
σ) When projected in any diagonal direction of the plane, ρ, τ,
The correlation parameter storage unit can be two-dimensionally reduced while leaving the property of σ. The oblique projection, (ρ, σ) is described in example projected in 45 0 direction. Letting ξ be the axis orthogonal to the projection direction, the correlation parameter C PRJ-45 σ projected in the 45 0 direction.
(Θ, ξ) is given by the following equation, and the correlation parameter C PRJ-45
When θ P and ξ P at which σ (θ, ξ) becomes maximum are obtained, the azimuth θ P of the corresponding contour line and the “parameter ξ P that combines position ρ and parallax σ” are measured. C PRJ-45 σ (θ, ξ) = ΣC (ρ + i, θ, σ + i) (where i = 1, 2 ...) (19)

【0080】(d-3) 自然フィルタのコンボリューション
フィルタC1(ρ,θ) 双対プレーンの出力データをa(ρ,θ)、b(ρ,
θ)とした以下の投影相関パラメータC1(ρ,θ)は
興味深いフィルタを構成する。 C1(ρ,θ)=Σa(ρ+i,θ)・b(i,θ) (但し、i=1,2・・・) (20) 一方、前述の先願特許(特願平3-327722号)で開示した
一次元フィルタコンボリューション演算出力C2(ρ,
θ)は、一次元フィルタ関数をg(ρ)として次式で与
えられている。 C2(ρ,θ)=Σa(ρ+i,θ)・g(i) (但し、i=1,2・・・) (21) 両方の式を比較すると、相関パラメータC1(ρ,θ)
はコンボリューション出力C2(ρ,θ)のフィルタ関
数g(ρ)を、相関データb(i,θ)に変えたものであ
る。このことから、相関パラメータC1(ρ,θ)は人
工のフィルタ関数g(ρ)の代わりに、自然のデータb
(i,θ)とのコンボリューション演算を行った「自然
フィルタリング」結果と考えることができる。
(D-3) Convolution filter C 1 (ρ, θ) of natural filter The output data of the dual plane is a (ρ, θ), b (ρ, θ)
The following projected correlation parameter C 1 (ρ, θ), taken as θ), constitutes an interesting filter. C 1 (ρ, θ) = Σa (ρ + i, θ) · b (i, θ) (where i = 1, 2 ...) (20) On the other hand, the aforementioned prior patent (Japanese Patent Application No. 3-327722) No.) one-dimensional filter convolution operation output C 2 (ρ,
θ) is given by the following equation, where the one-dimensional filter function is g (ρ). C 2 (ρ, θ) = Σa (ρ + i, θ) · g (i) (where i = 1, 2 ...) (21) Comparing both equations, the correlation parameter C 1 (ρ, θ)
Is the filter function g (ρ) of the convolution output C 2 (ρ, θ) changed to the correlation data b (i, θ). From this, the correlation parameter C 1 (ρ, θ) is the natural data b instead of the artificial filter function g (ρ).
It can be considered as a result of "natural filtering" that is obtained by performing a convolution operation with (i, θ).

【0081】両フィルタリングの機能を考えてみると、
フィルタ関数g(ρ)が既知の(21)式の「人工フィルタ
リング」は、微分などの予め作用を規定できる場合に採
用できるが、「左右の眼で同じに見える特徴」を抽出し
たり、「前の画像と同じ特徴」を追跡する場合には、自
然データとのコンボリューション演算が必要であり、か
かる特徴抽出や特徴追跡は不可能である。一方、(20)式
の「自然フィルタリング」は予めフィルタパターンを規
定できない上記の場合にも、的確なフィルタを行うこと
ができる。
Considering both filtering functions,
The "artificial filtering" of the equation (21), in which the filter function g (ρ) is known, can be adopted when the action such as differentiation can be specified in advance, but "features that look the same between the left and right eyes" can be extracted or In the case of tracking "the same feature as the previous image", convolution operation with natural data is required, and such feature extraction and feature tracking are impossible. On the other hand, the “natural filtering” of the equation (20) can perform an accurate filter even in the above case where the filter pattern cannot be defined in advance.

【0082】図31は本発明の自然フィルタの構成図で
あり、81は入力データ(1画面分の画像データ)を受
容野毎に切り出して出力する受容野分割部、82は受容
野像に極変換処理を施す極変換部、83は極変換結果a
(ρ,θ)を記憶するρ−θの双対プレーン(ハイパー
コラムメモリ)、84は本発明に係わる自然フィルタで
あり、自然フィルタデータを受容野毎に切り出して出力
する受容野分割部84aと、受容野像に極変換処理を施
す極変換部84bと、極変換結果b(ρ,θ)を記憶す
るρ−θの双対プレーン84cと、(20)式の演算を行う
乗算部84dと積算部84eを有している。
FIG. 31 is a block diagram of the natural filter of the present invention. Reference numeral 81 is a receptive field dividing section for cutting out input data (image data for one screen) for each receptive field and outputting, and 82 is a receptive field image. A polar conversion unit that performs conversion processing, 83 is a polar conversion result a
A ρ-θ dual plane (hyper column memory) for storing (ρ, θ), 84 is a natural filter according to the present invention, and a receptive field dividing unit 84a that cuts out natural filter data for each receptive field and outputs the data. A polar conversion unit 84b that performs a polar conversion process on the receptive field image, a ρ-θ dual plane 84c that stores the polar conversion result b (ρ, θ), a multiplication unit 84d that performs the operation of the equation (20), and an integration unit. 84e.

【0083】乗算部84dは双対プレーン83,84c
から出力されるデータa(ρ+i,θ)、b(i,θ)
(ρ、θ、iの初期値は0)に対して次の乗算 a(ρ+i,θ)・b(i,θ) を実行して積算部84eに出力すると共に、iをインク
リメントして次のデータa(ρ+i,θ)、b(i,
θ)に対して同様の乗算をi>imax(フィルタ幅であ
り適当に設定する)となるまで実行する。積算部84e
は乗算結果を積算し、i>imaxとなれば積算結果をρ
−θプレーンメモリ(図示せず)に記憶する。以後、全
ての(ρ,θ)について積和演算を実行すれば自然フィ
ルタリング処理が終了する。
The multiplication unit 84d is a dual plane 83, 84c.
Data a (ρ + i, θ), b (i, θ)
(The initial value of ρ, θ, i is 0) The following multiplication a (ρ + i, θ) · b (i, θ) is executed and output to the integrating unit 84e, and i is incremented to the next value. Data a (ρ + i, θ), b (i,
The same multiplication is performed on θ) until i> imax (filter width is set appropriately). Accumulator 84e
Multiply the multiplication results, and if i> imax,
-Θ Plane memory (not shown). After that, if the sum of products operation is executed for all (ρ, θ), the natural filtering process ends.

【0084】両眼立体視への応用 基本相関パラメータC(ρ,θ,σ)により、詳細な輪
郭線の対応を三次元で行えることは前述した通りである
が、この自然フィルタでは、二次元プレーン(ρ,θ)
で輪郭の対応が可能となる。具体的には、前述のC
1(ρ,θ)の極大を求めることにより、両眼で対応す
る輪郭線の位置ρと方位θを、視差σに無関係に決定で
きる。猿の大脳18野にもこれと似た機能の細胞が存在
し、両眼で対応する輪郭線を検知している。
Application to binocular stereoscopic vision As described above, it is possible to perform detailed contour correspondence in three dimensions by the basic correlation parameter C (ρ, θ, σ). Plane (ρ, θ)
The contour can be handled with. Specifically, the above-mentioned C
By obtaining the maximum of 1 (ρ, θ), the position ρ and the azimuth θ of the corresponding contour line for both eyes can be determined regardless of the parallax σ. There are cells with similar functions in the cerebral cortex 18 of the monkey, and the corresponding contour lines are detected by both eyes.

【0085】移動輪郭線の追跡への応用 以上は空間的に異なる受容野間の自然フィルタであった
が、時間的な自然フィルタでも効果的である。時間的な
相関パラメータCtime(ρ,θ)は、時間的に異なる入
力データをat(ρ,θ),at+DELTA(ρ,θ)とし
て、同様に次式 Ctime(ρ,θ)=Σat(ρ+i,θ)・at+DELTA(i,θ) (但し、i=0,1・・・) (22) で与えられる。三次元空間であれば、同時的な基本相関
相関パラメータC(ρ,θ,τ)により、移動する輪郭
線の位置、方位、移動速度を計測できることは前述し
た。しかし、この自然フィルタではCtime(ρ,θ)の
極大を求めることにより、移動する輪郭線の位置ρ、方
位θを、二次元プレーンで移動速度τに無関係に決定で
きるという特質を有する。大脳の視覚野にも同様の細胞
が存在する。
Application to tracking of moving contour line The above is a natural filter between spatially different receptive fields, but a temporal natural filter is also effective. Temporal correlation parameter C time (ρ, θ) is the input data temporally different a t (ρ, θ), a t + DELTA (ρ, θ) as similarly following equation C time (ρ, θ ) = Σa t (ρ + i, θ) · a t + DELTA (i, θ) (where i = 0, 1 ...) (22). As described above, in a three-dimensional space, the position, direction, and moving speed of the moving contour line can be measured by the simultaneous basic correlation correlation parameters C (ρ, θ, τ). However, this natural filter has a characteristic that the position ρ and the direction θ of the moving contour can be determined independently of the moving speed τ on the two-dimensional plane by obtaining the maximum of C time (ρ, θ). Similar cells exist in the visual cortex of the cerebrum.

【0086】(d-4) 差タイプの基本相関 以上では、基本相関パラメータを C(ρ,θ,σ)=a(ρ,θ)・b(ρ+σ,θ) C(ρ,θ,τ)=at(ρ,θ)・at+DELTA(ρ+
τ,θ) のように乗算で構成したが、これを加算としても同様の
効果が得られる。この場合には信号の間に線形性が保証
され、生体では「線形単純細胞」として知られている。更
に、上式の乗算を引き算とすることにより、輪郭の不明
瞭な物体の両眼立体視や追尾を、明るさや色合いの緩い
変化などを手掛かりにして行うことが可能となる。
(D-4) Difference Type Basic Correlation In the above, the basic correlation parameter is C (ρ, θ, σ) = a (ρ, θ) · b (ρ + σ, θ) C (ρ, θ, τ) = A t (ρ, θ) · at + DELTA (ρ +
(τ, θ) is constructed by multiplication, but the same effect can be obtained by adding it. In this case, linearity is guaranteed between the signals, and it is known as "linear simple cell" in the living body. Furthermore, by using the multiplication of the above equation as subtraction, it becomes possible to perform binocular stereoscopic vision and tracking of an object with an unclear contour by using a gradual change in brightness or hue as a clue.

【0087】空間的相関 ρ軸方向相関の場合で説明すると、その基本相関パラメ
ータは C′(ρ,θ,σ)=a(ρ,θ)−b(ρ+σ,θ) (23) で与えられる。この相関では、入力データの等しい所で
C′(ρ,θ,σ)が零になる。この性質により、輪郭
の明瞭でない物体の両眼立体視も可能となる。例えば、
大きな丸い柱を見ると両端を除いて明確な輪郭はない
が、その明るさは入射角との関係で序々に変化してい
る。左右の眼で明るさの等しい所をC′(ρ,θ,σ)
が零になる性質から見出すと両眼対応ができて、円筒の
表面状態を立体視計測できる。
Spatial Correlation In the case of the ρ-axis direction correlation, its basic correlation parameter is given by C '(ρ, θ, σ) = a (ρ, θ) -b (ρ + σ, θ) (23) . In this correlation, C '(ρ, θ, σ) becomes zero at the same place in the input data. This property enables binocular stereoscopic viewing of an object whose contour is not clear. For example,
Looking at a large round pillar, there is no clear contour except at both ends, but its brightness gradually changes in relation to the incident angle. C '(ρ, θ, σ) where the left and right eyes have the same brightness
If we find out from the property of zero, it is possible to correspond to both eyes, and the surface condition of the cylinder can be measured stereoscopically.

【0088】図32は差タイプの相関処理の流れ図であ
り、全体の基本フローは図14の場合と同一であり、異
なる点は相関パラメータの演算を(23)式により行ってい
る点である。相関演算に際して0→θ、0→ρ、0→σ
とする(ステップ301〜303)。ついで、(23)式に
より、相関パラメータを演算して相関パラメータ記憶部
に記憶する(ステップ304,305)。ついで、σをイ
ンクリメントすると共に、σ>σmaxかどうかを判断し
(ステップ306、307)、σ≦σmaxであれば、ス
テップ304に戻って以降の処理を繰返す。そして、σ
>σmaxとなれば、ρをインクリメントすると共にρ>
ρmaxかどうかを判断し(ステップ308、309)、
ρ≦ρmaxであれば、ステップ303に戻って以降の処
理を繰返す。ρ>ρmaxとなれば、θをインクリメント
すると共にθ>θmaxかどうかを判断し(ステップ31
0、311)、θ≦θmaxであれば、ステップ302に
戻って以降の処理を繰返し、θ>θmaxとなれば、相関
演算処理を終了する。
FIG. 32 is a flow chart of the difference type correlation processing. The entire basic flow is the same as that in the case of FIG. 14, and the difference is that the calculation of the correlation parameter is performed by the equation (23). 0 → θ, 0 → ρ, 0 → σ in correlation calculation
(Steps 301 to 303). Then, the correlation parameter is calculated by the equation (23) and stored in the correlation parameter storage unit (steps 304 and 305). Then, σ is incremented, and it is determined whether σ> σmax (steps 306 and 307). If σ ≦ σmax, the process returns to step 304 and the subsequent processing is repeated. And σ
> Σmax, ρ is incremented and ρ>
It is determined whether or not ρmax (steps 308 and 309),
If ρ ≦ ρmax, the process returns to step 303 and the subsequent processes are repeated. If ρ> ρmax, θ is incremented and it is determined whether θ> θmax (step 31
0, 311), and θ ≦ θmax, the process returns to step 302 and the subsequent processes are repeated. When θ> θmax, the correlation calculation process ends.

【0089】時間的相関 ρ方向の場合で説明すると、その基本相関パラメータは
次式 C′(ρ,θ,τ)=a(ρ,θ)−b(ρ+τ,θ) (23) で与えられる。尚、a(ρ,θ)=at(ρ,θ)、b
(ρ+τ,θ)=at+DELT A(ρ+τ,θ)と表現すると
相関パラメータは次式 C′(ρ,θ,τ)=at(ρ,θ)−at+DELTA(ρ+τ,θ) (23)′ で与えられる。この相関でも、入力データの等しい所で
C′(ρ,θ,τ)が零になる。この性質により、輪郭
の明瞭でない物体の追尾も可能となる。の場合と同様
の方法で、明るさの同じになる場所を、C′(ρ,θ,
τ)が零になる性質から検出していくと、円筒の表面や
人間の顔の一部など明瞭な輪郭線を検出できない部分で
も、安定な追尾ができる。この細胞は前述の「Directio
nal Selectivity 単純細胞」に属する「線型応答型細
胞」である。
Temporal correlation Describing in the case of ρ direction, the basic correlation parameter is given by the following equation C '(ρ, θ, τ) = a (ρ, θ) -b (ρ + τ, θ) (23) . Note that a (ρ, θ) = a t (ρ, θ), b
(Ρ + τ, θ) = a t + DELT A (ρ + τ, θ) the correlation parameter a is expressed as the following equation C '(ρ, θ, τ ) = a t (ρ, θ) -a t + DELTA (Ρ + τ, θ) is given by (23) ′. Even in this correlation, C ′ (ρ, θ, τ) becomes zero at the same place in the input data. This property enables tracking of an object whose contour is not clear. In the same way as in the case of, the place where the brightness is the same is C ′ (ρ, θ,
By detecting from the property that τ) becomes zero, stable tracking can be performed even in a part where a clear contour line cannot be detected such as the surface of a cylinder or a part of a human face. This cell is
nal Selectivity “Simple cells” are “linear response cells”.

【0090】(E)具体方式と実施例 (a) 両眼立体視 空間的に異なる作用画面の具体例として、両眼立体視の
方式とシミュレーション例を説明する。接線には線・隙
間・縁の特徴が有り、”線”は明るく光る帯であり、”
縁(エッジ)”は明るい部分と暗い部分の境界線であ
り、”隙間”は線の逆で、暗い細い帯である。(C)項
では”線”の両眼立体視対応を相関フィルタの原理説明
のために示したが、ここでは、線も含めその他の特徴の
両眼立体視を体系的に説明する。先願特許(特願平3-32
7722号)において、線抽出フィルタ、縁抽出フィルタ、
隙間抽出フィルタを開示したが、これらフィルタを用い
ることにより、線・隙間の両眼立体視や縁の両眼立体視
が可能となる。
(E) Concrete Method and Example (a) Binocular Stereoscopic As a concrete example of a spatially different action screen, a binocular stereoscopic method and a simulation example will be described. The tangent has the characteristics of lines, gaps, and edges, and the "line" is a bright band.
The "edge" is a boundary line between a bright portion and a dark portion, and the "gap" is a dark thin band which is the opposite of the line. Although shown for explaining the principle, here, binocular stereoscopic vision of other features including lines will be systematically described.
7722), line extraction filter, edge extraction filter,
Although the gap extraction filters have been disclosed, using these filters enables binocular stereoscopic vision of lines and gaps and binocular stereoscopic vision of edges.

【0091】(a-1) 各種フィルタ構成 線抽出フィルタ 図33は”線”抽出フィルタの構成図であり、(a)は「受
容野法(受容野分割+極変換)+一次元gasフィルタ」構
成の線抽出フィルタ、(b)は「二次元gasフィルタ+受容
野法」構成の線抽出フィルタである。(a)の線抽出フィ
ルタは、受容野分割部で入力画像を受容野毎に分割し、
極変換部で各受容野像毎に極変換を施し、一次元gasフ
ィルタで極変換出力に一次元二次微分フィルタ処理を施
して線分を抽出するものである。(b)の線抽出フィルタ
は、二次元gasフィルタで入力画像に二次元二次微分処
理を施してから、受容野毎に分割し、各受容野像に極変
換を施して線を抽出するものである。
(A-1) Various Filter Configurations Line Extraction Filter FIG. 33 is a configuration diagram of a “line” extraction filter, and (a) is “receptive field method (receptive field division + polar transformation) + one-dimensional gas filter”. The line extraction filter of the configuration, (b) is the line extraction filter of the "two-dimensional gas filter + receptive field method" configuration. The line extraction filter in (a) divides the input image into receptive fields by the receptive field dividing unit,
The polar transformation unit performs polar transformation for each receptive field image, and the one-dimensional gas filter performs one-dimensional second derivative filter processing on the pole transformation output to extract line segments. The line extraction filter in (b) is a two-dimensional gas filter that applies two-dimensional second-order differential processing to the input image, then divides it into receptive fields, and polarizes each receptive field image to extract lines. Is.

【0092】縁抽出フィルタ 図34は各種”縁”抽出フィルタの構成図であり、(a)
は受容野法(受容野分割+極変換)の出力に一次元grフ
ィルタ処理を施して”縁”を抽出する基本フィルタの構
成、(b)は(a)の基本フィルタの後段に更に一次元gasフ
ィルタを接続した縁抽出フィルタの構成、(c)は(a)の基
本フィルタの前段に更に二次元gasフィルタを接続した
縁抽出フィルタの構成である。(a)の縁抽出フィルタ
は、受容野分割部で入力画像を受容野毎に分割し、極変
換部で各受容野像に極変換を施し、一次元grフィルタで
極変換出力に一次微分処理を施して”縁”を抽出するも
のである。(b)の縁抽出フィルタは、受容野分割部で入
力画像を受容野毎に分割し、極変換部で各受容野像に極
変換を施し、一次元grフィルタで極変換出力に一次元一
次微分処理を施し、更に二次元gasフィルタで一次元二
次微分処理を施して”縁”を抽出するものである。(c)
の縁抽出フィルタは、二次元gasフィルタで入力画像に
二次元二次微分処理を施してから、受容野分割部で入力
画像を受容野毎に分割し、極変換部で各受容野像に極変
換を施し、更に一次元grフィルタで極変換出力に一次元
一次微分処理を施して”縁”を抽出するものである。
Edge Extraction Filter FIG. 34 is a block diagram of various “edge” extraction filters.
Is a basic filter configuration that extracts "edges" by applying a one-dimensional gr filter process to the output of the receptive field method (receptive field division + pole transformation), and (b) is a further one-dimensional structure after the basic filter in (a). A configuration of an edge extraction filter connected with a gas filter, (c) is a configuration of an edge extraction filter further connected with a two-dimensional gas filter before the basic filter of (a). The edge extraction filter in (a) divides the input image into receptive fields by the receptive field dividing unit, performs polar transformation on each receptive field image in the polar transforming unit, and performs a first-order differential processing on the polar transform output with the one-dimensional gr filter. Is applied to extract the "edge". The edge extraction filter in (b) divides the input image into receptive fields by the receptive field dividing unit, performs polar transformation on each receptive field image in the polar transforming unit, and uses a one-dimensional gr filter to obtain a one-dimensional primary The "edge" is extracted by performing differential processing and then performing one-dimensional secondary differential processing with a two-dimensional gas filter. (c)
The edge extraction filter is a two-dimensional gas filter that performs two-dimensional second-order differential processing on the input image, then the receptive field division unit divides the input image into receptive fields, and the polar transformation unit polarizes each receptive field image. The transformation is performed, and the one-dimensional gr filter is used to perform one-dimensional first-order differential processing on the pole transformation output to extract the "edge".

【0093】隙間抽出フィルタ 隙間抽出フィルタは、線抽出フィルタの符号を反転した
ものである。従って、図33に示す各線抽出フィルタの
後段に符号反転部を接続すれば、隙間抽出フィルタにな
る。図35は隙間抽出フィルタの構成図であり、符号反
転部が設けられている。
Gap Extraction Filter The gap extraction filter is an inversion of the sign of the line extraction filter. Therefore, if a sign inversion unit is connected after each line extraction filter shown in FIG. 33, it becomes a gap extraction filter. FIG. 35 is a configuration diagram of the gap extraction filter, in which a sign inversion unit is provided.

【0094】(a-2) 線・隙間の両眼立体視 一次元フィルタでの線・隙間の両眼立体視 図14の基本フローにおける「極変換+一次元フィルタ
処理」を、図33(a)又は図35(a)に示す「受容野分割
+極変換+一次元ガウシャンフィルタ(+符号反転)処
理」とすると共に、左右眼の画像を入力することによ
り、線・隙間の両眼立体視が可能となる。そのシミュレ
ーション結果は既に図11〜図13で説明した。図13
におけるC(ρ,θ,σ)の鋭いピークが垂直線の対応
点を示し、σ軸の値から視差が5画素と正しく計測され
ている。
(A-2) Binocular stereoscopic view of line / gap Binocular stereoscopic view of line / gap with one-dimensional filter "Polar transformation + one-dimensional filter processing" in the basic flow of FIG. ) Or the “receptive field division + polar conversion + one-dimensional Gaussian filter (+ sign inversion) processing” shown in FIG. 35 (a), and by inputting the images of the left and right eyes, the binocular stereo of the line / gap It becomes possible to see. The simulation result has already been described with reference to FIGS. FIG.
The sharp peak of C (ρ, θ, σ) in ∘ indicates the corresponding point of the vertical line, and the parallax is correctly measured as 5 pixels from the value of the σ axis.

【0095】二次元フィルタでの線・隙間の両眼立体
視(生体的両眼立体視) 図14の基本フローにおける「極変換+一次元フィルタ
処理」を、図33(b)又は図35(b)に示す「二次元ガウ
シャンフィルタ+受容野分割+極変換(+符号反転)処
理」とすると共に、左右眼の画像を入力することによ
り、線・隙間の両眼立体視が可能となる。この方式は、
左右眼の入力画像に二次元gasフィルタで二次元二次微
分処理(二次元コンボリューションフィルタ処理)を施
し、しかる後、受容野毎に分割し、各受容野像に極変換
を施すものである。二次元gasフィルタ処理は「極変換後
の一次元フィルタ処理」と等価であり、シミュレーショ
ン結果は省略するが、図11〜図13と同一になる。こ
の方式は、人間の立体視と同じであり、二次元gasフィ
ルタで輪郭強調した結果を、形の認識等にも共通的に活
用できる利点が有る。
Binocular stereoscopic view of lines and gaps by two-dimensional filter (biological binocular stereoscopic view) The "polar conversion + one-dimensional filter processing" in the basic flow of FIG. By performing the "two-dimensional Gaussian filter + receptive field division + polar conversion (+ sign inversion) processing" shown in b) and inputting the images of the left and right eyes, stereoscopic vision of lines and gaps is possible. . This method
The input images of the left and right eyes are subjected to two-dimensional second-order differential processing (two-dimensional convolution filter processing) with a two-dimensional gas filter, and then divided into receptive fields, and polar transformation is applied to each receptive field image. . The two-dimensional gas filter processing is equivalent to “one-dimensional filter processing after pole conversion”, and the simulation result is omitted, but the same as in FIGS. 11 to 13. This method is similar to human stereoscopic vision, and has the advantage that the results of contour enhancement by a two-dimensional gas filter can be commonly used for shape recognition and the like.

【0096】(a-3) 縁の両眼立体視 一次元フィルタでの縁の両眼立体視 図14の基本フローにおける「極変換+一次元フィルタ
処理」を、図34(b)に示す「受容野分割+極変換+一
次元グラディエントフィルタ+一次元ガウシャンフィル
タ処理」とすると共に、左右眼の画像を入力することに
より、縁の両眼立体視が可能となる。そのシミュレーシ
ョン結果を図36、図37に示す。図36(a),(b)にお
ける円形部CL,CRは左右眼の受容野、円形内の像は左
右眼に写る受容野像であり、プラント内の情景中四角S
Qで囲んだ部分の縁の図形が写っている。図37におい
ては、全てのデータを信号の強さを等高線で示してあ
り、極変換結果と、θ=1680での基本相関パラメー
タC(ρ,θ,σ)の強度分布が等高線で示されてい
る。C(ρ,θ,σ)の鋭いピークが縁の対応点を示
し、σ軸の値から視差が1画素と正しく計測されてい
る。
(A-3) Binocular stereoscopic view of the edge Binocular stereoscopic view of the edge with the one-dimensional filter "Polar transformation + one-dimensional filter processing" in the basic flow of FIG. 14 is shown in FIG. 34 (b). Receptive field division + polar transformation + one-dimensional gradient filter + one-dimensional Gaussian filter processing ”and by inputting images of the left and right eyes, binocular stereoscopic vision of the edge becomes possible. The simulation results are shown in FIGS. 36 and 37. The circular parts C L and C R in FIGS. 36 (a) and 36 (b) are receptive fields for the left and right eyes, and the images in the circle are receptive field images for the left and right eyes.
The figure on the edge of the part surrounded by Q is shown. In FIG. 37, the strength of the signal of all data is shown by contour lines, and the result of the pole conversion and the intensity distribution of the basic correlation parameter C (ρ, θ, σ) at θ = 168 0 are shown by contour lines. ing. The sharp peak of C (ρ, θ, σ) indicates the corresponding point of the edge, and the parallax is correctly measured as 1 pixel from the value of the σ axis.

【0097】二次元フィルタを混在した縁の両眼立体
視(生体的両眼立体視) 図14の基本フローにおける「極変換+一次元フィルタ
処理」を、図34(c)に示す「二次元ガウシャンフィル
タ+受容野分割+極変換+一次元グラディエントフィル
タ処理」とすると共に、左右眼の画像を入力することに
より、縁の両眼立体視が可能となる。この方式は、左右
眼の入力画像に二次元gasフィルタで二次元二次微分処
理を施し、しかる後、受容野毎に分割し、各受容野像に
極変換を施すものである。二次元gasフィルタ処理は「極
変換後の一次元フィルタ処理」と等価であり、シミュレ
ーション結果は省略するが、図36と同一になる。この
方式は、人間の立体視と同じであり、二次元gasフィル
タで輪郭強調した結果を、形の認識等にも共通的に活用
できる利点が有る。 (a-4) 多角形図形・曲線図形・ランダムドット・テクス
チュアの両眼立体視:この両眼立体視は後述する移動方
向・速度の計測における記述と関連があるので、該記述
の後に(c)項として改めて説明する。
Binocular stereoscopic vision at the edge where two-dimensional filters are mixed (biological binocular stereoscopic vision) "Polar conversion + one-dimensional filter processing" in the basic flow of FIG. 14 is shown in FIG. Gaussian filter + receptive field division + polar transformation + one-dimensional gradient filter processing ”and by inputting the images of the left and right eyes, binocular stereopsis of the edge becomes possible. In this method, the input images of the left and right eyes are subjected to a two-dimensional quadratic differential process by a two-dimensional gas filter, and then divided for each receptive field, and a polar transformation is applied to each receptive field image. The two-dimensional gas filter processing is equivalent to “one-dimensional filter processing after pole conversion”, and the simulation result is omitted, but it is the same as in FIG. 36. This method is similar to human stereoscopic vision, and has the advantage that the results of contour enhancement by a two-dimensional gas filter can be commonly used for shape recognition and the like. (a-4) Polygonal figure / curve figure / random dot / texture binocular stereoscopic vision: Since this binocular stereoscopic vision is related to the description in the measurement of the moving direction / speed described later, (c ) Will be explained again.

【0098】(b) 移動方向と移動速度の計測 時間的に異なる作用画面の具体的な例として、画面内を
移動する物体を追尾するために、移動方向Φと速度Vを
計測する方式を説明する。 (b-1) 輪郭接線の移動方向と速度の計測 対象物の輪郭は直線で近似され(接線)、その接線の移
動方向と速度は以下の方法で計測できる。現時刻の画像
と、次の時刻の画像を「極変換+一次元フィルタ処理」
したデータat(ρ,θ)、at+DELTA(ρ,θ)から、
基本相関パラメータC(ρ,θ,τ)を次式 C(ρ,θ,τ)=at(ρ,θ)・at+DELTA(ρ+τ,θ) (24) より計算し、そのC(ρ,θ,τ)が極大となる点(ρ
P,θP,τP)を求めると、その要素パラメータから 接線の移動方向Φ=θP+900 接線の移動速度V=(τP・Δρ)/DELTA・・・(25) と求まり、そのデータから接線を追尾できる。ここで、
Δρはρ方向の分解能である。
(B) Measurement of moving direction and moving speed As a concrete example of an action screen that is temporally different,
In order to track a moving object, the moving direction Φ and velocity V
The measuring method will be described. (b-1) Measurement of moving direction and velocity of contour tangent The contour of the object is approximated by a straight line (tangent), and the tangent shift
The moving direction and speed can be measured by the following methods. Current time image
And the image at the next time "polar conversion + one-dimensional filter processing"
Data at(Ρ, θ), at + DELTAFrom (ρ, θ),
The basic correlation parameter C (ρ, θ, τ) is calculated by the following equation C (ρ, θ, τ) = at(Ρ, θ) ・ at + DELTA(Ρ + τ, θ) Calculated from (24), and the point (ρ) at which C (ρ, θ, τ) is maximum
P, ΘP, ΤP) Is obtained, the tangent moving direction Φ = θP+900  Tangent moving speed V = (τP・ Δρ) / DELTA ・ ・ ・ (25) is obtained, and the tangent line can be tracked from the data. here,
Δρ is the resolution in the ρ direction.

【0099】この方向と速度は、接線の方位と移動方向
0が直交していない場合には誤差を生じる。その理由
を図38で説明すると、(25)式により計測される接線L
の移動方向と速度は、それぞれ「接線の方位に直交する
方向」及び「その直交方向の速度V」であり、本当の方
向ベクトルV0と一致しなくなるからである。この誤差
を修正した正しい移動方向と速度の計測法を次で説明す
るが、対象物の追尾を行うにはこの方式で十分である。
というのは、短い時間間隔で追尾が行われるため、毎回
の上式の誤差は小さく問題とならないからである。
This direction and velocity cause an error when the azimuth of the tangent line and the moving direction V 0 are not orthogonal. The reason will be described with reference to FIG. 38. The tangent line L measured by the equation (25) is
This is because the moving direction and the velocity of are the “direction orthogonal to the tangential direction” and the “velocity V in the orthogonal direction”, respectively, and do not match the true direction vector V 0 . A correct method of measuring the moving direction and velocity in which this error is corrected will be described below, but this method is sufficient for tracking an object.
Because the tracking is performed at short time intervals, the error in the above equation is small and does not pose a problem.

【0100】図39は接線の移動方向と移動速度を計測
するフロー図である。画像データを遅延し(ステップ4
9)、現時刻の1画面分の画像データと遅延により得ら
れた所定時間前の1画面分の画像データをそれぞれ受容
野像に分割し(ステップ50a,50a′)、各受容野
像IM,IM′に極変換処理を施し(ステップ51a,
51a′)、該極変換結果に一次元フィルタリング処理
を施して双対プレーンに写像し(ステップ52a,52
a′)、各双対プレーンに写像されたデータ間に(24)式
の相関処理を施し(ステップ53)、計算された相関パ
ラメータC(ρ,θ,τ)を相関パラメータ記憶部に記
憶し(ステップ72)、相関演算終了後、相関パラメー
タ記憶部をスキャンしてC(ρ,θ,τ)が極大となる
(ρP,θP,τP)を検出し(ステップ73)、最後に
(25)式により接線の移動方向Φと移動速度Vを計算する
(ステップ74)。
FIG. 39 is a flow chart for measuring the moving direction and moving speed of a tangent line. Delay image data (step 4
9) The image data for one screen at the current time and the image data for one screen before the predetermined time obtained by the delay are divided into receptive field images (steps 50a, 50a '), and each receptive field image IM, IM ′ is subjected to polar conversion processing (step 51a,
51a '), the one-dimensional filtering process is performed on the polar transformation result, and the result is mapped to a dual plane (steps 52a, 52).
a '), the correlation processing of the equation (24) is performed between the data mapped to the dual planes (step 53), and the calculated correlation parameter C (ρ, θ, τ) is stored in the correlation parameter storage unit ( Step 72), after completion of the correlation calculation, the correlation parameter storage unit is scanned to detect (ρ P , θ P , τ P ) where C (ρ, θ, τ) becomes maximum (step 73), and finally
Calculate the moving direction Φ of the tangent and the moving speed V using the equation (25).
(Step 74).

【0101】(b-2) コーナのの移動方向と速度の計測 正確な移動方向と速度を計測するには、受容野に2本以
上の輪郭線が必要である。対象物は図40(a)に示すよ
うに一般的に2つの輪郭接線Li,Ljをから成るコーナ
CNを有しており、このコーナの相関処理によって正確
な移動方向と速度を計測できる。まず、(b-1)の場合と
同じように(24)式により相関処理を行う。すなわち、現
時刻の画像と次の時刻の画像とを「極変換+一次元フィ
ルタ処理」したデータa t(ρ,θ)、at+DELTA(ρ,
θ)を用いて基本相関パラメータC(ρ,θ,τ)を(2
4)式より計算し、そのC(ρ,θ,τ)が極大となる点
(ρP,θP,τP)を求める。ついで、極大値探索によ
り抽出した2つの接線Li,Ljに対応する点を(ρi
θi,τi)、(ρj,θj,τj)、・・・とすると、正
確な移動方向Φと速度Vは次式 Φ=arctan[(τisinθj−τjsinθi)/(τicosθj−τjcosθi)] (26) V=(Δρ・τi)/(sin(Φ−θi)・DELTA) (27) で計測される。ここで、DELTAは現時刻と次の時刻との
時間間隔である。
(B-2) Measurement of direction and speed of corner movement In order to accurately measure the direction and speed of movement, two or more corners should be placed in the receptive field.
The top line is required. The object is shown in Fig. 40 (a).
A corner which generally consists of two contour tangents Li, Lj
It has CN and is accurate by the correlation processing of this corner.
It can measure the moving direction and speed. First, in case of (b-1)
Similarly, the correlation processing is performed by the equation (24). That is, the present
The image of the time and the image of the next time are “polar conversion + one-dimensional fi
Data processed " t(Ρ, θ), at + DELTA(Ρ,
θ) is used to calculate the basic correlation parameter C (ρ, θ, τ) by (2
The point at which C (ρ, θ, τ) is maximized, calculated from equation (4)
P, ΘP, ΤP). Next, the maximum value search
The points corresponding to the two extracted tangents Li and Lj are (ρi
θi, Τi), (Ρj, Θj, Τj), ...
The accurate moving direction Φ and velocity V are calculated by the following formula Φ = arctan [(τisin θj−τjsin θi) / (Τicos θj−τjcos θi)] (26) V = (Δρ ・ τi) / (Sin (Φ−θi) ・ DELTA) (27). Where DELTA is the current time and the next time
It is a time interval.

【0102】この(26),(27)式は以下の如く導出され
る。すなわち、(25)式により計測される接線L(図38
参照)の移動方向と速度はそれぞれ「接線の方位に直交
する方向」及び「その直交方向の速度V」である。従っ
て、図38のΦ0方向に移動した時、(25)式で計測され
る速度はV0cosξとなる。これより、 V0cosξ=(τP・Δρ)/DELTA (28) が成立する。ところで、角度ξは図38において時計方
向を正とすると、次式 ξ=900−(Φ0−θP) (29) (但し、θPは接線Lの方向)で与えられる。(28)式に(2
9)式を代入すると、 V0cos[900-(Φ0P)]=(τP・Δρ)/DELTA (30) となり、変形すると V0sin(Φ0P)=(τP・Δρ)/DELTA (30)′ となる。ここで、τP=τi,θP=θiとし、V0を求め
ると(27)式が導出される。尚、τPをτで、θPをθで表
現し、k=DELTA/Δρとして(30)式を変形すると次式 τ=k・V0・cos[900-(Φ0-θ)] (31) となり、この関係式をθ-τ平面上に描画すると図40
(b)に示すように正弦波(正弦波状の発火パターン)と
なる。換言すれば、図形の各辺Li,Ljはθ-τ平面上に
おいて正弦波上の1点に濃縮される。
The expressions (26) and (27) are derived as follows. That is, the tangent line L measured by the equation (25) (see FIG.
The moving direction and the velocity (see the reference) are the “direction orthogonal to the tangential direction” and the “velocity V in the orthogonal direction”, respectively. Therefore, when moving in the Φ 0 direction in FIG. 38, the speed measured by the equation (25) becomes V 0 cos ξ. From this, V 0 cos ξ = (τ P · Δρ) / DELTA (28) holds. By the way, the angle ξ is given by the following equation ξ = 90 0 − (Φ 0 −θ P ) (29) (where θ P is the direction of the tangent line L) when the clockwise direction in FIG. 38 is positive. In equation (28), (2
Substituting the equation (9), V 0 cos [90 0-0P )] = (τ P · Δρ) / DELTA (30), and when transformed, V 0 sin (Φ 0P ) = ( τ P · Δρ) / DELTA (30) ′. Here, when τ P = τ i and θ P = θ i, and V 0 is obtained, the equation (27) is derived. If τ P is represented by τ and θ P is represented by θ, and equation (30) is transformed with k = DELTA / Δρ, the following equation τ = k · V 0 · cos [90 0 − (Φ 0 −θ)] (31) becomes, and if this relational expression is drawn on the θ-τ plane,
As shown in (b), it becomes a sine wave (sinusoidal firing pattern). In other words, each side Li, Lj of the figure is concentrated at one point on the sine wave on the θ-τ plane.

【0103】さて、(31)式を変形すると、 τ=k・V0・sin(Φ0-θ) (32) となる。この(32)式において、(θ,τ)=(θi
τi)、(θ,τ)=(θj,τj)とすると、次式 τi=k・V0・sin(Φ0i) (32)′ τj=k・V0・sin(Φ0j) (32)″ となる。(32)′、(32)″式より τi/τj=sin(Φ0i)/sin(Φ0j) が成立し、 tanΦ0=(τisinθj−τjsinθi)/(τicosθj−τjcos
θi) が導かれ、(26)式が導出される。尚、コーナは2本の輪
郭線からなるが、3本以上の輪郭線から構成される特徴
であれば、図40(b)の正弦波をより正確に決定でき、
従って(Φ0,V0)の計測精度を高めることができる。
By modifying the equation (31), τ = k · V 0 · sin (Φ 0 −θ) (32) can be obtained. In this equation (32), (θ, τ) = (θ i ,
τ i ), (θ, τ) = (θ j , τ j ), the following equation τ i = k · V 0 · sin (Φ 0 −θ i ) (32) ′ τ j = k · V 0 · sin (Φ 0j ) (32) ″. From (32) ′ and (32) ″, τ i / τ j = sin (Φ 0i ) / sin (Φ 0j ) is TanΦ 0 = (τ i sin θ j −τ j sin θ i ) / (τ i cos θ j −τ j cos
θ i ) is derived and Eq. (26) is derived. Note that the corner is composed of two contour lines, but if it is a feature composed of three or more contour lines, the sine wave of FIG. 40 (b) can be determined more accurately,
Therefore, the measurement accuracy of (Φ 0 , V 0 ) can be improved.

【0104】 (b-3) 多角形・曲線からの移動方向・速度の計測 上記では、2本の線(コーナ)からの移動方向・速度の
計測を述べたが、もっと多くの線や接線から構成される
「多角形・曲線」に着目すると、更に信頼性の良い「移
動方向・速度の計測」が可能となる。前述のρ方向に投
影した次式で与えられる相関パラメータCPRJ-ρ(θ,
τ) CPRJ-ρ(θ,τ)=ΣC(ρ,θ,τ) (ρ=1,
2,・・・) が重要な役割を果たす。
(B-3) Measurement of Moving Direction / Velocity from Polygon / Curve In the above, measurement of moving direction / velocity from two lines (corner) was described, but from more lines and tangents. Focusing on the "polygons / curves" that are configured, more reliable "movement direction / speed measurement" becomes possible. The correlation parameter C PRJ- ρ (θ,
τ) C PRJ- ρ (θ, τ) = ΣC (ρ, θ, τ) (ρ = 1,
2, ...) plays an important role.

【0105】多角形からの移動方向・速度の計測 多角形図形に対するこのパラメータの応答は、図41に
示すように、多角形の各辺の応答が正弦波状に分布す
る。N角形であれば、正弦波状にN個のピークが並ぶこ
とになり、また速度の大きい多角形は大振幅の正弦波と
なる。これから多角形全体の移動方向と速度を正確に計
測できる。直線の方位と移動方向との角度を図38のよ
うにξとすると、相関パラメータC(ρ,θ,τ)がピ
ークとなるτPは、(28)式より τP=(V0・DELTA/Δρ)・cosξ であり、これをρ方向に投影したCPRJ-ρ(θ,τ)は
図41の正弦波(正弦波状の発火パターン)となる。そ
の最大点(θmax、τmax)を求めると、 移動方向Φ0 =θmax−900 (33a) 真の移動速度V0=(τmax・Δρ)/DELTA (33b) を計算できる。前述のコーナ法(図40(b))に比して、
基本原理は同じであるが、正弦波上に多くの点(N点)
が分布するため、そのピーク(最大振幅となる点)を正
確に計算できるとの大きな特徴がある。
Measurement of Moving Direction / Velocity from Polygon The response of this parameter to a polygonal figure is that the response of each side of the polygon is distributed in a sine wave shape, as shown in FIG. In the case of an N-sided polygon, N peaks are arranged in a sinusoidal shape, and a polygon having a high velocity becomes a large-amplitude sinusoidal wave. From this, the moving direction and speed of the entire polygon can be accurately measured. When the angle between the azimuth of the straight line and the moving direction is ξ as shown in FIG. 38, τ P at which the correlation parameter C (ρ, θ, τ) becomes a peak is expressed by the equation (28) as τ P = (V 0 · DELTA / Δρ) · cosξ, and C PRJ− ρ (θ, τ) obtained by projecting this in the ρ direction becomes the sine wave (sinusoidal firing pattern) of FIG. 41. When the maximum point (θmax, τmax) is obtained, the moving direction Φ 0 = θmax−90 0 (33a) The true moving speed V 0 = (τmax · Δρ) / DELTA (33b) can be calculated. Compared with the above-mentioned corner method (Fig. 40 (b)),
The basic principle is the same, but many points (N points) on the sine wave
Has a great feature that its peak (point at which the maximum amplitude) can be accurately calculated.

【0106】この正弦波の抽出を極変換を用いて行うこ
とができる。すなわち、円筒上極変換(Hough(ハフ)
変換)では点が正弦波に変換され、正弦波上の各点を更
に極変換すると(逆ハフ変換)、各点は1点で交差する
直線に変換される。従って、該点より正弦波を抽出でき
る。具体的には、CPRJ-ρ(θ,τ)プレーンの各点
を、以下の関係 τ=−Vy・cosθ+Vx・sinθ (34) を満たす直線に変換して、その交点CP(Vx,Vy)を
求める(図42参照)。Vx,Vy座標原点からこの交点
CPまでの方向及び距離が(33a),(33b)式におけるθma
x、τmaxとなる。尚、交点CP迄の方向及び距離が(33
a),(33b)式におけるθmax、τmaxとなる理由は以下のと
おりである。(34)式は、真の速度V0と方向Φを用いて
変形すると τ=(√(Vx2+Vy2))・sin(θ−Φ) =V0・(DELTA/Δρ)・sin(θ−Φ) (34)′ となる。ただし、Φ=arctan(Vy/Vx).従って、C
PRJ-ρ(θ,τ)プレーンの正弦波のピークは τmax=V0・(DELTA/Δρ) あるいは =√(Vx2+Vy2) θmax=Φ−900 となる。これより真の速度と方向が次式 真の速度V0=(Δρ/DELTA)・√(Vx2+Vy2) (35a) 真の方向Φ0=arctan(Vy/Vx) (35b) で計算できる。尚、この方法は「逆ハフ変換」に相当して
いる。
The extraction of this sine wave can be performed by using the polar transformation. That is, the polar transformation on the cylinder (Hough)
In (conversion), the points are converted into sine waves, and when each point on the sine wave is further pole-converted (inverse Hough conversion), each point is converted into a straight line intersecting at one point. Therefore, a sine wave can be extracted from this point. Specifically, each point of the C PRJ- ρ (θ, τ) plane is converted into a straight line that satisfies the following relation τ = −Vy · cos θ + Vx · sin θ (34), and its intersection point CP (Vx, Vy) Is calculated (see FIG. 42). The direction and distance from the origin of the Vx and Vy coordinates to this intersection CP are θma in the equations (33a) and (33b).
x, τmax. The direction and distance to the intersection CP are (33
The reasons for θmax and τmax in equations (a) and (33b) are as follows. When the equation (34) is transformed by using the true velocity V 0 and the direction Φ, τ = (√ (Vx 2 + Vy 2 )) · sin (θ−Φ) = V 0 · (DELTA / Δρ) · sin (θ −Φ) (34) ′. However, Φ = arctan (Vy / Vx). Therefore, C
The peak of the sine wave on the PRJ- ρ (θ, τ) plane is τmax = V 0 · (DELTA / Δρ) or = √ (Vx 2 + Vy 2 ) θmax = Φ−90 0 . From this, the true speed and direction can be calculated by the following formula: true speed V 0 = (Δρ / DELTA) ・ √ (Vx 2 + Vy 2 ) (35a) true direction Φ 0 = arctan (Vy / Vx) (35b) . This method corresponds to "inverse Hough transform".

【0107】図43は以上により移動方向と移動速度を
計測するフロー図である。現時刻と次の時刻の1画面分
の画像データをそれぞれ受容野像に分割し(ステップ5
0a,50a′)、各受容野像IM,IM′に極変換処
理を施し(ステップ51a,51a′)、該極変換結果
に一次元フィルタリング処理を施して双対プレーンに写
像し(ステップ52a,52a′)、各双対プレーンに
写像されたデータ間に(24)式の相関処理を施し(ステッ
プ53)、計算された相関パラメータC(ρ,θ,τ)
を相関パラメータ記憶部に記憶する(ステップ72)。
ついで、次式 CPRJ-ρ(θ,τ)=ΣC(ρ,θ,τ) (ρ=1,
2,・・・) により、ρ方向に投影した相関パラメータCPRJ-ρ
(θ,τ)を求め(ステップ75)、θ−τ平面の相関
パラメータ記憶部に記憶する(ステップ76)。つい
で、相関パラメータCPRJ-ρ(θ,τ)に(34)式により
極変換処理を施し(ステップ77)、Vx,Vy平面(速
度平面)上におけるピーク点(交点)を求め(ステップ
78)、座標原点からこの交点までの方向及び距離を求
めて(35a),(35b)式に基づいて真の速度V0、真の方向Φ
0を演算する(ステップ79)。 曲線図形からの移動方向・速度の計測 以上は多角形であったが、曲線図形でも同様に信頼性の
高い計測を行うことができる。「受容野法+極変換」で
は、曲線の接線を的確に抽出でき、そのデータから同様
にCPRJ-ρ(θ,τ)を計算すれば良い。
FIG. 43 is a flow chart for measuring the moving direction and moving speed as described above. Image data for one screen at the current time and the next time is divided into receptive field images (step 5).
0a, 50a '), the receptive field images IM, IM' are subjected to polar transformation processing (steps 51a, 51a '), and the polar transformation result is subjected to one-dimensional filtering processing to be mapped on a dual plane (steps 52a, 52a'). ′), The correlation processing of equation (24) is performed between the data mapped to the dual planes (step 53), and the calculated correlation parameter C (ρ, θ, τ)
Is stored in the correlation parameter storage unit (step 72).
Then, the following expression C PRJ- ρ (θ, τ) = ΣC (ρ, θ, τ) (ρ = 1,
2, ...), the correlation parameter C PRJ− ρ projected in the ρ direction
(Θ, τ) is obtained (step 75) and stored in the correlation parameter storage unit on the θ-τ plane (step 76). Then, the correlation parameter C PRJ- ρ (θ, τ) is subjected to a pole conversion process by the equation (34) (step 77), and a peak point (intersection point) on the Vx, Vy plane (velocity plane) is obtained (step 78). , The direction and distance from the coordinate origin to this intersection are obtained, and the true velocity V 0 and the true direction Φ are calculated based on the equations (35a) and (35b).
0 is calculated (step 79). Measurement of moving direction and speed from curved figure The above is a polygon, but a curved figure can also perform highly reliable measurement. In the “receptive field method + polar transformation”, the tangent line of the curve can be accurately extracted, and C PRJ− ρ (θ, τ) can be calculated from the data.

【0108】(b-4) ランダムドットやテクスチュアから
の移動方向・速度の計測 以上では、直線や接線から構成される図形(多角形、曲
線)から、移動方向と速度を計測できることを述べた。
次に、ランダムの点から構成される図形に拡張する。こ
の図形に対しても(b-3)と全く同じ処理で移動方向と速
度を計測できる。その理由は、「受容野法+一次元フィ
ルタ」によって、「点のペアを直線」として抽出でき、
多角形と同じに考えられるためである(図44参照)。
この方法により、ランダムドット図形は当然として、細
かい模様から構成され「テクスチュア」図形の移動方向
・速度の計測が可能となり、この拡張は極めて大きな効
果を有する。
(B-4) Measurement of Moving Direction / Velocity from Random Dots and Textures Above, it has been described that the moving direction and velocity can be measured from a figure (polygon, curve) composed of straight lines and tangent lines.
Next, it expands to a figure composed of random points. The movement direction and velocity of this figure can be measured by the same process as in (b-3). The reason is that the "receptive field method + one-dimensional filter" can be extracted as a "line of points",
This is because it can be considered the same as a polygon (see FIG. 44).
By this method, the random dot figure is naturally composed of a fine pattern, and it becomes possible to measure the moving direction / velocity of the "texture" figure, and this expansion has an extremely large effect.

【0109】図45、図46はランダムドット図形の移
動方向、速度計測におけるシミュレーション結果説明図
であり、1秒間に、450方向に6√2画素移動した時
の結果であり、遅れDELTAを1秒に設定する。なお、こ
のランダムドット図形はコンピュータで生成したランダ
ムドット・ステレオグラムであり、1ドット=1画素で
描いてあり、密度は50%である。図45において、I
M,IM′はそれぞれ、現時刻(遅れなし)と次の時刻
(遅れあり)の受容野像、HCIM,HCIM′は各受
容野像IM,IM′に極変換処理を施し、該極変換結果
に一次元フィルタリング処理を施してρ−θの双対プレ
ーンに写像したハイパーコラム像である。又、図46に
おいて、PRIMはハイパーコラム像間に相関処理を施
し、得られた相関パラメータC(ρ,θ,τ)をρ方向
に投影したθ−τ平面における相関パラメータCPRJ-ρ
(θ,τ)、HGIMは相関パラメータCPRJ-ρ(θ,
τ)に極変換処理を施したVx,Vy平面上の極変換結果
ある。θ−τ平面上には、正弦波パターンSWVが現れ
ており、又、速度平面上には450方向、6√2画素位
置に鋭いピークPKが抽出されている。このピーク点
(Vx,Vy)より(35a),(35b)式に基づいて真の速度と
真の移動方向が計算できる。
45 and 46 are explanatory diagrams of simulation results in the moving direction and speed measurement of a random dot figure, which are the results when 6√2 pixels are moved in the 45 0 direction in 1 second, and the delay DELTA is 1 Set to seconds. It should be noted that this random dot figure is a computer-generated random dot stereogram and is drawn with 1 dot = 1 pixel, and the density is 50%. In FIG. 45, I
M and IM 'are receptive field images at the current time (no delay) and the next time (with delay), and HCIM and HCIM' are subjected to polar conversion processing on the respective receptive field images IM and IM ', and the polar conversion results are obtained. Is a hyper-column image obtained by performing a one-dimensional filtering process on the and to map it to a dual plane of ρ-θ. Also, in FIG. 46, PRIM performs correlation processing between hypercolumn images, and the obtained correlation parameter C (ρ, θ, τ) is projected in the ρ direction, and the correlation parameter C PRJ- ρ on the θ-τ plane.
(Θ, τ), HGIM is the correlation parameter C PRJ- ρ (θ,
τ) is the result of polar conversion on the Vx and Vy planes that has been subjected to polar conversion processing. A sine wave pattern SWV appears on the θ-τ plane, and a sharp peak PK is extracted at 6√2 pixel positions in the 45 0 direction on the velocity plane. From this peak point (Vx, Vy), the true speed and the true moving direction can be calculated based on the equations (35a) and (35b).

【0110】大脳のハイパーコラムには「Directional S
electivity単純細胞」や「Directional Selectivity複雑
細胞」といわれる細胞があり、移動する輪郭線の移動方
向と速度を検出しており、その機能は本方式と非常に似
ている。特に、ハイパーコラムの第5及び第6層には上
丘や外側膝状体に信号をフィードバックする複雑細胞が
存在し、該複雑細胞は輪郭線の移動方向と移動速度のデ
ータを計測して対象物を視野の中心に捕捉するように眼
球を制御するのに重要な役割を果たしている。工学的に
も、移動ロボットなどでは対象物を視野の中心に捕捉し
て、接近や回避するなどの動作を行う必要があり、本方
式は有効である。又、対象物の移動方向と速度を計測す
る研究が近年盛んになっているが、それらの方法は「明
るさの時間変化から移動方向と速度を求める方法」と
「図形特徴の移動に伴う変化から移動方向と速度求める
方法」に大別できる。しかし、前者は微分的な取扱とな
って照明の変化や振動などに弱いとの実用上の大きな課
題があり、又、後者は図形特徴の対応がポイントである
が、現在の”形の処理”に弱い画像処理技術では適用に
限界がある。これらのオプチカルフローの課題に対し
て、本方式は前者に対して「極変換によって図形を構成
する点群を直線に変えて積算する、積分的な操作であ
り、ノイズに強い」という特徴を有している。又、後者
に対しては「最も簡単な図形、つまり輪郭接線に分解
し、かつその接線を極変換で一次元で対応処理できるた
め、複雑な図形に対しても確実な計測ができる」という
特徴を有している。すなわち、本方式は、「積分型で一
次元処理が可能な、新しいオプチカルフロー方式」とい
える。
[0110] The cerebral hypercolumn shows "Directional S
There are cells called "electivity simple cells" and "Directional Selectivity complex cells", which detect the moving direction and speed of the moving contour line, and their functions are very similar to this method. Especially, in the 5th and 6th layers of the hyper column, there are complex cells that feed back signals to the superior colliculus and the lateral geniculate body, and these complex cells are measured by measuring the moving direction and moving speed data of the contour line. It plays an important role in controlling the eyeball so that an object is captured in the center of the visual field. From an engineering point of view, it is necessary for mobile robots to capture an object in the center of the field of view and perform actions such as approaching and avoiding it, and this method is effective. Also, researches for measuring the moving direction and speed of an object have become popular in recent years, but those methods are "method of obtaining moving direction and speed from temporal change of brightness" and "change with movement of figure feature". The method of calculating the moving direction and the speed can be roughly classified. However, the former has a big problem in practical use that it is handled differentially and is weak against changes and vibrations of lighting, and the latter is the point of correspondence of graphic features, but the current "shape processing" There is a limit to the application of the weak image processing technology. In order to solve these optical flow problems, this method has the characteristic that the former method is "integral operation that changes the point group that composes a figure into a straight line by polar transformation and integrates it, and is resistant to noise". is doing. For the latter, the feature is that "the simplest figure, that is, the tangent line to the contour can be decomposed and the tangent line can be processed in a one-dimensional manner by polar transformation, so that reliable measurement can be performed even for complicated figures." have. In other words, this method can be said to be "a new optical flow method capable of integral one-dimensional processing".

【0111】(b-5) 線・隙間の移動方向と速度の計測 以下でシミュレーション結果を含めて、線・隙間の移動
方向と速度の計測方式を説明する。移動方向と速度の具
体的な計測方法は、(b-1)を例にしたが、(b-2)〜(b-4)
でも同様に実行できる。 一次元フィルタでの移動方向と速度の計測 図39のフローにおける「受容野分割+極変換+一次元
フィルタ処理」を、図33(a)又は図35(a)に示す「受
容野分割+極変換+一次元ガウシャンフィルタ(+符号
反転)処理」とすることにより、線・隙間の移動方向と
速度の計測が可能となる。そのシミュレーション結果を
図47に示す。垂直線(θ≒900)を水平方向に7画
素移動した前後の2つの画像を入力して得られる相関パ
ラメータC(ρ,θ,σ)の強度を等高線で示す。基本
相関パラメータC(ρ,θ,σ)の鋭いピークが垂直線
の対応点を示し、その点を(ρP,θP,τP)とする
と、 移動方向=θP+900=1820 (移動速度/DELTA)=τP=6画像 と正しい結果が得られた。
(B-5) Measurement of moving direction and speed of line / gap Moving line / gap including simulation results below
The method of measuring the direction and speed will be described. Direction and speed tool
The physical measurement method used (b-1) as an example, but (b-2) to (b-4)
But you can do the same. Measurement of moving direction and velocity with one-dimensional filter "Receptive field division + pole transformation + one-dimensional" in the flow of FIG.
"Filter processing" is shown in Fig. 33 (a) or 35 (a).
Yano field division + pole transformation + one-dimensional Gaussian filter (+ sign
"Reversal) process", so that
It is possible to measure the speed. The simulation result
It shows in FIG. Vertical line (θ≈900) In the horizontal direction
The correlation pattern obtained by inputting the two images before and after the elementary movement
The intensity of the parameter C (ρ, θ, σ) is shown by contour lines. Basic
The sharp peak of the correlation parameter C (ρ, θ, σ) is the vertical line.
Corresponding points of (ρP, ΘP, ΤP) And
And moving direction = θP+900= 1820  (Movement speed / DELTA) = τP= 6 images and correct results were obtained.

【0112】 二次元フィルタでの移動方向と速度の計測(生体的) 図39のフローにおける「受容野分割+極変換+一次元
フィルタ処理」を、図33(b)又は図35(b)に示す「二
次元ガウシャンフィルタ+受容野分割+極変換(+符号
反転)処理」とすることにより、線・隙間の移動方向と
速度の計測が可能となる。この方式は、入力画像に二次
元gasフィルタで二次元二次微分処理(二次元コンボリ
ューションフィルタ処理)を施し、しかる後、受容野毎
に分割し、各受容野像に極変換を施すものである。二次
元gasフィルタ処理は「極変換後の一次元フィルタ処理」
と等価であり、シミュレーション結果は省略するが、図
47と同じ移動方向と速度の計測結果が得られる。この
方式は、人間の立体視と同じであり、二次元gasフィル
タで輪郭強調した結果を形の認識等にも共通的に活用で
きる利点が有る。
Measurement of moving direction and velocity by two-dimensional filter (biological) “Receptive field division + polar conversion + one-dimensional filter processing” in the flow of FIG. 39 is shown in FIG. 33 (b) or FIG. 35 (b). By performing the “two-dimensional Gaussian filter + receptive field division + polar conversion (+ sign inversion) processing” shown, it becomes possible to measure the moving direction and speed of the line / gap. In this method, the input image is subjected to two-dimensional second-order differential processing (two-dimensional convolution filter processing) with a two-dimensional gas filter, then divided into receptive fields, and polar transformation is applied to each receptive field image. is there. Two-dimensional gas filter processing is "one-dimensional filter processing after pole transformation"
Although the simulation result is omitted, the same measurement result of the moving direction and speed as in FIG. 47 can be obtained. This method is similar to human stereoscopic vision, and has the advantage that the results of contour enhancement with a two-dimensional gas filter can be commonly used for shape recognition and the like.

【0113】(b-6) 縁の移動方向と速度の計測 以下でシミュレーション結果を含めて、画像に最も頻繁
に現われる画像特徴である縁の移動方向と速度の計測方
式を説明する。移動方向と速度の具体的な計測方法は、
(b-1)を例にしたが、(b-2)〜(b-4)でも同様に実行でき
る。 一次元フィルタでの縁の移動方向と速度の計測 図39のフローにおける「受容野分割+極変換+一次元
フィルタ処理」を、図34(b)に示す「受容野分割+極
変換+一次元グラディエントフィルタ+一次元ガウシャ
ンフィルタ処理」とすることにより、縁の移動方向と速
度の計測が可能となる。そのシミュレーション結果を図
48に示す。1200の縁を水平方向に7画素移動した
前後の2つの画像を入力して得られる相関パラメータC
(ρ,θ,σ)の強度を等高線で示す。基本相関パラメ
ータC(ρ,θ,σ)の鋭いピークが縁の対応点を示
し、その点を(ρP,θP,τP)とすると、 移動方向=θP+900=2100 (移動速度・DELTA)/Δρ=τP=7画像 と正しい結果が得られた。ここで、Δρはρ方向の分解
能、DELTAは遅れ時間である。
(B-6) Measurement of edge moving direction and speed The following are the most frequent images, including simulation results.
Of moving direction and speed of edge, which are image features appearing on the screen
The formula will be described. The specific measuring method of moving direction and speed is
Although (b-1) is used as an example, the same procedure can be performed for (b-2) to (b-4).
It Measurement of edge moving direction and velocity with one-dimensional filter "Receptive field division + pole transformation + one-dimensional" in the flow of FIG.
Filter processing "is shown in Fig. 34 (b)," Receptive field division + pole
Transform + One-dimensional gradient filter + One-dimensional Gaussian
Filter processing ", the edge moving direction and speed
It is possible to measure the degree. Figure of the simulation result
48. 1200Moved the edge of 7 pixels horizontally
Correlation parameter C obtained by inputting two images before and after
The intensity of (ρ, θ, σ) is shown by contour lines. Basic correlation parameter
The sharp peak of data C (ρ, θ, σ) indicates the corresponding point of the edge.
The point (ρP, ΘP, ΤP), Moving direction = θP+900= 2100  (Movement speed / DELTA) / Δρ = τP= 7 images and correct results were obtained. Where Δρ is the decomposition in the ρ direction
Noh, DELTA is the delay time.

【0114】二次元フィルタを混在した縁の移動方向
と速度の計測(生体的両眼立体視) 図39のフローにおける「受容野分割+極変換+一次元
フィルタ処理」を、図34(c)に示す「二次元ガウシャ
ンフィルタ+受容野分割+極変換+一次元グラディエン
トフィルタ処理」とすることにより、縁の移動方向と速
度の計測が可能となる。この方式は、入力画像に二次元
gasフィルタで二次元二次微分処理(二次元コンボリュ
ーションフィルタ処理)を施し、しかる後、受容野毎に
分割し、各受容野像に極変換を施すものである。二次元
gasフィルタ処理は「極変換後の一次元フィルタ処理」と
等価であり、シミュレーション結果は省略するが、図4
1と同じ移動方向と速度の計測結果が得られる。この方
式は、人間の立体視と同じであり、二次元gasフィルタ
で輪郭強調した結果を、形の認識等にも共通的に活用で
きる利点が有る。
Measurement of the moving direction and speed of the edge in which two-dimensional filters are mixed (biological binocular stereoscopic view) "Receptive field division + polar conversion + one-dimensional filter processing" in the flow of FIG. 39 is shown in FIG. 34 (c). By the "two-dimensional Gaussian filter + receptive field division + pole conversion + one-dimensional gradient filter processing" shown in (3), the moving direction and speed of the edge can be measured. This method is a two-dimensional
Two-dimensional second-order differential processing (two-dimensional convolution filter processing) is performed by the gas filter, and thereafter, each receptive field is divided, and each receptive field image is subjected to polar transformation. Two dimensions
Although the gas filter processing is equivalent to “one-dimensional filter processing after pole conversion”, the simulation result is omitted, but FIG.
The same moving direction and speed measurement results as 1 can be obtained. This method is similar to human stereoscopic vision, and has the advantage that the results of contour enhancement by a two-dimensional gas filter can be commonly used for shape recognition and the like.

【0115】(c) 多角形図形・曲線図形・ランダムドット
・テクスチュアの両眼立体視 多角形図形・曲線図形の両眼立体視 移動方向・速度の計測(b)と同様に、ρ方向に投影した
相関パラメータCPRJ-ρ(θ,σ) CPRJ-ρ(θ,σ)=ΣC(ρ,θ,σ) (ρ=1,
2,・・・) を用いることにより、多角形図形・曲線図形の立体視計
測が可能となる。方法は(b)項の時間相関CPRJ-ρ
(θ,τ)を両眼相関CPRJ-ρ(θ,σ)に置き換える
だけで良い。この方法では、1本の直線からの両眼立体
視に比べて、辺の数だけ信頼性が向上する。
(C) Polygonal figure / curve figure / random dot / texture binocular stereoscopic vision Polygonal figure / curve figure binocular stereoscopic vision Moving direction / speed measurement Similar to (b), projection in ρ direction Correlated parameter C PRJ- ρ (θ, σ) C PRJ- ρ (θ, σ) = ΣC (ρ, θ, σ) (ρ = 1,
2, ...) enables stereoscopic measurement of polygonal figures and curved figures. The method is the time correlation C PRJ- ρ in (b).
It suffices to replace (θ, τ) with the binocular correlation C PRJ- ρ (θ, σ). In this method, the reliability is improved by the number of sides as compared with the binocular stereoscopic view from one straight line.

【0116】さて、直線は左右眼の入力画像において図
49のSLL,SLRで示すように平行にずれて見える。
この直線位置の差はρ−θのハイパーコラムプレーン上
では直線の方位θに直交する方向の変位σとして得られ
る。従って、水平方向の両眼視差dは次式 d=σ/sinθ で表現できる。以上から、水平視差(両眼視差)がdの
時、θ方向の直線の変位量σは次式 σ=d・sinθ (36) で与えられる。この関係式をθ-σ平面上に描画すると
図50(b)に示すように正弦波となる。換言すれば、左
右眼で捉えた図50(a)に示す図形の各辺Li,Lj,Lkを
極変換し、極変換により得られた各ハイパーコラム像間
に(1)式に基づいて相関処理を施して相関パラメータC
(ρ,θ,σ)を演算し、該相関パラメータC(ρ,
θ,σ)を(9)式に従ってρ方向に投影して相関パラメ
ータCPRJ-ρ(θ,σ)を求め、θ-ρ平面に表示する
と各辺Li,Lj,Lkは正弦波上の各点Li′,Lj′,Lk′
に濃縮される。
Now, the straight lines appear to be shifted in parallel in the input images of the left and right eyes as shown by SL L and SL R in FIG.
The difference between the positions of the straight lines is obtained as a displacement σ in the direction orthogonal to the azimuth θ of the straight line on the hypercolumn plane of ρ−θ. Therefore, the binocular parallax d in the horizontal direction can be expressed by the following expression d = σ / sin θ. From the above, when the horizontal parallax (binocular parallax) is d, the displacement amount σ of the straight line in the θ direction is given by the following equation σ = d · sin θ (36). When this relational expression is drawn on the θ-σ plane, it becomes a sine wave as shown in FIG. In other words, the sides Li, Lj, and Lk of the figure shown in FIG. 50 (a) captured by the left and right eyes are polar-transformed, and the hypercolumn images obtained by the polar transformation are correlated based on the equation (1). Correlation parameter C after processing
(Ρ, θ, σ) is calculated, and the correlation parameter C (ρ,
θ, σ) is projected in the ρ direction according to the equation (9) to obtain the correlation parameter C PRJ- ρ (θ, σ) and displayed on the θ-ρ plane. Points Li ', Lj', Lk '
Is concentrated to.

【0117】従って、(b-3)の場合と同様に両眼入力画
像からCPRJ-ρ(θ,σ)を計算し、それを(34)式で
極変換すると、図50(c)に示すように正弦波上の各点
はVx,Vy平面上で1点PKを通る直線に変換される。
このピーク点PK(Vx,Vy)を求めると真の視差σ0
は次式 σ0=Δρ・√(Vx2+Vy2) (37) で計算できる。尚、視差の方向は、常に両眼を結ぶ方向
(水平方向)である。又、任意図形の見える方向をξ、両
眼の間隔をdとすると、任意図形までの距離Dは次式 D=d・sin(σ0+ξ)/sin(σ0) (38) で計算できる。
Therefore, as in the case of (b-3), C PRJ- ρ (θ, σ) is calculated from the binocular input image, and it is pole-transformed by the equation (34). As shown, each point on the sine wave is converted into a straight line passing through one point PK on the Vx and Vy planes.
If this peak point PK (Vx, Vy) is calculated, the true parallax σ 0
Can be calculated by the following formula σ 0 = Δρ · √ (Vx 2 + Vy 2 ) (37). The direction of parallax is always the direction that connects both eyes.
(Horizontal direction). If the viewing direction of an arbitrary figure is ξ and the distance between both eyes is d, the distance D to the arbitrary figure is calculated by the following equation: D = d ・ sin (σ 0 + ξ) / sin (σ 0 ) (38) it can.

【0118】図51は両眼立体視による任意図形までの
距離演算法説明図であり、Lは直線、EL,ERは左右眼
である。上記により求めた視差をσ0、任意図形の見え
る方向をξ、両眼の間隔をd、左右眼から任意図形まで
の距離をD1,D2とすると、次式 D1sinξ=D2sin(ξ+σ0) D1cosξ−D2cos(ξ+σ0)=d が成立する。この連立方程式よりD1を求めると(38)式
が得られる。
FIG. 51 is a diagram for explaining a method of calculating a distance to an arbitrary figure by binocular stereoscopic vision, where L is a straight line and E L and E R are left and right eyes. If the parallax obtained above is σ 0 , the viewing direction of an arbitrary figure is ξ, the distance between both eyes is d, and the distances from the left and right eyes to the arbitrary figure are D 1 and D 2 , the following equation D 1 sin ξ = D 2 sin (ξ + σ 0 ) D 1 cos ξ−D 2 cos (ξ + σ 0 ) = d holds. Equation (38) is obtained by finding D 1 from this simultaneous equation.

【0119】図52は両眼立体視により視差及び任意図
形までの距離を計測するフロー図である。左右眼画像デ
ータをそれぞれ受容野像に分割し(ステップ50a,5
0a′)、各受容野像IM,IM′に極変換処理を施し
(ステップ51a,51a′)、該極変換結果に一次元
フィルタリング処理を施して双対プレーンに写像し(ス
テップ52a,52a′)、各双対プレーンに写像され
たデータ間に(1)式の相関処理を施し(ステップ5
3)、計算された相関パラメータC(ρ,θ,σ)を相
関パラメータ記憶部に記憶する(ステップ72)。つい
で、(9)式により、ρ方向に投影した相関パラメータC
PRJ-ρ(θ,σ)を求め(ステップ75′)、θ−σ平
面の相関パラメータ記憶部に記憶する(ステップ7
6′)。ついで、相関パラメータCPRJ-ρ(θ,σ)に
(34)式により極変換処理を施し(ステップ77′)、V
x,Vy平面上におけるピーク点(交点)を求め(ステッ
プ78′)、座標原点からこの交点までの距離を求めて
(37),(38)式に基づいて両眼視差σ0、任意図形までの距
離Dを演算する(ステップ79′)。
FIG. 52 is a flow chart for measuring parallax and the distance to an arbitrary figure by binocular stereoscopic vision. The left and right eye image data are divided into receptive field images (steps 50a, 5a).
0a '), the receptive field images IM, IM' are subjected to polar conversion processing (steps 51a, 51a '), and the polar conversion result is subjected to one-dimensional filtering processing to be mapped on a dual plane (steps 52a, 52a'). , The correlation processing of the equation (1) is performed between the data mapped to the dual planes (step 5).
3) The calculated correlation parameter C (ρ, θ, σ) is stored in the correlation parameter storage unit (step 72). Then, using the equation (9), the correlation parameter C projected in the ρ direction
PRJ- ρ (θ, σ) is obtained (step 75 ′) and stored in the correlation parameter storage unit on the θ−σ plane (step 7).
6 '). Then, the correlation parameter C PRJ- ρ (θ, σ)
The polar conversion process is performed by the equation (34) (step 77 ′), and V
Find the peak point (intersection) on the x and Vy planes (step 78 ') and find the distance from the coordinate origin to this intersection.
The binocular parallax σ 0 and the distance D to the arbitrary figure are calculated based on the equations (37) and (38) (step 79 ′).

【0120】図53、図54はランダムドット図形の両
眼立体視によるシミュレーション結果説明図であり、左
右の眼に6画素異なるランダムドット図形を入力した場
合である。尚、このランダムドット図形はコンピュータ
で生成したランダムドット・ステレオグラムであり、1
ドット=1画素で描いてあり、密度は50%である。図
53において、IM,IM′はそれぞれ、左右眼の受容
野像、HCIM,HCIM′は各受容野像IM,IM′
に極変換処理を施し、該極変換結果に一次元フィルタリ
ング処理を施してρ−θの双対プレーンに写像したハイ
パーコラム像である。又、図54において、PRIMは
ハイパーコラム像間に相関処理を施し、得られた相関パ
ラメータC(ρ,θ,σ)をρ方向に投影したθ−σ平
面における相関パラメータCPRJ-ρ(θ,σ)、HGI
Mは相関パラメータCPRJ-ρ(θ,σ)に極変換処理を
施したVx,Vy平面上の極変換結果ある。θ−σ平面上
には、正弦波パターンSWVが現れており、又、Vx,
Vy平面上には原点より水平方向の6画素位置に鋭いピ
ークPKが抽出されている。このピーク点(Vx,Vy)
より(37),(38)式に基づいて両眼視差σ0、任意図形まで
の距離Dが計算できる。
FIG. 53 and FIG. 54 are explanatory diagrams of the simulation result of the random dot figure by binocular stereoscopic vision, in the case where the random dot figure different by 6 pixels is input to the left and right eyes. This random dot figure is a computer generated random dot stereogram.
The dot is drawn with one pixel, and the density is 50%. In FIG. 53, IM and IM ′ are receptive field images of the left and right eyes, and HCIM and HCIM ′ are receptive field images IM and IM ′.
Is a hyper-column image obtained by subjecting the result of the pole transformation to a two-dimensional plane of ρ-θ by subjecting the result of the pole transformation to one-dimensional filtering. Further, in FIG. 54, PRIM performs correlation processing between hypercolumn images, and the obtained correlation parameter C (ρ, θ, σ) is projected in the ρ direction, and the correlation parameter C PRJ- ρ (θ , Σ), HGI
M is a polar transformation result on the Vx and Vy planes obtained by subjecting the correlation parameter C PRJ- ρ (θ, σ) to the polar transformation process. A sine wave pattern SWV appears on the θ-σ plane, and Vx,
On the Vy plane, sharp peaks PK are extracted at 6 pixel positions in the horizontal direction from the origin. This peak point (Vx, Vy)
Thus, the binocular parallax σ 0 and the distance D to an arbitrary figure can be calculated based on the equations (37) and (38).

【0121】 ランダムドット・テクスチュアの両眼立体視 上述の置換(すなわちと同じ方法)で「ランダムドッ
ト図形やテクスチュア図形」の両眼立体視が可能とな
る。これにより細かい模様のある平面の両眼立体視を簡
単に行うことができる。これは、心理学者Julesz
により始めて証明された事実「形として判らないランダ
ムドット図形でも、我々は両眼立体視できる」の細胞レ
ベルでのモデルである。
Binocular Stereoscopic View of Random Dot Texture The above replacement (that is, the same method as above) enables binocular stereoscopic view of “random dot figure or texture figure”. As a result, it is possible to easily perform a binocular stereoscopic view of a plane having a fine pattern. This is psychologist Julesz
It is a model at the cell level of the fact that we can stereoscopically view binocular stereoscopic vision even if the shape is not known as random dots.

【0122】(d) 運動立体視 直線の運動立体視 移動対象物の速度と移動方向を求める方法は(b)で説明
した。同じ処理で、画像捕捉手段(カメラ等)が移動する
と空間内の直線までの距離(奥行き)を計測できる。すな
わち、(4)′式により相関パラメータC(ρ,θ,τ)
を求め、該相関パラメータのピーク点(ρP,θP
τP)を求めると、現画像(移動後の画像)と前の画像
(移動前の画像)での視差はτP・Δρで計算される。
直線の見える方向をξ、画像捕捉手段の移動速度をV
s、(4)′式の遅れをDELTAとすると、直線までの距離は
(38)式と同様に次式 D=(Vs・DELTA)・sin(τP・Δρ+ξ)/sin(τP・Δρ) (39) で計算できる。
(D) Motion stereoscopic vision Linear motion stereoscopic vision The method for obtaining the velocity and moving direction of the moving object has been described in (b). With the same processing, when the image capturing means (camera or the like) moves, the distance (depth) to a straight line in space can be measured. That is, the correlation parameter C (ρ, θ, τ) is calculated by the equation (4) ′.
And the peak points (ρ P , θ P ,
When τ P ) is obtained, the parallax between the current image (image after movement) and the previous image (image before movement) is calculated by τ P · Δρ.
Ξ is the direction in which the straight line is visible, and V is the moving speed of the image capturing means.
If the delay of s and (4) ′ is DELTA, the distance to the straight line is
(38) below and it can be calculated by similarly following equation D = (Vs · DELTA) · sin (τ P · Δρ + ξ) / sin (τ P · Δρ) (39).

【0123】図55は運動立体視により空間内の直線ま
での奥行きを計測するフロー図である。移動前の画像デ
ータを遅延し(ステップ49)、該移動前の画像データ
t(ρ,θ)と移動後の画像データat+DELTA(ρ+
τ,θ)をそれぞれ受容野像に分割し(ステップ50
a,50a′)、各受容野像IM,IM′に極変換処理
を施し(ステップ51a,51a′)、該極変換結果に
一次元フィルタリング処理を施して双対プレーンに写像
し(ステップ52a,52a′)、各双対プレーンに写
像されたデータ間に(4)′式の相関処理を施し(ステッ
プ53)、計算された相関パラメータC(ρ,θ,τ)
を相関パラメータ記憶部に記憶する(ステップ72)。
ついで、相関パラメータC(ρ,θ,τ)のピーク点
(ρP,θP,τP)を求め(ステップ73)、視差τP
Δρを用いて(39)式により空間内の直線までの奥行きを
計算する(ステップ91)。
FIG. 55 is a flow chart for measuring the depth to a straight line in space by stereoscopic motion. The image data before the movement is delayed (step 49), and the image data a t (ρ, θ) before the movement and the image data at t + DELTA (ρ +) after the movement are delayed.
(τ, θ) is divided into receptive field images (step 50).
a, 50a '), the receptive field images IM, IM' are subjected to a polar conversion process (steps 51a, 51a '), and the polar conversion result is subjected to a one-dimensional filtering process to be mapped to a dual plane (steps 52a, 52a). ′), The correlation processing of the equation (4) ′ is performed between the data mapped to each dual plane (step 53), and the calculated correlation parameter C (ρ, θ, τ)
Is stored in the correlation parameter storage unit (step 72).
Then, the peak point (ρ P , θ P , τ P ) of the correlation parameter C (ρ, θ, τ) is obtained (step 73), and the parallax τ P ·
Using Δρ, the depth to the straight line in the space is calculated by the equation (39) (step 91).

【0124】 任意図形の運動立体視 画像捕捉手段(カメラ等)が移動すると空間内の任意図形
までの距離(奥行き)を計測できる。すなわち、画像捕捉
手段が移動する前後の各画像に対して(b-3)で説明した
と同様の処理を施して、Vx,Vy平面におけるピーク点
を決定し、(35a),(35b)式により真の速度V0と移動方向
を計算する。図形の見える方向をξ、画像捕捉手段の移
動速度をVs、(4)′式の遅れをDELTAとすると、任意図
形までの距離は(38)式と同様に次式 D=(Vs・DELTA)・sin(V0・DELTA+ξ)/sin(V0・DELTA) (40) で計算できる。
Movement of arbitrary figure Moving stereoscopic image capturing means (camera, etc.) can measure the distance (depth) to an arbitrary figure in space. That is, the same processing as described in (b-3) is performed on each image before and after the image capturing means moves to determine the peak points on the Vx and Vy planes, and equations (35a) and (35b) are used. The true velocity V 0 and the moving direction are calculated by. Assuming that the viewing direction of the figure is ξ, the moving speed of the image capturing means is Vs, and the delay of the equation (4) ′ is DELTA, the distance to the arbitrary figure is the following equation D = (Vs · DELTA) as in the equation (38).・ Sin (V 0 · DELTA + ξ) / sin (V 0 · DELTA) (40) can be used for calculation.

【0125】図56は運動立体視により空間内の任意図
形までの奥行きを計測するフロー図である。移動前の画
像データを遅延し(ステップ49)、該移動前の画像デ
ータat(ρ,θ)と移動後の画像データat+DELTA(ρ
+τ,θ)をそれぞれ受容野像に分割し(ステップ50
a,50a′)、各受容野像IM,IM′に極変換処理
を施し(ステップ51a,51a′)、該極変換結果に
一次元フィルタリング処理を施して双対プレーンに写像
し(ステップ52a,52a′)、各双対プレーンに写
像されたデータ間に(4)′式の相関処理を施し(ステッ
プ53)、計算された相関パラメータC(ρ,θ,τ)
を相関パラメータ記憶部に記憶する(ステップ72)。
ついで、(10)式により、ρ方向に投影した相関パラメー
タCPRJ-ρ(θ,τ)を求め(ステップ75)、θ−τ
平面の相関パラメータ記憶部に記憶する(ステップ7
6)。ついで、相関パラメータCPRJ-ρ(θ,τ)に(3
4)式により極変換処理を施し(ステップ77)、Vx,V
y平面上におけるピーク点(交点)を求め(ステップ7
8)、(35a),(35b)式に基づいて真の速度V0、真の方向
Φ0を演算する(ステップ79)。最後に、(40)式に基
づいて任意図形までの奥行きを計算する。
FIG. 56 is a flow chart for measuring the depth up to an arbitrary figure in space by motion stereoscopic vision. The image data before the movement is delayed (step 49), and the image data a t (ρ, θ) before the movement and the image data at + DELTA (ρ) after the movement are delayed.
+ Τ, θ) is divided into receptive field images (step 50).
a, 50a '), the receptive field images IM, IM' are subjected to a polar conversion process (steps 51a, 51a '), and the polar conversion result is subjected to a one-dimensional filtering process to be mapped to a dual plane (steps 52a, 52a). ′), The correlation processing of the equation (4) ′ is performed between the data mapped to each dual plane (step 53), and the calculated correlation parameter C (ρ, θ, τ)
Is stored in the correlation parameter storage unit (step 72).
Then, the correlation parameter C PRJ- ρ (θ, τ) projected in the ρ direction is obtained from the equation (10) (step 75), and θ−τ
The data is stored in the plane correlation parameter storage unit (step 7).
6). Then, the correlation parameter C PRJ- ρ (θ, τ) is set to (3
The polar conversion process is performed according to equation (4) (step 77), and Vx, V
Find the peak point (intersection) on the y-plane (Step 7
8), the true velocity V 0 and the true direction Φ 0 are calculated based on the equations (35a) and (35b) (step 79). Finally, the depth to the arbitrary figure is calculated based on the equation (40).

【0126】(e) 一般化 以上を一般化すると、本発明の相関処理方式は図57に
示すように一般化できる。すなわち、入力データに極変
換処理を施してρ−θの双対プレーンに写像し(ステッ
プ501)、極変換により得られたデータa(ρ,θ)
に新しいパラメータの追加処理、相関処理、任意
パラメータでの投影又は極変換処理(00または900
向の投影は極変換と同じ)を施し、これにより、平面上
では正弦波状の発火パターンを含むデータa(ξ1
ξ2,・・・)を得、あるいは球面上では大円の発火パ
ターンを含むデータを得(ステップ502)、該データ
に含まれる正弦波状または大円の発火パターンを逆極変
換処理により抽出して有用なデータを出力する(ステッ
プ503)。尚、(1),(4)式では「新しいパラメータσ又
はτを追加」して「相関処理」を行っている。又、(9),(1
0)式では「パラメータρに沿った投影」をしている。更
に、(19)式ではρσ平面における450方向の投影を行
っており、この投影は「(ρ,σ)プレーンを極変換」
して450方向成分を取り出したのと同じである。
(E) Generalization By generalizing the above, the correlation processing method of the present invention can be generalized as shown in FIG. That is, the input data is subjected to a polar conversion process and mapped to a dual plane of ρ-θ (step 501), and the data a (ρ, θ) obtained by the polar conversion is obtained.
Is subjected to new parameter addition processing, correlation processing, projection with arbitrary parameters, or polar transformation processing (projection in the 0 0 or 90 0 directions is the same as polar transformation), and as a result, a sinusoidal firing pattern is included on the plane. Data a (ξ 1 ,
ξ 2 , ...) or data including a firing pattern of a great circle on a spherical surface (step 502), and the firing pattern of a sine wave or a great circle included in the data is extracted by inverse pole transformation processing. And useful data is output (step 503). In addition, in the equations (1) and (4), "addition of a new parameter σ or τ" is performed for "correlation processing". Also, (9), (1
In the equation (0), “projection along the parameter ρ” is performed. Furthermore, in equation (19), projection in the 45 0 direction on the ρσ plane is performed, and this projection is “polar transformation of the (ρ, σ) plane”.
And the 45 0 direction component is extracted.

【0127】(b-2),(b-3)において説明した移動方向と
速度の計測においては、時間的に異なる2つの画面デー
タに極変換処理を施してρ−θの双対プレーンにおける
データa(ρ,θ)、b(ρ,θ)を求める(ステップ
501)。ついで、ρ軸方向の移動速度パラメータτを
導入して(4)式により相関処理を行い、相関処理により
得られた相関パラメータC(ρ,θ,τ)を(10)式によ
りρ方向に投影して正弦波状の発火パターン(図40、
図41参照)を含む投影データCPRJ-ρ(θ,τ)を求
める(ステップ502)。しかる後、投影データCPRJ-
ρ(θ,τ)に逆極変換処理を施して正弦波状の発火パ
ターン(極大点を与えるポイント)を抽出して有用なデ
ータ(移動方向と速度)を出力する(ステップ50
3)。正弦波状の発火パターンを抽出する「逆極変換」
を式で表現すると次のようになる。すなわち、δ( )を
デルタ関数、τX,τYをX,Y軸方向の速度パラメータ
とすると、 出力(τX,τY)=ΣθΣτ{CPRJ-ρ(θ,τ)・δ
(τ+τXcosθ+τYsinθ)} と表現できる。デルタ関数δ( )は0の所だけが意味を
有するから、上式を変形すると 出力(τX,τY)=Σθ{CPRJ-ρ(θ,-τXcosθ-τ
Ysinθ)} となり、逆極変換の内容が良く判る。実施例ではこの計
算を行っている。
In the measurement of the moving direction and the velocity described in (b-2) and (b-3), the polar conversion processing is performed on two screen data which are different in time, and the data a in the dual plane of ρ−θ is obtained. (Ρ, θ) and b (ρ, θ) are obtained (step 501). Next, the moving speed parameter τ in the ρ-axis direction is introduced, the correlation processing is performed by the equation (4), and the correlation parameter C (ρ, θ, τ) obtained by the correlation processing is projected in the ρ direction by the equation (10). And a sinusoidal firing pattern (Fig. 40,
Projection data C PRJ- ρ (θ, τ) including (see FIG. 41) is obtained (step 502). After that, projection data C PRJ-
Reverse polarity conversion processing is performed on ρ (θ, τ) to extract a sinusoidal firing pattern (point giving a maximum point) and useful data (moving direction and velocity) is output (step 50).
3). "Inverse pole transformation" to extract sinusoidal firing patterns
When is expressed as an expression, it becomes as follows. That is, when δ () is a delta function and τ X and τ Y are velocity parameters in the X and Y axis directions, output (τ X , τ Y ) = ΣθΣτ {C PRJ− ρ (θ, τ) · δ
It can be expressed as (τ + τ X cos θ + τ Y sin θ)}. Since the delta function δ () has meaning only at 0, the output (τ X , τ Y ) = Σθ {C PRJ- ρ (θ, X cos θ-τ
Y sin θ)}, and the contents of the inverse pole transformation are well understood. This calculation is performed in the embodiment.

【0128】又、(c)において説明した両眼立体視の計
測においては、両眼で捕らえられた2つの画面データに
極変換処理を施してρ−θの双対プレーンにおけるデー
タL(ρ,θ)、R(ρ,θ)を求める(ステップ50
1)。ついで、ρ軸方向の視差σを導入して(1)式により
相関処理を行い、相関処理により得られた相関パラメー
タC(ρ,θ,σ)を(9)式によりρ方向に投影して正
弦波状の発火パターン(図50参照)を含む投影データ
PRJ-ρ(θ,σ)を求める(ステップ502)。しか
る後、投影データCPRJ-ρ(θ,σ)に逆極変換処理を
施して正弦波状の発火パターン(極大点を与えるポイン
ト)を抽出して有用なデータ(視差)を出力する(ステ
ップ503)。正弦波状の発火パターンを抽出する「逆
極変換」を式で表現すると次のようになる。すなわち、
δ( )をデルタ関数、σX,σYをX,Y軸方向の視差パ
ラメータとすると、 出力(σX,σY)=ΣθΣσ{CPRJ-ρ(θ,σ)・δ
(σ+σXcosθ+σYsinθ)} と表現できる。デルタ関数δ( )は0の所だけが意味を
有するから、上式を変形すると 出力(σX,σY)=Σθ{CPRJ-ρ(θ,-σXcosθ-σ
Ysinθ)} となる。実施例ではこの計算を行っている。
Further, in the measurement of binocular stereoscopic vision described in (c), the polar conversion processing is performed on the two screen data captured by both eyes, and the data L (ρ, θ) in the dual plane of ρ−θ is obtained. ), R (ρ, θ) is calculated (step 50
1). Then, the parallax σ in the ρ-axis direction is introduced, the correlation processing is performed by the equation (1), and the correlation parameter C (ρ, θ, σ) obtained by the correlation processing is projected in the ρ direction by the equation (9). Projection data C PRJ- ρ (θ, σ) including a sinusoidal firing pattern (see FIG. 50) is obtained (step 502). Thereafter, the projection data C PRJ- ρ (θ, σ) is subjected to inverse pole conversion processing to extract a sinusoidal firing pattern (point giving a maximum point) and useful data (parallax) is output (step 503). ). The "reverse pole transformation" for extracting a sinusoidal firing pattern is expressed as follows. That is,
When δ () is a delta function and σ X and σ Y are parallax parameters in the X and Y axis directions, output (σ X , σ Y ) = ΣθΣσ {C PRJ− ρ (θ, σ) · δ
It can be expressed as (σ + σ X cos θ + σ Y sin θ)}. Since the delta function δ () has meaning only at 0, if the above equation is transformed, the output (σ X , σ Y ) = Σθ {C PRJ- ρ (θ, X cos θ-σ
Y sin θ)}. This calculation is performed in the embodiment.

【0129】以上では図57のステップ502におい
て、相関処理等を行って正弦波状の発火パターンを得る
ものであるが、相関処理等を施さなくても極変換のみで
正弦波状の発火パターンを得ることができる場合があ
る。かかる場合には、ステップ502において、ステッ
プ501の極変換により得られた(ρ,θ)データにシ
フトあるいは回転などの変換処理を施し、変換処理によ
り得られた(ρ,θ)データにステップ503の逆極変
換処理を施して正弦波状の発火パターン(極大点を与え
るポイント)を抽出すれば有用なデータを出力できる。
例えば、図58(a)に示す半径Rの円を極変換すると、
(b)に示すようにρ方向にRだけシフトした正弦波が得
られる。この正弦波は、円の中心を(x0,y0)とする
と ρ=R−β0cos(θ−α0) (41) β0=√(x0 2+y0 2) α0=arctan(x0/y0) となる。従って、極変換により得られたデータをρ方向
にRだけシフトし、シフト処理により得られたデータa
(θ,σ)に逆極変換処理を施して正弦波状の発火パタ
ーン(極大点を与えるポイント)を抽出すれば、円中心
を出力することができる(ステップ503)。
In the above, in step 502 of FIG. 57, correlation processing or the like is performed to obtain a sinusoidal firing pattern. However, without performing correlation processing or the like, a sinusoidal firing pattern can be obtained only by polar conversion. May be possible. In such a case, in step 502, conversion processing such as shift or rotation is performed on the (ρ, θ) data obtained by the pole conversion in step 501, and the (ρ, θ) data obtained by the conversion processing is subjected to step 503. Useful data can be output by performing the inverse pole conversion process of and extracting the sine wave-shaped firing pattern (point giving the maximum point).
For example, if the circle of radius R shown in FIG.
As shown in (b), a sine wave shifted by R in the ρ direction is obtained. This sine wave has the center of the circle as (x 0 , y 0 ). Ρ = R−β 0 cos (θ−α 0 ) (41) β 0 = √ (x 0 2 + y 0 2 ) α 0 = arctan (x 0 / y 0 ). Therefore, the data obtained by the polar transformation is shifted by R in the ρ direction, and the data a obtained by the shift processing is
The center of the circle can be output by subjecting (θ, σ) to inverse polarity conversion processing to extract a sine-wave firing pattern (point giving a maximum point) (step 503).

【0130】図59は円検出のシュミレーション結果説
明図であり、白紙に描いた黒い円にラプラシアンフィル
タ処理を施して入力画像データとし、該入力画像を受容
野像に分割し、受容野像に極変換処理を施して正弦波状
の発火パターンを有するρ−θプレーンにおける(ρ,
θ)データを得、ついで、(ρ,θ)データをρ方向に
Rだけシフトし、シフト処理により得られたデータを逆
極変換したものである。尚、発火の強さを等高線で表
し、正部分を網かけで区別している。図59(b)におい
て極変換により平行する2本の正弦波SN1,SN2が
得られるのは、ハイパーコラムの生理学的な知見「方位
θは0〜πの範囲」を考慮して、(41)式のπ〜2πの範
囲をρの負側に反転しているためである。図59(d)よ
り明らかなように、一方の正弦波は円の中心に対応して
鋭い"負のピークPK"として発火し、もう一方の正弦波
は半径が2Rの弱いリングRGとして発火している。以
上、本発明を実施例により説明したが、本発明は請求の
範囲に記載した本発明の主旨に従い種々の変形が可能で
あり、本発明はこれらを排除するものではない。
FIG. 59 is a diagram for explaining a simulation result of circle detection. A black circle drawn on a white paper is subjected to Laplacian filter processing to obtain input image data, and the input image is divided into receptive field images to obtain a receptive field image. In the ρ-θ plane that has a sinusoidal firing pattern after the conversion process, (ρ,
θ) data is obtained, then the (ρ, θ) data is shifted by R in the ρ direction, and the data obtained by the shift processing is subjected to reverse polarity conversion. The intensity of ignition is represented by contour lines, and the positive part is shaded. In FIG. 59 (b), two parallel sine waves SN1 and SN2 are obtained by the polar transformation, considering the hypercolumn physiological knowledge “azimuth θ is in the range of 0 to π” (41). This is because the range of π to 2π in the formula is inverted to the negative side of ρ. As is clear from FIG. 59 (d), one sine wave fires as a sharp "negative peak PK" corresponding to the center of the circle, and the other sine wave fires as a weak ring RG with a radius of 2R. ing. Although the present invention has been described above with reference to the embodiments, the present invention can be variously modified according to the gist of the present invention described in the claims, and the present invention does not exclude these.

【0131】[0131]

【発明の効果】以上本発明によれば、入力データに対し
て極変換処理を施して双対プレーンに写像し、あるい
は、極変換処理結果に対して更にフィルタ処理を施して
それぞれ双対プレーンに写像し、しかる後、双対プレー
ン上における写像データ間に相関処理を施して入力デー
タの図形的特徴(例えば接線)間の関係を規定する変数
を計測するように構成したから、複数図形の対応部分の
決定を簡単に、しかも少ない処理量で正確に行うことが
でき、両眼立体視の機能(視差、奥行き計測、対象物の
移動速度、移動方向の計測等)を実現できる。又、本発
明によれば、1画面を小領域である受容野に分割した時
の受容野画像に対して極変換処理、フィルタ処理、相関
処理を行うように構成したから、処理量を著しく減少で
きる。
As described above, according to the present invention, the polar transformation processing is performed on the input data to map it to the dual plane, or the polar transformation processing result is further filtered and mapped to the dual plane. After that, it is configured to measure the variables that define the relationship between the graphical features (eg, tangents) of the input data by performing correlation processing between the mapping data on the dual plane, and thus determining the corresponding parts of multiple graphics. Can be performed easily and accurately with a small amount of processing, and a binocular stereoscopic function (parallax, depth measurement, moving speed of an object, measurement of moving direction, etc.) can be realized. Further, according to the present invention, the polar conversion processing, the filter processing, and the correlation processing are performed on the receptive field image when one screen is divided into receptive fields which are small areas, so that the processing amount is remarkably reduced. it can.

【0132】更に、本発明によれば、受容野像が2又は
3つのカメラにより捕捉した異なる画面に属する場合に
は、両眼立体視、三眼立体視の機能を実現でき、しかも
受容野像が時間的に異なる画面に属する場合には、受容
野内に写る特徴(線、コーナ等)の移動方向や移動速度
を計測できる。このため、対象物を視野の中心に捉えた
まま移動することが可能となり、移動ロボットや無人自
走車などへの応用が可能と成る。また、各受容野像がそ
れぞれカメラ等の画像捕捉手段を移動させた時の移動前
後の画面に属する場合には、運動立体視の機能を実現で
き対象物までの奥行きを計測できる。又、本発明によれ
ば、各受容野像を同じ画面の異なる受容野の画像とし、
あるいは同一受容野像とすることにより、1つの画面内
での同じ模様の程度を調べるテクスチュア解析などを行
うことができる。
Further, according to the present invention, when the receptive field image belongs to different screens captured by two or three cameras, the functions of binocular stereoscopic vision and trinocular stereoscopic vision can be realized, and the receptive field image can be realized. If the images belong to different screens in time, the moving direction and moving speed of the features (lines, corners, etc.) appearing in the receptive field can be measured. Therefore, it becomes possible to move while keeping the object in the center of the field of view, and it is possible to apply it to a mobile robot or an unmanned self-propelled vehicle. Further, when each receptive field image belongs to the screen before and after the movement when the image capturing means such as the camera is moved, the function of motion stereoscopic vision can be realized and the depth to the object can be measured. Further, according to the present invention, each receptive field image is an image of a different receptive field on the same screen,
Alternatively, by using the same receptive field image, it is possible to perform texture analysis for examining the degree of the same pattern on one screen.

【0133】更に、本発明によれば、複数の受容野像間
での相関処理を同一色毎に、あるいは色の差信号毎に、
あるいは色の三要素毎に行うようにしたから、両眼立体
視や移動物体注視やテクスチュア解析を更に確実に行う
ことができる。又、本発明によれば、極変換後に一次元
ガウシャンフィルタ処理を施すことにより、あるいは極
変換処理の前に2次元ガウシャンフィルタ処理を施すこ
とにより、複数図形における対応する線あるいは隙間を
求めることができ、また極変換後に一次元グラディエン
トフィルタ処理と一次元ガウシャンフィルタ処理を施す
ことにより、あるいは極変換処理の前に2次元ガウシャ
ンフィルタ処理を施し、極変換処理後に一次元グラディ
エントフィルタ処理を施すことにより、複数図形におけ
る対応する縁を求めることができ、更にはこれら図形要
素の位置や、方位、視差、移動方向、移動速度を求める
ことができる。
Further, according to the present invention, the correlation processing between a plurality of receptive field images is performed for each same color or for each color difference signal.
Alternatively, since it is performed for each of the three color elements, it is possible to more reliably perform binocular stereoscopic vision, moving object gaze, and texture analysis. Further, according to the present invention, the corresponding line or gap in a plurality of figures is obtained by performing one-dimensional Gaussian filter processing after the pole conversion or by performing two-dimensional Gaussian filter processing before the pole conversion processing. It is also possible to perform one-dimensional gradient filter processing and one-dimensional Gaussian filter processing after the pole transformation, or two-dimensional Gaussian filter processing before the pole transformation processing and one-dimensional gradient filter processing after the pole transformation processing. By carrying out, it is possible to obtain the corresponding edges in the plurality of figures, and further it is possible to obtain the positions, orientations, parallaxes, moving directions, and moving speeds of these figure elements.

【0134】更に、本発明によれば、複数の受容野像が
空間的に異なる画面に属する場合、θ軸方向の相関パラ
メータCθ(ρ,θ,σ)を演算することにより、ある
いは、(ρ,θ)プレーンの相関パラメータC(ρ,
θ,σ1,σ2)を演算することにより方位を変えながら
移動する接線の抽出が可能となる。又、本発明によれ
ば、複数の画像データの各受容野が時間的に異なる画面
に属する場合、ρ軸方向の相関パラメータC(ρ,θ,
τ)を演算することにより、平行移動する接線の位置、
方位、速度を定量的に求めることができ、また、θ軸方
向の相関パラメータCθ(ρ,θ,τ)を演算すること
により、受容野中心を通る接線の位置、方位、方位回転
速度を定量的に求めることができ、更に、(ρ,θ)プ
レーンの相関パラメータC(ρ,θ,τ1,τ2)を演算
することにより、方向を変えながら移動する接線の位
置、方位、移動速度、回転速度を定量的計測できる。
Furthermore, according to the present invention, when a plurality of receptive field images belong to spatially different screens, the correlation parameter Cθ (ρ, θ, σ) in the θ axis direction is calculated, or (ρ , Θ) plane correlation parameter C (ρ,
By calculating θ, σ 1 , σ 2 ) it becomes possible to extract the tangent line that moves while changing the azimuth. Further, according to the present invention, when the receptive fields of the plurality of image data belong to different screens in terms of time, the correlation parameter C (ρ, θ,
By calculating τ), the position of the tangent line that moves in parallel,
The azimuth and velocity can be quantitatively obtained, and the position, azimuth, and azimuth rotation velocity of the tangent line passing through the receptive field center can be quantified by calculating the correlation parameter Cθ (ρ, θ, τ) in the θ-axis direction. By further calculating the correlation parameter C (ρ, θ, τ 1 , τ 2 ) of the (ρ, θ) plane, the position, azimuth, and moving speed of the tangent line that moves while changing the direction. The rotation speed can be measured quantitatively.

【0135】更に、本発明によれば、相関パラメータC
(ρ,θ,σ)を空間的シフト量σを示すσ軸方向に投
影し、あるいは接線位置を示すρ軸方向に投影し、ある
いは接線方向を示すθ軸方向に投影し、あるいはこれら
任意の2軸方向に投影することにより、相関パラメータ
を記憶するメモリ容量を1軸分あるいは2軸分減少で
き、しかも、投影方向を選択することにより接線の位
置、視差、方位等のうち所望の値を得ることができる。
又、本発明によれば、相関パラメータC(ρ,θ,τ)
を時間的シフト量(移動速度)τを示すτ軸方向に投影
し、あるいは接線位置を示すρ軸方向に投影し、あるい
は接線方向を示すθ軸方向に投影し、あるいはこれら任
意の2軸方向に投影することにより、相関パラメータを
記憶するメモリ容量を1軸分あるいは2軸分減少でき、
しかも、投影方向を選択することにより接線の位置、方
位、平行移動速度、回転速度等のうち所望の値を得るこ
とができる。
Furthermore, according to the present invention, the correlation parameter C
(Ρ, θ, σ) is projected in the σ-axis direction indicating the spatial shift amount σ, in the ρ-axis direction indicating the tangent position, or in the θ-axis direction indicating the tangential direction, or By projecting in the two-axis direction, the memory capacity for storing the correlation parameter can be reduced by one axis or two axes, and moreover, by selecting the projection direction, a desired value of the tangent position, parallax, azimuth, etc. can be obtained. Obtainable.
Further, according to the present invention, the correlation parameter C (ρ, θ, τ)
Is projected in the τ-axis direction indicating the temporal shift amount (moving speed) τ, in the ρ-axis direction indicating the tangent position, or in the θ-axis direction indicating the tangential direction, or in any of these two axis directions. , The memory capacity for storing the correlation parameter can be reduced by one or two axes,
Moreover, by selecting the projection direction, it is possible to obtain a desired value among the tangent line position, azimuth, parallel movement speed, rotation speed, and the like.

【0136】更に、本発明によれば、受容野像に対して
極変換処理を施してρ−θの双対プレーンに写像し、該
双対プレーンの写像データa(ρ,θ)と、別の双対プ
レーンに設定されている写像データb(ρ,θ)のうち
ρ軸方向に座標値が所定量ずれている組を取り出し、そ
の積和を演算することにより的確なフィルタリングを行
うことができ、「左右の目で同じに見える特徴の抽出」
や「前の画像と同じ特徴の追跡」等を行う際に適用して
好適である。又、本発明によれば、双対プレーンの写像
データa(ρ,θ)に対して、他の写像データb(ρ,
θ)をρ軸方向あるいはθ軸方向にシフトさせた後に減
算すると共に、順次、該シフト量を変化させて減算し、
得られた減算結果を相関パラメータとすることにより、
輪郭が不明瞭な物体の両眼立体視や追尾を、明るさや色
合いのゆるい変化などを手掛かりにして行うことができ
る。
Further, according to the present invention, the receptive field image is subjected to the polar transformation process to be mapped on the dual plane of ρ−θ, and the mapping data a (ρ, θ) of the dual plane and another dual plane. Precise filtering can be performed by extracting a set of coordinate data that is deviated by a predetermined amount in the ρ-axis direction from the mapping data b (ρ, θ) set in the plane, and calculating the sum of the products, Extraction of features that look the same with the left and right eyes "
It is suitable to be applied when performing “tracking the same feature as the previous image” or the like. Further, according to the present invention, for the mapping data a (ρ, θ) of the dual plane, another mapping data b (ρ,
θ) is shifted in the ρ-axis direction or the θ-axis direction and then subtracted, and the shift amount is sequentially changed and subtracted,
By using the obtained subtraction result as a correlation parameter,
It is possible to perform binocular stereoscopic vision and tracking of an object with an unclear contour by using a gradual change in brightness or hue as a clue.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理説明図である。FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】本発明の両眼立体視の原理説明図である。FIG. 2 is a diagram illustrating the principle of binocular stereoscopic vision according to the present invention.

【図3】球面写像(球面の極変換)説明図である。FIG. 3 is an explanatory diagram of a spherical mapping (polar conversion of a spherical surface).

【図4】円筒上の極変換説明図である。FIG. 4 is an explanatory diagram of pole conversion on a cylinder.

【図5】受容野法の原理説明図である。FIG. 5 is an explanatory view of the principle of the receptive field method.

【図6】ハイパーコラム内の極変換説明図である。FIG. 6 is an explanatory diagram of pole conversion in a hyper column.

【図7】本発明の実施例構成図である。FIG. 7 is a configuration diagram of an embodiment of the present invention.

【図8】相関処理の流れ図である。FIG. 8 is a flowchart of correlation processing.

【図9】極変換回路の構成図である。FIG. 9 is a configuration diagram of a pole conversion circuit.

【図10】一次元フィルタの構成図である。FIG. 10 is a configuration diagram of a one-dimensional filter.

【図11】シミュレーション結果を説明する第1の説明
図である。
FIG. 11 is a first explanatory diagram illustrating a simulation result.

【図12】シミュレーション結果を説明する第2の説明
図である。
FIG. 12 is a second explanatory diagram illustrating a simulation result.

【図13】シミュレーション結果を説明する第3の説明
図である。
FIG. 13 is a third explanatory diagram illustrating a simulation result.

【図14】相関フィルタリングの基本フロー図である。FIG. 14 is a basic flow chart of correlation filtering.

【図15】空間的に異なる画面間の相関フィルタリング
のフロー図である。
FIG. 15 is a flowchart of correlation filtering between spatially different screens.

【図16】時間的に異なる画面間の相関フィルタリング
のフロー図である。
FIG. 16 is a flowchart of correlation filtering between screens that are temporally different.

【図17】時間的及び空間的にに異なる画面間の相関フ
ィルタリングのフロー図である。
FIG. 17 is a flow diagram of correlation filtering between screens that differ temporally and spatially.

【図18】同一画面の受容野間の相関フィルタリングの
フロー図である。
FIG. 18 is a flowchart of correlation filtering between receptive fields on the same screen.

【図19】同一画面、同一受容野内の相関フィルタリン
グのフロー図である。
FIG. 19 is a flowchart of correlation filtering within the same screen and within the same receptive field.

【図20】異なる色画像(三原色)間の相関フィルタリ
ングのフロー図である。
FIG. 20 is a flowchart of correlation filtering between different color images (three primary colors).

【図21】異なる色画像(色の三要素)間の相関フィル
タリングのフロー図である。
FIG. 21 is a flowchart of correlation filtering between different color images (three color elements).

【図22】異なる色画像(色の差信号)間の相関フィル
タリングのフロー図である。
FIG. 22 is a flow chart of correlation filtering between different color images (color difference signals).

【図23】θが同一のρ軸相関フィルタリングのフロー
図である。
FIG. 23 is a flowchart of ρ-axis correlation filtering with the same θ.

【図24】θが異なるρ軸相関フィルタリングのフロー
図である。
FIG. 24 is a flowchart of ρ-axis correlation filtering with different θ.

【図25】θ方向相関の説明図である。FIG. 25 is an explanatory diagram of θ-direction correlation.

【図26】ρが同一のθ軸相関フィルタリングのフロー
図である。
FIG. 26 is a flowchart of θ-axis correlation filtering with the same ρ.

【図27】ρ−θプレーンでの相関フィルタリングのフ
ロー図である。
FIG. 27 is a flowchart of correlation filtering on the ρ-θ plane.

【図28】相関パラメータ空間説明図である。FIG. 28 is an explanatory diagram of a correlation parameter space.

【図29】相関パラメータを投影するフィルタリング処
理の全体のフロー図である。
FIG. 29 is an overall flowchart of filtering processing for projecting a correlation parameter.

【図30】相関パラメータをσ方向に投影する処理の流
れ図である。
FIG. 30 is a flowchart of a process of projecting a correlation parameter in the σ direction.

【図31】自然フィルタの構成図である。FIG. 31 is a configuration diagram of a natural filter.

【図32】差タイプの相関処理の流れ図である。FIG. 32 is a flowchart of difference type correlation processing.

【図33】線抽出フィルタの各種構成図である。FIG. 33 is a diagram showing various configurations of a line extraction filter.

【図34】縁抽出フィルタの各種構成図である。FIG. 34 is a diagram showing various configurations of an edge extraction filter.

【図35】隙間抽出フィルタの各種構成図である。FIG. 35 is a diagram showing various configurations of a gap extraction filter.

【図36】シミュレーション結果を示す第1の説明図
(縁の両眼立体視)である。
FIG. 36 is a first explanatory diagram (binocular stereoscopic view of edges) showing simulation results.

【図37】シミュレーション結果を示す第2の説明図
(縁の両眼立体視)である。
FIG. 37 is a second explanatory diagram (a binocular stereoscopic view of edges) showing a simulation result.

【図38】接線の移動方向と速度説明図である。FIG. 38 is an explanatory diagram of a moving direction and speed of a tangent line.

【図39】移動方向と移動速度を計測するフロー図であ
る。
FIG. 39 is a flowchart for measuring a moving direction and a moving speed.

【図40】コーナの移動方向と速度検出説明図である。FIG. 40 is an explanatory diagram of detecting a moving direction of a corner and speed.

【図41】多角形に対するCPRJ-ρ(θ,τ)の応答説
明図である。
FIG. 41 is an explanatory diagram of a response of C PRJ- ρ (θ, τ) to a polygon.

【図42】逆ハフ変換による正弦波の抽出説明図であ
る。
FIG. 42 is an explanatory diagram of extracting a sine wave by inverse Hough transform.

【図43】移動方向と移動速度を計測するフロー図であ
る。
FIG. 43 is a flow chart for measuring a moving direction and a moving speed.

【図44】ランダムドット図形からの極変換説明図であ
る。
FIG. 44 is an explanatory diagram of polar conversion from a random dot figure.

【図45】ランダムドット図形の移動方向・速度計測に
おけるシミュレーション結果説明図である。
FIG. 45 is a diagram illustrating a simulation result in measuring the moving direction / velocity of a random dot figure.

【図46】ランダムドット図形の移動方向・速度計測に
おけるシミュレーション結果説明図である。
FIG. 46 is a diagram illustrating a simulation result in measuring the moving direction / velocity of a random dot figure.

【図47】シミュレーション結果説明図(線の移動方向
・速度)である。
FIG. 47 is an explanatory diagram of a simulation result (movement direction / speed of a line).

【図48】シミュレーション結果説明図(縁の移動方向
・速度)である。
FIG. 48 is an explanatory diagram of simulation results (edge moving direction / velocity).

【図49】線のずれ量と視差の関係説明図である。[Fig. 49] Fig. 49 is an explanatory diagram of a relationship between a line shift amount and parallax.

【図50】任意図形の両眼立体視の説明図である。FIG. 50 is an explanatory diagram of binocular stereoscopic vision of an arbitrary figure.

【図51】両眼立体視による距離演算法説明図である。FIG. 51 is an explanatory diagram of a distance calculation method by binocular stereoscopic vision.

【図52】両眼立体視による視差・距離演算フロー図で
ある。
[Fig. 52] Fig. 52 is a parallax / distance calculation flowchart for binocular stereoscopic vision.

【図53】ランダムドット図形の両眼立体視によるシミ
ュレーション結果説明図である。
[Fig. 53] Fig. 53 is an explanatory diagram of a simulation result by binocular stereoscopic vision of a random dot figure.

【図54】ランダムドット図形の両眼立体視によるシミ
ュレーション結果説明図である。
FIG. 54 is an explanatory diagram of a simulation result by binocular stereoscopic vision of a random dot figure.

【図55】運動立体視による直線までの奥行き演算フロ
ー図である。
[Fig. 55] Fig. 55 is a flow chart of depth calculation up to a straight line in motion stereoscopic vision.

【図56】運動立体視による任意図形までの奥行き演算
フロー図である。
FIG. 56 is a depth calculation flow chart up to an arbitrary figure by motion stereoscopic vision.

【図57】一般化した場合のフロー図である。FIG. 57 is a flowchart in the case of generalization.

【図58】円検出の説明図である。FIG. 58 is an explanatory diagram of circle detection.

【図59】円検出のシミュレーション結果説明図であ
る。
FIG. 59 is a diagram illustrating a simulation result of circle detection.

【図60】両眼立体視の問題点説明図である。FIG. 60 is a diagram illustrating a problem of binocular stereoscopic vision.

【図61】両眼立体視の奥行き計算説明図である。FIG. 61 is an explanatory diagram of depth calculation for binocular stereoscopic vision.

【符号の説明】[Explanation of symbols]

14,24・・極変換部 16,26・・一次元フィルタ 17,27・・ρ−θの双対プレーン(ハイパーコラム
メモリ) 30・・相関処理部
14, 24 ·· Pole conversion unit 16, 26 ·· One-dimensional filter 17, 27 · · Dual plane of ρ-θ (hyper column memory) 30 · · Correlation processing unit

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】 入力データに極変換処理を施してρ−θ
の双対プレーンに写像し、 極変換により得られた(ρ,θ)データに新しいパラメ
ータの追加処理、相関処理、任意パラメータでの投影又
は極変換処理を施して、平面上では正弦波状の発火パタ
ーンを含むデータを、球面上では大円の発火パターンを
得、 該データに含まれる正弦波状または大円の発火パターン
を逆極変換処理により抽出して有用なデータを求めるこ
とを特徴とする相関処理方式。
1. ρ−θ obtained by subjecting input data to a polar conversion process.
Is mapped to the dual plane of and the (ρ, θ) data obtained by the polar transformation is subjected to additional processing of new parameters, correlation processing, projection with arbitrary parameters, or polar transformation processing, and a firing pattern with a sine wave shape on the plane. Correlation processing characterized by obtaining a firing pattern of a great circle on a sphere, and extracting a firing pattern of a sine wave or a great circle included in the data by inverse pole transformation processing to obtain useful data. method.
【請求項2】 複数の入力データに対してそれぞれ極変
換処理を施してρ−θの双対プレーンに写像し、あるい
は極変換処理結果に対して更にフィルタ処理を施してそ
れぞれρ−θの双対プレーンに写像し、 各双対プレーンに写像されたデータ間に相関処理を施
し、 相関結果に基づいて各入力データの図形的特徴の間の関
係を求めることを特徴とする相関処理方式。
2. A plurality of input data are each subjected to a polar conversion process and mapped to a ρ-θ dual plane, or a polar conversion result is further filtered to obtain a ρ-θ dual plane. The correlation processing method is characterized by performing a correlation process on the data mapped on each dual plane and determining the relationship between the graphical features of each input data based on the correlation result.
【請求項3】 前記入力データは1画面を小領域である
受容野毎に分割した時の受容野に応じた画像データであ
ることを特徴とする請求項2記載の相関処理方式。
3. The correlation processing method according to claim 2, wherein the input data is image data corresponding to a receptive field when one screen is divided into receptive fields which are small areas.
【請求項4】 複数の入力データに対してそれぞれ極変
換処理を施してρ−θの双対プレーンに写像し、あるい
は極変換処理結果に対して更にフィルタ処理を施してそ
れぞれρ−θの双対プレーンに写像し、 写像データの双対プレーン上における位置(ρ,θ)及
び写像データ間のシフト量を要素パラメータとして相関
処理を行って相関結果を求め、 これら相関結果のうち特徴的な値を有する点を求め、 該特徴的な相関結果を与える要素パラメータの値に基づ
いて各入力データの図形的特徴の間の関係を規定する変
数を計測することを特徴とする相関処理方式。
4. A plurality of input data are each subjected to a polar conversion process and mapped to a ρ-θ dual plane, or a polar conversion process result is further filtered to obtain a ρ-θ dual plane. , The position of the mapping data on the dual plane (ρ, θ) and the shift amount between the mapping data are used as element parameters to perform correlation processing to obtain the correlation result. And a variable that defines the relationship between the graphical features of each input data is measured based on the value of the element parameter that gives the characteristic correlation result.
【請求項5】 前記入力データは1画面を小領域である
受容野に分割した時の受容野の画像データであり、該受
容野画像データに対してそれぞれ極変換処理を施して双
対プレーンに写像し、 各写像データ間のρ軸方向のシフト量あるいはθ軸方向
のシフト量を順次変えることによりρ軸方向に相関処
理、あるいはθ軸方向に相関処理、あるいは(ρ,θ)
プレーンで相関処理を実行することを特徴とする請求項
4記載の相関処理方式。
5. The input data is image data of a receptive field when one screen is divided into receptive fields which are small areas, and the receptive field image data is subjected to polar conversion processing to be mapped on a dual plane. Then, by sequentially changing the shift amount in the ρ-axis direction or the shift amount in the θ-axis direction between each mapping data, the correlation process in the ρ-axis direction, or the correlation process in the θ-axis direction, or (ρ, θ)
The correlation processing method according to claim 4, wherein the correlation processing is executed in a plane.
【請求項6】 前記双対プレーンの写像データa(ρ,
θ)に対して、他の写像データb(ρ,θ)をρ軸方向
あるいはθ軸方向にシフトさせた後に乗算すると共に、
順次、該シフト量を変化させて乗算し、得られた乗算結
果を相関結果とすることを特徴とする請求項5記載の相
関処理方式。
6. The mapping data a (ρ,
θ) and other mapping data b (ρ, θ) are shifted in the ρ-axis direction or the θ-axis direction and then multiplied, and
6. The correlation processing method according to claim 5, wherein the shift amount is sequentially changed and multiplied, and the obtained multiplication result is used as a correlation result.
【請求項7】 前記双対プレーンの写像データa(ρ,
θ)に対して、他の写像データb(ρ,θ)をρ軸方向
あるいはθ軸方向に所定量シフトさせた後に減算すると
共に、順次、該シフト量を変化させて減算し、得られた
減算結果を相関結果とすることを特徴とする請求項5記
載の相関処理方式。
7. The mapping data a (ρ,
Other mapping data b (ρ, θ) is shifted by a predetermined amount in the ρ-axis direction or the θ-axis direction with respect to θ) and then subtracted, and the shift amount is sequentially changed and subtracted. The correlation processing method according to claim 5, wherein the subtraction result is used as a correlation result.
【請求項8】 1画面を小領域である受容野に分割した
時の受容野画像を表現する入力データに対して極変換処
理を施してρ−θの双対プレーンに写像し、あるいは極
変換処理結果に対して更にフィルタ処理を施してρ−θ
の双対プレーンに写像し、 前記双対プレーンの写像データa(ρ,θ)と別の双対
プレーンに設定されている写像データb(ρ,θ)のう
ちρ軸方向に座標値が所定量ずれている組を取り出し、
その積和 Ci(ρ,θ)=Σa(ρ+i,θ)・b(i,θ) (ただし、iを変えて加算)を相関パラメータとして演
算し、 これら相関パラメータを用いて入力データの写像データ
b(ρ,θ)に応じた図形的特徴を抽出することを特徴
とする相関処理方式。
8. An input data representing a receptive field image when one screen is divided into receptive fields, which are small areas, is subjected to a polar conversion process and mapped to a dual plane of ρ−θ, or a polar conversion process. The result is further filtered and ρ−θ
Of the mapping data a (ρ, θ) of the dual plane and the mapping data b (ρ, θ) set in another dual plane with coordinate values deviated by a predetermined amount in the ρ-axis direction. Take out the existing pair,
The sum of products Ci (ρ, θ) = Σa (ρ + i, θ) · b (i, θ) (where i is changed and added) is calculated as a correlation parameter, and the mapping data of the input data is calculated using these correlation parameters. A correlation processing method characterized by extracting a graphical feature according to b (ρ, θ).
【請求項9】 前記写像データa(ρ,θ)、b(ρ,
θ)は両眼立体視など空間的に異なる入力データに極変
換を施してρ−θの双対プレーンに写像したものである
ことを特徴とする請求項8記載の相関処理方式。
9. The mapping data a (ρ, θ), b (ρ,
9. The correlation processing method according to claim 8, wherein θ) is obtained by performing polar transformation on spatially different input data such as binocular stereoscopic vision and mapping the data into a dual plane of ρ−θ.
【請求項10】 前記写像データa(ρ,θ)、b
(ρ,θ)は時間的に異なる入力データに極変換を施し
てρ−θの双対プレーンに写像したものであることを特
徴とする請求項8記載の相関処理方式。
10. The mapping data a (ρ, θ), b
9. The correlation processing method according to claim 8, wherein (ρ, θ) is obtained by performing polar transformation on input data different in time and mapping the data into a dual plane of ρ−θ.
【請求項11】 2つの画像入力手段から入力された画
像を受容野に分割して得られる受容野画像に対してそれ
ぞれ極変換処理を施してρ−θの双対プレーンに写像
し、あるいは極変換処理結果に対して更にフィルタ処理
を施してそれぞれρ−θの双対プレーンに写像し、 前記双対プレーンの写像データa(ρ,θ)に対して、
他の写像データb(ρ,θ)をρ軸方向にシフトさせた
後に乗算すると共に、順次、該シフト量σを変化させて
乗算し、得られた乗算結果を相関パラメータC(ρ,
θ,σ)とし、 相関パラメータの極大点から各受容野画像間の対応接線
を決定すると共に、極大点を与えるσに基づいて視差を
計測することを特徴とする相関処理方式。
11. A receptive field image obtained by dividing an image input from two image input means into receptive fields is subjected to a polar conversion process to map it to a dual plane of ρ−θ, or a polar conversion. The processing result is further filtered and mapped to a dual plane of ρ−θ, and the mapping data a (ρ, θ) of the dual plane is
The other mapping data b (ρ, θ) is shifted in the ρ-axis direction and then multiplied, and the shift amount σ is sequentially changed and multiplied, and the obtained multiplication result is correlated parameter C (ρ,
θ, σ), the corresponding tangent line between each receptive field image is determined from the maximum point of the correlation parameter, and the parallax is measured based on σ that gives the maximum point.
【請求項12】 極変換後に一次元ガウシャンフィルタ
処理を施すことにより、あるいは極変換処理の前に2次
元ガウシャンフィルタ処理を施すことにより、前記接線
を線あるいは隙間として求めることを特徴とする請求項
11記載の相関処理方式。
12. The tangent line is obtained as a line or a gap by performing a one-dimensional Gaussian filter process after the polar conversion or a two-dimensional Gaussian filter process before the polar conversion process. The correlation processing method according to claim 11.
【請求項13】 極変換後に一次元グラディエントフィ
ルタ処理と一次元ガウシャンフィルタ処理を施すことに
より、あるいは極変換処理の前に2次元ガウシャンフィ
ルタ処理を施し、極変換処理後に一次元グラディエント
フィルタ処理を施すことにより、前記接線を縁として求
めることを特徴とする請求項11記載の相関処理方式。
13. A one-dimensional gradient filtering process and a one-dimensional Gaussian filtering process after the polar transformation, or a two-dimensional Gaussian filtering process before the polar transformation process and a one-dimensional gradient filtering process after the polar transformation process. The correlation processing method according to claim 11, wherein the tangent line is obtained as an edge by applying
【請求項14】 2つの画像入力手段から入力された画
像を受容野に分割して得られる受容野画像に対してそれ
ぞれ極変換処理を施してρ−θの双対プレーンに写像
し、あるいは極変換処理結果に対して更にフィルタ処理
を施してそれぞれρ−θの双対プレーンに写像し、 前記双対プレーンの一方の写像データa(ρ,θ)に対
して、他方の写像データb(ρ,θ)をρ軸方向にシフ
トさせた後に乗算すると共に、順次、該シフト量σを変
化させて乗算し、得られた乗算結果を相関パラメータC
(ρ,θ,σ)とし、 該相関パラメータC(ρ,θ,σ)をρ方向に投影した
PRJ−ρ(θ,σ)に変換した後、その(θ,σ)プ
レーン内の正弦波パターンの最大振幅となる点を逆極変
換により抽出し、 最大振幅を与えるσを用いて両眼視差及び又は対象直線
までの奥行きを演算することを特徴とする相関処理方
式。
14. A receptive field image obtained by dividing an image input from two image input means into receptive fields is subjected to a polar transformation process to be mapped on a dual plane of ρ−θ, or a polar transformation. The processing result is further filtered and mapped to dual planes of ρ−θ, and one mapping data a (ρ, θ) of the dual plane is mapped to the other mapping data b (ρ, θ). Is shifted in the ρ-axis direction and then multiplied, and the shift amount σ is sequentially changed and multiplied, and the obtained multiplication result is correlated to the correlation parameter C.
(Ρ, θ, σ), and after converting the correlation parameter C (ρ, θ, σ) into C PRJ −ρ (θ, σ) projected in the ρ direction, the sine in the (θ, σ) plane A correlation processing method characterized in that a point having the maximum amplitude of a wave pattern is extracted by inverse pole transformation, and σ giving the maximum amplitude is used to calculate the binocular parallax and / or the depth to a target straight line.
【請求項15】 時間的に異なる2個の画像を受容野に
分割して得られる受容野画像に対してそれぞれ極変換処
理を施してρ−θの双対プレーンに写像し、あるいは極
変換処理結果に対して更にフィルタ処理を施してそれぞ
れρ−θの双対プレーンに写像し、 前記双対プレーンの現時刻の写像データat(ρ,θ)
に対して、次の時刻の写像データat+1(ρ,θ)をρ
軸方向に所定量シフトさせた後に乗算すると共に、順
次、該シフト量τを変化させて乗算し、得られた乗算結
果を相関パラメータC(ρ,θ,τ)とし、 相関パラメータの極大点C(ρP,θP,τP)を与える
要素パラメータの値ρP,θP,τPから各受容野画像間
の対応接線を決定すると共に、対応接線の移動方向や移
動速度を計測することを特徴とする相関処理方式。
15. A receptive field image obtained by dividing two temporally different images into receptive fields is subjected to a polar conversion process and mapped to a dual plane of ρ−θ, or a result of the polar conversion process. To the dual plane of ρ−θ, and the mapping data a t (ρ, θ) at the current time of the dual plane is obtained.
, The mapping data a t + 1 (ρ, θ) at the next time is ρ
After shifting by a predetermined amount in the axial direction, multiplication is performed, and the shift amount τ is sequentially changed and multiplied, and the obtained multiplication result is used as a correlation parameter C (ρ, θ, τ), and the maximum point C of the correlation parameter is obtained. (ρ P, θ P, τ P) values [rho P element parameter that gives, theta P, and determines the corresponding tangent between the receptive field images from tau P, to measure a moving direction and moving speed of the corresponding tangent Correlation processing method characterized by.
【請求項16】 次式 Φ=θP+900 V=k1・τP (k1は定数)により、移動方向Φ及び移動速度Vを演算す
ることを特徴とする請求項15記載の相関処理方式。
16. The following formula Φ = θP+900  V = k1・ ΤP (k1The moving direction Φ and the moving speed V are calculated by
16. The correlation processing method according to claim 15, wherein:
【請求項17】 受容野画像のコーナを構成する2つの
接線の極大点のパラメータを(ρi,θi,τi),
(ρj,θj,τj)とするとき、次式 Φ=arctan{(τisinθj−τjsinθi)/(τicosθj−τ
jcosθi)} V=k2・τi/sin(Φ−θi) (k2は定数)により、コーナの移動方向Φ及び移動速
度Vを演算することを特徴とする請求項15記載の相関
処理方式。
17. The parameters of local maximum points of two tangents forming a corner of the receptive field image are (ρ i , θ i , τ i ),
When (ρ j , θ j , τ j ), the following equation Φ = arctan {(τ i sin θ j −τ j sin θ i ) / (τ i cos θ j −τ
The moving direction Φ and the moving speed V of the corner are calculated by j cos θ i )} V = k 2 · τ i / sin (Φ-θ i ) (k 2 is a constant). Correlation processing method.
【請求項18】 前記2つの画像は、ある時刻において
画像捕捉手段が対象直線を捕捉した画像と、該画像捕捉
手段が移動して所定時間後に対象直線を捕捉した画像で
あり、前記要素パラメータτPと画像捕捉手段の移動速
度Vsを用いて対象直線までの奥行きを演算することを
特徴とする請求項15記載の相関処理方式。
18. The two images are an image in which an image capturing unit captures a target straight line at a certain time and an image in which the image capturing unit captures a target straight line after a predetermined time has passed, and the element parameter τ 16. The correlation processing method according to claim 15, wherein the depth to the target straight line is calculated using P and the moving speed Vs of the image capturing means.
【請求項19】 時間的に異なる2個の画像を受容野に
分割して得られる受容野画像に対してそれぞれ極変換処
理を施してρ−θの双対プレーンに写像し、あるいは極
変換処理結果に対して更にフィルタ処理を施してそれぞ
れρ−θの双対プレーンに写像し、 前記双対プレーンの現時刻の写像データat(ρ,θ)
に対して、次の時刻の写像データat+1(ρ,θ)をρ
軸方向に所定量シフトさせた後に乗算すると共に、順
次、該シフト量τを変化させて乗算し、得られた乗算結
果を相関パラメータC(ρ,θ,τ)とし、 前記相関パラメータC(ρ,θ,τ)をρ方向に投影し
たCPRJ−ρ(θ,τ)に変換した後、その(θ,τ)
プレーン内の正弦波パターンの最大振幅となる点を逆極
変換により抽出し、該最大振幅を与えるθ、τを用いて
移動方向Φと移動速度Vを演算することを特徴とする相
関処理方式。
19. A receptive field image obtained by dividing two temporally different images into receptive fields is subjected to a polar transformation process and mapped to a dual plane of ρ−θ, or a result of the polar transformation process. To the dual plane of ρ−θ, and the mapping data a t (ρ, θ) at the current time of the dual plane is obtained.
, The mapping data a t + 1 (ρ, θ) at the next time is ρ
After shifting by a predetermined amount in the axial direction, multiplication is performed, and the shift amount τ is sequentially changed and multiplied, and the obtained multiplication result is set as a correlation parameter C (ρ, θ, τ), and the correlation parameter C (ρ , Θ, τ) is converted into C PRJ −ρ (θ, τ) projected in the ρ direction, and then (θ, τ)
A correlation processing method characterized in that a point having the maximum amplitude of a sine wave pattern in a plane is extracted by inverse pole transformation, and a moving direction Φ and a moving speed V are calculated using θ and τ which give the maximum amplitude.
【請求項20】 前記2つの画像は、ある時刻において
画像捕捉手段が対象図形を捕捉した画像と、該画像捕捉
手段が移動して所定時間後に対象図形を捕捉した画像で
あり、 前記移動速度Vと画像捕捉手段の移動速度Vsを用いて
対象直線までの奥行きを演算することを特徴とする請求
項19記載の相関処理方式。
20. The two images are an image in which the image capturing means captures the target graphic at a certain time and an image in which the image capturing means captures the target graphic after a predetermined time has passed, and the moving speed V 20. The correlation processing method according to claim 19, wherein the depth to the target straight line is calculated by using the moving speed Vs of the image capturing means.
JP4249956A 1991-12-11 1992-09-18 Correlation processing method Expired - Lifetime JP2796221B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP4249956A JP2796221B2 (en) 1992-04-22 1992-09-18 Correlation processing method
US07/987,954 US6005984A (en) 1991-12-11 1992-12-11 Process and apparatus for extracting and recognizing figure elements using division into receptive fields, polar transformation, application of one-dimensional filter, and correlation between plurality of images
US08/470,061 US5901252A (en) 1991-12-11 1995-06-06 Process and apparatus for extracting and recognizing figure elements using division into receptive fields, polar transformation, application of one-dimensional filter, and correlation between plurality of images

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP10313792 1992-04-22
JP4-103137 1992-04-22
JP4-133744 1992-05-26
JP13374492 1992-05-26
JP4249956A JP2796221B2 (en) 1992-04-22 1992-09-18 Correlation processing method

Publications (2)

Publication Number Publication Date
JPH0644364A true JPH0644364A (en) 1994-02-18
JP2796221B2 JP2796221B2 (en) 1998-09-10

Family

ID=27309898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4249956A Expired - Lifetime JP2796221B2 (en) 1991-12-11 1992-09-18 Correlation processing method

Country Status (1)

Country Link
JP (1) JP2796221B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1074269A (en) * 1996-06-26 1998-03-17 Matsushita Electric Ind Co Ltd Stereoscopic cg moving image generator
EP2148304A2 (en) 1999-04-12 2010-01-27 Fujitsu Limited Image measurement method, image measurement apparatus and image measurement program storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1074269A (en) * 1996-06-26 1998-03-17 Matsushita Electric Ind Co Ltd Stereoscopic cg moving image generator
EP2148304A2 (en) 1999-04-12 2010-01-27 Fujitsu Limited Image measurement method, image measurement apparatus and image measurement program storage medium

Also Published As

Publication number Publication date
JP2796221B2 (en) 1998-09-10

Similar Documents

Publication Publication Date Title
Velas et al. Collar line segments for fast odometry estimation from velodyne point clouds
US6005984A (en) Process and apparatus for extracting and recognizing figure elements using division into receptive fields, polar transformation, application of one-dimensional filter, and correlation between plurality of images
CN102507592B (en) Fly-simulation visual online detection device and method for surface defects
CN104424640B (en) The method and apparatus for carrying out blurring treatment to image
CN104966318B (en) Augmented reality method with imaging importing and image special effect function
CN108921895A (en) A kind of sensor relative pose estimation method
CN104657986B (en) A kind of quasi- dense matching extended method merged based on subspace with consistency constraint
CN104680516A (en) Acquisition method for high-quality feature matching set of images
CN113689503B (en) Target object posture detection method, device, equipment and storage medium
CN109769109A (en) Method and system based on virtual view synthesis drawing three-dimensional object
Finkel et al. Constructing visual perception
CN107067441A (en) Camera marking method and device
JP2796221B2 (en) Correlation processing method
CN117274453A (en) Three-dimensional reconstruction and real scene restoration method based on image and point cloud depth fusion
CN107403448A (en) Cost function generation method and cost function generating means
Griswold et al. A new stereo vision model based upon the binocular fusion concept
Kalutskiy et al. Method of moving object detection from mobile vision system
Grosso et al. Log-polar stereo for anthropomorphic robots
JP3056857B2 (en) Image processing method
Ekholm 3-D scene reconstruction from aerial imagery
JP3089069B2 (en) Image processing method and image processing apparatus
CN112785489B (en) Monocular stereoscopic vision image generation method and device
CN113449681B (en) 3D human body posture recognition double-branch network model based on combined attention machine system
Pérez-Meza et al. Scenary reconstruction with monocular vision and genetic algorithms
Capeto A qualitative comparison of selected automatic depth map generators

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19980616

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090626

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100626

Year of fee payment: 12