JP2796221B2 - Correlation processing method - Google Patents

Correlation processing method

Info

Publication number
JP2796221B2
JP2796221B2 JP4249956A JP24995692A JP2796221B2 JP 2796221 B2 JP2796221 B2 JP 2796221B2 JP 4249956 A JP4249956 A JP 4249956A JP 24995692 A JP24995692 A JP 24995692A JP 2796221 B2 JP2796221 B2 JP 2796221B2
Authority
JP
Japan
Prior art keywords
correlation
data
polar
image
receptive field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP4249956A
Other languages
Japanese (ja)
Other versions
JPH0644364A (en
Inventor
進 川上
浩明 岡本
俊彦 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP4249956A priority Critical patent/JP2796221B2/en
Priority to US07/987,954 priority patent/US6005984A/en
Publication of JPH0644364A publication Critical patent/JPH0644364A/en
Priority to US08/470,061 priority patent/US5901252A/en
Application granted granted Critical
Publication of JP2796221B2 publication Critical patent/JP2796221B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は相関処理方式に係わり、
特に2つの画像間の図形的特徴の間の関係を相関処理結
果である相関パラメータに基づいて求める相関処理方式
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a correlation processing method,
In particular, the present invention relates to a correlation processing method for obtaining a relationship between graphic features between two images based on a correlation parameter which is a result of the correlation processing.

【0002】[0002]

【従来の技術】ロボットの移動や自律的動作を制御する
ためには、ロボットが動作する環境を立体的に把握する
必要がある。かかる立体把握には、左右2つの目の見え
方の違い(視差)から三角測量の原理で奥行きを測る
「両眼立体視」と自分が移動することで生じる運動視差
から立体感をつかむ「運動立体視」がある。我々は2つ
の目で立体視を行っていることから、両眼立体視の開発
が古くから試みられてきた。しかし、両眼立体視では左
右の目に写った画像の中から対応する部分を抽出する必
要があり、かかる対応点の抽出が難しく、未だ実用にな
っていない。
2. Description of the Related Art In order to control the movement and autonomous operation of a robot, it is necessary to three-dimensionally grasp the environment in which the robot operates. Such stereoscopic grasping includes “binocular stereopsis”, which measures depth based on the principle of triangulation from the difference in the appearance of two eyes (parallax) on the left and right, and “motion, There is "stereoscopic vision". Since we perform stereoscopic vision with two eyes, development of binocular stereoscopic vision has been attempted for a long time. However, in binocular stereopsis, it is necessary to extract corresponding parts from the images captured by the left and right eyes, and it is difficult to extract such corresponding points, and it has not been practical yet.

【0003】図60は両眼立体視の原理を説明するもの
で、平面上のA,B2点に物体が置いてあるものとす
る。それぞれの目で判るのは、A,Bの方向だけである
が、左目がAを見る視線と右目がAを見る視線の交点に
よって、Aの奥行きがわかり、Bについても同様にして
その奥行きが知覚される。すなわち、図61に示すよう
に、両眼の間隔をd、左右目の視線が垂直線となす角度
をρL,ρRとすれば、奥行きDは次式 D=d/(tanρL+tanρR) により求まる。
FIG. 60 explains the principle of binocular stereopsis, and it is assumed that an object is placed at two points A and B on a plane. Each eye can see only the directions of A and B, but the intersection of the line of sight of the left eye looking at A and the line of sight of the right eye looking at A can tell the depth of A, and the depth of B can be similarly determined. Perceived. That is, as shown in FIG. 61 , assuming that the distance between the eyes is d, and the angles between the line of sight of the left and right eyes and the vertical line are ρ L and ρ R , the depth D is represented by the following equation: D = d / (tan ρ L + tan ρ) R ).

【0004】[0004]

【発明が解決しようとする課題】しかし、視線の交点は
他にもできる。左目がAを見る視線は、右目がBを見る
視線とも交わる。この交点が偽点βであり、同様に、偽
点αが生じ、両眼立体視ではこの偽点を除く必要があ
る。我々の大脳では、形を見る能力(形態視)が発達し
ているため、偽点α、βを簡単に除くことができるが、
これまでの両眼立体視の技術では難しく対応点問題とし
て課題となっている。
However, the intersection of the line of sight can be changed. The line of sight of the left eye looking at A also intersects with the line of sight of the right eye looking at B. This intersection is a false point β, and similarly, a false point α is generated, and it is necessary to remove this false point in binocular stereopsis. In our cerebrum, the ability to see shape (morphology) has been developed, so we can easily remove false points α and β,
It is difficult with conventional binocular stereoscopic technology, and it is a problem as a corresponding point problem.

【0005】以上から本発明の第1の目的は、複数の図
形の対応点を簡単な手続き及び少ない処理量で正確に決
定でき、両眼立体視の機能を実現できる相関処理方式を
提供することである。本発明の第2の目的は、移動する
物体を時間的に異なる画像から対応付けて追尾したり、
その移動方向、移動速度を計測できる相関処理方式を提
供することである。本発明の第3の目的は、1つの画面
内での同じ模様の程度を調べるテクスチュア解析などに
適用できる相関処理方式を提供することである。本発明
の第4の目的は、三原色、あるいは色の三要素毎などの
色相関処理を行うことにより、両眼立体視や移動物体注
視やテクスチュア解析を更に確実にする相関処理方式を
提供することである。
As described above, a first object of the present invention is to provide a correlation processing method capable of accurately determining corresponding points of a plurality of figures with a simple procedure and a small amount of processing, and realizing a binocular stereoscopic function. It is. A second object of the present invention is to track a moving object in association with a temporally different image,
An object of the present invention is to provide a correlation processing method capable of measuring the moving direction and the moving speed. A third object of the present invention is to provide a correlation processing method that can be applied to texture analysis or the like for examining the degree of the same pattern in one screen. A fourth object of the present invention is to provide a correlation processing method that further ensures binocular stereopsis, moving object gaze, and texture analysis by performing color correlation processing for each of the three primary colors or each of the three elements of color. It is.

【0006】本発明の第5の目的は、複数の図形におけ
る対応する接線(線・隙間、縁)を求めることができ、
しかもその位置や、方位、視差、速度を定量的に求める
ことができる相関処理方式を提供することである。本発
明の第6の目的は、的確なフィルタリングを行うことが
でき、「左右の目で同じに見える特徴の抽出」や「前の
画像と同じ特徴の追跡」等を行う際に適用して好適な相
関処理方式を提供することである。本発明の第7の目的
は、輪郭が不明瞭な物体の両眼立体視や追尾を、明るさ
や色合いのゆるい変化などを手掛かりにして行うことが
できる相関処理方式を提供することである。
A fifth object of the present invention is to obtain a corresponding tangent (line / gap, edge) in a plurality of figures,
Moreover, it is an object of the present invention to provide a correlation processing method capable of quantitatively obtaining the position, the direction, the parallax, and the speed. The sixth object of the present invention is capable of performing accurate filtering, and is suitable for application when performing “extraction of a feature that looks the same with the left and right eyes”, “tracking of the same feature as the previous image”, and the like. It is to provide a simple correlation processing method. A seventh object of the present invention is to provide a correlation processing method capable of performing binocular stereoscopic vision and tracking of an object having an indistinct outline using clues such as gradual changes in brightness and hue.

【0007】[0007]

【課題を解決するための手段】図1は本発明の原理図で
ある。14,24は第1、第2の画像データに対して極
変換処理を施す極変換部、16,26は極変換結果に一
次元フィルタ処理を施す一次元フィルタ、17,27は
フィルタ処理結果(ハイパーコラム像)を記憶するρ−
θの双対プレーン(ハイパーコラムメモリ)、30は各
双対プレーンに写像されたデータ間に相関処理を施す相
関処理部である。
FIG. 1 is a diagram illustrating the principle of the present invention. 14 and 24 are polar conversion units that perform polar conversion processing on the first and second image data, 16 and 26 are one-dimensional filters that perform one-dimensional filter processing on the polar conversion results, and 17 and 27 are filter processing results ( Ρ- that stores the hypercolumn image)
A dual plane (hypercolumn memory) 30 of θ is a correlation processing unit that performs a correlation process between data mapped on each dual plane.

【0008】[0008]

【作用】第1、第2の画像データに対して極変換部1
4,24で極変換処理を施して双対プレーン17,27
に写像し、あるいは、極変換処理結果に対して更に一次
元フィルタ16,26でフィルタ処理を施してそれぞれ
双対プレーン17,27に写像し、相関処理部30は双
対プレーン上における写像データの位置(ρ,θ)及び
相関処理を施す写像データ間の間隔(シフト量)を要素
パラメータとして相関量(相関パラメータ)を求め、特
徴的な相関パラメータ(例えば極大値)を有する点を求
め、該特徴的な相関パラメータを与える要素パラメータ
の値に基づいて各画像の図形的特徴(例えば接線)間の
関係を規定する変数(視差、移動方向、速度等)を計測
する。極変換により、第1、第2の画像に含まれる輪郭
接線(直線の場合は直線そのもの)は点に次元を縮小し
て変換されるため、2次元での接線対応の問題を一次元
での点対応問題に置き換えることができ、この結果、相
関処理により複数図形の対応部分の決定を簡単に、しか
も少ない処理量で正確に行うことができ、両眼立体視の
機能を実現できる。
The polar converter 1 converts the first and second image data.
The polar conversion processing is performed at 4, 24 to make the dual planes 17, 27
Alternatively, the result of the polar conversion processing is further filtered by one-dimensional filters 16 and 26 to be mapped to dual planes 17 and 27, respectively, and the correlation processing unit 30 determines the position of the mapped data on the dual plane ( ρ, θ) and the interval (shift amount) between the mapping data to be subjected to the correlation processing is used as an element parameter to obtain a correlation amount (correlation parameter), and a point having a characteristic correlation parameter (for example, a maximum value) is obtained. Variables (parallax, moving direction, speed, etc.) that define the relationship between the graphic features (eg, tangents) of each image are measured based on the values of the element parameters that provide the various correlation parameters. By the polar transformation, the contour tangent (the straight line itself in the case of a straight line) included in the first and second images is transformed by reducing the dimension to a point. This can be replaced with a point correspondence problem, and as a result, the corresponding portion of a plurality of figures can be easily and accurately determined with a small amount of processing by correlation processing, and a binocular stereoscopic function can be realized.

【0009】又、1画面を小領域である受容野に分割し
た時の受容野像に対して極変換処理、フィルタ処理、相
関処理を行うことにより処理量を著しく減少できる。更
に、各受容野像が2又は3つのカメラにより捕捉した異
なる画面に属する場合には、両眼立体視、三眼立体視の
機能を実現でき、各受容野像が時間的に異なる画面に属
する場合には、受容野内に写る特徴(線、コーナ等)の
移動方向や移動速度を計測でき、このため、対象物を視
野の中心に捉えたまま移動することが可能となり、移動
ロボットや無人自走車などへの応用を期待できる。
The amount of processing can be significantly reduced by performing polar conversion processing, filter processing, and correlation processing on a receptive field image obtained when one screen is divided into small receptive fields. Furthermore, when each receptive field image belongs to a different screen captured by two or three cameras, the function of binocular stereoscopic vision and trinocular stereoscopic vision can be realized, and each receptive field image belongs to a temporally different screen. In this case, it is possible to measure the moving direction and moving speed of features (lines, corners, etc.) in the receptive field, so that it is possible to move the object while capturing it at the center of the field of view, and to use a mobile robot or unmanned It can be expected to be applied to running vehicles.

【0010】又、各受容野像を同じ画面の異なる受容野
の画像とし、あるいは同一受容野像とすることにより、
1つの画面内での同じ模様の程度を調べるテクスチュア
解析などを行うことができる。更に、複数の受容野像間
での相関処理を同一色毎に、あるいは色の差信号毎に、
あるいは色の三要素毎に行うことにより両眼立体視や移
動物体注視やテクスチュア解析を更に確実に行うことが
できる。
Further, by making each receptive field image an image of a different receptive field on the same screen, or by making the same receptive field image,
Texture analysis or the like for checking the degree of the same pattern in one screen can be performed. Furthermore, the correlation processing between a plurality of receptive field images is performed for each color, or for each color difference signal,
Alternatively, binocular stereopsis, moving object gaze, and texture analysis can be performed more reliably by performing each of the three color components.

【0011】又、極変換後に一次元ガウシャンフィルタ
処理を施すことにより、あるいは極変換処理の前に2次
元ガウシャンフィルタ処理を施すことにより、複数図形
における対応する線あるいは隙間を求めることができ、
また極変換後に一次元グラディエントフィルタ処理と一
次元ガウシャンフィルタ処理を施すことにより、あるい
は極変換処理の前に2次元ガウシャンフィルタ処理を施
し、極変換処理後に一次元グラディエントフィルタ処理
を施すことにより、複数図形における対応する縁を求め
ることができ、更にはこれら図形要素の位置や、方位、
視差、移動方向、移動速度を求めることができる。
Further, by performing one-dimensional Gaussian filter processing after polar conversion, or performing two-dimensional Gaussian filter processing before polar conversion processing, it is possible to obtain corresponding lines or gaps in a plurality of figures. ,
Also, by performing one-dimensional gradient filter processing and one-dimensional Gaussian filter processing after polar conversion, or performing two-dimensional Gaussian filter processing before polar conversion processing and performing one-dimensional gradient filter processing after polar conversion processing , Corresponding edges in a plurality of figures can be obtained, and furthermore, the positions, orientations,
Parallax, moving direction, and moving speed can be obtained.

【0012】更に、複数の受容野像が空間的に異なる画
面に属する場合、θ軸方向の相関パラメータC(ρ,
θ,σ)を演算することにより、あるいは、(ρ,θ)
プレーンの相関パラメータC(ρ,θ,σ1,σ2)を演
算することにより方位を変えながら移動する接線の抽出
が可能となる。又、複数の受容野像が時間的に異なる画
面に属する場合、ρ軸方向の相関パラメータC(ρ,
θ,τ)を演算することにより、平行移動する接線の位
置、方位、速度を定量的に求めることができ、また、θ
軸方向の相関パラメータC(ρ,θ,τ)を演算するこ
とにより、受容野中心を通る接線の位置、方位、方位回
転速度等を定量的に求めることができ、更に、(ρ,
θ)プレーンの相関パラメータC(ρ,θ,τ1,τ2
を演算することにより、方向を変えながら移動する接線
の位置、方位、移動速度、回転速度等を定量的に計測で
きる。
Further, when a plurality of receptive field images belong to spatially different screens, a correlation parameter C (ρ,
θ, σ), or (ρ, θ)
By calculating the plane correlation parameter C (ρ, θ, σ 1 , σ 2 ), it is possible to extract a tangent that moves while changing the azimuth. When a plurality of receptive field images belong to temporally different screens, the correlation parameter C (ρ,
θ, τ), the position, azimuth, and velocity of the tangent that translates can be quantitatively determined.
By calculating the axial correlation parameter C (ρ, θ, τ), the position, azimuth, azimuth rotation speed, and the like of the tangent passing through the center of the receptive field can be quantitatively obtained.
θ) plane correlation parameter C (ρ, θ, τ 1 , τ 2 )
By calculating, the position, azimuth, moving speed, rotation speed, and the like of the tangent that moves while changing the direction can be quantitatively measured.

【0013】更に、相関パラメータC(ρ,θ,σ)を
空間的シフト量σを示すσ軸方向に投影し、あるいは接
線位置を示すρ軸方向に投影し、あるいは接線方向を示
すθ軸方向に投影し、あるいはこれら任意の2軸方向に
投影することにより、相関パラメータを記憶するメモリ
容量を1軸分あるいは2軸分減少でき、しかも、投影方
向を選択することにより接線の位置、視差、方位等のう
ち所望の値を得ることができる。又、相関パラメータC
(ρ,θ,τ)を時間的シフト量τを示すτ軸方向に投
影し、あるいは接線位置を示すρ軸方向に投影し、ある
いは接線方向を示すθ軸方向に投影し、あるいはこれら
任意の2軸方向に投影することにより、相関パラメータ
を記憶するメモリ容量を1軸分あるいは2軸分減少で
き、しかも、投影方向を選択することにより接線の位
置、方位、平行移動速度、回転速度等のうち所望の値を
得ることができる。
Further, the correlation parameter C (ρ, θ, σ) is projected in the σ-axis direction indicating the spatial shift amount σ, or projected in the ρ-axis direction indicating the tangential position, or the θ-axis direction indicating the tangential direction. , Or by projecting in any of these two directions, the memory capacity for storing the correlation parameter can be reduced by one or two axes, and the tangent position, parallax, A desired value among the azimuths and the like can be obtained. Also, the correlation parameter C
(Ρ, θ, τ) is projected in the τ-axis direction indicating the temporal shift amount τ, or projected in the ρ-axis direction indicating the tangential position, or projected in the θ-axis direction indicating the tangential direction, or any of these. By projecting in two axial directions, the memory capacity for storing correlation parameters can be reduced by one or two axes, and by selecting the projection direction, the position, orientation, translation speed, rotation speed, etc. of the tangent can be determined. A desired value can be obtained.

【0014】更に、受容野像に対して極変換処理を施し
てρ−θの双対プレーンに写像し、該双対プレーンの写
像データa(ρ,θ)と別の双対プレーンに設定されて
いる写像データb(ρ,θ)とのうちρ軸方向に座標値
が所定量ずれている組を取り出し、その積和を演算する
ことにより的確なフィルタリングを行うことができ、
「左右の目で同じに見える特徴の抽出」や「前の画像と
同じ特徴の追跡」等を行う際に適用して好適である。
Further, the receptive field image is subjected to a polar transformation process to be mapped on a dual plane of ρ-θ, and the mapping data a (ρ, θ) of the dual plane and a mapping set on another dual plane. By extracting a set of data b (ρ, θ) whose coordinate values are shifted by a predetermined amount in the ρ-axis direction and calculating the sum of the products, accurate filtering can be performed.
It is suitable to be applied when performing “extraction of a feature that looks the same with the left and right eyes”, “tracking of the same feature as the previous image”, and the like.

【0015】又、双対プレーンの写像データa(ρ,
θ)に対して、他の写像データb(ρ,θ)をρ軸方向
あるいはθ軸方向にシフトさせた後に減算すると共に、
順次、該シフト量を変化させて減算し、得られた減算結
果を相関パラメータとすることにより、輪郭が不明瞭な
物体の両眼立体視や追尾を、明るさや色合いのゆるい変
化などを手掛かりにして行うことができる。
Further, the mapping data a (ρ,
θ), the other mapping data b (ρ, θ) is shifted in the ρ-axis direction or the θ-axis direction and then subtracted.
The shift amount is sequentially changed and subtracted, and the obtained subtraction result is used as a correlation parameter. Can be done.

【0016】[0016]

【実施例】【Example】

(A) 本発明の概略 両眼立体視において従来は、画面内の対応する”図形”
を探索していた。このため、形の処理に弱い現在のコン
ピュータでは安定な対応決定が困難であった。そこで、
最も簡単な特徴、つまり図形の輪郭を構成する”接線”
(輪郭を微小な長さで切断した時の要素、直線の場合に
は直線そのものとなる)により対応決定を行う。この”
接線”法では、両眼に写る接線(直線)を比較すれば良
く、その手続きは簡単で安定な対応決定を行える。尚、
以後の説明では接線、輪郭接線、輪郭線という用語が現
われるが、後述する小領域である受容野内の受容野像を
考察するときは、これら用語は同義語と成る。かかる接
線比較により、扱う図形は簡単になるが、二次元の画面
で対応接線を決定する必要があり、処理に時間がかか
る。ところで、入力画像を極変換して、線の方向θと位
置ρを座標軸とする双対プレーンに写像すると、左右画
像中の”接線”が”点”に次元を縮小して変換される。
従って、二次元での接線対応の問題を一次元で行うこと
ができて、処理量を大幅に削減できる。
(A) Outline of the present invention In binocular stereopsis, conventionally, a corresponding "figure"
I was exploring. For this reason, it has been difficult for current computers that are vulnerable to shape processing to make a stable response decision. Therefore,
The simplest feature, the “tangent” that makes up the outline of a figure
(The element when the contour is cut by a minute length, and in the case of a straight line, the straight line itself) is used to determine the correspondence. this"
In the "tangent" method, it is sufficient to compare tangents (straight lines) appearing in both eyes, and the procedure is simple and stable, and correspondence can be determined.
In the following description, the terms tangent line, contour tangent line, and contour line appear, but when considering a receptive field image in a receptive field, which is a small region described later, these terms are synonyms. Such a tangent comparison makes the figure to be handled simpler, but requires a corresponding tangent to be determined on a two-dimensional screen, which takes a long time to process. By the way, when the input image is polar-transformed and mapped onto a dual plane having the line direction θ and the position ρ as coordinate axes, the “tangents” in the left and right images are converted into reduced “dimensions” into “points”.
Therefore, the problem of tangent correspondence in two dimensions can be solved in one dimension, and the processing amount can be greatly reduced.

【0017】図2は本発明の両眼立体視の原理を説明す
るものである。 1. 空間内の”接線”は左右眼の入力画像IML,IMR
ではSLL,SLRで示すように平行にずれて見える。 2. 一方、入力画像を極変換して得られるハイパーコラ
ム像を写像するρ−θの双対プレーンHCPL,HCPR
では、傾きがθPの”接線”(平行線)はθ=θPのρ軸
上の”点列”に変換される。 3. 従って、左右眼の入力画像IML,IMRで平行にず
れて見えている”接線”SLL,SLRは、双対プレーン
HCPL,HCPRでは同じθPのρ軸上の2点PL,PR
に変換される。 4. その2点間の距離σPを求めると、左右画像IML
IMRでの”接線”SL L,SLRの平行移動量、つまり
視差が決定される。 5. そのσPと両眼の間隔から、”接線”の空間的奥行き
を決定でき、両眼立体視の機能が実現されたことにな
る。 以上から、入力画像を極変換することにより、「二次元
での”接線”の比較」を「ρ軸上の”点”を比較する一
次元処理」に簡略化でき、対応決定を少ない処理量で行
うことができる。
FIG. 2 explains the principle of binocular stereoscopic vision of the present invention.
Things. 1. The "tangent" in the space is the input image IM of the left and right eyesL, IMR
Then SLL, SLRIt appears to be shifted in parallel as shown by. 2. On the other hand, hyper-colla obtained by polar transformation of the input image
Ρ-θ dual plane HCPL, HCPR
Then, the inclination is θP“Tangent” (parallel line) is θ = θPΡ axis
It is converted to the above "dot sequence". 3. Therefore, the input image IM of the left and right eyesL, IMRNot parallel
"Tangent line" SLL, SLRIs a dual plane
HCPL, HCPRThen the same θPPoints P on the ρ axis ofL, PR
Is converted to 4. Distance σ between the two pointsPAnd the left and right images IML,
IMR"Tangent" SL at L, SLRThe amount of translation of
Parallax is determined. 5. The σPAnd the distance between the eyes, the spatial depth of the "tangent"
And the binocular stereoscopic function has been realized.
You. From the above, by performing polar transformation on the input image,
Comparing "tangents" with "comparing" points "on the ρ-axis
Dimensional processing '', and the correspondence can be determined with a small amount of processing.
I can.

【0018】以下に”極変換”及び後で必要になる”受
容野”について説明をする。極変換 極変換としては球面上の極変換または円筒上の極変換ま
たは平面上の極変換など任意の曲面上の極変換がある。
図3は球面写像(球面上の極変換)の説明図である。球
面写像は図3(a)に示すように、球面上の任意の点P
を、それを極とする大円(球面上の最大の円で赤道に相
当する)Rに変換する操作である。この球面写像によれ
ば、図3(b)に示すように、線分Lを構成する点P1,P
2,P3・・・について、それらが球面上に投影された点
1′,P2′,P3′・・・を極とする大円R1,R2
3・・・を描いていくと、各大円は常に一点Sで交差
する。この交差点Sが線分Lに1対1に対応した固有の
点になる。そして、線分Lが長い程Lの要素である点の
数は多く、従って大円の数も増え、Sでの大円の重なり
の度合が高くなる。このようにして、線分はそれと対応
する球面上の点として抽出され、又、各点での大円の交
差度のヒストグラムをとると線分の長さも計測できる。
尚、線分Lに対応する点Sの幾何学的意味は、「線分L
の球面上への投影L′を大円とする極である」といえ
る。
The "polar transformation" and the "receptive field" required later will be described below. The polar conversion is a polar conversion on an arbitrary curved surface such as a polar conversion on a spherical surface, a polar conversion on a cylinder, or a polar conversion on a plane.
FIG. 3 is an explanatory diagram of a spherical mapping (polar transformation on a spherical surface). As shown in FIG. 3 (a), the spherical mapping is an arbitrary point P on the spherical surface.
Is converted to a great circle R (which is the largest circle on the spherical surface and corresponds to the equator) having that as a pole. According to this spherical mapping, as shown in FIG. 3B, the points P 1 , P
2 , P 3, ..., The great circles R 1 , R 2 ,... Having the points P 1 ′, P 2 ′, P 3 ′.
When R 3 ... Are drawn, each great circle always intersects at one point S. The intersection S is a unique point corresponding to the line segment L on a one-to-one basis. The longer the line segment L, the greater the number of points that are elements of L, and therefore the greater the number of great circles, and the greater the degree of overlap of great circles in S. In this way, the line segment is extracted as a point on the spherical surface corresponding to the line segment, and the length of the line segment can be measured by taking a histogram of the degree of intersection of the great circle at each point.
Note that the geometric meaning of the point S corresponding to the line segment L is “line segment L
Is a pole whose projection L ′ onto the spherical surface is a great circle. ”

【0019】図4は円筒上の極変換の説明図である。円
筒上の極変換では直線(楕円の交線)と点とが互いに移
り変わる。すなわち、原点Oを通る平面PL上の直線S
を円筒上に投影した楕円ELPは、原点Oにおける平面
PLの法線NLと円筒との交点である極Pに極変換さ
れ、極Pは逆に楕円ELPに極変換される。この円筒を
軸に平行に切り開くと平面に展開できる。この平面上で
は、直線(正弦曲線)と点とが互いに移り変わる。以上
から、カメラから入力された画像の輪郭を抽出して投影
画像メモリに書き込み、輪郭点を極変換部で大円あるい
は正弦曲線に変換して該大円あるいは正弦曲線の情報を
写像メモリに書き込み、同様にして、全輪郭点を極変換
して大円あるいは正弦曲線に変換し、しかる後、写像メ
モリの各セルをスキャンして、カウント値のピーク位置
を求めれば、該ピーク位置が線分の極となり、線分が抽
出できる。尚、写像メモリの各セルは例えばカウンタご
ときもので構成され、書き込まれる毎に記憶内容を増加
するようになっている。
FIG. 4 is an explanatory diagram of pole conversion on a cylinder. In the polar transformation on a cylinder, a straight line (intersection line of an ellipse) and a point change with each other. That is, the straight line S on the plane PL passing through the origin O
Is projected onto a cylinder, the pole P is converted into a pole P, which is the intersection of the cylinder with the normal NL of the plane PL at the origin O, and the pole P is converted back into an ellipse ELP. If this cylinder is cut open parallel to the axis, it can be developed into a plane. On this plane, a straight line (sinusoidal curve) and a point alternate with each other. From the above, the outline of the image input from the camera is extracted and written into the projection image memory, the outline point is converted into a great circle or a sine curve by the polar converter, and the information of the great circle or the sine curve is written into the mapping memory. In the same manner, all the contour points are polar-converted into a great circle or a sine curve, and then each cell of the mapping memory is scanned to find the peak position of the count value. And a line segment can be extracted. Each cell of the mapping memory is constituted by, for example, a counter or the like, so that the storage content is increased each time data is written.

【0020】受容野法 ところで、画面全体を極変換して線分を抽出する方法で
は、処理量が増大し、高速化処理ができない。その理由
は、線分を抽出するために入力画像中の各点を極変換、
すなわち、球面上の大円あるいは正弦曲線へと次元を拡
大して写像することにある。入力画像のサイズをN×N
とすれば、極変換で各点を長さNの大円あるいは正弦曲
線に変換するには、入力画像のN倍のN3の処理が必要
となり高速化の障害となる。そこで、入力される画像を
小領域である受容野毎の画像(受容野像)に分割し、各
受容野像に対して極変換を行なうと、処理量が大幅に減
少し、小型のハ−ドウェアでも高速の極変換を行なえ
る。
Receptive field method In the method of polar conversion of the entire screen to extract line segments, the processing amount increases, and high-speed processing cannot be performed. The reason is that each point in the input image is pole-transformed to extract line segments,
In other words, there is an object in which the dimension is enlarged and mapped to a great circle or a sinusoidal curve on a spherical surface. Input image size N × N
If, to convert each point on the great circle or sinusoids of length N in polar transformation is an obstacle for speed requires processing N times N 3 of the input image. Therefore, when the input image is divided into images (receptive field images) for each receptive field, which is a small area, and the polar transform is performed on each receptive field image, the processing amount is greatly reduced, and the High-speed pole conversion can be performed with hardware.

【0021】図5は受容野法の原理説明図であり、1は
所定入力プレーンに投影されたN×Nサイズの対象物体
画像(入力画像)IMGを記憶する入力メモリ、2は入
力プレーンをm×mの小領域である受容野に分割した
時、各受容野内の画像(受容野像)を記憶する受容野メ
モリ、3は各受容像に極変換を施す極変換部、4は極変
換された画像(ハイパーコラム像)を写像するρ−θの
双対プレーン(ハイパーコラムメモリ)である。
FIG. 5 is a diagram for explaining the principle of the receptive field method. Reference numeral 1 denotes an input memory for storing a target object image (input image) IMG of N × N size projected on a predetermined input plane, and 2 denotes an input plane of m. When divided into receptive fields which are small areas of × m, a receptive field memory for storing an image (receptive field image) in each receptive field, a polar conversion unit 3 for performing polar conversion on each receptive image, and a polar conversion unit 4 for performing polar conversion Ρ-θ dual plane (hypercolumn memory) for mapping the image (hypercolumn image).

【0022】入力メモリ1に記憶されるN×Nサイズの
対象物体画像IMGをm×mの小領域である受容野に分
割し、各受容野像を順に受容野メモリ2に記憶し、極変
換部3で各受容野像に対して極変換を施して出力(ハイ
パーコラム像)を双対プレーン4に写像し、極変換出力
に基づいて線分等の特徴を抽出する。
The target object image IMG of the N × N size stored in the input memory 1 is divided into receptive fields, which are small areas of m × m, and each receptive field image is stored in the receptive field memory 2 in order, and pole conversion is performed. The unit 3 performs polar transformation on each receptive field image, maps the output (hypercolumn image) on the dual plane 4, and extracts features such as line segments based on the polar transformation output.

【0023】受容野法の具体的な手続きを、最も簡単な
極変換、すなわち、「平面投影入力+円筒上極変換」で
説明すると、次のようになる。すなわち、「入力画像を
m×mに分割した各受容野内の画素を、円筒上極変換
し、得られた曲線(円筒上極変換では正弦波)を双対プ
レーン上に描く」である。以上は、「平面投影入力+円
筒上極変換」の場合であるが、「球面投影入力+球面上
極変換」の場合には、上記において正弦曲線を大円に変
更すればよい。主なフローを以下に示す。 (a) 球面上に投影された画像を小領域(受容野)に分割 (b) 受容野内の各画素を球面上で極変換する(画素に対
応する大円を描く) (c) 受容野全体は球面上の帯に極変換されるが、受容野
は一般的に小さいので、この帯を平面に展開する。これ
が、各受容野に対応する双対プレーン(ハイパーコラム
プレーン)である。(b)の極変換は、「画素→正弦波」に
近似され、受容野とハイパーコラムとの変換は、「受容
野の各画素を、双対プレーン上の対応する正弦曲線に変
換する」となる。双対プレーンにおける各軸は受容野内
における線の位置ρと方向θを示すもので、画像プレー
ン(受容野)内の線分は正弦波の交点に濃縮され、交点
座標ρ0、θ0が受容野内における線分の位置と方向を示
すことになる。
The specific procedure of the receptive field method will be described with the simplest polar transformation, that is, “plane projection input + cylindrical pole transformation”. That is, "the pixels in each receptive field obtained by dividing the input image into mxm are pole-to-cylinder transformed, and the obtained curve (sine wave in the pole-to-cylinder transformation) is drawn on a dual plane". The above is the case of “plane projection input + cylindrical pole conversion”. However, in the case of “spheric projection input + spherical top pole conversion”, the sine curve may be changed to a great circle in the above. The main flow is shown below. (a) Divide the image projected on the sphere into small areas (receptive fields). (b) Polarize each pixel in the receptive field on the sphere (draw a large circle corresponding to the pixel). (c) Entire receptive field Is pole transformed into a band on a sphere, but the receptive field is generally small, so this band is developed into a plane. This is a dual plane (hypercolumn plane) corresponding to each receptive field. The polar transformation of (b) is approximated as “pixel → sine wave”, and the transformation between the receptive field and the hypercolumn is “convert each pixel of the receptive field to a corresponding sinusoidal curve on the dual plane”. . Each axis in the dual plane indicates the position ρ and direction θ of the line in the receptive field, and the line segment in the image plane (receptive field) is concentrated at the intersection of the sine waves, and the intersection coordinates ρ 0 and θ 0 are set in the receptive field. Indicates the position and direction of the line segment at.

【0024】図6に従って詳細に説明すると、受容野R
C内の点Pは、極変換により次元を増やして大円(直
線)Rに写像される。これを繰り返すと受容野全体は球
面上の帯BLTに写像される(図6(a))。この帯を切り
開いて平面に展開すると(図6(b))、線の方向θと線の
位置ρを座標軸とする長方形格子となる。この極変換で
受容野内の各画素は、双対プレーンの複数の格子点(正
弦波状)に多価写像される。これを繰り返すと、受容野
内の線分は、それを構成する点列が極変換された”正弦
波群の交点”として抽出される。すなわち、交点Qが受
容野内の線分L(図6(c))を濃縮したものとなり、その
θ軸及びρ軸座標値θ0,ρ0が受容野における線分の方
向と位置を示すことになる。
Referring to FIG. 6, a detailed explanation will be given.
The point P in C is mapped to a great circle (straight line) R by increasing the dimension by polar transformation. By repeating this, the entire receptive field is mapped to the band BLT on the spherical surface (FIG. 6 (a)). When this band is cut out and developed on a plane (FIG. 6 (b)), a rectangular grid having a line direction θ and a line position ρ as coordinate axes is obtained. By this polar transformation, each pixel in the receptive field is multiply mapped to a plurality of grid points (sinusoidal shape) of the dual plane. By repeating this, the line segment in the receptive field is extracted as the "intersection of the sine wave group" in which the point sequence constituting the line segment is pole-transformed. That is, the intersection Q becomes a concentrated line segment L (FIG. 6 (c)) in the receptive field, and its θ-axis and ρ-axis coordinate values θ 0 and ρ 0 indicate the direction and position of the line segment in the receptive field. become.

【0025】受容野法では、このように、m×mの受容
野内の画像について極変換を施すだけでよいため、球面
上の極変換の場合には、受容野内の各画素について長さ
mの大円を描くだけでよく、処理量がm×N2になり、
Nの大円を描く従来例(N3の処理量が必要)に比べて
大幅に減少し、しかもハードウェアの小型化が可能とな
る。尚、極変換の詳細については本願出願人が既に出願
済みの特願平3-327723号(発明の名称:画像処理方法、
出願日:平成3年12月11日)を参照されたい。
In the receptive field method, as described above, it is only necessary to perform polar transformation on an image in an m × m receptive field. In the case of polar transformation on a spherical surface, each pixel in the receptive field has a length m. need only draw a great circle, processing amount becomes m × N 2,
Greatly reduced compared to conventional draw N great circles (N required throughput of 3), moreover it is possible to downsize the hardware. The details of the polar transformation are described in Japanese Patent Application No. 3-327723, filed by the present applicant (title of image processing method,
Filing date: December 11, 1991).

【0026】(B) 本発明の基本構成 以上をまとめると、両眼立体視の基本構成は 入力画像→極変換→一次元相関処理 となる。極変換は前述のように、接線比較を一次元で行
うために、”接線”を”点”に変換する操作であり、一
次元相関処理は、θが同じρ軸上の”点列”から対応す
る”点”を抽出する操作である。極変換された両眼の双
対プレーンにおける写像データをそれぞれL(ρ,
θ)、R(ρ,θ)、写像データ間の間隔(シフト量)
をσとして次式 C(ρ,θ,σ)=L(ρ,θ)・R(ρ+σ,θ) (1) により相関量(相関パラメータという)を演算する。そ
して、相関量C(ρ,θ,σ)が極大となる要素パラメ
ータρ,θ,σの値(ρP,θP,σP)を求めると、こ
の要素パラメータの値に基づいて、対応する接線が決定
され、又、その接線の位置、方位、視差が定量的に求め
られる。尚、相関パラメータは(1)式の非対称型相関演
算の他、次式の対称型相関演算により算出することもで
きる。 C(ρ,θ,σ)=L(ρ−σ,θ)・R(ρ+σ,θ) (1)′ 但し、以後では(1)式の非対称型相関演算により相関パ
ラメータを演算するものとして説明する。又、以後で
は、相関量、相関パラメータ、相関結果という用語が混
在して使われるが同義語である。
(B) Basic Configuration of the Present Invention In summary, the basic configuration of binocular stereopsis is input image → polar conversion → one-dimensional correlation processing. As described above, the polar conversion is an operation of converting a “tangent” into a “point” in order to perform a tangent comparison in one dimension. This is an operation to extract the corresponding “point”. The pole-transformed mapping data in the dual plane of both eyes is represented by L (ρ,
θ), R (ρ, θ), interval between mapping data (shift amount)
The correlation amount (referred to as a correlation parameter) is calculated by the following equation: C (ρ, θ, σ) = L (ρ, θ) · R (ρ + σ, θ) (1) Then, when the values (ρ P , θ P , σ P ) of the element parameters ρ, θ, σ at which the correlation amount C (ρ, θ, σ) is maximized are determined based on the values of the element parameters. The tangent is determined, and the position, orientation, and parallax of the tangent are quantitatively determined. The correlation parameter can be calculated by the asymmetric correlation operation of the following equation in addition to the asymmetric correlation operation of the equation (1). C (ρ, θ, σ) = L (ρ−σ, θ) · R (ρ + σ, θ) (1) ′ However, hereinafter, the correlation parameter is calculated by the asymmetric correlation calculation of equation (1). It will be described as. In the following, the terms correlation amount, correlation parameter, and correlation result are used together, but are synonymous.

【0027】(C) 本発明の実施例 図7は入力画像→受容野分割→極変換→一次元相関処理
により2つの画像に含まれる対応する接線の位置、方
位、視差を求める本発明の実施例構成図である。図中、
11,21は左右眼の入力画像IML,IMRを記憶する
入力メモリ、12,22は入力プレーンをm×mの小領
域である受容野に分割した時、順次受容野内の画像(受
容野像)を切り出して出力する受容野切り出し回路、1
3,23は各受容野内の画像(受容野像)を記憶する受
容野メモリ、14,24は各受容野像に極変換を施す極
変換回路、15,25は極変換された双対プレーン(ハ
イパーコラムプレーン)上の画像(ハイパーコラム像)
を記憶する極変換ハイパーコラムメモリである。極変換
ハイパーコラムメモリ15,25はρ方向にρmax,θ方
向にθmax、総計ρmax×θmax個の記憶域(ハイパーコラ
ム細胞)で構成されている。
(C) Embodiment of the Present Invention FIG. 7 shows an embodiment of the present invention for finding the position, orientation, and parallax of the corresponding tangent lines included in two images by input image → receptive field division → polar conversion → one-dimensional correlation processing. It is an example block diagram. In the figure,
11 and 21 input memory for storing input image IM L, IM R of the right and left eyes, 12 and 22 when dividing the input plane receptive field is a small area of m × m, sequential receptive field of the image (receptive field Receptive field extracting circuit for extracting and outputting an image), 1
Reference numerals 3 and 23 denote receptive field memories for storing images (receptive field images) in each receptive field, 14 and 24 denote polar conversion circuits for performing polar conversion on each receptive field image, and 15 and 25 denote polar-converted dual planes (hyperplanes). Image on column plane) (hyper column image)
Is a pole conversion hyper column memory for storing the data. The pole conversion hypercolumn memories 15 and 25 are composed of ρmax in the ρ direction, θmax in the θ direction, and a total of ρmax × θmax storage areas (hypercolumn cells).

【0028】16,26は極変換により得られたハイパ
ーコラム像に一次元フィルタ処理を施す一次元フィルタ
回路、17,27はフィルタ処理を施されたハイパーコ
ラム像を記憶する双対プレーン(ハイパーコラムメモ
リ)、30は相関処理部である。相関処理部30におい
て、31は(1)式に従って一次元相関演算を行う相関演
算部、32は相関値(相関パラメータ)を記憶するρ−
σ−θの次元を有する相関パラメータ記憶部、33は相
関パラメータ記憶部の記憶データをスキャンして極大点
(ρP,θP,σP)を検出するピーク検出部である。
Reference numerals 16 and 26 denote one-dimensional filter circuits for performing one-dimensional filter processing on the hypercolumn images obtained by the polar transformation, and reference numerals 17 and 27 denote dual planes (hypercolumn memory) for storing the filtered hypercolumn images. ) And 30 are correlation processing units. In the correlation processing unit 30, reference numeral 31 denotes a correlation operation unit that performs a one-dimensional correlation operation according to the equation (1), and 32 denotes a ρ- that stores a correlation value (correlation parameter).
A correlation parameter storage unit having a dimension of σ-θ, and a peak detection unit 33 that scans data stored in the correlation parameter storage unit and detects local maximum points (ρ P , θ P , and σ P ).

【0029】極変換回路14,24は、受容野内の各画
素を極変換し、すなわち画素を対応する大円に変換して
極変換ハイパーコラムメモリ15,25に記憶する。
尚、実際には、極変換は「画素→正弦波」に近似され、受
容野の各画素をハイパーコラム上の対応する正弦曲線に
変換して極変換ハイパーコラムメモリ15,25に記憶
する。
The polar conversion circuits 14 and 24 polar-convert each pixel in the receptive field, that is, convert the pixel into a corresponding great circle and store it in the polar-converted hypercolumn memories 15 and 25.
In practice, the polar conversion is approximated as “pixel → sine wave”, and each pixel in the receptive field is converted into a corresponding sine curve on the hypercolumn and stored in the polar conversion hypercolumn memories 15 and 25.

【0030】一次元フィルタ回路16,26は尖鋭な線
・縁・隙間抽出を少ない処理量で行うためのものであ
る。輪郭強調や特徴抽出を行うために、通常、画像デー
タに二次元コンボリューションフィルタをかけ、しかる
後、極変換を施している。しかし、かかるコンボリュー
ション法によれば、フィルタサイズをaとすると各入力
点に対してa2の処理が必要となり、フィルタサイズの
増大とともに処理量が増加する。しかし、「二次元コン
ボリューションフィルタ+極変換」は「極変換後にρ方
向に一次元フィルタ処理を行うこと」と等価であるか
ら、図7の実施例では極変換後に一次元フィルタを掛け
ている。このようにすれば、処理量は一次元フィルタの
ため各入力点に対してaと少なく、コンボリューション
法に比べて約2/aに処理量が減少する。
The one-dimensional filter circuits 16 and 26 are for extracting sharp lines, edges and gaps with a small amount of processing. In order to perform contour enhancement and feature extraction, usually, a two-dimensional convolution filter is applied to image data, and then polar conversion is performed. However, according to the convolution method, the process of a 2 filter sizes for each input point When a is required, the processing amount with increasing filter size increases. However, since “two-dimensional convolution filter + polar transformation” is equivalent to “performing one-dimensional filtering in the ρ direction after polar transformation”, the embodiment of FIG. 7 applies a one-dimensional filter after polar transformation. . By doing so, the processing amount is as small as a for each input point because of the one-dimensional filter, and the processing amount is reduced to about 2 / a as compared with the convolution method.

【0031】相関演算 相関演算部31は、左眼の双対プレーン17における写
像データL(ρ,θ)と、該写像データL(ρ,θ)か
らρ軸方向にσシフトした右眼の双対プレーン27にお
ける写像データR(ρ+σ,θ)とを乗算して相関パラ
メータ記憶部に記憶し、以後、順次、該シフト量σを0
〜σmaxまで、ρを0〜ρmax(受容野幅)まで、θを0〜
θmax(受容野幅)まで変化させて各乗算結果を相関パラ
メータ記憶部32に記憶する。
Correlation operation The correlation operation unit 31 includes a mapping data L (ρ, θ) in the left-eye dual plane 17 and a right-eye dual plane shifted σ in the ρ-axis direction from the mapping data L (ρ, θ). 27, and multiplies it by the mapping data R (ρ + σ, θ) and stores the result in the correlation parameter storage unit.
To σmax, ρ to 0 to ρmax (receptive field width), θ to 0
Each multiplication result is stored in the correlation parameter storage unit 32 while being changed to θmax (reception field width).

【0032】図8は相関演算処理の流れ図であり、相関
演算に際して0→θ、0→ρ、0→ρとする(ステップ
101〜103)。ついで、(1)式により、相関パラメ
ータを演算して相関パラメータ記憶部32に記憶する
(ステップ104,105)。ついで、σをインクリメン
トすると共に、σ>σmaxかどうかを判断し(ステップ
106、107)、σ≦σmaxであれば、ステップ10
4に戻って以降の処理を繰返す。そして、σ>σmaxと
なれば、ρをインクリメントすると共にρ>ρmaxかど
うかを判断し(ステップ108、109)、ρ≦ρmax
であれば、ステップ103に戻って以降の処理を繰返
す。ρ>ρmaxとなれば、θをインクリメントすると共
にθ>θmaxかどうかを判断し(ステップ110、11
1)、θ≦θmaxであれば、ステップ102に戻って以
降の処理を繰返し、θ>θmaxとなれば、相関演算処理
を終了する。
FIG. 8 is a flow chart of the correlation calculation process, where 0 → θ, 0 → ρ, 0 → ρ are set in the correlation calculation (steps 101 to 103). Next, the correlation parameter is calculated by equation (1) and stored in the correlation parameter storage unit 32.
(Steps 104 and 105). Then, σ is incremented, and it is determined whether σ> σmax (steps 106 and 107).
4 and the subsequent processing is repeated. If σ> σmax, ρ is incremented and it is determined whether ρ> ρmax (steps 108 and 109), and ρ ≦ ρmax
If so, the process returns to step 103 and the subsequent processing is repeated. If ρ> ρmax, θ is incremented and it is determined whether θ> θmax (steps 110 and 11).
1) If θ ≦ θmax, the process returns to step 102 and the subsequent processes are repeated. If θ> θmax, the correlation calculation process ends.

【0033】極変換回路 極変換回路14(極変換回路24も同様)は図9に示す
ように、受容野メモリ13の番地から順次1画素づつ受
容野像(振幅)を読み出し、該番地と振幅値を出力する
読み出し制御部14aと、各画素に対して極変換(画素
番地→正弦波番地への変換)を施す極変換部14bと、
極変換により得られた正弦波番地が示す極変換ハイパー
コラムメモリ15の複数の記憶位置に読み取った振幅を
書き込む書き込み制御部14cを備えている。
The polar conversion circuit polar transformation circuit 14 (also polar transformation circuit 24), as shown in FIG. 9, read sequentially pixel by pixel receptive field image (amplitude) from the address of the receptive field memory 13,該番point and amplitude A read control unit 14a that outputs a value, a polar conversion unit 14b that performs a polar conversion (a conversion from a pixel address to a sine wave address) for each pixel,
A write control unit 14c is provided for writing the read amplitude to a plurality of storage locations of the pole conversion hypercolumn memory 15 indicated by the sine wave address obtained by the pole conversion.

【0034】極変換部14bは受容野メモリ13の画素
番地を極変換ハイパーコラムメモリ15の複数の番地に
対応させる番地変換テーブルメモリ14b-1と、受容野メ
モリ13の番地を極変換ハイパーコラムメモリ15の番
地に変換する番地変換回路14b-2を備えている。番地変
換テーブルメモリ14b-1に記憶されている番地変換テ
ーブルは、受容野像における点をハイパーコラムプレー
ン上の正弦波に極変換するためのもので、受容野像の点
に応じた番地を、正弦波を構成する点列の各点が位置す
る極変換ハイパーコラムメモリ上の多数の番地に変換す
るものである。
The polar conversion unit 14b is provided with an address conversion table memory 14b-1 for making the pixel addresses of the receptive field memory 13 correspond to a plurality of addresses of the polar conversion hypercolumn memory 15, and a polar conversion hypercolumn memory for converting the address of the receptive field memory 13. An address conversion circuit 14b-2 for converting the address into an address of 15 is provided. The address conversion table stored in the address conversion table memory 14b-1 is used to polar-convert a point in the receptive field image into a sine wave on the hyper column plane. The conversion into a number of addresses on the pole conversion hyper column memory where each point of the point sequence forming the sine wave is located.

【0035】読み出し制御部14aは、受容野メモリ1
3の第1番地から振幅データを読み取り、該振幅データ
と番地データ(第1番地)を極変換部14bに入力す
る。極変換部14bは受容野メモリの第1番地(画素)
を極変換ハイパーコラムメモリ15の正弦波点列の多数
のアドレスに変換し、該アドレスと振幅を出力する。書
き込み制御部14cは、極変換部14bより入力された
振幅データを同様に入力された極変換ハイパーコラムメ
モリ15の各アドレスの内容(初期値は0)に加算して
該アドレスに書き込む。以後、順次、受容野メモリ14
の全番地に対して上記処理を行えば、受容野像に対する
極変換が終了する。
The read control unit 14a includes the receptive field memory 1
3, the amplitude data is read from the first address, and the amplitude data and the address data (first address) are input to the pole conversion unit 14b. The pole conversion unit 14b is the first address (pixel) of the receptive field memory.
Is converted into a number of addresses of a sine wave point sequence in the pole conversion hyper column memory 15 and the addresses and amplitudes are output. The write control unit 14c adds the amplitude data input from the pole conversion unit 14b to the contents (initial value is 0) of each address of the pole conversion hypercolumn memory 15 similarly input, and writes the data to the address. Thereafter, the reception area memory 14
When the above-described processing is performed for all the addresses, the polar conversion for the receptive field image is completed.

【0036】一次元フィルタ回路 一次元フィルタ回路16(一次元フィルタ回路26も同
様)は図10に示すように、極変換ハイパーコラムメモ
リ15におけるθ一定のρmax個の番地(たとえば斜線
部参照)から振幅を読み出して出力する読み出し制御部
16aと、読み出された各振幅に対して一次元フィルタ
リング処理を施す一次元フィルタ部16bと、一次元フ
ィルタリング処理結果を双対プレーン(ハイパーコラム
メモリ)17の記憶域に書き込む書き込み制御部16c
を備えている。
[0036] From one-dimensional filter circuit one-dimensional filter circuit 16 (also one-dimensional filter circuit 26), as shown in FIG. 10, polar transformation Hypercolumn certain ρmax number of addresses θ in the memory 15 (e.g. see the hatched portion) A read control unit 16a for reading and outputting the amplitude, a one-dimensional filter unit 16b for performing one-dimensional filtering processing on each read amplitude, and storage of a one-dimensional filtering processing result in a dual plane (hyper column memory) 17 Write control unit 16c for writing to the area
It has.

【0037】一次元フィルタ部16bは例えばFIR型
デジタルフィルタ構成になっており、一次元フィルタメ
モリ16b-1と積和回路16b-2を有している。一次元フィル
タメモリ16b-1には横軸をρ軸とした一次元フィルタ特
性値(係数)が離散的に記憶されている。すなわち、ρ
方向の−ρmax/2〜ρmax/2のそれぞれの位置に対して一
次元フィルタ特性値を記憶しており、該特性値により一
次元フィルタ部16bを一次元一次微分フィルタ、一次
元二次微分フィルタとすることができる。尚、フィルタ
の幅や値は必要に応じて適当に決定される。積和回路16
b-2は極変換ハイパーコラム15から読み出されたρmax
個の振幅と一次元フィルタメモリ16b-1に記憶されてい
る対応するρmax個の特性値をそれぞれ掛け合わせ、乗
算結果の総和(振幅)を出力すると共に、前記対応関係を
1画素づつずらして同様の積和演算を行って演算結果を
出力する。
The one-dimensional filter section 16b has, for example, an FIR digital filter configuration, and has a one-dimensional filter memory 16b-1 and a product-sum circuit 16b-2. The one-dimensional filter memory 16b-1 discretely stores one-dimensional filter characteristic values (coefficients) with the horizontal axis being the ρ axis. That is, ρ
A one-dimensional filter characteristic value is stored for each position of -ρmax / 2 to ρmax / 2 in the direction, and the one-dimensional filter unit 16b is used for the one-dimensional primary differential filter and the one-dimensional secondary differential filter based on the characteristic value. It can be. The width and value of the filter are appropriately determined as needed. Product-sum circuit 16
b-2 is ρmax read from the pole conversion hypercolumn 15
Are multiplied by the corresponding ρmax characteristic values stored in the one-dimensional filter memory 16b-1 to output the sum (amplitude) of the multiplication results and shift the correspondence by one pixel at a time. And outputs the operation result.

【0038】たとえば、まず、θ=i(初期値は1)とな
る極変換ハイパーコラムメモリ15における全番地(ρ
max個の番地)からρmax個の振幅を読み出す。ついで、
一次元フィルタメモリ16b-1におけるフィルタ特性ρ=
0の位置を、ρmax個の最左端番地A0iに対応付けす
る。しかる後、それぞれ対応する振幅値と特性値の乗算
を行うと共に、乗算結果の総和Σ0iを演算し、該総和を
書き込み制御部16cをしてハイパーコラムメモリ17
の番地A0iに書き込む。
For example, first, all addresses (ρ
ρmax amplitudes are read from (max addresses). Then
Filter characteristic ρ in one-dimensional filter memory 16b-1 =
The position of 0 is associated with ρmax leftmost addresses A 0i . Thereafter, the corresponding amplitude value is multiplied by the characteristic value, the sum Σ 0i of the multiplication result is calculated, and the sum is written to the hyper column memory 17.
Is written to the address A 0i .

【0039】以上の処理が終了すると、フィルタ特性値
ρ=0の位置を、左から2番目の番地A1iに対応させ、
それぞれ対応する振幅値と特性値の乗算を行い、その乗
算結果の総和Σ1iを書き込み制御部16cをしてハイパ
ーコラムメモリ17の番地A 1iに書き込む。以後、同様
な処理を行い、フィルタ特性値ρ=0の位置を最右端番
地Amax,iに対応させて上記処理を終了すれば、以後i
+1→iとして上記積和演算を繰り返して一次元フィル
タリング処理を行う。
When the above processing is completed, the filter characteristic value
The position of ρ = 0 is the second address A from the left.1iCorresponding to
The corresponding amplitude value is multiplied by the characteristic value, and the product is multiplied.
Sum of calculation results Σ1iThe write controller 16c
-Address A of column memory 17 1iWrite to. After that, the same
And the position of the filter characteristic value ρ = 0
Ground Amax, iIf the above processing is completed in accordance with
Repeat the above product-sum operation as + 1 → i to perform one-dimensional fill
Performs a tarring process.

【0040】シミュレーション結果 図11〜図13は、線を抽出するために図7の一次元フ
ィルタ16,26として一次元ガウシャンフィルタを用
いた場合のシミュレーション結果説明図である。極変換
と一次元ガウシャンフィルタ処理により画像IML,I
R中の”線”は、線の位置ρと線の方位θを座標軸と
する双対プレーン内の”点”に変換される。図11
(a),(b)における円形部CL,CRは左右眼の受容野、円
形内の像は左右眼に写る受容野像であり、プラント内の
情景中四角で囲んだ部分の十字線の図形が写っている。
尚、全てのデータは信号の強さを等高線で示してある。
Simulation Results FIGS. 11 to 13 are explanatory diagrams of simulation results when a one-dimensional Gaussian filter is used as the one-dimensional filters 16 and 26 in FIG. 7 to extract lines. Images IM L , I by polar transformation and one-dimensional Gaussian filtering
The “line” in M R is converted into a “point” in a dual plane with the coordinate ρ of the line position and the azimuth θ of the line. FIG.
(a), the circular part C L in (b), C R are the left and right eyes receptive field, the image of the circular is receptive field images caught on the right and left eyes, cross-hairs of the portion surrounded by a scene in a square in the plant The figure of is reflected.
In all data, the signal strength is indicated by contour lines.

【0041】図12(a),(b)は前述の「極変換+一次元ガ
ウシャンフィルタ」処理を施したρ−θの双対プレーン
上のハイパーコラム像であり、十字線を構成する2本の
線はそれぞれ900と1800のρ軸上の2点PL1
L2;PR1,PR2に変換されている。尚、それらのピー
クは一次元フィルタリングにより先鋭化され、その副作
用として両側に負のサブピークPL1′,PL2′;
R1′,PR2′を伴っている。このサブピークは、次の
相関処理をシャープにするのに非常に有効である。
FIGS. 12 (a) and 12 (b) are hypercolumn images on the dual plane of ρ-θ which have been subjected to the above-mentioned “polar conversion + one-dimensional Gaussian filter” processing. Are two points P L1 on the ρ axis of 90 0 and 180 0 , respectively.
P L2 ; converted to P R1 and P R2 . Incidentally, those peaks are sharpened by one-dimensional filtering, and as a side effect thereof, negative sub-peaks P L1 ′ and P L2 ′ are provided on both sides;
P R1 ', P R2' is accompanied by. This sub-peak is very effective in sharpening the next correlation process.

【0042】図13は左右眼の双対プレーンデータか
ら、(1)式の相関量(相関パラメータ)C(ρ,θ,σ)を
求めた結果を、横軸をρ(位置)、縦軸をσ(視差)、
奥行きをθ(方位)とするρ−σ−θプレーンに展開
し、相関値を等高線で示すもので、説明の都合上、一番
上にはθ=900のρ−θプレーン示されている。相関
パラメータC(ρ,θ,σ)がピーク(極大)となる
(ρP,θP,σP)を求めると、左右眼に写った十字線
の対応関係が定量的に求められ、ρP,θP,σPそれぞ
れが線の位置、方位、視差を示すことになる。十字線を
構成する2つの線のうち縦棒(θ=900)が左右の眼
で見える視差を求めてみると、10であり、両眼の間隔
を6cmとして縦棒までの距離を計算すると360cmとな
り、正確に両眼立体視が行われていたことが確認でき
る。
FIG. 13 shows the result of calculating the correlation amount (correlation parameter) C (ρ, θ, σ) of the equation (1) from the dual plane data of the left and right eyes, where the horizontal axis is ρ (position) and the vertical axis is σ (parallax),
Depth developed in ρ-σ-θ plane and theta (orientation), indicates a correlation value by contour lines, for convenience of description, the top is shown [rho-theta plane theta = 90 0 . When (ρ P , θ P , σ P ) at which the correlation parameter C (ρ, θ, σ) reaches a peak (maximum) is obtained, the correspondence between the crosshairs reflected in the left and right eyes is quantitatively obtained, and ρ P , Θ P , and σ P indicate the position, orientation, and parallax of the line, respectively. When the two lines constituting the cross line vertical bar (theta = 90 0) is try seeking parallax visible left and right eyes, a 1 0, calculate the distance to the vertical bars the distance between both eyes as a 6cm Then, it becomes 360 cm, and it can be confirmed that binocular stereoscopic vision has been accurately performed.

【0043】評価 以上で説明したように、基本処理(極変換+一次元相関
処理)により以下の効果が得られる。 図形の特徴を接線で比較することによる効果 左右画像から同じ図形を見出すのは、現在の画像処理技
術が”形”の処理に弱いため困難である。そこで、図形
輪郭を構成する接線で対応を求めることにすると、最も
簡単な直線図形となるため、簡単な手続きで対応決定を
行える。
Evaluation As described above, the following effects can be obtained by the basic processing (polar conversion + one-dimensional correlation processing). Effect of comparing the features of figures with tangents It is difficult to find the same figure from the left and right images because the current image processing technology is weak in the processing of "shape". Therefore, if the correspondence is determined by the tangents constituting the figure outline, the simplest linear figure is obtained, and the correspondence can be determined by a simple procedure.

【0044】 接線の二次元対応を一次元で処理する効果 左右画像中の接線対応を決定するには、二次元での処理
が必要である。しかし、対応処理の前に極変換処理を行
って双対プレーンに写像すると、平行線群はρ軸上の点
列に変換される極変換の性質により、接線の対応はρ軸
上の一次元相関の問題に還元され、処理量が大幅に軽減
されると共に、対応の安定性も向上する。
Effect of Processing Two-Dimensional Correspondence of Tangent Lines in One Dimension To determine tangent correspondences in the left and right images, two-dimensional processing is required. However, when the polar transformation process is performed before the correspondence process and the image is mapped onto the dual plane, the parallel lines are transformed into a sequence of points on the ρ axis. The problem is reduced to a large amount, and the processing amount is greatly reduced, and the stability of the response is also improved.

【0045】高度フィルタリングによる効果 極変換の後で既に出願済みの高度な一次元フィルタリン
グ処理を施すことができ、この結果、極変換→一次元フ
ィルタ→一次元相関処理の構成とすることにより確実な
対応決定が可能となり、又後述の各種の相関パラメータ
を精密に計測することが可能となる。尚、一次元フィル
タリングの種類と機能としては以下がある。 ・奇関数フィルタリングによる縁の対応決定:画像の最
も重要な特徴であるが従来の二次元コンボリューション
フィルタでは抽出困難な縁(明るさの境界)を抽出で
き、縁の対応決定が可能となる。これは、事前に極変換
を施すことにより、奇関数フィルタが可能になったこと
による。 ・マルチフィルタリングによる安定な対応決定:極変換
したデータに対しては、幅の異なるフィルタを多数同時
に施すことができる(マルチフィルタ)。これにより、
従来の方法では困難な、画像中に混在する”ボケ特徴”
と”細かい特徴”を同時に抽出でき、安定な対応決定が
可能となる。 ・スケルトンフィルタリングによる高速の処理:極変換
したデータに対しては、最も効率的なスケルトンフィル
タを施すことができる。これにより、上記の奇関数フィ
ルタやマルチフィルタを高速で実現できる。なお、奇関
数フィルタ、マルチフィルタ、スケルトンフィルタ等の
詳細については本願出願人が既に出願済みの特願平3-32
7722号(発明の名称:画像処理方法、出願日:平成3年
12月11日)を参照されたい。
Effect of Advanced Filtering After the polar conversion, an advanced one-dimensional filtering process, which has already been filed, can be performed. As a result, the configuration of the polar conversion → one-dimensional filter → one-dimensional correlation processing ensures a certainty. Correspondence can be determined, and various correlation parameters described later can be measured accurately. The types and functions of one-dimensional filtering are as follows. Edge determination by odd function filtering: Edges (brightness boundaries), which are the most important features of an image but difficult to extract with a conventional two-dimensional convolution filter, can be extracted, and edge correspondence can be determined. This is because an odd function filter has been made possible by performing polar conversion in advance. -Stable correspondence determination by multi-filtering: A large number of filters having different widths can be simultaneously applied to pole-converted data (multi-filter). This allows
"Blur feature" mixed in images, which is difficult with conventional methods
And "fine features" can be extracted at the same time, and stable correspondence determination can be made. High-speed processing by skeleton filtering: The most efficient skeleton filter can be applied to pole-converted data. Thereby, the above-mentioned odd function filter and multi-filter can be realized at high speed. For details of the odd function filter, the multi-filter, the skeleton filter, etc., refer to Japanese Patent Application No.
No. 7722 (Title of Invention: Image Processing Method, Filing Date: December 11, 1991).

【0046】(D) 本発明の拡張 以上では判り易さのために、両眼立体視を例に相関フィ
ルタリングの原理と効果を説明してきた。しかし、本質
は画像間で図形の相関の度合を計測して判断することに
あり、両眼での対応だけでなく、移動する物体を時間的
に異なる画像から対応付けて追尾する用途や、1つの画
面内でも同じ模様の程度を調べるテクスチュア解析など
に広く活用できるものである。以下、本発明の相関フィ
ルタリングの拡張を詳しく説明する。
(D) Extension of the Present Invention The principle and effects of correlation filtering have been described above with reference to binocular stereovision for ease of understanding. However, the essence is to measure and judge the degree of correlation between graphics between images, and not only for correspondence with both eyes, but also for use in tracking moving objects in association with temporally different images, It can be widely used for texture analysis to check the degree of the same pattern in one screen. Hereinafter, the extension of the correlation filtering of the present invention will be described in detail.

【0047】(a) 基本フロー 図14は相関フィルタリングの基本フローであり、入力
データA,Bに極変換処理を施し(ステップ51a、5
1b)、該極変換結果に一次元フィルタリング処理を施
して相関双対プレーンに写像し(ステップ52a,52
b)、各双対プレーンに写像されたデータ間に相関処理
を施す(ステップ53)である。尚、入力データは受容
野に分割するのが望ましいが必ずしも受容野分割する必
要はない。また、一次元フィルタ処理は必要に応じて施
せば良く、その種類は先の特願平3-327722号に開示され
ているフィルタを用いることができる。更に、極変換の
代わりに、相反変換や直交補空間などの全てを適用でき
る。又、入力データはカメラからの画像に限定されるこ
となく、例えばカメラ画像を極変換したデータを入力し
ても良く、しかも、入力データは2つに限ることなく、
3つ以上あっても良い。
(A) Basic Flow FIG. 14 shows a basic flow of the correlation filtering, in which the input data A and B are subjected to polar conversion processing (steps 51a and 51a).
1b), performing a one-dimensional filtering process on the result of the polar transformation and mapping the result to a correlation dual plane (steps 52a and 52).
b) Correlation processing is performed between the data mapped on each dual plane (step 53). It is desirable that input data be divided into receptive fields, but it is not always necessary to divide into receptive fields. The one-dimensional filter processing may be performed as needed, and the type thereof may be a filter disclosed in Japanese Patent Application No. 3-327722. Further, all of the reciprocal transformation and the orthogonal complement space can be applied instead of the polar transformation. Further, the input data is not limited to the image from the camera. For example, data obtained by polar-converting a camera image may be input, and the input data is not limited to two.
There may be three or more.

【0048】以下では、受容野分割、一次元フィルタ処
理を施すものとして説明する。 (b) 相関の作用画面 作用画面、すなわち基本フローにおける入力データA,
Bには以下の場合があり、それぞれ固有の相関パラメー
タを計測できる。 (b-1) 異なる画像間の相関 空間的に異なる画面間の相関 入力データA,Bが空間的に異なる画面、例えば別のカ
メラで撮像された画面の画像データであり、この入力デ
ータに相関フィルタリングを施す場合であり、空間的に
異なる画面間の特徴相関パラメータを抽出できる。両眼
立体視と三眼立体視が特に有用な例である。
In the following, a description will be given assuming that receptive field division and one-dimensional filter processing are performed. (b) Correlation action screen Action screen, that is, input data A,
B has the following cases, and each can measure a unique correlation parameter. (b-1) Correlation between different images Correlation between spatially different screens Input data A and B are image data of a spatially different screen, for example, a screen captured by another camera. This is a case where filtering is performed, and a feature correlation parameter between spatially different screens can be extracted. Binocular stereovision and trinocular stereovision are particularly useful examples.

【0049】図15は空間的に異なる画面間の相関フィ
ルタリングのフロー図であり、(a)は2つのカメラから
入力される画面の場合、(b)は3つのカメラから入力さ
れる画面の場合である。 ・2つのカメラから入力される画面の場合(図15
(a)) カメラが2つの場合、左カメラCML、右カメラCMR
で撮像した1画面分の画像データIML,IMRを受容野
像に分割し(ステップ50a,50b)、各受容野像I
L′,IMR′に極変換処理を施し(ステップ51a、
51b)、該極変換結果に一次元フィルタリング処理を
施して双対プレーンに写像し(ステップ52a,52
b)、各双対プレーンに写像されたデータ間に相関処理
を施す(ステップ53)。前述の両眼立体視がこれに相
当する。
FIG. 15 is a flowchart of correlation filtering between screens spatially different from each other. FIG. 15 (a) shows a screen input from two cameras, and FIG. It is. In the case of a screen input from two cameras (FIG. 15
(a)) When there are two cameras, the left camera CML and the right camera CMR
In the image data IM L of one screen captured by dividing the IM R to receptive field images (step 50a, 50b), each receptive field image I
Polar conversion processing is performed on M L ′ and IM R ′ (step 51 a,
51b) The one-dimensional filtering process is performed on the polar conversion result to map the result onto a dual plane (steps 52a and 52).
b) Correlation processing is performed between the data mapped on each dual plane (step 53). The above-described binocular stereoscopic vision corresponds to this.

【0050】 ・3つのカメラから入力される画面の場合(図15
(b)) 両眼立体視では見る角度が2つのため、対応決定を間違
う場合がある。我々でもビックリハウスなどで錯覚する
のは眼が2つのせいである。工学的には3つの眼も可能
であり、もう1つのカメラを増やして、3つの角度から
見ると錯覚は各段に減少する。3つのカメラを三角形の
頂点に配置すると、全ての方向で錯覚を減少できて更に
改良される。カメラが3つの場合、左カメラCML、中
央カメラCMC、右カメラCMRで撮像した1画面分の
画像データIML,IMR,IMCを受容野像に分割し
(ステップ50a〜50c)、各受容野像IML′,I
R′,IMC′に極変換処理を施し(ステップ51a〜
51c)、該極変換結果に一次元フィルタリング処理を
施して双対プレーンに写像し(ステップ52a〜52
c)、各双対プレーンに写像されたデータ間に相関処理
を施す(ステップ53)。
In the case of a screen input from three cameras (FIG. 15
(b)) In binocular stereopsis, since there are two viewing angles, there is a case where the correspondence determination is wrong. The illusion of surprised houses is due to two eyes. Engineeringly, three eyes are possible, and the illusion decreases with each step when viewed from three angles by adding another camera. Placing three cameras at the vertices of the triangle can further reduce the illusion in all directions and further improve. If the camera is three, divided left camera CML, center camera CMC, the image data IM L of one screen captured by the right camera CMR, IM R, the IM C to receptive field image (step 50 a to 50 c), each receiving Field image IM L ', I
The polar conversion process is performed on M R ′ and IM C ′ (steps 51a to 51a).
51c), performing a one-dimensional filtering process on the polar conversion result and mapping the result to a dual plane (steps 52a to 52).
c) A correlation process is performed between the data mapped on each dual plane (step 53).

【0051】時間的に異なる画面間の相関 基本フローにおける入力データA,Bが、時間的に異な
る画面、例えばカメラを動かしながら撮像された画面の
画像データであり、この入力データに相関フィルタリン
グを施す場合である。この相関フィルタリングにより、
例えば受容野内に写る特徴(対象物のコーナや輪郭線な
ど)の移動方向や移動速度などを計測できるため、対象
物を視野の中心に捉えたまま移動することが可能とな
り、移動ロボットや無人自走車などへの応用を期待でき
る。大脳の第一次視覚野でも、受容野に写る接線の移動
方向を検出する細胞が存在して、眼球運動の制御部(上
丘や外側膝状体)には信号を送りだして対象物を視野中
心に捉えると共に、高次の視覚野にも並行して信号を送
りだして、視野に写る情景の動きを立体的に計測してい
る。
Correlation between temporally different screens Input data A and B in the basic flow are image data of a temporally different screen, for example, a screen captured while moving a camera, and the input data is subjected to correlation filtering. Is the case. With this correlation filtering,
For example, it is possible to measure the direction and speed of movement of features (corners, contours, etc.) in the receptive field, so that it is possible to move the object while capturing it at the center of the field of view. It can be expected to be applied to running vehicles. Even in the primary visual cortex of the cerebrum, there are cells that detect the direction of movement of the tangent line reflected in the receptive field, and a signal is sent to the eye movement control unit (upper hill or lateral knee) to view the object In addition to capturing at the center, signals are sent to the higher visual cortex in parallel, and the movement of the scene in the field of view is three-dimensionally measured.

【0052】図16は時間的に異なる画面間の相関フィ
ルタリングのフロー図である。左カメラCMで撮像した
1画面分の画像データIMLは遅延せず、一方、右カメ
ラCMRで撮像した1画面分の画像データIMRは遅延
部で遅延し(ステップ49)、遅延しない画像データI
Lと遅延した画像データIMR′をそれぞれ受容野像に
分割し(ステップ50a,50a′)、各受容野像IM
L,IMR′に極変換処理を施し(ステップ51a,51
a′)、該極変換結果に一次元フィルタリング処理を施
して双対プレーンに写像し(ステップ52a,52
a′)、各双対プレーンに写像されたデータ間に相関処
理を施す(ステップ53)。すなわち、入力された画像
データを時間的に遅らせたものと、遅らせないものに分
けて、それらを図14の基本相関フィルタに入力した構
成を有し、時間的な相関パラメータが得られる。従っ
て、遅延部を除いて、前述の両眼立体視のシミュレーシ
ョンと同様に実行できる。
FIG. 16 is a flow chart of correlation filtering between screens different in time. Image data IM L of one screen captured by the left camera CM is not delayed, while the right camera CMR image data IM R for one screen captured by is delayed by the delay unit (step 49), the image data which is not delayed I
'It is divided into each receptive field image (step 50a, 50a' M L and the delayed image data IM R), each receptive field image IM
L and IM R ′ are subjected to polar conversion processing (steps 51 a and 51).
a '), the result of the polar conversion is subjected to one-dimensional filtering, and mapped to a dual plane (steps 52a and 52a).
a '), a correlation process is performed between the data mapped on each dual plane (step 53). That is, the input image data is divided into those that are delayed in time and those that are not delayed, and these are inputted to the basic correlation filter in FIG. 14, and a temporal correlation parameter is obtained. Therefore, the simulation can be executed in the same manner as the above-described binocular stereoscopic simulation except for the delay unit.

【0053】時間的及び空間的に異なる画面間の相関 複数台のカメラを動かしながら撮像した画面に相関フィ
ルタリングを施した場合であり、2台のカメラの場合に
は、両眼立体視空間相関フィルタと時間相関フィルタを
複合したものと同等となる。図17はかかる時間的及び
空間的に異なる画面間の相関フィルタリングのフロー図
であり、左カメラCMLで撮像した1画面分の画像デー
タIMLを遅延部で遅延し(ステップ49a)、遅延し
ない画像データIMLと遅延した画像データIML′をそ
れぞれ受容野像に分割し(ステップ50a,50
a′)、各受容野像IML,IML′に極変換処理を施し
(ステップ51a,51a′)、該極変換結果に一次元
フィルタリング処理を施してそれぞれ双対プレーンに写
像する(ステップ52a,52a′)。以上と並行し
て、右カメラCMRで撮像した1画面分の画像データI
Rを遅延部で遅延し(ステップ49b)、遅延しない
画像データIMRと遅延した画像データIMR′をそれぞ
れ受容野像に分割し(ステップ50b,50b′)、各
受容野像IMR,IMR′に極変換処理を施し(ステップ
51b,51b′)、該極変換結果に一次元フィルタリ
ング処理を施してそれぞれ双対プレーンに写像する(ス
テップ52b,52b′)。そして、各双対プレーンに
写像されたデータ間に相関処理を施す(ステップ5
3)。この時間的及び空間的に異なる画面間の相関フィ
ルタリングにより、両眼立体視で視差を抽出しながら対
象物を追跡すると、人間のような複合機能が可能とな
る。このような時間と空間とが融合したフィルタの存在
は、心理学で「Spatiotemporaフィルタ」として知られて
いるが、本項目はそれを工学に寄与するために、始めて
定式化したものである。
Correlation between temporally and spatially different screens This is a case in which correlation filtering is performed on a screen captured while moving a plurality of cameras. In the case of two cameras, a binocular stereoscopic spatial correlation filter is used. And a time correlation filter. Figure 17 is a flow diagram of the correlation filtering between the time and space different screen, delays the image data IM L of one screen captured by the left camera CML delay unit (step 49a), not delayed image The data IM L and the delayed image data IM L ′ are each divided into receptive field images (steps 50a and 50a).
a '), polar conversion processing is performed on each of the receptive field images IM L , IM L ' (steps 51a and 51a '), and the result of the polar conversion is subjected to one-dimensional filtering processing to be mapped onto a dual plane (step 52a, 52a). 52a '). In parallel with the above, image data I for one screen taken by the right camera CMR
M R is delayed by the delay unit (step 49b), and the image data IM R which is not delayed and the delayed image data IM R 'are respectively divided into receptive field images (steps 50b and 50b'), and each receptive field image IM R , The polar conversion process is performed on IM R '(steps 51b and 51b'), the one-dimensional filtering process is performed on the result of the polar conversion, and the results are mapped onto dual planes (steps 52b and 52b '). Then, a correlation process is performed between the data mapped on each dual plane (step 5).
3). By tracking the target object while extracting parallax by binocular stereovision by the correlation filtering between screens that are temporally and spatially different, a composite function like a human becomes possible. The existence of such a filter that combines time and space is known in psychology as a "Spatiotempora filter", but this item was first formulated to contribute to engineering.

【0054】(b-2) 同じ画像間の相関 以上では、異なる画面間の相関フィルタリングであった
が、同じ画面内の相関も有効である。 受容野間の相関 図18は同一画面の各受容野間の相関フィルタリングの
フロー図である。カメラCMで捉えられた1画面分の画
像は入力メモリIMMに記憶され、切り出し制御部によ
り受容野A,B,・・,N毎に切り出されて受容野像I
A,IMB,・・IMNとされ(ステップ48)、各受
容野像IMA,IMB,・・IMNに極変換処理を施し
(ステップ51a〜51n)、各極変換結果に一次元フ
ィルタリング処理を施してそれぞれ双対プレーンに写像
し(ステップ52a〜52n)、各双対プレーンに写像
されたデータ間に相関処理を施す(ステップ53)。こ
のような同一画面の異なる受容野間の相関の場合には、
受容野像IMAの画像特徴を受容野像IMB,・・IMN
の特徴と正確に比較することができて、画像内の肌理の
具合などのテクスチュア解析が可能となる。その処理
は、両眼立体視の左右眼を各受容野に変えたものであ
り、前述のシミュレーションと同様に実行できる。
(B-2) Correlation between Same Images In the above, correlation filtering between different screens has been described, but correlation within the same screen is also effective. Correlation between Receptive Fields FIG. 18 is a flowchart of correlation filtering between receptive fields on the same screen. An image for one screen captured by the camera CM is stored in the input memory IMM, and cut out for each of the receptive fields A, B,...
M A, IM B, ·· IM N and is (step 48), each receptive field image IM A, IM B, ·· IM N pole conversion processing on (step 51A~51n), primary to each pole conversion result An original filtering process is performed to map to dual planes (steps 52a to 52n), and a correlation process is performed between data mapped to each dual plane (step 53). In the case of such a correlation between different receptive fields on the same screen,
Image features receptive field image IM A receptive field image IM B, ·· IM N
Can be accurately compared with the above-mentioned feature, and a texture analysis such as a texture condition in the image can be performed. This processing is performed by changing the left and right eyes of the binocular stereopsis to each receptive field, and can be executed in the same manner as in the above-described simulation.

【0055】受容野内の相関 以上では、受容野間の相関を説明したが、同一画面の同
一受容野内の相関も可能である。図19は同一画面の同
一受容野内の相関フィルタリングのフロー図で、ρ軸間
の相関フィルタリングの場合である。受容野像は極変換
を施されてρ−θの双対プレーン(ハイパーコラムメモ
リ)HCMに記憶され、切り出し制御部によりρ軸A,
ρ軸B,・・,ρ軸N毎に切り出され(ステップ4
8′)、各ρ軸A〜Nのハイパーコラム像に極変換処理
を施し(ステップ51a′〜51n′)、各極変換結果
に一次元フィルタリング処理を施してそれぞれ双対プレ
ーンに写像し(ステップ52a′〜52n′)、各双対
プレーンに写像されたデータ間に相関処理を施す(ステ
ップ53)。この相関フィルタでは、受容野内の更に細
かいテクスチュア解析が可能となり、の場合と同じ理
由で両眼立体視のシミュレーションを同様に実行でき
る。尚、ρ軸間の相関を説明したが、θ軸方向の相関も
同様に可能であり、更に(ρ,θ)プレーンでの相関も
二次元的な相関として有効である。
Correlation in Receptive Field The correlation between receptive fields has been described above, but correlation in the same receptive field on the same screen is also possible. FIG. 19 is a flowchart of correlation filtering in the same receptive field on the same screen, in the case of correlation filtering between ρ axes. The receptive field image is polar-transformed and stored in a ρ-θ dual plane (hyper column memory) HCM, and the cutout control unit controls the ρ axis A,
ρ axis B,..., are cut out for each ρ axis N (step 4
8 '), a polar conversion process is performed on the hypercolumn image of each of the ρ axes A to N (steps 51a' to 51n '), and a one-dimensional filtering process is performed on each of the polar conversion results to be mapped onto a dual plane (step 52a). 'To 52n'), a correlation process is performed between the data mapped on each dual plane (step 53). With this correlation filter, a more detailed texture analysis in the receptive field can be performed, and the binocular stereoscopic simulation can be similarly executed for the same reason as in the above case. Although the correlation between the ρ axes has been described, the correlation in the θ axis direction is also possible, and the correlation in the (ρ, θ) plane is also effective as a two-dimensional correlation.

【0056】(b-3) 異なる色画像間の相関 以上では、入力画像の明るさ等の強度信号の相関フィル
タリングを説明してきたが、入力データを色情報にして
図14の相関フィルタリングを行うと、色の微妙な違い
を検知して更に詳細なフィルタリングが可能となる。入
力する色情報としては問題に応じて各種の加工を施した
色情報が可能であるが、基本的な色情報は以下の通りで
ある。 三原色での相関 三原色の相関が最も基本的な色相関であり、図20は異
なる画像間の三原色での色相関フィルタリングのフロー
図である。左カメラCMLで撮像した1画面分の色画像
をそれぞれ赤、青、緑フィルタ(RFL,BFL,GF
L)を通して赤、青、緑画像に分離し、しかる後、それ
ぞれ赤、青、緑の受容野像IMR,IMB,IMGに分割
し(ステップ60a〜60c)、各受容野像IMR,I
B,IMGに極変換処理を施し(ステップ61a〜61
c)、該極変換結果に一次元フィルタリング処理を施し
て双対プレーンに写像する(ステップ62a〜62
c)。同様に、図示しないが右カメラで撮像した1画面
分の色画像をそれぞれ赤、青、緑フィルタを通して赤、
青、緑画像に分離し、しかる後、それぞれ赤、青、緑の
受容野像に分割し、各受容野像に極変換処理を施し、該
極変換結果に一次元フィルタリング処理を施して双対プ
レーンに写像する。そして、赤同士、青同士、緑同士で
各双対プレーンに写像されたデータ間に赤相関処理、青
相関処理、緑相関処理を施す(ステップ63a〜63
c)。この色相関フィルタリングにより、各三原色の相
関パラメータを計測できる。
(B-3) Correlation Between Different Color Images The correlation filtering of the intensity signal such as the brightness of the input image has been described above. If the correlation filtering of FIG. In addition, a more detailed filtering can be performed by detecting a subtle difference in color. The input color information can be color information that has been subjected to various processes according to the problem. The basic color information is as follows. Correlation with Three Primary Colors The correlation between the three primary colors is the most basic color correlation, and FIG. 20 is a flow chart of color correlation filtering between the three primary colors between different images. The color images for one screen taken by the left camera CML are respectively red, blue, and green filters (RFL, BFL, GF).
Red through L), separated blue, green image, after which each of red, blue, green receptive field image IM R, IM B, divided into IM G (step 60 a to 60 c), each receptive field image IM R , I
M B, subjected to polar transformation processing IM G (step 61a~61
c), performing a one-dimensional filtering process on the result of the polar conversion and mapping the result to a dual plane (steps 62a to 62).
c). Similarly, although not shown, color images for one screen captured by the right camera are passed through red, blue, and green filters, respectively.
The image is separated into blue and green images, then divided into red, blue, and green receptive field images, respectively, subjected to polar conversion processing on each receptive field image, and subjected to one-dimensional filtering processing on the polar conversion result to form a dual plane. Map to Then, a red correlation process, a blue correlation process, and a green correlation process are performed between the data mapped to the dual planes for red, blue, and green (steps 63a to 63).
c). By this color correlation filtering, correlation parameters of each of the three primary colors can be measured.

【0057】 色の三要素(明度、彩度、色相)での相関 次に基本的な色相関は、物理的な三原色を人間が主観的
に見える量、つまり明るさ(明度)、あざやかさ(彩
度)、色の具合(色相)に変換した後で、相関フィルタ
リングを施す方法である。このフィルタでは、心理学的
に整理された色の相関パラメータを計測できる。図21
は異なる画像間の三要素での色相関フィルタリングのフ
ローである。左カメラCMLで撮像した1画面分の色画
像をそれぞれ赤、青、緑フィルタで赤、青、緑画像に分
離し、しかる後、色変換部で三原色の色情報を明度・彩
度・色相の色の三要素IMV,IMS,IMHに変換し
(ステップ59)、それぞれ明度・彩度・色相の受容野
像IMV′,IMS′,IMH′に分割し(ステップ60
a′〜60c′)、各受容野像IMV′,IMS′,IM
H′に極変換処理を施し(ステップ61a′〜61
c′)、該極変換結果に一次元フィルタリング処理を施
して双対プレーンに写像する(ステップ62a′〜62
c′)。同様に、図示しないが右カメラで撮像した1画
面分の色画像をそれぞれ赤、青、緑フィルタで赤、青、
緑画像に分離し、しかる後、色変換部で三原色の色情報
を明度・彩度・色相の色の三要素に変換し、それぞれ明
度・彩度・色相の受容野像に分割し、各受容野像に極変
換処理を施し、該極変換結果に一次元フィルタリング処
理を施して双対プレーンに写像する。そして、明度同
士、彩度同士、色相同士で各双対プレーンに写像された
データ間に明度相関処理、彩度相関処理、色相相関処理
を施す(ステップ63a′〜63c′)。
Correlation with Three Elements of Color (Lightness, Saturation, Hue) Next, the basic color correlation is the amount by which humans subjectively see physical three primary colors, that is, brightness (brightness), crispness ( This is a method of performing correlation filtering after conversion into saturation (color saturation) and color condition (hue). With this filter, it is possible to measure the correlation parameters of the colors arranged psychologically. FIG.
Is a flow of color correlation filtering for three elements between different images. One screen of color image captured by the left camera CML is separated into red, blue, and green images by red, blue, and green filters, respectively, and then the color conversion unit converts the color information of the three primary colors into lightness, saturation, and hue. three elements IM V color, converts IM S, the IM H (step 59), receptive field image IM V each lightness, saturation, and hue ', IM S', divided into IM H '(step 60
a'~60c '), each receptive field image IM V', IM S ', IM
H ′ is subjected to polar conversion processing (steps 61 a ′ to 61 a).
c ′), the result of the polar conversion is subjected to one-dimensional filtering processing and mapped to a dual plane (steps 62 a ′ to 62 a).
c '). Similarly, although not shown, color images for one screen captured by the right camera are respectively subjected to red, blue, and green filters by red, blue, and green filters.
The color conversion unit converts the color information of the three primary colors into three elements of lightness, saturation, and hue, and divides them into receptive field images of lightness, saturation, and hue. The polar image is subjected to a polar conversion process, the result of the polar conversion is subjected to a one-dimensional filtering process, and the result is mapped to a dual plane. Then, a brightness correlation process, a saturation correlation process, and a hue correlation process are performed between the data mapped to each dual plane with lightness, saturation, and hue (steps 63a 'to 63c').

【0058】色の差信号での相関 赤と緑の変わり目など、色の境界部分の相関パラメータ
を正確に計測するには、色の差信号に相関処理を施すの
が有効である。特に、三原色を補色の関係で差信号とす
るのが効果的である。図22は異なる画像間の色の差信
号での色相関フィルタリングのフロー図である。左カメ
ラCMLで撮像した1画面分の色画像をそれぞれ赤、
青、緑フィルタで赤、青、緑画像に分離し、しかる後、
赤と緑、緑と青、青と赤の差信号をそれぞれ演算し(ス
テップ58a〜58c)、各差信号の受容野像I
R-G,IMG-B,IMB-Rに分割し、各受容野像I
R-G,IMG-B,IMB-Rに極変換処理を施し(ステッ
プ61a″〜61c″)、該極変換結果に一次元フィル
タリング処理を施して双対プレーンに写像する(ステッ
プ62a″〜62c″)。同様に、図示しないが右カメ
ラで撮像した1画面分の色画像をそれぞれ赤、青、緑フ
ィルタで赤、青、緑画像に分離し、しかる後、赤と緑、
緑と青、青と赤の差信号をそれぞれ演算し、各差信号の
受容野像に極変換処理を施し、該極変換結果に一次元フ
ィルタリング処理を施して双対プレーンに写像する。そ
して、対応する色の差信号同士で各双対プレーンに写像
されたデータ間に赤−緑相関処理、緑−青相関処理、青
−赤相関処理を施す(ステップ63a″〜63c″)。
尚、差をとる代わりに割算や対数変換後の差も効果的で
ある。又、極変換あるいは一次元フィルタの後で差ある
いは割算をしても良い。以上の色相関では異なる画像間
の色相関を説明したが、色相関法を上記(b-1),(b-2)で
説明した各種相関法と組み合わせることができ、両眼立
体視や移動物体注視やテクスチュア解析などの相関フィ
ルタリングを更に確実なものにできる。
Correlation with Color Difference Signal In order to accurately measure the correlation parameter at the boundary between colors, such as the transition between red and green, it is effective to perform a correlation process on the color difference signal. In particular, it is effective to use the three primary colors as a difference signal in a complementary color relationship. FIG. 22 is a flowchart of color correlation filtering using a color difference signal between different images. The color images for one screen captured by the left camera CML are red,
Separate into red, blue and green images with blue and green filters, and then
Red and green, green and blue, and blue and red difference signals are calculated (steps 58a to 58c), and the receptive field image I of each difference signal is calculated.
The image is divided into M RG , IM GB and IM BR and each receptive field image I
Polar conversion processing is performed on M RG , IM GB , and IM BR (steps 61a ″ to 61c ″), and the result of the polar conversion is subjected to one-dimensional filtering processing to be mapped onto a dual plane (steps 62a ″ to 62c ″). Similarly, although not shown, the color image for one screen captured by the right camera is separated into red, blue, and green images by red, blue, and green filters, respectively, and then, red, green,
The difference signals between green and blue and between blue and red are respectively operated, polar conversion processing is performed on the receptive field image of each difference signal, one-dimensional filtering processing is performed on the polar conversion result, and the result is mapped to a dual plane. Then, a red-green correlation process, a green-blue correlation process, and a blue-red correlation process are performed between the data mapped to the respective dual planes with the corresponding color difference signals (steps 63a "to 63c").
Note that instead of taking the difference, the difference after division or logarithmic conversion is also effective. Also, the difference or division may be performed after the polar conversion or the one-dimensional filter. In the above color correlation, the color correlation between different images has been explained.However, the color correlation method can be combined with the various correlation methods described in (b-1) and (b-2) above, and binocular stereo vision and movement Correlation filtering such as object gaze and texture analysis can be made more reliable.

【0059】(c) 相関の作用方向 両眼立体視の例(図7参照)では、双対プレーンの方位
θが同じであるρ軸方向のデータを組み合わせて相関を
とったが、ρ軸に限る必要はなく、又、ρ軸内でも以下
の一般化が可能である。 (c-1) ρ軸方向の相関 θが同じρ軸の相関 これは前述の両眼立体視等の場合であるが、この「θが
同じρ軸相関」の意味は図2で説明したように、両画面
内の平行線のずれ量を相関法で正確に計測することにあ
る。図23はθが同一のρ軸相関フィルタリングのフロ
ー図であり、各入力データA,Bを受容野像に分割し
(ステップ50a,50b)、各受容野像に極変換処理
を施し(ステップ51a、51b)、該極変換結果に一
次元フィルタリング処理を施して双対プレーンに写像し
(ステップ52a,52b)、各双対プレーンより
θ0,θ1,・・毎にρ軸方向のデータを選択し(ステッ
プ54a 0,54a1,・・;54b0,54b1,・
・)、同一のθ値のデータ間に相関処理を施す(ステッ
プ530,531,・・)。尚、図23はθ値毎に並列的
に相関演算する場合であるが、1つの相関演算部を設け
て順次各θ値の相関演算を行うこともでき、その場合に
は図15(a)のフロー図と同一になる。
(C) Working direction of correlation In the example of binocular stereovision (see FIG. 7), the orientation of the dual plane
By combining data in the ρ-axis direction with the same θ,
However, it is not necessary to limit to the ρ axis.
Can be generalized. (c-1) Correlation in the ρ-axis direction Correlation in the ρ-axis with the same θ This is the case of binocular stereopsis etc.
The meaning of “same ρ-axis correlation” means that both screens
To accurately measure the amount of deviation between parallel lines
You. FIG. 23 shows the flow of the ρ-axis correlation filtering with the same θ.
The input data A and B are divided into receptive field images.
(Steps 50a and 50b), polar conversion processing for each receptive field image
(Steps 51a and 51b), and
Perform dimensional filtering and map to dual plane
(Steps 52a and 52b), from each dual plane
θ0, Θ1Select data in the ρ-axis direction for each
Step 54a 0, 54a154b0, 54b1,
・), And performs correlation processing between data having the same θ value (step
Step 530, 531, ...)). FIG. 23 shows a parallel view for each θ value.
In this case, one correlation calculation unit is provided.
The correlation calculation of each θ value can be performed sequentially by
Is the same as the flowchart in FIG.

【0060】θが異なるρ軸の相関 この相関は、方位が異なる接線間の相関パラメータを計
測するフィルタリングである。このフィルタリングは
の平行線の相関だけでなく、方位が変わりながら移動す
る接線の抽出が可能であり、悪路を走行する自動車への
応用を期待できる。図24はかかるθが異なるρ軸相関
フィルタリングのフロー図である。入力データA,Bを
受容野像に分割し(ステップ50a,50b)、各受容
野像に極変換処理を施し(ステップ51a、51b)、
該極変換結果に一次元フィルタリング処理を施して双対
プレーンに写像し(ステップ52a,52b)、各双対
プレーンよりθi,θi+1,・・;θj,θj+1,・・毎に
ρ軸方向のデータを選択し(ステップ54a0,54
1,・・;54b0,54b1,・・)、異なるθ値の
データ間に相関処理を施す(ステップ530′,5
1′,・・)。
Correlation of ρ axis with different θ This correlation is filtering to measure the correlation parameter between tangents with different orientations. This filtering can extract not only the correlation of parallel lines but also the extraction of tangents that move while changing the azimuth, and can be expected to be applied to vehicles running on rough roads. FIG. 24 is a flowchart of such ρ-axis correlation filtering with different θ. The input data A and B are divided into receptive field images (steps 50a and 50b), and a polar conversion process is performed on each receptive field image (steps 51a and 51b).
The polar transformation result is subjected to one-dimensional filtering processing to be mapped to dual planes (steps 52a and 52b), and θ i , θ i + 1 ,..., Θ j , θ j + 1 ,. Is selected in the ρ-axis direction (steps 54a 0 , 54
a 1, ··; 54b 0, 54b 1, ··), different θ values subjected to correlation processing between data (step 53 0 ', 5
3 1 ', ...).

【0061】(c-1) θ軸方向の相関 ρが同じθ同士の相関パラメータに意味は、図25で説
明すると、ρ=0のθ相関では(図25(a))、受容野の
中心Cを通る接線SLの回転量を抽出できる。又、ρ≠
0のθ軸相関では、受容野中心Cを共用する半径ρの円
CIRに接する接線SLの回転移動量を検出できる。図
26はρが同一のθ軸相関フィルタリングのフロー図で
あり、各入力データA,Bを受容野像に分割し(ステッ
プ50a,50b)、各受容野像に極変換処理を施し
(ステップ51a、51b)、該極変換結果に一次元フ
ィルタリング処理を施して双対プレーンに写像し(ステ
ップ52a,52b)、各双対プレーンよりρ0,ρ1
・・毎にρ軸方向のデータを選択し(ステップ55
0,55a1,・・;55b0,55b1・・)、同一の
ρ値のデータ間に相関処理を施す(ステップ530,5
1・・)。尚、図26はρ値毎に並列的に相関演算す
る場合であるが、1つの相関演算部を設けて順次各ρ値
の相関演算を行うことができる。
(C-1) Correlation in the θ-axis direction The meaning of the correlation parameter between θs having the same ρ is explained with reference to FIG. 25. In the θ correlation of ρ = 0 (FIG. 25 (a)), The rotation amount of the tangent line SL passing through C can be extracted. Also, ρ ≠
With the θ-axis correlation of 0, the rotational movement amount of the tangent line SL tangent to the circle CIR having the radius ρ sharing the receptive field center C can be detected. FIG. 26 is a flow chart of the θ-axis correlation filtering with the same ρ. Each input data A and B is divided into receptive field images (steps 50 a and 50 b), and the polar conversion process is performed on each receptive field image (step 51 a). , 51b), applying a one-dimensional filtering process to the result of the polar transformation and mapping the result to a dual plane (steps 52a, 52b). From each dual plane, ρ 0 , ρ 1 ,
..Select data in the ρ-axis direction for each (step 55)
a 0 , 55a 1 ,...; 55b 0 , 55b 1 ...), and performs correlation processing between data having the same ρ value (steps 53 0 , 5).
3 1 ...). Although FIG. 26 shows the case where the correlation operation is performed in parallel for each ρ value, one correlation operation unit can be provided to sequentially perform the correlation operation for each ρ value.

【0062】(c-3) (ρ,θ)プレーンでの相関 以上では、ρ軸あるいはθ軸方向の一次元相関を説明し
たが、(ρ,θ)プレーンでの二次元相関も可能であ
る。この相関では、方位を変えながら移動する接線の相
関を正確に行うことが可能となる。図27は(ρ,θ)プ
レーンでの相関フィルタリングのフロー図である。各入
力データA,Bを受容野像に分割し(ステップ50a,
50b)、各受容野像に極変換処理を施し(ステップ5
1a、51b)、該極変換結果に一次元フィルタリング
処理を施して双対プレーンに写像し(ステップ52a,
52b)、各双対プレーンでの二次元相関処理を施す
(ステップ53)。尚、二次元相関量C(ρ,θ,
σ1,σ2)は各双対プレーン上のデータをa(ρ,
θ)、b(ρ,θ)、双対プレーンデータのρ軸方向及
びθ軸方向のシフト量をσ1,σ2として次式 C(ρ,θ,σ1,σ2)=a(ρ,θ)・b(ρ+σ1,θ+σ2) (2) で与えられる。
(C-3) Correlation in the (ρ, θ) plane In the above description, the one-dimensional correlation in the ρ-axis or θ-axis direction has been described, but two-dimensional correlation in the (ρ, θ) plane is also possible. . With this correlation, it is possible to accurately perform the correlation of the tangents that move while changing the direction. FIG. 27 is a flowchart of the correlation filtering in the (ρ, θ) plane. Each of the input data A and B is divided into receptive field images (step 50a,
50b), performing polar conversion processing on each receptive field image (step 5)
1a, 51b), one-dimensional filtering is performed on the result of the polar transformation, and the result is mapped to a dual plane (steps 52a, 51b).
52b), a two-dimensional correlation process is performed on each dual plane (step 53). Note that the two-dimensional correlation amount C (ρ, θ,
σ 1 , σ 2 ) represents the data on each dual plane as a (ρ,
θ), b (ρ, θ), the shift amounts of the dual plane data in the ρ-axis direction and the θ-axis direction are σ 1 , σ 2 , and the following equation C (ρ, θ, σ 1 , σ 2 ) = a (ρ, θ) · b (ρ + σ 1 , θ + σ 2 ) (2)

【0063】(d) 相関パラメータ 両眼立体視の例では説明を簡単にするために、(1)式の
相関量(相関パラメータ)で対応接線を求める方法を述
べたが、以下で示すように各種の相関パラメータを定義
でき、それぞれ特徴的な相関処理を行うことができる。 (d-1) 基本相関パラメータ 基本的な相関パラメータは以下で示すように、一般にC
(ρ,θ,σ)などと三次元で表現され、ρ,θ,σの
三次元空間は図28に示すようになる。図中τは時間的
に異なる画面間の相関において導入されるデータ間シフ
ト量(移動速度)で、後述する。相関パラメータC
(ρ,θ,σ)が極大になる三次元空間の点(ρP
θP,σP)を求めると、両眼立体視の対応決定や、移動
する接線の対応決定などが行われ、その極大点を与える
各座標値(要素パラメータの値)からそれぞれ接線の位
置、方位、視差あるいは速度を定量的に計測できる。
尚、(ρ,θ)プレーンの二次元相関では、相関パラメ
ータは四次元空間のパラメータC(ρ,θ,σ1,σ2
となる。
(D) Correlation Parameter In the example of binocular stereopsis, for simplicity of description, a method of obtaining a corresponding tangent using the correlation amount (correlation parameter) in equation (1) has been described. Various correlation parameters can be defined, and characteristic correlation processing can be performed for each. (d-1) Basic Correlation Parameter The basic correlation parameter is generally C
(Ρ, θ, σ) are represented in three dimensions, and the three-dimensional space of ρ, θ, σ is as shown in FIG. In the figure, τ is an inter-data shift amount (moving speed) introduced in correlation between temporally different screens, which will be described later. Correlation parameter C
A point (ρ P ,
θ P , σ P ), the correspondence between the binocular stereopsis and the moving tangent are determined, and the position of the tangent from each coordinate value (element parameter value) that gives the maximum point, Direction, parallax or speed can be measured quantitatively.
In the two-dimensional correlation of the (ρ, θ) plane, the correlation parameter is a parameter C (ρ, θ, σ 1 , σ 2 ) of a four-dimensional space.
Becomes

【0064】空間的相関パラメータ 相関の作用画面が、空間的に異なる画面あるいは受容野
の場合(前述の(b-1)、(b-2)の場合)であり、以下の
相関パラメータの極大点から、対応する接線の視差など
の対応の程度を示す相関量を計測できる。 (1) ρ方向の相関パラメータC(ρ,θ,σ):平行線
群の空間的相関度を示すパラメータである。前述の両眼
立体視の相関パラメータがこの一例であり、C(ρ,
θ,σ)が極大となるρP,θP,σPを求めると、平行
線群の中から対応する接線が決定され、その接線の位
置、方位、視差を定量的に計測できる。尚、相関パラメ
ータは各双対プレーン上のデータをa(ρ,θ),b
(ρ,θ)、ρ軸方向のシフト量をσとすれば次式 C(ρ,θ,σ)=a(ρ,θ)・b(ρ+σ,θ) で与えられる。
Spatial Correlation Parameter The case where the action screen of the correlation is a spatially different screen or receptive field (cases (b-1) and (b-2) described above), and the following maximum points of the correlation parameter Thus, the correlation amount indicating the degree of correspondence such as the parallax of the corresponding tangent can be measured. (1) Correlation parameter C (ρ, θ, σ) in the ρ direction: a parameter indicating the degree of spatial correlation of a group of parallel lines. The aforementioned correlation parameter for binocular stereopsis is an example of this, and C (ρ,
When ρ P , θ P , and σ P at which (θ, σ) are maximal are determined, a corresponding tangent is determined from the parallel line group, and the position, orientation, and parallax of the tangent can be quantitatively measured. Incidentally, the correlation parameter is obtained by converting the data on each dual plane into a (ρ, θ), b
(Ρ, θ), assuming that the shift amount in the ρ-axis direction is σ, the following equation can be obtained: C (ρ, θ, σ) = a (ρ, θ) · b (ρ + σ, θ).

【0065】(2) θ方向の相関パラメータCθ(ρ,
θ,σ):受容野の中心を共用する半径ρの円に接する
接線群の空間的相関度を示すパラメータである。ρ=0
のθ相関処理では、Cθ(ρ,θ,σ)が極大となるρ
P,θP,σPから、放射線群の中から対応する接線が決
定され、その接線の位置、方位、方位変化量を定量的に
計測できる。尚、相関パラメータはθ軸方向のシフト量
をσとすれば、次式 C θ(ρ,θ,σ)=a(ρ,θ)・b(ρ,θ+σ) (3) で与えられる。
(2) The correlation parameter Cθ (ρ,
θ, σ): parameters indicating the degree of spatial correlation of a tangent group tangent to a circle having a radius ρ sharing the center of the receptive field. ρ = 0
In the θ correlation processing of the above, ρ at which Cθ (ρ, θ, σ) becomes a maximum
P, theta P, from sigma P, corresponding tangents are determined from the radiation group, the position of the tangent direction can quantitatively measure the orientation change amount. The correlation parameter is given by the following expression C θ (ρ, θ, σ) = a (ρ, θ) · b (ρ, θ + σ) (3), where σ is the shift amount in the θ-axis direction.

【0066】(3) (ρ,θ)プレーンの相関パラメータ
C(ρ,θ,σ1,σ2):方向が変化しながら移動する
接線群の空間的相関度を示すパラメータであり、双対プ
レーンでの二次元相関の程度を上記の一次元相関パラメ
ータに比べてより詳しく評価できる。尚、相関パラメー
タは(2)式、すなわち、次式 C(ρ,θ,σ1,σ2)=a(ρ,θ)・b(ρ+σ1
θ+σ2) で与えられる。
(3) Correlation parameter C (ρ, θ, σ 1 , σ 2 ) of (ρ, θ) plane: a parameter indicating the spatial correlation degree of a tangent group moving while changing its direction, and is a dual plane Can be evaluated in more detail than the one-dimensional correlation parameter described above. The correlation parameter is expressed by the equation (2), that is, the following equation: C (ρ, θ, σ 1 , σ 2 ) = a (ρ, θ) · b (ρ + σ 1 ,
θ + σ 2 ).

【0067】時間的相関パラメータ 相関の作用画面が、時間的に異なる画面あるいは受容野
の場合((b-1)などの場合)であり、以下の相関パラメ
ータの極大点などから、移動する接線の移動方向や移動
速度などを計測できる。 (1) ρ軸方向の相関パラメータC(ρ,θ,τ):平行
線群の時間的相関度を示すパラメータである。後述する
実施例、すなわち、移動する接線を追尾する場合の相関
パラメータがこの一例であり、C(ρ,θ,τ)が極大
となるρP,θP,τPから、平行移動する接線の位置、
方位、速度を定量的に計測できる。尚、相関パラメータ
はρ軸方向の移動速度をτとすると次式 C(ρ,θ,τ)=a(ρ,θ)・b(ρ+τ,θ) (4) で与えられる。尚、a(ρ,θ)=at(ρ,θ)、b
(ρ+τ,θ)=at+DELT A(ρ+τ,θ)と表現すると
相関パラメータは次式 C(ρ,θ,τ)=at(ρ,θ)・at+DELTA(ρ+τ,θ) (4)′ で与えられる。すなわち、図16のステップ53におい
て(4)′式の相関処理を実行する。ここでDELTAは遅れ時
間を表し、平行移動する接線の速度VはΔρをρ方向の
分解能として V=(τP・Δρ)/DELTA と求められる。これは、生体の大脳視覚野の「Direction
al Selectivity単純細胞」の機能をモデル化したもので
ある。その細胞は、特定の方向に動く刺激に反応するが
反対方向の刺激には応答しない独特の性質を示す。これ
は、上式のτを正あるいは負に制限することで実現で
き、生体の神経は正と負の情報を同時に送れない制約が
反映されたものである。尚、この細胞は正確には、「非
線型応答型」のDirectional Selectivity単純細胞であ
る。ところで、時間的相関パラメータは(4)式の非対称
型相関演算の他、次式の対称型相関演算により算出する
こともできる。 C(ρ,θ,τ)=a(ρ−τ,θ)・b(ρ+τ,θ) (4)″ 但し、以後では(4)式の非対称型相関演算により時間的
相関パラメータを演算するものとして説明する。
Temporal Correlation Parameter When the operation screen of the correlation is a temporally different screen or a receptive field (such as (b-1)), the moving tangent of the moving tangent is determined from the following maximum points of the correlation parameter. It can measure the moving direction and moving speed. (1) Correlation parameter C (ρ, θ, τ) in the ρ-axis direction: a parameter indicating a temporal correlation degree of a group of parallel lines. An example to be described later, that is, a correlation parameter when tracking a moving tangent is an example of this, and from ρ P , θ P , and τ P at which C (ρ, θ, τ) is maximum, position,
Direction and speed can be measured quantitatively. The correlation parameter is given by the following equation, where τ is the moving speed in the ρ-axis direction: C (ρ, θ, τ) = a (ρ, θ) · b (ρ + τ, θ) (4) Incidentally, a (ρ, θ) = a t (ρ, θ), b
(Ρ + τ, θ) = a t + DELT A (ρ + τ, θ) the correlation parameter a is expressed as the following equation C (ρ, θ, τ) = a t (ρ, θ) · a t + DELTA ( ρ + τ, θ) (4) '. That is, in step 53 of FIG. 16, the correlation processing of equation (4) 'is executed. Here, DELTA represents the delay time, and the velocity V of the tangential line that moves in parallel can be obtained as follows: V = (τ P · Δρ) / DELTA where Δρ is the resolution in the ρ direction. This is the “Direction” of the living cerebral visual cortex.
It models the function of "al Selectivity simple cells". The cells exhibit the unique property of responding to stimuli moving in one direction but not responding to stimuli in the opposite direction. This can be realized by limiting τ in the above equation to be positive or negative, and reflects the restriction that the nerves of the living body cannot send both positive and negative information at the same time. This cell is, to be precise, a “non-linear response type” Directional Selectivity simple cell. Incidentally, the temporal correlation parameter can be calculated by the symmetric correlation operation of the following equation in addition to the asymmetric correlation operation of the equation (4). C (ρ, θ, τ) = a (ρ−τ, θ) · b (ρ + τ, θ) (4) ″ However, hereinafter, the temporal correlation parameter is calculated by the asymmetric correlation calculation of the equation (4). It will be described as what is done.

【0068】θ方向の相関パラメータCθ(ρ,θ,
τ):受容野の中心を共用する半径ρの円に接する接線
群の時間的相関度を示すパラメータである。ρ=0のθ
相関処理では、Cθ(ρ,θ,τ)が極大となるρP
θP,τPから、受容野中心を通る接線の位置、方位、方
位回転速度を定量的に計測できる。尚、相関パラメータ
はθ軸方向の移動速度をτとすると次式 Cθ(ρ,θ,σ)=a(ρ,θ)・b(ρ,θ+τ) (5) で与えられる。尚、a(ρ,θ)=at(ρ,θ)、b
(ρ,θ+τ)=at+DELT A(ρ,θ+τ)と表現すると
相関パラメータは次式 Cθ(ρ,θ,τ)=at(ρ,θ)・at+DELTA(ρ,θ+τ) (5)′ で与えられる。すなわち、図16のステップ53におい
て(5)′式の相関処理を実行する。ここでDELTAは遅れ時
間を表し、回転速度ωは ω=(τP・Δρ)/DELTA と求められる。生体に回転を検出する細胞があり、それ
をモデル化したものである。
The correlation parameter Cθ (ρ, θ,
τ): a parameter indicating a temporal correlation degree of a tangent group tangent to a circle having a radius ρ sharing the center of the receptive field. ρ = 0 θ
In the correlation processing, ρ P , at which Cθ (ρ, θ, τ) is maximized,
From θ P and τ P , the position, azimuth, and azimuth rotation speed of a tangent passing through the center of the receptive field can be quantitatively measured. Note that the correlation parameter is given by the following expression Cθ (ρ, θ, σ) = a (ρ, θ) · b (ρ, θ + τ) (5), where τ is the moving speed in the θ-axis direction. Incidentally, a (ρ, θ) = a t (ρ, θ), b
(Ρ, θ + τ) = a t + DELT A (ρ, θ + τ) correlation parameters and expressed by the following equation Cθ (ρ, θ, τ) = a t (ρ, θ) · a t + DELTA ( ρ, θ + τ) (5) '. That is, in step 53 of FIG. 16, the correlation processing of equation (5) 'is executed. Here, DELTA represents a delay time, and the rotation speed ω is obtained as ω = (τ P · Δρ) / DELTA. There is a cell in a living body that detects rotation, which is modeled.

【0069】(3) (ρ,θ)プレーンの相関パラメータ
C(ρ,θ,τ1,τ2):方向が変化しながら移動する
接線群の時間的相関度を示すパラメータである。C
(ρ,θ,τ1,τ2)が極大となるρP,θP,τ1P,τ
2Pから、受容野中心を通る接線の位置、方位、移動速
度、回転速度を一次元相関パラメータに比べて、より詳
しく計測できる。尚、相関パラメータは次式 C(ρ,θ,τ1,τ2)=a(ρ,θ)・b(ρ+τ1,θ+τ2) (6) で与えられる。すなわち、図16のステップ53におい
て(6)式の相関処理を実行する。尚、a(ρ,θ)=at
(ρ,θ)、b(ρ+τ1,θ+τ2)=at+DEL TA(ρ
+τ1,θ+τ2)と表現すると相関パラメータは次式 C(ρ,θ,τ1,τ2)=at(ρ,θ)・at+DELTA(ρ+τ1,θ+τ2) ・・・(6)′ で与えられる。すなわち、図16のステップ53におい
て(6)′式の相関処理を実行する。ここでDELTAは遅れ時
間を表し、平行移動速度Vと回転速度ωは V=(τ1P・Δρ)/DELTA ω=(τ2P・Δρ)/DELTA と求められる。
(3) Correlation parameter C (ρ, θ, τ 1 , τ 2 ) of (ρ, θ) plane: A parameter indicating a temporal correlation degree of a tangent group moving while changing its direction. C
Ρ P , θ P , τ 1P , τ at which (ρ, θ, τ 1 , τ 2 ) is maximized
From 2P , the position, azimuth, movement speed, and rotation speed of the tangent passing through the center of the receptive field can be measured in more detail than the one-dimensional correlation parameter. The correlation parameter is given by the following equation: C (ρ, θ, τ 1 , τ 2 ) = a (ρ, θ) · b (ρ + τ 1 , θ + τ 2 ) (6) That is, in step 53 of FIG. 16, the correlation processing of equation (6) is executed. In addition, a (ρ, θ) = a t
(Ρ, θ), b (ρ + τ 1 , θ + τ 2 ) = at + DEL TA
+ Tau 1, the correlation parameter a is expressed as θ + τ 2) by the following equation C (ρ, θ, τ 1 , τ 2) = a t (ρ, θ) · a t + DELTA (ρ + τ 1, θ + τ 2) ··· ( 6) ′. That is, in step 53 of FIG. 16, the correlation processing of equation (6) 'is executed. Here, DELTA represents a delay time, and the translation speed V and the rotational speed ω are obtained as follows: V = (τ 1P · Δρ) / DELTA ω = (τ 2P · Δρ) / DELTA

【0070】(d-2) 基本相関パラメータの投影 以上の基本相関パラメータでは、接線の位置(ρP)、
方位(θP)、視差/速度(σP/τP)の相関パラメー
タを全て決定することができたが、その反面で三次元以
上の大きな相関パラメータ記憶部が必要となる課題があ
る。以下では、相関判定のパラメータ数を必要に応じて
抑えて、相関パラメータ記憶部の容量を削減できる相関
パラメータの定義と特質を以下で説明する。空間的相関
パラメータC(ρ,θ,σ)と時間的相関パラメータC
(ρ,θ,τ)について説明するが、(ρ,θ)プレー
ンの相関パラメータC(ρ,θ,σ1,σ2),C(ρ,
θ,τ1,τ2)の場合にも同様に定義できて、一次元相
関パラメータの場合より詳しい相関計測が可能となる。
(D-2) Projection of basic correlation parameters In the above basic correlation parameters, the position of the tangent (ρ P ),
Although all the correlation parameters of the azimuth (θ P ) and the parallax / velocity (σ P / τ P ) have been determined, there is a problem that a large correlation parameter storage unit of three dimensions or more is required. Hereinafter, the definition and characteristics of the correlation parameter that can reduce the number of parameters for the correlation determination as necessary and reduce the capacity of the correlation parameter storage unit will be described below. Spatial correlation parameter C (ρ, θ, σ) and temporal correlation parameter C
(Ρ, θ, τ) will be described. Correlation parameters C (ρ, θ, σ 1 , σ 2 ), C (ρ,
θ, τ 1 , τ 2 ) can be similarly defined, and more detailed correlation measurement can be performed than in the case of the one-dimensional correlation parameter.

【0071】σあるいはτ方向に投影 対応する接線の位置ρと方位θが重要で、視差σ(移動
速度τ)を直接計測しなくて良い場合には、基本相関パ
ラメータC(ρ,θ,σ)又はC(ρ,θ,τ)をσ又
はτ方向に加算した次式のCPRJ-σ(ρ,θ)またはC
PRJ-τ(ρ,θ)が有効であり、相関パラメータ記憶部
は入力の双対プレーンと同じρ−θの二次元に削減され
る。 CPRJ-σ(ρ,θ)=ΣC(ρ,θ,σ) (但し、σ=0,1,2,・・・σmax) (7) CPRJ-τ(ρ,θ)=ΣC(ρ,θ,τ) (但し、τ=0,1,2,・・・τmax) (8)
When the position ρ and direction θ of the corresponding tangent are important in the σ or τ direction and the parallax σ (movement speed τ) does not need to be measured directly, the basic correlation parameter C (ρ, θ, σ ) Or C (ρ, θ, τ) in the σ or τ direction, C PRJ− σ (ρ, θ) or C
PRJ- τ (ρ, θ) is effective, and the correlation parameter storage unit is reduced to two dimensions of ρ−θ, the same as the input dual plane. C PRJ- σ (ρ, θ) = ΣC (ρ, θ, σ) (where σ = 0,1,2,... Σmax) (7) C PRJ- τ (ρ, θ) = ΣC (ρ , Θ, τ) (where τ = 0, 1, 2, ... τmax) (8)

【0072】図29は基本相関パラメータC(ρ,θ,
σ)を投影するフィルタリング処理のフロー図である。
入力データA,Bを受容野像に分割し(ステップ50
a,50b)、各受容野像に極変換処理を施し(ステッ
プ51a、51b)、該極変換結果に一次元フィルタリ
ング処理を施して双対プレーンに写像し(ステップ52
a,52b)、各双対プレーンのデータに(1)′式の相
関処理を施し(ステップ53)、相関処理により得られ
た相関パラメータC(ρ,θ,σ)を(7)式に従って積
算し(ステップ71)、積算結果をρ−θの相関パラメー
タメモリに記憶する(ステップ72)。
FIG. 29 shows a basic correlation parameter C (ρ, θ,
It is a flowchart of the filtering process which projects (sigma).
The input data A and B are divided into receptive field images (step 50).
a, 50b), perform polar conversion processing on each receptive field image (steps 51a, 51b), apply one-dimensional filtering processing to the polar conversion result, and map the result to a dual plane (step 52).
a, 52b), the data of each dual plane is subjected to the correlation processing of equation (1) ′ (step 53), and the correlation parameter C (ρ, θ, σ) obtained by the correlation processing is integrated according to equation (7). (Step 71) The integration result is stored in the ρ-θ correlation parameter memory (Step 72).

【0073】図30は相関パラメータを演算してσ方向
に投影する処理の流れ図である。相関演算に際して0→
θ、0→ρ、0→σとする(ステップ201〜20
3)。ついで、(1)′式により、相関パラメータC
(ρ,θ,σ)を演算し(ステップ204)、該相関パ
ラメータを(7)式に従って積算する(ステップ20
5)。ついで、σをインクリメントすると共に、σ>σ
maxかどうかを判断し(ステップ206、207)、σ
≦σmaxであれば、ステップ204に戻って以降の処理
を繰返す。そして、σ>σmaxとなれば、積算値をρ、
θが示す相関パラメータ記憶部のマトリックス交点に記
憶する(ステップ208)。以後、ρをインクリメント
すると共にρ>ρmaxかどうかを判断し(ステップ20
9、210)、ρ≦ρmaxであれば、ステップ203に
戻って以降の処理を繰返す。ρ>ρmaxとなれば、θを
インクリメントすると共にθ>θmaxかどうかを判断し
(ステップ211,212)、θ≦θmaxであれば、ス
テップ202に戻って以降の処理を繰返し、θ>θmax
となれば、相関演算・投影処理を終了する。
FIG. 30 is a flowchart of the process of calculating the correlation parameter and projecting in the σ direction. 0 →
θ, 0 → ρ, 0 → σ (Steps 201 to 20)
3). Then, according to the equation (1) ', the correlation parameter C
(Ρ, θ, σ) is calculated (step 204), and the correlation parameters are integrated according to equation (7) (step 20).
5). Then, while σ is incremented, σ> σ
max (steps 206 and 207), and σ
If .ltoreq..sigma.max, the process returns to step 204 and the subsequent processes are repeated. When σ> σmax, the integrated value is ρ,
It is stored at the matrix intersection of the correlation parameter storage unit indicated by θ (step 208). Thereafter, ρ is incremented and it is determined whether ρ> ρmax (step 20).
9, 210), if ρ ≦ ρmax, the process returns to step 203 and the subsequent processes are repeated. If ρ> ρmax, θ is incremented and it is determined whether θ> θmax (steps 211 and 212). If θ ≦ θmax, the process returns to step 202 and the subsequent processing is repeated, and
Then, the correlation calculation / projection processing ends.

【0074】ρ方向に投影 対応する接線の方位θと視差σ(又は移動速度τ)が重
要で、位置ρを直接計測しなくても良い場合には、基本
相関パラメータC(ρ,θ,σ)をρ方向に加算した次
式で与えられる相関パラメータCPRJ-ρ(θ,σ)また
はCPRJ-ρ(θ,τ)が有効であり、相関パラメータ記
憶部は入力の双対プレーンと同じ二次元に削減される。 CPRJ-ρ(θ,σ)=ΣC(ρ,θ,σ) (但し、ρ=0,1,2,・・・ρmax) (9) CPRJ-ρ(θ,τ)=ΣC(ρ,θ,τ) (但し、ρ=0,1,2,・・・ρmax) (10) この相関パラメータは、視野内で動く輪郭線を検出する
場合に効果的であり、移動している輪郭接線の方位θと
移動速度τを、線の位置ρに無関係に計測できる。大脳
のハイパーコラムでも同様の働きをする細胞があり、視
野内で直線が平行移動すると強く発火し、止まると信号
を出さなくなるもので、「DirectionalSelectivity複雑
細胞」として知られている。これは、後述する「オプチカ
ル フローの計測」や「ランダムドットからの両眼立体視」
に重要な役割を果たす。
When the azimuth θ of the corresponding tangent and the parallax σ (or the moving speed τ) are important and the position ρ does not need to be measured directly, the basic correlation parameter C (ρ, θ, σ ) Is added in the ρ direction, and the correlation parameter C PRJ- ρ (θ, σ) or C PRJ- ρ (θ, τ) is effective, and the correlation parameter storage unit is the same as the input dual plane. Reduced to dimensions. C PRJ- ρ (θ, σ) = ΣC (ρ, θ, σ) (where ρ = 0,1,2,... Ρmax) (9) C PRJ- ρ (θ, τ) = ΣC (ρ , Θ, τ) (where ρ = 0, 1, 2,... Ρmax) (10) This correlation parameter is effective when detecting a contour moving in the visual field, and The tangent direction θ and the moving speed τ can be measured independently of the line position ρ. There are cells that perform the same function in the hypercolumn of the cerebrum, fire strongly when a straight line moves in the field of view, and emit no signal when stopped, and are known as "DirectionalSelectivity complex cells". This is based on “optical flow measurement” and “binocular stereoscopic vision from random dots” described later.
Play an important role.

【0075】θ方向に投影 対応する接線の位置ρと視差σ(又は移動速度τ)が重
要で、方位θを直接計測しなくても良い場合には、基本
相関パラメータC(ρ,θ,σ)をθ方向に加算した次
式で与えられる相関パラメータCPRJ-θ(ρ,σ)また
はCPRJ-θ(ρ,τ)が有効であり、相関パラメータ記
憶部は入力の双対プレーンと同じ二次元に削減される。 CPRJ-θ(ρ,σ)=ΣC(ρ,θ,σ) (但し、θ=0,1,2,・・・θmax) (11) CPRJ-θ(ρ,τ)=ΣC(ρ,θ,τ) (但し、θ=0,1,2,・・・θmax) (12) この相関パラメータは受容野近傍に捕捉しながら、動い
ていく輪郭線を追尾する場合に効果的である。受容野中
心からの輪郭線の距離ρと移動速度τを、線の方位に無
関係に計測できるという特質を有する。これに似た細胞
は蛙などの網膜に存在してハエ等の獲物を追跡するのに
使用されている。
When the position ρ of the corresponding tangent and the parallax σ (or the moving speed τ) are important and the azimuth θ does not need to be measured directly, the basic correlation parameter C (ρ, θ, σ ) Are added in the θ direction, and the correlation parameter C PRJ- θ (ρ, σ) or C PRJ- θ (ρ, τ) given by the following equation is effective, and the correlation parameter storage unit stores the same two parameters as the input dual plane. Reduced to dimensions. C PRJ- θ (ρ, σ) = ΣC (ρ, θ, σ) (where θ = 0,1,2,... Θmax ) (11) C PRJ- θ (ρ, τ) = ΣC (ρ , Θ, τ) (however, θ = 0, 1, 2, ... θmax) (12) This correlation parameter is effective when tracking a moving contour while capturing near the receptive field. . The characteristic is that the distance ρ and the moving speed τ of the contour from the center of the receptive field can be measured irrespective of the direction of the line. Similar cells are found in retinas such as frogs and are used to track prey such as flies.

【0076】ρσあるいはρτ方向に投影 対応する接線の方位θが重要で、位置ρと視差σ(移動
速度τ)を直接計測しなくて良い場合には、基本相関パ
ラメータC(ρ,θ,σ)をρσ方向(又はρτ方向)
に加算した次式で与えられる相関パラメータCPRJ-ρσ
(θ)またはC PRJ-ρτ(θ)が有効であり、相関パラ
メータ記憶部は一次元に削減される。 CPRJ-ρσ(θ)=ΣΣC(ρ,θ,σ) (但し、ρ=0,1,2,・・・ρmax、σ=0,1,2,・・・σmax) (13) CPRJ-ρτ(θ)=ΣΣC(ρ,θ,τ) (但し、ρ=0,1,2,・・・ρmax、σ=0,1,2,・・・σmax) (14) この相関パラメータは、受容野内をある方位の輪郭線が
移動したことを検知するのに効果的であり、移動してい
る輪郭線の方位θを、輪郭線の位置や移動速度に無関係
に計測できるという特質を有している。
Projection in the ρσ or ρτ direction The tangent θ of the corresponding tangent is important, and the position ρ and the parallax σ (movement
If it is not necessary to measure the velocity τ) directly,
Parameter C (ρ, θ, σ) in the ρσ direction (or ρτ direction)
The correlation parameter C given byPRJ-ρσ
(Θ) or C PRJ-ρτ (θ) is valid and the correlation parameter
The meter storage is reduced to one dimension. CPRJ-ρσ (θ) = ΣΣC (ρ, θ, σ) (However, ρ = 0,1,2, ... ρmax, σ = 0,1,2, ... σmax) (13) CPRJ-ρτ (θ) = ΣΣC (ρ, θ, τ) (where ρ = 0,1,2, ... ρmax, σ = 0,1,2, ... σmax) (14) This correlation parameter is A contour line in a certain direction in the receptive field
It is effective for detecting that
The orientation θ of the contour line regardless of the position of the contour line or the moving speed
It has the characteristic that it can be measured at any time.

【0077】ρθに投影 対応する輪郭線の視差ρ(移動速度τ)が重要で、位置
ρと方位θを直接計測しなくて良い場合には、基本相関
パラメータC(ρ,θ,σ)をρθ方向に加算した次式
で与えられる相関パラメータCPRJ-ρθ(σ)またはC
PRJ-ρθ(τ)が有効であり、相関パラメータ記憶部は
一次元に削減される。 CPRJ-ρθ(σ)=ΣΣC(ρ,θ,σ) (但し、ρ=0,1,2,・・・ρmax、θ=0,1,2,・・・θmax) (15) CPRJ-ρθ(τ)=ΣΣC(ρ,θ,τ) (但し、ρ=0,1,2,・・・ρmax、θ=0,1,2,・・・θmax) (16) この相関パラメータは、受容野内を移動する輪郭線をそ
の速度と共に検知したい場合に効果的であり、(16)式の
場合には移動している輪郭線速度τを、輪郭線の位置や
方位に無関係に計測できるという特質を有している。
When the parallax ρ (moving speed τ) of the corresponding contour is important and it is not necessary to directly measure the position ρ and the azimuth θ, the basic correlation parameter C (ρ, θ, σ) is calculated. The correlation parameter C PRJ- ρθ (σ) or C given by the following equation added in the ρθ direction:
PRJ- ρθ (τ) is effective, and the correlation parameter storage is reduced to one dimension. C PRJ− ρθ (σ) = ΣΣC (ρ, θ, σ) (However, ρ = 0,1,2,... Ρmax, θ = 0,1,2,... Θmax) (15) C PRJ - ρθ (τ) = ΣΣC ( ρ, θ, τ) ( where, ρ = 0,1,2, ··· ρmax, θ = 0,1,2, ··· θmax) (16) this correlation parameter This is effective when it is desired to detect the contour moving in the receptive field together with its speed, and in the case of equation (16), the moving contour speed τ can be measured regardless of the position and orientation of the contour. It has the characteristic of.

【0078】θρσあるいはθρτに投影 受容野内に対応した輪郭線が有るか否かだけが重要で、
位置ρ、方位θ、視差σ(移動速度τ)を計測しなくて
良い場合には、基本相関パラメータC(ρ,θ,σ)を
ρθσ方向(又はρθτ方向)に加算した次式で与えら
れる相関パラメータCPRJ-θρσまたはCPRJ-θρτが
効果的であり、相関パラメータ記憶部は1細胞のみの0
次元に削減される。 CPRJ-θρσ=ΣΣΣC(ρ,θ,σ) (但しρ=0,1,2,・・・ρmax、θ=0,1,2,・・・θmax、σ=0,1,2,・・・σmax) (17) CPRJ-θρτ=ΣΣΣC(ρ,θ,τ) (但しρ=0,1,2,・・・ρmax、θ=0,1,2,・・・θmax、σ=0,1,2,・・・σmax) (18) このようなケースは、(18)式を例にとると受容野内を移
動する輪郭線が存在するか否かだけを検知したい場合に
効果的であり、輪郭線の位置や方位や移動速度に無関係
に計測できるという特質を有している。これに似た細胞
は蛙などの下等動物の網膜に共通的に存在して、受容野
の中にハエ等の獲物が入ってきたかを少ない細胞で、か
つ素早く検出するために、極端に細胞数の少ない処理系
を構成している知恵が推察される。工学的にも、使用I
Cの数が非常に限定される惑星探査用の自走車などで、
概略の移動状況を受容野単位で把握する場合に有効であ
る。
It is only important whether or not there is a corresponding contour line in the receptive field projected on θρσ or θρτ.
When it is not necessary to measure the position ρ, the azimuth θ, and the parallax σ (moving speed τ), it is given by the following equation in which the basic correlation parameter C (ρ, θ, σ) is added in the ρθσ direction (or ρθτ direction). The correlation parameter C PRJ- θρσ or C PRJ- θρτ is effective, and the correlation parameter storage unit stores 0 for only one cell.
Reduced to dimensions. C PRJ− θρσ = ΣΣΣC (ρ, θ, σ) (where ρ = 0, 1, 2,... Ρmax, θ = 0, 1, 2,..., Θmax, σ = 0, 1, 2,.・ ・ Σmax) (17) C PRJ- θρτ = ΣΣΣC (ρ, θ, τ) (However, ρ = 0,1,2 ... ρmax, θ = 0,1,2, ... θmax, σ = 0,1,2,. And has the characteristic that measurement can be performed irrespective of the position, orientation, or moving speed of the contour line. Cells similar to this are commonly found in the retina of lower animals such as frogs, and in order to quickly detect whether or not a prey such as a fly has entered the receptive field, the cells are extremely The wisdom that constitutes a small number of processing systems is presumed. Engineeringly, use I
In a self-propelled vehicle for planetary exploration where the number of C is very limited,
This is effective when grasping the approximate movement status in receptive field units.

【0079】(ρ,τ)あるいは(ρ,σ)プレーン
の斜め方向に投影 以上では、相関パラメータ記憶部の容量削減のために、
基本相関パラメータC(ρ,θ,σ),C(ρ,θ,
τ)などの要素パラメータの方向、つまり輪郭線の位置
ρ、方位θ、視差σ、移動速度τの方向に直接投影し
た。ここでは、上記の各要素パラメータの性質を残した
ままで相関パラメータ記憶部の容量を削減する方法を説
明する。基本相関パラメータC(ρ,θ,σ),C
(ρ,θ,τ)を図28の(ρ,τ)あるいは(ρ,
σ)プレーンの任意の斜めの方向に投影するとρ、τ、
σの性質を残して相関パラメータ記憶部を二次元に削減
できる。この斜め投影を、(ρ,σ)の450方向に投
影した例で説明する。投影方向に直交する軸をξとする
と、450方向に投影された相関パラメータCPRJ-45σ
(θ,ξ)は次式で与えられ、相関パラメータCPRJ-45
σ(θ,ξ)が極大となるθP、ξPを求めると、対応す
る輪郭線の方位θPと「位置ρと視差σを複合したパラ
メータξP」が計測される。 CPRJ-45σ(θ,ξ)=ΣC(ρ+i,θ,σ+i) (但し、i=1,2・・・) (19)
Projection in the oblique direction of the (ρ, τ) or (ρ, σ) plane In the above, in order to reduce the capacity of the correlation parameter storage unit,
Basic correlation parameters C (ρ, θ, σ), C (ρ, θ,
τ) and the like, that is, in the direction of the contour position ρ, azimuth θ, parallax σ, and moving speed τ. Here, a method of reducing the capacity of the correlation parameter storage unit while maintaining the properties of the above-described element parameters will be described. Basic correlation parameters C (ρ, θ, σ), C
(Ρ, θ, τ) is replaced by (ρ, τ) or (ρ, τ) in FIG.
σ) When projected in any diagonal direction of the plane, ρ, τ,
The correlation parameter storage unit can be reduced two-dimensionally while retaining the property of σ. The oblique projection, (ρ, σ) is described in example projected in 45 0 direction. When an axis perpendicular to the projection direction and xi], correlation parameters projected on 45 0 direction C PRJ-45 sigma
(Θ, ξ) is given by the following equation, and the correlation parameter C PRJ-45
When θ P and ξ P at which σ (θ, ξ) are maximal are obtained, the azimuth θ P of the corresponding contour line and the “parameter ξ P combining the position ρ and the parallax σ” are measured. C PRJ-45 σ (θ, ξ) = ΣC (ρ + i, θ, σ + i) (where i = 1, 2,...) (19)

【0080】(d-3) 自然フィルタのコンボリューション
フィルタC1(ρ,θ) 双対プレーンの出力データをa(ρ,θ)、b(ρ,
θ)とした以下の投影相関パラメータC1(ρ,θ)は
興味深いフィルタを構成する。 C1(ρ,θ)=Σa(ρ+i,θ)・b(i,θ) (但し、i=1,2・・・) (20) 一方、前述の先願特許(特願平3-327722号)で開示した
一次元フィルタコンボリューション演算出力C2(ρ,
θ)は、一次元フィルタ関数をg(ρ)として次式で与
えられている。 C2(ρ,θ)=Σa(ρ+i,θ)・g(i) (但し、i=1,2・・・) (21) 両方の式を比較すると、相関パラメータC1(ρ,θ)
はコンボリューション出力C2(ρ,θ)のフィルタ関
数g(ρ)を、相関データb(i,θ)に変えたものであ
る。このことから、相関パラメータC1(ρ,θ)は人
工のフィルタ関数g(ρ)の代わりに、自然のデータb
(i,θ)とのコンボリューション演算を行った「自然
フィルタリング」結果と考えることができる。
(D-3) Convolution filter C 1 (ρ, θ) of natural filter Output data of the dual plane are a (ρ, θ), b (ρ,
The following projection correlation parameter C 1 (ρ, θ) as θ) constitutes an interesting filter. C 1 (ρ, θ) = Σa (ρ + i, θ) · b (i, θ) (where i = 1, 2,...) ), The one-dimensional filter convolution operation output C 2 (ρ,
θ) is given by the following equation, where g (ρ) is a one-dimensional filter function. C 2 (ρ, θ) = Σa (ρ + i, θ) · g (i) (where i = 1, 2,...) (21) Comparing both equations, the correlation parameter C 1 (ρ, θ)
Is obtained by changing the filter function g (ρ) of the convolution output C 2 (ρ, θ) into correlation data b (i, θ). From this, the correlation parameter C 1 (ρ, θ) is calculated using natural data b instead of the artificial filter function g (ρ).
It can be considered as a “natural filtering” result obtained by performing a convolution operation with (i, θ).

【0081】両フィルタリングの機能を考えてみると、
フィルタ関数g(ρ)が既知の(21)式の「人工フィルタ
リング」は、微分などの予め作用を規定できる場合に採
用できるが、「左右の眼で同じに見える特徴」を抽出し
たり、「前の画像と同じ特徴」を追跡する場合には、自
然データとのコンボリューション演算が必要であり、か
かる特徴抽出や特徴追跡は不可能である。一方、(20)式
の「自然フィルタリング」は予めフィルタパターンを規
定できない上記の場合にも、的確なフィルタを行うこと
ができる。
Considering both filtering functions,
The "artificial filtering" of the equation (21) in which the filter function g (ρ) is known can be employed when an action such as differentiation can be defined in advance. When tracking the same feature as the previous image, a convolution operation with natural data is required, and such feature extraction and feature tracking are impossible. On the other hand, the “natural filtering” of the equation (20) can perform an accurate filter even in the above case where the filter pattern cannot be defined in advance.

【0082】図31は本発明の自然フィルタの構成図で
あり、81は入力データ(1画面分の画像データ)を受
容野毎に切り出して出力する受容野分割部、82は受容
野像に極変換処理を施す極変換部、83は極変換結果a
(ρ,θ)を記憶するρ−θの双対プレーン(ハイパー
コラムメモリ)、84は本発明に係わる自然フィルタで
あり、自然フィルタデータを受容野毎に切り出して出力
する受容野分割部84aと、受容野像に極変換処理を施
す極変換部84bと、極変換結果b(ρ,θ)を記憶す
るρ−θの双対プレーン84cと、(20)式の演算を行う
乗算部84dと積算部84eを有している。
FIG. 31 is a diagram showing the configuration of a natural filter according to the present invention. Reference numeral 81 denotes a receptive field division unit for cutting out and outputting input data (image data for one screen) for each receptive field. The pole conversion unit 83 that performs the conversion process, and 83 is a pole conversion result a
A ρ-θ dual plane (hypercolumn memory) 84 for storing (ρ, θ) is a natural filter according to the present invention, and includes a receptive field division unit 84a that cuts out and outputs the natural filter data for each receptive field, A polar conversion unit 84b that performs a polar conversion process on the receptive field image, a dual plane 84c of ρ-θ that stores the polar conversion result b (ρ, θ), a multiplication unit 84d that performs the operation of Expression (20), and an integration unit 84e.

【0083】乗算部84dは双対プレーン83,84c
から出力されるデータa(ρ+i,θ)、b(i,θ)
(ρ、θ、iの初期値は0)に対して次の乗算 a(ρ+i,θ)・b(i,θ) を実行して積算部84eに出力すると共に、iをインク
リメントして次のデータa(ρ+i,θ)、b(i,
θ)に対して同様の乗算をi>imax(フィルタ幅であ
り適当に設定する)となるまで実行する。積算部84e
は乗算結果を積算し、i>imaxとなれば積算結果をρ
−θプレーンメモリ(図示せず)に記憶する。以後、全
ての(ρ,θ)について積和演算を実行すれば自然フィ
ルタリング処理が終了する。
The multiplying unit 84d includes dual planes 83 and 84c.
A (ρ + i, θ), b (i, θ) output from
The following multiplication a (ρ + i, θ) · b (i, θ) is performed on (ρ, θ, i is 0) and output to the integration unit 84e, and i is incremented and the next Data a (ρ + i, θ), b (i,
The same multiplication is performed on θ) until i> imax (the filter width is appropriately set). Integrator 84e
Multiplies the multiplication result, and if i> imax, the integration result is ρ
-Store in a θ plane memory (not shown). Thereafter, if the product-sum operation is performed for all (ρ, θ), the natural filtering process ends.

【0084】両眼立体視への応用 基本相関パラメータC(ρ,θ,σ)により、詳細な輪
郭線の対応を三次元で行えることは前述した通りである
が、この自然フィルタでは、二次元プレーン(ρ,θ)
で輪郭の対応が可能となる。具体的には、前述のC
1(ρ,θ)の極大を求めることにより、両眼で対応す
る輪郭線の位置ρと方位θを、視差σに無関係に決定で
きる。猿の大脳18野にもこれと似た機能の細胞が存在
し、両眼で対応する輪郭線を検知している。
Application to Binocular Stereopsis As described above, detailed contours can be corresponded in three dimensions by the basic correlation parameter C (ρ, θ, σ). Plane (ρ, θ)
Enables the contour to be handled. Specifically, the aforementioned C
By obtaining the maximum of 1 (ρ, θ), the position ρ and the direction θ of the corresponding contour line can be determined independently of the parallax σ by both eyes. Cells having a similar function exist in the monkey cerebral area 18, and the corresponding contour lines are detected by both eyes.

【0085】移動輪郭線の追跡への応用 以上は空間的に異なる受容野間の自然フィルタであった
が、時間的な自然フィルタでも効果的である。時間的な
相関パラメータCtime(ρ,θ)は、時間的に異なる入
力データをat(ρ,θ),at+DELTA(ρ,θ)とし
て、同様に次式 Ctime(ρ,θ)=Σat(ρ+i,θ)・at+DELTA(i,θ) (但し、i=0,1・・・) (22) で与えられる。三次元空間であれば、同時的な基本相関
相関パラメータC(ρ,θ,τ)により、移動する輪郭
線の位置、方位、移動速度を計測できることは前述し
た。しかし、この自然フィルタではCtime(ρ,θ)の
極大を求めることにより、移動する輪郭線の位置ρ、方
位θを、二次元プレーンで移動速度τに無関係に決定で
きるという特質を有する。大脳の視覚野にも同様の細胞
が存在する。
Although the present invention has been applied to the tracking of a moving contour line, a natural filter between receptive fields spatially different from each other has been described, but a temporal natural filter is also effective. Temporal correlation parameter C time (ρ, θ) is the input data temporally different a t (ρ, θ), a t + DELTA (ρ, θ) as similarly following equation C time (ρ, θ ) = Σa t (ρ + i , θ) · a t + DELTA (i, θ) ( however, i = 0,1 ···) is given by (22). As described above, in a three-dimensional space, the position, azimuth, and moving speed of a moving contour can be measured by the simultaneous basic correlation correlation parameter C (ρ, θ, τ). However, this natural filter has the characteristic that the position ρ and azimuth θ of the moving contour can be determined on the two-dimensional plane independently of the moving speed τ by obtaining the maximum of C time (ρ, θ). Similar cells exist in the visual cortex of the cerebrum.

【0086】(d-4) 差タイプの基本相関 以上では、基本相関パラメータを C(ρ,θ,σ)=a(ρ,θ)・b(ρ+σ,θ) C(ρ,θ,τ)=at(ρ,θ)・at+DELTA(ρ+
τ,θ) のように乗算で構成したが、これを加算としても同様の
効果が得られる。この場合には信号の間に線形性が保証
され、生体では「線形単純細胞」として知られている。更
に、上式の乗算を引き算とすることにより、輪郭の不明
瞭な物体の両眼立体視や追尾を、明るさや色合いの緩い
変化などを手掛かりにして行うことが可能となる。
(D-4) Basic correlation of difference type In the above, the basic correlation parameters are C (ρ, θ, σ) = a (ρ, θ) · b (ρ + σ, θ) C (ρ, θ, τ) = a t (ρ, θ) · a t + DELTA (ρ +
.tau., .theta.), but the same effect can be obtained by adding this. In this case, linearity is guaranteed between the signals, and is known as "linear simple cell" in living organisms. Furthermore, by subtracting the multiplication in the above expression, it becomes possible to perform binocular stereoscopic vision and tracking of an object having an indistinct outline using clues such as gradual changes in brightness and hue.

【0087】空間的相関 ρ軸方向相関の場合で説明すると、その基本相関パラメ
ータは C′(ρ,θ,σ)=a(ρ,θ)−b(ρ+σ,θ) (23) で与えられる。この相関では、入力データの等しい所で
C′(ρ,θ,σ)が零になる。この性質により、輪郭
の明瞭でない物体の両眼立体視も可能となる。例えば、
大きな丸い柱を見ると両端を除いて明確な輪郭はない
が、その明るさは入射角との関係で序々に変化してい
る。左右の眼で明るさの等しい所をC′(ρ,θ,σ)
が零になる性質から見出すと両眼対応ができて、円筒の
表面状態を立体視計測できる。
Spatial correlation In the case of the correlation in the ρ-axis direction, the basic correlation parameter is given by C ′ (ρ, θ, σ) = a (ρ, θ) −b (ρ + σ, θ) (23) . In this correlation, C ′ (ρ, θ, σ) becomes zero at the same position of the input data. This property enables binocular stereoscopic viewing of an object whose contour is not clear. For example,
Looking at the large round pillar, there is no clear outline except at both ends, but its brightness changes gradually in relation to the incident angle. C '(ρ, θ, σ) where the brightness is equal between the left and right eyes
When it is found from the property that becomes zero, both eyes can be handled, and the surface state of the cylinder can be measured stereoscopically.

【0088】図32は差タイプの相関処理の流れ図であ
り、全体の基本フローは図14の場合と同一であり、異
なる点は相関パラメータの演算を(23)式により行ってい
る点である。相関演算に際して0→θ、0→ρ、0→σ
とする(ステップ301〜303)。ついで、(23)式に
より、相関パラメータを演算して相関パラメータ記憶部
に記憶する(ステップ304,305)。ついで、σをイ
ンクリメントすると共に、σ>σmaxかどうかを判断し
(ステップ306、307)、σ≦σmaxであれば、ス
テップ304に戻って以降の処理を繰返す。そして、σ
>σmaxとなれば、ρをインクリメントすると共にρ>
ρmaxかどうかを判断し(ステップ308、309)、
ρ≦ρmaxであれば、ステップ303に戻って以降の処
理を繰返す。ρ>ρmaxとなれば、θをインクリメント
すると共にθ>θmaxかどうかを判断し(ステップ31
0、311)、θ≦θmaxであれば、ステップ302に
戻って以降の処理を繰返し、θ>θmaxとなれば、相関
演算処理を終了する。
FIG. 32 is a flow chart of the difference type correlation processing. The overall basic flow is the same as that of FIG. 14, and the difference is that the calculation of the correlation parameter is performed by equation (23). 0 → θ, 0 → ρ, 0 → σ for correlation calculation
(Steps 301 to 303). Next, the correlation parameter is calculated by equation (23) and stored in the correlation parameter storage unit (steps 304 and 305). Then, σ is incremented, and it is determined whether σ> σmax (steps 306 and 307). If σ ≦ σmax, the process returns to step 304 to repeat the subsequent processing. And σ
> Σmax, ρ is incremented and ρ>
ρmax is determined (steps 308 and 309),
If ρ ≦ ρmax, the process returns to step 303 and the subsequent processes are repeated. If ρ> ρmax, θ is incremented and it is determined whether θ> θmax (step 31).
0, 311), if θ ≦ θmax, the process returns to step 302 and the subsequent processes are repeated. If θ> θmax, the correlation calculation process ends.

【0089】時間的相関 ρ方向の場合で説明すると、その基本相関パラメータは
次式 C′(ρ,θ,τ)=a(ρ,θ)−b(ρ+τ,θ) (23) で与えられる。尚、a(ρ,θ)=at(ρ,θ)、b
(ρ+τ,θ)=at+DELT A(ρ+τ,θ)と表現すると
相関パラメータは次式 C′(ρ,θ,τ)=at(ρ,θ)−at+DELTA(ρ+τ,θ) (23)′ で与えられる。この相関でも、入力データの等しい所で
C′(ρ,θ,τ)が零になる。この性質により、輪郭
の明瞭でない物体の追尾も可能となる。の場合と同様
の方法で、明るさの同じになる場所を、C′(ρ,θ,
τ)が零になる性質から検出していくと、円筒の表面や
人間の顔の一部など明瞭な輪郭線を検出できない部分で
も、安定な追尾ができる。この細胞は前述の「Directio
nal Selectivity 単純細胞」に属する「線型応答型細
胞」である。
Temporal correlation In the case of the ρ direction, the basic correlation parameter is given by the following equation: C ′ (ρ, θ, τ) = a (ρ, θ) −b (ρ + τ, θ) (23) . Incidentally, a (ρ, θ) = a t (ρ, θ), b
(Ρ + τ, θ) = a t + DELT A (ρ + τ, θ) the correlation parameter a is expressed as the following equation C '(ρ, θ, τ ) = a t (ρ, θ) -a t + DELTA (Ρ + τ, θ) (23) ′. Also in this correlation, C ′ (ρ, θ, τ) becomes zero at a position where the input data is equal. This property enables tracking of an object whose contour is not clear. In the same manner as in the case of, the place where the brightness becomes the same is represented by
If the detection is performed from the property that τ) becomes zero, stable tracking can be performed even in a portion where a clear contour line cannot be detected, such as a cylindrical surface or a part of a human face. This cell is called "Directio
nal Selectivity "Linear response type cell" belonging to "simple cell".

【0090】(E)具体方式と実施例 (a) 両眼立体視 空間的に異なる作用画面の具体例として、両眼立体視の
方式とシミュレーション例を説明する。接線には線・隙
間・縁の特徴が有り、”線”は明るく光る帯であり、”
縁(エッジ)”は明るい部分と暗い部分の境界線であ
り、”隙間”は線の逆で、暗い細い帯である。(C)項
では”線”の両眼立体視対応を相関フィルタの原理説明
のために示したが、ここでは、線も含めその他の特徴の
両眼立体視を体系的に説明する。先願特許(特願平3-32
7722号)において、線抽出フィルタ、縁抽出フィルタ、
隙間抽出フィルタを開示したが、これらフィルタを用い
ることにより、線・隙間の両眼立体視や縁の両眼立体視
が可能となる。
(E) Specific Methods and Embodiments (a) Binocular Stereo Vision As a specific example of a spatially different operation screen, a binocular stereo vision system and a simulation example will be described. A tangent has the characteristics of a line, a gap, and an edge.
The “edge” is a boundary line between a bright portion and a dark portion, and the “gap” is a dark thin band opposite to the line. Although shown for explanation of the principle, the binocular stereoscopic view of other features including the line will be systematically described here.
7722), line extraction filter, edge extraction filter,
Although the gap extracting filters have been disclosed, binocular stereoscopic vision of lines and gaps and binocular stereoscopic vision of edges can be realized by using these filters.

【0091】(a-1) 各種フィルタ構成 線抽出フィルタ 図33は”線”抽出フィルタの構成図であり、(a)は「受
容野法(受容野分割+極変換)+一次元gasフィルタ」構
成の線抽出フィルタ、(b)は「二次元gasフィルタ+受容
野法」構成の線抽出フィルタである。(a)の線抽出フィ
ルタは、受容野分割部で入力画像を受容野毎に分割し、
極変換部で各受容野像毎に極変換を施し、一次元gasフ
ィルタで極変換出力に一次元二次微分フィルタ処理を施
して線分を抽出するものである。(b)の線抽出フィルタ
は、二次元gasフィルタで入力画像に二次元二次微分処
理を施してから、受容野毎に分割し、各受容野像に極変
換を施して線を抽出するものである。
(A-1) Configuration of Various Filters Line Extraction Filter FIG. 33 is a configuration diagram of a "line" extraction filter, and (a) shows "receptive field method (receptive field division + polar transformation) + one-dimensional gas filter". (B) is a line extraction filter having a “two-dimensional gas filter + receptive field method” configuration. The line extraction filter of (a) divides the input image into receptive fields in a receptive field dividing unit,
The polar conversion unit performs a polar conversion for each receptive field image, and a one-dimensional gas filter performs a one-dimensional secondary differential filtering process on the polar conversion output to extract a line segment. The line extraction filter (b) is a two-dimensional gas filter that performs a two-dimensional second-order differentiation process on the input image, then divides the image for each receptive field, performs polar transformation on each receptive field image, and extracts lines. It is.

【0092】縁抽出フィルタ 図34は各種”縁”抽出フィルタの構成図であり、(a)
は受容野法(受容野分割+極変換)の出力に一次元grフ
ィルタ処理を施して”縁”を抽出する基本フィルタの構
成、(b)は(a)の基本フィルタの後段に更に一次元gasフ
ィルタを接続した縁抽出フィルタの構成、(c)は(a)の基
本フィルタの前段に更に二次元gasフィルタを接続した
縁抽出フィルタの構成である。(a)の縁抽出フィルタ
は、受容野分割部で入力画像を受容野毎に分割し、極変
換部で各受容野像に極変換を施し、一次元grフィルタで
極変換出力に一次微分処理を施して”縁”を抽出するも
のである。(b)の縁抽出フィルタは、受容野分割部で入
力画像を受容野毎に分割し、極変換部で各受容野像に極
変換を施し、一次元grフィルタで極変換出力に一次元一
次微分処理を施し、更に二次元gasフィルタで一次元二
次微分処理を施して”縁”を抽出するものである。(c)
の縁抽出フィルタは、二次元gasフィルタで入力画像に
二次元二次微分処理を施してから、受容野分割部で入力
画像を受容野毎に分割し、極変換部で各受容野像に極変
換を施し、更に一次元grフィルタで極変換出力に一次元
一次微分処理を施して”縁”を抽出するものである。
Edge Extraction Filter FIG. 34 is a block diagram of various "edge" extraction filters.
Is the configuration of a basic filter that extracts the "edge" by applying one-dimensional gr filter processing to the output of the receptive field method (receptive field division + polar transformation), and (b) shows a further one-dimensional filter after the basic filter of (a) (c) is a configuration of an edge extraction filter in which a two-dimensional gas filter is further connected in front of the basic filter of (a). The edge extraction filter of (a) divides the input image for each receptive field at the receptive field division unit, performs polar transformation on each receptive field image at the polar transformation unit, and performs a first differentiation process on the polar transformation output with the one-dimensional gr filter. To extract the “edge”. The edge extraction filter of (b) divides the input image for each receptive field in the receptive field dividing unit, performs polar transformation on each receptive field image in the polar transforming unit, and performs one-dimensional linear transformation to a polar transformed output with a one-dimensional gr filter. Differential processing is performed, and then one-dimensional second-order differential processing is performed using a two-dimensional gas filter to extract “edges”. (c)
The edge extraction filter performs a two-dimensional second differentiation process on the input image with a two-dimensional gas filter, then divides the input image into receptive fields by a receptive field dividing unit, and polarizes each receptive field image by a polar transform unit. After performing the transformation, the polar transformation output is subjected to a one-dimensional first-order differentiation process by a one-dimensional gr filter to extract an “edge”.

【0093】隙間抽出フィルタ 隙間抽出フィルタは、線抽出フィルタの符号を反転した
ものである。従って、図33に示す各線抽出フィルタの
後段に符号反転部を接続すれば、隙間抽出フィルタにな
る。図35は隙間抽出フィルタの構成図であり、符号反
転部が設けられている。
Gap Extraction Filter The gap extraction filter is obtained by inverting the sign of the line extraction filter. Therefore, if a sign inversion unit is connected to the subsequent stage of each line extraction filter shown in FIG. 33, a gap extraction filter is obtained. FIG. 35 is a configuration diagram of the gap extraction filter, in which a sign inversion unit is provided.

【0094】(a-2) 線・隙間の両眼立体視 一次元フィルタでの線・隙間の両眼立体視 図14の基本フローにおける「極変換+一次元フィルタ
処理」を、図33(a)又は図35(a)に示す「受容野分割
+極変換+一次元ガウシャンフィルタ(+符号反転)処
理」とすると共に、左右眼の画像を入力することによ
り、線・隙間の両眼立体視が可能となる。そのシミュレ
ーション結果は既に図11〜図13で説明した。図13
におけるC(ρ,θ,σ)の鋭いピークが垂直線の対応
点を示し、σ軸の値から視差が5画素と正しく計測され
ている。
(A-2) Binocular stereoscopic view of lines and gaps Binocular stereoscopic view of lines and gaps with a one-dimensional filter The “polar conversion + one-dimensional filter processing” in the basic flow of FIG. ) Or “receptive field division + polar transformation + one-dimensional Gaussian filter (+ sign inversion) processing” shown in FIG. 35 (a), and by inputting the left and right eye images, It becomes possible to see. The simulation results have already been described with reference to FIGS. FIG.
, The sharp peak of C (ρ, θ, σ) indicates the corresponding point of the vertical line, and the parallax is correctly measured as 5 pixels from the value of the σ axis.

【0095】二次元フィルタでの線・隙間の両眼立体
視(生体的両眼立体視) 図14の基本フローにおける「極変換+一次元フィルタ
処理」を、図33(b)又は図35(b)に示す「二次元ガウ
シャンフィルタ+受容野分割+極変換(+符号反転)処
理」とすると共に、左右眼の画像を入力することによ
り、線・隙間の両眼立体視が可能となる。この方式は、
左右眼の入力画像に二次元gasフィルタで二次元二次微
分処理(二次元コンボリューションフィルタ処理)を施
し、しかる後、受容野毎に分割し、各受容野像に極変換
を施すものである。二次元gasフィルタ処理は「極変換後
の一次元フィルタ処理」と等価であり、シミュレーショ
ン結果は省略するが、図11〜図13と同一になる。こ
の方式は、人間の立体視と同じであり、二次元gasフィ
ルタで輪郭強調した結果を、形の認識等にも共通的に活
用できる利点が有る。
Binocular stereoscopic viewing of lines and gaps using a two-dimensional filter (biological binocular stereoscopic viewing) “Polar transformation + one-dimensional filtering” in the basic flow of FIG. 14 is performed as shown in FIG. 33 (b) or FIG. In addition to “two-dimensional Gaussian filter + receptive field division + polar conversion (+ sign inversion) processing” shown in b), binocular stereoscopic view of lines and gaps becomes possible by inputting left and right eye images. . This method is
The input images of the left and right eyes are subjected to a two-dimensional second-order differentiation process (two-dimensional convolution filter process) using a two-dimensional gas filter, and thereafter, are divided into receptive fields, and polar transforms are performed on each receptive field image. . The two-dimensional gas filter processing is equivalent to “one-dimensional filter processing after polar transformation”, and the simulation results are omitted, but are the same as FIGS. 11 to 13. This method is the same as human stereoscopic vision, and has the advantage that the result of contour enhancement using a two-dimensional gas filter can be commonly used for shape recognition and the like.

【0096】(a-3) 縁の両眼立体視 一次元フィルタでの縁の両眼立体視 図14の基本フローにおける「極変換+一次元フィルタ
処理」を、図34(b)に示す「受容野分割+極変換+一
次元グラディエントフィルタ+一次元ガウシャンフィル
タ処理」とすると共に、左右眼の画像を入力することに
より、縁の両眼立体視が可能となる。そのシミュレーシ
ョン結果を図36、図37に示す。図36(a),(b)にお
ける円形部CL,CRは左右眼の受容野、円形内の像は左
右眼に写る受容野像であり、プラント内の情景中四角S
Qで囲んだ部分の縁の図形が写っている。図37におい
ては、全てのデータを信号の強さを等高線で示してあ
り、極変換結果と、θ=1680での基本相関パラメー
タC(ρ,θ,σ)の強度分布が等高線で示されてい
る。C(ρ,θ,σ)の鋭いピークが縁の対応点を示
し、σ軸の値から視差が1画素と正しく計測されてい
る。
(A-3) Binocular Stereoscopic View of Edge Binocular Stereoscopic View of Edge with One-Dimensional Filter “Polar transformation + one-dimensional filter processing” in the basic flow of FIG. Receptive field division + polar transformation + one-dimensional gradient filter + one-dimensional Gaussian filter processing "and inputting images of the left and right eyes enables binocular stereoscopic viewing of edges. The simulation results are shown in FIGS. FIG. 36 (a), the circular part C L in (b), C R is receptive field, the image of the circular right and left eyes are receptive field images caught on the right and left eyes, the scene in the square S in a plant
The figure of the edge of the part surrounded by Q is shown. In FIG. 37, all data are indicated by the contour lines of the signal intensities, and the polar transformation result and the intensity distribution of the basic correlation parameter C (ρ, θ, σ) at θ = 168 0 are indicated by contour lines. ing. The sharp peak of C (ρ, θ, σ) indicates the corresponding point of the edge, and the parallax is correctly measured as one pixel from the value of the σ axis.

【0097】二次元フィルタを混在した縁の両眼立体
視(生体的両眼立体視) 図14の基本フローにおける「極変換+一次元フィルタ
処理」を、図34(c)に示す「二次元ガウシャンフィル
タ+受容野分割+極変換+一次元グラディエントフィル
タ処理」とすると共に、左右眼の画像を入力することに
より、縁の両眼立体視が可能となる。この方式は、左右
眼の入力画像に二次元gasフィルタで二次元二次微分処
理を施し、しかる後、受容野毎に分割し、各受容野像に
極変換を施すものである。二次元gasフィルタ処理は「極
変換後の一次元フィルタ処理」と等価であり、シミュレ
ーション結果は省略するが、図36と同一になる。この
方式は、人間の立体視と同じであり、二次元gasフィル
タで輪郭強調した結果を、形の認識等にも共通的に活用
できる利点が有る。 (a-4) 多角形図形・曲線図形・ランダムドット・テクス
チュアの両眼立体視:この両眼立体視は後述する移動方
向・速度の計測における記述と関連があるので、該記述
の後に(c)項として改めて説明する。
A binocular stereoscopic view of an edge in which a two-dimensional filter is mixed (biological binocular stereoscopic view) “Polar transformation + one-dimensional filter processing” in the basic flow of FIG. In addition to “Gaussian filter + receptive field division + polar transformation + one-dimensional gradient filter processing”, by inputting images of the left and right eyes, binocular stereoscopic viewing of the edge becomes possible. In this method, the input images of the left and right eyes are subjected to a two-dimensional second-order differentiation process using a two-dimensional gas filter, and thereafter divided into receptive fields, and polar images are applied to each receptive field image. The two-dimensional gas filter processing is equivalent to “one-dimensional filter processing after polar conversion”, and the simulation result is omitted, but is the same as FIG. This method is the same as human stereoscopic vision, and has the advantage that the result of contour enhancement using a two-dimensional gas filter can be commonly used for shape recognition and the like. (a-4) Binocular stereoscopic view of polygonal figures, curved figures, random dots, and textures: Since this binocular stereoscopic view is related to the description in the measurement of the moving direction and speed described later, (c) ) Will be explained again.

【0098】(b) 移動方向と移動速度の計測 時間的に異なる作用画面の具体的な例として、画面内を
移動する物体を追尾するために、移動方向Φと速度Vを
計測する方式を説明する。 (b-1) 輪郭接線の移動方向と速度の計測 対象物の輪郭は直線で近似され(接線)、その接線の移
動方向と速度は以下の方法で計測できる。現時刻の画像
と、次の時刻の画像を「極変換+一次元フィルタ処理」
したデータat(ρ,θ)、at+DELTA(ρ,θ)から、
基本相関パラメータC(ρ,θ,τ)を次式 C(ρ,θ,τ)=at(ρ,θ)・at+DELTA(ρ+τ,θ) (24) より計算し、そのC(ρ,θ,τ)が極大となる点(ρ
P,θP,τP)を求めると、その要素パラメータから 接線の移動方向Φ=θP+900 接線の移動速度V=(τP・Δρ)/DELTA・・・(25) と求まり、そのデータから接線を追尾できる。ここで、
Δρはρ方向の分解能である。
(B) Measurement of the moving direction and the moving speed As a specific example of the operation screen which is different in time, the inside of the screen is
In order to track a moving object, the moving direction Φ and the speed V
The measuring method will be described. (b-1) Measurement of the moving direction and speed of the contour tangent The contour of the object is approximated by a straight line (tangent), and the tangent
The moving direction and speed can be measured by the following method. Current time image
And the image at the next time is "polar transformation + one-dimensional filter processing"
Data at(Ρ, θ), at + DELTAFrom (ρ, θ),
The basic correlation parameter C (ρ, θ, τ) is expressed by the following equation: C (ρ, θ, τ) = at(Ρ, θ) · at + DELTA(Ρ + τ, θ) Calculated from (24) and the point at which C (ρ, θ, τ) is maximal (ρ
P, ΘP, ΤP), The tangent movement direction Φ = θP+900  Moving speed of tangent V = (τP.DELTA..rho.) / DELTA... (25), and the tangent can be tracked from the data. here,
Δρ is the resolution in the ρ direction.

【0099】この方向と速度は、接線の方位と移動方向
0が直交していない場合には誤差を生じる。その理由
を図38で説明すると、(25)式により計測される接線L
の移動方向と速度は、それぞれ「接線の方位に直交する
方向」及び「その直交方向の速度V」であり、本当の方
向ベクトルV0と一致しなくなるからである。この誤差
を修正した正しい移動方向と速度の計測法を次で説明す
るが、対象物の追尾を行うにはこの方式で十分である。
というのは、短い時間間隔で追尾が行われるため、毎回
の上式の誤差は小さく問題とならないからである。
[0099] The direction and speed, resulting in errors when the moving direction V 0 and the tangent of the azimuth are not orthogonal. The reason will be described with reference to FIG. 38. The tangent L measured by the equation (25)
Is the “direction orthogonal to the tangent direction” and “the speed V in the orthogonal direction”, respectively, and does not match the true direction vector V 0 . A correct moving direction and speed measuring method in which this error is corrected will be described below, but this method is sufficient for tracking an object.
This is because the tracking is performed at short time intervals, and the error of the above equation is small every time and does not cause a problem.

【0100】図39は接線の移動方向と移動速度を計測
するフロー図である。画像データを遅延し(ステップ4
9)、現時刻の1画面分の画像データと遅延により得ら
れた所定時間前の1画面分の画像データをそれぞれ受容
野像に分割し(ステップ50a,50a′)、各受容野
像IM,IM′に極変換処理を施し(ステップ51a,
51a′)、該極変換結果に一次元フィルタリング処理
を施して双対プレーンに写像し(ステップ52a,52
a′)、各双対プレーンに写像されたデータ間に(24)式
の相関処理を施し(ステップ53)、計算された相関パ
ラメータC(ρ,θ,τ)を相関パラメータ記憶部に記
憶し(ステップ72)、相関演算終了後、相関パラメー
タ記憶部をスキャンしてC(ρ,θ,τ)が極大となる
(ρP,θP,τP)を検出し(ステップ73)、最後に
(25)式により接線の移動方向Φと移動速度Vを計算する
(ステップ74)。
FIG. 39 is a flowchart for measuring the moving direction and moving speed of the tangent. Delay image data (Step 4
9) The image data of one screen at the current time and the image data of one screen before a predetermined time obtained by the delay are divided into receptive field images (steps 50a and 50a '), and each receptive field image IM, IM ′ is subjected to polar conversion processing (step 51a,
51a '), one-dimensional filtering is performed on the result of the polar transformation, and the result is mapped onto a dual plane (steps 52a and 52a).
a '), the correlation processing of equation (24) is performed between the data mapped on each dual plane (step 53), and the calculated correlation parameter C (ρ, θ, τ) is stored in the correlation parameter storage unit ( Step 72) After the completion of the correlation calculation, the correlation parameter storage is scanned to detect (ρ P , θ P , τ P ) at which C (ρ, θ, τ) becomes maximum (step 73), and finally,
Calculate the moving direction Φ and the moving speed V of the tangent by the formula (25).
(Step 74).

【0101】(b-2) コーナのの移動方向と速度の計測 正確な移動方向と速度を計測するには、受容野に2本以
上の輪郭線が必要である。対象物は図40(a)に示すよ
うに一般的に2つの輪郭接線Li,Ljをから成るコーナ
CNを有しており、このコーナの相関処理によって正確
な移動方向と速度を計測できる。まず、(b-1)の場合と
同じように(24)式により相関処理を行う。すなわち、現
時刻の画像と次の時刻の画像とを「極変換+一次元フィ
ルタ処理」したデータa t(ρ,θ)、at+DELTA(ρ,
θ)を用いて基本相関パラメータC(ρ,θ,τ)を(2
4)式より計算し、そのC(ρ,θ,τ)が極大となる点
(ρP,θP,τP)を求める。ついで、極大値探索によ
り抽出した2つの接線Li,Ljに対応する点を(ρi
θi,τi)、(ρj,θj,τj)、・・・とすると、正
確な移動方向Φと速度Vは次式 Φ=arctan[(τisinθj−τjsinθi)/(τicosθj−τjcosθi)] (26) V=(Δρ・τi)/(sin(Φ−θi)・DELTA) (27) で計測される。ここで、DELTAは現時刻と次の時刻との
時間間隔である。
(B-2) Measuring the direction and speed of the corner movement To accurately measure the direction and speed of the corner, two or more
The top contour is needed. The target object is shown in FIG.
In general, a corner consisting of two contour tangent lines Li and Lj
It has CN, and it is accurate by correlation processing of this corner.
It can measure various moving directions and speeds. First, the case of (b-1)
Similarly, the correlation processing is performed by the equation (24). That is,
The image of the time and the image of the next time are referred to as “polar conversion + one-dimensional
Filtered data a t(Ρ, θ), at + DELTA(Ρ,
θ) and the basic correlation parameter C (ρ, θ, τ) to (2
The point where C (ρ, θ, τ) becomes the maximum, calculated from equation 4)
P, ΘP, ΤP). Next, the maximum value search
The points corresponding to the two extracted tangent lines Li and Lj are (ρi,
θi, Τi), (Ρj, Θj, Τj), ...
The exact moving direction Φ and speed V are given by the following formula Φ = arctan [(τisinθj−τjsinθi) / (Τicosθj−τjcosθi)] (26) V = (Δρ · τi) / (Sin (Φ−θi) ・ DELTA) Measured by (27). Where DELTA is the difference between the current time and the next time
Time interval.

【0102】この(26),(27)式は以下の如く導出され
る。すなわち、(25)式により計測される接線L(図38
参照)の移動方向と速度はそれぞれ「接線の方位に直交
する方向」及び「その直交方向の速度V」である。従っ
て、図38のΦ0方向に移動した時、(25)式で計測され
る速度はV0cosξとなる。これより、 V0cosξ=(τP・Δρ)/DELTA (28) が成立する。ところで、角度ξは図38において時計方
向を正とすると、次式 ξ=900−(Φ0−θP) (29) (但し、θPは接線Lの方向)で与えられる。(28)式に(2
9)式を代入すると、 V0cos[900-(Φ0P)]=(τP・Δρ)/DELTA (30) となり、変形すると V0sin(Φ0P)=(τP・Δρ)/DELTA (30)′ となる。ここで、τP=τi,θP=θiとし、V0を求め
ると(27)式が導出される。尚、τPをτで、θPをθで表
現し、k=DELTA/Δρとして(30)式を変形すると次式 τ=k・V0・cos[900-(Φ0-θ)] (31) となり、この関係式をθ-τ平面上に描画すると図40
(b)に示すように正弦波(正弦波状の発火パターン)と
なる。換言すれば、図形の各辺Li,Ljはθ-τ平面上に
おいて正弦波上の1点に濃縮される。
Equations (26) and (27) are derived as follows. That is, the tangent L measured by the equation (25) (FIG. 38)
The moving direction and the speed of the reference direction are a “direction orthogonal to the tangent direction” and a “speed V in the orthogonal direction”, respectively. Therefore, when moving in the Φ 0 direction in FIG. 38, the speed measured by the equation (25) becomes V 0 cosξ. From this, V 0 cosξ = (τ P · Δρ) / DELTA (28) is satisfied. Incidentally, assuming that the clockwise direction is positive in FIG. 38, the angle ξ is given by the following equation: ξ = 90 0 − (Φ 0 −θ P ) (29) (where θ P is the direction of the tangent line L). (28)
By substituting the equation (9), V 0 cos [90 0-0P )] = (τ P · Δρ) / DELTA (30). When transformed, V 0 sin (Φ 0P ) = ( τ P · Δρ) / DELTA (30) ′. Here, when τ P = τ i and θ P = θ i and V 0 is obtained, equation (27) is derived. If τ P is represented by τ and θ P is represented by θ, and k = DELTA / Δρ, and the equation (30) is modified, the following equation is obtained: τ = k · V 0 · cos [90 0-0 -θ)] (31), and this relational expression is drawn on the θ-τ plane, as shown in FIG.
As shown in (b), a sine wave (sinusoidal firing pattern) is obtained. In other words, each side Li, Lj of the figure is concentrated to one point on a sine wave on the θ-τ plane.

【0103】さて、(31)式を変形すると、 τ=k・V0・sin(Φ0-θ) (32) となる。この(32)式において、(θ,τ)=(θi
τi)、(θ,τ)=(θj,τj)とすると、次式 τi=k・V0・sin(Φ0i) (32)′ τj=k・V0・sin(Φ0j) (32)″ となる。(32)′、(32)″式より τi/τj=sin(Φ0i)/sin(Φ0j) が成立し、 tanΦ0=(τisinθj−τjsinθi)/(τicosθj−τjcos
θi) が導かれ、(26)式が導出される。尚、コーナは2本の輪
郭線からなるが、3本以上の輪郭線から構成される特徴
であれば、図40(b)の正弦波をより正確に決定でき、
従って(Φ0,V0)の計測精度を高めることができる。
Now, by transforming equation (31), τ = k · V 0 · sin (Φ 0 -θ) (32) In this equation (32), (θ, τ) = (θ i ,
τ i), (θ, τ ) = (θ j, when the tau j), the following equation τ i = k · V 0 · sin (Φ 0 -θ i) (32) 'τ j = k · V 0 · sin (Φ 0j ) (32) ″. From the equations (32) ′ and (32) ″, τ i / τ j = sin (Φ 0i ) / sin (Φ 0j ) is Holds, tanΦ 0 = (τ i sinθ j −τ j sinθ i ) / (τ i cosθ j −τ j cos
θ i ) is derived, and equation (26) is derived. Note that the corner is composed of two contours, but if the feature is composed of three or more contours, the sine wave of FIG. 40 (b) can be determined more accurately.
Therefore, the measurement accuracy of (Φ 0 , V 0 ) can be improved.

【0104】 (b-3) 多角形・曲線からの移動方向・速度の計測 上記では、2本の線(コーナ)からの移動方向・速度の
計測を述べたが、もっと多くの線や接線から構成される
「多角形・曲線」に着目すると、更に信頼性の良い「移
動方向・速度の計測」が可能となる。前述のρ方向に投
影した次式で与えられる相関パラメータCPRJ-ρ(θ,
τ) CPRJ-ρ(θ,τ)=ΣC(ρ,θ,τ) (ρ=1,
2,・・・) が重要な役割を果たす。
(B-3) Measurement of moving direction / speed from polygon / curve In the above, measurement of moving direction / speed from two lines (corners) has been described. Focusing on the configured “polygon / curve”, “movement direction / velocity measurement” with higher reliability can be performed. The correlation parameter C PRJ- ρ (θ, θ,
τ) C PRJ- ρ (θ, τ) = ΣC (ρ, θ, τ) (ρ = 1,
2, ...) play an important role.

【0105】多角形からの移動方向・速度の計測 多角形図形に対するこのパラメータの応答は、図41に
示すように、多角形の各辺の応答が正弦波状に分布す
る。N角形であれば、正弦波状にN個のピークが並ぶこ
とになり、また速度の大きい多角形は大振幅の正弦波と
なる。これから多角形全体の移動方向と速度を正確に計
測できる。直線の方位と移動方向との角度を図38のよ
うにξとすると、相関パラメータC(ρ,θ,τ)がピ
ークとなるτPは、(28)式より τP=(V0・DELTA/Δρ)・cosξ であり、これをρ方向に投影したCPRJ-ρ(θ,τ)は
図41の正弦波(正弦波状の発火パターン)となる。そ
の最大点(θmax、τmax)を求めると、 移動方向Φ0 =θmax−900 (33a) 真の移動速度V0=(τmax・Δρ)/DELTA (33b) を計算できる。前述のコーナ法(図40(b))に比して、
基本原理は同じであるが、正弦波上に多くの点(N点)
が分布するため、そのピーク(最大振幅となる点)を正
確に計算できるとの大きな特徴がある。
Measurement of Moving Direction and Speed from Polygon As shown in FIG. 41, the response of this parameter to a polygon figure is such that the response of each side of the polygon is distributed in a sine wave shape. In the case of an N-sided polygon, N peaks are arranged in a sine wave shape, and a polygon having a high speed is a sine wave having a large amplitude. From this, the moving direction and speed of the entire polygon can be accurately measured. Assuming that the angle between the azimuth of the straight line and the moving direction is ξ as shown in FIG. 38, τ P at which the correlation parameter C (ρ, θ, τ) reaches a peak is given by τ P = (V 0 · DELTA) from equation (28). / Δρ) · cosξ, and C PRJ− ρ (θ, τ) obtained by projecting this in the ρ direction becomes a sine wave (sinusoidal firing pattern) in FIG. 41. When the maximum point (θmax, τmax) is obtained, the moving direction Φ 0 = θmax−90 0 (33a) The true moving speed V 0 = (τmax · Δρ) / DELTA (33b) can be calculated. Compared to the aforementioned corner method (FIG. 40 (b)),
The basic principle is the same, but many points (N points) on the sine wave
Is distributed, so that there is a great feature that the peak (point at which the maximum amplitude is obtained) can be calculated accurately.

【0106】この正弦波の抽出を極変換を用いて行うこ
とができる。すなわち、円筒上極変換(Hough(ハフ)
変換)では点が正弦波に変換され、正弦波上の各点を更
に極変換すると(逆ハフ変換)、各点は1点で交差する
直線に変換される。従って、該点より正弦波を抽出でき
る。具体的には、CPRJ-ρ(θ,τ)プレーンの各点
を、以下の関係 τ=−Vy・cosθ+Vx・sinθ (34) を満たす直線に変換して、その交点CP(Vx,Vy)を
求める(図42参照)。Vx,Vy座標原点からこの交点
CPまでの方向及び距離が(33a),(33b)式におけるθma
x、τmaxとなる。尚、交点CP迄の方向及び距離が(33
a),(33b)式におけるθmax、τmaxとなる理由は以下のと
おりである。(34)式は、真の速度V0と方向Φを用いて
変形すると τ=(√(Vx2+Vy2))・sin(θ−Φ) =V0・(DELTA/Δρ)・sin(θ−Φ) (34)′ となる。ただし、Φ=arctan(Vy/Vx).従って、C
PRJ-ρ(θ,τ)プレーンの正弦波のピークは τmax=V0・(DELTA/Δρ) あるいは =√(Vx2+Vy2) θmax=Φ−900 となる。これより真の速度と方向が次式 真の速度V0=(Δρ/DELTA)・√(Vx2+Vy2) (35a) 真の方向Φ0=arctan(Vy/Vx) (35b) で計算できる。尚、この方法は「逆ハフ変換」に相当して
いる。
The extraction of the sine wave can be performed using polar transformation. In other words, pole transformation on cylinder (Hough
In the transformation, the points are converted into a sine wave, and when each point on the sine wave is further pole-transformed (inverse Hough transformation), each point is converted into a straight line intersecting at one point. Therefore, a sine wave can be extracted from the point. Specifically, each point of the C PRJ- ρ (θ, τ) plane is converted into a straight line satisfying the following relationship τ = −Vy · cos θ + Vx · sin θ (34), and the intersection CP (Vx, Vy) (See FIG. 42). The direction and distance from the Vx, Vy coordinate origin to the intersection CP are θma in the equations (33a) and (33b).
x, τmax. The direction and distance to the intersection CP are (33
The reasons for θmax and τmax in equations a) and (33b) are as follows. (34), when deformation with true velocity V 0 and direction Φ τ = (√ (Vx 2 + Vy 2)) · sin (θ-Φ) = V 0 · (DELTA / Δρ) · sin (θ −Φ) (34) ′. Here, Φ = arctan (Vy / Vx). Therefore, C
PRJ- ρ (θ, τ) sine wave peaks of the planes becomes τmax = V 0 · (DELTA / Δρ) or = √ (Vx 2 + Vy 2 ) θmax = Φ-90 0. From this, the true speed and direction can be calculated by the following equation: true speed V 0 = (Δρ / DELTA) √ (Vx 2 + Vy 2 ) (35a) True direction Φ 0 = arctan (Vy / Vx) (35b) . This method corresponds to “inverse Hough transform”.

【0107】図43は以上により移動方向と移動速度を
計測するフロー図である。現時刻と次の時刻の1画面分
の画像データをそれぞれ受容野像に分割し(ステップ5
0a,50a′)、各受容野像IM,IM′に極変換処
理を施し(ステップ51a,51a′)、該極変換結果
に一次元フィルタリング処理を施して双対プレーンに写
像し(ステップ52a,52a′)、各双対プレーンに
写像されたデータ間に(24)式の相関処理を施し(ステッ
プ53)、計算された相関パラメータC(ρ,θ,τ)
を相関パラメータ記憶部に記憶する(ステップ72)。
ついで、次式 CPRJ-ρ(θ,τ)=ΣC(ρ,θ,τ) (ρ=1,
2,・・・) により、ρ方向に投影した相関パラメータCPRJ-ρ
(θ,τ)を求め(ステップ75)、θ−τ平面の相関
パラメータ記憶部に記憶する(ステップ76)。つい
で、相関パラメータCPRJ-ρ(θ,τ)に(34)式により
極変換処理を施し(ステップ77)、Vx,Vy平面(速
度平面)上におけるピーク点(交点)を求め(ステップ
78)、座標原点からこの交点までの方向及び距離を求
めて(35a),(35b)式に基づいて真の速度V0、真の方向Φ
0を演算する(ステップ79)。 曲線図形からの移動方向・速度の計測 以上は多角形であったが、曲線図形でも同様に信頼性の
高い計測を行うことができる。「受容野法+極変換」で
は、曲線の接線を的確に抽出でき、そのデータから同様
にCPRJ-ρ(θ,τ)を計算すれば良い。
FIG. 43 is a flowchart for measuring the moving direction and the moving speed as described above. The image data for one screen at the current time and the next time is divided into receptive field images (step 5).
0a, 50a '), polar conversion processing is performed on each receptive field image IM, IM' (steps 51a, 51a '), and the result of the polar conversion is subjected to one-dimensional filtering to be mapped on a dual plane (steps 52a, 52a). '), The correlation processing of equation (24) is performed between the data mapped on each dual plane (step 53), and the calculated correlation parameter C (ρ, θ, τ)
Is stored in the correlation parameter storage unit (step 72).
Then, the following equation C PRJ- ρ (θ, τ) = ΣC (ρ, θ, τ) (ρ = 1,
2,...), The correlation parameter C PRJ- ρ projected in the ρ direction
(Θ, τ) is determined (step 75), and stored in the correlation parameter storage unit on the θ-τ plane (step 76). Next, a polar conversion process is performed on the correlation parameter C PRJ- ρ (θ, τ) according to equation (34) (step 77), and a peak point (intersection) on the Vx, Vy plane (velocity plane) is obtained (step 78). The direction and the distance from the coordinate origin to the intersection are obtained, and the true velocity V 0 and the true direction Φ are calculated based on the equations (35a) and (35b).
0 is calculated (step 79). Measurement of moving direction and speed from curved figures Although polygons have been described above, highly reliable measurements can be performed with curved figures as well. In the “receptive field method + polar conversion”, the tangent of the curve can be accurately extracted, and C PRJ− ρ (θ, τ) may be similarly calculated from the data.

【0108】(b-4) ランダムドットやテクスチュアから
の移動方向・速度の計測 以上では、直線や接線から構成される図形(多角形、曲
線)から、移動方向と速度を計測できることを述べた。
次に、ランダムの点から構成される図形に拡張する。こ
の図形に対しても(b-3)と全く同じ処理で移動方向と速
度を計測できる。その理由は、「受容野法+一次元フィ
ルタ」によって、「点のペアを直線」として抽出でき、
多角形と同じに考えられるためである(図44参照)。
この方法により、ランダムドット図形は当然として、細
かい模様から構成され「テクスチュア」図形の移動方向
・速度の計測が可能となり、この拡張は極めて大きな効
果を有する。
(B-4) Measurement of Moving Direction and Speed from Random Dots and Textures In the above, it has been described that the moving direction and speed can be measured from figures (polygons and curves) composed of straight lines and tangents.
Next, it is expanded to a figure composed of random points. The moving direction and speed of this figure can be measured by exactly the same processing as in (b-3). The reason is that "pair of points can be extracted as a straight line" by "receptive field method + one-dimensional filter",
This is because it is considered the same as a polygon (see FIG. 44).
According to this method, the moving direction and the speed of the “texture” graphic can be measured, as a matter of course, because the random dot graphic is composed of fine patterns. This expansion has a very great effect.

【0109】図45、図46はランダムドット図形の移
動方向、速度計測におけるシミュレーション結果説明図
であり、1秒間に、450方向に6√2画素移動した時
の結果であり、遅れDELTAを1秒に設定する。なお、こ
のランダムドット図形はコンピュータで生成したランダ
ムドット・ステレオグラムであり、1ドット=1画素で
描いてあり、密度は50%である。図45において、I
M,IM′はそれぞれ、現時刻(遅れなし)と次の時刻
(遅れあり)の受容野像、HCIM,HCIM′は各受
容野像IM,IM′に極変換処理を施し、該極変換結果
に一次元フィルタリング処理を施してρ−θの双対プレ
ーンに写像したハイパーコラム像である。又、図46に
おいて、PRIMはハイパーコラム像間に相関処理を施
し、得られた相関パラメータC(ρ,θ,τ)をρ方向
に投影したθ−τ平面における相関パラメータCPRJ-ρ
(θ,τ)、HGIMは相関パラメータCPRJ-ρ(θ,
τ)に極変換処理を施したVx,Vy平面上の極変換結果
ある。θ−τ平面上には、正弦波パターンSWVが現れ
ており、又、速度平面上には450方向、6√2画素位
置に鋭いピークPKが抽出されている。このピーク点
(Vx,Vy)より(35a),(35b)式に基づいて真の速度と
真の移動方向が計算できる。
[0109] Figure 45, Figure 46 is a simulation result diagram in the direction of movement, speed measurement of the random dot shape, per second, the result of when moving 6√2 pixel 45 0 direction, the delay DELTA 1 Set to seconds. The random dot figure is a random dot stereogram generated by a computer, and is drawn with one dot = 1 pixel, and has a density of 50%. In FIG. 45, I
M and IM ′ are receptive field images at the current time (no delay) and the next time (with a delay), respectively, and HCIM and HCIM ′ perform polar conversion processing on each receptive field image IM and IM ′, and the result of the polar conversion Is a hyper-column image obtained by performing a one-dimensional filtering process on a dual plane of ρ-θ. In FIG. 46, PRIM performs a correlation process between hypercolumn images, and obtains a correlation parameter C (ρ, θ, τ) in a θ-τ plane projected in the ρ direction by using a correlation parameter C PRJ- ρ.
(Θ, τ), HGIM is the correlation parameter C PRJ- ρ (θ,
τ) is a pole conversion result on the Vx and Vy planes after the pole conversion processing. On theta-tau plane, and it appears sinusoidal pattern SWV, also 45 0 direction on speed plane, a sharp peak PK in 6√2 pixel positions are extracted. From this peak point (Vx, Vy), the true speed and the true moving direction can be calculated based on the equations (35a) and (35b).

【0110】大脳のハイパーコラムには「Directional S
electivity単純細胞」や「Directional Selectivity複雑
細胞」といわれる細胞があり、移動する輪郭線の移動方
向と速度を検出しており、その機能は本方式と非常に似
ている。特に、ハイパーコラムの第5及び第6層には上
丘や外側膝状体に信号をフィードバックする複雑細胞が
存在し、該複雑細胞は輪郭線の移動方向と移動速度のデ
ータを計測して対象物を視野の中心に捕捉するように眼
球を制御するのに重要な役割を果たしている。工学的に
も、移動ロボットなどでは対象物を視野の中心に捕捉し
て、接近や回避するなどの動作を行う必要があり、本方
式は有効である。又、対象物の移動方向と速度を計測す
る研究が近年盛んになっているが、それらの方法は「明
るさの時間変化から移動方向と速度を求める方法」と
「図形特徴の移動に伴う変化から移動方向と速度求める
方法」に大別できる。しかし、前者は微分的な取扱とな
って照明の変化や振動などに弱いとの実用上の大きな課
題があり、又、後者は図形特徴の対応がポイントである
が、現在の”形の処理”に弱い画像処理技術では適用に
限界がある。これらのオプチカルフローの課題に対し
て、本方式は前者に対して「極変換によって図形を構成
する点群を直線に変えて積算する、積分的な操作であ
り、ノイズに強い」という特徴を有している。又、後者
に対しては「最も簡単な図形、つまり輪郭接線に分解
し、かつその接線を極変換で一次元で対応処理できるた
め、複雑な図形に対しても確実な計測ができる」という
特徴を有している。すなわち、本方式は、「積分型で一
次元処理が可能な、新しいオプチカルフロー方式」とい
える。
In the cerebral hypercolumn, “Directional S
There are cells called "elasticity simple cells" and "Directional Selectivity complex cells", which detect the direction and speed of the moving contour line, and their functions are very similar to this method. In particular, on the fifth and sixth layers of the hypercolumn, there are complex cells that feed back signals to the superior hill or outer geniculate body. It plays an important role in controlling the eyeball to capture objects in the center of the visual field. From an engineering point of view, it is necessary for a mobile robot or the like to capture an object at the center of the visual field and perform operations such as approaching and avoiding the object, and this method is effective. In recent years, research on measuring the moving direction and speed of an object has been actively conducted, but these methods include "a method for calculating the moving direction and speed from a temporal change in brightness" and "a change due to movement of a graphic feature." Method of obtaining moving direction and speed from the above). However, the former has a practical problem that it is a differential treatment and is susceptible to changes in illumination and vibration, and the latter is important for the correspondence of graphic features. There is a limit to the application of the image processing technology which is weak in the application. To address these optical flow issues, the present method has the characteristic that the former is "an integral operation that converts the point cloud that composes a figure into a straight line by polar transformation and integrates it, and is resistant to noise." doing. The latter is characterized by the fact that the simplest figure, that is, it can be broken down into contour tangents and the tangents can be processed one-dimensionally by polar transformation, so that even complex figures can be reliably measured. have. In other words, this method can be said to be a "new optical flow method capable of one-dimensional processing of an integral type."

【0111】(b-5) 線・隙間の移動方向と速度の計測 以下でシミュレーション結果を含めて、線・隙間の移動
方向と速度の計測方式を説明する。移動方向と速度の具
体的な計測方法は、(b-1)を例にしたが、(b-2)〜(b-4)
でも同様に実行できる。 一次元フィルタでの移動方向と速度の計測 図39のフローにおける「受容野分割+極変換+一次元
フィルタ処理」を、図33(a)又は図35(a)に示す「受
容野分割+極変換+一次元ガウシャンフィルタ(+符号
反転)処理」とすることにより、線・隙間の移動方向と
速度の計測が可能となる。そのシミュレーション結果を
図47に示す。垂直線(θ≒900)を水平方向に7画
素移動した前後の2つの画像を入力して得られる相関パ
ラメータC(ρ,θ,σ)の強度を等高線で示す。基本
相関パラメータC(ρ,θ,σ)の鋭いピークが垂直線
の対応点を示し、その点を(ρP,θP,τP)とする
と、 移動方向=θP+900=1820 (移動速度/DELTA)=τP=6画像 と正しい結果が得られた。
(B-5) Measurement of moving direction and speed of line / gap Moving of line / gap including simulation results below
The direction and speed measurement method will be described. Tools for moving direction and speed
The physical measurement method was (b-1) as an example, but (b-2) to (b-4)
But you can do the same. Measurement of moving direction and velocity with one-dimensional filter "Receptive field division + polar transformation + one-dimensional" in the flow of Fig. 39
The “filter process” is performed as shown in FIG. 33 (a) or FIG. 35 (a).
Binno division + polar transformation + one-dimensional Gaussian filter (+ sign
Inversion) process ”, the movement direction of the line / gap
The speed can be measured. The simulation results
As shown in FIG. Vertical line (θ ≒ 900) 7 strokes horizontally
The correlation pattern obtained by inputting the two images before and after the elementary movement
The intensity of the parameter C (ρ, θ, σ) is indicated by a contour line. Basic
The sharp peak of the correlation parameter C (ρ, θ, σ) is the vertical line
And the corresponding point is denoted by (ρP, ΘP, ΤP)
And the moving direction = θP+900= 1820  (Moving speed / DELTA) = τP= 6 images and the correct result was obtained.

【0112】 二次元フィルタでの移動方向と速度の計測(生体的) 図39のフローにおける「受容野分割+極変換+一次元
フィルタ処理」を、図33(b)又は図35(b)に示す「二
次元ガウシャンフィルタ+受容野分割+極変換(+符号
反転)処理」とすることにより、線・隙間の移動方向と
速度の計測が可能となる。この方式は、入力画像に二次
元gasフィルタで二次元二次微分処理(二次元コンボリ
ューションフィルタ処理)を施し、しかる後、受容野毎
に分割し、各受容野像に極変換を施すものである。二次
元gasフィルタ処理は「極変換後の一次元フィルタ処理」
と等価であり、シミュレーション結果は省略するが、図
47と同じ移動方向と速度の計測結果が得られる。この
方式は、人間の立体視と同じであり、二次元gasフィル
タで輪郭強調した結果を形の認識等にも共通的に活用で
きる利点が有る。
Measurement of Movement Direction and Velocity with Two-Dimensional Filter (Biological) “Receptive field division + polar transformation + one-dimensional filter processing” in the flow of FIG. 39 is shown in FIG. 33 (b) or FIG. By performing the “two-dimensional Gaussian filter + receptive field division + polar transformation (+ sign inversion) processing” shown in FIG. In this method, an input image is subjected to a two-dimensional second-order differentiation process (two-dimensional convolution filter process) using a two-dimensional gas filter, and then divided into each receptive field, and each receptive field image is subjected to polar transformation. is there. Two-dimensional gas filter processing is "one-dimensional filter processing after polar transformation"
Although the simulation results are omitted, the same measurement results of the moving direction and the speed as in FIG. 47 are obtained. This method is the same as human stereoscopic vision, and has the advantage that the result of contour enhancement by a two-dimensional gas filter can be commonly used for shape recognition and the like.

【0113】(b-6) 縁の移動方向と速度の計測 以下でシミュレーション結果を含めて、画像に最も頻繁
に現われる画像特徴である縁の移動方向と速度の計測方
式を説明する。移動方向と速度の具体的な計測方法は、
(b-1)を例にしたが、(b-2)〜(b-4)でも同様に実行でき
る。 一次元フィルタでの縁の移動方向と速度の計測 図39のフローにおける「受容野分割+極変換+一次元
フィルタ処理」を、図34(b)に示す「受容野分割+極
変換+一次元グラディエントフィルタ+一次元ガウシャ
ンフィルタ処理」とすることにより、縁の移動方向と速
度の計測が可能となる。そのシミュレーション結果を図
48に示す。1200の縁を水平方向に7画素移動した
前後の2つの画像を入力して得られる相関パラメータC
(ρ,θ,σ)の強度を等高線で示す。基本相関パラメ
ータC(ρ,θ,σ)の鋭いピークが縁の対応点を示
し、その点を(ρP,θP,τP)とすると、 移動方向=θP+900=2100 (移動速度・DELTA)/Δρ=τP=7画像 と正しい結果が得られた。ここで、Δρはρ方向の分解
能、DELTAは遅れ時間である。
(B-6) Measurement of Edge Moving Direction and Velocity The following is the most frequently used image including simulation results.
Of moving direction and speed of edge, which is an image feature appearing on the screen
The formula will be described. The specific method of measuring the moving direction and speed is
(b-1) is used as an example, but (b-2) to (b-4) can be executed in the same way.
You. Measurement of edge moving direction and velocity by one-dimensional filter "Receptive field division + polar transformation + one-dimensional"
The filter processing is performed as shown in FIG. 34 (b).
Transform + one-dimensional gradient filter + one-dimensional Gaussian
Filter processing ”, the edge moving direction and speed
Degree measurement is possible. Figure of the simulation result
48. 1200Edge moved 7 pixels horizontally
Correlation parameter C obtained by inputting two images before and after
The intensity of (ρ, θ, σ) is shown by contour lines. Basic correlation parameters
The sharp peak of data C (ρ, θ, σ) indicates the corresponding point of the edge.
And the point is (ρP, ΘP, ΤP), The moving direction = θP+900= 2100  (Moving speed · DELTA) / Δρ = τP= 7 images and the correct result was obtained. Where Δρ is the decomposition in the ρ direction
Noh, DELTA is the delay time.

【0114】二次元フィルタを混在した縁の移動方向
と速度の計測(生体的両眼立体視) 図39のフローにおける「受容野分割+極変換+一次元
フィルタ処理」を、図34(c)に示す「二次元ガウシャ
ンフィルタ+受容野分割+極変換+一次元グラディエン
トフィルタ処理」とすることにより、縁の移動方向と速
度の計測が可能となる。この方式は、入力画像に二次元
gasフィルタで二次元二次微分処理(二次元コンボリュ
ーションフィルタ処理)を施し、しかる後、受容野毎に
分割し、各受容野像に極変換を施すものである。二次元
gasフィルタ処理は「極変換後の一次元フィルタ処理」と
等価であり、シミュレーション結果は省略するが、図4
1と同じ移動方向と速度の計測結果が得られる。この方
式は、人間の立体視と同じであり、二次元gasフィルタ
で輪郭強調した結果を、形の認識等にも共通的に活用で
きる利点が有る。
Measurement of moving direction and velocity of edge with two-dimensional filter mixed (biological binocular stereopsis) "Receptive field division + polar transformation + one-dimensional filter processing" in the flow of Fig. 39 is shown in Fig. 34 (c). By using “two-dimensional Gaussian filter + receptive field division + polar transformation + one-dimensional gradient filter processing” shown in (1), it is possible to measure the moving direction and speed of the edge. This method uses two-dimensional
The gas filter performs two-dimensional second-order differentiation processing (two-dimensional convolution filter processing), and thereafter, divides each receptive field, and performs polar transformation on each receptive field image. Two dimensions
The gas filter processing is equivalent to “one-dimensional filter processing after polar transformation”, and the simulation results are omitted.
The same movement direction and speed measurement results as in 1 are obtained. This method is the same as human stereoscopic vision, and has the advantage that the result of contour enhancement using a two-dimensional gas filter can be commonly used for shape recognition and the like.

【0115】(c) 多角形図形・曲線図形・ランダムドット
・テクスチュアの両眼立体視 多角形図形・曲線図形の両眼立体視 移動方向・速度の計測(b)と同様に、ρ方向に投影した
相関パラメータCPRJ-ρ(θ,σ) CPRJ-ρ(θ,σ)=ΣC(ρ,θ,σ) (ρ=1,
2,・・・) を用いることにより、多角形図形・曲線図形の立体視計
測が可能となる。方法は(b)項の時間相関CPRJ-ρ
(θ,τ)を両眼相関CPRJ-ρ(θ,σ)に置き換える
だけで良い。この方法では、1本の直線からの両眼立体
視に比べて、辺の数だけ信頼性が向上する。
(C) Binocular stereoscopic view of polygonal figure, curved figure, random dot, and texture The calculated correlation parameter C PRJ- ρ (θ, σ) C PRJ- ρ (θ, σ) = ΣC (ρ, θ, σ) (ρ = 1,
By using (2,...), Stereoscopic measurement of polygonal figures and curved figures becomes possible. The method is based on the time correlation C PRJ- ρ in (b).
It is only necessary to replace (θ, τ) with the binocular correlation C PRJ- ρ (θ, σ). In this method, the reliability is improved by the number of sides as compared with binocular stereoscopic vision from one straight line.

【0116】さて、直線は左右眼の入力画像において図
49のSLL,SLRで示すように平行にずれて見える。
この直線位置の差はρ−θのハイパーコラムプレーン上
では直線の方位θに直交する方向の変位σとして得られ
る。従って、水平方向の両眼視差dは次式 d=σ/sinθ で表現できる。以上から、水平視差(両眼視差)がdの
時、θ方向の直線の変位量σは次式 σ=d・sinθ (36) で与えられる。この関係式をθ-σ平面上に描画すると
図50(b)に示すように正弦波となる。換言すれば、左
右眼で捉えた図50(a)に示す図形の各辺Li,Lj,Lkを
極変換し、極変換により得られた各ハイパーコラム像間
に(1)式に基づいて相関処理を施して相関パラメータC
(ρ,θ,σ)を演算し、該相関パラメータC(ρ,
θ,σ)を(9)式に従ってρ方向に投影して相関パラメ
ータCPRJ-ρ(θ,σ)を求め、θ-ρ平面に表示する
と各辺Li,Lj,Lkは正弦波上の各点Li′,Lj′,Lk′
に濃縮される。
[0116] Now, a straight line SL L in FIG. 49 in the input image of the right and left eyes appear shifted as parallel indicated by SL R.
The difference between the straight line positions is obtained as a displacement σ in a direction orthogonal to the azimuth θ of the straight line on the hypercolumn plane of ρ−θ. Therefore, the binocular parallax d in the horizontal direction can be expressed by the following equation: d = σ / sin θ. From the above, when the horizontal parallax (binocular parallax) is d, the displacement σ of the straight line in the θ direction is given by the following equation: σ = d · sin θ (36) When this relational expression is drawn on the θ-σ plane, it becomes a sine wave as shown in FIG. In other words, each side Li, Lj, Lk of the figure shown in FIG. 50 (a) captured by the left and right eyes is pole-transformed, and the correlation between the hypercolumn images obtained by the pole transformation is calculated based on the equation (1). Perform processing to obtain correlation parameter C
(Ρ, θ, σ), and calculates the correlation parameter C (ρ,
θ, σ) is projected in the ρ direction according to equation (9) to obtain a correlation parameter C PRJ- ρ (θ, σ), and when displayed on the θ-ρ plane, each side Li, Lj, Lk becomes Points Li ', Lj', Lk '
Is concentrated.

【0117】従って、(b-3)の場合と同様に両眼入力画
像からCPRJ-ρ(θ,σ)を計算し、それを(34)式で
極変換すると、図50(c)に示すように正弦波上の各点
はVx,Vy平面上で1点PKを通る直線に変換される。
このピーク点PK(Vx,Vy)を求めると真の視差σ0
は次式 σ0=Δρ・√(Vx2+Vy2) (37) で計算できる。尚、視差の方向は、常に両眼を結ぶ方向
(水平方向)である。又、任意図形の見える方向をξ、両
眼の間隔をdとすると、任意図形までの距離Dは次式 D=d・sin(σ0+ξ)/sin(σ0) (38) で計算できる。
Therefore, as in the case of (b-3), C PRJ- ρ (θ, σ) is calculated from the binocular input image, and it is pole-transformed by the equation (34). As shown, each point on the sine wave is converted into a straight line passing through one point PK on the Vx and Vy planes.
When this peak point PK (Vx, Vy) is obtained, a true parallax σ 0 is obtained.
Can be calculated by the following equation: σ 0 = Δρ · √ (Vx 2 + Vy 2 ) (37) The direction of parallax is always the direction connecting both eyes.
(Horizontal direction). Further, assuming that the direction in which the arbitrary figure can be seen is ξ and the distance between the eyes is d, the distance D to the arbitrary figure is calculated by the following equation: D = d · sin (σ 0 + ξ) / sin (σ 0 ) (38) it can.

【0118】図51は両眼立体視による任意図形までの
距離演算法説明図であり、Lは直線、EL,ERは左右眼
である。上記により求めた視差をσ0、任意図形の見え
る方向をξ、両眼の間隔をd、左右眼から任意図形まで
の距離をD1,D2とすると、次式 D1sinξ=D2sin(ξ+σ0) D1cosξ−D2cos(ξ+σ0)=d が成立する。この連立方程式よりD1を求めると(38)式
が得られる。
FIG. 51 is a diagram for explaining a method of calculating the distance to an arbitrary figure by binocular stereoscopic vision, where L is a straight line, and E L and E R are the left and right eyes. Assuming that the parallax obtained as described above is σ 0 , the direction in which the arbitrary figure can be seen is ξ, the distance between the eyes is d, and the distance from the left and right eyes to the arbitrary figure is D 1 and D 2 , the following equation is given: D 1 sinξ = D 2 sin (ξ + σ 0 ) D 1 cosξ−D 2 cos (ξ + σ 0 ) = d. When obtaining the D 1 from the simultaneous equations (38) is obtained.

【0119】図52は両眼立体視により視差及び任意図
形までの距離を計測するフロー図である。左右眼画像デ
ータをそれぞれ受容野像に分割し(ステップ50a,5
0a′)、各受容野像IM,IM′に極変換処理を施し
(ステップ51a,51a′)、該極変換結果に一次元
フィルタリング処理を施して双対プレーンに写像し(ス
テップ52a,52a′)、各双対プレーンに写像され
たデータ間に(1)式の相関処理を施し(ステップ5
3)、計算された相関パラメータC(ρ,θ,σ)を相
関パラメータ記憶部に記憶する(ステップ72)。つい
で、(9)式により、ρ方向に投影した相関パラメータC
PRJ-ρ(θ,σ)を求め(ステップ75′)、θ−σ平
面の相関パラメータ記憶部に記憶する(ステップ7
6′)。ついで、相関パラメータCPRJ-ρ(θ,σ)に
(34)式により極変換処理を施し(ステップ77′)、V
x,Vy平面上におけるピーク点(交点)を求め(ステッ
プ78′)、座標原点からこの交点までの距離を求めて
(37),(38)式に基づいて両眼視差σ0、任意図形までの距
離Dを演算する(ステップ79′)。
FIG. 52 is a flowchart for measuring the parallax and the distance to an arbitrary figure by binocular stereovision. The left and right eye image data are each divided into receptive field images (steps 50a and 50a).
0a '), polar conversion processing is performed on each receptive field image IM, IM' (steps 51a, 51a '), the result of the polar conversion is subjected to one-dimensional filtering processing, and mapped to a dual plane (steps 52a, 52a'). The correlation processing of the equation (1) is performed between the data mapped on each dual plane (step 5).
3) The calculated correlation parameter C (ρ, θ, σ) is stored in the correlation parameter storage unit (step 72). Then, according to equation (9), the correlation parameter C projected in the
PRJ- ρ (θ, σ) is obtained (step 75 ′) and stored in the correlation parameter storage unit on the θ-σ plane (step 7).
6 '). Then, the correlation parameter C PRJ- ρ (θ, σ)
The pole conversion processing is performed according to the equation (34) (step 77 ').
A peak point (intersection) on the x, Vy plane is determined (step 78 '), and a distance from the coordinate origin to the intersection is determined.
A binocular disparity σ 0 and a distance D to an arbitrary figure are calculated based on the equations (37) and (38) (step 79 ′).

【0120】図53、図54はランダムドット図形の両
眼立体視によるシミュレーション結果説明図であり、左
右の眼に6画素異なるランダムドット図形を入力した場
合である。尚、このランダムドット図形はコンピュータ
で生成したランダムドット・ステレオグラムであり、1
ドット=1画素で描いてあり、密度は50%である。図
53において、IM,IM′はそれぞれ、左右眼の受容
野像、HCIM,HCIM′は各受容野像IM,IM′
に極変換処理を施し、該極変換結果に一次元フィルタリ
ング処理を施してρ−θの双対プレーンに写像したハイ
パーコラム像である。又、図54において、PRIMは
ハイパーコラム像間に相関処理を施し、得られた相関パ
ラメータC(ρ,θ,σ)をρ方向に投影したθ−σ平
面における相関パラメータCPRJ-ρ(θ,σ)、HGI
Mは相関パラメータCPRJ-ρ(θ,σ)に極変換処理を
施したVx,Vy平面上の極変換結果ある。θ−σ平面上
には、正弦波パターンSWVが現れており、又、Vx,
Vy平面上には原点より水平方向の6画素位置に鋭いピ
ークPKが抽出されている。このピーク点(Vx,Vy)
より(37),(38)式に基づいて両眼視差σ0、任意図形まで
の距離Dが計算できる。
FIGS. 53 and 54 are explanatory diagrams of simulation results of binocular stereopsis of random dot figures, in which random dot figures different in six pixels are input to the left and right eyes. Note that this random dot figure is a random dot stereogram generated by a computer.
The dot is drawn with one pixel, and the density is 50%. In FIG. 53, IM and IM 'are receptive field images of the left and right eyes, respectively, and HCIM and HCIM' are receptive field images IM and IM ', respectively.
Is a hyper-column image obtained by performing a polar conversion process on the resultant data, performing a one-dimensional filtering process on the result of the polar conversion, and mapping the result to a dual plane of ρ-θ. Further, in FIG. 54, PRIM is subjected to a correlation processing between hypercolumn image, resulting correlation parameter C (ρ, θ, σ) correlation parameters in projected theta-sigma plane to [rho direction C PRJ- ρ (θ , Σ), HGI
M is a polar conversion result on the Vx, Vy plane obtained by performing a polar conversion process on the correlation parameter C PRJ- ρ (θ, σ). A sine wave pattern SWV appears on the θ-σ plane, and Vx,
On the Vy plane, sharp peaks PK are extracted at six pixel positions in the horizontal direction from the origin. This peak point (Vx, Vy)
Thus, the binocular disparity σ 0 and the distance D to an arbitrary figure can be calculated based on the equations (37) and (38).

【0121】 ランダムドット・テクスチュアの両眼立体視 上述の置換(すなわちと同じ方法)で「ランダムドッ
ト図形やテクスチュア図形」の両眼立体視が可能とな
る。これにより細かい模様のある平面の両眼立体視を簡
単に行うことができる。これは、心理学者Julesz
により始めて証明された事実「形として判らないランダ
ムドット図形でも、我々は両眼立体視できる」の細胞レ
ベルでのモデルである。
Binocular Stereoscopic View of Random Dot Texture The above-described replacement (that is, the same method as above) enables binocular stereoscopic view of a “random dot graphic or texture graphic”. This makes it possible to easily perform binocular stereoscopic viewing of a plane having a fine pattern. This is the psychologist Julesz
Is a cell-level model of the fact that "we can binocularly view even a random dot figure whose shape is unknown".

【0122】(d) 運動立体視 直線の運動立体視 移動対象物の速度と移動方向を求める方法は(b)で説明
した。同じ処理で、画像捕捉手段(カメラ等)が移動する
と空間内の直線までの距離(奥行き)を計測できる。すな
わち、(4)′式により相関パラメータC(ρ,θ,τ)
を求め、該相関パラメータのピーク点(ρP,θP
τP)を求めると、現画像(移動後の画像)と前の画像
(移動前の画像)での視差はτP・Δρで計算される。
直線の見える方向をξ、画像捕捉手段の移動速度をV
s、(4)′式の遅れをDELTAとすると、直線までの距離は
(38)式と同様に次式 D=(Vs・DELTA)・sin(τP・Δρ+ξ)/sin(τP・Δρ) (39) で計算できる。
(D) Motion stereoscopic vision Linear motion stereoscopic vision The method for determining the speed and moving direction of a moving object has been described in (b). With the same processing, when the image capturing means (camera or the like) moves, the distance (depth) to a straight line in the space can be measured. That is, the correlation parameter C (ρ, θ, τ) is obtained by the equation (4) ′.
, And the peak points (ρ P , θ P ,
τ P ), the disparity between the current image (the image after the movement) and the previous image (the image before the movement) is calculated by τ P · Δρ.
The direction in which the straight line can be seen is ξ, and the moving speed of the image capturing means is V
If the delay of s and (4) ′ is DELTA, the distance to the straight line is
(38) below and it can be calculated by similarly following equation D = (Vs · DELTA) · sin (τ P · Δρ + ξ) / sin (τ P · Δρ) (39).

【0123】図55は運動立体視により空間内の直線ま
での奥行きを計測するフロー図である。移動前の画像デ
ータを遅延し(ステップ49)、該移動前の画像データ
t(ρ,θ)と移動後の画像データat+DELTA(ρ+
τ,θ)をそれぞれ受容野像に分割し(ステップ50
a,50a′)、各受容野像IM,IM′に極変換処理
を施し(ステップ51a,51a′)、該極変換結果に
一次元フィルタリング処理を施して双対プレーンに写像
し(ステップ52a,52a′)、各双対プレーンに写
像されたデータ間に(4)′式の相関処理を施し(ステッ
プ53)、計算された相関パラメータC(ρ,θ,τ)
を相関パラメータ記憶部に記憶する(ステップ72)。
ついで、相関パラメータC(ρ,θ,τ)のピーク点
(ρP,θP,τP)を求め(ステップ73)、視差τP
Δρを用いて(39)式により空間内の直線までの奥行きを
計算する(ステップ91)。
FIG. 55 is a flowchart for measuring the depth to a straight line in the space by the motion stereoscopic vision. The image data before the movement is delayed (step 49), and the image data before the movement a t (ρ, θ) and the image data after the movement a t + DELTA (ρ +
τ, θ) are divided into receptive field images (step 50).
a, 50a '), perform a polar conversion process on each receptive field image IM, IM' (steps 51a, 51a '), apply a one-dimensional filtering process to the result of the polar conversion, and map the result to a dual plane (steps 52a, 52a). '), The correlation processing of the equation (4)' is performed between the data mapped on each dual plane (step 53), and the calculated correlation parameters C (ρ, θ, τ)
Is stored in the correlation parameter storage unit (step 72).
Next, the peak point (ρ P , θ P , τ P ) of the correlation parameter C (ρ, θ, τ) is determined (step 73), and the parallax τ P
The depth to a straight line in the space is calculated by Expression (39) using Δρ (step 91).

【0124】 任意図形の運動立体視 画像捕捉手段(カメラ等)が移動すると空間内の任意図形
までの距離(奥行き)を計測できる。すなわち、画像捕捉
手段が移動する前後の各画像に対して(b-3)で説明した
と同様の処理を施して、Vx,Vy平面におけるピーク点
を決定し、(35a),(35b)式により真の速度V0と移動方向
を計算する。図形の見える方向をξ、画像捕捉手段の移
動速度をVs、(4)′式の遅れをDELTAとすると、任意図
形までの距離は(38)式と同様に次式 D=(Vs・DELTA)・sin(V0・DELTA+ξ)/sin(V0・DELTA) (40) で計算できる。
Motion Stereoscopic View of Arbitrary Figure When the image capturing means (camera or the like) moves, the distance (depth) to the arbitrary figure in space can be measured. That is, the same processing as described in (b-3) is performed on each of the images before and after the image capturing means moves to determine the peak points on the Vx and Vy planes, and the equations (35a) and (35b) are used. To calculate the true speed V 0 and the moving direction. Assuming that the direction in which the figure can be seen is ξ, the moving speed of the image capturing means is Vs, and the delay in equation (4) 'is DELTA, the distance to the arbitrary figure is the following equation as in equation (38): D = (Vs · DELTA)・ Sin (V 0 · DELTA + 0 ) / sin (V 0 · DELTA) (40)

【0125】図56は運動立体視により空間内の任意図
形までの奥行きを計測するフロー図である。移動前の画
像データを遅延し(ステップ49)、該移動前の画像デ
ータat(ρ,θ)と移動後の画像データat+DELTA(ρ
+τ,θ)をそれぞれ受容野像に分割し(ステップ50
a,50a′)、各受容野像IM,IM′に極変換処理
を施し(ステップ51a,51a′)、該極変換結果に
一次元フィルタリング処理を施して双対プレーンに写像
し(ステップ52a,52a′)、各双対プレーンに写
像されたデータ間に(4)′式の相関処理を施し(ステッ
プ53)、計算された相関パラメータC(ρ,θ,τ)
を相関パラメータ記憶部に記憶する(ステップ72)。
ついで、(10)式により、ρ方向に投影した相関パラメー
タCPRJ-ρ(θ,τ)を求め(ステップ75)、θ−τ
平面の相関パラメータ記憶部に記憶する(ステップ7
6)。ついで、相関パラメータCPRJ-ρ(θ,τ)に(3
4)式により極変換処理を施し(ステップ77)、Vx,V
y平面上におけるピーク点(交点)を求め(ステップ7
8)、(35a),(35b)式に基づいて真の速度V0、真の方向
Φ0を演算する(ステップ79)。最後に、(40)式に基
づいて任意図形までの奥行きを計算する。
FIG. 56 is a flowchart for measuring the depth to an arbitrary figure in the space by the stereoscopic movement. The image data before the movement is delayed (step 49), and the image data before the movement a t (ρ, θ) and the image data after the movement a t + DELTA
+ Τ, θ) is divided into receptive field images (step 50).
a, 50a '), perform a polar conversion process on each receptive field image IM, IM' (steps 51a, 51a '), apply a one-dimensional filtering process to the result of the polar conversion, and map the result to a dual plane (steps 52a, 52a). '), The correlation processing of the equation (4)' is performed between the data mapped on each dual plane (step 53), and the calculated correlation parameters C (ρ, θ, τ)
Is stored in the correlation parameter storage unit (step 72).
Next, the correlation parameter C PRJ- ρ (θ, τ) projected in the ρ direction is obtained by equation (10) (step 75), and θ-τ
It is stored in the plane correlation parameter storage unit (step 7).
6). Next, the correlation parameter C PRJ- ρ (θ, τ) is calculated as (3
The pole conversion processing is performed by the equation (4) (step 77), and Vx, V
Find a peak point (intersection) on the y-plane (step 7)
8) The true velocity V 0 and the true direction Φ 0 are calculated based on the equations (35a) and (35b) (step 79). Finally, the depth to the arbitrary figure is calculated based on the equation (40).

【0126】(e) 一般化 以上を一般化すると、本発明の相関処理方式は図57に
示すように一般化できる。すなわち、入力データに極変
換処理を施してρ−θの双対プレーンに写像し(ステッ
プ501)、極変換により得られたデータa(ρ,θ)
に新しいパラメータの追加処理、相関処理、任意
パラメータでの投影又は極変換処理(00または900
向の投影は極変換と同じ)を施し、これにより、平面上
では正弦波状の発火パターンを含むデータa(ξ1
ξ2,・・・)を得、あるいは球面上では大円の発火パ
ターンを含むデータを得(ステップ502)、該データ
に含まれる正弦波状または大円の発火パターンを逆極変
換処理により抽出して有用なデータを出力する(ステッ
プ503)。尚、(1),(4)式では「新しいパラメータσ又
はτを追加」して「相関処理」を行っている。又、(9),(1
0)式では「パラメータρに沿った投影」をしている。更
に、(19)式ではρσ平面における450方向の投影を行
っており、この投影は「(ρ,σ)プレーンを極変換」
して450方向成分を取り出したのと同じである。
(E) Generalization By generalizing the above, the correlation processing method of the present invention can be generalized as shown in FIG. That is, the input data is subjected to a polar conversion process and mapped to a dual plane of ρ-θ (step 501), and data a (ρ, θ) obtained by the polar conversion is obtained.
Is subjected to new parameter addition processing, correlation processing, projection with arbitrary parameters or polar transformation processing (projection in the 0 0 or 90 0 direction is the same as polar transformation), thereby including a sinusoidal firing pattern on a plane. Data a (ξ 1 ,
ξ 2 ,...), or on a spherical surface, data including a firing pattern of a great circle (step 502), and a sine-wave or great-circle firing pattern included in the data is extracted by a reverse pole conversion process. And output useful data (step 503). In the equations (1) and (4), the “correlation processing” is performed by “adding a new parameter σ or τ”. Also, (9), (1
In equation (0), “projection along parameter ρ” is performed. Further, in the equation (19) is carried out 45 0 direction of the projection in ρσ plane, the projection "([rho, sigma) polar transformation plain"
To the same as that removed 45 0 direction component.

【0127】(b-2),(b-3)において説明した移動方向と
速度の計測においては、時間的に異なる2つの画面デー
タに極変換処理を施してρ−θの双対プレーンにおける
データa(ρ,θ)、b(ρ,θ)を求める(ステップ
501)。ついで、ρ軸方向の移動速度パラメータτを
導入して(4)式により相関処理を行い、相関処理により
得られた相関パラメータC(ρ,θ,τ)を(10)式によ
りρ方向に投影して正弦波状の発火パターン(図40、
図41参照)を含む投影データCPRJ-ρ(θ,τ)を求
める(ステップ502)。しかる後、投影データCPRJ-
ρ(θ,τ)に逆極変換処理を施して正弦波状の発火パ
ターン(極大点を与えるポイント)を抽出して有用なデ
ータ(移動方向と速度)を出力する(ステップ50
3)。正弦波状の発火パターンを抽出する「逆極変換」
を式で表現すると次のようになる。すなわち、δ( )を
デルタ関数、τX,τYをX,Y軸方向の速度パラメータ
とすると、 出力(τX,τY)=ΣθΣτ{CPRJ-ρ(θ,τ)・δ
(τ+τXcosθ+τYsinθ)} と表現できる。デルタ関数δ( )は0の所だけが意味を
有するから、上式を変形すると 出力(τX,τY)=Σθ{CPRJ-ρ(θ,-τXcosθ-τ
Ysinθ)} となり、逆極変換の内容が良く判る。実施例ではこの計
算を行っている。
In the measurement of the moving direction and the speed described in (b-2) and (b-3), two screen data different in time are subjected to a polar conversion process to obtain the data a in the dual plane of ρ-θ. (Ρ, θ) and b (ρ, θ) are obtained (step 501). Next, the correlation processing is performed by the equation (4) by introducing the moving speed parameter τ in the ρ-axis direction, and the correlation parameter C (ρ, θ, τ) obtained by the correlation processing is projected in the ρ direction by the equation (10). And a sinusoidal firing pattern (FIG. 40,
The projection data C PRJ- ρ (θ, τ) including the projection data (see FIG. 41) is obtained (step 502). Then, the projection data C PRJ-
ρ (θ, τ) is subjected to reverse pole conversion processing to extract a sinusoidal firing pattern (point giving a maximum point) and output useful data (moving direction and speed) (step 50).
3). `` Reverse pole transformation '' to extract sinusoidal firing patterns
Is expressed as follows. That is, assuming that δ () is a delta function and τ X and τ Y are velocity parameters in the X and Y axis directions, output (τ X , τ Y ) = {θΣτ {C PRJ- ρ (θ, τ) · δ
(Τ + τ X cos θ + τ Y sin θ)}. Since the delta function δ () has meaning only at the point of 0, if the above equation is modified, the output (τ X , τ Y ) = { θΣC PRJ- ρ (θ, X cos θ-τ
Y sinθ)}, and the content of the reverse pole conversion is clearly understood. This calculation is performed in the embodiment.

【0128】又、(c)において説明した両眼立体視の計
測においては、両眼で捕らえられた2つの画面データに
極変換処理を施してρ−θの双対プレーンにおけるデー
タL(ρ,θ)、R(ρ,θ)を求める(ステップ50
1)。ついで、ρ軸方向の視差σを導入して(1)式により
相関処理を行い、相関処理により得られた相関パラメー
タC(ρ,θ,σ)を(9)式によりρ方向に投影して正
弦波状の発火パターン(図50参照)を含む投影データ
PRJ-ρ(θ,σ)を求める(ステップ502)。しか
る後、投影データCPRJ-ρ(θ,σ)に逆極変換処理を
施して正弦波状の発火パターン(極大点を与えるポイン
ト)を抽出して有用なデータ(視差)を出力する(ステ
ップ503)。正弦波状の発火パターンを抽出する「逆
極変換」を式で表現すると次のようになる。すなわち、
δ( )をデルタ関数、σX,σYをX,Y軸方向の視差パ
ラメータとすると、 出力(σX,σY)=ΣθΣσ{CPRJ-ρ(θ,σ)・δ
(σ+σXcosθ+σYsinθ)} と表現できる。デルタ関数δ( )は0の所だけが意味を
有するから、上式を変形すると 出力(σX,σY)=Σθ{CPRJ-ρ(θ,-σXcosθ-σ
Ysinθ)} となる。実施例ではこの計算を行っている。
In the measurement of binocular stereopsis described in (c), two screen data captured by both eyes are subjected to a polar conversion process, and data L (ρ, θ) in a ρ-θ dual plane is obtained. ) And R (ρ, θ) (step 50)
1). Next, the parallax σ in the ρ-axis direction is introduced, the correlation processing is performed by the equation (1), and the correlation parameter C (ρ, θ, σ) obtained by the correlation processing is projected in the ρ direction by the equation (9). Projection data C PRJ- ρ (θ, σ) including a sinusoidal firing pattern (see FIG. 50) is obtained (step 502). Thereafter, the projection data C PRJ- ρ (θ, σ) is subjected to reverse pole conversion processing to extract a sine wave-like firing pattern (a point giving a maximum point) and output useful data (parallax) (step 503). ). The expression "reverse pole transformation" for extracting a sinusoidal firing pattern is expressed as follows. That is,
Assuming that δ () is a delta function and σ X and σ Y are parallax parameters in the X and Y axis directions, output (σ X , σ Y ) = {θΣσ {C PRJ- ρ (θ, σ) · δ
(Σ + σ X cos θ + σ Y sin θ)}. Since the delta function δ () has meaning only at the point of 0, if the above equation is transformed, the output (σ X , σ Y ) = { θΣC PRJ- ρ (θ, X cos θ-σ
Y sin θ)}. This calculation is performed in the embodiment.

【0129】以上では図57のステップ502におい
て、相関処理等を行って正弦波状の発火パターンを得る
ものであるが、相関処理等を施さなくても極変換のみで
正弦波状の発火パターンを得ることができる場合があ
る。かかる場合には、ステップ502において、ステッ
プ501の極変換により得られた(ρ,θ)データにシ
フトあるいは回転などの変換処理を施し、変換処理によ
り得られた(ρ,θ)データにステップ503の逆極変
換処理を施して正弦波状の発火パターン(極大点を与え
るポイント)を抽出すれば有用なデータを出力できる。
例えば、図58(a)に示す半径Rの円を極変換すると、
(b)に示すようにρ方向にRだけシフトした正弦波が得
られる。この正弦波は、円の中心を(x0,y0)とする
と ρ=R−β0cos(θ−α0) (41) β0=√(x0 2+y0 2) α0=arctan(x0/y0) となる。従って、極変換により得られたデータをρ方向
にRだけシフトし、シフト処理により得られたデータa
(θ,σ)に逆極変換処理を施して正弦波状の発火パタ
ーン(極大点を与えるポイント)を抽出すれば、円中心
を出力することができる(ステップ503)。
In the above description, in step 502 of FIG. 57, a sinusoidal firing pattern is obtained by performing correlation processing or the like. However, a sinusoidal firing pattern can be obtained only by polar conversion without performing correlation processing or the like. May be possible. In such a case, in step 502, the (ρ, θ) data obtained by the polar conversion in step 501 is subjected to conversion processing such as shift or rotation, and the (ρ, θ) data obtained by the conversion processing is subjected to step 503. By extracting the sinusoidal firing pattern (the point giving the maximum point) by performing the inverse pole conversion processing of, useful data can be output.
For example, when the circle of the radius R shown in FIG.
As shown in (b), a sine wave shifted by R in the ρ direction is obtained. Assuming that the center of the circle is (x 0 , y 0 ), this sine wave is given by: ρ = R−β 0 cos (θ−α 0 ) (41) β 0 = √ (x 0 2 + y 0 2 ) α 0 = arctan (x 0 / y 0 ). Therefore, the data obtained by the polar conversion is shifted by R in the ρ direction, and the data a obtained by the shift process
If the sinusoidal firing pattern (the point giving the maximum point) is extracted by performing the inverse pole conversion process on (θ, σ), the center of the circle can be output (step 503).

【0130】図59は円検出のシュミレーション結果説
明図であり、白紙に描いた黒い円にラプラシアンフィル
タ処理を施して入力画像データとし、該入力画像を受容
野像に分割し、受容野像に極変換処理を施して正弦波状
の発火パターンを有するρ−θプレーンにおける(ρ,
θ)データを得、ついで、(ρ,θ)データをρ方向に
Rだけシフトし、シフト処理により得られたデータを逆
極変換したものである。尚、発火の強さを等高線で表
し、正部分を網かけで区別している。図59(b)におい
て極変換により平行する2本の正弦波SN1,SN2が
得られるのは、ハイパーコラムの生理学的な知見「方位
θは0〜πの範囲」を考慮して、(41)式のπ〜2πの範
囲をρの負側に反転しているためである。図59(d)よ
り明らかなように、一方の正弦波は円の中心に対応して
鋭い"負のピークPK"として発火し、もう一方の正弦波
は半径が2Rの弱いリングRGとして発火している。以
上、本発明を実施例により説明したが、本発明は請求の
範囲に記載した本発明の主旨に従い種々の変形が可能で
あり、本発明はこれらを排除するものではない。
FIG. 59 is an explanatory diagram of a simulation result of circle detection. Laplacian filter processing is applied to a black circle drawn on a white sheet to obtain input image data. (Ρ, θ) in a ρ-θ plane having a sinusoidal firing pattern
θ) data, the (ρ, θ) data is shifted by R in the ρ direction, and the data obtained by the shift processing is subjected to the inverse polar transformation. In addition, the intensity of ignition is represented by a contour line, and the positive part is distinguished by shading. In FIG. 59 (b), two parallel sine waves SN1 and SN2 are obtained by the polar transformation in consideration of the physiological knowledge of the hypercolumn “the direction θ is in the range of 0 to π” (41). This is because the range of π to 2π in the equation is inverted to the negative side of ρ. As is apparent from FIG. 59 (d), one sine wave fires as a sharp "negative peak PK" corresponding to the center of the circle, and the other sine wave fires as a weak ring RG having a radius of 2R. ing. As described above, the present invention has been described with reference to the embodiments. However, the present invention can be variously modified in accordance with the gist of the present invention described in the claims, and the present invention does not exclude these.

【0131】[0131]

【発明の効果】以上本発明によれば、入力データに対し
て極変換処理を施して双対プレーンに写像し、あるい
は、極変換処理結果に対して更にフィルタ処理を施して
それぞれ双対プレーンに写像し、しかる後、双対プレー
ン上における写像データ間に相関処理を施して入力デー
タの図形的特徴(例えば接線)間の関係を規定する変数
を計測するように構成したから、複数図形の対応部分の
決定を簡単に、しかも少ない処理量で正確に行うことが
でき、両眼立体視の機能(視差、奥行き計測、対象物の
移動速度、移動方向の計測等)を実現できる。又、本発
明によれば、1画面を小領域である受容野に分割した時
の受容野画像に対して極変換処理、フィルタ処理、相関
処理を行うように構成したから、処理量を著しく減少で
きる。
As described above, according to the present invention, the input data is subjected to polar conversion processing and mapped on a dual plane, or the result of the polar conversion processing is further filtered and mapped on dual planes. Thereafter, a configuration is adopted in which a correlation process is performed between the mapping data on the dual plane to measure a variable defining the relationship between the graphic features (for example, tangents) of the input data. Can be easily and accurately performed with a small amount of processing, and binocular stereoscopic functions (parallax, depth measurement, measurement of moving speed of object, measurement of moving direction, etc.) can be realized. Further, according to the present invention, since the polar conversion process, the filter process, and the correlation process are performed on the receptive field image when one screen is divided into the receptive fields, which are small regions, the processing amount is significantly reduced. it can.

【0132】更に、本発明によれば、受容野像が2又は
3つのカメラにより捕捉した異なる画面に属する場合に
は、両眼立体視、三眼立体視の機能を実現でき、しかも
受容野像が時間的に異なる画面に属する場合には、受容
野内に写る特徴(線、コーナ等)の移動方向や移動速度
を計測できる。このため、対象物を視野の中心に捉えた
まま移動することが可能となり、移動ロボットや無人自
走車などへの応用が可能と成る。また、各受容野像がそ
れぞれカメラ等の画像捕捉手段を移動させた時の移動前
後の画面に属する場合には、運動立体視の機能を実現で
き対象物までの奥行きを計測できる。又、本発明によれ
ば、各受容野像を同じ画面の異なる受容野の画像とし、
あるいは同一受容野像とすることにより、1つの画面内
での同じ模様の程度を調べるテクスチュア解析などを行
うことができる。
Further, according to the present invention, when the receptive field image belongs to different screens captured by two or three cameras, the functions of binocular stereoscopic vision and trinocular stereoscopic vision can be realized. If the images belong to different screens in time, the moving direction and the moving speed of the feature (line, corner, etc.) appearing in the receptive field can be measured. For this reason, it is possible to move while capturing the target object at the center of the field of view, and it is possible to apply to a mobile robot, an unmanned self-propelled vehicle, and the like. Further, when each receptive field image belongs to the screen before and after the movement of the image capturing means such as a camera, the function of the stereoscopic movement can be realized and the depth to the target object can be measured. According to the present invention, each receptive field image is an image of a different receptive field on the same screen,
Alternatively, by using the same receptive field image, a texture analysis or the like for examining the degree of the same pattern in one screen can be performed.

【0133】更に、本発明によれば、複数の受容野像間
での相関処理を同一色毎に、あるいは色の差信号毎に、
あるいは色の三要素毎に行うようにしたから、両眼立体
視や移動物体注視やテクスチュア解析を更に確実に行う
ことができる。又、本発明によれば、極変換後に一次元
ガウシャンフィルタ処理を施すことにより、あるいは極
変換処理の前に2次元ガウシャンフィルタ処理を施すこ
とにより、複数図形における対応する線あるいは隙間を
求めることができ、また極変換後に一次元グラディエン
トフィルタ処理と一次元ガウシャンフィルタ処理を施す
ことにより、あるいは極変換処理の前に2次元ガウシャ
ンフィルタ処理を施し、極変換処理後に一次元グラディ
エントフィルタ処理を施すことにより、複数図形におけ
る対応する縁を求めることができ、更にはこれら図形要
素の位置や、方位、視差、移動方向、移動速度を求める
ことができる。
Further, according to the present invention, the correlation processing between a plurality of receptive field images is performed for each same color or for each color difference signal.
Alternatively, since it is performed for each of the three elements of color, binocular stereopsis, moving object gaze, and texture analysis can be performed more reliably. According to the present invention, a corresponding line or gap in a plurality of figures is obtained by performing one-dimensional Gaussian filter processing after polar conversion or performing two-dimensional Gaussian filter processing before polar conversion processing. One-dimensional gradient filter processing and one-dimensional Gaussian filter processing after polar conversion, or two-dimensional Gaussian filter processing before polar conversion processing and one-dimensional gradient filter processing after polar conversion processing , It is possible to obtain corresponding edges in a plurality of figures, and further obtain the position, orientation, parallax, moving direction, and moving speed of these figure elements.

【0134】更に、本発明によれば、複数の受容野像が
空間的に異なる画面に属する場合、θ軸方向の相関パラ
メータCθ(ρ,θ,σ)を演算することにより、ある
いは、(ρ,θ)プレーンの相関パラメータC(ρ,
θ,σ1,σ2)を演算することにより方位を変えながら
移動する接線の抽出が可能となる。又、本発明によれ
ば、複数の画像データの各受容野が時間的に異なる画面
に属する場合、ρ軸方向の相関パラメータC(ρ,θ,
τ)を演算することにより、平行移動する接線の位置、
方位、速度を定量的に求めることができ、また、θ軸方
向の相関パラメータCθ(ρ,θ,τ)を演算すること
により、受容野中心を通る接線の位置、方位、方位回転
速度を定量的に求めることができ、更に、(ρ,θ)プ
レーンの相関パラメータC(ρ,θ,τ1,τ2)を演算
することにより、方向を変えながら移動する接線の位
置、方位、移動速度、回転速度を定量的計測できる。
Furthermore, according to the present invention, when a plurality of receptive field images belong to spatially different screens, the correlation parameter Cθ (ρ, θ, σ) in the θ-axis direction is calculated, or (ρ , Θ) plane correlation parameter C (ρ,
By calculating θ, σ 1 , σ 2 ), it is possible to extract a tangent that moves while changing the direction. According to the present invention, when each receptive field of a plurality of image data belongs to a screen different in time, the correlation parameter C (ρ, θ,
By calculating τ), the position of the tangent line that translates,
The azimuth and speed can be determined quantitatively, and the position, azimuth and azimuth rotation speed of the tangent passing through the center of the receptive field can be quantified by calculating the correlation parameter Cθ (ρ, θ, τ) in the θ-axis direction. By calculating the correlation parameter C (ρ, θ, τ 1 , τ 2 ) of the (ρ, θ) plane, the position, azimuth, and moving speed of the tangent moving while changing the direction can be obtained. In addition, the rotational speed can be quantitatively measured.

【0135】更に、本発明によれば、相関パラメータC
(ρ,θ,σ)を空間的シフト量σを示すσ軸方向に投
影し、あるいは接線位置を示すρ軸方向に投影し、ある
いは接線方向を示すθ軸方向に投影し、あるいはこれら
任意の2軸方向に投影することにより、相関パラメータ
を記憶するメモリ容量を1軸分あるいは2軸分減少で
き、しかも、投影方向を選択することにより接線の位
置、視差、方位等のうち所望の値を得ることができる。
又、本発明によれば、相関パラメータC(ρ,θ,τ)
を時間的シフト量(移動速度)τを示すτ軸方向に投影
し、あるいは接線位置を示すρ軸方向に投影し、あるい
は接線方向を示すθ軸方向に投影し、あるいはこれら任
意の2軸方向に投影することにより、相関パラメータを
記憶するメモリ容量を1軸分あるいは2軸分減少でき、
しかも、投影方向を選択することにより接線の位置、方
位、平行移動速度、回転速度等のうち所望の値を得るこ
とができる。
Further, according to the present invention, the correlation parameter C
(Ρ, θ, σ) is projected in the σ-axis direction indicating the spatial shift amount σ, or projected in the ρ-axis direction indicating the tangential position, or projected in the θ-axis direction indicating the tangential direction, or any of these. By projecting in the two-axis direction, the memory capacity for storing the correlation parameter can be reduced by one or two axes, and by selecting the projection direction, a desired value among the tangent position, parallax, and azimuth can be obtained. Obtainable.
Also, according to the present invention, the correlation parameter C (ρ, θ, τ)
Is projected in the τ-axis direction indicating the temporal shift amount (moving speed) τ, in the ρ-axis direction indicating the tangential position, or in the θ-axis direction indicating the tangential direction, or in any two-axis direction. , The memory capacity for storing the correlation parameter can be reduced by one or two axes,
Moreover, by selecting the projection direction, it is possible to obtain desired values among the position, azimuth, translation speed, rotation speed, and the like of the tangent.

【0136】更に、本発明によれば、受容野像に対して
極変換処理を施してρ−θの双対プレーンに写像し、該
双対プレーンの写像データa(ρ,θ)と、別の双対プ
レーンに設定されている写像データb(ρ,θ)のうち
ρ軸方向に座標値が所定量ずれている組を取り出し、そ
の積和を演算することにより的確なフィルタリングを行
うことができ、「左右の目で同じに見える特徴の抽出」
や「前の画像と同じ特徴の追跡」等を行う際に適用して
好適である。又、本発明によれば、双対プレーンの写像
データa(ρ,θ)に対して、他の写像データb(ρ,
θ)をρ軸方向あるいはθ軸方向にシフトさせた後に減
算すると共に、順次、該シフト量を変化させて減算し、
得られた減算結果を相関パラメータとすることにより、
輪郭が不明瞭な物体の両眼立体視や追尾を、明るさや色
合いのゆるい変化などを手掛かりにして行うことができ
る。
Further, according to the present invention, a polar transformation process is performed on the receptive field image to map it onto a dual plane of ρ-θ, and the mapping data a (ρ, θ) of the dual plane and another dual plane An accurate filtering can be performed by taking out a set of mapping data b (ρ, θ) whose coordinate values are shifted by a predetermined amount in the ρ-axis direction from the mapping data b (ρ, θ) set on the plane, and calculating the sum of the products. Extract features that look the same with the left and right eyes "
It is suitable to be applied when performing “tracking of the same feature as the previous image” or the like. Further, according to the present invention, the mapping data a (ρ, θ) of the dual plane is compared with the other mapping data b (ρ, θ).
θ) is subtracted after being shifted in the ρ-axis direction or the θ-axis direction, and the shift amount is sequentially changed and subtracted.
By using the obtained subtraction result as a correlation parameter,
It is possible to perform binocular stereoscopic vision and tracking of an object whose outline is unclear using clues such as gradual changes in brightness and hue as clues.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理説明図である。FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】本発明の両眼立体視の原理説明図である。FIG. 2 is a diagram illustrating the principle of binocular stereoscopic vision according to the present invention.

【図3】球面写像(球面の極変換)説明図である。FIG. 3 is an explanatory diagram of a spherical mapping (polar conversion of a spherical surface).

【図4】円筒上の極変換説明図である。FIG. 4 is an explanatory diagram of pole conversion on a cylinder.

【図5】受容野法の原理説明図である。FIG. 5 is a diagram illustrating the principle of the receptive field method.

【図6】ハイパーコラム内の極変換説明図である。FIG. 6 is an explanatory diagram of pole conversion in a hyper column.

【図7】本発明の実施例構成図である。FIG. 7 is a configuration diagram of an embodiment of the present invention.

【図8】相関処理の流れ図である。FIG. 8 is a flowchart of a correlation process.

【図9】極変換回路の構成図である。FIG. 9 is a configuration diagram of a pole conversion circuit.

【図10】一次元フィルタの構成図である。FIG. 10 is a configuration diagram of a one-dimensional filter.

【図11】シミュレーション結果を説明する第1の説明
図である。
FIG. 11 is a first explanatory diagram illustrating a simulation result.

【図12】シミュレーション結果を説明する第2の説明
図である。
FIG. 12 is a second explanatory diagram illustrating a simulation result.

【図13】シミュレーション結果を説明する第3の説明
図である。
FIG. 13 is a third explanatory diagram illustrating a simulation result.

【図14】相関フィルタリングの基本フロー図である。FIG. 14 is a basic flowchart of correlation filtering.

【図15】空間的に異なる画面間の相関フィルタリング
のフロー図である。
FIG. 15 is a flowchart of correlation filtering between spatially different screens.

【図16】時間的に異なる画面間の相関フィルタリング
のフロー図である。
FIG. 16 is a flowchart of correlation filtering between temporally different screens.

【図17】時間的及び空間的にに異なる画面間の相関フ
ィルタリングのフロー図である。
FIG. 17 is a flowchart of correlation filtering between screens different in time and space.

【図18】同一画面の受容野間の相関フィルタリングの
フロー図である。
FIG. 18 is a flowchart of correlation filtering between receptive fields on the same screen.

【図19】同一画面、同一受容野内の相関フィルタリン
グのフロー図である。
FIG. 19 is a flowchart of correlation filtering in the same screen and the same receptive field.

【図20】異なる色画像(三原色)間の相関フィルタリ
ングのフロー図である。
FIG. 20 is a flowchart of correlation filtering between different color images (three primary colors).

【図21】異なる色画像(色の三要素)間の相関フィル
タリングのフロー図である。
FIG. 21 is a flowchart of correlation filtering between different color images (three elements of color).

【図22】異なる色画像(色の差信号)間の相関フィル
タリングのフロー図である。
FIG. 22 is a flowchart of correlation filtering between different color images (color difference signals).

【図23】θが同一のρ軸相関フィルタリングのフロー
図である。
FIG. 23 is a flowchart of ρ-axis correlation filtering with the same θ.

【図24】θが異なるρ軸相関フィルタリングのフロー
図である。
FIG. 24 is a flowchart of ρ-axis correlation filtering with different θ.

【図25】θ方向相関の説明図である。FIG. 25 is an explanatory diagram of the θ direction correlation.

【図26】ρが同一のθ軸相関フィルタリングのフロー
図である。
FIG. 26 is a flowchart of θ-axis correlation filtering with the same ρ.

【図27】ρ−θプレーンでの相関フィルタリングのフ
ロー図である。
FIG. 27 is a flowchart of correlation filtering in the ρ-θ plane.

【図28】相関パラメータ空間説明図である。FIG. 28 is an explanatory diagram of a correlation parameter space.

【図29】相関パラメータを投影するフィルタリング処
理の全体のフロー図である。
FIG. 29 is an overall flowchart of a filtering process of projecting a correlation parameter.

【図30】相関パラメータをσ方向に投影する処理の流
れ図である。
FIG. 30 is a flowchart of a process of projecting a correlation parameter in the σ direction.

【図31】自然フィルタの構成図である。FIG. 31 is a configuration diagram of a natural filter.

【図32】差タイプの相関処理の流れ図である。FIG. 32 is a flowchart of a difference type correlation process.

【図33】線抽出フィルタの各種構成図である。FIG. 33 is a diagram illustrating various configurations of a line extraction filter.

【図34】縁抽出フィルタの各種構成図である。FIG. 34 is a diagram illustrating various configurations of an edge extraction filter.

【図35】隙間抽出フィルタの各種構成図である。FIG. 35 is a diagram showing various configurations of a gap extraction filter.

【図36】シミュレーション結果を示す第1の説明図
(縁の両眼立体視)である。
FIG. 36 is a first explanatory diagram (binocular stereoscopic view of an edge) showing a simulation result.

【図37】シミュレーション結果を示す第2の説明図
(縁の両眼立体視)である。
FIG. 37 is a second explanatory diagram (binocular stereoscopic view of an edge) showing a simulation result.

【図38】接線の移動方向と速度説明図である。FIG. 38 is an explanatory diagram of a moving direction and a speed of a tangent line.

【図39】移動方向と移動速度を計測するフロー図であ
る。
FIG. 39 is a flowchart for measuring a moving direction and a moving speed.

【図40】コーナの移動方向と速度検出説明図である。FIG. 40 is an explanatory diagram of corner moving direction and speed detection.

【図41】多角形に対するCPRJ-ρ(θ,τ)の応答説
明図である。
FIG. 41 is an explanatory diagram of a response of C PRJ- ρ (θ, τ) to a polygon.

【図42】逆ハフ変換による正弦波の抽出説明図であ
る。
FIG. 42 is an explanatory diagram of extraction of a sine wave by the inverse Hough transform.

【図43】移動方向と移動速度を計測するフロー図であ
る。
FIG. 43 is a flowchart for measuring a moving direction and a moving speed.

【図44】ランダムドット図形からの極変換説明図であ
る。
FIG. 44 is an explanatory diagram of pole conversion from a random dot figure.

【図45】ランダムドット図形の移動方向・速度計測に
おけるシミュレーション結果説明図である。
FIG. 45 is an explanatory diagram of a simulation result in measuring the moving direction and speed of a random dot graphic.

【図46】ランダムドット図形の移動方向・速度計測に
おけるシミュレーション結果説明図である。
FIG. 46 is an explanatory diagram of a simulation result in measuring the moving direction and speed of a random dot graphic.

【図47】シミュレーション結果説明図(線の移動方向
・速度)である。
FIG. 47 is an explanatory diagram of a simulation result (moving direction and speed of a line).

【図48】シミュレーション結果説明図(縁の移動方向
・速度)である。
FIG. 48 is an explanatory diagram of a simulation result (moving direction and speed of an edge).

【図49】線のずれ量と視差の関係説明図である。FIG. 49 is an explanatory diagram showing a relationship between a line shift amount and parallax.

【図50】任意図形の両眼立体視の説明図である。FIG. 50 is an explanatory diagram of binocular stereoscopic viewing of an arbitrary graphic.

【図51】両眼立体視による距離演算法説明図である。FIG. 51 is an explanatory diagram of a distance calculation method based on binocular stereovision.

【図52】両眼立体視による視差・距離演算フロー図で
ある。
FIG. 52 is a flowchart of parallax / distance calculation by binocular stereopsis.

【図53】ランダムドット図形の両眼立体視によるシミ
ュレーション結果説明図である。
FIG. 53 is an explanatory diagram of a simulation result of binocular stereoscopic viewing of a random dot figure.

【図54】ランダムドット図形の両眼立体視によるシミ
ュレーション結果説明図である。
FIG. 54 is an explanatory diagram of a simulation result of binocular stereoscopic viewing of a random dot figure.

【図55】運動立体視による直線までの奥行き演算フロ
ー図である。
FIG. 55 is a flowchart showing a depth calculation flow up to a straight line in motion stereoscopic vision.

【図56】運動立体視による任意図形までの奥行き演算
フロー図である。
FIG. 56 is a flowchart showing a depth calculation flow up to an arbitrary figure in a motion stereoscopic view.

【図57】一般化した場合のフロー図である。FIG. 57 is a flowchart in the case of generalization.

【図58】円検出の説明図である。FIG. 58 is an explanatory diagram of circle detection.

【図59】円検出のシミュレーション結果説明図であ
る。
FIG. 59 is an explanatory diagram of a simulation result of circle detection.

【図60】両眼立体視の問題点説明図である。FIG. 60 is an explanatory diagram of a problem in binocular stereopsis.

【図61】両眼立体視の奥行き計算説明図である。FIG. 61 is a diagram illustrating depth calculation for binocular stereopsis.

【符号の説明】[Explanation of symbols]

14,24・・極変換部 16,26・・一次元フィルタ 17,27・・ρ−θの双対プレーン(ハイパーコラム
メモリ) 30・・相関処理部
14, 24 polar conversion unit 16, 26 one-dimensional filter 17, 27 dual plane of ρ-θ (hyper column memory) 30, correlation processing unit

フロントページの続き (56)参考文献 特開 平5−165956(JP,A) 特開 平5−165957(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06T 7/00 G06T 7/20 JICSTファイル(JOIS)Continuation of the front page (56) References JP-A-5-165957 (JP, A) JP-A-5-165957 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G06T 7 / 00 G06T 7/20 JICST file (JOIS)

Claims (20)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力データに極変換処理を施してρ−θ
の双対プレーンに写像し、極変換により得られた(ρ,θ)データに相関処理を施
して、あるいは、極変換により得られた(ρ,θ)デー
タにシフト処理を施して、平面上では正弦波状の発火パ
ターンを含むデータを、球面上では大円の発火パターン
を含むデータを得、 該データに含まれる正弦波状または大円の発火パターン
を逆極変換処理により抽出して有用なデータを求めるこ
とを特徴とする相関処理方式。
1. A polar conversion process is performed on input data to obtain ρ−θ
To the dual plane, and perform correlation processing on the (ρ, θ) data obtained by polar transformation.
Or (ρ, θ) data obtained by polar transformation
Shift processing so that the firing pattern is sinusoidal on the plane.
The data including the turn, the firing pattern of the great circle on the spherical surface
And obtaining useful data by extracting a sine-wave or great-circle firing pattern included in the data by an inverse-polar transformation process.
【請求項2】 複数の入力データに対してそれぞれ極変
換処理を施してρ−θの双対プレーンに写像し、あるい
は極変換処理結果に対して更にフィルタ処理を施してそ
れぞれρ−θの双対プレーンに写像し、 各双対プレーンに写像されたデータ間に相関処理を施
し、 相関結果に基づいて各入力データの図形的特徴の間の関
係を求めることを特徴とする相関処理方式。
2. A plurality of input data are respectively subjected to a polar conversion process to be mapped onto a dual plane of ρ−θ, or a result of the polar conversion process is further subjected to a filtering process to perform a dual plane of ρ−θ. A correlation processing method characterized by performing a correlation process between data mapped onto each dual plane, and obtaining a relationship between graphic features of each input data based on the correlation result.
【請求項3】 前記入力データは1画面を小領域である
受容野毎に分割した時の受容野に応じた画像データであ
ることを特徴とする請求項2記載の相関処理方式。
3. The correlation processing method according to claim 2, wherein the input data is image data corresponding to a receptive field when one screen is divided into small receptive fields.
【請求項4】 複数の入力データに対してそれぞれ極変
換処理を施してρ−θの双対プレーンに写像し、あるい
は極変換処理結果に対して更にフィルタ処理を施してそ
れぞれρ−θの双対プレーンに写像し、 写像データの双対プレーン上における位置(ρ,θ)及
び写像データ間のシフト量を要素パラメータとして相関
処理を行って相関結果を求め、 これら相関結果のうち特徴的な値を有する点を求め、 該特徴的な相関結果を与える要素パラメータの値に基づ
いて各入力データの図形的特徴の間の関係を規定する変
数を計測することを特徴とする相関処理方式。
4. A plurality of input data are respectively subjected to a polar conversion process to be mapped onto a dual plane of ρ-θ, or a result of the polar conversion process is further subjected to a filtering process to perform a dual plane of ρ-θ. The correlation result is obtained by performing a correlation process using the position (ρ, θ) of the mapping data on the dual plane and the shift amount between the mapping data as element parameters, and obtaining a point having a characteristic value among the correlation results. And calculating a variable that defines the relationship between the graphical features of each input data based on the value of the element parameter that gives the characteristic correlation result.
【請求項5】 前記入力データは1画面を小領域である
受容野に分割した時の受容野の画像データであり、該受
容野画像データに対してそれぞれ極変換処理を施して双
対プレーンに写像し、 各写像データ間のρ軸方向のシフト量あるいはθ軸方向
のシフト量を順次変えることによりρ軸方向に相関処
理、あるいはθ軸方向に相関処理、あるいは(ρ,θ)
プレーンで相関処理を実行することを特徴とする請求項
4記載の相関処理方式。
5. The input data is image data of a receptive field when one screen is divided into receptive fields, which are small areas, and performs polar conversion processing on the receptive field image data to map them onto a dual plane. Then, by sequentially changing the shift amount in the ρ-axis direction or the shift amount in the θ-axis direction between the respective mapping data, correlation processing in the ρ-axis direction, correlation processing in the θ-axis direction, or (ρ, θ)
The correlation processing method according to claim 4, wherein the correlation processing is performed on a plane.
【請求項6】 前記双対プレーンの写像データa(ρ,
θ)に対して、他の写像データb(ρ,θ)をρ軸方向
あるいはθ軸方向にシフトさせた後に乗算すると共に、
順次、該シフト量を変化させて乗算し、得られた乗算結
果を相関結果とすることを特徴とする請求項5記載の相
関処理方式。
6. The mapping data a (ρ,
θ) is multiplied after shifting other mapping data b (ρ, θ) in the ρ-axis direction or the θ-axis direction,
6. The correlation processing method according to claim 5, wherein the shift amount is sequentially changed and multiplication is performed, and an obtained multiplication result is used as a correlation result.
【請求項7】 前記双対プレーンの写像データa(ρ,
θ)に対して、他の写像データb(ρ,θ)をρ軸方向
あるいはθ軸方向に所定量シフトさせた後に減算すると
共に、順次、該シフト量を変化させて減算し、得られた
減算結果を相関結果とすることを特徴とする請求項5記
載の相関処理方式。
7. The mapping data a (ρ,
θ), the other mapping data b (ρ, θ) is shifted by a predetermined amount in the ρ-axis direction or the θ-axis direction and then subtracted, and the shift amount is sequentially changed and subtracted. 6. The correlation processing method according to claim 5, wherein the subtraction result is a correlation result.
【請求項8】 1画面を小領域である受容野に分割した
時の受容野画像を表現する入力データに対して極変換処
理を施してρ−θの双対プレーンに写像し、あるいは極
変換処理結果に対して更にフィルタ処理を施してρ−θ
の双対プレーンに写像し、 前記双対プレーンの写像データa(ρ,θ)と別の双対
プレーンに設定されている写像データb(ρ,θ)のう
ちρ軸方向に座標値が所定量ずれている組を取り出し、
その積和 Ci(ρ,θ)=Σa(ρ+i,θ)・b(i,θ) (ただし、iを変えて加算)を相関パラメータとして演
算し、 これら相関パラメータを用いて入力データの写像データ
b(ρ,θ)に応じた図形的特徴を抽出することを特徴
とする相関処理方式。
8. A polar conversion process is performed on input data representing a receptive field image when one screen is divided into small receptive fields, and the input data is mapped onto a dual plane of ρ-θ, or a polar conversion process is performed. The result is further filtered to obtain ρ-θ
Of the dual plane mapping data a (ρ, θ) and the mapping data b (ρ, θ) set in another dual plane, the coordinate values of which are shifted by a predetermined amount in the ρ-axis direction. Take out the pair
The product sum Ci (ρ, θ) = Σa (ρ + i, θ) · b (i, θ) (where i is added) is calculated as a correlation parameter, and the mapping data of the input data is calculated using these correlation parameters. A correlation processing method characterized by extracting graphic features corresponding to b (ρ, θ).
【請求項9】 前記写像データa(ρ,θ)、b(ρ,
θ)は両眼立体視など空間的に異なる入力データに極変
換を施してρ−θの双対プレーンに写像したものである
ことを特徴とする請求項8記載の相関処理方式。
9. The mapping data a (ρ, θ), b (ρ,
9. The correlation processing method according to claim 8, wherein θ) is obtained by performing a polar transformation on spatially different input data such as binocular stereoscopic vision and mapping the input data on a dual plane of ρ−θ.
【請求項10】 前記写像データa(ρ,θ)、b
(ρ,θ)は時間的に異なる入力データに極変換を施し
てρ−θの双対プレーンに写像したものであることを特
徴とする請求項8記載の相関処理方式。
10. The mapping data a (ρ, θ), b
9. The correlation processing method according to claim 8, wherein (ρ, θ) is obtained by performing a polar transformation on input data different in time and mapping the input data to a dual plane of ρ−θ.
【請求項11】 2つの画像入力手段から入力された画
像を受容野に分割して得られる受容野画像に対してそれ
ぞれ極変換処理を施してρ−θの双対プレーンに写像
し、あるいは極変換処理結果に対して更にフィルタ処理
を施してそれぞれρ−θの双対プレーンに写像し、 前記双対プレーンの写像データa(ρ,θ)に対して、
他の写像データb(ρ,θ)をρ軸方向にシフトさせた
後に乗算すると共に、順次、該シフト量σを変化させて
乗算し、得られた乗算結果を相関パラメータC(ρ,
θ,σ)とし、 相関パラメータの極大点から各受容野画像間の対応接線
を決定すると共に、極大点を与えるσに基づいて視差を
計測することを特徴とする相関処理方式。
11. A receptive field image obtained by dividing an image input from two image input means into receptive fields, respectively, to perform polar transformation processing to map onto a dual plane of ρ-θ, or to perform polar transformation. The processing result is further subjected to filter processing and mapped to dual planes of ρ-θ, respectively. For the mapping data a (ρ, θ) of the dual plane,
The other mapping data b (ρ, θ) is shifted in the ρ-axis direction and then multiplied. In addition, the shift amount σ is sequentially changed and multiplied, and the obtained multiplication result is used as the correlation parameter C (ρ, θ).
θ, σ), a correlation tangent between each receptive field image is determined from the maximum point of the correlation parameter, and the parallax is measured based on σ giving the maximum point.
【請求項12】 極変換後に一次元ガウシャンフィルタ
処理を施すことにより、あるいは極変換処理の前に2次
元ガウシャンフィルタ処理を施すことにより、前記接線
を線あるいは隙間として求めることを特徴とする請求項
11記載の相関処理方式。
12. The tangent line is obtained as a line or a gap by performing one-dimensional Gaussian filter processing after polar conversion or performing two-dimensional Gaussian filter processing before polar conversion processing. The correlation processing method according to claim 11.
【請求項13】 極変換後に一次元グラディエントフィ
ルタ処理と一次元ガウシャンフィルタ処理を施すことに
より、あるいは極変換処理の前に2次元ガウシャンフィ
ルタ処理を施し、極変換処理後に一次元グラディエント
フィルタ処理を施すことにより、前記接線を縁として求
めることを特徴とする請求項11記載の相関処理方式。
13. One-dimensional gradient filter processing and one-dimensional Gaussian filter processing after polar conversion, or two-dimensional Gaussian filter processing before polar conversion processing, and one-dimensional gradient filter processing after polar conversion processing. 12. The correlation processing method according to claim 11, wherein the tangent is obtained as an edge by performing the following.
【請求項14】 2つの画像入力手段から入力された画
像を受容野に分割して得られる受容野画像に対してそれ
ぞれ極変換処理を施してρ−θの双対プレーンに写像
し、あるいは極変換処理結果に対して更にフィルタ処理
を施してそれぞれρ−θの双対プレーンに写像し、 前記双対プレーンの一方の写像データa(ρ,θ)に対
して、他方の写像データb(ρ,θ)をρ軸方向にシフ
トさせた後に乗算すると共に、順次、該シフト量σを変
化させて乗算し、得られた乗算結果を相関パラメータC
(ρ,θ,σ)とし、 該相関パラメータC(ρ,θ,σ)をρ方向に投影した
PRJ−ρ(θ,σ)に変換した後、その(θ,σ)プ
レーン内の正弦波パターンの最大振幅となる点を逆極変
換により抽出し、 最大振幅を与えるσを用いて両眼視差及び又は対象直線
までの奥行きを演算することを特徴とする相関処理方
式。
14. A receptive field image obtained by dividing an image input from two image input means into receptive fields is subjected to polar transformation processing to map the image onto a dual plane of ρ-θ, or polar transformation. The processing result is further subjected to filter processing and mapped to dual planes of ρ-θ. One mapped data a (ρ, θ) of the dual plane is mapped to the other mapped data b (ρ, θ) Are shifted in the ρ-axis direction and then multiplied, and the shift amount σ is sequentially changed to be multiplied.
After converting the correlation parameter C (ρ, θ, σ) into C PRJ −ρ (θ, σ) projected in the ρ direction, the sine in the (θ, σ) plane A correlation processing method wherein a point having a maximum amplitude of a wave pattern is extracted by inverse polar transformation, and binocular disparity and / or a depth to a target straight line are calculated using σ which gives the maximum amplitude.
【請求項15】 時間的に異なる2個の画像を受容野に
分割して得られる受容野画像に対してそれぞれ極変換処
理を施してρ−θの双対プレーンに写像し、あるいは極
変換処理結果に対して更にフィルタ処理を施してそれぞ
れρ−θの双対プレーンに写像し、 前記双対プレーンの現時刻の写像データat(ρ,θ)
に対して、次の時刻の写像データat+1(ρ,θ)をρ
軸方向に所定量シフトさせた後に乗算すると共に、順
次、該シフト量τを変化させて乗算し、得られた乗算結
果を相関パラメータC(ρ,θ,τ)とし、 相関パラメータの極大点C(ρP,θP,τP)を与える
要素パラメータの値ρP,θP,τPから各受容野画像間
の対応接線を決定すると共に、対応接線の移動方向や移
動速度を計測することを特徴とする相関処理方式。
15. A polar transformation process is applied to receptive field images obtained by dividing two temporally different images into receptive fields to map them onto a dual plane of ρ-θ, or a result of the polar transformation process. further performs a filtering process to map the dual plane, respectively [rho-theta, present time of the mapping data a t of the dual plane relative to (ρ, θ)
To the mapping data at + 1 (ρ, θ) at the next time
After shifting by a predetermined amount in the axial direction, multiplication is performed, and the shift amount τ is sequentially changed to perform multiplication. The obtained multiplication result is used as a correlation parameter C (ρ, θ, τ). Determine the corresponding tangent between the receptive field images from the element parameter values ρ P , θ P , τ P that give (ρ P , θ P , τ P ) and measure the moving direction and moving speed of the corresponding tangent. A correlation processing method characterized by the following.
【請求項16】 次式 Φ=θP+900 V=k1・τP (k1は定数)により、移動方向Φ及び移動速度Vを演算す
ることを特徴とする請求項15記載の相関処理方式。
16. The following equation: Φ = θP+900  V = k1・ ΤP (k1Is a constant) to calculate the moving direction Φ and the moving speed V.
16. The correlation processing method according to claim 15, wherein:
【請求項17】 受容野画像のコーナを構成する2つの
接線の極大点のパラメータを(ρi,θi,τi),
(ρj,θj,τj)とするとき、次式 Φ=arctan{(τisinθj−τjsinθi)/(τicosθj−τ
jcosθi)} V=k2・τi/sin(Φ−θi) (k2は定数)により、コーナの移動方向Φ及び移動速
度Vを演算することを特徴とする請求項15記載の相関
処理方式。
17. The parameters of the maximum points of two tangents forming the corner of the receptive field image are (ρ i , θ i , τ i ),
When (ρ j , θ j , τ j ), the following equation Φ = arctan {(τ i sin θ j −τ j sin θ i ) / (τ i cosθ j −τ
17. The corner moving direction Φ and the moving speed V are calculated by j cos θ i )} V = k 2 · τ i / sin (Φ−θ i ) (k 2 is a constant). Correlation processing method.
【請求項18】 前記2つの画像は、ある時刻において
画像捕捉手段が対象直線を捕捉した画像と、該画像捕捉
手段が移動して所定時間後に対象直線を捕捉した画像で
あり、前記要素パラメータτPと画像捕捉手段の移動速
度Vsを用いて対象直線までの奥行きを演算することを
特徴とする請求項15記載の相関処理方式。
18. The two images are an image in which the image capturing means captures a target straight line at a certain time and an image in which the image capturing means captures the target straight line a predetermined time after moving. 16. The correlation processing method according to claim 15, wherein the depth to the target straight line is calculated using P and the moving speed Vs of the image capturing unit.
【請求項19】 時間的に異なる2個の画像を受容野に
分割して得られる受容野画像に対してそれぞれ極変換処
理を施してρ−θの双対プレーンに写像し、あるいは極
変換処理結果に対して更にフィルタ処理を施してそれぞ
れρ−θの双対プレーンに写像し、 前記双対プレーンの現時刻の写像データat(ρ,θ)
に対して、次の時刻の写像データat+1(ρ,θ)をρ
軸方向に所定量シフトさせた後に乗算すると共に、順
次、該シフト量τを変化させて乗算し、得られた乗算結
果を相関パラメータC(ρ,θ,τ)とし、 前記相関パラメータC(ρ,θ,τ)をρ方向に投影し
たCPRJ−ρ(θ,τ)に変換した後、その(θ,τ)
プレーン内の正弦波パターンの最大振幅となる点を逆極
変換により抽出し、該最大振幅を与えるθ、τを用いて
移動方向Φと移動速度Vを演算することを特徴とする相
関処理方式。
19. A receptive field image obtained by dividing two temporally different images into receptive fields, respectively, is subjected to a polar transformation process to be mapped on a dual plane of ρ-θ, or the result of the polar transformation process is obtained. further performs a filtering process to map the dual plane, respectively [rho-theta, present time of the mapping data a t of the dual plane relative to (ρ, θ)
To the mapping data at + 1 (ρ, θ) at the next time
After shifting by a predetermined amount in the axial direction, multiplication is performed, and the shift amount τ is sequentially changed to perform multiplication. The obtained multiplication result is used as a correlation parameter C (ρ, θ, τ). , Θ, τ) are converted to C PRJ −ρ (θ, τ) projected in the ρ direction, and the (θ, τ)
A correlation processing method in which a point having a maximum amplitude of a sine wave pattern in a plane is extracted by inverse pole conversion, and a moving direction Φ and a moving speed V are calculated using θ and τ that give the maximum amplitude.
【請求項20】 前記2つの画像は、ある時刻において
画像捕捉手段が対象図形を捕捉した画像と、該画像捕捉
手段が移動して所定時間後に対象図形を捕捉した画像で
あり、 前記移動速度Vと画像捕捉手段の移動速度Vsを用いて
対象直線までの奥行きを演算することを特徴とする請求
項19記載の相関処理方式。
20. The two images are an image in which the image capturing unit captures the target graphic at a certain time and an image in which the image capturing unit captures the target graphic a predetermined time after moving. 20. The correlation processing method according to claim 19, wherein a depth up to a target straight line is calculated using the moving speed Vs of the image capturing means.
JP4249956A 1991-12-11 1992-09-18 Correlation processing method Expired - Lifetime JP2796221B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP4249956A JP2796221B2 (en) 1992-04-22 1992-09-18 Correlation processing method
US07/987,954 US6005984A (en) 1991-12-11 1992-12-11 Process and apparatus for extracting and recognizing figure elements using division into receptive fields, polar transformation, application of one-dimensional filter, and correlation between plurality of images
US08/470,061 US5901252A (en) 1991-12-11 1995-06-06 Process and apparatus for extracting and recognizing figure elements using division into receptive fields, polar transformation, application of one-dimensional filter, and correlation between plurality of images

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP10313792 1992-04-22
JP4-103137 1992-04-22
JP4-133744 1992-05-26
JP13374492 1992-05-26
JP4249956A JP2796221B2 (en) 1992-04-22 1992-09-18 Correlation processing method

Publications (2)

Publication Number Publication Date
JPH0644364A JPH0644364A (en) 1994-02-18
JP2796221B2 true JP2796221B2 (en) 1998-09-10

Family

ID=27309898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4249956A Expired - Lifetime JP2796221B2 (en) 1991-12-11 1992-09-18 Correlation processing method

Country Status (1)

Country Link
JP (1) JP2796221B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3934211B2 (en) * 1996-06-26 2007-06-20 松下電器産業株式会社 Stereoscopic CG video generation device
JP3949333B2 (en) 1999-04-12 2007-07-25 富士通株式会社 Image measurement method, image measurement apparatus, and image measurement program storage medium

Also Published As

Publication number Publication date
JPH0644364A (en) 1994-02-18

Similar Documents

Publication Publication Date Title
CN113706714B (en) New view angle synthesizing method based on depth image and nerve radiation field
CN106355570B (en) A kind of binocular stereo vision matching method of combination depth characteristic
CN106875444B (en) A kind of object localization method and device
CN104424640B (en) The method and apparatus for carrying out blurring treatment to image
WO2019140945A1 (en) Mixed reality method applied to flight simulator
CN105869166B (en) A kind of human motion recognition method and system based on binocular vision
CN108921895A (en) A kind of sensor relative pose estimation method
CN113689503B (en) Target object posture detection method, device, equipment and storage medium
CN106296598A (en) 3 d pose processing method, system and camera terminal
CN107798702A (en) A kind of realtime graphic stacking method and device for augmented reality
Khanian et al. Photometric stereo for strong specular highlights
Lin et al. Research on 3D reconstruction in binocular stereo vision based on feature point matching method
CN107067441A (en) Camera marking method and device
CN116681839B (en) Live three-dimensional target reconstruction and singulation method based on improved NeRF
JP2796221B2 (en) Correlation processing method
CN107403448A (en) Cost function generation method and cost function generating means
CN114730482A (en) Device coordinate system in associated multi-person augmented reality system
Kimura et al. 3D voxel construction based on epipolar geometry
Grosso et al. Log-polar stereo for anthropomorphic robots
CN110288701A (en) A kind of three-dimensional rebuilding method and terminal based on deep focus
Li et al. The method of detecting nearest distance between obstacles and vehicle tail based on binocular vision system
JP3056857B2 (en) Image processing method
Ekholm 3-D scene reconstruction from aerial imagery
Morasso et al. 3D reconstruction from multiple stereo views
Hu et al. Global Constraint with Scale-invariant Feature Matching for Visual Hull Computation

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19980616

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090626

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100626

Year of fee payment: 12