JPH08272594A - Image processor and image processing method - Google Patents

Image processor and image processing method

Info

Publication number
JPH08272594A
JPH08272594A JP7076515A JP7651595A JPH08272594A JP H08272594 A JPH08272594 A JP H08272594A JP 7076515 A JP7076515 A JP 7076515A JP 7651595 A JP7651595 A JP 7651595A JP H08272594 A JPH08272594 A JP H08272594A
Authority
JP
Japan
Prior art keywords
input
image
pole
function
poles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7076515A
Other languages
Japanese (ja)
Inventor
Teruyoshi Washisawa
輝芳 鷲澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP7076515A priority Critical patent/JPH08272594A/en
Priority to US08/623,536 priority patent/US5917943A/en
Priority to DE69628083T priority patent/DE69628083T2/en
Priority to EP96302244A priority patent/EP0735775B1/en
Priority to CA002173092A priority patent/CA2173092C/en
Publication of JPH08272594A publication Critical patent/JPH08272594A/en
Priority to US09/312,841 priority patent/US6898326B2/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE: To easily obtain the finite number of feature points and to improve immunity against noise by deciding an area where the development of a finite order polynomial obtained by means of an arithmetic means can be approximated based on the positions of respective poles detected by a detection means. CONSTITUTION: A conversion part 103 generates a vector field by operating a gradient on an image as a function on a two-dimensional space, which is inputted from an image input part 108. A sirqular point detection part 104 detects the feature point of the vector field which is spatially quantized by using the principle of an amplitude. A conversion encoding part 105 function- approximates the divided vector fields around the respective poles in the range of areas corresponding to the poles. When the pole in a partial area, the position and the order of a zero point are known, the function can be approximated by the development of the finite order polynomial by the position and the order of the pole and the position and the order of the zero point. When the position and the order of the zero point cannot be specified, the function can be approximated by the development of an orthogonal polynomial.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像処理装置およびその
方法に関し、例えば、画像の特徴点を検出する画像処理
装置およびその方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and a method thereof, for example, an image processing apparatus and a method thereof for detecting a feature point of an image.

【0002】[0002]

【従来の技術】エッジは、画像の特徴点として広く受入
れられている。ここで、エッジとは、画像強度(輝度,
濃度,彩度および色相)の変化量が大きい部分を指す。
エッジ位置は、画像関数の一階微係数の極大値、あるい
は二階微係数の値が零を取る位置として検出される(F.
Ulupinar and G. Medioni: "Refining edges detectedb
y a LoG operator", Computer vision, graphics, and
image processing, vol.51, pp.275-298, 1990)。
BACKGROUND OF THE INVENTION Edges are widely accepted as feature points in images. Here, the edge means image intensity (luminance,
It refers to the part where the amount of change in density, saturation and hue) is large.
The edge position is detected as the maximum value of the first derivative of the image function or the position where the value of the second derivative is zero (F.
Ulupinar and G. Medioni: "Refining edges detectedb
ya LoG operator ", Computer vision, graphics, and
image processing, vol.51, pp.275-298, 1990).

【0003】また、多重解像度解析によって特異点を検
出する方法が考案されている(S. Mallat and WL. Hwan
g: "Singularity detection and processing with wave
lets", IEEE Trans. information theory, vol.38, no.
2, pp.617-643, Mar. 1992)。この方法は、特異点が、
全周波数成分に亘って極値を示すものとして検出を行
う。
A method for detecting singular points by multiresolution analysis has been devised (S. Mallat and WL. Hwan
g: "Singularity detection and processing with wave
lets ", IEEE Trans. information theory, vol.38, no.
2, pp.617-643, Mar. 1992). This method has a singularity
The detection is performed as an extremum over all frequency components.

【0004】[0004]

【発明が解決しようとする課題】しかし、一階微分は雑
音を強調する作用をもつので、一階微係数からエッジを
検出する方法は雑音に弱い。同様に、二階微係数の零交
差からエッジを検出する方法も、検出したエッジの位置
精度は雑音に強く影響される。また、多重解像度解析に
よるエッジの検出方法は、雑音に対する頑健性は有する
が、計算量が多くなる。
However, since the first derivative has a function of emphasizing noise, the method of detecting an edge from the first derivative is weak against noise. Similarly, in the method of detecting an edge from the zero crossing of the second derivative, the position accuracy of the detected edge is strongly affected by noise. Further, although the edge detection method by multi-resolution analysis has robustness against noise, it requires a large amount of calculation.

【0005】さらに、これらの方法で検出されるエッジ
は一般に連続的であり、このようなエッジを基に原画像
を符号化しようとすると、連続的に存在するエッジから
有限個の特徴点を選択するための何らかの閾値処理が必
要になる。
Further, the edges detected by these methods are generally continuous, and when an original image is encoded based on such edges, a finite number of feature points are selected from the continuously existing edges. To do this, some threshold processing is required.

【0006】本発明は、上述の問題を解決するためのも
のであり、有限個の特徴点を容易に得ることができ、雑
音に対して頑健性を有する画像処理装置を提供すること
を目的とする。
The present invention is intended to solve the above problems, and an object of the present invention is to provide an image processing apparatus capable of easily obtaining a finite number of feature points and having robustness against noise. To do.

【0007】[0007]

【課題を解決するための手段】本発明は、前記の目的を
達成する一手段として、以下の構成を備える。
The present invention has the following structure as one means for achieving the above object.

【0008】本発明にかかる画像処理装置は、画像を入
力する入力手段と、前記入力手段により入力された二次
元平面上の関数で表される入力画像をベクトル場に変換
する変換手段と、前記変換手段により変換された画像の
極およ零を検出する検出手段と、前記検出手段により検
出された極の周囲における多項式展開の有限個の展開係
数を演算する演算手段と、前記検出手段により検出され
た各極の位置に基づいて、前記極それぞれの周囲におけ
る前記演算手段により得られた有限次数多項式展開が近
似できる領域を決定する決定手段とを有することを特徴
とする。
An image processing apparatus according to the present invention comprises input means for inputting an image, conversion means for converting an input image input by the input means and represented by a function on a two-dimensional plane into a vector field, Detecting means for detecting poles and zeros of the image converted by the converting means, calculating means for calculating a finite number of expansion coefficients of polynomial expansion around the poles detected by the detecting means, and detecting by the detecting means And determining means for deciding a region around each of the poles to which the finite degree polynomial expansion obtained by the computing means can be approximated, based on the position of each pole.

【0009】また、本発明にかかる画像処理方法は、画
像を入力する入力ステップと、前記入力ステップで入力
した二次元平面上の関数で表される入力画像をベクトル
場に変換する変換ステップと、前記変換ステップで変換
した画像の極および零を検出する検出ステップと、前記
検出ステップで検出した極の周囲における多項式展開の
有限個の展開係数を演算する演算ステップと、前記検出
ステップで検出した各極の位置に基づいて、前記極それ
ぞれの周囲における前記演算ステップで得られた有限次
数多項式展開が近似できる領域を決定する決定ステップ
とを有することを特徴とする。
The image processing method according to the present invention further comprises an input step of inputting an image, and a conversion step of converting the input image represented by the function on the two-dimensional plane input in the input step into a vector field. A detection step of detecting poles and zeros of the image converted in the conversion step, a calculation step of calculating a finite number of expansion coefficients of polynomial expansion around the poles detected in the detection step, and each detected in the detection step. A determination step of determining a region around each of the poles to which the finite degree polynomial expansion obtained in the calculation step can be approximated, based on the position of the pole.

【0010】[0010]

【実施例】以下、本発明にかかる一実施例の画像処理装
置を図面を参照して詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An image processing apparatus according to an embodiment of the present invention will be described in detail below with reference to the drawings.

【0011】図1は本発明にかかる実施例の画像処理装
置の構成例を示すブロック図である。
FIG. 1 is a block diagram showing a configuration example of an image processing apparatus according to an embodiment of the present invention.

【0012】同図において、108は画像入力部で、その
詳細を後述する広角レンズ101、アレイセンサ102および
入力パラメタ制御部108などを含み、広角レンズ101を通
過した光はアレイセンサ102へ入射し、画像信号に変換
されて出力される。
In the figure, reference numeral 108 denotes an image input unit, which includes a wide-angle lens 101, an array sensor 102, an input parameter control unit 108, and the like, the details of which will be described later. Light passing through the wide-angle lens 101 is incident on the array sensor 102. , Is converted into an image signal and output.

【0013】また、103は変換部で、画像入力部108から
入力された画像信号に後述する処理を施す。104は特異
点検出部で、変換部103から入力された信号に後述する
処理を施す。105は変換符号化部で、特異点検出部104か
ら入力された信号に後述する処理を施して、情報処理部
107へ符号を出力する。
Reference numeral 103 denotes a conversion unit, which subjects the image signal input from the image input unit 108 to the processing described later. Reference numeral 104 denotes a singularity detection unit, which performs processing described below on the signal input from the conversion unit 103. Reference numeral 105 denotes a transform coding unit, which subjects the signal input from the singularity detection unit 104 to processing described below,
The code is output to 107.

【0014】●広角レンズ101 図2は広角レンズ101による座標変換の一例を示す図であ
る。同図において、xは入力系の正面に位置する画像面
上での極座標系の動径、tは広角レンズ101で変換された
後の極座標系の動径である。本光学系は回転対称である
ので、以下の説明はすべて動径方向に限って行う。
Wide-angle Lens 101 FIG. 2 is a diagram showing an example of coordinate conversion by the wide-angle lens 101. In the figure, x is the radius vector of the polar coordinate system on the image plane located in front of the input system, and t is the radius vector of the polar coordinate system after being converted by the wide-angle lens 101. Since this optical system is rotationally symmetric, the following description will be limited to the radial direction.

【0015】光軸に対する入射角度をφ、図中の円の半
径になるレンズの焦点距離をξとすると、動径tとxはそ
れぞれ次式で表される。 t = 2ξtan(φ/2) …(1) x = ξtan(φ) …(2)
When the incident angle with respect to the optical axis is φ, and the focal length of the lens that becomes the radius of the circle in the figure is ξ, the radius vectors t and x are expressed by the following equations. t = 2 ξtan (φ / 2)… (1) x = ξtan (φ)… (2)

【0016】式(1)(2)から、動径xは動径tの関数として
次式で表わすことができ、これが広角レンズ101におけ
る座標変換である。 x = t/{1 - (t/2ξ)^2} …(3) ただし、a^2はaの二乗を表す
From equations (1) and (2), the radius vector x can be expressed by the following equation as a function of the radius vector t, and this is the coordinate conversion in the wide-angle lens 101. x = t / {1-(t / 2ξ) ^ 2} (3) where a ^ 2 represents the square of a

【0017】画像平面全域に拡がる動径方向周波数f(0)
のパターン(関数)は、広角レンズ101によって以下の
ような関数に変化する。 f(t) = f(0){1 - (t/2ξ)^2}^2/{1 + (t/2ξ)^2} …(4)
Radial frequency f (0) spreading over the entire image plane
The pattern (function) of is changed to the following function by the wide-angle lens 101. f (t) = f (0) {1-(t / 2ξ) ^ 2} ^ 2 / {1 + (t / 2ξ) ^ 2}… (4)

【0018】勿論、三次元の実空間に存在する任意の物
体を対象とする場合は、入射角度φと動径tとの関係の
みを知ればいいから、座標変換は次式のようになる。 t = 2ξtan(φ/2) …(5)
Of course, when an arbitrary object existing in a three-dimensional real space is targeted, only the relationship between the incident angle φ and the radius vector t needs to be known, so the coordinate conversion is as follows. t = 2ξtan (φ / 2)… (5)

【0019】以上説明した広角レンズ101の座標変換は
等角写像であり、従って、元の画像に存在しない特異点
を生むことはない。
The coordinate transformation of the wide-angle lens 101 described above is a conformal mapping, and therefore does not produce a singular point that does not exist in the original image.

【0020】●アレイセンサ102 積分核をψj(x)とすると、光軸中心から数えてj番目の
アレイセンサ102の出力gjは次式で表される。 ただし、積分範囲は-∞〜+∞
Array sensor 102 When the integral kernel is ψj (x), the output gj of the j-th array sensor 102 counted from the optical axis center is expressed by the following equation. However, the integration range is -∞ to + ∞

【0021】●変換部103 変換部103は、二次元空間上の関数としての画像f(x,y)
に、グラジエント▽を作用させてベクトル場を生成す
る。 g(x,y) = ▽f(x,y) = e1(∂f/∂x) + e2(∂f/∂y) …(7) ただし、e1,e2は基底ベクトル
Transforming Unit 103 The transforming unit 103 transforms the image f (x, y) as a function in the two-dimensional space.
Then, a gradient ▽ is applied to generate a vector field. g (x, y) = ▽ f (x, y) = e1 (∂f / ∂x) + e2 (∂f / ∂y)… (7) where e1 and e2 are basis vectors

【0022】また、g(x,y)は次のようにも表現できる。 g(z) = r(z)exp(θ(z)) …(8) z = x + iy …(9) r(z) =‖▽f(x,y)‖ = √{(df/dx)^2 + (df/dy)^2} …(10) θ(z) = arg(▽f(x,y)) = arctan{(df/dy)/(df/dx)} …(11)Further, g (x, y) can be expressed as follows. g (z) = r (z) exp (θ (z))… (8) z = x + iy… (9) r (z) = ‖ ▽ f (x, y) ‖ = √ {(df / dx ) ^ 2 + (df / dy) ^ 2}… (10) θ (z) = arg (▽ f (x, y)) = arctan {(df / dy) / (df / dx)}… (11)

【0023】以下の説明では複素数表現を用いる。In the following description, complex number representation is used.

【0024】●特異点検出部104 特異点検出部104は、偏角の原理を利用して特異点を検
出する。ここで、偏角の原理を説明すると、関数f(z)は
単連結領域Dで有理型、CはD内の正の向きの単純閉曲線
で、閉曲線Cの上にはf(z)の零点も極も存在しないもの
とする。閉曲線Cの内部において、関数f(z)は、ak(k=
1,2,…,m)にそれぞれ位数λkの零点、bk(k=1,2,…,n)
にそれぞれ位数μkの極をもつとする。このとき、閉曲
線C上の一点Zoから出発して、閉曲線Cを一周してZoに戻
ったときの関数f(z)の偏角の増加量Δc arg(f(z))は、
閉曲線C内部にある零点および極の個数をNz,Npとすれ
ば、次式で与えられる。 Δc arg(f(z)) = 2π{Nz(f) - Np(f)} …(12)
Singularity Detection Unit 104 The singularity detection unit 104 detects a singularity using the principle of declination. Here, explaining the principle of the argument, the function f (z) is a rational type in the simply connected region D, C is a simple closed curve in the positive direction in D, and the zero point of f (z) is above the closed curve C. There is no pole. Inside the closed curve C, the function f (z) is ak (k =
1,2, ..., m) are zeros of order λk, bk (k = 1,2, ..., n)
Suppose each has poles of order μk. At this time, the amount of increase Δc arg (f (z)) in the argument of the function f (z) when starting from one point Zo on the closed curve C and returning to Zo after going around the closed curve C is
If the number of zeros and poles inside the closed curve C are Nz and Np, they are given by the following equation. Δc arg (f (z)) = 2π {Nz (f)-Np (f)}… (12)

【0025】この偏角の原理を利用して、空間的に量子
化されたベクトル場{gm,n}m,nの特徴点を検出する方法
を以下に説明する。 ステップ1: 画像の定義域の任意の点zk,p=γk,p・exp
(θk,p)を選ぶ ステップ2: zk,pを中心に適当な半径ρの円Cを考える
A method for detecting the feature points of the spatially quantized vector field {gm, n} m, n using the principle of this argument will be described below. Step 1: Any point in the domain of the image zk, p = γk, p · exp
Select (θk, p) Step 2: Consider a circle C with an appropriate radius ρ centered on zk, p

【0026】このようにすると、偏角の原理により、ベ
クトル場構成器(変換部103)によって得られる複素関
数g(z)の、円C内部に存在する位数を考慮した零点の個
数Nz(g)=Σλkおよび極の個数Np(z)=Σμkに対して、次
の式が成立する。 Nz(g) - Np(g) = Δc arg(g(z))/2π …(13)
By doing this, the number of zeros Nz () in consideration of the order existing inside the circle C of the complex function g (z) obtained by the vector field composer (transformer 103) by the principle of argument. For g) = Σλk and the number of poles Np (z) = Σμk, the following equation holds. Nz (g)-Np (g) = Δc arg (g (z)) / 2π… (13)

【0027】そこで、与えられた画像の各画素を中心に
半径を一画素にした円を考えて、全画素における零点と
極の個数の差を、上述した編角の原理を用いて求める。
このとき、各円に含まれる零点または極は高々一個と考
えられるので、式(13)の右辺が正のときが零点、負のと
きは極を含んでいることになる。そこで、極が存在する
と判断されたときの中心画素を特異点の位置として検出
する。
Therefore, considering a circle centered on each pixel of a given image and having a radius of one pixel, the difference between the number of zero points and the number of poles in all the pixels is obtained by using the above-described knitting angle principle.
At this time, since each circle is considered to have at most one zero or pole, when the right side of equation (13) is positive, it includes a zero point, and when it is negative, it includes a pole. Therefore, the central pixel when it is determined that the pole exists is detected as the position of the singular point.

【0028】ここで、Δc arg(g(z))は以下のように計
算する(図3の積分径路を示す図を参照)。ただし、積
分径路は閉曲線であればよく、図3の大きさに限定され
るものではない。 Δc arg(g(z))|z =zm,n ≒γ(g(zm+1,n+1),g(zm+1,n)) + γ(g(zm,n+1),g(zm+1,n+1)) + γ(g(zm-1,n+1),g(zm,n+1)) + γ(g(zm-1,n),g(zm-1,n+1)) + γ(g(zm-1,n-1),g(zm-1,n)) + γ(g(zm,n-1),g(zm-1,n-1)) + γ(g(zm+1,n-1),g(zm,n-1)) + γ(g(zm+1,n),g(zm+1,n-1)) …(14) arg(x) - arg(y) ≦ π のとき γ(x,y) = arg(x) - arg(y) それ以外のとき γ(x,y) = arg(y) - arg(x) …(15)
Here, Δc arg (g (z)) is calculated as follows (see the diagram showing the integral path in FIG. 3). However, the integral path is not limited to the size shown in FIG. 3 as long as it is a closed curve. Δc arg (g (z)) | z = zm, n ≈γ (g (zm + 1, n + 1), g (zm + 1, n)) + γ (g (zm, n + 1), g (zm + 1, n + 1)) + γ (g (zm-1, n + 1), g (zm, n + 1)) + γ (g (zm-1, n), g (zm-1 , n + 1)) + γ (g (zm-1, n-1), g (zm-1, n)) + γ (g (zm, n-1), g (zm-1, n-1 )) + γ (g (zm + 1, n-1), g (zm, n-1)) + γ (g (zm + 1, n), g (zm + 1, n-1))… ( 14) arg (x)-arg (y) ≤ π γ (x, y) = arg (x)-arg (y) otherwise γ (x, y) = arg (y)-arg (x )… (15)

【0029】●変換符号化部105 極の位置を基にベクトル場の定義域を複数の領域に分割
するには、例えば、極を一個だけ含むように定義域を分
割すればよい(図4の領域分割例を示す図を参照)。こ
のようにすれば、各領域では、その極を除き、その極の
周りでのローラン展開の収束が保証される。
Transform coding section 105 To divide the domain of the vector field into a plurality of domains based on the positions of the poles, for example, the domain may be divided so as to include only one pole (see FIG. 4). (See the figure showing an example of region division). In this way, in each region, the convergence of the Laurent expansion is guaranteed around that pole, except for that pole.

【0030】分割したベクトル場を、それぞれの極の周
りで、それに対応する領域の範囲で関数近似するには、
部分領域Djの内部の極,零点の位置および位数が既知
の場合、関数w(z)は、極の位置と位数aj,mj(j=1,2,
…,J)、零点の位置と位数bk,nk(k=1,2,…,K)により、
図5に示す式(16)から(18)で表現することができる。な
お、零点の位置や位数が特定できない場合は、直交多項
式展開などを応用することができる。このように、各極
の周りでのローラン展開を用いて、それぞれの領域を近
似することで、大きな領域を一つの関数で表現する場合
より、誤差が小さくなることが期待される。
To approximate the divided vector field around each pole in the range of the corresponding region,
When the positions and orders of the poles and zeros inside the partial area Dj are known, the function w (z) is calculated by using the position and order aj, mj (j = 1,2,
,, J), and the position of the zero point and the orders bk, nk (k = 1, 2, ..., K)
It can be expressed by equations (16) to (18) shown in FIG. If the position and order of the zero point cannot be specified, orthogonal polynomial expansion or the like can be applied. By approximating each region using the Laurent expansion around each pole in this way, it is expected that the error will be smaller than when a large region is expressed by one function.

【0031】●入力パラメタ制御部106 入力パラメータ制御部106は、情報処理部107から入力さ
れた光軸回転角の制御情報に基づいて、広角レンズ101
の光軸回転角を制御する。なお、情報処理部106は、特
異点を光軸上に捕らえるように、光軸回転角の制御量を
計算する。
Input Parameter Control Unit 106 The input parameter control unit 106 uses the wide-angle lens 101 based on the control information of the optical axis rotation angle input from the information processing unit 107.
Control the optical axis rotation angle of. The information processing unit 106 calculates the control amount of the optical axis rotation angle so as to capture the singular point on the optical axis.

【0032】このように、二次元平面上の関数としての
視覚情報を一変数複素関数と見なすことにより、その複
素関数の極および零は、関数が定数でない限り、孤立し
ていることが保証される。また、関数が定数であるよう
な場合は、そこには何の情報も含まれないから、無視し
て構わない。従って、本実施例によれば、有限個の特徴
点を自然かつ容易に得ることができる。
Thus, by treating the visual information as a function on the two-dimensional plane as a univariate complex function, it is guaranteed that the poles and zeros of the complex function are isolated unless the function is a constant. It If the function is a constant, it contains no information and can be ignored. Therefore, according to this embodiment, a finite number of feature points can be naturally and easily obtained.

【0033】また、雑音に対しては、次のような頑健性
を有する。例えば、インパルス雑音を考えると、一階微
分および二階微分のどちらの方法においても、インパル
ス雑音はエッジとして検出される。ところが、ベクトル
場を生成し、その特異点を検出する方法においては、イ
ンパルス雑音は零として検出される。そこで、前述した
ように、極を特徴点として採用すれば、インパルス雑音
は特徴点検出に何ら影響を与えない。特徴点として、極
を採用し零を採用しないことは、関数近似の立場からも
妥当である。それは、級数展開する場合の収束半径の決
定要因は極の位置であり、零は何ら関与しないからであ
る。
Further, it has the following robustness against noise. For example, considering impulse noise, the impulse noise is detected as an edge in both the first differential method and the second differential method. However, in the method of generating a vector field and detecting its singularity, impulse noise is detected as zero. Therefore, as described above, if the pole is adopted as the feature point, the impulse noise has no influence on the feature point detection. It is appropriate from the standpoint of function approximation to adopt poles and not zeros as feature points. The reason for this is that the determinant of the convergence radius in the case of series expansion is the position of the pole, and zero does not play any role.

【0034】このように、本実施例は、特徴点の抽出や
画像符号化・復号などの画像処理に適切に応用すること
ができる。
As described above, the present embodiment can be appropriately applied to image processing such as feature point extraction and image encoding / decoding.

【0035】なお、本発明は、複数の機器から構成され
るシステムに適用しても、一つの機器からなる装置に適
用してもよい。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device.

【0036】また、本発明は、システムあるいは装置に
プログラムを供給することによって達成される場合にも
適用できることはいうまでもない。
Further, it goes without saying that the present invention can be applied to the case where it is achieved by supplying a program to a system or an apparatus.

【0037】[0037]

【発明の効果】以上説明したように、本発明によれば、
有限個の特徴点を容易に得ることができ、雑音に対して
頑健性を有する画像処理装置を提供することができる。
As described above, according to the present invention,
A finite number of feature points can be easily obtained, and an image processing device having robustness against noise can be provided.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明にかかる実施例の画像処理装置の構成例
を示すブロック図、
FIG. 1 is a block diagram showing a configuration example of an image processing apparatus according to an embodiment of the present invention,

【図2】図1に示す広角レンズによる座標変換の一例を
示す図、
FIG. 2 is a diagram showing an example of coordinate conversion by the wide-angle lens shown in FIG.

【図3】図1に示す特異点検出部が演算する積分の径路
を示す図、
3 is a diagram showing a path of integration calculated by a singularity detection unit shown in FIG.

【図4】図1に示す変換符号化部による領域の分割例を
示す図、
FIG. 4 is a diagram showing an example of area division by the transform encoding unit shown in FIG.

【図5】図1に示す変換符号化部による関数近似式を示
す図である。
5 is a diagram showing a function approximation formula by the transform coding unit shown in FIG. 1. FIG.

【符号の説明】[Explanation of symbols]

101 広角レンズ 102 アレイセンサ 103 変換部 104 特異点検出部 105 変換符号化部 106 入力パラメタ制御部 107 情報処理部 108 画像入力部 101 Wide-angle lens 102 Array sensor 103 Conversion unit 104 Singular point detection unit 105 Conversion coding unit 106 Input parameter control unit 107 Information processing unit 108 Image input unit

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 画像を入力する入力手段と、 前記入力手段により入力された二次元平面上の関数で表
される入力画像をベクトル場に変換する変換手段と、 前記変換手段により変換された画像の極およ零を検出す
る検出手段と、 前記検出手段により検出された極の周囲における多項式
展開の有限個の展開係数を演算する演算手段と、 前記検出手段により検出された各極の位置に基づいて、
前記極それぞれの周囲における前記演算手段により得ら
れた有限次数多項式展開が近似できる領域を決定する決
定手段とを有することを特徴とする画像処理装置。
1. Input means for inputting an image, conversion means for converting an input image input by the input means and represented by a function on a two-dimensional plane into a vector field, and an image converted by the conversion means. Detecting means for detecting the poles and zeros of the, the calculating means for calculating a finite number of expansion coefficients of polynomial expansion around the poles detected by the detecting means, and the position of each pole detected by the detecting means. On the basis of,
An image processing apparatus, comprising: a determining unit that determines a region around each of the poles to which a finite degree polynomial expansion obtained by the calculating unit can be approximated.
【請求項2】 前記検出手段は偏角の原理により前記極
および零を検出することを特徴とする請求項1に記載さ
れた画像処理装置。
2. The image processing apparatus according to claim 1, wherein the detecting unit detects the pole and zero according to the principle of declination.
【請求項3】 さらに、前記特徴点に基づいて前記入力
手段の入力パラメタの制御量を計算する計算手段を備え
ることを特徴とする請求項1に記載された画像処理装
置。
3. The image processing apparatus according to claim 1, further comprising calculation means for calculating a control amount of an input parameter of the input means based on the characteristic points.
【請求項4】 前記入力手段は、広角レンズとアレイセ
ンサを備え、前記制御量に基づいて光軸回転角を制御す
ることを特徴とする請求項3に記載された画像処理装
置。
4. The image processing apparatus according to claim 3, wherein the input unit includes a wide-angle lens and an array sensor, and controls the optical axis rotation angle based on the control amount.
【請求項5】 画像を入力する入力ステップと、 前記入力ステップで入力した二次元平面上の関数で表さ
れる入力画像をベクトル場に変換する変換ステップと、 前記変換ステップで変換した画像の極および零を検出す
る検出ステップと、 前記検出ステップで検出した極の周囲における多項式展
開の有限個の展開係数を演算する演算ステップと、 前記検出ステップで検出した各極の位置に基づいて、前
記極それぞれの周囲における前記演算ステップで得られ
た有限次数多項式展開が近似できる領域を決定する決定
ステップとを有することを特徴とする画像処理方法。
5. An input step of inputting an image, a conversion step of converting an input image expressed by a function on a two-dimensional plane input in the input step into a vector field, and a pole of the image converted in the conversion step. And a detection step of detecting zero, a calculation step of calculating a finite number of expansion coefficients of polynomial expansion around the pole detected in the detection step, and based on the position of each pole detected in the detection step, the pole And an deciding step for deciding an area to which the finite degree polynomial expansion obtained in the computing step can be approximated in each of the surroundings.
JP7076515A 1995-03-31 1995-03-31 Image processor and image processing method Pending JPH08272594A (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP7076515A JPH08272594A (en) 1995-03-31 1995-03-31 Image processor and image processing method
US08/623,536 US5917943A (en) 1995-03-31 1996-03-29 Image processing apparatus and method
DE69628083T DE69628083T2 (en) 1995-03-31 1996-03-29 Image processing device and method
EP96302244A EP0735775B1 (en) 1995-03-31 1996-03-29 Image processing apparatus and method
CA002173092A CA2173092C (en) 1995-03-31 1996-03-29 Image processing apparatus and method
US09/312,841 US6898326B2 (en) 1995-03-31 1999-05-17 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7076515A JPH08272594A (en) 1995-03-31 1995-03-31 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JPH08272594A true JPH08272594A (en) 1996-10-18

Family

ID=13607418

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7076515A Pending JPH08272594A (en) 1995-03-31 1995-03-31 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JPH08272594A (en)

Similar Documents

Publication Publication Date Title
US10557705B2 (en) Methods and apparatus for enhancing depth maps with polarization cues
CN109859126A (en) A kind of vedio noise reduction method, apparatus, electronic equipment and storage medium
KR100653288B1 (en) Face recognition from video images
EP1139286A1 (en) Dynamic image processing method and device and medium
KR20160087167A (en) Method and apparatus for verifying a user
CN108346130A (en) Image processing method, device and electronic equipment
CN106155299A (en) A kind of method and device that smart machine is carried out gesture control
CN108364254A (en) Image processing method, device and electronic equipment
Cakir et al. Combining feature-based and model-based approaches for robust ellipse detection
KR102279550B1 (en) Authentication method and authentication apparatus using synthesized code for iris
Flusser et al. Blur invariants for image recognition
Wietzke et al. The geometry of 2D image signals
JPH08272594A (en) Image processor and image processing method
JPH04130587A (en) Three-dimensional picture evaluation device
Brault et al. A spatio-temporal Gaussian-Conical wavelet with high aperture selectivity for motion and speed analysis
Jackson et al. Adaptive registration of very large images
Yudi Mori et al. Fpga-based image processing for omnidirectional vision on mobile robots
Arnspang Motion constraint equations based on constant image irradiance
Bartlett et al. Depth determination using complex logarithmic mapping
Sun et al. Target Spatial Positioning System Based on Dual Cameras
Weng et al. 3-D motion analysis from image sequences using point correspondences
JP3345123B2 (en) Pattern recognition device
Chen et al. A New Objective Evaluation Method on Image Edge Detection
Osa et al. An accurate determination of motion field and illumination conditions
Cai et al. Target-tracking algorithm for omnidirectional vision

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060606