JP3300092B2 - Image feature extraction device - Google Patents

Image feature extraction device

Info

Publication number
JP3300092B2
JP3300092B2 JP03090793A JP3090793A JP3300092B2 JP 3300092 B2 JP3300092 B2 JP 3300092B2 JP 03090793 A JP03090793 A JP 03090793A JP 3090793 A JP3090793 A JP 3090793A JP 3300092 B2 JP3300092 B2 JP 3300092B2
Authority
JP
Japan
Prior art keywords
image
curve
feature
point
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03090793A
Other languages
Japanese (ja)
Other versions
JPH06243251A (en
Inventor
明生 小坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optic Co Ltd filed Critical Olympus Optic Co Ltd
Priority to JP03090793A priority Critical patent/JP3300092B2/en
Publication of JPH06243251A publication Critical patent/JPH06243251A/en
Application granted granted Critical
Publication of JP3300092B2 publication Critical patent/JP3300092B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は画像特徴抽出装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image feature extracting device.

【0002】[0002]

【従来の技術】近年、画像処理に関する技術がいろいろ
な分野で自動化を目的として応用されるようになってき
た。そうした画像処理に関する技術は以下の文献に示さ
れている。
2. Description of the Related Art In recent years, techniques relating to image processing have been applied in various fields for the purpose of automation. Techniques related to such image processing are disclosed in the following documents.

【0003】文献1:D.H.バラード著、「任意形状
を検出するための一般化ハフ変換」(D.H.Ballard,″Ge
neralized Hough transform to detect arbitrary shap
es″,Pattern Recognition,Vol.13,No.2,1981,pp.111-1
22.) 文献2:小坂他著、「モデル推論と不確定度予測を視覚
ガイドに用いた移動ロボットのナビゲーション」(A.Ko
saka and A.C.Kak, ″Fast vision-guidedmobile robot
navigation using model-based reasoning and predi
ction ofuncertainties ″,Computer Vision,Graphics,
and Image Processing--Image Understanding, Novembe
r 1992,271-329) 文献3:R.M.ハラリック他著、「コンピュータとロ
ボットビジョン」(R.M.Haralick and L.G.Shapiro,Com
puter and Robot Vision,AddisonWesley,1992,pp.371-4
52.) 文献4:O.I.カンプス他著、「予測と確率的マッチ
ングを用いた対象認識」(O.I.Camps,L.G.Shapiro,and
R.M.Haralick, ″Object Recognition usingPrediction
and Probabilistic Matching″Proceedings of the 19
92IEEE International Conference on Intelligent Rob
ots and Systems,Raleigh,NC,1992,pp.1044-1052.) 画像処理技術を用いて、対象物の認識を行なう際、従来
から最もよく用いられているのは、対象物の画像を形成
する特徴成分の解析である。この際、特徴成分は、点や
直線的な成分と曲線的な成分の組み合わせ等で表現でき
る場合が多い。こうした輪郭成分を持つ画像は、対象物
をテレビ・カメラで撮影し、その映像信号をA/D変換
器などを介してディジタル変換されるのが一般的であ
る。その変換された画像デ―タに対してディジタル信号
処理が施され、その対象物がどのような形状をしている
のか、あるいはどこに位置するかが計算される。こうし
た処理でまず最初に行なわれることは、対象物が形成す
る輪郭などの特徴の抽出である。
Reference 1: D.A. H. Ballard, "Generalized Hough Transform for Detecting Arbitrary Shapes" (DHBallard, "Ge
neralized Hough transform to detect arbitrary shap
es ″, Pattern Recognition, Vol.13, No.2,1981, pp.111-1
twenty two. Reference 2: Kosaka et al., "Navigation of Mobile Robots Using Visual Inference with Model Reasoning and Uncertainty Prediction" (A.Ko
saka and ACKak, ″ Fast vision-guidedmobile robot
navigation using model-based reasoning and predi
ction ofuncertainties ″, Computer Vision, Graphics,
and Image Processing--Image Understanding, Novembe
r 1992, 271-329) Reference 3: R.I. M. Haralick et al., "Computer and Robot Vision" (RMHaralick and LGShapiro, Com)
puter and Robot Vision, AddisonWesley, 1992, pp. 371-4
52.) Reference 4: O.M. I. Campus et al., "Object Recognition Using Prediction and Probabilistic Matching" (OICamps, LGShapiro, and
RMHaralick, ″ Object Recognition usingPrediction
and Probabilistic Matching ″ Proceedings of the 19
92IEEE International Conference on Intelligent Rob
ots and Systems, Raleigh, NC, 1992, pp. 1044-1052. 2. Description of the Related Art When an object is recognized using an image processing technique, analysis of a characteristic component that forms an image of the object has been most often used. At this time, the characteristic component can often be represented by a combination of a point or a linear component and a curved component. In general, an image having such a contour component is obtained by photographing an object with a television camera and digitally converting a video signal of the image through an A / D converter or the like. Digital signal processing is performed on the converted image data to calculate what shape the object has or where it is located. The first thing to do in such processing is to extract features such as contours formed by the object.

【0004】従来の画像の輪郭成分を抽出する方法とし
ては、 Sobelオペレ―タなどの微分オペレ―タを画一的
に画像全体に施した後、そのオペレ―タの出力の絶対値
をある定められた閾値と比較し、閾値以上の値を持つ画
素をエッジ点としてまず登録する。次に、そのエッジ点
と近傍点との関係を考慮して輪郭に対応するエッジ点を
選択し、曲線や直線の輪郭に相当する部分を抽出するな
どの方法がとられている。
As a conventional method of extracting a contour component of an image, a differential operator such as a Sobel operator is uniformly applied to the entire image, and then the absolute value of the output of the operator is determined. A pixel having a value equal to or greater than the threshold is registered as an edge point. Next, a method is adopted in which an edge point corresponding to the contour is selected in consideration of the relationship between the edge point and a neighboring point, and a portion corresponding to a contour of a curve or a straight line is extracted.

【0005】こうして、輪郭に対応するエッジ点が求め
られた後、直線や曲線に対応する部分を求める方法とし
ては、一般化ハフ変換(文献1参照)が考えられる。こ
れは、曲線や直線を記述するパラメ―タを求める際、エ
ッジ各点を通過するあらゆる可能なパラメ―タの候補に
投票して、パラメ―タ空間のピ―クを検出することによ
り、曲線や直線を記述するのに最適なパラメ―タを推定
する方法である。
After the edge points corresponding to the contour are obtained, a generalized Hough transform (see Document 1) can be considered as a method of obtaining a portion corresponding to a straight line or a curve. This is because when finding parameters that describe a curve or a straight line, by voting on all possible parameter candidates that pass through each point of the edge and detecting peaks in the parameter space, It is a method of estimating the optimal parameters for describing a straight line.

【0006】一般化ハフ変換では比較的安定した曲線成
分や直線成分が求められることが知られているが、エッ
ジ点を通過する可能性をもったあらゆる曲線や直線のパ
ラメ―タに投票する関係上、処理時間とパラメ―タ空間
の記憶容量が膨大となるという欠点があった。また、 S
obel微分オペレ―タや LOGオペレ―タを使用するため、
画像自体にノイズが多く含まれるときには、本来対象物
の輪郭ではないエッジ成分を多く含むこととなり、処理
に要する時間はより膨大になるという欠点があった。
It is known that the generalized Hough transform requires relatively stable curve components and straight line components. However, the relationship of voting on any curve or straight line parameter having a possibility of passing through an edge point is known. Moreover, there is a disadvantage that the processing time and the storage capacity of the parameter space are enormous. Also, S
To use the obel differential operator and LOG operator,
When the image itself contains a lot of noise, the image itself contains a lot of edge components which are not the outline of the target object, and there is a disadvantage that the time required for the processing becomes enormous.

【0007】[0007]

【発明が解決しようとする課題】近来、モデル規範型画
像認識のシステムが開発されるようになった。こうした
システムでは、抽出すべき対象のモデルをあらかじめ持
ち、どのような特徴を画像中から抽出すればよいのかが
わかっている場合がある。これは、対象物の CADモデル
などを利用し、その対象物の見える予測シ―ンをあらか
じめ生成して、それと画像内で抽出された特徴との対応
を求めることで、対象物の認識を行なうシステムなどで
ある。
Recently, a system for model-based image recognition has been developed. In such a system, there is a case where a target model to be extracted is provided in advance and it is known what features should be extracted from the image. In this method, the target object is recognized by using a CAD model of the target object, generating a prediction scene in which the target object can be seen in advance, and calculating the correspondence between the predicted scene and the feature extracted in the image. System.

【0008】例えば、前記した文献2は、移動ロボット
の位置推定を行なう際、ロボットが見るであろうシ―ン
の線画を作成し、その線画を構成する直線成分をモデル
特徴とし、その直線成分が画像内のどこにあるのか不確
定度を計算し、その不確定度に応じて直線成分を画像内
から抽出する方法を考案した。この方法では、画像内で
処理する領域やパラメ―タ空間の領域を制限して処理す
るので、ノイズの多い画像でも、比較的に安定的にモデ
ル特徴に対応する直線成分を抽出することができたが、
モデル特徴としては、直線成分に限られており、曲線成
分などから構成される複雑な形状の特徴抽出は不可能で
あった。また、この文献に述べられている方法において
は、対象物となるものは固定された位置にあり、観察者
の位置すなわちカメラの位置は平面内でだけ可動なもの
であった。従ってロボットの位置の推定はロボットの位
置姿勢を規定する3個のパラメ―タ推定問題として解い
たものにすぎなかった。したがって、より一般的な3次
元対象物体の認識や位置の推定方法を与えるものではな
かった。
For example, in the above-mentioned document 2, when estimating the position of a mobile robot, a line drawing of a scene that the robot would see is created, and the linear components constituting the line drawing are used as model features, and the linear component A method was devised to calculate the uncertainty of where is in the image and to extract the linear component from the image according to the uncertainty. In this method, the processing is performed by limiting the area to be processed in the image or the area of the parameter space, so that even in a noisy image, a linear component corresponding to the model feature can be relatively stably extracted. But
Model features are limited to straight-line components, and it is not possible to extract features of complex shapes composed of curve components and the like. Further, in the method described in this document, the target object is at a fixed position, and the position of the observer, that is, the position of the camera is movable only in a plane. Therefore, estimating the position of the robot was solved only as three parameter estimation problems that define the position and orientation of the robot. Therefore, it does not provide a more general method of recognizing a three-dimensional target object or estimating a position.

【0009】一方、文献4に表されている方法では、3
次元対象物の認識に対して、その予測図を作成し、その
予測と実際に画像から抽出された画像特徴とを比較する
ことによって、その物体の認識と位置推定を行なうこと
が提案されている。この方法では、画像からの特徴抽出
が対象モデルとは直接関係なく行なわれる。従って、モ
デル対象物以外の物体が存在すると、その物体が形成す
る輪郭特徴も同時に抽出されてしまうため、予測図内の
モデル特徴との対応をとる段階で計算量が膨大となると
いう欠点があった。
On the other hand, in the method described in Reference 4,
It has been proposed to perform a prediction diagram for the recognition of a three-dimensional object, and perform the recognition and position estimation of the object by comparing the prediction with image features actually extracted from the image. . In this method, feature extraction from an image is performed without directly relating to the target model. Therefore, if there is an object other than the model object, the contour features formed by the object are also extracted at the same time, and there is a disadvantage that the amount of calculation becomes enormous at the stage of associating with the model features in the prediction diagram. Was.

【0010】本発明の画像特徴抽出装置はこのような課
題に着目してなされたものであり、その目的とするとこ
ろは、3次元空間または2次元空間におかれている対象
物の認識や位置姿勢の推定を高速かつ効率的に実行可能
な画像特徴抽出装置を提供することにある。
The image feature extraction apparatus of the present invention has been made in view of such a problem, and its object is to recognize and position an object in a three-dimensional space or a two-dimensional space. An object of the present invention is to provide an image feature extraction device capable of quickly and efficiently performing posture estimation.

【0011】[0011]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明は、あらかじめ形状が確定的あるいは確率
的にわかっている対象物を画像の中から抽出する装置に
おいて、対象物の位置や姿勢を規定するパラメ―タの取
り得る値を確率的に予測し、その不確定度を計算する計
算手段と、上記パラメ―タの不確定度を画像面に伝播し
て、対象物を規定する特徴が存在し得る画像内の領域を
制限するかあるいはその特徴が画像内で表現されるパラ
メ―タが作るパラメ―タ空間内の存在領域を制限する制
限手段と、前記特徴を前記制限手段によって制限された
画像領域内またはパラメ―タ空間内で抽出する抽出手段
とを具備する。
In order to achieve the above object, the present invention provides an apparatus for extracting an object whose shape is known deterministically or stochastically from an image in advance. Calculation means for probabilistically predicting possible values of parameters defining the posture and attitude and calculating the degree of uncertainty, and propagating the degree of uncertainty of the above parameters to the image plane to specify the target object Limiting means for limiting an area in an image where a feature to be present may exist or limiting an area in a parameter space created by a parameter whose feature is expressed in the image; and limiting the feature to the limiting means. Extraction means for extracting within an image area or a parameter space limited by

【0012】[0012]

【作用】すなわち、本発明の画像特徴抽出装置において
は、まず、対象物の位置や姿勢を規定するパラメ―タの
取り得る値を確率的に予測し、その不確定度を計算す
る。次に、上記パラメ―タの不確定度を画像面に伝播し
て、対象物を規定する特徴が存在し得る画像内の領域を
制限するかあるいはその特徴が画像内で表現されるパラ
メ―タが作るパラメ―タ空間内の存在領域を制限する。
そして、この制限された画像領域内またはパラメ―タ空
間内で前記特徴を抽出する。
That is, in the image feature extraction apparatus of the present invention, first, the possible values of the parameters defining the position and orientation of the object are stochastically predicted, and the degree of uncertainty is calculated. Next, the degree of uncertainty of the parameter is propagated to the image plane to limit an area in the image where a feature defining the object can exist, or a parameter in which the feature is expressed in the image. Restricts the existence area in the parameter space created by.
Then, the feature is extracted in the limited image area or the parameter space.

【0013】[0013]

【実施例】以下に図面を参照して本発明の第1実施例を
説明する。本実施例で述べられている特徴抽出装置にお
いては、対象物のある基準点からの相対的形状がわかっ
ていると仮定する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the present invention will be described below with reference to the drawings. In the feature extraction device described in the present embodiment, it is assumed that the relative shape of the object from a certain reference point is known.

【0014】図2は第1実施例を実現する画像特徴抽出
装置の概観を示すブロック図である。対象物を撮影する
TVカメラ1を介して画像は撮像され、その画像信号は
ディジタル化(A/D)変換器2で画像ディジタル信号
に変換される。こうして変換された画像デ―タは、いっ
たん画像メモリ3に格納され、その後、デ―タ処理を行
なうデ―タ処理装置4に送られる。もちろん、デ―タ処
理装置4自体に画像メモリ3に対応するメモリがあれ
ば、画像メモリ3はデ―タ処理装置4に含まれてもかま
わない。また、デ―タ処理装置4は、汎用のコンピュ―
タシステムであってもかまわない。
FIG. 2 is a block diagram showing an overview of an image feature extracting apparatus which realizes the first embodiment. An image is captured via a TV camera 1 that captures an object, and the image signal is converted into an image digital signal by a digitization (A / D) converter 2. The image data thus converted is once stored in the image memory 3 and then sent to the data processing device 4 for performing data processing. Of course, as long as the data processing device 4 itself has a memory corresponding to the image memory 3, the image memory 3 may be included in the data processing device 4. The data processing device 4 is a general-purpose computer.
Data system.

【0015】図1は図2のデータ処理装置4の構成を示
す図である。対象モデル格納モジュール11には、対象
モデルが格納されており、その対象モデルは画像特徴予
測モジュール13に送られる。対象物位置・姿勢予測モ
ジュール12は、対象物の位置や姿勢を規定するパラメ
ータを予測するモジュールであり、その予測結果は画像
特徴予測モジュール13に送られる。画像特徴予測モジ
ュール13は、カメラ等撮影装置の位置(視点)の情報
と、対象物の位置や姿勢に関する情報に基づいて、対象
物をカメラで撮影した時に、その対象物を規定する可視
なモデル特徴を予測し、そのモデル特徴の情報をモデル
特徴−画像特徴対応探索モジュール15に送るととも
に、そうしたモデル特徴がそのカメラ画像中のどこにあ
ると制限されるのか、あるいはその特徴を規定するパラ
メータがパラメータ空間内でどのように制限されるかを
計算するモジュールである。
FIG. 1 is a diagram showing the configuration of the data processing device 4 of FIG. Pair Zomo Del storage module 11, object model is stored, the object model is sent to the image feature prediction module 13. The target object position / posture prediction module 12 is a module that predicts parameters that define the position and posture of the target object, and the prediction result is sent to the image feature prediction module 13. The image feature prediction module 13 is a visual model that defines the target when the target is photographed by the camera based on information on the position (viewpoint) of the photographing device such as a camera and information on the position and orientation of the target. A feature is predicted, and information of the model feature is sent to the model feature-image feature correspondence search module 15, and where the model feature is restricted in the camera image, or a parameter defining the feature is a parameter. It is a module that calculates how to be restricted in space.

【0016】この制限に関する情報は次の画像特徴抽出
モジュール14に送られる。画像特徴抽出モジュール1
4は、その各特徴を画像内から抽出するのに適当な方法
を選択し、その特徴を制限された画像空間またはパラメ
ータ空間内で抽出する。こうして画像特徴抽出モジュー
ル14で抽出された画像特徴と、画像特徴予測モジュー
ル13から送られたモデル特徴との対応が、モデル特徴
−画像特徴対応探索モジュール15で求められ、その対
応関係が対象物位置・姿勢推定モジュール16に送ら
れ、あらかじめ与えられている対象物に位置・姿勢推定
値を更新する形で、新たな推定値が求まる。
Information on this restriction is sent to the next image feature extraction module 14 . Image feature extraction module 1
4 selects an appropriate method for extracting each of the features from within the image, and extracts the features in a limited image space or parameter space. The correspondence between the image feature extracted by the image feature extraction module 14 and the model feature sent from the image feature prediction module 13 is obtained by the model feature-image feature correspondence search module 15, and the correspondence is determined by the object position. A new estimated value is obtained by being sent to the posture estimation module 16 and updating the position / posture estimation value for the given object in advance.

【0017】本実施例は特にこうしたモジュ―ルのう
ち、画像特徴を如何に効率よく抽出するかを説明したも
のであり、モデル特徴−画像特徴対応探索モジュ―ル1
5と対象物位置姿勢推定モジュ―ル16に関しては、詳
しく述べない。
This embodiment particularly describes how to efficiently extract image features among such modules. The model feature-image feature correspondence search module 1 is described.
5 and the object position / posture estimation module 16 will not be described in detail.

【0018】前記した文献2で述べられている方法は、
2次元平面上しか移動できないカメラ(ロボット)の位
置が不確定なときに、固定した環境を認識することによ
り、カメラ位置を推定する方法を与えるものであった。
これに対して本実施例で述べられているのは、特に3次
元物体の位置と姿勢が不確定なときに、その物体の3次
元的な位置と姿勢を推定するために、如何にして物体の
特徴を抽出するかを提案したものであり問題設定が本質
的に異なる。
The method described in the aforementioned reference 2 is as follows:
When the position of a camera (robot) that can move only on a two-dimensional plane is uncertain, a method of estimating the camera position by recognizing a fixed environment is provided.
On the other hand, what is described in this embodiment is how to estimate the three-dimensional position and orientation of a three-dimensional object, especially when the position and orientation of the three-dimensional object are uncertain. The problem setting is essentially different.

【0019】以下、各モジュ―ルで行なわれる処理につ
いて直線成分を抽出する場合を中心に説明する。
Hereinafter, the processing performed in each module will be described focusing on the case where a linear component is extracted.

【0020】対象モデル格納モジュ―ル11では、対象
物を記述するモデルが格納されている。対象モデルが剛
体の場合には、それを記述する方法として、対象物を表
す面領域や頂点のモデルなどから構成される。たとえ
ば、直方体を表現するのには、それを構成する6個の面
を記述する方法(面を特徴付ける4個の頂点の3次元座
標)、または直方体を構成する8個の頂点(x1,y
1,z1),…,(x8,y8,z8)によって構成す
る方法、または直方体の稜線12本を線分として、その
端点に構成する方法等がある。
The object model storage module 11 stores a model describing an object. When the target model is a rigid body, the method for describing the model is a model of a surface region or a vertex representing the target object. For example, to represent a rectangular parallelepiped, a method of describing six surfaces constituting the rectangular parallelepiped (three-dimensional coordinates of four vertices characterizing the surface) or eight vertices (x1, y
1, z1),..., (X8, y8, z8), or a method in which twelve rectangular parallelepiped ridge lines are used as line segments and formed at the end points.

【0021】いずれにしても、こうした特徴はそれを記
述するパラメ―タに基づいて表現される。図3は、対象
モデルを面情報を用いて表現したものである。図3の例
では、直方体のような多面体を表現するのに、各面を基
本要素として構成する。各面には、その面を定義する頂
点が付属されている、例えば、図3の面1は、点P1,
P2,P3,P4によって定義される。さらに各面には
その面の外向きの法線ベクトルが付属されている。
In any case, these features are expressed based on the parameters that describe them. FIG. 3 illustrates the target model using surface information. In the example of FIG. 3, each surface is configured as a basic element to represent a polyhedron such as a rectangular parallelepiped. Each surface is accompanied by vertices that define that surface. For example, surface 1 in FIG.
It is defined by P2, P3, and P4. In addition, each surface has an outgoing normal vector for that surface.

【0022】このモデル化に際して、その対象物に対し
て基準となる一点P0 と、基準となる回転姿勢Q0 を考
える。この基準原点P0 と基準姿勢Q0 を用いると、対
象物の局所座標系(x1 ,y1 ,z1 )を構成すること
ができる。図4に示されているように、P0 によって、
局所座標系の原点が定義され、Q0 によってその座標系
のx1 ,y1 ,z1 軸の方向が定義されるわけである。
対象物を構成する全ての点は、この局所座標系の3次元
点P(x1 ,y1 ,z1 )として表現することができ
る。
In this modeling, a reference point P 0 and a reference rotation posture Q 0 for the object are considered. By using the reference origin P 0 and the reference attitude Q 0 , a local coordinate system (x 1 , y 1 , z 1 ) of the object can be formed. As shown in FIG. 4, by P 0 ,
Defines the origin of the local coordinate system, is not the direction of the x 1, y 1, z 1 axis of the coordinate system by Q 0 is defined.
All points constituting the object can be represented as three-dimensional points P (x 1 , y 1 , z 1 ) in this local coordinate system.

【0023】さて、次に対象物が世界座標系(xw ,y
w ,zw )の中に置かれているとすると、その対象物は
世界座標系の中で、ある位置である姿勢を有して存在す
ることになる。従って、対象物の各点を世界座標系(x
w ,yw ,zw )で表現するためには、対象物の基準点
0 と基準姿勢Q0 が世界座標系でどのように表現でき
るかを表せばよい。今、基準原点P0 の世界座標系(x
w ,yw ,zw )での位置をP0 =(px ,py
z )とし、基準姿勢Q0 をQ0 =(φx ,φy
φz )とする。ここに、(px ,py ,pz )はP0
世界座標系におけるx,y,z座標系を表し、φx ,φ
y ,φz は、図4に示すように、それぞれ世界座標系か
らみて、xw 軸,yw 軸,zw 軸に対する回転角度を表
す。
Next, the object is moved to the world coordinate system (x w , y
w , z w ), the object exists in the world coordinate system with a certain position, that is, a posture. Therefore, each point of the object is defined in the world coordinate system (x
w, y w, in order to express at z w) is the reference point P 0 and the reference position Q 0 of the object may be expressed and how it can express the world coordinate system. Now, the world coordinate system of the reference origin P 0 (x
w, y w, z w the position of) P 0 = (p x, p y,
p z ), and the reference attitude Q 0 is Q 0 = (φ x , φ y ,
φ z ). Here, (p x , p y , p z ) represents the x, y, z coordinate system in the world coordinate system of P 0 , and φ x , φ
y, is phi z, as shown in FIG. 4, respectively viewed from the world coordinate system, represents the rotation angle x w-axis, y w axis, with respect to z w axis.

【0024】すると、対象物内の各点Pのx,y,z座
標が、局所座標系でP(x1 ,y1,z1 )の値をとる
とすると、その世界座標系での位置(xw ,yw
w )は、
If the x, y, and z coordinates of each point P in the object take the value of P (x 1 , y 1 , z 1 ) in the local coordinate system, the position in the world coordinate system is obtained. (X w , y w ,
z w )

【数1】 と斉次変換行列H=H(px ,py ,pz ;φx
φy ,φz )を用いて表すことができる。ここに、H
は、
(Equation 1) And a homogeneous transformation matrix H = H (p x , p y , p z ; φ x ,
φ y , φ z ). Where H
Is

【数2】 という移動パラメ―タを含む行列と回転パラメ―タを含
む行列に分解され、それぞれは
(Equation 2) Into a matrix containing the movement parameters and a matrix containing the rotation parameters.

【数3】 と書くことができる。(Equation 3) Can be written.

【0025】以上述べたように、対象物の各点の世界座
標系での位置は、対象物の基準原点P0 =(px
y ,pz )と基準姿勢Q0 =(φx ,φy ,φz )の
世界座標系での表現と、対象物を構成する各点は局所的
座標系(x1 ,y1 ,z1 )での相対座標を利用して表
現できる。すなわち、この対象モデルは、こうして対象
に係わるパラメ―タ群として、対象物の基準原点と基準
姿勢を組み合わせたパラメ―タp=(px ,py
z ;φx ,φy ,φz )と、対象物の局所座標系で表
現できるモデルの特徴のパラメ―タuによって表現さ
れ、それらは画像特徴予測モジュ―ル13に送られる。
As described above, the position of each point on the object in the world coordinate system is determined by the reference origin P 0 = (p x ,
py , p z ) and the reference attitude Q 0 = (φ x , φ y , φ z ) in the world coordinate system, and each point constituting the object is expressed in the local coordinate system (x 1 , y 1 , It can be expressed using the relative coordinates in z 1 ). In other words, this target model has parameters p = (p x , p y ,
p z ; φ x , φ y , φ z ) and parameters u of model features that can be expressed in the local coordinate system of the object, and these are sent to the image feature prediction module 13.

【0026】同様に対象物局所座標内で表現される線分
も、その線分の端点を対象物局所座標系で表現しておけ
ば、式(1)で表される点の変換式を利用することによ
り世界座標系での表現を求めることができる。
Similarly, for a line segment represented in the local coordinates of the object, if the end points of the line segment are represented in the local coordinate system of the object, the point conversion formula represented by the equation (1) is used. By doing so, an expression in the world coordinate system can be obtained.

【0027】さらに一般的に、各種の対象物を規定する
ようなパタ―ンや特徴は、それらを構成する点を対象物
局所座標系で表現しておき、式(1)で表される点の変
換式を利用することにより世界座標系での表現を求める
ことができる。
More generally, patterns and features that define various objects are expressed by expressing the points constituting them in an object local coordinate system and expressing the points by the equation (1). The expression in the world coordinate system can be obtained by using the conversion formula.

【0028】ある対象物を認識するときには、対象物の
大まかな位置や姿勢がわかっている場合がある。例え
ば、対象物の動きがそれまでの観察によって大まかに推
定できる場合などがその例である。いまこの場合を説明
しよう。
When recognizing a certain object, the approximate position and posture of the object may be known. For example, there is a case where the movement of the target object can be roughly estimated by observation up to that time. Let me explain this case now.

【0029】時刻t0において対象物の位置と姿勢に関
する観察が行なわれ、その対象物の位置と姿勢がp0=
(p0x ,p0y ,p0z ;φ0x ,φ0y ,φ0z
と推定され、その速度ベクトルv=(vx ,vy
z )と回転速度ベクトル(ωx,ωy ,ωz )が、t
0からt1までのW=(vx ,vy ,vz ;ωx
ωy ,ωz )としたとき、その不確定度が平均値Wバ―
と共分散行列Σwであるとみなされるとき、t1におけ
る対象物の位置と姿勢p1=(p1x ,p1y ,p
z;φ1x ,φ1y ,φ1z )は、以下のような関係
式で書けるので、Δt=t1−t0とすれば、
At time t0, observation is performed on the position and orientation of the object, and the position and orientation of the object are p0 =
(P0 x , p0 y , p0 z ; φ0 x , φ0 y , φ0 z )
And the velocity vector v = (v x , v y ,
v z ) and the rotation speed vector (ω x , ω y , ω z )
W = (v x , v y , v z from 0 to t1; ω x ,
ω y , ω z ), the uncertainty is the average value W bar
When it considered to be the covariance matrix Σw the position and orientation of the object in the t1 p1 = (p1 x, p1 y, p
1 z ; φ 1 x , φ 1 y , φ 1 z ) can be written by the following relational expression. If Δt = t1−t0, then

【数4】 その不確定度は、平均値と共分散行列を用いて表現でき
るが、平均値に関しては、
(Equation 4) The uncertainty can be expressed using the average value and the covariance matrix.

【数5】 によって求まる。ここに、Trans(* ) とRPY(* ) は、式
(3)で表された行列である。一方、共分散行列を求め
るにはp1とVの平均値p1バ―とWバ―のまわりでの
変分δp1=p1−p1バ―,δW=W−Wバ―との関
係を、(4)(5)を線形化することによって求める。
(Equation 5) Determined by Here, Trans ( * ) and RPY ( * ) are matrices represented by Expression (3). On the other hand, to obtain the covariance matrix, the relationship between the average value p1 bar of p1 and V and the variation δp1 = p1−p1 bar and δW = W−W bar around the W bar is expressed as (4 ) Is obtained by linearizing (5).

【0030】[0030]

【数6】 ここにJはp1のWに対するJacobi行列である。このよ
うに変分の関係式が求まると、p1の共分散行列は、
(Equation 6) Here, J is a Jacobi matrix for W of p1. When the variation relation is found in this way, the covariance matrix of p1 is

【数7】 と計算することができる。ここで、E[* ]は、期待値
をとるオペレ―タを表す。このように、対象物の動きの
不確定度が統計的にモデル化できるときには、その位置
と姿勢を表すパラメ―タの将来の予測を平均値や共分散
行列を用いて表現することができる。
(Equation 7) Can be calculated. Here, E [ * ] represents an operator having an expected value. As described above, when the degree of uncertainty of the movement of the target object can be statistically modeled, the future prediction of the parameters representing the position and orientation can be expressed using the average value and the covariance matrix.

【0031】このように、対象物の位置や姿勢を前もっ
て統計的に予測できる場合は他にもある。産業ロボット
などを利用して、部品の組み立てなどを行なう場合に
は、あらかじめ組み立てるべき部品が、ある指定された
場所に前もって置かれている場合が多いが、その位置は
必ずしも正確ではない、そうした場合には、対象物であ
る部品の実際に置かれている場所が指定された場所から
どの程度離れているかを表す誤差を統計的に解析するこ
とにより、その部品の位置の推定値を、平均値と共分散
行列によって表現することができる。
As described above, there are other cases where the position and orientation of the object can be statistically predicted in advance. When assembling parts using an industrial robot, etc., the parts to be assembled in advance are often placed in a specified location in advance, but the position is not always accurate. By statistically analyzing the error indicating how far the actual location of the target part is from the specified location, the estimated value of the position of the part is calculated as the average value And a covariance matrix.

【0032】対象物位置・姿勢予測モジュール12は、
このようにして対象物の位置姿勢を表すパラメータが統
計的にどのような値を取り得るかを、平均値や共分散行
列などを用いて予測するモジュールである。
The object position / posture prediction module 12
This is a module that predicts what value the parameter representing the position and orientation of the object can take statistically using an average value, a covariance matrix, and the like.

【0033】画像特徴予測モジュ―ル13は、対象物を
撮影装置(カメラ等)の位置や姿勢情報と、対象物の位
置や姿勢の推定値の情報に基づいて、対象物がどのよう
に撮影装置に映るかを予測する。これは、たとえば対象
物が3次元的に位置するところの予測値の平均値pバ―
を利用して、対象モデルから予測画像を生成する方法に
よって実現できる。こうした、予測画像を生成する方法
は、前記した文献4で述べられているように、一般に対
象物のモデルを利用することによって実現することがで
きる。
The image feature prediction module 13 captures an image of a target object based on the position and orientation information of the imaging device (camera or the like) and information on the estimated value of the position and orientation of the target object. Predict whether it will be reflected on the device. This is, for example, the average value p of predicted values where the object is located three-dimensionally.
And a method of generating a prediction image from the target model using Such a method of generating a predicted image can be generally realized by using a model of an object, as described in the above-mentioned document 4.

【0034】本実施例では図3の多面体の例で、こうし
た予測図がどのように生成されるかを説明する。多面体
の場合には、各面を構成するのは、その境界を表す線分
である。したがって、予測図では、そうした線分のどの
がカメラが置かれている視点から見えるか否か(可
視か、不可視か)を決定すればよい。これを実現するた
めに、各線分上の点と視点とを結ぶ線分が他の面と交差
するか否かを順次調べ、もしいずれの面とも交差しなけ
れば、その点は可視な点として登録してゆくという方法
を取ることにより、予測画を生成することができる。図
5はその出力例を表したものである。この図で表されて
いるように、9本の線分
In this embodiment, how the prediction diagram is generated will be described with reference to the example of the polyhedron shown in FIG. In the case of a polyhedron, each surface is constituted by a line segment representing its boundary. Therefore, the prediction view, whether (or visible or invisible) which <br/> unit content of such a line segment is visible from a viewpoint camera is located may be determined. In order to realize this, it is sequentially checked whether or not the line segment connecting the point on each line segment and the viewpoint intersects with another surface. If the line segment does not intersect with any surface, the point is regarded as a visible point. By taking the method of registration, a predicted image can be generated. FIG. 5 shows an example of the output. As shown in this figure, nine line segments

【数8】 が可視な線分として出力される。この際重要なのは、画
像特徴予測モジュール13では、その出力を対象物局所
座標系でのパラメータとして表現している点である。上
記可視なモデル特徴群L1,L2,L3,…,L9は、
本実施例では詳しく説明しないモデル特徴−画像特徴対
応探索モジュール15に送られる。
(Equation 8) Is output as a visible line segment. What is important at this time is that the image feature prediction module 13 expresses the output as a parameter in the target object local coordinate system. The visible model feature groups L1, L2, L3,.
It is sent to the model feature-image feature correspondence search module 15 which will not be described in detail in this embodiment.

【0035】こうして、一つの予測画像が生成される
と、次にその予測画像から対象物を規定する特徴を選択
することができる。この特徴としては、特徴点、線分、
あるいは曲線などを考えることができる。次にこうした
特徴が画像内またはパラメ―タ空間内でどのような特徴
を示すかを説明する。前記した文献2で述べられた方法
では、完全にモデル化された動かない環境の中を動くロ
ボットの位置を推定するために、ロボットの位置不確定
度を画像内に伝播した。以下に説明する方法は、その逆
の作業である。すなわち、位置が不確定な対象物を、固
定された撮影装置で撮影したときに、その対象物の画像
内での位置不確定度がどのようになるかを計算するわけ
である。
When one predicted image is generated in this way, it is possible to select a feature defining an object from the predicted image. These features include feature points, line segments,
Alternatively, a curve or the like can be considered. Next, description will be made on how such features show in an image or in a parameter space. In the method described in Reference 2, the degree of position uncertainty of the robot is propagated in the image in order to estimate the position of the robot moving in a completely modeled and immobile environment. The method described below is the reverse operation. That is, when an object whose position is uncertain is photographed by a fixed photographing device, the degree of position uncertainty in the image of the object is calculated.

【0036】こうした場合には、対象物の基準となる位
置P0 と姿勢Q0 の世界座標系での表現に対して推定値
を利用することができる。具体的には、p=(px ,p
y ,pz ;φx ,φy ,φz )で使用される6個のパラ
メ―タを確率的に表現したり、ある領域制限を用いて表
現したりすることができる。
In such a case, the estimated values can be used for the representation in the world coordinate system of the position P 0 and the attitude Q 0 as the reference of the object. Specifically, p = (p x , p
y , p z ; φ x , φ y , φ z ) can be stochastically expressed or expressed using a certain area restriction.

【0037】こうしたパラメ―タを確率的に表現する方
法の一つは(px ,py ,pz ;φx ,φy ,φz )の
平均値と共分散行列を用いるものである。こうした確率
的な表現を利用すると、さらに適当な閾値を用いること
によって、パラメ―タの存在範囲を制限することができ
る。pの平均値pバ―とpの共分散行列Σp を利用する
と、適当な閾値dを利用して、
One method of stochastically expressing such parameters is to use the average value of (p x , p y , p z ; φ x , φ y , φ z ) and the covariance matrix. If such a stochastic expression is used, the range of the parameter can be limited by using an appropriate threshold value. Using the average p bar of p and the covariance matrix Σ p of p , using an appropriate threshold d,

【数9】 なる集合を定義すると、閾値dを制御することによっ
て、pの存在する範囲を制限することができる。
(Equation 9) When a set is defined, the range in which p exists can be limited by controlling the threshold value d.

【0038】また領域によって制限する方法とは、p=
(px ,py ,pz ;φx ,φy ,φz )の取り得る領
域をある領域に限定することを意味する。例えば、
The method of restricting by the area is as follows.
(P x , p y , p z ; φ x , φ y , φ z ) means that the possible area is limited to a certain area. For example,

【数10】 で限定される空間Bによって限定する方法などがある。
ここで、αx ,βx ,…,γz ,εz などは、定数であ
る。
(Equation 10) There is a method of limiting by a space B defined by
Here, α x , β x ,..., Γ z , ε z are constants.

【0039】いま、対象物の特徴を規定する対象物の局
所座標系でのパラメ―タをuとする。このuとしては、
3次元点の位置座標や曲線を記述する方向ベクトル等
で、対象物の3次元空間中での特徴となるものを表すパ
ラメ―タである。
Now, let u be a parameter in the local coordinate system of the object that defines the characteristics of the object. As u
This is a parameter representing a position coordinate of a three-dimensional point, a direction vector describing a curve, or the like, which is a feature of a target object in a three-dimensional space.

【0040】話を簡単にするため、対象物局所座標系で
の位置座標u=(x,y,z)を有する3次元点Pを対
象物の特徴とし、その点特徴をカメラによって観察する
場合を考える。世界座標系での対象物の位置P0 と姿勢
0 が不確定であるために、カメラでこの特徴点を観察
するとその像のカメラ画像内での位置と姿勢も不確定と
なる。それがどの程度不確定かを表現するためには、P
0 とQ0 の不確定度をカメラ画像内の像に伝播すればよ
い。前記した文献2のペ―ジ281−282に表されて
いるように、まず対象局所座標系での3次元点P(x,
y,z)とそのカメラ像P′との関係を定式化する。簡
単のために、撮影装置をTVカメラ1として、それをピ
ンホ―ル型のカメラとしてモデル化したとする。さらに
カメラが正しく較正されているとすると、カメラ画像内
の点P′の位置v=(r,c)は、
For the sake of simplicity, a case where a three-dimensional point P having position coordinates u = (x, y, z) in the local coordinate system of an object is set as a feature of the object and the point feature is observed by a camera think of. Since the position P 0 and posture Q 0 of the object in the world coordinate system are uncertain, observing this feature point with the camera also makes the position and posture of the image in the camera image uncertain. To express how uncertain it is, P
What is necessary is just to propagate the uncertainties of 0 and Q 0 to the image in the camera image. As shown in the pages 281 to 282 of Document 2 described above, first, a three-dimensional point P (x,
y, z) and the relationship between the camera image P ′ are formulated. For simplicity, it is assumed that the photographing device is modeled as a TV camera 1 and is modeled as a pinhole type camera. Further, assuming that the camera is correctly calibrated, the position v = (r, c) of the point P ′ in the camera image is

【数11】 ここに、T=(tij)(i=1,2,3;j=1,
2,3,4)はカメラ較正行列とよばれ3×4の実行列
である。H=H(px ,py ,pz ;φx ,φy
φz )は4×4の行列で、式(2)、(3)に示される
対象物局所座標系から世界座標系への変換行列である。
さらに、wは遠近効果を表すパラメ―タであり、実際の
画像内の位置v(c,r)は、(rw/w,cw/w)
の演算によって得ることができる。
[Equation 11] Here, T = (tij) (i = 1, 2, 3; j = 1,
(2, 3, 4) is a 3 × 4 execution sequence called a camera calibration matrix. H = H (p x , p y , p z ; φ x , φ y ,
φ z ) is a 4 × 4 matrix, which is a transformation matrix from the object local coordinate system shown in Expressions (2) and (3) to the world coordinate system.
Further, w is a parameter representing the perspective effect, and the actual position v (c, r) in the image is (rw / w, cw / w)
Can be obtained.

【0041】さて、P0 とQ0 に含まれている不確定度
を3次元特徴点uのカメラ像(r,c)に伝播するため
には、まずP0 とQ0 の不確定度をpの平均値pバ―と
pの共分散行列Σp によって表現しておく。この方法に
関しては、前述した通りである。すると、v=(r,
c)の平均値vバ―=(rバ―,cバ―)は、遠近効果
を表すパラメ―タwの平均値wバ―を利用して、
Now, in order to propagate the uncertainties included in P 0 and Q 0 to the camera image (r, c) of the three-dimensional feature point u, first, the uncertainties of P 0 and Q 0 are calculated. It is represented by the average value p of p and the covariance matrix Σ p of p . This method is as described above. Then, v = (r,
The average value v bar of c) = (r bar, c bar) is obtained by using the average value w bar of the parameter w representing the perspective effect.

【数12】 で求まる。さらに、式(12)を変形し、wの項を除去
した後、r,cをpの関数として表す。その後、その方
程式に関して、pバ―,vバ―=(rバ―,cバ―)の
まわりでの変分δp=p−pバ―,δv=v−vバ―を
考えれば、
(Equation 12) Is determined by Further, after transforming equation (12) and removing the term of w, r and c are represented as functions of p. Then, with respect to the equation, considering the variation δp = pp bar, δv = vv bar around p bar, v bar = (r bar, c bar),

【数13】 と書くことができる。ここに、Fは(r,c)のpに対
するJacobi行列である。するとvの共分散行列Σvは、
期待値をとるオペレ―タをE[* ]とすると、
(Equation 13) Can be written. Here, F is a Jacobi matrix for (r, c) with respect to p. Then the covariance matrix Σv of v is
Assuming that the operator taking the expected value is E [ * ],

【数14】 と書くことができる。ここで、対象物の位置姿勢パラメ
―タpの共分散に関する関係式、
[Equation 14] Can be written. Here, a relational expression relating to the covariance of the position and orientation parameter p of the object,

【数15】 を用いた。(Equation 15) Was used.

【0042】以上のように、v=(r,c)の平均値と
共分散行列を求めることができる。さらに、このv=
(r,c)の平均値と共分散行列に基づいて、vの存在
する範囲を確率的に制限することができる。例えば、
As described above, the average value and the covariance matrix of v = (r, c) can be obtained. Furthermore, this v =
Based on the average value of (r, c) and the covariance matrix, the range in which v exists can be stochastically limited. For example,

【数16】 で表現される空間を定義し、ある閾値dを制御変数とし
て、領域をA(vバ―,Σv ;d)によって制限すれば
よい。ここで、制御変数dを大きくとれば、より大きな
確率でvはA(vバ―,Σv ;d)の中に含まれること
になる。
(Equation 16) Is defined, and the area may be limited by A (v bar, Σ v ; d) using a certain threshold d as a control variable. Here, if the control variable d is made large, v will be included in A (v bar, Σ v ; d) with a higher probability.

【0043】図6は、対象物の位置姿勢のパラメ―タに
含まれる不確定度をカメラ画像内に伝播した場合の例を
示したものである。図6(a)は対象物局所座標系の原
点P0の持つ位置姿勢不確定度を楕円体で表したもので
ある。図6(b)は、画像特徴として点を選択したと
き、カメラ画像面に出現が予測される特徴点がどのよう
な不確定度を持つかを表したものである。
FIG. 6 shows an example in which the degree of uncertainty included in the parameters of the position and orientation of the object is propagated in the camera image. FIG. 6A illustrates the position and orientation uncertainty of the origin P0 of the local coordinate system of the object by using an ellipsoid. FIG. 6B illustrates the degree of uncertainty of a feature point predicted to appear on the camera image plane when a point is selected as an image feature.

【0044】以上では、特徴として3次元点を用いた
が、対象物を規定するいろいろな特徴は、一般的に対象
物の局所座標系のもとで、あるパラメ―タuによって表
現することができる。特徴がパラメ―タ化できるときに
は、その特徴がカメラ像として表出するときのパラメ―
タに変換する式を求める。例えば、対象物上の特徴点
は、カメラ画像上で点としてパラメ―タ化され、対象物
上の線分特徴は、カメラ画像上でも線分として表出し、
パラメ―タ化することができる。次に、対象物と姿勢に
含まれている不確定度をカメラ像のパラメ―タに伝播
し、その不確定度に基づいてカメラ像パラメ―タ空間の
制限を行なう。
In the above description, a three-dimensional point is used as a feature. However, various features defining an object can be generally represented by a certain parameter u under the local coordinate system of the object. it can. When a feature can be parameterized, the parameter when the feature is expressed as a camera image
Find the formula to be converted to data. For example, feature points on the object are parameterized as points on the camera image, and line segment features on the object are expressed as line segments on the camera image,
It can be parameterized. Next, the uncertainty included in the object and the posture is propagated to the parameters of the camera image, and the camera image parameter space is restricted based on the uncertainty.

【0045】上記の例では、点特徴の場合について、そ
の解法を詳しく述べたが、対象物をパラメ―タuで記述
するような一般的な場合には、以下のような方法によっ
て不確定度を伝播することができる。
In the above example, the method of solving the point feature has been described in detail. However, in the general case where the object is described by the parameter u, the uncertainty is determined by the following method. Can be propagated.

【0046】(1)対象物の位置・姿勢をパラメ―タ化
する。例えばその値をpとする。pに関する平均値pバ
―と共分散行列Σp を求める。
(1) Parameterize the position and orientation of the object. For example, let that value be p. An average value p bar and a covariance matrix Σp regarding p are obtained.

【0047】(2)対象物の特徴をパラメ―タを用いて
表現する。そのパラメ―タは、対象物の局所座標系で表
現されるものである。例えば、その特徴のパラメ―タを
uとする。
(2) Express the feature of the object using parameters. The parameters are expressed in the local coordinate system of the object. For example, let u be the parameter of the feature.

【0048】(3)対象物の特徴に対応するカメラ画像
の特徴を選択し、その特徴をカメラ画像内で表現するた
めのパラメ―タvを設定する。
(3) A feature of the camera image corresponding to the feature of the object is selected, and a parameter v for expressing the feature in the camera image is set.

【0049】(4)u,v,pを関連づけるパラメ―タ
間の方程式f(u,v,p)=0を求める。次に、パラ
メ―タvに関連する不確定度を計算する。まず、平均値
vバ―を求めるには、方程式
(4) An equation f (u, v, p) = 0 between parameters relating u, v, p is obtained. Next, the degree of uncertainty associated with the parameter v is calculated. First, to find the average value v bar, use the equation

【数17】 を解けばよい。一方、共分散行列Σvを求めるために
は、f(u,v,p)=0の方程式の平均値pバ―,v
バ―のまわりでの変分をとることにより求める。具体的
には、
[Equation 17] Can be solved. On the other hand, in order to obtain the covariance matrix Σv, the average value pbar, v of the equation of f (u, v, p) = 0
It is determined by taking the variation around the bar. In particular,

【数18】 の変分方程式において、f(u,pバ―,vバ―)=0
であることを利用すると、
(Equation 18) F (u, p bar, v bar) = 0
By taking advantage of

【数19】 が利用でき、最後に[Equation 19] Available and finally

【数20】 という線形方程式によって、変分δvを変分δpによっ
て表現することができる。今、前式の変換行列の部分を
Fで表すとすると、
(Equation 20) The variation δv can be represented by the variation δp. Now, if the part of the transformation matrix of the previous equation is represented by F,

【数21】 で表現される方程式が求められ、このことから、vの共
分散行列Σvは、
(Equation 21) Is obtained, and from this, the covariance matrix Σv of v is

【数22】 の形で表現できる。その後、適当な閾値dを選択して、
式(19)で示されるパラメ―タ領域A(vバ―,
Σv ;d)に限定される。図6(b)のフレ―ム内の楕
円は、こうした画像特徴点の存在制限領域を表したもの
である。
(Equation 22) Can be expressed in the form Then, select an appropriate threshold d,
The parameter area A (v bar,
Σ v ; d). The ellipse in the frame in FIG. 6B represents such an area where the image feature points are restricted.

【0050】以上の例では、特徴が単一のパラメ―タに
よって表現できる場合について説明したが、複数のパラ
メ―タを結合して一つの特徴を表現する場合もある。例
えば、直線成分で、その2個の端点の位置座標がパラメ
―タとして与えられている場合には、前記した文献2が
説明しているように、直線成分全体のカメラ画像内の位
置不確定度を次のようにして求めることができる。
In the above example, the case where a feature can be represented by a single parameter has been described. However, a single feature may be represented by combining a plurality of parameters. For example, when the position coordinates of the two end points are given as parameters in the linear component, the position of the entire linear component in the camera image is uncertain as described in the above-mentioned document 2. The degree can be determined as follows.

【0051】まず、直線成分特徴の各端点に関して、そ
のカメラ画像内の位置不確定度を求め、その位置不確定
度から作られる制限領域を組み合わせることによって、
直線の存在制限領域を算出することができる。図7
(a)、(b)、(c)はこの方法を表したものであ
る。図7(a)は、直線成分の2端点P1とP2の存在
制限領域を構築したものである。図7(b)は、これら
端点の存在制限領域から、それを含む凸閉包を作り、そ
れを直線成分P1 2 の存在制限領域としたものであ
る。この存在制限領域は必ずしも、図7(b)のよう
に、最小の閉領域で構成する必要はない。例えば、図7
(c)で示されるように、直方領域で近似しても構わな
い。
First, for each end point of the linear component feature, the degree of position uncertainty in the camera image is obtained, and a restricted area created from the degree of position uncertainty is combined.
It is possible to calculate a straight line presence restriction area. FIG.
(A), (b), and (c) show this method. FIG. 7A shows the construction of a restricted area where two end points P1 and P2 of the linear component exist. FIG. 7B shows that a convex hull including the end points is formed from the restricted areas, and is used as the restricted area of the linear component P 1 P 2 . This existence restriction area does not necessarily need to be constituted by a minimum closed area as shown in FIG. For example, FIG.
As shown in (c), it may be approximated by a rectangular area.

【0052】直線成分の抽出に関しては、ハフ変換が有
効な手段であることが知られている(文献2、ペ―ジ2
85)。文献2のペ―ジ300で示されているようにあ
らかじめ直線成分は、3次元空間内で、
It is known that the Hough transform is an effective means for extracting a linear component (Ref. 2, page 2).
85). As shown on page 300 of Reference 2, the linear components are previously calculated in a three-dimensional space.

【数23】 と表すことができる。ここに、[a,b,c]T は、直
線の方向を規定する方向余弦、[x0 ,y0 ,z0 T
は直線上の任意の一点、tは媒介変数である。こうした
3次元上の直線をピンホ―ルモデルで近似できるカメラ
で撮影すると、その像はやはり直線としてカメラ画像上
に現れる。図8にあるように、その直線を原点からの距
離ρと、直線の法線の方向γによって表現したのがハフ
変換であり、(ρ,γ)が作る空間はハフ空間と呼ばれ
る。もし、対象物の位置と姿勢の基準パラメ―タP0
0 の値が不確定のときには、こうしたハフ変換のパラ
メ―タのカメラ画像内における値も不確定となる。
(Equation 23) It can be expressed as. Here, [a, b, c] T is a direction cosine that defines the direction of a straight line, and [x 0 , y 0 , z 0 ] T
Is an arbitrary point on the straight line, and t is a parameter. When such a three-dimensional straight line is photographed by a camera that can be approximated by a pinhole model, the image also appears on the camera image as a straight line. As shown in FIG. 8, the Hough transform expresses the straight line by the distance ρ from the origin and the direction γ of the normal of the straight line, and the space created by (ρ, γ) is called the Hough space. If the values of the reference parameters P 0 and Q 0 for the position and orientation of the object are uncertain, the values of these Hough transform parameters in the camera image are also uncertain.

【0053】前述したようにP0 とQ0 の不確定度をハ
フ変換パラメ―タに伝播することにより、ハフ変換パラ
メ―タの不確定度を計算することができる。いま、この
v=(ρ,γ)の対応するパラメ―タの平均値をvバ―
=(ρバー,γバー)、共分散行列をΣvとする。図9
は、ハフ空間内の不確定度を表したものである。
As described above, by transmitting the uncertainties of P 0 and Q 0 to the Hough transform parameter, the uncertainty of the Hough transform parameter can be calculated. Now, the average value of the parameters corresponding to v = (ρ, γ) is calculated as v bar
= (Ρ bar, γ bar), and let the covariance matrix be Σv. FIG.
Represents the degree of uncertainty in Hough space.

【0054】いったん、ハフ変換パラメ―タの不確定度
が計算できると、下式で示されているように、閾値dを
用いて、ハフ変換パラメ―タの存在領域を限定すること
ができる。
Once the degree of uncertainty of the Hough transform parameter can be calculated, the existence area of the Hough transform parameter can be limited by using the threshold value d as shown in the following equation.

【0055】[0055]

【数24】 この限定の方法は、式(19)に表されている方法と同
様である。実際には直線成分を抽出するためには、この
限定した領域の範囲だけについて、対応する直線成分を
抽出すればよいことになる。このように、画像特徴予測
モジュ―ル13で対象物を規定する特徴がどのような見
え方をし、その特徴を表現するパラメ―タがどのような
値を取り得るのかが計算される。
(Equation 24) This limiting method is the same as the method represented by Expression (19). Actually, in order to extract a linear component, it is sufficient to extract a corresponding linear component only in the range of the limited area. In this way, the image feature prediction module 13 calculates how the feature defining the object looks and what value the parameter expressing the feature can take.

【0056】次に、画像特徴抽出モジュ―ル14では、
画像特徴予測モジュ―ル13で選択されたモデル特徴を
カメラ画像の中から抽出することがおこなわれる。ここ
では、P1 ,P2 を端点とする直線成分P1 2 の抽出
を例として説明する。画像特徴予測モジュ―ル13で作
られたある直線に関する情報は、 (1)直線成分の端点のカメラ画像内での位置の不確定
度 (2)直線成分のハフ変換パラメ―タの不確定度 の2点であった。画像特徴抽出モジュ―ル14では、こ
うした情報を利用して、直線成分特徴を抽出する方法を
選択する。
Next, in the image feature extraction module 14,
The model feature selected by the image feature prediction module 13 is extracted from the camera image. Here, the extraction of a straight line component P 1 P 2 having P 1 and P 2 as end points will be described as an example. Information on a certain straight line created by the image feature prediction module 13 is as follows: (1) Uncertainty of the position of the end point of the straight line component in the camera image (2) Uncertainty of the Hough transform parameter of the straight line component 2 points. The image feature extraction module 14 uses such information to select a method for extracting the linear component feature.

【0057】直線成分を抽出するには、以下のような方
法を用いる。
To extract a linear component, the following method is used.

【0058】(1)直線成分のハフ変換パラメ―タの存
在領域に対応するハフ累積行列D(ρ,γ)を用意す
る。ここで、ハフ空間は適当に離散化しておく。この行
列の大きさは、ハフ変換パラメ―タの限定された大きさ
に対応する。例えば、いまρの取り得る範囲を[ρmin
,ρmax ]、γの取り得る範囲を[γmin ,γmax ]
とすれば、この行列は、上記のρ,γの範囲を包含する
ものであればよい。次に、このハフ累積行列D(ρ,
γ)を零初期化する。
(1) A Hough accumulation matrix D (ρ, γ) corresponding to the area where the Hough transform parameter of the linear component exists is prepared. Here, the Huff space is appropriately discretized. The size of this matrix corresponds to the limited size of the Hough transform parameter. For example, the range that ρ can take now is [ρmin
, Ρmax] and the possible range of γ are [γmin, γmax]
In this case, the matrix only needs to include the above ranges of ρ and γ. Next, this Huff accumulation matrix D (ρ,
γ) is initialized to zero.

【0059】(2)限定された画像空間を長方領域[rm
in,rmax,cmin,cmax]で近似し、その領域に対して、
所望の平均的傾き(ハフ変換パラメ―タγは直線成分の
法線方向を表すので、γに直交する方向が直線成分の傾
きに相当する)に特に感度のある微分オペレ―タを施
す。こうしたオペレ―タの例は、例えば、前記した文献
3のpp.403-410のIntegrated Directional Derivative
Gradient Operator で示されているように、線形型のフ
ィルタで構成することができる。この特別なフィルタを
適用するのは、できるだけノイズの影響を抑えて、所望
の方向の直線成分を検出するためである。そしてこのフ
ィルタを限定された画像領域に適用する。
(2) The limited image space is converted into a rectangular area [rm
in, rmax, cmin, cmax].
A differential operator which is particularly sensitive is applied to a desired average slope (the Hough transform parameter γ indicates the normal direction of the linear component, and the direction orthogonal to γ corresponds to the slope of the linear component). An example of such an operator is described in, for example, the Integrated Directional Derivative in pp. 403-410 of Reference 3 described above.
As shown in Gradient Operator, it can be composed of linear filters. This special filter is applied in order to detect a linear component in a desired direction while suppressing the influence of noise as much as possible. Then, this filter is applied to the limited image area.

【0060】フィルタの出力の絶対値がある閾値より大
きな画素(r,c)に関しては、その画素は所望の直線
成分に対応するエッジを構成する可能性があると考え、
γの取り得る全ての範囲の角度方向についてそれに対応
するρを計算する。すなわち、γをγmin からγmax ま
で値を変えながら、
Regarding a pixel (r, c) whose absolute value of the output of the filter is larger than a certain threshold value, it is considered that the pixel may form an edge corresponding to a desired linear component.
The corresponding ρ is calculated for all possible angular directions of γ. That is, while changing γ from γmin to γmax,

【数25】 を計算し、それに対応する(ρ,γ)のハフ累積行列の
要素の値D(ρ,γ)を1増やす。
(Equation 25) Is calculated, and the value D (ρ, γ) of the element of the Hough accumulation matrix of (ρ, γ) corresponding thereto is increased by one.

【0061】以上のことを、限定された画像領域内の全
ての画素について繰り返す。
The above is repeated for all the pixels in the limited image area.

【0062】(3)ハフ累積行列D(ρ,γ)の中から
ピ―クを捜し、そのピ―クに対応する直線成分を限定さ
れた画像内で本当に直線成分として存在する時には、そ
のピ―クに対応する直線成分として登録する。このステ
ップ(3)の操作をある所望の直線成分が検出できる
か、ある一定以上の大きさのピ―クが検出できるまで、
繰り返す。
(3) A peak is searched for in the Hough accumulation matrix D (ρ, γ), and when a linear component corresponding to the peak really exists as a linear component in the limited image, the peak is searched for. -Registered as a linear component corresponding to The operation of step (3) is performed until a desired linear component can be detected or a peak of a certain size or more can be detected.
repeat.

【0063】以上のような操作(1)、(2)、(3)
をすることで画像内の処理をする領域を限定するので、
高速な処理が実現可能となる。また、特別なフィルタを
適用することで、ノイズの影響をできるだけ受けないで
直線成分を抽出することができる。もう一つ重要なこと
として、前記した文献2で述べられた方法では、平面上
を動くロボットの位置と姿勢の推定のための直線成分の
画像特徴抽出方法を述べただけであり、位置と姿勢が不
確定な3次元対象物の画像特徴を抽出する方法は与えて
いなかった。この文献2の方法より複雑な問題を解決す
るために、本実施例では、3次元対象物の位置姿勢不確
定度を上記した方法によって画像面やパラメ―タ空間に
効率よく伝播しているわけである。
The above operations (1), (2), (3)
By doing so, the area to be processed in the image is limited,
High-speed processing can be realized. In addition, by applying a special filter, a linear component can be extracted with as little influence of noise as possible. Another important point is that the method described in the above-mentioned document 2 only describes a method of extracting image features of linear components for estimating the position and posture of a robot moving on a plane. Does not provide a method for extracting the image features of a three-dimensional object in which is uncertain. In order to solve a more complicated problem than the method of Reference 2, in this embodiment, the degree of uncertainty of the position and orientation of the three-dimensional object is efficiently propagated to the image plane and the parameter space by the above-described method. It is.

【0064】以下に、第2実施例を説明する。第2実施
例は、対象物の特徴が曲線として表されるものに関し
て、その抽出方法を表したものである。対象モデル格納
モジュ―ル11と対象物位置・姿勢予測モジュ―ル12
の機能は、実施例1の場合と同様なので、ここでは、画
像特徴予測モジュ―ル13と特徴抽出モジュ―ル14の
機能について述べる。
The second embodiment will be described below. In the second embodiment, a method of extracting a characteristic of a target object as a curve is shown. Object model storage module 11 and object position / posture prediction module 12
The functions of the image feature prediction module 13 and the feature extraction module 14 will be described here.

【0065】対象モデル格納モジュ―ル11が対象物の
モデル情報を画像特徴予測モジュ―ル13に送った後、
画像特徴予測モジュ―ル13では、その予測画に現れる
曲線成分を選択する。
After the object model storage module 11 sends the model information of the object to the image feature prediction module 13,
The image feature prediction module 13 selects a curve component appearing in the predicted image.

【0066】もし、特徴が曲線として表示される時に
は、その曲線を構成する代表点を求め、その代表点に対
する画像内での不確定度をまず求め、それら不確定領域
の閉包を考えることにより、曲線の画像内の存在領域を
制限することができる。
If the feature is displayed as a curve, the representative points constituting the curve are determined, the degree of uncertainty in the image with respect to the representative point is first determined, and the closure of these uncertain areas is considered. It is possible to limit the region where the curve exists in the image.

【0067】曲線の予測生成を行なうには、まずそのモ
デルとなる曲線代表点の不確定度を平均値と分散によっ
て求めておく。
For predictive generation of a curve, first, the degree of uncertainty of a curve representative point serving as a model is obtained from an average value and a variance.

【0068】モデル曲線は、一般的にパラメ―タを使用
して
The model curve is generally calculated using parameters.

【数26】 の形で記述される。ここに(r,c)は、画像の行・列
方向を表すパラメ―タであり、tは曲線をその1端点か
ら長さを規定するパラメ―タである。pは曲線の特性を
表すパラメ―タである。
(Equation 26) It is described in the form of Here, (r, c) is a parameter representing the row / column direction of the image, and t is a parameter defining the length of the curve from one end point thereof. p is a parameter representing the characteristic of the curve.

【0069】曲線全体が一つのセグメントとして抽出す
るのが困難と判断できる場合には、曲線成分が複数の曲
線成分に分割される。分割される曲線成分のことをい
ま、モデル曲線セグメントと命名することにする。この
分割方法としては、例えば以下のような方法を考えるこ
とができる。
When it is determined that it is difficult to extract the entire curve as one segment, the curve component is divided into a plurality of curve components. The curve component to be divided is now called a model curve segment. As this dividing method, for example, the following method can be considered.

【0070】(1)モデル曲線を均等な間隔で分割す
る。図10(a)に示されているように、モデル曲線の
長さを基準として、曲線を分割して、曲線セグメントを
生成する。
(1) The model curve is divided at equal intervals. As shown in FIG. 10A, the curve is divided based on the length of the model curve to generate a curve segment.

【0071】(2)モデル曲線の端点を結ぶ直線と曲線
内の最遠点との距離があるしきい値を超えたときには、
その曲線を最遠点で2分割し、さらにその分割された2
つの曲線成分に同様な処理を施し、曲線上の点と端点を
結ぶ直線間の最遠距離がある一定の閾値になるまで、曲
線の分割を繰り返す。図10(b)に示されているよう
に、端点P1 とP2 を結ぶ線分から最も離れた点Pm
曲線P1 2 の間に求める。Pm から線分P1 2 まで
の距離dがある閾値より小さければ、曲線P1 2 を一
つの曲線セグメントとして登録する。その閾値より大き
ければ、曲線をP1 m とPm 2 の二つのセグメント
に分割し、その二つのセグメントに関して同様な分割を
行なう。
(2) When the distance between the straight line connecting the end points of the model curve and the farthest point in the curve exceeds a certain threshold value,
The curve is divided into two at the farthest point, and the divided two
The same process is performed on the two curve components, and the curve division is repeated until the longest distance between the straight line connecting the point on the curve and the end point reaches a certain threshold. As shown in FIG. 10 (b), determine the most distant point P m from the line segment connecting the end points P 1 and P 2 between the curve P 1 P 2. Smaller than a certain threshold distance d from P m to the line segment P 1 P 2, it registers the curve P 1 P 2 as one curve segment. If it is greater than the threshold, the curve is divided into two segments, P 1 P m and P m P 2 , and a similar division is performed on the two segments.

【0072】(3)モデル曲線の2端点と曲線内の最遠
点とが作る3角形の最遠点での内角がある閾値よりも小
さいときは、最遠点で2分割し、その分割された2つの
曲線成分について、同様な処理を施す。図10(c)に
示されているように、線分P12 から最も離れた曲線
上の点Pm を求め、P1 m 2 が作る角度を調べ、そ
の値がある閾値より小さければ、曲線P1 2 を一つの
曲線として登録する。もしそうでなければ、曲線を2つ
の曲線セグメントP1 m とPm 2 を生成して、それ
ぞれの曲線セグメントについて同様の分割を繰り返す。
(3) If the interior angle at the farthest point of the triangle formed by the two end points of the model curve and the farthest point in the curve is smaller than a certain threshold value, the farthest point is divided into two parts, which are divided. The same processing is performed on the two curve components. As shown in FIG. 10 (c), a point P m on the curve farthest from the line segment P 1 P 2 is obtained, an angle formed by P 1 P m P 2 is checked, and the value is calculated from a certain threshold value. If smaller, the curve P 1 P 2 is registered as one curve. If not, the curve is generated into two curve segments P 1 P m and P m P 2 and the same division is repeated for each curve segment.

【0073】(4)モデル曲線の1端点を始点とし、そ
の始点からモデル曲線を構成する代表点を追跡し、その
代表点における接線方向の角度を調べる。上記1端点を
基準とした接線方向の角度変化があるしきい値を超えた
ときには、端点からその代表点までの曲線成分を1つの
モデル曲線セグメントとして登録するとともに、その代
表点を新たな始点として、同様な処理を繰り返す。図1
0(d)に示されているように、曲線上に代表点P1
2 ,…,P8 をとり、各代表点Pi(i=1,2,
…,8)での接線の方向を始点P1 から順に計算する。
もしあるPiに関して、P1 とPi の接線のなす角度φ
i がある閾値を超えたときには、P1 i を曲線セグメ
ントとして登録し、次にPi を始点として同様な処理を
繰り返す。この操作は、始点が終点と一致するまで行な
われる。
(4) Starting from one end point of the model curve, a representative point constituting the model curve is traced from the start point, and the tangential angle at the representative point is examined. When the angle change in the tangential direction with respect to the one end point exceeds a certain threshold value, the curve component from the end point to the representative point is registered as one model curve segment, and the representative point is set as a new start point. And the same processing is repeated. FIG.
0 (d), the representative points P 1 ,
P 2 ,..., P 8 , and each representative point Pi (i = 1, 2, 2,
..., to calculate the tangent direction at 80) from the start point P 1 in the order.
If regard is Pi, the angle of the tangent of P 1 and P i phi
When i exceeds a certain threshold value, P 1 P i is registered as a curve segment, and the same processing is repeated with P i as a starting point. This operation is performed until the start point coincides with the end point.

【0074】もちろん、曲線の分割は上記の方法に限定
されるわけではない。こうして、分割がなされた後、各
領域でそれぞれの特徴に見合った方法で、曲線セグメン
トが抽出される。こうした曲線セグメントに関して、そ
の曲線セグメントをもっとも抽出しやすいような方法が
選択される。もう少し具体的に述べれば、与えられたモ
デル曲線セグメントをある領域内で、ある角度方向を持
ったほぼ直線に近い成分としてセグメント化することに
よっておこなう。こうして分割された曲線セグメントの
総数をNとする。
Of course, the division of the curve is not limited to the above method. After the division, the curve segments are extracted in a manner suitable for each feature in each region. With respect to such curve segments, the method is selected that will most easily extract the curve segments. More specifically, this is performed by segmenting a given model curve segment within a certain area as a component that is almost linear and has a certain angular direction. Let N be the total number of curve segments divided in this way.

【0075】各モデル曲線セグメントを画像内のどこに
捜せばよいかを示す探索領域の計算がまずなされる。
A search area is first calculated which indicates where to find each model curve segment in the image.

【0076】次に画像特徴予測モジュ―ル13では、モ
デル曲線セグメントの端点P1 ,P2 が形成する線分P
1 2 の角度分だけP1 ,P2 の探索領域を逆回転す
る。すると回転された新しい座標系で、予測画像を考え
ることができる。図11(a)、(b)は、この回転を
示すためのものである。図11(a)に示すように、曲
線セグメントP1 2 は予測画像内で、θ°分だけ列方
向rから傾いている。このθ°分だけ座標系を逆回転し
て、線分P1 2 が列方向r′と平行になるようにす
る。図11(b)のようにこの手法を採用することによ
り、曲線セグメントP1 2 は、予測画像の列方向r′
にほぼ平行な直線成分と見なすことができるようにな
る。その後、この回転された座標系で、P1 ,P2 の探
索領域が決定される。このP1 ,P2 の探索領域から曲
線セグメントP1 2 の探索領域を次に形成する。これ
を生成する方法が図12(a)、(b)に示されてい
る。図12(a)は、P1 ,P2 の探索領域の凸閉包を
求めて、それを曲線セグメントの探索領域とするものを
表したものであり、図12(b)は、P1 ,P2 の探索
領域の長方形閉包により、曲線セグメントP1 2 の探
索領域を近似したものである。こうして、画像特徴予測
モジュ―ル13では、各曲線セグメントに関する予測画
像内での探索領域が計算される。
Next, in the image feature prediction module 13, the line segment P formed by the end points P 1 and P 2 of the model curve segment
The search area of P 1 and P 2 is reversely rotated by the angle of 1 P 2 . Then, a predicted image can be considered in the rotated new coordinate system. FIGS. 11A and 11B show this rotation. As shown in FIG. 11A, the curve segment P 1 P 2 is inclined from the column direction r by θ ° in the predicted image. The coordinate system is reversely rotated by θ ° so that the line segment P 1 P 2 is parallel to the column direction r ′. By adopting this method as shown in FIG. 11B, the curve segment P 1 P 2 is transformed into the predicted image in the column direction r ′.
Can be regarded as a straight line component substantially parallel to. Thereafter, the search areas of P 1 and P 2 are determined in the rotated coordinate system. The P 1, then form a search area of the curve segment P 1 P 2 from the search region of P 2. A method for generating this is shown in FIGS. 12 (a) and 12 (b). 12 (a) is seeking convex hull of the search area of P 1, P 2, are those which were expressed what you search area of the curve segment, FIG. 12 (b), P 1, P the rectangular closure of the second search area is obtained by approximating the search area of the curve segment P 1 P 2. Thus, the image feature prediction module 13 calculates a search area in the predicted image for each curve segment.

【0077】画像特徴予測モジュ―ル13からの出力
は、各曲線セグメントに関して、回転された予測画像系
でどの領域にモデル曲線セグメントが存在するか(探索
領域)を表す不確定度が計算された。一方、画像特徴抽
出モジュ―ル14は、各モデル曲線セグメントに相当す
る画像曲線セグメントを、前記の探索領域内で実際に抽
出する機能を持っている。以下、画像特徴抽出モジュ―
ル14での処理を図13に示すフロ―チャ―トを利用し
て説明する。
The output from the image feature prediction module 13 is calculated for each curve segment by calculating an uncertainty indicating in which area the model curve segment exists in the rotated prediction image system (search area). . On the other hand, the image feature extraction module 14 has a function of actually extracting an image curve segment corresponding to each model curve segment in the search area. Hereafter, the image feature extraction module
The processing in the rule 14 will be described with reference to a flowchart shown in FIG.

【0078】まず、モデル曲線セグメントの総数をNと
する。そして、各モデル曲線セグメントを表すインデッ
クスをkとし、k=1と初期化する(ステップS1)。
ここで、ステップは以下単にSで表す。次に、S2にお
ける処理を説明する。モデル曲線セグメントkに対し
て、画像特徴予測モジュ―ル13では、その探索領域が
回転された座標系で計算された。このステップでは、こ
の回転された座標系に対応するように、原画像の回転を
おこなう。実際には、モデル曲線セグメントの端点
1 ,P2 が形成する線分P1 2 の角度だけ逆回転す
る。いま、線分P1 2 がなす角度をθとし、原画像の
点(r,c)とその回転された対応点(rp ,cp
は、ある座標上のオフセット分(r0 ,c0 )を考慮す
ると、
First, let N be the total number of model curve segments. Then, an index representing each model curve segment is set to k, and k = 1 is initialized (step S1).
Here, the steps are simply represented by S hereinafter. Next, the processing in S2 will be described. For the model curve segment k, the image feature prediction module 13 has calculated its search area in a rotated coordinate system. In this step, the original image is rotated so as to correspond to the rotated coordinate system. Actually, the model curve segment rotates in reverse by the angle of the line segment P 1 P 2 formed by the end points P 1 and P 2 . Now, assuming that the angle formed by the line segment P 1 P 2 is θ, the point (r, c) of the original image and its rotated corresponding point (r p , c p )
Takes into account the offset (r 0 , c 0 ) on a certain coordinate,

【数27】 で計算できる。この計算で注意すべき点は、回転座標変
換を回転されるべき画像の座標(rp ,cp )を利用
し、その対応点を原画像(r,c)に求めて、その濃淡
値を回転先の画像の濃淡値とすることにある。実際に
は、(rp ,cp )は整数であるが、その原画像中での
対応点の座標(r,c)は整数とならないので、(r,
c)を計算した後、四捨五入などによる整数化の手段を
とるか、対応近傍点を考慮した近似を行なう。ここで
は、その近似化について簡単に説明する。いま、上式
(30)によって、原画像の対応画素座標(r,c)が
計算できたとする。そして、(r,c)の小数部分を切
り捨てて得た整数座標値を(r1,c1)とする。この
とき、
[Equation 27] Can be calculated by The point to be noted in this calculation is that the coordinate transformation (r p , c p ) of the image to be rotated is used, the corresponding point is found in the original image (r, c), and the grayscale value is calculated. In other words, the gray value of the rotation destination image is used. Actually, (r p , c p ) is an integer, but the coordinates (r, c) of the corresponding point in the original image are not integers.
After calculating c), a means for converting to an integer by rounding or the like is used, or an approximation is performed in consideration of the corresponding neighboring points. Here, the approximation will be briefly described. Now, it is assumed that the corresponding pixel coordinates (r, c) of the original image can be calculated by the above equation (30). The integer coordinate value obtained by truncating the decimal part of (r, c) is (r1, c1). At this time,

【数28】 を計算する。座標値(R,C)に対応する原画像の画素
の濃淡値をg(R,C)で表すことにすれば、求めるべ
き(r,c)に対応する濃淡値は
[Equation 28] Is calculated. If the gray value of the pixel of the original image corresponding to the coordinate value (R, C) is represented by g (R, C), the gray value corresponding to (r, c) to be obtained is

【数29】 によって、線形近似値を求めることができる。(Equation 29) , A linear approximation can be obtained.

【0079】次にS3では、0°の微分に対する2値画
像を作成する。まず原画像を微分するには、図14
(a)に表されるような窓型の線形フィルタを利用する
のが一般的である。例えば、画像の行・列方向を表すイ
ンデックスをそれぞれr,cとし、原画像の座標(r,
c)における濃淡値をa(r,c),微分画像の出力を
b(r,c)とすれば、あるウィンドウ型フィルタw
(i,j)によって、b(r,c)は以下のような計算
によって求めることができる。
Next, in S3, a binary image for the differentiation of 0 ° is created. First, to differentiate the original image, FIG.
In general, a window-type linear filter as shown in FIG. For example, the indexes indicating the row and column directions of the image are r and c, respectively, and the coordinates (r,
If the gray value in c) is a (r, c) and the output of the differential image is b (r, c), a window-type filter w
According to (i, j), b (r, c) can be obtained by the following calculation.

【0080】[0080]

【数30】 例えば、0°に関する窓型フィルタは、図14(b),
(c)で表されているようなものである(文献3参
照)。さらに、同文献3のpp.337-352に表されているよ
うに、我々は、所望のフィルタの応答を考慮しながら、
w(i,j)の値を計算することができる。図14
(b),(c)では、5×5の大きさのフィルタを表し
たが、その大きさは5×5に限定されたわけではない。
m×nのようなフィルタであってもかまわない。また線
形のフィルタではなく、空間微分を実行する非線形のフ
ィルタであってもかまわない。
[Equation 30] For example, a window filter for 0 ° is shown in FIG.
This is as shown in (c) (see Document 3). Furthermore, as shown in pp. 337-352 of the same reference 3, we consider the response of the desired filter,
The value of w (i, j) can be calculated. FIG.
(B) and (c) show a filter having a size of 5 × 5, but the size is not limited to 5 × 5.
A filter such as mxn may be used. Instead of a linear filter, a non-linear filter that performs spatial differentiation may be used.

【0081】こうした微分フィルタの出力b(r,c)
は、おおむね0°方向のエッジ成分を有する画素に関し
て、その絶対値が大きな出力を持つことが期待できる。
次の作業では、この微分画像から、微分の符号を考慮し
た2枚の2値エッジ画像を生成する。具体的には、第1
のエッジ画像は上記微分画像b(r,c)の値がある閾
値 threshold_positiveより大きな値のとき、対応する
エッジ画像ep(r,c)を1とし、そうでなければe
p(r,c)を0とする。
The output b (r, c) of such a differential filter
Can be expected to have a large absolute value output for a pixel having an edge component in the direction of approximately 0 °.
In the next operation, two binary edge images are generated from the differential image in consideration of the sign of the differential. Specifically, the first
When the value of the differential image b (r, c) is larger than a threshold value threshold_positive, the corresponding edge image ep (r, c) is set to 1;
p (r, c) is set to 0.

【0082】一方、第2のエッジ画像では、上記微分画
像b(r,c)の値がある閾値 threshold_negativeよ
り小さければ、対応するエッジ画像en(r,c)の値
を1とし、そうでなければen(r,c)の値を0とす
るようにエッジ画像を設定する。ここで、2枚のエッジ
画像を別々に用意しておく理由は、後のエッジ成分の追
跡を行なう連結関係を明確にするためである。
On the other hand, in the second edge image, if the value of the differential image b (r, c) is smaller than a certain threshold value threshold_negative, the value of the corresponding edge image en (r, c) is set to 1, and otherwise. For example, the edge image is set so that the value of en (r, c) is set to 0. Here, the reason why the two edge images are separately prepared is to clarify the connection relationship for tracking the later edge components.

【0083】微分画像から、こうしてエッジ画像を作成
すると、全体の画像は0または1で構成される2値画像
となる。もちろん、この画像はある角度方向のエッジを
含む画像となるわけであるが、画像ノイズ成分が著しい
時には、この画像の中には未だノイズに対応する疑似の
エッジ成分を含む可能性がある。
When the edge image is created from the differential image in this way, the entire image becomes a binary image composed of 0 or 1. Of course, this image is an image including an edge in a certain angular direction. However, when the image noise component is significant, the image may still include a pseudo edge component corresponding to the noise.

【0084】次のS4ではこうしたノイズ成分を取り除
くことを行なう。ここで重要なことは、この2値エッジ
画像の中では、ほぼある特定方向0°に対応する曲線部
分だけを抽出し、その他の角度成分に対応するものは極
力取り除くという点である。前例のように、曲線の探索
領域を限定している関係上、曲線セグメントP1P2の
角度もほぼ限定することができる。その角度範囲をマイ
ナスa°からプラスa°とすると、中心角度0°から±
a°の範囲で特に感度が高いものを利用すればよい。す
ると、ノイズの除去はあくまでこの範囲に限定すればよ
いことになる。2値画像でこうしたノイズ除去を行なう
には、注目画素の近傍の画素を参照してノイズ成分を除
去する方法が考えられる。
In the next S4, such noise components are removed. What is important here is that, in this binary edge image, only a curve portion corresponding to almost a specific direction 0 ° is extracted, and those corresponding to other angle components are removed as much as possible. As in the previous example, the angle of the curve segment P1P2 can be almost limited because the search area of the curve is limited. If the angle range is from minus a ° to plus a °, the center angle is 0 ° to ±
What has high sensitivity in the range of a ° may be used. Then, the removal of the noise may be limited to this range. In order to perform such noise removal on a binary image, a method of removing a noise component with reference to a pixel near the pixel of interest is conceivable.

【0085】一つの例としては、注目画素の近傍に対し
て、ある指定された大きさの2値の要素からなるウィン
ドウ型フィルタ(またはテンプレ―ト型フィルタ)を施
すことによって実現する。例えば、0°方向のエッジに
相反するノイズを除去するテンプレ―ト型フィルタを考
えよう。ある中心画素点(r,c)に対してその近傍を
参照して、その画素を通過する曲線があると思われると
きには、その中心画素に対する出力を1、そうでなけれ
ば0とするようなノイズ除去用のテンプレ―トを作成し
ておけばよい。
As one example, this is realized by applying a window-type filter (or a template-type filter) consisting of a binary element having a specified size to the vicinity of the target pixel. For example, consider a template type filter that removes noise contradictory to an edge in the 0 ° direction. When it is considered that there is a curve passing through a pixel by referring to the vicinity of a certain center pixel point (r, c), a noise such that the output for the center pixel is 1 and otherwise 0. A template for removal may be prepared.

【0086】以下、この処理のことをテンプレ―ト処理
と呼ぶことにする。例えば、図15(a)の例のよう
に、中心点を注目画素(r,c)としたとき、その近傍
5×3の領域を考慮すると、注目画素を通過する曲線が
ある可能性が高い時に、そのテンプレ―ト処理の出力を
1とする。一方、図15(b)の場合のように、その中
心画素が注目点の場合に、そこを曲線が通過する可能性
が低いので、テンプレ―ト処理の出力を0とする。この
ようなテンプレ―ト処理を実現するには、あらかじめそ
の画素の近傍の画素値に対応したテ―ブルを作成してお
き、ルックアップテ―ブル処理を施すことにより実現で
きる。
Hereinafter, this processing is referred to as template processing. For example, as shown in the example of FIG. 15A, when the center point is the target pixel (r, c), there is a high possibility that there is a curve passing through the target pixel in consideration of the neighboring 5 × 3 area. Sometimes, the output of the template processing is set to 1. On the other hand, when the center pixel is the point of interest as in the case of FIG. 15B, the output of the template processing is set to 0 because the possibility that the curve passes through the point is low. Such a template process can be realized by creating a table corresponding to the pixel values in the vicinity of the pixel in advance and performing a look-up table process.

【0087】例えば、中心画素(r,c)の画素のまわ
りの5×3近傍の画素値を利用するルックアップテ―ブ
ル処理を実現するには、(r+i,c+j)の位置の2
値の画像値a(r+i,c+j)に対応して
For example, in order to realize a look-up table process using pixel values in the vicinity of 5 × 3 around the pixel of the center pixel (r, c), 2 at position (r + i, c + j)
Corresponding to the image value a (r + i, c + j)

【数31】 で計算されるアドレスaddress に対応するテ―ブルをあ
らかじめ作成しておくことにより、ルックアップテ―ブ
ル処理を行なう方法などがある。もちろん、ノイズ除去
の方法はテ―ブルを利用しないものであってもよいし、
テンプレ―トの大きさも5×3に限定されたわけではな
い。
(Equation 31) There is a method of performing a look-up table process by preparing a table corresponding to the address "address" calculated in advance in advance. Of course, the noise removal method may not use a table,
The size of the template is not limited to 5 × 3.

【0088】このようなノイズの除去によって、2値画
像中にある小さな孤立点などはほとんど除去されると同
時に、分断された曲線部分なども連結されて一つの曲線
に回復される。図16はこの様子を表したものである。
図中、黒点は、1である画素を表したものであり、黒点
のない部分は0である画素群を表したものである。図1
6(a)は、ノイズ除去処理前の2値画像を表し、図1
6(b)は処理後の画像を表したものである。
By removing such noises, small isolated points and the like in the binary image are almost completely removed, and at the same time, the divided curve portions are connected to recover one curve. FIG. 16 shows this state.
In the figure, the black points represent pixels that are 1 and the portions without black points represent pixel groups that are 0. FIG.
6A shows a binary image before the noise removal processing, and FIG.
FIG. 6B shows the processed image.

【0089】次にS5において、ノイズ成分が除去され
た2値画像に対して、次に細線化の処理が施される。こ
れは、上記ノイズ除去の方法だけでは、曲線成分が4連
結または8連結の2値曲線とならないことによる。2値
画像の細線化の方法としては、数多くの方法が提案され
ているので、ここでは詳細を述べないが、最も簡単な方
法はテンプレ―ト型のウィンドウを繰り返し画像に適用
することによって実現するものである(例えば、文献
3、pp.168-173を参照。)。このように細線化用のテン
プレ―ト処理を繰り返し施すことにより、曲線成分は細
線化され、次のステップへ移行する。
Next, in S5, the thinning processing is performed on the binary image from which the noise component has been removed. This is because the curve component does not become a 4-connected or 8-connected binary curve only by the above-described noise removal method. Since many methods have been proposed for thinning a binary image, a detailed description will not be given here, but the simplest method is realized by repeatedly applying a template type window to the image. (For example, see Reference 3, pp.168-173). By repeatedly performing the template processing for thinning in this manner, the curve component is thinned, and the process proceeds to the next step.

【0090】次に、S6において、細線化された曲線成
分に関して、おおむね0°方向の曲線成分が追跡され
る。この追跡に関しては、追跡する方向がある一定の角
度に限定されていることを利用する。たとえば、上記例
では、おおむね0°の方向だけの曲線を追跡すればよい
わけである。以下、曲線追跡を説明する。
Next, in S6, the curve components in the direction of approximately 0 ° are traced with respect to the thinned curve components. This tracking utilizes the fact that the tracking direction is limited to a certain angle. For example, in the above example, it is sufficient to track a curve only in the direction of approximately 0 °. Hereinafter, curve tracking will be described.

【0091】(1)曲線画素の連結次数の計算 まず3×3のウィンドウを利用して、画像を走査し、細
線化された2値画像の各画素の近傍との連結次数を画像
として保存する。この連結次数は、3×3のウィンドウ
内で中央の注目画素が1であるとき、その8個の隣接画
素で1の値を有する画素の数に対応する。その方法を説
明するために曲線の端点と分岐点という2つの用語を定
義する。端点とは曲線の他に接続のない始点又は終点を
意味し、その曲線が一方向にしか接続しない点を表す。
一方、分岐点は曲線が枝分かれする点を意味する。例え
ば、注目画素が曲線の端点の場合には、その結合次数は
1であり、曲線上の点で端点でも分岐点でもない点は、
結合次数が2と表現される。一方、曲線の分岐点は、そ
の次数が3以上の数をして表現される。また、注目画像
の値が0のときには、その連結次数を0となる。こうし
て、連結次数画像は元の細線化された画像と同じ大きさ
で、その各画素に対応する値が整数をとる画像より構成
される。
(1) Calculation of connection order of curved pixels First, an image is scanned using a 3 × 3 window, and the connection order of each pixel of the thinned binary image with the vicinity of each pixel is stored as an image. . This concatenated order corresponds to the number of pixels having a value of 1 among its eight adjacent pixels when the central target pixel is 1 in a 3 × 3 window. In order to explain the method, two terms, namely, an end point of a curve and a branch point are defined. The end point means a start point or an end point having no connection other than the curve, and represents a point where the curve is connected only in one direction.
On the other hand, a branch point means a point where a curve branches. For example, if the pixel of interest is the end point of the curve, the degree of connection is 1, and the point on the curve that is neither an end point nor a branch point is
The coupling order is expressed as 2. On the other hand, the branch point of the curve is represented as a number whose degree is 3 or more. When the value of the image of interest is 0, the connected degree is 0. In this way, the connected order image is composed of an image having the same size as the original thinned image, in which the value corresponding to each pixel is an integer.

【0092】(2)次に、この連結次数画像を走査しな
がら、曲線成分の端点または分岐点を捜す。端点か分岐
点が見つかった時には、その点から、8連結関係で連結
する隣接画素を追跡してゆく。この追跡は、次に分岐点
か端点に到達するまで続けられる。曲線成分を1画素ず
つ追跡してゆくにあたり、現時点での画素の連結次数と
次に連結する画素の連結次数を1ずつ減少させる。こう
してひとつの曲線成分が追跡されるとその曲線成分は、
0°方向性をもった曲線であるかがチェックされる。
(2) Next, while scanning this connected-order image, an end point or a branch point of the curve component is searched for. When an end point or a branch point is found, adjacent pixels connected in an eight connection relation are tracked from that point. This tracking continues until the next branch point or end point is reached. In tracking the curve component one pixel at a time, the connected degree of the pixel at the present time and the connected degree of the next connected pixel are reduced by one. When one curve component is tracked in this way, that curve component becomes
It is checked whether the curve has a direction of 0 °.

【0093】このチェックの方法は、いろいろ考えられ
る。例えば1つの方法としては、曲線の始点と終点とを
結ぶ直線が、0°が許容する方向角度内である場合に
は、その方向の曲線と認識され、そうでない場合には曲
線とは認識されずにその曲線成分は破棄される。その曲
線成分が、0°の許容する曲線成分であると認識された
場合には、以下に示されるような、デ―タ構造のもと
に、その角度に対応した曲線成分の記述化が行なわれ、
曲線成分として登録される。
There are various methods for this check. For example, as one method, if the straight line connecting the start point and the end point of the curve is within the directional angle permitted by 0 °, the curve is recognized as a curve in that direction, otherwise, it is recognized as a curve. Instead, the curve components are discarded. When the curve component is recognized as a curve component permitted at 0 °, the curve component corresponding to the angle is described based on a data structure as shown below. And
Registered as a curve component.

【0094】[0094]

【数32】 ここにc_idは、曲線の通し番号を表す整数で、o_
idは、曲線の方向を示すインデックスkを示す。曲線
の特性は、曲線の始点の一方が少なくとも、端点であっ
た場合には1、両方とも分岐点であった場合には0で表
現される。一方、nは曲線を構成する画素の数で、始点
と終点を含んだ数である。曲線の始点と終点は曲線の追
跡を行なう際に利用した端点または分岐点である。最後
に曲線構成画素群は、曲線の追跡で通過した画素群を表
す。ここに最初の画素は始点に等しく、最後の画素は終
点に等しい。
(Equation 32) Here, c_id is an integer representing the serial number of the curve, and o_id
id indicates an index k indicating the direction of the curve. The characteristic of the curve is expressed by at least one of the start points of the curve if it is an end point, and 0 if both of them are branch points. On the other hand, n is the number of pixels constituting the curve and is a number including the start point and the end point. The starting point and the ending point of the curve are the end points or branch points used when tracking the curve. Finally, the curve-constituting pixel group represents a pixel group that has passed through the tracking of the curve. Here the first pixel is equal to the start point and the last pixel is equal to the end point.

【0095】このように一つの曲線要素に対して登録が
終った後、別の曲線の端点または分岐点を連結次数画像
の中に捜し、同様の曲線追跡と登録が実行される。この
処理は、全ての曲線が探索されるまで、すなわち連結次
数画像の中に1が無くなるまで行なわれる。この際、連
結次数画像に1を含むか否かのチェックに際して、画像
全体のチェックする必要はない。まず、曲線を抽出する
まえに、連結次数の全体の和を求め、それをあるカウン
タsに保存しておく。曲線の追跡を行なう際、連結次数
を1ずつ減らしてゆくが、その際このカウンタsの値を
1減らす。そして1個の曲線の登録が終了するたびに、
このカウンタの値をチェックし、もしその値が0となれ
ば、曲線の抽出は終了したことになる。
After the registration of one curve element is completed in this way, the end point or the branch point of another curve is searched for in the connected order image, and the similar curve tracking and registration are executed. This process is performed until all the curves have been searched, that is, until 1 disappears from the connected order image. At this time, it is not necessary to check the entire image when checking whether or not the connected order image includes 1. First, before extracting a curve, the sum of all the connected degrees is obtained and stored in a certain counter s. When the curve is traced, the connected degree is reduced by one. At this time, the value of the counter s is reduced by one. And every time the registration of one curve is completed,
The value of this counter is checked, and if the value becomes 0, the extraction of the curve is completed.

【0096】こうして、あるモデル曲線セグメントに対
応する画像曲線セグメントの抽出が終了した後、インデ
ックスkの値を1増やす(S7)。
After the extraction of the image curve segment corresponding to a certain model curve segment is completed, the value of the index k is increased by 1 (S7).

【0097】次に、S8において、インデックスkとモ
デル曲線セグメントの総数Nとを比較する。もし、kの
値がNより大きくなったときには、以上の処理を終了さ
せる。もし、kがNを超えていなければ、ステップ2に
戻り、次のモデル曲線セグメントで同様な処理が反復さ
れる。
Next, in S8, the index k is compared with the total number N of the model curve segments. If the value of k becomes larger than N, the above processing is terminated. If k does not exceed N, the process returns to step 2 and the same process is repeated for the next model curve segment.

【0098】S9では、S1からS8をへて、全モデル
曲線セグメントの画像曲線成分が抽出される。抽出され
た全ての画像曲線成分は式(35)で示される方法で記
述される。このステップでは各方向で抽出された曲線成
分を一枚の画像に収まるように統合する。
In S9, through S1 to S8, image curve components of all model curve segments are extracted. All the extracted image curve components are described by the method shown in Expression (35). In this step, the curve components extracted in each direction are integrated so as to fit into one image.

【0099】式(35)で表されている曲線成分は、回
転された座標系で求められたものであった。このステッ
プでは、まず回転された座標系で求まった全ての曲線成
分を、原画像の座標系での曲線成分表示にいったん戻し
た後に統合し、新たな曲線成分を生成する。
The curve component represented by the equation (35) was obtained in the rotated coordinate system. In this step, first, all the curve components obtained in the rotated coordinate system are returned to the display of the curve components in the coordinate system of the original image, and then integrated to generate a new curve component.

【0100】このため、まず原画像と同等の大きさの2
値画像(曲線格納画像)が1個用意され、その初期値と
して全ての画素に0の値が割り付けられる。
For this reason, first of all, the size of the 2
One value image (curve storage image) is prepared, and a value of 0 is assigned to all pixels as an initial value.

【0101】式(35)で表示された曲線群について、
まず式(30)の座標変換によって、原画像の座標
(r,c)が計算される。座標(r,c)が整数の格子
点に充分近い時には、(r,c)に対応する画素に1を
割り付ける。座標(r,c)が整数の格子点に近くない
場合には、その近傍の2点または4点の格子点1に割り
付ける。整数格子点に近いか否かは、座標(r,c)と
格子点までのユ―クリッド距離を計算し、その値がある
しきい値よりも小さい場合には、充分近いと判断する。
With respect to the curve group represented by the equation (35),
First, the coordinates (r, c) of the original image are calculated by the coordinate transformation of Expression (30). When the coordinates (r, c) are sufficiently close to the integer grid points, 1 is assigned to the pixel corresponding to (r, c). If the coordinates (r, c) are not close to integer grid points, they are assigned to two or four grid points 1 in the vicinity. To determine whether or not it is close to an integer lattice point, the coordinates (r, c) and the Euclidean distance to the lattice point are calculated, and if the value is smaller than a certain threshold value, it is determined that it is sufficiently close.

【0102】上記の処理をS2からS8までで抽出され
た全ての曲線成分について行なう。すると曲線格納画像
には、全ての方向に関する曲線成分が画像デ―タとして
表現されることになる。
The above processing is performed on all the curve components extracted from S2 to S8. Then, the curve components in all directions are expressed as image data in the curve storage image.

【0103】この曲線格納画像に対して再度細線化の処
理を施す。この細線化を施す理由は、別々の角度方向の
画像で得られた曲線の一部が重なり合う可能性があると
同時に、その一部に1画素程度の誤差が含まれているこ
とがあるからである。こうして細線化を行なうことによ
り、別の角度方向で抽出された曲線の画素間のギャップ
が埋められるので、より正確な曲線が生成される。
The curve storing image is subjected to thinning processing again. The reason why the thinning is performed is that there is a possibility that some of the curves obtained in the images in different angular directions may overlap, and at the same time, some of the curves may include an error of about one pixel. is there. By performing thinning in this manner, gaps between pixels of a curve extracted in another angle direction are filled, so that a more accurate curve is generated.

【0104】さて、この操作によって全部の曲線成分が
2値画像に表現された後、再度曲線追跡を行なう。この
操作はS6で説明した方法とほぼ同じである。相違点は
以下の2点である。まず、このS9では、曲線の追跡後
に特に角度の制限を設けない点が異なる。さらに、曲線
の追跡に関連して、曲線の特性を表すstatusを利用し
て、非常に短い曲線成分でかつ曲線成分の始点・終点の
少なくても一方が分岐点でなく端点であるものはノイズ
成分として除去する点にある。
Now, after all the curve components are represented in the binary image by this operation, the curve tracing is performed again. This operation is almost the same as the method described in S6. The difference is the following two points. First, S9 is different from the first embodiment in that the angle is not limited after the curve is traced. Furthermore, in relation to the tracking of a curve, using the status indicating the characteristics of the curve, a very short curve component and at least one of the start and end points of the curve component that is not a branch point but an end point is a noise. The point is that it is removed as a component.

【0105】これは、曲線抽出を行なう際よく起こるヒ
ゲ成分の除去に対応する。こうして、曲線は式(35)
によって完全に記述化することができる。もちろん、前
記のような方法で、限定された領域内で画像曲線セグメ
ントを抽出すると必ずしも1個だけのセグメントが抽出
されるとは限らない。このような場合には、図1のモデ
ル特徴−画像特徴対応探索モジュ―ル15がもっとも適
当な画像曲線セグメントを選択することになる。ここで
はこのモデル特徴−画像特徴対応探索モジュ―ル15に
ついては説明しない。
This corresponds to removal of a mustache component which often occurs when performing curve extraction. Thus, the curve is given by equation (35)
Can be completely described by Of course, when an image curve segment is extracted in a limited area by the above-described method, only one segment is not necessarily extracted. In such a case, the model feature-image feature correspondence search module 15 of FIG. 1 will select the most appropriate image curve segment. Here, the model feature-image feature correspondence search module 15 will not be described.

【0106】本実施例で述べられているように、あらか
じめモデル化された対象物の画像内に表出する曲線成分
を、できるだけ雑音成分を除去しながら効率よく抽出す
ることかできる。
As described in the present embodiment, it is possible to efficiently extract a curve component appearing in an image of an object modeled in advance while removing noise components as much as possible.

【0107】以上、2種の特徴(直線成分と曲線成分)
の抽出方法を中心にして述べたが、本実施例で説明され
た特徴抽出の方法は、こうした特徴に限定されたもので
はない。対象物をモデルとして表現する際、パラメ―タ
を用いて表現できる特徴に関しては、上記の方法を適用
することができるのは言うまでもない。例えば、特徴が
ある空間的な広がりを持ってパタ―ンとして表現できる
ときには、そのパタ―ンに対応するパラメ―タを選択
し、そのパタ―ンがカメラ画像内に投影される像を表現
するパラメ―タを求めて、そのパラメ―タに関する不確
定度を計算することにより、そのパタ―ン特徴の効率的
な抽出が実現できるわけである。また前記した文献1で
述べられているような、一般ハフ変換のパメラ―タに不
確定度を伝播することにより、それに対応する特徴を効
率的に抽出することもできる。
As described above, two types of features (linear component and curved component)
The method for extracting features described in this embodiment is not limited to such features. When expressing an object as a model, it goes without saying that the above method can be applied to features that can be expressed using parameters. For example, if a feature can be represented as a pattern with a certain spatial extent, select a parameter corresponding to the pattern and represent the image projected in the camera image with that pattern By obtaining a parameter and calculating the degree of uncertainty regarding the parameter, efficient extraction of the pattern feature can be realized. Further, by transmitting the uncertainty to the parameters of the general Hough transform as described in the above-mentioned reference 1, it is also possible to efficiently extract features corresponding to the uncertainty.

【0108】以下に第3実施例について説明する。前述
の実施例では、対象となるモデルは、正確にその形状が
わかっている場合のみに関して説明してきた。本実施例
では、対象のモデル自体に不確定要素が含まれている場
合でも、そのモデルに含まれる特徴を画像内から効率良
く抽出する方法を表わすものである。対象物はその形状
が必ずしも正確にわかっていない場合がある。またその
形状が多少時間的に変化する場合などが考えられる。
Hereinafter, a third embodiment will be described. In the above-described embodiment, the target model has been described only when the shape of the model is accurately known. In the present embodiment, even when an uncertain element is included in the target model itself, a method for efficiently extracting features included in the model from the image is described. The shape of an object may not always be known exactly. It is also conceivable that the shape slightly changes over time.

【0109】こうした場合には、前述したモデル特徴を
記述するパラメ―タuが確率的にしか表現できない場合
と考えることができる。これはモデル特徴パラメ―タu
の平均値と共分散行列によって表現できる場合などがあ
る。これは、モデル特徴パラメ―タuに対する平均値u
バ―と共分散Σuが付加されたことを意味する。この場
合にも、そのモデル特徴パラメ―タがカメラ画像内で表
現される画像特徴パラメ―タvの不確定度を推定するこ
とで、その画像特徴のカメラ画像内での抽出を効率的に
行なうことができる。以下がそのステップである。
In such a case, it can be considered that the parameter u that describes the model feature described above can be expressed only stochastically. This is the model feature parameter u
May be represented by the mean value of the and the covariance matrix. This is the average value u for the model feature parameter u.
This means that the bar and the covariance Σu have been added. Also in this case, by extracting the uncertainty of the image feature parameter v in which the model feature parameter is expressed in the camera image, the image feature is efficiently extracted in the camera image. be able to. Here are the steps:

【0110】(1)対象モデル格納モジュ―ル11のモ
デル表現には、各モデル特徴のパラメ―タuが平均値u
バ―と共分散行列Σuの形で表現され、画像特徴予測モ
ジュ―ル13に送られる。
(1) In the model expression of the target model storage module 11, the parameter u of each model feature is the average value u.
It is expressed in the form of a bar and a covariance matrix Σu, and sent to the image feature prediction module 13.

【0111】(2)対象物位置・姿勢予測モジュ―ル1
2では、対象物の局所座標系の原点の位置・姿勢を示す
パラメ―タの値が予測される。この方法は第1実施例の
場合と同様なので、ここでは省略する。
(2) Object position / posture prediction module 1
In step 2, parameter values indicating the position and orientation of the origin of the local coordinate system of the object are predicted. Since this method is the same as that of the first embodiment, the description is omitted here.

【0112】(3)画像特徴予測モジュ―ル13では、
対象物位置・姿勢予測モジュ―ル12で求められた対象
物位置・姿勢のパラメ―タpと平均値pバ―と共分散行
列Σpが利用される。すなわち、その平均値pバ―を利
用して、対象物のカメラ画像での予測画が生成される。
モデル特徴パラメ―タuに対応する画像特徴パラメ―タ
vが決定され、その不確定度が以下のように計算され
る。3個のパラメ―タp,u,vの間の関係式f(u,
v,p)=0が決定され、平均値pバ―とuバ―の値を
利用して、vの平均値vバ―が計算される。
(3) In the image feature prediction module 13,
The parameter p of the object position / posture obtained by the object position / posture prediction module 12, the average value p bar, and the covariance matrix Σp are used. That is, a predicted image in the camera image of the object is generated using the average value p bar.
The image feature parameter v corresponding to the model feature parameter u is determined, and its uncertainty is calculated as follows. A relational expression f (u, u) between three parameters p, u, v
v, p) = 0 is determined, and an average value v bar of v is calculated using the values of the average values p bar and u bar.

【0113】その方法は、f(uバ―,vバ―,pバ
―)=0の方程式を解くことによって求める。次に、u
の共分散行列を推定する。その方法は、f(u,v,
p)=0の平均値のまわりでの変分をとることによる。
具体的には、
The method is obtained by solving the equation of f (u bar, v bar, p bar) = 0. Next, u
Estimate the covariance matrix of. The method is f (u, v,
By taking variation around the mean of p) = 0.
In particular,

【数33】 から、f(uバ―,vバ―,pバ―)=0であることを
利用して、
[Equation 33] From the fact that f (u bar, v bar, p bar) = 0,

【数34】 を求め、これから変分δvを変分δuとδpによって表
現する:
(Equation 34) From which the variation δv is represented by the variations δu and δp:

【数35】 これを、行列F,Gを用いて以下のように簡単に表現す
る。
(Equation 35) This is simply expressed using the matrices F and G as follows.

【0114】[0114]

【数36】 uとpは、統計的に独立であると仮定すると、vに対す
る共分散行列Σvは、以下のように計算することができ
る。
[Equation 36] Assuming that u and p are statistically independent, the covariance matrix Σv for v can be calculated as follows:

【0115】[0115]

【数37】 もし、uとpが独立でないと仮定すると、期待値をとる
オペレ―タをE[* ]としたときに、
(37) Assuming that u and p are not independent, when the operator taking the expected value is E [ * ],

【数38】 という形で計算することができる。以上説明したよう
に、モデル特徴パラメ―タuの平均値と共分散行列によ
り、モデル特徴パラメ―タuの不確定度を計算すること
ができる。さらに、これらの統計量を利用して、そのu
のとるべき値を制限することができる。
(38) It can be calculated in the form As described above, the uncertainty of the model feature parameter u can be calculated from the average value of the model feature parameter u and the covariance matrix. Further, using these statistics, the u
Can be limited.

【0116】図17は、不確定度の伝播の模式図を表し
たものである。図17(a)は、対象物の原点の位置・
姿勢不確定度が楕円体で表されるとともに、その原点を
基準とした対象物局所座標系での各頂点の位置不確定度
も楕円体で表現されている。こうした2種の不確定度が
融合され、カメラ画像面へと伝播される。画像特徴予測
モジュ―ル13で作成された各画像特徴点の不確定度
は、図17(b)のフレ―ムの楕円によって表現されて
いる。
FIG. 17 is a schematic diagram showing propagation of uncertainty. FIG. 17A shows the position of the origin of the target object.
The posture uncertainty is represented by an ellipsoid, and the position uncertainty of each vertex in the object local coordinate system with respect to the origin is also represented by an ellipsoid. These two types of uncertainties are merged and propagated to the camera image plane. The degree of uncertainty of each image feature point created by the image feature prediction module 13 is represented by a frame ellipse in FIG.

【0117】(4)画像特徴抽出モジュ―ル14では、
こうしたモデル特徴パラメ―タuに対応する画像特徴パ
ラメ―タvが制限された領域内で画像特徴が抽出され
る。抽出する方法は、第1実施例と第2実施例で説明し
たので、ここでは省略する。
(4) In the image feature extraction module 14,
An image feature is extracted in an area where the image feature parameter v corresponding to the model feature parameter u is limited. The extraction method has been described in the first embodiment and the second embodiment, and will not be described here.

【0118】本実施例で説明したように、対象物モデル
を規定する特徴の位置やパラメ―タが不確定の場合で
も、その不確定度を統計的に記述しておくことにより、
画像内に表出するその特徴の像を効率的に抽出すること
ができる。
As described in the present embodiment, even if the positions and parameters of the features defining the object model are uncertain, the degree of uncertainty is described statistically.
The image of the feature appearing in the image can be efficiently extracted.

【0119】上記、3種の実施例においては、対象物を
3次元物体として説明したきたが、本発明は3次元物体
の特徴抽出に限定されるものではない。2次元物体を抽
出される場合にも、もちろん適用することができる。そ
の場合には、対象物の位置姿勢不確定度を表すパラメ―
タpを6次元ベクトルから3次元ベクトルとし、対象物
の局所座標系での特徴パラメ―タuも適当に変更するこ
とによって実現できる。
In the above three embodiments, the object has been described as a three-dimensional object, but the present invention is not limited to the feature extraction of a three-dimensional object. Of course, the present invention can be applied to a case where a two-dimensional object is extracted. In that case, a parameter indicating the degree of uncertainty of the position and orientation of the target object
The parameter p is changed from a six-dimensional vector to a three-dimensional vector, and the feature parameter u of the object in the local coordinate system is appropriately changed.

【0120】[0120]

【発明の効果】以上詳述したように、本発明によれば、
あらかじめモデル化された対象物を規定する特徴を、画
像内でなるべく雑音の影響を受けず、かつ効率的に抽出
することができる。
As described in detail above, according to the present invention,
It is possible to extract a feature that preliminarily defines a target object from an image as efficiently as possible without being affected by noise.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1実施例を実現する画像特徴抽出装置の概観
を示すブロック図である。
FIG. 1 is a block diagram illustrating an overview of an image feature extraction device that implements a first embodiment.

【図2】図1のデータ処理装置の構成を示す図である。FIG. 2 is a diagram showing a configuration of the data processing device of FIG. 1;

【図3】対象モデルを面情報を用いて表現した図であ
る。
FIG. 3 is a diagram expressing a target model using surface information.

【図4】基準原点P0 と基準姿勢Q0 を用いた対象物の
局所座標系(x1 ,y1 ,z1)を示す図である。
FIG. 4 is a diagram showing a local coordinate system (x 1 , y 1 , z 1 ) of an object using a reference origin P 0 and a reference attitude Q 0 .

【図5】予測画の出力例を示す図である。FIG. 5 is a diagram illustrating an output example of a predicted image.

【図6】対象物の位置姿勢のパラメ―タに含まれる不確
定度をカメラ画像内に伝播した場合の例を示す図であ
る。
FIG. 6 is a diagram illustrating an example of a case where an uncertainty included in parameters of the position and orientation of an object is propagated in a camera image.

【図7】直線の存在制限領域を実現する方法を説明する
ための図である。
FIG. 7 is a diagram for explaining a method of realizing a straight line presence restriction area.

【図8】ハフ変換を説明するための図である。FIG. 8 is a diagram for explaining Hough transform.

【図9】ハフ空間内の不確定度を表した図である。FIG. 9 is a diagram illustrating an uncertainty in a Hough space.

【図10】曲線成分を複数の曲線成分に分割する方法を
説明するための図である。
FIG. 10 is a diagram for explaining a method of dividing a curve component into a plurality of curve components.

【図11】座標の回転を示す図である。FIG. 11 is a diagram showing rotation of coordinates.

【図12】P1 ,P2 の探索領域から曲線セグメントP
1 2 の探索領域を生成する方法を説明するための図で
ある。
FIG. 12 shows a curve segment P from a search area of P 1 and P 2.
It is a diagram for explaining a method of generating a search area of 1 P 2.

【図13】特徴抽出モジュ―ルの処理を示すフロ―チャ
―トである。
FIG. 13 is a flowchart showing processing of a feature extraction module.

【図14】窓型線形フィルタの例を示す図である。FIG. 14 is a diagram illustrating an example of a window-type linear filter.

【図15】テンプレート処理を説明するための図であ
る。
FIG. 15 is a diagram for explaining template processing.

【図16】ノイズ除去処理前及び処理後の画像を示す図
である。
FIG. 16 is a diagram showing images before and after noise removal processing.

【図17】不確定度の伝播の模式図である。FIG. 17 is a schematic diagram of propagation of uncertainty.

【符号の説明】[Explanation of symbols]

1…TVカメラ、2…A/D変換器、3…画像メモリ、
4…データ処理装置、11…対象モデル格納モジュー
ル、12…対象物位置・姿勢予測モジュール、13…画
像特徴予測モジュール、14…画像特徴抽出モジュー
ル、15…モデル特徴−画像特徴対応探索モジュール、
16…対象物位置・姿勢推定モジュール。
DESCRIPTION OF SYMBOLS 1 ... TV camera, 2 ... A / D converter, 3 ... Image memory,
4 Data processing device 11 Object model storage module 12 Object position / posture prediction module 13 Image feature prediction module 14 Image feature extraction module 15 Model feature-image feature correspondence search module
16 ... Object position / posture estimation module.

フロントページの続き (56)参考文献 Akio Kosaka et a l.,Fast Vision−gui ded Mobile Robot N avigation Using Mo del−based Reasonin g & Prediction of Uncertainties,Proc eedings of the 1992 IEEE/RSJ Internati onal Conference on Intelligent Robot s and Systems,Vol. 3,1992年7月7日,pp.2177−2186 (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G06T 1/00 JICSTファイル(JOIS)Continuation of the front page (56) References Akio Kosaka et al. , Fast Vision-gui ded Mobile Robot N avigation Using Mo del-based Reasonin g & Prediction of Uncertainties, Proc eedings of the 1992 IEEE / RSJ Internati onal Conference on Intelligent Robot s and Systems, Vol. 3, 1992 July 7, Pp. 2177-2186 (58) Field surveyed (Int. Cl. 7 , DB name) G06T 7 /00-7/60 G06T 1/00 JICST file (JOIS)

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 あらかじめ形状が確定的あるいは確率的
にわかっている対象物を画像の中から抽出する装置にお
いて、 対象物の位置や姿勢を規定するパラメ―タの取り得る値
を確率的に予測し、その不確定度を計算する計算手段
と、 上記パラメ―タの不確定度を画像面に伝播して、対象物
を規定する特徴が存在し得る画像内の領域を制限するか
あるいはその特徴が画像内で表現されるパラメ―タが作
るパラメ―タ空間内の存在領域を制限する制限手段と、 前記特徴を前記制限手段によって制限された画像領域内
またはパラメ―タ空間内で抽出する抽出手段とを具備し
たことを特徴とする画像特徴抽出装置。
An apparatus for extracting, from an image, an object whose shape is known deterministically or stochastically in advance, stochastically predicts possible values of parameters defining the position and orientation of the object. Calculating means for calculating the degree of uncertainty; and propagating the degree of uncertainty of the parameter to an image plane to limit an area in the image where a feature defining the object may exist or to limit the area. Means for limiting the existence area in the parameter space created by the parameter represented in the image, and extraction for extracting the feature in the image area or the parameter space limited by the limitation means Means for extracting an image feature.
JP03090793A 1993-02-19 1993-02-19 Image feature extraction device Expired - Fee Related JP3300092B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03090793A JP3300092B2 (en) 1993-02-19 1993-02-19 Image feature extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03090793A JP3300092B2 (en) 1993-02-19 1993-02-19 Image feature extraction device

Publications (2)

Publication Number Publication Date
JPH06243251A JPH06243251A (en) 1994-09-02
JP3300092B2 true JP3300092B2 (en) 2002-07-08

Family

ID=12316791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03090793A Expired - Fee Related JP3300092B2 (en) 1993-02-19 1993-02-19 Image feature extraction device

Country Status (1)

Country Link
JP (1) JP3300092B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9189709B2 (en) 2011-12-01 2015-11-17 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US9621856B2 (en) 2012-06-11 2017-04-11 Canon Kabushiki Kaisha Image processing apparatus and image processing method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7212651B2 (en) * 2003-06-17 2007-05-01 Mitsubishi Electric Research Laboratories, Inc. Detecting pedestrians using patterns of motion and appearance in videos
US9170581B2 (en) * 2013-09-30 2015-10-27 Crown Equipment Limited Industrial vehicles with overhead light based localization
US9174830B1 (en) 2014-09-29 2015-11-03 Crown Equipment Limited Industrial vehicles with point fix based localization

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Akio Kosaka et al.,Fast Vision−guided Mobile Robot Navigation Using Model−based Reasoning & Prediction of Uncertainties,Proceedings of the 1992 IEEE/RSJ International Conference on Intelligent Robots and Systems,Vol.3,1992年7月7日,pp.2177−2186

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9189709B2 (en) 2011-12-01 2015-11-17 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US9621856B2 (en) 2012-06-11 2017-04-11 Canon Kabushiki Kaisha Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JPH06243251A (en) 1994-09-02

Similar Documents

Publication Publication Date Title
Johnson et al. Surface registration by matching oriented points
US8467596B2 (en) Method and apparatus for object pose estimation
Johnson et al. Surface matching for object recognition in complex three-dimensional scenes
CN110070564B (en) Feature point matching method, device, equipment and storage medium
JP5430456B2 (en) Geometric feature extraction device, geometric feature extraction method, program, three-dimensional measurement device, object recognition device
Bartoli et al. Nonlinear estimation of the fundamental matrix with minimal parameters
CA2397389A1 (en) Image model based on n-pixels and defined in algebraic topology, and applications thereof
US5173946A (en) Corner-based image matching
CN115222884A (en) Space object analysis and modeling optimization method based on artificial intelligence
Kannala et al. Measuring and modelling sewer pipes from video
JP3300092B2 (en) Image feature extraction device
CN116921932A (en) Welding track recognition method, device, equipment and storage medium
US20090129699A1 (en) Image processing system
JP3610087B2 (en) Moving object tracking device
Laskov et al. Curvature-based algorithms for nonrigid motion and correspondence estimation
Rovid et al. 3D model estimation from multiple images
Sakaue et al. Optimization approaches in computer vision and image processing
Sinclair et al. Using the relation between a plane projectivity and the fundamental matrix
Arevalo et al. Improving piecewise linear registration of high-resolution satellite images through mesh optimization
Szeliski Probabilistic modeling of surfaces
Ghaffary Image matching algorithms
Asif et al. AGV guidance system: An application of simple active contour for visual tracking
Deschenes et al. Improved estimation of defocus blur and spatial shifts in spatial domain: a homotopy-based approach
Lester Feature extraction, image segmentation, and surface fitting: the development of a 3D scene reconstruction system
Chaplin Motion estimation from stereo image sequences for a mobile mapping system.

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020402

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090419

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090419

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100419

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees