JPH06243251A - 画像特徴抽出装置 - Google Patents

画像特徴抽出装置

Info

Publication number
JPH06243251A
JPH06243251A JP5030907A JP3090793A JPH06243251A JP H06243251 A JPH06243251 A JP H06243251A JP 5030907 A JP5030907 A JP 5030907A JP 3090793 A JP3090793 A JP 3090793A JP H06243251 A JPH06243251 A JP H06243251A
Authority
JP
Japan
Prior art keywords
image
curve
feature
parameter
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5030907A
Other languages
English (en)
Other versions
JP3300092B2 (ja
Inventor
Akio Kosaka
明生 小坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP03090793A priority Critical patent/JP3300092B2/ja
Publication of JPH06243251A publication Critical patent/JPH06243251A/ja
Application granted granted Critical
Publication of JP3300092B2 publication Critical patent/JP3300092B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】3次元空間または2次元空間におかれている対
象物の認識や位置姿勢の推定を高速かつ効率的に実行可
能な画像特徴抽出装置を提供する。 【構成】対象物の位置や姿勢を規定するパラメ―タの取
り得る値を確率的に予測し、その不確定度を計算する対
象物位置・姿勢予測モジュール12と、パラメ―タの不
確定度を画像面に伝播して、その対象物を規定する特徴
が存在し得る画像内の領域を制限、あるいはその特徴が
画像内で表現されるパラメ―タが作るパラメ―タ空間を
制限する画像特徴予測モジュール13と、その特徴をそ
の限定された画像領域内またはパラメ―タ空間内で抽出
する画像特徴抽出モジュール14とを具備する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は画像特徴抽出装置に関す
る。
【0002】
【従来の技術】近年、画像処理に関する技術がいろいろ
な分野で自動化を目的として応用されるようになってき
た。そうした画像処理に関する技術は以下の文献に示さ
れている。
【0003】文献1:D.H.バラード著、「任意形状
を検出するための一般化ハフ変換」(D.H.Ballard,″Ge
neralized Hough transform to detect arbitrary shap
es″,Pattern Recognition,Vol.13,No.2,1981,pp.111-1
22.) 文献2:小坂他著、「モデル推論と不確定度予測を視覚
ガイドに用いた移動ロボットのナビゲーション」(A.Ko
saka and A.C.Kak, ″Fast vision-guidedmobile robot
navigation using model-based reasoning and predi
ction ofuncertainties ″,Computer Vision,Graphics,
and Image Processing--Image Understanding, Novembe
r 1992,271-329) 文献3:R.M.ハラリック他著、「コンピュータとロ
ボットビジョン」(R.M.Haralick and L.G.Shapiro,Com
puter and Robot Vision,AddisonWesley,1992,pp.371-4
52.) 文献4:O.I.カンプス他著、「予測と確率的マッチ
ングを用いた対象認識」(O.I.Camps,L.G.Shapiro,and
R.M.Haralick, ″Object Recognition usingPrediction
and Probabilistic Matching″Proceedings of the 19
92IEEE International Conference on Intelligent Rob
ots and Systems,Raleigh,NC,1992,pp.1044-1052.) 画像処理技術を用いて、対象物の認識を行なう際、従来
から最もよく用いられているのは、対象物の画像を形成
する特徴成分の解析である。この際、特徴成分は、点や
直線的な成分と曲線的な成分の組み合わせ等で表現でき
る場合が多い。こうした輪郭成分を持つ画像は、対象物
をテレビ・カメラで撮影し、その映像信号をA/D変換
器などを介してディジタル変換されるのが一般的であ
る。その変換された画像デ―タに対してディジタル信号
処理が施され、その対象物がどのような形状をしている
のか、あるいはどこに位置するかが計算される。こうし
た処理でまず最初に行なわれることは、対象物が形成す
る輪郭などの特徴の抽出である。
【0004】従来の画像の輪郭成分を抽出する方法とし
ては、 Sobelオペレ―タなどの微分オペレ―タを画一的
に画像全体に施した後、そのオペレ―タの出力の絶対値
をある定められた閾値と比較し、閾値以上の値を持つ画
素をエッジ点としてまず登録する。次に、そのエッジ点
と近傍点との関係を考慮して輪郭に対応するエッジ点を
選択し、曲線や直線の輪郭に相当する部分を抽出するな
どの方法がとられている。
【0005】こうして、輪郭に対応するエッジ点が求め
られた後、直線や曲線に対応する部分を求める方法とし
ては、一般化ハフ変換(文献1参照)が考えられる。こ
れは、曲線や直線を記述するパラメ―タを求める際、エ
ッジ各点を通過するあらゆる可能なパラメ―タの候補に
投票して、パラメ―タ空間のピ―クを検出することによ
り、曲線や直線を記述するのに最適なパラメ―タを推定
する方法である。
【0006】一般化ハフ変換では比較的安定した曲線成
分や直線成分が求められることが知られているが、エッ
ジ点を通過する可能性をもったあらゆる曲線や直線のパ
ラメ―タに投票する関係上、処理時間とパラメ―タ空間
の記憶容量が膨大となるという欠点があった。また、 S
obel微分オペレ―タや LOGオペレ―タを使用するため、
画像自体にノイズが多く含まれるときには、本来対象物
の輪郭ではないエッジ成分を多く含むこととなり、処理
に要する時間はより膨大になるという欠点があった。
【0007】
【発明が解決しようとする課題】近来、モデル規範型画
像認識のシステムが開発されるようになった。こうした
システムでは、抽出すべき対象のモデルをあらかじめ持
ち、どのような特徴を画像中から抽出すればよいのかが
わかっている場合がある。これは、対象物の CADモデル
などを利用し、その対象物の見える予測シ―ンをあらか
じめ生成して、それと画像内で抽出された特徴との対応
を求めることで、対象物の認識を行なうシステムなどで
ある。
【0008】例えば、前記した文献2は、移動ロボット
の位置推定を行なう際、ロボットが見るであろうシ―ン
の線画を作成し、その線画を構成する直線成分をモデル
特徴とし、その直線成分が画像内のどこにあるのか不確
定度を計算し、その不確定度に応じて直線成分を画像内
から抽出する方法を考案した。この方法では、画像内で
処理する領域やパラメ―タ空間の領域を制限して処理す
るので、ノイズの多い画像でも、比較的に安定的にモデ
ル特徴に対応する直線成分を抽出することができたが、
モデル特徴としては、直線成分に限られており、曲線成
分などから構成される複雑な形状の特徴抽出は不可能で
あった。また、この文献に述べられている方法において
は、対象物となるものは固定された位置にあり、観察者
の位置すなわちカメラの位置は平面内でだけ可動なもの
であった。従ってロボットの位置の推定はロボットの位
置姿勢を規定する3個のパラメ―タ推定問題として解い
たものにすぎなかった。したがって、より一般的な3次
元対象物体の認識や位置の推定方法を与えるものではな
かった。
【0009】一方、文献4に表されている方法では、3
次元対象物の認識に対して、その予測図を作成し、その
予測と実際に画像から抽出された画像特徴とを比較する
ことによって、その物体の認識と位置推定を行なうこと
が提案されている。この方法では、画像からの特徴抽出
が対象モデルとは直接関係なく行なわれる。従って、モ
デル対象物以外の物体が存在すると、その物体が形成す
る輪郭特徴も同時に抽出されてしまうため、予測図内の
モデル特徴との対応をとる段階で計算量が膨大となると
いう欠点があった。
【0010】本発明の画像特徴抽出装置はこのような課
題に着目してなされたものであり、その目的とするとこ
ろは、3次元空間または2次元空間におかれている対象
物の認識や位置姿勢の推定を高速かつ効率的に実行可能
な画像特徴抽出装置を提供することにある。
【0011】
【課題を解決するための手段】上記の目的を達成するた
めに、本発明は、あらかじめ形状が確定的あるいは確率
的にわかっている対象物を画像の中から抽出する装置に
おいて、対象物の位置や姿勢を規定するパラメ―タの取
り得る値を確率的に予測し、その不確定度を計算する計
算手段と、上記パラメ―タの不確定度を画像面に伝播し
て、対象物を規定する特徴が存在し得る画像内の領域を
制限するかあるいはその特徴が画像内で表現されるパラ
メ―タが作るパラメ―タ空間内の存在領域を制限する制
限手段と、前記特徴を前記制限手段によって制限された
画像領域内またはパラメ―タ空間内で抽出する抽出手段
とを具備する。
【0012】
【作用】すなわち、本発明の画像特徴抽出装置において
は、まず、対象物の位置や姿勢を規定するパラメ―タの
取り得る値を確率的に予測し、その不確定度を計算す
る。次に、上記パラメ―タの不確定度を画像面に伝播し
て、対象物を規定する特徴が存在し得る画像内の領域を
制限するかあるいはその特徴が画像内で表現されるパラ
メ―タが作るパラメ―タ空間内の存在領域を制限する。
そして、この制限された画像領域内またはパラメ―タ空
間内で前記特徴を抽出する。
【0013】
【実施例】以下に図面を参照して本発明の第1実施例を
説明する。本実施例で述べられている特徴抽出装置にお
いては、対象物のある基準点からの相対的形状がわかっ
ていると仮定する。
【0014】図2は第1実施例を実現する画像特徴抽出
装置の概観を示すブロック図である。対象物を撮影する
TVカメラ1を介して画像は撮像され、その画像信号は
ディジタル化(A/D)変換器2で画像ディジタル信号
に変換される。こうして変換された画像デ―タは、いっ
たん画像メモリ3に格納され、その後、デ―タ処理を行
なうデ―タ処理装置4に送られる。もちろん、デ―タ処
理装置4自体に画像メモリ3に対応するメモリがあれ
ば、画像メモリ3はデ―タ処理装置4に含まれてもかま
わない。また、デ―タ処理装置4は、汎用のコンピュ―
タシステムであってもかまわない。
【0015】図1は図2のデータ処理装置4の構成を示
す図である。対象物モデル格納モジュ―ル11には、対
象モデルが格納されており、その対象モデルは画像特徴
予測モジュ―ル13に送られる。対象物位置・姿勢予測
モジュ―ル12は、対象物の位置や姿勢を規定するパラ
メ―タを予測するモジュ―ルであり、その予測結果は画
像特徴予測モジュ―ル13に送られる。画像特徴予測モ
ジュ―ル13は、カメラ等撮影装置の位置(視点)の情
報と、対象物の位置や姿勢に関する情報に基づいて、対
象物をカメラで撮影した時に、その対象物を規定する可
視なモデル特徴を予測し、そのモデル特徴の情報をモデ
ル特徴−画像特徴対応探索モジュ―ル15に送るととも
に、そうしたモデル特徴がそのカメラ画像中のどこにあ
ると制限されるのか、あるいはその特徴を規定するパラ
メ―タがパラメ―タ空間内でどのように制限されるかを
計算するモジュ―ルである。
【0016】この制限に関する情報は次の画像特徴抽出
モジュ―ル14に送られ、その各特徴を画像内から抽出
するのに適当な方法を選択し、その特徴を制限された画
像空間またはパラメ―タ空間内で抽出する。こうして画
像特徴抽出モジュ―ル14で抽出された画像特徴と、画
像特徴予測モジュ―ル13から送られたモデル特徴との
対応が、モデル特徴−画像特徴対応探索モジュ―ル15
で求められ、その対応関係が対象物位置・姿勢推定モジ
ュ―ル16に送られ、あらかじめ与えられている対象物
に位置・姿勢推定値を更新する形で、新たな推定値が求
まる。
【0017】本実施例は特にこうしたモジュ―ルのう
ち、画像特徴を如何に効率よく抽出するかを説明したも
のであり、モデル特徴−画像特徴対応探索モジュ―ル1
5と対象物位置姿勢推定モジュ―ル16に関しては、詳
しく述べない。
【0018】前記した文献2で述べられている方法は、
2次元平面上しか移動できないカメラ(ロボット)の位
置が不確定なときに、固定した環境を認識することによ
り、カメラ位置を推定する方法を与えるものであった。
これに対して本実施例で述べられているのは、特に3次
元物体の位置と姿勢が不確定なときに、その物体の3次
元的な位置と姿勢を推定するために、如何にして物体の
特徴を抽出するかを提案したものであり問題設定が本質
的に異なる。
【0019】以下、各モジュ―ルで行なわれる処理につ
いて直線成分を抽出する場合を中心に説明する。
【0020】対象モデル格納モジュ―ル11では、対象
物を記述するモデルが格納されている。対象モデルが剛
体の場合には、それを記述する方法として、対象物を表
す面領域や頂点のモデルなどから構成される。たとえ
ば、直方体を表現するのには、それを構成する6個の面
を記述する方法(面を特徴付ける4個の頂点の3次元座
標)、または直方体を構成する8個の頂点(x1,y
1,z1),…,(x8,y8,z8)によって構成す
る方法、または直方体の稜線12本を線分として、その
端点に構成する方法等がある。
【0021】いずれにしても、こうした特徴はそれを記
述するパラメ―タに基づいて表現される。図3は、対象
モデルを面情報を用いて表現したものである。図3の例
では、直方体のような多面体を表現するのに、各面を基
本要素として構成する。各面には、その面を定義する頂
点が付属されている、例えば、図3の面1は、点P1,
P2,P3,P4によって定義される。さらに各面には
その面の外向きの法線ベクトルが付属されている。
【0022】このモデル化に際して、その対象物に対し
て基準となる一点P0 と、基準となる回転姿勢Q0 を考
える。この基準原点P0 と基準姿勢Q0 を用いると、対
象物の局所座標系(x1 ,y1 ,z1 )を構成すること
ができる。図4に示されているように、P0 によって、
局所座標系の原点が定義され、Q0 によってその座標系
のx1 ,y1 ,z1 軸の方向が定義されるわけである。
対象物を構成する全ての点は、この局所座標系の3次元
点P(x1 ,y1 ,z1 )として表現することができ
る。
【0023】さて、次に対象物が世界座標系(xw ,y
w ,zw )の中に置かれているとすると、その対象物は
世界座標系の中で、ある位置である姿勢を有して存在す
ることになる。従って、対象物の各点を世界座標系(x
w ,yw ,zw )で表現するためには、対象物の基準点
0 と基準姿勢Q0 が世界座標系でどのように表現でき
るかを表せばよい。今、基準原点P0 の世界座標系(x
w ,yw ,zw )での位置をP0 =(px ,py
z )とし、基準姿勢Q0 をQ0 =(φx ,φy
φz )とする。ここに、(px ,py ,pz )はP0
世界座標系におけるx,y,z座標系を表し、φx ,φ
y ,φz は、図4に示すように、それぞれ世界座標系か
らみて、xw 軸,yw 軸,zw 軸に対する回転角度を表
す。
【0024】すると、対象物内の各点Pのx,y,z座
標が、局所座標系でP(x1 ,y1,z1 )の値をとる
とすると、その世界座標系での位置(xw ,yw
w )は、
【数1】 と斉次変換行列H=H(px ,py ,pz ;φx
φy ,φz )を用いて表すことができる。ここに、H
は、
【数2】 という移動パラメ―タを含む行列と回転パラメ―タを含
む行列に分解され、それぞれは
【数3】 と書くことができる。
【0025】以上述べたように、対象物の各点の世界座
標系での位置は、対象物の基準原点P0 =(px
y ,pz )と基準姿勢Q0 =(φx ,φy ,φz )の
世界座標系での表現と、対象物を構成する各点は局所的
座標系(x1 ,y1 ,z1 )での相対座標を利用して表
現できる。すなわち、この対象モデルは、こうして対象
に係わるパラメ―タ群として、対象物の基準原点と基準
姿勢を組み合わせたパラメ―タp=(px ,py
z ;φx ,φy ,φz )と、対象物の局所座標系で表
現できるモデルの特徴のパラメ―タuによって表現さ
れ、それらは画像特徴予測モジュ―ル13に送られる。
【0026】同様に対象物局所座標内で表現される線分
も、その線分の端点を対象物局所座標系で表現しておけ
ば、式(1)で表される点の変換式を利用することによ
り世界座標系での表現を求めることができる。
【0027】さらに一般的に、各種の対象物を規定する
ようなパタ―ンや特徴は、それらを構成する点を対象物
局所座標系で表現しておき、式(1)で表される点の変
換式を利用することにより世界座標系での表現を求める
ことができる。
【0028】ある対象物を認識するときには、対象物の
大まかな位置や姿勢がわかっている場合がある。例え
ば、対象物の動きがそれまでの観察によって大まかに推
定できる場合などがその例である。いまこの場合を説明
しよう。
【0029】時刻t0において対象物の位置と姿勢に関
する観察が行なわれ、その対象物の位置と姿勢がp0=
(p0x ,p0y ,p0z ;φ0x ,φ0y ,φ0z
と推定され、その速度ベクトルv=(vx ,vy
z )と回転速度ベクトル(ωx,ωy ,ωz )が、t
0からt1までのW=(vx ,vy ,vz ;ωx
ωy ,ωz )としたとき、その不確定度が平均値Wバ―
と共分散行列Σwであるとみなされるとき、t1におけ
る対象物の位置と姿勢p1=(p1x ,p1y ,p
z;φ1x ,φ1y ,φ1z )は、以下のような関係
式で書けるので、Δt=t1−t0とすれば、
【数4】 その不確定度は、平均値と共分散行列を用いて表現でき
るが、平均値に関しては、
【数5】 によって求まる。ここに、Trans(* ) とRPY(* ) は、式
(3)で表された行列である。一方、共分散行列を求め
るにはp1とVの平均値p1バ―とWバ―のまわりでの
変分δp1=p1−p1バ―,δW=W−Wバ―との関
係を、(4)(5)を線形化することによって求める。
【0030】
【数6】 ここにJはp1のWに対するJacobi行列である。このよ
うに変分の関係式が求まると、p1の共分散行列は、
【数7】 と計算することができる。ここで、E[* ]は、期待値
をとるオペレ―タを表す。このように、対象物の動きの
不確定度が統計的にモデル化できるときには、その位置
と姿勢を表すパラメ―タの将来の予測を平均値や共分散
行列を用いて表現することができる。
【0031】このように、対象物の位置や姿勢を前もっ
て統計的に予測できる場合は他にもある。産業ロボット
などを利用して、部品の組み立てなどを行なう場合に
は、あらかじめ組み立てるべき部品が、ある指定された
場所に前もって置かれている場合が多いが、その位置は
必ずしも正確ではない、そうした場合には、対象物であ
る部品の実際に置かれている場所が指定された場所から
どの程度離れているかを表す誤差を統計的に解析するこ
とにより、その部品の位置の推定値を、平均値と共分散
行列によって表現することができる。
【0032】対象物位置・姿勢推定モジュ―ル16は、
このようにして対象物の位置姿勢を表すパラメ―タが統
計的にどのような値を取り得るかを、平均値や共分散行
列などを用いて予測するモジュ―ルである。
【0033】画像特徴予測モジュ―ル13は、対象物を
撮影装置(カメラ等)の位置や姿勢情報と、対象物の位
置や姿勢の推定値の情報に基づいて、対象物がどのよう
に撮影装置に映るかを予測する。これは、たとえば対象
物が3次元的に位置するところの予測値の平均値pバ―
を利用して、対象モデルから予測画像を生成する方法に
よって実現できる。こうした、予測画像を生成する方法
は、前記した文献4で述べられているように、一般に対
象物のモデルを利用することによって実現することがで
きる。
【0034】本実施例では図3の多面体の例で、こうし
た予測図がどのように生成されるかを説明する。多面体
の場合には、各面を構成するのは、その境界を表す線分
である。したがって、予測図では、そうした線分のどの
部品がカメラが置かれている視点から見えるか否か(可
視か、不可視か)を決定すればよい。これを実現するた
めに、各線分上の点と視点とを結ぶ線分が他の面と交差
するか否かを順次調べ、もしいずれの面とも交差しなけ
れば、その点は可視な点として登録してゆくという方法
を取ることにより、予測画を生成することができる。図
5はその出力例を表したものである。この図で表されて
いるように、9本の線分
【数8】 が可視な線分として出力される。この際重要なのは、画
像特徴予測モジュ―ル13では、その出力を対象物局所
座標系でのパラメ―タとして表現している点である。上
記可視なモデル特徴群L1,L2,L3,…,L9は、
本実施例では詳しく説明しないモデル特徴−画像特徴対
応探索モジュ―ル15に送られる。
【0035】こうして、一つの予測画像が生成される
と、次にその予測画像から対象物を規定する特徴を選択
することができる。この特徴としては、特徴点、線分、
あるいは曲線などを考えることができる。次にこうした
特徴が画像内またはパラメ―タ空間内でどのような特徴
を示すかを説明する。前記した文献2で述べられた方法
では、完全にモデル化された動かない環境の中を動くロ
ボットの位置を推定するために、ロボットの位置不確定
度を画像内に伝播した。以下に説明する方法は、その逆
の作業である。すなわち、位置が不確定な対象物を、固
定された撮影装置で撮影したときに、その対象物の画像
内での位置不確定度がどのようになるかを計算するわけ
である。
【0036】こうした場合には、対象物の基準となる位
置P0 と姿勢Q0 の世界座標系での表現に対して推定値
を利用することができる。具体的には、p=(px ,p
y ,pz ;φx ,φy ,φz )で使用される6個のパラ
メ―タを確率的に表現したり、ある領域制限を用いて表
現したりすることができる。
【0037】こうしたパラメ―タを確率的に表現する方
法の一つは(px ,py ,pz ;φx ,φy ,φz )の
平均値と共分散行列を用いるものである。こうした確率
的な表現を利用すると、さらに適当な閾値を用いること
によって、パラメ―タの存在範囲を制限することができ
る。pの平均値pバ―とpの共分散行列Σp を利用する
と、適当な閾値dを利用して、
【数9】 なる集合を定義すると、閾値dを制御することによっ
て、pの存在する範囲を制限することができる。
【0038】また領域によって制限する方法とは、p=
(px ,py ,pz ;φx ,φy ,φz )の取り得る領
域をある領域に限定することを意味する。例えば、
【数10】 で限定される空間Bによって限定する方法などがある。
ここで、αx ,βx ,…,γz ,εz などは、定数であ
る。
【0039】いま、対象物の特徴を規定する対象物の局
所座標系でのパラメ―タをuとする。このuとしては、
3次元点の位置座標や曲線を記述する方向ベクトル等
で、対象物の3次元空間中での特徴となるものを表すパ
ラメ―タである。
【0040】話を簡単にするため、対象物局所座標系で
の位置座標u=(x,y,z)を有する3次元点Pを対
象物の特徴とし、その点特徴をカメラによって観察する
場合を考える。世界座標系での対象物の位置P0 と姿勢
0 が不確定であるために、カメラでこの特徴点を観察
するとその像のカメラ画像内での位置と姿勢も不確定と
なる。それがどの程度不確定かを表現するためには、P
0 とQ0 の不確定度をカメラ画像内の像に伝播すればよ
い。前記した文献2のペ―ジ281−282に表されて
いるように、まず対象局所座標系での3次元点P(x,
y,z)とそのカメラ像P′との関係を定式化する。簡
単のために、撮影装置をTVカメラ1として、それをピ
ンホ―ル型のカメラとしてモデル化したとする。さらに
カメラが正しく較正されているとすると、カメラ画像内
の点P′の位置v=(r,c)は、
【数11】 ここに、T=(tij)(i=1,2,3;j=1,
2,3,4)はカメラ較正行列とよばれ3×4の実行列
である。H=H(px ,py ,pz ;φx ,φy
φz )は4×4の行列で、式(2)、(3)に示される
対象物局所座標系から世界座標系への変換行列である。
さらに、wは遠近効果を表すパラメ―タであり、実際の
画像内の位置v(c,r)は、(rw/w,cw/w)
の演算によって得ることができる。
【0041】さて、P0 とQ0 に含まれている不確定度
を3次元特徴点uのカメラ像(r,c)に伝播するため
には、まずP0 とQ0 の不確定度をpの平均値pバ―と
pの共分散行列Σp によって表現しておく。この方法に
関しては、前述した通りである。すると、v=(r,
c)の平均値vバ―=(rバ―,cバ―)は、遠近効果
を表すパラメ―タwの平均値wバ―を利用して、
【数12】 で求まる。さらに、式(12)を変形し、wの項を除去
した後、r,cをpの関数として表す。その後、その方
程式に関して、pバ―,vバ―=(rバ―,cバ―)の
まわりでの変分δp=p−pバ―,δv=v−vバ―を
考えれば、
【数13】 と書くことができる。ここに、Fは(r,c)のpに対
するJacobi行列である。するとvの共分散行列Σvは、
期待値をとるオペレ―タをE[* ]とすると、
【数14】 と書くことができる。ここで、対象物の位置姿勢パラメ
―タpの共分散に関する関係式、
【数15】 を用いた。
【0042】以上のように、v=(r,c)の平均値と
共分散行列を求めることができる。さらに、このv=
(r,c)の平均値と共分散行列に基づいて、vの存在
する範囲を確率的に制限することができる。例えば、
【数16】 で表現される空間を定義し、ある閾値dを制御変数とし
て、領域をA(vバ―,Σv ;d)によって制限すれば
よい。ここで、制御変数dを大きくとれば、より大きな
確率でvはA(vバ―,Σv ;d)の中に含まれること
になる。
【0043】図6は、対象物の位置姿勢のパラメ―タに
含まれる不確定度をカメラ画像内に伝播した場合の例を
示したものである。図6(a)は対象物局所座標系の原
点P0の持つ位置姿勢不確定度を楕円体で表したもので
ある。図6(b)は、画像特徴として点を選択したと
き、カメラ画像面に出現が予測される特徴点がどのよう
な不確定度を持つかを表したものである。
【0044】以上では、特徴として3次元点を用いた
が、対象物を規定するいろいろな特徴は、一般的に対象
物の局所座標系のもとで、あるパラメ―タuによって表
現することができる。特徴がパラメ―タ化できるときに
は、その特徴がカメラ像として表出するときのパラメ―
タに変換する式を求める。例えば、対象物上の特徴点
は、カメラ画像上で点としてパラメ―タ化され、対象物
上の線分特徴は、カメラ画像上でも線分として表出し、
パラメ―タ化することができる。次に、対象物と姿勢に
含まれている不確定度をカメラ像のパラメ―タに伝播
し、その不確定度に基づいてカメラ像パラメ―タ空間の
制限を行なう。
【0045】上記の例では、点特徴の場合について、そ
の解法を詳しく述べたが、対象物をパラメ―タuで記述
するような一般的な場合には、以下のような方法によっ
て不確定度を伝播することができる。
【0046】(1)対象物の位置・姿勢をパラメ―タ化
する。例えばその値をpとする。pに関する平均値pバ
―と共分散行列Σp を求める。
【0047】(2)対象物の特徴をパラメ―タを用いて
表現する。そのパラメ―タは、対象物の局所座標系で表
現されるものである。例えば、その特徴のパラメ―タを
uとする。
【0048】(3)対象物の特徴に対応するカメラ画像
の特徴を選択し、その特徴をカメラ画像内で表現するた
めのパラメ―タvを設定する。
【0049】(4)u,v,pを関連づけるパラメ―タ
間の方程式f(u,v,p)=0を求める。次に、パラ
メ―タvに関連する不確定度を計算する。まず、平均値
vバ―を求めるには、方程式
【数17】 を解けばよい。一方、共分散行列Σvを求めるために
は、f(u,v,p)=0の方程式の平均値pバ―,v
バ―のまわりでの変分をとることにより求める。具体的
には、
【数18】 の変分方程式において、f(u,pバ―,vバ―)=0
であることを利用すると、
【数19】 が利用でき、最後に
【数20】 という線形方程式によって、変分δvを変分δpによっ
て表現することができる。今、前式の変換行列の部分を
Fで表すとすると、
【数21】 で表現される方程式が求められ、このことから、vの共
分散行列Σvは、
【数22】 の形で表現できる。その後、適当な閾値dを選択して、
式(19)で示されるパラメ―タ領域A(vバ―,
Σv ;d)に限定される。図6(b)のフレ―ム内の楕
円は、こうした画像特徴点の存在制限領域を表したもの
である。
【0050】以上の例では、特徴が単一のパラメ―タに
よって表現できる場合について説明したが、複数のパラ
メ―タを結合して一つの特徴を表現する場合もある。例
えば、直線成分で、その2個の端点の位置座標がパラメ
―タとして与えられている場合には、前記した文献2が
説明しているように、直線成分全体のカメラ画像内の位
置不確定度を次のようにして求めることができる。
【0051】まず、直線成分特徴の各端点に関して、そ
のカメラ画像内の位置不確定度を求め、その位置不確定
度から作られる制限領域を組み合わせることによって、
直線の存在制限領域を算出することができる。図7
(a)、(b)、(c)はこの方法を表したものであ
る。図7(a)は、直線成分の2端点P1とP2の存在
制限領域を構築したものである。図7(b)は、これら
端点の存在制限領域から、それを含む凸閉包を作り、そ
れを直線成分P1 2 の存在制限領域としたものであ
る。この存在制限領域は必ずしも、図7(b)のよう
に、最小の閉領域で構成する必要はない。例えば、図7
(c)で示されるように、直方領域で近似しても構わな
い。
【0052】直線成分の抽出に関しては、ハフ変換が有
効な手段であることが知られている(文献2、ペ―ジ2
85)。文献2のペ―ジ300で示されているようにあ
らかじめ直線成分は、3次元空間内で、
【数23】 と表すことができる。ここに、[a,b,c]T は、直
線の方向を規定する方向余弦、[x0 ,y0 ,z0 T
は直線上の任意の一点、tは媒介変数である。こうした
3次元上の直線をピンホ―ルモデルで近似できるカメラ
で撮影すると、その像はやはり直線としてカメラ画像上
に現れる。図8にあるように、その直線を原点からの距
離ρと、直線の法線の方向γによって表現したのがハフ
変換であり、(ρ,γ)が作る空間はハフ空間と呼ばれ
る。もし、対象物の位置と姿勢の基準パラメ―タP0
0 の値が不確定のときには、こうしたハフ変換のパラ
メ―タのカメラ画像内における値も不確定となる。
【0053】前述したようにP0 とQ0 の不確定度をハ
フ変換パラメ―タに伝播することにより、ハフ変換パラ
メ―タの不確定度を計算することができる。いま、この
v=(ρ,γ)の対応するパラメ―タの平均値をvバ―
=(ρバー,γバー)、共分散行列をΣvとする。図9
は、ハフ空間内の不確定度を表したものである。
【0054】いったん、ハフ変換パラメ―タの不確定度
が計算できると、下式で示されているように、閾値dを
用いて、ハフ変換パラメ―タの存在領域を限定すること
ができる。
【0055】
【数24】 この限定の方法は、式(19)に表されている方法と同
様である。実際には直線成分を抽出するためには、この
限定した領域の範囲だけについて、対応する直線成分を
抽出すればよいことになる。このように、画像特徴予測
モジュ―ル13で対象物を規定する特徴がどのような見
え方をし、その特徴を表現するパラメ―タがどのような
値を取り得るのかが計算される。
【0056】次に、画像特徴抽出モジュ―ル14では、
画像特徴予測モジュ―ル13で選択されたモデル特徴を
カメラ画像の中から抽出することがおこなわれる。ここ
では、P1 ,P2 を端点とする直線成分P1 2 の抽出
を例として説明する。画像特徴予測モジュ―ル13で作
られたある直線に関する情報は、 (1)直線成分の端点のカメラ画像内での位置の不確定
度 (2)直線成分のハフ変換パラメ―タの不確定度 の2点であった。画像特徴抽出モジュ―ル14では、こ
うした情報を利用して、直線成分特徴を抽出する方法を
選択する。
【0057】直線成分を抽出するには、以下のような方
法を用いる。
【0058】(1)直線成分のハフ変換パラメ―タの存
在領域に対応するハフ累積行列D(ρ,γ)を用意す
る。ここで、ハフ空間は適当に離散化しておく。この行
列の大きさは、ハフ変換パラメ―タの限定された大きさ
に対応する。例えば、いまρの取り得る範囲を[ρmin
,ρmax ]、γの取り得る範囲を[γmin ,γmax ]
とすれば、この行列は、上記のρ,γの範囲を包含する
ものであればよい。次に、このハフ累積行列D(ρ,
γ)を零初期化する。
【0059】(2)限定された画像空間を長方領域[rm
in,rmax,cmin,cmax]で近似し、その領域に対して、
所望の平均的傾き(ハフ変換パラメ―タγは直線成分の
法線方向を表すので、γに直交する方向が直線成分の傾
きに相当する)に特に感度のある微分オペレ―タを施
す。こうしたオペレ―タの例は、例えば、前記した文献
3のpp.403-410のIntegrated Directional Derivative
Gradient Operator で示されているように、線形型のフ
ィルタで構成することができる。この特別なフィルタを
適用するのは、できるだけノイズの影響を抑えて、所望
の方向の直線成分を検出するためである。そしてこのフ
ィルタを限定された画像領域に適用する。
【0060】フィルタの出力の絶対値がある閾値より大
きな画素(r,c)に関しては、その画素は所望の直線
成分に対応するエッジを構成する可能性があると考え、
γの取り得る全ての範囲の角度方向についてそれに対応
するρを計算する。すなわち、γをγmin からγmax ま
で値を変えながら、
【数25】 を計算し、それに対応する(ρ,γ)のハフ累積行列の
要素の値D(ρ,γ)を1増やす。
【0061】以上のことを、限定された画像領域内の全
ての画素について繰り返す。
【0062】(3)ハフ累積行列D(ρ,γ)の中から
ピ―クを捜し、そのピ―クに対応する直線成分を限定さ
れた画像内で本当に直線成分として存在する時には、そ
のピ―クに対応する直線成分として登録する。このステ
ップ(3)の操作をある所望の直線成分が検出できる
か、ある一定以上の大きさのピ―クが検出できるまで、
繰り返す。
【0063】以上のような操作(1)、(2)、(3)
をすることで画像内の処理をする領域を限定するので、
高速な処理が実現可能となる。また、特別なフィルタを
適用することで、ノイズの影響をできるだけ受けないで
直線成分を抽出することができる。もう一つ重要なこと
として、前記した文献2で述べられた方法では、平面上
を動くロボットの位置と姿勢の推定のための直線成分の
画像特徴抽出方法を述べただけであり、位置と姿勢が不
確定な3次元対象物の画像特徴を抽出する方法は与えて
いなかった。この文献2の方法より複雑な問題を解決す
るために、本実施例では、3次元対象物の位置姿勢不確
定度を上記した方法によって画像面やパラメ―タ空間に
効率よく伝播しているわけである。
【0064】以下に、第2実施例を説明する。第2実施
例は、対象物の特徴が曲線として表されるものに関し
て、その抽出方法を表したものである。対象モデル格納
モジュ―ル11と対象物位置・姿勢予測モジュ―ル12
の機能は、実施例1の場合と同様なので、ここでは、画
像特徴予測モジュ―ル13と特徴抽出モジュ―ル14の
機能について述べる。
【0065】対象モデル格納モジュ―ル11が対象物の
モデル情報を画像特徴予測モジュ―ル13に送った後、
画像特徴予測モジュ―ル13では、その予測画に現れる
曲線成分を選択する。
【0066】もし、特徴が曲線として表示される時に
は、その曲線を構成する代表点を求め、その代表点に対
する画像内での不確定度をまず求め、それら不確定領域
の閉包を考えることにより、曲線の画像内の存在領域を
制限することができる。
【0067】曲線の予測生成を行なうには、まずそのモ
デルとなる曲線代表点の不確定度を平均値と分散によっ
て求めておく。
【0068】モデル曲線は、一般的にパラメ―タを使用
して
【数26】 の形で記述される。ここに(r,c)は、画像の行・列
方向を表すパラメ―タであり、tは曲線をその1端点か
ら長さを規定するパラメ―タである。pは曲線の特性を
表すパラメ―タである。
【0069】曲線全体が一つのセグメントとして抽出す
るのが困難と判断できる場合には、曲線成分が複数の曲
線成分に分割される。分割される曲線成分のことをい
ま、モデル曲線セグメントと命名することにする。この
分割方法としては、例えば以下のような方法を考えるこ
とができる。
【0070】(1)モデル曲線を均等な間隔で分割す
る。図10(a)に示されているように、モデル曲線の
長さを基準として、曲線を分割して、曲線セグメントを
生成する。
【0071】(2)モデル曲線の端点を結ぶ直線と曲線
内の最遠点との距離があるしきい値を超えたときには、
その曲線を最遠点で2分割し、さらにその分割された2
つの曲線成分に同様な処理を施し、曲線上の点と端点を
結ぶ直線間の最遠距離がある一定の閾値になるまで、曲
線の分割を繰り返す。図10(b)に示されているよう
に、端点P1 とP2 を結ぶ線分から最も離れた点Pm
曲線P1 2 の間に求める。Pm から線分P1 2 まで
の距離dがある閾値より小さければ、曲線P1 2 を一
つの曲線セグメントとして登録する。その閾値より大き
ければ、曲線をP1 m とPm 2 の二つのセグメント
に分割し、その二つのセグメントに関して同様な分割を
行なう。
【0072】(3)モデル曲線の2端点と曲線内の最遠
点とが作る3角形の最遠点での内角がある閾値よりも小
さいときは、最遠点で2分割し、その分割された2つの
曲線成分について、同様な処理を施す。図10(c)に
示されているように、線分P12 から最も離れた曲線
上の点Pm を求め、P1 m 2 が作る角度を調べ、そ
の値がある閾値より小さければ、曲線P1 2 を一つの
曲線として登録する。もしそうでなければ、曲線を2つ
の曲線セグメントP1 m とPm 2 を生成して、それ
ぞれの曲線セグメントについて同様の分割を繰り返す。
【0073】(4)モデル曲線の1端点を始点とし、そ
の始点からモデル曲線を構成する代表点を追跡し、その
代表点における接線方向の角度を調べる。上記1端点を
基準とした接線方向の角度変化があるしきい値を超えた
ときには、端点からその代表点までの曲線成分を1つの
モデル曲線セグメントとして登録するとともに、その代
表点を新たな始点として、同様な処理を繰り返す。図1
0(d)に示されているように、曲線上に代表点P1
2 ,…,P8 をとり、各代表点Pi(i=1,2,
…,8)での接線の方向を始点P1 から順に計算する。
もしあるPiに関して、P1 とPi の接線のなす角度φ
i がある閾値を超えたときには、P1 i を曲線セグメ
ントとして登録し、次にPi を始点として同様な処理を
繰り返す。この操作は、始点が終点と一致するまで行な
われる。
【0074】もちろん、曲線の分割は上記の方法に限定
されるわけではない。こうして、分割がなされた後、各
領域でそれぞれの特徴に見合った方法で、曲線セグメン
トが抽出される。こうした曲線セグメントに関して、そ
の曲線セグメントをもっとも抽出しやすいような方法が
選択される。もう少し具体的に述べれば、与えられたモ
デル曲線セグメントをある領域内で、ある角度方向を持
ったほぼ直線に近い成分としてセグメント化することに
よっておこなう。こうして分割された曲線セグメントの
総数をNとする。
【0075】各モデル曲線セグメントを画像内のどこに
捜せばよいかを示す探索領域の計算がまずなされる。
【0076】次に画像特徴予測モジュ―ル13では、モ
デル曲線セグメントの端点P1 ,P2 が形成する線分P
1 2 の角度分だけP1 ,P2 の探索領域を逆回転す
る。すると回転された新しい座標系で、予測画像を考え
ることができる。図11(a)、(b)は、この回転を
示すためのものである。図11(a)に示すように、曲
線セグメントP1 2 は予測画像内で、θ°分だけ列方
向rから傾いている。このθ°分だけ座標系を逆回転し
て、線分P1 2 が列方向r′と平行になるようにす
る。図11(b)のようにこの手法を採用することによ
り、曲線セグメントP1 2 は、予測画像の列方向r′
にほぼ平行な直線成分と見なすことができるようにな
る。その後、この回転された座標系で、P1 ,P2 の探
索領域が決定される。このP1 ,P2 の探索領域から曲
線セグメントP1 2 の探索領域を次に形成する。これ
を生成する方法が図12(a)、(b)に示されてい
る。図12(a)は、P1 ,P2 の探索領域の凸閉包を
求めて、それを曲線セグメントの探索領域とするものを
表したものであり、図12(b)は、P1 ,P2 の探索
領域の長方形閉包により、曲線セグメントP1 2 の探
索領域を近似したものである。こうして、画像特徴予測
モジュ―ル13では、各曲線セグメントに関する予測画
像内での探索領域が計算される。
【0077】画像特徴予測モジュ―ル13からの出力
は、各曲線セグメントに関して、回転された予測画像系
でどの領域にモデル曲線セグメントが存在するか(探索
領域)を表す不確定度が計算された。一方、画像特徴抽
出モジュ―ル14は、各モデル曲線セグメントに相当す
る画像曲線セグメントを、前記の探索領域内で実際に抽
出する機能を持っている。以下、画像特徴抽出モジュ―
ル14での処理を図13に示すフロ―チャ―トを利用し
て説明する。
【0078】まず、モデル曲線セグメントの総数をNと
する。そして、各モデル曲線セグメントを表すインデッ
クスをkとし、k=1と初期化する(ステップS1)。
ここで、ステップは以下単にSで表す。次に、S2にお
ける処理を説明する。モデル曲線セグメントkに対し
て、画像特徴予測モジュ―ル13では、その探索領域が
回転された座標系で計算された。このステップでは、こ
の回転された座標系に対応するように、原画像の回転を
おこなう。実際には、モデル曲線セグメントの端点
1 ,P2 が形成する線分P1 2 の角度だけ逆回転す
る。いま、線分P1 2 がなす角度をθとし、原画像の
点(r,c)とその回転された対応点(rp ,cp
は、ある座標上のオフセット分(r0 ,c0 )を考慮す
ると、
【数27】 で計算できる。この計算で注意すべき点は、回転座標変
換を回転されるべき画像の座標(rp ,cp )を利用
し、その対応点を原画像(r,c)に求めて、その濃淡
値を回転先の画像の濃淡値とすることにある。実際に
は、(rp ,cp )は整数であるが、その原画像中での
対応点の座標(r,c)は整数とならないので、(r,
c)を計算した後、四捨五入などによる整数化の手段を
とるか、対応近傍点を考慮した近似を行なう。ここで
は、その近似化について簡単に説明する。いま、上式
(30)によって、原画像の対応画素座標(r,c)が
計算できたとする。そして、(r,c)の小数部分を切
り捨てて得た整数座標値を(r1,c1)とする。この
とき、
【数28】 を計算する。座標値(R,C)に対応する原画像の画素
の濃淡値をg(R,C)で表すことにすれば、求めるべ
き(r,c)に対応する濃淡値は
【数29】 によって、線形近似値を求めることができる。
【0079】次にS3では、0°の微分に対する2値画
像を作成する。まず原画像を微分するには、図14
(a)に表されるような窓型の線形フィルタを利用する
のが一般的である。例えば、画像の行・列方向を表すイ
ンデックスをそれぞれr,cとし、原画像の座標(r,
c)における濃淡値をa(r,c),微分画像の出力を
b(r,c)とすれば、あるウィンドウ型フィルタw
(i,j)によって、b(r,c)は以下のような計算
によって求めることができる。
【0080】
【数30】 例えば、0°に関する窓型フィルタは、図14(b),
(c)で表されているようなものである(文献3参
照)。さらに、同文献3のpp.337-352に表されているよ
うに、我々は、所望のフィルタの応答を考慮しながら、
w(i,j)の値を計算することができる。図14
(b),(c)では、5×5の大きさのフィルタを表し
たが、その大きさは5×5に限定されたわけではない。
m×nのようなフィルタであってもかまわない。また線
形のフィルタではなく、空間微分を実行する非線形のフ
ィルタであってもかまわない。
【0081】こうした微分フィルタの出力b(r,c)
は、おおむね0°方向のエッジ成分を有する画素に関し
て、その絶対値が大きな出力を持つことが期待できる。
次の作業では、この微分画像から、微分の符号を考慮し
た2枚の2値エッジ画像を生成する。具体的には、第1
のエッジ画像は上記微分画像b(r,c)の値がある閾
値 threshold_positiveより大きな値のとき、対応する
エッジ画像ep(r,c)を1とし、そうでなければe
p(r,c)を0とする。
【0082】一方、第2のエッジ画像では、上記微分画
像b(r,c)の値がある閾値 threshold_negativeよ
り小さければ、対応するエッジ画像en(r,c)の値
を1とし、そうでなければen(r,c)の値を0とす
るようにエッジ画像を設定する。ここで、2枚のエッジ
画像を別々に用意しておく理由は、後のエッジ成分の追
跡を行なう連結関係を明確にするためである。
【0083】微分画像から、こうしてエッジ画像を作成
すると、全体の画像は0または1で構成される2値画像
となる。もちろん、この画像はある角度方向のエッジを
含む画像となるわけであるが、画像ノイズ成分が著しい
時には、この画像の中には未だノイズに対応する疑似の
エッジ成分を含む可能性がある。
【0084】次のS4ではこうしたノイズ成分を取り除
くことを行なう。ここで重要なことは、この2値エッジ
画像の中では、ほぼある特定方向0°に対応する曲線部
分だけを抽出し、その他の角度成分に対応するものは極
力取り除くという点である。前例のように、曲線の探索
領域を限定している関係上、曲線セグメントP1P2の
角度もほぼ限定することができる。その角度範囲をマイ
ナスa°からプラスa°とすると、中心角度0°から±
a°の範囲で特に感度が高いものを利用すればよい。す
ると、ノイズの除去はあくまでこの範囲に限定すればよ
いことになる。2値画像でこうしたノイズ除去を行なう
には、注目画素の近傍の画素を参照してノイズ成分を除
去する方法が考えられる。
【0085】一つの例としては、注目画素の近傍に対し
て、ある指定された大きさの2値の要素からなるウィン
ドウ型フィルタ(またはテンプレ―ト型フィルタ)を施
すことによって実現する。例えば、0°方向のエッジに
相反するノイズを除去するテンプレ―ト型フィルタを考
えよう。ある中心画素点(r,c)に対してその近傍を
参照して、その画素を通過する曲線があると思われると
きには、その中心画素に対する出力を1、そうでなけれ
ば0とするようなノイズ除去用のテンプレ―トを作成し
ておけばよい。
【0086】以下、この処理のことをテンプレ―ト処理
と呼ぶことにする。例えば、図15(a)の例のよう
に、中心点を注目画素(r,c)としたとき、その近傍
5×3の領域を考慮すると、注目画素を通過する曲線が
ある可能性が高い時に、そのテンプレ―ト処理の出力を
1とする。一方、図15(b)の場合のように、その中
心画素が注目点の場合に、そこを曲線が通過する可能性
が低いので、テンプレ―ト処理の出力を0とする。この
ようなテンプレ―ト処理を実現するには、あらかじめそ
の画素の近傍の画素値に対応したテ―ブルを作成してお
き、ルックアップテ―ブル処理を施すことにより実現で
きる。
【0087】例えば、中心画素(r,c)の画素のまわ
りの5×3近傍の画素値を利用するルックアップテ―ブ
ル処理を実現するには、(r+i,c+j)の位置の2
値の画像値a(r+i,c+j)に対応して
【数31】 で計算されるアドレスaddress に対応するテ―ブルをあ
らかじめ作成しておくことにより、ルックアップテ―ブ
ル処理を行なう方法などがある。もちろん、ノイズ除去
の方法はテ―ブルを利用しないものであってもよいし、
テンプレ―トの大きさも5×3に限定されたわけではな
い。
【0088】このようなノイズの除去によって、2値画
像中にある小さな孤立点などはほとんど除去されると同
時に、分断された曲線部分なども連結されて一つの曲線
に回復される。図16はこの様子を表したものである。
図中、黒点は、1である画素を表したものであり、黒点
のない部分は0である画素群を表したものである。図1
6(a)は、ノイズ除去処理前の2値画像を表し、図1
6(b)は処理後の画像を表したものである。
【0089】次にS5において、ノイズ成分が除去され
た2値画像に対して、次に細線化の処理が施される。こ
れは、上記ノイズ除去の方法だけでは、曲線成分が4連
結または8連結の2値曲線とならないことによる。2値
画像の細線化の方法としては、数多くの方法が提案され
ているので、ここでは詳細を述べないが、最も簡単な方
法はテンプレ―ト型のウィンドウを繰り返し画像に適用
することによって実現するものである(例えば、文献
3、pp.168-173を参照。)。このように細線化用のテン
プレ―ト処理を繰り返し施すことにより、曲線成分は細
線化され、次のステップへ移行する。
【0090】次に、S6において、細線化された曲線成
分に関して、おおむね0°方向の曲線成分が追跡され
る。この追跡に関しては、追跡する方向がある一定の角
度に限定されていることを利用する。たとえば、上記例
では、おおむね0°の方向だけの曲線を追跡すればよい
わけである。以下、曲線追跡を説明する。
【0091】(1)曲線画素の連結次数の計算 まず3×3のウィンドウを利用して、画像を走査し、細
線化された2値画像の各画素の近傍との連結次数を画像
として保存する。この連結次数は、3×3のウィンドウ
内で中央の注目画素が1であるとき、その8個の隣接画
素で1の値を有する画素の数に対応する。その方法を説
明するために曲線の端点と分岐点という2つの用語を定
義する。端点とは曲線の他に接続のない始点又は終点を
意味し、その曲線が一方向にしか接続しない点を表す。
一方、分岐点は曲線が枝分かれする点を意味する。例え
ば、注目画素が曲線の端点の場合には、その結合次数は
1であり、曲線上の点で端点でも分岐点でもない点は、
結合次数が2と表現される。一方、曲線の分岐点は、そ
の次数が3以上の数をして表現される。また、注目画像
の値が0のときには、その連結次数を0となる。こうし
て、連結次数画像は元の細線化された画像と同じ大きさ
で、その各画素に対応する値が整数をとる画像より構成
される。
【0092】(2)次に、この連結次数画像を走査しな
がら、曲線成分の端点または分岐点を捜す。端点か分岐
点が見つかった時には、その点から、8連結関係で連結
する隣接画素を追跡してゆく。この追跡は、次に分岐点
か端点に到達するまで続けられる。曲線成分を1画素ず
つ追跡してゆくにあたり、現時点での画素の連結次数と
次に連結する画素の連結次数を1ずつ減少させる。こう
してひとつの曲線成分が追跡されるとその曲線成分は、
0°方向性をもった曲線であるかがチェックされる。
【0093】このチェックの方法は、いろいろ考えられ
る。例えば1つの方法としては、曲線の始点と終点とを
結ぶ直線が、0°が許容する方向角度内である場合に
は、その方向の曲線と認識され、そうでない場合には曲
線とは認識されずにその曲線成分は破棄される。その曲
線成分が、0°の許容する曲線成分であると認識された
場合には、以下に示されるような、デ―タ構造のもと
に、その角度に対応した曲線成分の記述化が行なわれ、
曲線成分として登録される。
【0094】
【数32】 ここにc_idは、曲線の通し番号を表す整数で、o_
idは、曲線の方向を示すインデックスkを示す。曲線
の特性は、曲線の始点の一方が少なくとも、端点であっ
た場合には1、両方とも分岐点であった場合には0で表
現される。一方、nは曲線を構成する画素の数で、始点
と終点を含んだ数である。曲線の始点と終点は曲線の追
跡を行なう際に利用した端点または分岐点である。最後
に曲線構成画素群は、曲線の追跡で通過した画素群を表
す。ここに最初の画素は始点に等しく、最後の画素は終
点に等しい。
【0095】このように一つの曲線要素に対して登録が
終った後、別の曲線の端点または分岐点を連結次数画像
の中に捜し、同様の曲線追跡と登録が実行される。この
処理は、全ての曲線が探索されるまで、すなわち連結次
数画像の中に1が無くなるまで行なわれる。この際、連
結次数画像に1を含むか否かのチェックに際して、画像
全体のチェックする必要はない。まず、曲線を抽出する
まえに、連結次数の全体の和を求め、それをあるカウン
タsに保存しておく。曲線の追跡を行なう際、連結次数
を1ずつ減らしてゆくが、その際このカウンタsの値を
1減らす。そして1個の曲線の登録が終了するたびに、
このカウンタの値をチェックし、もしその値が0となれ
ば、曲線の抽出は終了したことになる。
【0096】こうして、あるモデル曲線セグメントに対
応する画像曲線セグメントの抽出が終了した後、インデ
ックスkの値を1増やす(S7)。
【0097】次に、S8において、インデックスkとモ
デル曲線セグメントの総数Nとを比較する。もし、kの
値がNより大きくなったときには、以上の処理を終了さ
せる。もし、kがNを超えていなければ、ステップ2に
戻り、次のモデル曲線セグメントで同様な処理が反復さ
れる。
【0098】S9では、S1からS8をへて、全モデル
曲線セグメントの画像曲線成分が抽出される。抽出され
た全ての画像曲線成分は式(35)で示される方法で記
述される。このステップでは各方向で抽出された曲線成
分を一枚の画像に収まるように統合する。
【0099】式(35)で表されている曲線成分は、回
転された座標系で求められたものであった。このステッ
プでは、まず回転された座標系で求まった全ての曲線成
分を、原画像の座標系での曲線成分表示にいったん戻し
た後に統合し、新たな曲線成分を生成する。
【0100】このため、まず原画像と同等の大きさの2
値画像(曲線格納画像)が1個用意され、その初期値と
して全ての画素に0の値が割り付けられる。
【0101】式(35)で表示された曲線群について、
まず式(30)の座標変換によって、原画像の座標
(r,c)が計算される。座標(r,c)が整数の格子
点に充分近い時には、(r,c)に対応する画素に1を
割り付ける。座標(r,c)が整数の格子点に近くない
場合には、その近傍の2点または4点の格子点1に割り
付ける。整数格子点に近いか否かは、座標(r,c)と
格子点までのユ―クリッド距離を計算し、その値がある
しきい値よりも小さい場合には、充分近いと判断する。
【0102】上記の処理をS2からS8までで抽出され
た全ての曲線成分について行なう。すると曲線格納画像
には、全ての方向に関する曲線成分が画像デ―タとして
表現されることになる。
【0103】この曲線格納画像に対して再度細線化の処
理を施す。この細線化を施す理由は、別々の角度方向の
画像で得られた曲線の一部が重なり合う可能性があると
同時に、その一部に1画素程度の誤差が含まれているこ
とがあるからである。こうして細線化を行なうことによ
り、別の角度方向で抽出された曲線の画素間のギャップ
が埋められるので、より正確な曲線が生成される。
【0104】さて、この操作によって全部の曲線成分が
2値画像に表現された後、再度曲線追跡を行なう。この
操作はS6で説明した方法とほぼ同じである。相違点は
以下の2点である。まず、このS9では、曲線の追跡後
に特に角度の制限を設けない点が異なる。さらに、曲線
の追跡に関連して、曲線の特性を表すstatusを利用し
て、非常に短い曲線成分でかつ曲線成分の始点・終点の
少なくても一方が分岐点でなく端点であるものはノイズ
成分として除去する点にある。
【0105】これは、曲線抽出を行なう際よく起こるヒ
ゲ成分の除去に対応する。こうして、曲線は式(35)
によって完全に記述化することができる。もちろん、前
記のような方法で、限定された領域内で画像曲線セグメ
ントを抽出すると必ずしも1個だけのセグメントが抽出
されるとは限らない。このような場合には、図1のモデ
ル特徴−画像特徴対応探索モジュ―ル15がもっとも適
当な画像曲線セグメントを選択することになる。ここで
はこのモデル特徴−画像特徴対応探索モジュ―ル15に
ついては説明しない。
【0106】本実施例で述べられているように、あらか
じめモデル化された対象物の画像内に表出する曲線成分
を、できるだけ雑音成分を除去しながら効率よく抽出す
ることかできる。
【0107】以上、2種の特徴(直線成分と曲線成分)
の抽出方法を中心にして述べたが、本実施例で説明され
た特徴抽出の方法は、こうした特徴に限定されたもので
はない。対象物をモデルとして表現する際、パラメ―タ
を用いて表現できる特徴に関しては、上記の方法を適用
することができるのは言うまでもない。例えば、特徴が
ある空間的な広がりを持ってパタ―ンとして表現できる
ときには、そのパタ―ンに対応するパラメ―タを選択
し、そのパタ―ンがカメラ画像内に投影される像を表現
するパラメ―タを求めて、そのパラメ―タに関する不確
定度を計算することにより、そのパタ―ン特徴の効率的
な抽出が実現できるわけである。また前記した文献1で
述べられているような、一般ハフ変換のパメラ―タに不
確定度を伝播することにより、それに対応する特徴を効
率的に抽出することもできる。
【0108】以下に第3実施例について説明する。前述
の実施例では、対象となるモデルは、正確にその形状が
わかっている場合のみに関して説明してきた。本実施例
では、対象のモデル自体に不確定要素が含まれている場
合でも、そのモデルに含まれる特徴を画像内から効率良
く抽出する方法を表わすものである。対象物はその形状
が必ずしも正確にわかっていない場合がある。またその
形状が多少時間的に変化する場合などが考えられる。
【0109】こうした場合には、前述したモデル特徴を
記述するパラメ―タuが確率的にしか表現できない場合
と考えることができる。これはモデル特徴パラメ―タu
の平均値と共分散行列によって表現できる場合などがあ
る。これは、モデル特徴パラメ―タuに対する平均値u
バ―と共分散Σuが付加されたことを意味する。この場
合にも、そのモデル特徴パラメ―タがカメラ画像内で表
現される画像特徴パラメ―タvの不確定度を推定するこ
とで、その画像特徴のカメラ画像内での抽出を効率的に
行なうことができる。以下がそのステップである。
【0110】(1)対象モデル格納モジュ―ル11のモ
デル表現には、各モデル特徴のパラメ―タuが平均値u
バ―と共分散行列Σuの形で表現され、画像特徴予測モ
ジュ―ル13に送られる。
【0111】(2)対象物位置・姿勢予測モジュ―ル1
2では、対象物の局所座標系の原点の位置・姿勢を示す
パラメ―タの値が予測される。この方法は第1実施例の
場合と同様なので、ここでは省略する。
【0112】(3)画像特徴予測モジュ―ル13では、
対象物位置・姿勢予測モジュ―ル12で求められた対象
物位置・姿勢のパラメ―タpと平均値pバ―と共分散行
列Σpが利用される。すなわち、その平均値pバ―を利
用して、対象物のカメラ画像での予測画が生成される。
モデル特徴パラメ―タuに対応する画像特徴パラメ―タ
vが決定され、その不確定度が以下のように計算され
る。3個のパラメ―タp,u,vの間の関係式f(u,
v,p)=0が決定され、平均値pバ―とuバ―の値を
利用して、vの平均値vバ―が計算される。
【0113】その方法は、f(uバ―,vバ―,pバ
―)=0の方程式を解くことによって求める。次に、u
の共分散行列を推定する。その方法は、f(u,v,
p)=0の平均値のまわりでの変分をとることによる。
具体的には、
【数33】 から、f(uバ―,vバ―,pバ―)=0であることを
利用して、
【数34】 を求め、これから変分δvを変分δuとδpによって表
現する:
【数35】 これを、行列F,Gを用いて以下のように簡単に表現す
る。
【0114】
【数36】 uとpは、統計的に独立であると仮定すると、vに対す
る共分散行列Σvは、以下のように計算することができ
る。
【0115】
【数37】 もし、uとpが独立でないと仮定すると、期待値をとる
オペレ―タをE[* ]としたときに、
【数38】 という形で計算することができる。以上説明したよう
に、モデル特徴パラメ―タuの平均値と共分散行列によ
り、モデル特徴パラメ―タuの不確定度を計算すること
ができる。さらに、これらの統計量を利用して、そのu
のとるべき値を制限することができる。
【0116】図17は、不確定度の伝播の模式図を表し
たものである。図17(a)は、対象物の原点の位置・
姿勢不確定度が楕円体で表されるとともに、その原点を
基準とした対象物局所座標系での各頂点の位置不確定度
も楕円体で表現されている。こうした2種の不確定度が
融合され、カメラ画像面へと伝播される。画像特徴予測
モジュ―ル13で作成された各画像特徴点の不確定度
は、図17(b)のフレ―ムの楕円によって表現されて
いる。
【0117】(4)画像特徴抽出モジュ―ル14では、
こうしたモデル特徴パラメ―タuに対応する画像特徴パ
ラメ―タvが制限された領域内で画像特徴が抽出され
る。抽出する方法は、第1実施例と第2実施例で説明し
たので、ここでは省略する。
【0118】本実施例で説明したように、対象物モデル
を規定する特徴の位置やパラメ―タが不確定の場合で
も、その不確定度を統計的に記述しておくことにより、
画像内に表出するその特徴の像を効率的に抽出すること
ができる。
【0119】上記、3種の実施例においては、対象物を
3次元物体として説明したきたが、本発明は3次元物体
の特徴抽出に限定されるものではない。2次元物体を抽
出される場合にも、もちろん適用することができる。そ
の場合には、対象物の位置姿勢不確定度を表すパラメ―
タpを6次元ベクトルから3次元ベクトルとし、対象物
の局所座標系での特徴パラメ―タuも適当に変更するこ
とによって実現できる。
【0120】
【発明の効果】以上詳述したように、本発明によれば、
あらかじめモデル化された対象物を規定する特徴を、画
像内でなるべく雑音の影響を受けず、かつ効率的に抽出
することができる。
【図面の簡単な説明】
【図1】第1実施例を実現する画像特徴抽出装置の概観
を示すブロック図である。
【図2】図1のデータ処理装置の構成を示す図である。
【図3】対象モデルを面情報を用いて表現した図であ
る。
【図4】基準原点P0 と基準姿勢Q0 を用いた対象物の
局所座標系(x1 ,y1 ,z1)を示す図である。
【図5】予測画の出力例を示す図である。
【図6】対象物の位置姿勢のパラメ―タに含まれる不確
定度をカメラ画像内に伝播した場合の例を示す図であ
る。
【図7】直線の存在制限領域を実現する方法を説明する
ための図である。
【図8】ハフ変換を説明するための図である。
【図9】ハフ空間内の不確定度を表した図である。
【図10】曲線成分を複数の曲線成分に分割する方法を
説明するための図である。
【図11】座標の回転を示す図である。
【図12】P1 ,P2 の探索領域から曲線セグメントP
1 2 の探索領域を生成する方法を説明するための図で
ある。
【図13】特徴抽出モジュ―ルの処理を示すフロ―チャ
―トである。
【図14】窓型線形フィルタの例を示す図である。
【図15】テンプレート処理を説明するための図であ
る。
【図16】ノイズ除去処理前及び処理後の画像を示す図
である。
【図17】不確定度の伝播の模式図である。
【符号の説明】
1…TVカメラ、2…A/D変換器、3…画像メモリ、
4…データ処理装置、11…対象モデル格納モジュー
ル、12…対象物位置・姿勢予測モジュール、13…画
像特徴予測モジュール、14…画像特徴抽出モジュー
ル、15…モデル特徴−画像特徴対応探索モジュール、
16…対象物位置・姿勢推定モジュール。

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 あらかじめ形状が確定的あるいは確率的
    にわかっている対象物を画像の中から抽出する装置にお
    いて、 対象物の位置や姿勢を規定するパラメ―タの取り得る値
    を確率的に予測し、その不確定度を計算する計算手段
    と、 上記パラメ―タの不確定度を画像面に伝播して、対象物
    を規定する特徴が存在し得る画像内の領域を制限するか
    あるいはその特徴が画像内で表現されるパラメ―タが作
    るパラメ―タ空間内の存在領域を制限する制限手段と、 前記特徴を前記制限手段によって制限された画像領域内
    またはパラメ―タ空間内で抽出する抽出手段とを具備し
    たことを特徴とする画像特徴抽出装置。
JP03090793A 1993-02-19 1993-02-19 画像特徴抽出装置 Expired - Fee Related JP3300092B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03090793A JP3300092B2 (ja) 1993-02-19 1993-02-19 画像特徴抽出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03090793A JP3300092B2 (ja) 1993-02-19 1993-02-19 画像特徴抽出装置

Publications (2)

Publication Number Publication Date
JPH06243251A true JPH06243251A (ja) 1994-09-02
JP3300092B2 JP3300092B2 (ja) 2002-07-08

Family

ID=12316791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03090793A Expired - Fee Related JP3300092B2 (ja) 1993-02-19 1993-02-19 画像特徴抽出装置

Country Status (1)

Country Link
JP (1) JP3300092B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006527881A (ja) * 2003-06-17 2006-12-07 三菱電機株式会社 ビデオの時間的な画像シーケンス中の移動オブジェクトを検出する方法
JP2013117795A (ja) * 2011-12-01 2013-06-13 Canon Inc 画像処理装置、画像処理方法
JP2013257182A (ja) * 2012-06-11 2013-12-26 Canon Inc 画像処理装置及び画像処理方法
WO2015048717A1 (en) * 2013-09-30 2015-04-02 Crown Equipment Limited Industrial vehicles with overhead light based localization
US9174830B1 (en) 2014-09-29 2015-11-03 Crown Equipment Limited Industrial vehicles with point fix based localization

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006527881A (ja) * 2003-06-17 2006-12-07 三菱電機株式会社 ビデオの時間的な画像シーケンス中の移動オブジェクトを検出する方法
JP2013117795A (ja) * 2011-12-01 2013-06-13 Canon Inc 画像処理装置、画像処理方法
JP2013257182A (ja) * 2012-06-11 2013-12-26 Canon Inc 画像処理装置及び画像処理方法
US9621856B2 (en) 2012-06-11 2017-04-11 Canon Kabushiki Kaisha Image processing apparatus and image processing method
WO2015048717A1 (en) * 2013-09-30 2015-04-02 Crown Equipment Limited Industrial vehicles with overhead light based localization
US9170581B2 (en) 2013-09-30 2015-10-27 Crown Equipment Limited Industrial vehicles with overhead light based localization
US9606540B2 (en) 2013-09-30 2017-03-28 Crown Equipment Corporation Industrial vehicles with overhead light based localization
EP3489894A1 (en) * 2013-09-30 2019-05-29 Crown Equipment Corporation Industrial vehicles with overhead light based localization
US9174830B1 (en) 2014-09-29 2015-11-03 Crown Equipment Limited Industrial vehicles with point fix based localization
US9340399B2 (en) 2014-09-29 2016-05-17 Crown Equipment Corporation Industrial vehicles with point fix based localization

Also Published As

Publication number Publication date
JP3300092B2 (ja) 2002-07-08

Similar Documents

Publication Publication Date Title
EP1329850B1 (en) Apparatus, program and method for detecting both stationary objects and moving objects in an image
CN108898676B (zh) 一种虚实物体之间碰撞及遮挡检测方法及系统
Zhang et al. 3D dynamic scene analysis: a stereo based approach
Stenger et al. Model-Based Hand Tracking Using an Unscented Kalman Filter.
Khoshelham Extending generalized hough transform to detect 3d objects in laser range data
EP3159121A1 (en) Device for updating map of mobile robot and method therefor
CN108648194B (zh) 基于cad模型三维目标识别分割和位姿测量方法及装置
EP1434169A2 (en) Calibration apparatus, calibration method, program for calibration, and calibration jig
EP3159126A1 (en) Device and method for recognizing location of mobile robot by means of edge-based readjustment
CN114365201A (zh) 结构注释
CN112750198B (zh) 一种基于非刚性点云的稠密对应预测方法
Gruen et al. Linear feature extraction with 3-D LSB-snakes
CA2397389A1 (en) Image model based on n-pixels and defined in algebraic topology, and applications thereof
CN114255323A (zh) 机器人、地图构建方法、装置和可读存储介质
US5173946A (en) Corner-based image matching
JP2018067188A (ja) カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム
CN115222884A (zh) 一种基于人工智能的空间对象分析及建模优化方法
CN116921932A (zh) 焊接轨迹识别方法、装置、设备及存储介质
JP3300092B2 (ja) 画像特徴抽出装置
CN111754467A (zh) 基于霍夫变换的车位检测方法、装置、计算机设备及存储介质
JP3610087B2 (ja) 移動物体追跡装置
Dryanovski et al. Real-time pose estimation with RGB-D camera
Szeliski Probabilistic modeling of surfaces
CN112365600A (zh) 一种三维物体检测方法
Deschenes et al. Improved estimation of defocus blur and spatial shifts in spatial domain: a homotopy-based approach

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020402

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090419

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090419

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100419

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees