JPH07264458A - 移動物体追跡装置 - Google Patents

移動物体追跡装置

Info

Publication number
JPH07264458A
JPH07264458A JP6055434A JP5543494A JPH07264458A JP H07264458 A JPH07264458 A JP H07264458A JP 6055434 A JP6055434 A JP 6055434A JP 5543494 A JP5543494 A JP 5543494A JP H07264458 A JPH07264458 A JP H07264458A
Authority
JP
Japan
Prior art keywords
image
feature
model
parameter
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6055434A
Other languages
English (en)
Other versions
JP3610087B2 (ja
Inventor
Akio Kosaka
明生 小坂
Goichi Nakazawa
吾一 中澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP05543494A priority Critical patent/JP3610087B2/ja
Publication of JPH07264458A publication Critical patent/JPH07264458A/ja
Application granted granted Critical
Publication of JP3610087B2 publication Critical patent/JP3610087B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 【目的】迅速且つ高精度で対象物のトラッキングを行
う。 【構成】画像入力部1を介して画像は撮像され、その映
像信号6はディジタル変換器2でディジタル画像信号7
に変換され、一旦、画像格納部3に格納され、画像処理
部4に送られる。画像処理部4では、カメラ姿勢デ―タ
10と画像デ―タ8とが解析され、その中にある移動物
体が解析されることで、移動物体の位置姿勢に関するパ
ラメ―タからなる移動物体デ―タ9が算出される。この
移動物体デ―タ9はカメラコントロ―ル部5に送出され
て解析され、移動物体を追跡しながら撮影する為にどの
ようにカメラを移動すればよいかを示すカメラ姿勢デ―
タ10が算出される。そして、該カメラ姿勢デ―タ10
は画像入力処理部1と画像処理部4とに送出され、カメ
ラの移動を実行しながらの撮影が行われる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は移動物体の3次元の位置
パラメ―タと3個の角度回転パラメ―タの合わせて6次
元での物体の移動を検出して次の物体の動きを予測する
装置に係り、特に移動物体の6次元解析を行うことによ
り、移動物体の追尾やバーチャルリアリティの為の移動
物体6次元解析などに用いられる移動物体追跡装置に関
する。
【0002】
【従来の技術】従来、文献「Christ Harris ,“Tracki
ng with Rigid Models,”in ActiveVision edited by
Andrew Blake and Alan Yuille ,MIT Press ,1993,p
p.59−74」には、移動する既知形状の物体をトラッキ
ングしながら、物体の3次元空間内の平行運動と回転運
動をカルマンフィルタ(Kalman Filter) を用いて推定す
る技術が示されている。
【0003】この技術では既知形状物体のモデル特徴線
分と画像から入力された画像線分の対応を検索する手段
において、既知物体のモデル線分上にコントロールポイ
ント(Control Points)を予め設定しておき、トラッキ
ングする物体の予測線画を現時点での対象物の位置姿勢
推定値を用いて作成し、予測線画上に設定されたコント
ロールポイントから抽出された画像線分特徴までの距離
を画像内で計測する。そして、この計測された距離がゼ
ロとなるような対象物の微小回転θ=(θx,θy ,θ
z )と微小平行移動Δ=(Δx ,Δy ,Δz )を算出し
て物体の位置姿勢の推定値の修正を行う。
【0004】こうして新たに得られた位置姿勢の推定値
と速度の推定値とカルマンフィルタを利用して、次の時
刻での物体の位置姿勢の推定値を算出して、物体のトラ
ッキングを実現している。
【0005】
【発明が解決しようとする課題】しかしながら、前述の
従来技術に係る移動物体追跡装置にあっては、既知物体
のモデル線分上にコントロールポイントを予め設定して
おき、トラッキングする物体の予測線画を現時点での対
象物の位置姿勢推定値を用いて作成し、予測線画上に設
定されたコントロールポイントから抽出された画像線分
特徴までの距離を画像内で計測するために、予測線画内
のモデル線分特徴と抽出すべき画像線分は充分近くに存
在しなければならず、更に対象物の写っている背景の画
像線分が対応を取るべき対象物の画像線分よりモデル特
徴線分の近くに存在する場合、誤って背景の画像線分と
モデル線分が対応をとる可能性が高い。
【0006】つまり、予測線画内のモデル線分特徴と抽
出すべき画像線分が離れている場合や背景が複雑な場合
などには、不安定に対象物のトラッキングを行うといっ
た問題があった。
【0007】本発明は上記問題に鑑みてなされたもの
で、その目的とするところは、モデル特徴線分が抽出す
べき画像線分とある程度離れていて、更に背景が複雑で
対象物と非常に類似している場合においても、迅速且つ
適確に対象物のトラッキングを行うことにある。
【0008】
【課題を解決するための手段】上記目的を達成するため
に、本発明の移動物体追跡装置は、対象物を撮影するカ
メラを有し映像信号を生成する画像入力部と、映像信号
をディジタル画像に変換するディジタル変換部と、ディ
ジタル画像を記憶する画像格納部と、ディジタル画像を
処理する画像処理部と、画像入力部の移動を制御するカ
メラコントロール部を設けた移動物体追跡装置におい
て、上記画像処理部は、対象物の形状モデルをモデル特
徴の形で記憶するモデルデータ格納手段と、上記対象物
の位置姿勢を規定する位置姿勢パラメータの時刻tn
おける値p(tn )を時刻tn 以前の時刻tn-m (m=1,
2,3,…,n;nは整数)において推定された位置姿勢パラメ
ータ値p(tn-m )を利用して予測する位置姿勢予測手
段と、上記時刻tn における位置姿勢パラメータの予測
値とカメラコントロール部が生成する時刻tn における
カメラの位置姿勢パラメータを利用して、対象物を規定
するモデル特徴のうち撮影される画像で可視と予測され
る少なくとも一部のモデル特徴を選択し、そのモデル特
徴が画像内でとり得るモデルパラメータの予測値を算出
するモデル特徴予測手段と、上記モデルパラメータの予
測値に基いてモデル特徴に対応可能な画像特徴の候補を
画像入力部により撮影された画像内から抽出し、その画
像特徴の画像パラメータを算出する画像特徴抽出手段
と、上記モデル特徴と画像特徴との間の対応を探索し、
対応のとれたモデル特徴のモデルパラメータと画像特徴
の画像パラメータ間の関係を利用して対象物の位置姿勢
パラメータの予測値を更新する特徴対応探索手段とを有
し、上記の処理を各時刻で繰り返しながら対象物の追跡
を行うことを特徴とする。
【0009】
【作用】即ち、本発明の移動物体追跡装置では、位置姿
勢予測手段が次の時刻における移動物体の位置姿勢パラ
メ―タを予測することで、次の時刻でカメラコントロ―
ル部がカメラを移動制御することによって、移動物体を
カメラで確実に撮影できる。また、モデル特徴予測手段
は、位置姿勢予測手段が予測した移動物体の3次元的位
置と姿勢のパラメ―タを利用することで、そのカメラ画
像で観察される可視のモデル特徴だけを選択し、限定さ
れたモデル特徴だけを選択可能となる。また、それら可
視モデル特徴が画像内に現れる際の取り得るパラメ―タ
の値を予測しかつ制限するために、モデル特徴以外の特
徴を排除し、画像特徴を抽出する領域を減少させること
ができる。このためモデル特徴と画像特徴が対応する可
能性のある特徴だけを優先的に抽出することができる。
一方、画像特徴抽出手段は、上記の可視モデル特徴に類
似した画像特徴だけを制限された領域内で抽出するた
め、画像内に現れる外乱を減少させることができる。さ
らに、この画像特徴抽出手段では、モデル特徴に類似し
た画像特徴を1個ばかりでなく、対応する可能性のある
候補を複数個抽出し、特徴対応探索手段では、これらの
候補のうちで最適なものを、対象物の位置姿勢パラメ―
タの取り得る値を考慮しながら探索するので、誤った候
補を選択する可能性を減少させる。そして、この対応関
係を利用して次の時刻の移動物体の位置姿勢を予測する
といった全体のサイクルを構成するので、安定した移動
対象物の追跡が実現できるのである。かかる作用によ
り、モデル特徴線分が抽出すべき画像特徴線分がある程
度離れていても更に背景が複雑かつ対象物と非常に類似
していても本移動物体追跡装置は、安定且つ高速に対象
物のトラッキングする。
【0010】
【実施例】以下、図面を参照して、本発明の実施例につ
いて説明する。
【0011】図1は本発明の第1の実施例に係る移動物
体追跡装置の構成を示すブロック図である。尚、第1の
実施例に係る移動物体追跡装置においては、対象物の形
状が判っているものと仮定して、以下の説明を行うこと
にする。
【0012】この図1に示されるように、対象物を撮影
する画像入力部(カメラ)1を介して画像は撮像され、
その映像信号6はディジタル変換器2でディジタル画像
信号7に変換される。こうして変換されたディジタル画
像信号7は、一旦、画像格納部(メモリ部)3に格納さ
れ、この格納された画像デ―タ8はデ―タ処理を行う画
像処理部4に送られる。尚、画像処理部4に画像メモリ
に対応する格納部があれば、画像格納部3は画像処理部
4に含まれてもよいことは勿論であり、画像処理部4は
汎用のコンピュ―タシステムでもよいことは勿論であ
る。
【0013】上記画像処理部4では、カメラの位置姿勢
の情報を算出することができるカメラ姿勢デ―タ10と
画像デ―タ8とを解析し、その中に撮影された移動物体
を解析することにより、移動物体の位置姿勢に関するパ
ラメ―タから構成される移動物体デ―タ9を算出する。
そして、この移動物体デ―タ9はカメラコントロ―ル部
5に送出される。
【0014】カメラコントロ―ル部5では、この移動物
体デ―タ9を解析して、移動物体を追跡しながら撮影す
る為にどのようにカメラを移動すればよいかを示すカメ
ラ姿勢デ―タ10を算出する。そして、該カメラ姿勢デ
―タ10は画像入力処理部1と画像処理部4とに送出さ
れ、カメラの移動を実行しながらの撮影が行われる。こ
こで、上記画像処理部4では、その処理が図2に示され
る構成要素に基づいて実行される。即ち、画像処理部4
は、対象物である移動物体の3次元モデルデ―タを格納
するモデルデ―タ格納部20とモデル特徴が画像内でと
り得るパラメ―タの予測をするモデル特徴予測部21、
画像特徴を抽出する画像特徴抽出部22、モデル特徴と
画像特徴との対応の探索を行う特徴対応探索部23、対
象物の位置姿勢パラメ―タを予測する位置姿勢予測部2
4とで構成されている。
【0015】上記モデルデ―タ格納部20には、移動物
体の3次元モデルが格納されており、その3次元モデル
デ―タ25はモデル特徴予測部21に送られる。モデル
特徴予測部21は、カメラコントロ―ル部5が算出する
カメラなどの撮影装置の位置姿勢(視点)の情報である
カメラ姿勢デ―タ10と、対象物の位置や姿勢に関する
情報である対象物の位置姿勢予測パラメ―タ28と、モ
デルデ―タ格納部20が送出する3次元モデルデ―タ2
5とを利用して、対象物である移動物体をカメラで撮影
した時に該対象物を規定する特徴がそのカメラ画像でと
り得るパラメ―タと、該パラメ―タがどのように画像内
で誤差を持つかを予測し、該予測値をモデルパラメ―タ
として送出する。
【0016】こうして予測されたモデルパラメ―タ26
は、次の画像特徴抽出部22に送られる。そして、画像
特徴抽出部22は、その各モデル特徴のモデルパラメ―
タを利用してモデル特徴に対応し得る画像特徴を抽出
し、その画像特徴を規定するパラメ―タである画像パラ
メ―タ27を測定値とその測定値の誤差分散の推定値の
形で算出する。そして、モデル特徴予測部21で算出さ
れたモデルパラメ―タ26と画像特徴抽出部22で算出
された画像パラメ―タ27とを利用して、特徴対応探索
部23は所定の評価式を利用しながら、モデル特徴と画
像特徴間の最適な対応を探索すると同時に、その対応関
係から移動物体の位置姿勢を規定する位置姿勢パラメ―
タの予測値を更新する。この結果である更新された対象
物の位置姿勢パラメ―タ29の更新値は、位置姿勢予測
部24に送出される。
【0017】そして、位置姿勢予測部24では、次に移
動物体が撮影される時刻における移動物体の位置姿勢を
予測し、該予測値を移動物体デ―タ9としてカメラコン
トロ―ル部5に送ると同時に、該予測値を位置姿勢パラ
メ―タ予測値28としてモデル特徴予測部21に送出す
る。
【0018】以下、上記画像処理部4を構成する各部2
0乃至24について説明するに先立ち、第1の実施例で
使用する座標系について説明する。
【0019】対象物が世界座標系(xw ,yw ,xw
の中に置かれているとすると、該対象物は世界座標系の
中で、ある位置である姿勢を有して存在することにな
る。
【0020】従って、対象物の各点を世界座標系
(xw ,yw ,xw )で表現すためには、対象物の基準
点P0 と基準姿勢Q0 が世界座標系でどのように表現で
きるかを示せばよいことになる。
【0021】いま、基準原点P0 の世界座標系(xw
w ,zw )での位置をP0 =(px ,py ,pz )と
し、基準姿勢Q0 をQ0 =(φx ,φy ,φz )とす
る。
【0022】ここに、(px ,py ,pz )はP0 の世
界座標系におけるx,y,z座標系を表し、φx
φy ,φz は図3に示すように、それぞれ世界座標系か
ら見てxw 軸,yw 軸,zw 軸に対する回転角度を示し
ている。対象物内の各点Pのx,y,z座標が局所座標
系でP(xr ,yr ,zr )の値をとるとすると、その
世界座標系での位置(xw ,yw ,zw )は、
【数1】 と、斉次変換行列H=H(px ,py ,pz ;φx ,φ
y ,φz )を用いて示すことができる。ここで、Hは、
【数2】 といった移動パラメ―タと回転パラメ―タの項に分解さ
れ、それぞれは、
【数3】 と示される。
【0023】このように、対象物の各点の世界座標系で
の位置は、対象物の基準原点P0 =(px ,py
z )と基準姿勢Q0 =(φx ,φy ,φz )の世界座
標系での表現と、対象物の局所的座標系(xr ,yr
r )での対象物点の相対座標を利用して示すことがで
きる。
【0024】次に図2に示す画像処理部4の各部で行わ
れる処理を具体的に説明する。
【0025】図2に示すモデルデ―タ格納部20には、
対象物を記述するモデルが格納されており、該対象モデ
ルとしては対象物を多面体として近似したものを利用す
る。図4はこの多面体の一例を示す図である。例えば、
この図4に示すような直方体を表現するには、それを構
成する6個の面である側面100,上面101,側面1
02,底面103,側面104,側面105を定義し、
次にその面を構成する12本の稜線106乃至117を
定義し、最後にそれに稜線を構成する頂点118(P0
(x0 ,y0 ,z0 )),…,125(P7(x7 ,y
7 ,z7 ))を定義することになる。いずれにしても、
こうした特徴はそれを記述する座標からなるパラメ―タ
に基づいて表現される。
【0026】また、このモデル化に際して、その対象物
に対して基準となる、ある一点P0(118)と基準と
なる回転姿勢Q0 を考える。例えば、この基準原点P0
(118)と基準姿勢Q0 を用いると、対象物の局所座
標系(xr ,yr ,zr )を構成することができる。
【0027】この図4に示されるように、P0 (11
8)によって、局所座標系の原点が定義され、Q0 によ
ってその座標系のxr ,yr ,zr 軸の方向が定義され
るのである。対象物を構成する全ての点は、この局所座
標系の3次元点P(xr ,yr,zr )として表現する
ことができる。
【0028】モデルデ―タ格納部20では、多面体のモ
デルを上記のように3種のデ―タタイプ、即ち、(1)
対象物を構成する面領域、(2)面領域の輪郭を構成す
る稜線、(3)稜線の2端点を構成する頂点を用いる。
【0029】具体的には、 多面体: {面1,面2,…} 面1: {稜線1,稜線2,稜線3,…} 面2: {稜線8,稜線9,稜線10,…} 稜線1: {点1,点2} 稜線2: {点3,点4} 点1: (x,y,z) 点2: (x,y,z) といった形の階層構造により対象物を定義する。
【0030】ここで、多面体は、それを構成する面の集
合からなる。この各面である面1,面2等は、その面の
輪郭を構成する稜線から構成される。一方、各稜線は、
その稜線の2端点から構成され、最後の点は、その3次
元座標から構成される。この階層構造を有する多面体デ
―タはモデル特徴予測部21に送出される。
【0031】次に図2における位置姿勢予測部24は、
前時刻の2つの位置姿勢パラメ―タを利用して次時刻で
の位置姿勢パラメ―タを予測するものである。時刻を表
すインデックスをkとして、前時刻とその1時刻前をt
k-2 とtk-1 とした場合、これら前時刻での上記位置姿
勢パラメ―タのそれぞれの時刻の値をp(k-2),p(k-1)
とする。このとき、k>3ならば、p(k-2),p(k-1) の
値を利用して、p(k)の値を予測する。尚、予測手段と
しては、例えば次式に表される線形予測による方法が考
えられる。
【0032】
【数4】 ここに、ε(k) は対象物の運動に関する予測しきれない
誤差要素を示し、a,bは定数である。このようにし
て、線形予測ができると、該予測値p(k) に関して、そ
の予測値の誤差の期待値と誤差の分散値を考えることが
できる。ここでいう誤差とは、上記式におけるε(k) に
関するものである。これらの予測値の誤差の期待値と分
散は対象となる移動物体の性質によるものである。
【0033】本実施例では、移動物体毎に該予測値の誤
差の期待値と誤差分散の性質が予め判っていると仮定す
る。ε(k) は6次元ベクトルであるので、その期待値も
6次元ベクトルとなり、誤差分散は6×6の共分散行列
で表現することができる。
【0034】いま、このε(k) の期待値をεm (k) と
し、その誤差共分散行列をB(k) で表すこととする。こ
れらの予測誤差の期待値と誤差共分散行列が求められる
と、時刻kにおけるp(k) の予測の期待値と誤差共分散
行列を求めることがきる。
【0035】これは、位置姿勢予測部24において時々
刻々p(k) の予測値の期待値と誤差共分散行列を算出す
ることになる。これからp(k-1) とp(k-2) における予
測値の期待値と誤差共分散行列が与えられたときに、ど
のようにしてp(k) の予測期待値と誤差共分散行列を算
出するかについて解説する。尚、p(k) の予測期待値を
m (k) とし、その誤差共分散行列をΣ(k) とする。
【0036】いま、p(k-1),p(k-2) において、特徴対
応探索部が算出した予測期待値の更新値と誤差共分散行
列の更新値をpm (k-1),pm (k-2),Σ(k-1),Σ(k-2) と
し、このときの予測期待値pm (k) を算出する方法につ
いて説明する。
【0037】上記(4)式において、期待値のオペレー
タE[]をとることにより、 pm (k) =E [p(k)]=apm (k-1) +bpm (k-2) +
εm (k) を求めることができる。
【0038】一方、ε(k) の誤差共分散行列に関しては
以下の2通りについて説明する。
【0039】第1の場合はp(k-1) とp(k-2) の誤差の
大きさがε(k) の誤差に比べて小さい場合である。この
場合には、p(k) の誤差共分散行列はε(k)の誤差共分
散行列により近似することができる。
【0040】即ち、 Σ(k) =B(K) とおくことができる。
【0041】第2の場合はp(k-1) とp(k-2) の誤差間
の相関が小さい場合である。一般的に、特徴対応探索部
23では、各時刻位置姿勢の更新が行われるので、p(k
-1)とp(k-2) の誤差間の相関は小さくなることが予期
される。この時には、p(k)の誤差共分散行列Σ(k)
は、 Σ(k) =a2 Σ(k-1) +b2 Σ(k-2) +B(K) により近似することができる。p(k-1) とp(k-2) の誤
差の間の相関が無視できないときには、式(4)に立ち
返ってΣ(k) を計算できるのは勿論である。
【0042】このように、第1の実施例では予測期待値
とその誤差共分散行列を利用して、各種パラメ―タの予
測値を表現する。位置姿勢予測部24は、この予測期待
値と誤差の共分散行列を予測値として別の部に送出す
る。
【0043】ここで、先に図1に示した第1の実施例で
使用されるカメラコントロ―ル部5と画像入力部1につ
いて説明する。画像入力部1は、対象物体の移動に伴っ
て、その対象物体が撮影できるような自動移動機構が装
着されている。
【0044】図5は画像入力部1の構成を示した図であ
る。画像入力部1は、画像を撮影するカメラ130と、
カメラの位置姿勢を移動させる自動移動機構である回転
装置と移動装置131乃至133とからなる。ここで、
回転装置131,132は、それぞれx軸とy軸に関す
る回転を行わせる回転装置であり、移動装置133はz
軸方向の移動を行うための移動装置である。尚、これら
回転装置131,132と移動装置133は、カメラコ
ントロ―ル部5からのカメラ姿勢デ―タにより駆動され
る。
【0045】そして、カメラコントロ―ル部5は、画像
処理部4の位置姿勢予測部24が時々刻々予測する移動
物体の位置姿勢パラメ―タに基づいて、画像入力部1を
どの位置姿勢に移動すべきかを制御するカメラ姿勢デ―
タ10を算出する。
【0046】この図5に示す自動移動機構131乃至1
33では、画像入力部1内のカメラの位置と姿勢が3自
由度で変更できるようになっている。さらに、この図5
に示される3自由度ではカメラの位置姿勢をx軸の回転
Ψx とy軸の回転Ψy とz軸方向の移動dz により制御
できるようになっている。これらの制御機構の動作は正
確で再現性のあるものであると仮定する。この仮定の下
では、カメラが有するカメラ座標系での点(x,y,
z)と回転Ψx ,Ψy と移動dz により変換された座標
系における対応点(xc ,yc ,zc )との関係は、
【数5】 によって示される。ここに、Mはカメラの移動を表す変
換行列であり、Ψx ,Ψy ,dz の関数であり、具体的
には、
【数6】 と示される。
【0047】そして、回転後の座標系内の点(xc ,y
c ,zc )をカメラで撮影したときには、その対応する
画像点(u,v)は、
【数7】 により表現することができる。ここで、カメラはピンホ
―ル型のカメラでモデル化した。また、wは遠近効果を
表すパラメ―タであり、u,vの値はu=uw/w,v
=vw/wにより算出できる。さらに、Cは3×4のカ
メラ較正行列であり、カメラの焦点距離fや固定された
カメラ位置に関するパラメ―タに関する関数である。例
えばズ―ム機構が装着されているカメラシステムでは、
上記のCをカメラ焦点距離fにより較正することによ
り、3次元点(xc ,yc ,zc )とカメラ画像内の点
(u,v)との対応を取ることができる。
【0048】即ち、Cは、
【数8】 といった形の関数として示されるので、行列Cの要素を
fの関数として較正することができる。従って、ズ―ム
機能はこのカメラ較正行列だけを変更することにより、
座標系の変換を考えることができる。
【0049】さらに、回転前のカメラ座標系での3次元
点(x,y,z)を回転後のカメラ座標系で観察したと
きに、その画像点(u,v)との対応関係は、
【数9】 により示される。
【0050】第1の実施例ではカメラの座標系を3個の
パラメ―タとズ―ムに関する焦点距離fの関数として示
したが、こうした座標系の取り方は上記の方法だけによ
るものではない。即ち、カメラを移動させるs自由度の
移動軸等を制御するパラメ―タをm=(m1 ,m2
…,ms )とすれば、行列Mはmの関数として、M=M
(m)という関数形で表現することができる。
【0051】さて、カメラコントロ―ル部5では、位置
姿勢予測部24が算出した次時刻における対象物の位置
姿勢パラメ―タの予測値の期待値を利用して、カメラの
コントロ―ルを行う。具体的には、対象物の重心の位置
を(xg ,yg ,zg )として、その画像内の位置が画
像内の中心(ug ,vg )になるようにカメラを移動す
る。この計算のためには、
【数10】 となるカメラ移動パラメ―タmを算出すればよい。この
算出にあたって、カメラの移動パラメ―タmの次元が上
式の制約条件数の2より大きいときには、解は一意に定
まらない問題点があるが、そのときは現時点から次時点
までの移動距離が最小になるような解mを求めればよ
い。
【0052】即ち、現時刻のカメラ移動パラメ―タをm
0 としたとき、
【数11】 を最小とするmで制約式(10)を満たすものを解とし
て求めればよい。
【0053】この解法は、非線形方程式の最適解として
求められることは明確である。このようにして算出され
たカメラ移動パラメ―タm1 ,m2 ,…,ms は、カメ
ラ移動デ―タとして、画像入力部1に装着されている自
動移動機構131,132,133に送出され、画像入
力部1ではカメラの移動が行われる。
【0054】次に図2に示すモデル特徴予測部21で
は、モデルデ―タ格納部20が格納している3次元モデ
ルデ―タ25と、位置姿勢予測部24が算出する対象物
の位置姿勢予測パラメ―タ28を利用して、カメラ画像
内で可視と思わるモデル特徴を選択し、そのモデル特徴
がカメラ画像内のどの位置に存在するかを予測する。
【0055】そして、このモデル特徴に関する3種類の
モデルパラメ―タ26を画像特徴抽出部22と特徴対応
探索部23に送出する。以下、この3種類のモデルパラ
メ―タ26がどのようなものかを説明する。
【0056】対象物の基準となる位置P0 と姿勢Q0
世界座標系での表現に対して推定値を利用することがで
きる。
【0057】具体的には、p(k) =(px ,py
z ;φx ,φy ,φz )で使用される6個のパラメ―
タを確率的に表現したり、ある領域制限を用いて示すこ
とができる。こうしたパラメ―タを確率的に表現する方
法は、先に位置姿勢予測部24で説明したように、(p
x ,py ,pz ;φx ,φy ,φz )の予測値の期待値
とその誤差の共分散行列を用いるものである。こうした
確率的な表現を利用すると、更に適当な閾値を用いるこ
とでパラメ―タの存在範囲を制限することができる。
いま、pの予測期待値pm とpの誤差共分散行列Σを利
用すると、適当な閾値dを利用して、
【数12】 なる集合を定義すると、閾値dを制御することによって
pの存在する範囲を制限することができる。第1の実施
例では、この領域のことを位置姿勢パラメ―タ限定領域
と称する。
【0058】先に説明したように、第1の実施例では、
対象物を認識するときには、各時刻毎に対象となる移動
物体の位置や姿勢の予測値と誤差共分散行列が推定でき
ると仮定している。このような場合、モデル特徴予測部
21では、対象物を撮影装置(カメラ等)の位置や姿勢
情報と移動物体の位置や姿勢の推定値の情報とに基づい
て、対象物がどのように撮影装置に映るかを予測する。
これは、例えば対象物は3次元的に位置するところの平
均的予測値pm を利用して、対象モデルから予測画像を
生成する方法によって実現することができる。
【0059】こうした予測画像を生成する方法について
は文献「O.I.Camps ,L.G.Snapiro,and R.M.Haralic
k,“Object Recognition using Prediction and Proba
bilistic Matching,”Proceedings of the 1992 IEEE
International Conference onIntelligent Robots and
Systems ,Raleign ,NC,1992,pp.1044−1052.」に
記述されているように、対象物のモデルを利用すること
により実現できる。
【0060】ここで、多面体を例にとって、こうした予
測図が生成される過程について説明する。モデルデ―タ
格納部20が格納している3次元モテルデ―タ25は、
多面体を面要素、稜線要素、点要素の階層構造で表現す
ることを先に述べた。
【0061】多面体の場合には、各面を構成するのはそ
の境界を表す線分である。従って、予測図では、そうし
た線分のどの部分がカメラが置かれている視点から見え
るか否か(可視か、不可視か)を決定すればよい。
【0062】これを実現するために、各線分上の点と視
点とを結ぶ線分が他の面と交差するか否かを順次調べ、
いずれの面とも交差しなければ、その点は可視な点とし
て登録してゆくという方法を取ることにより予測画を生
成することができる。
【0063】ここで、図6はその出力例を示したもので
ある。この図6に示されるように、23本の線分140
乃至162が可視線分として選択される。これらの線分
は各々の線分を構成する2端点の座標によって表現され
る。
【0064】例えば可視線分140の場合には、その2
端点あるP0 ( x0,y0,z0 ) (符号163)とP1 (
x1,y1,z1)(符号164)によって表現される。そし
て、こうして一つの予測画像が生成されると、次にその
予測画像から対象物を規定する特徴を選択することがで
きる。この特徴としては、特徴点や線分或いは曲線など
を考えることができる。
【0065】第1の実施例では、モデル特徴として、図
6に示される直線成分(線分)をモデル特徴として利用
する。このように算出されるモデル特徴である線分の端
点の3次元座標が第1種のモデルパラメ―タとして、画
像特徴抽出部22と特徴対応探索部23に送出される。
【0066】次のステップでは、こうしたモデル特徴が
画像内またはパラメ―タ空間内でどのような特徴を示す
かを説明する。いま、対象物の特徴を規定する対象物の
局所座標系でのパラメ―タをsとする。尚、話を簡単に
するために、モデル特徴となる線分の端点Pの座標につ
いて考える。そして、対象物局所座標系での位置座標s
=(x,y,z)を有する3次元点Pに関して、その点
をカメラによって観察する場合を考える。
【0067】世界座標系での対象物の位置P0 と姿勢Q
0 が不確定であるために、カメラでこの点Pを観察する
と、その像のカメラ画像内で予測される位置と姿勢も不
確定となる。それが、どの程度不確定かを表現するため
には、対象物の原点の位置姿勢パラメ―タが有するP0
とQ0 の予測誤差共分散行列をカメラ画像内の像に伝播
すればよい。
【0068】文献2「A.Kosaka and A.C.Kak,“Fast v
ision-guided mobile robot navigation using model-b
ased reasoning and prediction of uncertainties,
“Computer Vision ,Graphics,and Image Processing
--Image Understanding ,November 1992,271-329」に
示されているように、先ず対象局所座標系での3次元点
P:s=(x,y,z)と、そのカメラ像P′との関係
を定式化する。
【0069】簡単のために、撮影装置をTVカメラとし
て、それをピンホ―ル型のカメラとしてモデル化したも
のとし、更にカメラが正しく較正されているとすると、
カメラ画像内の点P′の位置q=(u,v)は、
【数13】 となる。ここに、C=(cij)(i=1,2,3;j=
1,2,3,4)はカメラ較正行列と呼ばれ3×4の実
行列である。そして、M=M(m1 ,m2 ,…,mn
は、世界座標の原点に対するカメラの移動を表すカメラ
移動行列であり、m1 ,m2 ,…,mn はその移動パラ
メ―タを示す。さらに、H=H(px ,py ,pz ;φ
x ,φy ,φz )は4×4の行列、上記(2),(3)
式に示される対象物局所座標系から世界座標系への変換
行列である。ここでは、計算を簡単にするために、T=
(tij)=CMとおく。wは遠近効果を表すパラメ―タ
であり、実際の画像内の位置q(u,v)は(uw/
w,vw/w)の演算によって得ることができる。
【0070】さて、P0 とQ0 の予測に含まれている誤
差成分を3次元点Pのカメラ像q=(u,v)に伝播す
るためには、先ずP0 とQ0 が持つ予測の不確定さをp
の予測期待値pm とpの誤差共分散行列Σによって表現
しておく。この方法に関しては前述した通りである。
【0071】すると、q=(u,v)の予測期待値qm
=(um ,vm )は、遠近効果を表すパラメ―タwの期
待値wm を利用して、
【数14】 で求められる。さらに、上記(13)式を変形し、wm
の項を除去した後、um,vm をpの関数として表す。
その後、その方程式に関して、pm ,qm =(um ,v
m )のまわりでの変分δp=p−pm ,δq=q−qm
を考えれば、
【数15】 と示される。ここで、Fは(um ,vm )のpm に対す
るJacobi行列である。
【0072】qの誤差共分散行列Ωは、期待値をとるオ
ペレ―タをE[* ]とすると、
【数16】 と示される。ここでは、対象物の位置姿勢パラメ―タp
の誤差共分散に関する次式で示される関係を用いた。
【0073】
【数17】 以上のように、q=(u,v)の予測期待値とその誤差
共分散行列を求めることができる。さらに、このq=
(u,v)の予測期待値と誤差共分散行列に基づいて、
qの存在する範囲を確率的に制限することができる。
【0074】例えば、
【数18】 で示される空間を定義し、ある閾値dを制御変数とし
て、領域をA(qm ,Σq;d)によって制限すればよ
い。ここで、制御変数dを大きくとれば、より大きな確
率でqはA(qm ,Σq ;d)の中に含まれることにな
る。
【0075】第1の実施例では、このようにして制限さ
れる画像内限定領域のことを画像探索限定領域と称す
る。
【0076】以上の説明では、3次元点に対して、その
画像内の予測できる位置の期待値とその誤差成分の算出
を説明した。実際に、本実施例で用いるモデル特徴は、
線分特徴であるので、線分自体が画像内で存在し得ると
予測できる領域も限定する必要がある。これを行うため
には、まずモデル特徴である線分の各端点に関して、カ
メラ画像内の画像探索限定領域を求め、それらを組み合
わせることにより直線の画像探索限定領域を実現するこ
とができる。
【0077】ここで、図7はこの方法を示す図である。
即ち、図7(a)は、直線成分170の2端点P1 (1
71)とP2 (172)の画像探索限定領域173,1
74が構築される。図7(b)は、これら端点171,
172の画像探索限定領域173,174から、それを
含む凸閉包を作り、それを直線成分170(P1 2
のが画像探索限定領域175とするものである。
【0078】この画像探索限定領域は必ずしも、図7に
示されるように、最小の閉領域で構成する必要はない。
例えば、図7(c)に示されるように、直方領域176
で近似しても構わない。このようにして算出される画像
探索限定領域は、第2種のモデルパラメ―タとして画像
特徴抽出部22と特徴対応探索部23に送出される。直
線成分の抽出に関しては、ハフ変換が有効な部であるこ
とが知られている(文献2「A.Kosaka and A.C.Kak,
“Fast vision-guided mobile robot navigation using
model-based reasoning and prediction of uncertain
ties,“Computer Vision ,Graphics,and Image Proc
essing--Image Understanding ,November 1992 , 271
-329」に記載)。
【0079】さらに、予め直線成分は3次元空間内で、
【数19】 と示される。ここに、[x1 ,y1 ,z1 T
[x2 ,y2 ,z2 T は直線上の任意の2点、tは媒
介変数である。こうした3次元上の直線をピンホ―ルモ
デルで近似できるカメラで撮影すると、その撮影像は直
線としてカメラ画像上に現れる。
【0080】ここで、図8に示されるように、上記直線
180を原点181からの距離ρ(182)と、直線の
法線の方向γ(183)によって表現したのがハフ変換
であり、(ρ,γ)が作る空間はハフ空間と称される。
対象物の位置と姿勢の基準パラメ―タP0 とQ0 の値が
不確定のときには、こうしたハフ変換のパラメ―タのカ
メラ画像内での値も不確定となる。
【0081】ところで、前述したように、P0 とQ0
位置姿勢パラメ―タ限定領域をハフ空間パラメ―タに伝
播することにより、ハフ空間パラメ―タの画像探索限定
領域も計算することができる。
【0082】いま、このq=(ρ,γ)の対応するパラ
メ―タの予測期待値をqm =(ρm,γm )、誤差共分
散行列をΩとする。ハフ空間パラメ―タ等のパラメ―タ
に関連する画像探索限定領域を計算するためには、以下
のような方法(1)乃至(4)を取ればよい。
【0083】(1)位置姿勢予測部24から対象物の予
測された位置姿勢パラメ―タを受け取って、例えばその
値をpとする。そして、このpに関する予測期待値pm
と誤差共分散行列Σを受け取る。
【0084】(2)モデルデータ格納部20から対象物
のモデル特徴を線分の端点の座標パラメ―タとして受け
取る。そのパラメ―タは、対象物の局所座標系で表現さ
れるものである。そして、例えば該モデル特徴のパラメ
―タをsとする。
【0085】(3)モデル特徴に対応するカメラ画像内
での可視モデル特徴線分を選択し、その特徴をカメラ画
像内で表現するためのハフ空間パラメ―タqを設定す
る。
【0086】(4)s,q,pを関連づけるパラメ―タ
間の方程式f(s,q,p)=0を求める。次に、ハフ
空間パラメ―タqに関連する予測値を計算する。先ず期
待値qm を求めるには、方程式、
【数20】 を解けばよい。一方、共分散行列Ωを求めるためには、
f(s,q,p)=0の方程式の予測期待値pm ,qm
のまわりでの変分をとることで求められる。
【0087】具体的には、
【数21】 の変分方程式において、f(s,qm ,pm )=0であ
ることを利用すると、
【数22】 を利用することができ、最後に、
【数23】 といった線形方程式によって、変分δqを変分δpによ
って表現することができる。いま、前式の変換行列の部
分をFで表すと、 δq=Fδp (26) で表現される方程式が求められ、このことからqの誤差
共分散行列Σq は、 Ω=FΣFT (27) の形で示される。その後、適当な閾値dを選択して、式
(18)で示されるようなパラメ―タ領域A(qm ,Σ
q ;d)を算出する。
【0088】一旦、ハフ空間パラメ―タの予測期待値と
誤差共分散行列から生成される画像探索限定領域は、
【数24】 の形で示される。尚、第1の実施例では、上記のハフ空
間内での画像探索限定領域のことをハフ空間探索限定領
域と称することにする。
【0089】次に図9はハフ空間探索限定領域184を
示す図である。前述のようにして算出されるハフ空間探
索限定領域は、第3種のモデルパラメ―タとして、画像
特徴抽出部と特徴探索部に送出される。
【0090】実際に直線成分であるモデル特徴を画像内
から抽出するためには、このように限定した領域の範囲
だけについて、対応する直線成分を抽出すればよいこと
になる。このことは、後に画像特徴抽出部22の説明で
詳細に説明する。このようにして、モデル特徴予測部2
1で対象物を規定する特徴がどのような見え方をし、そ
の特徴を表現するパラメ―タがどのような値を取り得る
かが計算される。
【0091】以上の説明をまとめると、モデル特徴予測
部21では3種のパラメ―タを予測し、それをモデルパ
ラメ―タ26として画像特徴抽出部22と特徴対応探索
部23に送出することになる。
【0092】これら3種のモデルパラメ―タ26とは、 (1)可視線分の端点の3次元座標 (2)上記(18)式で示される線分の端点の画像探索
限定領域 (3)上記(26)式で示される線分のハフ空間探索限
定領域 である。これらのモデルパラメ―タは、画像特徴抽出部
22において画像内からモデル特徴を抽出する際に利用
される。
【0093】次に図2における画像特徴抽出部22では
モデル特徴予測部21で選択されたモデル特徴に対応す
る画像特徴をカメラ画像の中から抽出することが行われ
る。ここでは、P1 ,P2 を端点とする直線成分P1
2 の抽出を例として説明する。モデル特徴予測部で作
られた線分に関する情報で画像特徴抽出部22が利用す
るのは、 (1)線分の端点のカメラ画像内での位置の画像探索限
定領域 (2)線分のハフ変換パラメ―タのハフ空間探索限定領
域 の2点である。以下、画像特徴抽出部が、こうした情報
を利用して、どのようにして直線成分の画像特徴を抽出
するかについて説明する。
【0094】直線成分の画像特徴を抽出するには、以下
のような方法を用いる。
【0095】(1)直線成分のハフ空間探索限定領域に
対応するハフ累積行列D(ρ,γ)を用意する。ここ
で、ハフ空間は適当に離散化しておく。この行列の大き
さは、ハフ変換パラメ―タの限定された大きさに対応す
る。例えば、いまρの取り得る範囲を[ρmin
ρmax ]、γの取り得る範囲を[γmin ,γmax ]の長
方領域で近似すれば、この行列は、上記のρ,γの範囲
を包含するものであればよい。そして、次に該ハフ累積
行列D(ρ,γ)を零初期化する。
【0096】(2)限定された画像空間を長方領域[u
min ,umax ]×[vmin ,vmax ]で近似し、その領
域に対して、所望の直線の平均的傾き(ハフ空間パラメ
―タγは直線成分の法線方向を表すので、γに直交する
方向が直線成分の傾きに相当する)に特に感度のある微
分オペレ―タを施す。こうしたオペレ―タの例は、例え
ば文献3「R.M.Haralick and L.G.Shapiro,Computer a
nd Rpbot Vision ,Addison Wesley,1992,pp. 371-4
52」の第8章に示されているように、線形型のフィルタ
で構成することができる。この特別なフィルタを適用す
るのは、できるだけノイズの影響を抑えて、所望の方向
の直線成分を検出するためである。そしてこのフィルタ
を限定された画像領域に適用する。フィルタの出力の絶
対値がある閾値より大きな画素(u,v)に関しては、
その画素は直線成分に対応するエッジを構成する可能性
があると考え、γの取り得る全ての範囲の角度方向につ
いてそれに対応するρを計算する。即ちγをγmin から
γmax まで値を変えながら、 ρ=ucos γ+vsin γ (29) を計算し、それに対応する(ρ,γ)のハフ累積行列の
値D(ρ,γ)を1増やす。以上のことを、限定された
画像領域内の全ての画素について繰り返す。
【0097】(3)ハフ累積行列D(ρ,γ)の中から
ピ―クを捜し、そのピ―クに対応する直線成分を限定さ
れた画像内で本当に直線成分として存在する時には、そ
のピ―クに対応する直線成分として登録する。この
(3)の操作をある所望の直線成分が検出できるか、あ
る一定以上の大きさのピ―クを検出できるまで繰り返
す。
【0098】ハフ変換により画像特徴である直線成分を
抽出することができるが、こうして抽出された画像特徴
はハフ空間のパラメ―タによって測定される。この測定
値(ρ,γ)には、勿論、誤差成分が含まれている可能
性がある。こうした誤差成分の大きさは予め推定するこ
とができる。ここでは、このような誤差成分をその推定
誤差共分散行列Λで示す。
【0099】この結果、画像特徴抽出部22が特徴対応
探索部23へ出力する画像パラメ―タ27は、各モデル
特徴に対応する画像特徴の候補についてのハフパラメ―
タの測定値r=(ρ,γ)とその測定値に関する推定誤
差共分散行列Λとなる。
【0100】次に図2における特徴対応探索部23の処
理について説明する。
【0101】上記画像特徴抽出部22により抽出された
画像特徴候補は、画像パラメ―タとして特徴対応探索部
23に送出されるが、その候補は各モデル特徴について
複数個存在する可能性がある。
【0102】この図2における特徴対応探索部23は、
各モデル特徴について最適な画像特徴を選択し、その結
果を用いて対象物の位置姿勢パラメ―タの予測値を更新
し、その予測値29を位置姿勢予測部24へ送出するも
のである。
【0103】以下の説明では、モデル特徴の名称と画像
特徴の名称をそのパラメ―タ値を持って表現することに
する。例えば、モデル特徴パラメ―タsによって規定さ
れるモデル特徴のことを簡略的にモデル特徴sと称し、
画像特徴パラメ―タrによって規定される画像特徴のこ
とを簡略的に画像特徴rと称することにする。
【0104】先ずこのような場合における最適な対応探
索について説明する。この説明をするために、モデル特
徴はs1 ,s2 ,…,sn で表され、各モデル特徴si
について、画像特徴抽出部22で抽出された画像特徴候
補がmi 個であり、それは{ri 1 ,ri 2 ,…,ri
mi}で示されるものとする。
【0105】このとき対応関係とは、 (s1 ,r1 ),(s2 ,r2 ),…,(sn ,rn ) (30) で示されるようなr1 ,r2 ,…,rn を、それぞれ
{r1 1 ,r1 2 ,…,r1 m1,nil },{r2 1 ,r
2 2 ,…,r2 m2,nil },{rn 1 ,rn 2 ,…,r
n nm,nil }から選択することになる。
【0106】ここで、各候補の集合に含まれているnil
のシンボルは、モデル特徴に対応する画像特徴候補がな
いことを表すものである。
【0107】このようなnil を含めて対応を考えるの
は、遮蔽等の影響でモデル特徴が他の物体に覆い隠され
ているために対応する画像特徴が抽出できない場合やノ
イズ等の影響で正しいパラメ―タが算出できない場合等
に対処するためのものである。一方、最適な対応を探索
するために、所定の評価式を導入する。
【0108】ここで、最適性を評価としては、文献2
「A.Kosaka and A.C.Kak,“Fast vision-guided mobil
e robot navigation using model-based reasoning and
prediction of uncertainties,”Computer Vision ,
Graphics,and Image Processing--Image Understandin
g ,November 1992,271-329 」に記載されているのと同
様な評価の方法をとる。
【0109】即ち、(s1 ,r1 ),(s2 ,r2 ),
…,(sn ,rn )で示されるモデル特徴si と画像特
徴候補ri の組について、ri がnil となる数が最も少
なく、且つ、これらの(s1 ,r1 ),(s2
2 ),…,(sn ,rn )の間で評価されるある評価
関数Dが最適となる組み合わせを最適解とする。
【0110】上記の文献2では、このような最適な対応
探索を行う方法を詳述している。
【0111】この方法はカルマンフィルタを利用して対
象物の位置姿勢パラメ―タの予測値を更新することで、
その予測値に含まれる誤差分散を減少させ、各モデル特
徴に対応可能な画像特徴候補の数を減少させるアルゴリ
ズムを利用している。
【0112】そして、このアルゴリズムを対応探索の探
索空間で最適な解が発見できるまで実行している。先
ず、この方法で最適解を定義するために、その評価関数
Dをいかに作成するかについて説明する。
【0113】いま、対象物の位置姿勢パラメ―タの予測
値p=(pm ,Σ)が与えられているとき、sで表され
るモデル特徴がrで表される画像特徴が対応する確率
を、 prob(s→r|p) (31) と定義する。
【0114】対象物の位置姿勢パラメ―タの予測値p=
(pm ,Σ)とモデル特徴パラメ―タsが加えられる
と、画像特徴パラメ―タの予測値を算出することができ
る。
【0115】そのパラメ―タをq=(qm ,Ω)とする
と、rが期待値qm に近ければ近い程、高い確率でモデ
ル特徴sが画像特徴rに対応すると考えることがきるの
で、この確率を平均がqm で分散行列がΩの正規分布で
近似する。
【0116】即ち、
【数25】 により定義するのである。
【0117】次に2個のモデル特徴s1 ,s2 と2個の
画像特徴候補r1 ,r2 とが対応する確率を考えると、
式(31)を拡張して、
【数26】 で示される。
【0118】上式の第2項の条件付き確率は、モデル特
徴s1 が画像特徴候補r1 と対応すると仮定したとき
に、モデル特徴s2 が画像特徴候補r2 に対応する確率
を示したものである。
【0119】ここで、実際にこの条件付き確率を考え
る。対象物の位置姿勢パラメ―タp、モデル特徴を表す
パラメ―タs,モデル特徴に対応する画像特徴パラメ―
タをqとすると、この3個のパラメ―タ間には以下のよ
うな非線形制約式が成立する。 f(s,q,p)=0 (34) 例えば、モデル特徴として2端点(x1 ,y1
1 ),(x2 ,y2 ,z2)からなる線分を取り上げ
ると、その画像特徴は線分として扱うことができ、その
ハフパラメ―タをqとすれば、 s=(x1 ,y1 ,z1 ;x2 ,y2 ,z2 ),q=(ρ,γ)(35) として扱うことができる。
【0120】対象物の位置姿勢パラメ―タp=(px
y ,pz ,φx ,φy ,φz )について考えると、上
記(34)式は、
【数27】 で示される。このような制約式に対して、パラメ―タs
で規定されるモデル特徴とパラメ―タqで規定される画
像特徴が対応することが判ったならば、その値を上式に
代入することによりpの値を算出することができる。
【0121】しかしながら、実際には画像特徴を規定す
るパラメ―タqの値には、測定誤差が含まれているため
に上式は必ずしも成立するとは限らない。
【0122】これに対して、先に説明した第1の実施例
で扱うような問題ではpには予測値pm とその誤差成分
の共分散行列Σが存在し、またqの測定値rがどの程度
の誤差成分を含むかを予め測定しておくことができる。
その誤差成分としては測定値rをその平均値で、その誤
差成分を誤差共分散行列Λで表現することができる。文
献2「A.Kosaka and A.C.Kak,“Fast vision-guided m
obile robot navigation using model-based reasoning
and prediction of uncertainties,”Computer Visio
n ,Graphics,and Image Processing--Image Understa
nding ,November 1992,271-329 」に記載されているよ
うに、上記(34)式で示されるようなモデル特徴sと
画像特徴rが対応し、対象物の位置姿勢パラメ―タの予
測値が与えられているときには、条件の部分に含まれる
対象物の位置姿勢パラメ―タを更新すると解釈すること
ができる。
【0123】このような解釈を実現する方法としては、
カルマンフィルタの利用がある。このフィルタでは、モ
デル特徴と画像特徴の各対応関係が形成する上記(3
4)式で表される制約式を利用して、1個1個の対応が
確定すると同時にもとの対象物の位置姿勢パラメ―タの
予測値pm と誤差成分の共分散行列を更新するものであ
る。例えば画像特徴の測定値をrとしたときに、その誤
差の期待値を0、その誤差共分散行列をΛとすれば、1
個のモデル特徴と画像特徴の対応関係により、対象物の
位置姿勢パラメ―タの予測値と誤差共分散行列は
(pm ,Σ)は、以下の(pm ′,Σ′)に更新するこ
とができる。
【0124】
【数28】 但し、K,M,Wは、
【数29】 で示される。ここで重要なことは上式により対象物の位
置姿勢パラメ―タの誤差共分散Σ′は更新され、その予
測値の誤差成分の大きさは減少することである。即ち、
モデル特徴と画像特徴の対応関係は、予め与えられる対
象物の位置姿勢パラメ―タの予測誤差に含まれる誤差分
散を減少させ、予測に関する不確定さを減少させること
になる。このように対象物の位置姿勢パラメ―タの予測
誤差の大きさが一旦減少すると、モデル特徴が画像内に
存在する画像探索限定領域もより減少することが判る。
【0125】以上より、上記(33)式は、
【数30】 のように示すことができる。ここで、p(1) はカルマン
フィルタにより更新された対象物の位置姿勢パラメ―タ
の予測値を表している。ここで重要なことは、このよう
に更新された対象物の位置姿勢パラメ―タの予測値にお
いては、その画像特徴とパラメ―タの予測値(qm (1)
,Ω'(1))も更新されることである。
【0126】従って、次のモデル特徴s2 の画像特徴候
補の集合の中で、確率prob(s2 →r2 |p(1) )の値
がある一定値より小さくなったときには、その候補を画
像特徴候補から除去できることとなる。ここで、p(i)
(i=1,2,3…,n-1) は、上記p(1) と同様にカルマンフィ
ルタにより更新されたパラメータ予測値を表す。
【0127】次にモデル特徴s1 ,s2 ,…,sn のn
個が与えられたとき、それらが画像特徴r1 ,r2
…,rn と対応する確率を考え、この確率をPとすれ
ば、
【数31】 実際には、この値の対数をとった値Dを評価式とし、D
を最大とするような組み合せを探索することになる。
【0128】
【数32】 いままでの説明をまとめると、以下のようになる。
【0129】即ち、n個のモデル特徴si (i=1,
2,…,n)に対して、それに対応する可能性のある画
像特徴候補の集合{γi 1 ,γi 2 ,…,γi mi,nil
}が与えられているとき、nil が対応することが最も
少ない組み合せの中で、評価関数Dを最小にするもとを
選択せよというのが与えられた問題である。
【0130】次に最適対応の探索の実際について説明す
る。
【0131】図10乃至図13は最適な対応探索を行う
処理を示すフローチャートである。尚、この図10乃至
図13において、最適対応探索は、手続き「対応探索」
及び「match 」により行う。
【0132】先ず手続き「対応探索」から説明する。こ
の手続きは最適対応探索を実際に行うための主手続きで
ある。以下、図10に従ってこれを説明する。
【0133】手続き「対応探索」においては、数種のパ
ラメータが使用される。対象物の位置姿勢パラメータで
ある(pm ,Σ)、最適性を評価するための2個の尺度
D,C、モデル特徴と画像特徴の対応関係を格納する集
合G、集合Gが形成する対象物の位置姿勢パラメータの
更新値(pG ,ΣG )である。ここで、Sはモデル特徴
と画像特徴候補の対応関係を保存するための変数であ
る。
【0134】いま、対応探索すべきモデル特徴をs1
2 ,…,sn とし、画像特徴候補を、それぞれ{r1
1 ,r1 2 ,…,r1 m1,nil },{r2 1 ,r2 2
…,r2 m2,nil },{rn 1 ,rn 2 ,…,rn mn
nil }とする。このときSはモデル特徴と画像特徴候補
の組から構成される集合であり、S={(s1
1 ),(s2 ,r2 ),…,(si ,ri ) (4
6)と示すことができる。ここに、rj (j=1,2,
…,i)は{rj 1 ,rj 2,…,rj mj,nil }の中
のいずれかの要素であり、Sの要素の個数iはn以下の
整数である。変数Dは上記(45)式で示した評価式の
部分和を表すものであり、変数CはS内に含まれる画像
特徴候補のうちのnil の個数を表している。
【0135】変数(pm ,Σ)は対象物の位置姿勢パラ
メ―タの予測値を示すもので、この対応探索の手続きを
始める際に判っている位置姿勢パラメ―タの予測値を表
している。GはSと同様な形をしたモデル特徴と画像特
徴の集合であり、これは後に説明する手続き「match 」
において、それまでに探索できた最適解を格納するもの
である。(pG ,ΣG )は、解Gに対応する対象物の位
置姿勢パラメ―タを示している。
【0136】続いて、手続き対応探索のステップS2で
は、上記のパラメータの初期化が行われる。即ち、Sと
Gは空集合として初期化され、DとCの値は“0”で初
期化される。尚、(pm ,Σ)の初期値は、この対応探
索が行われる前の対象物の位置姿勢パラメ―タを示して
いる。
【0137】このステップS2で、これらS,D,C,
(pm ,Σ),Gの初期値が設定されると、次のステッ
プS3で再帰的手続き「match 」が呼ばれて、最適解が
存在する場合にはGの中にその解が格納される。
【0138】ステップS4では、解Gが空集合であるか
否かが判定される。そして、空でないときには、ステッ
プS5で、その解を最適解として扱い、そのときの対応
する対象物の位置姿勢パラメ―タ(pG ,ΣG )が位置
姿勢予測部に報告される。これに対して、Gが空である
ときには、ステップS7で対応探索が失敗したことを報
告し、その結果は位置姿勢予測部に送られる。
【0139】次に第2の手続き「match 」を、図11乃
至13を参照して説明する。
【0140】ステップS101では、現在探索中の解S
の適性がチェックされる。その具体的内容は図12に示
されている。
【0141】先ずステップS200では、今までに発見
された最適な解Gと現在探索中の部分解Sとが比較され
る。そして、いままでに解Gが発見できている場合には
ステップS201でGとSとが比較される。この比較は
解Gと部分解Sのいずれかが優れた解かを比較すること
になる。具体的には、S内のnil の数がG内のnil の数
より大きいときにはSはもはや最適解とはなり得ないの
で、Gの方が優れた解であると判定する。
【0142】一方、GとSのnil の数が等しい場合に
は、Gに対応するDの値とSに対応するDの値を比較
し、Gに対応するDの方がSに対応するDより大きい場
合には、やはりGの方が優れた解であると判定する。
【0143】このステップS201で、Gの方がSより
優れた解であると判定できた場合には、現在探索中の部
分解Sは最適解となり得ないので、この手続きmatch を
終了するようにリターンする(ステップS202)。
【0144】そして、ステップ203では、Sの中にあ
るnil の数はある一定値と比較される。この一定値より
S内のnil の数が大きければ、やはりこの部分解Sに基
づいた解は最適解とはなり得ないとして、この解の探索
は中止するため、この手続きmatch からリターンする
(ステップS204)。これは、ある一定以上の個数分
のnil を含んだ解は自動的に排除するためのものであ
る。
【0145】続いて、ステップ205では、Sの中に含
まれるnil 以外に対応する画像特徴候補の数を数える。
この数がある一定以上のときには、自動的にこの解を近
似最適解としてステップ206に移り、部分解として表
現されるS,pm,Σを解G,pG,ΣGに代入して、
この手続きからリターンする(ステップS207)。
【0146】そして、ステップS208では、n個の全
てのモデル特徴が調べ終わったか否かが判定される。n
個の全てのモデル特徴が調べ終わったときには、ステッ
プS209で解Gが存在するか否かが判定される。そし
て、Gが空集合であるときにはステップS214でSを
モデル特徴n個からなる最良解としてGに登録する。ま
た、その解が算出する対象物の位置姿勢パラメータの値
(pm ,Σ)を(pG ,ΣG )として登録する。そし
て、ステップS215で、この手続きからリターンす
る。
【0147】一方、ステップ209で解Gが存在してい
ることがわかった場合には、ステップ210で解GとS
が比較される。ステップS201と同様に、DとCの値
から判断して、Sの方が優れた解であることが判断でき
たときには、ステップS212でこの解SをGに代入
し、その解が算出する対象物の位置姿勢パラメ―タの値
(pm ,Σ)を(pG ,ΣG )として登録し、この手続
きからリターンする(ステップS213)。
【0148】ステップ210で解Gの方がSより優れた
解であることが判ったときには、この手続きを終了する
(ステップS211)。そして、ステップS208で、
部分解Sがモデル特徴の全てを含んでいないことが判っ
たときには部分解の適性チェック101を終了し、次の
ステップである図11のS102へと移行する(ステッ
プS216)。
【0149】図11のステップS102では、次に処理
すべきモデル特徴の選択とその画像特徴候補の集合Rs
の作成が行われる。この処理に関して、以下、図13を
参照して説明する。
【0150】先ずステップS300において、部分解S
に含まれていないモデル特徴を集め、その集合をQに設
定する。この後のステップS301からステップS30
9の間で、次に考慮すべきモデル特徴sを集合Qから選
択し、それに対応する可能性のある画像特徴候補の集合
Rs を決定することになる。
【0151】この処理のために、ステップS301でR
s を仮に全モデル特徴の全画像特徴候補からなる集合に
設定する。続いて、Qが空集合になるまでステップS3
04からステップS308が処理される。
【0152】ステップS303では、Qが空集合である
かを判定する。そして、空集合となったならば、図13
で示される処理は終了し、ステップS309を経て、図
11のステップS103へと移行する。そうでなければ
ステップS304へと移行する。次いで、ステップS3
04では、集合Q内の先頭のモデル特徴si が選択さ
れ、このsi はQから除去される。
【0153】続いて、ステップS305では、このモデ
ル特徴si に対応する画像パラメータ(qm ,Ω)が算
出される。この算出においては、手続きmatch が呼ばれ
た時点での対象物の位置姿勢パラメータの予測値(pm
,Σ)と上記(22)乃至(27)式が利用される。
この後、ステップS306では、この予測値(qm ,
Ω)と式(28)のマハラノビス距離を利用してモデル
特徴si に現時点で対応し得る画像特徴候補を集合Rに
格納する。このR内の要素数とRs 内の要素数がステッ
プS307で比較される。
【0154】そして、Rの要素数がRS の要素数より大
きいときには、ステップS308でsi がsに、RがR
s に変更される。一方、そうでない場合とステップS3
08を終了したときには再びステップS303へと移行
する。
【0155】このようなステップS300からS309
を処理することにより、モデル特徴sには最も画像特徴
候補の数がもっとも小さいモデル特徴が、Rs はsに対
応する画像特徴候補の集合が代入される。
【0156】ステップS103では、画像特徴候補の集
合Rs が空集合であるか否かが判定される。そして、R
s が空集合でないときにはステップS104へと移る。
Rsの中にはマハラノビス距離の2乗が小さい順に整列
している。
【0157】一般的にマハラノビス距離の2乗が小さい
有望な画像特徴候補を先に選択し、その候補とモデル特
徴が要素となる解の探索を進める。具体的には、Rs の
先頭にある画像特徴候補rが選択され、Rs からこの画
像特徴候補rが除去される。続いて、ステップS105
では、モデル特徴sと画像特徴候補rの組(s,r)を
Sに加えたものをSnew とし、p=(pm ,Σ)におけ
るモデル特徴sと画像特徴候補rの対応を評価するため
の評価値log prob(s→ r|p)が算出され、この値とDと
を加えたものをDnew とする。一方、rはnil ではなか
ったので、Cの値はこの対応関係により増えないためC
new にCを代入する。
【0158】さらに、ステップS106では、現時点で
の対象物の位置姿勢パラメータの予測値(pm ,Σ)を
対応関係(s,r)を用いて更新する。この方法は、先
に述べた通りである。そして、この更新された対象物の
位置姿勢パラメータの予測値を(pm new 、Σnew )と
する。
【0159】このように更新された対象物の位置姿勢パ
ラメータ(pmnew,Σnew )と、Snew ,Dnew ,Cne
w の値を利用して、ステップS107では再帰的に本手
続きmatch が呼ばれ、最適解の探索を進める。
【0160】ステップS107が終了すると、再びステ
ップS103へと移行する。前述のステップS103か
らステップS107では、画像特徴候補の集合RS 内の
候補が各々確認されることになる。
【0161】一方、ステップS103でRs が空集合と
なったときには、モデル特徴に対応するものが、nil し
かなくなったことを意味する。
【0162】そして、ステップS108では、まず現在
の部分解であるSに(s,nil )を加えたものをSnew
とし、続いてDnew の値を現時点でのDに設定し、Cの
値を1増やしてCnew に格納し、位置姿勢パラメータの
予測値は更新しないまま、pmnewとΣnew はpm とΣの
値を代入する。この後、ステップS109では、再帰的
に本手続きmatch が呼ばれる。最後にステップS110
では、この手続き「match 」が終了する。
【0163】このように、特徴対応探索部23では、モ
デル特徴と画像特徴間の最適な対応探索が行われる。こ
のようにして対応探索した結果、対象物の新しい位置姿
勢パラメータの予測値が算出され、この予測値は位置姿
勢予測部に送出される。
【0164】以上、本発明の第1の実施例に係る移動物
体追跡装置について説明したが、第1実施例では、位置
姿勢予測部が対象物の位置姿勢パラメ―タ探索限定領域
を予測し、その限定領域をモデル特徴予測部が各モデル
特徴についての画像内とハフパラメ―タ空間内の探索限
定領域を設定するため、画像特徴抽出部が安定にかつ高
速に対応する可能性のある画像特徴だけを抽出すること
ができる。
【0165】また、特徴対応探索部23は、モデル特徴
と画像特徴間の最適な対応を探索するので、誤った対応
の画像特徴を選択する確率が減少し、位置姿勢パラメ―
タの誤った推定を行う確率を減少させることができる。
以上のような点で従来の方法で行われていたものより、
安定な移動物体の追跡が可能となる。
【0166】次に本発明の第2実施例に係る移動物体追
跡装置について説明する。尚、第2の実施例で述べられ
ている移動物体追跡装置においては、第1の実施例と同
様に対象物の形状が判っているものと仮定する。
【0167】図14は、第2の実施例に係る移動物体追
跡装置の構成を示すブロック図である。基本的な情報の
流れは第1実施例で示された概観と同様であるが、第2
の実施例はカメラを移動させる必要がないときにその使
用が限るため、先に図5に示したようなカメラコントロ
―ル部5を有しない構成となっている。
【0168】この概観を説明すると、カメラにより対象
物を撮影する画像入力部(カメラ)1を介して画像は撮
影され、その映像信号6はディジタル変換器2でディジ
タル画像信号7に変換される。こうして変換されたディ
ジタル画像信号7は、一旦、画像格納部(メモリ部)3
に格納され、格納された画像デ―タ8は、デ―タ処理を
行う画像処理部4に送られる。
【0169】勿論、画像処理部4に画像メモリに対応す
る格納部があれば、画像格納部3は画像処理部4に含ま
れてもよい。また、画像処理部4は、汎用のコンピュ―
タシステムであってもよい。そして、画像処理部4では
画像デ―タ8を解析し、その中に撮影された移動物体を
解析することで、移動物体の位置姿勢に関するパラメ―
タから構成される移動物体デ―タ9を算出する。
【0170】画像処理部4では、その処理が図15の示
すような構成要素に基づいて実行される。この画像処理
部4の構成はカメラが移動する必要がないために、カメ
ラコントロ―ル部5が必要ないという点において第1実
施例と異なる。また、モデルデ―タ格納部20に少なく
とも2枚の異った時刻の画像を入力し、画像特徴抽出部
22において、その少なくとも2枚の画像デ―タから差
分画像を生成し、差分画像内で差異が現れた部分の輪郭
や領域から抽出される画像特徴のうち、モデル特徴と対
応するものを優先的に選択するという方法を取ってい
る。
【0171】このため、モデルデ―タ格納部20、モデ
ル特徴予測部21、位置姿勢予測部24、特徴対応探索
部23の構成は第1実施例と全く同様であるので、その
説明は省略する。また、第2の実施例で使用する座標系
についても第1実施例と同様であるため説明を省略す
る。
【0172】この第2の実施例においては、特徴のある
画像特徴抽出部22及び上記優先的に選択された画像特
徴とモデル特徴との対応の探索を行う特徴対応探索部2
3についてのみ詳細に説明する。
【0173】図15において、画像処理部4の情報の流
れとその中で第1実施例と異なる画像特徴抽出部22
と、画像特徴抽出部で優先的に抽出された画像特徴とモ
デル特徴との対応探索方法を説明する。
【0174】モデルデ―タ格納部20には、移動物体の
3次元モデルデ―タ25が格納されており、その3次元
モデルデ―タ25はモデル特徴予測部21に送られる。
モデル特徴予測部21は、対象物の位置や姿勢に関する
情報である対象物の位置姿勢予測パラメ―タ28とモデ
ルデ―タ格納部が送出する3次元モデルデ―タ25とを
利用して、対象物である移動物体をカメラで撮影した時
に、その対象物を規定する特徴がそのカメラ画像でとり
得るパラメ―タとそのパラメ―タがどのように画像内で
制限されるかを予測する。
【0175】こうして予測されたパラメ―タであるモデ
ルパラメ―タ26は次の画像特徴抽出部22に送られ、
その各モデル特徴を制限された予測パラメ―タを利用し
モデル特徴に対応し得る画像特徴を抽出する。
【0176】その際、モデルデ―タ格納部20に2枚の
異なった時刻の画像を入力し、画像特徴抽出部22にお
いて、その2枚の画像デ―タから差分画像を生成し、差
分画像で差異が現れた部分の輪郭や領域から生成される
画像特徴のうち、モデル特徴と対応するものに対してそ
の画像特徴を選択する。
【0177】この選択された画像特徴を規定するパラメ
―タである画像パラメ―タ27を算出する。そして、モ
デル特徴予測部21で算出されたモデルパラメ―タ26
と画像特徴抽出部22で算出された画像パラメ―タ27
を利用して、特徴対応探索部23は上記画像パラメ―タ
27とモデルパラメ―タ26を利用してモデル特徴と画
像特徴間の最適な対応を探索すると同時に、その対応関
係から移動物体の位置姿勢を規定する位置姿勢パラメ―
タ29を算出する。
【0178】この結果である更新された対象物の位置姿
勢パラメ―タは、位置姿勢予測部24に送出される。そ
して、位置姿勢予測部24では、次に移動物体が撮影さ
れる時刻における移動物体の位置姿勢を予測しモデル特
徴予測部21に送出する。
【0179】次に画像特徴抽出部22で行われる処理を
具体的に説明する。
【0180】画像特徴抽出部22では、モデル特徴予測
部21で選択されたモデル特徴に対応する画像特徴をカ
メラ画像の中から抽出することが行われる。ここでは、
1,P2 を端点とする直線成分P1 ,P2 の抽出を例
として説明する。
【0181】モデル特徴予測部21で作成されたある直
線に関する情報は、 (1)直線成分の端点のカメラ画像内での画像探索限定
領域 (2)直線成分のハフ変換パラメ―タのハフ空間探索限
定領域 の2点である。
【0182】第2の実施例における画像特徴抽出部22
では、先ず少なくとも2枚の画像デ―タから差分画像を
生成し、差分画像で差異が現れた部分の輪郭や領域から
上記(1),(2)の条件を満たす画像特徴候補を抽出
することにより、特徴対応探索部が必要とする画像特徴
を準備するものである。
【0183】以下、画像特徴抽出部22で行われる処理
について、モデル特徴が線分要素の場合を例にして説明
する。勿論、方法は別種類のモデル特徴についても応用
可能なことは明らかである。画像特徴抽出部22では以
下のステップをとる。
【0184】(1)画像格納部3から撮影時刻の異質な
る2枚の画像を画像特徴抽出部22に入力する。このう
ち少なくとも1枚の画像は、該当時刻に関する画像とす
る。
【0185】(2)この画像特徴抽出部22において上
記2枚の画像からその差分画像を生成する。その差分画
像はある閾値において2値化される。
【0186】ここで、図16は差分画像を作成する様子
を表したものである。この図16において、画像200
から画像201の差分をとり、画像202を作成する。
このために図中の画像200と画像201の2枚の画像
を画像格納部3から画像特徴抽出部22に入力する。こ
の2枚の画像200、201から差分画像である画像2
02を生成する。画像202では8ビットの濃淡値を持
つ場合、その閾値を0から255の間の適当なしきい値
を利用して2値化画像に変換する。
【0187】変換された画像は図16の画像202に示
すように0又は1の値となる。ここで差がしきい値より
大きかった部分は黒(1)で表されており、しきい値以
下であった部分は白(0)で表されている。
【0188】(3)2値化された画像202から対象物
の輪郭に対応するエッジ部分を抽出する。エッジ抽出方
法は画像202において3×3画素からなるマスクを走
査し、3×3画素の中に1画素でも濃度(0,1)が異
なった画素を含むような中心画素をエッジ成分として画
像211に登録することによる。こうしてエッジ画素と
して登録された画像211を細線化することで、輪郭成
分からなる画像212を生成する。
【0189】(4)先に第1の実施例に示した各モデル
特徴の画像探索規定領域とハフ空間探索限定領域を利用
して、上記の画像212からモデル線分に対応可能な画
像特徴線分候補を抽出する。これを実現する方法として
は、モデル特徴パラメ―タ予測値の期待値と誤差分散共
分散行列が作り出す画像探索限定領域内にある輪郭成分
について、その輪郭を追跡することにより行う。この追
跡に関しては、ある一定間隔ごとの輪郭上の点を利用し
て、その輪郭の接線の傾きのなす角度を求め、その角度
が限定されたハフ空間内にあれば、画像特徴候補となる
エッジ点として登録する。以下、この処理を輪郭線分を
追跡しながら施し、そうした点がある一定以上の長さに
わたり、連続しているときには、その連続した線分領域
を画像特徴候補として登録することを行なう方法であ
る。図16において、線分203,204,…,210
はこうした画像特徴を表したものである。
【0190】(5)こうして抽出された画像特徴線分に
ついて各々のハフパラメ―タq=(ρ,γ)を求める。
更に、このハフパラメ―タ測定値qに関連する誤差成分
の推定誤差共分散行列を付加し、これらの組を画像パラ
メ―タとする。
【0191】このようにして、各モデル特徴について、
画像特徴候補が抽出され、画像パラメ―タが算出され
る。第1の実施例の場合と異なり、ハフパラメ―タ空間
上でヒストグラムを生成する必要がなくなる為、処理の
高速化を実現できる。
【0192】即ち、抽出された画像特徴候補に関する画
像パラメ―タ27は特徴対応探索部23に送出される。
第1の実施例と同様に、特徴対応探索部23でモデル特
徴との最適な対応が探索され、その結果から対象物の位
置姿勢パラメ―タの予測値が更新される。以後の処理は
第1の実施例の場合と同様であるので説明を省略する。
【0193】以上説明したように、第2の実施例に係る
移動物体追跡装置では、モデル特徴に対応する可能性の
ある画像特徴を差分画像内から抽出することにより、請
求項1に記載の安定に移動物体を追跡する効果をさらに
増加させることができる。即ち、本移動物体追跡装置の
処理部にある画像特徴抽出部の計算量が減少すると共
に、確実に画像特徴を抽出できるので、高速にかつ安定
に移動物体を追跡することができる。
【0194】次に本発明の第3の実施例に係る移動物体
追跡装置について説明する。尚、第3の実施例における
実現可能な装置の概観は第1実施例と同様である為、そ
の図示と説明を省略する。
【0195】第3の実施例で扱う移動物体は、第1の実
施例で扱う物体を更に拡張したものである。即ち、第1
実施例で扱った物体では、全体が剛体として扱われてい
たのであるが、第3の実施例で扱う物体は移動物体が部
分的に剛体な部材から成り立っており、それらの結合が
変化するものである。
【0196】ここでは、図17に示すロボットのグリッ
パ―形状をした移動物体の場合を考える。この図17に
示されるように、移動物体は、剛体300、剛体30
1、剛体302から成り、剛体300に対して剛体30
1と剛体302は、それぞれd/2と−d/2だけスラ
イドするように構成されている。すなわち、剛体301
と剛体302の位置姿勢パラメ―タは、剛体300の位
置姿勢パラメ―タと剛体間の結合関係を表すパラメ―タ
d(303)により決定することができる。
【0197】このため、対象物の移動をパラメ―タによ
り表現するには、剛体300の位置姿勢パラメ―タp=
(px ,py ,pz ;φx ,φy ,φz )と、剛体30
0から剛体301、剛体302への相対距離を規定する
パラメ―タd(303)の7個のパラメ―タをもってす
れば充分である。
【0198】このように、対象物が剛体のパ―ツから構
成される場合には1個の基準となる剛体パ―ツの位置姿
勢パラメ―タp=(px ,py ,pz ;φx ,φy ,φ
z )と、この基準とした剛体パ―ツから別の剛体パ―ツ
への結合関係を表すパラメ―タ群d=(d1 ,d2
…,dm )を利用して新たなパラメ―タpc=(p,
q)=(px ,py ,pz ;φx ,φy ,φz ;d1
2 ,…,dm )を定義することにより、新たなパラメ
―タpcをもって、剛体全体の位置姿勢を決定すること
ができる。以下、このよう新たなパラメ―タpcのこと
を一般化位置姿勢パラメ―タと称することにする。
【0199】第3の実施例は、第1実施例とは異なる移
動物体の一般化位置姿勢パラメ―タを設定することを特
徴とする。また、第3の実施例における画像処理部4で
の作用又は構成は移動物体の位置姿勢パラメ―タに関し
て新たなパラメ―タが追加されているだけなので、第1
実施例におけるモデルデ―タ格納部20においてどのよ
うなパラメ―タが追加されたかを例を挙げて説明するの
みとする。他の画像処理部4の作用と構成は第1実施例
と同様である為、その図示と説明を省略する。モデルデ
―タ格納部20では、基本要素となる剛体パ―ツを各々
別々に第1実施例で示されるようなモデルデ―タとして
格納してある。即ち、各剛体パ―ツには基準となる原点
とその姿勢に基づき、その原点からの相対的座標をもっ
てモデル特徴が定義されている。
【0200】例えば図18の剛体301は、その原点が
0 (x0 ,y0 ,z0 )(304)に設定されてお
り、第1の実施例と同様に、面情報、稜線の情報、頂点
の情報によって記述されるのである。
【0201】モデル特徴予測部21では、上記の一般化
位置姿勢パラメ―タにより、可視のモデル特徴を選択す
ることかできる。これを実現する方法としては、一般化
位置姿勢パラメ―タの予測期待値を利用して、世界座標
系における各パ―ツの原点の位置姿勢を算出し、続い
て、各剛体が持つモデル特徴の世界座標における位置を
算出する。このようにすることで、対象物全体の全モデ
ル特徴の世界座標における位置を算出することがきる。
この後は、第1の実施例のモデル特徴予測部21が行っ
たのと同様に、モデル特徴のうち可視であるモデル特徴
の選択とその画像探索限定領域とハフ空間探索限定領域
を抽出することができる。
【0202】画像特徴抽出部22においては、第1の実
施施例の場合と等価な処理が行われるので、ここではそ
の説明を省略する。
【0203】そして、この画像特徴抽出部22で抽出さ
れた画像特徴候補とモデル特徴の間の対応が探索され
る。この対応探索において、その方法は第1の実施例と
同様である。異なる点は位置姿勢パラメ―タだけを推定
するのではなく、一般化位置姿勢パラメ―タpc を推定
する必要があることである。
【0204】これを行うためには、モデル特徴sと画像
特徴rと一般化位置姿勢パラメ―タpc の間の非線形制
約式、 f(s,r,pc )=0 を構築し、非線形制約式とカルマンフィルタを利用し
て、一般化位置姿勢パラメ―タの予測値の更新を行って
ゆけばよい。この方法では、一般化位置姿勢パラメ―タ
の次元が6以上である点が異なる点である以外は、第1
の実施例と同様であるので説明は省略する。
【0205】以上説明したように、第3の実施例に係る
移動物体追跡装置では、各パ―ツ毎に位置姿勢パラメ―
タを追跡する必要がなくなり、処理の高速化を図ること
ができる。また、剛体パ―ツ間の制約関係がパラメ―タ
推定中いつも満たされているので、安定した位置姿勢推
定が可能となり、移動物体追跡を安定化させることがで
きる。
【0206】次に本発明の第4実施例に係る移動物体追
跡装置について説明する。
【0207】第4の実施例における移動物体追跡装置の
構成は第1の実施例と同様であるため、その図示と説明
を省略する。また、該装置の概観における画像処理部4
の各部の構成も同様に第1実施例と同様であるため、そ
の図示と説明は省略する。
【0208】第4の実施例では、第1実施例に対してモ
デル特徴予測部21と特徴対応探索部23に多少の異な
りがある。この異なった手段により、第1実施例よりも
更に効果のある、高速且つ安定な対象物の追跡装置を提
案する。
【0209】モデル特徴予測部21における第1実施例
と異なる点とは、可視と予測されるモデル特徴線分に関
して画像特徴と対応が得られる可能性の高いモデル特徴
に優先順位を付け、この優先順位に基づいて特徴対応探
索部23でモデル特徴と画像特徴を対応探索を行う。こ
の可視と予測されるモデル特徴の優先順位をつけるにあ
たっては、モデル特徴を優先順位別のグル―プに分類す
る方法を提案する。
【0210】モデル特徴予測部21において、可視と予
測されるモデル特徴を周辺に類似したモデル特徴がある
か否かによりグル―プ化し、類似したモデル特徴がない
グル―プ内のモデル特徴を優先的に処理することによ
り、特徴対応探索部23が安定的に最適の対応が探索で
きるようにしたことに特徴がある。
【0211】第1実施例と同様の画像処理部4では、対
象物である移動物体の3次元モデルデ―タを格納するモ
デルデ―タ格納部20とモデル特徴が画像内でとり得る
パラメ―タの予測をするモデル特徴予測部21、画像特
徴を抽出する画像特徴抽出部22、モデル特徴と画像特
徴との対応の探索を行う特徴対応探索部23、対象物の
位置姿勢パラメ―タを予測する位置姿勢予測部24とで
構成される。
【0212】第4の実施例ではモデル特徴として線分特
徴を考える。モデル特徴予測部21において可視と予測
されたモデル特徴に対して、そのモデル特徴である線分
特徴を調査し、その調査においてそれぞれのモデル特徴
をグル―プ化する。
【0213】そして、そのグル―プ化されたモデル特徴
は、続いてモデル特徴と画像特徴との対応探索のための
優先順位を付け、その優先順位において特徴対応探索部
23において対応探索を実行する。
【0214】以下、こうしたグル―プ化が行われるモデ
ル特徴予測部21と、このグル―プ化により特徴対応探
索が実行される特徴対応探索部23での処理について説
明する。モデル特徴予測部21において、カメラ画像上
で可視と予測されたモデル特徴のモデルパラメ―タの画
像探索限定領域とハフ空間探索限定領域を算出する部は
第1実施例と同様であるため、その説明を省略する。こ
の算出された可視と予測されるモデル特徴線分をある基
準に従ってグル―プに分類する。そして、この分類され
たグル―プの優先順位付けを行う。
【0215】このグル―プ分類方法と優先順位を付ける
方法について、図19を参照して説明する。この図19
中には移動対象物の可視モデル特徴線分を401から4
26までの記号で示してある。各可視モデル特徴線分の
位置や傾き、長さは全て上記モデル特徴予測部21によ
り算出することが可能な為、その情報を利用する。
【0216】優先順位を決定するためのグル―プ化に関
しては、第4の実施例では、以下の2種のグル―プ化の
方法を説明するが、どちらの方法でも、その効果は同様
である。第1グル―プ化の方法は以下の通りである。
【0217】先ず、第1グル―プ化方法について説明す
る。
【0218】(1)異なる2個のモデル特徴に関して、
それらの画像探索限定領域とハフ探索限定領域の両方に
共通部分がある組は、同一のグル―プに加える。そし
て、こうして生成されたグル―プ内で、画像内で予測さ
れる線分の長さが大きい順に並べ替える。例えば図19
について、そうしたグル―プ化を行うと、{406,4
16,414},{407,417,415,40
8},{410,409,401},{412,41
1,405},{404,413},{422,42
1},{423,425,420,419}が一つのク
ル―プにまとめられる。また、{402},{40
3},{418},{424},{426}は周辺に類
似したモデル線分が存在しないため、単独で一つのグル
―プを生成する。
【0219】(2)上記で決定された各グル―プに関し
て、次の評価尺度を用いて優先順位を付ける。即ち、グ
ル―プ内のモデル特徴数が小さいグル―プに高い優先順
位を与える。そして、モデル特徴数が同一グル―プにお
いては、先頭にある最も長いモデル特徴を比較し、その
長さが大きい方のグル―プに高い優先順位を与える。
【0220】以上の操作により、モデル特徴はグル―プ
化され、且つ各グル―プには優先順位が付けられる。例
えば図19によれば{402},{403},{42
6}の順位が付けられ、次に{413,404},{4
12,411,405},{410,409,40
1},{406,416,414},{407,41
7,415,408},{423,425,420,4
19},{424,422,421,418}のグル―
プが続くような優先順位の付け方になる。
【0221】(3)こうしてグル―プ化と優先順位付け
が行われたモデル特徴が、その優先順位を保ったまま画
像特徴抽出部と特徴対応探索部に送出される。
【0222】例えば上記の例では、{402,403,
426,413,404,412,411,405,4
10,409,401,406,416,414,40
7,417,415,408,423,425,42
0,419,424,422,421,418}という
具合になる。
【0223】このような優先順位を付けることにより、
高い優先順位のモデル特徴に対応する画像特徴候補の数
は低い優先順位のモデル特徴に比べて小さいことが予想
されること、及び長さの大きいモデル特徴の方が画像内
から抽出され易いことの2点が満足されることとなる。
【0224】次に第2のグル―プ化方法について説明す
る。
【0225】図19で示されているような移動対象物に
おいて、直線成分をモデル特徴として扱っていた。こう
したモデル特徴では、3次元的に平行な直線群が多く存
在することが判る。特徴対応探索部23において、モデ
ル特徴に対応する画像特徴を探索する際に、対象物の位
置姿勢パラメ―タを更新しながら、その誤差分散量を減
少させてゆくには、各段階で幾何学的な見地から有効な
モデル特徴の選択が重要となる。例えば、同一平面上に
ある直線成分だけを利用して対象物の位置姿勢パラメ―
タの予測値を更新しようとしても、モデル特徴が作る空
間が縮退しているので、対象物の位置姿勢パラメ―タの
更新が必ずしも順調に行われないとう問題点がある。こ
うした問題が生じないように、第4の実施例の第2のモ
デル特徴のグル―プ化では、モデル特徴が張る空間も分
類基準に入れるのである。
【0226】そして、このグル―プ化の基準は以下のと
おりである。
【0227】(1)3次元遷移座標で互いに平行である
モデル特徴を同一のグル―プとする。例えば、図19に
おいては、 グル―プ1:{401,404,405,409,41
0,411,412,413} グル―プ2:{402,406,414,416,41
8,421,422,424,426} グル―プ3:{403,407,408,415,41
7,419,420,423,425} がこれらのグル―プに対応する。これらを大グル―プと
称することにする。
【0228】(2)(1)で生成された各大グル―プの
中のモデル特徴において、画像探索限定範囲とハフ空間
探索限定範囲の両方が共通部分を持つものを更にグル―
プ化する。このようにしてグル―プ化されたグル―プ内
で、要素数の小さい順に且つ画像内での長さの大きい順
に整列させる。大グル―プ内のグル―プのことを小グル
―プと称する。
【0229】大グル―プ1:{{413,404},
{412,411,405},{410,409,40
1}} 大グル―プ2:{{402},{426},{406,
414,416},{424,422,421,41
8}} 大グル―プ3:{{403},{407,417},
{415,408},{423,425,420,41
9}} (3)(2)で求められた大グル―プ内の先頭の小クル
―プを比較し、要素数の少ない小グル―プを優先する
(条件1)、先頭が最も長いモデル特徴を含んだ小グル
―プを優先する(条件2)といった条件のもとで、小グ
ル―プの優先順位を付ける。先の例では、 {402,403,413,404,426,407,
417,412,411,405,415,408,4
06,414,416,410,409,401,42
3,425,420,424,422,421,41
8} の順になる。
【0230】このような処理にすることにより、特徴対
応探索部23において、対象物の位置姿勢パラメ―タの
更新を行う際、幾何学的な縮退等が起こる可能性が減少
し、効果的に位置姿勢パラメ―タの誤差分散の減少を達
成することができる。従って、少数のモデル特徴が画像
特徴の組み合わせにより、対象物の位置姿勢パラメ―タ
の誤差分散の絞り込みができるようになり、処理の高速
化が実現できる。
【0231】以上、2つのグル―プ化の例を挙げて、モ
デル特徴予測部21における処理を説明してきたが、グ
ル―プ化によってモデル特徴に優先順位をけることによ
り、モデル特徴の個数を制限することもできる。
【0232】即ち、モデル特徴予測部21において、あ
る一定値より多数のモデル特徴が可視であると判断でき
たときには、第4の実施例で処理すべきモデル特徴し優
先順位が高い順に可視モデル特徴を選択することができ
る。これにより、画像特徴抽出部22や特徴対応探索部
23で、常に一定量の処理だけをするように制御でき
る。
【0233】ところで、画像特徴抽出部22により抽出
された画像特徴候補は、各モデル特徴について複数個存
在する可能性がある。特徴対応探索部23は各モデル特
徴について最適な画像特徴を選択することを行うもので
ある。
【0234】第4の実施例において、各モデル特徴につ
いて最適な画像特徴を選択する手段は第1実施例と同様
であるが、この各モデル特徴について上記優先順位の付
けられたモデル特徴を優先して、最適な画像特徴を選択
することを特徴とする特徴対応探索部23を特色とする
構成になっている。つまり、上記モデル特徴予測部21
において各々のモデル特徴について優先順位が付けられ
る。この優先順位とは各モデル特徴について最適な画像
特徴を選択する特徴対応探索部23において、モデル特
徴と画像特徴の対応の探索を実行する際、上記優先順位
のついたモデル特徴についての対応探索を優先的に実行
することを意味する。
【0235】ここで、図20は特徴対応探索部23にお
ける手続きを示す図である。
【0236】この図20では、手続き「対応探索」の部
分は、第1の実施例と同様であるので省略してある。手
続き「match 」において、第1の実施例と異なる部分は
ステップS102の処理である。
【0237】図13で示される第1の実施例のステップ
S102では、集合Qに含まれる全てのモデル特徴sに
ついて、対応可能性のある画像特徴候補の数を算出し
て、その中から最も少ない候補数のモデル特徴を選択し
ていた。
【0238】第4の実施例では、ステップS400にお
いて、予め定められたモデル特徴の優先順位に従って最
も優先順位の高いモデル特徴sを選択する。続いて、第
1の実施例のステップS305と同様に、ステップS4
01において、そのsに対応する可能性のある画像特徴
を順序集合Rs に格納することになる。このようにして
モデル特徴sと画像特徴候補集合Rs が決定された後、
手続き「match 」のステップS103へ移行する。
【0239】従って、第1の実施例の場合と異なり、残
りのモデル特徴全てについて、画像特徴候補の対応の検
証をする必要がなくなる点、及び優先順位の高いモデル
特徴については、そのモデル特徴の画像探索制限領域内
とハフ空間探索制限領域内に類似した画像特徴が存在す
る可能性がないため、抽出される画像特徴候補の数は1
以下であることが期待できる点で対応探索が容易になる
可能性が高くなる。
【0240】以上説明したように、第4の実施例に係る
移動物体追跡装置では、モデル特徴と画像特徴の対応探
索を実行する際に、各モデル特徴の中でも対応関係の可
能性の高いモデル特徴を優先して対応探索をすることに
より、特徴対応探索部23の対応の検索処理時間を短縮
することができる上、対応の信頼性が高くなる。このた
め移動対象物のトラッキングを行う際、高速且つ安定に
追跡することを可能にする。
【0241】次に第5実施例に係る移動物体追跡装置に
ついて説明する。
【0242】第5の実施例に係る移動物体追跡装置にお
いては、対象物の形状が判っているものと仮定する。そ
して、第5の実施例に係る移動物体追跡装置の構成は第
1実施例と同様である為、その図示と説明を省略する。
さらに、画像処理部4におけるモデルデ―タ格納部2
0、モデル特徴抽出部21、画像特徴抽出部22、特徴
対応探索部23、位置姿勢予測部24の基本構成は第1
実施例と同様であるのでその図示と説明を省略する。
【0243】第5の実施例の特徴は、対象物の位置姿勢
パラメ―タを予測する位置姿勢予測部24から得られる
次の時刻の対象物の位置姿勢パラメ―タの推定値を利用
して、カメラコントロ―ル部5でズ―ムフォ―カスなど
の画像の拡大縮小機能を作用させ、画像内の対象物の大
きさを制御し、位置姿勢パラメ―タの推定値により、対
象物とカメラとの距離を算出して、カメラの対象物への
焦点距離をカメラコントロ―ラ部5で制御することにあ
る。
【0244】図21は第5の実施例の説明で使用される
画像処理部4とカメラコントロ―ル部5の内容を示した
ものである。第1実施例との違いは、モデル特徴予測部
21が生成するモデルデ―タがカメラコントロ―ル部5
に送出される点にある。
【0245】先ず前者のカメラコントロ―ル部5で画像
内の対象物の大きさを制御する方法について詳しく説明
する。
【0246】第1の例では、モデル特徴予測部21が次
の時刻の可視のモデル特徴の画像内の位置を予測したモ
デルデ―タ26を利用することにより、カメラコントロ
―ル部5では、それら全てのモデル特徴を包み込む最小
円を計算する。
【0247】この最小円の計算の方法は図22を参照し
て説明する。モデル特徴予測部21は、画像内に出現す
ると予測される可視モデル特徴の端点を算出する。カメ
ラコントロ―ル部5では、この算出された画像内に出現
すると予測されるモデル特徴の端点の画像内座標を受け
取り、この全ての端点の座標内平均値を計算する。
【0248】例えばn個の端点の座標が(u1
1 ),(u2 ,v2 ),…,(un ,vn )とする
と、この端点の座標内の平均座標値は((u1 +u2
…+un )/n,(v1 +v2 +…+vn )/n)とな
る。この座標内の平均座標値を対象物を包み込む最小円
の中心点とする。
【0249】この図22において、中心点500はこの
点を示す。この中心点から一番離れている端点を包み込
む最小円の半径とする。つまり、図22中の端点501
(u1 ,v1 )がこの中心点から最も離れている端点と
して、その中心点と端点との距離をこの最小円の半径と
している。この作用により、次時刻で可視と予測される
モデル特徴の全てを包み込む最小円を設定することがで
きる。
【0250】この最小円を利用して、画像内の対象物を
カメラコントロ―ル部5では、どの程度のズ―ムフォ―
カスをするのかの制御信号を算出し、その制御信号を画
像入力部1に送出する。具体的には、最小円の半径があ
る値より小さくなった場合は、この最小円の半径が画像
内でほぼ一定になるように拡大するズ―ムフォ―カス信
号を生成する。また、最小円の半径がある値より大きく
なった場合は、この最小円の半径が画像内でほぼ一定に
なるように縮小するズ―ムフォ―カス信号を生成する。
この最小円の利用方法も当然、各種の変形、変更が可能
である。
【0251】例えば、この最小円の面積がある閾値よ
り、小さくなった場合に限りズ―ムフォ―カスをかける
ように制御信号を生成することが考えられる。また、同
様に、この最小円がある閾値より大きくなったときに限
りズ―ムフォ―カスをかけて、最小円の半径を小さくし
て、ほぼ一定値になるようにしてもよい。
【0252】こうして、カメラコントロ―ル部5によっ
て算出されたこの最小円の情報でカメラコントロ―ル部
により拡大するか縮小するかを決定し、その決定によ
り、カメラコントロ―ル部のズ―ムフォ―カス機能を働
かせることにより、対象物の画像内での大きさをおおむ
ね一定に保つことができる。
【0253】一方、第2の例では、対象物の位置姿勢パ
ラメ―タを予測する位置姿勢予測部24から得られる次
の時刻の対象物の位置姿勢パラメ―タの推定値を利用す
ることにより、カメラコントロ―ル部5では、カメラか
ら対象物までの距離を算出しその算出値に基づいて、カ
メラフォ―カス位置を変更することを特徴とする。
【0254】このカメラコントロ―ル部5でのカメラか
ら対象物までの距離の算出方法とその距離情報からカメ
ラフォ―カス位置を更新する方法について以下に詳述す
る。いま、世界座標における時刻tにおけるカメラ位置
をc(t) とし、時刻tにおける移動物体の位置姿勢パラ
メ―タのうち、移動物体の位置を表すパラメ―タをp
(t) とすれば、移動物体からカメラまでのベクトルはp
(t) −c(t) によって示すことができる。尚、カメラの
光軸を表す世界座標系でのベクトルa(t) で表すものと
する。但し、a(t) の大きさは1とする。このとき物体
からカメラまでの距離はベクトルp(t) −c(t) とベク
トルa(t) の内積の絶対値、 |(p(t) −c(t) ,a(t) )| により示すことができる。この距離に応じてカメラコン
トロ―ル部5のフォ―カス機能がカメラを常に対象物に
焦点を合わせるように制御信号を画像入力部1に送出す
る。カメラに取りつけられているカメラフォ―カス機能
は従来カメラに取り付けられているフォ―カス機能で充
分である。これらの作用により、対象物の位置姿勢に応
じて、ぼけの少ない画像を撮影することができる。
【0255】以上説明したように第5の実施例によれ
ば、対象物の画像内での大きさをおおむね一定に保つこ
とができるので、画像内のモデル特徴を抽出することが
容易になり、認識の安定化を図ることや、抽出すべき可
視モデル特徴の数をある一定数以上に観察できるので、
遮蔽や陰影などの影響があっても、対象物の位置姿勢パ
ラメ―タを安定に推定することができる。
【0256】さらに、第5の実施例の第2の例の作用に
より、カメラから対象物への焦点距離を対象物が移動す
ることでカメラコントロ―ル部5を制御することによっ
て、対象物の位置姿勢に応じてぼけの少ない画像を撮影
することができるので、ぼけによる画像特徴の抽出の困
難さを解消することができ、安定した移動物体の追跡を
するなどの特徴がある。
【0257】次に第6の実施例に係る移動物体追跡装置
ついて説明する。
【0258】第6実施例は、前の時刻の画像特徴又は対
応探索の結果を利用して現時刻の対応探索の処理時間を
短縮したり、対応探索の信頼性を向上させるものであ
る。
【0259】この第6の実施例では、前の時刻の画像の
濃淡情報を利用して対応探索時間の短縮を実現する方法
(第1の例)、前の時刻の画像の濃淡情報を利用して対
応探索の信頼性を向上させる方法(第2の例)、前の時
刻のモデル特徴と画像特徴の対応探索結果を利用して現
時刻の対応探索の処理時間を短縮する方法(第3の
例)、前の時刻の更新された対象物の位置姿勢パラメ―
タを利用して対象物の速度を計算し対応探索するモデル
特徴の数を制御し対応探索処理時間を短縮する方法(第
4の例)の4つの例を挙げて説明する。
【0260】尚、第6の実施例における装置の構成は、
第1実施例と同様であるため、その図示と説明を省略す
る(図1を参照)。また、モデルデ―タ格納部20、モ
デル特徴予測部21、位置姿勢予測段24、画像特徴抽
出部22、特徴対応探索部23の基本的作用は、第1実
施例や第4実施例と同様である為、その説明を簡略化す
る。この第6の実施例の特徴は前の時刻の画像特徴(濃
淡値)、又は対応探索の結果をそれぞれの情報格納部に
格納しておき、その情報格納部に格納されていた前の時
刻の種々の情報を利用して、新しい作用と効果を生み出
しているため、それぞれの画像処理部の構成要素に情報
格納部が設けられている。
【0261】その為、第1実施例とは情報の流れなどが
異なるが、以下、画像処理部4の各構成要素を4つの例
により説明し、その情報の流れを詳述する。
【0262】先ず前の時刻の濃淡情報を利用する第1の
例について説明する。
【0263】第6の実施例の第1の例における前の時刻
の濃淡情報を利用して対応探索を安定に作動させる方法
の画像処理部は図23に示すような構成要素に基づいて
実行される。この画像処理部4は対象物である移動物体
の3次元モデルデ―タ25を格納するモデルデ―タ格納
部20とモデル特徴が画像内でとり得るパラメ―タの予
測をするモデル特徴予測部21、画像特徴を抽出する画
像特徴抽出部22、モデル特徴と画像特徴との対応の検
索を行う特徴対応探索部23、対象物と位置姿勢パラメ
―タを予測する位置姿勢予測部24、更に特徴対応探索
部23により得られたモデル特徴と画像特徴の対応関係
が成立したモデル特徴に関して該モデル特徴の左右また
は上下近傍の画像の濃淡値を格納する前時刻対応デ―タ
格納部30とで構成される。
【0264】この図23を参照して情報の流れを説明す
ると、第1実施例と同様にモデル特徴予測部21はカメ
ラコントロ―ル部5からのカメラ姿勢デ―タ10と位置
姿勢予測パラメ―タ28と、モデルデ―タ格納部20か
らの3次元モデルデ―タ25とを利用して、その対象物
を規定する特徴がカメラ画像でとり得るパラメ―タとそ
のパラメ―タがどのように画像内で制限されるかを予測
する。
【0265】こうして予測されたパラメ―タであるモデ
ルパラメ―タ26は次の画像特徴抽出部22ではモデル
特徴に対応し得る画像特徴を抽出し、その画像特徴を規
定するパラメ―タである画像パラメ―タ27を算出す
る。
【0266】この2つのパラメ―タを利用して、特徴対
応探索部23は所定の評価式を利用しながら、モデル特
徴と画像特徴間の最適な対応を探索すると同時に、その
対応関係から移動物体の位置姿勢を規定する位置姿勢パ
ラメ―タ29を算出する。
【0267】ここまでは第1の実施例による処理と同様
であるが、第6の実施例の第1の例では、この最適なモ
デル特徴と画像特徴の対応探索の結果、画像デ―タから
モデル特徴線分の近傍の濃淡値を前時刻対応デ―タ格納
部30に格納する。つまり、特徴対応探索部23で得ら
れたモデル特徴の近傍の濃淡情報32を画像デ―タから
前時刻対応デ―タ格納部30に格納する。
【0268】この前時刻対応デ―タ格納部30に格納さ
れた濃淡情報32は、次の時刻でのモデル特徴と画像特
徴の対応探索を行う際に、その対応が正確に対応してい
るかどうかについて新たな検証条件として利用する。こ
のように濃淡情報を利用する理由は、ある時刻t1 と近
接する時刻t2 において、同一のモデル特徴に対応する
画像特徴付近の濃淡値は時刻t1 と時刻t2 の差が十分
小さければほぼ同様であるということに基づくものであ
る。このような理由のもとで、上記の例を実現するため
に、画像特徴抽出部22は画像特徴のハフパラメ―タの
測定値と推定誤差共分散行列の他に、その画像特徴の近
傍の濃淡情報も算出する。
【0269】図24は、この様子を表したものである。
即ち、この図24において、時刻t1 に撮影された対象
物600、抽出された画像特徴線分602、抽出された
画像特徴602を境界線として分離される2個の領域に
おいて画像特徴602の近傍領域を考える。これらに
は、左(上)近傍領域604と右(下)近傍領域605
がある。画像特徴抽出部22では、これら2個の近傍内
の濃淡情報を抽出する。濃淡情報としては以下の数種を
考えることができ、これらのいずれの情報を使うかは対
象物の種類などに依存する。
【0270】(1)近傍内の平均濃度値 (2)近傍内の平均濃度値と分散値 (3)カラ―画像を扱うときには色情報など さて、このように抽出された濃淡情報は、特徴対応探索
部23に送出される。そして、特徴対応探索部23で
は、モデル特徴予測部21で可視と予測されたモデル特
徴と、画像特徴抽出部22で探索された画像特徴とが照
合される。
【0271】いま、時刻t1 において、この特徴対応探
索部23でモデル特徴m1 と画像特徴r1 の対応が正し
いと照合されたとする。このとき、特徴対応探索部23
は、モデル特徴m1 の近傍条件を調査し、その近傍の一
方が対象物の面内にある場合には、その面に対応する画
像特徴r1 の濃淡情報n1 を含めて前時刻対応デ―タ格
納部30に送出する。一方、両方とも対象物の面内にあ
るときには、その両面に対応する画像特徴r1 の濃淡情
報n1 を前時刻対応デ―タ格納部に送出する。次の時刻
2 において、前記時刻対応デ―タ格納部に格納された
モデル特徴m1 に関する濃淡情報n1 が特徴対応探索部
23に送出される。モデル特徴m1 がモデル特徴予測部
23が生成するモデルデ―タ内に含まれている場合に
は、即ちモデル特徴m1 が時刻t2 においても可視の場
合には、特徴対応探索部23は第1の実施例で述べられ
る処理を実行する前に、画像特徴抽出部22が抽出した
画像特徴候補の確認を行う。具体的には、モデル特徴m
1 の各画像特徴候補rの濃淡情報nについて、 (1)濃淡情報が平均濃淡値で示されるならば、前時刻
対応デ―タ格納部30が送出したモデル特徴m1 の平均
濃淡値n1 と画像特徴候補rの平均濃淡値nとの差(n
−n1 )を計算する。そして、この濃度差の絶対値がし
きい値より大きければ、画像特徴候補rは、モデル特徴
1 の候補から除外する。
【0272】(2)濃淡情報が平均濃淡値と分散量で示
されるならば、前時刻対応デ―タ格納部30が送出した
モデル特徴m1 の平均濃淡値n1 と標準偏差σ1 と画像
特徴候補rの平均濃淡値nと標準偏差σから、以下の値
を算出する。
【0273】
【数33】 この値dがあるしきい値より大きければ、画像特徴候補
rは、モデル特徴m1の候補から除外する。
【0274】(3)濃淡情報が色情報で示されるなら
ば、前時刻対応デ―タ格納部30が送出したモデル特徴
1 の色相n1 と画像特徴候補rの色相nとの差(n−
1 )を算出する。そして、この差の絶対値がしきい値
より大きければ、画像特徴候補rは、モデル特徴m1
候補から除外する。
【0275】以上の処理を施すことにより、対応探索の
処理を実行する前に、対応しえない画像特徴候補を除去
することができる。
【0276】以上説明したように、第6の実施例の第1
の例では、モデル特徴と画像特徴候補の対応探索に先立
ち、対応し得ない画像特徴を予め除去できるので、対応
探索処理の安定化と高速化を図ることができる。
【0277】次に前の時刻の濃淡情報を利用する第2の
例について説明する。
【0278】第6の実施例の第2の例における前の時刻
の濃淡情報を利用して対応探索を高速に且つ安定に作動
させる方法の画像処理部4は、図25に示すような構成
要素に基づいて実行される。この画像処理部4は、第1
の例と同様に対象物である移動物体の3次元モデルデ―
タ25を格納するモデルデ―タ格納部20とモデル特徴
が画像内でとり得るパラメ―タの予測をするモデル特徴
予測部21、画像特徴を抽出する画像特徴抽出部22、
モデル特徴と画像特徴との対応の探索を行う特徴対応探
索部23、対象物の位置姿勢パラメ―タを予測する位置
姿勢予測部24、更に特徴対応探索部23により得られ
たモデル特徴と画像特徴の対応関係が成立したモデル特
徴に関して、そのモデル特徴の左右(又は上下)近傍の
画像の濃淡値を格納する前時刻対応デ―タ格納部30と
で構成されている。
【0279】図25を参照しながら情報の流れを説明す
ると、第1の例と同様に、モデル特徴予測部21は、カ
メラコントロ―ル部5からのカメラ姿勢デ―タ10と位
置姿勢予測パラメ―タ28と、モデルデ―タ格納部20
からの3次元モデルデ―タ25を利用して、その対象物
を規定する特徴がそのカメラ画像でとり得るパラメ―タ
とそのパラメ―タがどのように画像内で制限されるかを
予測する。
【0280】こうして予測されたパラメ―タであるモデ
ルパラメ―タ26は、次の画像特徴抽出部22ではモデ
ル特徴に対応し得る画像特徴を抽出し、その画像特徴を
規定するパラメ―タである画像パラメ―タ27を算出す
る。この2つのパラメ―タを利用して特徴対応探索部2
3は所定の評価式を利用しながら、モデル特徴と画像特
徴間の最適な対応を探索すると同時に、その対応関係か
ら移動物体の位置姿勢を規定する位置姿勢パラメ―タ2
9を算出する。
【0281】ここまでは第1の例と同様であるが、この
対応のとれたモデル特徴線分の近傍の濃淡値情報の流れ
が第6の実施例の第2の例は異なり、その作用により、
第2の例の独特の効果を生み出す。勿論、この第2の例
での濃淡情報としては、第1の例で示された濃淡情報と
同様なものが送られるのでその説明は省略する。
【0282】この最適なモデル特徴と画像特徴の対応探
索の結果、特徴対応探索部23で得られたモデル特徴の
近傍の濃淡情報38を画像デ―タから前時刻対応デ―タ
格納部37に格納する。そして、この前時刻対応デ―タ
格納部37に格納された濃淡情報38は、モデル特徴予
測部21において、現時刻では上記濃淡値情報が得られ
たモデル特徴が可視であるかどうかを判定する。
【0283】そして、そのモデル特徴が可視であると判
定されたなら、次の画像特徴抽出部22において、その
モデル特徴の推定領域に画像デ―タから算出して得られ
た複数の画像特徴が上記濃度情報を満足するかどうかを
個々の画像特徴線分に対して調査し、上記濃度情報を満
足する画像特徴だけを選択して特徴対応探索部23でモ
デル特徴と対応探索を実行する。
【0284】この作用によって、モデル特徴と画像特徴
の対応探索を行う際、対応探索する画像特徴に対応の可
能性の高い画像特徴が優先して探索される為、対応探索
処理時間を短縮することができ、また安定した対応探索
を実行することができる。
【0285】時刻t1 においてモデル特徴と画像特徴の
対応探索が終了した後、各モデル特徴mi (i=1,2,3,
…,n) に対応した画像特徴ri の左右近傍の濃淡情報が
前時刻対応デ―タ格納部37に送出され格納される。
【0286】位置姿勢予測部24が次時刻t2 における
対象物の位置姿勢パラメ―タの予測値を算出したとき、
モデル特徴予測部21は時刻t2 における可視モデル特
徴を選択する。モデル特徴予測部21は更に前時刻対応
デ―タ格納部から前時刻で対応のとれたモデル特徴に関
するデ―タと、その左右または上下近傍の濃淡情報を受
け取る。
【0287】そして、モデル特徴mi が時刻t1 で対応
がとれ、時刻t2 で可視であると予測されたときには、
モデル特徴に関するモデルデ―タには、前時刻対応デ―
タ格納部37に格納されていたモデル特徴mi の濃淡情
報が画像特徴抽出部22に転送される。
【0288】画像特徴抽出部22では、こうして濃淡情
報が付加されたモデル特徴に対応する画像特徴を抽出す
る際、この濃淡情報を利用して画像特徴を抽出する。即
ち、線分を画像探索限定領域とハフ空間探索限定領域内
から抽出した後、その抽出された画像線分要素の近傍の
濃淡情報を算出する。そして、その算出された濃淡情報
と前時刻対応デ―タ格納部が送出したモデル特徴の濃淡
情報とを比較する。
【0289】この比較方法は第1の例の場合と同様であ
る。この比較の結果、抽出された画像特徴線分がモデル
特徴に対応し得ないと判定された場合には、この画像特
徴線分をモデル特徴の候補とはせずに除外する。よっ
て、特徴対応探索部23においてモデル特徴と画像特徴
の対応探索を行う前に、上記の方法により優先して探索
する画像特徴線分を決定することができる。
【0290】以上説明したように、第6の実施例の第2
の例によれば、優先して探索する画像特徴線分を決定す
ることができるため、対応する可能性の高い画像線分か
らモデル特徴と探索を開始するため、モデル特徴と画像
特徴の対応探索時間を短縮することができる。また、対
応する可能性の高い画像線分からモデル特徴と探索を開
始する為、対応探索結果の信頼性が向上する。
【0291】次に前の時刻において対応のとれたモデル
線分を優先して探索する第3の例について説明する。第
3の例では、前の時刻で対応がとれたモデル特徴を利用
して現時刻において上記モデル特徴を優先して対応探索
を行うことで、高速に且つ安定に装置を作動させる。
尚、画像処理部4は、図26に示すような構成要素に基
づいて処理を実行する。
【0292】この画像処理部4は、第1の例と同様に対
象物である移動物体の3次元モデルデ―タを格納するモ
デルデ―タ格納部20とモデル特徴が画像内でとり得る
パラメ―タの予測をするモデル特徴予測部21、画像特
徴を抽出する画像特徴抽出部22、モデル特徴と画像特
徴との対応の探索を行う特徴対応探索部23、対象物の
位置姿勢パラメ―タを予測する位置姿勢予測部24、特
徴対応探索部23により得られたモデル特徴と画像特徴
の対応関係が成立してモデル特徴に関して、そのモデル
特徴を格納する前時刻対応デ―タ格納部33とで構成さ
れている。
【0293】図26を参照して、その情報の流れを説明
すると、第1の例と同様にモデル特徴予測部21は、カ
メラコントロール部5からのカメラ姿勢データ10と位
置姿勢予測パラメータ28と、モデルデータ格納部から
の3次元モデルデータ25を利用して、その対象物を規
定する特徴がそのカメラ画像でとり得るパラメータとそ
のパラメータがどのように画像内で制限されるかを予測
する。
【0294】そして、予測されたパラメータであるモデ
ルパラメータ26は次の画像特徴抽出部22では、モデ
ル特徴に対応し得る画像特徴を抽出し、その画像特徴を
規定するパラメータである画像パラメータ27を算出す
る。この2つのパラメータを利用して、特徴対応探索部
23は、所定の評価式を利用しながら、モデル特徴と画
像特徴間の最適な対応を探索すると同時に、その対応関
係から移動物体の位置姿勢を規定する位置姿勢パラメー
タ29を算出する。
【0295】ここまでは、第2の例と同様であるが、モ
デル特徴と画像特徴が対応探索した結果、対応のとれた
モデル特徴のデータ34が一時的に前時刻対応データ格
納部33に格納された後にモデル特徴予測部21に流れ
た後の処理の点で第2の例と異なり、その作用により、
第3の例の独特の効果を生み出す。
【0296】この最適なモデル特徴と画像特徴の対応探
索の結果、特徴対応探索部23で対応が確認されたモデ
ル特徴の情報34を前時刻対応データ格納部33に格納
する。位置姿勢予測部24が算出した次時刻の対象物の
位置姿勢パラメータの予測値を利用して、モデル特徴予
測部21は次時刻で可視と予測されるモデル特徴を選択
する。続いて、モデル特徴予測部21は、前時刻対応デ
ータ格納部33が格納していたモデル特徴データ34と
この可視と予想されるモデル特徴を比較し、モデル特徴
を2グループに分類する。
【0297】いま、前時刻対応データ格納部33が格納
しているモデル特徴の集合をAで表し、モデル特徴予測
部21が次時刻で可視と予測したモデル特徴の集合をB
で表す。このとき第1のモデル特徴のグループを、集合
Aと集合Bの共通部分を、
【数34】 で示し、この第2のモデル特徴のグループを集合Bから
集合Aを差し引いたモデル特徴の集合D=B−Aで表
す。この後、集合Cと集合D内のモデル特徴を実施例4
で説明した方法で各々優先順位を付ける。そして、順序
付けられた集合をCの方を優先順位が高くなるように集
合CとDを結合する。
【0298】こうして結合されたモデル集合の順序集合
Eを画像特徴抽出部22と特徴対応探索部23に送出す
る。そして、特徴対応探索部23では、第4の実施例で
示された方法と同様の方法でモデル特徴と画像特徴の最
適な対応が探索される。これにより、前時刻で対応でき
たモデル特徴が次時刻でも優先的に扱われるようにな
る。
【0299】以上説明したように、第6の実施例の第3
の例によれば、モデル特徴と画像特徴の対応探索を行う
場合、対応探索する画像特徴に対応の可能性の高いモデ
ル特徴が優先して探索されるため、対応探索処理時間を
短縮することができ、また安定した対応探索を実行する
ことができる。
【0300】次に対象物の移動速度に応じて抽出すべき
モデル特徴の数を制御する第4の例について説明する。
第4の例は、モデル特徴予測部21が、対象物の位置姿
勢推定値から算出される移動速度に応じて次の時刻で選
択する抽出すべきモデル特徴の数を制御することを特徴
とする。
【0301】第4の例により対象物の移動速度に応じて
高速に本装置を作動させる画像処理部4は、図27に示
すような構成要素に基づいて実行される。この画像処理
部4は第1実施例と同様に対象物である移動物体の3次
元モデルデータを格納するモデルデータ格納部20とモ
デル特徴が画像内でとり得るパラメータの予測をするモ
デル特徴予測部21、画像特徴を抽出する画像特徴抽出
部22と、モデル特徴と画像特徴との対応の探索を行う
特徴対応探索部23、対象物の位置姿勢パラメータを予
測する位置姿勢予測部24とで構成されている。
【0302】図27を参照しながら図中の情報の流れを
説明すると、第1実施例と同様にモデル特徴予測部21
は、カメラコントロール部5からのカメラ姿勢データ1
0と位置姿勢予測パラメータ28と、モデルデータ格納
部20からの3次元モデルデータ25を利用して、その
対象物を規定する特徴がそのカメラ画像でとり得るパラ
メータと、そのパラメータがどのように画像内で制限さ
れるかを予測する。
【0303】こうして予測されたパラメータであるモデ
ルパラメータ26は、次の画像特徴抽出部22では、モ
デル特徴に対応し得る画像特徴を抽出し、その画像特徴
を規定するパラメータである画像パラメータ27を算出
する。この2つのパラメータを利用して、特徴対応探索
部23は所定の評価式を利用しながら、モデル特徴と画
像特徴間の最適な対応を探索すると同時に、その対応関
係から移動物体の位置姿勢を規定する位置姿勢パラメー
タ29を算出する。
【0304】ここまでは第1の実施例と同様であるが、
第4の例では、位置姿勢パラメータ29は位置姿勢予測
部24にて、対象物の次の時刻の位置姿勢予測パラメー
タを算出すると同時に、前の時刻の対象物の位置姿勢パ
ラメータと新しく更新された現時刻の対象物の位置姿勢
パラメータを利用して対象物の速度を予測する。この速
度情報をモデル特徴予測部21に送って、モデル特徴予
測部21が対象物の移動速度に応じて次の時刻で選択す
る抽出すべきモデル特徴の数を制御する。ここで、位置
姿勢予測部24にてどのように対象物の速度情報を予測
するかを説明すると共に、可視のモデル特徴線分に優先
順位を付けて、どのモデル特徴線分を抽出するべきかを
決定する方法を説明する。
【0305】先ず位置姿勢予測部24は対象物の位置姿
勢パラメータの予測値と同時に対象物の速度も決定す
る。例えば、時刻tn と時刻tn-1 における対象物の位
置姿勢パラメータの予測期待値pm (tn )とpm (t
n-1 )との差分をとることにより、対象物の位置姿勢速
度vを算出することができる。
【0306】v=(pm (tn )−pm (tn-1 ))/
(tn −tn-1 ) 続いて、位置姿勢予測部24は、カメラコントロール部
5のカメラ姿勢データを利用してカメラの移動に要する
時間を予測する。この速度により、時刻t=tn+1 にお
けるp(tn+1 )が予測されたとき、その時刻tn+1
おいて対象物の重心がカメラ画像の中心になるような位
置にカメラを移動させるとするとき、該位置までカメラ
を移動するまでに要する時間をsとすると、対象物の処
理をすることができる時間はtn −tn-1 −sで示すこ
とができる。これら対象物の速度の予測値vとカメラの
移動に要する時間の予測値sがモデル特徴予測部21に
搬出される。モデル特徴予測部21は、これらの対象物
の速度予測値vとカメラの移動に要する時間の予測値s
を受け取り、次の位置姿勢パラメータの更新に最大何個
のモデル特徴が利用できるかを推定する。具体的には1
個のモデル特徴を処理するのに要する時間が平均的にあ
るいは最長uであるとすると、モデル特徴として処理で
きる数の総数は、M0 =(tn −tn-1 −s)/uで表
現できるので、この数M0 によりモデル特徴数の限定を
する。
【0307】一方、モデル特徴予測部21では、可視と
予測されるモデル特徴を全て選択し、それを第4の実施
例で示された方法により優先順位を付けて可視モデル特
徴を整列させる。そして、上記整列された可視モデル特
徴から最大M0 個のモデル特徴を優先順位の高いものか
ら選択するのである。
【0308】このようにして選択された可視モデル特徴
に関するモデルパラメータは、画像特徴抽出部22と特
徴探索対応部23に送出され、画像特徴抽出部22では
第4の実施例と同様の方法で画像特徴が抽出され、特徴
対応探索部23でも第4の実施例と同様の方法でモデル
特徴及び画像特徴の最適な対応が探索される。
【0309】以上説明したように、第6の実施例の第4
の例によれば、対象物が高速で移動するときには、少数
のモデル特徴を選択することで対象物がカメラで追跡で
きるようにし、対象物の追跡を安定化させることができ
る。また、対象物が低速で移動するときには、多数のモ
デル特徴を選択することで対象物の位置姿勢パラメター
の推定精度を向上することができる。
【0310】尚、本発明によれば、以下のような実施態
様を得ることができる。
【0311】(1)対象物を撮影するカメラを有し映像
信号を生成する画像入力部と、映像信号をディジタル画
像に変換するディジタル変換部と、ディジタル画像を記
憶する画像格納部と、ディジタル画像を処理する画像処
理部と、画像入力部の移動を制御するカメラコントロー
ル部を設けた移動物体追跡装置において、上記画像処理
部は、上記対象物の形状モデルをモデル特徴の形で記憶
するモデルデータ格納手段と、上記対象物の位置姿勢を
規定する位置姿勢パラメータの時刻tn における値p
(tn )を、時刻tn 以前の時刻tn-m (m=1,2,3 …n;
n は整数)において推定された位置姿勢パラメータ値p
(tn-m )を利用して予測する位置姿勢予測手段と、上
記時刻tn における位置姿勢パラメータの予測値とカメ
ラコントロール部が生成する時刻tn におけるカメラの
位置姿勢パラメータを利用して、対象物を規定するモデ
ル特徴のうち、撮影される画像で可視と予測される少な
くとも一部のモデル特徴を選択し、そのモデル特徴が画
像内でとり得るモデルパラメータの予測値を算出するモ
デル特徴予測手段と、上記モデルパラメータの予測値に
基いてモデル特徴に対応可能な画像特徴の候補を画像入
力部により撮影された画像内から抽出し、その画像特徴
の画像パラメータを算出する画像特徴抽出手段と、上記
モデル特徴と画像特徴との間の対応を探索し、対応のと
れたモデル特徴のモデルパラメータと画像特徴の画像パ
ラメータ間の関係を利用して対象物の位置姿勢パラメー
タの予測値を更新する特徴対応探索手段と、を有し、上
記の処理を各時刻で繰り返しながら対象物の追跡を行う
ことを特徴とする移動物体追跡装置。
【0312】(2)上記(1)に記載の移動物体追跡装
置において、少なくともある一定時間カメラを移動させ
る必要のないときには、画像特徴抽出手段において、画
像入力部から上記対象物が撮影された時間的に異なる少
なくとも2枚の画像を画像格納部に入力し、その少なく
とも2枚の画像データから差分画像を生成し、その差異
が現れた部分の輪郭や領域などを画像特徴の抽出に利用
することを特徴とする移動物体追跡装置。
【0313】このような構成にて、画像特徴抽出手段に
おいて、カメラの移動のない時間において撮影された少
なくとも2枚の画像デ―タから差分画像を生成し、その
差異が現れた部分の輪郭や領域などを画像特徴の抽出に
利用する。即ち、差分画像で差異が現れた部分の輪郭や
領域から生成される画像特徴のうち、モデル特徴と対応
するものを優先的に選択でき、且つその抽出に関する外
乱を減少させることで画像特徴を抽出する処理時間を短
縮する。
【0314】従って、モデル特徴に対応する可能性のあ
る画像特徴を差分画像内から抽出することにより、上記
(1)に記載の移動物体追跡装置の安定に移動物体を追
跡する効果を更に増加させることができ、また、予め設
定された画像内のモデル特徴が存在し得る推定値の誤差
情報を減少させることにより、本移動物体追跡装置の処
理部にある画像特徴抽出部の計算量が減少し、(1)に
記載の移動物体追跡装置の安定に移動移動物体を追跡す
る効果に加えて高速に移動物体を追跡することができ
る。
【0315】(3)上記(1)または(2)のいずれか
一方に記載の移動物体追跡装置において、モデルパラメ
―タの算出値に基づいて画像内からモデル特徴に対応可
能な画像特徴の候補を抽出し、その画像特徴の画像パラ
メ―タを算出する画像特徴抽出手段において、画像特徴
の近傍の濃淡値の情報を利用して、時刻t以前にモデル
特徴と対応のとれた画像特徴の左右または上下近傍の濃
淡値の情報と時刻tにおける同一モデル特徴に対応する
可能性のある画像特徴の左右または上下近傍の濃淡値の
情報を算出し、上記(1)に記載の特徴対応探索手段に
おいて、モデル特徴と画像特徴と間の対応を探索する
際、上記濃淡値情報を利用する特徴対応探索手段を有す
ることを特徴とする移動物体追跡装置。
【0316】このような構成にて、以前にモデル特徴と
対応のとれた画像特徴の左右近傍の濃淡値情報を利用し
て、特徴対応探索手段でモデル特徴と画像特徴との対応
を探索する時に、上記濃淡値情報を探索処理の過程に加
え、そのモデル特徴と画像特徴が対応しているかを検証
する。もし、その対応に関して濃淡値情報に基づく対応
がとれない画像特徴については対応不可とする。この対
応探索に濃淡値情報を付加することにより、モデル特徴
と画像特徴の対応探索結果の検証を行う。
【0317】従って、モデル特徴と画像特徴の対応探索
結果の検証を行うことができるので対応探索処理の安定
化を図ることができる。
【0318】(4)上記(3)に記載の移動物体追跡装
置において、上記モデル特徴と画像特徴の対応がとれた
モデル特徴の濃淡値の情報を利用して、次の時刻の対象
物がモデル特徴予測手段において上記モデル線分が可視
と判明された場合、画像特徴抽出手段において上記モデ
ル線分の濃淡値情報を前時刻特徴デ―タ格納手段に格納
し、その情報をモデル特徴予測手段において利用するこ
とを特徴とする移動物体追跡装置。
【0319】このような構成にて、特徴対応探索手段が
上記モデル特徴と画像特徴の対応がとれたモデル特徴の
濃淡値の情報を利用して、次の時刻の対象物がモデル特
徴予測手段において上記モデル線分が可視と判明された
場合、画像特徴抽出手段において上記モデル線分の濃淡
値情報と対応のある画像特徴線分を優先して上記画像特
徴線分を探索する。
【0320】従って、画像特徴抽出手段においてモデル
特徴線分と対応する可能性の高い、画像特徴線分を優先
してモデル特徴線分との対応探索を実行するため、特徴
対応探索手段において対応探索のための処理時間を短縮
することができる。また、対応の可能性の高い画像特徴
線分との対応を優先させて対応探索するため、その対応
探索結果の信頼性が向上する。これらの作用により、高
速に且つ安定に対象物を追跡することを可能にする。
【0321】(5)上記(3)に記載の移動物体追跡装
置において、モデル特徴の近傍の濃淡値を利用する際、
濃淡情報としては濃淡値の平均値と分散値を利用するこ
とを特徴とする移動物体追跡装置。
【0322】このような構成にて、以前にモデル特徴と
対応のとれた画像特徴の左右または上下近傍の濃淡値の
平均と分散値を利用して、特徴対応探索手段でモデル特
徴と画像特徴との対応を探索する時に、上記濃淡値の平
均値と分散値を検索過程に加え、そのモデル特徴と画像
特徴が対応しているかを検証する。もし、その対応に関
して濃淡値の平均値と分散値に基づくと対応がとれない
画像特徴については対応不可とする。この対応探索に濃
淡値の平均値と分散値を付加することにより、画像特徴
候補の数を減少させることができる。
【0323】従って、上記(3)に記載の移動物体追跡
装置の濃淡値情報に対して濃淡値の平均値と分散値を利
用しているため、画像特徴の近傍の画像にテクスチャ―
など模様が含まれている場合にも処理の安定化を図るこ
とができる。
【0324】(6)上記(3)に記載の移動物体追跡装
置において、モデル特徴の近傍の濃淡値を利用する際、
濃淡情報としては、対象物の面を含む近傍の濃淡情報だ
けを利用することを特徴とする移動物体追跡装置。
【0325】このような構成にて、上記(3)に記載の
移動物体追跡装置の変更例として、さらに高速化を目的
とした構成を説明すると、以前にモデル特徴と対応のと
れた画像特徴の面を含む近傍の濃淡値の情報を利用し
て、特徴対応探索手段でモデル特徴と画像特徴との対応
を探索するので、本クレ―ムの作用は、濃淡値情報に対
して画像特徴の面を含む近傍の濃淡値情報のみを利用し
ているので、背景などと境界に存在する画像特徴に関し
て、背景の濃淡値情報を利用することが必要となくな
る。この作用により、画像特徴候補の数を減少させ、無
駄な濃淡値情報を排除することができる。
【0326】従って、上記(3)に記載の移動物体追跡
装置の濃淡値情報に対して画像特徴の面を含む近傍の濃
淡値情報のみを利用しているので、背景などと境界に存
在する画像特徴に関して、背景の濃淡値情報を利用する
ことが必要となくなるので、更にモデル特徴と画像特徴
の対応を検索処理が安定に且つ高速に処理することがで
きる。
【0327】(7)上記(3)に記載の移動物体追跡装
置において、濃淡情報として、対象物の色情報を利用す
ることを特徴とする移動物体追跡装置。
【0328】このような構成にて、上記(3)に記載の
移動物体追跡装置の特殊例として、カラ―画像などを画
像処理する場合、基本的構成と作用は同様であるが、濃
淡値情報に対して、カラ―情報値を利用することによ
り、画像特徴候補の数を減少させることができる。
【0329】従って、上記(3)に記載の移動物体追跡
装置と同様の効果がある。
【0330】(8)上記(1)乃至(7)のいずれか一
方に記載の移動物体追跡装置において、モデル特徴と画
像特徴と間の対応を探索しそのモデル特徴のモデルパラ
メ―タと対応できた画像特徴の画像パラメ―タの間の関
係を利用して対象物の位置姿勢パラメ―タを更新する特
徴対応探索手段において、ある時刻ti-1 でマッチング
に成功したモデルパラメ―タが、次の時刻ti で可視で
あると予想されるならば、そのモデル特徴を先行して対
応する画像パラメ―タの抽出と対応関係の探索を行うこ
とを特徴とする移動物体追跡装置。
【0331】このような構成にて、特徴対応探索手段に
おいて、ある時刻ti-1 でマッチングに成功したモデル
パラメ―タが、次の時刻ti で可視であると予想される
ならば、そのモデル特徴を先行して対応する画像パラメ
―タの抽出と対応関係の探索を行うことにより、以前の
対応探索の際、その対応が正解であったモデルパラメ―
タと画像パラメ―タの対応は正解率が他のモデルパラメ
―タの検索より高い、これにより正解率の高いモデルパ
ラメ―タから検索を順次行っていくことが可能になり、
ある一定以上のモデルバラメ―タと画像パラメ―タの正
解の対応が検索されたならば検索処理を終了する場合な
ど、検索処理時間を上記の作用により短縮することがで
きる。
【0332】従って、上記の作用により、特徴対応探索
手段の対応の検索処理時間を短縮することができる上、
正解率の高いモデルパラメ―タと画像パラメ―タを優先
的に検索しているため、対応の信頼性が高くなる。この
ため移動対象物のトラッキングを行う際、高速にかつ安
定に追跡することを可能にする。
【0333】(9)上記(1)〜(8)のいずれか一つ
に記載の移動物体追跡装置において、モデル特徴と画像
特徴と間の対応を探索しそのモデル特徴のモデルパラメ
―タと対応できた画像特徴の画像パラメ―タの間の関係
を利用して対象物の位置姿勢パラメ―タを更新する特徴
対応探索手段において、可視と予測されるモデル特徴を
複数のグル―プに分類し、分類されたモデル特徴に優先
順位を付けて、その順位に基づいてモデル特徴に対応す
る画像特徴を抽出することを特徴とする移動物体追跡装
置。
【0334】このような構成にて、特徴対応探索手段に
おいて、可視と予測されるモデル特徴を複数のグル―プ
に分類する。このグル―プの分類方法は、例えば周辺に
類似したモデル特徴がない場合は、一つグル―プとし、
またそのモデル特徴があるユニ―クな特徴を保有してる
場合はその特徴を登録し、一つのグル―プとし、また周
辺に類似したモデル特徴が複数存在する場合などはまと
めて一つのグル―プとする。この分類されたモデル特徴
に優先順位を付ける。例えばグル―プのモデル特徴の数
が少ないグル―プから順番に処理を実行するといったよ
うにする。その順位に基づいてモデル特徴に対応する画
像特徴を抽出するので、ユニ―クな特徴を保有するモデ
ル特徴などは画像と対応する可能性が他のモデル特徴よ
り高い。これにより正解率の高いモデルパラメ―タから
検索を順次行っていくことが可能になり、ある一定以上
のモデルパラメ―タと画像パラメ―タの正解の対応が検
索されたなら検索処理を終了する場合など、検索処理時
間を上記の作用により短縮することができる。
【0335】従って、上記の作用により、特徴対応探索
手段の対応の検索処理時間を短縮することができる上、
正解率の高いモデルパラメ―タと画像パラメ―タを優先
的に検索しているため、対応の信頼性が高くなる。この
ため移動対象物のトラッキングを行う際、高速なかつ安
定に追跡することを可能にする。
【0336】(10)上記(1)乃至(9)のいずれか
一つに記載の移動物体追跡方法において、その対象物の
位置姿勢を規定する位置姿勢パラメ―タの時刻tにおけ
る値p(t) の推定値とその推定値の誤差情報を過去の時
刻t-m (m=1,2,3 …n;n は整数)における値p(t-m) の
推定値あるいはその推定値と誤差情報を利用して予測す
る位置姿勢予測手段において、上記位置姿勢予測手段が
対象物の位置姿勢パラメ―タを予測した結果を利用し
て、カメラコントロ―ラがカメラから対象物までの距離
を算出し、その算出値に基づいて、カメラフォ―カス値
を制御することを特徴とする移動物体追跡装置。
【0337】このような構成にて、位置姿勢予測手段が
対象物の位置姿勢パラメ―タを予測した結果を利用し
て、カメラコントロ―ラがカメラから対象物までの距離
を算出し、その算出値に基づいて、カメラフォ―カス値
を制御するため、カメラと移動物体までの距離が推測で
きる。つまり、対象物の位置姿勢パラメ―タの予測値を
位置姿勢予測手段が算出した後、その算出値に基づいて
カメラコントロ―ラがカメラのフォ―カス位置を変更す
る。このカラメラのフォ―カス位置の変更により、ぼけ
の少ない画像を撮影することができる。
【0338】従って、対象物の位置姿勢に応じて、ぼけ
の少ない画像を撮影することができるので、ぼけによる
画像特徴の抽出の困難さを解消することができ、安定し
た移動物体の追跡をすることができる。
【0339】(11)上記(1)乃至(10)のいずれ
か一つに記載の移動物体追跡方法において、その対象物
の位置姿勢を規定する位置姿勢パラメ―タの時刻tにお
ける値p(t) の推定値とその推定値の誤差情報を過去の
時刻t-m(m=1,2,3 …n; nは整数) における値p(t-m) の
推定値あるいはその推定値と誤差情報を利用して予測す
る位置姿勢予測手段において、位置姿勢予測手段が予測
した対象物の位置姿勢パラメ―タを用いて、カメラコン
トロ―ル部がカメラを移動するか、あるいはズ―ムフォ
―カスをかけることにより、対象物の画像内の大きさを
制御することを特徴とする移動物体追跡装置。
【0340】このような構成にて、位置姿勢予測手段が
次時刻での対象物の位置姿勢パラメ―タを予測したと
き、カメラから移動物体までの距離を算出し、その距離
と対象物の画像内との関係を考えて、移動物体がカメラ
視野内でほぼ同一となるように、カメラを移動させる
か、ズ―ムフォ―カスを調節する。上記構成により、対
象物の奥行きの動きにより対象物が画像に対してはみ出
したり、また小さくなり対象物が認知できなくなるよう
なことを事前に回避する。
【0341】従って、対象物の画像内での大きさをおお
むね一定に保つことができるので、画像内のモデル特徴
を抽出することが容易になり、認識の安定化を図ること
ができる。
【0342】(12)上記(1)乃至(11)のいずれ
か一つに記載の移動物体追跡装置において、その対象物
の位置姿勢を規定する位置姿勢パラメ―タの時刻tにお
ける値p(t) の推定値とその推定値の誤差情報を過去の
時刻t-m(m=1,2,3,…,n;nは整数) における値p(t-m) の
推定値あるいはその推定値と誤差情報を利用して予測す
る位置姿勢予測手段において、対象物が複数個の剛体を
結合した形でモデル化できるときには、その剛体間の結
合を規定する結合パラメ―タを付加し、対象物の位置姿
勢パラメ―タと上記の結合パラメ―タを同時に推定する
ことを特徴とする移動物体追跡装置。
【0343】このような構成にて、対象物が複数個の剛
体を結合した形でモデル化できるときには、その剛体間
の結合を規定する結合パラメ―タを付加しているため、
この新しいパラメ―タにおいて上記(1)に記載の構成
に結合パラメ―タが付加された構成になり、上記(1)
に記載の装置と同様な作用がある。この結合パラメ―タ
が付加されたことにより、さらに複雑な動き構造をして
いる物体を動的追跡する際にも容易に動的追跡を実現で
きる。
【0344】従って、各パ―ツごとに位置姿勢パラメ―
タを追跡する必要がなくなり、処理の高速化を図ること
ができる。また、剛体パ―ツ間の制約関係がパラメ―タ
推定中いつも満たされているので、安定した位置姿勢推
定が可能となり、移動物体追跡を安定化させることがで
きる。
【0345】(13)上記(1)乃至(12)のいずれ
か一つに記載の移動物体追跡装置において、位置姿勢パ
ラメ―タの予測された位置姿勢パラメ―タ推定値とカメ
ラコントロ―ル部が生成するカメラの位置姿勢パラメ―
タを利用して、対象物を規定するモデル特徴のうち、撮
影される画像内で可視と予測される少なくとも一部のモ
デル特徴を選択し、そのモデル特徴が画像内でとり得る
モデルパラメ―タの予測値を算出するモデル特徴予測手
段において、対象物の位置姿勢推定値から算出される移
動速度に応じて、次の時刻で選択する抽出すべきモデル
特徴の数を制御することを特徴とする移動物体追跡装
置。
【0346】このような構成にて、対象物の位置姿勢推
定値から算出される移動速度に応じて、次の時刻で選択
する抽出すべきモデル特徴の数を制御する。この構成に
より、移動物体が高速に移動している場合、その抽出す
べきモデル特徴の数を減少させることにより、抽出すべ
き画像特徴の数を減少させ、最適な対応を探索する処理
時間を減少させる。この作用により、対象物が高速に移
動しても、少数のモデル特徴を選択することにより、処
理時間を最小限にすることができる。
【0347】従って、対象物が高速で移動するときに
は、少数のモデル特徴を選択することで対象物がカメラ
で追跡できるようにし、対象物の追跡を安定化させるこ
とができる。また対象物が低速で移動するときには、多
数のモデル特徴を選択することで対象物の位置姿勢パラ
メ―タの推定精度を向上することができる。
【0348】尚、本発明は上記実施態様に限定されるこ
となく、その主旨を逸脱しない範囲で種々の改良・変更
が可能であることは勿論である。
【0349】
【発明の効果】本発明によれば、モデル特徴が抽出すべ
き画像とある程度離れていて、更に背景が複雑で対象物
と非常に類似している場合においても、迅速且つ適確に
対象物のトラッキングすることが可能な移動物体追跡装
置を提供することができる。
【図面の簡単な説明】
【図1】第1実施例に係る移動物体追跡装置の構成を示
す図である。
【図2】第1実施例の画像処理部の構成要素を示すブロ
ック図である。
【図3】x,y,z軸の座標図である。
【図4】直方体を表現する稜線、頂点の構成図である。
【図5】第1実施例で使用するカメラコントロール部と
画像入力部の模式図である。
【図6】第1実施例の対象物のモデル特徴線分を示す図
である。
【図7】画像探索限定領域を構築するための構築方法図
である。
【図8】ハフパラメータ変換を説明する図である。
【図9】ハフ空間探索限定領域を示す2次元座標図であ
る。
【図10】手続き対応探索のシーケンスを示すフローチ
ャートである。
【図11】手続きmatchのシーケンスを示すフロー
チャートである。
【図12】部分解Sの適正チェックのシーケンスを示す
フローチャートである。
【図13】モデル特徴Sの選択と画像特徴候補集合Rs
の作成のシーケンスを示すフローチャートである。
【図14】第2実施例に係る移動物体追跡装置の構成を
示す図である。
【図15】第2実施例の画像処理部の構成要素のブロッ
ク図である。
【図16】2枚の画像から差分画像を生成する方法を示
す図である。
【図17】第3実施例における3つの剛体パラメータの
結合の様子を示す図である。
【図18】3つの剛体のうちの一つの頂点の座標を示す
図である。
【図19】第4実施例の対象物のモデル特徴線分を示す
図である。
【図20】特徴対応探索手段における手続きを示すフロ
ーチャートである。
【図21】第5実施例の画像処理部の構成要素のブロッ
ク図である。
【図22】対象物を包み込む最小円の生成方法を示す図
である。
【図23】第6実施例の第1の例の画像処理部の構成要
素のブロック図である。
【図24】第6実施例の第1の例における濃淡情報利用
方法を示す図である。
【図25】第6実施例の第2の例の画像処理部の構成要
素のブロック図である。
【図26】第6実施例の第3の例の画像処理部の構成要
素のブロック図である。
【図27】第6実施例の第4の例の画像処理部の構成要
素のブロック図である。
【符号の説明】
1…画像入力部、2…ディジタル変換器、3…画像格納
部、4…画像処理部、5…カメラコントロール部、6…
映像信号、7…ディジタル画像信号、8…画像データ、
9…移動物体データ、10…カメラ姿勢データ。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/18 G

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 対象物を撮影するカメラを有し映像信号
    を生成する画像入力部と、映像信号をディジタル画像に
    変換するディジタル変換部と、ディジタル画像を記憶す
    る画像格納部と、ディジタル画像を処理する画像処理部
    と、画像入力部の移動を制御するカメラコントロール部
    を設けた移動物体追跡装置において、 上記画像処理部は、 上記対象物の形状モデルをモデル特徴の形で記憶するモ
    デルデータ格納手段と、 上記対象物の位置姿勢を規定する位置姿勢パラメータの
    時刻tn における値p(tn )を、時刻tn 以前の時刻
    n-m (m=1,2,3,…,n;nは整数)において推定された位
    置姿勢パラメータ値p(tn-m )を利用して予測する位
    置姿勢予測手段と、 上記時刻tn における位置姿勢パラメータの予測値とカ
    メラコントロール部が生成する時刻tn におけるカメラ
    の位置姿勢パラメータを利用して、対象物を規定するモ
    デル特徴のうち、撮影される画像で可視と予測される少
    なくとも一部のモデル特徴を選択し、そのモデル特徴が
    画像内でとり得るモデルパラメータの予測値を算出する
    モデル特徴予測手段と、 上記モデルパラメータの予測値に基いてモデル特徴に対
    応可能な画像特徴の候補を画像入力部により撮影された
    画像内から抽出し、その画像特徴の画像パラメータを算
    出する画像特徴抽出手段と、 上記モデル特徴と画像特徴との間の対応を探索し、対応
    のとれたモデル特徴のモデルパラメータと画像特徴の画
    像パラメータ間の関係を利用して対象物の位置姿勢パラ
    メータの予測値を更新する特徴対応探索手段と、を有
    し、上記の処理を各時刻で繰り返しながら対象物の追跡
    を行うことを特徴とする移動物体追跡装置。
JP05543494A 1994-03-25 1994-03-25 移動物体追跡装置 Expired - Fee Related JP3610087B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05543494A JP3610087B2 (ja) 1994-03-25 1994-03-25 移動物体追跡装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05543494A JP3610087B2 (ja) 1994-03-25 1994-03-25 移動物体追跡装置

Publications (2)

Publication Number Publication Date
JPH07264458A true JPH07264458A (ja) 1995-10-13
JP3610087B2 JP3610087B2 (ja) 2005-01-12

Family

ID=12998493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05543494A Expired - Fee Related JP3610087B2 (ja) 1994-03-25 1994-03-25 移動物体追跡装置

Country Status (1)

Country Link
JP (1) JP3610087B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005063041A (ja) * 2003-08-08 2005-03-10 Olympus Corp 3次元モデリング装置、方法、及びプログラム
JP2005141655A (ja) * 2003-11-10 2005-06-02 Olympus Corp 3次元モデリング装置及び3次元モデリング方法
WO2006093250A1 (ja) * 2005-03-04 2006-09-08 National University Corporation NARA Institute of Science and Technology 動き計測装置、動き計測システム、車載機器、動き計測方法、動き計測プログラム、およびコンピュータ読み取り可能な記録媒体
JP2008304269A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2012037391A (ja) * 2010-08-06 2012-02-23 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2013217936A (ja) * 2006-06-01 2013-10-24 Ana Tec As 物体を解析するための方法及び装置
JP2017092616A (ja) * 2015-11-05 2017-05-25 キヤノン株式会社 像ブレ補正装置及び方法
CN113261277A (zh) * 2018-10-31 2021-08-13 神经口袋公司 信息处理系统、信息处理装置、服务器装置、程序或者方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005063041A (ja) * 2003-08-08 2005-03-10 Olympus Corp 3次元モデリング装置、方法、及びプログラム
JP2005141655A (ja) * 2003-11-10 2005-06-02 Olympus Corp 3次元モデリング装置及び3次元モデリング方法
WO2006093250A1 (ja) * 2005-03-04 2006-09-08 National University Corporation NARA Institute of Science and Technology 動き計測装置、動き計測システム、車載機器、動き計測方法、動き計測プログラム、およびコンピュータ読み取り可能な記録媒体
JP4852764B2 (ja) * 2005-03-04 2012-01-11 国立大学法人 奈良先端科学技術大学院大学 動き計測装置、動き計測システム、車載機器、動き計測方法、動き計測プログラム、およびコンピュータ読み取り可能な記録媒体
US8213677B2 (en) 2005-03-04 2012-07-03 National University Corporation NARA Institute of Science and Technology Motion measuring device, motion measuring system, in-vehicle device, motion measuring method, motion measurement program, and computer-readable storage medium
JP2013217936A (ja) * 2006-06-01 2013-10-24 Ana Tec As 物体を解析するための方法及び装置
JP2008304269A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2012037391A (ja) * 2010-08-06 2012-02-23 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2017092616A (ja) * 2015-11-05 2017-05-25 キヤノン株式会社 像ブレ補正装置及び方法
CN113261277A (zh) * 2018-10-31 2021-08-13 神经口袋公司 信息处理系统、信息处理装置、服务器装置、程序或者方法
CN113261277B (zh) * 2018-10-31 2023-10-31 神经口袋公司 确定与图像内的位置对应的图形内的位置的方法和系统

Also Published As

Publication number Publication date
JP3610087B2 (ja) 2005-01-12

Similar Documents

Publication Publication Date Title
JP6854780B2 (ja) 三次元空間のモデリング
US5845048A (en) Applicable recognition system for estimating object conditions
Whaite et al. From uncertainty to visual exploration
JP4162095B2 (ja) 遮蔽された部分の表面を対称性の算出により見込み復元するための技術
JP5430456B2 (ja) 幾何特徴抽出装置、幾何特徴抽出方法、及びプログラム、三次元計測装置、物体認識装置
Lei et al. A CNN-based 3D patch registration approach for integrating sequential models in support of progress monitoring
EP1434169A2 (en) Calibration apparatus, calibration method, program for calibration, and calibration jig
Triggs et al. Automatic camera placement for robot vision tasks
JPWO2005043466A1 (ja) 物体の状態を推定する推定システム、推定方法および推定プログラム
JP2019114103A (ja) 物体認識処理装置、物体認識処理方法及びプログラム
JP2006252275A (ja) カメラ運動及び物体形状の復元システム
CN114219855A (zh) 点云法向量的估计方法、装置、计算机设备和存储介质
CN114387513A (zh) 机器人抓取方法、装置、电子设备及存储介质
US5864779A (en) Strict recognizing apparatus using observation point
JPH07264458A (ja) 移動物体追跡装置
CN115222884A (zh) 一种基于人工智能的空间对象分析及建模优化方法
CN115082498A (zh) 一种机器人抓取位姿估计方法、装置、设备及存储介质
CN116263622A (zh) 手势识别方法、装置、电子设备、介质及程序产品
JPH07103715A (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
US8005261B2 (en) Model-based object classification and target recognition
CN116921932A (zh) 焊接轨迹识别方法、装置、设备及存储介质
Zhao et al. A 3D image processing method for manufacturing process automation
JP3300092B2 (ja) 画像特徴抽出装置
Pajares et al. On combining support vector machines and simulated annealing in stereovision matching
JP2008008797A (ja) カメラ挙動推定装置及びカメラ挙動推定プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041018

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071022

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081022

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091022

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101022

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees