JP2002109539A - 画像撮影手段の位置姿勢検出装置、3次元物体認識装置および地図特徴データ作成方法 - Google Patents

画像撮影手段の位置姿勢検出装置、3次元物体認識装置および地図特徴データ作成方法

Info

Publication number
JP2002109539A
JP2002109539A JP2001193437A JP2001193437A JP2002109539A JP 2002109539 A JP2002109539 A JP 2002109539A JP 2001193437 A JP2001193437 A JP 2001193437A JP 2001193437 A JP2001193437 A JP 2001193437A JP 2002109539 A JP2002109539 A JP 2002109539A
Authority
JP
Japan
Prior art keywords
image
feature
feature data
map
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001193437A
Other languages
English (en)
Inventor
Takashi Torio
隆 鳥生
Toshio Endo
利生 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2001193437A priority Critical patent/JP2002109539A/ja
Publication of JP2002109539A publication Critical patent/JP2002109539A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

(57)【要約】 【課題】 3次元空間中の特徴点と入力した画像上の特
徴点の対応関係が未知の場合でも、高い信頼度で画像撮
影手段の位置姿勢を特定し、入力した画像中の物体が、
予め登録された物体のどれであるかを高い信頼度で特定
することを目的とする。 【解決手段】 地図特徴格納手段と、画像入力手段と、
画像特徴抽出手段と、画像特徴選択手段と、地図特徴選
択手段と、選択した画像特徴と地図特徴とから画像撮影
手段の位置姿勢の候補を算出する位置姿勢候補算出手段
と、算出した位置姿勢候補の妥当性を検証し、画像撮影
手段の位置姿勢を特定する妥当性検証手段とを有する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、あらかじめ作成し
保持してある被写体の特徴の3次元情報を含んだ辞書、
すなわち地図と、カメラ等の画像撮影手段で撮影した画
像の特徴とを照らし合わせることで、画像撮影手段がど
の位置からどの方向を映しているかを特定する、画像撮
影手段の位置姿勢検出装置に関する。また、同様の技術
思想に基づいて、3次元空間の物体を被写体とし、特徴
を物体ごとに地図に格納し、保持してある物体の特徴と
画像撮影手段で撮影した画像の特徴とを照らし合わせる
ことで、撮影した画像は、保持してあるどの物体をどの
方向から撮影したものかを特定する、3次元物体認識装
置に関する。
【0002】
【従来の技術】撮影画像を元にカメラの位置姿勢を検出
する従来例1として、特公平6-80402に開示されている
位置計測装置がある。上記位置計測装置においては、撮
影した画像上の3点以上の点が、予め3次元位置が知ら
れ、地図に登録されている点の、どの点に対応している
かという情報から位置を算出する。この方法の原理を図
13に示す。
【0003】同図においては、P1(X1, Y1, Z1)、P2
(X2, Y2, Z2)、P3(X3, Y3, Z3)はそれぞれ、あらかじ
め位置が地図に登録されている3次元空間の点であるも
のとする。点C(X, Y, Z) はカメラのレンズ中心であ
り、この位置は未知である。P1,P2,P3がフィル
ム面上に映し出された点をQ1(x1, y1)、Q2(x2,y
2)、Q3(x3, y3)とし、∠Q1CQ2=θ3、∠Q2C
Q3=θ1、∠Q3CQ1=θ2とおく。θ1、θ2、
θ3は撮影画像から容易に求まる。
【0004】円周角定理(例えば新数学辞典、大阪書
籍)より、位置が未知の点CはP1P2を弦とし円周角
がθ3であるような円周上のどこかにあることが結論で
きる。弦P1P2は3次元空間中にあるので、CはP1
P2を弦とし円周角がθ3である一つの円をP1P2を
軸として回転させてできる曲面上のどこかに存在するこ
とになる。
【0005】∠Q2CQ3=θ1、∠Q3CQ1=θ2
に着目した時も同様の議論が成り立ち、従って、カメラ
レンズの中心Cの位置はこれら3つの曲面が交差する点
として求まる。レンズ中心の位置が求まれば、点P1、
P2、P3が投影される点がQ1、Q2,Q3になるよ
うなカメラの向きが容易に求まる。
【0006】同様の原理に基づく方法が拡張現実感シス
テムのための画像からの実時間カメラ位置姿勢推定、電
子情報通信学会論文誌、1999年, Vol.J82-D II, No.11,
pp.1784-1792.に記載されている。本文献では、推定し
たカメラの位置姿勢に基づいて、実写画像にCGのオブ
ジェクトを重畳表示する例が示されている。一方、撮影
した物体が予め登録してある複数の物体のうちどれであ
るかを認識する従来例2として、三次元物体安定認識の
ための Visual Learningシステム,電気学会論文誌, 199
7年, Vol.117-C, No.5, pp.528-533."Eigen-Window 法
を用いた顔画像に基づく個人識別,"第15回日本ロボット
学会学術講演会予稿集, Vol.2, pp.361-362, 1997.があ
る。この従来例2の概要を図14に示す。
【0007】学習部は、以下の処理を行う。 1.登録する物体のそれぞれを複数の視点から撮影し、
得られる画像を入力する(多視点画像入力)。 2.入力されたそれぞれの画像において、コーナなどそ
の周囲で特別の濃淡パターンを持つ点を抽出する(特徴
点抽出)。 3.抽出された特徴点を中心としたある一定の大きさの
ウインドウ内の濃淡パターンを特徴付けるベクトルを抽
出する(局所特徴ベクトル抽出)。 4.辞書に、入力された多視点画像のそれぞれに対応す
る物体、撮影方向毎に、特徴点座標群、局所特徴ベクト
ル群を格納する。
【0008】認識部は、以下の処理を行う。 1.認識対象物体を撮影した画像を入力する(画像入
力)。 2.学習部と同様に、入力された画像の特徴点抽出、局
所特徴ベクトル抽出の処理を行う。照合部は、特徴点の
座標と局所特徴ベクトルを辞書と照合することによって
入力された画像が辞書に登録されているどの物体をどの
方向から撮影したかを特定するため、以下の処理を行
う。 1.辞書内のそれぞれの物体・ 撮影方向において、認識
対象画像のそれぞれの特徴点の局所特徴ベクトルと類似
性が高い(例えば相関が大きい)局所特徴ベクトルを辞
書に保持した局所特徴ベクトル群の中から選択する。例
えば、類似性が高いほうから一定個数の局所特徴ベクト
ルを選択する(類似特徴点選択)。 2.入力画像から抽出された特徴点の座標とそれに類似
するとして選択された辞書内のそれぞれの局所特徴ベク
トルに対応する特徴点の座標間の平行移動量を算出する
(平行移動量算出)。3.予め、それぞれの物体・ 撮影
方向毎に平行移動量に関するヒストグラムを格納するメ
モリを用意する。このメモリの各セルと平行移動量は対
応しており、そのセルの内容が対応する平行移動量の度
数である。各セルは認識処理に先立って全てゼロに初期
化される。その後、平行移動量が算出される度に対応す
るセルの内容に1を加算する。全ての投票が終了する
と、各セルにはそれに対応する平行移動量が何回算出さ
れたかが記録される。例えば、認識対象の画像が辞書内
のある物体・ 撮影方向に対応する画像に全体的な位置の
ズレを除いて一致しているとすると、認識対象画像の特
徴点の位置とそれに対応する辞書内の特徴点の位置の間
の平行移動量は特徴点に因らずに一定となる。従って、
この場合、一定となった平行移動量だけが算出されるこ
とになり、ヒストグラムはその平行移動量のところで鋭
いピークを持つことになる。逆にこのような鋭いピーク
を持つヒストグラムがあれば、そのヒストグラムに対応
する物体・ 撮影方向が認識対象画像と同じものであると
判断できる。このような考え方から、物体と撮影方向の
選択では、ある閾値以上の度数を持つピークがある物体
・ 撮影方向が答えとして選択・ 出力される(投票処
理)。
【0009】
【発明が解決しようとする課題】従来例1の方法では、
撮影した画像上の特徴点と地図上の特徴点との対応関係
を知っておく必要があるため、撮影する物体に識別が容
易なマーカを付けるなどの処理が必要であった。マーカ
を付けない場合には、対応関係を判定するための処理が
必要となるが、判定は必ずしも容易ではなく、誤対応が
避けられなかった。
【0010】従来例2の方法では、画像にノイズが存在
しても安定した認識精度が期待できるという長所がある
反面、辞書すなわち地図に特徴点を登録したときの撮影
方向と異なる方向から画像を入力した場合には、局所特
徴ベクトルが変化するため、対応できないという問題点
がある。本発明は、 1.地図上の特徴点と撮影した画像上の特徴点との対応
関係が未知の場合でも、高い信頼度で画像撮影手段の位
置姿勢を特定し、 2.任意の方向から撮影した画像を基に、撮影した物体
が地図に保持された物体のどれであるかを、高い信頼度
で特定する ことを目的とする。
【0011】
【課題を解決するための手段】請求項1に記載の発明
は、3次元空間の特徴点の座標を地図特徴データとして
保持する地図特徴格納手段と、入力された画像の特徴点
の2次元座標を画像特徴データとして抽出する画像特徴
抽出手段と、抽出した画像特徴データから少なくとも3
個を選択する画像特徴選択手段と、選択した画像特徴デ
ータと同数の地図特徴データを選択する地図特徴選択手
段と、選択した画像特徴データと地図特徴データとが対
応しているものとして、画像を撮影した画像撮影手段の
位置姿勢の候補を算出する位置姿勢候補算出手段と、候
補として算出した位置姿勢から地図特徴データを入力画
像に投影し、投影した地図特徴データと画像特徴データ
とから位置姿勢候補の妥当性を算出し、妥当性が所定の
値を超えた位置姿勢候補を画像撮影手段の位置姿勢とす
る妥当性検証手段とを有することを特徴とする。
【0012】本発明による画像撮影手段の位置姿勢検出
装置の基本構成を図1に示す。画像撮影手段1は、画像
を撮影し、画像入力手段2は、撮影した画像をデジタル
の入力画像に変換する。画像特徴抽出手段3は、入力画
像の濃淡パターンから、画像中の特徴点Qを抽出する。
たとえば、図2に示す画像が入力された場合、入力した
画像中における特徴点のデータとして、各頂点Q1,Q
2,Q3,Q4の2次元座標を抽出する。画像特徴格納
手段4は、抽出した特徴点Qの座標を画像特徴Qとして
格納する。図3は、m個の画像特徴データを格納した例
を示す。
【0013】地図特徴格納手段5には、あらかじめ画像
撮影手段1周辺のシーンの画像、すなわち3次元座標が
既知の特徴点を有する画像を撮影し、画像特徴抽出手段
3と同様にして抽出した特徴点Pの3次元座標を地図特
徴Pとして格納しておく。図4は、n個の地図特徴デー
タを格納した例を示す。画像特徴選択手段6は、画像特
徴データから少なくとも3個をランダムに選択し、地図
特徴選択手段7は、地図特徴データから、画像特徴選択
手段6で選択した画像特徴データと同数の地図特徴デー
タを選択し、位置姿勢候補算出手段8に送る。
【0014】位置姿勢候補算出手段8は、選択した画像
特徴Pと地図特徴Qとが対応しているものとし、図13
に示す原理を用いて画像撮影手段の位置姿勢候補Cを算
出し、妥当性検証手段9に送る。妥当性検証手段9で
は、図5に示すごとく、候補として算出した画像撮影手
段の位置姿勢Cから選択した地図特徴Pを入力画像に投
影し、投影した地図特徴Rの2次元座標と、選択した入
力画像の画像特徴Qの2次元座標とから、RとQとの距
離dを算出し、距離dがあらかじめ定めた所定の値より
も小さい地図特徴の点の数と選択した地図特徴の点の数
との比を位置姿勢の妥当性として算出する。
【0015】画像特徴Qと地図特徴Pとから、ランダム
な特徴点選択、画像撮影手段の位置姿勢の候補算出、妥
当性の算出を繰り返し、妥当性があらかじめ定めた所定
の値より高い候補が得られた時点でその候補を画像撮影
手段の位置姿勢として特定し、処理を終了する。本発明
によれば、撮影した画像上の特徴点Qと地図上の特徴点
Pとの対応関係が未知の場合であっても、複数の特徴点
同士の組み合わせの妥当性を算出し評価することで、高
い信頼度をもって画像撮影手段の位置姿勢を特定するこ
とができる。
【0016】請求項2に記載の発明は、3次元空間の物
体の特徴点の座標を物体特徴データとして物体ごとにま
とめて保持する物体特徴格納手段と、入力された画像の
特徴点の2次元座標を画像特徴データとして抽出する画
像特徴抽出手段と、抽出した画像特徴データから少なく
とも3個を選択する画像特徴選択手段と、選択した画像
特徴データと同数の物体特徴データを、物体特徴格納手
段から物体ごとに選択する物体特徴選択手段と、選択し
た画像特徴データと物体特徴データとが対応しているも
のとして、画像を撮影した画像撮影手段の位置姿勢の候
補を算出する位置姿勢候補算出手段と、候補として算出
した位置姿勢から物体特徴データを入力画像に投影し、
投影した物体特徴データと画像特徴データとから位置姿
勢候補の妥当性を算出し、妥当性が所定の値を超えた位
置姿勢候補を画像撮影手段の位置姿勢とし、物体を特定
する妥当性検証手段とを有することを特徴とする。
【0017】本発明による3次元物体認識装置の基本構
成を図6に示す。本構成は、図1に示す画像撮影手段の
位置姿勢の検出装置における、地図特徴格納手段5と地
図特徴選択手段7との代わりに、物体特徴格納手段35
と物体特徴選択手段37とを備える。物体特徴格納手段
35は物体ごとに物体の特徴点の3次元座標を保持し、
物体特徴選択手段37は物体特徴の選択を物体ごとに行
い、妥当性検証手段39は妥当性算出の処理を物体ごと
に独立して行い、妥当性があらかじめ定めた所定の値よ
り高い候補が得られた時点でその候補を画像撮影手段の
位置姿勢として特定し、物体を特定し、処理を終了す
る。
【0018】本発明によれば、撮影した画像上の特徴点
Qと地図上の特徴点Pとの対応関係が未知の場合であっ
ても、複数の特徴点同士の組み合わせの妥当性を算出し
評価することで、撮影した画像上の物体が、あらかじめ
物体特徴格納手段35に登録した物体のどれであるか
を、高い信頼度で特定することが可能になる。以上説明
したごとく、本発明の本質は妥当性検証手段を設けた点
にある。したがって、画像から抽出する特徴データは、
必ずしも「特徴点の座標」のみである必要はなく、例え
ば抽出した画像特徴の近傍の濃淡パターンの局所特徴ベ
クトルを付加しても良い。
【0019】局所特徴ベクトルを「特徴データ」に付加
することにより、画像特徴と異なる局所特徴ベクトルを
持った地図特徴は、座標が画像特徴と近接した地図特徴
であっても、識別が可能となり、処理を簡単化し、信頼
度を高める。請求項5に記載の発明は、請求項3に記載
の発明における地図特徴データの作成方法であって、地
図特徴データ作成の対象となるシーンを複数の視点から
撮影して多視点画像として入力し、入力した多視点画像
のそれぞれにおいて特徴点を抽出し、それぞれの特徴点
において、その点を中心とする所定の大きさの窓内の濃
淡パターンの局所特徴ベクトルを算出し、多視点画像の
それぞれの画像間で特徴点の対応関係を求め、特徴点の
対応関係から特徴点の3次元座標を算出し、各特徴点の
3次元座標と各局所特徴ベクトルとを地図特徴データと
することを特徴とする。
【0020】
【発明の実施の形態】図7は、画像撮影手段の位置姿勢
検出の実施例1を示す。実施例1において、携帯端末に
は画像撮影手段と表示手段が備えられ、画像撮影手段で
撮影した携帯端末周辺の画像をサーバに転送する。サー
バには、図1に示す画像撮影手段の位置姿勢検出装置を
備え、該装置の地図特徴格納手段は、地図の特徴点の3
次元座標と、この座標に関連付けられたURLリストと
を保持する。
【0021】実施例1においては、画像撮影手段の位置
姿勢検出結果から携帯端末が撮影した画像の位置を特定
し、その位置に関連付けられたURLを通じてインター
ネット上のURL関連情報を引き出し、携帯端末に転送
し、表示手段に表示する。実施例1における画像撮影手
段の位置姿勢検出の処理例を図7をもって説明する。地
図特徴格納手段には、あらかじめ、n個の特徴点Pの番
号とその特徴点の3次元座標を格納しておく。
【0022】画像特徴抽出手段では、例えば図8に示す
以下の画像処理を撮影した画像Iに施してコーナ特徴点
を抽出し、特徴点Qとする。1.画像Iの、座標(x、
y)におけるx方向の微分Dx(x、y)とy方向の微
分Dy(x、y)を次式で算出する(空間微分)。 Dx(x、y)=I(x+1 、y)−I(x−1、y) Dy(x、y)=I(x、y+1)−I(x、y−1) 2.次式に従って2×2の行列、局所共分散行列Vを算
出する。 V1,1 (x、y)=ΣDxDx V1,2 (x、y)=V2,1 (x、y)=ΣDxDy V2,2 (x、y)=ΣDyDy ここで、Σは(x、y)を中心とするある大きさの窓内
での総和を表す。3.各画素(x、y)において、2×
2の行列V(x、y)の二つの固有値λ(x、y)、μ
(x、y)(λ>μ)を算出する(固有値算出)。4.
小さいほうの固有値μ(x、y)が極大であって、しか
もλ(x、y)<2μ(x、y)であるような画素をコ
ーナ特徴点として抽出し(コーナ特徴点抽出)、抽出し
たm個の特徴点Qの2次元座標を画像特徴格納手段に格
納する。
【0023】画像特徴選択手段では、画像特徴格納手段
に保持している特徴点Qの中からランダムに3個の特徴
点Qm1(xm1,ym1)、Qm2(xm2,ym
2)、Qm3(xm3,ym3)を選択する。地図特徴
選択手段では、地図特徴格納手段に保持しているn個の
特徴点Pの中からランダムに、画像特徴選択手段で選択
した画像特徴と同数、この場合は3個の特徴点Pn1
(Xn1,Yn1,Zn1)、Pn2(Xn2,Yn
2,Zn2)、Pn3(Xn3,Yn3,Zn3)を選
択する。
【0024】位置姿勢候補算出手段では、Pn1〜Pn
3、Qm1〜Qm3を、それぞれP1〜P3、Q1〜Q
3と読み替え、図13に示すように、Q1はP1を投影
した点、Q2はP2を投影した点、Q3はP3を投影し
た点であると仮定し、画像撮影手段の位置姿勢Cを求め
る。妥当性検証手段では、図5に示すごとく、算出した
画像撮影手段の位置姿勢Cを基に、地図特徴格納手段に
格納したn個の特徴点P1、P2,...,Pnの3次
元座標を画像撮影手段の位置姿勢Cで撮影した場合に得
られる画像に投影し、投影した特徴点R1,R
2,...,Rnを求める。
【0025】次にそれぞれの投影した特徴点Rに対して
所定の距離内に入力画像から抽出された特徴点Q1,Q
2,...,Qmのうちどれか一つでも存在するかどう
かを判定し、存在すると判定したRの数lを求める。l
のnに対する比、すなわち妥当性が所定の値より大きい
とき、仮定した画像撮影手段の位置姿勢Cは妥当である
と判断し、撮影した画像特徴Qは、地図特徴Pであると
特定する。
【0026】つぎに、地図特徴Pに対応つけられたUR
Lを介してインターネットから地図特徴P関連の情報を
取得し、携帯端末に転送する。図7に示した請求項1の
実施例1に対応する請求項2の実施例2は、図7におけ
る画像撮影手段の位置姿勢検出装置(図1)を、3次元
物体認識装置に置(図6)に置き換えることで実現でき
る。
【0027】この場合、物体特徴格納手段35には、図
9に示すごとく、N個の物体に対して、それぞれの物体
ごとに特徴点Pの番号と3次元座標とURLとを格納し
ておく。以下、物体特徴Pの選択、妥当性検証の処理は
物体ごとに独立して行い、妥当性が所定の値よりも大き
いとき、仮定した画像撮影手段の位置姿勢は妥当であ
り、撮影した画像特徴Qは、物体特徴Pであると判断
し、Pに対応する物体を特定する。
【0028】実施例2では、URLのリストは物体に対
応つけられており、インターネットから撮影した建物等
の物体に関連する情報を取得し、携帯端末に転送する。
図10は、実施例3として、請求項3に記載の発明にお
ける局所特徴ベクトルを抽出する処理例を示す。実施例
3の処理では、学習部において以下に示す手順で特徴点
の座標と局所特徴ベクトルとを抽出し、地図特徴として
地図特徴格納手段に格納する。 S1.撮影の対象となるシーンを、あらかじめ複数の視
点から撮影し、多視点画像として入力する。 S2.入力した多視点画像のそれぞれにおいて、特徴点
を抽出する。特徴点の抽出は例えば、実施例1と同様の
方法による。 S3.局所特徴ベクトル抽出では、それぞれの特徴点に
おいて、その点を中心とする所定の大きさの窓内の濃淡
パターンを特徴付けるベクトルFを算出する。この算出
は例えば、「三次元物体安定認識のための Visual Lear
ningシステム」,電気学会論文誌, 1997年, Vol.117-C,
No.5, pp.528-533.に記載されている方法による。 S4.3次元復元では、視点が異なる画像間で特徴点の
対応関係を抽出する。局所特徴ベクトルFが類似してい
る特徴点同士が対応しているものと判断する。次に、特
徴点の対応関係に基づいてこれら特徴点の3次元座標を
算出する。この算出は例えば、Takashi Toriu, and Tos
hio Endoh, "Maximum Likelihood Estimator for Struc
ture and Motion from Multiple Perspective Views",
Proceedings of Second Asian Conference on Computer
Vision, Vol. 2 of 3, pp.707-711, Singapore, Dec.,
1995. による。 S5.以上の処理によって得られた各特徴点の3次元座
標と、それらの特徴点のそれぞれに対する各視点の画像
毎の局所特徴ベクトルFを地図特徴格納手段に格納す
る。
【0029】図11は、複数の視点に対応する局所特徴
ベクトルを付加した地図特徴Pの格納例を示す。図11
において、Fnvはn番目の特徴点のv番目の視点の画像
における局所特徴ベクトルである。認識部は、以下に示
す方法で地図特徴Pを参照し、画像撮影手段の位置姿勢
を算出する。 S11.画像特徴点抽出では、学習部と同様の方法で入
力画像から特徴点Qを抽出する。 S12.局所特徴ベクトル抽出では、学習部と同様の方
法で各特徴点Qにおける局所特徴ベクトルFを抽出す
る。 S13.抽出した特徴点Qの2次元座標と局所特徴ベク
トルFとを画像特徴格納手段に格納する。図12は局所
特徴ベクトルを付加した画像特徴Qをm個抽出し、格納
した例を示す。
【0030】画像特徴選択(S21)では画像特徴格納
(S13)で格納したm個の特徴点からランダムに3個
の特徴点Qm1(xm1,ym1)、Qm2(xm2,
ym2)、Qm3(xm3,ym3)を選択する。地図
特徴選択(S22)では、地図特徴格納(S5)で格納し
た地図特徴から、いずれかの視点の画像で局所特徴ベク
トルFm1に類似する局所特徴ベクトルを持つ特徴点を
ランダムに一つ選び、その特徴の番号をl1とする。同
様に、fm2、fm3に類似する局所特徴ベクトルを持
つ特徴点をランダムに選択し、それぞれ、l2、l3と
する。
【0031】位置姿勢候補算出では、入力画像から抽出
した特徴点Qm1、Qm2、Qm3と格納した特徴点l
1、l2、l3が対応していると仮定し、実施例1と同
様にして画像撮影手段の位置姿勢を算出し、妥当性の検
証を行う。本実施例によれば、局所ベクトルが類似して
いる特徴点だけを選択しているため、実施例1と比較し
て候補として算出された位置姿勢が正しい確率が高くな
り、計算に要する時間を短縮することが可能になる。
【0032】
【発明の効果】以上説明したごとく、本発明によれば、 1.3次元空間中の特徴点と撮影した画像上の特徴点の
対応関係が未知の場合でも、高い信頼度で画像撮影手段
の位置姿勢を特定する。 2.任意の方向から撮影した画像を基にその物体が予め
登録された物体のどれであるかを、高い信頼度で特定す
る。 ことが可能となり、計算に要する時間を短縮することが
可能になる。
【図面の簡単な説明】
【図1】 画像撮影手段の位置姿勢検出装置の基本構成
【図2】 入力画像の例
【図3】 画像特徴の格納例
【図4】 地図特徴の格納例
【図5】 算出した画像撮影手段の位置姿勢候補からの
投影
【図6】 3次元物体認識装置の基本構成
【図7】 実施例1
【図8】 特徴点抽出処理例
【図9】 物体特徴の格納例
【図10】 実施例3の処理
【図11】 局所特徴ベクトルを付加した地図特徴の格
納例
【図12】 局所特徴ベクトルを付加した画像特徴の格
納例
【図13】 画像撮影手段の位置姿勢の検出原理
【図14】 従来例2
【符号の説明】
1 画像撮影手段 2 画像入力手段 3 画像特徴抽出手段 4 画像特徴格納手段 5 地図特徴格納手段 6 画像特徴選択手段 7 地図特徴選択手段 8、38 位置姿勢候補算出手段 9、39 妥当性検証手段 35 物体特徴格納手段 37 物体特徴選択手段 C 画像撮影手段の位置 P 地図特徴 Q 画像特徴 R 投影した地図特徴
フロントページの続き Fターム(参考) 5B057 AA20 BA02 CA08 CA13 CA16 CB08 CB13 CB16 CC01 CE08 DA07 DB03 DB09 DC05 DC36 5C054 AA05 CH02 EA05 FC00 FD03 HA00 5L096 AA06 AA09 BA08 CA05 EA14 FA12 FA45 FA69 HA08 JA11

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 3次元空間の特徴点の座標を地図特徴デ
    ータとして保持する地図特徴格納手段と、入力された画
    像の特徴点の2次元座標を画像特徴データとして抽出す
    る画像特徴抽出手段と、抽出した画像特徴データから少
    なくとも3個を選択する画像特徴選択手段と、選択した
    画像特徴データと同数の地図特徴データを選択する地図
    特徴選択手段と、選択した画像特徴データと地図特徴デ
    ータとが対応しているものとして、画像を撮影した画像
    撮影手段の位置姿勢の候補を算出する位置姿勢候補算出
    手段と、候補として算出した位置姿勢から地図特徴デー
    タを入力画像に投影し、投影した地図特徴データと画像
    特徴データとから位置姿勢候補の妥当性を算出し、妥当
    性が所定の値を超えた位置姿勢候補を画像撮影手段の位
    置姿勢とする妥当性検証手段とを有することを特徴とす
    る画像撮影手段の位置姿勢検出装置。
  2. 【請求項2】 3次元空間の物体の特徴点の座標を物体
    特徴データとして物体ごとにまとめて保持する物体特徴
    格納手段と、入力された画像の特徴点の2次元座標を画
    像特徴データとして抽出する画像特徴抽出手段と、抽出
    した画像特徴データから少なくとも3個を選択する画像
    特徴選択手段と、選択した画像特徴データと同数の物体
    特徴データを、物体特徴格納手段から物体ごとに選択す
    る物体特徴選択手段と、選択した画像特徴データと物体
    特徴データとが対応しているものとして、画像を撮影し
    た画像撮影手段の位置姿勢の候補を算出する位置姿勢候
    補算出手段と、候補として算出した位置姿勢から物体特
    徴データを入力画像に投影し、投影した物体特徴データ
    と画像特徴データとから位置姿勢候補の妥当性を算出
    し、妥当性が所定の値を超えた位置姿勢候補を画像撮影
    手段の位置姿勢とし、物体を特定する妥当性検証手段と
    を有することを特徴とする3次元物体認識装置。
  3. 【請求項3】 請求項1に記載の画像撮影手段の位置姿
    勢検出装置において、地図特徴格納手段は、地図特徴デ
    ータとして、地図の特徴点の3次元の座標と特徴点の近
    傍の濃淡パターンの局所特徴ベクトルとを保持し、画像
    特徴抽出手段は、画像特徴データとして、画像の特徴点
    の2次元座標と特徴点の近傍の濃淡パターンの局所特徴
    ベクトルを抽出することを特徴とする画像撮影手段の位
    置姿勢検出装置。
  4. 【請求項4】 3次元空間の特徴点の座標を地図特徴デ
    ータとして保持し、画像撮影手段で撮影した画像を入力
    する手順と、入力した画像の特徴点の2次元座標を画像
    特徴データとして抽出する画像特徴抽出手順と、抽出し
    た画像特徴データから少なくとも3個を選択する画像特
    徴選択手順と、選択した画像特徴データと同数の地図特
    徴データを選択する地図特徴選択手順と、選択した画像
    特徴データと地図特徴データとが対応しているものとし
    て画像を入力した画像撮影手段の位置姿勢の候補を算出
    する位置姿勢候補算出手順と、候補として算出した位置
    姿勢から地図特徴データを入力画像に投影し、投影した
    地図特徴データと画像特徴データとから位置姿勢候補の
    妥当性を算出し、妥当性が所定の値を超えた位置姿勢候
    補を画像撮影手段の位置姿勢とする妥当性検証手順とを
    有することを特徴とするプログラムを記録したコンピュ
    ータ読み取り可能な記録媒体。
  5. 【請求項5】 地図特徴データ作成の対象となるシーン
    を複数の視点から撮影して多視点画像として入力し、入
    力した多視点画像のそれぞれにおいて特徴点を抽出し、
    それぞれの特徴点において、その点を中心とする所定の
    大きさの窓内の濃淡パターンの局所特徴ベクトルを算出
    し、多視点画像のそれぞれの画像間で特徴点の対応関係
    を求め、特徴点の対応関係から特徴点の3次元座標を算
    出し、各特徴点の3次元座標と各局所特徴ベクトルとを
    地図特徴データとすることを特徴とする電子的な地図作
    成方法。
  6. 【請求項6】 3次元空間の特徴点の座標を地図特徴デ
    ータとして保持するコンピュータに、画像撮影手段で撮
    影した画像を入力する手順と、入力した画像の特徴点の
    2次元座標を画像特徴データとして抽出する画像特徴抽
    出手順と、抽出した画像特徴データから少なくとも3個
    を選択する画像特徴選択手順と、選択した画像特徴デー
    タと同数の地図特徴データを選択する地図特徴選択手順
    と、選択した画像特徴データと地図特徴データとが対応
    しているものとして、画像を入力した画像撮影手段の位
    置姿勢の候補を算出する位置姿勢候補算出手順と、候補
    として算出した位置姿勢から地図特徴データを入力画像
    に投影し、投影した地図特徴データと画像特徴データと
    から位置姿勢候補の妥当性を算出し、妥当性が所定の値
    を超えた位置姿勢候補を画像撮影手段の位置姿勢とする
    妥当性検証手順とを実行させるためのプログラム。
JP2001193437A 2000-07-26 2001-06-26 画像撮影手段の位置姿勢検出装置、3次元物体認識装置および地図特徴データ作成方法 Withdrawn JP2002109539A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001193437A JP2002109539A (ja) 2000-07-26 2001-06-26 画像撮影手段の位置姿勢検出装置、3次元物体認識装置および地図特徴データ作成方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000225611 2000-07-26
JP2000-225611 2000-07-26
JP2001193437A JP2002109539A (ja) 2000-07-26 2001-06-26 画像撮影手段の位置姿勢検出装置、3次元物体認識装置および地図特徴データ作成方法

Publications (1)

Publication Number Publication Date
JP2002109539A true JP2002109539A (ja) 2002-04-12

Family

ID=26596718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001193437A Withdrawn JP2002109539A (ja) 2000-07-26 2001-06-26 画像撮影手段の位置姿勢検出装置、3次元物体認識装置および地図特徴データ作成方法

Country Status (1)

Country Link
JP (1) JP2002109539A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008288922A (ja) * 2007-05-18 2008-11-27 Olympus Imaging Corp カメラ
US8705795B2 (en) 2010-11-19 2014-04-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
JP2016076836A (ja) * 2014-10-07 2016-05-12 日本放送協会 撮像装置
JP2018096969A (ja) * 2016-08-30 2018-06-21 ザ・ボーイング・カンパニーThe Boeing Company ジオアーク(geoarc)を使用したビークルの二次元位置の特定
US10102647B2 (en) 2015-06-16 2018-10-16 Fujitsu Limited Image processing device, image processing method, and non-transitory computer-readable storage medium that determines camera position based on a comparison of estimated postures
KR102407802B1 (ko) * 2021-12-22 2022-06-10 (주)리얼메이커 인공신경망 학습 기반의 실내외 3차원 좌표 및 방위 추정 장치

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008288922A (ja) * 2007-05-18 2008-11-27 Olympus Imaging Corp カメラ
US8705795B2 (en) 2010-11-19 2014-04-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
JP2016076836A (ja) * 2014-10-07 2016-05-12 日本放送協会 撮像装置
US10102647B2 (en) 2015-06-16 2018-10-16 Fujitsu Limited Image processing device, image processing method, and non-transitory computer-readable storage medium that determines camera position based on a comparison of estimated postures
JP2018096969A (ja) * 2016-08-30 2018-06-21 ザ・ボーイング・カンパニーThe Boeing Company ジオアーク(geoarc)を使用したビークルの二次元位置の特定
JP7033859B2 (ja) 2016-08-30 2022-03-11 ザ・ボーイング・カンパニー ジオアーク(geoarc)を使用したビークルの二次元位置の特定
KR102407802B1 (ko) * 2021-12-22 2022-06-10 (주)리얼메이커 인공신경망 학습 기반의 실내외 3차원 좌표 및 방위 추정 장치

Similar Documents

Publication Publication Date Title
US10650546B2 (en) Method of providing a descriptor for at least one feature of an image and method of matching features
US11887247B2 (en) Visual localization
CN111126304B (zh) 一种基于室内自然场景图像深度学习的增强现实导航方法
US9818023B2 (en) Enhanced face detection using depth information
US11003956B2 (en) System and method for training a neural network for visual localization based upon learning objects-of-interest dense match regression
US8638986B2 (en) Online reference patch generation and pose estimation for augmented reality
JP6265499B2 (ja) 特徴量抽出装置及び場所推定装置
Ulrich et al. Towards fast fiducial marker with full 6 dof pose estimation
JP2002109539A (ja) 画像撮影手段の位置姿勢検出装置、3次元物体認識装置および地図特徴データ作成方法
Sedaghat et al. Accurate affine invariant image matching using oriented least square
Micheal et al. Comparative analysis of SIFT and SURF on KLT tracker for UAV applications
Ecklbauer A mobile positioning system for android based on visual markers
Sadeghi et al. Ocrapose ii: An ocr-based indoor positioning system using mobile phone images
Sourimant et al. Toward automatic GIS–video initial registration: And application to buildings textures computation
Kobori et al. Proposal of an Encoded Marker for Working Robots: An Encoded Marker Easy to Detect in Various Positions and under Blur
Butt et al. Multi-task Learning for Camera Calibration
CN117115333A (zh) 一种结合imu数据的三维重建方法
CN115457231A (zh) 一种更新三维图像的方法及相关装置
Pylvänäinen et al. Revisiting the P n P Problem with a GPS
Wang et al. Automatic Registration of Terrestrial Laser Sensor Scans Using Reflectance Intensity and Geometry Features
Skulimowski et al. Urban Object Identification in Scenes Recorded by a Smartphone
JP2014215821A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080902