JP2000275013A - 視点位置姿勢の決定方法、コンピュータ装置および記憶媒体 - Google Patents

視点位置姿勢の決定方法、コンピュータ装置および記憶媒体

Info

Publication number
JP2000275013A
JP2000275013A JP11080000A JP8000099A JP2000275013A JP 2000275013 A JP2000275013 A JP 2000275013A JP 11080000 A JP11080000 A JP 11080000A JP 8000099 A JP8000099 A JP 8000099A JP 2000275013 A JP2000275013 A JP 2000275013A
Authority
JP
Japan
Prior art keywords
image
mark
camera
coordinates
marks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11080000A
Other languages
English (en)
Inventor
Hiroko Moriya
裕子 守屋
Hideyuki Tamura
秀行 田村
Hiroyuki Yamamoto
裕之 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MR SYSTEM KENKYUSHO KK
MR System Kenkyusho KK
Original Assignee
MR SYSTEM KENKYUSHO KK
MR System Kenkyusho KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MR SYSTEM KENKYUSHO KK, MR System Kenkyusho KK filed Critical MR SYSTEM KENKYUSHO KK
Priority to JP11080000A priority Critical patent/JP2000275013A/ja
Publication of JP2000275013A publication Critical patent/JP2000275013A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 世界座標値が夫々既知の3つのマンホールを
用いて、ユーザと共に移動するカメラの位置姿勢を検出
する装置を提案する。 【解決手段】 世界座標系での位置が知られた3つのマ
ンホールを含む画像をユーザと共に移動するカメラによ
り取得し、この画像を処理して前記3つのマンホールの
画像座標を夫々取得し、画像中での夫々のマンホール
と、世界座標値が既知のマンホールとを対応付け、対応
関係に基づいて、前記カメラの位置姿勢決定のためのパ
ラメータを演算して出力する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、視点位置姿勢の決
定方法に関し、特に、カメラの視点位置を、3つのマー
クによって決定する方法などの改良に関する。
【0002】
【従来の技術】近年、現実空間と仮想空間の融合を目的
とした複合現実感(MR: Mixed Reality)に関する研究
が盛んになっている。その中でも、現実空間に仮想空間
の情報を重畳表示する技術は「オーグメンティド・リア
リティ」(AR: Augmented Reality)と呼ばれている。
【0003】現実の映像にCGで作成した仮想の映像を重
ね合わせるAR(Augmented Reality)技術は、現実世界の
位置を正確に測定する必要がある。実際には、位置セン
サで計測されたデータの信頼性は高くないため、補助的
な手段により、センサ出力を補正するという手法が取ら
れている。
【0004】現実の映像として屋内の映像を使う場合に
は、上記補助手段として、壁やテーブルなどの上の既知
位置に、マーカ等を貼付け、それをカメラで捉えて、画
像座標系でのマーカ位置を求めることにより、重畳の際
の位置合わせデータを補正するという手法が使われてい
る。
【0005】
【発明が解決しようとする課題】しかし、屋外でARを利
用するには、屋内よりも利用範囲を広げる必要があり、
従来は、GPSセンサなどの精度の低いセンサを使うとい
う方法がとられている(”A Touring Machine: Prototy
ping 3S Mobile Aggmented Reality Systems forExplor
ing the Urban Environment”, Steven Feiner, Blair
MacIntyre, Tobias H_llerer, Anthony Webster, In Pr
oc ISWC ‘97 Int. Symp. on Wearable Computing)が、
特に都市部では高層ビルなどが立ち並び、GPSセンサを
利用することは難しい。
【0006】これは、屋外ではランドマークを設定する
こと自体が甚だ困難だからである。
【0007】
【課題を解決するための手段】本発明は、上記従来技術
の問題点に鑑みて提案されたもので、その目的は、特に
屋外において、簡単な構成により、カメラの視点位置・
姿勢を検出することができる方法を提案する。
【0008】上記課題を達成するための、本発明の請求
項1にかかる視点位置姿勢の決定方法は、
【0009】世界座標系での位置が知られた第1乃至第
3のマークとを含む画像をユーザと共に移動するカメラ
により取得し、
【0010】この画像を処理して前記3つのマークの画
像座標を夫々取得し、
【0011】画像中での夫々のマークと、世界座標値が
既知のマークとを対応付け、
【0012】対応関係に基づいて、前記カメラの位置姿
勢決定のためのパラメータを演算して出力することを特
徴とする。
【0013】上記3つのマークは、少なくとも、カメラ
パラメータを演算する前には、その世界座標値を既知と
しているので、上記のように、カメラパラメータ、即
ち、ユーザの視点位置姿勢を演算することができる。
【0014】本発明の方法は種々の利用があるが、特
に、本発明の好適な一態様である請求項2に拠れば、演
算されたパラメータを用いてコンピュータ仮想画像を生
成し、その仮想画像をユーザに呈示するものである。
【0015】マークの世界座標値はパラメータ演算時に
は必須であるが画像取得時には必須ではない。本発明の
好適な一態様である請求項3に拠れば、前記第1のマー
クの世界座標値は既知であり、第2と第3のマークは、
前記第1のマークに対する相対位置が既知である。
【0016】またさらに、本発明の好適な一態様である
請求項4に拠れば、位置が既知の前記第1のマークから
の方向および距離を、前記第2のマークと第3のマーク
について測定し、その測定結果を基に、前記第2と第3
のマークの世界座標値とすることを特徴とする。
【0017】カメラの数は用途に応じて決定すべきであ
る。本発明の好適な一態様である請求項5に拠れば、前
記カメラが1つである場合において、
【0018】前記3つのランドマークの画像座標に基づ
いて、前記3つのマークの奥行き情報を得、
【0019】前記3つのマークについて得られた、画像
座標と奥行き情報とに基づいて前記パラメータを演算す
ることを特徴とする。
【0020】一方、前記カメラが2つである場合におい
て、本発明の好適な一態様である請求項6に拠れば
【0021】その2つのカメラからの画像に基づいてマ
ークを同定することを特徴とする。
【0022】本発明の好適な一態様である請求項7に拠
れば、前記マークはマンホールである。
【0023】本発明の好適な一態様である請求項8に拠
れば、前記マークは、既知の位置に前もって複数配置さ
れている。
【0024】マークの世界座標値はパラメータ演算時に
は必須であるが画像取得時には必須ではない。本発明の
好適な一態様である請求項9に拠れば、前記マークの一
部のマークの世界座標を、既知のマークの世界座標と前
記取得画像とに基づいて求める。
【0025】本発明の好適な一態様である請求項10に
拠れば、前記マークは所定の形状を有する物体であっ
て、前記座標は当該物体の画像中の重心位置である。
【0026】カメラの位置姿勢検出はカメラが特に移動
している場合に有効である。そこで、本発明の好適な一
態様である請求項11に拠れば、
【0027】ユーザが移動した場合には、
【0028】移動後の画像に基づいて動きベクトルを算
出し、
【0029】移動後の前記画像中に検出したマーカの画
像座標と、移動前の画像中に対応付けたマーカを前記ベ
クトルに基づいて補正して得たマーカの画像座標とを比
較することにより、移動後の前記画像中に複数のマーカ
を同定する。
【0030】
【発明を実施するための形態】以下に、添付図面を参照
しながら、本発明を埋設物シミュレーション装置に適用
した実施形態を説明する。埋設物シミュレーション装置
とは、地中に埋設されたもの(例えばガス管)を、地中
から掘り出すことなく、その仮想画像をユーザに呈示す
るものである。この呈示により、ユーザは埋設物の凡そ
の位置を地上において確認することができ、そのユーザ
が、埋設物である例えばガス管の交換作業を行うもので
あれば、誤った位置の地面を掘り返す等の無駄を省くこ
とができるというものである。
【0031】第1図は、実施例のシミュレーション装置
の構成を示す。この埋設物シミュレーション装置は、同
図に示すように、奥行き推定モジュール100と座標検
出モジュール200とパラメータ推定モジュール300
とからなる。この埋設物シミュレーション装置は、位置
が既知の3つのマンホールの画像を取得する。この3つ
のマンホールの世界座標系での重心位置は全て既知であ
るものとする。尚、各マンホールの重心位置について
は、少なくとも第1のマンホールは、その重心位置が世
界座標系で既知であり、残りのマンホールについては、
上記第1のマンホールに対する相対位置が判っているよ
うに簡略化してもよい。
【0032】座標検出モジュール200は、3つのマン
ホールの画像座標系での重心の座標位置を検出する。奥
行き推定モジュール100はこれら3つのマンホールの
画像座標系での重心位置と、既知の世界座標系での重心
位置とに基づいて、各マンホールの重心の世界座標系で
の奥行きを検出する。各マンホールの奥行きは、世界座
標系でのマンホールの直径、画像座標系でのマンホール
の直径を表すピクセル数とカメラの焦点距離、カメラの
1ピクセルに相当する長さに基づいて求められる。
【0033】埋設物シミュレーション装置は、例えば第
1図のように、HMD(Head MountDisplay)を装着した
ユーザに対して、実際には地中に埋設されているもの
(ガス管など)の仮想の画像を呈示するもので、そのた
めには、その地上の位置と、カメラの視点位置(ユーザ
の視点位置)とが精度良く位置合わせされている必要が
ある。換言すれば、カメラの視点位置を精度良く検出す
る必要がある。このカメラの視点位置(カメラパラメー
タ)は、前述の3つのマンホールの夫々の重心の画像座
標系での位置から求めることができる。パラメータ推定
モジュール300はこのカメラパラメータを推定する。
【0034】本実施形態システムで、ランドマークとし
てマンホールを選んだ理由は、埋設物シミュレーション
は道路などで行われることが多く、道路には多くのマン
ホールが必ず設けられていること、そのマンホールの絶
対座標位置が既にデータベース化されていることから、
ユーザが移動しながらシミュレーションする場合には好
適であること、また、マンホールは形状が円形であり、
色の決まった色が用いられていることから認識が容易で
あること、などによる。
【0035】3つのマンホールは例えば第2図のように
配置されていたとする。これら3つのマンホールの世界
座標系での位置は既知である。但し、そのうちの第1の
マンホールの位置は世界座標系で与えられており、第2
のマンホールと第3のマンホールの位置は、第1のマン
ホールに対する相対位置、即ち、位置ベクトルv,v
として与えられる。
【0036】第3図の例は、各組が3つのマンホール
で、そのようなマンホールが複数組存在する例である。
第3図の例では、各マンホールの世界座標系での位置は
既知であるとする。第3図の例では、カメラパラメータ
を得る問題は、ユーザが移動していく過程で、即ち、カ
メラが移動していく過程でカメラが捉えたマンホールを
同定する問題に帰着する。
【0037】第4図は、実施形態における処理手順を説
明する。第4図のフローチャートは、所定時間間隔毎に
実行され、不図示のコンピュータメモリに記憶され、或
いは必要に応じてCDROM等からロードされる。
【0038】ステップS10では、カメラがその時点で
向いている方向の画像を取得する。ステップS12で
は、その画像に対してエッジ検出処理を施し、ステップ
S14では、更に公知のハフ(Hough)変換を施して、画
像中の3つのマンホールの各重心位置を検出する。この
重心位置はカメラの座標系での座標で表されている。
【0039】ステップS16では、現在の画像取得シー
ケンスが1フレーム目であるか、或いは、2フレーム目
以降であるかを判断する。
【0040】画像取得が1フレーム目である場合には、
ステップS30に進み、「初期位置合わせ処理」を行
う。この初期位置合わせは、ステップS14で得られた
画像座標系での重心位置はマンホールの同定のために情
報不足であるので、各重心位置がどのマンホールである
かを初期的に一回だけ同定する必要があるからである。
【0041】この同定は、数が3つと少ないので、ユー
ザ支援によるものであることが効率的である。即ち、前
述したように、最初のマンホール(第2図の3つのマン
ホール)の世界座標系での重心位置は与えられているの
で、第5図のように、各マンホールの識別子と座標値と
は組として不図示のメモリに記憶されている。そこで、
カメラパラメータ推定モジュール300は、例えば、カ
メラが先に取得した画像と各マンホールの重心位置とを
HMDに表示し、ユーザに、重心位置のマーカと識別子
(Q1, Q2, Q3)とを対応付けさせる。これにより、推定モ
ジュール300は、どのマンホール(の重心)がどの識
別子をもっているかを認識することとなる。
【0042】次に、ステップS32でカメラパラメータ
の算出を行う。
【0043】ここで、一般的に3点による、カメラパラ
メータ行列Cの推定の手法について説明する。ここで開
示する方法以外にも、精度や効率の点で劣るが、例え
ば、Mellor(J. P. Mellor: “Realtime camera calibr
ation for enhanced reality visualization,” Proc.
CVRMed ’95, pp.471-475, 1995.)や、中沢, 中野, 小
松, 斎藤: “画像中の特徴点に基づく実写画像とCG画像
との動画像合成システム”, 映像情報メディア学会誌,
Vol.51, No.7, pp.1086-1095, 1997.)がある。
【0044】第6図に示すように、3点のランドマー
ク、即ち、マンホールの3つの重心(Q 1, Q2, Q3)(世界
座標QWi = (XWi, YWi, ZWi, 1))が、カメラにより、
画像座標qi = (xi, yi)で撮像されたとする。これらの
ランドマークの世界座標系から画像座標系への投影は次
式のように記述できる。
【0045】[EQ1]
【0046】この式における媒介変数hiは、カメラ座標
系におけるランドマークQi(=Q1, Q2,Q3)の奥行き値ZCi
と比例関係にあり、ある定数kを用いて、[EQ2]
【0047】と表わすことができる。また、この比例関
係を満たす値であれば、kの値は任意に選ぶことができ
る。今、ランドマークQiに対する奥行きの尺度として、
[EQ3]
【0048】を満たすような値zi(z1, z2, z3)が得られ
ているとする。この場合、ziを式(EQ1)のhiに代入する
ことで、1点のランドマークについて次の3つの式を得
る。 [EQ4] 同一直線上にない3点以上のランドマークを観測した場
合、
【0049】[EQ5]
【0050】[EQ6] と表記すると、式(EQ1)の関係は、
【0051】[EQ7]
【0052】と表わすことができるので、行列Cの第3列
(Z座標に関する成分)を省略した3x3の行列であるとこ
ろの、行列C’は[EQ8]
【0053】によって得ることができる。そして、得ら
れたC’からカメラパラメータCを求めることができ
る。即ち、カメラ座標系から画像座標系への透視変換行
列をP(3x4行列)、世界座標系からカメラ座標系への座
標変換行列Mを(4x4行列)とすると、
【0054】[EQ9]
【0055】[EQ10] であり、行列C (3x4)は
【0056】[EQ11] と表すことができ、行列C’も同様に、
【0057】[EQ12] と表すことができる。カメラの焦点距離fが既知であれ
ば、行列M’の要素は、前述したように、行列C’から
容易に求めることができる。そして、行列Mの第3列は、
行列Mの(すなわち行列M’の)第1列(x軸)と第2列(y
軸)が表わす2つのベクトルに直交するベクトルとして
求めることができる。したがって、行列Mは行列M’から
推定可能であり、こうして得られた行列Mを式(EQ11)に
代入することで、カメラパラメータを表わす行列Cを獲
得することができる。即ち、3点のランドマークをZ=
0平面に拘束することによって、カメラパラメータCを
得ることができた。
【0058】即ち、式(EQ)の行列W−1は、3点の既知
のランドマークの世界座標の組であり、予め計算してお
くことができる。したがって、カメラパラメータの推定
問題は、行列U’、すなわち、3点のランドマークの画像
座標と、その奥行きの尺度ziを求める問題に帰着する。
【0059】なお、3点のランドマークQiは必ず1つの
平面上に存在するが、その平面が、世界座標系のZ = 0
平面でない場合がある。このような場合でも、その3点Q
iのランドマークが配置された平面から、Z = 0平面への
座標変換行列N (4x4)は必ず存在し、また容易に求める
ことができる。したがって、そのような座標変換行列N
によって変換された各ランドマークの世界座標PN Wiは、
【0060】[EQ13] PN Wi=NQi であり、式(EQ1)乃至式(EQ12)を満足しなくてはならな
い。即ち、変換された座標PN Wiについて式(EQ1)乃至式
(EQ12)を解いて得たカメラパラメータ行列をC(N)とする
と、 [EQ14] C = C(N) N とすることで、正しいカメラパラメータCが導出され
る。推定モジュール300は、ステップS32におい
て、上記EQ14に従ってカメラパラメータを、即ち、ユー
ザの視線方向を計算する。
【0061】次のステップS34では、上記求められた
パラメータに従った、即ち、ユーザの視点位置からのグ
ラフィック画像をメモリ上に描画する。この例では、地
中に埋設されたガス管の画像を、ユーザの視点位置から
見たCG画像として描画する。ステップS36では、こ
のCGをHMDに表示する。
【0062】かくして、ユーザが最初にマンホールの画
像を得た位置で見える(筈の)埋設物のCGがHMDに
表示される。
【0063】時間が経過して2フレーム目の画像が取得
される。即ち、ユーザは移動しているであろう。本実施
形態では、ユーザに対しては、移動を行っても、常に、
3つ以上のマンホールがカメラの視野に入ることを条件
づけている。このために、第3図の例のような場合に
は、カメラを大きく傾けねばならない場合もあろう。
【0064】そこで、ステップS12で、2フレーム目
の画像から、第1フレーム目と同じように複数のマンホ
ールが検出され、ステップS14では各マンホールの重
心位置が演算される。この時点では、マンホールの重心
は同定はされていない。例えば、第2フレーム目の画像
中に、3つのマンホールの重心が検出されとし、それら
の重心を、
【0065】Q2 = (x2’,y2’),
【0066】Q2’’ = (x2’’,y2’’),
【0067】Q2’’’ = (x2’’’,y2’’’)
【0068】とする。これらの重心を一般的にQ
2 (n)(nは「’」や「”」や「”」’を表す)と表記す
る。
【0069】そして、ステップS16→ステップS18
と進み、ステップS18では、第1フレームから第2フ
レームまでの画像の動きベクトルが計算される。この動
きベクトルの演算は、ユーザの移動を検出するためであ
って、第7図に示すように、マンホール或いはマンホー
ル以外の特徴点を画像から抽出して、その特徴点の移動
方向と移動距離ともって動きベクトルとする。動きベク
トルが求められると、ステップS20では、第1フレー
ムのマンホールの各重心を上記ベクトルΔVだけ平行移
動させて、第1フレーム目のマンホールを第2フレーム
目の画像空間で描画する。これにより、第2フレームの
画像空間で、第1フレームの画像で得られたマンホール
の重心Q1 1, Q1 2, Q1 3は、それぞれ、
【0070】Q2 1 = Q1 1 + ΔV
【0071】Q2 2 = Q1 2 + ΔV
【0072】Q2 3 = Q1 3 + ΔV
【0073】となる。これらの第2フレームの重心位置
を一般に、Q2 (k)(kは、1,2,3を表す)と表記する。ス
テップS22では、第2フレーム目についてステップS
12で得られたマンホール重心Q2 (n)のどれが、ステッ
プS20で得られたマンホール重心Q2 (k)と一致するか
を判断する。この場合、平行移動で得られた重心Q2 (k)
に最も近接している、画像処理で得られた重心Q2 (n)
士を同じものとして同定する。
【0074】ステップS24以下の処理を前述したとお
りである。
【0075】かくして、ユーザが移動しても、そのユー
ザのカメラが既知のマンホールを3つ以上捉えていれ
ば、その画像中に認識されたマンホールを同定すること
ができるので、本システムは、その時点のカメラの姿勢
(ユーザの頭部姿勢)を検出することができ、よってカ
メラパラメータを決定できるので、適切なAR画像をユー
ザに呈示することができる。
【0076】〈他の実施形態〉ところで、全ての場合に
おいて、好ましい位置にマンホール、即ち、ランドマー
クがおかれているとは限られない。しかしながら、本実
施形態は少なくとも3つのランドマークを必要とする。
そこで、以下に、位置が既知のランドマークが存在しな
い場合においても、ランドマークを生成する手法を説明
する。
【0077】第8図は、ユーザが前もって道路にランド
マークをおいた状態を示している。即ち、この場合のラ
ンドマークは、見分けやすい(画像認識しやすい)特有
の蛍光色を付されたマーカLMnを多数道路に配置するの
である。このうち、3つのランドマークLM1〜LM3につい
ては世界座標が既知の位置に配置する。
【0078】上記の特定マーカLM1〜LM3がカメラ視野に
入る間は、ユーザが何処に移動しようとも、上記特定マ
ーカLM1〜LM3をカメラ視野に捉えている限りは、世界座
標が既知のマーカLM1〜LM3の画像を取得できるので、上
記実施形態の手法を適用できる。
【0079】もしユーザが、マーカLM1〜LM3のいずれか
が視野に入らないような位置に移動したい場合には次の
ようにする。
【0080】即ち、例えば、第8図で、マーカLMの位
置にカメラをおいて、位置が既知のマーカLM1〜LM3が視
野に入るようにカメラを向ける。そして、カメラパラメ
ータ推定アルゴリズムを適用し、カメラ位置を求めれ
ば、それがマーカLM7の世界座標となる。
【0081】この手法を、世界座標が不明であるような
マーカを使わざるを得ない場合に適用すると、そのマー
カの世界座標値は既知となるので、効率は悪いが、第4
図の制御手順を適用することができるようになる。
【0082】尚、初期位置において、世界座標を知るマ
ーカを1つしか使うことができない場合には以下のよう
にする。即ち、第9図において、LM0を位置が既知のマ
ーカとすると、そのマーカLM0から既知の相対位置に2
つのマーカLM1,LM2を設定する。この設定は巻き尺など
を用いる。これにより、マーカLM0, LM1, LM2の全ての
座標値は既知となる。
【0083】〈変形例〉例えば、可動式のマーカを設置
し、マンホールとの相対位置関係を前もって計測し、こ
れらをデータベースに登録することにより、これら可動
式のマーカをマンホールの変わりに使うこともできる。
尚、マーカは可動式でなくとも、例えば地面に埋め込ん
でおいても良い。
【0084】更に、道路などでシミュレーションを行う
場合には、道路上の特有な形状、例えば道路のセンター
ライン、さらには、道路標識、信号機(特有の色を有す
る)などをマンホールの代わりのマーカとすることがで
きる。これらのマーカを認識するには、Hough変換の代
わりにテンプレートマッティング法を採用する。
【0085】M2: 上記実施形態および実施例では、
1台のカメラを用いていたが2台のカメラを用いても良
い。2台のカメラを用いるときは、周知のステレオマッ
チングの手法によってランドマークの奥行き値をもとめ
ることができる。このようにすると1台の場合に比べ
て、奥行き推定の精度を上げることができる。また、ス
テレオマッチングの対応付けを人間の手で与えれば、演
算量を増加させずに済む。 M3: マンホールの検出は上記実施形態ではHough変
換を用いたが、テンプレートマッティングを用いても良
い。その理由は、マンホールは特有の色を付されている
場合が多く、その色を付された部分を抽出するのは、Ho
ugh変換の前処理として必要なエッジ検出に比して比較
的容易だからである。 M4: 上記実施形態では、位置センサを用いなかった
が、補助的に位置センサ(例えば、ジャイロ、磁気セン
サ、光学センサ)を用いても良い。これらの位置センサ
の出力は、画像フレームからマンホールや特徴点を抽出
するときの補正要素として利用できる。 M5: 前述の実施形態では、第4図のステップS1
8,ステップS20において、動きベクトルの検出、さ
らには画像の再構成を行っていたが、ユーザの移動距離
が小さい場合には、上記2つのステップを省略すること
ができる。その代わりに、今回のフレームで検出した複
数のマンホールの各重心の中で、全開のフレームで検出
したマンホールの重心位置に近いのもの同士を同一のマ
ンホールとして同定するものである。
【0086】
【発明の効果】以上説明したように、本発明によれば、
3つのマークによって、特に屋外においてカメラの位置
姿勢を正確に且つ簡単に検出することができる。
【図面の簡単な説明】
【図1】 本発明の位置姿勢検出方法を適用した埋設物
シミュレーション装置の構成を説明する図。
【図2】 実施形態に用いるランドマークの配置を説明
する図。
【図3】 実施形態に用いるランドマークの配置の他の
例を説明する図。
【図4】 実施形態の制御手順を示すフローチャート。
【図5】 世界座標値が既知のランドマークのデータを
記憶するデータベースの構成を説明する図。
【図6】 実施形態によるカメラ姿勢パラメータを決定
する原理を説明する図。
【図7】 動きベクトルを説明する図。
【図8】 他の実施形態におけるランドマークの配置を
説明する図。
【図9】 他の実施形態におけるランドマークの配置を
説明する図。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 山本 裕之 横浜市西区花咲町6丁目145番地 横浜花 咲ビル 株式会社エム・アール・システム 研究所内 Fターム(参考) 2F065 AA04 AA17 AA37 BB15 BB27 FF04 FF09 QQ24 QQ27 QQ39 SS02 SS13 UU05 5B057 DA07 DB03 DC08

Claims (14)

    【特許請求の範囲】
  1. 【請求項1】 世界座標系での位置が知られた第1乃至
    第3のマークとを含む画像をユーザと共に移動するカメ
    ラにより取得し、 この画像を処理して前記3つのマークの画像座標を夫々
    取得し、 画像中での夫々のマークと、世界座標値が既知のマーク
    とを対応付け、 対応関係に基づいて、前記カメラの位置姿勢決定のため
    のパラメータを演算して出力することを特徴とする視点
    位置姿勢の決定方法。
  2. 【請求項2】 演算されたパラメータを用いてコンピュ
    ータ仮想画像を生成し、その仮想画像をユーザに呈示す
    ることを特徴とする請求項1に記載の視点位置姿勢の決
    定方法。
  3. 【請求項3】 前記第1のマークの世界座標値は既知で
    あり、第2と第3のマークは、前記第1のマークに対す
    る相対位置が既知であることを特徴とする請求項1に記
    載の視点位置姿勢の決定方法。
  4. 【請求項4】 さらに、 位置が既知の前記第1のマークからの方向および距離
    を、前記第2のマークと第3のマークについて測定し、
    その測定結果を基に、前記第2と第3のマークの世界座
    標値とすることを特徴とする請求項1に記載の視点位置
    姿勢の決定方法。
  5. 【請求項5】 前記カメラが1つである場合において、 前記3つのランドマークの画像座標に基づいて、前記3
    つのマークの奥行き情報を得、 前記3つのマークについて得られた、画像座標と奥行き
    情報とに基づいて前記パラメータを演算することを特徴
    とする請求項1に記載の視点位置姿勢の決定方法。
  6. 【請求項6】 前記カメラが2つである場合において、 その2つのカメラからの画像に基づいてマークを同定す
    ることを特徴とする請求項1に記載の視点位置姿勢の決
    定方法。
  7. 【請求項7】 前記マークはマンホールであることを特
    徴とする請求項1に記載の視点位置姿勢の決定方法。
  8. 【請求項8】 前記マークは既知の位置に前もって複数
    配置されていることを特徴とする請求項1に記載の視点
    位置姿勢の決定方法。
  9. 【請求項9】 前記マークの一部のマークの世界座標
    を、既知のマークの世界座標と前記取得画像とに基づい
    て求めることを特徴とする請求項1に記載の視点位置姿
    勢の決定方法。
  10. 【請求項10】 前記マークは所定の形状を有する物体
    であって、前記座標は当該物体の画像中の重心位置であ
    ることを特徴とする請求項1に記載の視点位置姿勢の決
    定方法。
  11. 【請求項11】 ユーザが移動した場合には、 移動後の画像に基づいて動きベクトルを算出し、 移動後の前記画像中に検出したマーカの画像座標と、移
    動前の画像中に対応付けたマーカを前記ベクトルに基づ
    いて補正して得たマーカの画像座標とを比較することに
    より、移動後の前記画像中に複数のマーカを同定するこ
    とを特徴とする請求項1に記載の視点位置姿勢の決定方
    法。
  12. 【請求項12】 請求項1乃至11のいずれかに記載の
    視点位置姿勢の決定方法を実行するコンピュータプログ
    ラムを記憶する記憶媒体。
  13. 【請求項13】 請求項12に記載の記憶媒体を装着し
    たコンピュータ装置。
  14. 【請求項14】 前記カメラは屋外の画像を撮影するこ
    とを特徴とする請求項1に記載の視点位置姿勢の決定方
    法。
JP11080000A 1999-03-24 1999-03-24 視点位置姿勢の決定方法、コンピュータ装置および記憶媒体 Pending JP2000275013A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11080000A JP2000275013A (ja) 1999-03-24 1999-03-24 視点位置姿勢の決定方法、コンピュータ装置および記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11080000A JP2000275013A (ja) 1999-03-24 1999-03-24 視点位置姿勢の決定方法、コンピュータ装置および記憶媒体

Publications (1)

Publication Number Publication Date
JP2000275013A true JP2000275013A (ja) 2000-10-06

Family

ID=13706048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11080000A Pending JP2000275013A (ja) 1999-03-24 1999-03-24 視点位置姿勢の決定方法、コンピュータ装置および記憶媒体

Country Status (1)

Country Link
JP (1) JP2000275013A (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003050107A (ja) * 2001-08-07 2003-02-21 Matsushita Electric Ind Co Ltd カメラ校正装置
JP2003344018A (ja) * 2003-04-04 2003-12-03 Canon Inc 画像処理装置およびその方法並びにプログラム、記憶媒体
WO2005038710A1 (ja) * 2003-10-17 2005-04-28 Matsushita Electric Industrial Co., Ltd. 移動体動き算出方法および装置、並びにナビゲーションシステム
US6968084B2 (en) 2001-03-06 2005-11-22 Canon Kabushiki Kaisha Specific point detecting method and device
US7193636B2 (en) 2001-03-06 2007-03-20 Canon Kabushiki Kaisha Image processing device and method therefor and program codes, storing medium
JP2007147341A (ja) * 2005-11-24 2007-06-14 Topcon Corp 3次元データ作成方法及び3次元データ作成装置
JP2007525663A (ja) * 2004-01-30 2007-09-06 エレクトロニック・スクリプティング・プロダクツ・インコーポレイテッド 長寸の物体の姿勢から得られた姿勢データの処理方法及び装置
JP2008052403A (ja) * 2006-08-23 2008-03-06 Univ Of Tokyo 2次元位置情報がコード化された模様、当該模様を用いた位置同定システム及び方法
JP2008224454A (ja) * 2007-03-13 2008-09-25 Canon Inc 情報処理装置、情報処理方法
JP2008275391A (ja) * 2007-04-26 2008-11-13 Canon Inc 位置姿勢計測装置及び位置姿勢計測方法
JP2008292407A (ja) * 2007-05-28 2008-12-04 Canon Inc 情報処理方法及び情報処理装置
JP2010261785A (ja) * 2009-05-01 2010-11-18 Nippon Hoso Kyokai <Nhk> カメラ校正装置およびカメラ校正プログラム
WO2011043275A1 (ja) * 2009-10-06 2011-04-14 株式会社 トプコン 3次元データ作成方法及び3次元データ作成装置
JP2012103116A (ja) * 2010-11-10 2012-05-31 Nippon Telegr & Teleph Corp <Ntt> カメラポーズ情報算出装置およびカメラポーズ情報算出プログラム
CN103217111A (zh) * 2012-11-28 2013-07-24 西南交通大学 一种非接触式接触线几何参数检测方法
EP3113110A1 (en) 2015-06-16 2017-01-04 Fujitsu Limited Image processing device and image processing method
JP2017116280A (ja) * 2015-12-21 2017-06-29 公立大学法人大阪市立大学 カメラ較正システム、カメラ較正プログラム、及びカメラ較正方法
JP2021042978A (ja) * 2019-09-06 2021-03-18 日本電気株式会社 計測装置および計測方法

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7454065B2 (en) 2001-03-06 2008-11-18 Canon Kabushiki Kaisha Specific point detecting method and device
US6968084B2 (en) 2001-03-06 2005-11-22 Canon Kabushiki Kaisha Specific point detecting method and device
US7193636B2 (en) 2001-03-06 2007-03-20 Canon Kabushiki Kaisha Image processing device and method therefor and program codes, storing medium
US7587295B2 (en) 2001-03-06 2009-09-08 Canon Kabushiki Kaisha Image processing device and method therefor and program codes, storing medium
JP2003050107A (ja) * 2001-08-07 2003-02-21 Matsushita Electric Ind Co Ltd カメラ校正装置
JP2003344018A (ja) * 2003-04-04 2003-12-03 Canon Inc 画像処理装置およびその方法並びにプログラム、記憶媒体
WO2005038710A1 (ja) * 2003-10-17 2005-04-28 Matsushita Electric Industrial Co., Ltd. 移動体動き算出方法および装置、並びにナビゲーションシステム
US7542834B2 (en) 2003-10-17 2009-06-02 Panasonic Corporation Mobile unit motion calculating method, apparatus and navigation system
JP2007525663A (ja) * 2004-01-30 2007-09-06 エレクトロニック・スクリプティング・プロダクツ・インコーポレイテッド 長寸の物体の姿勢から得られた姿勢データの処理方法及び装置
JP4809778B2 (ja) * 2004-01-30 2011-11-09 エレクトロニック・スクリプティング・プロダクツ・インコーポレイテッド 長寸の物体の姿勢から得られた姿勢データの処理方法及び装置
JP2007147341A (ja) * 2005-11-24 2007-06-14 Topcon Corp 3次元データ作成方法及び3次元データ作成装置
US8077197B2 (en) 2005-11-24 2011-12-13 Kabushiki Kaisha Topcon Three-dimensional data preparing method and three-dimensional data preparing device
JP2008052403A (ja) * 2006-08-23 2008-03-06 Univ Of Tokyo 2次元位置情報がコード化された模様、当該模様を用いた位置同定システム及び方法
JP2008224454A (ja) * 2007-03-13 2008-09-25 Canon Inc 情報処理装置、情報処理方法
JP2008275391A (ja) * 2007-04-26 2008-11-13 Canon Inc 位置姿勢計測装置及び位置姿勢計測方法
JP2008292407A (ja) * 2007-05-28 2008-12-04 Canon Inc 情報処理方法及び情報処理装置
JP2010261785A (ja) * 2009-05-01 2010-11-18 Nippon Hoso Kyokai <Nhk> カメラ校正装置およびカメラ校正プログラム
JP2011080845A (ja) * 2009-10-06 2011-04-21 Topcon Corp 3次元データ作成方法及び3次元データ作成装置
WO2011043275A1 (ja) * 2009-10-06 2011-04-14 株式会社 トプコン 3次元データ作成方法及び3次元データ作成装置
JP2012103116A (ja) * 2010-11-10 2012-05-31 Nippon Telegr & Teleph Corp <Ntt> カメラポーズ情報算出装置およびカメラポーズ情報算出プログラム
CN103217111A (zh) * 2012-11-28 2013-07-24 西南交通大学 一种非接触式接触线几何参数检测方法
EP3113110A1 (en) 2015-06-16 2017-01-04 Fujitsu Limited Image processing device and image processing method
US10102647B2 (en) 2015-06-16 2018-10-16 Fujitsu Limited Image processing device, image processing method, and non-transitory computer-readable storage medium that determines camera position based on a comparison of estimated postures
JP2017116280A (ja) * 2015-12-21 2017-06-29 公立大学法人大阪市立大学 カメラ較正システム、カメラ較正プログラム、及びカメラ較正方法
JP2021042978A (ja) * 2019-09-06 2021-03-18 日本電気株式会社 計測装置および計測方法
JP7363225B2 (ja) 2019-09-06 2023-10-18 日本電気株式会社 計測装置、計測システム、計測方法およびプログラム

Similar Documents

Publication Publication Date Title
JP2000275013A (ja) 視点位置姿勢の決定方法、コンピュータ装置および記憶媒体
TWI574223B (zh) 運用擴增實境技術之導航系統
US7424174B2 (en) Image processing device
US7664341B2 (en) Index layout measurement method, position and orientation estimation method, index layout measurement apparatus, and position and orientation estimation apparatus
US7529387B2 (en) Placement information estimating method and information processing device
JP4976756B2 (ja) 情報処理方法および装置
JP3486613B2 (ja) 画像処理装置およびその方法並びにプログラム、記憶媒体
US8335400B2 (en) Information processing method and information processing apparatus
US10930008B2 (en) Information processing apparatus, information processing method, and program for deriving a position orientation of an image pickup apparatus using features detected from an image
US20050253870A1 (en) Marker placement information estimating method and information processing device
JP6338021B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN108406731A (zh) 一种基于深度视觉的定位装置、方法及机器人
US20060227211A1 (en) Method and apparatus for measuring position and orientation
EP3244371B1 (en) Augmented image display using a camera and a position and orientation sensor unit
US20060050087A1 (en) Image compositing method and apparatus
JP2003344018A (ja) 画像処理装置およびその方法並びにプログラム、記憶媒体
JP2005326275A (ja) 情報処理方法および装置
JP4242529B2 (ja) 関連情報呈示装置及び関連情報呈示方法
CN110388919A (zh) 增强现实中基于特征图和惯性测量的三维模型定位方法
JP2002532770A (ja) 映像に関連してカメラポーズを決定する方法及びシステム
WO2011048497A2 (en) Computer vision based hybrid tracking for augmented reality in outdoor urban environments
JP2008046749A (ja) 画像処理方法および装置
US9811889B2 (en) Method, apparatus and computer program product for generating unobstructed object views
JP6109213B2 (ja) 情報処理装置および方法、プログラム
JP4926598B2 (ja) 情報処理方法、情報処理装置