JP5801209B2 - カメラ姿勢推定装置、プログラム - Google Patents

カメラ姿勢推定装置、プログラム Download PDF

Info

Publication number
JP5801209B2
JP5801209B2 JP2012001188A JP2012001188A JP5801209B2 JP 5801209 B2 JP5801209 B2 JP 5801209B2 JP 2012001188 A JP2012001188 A JP 2012001188A JP 2012001188 A JP2012001188 A JP 2012001188A JP 5801209 B2 JP5801209 B2 JP 5801209B2
Authority
JP
Japan
Prior art keywords
camera
sphere
estimation unit
dimensional coordinates
camera position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012001188A
Other languages
English (en)
Other versions
JP2013140547A (ja
Inventor
小林 達也
達也 小林
加藤 晴久
晴久 加藤
米山 暁夫
暁夫 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2012001188A priority Critical patent/JP5801209B2/ja
Publication of JP2013140547A publication Critical patent/JP2013140547A/ja
Application granted granted Critical
Publication of JP5801209B2 publication Critical patent/JP5801209B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、カメラ姿勢推定装置、プログラムに関する。
近年、現実空間の映像をコンピュータで処理して更なる情報を付加するAR(拡張現実感)技術が、種々の電子機器(例えば、WEBカメラが接続されたPC、カメラ付き携帯電話端末)上において、実現されるようになっている。
AR技術においては、カメラ画像内の立体対象物に対するカメラ姿勢(カメラの外部パラメータであるカメラ位置及びカメラ方向(回転))を推定する必要がある。カメラ姿勢の推定に、球体を立体対象物として用いる技術が開示されている(例えば、特許文献1、2参照)。
特表2010−519629号公報 特開2011−118724号公報
一般に、カメラ姿勢の推定技術において、推定精度の向上、及び、推定時の計算コストの低減は、課題になっている。特に、AR技術に用いる場合には、所望の位置に迅速に仮想的な映像を表示させるために、推定精度の向上、及び、推定時の計算コストの低減は、非常に重要である。この点、特許文献1、2の技術は、立体対象物である球体の位置(カメラ位置に相当)と球体の方向(カメラ方向に相当)とを、独立に計算する手法を用いる技術であるため、例えば、球体の位置と球体の方向とを同時に計算する手法に比べ、推定時の計算コストは低減する。
しかしながら、特許文献1、2の技術は、光源や特別な模様の球体を用いた技術であるため、光源や特別な模様を用いない一般的な球体を対象立体物とした場合には、推定精度に問題が生じる。即ち、特許文献1、2の技術は、AR技術に適用する場合、推定精度において、また、一般的な球体を前提としていないため適用範囲において、問題がある。
本発明は、上述の課題を鑑みてなされたものであり、カメラ姿勢の推定精度を向上させるとともに、推定時の計算コストを低減させる技術を提供する。具体的には、一般的な球体を利用したAR技術に適用し得るカメラ姿勢の推定技術を提供する。
上記問題を解決するために、球体を撮影したカメラ画像と、当該球体の半径情報とを利用して、当該球体に対するカメラ位置を推定するカメラ位置推定部と、前記カメラ位置推定部によって推定された当該球体に対するカメラ位置と、当該球体の特徴点とその3次元座標とで構成される参照情報とを利用して、当該球体に対するカメラ方向を推定するカメラ方向推定部とを備えることを特徴とする。
上記カメラ姿勢推定装置において、前記カメラ位置推定部は、撮影された球体の前記カメラ画像内の輪郭形状に基づいて前記カメラ位置を推定するようにしてもよい。
上記カメラ姿勢推定装置において、前記カメラ位置推定部は、前記カメラ位置の推定過程において、前記カメラ画像内の楕円パラメータを推定するようにしてもよい。
上記カメラ姿勢推定装置において、前記カメラ位置推定部は、楕円パラメータに関する2つの制約条件を用いて楕円パラメータを推定するようにしてもよい。
上記カメラ姿勢推定装置において、前記カメラ位置推定部は、前記カメラ画像から当該球体の輪郭線を含むエッジを抽出し、前記エッジから3点をサンプリングし、前記3点と前記2つの制約条件とを用いて前記楕円パラメータをロバスト推定するようにしてもよい。
上記カメラ姿勢推定装置において、前記カメラ方向推定部は、前記カメラ画像から特徴点を抽出し、前記カメラ画像内の特徴点と前記参照情報内の特徴点とを照合して対応関係にある特徴点の組を取得し、前記カメラ画像内の特徴点のうち前記参照情報内の特徴点と対応関係にある特徴点の2次元座標を逆投影して得られる3次元座標と、前記参照情報内の特徴点の3次元座標のうち前記カメラ画像内の特徴点と対応関係にある特徴点の3次元座標の組を生成し、前記カメラ方向を推定するようにしてもよい。
上記カメラ姿勢推定装置において、前記カメラ方向推定部は、前記カメラ方向の推定過程において、球体の方程式を利用した逆投影処理によって、前記カメラ画像内の当該球体の特徴点の2次元座標に対応する当該球体の3次元座標を取得するようにしてもよい。
上記カメラ姿勢推定装置において、前記カメラ方向推定部は、2組の3次元座標の組をサンプリングして照合し、球体に対するカメラ方向をロバスト推定するようにしてもよい。
上記カメラ姿勢推定装置において、前記カメラ位置推定部は、反復アルゴリズムを使用してエッジの3次元座標の再投影誤差関数が最小になるカメラ位置を算出し、前記カメラ方向推定部は、反復アルゴリズムを使用して特徴点の3次元座標の再投影誤差関数が最小になるカメラ方向を算出するようにしてもよい。
上記カメラ姿勢推定装置において、前記カメラ位置推定部は、球体部分を含む立体対象物の当該球体部分に対するカメラ位置を推定し、前記カメラ方向推定部は、前記カメラ位置推定部によって推定された当該球体部分に対するカメラ位置と、当該球体の特徴点とその3次元座標とで構成される参照情報とを利用して、当該球体部分に対するカメラ方向を推定するようにしてもよい。
上記問題を解決するために、本発明の他の態様であるプログラムは、カメラ姿勢を推定するカメラ姿勢推定装置のコンピュータに、球体を撮影したカメラ画像と、当該球体の半径情報とを利用して、当該球体に対するカメラ位置を推定するカメラ位置推定ステップと、前記カメラ位置推定ステップによって推定された当該球体に対するカメラ位置と、当該球体の特徴点とその3次元座標とで構成される参照情報とを利用して、当該球体に対するカメラ方向を推定するカメラ方向推定ステップとを実行させることを特徴とする。
本発明によれば、カメラ姿勢の推定精度を向上させるとともに、推定時の計算コストを低減させることができる。
本発明の実施形態であるカメラ姿勢推定装置20を含むARシステム1の概念図である。 カメラ姿勢推定装置20の機能ブロック図の一例である。 ピンホールカメラモデルによる球の投影の幾何を表した模式図である。 ピンホールカメラモデルによる球の投影の幾何を表した模式図である。 ピンホールカメラモデルによる球状立体物の射影の幾何を表した模式図である。 カメラ方向推定部300の処理を説明するための模式図である
以下、本発明の実施形態について図面を参照して詳細に説明する。図1は、本発明の実施形態であるカメラ姿勢推定装置20を含むARシステム1の概念図である。ARシステム1は、図1に示すように、撮像装置10、カメラ姿勢推定装置20、表示装置30、付加情報データベース90から構成される。
撮像装置10は、撮像画像(カメラ画像、又は、2次元画像とも称する)を取得する装置である。撮像装置10の一例は、図1に示すように、WEBカメラである。但し、撮像装置10は、WEBカメラの如く独立した装置でなく、例えば、カメラ付き携帯電話端末に搭載されているカメラモジュールのように、他の装置と一体化、若しくは、他の装置の一部を構成するものであってもよい。撮像装置10、立体対象物を撮像したカメラ画像(立体対象物が写っているカメラ画像)を連続的に取得する。撮像装置10は、カメラ姿勢推定装置20及び表示装置30にカメラ画像を出力する。
ARシステム1において使用する立体対象物は、球体形状を有する立体対象物(一部又は全部が球体である立体対象物。例えば様々な種類のボールや地球儀)である。図1に示す例では、球状の地球儀を用いているが、その他の球体形状を有する立体物を用いても、同様のARシステムが構築可能である。
カメラ姿勢推定装置20は、撮像装置10から出力されたカメラ画像を取得する。カメラ画像を取得したカメラ姿勢推定装置20は、立体対象物に対するカメラの相対的な姿勢、即ち、カメラ姿勢を推定する(詳細は後述)。一般に、カメラ姿勢は、カメラの外部パラメータと呼ばれ、行列の形で表される。外部パラメータ(カメラ姿勢)には、3次元空間内のカメラの位置(カメラ位置)、カメラの方向(カメラ方向)の情報が含まれる。画面内の物体の見え方は、カメラの外部パラメータと、カメラの内部パラメータと、その他光学的歪みのパラメータとによって決定される。カメラの内部パラメータには、カメラ固有の焦点距離、主軸の位置の情報が含まれる。本実施形態では内部パラメータや歪みパラメータは予めカメラキャリブレーション等によって取得され、歪みは取り除かれていることとする。
カメラ姿勢(外部パラメータ)を推定したカメラ姿勢推定装置20は、表示装置30にカメラ姿勢を出力する。なお、ARシステム1において、複数の立体対象物を用いる場合には、カメラ姿勢推定装置20は、カメラ姿勢とともに、カメラ姿勢の推定する際に利用した立体対象物を識別する情報を表示装置30に出力する。
付加情報データベース90は、表示装置30に出力する立体対象物に関する付加情報を記憶する記憶装置である。PCのHDD、携帯端末のメモリモジュールなどが付加情報データベース90に該当する。
付加情報の一例は、表示装置30の表示画面上において立体対象物に重畳して表示させるCG、他の画像、文字情報である。カメラ姿勢推定装置20によってカメラ姿勢が推定された場合、付加情報データベース90から当該カメラ姿勢に応じた付加情報が読み出され、表示装置30に出力され、表示装置30の表示画面上において、立体対象物に重畳して表示される。
付加情報は、表示部30からの要求に応じて表示装置30に出力されてもよいし、カメラ姿勢推定装置20からの制御(出力指示)に応じて表示装置30に出力されてもよい。
重畳表示の応用例は、立体対象物の種類に応じて異なるが、図1に示すように、立体対象物として地球儀を用いる場合には、カメラ画像内の地球儀に対し、気象情報(例えば、天気図、温度分布)の重畳表示、地理的情報(例えば、高度を視覚できる表示態様による地表の情報、各種資源の埋蔵位置/埋蔵量に関する情報、過去の大陸形状/予想される未来の大陸形状)の重畳表示、社会的情報(例えば、現在の国名、国境、及び、国境、国名の更新情報、何らかの勢力分布/構成割合を示す情報)の重畳表示といった応用例が想定される。更に、ジェスチャー認識技術を更に用いて、指差した位置(指示位置)に応じた情報(例えば、指示位置を領土/領海とする国名、国旗、国境線)を重畳表示するといった応用例も考えられる。
表示装置30は、撮像装置10が連続的に取得したカメラ画像をユーザに掲示する装置である。表示装置30の一例は、図1に示すようなモニタである。但し、表示装置30は、図1に示したモニタの如く独立した装置でなく、例えば、カメラ付き携帯電話端末における表示部(表示制御部及びディスプレイ)のように、他の装置と一体化、若しくは、他の装置の一部を構成するものであってもよい。また、表示装置30は、ヘッドマウントディスプレイ(HMD)のような形態であってもよい。
表示装置30としてモニタ(ディスプレイ)を用いる場合には、カメラ画像に、付加情報データベース90から入力された付加情報を、カメラ姿勢推定装置20から入力されたカメラ姿勢によって補正された位置に重畳表示する。また、表示部がシースルー形の表示装置30(例えば、シースルー型のHMD)を用いる場合には、カメラ画像を表示せず、視界に付加情報のみを表示してもよい。
なお、カメラ付き携帯電話端末に搭載されているカメラモジュール及び表示部が、ARシステム1の撮像装置10及び表示装置30と成り得る旨を説明したが、例えば、携帯端末(ノートPC、携帯電話端末、携帯型ゲーム機)上で、ARシステム1全体を構成してもよい。
(カメラ姿勢推定装置20の構成)
図2は、カメラ姿勢推定装置20の機能ブロック図の一例である。カメラ姿勢推定装置20は、図2に示すように、カメラ位置推定部200、及び、カメラ方向推定部300を備える。カメラ姿勢推定装置20は、対象物である球体が写っている(可能性がある)カメラ画像と、当該球体の半径の情報(半径情報r)と、当該球体の参照情報の3点を用いてカメラ姿勢を推定する。
参照情報とは、対象物(具体的には、球体)の特徴点(画像内の2次元座標とその周囲の局所的な画素情報を表す特徴量とを含む)とその3次元座標(特徴点の2次元座標を3次元座標で表したもの)であって、予め取得し、参照情報データベース(非図示)に登録しておいたものである。なお、カメラ姿勢推定装置20(例えば、カメラ方向推定部300)が、参照情報データベースを有していてもよいし、カメラ姿勢推定装置20が参照可能な外部の装置が参照情報データベースを有していてもよい。
カメラ姿勢推定装置20は、カメラ画像をカメラ位置推定部200とカメラ方向推定部300の両方に入力する。また、カメラ姿勢推定装置20は、当該球体の半径情報rをカメラ位置推定部200に入力する。また、カメラ姿勢推定装置20は、当該球体の参照情報をカメラ方向推定部300に入力する。カメラ姿勢推定装置20は最終的にカメラ位置推定部200が推定したカメラ位置と、カメラ方向推定部300が推定したカメラ方向を合わせて、カメラ姿勢として出力する。
(カメラ位置推定部200)
カメラ位置推定部200は、撮像装置10から入力されたカメラ画像と球状対象物に対するカメラ位置(撮像装置10の位置)を当該球状対象物のカメラ画像内の輪郭形状を利用して推定する。
まず、カメラ位置推定部200は、入力されたカメラ画像から例えば、エッジ検出器(例えばCannyエッジ検出器)を用いてカメラ画像内のエッジ情報を取得する。カメラ位置推定部200は、立体対象物が単色である場合等や背景との輝度差が大きい場合には、輝度情報や色差情報を用いて適当な閾値で二値化処理を行い、その輪郭をエッジ情報としてもよい。次いで、カメラ位置推定部200は、エッジ情報を元にカメラ位置のパラメータを推定する。カメラ位置推定部200は、一般にカメラ位置のパラメータ(球に対するカメラの3次元座標値)を用いることで球の投影後の輪郭が特定できることを利用して、エッジ情報内の球の輪郭部分と、投影後の球の輪郭が一致するようなカメラ位置のパラメータを推定する。
なお、カメラ位置推定部200が推定するカメラ位置は、最終的にカメラ姿勢推定装置20が表示装置10に出力するカメラ姿勢(外部パラメータ)の一部を構成する。また、カメラ位置推定部200が推定したカメラ位置は、同じくカメラ姿勢推定装置20の一部を構成するカメラ方向推定部300のカメラ方向推定処理に利用される。
(カメラ位置推定部200/楕円検出)
カメラ位置推定部200は、カメラ位置のパラメータを推定する際に、カメラ画像内の楕円パラメータを推定し、楕円パラメータからカメラ位置パラメータを算出してもよい。この場合カメラ位置推定部200は、エッジ情報を元にカメラ画像内の球の輪郭である楕円パラメータを推定する(詳細は後述)。次いで、カメラ位置推定部200は、推定した楕円パラメータと、球とピンホールカメラモデルの幾何情報とを利用して、カメラ位置として、球に対するカメラの3次元座標値を算出する(詳細は後述)。
(カメラ位置推定部200/楕円検出/楕円パラメータの推定)
図3、4は、ピンホールカメラモデルによる球の投影の幾何を表した模式図である。
図3に示すように、球の中心Oがカメラの光軸上に存在する場合、球の輪郭はカメラ画像内で正確な円となるが、カメラの光軸からずれた場合には、球の輪郭はカメラ画像内では楕円となる。以下、図4に示すように、楕円のパラメータの5つの要素である、長軸の長さ(長径)をa、短軸の長さ(短径)をb、長軸と短軸の交点の座標を(x、y)、カメラ画像のx軸とカメラ画像の中心及び(x、y)を通る直線とがなす角度をθとする。
球を撮像したカメラ画像の場合、楕円のパラメータには、下記式(1)(2)の制約条件が存在する。
Figure 0005801209
一般にエッジ情報には球体の輪郭以外のエッジも多く含まれているため、輪郭以外のエッジ(アウトライア)を除外するRANSACやLMedSに代表されるロバスト推定手法を用いるとよい。
カメラ位置推定部200は、カメラ画像内のエッジ(カメラ画像内のエッジ情報を構成する個々の画素)から3点をサンプリングし、サンプリングした3点と、上述の制約条件とを用いて楕円パラメータをロバスト推定する。即ち、楕円検出は、一般に、エッジ情報から5点をサンプルして楕円パラメータを推定するが、カメラ位置推定部200は、上記式(1)(2)を用いることで3点をサンプルして楕円パラメータを推定することができる。上記式(1)(2)の制約条件を用いることによって、サンプル点に輪郭以外のエッジが含まれる確率が大幅に低下するため、カメラ位置推定部200の計算負荷は、大幅に削減する。
また、カメラ位置推定部200は、カメラ画像内のエッジから5点をサンプリングし、サンプリングした5点を用いて楕円パラメータをロバスト推定し、ロバスト推定によって得られる複数の楕円パラメータの候補の中から制約条件に最も合致する一の楕円パラメータを選択するようにしてもよい。即ち、カメラ位置推定部200は、エッジ情報から5点をサンプルして楕円パラメータをロバスト推定することを繰り返し、楕円パラメータの候補を複数取得し、複数の候補の中から上記式(1)(2)の制約条件を最も満たしている楕円パラメータを採用するようにしてもよい。例えば、カメラ位置推定部200は、下記式(3)のコストが最小となる楕円パラメータを採用する。なお、下記式(3)のeは、上記式(2)に示した値である。
Figure 0005801209
カメラ位置推定部200は、上述の如く、3点又は5点のサンプリングによって下記(4)に示す楕円パラメータPを推定する。
Figure 0005801209
また、カメラ位置推定部200は、ロバスト推定によって特定された球の輪郭(楕円)であるエッジのみを用いて、最小二乗アルゴリズムによって楕円パラメータPの精度を向上させてもよい。
(カメラ位置推定部200/円検出)
また、カメラ位置推定部200は、カメラ画像中の球の輪郭である楕円の形状が多くの場合円に近いため、Hough円変換に代表される円検出アルゴリズムを用いて楕円パラメータPを推定してもよい(この場合の楕円パラメータPの要素は、a=b、θは不定である)。円の方が楕円よりパラメータPが少ない(5→3)ため、高速に楕円パラメータPを推定することが可能である。
(カメラ位置推定部200/カメラ位置算出)
カメラ位置推定部200は、楕円パラメータPを元にカメラ位置を算出する。カメラ位置t=[t,t,t]は、球の中心Oを原点とした際のカメラの焦点Cの3次元座標である。カメラ位置推定部200は、球体とピンホールカメラモデルの幾何を利用して、楕円パラメータから焦点Cの3次元座標を算出する。
本実施形態における、焦点Cの3次元座標の算出手法を詳細に記述する。カメラ位置推定部200は、球の中心座標Oと焦点Cとの距離dを下記式(5)から算出する。また、カメラ位置推定部200は、カメラ画像内の球の中心座標(x,y)を下記式(6)と角度θから算出する。
Figure 0005801209
そして、カメラ位置推定部200は、上記式(5)によって得られた距離dと、上記式(6)によって得られたカメラ画像内の球の中心座標(x1、y1)と、下記式(7)とから、焦点Cを算出する。
Figure 0005801209
カメラ位置推定部200は、上述の如く算出した、球体に対するカメラ位置(即ち、焦点C)を最終的なカメラ位置パラメータとする。なお、カメラ位置の算出手法は、上述の算出方法に限定されない。カメラ位置推定部200は、球体とピンホールカメラモデルの幾何を利用した他の算出手法を用いて、カメラ位置を算出してもよい。カメラ位置推定部200が他の算出手法を用いてカメラ位置を算出する場合であっても、楕円パラメータが、上記式(1)(2)の2つの制約条件を満たしていれば、カメラの焦点Cの3次元座標は一意に求まるため、何れの算出手法であっても本質的な差異はない。
(カメラ位置推定部/最適化)
カメラ位置推定部200は、予めカメラ位置パラメータの大まかな値(初期値)が与えられた場合に、エッジ情報内の球の輪郭部分と、投影後の球の輪郭が一致するようにカメラ位置パラメータを調整することでカメラ位置パラメータの精度を改善してもよい。この場合、まずカメラ位置推定部200は、球体に対するカメラの焦点C(即ち、カメラ位置)と球体の半径から輪郭となる球体の表面上の点列(球体の輪郭点列。下記(8)として示される)を特定する(輪郭自体は楕円であるため、一定間隔でサンプリングすれば点列を特定できる)。次にカメラ位置推定部200は、点列をカメラ画像上に投影し、最近傍のエッジ情報内の点(下記(9)として示される)と対応を取り、二乗誤差和を計算する。
Figure 0005801209
最後に、カメラ位置推定部200は、二乗誤差和が最小になるようにカメラ位置パラメータを調整する。具体的には、カメラ位置推定部200は、下記式(10)の再投影誤差関数を最小とするようなカメラ位置パラメータをニュートン法等の反復アルゴリズムを用いて計算する。
Figure 0005801209
なお、カメラ位置パラメータが変わると球体の輪郭点列も変わるため、上記最適化アルゴリズムは反復的に行う必要がある。これによって与えられた初期値の精度が悪い場合でも、最適なカメラ位置パラメータを取得することが可能になるため、例えばカメラ方向推定部300が初期値を前記円検出で推定し、最適化を実行することによって、楕円検出を行わずに高精度なカメラ位置パラメータを推定することが可能になる。
(カメラ方向推定部300)
カメラ方向推定部300は、入力されたカメラ画像と参照情報、カメラ位置推定部200が推定するカメラ位置パラメータを用いてカメラ方向パラメータを推定する。
カメラ方向推定部300は、まず、入力されたカメラ画像から特徴点(より詳細には、特徴点の2次元座標とそれに対応する特徴量の情報)を抽出する。例えば、Harrisコーナー検出器又はHessianキーポイント検出器等の特徴点検出器を用いて特徴点の2次元座標を取得する。特徴点検出器は、2次元座標を特定できるものであればあらゆる種類のものが使用可能である。また、エッジ情報を取得してそのエッジ情報をサンプリングし、特徴点の2次元座標として取り扱ってもよい。また、カメラ方向推定部300は、各特徴点固有の特徴量として、例えば、SIFT特徴量、SURF特徴量、BRIEF特徴量等の局所特徴量を用いる。
カメラ方向推定部300は、次に、カメラ画像から抽出された特徴点を、入力された参照情報内の特徴点と比較して、一致する特徴点の組み合わせを取得する。つまり、カメラ方向推定部300は、対象物の参照情報をカメラ画像から取得した特徴点と照合し、一致する特徴点の組み合わせを取得する(詳細は後述)。
次いで、カメラ方向推定部300は、一致した組み合せの特徴点の2次元座標を、球とピンホールカメラモデルの幾何情報を利用して3次元座標に変換し、3次元座標の組み合わせから球の回転、即ち、カメラ方向を推定する。つまり、カメラ方向推定部300は、球体に対するカメラ方向の推定過程において、球体の方程式を利用した逆投影処理によって、カメラ画像内の当該球体の特徴点の2次元座標に対応する球体の3次元座標を取得する(詳細は後述)。
なお、カメラ方向推定部300が推定するカメラ方向は、カメラ位置推定部200が推定したカメラ位置とともに、最終的にカメラ姿勢推定装置20が表示装置10に出力するカメラ姿勢(外部パラメータ)を構成する。最終的にカメラ姿勢推定装置20は、カメラ位置推定部200が推定した球体に対するカメラ位置とカメラ方向推定部300が推定した球体に対するカメラ方向とを、球体に対するカメラ姿勢として表示装置10に出力する。
(カメラ方向推定部300/逆投影)
カメラ方向推定部300は、カメラ画像から抽出した特徴点の2次元座標を、球とピンホールカメラモデルの幾何情報と、カメラ位置を利用して、球体の3次元座標に変換する逆投影処理を行う。
一般に、逆投影処理は3次元ポリゴンモデルを利用して行われるが、本実施形態では立体対象物である球の方程式を利用した逆投影処理を行う。なお、以下、立体対象物の方程式を「数式モデル」とも称する。図5は、ピンホールカメラモデルによる球状立体物の射影の幾何を表した模式図である。
中心Oを原点とすると、球の方程式(球の数式モデル)は、下記式(11)によって表され、焦点を通る直線の方程式は、例えば、下記式(12)によって表される。但し、下記式(11)において、pは球上の点、rは球の半径である。また、下記式(12)において、qは直線上の点、Cは焦点(カメラ位置)、vは直線の方向ベクトルである。
Figure 0005801209
カメラ画像内の球の特徴点(2次元座標)に対応する球体の3次元座標は、上記式(11)の方程式によって示される球と、上記式(12)の方程式によって示される直線の交点であるため、カメラ方向推定部300は、上記式(11)(12)から、直線の方向ベクトルvを求め、p=qとして、上記交点の座標を計算することで、カメラ画像内の特徴点に対応する3次元座標を取得する。即ち、カメラ方向推定部300は、特徴点の2次元座標を、球とピンホールカメラモデルの幾何情報である上記式(11)(12)を利用して、球体の3次元座標に変換する。
なお、上記式(11)の半径rは、予め実測するなどして取得しておいてもよい。また、上記式(12)の焦点C(カメラ位置)は、例えば、カメラ位置推定部200を使用して推定してもよいし、手作業で位置合わせを行うことでも取得しておいてもよい。カメラ方向推定部300がカメラ位置推定部200の推定したカメラ位置パラメータを使用してカメラ画像から抽出した特徴点を逆投影する場合、焦点Cはカメラ位置パラメータを使用することになる。
カメラ方向推定部300は、上記式(11)(12)から複数の交点が得られた場合には、複数の交点の中から、最も焦点に近い一の3次元座標を選択する。これにより、カメラ画像内の特徴点と3次元座標とを正しく対応付けることができる。
また、カメラ方向推定部300は、上記式(11)(12)から交点を得られなかった場合には、特徴点が3次元立体物にないことを意味するため、参照情報を参照情報データベースから削除してもよい。
また、カメラ方向推定部300は、交点の座標計算の式が2次方程式であるため、判別式を用いて特徴点が3次元立体物上の点であるかどうかの判定を行ってもよい。
以上が数式モデルを利用した逆投影処理であり、カメラ方向推定部300は、これによって特徴点の2次元座標を球体の3次元座標に変換する。
カメラ方向推定部300は、カメラ画像から抽出した特徴点と、入力された特徴点(参照情報)とを比較し、照合処理を行う。照合処理は、特徴量の記述方法によって異なるが、本実施形態ではSIFTやSURF特徴量を用いるため、カメラ方向推定部300は、特徴ベクトルの距離が最も近い組み合わせを取得する。ここで、特徴ベクトルの距離に一定の閾値を設けることや、2番目に近い特徴ベクトルとの距離を考慮に入れるなどすることで照合精度を高めることが望ましい。特徴量が量子化、あるいはBRIEF特徴量などを用いるなどしてバイナリコードである場合は特徴ベクトルの距離(L2ノルム)ではなくハミング距離で比較するため、処理負荷を軽減することが可能である。
カメラ方向推定部300は、特徴点のマッチを取得した後、カメラ画像の特徴点については対応する2次元座標を取得し、入力された特徴点(参照情報)については対応する3次元座標(参照情報)を取得する。つまり、カメラ方向推定部300は、カメラ画像内の特徴点のうち参照情報内の特徴点と対応関係にある特徴点の2次元座標と、参照情報内の特徴点の3次元座標のうちカメラ画像内の特徴点と対応関係にある特徴点の3次元座標を取得する。
一般に2次元座標と3次元座標のマッチから、その関係を説明するカメラ姿勢(カメラの外部パラメータ)を推定する手法が検討されている。3次元座標と2次元座標の関係は一般的に、下記式(13)によって表される。但し、下記式(13)において、[u,v]Tは2次元ピクセル座標値である。[X,Y,Z]Tは、3次元座標値である。[・]Tは[・]の転置行列である。Aは、カメラの内部パラメータである。内部パラメータAは、予めカメラキャリブレーションによって求めておく。Wは、カメラの外部パラメータ(カメラ姿勢)である。
Figure 0005801209
なお、カメラ姿勢Wは、下記式(14)の回転行列Rと、下記式(15)の並進ベクトルtによって表される。即ち、カメラ姿勢Wは、下記式(16)のように表される。
Figure 0005801209
上記により、3次元座標[X,Y,Z,1]Tと2次元座標[u,v,1]Tとのマッチと、内部パラメータAを用いて、カメラ姿勢Wを推定することができる。
しかしながら、上記方式の場合、カメラ位置パラメータとカメラ方向パラメータの両方を同時に求めるために負荷が高い他、目標物が球体の場合に位置の誤差が生じやすく、特にモデルを重畳した際に輪郭がずれやすい。これは球体の輪郭付近の表面はカメラの光軸に対して勾配が大きいため、カメラ画像の投影像の歪みが大きく特徴点の対応が取りづらいことに起因する。また、最低でも4組の対応点を取得する必要がある。
ここで本発明におけるカメラ方向推定部300は、カメラ位置推定部200が推定したカメラ位置の情報を利用して、カメラ画像内の2次元座標も3次元座標に逆投影を行う。つまり、2次元座標−3次元座標間のマッチを3次元座標−3次元座標間のマッチとしている。換言すれば、カメラ方向推定部300は、カメラ画像内の特徴点のうち参照情報内の特徴点と対応関係にある特徴点の2次元座標を逆投影して得られる3次元座標と、参照情報内の特徴点の3次元座標のうちカメラ画像内の特徴点と対応関係にある特徴点の3次元座標の組を生成し、カメラ方向を推定するようにしている。
3次元座標−3次元座標間のマッチとしたため、下記アルゴリズムによって2組の3次元座標の対応から球体の幾何情報を利用して球体の回転行列を高速に算出することができる。
(カメラ方向推定部300/カメラ方向算出アルゴリズム)
カメラ方向推定部300は、取得した3次元座標のマッチを元に球体の回転行列、つまりカメラ方向を算出する。
3次元座標のマッチには一般に誤りが含まれているため、RANSACやLMedSに代表されるロバスト推定法を用いて、誤ったマッチを除外する。
具体的には、カメラ方向算出部320は、2組の3次元座標の対応から球体の幾何情報を利用して球体の回転行列を算出することを繰り返し、より多くの対応点の関係性に一致する正確な回転行列を探索する。本実施形態における球体の回転行列の算出手法を詳細に記述する。
図6は、カメラ方向推定部300の処理を説明するための模式図である。図6に示すように、2組の対応する3次元座標の組を夫々[p,p’]、[p,p’]とし、各組の3次元座標を結ぶベクトルをn,nとする。回転軸Lは、nとnの外積とで表される。回転角θは、pからLへの法線ベクトルh、p’からLへの法線ベクトルh’のなす角で表され、hとh’の内積で計算できる。回転角θは、pからLへの法線ベクトルh、p’からLへの法線ベクトルh’のなす角で表され、hとh’の内積で計算できる。
なお、θとθは3次元座標の組[p,p’,p,p’]が正しい対応関係にあれば一致する(θ=θ=θ)。そこで、カメラ方向推定部300は、θとθが一致しなかった場合、即ち、ある3次元座標の組が正しい対応関係にない場合、その3次元座標の組については後段の計算を行わず、次の3次元座標の組の計算に移ってもよい。これにより、計算量を削減することができる。
また、回転角θの向きを表す回転方向rdirは、hとh’の外積である。また、回転角θの向きを表す回転方向rdirは、hとh’の外積でもあり、3次元座標の組[p,p’,p,p’]が正しい対応関係にあれば一致する。そこで、カメラ方向推定部300は、hとh’の外積とhとh’の外積が一致しなかった場合、即ち、ある3次元座標の組が正しい対応関係にない場合、その3次元座標の組については後段の計算を行わず、次の3次元座標の組の計算に移ってもよい。これにより、計算量を削減することができる。
カメラ方向推定部300は、上述の如く、算出した回転方向rdirと回転角θとからr=rdir×θとして、回転ベクトルr(カメラ方向パラメータ)の推定値とする。カメラ方向推定部300は、最終的にRodorigues変換によって回転ベクトルrを回転行列Rに変換することで、2組の3次元座標の対応から回転行列Rを算出する。つまり、カメラ方向推定部300は、2組の3次元座標の組をサンプリングして照合し、球体に対するカメラ方向をロバスト推定する。
従来方式である、カメラ座標Wを構成する回転行列Rと並進ベクトルtを同時に求める方式の場合、4組の対応点を必要とするが、本実施形態によるカメラ方向推定部300では、カメラ方向(回転行列R)のみ推定すればよいため、上述の如く2組の対応点から回転行列Rを算出できる。そのため、高速にロバスト推定を行うことが可能になる。また、特許文献1、2に記載のカメラ方向の算出手法と比較して、特徴点の厳密な座標値を利用しているため、高精度なカメラ方向推定精度を得ることが可能になる。
(カメラ方向推定部300/最適化)
カメラ方向推定部300は、予めカメラ位置パラメータの推定値とカメラ方向パラメータの大まかな値(初期値)が与えられた場合に、3次元座標と2次元座標とのマッチが一致するようにカメラ方向パラメータを調整することでカメラ方向パラメータの精度を改善してもよい。カメラ方向推定部300は、3次元座標点のカメラ画像への投影点と対応する2次元座標点の距離の二乗誤差和が最小になるようにカメラ方向パラメータを調整する。具体的には、カメラ方向推定部300は、下記式(17)に示す再投影誤差関数を最小とするようなカメラ方向パラメータをニュートン法等の反復アルゴリズムを用いて計算する。これによって与えられたカメラ方向パラメータの初期値の精度が悪い場合でも、最適なカメラ方向パラメータを取得することが可能になる。
Figure 0005801209
カメラ姿勢推定装置20は最終的にカメラ位置推定部200が推定したカメラ位置(並進ベクトルt)と、カメラ方向推定部300が推定したカメラ方向(回転行列R)を合わせて、カメラ姿勢(カメラの外部パラメータ[R|t])として出力する。
以上、カメラ姿勢推定装置20によれば、カメラ姿勢の推定精度を向上させるとともに、推定時の計算コストを低減させることができる。
なお、カメラ姿勢推定装置20は、カメラ位置推定部200とカメラ方向推定部300の後段に、更に最適化処理部(非図示)を備え、外部パラメータ[R|t]を、最適化処理の初期値として、Gauss-Newton法やLevenberg-Marquardt法等の反復アルゴリズムを使用してカメラ姿勢の再投影誤差関数を最小化するカメラの外部パラメータを最終出力としてもよい。
一方カメラ位置推定部200とカメラ方向推定部300のそれぞれで最適化処理を行った場合、カメラ位置パラメータとカメラ方向パラメータは独立に最適化されることになる。エッジ情報はカメラ位置の推定に適しており、特徴点情報はカメラ方向の推定に適しているため、より高精度なカメラ姿勢が得られる。このようにカメラ姿勢推定装置20は、カメラ位置推定部200とカメラ方向推定部300のそれぞれにおいて独立に最適化処理を行うことも望ましい。
また、上記実施形態では、立体対象物が完全な球体である場合について説明しているが、一部球体を含む立体対象物とし、球体部分のみに本発明の手法を適用してもよい。即ち、上記実施形態では、カメラ姿勢推定装置20は、立体対象物として球体を利用してカメラ姿勢を推定する例を説明したが、カメラ姿勢推定装置20は、一部に球体部分を含む立体対象物を利用してカメラ姿勢を推定してもよい。例えば、一部に球体部分を含む立体対象物が剛体の場合、球体部分から得られたカメラ姿勢の推定結果から直接、カメラ姿勢を推定できる場合もある他、球体部分以外の他の部分のカメラ姿勢の推定に球体部分から得られたカメラ姿勢を利用できるため、カメラ姿勢の推定精度の向上に寄与する。
具体的には、カメラ位置推定部200は、球体部分を含む立体対象物の当該球体部分に対するカメラ位置を推定し、カメラ方向推定部300は、カメラ画像から抽出された球体部分の特徴点と、カメラ位置推定部200によって推定された当該球体部分に対するカメラ位置とを利用して、当該球体部分に対するカメラ方向を推定するようにしてもよい。
なお、本発明の一実施形態によるカメラ姿勢推定装置20の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本発明の一実施形態によるカメラ姿勢推定装置20に係る処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1…ARシステム 10…撮像装置 20…カメラ姿勢推定装置 30…表示装置 90…付加情報データベース 200…カメラ位置推定部 300…カメラ方向推定部

Claims (8)

  1. 球体を撮影したカメラ画像と、当該球体の半径情報とを利用して、当該球体に対するカメラ位置を推定するカメラ位置推定部と、
    前記カメラ位置推定部によって推定された当該球体に対するカメラ位置と、当該球体の特徴点とその3次元座標とで構成される参照情報とを利用して、当該球体に対するカメラ方向を推定するカメラ方向推定部と
    を備え、
    前記カメラ位置推定部は、
    前記カメラ位置の推定過程において、前記カメラ画像から当該球体の輪郭線を含むエッジを抽出し、前記エッジから3点をサンプリングし、前記3点と、楕円パラメータに関する2つの制約条件とを用いて前記カメラ画像内の楕円パラメータを推定する
    ことを特徴とするカメラ姿勢推定装置。
  2. 球体を撮影したカメラ画像と、当該球体の半径情報とを利用して、当該球体に対するカメラ位置を推定するカメラ位置推定部と、
    前記カメラ位置推定部によって推定された当該球体に対するカメラ位置と、当該球体の特徴点とその3次元座標とで構成される参照情報とを利用して、当該球体に対するカメラ方向を推定するカメラ方向推定部と
    を備え、
    前記カメラ方向推定部は、
    前記カメラ画像から特徴点を抽出し、前記カメラ画像内の特徴点と前記参照情報内の特徴点とを照合して対応関係にある特徴点の組を取得し、前記カメラ画像内の特徴点のうち前記参照情報内の特徴点と対応関係にある特徴点の2次元座標を逆投影して得られる3次元座標と、前記参照情報内の特徴点の3次元座標のうち前記カメラ画像内の特徴点と対応関係にある特徴点の3次元座標の組を生成し、前記カメラ方向を推定する
    ことを特徴とするカメラ姿勢推定装置。
  3. 前記カメラ方向推定部は、
    前記カメラ方向の推定過程において、球体の方程式を利用した逆投影処理によって、前記カメラ画像内の当該球体の特徴点の2次元座標に対応する当該球体の3次元座標を取得する
    ことを特徴とする請求項に記載のカメラ姿勢推定装置。
  4. 前記カメラ方向推定部は、
    2組の3次元座標の組をサンプリングして照合し、球体に対するカメラ方向を推定する
    ことを特徴とする請求項又は請求項に記載のカメラ姿勢推定装置。
  5. 前記カメラ位置推定部は、
    反復アルゴリズムを使用してエッジの3次元座標の再投影誤差関数が最小になるカメラ位置を算出し、
    前記カメラ方向推定部は、
    反復アルゴリズムを使用して特徴点の3次元座標の再投影誤差関数が最小になるカメラ方向を算出する
    ことを特徴とする請求項乃至請求項の何れか1項に記載のカメラ姿勢推定装置。
  6. 前記カメラ位置推定部は、
    球体部分を含む立体対象物の当該球体部分に対するカメラ位置を推定し、
    前記カメラ方向推定部は、
    前記カメラ位置推定部によって推定された当該球体部分に対するカメラ位置と、当該球体部分の特徴点とその3次元座標とで構成される参照情報とを利用して、当該球体部分に対するカメラ方向を推定する
    ことを特徴とする請求項1乃至請求項の何れか1項に記載のカメラ姿勢推定装置。
  7. カメラ姿勢を推定するカメラ姿勢推定装置のコンピュータに、
    球体を撮影したカメラ画像と、当該球体の半径情報とを利用して、当該球体に対するカメラ位置を推定するカメラ位置推定ステップと、
    前記カメラ位置推定ステップによって推定された当該球体に対するカメラ位置と、当該球体の特徴点とその3次元座標とで構成される参照情報とを利用して、当該球体に対するカメラ方向を推定するカメラ方向推定ステップとを実行させ、
    前記カメラ位置推定ステップは、
    前記カメラ画像から当該球体の輪郭線を含むエッジを抽出し、前記エッジから3点をサンプリングし、前記3点と、楕円パラメータに関する2つの制約条件とを用いて前記カメラ画像内の楕円パラメータを推定するステップを含む
    ことを特徴とするプログラム。
  8. カメラ姿勢を推定するカメラ姿勢推定装置のコンピュータに、
    球体を撮影したカメラ画像と、当該球体の半径情報とを利用して、当該球体に対するカメラ位置を推定するカメラ位置推定ステップと、
    前記カメラ位置推定ステップによって推定された当該球体に対するカメラ位置と、当該球体の特徴点とその3次元座標とで構成される参照情報とを利用して、当該球体に対するカメラ方向を推定するカメラ方向推定ステップとを実行させ、
    前記カメラ方向推定ステップは、
    前記カメラ画像から特徴点を抽出し、前記カメラ画像内の特徴点と前記参照情報内の特徴点とを照合して対応関係にある特徴点の組を取得し、前記カメラ画像内の特徴点のうち前記参照情報内の特徴点と対応関係にある特徴点の2次元座標を逆投影して得られる3次元座標と、前記参照情報内の特徴点の3次元座標のうち前記カメラ画像内の特徴点と対応関係にある特徴点の3次元座標の組を生成し、前記カメラ方向を推定する
    ことを特徴とするプログラム。
JP2012001188A 2012-01-06 2012-01-06 カメラ姿勢推定装置、プログラム Active JP5801209B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012001188A JP5801209B2 (ja) 2012-01-06 2012-01-06 カメラ姿勢推定装置、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012001188A JP5801209B2 (ja) 2012-01-06 2012-01-06 カメラ姿勢推定装置、プログラム

Publications (2)

Publication Number Publication Date
JP2013140547A JP2013140547A (ja) 2013-07-18
JP5801209B2 true JP5801209B2 (ja) 2015-10-28

Family

ID=49037909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012001188A Active JP5801209B2 (ja) 2012-01-06 2012-01-06 カメラ姿勢推定装置、プログラム

Country Status (1)

Country Link
JP (1) JP5801209B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9947142B2 (en) * 2014-11-18 2018-04-17 St. Jude Medical, Cardiology Division, Inc. Methods and systems for generating a patch surface model of a geometric structure
JP2019091203A (ja) 2017-11-14 2019-06-13 株式会社ほぼ日 プログラム、情報処理装置及び情報処理方法
JP6413035B1 (ja) * 2018-01-18 2018-10-24 株式会社ほぼ日 プログラム、情報処理装置及び情報処理方法
JP6413042B1 (ja) * 2018-05-30 2018-10-24 株式会社ほぼ日 プログラム、情報処理装置及び情報処理方法
CN111965630B (zh) * 2020-08-17 2024-05-28 南京先能光电科技有限公司 一种空间定位系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2991163B2 (ja) * 1997-07-23 1999-12-20 日本電気株式会社 カメラキャリブレーション装置
JP2000155841A (ja) * 1998-11-19 2000-06-06 Nippon Telegr & Teleph Corp <Ntt> 図形認識方法、装置、および図形認識プログラムを記録した記録媒体
JP4794708B2 (ja) * 1999-02-04 2011-10-19 オリンパス株式会社 3次元位置姿勢センシング装置
JP4056891B2 (ja) * 2002-01-18 2008-03-05 日本電信電話株式会社 3次元位置・姿勢検出装置、方法、プログラムおよび記録媒体
JP2006252275A (ja) * 2005-03-11 2006-09-21 Japan Science & Technology Agency カメラ運動及び物体形状の復元システム
US7956988B1 (en) * 2007-02-06 2011-06-07 Alpha Technology, LLC Light detection and ranging systems and related methods
JP5439277B2 (ja) * 2010-05-11 2014-03-12 日本電信電話株式会社 位置姿勢計測装置及び位置姿勢計測プログラム

Also Published As

Publication number Publication date
JP2013140547A (ja) 2013-07-18

Similar Documents

Publication Publication Date Title
JP5855416B2 (ja) 3次元座標取得装置、カメラ姿勢推定装置、プログラム
JP6644833B2 (ja) アルベドモデルにより拡張現実コンテンツをレンダリングするシステムおよび方法
CN108875524B (zh) 视线估计方法、装置、系统和存储介质
US20190147341A1 (en) Fully convolutional interest point detection and description via homographic adaptation
Itoh et al. Interaction-free calibration for optical see-through head-mounted displays based on 3d eye localization
US10674135B2 (en) Handheld portable optical scanner and method of using
JP4958497B2 (ja) 位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体
AU2013326865B2 (en) Determining image transforms without using image acquisition metadata
US20210004942A1 (en) Method and device for three-dimensional reconstruction
JP5801209B2 (ja) カメラ姿勢推定装置、プログラム
WO2014172484A1 (en) Handheld portable optical scanner and method of using
JP5833507B2 (ja) 画像処理装置
US10169891B2 (en) Producing three-dimensional representation based on images of a person
US20220319231A1 (en) Facial synthesis for head turns in augmented reality content
US11908236B2 (en) Illumination detection method and apparatus for face image, and device and storage medium
JP6017343B2 (ja) データベース生成装置、カメラ姿勢推定装置、データベース生成方法、カメラ姿勢推定方法、およびプログラム
CN109214350A (zh) 一种光照参数的确定方法、装置、设备及存储介质
CN117274383A (zh) 视点预测方法及装置、电子设备和存储介质
Mei et al. Fast central catadioptric line extraction, estimation, tracking and structure from motion
JP6086491B2 (ja) 画像処理装置およびそのデータベース構築装置
Rodríguez‐Gonzálvez et al. A hybrid approach to create an archaeological visualization system for a Palaeolithic cave
Seo et al. Real-time visual tracking of less textured three-dimensional objects on mobile platforms
CN109840017A (zh) 一种全景图像展示方法、系统及存储介质
US11418716B2 (en) Spherical image based registration and self-localization for onsite and offsite viewing
AU2021213324A1 (en) A method for generating a 3D model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150826

R150 Certificate of patent or registration of utility model

Ref document number: 5801209

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150