JP5424405B2 - 複合現実感技術による画像生成方法及び画像生成システム - Google Patents
複合現実感技術による画像生成方法及び画像生成システム Download PDFInfo
- Publication number
- JP5424405B2 JP5424405B2 JP2010005725A JP2010005725A JP5424405B2 JP 5424405 B2 JP5424405 B2 JP 5424405B2 JP 2010005725 A JP2010005725 A JP 2010005725A JP 2010005725 A JP2010005725 A JP 2010005725A JP 5424405 B2 JP5424405 B2 JP 5424405B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- database
- natural feature
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
カメラによって撮影された現実空間の画像から複数の自然特徴点を抽出し、この自然特徴点の位置に関する情報を自然特徴点ごとに登録したデータベースを構築する第1ステップと、
現実空間の入力画像から抽出された自然特徴点と、前記データベースに登録された自然特徴点とを対応付けてカメラの位置・姿勢を推定する第2ステップとを含み、
前記第1ステップが、
所定の経路で移動するカメラによって撮影され、かつ前記現実空間に設置されたマーカを含む画像を取得するステップと、
当該画像中のマーカに基づいて当該画像の撮影時点における前記カメラの位置・姿勢に関する情報を取得するステップと、
当該画像から自然特徴点を抽出するステップと、
前記カメラの位置・姿勢に関する情報から前記自然特徴点の位置に関する情報を取得して前記データベースに登録するステップと、を含むことを特徴としている。
前記データベースの構築に使用された撮影画像中の任意の複数の画像フレームから、破綻直後の入力画像の画像フレームに類似するものを選択し、選択された画像フレームに含まれる自然特徴点と、破綻直後の入力画像の画像フレームに含まれる自然特徴点とを対応づけて、破綻直後の入力画像の画像フレーム撮影時点におけるカメラの位置・姿勢を推定することが好ましい。
前記データベースの構築に使用された撮影画像中の任意の複数の画像フレームから、現実空間の入力画像の初期フレームに類似するものを選択し、選択された画像フレームに含まれる自然特徴点と、初期フレームに含まれる自然特徴点とを対応づけて、初期フレーム撮影時点におけるカメラの位置・姿勢を推定することが好ましい。
前記データベース構築の際に前記現実空間に配置されるマーカを備え、
前記データベース構築手段が、
所定の経路で移動するカメラによって撮影した前記マーカを含む現実空間の画像を取得する手段と、
この画像中のマーカに基づいて当該画像の撮影時点における前記カメラの位置・姿勢に関する情報を取得する手段と、
前記画像から自然特徴点を抽出する手段と、
前記カメラの位置・姿勢に関する情報から前記データベースに登録される前記自然特徴点の位置に関する情報を取得する手段と、を有していることを特徴としている。
図1は、本発明の実施形態に係る画像生成方法を用いてMR−PreViz映像を撮影する様子を示す図である。本実施形態は、映画の本番撮影前に、想定されるシーンを複合現実感(Mixed Reality;MR)技術を利用した映像(MR−PreViz映像)によって表現しようとするものである。したがって、本実施形態では、MR−PreViz映像の背景に映画の撮影セット10が使用されており、この撮影セット10を視野に含むようにカメラ11が設置されている。また、カメラ11は、地面に敷設されたレール14によって所定の経路で移動するものとされている。また、カメラ11は、上下方向のチルト角度や左右方向のパン角度、ズーム、フォーカス等により決まる画角等を変更可能である。
以下、準備段階の内容について詳細に説明する。図4は、ランドマークデータベースの内容を概略的に示す図である。ランドマークデータベースDB1は、処理装置12の記憶部に構築されるものであり、ランドマークデータベースDB1には、ランドマークの3次元位置を示す位置情報と、ランドマークの撮影地点ごとの情報とが含まれる。また、撮影地点ごとの情報は、ランドマークの識別情報と、撮影時におけるカメラ11の位置・姿勢情報とが含まれる。
この準備段階においては、まず、図5に示すように、現実空間、すなわち撮影セット10中に人工マーカMを配置する。本実施形態の人工マーカMは、立方体形状であり、カメラ11によって撮影される少なくとも2つの面がマーカ面M1とされている。本実施形態のマーカ面M1には、公知のARToolKitマーカが貼付されており、具体的には、「F」字形状のマーカと「L」字形状のマーカとがそれぞれマーカ面M1に設けられている。また、人工マーカMは、地上の座標系(世界座標系)の基準となるものであり、世界座標系における人工マーカMの座標は予め設定され、処理装置12の記憶部に記憶される。例えば、人工マーカMは、ユーザが世界座標系の原点としたい場所に配置する。
以上の準備段階において、ランドマークデータベースDB1とキーフレームデータベースDB2の構築を行うと、次に実際のMR−PreViz映像の撮影段階に入る。
このMR−PreViz映像の撮影は、カメラ11を所定の移動経路で移動させながら撮影セット10を撮影することによって行われる。この撮影は、ランドマークデータベースDB1の構築時と同様に、本番撮影と同様のカメラワークで行い、準備段階で使用したマーカは撮影セット10から取り除いておく。
まず、カメラ11によって撮影を開始した時点のカメラ11の位置・姿勢の推定する。この推定には、準備段階で構築したキーフレームデータベースDB2を使用する。本実施形態では、データベースDB1,DB2構築時のカメラパスとMR映像撮影時のカメラパスとがほぼ同じであることを利用し、カメラの初期位置を高速で推定する。具体的には、入力画像の初期フレームの画像に最も類似したキーフレームをキーフレームデータベースDB2から検索する。この検索には、フレーム間の類似度を用いる。フレーム間の類似度cは、SSD(Sum of Squared Differences)を利用して、次の式(1)で求めることができる。
1.カメラ11の視野内に存在するもの
2.ランドマークデータベース構築の際におけるランドマーク撮影時のカメラ11の位置と、前フレームのカメラ11の位置との距離が閾値以下であるもの
3.入力画像におけるランドマーク同士の距離が閾値以上であるもの
そして、入力画像から抽出された自然特徴点PについてSIFT特徴量を求め、このSIFT特徴量と、対応付け候補となる各ランドマークのSIFT特徴量とを比較し、両者のSIFTベクトル間の角度が最小となる候補を対応ランドマークとする。
そこで、本実施形態では、トラッキング処理が破綻した場合に、高速に復帰することができるように、以下の手法を採用した。
すなわち、本実施形態では、既に構築してあるキーフレームデータベースDB2を用いてトラッキング破綻から復帰する処理を行う。
この復帰処理は、前述の初期フレームにおけるカメラ11の位置・姿勢の推定と同様に、キーフレームデータベースDB2に登録されている各キーフレームと、破綻直後の入力画像のフレームとを比較し、入力画像のフレームの画像に最も類似したキーフレームを検索する。そして、類似度cが最大のキーフレーム内に存在するランドマークと入力画像中の自然特徴点とを、既知の探索手法によって対応付けることで、カメラ11の位置・姿勢を高速に推定する(ステップS27)。
このような処理によってトラッキングが破綻したとしても実時間で高速に復帰することが可能となる。
また、カメラ11の位置・姿勢の推定処理が破綻(トラッキング破綻)した場合であっても、上記と同様にキーフレームを用いることで、当該破綻から復帰することができる。
11 カメラ
12 処理装置
13 表示装置
14 レール
DB1 ランドマークデータベース
DB2 キーフレームデータベース
M 人工マーカ
P 自然特徴点
Claims (5)
- データベースを利用した複合現実感技術による画像生成方法であって、
処理装置が、カメラによって撮影された現実空間の画像から複数の自然特徴点を抽出し、この自然特徴点の位置に関する情報を自然特徴点ごとに登録したデータベースを構築する第1ステップと、
処理装置が、現実空間の入力画像から抽出された自然特徴点と、前記データベースに登録された自然特徴点とを対応付けて、所定の経路で移動するカメラの位置・姿勢を推定する第2ステップとを含み、
前記第1ステップが、
前記第2ステップにおいてカメラが移動する前記所定の経路とほぼ同じ経路で移動するカメラによって撮影され、かつ前記現実空間に配置されたマーカを含む画像を取得するステップと、
当該画像中のマーカに基づいて当該画像の撮影時点における前記カメラの位置・姿勢に関する情報を取得するステップと、
当該画像から自然特徴点を抽出するステップと、
前記カメラの位置・姿勢に関する情報から前記自然特徴点の位置に関する情報を取得して前記データベースに登録するステップと、を含み、
前記マーカは、前記第1ステップにおいては、前記第2ステップにおいてカメラが移動する前記所定の経路とほぼ同じ経路で移動するカメラによって撮像されるように前記現実空間に配置されるが、前記第2ステップにおいてはカメラによって撮像される前記現実空間から取り除かれる
ことを特徴とする複合現実感技術による画像生成方法。 - 前記第2ステップにおいて、カメラの位置・姿勢の取得が破綻した場合に、
前記データベースの構築に使用された撮影画像中の任意の複数の画像フレームから、破綻直後の入力画像の画像フレームに類似するものを選択し、選択された画像フレームに含まれる自然特徴点と、破綻直後の入力画像の画像フレームに含まれる自然特徴点とを対応づけて、破綻直後の入力画像の画像フレーム撮影時点におけるカメラの位置・姿勢を推定する請求項1に記載の複合現実感技術による画像生成方法。 - 前記第2ステップにおいて、
前記データベースの構築に使用された撮影画像中の任意の複数の画像フレームから、現実空間の入力画像の初期フレームに類似するものを選択し、選択された画像フレームに含まれる自然特徴点と、初期フレームに含まれる自然特徴点とを対応づけて、初期フレーム撮影時点におけるカメラの位置・姿勢を推定する請求項1又は2に記載の複合現実感技術による画像生成方法。 - データベースを利用した複合現実感技術による画像生成方法であって、
処理装置が、所定の経路で移動するカメラによって撮影された現実空間の画像から複数の自然特徴点を抽出し、この自然特徴点の位置に関する情報を自然特徴点ごとに登録したデータベースを構築する第1ステップと、
処理装置が、現実空間の入力画像から抽出された自然特徴点と、前記データベースに登録された自然特徴点とを対応付けて、前記第1ステップにおいてカメラが移動する前記所定の経路とほぼ同じ経路で移動するカメラの位置・姿勢を推定する第2ステップとを含み、
前記第2ステップにおいて、カメラの位置・姿勢の取得が破綻した場合に、
前記データベースの構築に使用された撮影画像フレーム中の前記撮像画像フレーム数よりも少ない数の任意の複数の画像フレームから、破綻直後の入力画像の画像フレームに類似するものを選択し、選択された画像フレームに含まれる自然特徴点と、破綻直後の入力画像の画像フレームに含まれる自然特徴点とを対応づけて、破綻直後の入力画像の画像フレーム撮影時点におけるカメラの位置・姿勢を推定することを特徴とする複合現実感技術による画像生成方法。 - カメラによって撮影された現実空間の画像から複数の自然特徴点を抽出し、この自然特徴点の位置に関する情報を自然特徴点ごとに登録したデータベースを構築するデータベース構築手段と、現実空間の入力画像から抽出された自然特徴点と、前記データベースに登録された自然特徴点とを対応付けて、所定の経路で移動するカメラの位置・姿勢を推定するカメラ位置・姿勢推定手段とを有している、データベースを利用した複合現実感技術による画像生成システムであって、
前記データベース構築の際に前記現実空間に配置されるマーカを備え、
前記データベース構築手段が、
前記カメラ位置・姿勢推定手段によって位置・姿勢が推定される際にカメラが移動する前記所定の経路とほぼ同じ経路で移動するカメラによって撮影した前記マーカを含む現実空間の画像を取得する手段と、
この画像中のマーカに基づいて当該画像の撮影時点における前記カメラの位置・姿勢に関する情報を取得する手段と、
前記画像から自然特徴点を抽出する手段と、
前記カメラの位置・姿勢に関する情報から前記データベースに登録される前記自然特徴点の位置に関する情報を取得する手段と、を有し、
前記マーカは、前記データベース構築手段が前記マーカを含む現実空間の画像を取得する際には、前記カメラ位置・姿勢推定手段によって位置・姿勢が推定される際にカメラが移動する前記所定の経路とほぼ同じ経路で移動するカメラによって撮影されるように前記現実空間に配置されるが、前記カメラ位置・姿勢推定手段によって位置・姿勢が推定される際にはカメラによって撮影される前記現実空間から取り除かれることを特徴とする複合現実感技術による画像生成システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010005725A JP5424405B2 (ja) | 2010-01-14 | 2010-01-14 | 複合現実感技術による画像生成方法及び画像生成システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010005725A JP5424405B2 (ja) | 2010-01-14 | 2010-01-14 | 複合現実感技術による画像生成方法及び画像生成システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011145856A JP2011145856A (ja) | 2011-07-28 |
JP5424405B2 true JP5424405B2 (ja) | 2014-02-26 |
Family
ID=44460654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010005725A Expired - Fee Related JP5424405B2 (ja) | 2010-01-14 | 2010-01-14 | 複合現実感技術による画像生成方法及び画像生成システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5424405B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5837404B2 (ja) * | 2011-11-22 | 2015-12-24 | 株式会社日立製作所 | 画像処理装置、画像処理方法 |
AU2011253973B2 (en) * | 2011-12-12 | 2015-03-12 | Canon Kabushiki Kaisha | Keyframe selection for parallel tracking and mapping |
JP5878454B2 (ja) * | 2012-11-05 | 2016-03-08 | 日本電信電話株式会社 | 推定装置、推定方法及びコンピュータプログラム |
JP6405891B2 (ja) | 2014-10-29 | 2018-10-17 | 富士通株式会社 | 位置・姿勢推定装置、位置・姿勢推定方法、及び、プログラム |
CN110515452B (zh) * | 2018-05-22 | 2022-02-22 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
WO2022264519A1 (ja) * | 2021-06-14 | 2022-12-22 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004102835A (ja) * | 2002-09-11 | 2004-04-02 | Univ Waseda | 情報提供方法およびそのシステム、携帯型端末装置、頭部装着装置、並びにプログラム |
JP4958497B2 (ja) * | 2006-08-07 | 2012-06-20 | キヤノン株式会社 | 位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体 |
JP2009020614A (ja) * | 2007-07-10 | 2009-01-29 | Ritsumeikan | 複合現実感システムに用いるマーカユニット、複合現実感システム、マーカユニット作成支援システム、及び、マーカユニット作成支援プログラム |
JP4956375B2 (ja) * | 2007-10-30 | 2012-06-20 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
-
2010
- 2010-01-14 JP JP2010005725A patent/JP5424405B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011145856A (ja) | 2011-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8520931B2 (en) | Position and orientation measurement apparatus and method thereof | |
US11443444B2 (en) | Interior photographic documentation of architectural and industrial environments using 360 panoramic videos | |
JP5832341B2 (ja) | 動画処理装置、動画処理方法および動画処理用のプログラム | |
CN108171791B (zh) | 基于多深度摄像机的动态场景实时三维重建方法及装置 | |
Bae et al. | Computational rephotography. | |
TWI574223B (zh) | 運用擴增實境技術之導航系統 | |
Baboud et al. | Automatic photo-to-terrain alignment for the annotation of mountain pictures | |
JP5362189B2 (ja) | 画像処理装置及びその処理方法 | |
Reitmayr et al. | Going out: robust model-based tracking for outdoor augmented reality | |
Jiang et al. | A robust hybrid tracking system for outdoor augmented reality | |
JP5424405B2 (ja) | 複合現実感技術による画像生成方法及び画像生成システム | |
JP6011548B2 (ja) | カメラ校正装置、カメラ校正方法およびカメラ校正用プログラム | |
JP6338021B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
Oskiper et al. | Multi-sensor navigation algorithm using monocular camera, IMU and GPS for large scale augmented reality | |
JP6510247B2 (ja) | 測量データ処理装置、測量データ処理方法およびプログラム | |
US20100045701A1 (en) | Automatic mapping of augmented reality fiducials | |
US20110085704A1 (en) | Markerless motion capturing apparatus and method | |
JP2010134649A (ja) | 情報処理装置、その処理方法及びプログラム | |
JP4242529B2 (ja) | 関連情報呈示装置及び関連情報呈示方法 | |
Deng et al. | Binocular video-based 3D reconstruction and length quantification of cracks in concrete structures | |
JP5693691B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
JP5396585B2 (ja) | 地物特定方法 | |
Zhao et al. | Alignment of continuous video onto 3D point clouds | |
JP2006113832A (ja) | ステレオ画像処理装置およびプログラム | |
JP4550081B2 (ja) | 画像測定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130827 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131122 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5424405 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |