JP2017130042A - 映像処理装置、映像処理方法、及びプログラム - Google Patents

映像処理装置、映像処理方法、及びプログラム Download PDF

Info

Publication number
JP2017130042A
JP2017130042A JP2016008938A JP2016008938A JP2017130042A JP 2017130042 A JP2017130042 A JP 2017130042A JP 2016008938 A JP2016008938 A JP 2016008938A JP 2016008938 A JP2016008938 A JP 2016008938A JP 2017130042 A JP2017130042 A JP 2017130042A
Authority
JP
Japan
Prior art keywords
point
video frame
reprojection
tracking
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016008938A
Other languages
English (en)
Inventor
靖子 白鷹
Yasuko Shirataka
靖子 白鷹
多聞 貞末
Tamon Sadasue
多聞 貞末
和寛 ▲高▼澤
和寛 ▲高▼澤
Kazuhiro Takazawa
和史 松下
Kazufumi Matsushita
和史 松下
康宏 梶原
Yasuhiro Kajiwara
康宏 梶原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016008938A priority Critical patent/JP2017130042A/ja
Publication of JP2017130042A publication Critical patent/JP2017130042A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】映像フレームの特徴点の精度を向上しつつ、特徴点の追跡の処理時間を短縮させる。【解決手段】第1の映像フレームと、第2の映像フレームとに基づき生成される3次元点を仮想の映像フレームに再投影させた再投影点と、前記第2の映像フレームにおける前記再投影点に相当する観測点を前記再投影点と対応付けて、前記第2の映像フレームが撮影されたときの撮像装置のポーズを推定するポーズ推定部と、前記ポーズの推定において、前記観測点と対応付けられなかった前記再投影点のうち、前記第1の映像フレームにおける特徴点と最も類似する前記再投影点の属性値を閾値に設定する閾値設定部と、前記閾値を用いて、前記第2の映像フレームにおける特徴点を、第3の映像フレームにおいて追跡する追跡処理を行う追跡部と、を有する映像処理装置、が提供される。【選択図】図5

Description

本発明は、映像処理装置、映像処理方法、及びプログラムに関する。
自動車の自立運転等に用いる技術の一つに、自己位置の推定を行う技術(SLAM:Simultaneously Localization And Mapping)があり、SLAMを用いて自己位置の推定を行う方法が広く検討されている。SLAMでは、カメラ等で撮影された映像データから特徴点を抽出し、抽出した特徴点を追跡することにより、自己位置の推定を行う。
特徴点を追跡する手法として、互いに類似する画像パターンを含み得る一の画像と他の画像との画素毎の対応関係を求めることで特徴点の追跡を行う、パターンマッチングが広く知られている。パターンマッチングの手法としては、例えば、一の画像の画素位置と他の画像の画素位置との画素間距離の累積値が最小となる最小累積距離を、i座標、j座標、m座標及びn座標からなる4次元空間座標において、累積的に画像間距離を積み上げ計算させることが提案されている(例えば、特許文献1)。
提案されている方法では、4次元空間座標において、画素間距離を累積的に積み上げるため、処理に時間がかかるという課題があった。
本発明は、上記の課題を鑑みてされたものであって、特徴点の追跡の処理時間の短縮を図ることを目的とする。
一つの態様によれば、第1の映像フレームと、第2の映像フレームとに基づき生成される3次元点を仮想の映像フレームに再投影させた再投影点と、前記第2の映像フレームにおける前記再投影点に相当する観測点を前記再投影点と対応付けて、前記第2の映像フレームが撮影されたときの撮像装置のポーズを推定するポーズ推定部と、前記ポーズの推定において、前記観測点と対応付けられなかった前記再投影点のうち、前記第1の映像フレームにおける特徴点と最も類似する前記再投影点の属性値を閾値に設定する閾値設定部と、前記閾値を用いて、前記第2の映像フレームにおける特徴点を、第3の映像フレームにおいて追跡する追跡処理を行う追跡部と、を有する映像処理装置、が提供される。
映像フレームの特徴点の追跡の処理時間の短縮を図ることが可能となる。
第1の実施形態に係る映像処理システムの一例を示す図である。 第1の実施形態に係るブロックマッチング処理の一例を示す図(その1)である。 第1の実施形態に係るブロックマッチング処理の一例を示す図(その2)である。 第1の実施形態に係るブロックマッチング処理の計算式の一例を表す図である。 第1の実施形態に係るポーズ推定処理の一例を示す図である。 第1の実施形態に係る映像処理装置のハードウエア構成の一例を示す図である。 第1の実施形態に係る機能構成の一例を示す図である。 第1の実施形態に係る映像処理装置の処理を示すフローチャート(その1)である。 第1の実施形態に係るポーズ推定処理の計算式の一例を表す図である。 第1の実施形態に係る映像処理装置の処理を示すフローチャート(その2)である。 第1の実施形態に係る映像処理装置の処理を示すフローチャート(その3)である。 第1の実施形態に係る固有値判定処理の計算式の一例を表す図である。 第1の実施形態に係る単一性判定処理の一例を示す図である。 第1の実施形態に係る映像処理装置の処理を示すフローチャート(その4)である。 第1の実施形態に係る映像処理装置の処理を示すフローチャート(その5)である。
[第1の実施形態]
<概要>
図1は、第1の実施形態に係る映像処理システム1を示す図である。映像処理システム1は、映像処理装置10と、カメラ20とを有する。映像処理装置10とカメラ20とは有線又は無線で接続される。カメラ20は映像を撮影し、映像処理装置10は、撮影された映像フレームに対して処理を行う。カメラ20は、単眼カメラ、ステレオカメラのいずれでもよい。カメラ20は、自動車に取り付ける車載カメラでもよい。映像フレームは、単にフレームと表現されてもよい。
映像処理装置10は、カメラ20から受信した第1の映像フレームから特徴点の座標を特定し、第1の映像フレームより後に撮像された映像フレームである第2の映像フレームに対してパターンマッチング処理を行う。そして、映像処理装置10は、第2の映像フレームにおける特徴点の座標を特定する。
ここで、特徴点とは、映像フレーム内の輝度或いは色が大きくに変化する画素であり、例えば画像における被写体の角等に対応する画素である。
図2乃至図4を用いてブロックマッチング処理について説明する。ここで、ブロックマッチング処理は、パターンマッチング処理の一例であり、特徴点に対応する追跡点を抽出するのに、ブロックマッチング処理以外が用いられてもよいことは勿論である。
図2及び図3は、ブロックマッチングの処理の概要を示す図である。図2の(1)に示すように、映像処理装置10は、n枚目の映像フレーム410から特徴点400を抽出する。映像処理装置10は、n枚目の映像フレーム410から特徴点400を中心にN(画素)×N(画素)のサイズの領域を抜き出しテンプレートパッチ430を生成する。
図2の(2)に示すように、映像処理装置10は、n枚目以降の映像フレーム420の中のH(画素)×W(画素)のサイズの領域を抜き出し第1の探索ウィンドウ440を生成する。
ここで、テンプレートパッチ430のサイズ、及び第1の探索ウィンドウ440のサイズは映像処理装置10のユーザが設定可能な値である。
次に、図3の(1)に示すように、映像処理装置10は、テンプレートパッチ430の中心を第1の探索ウィンドウ440内で移動させる。つまり、映像処理装置10は、n枚目以降の映像フレーム420の中の(H+N)(画素)×(W+N)(画素)のサイズの領域を抜き出し、かかる領域内にテンプレートパッチ430を移動させる。この領域は、第2の探索ウィンドウ450と表現されてもよい。
映像処理装置10は、テンプレートパッチ430を、第2の探索ウィンドウ450内で移動させ、テンプレートパッチ430に含まれる画素の属性値の合計値(第1の合計値)と、第2の探索ウィンドウ450内のテンプレートパッチ430との重複部分に含まれる画素の属性値の合計値(第2の合計値)とを算出する。画素の属性値とは、例えば画素の輝度値や画素値などである。
例えば、図3の(1)に示すように、映像処理装置10は、テンプレートパッチ430を、第2の探索ウィンドウ450内で水平方向に移動させてもよい。映像処理装置10は、テンプレートパッチ430を1画素ずつ、縦、又は横に移動させつつ、重複部分に含まれる画素の属性値の合計値(第2の合計値)を算出する。映像処理装置10は、1画素よりも細かい単位である副画素単位で、テンプレートパッチ430を縦、又は横に移動させて第2の合計値を算出してもよい。
映像処理装置10は、第2の探索ウィンドウ450の重複部分のうち、第1の合計値と、第2の合計値とを比較し、第1の合計値と、第2の合計値との差が最も小さくなる重複部分を特定する。そして、映像処理装置10は、特定された重複部分の中心の属性値が、所定の閾値よりも大きければ、特定された重複部分の中心を特徴点の移動先の点(追跡点)とする。
本実施形態では、この所定の閾値を、カメラ20のポーズ推定処理の結果として得られた情報を用いて設定する。所定の閾値を設定する処理の詳細は後述する。
例えば、属性値が各画素の輝度値の場合、第1の合計値と第2の合計値との差分は、図4の式1で表される。
図3の(2)の例では、映像処理装置10は、テンプレートパッチ430の中心がVn(X、Y)に移動した場合に算出される差分ESADが最小となる場合を示している。この場合、映像処理装置10は、Vn(X、Y)を追跡点560として抽出する。
映像処理装置10は、n枚目のフレームの特徴点400が、n枚目以降の映像フレーム420で追跡点560に移動したと判断する。この場合、映像処理装置10は、特徴点が移動の軌跡570に沿って移動したと判断してもよい。映像処理装置10は、n枚目以降の映像フレームに繰り返しブロックマッチングの処理を行い、特徴点の移動の軌跡を算出してもよい。特徴点の移動の軌跡は、オプティカルフローと呼ばれてもよい。
上述した実施形態では、テンプレートパッチ430の輝度値の合計値と、重複部分の輝度値の合計値との絶対値の差(Sum of Absolute Difference)であるESADを用いる場合について説明した。映像処理装置10は、その他の方法を用いてブロックマッチングの処理を実行してもよい。例えば、映像処理装置10は、テンプレートパッチ430と重複部分の輝度値の差の二乗和を算出するSSD(Sum of Squared Differences)を用いてもよいし、テンプレートパッチ430と重複部分の輝度値の相互相関を算出するNCC(Normalized Cross Correlation)を用いてもよい。
映像フレームがカラーの場合、映像処理装置10は、各色の輝度値を合計した値を用いて、第1の合計値と第2の合計値とを比較してもよい。
次に、上述したパターンマッチング処理において、重複部分に特徴点に対応する追跡点が存在すると判断する際に用いられる所定の閾値の設定方法について説明する。
第1の実施形態では、ポーズ推定処理の結果に基づいて抽出された画素の属性値を用いて所定の閾値を設定する。
ポーズ推定処理とは、(A)カメラ20により実際に撮影された2以上の映像フレームから3次元物体を生成し、(B)この3次元物体を仮想的なカメラで撮影したと仮定した場合の仮想映像フレームを生成し、(C)仮想映像フレームを撮影したときの仮想的なカメラの位置と姿勢を推定する処理である。ここで、仮想的なカメラは仮想カメラ240と呼ばれる。
図5を用いてポーズ推定処理について、具体的に説明する。映像処理装置10は、上述したブロックマッチング処理により、第1のフレームにおける特徴点、及び第2のフレームにおける特徴点を追跡する。映像処理装置10は、特徴点が追跡されることにより特定される特徴点の3次元座標と、キーフレームとなる映像フレームが撮影されたときのカメラ20の位置と姿勢とを記憶している。この3次元座標と、キーフレームに関する位置と姿勢の情報の組み合わせは、マップと呼ばれる。
なお、キーフレームとは、1枚の映像フレームの全画素の情報が記憶されているフレームであり、キーフレーム以外の映像フレームは、キーフレームからの差分情報のみが記憶されている。また、特徴点の3次元座標は2以上の映像フレームにおける特徴点の2次元座標から算出される。
映像処理装置10は、マップから3次元物体210を生成する。3次元物体210は、特徴点の3次元座標に基づいて形成されている。つまり、3次元物体210は、特徴点の抽出の処理と、パターンマッチング処理の結果、抽出された特徴点の3次元座標を用いて、生成される。
次に、映像処理装置10は、生成された3次元物体210を仮想カメラ240で撮影したときの画像である仮想映像フレーム200を生成する。
生成された仮想映像フレーム200から、仮想カメラ240の位置及び姿勢(ポーズ)が推定される。すなわち、仮想映像フレーム200は、仮想カメラ240により3次元物体210を撮像した仮想的な画像であり、第2の映像フレーム250は、仮想カメラ240と同じポーズで3次元物体210を撮像した画像である。したがって、映像処理装置10は、仮想映像フレーム200と第2の映像フレーム250とを比較することで、推定された仮想カメラのポーズが許容されるか否かが判断できる。なお、仮想カメラ240の位置及び姿勢は、所定の初期値が設定される。
映像処理装置10は、仮想映像フレーム200において、3次元物体上の3次元座標上の点に対応する点の座標(2次元)を特定する。ここで、仮想映像フレーム200において、3次元座標上の点に対応する点を再投影点と呼ぶ。図5の(1)は、仮想カメラ240により3次元物体210が撮影されたときに、3次元座標上の点220に対応する再投影点230が仮想映像フレーム200上に形成される様子を示している。
映像処理装置10は、再投影点230と、カメラ20により撮影された第2の映像フレーム250において、再投影点230と対応する点(以下、観測点260)との距離を算出する。
具体的には、映像処理装置10は、仮想映像フレーム200と、第2の映像フレームを重ねた場合に生成されるフレームにおける、再投影点230の座標と、観測点260の座標とから距離を算出する。この距離は、再投影誤差270と呼ばれる。図5の(2)は、映像処理装置10により再投影誤差270が算出される様子を示す図である。
なお、図5では、三次元物体210の点220に対応する再投影点230と観測点260とを示したが、再投影点と観測点は、3次元物体210を形成している点群の全について存在するものである。したがって、本実施形態において、特徴点とは、観測点の一種であり、観測点に含まれるものである。
第1の実施形態では、特徴点、追跡点、再投影点230、及び観測点260は、映像フレーム上の座標と、これらの点の座標から特定される画素の属性値とを有するものとして説明を進める。
映像処理装置10は、以下の処理1乃至処理3のポーズ推定処理を実行する。次に、ポーズ推定の処理結果を用いて、以下の処理4及び処理5により、特徴点に対応する追跡点が存在するか否かを判断する際に用いられる所定の閾値の設定処理を実行する。
映像処理装置10は、所定の数の特徴点に対応する再投影点230を選択し、対応する観測点260との再投影誤差270が最小になるように仮想カメラ240の位置及び姿勢を推定する(処理1)。処理1における「所定の数」は3から5程度の再投影点230の数が設定されることが想定されている。処理1で必要な数の再投影点230が存在しない場合、つまり、必要な数の特徴点に対応する再投影点230が存在しない場合、映像処理装置10は、ポーズ推定の処理を実行しない。
次に、映像処理装置10は、処理1で選択されていない再投影点230を選択し、対応する観測点260との間の再投影誤差270を算出する(処理2)。映像処理装置10は、処理2の結果、算出された再投影誤差270が所定の範囲内となる再投影点230をインライア(Inlier)、所定の範囲外となる再投影点230をアウトライア(Outlier)と分類し、それぞれの数をカウントする(処理3)。インライアと分類された再投影点230の数が所定の数よりも多い場合、映像処理装置10はポーズ推定処理が成功したと判断する。ここで、インライアは、観測点260と対応付けられるものと判定された再投影点230であることを示し、アウトライアは観測点260と対応付けられないものと判定された再投影点230であることを示す。
ポーズ推定処理が成功した場合、映像処理装置10は、アウトライアと分類された再投影点230のうち、第2の映像フレームにおける一の特徴点の有する属性値と最も類似する属性値を有する一の再投影点230を特定する(処理4)。第1の実施形態では、特徴点と属性値が最も近い再投影点を最も類似する再投影点とする。例えば、第2の映像フレームにおける特徴点における輝度値と、アウトライアと分類された再投影点230との輝度値とを比較し、最も輝度値の差が小さい再投影点230を特定する。
そして、映像処理装置10は、特定された再投影点230の属性値を、第3の映像フレームにおけるパターンマッチング処理における所定の閾値に決定する(処理5)。
映像処理装置10は、第3の映像フレームにおけるパターンマッチング処理において、差分ESADが最小となる重複部分の中心の属性値が、所定の閾値より大きいとき、この重複部分の中心を、特徴点の移動先である追跡点と判定する。
ここで、第3の映像フレームは、第2の映像フレームより後の映像フレームである。ポーズ推定処理が成功しなかった場合、映像処理装置10は、処理1乃至処理3を再度実行する。また、第2の映像フレームに複数の特徴点が存在する場合、映像処理装置10は、特徴点の各々に対して、処理4及び処理5を実行する。
ここで、再投影誤差270の所定の範囲、及びインライアと分類された観測点260に関する所定の数は、映像処理装置10に設定される値である。
上述したように、第1の実施形態によれば、第2のフレームにおける追跡点の抽出後に、ポーズ推定の結果を用いて、第3の映像フレームにおけるパターンマッチング処理における所定の閾値を設定を行う。第1の実施形態によれば、第2の映像フレームのポーズ推定の結果を用いるため、4次元空間座標において累積的に画像間距離を積み上げ計算させる必要がない。このため、映像フレームの特徴点の追跡の処理時間の短縮を図ることが可能となる。
上述した実施形態では、アウトライアと分類された再投影点230のうち、第2の映像フレームの特徴点と最も類似する再投影点230の属性値を3の映像フレームにおけるパターンマッチング処理における所定の閾値に設定するものとしたが、これに限定されない。
例えば、所定の閾値は、アウトライアに分類された再投影点230のうち、特徴点の属性値との差分が所定範囲内にある再投影点230の属性値が所定の閾値に設定されても良い。
<ハードウエア構成>
映像処理装置10は入出力部201、外部I/F202、RAM204、ROM205、CPU206、通信I/F207、HDD208などを備え、それぞれがバスBで相互に接続されている。
入出力部201は、カメラ20で撮影した映像フレームを受信すると共に、受信した映像フレームを表示する。入出力部201は、映像処理装置10の状態などを表示する。また、入出力部201は、映像処理装置10のユーザから、映像処理装置10の各種設定を受け付けてもよい。
通信I/F207は、サーバ、PC(Personal Computer)等と、有線、又は無線のネットワークを介して通信を行う。映像処理装置10は、通信I/F207を介して、PC等の端末から、映像処理装置10に対する指示を受け付けてもよい。また、通信I/Fは、カメラ20で撮影した映像フレームを、有線、又は無線のネットワークを介して受信してもよい。
HDD208はプログラムやデータを格納している不揮発性の記憶装置の一例である。格納されるプログラムやデータには映像処理装置10全体を制御する基本ソフトウエアであるOS、OS上において各種機能を提供するアプリケーションソフトウエアなどがある。なお、映像処理装置10はHDD208に替え、記憶媒体としてフラッシュメモリを用いるドライブ装置(例えばソリッドステートドライブ:SSD)を利用するものであってもよい。
外部I/F202は、外部装置とのインタフェースである。外部装置には、記録媒体203などがある。これにより、映像処理装置10は外部I/F202を介して記録媒体203の読み取り及び/又は書き込みを行うことができる。記録媒体203にはフレキシブルディスク、CD、DVD、SDメモリカード、及びUSBメモリなどがある。
ROM205は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)の一例である。ROM205には映像処理装置10の起動時に実行されるBIOS、OS設定、及びネットワーク設定などのプログラムやデータが格納されている。RAM204はプログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)の一例である。
CPU206は、ROM205及びHDD208などの記憶装置からプログラムやデータをRAM204上に読み出し、処理を実行することで、映像処理装置10全体の制御や映像処理装置10の機能を実現する演算装置である。映像処理装置10は図6に示すハードウエア構成により、上述した各種処理を実現できる。
<機能構成>
図7を用いて、第1の実施形態に係る映像処理装置10の機能構成について説明する。映像処理装置10は、映像入力部110と、映像補正部120と、抽出部130と、追跡部140と、フレームバッファ150と、重複点除去部160と、ポーズ推定部170と、追跡処理設定部180と、3次元再構成部190とを有する。
映像入力部110は、カメラ20によって撮影された映像の入力を受け付ける。映像入力部110は、カメラ20で撮影した映像をケーブルを介して受け付けてもよいし、記憶媒体に記憶された映像の入力を受け付けてもよい。また、映像入力部110は、有線、又は無線のネットワーク経由で映像の入力を受け付けてもよい。
映像補正部120は、映像入力部110から映像フレームを取得し、かかる映像フレームのひずみを補正する。
抽出部130は、映像フレームの特徴点を抽出する。
フレームバッファ150は、映像補正部120から取得した映像フレームを記憶する。フレームバッファ150は、追跡部140に、映像フレームを送信する。
追跡部140は、映像補正部120から映像フレームを取得する。追跡部140は抽出部130で抽出された特徴点を追跡する。具体的には、追跡部140は、パターンマッチング処理を行い、特徴点が抽出された映像フレームより後の映像フレームから、かかる特徴点に対応する追跡点を抽出する。
追跡部140は、抽出部130から、かかる映像フレームにおいて抽出された特徴点を取得する。追跡部140は、フレームバッファ150から特徴点が抽出された映像フレームより前の映像フレームを取得する。追跡部140は、取得した映像フレーム、及び特徴点から、特徴点を追跡する。
追跡部140が、時刻Mにおける映像フレームF(M)で抽出された特徴点を追跡する場合について説明する。
追跡部140は、抽出部130から時刻Mにおける映像フレームF(M)における特徴点を抽出部130から取得する。追跡部140は、時刻Mより後の時刻M+1における映像フレームF(M+1)を映像補正部120から取得する。追跡部140は、フレームバッファ150より、映像フレームF(M)を取得する。
追跡部140は、映像フレームF(M)と、取得した映像フレームF(M)における特徴点とから、映像フレームF(M+1)における特徴点に対応する追跡点を抽出する。追跡部140は、パターンマッチング処理を用いて、特徴点に対応する追跡点を抽出する。
例えば、追跡部140がブロックマッチングの処理により追跡点を抽出する場合について説明する。追跡部140は、映像フレームF(M)から特徴点を含むテンプレートパッチを生成する。そして、追跡部140は、映像フレームF(M+1)に対して、生成されたテンプレートパッチ内の画素の輝度値の合計値と、テンプレートパッチと映像フレームF(M+1)の重複部分の画素の輝度値の合計値との差ESADを求める。
追跡部140は、例えば、テンプレートパッチ内の画素の輝度値の合計値と、重複部分の輝度値の合計値との差ESADが最小となる重複部分を特定し、特定された重複部分の中心を、特徴点に対応する追跡点とする。
重複点除去部160は、抽出部130で抽出された映像フレームF(M+1)の特徴点と、追跡部140で抽出された映像フレームF(M+1)の追跡点とが重複する場合に、一方を除去する。
ポーズ推定部170は、映像フレームF(M+1)に対して、上述したポーズ推定処理を行う。具体的には、ポーズ推定部170は、映像フレームF(M+1)に対応する仮想映像フレーム200上の所定の数の特徴点に対応する再投影点230を選択し、映像フレームF(M+1)における観測点260との再投影誤差270が最小になるように仮想カメラ240の位置及び姿勢を推定する(処理1)。ポーズ推定部170は、処理1で選択されていない再投影点230を選択し、対応する観測点260との間の再投影誤差270を算出する(処理2)。ポーズ推定部170は、処理2の結果、インライアとなる再投影点230と、アウトライアとなる再投影点230とを分類し、それぞれの数をカウントする(処理3)。
インライアと分類された再投影点230の数が所定の数よりも多い場合、ポーズ推定部170は、ポーズ推定処理が成功したと判断する。一方、インライアと分類された再投影点230の数が所定の数以下の場合、ポーズ推定部170は、処理1〜処理3を再度実行する。
追跡処理設定部180は、類似度算出部181と、閾値設定部182とを有する。類似度算出部181は、アウトライアと分類された再投影点230から、映像フレームF(M+1)における特徴点と最も類似する再投影点230を選択する(処理4)。ここで、類似度算出部181は、特徴点と最も属性値が近い再投影点230を最も類似する再投影点230として選択する。すなわち、本実施形態の類似度とは、特徴点と再投影点の属性値の差分を示す。両者の差分が小さいほど、両者の類似度は高く、両者の差分が大きいほど、両者の類似度は低いと言える。
閾値設定部182は、選択された再投影点230の属性値を映像フレームF(M+2)におけるパターンマッチング処理に用いる所定の閾値を決定し、決定された所定の閾値を追跡部140に通知する(処理5)。映像フレームF(M+1)に複数の特徴点が存在する場合、映像処理装置10は、処理4及び処理5を繰り返し実行する。
3次元再構成部190は、ポーズ推定部170による処理の結果から推定される仮想カメラ240の位置及び姿勢と、抽出部130により抽出された特徴点と、追跡部140により抽出された追跡点とに基づいて、3次元座標上の点220の座標を更新し記憶する。
記憶部195は、映像入力部110がカメラ20から受け付けた映像フレームを記憶する。記憶部195は、各映像フレームの特徴点、追跡点、及びそれらの3次元座標上の点220の座標を記憶する。記憶部195は、3次元座標上の点220の座標と、キーフレームとをマップとして記憶する。また、記憶部195は、ポーズ推定部170、及び追跡部140等が処理をするのに必要な情報を記憶する。例えば、記憶部195は、パターンマッチング処理に用いる各映像フレームの特徴点毎に設定される所定の閾値、及びポーズ推定処理に用いる必要な再投影点230の数、及びインライアとして分類される必要がある再投影点230の数(インライア数の閾値T)等を記憶する。
ここで、映像フレームF(M)は時刻Mにおける映像フレームであり、映像フレームF(M+1)は時刻M+1における映像フレームであり、映像フレームF(M)の次の映像フレームである。映像フレームF(M+2)は、時刻M+1より後の時刻M+2における映像フレームであり、映像フレームF(M+1)の次の映像フレームである。上述した説明では、連続した映像フレームに対する処理を実行する場合について説明したが、映像フレームが連続していない場合にも同様の処理を適用可能なことは勿論である。
<処理手順>
(1)閾値設定の処理手順
図8のフローチャートを用いて、閾値設定の処理手順について説明する。
ステップS801で、追跡部140は、パターンマッチング処理を行い、抽出部130が抽出した映像フレームF(M)における特徴点を追跡する。映像フレームF(M)に複数の特徴点がある場合、追跡部140は、複数の特徴点に対してステップS801の処理を実行する。
ステップS802で、追跡部140は、映像フレームF(M+1)において、特徴点に対応する追跡点を抽出できたか否かを判断する。追跡点を抽出できなかった場合は、ステップS803に進む。一方、追跡点を抽出できた場合は、ステップS804に進む。ここで、追跡点を抽出できなかった場合とは、特徴点に対応する追跡点を1つも抽出できなかった場合である。
ステップS803で、追跡部140は、映像フレームF(M+1)において特徴点の追跡を失敗したと判断する。処理の完了後、ステップS809に進む。
ステップS804で、重複点除去部160は、抽出部130で抽出された映像フレームF(M+1)の特徴点と、追跡部140で抽出された映像フレームF(M+1)の追跡点とが重複する場合に、一方を除去する。
ステップS805で、ポーズ推定部170は、映像フレームF(M+1)に対してポーズ推定処理を行う。ポーズ推定部170におけるポーズ推定処理は上述した通りである。ポーズ推定処理の結果、再投影誤差270が最小になるように仮想カメラ240の位置及び姿勢が推定される。また、インライアとなる再投影点230、及びアウトライアとなる再投影点230が特定される。
ポーズ推定処理の完了後、ステップS806と、ステップS807及びステップS808とは並列で実行される。
ステップS806で、3次元再構成部190は、ポーズ推定部170による処理の結果から推定される仮想カメラ240の位置及び姿勢と、特徴点とから3次元座標を更新し、記憶部195が更新された3次元座標を記憶する。
ステップS807で、類似度算出部181は、アウトライアと分類された再投影点230から、映像フレームF(M+1)における特徴点の各々と最も類似する再投影点230を選択する。
ステップS808で、閾値設定部182は、選択された各々の再投影点230の属性値、映像フレームF(M+2)における、特徴点の各々に対するパターンマッチング処理に用いる所定の閾値を決定する。
ステップS809で、追跡部140は、後続する映像フレームの有無を確認する。この場合、追跡部140は、映像フレームF(M+2)の有無を確認する。後続する映像フレームがある場合(ステップS809 Yes)、ステップS801に戻る。一方、後続する映像フレームがない場合(ステップS809 No)、処理を終了する。
(2)ポーズ推定処理
図9を用いてポーズ推定処理について説明する。映像フレーム(フレーム番号i)の任意の画素Pの仮想映像フレーム200における座標は、回転行列R、平行移動成分t、マップにおける任意の画素Pの座標をpとすると、フレーム番号iの映像フレームの任意の画素Pからの仮想映像フレーム200における位置pijは図9の式1で表される。カメラ20の内部パラメータをKとすると、任意の画素Pの再投影点230の座標は、図9の式2で表される。
ポーズ推定部170は、選択された再投影点230における再投影誤差270が最小になるように仮想映像フレーム200を撮影したと仮定した場合の仮想カメラ240の位置と姿勢とを算出する。つまり、ポーズ推定部170は、回転行列R、平行移動成分tを算出する。
ここで、再投影誤差270は、再投影点230と観測点260との座標の差分である。また、選択された再投影点230に対応する観測点260は、映像フレーム(フレーム番号i)における特徴点である。
フレーム番号iの映像フレームに含まれる全ての観測点260の再投影誤差270の和は、図9の式3で表される。ここで、再投影誤差270を最小化するRとtとは、非線形最小化問題を解くことで算出することができる。第1の実施形態では、ポーズ推定部170は、選択された再投影点230における再投影誤差270の和を最小化するように仮想カメラ240の位置と姿勢とを算出する。つまり、仮想映像フレーム200と第2映像フレームにおける選択された特徴点に関する再投影誤差270の和を最小化するように仮想カメラ240の位置と姿勢とを算出する。
次に、ポーズ推定部170における処理を図10のフローチャートを用いて説明する。ここでは、ポーズ推定の処理にRANSAC(Random Sample Consensus)を用いた場合について説明する。
ステップS1001で、ポーズ推定部170は、映像フレーム(フレーム番号i)に対応する仮想映像フレーム200において、ポーズ推定を実行するのに必要な数(最低必要数N)の特徴点に対応する再投影点230が存在するか否かを判断する。最低必要数N以上の再投影点230が存在する場合(ステップS1001 Yes)、ステップS1002に進む。一方、最低必要数N以上の再投影点230が存在しない場合(ステップS1001 No)、ステップS1009に進む。
ステップS1002で、ポーズ推定部170は、N個以上の再投影点230を選択し、選択された再投影点230と、該再投影点230に対応する観測点260との再投影誤差270の和を最小化するようにポーズを推定する処理を行う。つまり、ポーズ推定部170は、仮想カメラ240の位置と姿勢とを算出する。
ステップS1003で、ポーズ推定部170は、ステップS1002で選択されなかった再投影点230と、該再投影点230に対応する観測点260との再投影誤差270を算出する。
ステップS1004で、ポーズ推定部170は、算出された再投影誤差270が、誤差Lより小さい再投影点230をインライアとして分類する。ポーズ推定部170は、算出された再投影誤差270が、誤差L以上の再投影点230をアウトライアとして分類する。
ステップS1005で、ポーズ推定部170は、インライアとして分類された再投影点230の数がインライア数の閾値Tを上回るか否かを判断する。インライア数の閾値Tを上回る場合(ステップS1005 Yes)、ステップS1006に進む。インライア数の閾値T以下の場合、ステップS1007に進む。
ステップS1006で、ポーズ推定部170は、アウトライアとして分類された再投影点230を、追跡処理設定部180に通知し、処理を終了する。
ステップS1007で、ポーズ推定部170は、ポーズ推定処理の回数を1増加させる。
ステップS1008で、ポーズ推定部170は、ポーズ推定処理の回数が、最大繰り返し回数より小さいか否かを確認する。最大繰り返し回数より小さい場合(ステップS1008 Yes)、ステップS1001に戻り、ポーズ推定部170は、再度ポーズ推定処理を実行する。一方、最大繰り返し回数以上の場合(ステップS1008 No)、ステップS1010に進む。
ステップS1009で、ポーズ推定部170は、ポーズ推定処理が失敗したと判断し、処理を終了する。
ステップS1010で、ポーズ推定部170は、ポーズ推定処理が失敗したと判断し、処理を終了する。
なお、「最低必要数N」、「再投影誤差L」、「インライア数の閾値T」、及び「最大繰り返し回数M」は、映像処理装置10の管理者により任意の値を設定することが可能であり、記憶部195に記憶される。
(3)固有値判定処理
映像処理装置10は、パターンマッチング処理の完了後に、固有値判定処理を実行してもよい。これにより、特徴点を正確に抽出することができる。図11及び図12を用いて固有値判定処理について説明する。
図11は、固有値判定処理を含む、閾値設定の処理手順を示す図である。ステップS1101乃至ステップS1103は、ステップS801乃至ステップS803と同じ処理であり、ステップS1106乃至ステップS1110は、ステップS804乃至ステップS808と同じである。また、ステップS1113は、ステップS809と同じである。このため、これらの処理についての説明は省略する。
ステップS1104で、ポーズ推定部170は、映像フレームF(M+1)に対応する仮想映像フレーム200に対して固有値算出処理を行う。固有値とは、画素の周辺画素からの際立ち度合いを示す値であり。ポーズ推定部170は、算出された仮想映像フレーム200の各画素の固有値を記憶部195に通知し、記憶部195は通知された各画素の固有値を記憶する。
追跡部140は、パターンマッチング処理の結果、追跡された特徴点の各々について算出された固有値が所定の条件を満たすか否か判断する固有値判定処理を行う。
ここで、固有値算出処理及び固有値判定処理とは、特徴点として抽出された画素が周辺の画素に対して際立っている点であるか否かを判定する処理である。具体的な処理の方法については後述する。
ステップS1105で、追跡部140は、固有値判定処理が成功したか否かを判断する。固有値判定処理が成功した場合(ステップS1105 Yes)、ステップS1106に進む。一方、固有値判定処理が失敗した場合(ステップS1105 No)、ステップS1103に進む。
ステップS1111で、類似度算出部181は、ステップS1109で選択された再投影点230における固有値THを、記憶部195から取得する。
ステップS1112で、閾値設定部182は、固有値THを、映像フレームF(M+2)における固有値判定処理の際に用いる固有閾値λthに設定する。設定された固有閾値λthは記憶部195に記憶される。
次に、固有値算出処理及び固有値判定処理の方法について図12を用いて説明する。
追跡部140は、映像フレームF(M+1)において、追跡点を中心とする所定のサイズの固有値判定用画像Jを生成する。追跡部140は、追跡点を中心とする15×15の固有値判定用画像Jを生成する。次に、追跡部140は、固有値判定用画像Jに画素間補完を行い、補間画像J'を生成する。追跡部140は、補間画像J'を横方向(x方向)と、縦方向(y方向)に微分し、勾配画像J'0x、及び勾配画像J'0yを生成する。
追跡部140は、関数f(λ)と2行2列の行列Gを用いて、固有値を算出する。ここで、行列Gが図12の式1で表される場合、関数f(λ)は式2のように表される。
追跡部140は、生成された勾配画像J'0x、及び勾配画像J'0yを基に、図12の式3を用いて固有値判定に用いる行列Gを算出する。行列Gは、勾配画像J'0x、及び勾配画像J'0y内の画素の2乗和を算出することにより算出される。ここで、図12の式3中の「x=px−wx」、「px+wx」、「y=py−wy」、及び「py+wy」は固有値判定用画像Jの映像フレームF(M+1)内の領域を表している。
図12の式3で算出された行列Gと関数f(λ)を用いて、映像フレームF(M+1)の固有値が算出される。
次に、追跡部140は、追跡された特徴点の各々について算出された結果が、式4及び式5を満たすか否かを判断する。式4及び式5を満たす場合、追跡点は滑らかでない、つまり際立っていると判断できるため、追跡部140は、特徴点に対する固有値判定処理が成功したと判断する。一方、式4及び式5を満たさない場合、追跡部140は、特徴点に対する固有値判定処理が失敗したと判断する。ここで、固有閾値λthは固有値判定処理に用いる固有閾値であり、記憶部195に記憶されている。固有閾値λthは閾値設定部182により、1つ前の映像フレームの固有値算出処理の結果を基に算出される。映像処理装置10は、固有値判定の処理を実行することにより、追跡点の誤検出を防ぐことが可能となる。
(4)単一性判定処理
映像処理装置10は、パターンマッチング処理の完了後に、単一性判定処理を実行してもよい。これにより、特徴点の抽出の精度を向上させることができる。図13及び図14を用いて単一性判定処理について説明する。ここで、単一性とは、特徴点に対応する1つの追跡点が特定できることである。
図13を用いて、単一性判定処理の具体例について説明する。図13の(1)は第1の探索ウィンドウ内の特徴点と再投影点との類似度の分布2801を3次元で示す図である。類似度は、第1の探索ウィンドウの幅W、高さH内に分布している。図13の(2)は第1の探索ウィンドウ内の特徴点と再投影点との類似度の分布2802を2次元で示す図である。図13では、類似度が低い点ほど、属性値が近い値である。
図13の(2)では、極値2804が最も小さい。また、極値2803は、2番目に小さい。つまり、図13から、極値2804を有する再投影点の属性値が特徴点の属性値と最も近く、極値2803を有する再投影点の属性値が、その次に特徴点の属性値と近いことがわかる。したがって、極値2804を有する再投影点が、特徴点の追跡点となる。
しかしながら、図13から分かるように、極値2804を有する再投影点の属性値と、極値2803を有する再投影点の属性値とは、近い値(差分が小さい値)であり、極値2803を有する再投影点が、誤って追跡点として抽出される可能性がある。例えば、縞模様のように輝度値の分布が似ている領域が繰り替えされるような映像フレームの場合、極値を有する再投影点同士の類似度の差が小さくなり、誤った画素が抽出点として抽出される可能性がある。
第1の実施形態の追跡部140は、第1の探索ウィンドウ内の最も小さい極値を有する再投影点と、2番目に小さい極値を有する再投影点との類似度の差が、単一性判断用の閾値以上離れているか否かを判断する(判断1)。判断の結果、単一性判断用の閾値以上離れている場合、追跡部140は、最も小さい極値を有する再投影点を追跡点の候補として抽出する。次に、追跡部140は、追跡点の候補として抽出した再投影点と、パターンマッチング処理により追跡点として抽出した再投影点が一致するか否かを判断する(判断2)。一致する場合、追跡部140は、追跡点の候補とを追跡点とする。
以上のように、追跡部140は、最も小さい極値を有する再投影点の類似度と、次に小さい極値を有する再投影点の類似度との差が単一性判断用の閾値以上であり、且つ、最も小さい極値を有する再投影点が、追跡部140が抽出した追跡点と一致するとき、単一性の処理が成功したと判断する。また、追跡部140は、上述した2つの条件を両方とも満たさない場合は、単一性の処理が失敗したと判断する。
図14は、単一性判定処理を含む閾値設定の処理手順を示す図である。ステップS1401乃至ステップS1403は、ステップS801乃至ステップS803と同じ処理であり、ステップS1406乃至ステップS1411は、ステップS804乃至ステップS809と同じである。このため、これらの処理についての説明は省略する。
ステップS1404で、追跡部140は、パターンマッチング処理の結果、追跡された特徴点の各々に対して単一性判定処理を行う。
ステップS1405で、追跡部140は、単一性判定が成功したか否かを判断する。単一性判定が成功した場合(ステップS1405 Yes)、ステップS1406に進む。一方、単一性判定が失敗した場合(ステップS1405 No)、ステップS1403に進む。
パターンマッチング処理に加えて、単一性判定処理を行うことにより、追跡部140は特徴点に対応する追跡点を誤検出する可能性を抑えることができる。
(5)探索ウィンドウサイズの変更処理
映像処理装置10は、追跡点を抽出できない場合、第1の探索ウィンドウのサイズを変更してパターンマッチングを行うことにより特徴点に対応する追跡点の抽出を行ってもよい。第1の探索ウィンドウサイズの変更処理は、パターンマッチングの処理が失敗した場合、固有値判定の処理が失敗した場合、又は単一性判定処理が失敗した場合に実行される。
図15を用いて、第1の探索ウィンドウサイズの変更処理について説明する。図15は、固有値判定の処理が失敗したときに、第1の探索ウィンドウサイズの変更処理が実行される場合のフローチャートを示している。ステップS1501乃至ステップS1505の手順については、ステップS1101乃至ステップS1105の手順と同じである。また、ステップS1509乃至ステップS1516の手順については、ステップS1106乃至ステップS1113の手順と同じであるため説明を省略する。
固有値判定処理が失敗した場合(ステップS1505 No)、ステップS1506の処理が実行される。
ステップS1506で、追跡部140は、第1の探索ウィンドウサイズの変更回数が所定の回数を上回っているか否かを判断する。ここで変更回数の初期値は0である。
変更回数が所定の回数を上回っている場合(ステップS1506 Yes)、ステップS1503に進み、追跡部140は特徴点の探索に失敗したと判断し処理を終了する。
一方、変更回数が所定の回数以下の場合(ステップS1506 No)、ステップS1507に進む。
ステップS1507で、追跡部140は第1の探索ウィンドウのサイズを変更する。例えば、追跡部140は、第1の探索ウィンドウの縦及び横のサイズを所定の画素数分拡大されてもよいし、第1の探索ウィンドウの縦及び横のサイズを所定の割合拡大してもよい。拡大された第1の探索ウィンドウのサイズは記憶部195に記憶される。
ステップS1508で、第1の探索ウィンドウの変更回数を1増加させ、ステップS1501に戻る。ステップS1501において、サイズが拡大された第1の探索ウィンドウに対するパターンマッチングの処理が実行される。
第1の探索ウィンドウサイズの変更を行うことにより、第1の探索ウィンドウ内で特徴点に対応する追跡点が抽出されなかった場合でも、サイズが拡大された第1の探索ウィンドウに対するパターンマッチングの処理が実行されるため、特徴点が抽出される可能性が高くなる。なお、拡大するサイズについては、縦及び横のサイズを10画素ずつ増加させる、又は10%ずつ増加させる等の設定をすることが想定されている。
パターンマッチングの処理が失敗したときに、第1の探索ウィンドウサイズの変更処理が実行される場合、ステップS1502で「No」の後に、ステップS1504乃至ステップS1508の第1の探索ウィンドウサイズの変更処理が実行される。
単一性判定の処理が失敗したときに、第1の探索ウィンドウサイズの変更処理が実行される場合、図14のステップS1405において、単一性判定の失敗と判断された後に(ステップS1405 No)、ステップS1506乃至ステップS1508の手順が実行される。
[その他]
上述した実施形態では、パターンマッチング処理及び固有値判定処理が実行される場合と、パターンマッチング処理及び単一性判定処理が実行される場合について記載したが、特徴点を抽出する際に、パターンマッチング処理、固有値判定処理、及び単一性判定処理が同時に実行されてもよい。
上述した実施の形態の機能を実現するソフトウエアのプログラムコードを記録した記憶媒体を、映像処理装置10に供給してもよい。そして、映像処理装置10が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、上述の実施形態が、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は、いずれかの実施の形態を構成することになる。ここで、記憶媒体は、記録媒体または非一時的な記憶媒体である。
また、コンピュータ装置が読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけではない。そのプログラムコードの指示に従って、コンピュータ装置上で動作しているオペレーティングシステム(OS)等が実際の処理の一部または全部を行ってもよい。さらに、その処理によって前述した実施形態の機能が実現されてもよいことは言うまでもない。
以上、本発明の好ましい実施形態について説明したが、本発明はこうした実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1 映像処理システム
10 映像処理装置
20 カメラ
110 映像入力部
120 映像補正部
130 抽出部
140 追跡部
150 フレームバッファ
160 重複点除去部
170 ポーズ推定部
180 追跡処理設定部
181 類似度算出部
182 閾値設定部
190 3次元再構成部
195 記憶部
特開2010−165104号公報

Claims (9)

  1. 第1の映像フレームと、第2の映像フレームとに基づき生成される3次元点を仮想の映像フレームに再投影させた再投影点と、前記第2の映像フレームにおける前記再投影点に相当する観測点を前記再投影点と対応付けて、前記第2の映像フレームが撮影されたときの撮像装置のポーズを推定するポーズ推定部と、
    前記ポーズの推定において、前記観測点と対応付けられなかった前記再投影点のうち、前記第1の映像フレームにおける特徴点と最も類似する前記再投影点の属性値を閾値に設定する閾値設定部と、
    前記閾値を用いて、前記第2の映像フレームにおける特徴点を、第3の映像フレームにおいて追跡する追跡処理を行う追跡部と、を有する映像処理装置。
  2. 前記ポーズ推定部は、
    前記第2の映像フレームにおける前記特徴点に対応する観測点を選択し、
    選択された前記観測点と、該観測点に対応する前記再投影点との再投影誤差が最小になるようにポーズ推定を行う、請求項1に記載の映像処理装置。
  3. 前記ポーズ推定部は、前記ポーズの推定において、前記観測点と対応付けられた前記再投影点が所定の数以下の場合、前記特徴点を再度選択する、請求項2に記載の映像処理装置。
  4. 前記追跡部は、
    前記第3の映像フレームの所定領域において、前記第2の映像フレームにおいて前記特徴点を含む画像の一部が前記所定領域と重複するように移動させ、
    前記所定領域において前記画像と重複する重複部分のうち、前記画像における各画素の属性値の合計と、前記重複部分における各画素の属性値の合計との差分が最も少ない重複部分を特定し、
    特定された前記重複部分の中心となる点の属性値が、前記閾値より大きいとき、前記中心となる点を前記特徴点に対応する追跡点とする請求項1乃至3のいずれか一項に記載の映像処理装置。
  5. 前記追跡処理は、前記特徴点に対する周辺画素からの際立ちの程度を判定する固有値判定処理を含み、
    前記第3の映像フレームで、前記固有値判定処理に用いる閾値は、前記特徴点と最も類似する前記再投影点の固有値に基づいて設定される請求項4に記載の映像処理装置。
  6. 前記追跡処理は、前記特徴点との類似度を算出する極値算出処理とを含み、
    前記追跡部は、
    前記極値算出処理において、前記特徴点と最も類似する属性値を有する第1の画素の前記特徴点との類似度と、前記特徴点と2番目に類似する第2の画素の前記特徴点との類似度との差が、所定の閾値より大きい場合であって、
    前記第1の画素の位置と前記追跡点とが一致する場合、前記追跡点と前記特徴点とが対応すると判断する、請求項4又は5に記載の映像処理装置。
  7. 前記追跡処理の結果、前記特徴点が抽出されなかった場合、前記追跡部は、前記所定領域を拡大する、請求項4乃至6のいずれか一項に記載の映像処理装置。
  8. 第1の映像フレームと、第2の映像フレームとに基づき生成される3次元点を仮想の映像フレームに再投影させた再投影点と、前記第2の映像フレームにおける前記再投影点に相当する観測点を前記再投影点と対応付けて、前記第2の映像フレームが撮影されたときの撮像装置のポーズを推定するステップと、
    前記ポーズの推定において、前記観測点と対応付けられなかった前記再投影点のうち、前記第1の映像フレームにおける特徴点と最も類似する前記再投影点の属性値を閾値に設定するステップと、
    前記閾値を用いて、前記第2の映像フレームにおける特徴点を、第3の映像フレームにおいて追跡する追跡処理を行うステップと、を有する映像処理方法。
  9. 第1の映像フレームと、第2の映像フレームとに基づき生成される3次元点を仮想の映像フレームに再投影させた再投影点と、前記第2の映像フレームにおける前記再投影点に相当する観測点を前記再投影点と対応付けて、前記第2の映像フレームが撮影されたときの撮像装置のポーズを推定するステップと、
    前記ポーズの推定において、前記観測点と対応付けられなかった前記再投影点のうち、前記第1の映像フレームにおける特徴点と最も類似する前記再投影点の属性値を閾値に設定するステップと、
    前記閾値を用いて、前記第2の映像フレームにおける特徴点を、第3の映像フレームにおいて追跡する追跡処理を行うステップと、をコンピュータに実行させるプログラム。
JP2016008938A 2016-01-20 2016-01-20 映像処理装置、映像処理方法、及びプログラム Pending JP2017130042A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016008938A JP2017130042A (ja) 2016-01-20 2016-01-20 映像処理装置、映像処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016008938A JP2017130042A (ja) 2016-01-20 2016-01-20 映像処理装置、映像処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2017130042A true JP2017130042A (ja) 2017-07-27

Family

ID=59395629

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016008938A Pending JP2017130042A (ja) 2016-01-20 2016-01-20 映像処理装置、映像処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2017130042A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110555882A (zh) * 2018-04-27 2019-12-10 腾讯科技(深圳)有限公司 界面显示方法、装置及存储介质
CN111161347A (zh) * 2020-04-01 2020-05-15 亮风台(上海)信息科技有限公司 一种进行slam初始化的方法与设备
JP2020529065A (ja) * 2017-07-31 2020-10-01 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 拡張現実の表示方法、姿勢情報の決定方法及び装置
CN114531580A (zh) * 2020-11-23 2022-05-24 北京四维图新科技股份有限公司 图像处理方法及装置
KR20220077731A (ko) * 2020-12-02 2022-06-09 한국항공대학교산학협력단 카메라 자세와 대상 물체의 3d 좌표를 동시에 추정하는 동시 추정 장치 및 방법

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020529065A (ja) * 2017-07-31 2020-10-01 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 拡張現実の表示方法、姿勢情報の決定方法及び装置
US11222442B2 (en) 2017-07-31 2022-01-11 Tencent Technology (Shenzhen) Company Limited Method for augmented reality display, method for determining pose information, and apparatuses
JP7000555B2 (ja) 2017-07-31 2022-02-10 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 拡張現実の表示方法、姿勢情報の決定方法及び装置
US11763487B2 (en) 2017-07-31 2023-09-19 Tencent Technology (Shenzhen) Company Limited Method for augmented reality display, method for determining pose information, and apparatuses
CN110555882A (zh) * 2018-04-27 2019-12-10 腾讯科技(深圳)有限公司 界面显示方法、装置及存储介质
CN110555882B (zh) * 2018-04-27 2022-11-15 腾讯科技(深圳)有限公司 界面显示方法、装置及存储介质
CN111161347A (zh) * 2020-04-01 2020-05-15 亮风台(上海)信息科技有限公司 一种进行slam初始化的方法与设备
CN111161347B (zh) * 2020-04-01 2020-09-29 亮风台(上海)信息科技有限公司 一种进行slam初始化的方法与设备
CN114531580A (zh) * 2020-11-23 2022-05-24 北京四维图新科技股份有限公司 图像处理方法及装置
CN114531580B (zh) * 2020-11-23 2023-11-21 北京四维图新科技股份有限公司 图像处理方法及装置
KR20220077731A (ko) * 2020-12-02 2022-06-09 한국항공대학교산학협력단 카메라 자세와 대상 물체의 3d 좌표를 동시에 추정하는 동시 추정 장치 및 방법
KR102421067B1 (ko) 2020-12-02 2022-07-13 한국항공대학교산학협력단 카메라 자세와 대상 물체의 3d 좌표를 동시에 추정하는 동시 추정 장치 및 방법

Similar Documents

Publication Publication Date Title
JP7173772B2 (ja) 深度値推定を用いた映像処理方法及び装置
US10803546B2 (en) Systems and methods for unsupervised learning of geometry from images using depth-normal consistency
JP6430064B2 (ja) データを位置合わせする方法及びシステム
KR102137264B1 (ko) 카메라 포즈 추정 장치 및 방법
US10893207B2 (en) Object tracking apparatus, object tracking method, and non-transitory computer-readable storage medium for storing program
WO2019205852A1 (zh) 确定图像捕捉设备的位姿的方法、装置及其存储介质
KR101708659B1 (ko) 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
JP6184271B2 (ja) 撮像管理装置、撮像管理システムの制御方法およびプログラム
US9177381B2 (en) Depth estimate determination, systems and methods
US10636165B2 (en) Information processing apparatus, method and non-transitory computer-readable storage medium
JP2020530170A5 (ja)
US20140002597A1 (en) Tracking Poses of 3D Camera Using Points and Planes
JP2017130042A (ja) 映像処理装置、映像処理方法、及びプログラム
JP6939111B2 (ja) 画像認識装置および画像認識方法
US10572762B2 (en) Image processing method for performing pattern matching for detecting a position of a detection target
KR102472767B1 (ko) 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치
US20180197308A1 (en) Information processing apparatus and method of controlling the same
US10346949B1 (en) Image registration
US11153479B2 (en) Image processing apparatus, capable of detecting an amount of motion between images by tracking a point across one or more images, image capturing apparatus, image processing method, and storage medium
US20150030206A1 (en) Detecting and Tracking Point Features with Primary Colors
JP7003617B2 (ja) 推定装置、推定方法、及び推定プログラム
JP6305856B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2009237846A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
CN112085842B (zh) 深度值确定方法及装置、电子设备和存储介质
JP2014102805A (ja) 情報処理装置、情報処理方法及びプログラム