JP2011008687A - Image processor - Google Patents
Image processor Download PDFInfo
- Publication number
- JP2011008687A JP2011008687A JP2009153788A JP2009153788A JP2011008687A JP 2011008687 A JP2011008687 A JP 2011008687A JP 2009153788 A JP2009153788 A JP 2009153788A JP 2009153788 A JP2009153788 A JP 2009153788A JP 2011008687 A JP2011008687 A JP 2011008687A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- feature points
- tracking
- camera
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、実写画像データにコンピュータグラフィックスデータを合成する画像処理装置に関する。 The present invention relates to an image processing apparatus that synthesizes computer graphics data with photographed image data.
従来から、カメラで実空間を動画像データとして撮影し、CG等で生成された仮想物体が存在するかのように重畳し、頭部に装着する小型ディスプレイ装置であるHMD(Head Mount Display)等で表示することで拡張現実感(Augmented Reality)を実現する仮想現実システムが知られている(例えば、非特許文献1参照)。このシステムは、仮想物体の表示位置(3次元位置)を特定するためのマーカーを実空間に配置し、動画像データからマーカーの検出・追跡を行うことで、重畳させる仮想物体の表示位置を決定し表示を行うものである。しかし、マーカーを用いるシステムにおいては、仮想物体を表示する位置ごとに、実空間にマーカーを設置する必要があるため、システムの利用環境・利用用途が限定されるという問題がある。 Conventionally, HMD (Head Mount Display) or the like, which is a small display device that is mounted on the head, is captured as if there is a virtual object generated by CG or the like by capturing a real space as moving image data with a camera. A virtual reality system that realizes Augmented Reality by displaying with (for example, see Non-Patent Document 1). In this system, a marker for specifying the display position (three-dimensional position) of a virtual object is arranged in the real space, and the display position of the virtual object to be superimposed is determined by detecting and tracking the marker from the moving image data. Display. However, in a system using a marker, it is necessary to install a marker in the real space for each position where a virtual object is displayed, so that there is a problem that the usage environment and usage of the system are limited.
このような問題を解決するために、マーカーの代わりに撮影された画像から特定の画像特徴を有した特徴点を検出・追跡し、仮想物体の表示位置を特定する技術が提案されている(例えば、非特許文献2参照)。非特許文献2に記載の特徴点を検出・追跡する技術では、FAST feature detector(非特許文献3参照)という技術を用いて、各画像中のコーナー特徴を検出し、検出したコーナー特徴の周辺画素をテンプレートとして用いることで、画像間のテンプレートマッチングによってコーナー特徴を追跡し、その結果からカメラ位置姿勢および特徴点の3次元位置を推定し、仮想物体の表示位置を決定することが可能である。FAST feature detectorは、画像中の任意の画素を中心とした所定の半径Rの円周上に存在する各画素に対し、円の中心に位置する画素の輝度値との差が、所定のしきい値TH1以上の画素が所定数N以上連続する場合、あるいは、円の中心に位置する画素の輝度値との差が、―TH1以下の画素がN以上連続する場合、円の中心を特徴点の検出位置とし、円の中心及び円周上の各画素の輝度値をそのコーナー特徴とする手法である。
In order to solve such a problem, a technique for detecting and tracking a feature point having a specific image feature from an image taken instead of a marker and specifying a display position of a virtual object has been proposed (for example, Non-Patent Document 2). In the technology for detecting and tracking feature points described in Non-Patent
しかしながら、画像特徴を用いる手法は、マーカーを用いる手法に比べて、撮影中の状況変化の影響を受けやすく、出力されるカメラ位置姿勢および特徴点の3次元位置の推定結果が不安定になりやすいという問題がある。例えば、非特許文献3に記載のFAST feature detector手法では、撮影された画像のコントラストが低く撮影時のノイズの影響が大きい場合や、長時間の撮影で照明条件が変化した場合には、被写体やカメラ自体の動きの有無に関わらず、複数の画像において同一の位置を安定して特徴点として検出し続けることは困難である。また撮影中にカメラの移動があり、撮影される被写体の形状が大きく変化する場合も、被写体上の同一位置を特徴点として検出し続けることは困難であり、出力されるカメラ位置姿勢および特徴点の3次元位置の推定結果が不安定になる要素である。これら撮影中の状況変化は、撮影時間の増加に伴い発生する確率が高くなるため、長時間撮影時における推定結果の安定性が問題となる。 However, the method using image features is more susceptible to changes in the situation during shooting than the method using markers, and the output camera position and orientation and the estimation result of the three-dimensional position of feature points are likely to be unstable. There is a problem. For example, according to the FAST feature detector method described in Non-Patent Document 3, when the contrast of a captured image is low and the influence of noise at the time of shooting is large, or when illumination conditions change during long-time shooting, Regardless of whether the camera itself moves, it is difficult to stably detect the same position as a feature point in a plurality of images. Even when the camera moves during shooting and the shape of the subject being photographed changes significantly, it is difficult to continue to detect the same position on the subject as a feature point. This is an element in which the estimation result of the three-dimensional position becomes unstable. Since there is a high probability that these situation changes during shooting will occur as the shooting time increases, the stability of the estimation result during long-time shooting becomes a problem.
この問題の解決手段としては、FAST feature detector手法に比べ、画像の回転、拡大縮小、アフィン変形、照明変化、ノイズ付加に頑強な性能を有する画像特徴を用いる方法が考えられる。このような画像特徴としては、例えばSIFT(Scale-invariant feature transform)特徴がある。SIFT特徴は、特徴点の検出のため、まず対象画像に対しDoG(Difference−of−Gaussian)処理を行い、生成されたDoG画像内の極値となる点を特徴点の候補とする。次にノイズの影響を受けやすい主曲率が所定のしきい値以上の点、コントラストが所定のしきい値以下の点を候補から取り除くことで特徴点の検出が行われる。また検出された特徴点の輝度勾配方向および近傍領域における輝度勾配ヒストグラムを当該特徴点における特徴量として用い、検出された特徴点の特徴量を画像間で比較し、類似度の高い組み合わせを求めることで、画像中の特徴を追跡することができる。また、他の画像特徴として、GLOH(Gradient Location and Orientation Histogram)特徴などが存在する。 As a means for solving this problem, a method using image features having robust performance in image rotation, enlargement / reduction, affine deformation, illumination change, and noise addition as compared with the FAST feature detector method can be considered. Such image features include, for example, SIFT (Scale-invariant feature transform) features. In order to detect a feature point, the SIFT feature first performs DoG (Difference-of-Gaussian) processing on the target image, and sets a point that is an extreme value in the generated DoG image as a candidate for the feature point. Next, feature points are detected by removing from the candidates points whose main curvature, which is easily affected by noise, is greater than or equal to a predetermined threshold value, and points whose contrast is less than or equal to a predetermined threshold value. In addition, using the brightness gradient direction of the detected feature point and the brightness gradient histogram in the neighboring region as the feature amount of the feature point, the feature amount of the detected feature point is compared between images, and a combination with high similarity is obtained. Thus, the feature in the image can be tracked. Further, as other image features, there are GLOH (Gradient Location and Orientation Histogram) features and the like.
しかしながら、SIFT特徴やGLOH特徴などの画像特徴は、特徴検出に必要な演算量がFAST feature detector手法を用いた場合に比べて極めて大きく、リアルタイム処理が困難である。このため、カメラで実空間を動画像データとして撮影し、この動画像データに対してコンピュータグラフィックス等で生成された仮想物体を重畳しながらリアルタイムで表示することで拡張現実感(Augmented Reality)を実現するのが困難であるという問題がある。 However, the image feature such as SIFT feature and GLOH feature has a very large amount of calculation required for feature detection compared to the case where the FAST feature detector method is used, and real-time processing is difficult. For this reason, Augmented Reality is obtained by capturing real space as moving image data with a camera and displaying in real time while superimposing a virtual object generated by computer graphics or the like on the moving image data. There is a problem that it is difficult to realize.
本発明は、このような事情に鑑みてなされたもので、実空間にコンピュータグラッフィクス等で生成された仮想物体を重畳させる拡張現実感を実現する際に、撮影条件の変化に対して安定した特徴点追跡を実現することができる画像処理装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and is stable against changes in shooting conditions when realizing augmented reality in which a virtual object generated by computer graphics or the like is superimposed on real space. An object of the present invention is to provide an image processing apparatus capable of realizing feature point tracking.
本発明は、撮影された動画像データに対して、仮装物体の画像データを重畳して出力する画像処理装置であって、周辺環境を撮影して動画像データを得るカメラと、前記動画像データの所定のフレーム間隔毎に第1の画像特徴に基づく長期追跡用特徴点を検出する第1の特徴検出部と、前記動画像データの全てのフレームについて第2の画像特徴に基づく短期追跡用特徴点を検出する第2の特徴検出部と、異なる2フレームから検出された前記長期追跡用特徴点の各特徴量を基に、フレーム間の特徴点追跡を行う第1の特徴追跡部と、前記異なる2フレームから検出された長期追跡用特徴点あるいは短期追跡用特徴点の近傍輝度値を基にブロックマッチングを行うことによりフレーム間の特徴点追跡を行う第2の特徴追跡部と、前記第2の特徴追跡部により追跡された特徴点を基に3次元空間内の前記カメラの位置および姿勢を推定するカメラ位置姿勢推定部と、前記第1の特徴追跡部により追跡された特徴点と、前記推定された3次元空間内のカメラの位置および姿勢を基に、前記特徴点の3次元位置を推定する特徴点3次元位置推定部と、推定された3次元空間内のカメラ位置情報および姿勢情報と、前記特徴点の3次元位置情報を基に、前記カメラにより撮影された動画像データに対して、外部から入力された仮想物体の画像データを重畳して出力する画像合成部とを備えることを特徴とする。 The present invention is an image processing apparatus that superimposes and outputs image data of a disguise object on captured moving image data, the camera that captures the surrounding environment to obtain moving image data, and the moving image data A first feature detection unit for detecting feature points for long-term tracking based on a first image feature at every predetermined frame interval, and features for short-term tracking based on second image features for all frames of the moving image data A second feature detection unit for detecting points; a first feature tracking unit for tracking feature points between frames based on the feature quantities of the long-term tracking feature points detected from two different frames; and A second feature tracking unit for tracking feature points between frames by performing block matching based on long-term tracking feature points detected from two different frames or neighborhood luminance values of short-term tracking feature points; Special A camera position / orientation estimation unit that estimates the position and orientation of the camera in a three-dimensional space based on the feature points tracked by the tracking unit, the feature points tracked by the first feature tracking unit, and the estimated A feature point 3D position estimator for estimating the 3D position of the feature point based on the position and orientation of the camera in the 3D space; camera position information and orientation information in the estimated 3D space; An image composition unit that superimposes and outputs image data of a virtual object input from the outside on the moving image data captured by the camera based on the three-dimensional position information of the feature points. And
本発明は、前記カメラ位置姿勢推定部は、撮影された全てのフレームについて、3次元空間内のカメラ位置情報および姿勢情報を推定し、前記特徴点3次元位置推定部は、撮影された所定のフレーム間隔毎に、特徴点の3次元位置情報を推定することを特徴とする。 In the present invention, the camera position / orientation estimation unit estimates camera position information and attitude information in a three-dimensional space with respect to all frames taken, and the feature point three-dimensional position estimation unit It is characterized in that the three-dimensional position information of feature points is estimated for each frame interval.
本発明は、前記カメラ位置姿勢推定部は、前記追跡された短期追跡用特徴点を用いて当該フレームのカメラ位置および姿勢の初期推定を行い、前記追跡された短期追跡用特徴点および長期追跡用特徴点を用いて当該フレームのカメラ位置および姿勢を決定することを特徴とする。 In the present invention, the camera position and orientation estimation unit performs initial estimation of the camera position and orientation of the frame using the tracked short-term tracking feature points, and the tracked short-term tracking feature points and long-term tracking feature points. The camera position and orientation of the frame are determined using the feature points.
本発明は、前記特徴点3次元位置推定部は、前記追跡された長期追跡用特徴点に対して3次元位置を推定することを特徴とする。 The present invention is characterized in that the feature point three-dimensional position estimation unit estimates a three-dimensional position with respect to the tracked long-term tracking feature point.
本発明によれば、特徴点検出のための演算量が多い画像特徴の検出処理を所定のフレーム間隔毎に行うようにして、演算量の軽減を図るとともに、演算量が多い画像特徴の検出処理を行わないフレームにおける短時間のカメラ位置姿勢の変化に対しては、演算量が少ない画像特徴の検出処理による特徴点検出と、ブロックマッチングを使用することで、精度の高い滑らかなカメラ位置姿勢の変化を推定することが可能になるという効果が得られる。このため、任意の画像における特徴点の追跡による安定したカメラ位置姿勢の推定と、特徴点の3次元位置推定をリアルタイムに実現でき、実空間にコンピュータグラッフィクス等で生成された仮想物体を重畳させる拡張現実感を実現する処理を安定して実行することができる。 According to the present invention, image feature detection processing with a large amount of computation for feature point detection is performed at predetermined frame intervals to reduce the computation amount, and image feature detection processing with a large computation amount is performed. For short-time camera position and orientation changes in frames that do not perform image processing, feature point detection using image feature detection processing with a small amount of computation and block matching can be used to achieve high-precision smooth camera position and orientation. The effect that it becomes possible to estimate the change is obtained. For this reason, stable camera position and orientation estimation and feature point 3D position estimation by tracking feature points in an arbitrary image can be realized in real time, and a virtual object generated by computer graphics or the like is superimposed on real space Processing that realizes augmented reality can be executed stably.
以下、図面を参照して、本発明の一実施形態による画像処理装置を説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号1は、周辺環境を撮影して動画像データを出力するカメラである。符号2は、カメラ1から出力される動画像データにおける所定フレームから、長期追跡用特徴点として所定の第1の画像特徴に基づく特徴点を検出する第1特徴検出部である。符号3は、カメラ1から出力する動画像データにおける各フレームから、短期追跡用特徴点として所定の第2の画像特報に基づく特徴点を検出する第2特徴検出部である。符号4は、異なる2フレームから検出された長期追跡用特徴点の各特徴量を基に、フレーム間の特徴点追跡を行う第1特徴追跡部である。符号5は、異なる2フレームから検出された長期追跡用あるいは短期追跡用特徴点の近傍輝度値を基にブロックマッチングを行い、フレーム間の特徴点追跡を行う第2特徴追跡部である。
Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure, reference numeral 1 denotes a camera that captures the surrounding environment and outputs moving image data.
符号6は、第2特徴追跡部5によって追跡された短期追跡用特徴点を基にカメラ1の位置姿勢を推定するカメラ位置姿勢推定部である。符号7は、第1特徴追跡部4によって追跡された長期追跡用特徴点と、推定されたカメラ位置姿勢の情報を基に、特徴点の3次元位置を推定する特徴点3次元位置推定部である。符号8は、長期追跡用特徴点のフレーム上での観測位置、推定された3次元位置、各フレームのカメラ位置姿勢で構成される特徴点マップ情報を記憶する記憶部である。符号9は、重畳するべき仮想物体のコンピュータグラフィックス(以下、CGと称する)データが予め記憶されたCGデータ記憶部である。符号10は、記憶部8に記憶された推定されたカメラ位置姿勢情報及び特徴点の3次元位置情報を基に、CGデータ記憶部9に記憶されているCGデータをカメラ1から出力する動画像データに重畳した合成画像を出力する画像合成部である。
図1に示す画像処理装置においては、2種類の異なる画像特徴のそれぞれを、長期追跡用の画像特徴及び短期追跡用の画像特徴として用いる。なお、以下の説明においては、第1特徴検出部2で検出する第1の画像特徴を前述のSIFT特徴とし、第2特徴検出部3で検出する第2の画像特徴を前述のFAST feature detector手法によるコーナー特徴として説明するが、第1の画像特徴は、第2の画像特徴に比べ、画像の回転、拡大縮小、アフィン変形、照明変化、ノイズ付加等に頑強な性能を有する画像特徴であればいかなる画像特徴でもよく、SIFT特徴の代わりに、例えば、前述のGLOH特徴やSURF(Speeded Up Robust Features)特徴、LESH(Local Energy based Shape Histogram)特徴等を利用する構成であってもよい。また、もう一方の第2の画像特徴は、第1の画像特徴に比べ、演算量の小さな画像特徴であればいかなる画像特徴でもよく、FAST feature detector手法によって検出されるコーナー特徴の代わりに例えば、SUSAN corner detectorやHarris operatorによって検出されるコーナー特徴を用いる構成であってもよい。
In the image processing apparatus shown in FIG. 1, each of two different image features is used as an image feature for long-term tracking and an image feature for short-term tracking. In the following description, the first image feature detected by the first
次に、図1に示す画像処理装置の動作について説明するため、まず図1に示す画像処理装置が取り扱う3次元空間及び2次元空間に関する座標系及び記号、数式について図2を参照して説明する。図2において、ワールド座標系(Xw,Yw,Zw)は、カメラ1で撮影される被写体が存在する3次元空間を表す座標系であり、図中のXwYwZw座標軸を用いて既定される座標系である。カメラ座標系(Xc,Yc,Zc)は、カメラ1の視点位置を原点とした3次元空間を表すローカル座標系であり、図中のXcYcZc座標軸を用いて既定される座標系であり、カメラ座標系におけるZc軸はカメラの光軸(視線)方向を表す。 Next, in order to explain the operation of the image processing apparatus shown in FIG. 1, the coordinate system, symbols, and mathematical expressions related to the three-dimensional space and the two-dimensional space handled by the image processing apparatus shown in FIG. 1 will be described with reference to FIG. . In FIG. 2, a world coordinate system (Xw, Yw, Zw) is a coordinate system representing a three-dimensional space in which a subject photographed by the camera 1 exists, and is a coordinate system defined by using the XwYwZw coordinate axis in the figure. is there. The camera coordinate system (Xc, Yc, Zc) is a local coordinate system that represents a three-dimensional space with the viewpoint position of the camera 1 as the origin, and is a coordinate system that is defined using the XcYcZc coordinate axis in the figure. The Zc axis in the system represents the direction of the optical axis (line of sight) of the camera.
射影座標系(u,v)は、カメラ1によって撮影される3次元空間が投影された画像平面(フレーム)内の座標系であり、図中のUV座標を用いて既定される座標系である。これら3つの座標系の関係は、ワールド座標系(Xw,Yw,Zw)からカメラ座標系(Xc,Yc,Zc)への変換行列Ecw、カメラ座標系(Xc,Yc,Zc)から画像平面への射影モデルCamProj(P)を用いて、(1)式、(2)式により表すことができる。 The projected coordinate system (u, v) is a coordinate system in an image plane (frame) onto which a three-dimensional space photographed by the camera 1 is projected, and is a coordinate system defined by using UV coordinates in the drawing. . The relationship between these three coordinate systems is that the transformation matrix Ecw from the world coordinate system (Xw, Yw, Zw) to the camera coordinate system (Xc, Yc, Zc), and the camera coordinate system (Xc, Yc, Zc) to the image plane. (1) and (2) can be expressed using the projection model CamProj (P).
Pc=EcwPw ・・・(1)
Pv=CamProj(Pc)=CamProj(EcwPw) ・・・(2)
Pc = EcwPw (1)
Pv = CamProj (Pc) = CamProj (EcwPw) (2)
ここで、Pw、Pc、Pvは、それぞれ特徴点Pのワールド座標系の位置Pw=(Xp,Yp,Zp)t、カメラ座標系の位置Pc=(Xcp,Ycp,Zcp)tおよび特徴点Pが投影される画像平面(フレーム)上の射影座標系での位置Pv=(Up,Vp)tを示す。添字tは、転置行列を示す。なお変換行列Ecwは、ワールド座標系におけるカメラ1の位置姿勢を表しており、変換行列Ecwはカメラ1の動きと共に変化する。以下の説明では、カメラ1によって撮影されたn番目のフレーム(以下、フレームnと称する)におけるカメラ1の位置姿勢を示す変換行列Ecwnを適宜使用する。 Here, Pw, Pc, and Pv are the position Pw = (Xp, Yp, Zp) t of the feature point P, the position Pc = (Xcp, Ycp, Zcp) t of the feature point P, and the feature point P, respectively. Represents a position Pv = (Up, Vp) t in the projected coordinate system on the image plane (frame) on which is projected. The subscript t indicates a transposed matrix. The transformation matrix Ecw represents the position and orientation of the camera 1 in the world coordinate system, and the transformation matrix Ecw changes with the movement of the camera 1. In the following description, a transformation matrix Ec n that indicates the position and orientation of the camera 1 in the nth frame (hereinafter referred to as frame n) taken by the camera 1 is used as appropriate.
次に、図1に示す画像処理装置の動作について説明する。図1に示す画像処理装置の動作は、カメラ位置姿勢推定処理と、特徴点の3次元位置推定処理に大別され、それぞれ2つの処理動作が並行して実行される。初めに、図3を参照して、図1に示す画像処理装置におけるカメラ位置姿勢推定処理動作について説明する。図3は、図1に示す画像処理装置におけるカメラ位置姿勢推定処理動作を示すフローチャートである。 Next, the operation of the image processing apparatus shown in FIG. 1 will be described. The operation of the image processing apparatus shown in FIG. 1 is roughly divided into a camera position / posture estimation process and a feature point three-dimensional position estimation process, and two processing operations are executed in parallel. First, the camera position / posture estimation processing operation in the image processing apparatus shown in FIG. 1 will be described with reference to FIG. FIG. 3 is a flowchart showing the camera position / orientation estimation processing operation in the image processing apparatus shown in FIG.
まず、第2特徴検出部3は、カメラ1から出力する1フレーム分の画像データを入力し、FAST feature detector手法の処理を用いて、このフレームにおける短期追跡用の特徴点を検出する(ステップS1)。第2特徴検出部3は、検出した短期追跡用特徴点の画像平面上の射影座標を第2特徴追跡部5へ出力する。なお入力画像データに対する画像ピラミッド(多重分解能の画像で代表された画像のセットからなる)を生成し、低解像度の画像データからも特徴点検出する構成としても構わない。
First, the second feature detection unit 3 receives one frame of image data output from the camera 1, and detects feature points for short-term tracking in this frame using processing of the FAST feature detector method (step S1). ). The second feature detection unit 3 outputs the projected coordinates of the detected short-term tracking feature points on the image plane to the second
次に、第2特徴追跡部5は、連続する2つのフレーム(フレームn−1,フレームn)における短期追跡用特徴点に対し、特徴点近傍のN×N(Nは自然数)画素の領域を対象としたブロックマッチングを行うことにより短期追跡用の特徴点の追跡を行う(ステップS2)。ただし、先頭フレーム(フレーム0)が入力された場合、追跡対象のフレームが存在しないため本ステップは省略し、後続するステップS3〜S6についても同様に省略する。特徴点のN×N近傍画素の領域を対象としたブロックマッチングの評価基準は、一例として(3)式に示すSSD(Sum of Squared Difference)を用いる。
Next, the second
(3)式において、Fn(u,v)はフレームnの座標(u,v)における輝度値を表し、座標(uj,vj)、(ui,vi)はそれぞれフレームn−1における特徴点j,フレームnにおける特徴点iの座標を示す。第2特徴追跡部5は、フレームn−1における特徴点jに対し、フレームnで検出された全ての特徴点のうち、(3)式で求められるSSDの値が最小となる特徴点i=kの時、特徴点j、特徴点i=kの組を追跡結果として出力する。ただし、所定のしきい値THを用いて、TH<SSDの場合には、特徴点jに対する特徴点の追跡は失敗したとして出力を行わない。
In the equation (3), F n (u, v) represents the luminance value at the coordinates (u, v) of the frame n, and the coordinates (u j , v j ) and (u i , v i ) are the frame n−. The coordinates of the feature point j in 1 and the feature point i in the frame n are shown. For the feature point j in the frame n−1, the second
なお、ここでは、フレームn−1における特徴点jに対するマッチング候補を、フレームnで検出された全ての特徴点とするようにしたが、通常の撮影においては、連続する2フレーム間の特徴点の移動は狭い範囲に限定される可能性が高いため、特徴点の移動距離の上限に関するしきい値d0を用いて、(4)式を満たす特徴点のみを特徴点jとマッチングを行うようにしてもよい。 Note that here, the matching candidates for the feature point j in the frame n−1 are all the feature points detected in the frame n. However, in normal shooting, the feature points between two consecutive frames are displayed. Since the movement is likely to be limited to a narrow range, only the feature point satisfying the equation (4) is matched with the feature point j using the threshold value d0 regarding the upper limit of the moving distance of the feature point. Also good.
このような構成とすることで、類似したテクスチャが広範囲に存在する場合等で、誤マッチングによって、誤った特徴点の組を追跡結果として出力することを防ぐことが可能となると共に、特徴点の追跡に必要な演算量を減らすことが可能となる。 By adopting such a configuration, it is possible to prevent a wrong set of feature points from being output as a tracking result due to erroneous matching when there are a wide range of similar textures, and It is possible to reduce the amount of calculation required for tracking.
なお、ブロックマッチングの評価方法として、SSDを用いる代わりにSAD(Sum of Absolute Difference)やZNCC(Zero-mean Normalized Cross- Correlation)を用いてもよい。ただし、ZNCCを用いる構成の場合、評価値が最大となる特徴点を追跡結果に選ぶ点が異なる。 As a block matching evaluation method, SAD (Sum of Absolute Difference) or ZNCC (Zero-mean Normalized Cross-Correlation) may be used instead of SSD. However, the configuration using ZNCC is different in that the feature point having the maximum evaluation value is selected as the tracking result.
次に、カメラ位置姿勢推定部6は、第2特徴追跡部5から出力される特徴点追跡結果の情報を用いて、カメラ位置姿勢(変換行列Ecwn)の初期推定を行う(ステップS3)。変換行列Ecwnの推定にはランダムに所定数N1の特徴点の組を選んで推定を行う。ここでは、(5)式の通り、ロバスト推定手法の1つであるM−estimatorを用いて、(5)式におけるM1を最小化することで推定する。
Next, the camera position /
(5)式においてeiは、特徴点i(0≦i<N1)の計測誤差、f1(e)は例外値の影響を抑えるために用いる計測誤差の評価関数である。連続するフレームn−1、フレームnにおいて共通の特徴点が観測される場合、図4に示すようにフレームnで観測される特徴点は、理想的には図4に示すエピポールライン上に観測されるので、特徴点の計測誤差eiは、フレームnで観測された特徴点i=(ui,vi)と、フレームn上のエピポールラインaiU+biV+ci=0の距離として(6)式の通り定義される。 In equation (5), e i is a measurement error of the feature point i (0 ≦ i <N1), and f 1 (e) is an evaluation function of the measurement error used for suppressing the influence of the exceptional value. When a common feature point is observed in consecutive frames n-1 and n, the feature point observed in frame n as shown in FIG. 4 is ideally observed on the epipole line shown in FIG. Therefore, the measurement error ei of the feature point is a distance between the feature point i = (u i , v i ) observed in the frame n and the epipole line a i U + b i V + c i = 0 on the frame n ( 6) It is defined according to the formula.
なお、エピポールラインaiU+biV+ci=0は、特徴点i=(ui,vi)に対応する第2特徴点追跡部5の出力として得られた特徴点j=(uj,vj)と、カメラ位置姿勢(変換行列Ecwn−1、変換行列Ecwn)によって一意に定まる。従って、(5)式におけるM1を最小化する変換行列Ecwnを求めることで、カメラ位置姿勢の初期推定が完了する。なお、推定されたカメラ位置姿勢を示す変換行列Ecwnは一旦当該フレームのカメラ位置姿勢推定結果として記憶部8に保存する。
The epipole line a i U + b i V + c i = 0 is a feature point j = (u j , obtained as an output of the second feature
なお、上述の説明では、推定手法の一例としてM−estimatorを用いてカメラ位置姿勢を示す変換行列Ecwnを推定する方法について説明したが、RANSAC(RANdom SAmple Consensus)やLMedS(Least Median of Squares)推定等の公知のロバスト推定手法を用いることができる。また(5)式におけるM1が所定のしきい値THM以下となった場合、後述するステップS4、S5の処理を省略し、ステップS3において得られた推定結果を、フレームnのカメラ位置姿勢を示す変換行列Ecwnとするようにしてもよい。 In the above description has described how to estimate a transformation matrix Ecw n indicating the camera position and orientation using the M-estimator as an example of the estimation method, RANSAC (RANdom SAmple Consensus) and LMedS (Least Median of Squares) A known robust estimation method such as estimation can be used. Further, when M 1 in the expression (5) is equal to or less than the predetermined threshold value TH M , the processing in steps S4 and S5 described later is omitted, and the estimation result obtained in step S3 is used as the camera position / posture of frame n. The conversion matrix Ecw n may be used.
次に、第1特徴追跡部4は、連続する2つのフレーム(フレームn−1,フレームn)における長期追跡用特徴点に対し、ステップS2における短期追跡用特徴点の場合と同様、(3)式を評価基準としてブロックマッチングを行うことにより長期追跡用特徴点の追跡を行う(ステップS4)。ただし、ここで追跡する特徴点は、後述する処理動作によって記憶部8に記憶されている3次元位置推定済み特徴点Pwi(0≦i<記憶済み特徴点数)を対象とする点がステップS2と異なる。(2)式を用いて特徴点Pwiのフレームn−1上、フレームn上の射影位置Pvn−1,i、Pvn,iはそれぞれ(7)式、(8)式により求める。
Next, the first
Pvn−1,i=CamProj(Ecwn−1Pwi) ・・・(7)
Pvn,i=CamProj(EcwnPwi) ・・・(8)
Pv n−1, i = CamProj (Ecw n−1 Pw i ) (7)
Pv n, i = CamProj (Ecw n Pw i ) (8)
また短期追跡用特徴点の場合と異なり、フレームn−1における長期追跡用特徴点Pvn−1,iに対するマッチング候補は、長期追跡用特徴点Pvn,iを中心に距離d1内に存在する点全てを候補点としてブロックマッチングを行い、その他については、ステップS2の処理動作と同様である。 Unlike the case of the short-term tracking feature point, the matching candidate for the long-term tracking feature point Pv n−1, i in the frame n−1 exists within the distance d1 with the long-term tracking feature point Pv n, i as the center. Block matching is performed using all points as candidate points, and the rest is the same as the processing operation in step S2.
次に、カメラ位置姿勢推定部6は、ステップS2、S4において第2特徴追跡部5から出力された全ての特徴点追跡結果を用いて、カメラ位置姿勢を示す変換行列Ecwnの推定を行う(ステップS5)。変換行列Ecwnの推定にはランダムに所定のN2(N2<N1)の特徴点の組を選んで推定を行う。変換行列Ecwnの推定処理動作についてはステップS3と同じであるのでここでは詳細な説明を省略する。そして、カメラ位置姿勢推定部6は、最終的に得られたフレームnのカメラ位置姿勢推定結果である変換行列Ecwnを記憶部8上の特徴点マップに保存する。
Next, the camera position /
次に、画像合成部10は、記憶部8に保存されたフレームnのカメラ位置姿勢推定結果である変換行列Ecwnと後述する処理動作によって求められる特徴点の3次元位置情報を用いて、所定の条件に従って、CGデータ記憶部9に記憶されている仮想物体を表すCGデータを撮影されたフレームnにおける画像データに重畳して出力する(ステップS6)。ここでいう所定の条件とは、例えば、特徴点が多く分布する領域を任意画像で生成されたマーカー領域とみなし、マーカー領域上に仮想物体を表すCGデータを表示する構成としてもよいし、あるいは、特徴点の分布する領域を障害物とみなし、特徴点の存在しない空間に仮想物体を表すCGデータを表示する構成等が利用用途に応じて考えられる。
Next, the
以上説明した図3に示すステップS1〜S6の処理動作をカメラ1から入力されるフレーム毎に繰り返し行うことにより、リアルタイムで実写画像データに対してCGデータを合成した画像データを生成して出力することが可能となる。 By repeatedly performing the processing operations of steps S1 to S6 shown in FIG. 3 described above for each frame input from the camera 1, image data obtained by synthesizing CG data with real image data is generated and output in real time. It becomes possible.
次に、図5を参照して、図1に示す画像処理装置における特徴点の3次元位置推定処理動作を説明する。まず、カメラ1による撮影開始時において、記憶部8に保持された特徴点マップが空の状態に初期化される(ステップS11)。また先頭フレームのカメラ位置姿勢を示す変換行列Ecw0は、カメラ座標系(Xc,Yc,Zc)、ワールド座標系(Xw,Yw,Zw)が一致するように設定され、記憶部8に特徴点マップとして保存する。
Next, the feature point three-dimensional position estimation processing operation in the image processing apparatus shown in FIG. 1 will be described with reference to FIG. First, at the start of shooting by the camera 1, the feature point map held in the
次に、第1特徴検出部2は、カメラ1から出力される画像データのうち、所定のフレーム間隔N毎に画像データを入力し、SIFT特徴に基づき長期追跡用特徴点検出を行う(ステップS12)。以降、第1特徴検出部2に入力されるフレーム間隔N毎のフレームをキーフレームと呼ぶことにする。第1特徴検出部2は、検出した長期追跡用特徴点の位置及びSIFT特徴量を第1特徴追跡部4へ出力する。
Next, the first
次に、第1特徴追跡部4は、連続する2つのキーフレーム(キーフレームn−1,キーフレームn)における長期追跡用特徴点に対し、SIFT特徴量のマッチングを行うことにより、長期追跡用特徴点の追跡を行う(ステップS13)。ただし先頭キーフレーム(キーフレーム0)が入力された場合、組となる追跡対象のキーフレームが存在しないためこの処理動作は省略し、後続する処理動作も行わずにステップS12に戻る。なお、組となる特徴点を求める方法としては、例えば、ANN(Approximate Nearest Neighbor)アルゴリズム(S.Arya, D. M.Mount, R.Silverman, A.Y.Wu,"An optimal algorithm for approximate nearest neighbor searching",Journal of the ACM,Vol.45, No.6,pp.891-923,1998)を用いる。ANNアルゴリズムは、k-d tree構造を用いた局所探索手法であり、類似度が最も高い特徴点の組を近似的に求めるアルゴリズムであり、組となる特徴点を高速に求めることができる。
Next, the first
次に、特徴点3次元位置推定部7は、既に記憶部8上の特徴点マップに3次元位置が記憶されているか否かに基づいて、ステップS13の処理により得られた特徴点の組のうち、新規の特徴点があるか否かを判定する(ステップS14)。この判定の結果、記憶部8上の特徴点マップに記憶されていない特徴点がある場合、特徴点3次元位置推定部7は、キーフレームn−1、キーフレームnそれぞれの推定済みカメラ位置姿勢を示す変換行列Ecw(n−1)N、EcwnNと、キーフレームn−1、キーフレームnそれぞれで観測された特徴点の射影座標(ui,vi)、(ui,vi)を用いて、三角測量により、この特徴点の3次元位置の初期値を推定し、特徴点の3次元位置及びキーフレームn−1,キーフレームnでそれぞれ観測された特徴点の射影座標(ui,vi)、(ui,vi)を記憶部8上の特徴点マップに記憶する(ステップS15)。
Next, the feature point 3D position estimation unit 7 determines whether the feature point set obtained by the process of step S13 is based on whether or not the 3D position is already stored in the feature point map on the
次に、特徴点3次元位置推定部7は、ロバスト推定手法の1つであるM−estimatorを用いて、(9)式におけるM2の最小化により、特徴点の3次元位置の更新を行う(ステップS16)。 Next, the feature point three-dimensional position estimation unit 7 updates the three-dimensional position of the feature point by minimizing M 2 in Equation (9) using M-estimator which is one of robust estimation methods. (Step S16).
(9)式においてei,jはキーフレームiにおける特徴点jの観測誤差を示し、f2(e)は例外値の影響を抑えるために用いる計測誤差の評価関数である。キーフレーム0からキーフレームnにおけるカメラ位置姿勢は推定済みであり、M2の最小化により求めた各特徴点の3次元位置を記憶部8上の特徴点マップを更新して(ステップS17)、ステップS12へ戻る。
In the equation (9), e i, j indicates an observation error of the feature point j in the key frame i, and f 2 (e) is an evaluation function of a measurement error used for suppressing the influence of the exceptional value. The camera position and orientation from key frame 0 to key frame n have been estimated, and the feature point map on the
以上説明したように、特徴点検出のための演算量が多い画像特徴の検出処理を所定のフレーム間隔毎に行うようにして、演算量の軽減を図るとともに、演算量が多い画像特徴の検出処理を行わないフレームにおける短時間のカメラ位置姿勢の変化に対しては、演算量が少ない画像特徴の検出処理による特徴点検出と、ブロックマッチングを使用することで、精度の高い滑らかなカメラ位置姿勢の変化を推定することが可能になるという効果が得られる。このため、任意の画像における特徴点の追跡による安定したカメラ位置姿勢の推定と、特徴点の3次元位置推定をリアルタイムに実現でき、カメラで実空間を撮影した動画像データに対して、CG等で生成された仮想物体を重畳し、HMD(Head Mount Display)等で表示することで拡張現実感(Augmented Reality)を実現する仮想現実システムの処理を安定して実行することができる。 As described above, image feature detection processing with a large amount of computation for feature point detection is performed at predetermined frame intervals to reduce the computation amount, and image feature detection processing with a large computation amount For short-time camera position and orientation changes in frames that do not perform image processing, feature point detection using image feature detection processing with a small amount of computation and block matching can be used to achieve high-precision smooth camera position and orientation. The effect that it becomes possible to estimate the change is obtained. For this reason, stable camera position and orientation estimation by tracking feature points in an arbitrary image and three-dimensional position estimation of feature points can be realized in real time, and CG or the like can be performed on moving image data obtained by photographing a real space with a camera. It is possible to stably execute the processing of the virtual reality system that realizes augmented reality by superimposing the virtual object generated in (1) and displaying it on an HMD (Head Mount Display) or the like.
なお、図1に示す第1特徴検出部2、第2特徴検出部3、第1特徴追跡部4、第2特徴追跡部5、カメラ位置姿勢推定部6、特徴点3次元位置推定部7及び画像合成部10の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、実写画像データに対してCGデータを合成した画像データを生成して出力する処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
1, the first
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.
カメラで実空間を動画像データとして撮影し、この動画像データに対してコンピュータグラフィックス等で生成された仮想物体を重畳して表示することで拡張現実感(Augmented Reality)を実現する仮想現実システムに適用できる。 Virtual reality system that realizes Augmented Reality by shooting a real space as moving image data with a camera and superimposing a virtual object generated by computer graphics on this moving image data. Applicable to.
1・・・カメラ、2・・・第1特徴検出部、3・・・第2特徴検出部、4・・・第1特徴追跡部、5・・・第2特徴追跡部、6・・・カメラ位置姿勢推定部、7・・・特徴点3次元位置推定部、8・・・記憶部、9・・・CGデータ記憶部、10・・・画像合成部 DESCRIPTION OF SYMBOLS 1 ... Camera, 2 ... 1st feature detection part, 3 ... 2nd feature detection part, 4 ... 1st feature tracking part, 5 ... 2nd feature tracking part, 6 ... Camera position and orientation estimation unit, 7... Feature point three-dimensional position estimation unit, 8... Storage unit, 9... CG data storage unit, 10.
Claims (4)
周辺環境を撮影して動画像データを得るカメラと、
前記動画像データの所定のフレーム間隔毎に第1の画像特徴に基づく長期追跡用特徴点を検出する第1の特徴検出部と、
前記動画像データの全てのフレームについて第2の画像特徴に基づく短期追跡用特徴点を検出する第2の特徴検出部と、
異なる2フレームから検出された前記長期追跡用特徴点の各特徴量を基に、フレーム間の特徴点追跡を行う第1の特徴追跡部と、
前記異なる2フレームから検出された長期追跡用特徴点あるいは短期追跡用特徴点の近傍輝度値を基にブロックマッチングを行うことによりフレーム間の特徴点追跡を行う第2の特徴追跡部と、
前記第2の特徴追跡部により追跡された特徴点を基に3次元空間内の前記カメラの位置および姿勢を推定するカメラ位置姿勢推定部と、
前記第1の特徴追跡部により追跡された特徴点と、前記推定された3次元空間内のカメラの位置および姿勢を基に、前記特徴点の3次元位置を推定する特徴点3次元位置推定部と、
推定された3次元空間内のカメラ位置情報および姿勢情報と、前記特徴点の3次元位置情報を基に、前記カメラにより撮影された動画像データに対して、外部から入力された仮想物体の画像データを重畳して出力する画像合成部と
を備えることを特徴とする画像処理装置。 An image processing apparatus that superimposes and outputs image data of a virtual object on captured moving image data,
A camera that captures moving image data by photographing the surrounding environment,
A first feature detector for detecting feature points for long-term tracking based on a first image feature at predetermined frame intervals of the moving image data;
A second feature detection unit for detecting feature points for short-term tracking based on a second image feature for all frames of the moving image data;
A first feature tracking unit for tracking feature points between frames based on each feature amount of the long-term tracking feature points detected from two different frames;
A second feature tracking unit for tracking feature points between frames by performing block matching on the basis of the long-term tracking feature points detected from the two different frames or the near luminance values of the short-term tracking feature points;
A camera position and orientation estimation unit that estimates the position and orientation of the camera in a three-dimensional space based on the feature points tracked by the second feature tracking unit;
A feature point 3D position estimation unit that estimates a 3D position of the feature point based on the feature point tracked by the first feature tracking unit and the estimated position and orientation of the camera in the estimated 3D space When,
Based on the estimated camera position information and posture information in the three-dimensional space and the three-dimensional position information of the feature point, the image of the virtual object input from the outside with respect to the moving image data captured by the camera And an image composition unit that superimposes and outputs the data.
前記特徴点3次元位置推定部は、撮影された所定のフレーム間隔毎に、特徴点の3次元位置情報を推定することを特徴とする請求項1に記載の画像処理装置。 The camera position and orientation estimation unit estimates camera position information and orientation information in a three-dimensional space for all captured frames,
The image processing apparatus according to claim 1, wherein the feature point three-dimensional position estimation unit estimates three-dimensional position information of feature points at every predetermined frame interval.
前記追跡された短期追跡用特徴点を用いて当該フレームのカメラ位置および姿勢の初期推定を行い、
前記追跡された短期追跡用特徴点および長期追跡用特徴点を用いて当該フレームのカメラ位置および姿勢を決定することを特徴とする請求項1または2に記載の画像処理装置。 The camera position and orientation estimation unit
Using the tracked short-term tracking feature points, initial estimation of the camera position and orientation of the frame is performed,
The image processing apparatus according to claim 1, wherein the camera position and orientation of the frame are determined using the tracked short-term tracking feature points and long-term tracking feature points.
前記追跡された長期追跡用特徴点に対して3次元位置を推定することを特徴とする請求項1から3のいずれかに記載の画像処理装置。 The feature point three-dimensional position estimation unit includes:
The image processing apparatus according to claim 1, wherein a three-dimensional position is estimated with respect to the tracked long-term tracking feature point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009153788A JP2011008687A (en) | 2009-06-29 | 2009-06-29 | Image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009153788A JP2011008687A (en) | 2009-06-29 | 2009-06-29 | Image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011008687A true JP2011008687A (en) | 2011-01-13 |
Family
ID=43565228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009153788A Pending JP2011008687A (en) | 2009-06-29 | 2009-06-29 | Image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011008687A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012248206A (en) * | 2012-07-26 | 2012-12-13 | Casio Comput Co Ltd | Ar processing apparatus, ar processing method and program |
JP2013218396A (en) * | 2012-04-05 | 2013-10-24 | Nippon Hoso Kyokai <Nhk> | Corresponding point searching device, program for the same and camera parameter estimation apparatus |
JP2014032666A (en) * | 2012-08-01 | 2014-02-20 | Mitsubishi Electric Corp | Method for determining attitude of camera to surrounding state |
JP5500404B1 (en) * | 2013-05-28 | 2014-05-21 | 株式会社コンセプト | Image processing apparatus and program thereof |
JP5500400B1 (en) * | 2012-12-14 | 2014-05-21 | 株式会社コンセプト | Image processing apparatus, image processing method, and image processing program |
WO2014092193A1 (en) * | 2012-12-14 | 2014-06-19 | 株式会社コンセプト | Image processing device, image processing method, image processing program, program, and mobile terminal device with camera |
JP2014132488A (en) * | 2011-12-12 | 2014-07-17 | Canon Inc | Key-frame selection for parallel tracking and mapping |
JP2014178494A (en) * | 2013-03-14 | 2014-09-25 | Ricoh Co Ltd | Parallax image photographing device |
JP2014526099A (en) * | 2011-07-28 | 2014-10-02 | サムスン エレクトロニクス カンパニー リミテッド | Planar characteristic-based markerless augmented reality system and its operation method |
JP2015035191A (en) * | 2013-08-09 | 2015-02-19 | 株式会社デンソーアイティーラボラトリ | Feature point extraction device, feature point extraction method and feature point extraction program |
JPWO2014092193A1 (en) * | 2013-05-28 | 2017-01-12 | 株式会社コンセプト | Image processing device, image processing method, image processing program, program, and mobile terminal device with camera |
EP3239933A1 (en) | 2016-04-28 | 2017-11-01 | Fujitsu Limited | Authoring device and authoring method |
CN110998659A (en) * | 2017-08-14 | 2020-04-10 | 乐天株式会社 | Image processing system, image processing method, and program |
US10636165B2 (en) | 2017-03-02 | 2020-04-28 | Fujitsu Limited | Information processing apparatus, method and non-transitory computer-readable storage medium |
KR102143349B1 (en) * | 2019-03-27 | 2020-08-11 | 엘지전자 주식회사 | Controlling method for Moving robot |
CN112929750A (en) * | 2020-08-21 | 2021-06-08 | 海信视像科技股份有限公司 | Camera adjusting method and display device |
US11915431B2 (en) * | 2015-12-30 | 2024-02-27 | Texas Instruments Incorporated | Feature point identification in sparse optical flow based tracking in a computer vision system |
-
2009
- 2009-06-29 JP JP2009153788A patent/JP2011008687A/en active Pending
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9405359B2 (en) | 2011-07-28 | 2016-08-02 | Samsung Electronics Co., Ltd. | Plane-characteristic-based markerless augmented reality system and method for operating same |
JP2014526099A (en) * | 2011-07-28 | 2014-10-02 | サムスン エレクトロニクス カンパニー リミテッド | Planar characteristic-based markerless augmented reality system and its operation method |
JP2014132488A (en) * | 2011-12-12 | 2014-07-17 | Canon Inc | Key-frame selection for parallel tracking and mapping |
JP2013218396A (en) * | 2012-04-05 | 2013-10-24 | Nippon Hoso Kyokai <Nhk> | Corresponding point searching device, program for the same and camera parameter estimation apparatus |
JP2012248206A (en) * | 2012-07-26 | 2012-12-13 | Casio Comput Co Ltd | Ar processing apparatus, ar processing method and program |
JP2014032666A (en) * | 2012-08-01 | 2014-02-20 | Mitsubishi Electric Corp | Method for determining attitude of camera to surrounding state |
WO2014092193A1 (en) * | 2012-12-14 | 2014-06-19 | 株式会社コンセプト | Image processing device, image processing method, image processing program, program, and mobile terminal device with camera |
JP5500400B1 (en) * | 2012-12-14 | 2014-05-21 | 株式会社コンセプト | Image processing apparatus, image processing method, and image processing program |
JP2014178494A (en) * | 2013-03-14 | 2014-09-25 | Ricoh Co Ltd | Parallax image photographing device |
JP5500404B1 (en) * | 2013-05-28 | 2014-05-21 | 株式会社コンセプト | Image processing apparatus and program thereof |
JPWO2014092193A1 (en) * | 2013-05-28 | 2017-01-12 | 株式会社コンセプト | Image processing device, image processing method, image processing program, program, and mobile terminal device with camera |
JP2015035191A (en) * | 2013-08-09 | 2015-02-19 | 株式会社デンソーアイティーラボラトリ | Feature point extraction device, feature point extraction method and feature point extraction program |
US11915431B2 (en) * | 2015-12-30 | 2024-02-27 | Texas Instruments Incorporated | Feature point identification in sparse optical flow based tracking in a computer vision system |
US10438412B2 (en) | 2016-04-28 | 2019-10-08 | Fujitsu Limited | Techniques to facilitate accurate real and virtual object positioning in displayed scenes |
EP3239933A1 (en) | 2016-04-28 | 2017-11-01 | Fujitsu Limited | Authoring device and authoring method |
US10636165B2 (en) | 2017-03-02 | 2020-04-28 | Fujitsu Limited | Information processing apparatus, method and non-transitory computer-readable storage medium |
CN110998659A (en) * | 2017-08-14 | 2020-04-10 | 乐天株式会社 | Image processing system, image processing method, and program |
CN110998659B (en) * | 2017-08-14 | 2023-12-05 | 乐天集团股份有限公司 | Image processing system, image processing method, and program |
KR102143349B1 (en) * | 2019-03-27 | 2020-08-11 | 엘지전자 주식회사 | Controlling method for Moving robot |
WO2020197303A1 (en) * | 2019-03-27 | 2020-10-01 | Lg Electronics Inc. | Mobile robot control method |
US11348276B2 (en) | 2019-03-27 | 2022-05-31 | Lg Electronics Inc. | Mobile robot control method |
CN112929750A (en) * | 2020-08-21 | 2021-06-08 | 海信视像科技股份有限公司 | Camera adjusting method and display device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011008687A (en) | Image processor | |
JP7106665B2 (en) | MONOCULAR DEPTH ESTIMATION METHOD AND DEVICE, DEVICE AND STORAGE MEDIUM THEREOF | |
CN108805917B (en) | Method, medium, apparatus and computing device for spatial localization | |
US9420265B2 (en) | Tracking poses of 3D camera using points and planes | |
US9418480B2 (en) | Systems and methods for 3D pose estimation | |
JP5722502B2 (en) | Planar mapping and tracking for mobile devices | |
KR100793838B1 (en) | Appratus for findinng the motion of camera, system and method for supporting augmented reality in ocean scene using the appratus | |
Klein et al. | Full-3D Edge Tracking with a Particle Filter. | |
US8644551B2 (en) | Systems and methods for tracking natural planar shapes for augmented reality applications | |
WO2016181687A1 (en) | Image processing device, image processing method and program | |
US20130335529A1 (en) | Camera pose estimation apparatus and method for augmented reality imaging | |
CN111445526A (en) | Estimation method and estimation device for pose between image frames and storage medium | |
EP3028252A1 (en) | Rolling sequential bundle adjustment | |
KR20190042187A (en) | Method and apparatus of estimating depth value | |
CN104685513A (en) | Feature based high resolution motion estimation from low resolution images captured using an array source | |
JP2013508844A (en) | Method, computer program, and apparatus for hybrid tracking of real-time representations of objects in a sequence of images | |
JP5439277B2 (en) | Position / orientation measuring apparatus and position / orientation measuring program | |
JP2010282295A (en) | Apparatus and method for processing image, and program | |
JP6420605B2 (en) | Image processing device | |
CN105809664B (en) | Method and device for generating three-dimensional image | |
JP6017343B2 (en) | Database generation device, camera posture estimation device, database generation method, camera posture estimation method, and program | |
JP6922348B2 (en) | Information processing equipment, methods, and programs | |
CN110310325B (en) | Virtual measurement method, electronic device and computer readable storage medium | |
JP6228239B2 (en) | A method for registering data using a set of primitives | |
JP5530391B2 (en) | Camera pose estimation apparatus, camera pose estimation method, and camera pose estimation program |