JP2003256806A - Omniazimuth image type feature point retrieval processing method and device, and its program and recording medium with its program - Google Patents

Omniazimuth image type feature point retrieval processing method and device, and its program and recording medium with its program

Info

Publication number
JP2003256806A
JP2003256806A JP2002055918A JP2002055918A JP2003256806A JP 2003256806 A JP2003256806 A JP 2003256806A JP 2002055918 A JP2002055918 A JP 2002055918A JP 2002055918 A JP2002055918 A JP 2002055918A JP 2003256806 A JP2003256806 A JP 2003256806A
Authority
JP
Japan
Prior art keywords
image
feature point
omnidirectional image
omnidirectional
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002055918A
Other languages
Japanese (ja)
Inventor
Shiro Ozawa
史朗 小澤
Isao Miyagawa
勲 宮川
Yoshiori Wakabayashi
佳織 若林
Tomohiko Arikawa
知彦 有川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002055918A priority Critical patent/JP2003256806A/en
Publication of JP2003256806A publication Critical patent/JP2003256806A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To quickly retrieve feature points on time series images by narrowing down the retrieval range of the feature points. <P>SOLUTION: Omniazimuth images photographed by an image input device 10 are obtained by an image obtaining part 21, and the feature points of the initial image are calculated by a feature point calculating part 22, and the orbit curve on the omniazimuth pictures of the feature points is calculated by an orbit data calculating part 25 on the basis of the position/attitude information of the omniazimuth images at the time of photographing, and the retrieval range of the feature points is narrowed down to points on the calculated orbit curve, and small area sub-images in the peripheries of the points on the orbit curve as centers are extracted, and collated with sub-images including the feature points on the initial image as the start points of the retrieval so that the positions of the feature points of each time series image can be decided. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は,画像入力装置等に
より取得した時系列画像データから,空間中の任意の特
徴点を複数画像間で探索する全方位画像型特徴点探索処
理方法,装置,そのプログラムおよびそのプログラムの
記録媒体に関し,コンピュータビジョン分野,画像計
測,および測量分野に関係する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an omnidirectional image type feature point search processing method and apparatus for searching a plurality of images for an arbitrary feature point in space from time series image data acquired by an image input device or the like. The program and the recording medium of the program are related to the fields of computer vision, image measurement, and surveying.

【0002】例えば,空間を広範囲で撮影可能な全方位
カメラは多様な建物に対する撮影手段として有効であ
り,全方位カメラで撮影された多視点の全方位画像を利
用して,建物形状を効果的に計測することができる。こ
のような全方位画像を利用した建物形状の計測では,特
徴点探索は重要である。
[0002] For example, an omnidirectional camera capable of photographing a wide space is effective as a photographing means for various buildings, and a multi-view omnidirectional image photographed by the omnidirectional camera is used to effectively construct a building shape. Can be measured. In measuring the shape of a building using such an omnidirectional image, feature point search is important.

【0003】[0003]

【従来の技術】多視点の画像を利用して撮影対象の計測
を行う場合,複数の画像に共通の特徴点を抽出する必要
がある。従来,固定の画角を有するカメラを使用した場
合,フレームインまたはフレームアウトにより映像が途
切れることがあり,そのため完全な特徴点の追跡は困難
であった。この特徴点追跡の不完全性により,十分な基
線長を確保できず,撮影対象について高精度な形状,構
造等を獲得し復元することが困難であった。
2. Description of the Related Art When measuring an object to be photographed using multi-viewpoint images, it is necessary to extract feature points common to a plurality of images. Conventionally, when a camera with a fixed angle of view is used, the image may be interrupted due to frame-in or frame-out, which makes it difficult to track the complete feature points. Due to this imperfect tracking of feature points, it was not possible to secure a sufficient baseline length, and it was difficult to obtain and restore highly accurate shapes and structures of the imaging target.

【0004】図8は,有限画角のカメラで撮影した例,
図9は,特徴点探索におけるフレームイン,フレームア
ウトの例を示す図である。
FIG. 8 shows an example photographed by a camera having a finite angle of view,
FIG. 9 is a diagram showing an example of frame-in and frame-out in the feature point search.

【0005】有限画角のカメラ100で,被写体120
を撮影すると,図8に示すように,カメラ100から取
得する映像110は,被写体の一部121しか撮影され
ないことがあり,被写体120の特定の特徴点が映像1
10中に現れないことがある。そのため,有限画角のカ
メラ100を移動させながら撮影し,時系列画像を取得
すると,図9(A)のように時系列画像の途中から特徴
点P1が現れたり,図9(B)のように時系列画像の途
中から特徴点P2が消失したりすることがあるため,特
徴点を画像間で追跡していくことができないことがあ
る。このようなフレームイン,フレームアウトは,撮影
対象の形状,構造等を高精度に認識することを困難にす
る原因となっている。
A camera 120 with a finite angle of view allows an object 120 to be photographed.
When the image is captured, as shown in FIG. 8, in the image 110 acquired from the camera 100, only a part 121 of the object may be imaged, and a specific feature point of the object 120 is image 1
May not appear in 10. Therefore, if a time-series image is acquired by shooting while moving the camera 100 with a finite angle of view, a feature point P1 may appear in the middle of the time-series image as shown in FIG. 9A, or as shown in FIG. 9B. Since the feature point P2 may disappear from the middle of the time series image, the feature point may not be tracked between images. Such frame-in and frame-out are factors that make it difficult to recognize the shape, structure, etc. of the object to be imaged with high accuracy.

【0006】これに対し,全方角を一度に撮像すること
ができる全方位カメラまたは全周囲カメラが開発され,
景観全体を一度に取得することが可能となった。これを
利用して対象を撮影することにより,上記フレームイ
ン,フレームアウトなどの問題を軽減することができる
ようになった。しかし,全方位画像上の特徴点の変動
は,撮影位置と特徴点までの距離に大きく左右されるた
め,特徴点の探索範囲が広範囲になってしまうという問
題があった。
On the other hand, an omnidirectional camera or an omnidirectional camera capable of picking up images in all directions at once has been developed.
It became possible to acquire the entire landscape at once. By taking advantage of this to shoot an object, the problems such as frame-in and frame-out can be alleviated. However, the variation of the feature points on the omnidirectional image greatly depends on the shooting position and the distance to the feature points, and thus there is a problem that the search range of the feature points becomes wide.

【0007】[0007]

【発明が解決しようとする課題】本発明は,全方位画像
では特徴点を探索する際に探索範囲が広範囲になり,時
間やマシンコストなどの処理コストが大きくかかってし
まうという問題を解決し,全方位画像上の特徴点の探索
範囲を絞り込む手段を提供することにより,特徴点の探
索を高速化し,特徴点探索の処理コストを削減すること
を目的とする。
SUMMARY OF THE INVENTION The present invention solves the problem that the search range becomes wide when searching for feature points in an omnidirectional image, resulting in a large processing cost such as time and machine cost. By providing a means for narrowing down the search range of feature points on an omnidirectional image, it is an object to speed up the feature point search and reduce the processing cost of the feature point search.

【0008】[0008]

【課題を解決するための手段】本発明は,空間を広範囲
に投影するという特徴のある全方位カメラを使用して,
カメラ自体の位置情報(外部パラメータ)および全方位
カメラ特有の内部パラメータ(焦点距離など)と,全方
位カメラの光学的投影性を利用し,撮影した全方位画像
から,獲得する対象の点を特定の軌跡曲線上に範囲を絞
り込んで探索することを主要な特徴とする。すなわち,
全方位カメラで撮影された時系列画像において,撮影時
における全方位画像の位置・姿勢情報に基づいて特徴点
の全方位画像上の軌跡曲線を計算し,計算された軌跡曲
線上の点に特徴点の探索範囲を絞り込み,前記軌跡曲線
上の点を中心としてその周辺の小領域のサブ画像を抽出
し,探索の開始点となる初期画像上の特徴点を含むサブ
画像と照合することにより,各時系列画像における特徴
点の位置を決定する。
SUMMARY OF THE INVENTION The present invention uses an omnidirectional camera characterized by a wide space projection.
Using the position information (external parameters) of the camera itself, internal parameters (focal length, etc.) peculiar to the omnidirectional camera, and the optical projection of the omnidirectional camera, the target point to be acquired is specified from the omnidirectional image taken. The main feature is to narrow down the range on the locus curve of. That is,
In a time-series image taken by an omnidirectional camera, the trajectory curve of the feature point on the omnidirectional image is calculated based on the position / orientation information of the omnidirectional image at the time of shooting, and the feature point is calculated on the trajectory curve. By narrowing down the search range of points, extracting a sub-image of a small area around the point on the locus curve as a center, and collating with a sub-image including the feature point on the initial image that is the starting point of the search, The position of the feature point in each time series image is determined.

【0009】具体的には,本発明は,全方位カメラを用
いて撮影し取得した時系列画像中の特徴点を探索するに
あたって,カメラの位置・姿勢情報を取得し,その取得
した時間と同期して撮影した第1の全方位画像から特徴
点を抽出し,その特徴点の画像座標値を求める。
Specifically, according to the present invention, when searching for a feature point in a time-series image captured and acquired using an omnidirectional camera, camera position / orientation information is acquired and synchronized with the acquired time. A feature point is extracted from the first omnidirectional image photographed by taking the image, and the image coordinate value of the feature point is obtained.

【0010】また,第1の全方位画像を撮影した位置と
異なる位置で,他の全方位画像を撮影するとともに,そ
れを撮影したときのカメラの位置・姿勢情報を取得す
る。
Further, another omnidirectional image is photographed at a position different from the position where the first omnidirectional image was photographed, and the position / orientation information of the camera when the image was photographed is acquired.

【0011】次に,各々の特徴点に対して,第1の全方
位画像を撮影したときの位置・姿勢情報と,他の全方位
画像を撮影したときの位置・姿勢情報と,全方位カメラ
固有の内部パラメータとを用いて,前記特徴点の画像座
標位置を通過する特徴点軌跡を予測する。
Next, for each feature point, position / orientation information when the first omnidirectional image is taken, position / orientation information when another omnidirectional image is taken, and omnidirectional camera. The characteristic point locus passing through the image coordinate position of the characteristic point is predicted using the unique internal parameter.

【0012】第1の全方位画像での各々の特徴点を含む
小領域のサブ画像を抽出し,第3のステップで予測した
各々の特徴点に関する軌跡に沿って画像座標値の位置を
移動させながら,他の全方位画像での小領域のサブ画像
を抽出する。
A sub-image of a small area including each feature point in the first omnidirectional image is extracted, and the position of the image coordinate value is moved along the locus for each feature point predicted in the third step. Meanwhile, the sub-image of the small area in the other omnidirectional image is extracted.

【0013】第1の全方位画像での各々の特徴点含む小
領域のサブ画像と,前記特徴点に関する軌跡に沿って移
動させながら抽出した小領域内の各々のサブ画像との間
で照合を行い,サブ画像間の相関値を最小とするときの
軌跡上の画像座標位置を,他の全方位画像中における特
徴点の位置とする。
Matching is performed between the sub-image of the small area including each feature point in the first omnidirectional image and each sub-image in the small area extracted while moving along the locus relating to the feature point. Then, the image coordinate position on the locus when the correlation value between the sub-images is minimized is set as the position of the feature point in the other omnidirectional images.

【0014】以上のように特徴点の探索範囲を特定の軌
跡上の範囲に絞り込むことにより,全方位画像間での特
徴点探索を効率的に行うことができる。
As described above, by narrowing down the search range of feature points to a range on a specific locus, it is possible to efficiently search for feature points between omnidirectional images.

【0015】また,他の全方位画像中における特徴点の
位置を探索した後,その全方位画像を第1の全方位画像
とし,探索した結果の特徴点位置を新たな探索開始位置
として,さらに他の全方位画像における特徴点を探索す
る。これにより,全方位画像の時系列画像から,順次精
度よく特徴点を探索し,特徴点を追跡することが可能に
なる。
Further, after searching the positions of the feature points in the other omnidirectional images, the omnidirectional image is used as the first omnidirectional image, and the feature point position as a result of the search is used as a new search start position. Search for feature points in other omnidirectional images. As a result, it becomes possible to search for feature points sequentially from the time-series image of the omnidirectional image with high accuracy and trace the feature points.

【0016】また,第1の全方位画像を取得したときの
位置・姿勢情報と,他の全方位画像を取得したときの位
置・姿勢情報とから,特徴点軌跡における移動の方向ま
たはカメラの進行方向を判定し,第1の全方位画像での
各々の特徴点の画像座標値を探索開始位置として,前記
移動方向または進行方向に沿って特徴点画像位置を探索
する。これにより,特徴点軌跡における探索方向を一方
向に限定し,探索範囲をさらに狭めることができる。
Further, based on the position / orientation information when the first omnidirectional image is acquired and the position / orientation information when another omnidirectional image is acquired, the moving direction of the feature point locus or the movement of the camera. The direction is determined, and the image coordinate value of each feature point in the first omnidirectional image is set as the search start position, and the feature point image position is searched along the moving direction or the traveling direction. As a result, the search direction on the feature point locus can be limited to one direction, and the search range can be further narrowed.

【0017】また,探索された点を開始位置として,さ
らにそれを中心とした小領域においてサブ画像を抽出
し,サブ画像間の相関値を最小とする点を探索する。こ
れにより,カメラの位置・姿勢情報などに多少の誤差が
あっても,特徴点の対応位置を正確に求めることができ
る。
Further, with the searched point as the starting position, the sub-images are extracted in a small region around the starting position, and the point that minimizes the correlation value between the sub-images is searched. As a result, even if there is some error in the position / orientation information of the camera, the corresponding position of the feature point can be accurately obtained.

【0018】[0018]

【発明の実施の形態】本発明の実施の形態を図面を用い
て説明する。以下では,全方位カメラは,魚眼レンズ
(投影式は,y=fθ)を搭載したカメラとし,このカ
メラを車両にマウントして移動しながら,全方位画像を
取得するものとする。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described with reference to the drawings. In the following, it is assumed that the omnidirectional camera is a camera equipped with a fisheye lens (projection type: y = fθ), and the omnidirectional image is acquired while the camera is mounted on a vehicle and moved.

【0019】図1は,本発明を実施する装置構成の例を
示す図である。本システムは,光学系として魚眼レンズ
部11,光学調整部12からなる画像入力装置(カメ
ラ)10と,この光学系から撮像されて得られる時系列
画像データの特徴点を探索する処理を行うCPUおよび
メモリなどを備えた処理装置20と,画像入力装置10
の位置や姿勢を検出する位置・姿勢センサ30とから構
成される。
FIG. 1 is a diagram showing an example of a device configuration for implementing the present invention. The present system includes an image input device (camera) 10 including a fisheye lens unit 11 and an optical adjustment unit 12 as an optical system, a CPU that performs a process of searching for characteristic points of time-series image data obtained by imaging from the optical system, and Image processing device 10 and processing device 20 including a memory
And a position / orientation sensor 30 for detecting the position and orientation of the.

【0020】処理装置20は,画像入力装置10からの
入力データに基づいて時系列画像を生成する画像取得部
21,画像中の特徴点を算出する特徴点算出部22,位
置・姿勢センサ30から位置・姿勢情報を取得する位置
・姿勢情報取得部23,画像取得部21が取得する画像
と位置・姿勢情報取得部23が取得する位置・姿勢情報
との同期をとる同期制御部24,各特徴点に対応する特
徴点軌跡の軌跡データを算出する軌跡データ算出部2
5,対応点を探索する画像中の軌跡データ上の点と元に
なる特徴点の相関値を算出する相関値算出部26,算出
された相関値から対応点を探索する対応点探索部27,
獲得された対応点を出力する対応点出力部28を持つ。
これらの処理機能は,ソフトウェアプログラム等によっ
て実現される。
The processing unit 20 includes an image acquisition unit 21 for generating a time-series image based on input data from the image input unit 10, a characteristic point calculation unit 22 for calculating characteristic points in the image, and a position / orientation sensor 30. Position / orientation information acquisition unit 23 that acquires position / orientation information, synchronization control unit 24 that synchronizes the image acquired by the image acquisition unit 21 with the position / orientation information acquired by the position / orientation information acquisition unit 23, each feature A locus data calculation unit 2 that calculates locus data of a characteristic point locus corresponding to a point
5, a correlation value calculation unit 26 that calculates a correlation value between a point on the trajectory data in the image for searching a corresponding point and an original feature point, a corresponding point search unit 27 that searches for a corresponding point from the calculated correlation value,
It has a corresponding point output unit 28 which outputs the obtained corresponding points.
These processing functions are realized by a software program or the like.

【0021】位置・姿勢センサ30として,例えばGP
S(Global Positioning System )やジャイロセンサな
どを用いることができる。位置・姿勢情報取得部23
は,位置・姿勢センサ30を用いる代わりに,画像入力
装置10の位置・姿勢情報を,キーボードなどの入力装
置を用いて操作者から入力してもよい。
As the position / orientation sensor 30, for example, GP
An S (Global Positioning System), a gyro sensor, or the like can be used. Position / posture information acquisition unit 23
Instead of using the position / orientation sensor 30, the operator may input the position / orientation information of the image input device 10 using an input device such as a keyboard.

【0022】本実施の形態を説明するために設定した座
標系を図2および図3に従って説明する。図2は,XY
Zの3次元座標系をZ軸方向から見た図であり,図3
は,XY平面の水平方向から見た対象物と画像取得位置
の関係を示す図である。
The coordinate system set for explaining the present embodiment will be described with reference to FIGS. Figure 2 is XY
It is the figure which looked at the three-dimensional coordinate system of Z from the Z-axis direction.
FIG. 6 is a diagram showing a relationship between an object and an image acquisition position when viewed in the horizontal direction on the XY plane.

【0023】対象となる特徴点Pの3次元座標値を(X
p ,Yp ,Zp )とする。また,位置Aにおける画像入
力装置10のレンズ中心の座標値を(Xa ,Ya
a ),位置Bにおける画像入力装置10のレンズ中心
の座標値を(Xb ,Yb ,Zb )とする。
The three-dimensional coordinate value of the target feature point P is (X
p , Y p , Z p ). In addition, the coordinate value of the lens center of the image input device 10 at the position A is (X a , Y a ,
Z a ), and the coordinate value of the lens center of the image input device 10 at the position B is (X b , Y b , Z b ).

【0024】位置Aの座標値(Xa ,Ya ,Za )と,
位置Bの座標値(Xb ,Yb ,Zb)とは,位置・姿勢
情報取得部23により取得した位置・姿勢情報から決定
することができる。
Coordinate values (X a , Y a , Z a ) of the position A,
The coordinate value (X b , Y b , Z b ) of the position B can be determined from the position / orientation information acquired by the position / orientation information acquisition unit 23.

【0025】画像入力装置10により位置Aで撮影した
全方位画像をIA とし,位置Bで撮影した全方位画像を
B とする。これらの画像上の2次元座標系をi・j座
標系とする。対象となる特徴点Pの全方位画像IA にお
ける座標値を(ia ,ja )とし,同じく全方位画像I
B における対応位置の座標値を(ib ,jb )とする。
Lは,全方位画像IA の画像中心Aから(ia ,ja
までの距離である。φ a ,φb は,全方位画像IA ,I
B における中心から(ia ,ja ),(ib ,jb )ま
での線分とj軸との角度であり,θa ,θb は,特徴点
Pと位置A,Bとを結ぶそれぞれの線分と,XY平面と
の角度である。
Photographed at position A by the image input device 10.
Omnidirectional image IAAnd the omnidirectional image taken at position B
IBAnd Let the two-dimensional coordinate system on these images be
The standard system. Omnidirectional image I of the target feature point PATo
Coordinate value (ia, Ja), And the same omnidirectional image I
BThe coordinate value of the corresponding position inb, Jb).
L is an omnidirectional image IAFrom image center A of (ia, Ja)
Is the distance to. φ a, ΦbIs an omnidirectional image IA, I
BFrom the center of (ia, Ja), (Ib, Jb)
Is the angle between the line segment and the j-axis ata, ΘbIs the feature point
Each line segment connecting P and positions A and B, and the XY plane
Is the angle.

【0026】ここでは説明を簡単にするために,位置A
から位置Bまでの移動の間に,光軸方向の回転がないと
仮定する。もし,光軸回転があった場合には,それぞれ
の位置情報および姿勢情報から光軸回転値を算出し,こ
の回転成分を考慮した座標変換により,以下の方法に容
易に反映させることができる。
Here, in order to simplify the description, position A
It is assumed that there is no rotation in the optical axis direction from the movement to the position B. If there is an optical axis rotation, the optical axis rotation value is calculated from each position information and orientation information, and coordinate conversion considering this rotation component can be easily reflected in the following method.

【0027】図4は,本実施の形態の処理フローチャー
トである。処理が開始すると,位置・姿勢情報取得部2
3は,位置・姿勢センサ30により位置Aをセンシング
して,全方位カメラである画像入力装置10の座標値
(Xa ,Ya ,Za )を取得する(ステップS1)。セ
ンシングに失敗した場合には,センシングが成功するま
で位置Aでの座標値をセンシングする(ステップS
2)。このとき,画像取得部21は,タイマなどの同期
制御部24から得られる時刻情報により同時に,画像入
力装置10から位置Aでの全方位画像IA を取得する
(ステップS3)。特徴点算出部22は,この初期画像
においていくつかの特徴点を算出する(ステップS
4)。特徴点としては,画像を解析してエッジ部分に相
当する点などを設定する。例えば,隣接画素間で濃淡差
が大きい部分をエッジとして抽出し,抽出したエッジの
点列の中で画像中心からの距離が大きく変化する部分な
どを特徴点とする。
FIG. 4 is a processing flowchart of this embodiment. When the processing starts, the position / orientation information acquisition unit 2
3 senses the position A by the position / orientation sensor 30 and acquires the coordinate values (X a , Y a , Z a ) of the image input device 10 which is an omnidirectional camera (step S1). When the sensing is unsuccessful, the coordinate value at the position A is sensed until the sensing is successful (step S).
2). At this time, the image acquisition unit 21 simultaneously acquires the omnidirectional image I A at the position A from the image input device 10 based on the time information obtained from the synchronization control unit 24 such as a timer (step S3). The feature point calculator 22 calculates some feature points in this initial image (step S).
4). As the characteristic points, points corresponding to edge parts are set by analyzing the image. For example, a portion having a large shade difference between adjacent pixels is extracted as an edge, and a portion of the extracted edge point sequence in which the distance from the image center greatly changes is used as a feature point.

【0028】次に,画像入力装置10が位置Bに移動し
た場合,位置・姿勢情報取得部23は,その位置でのセ
ンシング情報を取得し,位置Bでの座標値(Xb
b ,Z b )を得る(ステップS5)。センシングに失
敗した場合または位置Bの座標値が位置Aの座標値と同
じであった場合には,位置Bでの座標値(Xb ,Yb
b )の取得を繰り返す(ステップS6)。
Next, the image input device 10 moves to the position B.
In this case, the position / orientation information acquisition unit 23
The coordinate value at position B (Xb
Yb, Z b) Is obtained (step S5). Lost in sensing
If lost or the coordinate value of position B is the same as the coordinate value of position A
If it is the same, the coordinate value at position B (Xb, Yb
Z b) Is repeated (step S6).

【0029】同時に,画像取得部21は,位置Bでの全
方位画像IB を画像入力装置10から得る(ステップS
7)。
At the same time, the image acquisition unit 21 obtains the omnidirectional image I B at the position B from the image input device 10 (step S
7).

【0030】次に,ステップS4において全方位画像I
A 上で設定した特徴点が,全方位画像IB 上でどの点に
対応するかを探索する際の探索範囲を,位置Aでの全方
位画像IA の特徴点をもとに特徴点軌跡を予測すること
により絞り込む(ステップS8)。この特徴点軌跡の予
測による特徴点探索については,図5,図6を用いて,
後に詳述する。
Next, in step S4, the omnidirectional image I
Feature points set on A is omnidirectional image I a search range for exploring what point corresponding to the on B, the omnidirectional image I A feature point trajectory based on feature points at positions A Are narrowed down by predicting (step S8). Regarding the feature point search by predicting the feature point locus, referring to FIG. 5 and FIG.
It will be described in detail later.

【0031】特徴点軌跡を予測したならば,全方位画像
A の特徴点と全方位画像IB における特徴点軌跡上の
点のそれぞれを含むサブ画像間の差分を計算することな
どにより相関値を算出する(ステップS9)。なお,こ
の特徴点軌跡は,ある程度の幅を持たせたほうが望まし
い。すなわち,特徴点軌跡の1点の画像座標値が
(i x ,jx )であったとすると,(ix ±Δx,jx
±Δy)の点を特徴点軌跡上の点とみなす。なお,Δ
x,Δyはあらかじめ設定された定数値である。
If the feature point locus is predicted, the omnidirectional image
IAFeature points and omnidirectional image IBOn the feature point locus at
Do not calculate the difference between sub-images containing each of the points
The correlation value is calculated by what (step S9). In addition, this
It is desirable that the loci of feature points have a certain width.
Yes. That is, the image coordinate value of one point of the feature point locus is
(I x, Jx), Then (ix± Δx, jx
Points of ± Δy) are regarded as points on the characteristic point locus. Note that Δ
x and Δy are preset constant values.

【0032】特徴点軌跡上の点を移動させながらステッ
プS9で相関値を算出し,相関値が最小となる全方位画
像IB 上の点を探索する。相関値が最小となる点が見つ
かったならば,その点を全方位画像IB 上における特徴
点の対応位置として,その探索結果を出力する(ステッ
プS10)。
The correlation value is calculated in step S9 while moving the point on the characteristic point locus, and the point on the omnidirectional image I B having the minimum correlation value is searched for. If the correlation value is found that the minimum, that point as the corresponding position of the characteristic point on the omnidirectional image I B, and outputs the search result (step S10).

【0033】全方位画像IA 上のすべての特徴点につい
てステップS8〜S10の処理を行ったかを判定し(ス
テップS11),未処理の特徴点がある場合には,次の
特徴点についてステップS8〜S10の処理を繰り返
す。
It is judged whether all the feature points on the omnidirectional image I A have been processed in steps S8 to S10 (step S11). If there is an unprocessed feature point, the next feature point is processed in step S8. ~ The process of S10 is repeated.

【0034】その後,画像入力装置10からの時系列画
像の取得を終了するかどうかを判定し(ステップS1
2),終了の場合には,処理を終了する。継続する場合
には,時系列画像として次々に取得される全方位画像に
ついて同じ特徴点を追跡するために,現在の位置Bと画
像IB を,それぞれ位置A,画像IA と更新し(ステッ
プS13),新しい位置Bとその位置Bでの全方位画像
について同様にステップS5〜S12の処理を繰り返
し,次々と特徴点の対応点を獲得していく。
After that, it is determined whether or not the acquisition of the time series images from the image input device 10 is completed (step S1).
2) In case of termination, the processing is terminated. When continuing, the current position B and the image I B are updated with the position A and the image I A , respectively, in order to track the same feature point in the omnidirectional images sequentially acquired as the time series images (step S13), the processes of steps S5 to S12 are similarly repeated for the new position B and the omnidirectional image at the position B, and the corresponding points of the feature points are acquired one after another.

【0035】以上の特徴点軌跡を求めて特徴点を探索す
る方法について,さらに詳しく説明する。図5は,特徴
点軌跡の軌跡曲線を算出する方法を説明する図,図6
は,特徴点軌跡を求めて特徴点を探索する手順を示すフ
ローチャートである。
The method of searching the characteristic points by obtaining the characteristic point locus will be described in more detail. FIG. 5 is a diagram for explaining a method of calculating a locus curve of a feature point locus, FIG.
FIG. 6 is a flowchart showing a procedure for obtaining a characteristic point locus and searching for a characteristic point.

【0036】図5において,A,B,P,φa
(ia ,ib ),Lは,図2で説明した点,角度,距離
と同じである。Lx (φx )は特徴点軌跡の軌跡曲線,
φx は角度変数,(ix ,jx )は特徴点軌跡上の点を
表している。
In FIG. 5, A, B, P, φ a ,
( Ia , ib ), L are the same as the point, angle, and distance described in FIG. L xx ) is the locus curve of the locus of feature points,
phi x angle variable, (i x, j x) represents the point on the feature point trajectory.

【0037】位置Aでの全方位画像IA を取得し(ステ
ップS20),全方位画像IA で特徴点(ia ,ja
を算出する(ステップS21)。次に,その特徴点の画
像中心からの距離Lを算出する(ステップS22)。画
像中心の座標値を(I,J)とすると,距離Lは, L={(I−ia 2 +(J−ja 2 1/2 の式により求まる。
[0037] Get the omnidirectional image I A at position A (step S20), the feature point in the omnidirectional image I A (i a, j a )
Is calculated (step S21). Next, the distance L from the image center of the feature point is calculated (step S22). When the coordinate values of the image center and (I, J), the distance L is, L = {(I-i a) 2 + (J-j a) 2} obtained by 1/2 of formula.

【0038】次に,角度φa を算出する(ステップS2
3)。角度φa は,次式により求まる。
Next, the angle φ a is calculated (step S2).
3). The angle φ a is calculated by the following equation.

【0039】φa =tan-1{(I−ia )/(J−j
a )} φx の初期値を0とし,相関値の最小値Cmin を無限大
(∞)を示す値に初期化する(ステップS24)。
[0039] φ a = tan -1 {(I -i a) / (J-j
a )} φ x is initialized to 0, and the minimum correlation value C min is initialized to a value indicating infinity (∞) (step S24).

【0040】画像入力装置10の魚眼レンズ部11とし
て等距離投影の魚眼レンズ(y=fθ)を使用したカメ
ラを前提とすると,全方位投影式は「y=fθ」(fは
焦点距離)であり,図2および図5などから明らかなよ
うに,特徴点の軌跡曲線Lx(φx )は,以下のように
なる。
Assuming a camera using an equidistant projection fisheye lens (y = fθ) as the fisheye lens unit 11 of the image input device 10, the omnidirectional projection formula is “y = fθ” (f is the focal length), As is clear from FIGS. 2 and 5, the locus curve L xx ) of the feature points is as follows.

【0041】Lx (φx )=f×tan-1{( tan(L
/f)sin φa )/sin φx }0<φx <π すなわち,任意の位置Aにおいて特徴点P(Xp
p ,Zp )が全方位画像IA 上に投影される点の座標
を(ia ,ja )とし,位置Aから位置Bへ平行移動し
たときに撮影される全方位画像IB 上での対応点の座標
を(ib ,jb )とすると,対応点(ib ,jb )は,
0〜πの角度φx における画像中心からの上記の距離L
x の式で表される曲線上に投影されることになる。
L xx ) = f × tan −1 {(tan (L
/ F) sin φ a ) / sin φ x } 0 <φ x <π That is, at any position A, the feature point P (X p ,
Y p, the Z p) is the coordinates of the points to be projected onto the omnidirectional image I A and (i a, j a), the omnidirectional image I on B to be captured when translated from the position A to the position B When the coordinates of the corresponding points in the (i b, j b), corresponding points (i b, j b) is
The distance L from the image center at an angle φ x of 0 to π
It will be projected on the curve represented by the formula of x .

【0042】本実施の形態では,軌跡曲線Lx (φx
を算出し(ステップS25),位置Aにおける特徴点に
対応する位置Bにおける全方位画像IB 上の点の座標値
(i b ,jb )は,φx の値とこれによるLx (φx
とからなる極座標系において,この軌跡曲線上の点に探
索範囲を絞り込むことにより探索する。
In the present embodiment, the locus curve Lxx)
Is calculated (step S25), and the characteristic point at the position A is calculated.
Omnidirectional image I at corresponding position BBCoordinate of the upper point
(I b, Jb) Is φxValue of L and Lxx)
In the polar coordinate system consisting of and
Search by narrowing down the search range.

【0043】そこで,全方位画像IB の角度φにおける
軌跡曲線上の点(ix ,jx )を算出し(ステップS2
6),その点の全方位画像IB の画素値(Rx ,Gx
x)を取得する(ステップS27)。なお,ここでは
画素値としてRGB値を用いている。
Therefore, the point (i x , j x ) on the locus curve at the angle φ of the omnidirectional image I B is calculated (step S2).
6), the pixel value (R x , G x , of the omnidirectional image I B at that point)
B x ) is acquired (step S27). Here, RGB values are used as pixel values.

【0044】次に,角度φにおける軌跡曲線上の点の8
近傍画素の画素値(Rn ,Gn ,B n )(n=1,2,
…,8)を,相関値算出のための小領域のサブ画像とし
て取得し(ステップS28),位置Aにおける特徴点の
画素値(Ra ,Ga ,Ba )とその8近傍画素の画素値
(Rai,Gai,Bai)(i=1,2,…,8)からなる
サブ画像と,位置Bにおける軌跡曲線上の点を含むサブ
画像との差分を,相関値Cx として,次式に従って計算
する(ステップS29)。 Cx ={(Rx −Ra 2 +(Gx −Ga 2 +(Bx
−Ba 2 1/2+{(R1 −Ra12 +(G1
a12 +(B1 −Ba12 1/2+{(R2 −Ra2
2 +(G2 −Ga22 +(B2 −Ba22 1/2
{(R3 −Ra32 +(G3 −Ga32 +(B3
a32 1/2+{(R4 −Ra42 +(G4 −Ga4
2 +(B4 −Ba42 1/2+{(R5 −Ra52
(G5 −Ga52 +(B5 −Ba52 1/2+{(R6
−Ra62 +(G6 −Ga62 +(B6 −Ba62
1/2+{(R7 −Ra72 +(G7 −Ga72 +(B7
−Ba72 1/2+{(R8 −Ra82 +(G8
a82 +(B8 −Ba82 1/2 ここでは,照合するサブ画像として9画素のサブ画像を
用いているが,サブ画像のサイズは9画素に限らず,他
のサイズのサブ画像を用いてもよい。
Next, 8 of the points on the locus curve at the angle φ are
Pixel value of neighboring pixels (Rn, Gn, B n) (N = 1, 2,
..., 8) as a sub-image of a small area for calculating the correlation value
(Step S28), the characteristic points at position A
Pixel value (Ra, Ga, Ba) And the pixel values of its 8 neighboring pixels
(Rai, Gai, Bai) (I = 1, 2, ..., 8)
Sub image and sub including the point on the locus curve at position B
The difference from the image is the correlation value CxAs calculated by
Yes (step S29). Cx= {(Rx-Ra)2+ (Gx-Ga)2+ (Bx
-Ba)2}1/2+ {(R1-Ra1)2+ (G1
Ga1)2+ (B1-Ba1)2}1/2+ {(R2-Ra2)
2+ (G2-Ga2)2+ (B2-Ba2)2}1/2+
{(R3-Ra3)2+ (G3-Ga3)2+ (B3
Ba3)2}1/2+ {(RFour-Ra4)2+ (GFour-Ga4)
2+ (BFour-Ba4)2}1/2+ {(RFive-Ra5)2+
(GFive-Ga5)2+ (BFive-Ba5)2}1/2+ {(R6
-Ra6)2+ (G6-Ga6)2+ (B6-Ba6)2}
1/2+ {(R7-Ra7)2+ (G7-Ga7)2+ (B7
-Ba7)2}1/2+ {(R8-Ra8)2+ (G8
Ga8)2+ (B8-Ba8)2}1/2 Here, a 9-pixel sub-image is used as the sub-image to be collated.
Although used, the size of the sub-image is not limited to 9 pixels,
You may use the sub-image of size.

【0045】相関値Cx を算出したならば,Cmin と大
小を比較し(ステップS30),相関値Cx がCmin
り小さければ,Cmin をCx の値に変更する(ステップ
S31)。
[0045] If the calculated correlation values C x, it compares the C min and magnitude (step S30), the correlation value C x is smaller than C min, changing the C min of the value of C x (step S31) .

【0046】角度φを0からπまでΔφずつ変化させな
がら,以上のステップS26〜S31を繰り返す(ステ
ップS32,S33)。角度φがπになるまで処理した
ならば,そのときのCmin となるような座標の点
(ix ,jx )を,位置Aにおける特徴点を示す点(i
a ,ja )の全方位画像IB における対応点(ib ,j
b )と決定し,その結果を出力する(ステップS3
4)。
The above steps S26 to S31 are repeated while changing the angle φ from 0 to π by Δφ (steps S32 and S33). If processing is performed until the angle φ becomes π, a point (i x , j x ) having coordinates such that C min at that time is a point (i
a , j a ) corresponding point (i b , j) in the omnidirectional image I B
b ) and output the result (step S3)
4).

【0047】以上の処理を,位置Aにおいて算出した特
徴点の数だけ繰り返すことにより,位置Aにおける特徴
点の位置Bでの対応点を獲得することができる。
By repeating the above processing for the number of characteristic points calculated at the position A, the corresponding point at the position B of the characteristic point at the position A can be obtained.

【0048】以上の処理においては,軌跡曲線Lx (φ
x )上の点を探索するときの角度φを,0からπまで変
化させたが,全方位画像を取得したときの位置の変化に
伴う特徴点軌跡における点の移動方向または画像入力装
置の進行方向を判定し,特徴点軌跡上で位置Aの全方位
画像IA における特徴点を示す点の角度φa を探索開始
位置として,前記移動方向または進行方向に沿って特徴
点画像位置を探索することにより,探索範囲を0<φ<
πではなく,0<φ<φa またはφa <φ<πの範囲に
さらに狭めることが可能である。
In the above processing, the locus curve L x
x ) The angle φ when searching for a point above was changed from 0 to π, but the moving direction of the point in the feature point locus or the progress of the image input device due to the change in position when the omnidirectional image was acquired. The direction is determined, and the feature point image position is searched along the moving direction or the advancing direction with the angle φ a of the point indicating the feature point in the omnidirectional image I A at the position A on the feature point trajectory as the search start position. Therefore, the search range is 0 <φ <
Instead of π, it can be further narrowed to the range of 0 <φ <φ a or φ a <φ <π.

【0049】画像入力装置固有の内部パラメータとして
は,軌跡曲線を算出するためにレンズの焦点距離fを用
いたが,この他にも光学中心のオフセットやレンズの歪
み係数などを用いることもできる。これらの内部パラメ
ータを用いる場合,その値に応じて取得画像を補正した
り座標変換を行ったりすればよく,その処理については
既知の技術であるので,ここでの詳細な説明は省略す
る。
As the internal parameter peculiar to the image input apparatus, the focal length f of the lens is used to calculate the locus curve, but in addition to this, the offset of the optical center, the distortion coefficient of the lens, or the like can be used. When these internal parameters are used, the acquired image may be corrected or coordinate conversion may be performed according to the values, and since the processing is a known technique, detailed description thereof is omitted here.

【0050】以上の処理装置20による処理は,コンピ
ュータとソフトウェアプログラムとによって実現するこ
とができ,そのプログラムは,コンピュータが読み取り
可能な可搬媒体メモリ,半導体メモリ,ハードディスク
等の適当な記録媒体に格納して,そこから読み出すこと
によりコンピュータに実行させることができる。また,
そのプログラムは通信回線を経由して他のコンピュータ
からダウンロードすることができ,それをインストール
して実行させることもできる。
The above processing by the processing device 20 can be realized by a computer and a software program, and the program is stored in an appropriate recording medium such as a computer-readable portable medium memory, semiconductor memory, hard disk or the like. Then, the computer can execute the program by reading it from there. Also,
The program can be downloaded from another computer via a communication line, and can be installed and executed.

【0051】図7は,本実施の形態による実験例の評価
結果を示している。本実施の形態の有効性を検証するた
め,全方位カメラを車両に搭載し,10〜20m間隔で
撮影した全方位画像(2024×2044画素)に対し
て実験を行った。本探索手法によって探索された特徴点
と,オペレータが手動で探索した特徴点の位置の差から
評価を行った。
FIG. 7 shows the evaluation result of the experimental example according to the present embodiment. In order to verify the effectiveness of the present embodiment, an omnidirectional camera was mounted on a vehicle and an experiment was conducted on omnidirectional images (2024 × 2044 pixels) taken at 10 to 20 m intervals. The evaluation was performed based on the difference between the position of the feature point searched by this search method and the position of the feature point searched manually by the operator.

【0052】図7において,横軸は,φa とφb (相関
値Cx が最小となるようなφx の値)との角度の差であ
り,縦軸は,本探索手法による探索点と手動で探索した
点との距離である。この結果から,特に特徴点の時間的
変動の大きい,特徴点と撮影地点との距離が近い場合に
おいても探索を行えることを確認した。以上により,本
探索手法が特徴点探索に有効であることが確認できた。
[0052] In FIG. 7, the horizontal axis is the difference angle between phi a and phi b (the value of the correlation values C x is the smallest such phi x), vertical axis, the search point according Search Method Is the distance between and the point searched manually. From this result, it was confirmed that the search can be performed even when the distance between the feature point and the shooting point is short, especially when the feature point has a large temporal variation. From the above, it was confirmed that this search method is effective for feature point search.

【0053】[0053]

【発明の効果】以上説明したように,本発明によれば,
全方位カメラで撮影された時系列画像において,撮影時
における全方位画像の位置・姿勢情報に基づいて特徴点
の全方位画像上の軌跡曲線を計算し,計算された軌跡曲
線上の点に特徴点の探索範囲を絞り込み,前記軌跡曲線
上の点を中心としてその周辺の小領域のサブ画像を抽出
し,探索の開始点となる初期画像上の特徴点を含むサブ
画像と照合することにより,各時系列画像における特徴
点の位置を決定することにより,全方位画像上で特徴点
を探索する際に,探索範囲を限定することができ,探索
の高速化によって処理時間,処理コストを削減すること
が可能になる。
As described above, according to the present invention,
In a time-series image taken by an omnidirectional camera, the trajectory curve of the feature point on the omnidirectional image is calculated based on the position / orientation information of the omnidirectional image at the time of shooting, and the feature point is calculated on the trajectory curve. By narrowing down the search range of points, extracting a sub-image of a small area around the point on the locus curve as a center, and collating with a sub-image including the feature point on the initial image that is the starting point of the search, By determining the position of the feature point in each time-series image, the search range can be limited when searching for the feature point in the omnidirectional image, and the processing speed and processing cost can be reduced by speeding up the search. It will be possible.

【0054】また,探索範囲が限定されることにより,
時系列画像間の関係のない領域でサブ画像が偶然にマッ
チッングして探索誤りが生じるというようなことを防ぐ
ことができるので,探索精度が向上する。
Further, since the search range is limited,
Since it is possible to prevent sub-images from accidentally matching and causing a search error in a region where there is no relation between time-series images, the search accuracy is improved.

【0055】本発明は,例えば一般の家屋,都市部の建
物,自然の樹木などすべての静止物体を対象物として,
それらの時系列画像における特徴点を探索するときに用
いることができ,これら静止物体を撮影した画像からの
計測処理が,従来と比較して簡易かつ高速になるという
利点を有している。
The present invention targets all stationary objects such as ordinary houses, urban buildings, natural trees, etc.
It can be used when searching for feature points in those time-series images, and has the advantage that the measurement processing from images of these stationary objects is simpler and faster than in the past.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を実施する装置構成の例を示す図であ
る。
FIG. 1 is a diagram showing an example of a device configuration for implementing the present invention.

【図2】本実施の形態で設定した座標系を説明する図で
ある。
FIG. 2 is a diagram illustrating a coordinate system set in this embodiment.

【図3】XY平面の水平方向から見た対象物と画像取得
位置の関係を示す図である。
FIG. 3 is a diagram showing a relationship between an object and an image acquisition position when viewed in a horizontal direction on an XY plane.

【図4】本実施の形態の処理フローチャートである。FIG. 4 is a processing flowchart of the present embodiment.

【図5】特徴点軌跡の軌跡曲線を算出する方法を説明す
る図である。
FIG. 5 is a diagram illustrating a method of calculating a locus curve of a characteristic point locus.

【図6】特徴点軌跡を求めて特徴点を探索する手順を示
すフローチャートである。
FIG. 6 is a flowchart showing a procedure for searching a characteristic point by obtaining a characteristic point locus.

【図7】本実施の形態による実験例の評価結果を示す図
である。
FIG. 7 is a diagram showing an evaluation result of an experimental example according to the present embodiment.

【図8】有限画角のカメラで撮影した例を示す図であ
る。
FIG. 8 is a diagram showing an example captured by a camera having a finite angle of view.

【図9】特徴点探索におけるフレームイン,フレームア
ウトの例を示す図である。
FIG. 9 is a diagram showing an example of frame-in and frame-out in a feature point search.

【符号の説明】[Explanation of symbols]

10 画像入力装置(カメラ) 11 魚眼レンズ部 12 光学調整部 20 処理装置(CPU/メモリ) 21 画像取得部 22 特徴点算出部 23 位置・姿勢情報取得部 24 同期制御部 25 軌跡データ算出部 26 相関値算出部 27 対応点探索部 28 対応点出力部 30 位置・姿勢センサ 10 Image input device (camera) 11 Fisheye lens 12 Optical adjustment unit 20 Processor (CPU / Memory) 21 Image acquisition unit 22 Feature point calculator 23 Position / posture information acquisition unit 24 Synchronous control unit 25 Locus data calculation unit 26 Correlation value calculation unit 27 Corresponding point search unit 28 Corresponding point output section 30 Position / orientation sensor

───────────────────────────────────────────────────── フロントページの続き (72)発明者 若林 佳織 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 (72)発明者 有川 知彦 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 Fターム(参考) 5B057 BA12 DA06 DB02 DB06 DB09 DC05 DC08 DC16 DC25 DC34 5L096 AA02 AA06 CA18 FA06 FA09 FA34 FA62 FA66 FA67 FA69 GA08 GA17 GA40 HA05 HA08   ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Kaori Wakabayashi             2-3-1, Otemachi, Chiyoda-ku, Tokyo             Inside Telegraph and Telephone Corporation (72) Inventor Tomohiko Arikawa             2-3-1, Otemachi, Chiyoda-ku, Tokyo             Inside Telegraph and Telephone Corporation F-term (reference) 5B057 BA12 DA06 DB02 DB06 DB09                       DC05 DC08 DC16 DC25 DC34                 5L096 AA02 AA06 CA18 FA06 FA09                       FA34 FA62 FA66 FA67 FA69                       GA08 GA17 GA40 HA05 HA08

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 全方角を一度に撮像する画像入力装置を
用いて撮影し,取得した時系列画像における特徴点探索
処理方法であって,前記画像入力装置の位置・姿勢情報
を取得し,その取得した時間と同期して撮影した第1の
全方位画像から特徴点を抽出し,その特徴点の画像座標
値を求める第1のステップと,前記第1の全方位画像を
撮影した位置と異なる位置で,他の全方位画像を撮影す
るとともに,それを撮影したときの前記画像入力装置の
位置・姿勢情報を取得する第2のステップと,前記第1
の全方位画像を撮影したときの位置・姿勢情報と,前記
他の全方位画像を撮影したときの位置・姿勢情報と,前
記画像入力装置固有の内部パラメータとを用いて,前記
第1のステップにおいて得た特徴点の画像座標位置を通
過する特徴点軌跡を予測する第3のステップと,前記第
3のステップで予測した特徴点軌跡に沿って画像座標値
の位置を移動させながら,前記他の全方位画像での小領
域のサブ画像を抽出する第4のステップと,前記第1の
全方位画像での特徴点を含む小領域のサブ画像と,前記
第4のステップで得た特徴点軌跡に沿って移動させなが
ら抽出した小領域内の各々のサブ画像との間で照合を行
い,サブ画像間の相関値を最小とするときの特徴点軌跡
上の画像座標位置を,前記他の全方位画像中における特
徴点の対応位置とする第4のステップとを有することを
特徴とする全方位画像型特徴点探索処理方法。
1. A feature point search processing method for a time series image obtained by capturing an image in all directions at once using an image input device, wherein position / orientation information of the image input device is obtained, Different from the first step of extracting a feature point from the first omnidirectional image captured in synchronization with the acquired time and obtaining the image coordinate value of the feature point, and the position of capturing the first omnidirectional image A second step of capturing another omnidirectional image at a position and acquiring position / orientation information of the image input device when the image is captured, and the first step.
Using the position / orientation information when the omnidirectional image of the image is captured, the position / orientation information when the other omnidirectional image is captured, and the internal parameter unique to the image input device, the first step In the third step of predicting a feature point locus passing through the image coordinate position of the feature point obtained in step 3, and moving the position of the image coordinate value along the feature point locus predicted in the third step, A fourth step of extracting a sub-image of a small area in the omnidirectional image, a sub-image of a small area including the feature points in the first omnidirectional image, and the feature points obtained in the fourth step The image coordinate position on the feature point locus when the correlation value between the sub-images is minimized by performing matching with each sub-image in the extracted small area while moving along the locus. The corresponding positions of the feature points in the omnidirectional image and Fourth omnidirectional image type feature point search processing method characterized by a step that.
【請求項2】 請求項1に記載の全方位画像型特徴点探
索処理方法において,前記他の全方位画像中における特
徴点の位置を探索した後,その全方位画像を第1の全方
位画像とし,探索した結果の特徴点位置を新たな探索開
始位置として,さらに他の全方位画像における特徴点を
探索することを特徴とする全方位画像型特徴点探索処理
方法。
2. The omnidirectional image type feature point search processing method according to claim 1, wherein after searching the position of the feature point in the other omnidirectional image, the omnidirectional image is used as the first omnidirectional image. An omnidirectional image type feature point search processing method characterized in that a feature point position in the other omnidirectional image is searched using the feature point position of the searched result as a new search start position.
【請求項3】 請求項1または請求項2に記載の全方位
画像型特徴点探索処理方法において,前記第1の全方位
画像を取得したときの位置・姿勢情報と,前記他の全方
位画像を取得したときの位置・姿勢情報とから,特徴点
軌跡における移動の方向または画像入力装置の進行方向
を判定し,前記第1の全方位画像での特徴点の画像座標
値を探索開始位置として,前記移動方向または進行方向
に沿って特徴点画像位置を探索することを特徴とする全
方位画像型特徴点探索処理方法。
3. The omnidirectional image type feature point search processing method according to claim 1 or 2, wherein the position / orientation information when the first omnidirectional image is acquired and the other omnidirectional image From the position / orientation information obtained when is obtained, the moving direction in the feature point locus or the traveling direction of the image input device is determined, and the image coordinate value of the feature point in the first omnidirectional image is set as the search start position. An omnidirectional image type feature point search processing method characterized by searching a feature point image position along the moving direction or the traveling direction.
【請求項4】 請求項1,請求項2または請求項3に記
載の全方位画像型特徴点探索処理方法において,探索さ
れた点を開始位置として,さらにそれを中心とした小領
域においてサブ画像を抽出し,サブ画像間の相関値を最
小とする点を探索することを特徴とする全方位画像型特
徴点探索処理方法。
4. The omnidirectional image type feature point search processing method according to claim 1, claim 2 or claim 3, wherein the searched point is set as a start position and a sub-image is set in a small area around the start position. Omnidirectional image type feature point search processing method characterized by extracting a point that minimizes the correlation value between sub-images.
【請求項5】 全方角を一度に撮像する画像入力装置を
用いて撮影し,取得した時系列画像における特徴点を探
索する装置であって,前記画像入力装置の位置・姿勢情
報を取得する手段と,前記画像入力装置の位置・姿勢情
報を取得した時間と同期して撮影した全方位画像を取得
する手段と,取得した第1の全方位画像から特徴点を抽
出し,その特徴点の画像座標値を算出する手段と,前記
第1の全方位画像を撮影したときの位置・姿勢情報と,
前記第1の全方位画像以外の全方位画像を取得したとき
の位置・姿勢情報と,前記画像入力装置固有の内部パラ
メータとを用いて,前記特徴点の画像座標位置を通過す
る特徴点軌跡を予測する手段と,前記第1の全方位画像
から抽出した特徴点を含む小領域のサブ画像と,前記第
1の全方位画像以外の全方位画像から前記予測した特徴
点軌跡に沿って画像座標値の位置を移動させながら抽出
した小領域の各々のサブ画像との間で照合を行い,サブ
画像間の相関値を最小とするときの特徴点軌跡上の画像
座標位置を,各時系列画像中における特徴点の対応位置
とする手段とを備えることを特徴とする全方位画像型特
徴点探索処理装置。
5. An apparatus for searching a characteristic point in a time series image acquired by capturing an image in all directions at once using an image input apparatus, and means for acquiring position / orientation information of the image input apparatus. And means for acquiring an omnidirectional image taken in synchronization with the time when the position / orientation information of the image input device is acquired, and a feature point extracted from the acquired first omnidirectional image, and an image of the feature point Means for calculating coordinate values, position / orientation information when the first omnidirectional image is photographed,
Using the position / orientation information when the omnidirectional image other than the first omnidirectional image is acquired and the internal parameters unique to the image input device, a characteristic point locus passing through the image coordinate position of the characteristic point is calculated. Prediction means, a sub-image of a small area including the feature points extracted from the first omnidirectional image, and image coordinates along the feature point trajectory predicted from the omnidirectional image other than the first omnidirectional image The image coordinate position on the feature point locus when the correlation value between the sub-images is minimized by performing matching with each sub-image of the extracted small area while moving the position of the value. An omnidirectional image type feature point search processing device, which is provided with means for setting a corresponding position of a feature point therein.
【請求項6】 請求項1から請求項4までのいずれかに
記載された全方位画像型特徴点探索処理方法を,コンピ
ュータに実行させるための全方位画像型特徴点探索処理
プログラム。
6. An omnidirectional image feature point search processing program for causing a computer to execute the omnidirectional image feature point search processing method according to any one of claims 1 to 4.
【請求項7】 請求項1から請求項4までのいずれかに
記載された全方位画像型特徴点探索処理方法を,コンピ
ュータに実行させるためのプログラムを記録したことを
特徴とする全方位画像型特徴点探索処理プログラムの記
録媒体。
7. An omnidirectional image type recording a program for causing a computer to execute the omnidirectional image type feature point search processing method according to any one of claims 1 to 4. A recording medium for a feature point search processing program.
JP2002055918A 2002-03-01 2002-03-01 Omniazimuth image type feature point retrieval processing method and device, and its program and recording medium with its program Pending JP2003256806A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002055918A JP2003256806A (en) 2002-03-01 2002-03-01 Omniazimuth image type feature point retrieval processing method and device, and its program and recording medium with its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002055918A JP2003256806A (en) 2002-03-01 2002-03-01 Omniazimuth image type feature point retrieval processing method and device, and its program and recording medium with its program

Publications (1)

Publication Number Publication Date
JP2003256806A true JP2003256806A (en) 2003-09-12

Family

ID=28666639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002055918A Pending JP2003256806A (en) 2002-03-01 2002-03-01 Omniazimuth image type feature point retrieval processing method and device, and its program and recording medium with its program

Country Status (1)

Country Link
JP (1) JP2003256806A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006010376A (en) * 2004-06-23 2006-01-12 Topcon Corp Correlation method of stereo image and three-dimensional data generation device
JP2008022545A (en) * 2006-06-15 2008-01-31 Kazuo Iwane Batch tracking device on the basis of cv value, cv region image preliminary apparatus using this batch tracking device on the basis of cv value
WO2017134915A1 (en) * 2016-02-03 2017-08-10 クラリオン株式会社 Camera calibration device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006010376A (en) * 2004-06-23 2006-01-12 Topcon Corp Correlation method of stereo image and three-dimensional data generation device
JP4488804B2 (en) * 2004-06-23 2010-06-23 株式会社トプコン Stereo image association method and three-dimensional data creation apparatus
JP2008022545A (en) * 2006-06-15 2008-01-31 Kazuo Iwane Batch tracking device on the basis of cv value, cv region image preliminary apparatus using this batch tracking device on the basis of cv value
WO2017134915A1 (en) * 2016-02-03 2017-08-10 クラリオン株式会社 Camera calibration device
JP2017139600A (en) * 2016-02-03 2017-08-10 クラリオン株式会社 Camera calibration device
US10917593B2 (en) 2016-02-03 2021-02-09 Clarion Co., Ltd. Camera calibration device that estimates internal parameter of camera

Similar Documents

Publication Publication Date Title
CN107990899B (en) Positioning method and system based on SLAM
US10948297B2 (en) Simultaneous location and mapping (SLAM) using dual event cameras
US11285613B2 (en) Robot vision image feature extraction method and apparatus and robot using the same
US10109104B2 (en) Generation of 3D models of an environment
EP3028252B1 (en) Rolling sequential bundle adjustment
US9651384B2 (en) System and method for indoor navigation
KR100855657B1 (en) System for estimating self-position of the mobile robot using monocular zoom-camara and method therefor
WO2014061372A1 (en) Image-processing device, image-processing method, and image-processing program
US20090196491A1 (en) Method for automated 3d imaging
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
JP2007323615A (en) Image processor and processing method thereof
TW201926141A (en) Image object tracking method and apparatus
US20050063610A1 (en) Edge based alignment algorithm
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP6922348B2 (en) Information processing equipment, methods, and programs
JP4809134B2 (en) Image processing apparatus and processing method thereof
CN111783849B (en) Indoor positioning method and device, electronic equipment and storage medium
JP2007323616A (en) Image processor and processing method therefor
EP1307705A1 (en) Height measurement apparatus
JP2003256806A (en) Omniazimuth image type feature point retrieval processing method and device, and its program and recording medium with its program
JP3221384B2 (en) 3D coordinate measuring device
JP2006309450A (en) Image recognition device and image recognition method
Jurado et al. Inertial and imaging sensor fusion for image-aided navigation with affine distortion prediction
US9245343B1 (en) Real-time image geo-registration processing
JP4223860B2 (en) Image matching method