JP2005063129A - Method, device and program for obtaining texture image from time-series image, and recording media for recording this program - Google Patents

Method, device and program for obtaining texture image from time-series image, and recording media for recording this program Download PDF

Info

Publication number
JP2005063129A
JP2005063129A JP2003291998A JP2003291998A JP2005063129A JP 2005063129 A JP2005063129 A JP 2005063129A JP 2003291998 A JP2003291998 A JP 2003291998A JP 2003291998 A JP2003291998 A JP 2003291998A JP 2005063129 A JP2005063129 A JP 2005063129A
Authority
JP
Japan
Prior art keywords
image
texture
coordinates
dimensional
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003291998A
Other languages
Japanese (ja)
Inventor
Yuji Ishikawa
裕治 石川
Isao Miyagawa
勲 宮川
Yoshiori Wakabayashi
佳織 若林
Kenichi Arakawa
賢一 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003291998A priority Critical patent/JP2005063129A/en
Publication of JP2005063129A publication Critical patent/JP2005063129A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain textures from time-series images without information on the relative positions and directions of a camera and a subject. <P>SOLUTION: A table creation mechanism 13 separates time-series images into a plurality of sequences. For each point within space information restored by a space information restoration mechanism 21, a feature point number in the space information, a sequence number, and information on the correlation of the feature point number with the sequences are recorded in a sequence table 14. A frame selection mechanism 11 refers to the sequence table 14 to obtain the coordinates on the image (frame) of each three-dimensional point constituting a three-dimensional plane, and based on this coordinate information selects a frame for obtaining textures. A texture coordinate determining mechanism 12 determines the coordinates on the image of each apex on the three-dimensional plane and cuts texture images out of the frame. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は時系列画像からのテクスチャ画像獲得技術に関し,特に,長い時系列画像から広域のテクスチャ付き3次元形状を復元するシステムにおいて,テクスチャ画像を効率的に獲得する方法に関するものである。   The present invention relates to a technique for acquiring a texture image from a time-series image, and more particularly to a method for efficiently acquiring a texture image in a system that restores a wide-area textured three-dimensional shape from a long time-series image.

映像から3次元の点群を獲得し,その点群から3次元形状を獲得する技術が知られている(例えば,非特許文献1,非特許文献2参照)。   A technique for acquiring a three-dimensional point group from an image and acquiring a three-dimensional shape from the point group is known (see, for example, Non-Patent Document 1 and Non-Patent Document 2).

このような技術により,例えば図1に示すように,ヘリコプターの空撮映像から3次元点群を獲得して,市街地の3次元形状データ(市街地空間モデル)を構築し,災害シミュレーションやカーナビゲーションシステムなどの基礎データに利用されている(非特許文献3参照)。映像は単位時間ごとに撮影されたフレームと呼ばれる画像列から構成されているため,以下,映像を時系列画像と呼ぶ。   With this technology, for example, as shown in Fig. 1, a 3D point cloud is acquired from an aerial image of a helicopter, and 3D shape data (city space model) of an urban area is constructed. (See Non-Patent Document 3). Since the video is composed of a sequence of images called frames taken every unit time, the video is hereinafter referred to as a time-series image.

図2は,地上の建物を空撮する例を示した図である。図2に示すように,例えば,ヘリコプターに搭載したビデオカメラで撮影時刻011,012,013,014,015において対象建物を空撮していく。   FIG. 2 is a diagram showing an example of aerial imaging of a building on the ground. As shown in FIG. 2, for example, an aerial image of the target building is taken at shooting times 011, 012, 013, 014, and 015 with a video camera mounted on a helicopter.

図3は,撮影された時系列画像の例を示す。図3から分かるように,一般に対象物が映し出されているフレーム数は限られているため,長い時系列画像から広域の3次元形状を復元する場合には,部分的な画像列(シーケンス)ごとに3次元点群を獲得する必要がある。   FIG. 3 shows an example of a photographed time series image. As can be seen from FIG. 3, since the number of frames in which an object is projected is generally limited, when restoring a wide three-dimensional shape from a long time-series image, each partial image sequence (sequence) It is necessary to acquire a three-dimensional point cloud.

さらに,大きな構造物は複数のシーケンスにまたがる場合も考えられるため,複数の連続するシーケンスから獲得された複数の点群を一つの点群に統合した後で形状の復元を行う必要がある。この統合後の点群を,シーケンスごとの点群と区別するために,以下では空間情報と呼ぶ。   Furthermore, since a large structure may span a plurality of sequences, it is necessary to restore a shape after integrating a plurality of point groups acquired from a plurality of consecutive sequences into one point group. In order to distinguish this integrated point cloud from the point cloud for each sequence, it is hereinafter referred to as spatial information.

図4は,時系列画像から一定枚数のシーケンスヘの分割を説明する図である。図4に示すように,例えば,対象建物群の時系列画像からそれぞれN枚のフレームを切り出し,N枚ごとにシーケンス1からシーケンス4を生成する。なお,図4に示す例では,各シーケンスは,M枚のフレームが後続するシーケンスとオーバーラップするように生成されている。   FIG. 4 is a diagram for explaining division from a time-series image into a fixed number of sequences. As shown in FIG. 4, for example, N frames are cut out from the time-series images of the target building group, and sequence 1 to sequence 4 are generated for each N frames. In the example shown in FIG. 4, each sequence is generated so that it overlaps a sequence followed by M frames.

長い時系列画像から広域の3次元形状を復元する場合,シーケンスごとに3次元座標値を持った点群を獲得し,点群を統合して空間情報を生成し,空間情報から形状の復元を行う。さらに,形状を画像から復元しているため,形状面のテクスチャ画像を取得することが可能である。   When restoring a 3D shape over a wide area from a long time-series image, a point cloud with 3D coordinate values is obtained for each sequence, the point cloud is integrated to generate spatial information, and the shape is restored from the spatial information. Do. Furthermore, since the shape is restored from the image, a texture image of the shape surface can be acquired.

図5に従来技術のブロック構成図を示す。2は,1または複数のCPUおよびメモリなどから構成されるテクスチャ画像獲得装置,21は時系列画像から3次元の点群を獲得して空間情報を復元する空間情報復元機構,22は空間情報から3次元形状を復元する形状復元機構,23はテクスチャを獲得するテクスチャ取得機構,24はファイルサーバ,25はテクスチャ画像が保存されるテクスチャ保存装置である。ファイルサーバ24には,時系列画像,後述する追跡座標値,空間情報,形状データなどのデータが格納される。   FIG. 5 shows a block diagram of the prior art. 2 is a texture image acquisition device including one or a plurality of CPUs and a memory, 21 is a spatial information recovery mechanism for recovering spatial information by acquiring a three-dimensional point cloud from a time-series image, and 22 is from spatial information. A shape restoration mechanism for restoring a three-dimensional shape, 23 a texture acquisition mechanism for obtaining a texture, 24 a file server, and 25 a texture storage device for storing a texture image. The file server 24 stores data such as time-series images, tracking coordinate values (to be described later), spatial information, and shape data.

以下,図5の各構成要素で使われている技術を簡単に説明する。空間情報復元機構21において,各シーケンスから3次元の点群を獲得する方法としては,「ステレオ画像法」や「オプティカルフロー」といった手法がある(非特許文献4参照)。いずれの方法においても撮影方向の異なる画像間で特徴点の対応関係をとる必要があり,時系列画像中で特徴点の対応関係を見つけ出す処理は「特徴点の追跡」と呼ばれている。   Hereinafter, a technique used in each component of FIG. 5 will be briefly described. As a method of acquiring a three-dimensional point group from each sequence in the spatial information restoration mechanism 21, there are methods such as “stereo image method” and “optical flow” (see Non-Patent Document 4). In any of the methods, it is necessary to establish the correspondence between feature points between images having different shooting directions, and the process of finding the correspondence between feature points in a time-series image is called “feature point tracking”.

特徴点を追跡する場合,まず図6のように,図3に示す撮影された時系列画像から1フレーム(例えば,撮影時刻013のimage13.tif)を選んで4つの特徴点を設定する。撮影時刻011から撮影時刻015までの時系列画像中で,この特徴点の追跡を行う様子を図7に示す。追跡処理の結果は,各特徴点の各フレームにおける画像座標値として,図8のように保存される。以下では,これらの座標値を追跡座標値と呼ぶ。   When tracking feature points, first, as shown in FIG. 6, one frame (for example, image13.tif at shooting time 013) is selected from the shot time-series images shown in FIG. 3, and four feature points are set. FIG. 7 shows how the feature points are tracked in the time-series images from the shooting time 011 to the shooting time 015. The result of the tracking process is stored as an image coordinate value in each frame of each feature point as shown in FIG. Hereinafter, these coordinate values are referred to as tracking coordinate values.

追跡座標値は,シーケンスごとに保存される。例えば,図8において,image11.tifからimage15.tifまでの各画像における特徴点1の追跡座標値は,(300,600),(300,500),(300,400),(300,300),(300,200)である。   The tracking coordinate value is stored for each sequence. For example, in FIG. tif to image15. The tracking coordinate values of the feature point 1 in each image up to tif are (300, 600), (300, 500), (300, 400), (300, 300), (300, 200).

形状復元機構22において,空間情報から形状を復元する方法としては,図9に示すように,入力された空間情報から同じ高さの点集合を見つけ出して,空間情報を同じ高さの点集合に分割して,水平面上で,その点集合の凸包や外接長方形を形成することで,形状の平面図形とする方法が提案されている(非特許文献1,非特許文献5参照)。形状の平面図形から3次元モデルが得られる。   As a method for restoring the shape from the spatial information in the shape restoration mechanism 22, as shown in FIG. 9, a point set having the same height is found from the inputted spatial information, and the spatial information is converted into a point set having the same height. There has been proposed a method of forming a planar figure of a shape by dividing and forming a convex hull or circumscribed rectangle of the point set on a horizontal plane (see Non-Patent Document 1 and Non-Patent Document 5). A three-dimensional model is obtained from the planar figure of the shape.

テクスチャ取得機構23におけるテクスチャの獲得方法としては,非特許文献6,非特許文献7では,カメラの位置および姿勢に関する情報を用いて形状モデルを画像中に投影し,時系列画像の中から対象物がもっとも画像の中心に写っているフレーム(最適フレーム)を選択し,そのフレームからテクスチャを切り出す方法が示されている。
石川裕治,宮川勲,若林佳織,有川知彦,“MDL基準に基づく3次元点集合からの形状モデル復元”,画像の認識・理解シンポジウム(MIRU2002)論文集,vol. 1,pp.165−170,情報処理学会,2002 宮川勲,長井茂,有川知彦,“カメラ運動を拘束した因子分解法による空間情報復元”,電子情報通信学会論文誌,vol.J85−D−II,no.5,pp.898−966,2002 大谷尚通,石川裕治,桑田喜隆,井上潮,“都市3次元地図を用いた防災情報提供システム”,第10回機能図形情報システムシンポジウム講演論文集,1999年4月 井口征士,佐藤宏介,「3次元画像計測」,昭晃堂 石川裕治,宮川勲,若林佳織,有川知彦,“線分制約を取り入れた3次元特徴点集合からの建物モデル復元手法”,情報処理学会(第56回全国大会),2003 川崎洋,谷田部智之,池内克史,坂内正夫,「Omni ビデオカメラからの3次元都市の自動生成」,コンピュータビジョンとイメージメディア,119−4,1999.11.17,情報処理学会 M.Uehara and H.Zen, "Building a Digital Town : From Digital Map to 3D Map by Mobile Observation", The Second International Symposium on Mized Reality(ISMR2001),March,2001.
As a texture acquisition method in the texture acquisition mechanism 23, in Non-Patent Document 6 and Non-Patent Document 7, a shape model is projected into an image using information on the position and orientation of a camera, and an object is detected from a time-series image. Shows how to select the frame (optimal frame) that is most visible in the center of the image and cut out the texture from that frame.
Yuji Ishikawa, Isao Miyagawa, Kaori Wakabayashi, Tomohiko Arikawa, “Reconstruction of shape model from 3D point set based on MDL criterion”, Proceedings of Image Recognition and Understanding Symposium (MIRU2002), vol. 165-170, Information Processing Society of Japan, 2002 Isao Miyagawa, Shigeru Nagai, Tomohiko Arikawa, “Reconstruction of spatial information by factorization with camera motion constrained”, IEICE Transactions, vol. J85-D-II, no. 5, pp. 898-966, 2002 Naotori Otani, Yuji Ishikawa, Yoshitaka Kuwata, Ushio Inoue, “Disaster prevention information provision system using 3D city maps”, Proceedings of the 10th Functional Graphic Information System Symposium, April 1999 Seiji Iguchi, Kosuke Sato, “3D image measurement”, Shosodo Yuji Ishikawa, Isao Miyagawa, Kaori Wakabayashi, Tomohiko Arikawa, “A Building Model Restoration Method from a 3D Feature Point Set Incorporating Line Constraints”, Information Processing Society of Japan (56th National Convention), 2003 Hiroshi Kawasaki, Tomoyuki Yatabe, Katsushi Ikeuchi, Masao Sakauchi, “Automatic Generation of 3D City from Omni Video Camera”, Computer Vision and Image Media, 119-4, 1999.11.17, Information Processing Society of Japan M. Uehara and H. Zen, "Building a Digital Town: From Digital Map to 3D Map by Mobile Observation", The Second International Symposium on Mized Reality (ISMR2001), March, 2001.

従来手法ではテクスチャを獲得する際に,カメラの位置および姿勢を知る必要がある。しかし,カメラの位置や姿勢というような情報を正確に獲得することは難しい。例えば,カメラに対して位置や姿勢を記録するセンサを取り付ける必要があり,さらに,センシングされた情報について,各撮影時刻で正確に位置と姿勢を記録できなくてはならない。このような手段の実現には高いコストが掛かる。   In the conventional method, it is necessary to know the position and orientation of the camera when acquiring the texture. However, it is difficult to accurately acquire information such as camera position and posture. For example, it is necessary to attach a sensor for recording the position and orientation to the camera, and it is necessary to accurately record the position and orientation of the sensed information at each shooting time. Implementation of such means is expensive.

さらに,そのような情報を記録できたとしても,時系列画像は多数のフレームから構成されるため,最適フレームを選択する処理に時間が掛かるという問題がある。   Further, even if such information can be recorded, the time-series image is composed of a large number of frames, so that there is a problem that it takes time to select the optimum frame.

本発明は,上記従来技術の問題点を解決し,カメラと対象物の相対位置や向きなどの情報がなくても時系列画像からテクスチャを獲得することができ,かつ,テクスチャ獲得に掛かる処理時間を短縮することが可能な技術を提供することを目的とする。   The present invention solves the above-mentioned problems of the prior art, can acquire a texture from a time-series image without information on the relative position and orientation of the camera and the object, and the processing time required for acquiring the texture. It is an object to provide a technique capable of shortening.

上記課題を解決するため,本発明のテクスチャ画像獲得方法は,記憶装置に格納された時系列画像から3次元点群を獲得し,該3次元点群から3次元形状を復元し,該3次元形状の面のテクスチャ画像を前記時系列画像に含まれる画像から獲得するコンピュータによるテクスチャ画像獲得方法であって,前記時系列画像を複数の部分画像列に分割するステップと,前記部分画像列において特徴点の画像上の座標を用いて3次元点群の座標値を求めるステップと,前記3次元点群に含まれる各点に対して,前記3次元点群の座標値を求める際に用いた部分画像列,および,該部分画像列での画像上の座標データとの対応関係を求め,対応関係情報として記憶するステップと,前記記憶した対応関係情報から3次元形状の面を構成する各3次元点の画像上の座標を取得し,取得した3次元点の画像上の座標に基づいてテクスチャを獲得する画像を前記時系列画像から選択するステップと,選択した画像からテクスチャを獲得するステップとを有することを特徴とする。   In order to solve the above problems, the texture image acquisition method of the present invention acquires a three-dimensional point group from a time-series image stored in a storage device, restores a three-dimensional shape from the three-dimensional point group, and A computer-aided texture image acquisition method for acquiring a texture image of a surface of a shape from an image included in the time-series image, the step of dividing the time-series image into a plurality of partial image sequences, and a feature in the partial image sequence A step of obtaining a coordinate value of the three-dimensional point group using coordinates on the image of the point, and a part used for obtaining the coordinate value of the three-dimensional point group for each point included in the three-dimensional point group A step of obtaining a correspondence relationship between the image sequence and the coordinate data on the image in the partial image sequence and storing it as correspondence relationship information, and each of the three-dimensional shapes constituting a three-dimensional surface from the stored correspondence relationship information point Acquiring a coordinate on the image, selecting an image from which the texture is acquired based on the acquired coordinate on the three-dimensional point image from the time-series image, and acquiring a texture from the selected image It is characterized by.

また,前記テクスチャを獲得する画像を前記時系列画像から選択するステップでは,前記3次元形状の面を構成する3次元点の画像上の座標に基づいて各画像の重心を求め,各画像の重心が各画像の中心に最も近い画像を前記テクスチャを獲得する画像として選択することを特徴とする。   Further, in the step of selecting an image for acquiring the texture from the time-series image, a centroid of each image is obtained based on coordinates on an image of a three-dimensional point constituting the surface of the three-dimensional shape, and a centroid of each image is obtained. Selects the image closest to the center of each image as the image for acquiring the texture.

また,前記テクスチャを獲得するステップでは,テクスチャを貼り付けようとする前記3次元形状の面の各頂点について,前記3次元点群の座標値を求める際に用いた画像上の座標を求め,その求めた画像上の座標に基づき,前記選択した画像からテクスチャ画像を切り出すことを特徴とする。   Further, in the step of acquiring the texture, for each vertex of the surface of the three-dimensional shape to which the texture is to be pasted, a coordinate on the image used when calculating the coordinate value of the three-dimensional point group is obtained, A texture image is cut out from the selected image based on the obtained coordinates on the image.

また,前記テクスチャを獲得するステップでは,テクスチャを貼り付けようとする前記3次元形状の面に含まれる点の,3次元座標と画像上の座標との対応関係から,平行移動またはスケール変換または回転移動を含む合成変換を決定し,前記決定した合成変換によって,前記3次元形状の面の頂点の3次元座標を画像上の座標に変換し,前記変換された画像上の座標に基づき,前記選択した画像からテクスチャ画像を切り出すことを特徴とする。   Further, in the step of acquiring the texture, a translation, scale conversion, or rotation is performed based on the correspondence between the three-dimensional coordinates and the coordinates on the image of a point included in the surface of the three-dimensional shape to which the texture is to be pasted. Determining a composite transformation including movement, converting the three-dimensional coordinates of the vertices of the surface of the three-dimensional shape into coordinates on the image by the determined composite transformation, and selecting the selection based on the coordinates on the transformed image A texture image is cut out from the processed image.

また,前記合成変換によって,前記3次元形状の面の頂点の3次元座標を画像上の座標に変換する処理は,テクスチャを貼り付けようとする前記3次元形状の面の各頂点のうち,3次元座標値を求める際に用いた画像上の座標が存在しない頂点のみについて実行することを特徴とする。   In addition, the process of converting the three-dimensional coordinates of the vertices of the surface of the three-dimensional shape into the coordinates on the image by the synthesis conversion is performed using 3 of the vertices of the surface of the three-dimensional shape to which the texture is to be pasted. It is characterized in that it is executed only for vertices for which there are no coordinates on the image used for obtaining the dimension coordinate value.

また,本発明のテクスチャ画像獲得装置は,時系列画像から3次元点群を獲得する空間情報復元手段と,該3次元点群から3次元形状を復元する形状復元手段とを備え,前記3次元形状の面のテクスチャ画像を前記時系列画像に含まれる画像から獲得するテクスチャ画像獲得装置において,前記時系列画像を複数の部分画像列に分割し,該部分画像列において特徴点の画像上の座標を用いて3次元点群の座標値を求め,該3次元点群に含まれる各点に対して,前記3次元点群の座標値を求める際に用いた部分画像列,および,該部分画像列での画像上の座標データとの対応関係を求める対応関係情報作成手段と,前記3次元点群に含まれる各点と前記部分画像列と該部分画像列での画像上の座標データとの対応関係の情報を記憶する対応関係情報記憶手段と,前記対応関係情報記憶手段から3次元形状の面を構成する各3次元点の画像上の座標を取得し,取得した3次元点の画像上の座標に基づいてテクスチャを獲得する画像を前記時系列画像から選択する画像選択手段と,前記画像選択手段により選択した画像からテクスチャを獲得するテクスチャ獲得手段とを備えることを特徴とする。   The texture image acquisition device of the present invention includes spatial information restoration means for obtaining a three-dimensional point group from a time-series image, and shape restoration means for restoring a three-dimensional shape from the three-dimensional point group. In a texture image acquisition device for acquiring a texture image of a surface of a shape from an image included in the time series image, the time series image is divided into a plurality of partial image sequences, and the coordinates on the feature point image in the partial image sequence Is used to obtain the coordinate value of the three-dimensional point group, and for each point included in the three-dimensional point group, the partial image sequence used when obtaining the coordinate value of the three-dimensional point group, and the partial image Correspondence information creation means for obtaining a correspondence relationship between the coordinate data on the image in the sequence, each point included in the three-dimensional point group, the partial image sequence, and the coordinate data on the image in the partial image sequence Correspondence relationship that stores correspondence information The coordinates on the image of each three-dimensional point constituting the surface of the three-dimensional shape are acquired from the information storage means and the correspondence information storage means, and the texture is acquired based on the acquired coordinates on the image of the three-dimensional point. An image selection unit that selects an image from the time-series image, and a texture acquisition unit that acquires a texture from the image selected by the image selection unit.

本発明は,コンピュータとソフトウェアプログラムによっても実現でき,そのプログラムを記録媒体に記録することも,ネットワークを通して提供することも可能である。   The present invention can also be realized by a computer and a software program, and the program can be recorded on a recording medium or provided through a network.

本発明により,時系列画像から形状を復元すると共に,その形状面のテクスチャを獲得する際に,追跡処理時の特徴点の画像座標を利用することで,3次元形状を画像フレームに投影する必要がない。そのため,カメラと対象物の相対位置や向きを知る必要がなく,そのような情報を取得・管理するためのコストを削減できる。   According to the present invention, it is necessary to project a three-dimensional shape onto an image frame by using the image coordinates of feature points at the time of tracking processing when restoring the shape from the time-series image and acquiring the texture of the shape surface. There is no. Therefore, it is not necessary to know the relative position and orientation of the camera and the object, and the cost for acquiring and managing such information can be reduced.

また,本発明は,シーケンス対応表を作成しておくことにより,テクスチャ獲得のためのフレームを特定する際に,時系列画像全体を検索するのではなく,特定のシーケンスだけを検索すればよいため,テクスチャ獲得に掛かる処理時間を短縮できる。   Also, the present invention creates a sequence correspondence table, so that when specifying a frame for texture acquisition, it is only necessary to search for a specific sequence rather than searching the entire time-series image. , Processing time required for texture acquisition can be shortened.

シーケンス対応表の作成は一回の処理で済むが,フレームの検索はテクスチャを貼り付けなければならない面の数だけ行われるため,時系列画像が長い場合,処理時間の短縮効果はより大きくなる。   The sequence correspondence table can be created only once, but since the frame search is performed for the number of faces to which the texture must be pasted, the effect of shortening the processing time becomes larger when the time-series image is long.

上記の課題を解決するために行われた本発明の構成例を図10に示す。本発明のテクスチャ画像獲得装置1は,図5に示す従来のテクスチャ画像獲得装置2の構成要素からテクスチャ取得機構23を除き,対応表作成機構13,シーケンス対応表14,フレーム選択機構11,テクスチャ座標決定機構12を加えて構成される。以下,順に説明する。   FIG. 10 shows a configuration example of the present invention performed to solve the above problem. The texture image acquisition device 1 of the present invention excludes the texture acquisition mechanism 23 from the components of the conventional texture image acquisition device 2 shown in FIG. 5, and creates a correspondence table creation mechanism 13, a sequence correspondence table 14, a frame selection mechanism 11, texture coordinates. A decision mechanism 12 is added. Hereinafter, it demonstrates in order.

対応表作成機構13は,空間情報に含まれる各点Pに対して,Pの3次元座標を獲得するために利用されたシーケンスS,および,図8に示すシーケンスSの追跡座標値データの中で点Pに対応する点P’をそれぞれ求めてシーケンス対応表14に記録する。図8では,あるシーケンスSi の特徴点は1から4まで4つあることを示しているが,対応表作成機構13では,点Pの3次元座標がシーケンスSi から獲得された場合,Pが1から4の,どの特徴点に対応付けられるかを特定してシーケンス対応表14に記録する。 The correspondence table creation mechanism 13 includes, for each point P included in the spatial information, the sequence S used to acquire the three-dimensional coordinates of P and the tracking coordinate value data of the sequence S shown in FIG. Then, the points P ′ corresponding to the points P are respectively obtained and recorded in the sequence correspondence table 14. FIG. 8 shows that there are four feature points of a sequence S i from 1 to 4, but in the correspondence table creation mechanism 13, when the three-dimensional coordinates of the point P are obtained from the sequence S i , P 1 to 4 is identified and recorded in the sequence correspondence table 14.

フレーム選択機構11は,テクスチャを貼り付ける面に含まれる空間情報中の点集合Qを特定する。次に,シーケンス対応表14を用いて点集合Qに含まれる点の追跡座標値をファイルサーバ24から取得し,各フレームの画像座標を得る。その画像座標からテクスチャを獲得するためのフレームFを選択する。図7に示すようにシーケンス中の各フレームで画像座標を求め,画像座標がフレームの中心に配置されているフレームを選択する方法がある。この方法によると,例えば,図7に示す撮影時刻013のフレームが選択される。   The frame selection mechanism 11 specifies a point set Q in the spatial information included in the surface to which the texture is pasted. Next, the tracking coordinate values of the points included in the point set Q are acquired from the file server 24 using the sequence correspondence table 14, and the image coordinates of each frame are obtained. A frame F for acquiring a texture is selected from the image coordinates. As shown in FIG. 7, there is a method of obtaining image coordinates at each frame in the sequence and selecting a frame in which the image coordinates are arranged at the center of the frame. According to this method, for example, the frame at the photographing time 013 shown in FIG. 7 is selected.

テクスチャ座標決定機構12は,点集合Qの中からテクスチャを貼り付ける面の頂点を特定し,フレームFにおける画像座標を用いてテクスチャ画像をフレームFから切り出し,テクスチャ保存装置25に記録する。   The texture coordinate determination mechanism 12 specifies the vertex of the surface to which the texture is to be pasted from the point set Q, cuts out the texture image from the frame F using the image coordinates in the frame F, and records it in the texture storage device 25.

テクスチャを貼り付ける面の頂点が点集合Qに含まれていない場合には,点集合Qの3次元座標とフレームFにおける画像座標との間で,回転移動,平行移動,スケール変換の合成変換を生成し,その変換によって頂点の3次元座標を画像座標に変換する。なお,生成する合成変換は,回転移動,平行移動,スケール変換の一部を含むものであってもよい。   If the vertex of the surface to which the texture is to be applied is not included in the point set Q, the combined transformation of rotational movement, translation, and scale conversion is performed between the three-dimensional coordinates of the point set Q and the image coordinates in the frame F. The three-dimensional coordinates of the vertices are converted into image coordinates by the generation. The generated composite transformation may include a part of rotational movement, parallel movement, and scale conversion.

以上の工夫により,追跡座標値を利用してテクスチャ画像を獲得することができるため,モデル形状のフレームに対する投影が不要になり,カメラの位置や姿勢を知る必要がなくなる。また,テクスチャを獲得するフレームを選択する際には,時系列画像全体ではなく,ある一つのシーケンスの中だけを探索するので処理時間が短くなる。   With the above device, the texture image can be acquired using the tracking coordinate value, so that it is not necessary to project the model shape onto the frame, and it is not necessary to know the position and orientation of the camera. In addition, when selecting a frame for acquiring a texture, the processing time is shortened because only a single sequence is searched instead of the entire time-series image.

以下,本発明の実施の形態について詳細に説明する。NTSCやハイビジョンなどの映像では,1秒間に30枚のフレームが画像データとして記録され,ファイルサーバ24に格納される。時系列画像は撮影した時刻とフレームのファイル名の組を保存することで管理される。ファイルサーバ24における時系列画像の管理の例を図11に示す。   Hereinafter, embodiments of the present invention will be described in detail. In a video such as NTSC or HDTV, 30 frames are recorded as image data per second and stored in the file server 24. Time-series images are managed by storing a set of shooting time and frame file names. An example of management of time-series images in the file server 24 is shown in FIG.

図11の例では,ファイルサーバ24には,撮影時刻001に対応して画像ファイル「image1.tif」が,撮影時刻002に対応して画像ファイル「image2.tif」が,撮影時刻003に対応して画像ファイル「image3.tif」が,撮影時刻004に対応して画像ファイル「image4.tif」が,撮影時刻005に対応して画像ファイル「image5.tif」が,時系列画像情報としてそれぞれ保存されている。   In the example of FIG. 11, the image file “image1.tif” corresponds to the shooting time 001, the image file “image2.tif” corresponds to the shooting time 002, and the image file “image2.tif” corresponds to the shooting time 003. The image file “image3.tif” is stored as time series image information, the image file “image4.tif” corresponding to the shooting time 004, and the image file “image5.tif” corresponding to the shooting time 005, respectively. ing.

ファイルサーバ24に格納されている1シーケンス分の追跡座標値の例は図8に示した通りであり,図8に示すような追跡座標値が各シーケンスに対して保存されているものとする。また,空間情報は各点の3次元座標値の列であり,1から始まる番号が順に振られているとする。   An example of tracking coordinate values for one sequence stored in the file server 24 is as shown in FIG. 8, and it is assumed that tracking coordinate values as shown in FIG. 8 are stored for each sequence. The spatial information is a sequence of three-dimensional coordinate values of each point, and numbers starting from 1 are assigned in order.

シーケンス対応表14の作成方法は,シーケンスごとに獲得された3次元点群がどのようにして一つの空間情報にまとめられたかに依存する。本発明の実施の形態では,各シーケンスの3次元点群は,追跡座標値の順と同じ順番で並べるとする。そして,シーケンス開始時刻の順番で3次元点群の座標値を連結し,空間情報の3次元座標値の列を生成する。   The method of creating the sequence correspondence table 14 depends on how the three-dimensional point group acquired for each sequence is combined into one spatial information. In the embodiment of the present invention, the three-dimensional point group of each sequence is arranged in the same order as the order of the tracking coordinate values. Then, the coordinate values of the three-dimensional point group are connected in the order of the sequence start time, and a sequence of three-dimensional coordinate values of the spatial information is generated.

対応表作成機構13が生成するシーケンス対応表14の例を,図12に示す。シーケンス対応表14には,空間情報における特徴点番号,シーケンス番号,シーケンスにおける特徴点番号の対応情報が格納される。対応表作成機構13は,図12のシーケンス番号の欄とシーケンスにおける特徴点番号の欄を埋めていくことで,空間情報中の各特徴点が,どのシーケンスのどの特徴点であるかを,シーケンス対応表14に記録する。シーケンス対応表14では,シーケンスにおける特徴点番号の代わりに,図8に示す特徴点の追跡座標値データを記録してもよい。   An example of the sequence correspondence table 14 generated by the correspondence table creation mechanism 13 is shown in FIG. The sequence correspondence table 14 stores feature point numbers in spatial information, sequence numbers, and correspondence information of feature point numbers in sequences. The correspondence table creation mechanism 13 fills in the sequence number column and the feature point number column in the sequence in FIG. 12 to determine which feature point of each sequence each feature point in the spatial information is a sequence. Record in the correspondence table 14. In the sequence correspondence table 14, instead of the feature point numbers in the sequence, tracking coordinate value data of feature points shown in FIG. 8 may be recorded.

対応表作成機構13によるシーケンス対応表生成処理フローの一例を,図13に基づいて説明する。最初にシーケンスを撮影開始時刻の順に整列させ(ステップS1),空間情報の特徴点番号iおよびその特徴点のシーケンスの番号jをそれぞれ1に初期化する(ステップS2)。   An example of a sequence correspondence table generation process flow by the correspondence table creation mechanism 13 will be described with reference to FIG. First, the sequences are arranged in order of photographing start time (step S1), and the feature point number i of the spatial information and the sequence number j of the feature point are initialized to 1 (step S2).

シーケンスSj において,追跡を行って3次元点群を獲得した特徴点の数Nを,ファイルサーバ24にあるシーケンスSj の追跡座標値のデータから取得する(ステップS3)。空間情報は各シーケンスの3次元座標値を順に連結したデータであるから,空間情報のiからi+N−1の特徴点は同じシーケンスSj に含まれる。そこで,それらの点が所属していたシーケンスの番号としてjをシーケンス対応表14に記録する(ステップS4)。 In the sequence S j , the number N of feature points that have been tracked to obtain a three-dimensional point cloud is acquired from the tracking coordinate value data of the sequence S j in the file server 24 (step S3). Since the spatial information is data obtained by sequentially connecting the three-dimensional coordinate values of each sequence, the feature points i to i + N−1 of the spatial information are included in the same sequence S j . Therefore, j is recorded in the sequence correspondence table 14 as the sequence number to which these points belong (step S4).

さらに,空間情報に含まれる点の3次元座標値は追跡座標値と同じ順番で並べられているから,空間情報のiからi+N−1の特徴点に対して,シーケンスSj における特徴点の番号として1からNをシーケンス対応表14に記録する(ステップS5)。その後,iにNを加え,jに1を加える(ステップS6)。以上の処理をすべてのシーケンスS1 〜SM に対して繰り返し(ステップS7),すべてのシーケンスに対して以上の処理を実施した時点で処理を終了し,シーケンス対応表14を出力する。 Further, since the three-dimensional coordinate values of the points included in the spatial information are arranged in the same order as the tracking coordinate values, the feature point numbers in the sequence S j with respect to the feature points i to i + N−1 of the spatial information. 1 to N are recorded in the sequence correspondence table 14 (step S5). Thereafter, N is added to i and 1 is added to j (step S6). The above processing is repeated for all the sequences S 1 to S M (step S7). When the above processing is performed for all the sequences, the processing is terminated and the sequence correspondence table 14 is output.

上記の実施の形態では,各シーケンスから獲得された3次元座標値を単に連結して空間情報を構成していたが,空間情報の分割・管理などの利便性を考慮して,例えばある特定の座標軸に沿って3次元座標値を並べて空間情報を生成することも考えられる。   In the above embodiment, the spatial information is configured by simply connecting the three-dimensional coordinate values acquired from each sequence. However, in consideration of convenience such as division and management of the spatial information, for example, a certain specific value is used. It is also conceivable to generate spatial information by arranging three-dimensional coordinate values along the coordinate axis.

このような場合でも,空間情報を配列する際に行われた処理が分かっていれば,配列前と配列後の位置を比較することで,シーケンス対応表14を構成することができる。さらに,空間情報復元機構21の内部に対応表作成機構を持たせ,空間情報を生成する処理の中で,配列前後の対応関係を保持して,シーケンス対応表14を作成してもよい。また,配列処理が不明な場合でも,各シーケンスの3次元点群を保存しておけば,3次元座標値をキーとして空間情報との対応付けが可能である。   Even in such a case, if the processing performed when arranging the spatial information is known, the sequence correspondence table 14 can be configured by comparing the positions before and after the arrangement. Further, the correspondence table creation mechanism may be provided inside the spatial information restoration mechanism 21 so that the sequence correspondence table 14 may be created while maintaining the correspondence relationship before and after the array in the process of generating the spatial information. Even when the array processing is unknown, if the three-dimensional point group of each sequence is stored, it can be associated with the spatial information using the three-dimensional coordinate value as a key.

次に,フレーム選択機構11によるフレーム選択処理フローの一例を図14に基づいて説明する。本実施の形態では,図2,図3に示すように空撮映像から復元した形状にテクスチャを貼り付ける場合を考え,側面はほとんど画像に写っていないため,地上構造物の上面をテクスチャの貼り付け対象面とする。   Next, an example of a frame selection process flow by the frame selection mechanism 11 will be described with reference to FIG. In this embodiment, as shown in FIGS. 2 and 3, the texture is applied to the shape restored from the aerial image, and the side surface is hardly reflected in the image. The surface to be attached.

図9に示すように,空間情報から3次元形状を復元する際には,同じ高さの点の部分集合を見つけて上面を形成する。よって,この形成過程を保存することで,面に含まれる点の集合を特定することは容易である。形成過程に関する情報が保存されていない場合には,水平面上で面が包含している点を集めてもよい。   As shown in FIG. 9, when restoring a three-dimensional shape from spatial information, a subset of points having the same height is found to form the upper surface. Therefore, it is easy to specify the set of points included in the surface by preserving this formation process. If information about the formation process is not stored, the points that the surface contains on the horizontal plane may be collected.

フレーム選択機構11の処理としては,テクスチャを貼り付ける各面Aに対して,図14に示すフローチャートに従った処理を行う。最初にテクスチャを貼り付ける面Aに含まれる空間情報の点を列挙し,それをQ(={qi })とする(ステップS11)。 As processing of the frame selection mechanism 11, processing according to the flowchart shown in FIG. 14 is performed on each surface A to which the texture is pasted. First, the points of the spatial information included in the surface A to which the texture is pasted are listed and set as Q (= {q i }) (step S11).

シーケンス対応表14からqi が属するシーケンスを求める。図15に示すように,一つの地上構造物が複数のシーケンスの撮影領域にまたがって存在し,結果として上面が複数のシーケンスの特徴点から構成される場合がある。このような場合,本実施の形態では,所属する点が最も多いシーケンスの番号をjmaxとし,最も多くの点を含むシーケンスSjmaxからテクスチャ獲得用のフレームを選択する(ステップS12)。点集合QにはシーケンスSjmaxに属する点だけを残して他の点は削除する(ステップS13)。 The sequence to which q i belongs is obtained from the sequence correspondence table 14. As shown in FIG. 15, there is a case where one ground structure exists over a plurality of sequences of imaging regions, and as a result, the upper surface is composed of feature points of a plurality of sequences. In such a case, in the present embodiment, the number of the sequence to which the most points belong is set to jmax, and a texture acquisition frame is selected from the sequence S jmax including the most points (step S12). Only the points belonging to the sequence S jmax are left in the point set Q, and other points are deleted (step S13).

次に,シーケンス対応表14により各qi のシーケンスSjmaxにおける特徴点番号kを求め(ステップS14),ファイルサーバ24からシーケンスSjmaxの画像座標値を取得して,シーケンスSjmaxの各フレームfにおける各qi の画像座標を得る(ステップS15)。 Next, the sequence by the correspondence table 14 obtains the feature point number k in the sequence S jmax of the q i (step S14), and acquires the image coordinates of the sequence S jmax from the file server 24, each frame of the sequence S jmax f The image coordinates of each q i are obtained (step S15).

各フレームfの{qi }の画像座標から重心Gfを求め,重心Gfがフレームの中心に最も近いフレームを上面のテクスチャ獲得用フレームとして選択する(ステップS16)。このように画像の中心付近に多数の特徴点が分布するようなフレームを選択することで,上面がフレームからはみ出るような状態を回避することができる。 The center of gravity Gf is obtained from the image coordinates of {q i } of each frame f, and the frame having the center of gravity Gf closest to the center of the frame is selected as the upper texture acquisition frame (step S16). By selecting a frame in which a large number of feature points are distributed in the vicinity of the center of the image in this way, it is possible to avoid a state where the upper surface protrudes from the frame.

図15に示した地上構造物の上面を対象に,上記のフレーム選択機構11によるフレーム選択処理を用いて,テクスチャ獲得用フレームを選択する処理の例を図16に示す。図15(A)は,図15(B)に示す地上構造物の上面が属するX−Y平面に含まれる3次元点(シーケンスの特徴点)を示す。   FIG. 16 shows an example of processing for selecting a texture acquisition frame for the upper surface of the ground structure shown in FIG. 15 by using the frame selection processing by the frame selection mechanism 11 described above. FIG. 15A shows three-dimensional points (characteristic points of the sequence) included in the XY plane to which the upper surface of the ground structure shown in FIG. 15B belongs.

図15(A)に示す3次元点は,シーケンスSj から獲得された3次元点とシーケンスSj+1 から獲得された3次元点とから構成される。図15(A)に示す地上構造物の上面にはシーケンスSj+1 の特徴点のほうが多いので,シーケンスSj+1 の点だけで以後の処理を進める。 The three-dimensional point shown in FIG. 15A includes a three-dimensional point acquired from the sequence S j and a three-dimensional point acquired from the sequence S j + 1 . Since there are more feature points of the sequence S j + 1 on the upper surface of the ground structure shown in FIG. 15A, the subsequent processing is advanced only by the points of the sequence S j + 1 .

シーケンスSj+1 は,撮影時刻020から撮影時刻040までの21枚のフレームから構成されるとする。それぞれのフレームで特徴点の画像座標を求め,図16に二重丸で示した重心を算出する。その結果,算出された重心とフレームの中心との距離が最も近くなる撮影時刻029のフレームをテクスチャを獲得するのに最適なフレームとして選択する。 The sequence S j + 1 is assumed to be composed of 21 frames from the shooting time 020 to the shooting time 040. The image coordinates of the feature points are obtained in each frame, and the center of gravity indicated by a double circle in FIG. 16 is calculated. As a result, the frame at the photographing time 029 at which the calculated distance between the center of gravity and the center of the frame is the shortest is selected as the optimum frame for acquiring the texture.

以上の手続きにより,テクスチャを貼り付ける各面に対して,テクスチャ獲得用フレームが決定されるので,最後にテクスチャ座標決定機構12によりテクスチャ画像を切り出す。   With the above procedure, the texture acquisition frame is determined for each surface to which the texture is to be pasted. Finally, the texture coordinate determination mechanism 12 cuts out the texture image.

テクスチャ座標決定機構12によるテクスチャ座標決定処理フローの一例を図17に示す。テクスチャ座標決定機構12の手続きは,テクスチャを貼り付ける各面Aに対して実行する。まず,フレーム選択機構11による処理の結果として面Aに割り当てられたフレームをFとする(ステップS21)。   An example of a texture coordinate determination process flow by the texture coordinate determination mechanism 12 is shown in FIG. The procedure of the texture coordinate determination mechanism 12 is executed for each surface A to which the texture is pasted. First, assume that the frame assigned to the surface A as a result of the processing by the frame selection mechanism 11 is F (step S21).

フレーム選択機構11と同様にして面Aに含まれる空間情報の点qi を集めてQ(={qi })とする(ステップS22)。シーケンス対応表14を参照し,点qi が属するシーケンスがフレームFを含んでいれば点qi のフレームFにおける画像座標ri を得る(ステップS23)。フレームFにおける画像座標を得られない点qi は点集合Qから取り除く。 Similarly to the frame selection mechanism 11, the points q i of the spatial information included in the plane A are collected and set as Q (= {q i }) (step S22). With reference to the sequence correspondence table 14, if the sequence to which the point q i belongs includes the frame F, the image coordinate r i of the point q i in the frame F is obtained (step S23). The point q i for which the image coordinates in the frame F cannot be obtained is removed from the point set Q.

ここまでのステップにおいて,面Aのすべての頂点の画像座標が得られれば(ステップS24),ステップS30に進み,図18に示すように,フレームFから部分画像を切り出して,面Aのテクスチャ画像を獲得することができる。   If the image coordinates of all the vertices of the surface A are obtained in the steps so far (step S24), the process proceeds to step S30, where a partial image is cut out from the frame F as shown in FIG. Can be earned.

ステップS30においては,図18に示すように,面Aの頂点の画像座標の集合を含む最小の部分画像(点線で囲まれた範囲の画像)をフレームFから取得し,面Aのテクスチャ画像として切り出す。   In step S30, as shown in FIG. 18, a minimum partial image (image in a range surrounded by a dotted line) including a set of image coordinates of the vertexes of the surface A is acquired from the frame F, and is used as a texture image of the surface A. cut.

面Aの頂点のうち,フレームF上の画像座標が得られない点がある場合には,図19に示すように,空間情報の3次元座標系(XYZ)からフレームF上の画像座標系(xy)に変換する関数Tを生成し,関数Tを使って,面Aの頂点に対してフレームF上の画像座標を得る。   If there is a point on the surface A where the image coordinates on the frame F cannot be obtained, as shown in FIG. 19, the three-dimensional coordinate system (XYZ) of the spatial information changes to the image coordinate system on the frame F ( xy) is generated, and the function T is used to obtain image coordinates on the frame F with respect to the vertex of the surface A.

例えば,図19に示すように,空間情報の3次元座標系(XYZ)上の点(X1 ,Y1 ,Zave )からフレームF上の画像座標系(x1 ,y1)に変換する関数Tを生成し,生成された関数Tを使って,空間情報の座標系における面Aの頂点(A1 ,B1 ,Z0 )のフレームF上の画像座標(a1 ,b1 )を得る。なお,Zave は面A上の点の座標値Zの平均値である。 For example, as shown in FIG. 19, a point (X 1 , Y 1 , Z ave ) on the spatial information three-dimensional coordinate system (XYZ) is converted into an image coordinate system (x 1 , y 1 ) on the frame F. A function T is generated, and the generated function T is used to calculate the image coordinates (a 1 , b 1 ) on the frame F of the vertex (A 1 , B 1 , Z 0 ) of the surface A in the coordinate system of the spatial information. obtain. Z ave is an average value of coordinate values Z of points on the surface A.

図19に示すように,面の形状を点集合の凸包ではなく,最小外接四角形とすると,その頂点が元の点集合に含まれていないことが多い。また,図15に示したように別々のシーケンスから頂点が獲得されている場合もあるため,単一のフレームF上ですべての頂点の画像座標が得られるとは限らない。そのため,頂点の3次元座標から画像座標を得る手段が必要となる。   As shown in FIG. 19, if the shape of the surface is not the convex hull of the point set but the minimum circumscribed rectangle, the vertex is often not included in the original point set. Further, as shown in FIG. 15, vertices may be obtained from different sequences, and therefore image coordinates of all vertices are not necessarily obtained on a single frame F. Therefore, a means for obtaining image coordinates from the three-dimensional coordinates of the vertices is required.

本実施の形態では,空撮画像は直下安定撮影されているとし,空間情報の3次元座標系のX−Y平面と画像座標系のx−y平面は平行と仮定する。よって関数Tを2次元座標の変換関数とし,平行移動(ベクトルt),スケール変換(スケールs),回転移動(回転角θ)の合成変換によって,X−Y平面の点をx−y平面の点に変換する。面Aの中の点に対して,X−Y平面およびx−y平面上の点をそれぞれq’i ,ri とし,t,s,θを以下の順に求める(ステップS25)。
・「平行移動」:{q’i }および{ri }の重心をそれぞれG,gとし,t=(tx,ty)=g−Gとする(ステップS26)。
・「スケール変換」:すべての点に対して,Vi =q’i −G,vi =ri −gを求め,‖vi ‖/‖Vi ‖の平均値をsとする(ステップS27)。
・「回転移動」:すべての点に対し,Vi からvi への回転角θi を求め,その平均値をθとする(ステップS28)。
In the present embodiment, it is assumed that the aerial image is stably captured immediately below, and the XY plane of the three-dimensional coordinate system of the spatial information is parallel to the xy plane of the image coordinate system. Therefore, the function T is a conversion function of two-dimensional coordinates, and a point on the XY plane is converted to a point on the xy plane by a combined transformation of translation (vector t), scale transformation (scale s), and rotational movement (rotation angle θ). Convert to point. For the points in the plane A, the points on the XY plane and the xy plane are set as q ′ i and r i , respectively, and t, s, and θ are obtained in the following order (step S25).
“Parallel movement”: The centers of gravity of {q ′ i } and {r i } are G and g, respectively, and t = (tx, ty) = g−G (step S26).
“Scale conversion”: V i = q ′ i −G and v i = r i −g are obtained for all points, and the average value of ‖v i ‖ / ‖V iと す る is defined as s (step S27).
- "rotation movement": For all the points, determine the rotation angle θ i from V i to v i, and the average value θ (step S28).

面Aは既に求められているため,その各頂点の座標を(Aj ,Bj ,Cj )とおけば,それらのX−Y平面における座標は(Aj ,Bj )となる。この座標を以下の式(1)に代入することにより,各頂点の画像座標(aj ,bj )を求める(ステップS29)。 Since the plane A has already been obtained, if the coordinates of its vertices are (A j , B j , C j ), the coordinates in the XY plane are (A j , B j ). By substituting these coordinates into the following formula (1), the image coordinates (a j , b j ) of each vertex are obtained (step S29).

Figure 2005063129
Figure 2005063129

以上のようにして頂点の画像座標が求まれば,先に示した図18と同様にして,頂点の画像座標(aj ,bj )の集合を含む最小の部分画像をフレームFから取得し,面Aのテクスチャ画像として保存することにより(ステップS30),テクスチャ画像を獲得することができる。 When the vertex image coordinates are obtained as described above, the minimum partial image including the set of vertex image coordinates (a j , b j ) is obtained from the frame F in the same manner as in FIG. , The texture image is saved as a texture image of surface A (step S30), and a texture image can be acquired.

本実施の形態では,直下撮影された空撮映像を考えて,平行な平面(X−Y平面とx−y平面)の間の変換を考えたが,より複雑な位置関係の場合でも,パラメータを増やした変換関数を想定し,3次元座標値と画像座標値の間にパラメータの数よりも多くの対応関係があれば,連立方程式を解く原理により,変換関数を定めることができる。
本発明は,広範囲な対象物を長いシーケンスの映像として撮影した結果得られた時系列画像から,テクスチャつきの3次元モデルを復元する際に利用できる。具体的には以下のような対象分野が例として挙げられる。
・空撮映像から広域市街地の3次元モデルを構築し,都市計画や災害シミュレーションに用いる。
・車載したカメラから街並みを撮影し,通り沿いのビル街のテクスチャ付き3次元モデルを作成する。得られたモデルデータはカーナビゲーションに利用できる。
In the present embodiment, the conversion between parallel planes (the XY plane and the xy plane) is considered in consideration of the aerial image captured directly below. However, even in the case of a more complicated positional relationship, the parameter Assuming a conversion function with an increase in the number, if there is more correspondence between the three-dimensional coordinate value and the image coordinate value than the number of parameters, the conversion function can be determined by the principle of solving simultaneous equations.
The present invention can be used when restoring a textured three-dimensional model from a time-series image obtained as a result of photographing a wide range of objects as a long sequence of images. Specific examples include the following target fields.
-Build a 3D model of a wide-area urban area from aerial images and use it for city planning and disaster simulation.
-Take a picture of the cityscape from the camera mounted on the vehicle, and create a textured 3D model of the building street. The obtained model data can be used for car navigation.

以上のような適用分野では,従来一般にカメラの位置や姿勢をGPSやジャイロによって取得しているが,(1)GPS衛星の電波受信がうまくいかない場合がある,(2)センサの位置とカメラの位置とのずれを正しく補正できない,(3)機器が高価である,などの問題がある。画像データのみを用いる本発明の手法は,このような問題の解決に有効である。   In the application fields as described above, the position and orientation of the camera are generally acquired by GPS or a gyro, but (1) GPS satellite reception may not be successful. (2) Sensor position and camera position. And (3) the equipment is expensive. The method of the present invention using only image data is effective in solving such a problem.

映像からの3次元形状獲得技術の利用例を示す図である。It is a figure which shows the usage example of the three-dimensional shape acquisition technique from an image | video. 地上の建物の空撮の例を示す図である。It is a figure which shows the example of the aerial photography of the building on the ground. 撮影された時系列画像を示す図である。It is a figure which shows the image | photographed time series image. 時系列画像から一定枚数のシーケンスヘの分割を説明する図である。It is a figure explaining division | segmentation into a fixed number of sequences from a time-sequential image. 従来技術のブロック構成図である。It is a block block diagram of a prior art. 特徴点の設定例を示す図である。It is a figure which shows the example of a setting of a feature point. 特徴点を追跡する処理を説明する図である。It is a figure explaining the process which tracks a feature point. 特徴点の追跡結果(追跡座標値)の例を示す図である。It is a figure which shows the example of the tracking result (tracking coordinate value) of a feature point. 空間情報からの形状復元手法を示す図である。It is a figure which shows the shape restoration method from spatial information. 本発明の構成例を示すブロック図である。It is a block diagram which shows the structural example of this invention. 時系列画像の保存形式の例を示す図である。It is a figure which shows the example of the preservation | save format of a time series image. シーケンス対応表の例を示す図である。It is a figure which shows the example of a sequence corresponding table. シーケンス対応表生成処理フローの一例を示す図である。It is a figure which shows an example of a sequence corresponding table production | generation processing flow. フレーム選択処理フローの一例を示す図である。It is a figure which shows an example of a frame selection processing flow. 二つのシーケンスにまたがる復元対象物体の例を示す図である。It is a figure which shows the example of the decompression | restoration object which straddles two sequences. テクスチャ獲得用フレームを選択する処理の例を示す図である。It is a figure which shows the example of the process which selects the frame for texture acquisition. テクスチャ座標決定処理フローの一例を示す図である。It is a figure which shows an example of a texture coordinate determination processing flow. テクスチャ画像の切り出し処理の例を示す図である。It is a figure which shows the example of the cutting-out process of a texture image. 空間情報の3次元座標系と画像座標系の変換の説明図である。It is explanatory drawing of conversion of the three-dimensional coordinate system of space information, and an image coordinate system.

符号の説明Explanation of symbols

1,2 テクスチャ画像獲得装置
11 フレーム選択機構
12 テクスチャ座標決定機構
13 対応表作成機構
14 シーケンス対応表
21 空間情報復元機構
22 形状復元機構
23 テクスチャ取得機構
24 ファイルサーバ
25 テクスチャ保存装置
DESCRIPTION OF SYMBOLS 1, 2 Texture image acquisition apparatus 11 Frame selection mechanism 12 Texture coordinate determination mechanism 13 Correspondence table creation mechanism 14 Sequence correspondence table 21 Spatial information restoration mechanism 22 Shape restoration mechanism 23 Texture acquisition mechanism 24 File server 25 Texture storage apparatus

Claims (8)

記憶装置に格納された時系列画像から3次元点群を獲得し,該3次元点群から3次元形状を復元し,該3次元形状の面のテクスチャ画像を前記時系列画像に含まれる画像から獲得するコンピュータによるテクスチャ画像獲得方法であって,
前記時系列画像を複数の部分画像列に分割するステップと,
前記部分画像列において特徴点の画像上の座標を用いて3次元点群の座標値を求めるステップと,
前記3次元点群に含まれる各点に対して,前記3次元点群の座標値を求める際に用いた部分画像列,および,該部分画像列での画像上の座標データとの対応関係を求め,対応関係情報として記憶するステップと,
前記記憶した対応関係情報から3次元形状の面を構成する各3次元点の画像上の座標を取得し,取得した3次元点の画像上の座標に基づいてテクスチャを獲得する画像を前記時系列画像から選択するステップと,
選択した画像からテクスチャを獲得するステップとを有する
ことを特徴とするテクスチャ画像獲得方法。
A three-dimensional point cloud is acquired from the time-series image stored in the storage device, a three-dimensional shape is restored from the three-dimensional point group, and a texture image of the surface of the three-dimensional shape is obtained from the image included in the time-series image. A method of acquiring a texture image by a computer,
Dividing the time-series image into a plurality of partial image sequences;
Obtaining a coordinate value of a three-dimensional point group using coordinates on an image of a feature point in the partial image sequence;
For each point included in the three-dimensional point group, the correspondence between the partial image sequence used to obtain the coordinate value of the three-dimensional point group and the coordinate data on the image in the partial image sequence is as follows. Determining and storing as correspondence information;
Obtaining the coordinates on the image of each three-dimensional point constituting the surface of the three-dimensional shape from the stored correspondence relationship information, and obtaining the texture based on the obtained coordinates on the image of the three-dimensional point in the time series Selecting from the image;
Obtaining a texture from the selected image. A method for obtaining a texture image.
請求項lに記載のテクスチャ画像獲得方法において,
前記テクスチャを獲得する画像を前記時系列画像から選択するステップでは,
前記3次元形状の面を構成する3次元点の画像上の座標に基づいて各画像の重心を求め,各画像の重心が各画像の中心に最も近い画像を前記テクスチャを獲得する画像として選択する
ことを特徴とするテクスチャ画像獲得方法。
In the texture image acquisition method according to claim 1,
In the step of selecting an image for acquiring the texture from the time-series image,
The center of gravity of each image is obtained based on the coordinates on the image of the three-dimensional point constituting the surface of the three-dimensional shape, and the image whose center of gravity is closest to the center of each image is selected as the image for acquiring the texture. A texture image acquisition method characterized by the above.
請求項1または請求項2に記載のテクスチャ画像獲得方法において,
前記テクスチャを獲得するステップでは,
テクスチャを貼り付けようとする前記3次元形状の面の各頂点について,前記3次元点群の座標値を求める際に用いた画像上の座標を求め,
その求めた画像上の座標に基づき,前記選択した画像からテクスチャ画像を切り出す
ことを特徴とするテクスチャ画像獲得方法。
In the texture image acquisition method according to claim 1 or 2,
In the step of acquiring the texture,
For each vertex of the surface of the three-dimensional shape to which the texture is to be pasted, obtain the coordinates on the image used when obtaining the coordinate value of the three-dimensional point group,
A texture image acquisition method comprising cutting out a texture image from the selected image based on the obtained coordinates on the image.
請求項lまたは請求項2に記載のテクスチャ画像獲得方法において,
前記テクスチャを獲得するステップでは,
テクスチャを貼り付けようとする前記3次元形状の面に含まれる点の,3次元座標と画像上の座標との対応関係から,平行移動またはスケール変換または回転移動を含む合成変換を決定し,
前記決定した合成変換によって,前記3次元形状の面の頂点の3次元座標を画像上の座標に変換し,
前記変換された画像上の座標に基づき,前記選択した画像からテクスチャ画像を切り出す
ことを特徴とするテクスチャ画像獲得方法。
In the texture image acquisition method according to claim 1 or 2,
In the step of acquiring the texture,
From the correspondence between the three-dimensional coordinates of the points included in the surface of the three-dimensional shape to which the texture is to be pasted and the coordinates on the image, a translation or a scale conversion or a combined transformation including a rotational movement is determined.
By the determined composite conversion, the three-dimensional coordinates of the vertices of the surface of the three-dimensional shape are converted into coordinates on the image,
A texture image acquisition method, wherein a texture image is cut out from the selected image based on the coordinates on the converted image.
請求項4に記載のテクスチャ画像獲得方法において,
前記合成変換によって,前記3次元形状の面の頂点の3次元座標を画像上の座標に変換する処理は,テクスチャを貼り付けようとする前記3次元形状の面の各頂点のうち,3次元座標値を求める際に用いた画像上の座標が存在しない頂点のみについて実行する
ことを特徴とするテクスチャ画像獲得方法。
In the texture image acquisition method according to claim 4,
The process of converting the three-dimensional coordinates of the vertices of the surface of the three-dimensional shape into the coordinates on the image by the composite conversion is the three-dimensional coordinates among the vertices of the surface of the three-dimensional shape to which the texture is to be pasted. A texture image acquisition method characterized in that it is executed only for vertices that do not have coordinates on the image used to determine the value.
時系列画像から3次元点群を獲得する空間情報復元手段と,該3次元点群から3次元形状を復元する形状復元手段とを備え,前記3次元形状の面のテクスチャ画像を前記時系列画像に含まれる画像から獲得するテクスチャ画像獲得装置において,
前記時系列画像を複数の部分画像列に分割し,該部分画像列において特徴点の画像上の座標を用いて3次元点群の座標値を求め,該3次元点群に含まれる各点に対して,前記3次元点群の座標値を求める際に用いた部分画像列,および,該部分画像列での画像上の座標データとの対応関係を求める対応関係情報作成手段と,
前記3次元点群に含まれる各点と前記部分画像列と該部分画像列での画像上の座標データとの対応関係の情報を記憶する対応関係情報記憶手段と,
前記対応関係情報記憶手段から3次元形状の面を構成する各3次元点の画像上の座標を取得し,取得した3次元点の画像上の座標に基づいてテクスチャを獲得する画像を前記時系列画像から選択する画像選択手段と,
前記画像選択手段により選択した画像からテクスチャを獲得するテクスチャ獲得手段とを備える
ことを特徴とするテクスチャ画像獲得装置。
Spatial information restoration means for acquiring a three-dimensional point group from a time-series image; and shape restoration means for restoring a three-dimensional shape from the three-dimensional point group; and a texture image of the surface of the three-dimensional shape is converted into the time-series image. In the texture image acquisition device that acquires from the images included in
The time-series image is divided into a plurality of partial image sequences, and the coordinate values of the three-dimensional point group are obtained using the coordinates on the feature point images in the partial image sequence, and each point included in the three-dimensional point group is obtained. On the other hand, a partial image sequence used when obtaining the coordinate values of the three-dimensional point group, and correspondence information creating means for obtaining a correspondence relationship with the coordinate data on the image in the partial image sequence;
Correspondence information storage means for storing information on correspondence between each point included in the three-dimensional point group, the partial image sequence, and coordinate data on an image in the partial image sequence;
Obtaining the coordinates on the image of each three-dimensional point constituting the surface of the three-dimensional shape from the correspondence relationship information storage means, and obtaining an image for acquiring a texture based on the obtained coordinates on the image of the three-dimensional point in the time series Image selection means for selecting from images;
A texture acquisition unit comprising: a texture acquisition unit that acquires a texture from the image selected by the image selection unit.
請求項1から請求項5までのいずれか1項に記載のテクスチャ画像獲得方法をコンピュータに実行させるためのテクスチャ画像獲得プログラム。   A texture image acquisition program for causing a computer to execute the texture image acquisition method according to any one of claims 1 to 5. 請求項1から請求項5までのいずれか1項に記載のテクスチャ画像獲得方法をコンピュータに実行させるためのテクスチャ画像獲得プログラムを記録した記録媒体。   A recording medium on which a texture image acquisition program for causing a computer to execute the texture image acquisition method according to claim 1 is recorded.
JP2003291998A 2003-08-12 2003-08-12 Method, device and program for obtaining texture image from time-series image, and recording media for recording this program Pending JP2005063129A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003291998A JP2005063129A (en) 2003-08-12 2003-08-12 Method, device and program for obtaining texture image from time-series image, and recording media for recording this program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003291998A JP2005063129A (en) 2003-08-12 2003-08-12 Method, device and program for obtaining texture image from time-series image, and recording media for recording this program

Publications (1)

Publication Number Publication Date
JP2005063129A true JP2005063129A (en) 2005-03-10

Family

ID=34369488

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003291998A Pending JP2005063129A (en) 2003-08-12 2003-08-12 Method, device and program for obtaining texture image from time-series image, and recording media for recording this program

Country Status (1)

Country Link
JP (1) JP2005063129A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011513882A (en) * 2008-03-12 2011-04-28 ハリス コーポレイション Method for recording multiple frames of a cloud-like 3D data point cloud for a target
JP2011133321A (en) * 2009-12-24 2011-07-07 Pasuko:Kk Heat dissipation diagnostic device for three-dimensional structure and heat dissipation diagnostic program
WO2012127601A1 (en) * 2011-03-22 2012-09-27 株式会社パスコ Standing structure heat dissipation diagnostic device, heat dissipation diagnostic program, and heat dissipation diagnostic method
JP2015114954A (en) * 2013-12-13 2015-06-22 株式会社ジオ技術研究所 Photographing image analysis method
CN113435053A (en) * 2021-07-01 2021-09-24 内蒙古农业大学 Ancient town forest district disaster evolution analysis simulation device
JP2022013579A (en) * 2020-06-30 2022-01-18 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Method and apparatus for processing image, electronic device, and storage medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011513882A (en) * 2008-03-12 2011-04-28 ハリス コーポレイション Method for recording multiple frames of a cloud-like 3D data point cloud for a target
JP2011133321A (en) * 2009-12-24 2011-07-07 Pasuko:Kk Heat dissipation diagnostic device for three-dimensional structure and heat dissipation diagnostic program
WO2012127601A1 (en) * 2011-03-22 2012-09-27 株式会社パスコ Standing structure heat dissipation diagnostic device, heat dissipation diagnostic program, and heat dissipation diagnostic method
JP2015114954A (en) * 2013-12-13 2015-06-22 株式会社ジオ技術研究所 Photographing image analysis method
JP2022013579A (en) * 2020-06-30 2022-01-18 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Method and apparatus for processing image, electronic device, and storage medium
US11521350B2 (en) 2020-06-30 2022-12-06 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method and apparatus for processing image, electronic device, and storage medium
CN113435053A (en) * 2021-07-01 2021-09-24 内蒙古农业大学 Ancient town forest district disaster evolution analysis simulation device
CN113435053B (en) * 2021-07-01 2022-10-14 内蒙古农业大学 Ancient town forest district disaster evolution analysis simulation device

Similar Documents

Publication Publication Date Title
US10281276B2 (en) Surveying system
CN112434709B (en) Aerial survey method and system based on unmanned aerial vehicle real-time dense three-dimensional point cloud and DSM
US11748907B2 (en) Object pose estimation in visual data
JP4685313B2 (en) Method for processing passive volumetric image of any aspect
JP7058277B2 (en) Reconstruction method and reconfiguration device
JP6658001B2 (en) Position estimation device, program, position estimation method
US20100204964A1 (en) Lidar-assisted multi-image matching for 3-d model and sensor pose refinement
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
JP2019045991A (en) Generation device, generation method and program
CN111815765A (en) Heterogeneous data fusion-based image three-dimensional reconstruction method
KR20200056613A (en) System for correcting geometry of mobile platform with sensor based on an orthophoto
JP2007271408A (en) Device and method for acquiring three-dimensional environmental information, and recoding medium storing program achieving the method
JP2005063129A (en) Method, device and program for obtaining texture image from time-series image, and recording media for recording this program
CN113129422A (en) Three-dimensional model construction method and device, storage medium and computer equipment
d'Annibale et al. Finalizing a low-cost photogrammetric workflow: from panoramic photos to Heritage 3D documentation and visualization
Zhou et al. Seamless stitching of large area UAV images using modified camera matrix
KR102225321B1 (en) System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors
KR101323099B1 (en) Device of generating Mosaic images
Tanathong et al. SurfaceView: Seamless and tile-based orthomosaics using millions of street-level images from vehicle-mounted cameras
Chen et al. The power of indoor crowd: Indoor 3D maps from the crowd
JP2005061931A (en) Three-dimensional shape recovery method, its apparatus, and three-dimensional shape recovery program
CN111307119B (en) Pixel-level spatial information recording method for oblique photography
WO2023127313A1 (en) Image capture supporting device, image capture supporting method, and program
JP6935692B2 (en) Information processing equipment, information processing systems, information processing methods and programs
JP2004030462A (en) Method, apparatus and program for processing image, and computer readable recording medium with the same program recorded thereon