JP2005061931A - Three-dimensional shape recovery method, its apparatus, and three-dimensional shape recovery program - Google Patents

Three-dimensional shape recovery method, its apparatus, and three-dimensional shape recovery program Download PDF

Info

Publication number
JP2005061931A
JP2005061931A JP2003291015A JP2003291015A JP2005061931A JP 2005061931 A JP2005061931 A JP 2005061931A JP 2003291015 A JP2003291015 A JP 2003291015A JP 2003291015 A JP2003291015 A JP 2003291015A JP 2005061931 A JP2005061931 A JP 2005061931A
Authority
JP
Japan
Prior art keywords
image
dimensional shape
dimensional
point
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003291015A
Other languages
Japanese (ja)
Inventor
Yuji Ishikawa
裕治 石川
Isao Miyagawa
勲 宮川
Yoshiori Wakabayashi
佳織 若林
Kenichi Arakawa
賢一 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003291015A priority Critical patent/JP2005061931A/en
Publication of JP2005061931A publication Critical patent/JP2005061931A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Abstract

<P>PROBLEM TO BE SOLVED: To substantially reduce time and labor required for shape recovery work from time-series images. <P>SOLUTION: A sequence determining mechanism 11 creates information required for dividing the time-series images into sequences. A profile creating mechanism 12 creates profiles for executing a point group acquisition program 17, and all the created profiles are stored in a profile storage device 13. The created profiles are selected by a profile selecting mechanism 14. The profiles are selected again on the basis of the results of point group acquisition to alter parameters to be provided for the point acquisition program 17 and execute processing. In the case of the absence of profiles to be executed again, processing is shifted to a point group integrating mechanism 15. The point group integrating mechanism 15 combines point groups acquired from each sequence into spatial information and inputs it to a file server 16. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、撮影対象領域の部分的な撮影を複数回行って全域を撮影した時系列画像から、広域の3次元形状を復元する方法及びその装置並びにプログラムに関するものである。   The present invention relates to a method, apparatus, and program for restoring a three-dimensional shape in a wide area from a time-series image obtained by photographing a whole area by performing partial photographing of a photographing target area a plurality of times.

映像から3次元の点群を獲得し、その点群から形状を復元する技術(方法や装置等)が知られている(非特許文献1参照。)。(非特許文献2参照。)。   A technique (a method, an apparatus, or the like) that acquires a three-dimensional point group from an image and restores the shape from the point group is known (see Non-Patent Document 1). (Refer nonpatent literature 2.).

このような技術により、例えば、図16に示すように、ヘリコプターの空撮画像から市街地の3次元形状データ(市街地空間モデル)を構築し、都市計画、カーナビゲーション、バーチャルモール、災害等の数値シミュレーションなどの様々なアプリケーションの基礎データに利用されている(非特許文献3参照。)。   With such a technique, for example, as shown in FIG. 16, three-dimensional shape data (city space model) of an urban area is constructed from an aerial image of a helicopter, and numerical simulations such as city planning, car navigation, virtual mall, disaster, etc. It is used for basic data of various applications such as (see Non-Patent Document 3).

画像(映像)は、図17に示すように、ヘリコプターに設置されたビデオカメラにより単位時間ごと(撮影時刻001〜005)に撮影されたフレームと呼ばれる画像列から構成されているため、以下、映像を時系列画像と呼ぶ。   As shown in FIG. 17, the image (video) is composed of an image sequence called a frame taken every unit time (photographing times 001 to 005) by a video camera installed in the helicopter. Is called a time-series image.

地上の対象建物を空撮した時系列画像(撮影時刻001〜005)の例を、図18に示す。図18から分かるように地上の対象建物が映し出されているフレーム数は限られているため、長い時系列画像から広域の3次元形状を復元する場合には、部分的な画像列(シーケンス)ごとに点群を獲得する必要がある。   FIG. 18 shows an example of time-series images (shooting times 001 to 005) obtained by aerial imaging of the target building on the ground. As can be seen from FIG. 18, since the number of frames on which the target building on the ground is projected is limited, when restoring a wide-area three-dimensional shape from a long time-series image, each partial image sequence (sequence) It is necessary to acquire a point cloud.

さらに、大きな構造物は複数のシーケンスに跨る場合も考えられるため、複数の連続するシーケンスから獲得された点群を一つの点群に統合した後で形状の復元を行う必要がある。この統合後の点群を、シーケンスごとの点群と区別するために、以下では空間情報と呼ぶ。   Furthermore, since a large structure may span a plurality of sequences, it is necessary to restore the shape after integrating point clouds acquired from a plurality of consecutive sequences into one point cloud. In order to distinguish the point group after integration from the point group for each sequence, it is hereinafter referred to as spatial information.

時系列画像からN枚ごとにシーケンスを生成した例を図19に示す。長い時系列画像から広域の3次元形状を復元する場合、シーケンスごとに3次元座標値を持った点群を獲得し、点群を統合して空間情報を生成し、空間情報から形状の復元を行う。   FIG. 19 shows an example in which a sequence is generated every N frames from a time-series image. When restoring a wide-area 3D shape from a long time-series image, a point cloud with 3D coordinate values is acquired for each sequence, the point cloud is integrated to generate spatial information, and the shape is restored from the spatial information. Do.

以下の説明において、シーケンスから点群を獲得するプログラム(点群獲得プログラム)と、空間情報から立体形状を復元するプログラム(形状復元プログラム)が従来技術として準備されているものとする。点群獲得プログラムを実行した例を図20に示す。この例では、プログラムの閾値(Threshold)、先頭フレームの撮影時刻(Initial Frame)、1シーケンスのフレーム枚数(Frames)、を指定して点群獲得プログラムを実行する。   In the following description, it is assumed that a program for acquiring a point cloud from a sequence (point cloud acquisition program) and a program for restoring a solid shape from spatial information (shape restoration program) are prepared as conventional techniques. An example of executing the point cloud acquisition program is shown in FIG. In this example, the threshold value (Threshold) of the program, the shooting time of the first frame (Initial Frame), and the number of frames in one sequence (Frames) are specified, and the point cloud acquisition program is executed.

出力は、点群獲得結果を表示した画像ファイルの名前(Initial Image)、獲得した点の数(Feature Points)、各点の3次元座標値を記述したファイルの名前(Shape3D)、獲得した位置の誤差(Score)である。   The output includes the name of the image file displaying the point cloud acquisition result (Initial Image), the number of points acquired (Feature Points), the name of the file describing the 3D coordinate values of each point (Shape3D), and the acquired position It is an error (Score).

形状復元プログラムを実行した例を図21に示す。この例では、空間情報のファイル名(World Point File)、空間情報に含まれる点の数(World Points)、などの情報を入力し、実行後に生成される形状情報をファイル(Model File)に保存する。   An example of executing the shape restoration program is shown in FIG. In this example, information such as the file name of the spatial information (World Point File) and the number of points included in the spatial information (World Points) are entered, and the shape information generated after execution is saved in the file (Model File) To do.

また、上記時系列画像から3次元情報を獲得する既存の技術としては、複数のカメラを使うことで、一部のカメラで対象物がフレームに映し出されなくても、常にフレーム中に捕らえようとする技術がある(特許文献1参照。)。   In addition, as an existing technique for acquiring three-dimensional information from the above time-series images, a plurality of cameras are used so that an object can always be captured in a frame even if it is not projected on the frame by some cameras. There is a technique (see Patent Document 1).

さらに、時系列画像から時間的に連続していない複数枚のフレームからの3次元情報の獲得を可能にする技術もある(特許文献2参照。)。
石川 裕治、宮川 勲、若林 佳織、有川 知彦、”MDL基準に基づく3次元点集合からの形状モデル復元”、画像の認識・理解シンポジウム(MIRU2002)論文集、vol.1,pp.165--170、情報処理学会、2002 宮川 勲、長井 茂、有川 知彦、“カメラ運動を拘束した因子分解法による空間情報復元”、電子情報通信学会論文誌、vol.J85-D-II,no.5,pp.898-966,2002 第10回機能図形情報システムシンポジウム講演論文集1999年4月都市3次元地図を用いた防災情報提供システム 大谷 尚通、石川 裕治、桑田 喜隆、井上 潮 特開2001−101419号公報 特開2002−032741号公報
Furthermore, there is a technique that enables acquisition of three-dimensional information from a plurality of frames that are not temporally continuous from a time-series image (see Patent Document 2).
Yuji Ishikawa, Isao Miyagawa, Kaori Wakabayashi, Tomohiko Arikawa, “Reconstruction of shape model from 3D point set based on MDL criteria”, Proceedings of Symposium on Image Recognition and Understanding (MIRU2002), vol. 165--170, Information Processing Society of Japan, 2002 Isao Miyagawa, Shigeru Nagai, Tomohiko Arikawa, “Reconstruction of Spatial Information by Factorization with Camera Motion Constrained”, IEICE Transactions, vol.J85-D-II, no.5, pp. 898-966, 2002 Proc. Of the 10th Functional Graphic Information System Symposium April 1999 Disaster prevention information provision system using urban 3D maps Naotori Otani, Yuji Ishikawa, Yoshitaka Kuwata, Shige Inoue JP 2001-101419 A JP 2002-032741 A

上述した従来技術では、シーケンスごとに3次元点群を獲得できるが、実際の入力は時系列画像として与えられるため、そのままでは空間情報を復元することができない。   In the above-described conventional technique, a three-dimensional point group can be acquired for each sequence, but since the actual input is given as a time-series image, the spatial information cannot be restored as it is.

広域の領域を撮影した時系列画像では画像の枚数が膨大になるため、時系列画像のシーケンスヘの分割、および3次元点群の獲得処理は自動的に行われる必要がある。   In a time-series image obtained by photographing a wide area, the number of images is enormous. Therefore, it is necessary to automatically divide a time-series image into sequences and acquire a three-dimensional point group.

シーケンスごとの点群獲得プログラムの実行を人手で行うと、入力設定、プログラムの実行、結果の確認、という作業をシーケンスの数だけ行わなければならず、膨大な手間がかかる。また、プログラム実行時の設定ミスも発生しやすい。   When the point cloud acquisition program for each sequence is executed manually, the operations of input setting, program execution, and result confirmation must be performed by the number of sequences, which takes a lot of time and effort. Also, setting mistakes during program execution are likely to occur.

さらに、点群の獲得結果を確認し、設定を変更して再実行するといった作業が入ると、より膨大な手間がかかるようになる。さらにまた、すべてのシーケンスから点群を獲得した後、どの点群を選んで、一つの空間情報にまとめれば、良いかを選択することが難しいという問題がある。   Furthermore, if the task of confirming the point cloud acquisition result, changing the setting, and re-executing is performed, it takes much more time and effort. Furthermore, after acquiring point clouds from all sequences, there is a problem that it is difficult to select which point group should be selected and combined into one spatial information.

なお、時系列画像から3次元情報を獲得する技術、また、時系列画像から時間的に連続していない複数枚のフレームからの3次元情報の獲得を可能にする技術としては、前述したような技術がある。   As a technique for acquiring three-dimensional information from a time-series image and a technique for enabling acquisition of three-dimensional information from a plurality of frames that are not temporally continuous from a time-series image, There is technology.

しかし、いずれの技術もフレーム間に同じ対象物が映し出されていることを前提として3次元形状を復元しており、単一のシーケンスから3次元情報を獲得するための技術としては利用可能である。しかしながら、これらの技術は、シーケンスが複数あり、各シーケンスごとに3次元情報を獲得し、3次元情報を統合後に形状の復元を行う際に生じる上記に挙げた問題点については、考慮がなされていないのが現状である。   However, each technique restores the three-dimensional shape on the assumption that the same object is projected between frames, and can be used as a technique for acquiring three-dimensional information from a single sequence. . However, in these techniques, there are a plurality of sequences, and the above-mentioned problems that occur when three-dimensional information is acquired for each sequence and shape restoration is performed after the integration of the three-dimensional information is taken into consideration. There is no current situation.

本発明は、上記の事情に鑑みてなされたもので、時系列画像を与えるだけで、シーケンスごとに点群が自動的に獲得され、最終的に空間情報として統合した形で3次元座標の集合を得ることができるようにして、時系列画像からの形状復元作業において大きな省力化を図ることができると共に、作業ミスを減らすことができる3次元形状の復元方法及びその装置並びに3次元形状の復元プログラムを提供することを課題とする。   The present invention has been made in view of the above circumstances. A point cloud is automatically acquired for each sequence only by providing a time-series image, and finally a set of three-dimensional coordinates in a form integrated as spatial information. 3D shape restoration method and apparatus, and 3D shape restoration, which can greatly save labor in shape restoration work from time-series images and reduce work errors. The challenge is to provide a program.

本発明は、上記の課題を達成するために、第1発明は、撮影対象領域の部分的な撮影を繰り返して全域を撮影した時系列画像から、広域の3次元形状を復元する方法であって、時系列画像を複数の画像列に分割するステップと、分割後の各画像列から3次元点群を獲得する処理を複数回行って、複数の3次元点群を獲得するステップと、複数の3次元点群を一つにまとめて、広域の3次元点群(以下、空間情報と称する)を獲得するステップと、空間情報から広域の3次元形状を復元するステップと、を有することを特徴とする3次元形状の復元方法を解決する手段とする。   In order to achieve the above object, the present invention provides a method for restoring a three-dimensional shape of a wide area from a time-series image obtained by photographing a whole area by repeating partial photographing of a photographing target area. A step of dividing the time-series image into a plurality of image sequences, a step of acquiring a three-dimensional point group from each divided image sequence a plurality of times, and acquiring a plurality of three-dimensional point groups; And a step of collecting a three-dimensional point group into one to acquire a wide-area three-dimensional point group (hereinafter referred to as spatial information) and a step of restoring a wide-area three-dimensional shape from the spatial information. As a means for solving the three-dimensional shape restoration method.

第2発明は、時系列画像を複数の画像列に分割するステップは、画像中の特徴点が、時系列画像において映し出されている枚数にもとづいて、画像列に含める画像の枚数を決定するステップと、画像中における特徴点の画像座標の変化量にもとづいて、次の画像列の先頭画像を決定するステップと、を有することを特徴とする3次元形状の復元方法を解決する手段とする。   In the second invention, the step of dividing the time-series image into a plurality of image sequences is a step of determining the number of images to be included in the image sequence based on the number of feature points in the image projected in the time-series image. And a step of determining a head image of the next image sequence based on a change amount of the image coordinates of the feature points in the image.

第3発明は、部分的な画像列の指定、および、3次元点群を獲得するために必要なパラメータ、を一つのファイルにまとめるステップと、すべての画像列に対して上記のファイルを生成するステップと、上記のファイルを選択することによって点群を獲得する画像列の選択を行うステップと、上記のファイルに点群の獲得結果を追加するステップと、上記のファイルを選択することによって空間情報に含める点群のグループの選択を行うステップと、を有することを特徴とする3次元形状の復元方法を解決する手段とする。   In the third invention, a step of combining partial image sequence designation and parameters necessary for obtaining a three-dimensional point cloud into one file, and generating the above-mentioned file for all image sequences. Selecting a sequence of images for acquiring a point cloud by selecting the file, adding a point cloud acquisition result to the file, and selecting the file for spatial information And a step of selecting a group of point groups to be included in the three-dimensional shape restoration method.

第4発明は、3次元点群の評価値が与えられた条件を満たす点群だけを集めて、空間情報を生成するステップと、を有することを特徴とする3次元形状の復元方法を解決する手段とする。   The fourth invention solves the three-dimensional shape restoration method comprising: collecting only point groups that satisfy the condition given the evaluation value of the three-dimensional point group and generating spatial information. Means.

第5発明は、撮影対象領域の部分的な撮影を繰り返して全域を撮影した時系列画像から、広域の3次元形状を復元する装置であって、時系列画像を複数の画像列に分割する第1手段と、この第1手段で分割した後の各画像列から3次元点群を獲得する処理を複数回行って、複数の3次元点群を獲得する第2手段と、この第2手段で獲得した複数の3次元点群を一つにまとめて、広域の3次元点群(以下、空間情報と称する)を獲得する第3手段と、この第3手段で獲得した空間情報から広域の3次元形状を復元する第4手段と、を有することを特徴とする3次元形状の復元装置を解決する手段とする。   A fifth aspect of the invention is an apparatus for restoring a three-dimensional shape in a wide area from a time-series image obtained by repeatedly capturing a partial image of a region to be imaged, and dividing the time-series image into a plurality of image sequences. One means, a second means for obtaining a plurality of three-dimensional point groups by performing a process of obtaining a three-dimensional point group from each image sequence divided by the first means a plurality of times, and a second means for obtaining A third means for collecting a plurality of acquired three-dimensional point groups into one to acquire a wide-area three-dimensional point group (hereinafter referred to as spatial information), and a wide area 3 from the spatial information acquired by the third means. A fourth means for restoring a three-dimensional shape; and means for solving the three-dimensional shape restoration device.

第6発明は、時系列画像を複数の画像列に分割する第1手段は、画像中の特徴点が、時系列画像において映し出されている枚数にもとづいて、画像列に含める画像の枚数を決定する第1決定部と、画像中における特徴点の画像座標の変化量にもとづいて、次の画像列の先頭画像を決定する第2決定部と、を有することを特徴とする3次元形状の復元装置を解決する手段とする。   In a sixth aspect of the present invention, the first means for dividing the time-series image into a plurality of image sequences determines the number of images included in the image sequence based on the number of feature points in the image projected in the time-series image. A three-dimensional shape restoration comprising: a first determination unit configured to perform determination; and a second determination unit configured to determine a leading image of a next image sequence based on a change amount of an image coordinate of a feature point in the image. Means to solve the apparatus.

第7発明は、部分的な画像列の指定、および、3次元点群を獲得するために必要なパラメータ、を一つのファイルにまとめる統合手段と、すべての画像列に対して上記のファイルを生成する生成手段と、上記のファイルを選択することによって点群を獲得する画像列の選択を行う選択手段と、上記のファイルに点群の獲得結果を追加する追加手段と、上記のファイルを選択することによって空間情報に含める点群のグループの選択を行うグループ選択手段と、を有することを特徴とする3次元形状の復元装置を解決する手段とする。   The seventh aspect of the invention is an integration means for combining partial image sequence designation and parameters necessary for obtaining a three-dimensional point cloud into one file, and generating the above file for all image sequences. Selecting means, selecting means for selecting an image sequence for acquiring a point cloud by selecting the file, adding means for adding a point cloud acquisition result to the file, and selecting the file And a group selecting unit that selects a group of point groups to be included in the spatial information.

第8発明は、前記第3手段が、3次元点群の評価値が与えられた条件を満たす点群だけを集めて、空間情報を生成するものであることを特徴とする3次元形状の復元装置を解決する手段する。   According to an eighth aspect of the invention, the third means collects only point groups that satisfy the condition given the evaluation value of the three-dimensional point group, and generates spatial information, and restores the three-dimensional shape Means to solve the apparatus.

第9発明は、3次元形状の復元方法におけるステップを、コンピュータに実行させるためのプログラムとしたことを特徴とする3次元形状の復元プログラムを解決する手段とする。   According to a ninth aspect of the present invention, there is provided a means for solving a three-dimensional shape restoration program, characterized in that the steps in the three-dimensional shape restoration method are programs for causing a computer to execute the steps.

また、本発明は、上記各発明を解決するために、図1に示す構成を用いた。すなわち、本発明は既存技術の構成要素(点群獲得プログラム17、形状復元プログラム18)に加え、シーケンス決定機構11、プロファイル生成機構12、プロファイル格納装置13、プロファイル選択機構14、点群統合機構15、ファイルサーバ16(画像ファイル、点群ファイル、空間情報ファイル、形状ファイルなど)から構成される。以下、順に各機構について説明する。   Further, the present invention uses the configuration shown in FIG. 1 in order to solve the above respective inventions. That is, the present invention includes a sequence determination mechanism 11, a profile generation mechanism 12, a profile storage device 13, a profile selection mechanism 14, and a point group integration mechanism 15 in addition to the components of the existing technology (point group acquisition program 17, shape restoration program 18). And file server 16 (image file, point cloud file, spatial information file, shape file, etc.). Hereinafter, each mechanism will be described in order.

シーケンス決定機構11では、時系列画像をシーケンスに分割するのに必要な情報を生成する。具体的には、フレーム中の特徴点が、時系列画像上に映し出されている枚数に基づいて、シーケンスのフレームの枚数を決定し、さらに、特徴点の画像座標の移動量に基づいて、次のシーケンスの開始フレームを決定する。   The sequence determination mechanism 11 generates information necessary for dividing the time series image into sequences. Specifically, the number of frames in the sequence is determined based on the number of feature points in the frame projected on the time-series image, and further, based on the amount of movement of the image coordinates of the feature points, The start frame of the sequence is determined.

プロファイル生成機構12は、シーケンスごとに点群獲得プログラム17を実行するための設定ファイル(プロファイル)を生成する。具体的には、時系列画像からシーケンスを特定するための情報および点群獲得プログラム17に与えるパラメータをプロファイルに記述する。生成されたすべてのプロファイルはプロファイル格納装置13に保存される。   The profile generation mechanism 12 generates a setting file (profile) for executing the point cloud acquisition program 17 for each sequence. Specifically, information for specifying a sequence from the time-series image and parameters given to the point cloud acquisition program 17 are described in the profile. All generated profiles are stored in the profile storage device 13.

プロファイル選択機構14は、生成されたプロファイルを選択し、それらのプロファイルに対して点群獲得プログラム17を実行する。点群の獲得結果に基づいて再度、プロファイルを選択し、点群獲得プログラム17に与えるパラメータを変更して処理を実行する。再度実行すべきプロファイルが無ければ点群統合機構15に処理を移す。   The profile selection mechanism 14 selects the generated profiles and executes the point cloud acquisition program 17 for those profiles. Based on the point cloud acquisition result, a profile is selected again, and the parameters given to the point cloud acquisition program 17 are changed to execute processing. If there is no profile to be executed again, the process moves to the point group integration mechanism 15.

なお、プロファイル選択機構14の処理においては、プロファイルに点群の獲得結果を追記し、その内容と共にプロファイルを一覧表示し、パラメータの変更またはプロファイルの選択に関する入力を受け付けても良い。   In the processing of the profile selection mechanism 14, the point cloud acquisition result may be added to the profile, a list of the profiles may be displayed together with the contents, and input relating to parameter change or profile selection may be received.

点群統合機構15では、各シーケンスから獲得された点群を、一つもしくは複数の空間情報にまとめる。点群の獲得結果にもとづいて、どの点群を一つの空間情報にまとめるかを決定し、その決定により生成された空間情報をファイルサーバ16に入力する。   The point group integration mechanism 15 collects the point group acquired from each sequence into one or a plurality of spatial information. Based on the point cloud acquisition result, it is determined which point cloud is to be combined into one spatial information, and the spatial information generated by the determination is input to the file server 16.

点群統合機構15の処理においては、プロファイルに点群の獲得結果を追記し、その内容と共にプロファイルを一覧表示し、プロファイルの選択に関する入力を受け付けることで、空間情報に含める点群を選択しても良い。   In the processing of the point group integration mechanism 15, the point cloud acquisition result is added to the profile, a list of the profiles is displayed together with the contents, and an input related to the selection of the profile is received to select the point group to be included in the spatial information. Also good.

以上の工夫により、時系列画像を入力として、点群獲得プログラム17および形状復元プログラム18が実行され、広域の3次元形状データを全自動で得ることができる。   With the above contrivance, the point cloud acquisition program 17 and the shape restoration program 18 are executed with the time series image as an input, and wide-area three-dimensional shape data can be obtained fully automatically.

以上述べたように、本発明によれば、時系列画像を与えるだけで、シーケンスごとに点群が自動的に獲得され、最終的に空間情報として統合した形で3次元座標の集合を得ることができる。そのため以下に示すa〜dのような手間が省かれる利点がある。   As described above, according to the present invention, a point cloud is automatically acquired for each sequence only by providing a time-series image, and finally a set of three-dimensional coordinates is obtained in a form integrated as spatial information. Can do. Therefore, there is an advantage that the troubles such as a to d described below can be saved.

a.シーケンスごとの設定ファイルの作成とプログラムの実行
b.点群獲得結果の確認と、パラメータの再設定およびプログラムの再実行
c.空間情報にまとめるための点群の選択
d.形状復元プログラムに必要な設定ファイルの作成。
a. Create a configuration file for each sequence and execute the program b. Confirmation of point cloud acquisition result, resetting of parameters and re-execution of program c. Selection of point cloud for grouping into spatial information d. Create a configuration file required for the shape restoration program.

例えば、上記でプロファイルI0001.prfからI0004.prfを使った例では、パラメータの設定および点群獲得プログラムの実行は7回に及んでいる。より長い時系列画像では、シーケンス数の増加、および、再実行の必要があるシーケンス数の増加により、回数の増加が予想される。よって、時系列画像からの形状復元作業において大きな省力化を図ることができると共に、作業ミスを減らすことができる。   For example, in the example using the profiles I0001.prf to I0004.prf as described above, the parameter setting and the point group acquisition program are executed seven times. In a longer time-series image, an increase in the number of sequences is expected due to an increase in the number of sequences and an increase in the number of sequences that need to be re-executed. Therefore, a great labor saving can be achieved in the shape restoration work from the time series image, and work mistakes can be reduced.

以下本発明の実施の形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

通常、NTSCやハイビジョンなどの映像では、1秒間に30枚の画像が記録される。そこから適当な間隔で画像を取り出して、記録装置に格納する。記録装置は、撮影した時刻と画像データのファイル名の組を保存することで、時系列画像を管理する。ファイルサーバにおける時系列画像の管理の例を図2に示す。なお、図2において、図示左側の数列は撮影時刻を示し、図示右側の文字列は画像ファイルを示している。   Normally, 30 images are recorded per second for video such as NTSC and Hi-Vision. From there, images are taken out at appropriate intervals and stored in a recording device. The recording device manages time-series images by storing a set of the shooting time and the file name of the image data. An example of time-series image management in the file server is shown in FIG. In FIG. 2, the number sequence on the left side in the figure indicates the shooting time, and the character string on the right side in the figure indicates an image file.

次にシーケンス決定機構11を図3に示すフローチャートに従って説明する。本例では、撮影画像の上方向にカメラを直線運動させて時系列画像を撮影したものとする。この場合、撮影された物体のフレーム中の位置は、図18に示す各フレームの画像例のように、フレームの上から下に移動する。そこで、初期特徴点は初期フレームの上部領域に発生させるものとする(図4の上段)。   Next, the sequence determination mechanism 11 will be described with reference to the flowchart shown in FIG. In this example, it is assumed that a time-series image is captured by linearly moving the camera upward in the captured image. In this case, the position of the photographed object in the frame moves from the top to the bottom of the frame as in the image example of each frame shown in FIG. Therefore, the initial feature points are assumed to be generated in the upper region of the initial frame (upper stage in FIG. 4).

ここで、発生領域の上下幅をLとすると、Lの値は、例えばフレームFの高さの1/3などとして定めることができる。特徴点の発生は、画素値が大きく変化する部分を自動検出することによって可能である。特徴点の分布している位置を知るために、その重心を求め、フレームFの下端からの高さH0を保存しておく。 Here, if the vertical width of the generation region is L, the value of L can be determined as 1/3 of the height of the frame F, for example. The generation of feature points is possible by automatically detecting a portion where the pixel value changes greatly. In order to know the position where the feature points are distributed, the center of gravity is obtained, and the height H 0 from the lower end of the frame F is stored.

図3において、まず、ステップS1でフレーム枚数のカウンタNを「1」に設定する(初期化する)。また、ステップS2で時系列画像の初期フレームの上部に特徴点を発生させる(特徴点発生領域の上下幅はL)。そして、ステップS3では、初期フレームにおける特徴点集合の重心の高さH0を求める。 In FIG. 3, first, in step S1, the frame number counter N is set to "1" (initialized). In step S2, feature points are generated in the upper part of the initial frame of the time-series image (the vertical width of the feature point generation region is L). In step S3, the height H 0 of the center of gravity of the feature point set in the initial frame is obtained.

その後、ステップS4で、特徴点周辺の画像パターンを、次のフレームの中で探すことにより、次のフレームFにおける特徴点の位置を獲得する(特徴点を追跡)。つまり、1フレームだけ特徴点追跡を行い、ステップS5で、フレーム枚数のカウンタNを「1」増やし、ステップS6でフレームFにおける特徴点の重心の高さHfを求める。 After that, in step S4, the position of the feature point in the next frame F is obtained by searching for the image pattern around the feature point in the next frame (tracking the feature point). That is, feature point tracking is performed for only one frame, the frame number counter N is incremented by “1” in step S5, and the center-of-gravity height H f of the feature point in frame F is obtained in step S6.

先に述べたように撮影された物体は、フレーム中で上から下に移動するため、逐次特徴点追跡を行うに従って、特徴点が分布する範囲は徐々に下に下がる。   Since the object photographed as described above moves from the top to the bottom in the frame, the feature point distribution range gradually decreases as the feature point tracking is performed sequentially.

特徴点の分布領域がLだけ移動したと判断された時点で、フレームFの上部には、上下幅Lの新しい特徴点の発生領域ができたので、次のシーケンスは、そのフレームから開始することとする(図4の中段)。   When it is determined that the feature point distribution area has moved by L, a new feature point generation area having an upper and lower width L is formed in the upper part of the frame F, and the next sequence starts from that frame. (Middle of FIG. 4).

この判断は、特徴点集合の重心位置の高さHfによって行われ、HfがH0よりL以上低くなったら、ステップS7で、フレーム枚数のカウンタNを、N’として保存し、そのフレームを次のシーケンスの開始フレームとする。 This determination is made based on the height H f of the barycentric position of the feature point set. When H f becomes lower than H 0 by L or more, the frame number counter N is stored as N ′ in step S7, and the frame Is the start frame of the next sequence.

以下、特徴点のうち、任意の点がフレームの下端に達したかを、ステップS8で判断し、フレームアウトするまで(ステップS8で肯定「yes」)、特徴点追跡を行う(図4の下段)。   Hereinafter, it is determined in step S8 whether or not an arbitrary point of the feature points has reached the lower end of the frame, and feature point tracking is performed until the frame is out (Yes in step S8) (lower part of FIG. 4). ).

フレームアウトが生じた時点の一枚前のフレームが、シーケンスの最後のフレームとなるため,このステップまでに利用したフレーム枚数のカウンタNから「1」を引いた枚数(N−1)が、シーケンスに含まれるフレーム枚数となる(ステップS9)。また、次のシーケンスと重なっているフレームの枚数(オーバーラップ枚数)は(N−N’−1)と求まる(ステップS10)。   Since the frame immediately before the occurrence of frame-out becomes the last frame in the sequence, the number (N−1) obtained by subtracting “1” from the counter N of the number of frames used up to this step is the sequence. (Step S9). In addition, the number of frames (overlap number) overlapping the next sequence is obtained as (N−N′−1) (step S10).

本例ではカメラが等速で移動することとを仮定し、すべてのシーケンスは、同じ枚数であるとする。よって、シーケンスの枚数とオーバラップ枚数が決定すれば、すべてのシーケンスの開始フレームを特定することができる。カメラ運動が等速でない場合には、図3に示すフローチャートの手続きを時系列画像全体に渡って繰り返し行い、シーケンス毎にフレーム枚数と開始フレームを決定すればよい。特徴点の追跡処理は点群獲得時にも必要となるので、追跡処理の結果を保存し、点群獲得時に利用しても良い。   In this example, it is assumed that the camera moves at a constant speed, and all the sequences have the same number. Therefore, if the number of sequences and the number of overlaps are determined, the start frames of all sequences can be specified. If the camera motion is not constant, the procedure of the flowchart shown in FIG. 3 may be repeated over the entire time series image to determine the number of frames and the start frame for each sequence. Since the feature point tracking process is also required when acquiring the point cloud, the result of the tracking process may be stored and used when acquiring the point cloud.

次にプロファイル生成機構12の説明を行う。ここでは、図20に示す設定値を持つプロファイルを生成する場合を例として、プロファイル生成機構12に入力するデータを記述したファイル(初期設定ファイル)の内容を図5に示す。以下、各行について説明する。   Next, the profile generation mechanism 12 will be described. Here, taking as an example the case of generating a profile having the setting values shown in FIG. 20, the contents of a file (initial setting file) describing data to be input to the profile generation mechanism 12 are shown in FIG. Hereinafter, each line will be described.

Threshold:各プロファイルに設定する点群獲得プログラム17の閾値Thresholdのデフォルト値。シーケンスによっては点群の獲得がうまくいかない場合もあり、その場合には閾値を変更して再実行する必要があるが、1回目の点群獲得処理ではデフォルト値を用いる。   Threshold: Default value of the threshold value Threshold of the point cloud acquisition program 17 set for each profile. Depending on the sequence, the acquisition of the point cloud may not be successful. In this case, it is necessary to change the threshold value and re-execute, but the default value is used in the first point cloud acquisition process.

Initial Frame:時系列画像の先頭フレームを、そのフレームの撮影時刻で指定する。   Initial Frame: Designates the first frame of a time-series image by the shooting time of that frame.

End Frame:時系列画像の最後フレームを、そのフレームの撮影時刻で指定する。   End Frame: Designates the last frame of the time-series image by the shooting time of that frame.

Frames:時系列画像をシーケンスに分割する際の1シーケンスのフレーム枚数
Overlap Frames:シーケンス間のオーバーラップ枚数(図19参照)。
Frames: Number of frames in one sequence when time-series images are divided into sequences
Overlap Frames: The number of overlaps between sequences (see FIG. 19).

次に、プロファイル生成機構12を図6に示すフローチャートに基づいて説明する。図6において、最初にステップS11で上記の初期設定ファイルを読み込む。以下の説明では、例えば[Initial Frame]などとして、”[“,“]”で囲むことでInitial Frameの設定値を表すこととする。   Next, the profile generation mechanism 12 will be described based on the flowchart shown in FIG. In FIG. 6, first, the initial setting file is read in step S11. In the following description, for example, the setting value of the Initial Frame is expressed by enclosing it with “[“, “]” as [Initial Frame] or the like.

次に、ステップS12で[Initial Frame]を変数Tにセットし、ステップS13で[End Frame]が示すフレームから[Frames]枚前のフレームの撮影時刻を変数Tendにセットする。 Next, in step S12, [Initial Frame] is set to the variable T, and in step S13, the shooting time of the [Frames] frames before the frame indicated by [End Frame] is set to the variable T end .

Tendより後の時刻に撮影されたフレームからシーケンスを開始すると、そのシーケンスの範囲が初期設定ファイルで指定した範囲([Initial Frame]〜[End Frame])からはみ出すため、以下の処理においてシーケンスの開始時刻Tをチェックするようにしている。 When a sequence is started from a frame shot at a time later than T end , the sequence range extends beyond the range specified in the initialization file ([Initial Frame] to [End Frame]). The start time T is checked.

次に、ステップS14で、プロファイルを設定値が空欄のまま生成し、FramesとThresholdの欄には初期設定ファイルの設定値をそのまま設定する。Initial Frameの欄には、Tを設定し(ステップS15)、プロファイルをプロファイル格納装置13に保存する(ステップS16)。   In step S14, the profile is generated with the setting value blank, and the setting value of the initial setting file is set as it is in the Frames and Threshold columns. T is set in the Initial Frame field (step S15), and the profile is stored in the profile storage device 13 (step S16).

次のシーケンスの先頭フレームは、時刻Tに撮影されたフレームの[Frames]−[Overlap Frame]枚先のフレームである。よって、そのフレームの撮影時刻をTにセットする(ステップS17)。   The first frame of the next sequence is the frame [Frames]-[Overlap Frame] ahead of the frame shot at time T. Therefore, the shooting time of the frame is set to T (step S17).

ここで、先に述べた理由によりステップS18の判断で、TがTendより大きければ(yes)処理を終了する。そうでなければ(no)、新しいTから始まるシーケンスに対してプロファイルが新たに生成される。 Here, if T is larger than T end (Yes) in step S18 for the reason described above, the process is terminated. Otherwise (no), a new profile is generated for the sequence starting with the new T.

図5に示す初期設定ファイルの内容に基づいてプロファイルを、生成した例を図7に示す。撮影時刻001から200までの時系列画像は、4つのシーケンスに分割され、それぞれのシーケンスのプロファイルが、自動的に生成される。各プロファイルは、I0001.prf〜I0004.prfというファイル名でプロファイル格納装置13に保存されるものとする。   FIG. 7 shows an example in which a profile is generated based on the contents of the initial setting file shown in FIG. A time-series image from the photographing time 001 to 200 is divided into four sequences, and a profile of each sequence is automatically generated. Assume that each profile is stored in the profile storage device 13 with file names I0001.prf to I0004.prf.

上記の例では、復元対象とする時系列画像をInitial FrameとEnd Frameで指定しているが、Initial Frame(あるいはEnd Frame)とフレーム枚数で指定する。   In the above example, the time-series image to be restored is specified by Initial Frame and End Frame, but is specified by Initial Frame (or End Frame) and the number of frames.

プロファイル選択機構14の説明においては、”[“,“]”で囲むことでプロファイルの設定値を表すこととする。[Score]は点の位置の平均誤差であり、点群獲得プログラム17の実行後に設定される値である。点群獲得プログラム17は[Threshold]を下げることで誤差の大きな点を除去し、平均誤差を低減することができる。   In the description of the profile selection mechanism 14, the setting value of the profile is expressed by enclosing it with “[“, “]”. [Score] is an average error of point positions, and is a value set after the point group acquisition program 17 is executed. The point group acquisition program 17 can reduce points with large errors by lowering [Threshold] and reduce the average error.

なお、図8の上図は、建物形状を獲得した点群を横から見た図で、この図において、[Threshold]を下げることで位置誤差の大きな点の除去により図8の下図のようになる。   The upper diagram in FIG. 8 is a diagram of the point cloud that has acquired the building shape as viewed from the side. In this diagram, by lowering [Threshold], points with large positional errors are removed, as shown in the lower diagram in FIG. Become.

ここで説明するプロファイル選択機構14では、すべてのプロファイルにおいて[Score]を、事前に与えられた閾値Vs以下にすることを目的とする。ただし、点をできるだけ残すため[Threshold]は段階的に小さくする。   The profile selection mechanism 14 described here aims to set [Score] to be equal to or lower than a predetermined threshold value Vs in all profiles. However, in order to leave as many points as possible, the [Threshold] is gradually reduced.

図9はプロファイル選択機構14を説明するフローチャートである。図9において、最初にプロファイル生成機構12が生成したプロファイルを格納装置13からすべて読み込み(ステップS21)、全てのプロファイルをプロファイルリストに追加する(ステップS22)。   FIG. 9 is a flowchart for explaining the profile selection mechanism 14. In FIG. 9, all profiles generated by the profile generation mechanism 12 first are read from the storage device 13 (step S21), and all profiles are added to the profile list (step S22).

次に[Threshold]の繰り返しを重ねるごとに半分の値にしながら、ステップS23で[Score]が閾値Vs以下になるまで繰り返し、プロファイルをプロファイルリストから除いて、ステップS24、ステップS25を経て、ステップS26でプロファイルリストに含まれる全てのプロファイルに対して一つづつ点群獲得プログラムを実行する。   Next, while repeating [Threshold] repeatedly, the value is reduced to half as long as [Score] becomes less than or equal to the threshold value Vs in step S23, the profile is removed from the profile list, and steps S24 and S25 are followed. The point cloud acquisition program is executed one by one for all the profiles included in the profile list.

ただし、処理時間を小さくするために、ステップS24でプロファイルリストが空または繰り返しの回数が閾値N回より大きいかを判断し、閾値をN回に制限し、またステップS25でプロファイルリストに含まれるプロファイルに対して[Threshold]を半分にする。以上の処理によって、プロファイルが自動的に選択されて、点群獲得プログラム17が実行され、ファイルサーバ16に入力される。   However, in order to reduce the processing time, it is determined in step S24 whether the profile list is empty or the number of repetitions is greater than the threshold N times, the threshold is limited to N times, and the profiles included in the profile list in step S25 Halve the [Threshold]. Through the above processing, a profile is automatically selected, and the point cloud acquisition program 17 is executed and input to the file server 16.

なお[Threshold]を小さくする方法としては、毎回減算する方法や、手動による入力を受け付ける方法などもある。また、点群からの形状復元をする際には[Score]だけでなく点群に含まれる点の数(Feature Points)も重要な要素であるため、繰り返し処理の中で点の数が、ある一定の閾値以下になってしまった場合には、プロファイルリストから対象のプロファイルを削除する。   As a method of decreasing [Threshold], there are a method of subtracting each time, a method of accepting manual input, and the like. In addition, when restoring a shape from a point cloud, not only [Score] but also the number of points contained in the point cloud (Feature Points) is an important factor. If the threshold is below a certain threshold, the target profile is deleted from the profile list.

点群獲得プログラム17の実行対象となるプロファイルの選択は、上記に述べたような閾値や評価関数による自動的な方法と、点群の3次元配置を目視により確認して手動の入力を受け付ける方法と、をどちらでも選択できるようにしても良い。   The selection of the profile to be executed by the point cloud acquisition program 17 includes an automatic method using the threshold value and the evaluation function as described above, and a method of visually confirming the three-dimensional arrangement of the point cloud and receiving manual input. Either of these may be selected.

手動選択に依る方法としては、図10に示すようにプロファイル選択画面の一覧を[Score]などと一緒に表示し、Thresholdの値を直接入力するための欄や、点群獲得プログラム17の実行対象となるプロファイルを選択するためのチェックボックスを設ける。このように、一度にすべてのプロファイルに関する入力を受け付けることで、プロファイルの選択に伴う手間やミスを削減することができる。   As a method based on manual selection, as shown in FIG. 10, a list of profile selection screens is displayed together with [Score] and the like, and a field for directly inputting a Threshold value or an execution target of the point cloud acquisition program 17 A check box for selecting a profile to be used is provided. In this way, by accepting inputs related to all profiles at once, it is possible to reduce labor and mistakes associated with profile selection.

図7のプロファイルに対してプロファイル選択機構14の処理を実施した場合を図11を使って説明する。処理実施前の各プロファイルの内容はThresholdの値は設定されているが、Score(平均誤差)やFeature Points(点群に含まれる点の数)は設定されていない。   A case where the processing of the profile selection mechanism 14 is performed on the profile of FIG. 7 will be described with reference to FIG. The contents of each profile before the execution of processing are set to Threshold values, but Score (average error) and Feature Points (number of points included in the point cloud) are not set.

最初にすべてのプロファイルがプロファイルリストに追加されるため、I0001.prf〜I0004.prfの各プロファイルに点群獲得プログラム17が実行される。実行後の結果を図11に1回目の処理終了時として示す。   Since all profiles are initially added to the profile list, the point cloud acquisition program 17 is executed for each profile of I0001.prf to I0004.prf. The result after execution is shown in FIG. 11 as the end of the first process.

ここで[Score]の閾値Vsを4.0とすると、I0001.prfとI0003.prfの[Score]は閾値Vsより小さいため、その二つのプロファイルはプロファイルリストから削除される。   Here, if the threshold Vs of [Score] is 4.0, since [Score] of I0001.prf and I0003.prf is smaller than the threshold Vs, the two profiles are deleted from the profile list.

残ったI0002.prfとI0004.prfに対して[Threshold]を、図11の2回目処理終了時に示すように半分の値(=10)にして再度、点群獲得プログラム17が実行される。しかし、I0004.prfは[Threshold]を「10」にしても[Score]が依然として閾値Vsより大きいため、図11の全処理終了時に示すように[Threshold]を「5」にして再実行される。   With respect to the remaining I0002.prf and I0004.prf, [Threshold] is set to a half value (= 10) as shown at the end of the second processing in FIG. 11, and the point cloud acquisition program 17 is executed again. However, I0004.prf is re-executed with [Threshold] set to “5” as shown in FIG. 11 when all the processes are completed because [Score] is still larger than the threshold Vs even if [Threshold] is set to “10”. .

繰り返しの回数を2回に制限した(N=2)とすると最終的な結果が図11の下段に示す全処理終了時のように得られる。[Threshold]を小さくした結果、I0002.prfとI0004.prfでは点の数が削減されている。   Assuming that the number of repetitions is limited to 2 (N = 2), the final result is obtained as in the end of all processes shown in the lower part of FIG. As a result of reducing [Threshold], the number of points is reduced in I0002.prf and I0004.prf.

特にI0004.prfでは、[Score]を閾値Vs以下にすることができず、また、ほとんどの点が削除されてしまった。これはI0004.prfのシーケンスからは多数の点の位置を精度良く獲得することが難しいことを示す。I0004.prfの点群の扱いについては次の点群統合機構15で述べる。   In particular, in I0004.prf, [Score] could not be made lower than the threshold value Vs, and most of the points were deleted. This indicates that it is difficult to accurately obtain the positions of a large number of points from the sequence of I0004.prf. The handling of the point cloud of I0004.prf will be described in the next point cloud integration mechanism 15.

点群統合機構15では、各プロファイルから獲得された点群を一つの集合にまとめることで空間情報を生成する。その処理を図12のフローチャートに示す。まず、図12において、ステップS31で全てのプロファイルを読み込む(以下イメージプロファイルの各設定値を[Threshold]と表す)。   The point group integration mechanism 15 generates spatial information by collecting the point groups acquired from the profiles into one set. The process is shown in the flowchart of FIG. First, in FIG. 12, all profiles are read in step S31 (hereinafter, each setting value of the image profile is expressed as [Threshold]).

上記で述べたように精度の高い点群を獲得できないシーケンスも存在するため、ステップS32では[Score]が閾値Vs以下のプロファイルの[Shape3D]を読み込み、その内容を空間情報ファイルに追加する。すなわち、空間情報ファイルには[Score]が閾値Vs以下の点群だけを追加する。   As described above, there is a sequence in which a point cloud with high accuracy cannot be obtained. Therefore, in step S32, [Shape3D] having a profile whose [Score] is equal to or lower than the threshold value Vs is read and the content is added to the spatial information file. That is, only the point group whose [Score] is equal to or less than the threshold value Vs is added to the spatial information file.

空間情報を生成後、ステップS33で形状復元プログラム18を実行するのに必要な設定ファイルを生成する。点群統合機構15でも、プロファイルの選択を閾値による自動的な方法以外に、手動による方法も受け付けることができるようにしても良い。   After generating the spatial information, a setting file necessary for executing the shape restoration program 18 is generated in step S33. The point group integration mechanism 15 may also accept a manual method in addition to an automatic method using a threshold for profile selection.

具体的には、図13のプロファイル選択画面に示すようにプロファイルを[Score]や[Feature Points]などと共に一覧で示し、空間惰報に統合するプロファイルの選択を一括で入力できるようにする。   Specifically, as shown in the profile selection screen of FIG. 13, the profiles are listed together with [Score], [Feature Points], and the like so that selection of profiles to be integrated into the spatial intelligence can be input in a lump.

次に、図11の処理例によって生成されたプロファイルI0001.prf〜I0004.prfに対して、点群統合機構15の処理を実施した場合を説明する。   Next, a case where the processing of the point group integration mechanism 15 is performed on the profiles I0001.prf to I0004.prf generated by the processing example of FIG. 11 will be described.

最初にI0001.prfからI0004.prfまでのすべてのプロファイルが読み込まれる。このうちI0004.prfは[Score](=4.2)が閾値Vsより大きいため、点群の位置精度が低いと判断され、I0001.prfからI0003.prfまでの点群が空間情報ファイルM0001.XYZに加えられる。   First, all profiles from I0001.prf to I0004.prf are read. Among these, since [Score] (= 4.2) of I0004.prf is larger than the threshold value Vs, it is determined that the position accuracy of the point cloud is low, and the point cloud from I0001.prf to I0003.prf is stored in the spatial information file M0001.XYZ. Added.

具体的にはI0001.prfに[Shape3D]として登録されている各点の3次元座標値を記述したファイルI0001.xyzを読み込み、M0001.XYZに書き出す。同様にI0002.xyz,I0003.xyzを読み込んでM0001.XYZに追加する。   Specifically, the file I0001.xyz describing the three-dimensional coordinate values of each point registered as [Shape3D] in I0001.prf is read and written to M0001.XYZ. Similarly, I0002.xyz and I0003.xyz are read and added to M0001.XYZ.

次に、形状復元プログラム18のための設定ファイルM0001.prfを生成する。空間情報を記述したファイルの名前として「M0001.XYZ」をWorld Point Setに登録する。また、M0001.XYZに記述された3次元座標値の数として、3つのプロファイルの[Feature Points]の和を、M0001.prfのWorld Pointsの欄に登録する。   Next, a setting file M0001.prf for the shape restoration program 18 is generated. “M0001.XYZ” is registered in the World Point Set as the name of the file describing the spatial information. Further, the sum of [Feature Points] of the three profiles is registered in the World Points column of M0001.prf as the number of three-dimensional coordinate values described in M0001.XYZ.

また、形状復元プログラム実行後に生成される形状ファイルのファイル名を記述する欄としてModel Fileを加え、図14に示す設定ファイルが自動的に生成される。   In addition, Model File is added as a column describing the file name of the shape file generated after execution of the shape restoration program, and the setting file shown in FIG. 14 is automatically generated.

以上の例により、市街地を空撮して取得した時系列画像から空間情報を復元し、市街地の3次元モデルを構築した例を図15に示す。高精度な点群の自動獲得処理において、プロファイル生成機構およびプロファイル選択機構が、空間情報の復元処理において、点群統合機構が、それぞれ利用される。   FIG. 15 shows an example in which spatial information is restored from a time-series image acquired by taking an aerial image of an urban area and a three-dimensional model of the urban area is constructed. In a highly accurate point cloud automatic acquisition process, a profile generation mechanism and a profile selection mechanism are used, and in a spatial information restoration process, a point cloud integration mechanism is used.

本発明は、時系列画像を入力として、点群獲得プログラムおよび形状復元プログラムが実行され、広域の3次元形状データ(市街地空間モデル)を全自動で得ることができるために、災害シミュレーションやカーナビなどの基礎データに利用できる。   In the present invention, a point cloud acquisition program and a shape restoration program are executed using a time-series image as input, and wide-area three-dimensional shape data (city space model) can be obtained fully automatically. Can be used for basic data.

本発明の構成を示すブロック図。The block diagram which shows the structure of this invention. 時系列画像のデータ保存形式の例を示す説明図。Explanatory drawing which shows the example of the data storage format of a time series image. シーケンス決定機構のフローチャート。The flowchart of a sequence determination mechanism. シーケンスのフレーム枚数を決定する手続きを説明する説明図。Explanatory drawing explaining the procedure which determines the number of frames of a sequence. プロファイル生成機構の初期設定ファイルの記述例を示す説明図。Explanatory drawing which shows the example of a description of the initial setting file of a profile production | generation mechanism. プロファイル生成機構のフローチャート。The flowchart of a profile production | generation mechanism. プロファイルの生成例を示す説明図。Explanatory drawing which shows the example of a production | generation of a profile. 位置誤差の大きな点を除去した結果を示す説明図。Explanatory drawing which shows the result of having removed the point with a big position error. プロファイル選択機構のフローチャート。The flowchart of a profile selection mechanism. 点群獲得プログラム実行対象となるプロファイルの選択画面を示す説明図。Explanatory drawing which shows the selection screen of the profile used as a point cloud acquisition program execution object. プロファイル選択機構の処理の例を示す説明図。Explanatory drawing which shows the example of a process of a profile selection mechanism. 点群統合機構のフローチャート。The flowchart of a point cloud integration mechanism. 点群統合の対象となるプロファイルの選択画面を示す説明図。Explanatory drawing which shows the selection screen of the profile used as the object of point cloud integration. 形状復元プログラムの設定ファイルの例を示す説明図。Explanatory drawing which shows the example of the setting file of a shape restoration program. 実施の形態により市街地空間モデルを構築した例を示す説明図。Explanatory drawing which shows the example which built the urban area space model by embodiment. 映像からの3次元形状獲得技術の利用例を示す説明図。Explanatory drawing which shows the usage example of the three-dimensional shape acquisition technique from an image | video. 建物の空撮例を示す説明図。Explanatory drawing which shows the aerial photography example of a building. 各フレームの画像の例を示す説明図。Explanatory drawing which shows the example of the image of each flame | frame. 時系列画像から一定枚数のシーケンスヘの分割を説明した図。The figure explaining the division | segmentation into the sequence of a fixed number of sheets from a time series image. 点群獲得プログラムの実行方法の例を示す説明図。Explanatory drawing which shows the example of the execution method of a point cloud acquisition program. 形状復元プログラムの実行方法の例を示す説明図。Explanatory drawing which shows the example of the execution method of a shape restoration program.

符号の説明Explanation of symbols

11…シーケンス決定機構
12…プロファイル生成機構
13…プロファイル格納装置
14…プロファイル選択機構
15…点群統合機構
16…ファイルサーバ
17…点群獲得プログラム
18…形状復元プログラム
DESCRIPTION OF SYMBOLS 11 ... Sequence determination mechanism 12 ... Profile generation mechanism 13 ... Profile storage apparatus 14 ... Profile selection mechanism 15 ... Point cloud integration mechanism 16 ... File server 17 ... Point cloud acquisition program 18 ... Shape restoration program

Claims (9)

撮影対象領域の部分的な撮影を繰り返して全域を撮影した時系列画像から、広域の3次元形状を復元する方法であって、
時系列画像を複数の画像列に分割するステップと、
分割後の各画像列から3次元点群を獲得する処理を複数回行って、複数の3次元点群を獲得するステップと、
複数の3次元点群を一つにまとめて、広域の3次元点群(以下、空間情報と称する)を獲得するステップと、
空間情報から広域の3次元形状を復元するステップと、を有する
ことを特徴とする3次元形状の復元方法。
A method for reconstructing a three-dimensional shape of a wide area from a time-series image obtained by photographing a whole area by repeating partial photographing of a photographing target area,
Dividing the time-series image into a plurality of image sequences;
Performing a process of acquiring a three-dimensional point group from each divided image sequence a plurality of times to acquire a plurality of three-dimensional point groups;
Combining a plurality of three-dimensional point groups into one to obtain a wide-area three-dimensional point group (hereinafter referred to as spatial information);
And a step of restoring a wide area three-dimensional shape from the spatial information.
請求項1に記載の3次元形状の復元方法において、
時系列画像を複数の画像列に分割するステップは、
画像中の特徴点が、時系列画像において映し出されている枚数にもとづいて、画像列に含める画像の枚数を決定するステップと、
画像中における特徴点の画像座標の変化量にもとづいて、次の画像列の先頭画像を決定するステップと、を有する
ことを特徴とする3次元形状の復元方法。
The three-dimensional shape restoration method according to claim 1,
The step of dividing the time-series image into a plurality of image sequences is as follows:
Determining the number of images to be included in the image sequence based on the number of feature points in the image projected in the time-series image;
Determining the top image of the next image sequence based on the amount of change in the image coordinates of the feature points in the image.
請求項1に記載の3次元形状の復元方法において、
部分的な画像列の指定、および、3次元点群を獲得するために必要なパラメータ、を一つのファイルにまとめるステップと、
すべての画像列に対して上記のファイルを生成するステップと、
上記のファイルを選択することによって点群を獲得する画像列の選択を行うステップと、
上記のファイルに点群の獲得結果を追加するステップと、
上記のファイルを選択することによって空間情報に含める点群のグループの選択を行うステップと、を有する
ことを特徴とする3次元形状の復元方法。
The three-dimensional shape restoration method according to claim 1,
Combining a partial image sequence specification and parameters necessary for obtaining a three-dimensional point cloud into one file;
Generating the above file for all image sequences;
Selecting an image sequence to acquire a point cloud by selecting the file;
Adding a point cloud acquisition result to the above file;
Selecting a group of point groups to be included in the spatial information by selecting the file, and a method of restoring a three-dimensional shape.
請求項1に記載の3次元形状の復元方法において、
3次元点群の評価値が与えられた条件を満たす点群だけを集めて、空間情報を生成するステップと、を有する
ことを特徴とする3次元形状の復元方法。
The three-dimensional shape restoration method according to claim 1,
Collecting only point groups that satisfy the condition for which the evaluation value of the three-dimensional point group is given, and generating spatial information. A method for restoring a three-dimensional shape, comprising:
撮影対象領域の部分的な撮影を繰り返して全域を撮影した時系列画像から、広域の3次元形状を復元する装置であって、
時系列画像を複数の画像列に分割する第1手段と、
この第1手段で分割した後の各画像列から3次元点群を獲得する処理を複数回行って、複数の3次元点群を獲得する第2手段と、
この第2手段で獲得した複数の3次元点群を一つにまとめて、広域の3次元点群(以下、空間情報と称する)を獲得する第3手段と、
この第3手段で獲得した空間情報から広域の3次元形状を復元する第4手段と、を有する
ことを特徴とする3次元形状の復元装置。
An apparatus that restores a wide-area three-dimensional shape from a time-series image obtained by repeatedly performing partial imaging of an imaging target area,
First means for dividing a time-series image into a plurality of image sequences;
A second means for obtaining a plurality of three-dimensional point groups by performing a process of obtaining a three-dimensional point group from each image sequence after being divided by the first means a plurality of times;
A plurality of three-dimensional point groups acquired by the second means, and a third means for acquiring a wide-area three-dimensional point group (hereinafter referred to as spatial information);
And a fourth means for restoring a wide-area three-dimensional shape from the spatial information acquired by the third means.
請求項5に記載の3次元形状の復元装置において、
時系列画像を複数の画像列に分割する第1手段は、
画像中の特徴点が、時系列画像において映し出されている枚数にもとづいて、画像列に含める画像の枚数を決定する第1決定部と、
画像中における特徴点の画像座標の変化量にもとづいて、次の画像列の先頭画像を決定する第2決定部と、を有する
ことを特徴とする3次元形状の復元装置。
The three-dimensional shape restoration apparatus according to claim 5,
The first means for dividing the time-series image into a plurality of image sequences includes:
A first determination unit that determines the number of images to be included in the image sequence based on the number of feature points in the image displayed in the time-series image;
A three-dimensional shape restoration apparatus comprising: a second determination unit that determines a head image of a next image sequence based on a change amount of an image coordinate of a feature point in an image.
請求項5に記載の3次元形状の復元装置において、
部分的な画像列の指定、および、3次元点群を獲得するために必要なパラメータ、を一つのファイルにまとめる統合手段と、
すべての画像列に対して上記のファイルを生成する生成手段と、
上記のファイルを選択することによって点群を獲得する画像列の選択を行う選択手段と、
上記のファイルに点群の獲得結果を追加する追加手段と、
上記のファイルを選択することによって空間情報に含める点群のグループの選択を行うグループ選択手段と、を有する
ことを特徴とする3次元形状の復元装置。
The three-dimensional shape restoration apparatus according to claim 5,
An integration means for combining partial image sequence specification and parameters necessary for acquiring a three-dimensional point cloud into one file;
Generating means for generating the above file for all image sequences;
A selection means for selecting an image sequence for acquiring a point cloud by selecting the above file;
Additional means for adding point cloud acquisition results to the above file;
A three-dimensional shape restoration apparatus comprising: a group selection unit that selects a group of point groups to be included in the spatial information by selecting the file.
請求項5に記載の3次元形状の復元装置において、
前記第3手段は、3次元点群の評価値が与えられた条件を満たす点群だけを集めて、空間情報を生成するものである、
ことを特徴とする3次元形状の復元装置。
The three-dimensional shape restoration apparatus according to claim 5,
The third means collects only the point group that satisfies the condition for which the evaluation value of the three-dimensional point group is given, and generates spatial information.
A three-dimensional shape restoration apparatus.
請求項1から請求項5のいずれかに記載の3次元形状の復元方法におけるステップを、コンピュータに実行させるためのプログラムとした、
ことを特徴とする3次元形状の復元プログラム。
The step in the three-dimensional shape restoration method according to any one of claims 1 to 5 is a program for causing a computer to execute.
A program for restoring a three-dimensional shape.
JP2003291015A 2003-08-11 2003-08-11 Three-dimensional shape recovery method, its apparatus, and three-dimensional shape recovery program Pending JP2005061931A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003291015A JP2005061931A (en) 2003-08-11 2003-08-11 Three-dimensional shape recovery method, its apparatus, and three-dimensional shape recovery program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003291015A JP2005061931A (en) 2003-08-11 2003-08-11 Three-dimensional shape recovery method, its apparatus, and three-dimensional shape recovery program

Publications (1)

Publication Number Publication Date
JP2005061931A true JP2005061931A (en) 2005-03-10

Family

ID=34368835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003291015A Pending JP2005061931A (en) 2003-08-11 2003-08-11 Three-dimensional shape recovery method, its apparatus, and three-dimensional shape recovery program

Country Status (1)

Country Link
JP (1) JP2005061931A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007322357A (en) * 2006-06-05 2007-12-13 Fujitsu Ltd Program, apparatus and method for measuring distance
JP2015114954A (en) * 2013-12-13 2015-06-22 株式会社ジオ技術研究所 Photographing image analysis method
CN111612689A (en) * 2020-05-28 2020-09-01 上海联影医疗科技有限公司 Medical image processing method, apparatus, computer device and readable storage medium
JP2021036449A (en) * 2011-10-28 2021-03-04 マジック リープ, インコーポレイテッドMagic Leap,Inc. System and method for augmented and virtual reality

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007322357A (en) * 2006-06-05 2007-12-13 Fujitsu Ltd Program, apparatus and method for measuring distance
JP2021036449A (en) * 2011-10-28 2021-03-04 マジック リープ, インコーポレイテッドMagic Leap,Inc. System and method for augmented and virtual reality
JP2015114954A (en) * 2013-12-13 2015-06-22 株式会社ジオ技術研究所 Photographing image analysis method
CN111612689A (en) * 2020-05-28 2020-09-01 上海联影医疗科技有限公司 Medical image processing method, apparatus, computer device and readable storage medium
CN111612689B (en) * 2020-05-28 2024-04-05 上海联影医疗科技股份有限公司 Medical image processing method, medical image processing device, computer equipment and readable storage medium

Similar Documents

Publication Publication Date Title
US10110817B2 (en) Image processing device and method, and program for correcting an imaging direction
RU2007113914A (en) NUMERICAL DECISION AND CONSTRUCTION OF THREE-DIMENSIONAL VIRTUAL MODELS ON AERIAL PICTURES
JP6921686B2 (en) Generator, generation method, and program
US11295142B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
US20220078385A1 (en) Projection method based on augmented reality technology and projection equipment
US10719975B2 (en) Information processing apparatus and method of generating three-dimensional model
US20210264666A1 (en) Method for obtaining photogrammetric data using a layered approach
JP2018113683A (en) Image processing apparatus, image processing method, and program
CN110009675A (en) Generate method, apparatus, medium and the equipment of disparity map
JP6110780B2 (en) Additional information display system
JP6425511B2 (en) Method of determining feature change and feature change determination apparatus and feature change determination program
JP5743501B2 (en) Object tracking device, object tracking method, and object tracking program
CN107346536B (en) Image fusion method and device
US9197882B2 (en) Mobile communication terminal having image conversion function and method
CN113034347A (en) Oblique photographic image processing method, device, processing equipment and storage medium
JP2005061931A (en) Three-dimensional shape recovery method, its apparatus, and three-dimensional shape recovery program
US20090213121A1 (en) Image processing method and apparatus
CN114175019A (en) Image display device, method, and program
JP2005063129A (en) Method, device and program for obtaining texture image from time-series image, and recording media for recording this program
JP6110807B2 (en) Image processing device
CN109087338B (en) Method and device for extracting image sparse optical flow
JP6606748B2 (en) Stereo pair image display device
CN110148086A (en) The depth polishing method, apparatus and three-dimensional rebuilding method of sparse depth figure, device
CN116385273B (en) Method, system and storage medium for moving points in stepping panoramic roaming
JP4025556B2 (en) Feature point tracking image determination device, feature point tracking image determination method, program for the method, and recording medium recording the program