JP2005061931A - Three-dimensional shape recovery method, its apparatus, and three-dimensional shape recovery program - Google Patents
Three-dimensional shape recovery method, its apparatus, and three-dimensional shape recovery program Download PDFInfo
- Publication number
- JP2005061931A JP2005061931A JP2003291015A JP2003291015A JP2005061931A JP 2005061931 A JP2005061931 A JP 2005061931A JP 2003291015 A JP2003291015 A JP 2003291015A JP 2003291015 A JP2003291015 A JP 2003291015A JP 2005061931 A JP2005061931 A JP 2005061931A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional shape
- dimensional
- point
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A10/00—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
- Y02A10/40—Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping
Abstract
Description
本発明は、撮影対象領域の部分的な撮影を複数回行って全域を撮影した時系列画像から、広域の3次元形状を復元する方法及びその装置並びにプログラムに関するものである。 The present invention relates to a method, apparatus, and program for restoring a three-dimensional shape in a wide area from a time-series image obtained by photographing a whole area by performing partial photographing of a photographing target area a plurality of times.
映像から3次元の点群を獲得し、その点群から形状を復元する技術(方法や装置等)が知られている(非特許文献1参照。)。(非特許文献2参照。)。 A technique (a method, an apparatus, or the like) that acquires a three-dimensional point group from an image and restores the shape from the point group is known (see Non-Patent Document 1). (Refer nonpatent literature 2.).
このような技術により、例えば、図16に示すように、ヘリコプターの空撮画像から市街地の3次元形状データ(市街地空間モデル)を構築し、都市計画、カーナビゲーション、バーチャルモール、災害等の数値シミュレーションなどの様々なアプリケーションの基礎データに利用されている(非特許文献3参照。)。 With such a technique, for example, as shown in FIG. 16, three-dimensional shape data (city space model) of an urban area is constructed from an aerial image of a helicopter, and numerical simulations such as city planning, car navigation, virtual mall, disaster, etc. It is used for basic data of various applications such as (see Non-Patent Document 3).
画像(映像)は、図17に示すように、ヘリコプターに設置されたビデオカメラにより単位時間ごと(撮影時刻001〜005)に撮影されたフレームと呼ばれる画像列から構成されているため、以下、映像を時系列画像と呼ぶ。
As shown in FIG. 17, the image (video) is composed of an image sequence called a frame taken every unit time (photographing
地上の対象建物を空撮した時系列画像(撮影時刻001〜005)の例を、図18に示す。図18から分かるように地上の対象建物が映し出されているフレーム数は限られているため、長い時系列画像から広域の3次元形状を復元する場合には、部分的な画像列(シーケンス)ごとに点群を獲得する必要がある。
FIG. 18 shows an example of time-series images (
さらに、大きな構造物は複数のシーケンスに跨る場合も考えられるため、複数の連続するシーケンスから獲得された点群を一つの点群に統合した後で形状の復元を行う必要がある。この統合後の点群を、シーケンスごとの点群と区別するために、以下では空間情報と呼ぶ。 Furthermore, since a large structure may span a plurality of sequences, it is necessary to restore the shape after integrating point clouds acquired from a plurality of consecutive sequences into one point cloud. In order to distinguish the point group after integration from the point group for each sequence, it is hereinafter referred to as spatial information.
時系列画像からN枚ごとにシーケンスを生成した例を図19に示す。長い時系列画像から広域の3次元形状を復元する場合、シーケンスごとに3次元座標値を持った点群を獲得し、点群を統合して空間情報を生成し、空間情報から形状の復元を行う。 FIG. 19 shows an example in which a sequence is generated every N frames from a time-series image. When restoring a wide-area 3D shape from a long time-series image, a point cloud with 3D coordinate values is acquired for each sequence, the point cloud is integrated to generate spatial information, and the shape is restored from the spatial information. Do.
以下の説明において、シーケンスから点群を獲得するプログラム(点群獲得プログラム)と、空間情報から立体形状を復元するプログラム(形状復元プログラム)が従来技術として準備されているものとする。点群獲得プログラムを実行した例を図20に示す。この例では、プログラムの閾値(Threshold)、先頭フレームの撮影時刻(Initial Frame)、1シーケンスのフレーム枚数(Frames)、を指定して点群獲得プログラムを実行する。 In the following description, it is assumed that a program for acquiring a point cloud from a sequence (point cloud acquisition program) and a program for restoring a solid shape from spatial information (shape restoration program) are prepared as conventional techniques. An example of executing the point cloud acquisition program is shown in FIG. In this example, the threshold value (Threshold) of the program, the shooting time of the first frame (Initial Frame), and the number of frames in one sequence (Frames) are specified, and the point cloud acquisition program is executed.
出力は、点群獲得結果を表示した画像ファイルの名前(Initial Image)、獲得した点の数(Feature Points)、各点の3次元座標値を記述したファイルの名前(Shape3D)、獲得した位置の誤差(Score)である。 The output includes the name of the image file displaying the point cloud acquisition result (Initial Image), the number of points acquired (Feature Points), the name of the file describing the 3D coordinate values of each point (Shape3D), and the acquired position It is an error (Score).
形状復元プログラムを実行した例を図21に示す。この例では、空間情報のファイル名(World Point File)、空間情報に含まれる点の数(World Points)、などの情報を入力し、実行後に生成される形状情報をファイル(Model File)に保存する。 An example of executing the shape restoration program is shown in FIG. In this example, information such as the file name of the spatial information (World Point File) and the number of points included in the spatial information (World Points) are entered, and the shape information generated after execution is saved in the file (Model File) To do.
また、上記時系列画像から3次元情報を獲得する既存の技術としては、複数のカメラを使うことで、一部のカメラで対象物がフレームに映し出されなくても、常にフレーム中に捕らえようとする技術がある(特許文献1参照。)。 In addition, as an existing technique for acquiring three-dimensional information from the above time-series images, a plurality of cameras are used so that an object can always be captured in a frame even if it is not projected on the frame by some cameras. There is a technique (see Patent Document 1).
さらに、時系列画像から時間的に連続していない複数枚のフレームからの3次元情報の獲得を可能にする技術もある(特許文献2参照。)。
上述した従来技術では、シーケンスごとに3次元点群を獲得できるが、実際の入力は時系列画像として与えられるため、そのままでは空間情報を復元することができない。 In the above-described conventional technique, a three-dimensional point group can be acquired for each sequence, but since the actual input is given as a time-series image, the spatial information cannot be restored as it is.
広域の領域を撮影した時系列画像では画像の枚数が膨大になるため、時系列画像のシーケンスヘの分割、および3次元点群の獲得処理は自動的に行われる必要がある。 In a time-series image obtained by photographing a wide area, the number of images is enormous. Therefore, it is necessary to automatically divide a time-series image into sequences and acquire a three-dimensional point group.
シーケンスごとの点群獲得プログラムの実行を人手で行うと、入力設定、プログラムの実行、結果の確認、という作業をシーケンスの数だけ行わなければならず、膨大な手間がかかる。また、プログラム実行時の設定ミスも発生しやすい。 When the point cloud acquisition program for each sequence is executed manually, the operations of input setting, program execution, and result confirmation must be performed by the number of sequences, which takes a lot of time and effort. Also, setting mistakes during program execution are likely to occur.
さらに、点群の獲得結果を確認し、設定を変更して再実行するといった作業が入ると、より膨大な手間がかかるようになる。さらにまた、すべてのシーケンスから点群を獲得した後、どの点群を選んで、一つの空間情報にまとめれば、良いかを選択することが難しいという問題がある。 Furthermore, if the task of confirming the point cloud acquisition result, changing the setting, and re-executing is performed, it takes much more time and effort. Furthermore, after acquiring point clouds from all sequences, there is a problem that it is difficult to select which point group should be selected and combined into one spatial information.
なお、時系列画像から3次元情報を獲得する技術、また、時系列画像から時間的に連続していない複数枚のフレームからの3次元情報の獲得を可能にする技術としては、前述したような技術がある。 As a technique for acquiring three-dimensional information from a time-series image and a technique for enabling acquisition of three-dimensional information from a plurality of frames that are not temporally continuous from a time-series image, There is technology.
しかし、いずれの技術もフレーム間に同じ対象物が映し出されていることを前提として3次元形状を復元しており、単一のシーケンスから3次元情報を獲得するための技術としては利用可能である。しかしながら、これらの技術は、シーケンスが複数あり、各シーケンスごとに3次元情報を獲得し、3次元情報を統合後に形状の復元を行う際に生じる上記に挙げた問題点については、考慮がなされていないのが現状である。 However, each technique restores the three-dimensional shape on the assumption that the same object is projected between frames, and can be used as a technique for acquiring three-dimensional information from a single sequence. . However, in these techniques, there are a plurality of sequences, and the above-mentioned problems that occur when three-dimensional information is acquired for each sequence and shape restoration is performed after the integration of the three-dimensional information is taken into consideration. There is no current situation.
本発明は、上記の事情に鑑みてなされたもので、時系列画像を与えるだけで、シーケンスごとに点群が自動的に獲得され、最終的に空間情報として統合した形で3次元座標の集合を得ることができるようにして、時系列画像からの形状復元作業において大きな省力化を図ることができると共に、作業ミスを減らすことができる3次元形状の復元方法及びその装置並びに3次元形状の復元プログラムを提供することを課題とする。 The present invention has been made in view of the above circumstances. A point cloud is automatically acquired for each sequence only by providing a time-series image, and finally a set of three-dimensional coordinates in a form integrated as spatial information. 3D shape restoration method and apparatus, and 3D shape restoration, which can greatly save labor in shape restoration work from time-series images and reduce work errors. The challenge is to provide a program.
本発明は、上記の課題を達成するために、第1発明は、撮影対象領域の部分的な撮影を繰り返して全域を撮影した時系列画像から、広域の3次元形状を復元する方法であって、時系列画像を複数の画像列に分割するステップと、分割後の各画像列から3次元点群を獲得する処理を複数回行って、複数の3次元点群を獲得するステップと、複数の3次元点群を一つにまとめて、広域の3次元点群(以下、空間情報と称する)を獲得するステップと、空間情報から広域の3次元形状を復元するステップと、を有することを特徴とする3次元形状の復元方法を解決する手段とする。 In order to achieve the above object, the present invention provides a method for restoring a three-dimensional shape of a wide area from a time-series image obtained by photographing a whole area by repeating partial photographing of a photographing target area. A step of dividing the time-series image into a plurality of image sequences, a step of acquiring a three-dimensional point group from each divided image sequence a plurality of times, and acquiring a plurality of three-dimensional point groups; And a step of collecting a three-dimensional point group into one to acquire a wide-area three-dimensional point group (hereinafter referred to as spatial information) and a step of restoring a wide-area three-dimensional shape from the spatial information. As a means for solving the three-dimensional shape restoration method.
第2発明は、時系列画像を複数の画像列に分割するステップは、画像中の特徴点が、時系列画像において映し出されている枚数にもとづいて、画像列に含める画像の枚数を決定するステップと、画像中における特徴点の画像座標の変化量にもとづいて、次の画像列の先頭画像を決定するステップと、を有することを特徴とする3次元形状の復元方法を解決する手段とする。 In the second invention, the step of dividing the time-series image into a plurality of image sequences is a step of determining the number of images to be included in the image sequence based on the number of feature points in the image projected in the time-series image. And a step of determining a head image of the next image sequence based on a change amount of the image coordinates of the feature points in the image.
第3発明は、部分的な画像列の指定、および、3次元点群を獲得するために必要なパラメータ、を一つのファイルにまとめるステップと、すべての画像列に対して上記のファイルを生成するステップと、上記のファイルを選択することによって点群を獲得する画像列の選択を行うステップと、上記のファイルに点群の獲得結果を追加するステップと、上記のファイルを選択することによって空間情報に含める点群のグループの選択を行うステップと、を有することを特徴とする3次元形状の復元方法を解決する手段とする。 In the third invention, a step of combining partial image sequence designation and parameters necessary for obtaining a three-dimensional point cloud into one file, and generating the above-mentioned file for all image sequences. Selecting a sequence of images for acquiring a point cloud by selecting the file, adding a point cloud acquisition result to the file, and selecting the file for spatial information And a step of selecting a group of point groups to be included in the three-dimensional shape restoration method.
第4発明は、3次元点群の評価値が与えられた条件を満たす点群だけを集めて、空間情報を生成するステップと、を有することを特徴とする3次元形状の復元方法を解決する手段とする。 The fourth invention solves the three-dimensional shape restoration method comprising: collecting only point groups that satisfy the condition given the evaluation value of the three-dimensional point group and generating spatial information. Means.
第5発明は、撮影対象領域の部分的な撮影を繰り返して全域を撮影した時系列画像から、広域の3次元形状を復元する装置であって、時系列画像を複数の画像列に分割する第1手段と、この第1手段で分割した後の各画像列から3次元点群を獲得する処理を複数回行って、複数の3次元点群を獲得する第2手段と、この第2手段で獲得した複数の3次元点群を一つにまとめて、広域の3次元点群(以下、空間情報と称する)を獲得する第3手段と、この第3手段で獲得した空間情報から広域の3次元形状を復元する第4手段と、を有することを特徴とする3次元形状の復元装置を解決する手段とする。 A fifth aspect of the invention is an apparatus for restoring a three-dimensional shape in a wide area from a time-series image obtained by repeatedly capturing a partial image of a region to be imaged, and dividing the time-series image into a plurality of image sequences. One means, a second means for obtaining a plurality of three-dimensional point groups by performing a process of obtaining a three-dimensional point group from each image sequence divided by the first means a plurality of times, and a second means for obtaining A third means for collecting a plurality of acquired three-dimensional point groups into one to acquire a wide-area three-dimensional point group (hereinafter referred to as spatial information), and a wide area 3 from the spatial information acquired by the third means. A fourth means for restoring a three-dimensional shape; and means for solving the three-dimensional shape restoration device.
第6発明は、時系列画像を複数の画像列に分割する第1手段は、画像中の特徴点が、時系列画像において映し出されている枚数にもとづいて、画像列に含める画像の枚数を決定する第1決定部と、画像中における特徴点の画像座標の変化量にもとづいて、次の画像列の先頭画像を決定する第2決定部と、を有することを特徴とする3次元形状の復元装置を解決する手段とする。 In a sixth aspect of the present invention, the first means for dividing the time-series image into a plurality of image sequences determines the number of images included in the image sequence based on the number of feature points in the image projected in the time-series image. A three-dimensional shape restoration comprising: a first determination unit configured to perform determination; and a second determination unit configured to determine a leading image of a next image sequence based on a change amount of an image coordinate of a feature point in the image. Means to solve the apparatus.
第7発明は、部分的な画像列の指定、および、3次元点群を獲得するために必要なパラメータ、を一つのファイルにまとめる統合手段と、すべての画像列に対して上記のファイルを生成する生成手段と、上記のファイルを選択することによって点群を獲得する画像列の選択を行う選択手段と、上記のファイルに点群の獲得結果を追加する追加手段と、上記のファイルを選択することによって空間情報に含める点群のグループの選択を行うグループ選択手段と、を有することを特徴とする3次元形状の復元装置を解決する手段とする。 The seventh aspect of the invention is an integration means for combining partial image sequence designation and parameters necessary for obtaining a three-dimensional point cloud into one file, and generating the above file for all image sequences. Selecting means, selecting means for selecting an image sequence for acquiring a point cloud by selecting the file, adding means for adding a point cloud acquisition result to the file, and selecting the file And a group selecting unit that selects a group of point groups to be included in the spatial information.
第8発明は、前記第3手段が、3次元点群の評価値が与えられた条件を満たす点群だけを集めて、空間情報を生成するものであることを特徴とする3次元形状の復元装置を解決する手段する。 According to an eighth aspect of the invention, the third means collects only point groups that satisfy the condition given the evaluation value of the three-dimensional point group, and generates spatial information, and restores the three-dimensional shape Means to solve the apparatus.
第9発明は、3次元形状の復元方法におけるステップを、コンピュータに実行させるためのプログラムとしたことを特徴とする3次元形状の復元プログラムを解決する手段とする。 According to a ninth aspect of the present invention, there is provided a means for solving a three-dimensional shape restoration program, characterized in that the steps in the three-dimensional shape restoration method are programs for causing a computer to execute the steps.
また、本発明は、上記各発明を解決するために、図1に示す構成を用いた。すなわち、本発明は既存技術の構成要素(点群獲得プログラム17、形状復元プログラム18)に加え、シーケンス決定機構11、プロファイル生成機構12、プロファイル格納装置13、プロファイル選択機構14、点群統合機構15、ファイルサーバ16(画像ファイル、点群ファイル、空間情報ファイル、形状ファイルなど)から構成される。以下、順に各機構について説明する。
Further, the present invention uses the configuration shown in FIG. 1 in order to solve the above respective inventions. That is, the present invention includes a
シーケンス決定機構11では、時系列画像をシーケンスに分割するのに必要な情報を生成する。具体的には、フレーム中の特徴点が、時系列画像上に映し出されている枚数に基づいて、シーケンスのフレームの枚数を決定し、さらに、特徴点の画像座標の移動量に基づいて、次のシーケンスの開始フレームを決定する。
The
プロファイル生成機構12は、シーケンスごとに点群獲得プログラム17を実行するための設定ファイル(プロファイル)を生成する。具体的には、時系列画像からシーケンスを特定するための情報および点群獲得プログラム17に与えるパラメータをプロファイルに記述する。生成されたすべてのプロファイルはプロファイル格納装置13に保存される。
The
プロファイル選択機構14は、生成されたプロファイルを選択し、それらのプロファイルに対して点群獲得プログラム17を実行する。点群の獲得結果に基づいて再度、プロファイルを選択し、点群獲得プログラム17に与えるパラメータを変更して処理を実行する。再度実行すべきプロファイルが無ければ点群統合機構15に処理を移す。
The
なお、プロファイル選択機構14の処理においては、プロファイルに点群の獲得結果を追記し、その内容と共にプロファイルを一覧表示し、パラメータの変更またはプロファイルの選択に関する入力を受け付けても良い。
In the processing of the
点群統合機構15では、各シーケンスから獲得された点群を、一つもしくは複数の空間情報にまとめる。点群の獲得結果にもとづいて、どの点群を一つの空間情報にまとめるかを決定し、その決定により生成された空間情報をファイルサーバ16に入力する。
The point
点群統合機構15の処理においては、プロファイルに点群の獲得結果を追記し、その内容と共にプロファイルを一覧表示し、プロファイルの選択に関する入力を受け付けることで、空間情報に含める点群を選択しても良い。
In the processing of the point
以上の工夫により、時系列画像を入力として、点群獲得プログラム17および形状復元プログラム18が実行され、広域の3次元形状データを全自動で得ることができる。
With the above contrivance, the point
以上述べたように、本発明によれば、時系列画像を与えるだけで、シーケンスごとに点群が自動的に獲得され、最終的に空間情報として統合した形で3次元座標の集合を得ることができる。そのため以下に示すa〜dのような手間が省かれる利点がある。 As described above, according to the present invention, a point cloud is automatically acquired for each sequence only by providing a time-series image, and finally a set of three-dimensional coordinates is obtained in a form integrated as spatial information. Can do. Therefore, there is an advantage that the troubles such as a to d described below can be saved.
a.シーケンスごとの設定ファイルの作成とプログラムの実行
b.点群獲得結果の確認と、パラメータの再設定およびプログラムの再実行
c.空間情報にまとめるための点群の選択
d.形状復元プログラムに必要な設定ファイルの作成。
a. Create a configuration file for each sequence and execute the program b. Confirmation of point cloud acquisition result, resetting of parameters and re-execution of program c. Selection of point cloud for grouping into spatial information d. Create a configuration file required for the shape restoration program.
例えば、上記でプロファイルI0001.prfからI0004.prfを使った例では、パラメータの設定および点群獲得プログラムの実行は7回に及んでいる。より長い時系列画像では、シーケンス数の増加、および、再実行の必要があるシーケンス数の増加により、回数の増加が予想される。よって、時系列画像からの形状復元作業において大きな省力化を図ることができると共に、作業ミスを減らすことができる。 For example, in the example using the profiles I0001.prf to I0004.prf as described above, the parameter setting and the point group acquisition program are executed seven times. In a longer time-series image, an increase in the number of sequences is expected due to an increase in the number of sequences and an increase in the number of sequences that need to be re-executed. Therefore, a great labor saving can be achieved in the shape restoration work from the time series image, and work mistakes can be reduced.
以下本発明の実施の形態を図面に基づいて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
通常、NTSCやハイビジョンなどの映像では、1秒間に30枚の画像が記録される。そこから適当な間隔で画像を取り出して、記録装置に格納する。記録装置は、撮影した時刻と画像データのファイル名の組を保存することで、時系列画像を管理する。ファイルサーバにおける時系列画像の管理の例を図2に示す。なお、図2において、図示左側の数列は撮影時刻を示し、図示右側の文字列は画像ファイルを示している。 Normally, 30 images are recorded per second for video such as NTSC and Hi-Vision. From there, images are taken out at appropriate intervals and stored in a recording device. The recording device manages time-series images by storing a set of the shooting time and the file name of the image data. An example of time-series image management in the file server is shown in FIG. In FIG. 2, the number sequence on the left side in the figure indicates the shooting time, and the character string on the right side in the figure indicates an image file.
次にシーケンス決定機構11を図3に示すフローチャートに従って説明する。本例では、撮影画像の上方向にカメラを直線運動させて時系列画像を撮影したものとする。この場合、撮影された物体のフレーム中の位置は、図18に示す各フレームの画像例のように、フレームの上から下に移動する。そこで、初期特徴点は初期フレームの上部領域に発生させるものとする(図4の上段)。
Next, the
ここで、発生領域の上下幅をLとすると、Lの値は、例えばフレームFの高さの1/3などとして定めることができる。特徴点の発生は、画素値が大きく変化する部分を自動検出することによって可能である。特徴点の分布している位置を知るために、その重心を求め、フレームFの下端からの高さH0を保存しておく。 Here, if the vertical width of the generation region is L, the value of L can be determined as 1/3 of the height of the frame F, for example. The generation of feature points is possible by automatically detecting a portion where the pixel value changes greatly. In order to know the position where the feature points are distributed, the center of gravity is obtained, and the height H 0 from the lower end of the frame F is stored.
図3において、まず、ステップS1でフレーム枚数のカウンタNを「1」に設定する(初期化する)。また、ステップS2で時系列画像の初期フレームの上部に特徴点を発生させる(特徴点発生領域の上下幅はL)。そして、ステップS3では、初期フレームにおける特徴点集合の重心の高さH0を求める。 In FIG. 3, first, in step S1, the frame number counter N is set to "1" (initialized). In step S2, feature points are generated in the upper part of the initial frame of the time-series image (the vertical width of the feature point generation region is L). In step S3, the height H 0 of the center of gravity of the feature point set in the initial frame is obtained.
その後、ステップS4で、特徴点周辺の画像パターンを、次のフレームの中で探すことにより、次のフレームFにおける特徴点の位置を獲得する(特徴点を追跡)。つまり、1フレームだけ特徴点追跡を行い、ステップS5で、フレーム枚数のカウンタNを「1」増やし、ステップS6でフレームFにおける特徴点の重心の高さHfを求める。 After that, in step S4, the position of the feature point in the next frame F is obtained by searching for the image pattern around the feature point in the next frame (tracking the feature point). That is, feature point tracking is performed for only one frame, the frame number counter N is incremented by “1” in step S5, and the center-of-gravity height H f of the feature point in frame F is obtained in step S6.
先に述べたように撮影された物体は、フレーム中で上から下に移動するため、逐次特徴点追跡を行うに従って、特徴点が分布する範囲は徐々に下に下がる。 Since the object photographed as described above moves from the top to the bottom in the frame, the feature point distribution range gradually decreases as the feature point tracking is performed sequentially.
特徴点の分布領域がLだけ移動したと判断された時点で、フレームFの上部には、上下幅Lの新しい特徴点の発生領域ができたので、次のシーケンスは、そのフレームから開始することとする(図4の中段)。 When it is determined that the feature point distribution area has moved by L, a new feature point generation area having an upper and lower width L is formed in the upper part of the frame F, and the next sequence starts from that frame. (Middle of FIG. 4).
この判断は、特徴点集合の重心位置の高さHfによって行われ、HfがH0よりL以上低くなったら、ステップS7で、フレーム枚数のカウンタNを、N’として保存し、そのフレームを次のシーケンスの開始フレームとする。 This determination is made based on the height H f of the barycentric position of the feature point set. When H f becomes lower than H 0 by L or more, the frame number counter N is stored as N ′ in step S7, and the frame Is the start frame of the next sequence.
以下、特徴点のうち、任意の点がフレームの下端に達したかを、ステップS8で判断し、フレームアウトするまで(ステップS8で肯定「yes」)、特徴点追跡を行う(図4の下段)。 Hereinafter, it is determined in step S8 whether or not an arbitrary point of the feature points has reached the lower end of the frame, and feature point tracking is performed until the frame is out (Yes in step S8) (lower part of FIG. 4). ).
フレームアウトが生じた時点の一枚前のフレームが、シーケンスの最後のフレームとなるため,このステップまでに利用したフレーム枚数のカウンタNから「1」を引いた枚数(N−1)が、シーケンスに含まれるフレーム枚数となる(ステップS9)。また、次のシーケンスと重なっているフレームの枚数(オーバーラップ枚数)は(N−N’−1)と求まる(ステップS10)。 Since the frame immediately before the occurrence of frame-out becomes the last frame in the sequence, the number (N−1) obtained by subtracting “1” from the counter N of the number of frames used up to this step is the sequence. (Step S9). In addition, the number of frames (overlap number) overlapping the next sequence is obtained as (N−N′−1) (step S10).
本例ではカメラが等速で移動することとを仮定し、すべてのシーケンスは、同じ枚数であるとする。よって、シーケンスの枚数とオーバラップ枚数が決定すれば、すべてのシーケンスの開始フレームを特定することができる。カメラ運動が等速でない場合には、図3に示すフローチャートの手続きを時系列画像全体に渡って繰り返し行い、シーケンス毎にフレーム枚数と開始フレームを決定すればよい。特徴点の追跡処理は点群獲得時にも必要となるので、追跡処理の結果を保存し、点群獲得時に利用しても良い。 In this example, it is assumed that the camera moves at a constant speed, and all the sequences have the same number. Therefore, if the number of sequences and the number of overlaps are determined, the start frames of all sequences can be specified. If the camera motion is not constant, the procedure of the flowchart shown in FIG. 3 may be repeated over the entire time series image to determine the number of frames and the start frame for each sequence. Since the feature point tracking process is also required when acquiring the point cloud, the result of the tracking process may be stored and used when acquiring the point cloud.
次にプロファイル生成機構12の説明を行う。ここでは、図20に示す設定値を持つプロファイルを生成する場合を例として、プロファイル生成機構12に入力するデータを記述したファイル(初期設定ファイル)の内容を図5に示す。以下、各行について説明する。
Next, the
Threshold:各プロファイルに設定する点群獲得プログラム17の閾値Thresholdのデフォルト値。シーケンスによっては点群の獲得がうまくいかない場合もあり、その場合には閾値を変更して再実行する必要があるが、1回目の点群獲得処理ではデフォルト値を用いる。
Threshold: Default value of the threshold value Threshold of the point
Initial Frame:時系列画像の先頭フレームを、そのフレームの撮影時刻で指定する。 Initial Frame: Designates the first frame of a time-series image by the shooting time of that frame.
End Frame:時系列画像の最後フレームを、そのフレームの撮影時刻で指定する。 End Frame: Designates the last frame of the time-series image by the shooting time of that frame.
Frames:時系列画像をシーケンスに分割する際の1シーケンスのフレーム枚数
Overlap Frames:シーケンス間のオーバーラップ枚数(図19参照)。
Frames: Number of frames in one sequence when time-series images are divided into sequences
Overlap Frames: The number of overlaps between sequences (see FIG. 19).
次に、プロファイル生成機構12を図6に示すフローチャートに基づいて説明する。図6において、最初にステップS11で上記の初期設定ファイルを読み込む。以下の説明では、例えば[Initial Frame]などとして、”[“,“]”で囲むことでInitial Frameの設定値を表すこととする。
Next, the
次に、ステップS12で[Initial Frame]を変数Tにセットし、ステップS13で[End Frame]が示すフレームから[Frames]枚前のフレームの撮影時刻を変数Tendにセットする。 Next, in step S12, [Initial Frame] is set to the variable T, and in step S13, the shooting time of the [Frames] frames before the frame indicated by [End Frame] is set to the variable T end .
Tendより後の時刻に撮影されたフレームからシーケンスを開始すると、そのシーケンスの範囲が初期設定ファイルで指定した範囲([Initial Frame]〜[End Frame])からはみ出すため、以下の処理においてシーケンスの開始時刻Tをチェックするようにしている。 When a sequence is started from a frame shot at a time later than T end , the sequence range extends beyond the range specified in the initialization file ([Initial Frame] to [End Frame]). The start time T is checked.
次に、ステップS14で、プロファイルを設定値が空欄のまま生成し、FramesとThresholdの欄には初期設定ファイルの設定値をそのまま設定する。Initial Frameの欄には、Tを設定し(ステップS15)、プロファイルをプロファイル格納装置13に保存する(ステップS16)。 In step S14, the profile is generated with the setting value blank, and the setting value of the initial setting file is set as it is in the Frames and Threshold columns. T is set in the Initial Frame field (step S15), and the profile is stored in the profile storage device 13 (step S16).
次のシーケンスの先頭フレームは、時刻Tに撮影されたフレームの[Frames]−[Overlap Frame]枚先のフレームである。よって、そのフレームの撮影時刻をTにセットする(ステップS17)。 The first frame of the next sequence is the frame [Frames]-[Overlap Frame] ahead of the frame shot at time T. Therefore, the shooting time of the frame is set to T (step S17).
ここで、先に述べた理由によりステップS18の判断で、TがTendより大きければ(yes)処理を終了する。そうでなければ(no)、新しいTから始まるシーケンスに対してプロファイルが新たに生成される。 Here, if T is larger than T end (Yes) in step S18 for the reason described above, the process is terminated. Otherwise (no), a new profile is generated for the sequence starting with the new T.
図5に示す初期設定ファイルの内容に基づいてプロファイルを、生成した例を図7に示す。撮影時刻001から200までの時系列画像は、4つのシーケンスに分割され、それぞれのシーケンスのプロファイルが、自動的に生成される。各プロファイルは、I0001.prf〜I0004.prfというファイル名でプロファイル格納装置13に保存されるものとする。
FIG. 7 shows an example in which a profile is generated based on the contents of the initial setting file shown in FIG. A time-series image from the photographing
上記の例では、復元対象とする時系列画像をInitial FrameとEnd Frameで指定しているが、Initial Frame(あるいはEnd Frame)とフレーム枚数で指定する。 In the above example, the time-series image to be restored is specified by Initial Frame and End Frame, but is specified by Initial Frame (or End Frame) and the number of frames.
プロファイル選択機構14の説明においては、”[“,“]”で囲むことでプロファイルの設定値を表すこととする。[Score]は点の位置の平均誤差であり、点群獲得プログラム17の実行後に設定される値である。点群獲得プログラム17は[Threshold]を下げることで誤差の大きな点を除去し、平均誤差を低減することができる。
In the description of the
なお、図8の上図は、建物形状を獲得した点群を横から見た図で、この図において、[Threshold]を下げることで位置誤差の大きな点の除去により図8の下図のようになる。 The upper diagram in FIG. 8 is a diagram of the point cloud that has acquired the building shape as viewed from the side. In this diagram, by lowering [Threshold], points with large positional errors are removed, as shown in the lower diagram in FIG. Become.
ここで説明するプロファイル選択機構14では、すべてのプロファイルにおいて[Score]を、事前に与えられた閾値Vs以下にすることを目的とする。ただし、点をできるだけ残すため[Threshold]は段階的に小さくする。
The
図9はプロファイル選択機構14を説明するフローチャートである。図9において、最初にプロファイル生成機構12が生成したプロファイルを格納装置13からすべて読み込み(ステップS21)、全てのプロファイルをプロファイルリストに追加する(ステップS22)。
FIG. 9 is a flowchart for explaining the
次に[Threshold]の繰り返しを重ねるごとに半分の値にしながら、ステップS23で[Score]が閾値Vs以下になるまで繰り返し、プロファイルをプロファイルリストから除いて、ステップS24、ステップS25を経て、ステップS26でプロファイルリストに含まれる全てのプロファイルに対して一つづつ点群獲得プログラムを実行する。 Next, while repeating [Threshold] repeatedly, the value is reduced to half as long as [Score] becomes less than or equal to the threshold value Vs in step S23, the profile is removed from the profile list, and steps S24 and S25 are followed. The point cloud acquisition program is executed one by one for all the profiles included in the profile list.
ただし、処理時間を小さくするために、ステップS24でプロファイルリストが空または繰り返しの回数が閾値N回より大きいかを判断し、閾値をN回に制限し、またステップS25でプロファイルリストに含まれるプロファイルに対して[Threshold]を半分にする。以上の処理によって、プロファイルが自動的に選択されて、点群獲得プログラム17が実行され、ファイルサーバ16に入力される。
However, in order to reduce the processing time, it is determined in step S24 whether the profile list is empty or the number of repetitions is greater than the threshold N times, the threshold is limited to N times, and the profiles included in the profile list in step S25 Halve the [Threshold]. Through the above processing, a profile is automatically selected, and the point
なお[Threshold]を小さくする方法としては、毎回減算する方法や、手動による入力を受け付ける方法などもある。また、点群からの形状復元をする際には[Score]だけでなく点群に含まれる点の数(Feature Points)も重要な要素であるため、繰り返し処理の中で点の数が、ある一定の閾値以下になってしまった場合には、プロファイルリストから対象のプロファイルを削除する。 As a method of decreasing [Threshold], there are a method of subtracting each time, a method of accepting manual input, and the like. In addition, when restoring a shape from a point cloud, not only [Score] but also the number of points contained in the point cloud (Feature Points) is an important factor. If the threshold is below a certain threshold, the target profile is deleted from the profile list.
点群獲得プログラム17の実行対象となるプロファイルの選択は、上記に述べたような閾値や評価関数による自動的な方法と、点群の3次元配置を目視により確認して手動の入力を受け付ける方法と、をどちらでも選択できるようにしても良い。
The selection of the profile to be executed by the point
手動選択に依る方法としては、図10に示すようにプロファイル選択画面の一覧を[Score]などと一緒に表示し、Thresholdの値を直接入力するための欄や、点群獲得プログラム17の実行対象となるプロファイルを選択するためのチェックボックスを設ける。このように、一度にすべてのプロファイルに関する入力を受け付けることで、プロファイルの選択に伴う手間やミスを削減することができる。 As a method based on manual selection, as shown in FIG. 10, a list of profile selection screens is displayed together with [Score] and the like, and a field for directly inputting a Threshold value or an execution target of the point cloud acquisition program 17 A check box for selecting a profile to be used is provided. In this way, by accepting inputs related to all profiles at once, it is possible to reduce labor and mistakes associated with profile selection.
図7のプロファイルに対してプロファイル選択機構14の処理を実施した場合を図11を使って説明する。処理実施前の各プロファイルの内容はThresholdの値は設定されているが、Score(平均誤差)やFeature Points(点群に含まれる点の数)は設定されていない。
A case where the processing of the
最初にすべてのプロファイルがプロファイルリストに追加されるため、I0001.prf〜I0004.prfの各プロファイルに点群獲得プログラム17が実行される。実行後の結果を図11に1回目の処理終了時として示す。
Since all profiles are initially added to the profile list, the point
ここで[Score]の閾値Vsを4.0とすると、I0001.prfとI0003.prfの[Score]は閾値Vsより小さいため、その二つのプロファイルはプロファイルリストから削除される。 Here, if the threshold Vs of [Score] is 4.0, since [Score] of I0001.prf and I0003.prf is smaller than the threshold Vs, the two profiles are deleted from the profile list.
残ったI0002.prfとI0004.prfに対して[Threshold]を、図11の2回目処理終了時に示すように半分の値(=10)にして再度、点群獲得プログラム17が実行される。しかし、I0004.prfは[Threshold]を「10」にしても[Score]が依然として閾値Vsより大きいため、図11の全処理終了時に示すように[Threshold]を「5」にして再実行される。
With respect to the remaining I0002.prf and I0004.prf, [Threshold] is set to a half value (= 10) as shown at the end of the second processing in FIG. 11, and the point
繰り返しの回数を2回に制限した(N=2)とすると最終的な結果が図11の下段に示す全処理終了時のように得られる。[Threshold]を小さくした結果、I0002.prfとI0004.prfでは点の数が削減されている。 Assuming that the number of repetitions is limited to 2 (N = 2), the final result is obtained as in the end of all processes shown in the lower part of FIG. As a result of reducing [Threshold], the number of points is reduced in I0002.prf and I0004.prf.
特にI0004.prfでは、[Score]を閾値Vs以下にすることができず、また、ほとんどの点が削除されてしまった。これはI0004.prfのシーケンスからは多数の点の位置を精度良く獲得することが難しいことを示す。I0004.prfの点群の扱いについては次の点群統合機構15で述べる。
In particular, in I0004.prf, [Score] could not be made lower than the threshold value Vs, and most of the points were deleted. This indicates that it is difficult to accurately obtain the positions of a large number of points from the sequence of I0004.prf. The handling of the point cloud of I0004.prf will be described in the next point
点群統合機構15では、各プロファイルから獲得された点群を一つの集合にまとめることで空間情報を生成する。その処理を図12のフローチャートに示す。まず、図12において、ステップS31で全てのプロファイルを読み込む(以下イメージプロファイルの各設定値を[Threshold]と表す)。
The point
上記で述べたように精度の高い点群を獲得できないシーケンスも存在するため、ステップS32では[Score]が閾値Vs以下のプロファイルの[Shape3D]を読み込み、その内容を空間情報ファイルに追加する。すなわち、空間情報ファイルには[Score]が閾値Vs以下の点群だけを追加する。 As described above, there is a sequence in which a point cloud with high accuracy cannot be obtained. Therefore, in step S32, [Shape3D] having a profile whose [Score] is equal to or lower than the threshold value Vs is read and the content is added to the spatial information file. That is, only the point group whose [Score] is equal to or less than the threshold value Vs is added to the spatial information file.
空間情報を生成後、ステップS33で形状復元プログラム18を実行するのに必要な設定ファイルを生成する。点群統合機構15でも、プロファイルの選択を閾値による自動的な方法以外に、手動による方法も受け付けることができるようにしても良い。
After generating the spatial information, a setting file necessary for executing the
具体的には、図13のプロファイル選択画面に示すようにプロファイルを[Score]や[Feature Points]などと共に一覧で示し、空間惰報に統合するプロファイルの選択を一括で入力できるようにする。 Specifically, as shown in the profile selection screen of FIG. 13, the profiles are listed together with [Score], [Feature Points], and the like so that selection of profiles to be integrated into the spatial intelligence can be input in a lump.
次に、図11の処理例によって生成されたプロファイルI0001.prf〜I0004.prfに対して、点群統合機構15の処理を実施した場合を説明する。
Next, a case where the processing of the point
最初にI0001.prfからI0004.prfまでのすべてのプロファイルが読み込まれる。このうちI0004.prfは[Score](=4.2)が閾値Vsより大きいため、点群の位置精度が低いと判断され、I0001.prfからI0003.prfまでの点群が空間情報ファイルM0001.XYZに加えられる。 First, all profiles from I0001.prf to I0004.prf are read. Among these, since [Score] (= 4.2) of I0004.prf is larger than the threshold value Vs, it is determined that the position accuracy of the point cloud is low, and the point cloud from I0001.prf to I0003.prf is stored in the spatial information file M0001.XYZ. Added.
具体的にはI0001.prfに[Shape3D]として登録されている各点の3次元座標値を記述したファイルI0001.xyzを読み込み、M0001.XYZに書き出す。同様にI0002.xyz,I0003.xyzを読み込んでM0001.XYZに追加する。 Specifically, the file I0001.xyz describing the three-dimensional coordinate values of each point registered as [Shape3D] in I0001.prf is read and written to M0001.XYZ. Similarly, I0002.xyz and I0003.xyz are read and added to M0001.XYZ.
次に、形状復元プログラム18のための設定ファイルM0001.prfを生成する。空間情報を記述したファイルの名前として「M0001.XYZ」をWorld Point Setに登録する。また、M0001.XYZに記述された3次元座標値の数として、3つのプロファイルの[Feature Points]の和を、M0001.prfのWorld Pointsの欄に登録する。
Next, a setting file M0001.prf for the
また、形状復元プログラム実行後に生成される形状ファイルのファイル名を記述する欄としてModel Fileを加え、図14に示す設定ファイルが自動的に生成される。 In addition, Model File is added as a column describing the file name of the shape file generated after execution of the shape restoration program, and the setting file shown in FIG. 14 is automatically generated.
以上の例により、市街地を空撮して取得した時系列画像から空間情報を復元し、市街地の3次元モデルを構築した例を図15に示す。高精度な点群の自動獲得処理において、プロファイル生成機構およびプロファイル選択機構が、空間情報の復元処理において、点群統合機構が、それぞれ利用される。 FIG. 15 shows an example in which spatial information is restored from a time-series image acquired by taking an aerial image of an urban area and a three-dimensional model of the urban area is constructed. In a highly accurate point cloud automatic acquisition process, a profile generation mechanism and a profile selection mechanism are used, and in a spatial information restoration process, a point cloud integration mechanism is used.
本発明は、時系列画像を入力として、点群獲得プログラムおよび形状復元プログラムが実行され、広域の3次元形状データ(市街地空間モデル)を全自動で得ることができるために、災害シミュレーションやカーナビなどの基礎データに利用できる。 In the present invention, a point cloud acquisition program and a shape restoration program are executed using a time-series image as input, and wide-area three-dimensional shape data (city space model) can be obtained fully automatically. Can be used for basic data.
11…シーケンス決定機構
12…プロファイル生成機構
13…プロファイル格納装置
14…プロファイル選択機構
15…点群統合機構
16…ファイルサーバ
17…点群獲得プログラム
18…形状復元プログラム
DESCRIPTION OF
Claims (9)
時系列画像を複数の画像列に分割するステップと、
分割後の各画像列から3次元点群を獲得する処理を複数回行って、複数の3次元点群を獲得するステップと、
複数の3次元点群を一つにまとめて、広域の3次元点群(以下、空間情報と称する)を獲得するステップと、
空間情報から広域の3次元形状を復元するステップと、を有する
ことを特徴とする3次元形状の復元方法。 A method for reconstructing a three-dimensional shape of a wide area from a time-series image obtained by photographing a whole area by repeating partial photographing of a photographing target area,
Dividing the time-series image into a plurality of image sequences;
Performing a process of acquiring a three-dimensional point group from each divided image sequence a plurality of times to acquire a plurality of three-dimensional point groups;
Combining a plurality of three-dimensional point groups into one to obtain a wide-area three-dimensional point group (hereinafter referred to as spatial information);
And a step of restoring a wide area three-dimensional shape from the spatial information.
時系列画像を複数の画像列に分割するステップは、
画像中の特徴点が、時系列画像において映し出されている枚数にもとづいて、画像列に含める画像の枚数を決定するステップと、
画像中における特徴点の画像座標の変化量にもとづいて、次の画像列の先頭画像を決定するステップと、を有する
ことを特徴とする3次元形状の復元方法。 The three-dimensional shape restoration method according to claim 1,
The step of dividing the time-series image into a plurality of image sequences is as follows:
Determining the number of images to be included in the image sequence based on the number of feature points in the image projected in the time-series image;
Determining the top image of the next image sequence based on the amount of change in the image coordinates of the feature points in the image.
部分的な画像列の指定、および、3次元点群を獲得するために必要なパラメータ、を一つのファイルにまとめるステップと、
すべての画像列に対して上記のファイルを生成するステップと、
上記のファイルを選択することによって点群を獲得する画像列の選択を行うステップと、
上記のファイルに点群の獲得結果を追加するステップと、
上記のファイルを選択することによって空間情報に含める点群のグループの選択を行うステップと、を有する
ことを特徴とする3次元形状の復元方法。 The three-dimensional shape restoration method according to claim 1,
Combining a partial image sequence specification and parameters necessary for obtaining a three-dimensional point cloud into one file;
Generating the above file for all image sequences;
Selecting an image sequence to acquire a point cloud by selecting the file;
Adding a point cloud acquisition result to the above file;
Selecting a group of point groups to be included in the spatial information by selecting the file, and a method of restoring a three-dimensional shape.
3次元点群の評価値が与えられた条件を満たす点群だけを集めて、空間情報を生成するステップと、を有する
ことを特徴とする3次元形状の復元方法。 The three-dimensional shape restoration method according to claim 1,
Collecting only point groups that satisfy the condition for which the evaluation value of the three-dimensional point group is given, and generating spatial information. A method for restoring a three-dimensional shape, comprising:
時系列画像を複数の画像列に分割する第1手段と、
この第1手段で分割した後の各画像列から3次元点群を獲得する処理を複数回行って、複数の3次元点群を獲得する第2手段と、
この第2手段で獲得した複数の3次元点群を一つにまとめて、広域の3次元点群(以下、空間情報と称する)を獲得する第3手段と、
この第3手段で獲得した空間情報から広域の3次元形状を復元する第4手段と、を有する
ことを特徴とする3次元形状の復元装置。 An apparatus that restores a wide-area three-dimensional shape from a time-series image obtained by repeatedly performing partial imaging of an imaging target area,
First means for dividing a time-series image into a plurality of image sequences;
A second means for obtaining a plurality of three-dimensional point groups by performing a process of obtaining a three-dimensional point group from each image sequence after being divided by the first means a plurality of times;
A plurality of three-dimensional point groups acquired by the second means, and a third means for acquiring a wide-area three-dimensional point group (hereinafter referred to as spatial information);
And a fourth means for restoring a wide-area three-dimensional shape from the spatial information acquired by the third means.
時系列画像を複数の画像列に分割する第1手段は、
画像中の特徴点が、時系列画像において映し出されている枚数にもとづいて、画像列に含める画像の枚数を決定する第1決定部と、
画像中における特徴点の画像座標の変化量にもとづいて、次の画像列の先頭画像を決定する第2決定部と、を有する
ことを特徴とする3次元形状の復元装置。 The three-dimensional shape restoration apparatus according to claim 5,
The first means for dividing the time-series image into a plurality of image sequences includes:
A first determination unit that determines the number of images to be included in the image sequence based on the number of feature points in the image displayed in the time-series image;
A three-dimensional shape restoration apparatus comprising: a second determination unit that determines a head image of a next image sequence based on a change amount of an image coordinate of a feature point in an image.
部分的な画像列の指定、および、3次元点群を獲得するために必要なパラメータ、を一つのファイルにまとめる統合手段と、
すべての画像列に対して上記のファイルを生成する生成手段と、
上記のファイルを選択することによって点群を獲得する画像列の選択を行う選択手段と、
上記のファイルに点群の獲得結果を追加する追加手段と、
上記のファイルを選択することによって空間情報に含める点群のグループの選択を行うグループ選択手段と、を有する
ことを特徴とする3次元形状の復元装置。 The three-dimensional shape restoration apparatus according to claim 5,
An integration means for combining partial image sequence specification and parameters necessary for acquiring a three-dimensional point cloud into one file;
Generating means for generating the above file for all image sequences;
A selection means for selecting an image sequence for acquiring a point cloud by selecting the above file;
Additional means for adding point cloud acquisition results to the above file;
A three-dimensional shape restoration apparatus comprising: a group selection unit that selects a group of point groups to be included in the spatial information by selecting the file.
前記第3手段は、3次元点群の評価値が与えられた条件を満たす点群だけを集めて、空間情報を生成するものである、
ことを特徴とする3次元形状の復元装置。 The three-dimensional shape restoration apparatus according to claim 5,
The third means collects only the point group that satisfies the condition for which the evaluation value of the three-dimensional point group is given, and generates spatial information.
A three-dimensional shape restoration apparatus.
ことを特徴とする3次元形状の復元プログラム。
The step in the three-dimensional shape restoration method according to any one of claims 1 to 5 is a program for causing a computer to execute.
A program for restoring a three-dimensional shape.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003291015A JP2005061931A (en) | 2003-08-11 | 2003-08-11 | Three-dimensional shape recovery method, its apparatus, and three-dimensional shape recovery program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003291015A JP2005061931A (en) | 2003-08-11 | 2003-08-11 | Three-dimensional shape recovery method, its apparatus, and three-dimensional shape recovery program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005061931A true JP2005061931A (en) | 2005-03-10 |
Family
ID=34368835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003291015A Pending JP2005061931A (en) | 2003-08-11 | 2003-08-11 | Three-dimensional shape recovery method, its apparatus, and three-dimensional shape recovery program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005061931A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007322357A (en) * | 2006-06-05 | 2007-12-13 | Fujitsu Ltd | Program, apparatus and method for measuring distance |
JP2015114954A (en) * | 2013-12-13 | 2015-06-22 | 株式会社ジオ技術研究所 | Photographing image analysis method |
CN111612689A (en) * | 2020-05-28 | 2020-09-01 | 上海联影医疗科技有限公司 | Medical image processing method, apparatus, computer device and readable storage medium |
JP2021036449A (en) * | 2011-10-28 | 2021-03-04 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | System and method for augmented and virtual reality |
-
2003
- 2003-08-11 JP JP2003291015A patent/JP2005061931A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007322357A (en) * | 2006-06-05 | 2007-12-13 | Fujitsu Ltd | Program, apparatus and method for measuring distance |
JP2021036449A (en) * | 2011-10-28 | 2021-03-04 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | System and method for augmented and virtual reality |
JP2015114954A (en) * | 2013-12-13 | 2015-06-22 | 株式会社ジオ技術研究所 | Photographing image analysis method |
CN111612689A (en) * | 2020-05-28 | 2020-09-01 | 上海联影医疗科技有限公司 | Medical image processing method, apparatus, computer device and readable storage medium |
CN111612689B (en) * | 2020-05-28 | 2024-04-05 | 上海联影医疗科技股份有限公司 | Medical image processing method, medical image processing device, computer equipment and readable storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10110817B2 (en) | Image processing device and method, and program for correcting an imaging direction | |
RU2007113914A (en) | NUMERICAL DECISION AND CONSTRUCTION OF THREE-DIMENSIONAL VIRTUAL MODELS ON AERIAL PICTURES | |
JP6921686B2 (en) | Generator, generation method, and program | |
US11295142B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
US20220078385A1 (en) | Projection method based on augmented reality technology and projection equipment | |
US10719975B2 (en) | Information processing apparatus and method of generating three-dimensional model | |
US20210264666A1 (en) | Method for obtaining photogrammetric data using a layered approach | |
JP2018113683A (en) | Image processing apparatus, image processing method, and program | |
CN110009675A (en) | Generate method, apparatus, medium and the equipment of disparity map | |
JP6110780B2 (en) | Additional information display system | |
JP6425511B2 (en) | Method of determining feature change and feature change determination apparatus and feature change determination program | |
JP5743501B2 (en) | Object tracking device, object tracking method, and object tracking program | |
CN107346536B (en) | Image fusion method and device | |
US9197882B2 (en) | Mobile communication terminal having image conversion function and method | |
CN113034347A (en) | Oblique photographic image processing method, device, processing equipment and storage medium | |
JP2005061931A (en) | Three-dimensional shape recovery method, its apparatus, and three-dimensional shape recovery program | |
US20090213121A1 (en) | Image processing method and apparatus | |
CN114175019A (en) | Image display device, method, and program | |
JP2005063129A (en) | Method, device and program for obtaining texture image from time-series image, and recording media for recording this program | |
JP6110807B2 (en) | Image processing device | |
CN109087338B (en) | Method and device for extracting image sparse optical flow | |
JP6606748B2 (en) | Stereo pair image display device | |
CN110148086A (en) | The depth polishing method, apparatus and three-dimensional rebuilding method of sparse depth figure, device | |
CN116385273B (en) | Method, system and storage medium for moving points in stepping panoramic roaming | |
JP4025556B2 (en) | Feature point tracking image determination device, feature point tracking image determination method, program for the method, and recording medium recording the program |