JP4588369B2 - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP4588369B2
JP4588369B2 JP2004181809A JP2004181809A JP4588369B2 JP 4588369 B2 JP4588369 B2 JP 4588369B2 JP 2004181809 A JP2004181809 A JP 2004181809A JP 2004181809 A JP2004181809 A JP 2004181809A JP 4588369 B2 JP4588369 B2 JP 4588369B2
Authority
JP
Japan
Prior art keywords
unit
image
photographing
image data
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004181809A
Other languages
Japanese (ja)
Other versions
JP2006003280A (en
Inventor
伸夫 高地
弘幸 青木
仁志 大谷
光晴 山田
忠之 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2004181809A priority Critical patent/JP4588369B2/en
Priority to EP05012977A priority patent/EP1607716A3/en
Priority to US11/154,959 priority patent/US7986825B2/en
Publication of JP2006003280A publication Critical patent/JP2006003280A/en
Application granted granted Critical
Publication of JP4588369B2 publication Critical patent/JP4588369B2/en
Priority to US13/176,362 priority patent/US8559702B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

この発明は、空中や地上で撮影された対象物の画像から効率よく当該対象物に関する3D(三次元)モデルを作成するのに好適な撮影装置及び撮影方法に関する。   The present invention relates to a photographing apparatus and a photographing method suitable for efficiently creating a 3D (three-dimensional) model related to an object from an image of the object photographed in the air or on the ground.

本出願人の提案にかかる特許文献1に記載されているように、最近のデジタル技術の進歩により、レーザースキャナー或いはデジタル写真測量の手法を用いて、計測対象の詳細な3Dデータ及び高分解能な画像データが容易に取得出来るようになってきている。たとえば、デジタルカメラによる近接写真測量や、地上型の自動追尾式測量機のような機器によれば、地上からの対象物側面に関しては詳細な計測が可能である。   As described in Patent Document 1 relating to the proposal of the present applicant, due to recent advances in digital technology, detailed 3D data and high-resolution images of a measurement object can be obtained using a laser scanner or digital photogrammetry. Data can be easily acquired. For example, with a device such as a close-up photogrammetry using a digital camera or a ground-type automatic tracking surveying instrument, detailed measurement can be performed with respect to an object side surface from the ground.

特開2002−352224号公報 図2JP 2002-352224 A FIG.

しかしながら、自動追尾式測量機により取得した3Dデータは、基本的には距離データを含む三次元座標データにて構成されている。そこで、自動追尾式測量機により取得した3Dデータと現場状況との対応づけが困難で、3Dデータを測定対象物の画像情報と紐付ける作業を行なう際に、測定対象物の何れの位置を計測したのか困難になるという課題があることが判明した。また、地上に設置された自動追尾式測量機により取得した3Dデータには、たとえばビルの屋上や道路などの上空からの3Dデータが取得できないという課題があった。   However, 3D data acquired by an automatic tracking surveying instrument is basically composed of three-dimensional coordinate data including distance data. Therefore, it is difficult to associate the 3D data acquired by the automatic tracking surveying instrument with the on-site situation, and any position of the measurement object is measured when performing the operation of associating the 3D data with the image information of the measurement object. It turned out that there was a problem that it would be difficult. Further, 3D data acquired by an automatic tracking surveying instrument installed on the ground has a problem that 3D data from the sky of a building rooftop or a road cannot be acquired.

他方で、ヘリコプターや航空機等の飛行体に設置するための、デジタルカメラやレーザースキャナー機器も近年になって開発されてきている。しかし、このような上空からの撮影画像と、地上からの撮影画像を組合せて対象物の3Dモデルを作成する場合には、撮影方向の相違や撮影縮尺・レンズ収差の相違に基づく画像歪が大きくなり、撮影画像の集成負担が大きく、対象物の3Dモデルを作成することが困難であるという課題があった。   On the other hand, digital cameras and laser scanner devices for installation on flying objects such as helicopters and aircraft have been developed in recent years. However, when a 3D model of an object is created by combining such a photographed image from the sky and a photographed image from the ground, the image distortion based on the difference in the shooting direction and the difference in shooting scale and lens aberration is large. Therefore, there is a problem that it is difficult to create a 3D model of an object because the burden of collecting captured images is large.

本発明は上述した課題を解決したもので、空中や地上で撮影された対象物の画像を集成して、効率よく当該対象物に関する3Dモデルを作成できる撮影装置及び撮影方法を提供することを目的とする。   SUMMARY OF THE INVENTION The present invention solves the above-described problems, and an object thereof is to provide an imaging apparatus and an imaging method capable of efficiently creating a 3D model related to an object by collecting images of the objects imaged in the air or on the ground. And

上記目的を達成する本発明の撮影装置は、例えば図1に示すように、撮影部110と、撮影部110の撮影位置情報を取得する撮影位置測定部120と、位置既知点を有する対象物10の複数の画像データを記憶する画像データ記憶部130と、画像データ記憶部130に記憶された画像データを用いて、対象物10の三次元モデルを形成するモデル形成部210と、モデル形成部210で形成された対象物10の三次元モデルに関して、画像データ記憶部130に記憶された画像データと、撮影位置測定部120で得られる撮影位置情報に基づいて、撮影部110の撮影位置から視認される対象物10の三次元モデル画像を表示するモデル表示部160とを備えている。   The imaging apparatus of the present invention that achieves the above object includes, as shown in FIG. 1, for example, an imaging unit 110, an imaging position measuring unit 120 that acquires imaging position information of the imaging unit 110, and an object 10 having a known position point. An image data storage unit 130 that stores a plurality of image data, a model formation unit 210 that forms a three-dimensional model of the object 10 using the image data stored in the image data storage unit 130, and a model formation unit 210 The three-dimensional model of the object 10 formed in step S1 is visually recognized from the photographing position of the photographing unit 110 based on the image data stored in the image data storage unit 130 and the photographing position information obtained by the photographing position measuring unit 120. And a model display unit 160 that displays a three-dimensional model image of the target object 10.

このように構成された装置においては、撮影部110が移動した場合の、撮影部110の撮影位置から視認される対象物10の三次元モデル画像がモデル表示部160に表示されるので、撮影部110の撮影位置が対象物10のモデル形成に必要な撮影位置として適切であるか否かが、撮影者にとって判別可能である。   In the apparatus configured as described above, since the three-dimensional model image of the object 10 viewed from the photographing position of the photographing unit 110 when the photographing unit 110 moves is displayed on the model display unit 160, the photographing unit It is possible for the photographer to determine whether or not the photographing position 110 is appropriate as a photographing position necessary for forming the model of the object 10.

本発明の請求項1に記載の撮影装置において、好ましくは、さらに、撮影位置情報と共に前記画像データ記憶部に記憶された第1の撮影画像と、モデル表示部160に表示される第2の撮影画像とを用いて、モデル形成部210において対象物10の三次元モデルを形成すると共に、第1及び第2の撮影画像に関する撮影位置情報から、対象物10の三次元測定をする場合の測定精度、基線、撮影位置、撮影角度、撮影部間隔の少なくとも一つを求める撮影条件測定部220を備えるとよい。   In the photographing apparatus according to the first aspect of the present invention, preferably, a first photographed image stored in the image data storage unit together with photographing position information and a second photographing displayed on the model display unit 160 are further provided. Measurement accuracy when the model forming unit 210 forms a three-dimensional model of the object 10 using the image and performs three-dimensional measurement of the object 10 from the photographing position information regarding the first and second photographed images. It is preferable to include a photographing condition measuring unit 220 that obtains at least one of a baseline, a photographing position, a photographing angle, and a photographing unit interval.

上記目的を達成する本発明の撮影装置は、例えば図3に示すように、対象物10を撮影する撮影部110と、撮影部110の撮影位置を指定する撮影位置指示部180と、位置既知点を有する対象物の複数の画像データを記憶する画像データ記憶部130と、画像データ記憶部130に記憶された画像データを用いて、対象物10の三次元モデルを形成するモデル形成部210と、モデル形成部210で形成された対象物10の三次元モデルに関して、画像データ記憶部130に記憶された画像データと、撮影位置指示部180で指定された撮影位置に基づいて、撮影部110の指定撮影位置から視認される対象物10の三次元モデル画像を表示するモデル表示部165とを備えるものである。   The imaging apparatus of the present invention that achieves the above object includes, for example, as shown in FIG. 3, an imaging unit 110 that images the object 10, an imaging position instruction unit 180 that specifies the imaging position of the imaging unit 110, An image data storage unit 130 that stores a plurality of image data of an object having a model, a model formation unit 210 that forms a three-dimensional model of the object 10 using image data stored in the image data storage unit 130, and With respect to the three-dimensional model of the object 10 formed by the model forming unit 210, the designation of the photographing unit 110 is performed based on the image data stored in the image data storage unit 130 and the photographing position designated by the photographing position instruction unit 180. And a model display unit 165 that displays a three-dimensional model image of the object 10 viewed from the shooting position.

このように構成された装置においては、撮影位置指示部180で指定された撮影位置に撮影部110が移動した場合の、撮影部110の撮影位置から視認される対象物10の三次元モデル画像がモデル表示部165に表示されるので、撮影位置指示部180で指定された撮影位置が対象物10のモデル形成に必要な撮影位置として適切であるか否かが、撮影者にとって判別可能である。   In the apparatus configured as described above, when the photographing unit 110 moves to the photographing position designated by the photographing position instruction unit 180, the three-dimensional model image of the object 10 visually recognized from the photographing position of the photographing unit 110 is obtained. Since it is displayed on the model display unit 165, it is possible for the photographer to determine whether or not the shooting position specified by the shooting position instruction unit 180 is appropriate as a shooting position necessary for forming the model of the object 10.

本発明の請求項3に記載の撮影装置において、好ましくは、さらに、撮影部110の撮影位置情報を取得する撮影位置測定部120を有し、第1及び第2の撮影画像に対する撮影位置情報から、対象物10の三次元測定をする場合の測定精度、基線、撮影位置、撮影角度、撮影部間隔の少なくとも一つを求める撮影条件測定部220を備えるとよい。ここで、第1及び第2の撮影画像は、撮影位置情報と共に画像データ記憶部130に記憶された第1の撮影画像と、モデル表示部165に表示される第2の撮影画像とを用いて、モデル形成部210において対象物10の三次元モデルを形成するものである。   In the photographing apparatus according to claim 3 of the present invention, preferably, the photographing apparatus further includes a photographing position measuring unit 120 that acquires photographing position information of the photographing unit 110, and is based on the photographing position information with respect to the first and second photographed images. The imaging condition measuring unit 220 may be provided to obtain at least one of measurement accuracy, base line, imaging position, imaging angle, and imaging unit interval when performing three-dimensional measurement of the object 10. Here, the first and second photographed images use the first photographed image stored in the image data storage unit 130 together with the photographing position information and the second photographed image displayed on the model display unit 165. The model forming unit 210 forms a three-dimensional model of the object 10.

本発明の撮影装置において、好ましくは、画像データ記憶部130には、撮影部110以外の撮影機器で撮影された少なくとも一組のステレオ画像であって、モデル形成部210において当該ステレオ画像を用いて対象物10の三次元モデルが形成可能な当該ステレオ画像が記憶される。一組のステレオ画像には、例えば撮影部110以外の撮影機器で撮影されたステレオ画像(小縮尺の航空写真)が用いられる。このステレオ画像は、本撮影装置の撮影部以外で撮影された画像であり、撮影部110で撮影される画像と比較して広域撮影画像であることが望ましく、撮影部110で撮影された画像に対して、小縮尺、低解像度、広域を撮影した画像を意味することが一般的である。なお、本撮影装置の撮影部以外で撮影された画像に代えて、本撮影装置の撮影部110で撮影した画像のみを用いて、3Dモデルの形成処理等を施すこともできる。   In the photographing apparatus of the present invention, preferably, the image data storage unit 130 includes at least one set of stereo images photographed by a photographing device other than the photographing unit 110, and the model forming unit 210 uses the stereo images. The stereo image that can form a three-dimensional model of the object 10 is stored. As the set of stereo images, for example, stereo images (small-scale aerial photographs) captured by a photographing device other than the photographing unit 110 are used. This stereo image is an image taken by a part other than the photographing unit of the photographing apparatus, and is desirably a wide-area photographed image compared to an image photographed by the photographing unit 110. On the other hand, it generally means an image obtained by photographing a small scale, a low resolution, and a wide area. It should be noted that the 3D model forming process or the like can be performed using only the image photographed by the photographing unit 110 of the photographing apparatus instead of the image photographed by a part other than the photographing part of the photographing apparatus.

本発明の撮影装置において、好ましくは、画像データ記憶部130に記憶されている画像は、撮影部110以外の撮影機器で撮影された、ステレオ航空写真、ステレオの小縮尺写真、ステレオの低解像度画像、広域撮影画像の少なくとも一つを含むとよい。   In the photographing apparatus of the present invention, it is preferable that the image stored in the image data storage unit 130 is a stereo aerial photograph, a stereo small scale photograph, or a stereo low-resolution image photographed by a photographing device other than the photographing unit 110. It is preferable to include at least one of the wide-area photographed images.

本発明の撮影装置において、好ましくは、撮影部110で撮影された画像データに、対象物画像に重畳して対象物10の位置既知点を表示することが可能な状態で、画像データ記憶部130に記憶されるように構成され、しかして、画像データ記憶部130に記憶された前記対象物画像が、モデル形成部210において対象物10の三次元モデルを形成するための画像として利用可能に構成されているとよい。   In the imaging apparatus of the present invention, preferably, the image data storage unit 130 is in a state where the position known point of the object 10 can be displayed on the image data captured by the imaging unit 110 while being superimposed on the object image. The object image stored in the image data storage unit 130 can be used as an image for forming a three-dimensional model of the object 10 in the model forming unit 210. It is good to be.

本発明の撮影装置において、好ましくは、撮影部110は、撮影位置情報と共に画像データ記憶部130に記憶される第1の撮影画像と、対象物画像に関して当該第1の撮影画像と重複領域を有する状態で撮影される第2の撮影とを撮影し、画像データ記憶部130は、第1の撮影画像と第2の撮影画像を逐次記憶するように構成されているとよい。   In the photographing apparatus of the present invention, preferably, the photographing unit 110 has a first photographed image stored in the image data storage unit 130 together with the photographing position information, and an overlapping area with the first photographed image with respect to the object image. The second photographing taken in the state is photographed, and the image data storage unit 130 is preferably configured to sequentially store the first photographed image and the second photographed image.

本発明の撮影装置において、好ましくは、撮影部110は、視野に含まれている対象物10を異なる撮影位置で逐次撮影すると共に、さらに、当該逐次撮影された対象物10の画像データに基づく対象物画像を表示するモニター画像表示部150を有するとよい。   In the photographing apparatus of the present invention, preferably, the photographing unit 110 sequentially photographs the object 10 included in the field of view at different photographing positions, and further, an object based on the image data of the sequentially photographed object 10. A monitor image display unit 150 that displays an object image may be provided.

本発明の撮影装置において、好ましくは、さらに、モニター画像表示部150に、前記逐次撮影された対象物10の画像データに重畳させて、基準点又はパスポイントの少なくとも一方を表示するための基準点表示位置演算部230を有するとよい。   In the photographing apparatus of the present invention, preferably, a reference point for displaying at least one of a reference point or a pass point on the monitor image display unit 150 so as to be superimposed on the image data of the sequentially photographed object 10. A display position calculation unit 230 may be provided.

本発明の撮影装置において、好ましくは、さらに、撮影条件測定部220で測定された撮影条件を表示する測定条件表示部170を有するように構成されているとよい。   The imaging apparatus of the present invention is preferably configured to further include a measurement condition display unit 170 that displays the imaging conditions measured by the imaging condition measurement unit 220.

上記目的を達成する本発明の撮影装置300は、例えば図5に示すように、対象物10を撮影する撮影部110と、撮影部110が撮影する対象物10を表示するファインダー画像表示部190と、位置既知点を有する対象物10の複数の画像データを記憶する画像データ記憶部130と、画像データ記憶部130に記憶された画像データを用いて、対象物10の基準点データ又は三次元モデルを形成するデータ形成部240とを備え、ファインダー画像表示部190は、基準点データ又は三次元モデルを、対象物画像上に表示するように構成されている。   An imaging apparatus 300 of the present invention that achieves the above object includes, as shown in FIG. 5, for example, an imaging unit 110 that captures an object 10, and a finder image display unit 190 that displays the object 10 captured by the imaging unit 110. An image data storage unit 130 that stores a plurality of image data of the target object 10 having a position-known point, and a reference point data or a three-dimensional model of the target object 10 using the image data stored in the image data storage unit 130 The finder image display unit 190 is configured to display the reference point data or the three-dimensional model on the object image.

このように構成された装置においては、ファインダー画像表示部190に表示される撮影部110が撮影する対象物10に対して、データ形成部240によって画像データ記憶部130に記憶された画像データを用いて形成された対象物10の基準点データ又は三次元モデルを、対象物画像上に表示するので、撮影部110の撮影位置が既に対象物10の基準点データ又は三次元モデルの存在しているものか、撮影者にとって判別可能であり、対象物10の三次元モデル作成に必要とされる撮影作業が円滑に行なえる。   In the apparatus configured as described above, the image data stored in the image data storage unit 130 by the data forming unit 240 is used for the object 10 captured by the imaging unit 110 displayed on the finder image display unit 190. Since the reference point data or three-dimensional model of the object 10 formed in this way is displayed on the object image, the reference point data or three-dimensional model of the object 10 already exists at the photographing position of the photographing unit 110. It is possible for the photographer to determine whether or not the object is photographed, and the photographing work required for creating the three-dimensional model of the object 10 can be performed smoothly.

上記目的を達成する本発明の撮影方法は、例えば図2に示すように、撮影部110により対象物10を撮影する際の撮影位置情報を取得し(S110)、位置既知点を有する対象物10の複数の画像データを記憶する画像データ記憶部130に記憶された画像データを用いて、対象物10の三次元モデルを形成し(S120)、対象物10の三次元モデルに関して、画像データ記憶部130に記憶された画像データと、前記撮影位置情報に基づいて、撮影部110の撮影位置から視認される対象物10の三次元モデル画像を表示する(S130)各工程をコンピュータに実行させるものである。   For example, as shown in FIG. 2, the imaging method of the present invention that achieves the above object acquires imaging position information when the object 10 is imaged by the imaging unit 110 (S <b> 110), and the object 10 having a position known point. A three-dimensional model of the object 10 is formed using the image data stored in the image data storage unit 130 that stores the plurality of image data (S120), and the image data storage unit is related to the three-dimensional model of the object 10. Based on the image data stored in 130 and the shooting position information, a three-dimensional model image of the object 10 viewed from the shooting position of the shooting unit 110 is displayed (S130). is there.

上記目的を達成する本発明の撮影方法は、例えば図4に示すように、撮影部110により対象物10を撮影する際の、撮影位置として指定された情報を入力し(S210)、位置既知点を有する対象物10の複数の画像データを記憶する画像データ記憶部130に記憶された画像データを用いて、対象物10の三次元モデルを形成し(S220)、対象物10の三次元モデルに関して、画像データ記憶部130に記憶された画像データと、前記指定された撮影位置に基づいて、撮影部110の指定撮影位置から視認される対象物10の三次元モデル画像を表示する(S230)各工程をコンピュータに実行させるものである。   For example, as shown in FIG. 4, the imaging method of the present invention that achieves the above object inputs information designated as the imaging position when imaging the object 10 by the imaging unit 110 (S210). A three-dimensional model of the target object 10 is formed using the image data stored in the image data storage unit 130 that stores a plurality of image data of the target object 10 (S220). Based on the image data stored in the image data storage unit 130 and the designated photographing position, a three-dimensional model image of the object 10 viewed from the designated photographing position of the photographing unit 110 is displayed (S230). The process is executed by a computer.

請求項1に記載の本発明の撮影装置によれば、撮影部110が移動した場合の、撮影部110の撮影位置から視認される対象物10の三次元モデル画像がモデル表示部160に表示されるので、撮影部110の撮影位置が対象物10のモデル形成に必要な撮影位置として適切であるか否かが、撮影者にとって判別可能であり、対象物10の三次元モデル作成に必要とされる撮影作業が円滑に行なえる。   According to the imaging device of the present invention described in claim 1, the three-dimensional model image of the object 10 visually recognized from the imaging position of the imaging unit 110 when the imaging unit 110 moves is displayed on the model display unit 160. Therefore, it is possible for the photographer to determine whether or not the photographing position of the photographing unit 110 is appropriate as a photographing position necessary for forming the model of the object 10, and is necessary for creating a three-dimensional model of the object 10. The shooting work can be performed smoothly.

請求項3に記載の本発明の撮影装置によれば、撮影位置指示部180で指定された撮影位置に撮影部110が移動した場合の、撮影部110の撮影位置から視認される対象物10の三次元モデル画像がモデル表示部165に表示されるので、撮影位置指示部180で指定された撮影位置が対象物10のモデル形成に必要な撮影位置として適切であるか否かが、撮影者にとって判別可能であり、対象物10の三次元モデル作成に必要とされる撮影作業が円滑に行なえる。   According to the imaging apparatus of the present invention described in claim 3, the object 10 visually recognized from the imaging position of the imaging unit 110 when the imaging unit 110 moves to the imaging position designated by the imaging position instruction unit 180. Since the three-dimensional model image is displayed on the model display unit 165, whether or not the photographing position designated by the photographing position instruction unit 180 is appropriate as a photographing position necessary for forming the model of the object 10 is determined for the photographer. It is possible to discriminate, and the photographing work required for creating the three-dimensional model of the object 10 can be performed smoothly.

請求項12に記載の本発明の撮影装置によれば、ファインダー画像表示部190に表示される撮影部110が撮影する対象物10に対して、データ形成部240によって画像データ記憶部130に記憶された画像データを用いて形成された対象物10の基準点データ又は三次元モデルを、対象物画像上に表示するので、撮影部110の撮影位置が既に対象物10の基準点データ又は三次元モデルの存在しているものか、撮影者にとって判別可能であり、対象物10の三次元モデル作成に必要とされる撮影作業が円滑に行なえる。   According to the photographic device of the present invention described in claim 12, the data forming unit 240 stores the object 10 captured by the photographing unit 110 displayed on the finder image display unit 190 in the image data storage unit 130. Since the reference point data or the three-dimensional model of the object 10 formed using the image data is displayed on the object image, the photographing position of the photographing unit 110 is already the reference point data or the three-dimensional model of the object 10. Therefore, it is possible for the photographer to determine whether or not the image is present, and the photographing work required for creating the three-dimensional model of the object 10 can be performed smoothly.

以下図面を用いて本発明を説明する。   The present invention will be described below with reference to the drawings.

図6は本発明の一実施の形態を説明する全体構成図である。対象物10は、測定対象物や製作対象物となる有体物で、例えば都市計画、建築、メンテナンス、文化財の領域に含まれる建築物等の各種工作物や人物・風景等が該当する。図において、本発明の撮影装置は、撮影ユニットハウジング100、撮影部110、撮影部110の撮影位置情報を取得する撮影位置測定部120、125、位置既知点を有する対象物10の複数の画像データを記憶する画像データ記憶部130、モニター画像表示部150、モデル表示部160、測定条件表示部170、演算処理部200を有しているもので、例えば撮影ガイディングシステム(Virtual Guiding System)と呼ばれる。   FIG. 6 is an overall configuration diagram for explaining an embodiment of the present invention. The object 10 is a tangible object that is a measurement object or a production object, and includes, for example, various works such as buildings included in the areas of city planning, architecture, maintenance, and cultural properties, and people and landscapes. In the figure, the photographing apparatus of the present invention includes a photographing unit housing 100, a photographing unit 110, photographing position measuring units 120 and 125 for obtaining photographing position information of the photographing unit 110, and a plurality of image data of an object 10 having a known position point. Including an image data storage unit 130, a monitor image display unit 150, a model display unit 160, a measurement condition display unit 170, and an arithmetic processing unit 200, for example, called a photographing guiding system (Virtual Guiding System) .

撮影ユニットハウジング100は、撮影部110と撮影位置測定部120、125を一体に保持するもので、撮影者が操作しやすいように小型軽量化されている。撮影部110には、例えばデジタルカメラとして、民生用のデジタルカメラが利用可能であり、好ましくはビデオ出力可能なものが好ましい。画素数は、必要な解像度に応じて選択される。撮影位置測定部120は、撮影部110の撮影位置(X,Y,Z)を地球上における緯度・経度・高度として測定できるようにGPSが用いられる。撮影位置測定部120には、例えば、キネマティックとリアルタイムキネマティックの切替えが可能なものが好ましい。撮影位置測定部125は、撮影部110の撮影姿勢(Yaw, Pitch, Law)を測定する3軸角度センサーを用いる。撮影位置測定部125は、例えば分解能0.05°で、静止時精度が1°RMS、動的精度が3°RMSとなっている。   The photographing unit housing 100 integrally holds the photographing unit 110 and the photographing position measuring units 120 and 125, and is small and lightweight so that the photographer can easily operate. For the photographing unit 110, for example, a digital camera for consumer use can be used as a digital camera, and a camera capable of outputting video is preferable. The number of pixels is selected according to the required resolution. The photographing position measuring unit 120 uses GPS so that the photographing position (X, Y, Z) of the photographing unit 110 can be measured as latitude, longitude, and altitude on the earth. The photographing position measuring unit 120 is preferably capable of switching between kinematic and real-time kinematics, for example. The photographing position measuring unit 125 uses a three-axis angle sensor that measures the photographing posture (Yaw, Pitch, Law) of the photographing unit 110. The photographing position measuring unit 125 has, for example, a resolution of 0.05 °, a stationary accuracy of 1 ° RMS, and a dynamic accuracy of 3 ° RMS.

演算処理部200には、例えば汎用のノート型パソコンを用いることができ、撮影部110で撮影された画像情報と、撮影位置測定部120、125で測定された撮影部110の位置情報(X,Y,Z)と姿勢情報(Yaw, Pitch, Law)が入力される。汎用のノート型パソコンには、フレキシブル・ディスク記憶装置やCDROM等の電磁気的記憶装置が設けられており、画像データ記憶部130として使用される。汎用のノート型パソコンの液晶表示パネルは、モニター画像表示部150、モデル表示部160、測定条件表示部170として使用される。汎用のノート型パソコンには、ソフトウェアとしてモデル形成部210、撮影条件測定部220並びに基準点表示位置演算部230が格納されている。   As the arithmetic processing unit 200, for example, a general-purpose notebook computer can be used. The image information captured by the image capturing unit 110 and the position information (X, X) of the image capturing unit 110 measured by the image capturing position measuring units 120 and 125 are used. Y, Z) and posture information (Yaw, Pitch, Law) are input. A general-purpose notebook personal computer is provided with an electromagnetic storage device such as a flexible disk storage device or a CDROM, and is used as the image data storage unit 130. A liquid crystal display panel of a general-purpose notebook computer is used as a monitor image display unit 150, a model display unit 160, and a measurement condition display unit 170. A general-purpose notebook personal computer stores a model formation unit 210, an imaging condition measurement unit 220, and a reference point display position calculation unit 230 as software.

モデル形成部210は、画像データ記憶部130に記憶された画像データを用いて、対象物10の三次元モデルを形成するもので、具体的な三次元モデル作成演算式は、例えば本出願人の提案にかかる特開2004−037270号公報に記載されている。モデル形成部210は、例えば株式会社トプコンより供給される3D計測システムPI−3000V2(商品名)として供給されており、航空写真からデジタルカメラによる画像まで一括して3D計測、モデリングできるシステムである。   The model forming unit 210 forms a three-dimensional model of the object 10 using the image data stored in the image data storage unit 130. A specific three-dimensional model creation arithmetic expression is, for example, the one of the applicant of the present application. It describes in Unexamined-Japanese-Patent No. 2004-037270 concerning a proposal. The model forming unit 210 is supplied as, for example, a 3D measurement system PI-3000V2 (trade name) supplied from Topcon Corporation, and is a system capable of performing 3D measurement and modeling all at once from aerial photographs to digital camera images.

撮影条件測定部220は、第1及び第2の撮影画像に関する撮影位置情報から、対象物10の三次元測定をする場合の測定精度、基線、撮影位置、撮影角度、撮影部間隔を測定して、測定条件表示部170に測定結果を表示する。第1及び第2の撮影画像は、撮影位置情報と共に画像データ記憶部130に記憶された第1の撮影画像と、モニター画像表示部150に表示される第2の撮影画像であって、撮影後モデル形成部210において対象物10の三次元モデルを形成するのに用いられる。 The imaging condition measurement unit 220 measures the measurement accuracy, the baseline, the imaging position, the imaging angle, and the imaging unit interval when performing the three-dimensional measurement of the object 10 from the imaging position information regarding the first and second captured images. The measurement result is displayed on the measurement condition display unit 170. First and second captured images may include a first captured image stored in the image data storage unit 130 together with the photographing position information, a second photographed image displayed on the monitor image display unit 150, after shooting The model forming unit 210 is used to form a three-dimensional model of the object 10.

基準点表示位置演算部230は、撮影部110のファインダーの画像情報に対して、あらかじめ入力された基準点座標がファインダーの画像上の表示位置として配置されるかを計算して、モニター画像表示部150で表示されているファインダー画像上に、当該基準点が対象物10に重畳した状態でリアルタイム表示を行なう。   The reference point display position calculation unit 230 calculates, based on the image information of the finder of the photographing unit 110, whether or not the reference point coordinates input in advance are arranged as the display position on the finder image. Real-time display is performed with the reference point superimposed on the object 10 on the viewfinder image displayed at 150.

図7は液晶表示パネルに表示される画面の一例を説明する図で、モニター画像表示部150、モデル表示部160、測定条件表示部170として使用される。モニター画像表示部150は、ファインダー画像表示部190としても用いられるもので、撮影部110のファインダーの画像情報が、各種インターフェースを経由して演算処理部200を構成するコンピュータに送られ、液晶表示パネル上に表示される。基準点表示位置演算部230により、ファインダーの画像情報に含まれている対象物10に関する基準点が、重畳した状態で表示される。これにより、モニター画像表示部150上に基準点が何個写るかが、撮影部110の撮影時に判断できる。モニター画像表示部150は、撮影部110で撮影され、画像データ記憶部130に記憶されている影画像を逐次呼び出して表示させる構造としてもよい。図7の装置においては、3個の画面を表示できるように設計されており、左2つの画面が撮影され画像データ記憶部130に記憶されている画像で、最も右の画面が現在撮影部110で取込まれている画像を表示させている。撮影者は、モニター画像表示部150で表示される3画面をリアルタイムで確認をしながら、撮影ポイントを探すことが容易となる。また、3個の画面全てに画像データ記憶部130に記憶されている影画像を逐次表示させることにより、既に撮影された画像の確認を行なうこともできる。
FIG. 7 is a diagram for explaining an example of a screen displayed on the liquid crystal display panel, and is used as the monitor image display unit 150, the model display unit 160, and the measurement condition display unit 170. The monitor image display unit 150 is also used as a finder image display unit 190. Image information of the finder of the photographing unit 110 is sent to a computer constituting the arithmetic processing unit 200 via various interfaces, and a liquid crystal display panel. Displayed above. The reference point display position calculation unit 230 displays the reference points related to the object 10 included in the image information of the viewfinder in a superimposed state. Thereby, how many reference points appear on the monitor image display unit 150 can be determined at the time of photographing by the photographing unit 110. Monitor image display unit 150 is photographed by the photographing unit 110, it may have a structure for sequentially calling a shadow image shooting stored in the image data storage unit 130. The apparatus of FIG. 7 is designed to display three screens. The left two screens are captured and stored in the image data storage unit 130, and the rightmost screen is the current shooting unit 110. The image captured in is displayed. The photographer can easily find the photographing point while checking the three screens displayed on the monitor image display unit 150 in real time. Further, by sequentially displaying the shadow image shooting stored in all three screens in the image data storage unit 130, it is also possible to already carry out the confirmation of the photographed image.

モデル表示部160には、モデル形成部210によって、対象物10に関してモデリングされた結果を、撮影部110の撮影位置と姿勢から見た視点に適合させて表示することができる。これにより、対象物10のモデリングの欠落部分を認識して、撮影方向として補充すべき対象物10の撮影方向を確認しながら、対象物10に対する撮影位置を決めることができる。対象物10の三次元的な表示は、例えばOpenGL機能を利用することで、三次元計測して再構築した対象物10の画像を、ワイヤーフレーム表示やテクスチャマッピング表示できる。これにより、モデル表示部160上で視点、解像度をリアルタイムに対象物10の画像を表示可能となっている。   The model display unit 160 can display the result of modeling the object 10 by the model forming unit 210 in accordance with the viewpoint viewed from the shooting position and posture of the shooting unit 110. Thereby, it is possible to determine the shooting position with respect to the target object 10 while recognizing the modeling missing part of the target object 10 and confirming the shooting direction of the target object 10 to be supplemented as the shooting direction. The three-dimensional display of the target object 10 can display an image of the target object 10 reconstructed by three-dimensional measurement by using, for example, an OpenGL function, and display a wire frame or texture mapping. Thereby, the image of the target 10 can be displayed on the model display unit 160 in real time with the viewpoint and resolution.

測定条件表示部170には、撮影位置測定部120により測定された撮影部110の位置情報(X,Y,Z)が表示され、撮影位置測定部125により測定された撮影部110の姿勢情報(Yaw, Pitch, Law)が表示される。   The measurement condition display unit 170 displays the position information (X, Y, Z) of the photographing unit 110 measured by the photographing position measuring unit 120, and the posture information (X, Y, Z) measured by the photographing position measuring unit 125 ( Yaw, Pitch, Law) is displayed.

また、画像データ記憶部130は、前回撮影部110により撮影された画像及び撮影位置を保持している。撮影条件測定部220には、画像データ記憶部130に記憶された前回撮影画像の情報(第1の撮影画像)を元に、モニター画像表示部150に表示されるファインダー画像(第2の撮影画像)のオーバーラップ率が表示されている。撮影条件測定部220には、対象物10の三次元測定をする場合の測定精度、基線、撮影位置、撮影角度、撮影部間隔を測定しているので、対象物10の概略精度を計算して、測定条件表示部170に表示出力する。   In addition, the image data storage unit 130 holds an image captured by the previous imaging unit 110 and an imaging position. The shooting condition measurement unit 220 uses the viewfinder image (second shot image) displayed on the monitor image display unit 150 based on the information of the previous shot image (first shot image) stored in the image data storage unit 130. ) Overlap rate is displayed. The imaging condition measurement unit 220 measures the measurement accuracy, base line, imaging position, imaging angle, and imaging unit interval when performing three-dimensional measurement of the object 10, and calculates the approximate accuracy of the object 10. , And output to the measurement condition display unit 170.

撮影条件測定部220により概略得られる精度は、次式で得られる。
ΔXY=H*δp/f (1)
ΔZ=H*H*δp/(f*B) (2)
ここで、δpは撮影部110の画素分解能またはスキャナの読み取り分解能、fは焦点距離で、使用する撮影部110により既知である。基線長Bは、撮影した画像の撮影位置測定部120から計測された位置と、次に撮影する撮影位置測定部120の位置から算出される。撮影距離Hは、撮影する箇所に基準点もしくは3Dモデルがあれば撮影位置測定部120の位置と、基準点もしくは3Dモデルの位置から算出することができる。もし基準点もしくは3Dモデルが写っていないときは、概略値を入力する。上式で用いるパラメータである分解能δp、焦点距離f、基線長B、撮影距離Hから、現在撮影しようとしているステレオモデルの計測後の概略精度ΔXY、ΔZが算出される。
The accuracy roughly obtained by the imaging condition measurement unit 220 is obtained by the following equation.
ΔXY = H * δp / f (1)
ΔZ = H * H * δp / (f * B) (2)
Here, δp is the pixel resolution of the photographing unit 110 or the reading resolution of the scanner, f is a focal length, and is known by the photographing unit 110 to be used. The baseline length B is calculated from the position measured from the shooting position measurement unit 120 of the shot image and the position of the shooting position measurement unit 120 to be shot next. The shooting distance H can be calculated from the position of the shooting position measurement unit 120 and the position of the reference point or 3D model if there is a reference point or 3D model at the location to be shot. If the reference point or 3D model is not shown, enter an approximate value. From the resolution δp, focal length f, base length B, and shooting distance H, which are parameters used in the above equation, approximate accuracy ΔXY and ΔZ after measurement of the stereo model that is currently being shot is calculated.

このように構成された装置における撮影作業について説明する。図8は空中並びに地上で撮影された画像による3Dモデルの計測を説明するフローチャートである。まず、空中撮影を行う(S300)。空中撮影画像には、航空写真(例えば国土地理院提供)、ヘリコプター、飛行船、バルーンなどの撮影システムにより取得したものや、エンジン付きのパラグライダーなどを用いて撮影した画像データなど、多種多様なものが利用できる。ただし、撮影部110の撮影条件での内部標定要素は、既知である必要がある。   A photographing operation in the apparatus configured as described above will be described. FIG. 8 is a flowchart for explaining measurement of a 3D model using images taken in the air and on the ground. First, aerial shooting is performed (S300). There are a wide variety of aerial images such as aerial photographs (for example, provided by the Geospatial Information Authority of Japan), images acquired by imaging systems such as helicopters, airships, balloons, and image data captured using paragliders with engines. Available. However, the internal orientation element in the imaging conditions of the imaging unit 110 needs to be known.

次に、地上では、3Dモデル作成に必要な基準点を自動追尾式測量機やGPSにて取得する(S310)。この際、自動追尾式測量機による計測値は、GPSによる地球測位座標系などに統一しておく。そして、S300にて取得された空中撮影画像を用いて、モデル形成部210による対象物10の3Dモデルの計測を行う(S320)。この場合、必要に応じてS310で取得した基準点を使用する。
Next, on the ground, a reference point necessary for creating the 3D model is acquired by an automatic tracking surveying instrument or GPS (S310). At this time, the measurement values obtained by the automatic tracking surveying instrument are unified in the earth positioning coordinate system by GPS. Then, using the aerial photographed image acquired in S300 , the model forming unit 210 measures the 3D model of the object 10 (S320). In this case, the reference point acquired in S310 is used as necessary.

次に、撮影ガイディングシステムを用いて、撮影部110による地上撮影を行う(S330)。この作業の前にあらかじめ、S310で計測された基準点や、S320で作成された3Dモデルデータを撮影ガイディングシステムに記憶させておく。これにより、撮影位置を確認する際、モニター画像表示部150には、撮影部110を向けたアングルの対象物画像がリアルタイムで表示され、モニター画像表示部150の対象物画像上にS310で計測された基準点が重畳した状態で表示される。また、モデル表示部160には、S320で作成された3Dモデルが、撮影部110を覗いたアングルで表示される。また、測定条件表示部170には、モニター画像表示部150での計測精度やオーバーラップの状態も確認できる。これら機能により、撮影者は3Dモデル作成のような後処理も考慮した最適な位置に、撮影部110の撮影位置が誘導される。
Next, ground photographing is performed by the photographing unit 110 using the photographing guiding system ( S330 ). Prior to this work, the reference points measured in S310 and the 3D model data created in S320 are stored in the imaging guiding system in advance. As a result, when confirming the shooting position, the monitor image display unit 150 displays the object image of the angle facing the shooting unit 110 in real time and is measured on the target image of the monitor image display unit 150 in S310. The reference point is displayed in a superimposed state. In addition, the 3D model created in S320 is displayed on the model display unit 160 at an angle looking into the photographing unit 110. Further, the measurement condition display unit 170 can also confirm the measurement accuracy and the overlap state in the monitor image display unit 150. With these functions, the photographer guides the photographing position of the photographing unit 110 to an optimum position considering post-processing such as 3D model creation.

次に、撮影ガイディングシステムにて撮影した画像を、モデル形成部210にてステレオ計測することにより、地上による3Dモデルを作成する(S340)。   Next, a 3D model on the ground is created by stereo measurement of an image photographed by the photographing guiding system by the model forming unit 210 (S340).

次に、モデル形成部210にて全体の3Dモデル作成をする(S350)。モデル形成部210にて、空中や地上で撮影された各ステレオモデルの画像のパスポイント及びタイポイントを同時にバンドル調整することにより、空中や地上で撮影された各ステレオモデルの画像の座標系を統一し、全体の3Dモデルを作成する。なお、撮影ガイディングシステムでは、地上による3Dモデル形成作業と、空中や地上で撮影された各ステレオモデルの画像全体の3Dモデル作成作業とは、バンドル調整しながら自動的に行なうことができる。   Next, the entire 3D model is created by the model forming unit 210 (S350). The model forming unit 210 unifies the coordinate system of each stereo model image taken in the air or on the ground by simultaneously performing bundle adjustment of the pass point and tie point of each stereo model image taken in the air or on the ground. Then, the entire 3D model is created. In the photographing guiding system, the 3D model formation work on the ground and the 3D model creation work of the entire images of each stereo model photographed in the air or on the ground can be automatically performed while performing bundle adjustment.

次に、上述の本発明にかかる撮影ガイディングシステムを用いた、航空写真、空中画像、地上画像による3Dモデル作成の一例を説明する。図9は、本発明にかかる撮影ガイディングシステムを用いた3Dモデル作成の対象物の全体敷地図である。対象物は、本出願人の所有する8階建てビルで、本出願人の本社登記地に所在している。利用した画像は、対象物全体の基礎画像情報として航空写真(図10)、対象物上空からのモデリングにパワードグライダーから撮影部110により撮影した画像(図12)、そして対象物の地上側面部を撮影ガイディングシステムの撮影部110にて取得した(図15)。そして、これら3類型の画像をそれぞれモデル形成部210にて3Dモデル作成して、融合させた。基準点は、対象物であるビルの側面を自動追尾式測量機にて計測し、対象物の敷地内にてGPS計測した点を利用して、自動追尾式測量機で計測した基準点位置をGPS座標に変換した。   Next, an example of creating a 3D model using an aerial photograph, an aerial image, and a ground image using the above-described imaging guiding system according to the present invention will be described. FIG. 9 is an entire site view of an object for creating a 3D model using the imaging guiding system according to the present invention. The object is an 8-story building owned by the applicant, and is located in the applicant's head office registration location. The used image is an aerial photograph (FIG. 10) as basic image information of the entire object, an image photographed by the photographing unit 110 from a powered glider for modeling from above the object (FIG. 12), and a ground side surface part of the object. Obtained by the photographing unit 110 of the photographing guiding system (FIG. 15). Each of these three types of images was created by the model forming unit 210 and fused. The reference point is the position of the reference point measured by the automatic tracking surveying instrument using the points measured by the GPS in the site of the target, measuring the side of the building that is the target. Converted to GPS coordinates.

以下にそれぞれの撮影・解析について説明する。
(1)航空写真解析によるベース作成
図10は、本出願人の本社登記地を含む、東京板橋区周辺約4km四方が撮影されている国土地理院提供の航空写真である。撮影カメラは、いわゆる一般の航空写真撮影用カメラが利用可能である。焦点距離、画角などは、撮影に必要なものが適宜選択される。
Each imaging / analysis will be described below.
(1) Base creation by aerial photograph analysis FIG. 10 is an aerial photograph provided by the Geospatial Information Authority of Japan, which has taken around 4 km square around Itabashi Ward, including the applicant's head office registration location. A so-called general aerial photography camera can be used as the photographing camera. As the focal length, the angle of view, etc., those necessary for photographing are appropriately selected.

図11はモデル形成部により3Dモデル作成対象領域をモデル化した画像である。3Dモデル作成対象領域の解析には、航空写真をベース(下地)として使用するため、フィルムをスキャナにて、例えば読取解像度600dpiにて読み取り、モデル形成部210にて内部標定した。なお、図12では、ステレオマッチングは行わず簡単な3D図化を行って使用しているが、山などの起伏がある場合は、3Dモデル作成対象領域の起伏部分をステレオマッチング処理して、3Dモデル化するとよい。   FIG. 11 is an image obtained by modeling the 3D model creation target area by the model forming unit. In the analysis of the 3D model creation target area, in order to use an aerial photograph as a base (background), the film was read with a scanner, for example, at a reading resolution of 600 dpi, and the model forming unit 210 performed internal orientation. In FIG. 12, stereo matching is not performed and simple 3D plotting is performed and used. However, when there is a undulation such as a mountain, the undulation portion of the 3D model creation target region is subjected to stereo matching processing to generate 3D. Model it.

(2)空中撮影(パワードグライダー)画像からの3Dモデル作成
図12は、対象物上空からのモデリングにパワードグライダーから撮影部110により撮影した画像である。図13は、パワードパラグライダー(エンジン付きのパラグライダー)による写真撮影の説明図である。パワードパラグライダーは、航空機ではないため、高度規制等の制約が少なく、安価で安全な撮影ができる特徴がある。パワードグライダーの他に、ヘリコプター、気球、大縮尺な航空写真撮影可能なセスナ機なども利用することが可能である。撮影に使用した撮影カメラには、民生用のデジタルカメラが利用できる。。
(2) Creation of 3D Model from Aerial Shooting (Powered Glider) Image FIG. 12 is an image captured by the imaging unit 110 from a powered glider for modeling from above the object. FIG. 13 is an explanatory diagram of photography by a powered paraglider (paraglider with an engine). Powered paragliders are not aircraft, so there are few restrictions on altitude regulations, etc., and there are features that enable inexpensive and safe shooting. In addition to powered gliders, helicopters, balloons, and Cessna aircraft capable of taking large-scale aerial photographs can also be used. A consumer digital camera can be used as the camera used for shooting. .

図14は空中写真の3Dモデル化の一例を説明する説明図である。3Dモデル解析の手順は以下の通りである。まず、モデル形成部210にて、自動追尾式測量機で測定した基準点を入れて標定を行い、対象物であるビルのエッジ部分、手前庭部のポリライン計測を行う(図14a)。ここで、ポリライン計測とは、対応点をマニュアルで指示又は相関処理を用いた半自動で計測しながら三次元計測を行うことをいい、マニュアルや自動位置検出で行うことができる。次に、対象物であるビルについて、自動的にビル壁面の計測と、平面部メッシュ作成を行なう(図14b)。そして、対象物であるビルについて、テクスチャを貼り付けて(図14c)、ビルの外観形状を表す。そして、3Dモデル化されたビルの外観形状は、航空写真と一体化して、対象物付近の概括的な画像情報と融合する(図14d)。このとき、対象物であるビルの一部壁面に関しては、航空写真の制約により撮影されていない方向があり、3Dモデル化の際に欠けた状態となっている。   FIG. 14 is an explanatory diagram for explaining an example of 3D modeling of an aerial photograph. The procedure of 3D model analysis is as follows. First, in the model formation unit 210, a reference point measured by an automatic tracking surveying instrument is entered and orientation is performed, and polyline measurement is performed on the edge portion of the building, which is the object, and the front yard portion (FIG. 14a). Here, polyline measurement refers to performing three-dimensional measurement while manually measuring corresponding points or semi-automatically using correlation processing, and can be performed manually or by automatic position detection. Next, the building wall surface is automatically measured and the plane part mesh is created for the target building (FIG. 14b). Then, a texture is pasted on the building that is the object (FIG. 14c) to represent the external shape of the building. The exterior shape of the 3D modeled building is integrated with the aerial photograph and merged with general image information near the object (FIG. 14d). At this time, a part of the wall surface of the building that is the object has a direction that is not photographed due to the restrictions of the aerial photograph, and is in a state lacking in 3D modeling.

(3)撮影ガイディングシステムによる地上3Dモデルの追加
図15は、撮影部110により対象物に関して補充すべき撮影方向から撮影している様子と、追加撮影画像を示している。このとき、撮影ガイディングシステムの表示画面は、例えば図7に示すようになっている。モニター画像表示部150に、対象物に関して補充すべき撮影方向からの画像が表示されている。対象物であるビルの一部壁面に関しては、航空写真の制約により撮影されていない方向があるが、補充すべき撮影方向から撮影することで、欠けていた壁面の画像情報が、精密な基準点情報と共に得られる。
(3) Addition of Ground 3D Model by Shooting Guiding System FIG. 15 shows a state where the shooting unit 110 is shooting from the shooting direction to be supplemented with respect to the object and an additional shot image. At this time, the display screen of the imaging guiding system is as shown in FIG. 7, for example. On the monitor image display unit 150, an image from the photographing direction to be supplemented with respect to the object is displayed. Some wall surfaces of the target building are not photographed due to aerial photography restrictions, but the image information of the missing wall surface is a precise reference point by photographing from the photographing direction to be supplemented. Obtained with information.

図16は、航空写真にワイヤーフレームを貼り付けた対象物の画像である。図17は、航空写真にテクスチャを貼り付けた対象物の画像である。ここで、テクスチャとワイヤーフレームは、撮影ガイディングシステムにより補充された地上画像から、モデル形成部210により得られた3Dモデルから取得される。ここで、テクスチャとはグラフィックスなどにおいて、図形の表面に付けられた模様や、質感を表わすための描き込みをいい、対象物の二次元画像に立体感を表現するのに用いられる。また、ワイヤーフレームとは、例えば対象物の表面形状を多数の三角形等の多角形の頂点で表した場合の、頂点間を結ぶ多角形の線分図をいう。対象物であるビルの一部壁面に関しては、航空写真の制約により撮影されていない方向があるが、撮影ガイディングシステムにより補充すべき撮影方向からの対象物の撮影画像を取得して、3Dモデル化することで、対象物全体の3Dモデル化処理が行える。   FIG. 16 is an image of an object in which a wire frame is pasted on an aerial photograph. FIG. 17 is an image of an object in which a texture is pasted on an aerial photograph. Here, the texture and the wire frame are acquired from the 3D model obtained by the model forming unit 210 from the ground image supplemented by the imaging guiding system. Here, the texture refers to a pattern attached to the surface of a graphic or a drawing for expressing a texture in graphics or the like, and is used to express a three-dimensional feeling in a two-dimensional image of an object. The wire frame refers to a polygonal line segment diagram connecting vertices when the surface shape of an object is represented by vertices of polygons such as a large number of triangles. A part of the wall surface of the building, which is an object, has a direction that is not photographed due to aerial photography restrictions, but a 3D model is obtained by acquiring a photographed image of the object from the photographing direction to be supplemented by the photographing guiding system. By doing so, 3D modeling processing of the entire object can be performed.

図18は、対象物に隣接するビルを追加した3Dモデルの説明図である。対象物に隣接するビルは、空中撮影した画像を用いて、図17に示す対象物全体の3Dモデル化処理後、さらに追加したものである。このように、3Dモデル化処理で補充追加したい部分は、撮影ガイディングシステムや空中画像や航空写真からの解析を加えていくことで、容易に対処できる。   FIG. 18 is an explanatory diagram of a 3D model in which a building adjacent to an object is added. The building adjacent to the object is further added after the 3D modeling process of the entire object shown in FIG. 17 using the image taken in the air. In this way, the part to be supplemented and added in the 3D modeling process can be easily dealt with by adding an analysis from a shooting guiding system, an aerial image or an aerial photograph.

図19は、本発明の第2の実施の形態を説明する全体構成図である。実施例1においては、図6に示すようにデジタルカメラとノートパソコンの組合わせを示している。しかし、本実施例では、図19に示すようにGPS、デジタルカメラ及び小型のホストPCとを一体に構成している。小型のホストPCには、例えばPDAのような携帯用情報処理端末を用いる。GPS、デジタルカメラ及び小型のホストPCの有する機能については、実施例1で説明したものと共通なので、その詳細は省略する。   FIG. 19 is an overall configuration diagram for explaining a second embodiment of the present invention. In the first embodiment, a combination of a digital camera and a notebook computer is shown as shown in FIG. However, in this embodiment, as shown in FIG. 19, a GPS, a digital camera, and a small host PC are integrally configured. For a small host PC, a portable information processing terminal such as a PDA is used. Since the functions of the GPS, the digital camera, and the small host PC are the same as those described in the first embodiment, the details thereof are omitted.

図20は、本発明の第3の実施の形態を説明する全体構成図である。図において、本発明の撮影装置は、撮影ユニットハウジング100、撮影部110、撮影部110の撮影位置情報を取得する撮影位置測定部120、125、画像データ記憶部130、モニター画像表示部150、モデル表示部165、測定条件表示部170、撮影位置指示部180、演算処理部200を有している。なお、図20において、図6と同一作用をするものには同一符号を付して、説明を省略する。   FIG. 20 is an overall configuration diagram for explaining a third embodiment of the present invention. In the figure, the imaging apparatus of the present invention includes an imaging unit housing 100, an imaging unit 110, imaging position measuring units 120 and 125 that acquire imaging position information of the imaging unit 110, an image data storage unit 130, a monitor image display unit 150, a model. A display unit 165, a measurement condition display unit 170, an imaging position instruction unit 180, and an arithmetic processing unit 200 are included. In FIG. 20, the same reference numerals are given to the same components as those in FIG.

撮影位置指示部180は、撮影部110の撮影位置を指定するもので、例えばパソコンに接続されるマウスやカソールキーが用いられる。モデル表示部165は、モデル形成部210で形成された対象物10の三次元モデルに関して、画像データ記憶部130に記憶された画像データと、撮影位置指示部180で指定された撮影位置に基づいて、撮影部110の指定撮影位置から視認される対象物10の三次元モデル画像を表示する。   The shooting position instruction unit 180 designates the shooting position of the shooting unit 110, and for example, a mouse or a cursor key connected to a personal computer is used. The model display unit 165 relates to the 3D model of the object 10 formed by the model forming unit 210 based on the image data stored in the image data storage unit 130 and the shooting position specified by the shooting position instruction unit 180. Then, a three-dimensional model image of the object 10 viewed from the designated photographing position of the photographing unit 110 is displayed.

図21は、撮影位置指示部180による撮影位置の入力に用いられる撮影位置入力画面の一例を示す説明図である。撮影位置入力画面は、例えばモデル表示部165に表示される対象物の平面図を用いるとよい。撮影位置入力画面では、ライトペン、マウスなどの器具により撮影位置1〜6が入力される。すると、モデル形成部210によって撮影位置として入力された位置からの対象物の3Dモデルが形成され、視認画像がモデル表示部165に表示される。   FIG. 21 is an explanatory diagram illustrating an example of a shooting position input screen used for inputting a shooting position by the shooting position instruction unit 180. For the shooting position input screen, for example, a plan view of an object displayed on the model display unit 165 may be used. On the shooting position input screen, shooting positions 1 to 6 are input using a tool such as a light pen or a mouse. Then, a 3D model of the object is formed from the position input as the shooting position by the model forming unit 210, and a visual image is displayed on the model display unit 165.

図22は、モデル表示部165に表示される指定撮影位置からの対象物視認画像の一例を示す図で、図中符号1〜6は図21の撮影指定位置1〜6に対応している。撮影位置指示部180から撮影指定位置1〜6が入力されると、モニター画像表示部150には、指示された撮影位置1〜6から、撮影部110を向けたアングルの対象物画像の3D画像が形成され、これがモニター画像表示部150に表示される。なお、本実施例のシステム構成を図19のような構成としても良い。   FIG. 22 is a diagram illustrating an example of an object visual image from the designated photographing position displayed on the model display unit 165. Reference numerals 1 to 6 in the drawing correspond to the photographing designated positions 1 to 6 in FIG. When the photographing designation positions 1 to 6 are input from the photographing position instruction unit 180, the monitor image display unit 150 displays a 3D image of the object image at an angle facing the photographing unit 110 from the designated photographing positions 1 to 6. Is formed and displayed on the monitor image display unit 150. Note that the system configuration of this embodiment may be configured as shown in FIG.

以上説明したように、航空写真と撮影ガイディングシステムの撮影部110による地上からの撮影画像をバンドル調整する場合、基準点もしくはタイポイントの配置および認識が重要である。本実施例によれば、それらの標定点を撮影ガイディングシステムで撮影部110の撮影時にリアルタイムに表示させることで、効率よく空中および地上からの3Dモデル構築が可能となる。また、本実施例によれば、多種多様な撮影部110と解像度で撮影された画像を一括してバンドル調整を行うことで、各種の画像計測データの整合性を確保し、さらに、高性能なステレオマッチングにより計測されたDSM(Digital stereo matching)データでテクスチャ付きの3Dモデルを作成して、あらゆる視点位置から多種多様な解像度にて表示できる。   As described above, the arrangement and recognition of reference points or tie points are important when bundle adjustment is performed on aerial photographs and images taken from the ground by the photographing unit 110 of the photographing guiding system. According to the present embodiment, these orientation points are displayed in real time when the photographing unit 110 is photographed by the photographing guiding system, so that a 3D model can be efficiently constructed from the air and the ground. In addition, according to the present embodiment, bundle adjustment is performed on images captured with a wide variety of imaging units 110 and resolutions, thereby ensuring consistency of various types of image measurement data, and high performance. A textured 3D model can be created from DSM (Digital Stereo Matching) data measured by stereo matching and displayed from various viewpoint positions at various resolutions.

本発明の撮影装置における第1の実施の形態を説明する全体構成ブロック図である。1 is an overall configuration block diagram illustrating a first embodiment of a photographing apparatus according to the present invention. 本発明の第1の撮影方法を説明するフローチャートである。3 is a flowchart illustrating a first imaging method of the present invention. 本発明の撮影装置における第2の実施の形態を説明する全体構成ブロック図である。It is a whole block diagram explaining 2nd Embodiment in the imaging device of this invention. 本発明の第2の撮影方法を説明するフローチャートである。It is a flowchart explaining the 2nd imaging | photography method of this invention. 本発明の撮影装置における第3の実施の形態を説明する全体構成ブロック図である。It is a whole block diagram explaining 3rd Embodiment in the imaging device of this invention. 本発明の一実施の形態を説明する全体構成図である。1 is an overall configuration diagram illustrating an embodiment of the present invention. 液晶表示パネルに表示される画面の一例を説明する図である。It is a figure explaining an example of the screen displayed on a liquid crystal display panel. 空中並びに地上で撮影された画像による3Dモデルの計測を説明するフローチャートである。It is a flowchart explaining the measurement of 3D model by the image image | photographed in the air and the ground. 本発明にかかる撮影ガイディングシステムを用いた3Dモデル作成の対象物の全体敷地図である。It is the whole site map of the target of 3D model creation using the photography guiding system concerning the present invention. 本出願人の本社登記地を含む、東京板橋区周辺約4km四方が撮影されている国土地理院提供の航空写真である。This is an aerial photograph provided by the Geospatial Information Authority of Japan, which has been photographed about 4 km square around Itabashi-ku, Tokyo, including the applicant's head office location. モデル形成部により3Dモデル作成対象領域をモデル化した画像である。It is the image which modeled the 3D model creation object area | region by the model formation part. 対象物上空からのモデリングにパワードグライダーから撮影部110により撮影した画像である。It is the image image | photographed by the imaging | photography part 110 from the power glider for modeling from the sky of a target object. パワードパラグライダー(エンジン付きのパラグライダー)による写真撮影の説明図である。It is explanatory drawing of photography by a powered paraglider (paraglider with an engine). 空中写真の3Dモデル化の一例を説明する説明図である。It is explanatory drawing explaining an example of 3D modeling of an aerial photograph. 撮影部110により対象物に関して補充すべき撮影方向から撮影している様子と、追加撮影画像を示している。A state in which the photographing unit 110 is photographing from the photographing direction to be supplemented with respect to the object and an additional photographed image are shown. 航空写真にワイヤーフレームを貼り付けた対象物の画像である。It is the image of the target object which stuck the wire frame on the aerial photograph. 航空写真にテクスチャを貼り付けた対象物の画像である。It is the image of the target object which stuck the texture on the aerial photograph. 対象物に隣接するビルを追加した3Dモデルの説明図である。It is explanatory drawing of the 3D model which added the building adjacent to a target object. 本発明の第2の実施の形態を説明する全体構成図である。It is a whole block diagram explaining the 2nd Embodiment of this invention. 本発明の第3の実施の形態を説明する全体構成図である。It is a whole block diagram explaining the 3rd Embodiment of this invention. 撮影位置指示部180による撮影位置の入力に用いられる撮影位置入力画面の一例を示す説明図である。It is explanatory drawing which shows an example of the imaging position input screen used for the input of the imaging position by the imaging position instruction | indication part. モデル表示部165に表示される指定撮影位置からの対象物視認画像の一例を示す図である。It is a figure which shows an example of the target object visual image from the designated imaging | photography position displayed on the model display part 165. FIG.

符号の説明Explanation of symbols

10 測定対象物
110 撮影部
120 撮影位置測定部
130 画像データ記憶部
150 モニター画像表示部
160、165 モデル表示部
170 測定条件表示部
180 撮影位置指示部
190 ファインダー画像表示部
210 モデル形成部
220 撮影条件測定部
230 基準点表示位置演算部
DESCRIPTION OF SYMBOLS 10 Measurement object 110 Imaging | photography part 120 Imaging | photography position measurement part 130 Image data storage part 150 Monitor image display part 160,165 Model display part 170 Measurement condition display part 180 Shooting position instruction | indication part 190 Viewfinder image display part 210 Model formation part 220 Imaging condition Measurement unit 230 Reference point display position calculation unit

Claims (10)

撮影部と;
前記撮影部の撮影位置情報を取得する撮影位置測定部と;
位置既知点を有する対象物の複数の画像データを記憶する画像データ記憶部と;
前記画像データ記憶部に記憶された画像データを用いて、前記対象物の三次元モデルを形成するモデル形成部と;
前記モデル形成部で形成された前記対象物の三次元モデルに関して、前記画像データ記憶部に記憶された画像データと、前記撮影位置測定部で得られる撮影位置情報に基づいて、当該撮影部の撮影位置から視認される前記対象物の三次元モデル画像を表示するモデル表示部と;
撮影位置情報と共に前記画像データ記憶部に記憶された第1の撮影画像に関する撮影位置情報と、前記撮影部のファインダー画像である第2の撮影画像に関する撮影位置情報から、前記対象物の三次元測定をする場合の測定精度求める撮影条件測定部と;
前記撮影条件測定部で求められた測定精度を表示する測定条件表示部とを備える;
撮影装置。
With the shooting department;
A photographing position measuring unit for obtaining photographing position information of the photographing unit;
An image data storage unit for storing a plurality of image data of an object having a position known point;
A model forming unit that forms a three-dimensional model of the object using the image data stored in the image data storage unit;
Regarding the three-dimensional model of the object formed by the model forming unit, based on the image data stored in the image data storage unit and the shooting position information obtained by the shooting position measuring unit, the shooting of the shooting unit A model display unit for displaying a three-dimensional model image of the object visually recognized from a position;
From the shooting position information related to the first shot image stored in the image data storage unit together with the shooting position information and the shooting position information related to the second shot image that is the finder image of the shooting unit, the three-dimensional measurement of the object is performed. An imaging condition measurement unit for obtaining measurement accuracy when performing
A measurement condition display unit that displays the measurement accuracy obtained by the imaging condition measurement unit;
Shooting device.
対象物を撮影する撮影部と;
前記撮影部の撮影位置を指定する撮影位置指示部と;
位置既知点を有する対象物の複数の画像データを記憶する画像データ記憶部と;
前記画像データ記憶部に記憶された画像データを用いて、前記対象物の三次元モデルを形成するモデル形成部と;
前記モデル形成部で形成された前記対象物の三次元モデルに関して、前記画像データ記憶部に記憶された画像データと、前記撮影位置指示部で指定された撮影位置に基づいて、当該撮影部の指定撮影位置から視認される前記対象物の三次元モデル画像を表示するモデル表示部と;
前記撮影部の撮影位置情報を取得する撮影位置測定部と;
撮影位置情報と共に前記画像データ記憶部に記憶された第1の撮影画像に対する撮影位置情報と、前記撮影部のファインダー画像である第2の撮影画像に対する撮影位置情報から、前記対象物の三次元測定をする場合の測定精度求める撮影条件測定部と;
前記撮影条件測定部で求められた測定精度を表示する測定条件表示部とを備える;
撮影装置。
An imaging unit for imaging the object;
A shooting position instruction unit that specifies a shooting position of the shooting unit;
An image data storage unit for storing a plurality of image data of an object having a position known point;
A model forming unit that forms a three-dimensional model of the object using the image data stored in the image data storage unit;
With respect to the three-dimensional model of the object formed by the model forming unit, designation of the photographing unit based on the image data stored in the image data storage unit and the photographing position designated by the photographing position instruction unit A model display unit for displaying a three-dimensional model image of the object visually recognized from the photographing position;
A photographing position measuring unit for obtaining photographing position information of the photographing unit;
From the shooting position information for the first shot image stored in the image data storage unit together with the shooting position information and the shooting position information for the second shot image, which is a finder image of the shooting unit, the three-dimensional measurement of the object. An imaging condition measurement unit for obtaining measurement accuracy when performing
A measurement condition display unit that displays the measurement accuracy obtained by the imaging condition measurement unit;
Shooting device.
前記画像データ記憶部に記憶されている画像及び前記撮影部のファインダー画像を表示するモニター画像表示部を備える;
請求項1または請求項2に記載の撮影装置。
A monitor image display unit for displaying an image stored in the image data storage unit and a viewfinder image of the photographing unit;
The imaging device according to claim 1 or 2.
前記画像データ記憶部には、前記撮影部以外の撮影機器で撮影された少なくとも一組のステレオ画像であって、前記モデル形成部において当該ステレオ画像を用いて前記対象物の三次元モデルが形成可能な当該ステレオ画像が記憶される、
請求項1乃至請求項3の何れか1項に記載の撮影装置。
In the image data storage unit, at least one set of stereo images photographed by a photographing device other than the photographing unit, and a three-dimensional model of the object can be formed using the stereo image in the model forming unit. Such stereo images are stored,
The imaging device according to any one of claims 1 to 3.
前記画像データ記憶部に記憶されている画像は、前記撮影部以外の撮影機器で撮影された、ステレオ航空写真、ステレオの小縮尺写真、ステレオの低解像度画像、広域撮影画像の少なくとも一つを含むことを特徴とする、
請求項1乃至請求項4の何れか1項に記載の撮影装置。
The image stored in the image data storage unit includes at least one of a stereo aerial photograph, a stereo small-scale photograph, a stereo low-resolution image, and a wide-area photographed image photographed by a photographing device other than the photographing unit. It is characterized by
The imaging device according to any one of claims 1 to 4.
前記撮影部で撮影された画像データに、前記対象物画像に重畳して前記対象物の位置既知点を表示することが可能な状態で、前記画像データ記憶部に記憶されるように構成され;
しかして、前記画像データ記憶部に記憶された前記対象物画像が、前記モデル形成部において前記対象物の三次元モデルを形成するための画像として用いることができる、
請求項1乃至請求項5の何れか1項に記載の撮影装置。
The image data captured by the imaging unit is stored in the image data storage unit in a state where the position known point of the object can be displayed superimposed on the object image;
Thus, the object image stored in the image data storage unit can be used as an image for forming a three-dimensional model of the object in the model forming unit.
The imaging device according to any one of claims 1 to 5.
前記撮影部は、前記第1の撮影画像と、前記第2の撮影画像とを重複領域を有する状態で撮影し;
前記画像データ記憶部は、前記第1の撮影画像と前記第2の撮影画像を逐次記憶するように構成される、
請求項1乃至請求項6の何れか1項に記載の撮影装置。
The photographing unit photographs the first photographed image and the second photographed image in a state having an overlapping region;
The image data storage unit is configured to sequentially store the first captured image and the second captured image;
The imaging device according to any one of claims 1 to 6.
前記撮影部は、視野に含まれている対象物を異なる撮影位置で逐次撮影し;
さらに、前記モニター画像表示部に、前記逐次撮影された対象物の画像データに重畳させて、基準点又はパスポイントの少なくとも一方を表示する基準点表示位置演算部を備える、
請求項乃至請求項7の何れか1項に記載の撮影装置。
The photographing unit sequentially photographs the objects included in the field of view at different photographing positions;
Further, the monitor image display unit includes a reference point display position calculation unit that displays at least one of a reference point or a pass point so as to be superimposed on the image data of the sequentially photographed object.
Imaging device according to any one of claims 3 to 7.
撮影部により対象物を撮影する際の撮影位置情報を取得し;
位置既知点を有する前記対象物の複数の画像データを記憶する画像データ記憶部に記憶された画像データを用いて、前記対象物の三次元モデルを形成し;
前記対象物の三次元モデルに関して、前記画像データ記憶部に記憶された画像データと、前記撮影位置情報に基づいて、当該撮影部の撮影位置から視認される前記対象物の三次元モデル画像を表示し;
撮影位置情報と共に前記画像データ記憶部に記憶された第1の撮影画像に関する撮影位置情報と、前記撮影部のファインダー画像である第2の撮影画像に関する撮影位置情報から、前記対象物の三次元測定をする場合の測定精度求め;
前記求められた測定精度を表示する;
各工程をコンピュータに実行させる撮影方法。
Obtaining shooting position information when shooting an object by the shooting unit;
Forming a three-dimensional model of the object using image data stored in an image data storage unit that stores a plurality of image data of the object having known position points;
With respect to the three-dimensional model of the object, a three-dimensional model image of the object viewed from the photographing position of the photographing unit is displayed based on the image data stored in the image data storage unit and the photographing position information. And
From the shooting position information related to the first shot image stored in the image data storage unit together with the shooting position information and the shooting position information related to the second shot image that is the finder image of the shooting unit, the three-dimensional measurement of the object is performed. It determined the measurement accuracy in the case of the;
Displaying the determined measurement accuracy ;
An imaging method that causes a computer to execute each process.
撮影部により対象物を撮影する際の撮影位置として指定された情報を入力し;
位置既知点を有する前記対象物の複数の画像データを記憶する画像データ記憶部に記憶された画像データを用いて、前記対象物の三次元モデルを形成し;
前記対象物の三次元モデルに関して、前記画像データ記憶部に記憶された画像データと、前記指定された撮影位置に基づいて、当該撮影部の指定撮影位置から視認される前記対象物の三次元モデル画像を表示し;
前記撮影部の撮影位置情報を取得し;
撮影位置情報と共に前記画像データ記憶部に記憶された第1の撮影画像に対する撮影位置情報と、前記撮影部のファインダー画像である第2の撮影画像に対する撮影位置情報から、前記対象物の三次元測定をする場合の測定精度求め;
前記求められた測定精度を表示する;
各工程をコンピュータに実行させる撮影方法。
Enter information specified as the shooting position when shooting the object by the shooting unit;
Forming a three-dimensional model of the object using image data stored in an image data storage unit that stores a plurality of image data of the object having known position points;
With respect to the three-dimensional model of the object, the three-dimensional model of the object viewed from the designated photographing position of the photographing unit based on the image data stored in the image data storage unit and the designated photographing position Display images;
Obtaining photographing position information of the photographing unit;
From the shooting position information for the first shot image stored in the image data storage unit together with the shooting position information and the shooting position information for the second shot image, which is a finder image of the shooting unit, the three-dimensional measurement of the object. It determined the measurement accuracy in the case of the;
Displaying the determined measurement accuracy ;
An imaging method that causes a computer to execute each process.
JP2004181809A 2004-06-18 2004-06-18 Imaging apparatus and imaging method Expired - Fee Related JP4588369B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004181809A JP4588369B2 (en) 2004-06-18 2004-06-18 Imaging apparatus and imaging method
EP05012977A EP1607716A3 (en) 2004-06-18 2005-06-16 Model forming apparatus and method, and photographing apparatus and method
US11/154,959 US7986825B2 (en) 2004-06-18 2005-06-17 Model forming apparatus, model forming method, photographing apparatus and photographing method
US13/176,362 US8559702B2 (en) 2004-06-18 2011-07-05 Model forming apparatus, model forming method, photographing apparatus and photographing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004181809A JP4588369B2 (en) 2004-06-18 2004-06-18 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2006003280A JP2006003280A (en) 2006-01-05
JP4588369B2 true JP4588369B2 (en) 2010-12-01

Family

ID=35771783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004181809A Expired - Fee Related JP4588369B2 (en) 2004-06-18 2004-06-18 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP4588369B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101011813B1 (en) * 2010-12-02 2011-02-07 (주) 한양지에스티 Installaion for displaying overlap line of adjoined digital aerial photograph

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256252A (en) * 2009-04-27 2010-11-11 Topcon Corp Image capturing device for three-dimensional measurement and method therefor
JP2010256253A (en) * 2009-04-27 2010-11-11 Topcon Corp Image capturing device for three-dimensional measurement and method therefor
WO2011093751A1 (en) * 2010-01-26 2011-08-04 Saab Ab A three dimensional model method based on combination of ground based images and images taken from above
JP6041535B2 (en) * 2012-05-29 2016-12-07 株式会社トプコン Image acquisition method and photographing apparatus
WO2015068470A1 (en) * 2013-11-06 2015-05-14 凸版印刷株式会社 3d-shape measurement device, 3d-shape measurement method, and 3d-shape measurement program
JP6091410B2 (en) 2013-12-26 2017-03-08 オリンパス株式会社 Endoscope apparatus operating method and endoscope system
JP6326237B2 (en) * 2014-01-31 2018-05-16 株式会社トプコン Measuring system
JP6350988B2 (en) * 2014-07-15 2018-07-04 株式会社九州建設サポート Camera for diagnosing bridge damage
JP6639832B2 (en) * 2015-08-25 2020-02-05 オリンパス株式会社 Imaging device, imaging method, imaging program
JP6688901B2 (en) * 2016-10-17 2020-04-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Three-dimensional shape estimation method, three-dimensional shape estimation system, flying object, program, and recording medium
JP7148229B2 (en) 2017-07-31 2022-10-05 株式会社トプコン METHOD FOR CREATING VERTICAL SECTION OF THREE-DIMENSIONAL POINT CLOUD DATA, SURVEY DATA PROCESSING DEVICE, AND SURVEY SYSTEM FOR THE SAME
KR101863188B1 (en) * 2017-10-26 2018-06-01 (주)아세아항측 Method for construction of cultural heritage 3D models
US11189107B2 (en) * 2018-03-27 2021-11-30 Hitachi America, Ltd. 3D device simulator visualizer platform as a service
JP6701277B2 (en) * 2018-08-01 2020-05-27 キヤノン株式会社 Information processing device, information processing method, and program
JP2020105118A (en) * 2018-12-27 2020-07-09 日本製鉄株式会社 Porous polymer metal complex, gas adsorbent, and gas separation device and gas storage device using the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10246632A (en) * 1997-03-05 1998-09-14 Kumagai Gumi Co Ltd Photographing control method
JPH11183172A (en) * 1997-12-25 1999-07-09 Mitsubishi Heavy Ind Ltd Photography survey support system
JP2002074347A (en) * 2000-08-31 2002-03-15 Minolta Co Ltd Information aquiring system
JP2002352224A (en) * 2001-05-29 2002-12-06 Topcon Corp Device and system for measuring and displaying image, construction managing method and construction state monitoring system
JP2004037270A (en) * 2002-07-03 2004-02-05 Topcon Corp Data measuring device, method and program for calibration, computer readable recording medium and image data processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10246632A (en) * 1997-03-05 1998-09-14 Kumagai Gumi Co Ltd Photographing control method
JPH11183172A (en) * 1997-12-25 1999-07-09 Mitsubishi Heavy Ind Ltd Photography survey support system
JP2002074347A (en) * 2000-08-31 2002-03-15 Minolta Co Ltd Information aquiring system
JP2002352224A (en) * 2001-05-29 2002-12-06 Topcon Corp Device and system for measuring and displaying image, construction managing method and construction state monitoring system
JP2004037270A (en) * 2002-07-03 2004-02-05 Topcon Corp Data measuring device, method and program for calibration, computer readable recording medium and image data processing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101011813B1 (en) * 2010-12-02 2011-02-07 (주) 한양지에스티 Installaion for displaying overlap line of adjoined digital aerial photograph

Also Published As

Publication number Publication date
JP2006003280A (en) 2006-01-05

Similar Documents

Publication Publication Date Title
US7986825B2 (en) Model forming apparatus, model forming method, photographing apparatus and photographing method
JP4588369B2 (en) Imaging apparatus and imaging method
JP6733267B2 (en) Information processing program, information processing method, and information processing apparatus
AU2008322565B9 (en) Method and apparatus of taking aerial surveys
KR101285360B1 (en) Point of interest displaying apparatus and method for using augmented reality
US8963943B2 (en) Three-dimensional urban modeling apparatus and method
Grussenmeyer et al. High resolution 3D recordng and modelling on the Bronze Age cave" les Fraux" in Perigord (France)
US11783580B2 (en) Input apparatus, input method of input apparatus, and output apparatus
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
JP4102324B2 (en) Surveying data processing system, surveying data processing program, and electronic map display device
JPWO2018180550A1 (en) Image processing apparatus and image processing method
JP6238101B2 (en) Numerical surface layer model creation method and numerical surface layer model creation device
KR101011813B1 (en) Installaion for displaying overlap line of adjoined digital aerial photograph
JP2012137933A (en) Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
JP2009140402A (en) Information display device, information display method, information display program, and recording medium with recorded information display program
JP2007271869A (en) Map creating method by image processing, its device and its computer program
JP4491293B2 (en) Model forming apparatus and model forming method
CN113034347A (en) Oblique photographic image processing method, device, processing equipment and storage medium
JP2005310044A (en) Apparatus, method and program for data processing
d'Annibale et al. Finalizing a low-cost photogrammetric workflow: from panoramic photos to Heritage 3D documentation and visualization
AU2013260677B2 (en) Method and apparatus of taking aerial surveys
JP5122508B2 (en) 3D spatial data creation method and 3D spatial data creation apparatus
Orlik et al. 3D modelling using aerial oblique images with close range UAV based data for single objects
Al-Hanbali et al. Building 3D GIS modeling applications in Jordan: methodology and implementation aspects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090825

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100908

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees