JP2006113001A - Three-dimensional measuring method and device by photogrammetry - Google Patents

Three-dimensional measuring method and device by photogrammetry Download PDF

Info

Publication number
JP2006113001A
JP2006113001A JP2004302751A JP2004302751A JP2006113001A JP 2006113001 A JP2006113001 A JP 2006113001A JP 2004302751 A JP2004302751 A JP 2004302751A JP 2004302751 A JP2004302751 A JP 2004302751A JP 2006113001 A JP2006113001 A JP 2006113001A
Authority
JP
Japan
Prior art keywords
image
telephoto
wide
photographing
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004302751A
Other languages
Japanese (ja)
Other versions
JP3924576B2 (en
Inventor
Takafusa Futamura
孝房 二村
Hitoshi Yasunobu
均 安信
Tadashi Kadota
忠司 門田
Akira Nagai
亮 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kurabo Industries Ltd
Kurashiki Spinning Co Ltd
Original Assignee
Kurabo Industries Ltd
Kurashiki Spinning Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kurabo Industries Ltd, Kurashiki Spinning Co Ltd filed Critical Kurabo Industries Ltd
Priority to JP2004302751A priority Critical patent/JP3924576B2/en
Publication of JP2006113001A publication Critical patent/JP2006113001A/en
Application granted granted Critical
Publication of JP3924576B2 publication Critical patent/JP3924576B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable more accurate correspondence of a measurement point in photogrammetry. <P>SOLUTION: Using wide angle images of respective reference position and inspection position photographed while having a short focal length and at least one telephoto image of a part of the photographing region of the wide angle image that is photographed in a state where the focal length is longer than that of the wide angle images, a composite photograph image obtained by combining the telephoto image and the wide angle image photographed from the same photographing position so that a subject image of the telephoto image matches a subject image of the wide angle image and displaying the combined image is produced every photograph position. A reference point commonly taken in the photographing region of the telephoto image of the composite photograph image is specified, the photograph position relation is calculated based on coordinate values of the reference points in the plurality of composite photograph images, and three-dimensional position information in the subject space of the measurement point is measured from the coordinate values of an arbitrary measurement point in the photograph image based on the photograph positional relation. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、2枚以上のステレオ画像を用いて写真解析における計測点の対応付けを行うためのものであり、特にデジタル写真画像を用いてコンピュータ解析による三次元立体計測を行う方法及び装置に関する。   The present invention relates to associating measurement points in photographic analysis using two or more stereo images, and more particularly to a method and apparatus for performing three-dimensional solid measurement by computer analysis using digital photographic images.

従来からステレオ画像の解析、特にデジタル画像を用いて当該画像に写されている被写体をコンピュータ解析する技術は、写真測量の分野などで用いられており、特に地形図作成のために利用されている。   Conventionally, a technique for analyzing stereo images, in particular, computer analysis of a subject captured in a digital image, has been used in the field of photogrammetry, and is particularly used for creating topographic maps. .

このステレオ画像のコンピュータ解析には、少なくとも2台のカメラの位置関係を導き出し、当該2台のカメラにおいて撮影された写真画像にそれぞれ写し込まれている計測点を対応付ける必要がある。具体的には、一つの写真画像に写し込まれている計測点を他の写真画像において指定し、複数の写真画像上での2次元座標及びカメラの三次元座標やその向きを利用して、計測点の三次元座標を導く。   In the computer analysis of the stereo image, it is necessary to derive the positional relationship between at least two cameras and to associate the measurement points imprinted on the photographic images taken by the two cameras. Specifically, the measurement point imprinted in one photographic image is specified in the other photographic image, and the two-dimensional coordinates on the plurality of photographic images and the three-dimensional coordinates of the camera and the orientation thereof are used. The 3D coordinates of the measurement point are derived.

写真から対象物の3次元を復元する写真測量においては、視差のある2枚以上の写真のうち、被写体の同じ点(対応点)を指定する。この対応点をいかに正確に対応付けるかによって、より精度の高い三次元座標を算出するかが課題となっている。   In photogrammetry that restores the 3D of an object from a photo, the same point (corresponding point) of the subject is specified among two or more photos with parallax. The problem is how to calculate three-dimensional coordinates with higher accuracy depending on how accurately the corresponding points are associated.

被写体中の任意の点である計測点を複数の写真において、当該写真上の座標位置に対応付ける作業は、目視によるマニュアル操作では正確に対応付けることが困難である。よって、特許第3316682号公報(特許文献1)には、コンピュータを利用したパターンマッチングなどの相関処理により行う技術が開示されている。
特許第3316682号公報
The work of associating a measurement point, which is an arbitrary point in the subject, with a coordinate position on the photograph in a plurality of photographs is difficult to accurately associate by visual manual operation. Therefore, Japanese Patent No. 3316682 (Patent Document 1) discloses a technique performed by correlation processing such as pattern matching using a computer.
Japanese Patent No. 3316682

しかし、写真測量の対象となる被写体はさまざまであり、崖の地滑りの調査などに用いる場合は、被写体に近づいて撮影することが困難である。また、広い領域にわたって写真撮影を行う必要がある場合、次の方法が考えられるが、いずれも以下の問題があった。   However, there are various subjects for photogrammetry, and it is difficult to photograph close to the subject when used for investigation of cliff landslides. Further, when it is necessary to take a photo over a wide area, the following methods can be considered, but each has the following problems.

まず、第1に、撮影位置から遠い距離にある被写体を広い領域で撮影するために、焦点距離の短いカメラで撮影した広角写真を用いて、複数枚の視差のある広角画像を撮影し、これを用いて三次元測量を行う方法がある。この場合は、焦点距離の短いカメラで撮影した広角画像を用いているので、被写体の単位面積あたりに相当する写真の画素数が少なくなるため、写真画像の一画素あたりに相当する被写体の領域が大きくなり、その結果、画像に写っている特徴がぼやけてしまう。この現象は、特に写真画像を拡大表示した時に顕著となる。このため、視差のある2つの写真画像を用いて指定した対応点は、被写体の位置を正確に特定しにくく、写真を精度よく対応付けすることが困難であった。   First, in order to shoot a subject far away from the shooting position in a wide area, a wide-angle image taken with a camera with a short focal length is used to shoot a plurality of wide-angle images with parallax. There are three-dimensional survey methods using In this case, since a wide-angle image taken with a camera with a short focal length is used, the number of pixels of the photograph corresponding to the unit area of the subject is reduced, so that the region of the subject corresponding to one pixel of the photograph image is reduced. As a result, the feature in the image is blurred. This phenomenon is particularly noticeable when a photographic image is enlarged and displayed. For this reason, the corresponding points specified using two photographic images with parallax are difficult to accurately identify the position of the subject, and it is difficult to accurately associate the photos.

第2に、焦点距離の長いカメラで撮影した望遠画像を用い、同じ撮影位置から撮影範囲の一部がオーバーラップするように複数枚の写真を撮影し、これを複数枚つなぎ合わせて一枚の大きな連結画像とし、当該合成画像を用いて三次元測量を行う方法がある。この場合は、被写体の単位面積あたりに写っている写真の画素数が多くなり、一画素あたりに投影されている被写体の領域が狭いため、写真に写っている特徴は明確となり、上記の問題点は解消する。   Second, using a telephoto image taken with a camera with a long focal length, take multiple photos from the same shooting position so that part of the shooting range overlaps, and connect them together to create a single photo There is a method of performing a three-dimensional survey using a large connected image and using the composite image. In this case, the number of pixels of the photograph taken per unit area of the subject increases, and the area of the subject projected per pixel is narrow, so the features appearing in the photograph become clear and the above problem Is resolved.

しかし、連結画像を作成する作業過程において、隣り合う望遠画像をつなぎ合わせていく場合、写真の光軸が異なる複数枚の写真をつなぎ合わせるため、写真画像のつなぎ合わせの段階で、2枚の写真の間にわずかに誤差が生じてしまう。特に写真画像においては、画像の端部領域においてはレンズの収差に基づく被写体像のゆがみが大きく、複数枚の写真を互いの端部に被写体が共通するようにして撮影し、当該複数枚をつなぎ合わせる場合において、ずれが大きくなりやすい。これを被写体全体が撮影されている連結画像ができるまで、繰り返しつなぎ合わせていくと最後に連結された画像は、本来の画像の位置からのずれが累積的に大きくなってしまい、精度の高い連結画像を得ることが困難であった。すなわち、連結画像自体が被写体の真の像から誤差を有するものであるため、正確に対応点を指定した場合であっても、得られた測量結果は誤差を含むものであった。   However, when joining adjacent telephoto images in the process of creating a concatenated image, two photos are joined at the stage of joining the photographic images to join together multiple photos with different optical axes. There will be a slight error between the two. In particular, in the case of a photographic image, the subject image is greatly distorted due to lens aberration in the edge region of the image, and a plurality of photographs are taken so that the subject is common to both ends, and the plurality of photographs are connected. In the case of matching, the deviation tends to increase. When this is repeatedly connected until a connected image in which the entire subject has been photographed is created, the final connected image will be cumulatively displaced from the original image position, resulting in highly accurate connection. It was difficult to obtain an image. That is, since the connected image itself has an error from the true image of the subject, the obtained survey result includes an error even when the corresponding point is correctly specified.

したがって、本発明が解決しようとする技術的課題は、写真測量における計測点の対応付けにおいて、より高精度に対応付けを行うことができる計測点の対応付け方法及び装置を提供することである。   Therefore, a technical problem to be solved by the present invention is to provide a measurement point association method and apparatus capable of performing association with higher accuracy in association of measurement points in photogrammetry.

本発明は、上記技術的課題を解決するために、以下の3次元計測方法を提供する。   In order to solve the above technical problem, the present invention provides the following three-dimensional measurement method.

本発明の第1態様によれば、基準位置に配置されたカメラ及び前記基準位置と異なる検査位置に配置されたカメラによってそれぞれ被写体を撮影した複数枚の写真画像を用い、前記複数枚の写真画像に共通して写っている基準点の前記写真画像中の座標値に基づいて前記基準位置及び検査位置の撮影位置関係を演算し、当該撮影位置関係の情報に基づいて前記写真画像中の任意の計測点の座標値から前記計測点の被写体空間中の三次元位置情報を計測する3次元計測方法であって、
前記基準位置及び前記検査位置からそれぞれ撮影された前記写真画像として、焦点距離が短い状態で撮影された広角画像と、前記広角画像と同じ撮影位置から撮影領域の一部を撮影した焦点距離がより長い状態で撮影された少なくとも1枚の望遠画像を用いて、前記望遠画像を同じ撮影位置から撮影された前記広角画像中に合成表示した合成写真画像を前記撮影位置ごとに作成して、前記複数枚の合成写真画像とし、
前記撮影位置ごとに作成された前記合成写真画像において、撮影領域内に共通して写っている基準点を選択し、
前記基準点の前記複数の合成写真画像中の座標値に基づいて、前記基準位置及び検査位置の撮影位置関係を演算する3次元計測方法を提供する。
According to the first aspect of the present invention, a plurality of photographic images are used by using a plurality of photographic images obtained by photographing a subject with a camera disposed at a reference position and a camera disposed at an inspection position different from the reference position. Is calculated based on the coordinate value in the photographic image of the reference point that is commonly captured in the photographic image, and the photographic position relationship between the reference position and the inspection position is calculated. A three-dimensional measurement method for measuring three-dimensional position information of the measurement point in the subject space from the coordinate value of the measurement point,
As the photographic images photographed from the reference position and the inspection position, respectively, a wide-angle image photographed with a short focal length, and a focal distance obtained by photographing a part of the photographing region from the same photographing position as the wide-angle image are obtained. Using at least one telephoto image taken in a long state, a composite photo image obtained by combining and displaying the telephoto image in the wide-angle image taken from the same photographing position is created for each of the photographing positions, A composite photo image,
In the composite photo image created for each shooting position, select a reference point that is commonly shown in the shooting area,
Provided is a three-dimensional measurement method for calculating a photographing position relationship between the reference position and the inspection position based on coordinate values in the plurality of composite photograph images of the reference point.

本発明の第2態様によれば、前記合成写真画像は、前記同じ撮影位置から撮影された前記広角画像と望遠画像とに共通して写っている基準点を4点以上選択し、
前記広角画像と望遠画像中における前記基準点の座標値に基づいて、射影変換式を算出し、当該射影変換式により前記望遠画像を広角画像中に合成表示することにより作成する第1態様の3次元計測方法を提供する。
According to the second aspect of the present invention, the composite photograph image selects four or more reference points that are common to the wide-angle image and the telephoto image taken from the same photographing position,
A third aspect of the first aspect in which a projection conversion equation is calculated based on the coordinate value of the reference point in the wide-angle image and the telephoto image, and the telephoto image is synthesized and displayed in the wide-angle image by the projection conversion equation. A dimension measurement method is provided.

本発明の第3態様によれば、前記合成画像は、前記変換式に基づいて前記望遠画像を前記広角画像中に射影変換した変換領域に外接する外接枠のX軸方向寸法及びY軸方向寸法の前記望遠画像のX軸方向寸法及びY軸方向寸法に対する割合としてそれぞれ導かれるX軸スケール及びY軸スケール、及び射影変換式に基づいて、当該変換望遠画像を前記広角画像中に合成表示することにより作成される第2態様の3次元計測方法を提供する。   According to the third aspect of the present invention, the composite image is obtained by measuring the X-axis dimension and the Y-axis dimension of a circumscribed frame circumscribing a conversion region obtained by projectively converting the telephoto image into the wide-angle image based on the conversion formula. And displaying the converted telephoto image in the wide-angle image based on the X-axis scale and the Y-axis scale, which are respectively derived as a ratio to the X-axis direction dimension and the Y-axis direction dimension of the telephoto image, and the projective transformation formula. A three-dimensional measurement method according to the second aspect created by the above is provided.

本発明の第4態様によれば、前記変換望遠画像は、前記望遠画像の各点を下記式により変換することによって作成される第3態様の3次元計測方法を提供する。

Figure 2006113001
上記式において、xは望遠画像中の任意の点のX座標、yは望遠画像中の任意の点のY座標、x16は変換望遠画像のX座標、y16は変換望遠画像のY座標、SxはX軸スケール、SyはY軸スケール、A,B,C,D,E,F,a,b,cはそれぞれ射影変換式の定数を示す。 According to a fourth aspect of the present invention, there is provided the three-dimensional measurement method according to the third aspect, wherein the converted telephoto image is created by converting each point of the telephoto image according to the following equation.
Figure 2006113001
In the above formula, x is the X coordinate of an arbitrary point in the telephoto image, y is the Y coordinate of an arbitrary point in the telephoto image, x 16 is X coordinate of the transformation telephoto image, the Y coordinate of y 16 converts telephoto image, Sx is an X-axis scale, Sy is a Y-axis scale, A, B, C, D, E, F, a, b, and c are constants of the projective transformation formula.

本発明の第5態様によれば、基準位置に配置されたカメラ及び前記基準位置と異なる検査位置に配置されたカメラによってそれぞれ被写体を撮影した複数枚の写真画像を用い、前記複数枚の写真画像に共通して写っている基準点の前記写真画像中の座標値に基づいて前記基準位置及び検査位置の撮影位置関係を演算し、当該撮影位置関係の情報に基づいて前記写真画像中の任意の計測点の座標値から前記計測点の被写体空間中の三次元位置情報を計測する3次元計測装置であって、
前記基準位置及び前記検査位置からそれぞれ撮影された前記写真画像として、焦点距離が短い状態で撮影された広角画像と、前記広角画像と同じ撮影位置から撮影領域の一部を撮影した焦点距離がより長い状態で撮影された少なくとも1枚の望遠画像との写真画像データを入力する画像入力手段と、
前記画像入力手段により入力された写真画像の任意の点について当該写真画像上における座標値を入力する座標入力手段と、
前記画像入力手段により入力された写真画像データのうち、前記望遠画像を同じ撮影位置から撮影された前記広角画像中に合成した合成写真画像を前記撮影位置ごとに作成する画像合成手段と、
前記撮影位置ごとに作成された前記合成写真画像において、撮影領域内に共通して写っている被写体の同じ位置についての前記座標入力手段により入力された座標値を、前記基準点の座標値とし、当該座標値に基づいて、当該写真画像の撮影位置関係を演算する位置関係演算手段と、
前記合成写真画像に写っている前記被写体の測定位置について、前記座標入力手段により入力された座標値を計測点の座標値とし、前記位置関係演算手段により演算された前記撮影位置関係の情報に基づいて前記合成写真画像に写っている前記計測点の前記被写体中の3次元座標を演算する計測点演算手段とを備える3次元計測装置を提供する。
According to the fifth aspect of the present invention, a plurality of photographic images are used by using a plurality of photographic images obtained by photographing a subject with a camera disposed at a reference position and a camera disposed at an inspection position different from the reference position. Is calculated based on the coordinate value in the photographic image of the reference point that is commonly captured in the photographic image, and the photographic position relationship between the reference position and the inspection position is calculated. A three-dimensional measurement apparatus that measures three-dimensional position information of the measurement point in the subject space from the coordinate value of the measurement point,
As the photographic images photographed from the reference position and the inspection position, respectively, a wide-angle image photographed with a short focal length, and a focal distance obtained by photographing a part of the photographing region from the same photographing position as the wide-angle image are obtained. Image input means for inputting photographic image data with at least one telephoto image taken in a long state;
Coordinate input means for inputting a coordinate value on the photographic image for an arbitrary point of the photographic image input by the image input means;
Image composition means for creating, for each photographing position, a composite photograph image obtained by compositing the telephoto image in the wide-angle image photographed from the same photographing position among the photographic image data input by the image input means;
In the composite photographic image created for each shooting position, the coordinate value input by the coordinate input means for the same position of the subject that is common in the shooting area, as the coordinate value of the reference point, Based on the coordinate value, a positional relationship calculating means for calculating the shooting positional relationship of the photographic image;
With respect to the measurement position of the subject in the composite photograph image, the coordinate value input by the coordinate input means is used as the coordinate value of the measurement point, and based on the information on the photographing position relation calculated by the positional relation calculation means. And a measurement point calculation means for calculating a three-dimensional coordinate in the subject of the measurement point reflected in the composite photograph image.

本発明の第1態様によれば、望遠画像と広角画像とを用い、望遠画像中の被写体像を広角画像中の被写体像に一致させるように、望遠画像と広角画像とを見かけ上合成する。すなわち、合成画像は、当該合成写真画像の表示においては、当該一致する被写体像については、望遠画像を表示する。すなわち、合成写真画像は、その一部の領域については、望遠画像の精細な情報が用いられているので、当該領域については、精細な画像情報を有している。そして、当該望遠画像を合成した撮影領域について基準点の選択を行うことにより、被写体の同じ点を精度良く選択することができ、高精度に位置情報の演算及び計測点の被写体空間中の3次元位置情報を計測することができる。   According to the first aspect of the present invention, a telephoto image and a wide-angle image are used to apparently combine the telephoto image and the wide-angle image so that the subject image in the telephoto image matches the subject image in the wide-angle image. That is, the composite image displays a telephoto image for the matching subject image when the composite photographic image is displayed. That is, since the composite photographic image uses fine information of the telephoto image for a part of the region, the composite image has fine image information for the region. Then, by selecting the reference point for the shooting area obtained by combining the telephoto images, the same point of the subject can be selected with high accuracy, and the position information is calculated and the measurement point is three-dimensionally in the subject space. Position information can be measured.

本発明の第2態様によれば、合成写真画像の作成時において、広角画像と望遠画像の光軸中心にずれが生じるような場合であっても、当該望遠画像を射影変換することにより、望遠画像を広角画像の光軸から撮影したように変形して両写真画像の被写体像を一致させることができる。したがって、合成写真画像の作成時において、当該被写体像のずれの誤差を少なくし、被写体にきわめて近い被写体像を有する合成写真画像を作成することができる。   According to the second aspect of the present invention, even when there is a shift between the center of the optical axis of the wide-angle image and the telephoto image at the time of creating the composite photo image, the telephoto image is subjected to projective transformation, so that the telephoto image is obtained. The images can be transformed as if they were taken from the optical axis of the wide-angle image, and the subject images of both photographic images can be matched. Therefore, at the time of creating the composite photo image, it is possible to reduce the error of the subject image shift and create a composite photo image having a subject image very close to the subject.

本発明の第3、4態様によれば、射影変換により縮小される望遠画像の変換領域に外接する外接枠を用いて変換前後の望遠画像の倍率としてのX軸スケール及びY軸スケールを求めることにより、射影変換時に望遠画像を縮小することなく射影変換することができる。したがって、縮小による望遠画像の画素数の減少をなくすことができ、高精細な画像を広角画像上に重ね合わせて表示することができる。   According to the third and fourth aspects of the present invention, the X-axis scale and the Y-axis scale as the magnification of the telephoto image before and after conversion are obtained using a circumscribed frame circumscribing the conversion area of the telephoto image reduced by projective conversion. Thus, the projective transformation can be performed without reducing the telephoto image during the projective transformation. Therefore, the reduction in the number of pixels of the telephoto image due to the reduction can be eliminated, and a high-definition image can be displayed superimposed on the wide-angle image.

以下、本発明の一実施形態に係る3次元計測装置について、図面を参照しながら説明する。   Hereinafter, a three-dimensional measurement apparatus according to an embodiment of the present invention will be described with reference to the drawings.

本実施形態にかかる3次元計測装置は、2箇所以上から撮影された被写体中に存在する任意の計測点の三次元座標を計測するものである。3次元計測装置は、写真画像上の座標を元に、バンドル法により三次元座標を算出する方法であって、写真画像座標の計測(写真画像における被写体上の所要の基準点の座標の計測)を行った後、写真画像の精密解析(標定要素及び基準計測点の三次元座標についての近似値に基づく写真画像の精密解析による標定要素及び基準点の三次元座標の算出、並びに必要な任意の計測点の三次元座標)により行われる。   The three-dimensional measuring apparatus according to the present embodiment measures three-dimensional coordinates of arbitrary measurement points existing in a subject photographed from two or more places. A three-dimensional measuring apparatus is a method for calculating three-dimensional coordinates by a bundle method based on coordinates on a photographic image, and measuring photographic image coordinates (measuring the coordinates of a required reference point on a subject in a photographic image). After the analysis, precise analysis of the photographic image (calculation of the three-dimensional coordinates of the orientation element and reference point by precise analysis of the photographic image based on the approximate value of the three-dimensional coordinates of the orientation element and reference measurement point, as well as any required 3D coordinates of measurement points).

標定要素としては、写真主点位置の二次元座標及び画面距離等の内部標定要素、写真画像の歪み係数、並びに、被写体空間における適宜の座標系における写真撮影時のカメラの位置及び傾きに関する3つの移動量及び3つの回転量等の外部標定要素を例として挙げることができる。内部標定要素が既知であれば、それ以外の標定要素を求めることとなる。   The orientation elements include three orientation factors such as the two-dimensional coordinates of the photographic principal point position and the screen distance, the distortion coefficient of the photographic image, and the position and tilt of the camera at the time of taking a photograph in an appropriate coordinate system in the subject space. External orientation elements such as a movement amount and three rotation amounts can be given as examples. If the internal orientation element is known, other orientation elements are obtained.

本装置は、写真画像を入力し、解析演算するためのコンピュータで構成される。写真画像はデジタルカメラによって撮影されたものが好ましいが、フィルムカメラによって撮られた写真をスキャナなどでデジタル化したものであってもよい。カメラは、内部標定がなされている写真計測用のものでもよいし、内部標定がなされていない汎用のデジタルカメラであってもよい。コンピュータは、汎用のものを用いることができ、コンピュータに後述するような処理を行わせるプログラムを、当該プログラムが記憶された記憶媒体を用いてコンピュータにインストールすることにより駆動する。   This apparatus is composed of a computer for inputting a photographic image and performing an analysis operation. The photograph image is preferably taken by a digital camera, but it may be a photograph obtained by digitizing a photograph taken by a film camera with a scanner or the like. The camera may be for photo measurement with internal orientation or a general-purpose digital camera with no internal orientation. A general-purpose computer can be used, and is driven by installing a program that causes the computer to perform processing as described later on the computer using a storage medium that stores the program.

本装置において用いられる写真画像は、例えばCCD(Charge Coupled Device)等を撮像素子とするデジタルスチルカメラやデジタルビデオカメラを用いて撮影等により得られるデジタル情報であることが最も望ましいが、例えばアナログスチルカメラやアナログビデオカメラを用いた撮影等により得られるアナログ情報をデジタル情報に変換したものを用いることもできる。デジタル情報として得た写真画像は、コンピュータで直接取り扱うことができる。なお、計測精度等の必要に応じ、前記デジタルカメラ等の撮影機の解像度、撮影距離、撮影角度及び基準計測点を撮影する数等を任意に選択することができる。また、紙やプラスチックフィルム等に形成した写真画像のハードコピーを直接用いることもでき、そのようなハードコピーを画像スキャナ等によりデジタル情報化して用いることもできる。   The photographic image used in this apparatus is most preferably digital information obtained by photographing using a digital still camera or a digital video camera using, for example, a CCD (Charge Coupled Device) as an imaging element. It is also possible to use analog information obtained by photographing with a camera or an analog video camera and converted into digital information. Photo images obtained as digital information can be directly handled by a computer. Note that the resolution, shooting distance, shooting angle, and number of reference measurement points to be shot can be arbitrarily selected according to the need for measurement accuracy and the like. In addition, a hard copy of a photographic image formed on paper, a plastic film or the like can be directly used, and such a hard copy can be used as digital information by an image scanner or the like.

図1に本発明の実施形態に係る写真測量装置のブロック図を示す。本写真測量装置1は、カメラ7及びキーボードやマウスなどの入力装置8と接続するためのインターフェース部2、装置全体の制御を司る制御演算部3、写真画像などを表示する表示部4、解析される写真やデータなどの蓄積領域及び演算領域として機能する記憶部5、及び上記プログラムがインストールされることによってシステムプログラムとして機能するシステムプログラム記憶部6を備えている。   FIG. 1 shows a block diagram of a photogrammetry apparatus according to an embodiment of the present invention. The photogrammetry apparatus 1 is analyzed by an interface unit 2 for connection with a camera 7 and an input device 8 such as a keyboard and a mouse, a control calculation unit 3 for controlling the entire apparatus, and a display unit 4 for displaying photographic images. A storage section 5 that functions as a storage area and a calculation area for photographs and data, and a system program storage section 6 that functions as a system program by installing the program.

制御演算部3には、後述するように、システムプログラムにより駆動され写真測量を実行するためのブロック3a〜3eが設けられている。これらの各ブロックは、それぞれ単独で、または装置内の他のブロックと協働して、以下に示す処理を行う機能ブロックとして機能する。   As will be described later, the control calculation unit 3 is provided with blocks 3a to 3e that are driven by a system program and execute photogrammetry. Each of these blocks functions as a functional block that performs the following processing alone or in cooperation with other blocks in the apparatus.

次に、図1の写真測量装置を用いて写真測量を行う場合の処理の流れについて説明する。図2は、図1の写真測量装置を用いて写真測量を行う場合の処理の流れを示すフロー図である。本装置1を用いて写真測量を行う場合には、以下に示す各ステップの処理は、主に装置の制御演算部3の各ブロック3a〜3cが処理を司る。   Next, the flow of processing when performing photogrammetry using the photogrammetry apparatus of FIG. 1 will be described. FIG. 2 is a flowchart showing the flow of processing when performing photogrammetry using the photogrammetry apparatus of FIG. When photogrammetry is performed using the apparatus 1, the processing of each step shown below is mainly performed by the blocks 3a to 3c of the control calculation unit 3 of the apparatus.

まず、ステレオ画像を撮影し当該写真画像を装置1に送信して、画像記憶部5に記憶させ、操作時に表示部4に当該画像を表示させる(#1)。ステレオ画像は、カメラ7を用いて同じ被写体を異なる位置から撮影した2枚以上の写真画像である。以下、本実施形態では、同じ位置から撮影した広角画像と望遠画像を一組とし、それとは異なる位置から撮影したもう一組の広角画像と望遠画像の、合計4枚の写真画像を用いた場合について説明する。写真画像は、一方の位置から撮影した広角画像と望遠画像の1組の画像を基準画像、他の1組を検査画像として区別する。2つの撮影場所から撮影した写真画像のうち、どちらの組の写真画像を基準画像とするかは自由であり、任意の1組を選択することができる。   First, a stereo image is taken, the photographic image is transmitted to the apparatus 1, stored in the image storage unit 5, and the image is displayed on the display unit 4 at the time of operation (# 1). The stereo image is two or more photographic images obtained by photographing the same subject from different positions using the camera 7. Hereinafter, in the present embodiment, when a wide-angle image and a telephoto image taken from the same position are taken as one set, and a total of four photographic images of another wide-angle image and a telephoto image taken from different positions are used. Will be described. A photographic image is distinguished from a set of wide-angle and telephoto images taken from one position as a reference image and the other set as an inspection image. Of the photographic images taken from the two shooting locations, which set of photographic images is used as the reference image is arbitrary, and any one set can be selected.

本実施形態においては、上述のように、ステレオ画像の撮影において、それぞれの撮影位置において、カメラの焦点距離が異なる複数の写真を撮影する。すなわち、被写体を焦点距離が短く広角で撮影した広角画像と、同じ撮影位置から当該被写体(広角画像に撮影された被写体の一部分)を、焦点距離がより長いカメラを用いた望遠画像を撮影する。なお、望遠画像は、広角画像中の一部分を撮影したものであり、2枚以上であってもよい。さらに、望遠画像は、広角画像と同一場所からの撮影であれば、カメラの光軸の方向を変えて撮影した画像であってもよい。本実施形態では、理解の便宜のため、望遠画像は、それぞれの撮影位置に置いて1枚ずつ撮影したものとして説明を進める。後述するように、望遠画像は、基準点及び計測点の入力時において、その座標計測のために用いられるものであり、広角画像中の基準点及び計測点として適当な部分を撮影するようにすることが好ましい。また、本実施形態において用いる広角画像や望遠画像は、予めレンズの歪みを補正しておくことが望ましいが、絶対条件ではない。   In the present embodiment, as described above, in photographing a stereo image, a plurality of photographs having different focal lengths of the camera are photographed at each photographing position. That is, a wide-angle image obtained by photographing a subject with a short focal length and a wide angle, and a telephoto image using a camera with a longer focal length are photographed from the same photographing position (the part of the subject photographed in the wide-angle image). Note that the telephoto image is an image of a part of the wide-angle image, and may be two or more. Further, the telephoto image may be an image taken by changing the direction of the optical axis of the camera, as long as the telephoto image is taken from the same place as the wide-angle image. In the present embodiment, for convenience of understanding, the description will be made assuming that the telephoto images are taken one by one at each photographing position. As will be described later, the telephoto image is used for coordinate measurement when inputting the reference point and the measurement point, and an appropriate portion is taken as the reference point and the measurement point in the wide-angle image. It is preferable. In addition, it is desirable to correct lens distortion in advance for wide-angle images and telephoto images used in this embodiment, but this is not an absolute condition.

図3は、写真測量を行う場合についての座標系を示す図である。2つのカメラA、カメラBによってそれぞれ撮影された写真画像110、210は、それぞれの光軸中心100a,200aに対して、それぞれカメラの光軸方向をZ軸とし、写真画像の長手方向をX軸、短手方向をY軸とする。原点は、以下に示す各写真上における座標系において各写真の左上コーナー部とする。したがって、カメラの傾きに応じてX軸は地表Eに平行となるとは限らない。本実施形態においては、基準画像を撮影したカメラを基準に3次元座標を特定する。すなわち、カメラAにより撮影された写真画像110を基準画像とした場合は、X1,Y1,Z1軸を基準座標系として採用する。以下、カメラAを基準カメラとし、カメラAにより撮影された写真画像を基準画像とした場合について説明を進める。   FIG. 3 is a diagram showing a coordinate system for performing photogrammetry. The photographic images 110 and 210 photographed by the two cameras A and B, respectively, have the optical axis direction of the camera as the Z axis and the longitudinal direction of the photographic image as the X axis with respect to the optical axis centers 100a and 200a, respectively. The short direction is the Y axis. The origin is the upper left corner of each photo in the coordinate system on each photo shown below. Therefore, the X axis is not always parallel to the ground surface E according to the tilt of the camera. In the present embodiment, the three-dimensional coordinates are specified based on the camera that captured the reference image. That is, when the photographic image 110 taken by the camera A is used as the reference image, the X1, Y1, and Z1 axes are adopted as the reference coordinate system. Hereinafter, a description will be given of a case where the camera A is a reference camera and a photographic image taken by the camera A is a reference image.

本実施形態において、写真測量に用いられる写真画像は、例えば、次の図4A,図4B,図5A,図5Bに示すようなものである。すなわち、図4Aは、カメラAにより撮影された広角画像(基準画像)、図4BはカメラBにより撮影された広角画像(検査画像)である。図5Aは、カメラAにより撮影された望遠画像の1つ、図5BはカメラBにより撮影された望遠画像の1つを示している。これらの写真画像は、当該写真画像単位でXY座標系を用いて画像中の任意の点を2次元的に表すことができる。   In the present embodiment, photographic images used for photogrammetry are, for example, as shown in FIGS. 4A, 4B, 5A, and 5B. 4A is a wide-angle image (reference image) taken by camera A, and FIG. 4B is a wide-angle image (inspection image) taken by camera B. 5A shows one of the telephoto images taken by the camera A, and FIG. 5B shows one of the telephoto images taken by the camera B. These photographic images can two-dimensionally represent arbitrary points in the image using the XY coordinate system in units of the photographic images.

次に広角画像に望遠画像を合成し(#2)、望遠画像を広角画像の位置に対応づけて表示部4に表示する。当該合成処理は、主に写真測量装置の画像合成部3cが司る。図6に広角画像と望遠画像の合成処理についての詳細なフロー図を示す。なお、本実施形態において合成画像は、望遠画像と合成画像が完全に融合し1つの画像とすることで望遠画像の精細さが失われるものではなく、望遠画像の精細さを維持しつつ、装置の表示部4上で表示される時に、どのように重ね合わせるかに用いられる演算処理を意味するものである。   Next, the telephoto image is combined with the wide-angle image (# 2), and the telephoto image is displayed on the display unit 4 in association with the position of the wide-angle image. The composition processing is mainly managed by the image composition unit 3c of the photogrammetry apparatus. FIG. 6 shows a detailed flowchart of the composition process of the wide-angle image and the telephoto image. In the present embodiment, the synthesized image is not a thing in which the telephoto image and the synthesized image are completely merged into one image so that the fineness of the telephoto image is not lost. This means a calculation process used for how to superimpose the images when displayed on the display unit 4.

まず、同じ位置から撮影した広角画像と望遠画像について、被写体の同じ箇所が撮影されている広角画像と望遠画像上の座標位置を合成基準点として4点以上(本実施形態では4点)指定する(#21)。具体的に、図7を用いて説明する。図7は、撮影点100a(図3参照)から撮影した広角画像と望遠画像である。図7に示すように、広角画像と望遠画像について、被写体の同じ点を示す合成基準点11a〜11d、12a〜12dを4点ずつ指定する。当該合成基準点11a〜11d、12a〜12dの指定は、表示部4に表示されている広角画像と望遠画像を参照しながら入力装置8を操作して入力する。当該入力された点は基準点指定部3aにより合成基準点11a〜11d、12a〜12dとして認識される。このとき、被写体に写っている物体の端部分など被写体の特徴部分を合成基準点として指定すると、広角画像と望遠画像について同じ点を指定しやすい。この合成基準点の広角画像上の座標をそれぞれ11a(x11a,y11a)、11b(x11b,y11b)、11c(x11c,y11c)、11d(x11d,y11d)とし、望遠画像上の座標をそれぞれ、12a(x12a,y12a)、12b(x12b,y12b)、12c(x12c,y12c)、12d(x12d,y12d)とする。この時、指定される一組の座標を取得するには、パターンマッチングを利用して、自動化を図ることもできる。 First, for a wide-angle image and a telephoto image taken from the same position, four or more (four points in the present embodiment) are designated as the composite reference point with respect to the wide-angle image taken from the same location of the subject and the telephoto image. (# 21). This will be specifically described with reference to FIG. FIG. 7 shows a wide-angle image and a telephoto image taken from the photographing point 100a (see FIG. 3). As shown in FIG. 7, for the wide-angle image and the telephoto image, the synthesis reference points 11a to 11d and 12a to 12d indicating the same point of the subject are designated four by four. The combination reference points 11a to 11d and 12a to 12d are designated by operating the input device 8 while referring to the wide-angle image and the telephoto image displayed on the display unit 4. The input points are recognized as the composite reference points 11a to 11d and 12a to 12d by the reference point designating unit 3a. At this time, if a feature portion of the subject such as an end portion of the object shown in the subject is designated as the synthesis reference point, the same point can be easily designated for the wide-angle image and the telephoto image. The coordinates of the composite reference point on the wide-angle image are 11a (x 11a , y 11a ), 11b (x 11b , y 11b ), 11c (x 11c , y 11c ), 11d (x 11d , y 11d ), respectively. The coordinates on the image are 12a ( x12a , y12a ), 12b ( x12b , y12b ), 12c ( x12c , y12c ), 12d ( x12d , y12d ), respectively. At this time, in order to acquire a set of designated coordinates, pattern matching can be used for automation.

4点以上の対応付けをして得られた4組の合成基準点の座標を式(1)で示される射影変換式に代入することにより、式(1)の9個の定数(A,B,C,D,E,F,a,b,c)を算出する(#22)。   By substituting the coordinates of the four sets of composite reference points obtained by associating four or more points into the projective transformation expression shown in Expression (1), nine constants (A, B in Expression (1) are obtained. , C, D, E, F, a, b, c) are calculated (# 22).

Figure 2006113001
式(1)において、x12、y12は望遠画像側の合成基準点の座標12a〜12dで、x11、y11は広角画像側の合成基準点の座標11a〜11dを示す。
Figure 2006113001
In Expression (1), x 12 and y 12 are coordinates 12a to 12d of the composite reference point on the telephoto image side, and x 11 and y 11 are coordinates 11a to 11d of the composite reference point on the wide-angle image side.

この4組以上の合成基準点の入力により、望遠画像を広角画像に重ねるための定数(A,B,C,D,E,F,a,b,c)を求めることができ、合成画像を作成することが可能である。しかし、この定数をそのまま適用し、望遠画像120を広角画像110に合成すると、望遠画像120が縮小され、画素数が減るため、画像の精細さが失われてしまう。また、合成画像を表示する際に望遠画像を元画像として上記各定数が求められた式(1)より変形しながら、表示する方法が考えられるが、当該合成画像を表示する装置に過度の演算を課すことになり、合成画像の表示スピードが遅くなる。そのため、以下の処理を行う。   By inputting four or more sets of composite reference points, constants (A, B, C, D, E, F, a, b, c) for superimposing the telephoto image on the wide-angle image can be obtained. It is possible to create. However, if this constant is applied as it is and the telephoto image 120 is combined with the wide-angle image 110, the telephoto image 120 is reduced and the number of pixels is reduced, so that the fineness of the image is lost. In addition, when displaying the composite image, a method of displaying the composite image with the telephoto image as an original image while transforming from the above-described constants (1) is conceivable. The display speed of the composite image becomes slow. Therefore, the following processing is performed.

具体的には、図8に示すように、望遠画像120の外枠の座標を上記各定数が求められた式(1)を用いて変換する。具体的には、望遠画像120の4つのコーナー部13a〜13dの座標を、式(1)により変換すればよい。当該望遠画像120の4つのコーナー部13a〜13dが式(1)により変換された点を外枠変換点14a〜14dとする。ここで、その座標を14a(X14a,Y14a)、14b(X14b,Y14b)、14c(X14c,Y14c)、14d(X14d,Y14d)とする(#23)。 Specifically, as shown in FIG. 8, the coordinates of the outer frame of the telephoto image 120 are converted using the formula (1) from which the above constants are obtained. Specifically, the coordinates of the four corner portions 13a to 13d of the telephoto image 120 may be converted by Expression (1). Points obtained by converting the four corner portions 13a to 13d of the telephoto image 120 according to the expression (1) are referred to as outer frame conversion points 14a to 14d. Here, the coordinates are 14a ( X14a , Y14a ), 14b ( X14b , Y14b ), 14c ( X14c , Y14c ), 14d ( X14d , Y14d ) (# 23).

次に図9に示すように、外枠変換点の座標14a〜14dより、当該外枠変換点を結ぶ領域に外接し、かつ横方向がX軸に沿いかつ横方向がY軸に沿う矩形の外接枠15を演算する(#24)。具体的には、外枠変換点の座標14a〜14dのうち、X座標の最大値と最小値、Y座標の最大値と最小値とを検索し、それぞれ15a(X最大、Y最小)、15b(X最大、Y最大)、15c(X最小、Y最大)、15d(X最小、Y最小)の組み合わせにより4点の座標を決定し、当該座標が示す点で囲まれた範囲を外接枠15とすればよい。また、外接枠15のX軸方向の大きさXo(15aと15dとの差)及び外接枠15のY軸方向の大きさYo(15cと15dとの差)を求め、望遠画像120全体のX軸方向の大きさXa(13aと13dとの差)および望遠画像120全体のY軸方向の大きさYa(13cと13dとの差)の情報と比較し、式(2)に基づいて、X軸スケールSx、及びY軸スケールSyを求める(#26)。ここで、X軸スケールSx、及びY軸スケールSyは望遠画像の精細さを失わないようにするためのスケールである。   Next, as shown in FIG. 9, from the coordinates 14a to 14d of the outer frame conversion point, a rectangle circumscribing the region connecting the outer frame conversion points, the horizontal direction along the X axis, and the horizontal direction along the Y axis. The circumscribed frame 15 is calculated (# 24). Specifically, among the coordinates 14a to 14d of the outer frame conversion point, the maximum value and minimum value of the X coordinate and the maximum value and minimum value of the Y coordinate are searched, and 15a (X maximum, Y minimum) and 15b, respectively. The coordinates of four points are determined by a combination of (X maximum, Y maximum), 15c (X minimum, Y maximum), 15d (X minimum, Y minimum), and a range surrounded by the points indicated by the coordinates is defined as a circumscribed frame 15 And it is sufficient. Also, the size Xo (difference between 15a and 15d) of the circumscribing frame 15 and the size Yo (difference between 15c and 15d) of the circumscribing frame 15 are obtained, and X of the entire telephoto image 120 is obtained. Compared with the information of the size Xa in the axial direction (difference between 13a and 13d) and the size Ya in the Y-axis direction of the entire telephoto image 120 (difference between 13c and 13d), X An axis scale Sx and a Y-axis scale Sy are obtained (# 26). Here, the X-axis scale Sx and the Y-axis scale Sy are scales for preventing loss of definition of the telephoto image.

Figure 2006113001
式(2)において、SxはX軸スケール、SyはY軸スケール、Xaは望遠画像全体のX軸方向の大きさ、Xoは外接枠のX軸方向の大きさ、Yaは望遠画像全体のY軸方向の大きさ、Yoは外接枠のY軸方向の大きさを示す。
Figure 2006113001
In Expression (2), Sx is the X-axis scale, Sy is the Y-axis scale, Xa is the size of the entire telephoto image in the X-axis direction, Xo is the size of the circumscribed frame in the X-axis direction, and Ya is the Y of the entire telephoto image. The size in the axial direction, Yo, indicates the size in the Y-axis direction of the circumscribed frame.

上記において求められたX軸スケールSx、及びY軸スケールSyに基づいて、式(3)に外枠変換点の座標14a〜14dを入力することで、変換望遠画像枠を算出することができる。具体的には、図10に示すように、外枠変換点の座標14a〜14dを式(3)に入力すれば、それぞれ対応する変換望遠画像枠のコーナー部の座標16a(x16a,y16a),16b(x16b,y16b),16c(x16c,y16c),16d(x16d,y16d)を算出することができる。 Based on the X-axis scale Sx and the Y-axis scale Sy obtained in the above, the converted telephoto image frame can be calculated by inputting the coordinates 14a to 14d of the outer frame conversion point into the equation (3). Specifically, as shown in FIG. 10, if the coordinates 14a to 14d of the outer frame conversion points are input to the expression (3), the coordinates 16a (x 16a , y 16a of the corner portions of the corresponding converted telephoto image frames are respectively provided. ), 16b ( x16b , y16b ), 16c ( x16c , y16c ), 16d ( x16d , y16d ) can be calculated.

Figure 2006113001
Figure 2006113001

上述のように、望遠画像の各座標と外枠変換点の座標14a〜14dとは、式(1)に示す関係があるから、X軸スケールSx及びY軸スケールSyにより、望遠画像の精細さを損なうことなく、変換望遠画像に変換することができる。すなわち、望遠画像中の任意の点の座標と変換望遠画像中の各点の座標との間には式(1)と式(3)から導かれる式(4)に示す関係を有する。   As described above, since the coordinates of the telephoto image and the coordinates 14a to 14d of the outer frame conversion points have the relationship shown in the equation (1), the definition of the telephoto image is determined by the X-axis scale Sx and the Y-axis scale Sy. Can be converted into a converted telephoto image without impairing the image quality. That is, there is a relationship shown in Expression (4) derived from Expression (1) and Expression (3) between the coordinates of an arbitrary point in the telephoto image and the coordinates of each point in the converted telephoto image.

Figure 2006113001
式(4)において、xは望遠画像中の任意の点のX座標、yは望遠画像中の任意の点のY座標、x16は変換望遠画像のX座標、y16は変換望遠画像のY座標、SxはX軸スケール、SyはY軸スケールを示す。
Figure 2006113001
In the formula (4), x is the X coordinate of an arbitrary point in the telephoto image, y is the Y coordinate of an arbitrary point in the telephoto image, x 16 is X coordinate of the transformation telephoto image, the y 16 conversion telephoto image Y Coordinates, Sx indicates an X-axis scale, and Sy indicates a Y-axis scale.

したがって、図11に示すように、式(4)に基づいて、望遠画像120を変換望遠画像16に変換する(#27)。この処理によって、望遠画像120を広角画像中に貼り合わせる場合に用いられる画像の射影変換を、画像の精細さを損なうことなく行うことができる。   Therefore, as shown in FIG. 11, the telephoto image 120 is converted into the converted telephoto image 16 based on the equation (4) (# 27). By this processing, projective transformation of an image used when the telephoto image 120 is pasted into a wide-angle image can be performed without losing the definition of the image.

なお、広角画像と望遠画像の貼り合わせにおいては、変換望遠画像を適宜縮小または拡大して表示する。この場合であっても変換望遠画像のデータ(画素数)は、実際には減少するものではなく、望遠画像と同じ精細さで表示される。   In addition, in pasting the wide-angle image and the telephoto image, the converted telephoto image is appropriately reduced or enlarged and displayed. Even in this case, the data (number of pixels) of the converted telephoto image is not actually reduced, but is displayed with the same fineness as the telephoto image.

また、カメラBによって撮影された広角画像と望遠画像についても同様に合成処理を行い、この処理が終了すると広角画像と望遠画像の合成処理が終了する。   In addition, the wide-angle image and the telephoto image captured by the camera B are similarly combined, and when this processing ends, the wide-angle image and telephoto image combination processing ends.

上記広角画像と望遠画像の合成処理が終了すると、次いで、写真画像座標の計測[写真画像における被写体上の所要の基準点の座標(二次元座標)の計測]を行う。   When the composition processing of the wide-angle image and the telephoto image is completed, photographic image coordinate measurement [measurement of required reference point coordinates (two-dimensional coordinates) on the subject in the photographic image] is performed.

具体的には、図2に示すように、広角画像と望遠画像とが合成された画像中において基準点を指定する(#3)。当該基準点の指定は、広角画像上に貼り合わされて表示されている変換望遠画像の領域において行うことが好ましい。   Specifically, as shown in FIG. 2, a reference point is designated in an image obtained by combining a wide-angle image and a telephoto image (# 3). The designation of the reference point is preferably performed in the area of the converted telephoto image displayed by being pasted on the wide-angle image.

基準点としては、合成画像中の望遠画像との合成箇所において、被写体のコーナーなど、外観上判別しやすい位置を選択する。もちろん、被写体に予め基準点として用いるためのターゲットを設置した被写体を撮影してもよい。基準点の指定は、2つの撮影箇所から撮影された2枚の合成画像において、望遠画像が貼り合わされて表示されている領域に共通して写っている被写体の部分を、マウスなどの入力装置8の操作により入力する。当該入力された点は座標点指定部3aにより基準点として認識される。   As a reference point, a position that is easily discernable in appearance, such as a corner of a subject, is selected at a portion of the composite image with the telephoto image. Of course, a subject in which a target for use as a reference point in advance is placed on the subject may be photographed. The reference point is designated by inputting an object such as a mouse to a portion of a subject that is commonly displayed in a region where a telephoto image is pasted in two composite images taken from two shooting locations. Input by the operation. The input point is recognized as a reference point by the coordinate point designating unit 3a.

これらの処理を繰り返し、両画像において基準点を5箇所以上選択し、各基準点の当該写真画像上の座標値を利用してカメラA100、カメラB200の位置関係を算出する(#4)。本実施形態は、写真測量法では外部標定と呼ばれるもので、位置関係として、カメラA100(基準カメラ)の光軸中心を原点とする基準座標系において、カメラB200(検査カメラ)の光軸中心がどこに位置するかを表す座標値及びカメラB200の光軸がどの方向を向いているかを示す角度を導く。   These processes are repeated to select five or more reference points in both images, and the positional relationship between the camera A100 and the camera B200 is calculated using the coordinate values of each reference point on the photographic image (# 4). This embodiment is called external orientation in the photogrammetry method, and as a positional relationship, the optical axis center of the camera B200 (inspection camera) is the reference coordinate system having the optical axis center of the camera A100 (reference camera) as the origin. A coordinate value indicating where it is located and an angle indicating in which direction the optical axis of the camera B200 is directed are derived.

当該撮影位置関係の演算は、装置1の位置演算部3bが司る。本実施形態では、撮影位置関係として、撮影位置Aのカメラ(以下、カメラAと略記する。)を基準とする座標系から見て、他のカメラ、すなわち、撮影位置Bのカメラ(以下、カメラBと略記する。)がどこに位置するかを表す座標及びカメラBがどの方向を向いているかを示す角度を用いる。   The position calculation unit 3b of the device 1 controls the calculation of the photographing position relationship. In the present embodiment, as a shooting position relationship, another camera, that is, a camera at a shooting position B (hereinafter referred to as a camera) as viewed from a coordinate system based on a camera at the shooting position A (hereinafter abbreviated as camera A). Abbreviated as B.) and coordinates indicating where the camera B is located and an angle indicating which direction the camera B is facing.

なお、撮影位置関係の演算において、基準点の座標は、望遠画像において精細になされた座標値を用いて行う。すなわち、合成画像中の望遠画像は広角画像に比べて精細な画像情報が含まれているため、当該望遠画像によって特定される座標値を用いることにより、より精度の高い位置情報を特定することができ、カメラの撮影位置関係の算出の精度を向上させることができる。このとき、変換望遠画像中の任意の座標値は、広角画像上の座標値に以下の式により変換される。当該変換された広角画像上の座標値は、写真測量装置の制御演算部3に格納されている浮動小数点の機能を用い、小数点以下の値として演算される(図12参照)。   Note that, in the calculation of the photographing position relationship, the coordinates of the reference point are performed using coordinate values that are finely defined in the telephoto image. That is, since the telephoto image in the composite image includes finer image information than the wide-angle image, it is possible to specify position information with higher accuracy by using the coordinate value specified by the telephoto image. It is possible to improve the accuracy of calculation of the photographing position relationship of the camera. At this time, arbitrary coordinate values in the converted telephoto image are converted into coordinate values on the wide-angle image by the following expression. The converted coordinate value on the wide-angle image is calculated as a value after the decimal point using the floating point function stored in the control calculation unit 3 of the photogrammetry apparatus (see FIG. 12).

Figure 2006113001
式(5)において、x10は広角画像中のX座標、y10は広角画像中のY座標、x16は変換望遠画像のX座標、y16は変換望遠画像のY座標、SxはX軸スケール、SyはY軸スケール、xは変換望遠画像の原点のX座標が広角画像中に対応する点のX座標、yは変換望遠画像の原点のY座標が広角画像中に対応する点のY座標を示す。
Figure 2006113001
In Expression (5), x 10 is the X coordinate in the wide-angle image, y 10 is the Y coordinate in the wide-angle image, x 16 is the X coordinate of the converted telephoto image, y 16 is the Y coordinate of the converted telephoto image, and Sx is the X axis. scale, Sy is the Y-axis scales, x 0 is the X coordinate of the point X coordinate of the origin of the conversion telephoto image corresponds in wide-angle image, y 0 is the point where the Y coordinate of the origin of transformation telephoto image corresponds in wide-angle image Indicates the Y coordinate.

カメラの撮影位置関係が特定されると、次に、計測対象としての被写体中の計測点を指定する。当該計測点の指定は、広角画像上に貼り合わされて表示されている変換望遠画像の領域において行うことが好ましい。   When the shooting position relationship of the camera is specified, next, a measurement point in the subject as a measurement target is designated. The measurement point is preferably specified in the area of the converted telephoto image displayed on the wide-angle image.

計測点の指定は、基準画像において、望遠画像が貼り合わされて表示されている領域に共通して写っている被写体の部分を、マウスなどの入力装置8の操作により入力する。当該入力された点は座標点指定部3aにより計測点として認識される。   For specifying the measurement point, a portion of the subject that is shown in common in the area where the telephoto image is pasted and displayed in the reference image is input by operating the input device 8 such as a mouse. The input point is recognized as a measurement point by the coordinate point designating unit 3a.

計測点の入力が終了すると、位置演算部3bにより、計測点の被写体三次元系中の3次元座標が解析される。計測点の位置解析は、バンドル法を利用して最小二乗法により行うのが好適である。その際、必要な繰り返し計算を行う。また、バンドル法を利用して最小二乗法により解析するにあたっては、上述のように、計測点の位置解析に用いられる写真中の座標値は、望遠画像において精細になされた座標値を用いて行う。すなわち、合成画像中の望遠画像は広角画像に比べて精細な画像情報が含まれているため、当該望遠画像によって特定される座標値を用いることにより、より精度の高い位置情報を特定することができる。   When the input of the measurement point is completed, the position calculation unit 3b analyzes the three-dimensional coordinates in the subject three-dimensional system of the measurement point. The position analysis of the measurement point is preferably performed by the least square method using the bundle method. At that time, necessary repetitive calculations are performed. In addition, in the analysis by the least square method using the bundle method, as described above, the coordinate values in the photograph used for the position analysis of the measurement points are performed using the coordinate values made fine in the telephoto image. . That is, since the telephoto image in the composite image includes finer image information than the wide-angle image, it is possible to specify position information with higher accuracy by using the coordinate value specified by the telephoto image. it can.

計測作業の容易化及び解析精度の向上はセルフキャリブレーション(self calibration)法を使用すれば、内部標定要素を算出することができるので、様々な現場における内部標定要素が未知の又は十分に検定されていないカメラを用いた計測作業を容易にすることができる。   For ease of measurement work and improvement of analysis accuracy, the self-calibration method can be used to calculate the internal orientation elements, so that the internal orientation elements at various sites are unknown or sufficiently verified. Measurement work using a camera that is not available can be facilitated.

以上説明したように、本実施形態にかかる3次元計測装置によれば、望遠画像と広角画像とを用い、望遠画像中の被写体像を広角画像中の被写体像に一致させるように望遠画像と広角画像とを合成するとともに、当該合成写真画像の表示においては、当該一致する被写体像については、画像の精細さを失わずに望遠画像を表示する合成画像を用い、該望遠画像を合成した撮影領域について基準点の選択を行うことにより、被写体の同じ点を精度良く選択することができるため、高精度に位置情報の演算及び計測点の被写体空間中の3次元位置情報を計測することができる。   As described above, according to the three-dimensional measurement apparatus according to the present embodiment, a telephoto image and a wide-angle image are used so that the subject image in the telephoto image matches the subject image in the wide-angle image using the telephoto image and the wide-angle image. In the display of the composite photographic image, a shooting area in which the telephoto image is combined using a composite image that displays the telephoto image without losing the fineness of the image. Since the same point of the subject can be selected with high accuracy by selecting the reference point, the position information can be calculated and the three-dimensional position information of the measurement point in the subject space can be measured with high accuracy.

また、広角画像と望遠画像との合成については、射影変換を用いて行うようにしているため、例えば、望遠画像が広角画像の端部の領域に存在する場合など、両者の光軸が大きくずれている場合であっても、望遠画像を広角画像の光軸から撮影したように変換して、両写真画像の被写体像を一致させることができるため、被写体像のずれが生じることなく合成写真画像を作成することができる。また、X軸スケール及びY軸スケールを用いて、射影変換時に生じる望遠画像の縮小をなくし、広角画像中に表示される望遠画像の画素数の減少をなくし、高精細な合成写真画像を得ることができる。   In addition, since the composition of the wide-angle image and the telephoto image is performed using projective transformation, the optical axes of the two are greatly shifted, for example, when the telephoto image exists in the end region of the wide-angle image. Even if the image is taken, it is possible to convert the telephoto image as if it was taken from the optical axis of the wide-angle image, and to match the subject images of the two photographic images, so that the composite photographic image does not cause a deviation of the subject images. Can be created. Further, by using the X-axis scale and the Y-axis scale, it is possible to eliminate the reduction of the telephoto image that occurs at the time of projective transformation, and to eliminate the reduction in the number of pixels of the telephoto image displayed in the wide-angle image, thereby obtaining a high-definition composite photograph image. Can do.

なお、本発明は上記実施形態に限定されるものではなく、その他種々の態様で実施可能である。   In addition, this invention is not limited to the said embodiment, It can implement in another various aspect.

望遠画像は広角画像ごとに1枚とする必要はなく、広角画像の複数の領域を撮影した複数枚の画像で構成してもよい。この場合、望遠画像の射影変換を繰り返し行い、すべての望遠画像を合成表示した合成写真画像を作成した後に、基準点の指定の処理を行うことが好ましい。   The telephoto image does not have to be one for each wide-angle image, and may be composed of a plurality of images obtained by photographing a plurality of regions of the wide-angle image. In this case, it is preferable that the projection conversion of the telephoto image is repeatedly performed to generate a composite photo image in which all the telephoto images are combined and displayed, and then the reference point designation process is performed.

本発明の実施形態に係る写真測量装置のブロック図である。It is a block diagram of the photogrammetry apparatus which concerns on embodiment of this invention. 図1の写真測量装置を用いて写真測量を行う場合の全体的な処理の流れを示すフロー図である。It is a flowchart which shows the flow of the whole process in the case of performing photogrammetry using the photogrammetry apparatus of FIG. 写真測量を行う場合についての座標系を示す図である。It is a figure which shows the coordinate system about the case where photogrammetry is performed. カメラAにより撮影された広角画像の例である。It is an example of a wide-angle image photographed by camera A. カメラBにより撮影された広角画像の例である。It is an example of a wide-angle image photographed by the camera B. カメラAにより撮影された望遠画像の例である。It is an example of a telephoto image image | photographed with the camera A. カメラBにより撮影された望遠画像の例である。It is an example of the telephoto image image | photographed with the camera B. 撮影された広角画像及び望遠画像について射影変換により合成する処理の詳細フロー図である。It is a detailed flowchart of the process which synthesize | combines by the projection transformation about the imaged wide-angle image and a telephoto image. 合成される2枚の画像の合成基準点の選択における処理の説明図である。It is explanatory drawing of the process in selection of the synthetic | combination reference point of the image of 2 sheets synthesize | combined. 望遠画像の外枠を射影変換し外枠変換点を作成する処理の説明図である。It is explanatory drawing of the process which carries out projective transformation of the outer frame of a telephoto image, and produces an outer frame conversion point. 外枠変換点に外接する外接枠に基づいてX軸スケール及びY軸スケールを算出する処理の説明図である。It is explanatory drawing of the process which calculates an X-axis scale and a Y-axis scale based on the circumscribed frame circumscribing an outer frame conversion point. 変換望遠画像についての概念図である。It is a conceptual diagram about a conversion telephoto image. 望遠画像から変換望遠画像を作成する処理についての説明図である。It is explanatory drawing about the process which produces a conversion telephoto image from a telephoto image. 変換望遠画像中の任意の座標と、広角画像との任意の画像との座標値の変換を説明する図である。It is a figure explaining conversion of the coordinate value of the arbitrary coordinates in a conversion telephoto image, and the arbitrary images with a wide angle image.

符号の説明Explanation of symbols

1 写真測量装置
2 インターフェース部
3 制御演算部
4 表示部
5 画像記憶部
6 システムプログラム
7 デジタルカメラ
8 入力装置
11a〜11d 広角側合成基準点
12a〜12d 望遠側合成基準点
13 望遠画像のコーナー部
14 外枠
14a〜14d 外枠変換点の座標
15 外接枠
15a〜15d 外接枠のコーナー部の座標
16 変換望遠画像
100 カメラA(基準カメラ)
100a カメラAの光学中心
110 カメラAで撮影された広角画像
120 カメラAで撮影された望遠画像
200 カメラB(検査カメラ)
200a カメラBの光学中心
210 カメラBで撮影された広角画像
220 カメラBで撮影された望遠画像
DESCRIPTION OF SYMBOLS 1 Photogrammetry apparatus 2 Interface part 3 Control calculating part 4 Display part 5 Image memory | storage part 6 System program 7 Digital camera 8 Input device 11a-11d Wide angle side synthetic | combination reference point 12a-12d Telephoto side synthetic | combination reference point 13 Corner part 14 of a telephoto image Outer frame 14a to 14d Outer frame conversion point coordinate 15 Outer frame 15a to 15d Coordinate of corner part of outer frame 16 Converted telephoto image 100 Camera A (reference camera)
100a Optical center 110 of camera A Wide-angle image 120 photographed by camera A Telephoto image 200 photographed by camera A Camera B (inspection camera)
200a Optical center of camera B 210 Wide-angle image taken by camera B 220 Telephoto image taken by camera B

Claims (5)

基準位置に配置されたカメラ及び前記基準位置と異なる検査位置に配置されたカメラによってそれぞれ被写体を撮影した複数枚の写真画像を用い、前記複数枚の写真画像に共通して写っている基準点の前記写真画像中の座標値に基づいて前記基準位置及び検査位置の撮影位置関係を演算し、当該撮影位置関係の情報に基づいて前記写真画像中の任意の計測点の座標値から前記計測点の被写体空間中の3次元位置情報を計測する3次元計測方法であって、
前記基準位置及び前記検査位置からそれぞれ撮影された前記写真画像として、焦点距離が短い状態で撮影された広角画像と、前記広角画像と同じ撮影位置から撮影領域の一部を撮影した焦点距離がより長い状態で撮影された少なくとも1枚の望遠画像を用いて、前記望遠画像を同じ撮影位置から撮影された前記広角画像中に合成表示した合成写真画像を前記撮影位置ごとに作成して、前記複数枚の合成写真画像とし、
前記撮影位置ごとに作成された前記合成写真画像において、撮影領域内に共通して写っている基準点を選択し、
前記基準点の前記複数の合成写真画像中の座標値に基づいて、前記基準位置及び検査位置の撮影位置関係を演算することを特徴とする、3次元計測方法。
Using a plurality of photographic images obtained by photographing a subject by a camera disposed at a reference position and a camera disposed at an inspection position different from the reference position, a reference point that is commonly displayed in the plurality of photographic images. A photographing position relationship between the reference position and the inspection position is calculated based on the coordinate value in the photographic image, and the measurement point is calculated from the coordinate value of an arbitrary measurement point in the photographic image based on the information on the photographing position relationship. A 3D measurement method for measuring 3D position information in a subject space,
As the photographic images photographed from the reference position and the inspection position, respectively, a wide-angle image photographed with a short focal length, and a focal distance obtained by photographing a part of the photographing region from the same photographing position as the wide-angle image are obtained. Using at least one telephoto image taken in a long state, a composite photo image obtained by combining and displaying the telephoto image in the wide-angle image taken from the same photographing position is created for each of the photographing positions, A composite photo image,
In the composite photo image created for each shooting position, select a reference point that is commonly shown in the shooting area,
A three-dimensional measurement method characterized by calculating a photographing position relationship between the reference position and the inspection position based on coordinate values in the plurality of composite photograph images of the reference point.
前記合成写真画像は、前記同じ撮影位置から撮影された前記広角画像と望遠画像とに共通して写っている基準点を4点以上選択し、
前記広角画像と望遠画像中における前記基準点の座標値に基づいて、射影変換式を算出し、当該射影変換式により前記望遠画像を広角画像中に合成表示することにより作成することを特徴とする、請求項1に記載の3次元計測方法。
The composite photograph image selects four or more reference points that are common to the wide-angle image and the telephoto image taken from the same photographing position,
Based on the coordinate value of the reference point in the wide-angle image and the telephoto image, a projective transformation formula is calculated, and the telephoto image is generated and synthesized and displayed in the wide-angle image by the projective transformation formula. The three-dimensional measurement method according to claim 1.
前記合成画像は、前記変換式に基づいて前記望遠画像を前記広角画像中に射影変換した変換領域に外接する外接枠のX軸方向寸法及びY軸方向寸法の前記望遠画像のX軸方向寸法及びY軸方向寸法に対する割合としてそれぞれ導かれるX軸スケール及びY軸スケール、及び射影変換式に基づいて、当該変換望遠画像を前記広角画像中に合成表示することにより作成されることを特徴とする請求項2に記載の3次元計測方法。   The composite image includes an X-axis direction dimension of a circumscribed frame circumscribing a conversion region obtained by projectively transforming the telephoto image into the wide-angle image based on the conversion formula, an X-axis direction dimension of the telephoto image having a Y-axis direction dimension, and The composite telephoto image is created by combining and displaying the converted telephoto image in the wide-angle image based on an X-axis scale and a Y-axis scale respectively derived as a ratio to a dimension in the Y-axis direction and a projective transformation formula. Item 3. A three-dimensional measurement method according to item 2. 前記変換望遠画像は、前記望遠画像の各点を下記式により変換することによって作成されることを特徴とする請求項3に記載の3次元計測方法。
Figure 2006113001
上記式において、xは望遠画像中の任意の点のX座標、yは望遠画像中の任意の点のY座標、x16は変換望遠画像のX座標、y16は変換望遠画像のY座標、SxはX軸スケール、SyはY軸スケール、A,B,C,D,E,F,a,b,cはそれぞれ射影変換式の定数を示す。
4. The three-dimensional measurement method according to claim 3, wherein the converted telephoto image is created by converting each point of the telephoto image according to the following equation.
Figure 2006113001
In the above formula, x is the X coordinate of an arbitrary point in the telephoto image, y is the Y coordinate of an arbitrary point in the telephoto image, x 16 is X coordinate of the transformation telephoto image, the Y coordinate of y 16 converts telephoto image, Sx is an X-axis scale, Sy is a Y-axis scale, A, B, C, D, E, F, a, b, and c are constants of the projective transformation formula.
基準位置に配置されたカメラ及び前記基準位置と異なる検査位置に配置されたカメラによってそれぞれ被写体を撮影した複数枚の写真画像を用い、前記複数枚の写真画像に共通して写っている基準点の前記写真画像中の座標値に基づいて前記基準位置及び検査位置の撮影位置関係を演算し、当該撮影位置関係の情報に基づいて前記写真画像中の任意の計測点の座標値から前記計測点の被写体空間中の3次元位置情報を計測する3次元計測装置であって、
前記基準位置及び前記検査位置からそれぞれ撮影された前記写真画像として、焦点距離が短い状態で撮影された広角画像と、前記広角画像と同じ撮影位置から撮影領域の一部を撮影した焦点距離がより長い状態で撮影された少なくとも1枚の望遠画像との写真画像データを入力する画像入力手段と、
前記画像入力手段により入力された写真画像の任意の点について当該写真画像上における座標値を入力する座標入力手段と、
前記画像入力手段により入力された写真画像データのうち、前記望遠画像を同じ撮影位置から撮影された前記広角画像中に合成した合成写真画像を前記撮影位置ごとに作成する画像合成手段と、
前記撮影位置ごとに作成された前記合成写真画像において、撮影領域内に共通して写っている被写体の同じ位置についての前記座標入力手段により入力された座標値を、前記基準点の座標値とし、当該座標値に基づいて、当該写真画像の撮影位置関係を演算する位置関係演算手段と、
前記合成写真画像に写っている前記被写体の測定位置について、前記座標入力手段により入力された座標値を計測点の座標値とし、前記位置関係演算手段により演算された前記撮影位置関係の情報に基づいて前記合成写真画像に写っている前記計測点の前記被写体中の3次元座標を演算する計測点演算手段とを備えることを特徴とする、3次元計測装置。
Using a plurality of photographic images obtained by photographing a subject by a camera disposed at a reference position and a camera disposed at an inspection position different from the reference position, a reference point that is commonly displayed in the plurality of photographic images. A photographing position relationship between the reference position and the inspection position is calculated based on the coordinate value in the photographic image, and the measurement point is calculated from the coordinate value of an arbitrary measurement point in the photographic image based on the information on the photographing position relationship. A three-dimensional measuring apparatus that measures three-dimensional position information in a subject space,
As the photographic images photographed from the reference position and the inspection position, respectively, a wide-angle image photographed with a short focal length, and a focal distance obtained by photographing a part of the photographing region from the same photographing position as the wide-angle image are obtained. Image input means for inputting photographic image data with at least one telephoto image taken in a long state;
Coordinate input means for inputting a coordinate value on the photographic image for an arbitrary point of the photographic image input by the image input means;
Image composition means for creating, for each photographing position, a composite photograph image obtained by compositing the telephoto image in the wide-angle image photographed from the same photographing position among the photographic image data input by the image input means;
In the composite photographic image created for each shooting position, the coordinate value input by the coordinate input means for the same position of the subject that is common in the shooting area, as the coordinate value of the reference point, Based on the coordinate value, a positional relationship calculating means for calculating the shooting positional relationship of the photographic image;
With respect to the measurement position of the subject in the composite photograph image, the coordinate value input by the coordinate input means is used as the coordinate value of the measurement point, and based on the information on the photographing position relation calculated by the positional relation calculation means. And a measuring point calculation means for calculating the three-dimensional coordinates in the subject of the measuring point reflected in the composite photograph image.
JP2004302751A 2004-10-18 2004-10-18 Three-dimensional measurement method and apparatus by photogrammetry Expired - Fee Related JP3924576B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004302751A JP3924576B2 (en) 2004-10-18 2004-10-18 Three-dimensional measurement method and apparatus by photogrammetry

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004302751A JP3924576B2 (en) 2004-10-18 2004-10-18 Three-dimensional measurement method and apparatus by photogrammetry

Publications (2)

Publication Number Publication Date
JP2006113001A true JP2006113001A (en) 2006-04-27
JP3924576B2 JP3924576B2 (en) 2007-06-06

Family

ID=36381616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004302751A Expired - Fee Related JP3924576B2 (en) 2004-10-18 2004-10-18 Three-dimensional measurement method and apparatus by photogrammetry

Country Status (1)

Country Link
JP (1) JP3924576B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018107699A (en) * 2016-12-27 2018-07-05 株式会社東芝 Image processing device and image processing method
CN109791685A (en) * 2016-10-03 2019-05-21 奥林巴斯株式会社 Image processing apparatus, camera system, image processing method and image processing program
CN110572558A (en) * 2019-10-15 2019-12-13 国家电网有限公司 super-depth-of-field fine inspection method and device
WO2021193053A1 (en) * 2020-03-24 2021-09-30 ソニーグループ株式会社 Information processing device, information processing method, and program
CN113847905A (en) * 2021-08-19 2021-12-28 深圳特科动力技术有限公司 Three-dimensional binocular recognition slope detection method
WO2023135842A1 (en) * 2022-01-17 2023-07-20 株式会社日立製作所 Distance measurement device and method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5457865B2 (en) * 2010-02-02 2014-04-02 倉敷紡績株式会社 Non-contact three-dimensional measuring apparatus and non-contact three-dimensional measuring method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109791685A (en) * 2016-10-03 2019-05-21 奥林巴斯株式会社 Image processing apparatus, camera system, image processing method and image processing program
CN109791685B (en) * 2016-10-03 2023-01-10 奥林巴斯株式会社 Image processing device, imaging system, image processing method, and image processing program
JP2018107699A (en) * 2016-12-27 2018-07-05 株式会社東芝 Image processing device and image processing method
CN110572558A (en) * 2019-10-15 2019-12-13 国家电网有限公司 super-depth-of-field fine inspection method and device
WO2021193053A1 (en) * 2020-03-24 2021-09-30 ソニーグループ株式会社 Information processing device, information processing method, and program
CN113847905A (en) * 2021-08-19 2021-12-28 深圳特科动力技术有限公司 Three-dimensional binocular recognition slope detection method
CN113847905B (en) * 2021-08-19 2024-02-02 深圳特科动力技术有限公司 Three-dimensional binocular recognition slope detection method
WO2023135842A1 (en) * 2022-01-17 2023-07-20 株式会社日立製作所 Distance measurement device and method

Also Published As

Publication number Publication date
JP3924576B2 (en) 2007-06-06

Similar Documents

Publication Publication Date Title
JP4832878B2 (en) Image composition processing apparatus and method
US6438507B1 (en) Data processing method and processing device
US8208029B2 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
CA2819956C (en) High accuracy camera modelling and calibration method
JP4851239B2 (en) Image processing apparatus and processing method thereof
KR101988372B1 (en) Apparatus and Method for 3-Dimensional Reverse Modeling of Building Structure Using Photo Images
US20060082644A1 (en) Image processing apparatus and image processing program for multi-viewpoint image
JP4540322B2 (en) Inter-image corresponding point detection apparatus and inter-image corresponding point detection method
JP4010754B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP2005215917A (en) Working drawing creation support method and replacement model creation method
US7409152B2 (en) Three-dimensional image processing apparatus, optical axis adjusting method, and optical axis adjustment supporting method
JP2001346226A (en) Image processor, stereoscopic photograph print system, image processing method, stereoscopic photograph print method, and medium recorded with processing program
JP2003187261A (en) Device and method for generating three-dimensional image, three-dimensional image processing apparatus, three-dimensional image photographing display system, three-dimensional image processing method and storage medium
JP2004342067A (en) Image processing method, image processor and computer program
JPH11136575A (en) Image pickup device and photographed image synthesizing method
US6999072B2 (en) Data processing method, data processing program and recording medium
JP3924576B2 (en) Three-dimensional measurement method and apparatus by photogrammetry
CN111527517A (en) Image processing apparatus and control method thereof
JP2007322404A (en) Image processing device and its processing method
JP4006296B2 (en) Displacement measuring method and displacement measuring apparatus by photogrammetry
JP4813263B2 (en) Image processing apparatus and processing method thereof
JP6755737B2 (en) Distance measuring device, imaging device, and distance measuring method
JP2821042B2 (en) Image synthesis device
JP4346366B2 (en) Multiple image composition method
JP3135162B2 (en) Distance measuring device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060815

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061010

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070226

R150 Certificate of patent or registration of utility model

Ref document number: 3924576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100302

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110302

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120302

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130302

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140302

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees