JP2007071570A - Camera attitude grasping method, photogrammetric method using the same, and their program - Google Patents

Camera attitude grasping method, photogrammetric method using the same, and their program Download PDF

Info

Publication number
JP2007071570A
JP2007071570A JP2005256190A JP2005256190A JP2007071570A JP 2007071570 A JP2007071570 A JP 2007071570A JP 2005256190 A JP2005256190 A JP 2005256190A JP 2005256190 A JP2005256190 A JP 2005256190A JP 2007071570 A JP2007071570 A JP 2007071570A
Authority
JP
Japan
Prior art keywords
camera
plane
posture
point
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005256190A
Other languages
Japanese (ja)
Other versions
JP4846304B2 (en
Inventor
Mamoru Otsuki
守 大槻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2005256190A priority Critical patent/JP4846304B2/en
Publication of JP2007071570A publication Critical patent/JP2007071570A/en
Application granted granted Critical
Publication of JP4846304B2 publication Critical patent/JP4846304B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera attitude grasping method capable of grasping the attitude of a camera by a simple constitution. <P>SOLUTION: The camera attitude grasping method includes at least a first process for setting a plurality of directional reference points Ph1 and Ph2 in a selection plane 22 fixed on a subject 20, setting attitudinal reference parallel lines K1 and K2 intersecting with the selection plane 22 at right angles, and photographing the subject 20 by a camera 10 in a photographing attitude in a state approximately directly facing the selection plane in such a way as to include the selection plane 22 and the attitudinal reference parallel lines K1 and K2 to acquire a single photograph. It is possible to grasp the attitude of the camera on the basis of the inclination of the camera and its axial direction. It is possible to accurately grasp the attitude of the camera since a plane used when the inclination of the camera is determined and a plane used when the axial direction is determined intersect with each other at right angles and are not in the same plane. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、カメラで被写体を撮影(撮像と称される場合もある)したときに、撮影した写真からカメラ姿勢を把握する方法に関する。また、この方法を用いて測量対象物(被写体)を精度よく測量する写真測量技術に関する。   The present invention relates to a method of grasping a camera posture from a photographed image when a subject is photographed (sometimes referred to as imaging) with a camera. The present invention also relates to a photogrammetry technique for accurately measuring a survey target (subject) using this method.

カメラで撮影した被写体の写真からカメラ姿勢を精度よく把握(検出)する技術は、汎用性が高い重要な技術である。例えば、写真測量を行う場合には被写体に対するカメラの姿勢を正確に把握しておかないと、正確な測量を行うことができない。また、最近においては急速にロボット技術が進歩しており、ペットロボット、搬送ロボット、掃除ロボットなど多種、多機能な自立型ロボットが提供されるようになっている。このような自律型ロボットは、一般に目に相当する部分にCCDカメラなどが搭載されており、動作対象物体(被写体)の形状等を把握して所定の動作を行う。よって、ロボットに搭載されたカメラについても、その姿勢を正確に把握することが重要である。カメラ姿勢の把握が不正確な場合には、ロボットが被写体の位置や形状等を誤って認識することになるので誤動作の原因となる。例えば、ロボットがコップを把持する動作では、コップを正確に把持できないなどの問題が発生する。さらに被写体が平面であった場合に、カメラ姿勢を正確に把握できればこの平面上の点の位置を正確に検出できるので入力装置などにも活用できる。以上の説明から、カメラ姿勢を把握する技術は汎用性が高く、重要な技術であることが理解される。   A technique for accurately grasping (detecting) a camera posture from a photograph of a subject taken by a camera is an important technique with high versatility. For example, when photogrammetry is performed, accurate surveying cannot be performed unless the posture of the camera with respect to the subject is accurately grasped. In recent years, robot technology has been rapidly advanced, and a variety of multifunctional self-supporting robots such as pet robots, transport robots, and cleaning robots have been provided. Such an autonomous robot is generally equipped with a CCD camera or the like in a portion corresponding to the eye, and performs a predetermined operation by grasping the shape of an operation target object (subject). Therefore, it is important to accurately grasp the posture of the camera mounted on the robot. If the camera posture is inaccurate, the robot will erroneously recognize the position, shape, etc. of the subject, which may cause a malfunction. For example, when the robot grips the cup, there arises a problem that the cup cannot be gripped accurately. Furthermore, when the subject is a plane, if the camera posture can be accurately grasped, the position of a point on the plane can be detected accurately, and thus it can be used for an input device or the like. From the above description, it is understood that the technique for grasping the camera posture is highly versatile and an important technique.

なお、上記「カメラ姿勢」とは、撮影を行った被写体上に任意で定めた一平面に対するカメラの姿勢である。より詳細には、被写体が置かれる空間に3次元座標系を定義したときに、上記平面に対するカメラの光軸の角度、またこの光軸回りのカメラの回転角度により定量的に特定されるものである。よって、カメラ姿勢は、上記平面を基準としてカメラがこの平面に対してどのような姿勢で撮影したかを示すことになる。なお、被写体の平面とカメラとは相対的な位置関係にあることから、カメラ姿勢は平面の姿勢を示していると見ることもできる。   The “camera posture” is a posture of the camera with respect to one plane arbitrarily determined on the subject on which the image is taken. More specifically, when a three-dimensional coordinate system is defined in the space where the subject is placed, it is quantitatively specified by the angle of the optical axis of the camera with respect to the plane and the rotational angle of the camera around this optical axis. is there. Therefore, the camera posture indicates what posture the camera has taken with respect to the plane with respect to the plane. It should be noted that since the plane of the subject and the camera are in a relative positional relationship, it can be seen that the camera orientation indicates the orientation of the plane.

従来から、カメラ(撮像手段)のカメラ姿勢(撮像姿勢)を把握するための技術が検討されている。例えば特許文献1は、撮像手段で撮像した画像データの情報から被写体の所定平面の姿勢位置や平面上の被検出位置を検出する方法等について開示する。特許文献1は、被写体の平面上に矩形形状を特徴づける特徴点として4点を設定している。平面上に矩形形状を設定すると2組の平行線が存在するので、これらの平行線の消失点を算出することにより平面姿勢を求めている。この特許文献1では、この技術を活用するとスクリーンなどの表示画面上で指示した位置などを直接入力することができるとしている。   Conventionally, techniques for grasping the camera posture (image pickup posture) of a camera (image pickup means) have been studied. For example, Patent Document 1 discloses a method for detecting a posture position of a predetermined plane of a subject or a detected position on the plane from information of image data captured by an imaging unit. In Patent Document 1, four points are set as feature points that characterize a rectangular shape on a plane of a subject. When a rectangular shape is set on the plane, there are two sets of parallel lines, and the plane posture is obtained by calculating the vanishing points of these parallel lines. In this patent document 1, if this technique is utilized, it is possible to directly input a position indicated on a display screen such as a screen.

また、特許文献2は、所定のマーカを平面上に配置して撮像手段で斜方向から撮影して画像情報を得、この画像情報に基づいて二値化画像処理を実施する方法を開示する。このマーカは2個の正方形部が一つの頂点で接するようにして横方向に並べて表示である。このマーカの全体像がCCDカメラ等の撮影視野内に歪みなく取り込まれる。この画像情報を処理してカメラの位置姿勢認識を行っている。この特許文献2の技術を自立型のロボット等に活用すると、対象物体に確実に近付き、マニピュレータ等でその物体を正確に把持する等の動作を行える。   Further, Patent Document 2 discloses a method in which a predetermined marker is arranged on a plane, image information is obtained by photographing from an oblique direction with an imaging unit, and binarized image processing is performed based on this image information. This marker is displayed side by side in a horizontal direction so that two square parts touch each other at one vertex. The entire image of the marker is captured without distortion in the field of view of photographing such as a CCD camera. This image information is processed to recognize the position and orientation of the camera. When the technique of Patent Document 2 is applied to a self-supporting robot or the like, it is possible to perform an operation such as reliably approaching a target object and accurately gripping the object with a manipulator or the like.

特開平2001−148025号公報Japanese Patent Laid-Open No. 2001-148025 特開平7−98214号公報JP-A-7-98214

上記特許文献1及び特許文献2では、カメラ姿勢の把握をするため平面上に平行線を含んだ矩形形状或いはマーカ(正方形部)が設定されている。ところで、被写体に対するカメラの傾斜を検出する場合には前記矩形形状等が傾斜していること、すなわち矩形形状等に対してカメラを斜めの姿勢で撮影するのが好ましい。一方、矩形形状等と同一平面上にある参照点の座標を求める場合には、上記関係が逆となる。すなわちカメラをこの平面に対して正対に近い状態、つまり平面に対してカメラを真正面に近い姿勢で撮影することが望ましい。   In Patent Document 1 and Patent Document 2, a rectangular shape or marker (square portion) including parallel lines is set on a plane in order to grasp the camera posture. By the way, when detecting the tilt of the camera with respect to the subject, it is preferable that the rectangular shape or the like is inclined, that is, the camera is photographed in an oblique posture with respect to the rectangular shape or the like. On the other hand, when obtaining the coordinates of the reference point on the same plane as the rectangular shape or the like, the above relationship is reversed. In other words, it is desirable to photograph the camera in a state close to the plane, that is, in a posture close to the plane with respect to the plane.

カメラ姿勢を把握するためには、平面に対するカメラの傾斜及び平面上の参照点の座標を求めることが必要である。しかしながら、特許文献1、2で示す従来技術にあっては、カメラ傾斜を求めるために用いる平面上に座標を求める参照点が配置されている。よって、カメラ傾斜の検出に好ましいカメラ位置と参照点の座標算出に好ましいカメラ位置とが相反する関係となっている。そのために精度よくカメラ姿勢を検出できない事態が発生するという問題がある。   In order to grasp the camera posture, it is necessary to obtain the tilt of the camera with respect to the plane and the coordinates of the reference point on the plane. However, in the prior art shown in Patent Documents 1 and 2, reference points for obtaining coordinates are arranged on a plane used for obtaining camera tilt. Therefore, the camera position preferable for detecting the camera tilt and the camera position preferable for calculating the coordinates of the reference point are in a contradictory relationship. Therefore, there is a problem that a situation in which the camera posture cannot be detected with high accuracy occurs.

また、前述したようにカメラ姿勢を把握しようとするのは、カメラで捉えた被写体を測量したり、被写体の位置、形状等を特定するためである。よって、カメラ姿勢を正確に把握できない場合、その結果として被写体の測量、位置特定、形状特定等を精度良く実行できないという問題が生じる。また、従来の方法ではより精度が良くなる撮影をするためには2対の平行線方向について遠近深くする必要があり撮影方向の選定に困難がある。例えば建物の水平および垂直の平行線構造または模様を利用する場合では、水平に移動し良い場所を探すとともに垂直の平行線を遠近深く撮影するため上空または地下方向から撮影しなければならない。   In addition, as described above, the purpose of grasping the camera posture is to survey the subject captured by the camera and to specify the position and shape of the subject. Therefore, when the camera posture cannot be accurately grasped, as a result, there arises a problem that the measurement, position specification, shape specification, etc. of the subject cannot be executed with high accuracy. In addition, in the conventional method, in order to perform shooting with higher accuracy, it is necessary to make the two pairs of parallel lines closer and deeper, and it is difficult to select the shooting direction. For example, in the case of using a horizontal or vertical parallel line structure or pattern of a building, it is necessary to take a picture from the sky or underground direction in order to search for a place where it can move horizontally and to shoot the vertical parallel line in perspective.

したがって、本発明の主な目的は、簡単な構成でカメラ姿勢を把握できるカメラ姿勢把握方法を提供することである。   Therefore, a main object of the present invention is to provide a camera posture grasping method capable of grasping a camera posture with a simple configuration.

上記目的は、被写体上に定めた選択平面に複数の方向参照点を設定すると共に、前記選択平面と直交する姿勢参照平行線を設定し、前記選択平面に対して正対に近い状態の撮影姿勢で、前記選択平面及び前記姿勢参照平行線を含むようにして前記被写体をカメラで撮影して単写真を得る第1ステップを少なくとも含む、ことを特徴とするカメラ姿勢把握方法により達成できる。   The purpose is to set a plurality of direction reference points on a selected plane defined on the subject, set an attitude reference parallel line orthogonal to the selected plane, and be in a state of being close to the selected plane. Thus, it can be achieved by a camera posture grasping method including at least a first step of capturing a single photograph by photographing the subject with a camera so as to include the selected plane and the posture reference parallel line.

本発明によると、姿勢参照平行線は選択平面に対して直交して配置されており、カメラの傾斜は単写真に撮影されている姿勢参照平行線に基づいて求めることができる。一方、カメラの選択平面に対する軸方向は、単写真に撮影されている選択平面上の方向参照点に基づいて求めることができる。カメラ姿勢は、これらカメラの傾斜と軸方向とによって把握できる。このようにカメラの傾斜を求めるときに使用する面(姿勢参照平行線を含む面)と軸方向を求めるときに使用する面(選択平面)とが互いに直交しており、同一面ではないので上述した相反関係とならない。よって、本発明によると、一枚の単写真を用いてカメラ姿勢を精度良く把握できる。   According to the present invention, the posture reference parallel lines are arranged orthogonal to the selected plane, and the tilt of the camera can be obtained based on the posture reference parallel lines taken in a single photograph. On the other hand, the axial direction with respect to the selection plane of the camera can be obtained based on the direction reference point on the selection plane captured in the single photograph. The camera posture can be grasped by the tilt and the axial direction of these cameras. As described above, the surface used when obtaining the tilt of the camera (the surface including the posture reference parallel line) and the surface used when obtaining the axial direction (selected plane) are orthogonal to each other and are not the same surface. It is not a reciprocal relationship. Therefore, according to the present invention, it is possible to accurately grasp the camera posture using one single photograph.

また、カメラ姿勢把握方法は、前記第1ステップと、前記第1ステップで撮影した前記単写真上に2次元座標系を定義し、前記選択平面上の前記方向参照点および前記姿勢参照平行線上に定めた平行参照点を特定して座標を得る第2ステップと前記第2ステップで得た前記方向参照点および前記平行参照点の座標に基づいて、前記選択平面に対するカメラ姿勢を求める第3ステップとをさらに備えるものとしてもよい。被写体を撮影した単写真をこのように処理すれば確実にカメラ姿勢を求めることができる。   In addition, the camera posture grasping method defines the two-dimensional coordinate system on the single photograph taken in the first step and the first step, and on the direction reference point and the posture reference parallel line on the selection plane. A second step of obtaining coordinates by specifying a determined parallel reference point; a third step of obtaining a camera posture with respect to the selected plane based on the direction reference point obtained in the second step and the coordinates of the parallel reference point; It is good also as what further comprises. By processing a single photograph of the subject in this way, the camera posture can be obtained reliably.

また、前記第1ステップでは、さらに前記選択平面と角度αを成して配置した補助平面を設定すると共に、前記選択平面と前記補助平面との交線上に複数の補助点を設定して、前記補助平面及び前記補助点も含むようにしてカメラで前記被写体を撮影して前記単写真を取得し、前記第2ステップでは、さらに前記単写真上で前記補助点の座標を取得し、前記第3ステップでは、さらに前記角度α及び前記補助点の座標を参照して、前記補助平面に対するカメラ姿勢を求めるようにしもよい。このようにすると、本発明の適用範囲をさらに広げることができる。   In the first step, an auxiliary plane arranged at an angle α with the selected plane is set, and a plurality of auxiliary points are set on the intersection line of the selected plane and the auxiliary plane. The subject is photographed with a camera so as to include the auxiliary plane and the auxiliary point, and the single photograph is obtained. In the second step, the coordinates of the auxiliary point are further obtained on the single photograph, and in the third step. Further, the camera posture with respect to the auxiliary plane may be obtained by referring to the angle α and the coordinates of the auxiliary point. In this way, the application range of the present invention can be further expanded.

また、前記姿勢参照平行線及び前記選択平面の前記方向参照点を特定できる図形を配した標識を、前記被写体に設置して前記第1ステップを実行するようにしてもよい。この場合には、形状等に特徴がない被写体であっても簡単にカメラ姿勢を把握できる。   In addition, the first step may be performed by placing a sign provided with a figure capable of specifying the orientation reference parallel line and the direction reference point of the selected plane on the subject. In this case, the camera posture can be easily grasped even for a subject having no feature in shape or the like.

また、被測量点を含む被写体に位置が既知である複数の測量参照点および間隔が既知である寸法参照点を設定して、前記被写体をカメラで撮影した単写真を用いて前記被測量点の3次元座標を求める写真測量方法であって、前述のカメラ姿勢把握方法によりカメラ姿勢を求めるカメラ姿勢把握処理を一部に含んで、前記被測量点の3次元座標を求めることを特徴とする写真測量方法として応用してもよい。この写真測量方法は、カメラ姿勢が正確に把握されているので精度良い測量結果を得ることができる。   In addition, a plurality of survey reference points whose positions are known to the subject including the survey point and dimension reference points whose intervals are known are set, and a single photograph obtained by photographing the subject with the camera is used. A photogrammetry method for obtaining three-dimensional coordinates, comprising a camera posture grasping process for obtaining a camera posture by the above-described camera posture grasping method, wherein the three-dimensional coordinates of the measured point are obtained. You may apply as a surveying method. In this photogrammetry method, since the camera posture is accurately grasped, an accurate survey result can be obtained.

さらに、前記被写体を複数方向からカメラで撮影した複数の単写真を用い、単写真毎にカメラ姿勢を求めるカメラ姿勢把握処理を一部に含んで、前記被測量点の3次元座標を求める写真測量方法としてもよい。   Further, a photogrammetry for obtaining a three-dimensional coordinate of the measured point using a plurality of single photographs obtained by photographing the subject with a camera from a plurality of directions and including a camera posture grasping process for obtaining a camera posture for each single photograph. It is good also as a method.

また、上記目的は、被写体上に定めた選択平面に複数の方向参照点を設定すると共に、前記選択平面と直交する姿勢参照平行線を設定し、前記選択平面に対して正対に近い状態の撮影姿勢で、前記選択平面及び前記姿勢参照平行線を含むようにして前記被写体をカメラで撮影した単写真の画像を読み込む第1処理と、前記単写真上に2次元座標系を定義し、前記選択平面上の前記方向参照点および前記姿勢参照平行線上に定めた平行参照点を特定して座標を得る第2処理と、前記方向参照点および前記平行参照点の座標に基づいて、前記選択平面に対するカメラ姿勢を求める第3処理とをコンピュータに実行させることを特徴とするカメラ姿勢把握用のプログラムによっても同様に達成できる。   In addition, the object is to set a plurality of direction reference points on a selection plane defined on the subject, set an attitude reference parallel line orthogonal to the selection plane, and be close to the selection plane. First processing for reading an image of a single photograph obtained by photographing the subject with a camera so as to include the selected plane and the posture reference parallel line in a photographing posture; and defining a two-dimensional coordinate system on the single photograph; A second process for obtaining coordinates by specifying parallel reference points determined on the direction reference point and the posture reference parallel line, and a camera for the selected plane based on the coordinates of the direction reference point and the parallel reference point This can also be achieved by a camera posture grasping program that causes a computer to execute the third process for obtaining the posture.

また、カメラ姿勢把握用のプログラムは、さらに前記選択平面と角度αを成して配置した補助平面を設定すると共に、前記選択平面と前記補助平面との交線上に複数の補助点を設定して、前記補助平面及び前記補助点も含むようにしてカメラで前記被写体を撮影した単写真の画像を読み込み、さらに前記単写真上で前記補助点の座標を取得し、さらに前記角度α及び前記補助点の座標に基づいて、前記補助平面に対するカメラ姿勢を求めるものとしてもよい。   The program for grasping the camera posture further sets an auxiliary plane arranged at an angle α with the selected plane, and sets a plurality of auxiliary points on the intersection line of the selected plane and the auxiliary plane. The image of the single photograph obtained by photographing the subject with the camera so as to include the auxiliary plane and the auxiliary point is read, the coordinates of the auxiliary point are obtained on the single photograph, and the angle α and the coordinates of the auxiliary point are further acquired. Based on the above, the camera posture with respect to the auxiliary plane may be obtained.

また、被測量点を含む被写体に位置が既知である複数の測量参照点および間隔が既知である寸法参照点を設定して、前記被写体をカメラで撮影した単写真を用いて前記被測量点の3次元座標を求める写真測量のプログラムであって、前述のカメラ姿勢把握方法によりカメラ姿勢を求めるカメラ姿勢把握処理を一部に含んで、前記被測量点の3次元座標を求める処理をコンピュータに実行させることを特徴とする写真測量のプログラムであれば、被写体を精度よく測量できる。   In addition, a plurality of survey reference points whose positions are known to the subject including the survey point and dimension reference points whose intervals are known are set, and a single photograph obtained by photographing the subject with the camera is used. A photogrammetry program for obtaining three-dimensional coordinates, including a camera posture grasping process for obtaining a camera posture by the above-described camera posture grasping method, and executing a process for obtaining the three-dimensional coordinates of the measured point on a computer If the program is a photogrammetry program characterized in that the subject can be accurately measured.

さらに、前記被写体を複数方向からカメラで撮影した複数の単写真を用い、単写真毎にカメラ姿勢を求めるカメラ姿勢把握処理を一部に含んで、前記被測量点の3次元座標を求める処理をコンピュータに実行させることを特徴とする写真測量のプログラムとしてもよい。   Furthermore, a process for obtaining the three-dimensional coordinates of the measurement point is included, including a camera posture grasping process for obtaining a camera posture for each single photograph using a plurality of single photographs obtained by photographing the subject with a camera from a plurality of directions. The program may be a photogrammetry program that is executed by a computer.

本発明によれば、簡単な構成でカメラ姿勢を把握できるカメラ姿勢把握方法を提供できる。また、より精度がよくなる撮影をするためには1対の平行線方向について遠近深くするよう気を配ることで足りるので撮影方向の選定が従来と比べて容易である。例えば、建物の水平線構造または模様を利用する場合では、地上を水平に移動してよい場所を探すことで足りる。   According to the present invention, it is possible to provide a camera posture grasping method capable of grasping a camera posture with a simple configuration. In addition, in order to perform shooting with higher accuracy, it is only necessary to take care to make the pair of parallel line directions deeper and deeper, so selection of the shooting direction is easier than in the past. For example, when a horizon structure or pattern of a building is used, it is sufficient to search for a place where the ground can be moved horizontally.

以下、図面を参照して本発明の一実施形態を説明する。ここで示す実施例はカメラで被写体を撮影し、この写真(画像データ)に基づいてカメラ姿勢を把握するものである。なお、ここでは通常の単眼カメラで被写体を一方向から撮影して得た写真を単写真と称する。よって、以下で示す実施例は被写体の単写真からカメラ姿勢を把握するものである。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the embodiment shown here, a subject is photographed with a camera, and the camera posture is grasped based on this photograph (image data). Here, a photograph obtained by photographing a subject from one direction with a normal monocular camera is referred to as a single photograph. Therefore, the embodiment shown below grasps the camera posture from a single photograph of a subject.

また、前述したようにカメラ姿勢は、被写体上に定めた一平面に対するカメラの姿勢である。以下では、この一平面を特に選択平面と称して説明する。カメラ姿勢は、選択平面とカメラとの相対的な位置関係を示している。仮に基準位置に固定した選択平面を撮影したときに把握される姿勢は、まさしくカメラ姿勢を示すものとなる。一方、これとは逆に基準位置にカメラを固定して、選択平面を撮影した場合に把握される姿勢は選択平面に関するものとなる。本明細書では、このような場合を区別することなくカメラ姿勢と称している。ただし、以下で示す実施例では、理解を容易とするため、カメラの位置を固定して選択平面の姿勢を求める場合について説明している。   Further, as described above, the camera posture is the posture of the camera with respect to one plane defined on the subject. Hereinafter, this one plane will be specifically referred to as a selection plane. The camera posture indicates a relative positional relationship between the selected plane and the camera. The posture grasped when the selected plane fixed at the reference position is photographed is exactly the camera posture. On the other hand, the posture grasped when the camera is fixed to the reference position and the selected plane is photographed is related to the selected plane. In this specification, such a case is referred to as a camera posture without distinction. However, in the embodiment described below, a case where the position of the camera is fixed and the orientation of the selected plane is obtained is described for easy understanding.

具体的な実施例を説明する前に、技術的理解を容易とするため本発明のポイントとなる概念を図1及び図2を参照して説明する。なお、カメラ姿勢を求めるためには、選択平面の傾斜と、選択平面の軸方向を求めることが必要である。選択平面上に設定した少なくとも2個の参照点の座標を算出することで、選択平面の基準点と基準方向を確定して軸方向を求めることができる。以下、選択平面の軸方向を定めるための参照点を方向参照点と称して説明する。なお、方向参照点には基準点など位置を確定する役割もある。   Prior to describing specific embodiments, the concept of the present invention will be described with reference to FIG. 1 and FIG. 2 in order to facilitate technical understanding. In order to obtain the camera posture, it is necessary to obtain the inclination of the selection plane and the axial direction of the selection plane. By calculating the coordinates of at least two reference points set on the selection plane, it is possible to determine the reference point and the reference direction of the selection plane and obtain the axial direction. Hereinafter, the reference point for determining the axial direction of the selected plane will be referred to as a direction reference point. The direction reference point also has a role of determining the position such as a reference point.

ここで、選択平面の傾斜を求めること、及び選択平面上の基点と軸方向を定めるための方向参照点の座標を求めることにより、カメラの姿勢を求められることについて説明する。カメラを固定して、選択平面を基盤とする3次元座標系を表現できればよい。なお、カメラの固定とはカメラを基準として3次元座標系を定義することである。   Here, it will be described that the posture of the camera can be obtained by obtaining the inclination of the selected plane and obtaining the coordinates of the direction reference point for determining the base point and the axial direction on the selected plane. It is sufficient that the camera is fixed and a three-dimensional coordinate system based on the selected plane can be expressed. Note that fixing the camera means defining a three-dimensional coordinate system based on the camera.

例えば、カメラの位置を基準点、レンズの光軸方向をZ軸、撮像面の横軸方向をX軸、縦方向をY軸方向とする第1の3次元座標系を定義する。その一方、例えば方向参照点の1つPh1を基準点とする。そして、この方向参照点Ph1ともう一つの方向参照点Ph2とを結ぶ方向をX軸とする。また、選択平面上でX軸に直交する方向をY軸とし、選択平面に直交する方向をZ軸とする第2の3次元座標系を定義する。   For example, a first three-dimensional coordinate system is defined in which the camera position is the reference point, the optical axis direction of the lens is the Z axis, the horizontal axis direction of the imaging surface is the X axis, and the vertical direction is the Y axis direction. On the other hand, for example, one direction reference point Ph1 is set as a reference point. The direction connecting this direction reference point Ph1 and another direction reference point Ph2 is taken as the X axis. In addition, a second three-dimensional coordinate system is defined in which the direction orthogonal to the X axis on the selection plane is the Y axis, and the direction orthogonal to the selection plane is the Z axis.

ここで、方向参照点Ph1、Ph2の第1の3次元座標系での座標値が判明すれば、第2の3次元座標系の基準点およびX軸が確定する。更に、第1の3次元座標系で表される選択平面の傾斜が判明すれば、選択平面上で第2の3次元座標系でのX軸に直交するY軸方向および選択平面に直交するZ軸方向が確定する。よって、選択平面の傾斜と軸方向とをパラメータとして、カメラ姿勢を表わすことができる。   Here, if the coordinate values of the direction reference points Ph1 and Ph2 in the first three-dimensional coordinate system are found, the reference point and the X axis of the second three-dimensional coordinate system are determined. Furthermore, if the inclination of the selection plane represented by the first three-dimensional coordinate system is found, the Y-axis direction orthogonal to the X-axis and the selection plane Z orthogonal to the second three-dimensional coordinate system on the selection plane. The axial direction is fixed. Therefore, the camera posture can be expressed using the inclination of the selected plane and the axial direction as parameters.

図1は、従来の手法で単写真からカメラ姿勢を求める場合について示した図である。選択平面1の傾斜を算出するため4個の参照点A1〜A4が設定されている。参照点A1〜A4のそれぞれは、矩形形状(長方形)の頂点に配置されている。(A1−A2)線と(A3−A4)線とが一対の平行線、また(A1−A3)線と(A2−A4)線とが一対の平行線となる。また、選択平面1には軸方向を求めるために2個の方向参照点B1、B2が設定される。なお、図1では、点A1と点B1、点A2と点B2とを共用した場合について例示している。   FIG. 1 is a diagram showing a case where a camera posture is obtained from a single photograph by a conventional method. In order to calculate the inclination of the selection plane 1, four reference points A1 to A4 are set. Each of reference points A1-A4 is arrange | positioned at the vertex of a rectangular shape (rectangle). The (A1-A2) line and the (A3-A4) line are a pair of parallel lines, and the (A1-A3) line and the (A2-A4) line are a pair of parallel lines. In addition, two direction reference points B1 and B2 are set on the selection plane 1 in order to obtain the axial direction. FIG. 1 illustrates the case where the points A1 and B1 and the points A2 and B2 are shared.

図1で示す選択平面1を全ての参照点A、Bを含むようにして、カメラ10で撮影して単写真を得る。単写真に写った参照点Aの像の位置に基づいて選択平面1の傾斜を算出し、更に単写真に写った方向参照点Bの像に基づいて3次元座標を算出して選択平面1の軸方向を求める処理を順に行う。これによりカメラ姿勢を把握する。このように従来にあっては、選択平面1上に点A、Bの全てが配置されている。そのために、先に課題として指摘したような問題が発生することになる。すなわち、選択平面1の傾斜をより正確に検出しようと傾斜をより大きくすると、方向参照点Bの座標値の検出精度が低下するので軸方向の正確性が劣化する。これとは逆に、軸方向の正確性をより向上させようと傾斜をより小さくすると選択平面1の傾斜検出の精度が劣化する。結局、より精度よくカメラ姿勢を把握することが困難となっていた。   The selected plane 1 shown in FIG. 1 is photographed by the camera 10 so as to include all the reference points A and B, and a single photograph is obtained. The inclination of the selection plane 1 is calculated based on the position of the image of the reference point A that appears in the single photograph, and further, the three-dimensional coordinates are calculated based on the image of the direction reference point B that appears in the single photograph. Processing for obtaining the axial direction is performed in order. This grasps the camera posture. Thus, conventionally, all of the points A and B are arranged on the selection plane 1. For this reason, the problem as pointed out as a problem occurs. That is, if the inclination is made larger in order to detect the inclination of the selection plane 1 more accurately, the detection accuracy of the coordinate value of the direction reference point B is lowered, so that the accuracy in the axial direction is deteriorated. On the contrary, if the inclination is made smaller in order to further improve the axial accuracy, the accuracy of detecting the inclination of the selection plane 1 is deteriorated. In the end, it was difficult to grasp the camera posture with higher accuracy.

図2は、単写真からカメラ姿勢を求める本発明の場合について示した図である。カメラ姿勢を算出するための参照点A、Bを役割別に配置する。選択平面1の傾斜を求めるための平行線上に配置する参照点A1〜A4は選択平面1とは別に設定されている。具体的には、選択平面1上の軸方向を求めるための方向参照点B1、B2は選択平面1上に設定されるが、参照点(平行参照点)A1〜A4は選択平面1と直交する平行線K1、K2上に設定する。以下、この平行線K1、K2を姿勢参照平行線と称する。   FIG. 2 is a diagram showing the case of the present invention in which the camera posture is obtained from a single photograph. Reference points A and B for calculating the camera posture are arranged by role. Reference points A <b> 1 to A <b> 4 arranged on parallel lines for obtaining the inclination of the selection plane 1 are set separately from the selection plane 1. Specifically, the direction reference points B1 and B2 for obtaining the axial direction on the selection plane 1 are set on the selection plane 1, but the reference points (parallel reference points) A1 to A4 are orthogonal to the selection plane 1. Set on parallel lines K1, K2. Hereinafter, the parallel lines K1 and K2 are referred to as posture reference parallel lines.

ここで、カメラ10を選択平面1に対しては正対に近い撮影姿勢に設定する。このようにすると、姿勢参照平行線K1、K2は選択平面1に直交しているので、カメラ10の光軸は姿勢参照平行線K1、K2に対しては平行に近い状態となる。このような状態のときに、本明細書では、特にカメラ10に対して姿勢参照平行線K1、K2は「遠近深い状態」であると称し、またカメラ10に対する選択平面1の配置を「遠近浅い状態」であると称することとする。   Here, the camera 10 is set to a photographing posture close to the selection plane 1. In this case, since the posture reference parallel lines K1 and K2 are orthogonal to the selection plane 1, the optical axis of the camera 10 is almost parallel to the posture reference parallel lines K1 and K2. In this specification, in this specification, the posture reference parallel lines K1 and K2 are particularly referred to as “in a perspective and deep state” with respect to the camera 10, and the arrangement of the selection plane 1 with respect to the camera 10 is “in a shallow perspective”. It will be referred to as “state”.

上記説明から明らかなように、本発明では方向参照点B1、B2が置かれる選択平面1と姿勢参照平行線K1、K2とは互いに直行する配置に設定されている。そして、方向参照点B1、B2及び姿勢参照平行線K1、K2上の参照点A1〜A4を含むようにしてカメラ撮影が行われる。よって、従来において問題となった相反関係を解消できる。   As apparent from the above description, in the present invention, the selection plane 1 on which the direction reference points B1 and B2 are placed and the posture reference parallel lines K1 and K2 are set to be orthogonal to each other. Then, camera photographing is performed so as to include the reference points A1 to A4 on the direction reference points B1 and B2 and the posture reference parallel lines K1 and K2. Therefore, the reciprocal relationship that has been a problem in the past can be resolved.

すなわち、図2で示す本発明の手法は選択平面1の傾斜を検出するための姿勢参照平行線K1、K2を遠近深い状態にできるため、これら参照平行線K1、K2の方向を精度よく検出できる。ここで選択平面1は姿勢参照平行線K1、K2と直交しているので、結果として選択平面1の傾斜を正確に検出できることになる。また、選択平面1にはカメラとの方向関係を検出するための方向参照点B1、B2が配置されている。選択平面1は、カメラ10に対して正対に近い状態、すなわち遠近浅い状態にあるので方向参照点の3次元座標も高い精度で算出できることになる。このように本発明は被写体の選択平面1と直交する姿勢参照平行線K1、K2を設定するという新規な構成を採用するので、カメラ姿勢を高い精度で把握できる。   That is, since the method of the present invention shown in FIG. 2 can make the posture reference parallel lines K1 and K2 for detecting the inclination of the selection plane 1 into a near and deep state, the directions of the reference parallel lines K1 and K2 can be detected with high accuracy. . Here, since the selection plane 1 is orthogonal to the posture reference parallel lines K1 and K2, the inclination of the selection plane 1 can be accurately detected as a result. In addition, direction reference points B1 and B2 for detecting a directional relationship with the camera are arranged on the selection plane 1. Since the selection plane 1 is in a state close to the camera 10, that is, in a shallow state, the three-dimensional coordinates of the direction reference point can be calculated with high accuracy. As described above, the present invention employs a novel configuration in which the posture reference parallel lines K1 and K2 orthogonal to the object selection plane 1 are set, so that the camera posture can be grasped with high accuracy.

なお、参照点Aは姿勢参照平行線Kの線上の任意の点であればよい。つまり、参照点Aを特定する必要はなく、姿勢参照平行線K上の点であればよい。また、姿勢参照平行線Kは、図2で例示するように2本である場合に限らない。すなわち、姿勢参照平行線Kは3本以上としてもよい。また、姿勢参照平行線Kは互いに平行であればよく、同一の面上に存在しなくてもよい。より多くの姿勢参照平行線Kを参照するとより精度高くしてカメラ姿勢を把握できる。   The reference point A may be an arbitrary point on the posture reference parallel line K. That is, it is not necessary to specify the reference point A, and any point on the posture reference parallel line K may be used. Further, the posture reference parallel lines K are not limited to two as illustrated in FIG. That is, the posture reference parallel lines K may be three or more. Further, the posture reference parallel lines K need only be parallel to each other and do not have to exist on the same plane. By referring to more posture reference parallel lines K, the camera posture can be grasped with higher accuracy.

なお、方向参照点Bは選択平面1上に2点以上を設定する。この選択平面1は被写体の一面である。実際にカメラ姿勢の把握を行うときには被写体の状況により、カメラから全面が見える選択平面1を設定できないという場合もある。このように選択平面1が被写体中に確認し難い場合であっても次のようにして対処できる。例えば、方向参照点Bは姿勢参照平行線Kと直交する線(選択平面1の要素である線)上の点とすることができる。また、方向参照点Bは姿勢参照平行線Kと選択平面1が交差する点(選択平面1の要素である点)としてもよい。つまり、選択平面1の全貌が見えなくても姿勢参照平行線KとKに直交する1つの直線との交点が2点以上見えるのでもよい。以上のように、図2で示す本発明の手法は参照する点の配置に関する要件が単純であり設定し易い。また、姿勢参照平行線及びこれと直交する選択平面1や直線は造営物によくある形状または模様を活用でるのでカメラ姿勢を簡便に把握できることになる。以上で説明したことを前提として実施例を説明する。   Two or more directional reference points B are set on the selection plane 1. This selection plane 1 is one surface of the subject. When actually grasping the camera posture, the selection plane 1 where the entire surface can be seen from the camera may not be set depending on the condition of the subject. Thus, even when it is difficult to confirm the selection plane 1 in the subject, it can be dealt with as follows. For example, the direction reference point B can be a point on a line orthogonal to the posture reference parallel line K (a line that is an element of the selection plane 1). The direction reference point B may be a point where the posture reference parallel line K and the selection plane 1 intersect (a point that is an element of the selection plane 1). That is, two or more intersections between the posture reference parallel lines K and one straight line perpendicular to K may be seen even if the entire view of the selection plane 1 is not visible. As described above, the method of the present invention shown in FIG. 2 has simple requirements regarding the arrangement of points to be referred to and is easy to set. In addition, since the posture reference parallel line and the selection plane 1 or straight line orthogonal to the posture reference parallel line can utilize a shape or a pattern that is common in the construction, the camera posture can be easily grasped. The embodiment will be described on the premise of the above description.

図3から図11を参照して単写真からカメラ姿勢を把握する場合の処理について具体的にして説明する。ただし、この実施例は単写真からカメラ姿勢を把握して、被写体を写真測量する場合ついて説明する。すなわち、この実施例はカメラ姿勢の把握を写真測量に応用した場合の例について述べる。以下では、1方向から撮影した単写真を用いての写真測量、および2方向(複数方向)から撮影した2枚(複数)の単写真を用いて写真測量の一例について説明する。   With reference to FIG. 3 to FIG. 11, the processing for grasping the camera posture from a single photograph will be specifically described. However, in this embodiment, a case will be described in which the camera posture is grasped from a single photograph and the subject is photographed. That is, this embodiment describes an example in which the camera posture is applied to photogrammetry. In the following, an example of photogrammetry using a single photo taken from one direction and two (multiple) single photos taken from two directions (multiple directions) will be described.

図3は共同住宅を被写体20としてカメラ撮影を行い、カメラ姿勢を把握してから測量を行う様子を示した図である。図3では2つの方向それぞれからカメラ10で被写体20を撮影して、2枚の単写真を得ている。まず、一方のカメラ10aで撮影した単写真15aを用いてカメラ姿勢を求める場合について説明する。図3の下側には、カメラ10aで撮影した単写真15aと、カメラ10bで撮影した単写真15bを示している。   FIG. 3 is a diagram showing a state in which the apartment house is photographed with the subject 20 and the survey is performed after grasping the camera posture. In FIG. 3, the subject 20 is photographed by the camera 10 from each of two directions to obtain two single photographs. First, a case where the camera posture is obtained using a single photograph 15a taken by one camera 10a will be described. The lower side of FIG. 3 shows a single photo 15a taken by the camera 10a and a single photo 15b taken by the camera 10b.

図4は、被写体20の撮影を行ってカメラ姿勢を求め、さらに写真測量を行うまでの処理をまとめたフローチャートである。このフローチャートに沿って、図3を参照して説明する。まずステップS102では図3のカメラ10aで被測量点PNが置かれた被写体20を撮影する。被写体20はほぼ直方体と見られる四階建ての共同住宅である。ここでは被測量点PNが置かれた共同住宅の正面(ベランダの手すりなどがある前面)が選択平面22とされている。カメラ10aは選択平面22に対して遠近浅い状態(正対に近い状態)となるように撮影姿勢が設定される。被写体20の左の平面(住宅の左壁面)21は水平の直線模様に姿勢参照平行線K1、K2等が設定される参照平面である。この参照平面21に対してはカメラ10aの撮影姿勢が遠近深くなるように設定されている。このように設定して撮影したのが図3の単写真15aである。なお、図3中の15bも、同様に設定して異なる方向から撮影した単写真である。   FIG. 4 is a flowchart summarizing the processes from photographing the subject 20 to obtaining the camera posture and further performing photogrammetry. A description will be given along this flowchart with reference to FIG. First, in step S102, the subject 20 on which the measurement point PN is placed is photographed by the camera 10a of FIG. The subject 20 is a four-story apartment house that can be seen as a substantially rectangular parallelepiped. Here, the front surface of the apartment house where the measured point PN is placed (the front surface with a handrail of the veranda) is the selection plane 22. The photographing posture of the camera 10a is set so that the camera 10a is in a shallow state (a state close to the front) with respect to the selection plane 22. A left plane (left wall surface of the house) 21 of the subject 20 is a reference plane in which posture reference parallel lines K1, K2, etc. are set in a horizontal straight line pattern. With respect to this reference plane 21, the shooting posture of the camera 10a is set so as to become deeper and deeper. A single photograph 15a shown in FIG. 3 was taken with such setting. Note that reference numeral 15b in FIG. 3 is a single photograph taken in a different direction with the same setting.

この共同住宅は、正面(選択平面22)と、その側面(参照平面21)が直角である。よって、参照平面21上に設定した水平の直線模様である姿勢参照平行線K1およびK2は、選択平面22と直交する平行線となる。姿勢参照平行線K1およびK2は、参照平面21に存在する線状模様等を利用して設定すればよい。ただし、姿勢参照平行線K1、K2は選択平面22と直交している平行線であれば、必ずしも参照平面21上でなくてもよい。例えば単写真15aに写っていれば屋上の縁K3、K4でもよい。また、2本以上の複数本を設定してもよい。同様に、選択平面22は姿勢参照平行線K1、K2と直交している平面であればよい。例えばベランダの手すりがある面の他、その奥の窓22pのある面でもよい。   This apartment house has a front surface (selection plane 22) and a side surface (reference plane 21) at right angles. Therefore, the posture reference parallel lines K1 and K2 which are horizontal linear patterns set on the reference plane 21 are parallel lines orthogonal to the selection plane 22. The posture reference parallel lines K1 and K2 may be set using a linear pattern or the like existing on the reference plane 21. However, the posture reference parallel lines K <b> 1 and K <b> 2 do not necessarily have to be on the reference plane 21 as long as they are parallel lines orthogonal to the selection plane 22. For example, the roof edges K3 and K4 may be used as long as they appear in the single photograph 15a. Two or more plural lines may be set. Similarly, the selection plane 22 may be a plane that is orthogonal to the posture reference parallel lines K1 and K2. For example, in addition to the surface with a handrail of a veranda, the surface with the window 22p in the back may be sufficient.

方向参照点Ph1、Ph2を選択平面22上に設定する。選択平面22が被写体上で見え難い場合もある。例えば参照平面21は見えるが、選択平面22は見難く姿勢参照平行線K1、K2と直交する線(この線は選択平面22の一部である)は確認できるという場合がある。このような場合は姿勢参照平行線K1、K2に直交する1つの線上の2点Ph3、Ph4を方向参照点としてもよい。また、姿勢参照平行線K1、K2と直交する1つの線(この線も選択平面22の一部である)と、この平行線K1、K2とが交差する位置の参照点Ph5、Ph6としてもよい。   Direction reference points Ph 1 and Ph 2 are set on the selection plane 22. The selection plane 22 may be difficult to see on the subject. For example, although the reference plane 21 is visible, the selection plane 22 is difficult to see, and there are cases where a line orthogonal to the posture reference parallel lines K1 and K2 (this line is a part of the selection plane 22) can be confirmed. In such a case, two points Ph3 and Ph4 on one line orthogonal to the posture reference parallel lines K1 and K2 may be used as direction reference points. Further, reference points Ph5 and Ph6 at positions where one line orthogonal to the attitude reference parallel lines K1 and K2 (this line is also a part of the selection plane 22) and the parallel lines K1 and K2 may be used. .

なお、上記姿勢参照平行線K1、K2については、建物屋内であれば天井、床、壁にある目地などの平行線があるので、これらを利用してもよい。同様に、敷地内に方形の石畳がある場合にはその目地を利用してもよい。   Note that the posture reference parallel lines K1 and K2 may be used because there are parallel lines such as ceilings, floors, joints on the walls, etc. in the building. Similarly, when there is a square stone pavement in the site, the joint may be used.

選択平面22には測量の際に用いる寸法参照点Ps1、Ps2が設定されている。寸法参照点Ps1、Ps2の間隔Ls(参照寸法)を実測しておく。被写体20に設定した、選択平面22、参照平面21が入るようにして、カメラ10aで被写体20を撮影して単写真を得る。カメラ10aがデジタルカメラ等のようにデータを保存できるものである場合には、画像データをICカード等に保存する。また、カメラ10aがフィルムを用いたものである場合には撮影したフィルム或いは写真をスキャナで読取って画像データ化する。   In the selection plane 22, dimension reference points Ps1 and Ps2 used for surveying are set. The distance Ls (reference dimension) between the dimension reference points Ps1 and Ps2 is measured. A single photograph is obtained by photographing the subject 20 with the camera 10a so that the selection plane 22 and the reference plane 21 set for the subject 20 enter. When the camera 10a can store data like a digital camera or the like, the image data is stored in an IC card or the like. If the camera 10a uses a film, the photographed film or photograph is read by a scanner and converted into image data.

ここで、本実施例を実施するのに好適であるハードウエアについて簡単に説明しておく。図5は、この実施例を実施するのに好適であるハードウエア構成の一例を示すブロック図である。装置としてはパーソナルコンピュータ30等の情報処理装置を使用する。システム全体を制御する中央演算処理装置(CPU)32には、入出力制御部(インターフェース)23を介してキーボード25、マウス27、表示装置(CRT、LCDなど)29、プリンタ31、ICカード読み取り装置33等が接続される。例えば、デジタルカメラで撮影された画像はICカード34を介して入力される。画像は表示装置(ディスプレイ)29により観察できる。通常のカメラで撮影された写真は、フィルムスキャナ35によってデジタル画像化して入力される。   Here, hardware suitable for carrying out this embodiment will be briefly described. FIG. 5 is a block diagram showing an example of a hardware configuration suitable for implementing this embodiment. An information processing apparatus such as a personal computer 30 is used as the apparatus. A central processing unit (CPU) 32 that controls the entire system includes a keyboard 25, a mouse 27, a display device (CRT, LCD, etc.) 29, a printer 31, and an IC card reader via an input / output control unit (interface) 23. 33 etc. are connected. For example, an image taken with a digital camera is input via the IC card 34. The image can be observed by a display device (display) 29. A photograph taken by a normal camera is converted into a digital image by a film scanner 35 and input.

上記コンピュータ30は、カメラ姿勢を求めるためのプログラム及び被写体を測量するためのプログラム、並びにこれらのプログラムを実行するのに必要なデータ、測量で実測したデータ等はHDD37に格納することができる。コンピュータ30は、必要なデータをHDD37から読み出して所定の処理を実行する。なお、図示を省略しているが、上記CPU32は所定のメモリを備えている。このメモリにプログラム等を格納してもよい。   The computer 30 can store a program for obtaining the camera posture, a program for surveying the subject, data necessary to execute these programs, data measured by surveying, and the like in the HDD 37. The computer 30 reads out necessary data from the HDD 37 and executes predetermined processing. Although not shown, the CPU 32 includes a predetermined memory. A program or the like may be stored in this memory.

ステップS104以降は上記コンピュータ30を用いて実行されるデータ処理作業である。このステップS104ではステップS102で得られた画像が、例えば図5のICカードリーダ33によりコンピュータ30に読み込まれる。参照寸法Lsはキーボード25により入力される。各データはハードディスクHDD37などに保存される。   Steps S104 and after are data processing operations executed using the computer 30. In step S104, the image obtained in step S102 is read into the computer 30 by, for example, the IC card reader 33 shown in FIG. The reference dimension Ls is input from the keyboard 25. Each data is stored in the hard disk HDD 37 or the like.

ステップS106ではステップS104で読み込まれた単写真15aがディスプレイ29に表示される。姿勢参照平行線K1についてはその直線像上の任意の参照点PL1、PL2を、K2については参照点PL3、PL4を特定する。これらの参照点PL1〜PL4を平行参照点と称する。ディスプレイ29に表示している単写真画像上で2次元座標系を定義して、平行参照点PL1〜PL4をマウス27で指示して座標を入力する。この座標をピクセル座標と称する。上記平行参照点PL1〜PL4のそれぞれは姿勢参照平行線K1、K2の末端に設定すると検出精度を向上させることができる。   In step S106, the single photograph 15a read in step S104 is displayed on the display 29. Arbitrary reference points PL1 and PL2 on the straight line image are specified for the posture reference parallel line K1, and reference points PL3 and PL4 are specified for K2. These reference points PL1 to PL4 are referred to as parallel reference points. A two-dimensional coordinate system is defined on the single photograph image displayed on the display 29, the parallel reference points PL1 to PL4 are designated with the mouse 27, and coordinates are input. These coordinates are called pixel coordinates. When each of the parallel reference points PL1 to PL4 is set at the end of the posture reference parallel lines K1 and K2, the detection accuracy can be improved.

続いて、被測量点Pn、方向参照点Ph1、Ph2および寸法参照点Ps1、Ps2についても特定してマウスでピクセル座標を入力する。入力された各ピクセル座標はカメラ特性データにより仮想撮像面Ff上の座標に変換され保存される。なお、仮想撮像面Ffはカメラ10の前方一定距離Lにカメラ10の光軸と直交すると想定した平面であり、この仮想撮像面Ffに像が結ばれるものと仮想したものである。   Subsequently, the measured point Pn, the direction reference points Ph1 and Ph2, and the dimension reference points Ps1 and Ps2 are also specified, and pixel coordinates are input with the mouse. Each input pixel coordinate is converted into coordinates on the virtual imaging surface Ff by the camera characteristic data and stored. Note that the virtual imaging plane Ff is a plane that is assumed to be orthogonal to the optical axis of the camera 10 at a certain distance L in front of the camera 10 and is virtually assumed to have an image formed on the virtual imaging plane Ff.

ここで、ピクセル座標と仮想撮像面Ff上の座標との関係について説明しておく。ピクセル座標とは、得られた写真のデータを画面に表示した場合、画面上に横をXd軸、縦をYd軸、座標値の単位を画素数(ピクセル)と定義して像の位置を表す2次元座標である。写真または本当の撮像面上の像位置が表されるのでカメラのレンズの歪も含まれている。一方、仮想撮像面座標はピンホールカメラのように光学系に歪がないものとして被写体の像が結ばれるように仮想した撮像面の上に定義した2次元座標であり、横軸をXf軸、縦軸をYf軸、焦点距離をLとし座標値をLと同じ単位(実寸法mmなど)で表す。また、カメラ特性データとは、ピクセル座標と仮想撮像面座標との間の変換に用い、カメラの設定およびレンズの特性に基づき作成される数表である。更に詳細な説明は本題からはずれるので省略する。以降、像が特定されマウスで入力されたピクセル座標は光学系の歪を無くし実寸法で表された仮想撮像面座標に変換されたものとして説明する。   Here, the relationship between pixel coordinates and coordinates on the virtual imaging surface Ff will be described. The pixel coordinates represent the position of the image when the obtained photographic data is displayed on the screen by defining the horizontal as the Xd axis, the vertical as the Yd axis, and the unit of the coordinate value as the number of pixels (pixels). Two-dimensional coordinates. Since the position of the image on the photograph or the real imaging surface is represented, distortion of the lens of the camera is also included. On the other hand, the virtual imaging plane coordinates are two-dimensional coordinates defined on a virtual imaging plane so that the subject image is formed on the assumption that the optical system is not distorted like a pinhole camera, and the horizontal axis is the Xf axis, The vertical axis is the Yf axis, the focal length is L, and the coordinate value is expressed in the same unit as L (actual dimension mm or the like). The camera characteristic data is a numerical table used for conversion between pixel coordinates and virtual imaging plane coordinates and created based on camera settings and lens characteristics. A more detailed explanation will be omitted because it is not the main subject. In the following description, it is assumed that pixel coordinates that have been identified and input with a mouse have been converted to virtual imaging plane coordinates expressed in actual dimensions without distortion of the optical system.

次のステップS108では上記ステップS106で得た姿勢参照平行線K1、K2上の平行参照点PL1〜PL4の仮想撮像面座標および選択平面22上の方向参照点Ph1、Ph2の仮想撮像面座標に基づきカメラ姿勢を算出する。   In the next step S108, based on the virtual imaging plane coordinates of the parallel reference points PL1 to PL4 on the posture reference parallel lines K1 and K2 and the virtual imaging plane coordinates of the direction reference points Ph1 and Ph2 on the selection plane 22 obtained in step S106. Calculate the camera posture.

まず、仮想撮像面上の姿勢参照平行線K1、K2の像から消失点Pvの座標xv、yvを算出する。図6はその概念図である。この図6の写真上に直線k1(PL1−PL2)および直線k2(PL3−PL4)の平行線の像がある。平行線を傾斜させて撮影されており、写真上ではそれらの線像の延長が交差する所に消失点Pvが存在する。消失点は平行線の撮像である線の延長が集合する点もしくは交点である。平面上の直線の一般式はyfLn=Akn・xfLn+Cknである。ここで、xfおよびyfは直線上の点の仮想撮像面上での座標値、A、Cは直線の式のパラメータ、添え字knは線像の区別、Lnは線上の点の添え字と同じで点の区別を示す。各線に属する点の座標を条件として代入する。   First, the coordinates xv and yv of the vanishing point Pv are calculated from the images of the posture reference parallel lines K1 and K2 on the virtual imaging surface. FIG. 6 is a conceptual diagram thereof. On the photograph of FIG. 6, there are parallel line images of the straight line k1 (PL1-PL2) and the straight line k2 (PL3-PL4). Photographed with the parallel lines tilted, the vanishing point Pv exists where the extension of these line images intersects on the photograph. The vanishing point is a point or intersection where line extensions, which are parallel lines, are collected. The general formula of the straight line on the plane is yfLn = Akn · xfLn + Ckn. Here, xf and yf are the coordinate values of the points on the straight line on the virtual imaging plane, A and C are parameters of the straight line equation, the subscript kn is the distinction of the line image, and Ln is the same as the subscript of the point on the line. Shows the distinction between points. The coordinates of points belonging to each line are substituted as conditions.

線k1においては下記式(1)、(2)
yfL1=Ak1・xfL1+Ck1 (1)
yfL2=Ak1・xfL2+Ck1 (2)
線k2においては下記式(3)、(4)
yfL3=Ak2・xfL3+Ck2 (3)
yfL4=Ak2・xfL4+Ck2 (4)
の式を立てることができる。
For the line k1, the following equations (1), (2)
yfL1 = Ak1.xfL1 + Ck1 (1)
yfL2 = Ak1 · xfL2 + Ck1 (2)
For the line k2, the following equations (3), (4)
yfL3 = Ak2 · xfL3 + Ck2 (3)
yfL4 = Ak2 · xfL4 + Ck2 (4)
The following formula can be established.

上記各線でのパラメータAkn、Cknを求めると式(1)、(2)については、下記式(5)、(6)、
Ak1=(yfL1−yfL2)/(xfL1−xfL2) (5)
Ck1=(xfL1・yfL2−xfL2・yfL1)/(xfL1−xfL2)
(6)
また、式(3)、(4)については、下記式(7)、(8)、
Ak2=(yfL3−yfL4)/(xfL3−xfL4) (7)
Ck2=(xfL3・yfL4−xfL4・yfL3)/(xfL3−xfL4)
(8)
となる。
When parameters Akn and Ckn in each of the above lines are obtained, the following formulas (5), (6),
Ak1 = (yfL1-yfL2) / (xfL1-xfL2) (5)
Ck1 = (xfL1 · yfL2−xfL2 · yfL1) / (xfL1−xfL2)
(6)
Moreover, about Formula (3) and (4), following formula (7), (8),
Ak2 = (yfL3-yfL4) / (xfL3-xfL4) (7)
Ck2 = (xfL3.yfL4-xfL4.yfL3) / (xfL3-xfL4)
(8)
It becomes.

以上で求めた写真上での2直線の方程式のパラメータから、それらの交差点すなわち写真上の消失点Pvの座標を求める。条件を2本の線においてyvが同一として式(9)(10)を立てる。

yv=Ak1・xv+Ck1 (9)
yv=Ak2・xv+Ck2 (10)

上記2式を解くと、下記式(11)、(12)を得る。

xv=(Ck2−Ck1)/(−Ak2+Ak1) (11)
yv=(−Ck1・Ak2+Ck2・Ak1)/(−Ak2+Ak1)
(12)
From the parameters of the equations of the two straight lines on the photograph obtained as described above, the coordinates of those intersections, that is, the vanishing point Pv on the photograph are obtained. Expressions (9) and (10) are established under the condition that yv is the same in the two lines.

yv = Ak1 · xv + Ck1 (9)
yv = Ak2 · xv + Ck2 (10)

When the above two equations are solved, the following equations (11) and (12) are obtained.

xv = (Ck2-Ck1) / (-Ak2 + Ak1) (11)
yv = (− Ck1 · Ak2 + Ck2 · Ak1) / (− Ak2 + Ak1)
(12)

消失点Pvの座標yv、xvに基づき選択平面22の方程式を求める。図7は仮想撮像面Ff上の消失点Pvと選択平面22の関係等を示した幾何図である。カメラ10の光軸方向をZ軸、仮想撮像面座標のXf軸をX軸、仮想撮像面座標のYf軸をY軸とした3次元座標で示している。図7の(A)、(B)は、各投影図を示している。   Based on the coordinates yv and xv of the vanishing point Pv, an equation of the selection plane 22 is obtained. FIG. 7 is a geometric diagram showing the relationship between the vanishing point Pv on the virtual imaging plane Ff and the selection plane 22 and the like. The optical axis direction of the camera 10 is shown as three-dimensional coordinates with the Z axis, the Xf axis of the virtual imaging surface coordinates as the X axis, and the Yf axis of the virtual imaging surface coordinates as the Y axis. 7A and 7B show the respective projection views.

上記仮想撮像面Ffはカメラ10の前方で焦点距離Lに置かれ被写体の像が歪み無く結ばれると仮想した面である。逆にカメラ10とFf上の像(Pfn等)を結ぶ直線を前方に延長すれば像の実体に至る。ところで、消失点とは実体が無く、平行線を撮影した場合に延長先が無限縁にあり一点に集束したように見えるものである。すなわち、ここでの消失点は単なる点というのでははなく方向性を示すものである。その消失点の方向は同一の方向である平行線全ての向く方向に共通である。つまり、カメラ10とPvを結ぶ直線は平行線の方向である。この方向が分かれば直行する面すなわち選択平面22の傾きを求められる。選択平面22の傾斜はXZ断面投影における傾斜aおよびXY断面投影における傾斜bで表される。   The virtual imaging surface Ff is a virtual surface that is placed at the focal length L in front of the camera 10 and the subject image is formed without distortion. Conversely, if the straight line connecting the camera 10 and the image on Pf (Pfn, etc.) is extended forward, the actual image is reached. By the way, the vanishing point has no substance, and when a parallel line is photographed, the extension point is at an infinite edge and appears to be converged to one point. That is, the vanishing point here is not a mere point, but indicates directionality. The direction of the vanishing point is common to all the parallel directions that are the same direction. That is, the straight line connecting the camera 10 and Pv is the direction of the parallel line. If this direction is known, the inclination of the orthogonal plane, that is, the selection plane 22 can be obtained. The inclination of the selection plane 22 is represented by the inclination a in the XZ sectional projection and the inclination b in the XY sectional projection.

よって、図7から選択平面22の一般式は下記式(13)となる。

z=Ax+By+C (13)

そして、図7から選択平面22のXZ座標面投影傾斜aおよびYZ座標面投影傾斜bは下記式(14)、(15)となる。

a=xv/L (14)
b=yv/L (15)
Therefore, from FIG. 7, the general formula of the selection plane 22 is the following formula (13).

z = Ax + By + C (13)

From FIG. 7, the XZ coordinate plane projection inclination a and the YZ coordinate plane projection inclination b of the selection plane 22 are expressed by the following equations (14) and (15).

a = xv / L (14)
b = yv / L (15)

先の一般式(13)に、式(14)、(15)を当てはめると、下記式(16)を得ることができる。

z=−ax−by+C (16)
(A=−a、B=−b)
When the formulas (14) and (15) are applied to the general formula (13), the following formula (16) can be obtained.

z = −ax−by + C (16)
(A = -a, B = -b)

上記式(16)により選択平面22のカメラ10aに対する傾きが判明する。ここでCはまだ決定されないので仮に「1」とした模型式にしておく。この式(16)に基づいて単写真平面上の点像位置、即ち仮想撮像面座標値xf、yfから選択平面22上の点の3次元座標を求めることができる。すなわち、下記式(17)によりx、下記式(18)によりy、下記式(19)によりzを得ることができる。(PfnとPNとの関係は図7を参照)

Figure 2007071570
The inclination of the selected plane 22 with respect to the camera 10a is determined by the above equation (16). Here, since C is not yet determined, the model formula is assumed to be “1”. Based on this equation (16), the point image position on the single photograph plane, that is, the three-dimensional coordinates of the point on the selection plane 22 can be obtained from the virtual imaging plane coordinate values xf and yf. That is, x can be obtained from the following formula (17), y from the following formula (18), and z from the following formula (19). (See FIG. 7 for the relationship between Pfn and PN)
Figure 2007071570

次に、上記選択平面22の座標の軸方向を確定する。そのために方向参照点Ph1、Ph2を使用する。例えば、選択平面22上の線分Ph2−Ph1方向をX軸またはY軸などとして方向を設定する(図3参照)。このようにして、方向参照点Ph2、Ph1の3次元座標を求めることで選択平面22上の座標の軸方向を確定できる。   Next, the axial direction of the coordinates of the selection plane 22 is determined. For this purpose, the direction reference points Ph1 and Ph2 are used. For example, the direction of the line segment Ph2-Ph1 on the selection plane 22 is set as the X axis or the Y axis (see FIG. 3). Thus, the axial direction of the coordinates on the selection plane 22 can be determined by obtaining the three-dimensional coordinates of the direction reference points Ph2 and Ph1.

上記式(17)〜(19)に方向参照点Ph1、Ph2の仮想撮像面座標を代入することで、3次元座標が求められる。これで選択平面22上の座標軸方向が判明する。以上のようにしてカメラ姿勢が把握(検出)される。ただし、まだ模型としての把握であるので、必要に応じて後述するステップS112のように実寸の座標を得る方法を基にCを求め実寸の式を得てもよい。   By substituting the virtual imaging plane coordinates of the direction reference points Ph1 and Ph2 into the above formulas (17) to (19), three-dimensional coordinates are obtained. Thus, the coordinate axis direction on the selection plane 22 is determined. The camera posture is grasped (detected) as described above. However, since it is still grasping as a model, if necessary, C may be obtained based on a method of obtaining actual coordinates as in step S112 described later, and an actual expression may be obtained.

続いて、上記で得た結果を測量へ応用する場合について説明する。先ず、1方向から撮影した1枚の写真(すなわち、単写真)を用いた写真測量について説明する。ステップS110において選択平面22上にある被測量点PNについては式(17)〜(19)にPnの仮想撮像面座標を代入することにより3次元座標を算出できる。次のステップS112では模型で扱ってきた座標を実寸に変換する。   Then, the case where the result obtained above is applied to surveying will be described. First, photogrammetry using a single photo (that is, a single photo) taken from one direction will be described. For the measured point PN on the selected plane 22 in step S110, the three-dimensional coordinates can be calculated by substituting the virtual imaging plane coordinates of Pn into the equations (17) to (19). In the next step S112, the coordinates handled by the model are converted to the actual size.

図3で示している寸法参照点2点(Ps1,Ps2)について式(17)〜(19)により座標を求める。その間隔lsを次の式(20)により求める。なお、添字s1,s2は寸法参照点Ps1,Ps2の模型の座標であることを示す。

ls=√{(xs1−xs2)2+(ys1−ys2)2+(zs1−zs2)2} (20)
The coordinates of the two dimension reference points (Ps1, Ps2) shown in FIG. 3 are obtained by equations (17) to (19). The interval ls is obtained by the following equation (20). The subscripts s1 and s2 indicate model coordinates of the dimension reference points Ps1 and Ps2.

ls = √ {(xs1−xs2) 2 + (ys1−ys2) 2 + (zs1−zs2) 2 } (20)

次いで、予めステップS102で実測した間隔Ls(参照寸法)とlsとの比を求め、この比を求めた模型の各座標値に掛ける。以上のステップにより、被測量点Pnの実際の3次元座標値が算出される。以上のようにして1方向から撮影した1枚の写真により写真測量を行える。   Next, a ratio between the interval Ls (reference dimension) actually measured in step S102 and ls is obtained in advance, and this ratio is multiplied by each coordinate value of the obtained model. Through the above steps, the actual three-dimensional coordinate value of the measured point Pn is calculated. As described above, photogrammetry can be performed with a single photograph taken from one direction.

さらに、以下では2方向から撮影した2枚(複数)の写真により測量する写真測量に応用する例について説明する。ここでの各ステップは上記で説明した1方向から撮影した1枚の写真による写真測量とほぼ同様なので同じ図を流用して説明する。   Further, an example of application to photogrammetry in which surveying is performed using two (a plurality of) photographs taken from two directions will be described below. Each step here is almost the same as the photogrammetry of a single photograph taken from one direction as described above, so the same figure will be used for explanation.

図4のフロー図に沿って説明する。ステップS102では図3のようにカメラ10aおよびカメラ10bで撮影し写真15aおよび15bの2枚を得る。撮影方法は1枚の写真による場合と同様である。カメラ10aとカメラ10bの位置は水平または垂直に離れた方向から撮影する。例えば30°方向を変えて撮影する。ステップS102〜S108は1枚の写真による場合と同様に行いそれぞれのカメラ姿勢を求める。   This will be described with reference to the flowchart of FIG. In step S102, two pictures 15a and 15b are obtained by photographing with the camera 10a and the camera 10b as shown in FIG. The shooting method is the same as that for a single photo. The positions of the camera 10a and the camera 10b are taken from directions that are separated horizontally or vertically. For example, shooting is performed by changing the direction of 30 °. Steps S102 to S108 are performed in the same manner as in the case of a single photograph, and the respective camera postures are obtained.

ステップS110ではS108で求められた写真毎のカメラ姿勢を用いて2つのカメラ姿勢を合併する場合の一例を説明する。ステップS108では写真毎に独立した座標系でカメラ姿勢を求めている。そのため座標系および模型座標の縮尺が一致していない。よって、これらを対応させることが必要である。概要としては、2つの方向から撮影した2枚の写真15aおよび15bそれぞれからカメラ姿勢として得られた方向参照点Ph1、Ph2の模型座標を一致させるよう座標を適宜に回転させ、また伸縮させる。この回転、伸縮に伴ってカメラの位置Cca、Ccb(当初の座標の要素x、y、zは0)およびカメラの向きがどうなるかを求める。カメラの向きとしてはカメラの光軸が平面22と交差する点C0a、C0b(当初の座標の要素x、yは0、zはCaまたはCb)の座標を用いる。   In step S110, an example will be described in which two camera postures are merged using the camera posture for each photograph obtained in S108. In step S108, the camera posture is obtained in an independent coordinate system for each photograph. For this reason, the scales of the coordinate system and model coordinates do not match. Therefore, it is necessary to make these correspond. As an outline, the coordinates are appropriately rotated and expanded or contracted so that the model coordinates of the direction reference points Ph1 and Ph2 obtained as the camera postures from the two photographs 15a and 15b taken from two directions are matched. With this rotation and expansion / contraction, the camera positions Cca and Ccb (elements x, y and z of the initial coordinates are 0) and the camera orientation are determined. As the direction of the camera, coordinates of points C0a and C0b (elements x and y of the initial coordinates, 0 and z is Ca or Cb of the original coordinates) at which the optical axis of the camera intersects the plane 22 are used.

上記による回転、伸縮はカメラ姿勢として得られた平面22の模型の方程式のパラメータAa、Ba、Ca、Ab、Bb、Cb(写真と同じ添え字aおよびbを付した)に基づいて行う。   The rotation and expansion / contraction according to the above is performed based on the parameters Aa, Ba, Ca, Ab, Bb, and Cb (the same subscripts a and b as those in the photograph) of the model of the plane 22 obtained as the camera posture.

図8(A)は合併された各点の配置を概念的に示した図である。ここで符号7はカメラ基軸(カメラの主点Cca、Ccbを結ぶ線)、また符合9a、9bはそれぞれのカメラの光軸方向を示している。また、図8(B)はカメラの光軸方向の線9a、9bをカメラ基軸の直交断面に投影した線2(9aの投影)、3(9bの投影)を示した図である。   FIG. 8A is a diagram conceptually showing the arrangement of the merged points. Here, reference numeral 7 denotes a camera base axis (a line connecting the camera main points Cca and Ccb), and reference numerals 9a and 9b denote the optical axis directions of the respective cameras. FIG. 8B is a diagram showing lines 2 (projection of 9a) and 3 (projection of 9b) obtained by projecting lines 9a and 9b in the optical axis direction of the camera onto orthogonal cross sections of the camera base axis.

図8を参照して説明する。ステップS108で写真毎に算出した平面22の模型の方程式では、前述したようにCをとりあえず1としてあるので縮尺が合致していない。これらを合せるには、2つの方向参照点の模型座標上の間隔を2つの写真間で揃えるようパラメータCaまたはCbに係数を掛けることで行う。方向参照点間の模型上の間隔ea、ebを次の式(21)、(22)により求める。なお、添え字a、bは関係する写真15a、15bと同じ添え字を付している。方向参照点の模型座標は式(17)〜(19)で求めたx、y、zである。添え字は方向参照点h1、h2の区別、また写真の添え字a、bの区別を示している。

ea=√{(xh2a−xh1a)2+(yh2a−yh1a)2+(zh2a−zh1a)2} (21)
eb=√{(xh2b−xh1b)2+(yh2b−yh1b)2+(zh2b−zh1b)2} (22)
This will be described with reference to FIG. In the equation of the model of the plane 22 calculated for each photograph in step S108, the scale is not matched because C is set to 1 for the time being as described above. To match these, the parameter Ca or Cb is multiplied by a coefficient so that the interval between the two coordinate reference points on the model coordinates is aligned between the two photographs. The distances ea and eb on the model between the direction reference points are obtained by the following equations (21) and (22). The subscripts a and b have the same subscripts as the related photos 15a and 15b. The model coordinates of the direction reference point are x, y, and z obtained by the equations (17) to (19). The suffix indicates the distinction between the direction reference points h1 and h2, and the distinction between the suffixes a and b in the photograph.

ea = √ {(xh2a−xh1a) 2 + (yh2a−yh1a) 2 + (zh2a−zh1a) 2 } (21)
eb = √ {(xh2b−xh1b) 2 + (yh2b−yh1b) 2 + (zh2b−zh1b) 2 } (22)

パラメータCaを1に固定する場合には、Cbに係数ea/ebを掛けて修正すればよい。これにより2つの平面22の模型の方程式の縮尺が一致する。Cb修正後の式で、模型の3次元座標を計算する。   When the parameter Ca is fixed to 1, it may be corrected by multiplying Cb by the coefficient ea / eb. As a result, the scales of the equations of the two plane 22 models match. The three-dimensional coordinates of the model are calculated using the formula after Cb correction.

ここで、どのような座標系に統合するかであるが、図8(A)のように平面22にXY軸を置き、平面22の鉛直方向をZ軸、方向参照点のPh1を基点、方向参照点のPh1からPh2を見た方向をX軸とする例を次に示す。   Here, as to what coordinate system is to be integrated, the XY axis is placed on the plane 22 as shown in FIG. 8A, the vertical direction of the plane 22 is the Z axis, and the direction reference point Ph1 is the base point, the direction An example in which the direction of the reference point Ph1 to Ph2 is taken as the X axis is shown below.

各点の座標について各写真(15a、15b)毎に以下の座標変換をする。各点の座標とは各カメラ10a、10bにおけるPh1a(xh1a、yh1a,zh1a)、Ph1b(xh1b、yh1b、zh1b)、Ph2a(xh2a、yh2a、zh2a)、Ph2b(xh2b、yh2b、zh2b)、Cca(x=0、y=0、z=0)、Ccb(x=0、y=0、z=0)、C0a(x=0、y=0、z=Ca)、C0b(x=0、y=0、z=Cb)である。なお、写真15a、15b、方向参照点Ph1、Ph2に関するものとして同じ添え字を付している。   For the coordinates of each point, the following coordinate conversion is performed for each photograph (15a, 15b). The coordinates of each point are Ph1a (xh1a, yh1a, zh1a), Ph1b (xh1b, yh1b, zh1b), Ph2a (xh2a, yh2a, zh2a), Ph2b (xh2b, yh2b, ch2b), hh2b, and hh2b (ch2b) in each camera 10a and 10b. x = 0, y = 0, z = 0), Ccb (x = 0, y = 0, z = 0), C0a (x = 0, y = 0, z = Ca), C0b (x = 0, y) = 0, z = Cb). In addition, the same subscript is attached | subjected regarding the photographs 15a and 15b and the direction reference points Ph1 and Ph2.

座標変換1:Ph1を基点にする。Ph1aまたはPh1bの座標x、y、zの行列を[Ph1]、基点変更前の各点のx、y、z行列を[X0]、変更後を[X1]とすると、下式(23)となる。

[X1]=[X0]−[Ph1] (23)
Coordinate transformation 1: Use Ph1 as a base point. If the matrix of coordinates x, y, z of Ph1a or Ph1b is [Ph1], the x, y, z matrix of each point before the base point change is [X0], and the post-change matrix is [X1], Become.

[X1] = [X0]-[Ph1] (23)

座標変換2:X軸を面22に合せる。回転前の各点のx、y、z行列を[X1]、回転後を[X2]とすると、下式(24)となる。

[X2]=[R1][X1] (24)

ここで、[R1]は下式(25)で、

u=tan−1(A) (25)
Aは写真別にパラメータAaまたはAbを代入して得ることができる。
とすれば、

Figure 2007071570
である。 Coordinate transformation 2: Align the X axis with the surface 22. When the x, y, z matrix of each point before the rotation is [X1] and after the rotation is [X2], the following equation (24) is obtained.

[X2] = [R1] [X1] (24)

Here, [R1] is the following formula (25),

u = tan −1 (A) (25)
A can be obtained by substituting the parameter Aa or Ab for each photograph.
given that,
Figure 2007071570
It is.

座標変換3:Y軸を面22に合せる。回転前の各点のx、y、z行列を[X2]、回転後を[X3]とすると下記式(27)となる。

[X3]=[R2][X2] (27)
また、
[R2]は下記式(28)となり、

Figure 2007071570
AおよびBは写真別にパラメータAa、BaまたはAb、Bbを代入する。
とすれば、下記式(29)となる。
Figure 2007071570
Coordinate transformation 3: Align the Y axis with the surface 22. When the x, y, z matrix of each point before rotation is [X2] and after rotation is [X3], the following equation (27) is obtained.

[X3] = [R2] [X2] (27)
Also,
[R2] becomes the following formula (28),
Figure 2007071570
For A and B, parameters Aa and Ba or Ab and Bb are substituted for each photograph.
Then, the following equation (29) is obtained.
Figure 2007071570

座標変換4:X軸をPh2−Ph1に合せる。回転前の各点のx、y、z行列を[X3]、回転後を[X4]とすると、下記式(30)となる。

[X4]=[R3][X3] (30)
また、
[R3]は下記式(31)となる。

Figure 2007071570
上の式中x、y値は[X3]における方向参照点Ph2の座標値である。関係する点と同じ添え字を付している。
とすれば、下記式(32)を得る。
Figure 2007071570
Coordinate transformation 4: Align X-axis with Ph2-Ph1. If the x, y, z matrix of each point before rotation is [X3], and after rotation is [X4], the following equation (30) is obtained.

[X4] = [R3] [X3] (30)
Also,
[R3] is represented by the following formula (31).
Figure 2007071570
In the above formula, the x and y values are the coordinate values of the direction reference point Ph2 in [X3]. The same subscripts are attached as relevant points.
Then, the following formula (32) is obtained.
Figure 2007071570

以上を2つの写真毎に行うとカメラの位置Cca、Ccbは図8の(A)のように同じ座標系になり相互の位置関係が明らかになる。この結果から以降の写真測量計算をやり易くするため次のパラメータを設定する。図8および図9により説明する。なお、図9は測量のために撮影しているカメラと被写体の配置および2つのカメラ10a、bにおける撮像と被写体上の点との関係を示している。カメラ10aについて詳しく記してある。(A)はカメラ基軸7の直交断面にカメラの光軸の線9a、9bおよびPn方向線を投影した図である。(B)はステップ102における撮影の様子とカメラにおける撮像と点の幾何関係を概念的に示す図である。(C)はFf上の仮想撮像であるが、カメラの傾きσa逆転してカメラ基軸の仮想撮像をX軸に合せた図である。(D)は仮想撮像座標Ff上の仮想撮像である。15は画面のX軸、13はカメラ基軸の仮想撮像でX軸15に対してカメラの傾きσを成している。Pccはもう一方のカメラ10の位置が写ったとした場合の仮想像(画面内に入るとは限らない)である。   If the above is performed for every two photos, the camera positions Cca and Ccb are in the same coordinate system as shown in FIG. From these results, the following parameters are set to facilitate subsequent photogrammetry calculations. This will be described with reference to FIGS. Note that FIG. 9 shows the relationship between the camera and the subject being photographed for the surveying, and the imaging on the two cameras 10a and 10b and the points on the subject. The camera 10a is described in detail. (A) is the figure which projected the line 9a, 9b of the optical axis of a camera, and the Pn direction line on the orthogonal cross section of the camera base axis 7. FIG. (B) is a diagram conceptually showing the state of shooting in step 102, the image pickup by the camera, and the geometric relationship between the points. (C) is virtual imaging on Ff, and is a diagram obtained by reversing the camera inclination σa and matching virtual imaging of the camera base axis with the X axis. (D) is virtual imaging on the virtual imaging coordinates Ff. Reference numeral 15 denotes an X-axis of the screen, and reference numeral 13 denotes virtual imaging of the camera base axis, which forms a camera inclination σ with respect to the X-axis 15. Pcc is a virtual image (not necessarily within the screen) when the position of the other camera 10 is captured.

図8(A)で2枚の写真を撮影した2つのカメラの位置を結ぶ線をカメラ基軸7とする。カメラの光軸の方向をカメラ10aからカメラ10bを見た方向を基準にしてカメラ基軸と成す角度をαa0、αb0。図8(B)でカメラ基軸を軸に回転する角度でカメラ10aの光軸方向9aを基準にしたカメラ10bの光軸方向9bをβとする。カメラの光軸を軸にしたカメラの回転でカメラ基軸に対してカメラの仮想撮像面の横軸(撮像のX軸)が傾く角度σa、σb(図9の(D)のσを参照)を求める。これらのパラメータをアングル定数と称する。   A line connecting the positions of the two cameras that have taken two photographs in FIG. Αa0 and αb0 are angles formed with the camera base axis with respect to the direction of the optical axis of the camera as viewed from the camera 10a to the camera 10b. In FIG. 8B, the optical axis direction 9b of the camera 10b with reference to the optical axis direction 9a of the camera 10a at an angle of rotation about the camera base axis is β. Angles σa and σb (see σ in FIG. 9D) at which the horizontal axis (imaging X-axis) of the camera's virtual imaging plane tilts with respect to the camera base axis by rotating the camera about the optical axis of the camera. Ask. These parameters are called angle constants.

上記αa、αb、βは合併した座標について次の座標変換をして求める。基点をカメラ10a、カメラ基軸をZ軸、カメラ基軸を軸にして回転する角度の基準をカメラ10aの光軸方向とするよう座標を変換する。   Αa, αb, and β are obtained by performing the following coordinate transformation on the merged coordinates. The coordinates are converted such that the base point is the camera 10a, the camera base axis is the Z axis, and the angle of rotation about the camera base axis is the optical axis direction of the camera 10a.

座標変換5:基点をカメラ10aにする。合併した[X4]中Ccaの座標x、y、zの行列を[Cca]、基点変更前の各点のx、y、z行列を[X4]、変更後を[X5]とすると、下記式(33)となる。

[X5]=[X4]−[Cca] (33)
Coordinate transformation 5: The base point is the camera 10a. In the merged [X4], if the matrix of Cca coordinates x, y, z is [Cca], the x, y, z matrix of each point before the base point change is [X4], and after the change is [X5], (33).

[X5] = [X4]-[Cca] (33)

座標変換6:X軸をカメラ基軸(10b−10a)のXY面投影方向に合せる。回転前の各点のx、y、z行列を[X5]、回転後を[X6]とすると、下記式(34)となる。

[X6]=[R4][X5] (34)

[R4]は

Figure 2007071570
上の式中x、y値はCcbの[X5]における座標値である。Ccbと同じ添え字を付している。
とすると、下記式(36)を得る。
Figure 2007071570
Coordinate transformation 6: The X axis is aligned with the XY plane projection direction of the camera base axis (10b-10a). If the x, y, z matrix of each point before rotation is [X5] and the rotation is [X6], the following equation (34) is obtained.

[X6] = [R4] [X5] (34)

[R4] is
Figure 2007071570
In the above formula, the x and y values are the coordinate values of Ccb at [X5]. The same subscript as Ccb is attached.
Then, the following formula (36) is obtained.
Figure 2007071570

座標変換7:Z軸をカメラ基軸(10b−10a)の方向に合せる。回転前の各点のx、y、z行列を[X6]、回転後を[X7]とすると

[X7]=[R5][X6] (37)
Coordinate transformation 7: Align the Z-axis with the direction of the camera base axis (10b-10a). If the x, y, z matrix of each point before rotation is [X6] and after rotation is [X7]

[X7] = [R5] [X6] (37)

また、[R5]は、

Figure 2007071570
上の式中x、z値はCcbの[X6]における座標値である。Ccbと同じ添え字を付している。
とすると、
Figure 2007071570
である。 [R5] is
Figure 2007071570
In the above formula, the x and z values are the coordinate values of Ccb at [X6]. The same subscript as Ccb is attached.
Then,
Figure 2007071570
It is.

座標変換8:X軸をカメラ10aの光軸のXY面投影方向に合せる。回転前の各点のx、y、z行列を[X7]、回転後を[X8]とすると、下記式(40)を得る。
[X8]=[R6][X7] (40)
Coordinate transformation 8: The X axis is aligned with the XY plane projection direction of the optical axis of the camera 10a. When the x, y, z matrix of each point before rotation is [X7] and after rotation is [X8], the following equation (40) is obtained.
[X8] = [R6] [X7] (40)

また、[R6]は、

Figure 2007071570
上の式中x、y値はC0aの[X7]における座標値である。C0aと同じ添え字を付している。
とすると、下記式(42)を得る。
Figure 2007071570
[R6] is
Figure 2007071570
In the above formula, the x and y values are the coordinate values of C0a at [X7]. The same subscript as C0a is attached.
Then, the following formula (42) is obtained.
Figure 2007071570

そして、求めたいパラメータは次の各式で求められる。

Figure 2007071570
上の式中x、z値はC0aの[X8]における座標値である。C0aと同じ添え字を付している。
Figure 2007071570
上の式中x、y、z値はC0b、Ccbの[X8]における座標値である。関係する点と同じ添え字を付している。
Figure 2007071570
上の式中x、y値はC0bの[X8]における座標値である。C0bと同じ添え字を付している。 The parameters to be obtained are obtained by the following equations.
Figure 2007071570
In the above formula, the x and z values are the coordinate values of C0a at [X8]. The same subscript as C0a is attached.
Figure 2007071570
In the above formula, the x, y, and z values are the coordinate values of C0b and Ccb at [X8]. The same subscripts are attached as relevant points.
Figure 2007071570
In the above formula, the x and y values are the coordinate values of C0b at [X8]. The same subscript as C0b is given.

次にσa、σbである。σaは合併したカメラ10bの座標をカメラ10aの元の座標系に戻して求める。つまり、CcaおよびCcbの[X4]について、カメラ10a関係の座標を合併するために用いた座標変換の逆を次式(46)のように行う。

[X1]=[R1a]−1[R2a]−1[R3a]−1[X4] (46)

添え字のaは式(26)、(29)、(32)のカメラ10aに関する回転を意味している。
Next, σa and σb. σa is obtained by returning the coordinate of the merged camera 10b to the original coordinate system of the camera 10a. That is, for [X4] of Cca and Ccb, the reverse of the coordinate transformation used to merge the coordinates related to the camera 10a is performed as in the following equation (46).

[X1] = [R1a] −1 [R2a] −1 [R3a] −1 [X4] (46)

The subscript a means the rotation of the expressions (26), (29), and (32) related to the camera 10a.


[X0]=[X1]−[Cca] (47)

上記[Cca]は[X1]におけるカメラ10aのx、y、z座標値の行列である。式(47)では[X1][X0]はCcbだけ行えばよい。σa0はカメラの光軸を軸にしたカメラの回転であって、カメラ基軸に対してカメラ(撮像面のX軸)が傾く角度で表せる。カメラの撮像で見ればもう一つのカメラの方向(カメラ基軸の撮像で実像は無い)が撮像面のX軸と成す角度でもある(符号が負となるが)。したがって次式(48)で表せる。

Figure 2007071570
上式中x、y値は式(47)におけるCcbの[X0]の座標値である。Ccbと同じ添え字を付している。
[X0] = [X1]-[Cca] (47)

[Cca] is a matrix of x, y, z coordinate values of the camera 10a in [X1]. In equation (47), [X1] [X0] need only be Ccb. σa0 is the rotation of the camera about the optical axis of the camera, and can be expressed as an angle at which the camera (X axis of the imaging surface) is inclined with respect to the camera base axis. From the viewpoint of camera imaging, another camera direction (no real image is captured by camera basic imaging) is also an angle formed by the X axis of the imaging surface (although the sign is negative). Therefore, it can be expressed by the following formula (48).
Figure 2007071570
In the above equation, the x and y values are the coordinate values of [X0] of Ccb in equation (47). The same subscript as Ccb is attached.

同様にσbは合併したカメラ10aの座標をカメラ10bの元の座標系に戻して求める。つまり、CcaおよびCcbの[X4]についてカメラ10b関係の座標を合併するために用いた座標変換の逆を次式(49)のように行う。

[X1]=[R1b]−1[R2b]−1[R3b]−1[X4] (49)

添え字bは式(26)、(29)、(32)のカメラ10bに関する回転を意味する。
Similarly, σb is obtained by returning the coordinate of the merged camera 10a to the original coordinate system of the camera 10b. That is, the reverse of the coordinate transformation used to merge the coordinates related to the camera 10b with respect to [X4] of Cca and Ccb is performed as in the following equation (49).

[X1] = [R1b] −1 [R2b] −1 [R3b] −1 [X4] (49)

The subscript b means the rotation related to the camera 10b in the expressions (26), (29), and (32).


[X0]=[X1]−[Ccb] (50)

上記[Ccb]は[X1]におけるカメラ10bのx、y、z座標値の行列である。上式(50)では[X1]、[X0]はCcaだけ行えばよい。

[X0] = [X1]-[Ccb] (50)

[Ccb] is a matrix of x, y, z coordinate values of the camera 10b in [X1]. In the above formula (50), [C1] and [X0] need only be performed by Cca.

そして、σbは次式で表せる。

Figure 2007071570
上式中x、y値は式(50)におけるCcaの[X0]の座標値である。Ccaと同じ添え字を付している。以上でアングル定数が求まる。つまり、2つのカメラ姿勢が合併されたことになる。 Σb can be expressed by the following equation.
Figure 2007071570
In the above equation, the x and y values are the coordinate values of [X0] of Cca in equation (50). The same subscript as Cca is attached. The angle constant is obtained as described above. That is, two camera postures are merged.

以上はカメラ姿勢を合併する方法で本発明を実施する一例である。カメラ姿勢の把握には従来の方法として共面条件を用いる方法、視差を消去する方法、共線条件を用いる方法等がある。従来の方法でカメラ姿勢を求める方法と本発明である単写真毎のカメラ姿勢把握を組み合わせるのもよい。例えば、従来の方法でカメラ姿勢を求める方法の中で本発明を一部に含んで精度向上の補助をさせるのでもよい。要するに計算の方法は問わない。   The above is an example in which the present invention is implemented by a method of merging camera postures. For grasping the camera posture, there are a conventional method using a coplanar condition, a method of eliminating parallax, a method using a collinear condition, and the like. It is also possible to combine the method for obtaining the camera posture by a conventional method and the camera posture grasp for each single photograph according to the present invention. For example, the present invention may be included in a part of the conventional method for obtaining the camera posture to assist in improving accuracy. In short, the calculation method does not matter.

以上のようにアングル定数が求まったら、アングル定数および被測量点Pnの仮想撮像面座標に基づき三角測量計算ができるようになる。まず3次元の三角測量計算に必要なデータを準備する。すなわち、カメラ10aからカメラ10bを見た方向を基準にした被測量点Pn方向の角度αan,αbnおよびカメラ基軸を軸にした角度でカメラ10a,bに共通の基準方向とした被測量点Pnの回転角βan、βbnを求める。三角測量計算は被測量点Pnの他、寸法参照点Ps1,Ps2についても行われるが、代表して被測量点Pnで説明する。計算に際してはステップS106で示したとおりPnについてカメラ特性データを用いてピクセル座標を仮想撮像面座標xfn、yfnに変換してある。   When the angle constant is obtained as described above, triangulation calculation can be performed based on the angle constant and the virtual imaging plane coordinates of the measured point Pn. First, prepare the data required for 3D triangulation calculation. That is, the angle αan, αbn in the direction of the measured point Pn with respect to the direction in which the camera 10b is viewed from the camera 10a and the angle of the measured point Pn with the camera base axis as the reference direction common to the cameras 10a, b. The rotation angles βan and βbn are obtained. The triangulation calculation is performed for the dimension reference points Ps1 and Ps2 in addition to the measurement point Pn, but the measurement point Pn will be described as a representative. At the time of calculation, pixel coordinates are converted into virtual imaging plane coordinates xfn and yfn using camera characteristic data for Pn as shown in step S106.

αan、βanは先に示した図9に示す幾何関係から次式で算出することができる。

Figure 2007071570
αbn、βbnについても同様に求められる。 αan and βan can be calculated from the geometric relationship shown in FIG.
Figure 2007071570
αbn and βbn are similarly obtained.

回転角βに関しては、式(59)から角βan,βbnが得られるが、これらはそれぞれのカメラの光軸線9a,9bを基準とした回転角である。どちらを基準にするかで採用すればよい。本説明では9aを基準にしているのでβanを採用する。   Regarding the rotation angle β, angles βan and βbn are obtained from the equation (59), and these are rotation angles with reference to the optical axes 9a and 9b of the respective cameras. Which one should be used as a standard should be adopted. In this description, since 9a is used as a reference, βan is adopted.

以上に基づいて、被測量点Pnの3次元の模型座標を算出する。三角測量のためにはカメラ10a,b間の距離Eも必要であるが、当面不明なので仮に1としておき相似形の3次元座標(模型と記す)を求める。図10に示すように、カメラ10aを原点とした被測量点Pnの直交座標(x,y,z)は、三角測量の原理から次の式によって求められる。図10(B)に示すように、カメラ基軸7をX軸方向、紙面をX−Y平面、それに直交する軸をZ軸方向、カメラ10a,b間距離をE、図10(A)に示すようにX軸から鉛直に被測量点Pnまでの距離をHとする。

Figure 2007071570
Based on the above, the three-dimensional model coordinates of the measured point Pn are calculated. For triangulation, the distance E between the cameras 10a and 10b is also necessary, but since it is unknown for the time being, it is assumed to be 1 and a similar three-dimensional coordinate (denoted as a model) is obtained. As shown in FIG. 10, the orthogonal coordinates (x, y, z) of the measured point Pn with the camera 10a as the origin are obtained by the following formula from the principle of triangulation. As shown in FIG. 10B, the camera base axis 7 is in the X-axis direction, the paper surface is in the XY plane, the axis orthogonal to the Z-axis direction, the distance between the cameras 10a and 10b is E, and FIG. Thus, let H be the distance from the X axis to the measured point Pn vertically.
Figure 2007071570

以上の式で被測量点Pnおよび寸法参照点Ps1、Ps2の模型座標を求める。ステップS110では、ステップS112でEが判明するまで以上の式で寸法参照点の模型座標だけを算出しておくのでもよい。ステップS112では、仮の値とした距離Eを実際の値を求める。それにはまず、ステップS110で求められた寸法参照点Ps1,Ps2の模型座標値から次の式(64)によりその間隔lsを求める。なお、添字s1,s2は寸法参照点Ps1,Ps2の模型の座標であることを示す。

ls=√{(xs1−xs2)2+(ys1−ys2)2+(zs1−zs2)2} (64)
The model coordinates of the measured point Pn and the dimension reference points Ps1 and Ps2 are obtained by the above formula. In step S110, only the model coordinates of the dimension reference point may be calculated by the above formula until E is determined in step S112. In step S112, an actual value is obtained for the distance E as a temporary value. First, the interval ls is obtained from the model coordinate values of the dimension reference points Ps1, Ps2 obtained in step S110 by the following equation (64). The subscripts s1 and s2 indicate model coordinates of the dimension reference points Ps1 and Ps2.

ls = √ {(xs1−xs2) 2 + (ys1−ys2) 2 + (zs1−zs2) 2 } (64)

次いで、ステップS102で実測した参照寸法Lsとlsとの比を求める。この比を求めた各模型座標値に掛ける。または、ステップS110に戻り上記式(60)のEに掛けて被測量点Pnの実寸法の座標を直接求めてもよい。以上のステップにより、カメラ10aを原点とした、被測量点Pnの3次元座標の実際の値が算出される。   Next, a ratio between the reference dimensions Ls and ls actually measured in step S102 is obtained. This ratio is multiplied by each model coordinate value obtained. Alternatively, the coordinates of the actual dimension of the measurement point Pn may be directly obtained by returning to step S110 and multiplying by E in the above equation (60). Through the above steps, the actual value of the three-dimensional coordinates of the measured point Pn with the camera 10a as the origin is calculated.

以上の方法により2方向からの写真による写真測量ができる。2方向からの写真による写真測量には、共面条件を用いる方法、視差を消去する方法、共線条件を用いる方法といった従来の方法がある。いずれも2方向の撮影する方向に差を設けることにより生じた被写体の像の違い、すなわち視差を基にカメラの姿勢を求めている。本実施例では2方向の差に関係なくカメラの姿勢が求められる。カメラの姿勢を求める精度も2方向の差に関係ない。2方向の写真の視差を基にカメラの姿勢を求める従来の写真測量方法では、カメラの姿勢を算出する精度が2方向の差が小さくなるにつれて低下していた。本実施例の方法によれば、2方向の差が少ない場合の測量においてもカメラ姿勢を精度よく算出できる。   Photogrammetry using photographs from two directions can be performed by the above method. For photogrammetry using photographs from two directions, there are conventional methods such as a method using coplanar conditions, a method of eliminating parallax, and a method using colinear conditions. In either case, the posture of the camera is obtained based on the difference in the image of the subject caused by providing a difference between the two shooting directions, that is, the parallax. In this embodiment, the posture of the camera is obtained regardless of the difference between the two directions. The accuracy with which the camera posture is determined is not related to the difference between the two directions. In the conventional photogrammetry method for obtaining the camera posture based on the parallax of the photos in two directions, the accuracy of calculating the camera posture decreases as the difference between the two directions becomes smaller. According to the method of the present embodiment, the camera posture can be calculated with high accuracy even in surveying when the difference between the two directions is small.

また、従来の方法ではカメラの姿勢を算出する際に逐次近似法、すなわち繰り返し計算のステップがあり計算に時間を要していた。本実施例による場合は繰り返しがないので計算が早くなる。また、従来の方法と組み合わせたとしても初期値を解近傍に設定できるので計算が早くなる。   In the conventional method, there is a successive approximation method, that is, an iterative calculation step when calculating the posture of the camera, and the calculation takes time. In the case of this embodiment, there is no repetition, so the calculation becomes faster. Moreover, even if combined with the conventional method, the initial value can be set in the vicinity of the solution, so that the calculation becomes faster.

上記から明らかなようにカメラ姿勢を求めることが目的である場合は図4のステップS102からステップS108までを実行すればよい。これを利用して写真測量を実行する場合には、更にステップS110およびステップS112を実行すればよい。ステップS102〜S108によってカメラ姿勢が正確に把握できるので、これを利用した測量ステップS110、S112では精度よく被写体を測量できる。   As is apparent from the above, if the purpose is to determine the camera posture, steps S102 to S108 in FIG. 4 may be executed. When photogrammetry is executed using this, steps S110 and S112 may be further executed. Since the camera posture can be accurately grasped by steps S102 to S108, the subject can be accurately measured in the survey steps S110 and S112 using this.

上記実施例は、共同住宅を被写体に設定した場合を例示したので種々の点を参照点に利用できる。しかし、被写体が自然の造形物などである場合には、参照点が設定し難いというときが想定される。このようなときには、図11で示すような標識を被写体に添えて撮影してもよい。図11(A)、(B)は、被写体に適用する標識の例を示した図である。(A)、(B)で示すように正確な平行線である2本以上の直線一対(例えばK1、K2)または平行線の特定に利用できる点(例えばPL1〜PL4)を形状または模様として配し、かつ、一対の平行線に鉛直に交差する直線(K3)線上の点(例えばPh1、Ph2)が形状または模様として配されたものであればよい。   In the above embodiment, the case where the apartment house is set as the subject is exemplified, so that various points can be used as reference points. However, when the subject is a natural shaped object or the like, it is assumed that it is difficult to set the reference point. In such a case, a sign as shown in FIG. 11 may be attached to the subject and photographed. FIGS. 11A and 11B are diagrams showing examples of signs applied to a subject. As shown in (A) and (B), two or more straight line pairs (for example, K1, K2) that are accurate parallel lines or points (for example, PL1 to PL4) that can be used for specifying parallel lines are arranged as shapes or patterns. In addition, the point (for example, Ph1, Ph2) on the straight line (K3) perpendicularly intersecting the pair of parallel lines may be any shape or pattern.

また、標識に設定する姿勢参照平行線K1、K2は線間隔に比べ長さが長いのがよい。例えば1.5倍以上で使用勝手が悪くならない限り長く設定するのがよい。このように姿勢参照平行線K1、K2を相対的に長く設定すると、撮影で上記のように遠近が深い状態に配しても平行線の撮像が大きく(長く)写るので、方向の検出精度を上げることができる。   Further, the posture reference parallel lines K1 and K2 set in the sign are preferably longer in length than the line interval. For example, it should be set longer as long as it is 1.5 times or more and the usability is not deteriorated. If the posture reference parallel lines K1 and K2 are set relatively long as described above, even if the perspective is arranged in a deep state as described above, imaging of the parallel lines is large (long), and thus the direction detection accuracy is improved. Can be raised.

また、方向参照点Ph1およびPh2を寸法参照点Ps1、Ps2と兼ねてその間隔Lsを実測または規定値としてもよい。点および線を光り反射率の高い印として特定しやすくするのもよい。この標識を被写体全体に対してできるだけ幅広く写るように、かつ姿勢参照平行線K1、K2が撮影の遠近方向におおよそ向くように地面、床に置くまたは壁等に掲げる。以上の姿勢参照平行線のあり方については被写体の構造、模様を利用する場合も同様である。   Further, the direction reference points Ph1 and Ph2 may also be used as the dimension reference points Ps1 and Ps2, and the interval Ls may be measured or specified. It is also possible to make it easy to identify points and lines as marks with high reflectivity. The sign is placed on the ground, the floor, or on the wall so that the sign is reflected as widely as possible on the entire subject, and the posture reference parallel lines K1 and K2 are substantially directed in the perspective direction. The above-described orientation reference parallel lines are the same when using the structure and pattern of the subject.

上記実施例では単写真からカメラ姿勢を把握し、これを測量に応用する場合について述べた。しかし、カメラ姿勢を把握する技術は、前述したように測量以外でも、ロボット、入力装置等の他の分野でも広く活用できる。例えばカメラに直接関係するものでは、カメラを据え付けた機器など物体の姿勢、または被写体を機器など物体とした場合の姿勢把握等に採用できる。また、姿勢参照平行線や種々の参照点を高輝度にするなどして画像から自動検出する方法等と組み合わせれば、機器または物体の高精度な姿勢の動的自動検出もしくは機器または物体の自動姿勢制御にも応用できる。   In the above embodiment, the case where the camera posture is grasped from a single photograph and applied to surveying has been described. However, as described above, the technique for grasping the camera posture can be widely used in other fields such as robots and input devices in addition to surveying. For example, in a case directly related to a camera, it can be used for posture determination of an object such as a device on which the camera is installed, or posture determination when a subject is an object such as a device. In addition, if combined with a method that automatically detects posture reference parallel lines and various reference points from an image by increasing the brightness, etc., it can dynamically detect the posture of the device or object with high accuracy or automatically detect the device or object. It can also be applied to attitude control.

さらに図12を参照して上述した実施例の応用例について簡単に説明する。選択平面22の傾斜を確認した以後について説明する。選択平面22を第1平面として、この第1平面と交差する第2平面を設定する。この第2平面を補助平面40と称する。図12は、第1平面としての選択平面22と第2平面としての補助平面40との配置関係を示した図である。補助平面40は、選択平面22に対して次の関係を持って配置されている。   Further, an application example of the above-described embodiment will be briefly described with reference to FIG. The operation after confirming the inclination of the selection plane 22 will be described. A second plane that intersects the first plane is set with the selection plane 22 as the first plane. This second plane is referred to as an auxiliary plane 40. FIG. 12 is a diagram showing an arrangement relationship between the selection plane 22 as the first plane and the auxiliary plane 40 as the second plane. The auxiliary plane 40 is arranged with the following relationship with respect to the selection plane 22.

選択平面22に対して、補助平面40は角度αで交差されている。そして、これら2面の交線上に共有する2個の補助点Pc1、Pc2が設定されている。カメラ撮影を行う際に、さらに角度α、補助点Pc1、Pc2を含むようにして単写真を得る。角度α、補助点Pc1、Pc2を用いれば、選択平面22との接続関係からカメラ10に対する補助平面40の傾斜を算出できる。また、Pc1、Pc2は選択平面22上の点として3次元座標を算出できる。Pc1、Pc2は補助平面40上の方向参照点Ph1、Ph2としても併用できる。上記のように選択平面22のカメラ姿勢は把握できる。よって、補助平面40のカメラ姿勢を把握できる。   The auxiliary plane 40 intersects the selection plane 22 at an angle α. And two auxiliary points Pc1 and Pc2 shared on the intersection line of these two surfaces are set. When performing camera shooting, a single photograph is obtained so as to further include the angle α and the auxiliary points Pc1 and Pc2. If the angle α and the auxiliary points Pc1 and Pc2 are used, the inclination of the auxiliary plane 40 with respect to the camera 10 can be calculated from the connection relationship with the selection plane 22. Pc1 and Pc2 can calculate three-dimensional coordinates as points on the selection plane 22. Pc1 and Pc2 can also be used as direction reference points Ph1 and Ph2 on the auxiliary plane 40. As described above, the camera posture of the selection plane 22 can be grasped. Therefore, the camera posture of the auxiliary plane 40 can be grasped.

上記補助平面40を用いることによりカメラの姿勢を把握する場合の基準平面、すなわち基準座標系を選択平面22以外にも設定することができる。写真測量で1方向から撮影した写真1枚による写真測量の実施例でカメラとの姿勢関係が把握された選択平面22上の被測量点を測量する方法について既に述べた。カメラとの姿勢関係が把握された補助平面40上についても同様に被測量点を測量できる。つまり1方向から撮影した写真一枚による写真測量でも、補助平面40を組み合わせれば選択平面22以外の平面上、さらには複数の平面上にある被測量点の測量が可能になる。図12で示すように、選択平面22に対して更に補助平面40を設定するようにすれば、本発明の汎用性が向上するので適用範囲を広げることができる。   By using the auxiliary plane 40, a reference plane for grasping the posture of the camera, that is, a reference coordinate system can be set in addition to the selection plane 22. The method of surveying the measurement points on the selection plane 22 in which the posture relation with the camera is grasped in the example of the photogrammetry using one photograph taken from one direction by the photogrammetry has already been described. Similarly, the measured points can be surveyed on the auxiliary plane 40 in which the posture relation with the camera is grasped. That is, even in photogrammetry using a single photograph taken from one direction, if the auxiliary plane 40 is combined, survey points on a plane other than the selected plane 22 or a plurality of planes can be measured. As shown in FIG. 12, if the auxiliary plane 40 is further set with respect to the selection plane 22, the versatility of the present invention is improved, so the applicable range can be expanded.

以上本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to the specific embodiments, and various modifications and changes can be made within the scope of the gist of the present invention described in the claims. It can be changed.

従来の手法で単写真からカメラ姿勢を求める場合について示した図である。It is the figure shown about the case where a camera attitude | position is calculated | required from a single photograph with the conventional method. 単写真からカメラ姿勢を求める本発明の場合について示した図である。It is the figure shown about the case of this invention which calculates | requires a camera attitude | position from a single photograph. 共同住宅を被写体としてカメラ撮影を行い、カメラ姿勢を把握してから測量を行う実施例について示した図である。It is the figure shown about the Example which surveys after taking a camera photo with a common house as a subject, grasping the camera posture. 被写体の撮影を行ってカメラ姿勢を求め、さらに写真測量を行うまでの処理をまとめたフローチャートである。It is the flowchart which put together the process from image | photographing a to-be-photographed object, calculating | requiring a camera posture, and performing photogrammetry. 実施例を実施するのに好適であるハードウエア構成の例を示したブロック図である。It is the block diagram which showed the example of the hardware constitutions suitable for implementing an Example. 姿勢参照平行線の消失点を算出する概念について示した図である。It is the figure shown about the concept which calculates the vanishing point of a posture reference parallel line. 仮想撮像面上の消失点と選択平面との関係を示した幾何図である。It is a geometric diagram showing the relationship between the vanishing point on the virtual imaging surface and the selected plane. (A)は合併された各点の配置を概念的に示した図、(B)はカメラの光軸方向の線をカメラ基軸の直交断面に投影した線の図である。(A) is the figure which showed notionally the arrangement | positioning of each merged point, (B) is the figure of the line which projected the line of the optical axis direction of the camera on the orthogonal cross section of the camera base axis. 測量のために撮影しているカメラと被写体の配置および2つのカメラにおける撮像と被写体上の点との関係を示した図である。It is the figure which showed the relationship between the imaging | photography and the point on a to-be-photographed object in two cameras, and the arrangement | positioning of the camera currently image | photographed for surveying. 三角測量の原理について示した図である。It is the figure shown about the principle of triangulation. 被写体に適用する標識の例を示した図である。It is the figure which showed the example of the label | marker applied to a to-be-photographed object. 実施例の応用例について示した図である。It is the figure shown about the application example of the Example.

符号の説明Explanation of symbols

1 選択平面
10 カメラ
15a、15b 単写真
20 被写体(共同住宅)
22 選択平面
K1、K2 姿勢参照平行線
Ph1、Ph2 方向参照点
PL1〜PL4 平行参照点
PN 被測量点
Ps1、Ps2 寸法参照点
1 Selected plane 10 Camera 15a, 15b Single photograph 20 Subject (shared apartment)
22 Selection plane K1, K2 Posture reference parallel line Ph1, Ph2 direction reference point PL1-PL4 Parallel reference point PN Measured point Ps1, Ps2 Dimensions reference point

Claims (10)

被写体上に定めた選択平面に複数の方向参照点を設定すると共に、前記選択平面と直交する姿勢参照平行線を設定し、
前記選択平面に対して正対に近い状態の撮影姿勢で、前記選択平面及び前記姿勢参照平行線を含むようにして前記被写体をカメラで撮影して単写真を得る第1ステップを少なくとも含む、ことを特徴とするカメラ姿勢把握方法。
A plurality of direction reference points are set on a selection plane defined on the subject, and a posture reference parallel line orthogonal to the selection plane is set.
And at least a first step of obtaining a single photograph by photographing the subject with a camera so as to include the selected plane and the posture reference parallel line in a photographing posture in a state of being directly opposite to the selected plane. The camera posture grasp method.
前記第1ステップと、
前記第1ステップで撮影した前記単写真上に2次元座標系を定義し、前記選択平面上の前記方向参照点および前記姿勢参照平行線上に定めた平行参照点を特定して座標を得る第2ステップと
前記第2ステップで得た前記方向参照点および前記平行参照点の座標に基づいて、前記選択平面に対するカメラ姿勢を求める第3ステップとをさらに備える、ことを特徴とする請求項1に記載のカメラ姿勢把握方法。
The first step;
A second coordinate system is defined on the single photograph taken in the first step, and the direction reference point on the selected plane and the parallel reference point defined on the posture reference parallel line are specified to obtain coordinates. 2. The method according to claim 1, further comprising: a step and a third step of obtaining a camera posture with respect to the selected plane based on the coordinates of the direction reference point and the parallel reference point obtained in the second step. Camera posture grasp method.
前記第1ステップでは、さらに前記選択平面と角度αを成して配置した補助平面を設定すると共に、前記選択平面と前記補助平面との交線上に複数の補助点を設定して、前記補助平面及び前記補助点も含むようにしてカメラで前記被写体を撮影して前記単写真を取得し、
前記第2ステップでは、さらに前記単写真上で前記補助点の座標を取得し、
前記第3ステップでは、さらに前記角度α及び前記補助点の座標を参照して、前記補助平面に対するカメラ姿勢を求める、ことを特徴とする請求項2に記載のカメラ姿勢把握方法。
In the first step, an auxiliary plane arranged at an angle α with the selected plane is further set, and a plurality of auxiliary points are set on the intersection line of the selected plane and the auxiliary plane. And taking the subject with a camera so as to include the auxiliary point to obtain the single photograph,
In the second step, the coordinates of the auxiliary points are further obtained on the single photograph,
3. The camera posture grasping method according to claim 2, wherein in the third step, the camera posture with respect to the auxiliary plane is obtained by further referring to the angle α and the coordinates of the auxiliary point.
前記姿勢参照平行線及び前記選択平面の前記方向参照点を特定できる図形を配した標識を、前記被写体に設置して前記第1ステップを実行する、ことを特徴とする請求項1から3のいずれかに記載のカメラ姿勢把握方法。 4. The first step is performed by placing a sign provided with a figure capable of specifying the orientation reference parallel line and the direction reference point of the selected plane on the subject, and executing the first step. 5. Crab camera posture grasp method. 被測量点を含む被写体に位置が既知である複数の測量参照点および間隔が既知である寸法参照点を設定して、前記被写体をカメラで撮影した単写真を用いて前記被測量点の3次元座標を求める写真測量方法であって、
請求項1から3のいずれかに記載のカメラ姿勢把握方法によりカメラ姿勢を求めるカメラ姿勢把握処理を一部に含んで、前記被測量点の3次元座標を求める、ことを特徴とする写真測量方法。
A plurality of survey reference points whose positions are known to the subject including the survey point and a dimension reference point whose distance is known are set, and the three-dimensional of the survey point is obtained using a single photograph obtained by photographing the subject with a camera. A photogrammetry method for obtaining coordinates,
4. A photogrammetry method, comprising, in part, a camera posture grasp process for obtaining a camera posture by the camera posture grasp method according to claim 1 to obtain a three-dimensional coordinate of the measured point. .
前記被写体を複数方向からカメラで撮影した複数の単写真を用い、単写真毎にカメラ姿勢を求めるカメラ姿勢把握処理を一部に含んで、前記被測量点の3次元座標を求める、ことを特徴とする請求項5に記載の写真測量方法。 Using a plurality of single photographs obtained by photographing the subject with a camera from a plurality of directions, including a camera posture grasping process for obtaining a camera posture for each single photograph, and obtaining three-dimensional coordinates of the measured points. The photogrammetry method according to claim 5. 被写体上に定めた選択平面に複数の方向参照点を設定すると共に、前記選択平面と直交する姿勢参照平行線を設定し、前記選択平面に対して正対に近い状態の撮影姿勢で、前記選択平面及び前記姿勢参照平行線を含むようにして前記被写体をカメラで撮影した単写真の画像を読み込む第1処理と、
前記単写真上に2次元座標系を定義し、前記選択平面上の前記方向参照点および前記姿勢参照平行線上に定めた平行参照点を特定して座標を得る第2処理と、
前記方向参照点および前記平行参照点の座標に基づいて、前記選択平面に対するカメラ姿勢を求める第3処理とをコンピュータに実行させることを特徴とするカメラ姿勢把握用のプログラム。
A plurality of direction reference points are set on a selection plane defined on the subject, and a posture reference parallel line orthogonal to the selection plane is set, and the selection is performed in a shooting posture in a state close to the selection plane. A first process of reading an image of a single photograph obtained by photographing the subject with a camera so as to include a plane and the posture reference parallel line;
A second process of defining a two-dimensional coordinate system on the single photograph and specifying the direction reference point on the selected plane and the parallel reference point defined on the posture reference parallel line to obtain coordinates;
A program for grasping a camera posture, which causes a computer to execute a third process for obtaining a camera posture with respect to the selected plane based on the coordinates of the direction reference point and the parallel reference point.
さらに前記選択平面と角度αを成して配置した補助平面を設定すると共に、前記選択平面と前記補助平面との交線上に複数の補助点を設定して、前記補助平面及び前記補助点も含むようにしてカメラで前記被写体を撮影した単写真の画像を読み込み、
さらに前記単写真上で前記補助点の座標を取得し、
さらに前記角度α及び前記補助点の座標に基づいて、前記補助平面に対するカメラ姿勢を求める、ことを特徴とする請求項7に記載のカメラ姿勢把握用のプログラム。
Furthermore, an auxiliary plane arranged at an angle α with the selected plane is set, and a plurality of auxiliary points are set on the intersection line of the selected plane and the auxiliary plane, and the auxiliary plane and the auxiliary point are also included. Read a single photo of the subject taken with the camera,
Furthermore, the coordinates of the auxiliary point are obtained on the single photograph,
8. The camera posture grasping program according to claim 7, further comprising: obtaining a camera posture with respect to the auxiliary plane based on the angle α and the coordinates of the auxiliary point.
被測量点を含む被写体に位置が既知である複数の測量参照点および間隔が既知である寸法参照点を設定して、前記被写体をカメラで撮影した単写真を用いて前記被測量点の3次元座標を求める写真測量のプログラムであって、
請求項1から3のいずれかに記載のカメラ姿勢把握方法によりカメラ姿勢を求めるカメラ姿勢把握処理を一部に含んで、前記被測量点の3次元座標を求める処理をコンピュータに実行させることを特徴とする写真測量のプログラム。
A plurality of survey reference points whose positions are known to the subject including the survey point and a dimension reference point whose distance is known are set, and the three-dimensional of the survey point is obtained using a single photograph obtained by photographing the subject with a camera. A photogrammetry program for finding coordinates,
A camera posture grasping process for obtaining a camera posture by the camera posture grasping method according to any one of claims 1 to 3 is included, and the computer is configured to execute a process for obtaining a three-dimensional coordinate of the measured point. A photogrammetry program.
前記被写体を複数方向からカメラで撮影した複数の単写真を用い、単写真毎にカメラ姿勢を求めるカメラ姿勢把握処理を一部に含んで、前記被測量点の3次元座標を求める処理をコンピュータに実行させることを特徴とする請求項9に記載の写真測量のプログラム。
Using a plurality of single photographs obtained by photographing the subject with a camera from a plurality of directions and including in part a camera posture grasping process for obtaining a camera posture for each single photograph, a process for obtaining three-dimensional coordinates of the measured points is performed on a computer. The photogrammetry program according to claim 9, wherein the photogrammetry program is executed.
JP2005256190A 2005-09-05 2005-09-05 Camera posture grasp method, photogrammetry method using the same, and programs thereof Expired - Fee Related JP4846304B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005256190A JP4846304B2 (en) 2005-09-05 2005-09-05 Camera posture grasp method, photogrammetry method using the same, and programs thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005256190A JP4846304B2 (en) 2005-09-05 2005-09-05 Camera posture grasp method, photogrammetry method using the same, and programs thereof

Publications (2)

Publication Number Publication Date
JP2007071570A true JP2007071570A (en) 2007-03-22
JP4846304B2 JP4846304B2 (en) 2011-12-28

Family

ID=37933150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005256190A Expired - Fee Related JP4846304B2 (en) 2005-09-05 2005-09-05 Camera posture grasp method, photogrammetry method using the same, and programs thereof

Country Status (1)

Country Link
JP (1) JP4846304B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013234971A (en) * 2012-05-11 2013-11-21 Kokusai Kogyo Co Ltd Triaxial marker measuring method, program and device
CN112465947A (en) * 2020-11-18 2021-03-09 李刚 Virtual space establishing method and system for image
CN112465947B (en) * 2020-11-18 2024-04-23 李刚 Method and system for establishing virtual space of image

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103162620B (en) * 2012-10-26 2015-05-13 苏州比特速浪电子科技有限公司 Image processing device and image processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07103715A (en) * 1993-10-01 1995-04-18 Nippondenso Co Ltd Method and apparatus for recognizing three-dimensional position and attitude based on visual sense
JP2000163590A (en) * 1998-12-01 2000-06-16 Fujitsu Ltd Conversion device and method for three-dimensional model
JP2000207567A (en) * 1999-01-11 2000-07-28 Natl Aerospace Lab Method and device for calculating position and attitude by using runaway image
JP2004157894A (en) * 2002-11-08 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> Camera attitude acquiring method and device, its program, and recording medium with its program recorded thereon
JP2005003463A (en) * 2003-06-10 2005-01-06 Topcon Corp Calibration chart image display device, calibration apparatus, and calibration method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07103715A (en) * 1993-10-01 1995-04-18 Nippondenso Co Ltd Method and apparatus for recognizing three-dimensional position and attitude based on visual sense
JP2000163590A (en) * 1998-12-01 2000-06-16 Fujitsu Ltd Conversion device and method for three-dimensional model
JP2000207567A (en) * 1999-01-11 2000-07-28 Natl Aerospace Lab Method and device for calculating position and attitude by using runaway image
JP2004157894A (en) * 2002-11-08 2004-06-03 Nippon Telegr & Teleph Corp <Ntt> Camera attitude acquiring method and device, its program, and recording medium with its program recorded thereon
JP2005003463A (en) * 2003-06-10 2005-01-06 Topcon Corp Calibration chart image display device, calibration apparatus, and calibration method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013234971A (en) * 2012-05-11 2013-11-21 Kokusai Kogyo Co Ltd Triaxial marker measuring method, program and device
CN112465947A (en) * 2020-11-18 2021-03-09 李刚 Virtual space establishing method and system for image
CN112465947B (en) * 2020-11-18 2024-04-23 李刚 Method and system for establishing virtual space of image

Also Published As

Publication number Publication date
JP4846304B2 (en) 2011-12-28

Similar Documents

Publication Publication Date Title
US10825198B2 (en) 3 dimensional coordinates calculating apparatus, 3 dimensional coordinates calculating method, 3 dimensional distance measuring apparatus and 3 dimensional distance measuring method using images
CA3103844C (en) Method for reconstructing three-dimensional space scene based on photographing
Scaramuzza et al. Extrinsic self calibration of a camera and a 3d laser range finder from natural scenes
Robertson et al. An Image-Based System for Urban Navigation.
US8699005B2 (en) Indoor surveying apparatus
US8326021B2 (en) Measurement apparatus and control method
WO2018068719A1 (en) Image stitching method and apparatus
CN109840950B (en) Method for obtaining real-size 3D model and surveying device
US9667955B2 (en) Method of calibrating a camera
CN102243323A (en) Rock mass slope stability analyzing method based on video detection
JP2005077385A (en) Image correlation method, survey method and measuring system using them
KR20160117143A (en) Method, device and system for generating an indoor two dimensional plan view image
KR102129206B1 (en) 3 Dimensional Coordinates Calculating Apparatus and 3 Dimensional Coordinates Calculating Method Using Photo Images
JP2017151026A (en) Three-dimensional information acquiring device, three-dimensional information acquiring method, and program
JP2007212187A (en) Stereo photogrammetry system, stereo photogrammetry method, and stereo photogrammetry program
CN109493378B (en) Verticality detection method based on combination of monocular vision and binocular vision
JP4846304B2 (en) Camera posture grasp method, photogrammetry method using the same, and programs thereof
JP2002099902A (en) Image processing device for measuring three-dimensional information of object through binocular stereoscopic vision, its method, and storage medium with measurement program stored therein
JP2001317915A (en) Three-dimensional measurement apparatus
KR101996226B1 (en) Apparatus for measuring three-dimensional position of subject and method thereof
JP2004212142A (en) Method of measuring dimension of image
JP4550081B2 (en) Image measurement method
CN110375717A (en) A kind of close range photogrammetry method of real-time area measuring
JP6448413B2 (en) Roof slope estimation system and roof slope estimation method
Barazzetti et al. Stitching and processing gnomonic projections for close-range photogrammetry

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070331

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070413

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20201021

Year of fee payment: 9

R150 Certificate of patent or registration of utility model

Ref document number: 4846304

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees