WO2023166617A1 - Camera parameter estimation device, camera parameter estimation method, and computer-readable recording medium - Google Patents

Camera parameter estimation device, camera parameter estimation method, and computer-readable recording medium Download PDF

Info

Publication number
WO2023166617A1
WO2023166617A1 PCT/JP2022/008910 JP2022008910W WO2023166617A1 WO 2023166617 A1 WO2023166617 A1 WO 2023166617A1 JP 2022008910 W JP2022008910 W JP 2022008910W WO 2023166617 A1 WO2023166617 A1 WO 2023166617A1
Authority
WO
WIPO (PCT)
Prior art keywords
epipole
camera
image
matrix
focal length
Prior art date
Application number
PCT/JP2022/008910
Other languages
French (fr)
Japanese (ja)
Inventor
学 中野
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/008910 priority Critical patent/WO2023166617A1/en
Publication of WO2023166617A1 publication Critical patent/WO2023166617A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication

Definitions

  • the present disclosure relates to a camera parameter estimation device and a camera parameter estimation method for estimating camera parameters, and further to a computer-readable recording medium for realizing them.
  • the problem of restoring camera parameters and three-dimensional information of an object from an image sequence containing a plurality of images of the same object (subject) photographed using a plurality of cameras is SfM (Structure-from-Motion), and the multi-view geometry problem.
  • Camera parameters include two types of "internal parameters” and "external parameters”.
  • Intrinsic parameters are lens-specific parameters such as focal length, lens distortion, and optical center coordinates, and extrinsic parameters are three-dimensional rotation matrices and translation vectors between cameras.
  • the intrinsic parameters can be measured in advance if the lens is fixed, and a camera with known intrinsic parameters is called a calibrated camera. On the other hand, a camera whose intrinsic parameters are unknown is called an uncalibrated camera.
  • the "relative parameters between cameras” are expressed as a 3 ⁇ 3 fundamental matrix (F matrix: Fundamental matrix).
  • F matrix Fundamental matrix
  • the term “relative” here is used to express the rotation matrix and translation vector of the second camera based on the coordinate system of the first camera when the definition of the absolute world coordinate system is unknown. is.
  • the F matrix is obtained by multiplying this relative translation vector, rotation matrix, and internal parameters. It is known that this F-matrix has constraints such that one of the eigenvalues is zero and the degrees of freedom are six or seven.
  • R. Hartley's 8-point method is widely used as the method for calculating the F matrix.
  • R. Hartley's 8-point method uses at least eight sets of "corresponding point pairs" containing two corresponding points in two images. Using 8 or more corresponding point pairs and ignoring the constraints of the F matrix, one least-squares solution can be determined by the linear least-squares method. Then, the estimated F-matrix is decomposed to obtain the focal length and the extrinsic parameters.
  • Another well-known method is H. Stewenius' six-point method, which uses six corresponding point pairs. Unlike the R. Hartley 8-point method, H.
  • Stewenius's 6-point method can simultaneously estimate the F matrix and the focal length by solving a polynomial problem that satisfies the aforementioned constraints on the F matrix.
  • H. Stewenius' six-point method assumes that the camera's lens center coincides with the image center, and that the two cameras have the same focal length. This assumption is seen as valid in digital cameras and is standard in SfM.
  • Patent Document 1 discloses a method of calibrating a multi-viewpoint camera using the 6-point method.
  • Non-Patent Document 1 discloses a method of using the image coordinates of another camera captured in the image (hereinafter referred to as an epipole) in order to stably obtain the F matrix with a smaller number of corresponding points.
  • an epipole the image coordinates of another camera captured in the image
  • the F matrix can be calculated with three or more sets of corresponding points by the linear least squares method (M.Ito's 3 dot method).
  • M.Ito's 3 dot method the linear least squares method
  • the F matrix can be similarly calculated with five or more sets of corresponding points (M. Ito's 5-point method). While being a linear least squares method, it satisfies the constraint that one eigenvalue of the F matrix is zero.
  • Each corresponding point pair is a pair of image coordinates on each image obtained by observing a point in real space with two cameras.
  • the three-dimensional coordinates in the real space of corresponding point pairs are the same.
  • tens to thousands of corresponding point pairs are obtained from one image pair.
  • the obtained corresponding point pair group includes erroneous corresponding points, that is, corresponding point pairs in which projected points of different three-dimensional coordinates are associated. Therefore, from all corresponding point pairs, corresponding point pairs with the minimum number of points required for calculation (for example, 6 pairs for the 6-point method, 6 pairs for the 8-point method) are randomly selected, and an F matrix with a small error is calculated. The operation must be repeated.
  • the error represents the residual of the epipolar equation and the reprojection error.
  • This operation is called RANSAC (Random SAmple Consensus), and is widely used as a standard method for searching for correct corresponding points with a small error from a group of corresponding points. Since it is a type of combinatorial optimization, the smaller the minimum number of points, the smaller the number of iterations and the shorter the calculation execution time.
  • the method of calculating the F matrix described above has the following problems.
  • R. Hartley's 8-point method is a least-squares method that ignores the constraints of the F matrix described above. Therefore, with this calculation method, there is a possibility that the internal parameters such as the focal length cannot be restored from the F matrix. Geometrically accurate three-dimensional information cannot be estimated if the internal parameters are unknown. For example, when restoring a three-dimensional shape, a problem arises that a cube cannot be distinguished from a distorted hexahedron.
  • H. Stewenius' 6-point method can estimate the focal length, but the estimation error is large due to the observation noise included in the corresponding points, and the focal length is calculated as an unrealistic negative value. I have something to do.
  • M. Ito's 3-point method and 5-point method satisfy some of the constraints, they do not take into consideration the decomposability condition of the F matrix, like R. Hartley's 8-point method. Therefore, even though one eigenvalue of the F matrix is zero, there is a possibility that internal parameters such as focal length cannot be restored.
  • the F matrix that satisfies the decomposability condition must be stably and highly accurately estimated. is difficult.
  • An example of an object of the present disclosure is to solve the above problem and provide a camera parameter estimation device, a camera parameter estimation method, and a computer-readable recording medium capable of estimating a highly accurate F matrix that satisfies the resolvability condition. It is in.
  • a camera parameter estimation device includes: a corresponding point acquisition unit that acquires the coordinates in the image plane of each corresponding point included in each of the plurality of corresponding point pairs obtained from the first image by the first camera and the second image by the second camera; one of a first epipole that is the image plane coordinates of the second camera projected onto the first image and a second epipole that is the image plane coordinates of the first camera projected onto the second image; or an epipole acquisition unit that acquires both;
  • An epipolar equation for a base matrix representing an epipolar constraint, which is a geometric constraint between two corresponding points of a corresponding point pair, and the plurality of corresponding point pairs, the base matrix and the first epipole or the second epipole a camera parameter estimating unit that estimates the fundamental matrix and the focal length from simultaneous equations represented by a constraint for and a constraint that allows the focal length to be decomposed from the fundamental matrix; characterized by comprising
  • a camera parameter estimation method includes: Acquiring the coordinates in the image plane of each corresponding point included in each of the plurality of corresponding point pairs obtained from the first image by the first camera and the second image by the second camera, one of a first epipole that is the image plane coordinates of the second camera projected onto the first image and a second epipole that is the image plane coordinates of the first camera projected onto the second image; or get both,
  • a computer-readable recording medium in one aspect of the present disclosure includes: to the computer, Acquiring the coordinates in the image plane of each corresponding point included in each of the plurality of corresponding point pairs obtained from the first image by the first camera and the second image by the second camera, one of a first epipole that is the image plane coordinates of the second camera projected onto the first image and a second epipole that is the image plane coordinates of the first camera projected onto the second image; or get both, An epipolar equation for a base matrix representing an epipolar constraint that is a geometric constraint between two corresponding points of a corresponding point pair and the plurality of corresponding point pairs, and for the base matrix and the first epipole or the second epipole and a constraint that allows the focal length to be decomposed from the fundamental matrix, estimating the fundamental matrix and the focal length from the simultaneous equations represented by It is characterized by recording a program including instructions.
  • FIG. 1 is a block diagram showing an example of the configuration of a camera parameter estimation device according to the first embodiment.
  • FIG. 2 is a diagram for explaining a specific example of two-viewpoint geometry.
  • FIG. 3 is a flow chart showing an example of the operation of the camera parameter estimation device according to the first embodiment.
  • FIG. 4 is a block diagram showing an example of the configuration of a camera parameter estimation device according to the second embodiment.
  • FIG. 5 is an explanatory diagram showing a specific example of the coordinate system in the second embodiment.
  • FIG. 6 is a flowchart showing an example of the operation of the camera parameter estimation device according to the second embodiment.
  • FIG. 7 is a block diagram showing an example of a computer that implements the camera parameter estimation device according to the first and second embodiments.
  • FIG. 1 A camera parameter estimation device, a camera parameter estimation method, and a program according to the first embodiment will be described below with reference to FIGS. 1 to 3.
  • FIG. 1 A camera parameter estimation device, a camera parameter estimation method, and a program according to the first embodiment will be described below with reference to FIGS. 1 to 3.
  • FIG. 1 A camera parameter estimation device, a camera parameter estimation method, and a program according to the first embodiment will be described below with reference to FIGS. 1 to 3.
  • FIG. 1 is a block diagram showing an example of the configuration of a camera parameter estimation device according to the first embodiment.
  • the camera parameter estimation device 10 is a device for estimating the basic matrix (F matrix) and the focal length of the camera.
  • the F matrix is a matrix representing an epipolar constraint, which is a geometric constraint between two corresponding points included in a corresponding point pair.
  • the camera parameter estimation device 10 includes a corresponding point acquisition section 11 , an epipole acquisition section 12 and a camera parameter estimation section 13 .
  • the corresponding point acquisition unit 11 acquires the in-image plane coordinates of each corresponding point included in each of a plurality of corresponding point pairs obtained from the first image by the first camera and the second image by the second camera.
  • the epipole acquisition unit 12 obtains a first epipole, which is the coordinates in the image plane of the second camera projected onto the first image, and a second epipole, which is the coordinates in the image plane of the first camera projected onto the second image. one or both of them.
  • the camera parameter estimation unit 13 estimates the F matrix and the focal length from predetermined simultaneous equations. Simultaneous equations are epipolar equations for the F matrix and a plurality of corresponding point pairs, constraints for the F matrix and the first epipole or the second epipole (hereinafter referred to as “epipole constraints”), and from the F matrix It is represented by a constraint condition that allows the focal length to be resolved (hereinafter referred to as “resolvability condition”).
  • the camera parameter estimation device 10 solves the "predetermined simultaneous equations" represented by the epipolar equation, the epipole constraint, and the decomposability condition, and estimates the F matrix and the focal length. Therefore, according to the camera parameter estimation device 10, it is possible to estimate the F matrix with high accuracy that satisfies the decomposability condition.
  • FIG. 2 is a diagram for explaining a specific example of two-viewpoint geometry.
  • the corresponding point acquisition unit 11 acquires the coordinates in the image plane of each corresponding point included in each of two or more "pairs of corresponding points".
  • the coordinates within the image plane are also referred to as "observed image coordinates".
  • Each “corresponding point pair” includes, for example, two corresponding points that are included in the “first image” and the “second image” and correspond to each other.
  • FIG. 2 is an explanatory diagram showing a specific example of the coordinate system in the first embodiment.
  • FIG. 2 shows the camera coordinate system of camera 1 and the camera coordinate system of camera 2.
  • the first image is an image captured by camera 1 and the second image is an image captured by camera 2 . That is, for example, the first image corresponds to the above "first image”, and the second image corresponds to the above "second image”.
  • a certain three-dimensional point X in the world coordinate system is observed by the camera 1 as the coordinate m within the image plane.
  • the coordinates in the image plane are also denoted as “image coordinates” or "observed image coordinates", for example.
  • the three-dimensional point X is observed by the camera 2 as the observed image coordinate m'.
  • the observed image coordinate m and the observed image coordinate m' are points corresponding to each other, and thus are “corresponding points”.
  • the observation image coordinate m and the observation image coordinate m' can be collectively called a "corresponding point pair".
  • Camera 1 is observed as epipole e' in the second image
  • camera 2 is observed as epipole e in the first image.
  • the coordinate values of the three-dimensional point X are unknown. Since the world coordinate system can be set arbitrarily, it is assumed to match the camera coordinate system of camera 1 . That is, in the extrinsic parameters of camera 1, the position (that is, three-dimensional translation vector) is [0,0,0], and the rotation matrix is a 3 ⁇ 3 identity matrix. The extrinsic parameters of the camera 2 are represented by the translation vector t and the rotation matrix R. It is assumed that the two cameras 1 and 2 have the same focal length f.
  • the corresponding point acquisition unit 11 obtains the observation image coordinates of the corresponding points using a widely known technique such as SIFT (Scale Invariant Feature Transform) or SURF (Speeded Up Robust Features). can be obtained.
  • the corresponding point obtaining unit 11 can also obtain observation image coordinates of corresponding points by accepting designation of corresponding points and removal of incorrect corresponding points from the user.
  • the corresponding points are displayed by a display for displaying the first image and the second image, and the corresponding point obtaining unit 11 obtains the corresponding points via an input device such as a mouse, keyboard, or touch panel that receives input from the user. Accepts point specification and removal of erroneous corresponding points.
  • the epipole acquisition unit 12 obtains the position of a camera other than the camera that captured the first image and the second image, that is, the image coordinates of each of the epipoles e and e′. get.
  • the epipole acquisition unit 12 can also acquire the position of the epipole by accepting the designation of the position of the epipole by the user. In this case, the epipole is displayed on the display, and the epipole acquisition unit 12 receives designation of the position of the epipole via the input device.
  • the camera parameter estimation unit 13 uses two or more sets of corresponding points, epipoles e and epipoles e′ to solve the “predetermined simultaneous equations” to obtain the F matrix and the focal length f and
  • This "predetermined simultaneous equations” expresses not only the F matrix and the epipolar equations for two or more corresponding point pairs, but also the decomposable conditions under which the focal length f can be obtained from the F matrix.
  • a specific example of the "predetermined simultaneous equations" will be described later.
  • FIG. 3 is a flow chart showing an example of the operation of the camera parameter estimation device according to the first embodiment. 1 and 2 will be referred to as necessary in the following description. Also, in the first embodiment, the camera parameter estimation method is implemented by operating the camera parameter estimation device 10 . Therefore, the description of the camera parameter estimation method in the first embodiment is replaced with the description of the operation of the camera parameter estimation device 10 below.
  • the corresponding point acquisition unit 11 obtains images of each image data. Two or more sets of corresponding point pairs are specified from . Then, the corresponding point obtaining unit 11 obtains the in-image coordinates of each corresponding point included in each identified pair of corresponding points (step S11).
  • the epipole acquisition unit 12 uses the input image data of the first image and the second image to obtain the first epipole and the second image, which are coordinates in the image plane of the second camera projected onto the first image.
  • a second epipole, which is the coordinates in the image plane of the first camera projected onto is obtained (step S12).
  • the camera parameter estimation unit 13 uses two or more sets of corresponding points and two epipoles to solve the "predetermined simultaneous equations" represented by the epipolar equation, the epipole constraint, and the decomposability condition. Then, the F matrix is calculated, and the focal length f is calculated by decomposing the F matrix (step S13). After that, the camera parameter estimation unit 13 outputs the F matrix and the focal length f calculated in step S13 (step S14). By executing step S14, the operation of the camera parameter estimation device 10 ends.
  • Equation 1 Equation 1
  • the F matrix has the feature that one eigenvalue is zero. This feature is represented by Equation 2 or Equation 3 below, which are equivalent.
  • Equation 2 represents the determinant of the matrix.
  • Equation 3 indicates that the epipole e is the eigenvector corresponding to the zero eigenvalue of the F matrix, and the epipole e' is the eigenvector corresponding to the zero eigenvalue of the transposed F matrix.
  • Fij represents the (i,j) component of the F matrix. It is known that the focal length f can be calculated from the F matrix that satisfies Equation 4 or Equation 5 using known methods such as Kruppa's equation and Bougnoux's formula.
  • Equation 6 the relationship between corresponding points, epipoles, and the F matrix is expressed by Equation 6 below.
  • Equation 6 x represents the 9x1 vector representation of the F matrix, I represents the 3x3 identity matrix, and 0 1x3 represents the 1x3 zero vector. Furthermore, the symbol obtained by enclosing "X" with O represents the Kronecker product.
  • the matrix M is an 8 ⁇ 9 matrix, of which 7 rows are linearly independent. Therefore, x is represented by a linear combination of the singular vectors (null vectors) n1 and n2 of matrix M, as shown in Equation 7 below.
  • Equation 7 a and b are arbitrary real numbers. From Equation 1 above, the F matrix in the epipolar equation has constant multiple indefiniteness. Therefore, in Equation 7, either a or b may be fixed as an arbitrary value.
  • solutions to simultaneous polynomials can be calculated using Gröbner basis or homotopy continuity method.
  • a companion matrix can be used to compute the solution of a quintic equation (maximum of 5 real solutions).
  • the focal length f can be determined from the calculated a. Then, the focal length f can be calculated from the F matrix by using the Kruppa's equation or Bougnoux's formula described above.
  • step S11 when the image data of two images (the first image and the second image) are input, the corresponding point obtaining unit 11 obtains two or more sets of corresponding point pairs (corresponding point pairs) from each image. m and m').
  • step S12 the epipole acquisition unit 12 acquires the epipoles e and e' of each other's cameras from the respective images using the input image data of the first image and the second image.
  • step S14 the camera parameter estimation unit 13 outputs the determined F matrix and focal length f.
  • the camera parameter estimation device 10 can calculate the F matrix and the focal length using two or more corresponding point pairs and two epipoles. The reason is as follows.
  • Matrix M 1 and M 2 in Equation 6 contain the epipole constraint based on Equation 3 above. Therefore, transforming the vector x represented by Equation 7 into a 3 ⁇ 3 matrix satisfies the property of the F matrix (Equation 1) that one eigenvalue is zero. Furthermore, Equation 4 or Equation 5 above is a constraint expression that expresses the decomposability condition of the F matrix. Therefore, determining the coefficients of the singular vectors using Equation 4 or Equation 5 above is equivalent to determining the F matrix with which the focal length f can be calculated. For the above reasons, the F matrix and the focal length can be calculated according to the first embodiment.
  • the first embodiment is not limited to the example described above.
  • various modifications that can be understood by those skilled in the art can be applied to the above example.
  • the first embodiment can also be implemented in the form shown in the following modifications.
  • the “first image” and the “second image” are two still images of the same object captured at a certain time by two different cameras from different viewpoints.
  • the first embodiment is not limited to this.
  • the “first image” and the “second image” may be two frame images of a time-series continuous moving image.
  • the camera 1 that captures the "first image” and the camera 2 that captures the "second image” may be the same camera or different cameras.
  • the “first image” and the “second image” are images obtained by photographing the same object or the same scene from different viewpoints using one or more cameras having the same focal length. good.
  • Modification 3 In the examples shown in FIGS. 1 to 3, the case where two corresponding point pairs are used in the camera parameter estimation unit 13 is described, but the first embodiment is not limited to this.
  • the camera parameter estimation unit 13 may execute the RANSAC algorithm to determine the final output F matrix and focal length f. .
  • the number of samplings in the RANSAC algorithm is two sets, which exponentially reduces the number of trials compared to the 6-point and 8-point methods.
  • non-linear optimization may be used in which Equation 1 is the objective function and Equation 3 is the constraint condition.
  • the objective function a well-known Sampson error or reprojection error may be used in addition to Equation 1 above.
  • a weighted least squares method may be used to constrain Equation 3 above.
  • the program in the first embodiment may be any program that causes a computer to execute steps S11 to S14 shown in FIG.
  • the processor of the computer functions as the corresponding point acquisition unit 11, the epipole acquisition unit 12, and the camera parameter estimation unit 13 to perform processing.
  • Examples of computers include general-purpose PCs, smartphones, and tablet-type terminal devices.
  • the program in the first embodiment may be executed by a computer system constructed by a plurality of computers.
  • each computer may function as one of the corresponding point acquisition unit 11, the epipole acquisition unit 12, and the camera parameter estimation unit 13, respectively.
  • FIG. 4 is a block diagram showing an example of the configuration of a camera parameter estimation device according to the second embodiment.
  • the camera parameter estimation device 20 in the second embodiment shown in FIG. 4 is also a device that estimates the F matrix and the focal length of the camera, like the camera parameter estimation device 10 in the first embodiment.
  • a camera parameter estimation device 20 includes a corresponding point acquisition unit 21, an epipole acquisition unit 22, and a camera parameter estimation unit 23. It has
  • the second embodiment differs from the first embodiment in that only one of the two epipoles e and e' is input.
  • the following description focuses on differences from the first embodiment.
  • FIG. 5 is an explanatory diagram showing a specific example of the coordinate system in the second embodiment.
  • the camera 2 is observed as the epipole e in the first image, but the camera 1 is observed as the epipole e' in the second image because it is outside the imaging range of the second image. do not have.
  • the corresponding point acquisition unit 21 acquires, for example, four or more "corresponding point pairs" in the second embodiment. Note that the method of acquiring the corresponding point pairs by the corresponding point acquiring unit 21 is the same as that of the corresponding point acquiring unit 11 in the first embodiment, so the description thereof will be omitted.
  • the epipole acquisition unit 22 acquires only the image coordinates of the epipole e in the first image in the second embodiment.
  • the epipole image coordinate acquisition method by the epipole acquisition unit 22 is the same as that of the epipole acquisition unit 12 in the first embodiment, so the description thereof will be omitted.
  • the camera parameter estimation unit 23 calculates the F matrix and the focal length f by solving a "predetermined simultaneous equation" using four or more corresponding point pairs and one epipole e. do.
  • This "predetermined simultaneous equation” is represented by an epipolar equation for the F matrix and the four or more corresponding point pairs, an epipolar constraint, and a resolvability condition that allows the focal length f to be decomposed from the F matrix. ing.
  • the camera parameter estimating device 20 solves the "predetermined simultaneous equations" using four or more sets of corresponding points and one epipole e. and the focal length f are calculated.
  • FIG. 6 is a flowchart showing an example of the operation of the camera parameter estimation device according to the second embodiment. 4 and 5 will be referred to as necessary in the following description. Also, in the second embodiment, the camera parameter estimation method is implemented by operating the camera parameter estimation device 20 . Therefore, the description of the camera parameter estimation method in the second embodiment is replaced with the description of the operation of the camera parameter estimation device 20 below.
  • the corresponding point obtaining unit 21 obtains images of each image data. 4 or more sets of corresponding points are specified from . Then, the corresponding point obtaining unit 21 obtains the in-image coordinates of each corresponding point included in each identified pair of corresponding points (step S21).
  • the epipole acquisition unit 22 acquires the epipole e, which is the coordinates within the image plane of the second camera projected onto the first image, using the input image data of the first image and the second image (step S22 ).
  • the camera parameter estimation unit 23 uses four or more sets of corresponding points and one epipole to solve the "predetermined simultaneous equations" represented by the epipolar equation, epipole constraint conditions, and decomposability conditions. Then, the F matrix is calculated, and the focal length f is calculated by decomposing the F matrix (step S23). After that, the camera parameter estimation unit 23 outputs the F matrix and the focal length f calculated in step S23 (step S24). By executing step S24, the operation of the camera parameter estimation device 20 ends.
  • Equation 8 the relationship between corresponding points, epipoles, and the F matrix is expressed by Equation 8 below.
  • step S21 when the image data of two images (the first image and the second image) are input, the corresponding point obtaining unit 21 obtains four or more corresponding point pairs (m, m').
  • step S22 the epipole acquisition unit 22 uses the image data of the first image to acquire the epipole e of the camera 2 that captured the second image.
  • step S24 the camera parameter estimation unit 23 outputs the determined F matrix and focal length f.
  • the camera parameter estimation device 20 can calculate the mF matrix and the focal length using four or more corresponding point pairs and one epipole. The reason is as follows.
  • the matrix M1 in (8) contains the epipole constraints based on (3) above.
  • the F matrix is represented by Equation 7 above, and the F matrix calculated using Equation 4 or Equation 5 above satisfies the decomposability condition. Therefore, even in the second embodiment, determining the coefficients of the singular vectors using Equation 4 or Equation 5 above is equivalent to determining the F matrix that allows the focal length f to be calculated. For the above reasons, the F matrix and the focal length are calculated also in the case of the second embodiment.
  • the epipole acquisition unit 22 acquires the epipole using the image data of the first image, but in the second embodiment, the image data of the second image is used. You can also get an Epipole. In that case, the epipole acquisition unit 22 acquires the epipole e' of the camera of the first image, and the matrix M1 in Equation 8 above is replaced with the matrix M2 in Equation 8 above.
  • Modification 6 In the examples shown in FIGS. 4 to 6, the case where the number of corresponding point pairs used by the camera parameter estimation unit 23 is four is described, but the second embodiment is not limited to this.
  • the camera parameter estimating unit 23 also executes the RANSAC algorithm or nonlinear optimization in the same manner as in Modification 3 described above, and finally An output F matrix and a focal length f may be determined.
  • the program in the second embodiment may be any program that causes a computer to execute steps S21 to S24 shown in FIG.
  • the processor of the computer functions as a corresponding point obtaining section 21, an epipole obtaining section 22, and a camera parameter estimating section 23, and performs processing.
  • Examples of computers include general-purpose PCs, smartphones, and tablet-type terminal devices.
  • the program in the second embodiment may be executed by a computer system constructed by a plurality of computers.
  • each computer may function as one of the corresponding point acquisition unit 21, the epipole acquisition unit 22, and the camera parameter estimation unit 23, respectively.
  • FIG. 7 is a block diagram showing an example of a computer that implements the camera parameter estimation device according to the first and second embodiments.
  • the computer 110 includes a CPU (Central Processing Unit) 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader/writer 116, and a communication interface 117. and These units are connected to each other via a bus 121 so as to be able to communicate with each other.
  • CPU Central Processing Unit
  • the computer 110 may include an MPU (Micro Processing Unit), GPU (Graphics Processing Unit), or FPGA (Field-Programmable Gate Array) in addition to or instead of the CPU 111.
  • MPU Micro Processing Unit
  • GPU Graphics Processing Unit
  • FPGA Field-Programmable Gate Array
  • a GPU or FPGA can execute the programs in the embodiments.
  • the CPU 111 expands the program in the embodiment, which is composed of a code group stored in the storage device 113, into the main memory 112 and executes various operations by executing each code in a predetermined order.
  • the main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory).
  • the programs in the first and second embodiments are provided in a state stored in a non-transitory computer readable medium 120.
  • the programs in the first and second embodiments may be distributed on the Internet connected via the communication interface 117.
  • the programs in the first and second embodiments may be supplied to the computer via a wired communication path such as electric wires and optical fibers, or a wireless communication path.
  • the programs in the first and second embodiments are carried by electrical signals, optical signals and electromagnetic waves.
  • Input interface 114 mediates data transmission between CPU 111 and input devices 118 such as a keyboard and mouse.
  • the display controller 115 is connected to the display device 119 and controls display on the display device 119 .
  • the data reader/writer 116 mediates data transmission between the CPU 111 and the recording medium 120, reads programs from the recording medium 120, and writes processing results in the computer 110 to the recording medium 120.
  • Communication interface 117 mediates data transmission between CPU 111 and other computers.
  • the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic recording media such as flexible disks, and CD- Optical recording media such as ROM (Compact Disk Read Only Memory), CD-R and CD-R/W can be mentioned.
  • CF Compact Flash
  • SD Secure Digital
  • CD- Optical recording media such as ROM (Compact Disk Read Only Memory), CD-R and CD-R/W can be mentioned.
  • the recording medium 120 is a semiconductor memory.
  • the semiconductor memory includes, for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, and RAM (Random Access Memory).
  • the camera parameter estimation devices in the first and second embodiments can also be realized by using hardware corresponding to each part, instead of a computer in which a program is installed. Furthermore, the camera parameter estimating devices in the first and second embodiments may be partly implemented by a program and the rest by hardware.
  • Corresponding point acquisition means for acquiring the coordinates in the image plane of each corresponding point included in each of the plurality of corresponding point pairs obtained from the first image by the first camera and the second image by the second camera; one of a first epipole that is the image plane coordinates of the second camera projected onto the first image and a second epipole that is the image plane coordinates of the first camera projected onto the second image; or an epipole obtaining means for obtaining both;
  • a camera parameter estimation device comprising:
  • the epipole acquisition means acquires both the first epipole and the second epipole;
  • the camera parameter estimation means estimates the base matrix and the focal length by solving the simultaneous equations using two or more sets of corresponding point pairs, the first epipole, and the second epipole. do, The camera parameter estimation device according to appendix 1.
  • the epipole acquisition means acquires one of the first epipole and the second epipole;
  • the camera parameter estimating means solves the simultaneous equations using the four or more corresponding point pairs and one of the first epipole and the second epipole to obtain the base matrix and the focal point to estimate the distance,
  • the camera parameter estimation device according to appendix 1.
  • the present invention is suitable for three-dimensional shape reconstruction from images (Structure-from-Motion).
  • Camera parameter estimation device (Embodiment 1) 11 Corresponding Point Acquisition Unit 12 Epipole Acquisition Unit 13 Camera Parameter Estimation Unit 20 Camera Parameter Estimation Apparatus (Embodiment 2) 21 corresponding point acquisition unit 22 epipole acquisition unit 23 camera parameter estimation unit 110 computer 111 CPU 112 main memory 113 storage device 114 input interface 115 display controller 116 data reader/writer 117 communication interface 118 input device 119 display device 120 recording medium 121 bus

Abstract

A camera parameter estimation device 10 comprises: a corresponding point acquisition unit 11 that acquires image plane coordinates of respective corresponding points included in a plurality of pairs of corresponding points, which are obtained from a first image captured by a first camera and a second image captured by a second camera; an epipole acquisition unit 12 that acquires one or both of a first epipole indicating the image plane coordinates of the second camera projected onto the first image and a second epipole indicating the image plane coordinates of the first camera projected onto the second image; and a camera parameter estimation unit 13 that estimates a focal distance and a fundamental matrix representing an epipolar constraint, which is a geometric constraint between corresponding points, from simultaneous equations represented by: an epipolar equation for the fundamental matrix and the plurality of pairs of corresponding points; a constraint condition relating to the fundamental matrix and the first epipole or second epipole; and a constraint condition enabling decomposition of the focal distance from the fundamental matrix.

Description

カメラパラメータ推定装置、カメラパラメータ推定方法、及びコンピュータ読み取り可能な記録媒体Camera parameter estimation device, camera parameter estimation method, and computer-readable recording medium
 本開示は、カメラパラメータを推定するための、カメラパラメータ推定装置及びカメラパラメータ推定方法に関し、更には、これらを実現するためのコンピュータ読み取り可能な記録媒体に関する。 The present disclosure relates to a camera parameter estimation device and a camera parameter estimation method for estimating camera parameters, and further to a computer-readable recording medium for realizing them.
 複数台のカメラを用いて同一の物体(被写体)を撮影した複数の画像を含む画像列から、カメラパラメータとその物体の3次元情報とを復元する問題は、SfM(Structure-from-Motion)、及び多視点幾何学問題と呼ばれている。カメラパラメータは、「内部パラメータ」及び「外部パラメータ」の2種類を含む。 The problem of restoring camera parameters and three-dimensional information of an object from an image sequence containing a plurality of images of the same object (subject) photographed using a plurality of cameras is SfM (Structure-from-Motion), and the multi-view geometry problem. Camera parameters include two types of "internal parameters" and "external parameters".
 内部パラメータは、焦点距離、レンズ歪、光学中心座標などのレンズ固有のパラメータであり、外部パラメータは、カメラ間の3次元的な回転行列及び並進ベクトルである。内部パラメータは、レンズが固定ならば事前に計測が可能であり、内部パラメータが既知のカメラは、校正済みカメラと呼ばれる。一方、内部パラメータが未知のカメラは未校正カメラと呼ばれる。 Intrinsic parameters are lens-specific parameters such as focal length, lens distortion, and optical center coordinates, and extrinsic parameters are three-dimensional rotation matrices and translation vectors between cameras. The intrinsic parameters can be measured in advance if the lens is fixed, and a camera with known intrinsic parameters is called a calibrated camera. On the other hand, a camera whose intrinsic parameters are unknown is called an uncalibrated camera.
 未校正カメラによる2視点幾何において「カメラ間の相対的なパラメータ」は、3×3の基礎行列(F行列:Fundamental matrix)として表現される。ここで「相対的」としているのは、絶対的な世界座標系の定義が不明な場合、1つ目のカメラの座標系を基準として2つ目のカメラの回転行列及び並進ベクトルを表現するためである。この相対的な並進ベクトルと、回転行列と、内部パラメータと、を乗算して得られたのがF行列である。このF行列の特徴として、固有値の1つがゼロであり、自由度が6もしくは7である、という制約条件を持つことが知られている。 In two-viewpoint geometry with uncalibrated cameras, the "relative parameters between cameras" are expressed as a 3 × 3 fundamental matrix (F matrix: Fundamental matrix). The term "relative" here is used to express the rotation matrix and translation vector of the second camera based on the coordinate system of the first camera when the definition of the absolute world coordinate system is unknown. is. The F matrix is obtained by multiplying this relative translation vector, rotation matrix, and internal parameters. It is known that this F-matrix has constraints such that one of the eigenvalues is zero and the degrees of freedom are six or seven.
 F行列の算出方法として、R. Hartleyの8点法が広く用いられている。R. Hartleyの8点法は、2枚の画像における2つの対応点を含む「対応点ペア」を、少なくとも8組用いる。8組以上の対応点ペアを用いて、F行列の制約条件を無視すれば、線形最小自乗法により1つの最小自乗解を決定できる。そして、推定したF行列を分解して焦点距離と外部パラメータとを得る。別の方法として6組の対応点ペアを用いるH. Steweniusの6点法が広く知られている。H. Steweniusの6点法では、R. Hartleyの8点法と異なり、前述したF行列の制約条件を満たす多項式問題を解くことで、F行列と焦点距離とを同時に推定可能である。H. Steweniusの6点法は、カメラのレンズ中心は画像中央に一致し、また、2つのカメラは同じ焦点距離を持つ、と仮定している。この仮定は、デジタルカメラにおいては妥当と見られており、SfMでは標準的に用いられている。特許文献1には、6点法を用いて多視点カメラの校正を行う方法が開示されている。 R. Hartley's 8-point method is widely used as the method for calculating the F matrix. R. Hartley's 8-point method uses at least eight sets of "corresponding point pairs" containing two corresponding points in two images. Using 8 or more corresponding point pairs and ignoring the constraints of the F matrix, one least-squares solution can be determined by the linear least-squares method. Then, the estimated F-matrix is decomposed to obtain the focal length and the extrinsic parameters. Another well-known method is H. Stewenius' six-point method, which uses six corresponding point pairs. Unlike the R. Hartley 8-point method, H. Stewenius's 6-point method can simultaneously estimate the F matrix and the focal length by solving a polynomial problem that satisfies the aforementioned constraints on the F matrix. H. Stewenius' six-point method assumes that the camera's lens center coincides with the image center, and that the two cameras have the same focal length. This assumption is seen as valid in digital cameras and is standard in SfM. Patent Document 1 discloses a method of calibrating a multi-viewpoint camera using the 6-point method.
 より少ない対応点数で安定的にF行列を求めるために、画像中に写った別のカメラの画像座標(以降、エピポールと呼ぶ)を用いる方法が非特許文献1に開示されている。互いのカメラがそれぞれの画像に映っている場合、つまり、2組のエピポールが両方とも観測できる場合は、線形最小二乗法により3組以上の対応点でF行列が計算できる(M. Itoの3点法)。また、片方のカメラのみが、もう片方の画像に映っている場合、つまり、1組のエピポールのみが観測できる場合は、同様に5組以上の対応点でF行列が計算できる(M. Itoの5点法)。線形最小二乗法でありながら、F行列の1つの固有値がゼロという制約を満たす。 Non-Patent Document 1 discloses a method of using the image coordinates of another camera captured in the image (hereinafter referred to as an epipole) in order to stably obtain the F matrix with a smaller number of corresponding points. When each camera is captured in each image, that is, when two sets of epipoles are both observable, the F matrix can be calculated with three or more sets of corresponding points by the linear least squares method (M.Ito's 3 dot method). Also, when only one camera is reflected in the other image, that is, when only one set of epipoles can be observed, the F matrix can be similarly calculated with five or more sets of corresponding points (M. Ito's 5-point method). While being a linear least squares method, it satisfies the constraint that one eigenvalue of the F matrix is zero.
 各対応点ペアは、実空間にある点を2つのカメラで観測して得られた、各画像上の画像座標のペアである。言い換えると対応点ペアの実空間における3次元座標は同一である。また、一般的には、1組の画像ペアから、数十から数千組の対応点ペアが得られる。得られた対応点ペア群には誤った対応点、すなわち、異なる3次元座標の投影点を対応付けてしまった対応点ペアも存在する。そのため、全対応点ペアから計算に必要な最小点数(例えば6点法であれば6組、8点法であれば6組)の対応点ペアをランダムに選び、誤差の小さいF行列を算出するという操作を繰り返し行う必要がある。ここで、誤差とは、エピポーラ方程式の残差及び再投影誤差を表す。この操作はRANSAC(Random SAmple Consensus)と呼ばれ、対応点群の中から誤差が小さく正しい対応点を探索する標準的な手法として広く用いられている。組合せ最適化の一種であるため、最小点数が少なければ少ないほど、繰り返し回数が削減されて計算実行時間を短くすることができる。 Each corresponding point pair is a pair of image coordinates on each image obtained by observing a point in real space with two cameras. In other words, the three-dimensional coordinates in the real space of corresponding point pairs are the same. In general, tens to thousands of corresponding point pairs are obtained from one image pair. The obtained corresponding point pair group includes erroneous corresponding points, that is, corresponding point pairs in which projected points of different three-dimensional coordinates are associated. Therefore, from all corresponding point pairs, corresponding point pairs with the minimum number of points required for calculation (for example, 6 pairs for the 6-point method, 6 pairs for the 8-point method) are randomly selected, and an F matrix with a small error is calculated. The operation must be repeated. Here, the error represents the residual of the epipolar equation and the reprojection error. This operation is called RANSAC (Random SAmple Consensus), and is widely used as a standard method for searching for correct corresponding points with a small error from a group of corresponding points. Since it is a type of combinatorial optimization, the smaller the minimum number of points, the smaller the number of iterations and the shorter the calculation execution time.
特許第6569769号Patent No. 6569769
 ところで、上述したF行列の算出方法には、以下のような問題がある。 By the way, the method of calculating the F matrix described above has the following problems.
 まず、R. Hartleyの8点法は、上述したF行列の制約を無視した最小二乗法である。このため、この算出方法では、F行列から焦点距離などの内部パラメータが復元できない可能性がある。内部パラメータが不明であると幾何的に正確な3次元情報を推定できない。例えば、3次元形状の復元の際に、立方体とひしゃげた六面体とを区別できない、という問題が生じる。 First, R. Hartley's 8-point method is a least-squares method that ignores the constraints of the F matrix described above. Therefore, with this calculation method, there is a possibility that the internal parameters such as the focal length cannot be restored from the F matrix. Geometrically accurate three-dimensional information cannot be estimated if the internal parameters are unknown. For example, when restoring a three-dimensional shape, a problem arises that a cube cannot be distinguished from a distorted hexahedron.
 続いて、H. Steweniusの6点法では、焦点距離を推定できるものの、対応点に含まれる観測ノイズのために推定誤差が大きく、焦点距離が負値になるような非現実的な解を算出することがある。 Next, H. Stewenius' 6-point method can estimate the focal length, but the estimation error is large due to the observation noise included in the corresponding points, and the focal length is calculated as an unrealistic negative value. I have something to do.
 更に、M. Itoの3点法・5点法では、制約条件の一部は満たされるものの、R. Hartleyの8点法と同様にF行列の分解可能条件は考慮されていない。そのため、F行列の1つの固有値がゼロであるにも関わらず、焦点距離などの内部パラメータが復元できない可能性がある。 Furthermore, although M. Ito's 3-point method and 5-point method satisfy some of the constraints, they do not take into consideration the decomposability condition of the F matrix, like R. Hartley's 8-point method. Therefore, even though one eigenvalue of the F matrix is zero, there is a possibility that internal parameters such as focal length cannot be restored.
 上述したように、従来の3点法、5点法、6点法、又は8点法による、F行列の算出においては、分解可能条件を満たしたF行列を安定的かつ高精度に推定することが困難である。 As described above, in calculating the F matrix by the conventional 3-point method, 5-point method, 6-point method, or 8-point method, the F matrix that satisfies the decomposability condition must be stably and highly accurately estimated. is difficult.
 本開示の目的の一例は、上記問題を解決し、分解可能条件を満たす高精度なF行列を推定し得る、カメラパラメータ推定装置、カメラパラメータ推定方法、及びコンピュータ読み取り可能な記録媒体を提供することにある。 An example of an object of the present disclosure is to solve the above problem and provide a camera parameter estimation device, a camera parameter estimation method, and a computer-readable recording medium capable of estimating a highly accurate F matrix that satisfies the resolvability condition. It is in.
 上記目的を達成するため、本開示の一側面におけるカメラパラメータ推定装置は、
 第1カメラによる第1画像及び第2カメラによる第2画像から得られた、複数の対応点ペアそれぞれに含まれる各対応点の画像平面内座標を取得する、対応点取得部と、
 前記第1画像に投影された前記第2カメラの画像平面内座標である第1エピポール、及び前記第2画像に投影された前記第1カメラの画像平面内座標である第2エピポール、のうち一方又は両方を取得する、エピポール取得部と、
 対応点ペアの2つの対応点間の幾何学的な制約であるエピポーラ制約を表す基礎行列と前記複数の対応点ペアとについてのエピポーラ方程式、前記基礎行列と前記第1エピポール又は第2のエピポールとについての制約条件、及び前記基礎行列から焦点距離を分解可能とする制約条件、によって表される連立方程式から、前記基礎行列及び前記焦点距離を推定する、カメラパラメータ推定部と、
を具備することを特徴とする。
In order to achieve the above object, a camera parameter estimation device according to one aspect of the present disclosure includes:
a corresponding point acquisition unit that acquires the coordinates in the image plane of each corresponding point included in each of the plurality of corresponding point pairs obtained from the first image by the first camera and the second image by the second camera;
one of a first epipole that is the image plane coordinates of the second camera projected onto the first image and a second epipole that is the image plane coordinates of the first camera projected onto the second image; or an epipole acquisition unit that acquires both;
An epipolar equation for a base matrix representing an epipolar constraint, which is a geometric constraint between two corresponding points of a corresponding point pair, and the plurality of corresponding point pairs, the base matrix and the first epipole or the second epipole a camera parameter estimating unit that estimates the fundamental matrix and the focal length from simultaneous equations represented by a constraint for and a constraint that allows the focal length to be decomposed from the fundamental matrix;
characterized by comprising
 また、上記目的を達成するため、本開示の一側面におけるカメラパラメータ推定方法は、
 第1カメラによる第1画像及び第2カメラによる第2画像から得られた、複数の対応点ペアそれぞれに含まれる各対応点の画像平面内座標を取得し、
 前記第1画像に投影された前記第2カメラの画像平面内座標である第1エピポール、及び前記第2画像に投影された前記第1カメラの画像平面内座標である第2エピポール、のうち一方又は両方を取得し、
 対応点ペアの2つの対応点間の幾何学的な制約であるエピポーラ制約を表す基礎行列と前記複数の対応点ペアとについてのエピポーラ方程式、前記基礎行列と前記第1エピポール又は第2エピポールとについての制約条件、及び前記基礎行列から焦点距離を分解可能とする制約条件、によって表される連立方程式から、前記基礎行列及び前記焦点距離を推定する、
ことを特徴とする。
Further, in order to achieve the above object, a camera parameter estimation method according to one aspect of the present disclosure includes:
Acquiring the coordinates in the image plane of each corresponding point included in each of the plurality of corresponding point pairs obtained from the first image by the first camera and the second image by the second camera,
one of a first epipole that is the image plane coordinates of the second camera projected onto the first image and a second epipole that is the image plane coordinates of the first camera projected onto the second image; or get both,
An epipolar equation for a base matrix representing an epipolar constraint that is a geometric constraint between two corresponding points of a corresponding point pair and the plurality of corresponding point pairs, and for the base matrix and the first epipole or the second epipole and a constraint that allows the focal length to be decomposed from the fundamental matrix, estimating the fundamental matrix and the focal length from the simultaneous equations expressed by
It is characterized by
 更に、上記目的を達成するため、本開示の一側面におけるコンピュータ読み取り可能な記録媒体は、
コンピュータに、
 第1カメラによる第1画像及び第2カメラによる第2画像から得られた、複数の対応点ペアそれぞれに含まれる各対応点の画像平面内座標を取得させ、
 前記第1画像に投影された前記第2カメラの画像平面内座標である第1エピポール、及び前記第2画像に投影された前記第1カメラの画像平面内座標である第2エピポール、のうち一方又は両方を取得させ、
 対応点ペアの2つの対応点間の幾何学的な制約であるエピポーラ制約を表す基礎行列と前記複数の対応点ペアとについてのエピポーラ方程式、前記基礎行列と前記第1エピポール又は第2エピポールとについての制約条件、及び前記基礎行列から焦点距離を分解可能とする制約条件、によって表される連立方程式から、前記基礎行列及び前記焦点距離を推定させる、
命令を含む、プログラムを記録していることを特徴とする。
Furthermore, in order to achieve the above object, a computer-readable recording medium in one aspect of the present disclosure includes:
to the computer,
Acquiring the coordinates in the image plane of each corresponding point included in each of the plurality of corresponding point pairs obtained from the first image by the first camera and the second image by the second camera,
one of a first epipole that is the image plane coordinates of the second camera projected onto the first image and a second epipole that is the image plane coordinates of the first camera projected onto the second image; or get both,
An epipolar equation for a base matrix representing an epipolar constraint that is a geometric constraint between two corresponding points of a corresponding point pair and the plurality of corresponding point pairs, and for the base matrix and the first epipole or the second epipole and a constraint that allows the focal length to be decomposed from the fundamental matrix, estimating the fundamental matrix and the focal length from the simultaneous equations represented by
It is characterized by recording a program including instructions.
 以上のように本開示によれば、分解可能条件を満たす高精度なF行列を推定することができる。 As described above, according to the present disclosure, it is possible to estimate a highly accurate F matrix that satisfies the decomposability condition.
図1は、第1の実施形態におけるカメラパラメータ推定装置の構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of a camera parameter estimation device according to the first embodiment. 図2は、2視点幾何の具体例の説明に供する図である。FIG. 2 is a diagram for explaining a specific example of two-viewpoint geometry. 図3は、第1の実施形態におけるカメラパラメータ推定装置の動作の一例を示すフロー図である。FIG. 3 is a flow chart showing an example of the operation of the camera parameter estimation device according to the first embodiment. 図4は、第2の実施形態におけるカメラパラメータ推定装置の構成の一例を示すブロック図である。FIG. 4 is a block diagram showing an example of the configuration of a camera parameter estimation device according to the second embodiment. 図5は、第2の実施形態における座標系の具体例を示す説明図である。FIG. 5 is an explanatory diagram showing a specific example of the coordinate system in the second embodiment. 図6は、第2の実施形態におけるカメラパラメータ推定装置の動作の一例を示すフロー図である。FIG. 6 is a flowchart showing an example of the operation of the camera parameter estimation device according to the second embodiment. 図7は、第1及び第2の実施形態におけるカメラパラメータ推定装置を実現するコンピュータの一例を示すブロック図である。FIG. 7 is a block diagram showing an example of a computer that implements the camera parameter estimation device according to the first and second embodiments.
 以下、図面を参照しつつ、実施形態について説明する。なお、以下の実施形態において、同一又は同等の要素には、同一の符号が付され、重複する説明は省略される。 Embodiments will be described below with reference to the drawings. In addition, in the following embodiments, the same or equivalent elements are given the same reference numerals, and overlapping descriptions are omitted.
(第1の実施形態)
 以下、第1の実施形態における、カメラパラメータ推定装置、カメラパラメータ推定方法、及びプログラムについて、図1~図3を参照しながら説明する。
(First embodiment)
A camera parameter estimation device, a camera parameter estimation method, and a program according to the first embodiment will be described below with reference to FIGS. 1 to 3. FIG.
[装置構成]
 最初に、第1の実施形態におけるカメラパラメータ推定装置の構成について図1を用いて説明する。図1は、第1の実施形態におけるカメラパラメータ推定装置の構成の一例を示すブロック図である。
[Device configuration]
First, the configuration of the camera parameter estimation device according to the first embodiment will be explained using FIG. FIG. 1 is a block diagram showing an example of the configuration of a camera parameter estimation device according to the first embodiment.
 図1に示す、第1の実施形態におけるカメラパラメータ推定装置10は、基礎行列(F行列)とカメラの焦点距離とを推定する装置である。F行列は、対応点ペアに含まれる2つの対応点の間の幾何学的な制約であるエピポーラ制約を表す行列である。図1に示すように、カメラパラメータ推定装置10は、対応点取得部11と、エピポール取得部12と、カメラパラメータ推定部13と、を備えている。 The camera parameter estimation device 10 according to the first embodiment shown in FIG. 1 is a device for estimating the basic matrix (F matrix) and the focal length of the camera. The F matrix is a matrix representing an epipolar constraint, which is a geometric constraint between two corresponding points included in a corresponding point pair. As shown in FIG. 1 , the camera parameter estimation device 10 includes a corresponding point acquisition section 11 , an epipole acquisition section 12 and a camera parameter estimation section 13 .
 対応点取得部11は、第1カメラによる第1画像及び第2カメラによる第2画像から得られた、複数の対応点ペアそれぞれに含まれる各対応点の画像平面内座標を取得する。エピポール取得部12は、第1画像に投影された第2カメラの画像平面内座標である第1エピポール、及び第2画像に投影された第1カメラの画像平面内座標である第2エピポール、のうち一方又は両方を取得する。 The corresponding point acquisition unit 11 acquires the in-image plane coordinates of each corresponding point included in each of a plurality of corresponding point pairs obtained from the first image by the first camera and the second image by the second camera. The epipole acquisition unit 12 obtains a first epipole, which is the coordinates in the image plane of the second camera projected onto the first image, and a second epipole, which is the coordinates in the image plane of the first camera projected onto the second image. one or both of them.
 カメラパラメータ推定部13は、所定の連立方程式から、F行列及び焦点距離を推定する。連立方程式は、F行列と複数の対応点ペアとについてのエピポーラ方程式、F行列と第1エピポール又は第2エピポールとについての制約条件(以下「エピポール制約条件」と表記する。)、及びF行列から焦点距離を分解可能とする制約条件(以下「分解可能条件」と表記する。)、によって表されている。 The camera parameter estimation unit 13 estimates the F matrix and the focal length from predetermined simultaneous equations. Simultaneous equations are epipolar equations for the F matrix and a plurality of corresponding point pairs, constraints for the F matrix and the first epipole or the second epipole (hereinafter referred to as "epipole constraints"), and from the F matrix It is represented by a constraint condition that allows the focal length to be resolved (hereinafter referred to as “resolvability condition”).
 このように、カメラパラメータ推定装置10では、エピポーラ方程式、エピポール制約条件、及び分解可能条件によって表された、「所定の連立方程式」の解法が行われ、F行列と焦点距離とが推定される。従って、カメラパラメータ推定装置10によれば、分解可能条件を満たす高精度なF行列の推定が可能となる。 In this way, the camera parameter estimation device 10 solves the "predetermined simultaneous equations" represented by the epipolar equation, the epipole constraint, and the decomposability condition, and estimates the F matrix and the focal length. Therefore, according to the camera parameter estimation device 10, it is possible to estimate the F matrix with high accuracy that satisfies the decomposability condition.
 続いて、図1に加えて図2を用いて、第1の実施形態におけるカメラパラメータ推定装置10の機能について詳細に説明する。図2は、2視点幾何の具体例の説明に供する図である。 Next, using FIG. 2 in addition to FIG. 1, functions of the camera parameter estimation device 10 in the first embodiment will be described in detail. FIG. 2 is a diagram for explaining a specific example of two-viewpoint geometry.
 対応点取得部11は、上述したように、2組以上の「対応点ペア」のそれぞれに含まれる各対応点の画像平面内座標を取得する。第1の実施形態では、画像平面内座標は、「観察画像座標」とも表記する。各「対応点ペア」は、例えば、「第1画像」及び「第2画像」にそれぞれ含まれ且つ互いに対応する2つの対応点を含む。 As described above, the corresponding point acquisition unit 11 acquires the coordinates in the image plane of each corresponding point included in each of two or more "pairs of corresponding points". In the first embodiment, the coordinates within the image plane are also referred to as "observed image coordinates". Each “corresponding point pair” includes, for example, two corresponding points that are included in the “first image” and the “second image” and correspond to each other.
 ここで、図2を参照しながら、同一対象を2つのカメラで撮影することによって得られた2つの画像間の幾何学的関係、即ち、「2視点幾何」の具体例について説明する。図2は、第1の実施形態における座標系の具体例を示す説明図である。 Here, a specific example of the geometric relationship between two images obtained by photographing the same object with two cameras, that is, "two-viewpoint geometry" will be described with reference to FIG. FIG. 2 is an explanatory diagram showing a specific example of the coordinate system in the first embodiment.
 図2には、カメラ1のカメラ座標系及びカメラ2のカメラ座標系が示されている。図2において、第1画像は、カメラ1によって撮影された画像であり、第2画像は、カメラ2によって撮影された画像である。すなわち、例えば、第1画像は、上記の「第1画像」に対応し、第2画像は、上記の「第2画像」に対応する。 FIG. 2 shows the camera coordinate system of camera 1 and the camera coordinate system of camera 2. In FIG. 2 , the first image is an image captured by camera 1 and the second image is an image captured by camera 2 . That is, for example, the first image corresponds to the above "first image", and the second image corresponds to the above "second image".
 そして、図2において、世界座標系における或る3次元点Xが、カメラ1によって画像平面内座標mとして観測されている。画像平面内座標は、例えば、「画像座標」又は「観察画像座標」とも表記される。また、図2において、その3次元点Xが、カメラ2によって観察画像座標m’として観測されている。観察画像座標m及び観察画像座標m’は、互いに対応する点であるので、それぞれ「対応点」である。観察画像座標m及び観察画像座標m’を纏めて「対応点ペア」と呼ぶことができる。そして、カメラ1は第2画像においてエピポールe’として観測され、カメラ2は第1画像においてエピポールeとして観測されている。 Then, in FIG. 2, a certain three-dimensional point X in the world coordinate system is observed by the camera 1 as the coordinate m within the image plane. The coordinates in the image plane are also denoted as "image coordinates" or "observed image coordinates", for example. 2, the three-dimensional point X is observed by the camera 2 as the observed image coordinate m'. The observed image coordinate m and the observed image coordinate m' are points corresponding to each other, and thus are "corresponding points". The observation image coordinate m and the observation image coordinate m' can be collectively called a "corresponding point pair". Camera 1 is observed as epipole e' in the second image, and camera 2 is observed as epipole e in the first image.
 第1の実施形態において、世界座標系は明示的に与えられないため、3次元点Xの座標値は不明である。世界座標系は、任意に設定可能なため、カメラ1のカメラ座標系と一致しているものとする。すなわち、カメラ1の外部パラメータにおいて、位置(つまり、3次元並進ベクトル)は、[0,0,0]であり、回転行列は、3×3の単位行列である。そして、カメラ2の外部パラメータは、並進ベクトルtと回転行列Rとで表される。なお、2つのカメラ1及び2は、同一の焦点距離fを持つとする。 In the first embodiment, since the world coordinate system is not explicitly given, the coordinate values of the three-dimensional point X are unknown. Since the world coordinate system can be set arbitrarily, it is assumed to match the camera coordinate system of camera 1 . That is, in the extrinsic parameters of camera 1, the position (that is, three-dimensional translation vector) is [0,0,0], and the rotation matrix is a 3×3 identity matrix. The extrinsic parameters of the camera 2 are represented by the translation vector t and the rotation matrix R. It is assumed that the two cameras 1 and 2 have the same focal length f.
 対応点取得部11は、第1の実施形態では、例えば、SIFT(Scale Invariant Feature Transform)又はSURF(Speeded Up Robust Features)といった広く知られている手法を利用して、対応点の観察画像座標を取得することができる。対応点取得部11は、ユーザによる、対応点の指定及び誤対応点の除去を受け付けることによって、対応点の観察画像座標を取得することもできる。この場合、対応点は、第1画像と第2画像を表示するためのディスプレイによって表示され、対応点取得部11は、ユーザからの入力を受け付けるマウス、キーボード、タッチパネルといった入力デバイスを介して、対応点の指定及び誤対応点の除去を受け付ける。 In the first embodiment, the corresponding point acquisition unit 11 obtains the observation image coordinates of the corresponding points using a widely known technique such as SIFT (Scale Invariant Feature Transform) or SURF (Speeded Up Robust Features). can be obtained. The corresponding point obtaining unit 11 can also obtain observation image coordinates of corresponding points by accepting designation of corresponding points and removal of incorrect corresponding points from the user. In this case, the corresponding points are displayed by a display for displaying the first image and the second image, and the corresponding point obtaining unit 11 obtains the corresponding points via an input device such as a mouse, keyboard, or touch panel that receives input from the user. Accepts point specification and removal of erroneous corresponding points.
 エピポール取得部12は、第1の実施形態では、第1画像及び第2画像それぞれにおいて、その画像を撮影したカメラとは別のカメラの位置、すなわち、エピポールeとエピポールe’それぞれの画像座標を取得する。また、エピポール取得部12は、ユーザによる、エピポールの位置の指定を受け付けることによって、エピポールの位置を取得することもできる。この場合、エピポールはディスプレイによって表示され、エピポール取得部12は、入力デバイスを介して、エピポールの位置の指定を受け付ける。 In the first embodiment, the epipole acquisition unit 12 obtains the position of a camera other than the camera that captured the first image and the second image, that is, the image coordinates of each of the epipoles e and e′. get. In addition, the epipole acquisition unit 12 can also acquire the position of the epipole by accepting the designation of the position of the epipole by the user. In this case, the epipole is displayed on the display, and the epipole acquisition unit 12 receives designation of the position of the epipole via the input device.
 カメラパラメータ推定部13は、第1の実施形態では、2組以上の対応点と、エピポールe及びエピポールe’と、を用いて、「所定の連立方程式」を解くことによってF行列と焦点距離fとを算出する。この「所定の連立方程式」は、F行列と、2組以上の対応点ペアについてのエピポーラ方程式とに加え、F行列から焦点距離fを取得可能な分解可能条件も表している。「所定の連立方程式」の具体例については後述する。 In the first embodiment, the camera parameter estimation unit 13 uses two or more sets of corresponding points, epipoles e and epipoles e′ to solve the “predetermined simultaneous equations” to obtain the F matrix and the focal length f and This "predetermined simultaneous equations" expresses not only the F matrix and the epipolar equations for two or more corresponding point pairs, but also the decomposable conditions under which the focal length f can be obtained from the F matrix. A specific example of the "predetermined simultaneous equations" will be described later.
[装置動作]
 次に、第1の実施形態におけるカメラパラメータ推定装置10の動作の一例について、図3を用いて説明する。図3は、第1の実施形態におけるカメラパラメータ推定装置の動作の一例を示すフロー図である。以下の説明においては、適宜図1及び図2を参照する。また、第1の実施形態では、カメラパラメータ推定装置10を動作させることによって、カメラパラメータ推定方法が実施される。よって、第1の実施の形態におけるカメラパラメータ推定方法の説明は、以下のカメラパラメータ推定装置10の動作説明に代える。
[Device operation]
Next, an example of the operation of the camera parameter estimation device 10 according to the first embodiment will be explained using FIG. FIG. 3 is a flow chart showing an example of the operation of the camera parameter estimation device according to the first embodiment. 1 and 2 will be referred to as necessary in the following description. Also, in the first embodiment, the camera parameter estimation method is implemented by operating the camera parameter estimation device 10 . Therefore, the description of the camera parameter estimation method in the first embodiment is replaced with the description of the operation of the camera parameter estimation device 10 below.
 図3に示すように、まず、カメラパラメータ推定装置10に、2枚の画像(第1画像と第2画像)の画像データが入力されると、対応点取得部11は、各画像データの画像から対応点ペアを2組以上特定する。そして、対応点取得部11は、特定した対応点ペア毎に、それぞれに含まれる各対応点の画像平面内座標を取得する(ステップS11)。 As shown in FIG. 3, first, when image data of two images (first image and second image) are input to the camera parameter estimation device 10, the corresponding point acquisition unit 11 obtains images of each image data. Two or more sets of corresponding point pairs are specified from . Then, the corresponding point obtaining unit 11 obtains the in-image coordinates of each corresponding point included in each identified pair of corresponding points (step S11).
 次いで、エピポール取得部12は、入力された第1画像及び第2画像の画像データを用いて、第1画像に投影された第2カメラの画像平面内座標である第1エピポール、及び第2画像に投影された第1カメラの画像平面内座標である第2エピポールを取得する(ステップS12)。 Next, the epipole acquisition unit 12 uses the input image data of the first image and the second image to obtain the first epipole and the second image, which are coordinates in the image plane of the second camera projected onto the first image. A second epipole, which is the coordinates in the image plane of the first camera projected onto , is obtained (step S12).
 次いで、カメラパラメータ推定部13は、2組以上の対応点と2つのエピポールとを用いて、エピポーラ方程式、エピポール制約条件、及び分解可能条件によって表された「所定の連立方程式」の解法を実行して、F行列を算出し、更に、F行列を分解して焦点距離fを算出する(ステップS13)。その後、カメラパラメータ推定部13は、ステップS13で算出したF行列と焦点距離fとを出力する(ステップS14)。ステップS14の実行により、カメラパラメータ推定装置10における動作は終了する。 Next, the camera parameter estimation unit 13 uses two or more sets of corresponding points and two epipoles to solve the "predetermined simultaneous equations" represented by the epipolar equation, the epipole constraint, and the decomposability condition. Then, the F matrix is calculated, and the focal length f is calculated by decomposing the F matrix (step S13). After that, the camera parameter estimation unit 13 outputs the F matrix and the focal length f calculated in step S13 (step S14). By executing step S14, the operation of the camera parameter estimation device 10 ends.
[具体例]
 ここで、第1の実施の形態の具体例について以下に説明する。なお、以下の具体例の説明では、図2に示した記号が用いられ、図2の例と同様に、世界座標系の原点はカメラ1のカメラ座標系に一致しているとする。ある3次元点Xは、2つのカメラ画像においてそれぞれm、m’として観測される。また、カメラ1におけるカメラ2のエピポールをe、カメラ2におけるカメラ1のエピポールをとする。更に、m、m’、e、及びe’は、3次元の斉次座標表現、すなわち、2次元の画像座標に1を要素として加えた3次元ベクトルとして表される。なお、本具体例では、ベクトルの転置と行列の転置とは上付きTで表される。
[Concrete example]
Here, a specific example of the first embodiment will be described below. In the following description of the specific example, the symbols shown in FIG. 2 are used, and it is assumed that the origin of the world coordinate system coincides with the camera coordinate system of the camera 1, as in the example of FIG. A certain 3D point X is observed as m and m' in the two camera images, respectively. Let e be the epipole of camera 2 in camera 1, and let e be the epipole of camera 1 in camera 2. FIG. Furthermore, m, m', e, and e' are expressed as three-dimensional homogeneous coordinate representations, that is, three-dimensional vectors obtained by adding 1 to the two-dimensional image coordinates. In this specific example, transposition of a vector and transposition of a matrix are represented by a superscript T.
 まず、解くべき問題の定義を行う。3×3のF行列とi番目の対応点m、m’は、下記の数1で表されるエピポーラ方程式を満たすことが知られている。 First, define the problem to be solved. It is known that the 3×3 F matrix and the i-th corresponding points m and m′ satisfy the epipolar equation expressed by Equation 1 below.
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000001
 F行列は、1つの固有値がゼロという特徴を持つ。この特徴は、下記の数2又は数3で表され、いずれも等価である。 The F matrix has the feature that one eigenvalue is zero. This feature is represented by Equation 2 or Equation 3 below, which are equivalent.
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000003
 ここで、上記数2におけるdet()は行列の行列式を表す。上記数3は、エピポールeが、F行列のゼロ固有値に対応する固有ベクトルであり、エピポールe’が、転置したF行列のゼロ固有値に対応する固有ベクトルであることを示す。 Here, det() in Equation 2 above represents the determinant of the matrix. Equation 3 above indicates that the epipole e is the eigenvector corresponding to the zero eigenvalue of the F matrix, and the epipole e' is the eigenvector corresponding to the zero eigenvalue of the transposed F matrix.
 そして、F行列から焦点距離fが分解可能な条件は、下記の数4又は数4で表されることが知られている。 Then, it is known that the conditions under which the focal length f can be resolved from the F matrix are represented by Equation 4 or Equation 4 below.
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000005
ここで、FijはF行列の(i,j)成分を表す。上記数4又は数5を満たすF行列からは、Kruppaの方程式、及びBougnouxの公式といった既知の方法を用いれば、焦点距離fが算出可能なことが知られている。 where Fij represents the (i,j) component of the F matrix. It is known that the focal length f can be calculated from the F matrix that satisfies Equation 4 or Equation 5 using known methods such as Kruppa's equation and Bougnoux's formula.
 次に、2組の対応点と、2つのエピポールe(=[ex, ey, ez]T)及びe’(=[e’x, e’y, e’z]T)が与えられたときに、F行列と焦点距離fを計算する方法について説明する。まず、上記数1と上記数3とより、対応点とエピポールとF行列との関係は、以下の数6で表される。 Next, given two sets of corresponding points and two epipoles e(=[e x , e y , e z ] T ) and e'(=[e' x , e' y , e' z ] T ) We describe how to calculate the F matrix and the focal length f when First, from Equations 1 and 3, the relationship between corresponding points, epipoles, and the F matrix is expressed by Equation 6 below.
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000006
 上記数6において、xはF行列の9×1ベクトル表現を表し、Iは3×3の単位行列を表し、01x3は1×3のゼロベクトルを表す。更に、「×」を○で囲んで得られる記号は、クロネッカ積を表す。 In Equation 6 above, x represents the 9x1 vector representation of the F matrix, I represents the 3x3 identity matrix, and 0 1x3 represents the 1x3 zero vector. Furthermore, the symbol obtained by enclosing "X" with O represents the Kronecker product.
 行列Mは8×9の行列であるが、そのうち線形独立なのは7行である。そのため、xは、下記の数7に示すように、行列Mの特異ベクトル(null vector)nとnとの線形結合で表される。 The matrix M is an 8×9 matrix, of which 7 rows are linearly independent. Therefore, x is represented by a linear combination of the singular vectors (null vectors) n1 and n2 of matrix M, as shown in Equation 7 below.
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000007
 上記数7において、a、bは任意の実数である。上記数1より、エピポーラ方程式におけるF行列は定数倍の不定性を持つ。従って、上記数7においては、a又はbのいずれかは、任意の値として固定されていてもよい。 In Equation 7 above, a and b are arbitrary real numbers. From Equation 1 above, the F matrix in the epipolar equation has constant multiple indefiniteness. Therefore, in Equation 7, either a or b may be fixed as an arbitrary value.
 次に、F行列を算出する方法を説明する。不定性を除くため、以下では一例としてb=1、即ち、x=an+nとする。 Next, a method for calculating the F matrix will be described. To remove ambiguity, let b=1, ie x=an 1 +n 2 , as an example below.
 上記数4に、「x=an+n」を代入すると、2つの変数a及びwを持つ連立多項式が得られる。例えば、グレブナー基底又はホモトピー連続法を用いることで、連立多項式の解を算出できる。 Substituting “x=an 1 +n 2 ” into Equation 4 yields a simultaneous polynomial with two variables a and w. For example, solutions to simultaneous polynomials can be calculated using Gröbner basis or homotopy continuity method.
 また、上記数5に、「x=an+n」を代入すると、aに関する5次方程式となる。例えば、コンパニオン行列を用いれば、5次方程式の解(最大で5つの実数解)を算出できる。算出したaにより、焦点距離fを決定できる。そして、前述したKruppaの方程式又はBougnouxの公式を用いることで、F行列から焦点距離fを算出できる。 Substituting “x=an 1 +n 2 ” into Equation 5 yields a quintic equation for a. For example, a companion matrix can be used to compute the solution of a quintic equation (maximum of 5 real solutions). The focal length f can be determined from the calculated a. Then, the focal length f can be calculated from the F matrix by using the Kruppa's equation or Bougnoux's formula described above.
 上記数4又は上記数5を用いて連立方程式を解くと、一般に複数の実数解が得られる。解を絞り込む方法としては、例えば、焦点距離fが正となるF行列を選択する方法が挙げられる。その他に、計算に用いなかった別の対応点との誤差(エピポーラ方程式の残差又は再投影誤差など)が最小となるF行列と焦点距離fとを選択する方法も挙げられる。 When the simultaneous equations are solved using Equation 4 or Equation 5 above, multiple real number solutions are generally obtained. As a method of narrowing down the solution, for example, there is a method of selecting an F matrix in which the focal length f is positive. Another method is to select the F matrix and the focal length f that minimize the error (residue of epipolar equation or reprojection error, etc.) from other corresponding points not used in the calculation.
 以上の解法を、図3に示した各ステップに沿って説明する。まず、ステップS11において、対応点取得部11は、2枚の画像(第1画像と第2画像)の画像データが入力されると、それぞれの画像から、2組以上の対応点ペア(対応点m及びm’)取得する。 The above solution method will be explained along each step shown in FIG. First, in step S11, when the image data of two images (the first image and the second image) are input, the corresponding point obtaining unit 11 obtains two or more sets of corresponding point pairs (corresponding point pairs) from each image. m and m').
 次に、ステップS12において、エピポール取得部12は、入力された第1画像及び第2画像の画像データを用いて、それぞれの画像から互いのカメラのエピポールe及びe’を取得する。 Next, in step S12, the epipole acquisition unit 12 acquires the epipoles e and e' of each other's cameras from the respective images using the input image data of the first image and the second image.
 次に、ステップS13において、カメラパラメータ推定部13は、上記数4又は上記数5に「x=an+n」を代入し、それによって得られた「所定の連立方程式」を解いて、係数aを算出し、F行列と焦点距離fとを決定する。その後、ステップS14において、カメラパラメータ推定部13は、決定したF行列と焦点距離fとを出力する。 Next, in step S13, the camera parameter estimation unit 13 substitutes “x=an 1 +n 2 ” into Equation 4 or Equation 5 above, solves the resulting “predetermined simultaneous equations”, and calculates the coefficient Calculate a and determine the F matrix and the focal length f. After that, in step S14, the camera parameter estimation unit 13 outputs the determined F matrix and focal length f.
[第1の実施形態における効果]
 以上のとおり、第1の実施形態におけるカメラパラメータ推定装置10は、2組以上の対応点ペアと2つのエピポールとを用いて、F行列と焦点距離とを算出できる。その理由は、以下の通りである。
[Effects of the first embodiment]
As described above, the camera parameter estimation device 10 according to the first embodiment can calculate the F matrix and the focal length using two or more corresponding point pairs and two epipoles. The reason is as follows.
 上記数6の行列Mと行列Mとは、上記数3に基づきエピポールに関する制約条件を含んでいる。そのため、上記数7で表されるベクトルxを3×3の行列に変形すると、1つの固有値がゼロになるというF行列の性質(数1)が満たされる。更に、上記数4又は上記数5は、F行列の分解可能条件を表す制約式である。そのため、上記数4又は上記数5を用いて特異ベクトルの係数を決定することは、すなわち焦点距離fが計算可能なF行列を決定することに等しくなる。以上の理由から、第1の実施形態によれば、F行列と焦点距離とを算出できる。 Matrix M 1 and M 2 in Equation 6 contain the epipole constraint based on Equation 3 above. Therefore, transforming the vector x represented by Equation 7 into a 3×3 matrix satisfies the property of the F matrix (Equation 1) that one eigenvalue is zero. Furthermore, Equation 4 or Equation 5 above is a constraint expression that expresses the decomposability condition of the F matrix. Therefore, determining the coefficients of the singular vectors using Equation 4 or Equation 5 above is equivalent to determining the F matrix with which the focal length f can be calculated. For the above reasons, the F matrix and the focal length can be calculated according to the first embodiment.
[変形例]
 第1の実施の形態は、上述した例に限定されるものではない。第1の実施形態は、上述した例に対して、いわゆる当業者が理解し得る多様な変更を適用することが可能である。例えば、第1の実施形態は、以下の変形例に示す形態によっても実施可能である。
[Modification]
The first embodiment is not limited to the example described above. In the first embodiment, various modifications that can be understood by those skilled in the art can be applied to the above example. For example, the first embodiment can also be implemented in the form shown in the following modifications.
 変形例1
 図1~図3に示した例では、「第1画像」と「第2画像」とが、ある時刻において同一物体を、異なる2つのカメラによって異なる視点から撮影した、2枚の静止画であるものとして説明が行われているが、第1の実施形態は、これに限定されない。例えば、「第1画像」と「第2画像」とは、時系列の連続した動画の2枚のフレーム画像でもよい。このとき、「第1画像」を撮影するカメラ1と「第2画像」を撮影するカメラ2とは、同一のカメラであってもよいし、異なるカメラであってもよい。要するに、「第1画像」と「第2画像」とは、焦点距離が同一の1つ以上のカメラによって、同一の物体又は同一のシーンを異なる視点から撮影することで得られた画像であればよい。
Modification 1
In the examples shown in FIGS. 1 to 3, the “first image” and the “second image” are two still images of the same object captured at a certain time by two different cameras from different viewpoints. Although described as an example, the first embodiment is not limited to this. For example, the “first image” and the “second image” may be two frame images of a time-series continuous moving image. At this time, the camera 1 that captures the "first image" and the camera 2 that captures the "second image" may be the same camera or different cameras. In short, the “first image” and the “second image” are images obtained by photographing the same object or the same scene from different viewpoints using one or more cameras having the same focal length. good.
 変形例2
 図1~図3に示した例では、カメラパラメータ推定部13においては、b=1としてF行列の不定性が除去されているが、第1の実施形態はこれに限定されない。カメラパラメータ推定部13においては、例えば、b=0の可能性を排除するために、「a+b=1」、すなわち、「x=an+(1-a)n」とされていても良い。また、カメラパラメータ推定部13においては、b=0の可能性を排除し、かつ、値域を-1≦a、b≦1に限定して数値的安定性を向上させるために、「a+b=1」と「x=an+bn」とが併用される2変数多項式に帰着させてもよい。
Modification 2
In the examples shown in FIGS. 1 to 3, the camera parameter estimation unit 13 removes the ambiguity of the F matrix by setting b=1, but the first embodiment is not limited to this. In the camera parameter estimation unit 13, for example, in order to eliminate the possibility of b=0, "a+b=1", that is, "x=an 1 +(1−a)n 2 " may be set. . In addition, in the camera parameter estimation unit 13, in order to eliminate the possibility of b=0 and limit the value range to −1≦a and b≦1 to improve numerical stability, “a 2 +b 2 =1” and “x=an 1 +bn 2 ” may be reduced to a two-variable polynomial.
 変形例3
 図1~図3に示した例では、カメラパラメータ推定部13で用いられる対応点ペアが2組の場合について説明が行われているが、第1の実施形態はこれに限定されない。例えば、3組以上の対応点ペアが得られている場合には、カメラパラメータ推定部13は、RANSACアルゴリズムを実行して、最終的に出力するF行列と焦点距離fとを決定してもよい。RANSACアルゴリズムにおけるサンプリング数が2組であるため、6点法及び8点法と比べて、試行回数が指数関数的に削減される。更に、カメラパラメータ推定部13においては、上記数1を目的関数とし、上記数3を制約条件とする、非線形最適化が用いられても良い。目的関数としては、上記数1の他に、広く知られるサンプソン誤差又は再投影誤差が用いられても良い。また、上記数3を制約とするために、重み付け最小二乗法が用いられても良い。
Modification 3
In the examples shown in FIGS. 1 to 3, the case where two corresponding point pairs are used in the camera parameter estimation unit 13 is described, but the first embodiment is not limited to this. For example, when three or more corresponding point pairs are obtained, the camera parameter estimation unit 13 may execute the RANSAC algorithm to determine the final output F matrix and focal length f. . The number of samplings in the RANSAC algorithm is two sets, which exponentially reduces the number of trials compared to the 6-point and 8-point methods. Furthermore, in the camera parameter estimating unit 13, non-linear optimization may be used in which Equation 1 is the objective function and Equation 3 is the constraint condition. As the objective function, a well-known Sampson error or reprojection error may be used in addition to Equation 1 above. Also, a weighted least squares method may be used to constrain Equation 3 above.
[プログラム]
 第1の実施形態におけるプログラムは、コンピュータに、図3に示すステップS11~S14を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、第1の実施の形態におけるカメラパラメータ推定装置10とカメラパラメータ推定方法とを実現することができる。この場合、コンピュータのプロセッサは、対応点取得部11、エピポール取得部12、及びカメラパラメータ推定部13として機能し、処理を行なう。コンピュータとしては、汎用のPCの他に、スマートフォン、タブレット型端末装置が挙げられる。
[program]
The program in the first embodiment may be any program that causes a computer to execute steps S11 to S14 shown in FIG. By installing this program in a computer and executing it, the camera parameter estimation device 10 and the camera parameter estimation method in the first embodiment can be realized. In this case, the processor of the computer functions as the corresponding point acquisition unit 11, the epipole acquisition unit 12, and the camera parameter estimation unit 13 to perform processing. Examples of computers include general-purpose PCs, smartphones, and tablet-type terminal devices.
 また、第1の実施形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、対応点取得部11、エピポール取得部12、及びカメラパラメータ推定部13のいずれかとして機能しても良い。 Also, the program in the first embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as one of the corresponding point acquisition unit 11, the epipole acquisition unit 12, and the camera parameter estimation unit 13, respectively.
(第2の実施形態)
 続いて、第2の実施形態における、カメラパラメータ推定装置、カメラパラメータ推定方法、及びプログラムについて、図4~図6を参照しながら説明する。
(Second embodiment)
Next, the camera parameter estimation device, camera parameter estimation method, and program in the second embodiment will be described with reference to FIGS. 4 to 6. FIG.
[装置構成]
 最初に、第2の実施形態におけるカメラパラメータ推定装置の構成について図4を用いて説明する。図4は、第2の実施形態におけるカメラパラメータ推定装置の構成の一例を示すブロック図である。
[Device configuration]
First, the configuration of the camera parameter estimation device according to the second embodiment will be explained using FIG. FIG. 4 is a block diagram showing an example of the configuration of a camera parameter estimation device according to the second embodiment.
 図4に示す第2の実施形態におけるカメラパラメータ推定装置20も、第1の実施形態におけるカメラパラメータ推定装置10と同様に、F行列とカメラの焦点距離とを推定する装置である。 The camera parameter estimation device 20 in the second embodiment shown in FIG. 4 is also a device that estimates the F matrix and the focal length of the camera, like the camera parameter estimation device 10 in the first embodiment.
 図4に示すように、第2の実施形態においても、第1の実施形態と同様に、カメラパラメータ推定装置20は、対応点取得部21と、エピポール取得部22と、カメラパラメータ推定部23とを備えている。 As shown in FIG. 4, in the second embodiment, as in the first embodiment, a camera parameter estimation device 20 includes a corresponding point acquisition unit 21, an epipole acquisition unit 22, and a camera parameter estimation unit 23. It has
 但し、第2の実施形態では、2つのエピポールe及びe’のうち一方しか入力されず、この点で第1の実施形態と異なっている。以下、第1の実施形態との相違点を中心に説明する。 However, the second embodiment differs from the first embodiment in that only one of the two epipoles e and e' is input. The following description focuses on differences from the first embodiment.
 ここで、図5を用いて、第2の実施形態における「2視点幾何」の具体例について説明する。図5は、第2の実施形態における座標系の具体例を示す説明図である。図5の例では、第1画像において、カメラ2はエピポールeとして観測されているが、第2画像においては、カメラ1は、第2画像の撮像範囲外のため、エピポールe’として観測されていない。 Here, a specific example of "two-viewpoint geometry" in the second embodiment will be described using FIG. FIG. 5 is an explanatory diagram showing a specific example of the coordinate system in the second embodiment. In the example of FIG. 5, the camera 2 is observed as the epipole e in the first image, but the camera 1 is observed as the epipole e' in the second image because it is outside the imaging range of the second image. do not have.
 対応点取得部21は、第2の実施形態では、例えば、4組以上の「対応点ペア」を取得する。なお、対応点取得部21による対応点ペアの取得方法は、第1の実施形態における対応点取得部11と同様であるので、その記述については省略する。 The corresponding point acquisition unit 21 acquires, for example, four or more "corresponding point pairs" in the second embodiment. Note that the method of acquiring the corresponding point pairs by the corresponding point acquiring unit 21 is the same as that of the corresponding point acquiring unit 11 in the first embodiment, so the description thereof will be omitted.
 エピポール取得部22は、第2の実施形態では、第1画像におけるエピポールeの画像座標のみを取得する。なお、エピポール取得部22によるエピポールの画像座標の取得方法は、第1の実施形態におけるエピポール取得部12と同様であるので、その記述については省略する。 The epipole acquisition unit 22 acquires only the image coordinates of the epipole e in the first image in the second embodiment. The epipole image coordinate acquisition method by the epipole acquisition unit 22 is the same as that of the epipole acquisition unit 12 in the first embodiment, so the description thereof will be omitted.
 カメラパラメータ推定部23は、第2の実施形態では、4組以上の対応点ペアと1つのエピポールeとを用いて、「所定の連立方程式」を解くことによってF行列と焦点距離fとを算出する。この「所定の連立方程式」は、F行列と上記4組以上の対応点ペアとについてのエピポーラ方程式と、エピポール制約条件と、F行列から焦点距離fを分解可能とする分解可能条件とによって表されている。 In the second embodiment, the camera parameter estimation unit 23 calculates the F matrix and the focal length f by solving a "predetermined simultaneous equation" using four or more corresponding point pairs and one epipole e. do. This "predetermined simultaneous equation" is represented by an epipolar equation for the F matrix and the four or more corresponding point pairs, an epipolar constraint, and a resolvability condition that allows the focal length f to be decomposed from the F matrix. ing.
 このように、第2の実施形態においては、カメラパラメータ推定装置20は、その構成により、4組以上の対応点と1つのエピポールeとを用いて「所定の連立方程式」を解くことによってF行列と焦点距離fとを算出する。 Thus, in the second embodiment, the camera parameter estimating device 20 solves the "predetermined simultaneous equations" using four or more sets of corresponding points and one epipole e. and the focal length f are calculated.
[装置動作]
 次に、第2の実施形態におけるカメラパラメータ推定装置20の動作の一例について、図6を用いて説明する。図6は、第2の実施形態におけるカメラパラメータ推定装置の動作の一例を示すフロー図である。以下の説明においては、適宜図4及び図5を参照する。また、第2の実施形態では、カメラパラメータ推定装置20を動作させることによって、カメラパラメータ推定方法が実施される。よって、第2の実施形態におけるカメラパラメータ推定方法の説明は、以下のカメラパラメータ推定装置20の動作説明に代える。
[Device operation]
Next, an example of the operation of the camera parameter estimation device 20 according to the second embodiment will be explained using FIG. FIG. 6 is a flowchart showing an example of the operation of the camera parameter estimation device according to the second embodiment. 4 and 5 will be referred to as necessary in the following description. Also, in the second embodiment, the camera parameter estimation method is implemented by operating the camera parameter estimation device 20 . Therefore, the description of the camera parameter estimation method in the second embodiment is replaced with the description of the operation of the camera parameter estimation device 20 below.
 図6に示すように、まず、カメラパラメータ推定装置10に、2枚の画像(第1画像と第2画像)の画像データが入力されると、対応点取得部21は、各画像データの画像から対応点を4組以上特定する。そして、対応点取得部21は、特定した対応点ペア毎に、それぞれに含まれる各対応点の画像平面内座標を取得する(ステップS21)。 As shown in FIG. 6, first, when image data of two images (a first image and a second image) are input to the camera parameter estimation device 10, the corresponding point obtaining unit 21 obtains images of each image data. 4 or more sets of corresponding points are specified from . Then, the corresponding point obtaining unit 21 obtains the in-image coordinates of each corresponding point included in each identified pair of corresponding points (step S21).
 次いで、エピポール取得部22は、入力された第1画像及び第2画像の画像データを用いて、第1画像に投影された第2カメラの画像平面内座標であるエピポールeを取得する(ステップS22)。 Next, the epipole acquisition unit 22 acquires the epipole e, which is the coordinates within the image plane of the second camera projected onto the first image, using the input image data of the first image and the second image (step S22 ).
 次いで、カメラパラメータ推定部23は、4組以上の対応点と1つのエピポールとを用いて、エピポーラ方程式、エピポール制約条件、及び分解可能条件で表された「所定の連立方程式」の解法を実行して、F行列を算出し、更に、F行列を分解して焦点距離fを算出する(ステップS23)。その後、カメラパラメータ推定部23は、ステップS23で算出したF行列と焦点距離fとを出力する(ステップS24)。ステップS24の実行により、カメラパラメータ推定装置20における動作は終了する。 Next, the camera parameter estimation unit 23 uses four or more sets of corresponding points and one epipole to solve the "predetermined simultaneous equations" represented by the epipolar equation, epipole constraint conditions, and decomposability conditions. Then, the F matrix is calculated, and the focal length f is calculated by decomposing the F matrix (step S23). After that, the camera parameter estimation unit 23 outputs the F matrix and the focal length f calculated in step S23 (step S24). By executing step S24, the operation of the camera parameter estimation device 20 ends.
[具体例]
 ここで、第2の実施形態の具体例について以下に説明する。なお、以下の具体例の説明では、図5に示した記号が用いられ、図2及び図5の例と同様に、世界座標系の原点はカメラ1のカメラ座標系に一致しているとする。また、図5において、図2に示された記号と同一の記号は、同一の意味を表すため、以下においては、記号についての説明は省略する。
[Concrete example]
Here, a specific example of the second embodiment will be described below. In the following explanation of the specific example, the symbols shown in FIG. 5 are used, and it is assumed that the origin of the world coordinate system coincides with the camera coordinate system of the camera 1, as in the examples of FIGS. . Also, in FIG. 5, the symbols that are the same as the symbols shown in FIG. 2 have the same meanings, so the description of the symbols will be omitted below.
 次に、4組の対応点ペア(m、m’)と1つのエピポールe(=[ex,ey,ez]T)とが与えられたときに、F行列と焦点距離fとを計算する方法について説明する。 Next, when four corresponding point pairs (m, m') and one epipole e (=[e x , e y , e z ] T ) are given, the F matrix and the focal length f are Explain how to calculate.
 上述した数6を変形すると、対応点とエピポールとF行列との関係は、以下の数8で表される。 By modifying Equation 6 above, the relationship between corresponding points, epipoles, and the F matrix is expressed by Equation 8 below.
Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000008
 上記数8において、行列Mは7×9であり、上記数7と同様に、xは行列Mの特異ベクトル(null vector)nとnとの線形結合で表される。すなわち、第2の実施形態でも、第1の実施形態と同様に「x=an+n」と表されるため、上記数4又は上記数5を用いることによって、F行列と焦点距離fとが算出される。 In Equation 8, the matrix M is 7×9, and x is represented by a linear combination of singular vectors (null vectors) n1 and n2 of the matrix M, as in Equation 7 above. That is, in the second embodiment, as in the first embodiment, it is expressed as "x=an 1 +n 2 ". is calculated.
 以上の解法を、図6に示した各ステップに沿って説明する。まず、ステップS21において、対応点取得部21は、2枚の画像(第1画像と第2画像)の画像データが入力されると、それぞれの画像から、4組以上の対応点ペア(m、m’)を取得する。 The above solution method will be explained along each step shown in FIG. First, in step S21, when the image data of two images (the first image and the second image) are input, the corresponding point obtaining unit 21 obtains four or more corresponding point pairs (m, m').
 次に、ステップS22において、エピポール取得部22は、第1画像の画像データを用いて、第2画像を撮影したカメラ2のエピポールeを取得する。 Next, in step S22, the epipole acquisition unit 22 uses the image data of the first image to acquire the epipole e of the camera 2 that captured the second image.
 次に、ステップS23において、カメラパラメータ推定部23は、上記数4又は上記数5に「x=an+n」を代入し、それによって得られた「所定の連立方程式」を解いて係数aを算出し、F行列と焦点距離fとを決定する。その後、ステップS24において、カメラパラメータ推定部23は、決定したF行列と焦点距離fとを出力する。 Next, in step S23, the camera parameter estimation unit 23 substitutes “x=an 1 +n 2 ” into Equation 4 or Equation 5, solves the resulting “predetermined simultaneous equations”, and calculates the coefficient a to determine the F matrix and the focal length f. After that, in step S24, the camera parameter estimation unit 23 outputs the determined F matrix and focal length f.
[第2の実施形態における効果]
 以上のとおり、第2の実施形態におけるカメラパラメータ推定装置20は、4組以上の対応点ペアと1つのエピポールとを用いてmF行列と焦点距離を算出できる。その理由は、以下の通りである。
[Effects of Second Embodiment]
As described above, the camera parameter estimation device 20 according to the second embodiment can calculate the mF matrix and the focal length using four or more corresponding point pairs and one epipole. The reason is as follows.
 上記数8の行列Mは、上記数3に基づきエピポールに関する制約条件を含んでいる。そして、第1の実施形態と同様に、F行列は上記数7で表され、上記数4又は上記数5を用いて算出されたF行列は、分解可能条件を満たしている。そのため、第2の実施形態でも、上記数4又は上記数5を用いて特異ベクトルの係数を決定することは、すなわち焦点距離fが計算可能なF行列を決定することに等しくなる。以上の理由から、第2の実施形態による場合も、F行列と焦点距離とが算出される。 The matrix M1 in (8) contains the epipole constraints based on (3) above. As in the first embodiment, the F matrix is represented by Equation 7 above, and the F matrix calculated using Equation 4 or Equation 5 above satisfies the decomposability condition. Therefore, even in the second embodiment, determining the coefficients of the singular vectors using Equation 4 or Equation 5 above is equivalent to determining the F matrix that allows the focal length f to be calculated. For the above reasons, the F matrix and the focal length are calculated also in the case of the second embodiment.
[変形例]
 第2の実施形態は、上述した例に限定されるものではない。第2の実施の形態は、上述した例に対して、いわゆる当業者が理解し得る多様な変更を適用することが可能である。例えば、第2の実施の形態は、以下の変形例に示す形態によっても実施可能である。
[Modification]
2nd Embodiment is not limited to the example mentioned above. In the second embodiment, various modifications that can be understood by those skilled in the art can be applied to the above example. For example, the second embodiment can also be implemented by the following modified examples.
 変形例4
 図4~図6に示した例では、エピポール取得部22は、第1画像の画像データを用いてエピポールを取得しているが、第2の実施形態では、第2画像の画像データを用いてエピポールを取得することもできる。その場合、エピポール取得部22は、第1画像のカメラのエピポールe’を取得し、上記数8における行列Mが、上記数8における行列Mと入れ替えられる。
Modification 4
In the examples shown in FIGS. 4 to 6, the epipole acquisition unit 22 acquires the epipole using the image data of the first image, but in the second embodiment, the image data of the second image is used. You can also get an Epipole. In that case, the epipole acquisition unit 22 acquires the epipole e' of the camera of the first image, and the matrix M1 in Equation 8 above is replaced with the matrix M2 in Equation 8 above.
 変形例5
 図4~図6に示した例では、カメラパラメータ推定部23においては、b=1としてF行列の不定性が除去されているが、第2の実施形態はこれに限定されない。変形例5においても、上述した変形例2と同様の手法が適用可能である。
Modification 5
In the examples shown in FIGS. 4 to 6, the camera parameter estimator 23 removes the ambiguity of the F matrix by setting b=1, but the second embodiment is not limited to this. Also in Modification 5, the same method as in Modification 2 described above can be applied.
 変形例6
 図4~図6に示した例では、カメラパラメータ推定部23で用いられる対応点ペアが4組の場合について説明が行われているが、第2の実施形態はこれに限定されない。例えば、4組以上の対応点ペアが得られている場合には、カメラパラメータ推定部23においても、上述の変形例3と同様に、RANSACアルゴリズム、又は非線形最適化が実行されて、最終的に出力するF行列と焦点距離fとが決定されても良い。
Modification 6
In the examples shown in FIGS. 4 to 6, the case where the number of corresponding point pairs used by the camera parameter estimation unit 23 is four is described, but the second embodiment is not limited to this. For example, when four or more corresponding point pairs are obtained, the camera parameter estimating unit 23 also executes the RANSAC algorithm or nonlinear optimization in the same manner as in Modification 3 described above, and finally An output F matrix and a focal length f may be determined.
[プログラム]
 第2の実施形態におけるプログラムは、コンピュータに、図6に示すステップS21~S24を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、第2の実施の形態におけるカメラパラメータ推定装置20とカメラパラメータ推定方法とを実現することができる。この場合、コンピュータのプロセッサは、対応点取得部21、エピポール取得部22、及びカメラパラメータ推定部23として機能し、処理を行なう。コンピュータとしては、汎用のPCの他に、スマートフォン、タブレット型端末装置が挙げられる。
[program]
The program in the second embodiment may be any program that causes a computer to execute steps S21 to S24 shown in FIG. By installing this program in a computer and executing it, the camera parameter estimation device 20 and the camera parameter estimation method in the second embodiment can be realized. In this case, the processor of the computer functions as a corresponding point obtaining section 21, an epipole obtaining section 22, and a camera parameter estimating section 23, and performs processing. Examples of computers include general-purpose PCs, smartphones, and tablet-type terminal devices.
 また、第2の実施形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、対応点取得部21、エピポール取得部22、及びカメラパラメータ推定部23のいずれかとして機能しても良い。 Also, the program in the second embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as one of the corresponding point acquisition unit 21, the epipole acquisition unit 22, and the camera parameter estimation unit 23, respectively.
(物理構成)
 ここで、第1及び第2の実施形態におけるプログラムを実行することによって、カメラパラメータ推定装置を実現するコンピュータ(ハードウェア構成)について図7を用いて説明する。図7は、第1及び第2の実施形態におけるカメラパラメータ推定装置を実現するコンピュータの一例を示すブロック図である。
(physical configuration)
Here, a computer (hardware configuration) that implements the camera parameter estimation device by executing the programs in the first and second embodiments will be described with reference to FIG. FIG. 7 is a block diagram showing an example of a computer that implements the camera parameter estimation device according to the first and second embodiments.
 図7に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。 As shown in FIG. 7, the computer 110 includes a CPU (Central Processing Unit) 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader/writer 116, and a communication interface 117. and These units are connected to each other via a bus 121 so as to be able to communicate with each other.
 また、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。この態様では、GPU又はFPGAが、実施の形態におけるプログラムを実行することができる。 Also, the computer 110 may include an MPU (Micro Processing Unit), GPU (Graphics Processing Unit), or FPGA (Field-Programmable Gate Array) in addition to or instead of the CPU 111. In this aspect, a GPU or FPGA can execute the programs in the embodiments.
 CPU111は、記憶装置113に格納された、コード群で構成された実施の形態におけるプログラムをメインメモリ112に展開し、各コードを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。 The CPU 111 expands the program in the embodiment, which is composed of a code group stored in the storage device 113, into the main memory 112 and executes various operations by executing each code in a predetermined order. The main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory).
 また、第1及び第2の実施形態におけるプログラムは、非一時的なコンピュータ読み取り可能な記録媒体(non-transitory computer readable medium)120に格納された状態で提供される。なお、第1及び第2の実施形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。また、第1及び第2の実施形態におけるプログラムは、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、コンピュータに供給されていても良い。この場合、第1及び第2の実施形態におけるプログラムは、電気信号、光信号、及び電磁波によって搬送される。 Also, the programs in the first and second embodiments are provided in a state stored in a non-transitory computer readable medium 120. Note that the programs in the first and second embodiments may be distributed on the Internet connected via the communication interface 117. FIG. Also, the programs in the first and second embodiments may be supplied to the computer via a wired communication path such as electric wires and optical fibers, or a wireless communication path. In this case, the programs in the first and second embodiments are carried by electrical signals, optical signals and electromagnetic waves.
 また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。 Further, as a specific example of the storage device 113, in addition to a hard disk drive, a semiconductor storage device such as a flash memory can be cited. Input interface 114 mediates data transmission between CPU 111 and input devices 118 such as a keyboard and mouse. The display controller 115 is connected to the display device 119 and controls display on the display device 119 .
 データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。 The data reader/writer 116 mediates data transmission between the CPU 111 and the recording medium 120, reads programs from the recording medium 120, and writes processing results in the computer 110 to the recording medium 120. Communication interface 117 mediates data transmission between CPU 111 and other computers.
 また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)、CD-R、CD-R/Wなどの光学記録媒体が挙げられる。 Specific examples of the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic recording media such as flexible disks, and CD- Optical recording media such as ROM (Compact Disk Read Only Memory), CD-R and CD-R/W can be mentioned.
 更に、記録媒体120の具体例としては、半導体メモリも挙げられる。半導体メモリは、例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory)を含む。 Further, a specific example of the recording medium 120 is a semiconductor memory. The semiconductor memory includes, for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, and RAM (Random Access Memory).
 第1及び第2の実施形態におけるカメラパラメータ推定装置は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、第1及び第2の実施形態におけるカメラパラメータ推定装置は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。 The camera parameter estimation devices in the first and second embodiments can also be realized by using hardware corresponding to each part, instead of a computer in which a program is installed. Furthermore, the camera parameter estimating devices in the first and second embodiments may be partly implemented by a program and the rest by hardware.
 上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記9)によって表現することができるが、以下の記載に限定されるものではない。 Some or all of the above-described embodiments can be expressed by the following (Appendix 1) to (Appendix 9), but are not limited to the following descriptions.
(付記1)
 第1カメラによる第1画像及び第2カメラによる第2画像から得られた、複数の対応点ペアそれぞれに含まれる各対応点の画像平面内座標を取得する、対応点取得手段と、
 前記第1画像に投影された前記第2カメラの画像平面内座標である第1エピポール、及び前記第2画像に投影された前記第1カメラの画像平面内座標である第2エピポール、のうち一方又は両方を取得する、エピポール取得手段と、
 対応点ペアの2つの対応点間の幾何学的な制約であるエピポーラ制約を表す基礎行列と前記複数の対応点ペアとについてのエピポーラ方程式、前記基礎行列と前記第1エピポール又は第2エピポールとについての制約条件、及び前記基礎行列から焦点距離を分解可能とする制約条件、によって表される連立方程式から、前記基礎行列及び前記焦点距離を推定する、カメラパラメータ推定手段と、
を具備するカメラパラメータ推定装置。
(Appendix 1)
Corresponding point acquisition means for acquiring the coordinates in the image plane of each corresponding point included in each of the plurality of corresponding point pairs obtained from the first image by the first camera and the second image by the second camera;
one of a first epipole that is the image plane coordinates of the second camera projected onto the first image and a second epipole that is the image plane coordinates of the first camera projected onto the second image; or an epipole obtaining means for obtaining both;
An epipolar equation for a base matrix representing an epipolar constraint that is a geometric constraint between two corresponding points of a corresponding point pair and the plurality of corresponding point pairs, and for the base matrix and the first epipole or the second epipole a camera parameter estimating means for estimating the fundamental matrix and the focal length from a simultaneous equation represented by a constraint of and a constraint that allows the focal length to be decomposed from the fundamental matrix;
A camera parameter estimation device comprising:
(付記2)
 前記エピポール取得手段が、前記第1エピポール及び前記第2エピポールの両方を取得し、
 前記カメラパラメータ推定手段が、2組以上の前記対応点ペアと、前記第1エピポールと、前記第2エピポールと、を用いて、前記連立方程式を解くことによって、前記基礎行列及び前記焦点距離を推定する、
付記1に記載のカメラパラメータ推定装置。
(Appendix 2)
the epipole acquisition means acquires both the first epipole and the second epipole;
The camera parameter estimation means estimates the base matrix and the focal length by solving the simultaneous equations using two or more sets of corresponding point pairs, the first epipole, and the second epipole. do,
The camera parameter estimation device according to appendix 1.
(付記3)
 前記エピポール取得手段が、前記第1エピポール及び前記第2エピポールのうち一方を取得し、
 前記カメラパラメータ推定手段が、4組以上の前記対応点ペアと、前記第1エピポール及び前記第2エピポールのうちのいずれかと、を用いて、前記連立方程式を解くことによって、前記基礎行列及び前記焦点距離を推定する、
付記1に記載のカメラパラメータ推定装置。
(Appendix 3)
the epipole acquisition means acquires one of the first epipole and the second epipole;
The camera parameter estimating means solves the simultaneous equations using the four or more corresponding point pairs and one of the first epipole and the second epipole to obtain the base matrix and the focal point to estimate the distance,
The camera parameter estimation device according to appendix 1.
(付記4)
 第1カメラによる第1画像及び第2カメラによる第2画像から得られた、複数の対応点ペアそれぞれに含まれる各対応点の画像平面内座標を取得し、
 前記第1画像に投影された前記第2カメラの画像平面内座標である第1エピポール、及び前記第2画像に投影された前記第1カメラの画像平面内座標である第2エピポール、のうち一方又は両方を取得し、
 対応点ペアの2つの対応点間の幾何学的な制約であるエピポーラ制約を表す基礎行列と前記複数の対応点ペアとについてのエピポーラ方程式、前記基礎行列と前記第1エピポール又は第2エピポールとについての制約条件、及び前記基礎行列から焦点距離を分解可能とする制約条件、によって表される連立方程式から、前記基礎行列及び前記焦点距離を推定する、
カメラパラメータ推定方法。
(Appendix 4)
Acquiring the coordinates in the image plane of each corresponding point included in each of the plurality of corresponding point pairs obtained from the first image by the first camera and the second image by the second camera,
one of a first epipole that is the image plane coordinates of the second camera projected onto the first image and a second epipole that is the image plane coordinates of the first camera projected onto the second image; or get both,
An epipolar equation for a base matrix representing an epipolar constraint that is a geometric constraint between two corresponding points of a corresponding point pair and the plurality of corresponding point pairs, and for the base matrix and the first epipole or the second epipole and a constraint that allows the focal length to be decomposed from the fundamental matrix, estimating the fundamental matrix and the focal length from the simultaneous equations expressed by
Camera parameter estimation method.
(付記5)
 前記エピポールの取得において、前記第1エピポール及び前記第2エピポールの両方を取得し、
 前記基礎行列及び前記焦点距離の推定において、2組以上の前記対応点ペアと、前記第1エピポールと、前記第2エピポールと、を用いて、前記連立方程式を解くことによって、前記基礎行列及び前記焦点距離を推定する、
付記4に記載のカメラパラメータ推定方法。
(Appendix 5)
obtaining both the first epipole and the second epipole in obtaining the epipole;
In estimating the base matrix and the focal length, by solving the simultaneous equations using two or more pairs of corresponding points, the first epipole, and the second epipole, the base matrix and the focal length to estimate the focal length,
A camera parameter estimation method according to appendix 4.
(付記6)
 前記エピポールの取得において、前記第1エピポール及び前記第2エピポールのうち一方を取得し、
 前記基礎行列及び前記焦点距離の推定において、4組以上の前記対応点ペアと、前記第1エピポール及び前記第2エピポールのうちのいずれかと、を用いて、前記連立方程式を解くことによって、前記基礎行列及び前記焦点距離を推定する、
付記4に記載のカメラパラメータ推定方法。
(Appendix 6)
obtaining one of the first epipole and the second epipole in obtaining the epipole;
In estimating the base matrix and the focal length, the base matrix and the focal length are estimated by solving the simultaneous equations using four or more of the corresponding point pairs and one of the first epipole and the second epipole. estimating a matrix and the focal length;
A camera parameter estimation method according to appendix 4.
(付記7)
コンピュータに、
 第1カメラによる第1画像及び第2カメラによる第2画像から得られた、複数の対応点ペアそれぞれに含まれる各対応点の画像平面内座標を取得させ、
 前記第1画像に投影された前記第2カメラの画像平面内座標である第1エピポール、及び前記第2画像に投影された前記第1カメラの画像平面内座標である第2エピポール、のうち一方又は両方を取得させ、
 対応点ペアの2つの対応点間の幾何学的な制約であるエピポーラ制約を表す基礎行列と前記複数の対応点ペアとについてのエピポーラ方程式、前記基礎行列と前記第1エピポール又は第2エピポールとについての制約条件、及び前記基礎行列から焦点距離を分解可能とする制約条件、によって表される連立方程式から、前記基礎行列及び前記焦点距離を推定させる、
命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
(Appendix 7)
to the computer,
Acquiring the coordinates in the image plane of each corresponding point included in each of the plurality of corresponding point pairs obtained from the first image by the first camera and the second image by the second camera,
one of a first epipole that is the image plane coordinates of the second camera projected onto the first image and a second epipole that is the image plane coordinates of the first camera projected onto the second image; or get both,
An epipolar equation for a base matrix representing an epipolar constraint that is a geometric constraint between two corresponding points of a corresponding point pair and the plurality of corresponding point pairs, and for the base matrix and the first epipole or the second epipole and a constraint that allows the focal length to be decomposed from the fundamental matrix, estimating the fundamental matrix and the focal length from the simultaneous equations represented by
A computer-readable recording medium recording a program containing instructions.
(付記8)
 前記エピポールの取得において、前記第1エピポール及び前記第2エピポールの両方を取得し、
 前記基礎行列及び前記焦点距離の推定において、2組以上の前記対応点ペアと、前記第1エピポールと、前記第2エピポールと、を用いて、前記連立方程式を解くことによって、前記基礎行列及び前記焦点距離を推定する、
付記7に記載のコンピュータ読み取り可能な記録媒体。
(Appendix 8)
obtaining both the first epipole and the second epipole in obtaining the epipole;
In estimating the base matrix and the focal length, by solving the simultaneous equations using two or more pairs of corresponding points, the first epipole, and the second epipole, the base matrix and the focal length to estimate the focal length,
The computer-readable recording medium according to appendix 7.
(付記9)
 前記エピポールの取得において、前記第1エピポール及び前記第2エピポールのうち一方を取得し、
 前記基礎行列及び前記焦点距離の推定において、4組以上の前記対応点ペアと、前記第1エピポール及び前記第2エピポールのうちのいずれかと、を用いて、前記連立方程式を解くことによって、前記基礎行列及び前記焦点距離を推定する、
付記7に記載のコンピュータ読み取り可能な記録媒体。
(Appendix 9)
obtaining one of the first epipole and the second epipole in obtaining the epipole;
In estimating the base matrix and the focal length, the base matrix and the focal length are estimated by solving the simultaneous equations using four or more of the corresponding point pairs and one of the first epipole and the second epipole. estimating a matrix and the focal length;
The computer-readable recording medium according to appendix 7.
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.
 以上のように、本発明によれば、分解可能条件を満たす高精度なF行列を推定することができる。本発明は、画像からの3次元形状復元(Structure-from-Motion)の用途に好適である。 As described above, according to the present invention, a highly accurate F matrix that satisfies the decomposability condition can be estimated. INDUSTRIAL APPLICABILITY The present invention is suitable for three-dimensional shape reconstruction from images (Structure-from-Motion).
 10 カメラパラメータ推定装置(実施の形態1)
 11 対応点取得部
 12 エピポール取得部
 13 カメラパラメータ推定部
 20 カメラパラメータ推定装置(実施の形態2)
 21 対応点取得部
 22 エピポール取得部
 23 カメラパラメータ推定部
 110 コンピュータ
 111 CPU
 112 メインメモリ
 113 記憶装置
 114 入力インターフェイス
 115 表示コントローラ
 116 データリーダ/ライタ
 117 通信インターフェイス
 118 入力機器
 119 ディスプレイ装置
 120 記録媒体
 121 バス
 
10 Camera parameter estimation device (Embodiment 1)
11 Corresponding Point Acquisition Unit 12 Epipole Acquisition Unit 13 Camera Parameter Estimation Unit 20 Camera Parameter Estimation Apparatus (Embodiment 2)
21 corresponding point acquisition unit 22 epipole acquisition unit 23 camera parameter estimation unit 110 computer 111 CPU
112 main memory 113 storage device 114 input interface 115 display controller 116 data reader/writer 117 communication interface 118 input device 119 display device 120 recording medium 121 bus

Claims (9)

  1.  第1カメラによる第1画像及び第2カメラによる第2画像から得られた、複数の対応点ペアそれぞれに含まれる各対応点の画像平面内座標を取得する、対応点取得手段と、
     前記第1画像に投影された前記第2カメラの画像平面内座標である第1エピポール、及び前記第2画像に投影された前記第1カメラの画像平面内座標である第2エピポール、のうち一方又は両方を取得する、エピポール取得手段と、
     対応点ペアの2つの対応点間の幾何学的な制約であるエピポーラ制約を表す基礎行列と前記複数の対応点ペアとについてのエピポーラ方程式、前記基礎行列と前記第1エピポール又は第2エピポールとについての制約条件、及び前記基礎行列から焦点距離を分解可能とする制約条件、によって表される連立方程式から、前記基礎行列及び前記焦点距離を推定する、カメラパラメータ推定手段と、
    を具備するカメラパラメータ推定装置。
    Corresponding point acquisition means for acquiring the coordinates in the image plane of each corresponding point included in each of the plurality of corresponding point pairs obtained from the first image by the first camera and the second image by the second camera;
    one of a first epipole that is the image plane coordinates of the second camera projected onto the first image and a second epipole that is the image plane coordinates of the first camera projected onto the second image; or an epipole obtaining means for obtaining both;
    An epipolar equation for a base matrix representing an epipolar constraint that is a geometric constraint between two corresponding points of a corresponding point pair and the plurality of corresponding point pairs, and for the base matrix and the first epipole or the second epipole a camera parameter estimating means for estimating the fundamental matrix and the focal length from a simultaneous equation represented by a constraint of and a constraint that allows the focal length to be decomposed from the fundamental matrix;
    A camera parameter estimation device comprising:
  2.  前記エピポール取得手段が、前記第1エピポール及び前記第2エピポールの両方を取得し、
     前記カメラパラメータ推定手段が、2組以上の前記対応点ペアと、前記第1エピポールと、前記第2エピポールと、を用いて、前記連立方程式を解くことによって、前記基礎行列及び前記焦点距離を推定する、
    請求項1に記載のカメラパラメータ推定装置。
    the epipole acquisition means acquires both the first epipole and the second epipole;
    The camera parameter estimation means estimates the base matrix and the focal length by solving the simultaneous equations using two or more sets of corresponding point pairs, the first epipole, and the second epipole. do,
    The camera parameter estimation device according to claim 1.
  3.  前記エピポール取得手段が、前記第1エピポール及び前記第2エピポールのうち一方を取得し、
     前記カメラパラメータ推定手段は、4組以上の前記対応点ペアと、前記第1エピポール及び前記第2エピポールのうちのいずれかと、を用いて、前記連立方程式を解くことによって、前記基礎行列及び前記焦点距離を推定する、
    請求項1に記載のカメラパラメータ推定装置。
    the epipole acquisition means acquires one of the first epipole and the second epipole;
    The camera parameter estimating means solves the simultaneous equations using the four or more corresponding point pairs and one of the first epipole and the second epipole to obtain the base matrix and the focal point to estimate the distance,
    The camera parameter estimation device according to claim 1.
  4.  第1カメラによる第1画像及び第2カメラによる第2画像から得られた、複数の対応点ペアそれぞれに含まれる各対応点の画像平面内座標を取得し、
     前記第1画像に投影された前記第2カメラの画像平面内座標である第1エピポール、及び前記第2画像に投影された前記第1カメラの画像平面内座標である第2エピポール、のうち一方又は両方を取得し、
     対応点ペアの2つの対応点間の幾何学的な制約であるエピポーラ制約を表す基礎行列と前記複数の対応点ペアとについてのエピポーラ方程式、前記基礎行列と前記第1エピポール又は第2エピポールとについての制約条件、及び前記基礎行列から焦点距離を分解可能とする制約条件、によって表される連立方程式から、前記基礎行列及び前記焦点距離を推定する、
    カメラパラメータ推定方法。
    Acquiring the coordinates in the image plane of each corresponding point included in each of the plurality of corresponding point pairs obtained from the first image by the first camera and the second image by the second camera,
    one of a first epipole that is the image plane coordinates of the second camera projected onto the first image and a second epipole that is the image plane coordinates of the first camera projected onto the second image; or get both,
    An epipolar equation for a base matrix representing an epipolar constraint that is a geometric constraint between two corresponding points of a corresponding point pair and the plurality of corresponding point pairs, and for the base matrix and the first epipole or the second epipole and a constraint that allows the focal length to be decomposed from the fundamental matrix, estimating the fundamental matrix and the focal length from the simultaneous equations expressed by
    Camera parameter estimation method.
  5.  前記エピポールの取得において、前記第1エピポール及び前記第2エピポールの両方を取得し、
     前記基礎行列及び前記焦点距離の推定において、2組以上の前記対応点ペアと、前記第1エピポールと、前記第2エピポールと、を用いて、前記連立方程式を解くことによって、前記基礎行列及び前記焦点距離を推定する、
    請求項4に記載のカメラパラメータ推定方法。
    obtaining both the first epipole and the second epipole in obtaining the epipole;
    In estimating the base matrix and the focal length, by solving the simultaneous equations using two or more pairs of corresponding points, the first epipole, and the second epipole, the base matrix and the focal length to estimate the focal length,
    A camera parameter estimation method according to claim 4.
  6.  前記エピポールの取得において、前記第1エピポール及び前記第2エピポールのうち一方を取得し、
     前記基礎行列及び前記焦点距離の推定において、4組以上の前記対応点ペアと、前記第1エピポール及び前記第2エピポールのうちのいずれかと、を用いて、前記連立方程式を解くことによって、前記基礎行列及び前記焦点距離を推定する、
    請求項4に記載のカメラパラメータ推定方法。
    obtaining one of the first epipole and the second epipole in obtaining the epipole;
    In estimating the base matrix and the focal length, the base matrix and the focal length are estimated by solving the simultaneous equations using four or more of the corresponding point pairs and one of the first epipole and the second epipole. estimating a matrix and the focal length;
    A camera parameter estimation method according to claim 4.
  7. コンピュータに、
     第1カメラによる第1画像及び第2カメラによる第2画像から得られた、複数の対応点ペアそれぞれに含まれる各対応点の画像平面内座標を取得させ、
     前記第1画像に投影された前記第2カメラの画像平面内座標である第1エピポール、及び前記第2画像に投影された前記第1カメラの画像平面内座標である第2エピポール、のうち一方又は両方を取得させ、
     対応点ペアの2つの対応点間の幾何学的な制約であるエピポーラ制約を表す基礎行列と前記複数の対応点ペアとについてのエピポーラ方程式、前記基礎行列と前記第1エピポール又は第2エピポールとについての制約条件、及び前記基礎行列から焦点距離を分解可能とする制約条件、によって表される連立方程式から、前記基礎行列及び前記焦点距離を推定させる、
    命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
    to the computer,
    Acquiring the coordinates in the image plane of each corresponding point included in each of the plurality of corresponding point pairs obtained from the first image by the first camera and the second image by the second camera,
    one of a first epipole that is the image plane coordinates of the second camera projected onto the first image and a second epipole that is the image plane coordinates of the first camera projected onto the second image; or get both,
    An epipolar equation for a base matrix representing an epipolar constraint that is a geometric constraint between two corresponding points of a corresponding point pair and the plurality of corresponding point pairs, and for the base matrix and the first epipole or the second epipole and a constraint that allows the focal length to be decomposed from the fundamental matrix, estimating the fundamental matrix and the focal length from the simultaneous equations represented by
    A computer-readable recording medium recording a program containing instructions.
  8.  前記エピポールの取得において、前記第1エピポール及び前記第2エピポールの両方を取得し、
     前記基礎行列及び前記焦点距離の推定において、2組以上の前記対応点ペアと、前記第1エピポールと、前記第2エピポールと、を用いて、前記連立方程式を解くことによって、前記基礎行列及び前記焦点距離を推定する、
    請求項7に記載のコンピュータ読み取り可能な記録媒体。
    obtaining both the first epipole and the second epipole in obtaining the epipole;
    In estimating the base matrix and the focal length, by solving the simultaneous equations using two or more pairs of corresponding points, the first epipole, and the second epipole, the base matrix and the focal length to estimate the focal length,
    A computer-readable recording medium according to claim 7.
  9.  前記エピポールの取得において、前記第1エピポール及び前記第2エピポールのうち一方を取得し、
     前記基礎行列及び前記焦点距離の推定において、4組以上の前記対応点ペアと、前記第1エピポール及び前記第2エピポールのうちのいずれかと、を用いて、前記連立方程式を解くことによって、前記基礎行列及び前記焦点距離を推定する、
    請求項7に記載のコンピュータ読み取り可能な記録媒体。
     
    obtaining one of the first epipole and the second epipole in obtaining the epipole;
    In estimating the base matrix and the focal length, the base matrix and the focal length are estimated by solving the simultaneous equations using four or more of the corresponding point pairs and one of the first epipole and the second epipole. estimating a matrix and the focal length;
    A computer-readable recording medium according to claim 7.
PCT/JP2022/008910 2022-03-02 2022-03-02 Camera parameter estimation device, camera parameter estimation method, and computer-readable recording medium WO2023166617A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/008910 WO2023166617A1 (en) 2022-03-02 2022-03-02 Camera parameter estimation device, camera parameter estimation method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/008910 WO2023166617A1 (en) 2022-03-02 2022-03-02 Camera parameter estimation device, camera parameter estimation method, and computer-readable recording medium

Publications (1)

Publication Number Publication Date
WO2023166617A1 true WO2023166617A1 (en) 2023-09-07

Family

ID=87883220

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/008910 WO2023166617A1 (en) 2022-03-02 2022-03-02 Camera parameter estimation device, camera parameter estimation method, and computer-readable recording medium

Country Status (1)

Country Link
WO (1) WO2023166617A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020174331A (en) * 2019-04-12 2020-10-22 キヤノン株式会社 Image capturing apparatus, image processing apparatus, control method, and program
JP2021514291A (en) * 2018-02-19 2021-06-10 インテグラル スコープス プロプライエタリ リミテッド Methods and systems for calibrating the Plenoptic camera system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021514291A (en) * 2018-02-19 2021-06-10 インテグラル スコープス プロプライエタリ リミテッド Methods and systems for calibrating the Plenoptic camera system
JP2020174331A (en) * 2019-04-12 2020-10-22 キヤノン株式会社 Image capturing apparatus, image processing apparatus, control method, and program

Similar Documents

Publication Publication Date Title
JP6807639B2 (en) How to calibrate the depth camera
US9858670B2 (en) Information processing apparatus and method thereof
RU2601421C2 (en) Method and system of calibrating camera
JP6302219B2 (en) MTF measuring apparatus and MTF measuring program
JP7099627B2 (en) Camera parameter estimation device, camera parameter estimation method, and program
EP3633606B1 (en) Information processing device, information processing method, and program
JP6641729B2 (en) Line sensor camera calibration apparatus and method
US11830223B2 (en) Camera calibration apparatus, camera calibration method, and nontransitory computer readable medium storing program
JPWO2016042779A1 (en) Triangulation device, triangulation method and program thereof
CN111062866A (en) Transformation matrix-based panoramic image splicing method
JP2014010495A (en) Image processing device and imaging device provided with the same, image processing method and image processing program
JP7044016B2 (en) Line sensor camera calibration device and method
US20160196634A1 (en) Information processing apparatus, control method of the same, and video camera
WO2023166617A1 (en) Camera parameter estimation device, camera parameter estimation method, and computer-readable recording medium
JP7111183B2 (en) Camera parameter estimation device, camera parameter estimation method, and program
KR20110048829A (en) Apparatus and method for noise reduction of range images
WO2023166618A1 (en) Camera parameter estimation device, camera parameter estimation method, and computer-readable recording medium
JP2007034964A (en) Method and device for restoring movement of camera viewpoint and three-dimensional information and estimating lens distortion parameter, and program for restoring movement of camera viewpoint and three-dimensional information and estimating lens distortion parameter
Gladines et al. A phase correlation based peak detection method for accurate shape from focus measurements
JP2011022084A (en) Device and method for measuring three-dimensional pose
JP6355206B2 (en) Camera calibration method, camera calibration device, and camera calibration program
JP2014203162A (en) Inclination angle estimation device, mtf measuring apparatus, inclination angle estimation program and mtf measurement program
JP2017199285A (en) Information processor, information processing method, program
JP2018049396A (en) Shape estimation method, shape estimation device and shape estimation program
Cheng et al. A linear approach for depth and colour camera calibration using hybrid parameters

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22929763

Country of ref document: EP

Kind code of ref document: A1