JP7242431B2 - Three-dimensional measuring device, three-dimensional measuring method and three-dimensional measuring program - Google Patents

Three-dimensional measuring device, three-dimensional measuring method and three-dimensional measuring program Download PDF

Info

Publication number
JP7242431B2
JP7242431B2 JP2019102437A JP2019102437A JP7242431B2 JP 7242431 B2 JP7242431 B2 JP 7242431B2 JP 2019102437 A JP2019102437 A JP 2019102437A JP 2019102437 A JP2019102437 A JP 2019102437A JP 7242431 B2 JP7242431 B2 JP 7242431B2
Authority
JP
Japan
Prior art keywords
camera
positions
stereo image
images
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019102437A
Other languages
Japanese (ja)
Other versions
JP2020197407A (en
Inventor
篤司 林
伸夫 高地
高也 七夕
祥子 磯部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kazusa DNA Research Institute Foundation
Original Assignee
Kazusa DNA Research Institute Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kazusa DNA Research Institute Foundation filed Critical Kazusa DNA Research Institute Foundation
Priority to JP2019102437A priority Critical patent/JP7242431B2/en
Priority to PCT/JP2020/007380 priority patent/WO2020240949A1/en
Priority to US17/608,957 priority patent/US11941852B2/en
Priority to CN202080040427.8A priority patent/CN113874677A/en
Priority to EP20814253.9A priority patent/EP3978867A4/en
Publication of JP2020197407A publication Critical patent/JP2020197407A/en
Application granted granted Critical
Publication of JP7242431B2 publication Critical patent/JP7242431B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B5/00Measuring arrangements characterised by the use of mechanical techniques
    • G01B5/0035Measuring of dimensions of trees
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/02Stereoscopic photography by sequential recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Description

本発明は、画像を用いた三次元計測の技術に関する。 The present invention relates to three-dimensional measurement technology using images.

画像を用いて植物の三次元形状に係るデータを取得し、その成長過程を三次元的に把握する技術が知られている。例えば、特許文献1には、計測対象物である植物を回転させながら植物の写真撮影を行い、得られた複数の撮影画像から被写体(植物)の三次元モデルを得る技術が記載されている。 A technique is known for acquiring data relating to the three-dimensional shape of a plant using an image and three-dimensionally ascertaining the growth process of the plant. For example, Patent Literature 1 describes a technique of photographing a plant, which is an object to be measured, while rotating the plant, and obtaining a three-dimensional model of the subject (plant) from the obtained multiple photographed images.

特開2018-197685号公報JP 2018-197685 A

画像を用いた三次元計測においては、異なる視点から得た複数の画像間のマッチング(対応関係の特定)が重要となる。図1(A)には、回転台に載せた計測対象物(この場合は花)を回転させながらカメラで撮影を行い、計測対象物の三次元計測を行う場合が示されている。この場合、回転台(計測対象物)に固定された座標で考えて、計測対象物が周囲の複数の位置から撮影された状態となる。この技術では、後方交会法により、各カメラ位置が計算により特定され、また前方交会法により計測対象物各部の三次元位置が計算される。 In three-dimensional measurement using images, matching (identification of correspondence) between multiple images obtained from different viewpoints is important. FIG. 1(A) shows a case where an object to be measured (a flower in this case) placed on a turntable is photographed by a camera while being rotated, and three-dimensional measurement of the object to be measured is performed. In this case, considering the coordinates fixed to the turntable (object to be measured), the object to be measured is photographed from a plurality of positions around it. In this technique, the position of each camera is specified by calculation by the posterior resection method, and the three-dimensional position of each part of the measurement object is calculated by the anterior resection method.

理想的には、図1(B)に示すように、回転台に対するおける各カメラの相対位置は、円周上に分布する。しかしながら、実際には図2に示すように計算開始時のカメラ位置(1)と最後に計算されたカメラ位置(16)との間にズレが生じる。これは、カメラ位置の計算が(1)→(2)→(3)→(4)→・・・と順に行なわれる過程で、誤差が徐々に累積するからである。 Ideally, as shown in FIG. 1(B), the relative positions of each camera with respect to the turntable are distributed on the circumference. However, in practice, as shown in FIG. 2, a deviation occurs between the camera position (1) at the start of calculation and the camera position (16) calculated last. This is because errors gradually accumulate in the process of calculating the camera position in order of (1)→(2)→(3)→(4)→ . . .

このズレは、カメラ位置の計算の後にバンドル調整計算を行うことで是正される。しかしながらが、図2に示すような誤差が大きくなった段階でのバンドル調整計算は、プロセッサへの負荷が大きく、また計算が収束しない場合もある。 This deviation is corrected by performing the bundle adjustment calculation after the camera position calculation. However, the bundle adjustment calculation at the stage where the error becomes large as shown in FIG. 2 imposes a heavy load on the processor, and the calculation may not converge.

このような背景において、本発明は、計測対象物を周囲の複数の視点から撮影することで当該計測対象物の三次元写真計測を行う技術において、カメラ位置の算出精度の低下を抑える技術の提供を目的とする。 Against this background, the present invention provides a technique for suppressing deterioration in the calculation accuracy of the camera position in a technique for performing three-dimensional photo measurement of a measurement target by photographing the measurement target from a plurality of surrounding viewpoints. With the goal.

本発明は、計測対象物およびランダムドット模様を周囲の複数の視点からカメラで撮影することで得た複数の画像データを受け付ける画像データ受付部と、前記複数の画像を撮影した複数の前記カメラの位置の中から、前記計測対象物を囲む3箇所以上のカメラ位置を選択するカメラ位置選択部と、前記カメラ位置選択部が選択したカメラ位置から撮影した画像の中からステレオ画像を選択するステレオ画像選択部と、前記ステレオ画像を用いた交会法により、前記ステレオ画像を撮影したカメラの位置を算出するカメラの位置算出部とを有し、前記カメラ位置の選択は、複数回行なわれ、異なる選択時において、選択される少なくとも一部のカメラ位置が重複しない三次元計測装置である。 The present invention provides an image data reception unit that receives a plurality of image data obtained by photographing an object to be measured and a random dot pattern from a plurality of surrounding viewpoints with a camera, and a plurality of the cameras that photograph the plurality of images. A camera position selection unit that selects three or more camera positions surrounding the measurement object from among positions, and a stereo image that selects a stereo image from images captured from the camera positions selected by the camera position selection unit. a selection unit and a camera position calculation unit that calculates the position of the camera that captured the stereo image by a resection method using the stereo image, and the selection of the camera position is performed a plurality of times, and different selections are made. Sometimes, at least some of the selected camera positions are non-overlapping 3D measurement devices.

また本発明は、計測対象物およびランダムドット模様を周囲の複数の視点からカメラで撮影することで得た複数の画像データを受け付ける画像データ受付部と、前記複数の画像を撮影した複数の前記カメラの位置の中から、前記計測対象物を囲む3箇所以上のカメラ位置を選択するカメラ位置選択部と、前記カメラ位置選択部が選択したカメラ位置から撮影した画像の中からステレオ画像を選択するステレオ画像選択部と、前記ステレオ画像を用いた交会法により、前記ステレオ画像を撮影したカメラの位置を算出するカメラの位置算出部とを有し、前記カメラ位置の選択は、複数回行なわれ、異なる選択時において、選択されるカメラ位置が重複しない三次元計測装置である。 Further, the present invention provides an image data reception unit that receives a plurality of image data obtained by photographing an object to be measured and a random dot pattern from a plurality of surrounding viewpoints with a camera, and a plurality of the cameras photographing the plurality of images. A camera position selection unit that selects three or more camera positions surrounding the measurement object from among the positions of the camera position selection unit, and a stereo that selects a stereo image from images captured from the camera positions selected by the camera position selection unit and a camera position calculation unit that calculates the position of the camera that captured the stereo image by a resection method using the stereo image, and the selection of the camera position is performed a plurality of times and is different. A three-dimensional measurement apparatus in which camera positions to be selected do not overlap at the time of selection.

本発明において、前記カメラ位置選択部では、前記計測対象物から見た角度位置が360°/N(Nは3以上の自然数)の位置にあるN箇所のカメラ位置を選択する1回目の選択と、前記1回目に選択されたN箇所のカメラ位置に対して、前記計測対象物から見た角度位置が180°/Nずれた位置から、N箇所のカメラ位置を選択する2回目の選択とが行なわれる態様が挙げられる。 In the present invention, the camera position selection unit selects N camera positions at angular positions of 360°/N (N is a natural number of 3 or more) as viewed from the object to be measured. , the second selection of selecting N camera positions from a position where the angular position seen from the measurement object is shifted by 180°/N from the N camera positions selected in the first time; The mode performed is mentioned.

本発明において、前記ランダムドット模様は、前記計測対象物が載せられた台に固定され、前記台から上方向に延在する長手部材の表面に形成されている態様が挙げられる。この態様において、前記長手部材の高さ方向の寸法は、前記台の上に載せられる前記計測対象物の高さ方向の寸法よりも大きいことは好ましい。また、前記台は、回転可能である態様が挙げられる。 In the present invention, there is a mode in which the random dot pattern is formed on the surface of a longitudinal member fixed to a stand on which the measurement object is placed and extending upward from the stand. In this aspect, it is preferable that the dimension in the height direction of the longitudinal member is larger than the dimension in the height direction of the object to be measured placed on the table. Further, there is an aspect in which the table is rotatable.

本発明において、前記カメラに対して、前記台を回転させながら、前記カメラによる前記計測対象物の撮影が行われることで、前記計測対象物および前記ランダムドット模様を周囲の複数の視点から撮影した複数の画像データが得られ、前記計測対象物を囲む3つ以上の位置を頂点とする多角形の中に前記計測対象物の回転中心が位置する態様が挙げられる。 In the present invention, the object to be measured and the random dot pattern are photographed from a plurality of surrounding viewpoints by photographing the object to be measured by the camera while rotating the table with respect to the camera. For example, a plurality of image data are obtained, and the center of rotation of the object to be measured is positioned within a polygon whose vertices are three or more positions surrounding the object to be measured.

本発明は、計測対象物およびランダムドット模様を周囲の複数の視点からカメラで撮影することで得た複数の画像データを受け付ける画像データ受付ステップと、前記複数の画像を撮影した複数の前記カメラの位置の中から、前記計測対象物を囲む3箇所以上のカメラ位置を選択するカメラ位置選択ステップと、前記カメラ位置選択ステップで選択したカメラ位置から撮影した画像の中からステレオ画像を選択するステレオ画像選択ステップと、前記ステレオ画像を用いた交会法により、前記ステレオ画像を撮影したカメラの位置を算出するカメラの位置算出ステップとを有し、前記カメラ位置の選択は、複数回行なわれ、異なる選択時において、選択される少なくとも一部のカメラ位置が重複しない三次元計測方法として把握することもできる。 The present invention comprises an image data receiving step of receiving a plurality of image data obtained by photographing an object to be measured and a random dot pattern from a plurality of surrounding viewpoints with a camera; A camera position selection step of selecting three or more camera positions surrounding the object to be measured from among positions, and a stereo image of selecting a stereo image from images captured from the camera positions selected in the camera position selection step. and a camera position calculation step of calculating the position of the camera that captured the stereo image by a resection method using the stereo image, wherein the selection of the camera position is performed a plurality of times and different selections are made. Sometimes, it can also be understood as a three-dimensional measurement method in which at least some selected camera positions do not overlap.

本発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータに計測対象物およびランダムドット模様を周囲の複数の視点からカメラで撮影することで得た複数の画像データを受け付ける画像データ受付ステップと、前記複数の画像を撮影した複数の前記カメラの位置の中から、前記計測対象物を囲む3箇所以上のカメラ位置を選択するカメラ位置選択ステップと、前記カメラ位置選択ステップで選択したカメラ位置から撮影した画像の中からステレオ画像を選択するステレオ画像選択ステップと、前記ステレオ画像を用いた交会法により、前記ステレオ画像を撮影したカメラの位置を算出するカメラの位置算出ステップとを実行させ、前記カメラ位置の選択は、複数回行なわれ、異なる選択時において、選択される少なくとも一部のカメラ位置が重複しない三次元計測用プログラムとして把握することもできる。 The present invention is a program to be read and executed by a computer, and includes an image data receiving step for receiving a plurality of image data obtained by photographing an object to be measured and a random dot pattern with a camera from a plurality of surrounding viewpoints. a camera position selection step of selecting three or more camera positions surrounding the measurement object from among the positions of the cameras that captured the plurality of images; and the camera positions selected in the camera position selection step. Execute a stereo image selection step of selecting a stereo image from images taken from and a camera position calculation step of calculating the position of the camera that took the stereo image by the resection method using the stereo image, The selection of the camera positions is performed a plurality of times, and it can also be understood as a three-dimensional measurement program in which at least some of the selected camera positions do not overlap when different selections are made.

本発明によれば、計測対象物を周囲の複数の視点から撮影することで当該計測対象物の三次元写真計測を行う技術において、カメラ位置の算出精度の低下を抑える技術が得られる。 According to the present invention, in the technique of performing three-dimensional photo measurement of a measurement object by photographing the measurement object from a plurality of surrounding viewpoints, it is possible to obtain a technique that suppresses deterioration in the calculation accuracy of the camera position.

三次元計測の原理を説明する原理図(A)および(B)である。1A and 1B are principle diagrams for explaining the principle of three-dimensional measurement; FIG. 誤差が生じる原理を説明する原理図である。It is a principle diagram explaining the principle which an error arises. 発明の一例の原理図である。1 is a principle diagram of an example of the invention; FIG. 発明の一例の原理図である。1 is a principle diagram of an example of the invention; FIG. 発明の一例の原理図である。1 is a principle diagram of an example of the invention; FIG. 発明の一例の原理図である。1 is a principle diagram of an example of the invention; FIG. 実施形態の概念図である。1 is a conceptual diagram of an embodiment; FIG. 実施形態の三次元計測装置のブロック図である。1 is a block diagram of a three-dimensional measuring device according to an embodiment; FIG. 後方交会法の原理を示す原理図(A)と前方交会法の原理を示す原理図(B)である。It is a principle diagram (A) showing the principle of the posterior resection method and a principle diagram (B) showing the principle of the anterior resection method. 処理の手順の一例を示すフローチャートである。4 is a flow chart showing an example of a procedure of processing; 処理の手順の一例を示すフローチャートである。4 is a flow chart showing an example of a procedure of processing; 上下方向におけるカメラ位置を示す図。The figure which shows the camera position in an up-down direction.

1.原理
図1に本発明の基本的な原理を示す。図1(A)には、固定したカメラに対して回転台を回転させつつ、計測対象物(この場合は花)をカメラで撮影し、ステレオ写真測量の原理で計測対象物の三次元計測を行う場合が示されている。ここで、回転台に固定した座標系で考えると、回転台に対するカメラ位置(視点の位置)は、図1(B)に示すように回転台の回転中心を中心とする円周上に分布する。なお、図1(B)は、回転台の回転軸に沿った上の方向から回転台を見た視点で描かれている。これは、図2~図6も同じである。
1. Principle FIG. 1 shows the basic principle of the present invention. In Fig. 1(A), the object to be measured (a flower in this case) is photographed by the camera while the turntable is rotated with respect to a fixed camera. When to do so is shown. Here, considering the coordinate system fixed to the turntable, the camera position (viewpoint position) with respect to the turntable is distributed on the circumference centered on the rotation center of the turntable, as shown in FIG. 1(B). . It should be noted that FIG. 1B is drawn from the viewpoint of viewing the turntable from above along the rotation axis of the turntable. This also applies to FIGS. 2 to 6. FIG.

ここで、交会法を用いて、(1)→(2)→(3)→・・・とカメラ位置の計算を行なった場合、計算が繰り返されるにつれて、誤差が累積し、図2に示すように算出されるカメラ位置が実際の位置からずれてゆく。 Here, when the camera position is calculated in the order of (1)→(2)→(3)→... using the resection method, errors accumulate as the calculation is repeated, and as shown in FIG. The calculated camera position deviates from the actual position.

このズレの累積を避けるために、本発明では、図3に一例を示す方法を採用する。この方法では、例えば回転台を囲む90°間隔の等角な4箇所の位置(1),(9),(17),(25)から撮影した4枚の画像を用いて、これら4箇所におけるカメラ位置を算出する。 In order to avoid the accumulation of this deviation, the present invention adopts a method shown in FIG. 3 as an example. In this method, for example, using four images taken from four equiangular positions (1), (9), (17), and (25) at 90° intervals surrounding the turntable, Calculate the camera position.

カメラ位置の算出は、ステレオ画像の選択、ステレオ画像中からの特徴点の抽出およびターゲットの検出、特徴点およびターゲットを用いたカメラ位置(視点の位置)を含めた三次元位置関係(三次元モデル)の作成(相互標定)、既知の寸法や既知のターゲット位置を利用した前記三次元モデルへのスケールの付与(絶対標定)によって行われる。 Calculation of the camera position includes selection of stereo images, extraction of feature points from the stereo images, detection of targets, and three-dimensional positional relationships (three-dimensional model ) (relative orientation), and assigning a scale to the three-dimensional model using known dimensions and known target positions (absolute orientation).

ステレオ画像は、(1)と(9)、(9)と(17)、(17)と(25)というように隣接する角度位置で90°離れた2点のカメラ位置から撮影した組が選択される。4箇所の位置(1),(9),(17),(25)のカメラ位置の算出後にバンドル調整計算を行ない、誤差を最小化する。 Stereo images are selected from pairs taken from two camera positions separated by 90° at adjacent angular positions such as (1) and (9), (9) and (17), and (17) and (25). be done. After calculating the camera positions at the four positions (1), (9), (17), and (25), the bundle adjustment calculation is performed to minimize the error.

図3に示す4箇所のカメラ位置の算出の後、図4に進む。図4では、その前の図3の段階で位置が求められている(1),(9),(17),(25)のカメラ位置に加えて、これらカメラ位置から45°回転した4箇所のカメラ位置(5),(13),(21),(29)を加えた8点から撮影した8枚の画像を用いて図3の場合と同様の処理を行う。 After calculating the four camera positions shown in FIG. 3, the process proceeds to FIG. In FIG. 4, in addition to the camera positions (1), (9), (17), and (25) obtained in the previous stage of FIG. 3, four positions rotated by 45° from these camera positions The same processing as in the case of FIG. 3 is performed using eight images taken from eight points including camera positions (5), (13), (21), and (29).

この際、先に求めた図3の(1),(9),(17),(25)の4箇所のカメラ位置が初期値(拘束点と捉えることもできる)となり、新たなカメラ位置(5),(13),(21),(29)が算出される。この際、図5の(1),(9),(17),(25)のカメラ位置は初期値であるが、決定した値ではなく、これらのカメラ位置は、新たなカメラ位置を含めて全体が最適化されるように再計算される。こうして、回転台を中心とした円周上の等間隔(45°間隔)な8点で回転台に対するカメラ位置を求める。この段階でも再度のバンドル計算を行ない、誤差を最小化する。 At this time, the four camera positions (1), (9), (17), and (25) in FIG. 5), (13), (21), and (29) are calculated. At this time, the camera positions (1), (9), (17), and (25) in FIG. 5 are initial values, but they are not determined values. It is recalculated so that the whole is optimized. In this way, the camera position with respect to the turntable is obtained at eight equally spaced points (at 45° intervals) on the circumference centered on the turntable. At this stage, the bundle calculation is performed again to minimize the error.

図4のカメラ位置を求めた後、(5),(13),(21),(29)のカメラ位置を22.5°回転させ、同様な処理を行う。こうして、12箇所のカメラ位置が求まる。この処理を全てのカメラ位置が求まるまで繰り返す。図3および図4に示す方法では、計算に誤差が生じてもそれが累積されず、あるいは生じても僅かである。よって、図2のように、計算を進めてゆくに従って徐々に誤差が増大する問題が抑制される。 After obtaining the camera positions in FIG. 4, the camera positions (5), (13), (21), and (29) are rotated by 22.5° and similar processing is performed. Thus, 12 camera positions are obtained. This process is repeated until all camera positions are obtained. In the method shown in FIGS. 3 and 4, errors in the calculations are not accumulated or are small. Therefore, as shown in FIG. 2, the problem that the error gradually increases as the calculation progresses is suppressed.

この方法では、最初にすべてのカメラ位置を4方向⇒8方向⇒・・・と徐々に密に求めていく。その際、同時に疎なステレオマッチングによる対応点も求まる。また、このときに誤差最小化(バンドル調整)も行う。 In this method, first, all camera positions are obtained gradually and densely in the order of 4 directions -> 8 directions -> . At the same time, corresponding points are obtained by sparse stereo matching. At this time, error minimization (bundle adjustment) is also performed.

結果的に全画像を使ってカメラ位置を求めてゆくが、初期値に基線の長い画像(この例では、角度位置で90°異なる位置)を使い、かつ全体を閉ループにしているので精度がよい。またそれぞれの段階のバンドル調整を初期値にしてかけているので、収束が遅くなったり破綻したりすることがない(正解している初期値があるので収束が早い)。 As a result, the camera position is obtained using all images, but the initial value is an image with a long baseline (in this example, the position is different in angle position by 90 degrees), and the whole is a closed loop, so the accuracy is good. . In addition, since the bundle adjustment at each stage is applied to the initial value, convergence does not slow down or fail (because there is an initial value that is correct, the convergence is quick).

計測対象物の点群は、カメラ位置を求めた後で、再度隣接のステレオマッチングにより、密な三次元点群を求める。そのときに、カメラ位置の特定時に求めた疎な点群も利用する。ここではすでにカメラ位置を求めているため、バンドル調整は行わない(勿論、行ってもよい)。なお、バンドル調整のかわりにICP法で位置合わせを行う形態も可能である。 For the point cloud of the object to be measured, after the camera position is determined, a dense three-dimensional point cloud is determined again by adjacent stereo matching. At that time, the sparse point group obtained when specifying the camera position is also used. Since the camera position has already been obtained here, bundle adjustment is not performed (of course, it may be performed). Note that it is also possible to perform alignment by the ICP method instead of bundle adjustment.

回転台(計測対象物)を囲む複数のカメラ位置の数は、3以上が必要である。回転台を「囲む位置」とは、回転台の回転軸の方向(鉛直上方)から見て、3点以上のカメラ位置(視点の位置)を頂点とする多角形を形成した場合に、回転台の回転中心が当該多角形の内部に位置する状態として定義される。 The number of camera positions surrounding the turntable (object to be measured) must be three or more. “Positions surrounding the turntable” refer to the position of the turntable when viewed from the direction of the rotation axis of the turntable (vertically above) and forming a polygon with three or more camera positions (viewpoint positions) as vertices. is defined as the state where the center of rotation of is located inside the polygon.

図3および図4の手法でのM回目におけるずらす角度θは、Nを3カ所以上の等角な角度位置の数とした場合に、θ=(360°/(N×(M+1))で与えられる。例えば、図4の場合は、M=1,N=4であるので、θ=45°となる。なお、θの値は厳格なものではなく、上記の数式で求められる位置にカメラがない場合(撮影タイミングによっては、その可能性が有り得る)は、近くのカメラ位置を選択すればよい。 The shift angle θ at the M-th shift in the method of FIGS. 3 and 4 is given by θ=(360°/(N×(M+1)), where N is the number of equiangular angular positions of 3 or more. For example, in Fig. 4, M = 1 and N = 4, so θ = 45° The value of θ is not strict, and the camera is positioned at the position obtained by the above formula. If there is no camera (which may be possible depending on the shooting timing), a nearby camera position should be selected.

図3および図4の手法におけるカメラ位置の選択は、回転台の角度位置と撮影タイミングのデータに基づき行われる。回転台の角度位置は、回転台の回転を検出するロータリーエンコーダ等のセンサから得られ、撮影タイミングは、カメラの撮影タイミングを制御する制御信号の出力タイミングを記憶したログデータから得られる。 The selection of the camera position in the method of FIGS. 3 and 4 is performed based on data on the angular position of the turntable and the imaging timing. The angular position of the turntable is obtained from a sensor such as a rotary encoder that detects the rotation of the turntable, and the shooting timing is obtained from log data that stores the output timing of the control signal that controls the shooting timing of the camera.

ステレオ画像を構成する異なるカメラ位置から撮影した画像としては、2つのカメラ位置から撮影した2枚の画像を用いる場合が基本であるが、異なる3以上の視点から撮影した3枚以上の画像を用いることも可能である。要求されるカメラの角度位置と実際のカメラ位置がずれている場合は、要求されるカメラ位置に最も近い実際のカメラ位置が採用される。 As images taken from different camera positions that constitute a stereo image, two images taken from two camera positions are basically used, but three or more images taken from three or more different viewpoints are used. is also possible. If the requested angular position of the camera deviates from the actual camera position, the actual camera position closest to the requested camera position is adopted.

2.全体の構成
図7には、植物120の三次元データを得るための三次元計測システム100が示されている。三次元計測システム100は、土台111、土台上でモータ等の駆動手段により回転する回転台112を備えている。回転台112には、三次元計測の計測対象物である植物122が載せられている。
2. Overall Configuration FIG. 7 shows a three-dimensional measurement system 100 for obtaining three-dimensional data of a plant 120. As shown in FIG. The three-dimensional measurement system 100 includes a base 111 and a turntable 112 that rotates on the base by driving means such as a motor. A plant 122 , which is an object to be measured for three-dimensional measurement, is placed on the turntable 112 .

土台111、回転台112および三次元計測システム100の背景は、植物120の色とは異なる色(この例では青)に着色されている。この色は、植物120と色彩が違うモノトーンの色が望ましい。例えば、植物120が緑系の色の場合、青、黄色、黒、白といった植物120と異なるモノトーンの色が選択される。物120は、鉢124に植えられており、鉢124には、識別用の2次元バーコード表示125が表示されている。 The base 111, the turntable 112, and the background of the three-dimensional measurement system 100 are colored in a color different from the color of the plant 120 (blue in this example). This color is preferably a monotone color different from the color of the plant 120 . For example, if the plant 120 is greenish, monotone colors different from the plant 120 such as blue, yellow, black, and white are selected. The object 120 is planted in a pot 124, and the pot 124 displays a two-dimensional barcode display 125 for identification.

土台111および回転台112の各部の寸法は予め既知のデータとして取得されている。回転台112の上面には、基準点となるターゲット113の表示が行なわれている。ターゲット113は、3箇所以上の複数が配置されている。ターゲット113は、2次元コードが付されたコード化ターゲットであり、それぞれが個別に識別可能とされている。また、各ターゲットの回転台112における位置は予め調べられ、既知となっている。 The dimensions of each part of the base 111 and the turntable 112 are obtained in advance as known data. A target 113 serving as a reference point is displayed on the upper surface of the turntable 112 . Three or more targets 113 are arranged. The target 113 is a coded target with a two-dimensional code, and each can be individually identified. In addition, the position of each target on the turntable 112 is checked in advance and is known.

回転台112の上面には、画像マッチング用の識別部材であるランダムドット柱121~123が固定されている。ランダムドット柱121~123は、長手形状を有する板状の部材であり、回転台112から鉛直上方に延在し、表面にランダムドットパターンが表示されている。ランダムドット柱121~123の表面には、ランダムドットパターンの他に、識別コードが表示されており、各識別コードは個別に識別できるようにされている。ランダムドット柱として、円柱や多角柱(例えば、四角柱や五角柱)を用いることもできる。 Random dot columns 121 to 123, which are identification members for image matching, are fixed on the upper surface of the turntable 112. As shown in FIG. The random dot columns 121 to 123 are plate-like members having a longitudinal shape, extend vertically upward from the turntable 112, and have random dot patterns displayed on their surfaces. In addition to the random dot pattern, identification codes are displayed on the surfaces of the random dot columns 121 to 123, and each identification code can be individually identified. A cylinder or a polygonal prism (for example, a square prism or a pentagonal prism) can also be used as the random dot column.

ランダムドット柱の数を4本以上としてもよい。ただし、ランダムドット柱は、カメラ131~133と計測対象物である植物122との間に位置するので、その数が多すぎると、カメラ131~133による植物122の撮影に支障が生じる。 The number of random dot columns may be four or more. However, since the random dot columns are positioned between the cameras 131 to 133 and the plant 122, which is the object to be measured, if the number of random dot columns is too large, the cameras 131 to 133 will not be able to photograph the plant 122.

ランダムドット柱121~123の回転台112に対する位置関係は既知であり、またランダムドット柱121~123の寸法(幅、長さ、厚さ)も既知である。ランダムドット柱121~123の寸法は既知であるので、ランダムドット柱121~123はスケールとしても利用される。回転台112上に定規を配置する方法や回転台112上にスケールを表示する形態も可能である。なお、計測対象物である植物120の上端より上方にランダムドット柱121~123の先端が位置するように、ランダムドット柱121~123の長手方向の寸法が(鉛直方向の寸法)が設定されている。また、上方から見て、ランダムドット柱121~123により計測対象物(植物120)が囲まれるように、ランダムドット柱121~123が配置されている。これは、ランダムドット柱の数を増やした場合も同様である。 The positional relationship of the random dot columns 121-123 with respect to the turntable 112 is known, and the dimensions (width, length, thickness) of the random dot columns 121-123 are also known. Since the dimensions of the random dot columns 121-123 are known, the random dot columns 121-123 are also used as scales. A method of arranging a ruler on the turntable 112 and a mode of displaying a scale on the turntable 112 are also possible. The longitudinal dimension (vertical dimension) of the random dot columns 121 to 123 is set so that the tips of the random dot columns 121 to 123 are positioned above the upper end of the plant 120, which is the object to be measured. there is In addition, the random dot columns 121-123 are arranged so that the measurement object (the plant 120) is surrounded by the random dot columns 121-123 when viewed from above. This is the same when the number of random dot columns is increased.

ランダムドットパターンは、丸形状のドットが規則性なくランダムに分布しているドットパターンである。ランダムドットパターンに関する技術は、例えば、特開平11-39505号公報、特開平10-97641号公報、電子情報通信学会研究報告.COMP,コンビュテーション112(24),51-58,2012-05-07等に記載されている。ランダムドットパターンの色は、モノトーンであってもよいし、多色であってもよい。この例では、白の下地に黒のランダムドットパターンを表示している。 A random dot pattern is a dot pattern in which circular dots are randomly distributed without regularity. Techniques related to random dot patterns are disclosed, for example, in Japanese Patent Application Laid-Open Nos. 11-39505, 10-97641, and Institute of Electronics, Information and Communication Engineers Research Report. COMP, Combation 112(24), 51-58, 2012-05-07, etc. The color of the random dot pattern may be monotone or multicolor. In this example, a black random dot pattern is displayed on a white background.

回転台112の周囲には、カメラ131~133が配置されている。カメラ131~133は、土台111に対して固定されており、回転する回転台112およびその上の植物120を特定の時間間隔で繰り返し撮影する。カメラの数は、少なくとも1台あればよいが、複数を配置し、植物120に対してなるべく死角が生じないようにその数と位置を設定することが望ましい。カメラ131~133は、デジタルカメラであり、撮影した画像のデータ(画像データ)は、三次元計測装置200に送られる。 Cameras 131 to 133 are arranged around the turntable 112 . The cameras 131 to 133 are fixed to the base 111 and repeatedly photograph the rotating turntable 112 and the plant 120 thereon at specific time intervals. At least one camera is sufficient, but it is desirable to arrange a plurality of cameras and set the number and positions of the cameras so as not to produce blind spots with respect to the plant 120 as much as possible. The cameras 131 to 133 are digital cameras, and data of captured images (image data) are sent to the three-dimensional measuring device 200 .

回転台112を回転させながら、土台111に固定されたカメラ131~133から、植物120を連続して撮影する。これにより、植物120を周囲の多数のカメラ位置(視点)から撮影した多数の画像が得られる。この際、隣接するカメラ位置からの画像で撮影範囲が一部重複するようにする。 The plant 120 is continuously photographed from the cameras 131 to 133 fixed to the base 111 while rotating the turntable 112 . As a result, a large number of images of the plant 120 captured from a large number of surrounding camera positions (viewpoints) are obtained. At this time, the photographing ranges of images from adjacent camera positions are partially overlapped.

上記の撮影を行った場合、計測対象物である植物120を周囲から撮影した複数の撮影画像が得られる。ここで、隣接する視点(カメラ位置)から撮影した画像が一部重複するようにする。例えば、回転台112が1回転する間に植物120に向けた1台のカメラから72枚の撮影を行う場合を考える。この場合、回転台112に固定された座標系で考えると、回転台112の回転中心を中心とする円周上で、360°/72=5°刻みに視点の位置(カメラ位置)を少しずつずらして撮影した72枚の画像が得られる。 When the above photographing is performed, a plurality of photographed images obtained by photographing the surroundings of the plant 120, which is the object to be measured, are obtained. Here, images taken from adjacent viewpoints (camera positions) are partially overlapped. For example, consider a case where 72 images are taken from one camera facing the plant 120 while the turntable 112 rotates once. In this case, considering the coordinate system fixed to the turntable 112, the position of the viewpoint (camera position) is gradually shifted in increments of 360°/72=5° on the circumference around the center of rotation of the turntable 112. 72 images photographed with shifting are obtained.

3.三次元計測装置
計測対象物である植物120の三次元モデルの作成は、公知の三次元写真測量の原理に基づき行われる。三次元計測装置200は、汎用のPC(パーソナルコンピュータ)を利用して構成されている。三次元計測装置200は、カメラ131~133が撮影した画像のデータに基づき、植物120の三次元モデルを作成する。また、三次元計測装置200は、モータ駆動装置140に制御信号を送り、回転台112の回転制御を行う。また、三次元計測装置200は、カメラ131~133の撮影タイミングの制御を行う。
3. Three-Dimensional Measuring Apparatus A three-dimensional model of the plant 120, which is an object to be measured, is created based on the known principle of three-dimensional photogrammetry. The three-dimensional measuring device 200 is configured using a general-purpose PC (personal computer). The three-dimensional measuring device 200 creates a three-dimensional model of the plant 120 based on image data captured by the cameras 131-133. The three-dimensional measuring device 200 also sends a control signal to the motor driving device 140 to control the rotation of the turntable 112 . The three-dimensional measurement apparatus 200 also controls the imaging timing of the cameras 131-133.

三次元計測装置200は、CPU、メモリデバイス、各種のインターフェースを備えたコンピュータであり、汎用あるいは専用のハードウェアによって構成することができる。三次元計測装置200を構成する汎用のハードウェアとしては、PC以外にWS(ワークステーション)が挙げられる。これらコンピュータに三次元計測装置200の機能を実現する動作プログラムをインストールし、後述する各機能部の機能をソフトウェア的に実現する。 The three-dimensional measuring device 200 is a computer equipped with a CPU, a memory device, and various interfaces, and can be configured with general-purpose or dedicated hardware. General-purpose hardware constituting the three-dimensional measuring apparatus 200 includes a WS (work station) in addition to the PC. An operation program that realizes the functions of the three-dimensional measuring apparatus 200 is installed in these computers, and the functions of each functional unit described later are realized by software.

なお、三次元計測装置200の一部または全部を専用の演算回路によって構成してもよい。また、ソフトウェア的に構成された機能部と、専用の演算回路によって構成された機能部を組み合わせてもよい。 Part or all of the three-dimensional measuring device 200 may be configured by a dedicated arithmetic circuit. Also, a functional unit configured by software and a functional unit configured by a dedicated arithmetic circuit may be combined.

例えば、図示する各機能部は、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)に代表されるPLD(Programmable Logic Device)などの電子回路やプロセッサにより構成される。また、一部の機能を専用のハードウェアで構成し、他の一部を汎用のマイコンにより構成することも可能である。 For example, each functional unit shown in the figure is composed of electronic circuits and processors such as PLDs (Programmable Logic Devices) represented by CPUs (Central Processing Units), ASICs (Application Specific Integrated Circuits), and FPGAs (Field Programmable Gate Arrays). be. It is also possible to configure part of the functions with dedicated hardware and configure the other part with a general-purpose microcomputer.

また、三次元計測装置200の機能をサーバで実行し、該サーバにインターネットを介して接続したPC、タブレット、スマートフォン等を操作インターフェース端末として利用する形態も可能である。 It is also possible to use a PC, tablet, smart phone, or the like connected to the server via the Internet as an operation interface terminal, with the functions of the three-dimensional measuring apparatus 200 executed by a server.

三次元計測装置200は、画像データ受付部210、カメラ位置選択部220、ステレオ画像選択部221、ターゲット検出部240、外部標定要素算出部245、特徴点抽出部250、対応点特定部260、三次元座標算出部270、三次元モデル作成部280、記憶部290、回転制御部295、撮影タイミング制御部296、バンドル調整計算部297を備える。また、三次元計測装置200は、外部の機器との間でデータのやり取りを行うインターフェース機能、操作者による操作を受け付けるユーザインターフェース機能を有する。これらは、利用するPCのインターフェースを用いている。 The three-dimensional measuring apparatus 200 includes an image data reception unit 210, a camera position selection unit 220, a stereo image selection unit 221, a target detection unit 240, an exterior orientation element calculation unit 245, a feature point extraction unit 250, a corresponding point identification unit 260, a tertiary An original coordinate calculation unit 270 , a three-dimensional model creation unit 280 , a storage unit 290 , a rotation control unit 295 , an imaging timing control unit 296 and a bundle adjustment calculation unit 297 are provided. The three-dimensional measuring apparatus 200 also has an interface function for exchanging data with an external device and a user interface function for receiving operations by an operator. These use the interface of the PC to be used.

画像データ受付部210は、カメラ131~133が撮影した画像のデータ(画像データ)を受け付け、それを三次元計測装置100の内部に取り込む。 The image data reception unit 210 receives image data (image data) captured by the cameras 131 to 133 and imports the data into the three-dimensional measuring apparatus 100 .

カメラ位置選択部220は、図5に例示するような、交会法により計算されるカメラ位置の候補を選択する。カメラ位置の選択時は、交会法によるカメラ位置の計算前の状態であり、正確なカメラ位置の座標は不明である。しかしながら、回転台112の回転制御とカメラ131~133の撮影タイミングの制御の内容から、回転台112に対するカメラ131~133の大凡の位置が特定でき、またそこで撮影された画像は選択できる。この処理がカメラ位置選択部220で行われる。 The camera position selection unit 220 selects candidate camera positions calculated by the resection method as illustrated in FIG. When the camera position is selected, it is in a state before the camera position is calculated by the resection method, and the exact coordinates of the camera position are unknown. However, it is possible to specify the approximate positions of the cameras 131 to 133 with respect to the turntable 112 and select the images shot there from the content of the rotation control of the turntable 112 and the control of the imaging timings of the cameras 131 to 133 . This processing is performed by the camera position selection unit 220 .

例えば、回転台112の回転位置は、ロータリーエンコーダ―等により検出されるので、時間軸上における回転台112の回転位置を知ることができる。この情報と撮影時刻のデータとから、撮影時のカメラ位置を知ることができる。例えば、(1)のカメラ位置と(9)のカメラ位置を特定できる。ただし、このカメラ位置は概略の位置であり、その精度は三次元写真測量に利用できるレベルにはない。 For example, since the rotational position of the turntable 112 is detected by a rotary encoder or the like, it is possible to know the rotational position of the turntable 112 on the time axis. The position of the camera at the time of photographing can be known from this information and the data of photographing time. For example, the camera position (1) and the camera position (9) can be identified. However, this camera position is an approximate position, and its accuracy is not at a level that can be used for three-dimensional photogrammetry.

ステレオ画像選択部221は、異なる視点から重複する場所を撮影した2枚以上の画像をステレオ画像として選択する。例えば、図5の(1)と(5)の位置から回転台112を撮影した画像や図6の(1)と(17)とから回転台およびその上の植物120を撮影した画像がステレオ画像として選択される。ステレオ画像は、基本2枚一組であるが、3枚以上を1組としてステレオ画像を構成することもできる。なお、画像には、少なくとも回転台112、計測対象物である植物120およびランダムドット柱121~123の少なくとも1本が写っている必要がある。 The stereo image selection unit 221 selects two or more images obtained by photographing overlapping locations from different viewpoints as stereo images. For example, an image of the turntable 112 photographed from the positions (1) and (5) in FIG. 5 and an image of the turntable and the plant 120 thereon from (1) and (17) in FIG. 6 are stereo images. is selected as A stereo image is basically a set of two images, but three or more images can be used as a set to form a stereo image. The image should include at least the turntable 112, the plant 120, which is the object to be measured, and at least one of the random dot columns 121-123.

ターゲット検出部240は、カメラ131~133が撮影した画像に写ったターゲット113を検出する。予めターゲット113の画像は取得されており、それをリファレンスとして撮影画像中からターゲット113の抽出が行なわれる。ターゲット113は識別でき、また回転台112における位置は既知なので、ターゲット検出部240により、複数あるターゲット113それぞれの位置が検出される。 The target detection unit 240 detects the target 113 appearing in the images captured by the cameras 131-133. An image of the target 113 is obtained in advance, and is used as a reference to extract the target 113 from the photographed image. Since the target 113 can be identified and the position on the turntable 112 is known, the target detection unit 240 detects the position of each of the multiple targets 113 .

外部標定要素算出部245は、撮影画像中の特徴点(特徴点抽出部250が抽出した特徴点)を利用して、図7のカメラ131~133の外部標定要素(位置と姿勢)を後方交会法により算出する。図9(A)には、後方交会法の原理が示されている。後方交会法とは、未知点から3つ以上の既知点へ向かう方向を観測して、それらの方向線の交点として未知点の位置を定める方法である。後方交会法としては、単写真標定、DLT法(Direct Liner Transformation Method)が挙げられる。交会法については、基礎測量学(電気書院:2010/4発行)p 182,p184に記載されている。また、特開2013-186816号公報には交会法に関して具体的な計算方法の例が示されている。 The exterior orientation element calculation unit 245 calculates the exterior orientation elements (position and orientation) of the cameras 131 to 133 in FIG. Calculated by the method. FIG. 9(A) shows the principle of the posterior resection method. The retrosection method is a method of observing directions from an unknown point to three or more known points and determining the position of the unknown point as the intersection of those direction lines. Examples of the retrosection method include single photo orientation and DLT method (Direct Liner Transformation Method). The resection method is described in Basic Surveying (Denkishoin: 2010/4 issue) p.182, p.184. Further, Japanese Patent Application Laid-Open No. 2013-186816 discloses an example of a specific calculation method regarding the resection method.

以下、具体的な計算の一例を説明する。ここでは、回転台112を回転させ、30°回転する前と後の異なる2つのタイミングでカメラ132による回転台112の撮影を行うとする。30°の回転の制御は、回転制御部295で行われ、撮影タイミングの制御は、撮影タイミング制御部296で行われる。なお、この例では、定速で回転を継続し、上方から見て30°異なる角度位置で撮影が行われるように、回転台112の回転とカメラ132の撮影のタイミングが制御される。 An example of specific calculation will be described below. Here, it is assumed that the turntable 112 is rotated and the turntable 112 is photographed by the camera 132 at two different timings, before and after the turntable 112 is rotated by 30°. Rotation control section 295 controls 30° rotation, and imaging timing control section 296 controls imaging timing. In this example, the rotation of the turntable 112 and the timing of photographing by the camera 132 are controlled so that the rotation is continued at a constant speed and photographing is performed at angular positions different by 30° when viewed from above.

この場合、回転台112に固定した座標系で考えると、図5の位置(1)と(3)から撮影した撮影画像が得られる。この2枚の撮影画像をステレオ画像とし、そこからの特徴点の抽出、抽出した特徴点の当該ステレオ画像間でのマッチング(対応関係の特定)を行う。特徴点の抽出は、特徴点抽出部250で行われ、対応点の特定は対応点特定部260で行われる。 In this case, if the coordinate system fixed to the turntable 112 is used, images taken from positions (1) and (3) in FIG. 5 can be obtained. These two photographed images are used as stereo images, feature points are extracted therefrom, and matching (identification of correspondence relationship) between the extracted feature points between the stereo images is performed. A feature point extraction unit 250 extracts feature points, and a corresponding point specification unit 260 specifies corresponding points.

図5のカメラ位置(1)と(3)から撮影した上記ステレオ画像間での特徴点の対応関係を特定したら、図9(A)の後方交会法を用いてカメラ位置(1)と(3)の位置を算出する。ここでカメラ位置は、回転台112の回転中心を原点とし、回転台112に固定されたローカル座標系で記述される。 After specifying the correspondence relationship of the feature points between the stereo images taken from camera positions (1) and (3) in FIG. ) is calculated. Here, the camera position is described in a local coordinate system fixed to the turntable 112 with the rotation center of the turntable 112 as the origin.

例えば、以下のような方法により、図5のカメラ位置(1)と(3)におけるカメラの外部標定要素(姿勢と位置)が求められる。まず、回転台112の上面は平面であり、そこから取得される特徴点は当該平面上に位置している。また、ランダムドット柱121~123表面のランダムドットは鉛直面上に分布している。この拘束条件から、相互標定により、相対三次元モデルにおけるカメラ位置(1)と(3)における位置と姿勢が求まる。 For example, the exterior orientation parameters (attitude and position) of the camera at camera positions (1) and (3) in FIG. 5 are obtained by the following method. First, the upper surface of the turntable 112 is a plane, and the feature points acquired therefrom are located on the plane. Random dots on the surfaces of the random dot columns 121 to 123 are distributed on the vertical plane. From this constraint condition, the position and orientation of the camera positions (1) and (3) in the relative 3D model can be obtained by relative orientation.

例えば、ステレオ画像で対応するランダムドット柱121~123のドットから得た特徴点の中から、図9(A)のP,P,Pを選択する。ここで、P,P,Pは鉛直面上に分布するという拘束条件が課せられる。そして、P,P,Pの画面中における位置をp,p,pとした場合に、Pとp、Pとp、Pとpを結ぶ3つの方向線を設定する。この場合、この3本の方向線の交点Oが当該画像を撮影したカメラ132の位置(投影中心)となる。また、点Oと画面の中心を結ぶ方向線の延長方向がカメラ132の光軸方向となり、カメラ132の向き(姿勢)が求まる。 For example, P 1 , P 2 , and P 3 in FIG. 9A are selected from the feature points obtained from the dots of the corresponding random dot columns 121 to 123 in the stereo image. Here, a constraint is imposed that P 1 , P 2 and P 3 are distributed on the vertical plane. When the positions of P 1 , P 2 , and P 3 in the screen are p 1 , p 2 , and p 3 , three points connecting P 1 and p 1 , P 2 and p 2 , and P 3 and p 3 Set direction lines. In this case, the intersection O of the three direction lines is the position (projection center) of the camera 132 that captured the image. Also, the extension direction of the direction line connecting the point O and the center of the screen is the optical axis direction of the camera 132, and the orientation (orientation) of the camera 132 is obtained.

この段階でP,P,Pの絶対位置関係は未知なので、この場合における図9(A)の三次元モデルは相対三次元モデルとなる。この相対三次元モデルを得る処理が相互標定である。 Since the absolute positional relationship of P 1 , P 2 and P 3 is unknown at this stage, the three-dimensional model of FIG. 9A in this case is a relative three-dimensional model. Relative orientation is the process of obtaining this relative three-dimensional model.

ここで、PとPがランダムドット柱121の上辺の端点であれば、回転台112に固定されたローカル座標系におけるそれら端点の座標は既知であるので、上記相対三次元モデルにスケールが与えられる。こうして絶対標定が行なわれ、当該座標系におけるカメラの外部標定要素が判明する。この方法において、複数あるターゲット113の位置情報を併用することもできる。 Here, if P1 and P2 are the endpoints of the upper side of the random dot column 121, the coordinates of those endpoints in the local coordinate system fixed to the turntable 112 are known, so the relative three-dimensional model has a scale. Given. An absolute orientation is thus obtained, and the exterior orientation parameters of the camera in that coordinate system are known. In this method, positional information of multiple targets 113 can also be used.

また、3つ以上のターゲット113の位置情報から各カメラ位置におけるカメラの外部標定要素を求めることもできる。例えば、図5の(1)位置から3つのターゲット113が見えているとする。この場合、P,P,Pをこれら3つのターゲット113の位置とすると、P,P,Pの位置は既知なので、点Oの座標が求まる。また、点Oと画面の中心を結ぶ方向からカメラの姿勢が判明する。こうして、3つのターゲット113が見えている(1)の位置におけるカメラの外部標定要素が判る。 It is also possible to obtain exterior orientation parameters of the camera at each camera position from the position information of three or more targets 113 . For example, assume that three targets 113 are visible from position (1) in FIG. In this case, if P 1 , P 2 and P 3 are the positions of these three targets 113, the coordinates of point O can be obtained since the positions of P 1 , P 2 and P 3 are known. Also, the orientation of the camera can be determined from the direction connecting the point O and the center of the screen. Thus, the exterior orientation parameters of the camera at position (1) where three targets 113 are visible are known.

また、カメラ位置が判れば、図9(B)の前方交会法により、多数存在する位置が既知でない特徴点の当該座標系(回転台112に固定されたローカル座標系)における位置も計算できる。そして、多数の特徴点の位置が判れば、それらの位置に基づく図9(A)の後方交会法によるカメラ位置の算出も行われる。 Also, if the camera position is known, the positions of many feature points whose positions are not known in the coordinate system (the local coordinate system fixed to the turntable 112) can be calculated by the anterior resection method of FIG. 9B. Then, if the positions of many feature points are known, the camera position is calculated by the posterior resection method of FIG. 9A based on those positions.

実際には、上述した一連の方法によるカメラ131~133の外部標定要素の算出のための数式は、多数の特徴点の座標も含めた多数の行列要素を有した計算式となる。この計算式において、未知数が収束するまで繰り返し計算が行なわれることで、カメラ131~133の外部標定要素が求められる。また、適切なタイミングでバンドル調整計算部297によるバンドル調整計算が行なわれ、誤差の最小化が行なわれる。 Actually, the formula for calculating the exterior orientation parameters of the cameras 131 to 133 by the series of methods described above is a formula having many matrix elements including the coordinates of many feature points. In this calculation formula, the exterior orientation elements of the cameras 131 to 133 are obtained by repeating calculations until the unknowns converge. Also, bundle adjustment calculation is performed by the bundle adjustment calculator 297 at an appropriate timing to minimize the error.

特徴点抽出部250は、カメラ131~133が撮影した画像の中から特徴点を抽出する。特徴点は、周囲から区別できる点であり、例えば、エッジ部分、更には周囲と色彩や明度が異なっている部分等が特徴点として抽出される。特徴点の抽出は、ソフトウェア処理により行われる。特徴点の抽出には、ソーベル、ラプラシアン、プリューウィット、ロバーツなどの微分フィルタが用いられる。 The feature point extraction unit 250 extracts feature points from the images captured by the cameras 131-133. A feature point is a point that can be distinguished from the surroundings. For example, an edge portion, a portion having a different color or brightness from the surroundings, and the like are extracted as feature points. Extraction of feature points is performed by software processing. Differential filters such as Sobel, Laplacian, Prewitt, and Roberts filters are used to extract feature points.

対応点特定部260は、異なる視点から撮影した2枚以上の画像中でそれぞれ個別に抽出された特徴点の対応関係を特定する。すなわち、一方の画像中で抽出された特徴点と同じ特徴点を他方の画像中で特定する。この特徴点の対応関係を特定する処理は、例えば、Feature-Based(特徴抽出)法としてのSIFTやSURF、Kaze、……や、Area‐Based(面積相関)法としてのテンプレートマッチングを用いて行われる。テンプレートマッチングとしては、残差逐次検定法(SSDA:Sequential Similarity Detection Algorithm)、相互相関係数法などが挙げられる。対応点の特定は、基本2枚の画像や2つの点群位置データを対象に行われるが、3枚以上の画像や3つ以上の点群位置データを対象として行うこともできる。 The corresponding point identification unit 260 identifies correspondence relationships between feature points individually extracted from two or more images taken from different viewpoints. That is, the same feature points as the feature points extracted in one image are identified in the other image. The process of specifying the correspondence between feature points is performed using, for example, SIFT, SURF, Kaze, etc. as Feature-Based (feature extraction) methods, and template matching as Area-Based (Area Correlation) methods. will be Examples of template matching include a sequential similarity detection algorithm (SSDA), a cross-correlation coefficient method, and the like. The identification of corresponding points is basically performed for two images or two point cloud position data, but it can also be performed for three or more images or three or more point cloud position data.

複数の画像間の対応関係を求める技術については、例えば特開2013-178656号公報や特開2014-35702号公報に記載されている技術を利用することができる。なお、特開2013-178656号公報や特開2014-35702号公報には、特徴点の抽出に係る技術、特徴点の三次元位置を求める技術についても記載されており、これらの技術は、本願明細書中で説明する技術に利用できる。 As for the technology for obtaining the correspondence between a plurality of images, for example, the technology described in JP-A-2013-178656 and JP-A-2014-35702 can be used. In addition, Japanese Patent Application Laid-Open Nos. 2013-178656 and 2014-35702 also describe techniques for extracting feature points and techniques for obtaining three-dimensional positions of feature points. It can be used for the techniques described in the specification.

三次元座標算出部270は、特徴点抽出部150が画像中から抽出した特徴点の三次元位置を前方交会法により算出する。対象物を構成する多数の特徴点の三次元位置を算出することで、当該対象物を三次元座標が特定された点の集合として把握可能な点群位置データが得られる。更には、この点群位置データに基づき三次元モデルを作成することができる。 The three-dimensional coordinate calculation unit 270 calculates the three-dimensional positions of the feature points extracted from the image by the feature point extraction unit 150 by the anterior resection method. By calculating the three-dimensional positions of a large number of characteristic points that form the object, point cloud position data that enables the object to be grasped as a set of points whose three-dimensional coordinates are specified can be obtained. Furthermore, a three-dimensional model can be created based on this point cloud position data.

図9(B)には、前方交会法の原理が示されている。前方交会法では、異なる複数点(図9(B)の場合は、OとOの2点)から未知点Pへ向かう方向を観測して、それらの方向線の交点として未知点Pの位置を求める。 FIG. 9B shows the principle of anterior resection. In the anterior resection method, the direction toward the unknown point P is observed from a plurality of different points (two points O1 and O2 in the case of FIG. 9B), and the intersection of those direction lines is the unknown point P. find the position.

図9(B)には、異なるカメラ位置OとOから外部標定要素が既知のカメラを用いて重複する領域を撮影した場合が示されている。ここで、一方の画像における未知点Pの画面座標がpであり、他方の画像における未知点Pの画面座標がpである。カメラ位置OとOは既知であり、またそれらの位置におけるカメラの姿勢も既知であるので、Oとpを結ぶ方向線とOとpを結ぶ方向線の交点Pの座標が計算できる。 FIG. 9(B) shows the case where the overlapping area is photographed from different camera positions O1 and O2 using cameras with known exterior orientation parameters. Here, the screen coordinates of the unknown point P in one image are p1 , and the screen coordinates of the unknown point P in the other image are p2 . Since the camera positions O1 and O2 are known, and the camera postures at those positions are also known, the coordinates of the intersection point P of the direction line connecting O1 and p1 and the direction line connecting O2 and p2 are can be calculated.

三次元モデル作成部280は、多数の撮影画像を解析することで得られた三次元点群位置データに基づいて三次元モデルを作成する。例えば、得られた多数の特徴点の三次元座標からなる三次元点群位置データを用いてtin(不整三角形網)を作成し、撮影対象物の三次元モデルの作成が行われる。点群位置データに基づいて三次元モデルを作成する技術に関しては、例えば、WO2011/070927号公報、特開2012-230594号公報、特開2014―35702号公報に記載されている。利用する三次元座標系としては、例えば回転台112の回転中心の位置を原点としたローカル座標が用いられる。 The three-dimensional model creation unit 280 creates a three-dimensional model based on three-dimensional point cloud position data obtained by analyzing a large number of captured images. For example, three-dimensional point group position data consisting of three-dimensional coordinates of a large number of obtained feature points is used to create tin (irregular triangular network) to create a three-dimensional model of the object to be photographed. Techniques for creating a three-dimensional model based on point cloud position data are described, for example, in WO2011/070927, JP-A-2012-230594, and JP-A-2014-35702. As the three-dimensional coordinate system to be used, for example, local coordinates with the position of the rotation center of the turntable 112 as the origin are used.

記憶部290は、三次元計測装置200で利用される各種のデータ、動作プログラム、動作の結果得られた各種のデータ等を記憶する。記憶部290の他に外部の記憶装置(外付けハードディスク装置やデータ記憶用サーバ等)を用いることも可能である。 The storage unit 290 stores various data used in the three-dimensional measuring apparatus 200, operation programs, various data obtained as a result of operations, and the like. It is also possible to use an external storage device (external hard disk device, data storage server, etc.) in addition to the storage unit 290 .

回転制御部295は、回転台112を回転させるモータ(図示せず)を駆動するモータ駆動装置140(図7参照)に制御信号を送り、モータの動作制御を行う。回転制御部295の機能により、回転台112の回転のタイミングや回転速度の設定が行われる。回転台112の回転は、ロータリーエンコーダにより検出され、この検出値に基づき回転制御部295は回転台112の回転を制御する。 The rotation control unit 295 sends a control signal to a motor driving device 140 (see FIG. 7) that drives a motor (not shown) that rotates the turntable 112 to control the operation of the motor. The rotation control unit 295 functions to set the rotation timing and rotation speed of the turntable 112 . The rotation of the turntable 112 is detected by a rotary encoder, and the rotation control section 295 controls the rotation of the turntable 112 based on the detected value.

撮影タイミング制御部296は、カメラ131,132,133に撮影タイミングを決める制御信号を送り、撮影動作の制御を行う。カメラ131,132,133は、撮影タイミング制御部296に制御されて、回転する回転台112およびその上に配置された植物120の撮影を行う。例えば、回転台112を5~10回転/分の回転速度で回転させ、その際にカメラ131,132,133のそれぞれは、0.1~0.5秒間隔で繰り返し静止画像の撮影を行う。 The shooting timing control unit 296 sends control signals for determining shooting timings to the cameras 131, 132, and 133, and controls shooting operations. The cameras 131 , 132 , 133 are controlled by the photographing timing control unit 296 to photograph the rotating turntable 112 and the plant 120 placed thereon. For example, the turntable 112 is rotated at a rotational speed of 5 to 10 rotations/minute, and each of the cameras 131, 132, and 133 repeatedly captures still images at intervals of 0.1 to 0.5 seconds.

4.処理の一例
以下、回転台112上の植物120の点群位置データを得、更にこの点群位置データに基づき植物120の三次元モデルを作成する処理の一例を説明する。以下の処理は、三次元計測システム100を用いて行われる。以下に説明する処理を実行するプログラムは、記憶部290に記憶され、三次元計測装置200によって実行される。当該プログラムは、適当な記憶媒体や記憶サーバ等に記憶され、そこから提供される形態も可能である。
4. Example of Processing Hereinafter, an example of processing for obtaining point group position data of the plant 120 on the turntable 112 and further creating a three-dimensional model of the plant 120 based on this point group position data will be described. The following processing is performed using the three-dimensional measurement system 100. FIG. A program for executing the processing described below is stored in the storage unit 290 and executed by the three-dimensional measuring device 200 . The program may be stored in an appropriate storage medium, storage server, or the like, and may be provided therefrom.

(撮影)
まず、回転台112とランダムドット柱121~123が写るようにカメラ131~133の位置と姿勢を設定する。その上で撮影を行う。撮影は、計測対象の植物120を載せた回転台112を等速で回転させながら、特定の時間間隔でカメラ131~133により行う。
(photograph)
First, the positions and attitudes of the cameras 131 to 133 are set so that the turntable 112 and the random dot columns 121 to 123 are captured. Take pictures on it. Photographing is performed by the cameras 131 to 133 at specific time intervals while rotating the turntable 112 on which the plant 120 to be measured is placed at a constant speed.

撮影は、例えば、回転台112が等速で1回転する間に等時間間隔で72枚の静止画像が撮影される条件、すなわち5°異なる角度から72回撮影する条件で行う。この場合、3台のカメラ131~133から72枚×3=216枚の画像が撮影される。この画像データは、三次元計測装置200に送られ、画像データ受付部210で受け付けられる。画像データ受付部210で受け付けられた画像データは、記憶部290に記憶される。回転速度やシャッター間隔は、植物の種類や取得したい点群密度に対応させて任意に設定できる。 The photographing is performed, for example, under the condition that 72 still images are photographed at equal time intervals while the turntable 112 rotates once at a constant speed, that is, photographing is performed 72 times from different angles of 5°. In this case, 72×3=216 images are taken from the three cameras 131-133. This image data is sent to the three-dimensional measuring device 200 and received by the image data receiving unit 210 . The image data accepted by the image data accepting portion 210 is stored in the storage portion 290 . The rotation speed and shutter interval can be arbitrarily set according to the type of plant and the point cloud density to be acquired.

植物120を撮影した画像データを得たら、各撮影画像から背景を除去する処理を行う。この処理については、例えば特開2018-197685号公報に記載されている。 After obtaining the image data of the photographed plant 120, the background is removed from each photographed image. This process is described, for example, in JP-A-2018-197685.

こうして、鉛直上方から見て、周囲360°を等間隔に72分割した方向からの3組(72×3=216枚)の撮影画像が得られる。以下、この216枚の画像を基に処理を行う。 In this way, three sets (72.times.3=216 images) of photographed images are obtained from directions obtained by equally dividing the circumference of 360.degree. Processing is performed based on these 216 images.

(カメラ位置の特定)
カメラ位置の特定に係る処理は、カメラ131~133のそれぞれにおいて行われる。まず、図5に示す手法を用いて等角な角度位置にある複数箇所のカメラ位置を算出する(例えば、図5には12箇所のカメラ位置を選択した場合が示されている)。
(Identification of camera position)
The processing related to specifying the camera position is performed in each of the cameras 131-133. First, a plurality of camera positions at equiangular angular positions are calculated using the method shown in FIG. 5 (for example, FIG. 5 shows a case where 12 camera positions are selected).

ここでは、図5の手法を用いて等角(30°)な12箇所の位置にあるカメラ位置を特定する。図10にこの処理の手順の一例を示す。まず、図5に示す12箇所のカメラ位置を選択する(ステップS101)。例えば、上方から見て角度位置が30°異なる12箇所のカメラ位置が選択される。この段階でのカメラ位置の選択は、回転台112の回転位置とカメラ131~133の撮影タイミングに基づき行われる。この処理は、図8のカメラ位置選択部220で行われる。 Here, camera positions at 12 equiangular (30°) positions are specified using the method of FIG. FIG. 10 shows an example of the procedure of this processing. First, 12 camera positions shown in FIG. 5 are selected (step S101). For example, 12 camera positions with angular positions different by 30° when viewed from above are selected. The selection of the camera position at this stage is performed based on the rotational position of the turntable 112 and the photographing timing of the cameras 131-133. This process is performed by the camera position selection section 220 in FIG.

次に、ステップS101で選択された位置から撮影した画像の中からステレオ画像を選択する(ステップS102)。この場合、カメラ位置で考えて、(1)と(3)、(3)と(5)、(5)と(7)・・・・と隣接するカメラ位置がステレオ画像のカメラ位置として選択される。すなわち、カメラ位置(1)と(3)から撮影した2つの画像でステレオ画像を構成し、カメラ位置(3)と(5)から撮影した2つの画像でステレオ画像を構成し、カメラ位置(5)と(7)から撮影した2つの画像でステレオ画像を構成し、・・・とした複数の組のステレオ画像が選択される。この処理は、図8のステレオ画像選択部221で行われる。 Next, a stereo image is selected from the images taken from the position selected in step S101 (step S102). In this case, considering the camera positions, the camera positions adjacent to (1) and (3), (3) and (5), (5) and (7), etc. are selected as the camera positions of the stereo image. be. That is, two images taken from camera positions (1) and (3) form a stereo image, two images taken from camera positions (3) and (5) form a stereo image, and a stereo image is formed from camera positions (5). ) and (7) constitute a stereo image, and a plurality of sets of stereo images are selected. This processing is performed by the stereo image selection unit 221 in FIG.

次に、選択されたステレオ画像からの特徴点の抽出(ステップS103)を行う。この処理は、特徴点抽出部250で行われる。ここで抽出される特徴点には、植物120、回転台112およびランダムドット柱121~123の特徴点が含まれる。次に、ステレオ画像間における特徴点の対応関係の特定(ステレオマッチング)を行う(ステップS104)。また、ステレオ画像間における共通に写っているターゲット113の検出を行う(ステップS105)。 Next, feature points are extracted from the selected stereo image (step S103). This processing is performed by the feature point extraction unit 250 . The feature points extracted here include the feature points of the plant 120, turntable 112, and random dot columns 121-123. Next, the correspondence between feature points between stereo images is specified (stereo matching) (step S104). Also, the target 113 that appears in common between the stereo images is detected (step S105).

次に、対応関係を特定した特徴点を用いた後方交会法により、ステップS101で選択したカメラと特徴点の相対位置関係を算出する相互標定を行う(S106)。またこの際、同時にステレオ画像に写った対応点とカメラ位置の相対位置関係が前方交会法を用いて特定される。 Next, relative orientation for calculating the relative positional relationship between the camera selected in step S101 and the feature points is performed by the backward resection method using the feature points for which the corresponding relationships are specified (S106). At this time, at the same time, the relative positional relationship between the corresponding points captured in the stereo image and the camera position is specified using the anterior resection method.

次に、ステップS106で求められた相対位置関係に特徴点から得られるスケールやターゲット113の位置から実寸法が与えられ、絶対標定が行なわれる(ステップS107)。この処理により、カメラの外部標定要素(位置と姿勢)とステップS104で対応関係が特定された特徴点の位置が求まる。最後にバンドル調整計算を行ない誤差の最小化を行う(ステップS108)。 Next, the relative positional relationship obtained in step S106 is given the actual size from the scale obtained from the feature points and the position of the target 113, and absolute orientation is performed (step S107). Through this processing, the exterior orientation elements (position and orientation) of the camera and the positions of the feature points whose correspondence relationship was identified in step S104 are obtained. Finally, bundle adjustment calculation is performed to minimize the error (step S108).

S106~S108の処理は、図8の外部標定要素算出部245、三次元座標算出部270およびバンドル調整計算部297で行なわれる。以上の処理により、カメラ位置が算出される。例えば、図5の(1),(3),(5),(7)・・・・(23)におけるカメラの位置が算出される。以上の処理は、カメラ131~133のそれぞれにおいて行われる。 The processing of S106 to S108 is performed by the exterior orientation element calculator 245, the three-dimensional coordinate calculator 270 and the bundle adjustment calculator 297 in FIG. The camera position is calculated by the above processing. For example, the positions of the cameras in (1), (3), (5), (7), . . . (23) in FIG. 5 are calculated. The above processing is performed in each of the cameras 131-133.

以上の処理を繰り返すことで、徐々にカメラ位置を増やしながらのカメラ位置の算出が全ての画像を対象として行われる。 By repeating the above processing, the camera positions are calculated for all images while gradually increasing the camera positions.

例えば、図5に係るS101~S106の処理が行なった後、図6に示すように、新たな12箇所のカメラ位置に関してS101~106の処理を繰り返す。この場合、新たに求めるカメラ位置が図6に示す(2),(4),(6),(8),(10)・・・・(24)であり、既に求められているカメラ位置が図5に示す(1),(3),(5),(7)・・・(23)である。この場合、図5に示す(1),(3),(5),(7)・・・(23)のカメラ位置を初期値として、新たなカメラ位置(2),(4),(6),(8),(10)・・・・(24)が計算される。この際、初期値として扱われるカメラ位置(1),(3),(5),(7)・・・(23)は再計算される。 For example, after performing the processing of S101 to S106 in FIG. 5, as shown in FIG. 6, the processing of S101 to S106 is repeated for 12 new camera positions. In this case, the newly obtained camera positions are (2), (4), (6), (8), (10), . . . (24) shown in FIG. (1), (3), (5), (7), . . . (23) shown in FIG. In this case, the camera positions (1), (3), (5), (7), . . . (23) shown in FIG. ), (8), (10), (24) are calculated. At this time, camera positions (1), (3), (5), (7), . . . (23) treated as initial values are recalculated.

上記の処理では、既に求められているカメラ位置を初期値として、その時点で対象となっている全てのカメラ位置の計算を行う。この計算は、カメラ位置を増やしながら最終的に全ての画像が対象となるように、繰り返し行われる。こうして、全ての画像におけるカメラ位置を算出する。 In the above processing, the camera positions that have already been obtained are used as initial values, and all the camera positions that are the target at that time are calculated. This calculation is repeated with increasing camera positions until all images are covered. In this way, camera positions in all images are calculated.

例えば、回転台上に設置された計測対象物を等角な周囲72箇所のカメラ位置から撮影する場合を考える。この場合、図5および図6に示す処理を6回繰り返し、72枚全ての画像のカメラ位置を求める。具体的には、30°間隔の12箇所のカメラ位置を求める処理を1回目から2回目への移行時に15°ずらし、2回目から3回目への移行時に-10°ずらし、3回目から4回目への移行時に 15° ずらし、4回目から5回目への移行時に -10°ずらし、5回目から6回目への移行時に 15° ずらし、と6回に分けて行う。 こうして、12×6=72枚の画像すべてにおけるカメラ位置を求める。なお、計測対象物に対する複数のカメラ位置は必ずしも等角な角度位置である必要はない。 For example, consider a case where an object to be measured placed on a turntable is photographed from 72 equiangular camera positions. In this case, the processing shown in FIGS. 5 and 6 is repeated six times to obtain the camera positions of all 72 images. Specifically, the processing to obtain 12 camera positions at intervals of 30° is shifted by 15° from the first time to the second time, shifted by -10° from the second time to the third time, and from the third time to the fourth time. Shift by 15° when transitioning to 1, shift by -10° when transitioning from 4th to 5th, and shift by 15° when transitioning from 5th to 6th. In this way, camera positions are obtained for all 12×6=72 images. It should be noted that the multiple camera positions with respect to the object to be measured do not necessarily have to be equiangular angular positions.

(計測対象物の三次元計測)
全ての画像における回転台112に対するカメラ位置を求めたら、今度は隣接するカメラ位置でステレオ画像を構成し、当該ステレオ画像から抽出される特徴点の三次元座標位置を算出する。この際、図10の処理で求めた粗な点群の位置データも利用される。図11は、この処理のフローチャートの一例である。
(Three-dimensional measurement of measurement object)
After obtaining the camera positions with respect to the turntable 112 in all the images, a stereo image is constructed from the adjacent camera positions, and the three-dimensional coordinate positions of feature points extracted from the stereo image are calculated. At this time, the rough position data of the point cloud obtained by the processing of FIG. 10 is also used. FIG. 11 is an example of a flowchart of this process.

処理が開始されると、隣接または近接する視点位置(カメラ位置)から植物120を隣接するカメラ位置から撮影した2枚の画像をステレオ画像として選択する(ステップS201)。選択の候補となる画像は、カメラ131~133が撮影した合計216枚の画像である。この処理は、ステレオ画像選択部221で行われる。選択する2枚の画像は、異なるカメラが撮影したものであってもよい。なお、重複した対象を撮影した3枚状以上の画像をステレオ画像として選択することもできる。 When the process is started, two images obtained by photographing the plant 120 from adjacent or adjacent viewpoint positions (camera positions) from adjacent camera positions are selected as stereo images (step S201). A total of 216 images captured by the cameras 131 to 133 are used as candidates for selection. This processing is performed by the stereo image selection unit 221 . The two images to be selected may be captured by different cameras. It is also possible to select three or more images obtained by photographing overlapping objects as stereo images.

次に、ステップS201で選択したステレオ画像からの特徴点の抽出を行う(ステップS202)。この処理は、図8の特徴点抽出部250で行われる。ステレオ画像からの特徴点の抽出を行ったら、それら特徴点のステレオ画像間での対応関係の特定を行う(ステップS203)。この処理は、図8の対応点特定部260で行われる。また、ステレオ画像中からのターゲット113の検出を行う(ステップS204)。この処理はターゲット検出部240で行われる。ターゲットの検出はステップS202~S205の間で行えばよい。 Next, feature points are extracted from the stereo image selected in step S201 (step S202). This processing is performed by the feature point extraction unit 250 in FIG. After the feature points are extracted from the stereo images, the correspondence between the feature points in the stereo images is specified (step S203). This processing is performed by the corresponding point identification unit 260 in FIG. Also, the target 113 is detected from the stereo image (step S204). This processing is performed by the target detection unit 240 . Target detection may be performed between steps S202 to S205.

次に、ステップS203でステレオ画像間での対応関係が特定された特徴点の三次元位置の算出を行う(ステップS205)。この際、図10の処理で位置を特定した特徴点を初期値として用いる。この処理は、三次元座標算出部270で行われる。特徴点の三次元位置は、回転台112に固定された座標系での座標として算出される。この位置が特定された特徴点が三次元点群となり、植物120の点群位置データが得られる。 Next, the three-dimensional position of the feature point for which the correspondence between the stereo images has been specified in step S203 is calculated (step S205). At this time, the feature points whose positions are specified in the process of FIG. 10 are used as initial values. This processing is performed by the three-dimensional coordinate calculation unit 270 . The three-dimensional position of the feature point is calculated as coordinates in a coordinate system fixed to the turntable 112 . The feature points whose positions are specified form a three-dimensional point group, and point group position data of the plant 120 is obtained.

次に、ステップS201の前段階に戻り、ステップS201以下の処理が繰り返される。 Next, the process returns to the previous stage of step S201, and the processes after step S201 are repeated.

例えば、カメラ位置(1)と(2)が隣接し、(2)と(3)が隣接しているとする。この場合において、前回のステップS201以下の処理において、図6のカメラ位置(1)と(2)から撮影した画像がステレオ画像として選択されたとする(ここで(1)と(2)は隣接しているとする)。この場合、次のフローのステップS201以下の処理では、図4のカメラ位置(2)と(3)が選択される(ここで(2)と(3)は隣接しているとする)。 For example, suppose camera positions (1) and (2) are adjacent, and (2) and (3) are adjacent. In this case, it is assumed that images taken from camera positions (1) and (2) in FIG. ). In this case, camera positions (2) and (3) in FIG. 4 are selected in the processing from step S201 of the next flow (assuming that (2) and (3) are adjacent).

こうして、新たな組み合わせのステレオ画像が選択されると、その段階で未知の対応点(ステレオ画像を構成する画像の中で共通する対応する未知な特徴点)が抽出され、その位置が算出される。この処理を繰り返すことで、更に利用する全ての画像から順次選択されたステレオ画像中で共通する特徴点の三次元位置の算出が行われる。こうして、三次元計測の対象である植物120を、三次元座標が判明した点の集合として捉えた点群位置データが得られる。 Thus, when a new combination of stereo images is selected, an unknown corresponding point (a corresponding unknown feature point that is common among the images forming the stereo image) is extracted at that stage, and its position is calculated. . By repeating this process, the three-dimensional positions of common feature points in stereo images sequentially selected from all images to be used are calculated. In this way, point group position data is obtained in which the plant 120, which is the object of three-dimensional measurement, is captured as a set of points whose three-dimensional coordinates are known.

植物120の点群位置データ得たら、それに基づき植物120の三次元モデルを作成する。この処理は、既知の処理であるので説明は省略する。三次元モデルの作成については、例えば、国際公開番号WO2011/070927号公報、特開2012-230594号公報、特開2014-35702号公報等に記載されている。 After obtaining the point group position data of the plant 120, a three-dimensional model of the plant 120 is created based on the data. Since this process is a known process, a description thereof will be omitted. Creation of a three-dimensional model is described, for example, in International Publication No. WO2011/070927, Japanese Patent Application Laid-Open No. 2012-230594, Japanese Patent Application Laid-Open No. 2014-35702, and the like.

(むすび)
本実施形態では、最初にすべてのカメラ位置を12方向⇒24方向⇒・・・と徐々にカメラ位置の数を増やしながら、その都度選択される各30°の角度位置にある12箇所のカメラ位置の組を順次求める。この際、選択するカメラ位置が閉ループで閉じており、それを徐々にずらしながら、計算を繰り返し、最終的に全画像に係るカメラ位置を求める。
(Conclusion)
In this embodiment, the number of camera positions is gradually increased from 12 directions to 24 directions to . . . are obtained sequentially. At this time, the camera position to be selected is closed in a closed loop, and the calculation is repeated while gradually shifting it, and finally the camera position related to all images is obtained.

この方法では、誤差の累積の問題を回避できる。また、初期値に図5のカメラ位置(1)と(2)というような基線の長いステレオ画像を使い、かつ全体を閉ループにしているので精度が良い。また、それぞれの段階でのバンドル調整計算の結果を次の段階における初期値にしているので、収束が遅くなったり破綻したりすることがない。 This method avoids the error accumulation problem. In addition, stereo images with a long base line such as the camera positions (1) and (2) in FIG. 5 are used as the initial values, and the whole is closed loop, so the accuracy is high. Also, since the result of the bundle adjustment calculation in each stage is used as the initial value in the next stage, convergence is not slowed down or broken.

また、カメラ位置を求める際に疎なステレオマッチングによる対応点も求まり、その誤差もバンドル調整計算により最小化されている。カメラ位置を求めた後で、再度隣接するカメラ位置のステレオマッチングにより、密な三次元点群を求めるが、その際に、カメラ位置を求める際に求めた疎な点群の位置データが利用され、それが拘束点となる。このため、密な三次元点群を求める際の計算も収束は早く、また計算精度も高い。 In addition, when obtaining the camera position, corresponding points are also obtained by sparse stereo matching, and the error thereof is also minimized by bundle adjustment calculation. After obtaining the camera positions, stereo matching of adjacent camera positions is performed again to obtain a dense 3D point group. , which is the constraint point. For this reason, the calculation for obtaining a dense three-dimensional point group also converges quickly and the calculation accuracy is high.

(その他)
回転台112の回転を精密に制御し、撮影時に回転を停止し、静止させた状態とする態様も可能である。例えば撮影時に長い露光時間が必要な場合や、対象が振動により生じた揺れが収束するまでに、この手法を利用することができる。また、計測の対象は植物に限定されない。
(others)
It is also possible to control the rotation of the turntable 112 precisely, stop the rotation during photographing, and maintain a stationary state. For example, this method can be used when a long exposure time is required during shooting, or until the shaking caused by the vibration of the object converges. Also, the object of measurement is not limited to plants.

回転台を囲む複数のカメラ位置が等角な位置関係にない場合も可能である。また、回転台を囲む複数箇所のカメラ位置の選択において、N回目とN+1回目でカメラ位置の数が同じ出ない場合も可能である。また、回転台を囲む複数箇所のカメラ位置の選択において、N回目とN+1回目で一部のカメラ位置が重複する形態も可能である。 It is also possible that the positions of the cameras surrounding the turntable are not equiangular. In addition, in the selection of multiple camera positions surrounding the turntable, it is possible that the number of camera positions is not the same between the N-th time and the N+1-th time. In addition, in the selection of camera positions at a plurality of locations surrounding the turntable, it is also possible to have a configuration in which some of the camera positions overlap between the N-th time and the N+1-th time.

計測対象を回転させずに固定し、計測対象に向けたカメラを円周上で移動させつつ撮影を行ってもよい。この場合、カメラが移動する円周の中心を基準にカメラの角度位置が把握される。また、計測対象とカメラの位置関係を相対的に固定してもよい。この場合、計測対象を中心とした円周上に多数のカメラを配置した状態とし、各カメラ位置からの撮影を行う。この場合、カメラが配置された円周の中心を基準に角度位置が把握される。 Alternatively, the object to be measured may be fixed without being rotated, and the camera directed toward the object to be measured may be moved on the circumference of the circle while shooting. In this case, the angular position of the camera is grasped with reference to the center of the circumference along which the camera moves. Also, the positional relationship between the measurement target and the camera may be relatively fixed. In this case, a large number of cameras are arranged on the circumference of the object to be measured, and images are taken from each camera position. In this case, the angular position is grasped with reference to the center of the circumference where the camera is arranged.

(変形例1)
図10に示すカメラ位置の特定を全てのカメラ位置に対して行わない態様も可能である。例えば、図4に示す計測対象物(回転台)を囲む8箇所のカメラ位置を求めた段階で、図2に示す隣接するカメラ位置を順次求める処理に移行してもよい。この場合、既知なカメラ位置(1),(5),(9),(13),(17),(21),(25),(29)を初期値あるいは拘束点として、未知なカメラ位置の算出および新たに抽出された特徴点の算出が行われる。
(Modification 1)
A mode is also possible in which the identification of camera positions shown in FIG. 10 is not performed for all camera positions. For example, at the stage where eight camera positions surrounding the object to be measured (rotary table) shown in FIG. 4 have been obtained, the process of sequentially obtaining adjacent camera positions shown in FIG. 2 may be performed. In this case, the unknown camera positions is calculated and newly extracted feature points are calculated.

(変形例2)
各段階でバンドル調整計算を行なわず、全てのカメラ位置の算出の終了後にバンドル調整計算を行なってもよい。
(Modification 2)
The bundle adjustment calculation may not be performed at each stage, and the bundle adjustment calculation may be performed after all camera positions have been calculated.

(変形例3)
図3の場合において、ステレオ画像として、(1)と(17),(9)と(25)のカメラ位置の組を選択してもよい。つまり、選択された(1),(9),(17),(25)の4箇所のカメラ位置から選択されるステレオ画像として、隣接しないカメラ位置のものを選択してもよい。これは、図4~図6の場合も同じである。
(Modification 3)
In the case of FIG. 3, the pairs of camera positions (1) and (17), (9) and (25) may be selected as stereo images. In other words, as the stereo images selected from the four selected camera positions (1), (9), (17), and (25), images at non-adjacent camera positions may be selected. This is the same for FIGS. 4 to 6 as well.

(変形例4)
図12の右側に示すようなカメラの配置は、死角がない撮影を行う上で有効である。図12に示す方法では、上下に少なくとも4台のカメラを配置し、下方の2台のカメラは斜め上方向を向き、上方の2台のカメラは斜め下方向を向いている。そして、計測対象物の上側を相対的に上方に配置された斜め下指向のカメラと相対的に上方に配置された斜め上指向のカメラで撮影する。そして、計測対象物の下側を相対的に下方にある斜め下指向のカメラと相対的に下方に配置された斜め上指向のカメラで撮影する。勿論、上下方向における両組の撮影範囲は一部で重複している。こうすることで、上下方向における撮影範囲の死角の発生を抑制できる。
(Modification 4)
The arrangement of the cameras as shown on the right side of FIG. 12 is effective for shooting without blind spots. In the method shown in FIG. 12, at least four cameras are arranged above and below, the lower two cameras face diagonally upward, and the upper two cameras face diagonally downward. Then, the upper side of the object to be measured is photographed by a diagonally downward pointing camera arranged relatively upward and an obliquely upward pointing camera arranged relatively upward. Then, the lower side of the object to be measured is photographed by a camera directed obliquely downward and a camera directed obliquely upward located relatively downward. Of course, the photographing ranges of both sets in the vertical direction partially overlap. By doing so, it is possible to suppress the occurrence of blind spots in the shooting range in the vertical direction.

100…3D計測システム、111…土台、112…回転台、113…ターゲット、120…測定対象物である植物、121~123…ランダムドット柱、124…鉢、125…2次元バーコード表示、131~133…カメラ、200…PCを利用した3D計測処理装置。 100... 3D measurement system, 111... Base, 112... Rotating table, 113... Target, 120... Plant which is an object to be measured, 121 to 123... Random dot column, 124... Bowl, 125... Two-dimensional barcode display, 131- 133... Camera, 200... 3D measurement processing device using PC.

Claims (10)

計測対象物およびランダムドット模様を周囲の複数の視点からカメラで撮影することで得た複数の画像データを受け付ける画像データ受付部と、
前記複数の画像を撮影した複数の前記カメラの位置の中から、前記計測対象物を囲む3箇所以上のカメラ位置を選択するカメラ位置選択部と、
前記カメラ位置選択部が選択したカメラ位置から撮影した画像の中からステレオ画像を選択するステレオ画像選択部と、
前記ステレオ画像を用いた交会法により、前記ステレオ画像を撮影したカメラの位置を算出するカメラの位置算出部と
を有し、
前記カメラ位置の選択は、複数回行なわれ、異なる選択時において、選択される少なくとも一部のカメラ位置が重複しない三次元計測装置。
an image data reception unit that receives a plurality of image data obtained by photographing an object to be measured and a random dot pattern from a plurality of surrounding viewpoints with a camera;
a camera position selection unit that selects three or more camera positions surrounding the measurement object from among the positions of the cameras that captured the plurality of images;
a stereo image selection unit that selects a stereo image from images captured from the camera position selected by the camera position selection unit;
a camera position calculation unit that calculates the position of the camera that captured the stereo image by the resection method using the stereo image,
The three-dimensional measuring apparatus, wherein the camera positions are selected a plurality of times, and at least some of the selected camera positions do not overlap at different times of selection.
計測対象物およびランダムドット模様を周囲の複数の視点からカメラで撮影することで得た複数の画像データを受け付ける画像データ受付部と、
前記複数の画像を撮影した複数の前記カメラの位置の中から、前記計測対象物を囲む3箇所以上のカメラ位置を選択するカメラ位置選択部と、
前記カメラ位置選択部が選択したカメラ位置から撮影した画像の中からステレオ画像を選択するステレオ画像選択部と、
前記ステレオ画像を用いた交会法により、前記ステレオ画像を撮影したカメラの位置を算出するカメラの位置算出部と
を有し、
前記カメラ位置の選択は、複数回行なわれ、異なる選択時において、選択されるカメラ位置が重複しない三次元計測装置。
an image data reception unit that receives a plurality of image data obtained by photographing an object to be measured and a random dot pattern from a plurality of surrounding viewpoints with a camera;
a camera position selection unit that selects three or more camera positions surrounding the measurement object from among the positions of the cameras that captured the plurality of images;
a stereo image selection unit that selects a stereo image from images captured from the camera position selected by the camera position selection unit;
a camera position calculation unit that calculates the position of the camera that captured the stereo image by the resection method using the stereo image,
The three-dimensional measurement apparatus, wherein the selection of the camera positions is performed a plurality of times, and the selected camera positions do not overlap at different times of selection.
前記カメラ位置選択部では、
前記計測対象物から見た角度位置が360°/N(Nは3以上の自然数)の位置にあるN箇所のカメラ位置を選択する1回目の選択と、
前記1回目に選択されたN箇所のカメラ位置に対して、前記計測対象物から見た角度位置が180°/Nずれた位置から、N箇所のカメラ位置を選択する2回目の選択と
が行なわれる請求項1または2に記載の三次元計測装置。
In the camera position selection unit,
a first selection of selecting N camera positions at angular positions of 360°/N (N is a natural number of 3 or more) as viewed from the measurement object;
a second selection of selecting N camera positions from a position shifted by 180°/N from the N camera positions selected at the first time, as viewed from the object to be measured; 3. The three-dimensional measuring device according to claim 1 or 2.
前記ランダムドット模様は、前記計測対象物が載せられた台に固定され、前記台から上方向に延在する長手部材の表面に形成されている請求項1~3のいずれか一項に記載の三次元計測装置。 4. The random dot pattern according to any one of claims 1 to 3, wherein the random dot pattern is formed on a surface of a longitudinal member fixed to a table on which the measurement object is placed and extending upward from the table. Three-dimensional measuring device. 前記長手部材の高さ方向の寸法は、前記台の上に載せられる前記計測対象物の高さ方向の寸法よりも大きい請求項4に記載の三次元計測装置。 5. The three-dimensional measuring apparatus according to claim 4, wherein the dimension in the height direction of said longitudinal member is greater than the dimension in the height direction of said object to be measured placed on said table. 前記台は、回転可能な請求項4または5に記載の三次元計測装置。 6. The three-dimensional measuring apparatus according to claim 4, wherein said table is rotatable. 前記カメラに対して、前記台を回転させながら、前記カメラによる前記計測対象物の撮影が行われることで、前記計測対象物および前記ランダムドット模様を周囲の複数の視点から撮影した複数の画像データが得られ、
前記計測対象物を囲む3つ以上の位置を頂点とする多角形の中に前記計測対象物の回転中心が位置する請求項6に記載の三次元計測装置。
A plurality of image data obtained by photographing the measurement object and the random dot pattern from a plurality of surrounding viewpoints by photographing the measurement object with the camera while rotating the base with respect to the camera. is obtained,
7. The three-dimensional measuring apparatus according to claim 6, wherein the center of rotation of the object to be measured is positioned within a polygon whose vertices are three or more positions surrounding the object to be measured.
計測対象物およびランダムドット模様を周囲の複数の視点からカメラで撮影することで得た複数の画像データを受け付ける画像データ受付ステップと、
前記複数の画像を撮影した複数の前記カメラの位置の中から、前記計測対象物を囲む3箇所以上のカメラ位置を選択するカメラ位置選択ステップと、
前記カメラ位置選択ステップで選択したカメラ位置から撮影した画像の中からステレオ画像を選択するステレオ画像選択ステップと、
前記ステレオ画像を用いた交会法により、前記ステレオ画像を撮影したカメラの位置を算出するカメラの位置算出ステップと
を有し、
前記カメラ位置の選択は、複数回行なわれ、異なる選択時において、選択される少なくとも一部のカメラ位置が重複しない三次元計測方法。
an image data receiving step of receiving a plurality of image data obtained by photographing an object to be measured and a random dot pattern from a plurality of surrounding viewpoints with a camera;
a camera position selection step of selecting three or more camera positions surrounding the measurement object from among the positions of the cameras that captured the plurality of images;
a stereo image selection step of selecting a stereo image from images captured from the camera position selected in the camera position selection step;
a camera position calculation step of calculating the position of the camera that captured the stereo image by the resection method using the stereo image;
A three-dimensional measurement method, wherein the camera positions are selected a plurality of times, and at least some of the selected camera positions do not overlap when different selections are made.
コンピュータに読み取らせて実行させるプログラムであって、
コンピュータに
計測対象物およびランダムドット模様を周囲の複数の視点からカメラで撮影することで得た複数の画像データを受け付ける画像データ受付ステップと、
前記複数の画像を撮影した複数の前記カメラの位置の中から、前記計測対象物を囲む3箇所以上のカメラ位置を選択するカメラ位置選択ステップと、
前記カメラ位置選択ステップで選択したカメラ位置から撮影した画像の中からステレオ画像を選択するステレオ画像選択ステップと、
前記ステレオ画像を用いた交会法により、前記ステレオ画像を撮影したカメラの位置を算出するカメラの位置算出ステップと
を実行させ、
前記カメラ位置の選択は、複数回行なわれ、異なる選択時において、選択される少なくとも一部のカメラ位置が重複しない三次元計測用プログラム。
A program that is read and executed by a computer,
an image data receiving step of receiving a plurality of image data obtained by photographing an object to be measured and a random dot pattern with a camera from a plurality of viewpoints around the computer;
a camera position selection step of selecting three or more camera positions surrounding the measurement object from among the positions of the cameras that captured the plurality of images;
a stereo image selection step of selecting a stereo image from images captured from the camera position selected in the camera position selection step;
a camera position calculation step of calculating the position of the camera that captured the stereo image by the resection method using the stereo image;
The three-dimensional measurement program, wherein the camera positions are selected a plurality of times, and at least some of the selected camera positions do not overlap in different selections.
前記カメラ位置選択部は、前記計測対象物を囲む3箇所以上のカメラ位置の1回目の選択と、前記計測対象物を囲む3箇所以上のカメラ位置の2回目の選択とを行い、
前記カメラの位置算出部は、
前記1回目に選択されたカメラ位置の算出と、
該算出において得られた前記カメラ位置を初期値とした前記2回目に選択されたカメラ位置の算出と
を行う請求項1または2に記載の三次元計測装置。
The camera position selection unit performs a first selection of three or more camera positions surrounding the measurement object and a second selection of three or more camera positions surrounding the measurement object,
The position calculation unit of the camera,
calculating the camera position selected for the first time;
3. The three-dimensional measuring apparatus according to claim 1, further comprising: calculating the second selected camera position using the camera position obtained in the calculation as an initial value.
JP2019102437A 2019-05-31 2019-05-31 Three-dimensional measuring device, three-dimensional measuring method and three-dimensional measuring program Active JP7242431B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019102437A JP7242431B2 (en) 2019-05-31 2019-05-31 Three-dimensional measuring device, three-dimensional measuring method and three-dimensional measuring program
PCT/JP2020/007380 WO2020240949A1 (en) 2019-05-31 2020-02-25 Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program
US17/608,957 US11941852B2 (en) 2019-05-31 2020-02-25 Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program
CN202080040427.8A CN113874677A (en) 2019-05-31 2020-02-25 Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program
EP20814253.9A EP3978867A4 (en) 2019-05-31 2020-02-25 Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019102437A JP7242431B2 (en) 2019-05-31 2019-05-31 Three-dimensional measuring device, three-dimensional measuring method and three-dimensional measuring program

Publications (2)

Publication Number Publication Date
JP2020197407A JP2020197407A (en) 2020-12-10
JP7242431B2 true JP7242431B2 (en) 2023-03-20

Family

ID=73553162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019102437A Active JP7242431B2 (en) 2019-05-31 2019-05-31 Three-dimensional measuring device, three-dimensional measuring method and three-dimensional measuring program

Country Status (5)

Country Link
US (1) US11941852B2 (en)
EP (1) EP3978867A4 (en)
JP (1) JP7242431B2 (en)
CN (1) CN113874677A (en)
WO (1) WO2020240949A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113398A (en) 2008-11-04 2010-05-20 Omron Corp Method of creating three-dimensional model and object recognizing device
JP2018197685A (en) 2017-05-23 2018-12-13 公益財団法人かずさDna研究所 Three-dimensional measurement device

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1097641A (en) 1996-09-20 1998-04-14 Sanyo Electric Co Ltd Method and device for generating moving image
JP3527831B2 (en) 1997-07-14 2004-05-17 三洋電機株式会社 Method and apparatus for generating random dot moving image and computer readable recording medium storing random dot moving image display processing program
JPH1196374A (en) * 1997-07-23 1999-04-09 Sanyo Electric Co Ltd Three-dimensional modeling device, three-dimensional modeling method and medium recorded with three-dimensional modeling program
JP2002094861A (en) * 2000-09-12 2002-03-29 Sony Corp Image signal pickup device and image signal pickup method
US8433128B2 (en) 2008-11-04 2013-04-30 Omron Corporation Method of creating three-dimensional model and object recognizing device
DE112010004767T5 (en) 2009-12-11 2013-01-24 Kabushiki Kaisha Topcon Point cloud data processing device, point cloud data processing method and point cloud data processing program
JP5582009B2 (en) * 2010-12-10 2014-09-03 富士通株式会社 3D position measurement system, 3D position measurement apparatus, and 3D position measurement method
JP5711039B2 (en) 2011-04-27 2015-04-30 株式会社トプコン 3D point cloud position data processing apparatus, 3D point cloud position data processing method, 3D point cloud position data processing system, and program
JP5955028B2 (en) 2012-02-28 2016-07-20 株式会社トプコン Image processing apparatus, image processing method, and image processing program
JP5832341B2 (en) 2012-03-09 2015-12-16 株式会社トプコン Movie processing apparatus, movie processing method, and movie processing program
JP5963353B2 (en) 2012-08-09 2016-08-03 株式会社トプコン Optical data processing apparatus, optical data processing system, optical data processing method, and optical data processing program
JP2017003525A (en) * 2015-06-15 2017-01-05 株式会社トプコン Three-dimensional measuring device
JP2017003537A (en) * 2015-06-16 2017-01-05 大同特殊鋼株式会社 Three dimensional shape measurement method
JP6529372B2 (en) * 2015-07-27 2019-06-12 株式会社パスコ Three-dimensional measurement device, three-dimensional measurement method, and program
US11143736B2 (en) * 2017-11-17 2021-10-12 Trinamix Gmbh Detector for determining a position of at least one object comprising at least one device to determine relative spatial constellation from a longitudinal coordinate of the object and the positions of reflection image and reference image
JP7438223B2 (en) * 2019-01-09 2024-02-26 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング a detector for determining the position of at least one object

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113398A (en) 2008-11-04 2010-05-20 Omron Corp Method of creating three-dimensional model and object recognizing device
JP2018197685A (en) 2017-05-23 2018-12-13 公益財団法人かずさDna研究所 Three-dimensional measurement device

Also Published As

Publication number Publication date
JP2020197407A (en) 2020-12-10
EP3978867A1 (en) 2022-04-06
EP3978867A4 (en) 2023-06-28
CN113874677A (en) 2021-12-31
US20220215585A1 (en) 2022-07-07
US11941852B2 (en) 2024-03-26
WO2020240949A1 (en) 2020-12-03

Similar Documents

Publication Publication Date Title
US6954212B2 (en) Three-dimensional computer modelling
JP4245963B2 (en) Method and system for calibrating multiple cameras using a calibration object
JP5480914B2 (en) Point cloud data processing device, point cloud data processing method, and point cloud data processing program
US8532340B2 (en) Projecting patterns for high resolution texture extraction
JP5620200B2 (en) Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program
US20020164067A1 (en) Nearest neighbor edge selection from feature tracking
US20130106833A1 (en) Method and apparatus for optical tracking of 3d pose using complex markers
US9182220B2 (en) Image photographing device and method for three-dimensional measurement
WO2021185217A1 (en) Calibration method based on multi-laser distance measurement and angle measurement
CN106530358A (en) Method for calibrating PTZ camera by using only two scene images
EP2294555A1 (en) Three dimensional mesh modeling
JP2005534026A (en) Three-dimensional measurement data automatic alignment apparatus and method using optical markers
Ahmadabadian et al. Clustering and selecting vantage images in a low-cost system for 3D reconstruction of texture-less objects
JP6898776B2 (en) 3D measuring device
JP2017003525A (en) Three-dimensional measuring device
US11222433B2 (en) 3 dimensional coordinates calculating apparatus and 3 dimensional coordinates calculating method using photo images
JP2003042732A (en) Apparatus, method and program for measurement of surface shape as well as surface-state mapping apparatus
US6505148B1 (en) Method for combining the computer models of two surfaces in 3-D space
CN112254638B (en) Intelligent visual 3D information acquisition equipment that every single move was adjusted
JP7242431B2 (en) Three-dimensional measuring device, three-dimensional measuring method and three-dimensional measuring program
JPH0766436B2 (en) 3D model construction device using continuous silhouette images
JP7229102B2 (en) Three-dimensional measurement device using images, three-dimensional measurement method using images, and three-dimensional measurement program using images
JP7392101B2 (en) Point cloud data processing device, point cloud data processing method, and program
CN114494316A (en) Corner marking method, parameter calibration method, medium, and electronic device
WO2021199822A1 (en) Point cloud data processing device, point cloud data processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R150 Certificate of patent or registration of utility model

Ref document number: 7242431

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150