JP2007010419A - Three-dimensional shape of object verifying system - Google Patents

Three-dimensional shape of object verifying system Download PDF

Info

Publication number
JP2007010419A
JP2007010419A JP2005190012A JP2005190012A JP2007010419A JP 2007010419 A JP2007010419 A JP 2007010419A JP 2005190012 A JP2005190012 A JP 2005190012A JP 2005190012 A JP2005190012 A JP 2005190012A JP 2007010419 A JP2007010419 A JP 2007010419A
Authority
JP
Japan
Prior art keywords
data
cameras
dimensional
calibration
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005190012A
Other languages
Japanese (ja)
Inventor
Hiroyoshi Yamaguchi
博義 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Engineering Corp
Original Assignee
Komatsu Engineering Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Engineering Corp filed Critical Komatsu Engineering Corp
Priority to JP2005190012A priority Critical patent/JP2007010419A/en
Publication of JP2007010419A publication Critical patent/JP2007010419A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable three-dimensional shape measurement which dispenses with the repetition of movement, setting and calibration. <P>SOLUTION: The system includes cameras 11a, 11b, measurement devices 1a, 1b with total stations (TS) 13a, 13b, and a controller 3. The controller 3 acquires data that reference points A, B are measured by the TS 13a, 13b; conducts calibration that determines the photographing positions of cameras 1a, 1b; acquires image data that the camera 11a, 11b substantially and simultaneously has photographed a predetermined object respectively; produces the three-dimensional data of the object based on the acquired image data and the photographing positions of the cameras 11a, 11b; compares the produced three-dimensional data with reference data; and provides outputs responding a result of the comparison. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、3次元計測技術に関し、特にカメラ一体型トータルステーションを用いた3次元計測技術に関する。   The present invention relates to a three-dimensional measurement technique, and more particularly to a three-dimensional measurement technique using a camera-integrated total station.

従来、3次元形状の計測装置として、カメラ一体型トータルステーションが知られている(例えば、特許文献1)。このカメラ一体型トータルステーションを用いれば、撮影対象物の3次元形状を容易に計測可能である。
特開2005−91298号公報
Conventionally, a camera-integrated total station is known as a three-dimensional measuring device (for example, Patent Document 1). If this camera-integrated total station is used, it is possible to easily measure the three-dimensional shape of the object to be photographed.
JP 2005-91298 A

従来は、1台のカメラ一体型トータルステーションを用いて計測を行っているので、カメラ一体型トータルステーションの移動、セッティング及びキャリブレーションを繰り返し行う必要があった。これは、複数の計測領域からなる広い現場を移動しながら測量する場合は、それほど問題とならないが、一カ所にとどまって比較的狭い領域の計測をする場合には、移動、セッティング及びキャリブレーションを繰り返さなければならず、面倒であった。   Conventionally, since measurement is performed using a single camera-integrated total station, it has been necessary to repeatedly move, set, and calibrate the camera-integrated total station. This is not so much a problem when surveying while moving across a large site consisting of multiple measurement areas, but when measuring in a relatively small area only in one place, move, set and calibrate. It had to be repeated and was troublesome.

また、一カ所にとどまって計測を繰り返す場合、計測の対象物自体が入れ替わったり、対象物の3次元形状が変化したりする場合もある。   Further, when the measurement is repeated while staying at one place, the measurement object itself may be replaced, or the three-dimensional shape of the object may change.

そこで、本発明の目的は、カメラ一体型のトータルステーションを用いて、対象物の3次元形状の監視あるいは検査を行うことである。   Accordingly, an object of the present invention is to monitor or inspect the three-dimensional shape of an object using a camera-integrated total station.

本発明の別の目的は、カメラ一体型のトータルステーションを用いて、時間の経過による対象物の3次元形状の変化を検出することである。   Another object of the present invention is to detect a change in the three-dimensional shape of an object over time using a camera-integrated total station.

本発明の一実施態様に従う対象物の3次元形状検証システムは、複数のカメラと、前記複数のカメラの各々とそれぞれ所定の位置関係を持って備えられる複数のトータルステーション(以下、TSという)と、2以上の基準点を各TSで計測したデータに基づいて、各カメラの撮影位置を決定するキャリブレーション手段と、前記複数のカメラが実質的に同時に所定の対象物を撮影した画像データをそれぞれ取得する手段と、前記取得した画像データおよび前記キャリブレーション手段により決定された各カメラの撮影位置に基づいて、前記対象物の3次元データを生成する手段と、前記撮影対象物に関する基準データを記憶する記憶部と、前記生成された3次元データと前記記憶部に記憶された基準データとを比較する比較手段と、前記比較手段による比較結果に応じた出力を行う手段と、を備える。   An object three-dimensional shape verification system according to an embodiment of the present invention includes a plurality of cameras, and a plurality of total stations (hereinafter referred to as TSs) each having a predetermined positional relationship with each of the plurality of cameras. Based on data obtained by measuring two or more reference points in each TS, calibration means for determining the shooting position of each camera and image data obtained by shooting the predetermined object substantially simultaneously by the plurality of cameras are acquired. Means for generating three-dimensional data of the object based on the acquired image data and the photographing position of each camera determined by the calibration means, and storing reference data relating to the object to be photographed A storage unit, comparing means for comparing the generated three-dimensional data with reference data stored in the storage unit, and the ratio And means for performing an output corresponding to the comparison result by the means.

ここで、実質的に同時とは、厳密に同時である場合の他、近接した一定の時間内であることをいう。   Here, “substantially simultaneous” means not only strictly simultaneous but also within a certain fixed time.

好適な実施形態では、前記比較手段による比較の結果、前記生成された3次元データが前記基準データに対して所定の要件を満たさない場合、前記キャリブレーション手段が再キャリブレーションを行い、再キャリブレーション後に撮影された画像データに基づいて生成された前記対象物の3次元データと前記基準データとを、前記比較手段が再度比較したときも、前記所定の要件を満たさない場合は、前記出力手段が所定の警報を示す情報を出力するようにしてもよい。   In a preferred embodiment, when the generated three-dimensional data does not satisfy a predetermined requirement with respect to the reference data as a result of the comparison by the comparison unit, the calibration unit performs recalibration and performs recalibration. When the comparison unit does not satisfy the predetermined requirement even when the comparison unit again compares the reference data with the three-dimensional data of the object generated based on image data captured later, the output unit Information indicating a predetermined alarm may be output.

好適な実施形態では、前記キャリブレーション手段は、前記再キャリブレーションを行うときは、前記2以上の基準点間の相対的な位置関係が前回キャリブレーションのときから変位しているか否かの判定を行うようにしてもよい。   In a preferred embodiment, when performing the recalibration, the calibration means determines whether or not the relative positional relationship between the two or more reference points has been displaced from the previous calibration. You may make it perform.

好適な実施形態では、前記生成手段により生成された3次元データを、次回以降の撮影により生成される3次元データに対する基準データとして利用するために、前記記憶部に格納する手段をさらに備えていてもよい。   In a preferred embodiment, the apparatus further comprises means for storing the three-dimensional data generated by the generating means in the storage unit in order to use it as reference data for the three-dimensional data generated by the next and subsequent photographing. Also good.

好適な実施形態では、前記撮影対象物は工業製品であり、前記基準データは前記工業製品の特徴点に関する製品データであってもよい。この場合、前記比較手段は、前記3次元データに基づいて前記対象物である工業製品の前記特徴点を抽出して、前記製品データと比較する。   In a preferred embodiment, the object to be photographed is an industrial product, and the reference data may be product data relating to a feature point of the industrial product. In this case, the comparison means extracts the feature point of the industrial product that is the object based on the three-dimensional data, and compares it with the product data.

本発明の一実施態様に従う3次元形状検証装置は、複数のカメラと、前記複数のカメラの各々とそれぞれ所定の位置関係を持って備えられる複数のトータルステーション(以下、TSという)を備えた計測装置と接続される対象物の3次元形状検証装置である。そして、2以上の基準点を各TSで計測したデータを取得し、各カメラの撮影位置を決定するキャリブレーション手段と、前記複数のカメラが実質的に同時に所定の対象物を撮影した画像データをそれぞれ取得する手段と、前記取得した画像データおよび前記キャリブレーション手段により決定された各カメラの撮影位置に基づいて、前記対象物の3次元データを生成する手段と、前記撮影対象物に関する基準データを記憶する記憶部と、前記生成された3次元データと前記記憶部に記憶された基準データとを比較する比較手段と、前記比較手段による比較結果に応じた出力を行う手段と、を備える。   A three-dimensional shape verification apparatus according to an embodiment of the present invention includes a measuring apparatus including a plurality of cameras and a plurality of total stations (hereinafter referred to as TS) each having a predetermined positional relationship with each of the plurality of cameras. 3D shape verification apparatus for an object connected to Then, data obtained by measuring two or more reference points with each TS is acquired, and calibration data for determining the shooting position of each camera; and image data obtained by shooting the predetermined object substantially simultaneously with the plurality of cameras. A means for obtaining the object, a means for generating three-dimensional data of the object based on the obtained image data and the photographing position of each camera determined by the calibration means; and reference data relating to the object to be photographed. A storage unit for storing; a comparison unit that compares the generated three-dimensional data with reference data stored in the storage unit; and a unit that performs output according to a comparison result by the comparison unit.

以下、本発明の一実施形態に係る3次元形状の計測システムについて、図面を参照して説明する。   Hereinafter, a three-dimensional shape measurement system according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の第1の実施形態に係る3次元形状の計測システムの全体構成を示す図である。   FIG. 1 is a diagram showing an overall configuration of a three-dimensional shape measurement system according to the first embodiment of the present invention.

本システムは、2台以上の計測装置1(1a、1b)と、入力装置5及び表示装置7に接続されたコントローラ3とを備え、撮影対象物9の3次元形状を計測する。図1では、計測装置1が2台の場合を示しているが、3台以上で構成することもできる。また、本実施形態では、時間の経過により撮影対象物9の3次元形状が変化した場合に、その変化を検出するようになっている。   This system includes two or more measuring devices 1 (1a, 1b) and a controller 3 connected to the input device 5 and the display device 7, and measures the three-dimensional shape of the photographing object 9. Although FIG. 1 shows a case where there are two measuring devices 1, three or more measuring devices 1 can be used. In the present embodiment, when the three-dimensional shape of the photographing object 9 changes with the passage of time, the change is detected.

各計測装置1は、同一の構成を有している。そこで、まず、計測装置1の構成について説明する。   Each measuring device 1 has the same configuration. First, the configuration of the measuring apparatus 1 will be described.

計測装置1は、例えば、モータ駆動式のカメラ一体型のトータルステーションを用いることができる。すなわち、計測装置1は、デジタルスチルカメラ(以下、「カメラ」という)11(11a,11b)と、トータルステーション(以下、「TS」という)13(13a,13b)と、カメラ11及びTS13の向きを変えるためのモータ15(15a,15b)と、支持フレーム17(17a,17b)とを備えている。   The measuring apparatus 1 can use, for example, a motor-driven camera-integrated total station. That is, the measuring apparatus 1 includes the digital still camera (hereinafter referred to as “camera”) 11 (11a, 11b), the total station (hereinafter referred to as “TS”) 13 (13a, 13b), and the orientations of the cameras 11 and TS13. A motor 15 (15a, 15b) for changing and a support frame 17 (17a, 17b) are provided.

TS13は、測量対象点までの距離、及び水平角=0且つ鉛直角=0となる所定の基本方向に対する水平角及び鉛直角で表される方向を計測する計測装置である。TS13は、計測した距離、及び方向を示すデータ(以下、「TSデータ」という)を出力する。   TS13 is a measuring device that measures a distance to a survey target point and a direction represented by a horizontal angle and a vertical angle with respect to a predetermined basic direction where horizontal angle = 0 and vertical angle = 0. The TS 13 outputs data indicating the measured distance and direction (hereinafter referred to as “TS data”).

カメラ11は、TS13に対して一定の位置関係をもって固定されている。従って、カメラ11及びTS13は、一体となって支持フレーム17に対して方向を変更するようになっている。このため、カメラ11の撮影方向を変更すると、TS13が出力するTSデータにより、カメラの撮影位置および基本方向に対する撮影方向を求めることができる。   The camera 11 is fixed to the TS 13 with a certain positional relationship. Accordingly, the camera 11 and the TS 13 are integrally changed in direction with respect to the support frame 17. Therefore, when the shooting direction of the camera 11 is changed, the shooting position of the camera and the shooting direction with respect to the basic direction can be obtained from the TS data output from the TS 13.

カメラ11及びTS13の方向の変更は、モータ15を駆動することにより行われる。モータ15は、後述するようにコントローラ3によって駆動される。なお、計測装置1にモータ15が搭載されていない場合は、作業者が手動でカメラ11及びTS13の方向を変更させてもよい。   The direction of the camera 11 and the TS 13 is changed by driving the motor 15. The motor 15 is driven by the controller 3 as will be described later. In addition, when the motor 15 is not mounted in the measuring device 1, the operator may change the directions of the camera 11 and the TS 13 manually.

コントローラ3は、各計測装置1a,1bのカメラ11a、11bが撮影した画像のデータと、TS13a、13bによる計測結果であるTSデータを取得して、これらに基づいて所定の画像処理を行って、撮影対象物9の3次元形状の計測し、その形状変化を検出する。   The controller 3 acquires data of images taken by the cameras 11a and 11b of the measuring devices 1a and 1b and TS data that are measurement results of the TSs 13a and 13b, and performs predetermined image processing based on these data. The three-dimensional shape of the photographing object 9 is measured and the shape change is detected.

本システムで撮影対象物9の3次元形状の計測、及びその形状変化を検出するには、まず、撮影対象物9が見える任意の位置に計測装置1a、1bをそれぞれ設置する。計測装置1a、1bが設置された位置が、それぞれ撮影位置となる。さらに、この撮影位置から見える2以上の基準点A,Bを予め定めておく。   In order to measure the three-dimensional shape of the photographing object 9 and to detect the shape change in this system, first, the measuring devices 1a and 1b are respectively installed at arbitrary positions where the photographing object 9 can be seen. The positions where the measuring devices 1a and 1b are installed are the shooting positions. Further, two or more reference points A and B that can be seen from the photographing position are determined in advance.

図2は、コントローラ3の詳細な機能構成を示す図である。   FIG. 2 is a diagram showing a detailed functional configuration of the controller 3.

コントローラ3は、例えば汎用的なコンピュータシステムにより構成され、以下に説明するコントローラ3内の個々の構成要素または機能は、例えば、コンピュータプログラムを実行することにより実現される。   The controller 3 is configured by a general-purpose computer system, for example, and each component or function in the controller 3 described below is realized by executing a computer program, for example.

まず、コントローラ3は、カメラ11及びTS13の方向を制御する姿勢制御部311と、撮影対象物を複数に分割して撮影するときに、分割撮影領域を設定する分割設定部312と、設定された分割撮影領域を示す情報を記憶する分割定義記憶部313とを備える。   First, the controller 3 is set with a posture control unit 311 that controls the direction of the camera 11 and the TS 13, and a division setting unit 312 that sets a divided shooting region when shooting an image of a shooting target divided into a plurality of parts. A division definition storage unit 313 that stores information indicating the divided imaging region;

姿勢制御部311は、モータ15を駆動して、一体となっているカメラ11及びTS13の方向を制御する。例えば、姿勢制御部311は、後述するように、入力装置5からの入力に基づいてモータ15を制御したり、分割定義記憶部313に記憶されている分割定義情報に従ってカメラ11が所定の方向へ向くようにモータ15を制御したりする。   The attitude control unit 311 drives the motor 15 to control the direction of the camera 11 and the TS 13 that are integrated. For example, the posture control unit 311 controls the motor 15 based on an input from the input device 5 as described later, or the camera 11 moves in a predetermined direction according to the division definition information stored in the division definition storage unit 313. The motor 15 is controlled so that it faces.

分割設定部312は、撮影対象物9を複数に分割して撮影する場合、以下に説明する設定画面を利用して分割撮影領域を設定する。   The division setting unit 312 sets a division imaging region using a setting screen described below when the imaging object 9 is divided into a plurality of images.

図3は分割撮影領域を示す図であり、図4は分割撮影領域の設定画面の一例を示す図である。   FIG. 3 is a diagram illustrating a divided shooting area, and FIG. 4 is a diagram illustrating an example of a setting screen for the divided shooting area.

例えば、図3に示すように、撮影対象物9がカメラ11の撮影範囲よりも大きくて、1回で全体を撮影でない場合に、複数の分割撮影領域91〜96を設定する。そして、後述するように、各分割撮影領域91〜96の画像データに基づいて、撮影対象物9の全体の3次元データを得る。   For example, as shown in FIG. 3, a plurality of divided photographing areas 91 to 96 are set when the photographing object 9 is larger than the photographing range of the camera 11 and the whole is not photographed once. Then, as will be described later, the entire three-dimensional data of the photographing object 9 is obtained based on the image data of each of the divided photographing regions 91 to 96.

図4に示す設定画面100は、作業者が、カメラ1a、1bの画像を参照しながら、分割撮影領域を設定するための画面である。この画面100が表示装置7に表示されると、入力装置5の操作により、作業者からの指示を受け付ける。   A setting screen 100 shown in FIG. 4 is a screen for an operator to set a divided shooting area while referring to the images of the cameras 1a and 1b. When this screen 100 is displayed on the display device 7, an instruction from the operator is received by operating the input device 5.

設定画面100は、カメラ1aの画像を表示する領域110と、カメラ1bの画像を表示する領域120と、カメラ11a,11bの方向を変化させる方向指示キー115,125が設けられている。ここで、例えば、領域110の画像が後述するステレオ処理を行うときの基準画像、領域120の画像が参照画像となる。作業者が入力装置5で方向指示キー115,125を操作すると、姿勢制御部311の制御によりカメラ1a、1bの方向が変わる。ここで、基準画像となるカメラ1aの方向を変えると参照画像となるカメラ1bの方向が連動して変わるようにしてもよい。分割撮影領域設定ボタン130が押されると、そのときのカメラ11a,11bの方向を示すTSデータをTS13a、13bから取得し、ここで取得したカメラ11a,11bの方向を示すデータが分割撮影領域定義情報として分割定義記憶部313に格納される。   The setting screen 100 is provided with an area 110 for displaying an image of the camera 1a, an area 120 for displaying an image of the camera 1b, and direction instruction keys 115 and 125 for changing the directions of the cameras 11a and 11b. Here, for example, the image of the region 110 is a reference image when performing stereo processing described later, and the image of the region 120 is a reference image. When the operator operates the direction instruction keys 115 and 125 with the input device 5, the directions of the cameras 1 a and 1 b change under the control of the attitude control unit 311. Here, when the direction of the camera 1a serving as the standard image is changed, the direction of the camera 1b serving as the reference image may be changed in conjunction with the reference image. When the divided shooting area setting button 130 is pressed, TS data indicating the direction of the cameras 11a and 11b at that time is acquired from the TS 13a and 13b, and the acquired data indicating the direction of the cameras 11a and 11b is defined as the divided shooting area definition. The information is stored in the division definition storage unit 313 as information.

再び図2を参照すると、コントローラ3は、さらに、撮影対象物9の画像処理を行うために、以下の構成を備えている。すなわち、コントローラ3は、計測装置1a,1bの位置関係を求めるキャリブレーションを行うキャリブレーション処理部331と、キャリブレーションにより求めた計測装置1a,1bの撮影位置を記憶する撮影位置記憶部332と、カメラ11a、11bで撮影された画像データを記憶する画像データ記憶部333と、カメラ11a,11bが撮影した画像データのステレオ処理を行うステレオ処理部334と、ステレオ処理により算出された撮影対象物9の3次元データを記憶する3次元データ記憶部335と、計測した3次元データに基づいて撮影対象物9の形状変化を抽出する形状変化検出部336と、表示装置7に撮影画像及び3次元画像等を表示するための表示制御部337と、警報出力部340とを備える。   Referring again to FIG. 2, the controller 3 further includes the following configuration in order to perform image processing of the photographing object 9. That is, the controller 3 includes a calibration processing unit 331 that performs calibration for obtaining the positional relationship between the measuring devices 1a and 1b, a photographing position storage unit 332 that stores the photographing positions of the measuring devices 1a and 1b obtained by calibration, An image data storage unit 333 that stores image data captured by the cameras 11a and 11b, a stereo processing unit 334 that performs stereo processing of the image data captured by the cameras 11a and 11b, and a shooting object 9 calculated by the stereo processing. A three-dimensional data storage unit 335 that stores the three-dimensional data, a shape change detection unit 336 that extracts a shape change of the photographing object 9 based on the measured three-dimensional data, and a captured image and a three-dimensional image on the display device 7. The display control part 337 for displaying etc., and the alarm output part 340 are provided.

キャリブレーション処理部331は、TS13a,13bがそれぞれ基準点A,Bを計測したときのTSデータを取得し、各計測装置1a,1bが設置されている撮影位置同士の位置関係を求める。そして、それぞれの撮影位置を、この撮影現場における3次元のローカル座標を求め、撮影位置データとして撮影位置記憶部332に格納する。   The calibration processing unit 331 acquires TS data when the TSs 13a and 13b measure the reference points A and B, respectively, and obtains a positional relationship between the photographing positions where the measuring devices 1a and 1b are installed. Then, three-dimensional local coordinates at the photographing site are obtained for each photographing position, and are stored in the photographing position storage unit 332 as photographing position data.

ステレオ処理部334は、撮影位置記憶部332に記憶されている撮影位置データと、カメラ11a及び11bが実質的に同時に撮影した撮影対象物9の2枚の画像データに基づいてステレオ処理を行う。そして、このステレオ処理により得られた撮影対象物9の距離画像に基づいて、撮影対象物9の3次元データを得て、3次元データ記憶部335に格納する。撮影対象物9が分割撮影されている場合は、それぞれ対応する画像データについてステレオ処理を行って、分割撮影された領域ごとに3次元データを得て、これらを結合して撮影対象物9全体の3次元データを得る。   The stereo processing unit 334 performs stereo processing based on the shooting position data stored in the shooting position storage unit 332 and the two pieces of image data of the shooting target 9 taken by the cameras 11a and 11b substantially simultaneously. Then, based on the distance image of the photographing object 9 obtained by the stereo process, three-dimensional data of the photographing object 9 is obtained and stored in the three-dimensional data storage unit 335. When the shooting object 9 is divided and shot, stereo processing is performed on the corresponding image data to obtain three-dimensional data for each of the divided shooting areas, and these are combined to combine the entire shooting object 9. Obtain 3D data.

形状変化検出部336は、基準となる撮影対象物9の3次元データ(基準データ)と、対象となる撮影対象物9の3次元データ(比較対象データ)とを比較して、撮影対象物9の形状変化を抽出する。例えば、基準データは、比較対象データとは異なる時刻に撮影された撮影対象物9のデータでよい。すなわち、本システムで、定期または不定期に撮影対象物の撮影を繰り返し、今回撮影した画像データに基づく3次元データを比較対象データとし、前回以前に撮影された画像データに基づく3次元データを基準データとしてもよい。基準データは、基準となる時刻に撮影された画像データに基づくものに固定してもよいし、直前に撮影された画像データでもよい。これにより、時間の経過とともに撮影対象物9の形状が変化したときは、これを検出できる。   The shape change detection unit 336 compares the three-dimensional data (reference data) of the reference photographing target 9 with the three-dimensional data (comparison target data) of the photographing target 9 serving as a reference, and the photographing target 9 Extract shape changes. For example, the reference data may be data of the photographing object 9 photographed at a time different from the comparison target data. That is, in this system, the photographing of the photographing object is repeated regularly or irregularly, and the three-dimensional data based on the image data photographed this time is used as the comparison target data, and the three-dimensional data based on the image data photographed before the previous time is used as a reference. It may be data. The reference data may be fixed based on image data taken at a reference time, or may be image data taken immediately before. Thereby, when the shape of the photographing object 9 changes with time, this can be detected.

ところで、キャリブレーション実施後に、何らかの理由でカメラ11の位置がずれてしまう可能性がある。このような場合には、このずれた状態のカメラ11で撮影した画像データを用いてステレオ処理しても、撮影対象物9の正しい3次元データが得られない。従って、撮影対象物9の形状が変化したときの他、このような位置ずれが生じたときにも、実際には形状変化がなくても、形状変化検出部336は形状変化を検出してしまう。そこで、このような誤検出を防止するため、形状変化の検出後に再キャリブレーションを行う。このとき、形状変化検出部336は、図示しない再キャリブレーションフラグを有しており、再キャリブレーション開始時にこのフラグを設定する。再キャリブレーションは、キャリブレーション処理部331が前回のキャリブレーション時に使用した基準点A,Bの位置を記憶しておき、これに基づいて姿勢制御部311がカメラの方向を制御して、自動で行うようにしてもよい。   By the way, the position of the camera 11 may be displaced for some reason after the calibration is performed. In such a case, correct three-dimensional data of the photographing object 9 cannot be obtained even if stereo processing is performed using the image data photographed by the camera 11 in the shifted state. Therefore, the shape change detection unit 336 detects the shape change even when such a positional deviation occurs in addition to when the shape of the photographing object 9 changes, even if there is actually no shape change. . Therefore, in order to prevent such erroneous detection, recalibration is performed after detecting the shape change. At this time, the shape change detection unit 336 has a recalibration flag (not shown), and sets this flag at the start of recalibration. In the recalibration, the positions of the reference points A and B used by the calibration processing unit 331 during the previous calibration are stored, and the posture control unit 311 controls the direction of the camera based on this, automatically. You may make it perform.

形状変化検出部336は、再キャリブレーション後に撮影した画像データに基づいて生成された3次元データを比較対象データとして、再び基準データとの比較を行う。この時点(再キャリブレーションフラグが設定済み)で、再び撮影対象物9の形状変化が検出されれば、真に撮影対象物9の形状が変化したものとして、警報出力部340が所定の警報を出力する。   The shape change detection unit 336 performs comparison with the reference data again using the three-dimensional data generated based on the image data captured after recalibration as the comparison target data. At this time (the recalibration flag has already been set), if a change in the shape of the photographing object 9 is detected again, it is assumed that the shape of the photographing object 9 has truly changed, and the alarm output unit 340 issues a predetermined alarm. Output.

なお、再キャリブレーション時に、キャリブレーション処理部331は、基準点A,BをTS13で計測したときに、基準点A,B間の相対的な位置関係(距離)が変化したか否かを判定する。そして、基準点A,B間の相対的な位置関係(距離)が変化した場合には、警報出力部340が所定の警報を出力する。これは、基準点A,Bの一方または双方の位置がずれてしまえば、本システムではこれ以上計測を続行することは不可能となるので、これを検出するためである。   At the time of recalibration, the calibration processing unit 331 determines whether or not the relative positional relationship (distance) between the reference points A and B has changed when the reference points A and B are measured by the TS 13. To do. When the relative positional relationship (distance) between the reference points A and B changes, the alarm output unit 340 outputs a predetermined alarm. This is because if the position of one or both of the reference points A and B is deviated, it is impossible to continue measurement in the present system, and this is detected.

次に、上記のような構成ないしは機能を備える本実施形態に係るシステムでの処理手順について、説明する。   Next, a processing procedure in the system according to the present embodiment having the above configuration or function will be described.

図5は、本システムで撮影対象物9の計測及び形状変化検出処理をするための前処理に関するフローチャートである。   FIG. 5 is a flowchart relating to preprocessing for performing measurement and shape change detection processing of the photographing object 9 in the present system.

まず、作業者が撮影位置に計測装置1a,1bを設置した後、TS13a、13bで基準点A,Bを計測したTSデータに基づき、キャリブレーション処理部331がキャリブレーションを実施する(S1)。これにより、撮影現場におけるカメラ11a,11bの撮影位置が特定される。次に、図4に示した設定画面100を用いて、分割設定部312が分割撮影領域を設定する(S2)。これにより定まった分割撮影領域の定義情報として、各分割撮影領域撮影時のカメラ11a、11bの方向をTS13a、13bから取得して、分割定義記憶部313に格納する。そして、前処理の最後として、形状変化の有無を判定するための基準データを3次元データ記憶部335に格納する(S3)。つまり、カメラ11a,11bで撮影対象物9を撮影し、この画像データをステレオ処理部334でステレオ処理して3次元データを生成する。   First, after the operator installs the measuring devices 1a and 1b at the photographing positions, the calibration processing unit 331 performs calibration based on TS data obtained by measuring the reference points A and B with the TSs 13a and 13b (S1). Thereby, the shooting positions of the cameras 11a and 11b at the shooting site are specified. Next, using the setting screen 100 shown in FIG. 4, the division setting unit 312 sets a divided photographing region (S2). The direction of the cameras 11a and 11b at the time of shooting each divided shooting area is acquired from the TS 13a and 13b as the definition information of the divided shooting area determined in this way, and stored in the split definition storage unit 313. Then, at the end of the preprocessing, reference data for determining the presence or absence of a shape change is stored in the three-dimensional data storage unit 335 (S3). That is, the photographing object 9 is photographed by the cameras 11a and 11b, and this image data is stereo-processed by the stereo processing unit 334 to generate three-dimensional data.

図6は、上記前処理が終わった後に行う、撮影対象物の計測及び形状変化検出処理のフローチャートである。この形状変化検出処理は、一定周期で行ってもよいし、不定期(例えば任意のタイミング)に行ってもよい。   FIG. 6 is a flowchart of the measurement of the object to be photographed and the shape change detection process performed after the pre-processing is completed. This shape change detection process may be performed at a constant cycle or may be performed irregularly (for example, at an arbitrary timing).

まず、姿勢制御部311が分割定義記憶部313から分割撮影領域の定義情報を取得して、カメラ11a、11bの方向を制御する(S11)。そして、カメラ11a及び11bが実質的に同時に撮影対象物9を撮影する(S12)。上記撮影を、すべての分割撮影領域について行う(S3)。   First, the posture control unit 311 acquires the definition information of the divided shooting areas from the division definition storage unit 313, and controls the directions of the cameras 11a and 11b (S11). Then, the cameras 11a and 11b photograph the photographing object 9 substantially simultaneously (S12). The above photographing is performed for all divided photographing regions (S3).

全分割撮影領域の撮影が終了すると、撮影位置情報に基づいて、ステレオ処理部334がカメラ11a及び11bの対応する画像データを用いてステレオ処理を行う。このステレオ処理を全分割撮影領域について行い、撮影対象物9全体の3次元データを生成する(S14)。   When shooting of all the divided shooting areas is completed, the stereo processing unit 334 performs stereo processing using the corresponding image data of the cameras 11a and 11b based on the shooting position information. This stereo processing is performed for all divided shooting areas, and three-dimensional data of the entire shooting target 9 is generated (S14).

形状変化検出部336は、ここで生成された3次元データを、前処理で既に生成されている基準データと比較して、撮影対象物9の形状の変化を検出する(S15)。そして、形状変化がない場合は(S16:No)、再キャリブレーションが実行されたか否かを示す再キャリブレーションフラグをクリアして、処理を終了する(S19)。   The shape change detection unit 336 detects the change in the shape of the photographing object 9 by comparing the three-dimensional data generated here with the reference data already generated in the preprocessing (S15). If there is no change in shape (S16: No), the recalibration flag indicating whether or not recalibration has been executed is cleared, and the process ends (S19).

一方、撮影対象物9の形状変化が検出された場合は(S16:Yes)、再キャリブレーションフラグが設定されているか否かを判定する(S17)。再キャリブレーションフラグが設定済みであれば(S17:Yes)、検出された形状変化は、カメラ11a、11bの位置ずれの影響ではない。つまり、撮影対象物9の形状が変化したものであるので、警報出力部340が警報を出力して処理を終了する(S18)。   On the other hand, when a change in the shape of the photographing object 9 is detected (S16: Yes), it is determined whether or not a recalibration flag is set (S17). If the recalibration flag has been set (S17: Yes), the detected shape change is not an influence of the positional deviation of the cameras 11a and 11b. That is, since the shape of the subject 9 has changed, the alarm output unit 340 outputs an alarm and ends the process (S18).

ここで、警報の態様としては、あらゆるものが可能であり、例えば、表示装置7にエラーメッセージを出力したり、所定のメールアドレスへメールを送信したり、所定の電話番号へ電話をかけたりしてもよい。   Here, all kinds of alarms are possible. For example, an error message is output to the display device 7, an e-mail is sent to a predetermined e-mail address, or a call is made to a predetermined telephone number. May be.

また、ステップS17で再キャリブレーションフラグがセットされていない場合は(S17:No)、このフラグを設定して、キャリブレーション処理部331へ指示して再キャリブレーションを実行させる(S21)。この再キャリブレーションにより、キャリブレーション処理部331が基準点A、B間の相対距離の変化を検出すると、基準点の位置ずれとして、ステップS18へ遷移する(S22:Yes)。基準点の位置ずれが検出されなければ(S22:No)、ステップS11へ戻って処理を続行する。   If the recalibration flag is not set in step S17 (S17: No), this flag is set, and the calibration processing unit 331 is instructed to execute recalibration (S21). When the calibration processing unit 331 detects a change in the relative distance between the reference points A and B by this recalibration, the process shifts to step S18 as a positional deviation of the reference points (S22: Yes). If no reference point displacement is detected (S22: No), the process returns to step S11 to continue the process.

これにより、撮影対象物9の3次元形状の変化を検出することができる。なお、本実施形態の撮影対象物9の好適な例の一つとして、切り立った崖などの地形が挙げられる。本システムで崖の形状を継続的に計測して、その形状変化を検出することにより、崖崩れそのもの、あるいはその前兆となる微妙な崖の形状変化を検出可能である。   Thereby, the change of the three-dimensional shape of the photographing object 9 can be detected. In addition, as a suitable example of the photographing object 9 of the present embodiment, there is a terrain such as a steep cliff. By continuously measuring the shape of the cliff with this system and detecting the shape change, it is possible to detect the cliff collapse itself or the subtle cliff shape change that is a precursor.

次に、本発明の第2の実施形態について説明する。本実施形態に関する以下の説明では、第1の実施形態と異なる構成を中心に説明し、第1の実施形態と同一の構成については同一の符号を付して説明を省略することがある。   Next, a second embodiment of the present invention will be described. In the following description regarding the present embodiment, a description will be given focusing on the configuration different from the first embodiment, and the same configuration as the first embodiment may be denoted by the same reference numeral and description thereof may be omitted.

本実施形態のシステムでは、撮影対象物が所定の形状であるか否かを検査し、所定の形状でないものを検出するようになっている。従って、本実施形態のシステムに好適な撮影対象物は、例えば工業製品である。つまり、本システムにより、工業製品が所定の規格通りにできあがっているか否かを容易に検査できる。   In the system of the present embodiment, it is inspected whether or not the object to be photographed has a predetermined shape, and a non-predetermined shape is detected. Therefore, an imaging object suitable for the system of this embodiment is, for example, an industrial product. That is, it is possible to easily inspect whether or not the industrial product is completed according to a predetermined standard by this system.

本システムの全体構成は、図1に示す第1の実施形態と同様である。   The overall configuration of this system is the same as that of the first embodiment shown in FIG.

図6に本実施形態に係るコントローラ30の機能構成を示す。   FIG. 6 shows a functional configuration of the controller 30 according to the present embodiment.

コントローラ30も、第1の実施形態のコントローラ3と同様に、例えば汎用的なコンピュータシステムにより構成され、個々の構成要素または機能は、例えば、コンピュータプログラムを実行することにより実現される。   Similarly to the controller 3 of the first embodiment, the controller 30 is also configured by a general-purpose computer system, for example, and each component or function is realized by executing a computer program, for example.

コントローラ30は、撮影対象物9である製品の規格を示す製品データの記憶部342と、この製品データと本システムが計測した撮影対象物9の3次元データとを比較し、撮影対象物9である製品が規格通りになっているか否かを判定する製品検査部341とを備える。   The controller 30 compares the product data storage unit 342 indicating the standard of the product that is the photographic object 9 with the three-dimensional data of the photographic object 9 measured by this system. A product inspection unit 341 for determining whether a certain product conforms to the standard.

製品データ記憶部342に記憶される製品データは、製品の外見上の特徴を示すデータである。例えば、製品全体の寸法、所定の特徴点間の位置関係などでよい。さらに具体的には、外見上わかる突起、孔などの特徴点同士の位置関係(たとえば距離)であってもよい。   The product data stored in the product data storage unit 342 is data indicating appearance characteristics of the product. For example, the dimensions of the entire product, the positional relationship between predetermined feature points, and the like may be used. More specifically, it may be a positional relationship (for example, distance) between feature points such as protrusions and holes that are apparent from the outside.

製品検査部341は、3次元データ記憶部335に格納されている3次元データを解析し、上述の製品データと比較するための情報を抽出する。例えば、製品検査部341は、撮影対象物9の寸法を算出したり、所定の突起、孔などの特徴点の位置関係を抽出したりする。そして、3次元データから抽出した特徴情報と製品データとを比較して、一致するか否かを判定する。   The product inspection unit 341 analyzes the three-dimensional data stored in the three-dimensional data storage unit 335 and extracts information for comparison with the product data described above. For example, the product inspection unit 341 calculates the dimensions of the object 9 to be photographed, and extracts the positional relationship between feature points such as predetermined protrusions and holes. Then, the feature information extracted from the three-dimensional data is compared with the product data to determine whether or not they match.

一致しない場合は、第1の実施形態と同様に再キャリブレーションを行ったのち、改めて比較することにより、カメラ11の位置ずれによる影響を取り除くことができる。   If they do not match, the recalibration is performed in the same manner as in the first embodiment, and then the effect of the positional deviation of the camera 11 can be removed by comparing again.

本システムでは、カメラ11の撮影範囲に置かれる撮影対象物を次々と取り替えて処理することにより、連続的に製品検査を行うことができる。このとき、撮影対象物の抽出されるべき特徴点がカメラ11に対して向けられた状態で設置される必要がある。しかしながら、設置されるときの位置は、カメラ11で撮影可能な領域内であればよいし、向きは特徴点が撮影可能であればよく、それらの厳密性は要求されない。   In the present system, product inspections can be continuously performed by replacing the imaging objects placed in the imaging range of the camera 11 one after another. At this time, it is necessary that the feature point to be extracted of the object to be photographed be installed with the feature pointed toward the camera 11. However, the installation position may be in an area that can be imaged by the camera 11 and the direction only needs to be able to image a feature point, and the strictness thereof is not required.

上述した本発明の実施形態は、本発明の説明のための例示であり、本発明の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。   The above-described embodiments of the present invention are examples for explaining the present invention, and are not intended to limit the scope of the present invention only to those embodiments. Those skilled in the art can implement the present invention in various other modes without departing from the gist of the present invention.

例えば、カメラ一体型のトータルステーションを3台以上用いてもよいし、キャリブレーションのための基準点を3点以上設けてもよい。   For example, three or more camera-integrated total stations may be used, or three or more reference points for calibration may be provided.

本発明の第1の実施形態に係る3次元形状の計測システムの全体構成を示す図である。1 is a diagram illustrating an overall configuration of a three-dimensional shape measurement system according to a first embodiment of the present invention. コントローラ3の詳細な機能構成を示す図である。3 is a diagram illustrating a detailed functional configuration of a controller 3. FIG. 撮影対象物を分割して撮影するときの分割撮影領域を示す図である。It is a figure which shows the division | segmentation imaging | photography area | region when dividing | segmenting and image | photographing a to-be-photographed object. 分割撮影領域の設定画面の一例を示す図である。It is a figure which shows an example of the setting screen of a division | segmentation imaging area. 撮影対象物の計測及び形状変化検出の前処理に関するフローチャートである。It is a flowchart regarding the pre-process of measurement of an imaging target and shape change detection. 撮影対象物の計測及び形状変化検出処理のフローチャートである。It is a flowchart of a measurement of an imaging object and a shape change detection process. 本発明の第2の実施形態に係るコントローラ30の機能構成を示す図である。It is a figure which shows the function structure of the controller 30 which concerns on the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1a,1b…計測装置、3、30…コントローラ、5…入力装置、7 表示装置、9…撮影対象物、11a,11b…カメラ、15a,15b…モータ、17a,17b…支持フレーム、100…分割領域設定画面、311 姿勢制御部、331…キャリブレーション処理部、334…ステレオ処理部、335…3次元データ記憶部、336…形状変化検出部。 DESCRIPTION OF SYMBOLS 1a, 1b ... Measuring device, 3, 30 ... Controller, 5 ... Input device, 7 Display device, 9 ... Shooting object, 11a, 11b ... Camera, 15a, 15b ... Motor, 17a, 17b ... Support frame, 100 ... Division Area setting screen, 311 posture control unit, 331 ... calibration processing unit, 334 ... stereo processing unit, 335 ... three-dimensional data storage unit, 336 ... shape change detection unit.

Claims (8)

複数のカメラと、
前記複数のカメラの各々とそれぞれ所定の位置関係を持って備えられる複数のトータルステーション(以下、TSという)と、
2以上の基準点を各TSで計測したデータに基づいて、各カメラの撮影位置を決定するキャリブレーション手段と、
前記複数のカメラが実質的に同時に所定の対象物を撮影した画像データをそれぞれ取得する手段と、
前記取得した画像データおよび前記キャリブレーション手段により決定された各カメラの撮影位置に基づいて、前記対象物の3次元データを生成する手段と、
前記撮影対象物に関する基準データを記憶する記憶部と、
前記生成された3次元データと前記記憶部に記憶された基準データとを比較する比較手段と、
前記比較手段による比較結果に応じた出力を行う手段と、を備える対象物の3次元形状検証システム。
Multiple cameras,
A plurality of total stations (hereinafter referred to as TS) each having a predetermined positional relationship with each of the plurality of cameras;
Calibration means for determining a shooting position of each camera based on data obtained by measuring two or more reference points in each TS;
Means for respectively acquiring image data obtained by photographing a predetermined object substantially simultaneously by the plurality of cameras;
Means for generating three-dimensional data of the object based on the acquired image data and the photographing position of each camera determined by the calibration means;
A storage unit that stores reference data related to the photographing object;
A comparison means for comparing the generated three-dimensional data with reference data stored in the storage unit;
Means for performing output according to a comparison result by the comparison means, and a three-dimensional shape verification system for an object.
前記比較手段による比較の結果、前記生成された3次元データが前記基準データに対して所定の要件を満たさない場合、前記キャリブレーション手段が再キャリブレーションを行い、
再キャリブレーション後に撮影された画像データに基づいて生成された前記対象物の3次元データと前記基準データとを、前記比較手段が再度比較したときも、前記所定の要件を満たさない場合は、前記出力手段が所定の警報を示す情報を出力することを特徴とする請求項1記載の対象物の3次元形状検証システム。
As a result of comparison by the comparison unit, when the generated three-dimensional data does not satisfy a predetermined requirement with respect to the reference data, the calibration unit performs recalibration,
If the predetermined means is not satisfied even when the comparison unit compares the reference data with the three-dimensional data of the object generated based on the image data captured after recalibration, 2. The three-dimensional shape verification system for an object according to claim 1, wherein the output means outputs information indicating a predetermined alarm.
前記キャリブレーション手段は、前記再キャリブレーションを行うときは、前記2以上の基準点間の相対的な位置関係が前回キャリブレーションのときから変位しているか否かの判定を行うことを特徴とする請求項2記載の対象物の3次元形状検証システム。   The calibration means, when performing the recalibration, determines whether or not the relative positional relationship between the two or more reference points has been displaced from the previous calibration. The three-dimensional shape verification system for an object according to claim 2. 前記生成手段により生成された3次元データを、次回以降の撮影により生成される3次元データに対する基準データとして利用するために、前記記憶部に格納する手段をさらに備える請求項1〜3のいずれかに記載の対象物の3次元形状検証システム。   4. The apparatus according to claim 1, further comprising means for storing the three-dimensional data generated by the generating unit in the storage unit in order to use the three-dimensional data as reference data for the three-dimensional data generated by the subsequent shooting. The three-dimensional shape verification system for an object described in 1. 前記撮影対象物は工業製品であり、
前記基準データは前記工業製品の特徴点に関する製品データであり、
前記比較手段は、前記3次元データに基づいて前記対象物である工業製品の前記特徴点を抽出して、前記製品データと比較することを特徴とする請求項1〜3のいずれかに記載の対象物の3次元形状検証システム。
The object to be photographed is an industrial product,
The reference data is product data relating to feature points of the industrial product,
The said comparison means extracts the said feature point of the industrial product which is the said object based on the said three-dimensional data, and compares with the said product data, The Claim 1 characterized by the above-mentioned. 3D shape verification system for objects.
複数のカメラと、前記複数のカメラの各々とそれぞれ所定の位置関係を持って備えられる複数のトータルステーション(以下、TSという)を備えた計測装置と接続される対象物の3次元形状検証装置であって、
2以上の基準点を各TSで計測したデータを取得し、各カメラの撮影位置を決定するキャリブレーション手段と、
前記複数のカメラが実質的に同時に所定の対象物を撮影した画像データをそれぞれ取得する手段と、
前記取得した画像データおよび前記キャリブレーション手段により決定された各カメラの撮影位置に基づいて、前記対象物の3次元データを生成する手段と、
前記撮影対象物に関する基準データを記憶する記憶部と、
前記生成された3次元データと前記記憶部に記憶された基準データとを比較する比較手段と、
前記比較手段による比較結果に応じた出力を行う手段と、を備える対象物の3次元形状検証装置。
A three-dimensional shape verification device for an object connected to a plurality of cameras and a measuring device having a plurality of total stations (hereinafter referred to as TS) each having a predetermined positional relationship with each of the plurality of cameras. And
Calibration means for acquiring data obtained by measuring two or more reference points in each TS and determining a shooting position of each camera;
Means for respectively acquiring image data obtained by photographing a predetermined object substantially simultaneously by the plurality of cameras;
Means for generating three-dimensional data of the object based on the acquired image data and the photographing position of each camera determined by the calibration means;
A storage unit that stores reference data related to the photographing object;
A comparison means for comparing the generated three-dimensional data with reference data stored in the storage unit;
Means for performing output according to the comparison result by the comparison means, and a three-dimensional shape verification apparatus for an object.
複数のカメラと、前記複数のカメラの各々とそれぞれ所定の位置関係を持って備えられる複数のトータルステーション(以下、TSという)を備えた計測装置を用いて対象物の3次元形状を検証する方法であって、
2以上の基準点を各TSで計測したデータを取得し、各カメラの撮影位置を決定するキャリブレーションステップと、
前記複数のカメラが実質的に同時に所定の対象物を撮影した画像データをそれぞれ取得するステップと、
前記取得した画像データおよび前記キャリブレーションにより決定された各カメラの撮影位置に基づいて、前記対象物の3次元データを生成するステップと、
前記生成された3次元データと前記撮影対象物に関する基準データとを比較するステップと、
前記比較結果に応じた出力を行うステップと、を行う方法。
A method for verifying the three-dimensional shape of an object using a measuring device including a plurality of cameras and a plurality of total stations (hereinafter referred to as TS) each having a predetermined positional relationship with each of the plurality of cameras. There,
A calibration step of acquiring data obtained by measuring two or more reference points in each TS and determining a shooting position of each camera;
Each of the plurality of cameras acquiring image data obtained by photographing a predetermined object substantially simultaneously;
Generating three-dimensional data of the object based on the acquired image data and the shooting position of each camera determined by the calibration;
Comparing the generated three-dimensional data with reference data relating to the object to be photographed;
And a step of performing output according to the comparison result.
複数のカメラと、前記複数のカメラの各々とそれぞれ所定の位置関係を持って備えられる複数のトータルステーション(以下、TSという)を備えた計測装置を用いた対象物の3次元形状の検証のためのコンピュータプログラムであって、
コンピュータに実行されると、
2以上の基準点を各TSで計測したデータを取得し、各カメラの撮影位置を決定するキャリブレーションステップと、
前記複数のカメラが実質的に同時に所定の対象物を撮影した画像データをそれぞれ取得するステップと、
前記取得した画像データおよび前記キャリブレーションにより決定された各カメラの撮影位置に基づいて、前記対象物の3次元データを生成するステップと、
前記生成された3次元データと前記撮影対象物に関する基準データとを比較するステップと、
前記比較結果に応じた出力を行うステップと、が行われるためのコンピュータプログラム。
For verification of a three-dimensional shape of an object using a measuring device having a plurality of cameras and a plurality of total stations (hereinafter referred to as TS) each having a predetermined positional relationship with each of the plurality of cameras. A computer program,
When executed on a computer,
A calibration step of acquiring data obtained by measuring two or more reference points in each TS and determining a shooting position of each camera;
Each of the plurality of cameras acquiring image data obtained by photographing a predetermined object substantially simultaneously;
Generating three-dimensional data of the object based on the acquired image data and the shooting position of each camera determined by the calibration;
Comparing the generated three-dimensional data with reference data relating to the object to be photographed;
And a step of performing output according to the comparison result.
JP2005190012A 2005-06-29 2005-06-29 Three-dimensional shape of object verifying system Pending JP2007010419A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005190012A JP2007010419A (en) 2005-06-29 2005-06-29 Three-dimensional shape of object verifying system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005190012A JP2007010419A (en) 2005-06-29 2005-06-29 Three-dimensional shape of object verifying system

Publications (1)

Publication Number Publication Date
JP2007010419A true JP2007010419A (en) 2007-01-18

Family

ID=37749141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005190012A Pending JP2007010419A (en) 2005-06-29 2005-06-29 Three-dimensional shape of object verifying system

Country Status (1)

Country Link
JP (1) JP2007010419A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102782721A (en) * 2009-12-24 2012-11-14 康耐视公司 System and method for runtime determination of camera miscalibration
CN103884273A (en) * 2013-09-18 2014-06-25 林森 Multi-view spatial movement flexible body instantaneous position and profile measurement device
US9913996B2 (en) 2012-11-05 2018-03-13 Mitsubishi Electric Corporation Three-dimensional image capture system and particle beam therapy system
CN108364317A (en) * 2017-03-03 2018-08-03 奈特视讯科技股份有限公司 The bearing calibration of target surface image-taking device
KR20180090353A (en) * 2016-01-20 2018-08-10 미쓰비시덴키 가부시키가이샤 Three-dimensional measuring device and its supporting method of measurement

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03167412A (en) * 1989-11-27 1991-07-19 Taisei Corp Method and apparatus for three-dimensional measurement
JPH1019562A (en) * 1996-06-28 1998-01-23 Taisei Corp Surveying equipment and surveying method
JPH1089960A (en) * 1996-09-13 1998-04-10 Hitachi Plant Eng & Constr Co Ltd Three-dimensional image measuring method
JP2000314622A (en) * 1999-04-30 2000-11-14 Fujita Corp Data collecting system for three-dimensional modeling
JP2001296124A (en) * 2000-02-10 2001-10-26 Nkk Corp Method and apparatus for measurement of three- dimensional coordinates
JP2002005658A (en) * 2000-06-26 2002-01-09 Topcon Corp System for photographing stereo image
JP2004306249A (en) * 2003-03-26 2004-11-04 Sony Corp Diagnostic instrument of stereo camera carried on robot and diagnostic method of stereo camera carried on robot device
JP2004354257A (en) * 2003-05-29 2004-12-16 Olympus Corp Calibration slippage correction device, and stereo camera and stereo camera system equipped with the device
JP2005091298A (en) * 2003-09-19 2005-04-07 Komatsu Engineering Corp Global coordinate acquisition device using image processing

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03167412A (en) * 1989-11-27 1991-07-19 Taisei Corp Method and apparatus for three-dimensional measurement
JPH1019562A (en) * 1996-06-28 1998-01-23 Taisei Corp Surveying equipment and surveying method
JPH1089960A (en) * 1996-09-13 1998-04-10 Hitachi Plant Eng & Constr Co Ltd Three-dimensional image measuring method
JP2000314622A (en) * 1999-04-30 2000-11-14 Fujita Corp Data collecting system for three-dimensional modeling
JP2001296124A (en) * 2000-02-10 2001-10-26 Nkk Corp Method and apparatus for measurement of three- dimensional coordinates
JP2002005658A (en) * 2000-06-26 2002-01-09 Topcon Corp System for photographing stereo image
JP2004306249A (en) * 2003-03-26 2004-11-04 Sony Corp Diagnostic instrument of stereo camera carried on robot and diagnostic method of stereo camera carried on robot device
JP2004354257A (en) * 2003-05-29 2004-12-16 Olympus Corp Calibration slippage correction device, and stereo camera and stereo camera system equipped with the device
JP2005091298A (en) * 2003-09-19 2005-04-07 Komatsu Engineering Corp Global coordinate acquisition device using image processing

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084854A (en) * 2009-12-24 2019-08-02 康耐视公司 The system and method measured when operation for camera calibrated error
JP2013515959A (en) * 2009-12-24 2013-05-09 コグネックス・コーポレイション System and method for runtime determination of camera miscalibration
JP2016001181A (en) * 2009-12-24 2016-01-07 コグネックス・コーポレイション System and method for runtime determination of camera mis-calibration
CN102782721A (en) * 2009-12-24 2012-11-14 康耐视公司 System and method for runtime determination of camera miscalibration
US11699247B2 (en) 2009-12-24 2023-07-11 Cognex Corporation System and method for runtime determination of camera miscalibration
CN110084854B (en) * 2009-12-24 2024-05-07 康耐视公司 System and method for runtime determination of camera calibration errors
US9913996B2 (en) 2012-11-05 2018-03-13 Mitsubishi Electric Corporation Three-dimensional image capture system and particle beam therapy system
CN103884273A (en) * 2013-09-18 2014-06-25 林森 Multi-view spatial movement flexible body instantaneous position and profile measurement device
KR20180090353A (en) * 2016-01-20 2018-08-10 미쓰비시덴키 가부시키가이샤 Three-dimensional measuring device and its supporting method of measurement
KR101973917B1 (en) 2016-01-20 2019-04-29 미쓰비시덴키 가부시키가이샤 Three-dimensional measuring device and its supporting method of measurement
CN108364317A (en) * 2017-03-03 2018-08-03 奈特视讯科技股份有限公司 The bearing calibration of target surface image-taking device
JP2018146227A (en) * 2017-03-03 2018-09-20 奈特視訊科技股▲ふん▼有限公司 Calibration method for target imaging device
CN108364317B (en) * 2017-03-03 2022-04-01 奈特视讯科技股份有限公司 Calibration method of target surface image capturing device

Similar Documents

Publication Publication Date Title
JP5580164B2 (en) Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program
KR100785594B1 (en) Image process apparatus
JP6446329B2 (en) Camera calibration apparatus, camera system, and camera calibration method
JP6484587B2 (en) Method and system for determining spatial characteristics of a camera
KR102111935B1 (en) Display control apparatus, display control method, and program
JP4811272B2 (en) Image processing apparatus and image processing method for performing three-dimensional measurement
EP3421930B1 (en) Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method
KR100499764B1 (en) Method and system of measuring an object in a digital
EP1986154A1 (en) Model-based camera pose estimation
CN100428782C (en) Information processing method and apparatus
US7409152B2 (en) Three-dimensional image processing apparatus, optical axis adjusting method, and optical axis adjustment supporting method
JP2008021092A (en) Simulation apparatus of robot system
JP2005072888A (en) Image projection method and image projection device
JP2007147422A (en) Measurement system, image processor, and method
JP6460700B2 (en) Method for diagnosing whether there is a defect on the inner wall of the tunnel and a program for diagnosing the presence of a defect on the inner wall of the tunnel
JP2020052046A (en) Survey data processing device, survey data processing method, survey data processing program
JP2006250722A (en) Device, method and program for calibration
JP2007243509A (en) Image processing device
JP2007010419A (en) Three-dimensional shape of object verifying system
JP2017151026A (en) Three-dimensional information acquiring device, three-dimensional information acquiring method, and program
JP2001148025A (en) Device and method for detecting position, and device and method for detecting plane posture
JPH1144533A (en) Preceding vehicle detector
JP2008026999A (en) Obstacle detection system and obstacle detection method
US20220076399A1 (en) Photographing guide device
JP2009266155A (en) Apparatus and method for mobile object tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20080606

Free format text: JAPANESE INTERMEDIATE CODE: A621

A131 Notification of reasons for refusal

Effective date: 20110719

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Effective date: 20111115

Free format text: JAPANESE INTERMEDIATE CODE: A02