JP2014134426A - Three-dimensional measuring device - Google Patents

Three-dimensional measuring device Download PDF

Info

Publication number
JP2014134426A
JP2014134426A JP2013001831A JP2013001831A JP2014134426A JP 2014134426 A JP2014134426 A JP 2014134426A JP 2013001831 A JP2013001831 A JP 2013001831A JP 2013001831 A JP2013001831 A JP 2013001831A JP 2014134426 A JP2014134426 A JP 2014134426A
Authority
JP
Japan
Prior art keywords
image
dimensional
measurement
texture
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013001831A
Other languages
Japanese (ja)
Other versions
JP5981353B2 (en
Inventor
Toshihisa Matsuo
順向 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013001831A priority Critical patent/JP5981353B2/en
Priority to PCT/JP2013/082585 priority patent/WO2014109146A1/en
Publication of JP2014134426A publication Critical patent/JP2014134426A/en
Application granted granted Critical
Publication of JP5981353B2 publication Critical patent/JP5981353B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional measuring device that can measure an object partially in three dimensions, greatly shortens a measurement time, and achieves template matching and three-dimensional measurement through one-time image capturing.SOLUTION: An image registration part 26 stores, as a registration image, an image obtained by imaging a part of a workpiece 5 while a texture is not projected. A filter processing part 25 performs processing for lowering a spatial frequency on original images 23, 24 obtained by imaging the workpiece 5 while the texture is projected. A template matching processing part 27 detects a position corresponding to the registration image in the original images 23, 24 having been processed by the filter processing part 25. A three-dimensional processing part 28 calculates three-dimensional information on the workpiece 5 based upon a detection result detected by the template matching processing part 27.

Description

この発明は、例えば、ステレオカメラを用いた3次元計測装置に関する。   The present invention relates to a three-dimensional measuring apparatus using a stereo camera, for example.

従来、3次元計測装置としては、特開2001−147110号公報(特許文献1)に記載されたものがある。この3次元計測装置は、パターンを対象物に投光して3次元計測を行なう。具体的に述べると、この3次元計測装置は、投光パターン生成手段の生成した投光パターンのパターンとしての適性度を示すパターン適性度指標値を、生成投光パターンに基づいて算出し、この算出したパターン適性度指標値を予め定めた閾値と比較することによって、生成投光パターンが三次元形状計測用の投光パターンとして適性を持つか否かを判定する。   Conventionally, as a three-dimensional measuring apparatus, there is one described in JP 2001-147110 A (Patent Document 1). This three-dimensional measuring device projects a pattern onto an object and performs three-dimensional measurement. More specifically, the three-dimensional measuring device calculates a pattern suitability index value indicating the suitability as a pattern of the light projection pattern generated by the light projection pattern generation means based on the generated light projection pattern, By comparing the calculated pattern suitability index value with a predetermined threshold value, it is determined whether or not the generated projection pattern has suitability as a projection pattern for three-dimensional shape measurement.

特開2001−147110号公報JP 2001-147110 A

ところで、上記従来の3次元計測装置では、対象物をステレオカメラで3次元計測するに当たり左右画像の対応点を得やすくするためにパターンを投影しているが、パターンやテクスチャ(模様)を投影して3次元計測を行なう場合、以下の課題を有する。   By the way, in the conventional three-dimensional measuring apparatus, when a target is three-dimensionally measured with a stereo camera, a pattern is projected to make it easy to obtain corresponding points in the left and right images, but a pattern or texture (pattern) is projected. When performing three-dimensional measurement, there are the following problems.

対象物の所望の部位のみ計測したい場合、対象物全体を計測するよりも所望の部位を特定してその部分のみ計測を行なう事で計測時間が大幅に短縮できる。所望の部位を特定する方法としてテンプレートマッチングという手法がある。所望の部位を登録画像とするテンプレートマッチングを行って画像内の部位の位置を特定し、その部分のみ3次元処理すれば良い。   When it is desired to measure only a desired part of the object, the measurement time can be greatly reduced by specifying the desired part and measuring only that part rather than measuring the entire object. There is a method called template matching as a method for specifying a desired part. Template matching using a desired part as a registered image is performed to specify the position of the part in the image, and only that part may be three-dimensionally processed.

この場合、登録画像としてパターンやテクスチャを投光された画像を準備する場合と投光されない画像を準備する場合が考えられるが、登録画像としてパターンやテクスチャ投光された画像を準備すると、3次元計測時に所望の部位に投光されるパターンやテクスチャの位置と登録画像上のパターンやテクスチャの位置が合うように投光せねばならず、その調整に非常に煩雑な工程が必要となる。   In this case, a case where an image projected with a pattern or texture is prepared as a registered image and a case where an image not projected is prepared are considered. Light must be projected so that the position of the pattern or texture projected on a desired part at the time of measurement matches the position of the pattern or texture on the registered image, and a very complicated process is required for the adjustment.

一方、登録画像としてテクスチャ投光されない画像を準備すると、3次元計測時に所望の部位に投光されるテクスチャがテンプレートマッチングの邪魔となり、正確なマッチング結果が得られなくなる。これを避けるのに、3次元計測時にはテクスチャを投光しない画像を1度撮像してテンプレートマッチングを行い、その後テクスチャ投光した画像を再度撮像して3次元計測を行なう必要がある。即ち、2回撮影を行う必要がある。   On the other hand, if an image that is not texture-projected is prepared as a registered image, the texture that is projected onto a desired part during three-dimensional measurement interferes with template matching, and an accurate matching result cannot be obtained. In order to avoid this, at the time of three-dimensional measurement, it is necessary to pick up an image that does not project texture once and perform template matching, and then to pick up the image that has been texture-projected again and perform three-dimensional measurement. That is, it is necessary to shoot twice.

そこで、この発明の課題は、対象物の部分的な3次元計測を可能とし、計測時間が大幅に短縮されると共に、一度の撮影でテンプレートマッチングと3次元計測が可能となる3次元計測装置を提供することにある。   Accordingly, an object of the present invention is to provide a three-dimensional measurement apparatus that enables partial three-dimensional measurement of an object, greatly reduces the measurement time, and enables template matching and three-dimensional measurement with a single photographing. It is to provide.

上記課題を解決するため、この発明の3次元計測装置は、
対象物を撮像する撮像手段と、
上記対象物にテクスチャを投影する照明手段と、
上記対象物の計測ポイントを含む少なくとも一部分を、上記照明手段から上記テクスチャを投影しない状態で、上記撮像手段によって撮像した画像を、登録画像として、格納する画像登録手段と、
上記対象物を上記照明手段から上記テクスチャを投影した状態で上記撮像手段によって撮像した元画像に対して、空間周波数を低下させる処理を施す前処理手段と、
上記前処理手段によって処理された上記元画像内から上記登録画像に対応する位置を検出する画像位置検出手段と、
上記撮像手段によって撮像された上記元画像、および、上記画像位置検出手段によって検出された検出結果に基づいて、上記対象物の3次元情報を算出する3次元処理手段と
を備えることを特徴としている。
In order to solve the above problems, the three-dimensional measurement apparatus of the present invention
An imaging means for imaging an object;
Illumination means for projecting a texture onto the object;
Image registration means for storing, as a registered image, an image captured by the imaging means in a state in which at least a part including the measurement point of the object is not projected from the illumination means and the texture;
Pre-processing means for performing a process of reducing the spatial frequency on the original image captured by the imaging means in a state where the texture is projected from the illumination means on the object;
Image position detecting means for detecting a position corresponding to the registered image from the original image processed by the preprocessing means;
3D processing means for calculating 3D information of the object based on the original image picked up by the image pickup means and a detection result detected by the image position detection means. .

この発明の3次元計測装置によれば、上記画像登録手段は、テクスチャを投影されていない対象物の登録画像を格納する。上記前処理手段は、テクスチャを投影された対象物の元画像に対して、空間周波数を低下させる処理を施す。上記画像位置検出手段は、前処理手段によって処理された元画像内から登録画像に対応する位置を検出する。上記3次元処理手段は、上記撮像手段によって撮像された元画像、および、上記画像位置検出手段によって検出された検出結果に基づいて、対象物の3次元情報を算出する。   According to the three-dimensional measurement apparatus of the present invention, the image registration means stores a registered image of an object on which no texture is projected. The preprocessing means performs a process of reducing the spatial frequency on the original image of the target object on which the texture is projected. The image position detecting means detects a position corresponding to the registered image from the original image processed by the preprocessing means. The three-dimensional processing means calculates three-dimensional information of the object based on the original image picked up by the image pickup means and the detection result detected by the image position detecting means.

このように、上記登録画像として、テクスチャを投影されない画像を準備するが、上記元画像は、テクスチャを投影された状態であるため、この元画像の空間周波数を低下させる処理にてテクスチャ成分を低減することで、この処理された元画像と登録画像とのテンプレートマッチングを行うことができる。   As described above, an image on which no texture is projected is prepared as the registered image. However, since the original image is in a state in which the texture is projected, the texture component is reduced by the process of reducing the spatial frequency of the original image. Thus, template matching between the processed original image and the registered image can be performed.

したがって、上記対象物の部分的な3次元計測を可能とし、計測時間が大幅に短縮される。また、一度の撮影でテンプレートマッチングと3次元計測が可能となる。   Therefore, partial three-dimensional measurement of the object is possible, and the measurement time is greatly shortened. Also, template matching and three-dimensional measurement can be performed with a single shooting.

また、一実施形態の3次元計測装置では、上記3次元処理手段は、上記画像位置検出手段によって検出された上記対象物の上記計測ポイントに対応する位置およびこの位置の周辺部分についてのみ、上記対象物の3次元情報を算出する。   In the three-dimensional measurement apparatus according to one embodiment, the three-dimensional processing unit is configured to apply the object only to a position corresponding to the measurement point of the object detected by the image position detection unit and a peripheral portion of the position. Calculate three-dimensional information of an object.

この実施形態の3次元計測装置によれば、上記3次元処理手段は、上記画像位置検出手段によって検出された対象物の計測ポイントに対応する位置およびこの位置の周辺部分についてのみ、上記対象物の3次元情報を算出する。これにより、対象物を部分的に3次元計測できて、計測時間を一層短縮できる。   According to the three-dimensional measurement apparatus of this embodiment, the three-dimensional processing unit is configured to detect only the position corresponding to the measurement point of the target detected by the image position detection unit and the peripheral portion of the target. Three-dimensional information is calculated. Thereby, a target object can be partially measured three-dimensionally and measurement time can be further shortened.

また、一実施形態の3次元計測装置では、上記3次元処理手段は、上記画像位置検出手段によって検出された上記対象物の上記計測ポイントに対応する位置を含む計測エリア内の3次元計測を行い、この計測エリア内の3次元計測値から、上記画像位置検出手段によって検出された上記対象物の上記計測ポイントに対応する位置の3次元計測値を演算する。   In the three-dimensional measurement apparatus according to an embodiment, the three-dimensional processing unit performs three-dimensional measurement in a measurement area including a position corresponding to the measurement point of the object detected by the image position detection unit. Then, from the three-dimensional measurement value in this measurement area, the three-dimensional measurement value of the position corresponding to the measurement point of the object detected by the image position detection means is calculated.

この実施形態の3次元計測装置によれば、上記3次元処理手段は、上記画像位置検出手段によって検出された対象物の計測ポイントに対応する位置を含む計測エリア内の3次元計測を行い、この計測エリア内の3次元計測値から、画像位置検出手段によって検出された計測ポイントに対応する位置の3次元計測値を演算する。   According to the three-dimensional measurement apparatus of this embodiment, the three-dimensional processing means performs three-dimensional measurement in a measurement area including a position corresponding to the measurement point of the object detected by the image position detection means. A three-dimensional measurement value at a position corresponding to the measurement point detected by the image position detection means is calculated from the three-dimensional measurement value in the measurement area.

これにより、画像位置検出手段によって検出された計測ポイントに対応する位置にノイズ等が存在していても、この画像位置検出手段によって検出された計測ポイントに対応する位置のみを3次元計測しないので、ノイズ等の影響を低減することができる。   Thereby, even if noise or the like exists at a position corresponding to the measurement point detected by the image position detection means, only the position corresponding to the measurement point detected by the image position detection means is not three-dimensionally measured. The influence of noise and the like can be reduced.

また、一実施形態の3次元計測装置では、上記前処理手段の上記空間周波数を低下させる処理は、空間フィルタ処理または低解像度化処理である。   In the three-dimensional measurement apparatus according to an embodiment, the process of reducing the spatial frequency of the preprocessing unit is a spatial filter process or a resolution reduction process.

この実施形態の3次元計測装置によれば、上記前処理手段の上記空間周波数を低下させる処理は、空間フィルタ処理または低解像度化処理である。低解像度化処理の場合、処理時間を短縮できる。   According to the three-dimensional measurement apparatus of this embodiment, the process of reducing the spatial frequency of the preprocessing means is a spatial filter process or a resolution reduction process. In the case of low resolution processing, the processing time can be shortened.

また、一実施形態の3次元計測装置では、
上記撮像手段は、2つの2次元カメラを含むステレオカメラであり、
上記前処理手段は、上記ステレオカメラからの上記対象物の上記元画像の右画像又は左画像に対して、空間周波数を低下させる処理を施し、
上記画像位置検出手段は、上記前処理手段によって処理された上記右画像又は上記左画像内から上記登録画像に対応する位置を検出する。
In the three-dimensional measurement apparatus according to the embodiment,
The imaging means is a stereo camera including two two-dimensional cameras,
The preprocessing means performs a process of reducing the spatial frequency on the right image or the left image of the original image of the object from the stereo camera,
The image position detecting means detects a position corresponding to the registered image from the right image or the left image processed by the preprocessing means.

この実施形態の3次元計測装置によれば、上記撮像手段は、ステレオカメラであり、上記前処理手段は、ステレオカメラからの対象物の元画像の右画像又は左画像に対して、空間周波数を低下させる処理を施す。上記画像位置検出手段は、前処理手段によって処理された右画像又は左画像内から登録画像に対応する位置を検出する。これにより、ステレオカメラからの右画像又は左画像に基づいて、対象物の部分的な3次元計測が可能となる。   According to the three-dimensional measurement apparatus of this embodiment, the imaging unit is a stereo camera, and the preprocessing unit calculates a spatial frequency with respect to the right image or the left image of the original image of the object from the stereo camera. Apply processing to reduce. The image position detecting means detects a position corresponding to the registered image from the right image or the left image processed by the preprocessing means. Thereby, based on the right image or the left image from a stereo camera, the partial three-dimensional measurement of a target object is attained.

この発明の3次元計測装置によれば、上記画像登録手段は、テクスチャを投影されていない対象物の登録画像を格納する。上記前処理手段は、テクスチャを投影された対象物の元画像に対して、空間周波数を低下させる処理を施す。上記画像位置検出手段は、前処理手段によって処理された元画像内から登録画像に対応する位置を検出する。上記3次元処理手段は、上記撮像手段によって撮像された元画像、および、上記画像位置検出手段によって検出された検出結果に基づいて、対象物の3次元情報を算出する。これにより、対象物の部分的な3次元計測を可能とし、計測時間が大幅に短縮されると共に、一度の撮影でテンプレートマッチングと3次元計測が可能となる。   According to the three-dimensional measurement apparatus of the present invention, the image registration means stores a registered image of an object on which no texture is projected. The preprocessing means performs a process of reducing the spatial frequency on the original image of the target object on which the texture is projected. The image position detecting means detects a position corresponding to the registered image from the original image processed by the preprocessing means. The three-dimensional processing means calculates three-dimensional information of the object based on the original image picked up by the image pickup means and the detection result detected by the image position detecting means. As a result, partial three-dimensional measurement of the target object is possible, the measurement time is greatly shortened, and template matching and three-dimensional measurement can be performed by one shooting.

本発明の第1実施形態の3次元計測装置を示すブロック図である。It is a block diagram which shows the three-dimensional measuring apparatus of 1st Embodiment of this invention. Lカメラ、Rカメラ、プロジェクタ及びワークの配置を説明する説明図である。It is explanatory drawing explaining arrangement | positioning of L camera, R camera, a projector, and a workpiece | work. テクスチャを説明する説明図である。It is explanatory drawing explaining a texture. 3次元処理部を示すブロック図である。It is a block diagram which shows a three-dimensional process part. 登録画像を説明する説明図である。It is explanatory drawing explaining a registration image. フィルタ処理部によるフィルタ処理を説明する説明図である。It is explanatory drawing explaining the filter process by a filter process part. テンプレートマッチング処理部によるテンプレートマッチング処理を説明する説明図である。It is explanatory drawing explaining the template matching process by a template matching process part. 本発明の第2実施形態の3次元計測装置を示すブロック図である。It is a block diagram which shows the three-dimensional measuring apparatus of 2nd Embodiment of this invention. 低解像度化処理部による低解像度化処理を説明する説明図である。It is explanatory drawing explaining the resolution reduction process by a resolution reduction process part. 本発明の第3実施形態の3次元計測装置の3次元処理を説明する説明図である。It is explanatory drawing explaining the three-dimensional process of the three-dimensional measuring apparatus of 3rd Embodiment of this invention.

以下、この発明を図示の実施の形態により詳細に説明する。   Hereinafter, the present invention will be described in detail with reference to the illustrated embodiments.

(第1の実施形態)
図1は、この発明の第1実施形態の3次元計測装置を示すブロック図である。図1に示すように、この3次元計測装置は、撮像手段としてのステレオカメラ10と、照明手段としてのプロジェクタ3と、画像登録手段としての画像登録部26と、前処理手段としてのフィルタ処理部25と、画像位置検出手段としてのテンプレートマッチング処理部27と、3次元処理手段としての3次元処理部28とを備える。
(First embodiment)
FIG. 1 is a block diagram showing a three-dimensional measuring apparatus according to the first embodiment of the present invention. As shown in FIG. 1, the three-dimensional measuring apparatus includes a stereo camera 10 as an imaging unit, a projector 3 as an illumination unit, an image registration unit 26 as an image registration unit, and a filter processing unit as a preprocessing unit. 25, a template matching processing unit 27 as an image position detecting unit, and a three-dimensional processing unit 28 as a three-dimensional processing unit.

上記ステレオカメラ10は、左画像用のLカメラ1と右画像用のRカメラ2とを有する。Lカメラ1とRカメラ2は、2次元カメラであり、対象物としてのワーク5を撮像する。カメラ1,2の撮像素子としては、CCD或いはCMOSセンサを用いれば良く、適切なレンズ等の光学系にて像を撮像素子に結像する。   The stereo camera 10 has an L camera 1 for a left image and an R camera 2 for a right image. The L camera 1 and the R camera 2 are two-dimensional cameras and pick up an image of the workpiece 5 as an object. A CCD or CMOS sensor may be used as the image sensor of the cameras 1 and 2, and an image is formed on the image sensor using an appropriate optical system such as a lens.

上記プロジェクタ3は、Lカメラ1とRカメラ2で撮像するエリアに照明光を投影するものである。Lカメラ1とRカメラ2で撮像された左右画像の各々は、グレースケール化部21に入力され、画像がグレースケール化される。グレースケール化により、カラー画像で処理するよりも情報量を削減出来るので処理負荷が軽くでき、処理部の低コスト化や処理時間短縮が可能となる。なお、処理能力に問題なければ、グレースケール化部21を省略して、カラー画像で以降の処理をしても良い。   The projector 3 projects illumination light onto an area captured by the L camera 1 and the R camera 2. Each of the left and right images captured by the L camera 1 and the R camera 2 is input to the gray scale conversion unit 21 and the image is converted to a gray scale. Gray scale makes it possible to reduce the amount of information compared to processing with a color image, so that the processing load can be reduced and the cost of the processing unit can be reduced and the processing time can be shortened. If there is no problem with the processing capability, the gray scale unit 21 may be omitted and the subsequent processing may be performed with a color image.

次に、左右の各グレースケール画像は、平行化処理部22にてレンズ歪みおよびステレオマッチングし易い平行化画像に補正される。ここで得られた左平行化画像23は、フィルタ処理部25でローパスフィルタ処理が実行される。   Next, the left and right grayscale images are corrected to a parallelized image that is easily subjected to lens distortion and stereo matching by the parallelization processing unit 22. The left parallelized image 23 obtained here is subjected to low-pass filter processing by the filter processing unit 25.

上記画像登録部26は、テンプレートマッチング用の画像が格納されており、上記テンプレートマッチング処理部27に於いて、フィルタ処理部25で処理された画像内から画像登録部26に格納された画像と最も近い画像の位置を抽出する。   The image registration unit 26 stores an image for template matching. In the template matching processing unit 27, the image registered in the image registration unit 26 is the most similar to the image processed by the filter processing unit 25. Extract the location of a close image.

上記3次元処理部28では、左平行化画像23及び右平行化画像24からステレオ3次元計測処理を実行する。但し、3次元計測処理実行エリアは、テンプレートマッチングにてマッチングしたエリアのみ実行する。   The three-dimensional processing unit 28 executes stereo three-dimensional measurement processing from the left parallelized image 23 and the right parallelized image 24. However, the three-dimensional measurement process execution area is executed only in the area matched by template matching.

計測結果出力部29は、3次元計測結果データを全体制御部30に出力する部分である。ロボットアーム6は、アーム先端に取り付けられたLカメラ1、Rカメラ2及びプロジェクタ3を、ワーク5に対して所定の位置に移動及び固定する為のものである。全体制御部30は、上記各部材の適切なる実行制御を行なう。なお、フィルタ処理部25を実行する画像を左平行化画像としたが、右平行化画像としてもよい。   The measurement result output unit 29 is a part that outputs three-dimensional measurement result data to the overall control unit 30. The robot arm 6 is for moving and fixing the L camera 1, the R camera 2, and the projector 3 attached to the tip of the arm to a predetermined position with respect to the work 5. The overall control unit 30 performs appropriate execution control of each member. In addition, although the image which performs the filter process part 25 was made into the left parallelization image, it is good also as a right parallelization image.

図2は、Lカメラ1、Rカメラ2、プロジェクタ3及びワーク5の配置例を示す。図2に示すように、Lカメラ1、Rカメラ2およびプロジェクタ3は、カメラユニット4を構成する。Lカメラ1およびRカメラ2は、ステレオカメラを構成するために、各カメラ1,2の撮像範囲は、共通の撮像部分が存在するように光軸配置される。また、プロジェクタ3による投影範囲は、Lカメラ1及びRカメラ2の撮像範囲または各カメラ1,2の共通の撮像部分を含むように投影される。プロジェクタ3による照明光は、テクスチャ(模様)を含む図形等が投影される。図3にテクスチャの例を示す。これは、平面内のランダムな位置にドットを配置したテクスチャである。   FIG. 2 shows an arrangement example of the L camera 1, the R camera 2, the projector 3, and the work 5. As shown in FIG. 2, the L camera 1, the R camera 2, and the projector 3 constitute a camera unit 4. Since the L camera 1 and the R camera 2 constitute a stereo camera, the imaging ranges of the cameras 1 and 2 are optically arranged so that a common imaging portion exists. Further, the projection range by the projector 3 is projected so as to include the imaging range of the L camera 1 and the R camera 2 or the common imaging part of the cameras 1 and 2. The illumination light from the projector 3 projects a figure including a texture (pattern). FIG. 3 shows an example of the texture. This is a texture in which dots are arranged at random positions in a plane.

ここで、プロジェクタ3により投影されるテクスチャの効果について説明する。左右カメラ画像からステレオ計測する場合には、左右画像上の特徴点について計測するが、画像内で特徴点が少ない場合は、計測点が少なくなる。即ち、3次元計測点の平面解像度が粗くなる。平面解像度が粗くなると、十分にワーク5の形状が計測されないことになる。そこで、十分な数の特徴点が得られるように、外部から特徴点となり得るテクスチャを被写体に投影する。これを投影するのがプロジェクタ3である。プロジェクタ3の投影範囲は、Lカメラ1およびRカメラ2の撮像範囲または各カメラ1,2の共通の撮像部分を含むように投影する必要がある。   Here, the effect of the texture projected by the projector 3 will be described. When stereo measurement is performed from the left and right camera images, feature points on the left and right images are measured, but when there are few feature points in the image, the number of measurement points is reduced. That is, the planar resolution of the three-dimensional measurement point becomes coarse. When the planar resolution becomes coarse, the shape of the workpiece 5 is not sufficiently measured. Therefore, a texture that can be a feature point from the outside is projected onto the subject so that a sufficient number of feature points can be obtained. The projector 3 projects this. The projection range of the projector 3 needs to be projected so as to include the imaging range of the L camera 1 and the R camera 2 or the common imaging part of the cameras 1 and 2.

図4は、3次元処理部28のブロック図を示す。図4に示すように、3次元処理部28は、微分処理部32と対応点探索処理部33と距離画像生成処理部34とを有する。対応点探索処理部33は、プロジェクタ3によって投影されたテクスチャを特徴点として、元画像としての左右平行化画像23,24から同じ特徴点を探索する(対応点探索処理という)。対応点探索処理は、左右画像上の同じ特徴点の座標を特定する処理であり、その方法としては相関ブロックマッチング法等がある。微分処理部32は、対応点探索処理の前に微分処理を実行することで、特徴点となり易いエッジ情報を強調することができ、対応点探索処理の精度確保に効果的となる。   FIG. 4 shows a block diagram of the three-dimensional processing unit 28. As illustrated in FIG. 4, the three-dimensional processing unit 28 includes a differentiation processing unit 32, a corresponding point search processing unit 33, and a distance image generation processing unit 34. The corresponding point search processing unit 33 searches for the same feature point from the right and left parallelized images 23 and 24 as the original image using the texture projected by the projector 3 as a feature point (referred to as a corresponding point search process). The corresponding point search process is a process for specifying the coordinates of the same feature point on the left and right images, and there is a correlation block matching method or the like as the method. The differential processing unit 32 can emphasize edge information that tends to be a feature point by executing the differential processing before the corresponding point search processing, and is effective in ensuring the accuracy of the corresponding point search processing.

左右画像上の各特徴点の座標が特定されれば、カメラの光学的仕様からステレオ計測の原理により、各特徴点のカメラからの位置(一般的には左右どちらかのカメラの光学中心を原点とした3次元座標)が、距離画像生成処理部34によって計算され、3次元データ即ち距離画像が、距離画像生成処理部34によって得られる。   Once the coordinates of each feature point on the left and right images are specified, the position of each feature point from the camera (generally, the optical center of either the left or right camera is the origin based on the optical specifications of the camera and the principle of stereo measurement. 3D coordinates) is calculated by the distance image generation processing unit 34, and three-dimensional data, that is, a distance image is obtained by the distance image generation processing unit 34.

上記画像登録部26は、登録画像を格納する。この登録画像について、図5を用いて説明する。図5(a)の三面図に示すような形状のものをワーク5とし、このワーク5の中の計測ポイントPと示した点について、カメラ1,2からの3次元位置を計測するものとする。ワーク5に対してカメラ1,2は、図2に示すように、ワーク5の上面を撮影するように配置されるものとする。この場合の登録画像の生成手順例を述べる。   The image registration unit 26 stores a registered image. This registered image will be described with reference to FIG. A workpiece having a shape as shown in the three views of FIG. 5A is a workpiece 5, and a three-dimensional position from the cameras 1 and 2 is measured at a point indicated by a measurement point P in the workpiece 5. . Assume that the cameras 1 and 2 are arranged so as to photograph the upper surface of the work 5 as shown in FIG. An example of a registration image generation procedure in this case will be described.

まず、第1に、実際のワーク或いはサンプルワークの上面を撮影して、図5(b)の画像を得る。この時、テクスチャ照明下での撮影は行わず、通常照明下とする。第2に、形状の特長を強調する為にエッジ強調処理(微分処理)を施して、図5(c)の画像を得る。第3に、得られた画像から計測ポイントPを含む一部分を切出した図5(d)の画像を、登録画像として、画像登録部26に格納する。ここで、一部分の切出しでは十分な特徴が得られない場合等では、一部分でなく全体を登録画像としても良い。   First, an upper surface of an actual work or a sample work is photographed to obtain an image shown in FIG. At this time, photographing under texture illumination is not performed, and normal illumination is performed. Second, edge enhancement processing (differentiation processing) is performed to enhance the feature of the shape, and the image shown in FIG. 5C is obtained. 3rdly, the image of FIG.5 (d) which cut out the part containing the measurement point P from the obtained image is stored in the image registration part 26 as a registration image. Here, in the case where sufficient features cannot be obtained by cutting out a part of the image, the registered image may be used as a whole instead of the part.

上記登録画像を用いてワーク5の計測ポイントPの3次元位置を計測する方法を、図6を用いて説明する。図2に示すようにワーク5をプロジェクタ3からテクスチャを投影した状態で撮像し、これにより得られた(元画像としての)左平行化画像23が、図6(a)であったとする。この画像23をフィルタ処理部25にてローパスフィルタを実行し、図6(b)の如くテクスチャのコントラストを低減した画像を得る。この時点で、ワーク5の輪郭の鮮鋭度がいくらか低下するが、必要があれば、図6(c)に示すように、鮮鋭化処理を施して、ワーク5の輪郭の鮮鋭度を回復させても良い。但し、テクスチャのコントラストを上げ過ぎないようにする必要がある。   A method for measuring the three-dimensional position of the measurement point P of the workpiece 5 using the registered image will be described with reference to FIG. As shown in FIG. 2, it is assumed that the workpiece 5 is imaged in a state in which a texture is projected from the projector 3, and the left parallelized image 23 (as an original image) obtained thereby is as shown in FIG. A low-pass filter is executed on the image 23 by the filter processing unit 25 to obtain an image with reduced texture contrast as shown in FIG. At this point, the sharpness of the contour of the work 5 is somewhat reduced. If necessary, the sharpness of the contour of the work 5 is restored by applying a sharpening process as shown in FIG. Also good. However, it is necessary not to increase the texture contrast too much.

次に、図7に示すように、フィルタ処理部25によるフィルタ処理で得られた画像から、画像登録部26に登録されている画像とのテンプレートマッチング処理を行う。これにより、フィルタ処理で得られた画像、即ち左平行化画像23内から、計測ポイントPに対応する座標を検出できる。計測ポイントPの画像内座標が検出できると、その計測ポイントPについて既に記した3次元計測を実行する事で、計測ポイントPの3次元空間内座標が計測できる。   Next, as shown in FIG. 7, a template matching process is performed with an image registered in the image registration unit 26 from the image obtained by the filter processing by the filter processing unit 25. Thereby, the coordinates corresponding to the measurement point P can be detected from the image obtained by the filtering process, that is, the left parallelized image 23. When the coordinates in the image of the measurement point P can be detected, the coordinates in the three-dimensional space of the measurement point P can be measured by executing the three-dimensional measurement already described for the measurement point P.

上記登録画像の作成時にテクスチャ照明下での撮影は行わず、通常照明下とする理由を述べる。実際に、3次元計測を実施する場合、テクスチャ照明を投光するが、その場合のワークに投影されたテクスチャ位置と登録画像のテクスチャ位置が違うと、テンプレートマッチングがうまく行なわれず、マッチング位置検出が不正確或いは検出不能となる。或いは、ワークに投光されたテクスチャ位置を登録画像と同じ位置に出来ればテンプレートマッチングはうまく行くが、登録画像と同じ位置にテクスチャを投影するには、ワークとプロジェクタとの相対位置の微調整機構やテクスチャ位置の一致度を判断する自動的な仕組み等を要し、非常に複雑な装置となる。それ故、本発明では、登録画像はテクスチャなしの画像とし、計測に使用する画像からテクスチャ成分を低減する方法を採ることにより、テンプレートマッチング処理を可能としている。   The reason for using the normal illumination instead of taking the image under the texture illumination when creating the registered image will be described. Actually, when performing three-dimensional measurement, texture illumination is projected. However, if the texture position projected on the workpiece and the texture position of the registered image are different, template matching will not be performed well, and matching position detection will not be performed. Inaccurate or undetectable. Alternatively, if the texture position projected on the workpiece can be made the same position as the registered image, the template matching will be successful. And an automatic mechanism for determining the degree of coincidence of texture positions is required, resulting in a very complicated device. Therefore, in the present invention, the registered image is an image without a texture, and the template matching process can be performed by adopting a method of reducing the texture component from the image used for measurement.

上記構成の3次元計測装置によれば、上記画像登録部26は、ワーク5の計測ポイントPを含む少なくとも一部分を、プロジェクタ3からテクスチャを投影しない状態で、ステレオカメラ10によって撮像した画像を、登録画像として、格納する。上記フィルタ処理部25は、ワーク5をプロジェクタ3からテクスチャを投影した状態でステレオカメラ10によって撮像した元画像(左右平行化画像23,24)に対して、空間周波数を低下させる処理を施す。上記テンプレートマッチング処理部27は、フィルタ処理部25によって処理された元画像23,24内から登録画像に対応する位置を検出する。上記3次元処理部28は、ステレオカメラ10によって撮像された元画像23,24、および、テンプレートマッチング処理部27によって検出された検出結果に基づいて、ワーク5の3次元情報を算出する。   According to the three-dimensional measurement apparatus having the above configuration, the image registration unit 26 registers an image captured by the stereo camera 10 in a state in which at least a part including the measurement point P of the workpiece 5 is not projected from the projector 3. Store as an image. The filter processing unit 25 performs a process of reducing the spatial frequency on the original images (left and right parallelized images 23 and 24) captured by the stereo camera 10 in a state where the texture of the workpiece 5 is projected from the projector 3. The template matching processing unit 27 detects a position corresponding to the registered image from the original images 23 and 24 processed by the filter processing unit 25. The three-dimensional processing unit 28 calculates three-dimensional information of the work 5 based on the original images 23 and 24 captured by the stereo camera 10 and the detection result detected by the template matching processing unit 27.

このように、登録画像として、テクスチャを投影されない画像を準備するが、元画像23,24は、テクスチャを投影された状態であるため、この元画像23,24の空間周波数を低下させる処理にてテクスチャ成分を低減することで、この処理された元画像23,24と登録画像とのテンプレートマッチングを行うことができる。   As described above, an image on which a texture is not projected is prepared as a registered image. However, since the original images 23 and 24 are in a state in which the texture is projected, the processing of reducing the spatial frequency of the original images 23 and 24 is performed. By reducing the texture component, template matching between the processed original images 23 and 24 and the registered image can be performed.

したがって、ワーク5の部分的な3次元計測を可能とし、計測時間が大幅に短縮される。また、一度の撮影でテンプレートマッチングと3次元計測が可能となる。   Therefore, partial three-dimensional measurement of the workpiece 5 is possible, and the measurement time is greatly shortened. Also, template matching and three-dimensional measurement can be performed with a single shooting.

また、上記3次元処理部28は、テンプレートマッチング処理部27によって検出されたワーク5の計測ポイントPに対応する位置およびこの位置の周辺部分についてのみ、ワーク5の3次元情報を算出する。これにより、ワーク5を部分的に3次元計測できて、計測時間を一層短縮できる。   Further, the three-dimensional processing unit 28 calculates the three-dimensional information of the workpiece 5 only for the position corresponding to the measurement point P of the workpiece 5 detected by the template matching processing unit 27 and the peripheral portion of this position. Thereby, the workpiece | work 5 can be partially measured three-dimensionally and measurement time can be shortened further.

(第2の実施形態)
図8は、この発明の第2実施形態の3次元計測装置を示すブロック図である。この第2の実施形態は、上記第1の実施形態とは、画像処理部の構成のみが相違する。この相違する構成のみを以下に説明する。なお、この第2の実施形態において、上記第1の実施形態と同一の符号は、上記第1の実施形態と同じ構成であるため、その説明を省略する。
(Second Embodiment)
FIG. 8 is a block diagram showing a three-dimensional measuring apparatus according to the second embodiment of the present invention. The second embodiment is different from the first embodiment only in the configuration of the image processing unit. Only this different configuration will be described below. In the second embodiment, the same reference numerals as those in the first embodiment are the same as those in the first embodiment, and the description thereof is omitted.

図8に示すように、この画像処理部20Aは、上記第1実施形態の画像処理部20のフィルタ処理部25に代えて低解像度化処理部35を有する。   As shown in FIG. 8, the image processing unit 20A includes a resolution reduction processing unit 35 instead of the filter processing unit 25 of the image processing unit 20 of the first embodiment.

上記低解像度化処理部35は、左平行化画像23に対して低解像度化処理を行う。画像変化を図9で説明すると、図9(a)のような8×10画素の中に1画素を単位としたテクスチャがあった場合、画像内の隣り合う4画素を1画素として、その画素値は、元の4画素の濃度値の平均とした画像に変換すると、図9(b)のようになる。図9(b)の画素数は、4×5画素に低減されており、元の画像の4画素を単位とするため、空間周波数は低減しており、テクスチャコントラストが低下している。これにより、ローパスフィルタと同じ効果が得られる。また、低解像度化は、画素数を削減できるので、処理時間の短縮化の効果が得られる。   The resolution reduction processing unit 35 performs resolution reduction processing on the left parallelized image 23. When the image change is described with reference to FIG. 9, when there is a texture in units of one pixel in 8 × 10 pixels as shown in FIG. 9A, four adjacent pixels in the image are regarded as one pixel, and the pixel When the value is converted into an image obtained by averaging the density values of the original four pixels, it is as shown in FIG. The number of pixels in FIG. 9B is reduced to 4 × 5 pixels, and since the unit is 4 pixels of the original image, the spatial frequency is reduced and the texture contrast is lowered. Thereby, the same effect as a low-pass filter is acquired. In addition, since the reduction in resolution can reduce the number of pixels, an effect of shortening the processing time can be obtained.

(第3の実施形態)
図10は、この発明の第3実施形態の3次元計測装置の3次元処理を説明する説明図である。この第3の実施形態は、上記第1の実施形態とは、3次元処理が相違する。この相違する構成のみを以下に説明する。
(Third embodiment)
FIG. 10 is an explanatory diagram for explaining the three-dimensional processing of the three-dimensional measuring apparatus according to the third embodiment of the present invention. The third embodiment is different from the first embodiment in three-dimensional processing. Only this different configuration will be described below.

上記第1実施形態では、テンプレートマッチングにより計測ポイントPの画像内座標を検出すると、そのポイントPについて3次元計測を実行したが、何らかの要因でそのポイントP上にノイズ等が存在すると正確な3次元計測値が得られない。   In the first embodiment, when the in-image coordinates of the measurement point P are detected by template matching, three-dimensional measurement is performed for the point P. However, if noise or the like exists on the point P for some reason, the three-dimensional measurement is accurate. The measured value cannot be obtained.

これを防ぐために、検出された計測ポイントPの画像内座標を含む周辺の計測エリアの画素も3次元計測し、その平均値を計測ポイントPの3次元計測値とすることで、ノイズ等の影響を低減することができる。   In order to prevent this, the pixels in the surrounding measurement area including the coordinates of the detected measurement point P in the image are also three-dimensionally measured, and the average value is set as the three-dimensional measurement value of the measurement point P, thereby affecting the influence of noise and the like. Can be reduced.

図10に示すように、計測ポイントPを中心とする所定の計測エリアZを設定し、計測エリアZ内を3次元計測する。得られた各画素の3次元座標から、無効画素MGを抽出する。無効画素MGは、例えば、明らかに距離値としてワーク5の存在位置から外れていると計測された画素とする。残りの有効画素YGの3次元計測値の平均値を計算して、計測ポイントPの計測結果とする。計測エリアZとしては、計測ポイントPに対して距離的に差が小さい部位に留める事が望ましい。   As shown in FIG. 10, a predetermined measurement area Z centering on the measurement point P is set, and the inside of the measurement area Z is measured three-dimensionally. An invalid pixel MG is extracted from the obtained three-dimensional coordinates of each pixel. The invalid pixel MG is, for example, a pixel that is clearly measured to be out of the position where the workpiece 5 exists as a distance value. The average value of the three-dimensional measurement values of the remaining effective pixels YG is calculated and used as the measurement result of the measurement point P. As the measurement area Z, it is desirable to keep the measurement area P at a site where the difference in distance is small.

要するに、この第3の実施形態の3次元処理部は、テンプレートマッチング処理部27によって検出されたワーク5の計測ポイントPに対応する位置を含む計測エリアZ内の3次元計測を行い、この計測エリアZ内の3次元計測値から、テンプレートマッチング処理部27によって検出された計測ポイントPに対応する位置の3次元計測値を演算する。   In short, the three-dimensional processing unit of the third embodiment performs three-dimensional measurement in the measurement area Z including the position corresponding to the measurement point P of the workpiece 5 detected by the template matching processing unit 27, and this measurement area A three-dimensional measurement value at a position corresponding to the measurement point P detected by the template matching processing unit 27 is calculated from the three-dimensional measurement value in Z.

これにより、テンプレートマッチング処理部27によって検出された計測ポイントPに対応する位置にノイズ等が存在していても、このテンプレートマッチング処理部27によって検出された計測ポイントPに対応する位置のみを3次元計測しないので、ノイズ等の影響を低減することができる。   As a result, even if noise or the like is present at the position corresponding to the measurement point P detected by the template matching processing unit 27, only the position corresponding to the measurement point P detected by the template matching processing unit 27 is three-dimensionally displayed. Since measurement is not performed, the influence of noise or the like can be reduced.

なお、この発明は上述の実施形態に限定されない。例えば、上記第1から上記第3の実施形態のそれぞれの特徴点を様々に組み合わせてもよい。   In addition, this invention is not limited to the above-mentioned embodiment. For example, the feature points of the first to third embodiments may be variously combined.

1 Lカメラ
2 Rカメラ
3 プロジェクタ(照明手段)
5 ワーク(対象物)
10 ステレオカメラ(撮像手段)
20,20A 画像処理部
23 左平行化画像(元画像)
24 右平行化画像(元画像)
25 フィルタ処理部(前処理手段)
26 画像登録部(画像登録手段)
27 テンプレートマッチング処理部(画像位置検出手段)
28 3次元処理部(3次元処理手段)
35 低解像度化処理部(前処理手段)
P 計測ポイント
Z 計測エリア
1 L camera 2 R camera 3 Projector (illumination means)
5 Workpiece (object)
10 Stereo camera (imaging means)
20, 20A Image processing unit 23 Left parallelized image (original image)
24 Right parallelized image (original image)
25 Filter processing section (preprocessing means)
26 Image registration unit (image registration means)
27 Template matching processing unit (image position detection means)
28 3D processing unit (3D processing means)
35 Low resolution processing unit (pre-processing means)
P Measurement point Z Measurement area

Claims (5)

対象物を撮像する撮像手段と、
上記対象物にテクスチャを投影する照明手段と、
上記対象物の計測ポイントを含む少なくとも一部分を、上記照明手段から上記テクスチャを投影しない状態で、上記撮像手段によって撮像した画像を、登録画像として、格納する画像登録手段と、
上記対象物を上記照明手段から上記テクスチャを投影した状態で上記撮像手段によって撮像した元画像に対して、空間周波数を低下させる処理を施す前処理手段と、
上記前処理手段によって処理された上記元画像内から上記登録画像に対応する位置を検出する画像位置検出手段と、
上記撮像手段によって撮像された上記元画像、および、上記画像位置検出手段によって検出された検出結果に基づいて、上記対象物の3次元情報を算出する3次元処理手段と
を備えることを特徴とする3次元計測装置。
An imaging means for imaging an object;
Illumination means for projecting a texture onto the object;
Image registration means for storing, as a registered image, an image captured by the imaging means in a state in which at least a part including the measurement point of the object is not projected from the illumination means and the texture;
Pre-processing means for performing a process of reducing the spatial frequency on the original image captured by the imaging means in a state where the texture is projected from the illumination means on the object;
Image position detecting means for detecting a position corresponding to the registered image from the original image processed by the preprocessing means;
And a three-dimensional processing unit that calculates three-dimensional information of the object based on the original image captured by the imaging unit and a detection result detected by the image position detection unit. Three-dimensional measuring device.
請求項1に記載の3次元計測装置において、
上記3次元処理手段は、上記画像位置検出手段によって検出された上記対象物の上記計測ポイントに対応する位置およびこの位置の周辺部分についてのみ、上記対象物の3次元情報を算出することを特徴とする3次元計測装置。
The three-dimensional measurement apparatus according to claim 1,
The three-dimensional processing means calculates the three-dimensional information of the object only for a position corresponding to the measurement point of the object detected by the image position detection means and a peripheral portion of the position. 3D measuring device.
請求項1または2に記載の3次元計測装置において、
上記3次元処理手段は、上記画像位置検出手段によって検出された上記対象物の上記計測ポイントに対応する位置を含む計測エリア内の3次元計測を行い、この計測エリア内の3次元計測値から、上記画像位置検出手段によって検出された上記対象物の上記計測ポイントに対応する位置の3次元計測値を演算することを特徴とする3次元計測装置。
The three-dimensional measuring apparatus according to claim 1 or 2,
The three-dimensional processing means performs three-dimensional measurement in a measurement area including a position corresponding to the measurement point of the object detected by the image position detection means, and from the three-dimensional measurement value in the measurement area, A three-dimensional measurement apparatus, wherein a three-dimensional measurement value of a position corresponding to the measurement point of the object detected by the image position detection means is calculated.
請求項1から3の何れか一つに記載の3次元計測装置において、
上記前処理手段の上記空間周波数を低下させる処理は、空間フィルタ処理または低解像度化処理であることを特徴とする3次元計測装置。
In the three-dimensional measuring apparatus as described in any one of Claim 1 to 3,
3. The three-dimensional measuring apparatus according to claim 1, wherein the process of reducing the spatial frequency of the preprocessing means is a spatial filter process or a resolution reduction process.
請求項1から4の何れか一つに記載の3次元計測装置において、
上記撮像手段は、2つの2次元カメラを含むステレオカメラであり、
上記前処理手段は、上記ステレオカメラからの上記対象物の上記元画像の右画像又は左画像に対して、空間周波数を低下させる処理を施し、
上記画像位置検出手段は、上記前処理手段によって処理された上記右画像又は上記左画像内から上記登録画像に対応する位置を検出することを特徴とする3次元計測装置。
In the three-dimensional measuring apparatus as described in any one of Claim 1 to 4,
The imaging means is a stereo camera including two two-dimensional cameras,
The preprocessing means performs a process of reducing the spatial frequency on the right image or the left image of the original image of the object from the stereo camera,
The three-dimensional measuring apparatus, wherein the image position detecting means detects a position corresponding to the registered image from the right image or the left image processed by the preprocessing means.
JP2013001831A 2013-01-09 2013-01-09 3D measuring device Active JP5981353B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013001831A JP5981353B2 (en) 2013-01-09 2013-01-09 3D measuring device
PCT/JP2013/082585 WO2014109146A1 (en) 2013-01-09 2013-12-04 Three dimensional measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013001831A JP5981353B2 (en) 2013-01-09 2013-01-09 3D measuring device

Publications (2)

Publication Number Publication Date
JP2014134426A true JP2014134426A (en) 2014-07-24
JP5981353B2 JP5981353B2 (en) 2016-08-31

Family

ID=51166808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013001831A Active JP5981353B2 (en) 2013-01-09 2013-01-09 3D measuring device

Country Status (2)

Country Link
JP (1) JP5981353B2 (en)
WO (1) WO2014109146A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145605A1 (en) * 2016-02-22 2017-08-31 株式会社リコー Image processing device, image pickup device, moving body apparatus control system, image processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001147110A (en) * 1999-11-22 2001-05-29 Sony Corp Random pattern generating device and its method, distance image generating device and its method, and program providing medium
JP2008304225A (en) * 2007-06-05 2008-12-18 Topcon Corp Painting surface measuring apparatus and its measuring method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001147110A (en) * 1999-11-22 2001-05-29 Sony Corp Random pattern generating device and its method, distance image generating device and its method, and program providing medium
JP2008304225A (en) * 2007-06-05 2008-12-18 Topcon Corp Painting surface measuring apparatus and its measuring method

Also Published As

Publication number Publication date
JP5981353B2 (en) 2016-08-31
WO2014109146A1 (en) 2014-07-17

Similar Documents

Publication Publication Date Title
JP6363863B2 (en) Information processing apparatus and information processing method
JP3951984B2 (en) Image projection method and image projection apparatus
CN109712192B (en) Camera module calibration method and device, electronic equipment and computer readable storage medium
US8144974B2 (en) Image processing apparatus, method, and program
WO2012011227A1 (en) Stereo distance measurement apparatus and stereo distance measurement method
WO2014044126A1 (en) Coordinate acquisition device, system and method for real-time 3d reconstruction, and stereoscopic interactive device
JP5293131B2 (en) Compound eye distance measuring device for vehicle and compound eye distance measuring method
JP6304244B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP4055998B2 (en) Distance detection device, distance detection method, and distance detection program
JP2012058076A (en) Three-dimensional measurement device and three-dimensional measurement method
JP5342413B2 (en) Image processing method
JP2015044212A (en) Laser processing apparatus
JPWO2016135856A1 (en) Three-dimensional shape measurement system and measurement method thereof
KR20180099251A (en) Method and apparatus for measuring depth of materials attached to cylinder using line laser
JP5336325B2 (en) Image processing method
JPH1079029A (en) Stereoscopic information detecting method and device therefor
JP2023538706A (en) Fusion-based digital image correlation framework for performing distortion measurements
JP6409769B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP2008298589A (en) Device and method for detecting positions
JP2016102755A (en) Information processing device, information processing method and program
JP5981353B2 (en) 3D measuring device
JP2008224323A (en) Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program
JP2016156702A (en) Imaging device and imaging method
JP5342977B2 (en) Image processing method
JP5967470B2 (en) Inspection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160728

R150 Certificate of patent or registration of utility model

Ref document number: 5981353

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150