JP2016217833A - Image processing system and image processing method - Google Patents

Image processing system and image processing method Download PDF

Info

Publication number
JP2016217833A
JP2016217833A JP2015102009A JP2015102009A JP2016217833A JP 2016217833 A JP2016217833 A JP 2016217833A JP 2015102009 A JP2015102009 A JP 2015102009A JP 2015102009 A JP2015102009 A JP 2015102009A JP 2016217833 A JP2016217833 A JP 2016217833A
Authority
JP
Japan
Prior art keywords
pattern image
image
captured
projection
measured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015102009A
Other languages
Japanese (ja)
Inventor
信一 住吉
Shinichi Sumiyoshi
信一 住吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015102009A priority Critical patent/JP2016217833A/en
Publication of JP2016217833A publication Critical patent/JP2016217833A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system that can highly accurately restore a three-dimensional shape even when a measurement front surface of a measured object is highly glossy and the like.SOLUTION: An image processing device 4 takes in a projection pattern image projected onto a measured object from a projector 2, and a shooting pattern image shot by a camera 3; calculates a corresponding point between the projection pattern image and the shooting pattern image; and restores a three-dimensional shape of the measured object from the calculated corresponding point. The image processing device 4 comprises: a correlation calculation unit 42 that calculates a matching degree of the projection pattern image and the obtained shooting pattern image by a correlation from the taken-in projection pattern image and shooting pattern image, in which the matching degree corresponds to a certain area of a front surface of the measured object; and a first order reflection light acquisition unit 43 that discriminates and acquires a shooting pattern image by first order reflection light from the front surface of the measured object on the basis of the correlation degree calculated by the correlation calculation unit 42.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理システム及び画像処理方法に関する。   The present invention relates to an image processing system and an image processing method.

例えば、工場の様々な組立てライン等におけるFA(Factory Automation)分野においては、部品の検査や認識等のために、非接触で計測が可能なアクティブステレオ方式の計測装置が多数市販されている。このような非接触の計測のタイプとしては、例えば、レーザープローブや、ラインレーザーを用いたセンシング方式などが従来より知られているが、近年、エリア(面)で計測可能な、所謂プロジェクタ・カメラ方式が注目されている。   For example, in the FA (Factory Automation) field of various assembly lines in factories, many active stereo type measuring devices capable of non-contact measurement are commercially available for parts inspection and recognition. As such a non-contact measurement type, for example, a laser probe, a sensing method using a line laser, and the like have been conventionally known, but in recent years, a so-called projector / camera that can be measured in an area (plane). The method is drawing attention.

このようなプロジェクタ・カメラ方式による3次元計測の技術は既に知られており(例えば、特許文献1)、被計測物体に対してプロジェクタ(投影装置)からパターン像を投影し、被計測物体に投影されたパターン像をカメラ(撮影装置)で撮影して、この撮影画像から対応点を獲得し、獲得した対応点から3次元形状を復元して、被計測物体を3次元計測するものである。   Such a projector-camera method for three-dimensional measurement is already known (for example, Patent Document 1), and a pattern image is projected from a projector (projection apparatus) onto a measured object and projected onto the measured object. The obtained pattern image is photographed with a camera (photographing device), corresponding points are acquired from the captured image, the three-dimensional shape is restored from the acquired corresponding points, and the object to be measured is three-dimensionally measured.

例えば、特許文献1には、被計測物体に対して投影光学ユニット(プロジェクタ)からパターン像を投影して、被計測物体に投影されたパターン像を撮像素子(カメラ)で撮影し、位相をシフトした状態で取得した複数のパターン像より算出した位相情報を用いて被計測物体の高さ情報を求める構成のプロジェクタ・カメラ方式の3次元形状測定装置が開示されている。   For example, in Patent Document 1, a pattern image is projected from a projection optical unit (projector) onto an object to be measured, the pattern image projected onto the object to be measured is captured by an image sensor (camera), and the phase is shifted. A projector / camera type three-dimensional shape measuring apparatus configured to obtain height information of an object to be measured using phase information calculated from a plurality of pattern images acquired in the above state is disclosed.

特許文献1に記載の技術によれば、被計測物体の計測面が低散乱部分から高散乱部分までの広い範囲であっても高精度に計測を行うことができると記載されている。しかしながら、例えば被計測物体の計測面が、高光沢でかつ凹状の湾曲形状等である場合には、投影光学ユニット(プロジェクタ)から投影されたパターン像(パターン光)がこの計測面で相互反射して、投影されたパターン像が重畳されることで、投影されたパターン像と撮影した画像との正しい対応付けができなくなる不具合が生じる。このため、3次元形状を精度よく復元することができず、正しく3次元計測を行うことができなくなる。   According to the technique described in Patent Document 1, it is described that measurement can be performed with high accuracy even when the measurement surface of the object to be measured is in a wide range from a low scattering portion to a high scattering portion. However, for example, when the measurement surface of the object to be measured has a high gloss and concave curved shape, the pattern image (pattern light) projected from the projection optical unit (projector) is mutually reflected by this measurement surface. As a result, there is a problem that the projected pattern image and the captured image cannot be correctly associated by superimposing the projected pattern image. For this reason, the three-dimensional shape cannot be accurately restored, and the three-dimensional measurement cannot be performed correctly.

そこで、本発明は、被計測物体の計測面が高光沢等である場合でも、3次元形状を精度よく復元することができる画像処理システムを提供することを目的とする。   Therefore, an object of the present invention is to provide an image processing system capable of accurately restoring a three-dimensional shape even when the measurement surface of the object to be measured has high gloss or the like.

前記目的を達成するために本発明に係る画像処理システムは、被計測物体の表面に所定のパターン像を投影する投影手段と、前記被計測物体に投影された前記パターン像を撮影して、撮影パターン画像を取得する撮影手段と、前記被計測物体に投影した投影パターン像と前記撮影パターン画像とを取り込み、前記投影パターン像と前記撮影パターン画像との対応点を算出し、算出した対応点から前記被計測物体の3次元形状を復元する画像処理手段と、を備えた画像処理システムにおいて、前記画像処理手段は、取り込んだ前記投影パターン像と前記撮影パターン画像とから、前記被計測物体の表面のある領域に対応する、投影パターン像と得られた撮影パターン画像とのマッチング度を相関で算出する相関算出部と、前記相関算出部で算出された相関度合いに基づいて、前記被計測物体の表面からの1次反射光による撮影パターン画像を弁別して取得する1次反射光取得部と、を有していることを特徴としている。   In order to achieve the above object, an image processing system according to the present invention shoots the pattern image projected onto the measurement object by projecting means for projecting a predetermined pattern image onto the surface of the measurement object. An image capturing means for acquiring a pattern image, a projection pattern image projected onto the object to be measured, and the image capturing pattern image are captured, a corresponding point between the projection pattern image and the image capturing pattern image is calculated, and from the calculated corresponding point An image processing system comprising: an image processing unit that restores a three-dimensional shape of the object to be measured, wherein the image processing unit uses a surface of the object to be measured from the captured projection pattern image and the captured pattern image A correlation calculation unit that calculates the degree of matching between the projection pattern image and the obtained captured pattern image corresponding to a certain area by correlation, and the correlation calculation unit calculates Based on the correlation degree that, the is characterized in that it has a first order reflection light acquisition unit that acquires by discriminating the captured pattern image by the primary reflected light from the surface of the measurement subject, a.

本発明に係る画像処理システムによれば、投影パターン像と撮影パターン画像とから、被計測物体の表面のある領域に対応する、投影パターン像と得られた撮影パターン画像とのマッチング度を相関で算出して、算出された相関度合いに基づいて、被計測物体の表面からの1次反射光による撮影パターン画像を弁別して取得することができる。   The image processing system according to the present invention correlates the degree of matching between the projection pattern image and the obtained shooting pattern image corresponding to a certain area on the surface of the object to be measured from the projection pattern image and the shooting pattern image. Based on the calculated degree of correlation, it is possible to discriminate and obtain a captured pattern image based on the primary reflected light from the surface of the measured object.

よって、例えば、被計測物体の表面が高光沢でかつ凹状に湾曲している場合に、被計測物体の表面での相互反射等によって、投影パターン像と得られた撮影パターン画像との正しい対応付けができなくなるような不具合を抑制して、被計測物体の表面からの1次反射光のみによる撮影パターン画像を弁別して取得し、3次元形状を精度よく復元することができる。   Therefore, for example, when the surface of the object to be measured is highly glossy and concavely curved, the projection pattern image and the obtained captured pattern image are correctly associated with each other by mutual reflection on the surface of the object to be measured. It is possible to suppress the inconvenience that cannot be performed, discriminate and obtain a captured pattern image based only on the primary reflected light from the surface of the object to be measured, and restore the three-dimensional shape with high accuracy.

実施形態に係る画像処理システムの外観を示す概略図。1 is a schematic diagram showing an appearance of an image processing system according to an embodiment. 実施形態に係る画像処理システムの概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of an image processing system according to an embodiment. プロジェクタの画像投影ユニットの構成を示す概略図。Schematic which shows the structure of the image projection unit of a projector. 被計測物体に投影するパターン像の一例を示す図。The figure which shows an example of the pattern image projected on a to-be-measured object. 被計測物体の一例を示す斜視図。The perspective view which shows an example of a to-be-measured object. パターン像が投影された計測面に対して、カメラで撮影した撮影パターン画像の一例を示す図。The figure which shows an example of the imaging | photography pattern image image | photographed with the camera with respect to the measurement surface where the pattern image was projected. 実施形態の画像処理システムによる画像処理を示すフローチャート。6 is a flowchart illustrating image processing by the image processing system according to the embodiment. 被計測物体の計測面で発生する相互反射を説明するための模式図。The schematic diagram for demonstrating the mutual reflection generate | occur | produced on the measurement surface of a to-be-measured object. 投影パターンと撮影パターン画像との間の対応が正しく求まっていない状態を説明するための模式図。The schematic diagram for demonstrating the state from which the correspondence between a projection pattern and an imaging | photography pattern image is not calculated | required correctly. ある領域に対応するM系列の投影パターンと、得られた各撮影パターン画像の一例を示した図。The figure which showed an example of the projection pattern of M series corresponding to a certain area | region, and each acquired imaging pattern image. 得られた各撮影パターン画像のそれぞれの相関の高さを算出した結果を示した図。The figure which showed the result of having calculated the height of each correlation of each obtained imaging pattern image. 変形例1におけるマッチング処理を説明するための模式図。The schematic diagram for demonstrating the matching process in the modification 1. FIG. 変形例2におけるマッチング処理を説明するための模式図。The schematic diagram for demonstrating the matching process in the modification 2. FIG. (a),(b),(c)は、それぞれ被計測物体に投影するパターン像の他の一例を示す図。(A), (b), (c) is a figure which shows another example of the pattern image each projected on a to-be-measured object.

以下、本発明を図示の実施形態に基づいて説明する。図1は、本実施形態に係る画像処理システムの外観を示す概略図、図2は、この画像処理システムの概略構成を示すブロック図である。   Hereinafter, the present invention will be described based on the illustrated embodiments. FIG. 1 is a schematic diagram showing an external appearance of an image processing system according to the present embodiment, and FIG. 2 is a block diagram showing a schematic configuration of the image processing system.

図1に示すように本実施形態に係る画像処理システム1は、投影手段としてのプロジェクタ2と、撮影手段としてのカメラ3と、画像処理手段としての画像処理装置4とを備えている。画像処理装置4とプロジェクタ2、カメラ3は有線によって接続されている。   As shown in FIG. 1, an image processing system 1 according to the present embodiment includes a projector 2 as a projection unit, a camera 3 as a photographing unit, and an image processing device 4 as an image processing unit. The image processing device 4, the projector 2, and the camera 3 are connected by wire.

プロジェクタ2は、図2に示すように、画像信号入力部11と、画像信号処理部12と、デバイス駆動制御部13と、画像投影ユニット14を主要構成部として備えており、投影像を被計測物体5に対して投影する。プロジェクタ2は、被計測物体5の略正面前方側に配置されている。   As shown in FIG. 2, the projector 2 includes an image signal input unit 11, an image signal processing unit 12, a device drive control unit 13, and an image projection unit 14 as main components, and a projection image is measured. Project to the object 5. The projector 2 is disposed substantially in front of the measured object 5.

画像信号入力部11は、画像処理装置4の画像信号出力部40から出力される画像信号を入力する。画像信号処理部12は、前記画像信号に対して所定の画像処理(例えば、コントラスト、明るさ、彩度、色相、RGBゲイン、シャープネスなどの処理)を施して投影像信号を生成する。デバイス駆動制御部13は、生成された投影像信号に応じて、画像投影ユニット14内のデバイス(光源20、カラーホィール21、MDM素子25(図3参照)など)の駆動制御を行う。   The image signal input unit 11 inputs an image signal output from the image signal output unit 40 of the image processing device 4. The image signal processing unit 12 performs predetermined image processing (for example, processing such as contrast, brightness, saturation, hue, RGB gain, and sharpness) on the image signal to generate a projection image signal. The device drive control unit 13 performs drive control of devices (light source 20, color wheel 21, MDM element 25 (see FIG. 3), etc.) in the image projection unit 14 in accordance with the generated projection image signal.

画像投影ユニット14は、図3に示すように、光源20から出射された白色光は回転するカラーホィール21でRGBの各色の光に変換され、リレーレンズ系22、平面ミラー23、凹面ミラー24等を介して、画像形成素子としての周知のDMD(Digatal Micromirror Device)素子25に入射される。そして、DMD素子25は、各色(RGB)の光の入射タイミングに同期して、その表示画素毎の画像データに基づいて複数の微小ミラーを駆動制御し、前記投影画像信号に応じた投影像を投影光学系26を通して被計測物体5に投影する。被計測物体5に投影する投影像は、本実施形態では例えば、図4に示すようなチェッカーパターン(市松模様)などのパターン像である。   As shown in FIG. 3, the image projection unit 14 converts the white light emitted from the light source 20 into light of each color of RGB by a rotating color wheel 21, and relay lens system 22, plane mirror 23, concave mirror 24, etc. Then, the light is incident on a well-known DMD (Digatal Micromirror Device) element 25 as an image forming element. Then, the DMD element 25 drives and controls a plurality of micromirrors based on image data for each display pixel in synchronization with the incident timing of light of each color (RGB), and generates a projection image corresponding to the projection image signal. Projection is performed on the measurement object 5 through the projection optical system 26. In the present embodiment, the projection image projected onto the measurement object 5 is, for example, a pattern image such as a checker pattern (checkered pattern) as shown in FIG.

カメラ3は、図2に示すように、撮影レンズ30と、CCDなどの固体撮像素子31と、信号処理部32を主要構成部として備えており、撮影レンズ30を通して入射される被計測物体5の被写体像が固体撮像素子31上に結像される。そして、信号処理部32は、固体撮像素子31から出力される電気信号(画素出力信号)を取り込み、所定の信号処理(例えば、シューディング補正、ベイヤー変換、色補正などの処理)を行って表示や記録が可能な画像信号を生成する。カメラ3は、プロジェクタ2と略同一平面上でプロジェクタ2と所定の間隔を設けて被計測物体5側へ向けて配置されている。   As shown in FIG. 2, the camera 3 includes a photographic lens 30, a solid-state imaging device 31 such as a CCD, and a signal processing unit 32 as main components, and the measured object 5 incident through the photographic lens 30. A subject image is formed on the solid-state image sensor 31. Then, the signal processing unit 32 takes in an electrical signal (pixel output signal) output from the solid-state imaging device 31, performs predetermined signal processing (for example, processing such as shoeing correction, Bayer conversion, and color correction) for display. Or an image signal that can be recorded. The camera 3 is arranged toward the measured object 5 with a predetermined distance from the projector 2 on the same plane as the projector 2.

被計測物体5は、本実施形態では例えば、図5に示すような凹状に湾曲した計測面5aを有し、かつその表面が高光沢処理(鏡面処理)された金属部品であり、被計測物体5の計測面5a側にプロジェクタ2からパターン像(例えば、チェッカーパターン)が投影される。なお、被計測物体5としては、図5に示したような凹状に湾曲した計測面5aを有し、かつその表面が高光沢処理(鏡面処理)された金属部品に限らず、計測面が高光沢処理されていれば他の表面形状でも、他の材質でも良い。   In the present embodiment, the object to be measured 5 is, for example, a metal part having a measurement surface 5a curved in a concave shape as shown in FIG. 5 and the surface of which is subjected to high gloss processing (mirror surface processing). 5, a pattern image (for example, a checker pattern) is projected from the projector 2 on the measurement surface 5a side. The object to be measured 5 is not limited to a metal part having a concavely curved measurement surface 5a as shown in FIG. 5 and the surface of which has been subjected to high gloss processing (mirror processing). Other surface shapes or other materials may be used as long as they have been glossed.

画像処理装置4は、カメラ3の信号処理部32から画像信号を入力する画像信号入力部41と、相関算出部42と、1次反射光取得部43と、3次元形状復元処理部44と、表示部45(図1参照)と、画像処理装置4の処理全体を制御する制御部46、及び前記パターン像に応じた画像信号をプロジェクタ2側へ出力する前記画像信号出力部40を主要構成部として備えている。画像処理装置4は、例えばパーソナルコンピュータによって構成されている。   The image processing apparatus 4 includes an image signal input unit 41 that inputs an image signal from the signal processing unit 32 of the camera 3, a correlation calculation unit 42, a primary reflected light acquisition unit 43, a three-dimensional shape restoration processing unit 44, The display unit 45 (see FIG. 1), a control unit 46 that controls the entire processing of the image processing apparatus 4, and the image signal output unit 40 that outputs an image signal corresponding to the pattern image to the projector 2 side are main components. As prepared. The image processing device 4 is configured by a personal computer, for example.

相関算出部42は、画像信号出力部40から取り込んだ投影パターン像と、カメラ3から画像信号入力部41を介して取り込んだ撮影パターン画像(例えば、図6のような撮影画像)とから、被計測物体5の表面のある領域に対応する、得られた撮影パターン画像と投影パターン像とのマッチング度を相関で算出する(相関算出部42の処理動作の詳細は後述する)。   The correlation calculation unit 42 receives the projection pattern image captured from the image signal output unit 40 and the captured pattern image captured from the camera 3 via the image signal input unit 41 (for example, the captured image as shown in FIG. 6). The degree of matching between the obtained captured pattern image and the projected pattern image corresponding to a certain area on the surface of the measurement object 5 is calculated by correlation (details of the processing operation of the correlation calculation unit 42 will be described later).

1次反射光取得部43は、相関算出部42で算出された相関度合いに基づいて、被計測物体5の表面からの1次反射光による撮影パターン画像を弁別して取得する(1次反射光取得部43の処理動作の詳細は後述する)。3次元形状復元処理部44は、1次反射光取得部43で取得した1次反射光による2次元の撮影パターン画像と前記投影パターン像との対応点を算出し、算出した対応点から、計測面5aの3次元形状を復元する。   The primary reflected light acquisition unit 43 discriminates and acquires a captured pattern image based on primary reflected light from the surface of the measurement object 5 based on the degree of correlation calculated by the correlation calculation unit 42 (acquires primary reflected light). Details of the processing operation of the unit 43 will be described later). The three-dimensional shape restoration processing unit 44 calculates corresponding points between the two-dimensional captured pattern image obtained by the primary reflected light acquired by the primary reflected light acquiring unit 43 and the projection pattern image, and measures from the calculated corresponding points. The three-dimensional shape of the surface 5a is restored.

なお、カメラ3で撮影する計測面5aからの1次反射光の成分には、厳密には計測面5aからの2次反射光以上の反射光成分、計測面5aでの多重反射光の成分や散乱光の成分なども僅かに含まれているが、本実施形態では単に「1次反射光」として定義する。   Strictly speaking, the component of the primary reflected light from the measurement surface 5a photographed by the camera 3 includes a reflected light component equal to or higher than the secondary reflected light from the measurement surface 5a, a component of multiple reflected light from the measurement surface 5a, and the like. Although the component of a scattered light etc. is contained slightly, in this embodiment, it defines only as "primary reflected light".

次に、本実施形態に係る画像処理システム1による画像処理を、図7に示すフローチャートを参照して説明する。   Next, image processing by the image processing system 1 according to the present embodiment will be described with reference to a flowchart shown in FIG.

先ず、画像処理装置4の画像信号出力部40からプロジェクタ2の画像信号入力部11に画像信号を出力して、プロジェクタ2からパターン像(例えば、図4に示したようなチェッカーパターン像)を被計測物体5の計測面5aに投影する(ステップS1)。   First, an image signal is output from the image signal output unit 40 of the image processing apparatus 4 to the image signal input unit 11 of the projector 2, and a pattern image (for example, a checker pattern image as shown in FIG. 4) is received from the projector 2. Projection is performed on the measurement surface 5a of the measurement object 5 (step S1).

そして、カメラ3で前記パターン像が投影された計測面5aを撮影する(ステップS2)。この撮影した画像は、例えば、図6に示したような計測面5aにパターン像(チェッカーパターン像)が投影された2次元画像である。撮影した画像は、画像処理装置4内の記憶部(不図示)に記憶される。カメラ3による撮影は、例えば、画像処理装置4からカメラ3への撮影ON信号の入力や、計測者によるカメラ3の撮影ボタンのON操作によって行われる。   Then, the measurement surface 5a on which the pattern image is projected is photographed by the camera 3 (step S2). This captured image is, for example, a two-dimensional image in which a pattern image (checker pattern image) is projected on the measurement surface 5a as shown in FIG. The captured image is stored in a storage unit (not shown) in the image processing device 4. Shooting by the camera 3 is performed by, for example, inputting a shooting ON signal from the image processing device 4 to the camera 3 or turning on the shooting button of the camera 3 by the measurer.

そして、例えば、図6に示したような撮影した画像(プロジェクタ2から計測面5aに、チェッカーパターンのようなパターン像を投影したときの撮影画像)をカメラ3で撮影した場合、この投影されたパターン(以下、「投影パターン」という)とカメラ3で撮影した画像(撮影パターン画像)との対応付けを行う(ステップS3)。本実施形態のようにプロジェクタ2が画像形成素子としてDMD素子25を有している場合、投影パターンと撮影パターン画像との対応付けは、DMD素子25の画素ごとの符号化による周知のマッチング手法によって行うことができる。撮影パターン画像は、画像処理装置4の表示部45に表示することができる。   Then, for example, when a photographed image as shown in FIG. 6 (a photographed image when a pattern image such as a checker pattern is projected from the projector 2 onto the measurement surface 5a) is photographed by the camera 3, this projection is performed. A pattern (hereinafter referred to as “projection pattern”) is associated with an image (captured pattern image) captured by the camera 3 (step S3). When the projector 2 includes the DMD element 25 as an image forming element as in the present embodiment, the projection pattern and the captured pattern image are associated with each other by a known matching method based on the encoding of the DMD element 25 for each pixel. It can be carried out. The captured pattern image can be displayed on the display unit 45 of the image processing device 4.

ところで、本実施形態では、被計測物体5の計測面5aが、凹状に湾曲しかつその表面が高光沢処理(鏡面処理)されているので、例えば、図8に示すように、計測面5aにプロジェクタ2からパターン像(パターン光)Lを投影すると、この計測面5aで1次反射光L1以外にも、相互反射によって2次反射光L2などが発生する。なお、図8では、後の1次反射光取得部43等での処理に悪影響を及ぼす外乱光として、2次反射光L2のみを示したが、これ以外にも計測面5aでの3次以上の反射光、多重反射光、外部光源から入射された光の反射光なども外乱光として挙げられる。   By the way, in this embodiment, since the measurement surface 5a of the measured object 5 is curved in a concave shape and the surface thereof is subjected to high gloss processing (mirror processing), for example, as shown in FIG. When a pattern image (pattern light) L is projected from the projector 2, secondary reflected light L2 and the like are generated by mutual reflection in addition to the primary reflected light L1 on the measurement surface 5a. In FIG. 8, only the secondary reflected light L2 is shown as the disturbance light that adversely affects the processing in the primary reflected light acquisition unit 43 and the like later, but other than this, the third order or higher on the measurement surface 5a. Reflected light, multiple reflected light, reflected light of light incident from an external light source, and the like are also included as disturbance light.

このように、凹状に湾曲しかつその表面が高光沢処理(鏡面処理)された計測面5aにパターン像を投影した場合、図8に示した相互反射等によって、カメラ3で撮影した撮影パターン画像の任意の領域にパターン像の一部が重畳されて、投影パターンと撮影パターン画像との間の対応が正しく求まらない。   In this way, when a pattern image is projected onto the measurement surface 5a that is concavely curved and whose surface is subjected to high gloss processing (mirror surface processing), a captured pattern image captured by the camera 3 by the mutual reflection shown in FIG. A part of the pattern image is superimposed on an arbitrary area of the image, and the correspondence between the projection pattern and the captured pattern image cannot be obtained correctly.

例えば、図6に示した撮影パターン像のうちの任意の領域Aを選択したときに、この領域Aに対応して、例えば図9に示すような投影パターンPが投影されている場合、計測面5aでの相互反射等によって、例えば2つのパターンa,bが発生し、領域Aには、この2つのパターンa,bが重畳されて、例えばパターンcが撮影パターン画像として得られる。よって、投影パターンa(投影パターン像)とパターンd(撮影パターン画像)との間の対応が正しく求まらない。   For example, when an arbitrary area A is selected from the captured pattern image shown in FIG. 6, and a projection pattern P as shown in FIG. For example, two patterns a and b are generated by mutual reflection at 5a, and the two patterns a and b are superimposed on the area A, and for example, a pattern c is obtained as a captured pattern image. Therefore, the correspondence between the projection pattern a (projection pattern image) and the pattern d (photographing pattern image) cannot be obtained correctly.

そこで、本実施形態では、周知のマッチング手法で得られる符号化パターンがM系列の特性を持つように、プロジェクタ2のDMD素子25の動きや個体差と投影パターンとが整合を有するように調整し、撮影した画像のうちの任意の領域における、投影パターンと撮影パターン画像との間のマッチング度を相関で算出する(ステップS4)。ステップS4の処理は、相関算出部42で実行される。   Therefore, in the present embodiment, adjustment is made so that the movement or individual difference of the DMD element 25 of the projector 2 matches the projection pattern so that the coding pattern obtained by a well-known matching method has M-sequence characteristics. The degree of matching between the projection pattern and the captured pattern image in an arbitrary region of the captured image is calculated as a correlation (step S4). The process of step S4 is executed by the correlation calculation unit 42.

なお、上記したプロジェクタ2のDMD素子25の動きや個体差と投影パターンとの整合をとるために、予め白平面へのパターン像(例えば、図6に示したようなチェッカーパターン像)の投影による投影像の符号化のためのキャリブレーションを実施して、M系列に近い系列が出るように調整する。   In order to match the movement of the DMD element 25 of the projector 2 and individual differences with the projection pattern, a pattern image (for example, a checker pattern image as shown in FIG. 6) is projected in advance on the white plane. Calibration for encoding the projected image is performed, and adjustment is performed so that a sequence close to the M sequence appears.

計測面5aでの相互反射等によって投影パターンと撮影パターン画像との間の対応が正しく求まっていない場合(図9参照)に、ステップS4の処理において、例えば、図6に示した撮影パターン画像のうちの任意の領域Aを選択したときに、この領域Aに対応して、例えば図10に示すようなM系列の投影パターンMを投影した場合、マッチング度を相関で算出することで、例えばパターンA,B,Cのようなパターンの撮影パターン画像が得られたとする。   When the correspondence between the projection pattern and the photographic pattern image is not correctly obtained due to mutual reflection or the like on the measurement surface 5a (see FIG. 9), in the process of step S4, for example, the photographic pattern image shown in FIG. When an arbitrary area A is selected, and an M-sequence projection pattern M as shown in FIG. 10 is projected corresponding to the area A, for example, by calculating the matching degree by correlation, for example, the pattern Assume that a captured pattern image having a pattern such as A, B, and C is obtained.

図11は、上記のパターンA,B,Cのそれぞれの相関の高さを算出した結果を示した図である。なお、図11において、横軸は各パターンA,B,Cの位相、縦軸は各パターンA,B,Cの相関の高さである。   FIG. 11 is a diagram showing the results of calculating the respective correlation heights of the patterns A, B, and C described above. In FIG. 11, the horizontal axis represents the phase of each pattern A, B, and C, and the vertical axis represents the correlation height of each pattern A, B, and C.

M系列は高い相関を示すパターンとなるため、図11に示すパターンA,B,CのうちからパターンAを、最も相関の高いパターン(高相関パターン)として算出する(ステップS5)。この最も相関の高いパターンAがマッチング率の最も高いパターンとなるので、相互反射成分等の影響を抑制して計測面5aからの1次反射光のみによる撮影パターン画像を弁別して取得する(ステップS6)。これにより、計測面5aにおける投影パターンと取得した撮影パターン画像とが正しく対応した状態となる。ステップS6の処理は、1次反射光取得部43で実行される。   Since the M series is a pattern showing a high correlation, the pattern A is calculated as the pattern having the highest correlation (high correlation pattern) from the patterns A, B, and C shown in FIG. 11 (step S5). Since the pattern A having the highest correlation is the pattern having the highest matching rate, the captured pattern image by only the primary reflected light from the measurement surface 5a is discriminated and acquired while suppressing the influence of the mutual reflection component or the like (step S6). ). As a result, the projection pattern on the measurement surface 5a and the acquired captured pattern image are correctly associated with each other. The process of step S6 is executed by the primary reflected light acquisition unit 43.

そして、計測面5aにおける投影パターン(投影パターン像)と取得した撮影パターン画像との対応点(座標)を算出し(ステップS7)、算出した対応点(座標)から計測面5aの3次元形状を復元する(ステップS8)。復元された被計測物体5の計測面5aの3次元形状は、画像処理装置4の表示部45に表示することができる。   Then, corresponding points (coordinates) between the projection pattern (projection pattern image) on the measurement surface 5a and the acquired captured pattern image are calculated (step S7), and the three-dimensional shape of the measurement surface 5a is calculated from the calculated corresponding points (coordinates). Restoration is performed (step S8). The restored three-dimensional shape of the measurement surface 5 a of the measured object 5 can be displayed on the display unit 45 of the image processing device 4.

このように、本実施形態によれば、投影パターン像と撮影パターン画像とから、被計測物体5の計測面5aのある領域に対応する、投影パターン像と得られた撮影パターン画像とのマッチング度を相関で算出して、算出された相関度合いに基づいて、被計測物体5の計測面5aからの1次反射光による撮影パターン画像を弁別して取得することができる。   Thus, according to the present embodiment, the degree of matching between the projection pattern image and the obtained shooting pattern image corresponding to a certain area of the measurement surface 5a of the measurement target object 5 from the projection pattern image and the shooting pattern image. Can be discriminated and acquired based on the calculated degree of correlation, and the captured pattern image by the primary reflected light from the measurement surface 5a of the measured object 5 can be discriminated.

よって、本実施形態のように、被計測物体5の計測面5aが高光沢でかつ凹状に湾曲している場合に、被計測物体5の計測面5aでの相互反射等によって、投影されたパターン像と撮影パターン画像との正しい対応付けができなくなるような不具合を抑制して、計測面5aの3次元形状を精度よく復元することができる。   Therefore, when the measurement surface 5a of the measurement object 5 is highly glossy and concavely curved as in this embodiment, the pattern projected by mutual reflection or the like on the measurement surface 5a of the measurement object 5 It is possible to accurately restore the three-dimensional shape of the measurement surface 5a by suppressing problems that prevent the image and the captured pattern image from being correctly associated.

<変形例1>
上記した実施形態では図10、図11に示したように、マッチング度を相関で算出することで、相関の高いマッチングを行うようにしたが、マッチングの精度をより高めるために、例えば、図12に示す変形例1のように、撮影パターン画像に対してエピポーラ幾何を用いて、マッチング度を相関で算出する際の領域(例えば、図12では、エピポーラ線E上の3つの領域M1,M2,M3)を限定して、限定した各領域のうちから最も相関の高い領域を算出するようにしてもよい。
<Modification 1>
In the above embodiment, as shown in FIG. 10 and FIG. 11, the matching degree is calculated by correlation to perform matching with high correlation. However, in order to further improve matching accuracy, for example, FIG. As shown in the first modification example, the region when the matching degree is calculated by correlation using the epipolar geometry for the captured pattern image (for example, three regions M1, M2, and M3 on the epipolar line E in FIG. 12). M3) may be limited, and a region having the highest correlation among the limited regions may be calculated.

図12に示したようなエピポーラ線Eは、幾何的にキャリブレーションされた画像処理システム1のプロジェクタ2とカメラ3の配置位置から、基礎行列から算出ことが可能である。   The epipolar line E as shown in FIG. 12 can be calculated from the basic matrix from the arrangement positions of the projector 2 and the camera 3 of the geometrically calibrated image processing system 1.

このように、撮影パターン画像に対してエピポーラ幾何を用いて、マッチング度を相関で算出する際の領域を限定することで、マッチングの精度がより向上し、更に、不要な領域でのマッチング計算が不要となるので計算効率の向上を図ることができる。   In this way, by using the epipolar geometry for the captured pattern image and limiting the area when calculating the degree of matching by correlation, the accuracy of matching is further improved, and further, matching calculation in unnecessary areas can be performed. Since it becomes unnecessary, the calculation efficiency can be improved.

<変形例2>
変形例1では、撮影パターン画像に対してエピポーラ幾何を用いて、マッチング度を相関で算出する際の領域を限定するようにしたが、例えば図13に示すように、エピポーラ線E上で、外乱光等の影響によってエラー位置だがマッチング度が高相関を示す領域M4(以下、「エラー領域M4」という)と、マッチング度の相関がエラー領域M4よりもやや低いがマッチングの正解領域M5とが算出されることがある。この場合、相関の高さでマッチング度を判断すると、正解領域M5ではなくエラー領域M4を採用して、マッチングエラーが発生することがある。エラー領域M4の方が採用された場合には、3次元形状の復元精度が低下する。
<Modification 2>
In Modification 1, epipolar geometry is used for the captured pattern image to limit the area for calculating the degree of matching by correlation. For example, as shown in FIG. A region M4 (hereinafter referred to as “error region M4”) in which the error position is highly correlated due to the influence of light or the like, and a matching correct region M5 in which the correlation of the matching degree is slightly lower than the error region M4 are calculated. It may be done. In this case, if the degree of matching is determined based on the level of correlation, a matching error may occur using the error region M4 instead of the correct solution region M5. When the error area M4 is adopted, the restoration accuracy of the three-dimensional shape is lowered.

そこで、変形例2では、このようなマッチングエラーを防止するために、計測面5aにおける投影パターン(投影パターン像)と、エラー領域M4と正解領域M5に対応して取得した各撮影パターン画像との対応点(座標)を算出し、算出した対応点(座標)から計測面5aの3次元形状を復元する。   Therefore, in the second modification, in order to prevent such a matching error, a projection pattern (projection pattern image) on the measurement surface 5a, and each captured pattern image acquired corresponding to the error region M4 and the correct region M5 are used. Corresponding points (coordinates) are calculated, and the three-dimensional shape of the measurement surface 5a is restored from the calculated corresponding points (coordinates).

次に、エラー領域M4と正解領域M5に対して、どちらが正しい領域かを判定するために、制御部46は、前記復元した3次元形状の3次元点位置から透視投影変換により得た2次元座標系での3次元位置に対応する座標と、計測面5aにおける投影パターン(投影パターン像)のパターン座標との誤差を判定する。この誤差判定で、誤差が予め設定した閾値よりも小さい方(即ち、正解領域M1)を正常な位置として決定する。   Next, in order to determine which of the error area M4 and the correct answer area M5 is the correct area, the control unit 46 obtains two-dimensional coordinates obtained by perspective projection conversion from the three-dimensional point position of the restored three-dimensional shape. An error between the coordinates corresponding to the three-dimensional position in the system and the pattern coordinates of the projection pattern (projection pattern image) on the measurement surface 5a is determined. In this error determination, the smaller error (that is, the correct answer area M1) is determined as a normal position.

このように、エピポーラ線E上で、外乱光等の影響によってエラー位置だがマッチング度が高相関を示すエラー領域M4が算出された場合でも、このエラー領域M4を採用することなく、正解領域M5を採用することができるので、1次反射光のみを弁別して精度よく3次元形状を復元することができる。   In this way, even when the error region M4 is calculated on the epipolar line E due to the influence of disturbance light or the like but the matching degree shows a high correlation, the correct region M5 is selected without adopting the error region M4. Since it can be employed, only the primary reflected light can be discriminated and the three-dimensional shape can be accurately restored.

なお、前記した実施形態では、計測面5aに投影するパターン像として、チェッカーパターン像を採用した例であったが、これに限らず、例えば、図14(a),(b),(c)にそれぞれ示すような、全体がダークグレーの格子状パターン像、ダークグレーのドットパターン像、グラデーション像などでもよい。図14(c)に示したグラデーション像は、上から下に向けて濃いめのダークトーンからハイトーンのグラデーションである。   In the above-described embodiment, the checker pattern image is used as the pattern image projected onto the measurement surface 5a. However, the present invention is not limited to this. For example, FIGS. 14 (a), 14 (b), and 14 (c). As shown in FIG. 6, the entire pattern may be a dark gray lattice pattern image, a dark gray dot pattern image, a gradation image, or the like. The gradation image shown in FIG. 14C is a dark tone to high tone gradation from darker to darker from the top to the bottom.

また、前記した実施形態では、プロジェクタ2とカメラ3が別体で所定の間隔を設けて配置された構成であったが、プロジェクタ2の外面(例えば上面)にカメラ3を一体的に配置した構成でもよい。更に、画像処理装置4とプロジェクタ2、カメラ3とを、無線通信網で構築されたネットワークを介して接続した構成でもよい。   Further, in the above-described embodiment, the projector 2 and the camera 3 are separately arranged with a predetermined interval. However, the camera 3 is integrally arranged on the outer surface (for example, the upper surface) of the projector 2. But you can. Furthermore, a configuration in which the image processing apparatus 4, the projector 2, and the camera 3 are connected via a network constructed by a wireless communication network may be employed.

1 画像処理システム
2 プロジェクタ
3 カメラ
4 画像処理装置
5 被計測物体
5a 計測面
14 画像投影ユニット
25 DMD素子
30 撮影レンズ
31 固体撮像素子
32 信号処理部
42 相関算出部
43 1次反射光取得部
44 3次元形状復元処理部
E エピポーラ線
DESCRIPTION OF SYMBOLS 1 Image processing system 2 Projector 3 Camera 4 Image processing apparatus 5 Object to be measured 5a Measurement surface 14 Image projection unit 25 DMD element 30 Shooting lens 31 Solid-state image sensor 32 Signal processing part 42 Correlation calculation part 43 Primary reflected light acquisition part 44 3 Dimensional shape restoration processing section E Epipolar line

特許第4077754号公報Japanese Patent No. 4077754

Claims (7)

被計測物体の表面に所定のパターン像を投影する投影手段と、前記被計測物体に投影された前記パターン像を撮影して、撮影パターン画像を取得する撮影手段と、前記被計測物体に投影した投影パターン像と前記撮影パターン画像とを取り込み、前記投影パターン像と前記撮影パターン画像との対応点を算出し、算出した対応点から前記被計測物体の3次元形状を復元する画像処理手段と、を備えた画像処理システムにおいて、
前記画像処理手段は、取り込んだ前記投影パターン像と前記撮影パターン画像とから、前記被計測物体の表面のある領域に対応する、投影パターン像と得られた撮影パターン画像とのマッチング度を相関で算出する相関算出部と、
前記相関算出部で算出された相関度合いに基づいて、前記被計測物体の表面からの1次反射光による撮影パターン画像を弁別して取得する1次反射光取得部と、を有していることを特徴とする画像処理システム。
Projecting means for projecting a predetermined pattern image on the surface of the object to be measured, photographing means for photographing the pattern image projected on the object to be measured and obtaining a photographed pattern image, and projecting on the object to be measured Image processing means for capturing a projection pattern image and the captured pattern image, calculating corresponding points between the projected pattern image and the captured pattern image, and restoring the three-dimensional shape of the measured object from the calculated corresponding points; In an image processing system comprising:
The image processing means correlates a degree of matching between the projection pattern image obtained and the captured pattern image corresponding to a certain area on the surface of the object to be measured from the captured projection pattern image and the captured pattern image. A correlation calculation unit to calculate;
A primary reflected light acquisition unit that discriminates and acquires a captured pattern image based on primary reflected light from the surface of the measurement object based on the degree of correlation calculated by the correlation calculation unit. A featured image processing system.
前記投影手段から投影パターン像を前記被計測物体に投影して、前記投影パターン像に対して複数の撮影パターン画像が得られた場合に、前記相関算出部は、最も相関の高いパターンに相当する撮影パターン画像をマッチング度が最も高いパターンとして算出することを特徴とする請求項1に記載の画像処理システム。   When a projection pattern image is projected from the projection unit onto the measurement object and a plurality of captured pattern images are obtained with respect to the projection pattern image, the correlation calculation unit corresponds to the pattern having the highest correlation. The image processing system according to claim 1, wherein the captured pattern image is calculated as a pattern having the highest matching degree. 前記1次反射光取得部は、前記相関算出部で算出されたマッチング度が最も高いパターンの撮影パターン画像を、前記被計測物体の表面からの1次反射光による撮影パターン画像として弁別して取得することを特徴とする請求項2に記載の画像処理システム。   The primary reflected light acquisition unit discriminates and acquires a captured pattern image of a pattern having the highest matching degree calculated by the correlation calculating unit as a captured pattern image by primary reflected light from the surface of the measurement object. The image processing system according to claim 2. 前記相関算出部は、得られた撮影パターン画像に対して幾何計算を用いて、マッチング度を相関で算出する際の領域を所定数に限定して、限定した各領域のうちから最も相関の高い領域を、マッチング度が最も高い撮影パターン画像として算出することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理システム。   The correlation calculation unit uses geometric calculation on the obtained captured pattern image to limit the number of matching areas to a predetermined number, and has the highest correlation among the limited areas. 4. The image processing system according to claim 1, wherein the region is calculated as a captured pattern image having the highest degree of matching. 5. 前記投影パターン像と前記相関算出部で算出した前記撮影パターン画像との対応点を算出し、算出した対応点から前記被計測物体の3次元形状を復元した後に、前記3次元形状の3次元点位置から透視投影変換により得た2次元座標系での3次元位置に対応する座標と、前記投影パターン像のパターン座標との誤差を判定して、誤差が所定範囲内であれば算出した3次元形状の復元精度が高いと判定することを特徴とする請求項1乃至4のいずれか一項に記載の画像処理システム。   After calculating a corresponding point between the projection pattern image and the captured pattern image calculated by the correlation calculation unit, and restoring the three-dimensional shape of the measured object from the calculated corresponding point, the three-dimensional point of the three-dimensional shape The error between the coordinates corresponding to the three-dimensional position in the two-dimensional coordinate system obtained by perspective projection conversion from the position and the pattern coordinates of the projection pattern image is determined, and the calculated three-dimensional if the error is within a predetermined range The image processing system according to claim 1, wherein it is determined that the shape restoration accuracy is high. 前記被計測物体の計測面は、高光沢であることを特徴とする請求項1乃至5のいずれか一項に記載の画像処理システム。   The image processing system according to claim 1, wherein a measurement surface of the object to be measured has high gloss. 被計測物体の表面に所定のパターン像を投影する投影手段と、前記被計測物体に投影された前記パターン像を撮影して、撮影パターン画像を取得する撮影手段と、前記被計測物体に投影した投影パターン像と前記撮影パターン画像とを取り込み、前記投影パターン像と前記撮影パターン画像との対応点を算出し、算出した対応点から前記被計測物体の3次元形状を復元する画像処理手段と、を備えた画像処理システムの画像処理方法において、
取り込んだ前記投影パターン像と前記撮影パターン画像とから、前記被計測物体の表面のある領域に対応する、投影パターン像と得られた撮影パターン画像とのマッチング度を相関で算出する第1ステップと、
前記第1ステップで算出された相関度合いに基づいて、前記被計測物体の表面からの1次反射光による撮影パターン画像を弁別して取得する第2ステップと、を含んでいることを特徴とする画像処理方法。
Projecting means for projecting a predetermined pattern image on the surface of the object to be measured, photographing means for photographing the pattern image projected on the object to be measured and obtaining a photographed pattern image, and projecting on the object to be measured Image processing means for capturing a projection pattern image and the captured pattern image, calculating corresponding points between the projected pattern image and the captured pattern image, and restoring the three-dimensional shape of the measured object from the calculated corresponding points; In an image processing method of an image processing system comprising:
A first step of calculating a degree of matching between a projection pattern image and an obtained shooting pattern image corresponding to a certain area on the surface of the object to be measured from a correlation between the captured projection pattern image and the shooting pattern image; ,
And a second step of discriminating and obtaining a captured pattern image by primary reflected light from the surface of the measurement object based on the degree of correlation calculated in the first step. Processing method.
JP2015102009A 2015-05-19 2015-05-19 Image processing system and image processing method Pending JP2016217833A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015102009A JP2016217833A (en) 2015-05-19 2015-05-19 Image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015102009A JP2016217833A (en) 2015-05-19 2015-05-19 Image processing system and image processing method

Publications (1)

Publication Number Publication Date
JP2016217833A true JP2016217833A (en) 2016-12-22

Family

ID=57580668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015102009A Pending JP2016217833A (en) 2015-05-19 2015-05-19 Image processing system and image processing method

Country Status (1)

Country Link
JP (1) JP2016217833A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019090782A (en) * 2017-06-20 2019-06-13 株式会社ミツトヨ Three-dimensional shape measuring device and three-dimensional shape measuring method
JP2020020640A (en) * 2018-07-31 2020-02-06 株式会社デンソーアイティーラボラトリ Three-dimensional shape measuring system, three-dimensional shape measuring method, and three-dimensional shape measuring program
JP2020024200A (en) * 2018-08-02 2020-02-13 オムロン株式会社 Measurement system and measurement method
US10627709B2 (en) 2018-06-29 2020-04-21 Ricoh Company, Ltd. Light source, projection device, measurement device, robot, electronic device, mobile object, and shaping apparatus
JP2021018219A (en) * 2019-07-24 2021-02-15 株式会社デンソーアイティーラボラトリ Three-dimensional shape measurement system, three-dimensional shape measurement method, and three-dimensional shape measurement program
US11555926B2 (en) 2018-08-27 2023-01-17 Ricoh Company, Ltd. Optical device, measurement device, robot, electronic apparatus, mobile object, and shaping device
US11698575B2 (en) 2020-11-02 2023-07-11 Seiko Epson Corporation Projective transformation matrix determination method, projector, and determination system
JP7604972B2 (en) 2021-03-23 2024-12-24 株式会社リコー Inspection device, inspection system and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019090782A (en) * 2017-06-20 2019-06-13 株式会社ミツトヨ Three-dimensional shape measuring device and three-dimensional shape measuring method
JP7186019B2 (en) 2017-06-20 2022-12-08 株式会社ミツトヨ Three-dimensional shape measuring device and three-dimensional shape measuring method
US10627709B2 (en) 2018-06-29 2020-04-21 Ricoh Company, Ltd. Light source, projection device, measurement device, robot, electronic device, mobile object, and shaping apparatus
JP2020020640A (en) * 2018-07-31 2020-02-06 株式会社デンソーアイティーラボラトリ Three-dimensional shape measuring system, three-dimensional shape measuring method, and three-dimensional shape measuring program
JP2020024200A (en) * 2018-08-02 2020-02-13 オムロン株式会社 Measurement system and measurement method
JP7243513B2 (en) 2018-08-02 2023-03-22 オムロン株式会社 Measuring system and measuring method
US11555926B2 (en) 2018-08-27 2023-01-17 Ricoh Company, Ltd. Optical device, measurement device, robot, electronic apparatus, mobile object, and shaping device
JP2021018219A (en) * 2019-07-24 2021-02-15 株式会社デンソーアイティーラボラトリ Three-dimensional shape measurement system, three-dimensional shape measurement method, and three-dimensional shape measurement program
US11698575B2 (en) 2020-11-02 2023-07-11 Seiko Epson Corporation Projective transformation matrix determination method, projector, and determination system
JP7604972B2 (en) 2021-03-23 2024-12-24 株式会社リコー Inspection device, inspection system and program

Similar Documents

Publication Publication Date Title
JP2016217833A (en) Image processing system and image processing method
JP7350343B2 (en) Method and system for generating three-dimensional images of objects
JP5834615B2 (en) PROJECTOR, ITS CONTROL METHOD, ITS PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP5961945B2 (en) Image processing apparatus, projector and projector system having the image processing apparatus, image processing method, program thereof, and recording medium recording the program
KR102073205B1 (en) 3D scanning method and scanner including multiple different wavelength lasers
US10782126B2 (en) Three-dimensional scanning method containing multiple lasers with different wavelengths and scanner
JP6112769B2 (en) Information processing apparatus and information processing method
JP5849522B2 (en) Image processing apparatus, projector, projector system, image processing method, program thereof, and recording medium recording the program
JP6532325B2 (en) Measuring device for measuring the shape of the object to be measured
CN107808398B (en) Camera parameter calculation device, calculation method, program, and recording medium
JP2015171077A (en) Projection image correction device, method for correcting original image to be projected, and program
US10713810B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP6282377B2 (en) Three-dimensional shape measurement system and measurement method thereof
JP4193342B2 (en) 3D data generator
JP2023115356A (en) Measuring device, imaging device, control method and program
JP7028814B2 (en) External shape recognition device, external shape recognition system and external shape recognition method
JP2018044942A (en) Camera parameter calculation device, camera parameter calculation method, program and recording medium
JP2021127998A (en) Distance information acquisition device and distance information acquisition method
JP5122729B2 (en) 3D shape measurement method
KR20200032442A (en) 3D information generating device and method capable of self-calibration
JP5967470B2 (en) Inspection device
US11195290B2 (en) Apparatus and method for encoding in structured depth camera system
JP5968370B2 (en) Three-dimensional measuring apparatus, three-dimensional measuring method, and program
JP2011252835A (en) Three dimensional shape measuring device
WO2023007625A1 (en) Three-dimensional measurement system, device, method, and program