JP2021018081A - Imaging apparatus, measuring device, and measuring method - Google Patents

Imaging apparatus, measuring device, and measuring method Download PDF

Info

Publication number
JP2021018081A
JP2021018081A JP2019132206A JP2019132206A JP2021018081A JP 2021018081 A JP2021018081 A JP 2021018081A JP 2019132206 A JP2019132206 A JP 2019132206A JP 2019132206 A JP2019132206 A JP 2019132206A JP 2021018081 A JP2021018081 A JP 2021018081A
Authority
JP
Japan
Prior art keywords
filter
light
filter piece
level
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019132206A
Other languages
Japanese (ja)
Inventor
和洋 米田
Kazuhiro Yoneda
和洋 米田
芳彦 三木
Yoshihiko Miki
芳彦 三木
直紀 福岡
Naoki Fukuoka
直紀 福岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019132206A priority Critical patent/JP2021018081A/en
Publication of JP2021018081A publication Critical patent/JP2021018081A/en
Pending legal-status Critical Current

Links

Abstract

To prevent a whiteout or black crushing in a photographed image of an object without increasing the number of times of photography and without increasing the size of a system.SOLUTION: An imaging apparatus is used which has a filter unit that includes a plurality of filter piece parts different in extinction ratio of light, and a plurality of light receiving elements that each receive the light passing through the filter piece parts and each output a light receiving signal corresponding to information on the received light. The imaging apparatus irradiates an object with light of a predetermined projection pattern, and measures depth information on the object by selectively using the light receiving signals through the filter piece parts different in extinction ratio in the imaging apparatus. Thus, light receiving signals in a number of filters different in extinction ratio (light receiving signals different in exposure amount) can be obtained in single photography. Consequently, a whiteout or black crushing in a photographed image of the object can be prevented, while preventing an increase in the number of times of photography and preventing an increase in size of a system.SELECTED DRAWING: Figure 21

Description

本発明は、撮像装置、計測装置、及び、計測方法に関する。 The present invention relates to an imaging device, a measuring device, and a measuring method.

近年、接触式又は非接触式で物体の表面形状を測定する3次元形状計測装置が知られている。接触式の3次元形状計測装置の場合、計測対象物にセンサを接触させながら座標を測定するため、多少、計測に時間を要するが、高い精度での計測を可能とすることができる。これに対して、非接触式の3次元形状計測装置は、精度としては接触式に多少劣るが、短時間で測定を行うことができる。このため、現在は、接触式の3次元形状計測装置よりも、非接触式の3次元形状計測装置の方が多く用いられている。 In recent years, a three-dimensional shape measuring device for measuring the surface shape of an object by a contact type or a non-contact type has been known. In the case of a contact-type three-dimensional shape measuring device, since the coordinates are measured while the sensor is in contact with the object to be measured, it takes some time to measure, but it is possible to measure with high accuracy. On the other hand, the non-contact type three-dimensional shape measuring device is slightly inferior to the contact type in terms of accuracy, but can measure in a short time. For this reason, non-contact three-dimensional shape measuring devices are currently used more often than contact-type three-dimensional shape measuring devices.

「非接触式」としては、光切断法、ステレオ法又はTOF(Time of Flight)等、多くの計測方式が知られている。その中でも、三角測量を用いた計測方式として、2台のカメラ装置を用いたパッシブステレオ法(ステレオカメラ)、及び、プロジェクタ装置を用いてスリット光又はパターン光を投影した計測対象物をカメラ装置で撮像するアクティブステレオ法が知られている。プロジェクタ装置の光源としては、例えば面発光型レーザ(VCSEL:Vertical Cavity Surface Emitting Laser)等の半導体レーザが用いられる。 As the "non-contact type", many measurement methods such as an optical cutting method, a stereo method, and a TOF (Time of Flight) are known. Among them, as a measurement method using triangulation, a passive stereo method (stereo camera) using two camera devices and a measurement object in which slit light or pattern light is projected using a projector device are measured by the camera device. The active stereo method for imaging is known. As the light source of the projector device, for example, a semiconductor laser such as a Vertical Cavity Surface Emitting Laser (VCSEL) is used.

アクティブステレオ法の場合、自身で計測対象物への投光を行うため、特徴のない平らな3次元形状の計測対象物の3次元計測も可能とすることができる他、投光輝度を上げることで、反射光が得づらい暗物体も計測できる。このため、アクティブステレオ法で3次元計測を行う3次元形状計測装置は、例えばロボット等の産業用FA(Factory Automation)に多く用いられている。 In the case of the active stereo method, since the light is projected onto the measurement object by itself, it is possible to perform three-dimensional measurement of the measurement object having a flat three-dimensional shape without features, and to increase the projection brightness. Therefore, it is possible to measure dark objects for which it is difficult to obtain reflected light. Therefore, a three-dimensional shape measuring device that performs three-dimensional measurement by the active stereo method is often used for industrial FA (Factory Automation) such as a robot.

一方、特許文献1(特開2013−157360号公報)には、位相シフト法を用いて計測対象物の三次元形状を認識する際に、撮像部のカメラレンズに異なる減光率を有するND(Neutral Density)フィルタを用いることで、白飛び又は黒潰れの発生を防止した実装基板生産装置が開示されている。 On the other hand, in Patent Document 1 (Japanese Unexamined Patent Publication No. 2013-157360), when the three-dimensional shape of the measurement object is recognized by using the phase shift method, the camera lens of the imaging unit has a different dimming rate (ND). A mounting substrate production apparatus that prevents the occurrence of overexposure or underexposure by using a Neutral Density filter is disclosed.

しかし、実際の計測対象物は、形状、材質及び表面状態等は様々であり、一つの物体であっても、計測場所により大きく反射率が異なる物も存在する。この場合、テストプレート等、反射率が均一な物体を計測する場合に比べ、撮影画像データの輝度値の最小値と最大値の幅が大きくなる。このため、投影する光の光量を変化させる位相シフト法では、撮影画像に白飛び又は黒潰れが発生する。 However, the actual measurement target has various shapes, materials, surface conditions, and the like, and even if it is one object, there is an object whose reflectance greatly differs depending on the measurement location. In this case, the width between the minimum value and the maximum value of the luminance value of the captured image data is larger than that in the case of measuring an object having a uniform reflectance such as a test plate. Therefore, in the phase shift method in which the amount of projected light is changed, overexposure or underexposure occurs in the captured image.

撮影画像の白飛び又は黒潰れの発生を防止するために、カメラの露光時間を変えて複数回撮影する手法が知られているが、この手法の場合、撮影回数が増加する問題がある。また、入射光の光路を分岐して2つの撮像素子で撮影する手法が知られているが、この手法の場合、システムが大型化し、また、コスト高となる問題がある。 A method of taking a plurality of shots by changing the exposure time of the camera is known in order to prevent overexposure or underexposure of the shot image, but this method has a problem that the number of shots increases. Further, a method of branching the optical path of incident light and taking an image with two image pickup elements is known, but in this method, there is a problem that the system becomes large and the cost becomes high.

特許文献1に開示されている実装基板生産装置の場合も同様であり、計測対象物又はカメラの移動機構が必要となるため、システムが大型化し、また、コスト高となる問題がある。 The same applies to the mounting board production apparatus disclosed in Patent Document 1, and since a moving mechanism for a measurement object or a camera is required, there is a problem that the system becomes large and the cost increases.

本発明は、上述の課題に鑑みてなされたものであり、撮影回数を増加させず、また、システムを大型化することなく、対象物の撮影画像の白飛び又は黒潰れを防止可能とした撮像装置、計測装置、及び、計測方法の提供を目的とする。 The present invention has been made in view of the above-mentioned problems, and is capable of preventing overexposure or underexposure of a photographed image of an object without increasing the number of times of photography and increasing the size of the system. An object of the present invention is to provide an apparatus, a measuring apparatus, and a measuring method.

上述した課題を解決し、目的を達成するために、本発明は、光の減光率が異なる複数のフィルタ片部を備えたフィルタ部と、各フィルタ片部を透過した各光をそれぞれ受光し、受光した光の情報に対応する受光信号をそれぞれ出力する複数の受光素子とを有する。 In order to solve the above-mentioned problems and achieve the object, the present invention receives a filter unit having a plurality of filter pieces having different light dimming rates and each light transmitted through each filter piece. It has a plurality of light receiving elements that output light receiving signals corresponding to the information of the received light.

本発明によれば、撮影回数を増加させず、また、システムを大型化することなく、対象物の撮影画像の白飛び又は黒潰れを防止できるという効果を奏する。 According to the present invention, it is possible to prevent overexposure or underexposure of a photographed image of an object without increasing the number of times of photographing and without increasing the size of the system.

図1は、第1の実施の形態となる3次元形状計測装置の要部の構成図である。FIG. 1 is a configuration diagram of a main part of a three-dimensional shape measuring device according to the first embodiment. 図2は、第1の実施の形態となる3次元形状計測装置に設けられている光学装置による計測対象物への光投影の様子を示す図である。FIG. 2 is a diagram showing a state of light projection onto a measurement object by an optical device provided in the three-dimensional shape measuring device according to the first embodiment. 図3は、VCSELチップの構成の一例を示す図である。FIG. 3 is a diagram showing an example of the configuration of the VCSEL chip. 図4は、VCSELチップの他の構成を示す図である。FIG. 4 is a diagram showing another configuration of the VCSEL chip. 図5は、光学装置の光学系の一例を示す図である。FIG. 5 is a diagram showing an example of an optical system of an optical device. 図6は、光学装置の光学系の他の一例を示す図である。FIG. 6 is a diagram showing another example of the optical system of the optical device. 図7は、光学装置の光学系の他の一例を示す図である。FIG. 7 is a diagram showing another example of the optical system of the optical device. 図8は、光学装置の光学系の他の一例を示す図である。FIG. 8 is a diagram showing another example of the optical system of the optical device. 図9は、光学装置の光学系の他の一例を示す図である。FIG. 9 is a diagram showing another example of the optical system of the optical device. 図10は、光学装置の光学系の他の一例を示す図である。FIG. 10 is a diagram showing another example of the optical system of the optical device. 図11は、光偏向素子の一例であるMEMSミラーの構成を示す図である。FIG. 11 is a diagram showing a configuration of a MEMS mirror which is an example of an optical deflection element. 図12は、光偏向素子の一例であるポリゴンミラーの構成を示す図である。FIG. 12 is a diagram showing a configuration of a polygon mirror which is an example of an optical deflection element. 図13は、カメラの構成を示す図である。FIG. 13 is a diagram showing the configuration of the camera. 図14は、3次元形状計測装置のブロック図である。FIG. 14 is a block diagram of the three-dimensional shape measuring device. 図15は、位相シフト法を用いた計測について説明するための図である。FIG. 15 is a diagram for explaining measurement using the phase shift method. 図16は、光切断法を用いた計測について説明するための図である。FIG. 16 is a diagram for explaining measurement using the optical cutting method. 図17は、第1の実施の形態の三次元計測装置において、計測対象物の三次元計測を行っている様子を示す図である。FIG. 17 is a diagram showing a state in which three-dimensional measurement of a measurement object is performed in the three-dimensional measuring device of the first embodiment. 図18は、光学装置10から測定対象物に照射される正弦波縞パターンの一例を示す図である。FIG. 18 is a diagram showing an example of a sinusoidal fringe pattern irradiated from the optical device 10 to the object to be measured. 図19は、白飛びが生じている撮像画像の一例を示す図である。FIG. 19 is a diagram showing an example of a captured image in which overexposure occurs. 図20は、CMOSイメージセンサの画素の等価回路図である。FIG. 20 is an equivalent circuit diagram of the pixels of the CMOS image sensor. 図21は、第1の実施の形態の3次元計測装置において、カメラ装置の撮像素子上に設けられているNDフィルタを説明するための斜視図である。FIG. 21 is a perspective view for explaining an ND filter provided on an image sensor of a camera device in the three-dimensional measuring device of the first embodiment. 図22は、第1の実施の形態の3次元計測装置における三次元測定動作の流れを示すフローチャートである。FIG. 22 is a flowchart showing the flow of the three-dimensional measurement operation in the three-dimensional measuring device according to the first embodiment. 図23は、第2の実施の形態となるロボットアームの斜視図である。FIG. 23 is a perspective view of the robot arm according to the second embodiment. 図24は、第3の実施の形態となるスマートフォンの斜視図である。FIG. 24 is a perspective view of a smartphone according to the third embodiment. 図25は、第4の実施の形態となる自動車の車内の斜視図である。FIG. 25 is a perspective view of the inside of the automobile according to the fourth embodiment. 図26は、第4の実施の形態において、自律型の移動体に3次元計測装置を設けた例を示す図である。FIG. 26 is a diagram showing an example in which a three-dimensional measuring device is provided on an autonomous moving body in the fourth embodiment. 図27は、第5の実施の形態となる3次元プリンタ装置の要部の斜視図である。FIG. 27 is a perspective view of a main part of the three-dimensional printer device according to the fifth embodiment.

以下、撮像装置、計測装置、及び、計測方法の実施の形態を説明する。 Hereinafter, embodiments of an imaging device, a measuring device, and a measuring method will be described.

[第1の実施の形態]
まず、第1の実施の形態は、3次元形状計測装置に対する適用例である。図1は、この第1の実施の形態となる3次元形状計測装置の要部の構成図である。この図1に示すように、第1の実施の形態の3次元形状計測装置1は、計測情報取得ユニット20及び制御ユニット30を有している。
[First Embodiment]
First, the first embodiment is an application example to a three-dimensional shape measuring device. FIG. 1 is a configuration diagram of a main part of the three-dimensional shape measuring device according to the first embodiment. As shown in FIG. 1, the three-dimensional shape measuring device 1 of the first embodiment has a measurement information acquisition unit 20 and a control unit 30.

(計測情報取得ユニットの構成)
計測情報取得ユニット20は、投影部である光学装置10及び撮像部であるカメラ21を有している。光学装置10は、VCSEL(Vertical Cavity Surface Emitting Laser:面発光型レーザ)チップ11、ラインジェネレータ12(光学系)及び光偏向素子(ミラー)13を有している。
(Configuration of measurement information acquisition unit)
The measurement information acquisition unit 20 has an optical device 10 which is a projection unit and a camera 21 which is an imaging unit. The optical device 10 includes a VCSEL (Vertical Cavity Surface Emitting Laser) chip 11, a line generator 12 (optical system), and a light deflection element (mirror) 13.

計測情報取得ユニット20は、制御ユニット30の制御部31の制御に従い動作する。例えば、VCSELチップ11の複数の発光素子aを光発振させ、ラインジェネレータ12を介して出射された光を、光偏向素子13で偏向して計測対象を走査する。制御部31は、光走査中にVCSELチップ11の各発光素子aの出射タイミング及び強度等を制御することで、計測対象物の全体にパターン光を投影する。例えば、発光素子aをオンオフ制御することで、白黒のグレイコードパターン等の所望の投影パターンを計測対象物に投影できる。 The measurement information acquisition unit 20 operates under the control of the control unit 31 of the control unit 30. For example, a plurality of light emitting elements a of the VCSEL chip 11 are optically oscillated, and the light emitted through the line generator 12 is deflected by the optical deflection element 13 to scan the measurement target. The control unit 31 projects pattern light onto the entire measurement object by controlling the emission timing and intensity of each light emitting element a of the VCSEL chip 11 during optical scanning. For example, by controlling the light emitting element a on and off, a desired projection pattern such as a black and white Gray code pattern can be projected onto the measurement object.

カメラ21は、投影パターンの投影領域を撮像するように、設置位置及び撮影角度が固定されている。具体的には、カメラ21は、光学装置10(照射部の一例)が投影するパターン光(投影画像)の投影中心300が、計測対象位置で撮像領域40の中心となるように、設置位置及び撮影角度が固定されている。本実施の形態に記載の光学装置10の構成は、照射部の一例であり、所定の投影パターンの複数の異なる波長の光を、計測対象物に一以上のグループとして照射する構成であればよい。 The camera 21 has a fixed installation position and shooting angle so as to capture the projection area of the projection pattern. Specifically, the camera 21 is installed at an installation position and so that the projection center 300 of the pattern light (projected image) projected by the optical device 10 (an example of the irradiation unit) is the center of the imaging region 40 at the measurement target position. The shooting angle is fixed. The configuration of the optical device 10 described in the present embodiment is an example of an irradiation unit, and may be a configuration in which light of a plurality of different wavelengths of a predetermined projection pattern is irradiated to a measurement object as one or more groups. ..

カメラ21は、レンズ210及び撮像素子211を有する。撮像素子211としては、例えばCCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサが用いられる。カメラ21に入射した光は、レンズ210を介して撮像素子211上に結像する。撮像素子211は、結像された光を光電変換することで電気信号である撮像信号を形成する。この撮像信号は、画像信号に変換され、制御ユニット30の演算処理部32に供給される。 The camera 21 has a lens 210 and an image sensor 211. As the image sensor 211, for example, an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) is used. The light incident on the camera 21 is imaged on the image sensor 211 via the lens 210. The image pickup device 211 forms an image pickup signal, which is an electric signal, by photoelectrically converting the imaged light. This image pickup signal is converted into an image signal and supplied to the arithmetic processing unit 32 of the control unit 30.

(制御ユニットの構成)
制御ユニット30は、制御部31及び演算処理部32を有する。この制御ユニット30は、光学装置10からパターン光を投影する制御、及び、カメラ21によりパターン光を撮像する制御等を行う。制御ユニット30は、カメラ21から供給された画像信号に基づいて、計測対象物の3次元計測等の演算処理を行う。制御部31は、光学装置10が投影するパターン光を別のパターン光に切り替える制御を行ってもよい。また、制御部31は、演算処理部32が3次元座標の算出に用いるキャリブレーション情報を出力する制御を行ってもよい。
(Control unit configuration)
The control unit 30 has a control unit 31 and an arithmetic processing unit 32. The control unit 30 controls to project the pattern light from the optical device 10, controls to capture the pattern light by the camera 21, and the like. The control unit 30 performs arithmetic processing such as three-dimensional measurement of the object to be measured based on the image signal supplied from the camera 21. The control unit 31 may control to switch the pattern light projected by the optical device 10 to another pattern light. Further, the control unit 31 may control the arithmetic processing unit 32 to output the calibration information used for calculating the three-dimensional coordinates.

制御ユニット30の演算処理部32(計測部の一例)は、入力された画像信号に基づいて3次元座標の算出を行い、計測対象物の3次元形状を取得する。また、演算処理部32は、計測対象物の算出された3次元形状を示す3次元形状情報を、例えばパーソナルコンピュータ装置等に出力する。なお、図1には、制御ユニット30に対し1組の計測情報取得ユニット20を設けた構成を図示したが、制御ユニット30に対し複数組の計測情報取得ユニット20を設けた構成としてもよい。 The arithmetic processing unit 32 (an example of the measurement unit) of the control unit 30 calculates the three-dimensional coordinates based on the input image signal, and acquires the three-dimensional shape of the object to be measured. Further, the arithmetic processing unit 32 outputs the three-dimensional shape information indicating the calculated three-dimensional shape of the measurement target object to, for example, a personal computer device. Although FIG. 1 shows a configuration in which one set of measurement information acquisition units 20 is provided for the control unit 30, a configuration in which a plurality of sets of measurement information acquisition units 20 are provided for the control unit 30 may be provided.

(光学装置の動作)
図2は、光学装置10による計測対象物への光投影の様子を示す図である。図2において、光学装置10は、ライン光14を計測対象物15に向けて出射する。ライン光14は、VCSELチップ11の各発光素子aからの複数の光が重なり合っている光で、光偏向素子(ミラー)13のミラー面で偏向されて、図2に破線で示すように計測対象物15に照射される。具体的には、光偏向素子13が、図2に示すライン光の長手方向軸周りMの方向にミラー面を駆動することでミラー面に照射される光を偏向する。各ライン光は、所定のパターン光になるように制御される。これにより、計測対象物15に2次元のパターン光を照射し、計測対象物15に投影画像60を投影する。投影画像60は、例えば計測対象物15を含む領域に投影される。
(Operation of optical device)
FIG. 2 is a diagram showing a state of light projection on a measurement object by the optical device 10. In FIG. 2, the optical device 10 emits the line light 14 toward the measurement object 15. The line light 14 is light in which a plurality of lights from each light emitting element a of the VCSEL chip 11 are overlapped with each other, is deflected by the mirror surface of the light deflection element (mirror) 13, and is a measurement target as shown by a broken line in FIG. The object 15 is irradiated. Specifically, the light deflection element 13 deflects the light emitted to the mirror surface by driving the mirror surface in the direction M around the longitudinal axis of the line light shown in FIG. Each line light is controlled so as to have a predetermined pattern light. As a result, the measurement object 15 is irradiated with the two-dimensional pattern light, and the projected image 60 is projected on the measurement object 15. The projected image 60 is projected onto an area including, for example, the measurement object 15.

(VCSELの構成)
図3は、VCSELチップ11の構成の一例を示す図である。図3に示すVCSELチップ11は、同一基板上で発光素子aを容易に集積可能な面発光型半導体レーザであり、1次元的に配列された複数の発光素子aを有する。
(Configuration of VCSEL)
FIG. 3 is a diagram showing an example of the configuration of the VCSEL chip 11. The VCSEL chip 11 shown in FIG. 3 is a surface-emitting semiconductor laser in which light emitting elements a can be easily integrated on the same substrate, and has a plurality of light emitting elements a arranged one-dimensionally.

VCSELにおいて各発光源が形成するスペックルパターン(「スペックルパターン」を「スペックル模様」とも言う)の平均輝度をSi、標準偏差をσi、スペックルコントラストをCsiとする。各発光源から同じパワーでレーザ照射した場合、S1=S2=S3=・・・=S0、σ1=σ2=σ3=・・・=σ0と考えることができる。n枚のスペックルパターンの画像を合成した場合、合成画像(重畳画像)の輝度値はS1+S2+・・・+Sn=S0×nとなる。 In VCSEL, the average brightness of the speckle pattern (“speckle pattern” is also referred to as “speckle pattern”) formed by each light emitting source is Si, the standard deviation is σi, and the speckle contrast is Csi. When laser irradiation is performed from each light emitting source with the same power, it can be considered that S1 = S2 = S3 = ... = S0, σ1 = σ2 = σ3 = ... = σ0. When n speckle pattern images are combined, the brightness value of the combined image (superimposed image) is S1 + S2 + ... + Sn = S0 × n.

ばらつきに関しては分散の加法性が成り立つため、σ2=σ12+σ22+・・・+σn2となり、σ=√(n×σ02)=σ0√nとなる。 Since the additivity of the variance holds for the variation, σ2 = σ12 + σ22 + ... + σn2, and σ = √ (n × σ02) = σ0√n.

よって、n枚の合成画像のスペックルコントラストCsnは、Csn=σ√n/(S×n)=(√n/n)×(σ0/S0)=1/√n×Cs0と表される。 Therefore, the speckle contrast Csn of n composite images is expressed as Csn = σ√n / (S × n) = (√n / n) × (σ0 / S0) = 1 / √n × Cs0.

つまり、n枚のスペックルパターンの画像を合成することによりスペックルコントラストは1/√nに改善でき、その結果、スペックルノイズを低減することができる。 That is, the speckle contrast can be improved to 1 / √n by synthesizing the images of n speckle patterns, and as a result, the speckle noise can be reduced.

図3に示す各発光素子aのピッチは、仮想的な光源m1、m2、・・・の間隔D1が1/√nのスペックルノイズ低減効果が期待できる設定になれば任意でよい。 The pitch of each light emitting element a shown in FIG. 3 may be arbitrary as long as the interval D1 between the virtual light sources m1, m2, ... Can be expected to have a speckle noise reduction effect of 1 / √n.

なお、図3に示す発光素子aの配列は一例であり、発光素子aが2次元的に配置された構成のものであってもよい。例えばより多くの素子を配置できるハニカム構造の配置であってもよいし、これに限定されず、その他の配置であってもよい。また複数の発光素子
aの開口部の形状を四角形で示しているが、例えば六角形等であってもよいし、これに限定されず、その他の形状であってもよい。また、各発光素子aのレーザ光の波長は適宜設定してよい。例えば、可視でも不可視でもどちらでもよい。各発光素子aにおいては発光を独立に制御可能なように構成してもよい。
The arrangement of the light emitting elements a shown in FIG. 3 is an example, and the light emitting elements a may be arranged two-dimensionally. For example, the arrangement may be a honeycomb structure in which more elements can be arranged, and the arrangement is not limited to this, and other arrangements may be used. Further, although the shape of the openings of the plurality of light emitting elements a is shown by a quadrangle, for example, it may be a hexagon or the like, and the shape is not limited to this and may be another shape. Further, the wavelength of the laser light of each light emitting element a may be appropriately set. For example, it may be visible or invisible. Each light emitting element a may be configured so that light emission can be controlled independently.

図4は、VCSELチップ11の他の構成を示す図である。図4に示すVCSELチップ11は、複数の発光素子を共に発光させるレイヤーと呼ばれる発光素子群a1を少なくとも1つ以上有する。図4には、発光素子群a1が一次元的に配列された形態のものを示しているが二次元的に配置された構成のものでもよい。 FIG. 4 is a diagram showing another configuration of the VCSEL chip 11. The VCSEL chip 11 shown in FIG. 4 has at least one or more light emitting element group a1 called a layer that causes a plurality of light emitting elements to emit light together. FIG. 4 shows a form in which the light emitting element group a1 is arranged one-dimensionally, but may have a configuration in which the light emitting element group a1 is arranged two-dimensionally.

図4に示すレイヤー222において、発光素子a2は十字型に5個配置されている。同一のレイヤー222内において各発光素子a2は同じタイミングで発光する。 In the layer 222 shown in FIG. 4, five light emitting elements a2 are arranged in a cross shape. Within the same layer 222, each light emitting element a2 emits light at the same timing.

図4に示す、各レイヤー222のピッチAと、各発光素子a2のピッチ(ピッチB及びピッチC)は、計測装置1の仕様によって適宜異なるが、仮想的な光源m1、m2、・・・の間隔D1が1/√nのスペックルノイズ低減効果が期待できる設定になれば任意でよい。 The pitch A of each layer 222 and the pitch (pitch B and pitch C) of each light emitting element a2 shown in FIG. 4 are appropriately different depending on the specifications of the measuring device 1, but the virtual light sources m1, m2, ... Any setting is sufficient as long as the interval D1 is set so that the speckle noise reduction effect of 1 / √n can be expected.

なお、ここでは、レイヤー222の発光素子a2として十字型に5個配置されているものを示しているが、これに限定するものではない。発光素子a2の数は増減させてもよいし、また、ハニカム構造のようなレイアウトでより多くの発光素子a2を配置してもよい。 Here, five light emitting elements a2 of the layer 222 are arranged in a cross shape, but the present invention is not limited to this. The number of light emitting elements a2 may be increased or decreased, or more light emitting elements a2 may be arranged in a layout such as a honeycomb structure.

また、発光素子a2の開口部についても四角形のものを示しているが、六角形等、他の形状であってもよい。各レイヤー222において各々独立に発光を制御してもよい。 Further, although the opening of the light emitting element a2 is also shown as a quadrangle, it may have another shape such as a hexagon. The light emission may be controlled independently in each layer 222.

(ラインジェネレータのレンズ構成)
図5は、光学装置10の光学系の一例を示す図である。図5の上下の図のうち、上の図は、光学装置10の光学系を水平方向(H)から見た状態の図である。また、図5の上下の図のうち、下の図は、光学装置10の光学系を垂直方向(V)から見た状態の図である。
(Lens configuration of line generator)
FIG. 5 is a diagram showing an example of the optical system of the optical device 10. Of the upper and lower views of FIG. 5, the upper figure is a view of the optical system of the optical device 10 as viewed from the horizontal direction (H). Further, among the upper and lower views of FIG. 5, the lower figure is a view of the optical system of the optical device 10 as viewed from the vertical direction (V).

図5には、ラインジェネレータ12のレンズ構成の一例として、4枚のシリンドリカルレンズ121〜124を用いたものを示している。シリンドリカルレンズ121〜124は、VCSELチップ11の各発光素子aからの光をそれぞれライン光に変換する。 FIG. 5 shows an example of the lens configuration of the line generator 12 using four cylindrical lenses 121 to 124. The cylindrical lenses 121 to 124 convert the light from each light emitting element a of the VCSEL chip 11 into line light.

具体的に、水平方向(H)において、VCSELチップ11から発散する光をシリンドリカルレンズ121によって平行光束又は略平行光束とし、シリンドリカルレンズ123によって短手方向のライン光幅を形成する。また、垂直方向(V)において、VCSELチップ11から発散する光を、シリンドリカルレンズ122によって平行光束又は略平行光束とし、シリンドリカルレンズ124によって長手方向のライン光長さを形成する。この際、光偏向素子(ミラー)13に集光する位置に焦点を形成する。なお、1/√nのスペックルノイズ低減効果が期待できる設定で、それぞれのライン光を光偏向素子13上に形成する。 Specifically, in the horizontal direction (H), the light emitted from the VCSEL chip 11 is converted into a parallel light flux or a substantially parallel light flux by the cylindrical lens 121, and the line light width in the lateral direction is formed by the cylindrical lens 123. Further, in the vertical direction (V), the light emitted from the VCSEL chip 11 is converted into a parallel light flux or a substantially parallel light flux by the cylindrical lens 122, and the line light length in the longitudinal direction is formed by the cylindrical lens 124. At this time, the focus is formed at the position where the light is focused on the light deflection element (mirror) 13. Each line light is formed on the light deflection element 13 with a setting that can be expected to have a speckle noise reduction effect of 1 / √n.

シリンドリカルレンズ121〜124の材質は、例えばガラス又はプラスチック等である。なお、他の部材でシリンドリカルレンズ121〜124を形成してもよい。また、シリンドリカルレンズ121〜124にAR(Anti Reflection)コート等の反射防止加工を施してもよい。 The material of the cylindrical lenses 121 to 124 is, for example, glass or plastic. The cylindrical lenses 121 to 124 may be formed of other members. Further, the cylindrical lenses 121 to 124 may be subjected to antireflection processing such as AR (Anti Reflection) coating.

また、シリンドリカルレンズを挿入する向きはどちらでもよいが、屈折回数を考慮すると図5に示すように凸面が向かい合うように挿入する方が望ましい。 Further, the cylindrical lens may be inserted in either direction, but considering the number of refractions, it is preferable to insert the cylindrical lens so that the convex surfaces face each other as shown in FIG.

光偏向素子13は、ライン光の長手方向軸周りに駆動し、光偏向素子13に入射したライン光で計測対象物15を走査する。走査中に制御部31によりライン光の出力を変調することで、計測対象物15へ所定パターンの投影画像を投影する。 The light deflection element 13 is driven around the longitudinal axis of the line light, and scans the measurement object 15 with the line light incident on the light deflection element 13. By modulating the output of the line light by the control unit 31 during scanning, a projected image of a predetermined pattern is projected onto the measurement object 15.

図6は、光学装置10の光学系の他の一例を示す図である。この図6は、ラインジェネレータ12のレンズ構成の一例として、球面レンズ126と2枚のシリンドリカルレンズ(シリンドリカルレンズ123、シリンドリカルレンズ124)とを用いた例である。図5の例では、VCSELチップ11から発散する光を、水平方向(H)と垂直方向(V)とで別々のシリンドリカルレンズ121、122を用いて平行光束又は略平行光束を形成した。これに対して、図6の例は、1枚n球面レンズ126で、VCSELチップ11から発散する光を平行光束化する。これにより、必要なレンズ数を減らすことができる。 FIG. 6 is a diagram showing another example of the optical system of the optical device 10. FIG. 6 shows an example in which a spherical lens 126 and two cylindrical lenses (cylindrical lens 123, cylindrical lens 124) are used as an example of the lens configuration of the line generator 12. In the example of FIG. 5, the light emitted from the VCSEL chip 11 is formed into a parallel light flux or a substantially parallel light flux by using separate cylindrical lenses 121 and 122 in the horizontal direction (H) and the vertical direction (V). On the other hand, in the example of FIG. 6, the single n-spherical lens 126 converts the light emitted from the VCSEL chip 11 into a parallel luminous flux. This makes it possible to reduce the number of lenses required.

図7は、光学装置10の光学系の他の例を示す図である。図7には、ラインジェネレータ12のレンズ構成の一例として、シリンドリカルレンズ121を用いたものを示している。水平方向(H)において、VCSELチップ11から発散する光をシリンドリカルレンズ121によって短手方向のライン光幅に形成する。垂直方向(V)においては、VCSELチップ11から発散する光のみで、長手方向のライン光長さを形成する。この構成では、使用するレンズが1枚で済むため、必要なレンズ数を最も減らすことができる。 FIG. 7 is a diagram showing another example of the optical system of the optical device 10. FIG. 7 shows a line generator 12 using a cylindrical lens 121 as an example of the lens configuration. In the horizontal direction (H), the light emitted from the VCSEL chip 11 is formed by the cylindrical lens 121 to have a line light width in the lateral direction. In the vertical direction (V), only the light emitted from the VCSEL chip 11 forms the line light length in the longitudinal direction. In this configuration, only one lens is used, so that the number of lenses required can be reduced to the maximum.

図8は、光学装置10の光学系の他の一例を示す図である。図8には、ラインジェネレータ12のレンズ構成の一例として、2つのシリンドリカルレンズ(シリンドリカルレンズ121とシリンドリカルレンズ123)を用いたものを示している。 FIG. 8 is a diagram showing another example of the optical system of the optical device 10. FIG. 8 shows an example of the lens configuration of the line generator 12 using two cylindrical lenses (cylindrical lens 121 and cylindrical lens 123).

水平方向(H)において、VCSELチップ11から発散する光をシリンドリカルレンズ121によって平行光束又は略平行光束とし、シリンドリカルレンズ123によって短手方向のライン光幅を形成する。垂直方向(V)においては、VCSELチップ11から発散する光のみで、長手方向のライン光長さを形成する。 In the horizontal direction (H), the light emitted from the VCSEL chip 11 is converted into a parallel light flux or a substantially parallel light flux by the cylindrical lens 121, and the line light width in the lateral direction is formed by the cylindrical lens 123. In the vertical direction (V), only the light emitted from the VCSEL chip 11 forms the line light length in the longitudinal direction.

図9は、光学装置10の光学系の他の一例を示す図である。図9は、図5に示すレンズ構成にさらに絞り125を加えたものである。図5に示すレンズ構成において光を光偏向素子13に十分集光できない場合に、絞り125を挿入する。なお、絞り125をこれに限定するものではない。少なくとも一つの絞り125を任意の位置に挿入してよい。また、図9には、水平方向(H)に対応する絞り125を示しているが、垂直方向(V)についても同様に挿入してよい。また、絞り125は、迷光を除去する目的で挿入してもよい。 FIG. 9 is a diagram showing another example of the optical system of the optical device 10. FIG. 9 shows a lens configuration shown in FIG. 5 with a diaphragm 125 added. When the light cannot be sufficiently focused on the light deflection element 13 in the lens configuration shown in FIG. 5, the diaphragm 125 is inserted. The aperture 125 is not limited to this. At least one diaphragm 125 may be inserted at any position. Further, although FIG. 9 shows the aperture 125 corresponding to the horizontal direction (H), the aperture 125 may be inserted in the vertical direction (V) as well. Further, the diaphragm 125 may be inserted for the purpose of removing stray light.

図10は、光学装置10の光学系の他の一例を示す図である。図10には、VCSELチップ11の各発光素子aの発散角を制御するため、VCSELチップ11の前方(光軸方向)にマイクロレンズアレイ127とマイクロシリンドリカルレンズアレイ128とを挿入した構成のものを示している。マイクロシリンドリカルレンズアレイ128の後段の
構成については図示を省略している。なお、各発光素子aの発散角の制御は、マイクロレンズアレイ及び(又は)マイクロシリンドリカルレンズアレイで行うことができる。つまり、各発光素子aの発散角の制御にマイクロレンズアレイを使用してもよいし、マイクロシリンドリカルレンズアレイを使用してもよい。また、これらの両方を組み合わせてもよい。ここでは、一例として、両方を組み合わせた例について示す。
FIG. 10 is a diagram showing another example of the optical system of the optical device 10. FIG. 10 shows a configuration in which a microlens array 127 and a microcylindrical lens array 128 are inserted in front of the VCSEL chip 11 (in the optical axis direction) in order to control the divergence angle of each light emitting element a of the VCSEL chip 11. Shown. The configuration of the subsequent stage of the microcylindrical lens array 128 is not shown. The divergence angle of each light emitting element a can be controlled by the microlens array and / or the microcylindrical lens array. That is, a microlens array may be used to control the divergence angle of each light emitting element a, or a microcylindrical lens array may be used. Moreover, you may combine both of these. Here, as an example, an example in which both are combined is shown.

マイクロレンズアレイ127の各レンズは球面になっており、VCSELチップ11の各発光素子aから発散する光を、水平方向(H)及び垂直方向(V)において平行光束又は略平行光束に変換する。そして、マイクロレンズアレイ127から出射される光束はマイクロシリンドリカルレンズアレイ128によって、垂直方向(V)に示す長手方向のライン光長さを形成する。このように構成することにより、VCSELチップ11の発散角が制御される。 Each lens of the microlens array 127 has a spherical shape, and converts the light emitted from each light emitting element a of the VCSEL chip 11 into a parallel light flux or a substantially parallel light flux in the horizontal direction (H) and the vertical direction (V). Then, the luminous flux emitted from the microlens array 127 forms the line light length in the longitudinal direction shown in the vertical direction (V) by the microcylindrical lens array 128. With this configuration, the divergence angle of the VCSEL chip 11 is controlled.

なお、図10では水平方向に発光素子aは1列しかないが、水平方向にも発光素子aを並べて、VCSEL上の発光素子をマトリクス状に配置してもよい。それに伴い、マイクロレンズアレイ及びマイクロシリンドリカルレンズアレイもマトリクス状に形成してもよい。 Although there is only one row of light emitting elements a in the horizontal direction in FIG. 10, the light emitting elements a may be arranged in the horizontal direction and the light emitting elements on the VCSEL may be arranged in a matrix. Along with this, the microlens array and the microcylindrical lens array may also be formed in a matrix.

(光偏向素子)
次に、光偏向素子13は、レーザ光を1軸又は2軸方向に走査する可動ミラーである。可動ミラーとしては、例えばMEMSミラー、ポリゴンミラー又はガルバノミラー等を用いることができる。なお、レーザ光を1軸又は2軸方向に走査可能であれば、その他の方式を用いたものでもよい。3次元形状計測装置では、ラインジェネレータ12により形成されたライン光14を走査範囲中の計測対象物15上に一軸走査する可動ミラーを使用する。可動ミラーでライン光を光走査することで、2次元面状の投影パターンが形成される。
(Light deflection element)
Next, the light deflection element 13 is a movable mirror that scans the laser beam in the uniaxial or biaxial directions. As the movable mirror, for example, a MEMS mirror, a polygon mirror, a galvano mirror, or the like can be used. If the laser beam can be scanned in the uniaxial or biaxial directions, other methods may be used. The three-dimensional shape measuring device uses a movable mirror that uniaxially scans the line light 14 formed by the line generator 12 on the measurement object 15 in the scanning range. A two-dimensional planar projection pattern is formed by lightly scanning line light with a movable mirror.

図11は、光偏向素子13の一例であるMEMSミラー(MEMSミラースキャナとも言う)の構成を示す図である。図11に示すMEMSミラースキャナは、支持基板131に、可動部132と二組の蛇行状梁部133とを有する。 FIG. 11 is a diagram showing a configuration of a MEMS mirror (also referred to as a MEMS mirror scanner) which is an example of the optical deflection element 13. The MEMS mirror scanner shown in FIG. 11 has a movable portion 132 and two sets of meandering beam portions 133 on the support substrate 131.

可動部132は反射ミラー1320を備えている。二組の蛇行状梁部133は、それぞれ一端が可動部132に連結され、他端が支持基板131により支持されている。二組の蛇行状梁部133はそれぞれミアンダ形状の複数の梁部からなる。また、二組の蛇行状梁部133は、それぞれ第1の電圧の印加により変形する第1の圧電部材1331と、第2の電圧の印加により変形する第2の圧電部材1332とを各梁部に1つ置きに有する。 The movable portion 132 includes a reflection mirror 1320. One end of each of the two sets of meandering beam portions 133 is connected to the movable portion 132, and the other end is supported by the support substrate 131. Each of the two sets of meandering beam portions 133 is composed of a plurality of meander-shaped beam portions. Further, each of the two sets of serpentine beam portions 133 includes a first piezoelectric member 1331 that is deformed by applying a first voltage and a second piezoelectric member 1332 that is deformed by applying a second voltage. Have every other one.

第1の圧電部材1331及び第2の圧電部材1332は、隣り合う梁部毎にそれぞれ独立に設けられている。二組の蛇行状梁部133はそれぞれ第1の圧電部材1331と第2の圧電部材1332への電圧の印加により変形し、可動部132の反射ミラー1320を回転軸周りに回転させる。 The first piezoelectric member 1331 and the second piezoelectric member 1332 are independently provided for each adjacent beam portion. The two sets of meandering beam portions 133 are deformed by applying a voltage to the first piezoelectric member 1331 and the second piezoelectric member 1332, respectively, and rotate the reflection mirror 1320 of the movable portion 132 around the rotation axis.

具体的には、第1の圧電部材1331及び第2の圧電部材1332に対し、それぞれ逆位相となる電圧を印加し、各梁部に反りを発生させる。これにより、隣り合う梁部が異なる方向にたわみ、それが累積され、二組の蛇行状梁部133に連結する可動部132と共に反射ミラー1320が回転軸を中心に往復回動する。さらに、回転軸を回転中心とするミラー共振モードに合わせた駆動周波数をもつ正弦波を、逆相で第1の圧電部材1331及び第2の圧電部材1332に印加することで、低電圧で非常に大きな回転角度を得ることができる。 Specifically, voltages having opposite phases are applied to the first piezoelectric member 1331 and the second piezoelectric member 1332 to generate warpage in each beam portion. As a result, the adjacent beam portions are bent in different directions, which are accumulated, and the reflection mirror 1320 reciprocates around the rotation axis together with the movable portion 132 connected to the two sets of meandering beam portions 133. Further, by applying a sine wave having a drive frequency matched to the mirror resonance mode centered on the rotation axis to the first piezoelectric member 1331 and the second piezoelectric member 1332 in opposite phase, the voltage is very low. A large rotation angle can be obtained.

なお、駆動波形は正弦波に限らない。例えばノコギリ波であってもよい。また、共振モードに限らず、非共振モードで駆動させてもよい。 The drive waveform is not limited to a sine wave. For example, it may be a sawtooth wave. Further, the drive may be performed not only in the resonance mode but also in the non-resonance mode.

図12は、光偏向素子13の一例であるポリゴンミラーの構成を示す図である。図12に示すポリゴンミラーは、回転軸の周りにM方向に等速回転運動する回転体13Aに複数の平面ミラー1320Aを備える。ラインジェネレータ12から平面ミラー1320Aに入力するライン光は平面ミラー1320Aの角度の変化により測定対象を一軸走査する。図12に矢印で示すように、ポリゴンミラーでは水平方向(Y軸と垂直な方向)の広範囲な領域に対して測定が可能となる。 FIG. 12 is a diagram showing a configuration of a polygon mirror which is an example of the light deflection element 13. The polygon mirror shown in FIG. 12 includes a plurality of plane mirrors 1320A on a rotating body 13A that rotates at a constant velocity in the M direction around a rotation axis. The line light input from the line generator 12 to the plane mirror 1320A uniaxially scans the measurement target by changing the angle of the plane mirror 1320A. As shown by the arrows in FIG. 12, the polygon mirror enables measurement over a wide range in the horizontal direction (direction perpendicular to the Y axis).

さらに、図12に示す構成では、ポリゴンミラーの各ミラー面1320Aにおいて回転軸に対する倒れ角を互いに異ならせている。このように各ミラー面1320Aに異なる倒れ角を与えるとライン光の垂直方向の出射角が制御されるので、回転体13Aの回転によりミラー面1320Aが変わる度に垂直方向の出力角が変化することになる。よって、各ミラー面1320Aに異なる倒れ角を与えることで、ポリゴンミラーに備えられた射面の数に応じて、垂直方向の走査領域を広角化することができる。 Further, in the configuration shown in FIG. 12, the tilt angles with respect to the rotation axis are different from each other on each mirror surface 1320A of the polygon mirror. When different tilt angles are given to each mirror surface 1320A in this way, the vertical emission angle of the line light is controlled, so that the vertical output angle changes each time the mirror surface 1320A changes due to the rotation of the rotating body 13A. become. Therefore, by giving each mirror surface 1320A a different tilt angle, it is possible to widen the scanning area in the vertical direction according to the number of firing surfaces provided in the polygon mirror.

(カメラ)
図13は、カメラ21の構成を示す図である。カメラ21は、レンズ210及び撮像素子211を有する。撮像素子211としては、例えばCCDイメージセンサ又はCMOSイメージセンサ等を用いることができる。カメラ21に入射した光は、レンズ210を介して撮像素子211上に結像して光電変換される。撮像素子211で光電変換された電気信号は、画像信号へと変換され、その画像信号がカメラ21から制御ユニット30の演算処理部32(図1参照)へと出力される。
(camera)
FIG. 13 is a diagram showing the configuration of the camera 21. The camera 21 has a lens 210 and an image sensor 211. As the image sensor 211, for example, a CCD image sensor, a CMOS image sensor, or the like can be used. The light incident on the camera 21 is imaged on the image sensor 211 via the lens 210 and photoelectrically converted. The electrical signal photoelectrically converted by the image sensor 211 is converted into an image signal, and the image signal is output from the camera 21 to the arithmetic processing unit 32 (see FIG. 1) of the control unit 30.

(制御部の構成)
次に、図14は、3次元形状計測装置1のブロック図である。この図14において、演算処理部32は、カメラ21から出力された画像信号を解析する。演算処理部32は、画像信号の解析結果と、キャリブレーション情報とを用いた演算処理により、3次元情報の復元処理を行い、これにより対象の3次元計測を実行する。演算処理部32は、復元された3次元情報を制御部31に供給する。
(Structure of control unit)
Next, FIG. 14 is a block diagram of the three-dimensional shape measuring device 1. In FIG. 14, the arithmetic processing unit 32 analyzes the image signal output from the camera 21. The arithmetic processing unit 32 performs the restoration processing of the three-dimensional information by the arithmetic processing using the analysis result of the image signal and the calibration information, and thereby executes the target three-dimensional measurement. The arithmetic processing unit 32 supplies the restored three-dimensional information to the control unit 31.

制御部31は、投影制御部310、パターン記憶部311、光源駆動・検出部312、光走査駆動・検出部313、及び、撮像制御部314を有している。 The control unit 31 includes a projection control unit 310, a pattern storage unit 311, a light source drive / detection unit 312, an optical scanning drive / detection unit 313, and an image pickup control unit 314.

光走査駆動・検出部313は、投影制御部310の制御に従い光偏向素子13を駆動する。投影制御部310は、光偏向素子13の偏向中心に照射されたライン光が測定対象を走査するように、光走査駆動・検出部313を制御する。撮像制御部314は、投影制御部310の制御に従いカメラ21の撮像タイミング及び露光量等を制御する。 The optical scanning drive / detection unit 313 drives the optical deflection element 13 under the control of the projection control unit 310. The projection control unit 310 controls the light scanning drive / detection unit 313 so that the line light applied to the deflection center of the light deflection element 13 scans the measurement target. The image pickup control unit 314 controls the image pickup timing, the exposure amount, and the like of the camera 21 according to the control of the projection control unit 310.

光源駆動・検出部312は、投影制御部310の制御に従いVCSELチップ11の各発光素子の点灯及び消灯を制御する。光源駆動・検出部312には、フィードバック制御回路を有する。なお、フィードバック制御回路の一部又は全てをVCSELチップ11に設けてもよい。 The light source drive / detection unit 312 controls lighting and extinguishing of each light emitting element of the VCSEL chip 11 according to the control of the projection control unit 310. The light source drive / detection unit 312 has a feedback control circuit. A part or all of the feedback control circuit may be provided on the VCSEL chip 11.

パターン記憶部311は、不揮発性メモリとなっており、投影画像(投影パターン)を形成するためのパターン情報が記憶されている。投影制御部310は、パターン記憶部311から読み出したパターン情報に基づき、光源駆動・検出部312を制御する。 The pattern storage unit 311 is a non-volatile memory, and stores pattern information for forming a projected image (projection pattern). The projection control unit 310 controls the light source drive / detection unit 312 based on the pattern information read from the pattern storage unit 311.

また、投影制御部310は、演算処理部32から供給された、復元された3次元情報に基づき、パターン記憶部311に対してパターン情報の読み出しを指示してもよいし、読み出したパターン情報に応じて演算処理部32に対して演算方法を指示してもよい。 Further, the projection control unit 310 may instruct the pattern storage unit 311 to read the pattern information based on the restored three-dimensional information supplied from the arithmetic processing unit 32, or the read pattern information may be used. The calculation method may be instructed to the calculation processing unit 32 accordingly.

演算処理部32、投影制御部310及び撮像制御部314は、CPU(Central Processing Unit)等の制御部31が、記憶部に記憶されている計測プログラムを実行することでソフトウェア的に実現される機能である。具体的に、制御部31は、3次元形状計測装置1のROM(Read Only Memory)等の記憶部に記憶されている計測プログラムを読み出して実行することで、演算処理部32、投影制御部310及び撮像制御部314を実現する。なお、演算処理部32、投影制御部310及び撮像制御部314のうち、一部をハードウェアで形成してもよい。また、演算処理部32、投影制御部310及び撮像制御部314以外の機能も、計測プログラムで実現してもよい。 The arithmetic processing unit 32, the projection control unit 310, and the image pickup control unit 314 have functions realized by software when the control unit 31 such as a CPU (Central Processing Unit) executes a measurement program stored in the storage unit. Is. Specifically, the control unit 31 reads and executes a measurement program stored in a storage unit such as a ROM (Read Only Memory) of the three-dimensional shape measuring device 1, thereby performing the arithmetic processing unit 32 and the projection control unit 310. And the image pickup control unit 314 is realized. A part of the arithmetic processing unit 32, the projection control unit 310, and the image pickup control unit 314 may be formed by hardware. Further, functions other than the arithmetic processing unit 32, the projection control unit 310, and the image pickup control unit 314 may be realized by the measurement program.

(投影パターン)
次に、計測対象物を走査する投影パターンについて説明する。計測対象物に光を照射して、計測対象物の形状及び姿勢を3次元情報として取得する3次元計測手法としては、例えば位相シフト法を用いた計測手法、及び、光切断法を用いた計測手法が知られている。これらの計測手法は、例えば以下の非特許文献にそれぞれ開示されている。
(Projection pattern)
Next, a projection pattern for scanning the measurement object will be described. As a three-dimensional measurement method for irradiating a measurement object with light and acquiring the shape and orientation of the measurement object as three-dimensional information, for example, a measurement method using a phase shift method and a measurement using an optical cutting method. The method is known. Each of these measurement methods is disclosed in, for example, the following non-patent documents.

(1)プロジェクタ・カメラシステムのレスポンス関数を用いた位相シフト法によるアクティブ・ステレオの精度向上「画像の認識・理解シンポジウム(MIRU2009)」2009年7月 (1) Improving the accuracy of active stereo by the phase shift method using the response function of the projector / camera system "Image Recognition and Understanding Symposium (MIRU2009)" July 2009

(2)「光切断法による3次元画像を用いた外観検査技術」RICOH TECHNICAL REPORT、No.39, 2013、2014年1月28日発行 (2) "Appearance inspection technique using a three-dimensional image by an optical cutting method" RICOH TECHNICAL REPORT, No. 39, 2013, published January 28, 2014

先ず(1)の位相シフト法を用いた計測について概略的に説明する。位相シフト法では、図15(a)に例示される、それぞれ位相の異なる位相シフトパターンである複数の投影パターン60(10)、60(11)、60(12)及び60(13)を用いた位相解析により、3次元の形状及び姿勢の復元を行う。このとき、図15(b)に例示される、それぞれ異なるグレイコードパターンである複数の投影パターン60(20)、60(21)、60(22)及び60(23)を用いた空間コード化法を併用し、これら空間コード化法及び位相シフト法の結果に基づき位相連結を行うことで、高精度に3次元の形状及び姿勢の復元を行うことができる。 First, the measurement using the phase shift method of (1) will be schematically described. In the phase shift method, a plurality of projection patterns 60 (10), 60 (11), 60 (12), and 60 (13), which are phase shift patterns having different phases, which are exemplified in FIG. 15A, are used. The three-dimensional shape and orientation are restored by phase analysis. At this time, a spatial coding method using a plurality of projection patterns 60 (20), 60 (21), 60 (22), and 60 (23), which are different gray code patterns, which are exemplified in FIG. 15 (b). By using the above in combination and performing phase connection based on the results of these spatial coding methods and phase shift methods, it is possible to restore the three-dimensional shape and orientation with high accuracy.

このように、(1)の位相シフト法を用いた計測では、複数の投影パターン60(10)〜60(13)、60(20)〜60(23)それぞれについて撮像を行う。 As described above, in the measurement using the phase shift method of (1), imaging is performed for each of the plurality of projection patterns 60 (10) to 60 (13) and 60 (20) to 60 (23).

次に(2)の光切断法を用いた計測について概略的に説明する。光切断法は、ライン光源により計測対象に対して輝線を照射し、この輝線が照射された計測対象を撮像し、輝線画像を得る。例えば図16に示すように、光偏向素子からライン光(輝線)14を形成する。この輝線画像に基づき、計測対象の1ライン分の3次元形状が生成される。図16の投影パターン60(3)に示すように、光偏向素子を用いてライン光14の照射位置を矢印の向きに変えていき、計測対象に対して複数の輝線画像を得る。これにより、計測対象の全体の3次元形状を生成できる。このような光切断パターンを用いた光切断法は、光沢のある計測対象の計測に用いて好適である。 Next, the measurement using the optical cutting method of (2) will be schematically described. In the light cutting method, a line light source irradiates a measurement target with a bright line, and the measurement target irradiated with the bright line is imaged to obtain a bright line image. For example, as shown in FIG. 16, a line light (bright line) 14 is formed from an optical deflection element. Based on this emission line image, a three-dimensional shape for one line to be measured is generated. As shown in the projection pattern 60 (3) of FIG. 16, the irradiation position of the line light 14 is changed in the direction of the arrow by using the light deflection element, and a plurality of emission line images are obtained for the measurement target. As a result, the entire three-dimensional shape of the measurement target can be generated. The light cutting method using such a light cutting pattern is suitable for measuring a glossy measurement target.

(3次元計測の具体例)
上述の位相シフト法は、ステレオ計測と同じく三角測量により距離を計測する手法であり、物体形状に応じたライン光の歪み具合から三次元形状を復元する光切断法の測定原理を面(複数ライン)に拡張した測定法である。光切断法では、1回の計測で1ラインの情報を取得するため、物体全体のデータを得るのに横方向画素数の測定を行う必要があり、位相シフト法と比べて計測時間が長くなる。
(Specific example of 3D measurement)
The above-mentioned phase shift method is a method of measuring a distance by triangulation as in stereo measurement, and is based on the measurement principle of an optical cutting method that restores a three-dimensional shape from the degree of distortion of line light according to the object shape (multiple lines). ) Is an extended measurement method. In the optical cutting method, since the information of one line is acquired by one measurement, it is necessary to measure the number of pixels in the horizontal direction in order to obtain the data of the entire object, and the measurement time is longer than that of the phase shift method. ..

第1の実施の形態の三次元計測装置1は、図17に示すようにカメラ21とプロジェクタ装置等の光学装置10を有しており、光学装置10から正弦波縞パターンの位相画像を計測対象物に投影し、その反射光をカメラ21で撮影している。計測対象物の計測は、図18(a)〜図18(d)に例示するように、正弦波縞パターンのπ/2ずつ位相をずらした4種類の画像を投影及び撮像して行う。図18(a)は、位相差「0」の正弦波縞パターンの画像であり、図18(b)は、位相差「0」の正弦波縞パターンに対して、π/2だけ位相をずらした正弦波縞パターンの画像である。また、図18(c)は、位相差「0」の正弦波縞パターンに対して、πだけ位相をずらした正弦波縞パターンの画像であり、図18(d)は、位相差「0」の正弦波縞パターンに対して、3π/2だけ位相をずらした正弦波縞パターンの画像である。 As shown in FIG. 17, the three-dimensional measuring device 1 of the first embodiment has an optical device 10 such as a camera 21 and a projector device, and a phase image of a sinusoidal fringe pattern is measured from the optical device 10. It is projected onto an object and the reflected light is photographed by the camera 21. As illustrated in FIGS. 18 (a) to 18 (d), the measurement object is measured by projecting and imaging four types of images in which the phase of the sinusoidal fringe pattern is shifted by π / 2. FIG. 18A is an image of a sinusoidal fringe pattern having a phase difference of “0”, and FIG. 18B is a phase shift of π / 2 with respect to the sinusoidal fringe pattern having a phase difference of “0”. It is an image of a sine wave fringe pattern. Further, FIG. 18 (c) is an image of a sinusoidal fringe pattern whose phase is shifted by π with respect to a sinusoidal fringe pattern having a phase difference of “0”, and FIG. 18 (d) is an image of a sinusoidal fringe pattern having a phase difference of “0”. This is an image of a sine wave fringe pattern whose phase is shifted by 3π / 2 with respect to the sine wave fringe pattern of.

この4枚の正弦波縞パターンの測定画像から、各画素の位相情報を計算してカメラ21の光学中心座標と光学装置10の光学中心座標の対応をとり、既知のカメラ21と光学装置10の幾何関係から物体表面上の三次元形状を計算している。よって、カメラ21の各画素の輝度値が飽和上限に達することで、図19に示すように白飛びが発生し、又は、反射光が弱くノイズに埋もれることで黒潰れが発生すると、位相情報を計算することが困難となる。なお、図19の画像は、金属製のギアに対して上述の正弦波縞パターンを照射してカメラ21で撮像した画像である。図19の縦縞が正弦波縞パターンである。また。ギア上の白くなっている箇所が、白飛びが発生している箇所である。 From the measured images of these four sinusoidal fringe patterns, the phase information of each pixel is calculated to correspond the optical center coordinates of the camera 21 with the optical center coordinates of the optical device 10, and the known camera 21 and the optical device 10 The three-dimensional shape on the surface of the object is calculated from the geometric relationship. Therefore, when the brightness value of each pixel of the camera 21 reaches the saturation upper limit, overexposure occurs as shown in FIG. 19, or when the reflected light is weak and buried in noise, blackout occurs, the phase information is displayed. It becomes difficult to calculate. The image of FIG. 19 is an image taken by the camera 21 by irradiating the metal gear with the above-mentioned sinusoidal stripe pattern. The vertical stripes in FIG. 19 are sinusoidal stripe patterns. Also. The white areas on the gear are the areas where overexposure occurs.

次に、カメラ21内の撮像素子について説明する。一例として、撮像素子としては、CCDイメージセンサ又はCMOSイメージセンサ等の可視光〜NIR領域に感度を有するシリコンICが用いられる。数umの画素が2次元的に配列されており、各画素の入射光を光電変換して電気信号として出力することで輝度値情報を取得している。 Next, the image sensor in the camera 21 will be described. As an example, as the image pickup device, a silicon IC having sensitivity in the visible light to NIR region such as a CCD image sensor or a CMOS image sensor is used. Several um pixels are two-dimensionally arranged, and the luminance value information is acquired by photoelectrically converting the incident light of each pixel and outputting it as an electric signal.

図20は、CMOSイメージセンサの画素の等価回路図である。この図20において、撮影時の露光時間内に各画素に入射した光は、光電変換素子D1で電荷に変換される。光電変換素子D1は、P−N接合によるフォトダイオードであり、発生した電荷は接合容量(寄生容量)C1に蓄積される。露光時間が終わると、転送トランジスタQ2がオンとなりC1に蓄積されていた電荷が、電圧変換部Q3に供給されて電気信号に変換される。この電気信号は、出力部Q4がオン操作されることで、後段の回路に出力され、輝度値データに変換される。 FIG. 20 is an equivalent circuit diagram of the pixels of the CMOS image sensor. In FIG. 20, the light incident on each pixel within the exposure time at the time of shooting is converted into electric charges by the photoelectric conversion element D1. The photoelectric conversion element D1 is a photodiode formed by a PN junction, and the generated charge is accumulated in the junction capacitance (parasitic capacitance) C1. When the exposure time is over, the transfer transistor Q2 is turned on and the electric charge accumulated in C1 is supplied to the voltage conversion unit Q3 and converted into an electric signal. This electric signal is output to the circuit in the subsequent stage when the output unit Q4 is turned on, and is converted into luminance value data.

このような流れで光を電気信号に変換しているため、入射光が明る過ぎると、接合容量C1で電荷が飽和して白レベルの輝度値となる。また、撮像素子は、暗電流等のオフセット的なノイズ成分が存在する。このため、入射光が暗過ぎる(入射光量が少な過ぎる)と、電気信号がノイズに埋もれて黒レベルの輝度値となる。位相シフト法では、どちらかの状態になると、位相情報の計算が困難となるため、反射率が一様でない物体の三次元計測を行う場合、露光時間を変更して複数回の計測が必要となる。 Since the light is converted into an electric signal by such a flow, if the incident light is too bright, the charge is saturated at the junction capacitance C1 and the brightness value becomes a white level. Further, the image sensor has an offset noise component such as a dark current. Therefore, when the incident light is too dark (the amount of the incident light is too small), the electric signal is buried in noise and the brightness value becomes a black level. In the phase shift method, it is difficult to calculate the phase information in either state, so when performing three-dimensional measurement of an object with non-uniform reflectance, it is necessary to change the exposure time and perform multiple measurements. Become.

(撮像素子の構成)
図21に、第1の実施の形態の三次元形状計測装置1のカメラ21に設けられている撮像素子211の部分的な拡大斜視図を示す。一般的な撮像素子の場合、画素上にカラーフィルタ又はマイクロレンズが設けられている場合が多い。これに対して、第1の実施の形態の三次元形状計測装置1の場合、撮像素子211のオンチップフィルタとして、各画素58上にそれぞれ減光率(透過率)の異なるND(Neutral Density)フィルタを設けている。
(Configuration of image sensor)
FIG. 21 shows a partially enlarged perspective view of the image sensor 211 provided in the camera 21 of the three-dimensional shape measuring device 1 of the first embodiment. In the case of a general image sensor, a color filter or a microlens is often provided on the pixel. On the other hand, in the case of the three-dimensional shape measuring device 1 of the first embodiment, as an on-chip filter of the image sensor 211, ND (Neutral Density) having a different dimming rate (transmittance) on each pixel 58. A filter is provided.

すなわち、図21に示す各四角は、それぞれ撮像素子211の各画素58(受光素子の一例)を示している。一例ではあるが、第1のNDフィルタ57OD1、第2のNDフィルタ57OD2、第3のNDフィルタ57OD3、及び、第4のNDフィルタ57OD4は、それぞれ異なる減光率(第1の減光率〜第4の減光率)を有している。これら4種類のNDフィルタ57OD1〜NDフィルタ57OD4を1セットとして、各セットのNDフィルタ群59を、撮像素子211上に。周期的に配列している。各NDフィルタOD1〜NDフィルタOD4は、例えば金属薄膜の蒸着により、反射型又は吸収型のフィルタとして撮像素子211上に形成されている。 That is, each square shown in FIG. 21 indicates each pixel 58 of the image sensor 211 (an example of the light receiving element). As an example, the first ND filter 57OD1, the second ND filter 57OD2, the third ND filter 57OD3, and the fourth ND filter 57OD4 have different dimming rates (first dimming rate to first dimming rate to the first). It has a dimming rate of 4). With these four types of ND filters 57OD1 to ND filters 57OD4 as one set, the ND filter group 59 of each set is placed on the image sensor 211. It is arranged periodically. Each ND filter OD1 to ND filter OD4 is formed on the image pickup device 211 as a reflection type or absorption type filter by, for example, vapor deposition of a metal thin film.

換言すると、撮像素子211上には、各画素58に対応して、それぞれ異なる減光率のフィルタ片部(NDフィルタ57OD1〜NDフィルタ57OD4)を備えたフィルタ部が設けられている。各フィルタ片部(NDフィルタ57OD1〜NDフィルタ57OD4)は、隣接する各フィルタ片部(NDフィルタ57OD1〜NDフィルタ57OD4)が、それぞれ異なる減光率となるように配置されている。 In other words, on the image sensor 211, a filter unit having different dimming rate filter pieces (ND filter 57OD1 to ND filter 57OD4) is provided corresponding to each pixel 58. Each of the filter pieces (ND filter 57OD1 to ND filter 57OD4) is arranged so that the adjacent filter pieces (ND filter 57OD1 to ND filter 57OD4) have different dimming rates.

一例ではあるが、各フィルタ片部(NDフィルタ57OD1〜NDフィルタ57OD4)は矩形状を有している。そして、それぞれ2つの辺で隣のフィルタ片部と隣接する4つのフィルタ片部(NDフィルタ57OD1〜NDフィルタ57OD4)を一セットのフィルタ群59とし、複数セットのフィルタ群59を、撮像素子211上に周期的に配置している。 As an example, each filter piece (ND filter 57OD1 to ND filter 57OD4) has a rectangular shape. Then, four filter pieces (ND filter 57OD1 to ND filter 57OD4) adjacent to the adjacent filter piece on each of the two sides are set as one set of filter groups 59, and a plurality of sets of filter groups 59 are placed on the image sensor 211. It is arranged periodically in.

また、一例ではあるが、4つのNDフィルタ57OD1〜NDフィルタ57OD4の光の減光率は、「57OD1>57OD2>57OD3>57OD4」となっており、第1のNDフィルタ57OD1の光の減光率が一番高く、第4のNDフィルタ57OD4の光の減光率が一番低くなるように、各NDフィルタ57OD1〜NDフィルタ57OD4の光の減光率が設定されている。 Further, as an example, the light dimming rate of the four ND filters 57OD1 to ND filter 57OD4 is "57OD1> 57OD2> 57OD3> 57OD4", and the light dimming rate of the first ND filter 57OD1. Is the highest, and the light dimming rate of each ND filter 57OD1 to ND filter 57OD4 is set so that the light dimming rate of the fourth ND filter 57OD4 is the lowest.

このような撮像素子211を備えたカメラ21で撮影することで、1度の撮影回数で、NDフィルタ57OD1〜NDフィルタ57OD4のうち、少なくとも一つのNDフィルタから、白飛び又は黒潰れが発生していない輝度値の情報を得ることができる。このため、反射率が一様でない計測対象物であっても、良好に計測可能とすることができる。 By taking a picture with the camera 21 provided with such an image sensor 211, overexposure or underexposure occurs from at least one ND filter among the ND filters 57OD1 to ND filter 57OD4 in one shooting. Information on no brightness value can be obtained. Therefore, even if the object to be measured has a non-uniform reflectance, it can be measured satisfactorily.

(第1の実施の形態の計測動作)
図22は、第1の実施の形態の三次元形状計測装置1における、計測対象物の計測動作の流れを示すフローチャートである。まず、ステップS1〜ステップS4において、従来の位相シフト法と同様に、順に位相θの正弦波縞パターン、位相θ+1/2π、θ+π、θ+3/2πの正弦波縞パターン(一例として図18参照)を、プロジェクタ等の光学装置10から投影してカメラ21で撮影を行う(図17参照)。
(Measurement operation of the first embodiment)
FIG. 22 is a flowchart showing the flow of the measurement operation of the measurement object in the three-dimensional shape measuring device 1 of the first embodiment. First, in steps S1 to S4, the sine wave fringe pattern of phase θ, the sine wave fringe pattern of phase θ + 1 / 2π, θ + π, and θ + 3 / 2π (see FIG. 18 as an example) are sequentially formed in the same manner as the conventional phase shift method. , Projected from an optical device 10 such as a projector, and photographed by the camera 21 (see FIG. 17).

次に、ステップS5において、撮像素子211の全アドレス(各画素58)に対するNDフィルタ57OD1を介した撮像光の輝度値の確認を行う。この時点で白飛び又は黒潰れが発生しているアドレス(画素58)がなければ、ステップS6に処理が進み、NDフィルタ57OD1を介した撮像光の輝度値の位相情報を用いて三次元復元処理を行い、測定終了となる。 Next, in step S5, the brightness value of the image pickup light is confirmed through the ND filter 57OD1 for all the addresses (each pixel 58) of the image pickup element 211. If there is no address (pixel 58) in which overexposure or underexposure occurs at this point, the process proceeds to step S6, and three-dimensional restoration processing is performed using the phase information of the brightness value of the imaging light via the ND filter 57OD1. Is performed, and the measurement is completed.

なお、白飛び及び黒潰れの発生の有無は、全画素58に白飛び及び黒潰れの発生していない場合に、白飛び及び黒潰れの発生無しと判断してもよいし、全画素58のうち、白飛び及び黒潰れの発生している画素58が所定数以下の場合に、白飛び及び黒潰れの発生無しと判断してもよい。 The presence or absence of overexposure and underexposure may be determined as no occurrence of overexposure and underexposure when all pixels 58 do not have overexposure and underexposure. Of these, when the number of pixels 58 in which overexposure and underexposure occur is less than a predetermined number, it may be determined that overexposure and underexposure do not occur.

NDフィルタ57OD1を介した撮像光において、いくつかのアドレス(画素58)に、白飛び又は黒潰れが発生している場合は、ステップS7において、対象アドレス(対象画素)のNDフィルタ57OD2の輝度値の確認を行う。この時点で白飛び又は黒潰れが発生していなければ、ステップS8において、NDフィルタ57OD1を介した撮像光の輝度値及びNDフィルタ57OD2を介して撮像光の輝度値の位相情報を用いて三次元復元を行う。以下、同様にOD3、OD4のデータを使用して三次元復元を行う。 In the imaging light passing through the ND filter 57OD1, if whiteout or blackout occurs at some addresses (pixels 58), the brightness value of the ND filter 57OD2 at the target address (target pixel) in step S7. To confirm. If overexposure or underexposure does not occur at this point, in step S8, three-dimensionally using the phase information of the luminance value of the imaging light through the ND filter 57OD1 and the luminance value of the imaging light via the ND filter 57OD2. Perform a restore. Hereinafter, three-dimensional restoration is performed using the data of OD3 and OD4 in the same manner.

同様に、NDフィルタ57OD2を介した撮像光において、いくつかのアドレス(画素58)に、白飛び又は黒潰れが発生している場合は、ステップS9において、対象アドレス(対象画素)のNDフィルタ57OD3の輝度値の確認を行う。この時点で白飛び又は黒潰れが発生していなければ、ステップS10において、NDフィルタ57OD1〜OD3を介した撮像光の輝度値の位相情報を用いて三次元復元を行う。 Similarly, in the imaging light via the ND filter 57OD2, if whiteout or blackout occurs at some addresses (pixels 58), in step S9, the ND filter 57OD3 of the target address (target pixel) Check the brightness value of. If overexposure or underexposure does not occur at this point, in step S10, three-dimensional restoration is performed using the phase information of the brightness value of the imaging light via the ND filters 57OD1 to OD3.

これに対して、NDフィルタ57OD3を介した撮像光において、いくつかのアドレス(画素58)に、白飛び又は黒潰れが発生している場合は、ステップS11において、NDフィルタ57OD1〜57OD4を介した撮像光の輝度値の位相情報を用いて三次元復元を行う。 On the other hand, in the imaging light via the ND filter 57OD3, if whiteout or blackout occurs at some addresses (pixels 58), the ND filters 57OD1 to 57OD4 are used in step S11. Three-dimensional restoration is performed using the phase information of the brightness value of the imaging light.

このように、例えば4種類の減光率のNDフィルタ57OD1〜57OD4を用いることで、2桁以上のダイナミックレンジを有するようになる。このため、大半の計測対象物を正確に三次元測定可能とすることができる。 In this way, for example, by using four types of ND filters 57OD1 to 57OD4 having different dimming rates, a dynamic range of two digits or more can be obtained. Therefore, most of the measurement objects can be accurately measured in three dimensions.

(第1の実施の形態の効果)
以上の説明から明らかなように、第1の実施の形態の3次元計測装置1は、光学装置10から所定の投影パターンを測定対象物へ投影し、その反射光をカメラ21で撮像して、測定対象物の距離情報を取得する。この際、カメラ21の撮像素子211の画素58上に、それぞれ減光率の異なるNDフィルタ57OD1〜57OD4を設ける。これにより、1回の撮影で、減光率が異なるフィルタ分の画像データ(露光量の異なる画像データ)を取得できる。このため、撮影回数の増加の防止、及び、システムの大型化を防止して、測定対象物の画像データの白飛び又は黒潰れを防止できる。
(Effect of the first embodiment)
As is clear from the above description, in the three-dimensional measuring device 1 of the first embodiment, a predetermined projection pattern is projected from the optical device 10 onto the measurement object, and the reflected light is imaged by the camera 21. Acquire distance information of the object to be measured. At this time, ND filters 57OD1 to 57OD4 having different dimming rates are provided on the pixels 58 of the image sensor 211 of the camera 21. As a result, it is possible to acquire image data (image data having different exposure amounts) for filters having different dimming rates in one shooting. Therefore, it is possible to prevent an increase in the number of times of shooting and prevent the system from becoming large in size, and prevent overexposure or underexposure of the image data of the measurement object.

[第2の実施の形態]
次に、上述の第1の実施の形態で説明した3次元計測装置1をロボットアーム(多関節アーム)に設けた第2の実施の形態の説明をする。図23は、第2の実施の形態のロボットアームの斜視図である。この図23において、ロボットアーム70は、対象物をピッキングするためのハンド部71を備え、ハンド部71の直近に上述の第1の実施の形態で説明した3次元計測装置1が設けられている。ロボットアーム70は、それぞれ屈曲可能な複数の可動部を備え、ハンド部71の位置及び向きを、制御に従い変更する。
[Second Embodiment]
Next, a second embodiment in which the three-dimensional measuring device 1 described in the first embodiment described above is provided on the robot arm (articulated arm) will be described. FIG. 23 is a perspective view of the robot arm of the second embodiment. In FIG. 23, the robot arm 70 is provided with a hand unit 71 for picking an object, and the three-dimensional measuring device 1 described in the above-described first embodiment is provided in the immediate vicinity of the hand unit 71. .. The robot arm 70 includes a plurality of bendable movable portions, and changes the position and orientation of the hand portion 71 according to control.

3次元計測装置1は、光の投影方向がハンド部71の向く方向に一致するように設けられ、ハンド部71のピッキング対象15を計測対象物として計測する。 The three-dimensional measuring device 1 is provided so that the projection direction of light coincides with the direction in which the hand unit 71 faces, and measures the picking target 15 of the hand unit 71 as a measurement object.

この第3の実施の形態のように、3次元計測装置1をロボットアーム70に設けることで、ピッキングの対象物を近距離から3次元計測することができ、遠方に設けられたカメラでピッキングの対象物を撮像して3次元計測する場合と比較して、計測精度及び認識精度の向上を図ることができる。 By providing the robot arm 70 with the three-dimensional measuring device 1 as in the third embodiment, the object to be picked can be three-dimensionally measured from a short distance, and the picking can be performed by a camera provided at a distance. It is possible to improve the measurement accuracy and the recognition accuracy as compared with the case where the object is imaged and three-dimensionally measured.

例えば、工場の様々な組立てライン等におけるFA(Factory Automation)分野においては、部品の検査や認識等のために、ロボットアーム70等のロボットが利用される。ロボットに3次元計測装置1を設けることで、部品の検査及び認識を精度良く行うことができる。 For example, in the FA (Factory Automation) field in various assembly lines of factories, robots such as a robot arm 70 are used for inspection and recognition of parts. By providing the robot with the three-dimensional measuring device 1, it is possible to accurately inspect and recognize parts.

[第3の実施の形態]
次に、上述の第1の実施の形態で説明した3次元計測装置1をスマートフォン又はPC等の電子機器に設けた第3の実施の形態の説明をする。図24は、3次元計測装置1が設けられた第3の実施の形態のスマートフォンの斜視図である。スマートフォン80には、3次元計測装置1と使用者の認証機能が設けられている。使用者の認証機能としては、例えば専用のハードウェアが設けられている。この他、コンピュータ構成のCPUがROM等のプログラムを実行して本機能を実現するようにしてもよい。3次元計測装置1は、使用者81の顔、耳や頭部の形状等を計測する。一例ではあるが、この計測結果に基づいて、使用者81の認証処理等を行う。
[Third Embodiment]
Next, a third embodiment in which the three-dimensional measuring device 1 described in the above-described first embodiment is provided in an electronic device such as a smartphone or a PC will be described. FIG. 24 is a perspective view of the smartphone of the third embodiment provided with the three-dimensional measuring device 1. The smartphone 80 is provided with a three-dimensional measuring device 1 and a user authentication function. As a user authentication function, for example, dedicated hardware is provided. In addition, the CPU of the computer configuration may execute a program such as ROM to realize this function. The three-dimensional measuring device 1 measures the shape of the face, ears, head, and the like of the user 81. Although it is an example, the user 81 is authenticated based on the measurement result.

このように、第3の実施の形態のスマートフォンは、3次元計測装置1により、使用者81の顔、耳や頭部の形状等を高精度に計測することができる。このため、使用者81の認識精度の向上を図ることができる。 As described above, the smartphone of the third embodiment can measure the shape of the face, ears, head, etc. of the user 81 with high accuracy by the three-dimensional measuring device 1. Therefore, the recognition accuracy of the user 81 can be improved.

なお、この例では、3次元計測装置1をスマートフォン80に設けることとして説明したが、パーソナルコンピュータ装置又はプリンタ装置等の他の電子機器に設けてもよい。また、個人認証以外にも、使用者81の顔形状のスキャニング等に用いてもよい。 In this example, the three-dimensional measuring device 1 is provided in the smartphone 80, but it may be provided in another electronic device such as a personal computer device or a printer device. In addition to personal authentication, it may be used for scanning the face shape of the user 81.

[第4の実施の形態]
次に、上述の第1の実施の形態で説明した3次元計測装置1を、自動車等の移動体に設けた第4の実施の形態の説明をする。図25は、3次元計測装置1が設けられた第4の実施の形態の移動体の要部の斜視図である。この図25において、自動車の車内85には、3次元計測装置1と運転支援機能が設けられている。運転支援機能は、例えば専用のハードウェアで実現される。または、運転支援機能は、コンピュータ構成のCPUがROM等に記憶されている運転支援プログラムを実行することでソフトウェア的に実現される。
[Fourth Embodiment]
Next, a fourth embodiment in which the three-dimensional measuring device 1 described in the above-described first embodiment is provided on a moving body such as an automobile will be described. FIG. 25 is a perspective view of a main part of the moving body of the fourth embodiment provided with the three-dimensional measuring device 1. In FIG. 25, the interior 85 of the automobile is provided with the three-dimensional measuring device 1 and the driving support function. The driving support function is realized by, for example, dedicated hardware. Alternatively, the driving support function is realized by software when the CPU of the computer configuration executes the driving support program stored in the ROM or the like.

3次元計測装置1は、ドライバ86の顔又は姿勢等を計測する。運転支援機能は、この計測結果に基づいて、例えば自動ブレーキ制御又は走行レーン制御等の、ドライバ86の状況に応じた適切な支援を行う。 The three-dimensional measuring device 1 measures the face or posture of the driver 86. Based on this measurement result, the driving support function provides appropriate support according to the situation of the driver 86, such as automatic braking control or traveling lane control.

このような第4の実施の形態は、3次元計測装置1を自動車に設けることで、高精度にドライバ86の顔、姿勢等を計測することができるため、車内85のドライバ86の状態認識精度を向上させることができる。 In such a fourth embodiment, by providing the three-dimensional measuring device 1 in the automobile, the face, posture, etc. of the driver 86 can be measured with high accuracy, so that the state recognition accuracy of the driver 86 in the vehicle 85 is high. Can be improved.

なお、この例では、3次元計測装置1を自動車に設けた例であったが、3次元計測装置1を、バス車両、トラック車両、鉄道車両、飛行機又は船舶等の車内、操縦席又は客席等に設けてもよい。また、ドライバ86の顔、姿勢等の状態認識に限らず、ドライバ86以外の搭乗者又は車内85の様子の認識等に3次元計測装置1を用いてもよい。また、ドライバ86の個人認証を行い、その移動体の操縦に正規の権限を有する者であるか否かを判断する等のように、移動体のセキュリティに3次元計測装置1を用いてもよい。 In this example, the three-dimensional measuring device 1 is provided in an automobile, but the three-dimensional measuring device 1 can be used in a bus vehicle, a truck vehicle, a railroad vehicle, an airplane, a ship, or the like, a driver's seat, or a passenger seat. It may be provided in. Further, the three-dimensional measuring device 1 may be used not only for recognizing the state of the driver 86 such as the face and posture, but also for recognizing the state of a passenger other than the driver 86 or the inside of the vehicle 85. Further, the three-dimensional measuring device 1 may be used for the security of the moving body, such as performing personal authentication of the driver 86 and determining whether or not the driver has the proper authority to control the moving body. ..

例えば、図26に示すように、自律型の移動体に3次元計測装置1を設けてもよい。この図26に示す移動体87は、移動体87の周囲を3次元計測装置1で計測する。この計測結果に基づいて、移動体87は自身の移動する経路の判断、及び、机88の位置等の室内89のレイアウトを算出する。 For example, as shown in FIG. 26, the three-dimensional measuring device 1 may be provided on the autonomous moving body. The moving body 87 shown in FIG. 26 measures the circumference of the moving body 87 with the three-dimensional measuring device 1. Based on this measurement result, the moving body 87 determines its own moving route and calculates the layout of the room 89 such as the position of the desk 88.

このように、3次元計測装置1を移動体87に設けることで、高精度に移動体87の周辺を計測することができ、移動体87の的確な運転支援を行うことができる。なお、3次元計測装置1を、屋内だけでなく屋外で用いてもよく、建造物等の計測等に用いてもよい。 By providing the three-dimensional measuring device 1 on the moving body 87 in this way, it is possible to measure the periphery of the moving body 87 with high accuracy, and it is possible to provide accurate driving support for the moving body 87. The three-dimensional measuring device 1 may be used not only indoors but also outdoors, and may be used for measuring a building or the like.

[第5の実施の形態]
次に、上述の第1の実施の形態で説明した3次元計測装置1を、造形装置の一例である3次元プリンタ装置に設けた第5の実施の形態の説明をする。図27は、第5の実施の形態の3次元プリンタ装置の要部の斜視図である。この図27において、3次元プリンタ装置90のヘッド部91に、上述の3次元計測装置1が設けられている。ヘッド部91は形成物92を形成するための造形液を吐出するノズル93を有する。3次元計測装置1は、3次元プリンタ装置90によって形成される形成物92の形成中の形状を計測する。そして、この計測結果に基づいて、3次元プリンタ装置90の形成物92の形成制御が行われる。
[Fifth Embodiment]
Next, a fifth embodiment in which the three-dimensional measuring device 1 described in the first embodiment described above is provided in a three-dimensional printer device which is an example of a modeling device will be described. FIG. 27 is a perspective view of a main part of the three-dimensional printer device according to the fifth embodiment. In FIG. 27, the above-mentioned three-dimensional measuring device 1 is provided in the head portion 91 of the three-dimensional printer device 90. The head portion 91 has a nozzle 93 that discharges a modeling liquid for forming the formation 92. The three-dimensional measuring device 1 measures the shape of the formation 92 formed by the three-dimensional printer device 90 during formation. Then, based on this measurement result, the formation of the formed product 92 of the three-dimensional printer device 90 is controlled.

このような第5の実施の形態では、3次元計測装置1を3次元プリンタ装置90に設けることで、形成物92の形成中に形状を計測することができるため、高精度に形成物92を形成可能とすることができる。なお、この例では、3次元計測装置1を3次元プリンタ装置90のヘッド部91に設けることとしたが、3次元プリンタ装置90内の他の位置に3次元計測装置1を設けてもよい。 In such a fifth embodiment, by providing the three-dimensional measuring device 1 in the three-dimensional printer device 90, the shape can be measured during the formation of the formed product 92, so that the formed product 92 can be measured with high accuracy. It can be formed. In this example, the three-dimensional measuring device 1 is provided in the head portion 91 of the three-dimensional printer device 90, but the three-dimensional measuring device 1 may be provided at another position in the three-dimensional printer device 90.

最後に、上述の各実施の形態は、一例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な各実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。また、各実施の形態及び各実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Finally, each of the above embodiments is presented as an example and is not intended to limit the scope of the invention. Each of the novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. In addition, each embodiment and modifications of each embodiment are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and the equivalent scope thereof.

1 3次元計測装置
10 光学装置
12 ラインジェネレータ
13 光偏向素子(ミラー)
20 計測情報取得ユニット
21 カメラ21
30 制御ユニット
31 制御部
32 演算処理部
57OD1 第1の減光率のフィルタ片部
57OD2 第2の減光率のフィルタ片部
57OD3 第3の減光率のフィルタ片部
57OD4 第4の減光率のフィルタ片部
58 画素
59 フィルタ群
210 レンズ
211 撮像素子
1 3D measuring device 10 Optical device 12 Line generator 13 Light deflection element (mirror)
20 Measurement information acquisition unit 21 Camera 21
30 Control unit 31 Control unit 32 Arithmetic processing unit 57OD1 First dimming rate filter piece 57OD2 Second dimming filter piece 57OD3 Third dimming filter piece 57OD4 Fourth dimming rate Filter piece 58 pixels 59 Filter group 210 Lens 211 Image sensor

特開2013−157360号公報Japanese Unexamined Patent Publication No. 2013-157360

プロジェクタ・カメラシステムのレスポンス関数を用いた位相シフト法によるアクティブ・ステレオの精度向上「画像の認識・理解シンポジウム(MIRU2009)」2009年7月Improving the accuracy of active stereo by the phase shift method using the response function of the projector / camera system "Image Recognition and Understanding Symposium (MIRU2009)" July 2009 「光切断法による3次元画像を用いた外観検査技術」RICOH TECHNICAL REPORT、No.39, 2013、2014年1月28日発行"Appearance inspection technique using three-dimensional image by optical cutting method" RICOH TECHNICAL REPORT, No. 39, 2013, published January 28, 2014

Claims (13)

光の減光率が異なる複数のフィルタ片部を備えたフィルタ部と、
各前記フィルタ片部を透過した各光をそれぞれ受光し、受光した光の情報に対応する受光信号をそれぞれ出力する複数の受光素子と
を有する撮像装置。
A filter unit with multiple filter pieces with different light dimming rates,
An image pickup apparatus having a plurality of light receiving elements that receive each light transmitted through each of the filter pieces and output a light receiving signal corresponding to the information of the received light.
前記フィルタ部の各前記フィルタ片部は、隣接する各フィルタ片部同士が異なる減光率となるように配置されていること
を特徴とする請求項1に記載の撮像装置。
The imaging device according to claim 1, wherein each of the filter pieces of the filter unit is arranged so that the adjacent filter pieces have different dimming rates.
前記フィルタ部の各前記フィルタ片部は矩形状を有しており、それぞれ2つの辺で隣のフィルタ片部と隣接する4つのフィルタ片部を一セットのフィルタ群とし、複数セットの前記フィルタ群を、前記受光素子上に周期的に配置して形成されていること
を特徴とする請求項2に記載の撮像装置。
Each of the filter pieces of the filter unit has a rectangular shape, and four filter pieces adjacent to the adjacent filter piece on each of the two sides form a set of filter groups, and a plurality of sets of the filter groups are used. 2. The imaging apparatus according to claim 2, wherein the light receiving element is periodically arranged and formed.
前記光の情報は光量であること
を特徴とする請求項1から請求項3のうち、いずれか一項に記載の撮像装置。
The imaging device according to any one of claims 1 to 3, wherein the light information is the amount of light.
所定の投影パターンの光を、対象物に照射する照射部と、
請求項1から請求項4のうち、いずれか一項に記載の撮像装置と、
前記撮像装置における、前記減光率の異なるフィルタ片部を介した受光信号を選択的に用いて、前記対象物の奥行情報を計測する計測部と
を有する計測装置。
An irradiation unit that irradiates an object with light of a predetermined projection pattern,
The imaging device according to any one of claims 1 to 4,
A measuring device having a measuring unit for measuring depth information of the object by selectively using light receiving signals that have passed through filter pieces having different dimming rates in the imaging device.
前記フィルタ片部は、第1のフィルタ片部の減光率が一番高く、順に低い減光率となるように減光率が設定されている第1のフィルタ片部、第2のフィルタ片部、第3のフィルタ片部及び第4のフィルタ片部を備え、
前記計測部は、前記第1のフィルタ片部の受光信号のレベルが、撮像画像の白飛びの基準値である第1の閾値未満のレベル、かつ、撮像画像の黒潰れの基準値である第2の閾値以上のレベルであった場合に、前記第1のフィルタ片部の受光信号を用いて前記対象物の奥行情報を計測すること
を特徴とする請求項5に記載の計測装置。
In the filter piece portion, the first filter piece portion and the second filter piece are set so that the dimming rate of the first filter piece portion is the highest and the dimming rate is set to be lower in order. A unit, a third filter piece, and a fourth filter piece are provided.
In the measuring unit, the level of the received signal of the first filter piece is less than the first threshold value which is the reference value of overexposure of the captured image, and the level of the blackout of the captured image is the reference value. The measuring device according to claim 5, wherein when the level is equal to or higher than the threshold value of 2, the depth information of the object is measured by using the received signal of the first filter piece.
前記計測部は、前記第1のフィルタ片部の受光信号のレベルが、撮像画像の白飛びの基準値である第1の閾値以上のレベルか、又は、撮像画像の黒潰れの基準値である第2の閾値未満のレベルであり、かつ、前記第2のフィルタ片部の受光信号のレベルが、撮像画像の白飛びの基準値である第1の閾値未満のレベルで、かつ、撮像画像の黒潰れの基準値である第2の閾値以上のレベルであった場合に、前記第1のフィルタ片部の受光信号及び前記第2のフィルタ片部の受光信号を用いて前記対象物の奥行情報を計測すること
を特徴とする請求項6に記載の計測装置。
In the measuring unit, the level of the received signal of the first filter piece is at a level equal to or higher than the first threshold value which is the reference value of overexposure of the captured image, or is the reference value of blackout of the captured image. The level of the received signal of the second filter piece is less than the second threshold value and the level of the received signal of the second filter piece is less than the first threshold value which is the reference value of overexposure of the captured image and the captured image. Depth information of the object using the received signal of the first filter piece and the received signal of the second filter piece when the level is equal to or higher than the second threshold value which is the reference value of blackout. The measuring device according to claim 6, wherein the measuring device is characterized in that.
前記計測部は、前記第1のフィルタ片部及び前記第2のフィルタ片部の受光信号のレベルが、撮像画像の白飛びの基準値である第1の閾値以上のレベルか、又は、撮像画像の黒潰れの基準値である第2の閾値未満のレベルであり、かつ、前記第3のフィルタ片部の受光信号のレベルが、撮像画像の白飛びの基準値である第1の閾値未満のレベルで、かつ、撮像画像の黒潰れの基準値である第2の閾値以上のレベルであった場合に、前記第1のフィルタ片部の受光信号、前記第2のフィルタ片部の受光信号及び前記第3のフィルタ片部の受光信号を用いて前記対象物の奥行情報を計測すること
を特徴とする請求項7に記載の計測装置。
In the measuring unit, the level of the received signal of the first filter piece portion and the second filter piece portion is at a level equal to or higher than the first threshold value which is the reference value of overexposure of the captured image, or the captured image. The level of the received signal of the third filter piece is less than the first threshold value, which is the reference value of overexposure of the captured image, and the level is less than the second threshold value, which is the reference value of blackout. When the level is equal to or higher than the second threshold value, which is the reference value for blackening of the captured image, the received signal of the first filter piece, the received signal of the second filter piece, and the light received signal of the second filter piece. The measuring device according to claim 7, wherein the depth information of the object is measured by using the received signal of the third filter piece.
前記計測部は、前記第1のフィルタ片部、前記第2のフィルタ片部及び前記第3のフィルタ片部の受光信号のレベルが、撮像画像の白飛びの基準値である第1の閾値以上のレベルか、又は、撮像画像の黒潰れの基準値である第2の閾値未満のレベルであった場合、前記第1のフィルタ片部、前記第2のフィルタ片部、前記第3のフィルタ片部及び前記第4のフィルタ片部の受光信号を用いて前記対象物の奥行情報を計測すること
を特徴とする請求項8に記載の計測装置。
In the measuring unit, the level of the received signal of the first filter piece, the second filter piece, and the third filter piece is equal to or higher than the first threshold value, which is the reference value for overexposure of the captured image. If the level is lower than the second threshold value, which is the reference value for blackening of the captured image, the first filter piece, the second filter piece, and the third filter piece. The measuring device according to claim 8, wherein the depth information of the object is measured by using the received signal of the unit and the fourth filter piece.
前記計測部は、各前記フィルタ片部を介した全部の前記受光素子の受光信号のレベルが、撮像画像の白飛びの基準値である第1の閾値未満のレベルであり、かつ、撮像画像の黒潰れの基準値である第2の閾値未満のレベルであった場合、又は、各前記フィルタ片部を介した前記受光素子の受光信号のうち、撮像画像の白飛びの基準値である第1の閾値未満のレベルであり、かつ、撮像画像の黒潰れの基準値である第2の閾値未満のレベルとなる受光信号が、所定数以下の場合に、白飛び無し又は黒潰れ無しと判断すること
を特徴とする請求項5から請求項9のうち、いずれか一項に記載の計測装置。
In the measuring unit, the level of the received signal of all the light receiving elements passed through each of the filter pieces is a level lower than the first threshold value which is the reference value of the overexposure of the captured image, and the captured image When the level is less than the second threshold value which is the reference value of blackout, or among the received signals of the light receiving element via each of the filter pieces, the first value which is the reference value of overexposure of the captured image. When the number of received signals that are below the threshold value of and below the second threshold value, which is the reference value for blackout of the captured image, is less than a predetermined number, it is determined that there is no overexposure or no blackout. The measuring device according to any one of claims 5 to 9, wherein the measuring device is characterized by the above.
前記照射部は、複数の発振波長を有する面発光型半導体レーザであること
を特徴とする請求項5から請求項10のうち、いずれか一項に記載の計測装置。
The measuring device according to any one of claims 5 to 10, wherein the irradiation unit is a surface emitting semiconductor laser having a plurality of oscillation wavelengths.
前記照射部は、複数の異なる波長の前記投影パターンを形成する投影パターン形成部を含むこと
を特徴とする請求項5から請求項11のうち、いずれか一項に記載の計測装置。
The measuring device according to any one of claims 5 to 11, wherein the irradiation unit includes a projection pattern forming unit that forms the projection pattern having a plurality of different wavelengths.
請求項1から請求項4のうち、いずれか一項に記載の撮像装置を用い、
所定の投影パターンの光を、対象物に照射し、
前記撮像装置における、前記減光率の異なるフィルタ片部を介した受光信号を選択的に用いて、前記対象物の奥行情報を計測する
計測方法。
The imaging apparatus according to any one of claims 1 to 4 is used.
The object is irradiated with light of a predetermined projection pattern,
A measurement method for measuring depth information of an object by selectively using light-receiving signals that pass through filter pieces having different dimming rates in the imaging device.
JP2019132206A 2019-07-17 2019-07-17 Imaging apparatus, measuring device, and measuring method Pending JP2021018081A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019132206A JP2021018081A (en) 2019-07-17 2019-07-17 Imaging apparatus, measuring device, and measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019132206A JP2021018081A (en) 2019-07-17 2019-07-17 Imaging apparatus, measuring device, and measuring method

Publications (1)

Publication Number Publication Date
JP2021018081A true JP2021018081A (en) 2021-02-15

Family

ID=74564207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019132206A Pending JP2021018081A (en) 2019-07-17 2019-07-17 Imaging apparatus, measuring device, and measuring method

Country Status (1)

Country Link
JP (1) JP2021018081A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009044451A (en) * 2007-08-08 2009-02-26 Fujitsu Ten Ltd Image processor, on-vehicle image processor, and on-vehicle image processing method
JP2010183158A (en) * 2009-02-03 2010-08-19 Panasonic Corp Imaging device
JP2016170122A (en) * 2015-03-13 2016-09-23 キヤノン株式会社 Measurement device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009044451A (en) * 2007-08-08 2009-02-26 Fujitsu Ten Ltd Image processor, on-vehicle image processor, and on-vehicle image processing method
JP2010183158A (en) * 2009-02-03 2010-08-19 Panasonic Corp Imaging device
JP2016170122A (en) * 2015-03-13 2016-09-23 キヤノン株式会社 Measurement device

Similar Documents

Publication Publication Date Title
US9442075B2 (en) Galvanometer scanned camera with variable focus and method
JP5966467B2 (en) Ranging device
US11002534B2 (en) Patterned light projection apparatus and method
JP7409532B2 (en) Optical equipment, measuring equipment, robots, electronic equipment, moving objects, and modeling equipment
US11467261B2 (en) Distance measuring device and moving object
US10679370B2 (en) Energy optimized imaging system with 360 degree field-of-view
US20110313721A1 (en) Contour sensor incorporating mems mirrors
TW201350786A (en) Form measuring apparatus, structure manufacturing system, scanning apparatus, method for measuring form, method for manufacturing structure, and non-transitory computer readable medium storing program for measuring form
JP6883869B2 (en) Image inspection equipment, image inspection method, and parts for image inspection equipment
US11531208B2 (en) Light source, optical device, measuring device, robot, electronic apparatus, movable structure, and manufacturing apparatus
CN103486979A (en) Hybrid sensor
JP2013257162A (en) Distance measuring device
US11350077B2 (en) Handheld three dimensional scanner with an autoaperture
JP2021018079A (en) Imaging apparatus, measuring device, and measuring method
US11326874B2 (en) Structured light projection optical system for obtaining 3D data of object surface
US10627709B2 (en) Light source, projection device, measurement device, robot, electronic device, mobile object, and shaping apparatus
JP2020092256A (en) Light source, light source device, optical device, measuring device, robot, electronic apparatus, movable body, and molding device
JP2021018081A (en) Imaging apparatus, measuring device, and measuring method
US20190349569A1 (en) High-sensitivity low-power camera system for 3d structured light application
JP2023532676A (en) Projector for diffuse illumination and structured light
JP2020009749A (en) Light source, projection device, measurement device, robot, electronic apparatus, moving body, and molding device
JP7215472B2 (en) Imaging device and imaging method
JP2022071666A (en) Optical device, measuring device, robot, electronic apparatus, and molding device
JP2021148587A (en) Object detector and mobile body
JP2003090712A (en) Three-dimensional image imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230801