JP2014009997A - Range finding device - Google Patents

Range finding device Download PDF

Info

Publication number
JP2014009997A
JP2014009997A JP2012145373A JP2012145373A JP2014009997A JP 2014009997 A JP2014009997 A JP 2014009997A JP 2012145373 A JP2012145373 A JP 2012145373A JP 2012145373 A JP2012145373 A JP 2012145373A JP 2014009997 A JP2014009997 A JP 2014009997A
Authority
JP
Japan
Prior art keywords
light
distance
pattern
pattern light
distance measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012145373A
Other languages
Japanese (ja)
Inventor
Shigeru Ouchida
茂 大内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012145373A priority Critical patent/JP2014009997A/en
Publication of JP2014009997A publication Critical patent/JP2014009997A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To highly accurately measure a distance to an object or a shape by preventing reduction of measurement accuracy caused by the distance to the object.SOLUTION: A range finding device includes a semiconductor laser 21 for emitting illumination light, a diffraction optical element 22 for applying diffractive pattern light generated by diffracting the illumination light to an object 41, a plurality of imaging lenses 12 for forming an image of the diffractive pattern light reflected by the object, a plurality of image pickup devices 13 for capturing a plurality of images of the object based on the diffractive pattern light image-formed by the imaging lenses, range finding means 31 for calculating a distance from the object from parallax information among the plurality of images, and irradiation control means 32 for controlling the diffractive pattern light according to the distance information obtained from the range finding means.

Description

本発明は、対象物にパターン光を投光するパターン照明装置を備えた測距装置に関し、特に、測距条件に応じて投光するパターン光を制御することにより、測距精度を向上させた測距装置に関する。   The present invention relates to a distance measuring device including a pattern illumination device that projects pattern light onto an object, and in particular, the distance measuring accuracy is improved by controlling the pattern light to be projected according to the distance measuring conditions. The present invention relates to a distance measuring device.

従来、対象物を2つのカメラで撮影し、得られた2つの画像を用いて対象物までの距離情報を得る「ステレオ測距」技術が知られている。ステレオ測距においては、撮影した2つの画像間に生じる視差を利用して、三角測量の原理により奥行き距離を算出する。ステレオ測距において視差を求めるためには、ウィンドウマッチングを行って各画像において互いに対応する点(対応点)を探し出す必要がある。   Conventionally, a “stereo ranging” technique is known in which an object is photographed by two cameras and distance information to the object is obtained using the two obtained images. In stereo ranging, the depth distance is calculated based on the principle of triangulation using the parallax generated between two captured images. In order to obtain parallax in stereo ranging, it is necessary to perform window matching to find corresponding points (corresponding points) in each image.

図15、及び図16は、「ステレオ測距」で用いられる三角測量の原理を利用した測距方法の原理を説明する図である。ステレオ測距においては、1対の2次元センサと、1対のレンズと、を組み合わせることにより2つのカメラを構成して、対象物のずれ(視差)を検出して三角測量の原理により距離を計測する。
図15に示すステレオカメラ装置106において、同一の光学系からなる2つのカメラ102a、102bを配置して、各カメラ102にて対象物101からの光を撮影する場合を考える。
各カメラ102(102a、102b)は、対象物101の光像が入射するレンズ103(103a、103b)と、各レンズ103に入射した対象物101の光像(対象物像104:104a、104b)を撮像する2次元センサ105(105a、105b)と、を備えている。
カメラ102aのレンズ103aを通して得た対象物像104aと、カメラ102bのレンズ103bを通して得た対象物像104bとは、対象物101上の同一点が視差Δだけずれて2次元センサ105a、105b(図16)に夫々至り、複数の受光素子(画素)で受光され、電気信号に変換される。
FIG. 15 and FIG. 16 are diagrams for explaining the principle of the distance measuring method using the principle of triangulation used in “stereo distance measurement”. In stereo ranging, two cameras are configured by combining a pair of two-dimensional sensors and a pair of lenses, and the distance (parallax) of an object is detected to determine the distance based on the principle of triangulation. measure.
Consider a case in which two cameras 102 a and 102 b having the same optical system are arranged in the stereo camera device 106 shown in FIG. 15 and the light from the object 101 is photographed by each camera 102.
Each camera 102 (102a, 102b) includes a lens 103 (103a, 103b) on which an optical image of the object 101 is incident and an optical image (object image 104: 104a, 104b) of the object 101 incident on each lens 103. Two-dimensional sensor 105 (105a, 105b).
The object image 104a obtained through the lens 103a of the camera 102a and the object image 104b obtained through the lens 103b of the camera 102b are shifted from each other by the parallax Δ between the same points on the object 101 and two-dimensional sensors 105a and 105b (FIG. 16), the light is received by a plurality of light receiving elements (pixels) and converted into electrical signals.

ここでレンズ103a、103bの光軸間の距離は基線長と呼ばれる。基線長をDとし、レンズ103と対象物101との距離をA、レンズ103の焦点距離をfとしたとき、A≫fであるときには次式が成り立つ。
A=Df/Δ ・・・式(1)
図15に示すように、基線長D、及びレンズの焦点距離fは既知であるから、視差Δを検出すれば、式(1)より対象物101までの距離Aを算出することができる。
Here, the distance between the optical axes of the lenses 103a and 103b is called a baseline length. When the base line length is D, the distance between the lens 103 and the object 101 is A, and the focal length of the lens 103 is f, the following equation holds when A >> f.
A = Df / Δ Expression (1)
As shown in FIG. 15, since the baseline length D and the focal length f of the lens are known, the distance A to the object 101 can be calculated from the equation (1) by detecting the parallax Δ.

ところで、上記ウィンドウマッチングは、画素の輝度値の分布特性に基づいて対象物像104aの対応点104cを探し出す方法である。従って、例えば対象物101が単一色の表面をもつ物体である場合のように、対象物101の表面の輝度分布が一様であり、撮影画像において輝度値に変化の生じ難い場合には、対応点104cを探し出すことが困難になるため、正確な距離を算出できなくなるという問題がある。
これに対して特許文献1には、撮影画像において輝度値に変化の生じ難い対象物に所定のパターンを照射して、対象物の表面に模様をつけることにより、上記の問題を解消する技術が開示されている。具体的には、この文献には、レーザ光とホログラムを用いたAF(オートフォーカス)補助光発光部を備えた撮影装置が開示されている。ホログラムプレートにより回折した所定のパターンを有するレーザ光を、対象物に照射することによって、対象物の表面に模様を付けている。
By the way, the window matching is a method of finding the corresponding point 104c of the object image 104a based on the distribution characteristic of the luminance value of the pixel. Therefore, for example, when the target object 101 is an object having a single color surface, the luminance distribution on the surface of the target object 101 is uniform, and it is difficult to change the luminance value in the captured image. Since it becomes difficult to find the point 104c, there is a problem that an accurate distance cannot be calculated.
On the other hand, Patent Document 1 discloses a technique for solving the above-described problem by irradiating a predetermined pattern on an object whose luminance value is unlikely to change in a photographed image and applying a pattern to the surface of the object. It is disclosed. Specifically, this document discloses an imaging apparatus including an AF (autofocus) auxiliary light emitting unit using laser light and a hologram. A pattern is given to the surface of the object by irradiating the object with laser light having a predetermined pattern diffracted by the hologram plate.

ところで、ウィンドウマッチングにおいて対応点を高い精度で検出するためには、取得画像の対象物部分に、適切な輝度値分布が存在する必要がある。
特許文献1においては、パターン切替部が撮影光学系の撮影画角又はAFエリアに応じてホログラムを切り換えることで、測距に必要な範囲の全体にパターンを照射する。しかし、撮影装置からの距離が異なる対象物に対して同一のパターンを照射した場合、光の性質上、撮影装置から近い対象物と遠い対象物とでは、取得画像の対象物部分における輝度値分布に差が生じる。その結果、対象物までの距離によって測定精度に大きな差が出てしまうという問題がある。
本発明は、上述の事情に鑑みてなされたものであり、対象物までの距離に起因する測定精度の低下を防止し、対象物までの距離や形状を高精度に測定することを目的とする。
By the way, in order to detect corresponding points with high accuracy in window matching, it is necessary that an appropriate luminance value distribution exists in the object portion of the acquired image.
In Patent Document 1, the pattern switching unit switches the hologram in accordance with the shooting angle of view or AF area of the shooting optical system, thereby irradiating the entire range necessary for distance measurement. However, when the same pattern is irradiated to objects with different distances from the imaging device, due to the nature of the light, the luminance value distribution in the object portion of the acquired image is different between the objects close to and far from the imaging device. There will be a difference. As a result, there is a problem that a large difference in measurement accuracy occurs depending on the distance to the object.
The present invention has been made in view of the above-described circumstances, and aims to prevent a decrease in measurement accuracy due to the distance to the object and to measure the distance and shape to the object with high accuracy. .

上記課題を解決するために、請求項1に記載の測距装置は、照明光を出射する光源と、前記照明光を回折して生成した回折パターン光を、対象物に照射する回折光学素子と、前記対象物で反射された前記回折パターン光を結像する複数の撮像レンズと、前記各撮像レンズにより結像された前記回折パターン光に基づく、前記対象物に係る複数の画像を撮像する複数の撮像手段と、前記複数の画像間の視差情報から前記対象物からの距離を算出する測距手段と、前記測距手段から得られた距離情報に応じて前記回折パターン光を制御するパターン制御手段と、備えたことを特徴とする。   In order to solve the above-described problem, a distance measuring device according to claim 1 includes: a light source that emits illumination light; and a diffractive optical element that irradiates an object with diffraction pattern light generated by diffracting the illumination light. A plurality of imaging lenses that image the diffraction pattern light reflected by the object, and a plurality of images that capture a plurality of images related to the object based on the diffraction pattern light imaged by the imaging lenses. Imaging means; distance measuring means for calculating a distance from the object based on parallax information between the plurality of images; and pattern control for controlling the diffraction pattern light according to distance information obtained from the distance measuring means And means.

本発明によれば、照射するパターン光を対象物までの距離に応じて制御するので、対象物までの距離に応じた適切な輝度値分布を有する画像を得ることができる。従って、対象物までの距離に起因する測定精度の低下を防止し、対象物までの距離や形状を高精度に測定できる。   According to the present invention, since the pattern light to be irradiated is controlled according to the distance to the object, an image having an appropriate luminance value distribution according to the distance to the object can be obtained. Accordingly, it is possible to prevent a decrease in measurement accuracy due to the distance to the object and to measure the distance and shape to the object with high accuracy.

本発明の第一の実施形態に係る測距装置を示した模式図である。It is the schematic diagram which showed the distance measuring device which concerns on 1st embodiment of this invention. 図1に示す測距装置の構成図である。It is a block diagram of the ranging apparatus shown in FIG. レーザ照射装置から照射されるパターン光とステレオカメラにて撮像される画像について示した図である。It is the figure shown about the pattern light irradiated from a laser irradiation apparatus, and the image imaged with a stereo camera. (a)〜(c)はパターン照明を行わない場合の測距例を示す図である。(A)-(c) is a figure which shows the ranging example in the case of not performing pattern illumination. (a)〜(c)はパターン照明を行った場合の測距例を示す図である。(A)-(c) is a figure which shows the ranging example at the time of performing pattern illumination. 対象物までの距離に応じてパターン光の照射画角を変更する例を示した模式図である。It is the schematic diagram which showed the example which changes the irradiation angle of view of pattern light according to the distance to a target object. 波長可変レーザの構成図である。It is a block diagram of a wavelength variable laser. (a)〜(c)は照射画角が狭いパターン光の例であり、(d)〜(f)は照射画角が広いパターン光の例を示す図である。(A)-(c) is an example of pattern light with a narrow irradiation angle of view, (d)-(f) is a figure which shows the example of pattern light with a wide irradiation angle of view. レーザ照射装置の一例を示した模式図である。It is the schematic diagram which showed an example of the laser irradiation apparatus. (a)、(b)は、本発明の第一の実施形態に係る測距装置をロボットアームに取り付けたときの動作を説明する図である。(A), (b) is a figure explaining operation | movement when the ranging apparatus which concerns on 1st embodiment of this invention is attached to a robot arm. (c)、(d)は、本発明の第一の実施形態に係る測距装置をロボットアームに取り付けたときの動作を説明する図である。(C), (d) is a figure explaining operation | movement when the ranging apparatus which concerns on 1st embodiment of this invention is attached to a robot arm. (a)〜(c)は、密度が低いパターン光の例であり、(d)〜(f)は、密度が高いパターン光の例を示す図である。(A)-(c) is an example of pattern light with a low density, (d)-(f) is a figure which shows the example of pattern light with a high density. 第三の実施形態に係るレーザ照射装置を示す図である。It is a figure which shows the laser irradiation apparatus which concerns on 3rd embodiment. (a)、(b)は、偏光回転素子の一例を示す模式図である。(A), (b) is a schematic diagram which shows an example of a polarization rotation element. 三角測量の原理を利用した測距方法の原理を説明する図である。It is a figure explaining the principle of the ranging method using the principle of triangulation. 三角測量の原理を利用した測距方法の原理を説明する図である。It is a figure explaining the principle of the ranging method using the principle of triangulation.

以下、本発明を図に示した実施形態を用いて詳細に説明する。但し、この実施形態に記載される構成要素、種類、組み合わせ、形状、その相対配置などは特定的な記載がない限り、この発明の範囲をそれのみに限定する主旨ではなく単なる説明例に過ぎない。
〈第一の実施形態〉
本発明の第一の実施形態に係る測距装置について説明する。図1は、本発明の第一の実施形態に係る測距装置を示した模式図である。図2は、図1に示す測距装置の構成図である。本実施形態に係る測距装置は、図15、図16に示す三角測量の原理を利用した「ステレオ測距」により、対象物までの距離を測定する装置である。本実施形態に係る測距装置は、測距手段から得られた距離情報に応じて、対象物に照射するパターン光を制御する点に特徴がある。
Hereinafter, the present invention will be described in detail with reference to embodiments shown in the drawings. However, the components, types, combinations, shapes, relative arrangements, and the like described in this embodiment are merely illustrative examples and not intended to limit the scope of the present invention only unless otherwise specified. .
<First embodiment>
A distance measuring apparatus according to a first embodiment of the present invention will be described. FIG. 1 is a schematic diagram showing a distance measuring apparatus according to a first embodiment of the present invention. FIG. 2 is a block diagram of the distance measuring apparatus shown in FIG. The distance measuring device according to the present embodiment is a device that measures the distance to an object by “stereo ranging” using the principle of triangulation shown in FIGS. 15 and 16. The distance measuring apparatus according to the present embodiment is characterized in that the pattern light applied to the object is controlled according to the distance information obtained from the distance measuring means.

測距装置1は、図1、及び図2に示すように、互いに視差のある2つの対象物画像を撮像するステレオカメラ10と、対象物41に対して所定のパターン光を照射するレーザ照射装置20と、ステレオカメラ10にて撮像された視差画像から対象物までの距離を算出する測距手段31及びレーザ照射装置20を制御する照射制御手段32を有する制御部30と、を備えている。
レーザ照射装置20は照明光を出射する半導体レーザ21(光源)と、照明光を回折して生成したパターン光(回折パターン光)を、対象物41に照射する回折光学素子22と、を備えている。また、ステレオカメラ10は、複数の単眼のカメラ11(11a、11b)を含んで構成されており、各カメラ11は、対象物41で反射されたパターン光を結像する複数の撮像レンズ12(12a、12b)と、各撮像レンズ12により結像されたパターン光に基づく、対象物41に係る複数の画像を撮像する複数の撮像素子13(13a、13b:撮像手段)と、を備えている。
制御部30の測距手段31は、各撮像素子13にて撮像された夫々の画像間の視差情報に基づいて対象物41までの距離を算出する。また、照射制御手段32は、半導体レーザ21のオンオフを制御する手段として機能すると共に、測距手段31から得られた距離情報に応じてパターン光を制御するパターン制御手段としても機能する。
As shown in FIGS. 1 and 2, the distance measuring device 1 includes a stereo camera 10 that captures two object images with parallax and a laser irradiation apparatus that irradiates the object 41 with a predetermined pattern light. 20, and a control unit 30 having a distance measuring unit 31 that calculates a distance from a parallax image captured by the stereo camera 10 to an object and an irradiation control unit 32 that controls the laser irradiation apparatus 20.
The laser irradiation device 20 includes a semiconductor laser 21 (light source) that emits illumination light, and a diffractive optical element 22 that irradiates an object 41 with pattern light (diffraction pattern light) generated by diffracting the illumination light. Yes. The stereo camera 10 includes a plurality of monocular cameras 11 (11a and 11b), and each camera 11 forms a plurality of imaging lenses 12 (images of the pattern light reflected by the object 41). 12a, 12b) and a plurality of image pickup devices 13 (13a, 13b: image pickup means) for picking up a plurality of images related to the object 41 based on the pattern light imaged by each image pickup lens 12. .
The distance measuring means 31 of the control unit 30 calculates the distance to the target object 41 based on the parallax information between the images captured by the image sensors 13. The irradiation control means 32 functions as a means for controlling on / off of the semiconductor laser 21 and also functions as a pattern control means for controlling pattern light according to the distance information obtained from the distance measuring means 31.

ステレオカメラ10の各カメラ11は、所定の撮像画角αを有している(図3参照)。測距装置1は2つのカメラ11a、11bの撮像レンズ12a、12bの光軸間隔(基線長)をD、撮像レンズ12と対象物41との距離をA、撮像レンズの焦点距離をfとし、A≫fであるときには先述の式(1)に示したように「A=Df/Δ」(Δ:視差)となる。基線長D、及び撮像レンズの焦点距離fは既知であるから、各撮像素子13上に写る対象物41の視差Δを検出すれば対象物41までの距離Aを算出することができる。なお、撮像素子13は、CCDやCMOS等の2次元センサである。   Each camera 11 of the stereo camera 10 has a predetermined imaging angle of view α (see FIG. 3). In the distance measuring apparatus 1, the distance between the optical axes (base line length) of the imaging lenses 12a and 12b of the two cameras 11a and 11b is D, the distance between the imaging lens 12 and the object 41 is A, and the focal length of the imaging lens is f. When A >> f, “A = Df / Δ” (Δ: parallax) as shown in the above-described equation (1). Since the base length D and the focal length f of the imaging lens are known, the distance A to the target 41 can be calculated by detecting the parallax Δ of the target 41 reflected on each image sensor 13. Note that the image sensor 13 is a two-dimensional sensor such as a CCD or a CMOS.

図3は、レーザ照射装置から照射されるパターン光とステレオカメラにて撮像される画像について示した図である。図示するように、レーザ照射装置20からは所定のパターンのレーザ光(パターン光)が照射される。パターン光の照射方向は、ステレオカメラ10の向きと一致するように調整されている。レーザ照射装置20から照射されるパターン光の照射画角βは、ステレオカメラ10の撮像画角αとほぼ等しく設定されている。従って、対象物までの距離の遠近にかかわらず、パターン光の照射範囲23とステレオカメラ10の撮像範囲14が略同一であり、ステレオカメラ10の撮像範囲14の略全面にパターン光を照射できる。   FIG. 3 is a diagram showing pattern light irradiated from the laser irradiation apparatus and an image captured by the stereo camera. As shown in the drawing, a laser beam (pattern light) of a predetermined pattern is irradiated from the laser irradiation device 20. The irradiation direction of the pattern light is adjusted to coincide with the direction of the stereo camera 10. The irradiation field angle β of the pattern light emitted from the laser irradiation device 20 is set to be approximately equal to the imaging field angle α of the stereo camera 10. Therefore, regardless of the distance to the object, the pattern light irradiation range 23 and the imaging range 14 of the stereo camera 10 are substantially the same, and the pattern light can be applied to substantially the entire imaging range 14 of the stereo camera 10.

次にパターン照明の有無による測距結果の違いについて図4、及び図5に基づいて説明する。図4は、パターン照明を行わない場合の測距例を示す図である。図5は、パターン照明を行った場合の測距例を示す図である。
なお、以下の説明においては「輝度分布が一様である」こと、或いは「輝度値に変化の生じ難い」ことを、「コントラストが無い」或いは「コントラストが小さい」等と表現することがある。
Next, differences in distance measurement results depending on the presence / absence of pattern illumination will be described with reference to FIGS. FIG. 4 is a diagram illustrating an example of distance measurement when pattern illumination is not performed. FIG. 5 is a diagram illustrating an example of distance measurement when pattern illumination is performed.
In the following description, “the luminance distribution is uniform” or “the luminance value hardly changes” may be expressed as “no contrast” or “low contrast”.

まずパターン照明が無い場合について説明する。図4(a)に示すように、平面40上に置かれた対象物41(この例では直方体)をステレオカメラ10にて撮影する場合を考える。平面40及び対象物41は、何れもコントラストが無い物体である。この場合、ステレオカメラ10による撮影画像は、図4(b)のようになる。
測距手段31は、ステレオカメラ10の各カメラ11(図2参照)にて夫々撮影した2つの画像から視差を求め、平面40及び対象物41までの距離を求める。
求められた距離に基づいて距離画像を算出すると図4(c)のようになる。なお、距離画像では、測距手段31によって求められた距離が、例えば色の違い等により画像上に表現される。図4(c)に示すように、対象物41のエッジ部41aだけが距離を算出され、コントラストの無い平面40やコントラストの無い対象物41の上面部41bは距離が算出されない。これはステレオカメラの原理上、コントラストの無い対象物では、撮影画像において輝度値に変化が生じ難く、ウィンドウマッチングを行って対応する点(対応点)を探し出すことが困難なためである。
First, the case where there is no pattern illumination will be described. As shown in FIG. 4A, consider a case where an object 41 (in this example, a rectangular parallelepiped) placed on a plane 40 is photographed with a stereo camera 10. The plane 40 and the object 41 are both objects having no contrast. In this case, an image captured by the stereo camera 10 is as shown in FIG.
The distance measuring means 31 obtains the parallax from two images taken by each camera 11 (see FIG. 2) of the stereo camera 10 and obtains the distance to the plane 40 and the object 41.
When the distance image is calculated based on the obtained distance, the result is as shown in FIG. In the distance image, the distance obtained by the distance measuring unit 31 is expressed on the image by, for example, a color difference. As shown in FIG. 4C, the distance is calculated only for the edge portion 41a of the object 41, and the distance is not calculated for the flat surface 40 without contrast and the upper surface portion 41b of the object 41 without contrast. This is because, based on the principle of a stereo camera, an object having no contrast hardly changes in luminance value in a captured image, and it is difficult to find a corresponding point (corresponding point) by performing window matching.

一方、パターン照明がある場合について説明する。図5(a)に示すように、平面40上に置かれた対象物41にパターン光を照射すると、平面40と対象物41の表面に所定のパターン(模様)が形成される。この場合、ステレオカメラ10は、図5(b)のような画像を撮影する。
測距手段31は、ステレオカメラ10の各カメラ11(図2参照)にて夫々撮影した2つの画像から視差を求め、平面40及び対象物41までの距離を求める。
求められた距離に基づいて距離画像を算出すると図5(c)のようになる。図5(c)に示すように、対象物41のエッジ部41aだけではなく、平面40や対象物41の上面部41bも距離が算出される。これはコントラストの無い対象物にパターンが照射されたことで、物体の表面に輝度値の変化が生じ、ウィンドウマッチングを行って互いに対応する点(対応点)を探し出すことができるようになったためである。
このようにパターン照明を行うことでコントラストの無い対象物でも距離を得ることができ、さらにはカメラの画角と撮像素子上に結像した像の大きさから対象物の形状寸法も知ることができる。
On the other hand, the case where there is pattern illumination will be described. As shown in FIG. 5A, when pattern light is irradiated to the object 41 placed on the plane 40, a predetermined pattern (pattern) is formed on the surface of the plane 40 and the object 41. In this case, the stereo camera 10 captures an image as shown in FIG.
The distance measuring means 31 obtains the parallax from two images taken by each camera 11 (see FIG. 2) of the stereo camera 10 and obtains the distance to the plane 40 and the object 41.
When the distance image is calculated based on the obtained distance, the result is as shown in FIG. As shown in FIG. 5C, not only the edge portion 41a of the object 41 but also the plane 40 and the upper surface portion 41b of the object 41 are calculated. This is because a pattern is irradiated onto an object with no contrast, which causes a change in the brightness value on the surface of the object, and it is now possible to find corresponding points (corresponding points) by performing window matching. is there.
By performing pattern illumination in this way, distances can be obtained even for objects without contrast, and the shape dimensions of the object can also be known from the angle of view of the camera and the size of the image formed on the image sensor. it can.

ところで、ステレオカメラと対象物までの距離によっては、以下のような問題が生ずる。以下、図3を参照しながら説明する。
第一に、対象物41がステレオカメラ10から遠くなるほど、照射パターンの単位面積あたりの光強度が弱くなるという問題がある。レーザ照射装置20から出射される光の照射面積は、遠くになるほど大きくなる。しかし、レーザ照射装置20に搭載されているレーザの出力は一定であるため、遠くになるほど単位面積あたりの光強度は弱くなる。光強度が弱くなると、コントラストが小さくなるため、ウィンドウマッチングを行って対応点を探すときにエラーが出やすくなり、正確な測距ができなくなる。
第二に、対象物41がステレオカメラ10から遠くなるほど、撮像素子13上に結像する対象物像が小さくなるという問題がある。図3に示すように対象物41がステレオカメラ10から近い位置にある場合は、撮像範囲14に占める対象物41の面積が大きいため、対象物41は、画面内に大きく写し出される。逆にステレオカメラ10から遠い位置にある場合は、撮像範囲14に占める対象物41の面積が小さくなり、対象物41は画面内に小さくしか写らない。一方で、パターン光の模様(例えばドット)は、対象物41がレーザ照射装置20から近い位置にある場合は、対象物41の表面で小さくなり、対象物41がレーザ照射装置20から遠い位置にある場合は、対象物41の表面で大きくなる。従って、例えばパターン光の模様がドットであるとすると、対象物41に照射されるパターン光のドットの数は、対象物41がレーザ照射装置20から遠くなるほど少なくなり、正確な距離及び形状を測定できなくなるという問題が生じる。
上記問題は、特に測距装置がロボットアームや自立走行型ロボットのような可動部に取り付けられているために、対象物までの距離や方向が刻々と変化するような場合に顕著となる。この問題を解決するため、本実施形態においは、対象物までの距離に応じて、レーザ照射装置から照射されるパターンを切り替える。
By the way, depending on the distance between the stereo camera and the object, the following problems occur. Hereinafter, a description will be given with reference to FIG.
First, there is a problem that the light intensity per unit area of the irradiation pattern becomes weaker as the object 41 is farther from the stereo camera 10. The irradiation area of the light emitted from the laser irradiation device 20 increases as the distance increases. However, since the output of the laser mounted on the laser irradiation device 20 is constant, the light intensity per unit area becomes weaker as the distance increases. When the light intensity becomes weak, the contrast becomes small, so that an error is likely to occur when searching for corresponding points by performing window matching, and accurate distance measurement cannot be performed.
Second, there is a problem that the object image formed on the image sensor 13 becomes smaller as the object 41 is farther from the stereo camera 10. As shown in FIG. 3, when the target object 41 is close to the stereo camera 10, the area of the target object 41 occupying the imaging range 14 is large, so that the target object 41 is greatly projected on the screen. Conversely, when the object is located far from the stereo camera 10, the area of the object 41 occupying the imaging range 14 becomes small, and the object 41 appears only small on the screen. On the other hand, the pattern (for example, dot) of the pattern light is small on the surface of the target object 41 when the target object 41 is at a position close to the laser irradiation apparatus 20, and the target object 41 is at a position far from the laser irradiation apparatus 20. In some cases, it becomes larger on the surface of the object 41. Therefore, for example, if the pattern of the pattern light is a dot, the number of pattern light dots applied to the object 41 decreases as the object 41 is further away from the laser irradiation apparatus 20, and an accurate distance and shape are measured. The problem that it becomes impossible.
The above-mentioned problem is particularly noticeable when the distance and direction to the object change every moment because the distance measuring device is attached to a movable part such as a robot arm or a self-running robot. In order to solve this problem, in the present embodiment, the pattern irradiated from the laser irradiation apparatus is switched according to the distance to the object.

図6は、対象物までの距離に応じてパターン光の照射画角を変更する例を示した模式図である。
図6に示すように、対象物41がステレオカメラ10から近い距離A1にある場合は、撮像素子13上で結像する対象物41の像が大きい。そこで、測距手段31(図2参照)が、対象物41が近くにあることを認識した時点で、レーザ照射装置20から照射されるパターン光の画角を大きくして(照射画角β)、対象物41の全体とその周辺部までパターン光が照射されるようにする。
即ち、まずステレオカメラ10にて対象物41を撮像し、2つのカメラ11の視差画像に基づき、測距手段31が対象物41までの距離を算出する。測距手段31によって算出された距離が所定の距離(しきい値)よりも小さい場合に、照射制御手段32は、レーザ照射装置20から照射されるパターン光の画角が大きくなるように(照射画角がβとなるように)レーザ照射装置20を制御する。そして、対象物41の全体とその周辺部(照射範囲23β)にパターン光が照射されるようにする。
FIG. 6 is a schematic diagram illustrating an example of changing the irradiation angle of view of the pattern light according to the distance to the object.
As shown in FIG. 6, when the object 41 is at a distance A <b> 1 close to the stereo camera 10, the image of the object 41 imaged on the image sensor 13 is large. Therefore, when the distance measuring means 31 (see FIG. 2) recognizes that the object 41 is nearby, the angle of view of the pattern light emitted from the laser irradiation apparatus 20 is increased (irradiation angle of view β). The pattern light is irradiated to the entire object 41 and its peripheral part.
That is, first, the object 41 is imaged by the stereo camera 10, and the distance measuring unit 31 calculates the distance to the object 41 based on the parallax images of the two cameras 11. When the distance calculated by the distance measuring unit 31 is smaller than a predetermined distance (threshold value), the irradiation control unit 32 increases the field angle of the pattern light emitted from the laser irradiation device 20 (irradiation). The laser irradiation apparatus 20 is controlled so that the angle of view becomes β. Then, the pattern light is irradiated to the entire object 41 and its peripheral portion (irradiation range 23β).

一方、対象物41がステレオカメラ10から遠い距離A2にある場合は、撮像素子13上で結像する対象物41の像が小さい。そこで、測距手段31が、対象物41が遠くにあることを認識した時点で、レーザ照射装置20から照射されるパターン光の画角を小さくする(照射画角γ)。
即ち、まずステレオカメラ10にて対象物41を撮像し、2つのカメラ11の視差画像に基づき、測距手段31が対象物までの距離を算出する。測距手段31によって算出された距離が所定の距離(しきい値)よりも大きい場合に、照射制御手段32は、レーザ照射装置20から照射されるパターン光の画角が小さくなるように(照射画角がγとなるように)レーザ照射装置20を制御する。そして、対象物41の全体とその周辺部(照射範囲23γ)にパターン光が照射されるようにする。ここで照射画角を小さくしても、対象物41までの距離が離れているため、対象物41の全体とその周辺部までパターン光が照射されることに変わりはない。
On the other hand, when the object 41 is at a distance A2 far from the stereo camera 10, the image of the object 41 imaged on the image sensor 13 is small. Therefore, when the distance measuring unit 31 recognizes that the object 41 is far away, the angle of view of the pattern light emitted from the laser irradiation device 20 is reduced (irradiation angle of view γ).
That is, first, the object 41 is imaged by the stereo camera 10, and the distance measuring unit 31 calculates the distance to the object based on the parallax images of the two cameras 11. When the distance calculated by the distance measuring unit 31 is larger than a predetermined distance (threshold), the irradiation control unit 32 reduces the field angle of the pattern light emitted from the laser irradiation device 20 (irradiation). The laser irradiation apparatus 20 is controlled so that the angle of view becomes γ. Then, the entire target object 41 and its peripheral part (irradiation range 23γ) are irradiated with the pattern light. Even if the irradiation angle of view is reduced here, the distance to the target object 41 is far away, so that the pattern light is irradiated to the entire target object 41 and its peripheral part.

ここで、パターン光の切り換え方法の一例について説明する。
回折光学素子22からのパターン光の出射画角θは、半導体レーザ21から出射される照明光の波長をλ、回折光学素子22の周期構造をdとすると「θ=Arcsin(λ/d)」にて与えられる。例えば波長λ=0.65μm、周期構造d=1.0μmとすると出射角度は約40°となる。出射画角θを大きくするためには、照明光の波長λを大きくするか、周期構造dを微細化すればよい。
照明光の波長λを変更する方法として、半導体レーザに波長可変レーザを利用することが考えられる。図7は、波長可変レーザの構成図である。波長可変レーザ21Aは、レーザ媒質51と、電気光学効果を有する変調媒体52とが、レーザ共振器を構成する2つの反射鏡53の間に配置されている。変調媒体52には、LiNbOやLiTaOなどを用いることができる。変調媒体52に対して、電圧源54から電界を印加することで、変調媒体52の屈折率が変化する。そうすると、レーザの共振器長が変化するため、発振周波数が変化する。従って、出射画角θを変化させることができる。
Here, an example of a pattern light switching method will be described.
The output field angle θ of the pattern light from the diffractive optical element 22 is “θ = Arcsin (λ / d)” where λ is the wavelength of the illumination light emitted from the semiconductor laser 21 and d is the periodic structure of the diffractive optical element 22. Given in For example, when the wavelength λ = 0.65 μm and the periodic structure d = 1.0 μm, the emission angle is about 40 °. In order to increase the outgoing angle of view θ, the wavelength λ of the illumination light may be increased or the periodic structure d may be miniaturized.
As a method for changing the wavelength λ of the illumination light, it is conceivable to use a wavelength tunable laser for the semiconductor laser. FIG. 7 is a configuration diagram of a wavelength tunable laser. In the wavelength tunable laser 21A, a laser medium 51 and a modulation medium 52 having an electro-optic effect are disposed between two reflecting mirrors 53 constituting a laser resonator. As the modulation medium 52, LiNbO 3 , LiTaO 3, or the like can be used. By applying an electric field from the voltage source 54 to the modulation medium 52, the refractive index of the modulation medium 52 changes. Then, since the laser cavity length changes, the oscillation frequency changes. Therefore, the outgoing angle of view θ can be changed.

図8は、パターン光の画角と得られる距離画像との関係を示した図である。図8(a)〜(c)は、照射画角が狭いパターン光の例であり、図8(d)〜(f)は、照射画角が広いパターン光の例である。夫々、撮影画像、照射パターンの画角、得られる距離画像を示している。図示するように、図8(a)〜(c)では図8(d)〜(f)に比べて照射する画角は狭くなるが、同時にパターンの密度が高くなるため、距離画像の密度も高くなり、より正確な距離と形状を得られることがわかる。
このように、レーザ照射装置20から照射されるパターン光を切り替えることで、対象物が遠くに有る場合でも、レーザ照射装置20のパワーを有効に使用し、対象物に対して十分に明るく、且つ高コントラストなパターン光を照射することができる。従って、撮像画像から精度良く対応点を探し出すことができ、正確な測距ができるようになる。
FIG. 8 is a diagram showing the relationship between the angle of view of the pattern light and the obtained distance image. 8A to 8C are examples of pattern light having a narrow irradiation angle of view, and FIGS. 8D to 8F are examples of pattern light having a wide irradiation angle of view. The photographed image, the angle of view of the irradiation pattern, and the obtained distance image are shown. As shown in the figure, in FIGS. 8A to 8C, the field angle to be irradiated is narrower than that in FIGS. 8D to 8F, but at the same time the pattern density is increased. It turns out that a more accurate distance and shape can be obtained.
In this way, by switching the pattern light emitted from the laser irradiation device 20, even when the object is far away, the power of the laser irradiation device 20 can be used effectively, sufficiently bright against the object, and High contrast pattern light can be irradiated. Accordingly, the corresponding points can be found from the captured image with high accuracy, and accurate ranging can be performed.

また、周期構造dを変更するには、周期構造dが異なる複数の回折光学素子を切り換える方法がある。図9は、レーザ照射装置の一例を示した模式図である。レーザ照射装置20Aは、所定の波長λの直線偏光である照明光(レーザ光)を出射する半導体レーザ21と、半導体レーザ21から出射された照明光を平行光に変換するカップリングレンズ61と、平行光を回折したパターン光を生成する複数の回折光学素子22(22A、22B:ホログラム)と、を備えている。
回折光学素子22は、互いに異なる画角のパターン光を生成する。また、2つの回折光学素子22は互いに隣接配置されており、1枚の光学プレート62を構成する。
照射制御手段32は、平行光が入射する回折光学素子22A、22Bの切り換え制御を行う。この例では、光学プレート62を不図示の駆動機構にてスライドさせ、所望のパターンが形成された回折光学素子22を光路上に配置することで、画角の異なるパターン光を対象物に向けて照射することができる。
半導体レーザ21の波長λを変更することにより、パターン光の照射画角を変更した場合は、図8に示したように、画角と共にパターン密度も変化する。異なる回折光学素子を選択的に使用する場合には、パターン密度を変化させずに、画角のみを変化させたパターン光を照射することもできる。
In order to change the periodic structure d, there is a method of switching a plurality of diffractive optical elements having different periodic structures d. FIG. 9 is a schematic diagram illustrating an example of a laser irradiation apparatus. The laser irradiation apparatus 20A includes a semiconductor laser 21 that emits illumination light (laser light) that is linearly polarized light with a predetermined wavelength λ, a coupling lens 61 that converts the illumination light emitted from the semiconductor laser 21 into parallel light, And a plurality of diffractive optical elements 22 (22A and 22B: holograms) that generate pattern light obtained by diffracting parallel light.
The diffractive optical element 22 generates pattern light having different angles of view. Further, the two diffractive optical elements 22 are arranged adjacent to each other, and constitute one optical plate 62.
The irradiation control means 32 performs switching control of the diffractive optical elements 22A and 22B on which the parallel light is incident. In this example, the optical plate 62 is slid by a driving mechanism (not shown), and the diffractive optical element 22 on which a desired pattern is formed is arranged on the optical path, thereby directing pattern light having different angles of view toward the object. Can be irradiated.
When the irradiation field angle of the pattern light is changed by changing the wavelength λ of the semiconductor laser 21, the pattern density changes with the angle of view as shown in FIG. When different diffractive optical elements are selectively used, it is possible to irradiate pattern light with only the angle of view changed without changing the pattern density.

以下、実際に本発明の測距装置1をロボットアームに取り付けた場合の動作について、図10、及び図11に基づいて説明する。図10、及び図11は、本発明の第一の実施形態に係る測距装置をロボットアームに取り付けたときの動作を説明する図である。測距装置1は、自在に動くロボットアームに取り付けられているため、対象物までの距離や方向が刻々と変化する。以下、図9に示したレーザ照射装置20Aを用いて、パターン光の照射画角を変更する例により説明する。
図10(a)に示すように、初めにロボットアーム80に取り付けられた測距装置1は、レーザ照射装置20からパターン光を出射せずに、対象物41までの距離を算出する。ステレオカメラ10が対象物41を撮影し、測距手段31(図2参照)がステレオマッチングを行って対象物41までの距離画像を得る。ここで、対象物41の表面は輝度分布が一様であるため、対象物41の形状は正確にはわからない。しかし、対象物41のエッジ部までの距離を算出することができるため、算出した距離情報から、対象物41がロボットアームから遠い位置にあることを判断できる。測距手段31が算出した距離情報は、照射制御手段32に送られる。
Hereinafter, the operation when the distance measuring device 1 of the present invention is actually attached to the robot arm will be described with reference to FIGS. 10 and 11. 10 and 11 are diagrams for explaining the operation when the distance measuring device according to the first embodiment of the present invention is attached to the robot arm. Since the distance measuring device 1 is attached to a freely moving robot arm, the distance and direction to the object change every moment. Hereinafter, an example in which the irradiation angle of view of the pattern light is changed using the laser irradiation apparatus 20A shown in FIG. 9 will be described.
As shown in FIG. 10A, the distance measuring device 1 attached to the robot arm 80 first calculates the distance to the object 41 without emitting the pattern light from the laser irradiation device 20. The stereo camera 10 captures the object 41, and the distance measuring means 31 (see FIG. 2) performs stereo matching to obtain a distance image to the object 41. Here, since the surface of the object 41 has a uniform luminance distribution, the shape of the object 41 cannot be accurately determined. However, since the distance to the edge part of the target object 41 can be calculated, it can be determined from the calculated distance information that the target object 41 is at a position far from the robot arm. The distance information calculated by the distance measuring means 31 is sent to the irradiation control means 32.

照射制御手段32は、測距手段31が算出した距離情報に基づいて、レーザ照射装置20から出射されるパターン光の画角を制御する。本例では、対象物41がロボットアーム80から遠いところにあるので、レーザ照射装置20からは画角が小さいパターン光が照射される(図10(b))。即ち、照射制御手段32は、光学プレート62をスライドさせて、照射画角が小さい回折光学素子22Aを光路上に配置し、回折光学素子22Aに平行光を入射させる。これによりコントラストの無い対象物41に狭い照射画角γにてパターン光が照射される。対象物41の表面に所定のパターン(模様)が形成されたことにより、対象物41のエッジ部だけではなく、対象物41全体の形状がわかるようになる。
なお、対象物41までの距離は遠いが、レーザ照射装置20から出射されるパターン光の画角は小さいため、対象物には十分に明るく、高コントラストなパターンを照射することができ、正確な距離画像を得ることができる。
The irradiation control unit 32 controls the angle of view of the pattern light emitted from the laser irradiation device 20 based on the distance information calculated by the distance measuring unit 31. In this example, since the object 41 is located far from the robot arm 80, pattern light having a small angle of view is emitted from the laser irradiation device 20 (FIG. 10B). That is, the irradiation control means 32 slides the optical plate 62, arranges the diffractive optical element 22A having a small irradiation angle of view on the optical path, and allows parallel light to enter the diffractive optical element 22A. As a result, the pattern light is irradiated onto the object 41 having no contrast at a narrow irradiation angle of view γ. By forming a predetermined pattern (pattern) on the surface of the object 41, not only the edge portion of the object 41 but also the shape of the entire object 41 can be understood.
Although the distance to the object 41 is long, the angle of view of the pattern light emitted from the laser irradiation device 20 is small, so that the object can be irradiated with a sufficiently bright and high-contrast pattern. A distance image can be obtained.

図10(b)において対象物の正確な距離画像が得られたため、その情報をもとにロボットアーム80は対象物41に近づく。なお、測距手段31による対象物41までの距離の算出は継続的に行われる。対象物41に近づくにつれて、ステレオカメラ10の撮影画面中に対象物41が大きく写るようになる。対象物41は大きく写るようになるが、レーザ照射装置20から出射されるパターン光の照射角度が小さいままであると、対象物41の一部にパターン光が照射されない状態となる(図11(c))。   Since an accurate distance image of the object is obtained in FIG. 10B, the robot arm 80 approaches the object 41 based on the information. In addition, calculation of the distance to the target object 41 by the distance measuring means 31 is continuously performed. As the object 41 is approached, the object 41 becomes larger in the shooting screen of the stereo camera 10. Although the object 41 appears to be large, if the irradiation angle of the pattern light emitted from the laser irradiation device 20 remains small, a part of the object 41 is not irradiated with the pattern light (FIG. 11 ( c)).

このように対象物41が一定の距離よりも近づいた場合には、レーザ照射装置20から出射されるパターン光の画角を大きくする(図11(d))。具体的には、測距手段31が算出した距離情報に基づいて、照射制御手段32は、光学プレート62をスライドさせて、照射画角が大きい回折光学素子22Bを光路上に配置し、回折光学素子22Bに平行光を入射させる。本例の回折光学素子22の照射画角βは、ステレオカメラ10の撮像画角αと略同等であり、近づいた対象物41の全体にパターン光を照射することができるようになる。これにより、対象物41全体の距離と形状を正確に把握できるようになり、ロボットアーム80は対象物41を正確に掴むことができる。   As described above, when the object 41 is closer than a certain distance, the angle of view of the pattern light emitted from the laser irradiation device 20 is increased (FIG. 11D). Specifically, based on the distance information calculated by the distance measuring means 31, the irradiation control means 32 slides the optical plate 62 and arranges the diffractive optical element 22B having a large irradiation angle of view on the optical path, and the diffractive optical element. Parallel light is incident on the element 22B. The irradiation field angle β of the diffractive optical element 22 of this example is substantially the same as the imaging field angle α of the stereo camera 10, and the entire target object 41 can be irradiated with pattern light. As a result, the distance and shape of the entire object 41 can be accurately grasped, and the robot arm 80 can grasp the object 41 accurately.

以上のように本実施形態によれば、対象物をステレオカメラで撮影して、その撮像画像に基づいて視差を算出し、その視差から対象物までの距離を算出する。
算出された距離に応じてパターンの照射画角を変更することにより、レーザ照射装置から、距離に応じた最適なパターンを照射する。対象物までの距離が変化する場合でも、対象物が存在しない部分にまでパターンを照射することがなくなる。従って、対象物に効率よくパターン光を照射することができる。これにより遠くにある対象物でも十分な光量のパターン光を照射できるため、明るく高コントラストな距離画像を得ることができ、精度良く対象物までの距離や対象物の形状を測定できる。
また、距離に応じてパターンの照射画角を変更するので、限られたレーザ光源の出力を有効に活用することができる。従って、小型且つ低価格の半導体レーザをレーザ照射装置の光源として用いても、十分な光量を確保することができる。
As described above, according to the present embodiment, the object is photographed with the stereo camera, the parallax is calculated based on the captured image, and the distance from the parallax to the object is calculated.
By changing the irradiation angle of the pattern according to the calculated distance, the optimum pattern according to the distance is irradiated from the laser irradiation apparatus. Even when the distance to the object changes, the pattern is not irradiated to a portion where the object does not exist. Therefore, the pattern light can be efficiently irradiated onto the object. As a result, even a distant object can be irradiated with a sufficient amount of pattern light, so that a bright and high-contrast distance image can be obtained, and the distance to the object and the shape of the object can be accurately measured.
Moreover, since the irradiation angle of the pattern is changed according to the distance, the output of the limited laser light source can be used effectively. Therefore, even if a small and low-cost semiconductor laser is used as the light source of the laser irradiation apparatus, a sufficient amount of light can be secured.

<第二の実施形態>
本発明の第二の実施形態に係る測距装置について説明する。本実施形態に係る測距装置は、測距手段から得られた距離情報に応じて、対象物に照射するパターン光の密度を制御する点に特徴がある。
図12は、パターン光の密度と得られる距離画像との関係を示した図である。図12(a)〜(c)は、密度が低いパターン光の例であり、図12(d)〜(f)は、密度が高いパターン光の例である。
第一の実施形態では、対象物までの距離に応じて画角を変更していたが、対象物までの距離に応じてパターン密度を変更しても良い。具体的には対象物が遠い場合はパターン密度を疎にして、対象物が近い場合はパターン密度を密にする。このようにすることで遠く離れた対象物にパターン照射する場合でも、パターン光が形成する各模様の光強度は低下しないため正確な測距が可能になる。
<Second Embodiment>
A distance measuring apparatus according to a second embodiment of the present invention will be described. The distance measuring device according to the present embodiment is characterized in that the density of the pattern light applied to the object is controlled according to the distance information obtained from the distance measuring means.
FIG. 12 is a diagram showing the relationship between the density of pattern light and the obtained distance image. 12A to 12C are examples of pattern light having a low density, and FIGS. 12D to 12F are examples of pattern light having a high density.
In the first embodiment, the angle of view is changed according to the distance to the object, but the pattern density may be changed according to the distance to the object. Specifically, the pattern density is sparse when the object is far, and the pattern density is dense when the object is close. By doing this, even when pattern irradiation is performed on an object that is far away, the light intensity of each pattern formed by the pattern light does not decrease, and accurate distance measurement is possible.

図12(a)〜(c)に示すように、パターン光の照射画角が広く、且つ密度が低い場合は、撮像範囲全体の距離情報が得られるもののパターン光の模様(例えばドット)が存在しない部分も増えてくる。ドットが照射された箇所は光強度が確保されているため正確に距離を測れるが、ドットが存在しない部分は正確に距離が測れないため、結果として距離画像は粗くなる(図12(c))。
一方、図12(d)〜(f)に示すように、照射画角を変えずにパターン光の密度を高くすると、距離画像の密度も高くなり、対象物に関して、より正確な距離と形状の情報を得ることができる。
そこで、図10(b)に示すように、ロボットアーム80に対象物41から遠い場合は、密度の低いパターン光を照射する制御を行う。また、図11(d)に示すように、ロボットアーム80に対象物41が近づいたときには、密度が高いパターンを照射する制御を行う。このようにすることで、正確な距離と形状を把握することができ、ロボットアーム80が最終的に対象物41を掴みやすくなる。
As shown in FIGS. 12A to 12C, when the irradiation angle of pattern light is wide and the density is low, there is a pattern (for example, dot) of pattern light although distance information of the entire imaging range can be obtained. The part which does not increase also increases. Since the light intensity is secured at the spot irradiated with the dot, the distance can be measured accurately, but the distance cannot be measured accurately at the portion where the dot does not exist, and as a result, the distance image becomes rough (FIG. 12C). .
On the other hand, as shown in FIGS. 12D to 12F, when the density of the pattern light is increased without changing the irradiation angle of view, the density of the distance image is also increased, and the object has a more accurate distance and shape. Information can be obtained.
Therefore, as shown in FIG. 10B, when the robot arm 80 is far from the object 41, control is performed to irradiate pattern light having a low density. Further, as shown in FIG. 11D, when the object 41 approaches the robot arm 80, control is performed to irradiate a pattern having a high density. By doing so, the accurate distance and shape can be grasped, and the robot arm 80 can finally easily grasp the object 41.

例えば、工場の製造ラインであれば、ロボットアームで掴む対象物の形状や、対象物の移動軌跡が一定であるから、必ずしも撮像範囲の全体について距離画像を得る必要は無い。即ち、第一の実施形態のように、対象物が遠くにあるときに照射画角を狭くしても問題はない。
しかし、ロボットアームで掴む対象物が一定の形状を有していない場合や、対象物が置かれる位置が毎回異なる場合では、照射するパターンの画角が小さくなることで対象物全体にパターンが照射されない場合も生じる。このような場合は、画角を変更せずにパターンの密度を変更することが有効である。
なお、本実施形態では、図9に示したレーザ照射装置20Aを用いて、互いにパターン密度が異なる複数の回折光学素子を切り換えることによって、照射するパターンの密度を変更することができる。具体的な制御方法については、第一の実施形態と同様であるため、説明を省略する。
もちろん、対象物が遠い場合は、画角が狭く且つ密度が低いパターンを照射する回折光学素子を使用し、対象物が近い場合は、画角が広く且つ密度が高いパターンを照射する回折光学素子を使用するようにしてもよい。
For example, in the case of a factory production line, since the shape of the object to be grasped by the robot arm and the movement locus of the object are constant, it is not always necessary to obtain a distance image for the entire imaging range. That is, as in the first embodiment, there is no problem even if the irradiation field angle is narrowed when the object is far away.
However, when the target object to be grasped by the robot arm does not have a certain shape or the position where the target object is placed is different each time, the pattern is irradiated on the entire target object by reducing the angle of view of the pattern to be irradiated. There are cases where it is not done. In such a case, it is effective to change the pattern density without changing the angle of view.
In the present embodiment, the density of the pattern to be irradiated can be changed by switching a plurality of diffractive optical elements having different pattern densities using the laser irradiation apparatus 20A shown in FIG. Since the specific control method is the same as that of the first embodiment, the description thereof is omitted.
Of course, when the object is far, a diffractive optical element that irradiates a pattern with a narrow angle of view and a low density is used, and when the object is close, a diffractive optical element that irradiates a pattern with a wide angle of view and a high density May be used.

以上のように本実施形態によれば、ステレオカメラから得られた距離情報に基づいて、パターンの密度を変更する制御を行う。具体的には、遠距離ではパターンを低密度に、近距離ではパターンを高密度にする。このようにすることで、遠距離でもパターンの明るさを低下させないようにすることができ、光量低下による測距精度の低下が生じないようにできる。   As described above, according to the present embodiment, control for changing the density of the pattern is performed based on the distance information obtained from the stereo camera. Specifically, the pattern is made low density at a long distance and the pattern is made high density at a short distance. By doing so, it is possible to prevent the brightness of the pattern from being lowered even at a long distance, and it is possible to prevent a reduction in distance measurement accuracy due to a reduction in the amount of light.

<第三の実施形態>
本発明の第三の実施形態に係る測距装置について、図13に基づいて説明する。本実施形態に係る測距装置は、回折光学素子(プレート)を駆動することなく、複数の回折光学素子を切り換えて使用する点に特徴がある。図13は、第三の実施形態に係るレーザ照射装置を示す図である。
レーザ照射装置から出射された光は回折光学素子により所定のパターンに変換される。複数の異なるパターンを照射するためには、第一の実施形態(図9)に示したように、複数の回折光学素子(ホログラム)を用いればよい。図9のレーザ照射装置20Aでは複数の回折光学素子22A、22Bを切り換えるための駆動部が必要なため、レーザ照射装置20Aが大型化してしまう。また、回折光学素子22を機械的に動かすため、切り替え時に回折光学素子22が振動する。回折光学素子の振動に合わせてパターン光が振動するので、ピンボケしたパターンがステレオカメラにて撮影される虞がある。仮に、このような現象が起こると、鮮明な距離画像を得ることができないため、ロボットアームの動作速度が低下する。そこで本実施形態では、照射するパターンを切り替えるときに回折光学素子(ホログラム)を機械的に動かすことなく、且つ高速にパターンを切り替えることができる方法を提案する。
<Third embodiment>
A distance measuring apparatus according to a third embodiment of the present invention will be described with reference to FIG. The distance measuring apparatus according to the present embodiment is characterized in that a plurality of diffractive optical elements are switched and used without driving the diffractive optical element (plate). FIG. 13 is a diagram showing a laser irradiation apparatus according to the third embodiment.
Light emitted from the laser irradiation device is converted into a predetermined pattern by the diffractive optical element. In order to irradiate a plurality of different patterns, a plurality of diffractive optical elements (holograms) may be used as shown in the first embodiment (FIG. 9). In the laser irradiation apparatus 20A of FIG. 9, a drive unit for switching the plurality of diffractive optical elements 22A and 22B is necessary, so that the laser irradiation apparatus 20A is enlarged. Further, since the diffractive optical element 22 is mechanically moved, the diffractive optical element 22 vibrates at the time of switching. Since the pattern light vibrates in accordance with the vibration of the diffractive optical element, there is a possibility that a defocused pattern is photographed by the stereo camera. If such a phenomenon occurs, a clear distance image cannot be obtained, and the operation speed of the robot arm decreases. Therefore, in the present embodiment, a method is proposed in which the pattern can be switched at high speed without mechanically moving the diffractive optical element (hologram) when the pattern to be irradiated is switched.

図13に示すレーザ照射装置20Bは、波長λの直線偏光(照明光)を出射する半導体レーザ21(光源)と、半導体レーザ21から出射された照明光を平行光に変換するカップリングレンズ61と、透過する平行光の偏光方向を制御可能な偏光回転素子63と、偏光回転素子63から出射された光を偏光方向に応じて透過又は反射する少なくとも1つの偏光膜64A(偏光手段)を備えた光分割素子64と、偏光膜64Aを透過又は反射した夫々の光を回折して互いに異なるパターン光を生成する複数の回折光学素子22(22A、22B)を備えている。照射制御手段32(パターン制御手段)は、偏光回転素子63を透過する光の偏光方向を制御することにより照明光が入射する回折光学素子を切り換える。
偏光回転素子63は、半導体レーザ21から出射された照明光の偏光方向を変換する。例えは照明光がS偏光である場合は、S偏光のまま透過させ、又はP偏光に変更して出射する。
光分割素子64は、例えばビームスプリッターであり、本例の場合は偏光膜64Aと全反射面64Bとを有している。
2つの回折光学素子22は、夫々異なる膜にて反射された光の光路上に配置されている。回折光学素子22Aは、偏光膜64Aで反射した光が入射する素子であり、対象物が遠距離にある場合に照射する遠距離用の回折パターン光を生成する。また、回折光学素子22Bは、全反射面64Bで反射した光が入射する素子であり、対象物が近距離にある場合に照射する近距離用の回折パターン光を生成する。
A laser irradiation apparatus 20B shown in FIG. 13 includes a semiconductor laser 21 (light source) that emits linearly polarized light (illumination light) having a wavelength λ, and a coupling lens 61 that converts the illumination light emitted from the semiconductor laser 21 into parallel light. A polarization rotation element 63 capable of controlling the polarization direction of the transmitted parallel light, and at least one polarization film 64A (polarization means) that transmits or reflects the light emitted from the polarization rotation element 63 according to the polarization direction. A light splitting element 64 and a plurality of diffractive optical elements 22 (22A, 22B) that diffract each light transmitted or reflected by the polarizing film 64A and generate different pattern lights are provided. The irradiation control means 32 (pattern control means) switches the diffractive optical element on which the illumination light enters by controlling the polarization direction of the light transmitted through the polarization rotation element 63.
The polarization rotation element 63 converts the polarization direction of the illumination light emitted from the semiconductor laser 21. For example, when the illumination light is S-polarized light, it is transmitted as S-polarized light or changed to P-polarized light and emitted.
The light splitting element 64 is a beam splitter, for example, and has a polarizing film 64A and a total reflection surface 64B in this example.
The two diffractive optical elements 22 are disposed on the optical path of light reflected by different films. The diffractive optical element 22A is an element on which the light reflected by the polarizing film 64A is incident, and generates long-distance diffraction pattern light to be irradiated when the object is at a long distance. The diffractive optical element 22B is an element on which light reflected by the total reflection surface 64B is incident, and generates short-distance diffraction pattern light to be irradiated when the object is at a short distance.

異なる回折光学素子22A、22Bに照明光を入射させる方法について説明する。以下では、カップリングレンズ61を透過した平行光がS偏光であり、偏光膜64Aが、S偏光を100%反射、P偏光を100%透過させる特性を持っているものとする。
まず、カップリングレンズ61を透過した平行光(S偏光)は、偏光回転素子63を透過して、光分割素子64に入射する。偏光回転素子63から出射した光がS偏光である場合、光は偏光膜64Aで100%反射する。反射した光は、回折光学素子22Aに入射してパターン光となる。回折光学素子22Aは、入射した光を、遠い位置にある対象物を照射するための画角の狭いパターン光に変換する。
この状態から、近い位置にある対象物を照射するための、画角の大きいパターン光を生成する場合、偏光回転素子63でS偏光をP偏光に変換する。P偏光の平行光は、光分割素子64に入射して、偏光膜64Aを100%透過する。そして、偏光膜64Aを透過した光は全反射面64Bで100%反射される。反射した光は、回折光学素子22Bに入射してパターン光となる。回折光学素子22Bは、入射した光を、近い位置にある対象物を照射するための画角の広いパターン光に変換する。
このように、偏光回転素子63と光分割素子64を使用することにより、レーザ光が入射する回折光学素子選択することができる。従って、異なる回折光学素子22によって異なる回折パターン光を生成することができる。
A method for making illumination light incident on different diffractive optical elements 22A and 22B will be described. In the following description, it is assumed that the parallel light transmitted through the coupling lens 61 is S-polarized light, and the polarizing film 64A has a characteristic of reflecting S-polarized light by 100% and transmitting P-polarized light by 100%.
First, the parallel light (S-polarized light) transmitted through the coupling lens 61 passes through the polarization rotation element 63 and enters the light splitting element 64. When the light emitted from the polarization rotation element 63 is S-polarized light, the light is reflected 100% by the polarizing film 64A. The reflected light enters the diffractive optical element 22A and becomes pattern light. The diffractive optical element 22A converts the incident light into pattern light having a narrow angle of view for irradiating an object at a far position.
In this state, when generating pattern light having a large angle of view for irradiating an object located at a close position, the polarization rotating element 63 converts S-polarized light into P-polarized light. P-polarized parallel light is incident on the light splitting element 64 and passes through the polarizing film 64A by 100%. The light transmitted through the polarizing film 64A is reflected 100% by the total reflection surface 64B. The reflected light enters the diffractive optical element 22B and becomes pattern light. The diffractive optical element 22B converts the incident light into pattern light having a wide angle of view for irradiating an object located at a close position.
Thus, by using the polarization rotation element 63 and the light splitting element 64, it is possible to select a diffractive optical element on which the laser light is incident. Accordingly, different diffraction pattern light can be generated by different diffractive optical elements 22.

偏光回転素子について、図14に基づいて説明する。図14(a)、(b)は、偏光回転素子の一例を示す模式図である。
図14(a)には、偏光回転素子63Aが1/2波長板の例を示している。1/2波長板は、入射するS偏光に対して、1/2波長板の光学軸を45°傾けると、入射する光の偏光方向を90°回転させてP偏光を出射することができる。従って、偏光回転素子63Aを回転させる駆動機構(不図示)を設け、駆動機構を照射制御手段32(図13参照)により制御することで、偏光回転素子63Aから出射する光の偏光方向を切り替えることができる。なお、この方法は1/2波長板を機械的に動かすことにはなるが、回折光学素子を動かしてはいないため、偏光方向を切り替えるときに照射するパターン光が振動するようなことは無い。
また、他の例として図14(b)には、偏光回転素子63Bが電気光学効果や磁気光学効果を有する回転素子を用いた例を示している。電気光学効果を用いる場合は、LiNbO、LiTaO、KTP、BBO、KTNと言った材料を使用することができる。これらの材料に電圧源54から電界をかけることで偏光方向を回転させることができる。なお、電圧源65は、照射制御手段32が制御する。また磁気光学効果を有する材料を用いる場合は、材料に磁界をかけることで偏光方向を回転させることができる。(ファラデー効果)。図14(b)に示す方法であればメカ駆動部を必要としないため、高速にパターン光を切り替えることができる。
The polarization rotation element will be described with reference to FIG. FIGS. 14A and 14B are schematic diagrams illustrating an example of a polarization rotation element.
FIG. 14A shows an example in which the polarization rotation element 63A is a half-wave plate. When the optical axis of the half-wave plate is inclined by 45 ° with respect to the incident S-polarized light, the half-wave plate can emit P-polarized light by rotating the polarization direction of the incident light by 90 °. Accordingly, a drive mechanism (not shown) for rotating the polarization rotation element 63A is provided, and the polarization direction of the light emitted from the polarization rotation element 63A is switched by controlling the drive mechanism by the irradiation control means 32 (see FIG. 13). Can do. Although this method mechanically moves the half-wave plate, since the diffractive optical element is not moved, the pattern light to be irradiated does not vibrate when the polarization direction is switched.
As another example, FIG. 14B shows an example in which the polarization rotation element 63B uses a rotation element having an electro-optic effect or a magneto-optic effect. When using the electro-optic effect, materials such as LiNbO 3 , LiTaO 3 , KTP, BBO, and KTN can be used. By applying an electric field to these materials from the voltage source 54, the polarization direction can be rotated. The voltage source 65 is controlled by the irradiation control means 32. When a material having a magneto-optic effect is used, the polarization direction can be rotated by applying a magnetic field to the material. (Faraday effect). The method shown in FIG. 14B does not require a mechanical drive unit, so that the pattern light can be switched at high speed.

以上のように、本実施形態によれば、偏光回転素子を用いることでレーザ光源からの光の偏光方向をS偏光とP偏光に切り替えることができる。S偏光が入射する回折光学素子とP偏光が入射する回折光学素子が異なるような光学系にすることにより、偏光方向だけを回転させるだけで、回折光学素子を機械的に動かさずに高速に異なるパターンを切り替えて照射することができる。そのため回折光学素子を動かすメカ駆動部を必要とせず、照射装置の小型化と高信頼性を実現できる。   As described above, according to the present embodiment, the polarization direction of light from the laser light source can be switched between S-polarized light and P-polarized light by using the polarization rotation element. By adopting an optical system in which the diffractive optical element on which the S-polarized light is incident and the diffractive optical element on which the P-polarized light is incident, only the polarization direction is rotated, and the diffractive optical element is moved at high speed without mechanical movement. Irradiation can be performed by switching patterns. Therefore, a mechanical drive unit for moving the diffractive optical element is not required, and the irradiation apparatus can be downsized and highly reliable.

以上、各実施形態の例により述べてきたステレオカメラとレーザ照射装置を有する測距装置は、対象物が近くにあっても遠くにあっても、レーザ照射装置から照射される光を効率よく対象物に照射できる。そのため対象物が遠くに有る場合でも精度良く測距することができる。   As described above, the distance measuring device having the stereo camera and the laser irradiation device described in the example of each embodiment efficiently targets the light emitted from the laser irradiation device regardless of whether the object is near or far away. Can irradiate objects. Therefore, it is possible to accurately measure the distance even when the object is far away.

1…測距装置、10…ステレオカメラ、11…カメラ、12…撮像レンズ、13…撮像素子、14…撮像範囲、20…レーザ照射装置、21…半導体レーザ、22…回折光学素子、23…照射範囲、30…制御部、31…測距手段、32…照射制御手段、40…平面、41…対象物、41a…エッジ部、41b…上面部、51…レーザ媒質、52…変調媒体、53…反射鏡、54…電圧源、61…カップリングレンズ、62…光学プレート、63…偏光回転素子、64…光分割素子、64A…偏光膜、64B…全反射面、65…電圧源、80…ロボットアーム、101…対象物、102…カメラ、103…レンズ、104…対象物像、104c…対応点、105…2次元センサ、106…ステレオカメラ装置、α…撮像画角、β…照射画角、γ…照射画角   DESCRIPTION OF SYMBOLS 1 ... Distance measuring device, 10 ... Stereo camera, 11 ... Camera, 12 ... Imaging lens, 13 ... Imaging element, 14 ... Imaging range, 20 ... Laser irradiation apparatus, 21 ... Semiconductor laser, 22 ... Diffractive optical element, 23 ... Irradiation Range: 30: control unit, 31: distance measuring means, 32: irradiation control means, 40: plane, 41: object, 41a: edge part, 41b: upper surface part, 51: laser medium, 52: modulation medium, 53 ... Reflector, 54 ... voltage source, 61 ... coupling lens, 62 ... optical plate, 63 ... polarization rotation element, 64 ... light splitting element, 64A ... polarizing film, 64B ... total reflection surface, 65 ... voltage source, 80 ... robot Arm, 101 ... object, 102 ... camera, 103 ... lens, 104 ... object image, 104c ... corresponding point, 105 ... two-dimensional sensor, 106 ... stereo camera device, α ... imaging angle of view, β ... irradiation angle of view, γ Irradiation angle

特開2006-163174公報JP 2006-163174 A

Claims (4)

照明光を出射する光源と、
前記照明光を回折して生成した回折パターン光を、対象物に照射する回折光学素子と、
前記対象物で反射された前記回折パターン光を結像する複数の撮像レンズと、
前記各撮像レンズにより結像された前記回折パターン光に基づく、前記対象物に係る複数の画像を撮像する複数の撮像手段と、
前記複数の画像間の視差情報から前記対象物からの距離を算出する測距手段と、
前記測距手段から得られた距離情報に応じて前記回折パターン光を制御するパターン制御手段と、
を備えたことを特徴とする測距装置。
A light source that emits illumination light;
A diffractive optical element that irradiates an object with diffraction pattern light generated by diffracting the illumination light; and
A plurality of imaging lenses that image the diffraction pattern light reflected by the object;
A plurality of imaging means for imaging a plurality of images related to the object based on the diffraction pattern light imaged by the imaging lenses;
Ranging means for calculating a distance from the object from parallax information between the plurality of images;
Pattern control means for controlling the diffraction pattern light according to distance information obtained from the distance measuring means;
A distance measuring device comprising:
前記パターン制御手段は、前記回折パターン光の密度を制御することを特徴とする請求項1に記載の測距装置。   The distance measuring apparatus according to claim 1, wherein the pattern control unit controls the density of the diffraction pattern light. 前記パターン制御手段は、前記回折パターン光の画角を制御することを特徴とする請求項1に記載の測距装置。   The distance measuring apparatus according to claim 1, wherein the pattern control unit controls an angle of view of the diffraction pattern light. 透過する光の偏光方向を制御可能な偏光回転素子と、
該偏光回転素子から出射された光を偏光方向に応じて透過又は反射する少なくとも1つの偏光手段と、
該偏光手段を透過又は反射した夫々の光を回折して互いに異なる前記回折パターン光を生成する複数の前記回折光学素子と、を備え、
前記パターン制御手段は、前記偏光回転素子を透過した光の偏光方向を制御することにより前記照明光が入射する前記回折光学素子を切り換える
ことを特徴とする請求項1乃至3の何れか一項に記載の測距装置。
A polarization rotation element capable of controlling the polarization direction of transmitted light;
At least one polarizing means for transmitting or reflecting the light emitted from the polarization rotation element according to the polarization direction;
A plurality of the diffractive optical elements that diffract each light transmitted or reflected by the polarizing means to generate different diffraction pattern lights, and
The said pattern control means switches the said diffractive optical element in which the said illumination light injects by controlling the polarization direction of the light which permeate | transmitted the said polarization rotation element, The Claim 1 thru | or 3 characterized by the above-mentioned. The described distance measuring device.
JP2012145373A 2012-06-28 2012-06-28 Range finding device Pending JP2014009997A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012145373A JP2014009997A (en) 2012-06-28 2012-06-28 Range finding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012145373A JP2014009997A (en) 2012-06-28 2012-06-28 Range finding device

Publications (1)

Publication Number Publication Date
JP2014009997A true JP2014009997A (en) 2014-01-20

Family

ID=50106837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012145373A Pending JP2014009997A (en) 2012-06-28 2012-06-28 Range finding device

Country Status (1)

Country Link
JP (1) JP2014009997A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015087393A (en) * 2013-10-29 2015-05-07 トムソン ライセンシングThomson Licensing Method and apparatus for generating depth map
WO2016160930A1 (en) * 2015-03-30 2016-10-06 Google Inc. Imager for detecting visual light and infrared projected patterns
CN108594211A (en) * 2018-04-11 2018-09-28 沈阳上博智像科技有限公司 Determine device, method and the movable equipment of obstacle distance
JP2019184568A (en) * 2018-03-30 2019-10-24 キヤノン株式会社 Parallax detection device, distance detection device, robot device, parallax detection method, distance detection method and program
JP2020126060A (en) * 2014-01-29 2020-08-20 エルジー イノテック カンパニー リミテッド Device and method for extracting depth information
CN112008717A (en) * 2019-05-30 2020-12-01 松下i-PRO传感解决方案株式会社 Camera and robot system
JP2020196116A (en) * 2019-05-30 2020-12-10 パナソニックi−PROセンシングソリューションズ株式会社 Camera and robot system
KR102205290B1 (en) * 2019-12-30 2021-01-21 한국건설기술연구원 Image-based structure measurement system using additional light sources
CN114509004A (en) * 2022-02-25 2022-05-17 重庆电子工程职业学院 Measuring method and measuring device based on machine vision
WO2023145556A1 (en) * 2022-01-25 2023-08-03 パナソニックIpマネジメント株式会社 Distance measuring device
US11778161B2 (en) 2020-12-11 2023-10-03 Samsung Electronics Co., Ltd. TOF camera device and method of driving the same

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015087393A (en) * 2013-10-29 2015-05-07 トムソン ライセンシングThomson Licensing Method and apparatus for generating depth map
JP2020126060A (en) * 2014-01-29 2020-08-20 エルジー イノテック カンパニー リミテッド Device and method for extracting depth information
US11680789B2 (en) 2014-01-29 2023-06-20 Lg Innotek Co., Ltd. Device for extracting depth information and method thereof
US11209265B2 (en) 2015-03-30 2021-12-28 X Development Llc Imager for detecting visual light and projected patterns
KR20170131635A (en) * 2015-03-30 2017-11-29 엑스 디벨롭먼트 엘엘씨 Imagers for detecting visible light and infrared projection patterns
KR101967088B1 (en) * 2015-03-30 2019-04-08 엑스 디벨롭먼트 엘엘씨 Imagers for detecting visible light and infrared projection patterns
US10466043B2 (en) 2015-03-30 2019-11-05 X Development Llc Imager for detecting visual light and projected patterns
AU2016243617B2 (en) * 2015-03-30 2018-05-10 X Development Llc Imager for detecting visual light and infrared projected patterns
WO2016160930A1 (en) * 2015-03-30 2016-10-06 Google Inc. Imager for detecting visual light and infrared projected patterns
JP2019184568A (en) * 2018-03-30 2019-10-24 キヤノン株式会社 Parallax detection device, distance detection device, robot device, parallax detection method, distance detection method and program
CN108594211A (en) * 2018-04-11 2018-09-28 沈阳上博智像科技有限公司 Determine device, method and the movable equipment of obstacle distance
JP2020196116A (en) * 2019-05-30 2020-12-10 パナソニックi−PROセンシングソリューションズ株式会社 Camera and robot system
CN112008717A (en) * 2019-05-30 2020-12-01 松下i-PRO传感解决方案株式会社 Camera and robot system
US11813740B2 (en) 2019-05-30 2023-11-14 i-PRO Co., Ltd. Camera and robot system
KR102205290B1 (en) * 2019-12-30 2021-01-21 한국건설기술연구원 Image-based structure measurement system using additional light sources
US11778161B2 (en) 2020-12-11 2023-10-03 Samsung Electronics Co., Ltd. TOF camera device and method of driving the same
WO2023145556A1 (en) * 2022-01-25 2023-08-03 パナソニックIpマネジメント株式会社 Distance measuring device
CN114509004A (en) * 2022-02-25 2022-05-17 重庆电子工程职业学院 Measuring method and measuring device based on machine vision
CN114509004B (en) * 2022-02-25 2023-05-16 重庆电子工程职业学院 Measuring method and measuring device based on machine vision

Similar Documents

Publication Publication Date Title
JP2014009997A (en) Range finding device
JP3869005B2 (en) Telecentric stereoscopic camera and method
RU2442107C2 (en) Device for optical distance measurement
KR101799521B1 (en) Light modulator with photonic crystal and 3D image acquisition apparatus employing the same
WO2018056199A1 (en) Distance measurement system, distance measurement method, and program recording device
JP6222409B1 (en) Laser radar equipment
US10746603B2 (en) Optical device for obtaining 3D spatial information
US11614517B2 (en) Reducing interference in an active illumination environment
US8772688B2 (en) Autofocus device including line image forming unit and rotation unit that rotates line image
JP2007144024A (en) Three-dimensional measurement endoscope using self-mixing laser
JP2000186920A (en) Device and method for shape measuring
KR101175780B1 (en) 3-Dimension depth camera using the Infrared laser projection display
JP4997406B1 (en) Shape measuring device, depth measuring device and film thickness measuring device
CN103563362A (en) An optical device
WO2014010719A1 (en) Magneto-optic hybrid image sensor
US8279448B2 (en) Shape measurement apparatus and method
JP6232784B2 (en) Pattern illumination device and distance measuring device
US20140340514A1 (en) Fast optical shuttering system
JP2009047434A (en) Electromagnetic wave distance measuring instrument
WO2017159869A1 (en) Electromagnetic field imaging device
TW202247930A (en) Laser processing device
KR101391183B1 (en) Distance Measuring Apparatus and Distance Measuring Method
JP2007064803A (en) Laser radar apparatus
JP2001108420A (en) Device and method for shape measurement
US20090251670A1 (en) Optical feedback for high speed scan mirror