JP2014010089A - Range finder - Google Patents

Range finder Download PDF

Info

Publication number
JP2014010089A
JP2014010089A JP2012147956A JP2012147956A JP2014010089A JP 2014010089 A JP2014010089 A JP 2014010089A JP 2012147956 A JP2012147956 A JP 2012147956A JP 2012147956 A JP2012147956 A JP 2012147956A JP 2014010089 A JP2014010089 A JP 2014010089A
Authority
JP
Japan
Prior art keywords
distance
light
stereo camera
imaging
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012147956A
Other languages
Japanese (ja)
Inventor
Shigeru Ouchida
茂 大内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012147956A priority Critical patent/JP2014010089A/en
Publication of JP2014010089A publication Critical patent/JP2014010089A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To correct a range value in a real time even when the positional deviation of a stereo camera occurs.SOLUTION: The range finger includes: a laser irradiation device 20 which emits a plurality of parallel beams 24 isolated with a predetermined interval to an object 41; a plurality of imaging lens 12 which image spot light by a plurality of beams respectively reflected on the object; a plurality of imaging means 13 which image a plurality of images related to the object including respective spot light imaged by the respective imaging lens; ranging means 31 which calculates a distance to the object on the basis of parallax information between the respective images; and distance correction means 33 which corrects the distance to the object calculated by the ranging means on the basis of a distance to the object to be calculated from an interval of the imaging positions of the respective spot light on at least one imaging means between the respective imaging means.

Description

本発明は、複数のカメラにて取得した視差画像を用いて測距を行う測距装置に関し、特にカメラの位置ずれにより生じる測距誤差をリアルタイムに補正することが可能な測距装置に関するものである。   The present invention relates to a distance measuring device that performs distance measurement using parallax images acquired by a plurality of cameras, and more particularly to a distance measuring device that can correct a distance measurement error caused by a positional deviation of cameras in real time. is there.

従来、計測対象を2つのカメラで撮影し、得られた2つの画像を用いて計測対象までの距離情報を得る「ステレオ測距」技術が知られている。ステレオ測距においては、撮影した2つの画像間に生じる視差を利用して、三角測量の原理により奥行き距離を算出する。
ステレオ測距において視差を求めるためには、ウィンドウマッチングを行って各画像において互いに対応する点(対応点)を探し出す必要がある。
Conventionally, a “stereo distance measurement” technique is known in which a measurement object is photographed by two cameras and distance information to the measurement object is obtained using the two obtained images. In stereo ranging, the depth distance is calculated based on the principle of triangulation using the parallax generated between two captured images.
In order to obtain parallax in stereo ranging, it is necessary to perform window matching to find corresponding points (corresponding points) in each image.

図15、図16は、「ステレオ測距」で用いられる三角測量の原理を利用した測距方法の原理を説明する図である。ステレオ測距においては、1対の2次元センサと、1対のレンズと、を組み合わせることによりで2つのカメラを構成して、計測対象物のずれ(視差)を検出して三角測量の原理により距離を計測する。
図15に示すステレオカメラ装置106において、同一の光学系からなる2つのカメラ102a、102bを配置して、各カメラ102にて計測対象物101からの光を撮影する場合を考える。
各カメラ102(102a、102b)は、計測対象物101の光像が入射するレンズ103(103a、103b)と、各レンズ103に入射した計測対象物101の光像(計測対象物像104:104a、104b)を撮像する2次元センサ105(105a、105b)と、を備えている。
FIGS. 15 and 16 are diagrams illustrating the principle of a distance measuring method using the principle of triangulation used in “stereo distance measurement”. In stereo ranging, two cameras are configured by combining a pair of two-dimensional sensors and a pair of lenses, and the displacement (parallax) of the measurement object is detected and the principle of triangulation is used. Measure distance.
In the stereo camera device 106 shown in FIG. 15, consider a case where two cameras 102 a and 102 b having the same optical system are arranged and each camera 102 captures light from the measurement object 101.
Each camera 102 (102a, 102b) includes a lens 103 (103a, 103b) on which an optical image of the measurement object 101 is incident, and an optical image (measurement object image 104: 104a) of the measurement object 101 incident on each lens 103. , 104b), and a two-dimensional sensor 105 (105a, 105b).

カメラ102aのレンズ103aを通して得た計測対象物像104aと、カメラ102bのレンズ103bを通して得た計測対象物像104bとは、計測対象物101上の同一点が視差Δだけずれて2次元センサ105a、105b(図16)に夫々至り、複数の受光素子(画素)で受光され、電気信号に変換される。
ここでレンズ103a、103bの光軸間の距離は基線長と呼ばれる。基線長をDとし、レンズ103と計測対象物101との距離をA、レンズ103の焦点距離をfとしたとき、A≫fであるときには次式が成り立つ。
A=Df/Δ ・・・式(1)
図15に示すように、基線長D、およびレンズの焦点距離fは既知であるから、視差Δを検出すれば、式(1)より計測対象物101までの距離Aを算出することができる。
The measurement object image 104a obtained through the lens 103a of the camera 102a and the measurement object image 104b obtained through the lens 103b of the camera 102b have the same point on the measurement object 101 shifted by the parallax Δ, and the two-dimensional sensor 105a, Each reaches 105b (FIG. 16) and is received by a plurality of light receiving elements (pixels) and converted into an electrical signal.
Here, the distance between the optical axes of the lenses 103a and 103b is called a baseline length. When the base line length is D, the distance between the lens 103 and the measurement object 101 is A, and the focal length of the lens 103 is f, the following equation holds when A >> f.
A = Df / Δ Expression (1)
As shown in FIG. 15, since the baseline length D and the focal length f of the lens are known, the distance A to the measurement object 101 can be calculated from the equation (1) by detecting the parallax Δ.

上記の方法において、距離Aを高精度に検出するためには視差Δを高精度に検出する必要がある。特に視差が発生する方向(図16のY方向)にレンズ103がずれる「並進ずれ」が発生すると、並進ずれはそのまま視差Δの誤差として表れ、正確な距離を算出できない。一般的に、視差は1画素以下の精度で検出する必要があるため、数μm以下の精度で視差を検出しなければならない。しかし、例えば図15においてレンズ103aが数μmの並進ずれを生じると、これがそのまま視差Δの誤差となり、正確な距離を算出できない。   In the above method, in order to detect the distance A with high accuracy, it is necessary to detect the parallax Δ with high accuracy. In particular, when a “translational deviation” occurs in which the lens 103 is displaced in the direction in which the parallax occurs (Y direction in FIG. 16), the translational deviation appears as it is as an error of the parallax Δ, and an accurate distance cannot be calculated. Generally, since it is necessary to detect the parallax with an accuracy of 1 pixel or less, the parallax must be detected with an accuracy of several μm or less. However, for example, in FIG. 15, when the lens 103a has a translational deviation of several μm, this becomes an error of the parallax Δ, and an accurate distance cannot be calculated.

特許文献1、特許文献2には、ステレオカメラに位置ずれが発生した場合でも補正を施すことで上記の問題を解消する技術が開示されている。
特許文献1には、ステレオ画像に幾何学的な変換を施すことによって、ステレオカメラの位置ずれを補正する技術が開示されている。位置ずれを調整する場合、補正値検出装置を画像補正装置に接続する。そして、補正専用の調整用パターンを撮像することにより得られたステレオ画像の画角差、回転ずれまたは並進ずれを算出し、算出した値に応じたアフィン変換のパラメータ(画像変換値)を画像補正装置に設定する。このようにして設定されたアフィンパラメータに基づいて画像にアフィン変換を施すことで、ステレオカメラの水平ずれを含む位置ずれを画像処理によって等価的に補正している。
特許文献2には、ステレオカメラの位置ずれをリアルタイムに補正する技術が開示されている。ステレオカメラに映る撮影画像から左右の車線を検出し、距離方向に延びる直線であることを判断して、近似直線の交点から画像の消失点を算出する。この消失点にもとづいて画像を補正することで、正確な距離測定を行うことができる。
Patent Documents 1 and 2 disclose a technique for solving the above problem by performing correction even when a positional deviation occurs in a stereo camera.
Patent Document 1 discloses a technique for correcting a positional shift of a stereo camera by performing geometric conversion on a stereo image. When adjusting the positional deviation, the correction value detection device is connected to the image correction device. Then, the angle of view difference, rotational deviation, or translational deviation of the stereo image obtained by imaging the adjustment pattern dedicated for correction is calculated, and the affine transformation parameters (image conversion values) corresponding to the calculated values are corrected. Set to device. By performing affine transformation on the image based on the affine parameters set in this way, the positional shift including the horizontal shift of the stereo camera is equivalently corrected by image processing.
Patent Document 2 discloses a technique for correcting a positional shift of a stereo camera in real time. The left and right lanes are detected from the photographed image shown in the stereo camera, the straight line extending in the distance direction is determined, and the vanishing point of the image is calculated from the intersection of the approximate straight lines. Correct distance measurement can be performed by correcting the image based on this vanishing point.

しかしながら特許文献1に記載されている装置は、画像補正装置に接続したり、専用の調整用パターンを撮像する必要があるため、リアルタイムに距離を補正することはできない。また、特許文献2においては、画像の消失点を算出することで、リアルタイムに距離を補正することができる。しかし、画像の消失点を得ることができない場合には、距離を補正することができないという問題がある。
本発明は、上記の課題を解決するためになされたものであり、ステレオカメラの位置ずれが発生した場合でもリアルタイムに測距値を補正できる新規な測距装置を提供することを目的とする。
However, since the apparatus described in Patent Document 1 needs to be connected to an image correction apparatus or to capture a dedicated adjustment pattern, the distance cannot be corrected in real time. In Patent Document 2, the distance can be corrected in real time by calculating the vanishing point of the image. However, when the vanishing point of the image cannot be obtained, there is a problem that the distance cannot be corrected.
The present invention has been made to solve the above-described problem, and an object of the present invention is to provide a novel distance measuring device that can correct a distance value in real time even when a stereo camera is displaced.

上記の課題を解決するために、請求項1に記載の発明は、対象物に向けて平行な複数のビームを出射する照射装置と、前記対象物にて夫々反射した前記複数のビームによるスポット光を結像させる複数の撮像レンズと、前記各撮像レンズにより結像された前記各スポット光を含む前記対象物に係る複数の画像を撮像する複数の撮像手段と、前記各画像間の視差情報に基づいて前記対象物までの距離を算出する測距手段と、前記各撮像手段の少なくとも一つの撮像手段上における前記各スポット光の結像位置の間隔から求まる前記対象物までの距離に基づいて、前記測距手段が算出した前記対象物までの距離を補正する距離補正手段と、を備えたことを特徴とする。   In order to solve the above-described problem, the invention according to claim 1 is directed to an irradiation device that emits a plurality of parallel beams toward an object, and spot light generated by the plurality of beams reflected by the object. A plurality of imaging lenses for imaging a plurality of imaging means for imaging a plurality of images related to the object including the spot lights imaged by the imaging lenses, and parallax information between the images. A distance measuring means for calculating the distance to the object based on the distance to the object obtained from the interval between the imaging positions of the spot lights on at least one image pickup means of the image pickup means, Distance correction means for correcting the distance to the object calculated by the distance measurement means.

本発明では、ビーム間隔が一定に保たれた複数の平行ビームを対象物に照射する。対象物の表面に形成されたスポット光を撮像手段により撮像して、撮像手段上のスポット光の間隔を算出することで、ビームが照射されている対象物までの距離がわかる。合わせて、複数の画像間の視差情報から、対象物までの距離を算出する。スポット光の間隔から得られた距離を利用して、画像間の視差情報から算出した対象物までの距離を補正することで、リアルタイムな補正が可能となる。   In the present invention, the object is irradiated with a plurality of parallel beams whose beam intervals are kept constant. The spot light formed on the surface of the object is picked up by the image pickup means, and the distance to the object irradiated with the beam can be found by calculating the interval of the spot light on the image pickup means. In addition, the distance to the object is calculated from the parallax information between the plurality of images. By using the distance obtained from the spot light interval, the distance to the object calculated from the parallax information between the images is corrected, thereby enabling real-time correction.

本発明の第一の実施形態に係る測距装置を示した模式図である。It is the schematic diagram which showed the distance measuring device which concerns on 1st embodiment of this invention. 図1に示す測距装置の構成図である。It is a block diagram of the ranging apparatus shown in FIG. レーザ照射装置から照射される平行ビームと、ステレオカメラにて撮像される画像の関係を説明するための図である。It is a figure for demonstrating the relationship between the parallel beam irradiated from a laser irradiation apparatus, and the image imaged with a stereo camera. ステレオカメラからの距離と、2つのスポット間隔の画素数との関係を示すグラフ図である。It is a graph which shows the relationship between the distance from a stereo camera, and the pixel count of two spot space | intervals. 三角測量の原理を利用した測距方法を説明する図である。It is a figure explaining the ranging method using the principle of triangulation. 対象物までの距離Aと撮像素子上における視差量(pixel)との関係を示したグラフ図である。It is the graph which showed the relationship between the distance A to a target object, and the parallax amount (pixel) on an image pick-up element. 並進ずれの補正方法の一例について説明するための図である。It is a figure for demonstrating an example of the correction method of translational deviation. 本発明の第二の実施形態に係る測距装置に適用されるレーザ照射装置の模式図である。It is a schematic diagram of the laser irradiation apparatus applied to the ranging apparatus which concerns on 2nd embodiment of this invention. 本発明の第三の実施形態に係る測距装置に適用されるレーザ照射装置の模式図である。It is a schematic diagram of the laser irradiation apparatus applied to the ranging apparatus which concerns on 3rd embodiment of this invention. 第三の実施形態の変形例を示すレーザ照射装置の模式図である。It is a schematic diagram of the laser irradiation apparatus which shows the modification of 3rd embodiment. (a)、(b)は、図10に示したレーザ照射装置の動作を説明するための図である。(A), (b) is a figure for demonstrating operation | movement of the laser irradiation apparatus shown in FIG. 偏光回転素子による偏光の回転量と、光分割素子から出射するビーム及び0次光の光強度との関係を示す図である。It is a figure which shows the relationship between the rotation amount of the polarization by a polarization | polarized-light rotation element, the light radiate | emitted from a light splitting element, and the light intensity of 0th-order light. (a)〜(c)は、撮像範囲と撮像範囲内にある障害物との関係を示した図である。(A)-(c) is the figure which showed the relationship between an imaging range and the obstruction in an imaging range. 本発明の測距装置における処理の一例を示したフロー図である。It is the flowchart which showed an example of the process in the distance measuring device of this invention. 三角測量の原理を利用した測距方法の原理を説明する図である。It is a figure explaining the principle of the ranging method using the principle of triangulation. 三角測量の原理を利用した測距方法の原理を説明する図である。It is a figure explaining the principle of the ranging method using the principle of triangulation.

以下、本発明を図に示した実施形態を用いて詳細に説明する。但し、この実施形態に記載される構成要素、種類、組み合わせ、形状、その相対配置などは特定的な記載がない限り、この発明の範囲をそれのみに限定する主旨ではなく単なる説明例に過ぎない。
〈第一の実施形態〉
本発明の第一の実施形態に係る測距装置について説明する。図1は、本発明の第一の実施形態に係る測距装置を示した模式図である。図2は、図1に示す測距装置の構成図である。本実施形態に係る測距装置は、対象物に形成された複数のスポット光から対象物までの距離(補正基準値)を算出し、補正基準値を利用して、視差画像に基づいて算出した対象物までの距離(測距値)を補正する点に特徴がある。
Hereinafter, the present invention will be described in detail with reference to embodiments shown in the drawings. However, the components, types, combinations, shapes, relative arrangements, and the like described in this embodiment are merely illustrative examples and not intended to limit the scope of the present invention only unless otherwise specified. .
<First embodiment>
A distance measuring apparatus according to a first embodiment of the present invention will be described. FIG. 1 is a schematic diagram showing a distance measuring apparatus according to a first embodiment of the present invention. FIG. 2 is a block diagram of the distance measuring apparatus shown in FIG. The distance measuring device according to the present embodiment calculates the distance (correction reference value) from a plurality of spot lights formed on the object to the object, and calculates the distance based on the parallax image using the correction reference value. It is characterized in that the distance to the object (range measurement value) is corrected.

測距装置1は、図1、及び図2に示すように、互いに視差のある2つの対象物画像を撮像するステレオカメラ10と、対象物41に向けて所定の間隔Lだけ隔てた平行な2本のビーム24(24a、24b)を出射するレーザ照射装置20(照射装置)と、ステレオカメラ10にて撮像された画像から対象物41までの距離(測距値)を算出する測距手段31を有する制御部30と、を備えている。
ステレオカメラ10は、対象物41にて夫々反射した複数のビーム24による複数のスポット光25(25a、25b)を含む対象物41の光像を結像させる複数のレンズ12(12a、12b:撮像レンズ)と、各レンズ12により結像された各スポット光25を含む対象物41に係る複数の画像を撮像する複数の撮像素子13(13a、13b:撮像手段)と、を備えている。なお、撮像素子13は、CCDやCMOS等の2次元センサである。
As shown in FIGS. 1 and 2, the distance measuring device 1 includes a stereo camera 10 that captures two object images having parallax with each other, and two parallel objects separated by a predetermined distance L toward the object 41. A laser irradiation device 20 (irradiation device) that emits the beam 24 (24a, 24b), and a distance measurement unit 31 that calculates a distance (range value) from the image captured by the stereo camera 10 to the object 41 And a control unit 30 having
The stereo camera 10 forms a plurality of lenses 12 (12a, 12b: imaging) that forms an optical image of the object 41 including a plurality of spot lights 25 (25a, 25b) by a plurality of beams 24 reflected by the object 41, respectively. Lens) and a plurality of imaging elements 13 (13a, 13b: imaging means) that capture a plurality of images related to the object 41 including each spot light 25 imaged by each lens 12. Note that the image sensor 13 is a two-dimensional sensor such as a CCD or a CMOS.

制御部30は、各撮像素子13にて撮像された2つの画像間の視差情報に基づいて対象物41までの距離を算出する測距手段31と、各撮像素子13の少なくとも一つの撮像素子13a上における各スポット光25の結像位置の間隔から求まる対象物41までの距離(補正基準値)に基づいて、測距手段31が算出した対象物41までの距離(測距値)を補正する距離補正手段32と、レーザ照射装置20を制御する照射制御手段33と、を備えている。照射制御手段33は、後述する半導体レーザ21のオンオフを制御する手段としても機能する。   The control unit 30 includes a distance measuring unit 31 that calculates a distance to the object 41 based on parallax information between two images captured by each image sensor 13, and at least one image sensor 13 a of each image sensor 13. Based on the distance (correction reference value) to the target object 41 obtained from the interval between the imaging positions of the respective spot lights 25 above, the distance to the target object 41 (ranging value) calculated by the distance measuring means 31 is corrected. Distance correction means 32 and irradiation control means 33 for controlling the laser irradiation apparatus 20 are provided. The irradiation control means 33 also functions as means for controlling on / off of the semiconductor laser 21 described later.

レーザ照射装置20は、レーザ光(照明光)を出射する半導体レーザ21(光源)と、半導体レーザ21から出射された光を平行光に変換するカップリングレンズ22と、平行光の一部を透過させ、一部を反射させる光量分割面23A(ハーフミラー)、及び光量分割面23Aを透過した平行光を全反射させる全反射面23Bを備えた光分割素子23と、を備えている。光量分割面23Aと全反射面23Bにて反射した平行光は、間隔Lの互いに平行なビーム24(24a、24b)として出射される。
ステレオカメラ10は、角度αの水平画角を有しており(図3参照)、2つのビーム24は、ステレオカメラ10の撮像画角内に入るように、その出射方向が調整されている。
The laser irradiation device 20 transmits a semiconductor laser 21 (light source) that emits laser light (illumination light), a coupling lens 22 that converts light emitted from the semiconductor laser 21 into parallel light, and part of the parallel light. And a light splitting element 23 provided with a light quantity splitting surface 23A (half mirror) that reflects part of the light and a total reflection face 23B that totally reflects parallel light transmitted through the light quantity splitting face 23A. The parallel light reflected by the light quantity dividing surface 23A and the total reflection surface 23B is emitted as parallel beams 24 (24a, 24b) with an interval L.
The stereo camera 10 has a horizontal angle of view of an angle α (see FIG. 3), and the emission directions of the two beams 24 are adjusted so as to fall within the imaging angle of view of the stereo camera 10.

本発明の原理について、図3を参照しながら説明する。図3は、レーザ照射装置から照射される平行ビームと、ステレオカメラにて撮像される画像の関係を説明するための図である。
ステレオカメラ10の水平画角αとレーザ照射装置20から出射される複数の平行なビーム24によって形成されるスポット光25との関係を図2に基づいて説明する。ステレオカメラ10からの距離がA1の位置では、ステレオカメラ10の水平方向(図2のY方向)の撮影範囲B1は以下の式で表される。
B1=2×A1×tan(α/2) ・・・式(2)
ステレオカメラ10からの距離がA1の位置にある対象物41(平面)に向けて平行ビーム24を照射した時、対象物41には、各ビームに対応した複数のスポット光25が形成される。平行ビーム24の間隔L、ステレオカメラの撮像素子の画素数をVGA(640×480画素)とすると、撮像素子上に結像するスポット光25の間隔C1(画素数)は以下の式で表される。
C1=(L/B1)×640(画素)
=(L/2×A1tan(α/2))×640(画素) ・・・式(3)
The principle of the present invention will be described with reference to FIG. FIG. 3 is a diagram for explaining the relationship between the parallel beam irradiated from the laser irradiation apparatus and the image captured by the stereo camera.
The relationship between the horizontal angle of view α of the stereo camera 10 and the spot light 25 formed by a plurality of parallel beams 24 emitted from the laser irradiation device 20 will be described with reference to FIG. At the position where the distance from the stereo camera 10 is A1, the shooting range B1 in the horizontal direction (Y direction in FIG. 2) of the stereo camera 10 is expressed by the following equation.
B1 = 2 × A1 × tan (α / 2) (2)
When the parallel beam 24 is irradiated toward the object 41 (plane) whose distance from the stereo camera 10 is at the position A1, a plurality of spot lights 25 corresponding to each beam are formed on the object 41. Assuming that the interval L of the parallel beam 24 and the number of pixels of the imaging device of the stereo camera are VGA (640 × 480 pixels), the interval C1 (number of pixels) of the spot light 25 imaged on the imaging device is expressed by the following equation. The
C1 = (L / B1) × 640 (pixels)
= (L / 2 × A1 tan (α / 2)) × 640 (pixels) (3)

同様にステレオカメラ10からの距離がA2、A3と変わっていくと、撮像素子上での平行ビーム24の間隔C2、C3は以下のように変わる。
C2=(L/2×A2tan(α/2))×640(画素) ・・・式(4)
C3=(L/2×A3tan(α/2))×640(画素) ・・・式(5)
式(1)〜(3)に示すように、間隔Cと距離Aとの間には反比例の関係がある。仮に、ステレオカメラ10の水平画角α=50度、平行ビーム24の間隔L=20mmであるとき、ステレオカメラ10からの距離Aと撮像素子13上で検出されるスポット光25の間隔C(画素数)をグラフ化すると図4のように表される。図4は、ステレオカメラからの距離と、2つのスポット間隔の画素数との関係を示すグラフ図である。なお、図4では距離Aを横軸、間隔Cを縦軸に取っている。
Similarly, when the distance from the stereo camera 10 changes to A2 and A3, the intervals C2 and C3 of the parallel beam 24 on the image sensor change as follows.
C2 = (L / 2 × A2 tan (α / 2)) × 640 (pixels) (4)
C3 = (L / 2 × A3 tan (α / 2)) × 640 (pixels) (5)
As shown in the equations (1) to (3), there is an inversely proportional relationship between the distance C and the distance A. If the horizontal angle of view α of the stereo camera 10 is 50 degrees and the interval L of the parallel beam 24 is L = 20 mm, the distance A from the stereo camera 10 and the interval C (pixels) of the spot light 25 detected on the image pickup device 13. When the number is graphed, it is expressed as shown in FIG. FIG. 4 is a graph showing the relationship between the distance from the stereo camera and the number of pixels at two spot intervals. In FIG. 4, the distance A is on the horizontal axis and the interval C is on the vertical axis.

図4からわかるように撮像素子上でのスポット光25の間隔(画素数)を検出できれば、ステレオカメラ10から対象物41までの距離Aが一意的に決まる。特にこの条件下では距離Aが200mm以下の時は感度が高く、距離Aが少し変化しただけも撮像素子上でのスポット光25の間隔(画素数)は大きく変化する。逆に言えば、撮像素子上でのスポット光25の間隔(画素数)を検出する時に多少の誤差があっても距離Aは精度良く検出できることになる。
このようにあらかじめビーム間隔L、ステレオカメラの水平画角α、撮像素子13の画素数がわかっていれば、撮像素子上に映ったスポット光の間隔(画素数)から精度良く距離を求めることができる。従って平行ビーム24の間隔から求めた距離を参照すれば、ステレオカメラで位置ずれが発生した場合でもリアルタイムに精度良く補正することができる。
As can be seen from FIG. 4, if the interval (number of pixels) of the spot light 25 on the image sensor can be detected, the distance A from the stereo camera 10 to the object 41 is uniquely determined. In particular, under this condition, when the distance A is 200 mm or less, the sensitivity is high, and even if the distance A is slightly changed, the interval (number of pixels) of the spot light 25 on the image sensor changes greatly. In other words, the distance A can be detected with high accuracy even if there is some error when detecting the interval (number of pixels) of the spot light 25 on the image sensor.
As described above, if the beam interval L, the horizontal angle of view α of the stereo camera, and the number of pixels of the image sensor 13 are known in advance, the distance can be obtained with high accuracy from the interval (number of pixels) of the spot light reflected on the image sensor. it can. Therefore, by referring to the distance obtained from the interval between the parallel beams 24, even if a positional deviation occurs in the stereo camera, it can be accurately corrected in real time.

ここでステレオカメラに発生する位置ずれ(特にY方向の並進ずれ)によってどのように測距の誤差が発生するかについて説明する。
図5は、「ステレオ測距」で用いられる三角測量の原理を利用した測距方法を説明する図である。ステレオカメラ10は、複数の単眼のカメラ11(11a、11b)を含んで構成されており、各カメラ11は、対象物41の光像が入射する複数のレンズ12(12a、12b)と、各レンズ12により結像された対象物41に係る複数の画像を撮像する複数の撮像素子13(13a、13b:撮像手段)と、を備えている。
レンズ12a、12bの焦点距離をf、2つのレンズ12a、12bの光軸間間隔(基線長)をD、対象物41までの距離Aとすると、得られる視差Δは
Δ=Df/A ・・・式(6)
と表される。一例として、基線長D=5mm、焦点距離f=1.6mm、距離A=200mmとすると、視差Δ=0.04mmとなる。撮像素子13a、13bの1画素のサイズを2μmとすると、20画素(=0.04mm/2μm)相当の視差が発生することになる。図6は、対象物までの距離Aと撮像素子上における視差量(pixel)との関係を示したグラフ図である。基線長D=5mm、焦点距離f=1.6mm、1画素のサイズが2μmであるときの、距離Aと視差Δとの関係を示している。このように、測距手段31は、視差Δを検出して距離Aを求める。
Here, how a distance measurement error occurs due to a position shift (particularly a translation shift in the Y direction) generated in the stereo camera will be described.
FIG. 5 is a diagram for explaining a distance measuring method using the principle of triangulation used in “stereo distance measurement”. The stereo camera 10 includes a plurality of monocular cameras 11 (11a, 11b), and each camera 11 includes a plurality of lenses 12 (12a, 12b) on which an optical image of an object 41 is incident, And a plurality of imaging elements 13 (13a, 13b: imaging means) that capture a plurality of images of the object 41 imaged by the lens 12.
When the focal length of the lenses 12a and 12b is f, the distance between the optical axes (base line length) of the two lenses 12a and 12b is D, and the distance A to the object 41 is, the obtained parallax Δ is Δ = Df / A.・ Formula (6)
It is expressed. As an example, when the base line length D = 5 mm, the focal length f = 1.6 mm, and the distance A = 200 mm, the parallax Δ = 0.04 mm. If the size of one pixel of the image sensors 13a and 13b is 2 μm, parallax corresponding to 20 pixels (= 0.04 mm / 2 μm) is generated. FIG. 6 is a graph showing the relationship between the distance A to the object and the amount of parallax on the image sensor. The relationship between the distance A and the parallax Δ when the base line length D = 5 mm, the focal length f = 1.6 mm, and the size of one pixel is 2 μm is shown. As described above, the distance measuring unit 31 detects the parallax Δ to obtain the distance A.

上記構成のステレオカメラ10において、図4に示すように、一方のレンズ12bが+Y方向に2μmずれたとする。このとき、視差は0.042mmとなり、21画素(=0.042mm/2μm)相当の視差が発生することになる。距離Aは式(1)で示したように「A=Df/Δ」で表されるため、視差Δが0.042mmの場合、測距手段31は距離A=190.5mmと算出する。
このようにステレオカメラの一方のレンズのわずかな並進ずれによって、測距手段31は、200mmの距離を190.5mmと算出し、約5%もの誤差を発生させてしまう。例えば、製造工場の検査工程において、レンズのずれが発生したことに気が付かないまま測距装置を使って検査を続けた場合、誤った検査値を出力して「不良品」を多数発生させてしまうことになる。この「不良品」の中には、真の不良品と、測距装置のレンズのずれが原因で発生した測距ミスにより不良品と判断された正常品と、が混在する可能性がある。このような場合には、もはや真の不良品と、不良品と判断された正常品と、を区別することは困難である。従って、ステレオカメラの出力値はリアルタイムに補正することが望ましい。
In the stereo camera 10 having the above configuration, it is assumed that one lens 12b is displaced by 2 μm in the + Y direction as shown in FIG. At this time, the parallax is 0.042 mm, and a parallax equivalent to 21 pixels (= 0.042 mm / 2 μm) is generated. Since the distance A is expressed by “A = Df / Δ” as shown in Expression (1), when the parallax Δ is 0.042 mm, the distance measuring unit 31 calculates the distance A = 190.5 mm.
Thus, due to the slight translational deviation of one lens of the stereo camera, the distance measuring means 31 calculates the distance of 200 mm as 190.5 mm and generates an error of about 5%. For example, in the inspection process of a manufacturing factory, if an inspection is continued using a distance measuring device without noticing that a lens shift has occurred, an erroneous inspection value is output and a large number of “defective products” are generated. It will be. In this “defective product”, there is a possibility that a genuine defective product and a normal product determined as a defective product due to a ranging error caused by a lens shift of the distance measuring device may be mixed. In such a case, it is difficult to distinguish between a true defective product and a normal product determined to be defective. Therefore, it is desirable to correct the output value of the stereo camera in real time.

先に述べたように少なくとも1つの撮像素子13上での複数の平行ビーム24の間隔(画素数)を検出できれば、対象物41までの距離Aを求めることができる。この方式はステレオカメラ10のように2つのカメラ11を用いて距離を検出する方法ではないため、どちらか一方のカメラ11のレンズ12が図中Y軸方向にずれた場合でも、算出される距離に影響を与えない。つまり、一方のレンズ12がY軸方向にずれたとしても、複数の平行なビーム24の間隔は、対象物41までの距離に応じた間隔を保って結像するため、平行ビーム24の間隔を検出することにより得られるレンズ12と対象物41との距離を、測距値を補正するための補正基準値とすることができる。   As described above, if the interval (number of pixels) of the plurality of parallel beams 24 on at least one image sensor 13 can be detected, the distance A to the object 41 can be obtained. Since this method is not a method of detecting the distance using two cameras 11 as in the stereo camera 10, the calculated distance even when the lens 12 of one of the cameras 11 is displaced in the Y-axis direction in the figure. Does not affect. That is, even if one lens 12 is displaced in the Y-axis direction, the plurality of parallel beams 24 are imaged while maintaining an interval corresponding to the distance to the object 41. The distance between the lens 12 and the object 41 obtained by detection can be used as a correction reference value for correcting the distance measurement value.

平行ビームの間隔を検出することにより得られるレンズと対象物との距離を利用して、測距値を補正する方法について図7に基づいて説明する。図7は、本発明において使用する並進ずれの補正方法の一例について説明するための図である。
レンズ12の基線長D、スポット光25の間隔を検出することにより得られたレンズ12と対象物41との距離A′(補正基準値)、レンズ12の焦点距離f、レンズ12の並進ずれが発生していない場合に観察される視差Δ、レンズ12(12a)のY方向の並進ずれp、レンズ12aが並進ずれを起こしたときに観察される視差Δ′とする。
A method of correcting the distance measurement value using the distance between the lens and the object obtained by detecting the interval between the parallel beams will be described with reference to FIG. FIG. 7 is a diagram for explaining an example of a translational deviation correction method used in the present invention.
The distance A ′ (correction reference value) between the lens 12 and the object 41 obtained by detecting the base line length D of the lens 12 and the distance between the spot lights 25, the focal length f of the lens 12, and the translational deviation of the lens 12 are as follows. It is assumed that the parallax Δ observed when it does not occur, the translational displacement p in the Y direction of the lens 12 (12a), and the parallax Δ ′ observed when the lens 12a undergoes a translational deviation.

仮に、ステレオカメラ10の基線長が(D+p)である場合に、視差Δ″を観測して、レンズ12と対象物41との距離Aが求められる場合は、以下の式(7)が成り立つ。
A′=(D+p)f/Δ″ ・・・式(7)
ここで、A′≫f、D≫pである場合には、Δ≒Δ″と書ける。また、並進ずれpが発生した場合に、撮像素子13上で観察される視差Δ′は並進ずれpを含むから、「Δ=Δ′−p」と表すことができる。従って、式(7)を変形すれば、
A′=(D+p)f/(Δ′−p) ・・・式(8)
これをpについて解くと、
p=(A′Δ′−fD)/(f+A′) ・・・式(9)
従って、式(9)から得られた並進ずれpと観察される視差Δ′を用いて、以下の式(10)により正確な距離Aを求めることができる。
A=Df/(Δ′−p) ・・・式(10)
If the base line length of the stereo camera 10 is (D + p) and the parallax Δ ″ is observed and the distance A between the lens 12 and the object 41 is obtained, the following equation (7) is established.
A ′ = (D + p) f / Δ ″ (7)
Here, when A ′ >> f and D >> p, it can be written as Δ≈Δ ″. When the translational deviation p occurs, the parallax Δ ′ observed on the image sensor 13 is the translational deviation p. Can be expressed as “Δ = Δ′−p”. Therefore, if equation (7) is modified,
A ′ = (D + p) f / (Δ′−p) (8)
Solving for p,
p = (A′Δ′−fD) / (f + A ′) (9)
Therefore, the accurate distance A can be obtained by the following equation (10) using the translational deviation p obtained from the equation (9) and the observed parallax Δ ′.
A = Df / (Δ′−p) (10)

以上のように、本実施形態においては、複数の平行ビーム24が照射された対象物41の画像をステレオカメラ10で撮像する。得られた複数の画像から、測距手段31が視差に基づいて対象物41までの距離(測距値)を算出する。また、得られた画像の何れかから距離補正手段32が、撮像素子上のスポット光25の間隔に基づいて対象物41までの距離(補正基準値)を算出する。距離補正手段32が、得られた測距値と補正基準値とをリアルタイムで比較する。測距値と補正基準値との差異が所定のしきい値を越えて大きくなった場合に、距離補正手段32は補正基準値を正しい値とみなして、式(9)により並進ずれ量を求め、さらに式(10)により観察された視差から並進ずれ量を減算することにより補正した測距値を出力する。このようにすることで、ステレオカメラから得られる距離を常に正確に保つことができる。   As described above, in the present embodiment, the stereo camera 10 captures an image of the object 41 irradiated with the plurality of parallel beams 24. The distance measuring means 31 calculates the distance (range value) to the target object 41 based on the parallax from the obtained plurality of images. Further, the distance correction unit 32 calculates the distance (correction reference value) to the object 41 based on the interval of the spot light 25 on the image sensor from any of the obtained images. The distance correction unit 32 compares the obtained distance measurement value with the correction reference value in real time. When the difference between the distance measurement value and the correction reference value becomes larger than a predetermined threshold value, the distance correction means 32 regards the correction reference value as a correct value and obtains the translational deviation amount by the equation (9). Further, the distance measurement value corrected by subtracting the translational deviation amount from the parallax observed by the equation (10) is output. In this way, the distance obtained from the stereo camera can always be kept accurate.

このように、ステレオカメラで撮影した画像から、複数の平行ビームに基づくスポット光の間隔が撮像素子上で何画素分に相当するかを算出することで、対象物までの距離がわかる。これは2つのカメラで撮影した画像の視差から距離を求めているのではないため、ステレオカメラの位置ずれ(特にY方向の並進ずれ)によって影響を受けることは無い。そのため、視差から求めた距離とビーム間隔から求めた距離を比較することでステレオカメラの位置ずれによって生じている誤差を認識することができる。
また、平行ビームが照射された状態で撮像した対象物に係る複数の画像から視差に基づいて測距値を求める。また、撮像された画像のひとつを利用して、平行ビームに基づいて対象物までの距離を算出する。このように、一度の撮影で測距値と補正基準値を並行して算出できる。従って、リアルタイムに測距値を補正することができる。
As described above, the distance to the object can be determined by calculating how many pixels the interval of the spot light based on the plurality of parallel beams corresponds to from the image captured by the stereo camera. Since the distance is not obtained from the parallax of images taken by the two cameras, it is not affected by the positional deviation of the stereo camera (especially translational deviation in the Y direction). Therefore, by comparing the distance obtained from the parallax and the distance obtained from the beam interval, it is possible to recognize an error caused by the positional deviation of the stereo camera.
Further, the distance measurement value is obtained based on the parallax from a plurality of images related to the object imaged in a state where the parallel beam is irradiated. In addition, the distance to the object is calculated based on the parallel beam using one of the captured images. In this way, the distance measurement value and the correction reference value can be calculated in parallel by one shooting. Therefore, the distance measurement value can be corrected in real time.

〈第二の実施形態〉
本発明の第二の実施形態に係る測距装置について、図8に基づいて説明する。図8は、本発明の第二の実施形態に係る測距装置に適用されるレーザ照射装置の模式図である。本実施形態におけるレーザ照射装置は、測距値の補正をするための平行ビームを照射するだけではなく、対象物にパターン光を照射する点に特徴がある。以下、第一の実施形態と同一の構成には同一の符号を付してその説明を省略する。
上述の通り、ステレオカメラによる測距(ステレオ測距)においては、ウィンドウマッチングにより視差を算出して距離を求める。そのため一対の撮像画像において「対応点」を探し出す必要がある。しかしながら、対象物の表面が一様で輝度値に変化の生じ難い場合は「対応点」を見つけることができないため、視差を求めることができず距離を求めることができない。そのため、本実施形態においは、輝度値に変化の生じ難い対象物までの距離を測距可能にするために、所定のパターン光を照射する。
<Second Embodiment>
A distance measuring apparatus according to a second embodiment of the present invention will be described with reference to FIG. FIG. 8 is a schematic diagram of a laser irradiation apparatus applied to the distance measuring apparatus according to the second embodiment of the present invention. The laser irradiation apparatus according to the present embodiment is characterized not only by irradiating the parallel beam for correcting the distance measurement value but also by irradiating the object with pattern light. Hereinafter, the same components as those of the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
As described above, in distance measurement using a stereo camera (stereo distance measurement), parallax is calculated by window matching to obtain a distance. Therefore, it is necessary to find “corresponding points” in the pair of captured images. However, when the surface of the object is uniform and it is difficult for the luminance value to change, a “corresponding point” cannot be found, so that the parallax cannot be obtained and the distance cannot be obtained. For this reason, in the present embodiment, a predetermined pattern light is irradiated in order to enable distance measurement to an object where the luminance value hardly changes.

図8に示すように、レーザ照射装置50は、カップリングレンズ22を透過した平行光を3分割する光分割素子51と、分割された光の1つの光路上に配置されて回折パターン光を生成する回折光学素子52と、を備えている。
光分割素子51は、入射した平行光の一部を透過させ、一部を反射させる2つの光量分割面23A、23Cと、光量分割面23Cを透過した平行光を全反射させる全反射面23Bと、を有している。光量分割面としては、金などの金属板の入射面に所定の間隔で微小な開口部を多数設け、入射面の開口部と遮蔽部分との面積比によって透過率を変化させたポルカドットを用いることができる。
回折光学素子52は、光量分割面23Aと全反射面23Bとの間に配置された光量分割面23Cによって反射した平行光(ビーム24c)の光路上に配置されている。
レーザ照射装置50では、半導体レーザ21から波長λのレーザ光が出射され、カップリングレンズ22により平行光となる。平行光は光分割素子51により3つの平行なビーム24a、24b、24cに分割される。3つのビームのうちの1つであるビーム24cの光路中に回折光学素子52を配置する。回折光学素子52に入射したビーム24cは所定のパターン光53となって対象物に照射される。回折光学素子52を通過しないビーム24a、24cはそのまま対象物に照射されスポット光25(25a、25b)となる。
As shown in FIG. 8, the laser irradiation device 50 generates a diffraction pattern light by being arranged on one optical path of the split light and a light splitting element 51 that splits the parallel light transmitted through the coupling lens 22 into three parts. And a diffractive optical element 52.
The light splitting element 51 transmits two parts of incident parallel light and reflects part of the two light quantity splitting surfaces 23A and 23C, and a total reflection face 23B that totally reflects the parallel light that has passed through the light quantity splitting face 23C. ,have. As the light splitting surface, a polka dot in which a large number of minute openings are provided at predetermined intervals on the incident surface of a metal plate such as gold, and the transmittance is changed according to the area ratio between the opening and the shielding portion of the incident surface is used. be able to.
The diffractive optical element 52 is disposed on the optical path of the parallel light (beam 24c) reflected by the light amount dividing surface 23C disposed between the light amount dividing surface 23A and the total reflection surface 23B.
In the laser irradiation device 50, laser light having a wavelength λ is emitted from the semiconductor laser 21 and is converted into parallel light by the coupling lens 22. The parallel light is split into three parallel beams 24a, 24b, and 24c by the light splitting element 51. The diffractive optical element 52 is disposed in the optical path of the beam 24c, which is one of the three beams. The beam 24c incident on the diffractive optical element 52 becomes a predetermined pattern light 53 and is irradiated onto the object. The beams 24a and 24c that do not pass through the diffractive optical element 52 are irradiated on the object as they are and become spot light 25 (25a and 25b).

以上のように本実施形態においては、複数の平行ビームのうちの一つのビームの光路中に回折光学素子を配置した。回折光学素子に入射したビームは所定のパターンを有するビーム(パターン光)に変換されて対象物へと照射される。輝度値に変化の生じにくい対象物の表面にパターン光により模様を形成すると、対象物の表面に輝度値の変化が生じ、ステレオカメラを用いて測距することが可能となる。
従って、本実施形態によれば、撮像素子上に映った平行ビームに基づくスポット光の間隔からリアルタイムに精度良く距離を補正すると同時に、輝度値に変化の生じにくい対象物までの距離も測距可能となる。
As described above, in this embodiment, the diffractive optical element is arranged in the optical path of one of the plurality of parallel beams. The beam incident on the diffractive optical element is converted into a beam having a predetermined pattern (pattern light) and irradiated onto the object. When a pattern is formed by pattern light on the surface of an object that hardly changes in luminance value, the luminance value changes on the surface of the object, and distance measurement can be performed using a stereo camera.
Therefore, according to the present embodiment, it is possible to accurately correct the distance in real time from the interval of the spot light based on the parallel beam reflected on the image sensor, and at the same time, to measure the distance to the object whose luminance value hardly changes. It becomes.

〈第三の実施形態〉
本発明の第三の実施形態に係る測距装置について図9に基づいて説明する。図9は、本発明の第三の実施形態に係る測距装置に適用されるレーザ照射装置の模式図である。本実施形態におけるレーザ照射装置は、光分割素子によって2分割された光を用いて、距離補正用のデータを得るための平行ビームと、パターン光とを対象物に照射する点に特徴がある。以下、第一及び第二の実施形態と同一の構成には同一の符号を付してその説明を省略する。
図9に示すレーザ照射装置60を構成する光分割素子23は、カップリングレンズ22を透過した平行光を、2本の平行なビーム24a、24bとして出射する。一方のビーム24bの光路上には、回折光学素子52が配置されている。回折光学素子52は、ビーム24bを回折させたパターン光53を生成し、対象物41に向けて照射する。なお、回折光学素子52を通過しないビーム24aは、そのまま対象物41に照射される。
ビーム24bは、回折光学素子52にて回折することで所定のパターン光53となる。このとき、回折光学素子52に入射したビーム24bは、必ずしも100%回折するわけではなく、一部の光は回折せずに回折光学素子52を素通り(透過)する。この光は一般的に0次光(0次回折光)と呼ばれ、回折光学素子52が存在しない場合と同じ振る舞いをする。つまり、ビーム24aと0次光54は、互いに平行なビームであり、対象物41にスポット光25a、25cを形成する。従って、2つのスポット光25の撮像素子13における結像間隔を取得することで、対象物41までの距離を算出することができる。
<Third embodiment>
A distance measuring apparatus according to a third embodiment of the present invention will be described with reference to FIG. FIG. 9 is a schematic diagram of a laser irradiation apparatus applied to the distance measuring apparatus according to the third embodiment of the present invention. The laser irradiation apparatus according to the present embodiment is characterized in that an object is irradiated with a parallel beam for obtaining distance correction data and pattern light using light divided into two by a light dividing element. Hereinafter, the same components as those in the first and second embodiments are denoted by the same reference numerals, and the description thereof is omitted.
The light splitting element 23 constituting the laser irradiation apparatus 60 shown in FIG. 9 emits parallel light transmitted through the coupling lens 22 as two parallel beams 24a and 24b. A diffractive optical element 52 is disposed on the optical path of one beam 24b. The diffractive optical element 52 generates pattern light 53 obtained by diffracting the beam 24 b and irradiates the object 41. The beam 24a that does not pass through the diffractive optical element 52 is irradiated to the object 41 as it is.
The beam 24 b is diffracted by the diffractive optical element 52 to become a predetermined pattern light 53. At this time, the beam 24b incident on the diffractive optical element 52 is not necessarily 100% diffracted, and some light passes through (transmits) the diffractive optical element 52 without being diffracted. This light is generally called 0th order light (0th order diffracted light), and behaves the same as when the diffractive optical element 52 is not present. That is, the beam 24 a and the zero-order light 54 are parallel to each other, and form the spot lights 25 a and 25 c on the object 41. Therefore, the distance to the object 41 can be calculated by acquiring the imaging interval of the two spot lights 25 in the image sensor 13.

ここで、ビーム24aと0次光54は、適切且つ互いに同等の光強度を有していることが望ましい。その理由は、ビーム24aと0次光54の光強度がパターン光53よりも強いと、パターン光53がスポット光25により打ち消されてしまい、パターン光53による測距が正確にできなくなるためである。逆に、ビーム24aと0次光54の強度がパターン光53よりも弱いと、スポット光25がパターン光53によって打ち消されてしまい、正確な距離補正ができなくなるためである。   Here, it is desirable that the beam 24a and the zero-order light 54 have appropriate and equivalent light intensities. The reason is that if the light intensity of the beam 24a and the 0th-order light 54 is stronger than the pattern light 53, the pattern light 53 is canceled out by the spot light 25, and distance measurement using the pattern light 53 cannot be performed accurately. . Conversely, if the intensity of the beam 24a and the zero-order light 54 is weaker than that of the pattern light 53, the spot light 25 is canceled out by the pattern light 53, and accurate distance correction cannot be performed.

上記問題を解決するレーザ照射装置の一例について図10に基づいて説明する。図10は、本実施形態の変形例を示すレーザ照射装置の模式図である。図示するように、レーザ照射装置70は、カップリングレンズ22を透過した平行光の偏光方向を回転させる偏光回転素子71と、偏光回転素子71を透過した偏光光を2分割する光分割素子72と、を備えている。光分割素子72は、入射する光の偏光方向により反射率が異なる偏光膜72Aと、偏光膜72Aを透過した光を反射させる全反射面72Bと、を備えている。   An example of a laser irradiation apparatus that solves the above problem will be described with reference to FIG. FIG. 10 is a schematic diagram of a laser irradiation apparatus showing a modification of the present embodiment. As shown in the figure, the laser irradiation device 70 includes a polarization rotation element 71 that rotates the polarization direction of the parallel light that has passed through the coupling lens 22, and a light splitting element 72 that splits the polarization light that has passed through the polarization rotation element 71 into two. It is equipped with. The light splitting element 72 includes a polarizing film 72A having a different reflectance depending on the polarization direction of incident light, and a total reflection surface 72B that reflects the light transmitted through the polarizing film 72A.

以下、ビーム24aと0次光54の強度を等しくする原理(方法)について、図11、及び図12に基づいて説明する。図11(a)、(b)は、図10に示したレーザ照射装置の動作を説明するための図である。図12は、偏光回転素子による偏光の回転量と、光分割素子から出射するビーム及び0次光の光強度との関係を示す図である。
半導体レーザ21から出射される光は一般的に直線偏光である。以下、半導体レーザ21がS偏光の光を出射する場合の例により説明する。また、光分割素子72の偏光膜72Aは、S偏光を100%反射、P偏光を100%透過させる性質を持つものとする。
まず、偏光回転素子71が、入射したS偏光をそのまま透過させる場合を考える。図11(a)に示すように、半導体レーザ21から出射されたS偏光の光は、カップリングレンズ22により平行光となる。平行光は偏光回転素子71をS偏光のまま透過した後、光分割素子72に入射する。偏光膜72Aは、S偏光を100%反射するため、光分割素子72に入射した平行光は偏光膜72Aで100%反射してビーム24aとなる。なお、平行光は偏光膜72Aで100%反射するため、回折光学素子52には入射せず、0次光54およびパターン光53は発生しない。
Hereinafter, a principle (method) for equalizing the intensities of the beam 24a and the 0th-order light 54 will be described with reference to FIGS. 11A and 11B are diagrams for explaining the operation of the laser irradiation apparatus shown in FIG. FIG. 12 is a diagram illustrating the relationship between the amount of polarization rotation by the polarization rotation element and the light intensity of the beam and the 0th-order light emitted from the light splitting element.
The light emitted from the semiconductor laser 21 is generally linearly polarized light. Hereinafter, an example in which the semiconductor laser 21 emits S-polarized light will be described. The polarizing film 72A of the light splitting element 72 has a property of reflecting 100% of S-polarized light and transmitting 100% of P-polarized light.
First, consider a case where the polarization rotation element 71 transmits incident S-polarized light as it is. As shown in FIG. 11A, the S-polarized light emitted from the semiconductor laser 21 is converted into parallel light by the coupling lens 22. The parallel light passes through the polarization rotation element 71 as S-polarized light and then enters the light splitting element 72. Since the polarizing film 72A reflects 100% of S-polarized light, the parallel light incident on the light splitting element 72 is reflected 100% by the polarizing film 72A to become a beam 24a. Since the parallel light is reflected 100% by the polarizing film 72A, it does not enter the diffractive optical element 52, and the zero-order light 54 and the pattern light 53 are not generated.

次に偏光回転素子71を用いて、半導体レーザ21から出射された直線偏光の偏光方向を90°回転させることを考える。図11(b)に示すように、半導体レーザ21から出射されたS偏光はカップリングレンズ22により平行光となる。平行光は偏光回転素子71によってS偏光からP偏光に変換される。P偏光となった光は光分割素子72に入射する。偏光膜72AはP偏光を100%透過させるため、光分割素子72に入射した平行光は偏光膜72Aを100%透過する。さらに平行光は、全反射面72Bで100%反射して回折光学素子52に入射する。回折光学素子52に入射した光は0次光54およびパターン光53となって出射される。   Next, consider using the polarization rotation element 71 to rotate the polarization direction of linearly polarized light emitted from the semiconductor laser 21 by 90 °. As shown in FIG. 11B, the S-polarized light emitted from the semiconductor laser 21 is converted into parallel light by the coupling lens 22. The parallel light is converted from S-polarized light to P-polarized light by the polarization rotation element 71. The light that has become P-polarized light enters the light splitting element 72. Since the polarizing film 72A transmits 100% of the P-polarized light, the parallel light incident on the light splitting element 72 transmits 100% of the polarizing film 72A. Further, the parallel light is reflected 100% by the total reflection surface 72B and enters the diffractive optical element 52. The light incident on the diffractive optical element 52 is emitted as 0th-order light 54 and pattern light 53.

このように、光分割素子72に入射する光がS偏光の時は、ビーム24aの光強度が強く、P偏光の時はビーム24bの光強度が強くなる。
ところで、光分割素子72に入射する光の偏光方向を、偏光回転素子71によってS偏光からP偏光へと回転させていくときの光強度の関係は図10のようになる。全反射面72Bにて反射したビーム24bの光強度が強くなるにつれて、0次光54も光強度が強くなる。図示するように、ビーム24aと0次光54の光強度が等しくなるのは、S偏光とP偏光の中間(45°方向)よりややP偏光に近い時であることがわかる。
Thus, when the light incident on the light splitting element 72 is S-polarized light, the light intensity of the beam 24a is strong, and when the light is P-polarized light, the light intensity of the beam 24b is strong.
Incidentally, the relationship of the light intensity when the polarization direction of the light incident on the light splitting element 72 is rotated from the S-polarized light to the P-polarized light by the polarization rotating element 71 is as shown in FIG. As the light intensity of the beam 24b reflected by the total reflection surface 72B increases, the light intensity of the zero-order light 54 also increases. As shown in the figure, it is understood that the light intensities of the beam 24a and the 0th-order light 54 are equal when they are slightly closer to the P-polarized light than between the S-polarized light and the P-polarized light (45 ° direction).

そこで、本発明においては、照射制御手段33(図10)によって、ビーム24aと0次光54の光強度が等しくなるように、偏光回転素子71を制御することによって、偏光方向を調整する。
例えば偏光回転素子71として1/2波長板を用いれば、1/2波長板を駆動源により機械的に回転させることで、偏光方向を回転させることができる。1/2波長板を回転させてS偏光とP偏光の中間(45°方向)よりややP偏光に近い状態になるようにすれば、ビーム24aの光強度と0次光54の光強度を等しくすることができる。
なお、回折光学素子52に入射するビーム24bのうち、何パーセントを0次光54として出射するかは、回折光学素子52の溝の形状や深さで調整して設計することが可能である。従って、偏光回転素子71の回転方向の調整と、回折光学素子52の溝形状や深さの加工により、ビーム24bと0次光54の光強度を最適かつ等しくなるように設定することが可能である。
Therefore, in the present invention, the polarization direction is adjusted by controlling the polarization rotation element 71 so that the light intensity of the beam 24a and the zero-order light 54 is equalized by the irradiation control means 33 (FIG. 10).
For example, when a half-wave plate is used as the polarization rotation element 71, the polarization direction can be rotated by mechanically rotating the half-wave plate by a driving source. If the half-wave plate is rotated so that it is slightly closer to the P-polarized light than the middle of the S-polarized light and the P-polarized light (45 ° direction), the light intensity of the beam 24a is equal to the light intensity of the zero-order light 54. can do.
It should be noted that what percentage of the beam 24b incident on the diffractive optical element 52 is emitted as the 0th-order light 54 can be designed by adjusting the shape and depth of the groove of the diffractive optical element 52. Therefore, the light intensity of the beam 24b and the 0th-order light 54 can be set to be optimal and equal by adjusting the rotation direction of the polarization rotating element 71 and processing the groove shape and depth of the diffractive optical element 52. is there.

以上説明したように、本実施形態においては、複数の平行ビームのうちの一つのビームの光路中に回折光学素子を配置する。回折光学素子は、入射したビームを所定のパターン光に変換する。このとき、回折光学素子によって回折されずにそのまま回折光学素子を透過してしまう光(0次光)が発生する。0次光と他のビームとは、間隔が一定の互いに平行なビームであるため、0次光とビームが対象物の表面に形成したスポット光を撮影することにより、補正基準値を求めることができる。また、回折パターン光と0次光(に基づくビーム)を生成するビームを共通化できるので、レーザ照射装置の小型化と低コスト化を図ることができる。   As described above, in the present embodiment, the diffractive optical element is arranged in the optical path of one of a plurality of parallel beams. The diffractive optical element converts the incident beam into a predetermined pattern light. At this time, light (0th order light) that passes through the diffractive optical element without being diffracted by the diffractive optical element is generated. Since the zero-order light and the other beams are parallel to each other with a constant interval, the correction reference value can be obtained by photographing the spot light formed on the surface of the object by the zero-order light and the beam. it can. In addition, since the diffraction pattern light and the beam that generates the 0th-order light (based on the beam) can be shared, the laser irradiation apparatus can be reduced in size and cost.

〈補正タイミングについて〉
第一乃至第三の実施形態にて説明した平行ビームを利用した測距値の補正タイミングについて、図13に基づいて説明する。図13(a)〜(c)は、撮像範囲と撮像範囲内にある障害物との関係を示した図である。
測距値の補正を行う際には、ステレオカメラ10による撮像範囲の全体が、ステレオカメラ10から等距離にある平面であることが望ましい(図13(a))。このような場合は、撮像範囲の全体においてステレオカメラ10からの距離が一様となり、ステレオカメラ10から2つのスポット光25までの距離が必ず同一となる。従って、平行ビーム24による2つのスポット光25から、補正基準とする距離を正確に求めることができる。
上記実施形態に示した測距装置は、何れもステレオカメラを備えているため、ステレオカメラによって撮影画面全面の距離を得ることができる。これにより画面内の遠近分布がわかり、撮影画面全面が平面であるか否か(撮影画面内の障害物の有無)を検知することができる。障害物が無く画面全面が同一の平面となっている時に、対象物に複数の平行ビームを照射して、対象物の表面に形成されたスポット光を撮影することで、正確な補正基準値を得ることができる。
<About correction timing>
The distance measurement correction timing using the parallel beam described in the first to third embodiments will be described with reference to FIG. FIGS. 13A to 13C are diagrams illustrating the relationship between the imaging range and the obstacles in the imaging range.
When the distance measurement value is corrected, it is desirable that the entire imaging range of the stereo camera 10 is a plane that is equidistant from the stereo camera 10 (FIG. 13A). In such a case, the distance from the stereo camera 10 is uniform over the entire imaging range, and the distance from the stereo camera 10 to the two spot lights 25 is always the same. Therefore, the distance as the correction reference can be accurately obtained from the two spot lights 25 by the parallel beam 24.
Since the distance measuring devices shown in the above embodiments all include a stereo camera, the distance of the entire shooting screen can be obtained by the stereo camera. Thereby, the perspective distribution in the screen is known, and it is possible to detect whether or not the entire surface of the imaging screen is flat (the presence or absence of an obstacle in the imaging screen). When there are no obstacles and the entire screen is on the same plane, the target is irradiated with multiple parallel beams, and the spot light formed on the surface of the object is photographed to obtain an accurate correction reference value. Can be obtained.

一方、ステレオカメラ10の撮像範囲内に凹凸がある場合を考える。図13(b)に示すように、対象物41上には障害物43が存在する。このとき、ステレオカメラ10から障害物43までの距離はA1であるが、ステレオカメラ10から対象物41までの距離はA2である。
仮に、スポット光25aが障害物43上に形成され、スポット光25bが対象物41上に形成された場合、スポット光25aはスポット光25bに比べて、撮像素子13上で端部寄りに結像する(図3参照)。これは、これは同じ大きさの物体であっても、手前にある方が大きく写るというカメラの原理によって引き起こされる。このような場合、撮像素子13上で結像したスポット光25の間隔(画素数)と、ステレオカメラ10からスポット光までの距離との相関関係を利用して補正基準値を求めることができない。そのため、正確な補正ができなくなる。従って、複数の平行ビーム24を撮影するときには、少なくとも平行ビームを照射した面が、ステレオカメラから同一の距離にある平面である必要がある。
On the other hand, let us consider a case where there are irregularities in the imaging range of the stereo camera 10. As shown in FIG. 13B, an obstacle 43 exists on the object 41. At this time, the distance from the stereo camera 10 to the obstacle 43 is A1, but the distance from the stereo camera 10 to the object 41 is A2.
If the spot light 25a is formed on the obstacle 43 and the spot light 25b is formed on the object 41, the spot light 25a forms an image closer to the end on the image sensor 13 than the spot light 25b. (See FIG. 3). This is caused by the camera principle that even if the object is the same size, it appears larger when it is in front. In such a case, the correction reference value cannot be obtained using the correlation between the interval (number of pixels) of the spot light 25 imaged on the image sensor 13 and the distance from the stereo camera 10 to the spot light. Therefore, accurate correction cannot be performed. Therefore, when photographing a plurality of parallel beams 24, at least the surface irradiated with the parallel beams needs to be a plane at the same distance from the stereo camera.

図13(c)は、ステレオカメラ10の撮像範囲内に凹凸が存在するが、2つのスポット光が同一平面にある場合を示している。このように、複数の平行ビームが並ぶ方向(図13ではY方向)に障害物が無い場合に撮影することが有効である。特に、複数の平行ビームが照射された部分だけではなく、Y方向の撮影画面全体に障害物が無ければ、正確な補正基準値を取得し、測距値を正確に補正することが可能である。
従って、例えば製造工場の検査ラインに設けられた測距装置の出力を補正する場合は、図中上方向に流れるサンプルとサンプル(障害物43)の隙間のベルトコンベア(対象物41)上に平行ビーム24を照射して、スポット光25を撮影して補正基準値を得れば良い。このような方法であれば、ほぼリアルタイムに補正することができる。特に、サンプルがベルトコンベア上を一定の間隔で流れる場合は、ベルトコンベアが露出するタイミングに合わせてスポット光を撮影すれば良い。
また、例えば複数のスポット光25が同一平面上にあることを確認するには、2つのスポット光25までの距離を夫々視差画像に基づいて算出し、ステレオカメラ10からの距離が同一であることを確認すればよい。各スポット光25の部分だけではなく、2つのスポット光25を含む所定の範囲内、又は画面全体についてステレオカメラ10からの距離が同一であることを確認しても良い。後者の場合は、より正確に測距値を補正できる。
なお、カメラ11に並進ずれが発生した場合であっても、同一平面上にある物体については同一の視差を生ずる。そのため、撮像範囲のうちの所望の部分が同一平面上にあることを確認することは可能である。
FIG. 13C shows a case where there are irregularities in the imaging range of the stereo camera 10, but the two spot lights are on the same plane. Thus, it is effective to take an image when there is no obstacle in the direction in which a plurality of parallel beams are arranged (Y direction in FIG. 13). In particular, if there are no obstacles in the entire shooting screen in the Y direction, not just the portion irradiated with a plurality of parallel beams, it is possible to acquire an accurate correction reference value and accurately correct the distance measurement value. .
Therefore, for example, when correcting the output of the distance measuring device provided in the inspection line of the manufacturing factory, it is parallel to the belt conveyor (object 41) in the gap between the sample flowing in the upward direction in the figure and the sample (obstacle 43). The correction reference value may be obtained by irradiating the beam 24 and photographing the spot light 25. With such a method, it is possible to correct almost in real time. In particular, when the sample flows on the belt conveyor at regular intervals, the spot light may be photographed in accordance with the timing at which the belt conveyor is exposed.
For example, in order to confirm that the plurality of spot lights 25 are on the same plane, the distances to the two spot lights 25 are calculated based on the parallax images, and the distances from the stereo camera 10 are the same. You can confirm. It may be confirmed that the distance from the stereo camera 10 is the same not only in the portion of each spot light 25 but also within a predetermined range including the two spot lights 25 or the entire screen. In the latter case, the distance measurement value can be corrected more accurately.
Even when translational shift occurs in the camera 11, the same parallax is generated for objects on the same plane. Therefore, it is possible to confirm that a desired portion of the imaging range is on the same plane.

本発明の測距値補正方法の処理フローの一例について説明する。図14は、本発明の測距装置における処理の一例を示したフロー図である。この例は、補正基準値を得るに相応しい平面にスポット光が照射されているか否かを判断して、測距値を補正するものである。
まず、照射制御手段33が半導体レーザ21をオンして、レーザ照射装置20から平行ビーム24を出射する(ステップS1)。すると、スポット光25が、ステレオカメラ10の撮像範囲内にある対象物41又は障害物43上に形成される。ステレオカメラ10の2つのカメラ11によって夫々スポット光25を含む画像を撮像する。2つの視差画像から、測距手段31が2つのスポット光25までの距離(測距値)をそれぞれ算出する(ステップS2)。
距離補正手段32は、ステレオカメラ10と2つのスポット光25までの距離を比較する。比較の結果、スポット光25aまでの距離と、スポット光25bまでの距離が異なる場合(ステップS3にてNo:図13(b)参照)、2つのスポット光25が同一平面上に形成されていないと判断する。この場合は正確な補正基準値を得られず、測距値の補正ができないため、ステップS2に戻って再度2つのスポット光25までの距離を算出する。
2つのスポット光25までの距離が同一である場合(ステップS3にてYes:図13(a)又は(c)参照)、距離補正手段32は、一方の撮像素子13上に結像したスポット光25の間隔(画素数)に基づいて、対象物41までの距離を算出する(ステップS4)。
An example of the processing flow of the distance measurement value correction method of the present invention will be described. FIG. 14 is a flowchart showing an example of processing in the distance measuring apparatus of the present invention. In this example, the distance measurement value is corrected by determining whether or not the spot light is irradiated on a plane suitable for obtaining the correction reference value.
First, the irradiation control means 33 turns on the semiconductor laser 21, and emits the parallel beam 24 from the laser irradiation apparatus 20 (step S1). Then, the spot light 25 is formed on the object 41 or the obstacle 43 that is within the imaging range of the stereo camera 10. Images including the spot light 25 are captured by the two cameras 11 of the stereo camera 10. From the two parallax images, the distance measuring means 31 calculates the distances (range values) to the two spot lights 25 (step S2).
The distance correction unit 32 compares the distance between the stereo camera 10 and the two spot lights 25. When the distance to the spot light 25a is different from the distance to the spot light 25b as a result of comparison (No in step S3: see FIG. 13B), the two spot lights 25 are not formed on the same plane. Judge. In this case, since an accurate correction reference value cannot be obtained and the distance measurement value cannot be corrected, the process returns to step S2 and the distance to the two spot lights 25 is calculated again.
When the distance to the two spot lights 25 is the same (Yes in step S3: see FIG. 13 (a) or (c)), the distance correcting unit 32 forms the spot light imaged on one image sensor 13. Based on the 25 interval (number of pixels), the distance to the object 41 is calculated (step S4).

距離補正手段32は、スポット光25の間隔(画素数)に基づいて算出した距離(補正基準値)と、測距手段31が算出した測距値と、を比較し、両者の差が所定のしきい値内に収まっているかを判断する(ステップS5)。両者の差がしきい値内に収まっている場合(ステップS5にてNo)は、ステレオカメラ10のレンズ12に並進ずれが発生していないため、測距値を補正する必要がないと判断して、フローを抜ける。
両者の差がしきい値内に収まっていない場合(ステップS5にてYes)は、ステレオカメラ10のレンズ12に並進ずれが発生しているため、測距値を補正する必要あると判断する。そこで、距離補正手段32は、式(9)からレンズの並進ずれ量pを算出して、測距値の補正式として式(10)を設定する(ステップS6)。以降は、2つのカメラ11から得られた視差量から、測距値を式(10)により算出する。
The distance correction unit 32 compares the distance (correction reference value) calculated based on the interval (number of pixels) of the spot light 25 and the distance measurement value calculated by the distance measurement unit 31, and the difference between the two is a predetermined value. It is determined whether it is within the threshold value (step S5). If the difference between the two is within the threshold value (No in step S5), it is determined that there is no translational deviation in the lens 12 of the stereo camera 10, and it is determined that there is no need to correct the distance measurement value. And exit the flow.
If the difference between the two is not within the threshold value (Yes in step S5), it is determined that the distance measurement value needs to be corrected because a translational shift has occurred in the lens 12 of the stereo camera 10. Accordingly, the distance correction unit 32 calculates the translational displacement amount p of the lens from the equation (9), and sets the equation (10) as a distance measurement value correction equation (step S6). Thereafter, the distance measurement value is calculated from the amount of parallax obtained from the two cameras 11 using Equation (10).

以上のように本実施形態によれば、ビームが同一平面上に照射されていることを確認してから測距値を補正するので、正確な補正が可能となる。特に、ステレオカメラから得られた視差情報を用いて、ビームが同一平面上に照射されていることを確認すれば、適切なタイミングで自動的に測距値を補正できる。   As described above, according to this embodiment, the distance measurement value is corrected after confirming that the beam is irradiated on the same plane, so that accurate correction is possible. In particular, if the parallax information obtained from the stereo camera is used to confirm that the beam is irradiated on the same plane, the distance measurement value can be automatically corrected at an appropriate timing.

以上述べてきたステレオカメラとレーザ照射装置を有する測距装置は、レーザ照射装置から照射されたビームの間隔を求めることでリアルタイムに距離を補正することができる。従って、製造工場の検査ラインで測距装置を使用しているときに、常に正確な測距値を算出することができる。これにより、検査ラインを止めて定期的な検査や補正を行う必要が無く、生産性を向上させ、かつ正確な検査を実現できる。   The distance measuring device having the stereo camera and the laser irradiation device described above can correct the distance in real time by obtaining the interval between the beams irradiated from the laser irradiation device. Accordingly, it is possible to always calculate an accurate distance measurement value when the distance measuring device is used on the inspection line of the manufacturing factory. This eliminates the need to stop the inspection line and perform periodic inspections and corrections, thereby improving productivity and realizing an accurate inspection.

1…測距装置、10…ステレオカメラ、11…カメラ、12…レンズ、13…撮像素子、20…レーザ照射装置、21…半導体レーザ、22…カップリングレンズ、23…光分割素子、23A…光量分割面、23B…全反射面、23C…光量分割面、24…ビーム、25…スポット光、30…制御部、31…測距手段、32…距離補正手段、33…照射制御手段、41…照射面、41…対象物、43…障害物、50…レーザ照射装置、51…光分割素子、52…回折光学素子、53…パターン光、54…0次光、60…レーザ照射装置、70…レーザ照射装置、71…偏光回転素子、72…光分割素子、72A…偏光膜、72B…全反射面、101…計測対象物、102…カメラ、103…レンズ、104…計測対象物像、105…2次元センサ、106…ステレオカメラ装置   DESCRIPTION OF SYMBOLS 1 ... Distance measuring device, 10 ... Stereo camera, 11 ... Camera, 12 ... Lens, 13 ... Imaging element, 20 ... Laser irradiation apparatus, 21 ... Semiconductor laser, 22 ... Coupling lens, 23 ... Light splitting element, 23A ... Light quantity Dividing surface, 23B ... Total reflection surface, 23C ... Light quantity dividing surface, 24 ... Beam, 25 ... Spot light, 30 ... Control unit, 31 ... Distance measuring means, 32 ... Distance correcting means, 33 ... Irradiation controlling means, 41 ... Irradiation Surface: 41 ... Object, 43 ... Obstacle, 50 ... Laser irradiation device, 51 ... Light splitting element, 52 ... Diffraction optical element, 53 ... Pattern light, 54 ... Zero order light, 60 ... Laser irradiation device, 70 ... Laser Irradiation device 71 ... Polarization rotating element 72 ... Light splitting element 72A ... Polarizing film 72B ... Total reflection surface 101 ... Measurement object 102 ... Camera 103 ... Lens 104 ... Measurement object image 105 ... 2 Dimension Sa, 106 ... stereo camera device

特許第3792832号Japanese Patent No. 3792932 特許第4573977号Japanese Patent No. 457397

Claims (3)

対象物に向けて平行な複数のビームを出射する照射装置と、
前記対象物にて夫々反射した前記複数のビームによるスポット光を結像させる複数の撮像レンズと、
前記各撮像レンズにより結像された前記各スポット光を含む前記対象物に係る複数の画像を撮像する複数の撮像手段と、
前記各画像間の視差情報に基づいて前記対象物までの距離を算出する測距手段と、
前記各撮像手段の少なくとも一つの撮像手段上における前記各スポット光の結像位置の間隔から求まる前記対象物までの距離に基づいて、前記測距手段が算出した前記対象物までの距離を補正する距離補正手段と、
を備えたことを特徴とする測距装置。
An irradiation device for emitting a plurality of parallel beams toward the object;
A plurality of imaging lenses for imaging spot lights by the plurality of beams respectively reflected by the object;
A plurality of image pickup means for picking up a plurality of images related to the object including the spot lights imaged by the image pickup lenses;
Distance measuring means for calculating a distance to the object based on parallax information between the images;
The distance to the object calculated by the distance measuring means is corrected based on the distance to the object obtained from the interval between the image formation positions of the spot lights on at least one image pickup means of the image pickup means. Distance correction means;
A distance measuring device comprising:
前記複数のビームのうちの少なくとも一つのビームの光路中に、前記ビームを回折した回折パターン光を生成する回折光学素子を配置したことを特徴とする請求項1に記載の測距装置。   2. The distance measuring apparatus according to claim 1, wherein a diffractive optical element that generates diffraction pattern light obtained by diffracting the beam is disposed in an optical path of at least one of the plurality of beams. 前記複数のスポット光の少なくとも一つが、前記回折パターン光に含まれる0次回折光であることを特徴とする請求項2に記載の測距装置。   The distance measuring apparatus according to claim 2, wherein at least one of the plurality of spot lights is zero-order diffracted light included in the diffraction pattern light.
JP2012147956A 2012-06-29 2012-06-29 Range finder Pending JP2014010089A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012147956A JP2014010089A (en) 2012-06-29 2012-06-29 Range finder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012147956A JP2014010089A (en) 2012-06-29 2012-06-29 Range finder

Publications (1)

Publication Number Publication Date
JP2014010089A true JP2014010089A (en) 2014-01-20

Family

ID=50106908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012147956A Pending JP2014010089A (en) 2012-06-29 2012-06-29 Range finder

Country Status (1)

Country Link
JP (1) JP2014010089A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016170737A1 (en) * 2015-04-24 2016-10-27 株式会社デンソー Road surface displaying device
WO2017145202A1 (en) * 2016-02-26 2017-08-31 パナソニックIpマネジメント株式会社 Inspection system, inspection method, and inspection program
WO2019000415A1 (en) * 2017-06-30 2019-01-03 SZ DJI Technology Co., Ltd. Object measurement for light detection and ranging system
WO2020095549A1 (en) * 2018-11-06 2020-05-14 日立オートモティブシステムズ株式会社 Imaging device
US20210289113A1 (en) * 2018-09-18 2021-09-16 AI Gaspar Limited System and process for identification and illumination of anatomical sites of a person and articles at such sites

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016170737A1 (en) * 2015-04-24 2016-10-27 株式会社デンソー Road surface displaying device
JP2016203856A (en) * 2015-04-24 2016-12-08 株式会社デンソー Road surface display device
WO2017145202A1 (en) * 2016-02-26 2017-08-31 パナソニックIpマネジメント株式会社 Inspection system, inspection method, and inspection program
JPWO2017145202A1 (en) * 2016-02-26 2018-11-29 パナソニックIpマネジメント株式会社 Inspection system, inspection method and inspection program
WO2019000415A1 (en) * 2017-06-30 2019-01-03 SZ DJI Technology Co., Ltd. Object measurement for light detection and ranging system
US20210289113A1 (en) * 2018-09-18 2021-09-16 AI Gaspar Limited System and process for identification and illumination of anatomical sites of a person and articles at such sites
WO2020095549A1 (en) * 2018-11-06 2020-05-14 日立オートモティブシステムズ株式会社 Imaging device
JPWO2020095549A1 (en) * 2018-11-06 2021-10-21 日立Astemo株式会社 Imaging device
JP7152506B2 (en) 2018-11-06 2022-10-12 日立Astemo株式会社 Imaging device

Similar Documents

Publication Publication Date Title
JP6040930B2 (en) Surface defect detection method and surface defect detection apparatus
US6724490B2 (en) Image capturing apparatus and distance measuring method
US9267790B2 (en) Measuring device of measurement object, calculating device, measurement method, and method for producing item
US10223575B2 (en) Measurement apparatus for measuring shape of object, system and method for producing article
JP2014010089A (en) Range finder
JP2014174088A (en) Inspection tool, stereo camera inspection apparatus, and inspection method
JP2013257162A (en) Distance measuring device
CN103486979A (en) Hybrid sensor
JP6030471B2 (en) Shape measuring device
US20140092219A1 (en) Device for acquiring stereoscopic images
JP2015108582A (en) Three-dimensional measurement method and device
JP2014202661A (en) Range finder
JP2014238299A (en) Measurement device, calculation device, and measurement method for inspected object, and method for manufacturing articles
JP2010014505A (en) Three-dimensional shape measuring apparatus and three-dimensional shape measurement method
JP6362058B2 (en) Test object measuring apparatus and article manufacturing method
JP6149990B2 (en) Surface defect detection method and surface defect detection apparatus
JP5850225B2 (en) Marker detection method and apparatus
JP2016166747A (en) Optical detection system
JP5612905B2 (en) Wheel shape measuring device, wheel shape measuring method, and wheel shape measuring program
JP2015081894A (en) Surface shape measurement device and surface shape measurement method
CN113196006B (en) Non-contact thickness measurement
KR101817667B1 (en) Method for aligning optical axis of optical interferometer
JP2007205767A (en) Three-dimensional coordinate measuring device and method
KR20160069806A (en) Distance measuring apparatus and distance measuring method
JP2008164338A (en) Position sensor