JP2022025315A - Light projection device, object detection device, and moving body - Google Patents

Light projection device, object detection device, and moving body Download PDF

Info

Publication number
JP2022025315A
JP2022025315A JP2020128066A JP2020128066A JP2022025315A JP 2022025315 A JP2022025315 A JP 2022025315A JP 2020128066 A JP2020128066 A JP 2020128066A JP 2020128066 A JP2020128066 A JP 2020128066A JP 2022025315 A JP2022025315 A JP 2022025315A
Authority
JP
Japan
Prior art keywords
light
scanning
unit
projection device
curvature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020128066A
Other languages
Japanese (ja)
Other versions
JP7505312B2 (en
Inventor
健翔 中村
Kento Nakamura
忠司 仲村
Tadashi Nakamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2020128066A priority Critical patent/JP7505312B2/en
Priority claimed from JP2020128066A external-priority patent/JP7505312B2/en
Publication of JP2022025315A publication Critical patent/JP2022025315A/en
Application granted granted Critical
Publication of JP7505312B2 publication Critical patent/JP7505312B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Mechanical Optical Scanning Systems (AREA)

Abstract

To enable projection of scanning light at a wide angle when a transmission member is provided.SOLUTION: Disclosed is a light projection device according to an aspect of the present invention, which projects scanning light. The light projection device includes: a light source part for emitting light; an optical scanning part for scanning the light emitted from the light source part in a predetermined scanning direction; and a transmission member which is provided in an optical path of the scanning light by the optical scanning part and transmits the scanning light therethrough. The transmission member includes the scanning curved surface having the curvature in the scanning direction.SELECTED DRAWING: Figure 1

Description

本願は、光投射装置、物体検出装置、及び移動体に関する。 The present application relates to a light projection device, an object detection device, and a moving body.

従来、車両等の移動体前方にある物体を検出するLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置等の物体検出装置と、該物体検出装置で使用され、移動体の前方に走査光を投射する光投射装置が知られている(例えば、特許文献1参照)。 Conventionally, an object detection device such as an LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device that detects an object in front of a moving body such as a vehicle, and an object detection device used in the object detection device, scanning light in front of the moving body. A light projection device is known (see, for example, Patent Document 1).

また光投射装置では、投射される走査光の光路に、走査光を透過する透過部材を設けた構成が開示されている(例えば、特許文献2参照)。 Further, the optical projection device discloses a configuration in which a transmitting member that transmits scanning light is provided in the optical path of the scanned scanning light to be projected (see, for example, Patent Document 2).

しかしながら、特許文献1及び2の構成では、透過部材を設けると、走査光を広角に投射できない場合がある。 However, in the configurations of Patent Documents 1 and 2, if the transmitting member is provided, the scanning light may not be projected at a wide angle.

本発明は、透過部材を設けた場合に、走査光を広角に投射可能にすることを課題とする。 An object of the present invention is to make it possible to project scanning light at a wide angle when a transmissive member is provided.

本発明の一態様に係る光投射装置は、走査光を投射する光投射装置であって、光を射出する光源部と、前記光源部の射出光を所定の走査方向に走査する光走査部と、前記光走査部による前記走査光の光路に設けられ、前記走査光を透過する透過部材と、を有し、前記透過部材は、前記走査方向に曲率を有する走査曲面を含む。 The light projection device according to one aspect of the present invention is a light projection device that projects scanning light, and includes a light source unit that emits light and an optical scanning unit that scans the emitted light of the light source unit in a predetermined scanning direction. A transmission member provided in the optical path of the scanning light by the optical scanning unit and transmitting the scanning light, and the transmitting member includes a scanning curved surface having a curvature in the scanning direction.

本発明によれば、透過部材を設けた場合に、走査光を広角に投射できる。 According to the present invention, when the transmissive member is provided, the scanning light can be projected at a wide angle.

第1実施形態に係る光走査部の構成例を示す図であり、(a)はX軸方向から光投射装置を視た図であり、(b)はY軸方向から光投射装置を視た図である。It is a figure which shows the structural example of the optical scanning part which concerns on 1st Embodiment, (a) is the figure which looked at the light projection device from the X-axis direction, (b) is the figure which looked at the light projection device from the Y-axis direction. It is a figure. 第1実施形態に係る物体検出装置の構成例を示す図である。It is a figure which shows the structural example of the object detection apparatus which concerns on 1st Embodiment. 第1実施形態に係る制御部のハードウェア構成例のブロック図である。It is a block diagram of the hardware configuration example of the control part which concerns on 1st Embodiment. 第1実施形態に係る制御部の機能構成例のブロック図である。It is a block diagram of the functional structure example of the control part which concerns on 1st Embodiment. ウィンドウ面の入射角度と反射率の関係例を示す図である。It is a figure which shows the relationship example of the incident angle of a window surface, and the reflectance. 光投射装置の小型化例を説明する図である。It is a figure explaining the miniaturization example of the light projection apparatus. 第2実施形態に係る物体検出装置の構成例を示す図である。It is a figure which shows the structural example of the object detection apparatus which concerns on 2nd Embodiment. 第3実施形態に係る制御部の機能構成例のブロック図である。It is a block diagram of the functional structure example of the control part which concerns on 3rd Embodiment. 第4実施形態に係る移動体の構成例の図である。It is a figure of the structural example of the moving body which concerns on 4th Embodiment. 第4実施形態に係る移動体のハードウェア構成例のブロック図である。It is a block diagram of the hardware configuration example of the moving body which concerns on 4th Embodiment.

以下、図面を参照して発明を実施するための形態について説明する。各図面において、同一構成部には同一符号を付し、重複した説明を適宜省略する。 Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings. In each drawing, the same components are designated by the same reference numerals, and duplicate description will be omitted as appropriate.

また以下に示す実施形態は、本発明の技術思想を具体化するための画像形成装置を例示するものであって、本発明を以下に示す実施形態に限定するものではない。以下に記載されている構成部品の形状、その相対的配置、パラメータの値等は特定的な記載がない限り、本発明の範囲をそれのみに限定する趣旨ではなく、例示することを意図したものである。また図面が示す部材の大きさや位置関係等は、説明を明確にするため、誇張している場合がある。 Further, the embodiments shown below exemplify an image forming apparatus for embodying the technical idea of the present invention, and the present invention is not limited to the embodiments shown below. Unless otherwise specified, the shapes of the components, their relative arrangements, the values of the parameters, etc. described below are not intended to limit the scope of the present invention to that alone, but are intended to be exemplified. Is. In addition, the size and positional relationship of the members shown in the drawings may be exaggerated in order to clarify the explanation.

実施形態に係る光投射装置は、車両等の移動体前方にある物体を検出するLIDAR等の物体検出装置で使用される光投射装置である。実施形態では、光走査部による走査光の光路に走査光を透過する透過部材を設け、この透過部材は、所定の走査方向において曲率を有する走査曲面を含む。この構成により、透過部材を設けた場合に、走査角度が大きい角度領域で、透過部材に入射する走査光の入射角度を小さくすることで、透過部材を透過する走査光の光利用効率を確保して走査光を広角に投射可能にする。 The light projection device according to the embodiment is a light projection device used in an object detection device such as LIDAR that detects an object in front of a moving body such as a vehicle. In the embodiment, a transmitting member that transmits scanning light is provided in an optical path of scanning light by an optical scanning unit, and the transmitting member includes a scanning curved surface having a curvature in a predetermined scanning direction. With this configuration, when the transmissive member is provided, the incident angle of the scanning light incident on the transmissive member is reduced in the angle region where the scanning angle is large, thereby ensuring the light utilization efficiency of the scanning light transmitted through the transmissive member. Allows scanning light to be projected at a wide angle.

[第1実施形態]
以下では、光投射装置300を有する物体検出装置100を一例として、実施形態を説明する。なお、実施形態では、XYZ3次元直交座標系において、光走査部による光の走査方向をX軸方向(所定方向の一例)とし、X軸方向に交差する方向をY軸方向(交差方向の一例)とし、X軸方向及びY軸方向の両方に交差する方向をZ軸方向とする。
[First Embodiment]
Hereinafter, an embodiment will be described by taking an object detection device 100 having a light projection device 300 as an example. In the embodiment, in the XYZ three-dimensional Cartesian coordinate system, the scanning direction of light by the optical scanning unit is the X-axis direction (an example of a predetermined direction), and the direction intersecting the X-axis direction is the Y-axis direction (an example of the crossing direction). The direction that intersects both the X-axis direction and the Y-axis direction is defined as the Z-axis direction.

<光投射装置300の構成例>
まず、図1を参照して、光投射装置300の構成について説明する。図1は、本実施形態に係る光投射装置300の構成の一例を説明する図である。(a)は、X軸方向から光投射装置300を視た図であり、(b)はY軸方向から光投射装置300を視た図である。なお、図1では、説明を分かりやすくするために光投射装置300の主要な要素のみを示している。
<Configuration example of light projection device 300>
First, the configuration of the light projection device 300 will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of the configuration of the light projection device 300 according to the present embodiment. (A) is a view of the light projection device 300 viewed from the X-axis direction, and (b) is a view of the light projection device 300 viewed from the Y-axis direction. Note that FIG. 1 shows only the main elements of the light projection device 300 for the sake of clarity.

図1に示すように、光投射装置300は、半導体レーザ11と、投射レンズ12と、MEMS(Micro Electro Mechanical Systems)ミラー13と、ウィンドウ16と、制御部200とを有する。光投射装置300は、半導体レーザ11が射出する光を、投射レンズ12を介してMEMSミラー13に入射させ、MEMSミラー13による走査光を、ウィンドウ16を介して検出領域500に投射する。検出領域500は、検出対象としての物体が存在し得る三次元的な空間領域である。 As shown in FIG. 1, the light projection device 300 includes a semiconductor laser 11, a projection lens 12, a MEMS (Micro Electro Mechanical Systems) mirror 13, a window 16, and a control unit 200. The light projection device 300 incidents the light emitted by the semiconductor laser 11 on the MEMS mirror 13 via the projection lens 12, and projects the scanning light by the MEMS mirror 13 onto the detection region 500 via the window 16. The detection area 500 is a three-dimensional spatial area in which an object to be detected may exist.

半導体レーザ11は、光を射出する光源部の一例である。半導体レーザ11は、制御部200からの制御信号に応じて、所定のタイミングで所定の光強度のレーザ光11aをY軸正方向に向けて射出する。このレーザ光11aは光源部の射出光の一例である。なお、レーザ光11aはパルスレーザ光であってもよいし、CW(Continuous Wave)レーザ光であってもよい。 The semiconductor laser 11 is an example of a light source unit that emits light. The semiconductor laser 11 emits a laser beam 11a having a predetermined light intensity at a predetermined timing in the positive direction of the Y axis in response to a control signal from the control unit 200. The laser beam 11a is an example of the emitted light of the light source unit. The laser beam 11a may be a pulsed laser beam or a CW (Continuous Wave) laser beam.

レーザ光11aの波長は特に限定されないが、光投射装置300が自動車等に搭載される場合には、760nmより長い波長等の人が肉眼で見ることができない非可視の波長が好適である。半導体レーザ11から射出されたレーザ光11aは、投射レンズ12に入射する。 The wavelength of the laser beam 11a is not particularly limited, but when the light projection device 300 is mounted on an automobile or the like, a wavelength longer than 760 nm or an invisible wavelength that cannot be seen by the naked eye is preferable. The laser beam 11a emitted from the semiconductor laser 11 is incident on the projection lens 12.

なお、光源部の一例として半導体レーザ11を示したが、これに限定されるものではない。複数の発光部を有する半導体レーザであるVCSEL(垂直共振器面発光レーザ;Vertical Cavity Surface Emitting LASER)やYAGレーザ等の固体レーザ、気体レーザ、ファイバーレーザ等を用いることもできる。またレーザ光源に限定されず、LED(Light Emitting Diode)光源やランプ光源等も使用できる。 Although the semiconductor laser 11 is shown as an example of the light source unit, the present invention is not limited to this. A solid-state laser such as a VCSEL (Vertical Cavity Surface Emitting LASER) or a YAG laser, which is a semiconductor laser having a plurality of light emitting units, a gas laser, a fiber laser, or the like can also be used. Further, the light source is not limited to a laser light source, and an LED (Light Emitting Diode) light source, a lamp light source, or the like can also be used.

投射レンズ12は、X軸方向とZ軸方向で異なる曲率を有する非軸対称レンズであり、ガラス材料又はプラスチック材料等を含んで構成されている。投射レンズ12は、X軸方向ではレーザ光11aを略平行光に変換し、Z軸方向では集束位置fyに向けて集束する集束光にレーザ光11aを変換する。そして、変換したレーザ光11aをY軸正方向に出射する。 The projection lens 12 is a non-axisymmetric lens having different curvatures in the X-axis direction and the Z-axis direction, and is configured to include a glass material, a plastic material, or the like. The projection lens 12 converts the laser beam 11a into substantially parallel light in the X-axis direction, and converts the laser beam 11a into focused light focused toward the focusing position fy in the Z-axis direction. Then, the converted laser beam 11a is emitted in the positive direction of the Y-axis.

投射レンズ12を出射したレーザ光11aは、Z軸方向において集束位置fyで一旦集束した後、拡がり角度θyで拡がる(発散する)。その後、レーザ光11aはMEMSミラー13で偏向走査され、MEMSミラー13による走査レーザ光11bはウィンドウ16を介して検出領域500に投射される。 The laser beam 11a emitted from the projection lens 12 is once focused at the focusing position fy in the Z-axis direction, and then spread (diverges) at the spreading angle θy. After that, the laser beam 11a is deflected and scanned by the MEMS mirror 13, and the scanning laser beam 11b by the MEMS mirror 13 is projected onto the detection region 500 through the window 16.

走査レーザ光11bは、X軸方向では略平行光で(図1(b)参照)、Y軸方向では拡がり角度θyで拡がる光である(図1(a)参照)。このように投射レンズ12は、走査方向(X軸方向)の交差方向(Y軸方向)にレーザ光11aを拡げる光拡大部の一例に対応する。なお、X軸方向で走査レーザ光11bを略平行とすることで、Y軸方向と比較して、高い位置分解能で走査レーザ光11bを投射できる。 The scanning laser beam 11b is substantially parallel light in the X-axis direction (see FIG. 1B), and is light that spreads at a spreading angle θy in the Y-axis direction (see FIG. 1A). As described above, the projection lens 12 corresponds to an example of an optical magnifying unit that expands the laser beam 11a in the crossing direction (Y-axis direction) in the scanning direction (X-axis direction). By making the scanning laser beam 11b substantially parallel in the X-axis direction, the scanning laser beam 11b can be projected with higher position resolution than in the Y-axis direction.

なお、本実施形態では、光拡大部の機能を1枚の投射レンズ12で実現する構成を例示するが、光拡大部の機能を複数の球面レンズ、又は非球面レンズにより実現することもできる。またミラー等の光偏向素子を含んで光拡大部を構成してもよい。さらに拡散板を含み、拡散作用でレーザ光の拡がり角度を調整してもよい。 In this embodiment, the configuration in which the function of the light magnifying unit is realized by one projection lens 12 is exemplified, but the function of the light magnifying unit can also be realized by a plurality of spherical lenses or aspherical lenses. Further, the light magnifying unit may be configured by including a light deflection element such as a mirror. Further, a diffusing plate may be included, and the spreading angle of the laser beam may be adjusted by a diffusing action.

MEMSミラー13は、半導体レーザ11の射出光を所定の走査方向に走査する光走査部の一例である。MEMSミラー13は、半導体製造技術を応用したマイクロマシニング技術により、シリコンやガラス等を微細加工して製作できる。 The MEMS mirror 13 is an example of an optical scanning unit that scans the emitted light of the semiconductor laser 11 in a predetermined scanning direction. The MEMS mirror 13 can be manufactured by finely processing silicon, glass, or the like by a micromachining technique applying a semiconductor manufacturing technique.

MEMSミラー13は、光偏向面13aを含む可動部13bと、駆動梁(図示を省略)とを有する。駆動梁は、可動部13bに接続され、弾性を有する弾性梁に薄膜化した圧電材料を重ね合わせて構成されている。MEMSミラー13は、印加電圧に応じて揺動軸13c回り(矢印13d方向)に可動部を往復揺動して光偏向面13aの角度を変化させる。 The MEMS mirror 13 has a movable portion 13b including a light deflection surface 13a, and a drive beam (not shown). The drive beam is connected to the movable portion 13b, and is configured by superimposing a thin-film piezoelectric material on an elastic beam having elasticity. The MEMS mirror 13 reciprocates the movable portion around the swing shaft 13c (in the direction of the arrow 13d) according to the applied voltage to change the angle of the light deflection surface 13a.

MEMSミラー13は、揺動軸13cがZ軸に対して傾いて設けられている。この傾きの角度は、例えば45度である。Y軸方向に沿って光偏向面13aに入射するレーザ光11aは、Z軸正方向側に偏向される。MEMSミラー13は、Y軸方向に拡がり角度θyで拡がる光を、走査角度θx(図1(b)参照)の角度領域内でX軸方向に走査する。なお、図1(b)では、MEMSミラー13の可動部13bが揺動軸13c周りに揺動する様子が表示されている。 The MEMS mirror 13 is provided with the swing shaft 13c tilted with respect to the Z axis. The angle of this inclination is, for example, 45 degrees. The laser beam 11a incident on the light deflection surface 13a along the Y-axis direction is deflected to the Z-axis positive direction side. The MEMS mirror 13 scans the light that spreads in the Y-axis direction and spreads at an angle θy in the X-axis direction within the angle region of the scanning angle θx (see FIG. 1B). Note that FIG. 1B shows how the movable portion 13b of the MEMS mirror 13 swings around the swing shaft 13c.

MEMSミラー13による走査レーザ光11bは、光走査部による走査光に対応する。光投射装置300は、走査角度θxと拡がり角度θyで規定される検出領域500に走査レーザ光11bを投射できる。 The scanning laser light 11b by the MEMS mirror 13 corresponds to the scanning light by the optical scanning unit. The light projection device 300 can project the scanning laser beam 11b onto the detection region 500 defined by the scanning angle θx and the spreading angle θy.

なお、本実施形態では、光走査部の一例としてMEMSミラー13を示すが、これに限定されるものではない。ガルバノミラーやポリゴンミラー、OPA(Optical Phased Array)等を含んで光走査部を構成することもできる。MEMSミラー13には、圧電方式のものだけでなく、静電方式等の他の駆動方式により駆動されるものも適用可能である。 In the present embodiment, the MEMS mirror 13 is shown as an example of the optical scanning unit, but the present invention is not limited to this. The optical scanning unit can also include a galvano mirror, a polygon mirror, an OPA (Optical Phased Array), and the like. As the MEMS mirror 13, not only the piezoelectric type but also the one driven by another drive method such as an electrostatic method can be applied.

また揺動軸13cのZ軸に対する傾きは45度に限定されるものではなく、適宜選択可能である。 Further, the inclination of the swing shaft 13c with respect to the Z axis is not limited to 45 degrees and can be appropriately selected.

ウィンドウ16は、MEMSミラー13による走査レーザ光11bの光路に設けられ、走査レーザ光11bを透過する透過部材の一例である。ウィンドウ16は、半導体レーザ11の波長に対して光透過性を有するガラス材料又はプラスチック材料を含んで構成された部材である。 The window 16 is an example of a transmission member provided in the optical path of the scanning laser beam 11b by the MEMS mirror 13 and transmitting the scanning laser beam 11b. The window 16 is a member made of a glass material or a plastic material having light transmittance with respect to the wavelength of the semiconductor laser 11.

光投射装置300は、半導体レーザ11、投射レンズ12及びMEMSミラー13を、図示を省略する筐体(収容部材)内に配置している。筐体には開口部が設けられている。ウィンドウ16は、この開口部を塞ぐように設けられ、走査レーザ光11bはウィンドウ16を透過して外部に投射される。 In the light projection device 300, the semiconductor laser 11, the projection lens 12, and the MEMS mirror 13 are arranged in a housing (accommodation member) (not shown). The housing is provided with an opening. The window 16 is provided so as to close the opening, and the scanning laser beam 11b is transmitted through the window 16 and projected to the outside.

ここで、半導体レーザ11、投射レンズ12及びMEMSミラー13にゴミや汚れが付着すると、投射される走査レーザ光11bの光強度変動等が生じて光投射装置300の性能が低下する場合がある。特にMEMSミラー13は可動要素を有するため、可動要素の動作にゴミや汚れ等の影響を受けやすい。本実施形態では、ウィンドウ16を開口部に設けることで、筐体内へのゴミや汚染物質の侵入を防止でき、光投射装置300の性能低下を抑制できるようになっている。 Here, if dust or dirt adheres to the semiconductor laser 11, the projection lens 12, and the MEMS mirror 13, the light intensity of the projected scanning laser beam 11b may fluctuate and the performance of the optical projection device 300 may deteriorate. In particular, since the MEMS mirror 13 has a movable element, the operation of the movable element is easily affected by dust, dirt, and the like. In the present embodiment, by providing the window 16 in the opening, it is possible to prevent dust and contaminants from entering the housing, and it is possible to suppress deterioration in the performance of the light projection device 300.

また、ウィンドウ16は、MEMSミラー13に対向する第1面16aと、第1面16aに対向する第2面16bとを有する。第1面16a及び第2面16bのそれぞれは、全体がX軸方向及びY軸方向のそれぞれに曲率を有する曲面に形成されている。 Further, the window 16 has a first surface 16a facing the MEMS mirror 13 and a second surface 16b facing the first surface 16a. Each of the first surface 16a and the second surface 16b is formed into a curved surface having curvatures in the X-axis direction and the Y-axis direction as a whole.

具体的には、図1(a)に示すように、Y軸方向において、第1面16a及び第2面16bのそれぞれの曲率中心Cyは、集束位置fyに略一致している。これにより、Y軸方向において、集束位置fyから拡がり角度θyで拡がる走査レーザ光11bが、第1面16a及び第2面16bのそれぞれに略垂直に入射するように構成されている。 Specifically, as shown in FIG. 1A, the respective curvature center Cys of the first surface 16a and the second surface 16b substantially coincide with the focusing position fy in the Y-axis direction. As a result, the scanning laser beam 11b spreading from the focusing position fy at the spreading angle θy is configured to be substantially perpendicular to each of the first surface 16a and the second surface 16b in the Y-axis direction.

但し、第1面16a及び第2面16bのそれぞれの曲率中心Cyは、必ずしも集束位置fyに一致する必要はなく、集束位置fyの近傍に配置される構成でもよい。近傍に配置することで、Y軸方向において、拡がり角度θyで拡がる走査レーザ光11bが第1面16a及び第2面16bに入射する角度を小さくすることができる。 However, the center of curvature Cy of each of the first surface 16a and the second surface 16b does not necessarily have to coincide with the focusing position fi, and may be arranged in the vicinity of the focusing position fi. By arranging them in the vicinity, it is possible to reduce the angle at which the scanning laser beam 11b spreading at the spreading angle θy is incident on the first surface 16a and the second surface 16b in the Y-axis direction.

なお、入射角度が小さいとは、入射面に対して入射角度が垂直に近いことをいう。例えば走査レーザ光11bが第1面16aに垂直に入射する場合には、走査レーザ光11bの入射角度は0度になる。そして垂直に対する傾きが大きくなるにつれ、入射角度は大きくなる。 The small incident angle means that the incident angle is close to perpendicular to the incident surface. For example, when the scanning laser beam 11b is vertically incident on the first surface 16a, the incident angle of the scanning laser beam 11b is 0 degrees. And as the inclination with respect to the vertical increases, the angle of incidence increases.

また、第1面16aの曲率中心と第2面16bの曲率中心は、厳密にはウィンドウ16の厚みの分だけ位置がずれるが、このずれは、第1面16a及び第2面16bの曲率半径等と比較して小さい。そのため、図1(a)では、第1面16a及び第2面16bの両方のY軸方向における曲率中心を曲率中心Cyとして表示している。 Strictly speaking, the center of curvature of the first surface 16a and the center of curvature of the second surface 16b are displaced by the thickness of the window 16, but this deviation is the radius of curvature of the first surface 16a and the second surface 16b. Etc. and small. Therefore, in FIG. 1A, the center of curvature of both the first surface 16a and the second surface 16b in the Y-axis direction is displayed as the center of curvature Cy.

一方、図1(b)に示すように、X軸方向において、第1面16a及び第2面16bのそれぞれの曲率中心Cxは、ほぼ揺動軸13c上に位置している。これにより、X軸方向において、光偏向面13aの揺動軸13c回りの揺動により走査される走査レーザ光11bが、第1面16a及び第2面16bのそれぞれに略垂直に入射するように構成されている。 On the other hand, as shown in FIG. 1 (b), the center of curvature Cx of each of the first surface 16a and the second surface 16b is located substantially on the swing axis 13c in the X-axis direction. As a result, in the X-axis direction, the scanning laser beam 11b scanned by the swing of the light deflection surface 13a around the swing axis 13c is incident on each of the first surface 16a and the second surface 16b substantially perpendicularly. It is configured.

但し、第1面16a及び第2面16bのそれぞれの曲率中心Cxは、必ずしも揺動軸13c上に位置する必要はなく、揺動軸13cの近傍に位置する構成でもよい。近傍に位置することで、X軸方向において、走査レーザ光11bの第1面16a及び第2面16bへの入射角度を小さくすることができる。 However, the center of curvature Cx of each of the first surface 16a and the second surface 16b does not necessarily have to be located on the swing shaft 13c, and may be configured to be located in the vicinity of the swing shaft 13c. By being located in the vicinity, the angle of incidence of the scanning laser beam 11b on the first surface 16a and the second surface 16b can be reduced in the X-axis direction.

また第1面16aの曲率中心と第2面16bの曲率中心は、厳密にはウィンドウ16の厚みの分だけ位置がずれるが、このずれは、第1面16a及び第2面16bの曲率半径等と比較して小さい。そのため、図1(b)では第1面16a及び第2面16bの両方のX軸方向における曲率中心を曲率中心Cxとして表示している。 Strictly speaking, the center of curvature of the first surface 16a and the center of curvature of the second surface 16b are displaced by the thickness of the window 16, but this deviation is caused by the radius of curvature of the first surface 16a and the second surface 16b, etc. Small compared to. Therefore, in FIG. 1B, the center of curvature of both the first surface 16a and the second surface 16b in the X-axis direction is displayed as the center of curvature Cx.

本実施形態では、第1面16aのX軸方向における曲率とY軸方向における曲率は異なり、X軸方向における曲率は、Y軸方向における曲率より大きい。従って、第1面16aは非軸対称な面に形成されている。第1面16aのX軸方向における曲面は、走査方向に曲率を有する走査曲面の一例に対応する。また第1面16aのY軸方向における曲面は、交差方向に曲率を有する交差曲面の一例に対応する。 In the present embodiment, the curvature of the first surface 16a in the X-axis direction and the curvature in the Y-axis direction are different, and the curvature in the X-axis direction is larger than the curvature in the Y-axis direction. Therefore, the first surface 16a is formed as a non-axisymmetric surface. The curved surface of the first surface 16a in the X-axis direction corresponds to an example of a scanning curved surface having a curvature in the scanning direction. Further, the curved surface of the first surface 16a in the Y-axis direction corresponds to an example of an intersecting curved surface having a curvature in the intersecting direction.

同様に、第2面16bのX軸方向における曲率とY軸方向における曲率は異なり、X軸方向における曲率は、Y軸方向における曲率より大きい。従って、第2面16bも非軸対称な面に形成されている。第2面16bのX軸方向における曲面は、走査方向に曲率を有する走査曲面の一例に対応する。また第2面16bのY軸方向における曲面は、交差方向に曲率を有する交差曲面の一例に対応する。 Similarly, the curvature of the second surface 16b in the X-axis direction and the curvature in the Y-axis direction are different, and the curvature in the X-axis direction is larger than the curvature in the Y-axis direction. Therefore, the second surface 16b is also formed as a non-axisymmetric surface. The curved surface of the second surface 16b in the X-axis direction corresponds to an example of a scanning curved surface having a curvature in the scanning direction. Further, the curved surface of the second surface 16b in the Y-axis direction corresponds to an example of an intersecting curved surface having a curvature in the intersecting direction.

ウィンドウ16の製造方法は適宜選択可能であるが、第1面16a又は第2面16bをX軸方向とY軸方向で曲率が異なる非軸対称な面で形成する場合には、金型を用いたプラスチック材料の成形加工が特に好適である。 The manufacturing method of the window 16 can be appropriately selected, but when the first surface 16a or the second surface 16b is formed by non-axisymmetric surfaces having different curvatures in the X-axis direction and the Y-axis direction, a mold is used. The molding process of the existing plastic material is particularly suitable.

制御部200は、半導体レーザ11の制御、MEMSミラー13の制御、及び後述する物体情報の取得処理等を行う制御装置である。 The control unit 200 is a control device that controls the semiconductor laser 11, controls the MEMS mirror 13, and performs processing for acquiring object information, which will be described later.

<物体検出装置100の構成例>
次に、図2を参照して、物体検出装置100の構成について説明する。図2は、物体検出装置100の構成の一例を説明する図である。図2に示すように、物体検出装置100は、光投射装置300と、集光レンズ14と、フォトダイオード15とを有する。
<Configuration example of object detection device 100>
Next, the configuration of the object detection device 100 will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of the configuration of the object detection device 100. As shown in FIG. 2, the object detection device 100 includes a light projection device 300, a condenser lens 14, and a photodiode 15.

集光レンズ14は、検出領域500に存在する物体501による走査レーザ光11bの反射光又は散乱光(以下では、戻り光502と総称する)の少なくとも一方を集光するレンズである。集光レンズ14は、ガラス材料又はプラスチック材料を含んで構成された軸対称性のレンズである。 The condensing lens 14 is a lens that condenses at least one of the reflected light or scattered light (hereinafter collectively referred to as return light 502) of the scanning laser light 11b by the object 501 existing in the detection region 500. The condenser lens 14 is an axially symmetric lens configured to include a glass material or a plastic material.

集光レンズ14は、戻り光502をフォトダイオード15の受光面上に集光させる。フこの構成により、戻り光502がより大きい光強度で受光されるようになっている。但し、フォトダイオード15の受光面上で必ずしも集光しなくてもよい。また集光レンズ14は、1つのレンズを有する構成に限定されるものではなく、複数のレンズや反射ミラー、プリズム等の光学素子を含んで構成されてもよい。 The condenser lens 14 concentrates the return light 502 on the light receiving surface of the photodiode 15. With this configuration, the return light 502 is received with a higher light intensity. However, it is not always necessary to collect light on the light receiving surface of the photodiode 15. Further, the condenser lens 14 is not limited to the configuration having one lens, and may be configured to include an optical element such as a plurality of lenses, a reflection mirror, and a prism.

フォトダイオード15は、検出領域500に存在する物体501による走査レーザ光11bの反射光又は散乱光の少なくとも一方を受光する受光部の一例である。フォトダイオード15は、集光レンズ14により集光された戻り光502を受光し、受光した光強度に応じた電圧信号である受光信号を制御部200に出力する。 The photodiode 15 is an example of a light receiving unit that receives at least one of the reflected light or the scattered light of the scanning laser light 11b by the object 501 existing in the detection region 500. The photodiode 15 receives the return light 502 focused by the condenser lens 14, and outputs a light receiving signal, which is a voltage signal corresponding to the received light intensity, to the control unit 200.

なお、受光部は、フォトダイオード15に限定されるものではなく、APD(Avalanch Photo Diode)、ガイガーモードAPDであるSPAD(Single Photo Avalanch Photo Diode)、TOF(Time of Flight)等を用いることもできる。 The light receiving unit is not limited to the photodiode 15, and an APD (Avalanch Photo Diode), a Geiger mode APD SPAD (Single Photo Avalanch Photo Diode), a TOF (Time of Flight), or the like can also be used. ..

本実施形態では、戻り光502は、MEMSミラー13の光偏向面13aで偏向されてから集光レンズ14を通ってフォトダイオード15で受光されるように構成されている。 In the present embodiment, the return light 502 is configured to be deflected by the light deflection surface 13a of the MEMS mirror 13 and then to be received by the photodiode 15 through the condenser lens 14.

<制御部200のハードウェア構成例>
次に図3を参照して、物体検出装置100の備える制御部200のハードウェア構成について説明する。ここで図3は、制御部200のハードウェア構成の一例を示すブロックである。
<Hardware configuration example of control unit 200>
Next, with reference to FIG. 3, the hardware configuration of the control unit 200 included in the object detection device 100 will be described. Here, FIG. 3 is a block showing an example of the hardware configuration of the control unit 200.

図3に示すように、制御部200は、CPU(Central Processing Unit)21と、ROM(Read Only Memory)22と、RAM(Random Access Memory)23と、SSD(Solid State Drive)24と、光源駆動回路25と、走査駆動回路26と、センサI/F(Interface)27と、入出力I/F28とを有する。これらはシステムバスBを介して相互に電気的に接続されている。 As shown in FIG. 3, the control unit 200 includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23, an SSD (Solid State Drive) 24, and a light source drive. It has a circuit 25, a scanning drive circuit 26, a sensor I / F (Interface) 27, and an input / output I / F 28. These are electrically connected to each other via the system bus B.

CPU21はプロセッサであり、ROM22やSSD24等のメモリからプログラムやデータをRAM23上に読み出し、処理を実行することで、制御部200全体の制御や機能を実現する。なお、CPU21の有する機能の一部、又は全部を、ASIC(application specific integrated circuit)やFPGA(Field-Programmable Gate Array)等の電子回路により実現させてもよい。 The CPU 21 is a processor, and realizes control and functions of the entire control unit 200 by reading programs and data from memories such as ROM 22 and SSD 24 onto RAM 23 and executing processing. A part or all of the functions of the CPU 21 may be realized by an electronic circuit such as an ASIC (application specific integrated circuit) or an FPGA (Field-Programmable Gate Array).

ROM22は、電源を切ってもプログラムやデータを保持することが可能な不揮発性の半導体メモリである。ROM22には、制御部200の起動時に実行されるBIOS(Basic Input/Output System)、OS設定等のプログラムやデータが格納されている。 The ROM 22 is a non-volatile semiconductor memory capable of holding programs and data even when the power is turned off. The ROM 22 stores programs and data such as BIOS (Basic Input / Output System) and OS settings that are executed when the control unit 200 is started.

RAM23は、プログラムやデータを一時保持する揮発性の半導体メモリである。 The RAM 23 is a volatile semiconductor memory that temporarily holds programs and data.

SSD24は、制御部200による処理を実行するプログラムや各種データが記憶された不揮発性メモリである。なお、SSDに代えてHDD(Hard Disk Drive)を設けてもよい。 The SSD 24 is a non-volatile memory in which a program for executing processing by the control unit 200 and various data are stored. An HDD (Hard Disk Drive) may be provided instead of the SSD.

光源駆動回路25は、半導体レーザ11に電気的に接続され、CPU21等からの制御信号に応じて半導体レーザ11に駆動電圧等の駆動信号を出力する電気回路である。駆動信号として矩形波や正弦波、又は所定の波形形状の電圧波形を用いることができる。光源駆動回路25は、電圧波形の周波数を変化させて、駆動信号の周波数を変調可能である。 The light source drive circuit 25 is an electric circuit that is electrically connected to the semiconductor laser 11 and outputs a drive signal such as a drive voltage to the semiconductor laser 11 in response to a control signal from the CPU 21 or the like. As the drive signal, a rectangular wave, a sine wave, or a voltage waveform having a predetermined waveform shape can be used. The light source drive circuit 25 can modulate the frequency of the drive signal by changing the frequency of the voltage waveform.

走査駆動回路26は、MEMSミラー13に電気的に接続され、CPU11等からの制御信号に応じてMEMSミラー13に駆動電圧等の駆動信号を出力する電気回路である。 The scanning drive circuit 26 is an electric circuit that is electrically connected to the MEMS mirror 13 and outputs a drive signal such as a drive voltage to the MEMS mirror 13 in response to a control signal from the CPU 11 or the like.

センサI/F27は、フォトダイオード15に電気的に接続され、フォトダイオード15の受光信号を入力するインターフェースである。 The sensor I / F 27 is an interface that is electrically connected to the photodiode 15 and inputs a light receiving signal of the photodiode 15.

入出力I/F28は、車両等の移動体に搭載された外部コントローラやPC(Personal Computer)等の外部装置と接続し、検出条件等のデータを受信したり、検出した物体情報等のデータを送信したりするためのインターフェースである。インターネット等のネットワークに接続してデータの送受を行えるように構成することもできる。 The input / output I / F 28 is connected to an external controller mounted on a moving body such as a vehicle or an external device such as a PC (Personal Computer) to receive data such as detection conditions and to receive data such as detected object information. It is an interface for sending. It can also be configured to connect to a network such as the Internet to send and receive data.

<制御部200の機能構成例>
次に図4を参照して、制御部200の機能構成について説明する。ここで図4は、制御部200の機能構成の一例を示すブロックである。なお、図4では、説明を分かりやすくするために制御部200の主要な要素のみを示している。
<Example of functional configuration of control unit 200>
Next, the functional configuration of the control unit 200 will be described with reference to FIG. Here, FIG. 4 is a block showing an example of the functional configuration of the control unit 200. Note that FIG. 4 shows only the main elements of the control unit 200 for the sake of clarity.

図4に示すように、制御部200は、光源制御部201と、走査制御部202と、受光信号取得部203と、物体情報取得部204と、物体情報出力部205とを有する。これらのうち、光源制御部201、走査制御部202及び物体情報取得部204のそれぞれの機能は、CPU21が所定のプログラムを実行すること等により実現される。また、受光信号取得部203の機能はセンサI/F27等により実現され、物体情報出力部205の機能は入出力I/F28等により実現される。 As shown in FIG. 4, the control unit 200 includes a light source control unit 201, a scanning control unit 202, a light receiving signal acquisition unit 203, an object information acquisition unit 204, and an object information output unit 205. Of these, the respective functions of the light source control unit 201, the scan control unit 202, and the object information acquisition unit 204 are realized by the CPU 21 executing a predetermined program or the like. Further, the function of the light receiving signal acquisition unit 203 is realized by the sensor I / F27 or the like, and the function of the object information output unit 205 is realized by the input / output I / F28 or the like.

制御部200は、半導体レーザ11によるレーザ光の射出タイミング(射出時期)と、フォトダイオード15による戻り光502の受光タイミング(受光時期)の時間差から検出領域500における物体と物体検出装置100との間の距離情報を演算で取得し、取得した距離情報を出力できる。また検出領域に物体が存在しない場合には、フォトダイオード15の受光信号に基づき判定した物体が存在しないこと示す情報を出力できる。 The control unit 200 is between the object in the detection region 500 and the object detection device 100 due to the time difference between the emission timing (injection timing) of the laser beam by the semiconductor laser 11 and the light reception timing (light reception timing) of the return light 502 by the photodiode 15. The distance information of can be acquired by calculation and the acquired distance information can be output. Further, when the object does not exist in the detection region, information indicating that the object determined based on the light receiving signal of the photodiode 15 does not exist can be output.

光源制御部201は半導体レーザ11によるレーザ光の射出を制御する。光源制御部201はCPU21のクロック等に基づく基準信号に応じて、半導体レーザ11がレーザ光を射出するタイミングを制御できる。 The light source control unit 201 controls the emission of laser light by the semiconductor laser 11. The light source control unit 201 can control the timing at which the semiconductor laser 11 emits laser light according to a reference signal based on the clock of the CPU 21 or the like.

受光信号取得部203は、戻り光の光強度に応じたフォトダイオード15の受光信号を取得(入力)し、物体情報取得部204に出力する。走査制御部202はMEMSミラー13の回動駆動を制御する。 The light receiving signal acquisition unit 203 acquires (inputs) the light receiving signal of the photodiode 15 according to the light intensity of the return light, and outputs it to the object information acquisition unit 204. The scanning control unit 202 controls the rotational drive of the MEMS mirror 13.

物体情報取得部204は、半導体レーザ11がレーザ光を射出したタイミング情報を光源制御部201から取得し、またフォトダイオード15が戻り光を受光したタイミング情報を受光信号取得部203から取得する。 The object information acquisition unit 204 acquires the timing information from the light source control unit 201 when the semiconductor laser 11 emits the laser beam, and acquires the timing information from the light receiving signal acquisition unit 203 when the photodiode 15 receives the return light.

そして、射出タイミングと受光タイミングの時間差から、検出領域における物体と物体検出装置100との間の距離情報を演算で取得する。検出領域に物体が存在しない場合は、フォトダイオード15の出力する受光信号から判定した物体が存在しないこと示す情報を取得する。例えば、受光信号レベルが予め定めた閾値レベルより低いときに、物体情報取得部204は物体が存在しないことを判定できる。 Then, the distance information between the object and the object detection device 100 in the detection region is acquired by calculation from the time difference between the injection timing and the light receiving timing. When the object does not exist in the detection area, the information indicating that the object does not exist determined from the light receiving signal output by the photodiode 15 is acquired. For example, when the received signal level is lower than a predetermined threshold level, the object information acquisition unit 204 can determine that the object does not exist.

物体情報取得部204は、物体と物体検出装置100の間の距離情報と、物体が存在しないことを示す情報とを含む物体情報を、物体情報出力部205を介して外部装置に出力できる。 The object information acquisition unit 204 can output object information including distance information between the object and the object detection device 100 and information indicating that the object does not exist to the external device via the object information output unit 205.

物体情報の具体例として距離画像等が挙げられる。ここで、距離画像とは、画素毎に取得した物体までの距離を示す距離データを画素の位置に応じて二次元に配列させて生成された画像であり、例えば、距離を画素の輝度に変換して生成された画像である。換言すると距離画像は検出領域における物体の位置を示す3次元情報である。 Specific examples of object information include distance images and the like. Here, the distance image is an image generated by arranging distance data indicating the distance to an object acquired for each pixel in two dimensions according to the position of the pixel. For example, the distance is converted into the brightness of the pixel. It is an image generated by. In other words, the distance image is three-dimensional information indicating the position of the object in the detection area.

物体検出方式の具体例には、TOF(Time of Flight)方式が挙げられる。なお、TOF方式には公知の技術を適用可能である。 A specific example of the object detection method is a TOF (Time of Flight) method. A known technique can be applied to the TOF method.

<光投射装置300の作用効果>
次に、光投射装置300の作用効果について説明する。
上述したように、MEMSミラー(光走査部)を収容する筐体の開口部にウィンドウ(透過部材)を設けると、筐体内への汚染物質の侵入を防止できるために好適である。しかし、MEMSミラーによる走査角度が大きくなると、ウィンドウ面に対する走査レーザ光の入射角度が大きくなり、ウィンドウを透過する走査レーザ光の光利用効率が低下する場合がある。
<Action and effect of the light projection device 300>
Next, the operation and effect of the light projection device 300 will be described.
As described above, it is preferable to provide a window (transmissive member) in the opening of the housing that accommodates the MEMS mirror (optical scanning unit) because it is possible to prevent the intrusion of contaminants into the housing. However, when the scanning angle by the MEMS mirror becomes large, the incident angle of the scanning laser light with respect to the window surface becomes large, and the light utilization efficiency of the scanning laser light transmitted through the window may decrease.

ここで、図5は、ウィンドウ面への入射角度と、ウィンドウ面での反射率との関係の一例を示す図である。図5では、屈折率1.57の材料で構成されたウィンドウに入射する走査レーザ光の入射角度ごとでの反射率を示している。また実線グラフ51は走査レーザ光がS偏光である場合を示し、破線グラフ52は走査レーザ光がP偏光である場合を示している。なお、走査レーザ光の偏光状態は、直線偏光のレーザ光を射出する半導体レーザの設置の向き等により予め定めることができる。 Here, FIG. 5 is a diagram showing an example of the relationship between the angle of incidence on the window surface and the reflectance on the window surface. FIG. 5 shows the reflectance of the scanning laser beam incident on a window made of a material having a refractive index of 1.57 for each incident angle. The solid line graph 51 shows the case where the scanning laser beam is S-polarized, and the broken line graph 52 shows the case where the scanning laser beam is P-polarized. The polarization state of the scanning laser beam can be predetermined by the direction of installation of the semiconductor laser that emits the linearly polarized laser beam.

図5に示すように、ウィンドウ面に対する入射角度が小さい(略垂直に入射)と、S偏光,P偏光とも反射率は5%程度である。従って95%の光がウィンドウ面を透過する。入射角度が大きくなるにつれ、S偏光では徐々に反射率が上がり、入射角度が75度を超えると反射率は大きく上昇する。P偏光では入射角度が60度程度までは反射率は低いままであるが、60度を超えると徐々に反射率が上がり、S偏光と同様に75度を超えると反射率は大きく上昇する。反射率の上昇に伴って透過率が低下し、ウィンドウ面を透過する走査レーザ光の光強度は小さくなる。図5は、ウィンドウの一方の面(表面)での反射率であるが、他方の面(裏面)も同様の特性を有するため、透過率の低下は、両面の透過により2倍以上になる。 As shown in FIG. 5, when the angle of incidence on the window surface is small (incident in substantially vertical), the reflectance is about 5% for both S-polarized light and P-polarized light. Therefore, 95% of the light passes through the window surface. As the angle of incidence increases, the reflectance gradually increases with S-polarization, and when the angle of incidence exceeds 75 degrees, the reflectance increases significantly. With P-polarization, the reflectance remains low until the incident angle is about 60 degrees, but the reflectance gradually increases when it exceeds 60 degrees, and as with S-polarization, the reflectance greatly increases when it exceeds 75 degrees. As the reflectance increases, the transmittance decreases, and the light intensity of the scanning laser beam transmitted through the window surface decreases. FIG. 5 shows the reflectance on one surface (front surface) of the window, but since the other surface (back surface) also has the same characteristics, the decrease in transmittance is more than doubled due to the transmission on both sides.

従って、MEMSミラーによる走査レーザ光の走査角度が大きくなると、透過光の光利用効率が低下して光投射装置により十分な光強度の光を投射できなくなる。これによりMEMSミラーによる走査角度が制限される。例えば、走査レーザ光がS偏光である場合には、図5に示すように入射角度が60度で反射率は約20%であるため、透過率は約80%になる。ウィンドウの両面での反射により、ウィンドウを透過後の走査レーザ光の光利用効率は約60%になる。この場合に、要求される走査レーザ光の光強度が得られずに、走査角度が±60度以下に制限される場合がある。 Therefore, when the scanning angle of the scanning laser light by the MEMS mirror becomes large, the light utilization efficiency of the transmitted light decreases, and the light projection device cannot project light with sufficient light intensity. This limits the scanning angle by the MEMS mirror. For example, when the scanning laser light is S-polarized, the transmittance is about 80% because the incident angle is 60 degrees and the reflectance is about 20% as shown in FIG. Due to the reflection on both sides of the window, the light utilization efficiency of the scanning laser beam after passing through the window becomes about 60%. In this case, the required scanning laser light intensity may not be obtained, and the scanning angle may be limited to ± 60 degrees or less.

本実施形態では、ウィンドウは、X軸方向(走査方向)において曲率を有する走査曲面を含む。ウィンドウにおける走査曲面が曲率を有することで、走査角度が大きい角度領域で、ウィンドウに入射する走査レーザ光の入射角度を小さくし、ウィンドウ面での反射率を抑えることができる。これにより、ウィンドウを透過する走査レーザ光の光利用効率を確保して走査角度の制限を緩和し、走査レーザ光を広角に投射できる。 In this embodiment, the window includes a scanning curved surface having a curvature in the X-axis direction (scanning direction). Since the scanning curved surface in the window has a curvature, the incident angle of the scanning laser light incident on the window can be reduced in the angle region where the scanning angle is large, and the reflectance on the window surface can be suppressed. As a result, it is possible to secure the light utilization efficiency of the scanning laser light transmitted through the window, relax the limitation of the scanning angle, and project the scanning laser light at a wide angle.

なお、図5は、反射防止膜が設けられていないウィンドウの特性を示した例であるが、ウィンドウに反射防止膜が設けられている場合にも、ウィンドウ面への入射角度とウィンドウ面での反射率の関係を示す特性として同様の特性が得られる。 Note that FIG. 5 is an example showing the characteristics of a window without an antireflection film, but even when the window is provided with an antireflection film, the angle of incidence on the window surface and the angle of incidence on the window surface are shown. Similar characteristics can be obtained as characteristics indicating the relationship of reflectance.

また、本実施形態では、ウィンドウにおけるMEMSミラーに対向する第1面と、第1面に対向する第2面の両方が走査曲面を含む。これにより第1面及び第2面の両方で走査レーザ光の入射角度を小さくし、走査角度の制限をさらに緩和できるため、走査レーザ光をさらに広角に投射できる。 Further, in the present embodiment, both the first surface facing the MEMS mirror in the window and the second surface facing the first surface include the scanning curved surface. As a result, the incident angle of the scanning laser light can be reduced on both the first surface and the second surface, and the limitation of the scanning angle can be further relaxed, so that the scanning laser light can be projected at a wider angle.

また、本実施形態では、Y軸方向(交差方向)にレーザ光を拡げる投射レンズ(光拡大部)を有し、ウィンドウは、Y軸方向に曲率を有する交差曲面を有する。これによりY軸方向においても、ウィンドウに入射する走査レーザ光の入射角度を小さくし、ウィンドウを透過する走査レーザ光の光利用効率をより向上させることができる。 Further, in the present embodiment, the projection lens (light magnifying unit) that spreads the laser beam in the Y-axis direction (crossing direction) is provided, and the window has a crossing curved surface having a curvature in the Y-axis direction. As a result, the incident angle of the scanning laser beam incident on the window can be reduced even in the Y-axis direction, and the light utilization efficiency of the scanning laser beam transmitted through the window can be further improved.

また、本実施形態では、ウィンドウの第1面と第2面の両方が、それぞれ走査曲面と交差曲面を含んで構成されている。これにより、ウィンドウの両面での反射率を抑え、ウィンドウを透過する走査レーザ光の光利用効率をさらに向上できる。 Further, in the present embodiment, both the first surface and the second surface of the window are configured to include a scanning curved surface and an intersecting curved surface, respectively. As a result, the reflectance on both sides of the window can be suppressed, and the light utilization efficiency of the scanning laser light transmitted through the window can be further improved.

また、本実施形態では、ウィンドウの第1面のX軸方向における曲率は、Y軸方向における曲率より大きい。換言すると、ウィンドウの第1面のX軸方向における曲率半径は、Y軸方向における曲率半径より小さい。投射レンズによるY軸方向への拡がり角度に対してMEMSミラーによる走査角度が大きい場合にも、ウィンドウに入射する走査レーザ光の入射角度を小さくし、ウィンドウを透過する走査レーザ光の光利用効率を向上できる。 Further, in the present embodiment, the curvature of the first surface of the window in the X-axis direction is larger than the curvature in the Y-axis direction. In other words, the radius of curvature of the first surface of the window in the X-axis direction is smaller than the radius of curvature in the Y-axis direction. Even when the scanning angle of the MEMS mirror is large with respect to the spreading angle in the Y-axis direction of the projection lens, the incident angle of the scanning laser beam incident on the window is reduced to improve the light utilization efficiency of the scanning laser beam transmitted through the window. Can be improved.

また、本実施形態では、MEMSミラーは、光偏向面を揺動軸回りに揺動させることでレーザ光を走査し、走査曲面の曲率中心は、揺動軸上に配置されている。これにより、MEMSミラーによる走査レーザ光は、X軸方向においてウィンドウ面にほぼ垂直に入射するため、ウィンドウを透過する走査レーザ光の光利用効率をより向上できる。 Further, in the present embodiment, the MEMS mirror scans the laser beam by swinging the light deflection surface around the swing axis, and the center of curvature of the scanning curved surface is arranged on the swing axis. As a result, the scanning laser beam from the MEMS mirror is incident on the window surface substantially perpendicular to the window surface in the X-axis direction, so that the light utilization efficiency of the scanning laser beam transmitted through the window can be further improved.

また交差曲面の曲率中心と、投射レンズによるレーザ光の集束位置を略一致させることで、投射レンズにより拡げられた走査レーザ光は、Y軸方向においてウィンドウ面にほぼ垂直に入射するため、ウィンドウを透過する走査レーザ光の光利用効率をより向上できる。 In addition, by making the center of curvature of the intersecting curved surface substantially the same as the focusing position of the laser beam by the projection lens, the scanning laser beam expanded by the projection lens is incident on the window surface almost perpendicular to the window surface in the Y-axis direction. The light utilization efficiency of the transmitted scanning laser beam can be further improved.

また、ウィンドウがX軸方向において曲率を有する走査曲面を含むことで、光投射装置を小型化する効果を得ることもできる。ここで、図6は、光投射装置の小型化例を説明する図である。 Further, by including the scanning curved surface in which the window has a curvature in the X-axis direction, it is possible to obtain the effect of miniaturizing the light projection device. Here, FIG. 6 is a diagram illustrating an example of miniaturization of the light projection device.

図6は、走査レーザ光11bが、本実施形態に係るウィンドウ16を透過する場合と、比較例に係るウィンドウ16xを透過する場合の両方を模式的に示している。ウィンドウ16xは、平板状の透過部材である。 FIG. 6 schematically shows both the case where the scanning laser beam 11b transmits through the window 16 according to the present embodiment and the case where the scanning laser beam 11b transmits through the window 16x according to the comparative example. The window 16x is a flat plate-shaped transmissive member.

図6に示すように、ウィンドウ16を有する光投射装置は、ウィンドウ16xを有する光投射装置に対して、ウィンドウ16が曲率を有する分だけ小型化可能である。図6に示す小型化領域161(格子ハッチング部分)は、ウィンドウ16xを有する光投射装置に対して、ウィンドウ16を有する光投射装置が小型化可能な領域を表している。 As shown in FIG. 6, the light projection device having the window 16 can be miniaturized by the amount that the window 16 has a curvature with respect to the light projection device having the window 16x. The miniaturized area 161 (lattice hatched portion) shown in FIG. 6 represents an area in which the light projection device having the window 16 can be miniaturized with respect to the light projection device having the window 16x.

なお、本実施形態の説明では、第1面と第2面の両方が曲面に形成された構成を例示したが、何れか一方が曲面に形成され、他方は平面であってもよい。また第1面と第2面の曲面の形状が略同じである構成を例示したが、異なる形状であってもよい。この異なる形状には、例えば、第1面と第2面で曲率が異なる形状等が挙げられる。この場合にも、両方が平面である場合と比較して光利用効率を確保し、走査レーザ光を広角に投射できる。 In the description of the present embodiment, a configuration in which both the first surface and the second surface are formed on a curved surface is exemplified, but one of them may be formed on a curved surface and the other may be a flat surface. Further, although the configuration in which the shapes of the curved surfaces of the first surface and the second surface are substantially the same is illustrated, different shapes may be used. Examples of the different shapes include shapes having different curvatures on the first surface and the second surface. In this case as well, the light utilization efficiency can be ensured and the scanning laser beam can be projected at a wide angle as compared with the case where both are flat.

また走査レーザ光がY軸方向に拡がる光であり、ウィンドウはX軸方向とY軸方向の両方に曲率を有する第1面及び第2面を含む構成を例示したが、これに限定されるものではない。走査レーザ光をY軸方向において略平行な光とし、ウィンドウはX軸方向にのみ曲率を有する第1面及び第2面を含む構成であってもよい。 Further, the scanning laser light is light that spreads in the Y-axis direction, and the window exemplifies a configuration including a first surface and a second surface having curvatures in both the X-axis direction and the Y-axis direction, but is limited to this. is not it. The scanning laser light may be light substantially parallel in the Y-axis direction, and the window may be configured to include a first surface and a second surface having a curvature only in the X-axis direction.

また第1面と第2面の両方の全体に曲面が形成された構成を例示したが、走査レーザ光が透過する部分等の一部分のみを曲面に形成し、他の部分を平面に形成することもできる。 Further, although the configuration in which the curved surface is formed on the entire first surface and the second surface is illustrated, only a part such as the portion through which the scanning laser light is transmitted is formed on the curved surface, and the other portion is formed on the plane. You can also.

またX軸方向及びY軸方向において、曲面が球面である構成を例示したが、これに限定されるものではない。放物面等の非球面を有する曲面であっても、走査レーザ光の入射角度を小さくする効果が得られる。 Further, the configuration in which the curved surface is a spherical surface in the X-axis direction and the Y-axis direction is exemplified, but the present invention is not limited to this. Even if the curved surface has an aspherical surface such as a paraboloid, the effect of reducing the incident angle of the scanning laser beam can be obtained.

また、投射レンズ(光拡大部)が半導体レーザ(光源部)とMEMSミラー(光走査部
の間に配置される構成を例示したが、投射レンズがMEMSMミラーとウィンドウの間に配置することもできる。
Further, although the configuration in which the projection lens (light magnifying unit) is arranged between the semiconductor laser (light source unit) and the MEMS mirror (optical scanning unit) is illustrated, the projection lens can also be arranged between the MEMSM mirror and the window. ..

[第2実施形態]
次に、第2実施形態に物体検出装置100aについて説明する。図7は、物体検出装置100aの構成の一例を説明する図である。
[Second Embodiment]
Next, the object detection device 100a will be described in the second embodiment. FIG. 7 is a diagram illustrating an example of the configuration of the object detection device 100a.

図7に示すように、物体検出装置100aは光投射装置300aを有する。また光投射装置300aは、MEMSミラー13'を有する。MEMSミラー13'は、光偏向面13aの端部領域に反射型回折構造17を含む。 As shown in FIG. 7, the object detection device 100a has a light projection device 300a. Further, the light projection device 300a has a MEMS mirror 13'. The MEMS mirror 13'includes a reflective diffraction structure 17 in the end region of the light deflection surface 13a.

半導体レーザ11から射出されたレーザ光11aは、投射レンズ12によりZ軸方向において平行光に変換され、MEMSミラー13'に形成された反射型回折構造17に入射する。なお、反射型回折構造17に入射するレーザ光11aは、X軸方向では平行化されても平行化されなくても何れでもよい。 The laser beam 11a emitted from the semiconductor laser 11 is converted into parallel light in the Z-axis direction by the projection lens 12 and incident on the reflective diffraction structure 17 formed on the MEMS mirror 13'. The laser beam 11a incident on the reflection type diffraction structure 17 may or may not be parallelized in the X-axis direction.

反射型回折構造17は、入射するレーザ光11aをZ軸方向に反射しつつ、回折作用により、Y軸方向において集束位置fy'に集束するレーザ光に変換する。該レーザ光は集束位置fy'で一旦集束した後、Y軸方向において拡がり角度θyで拡がりながらZ軸方向に伝搬する。MEMSミラー13'は、揺動軸13c回りに矢印13d方向に揺動して、入射するレーザ光11aをX軸方向に走査する。MEMSミラー13'による走査レーザ光11bは、Y軸方向において拡がり角度θyで拡がりながらX軸方向に走査され、検出領域500に投射される。 The reflection type diffraction structure 17 reflects the incident laser light 11a in the Z-axis direction and converts it into a laser light that focuses at the focusing position fy'in the Y-axis direction by a diffraction action. The laser beam is once focused at the focusing position fy'and then propagates in the Z-axis direction while spreading at a spreading angle θy in the Y-axis direction. The MEMS mirror 13'swings around the swing axis 13c in the direction of the arrow 13d and scans the incident laser beam 11a in the X-axis direction. The scanning laser beam 11b by the MEMS mirror 13'is scanned in the X-axis direction while spreading at an expansion angle θy in the Y-axis direction, and is projected onto the detection region 500.

MEMSミラー13'に反射型回折構造17を設けることで、レーザ光11aをY軸方向に拡げるための構成を簡略化でき、光投射装置300aを小型化できる。 By providing the reflection type diffraction structure 17 in the MEMS mirror 13', the configuration for expanding the laser beam 11a in the Y-axis direction can be simplified, and the light projection device 300a can be miniaturized.

但し、MEMSミラー13'の光偏向面13a上に反射型回折構造17を形成すると、反射型回折構造17による散乱光が発生し、この散乱光が、検出領域500に存在しない物体からの戻り光(ゴースト光)として振る舞うことで、物体を誤検出する場合がある。従って反射型回折構造17による光投射装置300aを小型化と、物体の誤検出はトレードオフの関係になるため、両者のバランスを考慮して反射型回折構造17の位置や大きさ等を決定することが好ましい。 However, when the reflective diffraction structure 17 is formed on the light deflection surface 13a of the MEMS mirror 13', scattered light is generated by the reflective diffraction structure 17, and the scattered light is returned light from an object that does not exist in the detection region 500. By acting as (ghost light), an object may be erroneously detected. Therefore, there is a trade-off between the miniaturization of the light projection device 300a by the reflective diffraction structure 17 and the false detection of an object. Therefore, the position and size of the reflective diffraction structure 17 are determined in consideration of the balance between the two. Is preferable.

ウィンドウ16の構成及び機能は、第1実施形態で説明したものと同様であるが、第1面16a及び第2面16bにおけるY軸方向に曲率を有する交差曲面の曲率中心Cyが、集束位置fy'に略一致するように構成されている点が異なる。この構成により、ウィンドウ16に入射する走査レーザ光11bは、Y軸方向において第1面16a及び第2面16bに略垂直に入射できる。但し、曲率中心Cyと集束位置fy'は必ずしも一致していなくてもよい。両者を近接して配置することで、Y軸方向において第1面16a及び第2面16bに入射する走査レーザ光11bの入射角度を小さくする作用が得られる。これにより、第1実施形態と同様に、ウィンドウ16を透過する走査レーザ光11bの光利用効率を確保して、走査角度の制限を緩和し、走査レーザ光11bを広角に投射できる。 The configuration and function of the window 16 are the same as those described in the first embodiment, but the center of curvature Cy of the crossed curved surface having curvature in the Y-axis direction on the first surface 16a and the second surface 16b is the focusing position fy. The difference is that it is configured to roughly match'. With this configuration, the scanning laser beam 11b incident on the window 16 can be incident on the first surface 16a and the second surface 16b substantially perpendicularly in the Y-axis direction. However, the center of curvature Cy and the focusing position fy'are not necessarily the same. By arranging both of them close to each other, it is possible to obtain an effect of reducing the incident angle of the scanning laser beam 11b incident on the first surface 16a and the second surface 16b in the Y-axis direction. Thereby, as in the first embodiment, the light utilization efficiency of the scanning laser beam 11b transmitted through the window 16 can be secured, the limitation of the scanning angle can be relaxed, and the scanning laser beam 11b can be projected at a wide angle.

これ以外の効果は、第1実施形態で説明したものと同様である。 The other effects are the same as those described in the first embodiment.

なお、本実施形態では、MEMSミラー13が反射型回折構造17を有する構成を例示したが、MEMSミラー13の構成はこれに限定されるものではなく、各種変形が可能である。例えば、MEMSミラー13が曲率を有する光偏向面を備えることもできる。さらに、MEMSミラー13として、透過型の屈折手段やプリズムの回転を利用したものや回折等を利用したものを用いてもよい。 In the present embodiment, the configuration in which the MEMS mirror 13 has the reflection type diffraction structure 17 is exemplified, but the configuration of the MEMS mirror 13 is not limited to this, and various modifications are possible. For example, the MEMS mirror 13 may be provided with a light deflecting surface having a curvature. Further, as the MEMS mirror 13, a transmission type refraction means, one using rotation of a prism, one using diffraction or the like may be used.

[第3実施形態]
次に、第3実施形態に係る物体検出装置100bについて説明する。ここで図8は、物体検出装置100bが有する制御部200bの機能構成の一例を示すブロック図である。なお、制御部200bのハードウェア構成は、図3に示したものと同様である。
[Third Embodiment]
Next, the object detection device 100b according to the third embodiment will be described. Here, FIG. 8 is a block diagram showing an example of the functional configuration of the control unit 200b included in the object detection device 100b. The hardware configuration of the control unit 200b is the same as that shown in FIG.

図8に示すように、制御部200bは、歪補正部206と、物体画像情報取得部207と、補完物体情報取得部208と、補完物体情報出力部209とを備えている。 As shown in FIG. 8, the control unit 200b includes a distortion correction unit 206, an object image information acquisition unit 207, a complementary object information acquisition unit 208, and a complementary object information output unit 209.

これらのうち、歪補正部206、物体画像情報取得部207、及び補完物体情報取得部208のそれぞれの機能は図3のCPU21が所定のプログラムを実行することで実現される。また補完物体情報出力部209の機能は、図3の入出力I/F28等により実現される。 Of these, the functions of the distortion correction unit 206, the object image information acquisition unit 207, and the complementary object information acquisition unit 208 are realized by the CPU 21 of FIG. 3 executing a predetermined program. Further, the function of the complementary object information output unit 209 is realized by the input / output I / O 28 and the like shown in FIG.

歪補正部206は、物体検出装置100bに含まれるステレオカメラ18が備える右カメラ181が撮像した右眼画像と、左カメラ182が撮像した左眼画像とを入力し、右眼画像及び左眼画像のそれぞれの画像歪みを補正する。この画像歪みには、画像の外縁周辺における樽型又は糸巻型の歪みや、台形歪み等が挙げられる。歪補正部206は、補正後の右眼画像及び左眼画像をそれぞれ物体画像情報取得部207に出力する。 The distortion correction unit 206 inputs the right eye image captured by the right camera 181 included in the stereo camera 18 included in the object detection device 100b and the left eye image captured by the left camera 182, and inputs the right eye image and the left eye image. Correct each image distortion of. Examples of this image distortion include barrel-shaped or pincushion-shaped distortion around the outer edge of the image, trapezoidal distortion, and the like. The distortion correction unit 206 outputs the corrected right eye image and left eye image to the object image information acquisition unit 207, respectively.

右カメラ181及び左カメラ182のそれぞれは、物体の画像を撮像する撮像部の一例である。 Each of the right camera 181 and the left camera 182 is an example of an imaging unit that captures an image of an object.

物体画像情報取得部207は、入力した右眼画像と左眼画像を用いて画像処理で検出した視差に基づいて距離画像を生成し、生成した距離画像を補完物体情報取得部208に出力する。 The object image information acquisition unit 207 generates a distance image based on the parallax detected by image processing using the input right eye image and left eye image, and outputs the generated distance image to the complementary object information acquisition unit 208.

補完物体情報取得部208は、物体情報取得部204から入力した物体情報と、物体画像情報取得部207から入力した距離画像とに基づき、補完物体情報を取得する。ここで、補完物体情報とは、異なる方式で取得される複数の物体情報を用いて一方又は両方の物体情報を補完した物体情報をいう。本実施形態では、複数の物体情報のうちの1つはTOF方式で検出した距離情報画像等の物体情報であり、もう1つはステレオカメラ方式により検出した距離画像等の物体情報である。 The complementary object information acquisition unit 208 acquires the complementary object information based on the object information input from the object information acquisition unit 204 and the distance image input from the object image information acquisition unit 207. Here, the complementary object information refers to object information in which one or both object information is complemented by using a plurality of object information acquired by different methods. In the present embodiment, one of the plurality of object information is the object information such as the distance information image detected by the TOF method, and the other is the object information such as the distance image detected by the stereo camera method.

TOF方式では、物体までの距離に依存せずに高精度な距離検出が可能であるが、ビームを拡げて投射したレーザ光の物体による戻り光を利用するため、面内空間分解能が低くなる場合がある。またステレオカメラ方式では、右カメラ181及び左カメラ182の解像度に応じて高い面内空間分解能が得られるが、物体までの距離に応じて距離の検出精度が低くなる場合がある。 In the TOF method, highly accurate distance detection is possible without depending on the distance to the object, but the in-plane spatial resolution is low because the return light from the object of the laser beam projected by expanding the beam is used. There is. Further, in the stereo camera method, high in-plane spatial resolution can be obtained according to the resolutions of the right camera 181 and the left camera 182, but the distance detection accuracy may be lowered depending on the distance to the object.

TOF方式とステレオカメラ方式の両方で得られる情報を組み合わせることで、高い面内空間分解能で高精度な距離検出が可能になる。 By combining the information obtained by both the TOF method and the stereo camera method, highly accurate distance detection with high in-plane spatial resolution becomes possible.

例えば物体情報取得部204による距離画像と、物体画像情報取得部207による距離画像との間で対応する1以上の画素を定めておく。この対応画素では、物体情報取得部204による距離画像の距離検出値を用い、対応画素以外の画素では対応画素での距離検出値に基づき補正された物体画像情報取得部207による距離画像の距離検出値を用いて、補完距離画像を生成して取得する。補完距離画像は、TOF方式の距離画像の面内空間分解能を、ステレオカメラ方式の距離画像を用いて補完して得られる補完物体情報である。 For example, one or more pixels corresponding to the distance image by the object information acquisition unit 204 and the distance image by the object image information acquisition unit 207 are defined. In this corresponding pixel, the distance detection value of the distance image by the object information acquisition unit 204 is used, and in the pixels other than the corresponding pixel, the distance detection of the distance image by the object image information acquisition unit 207 corrected based on the distance detection value in the corresponding pixel. The value is used to generate and acquire a complementary distance image. The complementary distance image is complementary object information obtained by complementing the in-plane spatial resolution of the TOF distance image using the stereo camera distance image.

補完物体情報取得部208は、取得した補完距離画像を補完物体情報出力部209に提供する。補完物体情報出力部209は、画像に基づき物体情報を補完した補完物体情報を車両用コントローラ等の外部装置に出力できる。 The complementary object information acquisition unit 208 provides the acquired complementary distance image to the complementary object information output unit 209. The complementary object information output unit 209 can output complementary object information that complements the object information based on the image to an external device such as a vehicle controller.

以上説明したように、本実施形態では、TOF方式による距離画像と、ステレオカメラ方式による距離画像とに基づいて取得される補完距離画像を出力する。これによりTOF方式の距離画像の面内空間分解能をステレオカメラ方式の距離画像を用いて補完した高い面内空間分解能で高い距離検出精度の距離画像を出力できる。 As described above, in the present embodiment, the complementary distance image acquired based on the distance image by the TOF method and the distance image by the stereo camera method is output. As a result, it is possible to output a distance image with high distance detection accuracy with high in-plane spatial resolution in which the in-plane spatial resolution of the TOF distance image is complemented by using the stereo camera distance image.

なお、本実施形態では、TOF方式の距離画像の面内空間分解能を補完する例を示したが、これに限定されるものではなく、TOF方式では得られない色情報等を、撮像画像を利用して補完してもよい。色情報の補完により、車両に物体検出装置100bを適用する場合に、交通信号や交通標識等の色情報を利用することが可能になる。また、これら以外の他の情報を補完することもできる。 In this embodiment, an example of complementing the in-plane spatial resolution of the distance image of the TOF method is shown, but the present invention is not limited to this, and the captured image is used for color information and the like that cannot be obtained by the TOF method. May be complemented. By complementing the color information, it becomes possible to use the color information such as a traffic signal and a traffic sign when the object detection device 100b is applied to the vehicle. In addition, other information other than these can be complemented.

また、撮像部の例としてステレオカメラを挙げたが、ステレオカメラに限定されるものではなく、単眼のカメラであってもよい。 Further, although a stereo camera is mentioned as an example of the image pickup unit, the camera is not limited to the stereo camera and may be a monocular camera.

なお、上述したもの以外の効果は、第1実施形態と同様である。 The effects other than those described above are the same as those in the first embodiment.

[第4実施形態]
次に、第4実施形態に係る移動体について説明する。図9は、第1実施形態で説明した物体検出装置100を備える移動体1の構成の一例を説明する図である。移動体1は、荷物を目的地に無人搬送する無人搬送車である。
[Fourth Embodiment]
Next, the moving body according to the fourth embodiment will be described. FIG. 9 is a diagram illustrating an example of the configuration of the moving body 1 including the object detection device 100 described in the first embodiment. The mobile body 1 is an automatic guided vehicle that unmannedly transports cargo to a destination.

物体検出装置100は、移動体1の前部に取り付けられ、移動体1の正のZ方向側の距離画像等の物体情報を取得する。物体検出装置100の出力によって、移動体1の正のZ方向側の障害物等の物体の有無及び物体の位置等の物体情報を検出することができる。 The object detection device 100 is attached to the front portion of the moving body 1 and acquires object information such as a distance image on the positive Z direction side of the moving body 1. From the output of the object detection device 100, it is possible to detect object information such as the presence / absence of an object such as an obstacle on the positive Z direction side of the moving body 1 and the position of the object.

図10は移動体1のハードウェア構成の一例を示すブロック図である。図10に示すように、移動体1は、物体検出装置100と、表示装置30と、位置制御装置40と、メモリ50と、音声・警報発生装置60とを備える。これらは、信号やデータの伝送が可能なバス70を介して電気的に接続されている。 FIG. 10 is a block diagram showing an example of the hardware configuration of the mobile body 1. As shown in FIG. 10, the moving body 1 includes an object detection device 100, a display device 30, a position control device 40, a memory 50, and a voice / alarm generation device 60. These are electrically connected via a bus 70 capable of transmitting signals and data.

本実施形態では、物体検出装置100と、表示装置30と、位置制御装置40と、メモリ50と、音声・警報発生装置60とによって、走行管理装置10が構成されている。走行管理装置10は、移動体1に搭載されている。また、走行管理装置10は、移動体1のメインコントローラ80と電気的に接続されている。 In the present embodiment, the travel management device 10 is composed of an object detection device 100, a display device 30, a position control device 40, a memory 50, and a voice / alarm generation device 60. The travel management device 10 is mounted on the moving body 1. Further, the travel management device 10 is electrically connected to the main controller 80 of the mobile body 1.

表示装置30は、物体検出装置100が取得した3次元情報や移動体1に関わる各種設定情報等を表示するLCD(Liquid Crystal Display)等のディスプレイである。位置制御装置40は、物体検出装置100が取得した物体情報に基づき、移動体1の位置を制御するCPU等の演算装置である。音声・警報発生装置60は、物体検出装置100が取得した3次元データから、障害物の回避の可否を判定し、回避不可と判断された場合に周囲の人員に通知するスピーカー等の装置である。 The display device 30 is a display such as an LCD (Liquid Crystal Display) that displays three-dimensional information acquired by the object detection device 100, various setting information related to the moving body 1, and the like. The position control device 40 is an arithmetic unit such as a CPU that controls the position of the moving body 1 based on the object information acquired by the object detection device 100. The voice / alarm generator 60 is a device such as a speaker that determines whether or not obstacles can be avoided from the three-dimensional data acquired by the object detection device 100 and notifies the surrounding personnel when it is determined that the obstacles cannot be avoided. ..

このようにして、物体検出装置100を備えた移動体を提供することができる。 In this way, it is possible to provide a moving body equipped with the object detection device 100.

なお、物体検出装置100を備える移動体は無人搬送車に限定されるものではない。自動車等の車両や、ドローン等の飛行体等に搭載することもできる。また、移動体だけでなく、スマートフォンやタブレット等の情報端末に搭載することも可能である。 The moving body provided with the object detection device 100 is not limited to the automatic guided vehicle. It can also be mounted on vehicles such as automobiles and flying objects such as drones. Further, it can be mounted not only on a mobile body but also on an information terminal such as a smartphone or a tablet.

また、実施形態では、物体検出装置100が制御部200の構成及び機能を備える例を示したが、必ずしもこれに限定されるものではない。制御部200の備える構成及び機能の一部、又は全部を、移動体1に含まれる外部コントローラ等の物体検出装置100を搭載する装置、又は物体検出装置100に接続される装置等が備えても良い。 Further, in the embodiment, an example in which the object detection device 100 includes the configuration and function of the control unit 200 is shown, but the present invention is not necessarily limited to this. Even if a device including an object detection device 100 such as an external controller included in the mobile body 1 or a device connected to the object detection device 100 is provided with a part or all of the configuration and functions of the control unit 200. good.

なお、上述した効果以外の効果は、第1,第2実施形態と同様である。 The effects other than the above-mentioned effects are the same as those in the first and second embodiments.

以上、実施形態を説明してきたが、本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。 Although the embodiments have been described above, the present invention is not limited to the above-described embodiments specifically disclosed, and various modifications and changes can be made without departing from the scope of claims. be.

なお、光投射装置300により投射される光は、レーザ光に限定されるものではなく、指向性を有さない光であってもよいし、またレーダー等の波長の長い電磁波等であってもよい。 The light projected by the light projection device 300 is not limited to laser light, and may be light having no directivity, or electromagnetic waves having a long wavelength such as a radar. good.

また、上記で用いた序数、数量等の数字は、全て本発明の技術を具体的に説明するために例示するものであり、本発明は例示された数字に制限されない。また、構成要素間の接続関係は、本発明の技術を具体的に説明するために例示するものであり、本発明の機能を実現する接続関係はこれに限定されない。 Further, the numbers such as the ordinal number and the quantity used above are all exemplified for concretely explaining the technique of the present invention, and the present invention is not limited to the exemplified numbers. Further, the connection relationship between the components is exemplified for concretely explaining the technique of the present invention, and the connection relationship for realizing the function of the present invention is not limited to this.

また、機能ブロック図におけるブロックの分割は一例であり、複数のブロックを一つのブロックとして実現する、一つのブロックを複数に分割する、及び/又は、一部の機能を他のブロックに移してもよい。また、類似する機能を有する複数のブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。 Further, the division of blocks in the functional block diagram is an example, and even if a plurality of blocks are realized as one block, one block is divided into a plurality of blocks, and / or some functions are transferred to another block. good. Further, the functions of a plurality of blocks having similar functions may be processed by a single hardware or software in parallel or in a time division manner.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiment described above can be realized by one or more processing circuits. Here, the "processing circuit" as used herein is a processor programmed to perform each function by software, such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array) and conventional circuit modules.

1 移動体
100 物体検出装置
11 半導体レーザ(光源部の一例)
11a レーザ光(射出光の一例)
11b 走査レーザ光(走査光の一例)
12 投射レンズ(光拡大部の一例)
13 MEMSミラー(光走査部の一例)
13a 光偏向面
13b 可動部
13c 揺動軸
14 集光レンズ
15 フォトダイオード(受光部の一例)
16 ウィンドウ(透過部材の一例)
16a 第1面(走査曲面の一例、交差曲面の一例)
16b 第2面(走査曲面の一例、交差曲面の一例)
161 小型化領域
17 反射型回折構造
18 ステレオカメラ
181 右カメラ(撮像部の一例)
182 左カメラ(撮像部の一例)
200 制御部
201 光源制御部
202 走査制御部
203 受光信号取得部
204 物体情報取得部
205 物体情報出力部
206 歪補正部
207 物体画像情報取得部
208 補完物体情報取得部
209 補完物体情報出力部
500 検出領域
501 物体
502 戻り光
fy ,fy' 集束位置
Cx X軸方向における曲率中心
Cy Y軸方向における曲率中心
θx 走査角度
θy 拡がり角度
X軸方向 走査方向
Y軸方向 交差方向
1 Mobile 100 Object detection device 11 Semiconductor laser (example of light source unit)
11a Laser light (an example of emitted light)
11b Scanning laser light (an example of scanning light)
12 Projection lens (an example of an optical magnifying unit)
13 MEMS mirror (an example of optical scanning unit)
13a Optical deflection surface 13b Moving part 13c Swinging shaft 14 Condensing lens 15 Photodiode (example of light receiving part)
16 window (example of transparent member)
16a First surface (an example of a scanning curved surface, an example of an intersecting curved surface)
16b Second surface (example of scanning curved surface, example of intersecting curved surface)
161 Miniaturized area 17 Reflective diffraction structure 18 Stereo camera 181 Right camera (example of image pickup unit)
182 Left camera (example of image pickup unit)
200 Control unit 201 Light source control unit 202 Scan control unit 203 Light receiving signal acquisition unit 204 Object information acquisition unit 205 Object information output unit 206 Distortion correction unit 207 Object image information acquisition unit 208 Complementary object information acquisition unit 209 Complementary object information output unit 500 Detection Region 501 Object 502 Return light fy, fy'Focusing position Cx Center of curvature in X-axis direction Cy Center of curvature in Y-axis direction θ x Scanning angle θy Spread angle X-axis direction Scanning direction Y-axis direction Crossing direction

特開2018-151278号公報Japanese Unexamined Patent Publication No. 2018-151278 特開2019-128221号公報Japanese Unexamined Patent Publication No. 2019-128221

Claims (9)

走査光を投射する光投射装置であって、
光を射出する光源部と、
前記光源部の射出光を所定の走査方向に走査する光走査部と、
前記光走査部による前記走査光の光路に設けられ、前記走査光を透過する透過部材と、を有し、
前記透過部材は、前記走査方向に曲率を有する走査曲面を含む
光投射装置。
An optical projection device that projects scanning light.
The light source that emits light and
An optical scanning unit that scans the emitted light of the light source unit in a predetermined scanning direction,
It has a transmitting member provided in the optical path of the scanning light by the optical scanning unit and transmitting the scanning light.
The transmissive member is an optical projection device including a scanning curved surface having a curvature in the scanning direction.
前記透過部材は、前記光走査部に対向する第1面と、前記第1面に対向する第2面とを有し、前記第1面及び前記第2面の両方に、前記走査曲面を含む
請求項1に記載の光投射装置。
The transmissive member has a first surface facing the optical scanning unit and a second surface facing the first surface, and both the first surface and the second surface include the scanning curved surface. The light projection device according to claim 1.
前記走査方向の交差方向に前記射出光を拡げる光拡大部をさらに有し、
前記透過部材は、前記交差方向に曲率を有する交差曲面を含む
請求項1、又は2に記載の光投射装置。
It further has an optical magnifying part that expands the emitted light in the intersecting direction of the scanning direction.
The light projection device according to claim 1 or 2, wherein the transmissive member includes a crossed curved surface having a curvature in the crossing direction.
前記透過部材は、前記光走査部に対向する第1面と、前記第1面に対向する第2面とを有し、前記第1面及び前記第2面の両方に、前記走査曲面と、前記交差曲面とを含む
請求項3に記載の光投射装置。
The transmissive member has a first surface facing the optical scanning unit and a second surface facing the first surface, and the scanning curved surface and the scanning curved surface are formed on both the first surface and the second surface. The light projection device according to claim 3, which includes the intersecting curved surface.
前記走査曲面における前記走査方向の曲率は、前記交差曲面における前記交差方向の曲率より大きい
請求項3、又は4に記載の光投射装置。
The light projection device according to claim 3, wherein the curvature of the scanning curved surface in the scanning direction is larger than the curvature of the intersecting curved surface in the intersecting direction.
前記光走査部は、光偏向面を所定の揺動軸回りに揺動させることで前記射出光を走査し、
前記走査曲面の曲率中心は、前記揺動軸上に配置されている
請求項1乃至5の何れか1項に記載の光投射装置。
The optical scanning unit scans the emitted light by swinging the light deflection surface around a predetermined swing axis.
The light projection device according to any one of claims 1 to 5, wherein the center of curvature of the scanning curved surface is arranged on the swing axis.
所定の検出領域に前記走査光を投射する請求項1乃至6の何れか1項に記載の光投射装置と、
前記検出領域に存在する物体による前記走査光の反射光又は散乱光の少なくとも一方を受光する受光部と、
前記光源部の射出時期と、前記受光部の受光時期と、に基づいて取得される物体情報を出力する物体情報出力部と、を有する
物体検出装置。
The light projection device according to any one of claims 1 to 6, which projects the scanning light onto a predetermined detection area.
A light receiving unit that receives at least one of the reflected light or the scattered light of the scanning light by an object existing in the detection region, and a light receiving portion.
An object detection device including an object information output unit that outputs object information acquired based on the emission timing of the light source unit and the light reception timing of the light receiving unit.
前記物体の画像を撮像する撮像部と、
前記画像に基づき前記物体情報を補完した補完物体情報を出力する補完物体情報出力部と、をさらに有する
請求項7に記載の物体検出装置。
An image pickup unit that captures an image of the object,
The object detection device according to claim 7, further comprising a complementary object information output unit that outputs complementary object information that complements the object information based on the image.
請求項7又は8に記載の物体検出装置を有する
移動体。
A mobile body having the object detection device according to claim 7 or 8.
JP2020128066A 2020-07-29 Light projection device, object detection device, and moving body Active JP7505312B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020128066A JP7505312B2 (en) 2020-07-29 Light projection device, object detection device, and moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020128066A JP7505312B2 (en) 2020-07-29 Light projection device, object detection device, and moving body

Publications (2)

Publication Number Publication Date
JP2022025315A true JP2022025315A (en) 2022-02-10
JP7505312B2 JP7505312B2 (en) 2024-06-25

Family

ID=

Similar Documents

Publication Publication Date Title
CN106605166B (en) Projection apparatus and head-up display apparatus
KR20130136393A (en) Image display apparatus and head-mounted display
US20210263303A1 (en) Optical scanning device with beam compression and expansion
US11110861B2 (en) Display system and electronic mirror system including the display system
US20200150418A1 (en) Distance measurement device and mobile body
KR20130136392A (en) Image display apparatus and head-mounted display
CN113296268B (en) Head-up display device
JP7505312B2 (en) Light projection device, object detection device, and moving body
JP2022025315A (en) Light projection device, object detection device, and moving body
JP7355133B2 (en) Optical deflection device and its manufacturing method, image projection device, object recognition device, laser headlamp device, optical writing device, and moving object
US7386230B2 (en) Wide-angle shooting apparatus and optical device
CN112867905A (en) Optical engine for three-dimensional detection and three-dimensional detection equipment
US11947113B2 (en) Movable device, image projection apparatus, head-up display, laser headlamp, head-mounted display, object recognition device, and vehicle
CN116897303A (en) Dynamic alignment of LIDAR
CN208921064U (en) A kind of laser camera and its optical imaging system
US20230003841A1 (en) Sensor device and housing
WO2021125018A1 (en) Light emitting device, object detecting device, and mobile body
TWI781769B (en) Head-up display
EP4148465A1 (en) Radar system, photodetector, automobile, and photodetection method
JP6956359B2 (en) Display system and electronic mirror system equipped with it
US11624903B2 (en) Light deflector, LiDAR device, and image forming apparatus
CN219657983U (en) Double-light fusion imaging device and electronic equipment
US20220155582A1 (en) Operating device, light deflector, light deflecting device, distance measurement apparatus, image projection apparatus, and mobile object
US20210293954A1 (en) Object detection apparatus and movable apparatus
CN113557715B (en) Multifunctional three-dimensional scanner

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240527