WO2017126356A1 - 対象物検出装置 - Google Patents

対象物検出装置 Download PDF

Info

Publication number
WO2017126356A1
WO2017126356A1 PCT/JP2017/000392 JP2017000392W WO2017126356A1 WO 2017126356 A1 WO2017126356 A1 WO 2017126356A1 JP 2017000392 W JP2017000392 W JP 2017000392W WO 2017126356 A1 WO2017126356 A1 WO 2017126356A1
Authority
WO
WIPO (PCT)
Prior art keywords
mirror
light beam
reflected
pixel field
pixel
Prior art date
Application number
PCT/JP2017/000392
Other languages
English (en)
French (fr)
Inventor
亮太 石川
一能 野口
一生 松井
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Publication of WO2017126356A1 publication Critical patent/WO2017126356A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes

Definitions

  • the present invention relates to an optical scanning type object detection apparatus capable of detecting a distant object.
  • an object detection device adopting the TOF (Time of Flight) method has already been developed.
  • the TOF method the distance to the object can be measured by measuring the time until the pulsed laser light hits the object and returns.
  • the object detection device adopting the TOF method is generally used to amplify an APD (avalanche photodiode) or the like in order to detect the weak reflected light generated when a laser beam is irradiated to a distant object.
  • a light receiving element with a high rate is used.
  • a plurality of light receiving elements that receive reflected light are arranged to ensure high resolution.
  • Patent Document 1 discloses a light receiving surface of a light detection unit in which a laser beam is emitted from a light source, and further, the emitted laser beam is scanned along a scanning direction by a one-dimensional scanner, and four pixels are arranged in a two-dimensional matrix.
  • a radar device is disclosed in which reflected light from an object is detected for each of four pixels.
  • the laser light emitted from the light source is scanned by a one-dimensional scanner, whereas the light receiving unit does not scan, so a wide field of view is secured using a two-dimensional array sensor.
  • the field of view is divided. According to such a configuration, the field of view is divided, so that it is difficult to receive background light such as the sun, but false light and noise are generated due to stray light entering between the lens surfaces and the flange portion entering the sensor.
  • false detection and a decrease in S / N have been problems.
  • each of the four pixels is provided with four light receiving elements independently.
  • Patent Document 2 at least a rotating mirror unit including a first mirror surface and a second mirror surface inclined with respect to a rotation axis, and a light beam emitted toward an object through the mirror unit are disclosed.
  • a light projecting system including one light source, and the light beam emitted from the light source is reflected by the first mirror surface of the mirror unit and then travels toward the second mirror surface, and further, There is disclosed a radar that is reflected by a second mirror surface and is projected while being scanned with respect to the object in accordance with the rotation of the mirror unit.
  • the luminous flux emitted from the light projecting system is reflected by the rotating first mirror surface and the second mirror surface, and then is irradiated toward the object.
  • the present invention has been made in view of the above circumstances, and an object thereof is to provide an object detection apparatus that can suppress detection leakage while having high resolution.
  • an object detection device reflecting one aspect of the present invention.
  • a rotating mirror unit having a first mirror part and a second mirror part inclined with respect to the rotation axis;
  • a light projecting system including a light source that emits a luminous flux;
  • a light receiving system including a light receiving element that receives a reflected light beam from the object, and an object detection device having: The emitted light beam emitted from the light source is reflected by the first mirror portion of the mirror unit, then travels toward the second mirror portion, is further reflected by the second mirror portion, and rotates the mirror unit.
  • the reflected light beam of the emitted light beam projected while being repeatedly scanned with respect to the object and reflected toward the object is reflected by the second mirror unit, and further the first mirror unit And is received by the light receiving element.
  • the size in the direction corresponding to the scanning direction is smaller than the size in the direction corresponding to the scanning orthogonal direction,
  • the direction corresponding to the scanning direction is the first direction and the direction corresponding to the scanning orthogonal direction is the second direction in the cross section in the direction perpendicular to the optical axis of the reflected light beam
  • the reflected light beam is incident on the light receiving element.
  • the pixel field in the M (M ⁇ N) scan shifts in the second direction with respect to the pixel field in the Nth scan, and The pixel field of the reflected light beam is shifted so that the reflected light beam from the same object is received by any pixel of the light receiving element in at least one of the N-th scanning and the M-th scanning.
  • a pixel visual field shift device is provided.
  • (B), (c) is a figure which shows typically light reception light beam RB light-received by the light-receiving surface of photodiode PD seeing from a X direction. It is a figure which shows the principal part of laser radar LR, cut
  • (a) is a figure which shows typically the state by which the emitted light beam SB1 was irradiated to the target object OBJ
  • (b) is the state where the emitted light beam SB2 was irradiated to the target object OBJ.
  • FIG. 1 is a schematic diagram showing a state in which a laser radar as an object detection device according to the present embodiment is mounted on a vehicle.
  • the laser radar LR of the present embodiment is provided on the inner side of the upper end of the front window 1a of the vehicle 1, but may be disposed outside the vehicle (such as behind the front grill 1b).
  • FIG. 2 is a cross section of the laser radar LR according to this embodiment.
  • FIG. 3 is a perspective view schematically showing the main part excluding the housing of the laser radar LR according to the present embodiment. However, the shape and length of the components may differ from the actual ones. In FIG. 3, only the optical axis (light beam center) is shown for the outgoing light beam and the reflected light beam.
  • the laser radar LR is accommodated in the housing CS as shown in FIG.
  • a window part WS capable of entering and exiting a light beam is formed on a side part of the casing CS, and the window part WS is formed of a transparent plate TR such as glass or resin.
  • the laser radar LR narrows the divergence angle of the diverging light from the pulsed semiconductor laser (light source) LD that emits a laser beam and the semiconductor laser LD, for example, and converts it into substantially parallel light.
  • the collimating lens CL and the laser beam made substantially parallel by the collimating lens CL are scanned and projected toward the object OBJ side (FIG. 1) by the rotating mirror surface, and from the scanned and projected object OBJ.
  • a mirror unit MU that reflects scattered light
  • a lens LS that collects scattered light (received light flux) from the object OBJ reflected by the mirror unit MU
  • a photodiode that receives the light collected by the lens LS ( Light receiving element) PD.
  • the semiconductor laser LD and the collimating lens CL constitute a light projecting system LPS
  • the lens LS and the photodiode PD constitute a light receiving system RPS.
  • the optical axes of the light projecting system LPS and the light receiving system RPS are substantially orthogonal to the rotation axis RO of the mirror unit MU.
  • the mirror unit MU has a shape in which two quadrangular pyramids are joined together in opposite directions, that is, has four pairs of mirror surfaces M1 and M2 that are inclined in a direction facing each other.
  • the four mirror surfaces M2 are distinguished as mirror surfaces M2 (1) to M2 (4) in order in the rotation direction, respectively, but M2 is used as a representative symbol.
  • the inclination angle of the mirror surface M1 with respect to the rotation axis RO is the same, but the inclination angle of the mirror surface M2 with respect to the rotation axis RO is different.
  • the mirror surface M2 constitutes a pixel field shift device. Details of the tilt angle will be described later.
  • the mirror surfaces M1 and M2 are preferably formed by depositing a reflective film on the surface of a resin material (for example, PC) injection-molded into the shape of the mirror unit. As a result, the tilt angles of the mirror surfaces M1 and M2 can be accurately made.
  • the mirror unit MU is connected to the shaft SH of the motor MT and is driven to rotate.
  • divergent light intermittently emitted in a pulse form from the semiconductor laser LD is converted into a substantially parallel light beam by the collimator lens CL, and is incident on the first mirror surface M1 of the rotating mirror unit MU. And then reflected by the second mirror surface M2 and then transmitted through the transparent plate TR to the external object OBJ side, for example, a vertically long rectangular cross section (that is, the size in the direction corresponding to the scanning direction is in the scanning orthogonal direction).
  • the light is scanned and projected as laser spot light having a smaller cross section in the direction perpendicular to the optical axis.
  • the “N-th scanning” means that a substantially parallel light beam incident from one end to the other end in the rotation direction of the N-th pair of mirror surfaces M1 and M2 in the rotation order is reflected, and the mirror unit MU This means that the laser spot light moves in the horizontal direction (scanning direction) of the detection range R (see FIG. 4) according to the rotation.
  • FIG. 4 is a diagram showing a state where the detection range R of the laser radar LR is scanned with the outgoing light beam SB (shown by hatching) as the laser spot light in accordance with the rotation of the mirror unit MU.
  • the laser spot light is sequentially reflected by the rotating first mirror surface M1 and second mirror surface M2.
  • the laser spot light reflected by the first pair of the first mirror surface M1 and the second mirror surface M2 moves from the left in the horizontal direction to the uppermost region Ln1 of the detection range R according to the rotation of the mirror unit MU. Scan to the right.
  • the laser spot light reflected by the second pair of the first mirror surface M1 and the second mirror surface M2 moves horizontally in the second region Ln2 from the top of the detection range R according to the rotation of the mirror unit MU. Scanned from left to right.
  • the laser spot light reflected by the third pair of the first mirror surface M1 and the second mirror surface M2 passes through the third region Ln3 from the top of the detection range R in the horizontal direction according to the rotation of the mirror unit MU. Scanned from left to right.
  • the laser spot light reflected by the fourth pair of the first mirror surface M1 and the second mirror surface is moved horizontally from left to right in the lowermost region Ln4 of the detection range R according to the rotation of the mirror unit MU. Is scanned.
  • the lens LS functioning as an aperture stop (here, circular, but limited to a circular shape).
  • the incident light finally enters the photodiode PD. That is, scattered light other than the scattered light shown by hatching in FIG. 2 does not enter the photodiode PD and is not used for light reception.
  • the pixel of the photodiode PD has a pixel field of view as will be described later, it is not possible to use all the light beams incident on the photodiode PD for detection. This point will be described.
  • FIG. 5A is a diagram schematically showing the light receiving surface PL of the photodiode PD.
  • the direction corresponding to the scanning direction is the X direction and the direction corresponding to the scanning orthogonal direction is Y with respect to the optical axis orthogonal cross section of the light receiving light beam RB.
  • On the light receiving surface PL of the photodiode PD equal rectangular pixels PX are arranged at equal intervals along the Y direction.
  • the light receiving surface PL other than the pixel PX is a non-detecting portion that does not detect light.
  • the size S in the Y direction of the pixel PX is preferably equal to or larger than the size G in the Y direction of the non-detection part.
  • FIGS. 5B and 5C are diagrams schematically showing the received light beam RB received by the light receiving surface of the photodiode PD as viewed from the X direction.
  • the light receiving surface PL other than the pixel PX of the photodiode PD shown in FIG. 5A cannot detect the received light beam RB.
  • the detectable light RBp hatchching
  • Undetectable light RBi outlined
  • the range of detectable light RBp covered (detected) by one pixel PX is referred to as “pixel field of view”, and the range of detectable light RBp covered by the entire photodiode PD is referred to as “element field of view”. That is, the undetectable light RBi is light incident outside the pixel field.
  • the emitted light beam SB is emitted in a range including the entire element visual field. If the reflected light from the object OBJ is included in the range of the undetectable light RBi, there is a risk of detection omission.
  • detection omission can be avoided to some extent by reducing the distance between the pixels PX as much as possible, but the cost of the photodiode PD increases accordingly. Therefore, in this embodiment, detection omission is avoided while securing the low cost of the photodiode PD as follows.
  • four pairs of mirror surfaces M1 and M2 are used.
  • they can complement each other and eliminate undetectable light. More specifically, as shown in FIG. 5B, the rotation direction as shown in FIG. 5C with respect to the pixel field of the reflected light beam RB via the pair of mirror surfaces M1 and M2 preceding in the rotation direction.
  • the pixel field of the reflected light beam RB that passes through another pair of mirror surfaces M1 and M2 that follow is shifted in the Y direction, for example, by the interval of the pixels PX.
  • undetectable light RBi included outside the pixel field in a certain scan can be detected as being in the pixel field in the next scan.
  • FIG. 6 is a diagram showing the main part of the laser radar LR while cutting along a cross section passing through the rotation axis of the mirror unit MU in the present embodiment, and exaggerating the tilt of the mirror surface.
  • the second mirror surface M2 (1) indicated by the solid line is different from the second mirror surface M2 (2) indicated by the dotted line by a predetermined amount with respect to the rotation axis RO.
  • the outgoing light beam SB emitted from the light projecting system LPS is incident and reflected at the position where the first mirror surface M1 of the rotating mirror unit MU is directly opposed, and further reflected by the second mirror surface M2 (1). Thereafter, the light beam is scanned and projected as the outgoing light beam SB1 on the object OBJ side. Further, the reflected light beam RB1 from the object OBJ is incident on the second mirror surface M2 (1) of the mirror unit MU, reflected there, and further reflected by the first mirror surface M1, and then received by the light receiving system RPS.
  • the outgoing light beam SB emitted from the light projecting system LPS is incident on and reflected by the first mirror surface M1 of the rotating mirror unit MU. After being reflected by the second mirror surface M2 (2), it is scanned and projected as an outgoing light beam SB2 on the object OBJ side. Further, the reflected light beam RB2 from the object OBJ is incident on the second mirror surface M2 (2) of the mirror unit MU, reflected there, and further reflected by the first mirror surface M1, and then received by the light receiving system RPS.
  • the outgoing light beam SB1 reflected from the second mirror surface M2 (1) has a different sub-scanning angle ⁇ from the outgoing light beam SB2 reflected from the second mirror surface M2 (2). Accordingly, the received light beams RB1 and RB2 also have different incident angles to the second mirror surfaces M2 (1) and M2 (2), and are reflected by the first mirror surface M1. Since the sub-scanning angles of the emitted light beams are different, the following effects are produced.
  • FIG. 7 (a) is a diagram schematically showing a state in which the object OBJ is irradiated with the outgoing light beam SB1
  • FIG. 7 (b) is a diagram schematically showing a state in which the object OBJ is irradiated with the outgoing light beam SB2.
  • a beam within the pixel field (indicated by hatching) is RBp
  • a beam outside the pixel field (indicated by white) is RBi.
  • the relative position outside the pixel field in the reflected light beam is constant. As shown in FIG.
  • the eye EY of the object OBJ is included in the pixel out-of-field RBi, and thus is not detected by the pixels of the light receiving element even within the reflected light beam. Since the mouth MS is in the pixel visual field RBp, it is detected by any pixel.
  • the mouth MS of the object OBJ is included in the out-of-pixel field RBi.
  • the eye EY enters the pixel field RBp instead, it is detected at any pixel. That is, in FIG. 6, the position of the light receiving surface PL of the photodiode PD on which the received light beams RB1 and RB2 are incident is the same, but the pixel field of view is shifted in the direction along the rotation axis RO (scanning orthogonal direction). (See FIGS. 7A and 7B).
  • the tilt angle difference is given to the second mirror surface M2, but instead, the tilt angle difference may be given to the first mirror surface M1, or the first mirror surface M1 for each pair. The same effect can be obtained even if a predetermined tilt angle difference is given to each of the second mirror surface M2.
  • FIG. 8 is a schematic diagram showing a pixel field of view in a first scan and a pixel field of view in a second scan in a received light beam (also referred to as a reflected light beam).
  • the pixel field in the first scan indicated by the solid line has an eleventh pixel field PF11, a twelfth pixel field PF12, a thirteenth pixel field PF13,.
  • the pixel field in the second scan indicated by the dotted line has a twenty-first pixel field PF21, a twenty-second pixel field PF22, a twenty-third pixel field PF23,.
  • the pixel visual field in the first scan and the pixel visual field in the second scan are relatively shifted in the Y direction.
  • the midpoint between the eleventh pixel field PF11 and the twelfth pixel field PF12 is such that the center of the twenty-first pixel field PF21 coincides with the twelfth pixel field PF12 and the thirteenth pixel field PF13.
  • the center of the 22nd pixel visual field PF22 coincides with the intermediate point between and the description is omitted, but the same is true.
  • the twenty-first pixel field PF21 (or any one of the pixel fields) need only overlap so that the gap between the eleventh pixel field PF11 and the twelfth pixel field PF12 is completely filled. Others are the same.
  • the reflected light BM from the object is present in the non-detection portion between the eleventh pixel field PF11 and the twelfth pixel field PF12 in the first scan, the reflected light BM is not detected in the first scan. Since it is outside the pixel field of view, any pixel PX cannot be detected. However, in the second scanning, the reflected light BM from the same object is present in the 21st pixel field PF21, so that it can be detected and detection omission can be suppressed.
  • the reflected light straddling a plurality of pixel visual fields can estimate the size of the object accordingly, but when the reflected light is detected by either the first scan or the second scan, the object
  • the reflected light (for example, BM in FIG. 8) is less than the gap between the pixel fields, so that the actual size of the object can be estimated based on the distance to the object, and thus the 21st A resolution less than the size of the pixel field of view PF21 can be obtained.
  • the upper half of the detection range R (corresponding to the regions Ln1 and Ln2) is scanned by the two pairs of mirror surfaces M1 and M2 of the mirror unit MU, and another two pairs of mirror surfaces MU1 and M2 are scanned.
  • the lower half of the detection range R (corresponding to the regions Ln3 and Ln4) is scanned by the mirror surfaces M1 and M2, and the specifications of the light projecting system LPS and the light receiving system RPS are designed accordingly. This can be done.
  • the detection range R can be divided into four areas for scanning.
  • the received light beam reflected by the mirror pair used in the first scan is associated with the received light beam reflected by the mirror pair used in the third scan, and the received light reflected by the mirror pair used in the second scan.
  • the target may be detected by associating the light beam with the received light beam reflected by the mirror pair used in the fourth scan.
  • the received light beam reflected by the mirror pair used in the Nth scan and the received light beam reflected by the mirror pair used in the M (M ⁇ N) scan are arbitrarily associated and used. it can.
  • the first mirror surface M1 (N) and the second mirror used in the Nth scan In the mirror pair of the surface M2 (N) and the mirror pair of the first mirror surface M1 (M) and the second mirror surface M2 (M) used in the M-th scanning, with the rotation axis RO of the mirror unit MU as a reference, If the angle difference between the first mirror surface M1 (N) and the first mirror surface M1 (M) or the angle difference between the second mirror surface M2 (N) and the second mirror surface M2 (M) is ⁇ , the deviation is It is possible to prevent excessive and insufficient corners and effectively suppress detection leakage due to the non-detection part.
  • the pixel field is shifted between a plurality of scans by shifting the pixel field by this value. It becomes possible to overlap.
  • is the angle difference between the dihedral angles, and the angle difference between the dihedral angles is 1 ⁇ 2 of the emission angle difference.
  • the value of equation (1) is less than or equal to the upper limit value corresponding to the equation representing the viewing angle of the sensor, the field of view due to excessive shift of the pixel field of view by suppressing the shift of the pixel field of view by this value. Prevents omissions. atan (G / f) ⁇ 2 ⁇ ⁇ atan (S / f) (1)
  • the pixel field of the received light beam RB2 is shifted by the distance G in the Y direction on the light receiving surface PL of the photodiode PD with respect to the pixel field of the received light beam RB1, but the present invention is not limited to this.
  • FIG. 9 is a diagram showing a main part of a laser radar LR according to another embodiment, but a light projecting system is omitted.
  • a reflecting mirror MR as a pixel field shift device is disposed between the light receiving system RPS and the first mirror surface M1.
  • the reflecting mirror MR can be tilted around a pivot PV extending in a direction orthogonal to the rotation axis RO in FIG. 9 in synchronization with the rotation of the mirror unit MU.
  • the reflecting mirror MR is composed of, for example, a MEMS mirror and can be tilted by a minute angle.
  • the four first mirror surfaces M1 have equal inclination angles with respect to the rotation axis RO.
  • the reflecting mirror MR When the received light beam RB is reflected by the first mirror pair, the reflecting mirror MR is maintained at the first angle (solid line), and when the received light beam RB is reflected by the second mirror pair, the reflecting mirror MR is moved to the second mirror pair. Is maintained at the angle (dotted line), the pixel field of the received light beam RB2 reflected by the second angle reflecting mirror MR with respect to the pixel field of the received light beam RB1 reflected by the first angle reflecting mirror MR.
  • the distance PD can be shifted in the Y direction on the light receiving surface PL of the photodiode PD.
  • the reflecting mirror MR is maintained at the third angle, but the second angle is different from the difference between the first angle and the second angle. By increasing the difference from the third angle, the detection area can be shifted (see FIG. 4). Further, when the received light beam RB is reflected by the fourth mirror pair, by maintaining the reflecting mirror MR at the fourth angle, with respect to the pixel field of the received light beam RB1 reflected by the third angle reflecting mirror MR, The pixel field of the received light beam RB2 reflected by the reflecting mirror MR at the fourth angle can be shifted by the distance G in the Y direction on the light receiving surface PL of the photodiode PD.
  • the lens LS may be tilted or displaced in the optical axis direction instead of the reflecting mirror MR as an optical element.
  • Table 1 shows the specifications of the light receiving system of the example.
  • the present invention is not limited to the embodiments and examples described in the specification, and includes other embodiments, examples, and modified examples. It will be apparent to those skilled in the art from the technical idea.
  • the description of the specification and the embodiments / examples are for illustrative purposes only, and the scope of the present invention is indicated by the claims to be described later.
  • all the contents of the present invention described with reference to the drawings can be applied to the embodiments, and can also be applied to a vehicle such as a helicopter or a security sensor that is installed in a building and detects a suspicious person.
  • the semiconductor laser is used as the light source.
  • the present invention is not limited to this, and it goes without saying that an LED or the like may be used as the light source.

Abstract

高分解能を有しながらも検出洩れを抑制できる対象物検出装置を提供する。対象物検出装置において、同一の対象物からの反射光束が入射したときに、N回目の走査における画素視野に対し、M(M≠N)回目の走査における画素視野が第2方向にシフトし、且つ同一の対象物からの反射光束を、N回目の走査及びM回目の走査の少なくとも一方において、受光素子の画素で受光するように反射光束の画素視野をシフトする。

Description

対象物検出装置
 本発明は、遠方の物体を検出することができる光走査型の対象物検出装置に関する。
 近年、例えば自動車や警備ロボットなどの分野において、移動体における衝突防止の目的で移動体が進む範囲にある障害物を精度よく検知したいという要望がますます強くなっている。このような障害物の検知方法として、電波を発信して反射波を検出する電波式レーダーが提案されているが、解像度の観点から遠方の物体の位置を精度良く把握するのは難しいという課題がある。
 これに対し、TOF(Time of Flight)方式を採用した対象物検出装置も既に開発されている。TOF方式とは、パルス発光させたレーザー光が、物体に当たって戻ってくるまでの時間を測ることにより、当該物体までの距離を測定することができるものである。しかるに、TOF方式を採用した対象物検出装置は、遠方の物体にレーザー光を照射した際に発生する微弱な反射光を検知するために、一般的にはAPD(アバランシェ・フォトダイオード)等の増幅率の高い受光素子を使用している。また、検知すべき対象物の解像度を上げるため、反射光を受光する複数の受光素子を配列して高分解能を確保することも行われている。
 特許文献1には、光源からレーザー光を照射し、更に照射されたレーザー光を一次元スキャナーが走査方向に沿って走査し、4つの画素を二次元行列状に配列した光検出部の受光面が、4つの画素のそれぞれについて対象物からの反射光を検出するようになっているレーダー装置が開示されている。
特開2015-78953号公報 特開2015-180956号公報
 ここで、特許文献1のレーダー装置では、光源から出射されたレーザー光は一次元スキャナーにより走査されるのに対し、受光部は走査を行わないため、2次元アレイセンサを用い広い視野を確保して視野分割を行っている。かかる構成によれば、視野分割を行っている為、太陽などの背景光を受けにくい構成になっているが、レンズ面間やフランジ部による迷光がセンサに入ることにより、偽信号やノイズが発生し、誤検知やS/Nの低下が問題になっていた。また、物体の位置を精度良く検出するために、4つの画素それぞれが4つの受光素子を独立して設けているが、配線等を設けるためには受光素子間にある程度のスペースを確保する必要がある。ところが、このスペースに反射光が入射した場合には電気信号を発生することができず、しかもこのスペースは4つの画素において対応した同じ座標位置にあるから、特許文献1のレーダー装置は物体を検出できない非検出ゾーンを本来的に持つこととなり、結果として遠方の物体を精度良く検知することが困難となる。
 一方、特許文献2には、回転軸に対して傾いた第1ミラー面と第2ミラー面を備えた回転するミラーユニットと、前記ミラーユニットを介して、対象物に向けて光束を出射する少なくとも1つの光源を含む投光系と、を有し、前記光源から出射された光束が、前記ミラーユニットの前記第1ミラー面で反射した後、前記第2ミラー面へ向かって進行し、更に前記第2ミラー面で反射され、前記ミラーユニットの回転に応じて前記対象物に対して走査されつつ投光されるようになっているレーダーが開示されている。このようなミラーユニットを用いた場合、投光系から出射された光束が回転する第1ミラー面と第2ミラー面で反射された後に対象物に向かって照射され、ここで反射した後、再び第1ミラー面と第2ミラー面で反射された後に受光系に入射するので、原則的に投光された光の反射光のみが受光系に入射することとなり、外乱光に対する耐性を持ち、高い分解能を有し、更に広い視野を持つというメリットを有する。しかしながら、特許文献2のレーダーにおいては、受光素子の画素間に非検出ゾーンを持つ場合、特許文献1と同様に対象物を検出できない恐れがある。
 本発明は、上記事情に鑑みなされたものであり、高分解能を有しながらも検出洩れを抑制できる対象物検出装置を提供することを目的とする。
 上述した目的のうち少なくとも一つを実現するために、本発明の一側面を反映した対象物検出装置は、
 回転軸に対して傾いた第1ミラー部と第2ミラー部を備えた回転するミラーユニットと、
 光束を出射する光源を含む投光系と、
 対象物からの反射光束を受光する受光素子を含む受光系と、を有する対象物検出装置であって、
 前記光源から出射された出射光束は、前記ミラーユニットの前記第1ミラー部で反射した後、前記第2ミラー部へ向かって進行し、更に前記第2ミラー部で反射され、前記ミラーユニットの回転に応じて前記対象物に対して繰り返し走査されつつ投光され、前記対象物に向かって投光された前記出射光束の反射光束が、前記第2ミラー部で反射し、更に前記第1ミラー部で反射して、前記受光素子に受光されるようになっており、
 対象物検出範囲内における前記出射光束の光軸直交方向断面において、走査方向に対応する方向のサイズは、走査直交方向に対応する方向のサイズより小さくなっており、
 前記反射光束の光軸直交方向断面において、走査方向に対応する方向を第1方向とし、走査直交方向に対応する方向を第2方向としたときに、前記受光素子は、前記反射光束が入射する受光面に前記第2方向に沿って離間して配置された複数の画素を有し、前記画素に応じて前記反射光束内に画素視野が形成され、
 同一の前記対象物からの前記反射光束が入射したときに、N回目の走査における前記画素視野に対し、M(M≠N)回目の走査における前記画素視野は前記第2方向にシフトし、且つ同一の前記対象物からの前記反射光束を、前記N回目の走査及び前記M回目の走査の少なくとも一方において、前記受光素子のいずれかの画素で受光するように、前記反射光束の画素視野をシフトする画素視野シフト装置が設けられているものである。
 本発明によれば、高分解能を有しながらも検出洩れを抑制できる対象物検出装置を提供することができる。
本実施形態にかかる光走査型の対象物検出装置としてのレーザーレーダーを車両に搭載した状態を示す概略図である。 本実施形態にかかるレーザーレーダーLRの断面である。 本実施形態にかかるレーザーレーダーLRの筐体を除く主要部を示す斜視図である。 ミラーユニットMUの回転に応じて、レーザースポット光としての出射光束SB(ハッチングで示す)で、レーザーレーダーLRの検出範囲R内を走査する状態を示す図である。 (a)は、フォトダイオードPDの受光面PLを模式的に示す図である。(b)、(c)は、フォトダイオードPDの受光面に受光する受光光束RBを、X方向から見て模式的に示す図である。 本実施形態におけるミラーユニットMUの回転軸線を通る断面で切断しつつ、レーザーレーダーLRの主要部を示す図である。 (a)は、対象物OBJに出射光束SB1が照射され、(b)は、対象物OBJに出射光束SB2が照射された状態を、それぞれ模式的に示す図である。 フォトダイオードPDと、同一走査角にて入射する受光光束(反射光束ともいう)RB1,RB2との関係を示す模式図である。 別な実施形態にかかるレーザーレーダーLRの主要部を示す図である。
 以下、添付した図面を参照しながら、本発明の実施形態を説明する。図1は、本実施形態にかかる対象物検出装置としてのレーザーレーダーを車両に搭載した状態を示す概略図である。本実施形態のレーザーレーダーLRは、車両1のフロントウィンドウ1aの上端内側に設けられているが、それ以外の車外(フロントグリル1bの背後など)に配置されていても良い。
 図2は、本実施形態にかかるレーザーレーダーLRの断面である。図3は、本実施形態にかかるレーザーレーダーLRの筐体を除く主要部を模式的に示す斜視図であるが、構成要素の形状や長さ等、実際と異なる場合がある。また図3では、出射光束と反射光束は光軸(光束中心)のみ示している。レーザーレーダーLRは、図2に示すように筐体CSの内部に収容されている。筐体CSの側部には、光束を入出射可能な窓部WSが形成されており、窓部WSはガラス、樹脂等の透明板TRで構成されている。
 図2、3に示すように、レーザーレーダーLRは、例えばレーザー光束を出射するパルス式の半導体レーザー(光源)LDと、半導体レーザーLDからの発散光の発散角を狭め、略平行光に変換するコリメートレンズCLと、コリメートレンズCLで略平行とされたレーザー光を、回転するミラー面により対象物OBJ側(図1)に向かって走査投光すると共に、走査投光された対象物OBJからの散乱光を反射させるミラーユニットMUと、ミラーユニットMUで反射された対象物OBJからの散乱光(受光光束)を集光するレンズLSと、レンズLSにより集光された光を受光するフォトダイオード(受光素子)PDとを有する。
 半導体レーザーLDと、コリメートレンズCLとで投光系LPSを構成し、レンズLSと、フォトダイオードPDとで受光系RPSを構成している。投光系LPS及び受光系RPSの光軸は、ミラーユニットMUの回転軸線ROに対して略直交している。
 ミラーユニットMUは、2つの四角錐を逆向きに接合して一体化したごとき形状を有し、すなわち対になって向き合う方向に傾いたミラー面M1、M2を4対有している。尚、4つのミラー面M2を、それぞれ回転方向に順にミラー面M2(1)~M2(4)として区別するが、代表する符号はM2を用いる。本実施形態では、回転軸線ROに対するミラー面M1の傾き角は等しいが、回転軸線ROに対するミラー面M2の傾き角は、それぞれ異なっている。ミラー面M2が画素視野シフト装置を構成する。傾き角の詳細については後述する。
 ミラー面M1、M2は、ミラーユニットの形状に射出成形された樹脂素材(例えばPC)の表面に、反射膜を蒸着することにより形成されていると好ましい。これによりミラー面M1、M2の傾き角を精度良く作り込むことができる。ミラーユニットMUは、モータMTの軸SHに連結され、回転駆動されるようになっている。
 次に、レーザーレーダーLRの対象物検出動作について説明する。図2、3において、半導体レーザーLDからパルス状に間欠的に出射された発散光は、コリメートレンズCLで略平行光束に変換され、回転するミラーユニットMUの第1ミラー面M1に入射し、ここで反射され、更に第2ミラー面M2で反射した後、透明板TRを透過して外部の対象物OBJ側に、例えば縦長の矩形断面(すなわち走査方向に対応する方向のサイズが走査直交方向に対応するサイズより小さい光軸直交方向断面)を持つレーザースポット光として走査投光される。ここで、「N回目の走査」とは、回転順にN番目の対になるミラー面M1,M2の回転方向の一端から他端までの間に入射した略平行光束が反射し、ミラーユニットMUの回転に応じて検出範囲R(図4参照)の水平方向(走査方向)にレーザースポット光が移動することをいう。
 図2、3において、走査投光された光束のうち対象物OBJに当たって散乱された散乱光の一部が、再び透明板TRを透過して筐体CS内のミラーユニットMUの第2ミラー面M2に入射し、ここで反射され、更に第1ミラー面M1で反射された後、レンズLSにより集光されて、フォトダイオードPDの受光面で検知されることとなる。不図示の回路にて、半導体レーザーLDの出射時と、フォトダイオードPDの検出時との時間差を求めることで、対象物OBJまでの距離が分かる。
 ここで、参考例として、ミラー面M2(1)~M2(4)が、回転方向に隣接するミラー面に対して同じ傾き角差を持つミラーユニットについて説明する。図4は、このようなミラーユニットMUの回転に応じて、レーザースポット光としての出射光束SB(ハッチングで示す)で、レーザーレーダーLRの検出範囲R内を走査する状態を示す図である。レーザースポット光は、回転する第1ミラー面M1と第2ミラー面M2にて、順次反射される。まず1番対の第1ミラー面M1と第2ミラー面M2にて反射したレーザースポット光は、ミラーユニットMUの回転に応じて、検出範囲Rの一番上の領域Ln1を水平方向に左から右へと走査される。次に、2番対の第1ミラー面M1と第2ミラー面M2で反射したレーザースポット光は、ミラーユニットMUの回転に応じて、検出範囲Rの上から二番目の領域Ln2を水平方向に左から右へと走査される。次に、3番対の第1ミラー面M1と第2ミラー面M2で反射したレーザースポット光は、ミラーユニットMUの回転に応じて、検出範囲Rの上から三番目の領域Ln3を水平方向に左から右へと走査される。次に、4番対の第1ミラー面M1と第2ミラー面で反射したレーザースポット光は、ミラーユニットMUの回転に応じて、検出範囲Rの最も下の領域Ln4を水平方向に左から右へと走査される。これにより検出範囲R全体の1回の走査が完了する。そして、ミラーユニットMUが1回転した後、1番対の第1ミラー面M1と第2ミラー面M2が戻ってくれば、再び検出範囲Rの一番上の領域Ln1から最も下の領域Ln4までの走査を繰り返す。これにより検出範囲Rの全域を走査することができる。
 ところで、対象物OBJからの散乱光は、例え第2ミラー面M2と第1ミラー面M1の全面でそれぞれ反射したとしても、開口絞りとして機能するレンズLS(ここでは円形とするが、円形に限られない)により絞られるので、最終的にフォトダイオードPDに入射するのはその一部となる。つまり、図2のハッチングで示す散乱光以外の散乱光は、フォトダイオードPDに入射せず受光に用いられないこととなる。更に、フォトダイオードPDの画素は後述するように画素視野を持つので、フォトダイオードPDに入射した光束全てを検出に用いることはできない。この点について説明する。
 図5(a)は、フォトダイオードPDの受光面PLを模式的に示す図である。ここで、レンズLSにより集光される光束を受光光束RBとすると、受光光束RBの光軸直交断面に対して、走査方向に対応する方向をX方向とし、走査直交方向に対応する方向をY方向とする。フォトダイオードPDの受光面PLには、等しい矩形状の画素PXがY方向に沿って等間隔に配置されている。画素PX以外の受光面PLは、光を検出しない不検出部である。画素PXのY方向のサイズSは、不検出部のY方向のサイズG以上であると好ましい。
 図5(b)、(c)は、フォトダイオードPDの受光面に受光する受光光束RBを、X方向から見て模式的に示す図である。上述したように、図5(a)に示すフォトダイオードPDの画素PX以外の受光面PLは、受光光束RBが入射してもこれを検出できない。従って、図5(b)に示すようにX方向から見ると、受光光束RBにおいては、各画素PXに入射することで検出される検出可能光RBp(ハッチング)と、画素PX間の不検出部に入射することで検出されない検出不能光RBi(白抜き)が生じることとなる。ここで、1つの画素PXでカバー(検出)する検出可能光RBpの範囲を「画素視野」といい、フォトダイオードPD全体でカバーする検出可能光RBpの範囲を「素子視野」という。すなわち、検出不能光RBiは画素視野外に入射する光である。尚、出射光束SBは素子視野全体を含む範囲に出射される。対象物OBJからの反射光がこの検出不能光RBiの範囲内に含まれると、検出洩れを生じる恐れがある。これに対し、画素PX間の距離を極力詰めることで検出洩れをある程度回避できるが、それに伴いフォトダイオードPDのコストが増大することとなる。そこで、本実施形態では以下のようにして、フォトダイオードPDの低コストを確保しつつ検出洩れを回避している。
 本実施形態では、4対のミラー面M1,M2を用いている。ここで、2対のミラー面M1,M2を組み合わせて用いることで、お互いに補完し合い、検出不能光をなくすことができる。より具体的には、図5(b)に示すごとく、回転方向に先行する対のミラー面M1,M2を介する反射光束RBの画素視野に対して、図5(c)に示すごとく、回転方向に後行する別の対のミラー面M1,M2を介する反射光束RBの画素視野を、例えば画素PXの間隔分だけY方向にシフトさせれば良い。これにより、ある走査において画素視野外に含まれる検出不能光RBiを、次の走査においては画素視野内として検出することができる。
 図6は、本実施形態におけるミラーユニットMUの回転軸線を通る断面で切断しつつ、レーザーレーダーLRの主要部を示す図であるが、ミラー面の傾き等誇張して示している。実線で示す第2ミラー面M2(1)は、点線で示す第2ミラー面M2(2)と回転軸線ROに対する傾き角が所定量だけ異なっている。
 投光系LPSから出射された出射光束SBは、回転するミラーユニットMUの第1ミラー面M1が正対する位置で、ここに入射して反射され、更に第2ミラー面M2(1)で反射した後、対象物OBJ側に出射光束SB1として走査投光される。更に対象物OBJからの反射光束RB1は、ミラーユニットMUの第2ミラー面M2(1)に入射し、ここで反射され、更に第1ミラー面M1で反射された後、受光系RPSで受光される。
 一方、ミラーユニットMUが90度回転すると、投光系LPSから出射された出射光束SBは、回転するミラーユニットMUの第1ミラー面M1が正対する位置で、ここに入射して反射され、更に第2ミラー面M2(2)で反射した後、対象物OBJ側に出射光束SB2として走査投光される。更に対象物OBJからの反射光束RB2は、ミラーユニットMUの第2ミラー面M2(2)に入射し、ここで反射され、更に第1ミラー面M1で反射された後、受光系RPSで受光される。
 第2ミラー面M2(1)から反射した出射光束SB1は、第2ミラー面M2(2)から反射した出射光束SB2とは副走査角γが異なっている。これに応じて、受光光束RB1,RB2も第2ミラー面M2(1)、M2(2)への入射角が異なり、更に、それぞれ第1ミラー面M1で反射する。出射光束の副走査角が異なるため、以下のような効果が生じる。
 図7(a)は、対象物OBJに出射光束SB1が照射され、図7(b)は、対象物OBJに出射光束SB2が照射された状態を、それぞれ模式的に示す図である。ここで、人物としての対象物OBJから反射した反射光束のうち画素視野内(ハッチングで示す)のものをRBpとし、画素視野外(白抜きで示す)のものをRBiとする。反射光束における画素視野外の相対位置は一定である。図7(a)に示すように、出射光束SB1の反射光束において、対象物OBJの目EYは画素視野外RBiに含まれるから、反射光束内であっても受光素子の画素で検出されないが、口MSは画素視野RBp内であるからいずれかの画素で検出される。
 一方、出射光束SB1に対して副走査角γ分だけ傾いて出射された出射光束SB2の反射光束において、図7(b)に示すように、対象物OBJの口MSは画素視野外RBiに含まれてしまうが、その代わりに目EYが画素視野RBp内に入るからいずれかの画素で検出されることになる。つまり、図6において、受光光束RB1,RB2が入射するフォトダイオードPDの受光面PLの位置は同じであるが、それぞれ画素視野は回転軸線ROに沿った方向(走査直交方向)にシフトするようになる(図7(a)、(b)参照))。従って、回転軸線ROに対して第2ミラー面M2(1)、M2(2)の傾き角に所定の差を与えることで、フォトダイオードPDの受光面PLに入射する受光光束RB1,RB2の画素視野に、副走査角γ分に応じて画素間隔分のシフトΔ(図7(b)参照)を与えることができるのである。尚、以上の実施形態では、第2ミラー面M2に傾き角差を与えているが、その代わりに第1ミラー面M1に傾き角差を与えても良いし、対毎に第1ミラー面M1及び第2ミラー面M2のそれぞれに所定の傾き角差を与えても同様の効果を得られる。
 図8は、受光光束(反射光束ともいう)における1回目の走査における画素視野と、2回目の走査における画素視野とを示す模式図である。実線で示す1回目の走査における画素視野は、Y方向に等間隔で離間した第11画素視野PF11と、第12画素視野PF12と、第13画素視野PF13、・・・を有する。一方、点線で示す2回目の走査における画素視野は、Y方向に等間隔で離間した第21画素視野PF21と、第22画素視野PF22と、第23画素視野PF23、・・・を有する。
 図8に示すように、1回目の走査における画素視野と2回目の走査における画素視野とが、Y方向に相対的にシフトしている。具体的には、第11画素視野PF11と第12画素視野PF12との間の中間点に、第21画素視野PF21の中心が合致するように、また第12画素視野PF12と第13画素視野PF13との間の中間点に、第22画素視野PF22の中心が合致するようになっており、説明を省略するが,その他同様である。但し、第11画素視野PF11と第12画素視野PF12との双方に、第21画素視野PF21が跨がる必要はなく、いずれか一方のみに重なっていれば良い。好ましくは、第11画素視野PF11と第12画素視野PF12との間のギャップを完全に埋めるように、第21画素視野PF21(又はいずれかの画素視野)が重なるようにすれば足りる。その他も同様である。
 ここで、1回目の走査における第11画素視野PF11と第12画素視野PF12との間の不検出部に、対象物からの反射光BMが存在した場合、1回目の走査では、反射光BMが画素視野外となるから、いずれの画素PXでも検出できないこととなる。しかしながら2回目の走査では、同一の対象物からの反射光BMは、第21画素視野PF21内に存在するため、その検出が可能となり検出洩れを抑制できる。又、複数の画素視野に跨がる反射光は、それに応じて対象物の大きさを推定できるが、1回目の走査と2回目の走査のいずれかで反射光を検出する場合、その対象物の反射光(例えば図8のBM)が、画素視野間のギャップ以下の大きさであることがわかるから、対象物までの距離に基づいて対象物の実際の大きさを推定でき、従って第21画素視野PF21のサイズ未満の分解能を得られる。
 ミラー面M2(3)とミラー面M2(4)との間にも同様な関係がある。以上の実施形態によれば、ミラーユニットMUの2対のミラー面M1,M2により、検出範囲R(図4参照)の上半分(領域Ln1,Ln2に対応)を走査し、別の2対のミラー面M1,M2により、検出範囲R(図4参照)の下半分(領域Ln3,Ln4に対応)を走査することとなるが、これに応じて投光系LPS,受光系RPSの仕様を設計することで対応可能である。但し、例えばミラーユニットMUを八角形とすることで、検出範囲Rを4領域に分けて走査することもできる。
 又、1回目の走査で用いたミラー対で反射した受光光束と、3回目の走査で用いたミラー対で反射した受光光束とを対応づけ、2回目の走査で用いたミラー対で反射した受光光束と、4回目の走査で用いたミラー対で反射した受光光束とを対応づけて、対象物の検出を行っても良い。一般的には、N回目の走査で用いたミラー対で反射した受光光束と、M(M≠N)回目の走査で用いたミラー対で反射した受光光束とを任意に対応づけて用いることができる。
 Y方向に沿って等間隔に配置された各画素PXのサイズをSとし、レンズLSの焦点距離をfとしたときに、N回目の走査で用いる第1ミラー面M1(N)と第2ミラー面M2(N)のミラー対と、M回目の走査で用いる第1ミラー面M1(M)と第2ミラー面M2(M)のミラー対とにおいて、ミラーユニットMUの回転軸線ROを基準として、第1ミラー面M1(N)と第1ミラー面M1(M)との角度差、又は第2ミラー面M2(N)と第2ミラー面M2(M)との角度差をΔθとすると、偏角の過不足を防ぎ、不検出部による検出洩れを効果的に抑制できる。より具体的には、(1)式の値が、ギャップの視野角を表す式に相当する下限値以上であれば、この値分、画素視野をシフトさせることで複数の走査間で画素視野を重ねることが可能になる。又、Δθは2面角の角度差になり、2面角の角度差は出射角差に対し1/2になる。一方、(1)式の値が、センサの視野角を表す式に相当する上限値以下であれば、この値分までに画素視野のシフトを抑えることで、画素視野がシフトしすぎることによる視野抜けを防げる。
 atan(G/f)≦2Δθ≦atan(S/f)   (1)
 以上の実施形態では、受光光束RB1の画素視野に対して受光光束RB2の画素視野を、フォトダイオードPDの受光面PL上でY方向に距離Gだけシフトさせているが、これに限られない。
 図9は、別な実施形態にかかるレーザーレーダーLRの主要部を示す図であるが、投光系は省略している。本実施形態においては、受光系RPSと第1ミラー面M1との間に、画素視野シフト装置としての反射鏡MRを配置している。例えば反射鏡MRは、ミラーユニットMUの回転に同期して、図9において回転軸線ROに直交する方向に延在する枢軸PV回りに傾動可能となっている。反射鏡MRは、例えばMEMSミラーなどからなり、微小角度だけ傾動が可能となっている。本実施形態では、4つの第1ミラー面M1は回転軸線ROに対する傾き角が等しくなっている。
 受光光束RBが1番目のミラー対で反射したとき、反射鏡MRを第1の角度(実線)に維持し、更に受光光束RBが2番目のミラー対で反射したとき、反射鏡MRを第2の角度(点線)に維持することで、第1の角度の反射鏡MRで反射した受光光束RB1の画素視野に対して、第2の角度の反射鏡MRで反射した受光光束RB2の画素視野を、フォトダイオードPDの受光面PL上でY方向に距離Gだけシフトさせることができる。
 更に、受光光束RBが3番目のミラー対で反射したとき、反射鏡MRを第3の角度に維持するが、第1の角度と第2の角度との差に対して、第2の角度と第3の角度との差を大きくすることで、検出領域をずらすことができる(図4参照)。更に受光光束RBが4番目のミラー対で反射したとき、反射鏡MRを第4の角度に維持することで、第3の角度の反射鏡MRで反射した受光光束RB1の画素視野に対して、第4の角度の反射鏡MRで反射した受光光束RB2の画素視野を、フォトダイオードPDの受光面PL上でY方向に距離Gだけシフトさせることができる。これにより,上述した実施形態と同様な効果を得られる。それ以外の構成は、上述した実施形態と同様である。尚、光学素子としての反射鏡MRの代わりに、レンズLSを傾けたり,光軸方向に変位させても良い。
 以下、本発明に好適な実施例について説明する。表1に、実施例の受光系の仕様を示す。
Figure JPOXMLDOC01-appb-T000001
 図6を参照して、ミラーユニットMUにおいて回転軸線ROに直交する面に対して、第1ミラー面M1の傾き角をθ1とし、第2ミラー面M2の傾き角をθ2としたときに、各ミラー対により得られる反射光束RBの副走査角γ(但し、図6にて時計回りを正とする)を求めた。その結果を表2に示す。
Figure JPOXMLDOC01-appb-T000002
 本発明は、明細書に記載の実施形態や実施例に限定されるものではなく、他の実施形態・実施例・変形例を含むことは、本明細書に記載された実施形態や実施例や技術思想から本分野の当業者にとって明らかである。明細書の記載及び実施形態・実施例は、あくまでも例証を目的としており、本発明の範囲は後述するクレームによって示されている。例えば、図面を用いて説明した本発明の内容は、全て実施形態に適用でき、ヘリコプターなどの飛行体への搭載や、建物に設置して不審者を検知する防犯センサなどにも適用できる。また、上述の実施形態では、光源として半導体レーザーを用いたもので説明したが、これに限るものでなく、光源にLED等を用いたものであってもよいのは言うまでもない。
1        車両
1a       フロントウィンドウ
1b       フロントグリル
CL       コリメートレンズ
CS       筐体
LD       半導体レーザー
Ln1~Ln4  領域
LPS      投光系
LR       レーザーレーダー
LS       レンズ
M1       第1ミラー面
M2       第2ミラー面
MR       反射鏡
MT       モータ
MU       ミラーユニット
OBJ      対象物
PD       フォトダイオード
PL       受光面
PX       画素
R        検出範囲
RB、RB1,RB2  受光光束
RBp      検出可能光
RBi      検出不能光
RO       回転軸
RPS      受光系
SB、SB1,SB2  出射光束
SH       軸
TR       透明板
WS       窓部

Claims (6)

  1.  回転軸に対して傾いた第1ミラー部と第2ミラー部を備えた回転するミラーユニットと、
     光束を出射する光源を含む投光系と、
     対象物からの反射光束を受光する受光素子を含む受光系と、を有する対象物検出装置であって、
     前記光源から出射された出射光束は、前記ミラーユニットの前記第1ミラー部で反射した後、前記第2ミラー部へ向かって進行し、更に前記第2ミラー部で反射され、前記ミラーユニットの回転に応じて前記対象物に対して繰り返し走査されつつ投光され、前記対象物に向かって投光された前記出射光束の反射光束が、前記第2ミラー部で反射し、更に前記第1ミラー部で反射して、前記受光素子に受光されるようになっており、
     対象物検出範囲内における前記出射光束の光軸直交方向断面において、走査方向に対応する方向のサイズは、走査直交方向に対応する方向のサイズより小さくなっており、
     前記反射光束の光軸直交方向断面において、走査方向に対応する方向を第1方向とし、走査直交方向に対応する方向を第2方向としたときに、前記受光素子は、前記反射光束が入射する受光面に前記第2方向に沿って離間して配置された複数の画素を有し、前記画素に応じて前記反射光束内に画素視野が形成され、
     同一の前記対象物からの前記反射光束が入射したときに、N回目の走査における前記画素視野に対し、M(M≠N)回目の走査における前記画素視野が前記第2方向にシフトし、且つ同一の前記対象物からの前記反射光束を、前記N回目の走査及び前記M回目の走査の少なくとも一方において、前記受光素子のいずれかの画素で受光するように、前記反射光束の画素視野をシフトする画素視野シフト装置が設けられている対象物検出装置。
  2.  前記第1ミラー部は、前記回転軸の周囲に配置された複数の第1ミラー面を有し、前記第2ミラー部は、前記回転軸の周囲に配置された複数の第2ミラー面を有し、前記画素視野シフト装置は、前記第1ミラー面と前記第2ミラー面を含み、N回目の走査で用いる前記第1ミラー面M1(N)と前記第2ミラー面M2(N)との組み合わせ、及びM回目の走査で用いる前記第1ミラー面M1(M)と前記第2ミラー面M2(M)との組み合わせにおいて、前記ミラーユニットの回転軸線を基準として、前記第1ミラー面M1(N)と前記第2ミラー面M2(N)との組み合わせの面角度と、前記第1ミラー面M1(M)と前記第2ミラー面M2(M)との組み合わせの面角度とを異ならせている請求項1に記載の対象物検出装置。
  3.  前記画素は前記第2方向に沿って等間隔で配置されており、前記受光素子の受光面上において、前記第2方向において隣接する前記画素間の距離をGとし,前記第2方向における前記画素のサイズをSとし、
     前記ミラーユニットの回転軸線を基準として、前記第1ミラー面M1(N)と前記第2ミラー面M2(N)による組み合わせの面角度と、前記第1ミラー面M1(M)と前記第2ミラー面M2(M)による組み合わせの面角度の差をΔθとすると、以下の式を満たす請求項2に記載の対象物検出装置。
     atan(G/f)≦2Δθ≦atan(S/f)   (1)
    但し、fは、前記反射光束を前記受光素子に結像させる前記受光系のレンズの焦点距離である。
  4.  前記画素視野シフト装置は、前記受光系の光路内に配置され、前記ミラーユニットの回転に同期して前記反射光束の向きを変更する光学素子を有する請求項1~3のいずれかに記載の対象物検出装置。
  5.  前記第2方向における前記画素のサイズSは、前記第2方向において隣接する前記画素間の距離G以上である請求項1~4のいずれかに記載の対象物検出装置。
  6.  前記N回目の走査における前記反射光束内に前記第2方向に離間して配置された第11画素視野と第12画素視野とが形成され、前記M回目の走査における前記反射光束内に前記第2方向に離間して配置された第21画素視野と第22画素視野とが形成されたとき、前記第2方向において、前記第21画素視野の一部は、前記第11画素視野及び前記第12画素視野の少なくとも一方に対して重なっており、前記第22画素視野の一部は、前記第11画素視野及び前記第12画素視野の少なくとも一方に対して重なっている請求項1~5のいずれかに記載の対象物検出装置。
PCT/JP2017/000392 2016-01-21 2017-01-10 対象物検出装置 WO2017126356A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016009515 2016-01-21
JP2016-009515 2016-01-21

Publications (1)

Publication Number Publication Date
WO2017126356A1 true WO2017126356A1 (ja) 2017-07-27

Family

ID=59361752

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/000392 WO2017126356A1 (ja) 2016-01-21 2017-01-10 対象物検出装置

Country Status (1)

Country Link
WO (1) WO2017126356A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01235915A (ja) * 1988-03-16 1989-09-20 Fujitsu Ltd 撮像装置
JPH04144377A (ja) * 1990-10-04 1992-05-18 Nec Corp 撮像装置
JP2015180956A (ja) * 2013-04-11 2015-10-15 コニカミノルタ株式会社 走査光学系及びレーダー

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01235915A (ja) * 1988-03-16 1989-09-20 Fujitsu Ltd 撮像装置
JPH04144377A (ja) * 1990-10-04 1992-05-18 Nec Corp 撮像装置
JP2015180956A (ja) * 2013-04-11 2015-10-15 コニカミノルタ株式会社 走査光学系及びレーダー

Similar Documents

Publication Publication Date Title
US10989794B2 (en) Scanning optical system and radar
US10782392B2 (en) Scanning optical system and light projecting and receiving apparatus
WO2017183530A1 (ja) 対象物検出装置
US10649071B2 (en) Scanning optical system and radar
JP6618042B2 (ja) 投受光装置
EP3396403A1 (en) Light projection/reception unit, and radar
WO2017135224A1 (ja) 光走査型の対象物検出装置
WO2017135225A1 (ja) 光走査型の対象物検出装置
JP2017110964A (ja) 光波距離測定装置
EP3206073B1 (en) Scanning optical system and radar
EP3364229B1 (en) Optical-scanning-type object detection device
JP6676974B2 (ja) 対象物検出装置
WO2017126356A1 (ja) 対象物検出装置
US10605917B2 (en) Optical-scanning-type object detection device having a mirror surface to be inclined in a direction crossing a rotation axis
JP2021012071A (ja) 光走査装置、物体検出装置及びセンシング装置
JP2023020552A (ja) 測量装置
WO2016059948A1 (ja) 走査光学装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17741236

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17741236

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP