JP2024004276A - object detection device - Google Patents

object detection device Download PDF

Info

Publication number
JP2024004276A
JP2024004276A JP2022103865A JP2022103865A JP2024004276A JP 2024004276 A JP2024004276 A JP 2024004276A JP 2022103865 A JP2022103865 A JP 2022103865A JP 2022103865 A JP2022103865 A JP 2022103865A JP 2024004276 A JP2024004276 A JP 2024004276A
Authority
JP
Japan
Prior art keywords
light
light emission
mode
detection device
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022103865A
Other languages
Japanese (ja)
Inventor
優 前田
Masaru Maeda
俊也 熊野
Toshiya Kumano
康介 新村
Kosuke Niimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2022103865A priority Critical patent/JP2024004276A/en
Publication of JP2024004276A publication Critical patent/JP2024004276A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an object detection device capable of detecting a low-reflection object.
SOLUTION: An object detection device 1 detects an object in a measurement area MA. The object detection device 1 includes: a light-emitting section 10 that is a light-emitting section for emitting a light projection beam to the measurement area MA and is configured to be able to change a light emission mode of the light projection beam between a reference mode and a high accuracy mode in which object detection accuracy can be enhanced more than the reference mode; a light-receiving section 30 that receives a reflected beam obtained by reflecting the light projection beam on the object and outputs an electric signal corresponding to the light reception; and a light emission control section 52 that, to detect an object in a weak signal area in which a weak signal having intensity equal to or less than a preset threshold echo_th is detected as an electric signal, sets a light emission mode of light source light projected to at least the weak signal area of the measurement area MA to the high accuracy mode.
SELECTED DRAWING: Figure 7
COPYRIGHT: (C)2024,JPO&INPIT

Description

この明細書による開示は、物体を検出する技術に関する。 The disclosure herein relates to techniques for detecting objects.

特許文献1には、環境センサによって取得された環境情報に従って、発光部、受光部、及びフィルタの配置を連動させて制御することが開示されている。発光部は、測定領域へ向けて光源光を発光する。受光部は、光源光が測定領域の物体に反射されることによる反射光を受光する。フィルタは、受光部に入射する光をフィルタリングする。具体的に、それぞれ異なる波長域の光源光を発光可能な複数の光源のうち発光される光源は、環境センサとしての温度センサが測定した温度に従って、選択される。 Patent Document 1 discloses that the arrangement of a light emitting section, a light receiving section, and a filter are controlled in conjunction with each other according to environmental information acquired by an environmental sensor. The light emitting section emits light source light toward the measurement area. The light receiving section receives reflected light caused by the light source light being reflected by an object in the measurement area. The filter filters the light that enters the light receiving section. Specifically, the light source that emits light from among the plurality of light sources capable of emitting light source light in different wavelength ranges is selected according to the temperature measured by a temperature sensor serving as an environmental sensor.

特開2019-78748号公報JP2019-78748A

さて、測定領域には、あらゆる波長域に対して反射率が低い物体(例えば黒い物体)が存在し得る。特許文献1の波長域の異なる光源を選択する技術では、こうした低反射物体に対しては高い反射率を得られないため、物体を検出することは困難である。 Now, an object (for example, a black object) having a low reflectance for all wavelength ranges may exist in the measurement region. The technique disclosed in Patent Document 1, which selects light sources with different wavelength ranges, cannot obtain high reflectance for such low-reflection objects, so it is difficult to detect the objects.

この明細書の開示による目的のひとつは、低反射物体を検出可能な物体検出装置を提供することにある。 One of the objects of the disclosure of this specification is to provide an object detection device capable of detecting low reflection objects.

本開示の物体検出装置のひとつは、測定領域(MA)の物体を検出する物体検出装置であって、
測定領域へ向けて光源光を発光する発光部であって、光源光の発光態様を、基準態様と、基準態様よりも物体検出精度を高めることができる高精度態様との間で変更可能に構成された発光部(10)と、
光源光が物体に反射されることによる反射光を受光し、受光に応じた電気信号を出力する受光部(30)と、
電気信号として、予め設定された閾値信号強度以下の強度をもつ弱信号が検出された弱信号領域の物体を検出するために、測定領域のうち少なくとも弱信号領域へ向けて投光される光源光の発光態様を、高精度態様に設定する発光制御部(52)と、を備える。
One of the object detection devices of the present disclosure is an object detection device that detects an object in a measurement area (MA),
A light emitting unit that emits light source light toward a measurement area, and is configured such that the emission mode of the light source light can be changed between a reference mode and a high precision mode that can improve object detection accuracy more than the reference mode. a light emitting part (10),
a light receiving unit (30) that receives reflected light caused by the light source light being reflected by an object and outputs an electrical signal in accordance with the received light;
Light source light that is projected toward at least the weak signal region of the measurement region in order to detect objects in the weak signal region where a weak signal with an intensity equal to or lower than a preset threshold signal strength is detected as an electrical signal. and a light emission control unit (52) that sets the light emission mode to a high precision mode.

このような構成によると、測定領域のうち弱信号領域へ向けて高精度態様で光源光が発光される。低反射物体の存在可能性がある弱信号領域での物体検出精度を高めることにより、低反射物体が検出可能となる。 According to such a configuration, the light source light is emitted toward the weak signal region of the measurement region in a highly accurate manner. By increasing object detection accuracy in weak signal areas where there is a possibility that low-reflection objects exist, low-reflection objects can be detected.

また、本開示の物体検出装置の他のひとつは、測定領域(MA)の物体を検出する物体検出装置であって、
測定領域へ向けて光源光を発光する発光部であって、光源光の発光態様を、基準態様と、基準態様よりも物体検出精度を高めることができる高精度態様との間で変更可能に構成された発光部(10)と、
光源光が測定領域の物体に反射されることによる反射光を受光し、受光に応じた電気信号を出力する受光部(30)と、
測定領域を撮影する撮像装置(90)からの撮影画像の情報を取得し、情報から発光部及び受光部にとって物体の検出が苦手である苦手領域を特定する撮影画像情報取得部(54)と、
苦手領域へ向けて投光される光源光の発光態様を、高精度態様に設定する発光制御部(52)と、を備える。
Another object detection device of the present disclosure is an object detection device that detects an object in a measurement area (MA),
A light emitting unit that emits light source light toward a measurement area, and is configured such that the emission mode of the light source light can be changed between a reference mode and a high precision mode that can improve object detection accuracy more than the reference mode. a light emitting part (10),
a light receiving unit (30) that receives reflected light caused by the light source light being reflected by an object in the measurement area, and outputs an electrical signal in accordance with the received light;
a photographed image information acquisition unit (54) that acquires information on a photographed image from an imaging device (90) that photographs the measurement area, and identifies from the information a weak area in which the light emitting unit and the light receiving unit are weak in detecting objects;
It includes a light emission control unit (52) that sets the light emission mode of the light source light projected toward the weak area to a high precision mode.

このような構成によると、撮像装置からの撮影画像を用いて、発光部及び受光部にとって物体の検出が苦手である苦手領域を特定した上で、当該苦手領域のへ向けて高精度態様で光源光が発光される。苦手領域において、低反射物体が存在していたとしても、当該苦手領域での物体検出精度を高めることにより、低反射物体が検出可能となる。 According to such a configuration, a weak area in which the light emitting unit and the light receiving unit are weak in detecting an object is identified using an image taken by the imaging device, and then a light source is directed toward the weak area in a highly accurate manner. Light is emitted. Even if a low-reflection object exists in a weak area, the low-reflection object can be detected by increasing object detection accuracy in the weak area.

なお、括弧内の符号は、後述する実施形態の部分との対応関係を例示的に示すものであって、技術的範囲を限定することを意図するものではない。 Note that the symbols in parentheses exemplarily indicate correspondence with parts of the embodiment described later, and are not intended to limit the technical scope.

物体検出装置の概略的構成を示す構成図。FIG. 1 is a configuration diagram showing a schematic configuration of an object detection device. 投光ビームの走査を説明する図。FIG. 3 is a diagram illustrating scanning of a projection beam. 制御部の機能を説明する構成図。FIG. 3 is a configuration diagram illustrating the functions of a control unit. ヒストグラム波形を説明する図。A diagram explaining a histogram waveform. 低反射物体の例を示す図。A diagram showing an example of a low reflection object. 低反射物体の例を示す図。A diagram showing an example of a low reflection object. 物体の検出方法の例を示すフローチャート。A flowchart showing an example of an object detection method. 制御部の機能を説明する構成図。FIG. 3 is a configuration diagram illustrating the functions of a control unit. 物体の検出方法の例を示すフローチャート。A flowchart showing an example of an object detection method. 物体の検出方法の例を示すフローチャート。A flowchart showing an example of an object detection method. 生波形の合成を説明する図。A diagram illustrating synthesis of raw waveforms. 物体の検出方法の例を示すフローチャート。A flowchart showing an example of an object detection method. 物体の検出方法の例を示すフローチャート。A flowchart showing an example of an object detection method. 物体の検出方法の例を示すフローチャート。A flowchart showing an example of an object detection method.

以下、複数の実施形態を図面に基づいて説明する。なお、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。 Hereinafter, a plurality of embodiments will be described based on the drawings. Note that redundant explanation may be omitted by assigning the same reference numerals to corresponding components in each embodiment. When only a part of the configuration is described in each embodiment, the configuration of the other embodiments previously described can be applied to other parts of the configuration. Furthermore, in addition to the combinations of configurations specified in the description of each embodiment, it is also possible to partially combine the configurations of multiple embodiments even if the combinations are not explicitly stated. .

(第1実施形態)
図1に示すように、本開示の第1実施形態による物体検出装置1は、移動体としての車両に搭載され、車両の周辺の物体を検出する。物体検出装置1は、ライダ(LiDAR,Light Detection and Ranging/Laser imaging Detection and Ranging)2及び画像処理ユニット3を含む構成である。物体検出装置1は、ライダユニットと称されてもよい。なお、以下の説明において、前、後、上、下、左及び右が示す各方向は、水平面上の車両を基準として定義される。
(First embodiment)
As shown in FIG. 1, an object detection device 1 according to a first embodiment of the present disclosure is mounted on a vehicle as a moving body, and detects objects around the vehicle. The object detection device 1 includes a lidar (LiDAR, Light Detection and Ranging/Laser imaging Detection and Ranging) 2 and an image processing unit 3. The object detection device 1 may be called a lidar unit. Note that in the following description, each direction indicated by front, rear, top, bottom, left, and right is defined with respect to the vehicle on a horizontal plane.

ライダ2は、光源11a~11dから光を投光し、測定対象物である物体からの反射光を検出する光検出装置である。ライダ2は、発光部10、走査部20、受光部30及びコントローラ40を含む構成である。 The lidar 2 is a light detection device that projects light from light sources 11a to 11d and detects reflected light from an object to be measured. The lidar 2 includes a light emitting section 10, a scanning section 20, a light receiving section 30, and a controller 40.

発光部10は、測定領域MAへ向けて投光ビームを発光する。発光部10は、例えば光源アレイ11及び投光光学系12を含む構成である。光源アレイ11は、図2に示すように、複数の光源11a~dを例えば上下方向に沿って配列して形成されている。光源11a~dの数は任意の数であってよい。各光源11a~dは、例えばレーザダイオード(LD,Laser Diode)等のレーザ発振素子であってよい。各光源11a~dは、LEDであってもよい。各光源11a~dは、コントローラ40からの電気信号に応じた発光タイミングにて、発光可能である。 The light emitting unit 10 emits a projection beam toward the measurement area MA. The light emitting unit 10 has a configuration including, for example, a light source array 11 and a light projection optical system 12. As shown in FIG. 2, the light source array 11 is formed by arranging a plurality of light sources 11a to 11d, for example, along the vertical direction. The number of light sources 11a-d may be arbitrary. Each of the light sources 11a to 11d may be a laser oscillation element such as a laser diode (LD), for example. Each light source 11a-d may be an LED. Each of the light sources 11a to 11d is capable of emitting light at a light emission timing according to an electric signal from the controller 40.

投光光学系12は、光源11a~dから発光された光を集光し、測定領域MAへ向けてビーム状の投光ビームを投光する。投光光学系12は、1つ又は複数のレンズを含む構成である。 The light projection optical system 12 collects the light emitted from the light sources 11a to 11d, and projects a beam-shaped projection beam toward the measurement area MA. The projection optical system 12 includes one or more lenses.

走査部20は、図2に示すように、発光部10からの投光ビームを測定領域MAの範囲内で走査する。走査部20は、走査ミラー21を含む構成である。走査ミラー21は、駆動モータ及び反射体を含む構成である。駆動モータは、例えばボイスコイルモータ、ブラシ付きDCモータ、ステッピングモータ等である。駆動モータは、コントローラ40からの電気信号に応じた回転量及び回転速度にて、反射体の回転軸を駆動する。反射体は、投光ビームを測定領域MAへ向けて反射する反射面を有するミラーである。反射面は、例えば平面状に形成されている。 As shown in FIG. 2, the scanning unit 20 scans the projected beam from the light emitting unit 10 within the measurement area MA. The scanning unit 20 has a configuration including a scanning mirror 21. The scanning mirror 21 includes a drive motor and a reflector. The drive motor is, for example, a voice coil motor, a brushed DC motor, a stepping motor, or the like. The drive motor drives the rotation shaft of the reflector at a rotation amount and rotation speed according to an electric signal from the controller 40. The reflector is a mirror having a reflective surface that reflects the projected beam toward the measurement area MA. The reflective surface is, for example, formed in a planar shape.

特に本実施形態において、反射体は、回転軸方向に沿った長手方向寸法を有する細長く伸びた形状を有する。これにより、反射体が発光部10の投光光学系12及び受光部30の受光光学系31の両方に対向する。故に反射体は、投光ビームだけでなく、投光ビームが測定領域MAの物体から反射された反射ビームも同時に反射して受光部30へ入射させることが可能となっている。 In particular, in this embodiment, the reflector has an elongated shape with a longitudinal dimension along the rotation axis direction. Thereby, the reflector faces both the light projecting optical system 12 of the light emitting section 10 and the light receiving optical system 31 of the light receiving section 30. Therefore, the reflector is capable of simultaneously reflecting not only the projected beam but also the reflected beam that is the projected beam reflected from the object in the measurement area MA, and allows the reflected beam to enter the light receiving section 30.

受光部30は、受光光学系31、受光素子32及びデコーダ33を含む構成である。受光光学系31は、走査部20の反射体によって反射された反射ビームを集光し、受光素子32に入射させる。受光光学系31は、1つ又は複数のレンズを含む構成である。 The light receiving section 30 includes a light receiving optical system 31, a light receiving element 32, and a decoder 33. The light-receiving optical system 31 collects the reflected beam reflected by the reflector of the scanning unit 20 and makes it enter the light-receiving element 32 . The light receiving optical system 31 includes one or more lenses.

受光素子32は、受光光学系31からの光を受光する。受光素子32は、例えば単一光子アバランシェフォトダイオード(SPAD、Single Photon Avalanche Diode)センサである。受光素子32は、複数のSPADを、長方形状の検出面上に高度に集積化された状態で、2次元配列して形成されている。 The light receiving element 32 receives light from the light receiving optical system 31. The light receiving element 32 is, for example, a single photon avalanche photodiode (SPAD) sensor. The light receiving element 32 is formed by two-dimensionally arranging a plurality of SPADs in a highly integrated state on a rectangular detection surface.

SPADは、1つの光子を受光すると、アバランシェ倍増による電子倍増動作(いわゆるガイガーモード)により、1つの電気パルスを生成する。すなわち、SPADは、アナログ進行からデジタル信号へのAD変換回路を介さずに、換言すると直接的に、デジタル信号としての電気パルスを発生させることができる。したがって、受光結果は高速に読み出し可能である。 When SPAD receives one photon, it generates one electric pulse by electron doubling operation by avalanche doubling (so-called Geiger mode). That is, the SPAD can directly generate electric pulses as digital signals without going through an AD conversion circuit that converts analog signals into digital signals. Therefore, the light reception results can be read out at high speed.

デコーダ33は、SPADが生成した電気パルスを出力するために設けられ、選択回路及びクロック発振器を含む構成である。選択回路は、電気パルスを取り出す対象となるSPADを、順次選択していく。選択されたSPADは、電気パルスをコントローラ40へ出力する。選択回路がSPADを1回ずつ選択し終えると、1回のサンプリングが終了する。このサンプリング周期は、クロック回路から出力されるクロック周波数に応じたものとなる。 The decoder 33 is provided to output the electric pulses generated by the SPAD, and includes a selection circuit and a clock oscillator. The selection circuit sequentially selects SPADs from which electric pulses are to be extracted. The selected SPAD outputs electrical pulses to controller 40. When the selection circuit finishes selecting SPADs one by one, one round of sampling ends. This sampling period corresponds to the clock frequency output from the clock circuit.

なお、発光部10から投光ビームが投光されないタイミング、すなわち無発光時においては、受光部30は、反射体の角度に応じた方向からの外乱光を受光して検出することが可能である。さらに、外乱光が受光素子32上に結像されることにより、測定領域MAの物体を捕捉することも可能である。ここでいう外乱光は、背景光とも称される。 Note that at the timing when the light emitting unit 10 does not emit a light beam, that is, when no light is emitted, the light receiving unit 30 can receive and detect disturbance light from a direction according to the angle of the reflector. . Furthermore, by forming an image of the disturbance light on the light receiving element 32, it is also possible to capture an object in the measurement area MA. The disturbance light referred to here is also referred to as background light.

コントローラ40は、ライダ2の動作を制御する。具体的に、コントローラ40は、発光部10における各光源11a~dの発光と、走査部20における走査ミラー21の向きとを、連動するように制御する。さらにコントローラ40は、受光部30から出力された電気パルスを演算処理した検出データを、画像処理ユニット3に出力する。コントローラ40は、メモリ及びプロセッサを少なくとも1つずつ有した専用コンピュータにより構成されていてもよいし、FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等によって実現されてもよい。 The controller 40 controls the operation of the rider 2. Specifically, the controller 40 controls the light emission of each of the light sources 11a to 11d in the light emitting section 10 and the direction of the scanning mirror 21 in the scanning section 20 so that they are linked. Further, the controller 40 outputs detection data obtained by processing the electric pulses output from the light receiving section 30 to the image processing unit 3. The controller 40 may be configured by a dedicated computer having at least one memory and one processor, or may be realized by an FPGA (Field-Programmable Gate Array), an ASIC (Application Specific Integrated Circuit), or the like.

ここで、コントローラ40は、測定領域MAの物体について、ライダ2からの距離を算出する機能を有していてよい。ここで算出された距離は、検出データに含まれてもよい。一方で距離は、画像処理ユニット3において算出されるようにしてもよい。距離は、デプス(depth、奥行き)と称されてもよい。この距離は、いわゆる光の飛行時間を測定する、TOF(Time Of Flight)方式により測定されてよい。 Here, the controller 40 may have a function of calculating the distance from the rider 2 with respect to the object in the measurement area MA. The distance calculated here may be included in the detection data. On the other hand, the distance may be calculated by the image processing unit 3. Distance may also be referred to as depth. This distance may be measured by the TOF (Time of Flight) method, which measures the so-called flight time of light.

画像処理ユニット3は、ライダ2から取得した検出データに基づき画像を生成して処理する。画像処理ユニット3は、専用コンピュータにより実現されてよい。画像処理ユニット3は、メモリ3a及びプロセッサ3bを少なくとも1つずつ有していてもよい。メモリ3aは、プロセッサ3bにより読み取り可能なプログラム及びデータ等を非一時的に記憶する、例えば半導体メモリ、磁気媒体、及び光学媒体等のうち、少なくとも1種類の非遷移的実態的記憶媒体であってよい。さらにメモリ3aとして、例えばRAM(Random Access Memory)等の書き換え可能な揮発性の記憶媒体が設けられていてもよい。プロセッサ3bは、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、及びRISC(Reduced Instruction Set Computer)-CPU等のうち、少なくとも1種類をコアとして含む。 The image processing unit 3 generates and processes images based on the detection data acquired from the lidar 2. The image processing unit 3 may be realized by a dedicated computer. The image processing unit 3 may include at least one memory 3a and at least one processor 3b. The memory 3a is at least one type of non-transitional physical storage medium, such as a semiconductor memory, a magnetic medium, an optical medium, etc., that non-temporarily stores programs, data, etc. that can be read by the processor 3b. good. Further, as the memory 3a, a rewritable volatile storage medium such as a RAM (Random Access Memory) may be provided. The processor 3b includes, as a core, at least one type of, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a RISC (Reduced Instruction Set Computer)-CPU.

画像処理ユニット3は、コントローラ40から取得した検出データに基づき、反射強度画像、デプス画像、パルス幅画像、背景光画像等の各種画像を生成する。 The image processing unit 3 generates various images such as a reflection intensity image, a depth image, a pulse width image, and a background light image based on the detection data obtained from the controller 40.

反射強度画像は、発光部10の発光タイミングに対応した検出データにおける反射ビームの受光強度を、測定領域MAの各方向からの反射強度を示す2次元画像に画像化したものである。 The reflection intensity image is a two-dimensional image of the received light intensity of the reflected beam in the detection data corresponding to the light emission timing of the light emitting unit 10, which shows the reflection intensity from each direction of the measurement area MA.

デプス画像は、発光部10の発光タイミングに対応した検出データにおける、反射ビームからTOF方式により測定された距離(デプス)を、測定領域MAについての2次元画像に画像化したものである。 The depth image is obtained by converting the distance (depth) measured by the TOF method from the reflected beam in the detection data corresponding to the light emission timing of the light emitting unit 10 into a two-dimensional image of the measurement area MA.

パルス幅画像は、発光部10の発光タイミングに対応した検出データにおける、反射ビームのパルス幅を、測定領域MAについての2次元画像に画像化したものである。 The pulse width image is a two-dimensional image of the measurement area MA of the pulse width of the reflected beam in the detection data corresponding to the light emission timing of the light emitting unit 10.

背景光画像は、発光部10が無発光であるタイミングに対応した検出データにおける、背景光の受光強度を、測定領域MAについての2次元画像に画像化したものである。 The background light image is a two-dimensional image of the measurement area MA of the received light intensity of the background light in the detection data corresponding to the timing when the light emitting unit 10 does not emit light.

さらに画像処理ユニット3は、生成したこれらの画像又は画像処理の結果に基づき、コントローラ40が発光部10及び受光部30を制御するためのフィードバック信号を、コントローラ40へ向けて出力してもよい。 Furthermore, the image processing unit 3 may output a feedback signal to the controller 40 for the controller 40 to control the light emitting section 10 and the light receiving section 30 based on these generated images or the results of image processing.

図3は、物体検出装置1の機能的なアーキテクチャを示す図である。ここで、コントローラ40及び画像処理ユニット3は、互いに協働して、発光部10、走査部20及び受光部30を制御するための制御部50として機能する。制御部50は、データ処理部51、発光制御部52及びフレームレート制御部53を、プログラムを実行する少なくとも1つのプロセッサにより実現される機能ブロックとして含む構成である。 FIG. 3 is a diagram showing the functional architecture of the object detection device 1. Here, the controller 40 and the image processing unit 3 cooperate with each other to function as a control section 50 for controlling the light emitting section 10, the scanning section 20, and the light receiving section 30. The control unit 50 includes a data processing unit 51, a light emission control unit 52, and a frame rate control unit 53 as functional blocks implemented by at least one processor that executes a program.

データ処理部51は、受光部30による検出データを処理する。具体的に、データ処理部51は、受光素子32から出力された電気パルスのデータを、統計的に処理する。ここでの統計的処理には、TOF方式による距離(デプス)の算出が含まれてよい。データ処理部51は、受光素子32から出力された電気パルスのデータに基づき、反射強度画像、デプス画像、パルス幅画像、背景光画像等の各種画像を生成する。また、データ処理部51は、発光制御部52及びフレームレート制御部53と連携して、距離(デプス)の算出や画像生成の頻度及びタイミングを変更するようにしてもよい。 The data processing section 51 processes detection data from the light receiving section 30. Specifically, the data processing unit 51 statistically processes the data of the electric pulse output from the light receiving element 32. The statistical processing here may include calculation of distance (depth) using the TOF method. The data processing unit 51 generates various images such as a reflection intensity image, a depth image, a pulse width image, and a background light image based on the data of the electric pulse output from the light receiving element 32. Furthermore, the data processing section 51 may cooperate with the light emission control section 52 and the frame rate control section 53 to change the frequency and timing of distance (depth) calculation and image generation.

データ処理部51は、図4に示すように、電気パルスから得られる波形に対して、2つの閾値を設定する。ここでの電気パルスから得られる波形は、光子の検出イベントを積算したヒストグラム波形であってよい。 As shown in FIG. 4, the data processing unit 51 sets two threshold values for the waveform obtained from the electric pulse. The waveform obtained from the electric pulse here may be a histogram waveform obtained by integrating photon detection events.

2つの閾値のうちピーク時間算出閾値half_thは、波形がピーク強度を示す時間、換言すると反射ビームが戻ってきた時間を検出する閾値である。例えばピーク時間算出閾値half_thは、ピーク値に対する半値に、設定されてよい。 Of the two thresholds, the peak time calculation threshold half_th is a threshold for detecting the time when the waveform shows the peak intensity, in other words, the time when the reflected beam returns. For example, the peak time calculation threshold half_th may be set to half the peak value.

2つの閾値のうちエコー判定閾値echo_thは、電気パルスが受光部30にて反射ビームの受光があったことを示しているか否かを判定するための閾値である。すなわち、電気パルスの強度がエコー判定閾値echo_th以上である場合、当該電気パルスは反射ビームを示す電気信号であるとみなされる。一方、電気パルスの強度がエコー判定閾値echo_th未満である場合、当該電気パルスは強度の弱い信号、すなわち弱信号とみなされる。ここでの弱信号は、信号強度が弱い場合だけでなく、信号強度が実質的に検出されていない場合も含む概念である。 Of the two thresholds, the echo determination threshold echo_th is a threshold for determining whether the electric pulse indicates that the light receiving unit 30 has received a reflected beam. That is, if the intensity of the electric pulse is equal to or greater than the echo determination threshold echo_th, the electric pulse is considered to be an electric signal indicating a reflected beam. On the other hand, when the intensity of the electric pulse is less than the echo determination threshold echo_th, the electric pulse is considered to be a weak signal, that is, a weak signal. A weak signal here is a concept that includes not only a case where the signal strength is weak but also a case where the signal strength is not substantially detected.

発光制御部52は、データ処理部51の処理結果に基づき、発光部10における投光ビームの発光を制御する。発光制御部52は、発光部10における投光ビームの発光態様を、基準態様と高精度態様との間で変更するように、当該発光部10を制御する。発光態様は、例えば投光ビームの発光強度の設定を含む。 The light emission control section 52 controls the emission of the projected beam in the light emission section 10 based on the processing result of the data processing section 51 . The light emission control section 52 controls the light emitting section 10 so as to change the light emitting mode of the projected beam in the light emitting section 10 between the reference mode and the high precision mode. The light emission mode includes, for example, setting of the light emission intensity of the projected beam.

基準態様は、制御において基準となる態様である。例えば基準態様は、発光強度がデフォルト設定された態様である。高精度態様は、反射率が低い低反射物体に対して、基準態様よりも物体検出精度を高めることができる態様である。例えば高精度態様は、発光強度が基準態様下の発光強度よりも大きくされた態様である。 The reference mode is a mode that serves as a reference in control. For example, the reference mode is a mode in which the light emission intensity is set as default. The high-accuracy mode is a mode in which object detection accuracy can be higher than that in the reference mode for low-reflection objects with low reflectance. For example, the high-precision mode is a mode in which the emission intensity is greater than the emission intensity under the standard mode.

低反射物体は、例えば黒色に塗装された車両である。低反射物体は、例えば投光ビームの波長におけるエネルギー反射率が10%以下の物体であってよい。低反射物体は、投光ビームのライダ2への反射が得られにくい位置関係にある物体を含んでいてよい。例えば図5に示すように、物体検出装置1を搭載した自車両EVの斜め前方において、自車両EVと直交する方向に沿った向きの他車両TVは、低反射物体に該当することがある。この位置関係は、例えば駐車場、交差点等で生じる位置関係である。また例えば図6に示すように、自車両EVの斜め前方において、自車両EVと平行な方向に沿った向きの他車両TVは、低反射物体に該当することがある。この位置関係は、例えば隣接車線、対向車線の他車両TVとの関係で生じる位置関係である。 The low reflection object is, for example, a vehicle painted black. The low-reflection object may be, for example, an object whose energy reflectance at the wavelength of the projected beam is 10% or less. The low-reflection object may include an object in a positional relationship that makes it difficult to reflect the projected beam toward the lidar 2. For example, as shown in FIG. 5, another vehicle TV that is oriented diagonally in front of the host vehicle EV equipped with the object detection device 1 in a direction orthogonal to the host vehicle EV may correspond to a low reflection object. This positional relationship is, for example, a positional relationship that occurs in a parking lot, an intersection, or the like. For example, as shown in FIG. 6, another vehicle TV diagonally in front of the own vehicle EV and oriented along a direction parallel to the own vehicle EV may correspond to a low reflection object. This positional relationship is, for example, a positional relationship that occurs in relation to other vehicles TV in adjacent lanes and oncoming lanes.

発光制御部52は、測定領域MAのうち、上述の弱信号が検出された弱信号領域の物体を検出するために、弱信号領域へ向けた投光ビームの発光態様を、高精度態様に設定する。このとき、発光制御部52は、測定領域MAのうち弱信号領域以外の領域に対しては、発光態様を基準態様に設定してもよい。 The light emission control unit 52 sets the light emission mode of the light beam directed toward the weak signal area to a high precision mode in order to detect an object in the weak signal area where the above-mentioned weak signal has been detected in the measurement area MA. do. At this time, the light emission control unit 52 may set the light emission mode to the reference mode for areas other than the weak signal area in the measurement area MA.

フレームレート制御部53は、データ処理部51が各種画像を生成する際の各種画像のフレームレートを制御する。フレームレート制御部53は、発光態様が高精度態様に変更されたことにより発光強度が増大する場合に、消費電力の制約に応じてフレームレートを低下させる。すなわち、発光強度の増大に伴って物体検出装置1の消費電力が増大する。消費電力の増大により、電源が供給する電力が不足する場合又は不足見込みとなる場合には、フレームレートを低下させて単位時間当たりの電力消費を抑制する。 The frame rate control unit 53 controls the frame rate of various images when the data processing unit 51 generates the various images. The frame rate control unit 53 reduces the frame rate in accordance with power consumption constraints when the light emission intensity increases due to the light emission mode being changed to the high precision mode. That is, as the light emission intensity increases, the power consumption of the object detection device 1 increases. When the power supplied by the power supply becomes insufficient or is expected to become insufficient due to an increase in power consumption, the frame rate is lowered to suppress power consumption per unit time.

また、フレームレート制御部53は、発光態様が高精度態様に変更されたことにより弱信号領域における画像処理の負荷が増大した場合に、フレームレートを低下させる。これにより、画像ないし画像を用いて検出された物体の情報を外部に提供する際の遅延を抑制する。 Further, the frame rate control unit 53 lowers the frame rate when the image processing load in the weak signal region increases due to the light emission mode being changed to the high precision mode. This suppresses the delay in providing the image or information about the object detected using the image to the outside.

次に、低反射物体の検出精度を高める検出方法の例を、図7のフローチャートを用いて説明する。図7に示す一連の処理は、所定の実行周期で又は所定のトリガに基づき、実行される。一連の処理は、制御部50の機能が実現されるように、制御部50が備える少なくとも1つのプロセッサを主体として実行されてよい。 Next, an example of a detection method that improves detection accuracy of low-reflection objects will be described using the flowchart of FIG. 7. The series of processes shown in FIG. 7 are executed at a predetermined execution cycle or based on a predetermined trigger. A series of processes may be executed mainly by at least one processor included in the control unit 50 so that the functions of the control unit 50 are realized.

S101では、発光制御部52は、発光部10を制御して、投光ビームを発光させる。S101の処理後、S102へ進む。 In S101, the light emission control unit 52 controls the light emission unit 10 to emit a projected beam. After processing in S101, the process advances to S102.

S102では、データ処理部51は、反射ビームの受光による検出データを取得する。S102の処理後、S103へ進む。 In S102, the data processing unit 51 acquires detection data based on the reception of the reflected beam. After processing in S102, the process advances to S103.

S103では、データ処理部51は、検出データのヒストグラム波形における信号強度が閾値echo_th以上である領域が測定領域MAに存在するか否かを判定する。S103にて肯定判定が下された場合、S104へ進む。S103にて否定判定が下された場合、S105へ進む。 In S103, the data processing unit 51 determines whether there is an area in the measurement area MA where the signal strength in the histogram waveform of the detection data is equal to or greater than the threshold echo_th. If an affirmative determination is made in S103, the process advances to S104. If a negative determination is made in S103, the process advances to S105.

S104では、データ処理部51は、デプス画像等の画像を生成する。S104を以って一連の処理を終了する。 In S104, the data processing unit 51 generates an image such as a depth image. The series of processing ends at S104.

S105では、発光制御部52は、発光強度が閾値emit_th以下であるか否かを判定する。閾値emit_thは、光源11a~dの出力限界に相当する値であってもよく、消費電力の制約等に基づき設定された値であってもよい。S105にて肯定判定が下された場合、S106へ進む。S105にて否定判定が下された場合、S104へ進む。 In S105, the light emission control unit 52 determines whether the light emission intensity is equal to or less than the threshold value emit_th. The threshold value emit_th may be a value corresponding to the output limit of the light sources 11a to 11d, or may be a value set based on power consumption constraints or the like. If an affirmative determination is made in S105, the process advances to S106. If a negative determination is made in S105, the process advances to S104.

S106では、発光制御部52は、信号強度が閾値echo_th未満である領域、すなわち弱信号領域へ向けた投光ビームの発光強度を大きくする。S106の処理後、S101へ戻る。 In S106, the light emission control unit 52 increases the light emission intensity of the projected beam toward the region where the signal strength is less than the threshold echo_th, that is, the weak signal region. After processing in S106, the process returns to S101.

以上説明した第1実施形態を以下にまとめる。第1実施形態によると、測定領域MAのうち弱信号領域へ向けて高精度態様で光源光としての投光ビームが発光される。低反射物体の存在可能性がある弱信号領域での物体検出精度を高めることにより、低反射物体が検出可能となる。 The first embodiment described above will be summarized below. According to the first embodiment, the projection beam as the light source light is emitted toward the weak signal region in the measurement area MA in a highly accurate manner. By increasing object detection accuracy in weak signal areas where there is a possibility that low-reflection objects exist, low-reflection objects can be detected.

また、第1実施形態によると、弱信号領域へ向けた投光ビームの強度を大きくするので、低反射物体に反射される反射ビームの強度が、閾値echo_th以上となる可能性を高めることができる。 Further, according to the first embodiment, since the intensity of the projected beam directed toward the weak signal region is increased, it is possible to increase the possibility that the intensity of the reflected beam reflected by the low reflection object will be equal to or higher than the threshold echo_th. .

なお、投光ビームは、「光源光」に相当する。反射ビームは、「反射光」に相当する。エコー判定閾値は、「閾値信号強度」に相当する。 Note that the projected light beam corresponds to "light source light." The reflected beam corresponds to "reflected light." The echo determination threshold corresponds to "threshold signal strength."

(第2実施形態)
第2実施形態は第1実施形態の変形例である。第2実施形態について、第1実施形態とは異なる点を中心に説明する。
(Second embodiment)
The second embodiment is a modification of the first embodiment. The second embodiment will be described focusing on the differences from the first embodiment.

第2実施形態では、発光態様は、投光ビームの発光強度の設定だけでなく、他の設定を含む。1つの例では、発光態様は、単位測定動作当たり発光回数の設定を含む。単位測定動作は、例えば測定領域MAに対する1回の走査である。1回の走査において、基準態様ではn回投光ビームが発光されていた場合、高精度態様ではn+1回以上、投光ビームが発光される。この場合に、弱信号領域への発光回数が集中的に増やされてもよい。 In the second embodiment, the light emission mode includes not only the setting of the light emission intensity of the projected beam but also other settings. In one example, the light emission mode includes setting the number of times of light emission per unit measurement operation. The unit measurement operation is, for example, one scan of the measurement area MA. In one scan, if the projection beam is emitted n times in the standard mode, the projection beam is emitted n+1 times or more in the high precision mode. In this case, the number of times the light is emitted to the weak signal region may be increased intensively.

他の1つの例では、発光態様は、画像の1フレームを生成するための単位測定動作自体の回数が増加した場合に、この増加に併せて発光回数を増加させることを含む。すなわち、高精度態様において、1フレームを生成するための走査回数を増加させる。そうすると、1回の走査当たりの発光回数の設定が維持されていたとしても、走査回数の増加分、低反射物体に投光ビームが投射される回数は実質的に増加する。 In another example, the light emitting aspect includes, when the number of unit measurement operations themselves to generate one frame of an image increases, the number of light emissions increases in accordance with this increase. That is, in the high precision mode, the number of scans to generate one frame is increased. In this case, even if the setting of the number of times of light emission per scan is maintained, the number of times the projection beam is projected onto a low reflection object substantially increases by the increase in the number of scans.

これらの態様によって、低反射物体の検出精度を向上させることができる。 These aspects can improve the detection accuracy of low reflection objects.

(第3実施形態)
第3実施形態は第1実施形態の変形例である。第3実施形態について、第1実施形態とは異なる点を中心に説明する。
(Third embodiment)
The third embodiment is a modification of the first embodiment. The third embodiment will be described focusing on the differences from the first embodiment.

図8に示すように、第3実施形態の物体検出装置1は、車両に搭載された撮像装置90から、撮影画像の情報を取得する撮影画像情報取得部54を、さらに含む構成である。撮像装置90は、例えば車両の前方を撮影する前方カメラである。撮像装置90の撮影領域は、ライダ2による測定領域MAと少なくとも一部が重複する。撮影画像情報取得部54が取得する撮影画像の情報は、撮影画像そのものを含んでいてもよい。撮影画像の情報は、撮影画像をセマンティックセグメンテーション等により解析した情報を含んでいてもよい。 As shown in FIG. 8, the object detection device 1 of the third embodiment is configured to further include a photographed image information acquisition unit 54 that acquires information on a photographed image from an imaging device 90 mounted on a vehicle. The imaging device 90 is, for example, a front camera that photographs the front of the vehicle. The imaging area of the imaging device 90 at least partially overlaps the measurement area MA by the lidar 2. The information on the photographed image acquired by the photographed image information acquisition unit 54 may include the photographed image itself. The information on the photographed image may include information obtained by analyzing the photographed image using semantic segmentation or the like.

第3実施形態の発光制御部52は、弱信号領域の全域への発光態様を高精度態様とするのではない。発光制御部52は、弱信号領域のうち、撮影画像の暗色部分に対応する暗色領域に限定して、発光態様を高精度態様とする。暗色領域は、黒つぶれした黒色領域を含んでいてよい。 The light emission control unit 52 of the third embodiment does not emit light to the entire weak signal region in a highly accurate manner. The light emission control unit 52 sets the light emission mode to a high-precision mode by limiting the weak signal area to a dark color area corresponding to a dark color portion of the photographed image. The dark area may include a black area with crushed black.

さらに発光制御部52は、撮影画像の暗色部分のうち空又は雲と認識された部分に対応する検出不要領域を、高精度態様に設定される領域から除外すると共に、検出不要へ向けた投光ビームの投光を規制してよい。 Furthermore, the light emission control unit 52 excludes detection-unnecessary areas corresponding to parts recognized as sky or clouds among dark-colored parts of the captured image from the areas set in the high-precision mode, and also directs light emission toward detection-unnecessary areas. The projection of the beam may be regulated.

これらの領域設定により、低反射物体が存在する可能性が高い領域に対して重点的に物体検出精度を高めることができる。 By setting these areas, object detection accuracy can be focused on areas where there is a high possibility that a low reflection object exists.

このような制御を継続している間に、空、雲又は路面と認識された部分が最新の撮影画像から消失した場合には、発光制御部52は、検出不要領域へ向けた投光ビームの投光を再開してよい。投光を迅速に再開することで、検出不要となっていた領域での新規の物体を即座に検出することができる。 While continuing such control, if a portion recognized as the sky, clouds, or road surface disappears from the latest captured image, the light emission control unit 52 directs the light beam toward the area where detection is not required. Light projection may be resumed. By quickly restarting light projection, new objects can be immediately detected in areas where detection was no longer necessary.

また、発光制御部52が設定する発光態様は、第2実施形態のように、1回の走査当たり発光回数の設定を含んでいてよい。ここで、発光制御部52は、撮影画像に基づいて推定された、弱信号領域に存在する物体の推定距離(推定デプス)に応じて、発光回数を設定してよい。例えば、推定距離が大きくなるに従って、発光回数を増加させるような設定にすればよい。 Further, the light emission mode set by the light emission control unit 52 may include setting the number of times of light emission per scan, as in the second embodiment. Here, the light emission control unit 52 may set the number of times of light emission according to the estimated distance (estimated depth) of the object existing in the weak signal area, which is estimated based on the captured image. For example, the setting may be such that the number of times the light is emitted increases as the estimated distance increases.

ここで特に、検出不要領域への対応方法について、図9のフローチャートを用いて説明する。 Here, in particular, a method for dealing with detection-unnecessary areas will be explained using the flowchart of FIG.

S201では、撮影画像情報取得部54は、検出不要領域があるか否かを判断する。S201にて肯定判定が下された場合、S202へ進む。S201にて否定判定が下された場合、S203へスキップする。 In S201, the photographed image information acquisition unit 54 determines whether there is an area that does not require detection. If an affirmative determination is made in S201, the process advances to S202. If a negative determination is made in S201, the process skips to S203.

S202では、撮影画像情報取得部54は、検出不要領域への発光を中止する。これにより、発光部10の消費電力及び発熱を抑制することができる。S202の処理後、S203へ進む。 In S202, the photographed image information acquisition unit 54 stops emitting light to the detection-unnecessary area. Thereby, power consumption and heat generation of the light emitting section 10 can be suppressed. After processing in S202, the process advances to S203.

S203では、データ処理部51は、データを検出できている画素のみを用いてデプス画像を生成する。S203を以って一連の処理を終了する。 In S203, the data processing unit 51 generates a depth image using only pixels for which data has been detected. The series of processing ends at S203.

(第4実施形態)
第4実施形態は第3実施形態の変形例である。第4実施形態について、第3実施形態とは異なる点を中心に説明する。
(Fourth embodiment)
The fourth embodiment is a modification of the third embodiment. The fourth embodiment will be described focusing on the differences from the third embodiment.

次に、低反射物体の検出精度を高める検出方法の例を、図10のフローチャートを用いて説明する。図10に示す一連の処理は、所定の実行周期で又は所定のトリガに基づき、実行される。一連の処理は、制御部50の機能が実現されるように、制御部50が備える少なくとも1つのプロセッサを主体として実行されてよい。S301,S302,S304は、第1実施形態のS101,S102,S104と同様である。 Next, an example of a detection method that improves the detection accuracy of low-reflection objects will be explained using the flowchart of FIG. 10. The series of processes shown in FIG. 10 are executed at a predetermined execution cycle or based on a predetermined trigger. A series of processes may be executed mainly by at least one processor included in the control unit 50 so that the functions of the control unit 50 are realized. S301, S302, and S304 are the same as S101, S102, and S104 of the first embodiment.

S303では、撮影画像情報取得部54は、撮影画像を用いて、ライダ2にとって苦手なシーンに遭遇しているか否かを判定する。特に、低反射物体が存在している領域などの、ライダ2にとって検出が苦手な苦手領域を特定する。検出が苦手とは、検出が困難な傾向があることを意味している。S303にて肯定判定が下された場合、S305へ進む。S303にて否定判定が下されたS304へ進む。 In S303, the photographed image information acquisition unit 54 uses the photographed image to determine whether the rider 2 is encountering a scene that is difficult for him or not. In particular, areas that are difficult for the lidar 2 to detect, such as areas where low-reflection objects are present, are identified. "Not good at detection" means that it tends to be difficult to detect. If an affirmative determination is made in S303, the process advances to S305. The process advances to S304 where a negative determination is made in S303.

S305,S306は、第1実施形態のS105,S106の「弱信号領域」を「苦手領域」に置き換えた内容である。 S305 and S306 are contents in which "weak signal area" in S105 and S106 of the first embodiment is replaced with "weak signal area".

以上説明した第4実施形態によると、撮像装置90からの撮影画像を用いて、発光部10及び受光部30にとって物体の検出が苦手である苦手領域を特定した上で、当該苦手領域のへ向けて高精度態様で光源光としての投光ビームが発光される。苦手領域において、低反射物体が存在していたとしても、当該苦手領域での物体検出精度を高めることにより、低反射物体が検出可能となる。 According to the fourth embodiment described above, after identifying a weak area in which the light emitting unit 10 and the light receiving unit 30 are weak in detecting an object using the captured image from the imaging device 90, A projected beam as a light source light is emitted in a highly accurate manner. Even if a low-reflection object exists in a weak area, the low-reflection object can be detected by increasing object detection accuracy in the weak area.

(第5実施形態)
第5実施形態は第3実施形態の変形例である。第5実施形態について、第3実施形態とは異なる点を中心に説明する。
(Fifth embodiment)
The fifth embodiment is a modification of the third embodiment. The fifth embodiment will be described with a focus on the points that are different from the third embodiment.

第5実施形態は、図3に示された第1実施形態のアーキテクチャを採用し、第3実施形態における撮像装置90から取得した撮影画像の代わりに、データ処理部51が生成した背景光画像を用いる構成である。 The fifth embodiment adopts the architecture of the first embodiment shown in FIG. This is the configuration used.

すなわち、発光制御部52は、弱信号領域のうち、背景光画像の低受光強度部分に対応する低受光強度領域に限定して、発光態様を高精度態様に設定する。ここで、低受光強度部分及び低受光強度領域は、第3実施形態の暗色部分及び暗色領域に対応する。低受光強度とは、実質的に0であるような、背景光判定用の閾値未満の強度を示す。背景光判定用の閾値は、エコー判定閾値echo_thよりもさらに小さく設定されていてよい。 That is, the light emission control unit 52 sets the light emission mode to a high precision mode, limited to a low light reception intensity region corresponding to a low light reception intensity portion of the background light image, among the weak signal regions. Here, the low received light intensity portion and low received light intensity region correspond to the dark colored portion and dark colored region of the third embodiment. The low received light intensity refers to an intensity that is substantially 0 and is less than a threshold for background light determination. The background light determination threshold may be set even smaller than the echo determination threshold echo_th.

(第6実施形態)
第6実施形態は第1実施形態の変形例である。第6実施形態について、第1実施形態とは異なる点を中心に説明する。
(Sixth embodiment)
The sixth embodiment is a modification of the first embodiment. The sixth embodiment will be described focusing on the differences from the first embodiment.

第6実施形態では、図11に示すように、データ処理部51は、受光素子32から出力された信号における波形であって、時間差を以って複数回測定された波形について足し合わせるか、平均を取る。これによりデータ処理部51は、弱信号の波形におけるノイズを除去して反射光の信号を得る。 In the sixth embodiment, as shown in FIG. 11, the data processing unit 51 adds up or averages the waveforms of the signals output from the light receiving element 32 that have been measured multiple times with time differences. I take the. Thereby, the data processing unit 51 removes noise in the waveform of the weak signal and obtains a reflected light signal.

すなわち、トラッキングされる以前の複数の生波形を統計的処理することで、低反射物体からの反射ビームがノイズと判別されることを抑制する。図11では、走査における時系列として隣接する角度への投光ビームの投光によって得られた波形が、統計的に処理される。 That is, by statistically processing a plurality of raw waveforms before being tracked, it is possible to suppress the reflected beam from a low-reflection object from being determined as noise. In FIG. 11, waveforms obtained by projecting a projection beam at adjacent angles in time series during scanning are statistically processed.

(第7実施形態)
第7実施形態は第1実施形態の変形例である。第7実施形態について、第1実施形態とは異なる点を中心に説明する。
(Seventh embodiment)
The seventh embodiment is a modification of the first embodiment. The seventh embodiment will be described with a focus on differences from the first embodiment.

第7実施形態の発光制御部52は、直近の検出データにおける時系列情報においてある画素が予め設定された閾値回数において連続して閾値信号強度を超える信号を検出できていない場合に、発光態様を高精度態様に設定する。 The light emission control unit 52 of the seventh embodiment changes the light emission mode when a certain pixel has not been able to detect a signal exceeding the threshold signal intensity continuously for a preset threshold number of times in the time series information of the latest detection data. Set to high precision mode.

直近の検出データにおける時系列情報とは、フレームレートに応じて測定された、直近の過去の所定回数分の検出データである。ここでの閾値信号強度は、エコー判定閾値であってよい。閾値信号強度を超える信号を検出できていない画素とは、信号が実質的に検出できていない画素に相当していてよい。 The time series information in the latest detection data is detection data for a predetermined number of times in the recent past, measured according to the frame rate. The threshold signal strength here may be an echo determination threshold. A pixel in which a signal exceeding the threshold signal strength is not detected may correspond to a pixel in which a signal is not substantially detected.

次に、低反射物体の検出精度を高める検出方法の例を、図12のフローチャートを用いて説明する。図12に示す一連の処理は、所定の実行周期で又は所定のトリガに基づき、実行される。一連の処理は、制御部50の機能が実現されるように、制御部50が備える少なくとも1つのプロセッサを主体として実行されてよい。 Next, an example of a detection method that improves the detection accuracy of low-reflection objects will be described using the flowchart of FIG. 12. The series of processes shown in FIG. 12 are executed at a predetermined execution cycle or based on a predetermined trigger. A series of processes may be executed mainly by at least one processor included in the control unit 50 so that the functions of the control unit 50 are realized.

S401では、データ処理部51は、信号が実質的に検出できていない画素が存在しているか否かを判定する。S401にて肯定判定が下されると、S402へ進む。S401にて否定判定が下されると、S404へ進む。 In S401, the data processing unit 51 determines whether there is a pixel whose signal is not substantially detected. If an affirmative determination is made in S401, the process advances to S402. If a negative determination is made in S401, the process advances to S404.

S402では、データ処理部51は、S401にて信号が実質的に検出できていないと判定された画素をメモリ3aに記憶する。S402の処理後、S403へ進む。 In S402, the data processing unit 51 stores, in the memory 3a, the pixels whose signals were determined to be substantially undetectable in S401. After processing in S402, the process advances to S403.

S403では、データ処理部51は、記憶した画素の未検出回数を加算する。S403の処理後、S405へ進む。 In S403, the data processing unit 51 adds up the stored number of undetected pixels. After processing in S403, the process advances to S405.

S404では、データ処理部51は、S401にて信号が検出できたと判定された画素の未検出回数をリセットする。S404の処理後、S405へ進む。 In S404, the data processing unit 51 resets the number of undetected times of the pixel whose signal was determined to be detected in S401. After processing in S404, the process advances to S405.

S405では、データ処理部51は、信号を検出できている画素のみを用いてデプス画像を生成する。S405の処理後、S406へ進む。 In S405, the data processing unit 51 generates a depth image using only pixels for which signals have been detected. After processing in S405, the process advances to S406.

S406では、データ処理部51は、信号が実質的に検出できていないと判定された画素の連続未検出回数が閾値回数以上であるか否かを判定する。閾値回数は、予め設定されている。S406の処理後、S407へ進む。 In S406, the data processing unit 51 determines whether the number of consecutive undetected pixels for which it is determined that the signal is not substantially detected is equal to or greater than the threshold number of times. The threshold number of times is set in advance. After processing in S406, the process advances to S407.

S407では、画素でのS/N比を向上させる。S/N比の向上とは、発光制御部52が、その画素に対応する領域、すなわち弱信号領域へ投光される投光ビームの発光態様を高精度態様に設定することを含む。S407の処理後、S408へ進む。 In S407, the S/N ratio at the pixel is improved. Improving the S/N ratio includes the light emission control unit 52 setting the light emission mode of the projected light beam projected to the region corresponding to the pixel, that is, the weak signal region, to a high precision mode. After processing in S407, the process advances to S408.

S408では、データ処理部51は、連続して信号が実質的に検出できていないと判定されていた画素に対して対処した結果、物体の検出が可能となったかを判定する。S408にて肯定判定が下された場合、S409へ進む。 In S408, the data processing unit 51 determines whether the object can now be detected as a result of dealing with the pixels for which it has been determined that the signal has not been substantially detected continuously. If an affirmative determination is made in S408, the process advances to S409.

S409では、データ処理部51は、検出が可能となった画素を含めたデプス画像を生成する。S409を以って一連の処理を終了する。 In S409, the data processing unit 51 generates a depth image including pixels that can be detected. The series of processing ends at S409.

S410では、依然として連続して信号が実質的に検出できていない画素に対応する領域への投光ビームの発光を中止する。S410を以って一連の処理を終了する。 In S410, emission of the projection beam to the area corresponding to the pixel for which no signal is still substantially detected is stopped. The series of processing ends at S410.

(第8実施形態)
第8実施形態は第7実施形態の変形例である。第8実施形態について、第7実施形態とは異なる点を中心に説明する。
(Eighth embodiment)
The eighth embodiment is a modification of the seventh embodiment. The eighth embodiment will be described focusing on the points that are different from the seventh embodiment.

第8実施形態のデータ処理部51は、直近の検出データにおける時系列情報において、背景光の強度の増加傾向が得られた場合に、閾値信号強度を超える信号を検出できていない画素をビニングする。さらに発光制御部52は、時系列情報において、ビニングされたあるマクロ画素が、閾値信号強度を超える信号を検出できていない場合に、発光態様を高精度態様に設定する。 The data processing unit 51 of the eighth embodiment bins pixels for which a signal exceeding a threshold signal intensity has not been detected when an increasing tendency of background light intensity is obtained in the time series information of the latest detection data. . Further, the light emission control unit 52 sets the light emission mode to a high precision mode when a certain binned macro pixel cannot detect a signal exceeding the threshold signal strength in the time series information.

ここでビニングとは、受光素子32において互いに隣接する複数のSPADからの検出データから、画像上の1つのマクロ画素を構成することである。1つのマクロ画素に含まれるSPADの数が増加する結果、空間分解能が低下する一方で、ダイナミックレンジを広くすることができる。 Here, binning means configuring one macro pixel on an image from detection data from a plurality of mutually adjacent SPADs in the light receiving element 32. As a result of increasing the number of SPADs included in one macro pixel, the dynamic range can be widened although the spatial resolution is reduced.

背景光の強度の増加傾向とは、例えばある背景光画像における背景光の強度が、その1つ前の背景光画像における背景光の強度に対して、増加していることを意味していてよい。増加傾向は、タイミングが異なる3つ以上の背景光の強度を統計的に処理することにより得られるようにしてもよい。こうした背景光の強度の増加傾向は、例えば単純にノイズが増加したことを意味することもある。こうした背景光の強度の増加傾向は、物体検出装置1が搭載された車両の周辺や物体が日陰から日向に移ったことを意味することもある。 An increasing tendency in the intensity of background light may mean, for example, that the intensity of background light in a certain background light image is increasing relative to the intensity of background light in the previous background light image. . The increasing tendency may be obtained by statistically processing the intensities of three or more background lights having different timings. This tendency for the intensity of background light to increase may mean, for example, that noise has simply increased. Such an increasing tendency in the intensity of the background light may mean that the vicinity of the vehicle in which the object detection device 1 is mounted or the object has moved from the shade to the sunlight.

検出すべき物体の距離が近くなったのか、遠くなったのか特定できないこともあるが、仮に前回検出した際の距離から変わっていないとすれば、画像をビニングし、S/N比を向上させることで、物体を検出することができる。 It may not be possible to determine whether the distance of the object to be detected has become closer or further away, but if the distance has not changed from the last time it was detected, the image can be binned to improve the S/N ratio. This allows objects to be detected.

また、発光制御部52は、背景光の強度の維持傾向又は減少傾向が得られた場合に、発光態様を、高精度態様に設定する。さらにデータ処理部51は、この高精度態様への設定後に、時系列情報において、ある画素が、予め設定された閾値回数において連続して閾値信号強度を超える信号を検出できていない場合に、画像をビニングする。 Further, the light emission control unit 52 sets the light emission mode to a high precision mode when a tendency to maintain or decrease the intensity of the background light is obtained. Furthermore, after setting to this high precision mode, if a certain pixel has not been able to detect a signal exceeding the threshold signal strength continuously for a preset threshold number of times in the time series information, binning.

背景光の強度の維持傾向又は減少傾向は、例えば物体の距離が遠くなったことを意味することがある。物体の距離が遠くなったと仮定すれば、画像をビニングすると空間分解能が低下して物体の検出が困難となるため、ビニングを実施せずに、S/N比を向上させるべきである。それでも物体を検出できない場合には、画像をビニングしてみてもよい。さらにそれでも物体を検出できない場合には、発光を中止して消費電力及び発熱を抑制すべきである。 A tendency to maintain or decrease the intensity of the background light may mean, for example, that the distance of the object has become greater. Assuming that the distance of the object has become longer, the S/N ratio should be improved without performing binning, since binning the image will reduce the spatial resolution and make it difficult to detect the object. If the object still cannot be detected, you can try binning the image. Furthermore, if the object cannot be detected even after that, the light emission should be stopped to suppress power consumption and heat generation.

次に、低反射物体の検出精度を高める検出方法の例を、図13,14のフローチャートを用いて説明する。図13,14に示す一連の処理は、所定の実行周期で又は所定のトリガに基づき、実行される。一連の処理は、制御部50の機能が実現されるように、制御部50が備える少なくとも1つのプロセッサを主体として実行されてよい。 Next, an example of a detection method that improves the detection accuracy of low-reflection objects will be described using flowcharts in FIGS. 13 and 14. The series of processes shown in FIGS. 13 and 14 are executed at a predetermined execution cycle or based on a predetermined trigger. A series of processes may be executed mainly by at least one processor included in the control unit 50 so that the functions of the control unit 50 are realized.

図13に示すS501では、データ処理部51は、信号が実質的に検出できていない画素が存在しているか否かを判定する。S501にて肯定判定が下されると、S502へ進む。S501にて否定判定が下されると、S505へ進む。 In S501 shown in FIG. 13, the data processing unit 51 determines whether there are any pixels whose signals are not substantially detected. If an affirmative determination is made in S501, the process advances to S502. If a negative determination is made in S501, the process advances to S505.

S502では、データ処理部51は、信号が実質的に検出できていない画素が、予め設定された閾値フレーム前に検出できていたか否かを判定する。S502にて肯定判定が下されると、図14に示すS512へ進む。S502にて否定判定が下されると、S503へ進む。 In S502, the data processing unit 51 determines whether a pixel whose signal has not been substantially detected could have been detected before a preset threshold frame. If an affirmative determination is made in S502, the process advances to S512 shown in FIG. 14. If a negative determination is made in S502, the process advances to S503.

S503~S511は、第7実施形態のS402~S410と同様である。 S503 to S511 are similar to S402 to S410 of the seventh embodiment.

図14に示すS512では、データ処理部51は、信号を検出できている画素のみを用いてデプス画像を生成する。S512の処理後、S513へ進む。 In S512 shown in FIG. 14, the data processing unit 51 generates a depth image using only pixels for which signals have been detected. After processing in S512, the process advances to S513.

S513では、データ処理部51は、信号が実質的に検出できていない画素について、前回から背景光の強度が増加したか否かを判定する。S513にて肯定判定が下されると、S514へ進む。S513にて否定判定が下されると、S516へ進む。 In S513, the data processing unit 51 determines whether or not the intensity of background light has increased since the previous time for pixels whose signals have not been substantially detected. If an affirmative determination is made in S513, the process advances to S514. If a negative determination is made in S513, the process advances to S516.

S514では、データ処理部51は、前回の物体の距離に合わせて画像をビニングする。S514の処理後、S515へ進む。 In S514, the data processing unit 51 bins the image according to the distance of the previous object. After processing in S514, the process advances to S515.

S515では、データ処理部51は、物体の検出が可能となったかを判定する。S515にて肯定判定が下されると、図13に示すS510へ進む。S515にて否定判定が下されると、図13に示すS508へ進む。 In S515, the data processing unit 51 determines whether the object can be detected. If an affirmative determination is made in S515, the process advances to S510 shown in FIG. 13. If a negative determination is made in S515, the process advances to S508 shown in FIG. 13.

S516では、画素でのS/N比を向上させる。S/N比の向上とは、発光制御部52が、その画素に対応する領域、すなわち弱信号領域へ投光される投光ビームの発光態様を高精度態様に設定することを含む。S516の処理後、S517へ進む。 In S516, the S/N ratio at the pixel is improved. Improving the S/N ratio includes the light emission control unit 52 setting the light emission mode of the projected light beam projected to the region corresponding to the pixel, that is, the weak signal region, to a high precision mode. After processing in S516, the process advances to S517.

S517では、データ処理部51は、物体の検出が可能となったかを判定する。S517にて肯定判定が下されると、図13に示すS510へ進む。S517にて否定判定が下されると、S518へ進む。 In S517, the data processing unit 51 determines whether the object can be detected. If an affirmative determination is made in S517, the process advances to S510 shown in FIG. 13. If a negative determination is made in S517, the process advances to S518.

S518では、データ処理部51は、前回の物体の距離に合わせて画像をビニングする。S518の処理後、S519へ進む。 In S518, the data processing unit 51 bins the image according to the distance of the previous object. After processing in S518, the process advances to S519.

S519では、データ処理部51は、物体の検出が可能となったかを判定する。S519にて肯定判定が下されると、図13に示すS510へ進む。S519にて否定判定が下されると、図13に示すS511へ進む。 In S519, the data processing unit 51 determines whether the object can be detected. If an affirmative determination is made in S519, the process advances to S510 shown in FIG. 13. If a negative determination is made in S519, the process advances to S511 shown in FIG. 13.

(第9実施形態)
第9実施形態は第1実施形態の変形例である。第9実施形態について、第1実施形態とは異なる点を中心に説明する。
(Ninth embodiment)
The ninth embodiment is a modification of the first embodiment. The ninth embodiment will be described focusing on the differences from the first embodiment.

第9実施形態のフレームレート制御部53は、発光制御部52が発光態様を高精度態様に設定した場合に、それ以外の領域とでの画像処理の負荷を減少させるようにデータ処理部51に要求する。この要求は、高精度態様に設定された弱信号領域での画像処理の負荷の増大に応じたものとなる。 The frame rate control unit 53 of the ninth embodiment causes the data processing unit 51 to reduce the load of image processing in other areas when the light emission control unit 52 sets the light emission mode to the high precision mode. request. This request is in response to an increase in the load of image processing in a weak signal region set in a high precision mode.

これにより、フレームレート制御部53は、弱信号領域とそれ以外の領域との間で処理負荷の増減を相殺して、画像を生成する際の見かけ上のフレームレートを維持する。故に、弱信号領域が高精度態様に設定されたとしても、走査ミラー21等の動作タイミング又は動作間隔を維持可能となる。この結果、タイミングずれなどによる制御トラブルの発生を抑制することができる。 Thereby, the frame rate control unit 53 offsets increases and decreases in processing load between the weak signal area and other areas, and maintains the apparent frame rate when generating an image. Therefore, even if the weak signal region is set in a highly accurate manner, the operation timing or operation interval of the scanning mirror 21 etc. can be maintained. As a result, it is possible to suppress the occurrence of control troubles due to timing shifts and the like.

(他の実施形態)
以上、複数の実施形態について説明したが、本開示は、それらの実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
(Other embodiments)
Although multiple embodiments have been described above, the present disclosure is not to be construed as being limited to those embodiments, and may be applied to various embodiments and combinations within the scope of the gist of the present disclosure. Can be done.

例えば物体検出装置1は、車両に搭載されなくてもよい。物体検出装置1は、インフラストラクチャーにおける路側ユニットに搭載され、V2X通信によって車両に検出した物体の情報を送信してもよい。 For example, the object detection device 1 does not need to be mounted on a vehicle. The object detection device 1 may be mounted on a roadside unit in infrastructure, and may transmit information about detected objects to a vehicle via V2X communication.

発光部10、走査部20及び受光部30の構成は、本開示の制御部50による制御を適用可能であれば、適宜変更可能である。例えば発光部10は、光源アレイ11ではく、単一の光源を有する構成であってもよい。 The configurations of the light emitting section 10, the scanning section 20, and the light receiving section 30 can be changed as appropriate as long as control by the control section 50 of the present disclosure can be applied. For example, the light emitting unit 10 may include a single light source instead of the light source array 11.

本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置及びその手法は、専用ハードウエア論理回路により、実現されてもよい。もしくは、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウエア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 The control unit and techniques described in this disclosure may be implemented by a special purpose computer comprising a processor programmed to perform one or more functions embodied by a computer program. Alternatively, the apparatus and techniques described in this disclosure may be implemented with dedicated hardware logic circuits. Alternatively, the apparatus and techniques described in this disclosure may be implemented by one or more special purpose computers configured by a combination of a processor executing a computer program and one or more hardware logic circuits. The computer program may also be stored as instructions executed by a computer on a computer-readable non-transitory tangible storage medium.

1:物体検出装置、10:発光部、30:受光部、52:発光制御部、54:撮影画像情報取得部、90:撮像装置、MA:測定領域 1: Object detection device, 10: Light emitting unit, 30: Light receiving unit, 52: Light emission control unit, 54: Photographed image information acquisition unit, 90: Imaging device, MA: Measurement area

Claims (19)

測定領域(MA)の物体を検出する物体検出装置であって、
前記測定領域へ向けて光源光を発光する発光部であって、前記光源光の発光態様を、基準態様と、前記基準態様よりも物体検出精度を高めることができる高精度態様との間で変更可能に構成された発光部(10)と、
前記光源光が前記物体に反射されることによる反射光を受光し、受光に応じた電気信号を出力する受光部(30)と、
前記電気信号として、予め設定された閾値信号強度以下の強度をもつ弱信号が検出された弱信号領域の前記物体を検出するために、前記測定領域のうち少なくとも前記弱信号領域へ向けて投光される前記光源光の前記発光態様を、前記高精度態様に設定する発光制御部(52)と、を備える、物体検出装置。
An object detection device that detects an object in a measurement area (MA),
A light emitting unit that emits light source light toward the measurement area, the light emitting mode of the light source light being changed between a reference mode and a high precision mode that can increase object detection accuracy more than the reference mode. a light emitting unit (10) configured to allow
a light receiving unit (30) that receives reflected light caused by the light source light being reflected by the object and outputs an electrical signal in accordance with the received light;
In order to detect the object in a weak signal region in which a weak signal having an intensity equal to or lower than a preset threshold signal strength is detected as the electric signal, light is projected toward at least the weak signal region of the measurement region. An object detection device, comprising: a light emission control unit (52) that sets the light emission mode of the light source light to the high precision mode.
前記発光態様は、前記光源光の発光強度の設定を含む、請求項1に記載の物体検出装置。 The object detection device according to claim 1, wherein the light emission mode includes setting of the light emission intensity of the light source light. 前記物体は、検出データに基づき生成された画像を用いて検出され、
前記発光強度を増大させる場合に、消費電力の制約に応じて前記画像を生成するフレームレートを低下させるフレームレート制御部(53)を、さらに備える、請求項2に記載の物体検出装置。
The object is detected using an image generated based on detection data,
The object detection device according to claim 2, further comprising a frame rate control unit (53) that reduces the frame rate at which the image is generated according to power consumption constraints when increasing the light emission intensity.
前記発光態様は、単位測定動作当たり発光回数の設定を含む、請求項1に記載の物体検出装置。 2. The object detection device according to claim 1, wherein the light emission mode includes a setting of the number of times of light emission per unit measurement operation. 前記発光制御部は、前記弱信号領域に存在すると推定される前記物体の推定距離に応じて前記発光回数を設定する、請求項4に記載の物体検出装置。 The object detection device according to claim 4, wherein the light emission control unit sets the number of times of light emission according to an estimated distance of the object estimated to exist in the weak signal region. 前記物体は、検出データに基づき生成された画像を用いて検出され、
前記発光態様は、前記画像の1フレームを生成するための単位測定動作自体の回数が増加した場合に、この増加に併せて発光回数を増加させることを含む、請求項1に記載の物体検出装置。
The object is detected using an image generated based on detection data,
The object detection device according to claim 1, wherein, when the number of unit measurement operations themselves for generating one frame of the image increases, the light emission mode includes increasing the number of times of light emission in accordance with this increase. .
前記測定領域を撮影する撮像装置からの撮影画像の情報を取得する撮影画像情報取得部(54)を、さらに備え、
前記発光制御部は、前記弱信号領域のうち、前記撮影画像の暗色部分に対応する暗色領域に限定して、前記発光態様を、前記高精度態様に設定する、請求項1に記載の物体検出装置。
further comprising a photographed image information acquisition unit (54) that acquires information on a photographed image from an imaging device that photographs the measurement area,
The object detection according to claim 1, wherein the light emission control unit sets the light emission mode to the high precision mode only in a dark color area corresponding to a dark color portion of the captured image in the weak signal area. Device.
前記発光制御部は、前記暗色部分のうち空又は雲と認識された部分に対応する検出不要領域を、前記高精度態様に設定される領域から除外すると共に、前記検出不要領域へ向けた前記光源光の投光を規制する、請求項7に記載の物体検出装置。 The light emission control unit excludes a detection-unnecessary area corresponding to a portion recognized as the sky or clouds among the dark-colored portions from the area set in the high-precision mode, and directs the light source toward the detection-unnecessary area. The object detection device according to claim 7, wherein projection of light is regulated. 前記発光制御部は、前記空、雲又は路面と認識された部分が最新の前記撮影画像から消失した場合に、前記検出不要領域へ向けた前記光源光の投光を再開する、請求項8に記載の物体検出装置。 According to claim 8, the light emission control unit restarts projecting the light source light toward the detection-unnecessary area when the portion recognized as the sky, clouds, or road surface disappears from the latest captured image. The object detection device described. 発光部が無発光であるタイミングに対応した検出データにおける、背景光の受光強度を、前記測定領域についての2次元画像に画像化した背景光画像を生成するデータ処理部(51)を、さらに備え、
前記発光制御部は、前記弱信号領域のうち、前記背景光画像の低受光強度部分に対応する低受光強度領域に限定して、前記発光態様を、前記高精度態様に設定する、請求項1に記載の物体検出装置。
The apparatus further includes a data processing section (51) that generates a background light image in which the received light intensity of the background light in the detection data corresponding to the timing when the light emitting section does not emit light is converted into a two-dimensional image of the measurement area. ,
1 . The light emission control unit sets the light emission mode to the high precision mode only in a low light reception intensity region corresponding to a low light reception intensity portion of the background light image in the weak signal region. The object detection device described in .
前記受光部から出力された信号における波形であって、時間差を以って複数回測定された波形について足し合わせる又は平均を取ることにより、弱信号の波形におけるノイズを除去して前記反射光の信号を得るデータ処理部を、さらに備える請求項1に記載の物体検出装置。 The signal of the reflected light is obtained by adding or averaging the waveforms of the signals output from the light receiving section, which are measured multiple times with time differences, to remove noise in the waveform of weak signals. The object detection device according to claim 1, further comprising a data processing unit that obtains. 前記物体は、検出データに基づき生成された、複数の画素が2次元配列されている画像を用いて検出され、
直近の検出データにおける時系列情報において、ある前記画素が、予め設定された閾値回数において連続して前記閾値信号強度を超える信号を検出できていない場合に、前記発光制御部は、前記発光態様を、前記高精度態様に設定する、請求項1に記載の物体検出装置。
The object is detected using an image generated based on the detection data and in which a plurality of pixels are arranged in a two-dimensional manner,
In the time-series information of the most recent detection data, when a certain pixel has not been able to detect a signal exceeding the threshold signal intensity continuously for a preset threshold number of times, the light emission control unit changes the light emission mode. The object detection device according to claim 1, wherein the object detection device is set to the high precision mode.
発光部が無発光であるタイミングに対応した検出データにおける受光強度を、背景光の強度と定義すると、
直近の検出データにおける時系列情報において、前記背景光の強度の増加傾向が得られた場合に、画像をビニングするデータ処理部を、さらに備える、請求項12に記載の物体検出装置。
If the received light intensity in the detection data corresponding to the timing when the light emitting part does not emit light is defined as the intensity of background light,
The object detection device according to claim 12, further comprising a data processing unit that bins the image when an increasing tendency of the intensity of the background light is obtained in the time series information of the latest detection data.
前記時系列情報において、ビニングされたあるマクロ画素が、前記閾値信号強度を超える信号を検出できていない場合に、前記発光制御部は、前記発光態様を、前記高精度態様に設定する、請求項13に記載の物体検出装置。 In the time series information, when a certain binned macro pixel cannot detect a signal exceeding the threshold signal intensity, the light emission control unit sets the light emission mode to the high precision mode. 14. The object detection device according to 13. 発光部が無発光であるタイミングに対応した検出データにおける受光強度を、背景光の強度と定義すると、
前記時系列情報において、前記背景光の強度の維持傾向又は減少傾向が得られた場合に、前記発光制御部は、前記発光態様を、前記高精度態様に設定する、請求項12に記載の物体検出装置。
If the received light intensity in the detection data corresponding to the timing when the light emitting part does not emit light is defined as the intensity of background light,
13. The object according to claim 12, wherein the light emission control unit sets the light emission mode to the high precision mode when a tendency to maintain or decrease the intensity of the background light is obtained in the time series information. Detection device.
前記高精度態様への設定後に、前記時系列情報において、ある前記画素が、予め設定された閾値回数において連続して前記閾値信号強度を超える信号を検出できていない場合に、前記画像をビニングするデータ処理部を、さらに備える、請求項15に記載の物体検出装置。 After setting to the high precision mode, in the time series information, if a certain pixel has not been able to detect a signal exceeding the threshold signal strength continuously for a preset threshold number of times, the image is binned. The object detection device according to claim 15, further comprising a data processing section. 前記物体は、検出データに基づき生成された画像を用いて検出され、
前記高精度態様に設定された前記弱信号領域での画像処理の負荷の増大に応じて、前記画像を生成するフレームレートを低下させるフレームレート制御部を、さらに備える、請求項1に記載の物体検出装置。
The object is detected using an image generated based on detection data,
The object according to claim 1, further comprising a frame rate control unit that reduces a frame rate at which the image is generated in accordance with an increase in image processing load in the weak signal region set to the high precision mode. Detection device.
前記物体は、検出データに基づき生成された画像を用いて検出され、
前記高精度態様に設定された前記弱信号領域での画像処理の負荷の増大に応じて、それ以外の領域とでの画像処理の負荷を減少させ、前記画像を生成する際の見かけ上のフレームレートを維持するフレームレート制御部を、さらに備える、請求項1に記載の物体検出装置。
The object is detected using an image generated based on detection data,
In response to an increase in the image processing load in the weak signal area set to the high precision mode, the image processing load in other areas is reduced, and the apparent frame when generating the image is reduced. The object detection device according to claim 1, further comprising a frame rate control unit that maintains the rate.
測定領域(MA)の物体を検出する物体検出装置であって、
前記測定領域へ向けて光源光を発光する発光部であって、前記光源光の発光態様を、基準態様と、前記基準態様よりも物体検出精度を高めることができる高精度態様との間で変更可能に構成された発光部(10)と、
前記光源光が前記測定領域の物体に反射されることによる反射光を受光し、受光に応じた電気信号を出力する受光部(30)と、
前記測定領域を撮影する撮像装置(90)からの撮影画像の情報を取得し、前記情報から前記発光部及び前記受光部にとって前記物体の検出が苦手である苦手領域を特定する撮影画像情報取得部(54)と、
前記苦手領域へ向けて投光される前記光源光の前記発光態様を、前記高精度態様に設定する発光制御部(52)と、を備える、物体検出装置。
An object detection device that detects an object in a measurement area (MA),
A light emitting unit that emits light source light toward the measurement area, the light emitting mode of the light source light being changed between a reference mode and a high precision mode that can increase object detection accuracy more than the reference mode. a light emitting unit (10) configured to allow
a light receiving unit (30) that receives reflected light caused by the light source light being reflected by an object in the measurement area, and outputs an electrical signal in accordance with the received light;
a photographed image information acquisition unit that acquires information on a photographed image from an imaging device (90) that photographs the measurement area, and identifies from the information a weak area in which the light emitting unit and the light receiving unit are weak in detecting the object; (54) and
An object detection device comprising: a light emission control unit (52) that sets the light emission mode of the light source light projected toward the weak area to the high precision mode.
JP2022103865A 2022-06-28 2022-06-28 object detection device Pending JP2024004276A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022103865A JP2024004276A (en) 2022-06-28 2022-06-28 object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022103865A JP2024004276A (en) 2022-06-28 2022-06-28 object detection device

Publications (1)

Publication Number Publication Date
JP2024004276A true JP2024004276A (en) 2024-01-16

Family

ID=89537894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022103865A Pending JP2024004276A (en) 2022-06-28 2022-06-28 object detection device

Country Status (1)

Country Link
JP (1) JP2024004276A (en)

Similar Documents

Publication Publication Date Title
US10419741B2 (en) Systems and methods for compression of three dimensional depth sensing
JP2022105771A (en) Distance measuring device
EP2927710B1 (en) Ranging system, information processing method and program thereof
JP5366476B2 (en) Visual equipment
JP4993087B2 (en) Laser monitoring device
CN107923978B (en) Object detection device, object detection method, and recording medium
JP7452069B2 (en) Road gradient estimation device, road gradient estimation system, and road gradient estimation method
JP2024004276A (en) object detection device
JP2010060371A (en) Object detection apparatus
US20220214434A1 (en) Gating camera
JP7338455B2 (en) object detector
JP2022125966A (en) Ranging correction device, ranging correction method, ranging correction program, and ranging device
JP2004325202A (en) Laser radar system
US20230078063A1 (en) Distance measurement device and distance measurement system
CN113518894A (en) Optical distance measuring device
WO2021117608A1 (en) Object detection device and object detection device control method
WO2023042637A1 (en) Control device, control method, and control program
WO2023079944A1 (en) Control device, control method, and control program
US20230243937A1 (en) Optical detection device, optical distance measurement device, and non-transitory computer readable medium
US20240083346A1 (en) Gating camera, vehicle sensing system, and vehicle lamp
WO2021166912A1 (en) Object detection device
WO2024090116A1 (en) Data processing device, optical sensor, data processing method, and data processing program
JP2019138666A (en) Ranging apparatus
JP2024004277A (en) Object detection device and vehicle control system
WO2024111239A1 (en) Control device, optical detection system, control method, and control program