WO2020262446A1 - 車両用灯具 - Google Patents

車両用灯具 Download PDF

Info

Publication number
WO2020262446A1
WO2020262446A1 PCT/JP2020/024761 JP2020024761W WO2020262446A1 WO 2020262446 A1 WO2020262446 A1 WO 2020262446A1 JP 2020024761 W JP2020024761 W JP 2020024761W WO 2020262446 A1 WO2020262446 A1 WO 2020262446A1
Authority
WO
WIPO (PCT)
Prior art keywords
range
outer lens
image
exposure
timing
Prior art date
Application number
PCT/JP2020/024761
Other languages
English (en)
French (fr)
Inventor
剣 李
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to JP2021527683A priority Critical patent/JP7474759B2/ja
Publication of WO2020262446A1 publication Critical patent/WO2020262446A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a vehicle lamp.
  • An object identification system that senses the position and type of objects existing around the vehicle is used for automatic driving and automatic control of the light distribution of headlamps.
  • the object identification system includes a sensor and an arithmetic processing unit that analyzes the output of the sensor.
  • the sensor is selected from cameras, LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), millimeter-wave radar, ultrasonic sonar, etc. in consideration of application, required accuracy, and cost.
  • Depth information cannot be obtained from a general monocular camera. Therefore, when a plurality of objects located at different distances overlap, it is difficult to separate them.
  • the TOF camera is known as a camera that can obtain depth information.
  • a TOF (TimeOfFlight) camera emits infrared light with a light emitting device, measures the flight time until the reflected light returns to the image sensor, and obtains an image obtained by converting the flight time into distance information. is there.
  • the applicant has proposed a sensor (hereinafter referred to as a gating camera in the present specification) as an alternative to the TOF camera (Patent Documents 1 and 2).
  • the gating camera divides the shooting range into a plurality of ranges, changes the exposure timing and the exposure time for each range, and captures images a plurality of times. As a result, images are obtained for each target range, and each image includes only objects included in the corresponding range.
  • the present inventor has considered incorporating a gating camera into a vehicle lamp (headlamp).
  • the shooting with the gating camera is performed through the outer lens of the headlamp. Dust and raindrops adhering to the outer lens and internal reflection of the outer lens deteriorate the image of the gating camera.
  • the present invention has been made in such a situation, and one of the exemplary purposes of the embodiment is to improve the image quality of a gating camera built in a vehicle lamp.
  • An aspect of the present invention relates to a vehicle lamp.
  • the vehicle lighting equipment includes an outer lens and a gating camera housed inside the outer lens.
  • the gating camera is configured to divide into a plurality of ranges in the depth direction, and for each range, set the timing of exposure and light emission to a predetermined value determined for the range and shoot. The timing of exposure and light emission in each range is determined so that the outer lens does not affect the image.
  • FIG. 1 It is a block diagram of the object identification system which concerns on embodiment. It is a figure explaining the operation of a gating camera.
  • 3 (a) and 3 (b) are diagrams for explaining an image obtained by a gating camera. It is sectional drawing of the lighting equipment for a vehicle which incorporates a gating camera.
  • 5 (a) and 5 (b) are views for explaining shooting with a gating camera through the outer lens.
  • 6 (a) and 6 (b) are diagrams for explaining shooting in which the influence of the outer lens is excluded.
  • FIG. 1 is a block diagram of the object identification system 10 according to the embodiment.
  • the object identification system 10 is mounted on a vehicle such as an automobile or a motorcycle, and determines the type (also referred to as a category or class) of an object OBJ existing around the vehicle.
  • the object identification system 10 mainly includes a gating camera 20 and an arithmetic processing unit 40.
  • the gating camera 20 includes a floodlight 22, an image sensor 24, and a controller 26.
  • the imaging by the gating camera 20 is performed by dividing into a plurality of N (N ⁇ 2) ranges RNG 1 to RNG N in the depth direction. Adjacent ranges may overlap in the depth direction at their boundaries.
  • the floodlight 22 irradiates the probe light L1 to the front of the vehicle in synchronization with the floodlight timing signal S1 given from the controller 26.
  • the probe light L1 is preferably infrared light, but is not limited to this, and may be visible light having a predetermined wavelength.
  • the image sensor 24 is configured to be capable of exposure control synchronized with the shooting timing signal S2 given from the controller 26 and to be able to generate an image IMG.
  • the image sensor 24 has sensitivity to the same wavelength as the probe light L1, and photographs the reflected light (return light) L2 reflected by the object OBJ.
  • the controller 26 holds a predetermined light projection timing and exposure timing for each range RNG.
  • the controller 26 When a certain range RNGi is photographed, the controller 26 generates a projection timing signal S1 and an imaging timing signal S2 based on the projection timing and the exposure timing corresponding to the range, and performs imaging.
  • the gating camera 20 can generate a plurality of images IMG 1 to IMG N corresponding to a plurality of ranges RNG 1 to RNG N , and the i-th image IMG i is an object included in the corresponding range RNG i. Only will be captured.
  • FIG. 2 is a diagram illustrating the operation of the gating camera 20.
  • FIG. 2 shows a state when the i-th range RNG i is measured.
  • the floodlight 22 emits light during the light emission period ⁇ 1 between the times t 0 and t 1 in synchronization with the light flood timing signal S1.
  • a diagram of rays with time on the horizontal axis and distance on the vertical axis is shown. From gating camera 20, the distance d MINi up before the boundary of the range RNG i, the distance to the far side of the boundary of the range RNG i and d MAXi.
  • T MINi 2 ⁇ d MINI / c Is. c is the speed of light.
  • T MAXi 2 ⁇ d MAXi / c Is.
  • the controller 26 may repeat the above-mentioned exposure operation a plurality of times in a predetermined period ⁇ 2 .
  • the image actually captured includes an object included in a narrow region (indicated by p in FIG. 2) in front of the distance d MINi .
  • the image is reflected at a relatively lower exposure than the object contained in RNG i .
  • an object included in a narrow region (indicated by q in FIG. 2) behind the distance d MAXi is also reflected with a relatively low exposure.
  • FIG. 3 (a) and 3 (b) are diagrams for explaining an image obtained by the gating camera 20.
  • the object to the range RNG 2 (pedestrian) OBJ 2 are present, there is an object (vehicle) OBJ 3 to the range RNG 3.
  • FIG. 3 (b) shows a plurality of images IMG 1 to IMG 3 obtained in the situation of FIG. 3 (a).
  • the image sensor is exposed only by the reflected light from the range RNG 1, so that no object image is captured in the image IMG 1 .
  • the image sensor When the image IMG 2 is captured, the image sensor is exposed only by the reflected light from the range RNG 2, so that only the object image OBJ 2 is captured in the image IMG 2 .
  • the image sensor when the image IMG 3 is captured, the image sensor is exposed only by the reflected light from the range RNG 3, so that only the object image OBJ 3 is captured in the image IMG 3 .
  • an object can be separated and photographed for each range.
  • the arithmetic processing unit 40 is configured to be able to identify the type of an object based on a plurality of images IMG 1 to IMG N corresponding to a plurality of ranges RNG 1 to RNG N obtained by the gating camera 20.
  • the arithmetic processing unit 40 includes a classifier 42 implemented based on a prediction model generated by machine learning.
  • the algorithm of the classifier 42 is not particularly limited, but YOLO (You Only Look Once), SSD (Single Shot MultiBox Detector), R-CNN (Region-based Convolutional Neural Network), SPPnet (Spatial Pyramid Pooling), Faster R-CNN. , DSSD (Deconvolution -SSD), Mask R-CNN, etc. can be adopted, or algorithms developed in the future can be adopted.
  • the arithmetic processing unit 40 can be implemented by combining a processor (hardware) such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a microcomputer, and a software program executed by the processor (hardware).
  • a processor such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a microcomputer
  • the arithmetic processing unit 40 may be a combination of a plurality of processors. Alternatively, the arithmetic processing unit 40 may be configured only by hardware.
  • the range of the size of the object image (called the allowable range) that appears in the corresponding image is specified.
  • the classifier 42 identifies the type of the object image included in each of the plurality of image IMGs on the premise (constraint) that the size of the object image to be detected is included in the permissible range.
  • the detection data OUT includes the bounding box information for each object, the height and width of the bounding box can be used as the object size information.
  • the type information may indicate the possibility (affiliation probability) corresponding to each of the plurality of types, or may include an identifier of the type having the highest affiliation probability.
  • FIG. 4 is a cross-sectional view of a vehicle lamp 200 having a built-in gating camera 20.
  • the vehicle lamp 200 includes a housing 210, an outer lens 220, a high beam and low beam lamp unit 230H / 230L, and a gating camera 20.
  • the lamp unit 230H / 230L and the gating camera 20 are housed in the housing 210.
  • FIG. 5 (a) and 5 (b) are diagrams illustrating shooting by the gating camera 20 through the outer lens 220.
  • deposits 222 such as raindrops and dirt are attached to the outer lens 220.
  • the distance d MIN to short of the boundaries of the imaging target range RNG 1 is too short, and thus to include outer lens 220 to the imaging range RNG 1.
  • the deposit 222 is reflected in the image IMG 1 .
  • the light spot 224 due to the internal reflection of the outer lens 220 is reflected in the image IMG 1 .
  • the image IMG 1 may be affected by the distortion 226 caused by the outer lens 220.
  • the gating camera 20 is configured to exclude the outer lens 220 from the shooting range.
  • the range in which an object is reflected when a certain range is photographed is determined based on the timings t 0 to t 3 of light projection and exposure. That is, in the present embodiment, the exposure and light emission timings (t 0 to t 3 ) for each range RNG are determined so as to reduce the influence of the outer lens on the corresponding image. "The influence of the outer lens is reduced" means that (i) the deposits on the outer lens are not reflected on the image IMG, (ii) the light spots due to the internal reflection of the outer lens are not reflected on the image IMG, etc. including.
  • 6 (a) and 6 (b) are diagrams for explaining shooting in which the influence of the outer lens is excluded.
  • the foremost range RNG 1 is defined so as not to include the outer lens 220.
  • the influence of the outer lens 220 may appear in the image IMG 1 . Therefore, it is preferable to define the range in which the influence of the outer lens 220 is expressed as the shooting exclusion range and the back side of the shooting exclusion range as the shooting possible range, and define the range RNG 1 within the shooting range.
  • the image IMG 1 obtained for the range RNG 1 does not include the deposits of the outer lens 220, and high image quality can be obtained.
  • the timing of exposure and light emission that reduces the influence of the outer lens 220 may be theoretically calculated from the positional relationship of the floodlight 22, the image sensor 24, and the outer lens 220. ..
  • the image pickup surface IS of the image sensor 24 and the light emitting surface ES of the floodlight 22 do not always match. Further, the distance between the light emitting surface ES of the floodlight 22 and the outer lens 220 and the distance between the image pickup surface IS of the image sensor 24 and the outer lens 220 do not always match. Under these circumstances, it is not easy to determine the timing of light projection and exposure by theoretical calculation.
  • the controller 26 monitors the output image IMG i of the image sensor 24 while changing the timing of light projection and exposure for each range RNG i so that the influence of the outer lens 220 on the image IMG i is reduced.
  • the timing of exposure and light emission may be optimized. Instead of the controller 26, this optimization process may be performed by a computer outside the vehicle lamp 200.
  • the designer or the inspector manually monitors the output image of the image sensor 24 while changing the timing of light projection and exposure, and the timing of exposure and light emission. May be optimized.
  • the auxiliary range RNG 0 In addition to the plurality of ranges RNG 1 to RNG N defined so as not to be affected by the outer lens 220, the auxiliary range RNG 0 whose timings related to light projection and exposure are determined so as to be affected by the outer lens 220. May be retained. This auxiliary range RNG 0 may match the exclusion range of FIG. 6 (a). Then, if the vehicle is switched to the auxiliary range RNG 0 and photographed while the vehicle is stopped or running, the deposits on the outer lens 220 can be detected based on the obtained image.
  • the present invention relates to a vehicle lamp.

Abstract

ゲーティングカメラ20は、アウターレンズ220の内側に収容される。ゲーティングカメラ20は、奥行き方向について複数のレンジに区切り、各レンジについて、露光と発光のタイミングを、そのレンジについて定められた所定値にセットして撮影するよう構成される。各レンジRNGiの露光と発光のタイミング(t0,t1,t2,t3)は、画像IMGiに対してアウターレンズ220が影響を与えないように定められる。

Description

車両用灯具
 本発明は、車両用灯具に関する。
 自動運転やヘッドランプの配光の自動制御のために、車両の周囲に存在する物体の位置および種類をセンシングする物体識別システムが利用される。物体識別システムは、センサと、センサの出力を解析する演算処理装置を含む。センサは、カメラ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ミリ波レーダ、超音波ソナーなどの中から、用途、要求精度やコストを考慮して選択される。
一般的な単眼のカメラからは、奥行きの情報を得ることができない。したがって、異なる距離に位置する複数の物体が重なっている場合に、それらを分離することが難しい。
 奥行き情報が得られるカメラとして、TOFカメラが知られている。TOF(Time Of Flight)カメラは、発光デバイスによって赤外光を投光し、反射光がイメージセンサに戻ってくるまでの飛行時間を測定し、飛行時間を距離情報に変換した画像を得るものである。
特開2009-257983号公報 国際公開WO2017/110413A1
 本出願人は、TOFカメラに代わるセンサ(以下、本明細書においてゲーティングカメラと称する)を提案している(特許文献1,2)。ゲーティングカメラは、撮影範囲を複数のレンジに区切り、レンジ毎に露光タイミングおよび露光時間を変化させて複数回、撮像する。これにより、対象のレンジ毎に画像が得られ、各画像は対応するレンジに含まれる物体のみを含む。
 本発明者は、ゲーティングカメラを車両用灯具(ヘッドランプ)に内蔵することを検討した。この場合、ゲーティングカメラによる撮影は、ヘッドランプのアウターレンズ越しに行われることとなる。アウターレンズに付着したゴミや雨滴、アウターレンズの内面反射は、ゲーティングカメラの画像を劣化させる。
 本発明は係る状況においてなされたものであり、そのある態様の例示的な目的のひとつは、車両用灯具に内蔵されるゲーティングカメラの画質の改善にある。
 本発明のある態様は車両用灯具に関する。車両用灯具は、アウターレンズと、アウターレンズの内側に収容されるゲーティングカメラを備える。ゲーティングカメラは、奥行き方向について複数のレンジに区切り、各レンジについて、露光と発光のタイミングを、そのレンジについて定められた所定値にセットして撮影するよう構成される。各レンジの、露光と発光のタイミングは、画像に対してアウターレンズが影響を与えないように定められる。
 本発明によれば、アウターレンズの付着物や内面反射の影響が少ない画像を得ることができる。
実施の形態に係る物体識別システムのブロック図である。 ゲーティングカメラの動作を説明する図である。 図3(a)、(b)は、ゲーティングカメラにより得られる画像を説明する図である。 ゲーティングカメラを内蔵する車両用灯具の断面図である。 図5(a)、(b)は、アウターレンズ越しのゲーティングカメラによる撮影を説明する図である。 図6(a)、(b)は、アウターレンズの影響が除外された撮影を説明する図である。
 以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。
 図1は、実施の形態に係る物体識別システム10のブロック図である。この物体識別システム10は、自動車やバイクなどの車両に搭載され、車両の周囲に存在する物体OBJの種類(カテゴリ、あるいはクラスともいう)を判定する。
 物体識別システム10は、主としてゲーティングカメラ20および演算処理装置40を備える。ゲーティングカメラ20は、投光器22、イメージセンサ24、コントローラ26を含む。ゲーティングカメラ20による撮像は、奥行き方向について複数N個(N≧2)のレンジRNG~RNGに区切って行われる。隣接するレンジ同士は、それらの境界において奥行き方向にオーバーラップしてもよい。
 投光器22は、コントローラ26から与えられる投光タイミング信号S1と同期して、プローブ光L1を車両前方に照射する。プローブ光L1は赤外光であることが好ましいが、その限りでなく、所定の波長を有する可視光であってもよい。
 イメージセンサ24は、コントローラ26から与えられる撮影タイミング信号S2と同期した露光制御が可能であり、画像IMGを生成可能に構成される。イメージセンサ24は、プローブ光L1と同じ波長に感度を有しており、物体OBJが反射した反射光(戻り光)L2を撮影する。
 コントローラ26は、レンジRNGごとに予め定められた投光タイミングと露光タイミングを保持している。コントローラ26は、あるレンジRNGiを撮影するとき、そのレンジに対応する投光タイミングと露光タイミングにもとづいて投光タイミング信号S1および撮影タイミング信号S2を生成し、撮影を行う。ゲーティングカメラ20は、複数のレンジRNG~RNGに対応する複数の画像IMG~IMGを生成することができ、i番目の画像IMGには、対応するレンジRNGに含まれる物体のみが写ることとなる。
 図2は、ゲーティングカメラ20の動作を説明する図である。図2にはi番目のレンジRNGを測定するときの様子が示される。投光器22は、投光タイミング信号S1と同期して、時刻t~tの間の発光期間τの間、発光する。最上段には、横軸に時間、縦軸に距離をとった光線のダイアグラムが示される。ゲーティングカメラ20から、レンジRNGの手前の境界までの距離をdMINi、レンジRNGの奥側の境界までの距離をdMAXiとする。
 ある時刻に投光器22を出発した光が、距離dMINiに到達してその反射光がイメージセンサ24に戻ってくるまでのラウンドトリップ時間TMINiは、
 TMINi=2×dMINi/c
である。cは光速である。
 同様に、ある時刻に投光器22を出発した光が、距離dMAXiに到達してその反射光がイメージセンサ24に戻ってくるまでのラウンドトリップ時間TMAXiは、
 TMAXi=2×dMAXi/c
である。
 レンジRNGに含まれる物体OBJのみを撮影したいとき、コントローラ26は、時刻t=t+TMINiに露光を開始し、時刻t=t+TMAXiに露光を終了するように、撮影タイミング信号S2を生成する。これが1回の露光動作である。
 i番目のレンジRNGを撮影する際に、複数回の露光を行ってもよい。この場合、コントローラ26は、所定の周期τで、上述の露光動作を複数回にわたり繰り返せばよい。
 なお、図2の制御タイミングt~tを与えたときに、実際に撮影される画像には、距離dMINiより手前の狭い領域(図2にpで示す)に含まれる物体が、レンジRNGに含まれる物体よりも相対的に低い露出で写り込む。同様に距離dMAXiより奥側の狭い領域(図2にqで示す)に含まれる物体も、相対的に低い露出で写り込む。
 図3(a)、(b)は、ゲーティングカメラ20により得られる画像を説明する図である。図3(a)の例では、レンジRNGに物体(歩行者)OBJが存在し、レンジRNGに物体(車両)OBJが存在している。図3(b)には、図3(a)の状況で得られる複数の画像IMG~IMGが示される。画像IMGを撮影するとき、イメージセンサはレンジRNGからの反射光のみにより露光されるため、画像IMGにはいかなる物体像も写らない。
 画像IMGを撮影するとき、イメージセンサはレンジRNGからの反射光のみにより露光されるため、画像IMGには、物体像OBJのみが写る。同様に画像IMGを撮影するとき、イメージセンサはレンジRNGからの反射光のみにより露光されるため、画像IMGには、物体像OBJのみが写る。このようにゲーティングカメラ20によれば、レンジ毎に物体を分離して撮影することができる。
 図1に戻る。演算処理装置40は、ゲーティングカメラ20によって得られる複数のレンジRNG~RNGに対応する複数の画像IMG~IMGにもとづいて、物体の種類を識別可能に構成される。演算処理装置40は、機械学習によって生成された予測モデルにもとづいて実装される分類器42を備える。分類器42のアルゴリズムは特に限定されないが、YOLO(You Only Look Once)、SSD(Single Shot MultiBox Detector)、R-CNN(Region-based Convolutional Neural Network)、SPPnet(Spatial Pyramid Pooling)、Faster R-CNN、DSSD(Deconvolution -SSD)、Mask R-CNNなどを採用することができ、あるいは、将来開発されるアルゴリズムを採用できる。
 演算処理装置40は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、マイコンなどのプロセッサ(ハードウェア)と、プロセッサ(ハードウェア)が実行するソフトウェアプログラムの組み合わせで実装することができる。演算処理装置40は、複数のプロセッサの組み合わせであってもよい。あるいは演算処理装置40はハードウェアのみで構成してもよい。
 複数のレンジそれぞれについて、対応する画像に写る物体像の大きさの範囲(許容範囲という)が規定されている。分類器42は、検出対象の物体像のサイズは、許容範囲に含まれるという前提(制約)のもと、複数の画像IMGそれぞれに含まれる物体像の種類を識別する。
 たとえば、分類器42の出力(検出データという)OUT(i=1,2,…N)は、i番目の画像データIMGに含まれる各物体像のサイズ情報と、その種類(カテゴリ)の情報を含む。検出データOUTが、物体ごとのバウンディングボックスの情報を含む場合、バウンディングボックスの高さと幅を、物体のサイズ情報とすることができる。種類の情報は、複数の種類それぞれに該当する可能性(所属確率)を示してもよいし、最も所属確率が高い種類の識別子を含んでもよい。
 図4は、ゲーティングカメラ20を内蔵する車両用灯具200の断面図である。車両用灯具200は、筐体210、アウターレンズ220、ハイビームおよびロービームの灯具ユニット230H/230Lおよびゲーティングカメラ20を備える。灯具ユニット230H/230Lおよびゲーティングカメラ20は、筐体210に収容されている。
 図5(a)、(b)は、アウターレンズ220越しのゲーティングカメラ20による撮影を説明する図である。図5(a)に示すように、アウターレンズ220には、雨滴や汚れなどの付着物222が付着している。撮影対象のレンジRNGの手前の境界までの距離dMINが短すぎると、撮影レンジRNGにアウターレンズ220が含まれることとなる。その結果、図5(b)に示すように、付着物222が画像IMGに写り込む。また画像IMGには、アウターレンズ220の内面反射による光点224が写り込む。さらに画像IMGは、アウターレンズ220に起因する歪み226の影響を受ける場合もある。
 このようなアウターレンズの影響を受けた画像IMGにもとづいて物体認識を行うと、識別率が低下する。そこで、ゲーティングカメラ20は、アウターレンズ220を撮影範囲から除外するように構成される。図2を参照して説明したように、あるレンジを撮影したときに物体が写り込む範囲は、投光と露光のタイミングt~tにもとづいて定まる。つまり本実施の形態では、各レンジRNGごとの、露光と発光のタイミング(t~t)は、対応する画像に対するアウターレンズの影響が低減するように定められる。「アウターレンズの影響が低減する」とは、(i)アウターレンズの付着物が画像IMGに写り込まないこと、(ii)アウターレンズの内面反射による光点が画像IMGに写り込まないこと、などを含む。
 図6(a)、(b)は、アウターレンズの影響が除外された撮影を説明する図である。図6(a)に示すように、最も手前のレンジRNGは、アウターレンズ220を含まないように定められる。ただし、レンジRNGがアウターレンズ220を含んでいない場合であっても、アウターレンズ220の影響が画像IMGに現れる場合がある。そこで、アウターレンズ220の影響が表される範囲を撮影除外範囲、撮影除外範囲よりも奥側を撮影可能範囲として定め、レンジRNGを、撮影可能範囲内で規定するとよい。これにより図6(b)に示すように、レンジRNGについて得られる画像IMGには、アウターレンズ220の付着物などが写り込まず、高画質が得られることとなる。
 各レンジRNG~RNGそれぞれについて、アウターレンズ220の影響を低減するような露光と発光のタイミングは、投光器22、イメージセンサ24およびアウターレンズ220の位置関係から、理論的に計算してもよい。
 ただし、実際の車両用灯具200では、図3に示すように、イメージセンサ24の撮像面ISと、投光器22の発光面ESは一致しているとは限らない。また投光器22の発光面ESとアウターレンズ220の距離と、イメージセンサ24の撮像面ISとアウターレンズ220の距離も一致しているとは限らない。このような事情から、理論計算によって、投光および露光に関するタイミングを決定することは容易でない。
 そこでコントローラ26は、各レンジRNGについて、投光および露光に関するタイミングを変化させながら、イメージセンサ24の出力画像IMGを監視し、画像IMGに対するアウターレンズ220の影響が低減されるように、露光と発光のタイミングを最適化してもよい。コントローラ26に変えて、車両用灯具200の外部のコンピュータによってこの最適化処理を行ってもよい。
 あるいは、車両用灯具200の設計段階、あるいは検査工程において、設計者あるいは検査員がマニュアルで、投光および露光に関するタイミングを変化させながら、イメージセンサ24の出力画像を監視し、露光と発光のタイミングを最適化してもよい。
 なお、アウターレンズ220の影響を受けないように定められた複数のレンジRNG~RNGとは別に、アウターレンズ220の影響を受けるように投光および露光に関するタイミングが定められた補助レンジRNGを保持しておいてもよい。この補助レンジRNGは、図6(a)の除外範囲と一致させてもよい。そして、車両の停車中や走行中に、補助レンジRNGに切り替えて撮影を行えば、得られた画像にもとづいて、アウターレンズ220の付着物を検出することができる。
 実施の形態にもとづき、具体的な語句を用いて本発明を説明したが、実施の形態は、本発明の原理、応用の一側面を示しているにすぎず、実施の形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が認められる。
 本発明は、車両用灯具に関する。
 S1 投光タイミング信号
 S2 撮影タイミング信号
 10 物体識別システム
 20 ゲーティングカメラ
 22 投光器
 24 イメージセンサ
 26 コントローラ
 40 演算処理装置
 42 分類器
 200 車両用灯具
 210 筐体
 220 アウターレンズ
 230 灯具ユニット

Claims (3)

  1.  アウターレンズと、
     奥行き方向について複数のレンジに区切り、各レンジについて、露光と発光のタイミングを、そのレンジについて定められた所定値にセットして撮影するよう構成され、前記アウターレンズの内側に収容されるゲーティングカメラと、
     を備え、
     各レンジの前記露光と発光のタイミングは、画像に対して前記アウターレンズが影響を与えないように定められることを特徴とする車両用灯具。
  2.  前記ゲーティングカメラは、前記画像に対する前記アウターレンズの影響が低減されるように、自動的に前記露光と発光のタイミングを最適化するコントローラを含むことを特徴とする請求項1に記載の車両用灯具。
  3.  前記複数のレンジとは別に、前記画像に対して前記アウターレンズの付着物が写るように、前記露光と発光のタイミングが定められた補助レンジが用意され、前記補助レンジに対応する画像にもとづいて、前記アウターレンズの付着物を検出可能であることを特徴とする請求項1または2に記載の車両用灯具。
PCT/JP2020/024761 2019-06-28 2020-06-24 車両用灯具 WO2020262446A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021527683A JP7474759B2 (ja) 2019-06-28 2020-06-24 車両用灯具

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019122037 2019-06-28
JP2019-122037 2019-06-28

Publications (1)

Publication Number Publication Date
WO2020262446A1 true WO2020262446A1 (ja) 2020-12-30

Family

ID=73887860

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/024761 WO2020262446A1 (ja) 2019-06-28 2020-06-24 車両用灯具

Country Status (3)

Country Link
JP (1) JP7474759B2 (ja)
CN (1) CN112153252B (ja)
WO (1) WO2020262446A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252357A (ja) * 2007-03-29 2008-10-16 Matsushita Electric Ind Co Ltd 暗視撮像装置及びヘッドライトモジュール
JP2009257981A (ja) * 2008-04-18 2009-11-05 Calsonic Kansei Corp 車両用距離画像データ生成装置
JP2017090409A (ja) * 2015-11-17 2017-05-25 株式会社デンソーウェーブ レーザレーダ装置の着雪検出方法、着雪検出装置、着雪検出プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5469527B2 (ja) * 2010-05-10 2014-04-16 パナソニック株式会社 撮像装置
CN204119335U (zh) * 2014-09-29 2015-01-21 华为技术有限公司 一种摄像设备
EP3396410A4 (en) 2015-12-21 2019-08-21 Koito Manufacturing Co., Ltd. IMAGE ACQUISITION DEVICE FOR VEHICLES, CONTROL DEVICE, VEHICLE HAVING IMAGE ACQUISITION DEVICE FOR VEHICLES AND CONTROL DEVICE, AND IMAGE ACQUISITION METHOD FOR VEHICLES

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252357A (ja) * 2007-03-29 2008-10-16 Matsushita Electric Ind Co Ltd 暗視撮像装置及びヘッドライトモジュール
JP2009257981A (ja) * 2008-04-18 2009-11-05 Calsonic Kansei Corp 車両用距離画像データ生成装置
JP2017090409A (ja) * 2015-11-17 2017-05-25 株式会社デンソーウェーブ レーザレーダ装置の着雪検出方法、着雪検出装置、着雪検出プログラム

Also Published As

Publication number Publication date
CN112153252A (zh) 2020-12-29
CN112153252B (zh) 2022-10-14
JP7474759B2 (ja) 2024-04-25
JPWO2020262446A1 (ja) 2020-12-30

Similar Documents

Publication Publication Date Title
JP7369921B2 (ja) 物体識別システム、演算処理装置、自動車、車両用灯具、分類器の学習方法
US11073379B2 (en) 3-D environment sensing by means of projector and camera modules
JP2022505772A (ja) 構造化光照明付き飛行時間型センサ
WO2020184447A1 (ja) ゲーティングカメラ、自動車、車両用灯具、物体識別システム、演算処理装置、物体識別方法、画像表示システム、検査方法、撮像装置、画像処理装置
JP6435661B2 (ja) 物体識別システム、情報処理装置、情報処理方法及びプログラム
JPWO2017110415A1 (ja) 車両用センサおよびそれを備えた車両
US11803982B2 (en) Image processing device and three-dimensional measuring system
TW202021340A (zh) 用於相機之紅外光預閃光
CN107483815A (zh) 运动物体的拍摄方法和装置
US11303817B2 (en) Active sensor, object identification system, vehicle and vehicle lamp
WO2021201269A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
WO2020262446A1 (ja) 車両用灯具
WO2021193645A1 (ja) ゲーティングカメラ、センシングシステム、車両用灯具
WO2021060397A1 (ja) ゲーティングカメラ、自動車、車両用灯具、画像処理装置、画像処理方法
JP2010190793A (ja) 距離計測装置及び距離計測方法
WO2020195755A1 (ja) 測距撮像システム、測距撮像方法、及びプログラム
WO2023013776A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
JP7043375B2 (ja) ステレオカメラ、車載灯具ユニット、及びステレオカメラシステム
WO2021015208A1 (ja) アクティブセンサ、ゲーティングカメラ、自動車、車両用灯具
WO2022145261A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
WO2023013777A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
WO2023189599A1 (ja) 距離画像センサ、および車両用灯具
WO2020218283A1 (ja) ToFカメラ、車両用灯具、自動車
WO2021172478A1 (ja) センサ、自動車および周囲環境のセンシング方法
WO2023224077A1 (ja) ToFカメラ、車両用センシングシステム、および車両用灯具

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20831287

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021527683

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20831287

Country of ref document: EP

Kind code of ref document: A1