WO2022145261A1 - ゲーティングカメラ、車両用センシングシステム、車両用灯具 - Google Patents

ゲーティングカメラ、車両用センシングシステム、車両用灯具 Download PDF

Info

Publication number
WO2022145261A1
WO2022145261A1 PCT/JP2021/046824 JP2021046824W WO2022145261A1 WO 2022145261 A1 WO2022145261 A1 WO 2022145261A1 JP 2021046824 W JP2021046824 W JP 2021046824W WO 2022145261 A1 WO2022145261 A1 WO 2022145261A1
Authority
WO
WIPO (PCT)
Prior art keywords
control signal
image sensor
calibration
light
exposure control
Prior art date
Application number
PCT/JP2021/046824
Other languages
English (en)
French (fr)
Inventor
健一 星
晃志 伊多波
大騎 加藤
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to JP2022572996A priority Critical patent/JPWO2022145261A1/ja
Priority to US18/269,883 priority patent/US20240067094A1/en
Publication of WO2022145261A1 publication Critical patent/WO2022145261A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0042Arrangements for holding or mounting articles, not otherwise provided for characterised by mounting means
    • B60R2011/0043Arrangements for holding or mounting articles, not otherwise provided for characterised by mounting means for integrated articles, i.e. not substantially protruding from the surrounding parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/103Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using camera systems provided with artificial illumination device, e.g. IR light source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/108Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 'non-standard' camera systems, e.g. camera sensor used for additional purposes i.a. rain sensor, camera sensor split in multiple image areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images

Definitions

  • an object identification system that senses the position and type of objects existing around the vehicle.
  • the object identification system includes a sensor and an arithmetic processing device that analyzes the output of the sensor.
  • the sensor is selected from among cameras, LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), millimeter wave radar, ultrasonic sonar, etc. in consideration of application, required accuracy and cost.
  • Patent Documents 1 to 3 disclose techniques related to calibration.
  • Patent Document 3 discloses a technique in which a part of the emitted light of a light source is incident on an image sensor by an optical guide unit and an optical fiber. As in Patent Document 2, since a part of the image sensor is allocated for calibration, it cannot be used at the time of normal shooting, and a part of the hardware is wasted.
  • the gating camera can be calibrated.
  • the controller may generate a second exposure control signal at the time of calibration during the period when the image sensor cannot detect the calibration light.
  • the controller may acquire a time difference in which the pixel value obtained in response to the first exposure control signal is corrected by the pixel value obtained in response to the second exposure control signal, and the value increases. Since the ambient light can be detected by the second exposure control signal and the influence of the ambient light can be reduced, the accuracy of calibration can be improved. Especially in the case of a sensor for a vehicle, this configuration is effective because the ambient light cannot be blocked at the time of calibration.
  • the lighting device may include a laser diode and the calibration light source may include a light emitting diode.
  • the calibration light source may include a light emitting diode.
  • the lighting device and the light source for calibration may share a drive circuit.
  • FIG. 1 is a block diagram of the sensing system 10 according to the embodiment.
  • This sensing system 10 is mounted on a vehicle such as an automobile or a motorcycle, and detects an object OBJ existing around the vehicle.
  • the image sensor 24 and the processing device 28 are connected to each other via a serial interface or the like.
  • the processing device 28 receives the raw image IMG_RAW i from the image sensor 24 and generates sliced images IMGs i .
  • the controller 26 sweeps the time difference ⁇ between the light emission control signal S1 and the exposure control signal S2, and monitors the change in the pixel value of one or a plurality of pixels (referred to as the pixel of interest) of the image sensor 24. For example, the controller 26 acquires the time difference ⁇ CAL when a relatively large pixel value is obtained.
  • the time difference ⁇ CAL can be determined by the controller 26 or the processing device 28.
  • L3a represents the departure time of the calibration light L3 from the calibration light source 30, and L3b represents the arrival time of the calibration light L3 to the image sensor 24.
  • Tb There is a delay time Tb from the assertion of the light emission control signal S1 to the light emission timing (departure time) of the calibration light source 30.
  • the pixel value Pa of the pixel of interest becomes zero when the arrival time L3b of the calibration light L3 deviates from the exposure period IS of the image sensor 24.
  • the arrival time L3b of the calibration light L3 is included in the exposure period IS of the image sensor 24, the pixel value of the pixel of interest Pa increases.
  • FIG. 10 is a block diagram of the sensing system 10.
  • the sensing system 10 includes an arithmetic processing device 40 in addition to the gating camera 20 described above.
  • the sensing system 10 is an object detection system that is mounted on a vehicle such as an automobile or a motorcycle and determines the type (also referred to as a category or class) of an object OBJ existing around the vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

ゲーティングカメラ20は、視野を奥行き方向について複数のレンジに区切り、複数のレンジに対応する複数のスライス画像を生成する。コントローラ26は、発光制御信号S1と露光制御信号S2を生成可能である。照明装置22は、通常撮影時に、発光制御信号S1に応じてプローブ光L1を照射する。イメージセンサ24は、露光制御信号S2に応じて露光する。キャリブレーション用光源30は、キャリブレーション時に、発光制御信号S1に応じてイメージセンサ24にキャリブレーション光を照射する。コントローラ26は、キャリブレーション時に、発光制御信号S1と露光制御信号S2の時間差τをスイープし、イメージセンサ24の画素値の変化を監視する。

Description

ゲーティングカメラ、車両用センシングシステム、車両用灯具
 本開示は、ゲーティングカメラに関する。
 自動運転やヘッドランプの配光の自動制御のために、車両の周囲に存在する物体の位置および種類をセンシングする物体識別システムが利用される。物体識別システムは、センサと、センサの出力を解析する演算処理装置を含む。センサは、カメラ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ミリ波レーダ、超音波ソナーなどの中から、用途、要求精度やコストを考慮して選択される。
 一般的な単眼のカメラからは、奥行きの情報を得ることができない。したがって、異なる距離に位置する複数の物体が重なっている場合に、それらを分離することが難しい。
 奥行き情報が得られるカメラとして、TOFカメラが知られている。TOF(Time Of Flight)カメラは、発光デバイスによって赤外光を投光し、反射光がイメージセンサに戻ってくるまでの飛行時間を測定し、飛行時間を距離情報に変換したTOF画像を得るものである。
 TOFカメラに代わるアクティブセンサとして、ゲーティングカメラ(Gating CameraあるいはGated Camera)が提案されている(特許文献1,2)。ゲーティングカメラは、撮影範囲を複数のレンジに区切り、レンジ毎に露光タイミングおよび露光時間を変化させて、撮像する。これにより、対象のレンジ毎にスライス画像が得られ、各スライス画像は対応するレンジに含まれる物体のみを含む。
 測距センサやゲーティングカメラをはじめとするアクティブセンサでは、発光デバイスの発光タイミングと受光デバイスの露光タイミングの時間差が正確に校正される必要がある。特許文献1~3には、キャリブレーションに関する技術が開示されている。
特開2020-60433号公報 特開2020-85477号公報 特開2020-148512号公報
 特許文献1から3の技術は、ToFセンサであり、飛行時間を測定するハードウェアの存在を前提としており、ゲーティングカメラに適用することはできない。
 特許文献1には、小型の電子機器に搭載される測距システムのキャリブレーション方法が開示される。具体的は、電子機器を、机などの上に載置し、机の表面を反射物(反射体)として利用する。この技術の適用は、小型の電子機器に限定され、常に同じ距離に反射物を存在するとは限らない車両用のセンサに利用できない。
 特許文献2には、光測距装置に、発光部の出射光を受光部に折り返す反射部が内蔵される。この技術は、発光部の出射光の一部が反射部において遮蔽され、あるいは受光部の一部には、反射部による反射光のみが入射することになる。つまり、ハードウェアの一部がキャリブレーションに割り当てられることになるため、通常の撮影時に利用することができず、ハードウェアの一部(あるいはエネルギーの一部)が無駄となっている。
 特許文献3には、光源の出射光の一部を、光ガイド部および光ファイバによって、イメージセンサに入射する技術が開示される。これも特許文献2と同様に、イメージセンサの一部が、キャリブレーション用に割り当てられるため、通常撮影時に利用できず、ハードウェアの一部が無駄となっている。
 本開示は係る状況においてなされたものであり、そのある態様の例示的な目的のひとつは、キャリブレーションが可能なゲーティングカメラの提供にある。
 本開示のある態様は、視野を奥行き方向について複数のレンジに区切り、複数のレンジに対応する複数のスライス画像を生成するゲーティングカメラに関する。ゲーティングカメラは、発光制御信号と第1露光制御信号を生成可能なコントローラと、通常撮影時に、発光制御信号に応じてプローブ光を照射する照明装置と、第1露光制御信号に応じて露光するイメージセンサと、キャリブレーション時に、発光制御信号に応じてイメージセンサにキャリブレーション光を照射するキャリブレーション用光源と、を備える。コントローラは、キャリブレーション時に、発光制御信号と第1露光制御信号の時間差をスイープし、イメージセンサの画素値が増大する時間差を取得する。
 本開示のある態様によれば、ゲーティングカメラのキャリブレーションが可能となる。
実施形態に係るセンシングシステムのブロック図である。 ゲーティングカメラの通常撮影の動作を説明する図である。 図3(a)、(b)は、ゲーティングカメラにより得られるスライス画像を説明する図である。 実施例1に係るキャリブレーションを説明する図である。 時間差τと注目画素の画素値Paの関係を示す図である。 実施例2に係るキャリブレーションを説明する図である。 第1露光と第2露光を説明する図である。 図8(a)~(c)は、第1露光と第2露光を説明する図である。 図9(a)、(b)は、照明装置およびキャリブレーション用光源のブロック図である。 センシングシステムのブロック図である。 図11(a)、(b)は、ゲーティングカメラを備える自動車を示す図である。 センシングシステムを備える車両用灯具を示すブロック図である。
 本開示のいくつかの例示的な実施形態の概要を説明する。この概要は、後述する詳細な説明の前置きとして、実施形態の基本的な理解を目的として、1つまたは複数の実施形態のいくつかの概念を簡略化して説明するものであり、発明あるいは開示の広さを限定するものではない。またこの概要は、考えられるすべての実施形態の包括的な概要ではなく、実施形態の欠くべからざる構成要素を限定するものではない。便宜上、「一実施形態」は、本明細書に開示するひとつの実施形態(実施例や変形例)または複数の実施形態(実施例や変形例)を指すものとして用いる場合がある。
 一実施形態に係るゲーティングカメラは、視野を奥行き方向について複数のレンジに区切り、複数のレンジに対応する複数のスライス画像を生成する。ゲーティングカメラは、発光制御信号と第1露光制御信号を生成可能なコントローラと、通常撮影時に、発光制御信号に応じてプローブ光を照射する照明装置と、第1露光制御信号に応じて露光するイメージセンサと、キャリブレーション時に、発光制御信号に応じてイメージセンサにキャリブレーション光を照射するキャリブレーション用光源と、を備える。コントローラは、キャリブレーション時に、発光制御信号と第1露光制御信号の時間差をスイープし、各時間差におけるイメージセンサの画素値の変化を監視する。
 この構成によれば、飛行時間を測定するハードウェアを有しないゲーティングカメラにおいて、タイミング誤差をキャリブレーションできる。さらに、通常撮影時に使用する光源に加えて、キャリブレーションのための光源を用意することにより、通常撮影時には、イメージセンサの全画素を利用した撮影が可能となり、また照明装置が生成するプローブ光も遮蔽されないため、ハードウェアの無駄を減らすことができる。
 一実施形態において、コントローラは、画素値が相対的に増大するときの時間差の値を取得してもよい。
 一実施形態において、コントローラは、キャリブレーション時に、イメージセンサがキャリブレーション光を検出できない期間に、第2露光制御信号を生成してもよい。コントローラは、第1露光制御信号に応じて得られる画素値を、第2露光制御信号に応じて得られる画素値により補正した値が、増大する時間差を取得してもよい。第2露光制御信号によって環境光を検出でき、環境光の影響を低減できるため、キャリブレーションの精度を高めることができる。特に車両用のセンサの場合、キャリブレーション時に環境光を遮断することができないため、この構成は有効である。
 一実施形態において、第2露光制御信号は時間差を切りかえるたびに生成されてもよい。環境光が時間的に変動する場合に、キャリブレーション精度を高めることができる。
 一実施形態において、第2露光制御信号は第1露光制御信号とセットで生成されてもよい。つまり、キャリブレーション光の撮影を目的とした露光を行うたびに、環境光を取り込むことで、さらに環境光の影響を抑制できる。
 一実施形態において、イメージセンサはマルチタップイメージセンサであり、第1露光制御信号に応じて第1タップを利用して撮影し、第2露光制御信号に応じて第2タップを利用して撮影してもよい。
 一実施形態において、照明装置はレーザダイオードを含み、キャリブレーション用光源は発光ダイオードを含んでもよい。キャリブレーション用光源として、レーザダイオードではなく、発光ダイオードを用いることで、コスト増を抑制できる。
 一実施形態において、照明装置とキャリブレーション用光源は、駆動回路が共有されてもよい。
 一実施形態において、コントローラは、イメージセンサの複数の画素値を監視し、画素値ごとに、時間差を取得してもよい。イメージセンサの画素毎に、タイミング誤差が存在する場合には、画素毎の時間差をキャリブレーションできる。
 一実施形態において、コントローラは、イメージセンサの所定領域の画素値を監視し、当該画素値が増大する時間差を取得してもよい。画素ごとのタイミング誤差が無視できる場合には、この手法が好適である。
 一実施形態において、コントローラは、イメージセンサの複数の画素値を監視し、複数の画素値にもとづく代表値が増大する時間差を取得してもよい。
(実施形態)
 以下、好適な実施形態について、図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施形態は、開示および発明を限定するものではなく例示であって、実施形態に記述されるすべての特徴やその組み合わせは、必ずしも開示および発明の本質的なものであるとは限らない。
(実施形態)
 図1は、実施形態に係るセンシングシステム10のブロック図である。このセンシングシステム10は、自動車やバイクなどの車両に搭載され、車両の周囲に存在する物体OBJを検出する。
 センシングシステム10は、主としてゲーティングカメラ20を備える。ゲーティングカメラ20は、照明装置22、イメージセンサ24、コントローラ26、処理装置28、キャリブレーション用光源30を備える。ゲーティングカメラ20による撮像は、視野を奥行き方向について複数N個(N≧2)のレンジRNG~RNGに区切って行われる。隣接するレンジ同士は、それらの境界において奥行き方向にオーバーラップしてもよい。
 このセンシングシステム10は、通常撮影に加えて、キャリブレーションが可能である。先に、通常撮影に関連するハードウェアおよび機能について説明する。
 照明装置22は、通常撮影に使用され、コントローラ26から与えられる発光制御信号S1と同期して、プローブ光L1を車両前方に照射する。プローブ光L1は赤外光であることが好ましいが、その限りでなく、所定の波長を有する可視光や紫外光であってもよい。
 イメージセンサ24は、複数の画素を含み、コントローラ26から与えられる露光制御信号S2と同期した露光制御が可能であり、複数の画素を含む生画像(RAW画像)を生成する。このイメージセンサ24は、通常撮影とキャリブレーションの両方において使用される。イメージセンサ24は、プローブ光L1と同じ波長に感度を有しており、物体OBJが反射した反射光(戻り光)L2を撮影する。i番目のレンジRNGに関してイメージセンサ24が生成するスライス画像IMG_RAWは、必要に応じて生画像あるいは一次画像と称して、ゲーティングカメラ20の最終的な出力であるスライス画像IMGsと区別する。
 コントローラ26は、発光制御信号S1と露光制御信号S2を生成し、照明装置22によるプローブ光L1の照射タイミング(発光タイミング)と、イメージセンサ24による露光のタイミングを制御する。コントローラ26は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、マイコンなどのプロセッサ(ハードウェア)と、プロセッサ(ハードウェア)が実行するソフトウェアプログラムの組み合わせで実装することができる。
 イメージセンサ24と処理装置28は、シリアルインタフェースなどを介して接続されている。処理装置28は、イメージセンサ24から生画像IMG_RAWを受信し、スライス画像IMGsを生成する。
 ゲーティングカメラ20は、遠方の物体からの反射光を撮影するため、1回の撮影(発光・露光のセット)では、十分な画像が得られない場合がある。そこでゲーティングカメラ20は、レンジRNGごとに、複数N回(N≧2)の撮影を繰り返してもよい。この場合、ひとつのレンジRNGに対して、N枚の生画像IMG_RAWi1~IMG_RAWiNが生成される。処理装置28は、ひとつのレンジRNGに対して、N枚の生画像IMG_RAWi1~IMG_RAWiNを合成し、一枚のスライス画像IMGsを生成してもよい。
 なお、コントローラ26と処理装置28は、同一のハードウェアで構成されてもよく、たとえばマイクロコントローラとソフトウェアプログラムの組み合わせで実現してもよい。
 以上が通常撮影に関する構成および機能である。続いてゲーティングカメラ20による通常撮影について説明する。
 図2は、ゲーティングカメラ20の通常撮影の動作を説明する図である。図2にはi番目のレンジRNGを興味レンジ(Range Of Interest)としてセンシングするときの様子が示される。照明装置22は、発光制御信号S1と同期して、時刻t~tの間の発光期間τの間、発光する。最上段には、横軸に時間、縦軸に距離をとった光線のダイアグラムが示される。ゲーティングカメラ20から、レンジRNGの手前の境界までの距離をdMINi、レンジRNGの奥側の境界までの距離をdMAXiとする。
 ある時刻に照明装置22を出発した光が、距離dMINiに到達してその反射光がイメージセンサ24に戻ってくるまでのラウンドトリップ時間TMINiは、
 TMINi=2×dMINi/c
である。cは光速である。
 同様に、ある時刻に照明装置22を出発した光が、距離dMAXiに到達してその反射光がイメージセンサ24に戻ってくるまでのラウンドトリップ時間TMAXiは、
 TMAXi=2×dMAXi/c
である。
 レンジRNGに含まれる物体OBJのみを撮影したいとき、コントローラ26は、時刻t=t+TMINiに露光を開始し、時刻t=t+TMAXiに露光を終了するように、露光制御信号S2を生成する。これが1回の露光動作である。
 i番目のレンジRNGを撮影する際に、発光および露光を複数N回、行ってもよい。この場合、コントローラ26は、所定の周期τで、上述の露光動作を複数回にわたり繰り返せばよい。
 図3(a)、(b)は、ゲーティングカメラ20により得られるスライス画像を説明する図である。図3(a)の例では、レンジRNGに物体(歩行者)OBJが存在し、レンジRNGに物体(車両)OBJが存在している。図3(b)には、図3(a)の状況で得られる複数のスライス画像IMG~IMGが示される。スライス画像IMGを撮影するとき、イメージセンサはレンジRNGからの反射光のみにより露光されるため、スライス画像IMGにはいかなる物体像も写らない。
 スライス画像IMGを撮影するとき、イメージセンサはレンジRNGからの反射光のみにより露光されるため、スライス画像IMGには、物体像OBJのみが写る。同様にスライス画像IMGを撮影するとき、イメージセンサはレンジRNGからの反射光のみにより露光されるため、スライス画像IMGには、物体像OBJのみが写る。このようにゲーティングカメラ20によれば、レンジ毎に物体を分離して撮影することができる。
 以上がゲーティングカメラ20による通常撮影である。続いて、ゲーティングカメラ20のキャリブレーションに関する構成および機能について説明する。図1に戻る。キャリブレーションは、イグニッションオンをトリガとして行ってもよい。また走行中の任意のタイミングで行ってもよい。
 キャリブレーション用光源30は、キャリブレーション時にアクティブとなり、コントローラ26が生成する発光制御信号S1に応じてイメージセンサ24にキャリブレーション光L3を照射する。
 通常撮影時において発光制御信号S1がアサートされてから照明装置22が発光するまでの遅延時間Taと、キャリブレーション時において発光制御信号S1がアサートされてからキャリブレーション用光源30が発光するまでの遅延時間Tbの差分ΔTは既知であるものとする。
 コントローラ26は、キャリブレーション時に、発光制御信号S1と露光制御信号S2の時間差τをスイープし、イメージセンサ24のひとつまたは複数の画素(注目画素という)の画素値の変化を監視する。たとえばコントローラ26は、相対的に大きな画素値が得られるときの時間差τCALを取得する。時間差τCALの決定は、コントローラ26あるいは処理装置28において行うことができる。
 続いて、キャリブレーションの動作を、いくつかの実施例をもとに説明する。
(実施例1)
 図4は、実施例1に係るキャリブレーションを説明する図である。実施例1では、イメージセンサ24が生成する生画像IMG_RAWのうち1画素(注目画素という)のみに着目する。注目画素の位置は限定されないが、イメージセンサ24の中央であってもよい。
 ここでは簡単のため、発光制御信号S1と露光制御信号S2の時間差τを5段階(τ-2,τ-1,τ,τ,τ)でスイープするものとする。実際には、時間差τはより細かいステップで、より大きなステップ数で変化させることができる。
 L3aは、キャリブレーション光L3のキャリブレーション用光源30からの出発時刻を、L3bは、キャリブレーション光L3のイメージセンサ24への到着時刻を表す。発光制御信号S1のアサートから、キャリブレーション用光源30の発光タイミング(出発時刻)までには、遅延時間Tbが存在する。
 また、キャリブレーション光L3の出発時刻(L3a)から到着時刻(L3b)の間には、キャリブレーション光L3の伝搬遅延Tcが存在する。この伝搬遅延Tcは、キャリブレーション用光源30とイメージセンサ24の距離に応じて定まる。
 またISは、キャリブレーション用光源30の露光期間を表す。露光制御信号S2のアサートと、イメージセンサ24の実際の露光開始の間にも、遅延時間Tdが存在する。
 ノイズや環境光の影響を無視すれば、キャリブレーション光L3の到着時刻L3bが、イメージセンサ24の露光期間ISから外れているとき、注目画素の画素値Paはゼロとなる。一方、キャリブレーション光L3の到着時刻L3bが、イメージセンサ24の露光期間ISに含まれているとき、注目画素Paの画素値は増大する。
 図5は、時間差τと注目画素の画素値Paの関係を示す図である。横軸が時間差τを、縦軸が画素値を示す。時間差τをスイープさせると、ある時間差τCAL(図4の例では、τ=τ-1)において、注目画素値Paが増大する。コントローラ26は、画素値Paが相対的に大きくなるときの時間差τCALを取得する。
 時間差τCALの決め方は特に限定されない。たとえば画素値Paが最大値をとるときの時間差τをτCALとしてもよい。あるいは、画素値Paを横軸の時間差τで微分した値が所定値を超えたときの時間差を、τCALとしてもよい。
 コントローラ26は、この時間差τCALを利用して、通常撮影時の発光制御信号S1と露光制御信号S2の時間差を補正することができる。
 このように、飛行時間を測定するハードウェアを有しないゲーティングカメラにおいて、タイミング誤差をキャリブレーションできる。さらに、通常撮影時に使用する光源に加えて、キャリブレーションのための光源を用意することにより、通常撮影時には、イメージセンサ24の全画素を利用した撮影が可能となり、また照明装置22が生成するプローブ光L1も遮蔽されないため、ハードウェアの無駄を減らすことができる。
(実施例2)
 図6は、実施例2に係るキャリブレーションを説明する図である。実施例2では、同じ時間差τ(j=-2,-1,0,1,2)に対して、発光と露光を複数M回繰り返す。その結果、1個の時間差τに関して、M個の画素値Paが得られる。コントローラ26は、M個の画素値Paを加算し、あるいは平均して得られる画素値Pが増大するときの時間差τを取得する。
(実施例3)
 キャリブレーション中に、キャリブレーション光L3に対して無視できない大きさの環境光がイメージセンサ24に入射すると、キャリブレーションの精度が低下する。
 そこで実施例2では、キャリブレーション光L3を検出するための露光(第1露光)に加えて、環境光のみを測定するための露光(第2露光)を行う。
 図7は、第1露光と第2露光を説明する図である。第1露光は、イメージセンサ24がキャリブレーション光L3を検出しうる期間に行われ、第1露光のための露光制御信号S2を、第1露光制御信号S2aと称する。第1露光制御信号S2aは、実施例1における露光制御信号S2である。第2露光は、イメージセンサ24がキャリブレーション光L3を検出しえない期間に行われる。第2露光のための露光制御信号S2を、第2露光制御信号S2bと称する。つまり第2露光制御信号S2bは、発光制御信号S1から十分に離れたタイミングでアサートされる。
 コントローラ26(あるいは処理装置28)は、第1露光制御信号S2aに応じて得られる画素値Paを、第2露光制御信号S2bに応じて得られる画素値Pbにより補正する。コントローラ26は、補正後の画素値Pa’が増大するときの時間差τCALを取得する。もっとも簡易には、PaからPbを減算し、補正後の画素値Pa’(=Pa-Pb)を生成してもよい。
 図8(a)~(c)は、第1露光と第2露光を説明する図である。図8(a)に示すように、環境光の強さが経時的に変化しない場合には、1回のキャリブレーション中に、第2露光は1回行えばよい。第1露光で得られた画素値Pa-2~Paは、第2露光で得られた画素値Pbを用いて補正することができる。たとえば、PaからPbを減算し、補正後のPa’を算出してもよい。
 実際には、環境光の強さは時間とともに変動する場合の方が多い。そこで、時々刻々と変化する環境光を測定するために、図8(b)に示すように、1回のキャリブレーション中に、第2露光を複数回行ってもよい。たとえば、第2露光は、時間差τごとに行うとよい。この場合、時間差τ-2,τ-1,τ,τ,τそれぞれについて、第1露光にもとづく画素値Pa-2,Pa-1,Pa,Pa,Paが得られ、さらに第2露光にもとづく画素値Pb-2,Pb-1,Pb,Pb,Pbが得られる。j=-2,-1,0,1,2とすると、補正は、画素値PaからPbを減算して行うことができる。
 図8(c)では、図6(実施例2)で説明したように、1個の時間差τにおいて、第1露光が複数M回、行われる。図8(c)には、1個の時間差τの動作が示される。
 この場合、第1露光を行うたびに、第2露光を行うとよい。その結果、PaとPbがそれぞれM個生成される。各画素値Paを、対応する画素値Pbを用いて補正することで、M個の補正後の画素値Pa’が生成される。M個のPa’を処理することで、画素値Pが生成される。コントローラ26は、画素値Pが増大するときの時間差τを取得する。
 イメージセンサ24は、画素毎に複数のフローティングディフュージョンを有するマルチタップCMOSセンサであってもよい。この場合に、イメージセンサ24はマルチタップイメージセンサであり、第1露光制御信号S2aに応じて第1タップを利用して撮影し、第2露光制御信号S2bに応じて第2タップを利用して撮影するとよい。
 続いて照明装置22およびキャリブレーション用光源30の具体的な構成例を説明する。
 図9(a)、(b)は、照明装置22およびキャリブレーション用光源30のブロック図である。図9(a)において、照明装置22は、半導体発光素子22aとその駆動回路22bを含む。半導体発光素子22aは、車両の遠方を照射する必要があるため、高強度で指向性が強いレーザダイオードが好適である。駆動回路22bは、発光制御信号S1に応答して、半導体発光素子22aに駆動電流ILDを供給し、半導体発光素子22aをパルス発光させる。駆動回路22bの構成は特に限定されず、公知のレーザドライバを用いることができる。
 同様に、キャリブレーション用光源30は、半導体発光素子30aとその駆動回路30bを含む。半導体発光素子30aは、直近のイメージセンサ24を照射すればよいため、それほどの高出力や指向性は要求されないから、発光ダイオードが好適である。なお半導体発光素子30aとして、レーザダイオードを用いてもよい。
 駆動回路30bは、発光制御信号S1に応答して、半導体発光素子30aに駆動電流ILEDを供給し、半導体発光素子30aをパルス発光させる。駆動回路30bの構成は特に限定されず、公知のLEDドライバを用いることができる。
 図9(b)では、照明装置22とキャリブレーション用光源30は、駆動回路22b、30bを共有して構成される。この場合、半導体発光素子22a,30aと直列にスイッチSW1,SW2を挿入し、スイッチSW1,SW2の一方をオンすることで、照明装置22とキャリブレーション用光源30を切りかえてもよい。
 以上、本発明について、実施形態をもとに説明した。この実施形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。以下、こうした変形例について説明する。
(変形例1)
 変形例1では、イメージセンサ24の近接する複数の画素が注目画素とされる。ゲーティングカメラ20は、複数の画素値から、代表値を生成し、代表値が増大するときの時間差τCALを取得してもよい。代表値は、複数の画素値の平均値、合計値、最大値などを用いることができる。
(変形例2)
 イメージセンサ24の露光タイミングが、面内ばらつきを有する場合があり得る。この場合、イメージセンサ24の離れた位置に、複数の注目画素を定め、注目画素ごとに、画素値が増大するときの時間差τCALを取得してもよい。これにより、イメージセンサ24のタイミング誤差の面内ばらつきをキャリブレーションできる。
(用途)
 図10は、センシングシステム10のブロック図である。センシングシステム10は、上述のゲーティングカメラ20に加えて演算処理装置40を備える。このセンシングシステム10は、自動車やバイクなどの車両に搭載され、車両の周囲に存在する物体OBJの種類(カテゴリ、あるいはクラスともいう)を判定する物体検出システムである。
 ゲーティングカメラ20により、複数のレンジRNG~RNGに対応する複数のスライス画像IMGs~IMGsが生成される。i番目のスライス画像IMGsには、対応するレンジRNGに含まれる物体のみが写る。
 演算処理装置40は、ゲーティングカメラ20によって得られる複数のレンジRNG~RNGに対応する複数のスライス画像IMGs~IMGsにもとづいて、物体の種類を識別可能に構成される。演算処理装置40は、機械学習によって生成された学習済みモデルにもとづいて実装される分類器42を備える。演算処理装置40は、レンジ毎に最適化された複数の分類器42を含んでもよい。分類器42のアルゴリズムは特に限定されないが、YOLO(You Only Look Once)、SSD(Single Shot MultiBox Detector)、R-CNN(Region-based Convolutional Neural Network)、SPPnet(Spatial Pyramid Pooling)、Faster R-CNN、DSSD(Deconvolution -SSD)、Mask R-CNNなどを採用することができ、あるいは、将来開発されるアルゴリズムを採用できる。
 演算処理装置40は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、マイコンなどのプロセッサ(ハードウェア)と、プロセッサ(ハードウェア)が実行するソフトウェアプログラムの組み合わせで実装することができる。演算処理装置40は、複数のプロセッサの組み合わせであってもよい。あるいは演算処理装置40はハードウェアのみで構成してもよい。演算処理装置40の機能と、処理装置28の機能を、同じプロセッサに実装してもよい。
 図11(a)、(b)は、ゲーティングカメラ20を備える自動車300を示す図である。図11(a)を参照する。自動車300は、ヘッドランプ(灯具)302L,302Rを備える。
 図11(a)に示すように、ゲーティングカメラ20の照明装置22は、左右のヘッドランプ302L,302Rの少なくとも一方に内蔵されてもよい。イメージセンサ24は、車両の一部、たとえばルームミラーの裏側に取り付けることができる。あるいはイメージセンサ24は、フロントグリルやフロントバンパーに設けてもよい。コントローラ26は、車室内に設けてもよいし、エンジンルームに設けてもよいし、ヘッドランプ302L,302Rに内蔵してもよい。また、照明装置22についても、ヘッドランプ内部以外の場所、たとえば車室内や、フロントバンパー、フロントグリルに取り付けてもよい。
 図11(b)に示すように、イメージセンサ24は、左右のヘッドランプ302L,302Rのいずれかに、照明装置22とともに内蔵してもよい。
 図12は、センシングシステム10を備える車両用灯具200を示すブロック図である。車両用灯具200は、車両側ECU310とともに灯具システム304を構成する。車両用灯具200は、灯具側ECU210およびランプユニット220を備える。ランプユニット220は、ロービームあるいはハイビームであり、光源222、点灯回路224、光学系226を備える。さらに車両用灯具200には、センシングシステム10が設けられる。
 センシングシステム10が検出した物体OBJに関する情報は、車両用灯具200の配光制御に利用してもよい。具体的には、灯具側ECU210は、センシングシステム10が生成する物体OBJの種類とその位置に関する情報にもとづいて、適切な配光パターンを生成する。点灯回路224および光学系226は、灯具側ECU210が生成した配光パターンが得られるように動作する。センシングシステム10の演算処理装置40は、車両用灯具200の外部、すなわち車両側に設けられてもよい。
 またセンシングシステム10が検出した物体OBJに関する情報は、車両側ECU310に送信してもよい。車両側ECU310は、この情報を、自動運転や運転支援に利用してもよい。
 実施形態は、本発明の原理、応用の一側面を示しているにすぎず、実施形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が認められる。
 本開示は、センシング技術に利用できる。
L1…プローブ光、S1…発光制御信号、L2…反射光、S2…露光制御信号、S2a…第1露光制御信号、S2b…第2露光制御信号、L3…キャリブレーション光、10…センシングシステム、20…ゲーティングカメラ、22…照明装置、24…イメージセンサ、26…コントローラ、28…処理装置、30…キャリブレーション用光源、40…処理装置、42…分類器、200…車両用灯具、210…灯具側ECU、220…ランプユニット、222…光源、224…点灯回路、226…光学系、300…自動車、302L…ヘッドランプ、304…灯具システム、310…車両側ECU

Claims (13)

  1.  視野を奥行き方向について複数のレンジに区切り、前記複数のレンジに対応する複数のスライス画像を生成するゲーティングカメラであって、
     発光制御信号と第1露光制御信号を生成可能なコントローラと、
     通常撮影時に、前記発光制御信号に応じてプローブ光を照射する照明装置と、
     前記第1露光制御信号に応じて露光するイメージセンサと、
     キャリブレーション時に、前記発光制御信号に応じて前記イメージセンサにキャリブレーション光を照射するキャリブレーション用光源と、
     を備え、
     前記コントローラは、前記キャリブレーション時に、前記発光制御信号と前記第1露光制御信号の時間差をスイープし、各時間差における前記イメージセンサの画素値を監視することを特徴とするゲーティングカメラ。
  2.  前記コントローラは、前記キャリブレーション時に、前記イメージセンサが前記キャリブレーション光を検出できない期間に、第2露光制御信号を生成し、
     前記コントローラは、前記第1露光制御信号に応じて得られる前記画素値を、前記第2露光制御信号に応じて得られる前記画素値により補正した値が、増大するときの前記時間差を取得することを特徴とする請求項1に記載のゲーティングカメラ。
  3.  前記第2露光制御信号は前記時間差を切りかえるたびに生成されることを特徴とする請求項2に記載のゲーティングカメラ。
  4.  前記第2露光制御信号は前記第1露光制御信号とセットで生成されることを特徴とする請求項2に記載のゲーティングカメラ。
  5.  前記イメージセンサはマルチタップイメージセンサであり、前記第1露光制御信号に応じて第1タップを利用して撮影し、前記第2露光制御信号に応じて第2タップを利用して撮影することを特徴とする請求項2から4のいずれかに記載のゲーティングカメラ。
  6.  前記照明装置はレーザダイオードを含み、
     前記キャリブレーション用光源は発光ダイオードを含むことを特徴とする請求項1から5のいずれかに記載のゲーティングカメラ。
  7.  前記照明装置と前記キャリブレーション用光源は、駆動回路が共有されることを特徴とする請求項1から6のいずれかに記載のゲーティングカメラ。
  8.  前記コントローラは、前記イメージセンサの複数の画素値を監視し、画素値ごとに、前記画素値が増大するときの時間差を取得することを特徴とする請求項1から7のいずれかに記載のゲーティングカメラ。
  9.  前記コントローラは、前記イメージセンサの所定領域内の画素値を監視し、当該画素値が増大するときの前記時間差を取得することを特徴とする請求項1から7のいずれかに記載のゲーティングカメラ。
  10.  前記コントローラは、前記イメージセンサの複数の画素値を監視し、前記複数の画素値にもとづく代表値が増大するときの前記時間差を取得することを特徴とする請求項1から7のいずれかに記載のゲーティングカメラ。
  11.  車両に搭載されることを特徴とする請求項1から10のいずれかに記載のゲーティングカメラ。
  12.  請求項1から10のいずれかに記載のゲーティングカメラと、
     前記ゲーティングカメラが撮影する前記複数のスライス画像を処理する演算処理装置と、
     を備えることを特徴とする車両用センシングシステム。
  13.  請求項1から10のいずれかに記載のゲーティングカメラを備えることを特徴とする車両用灯具。
PCT/JP2021/046824 2020-12-28 2021-12-17 ゲーティングカメラ、車両用センシングシステム、車両用灯具 WO2022145261A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022572996A JPWO2022145261A1 (ja) 2020-12-28 2021-12-17
US18/269,883 US20240067094A1 (en) 2020-12-28 2021-12-17 Gating camera, vehicle sensing system, and vehicle lamp

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020218975 2020-12-28
JP2020-218975 2020-12-28

Publications (1)

Publication Number Publication Date
WO2022145261A1 true WO2022145261A1 (ja) 2022-07-07

Family

ID=82259238

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/046824 WO2022145261A1 (ja) 2020-12-28 2021-12-17 ゲーティングカメラ、車両用センシングシステム、車両用灯具

Country Status (3)

Country Link
US (1) US20240067094A1 (ja)
JP (1) JPWO2022145261A1 (ja)
WO (1) WO2022145261A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007198911A (ja) * 2006-01-26 2007-08-09 Matsushita Electric Works Ltd 距離計測装置
WO2013014761A1 (ja) * 2011-07-27 2013-01-31 ジックオプテックス株式会社 光波測距装置
WO2016208214A1 (ja) * 2015-06-24 2016-12-29 株式会社村田製作所 距離センサ
JP2019529931A (ja) * 2016-09-30 2019-10-17 マジック リープ, インコーポレイテッドMagic Leap,Inc. 飛行時間深度測定のためのリアルタイム較正
WO2020184447A1 (ja) * 2019-03-11 2020-09-17 株式会社小糸製作所 ゲーティングカメラ、自動車、車両用灯具、物体識別システム、演算処理装置、物体識別方法、画像表示システム、検査方法、撮像装置、画像処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007198911A (ja) * 2006-01-26 2007-08-09 Matsushita Electric Works Ltd 距離計測装置
WO2013014761A1 (ja) * 2011-07-27 2013-01-31 ジックオプテックス株式会社 光波測距装置
WO2016208214A1 (ja) * 2015-06-24 2016-12-29 株式会社村田製作所 距離センサ
JP2019529931A (ja) * 2016-09-30 2019-10-17 マジック リープ, インコーポレイテッドMagic Leap,Inc. 飛行時間深度測定のためのリアルタイム較正
WO2020184447A1 (ja) * 2019-03-11 2020-09-17 株式会社小糸製作所 ゲーティングカメラ、自動車、車両用灯具、物体識別システム、演算処理装置、物体識別方法、画像表示システム、検査方法、撮像装置、画像処理装置

Also Published As

Publication number Publication date
JPWO2022145261A1 (ja) 2022-07-07
US20240067094A1 (en) 2024-02-29

Similar Documents

Publication Publication Date Title
WO2020184447A1 (ja) ゲーティングカメラ、自動車、車両用灯具、物体識別システム、演算処理装置、物体識別方法、画像表示システム、検査方法、撮像装置、画像処理装置
WO2020121973A1 (ja) 物体識別システム、演算処理装置、自動車、車両用灯具、分類器の学習方法
US11073379B2 (en) 3-D environment sensing by means of projector and camera modules
JP2005077130A (ja) 物体認識装置
CN111398975B (zh) 主动传感器、物体识别系统、车辆、车辆用灯具
WO2021201269A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
WO2016031666A1 (ja) 視線検出装置
WO2022145261A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
WO2021193645A1 (ja) ゲーティングカメラ、センシングシステム、車両用灯具
WO2021060397A1 (ja) ゲーティングカメラ、自動車、車両用灯具、画像処理装置、画像処理方法
WO2020195755A1 (ja) 測距撮像システム、測距撮像方法、及びプログラム
WO2021015208A1 (ja) アクティブセンサ、ゲーティングカメラ、自動車、車両用灯具
WO2023013776A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
WO2023224077A1 (ja) ToFカメラ、車両用センシングシステム、および車両用灯具
JP7474759B2 (ja) 車両用灯具
WO2020218283A1 (ja) ToFカメラ、車両用灯具、自動車
WO2023013777A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
WO2021172478A1 (ja) センサ、自動車および周囲環境のセンシング方法
WO2023189599A1 (ja) 距離画像センサ、および車両用灯具
WO2023074902A1 (ja) アクティブセンサ、物体識別システム、車両用灯具
WO2023085403A1 (ja) センシングシステム
EP4286895A1 (en) Gated camera, vehicular sensing system, and vehicular lamp
WO2023074903A1 (ja) センシングシステムおよび自動車
WO2022039229A1 (ja) 車載用センシングシステムおよびゲーティングカメラ
WO2023224078A1 (ja) 車載センシングシステムおよび縁石の検出方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21915121

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022572996

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18269883

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21915121

Country of ref document: EP

Kind code of ref document: A1