WO2023224078A1 - 車載センシングシステムおよび縁石の検出方法 - Google Patents

車載センシングシステムおよび縁石の検出方法 Download PDF

Info

Publication number
WO2023224078A1
WO2023224078A1 PCT/JP2023/018489 JP2023018489W WO2023224078A1 WO 2023224078 A1 WO2023224078 A1 WO 2023224078A1 JP 2023018489 W JP2023018489 W JP 2023018489W WO 2023224078 A1 WO2023224078 A1 WO 2023224078A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
curb
distance
horizontal position
distance image
Prior art date
Application number
PCT/JP2023/018489
Other languages
English (en)
French (fr)
Inventor
亮 太田
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Publication of WO2023224078A1 publication Critical patent/WO2023224078A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates

Definitions

  • the present disclosure relates to an on-vehicle sensing system and a curb detection method.
  • In-vehicle sensing systems that sense the position and type of objects around the vehicle are used for autonomous driving and automatic control of headlamp light distribution.
  • An in-vehicle sensing system includes a sensor and a processing unit that analyzes the output of the sensor.
  • the sensor is selected from cameras, LiDAR (Light Detection and Ranging), Laser Imaging Detection and Ranging, millimeter wave radar, ultrasonic sonar, etc., taking into consideration the application, required accuracy, and cost.
  • Roadways are one of the important detection targets for in-vehicle sensing systems.
  • One exemplary objective of an embodiment of the present disclosure is to provide an on-vehicle sensing system capable of detecting a roadway and a method for detecting a curb.
  • An in-vehicle sensing system includes a sensor that generates a brightness image in which pixels represent the reflectance of an object, and a distance image in which pixels represent the distance to the object, and based on the brightness image and the distance image, A calculation processing unit that detects a curb defining a boundary of a roadway.
  • a curb detection method includes: Generate an intensity image whose pixels represent the reflectance of the object, Generate a range image where pixels represent the distance to the object, Each of the brightness image and the distance image is divided into a plurality of n regions (n ⁇ 2) in the vertical direction, Evaluate the possibility that the i-th area of the brightness image is a curb for each horizontal position, Evaluate the possibility that the i-th area of the distance image is a curb for each horizontal position, In both the i-th area of the brightness image and the i-th area of the distance image, a horizontal position that is evaluated as having a high possibility of being a curb is determined to be a curb.
  • a roadway can be detected.
  • FIG. 1 is a diagram showing curb stones existing on a road surface.
  • FIG. 2 is a block diagram of the in-vehicle sensing system according to the embodiment.
  • FIG. 3 is a diagram illustrating detection of a curb in the arithmetic processing unit.
  • FIG. 4 is a diagram illustrating an example of a curb detection process based on a brightness image.
  • FIG. 5 is a diagram illustrating an example of evaluation of the i-th (1 ⁇ i ⁇ n) strip of a luminance image.
  • FIG. 6 is a diagram illustrating an example of a curb detection process based on a distance image.
  • FIG. 7 is a diagram illustrating an example of evaluation of the i-th (1 ⁇ i ⁇ n) strip of the distance image.
  • FIG. 1 is a diagram showing curb stones existing on a road surface.
  • FIG. 2 is a block diagram of the in-vehicle sensing system according to the embodiment.
  • FIG. 3 is a diagram illustrating detection of a curb in the
  • FIG. 8 is a diagram illustrating pixel defects in a distance image.
  • FIG. 9 is a diagram illustrating interpolation of defective pixels in a distance image.
  • FIG. 10 is a block diagram of the ToF camera.
  • FIG. 11 is a diagram illustrating the basic operation of the ToF camera.
  • FIG. 12A is a diagram illustrating a range image obtained by a ToF camera.
  • FIG. 12B is a diagram illustrating a range image obtained by the ToF camera.
  • the in-vehicle sensing system includes a sensor that generates a brightness image in which pixels represent the reflectance of an object, and a distance image in which pixels represent the distance to the object, and a sensor that generates a roadway based on the brightness image and the distance image.
  • an arithmetic processing unit that detects a curb defining a boundary of the vehicle.
  • curb stones can be extracted from the brightness image. Furthermore, since the curb is higher than the road, it is possible to extract the curb from the distance image. By integrating the results based on reflectance and the results based on distance, curbs can be detected with high accuracy.
  • the arithmetic processing device may vertically divide each of the luminance image and the distance image into a plurality of n regions (n ⁇ 2). Then, the processing unit evaluates the possibility that the i-th region of the luminance image is a curb for each horizontal position, and evaluates the possibility that the i-th region of the distance image is a curb for each horizontal position. May be evaluated. The arithmetic processing unit may determine that a horizontal position that is evaluated as having a high possibility of being a curb is a curb in both the i-th area of the brightness image and the i-th area of the distance image. .
  • the arithmetic processing device may evaluate a horizontal position where the pixel value is relatively high in the i-th region of the luminance image as having a high possibility of being a curb.
  • the arithmetic processing device generates height information indicating the relationship between the horizontal position and the height from the reference plane from the i-th region of the distance image, and based on the height information, determines whether the i-th region is a curb. Possibilities may be evaluated. Since curbs are taller than roadways, they can be easily detected by converting them into height information.
  • the arithmetic processing device may calculate the slope at each horizontal position from the height information, and evaluate the horizontal position where the slope is relatively large as being likely to be a curb. Thereby, the curb can be detected by utilizing the large slope of the side surface of the curb.
  • the processing unit may interpolate defects in pixels in the current frame using past frames for the distance image. It may be difficult for a sensor to obtain distance information from a portion corresponding to the side surface of a curb, and in this case, pixels in the distance image are missing. In this case, by moving the part determined to correspond to the side of the curb in the past frame to the position of the current frame using an optical flow method, etc., the missing pixels in the current frame are compensated for. be able to.
  • the sensor may be a ToF camera.
  • the ToF camera includes an illumination device that irradiates a field of view with pulsed illumination light, an image sensor, and a camera controller that controls light emission timing of the illumination device and exposure timing of the image sensor.
  • the ToF camera divides the field of view into a plurality of ranges in the depth direction and generates a plurality of range images corresponding to the plurality of ranges.
  • the ToF camera combines multiple range images to generate a brightness image.
  • a ToF camera generates a distance image by pairing two adjacent range images and performing indirect ToF (Time of Flight) calculations for each pair. In this case, since the brightness image and the distance image are generated from the output of the same image sensor, they can have the same or similar aspect ratio and the same or similar number of pixels.
  • FIG. 1 is a diagram showing curb stones existing on a road surface.
  • the curb 2 is provided on the road surface 1 to separate the roadway 4 from the rest of the road.
  • the shapes and structures of the curb stones 2 are various, and some are provided intermittently (2A) and some are provided continuously (2B).
  • the curb 2 is used to divide the roadway 4 and the sidewalk 6, or to divide the area between oncoming traffic lanes.
  • FIG. 2 is a block diagram of the in-vehicle sensing system 400 according to the embodiment.
  • In-vehicle sensing system 400 includes a sensor 410 and an arithmetic processing unit 420.
  • the sensor 410 generates a brightness image IMG1 and a distance image IMG2.
  • pixels represent the reflectance of an object.
  • pixels represent the distance to the object.
  • the arithmetic processing unit 420 detects a curb that defines the boundary of the roadway based on the brightness image IMG1 and the distance image IMG2. For example, the arithmetic processing unit 420 outputs output data OUT based on the detection result. This output data may indicate the location of a curb or may indicate the extent of a roadway.
  • the above is the basic configuration of the in-vehicle sensing system 400. Next, the operation of the in-vehicle sensing system 400 will be explained.
  • FIG. 3 is a diagram illustrating the detection of a curb in the arithmetic processing unit 420.
  • a brightness image IMG1 is shown in the upper part of FIG. 3, and a distance image IMG2 is shown in the lower part.
  • the curb 2 and the asphalt in the roadway 4 have different colors and different reflectances, and therefore have different pixel values on the brightness image IMG1. Therefore, the curbstone 2 can be extracted from the brightness image IMG1.
  • the curb 2 is higher than the roadway 4, so the curb 2 can also be extracted from the distance image IMG2.
  • the white line (paint) 8 is at the same height as the roadway 4, the white line 8 and the roadway 4 are not distinguished on the distance image IMG2.
  • the curb 2 can be detected with high accuracy.
  • the curb 2 is detected using the brightness image IMG1 and the distance image IMG2. 2 detection accuracy can be improved.
  • a highly accurate distance measuring sensor is not required, and therefore it can be configured at low cost.
  • FIG. 4 is a diagram illustrating an example of a curb detection process based on the brightness image IMG1.
  • the arithmetic processing unit 420 vertically divides the brightness image IMG1 into n regions (strips) STR1 to STRn. Then, the possibility that each of the plurality of strips STR1 to STRn of the brightness image IMG1 is a curb is evaluated for each horizontal position H.
  • FIG. 5 is a diagram illustrating an example of evaluation of the i-th (1 ⁇ i ⁇ n) strip STRi of the brightness image IMG1.
  • the arithmetic processing unit 420 generates an evaluation value indicating the possibility that the strip STRi is a curb based on the brightness value for each horizontal position H. Since most of the normal road surface occupies the roadway, most of the pixels in the strip STRi have brightness values that correspond to the reflectance of asphalt.
  • the processing unit 420 can evaluate the likelihood of a curb based on the relative relationship of the pixels. Through the above processing, the probability that a curb exists can be evaluated for each horizontal position in one strip STRi.
  • FIG. 6 is a diagram illustrating an example of a curb detection process based on the distance image IMG2. Similar to the brightness image IMG1, the arithmetic processing unit 420 vertically divides the distance image IMG2 into n regions (strips) STR1 to STRn. Then, the possibility that each of the plurality of strips STR1 to STRn of the distance image IMG2 is a curb is evaluated for each horizontal position H.
  • FIG. 7 is a diagram illustrating an example of evaluation of the i-th (1 ⁇ i ⁇ n) strip STRi of the distance image IMG2.
  • the arithmetic processing unit 420 generates, for each horizontal position H, an evaluation value indicating the possibility that the strip STRi is a curb based on the distance data.
  • the arithmetic processing unit 420 may generate height information indicating the relationship between the horizontal position H and the height from the reference plane based on the strip STRi of the distance image IMG2. Then, regarding the height information, an evaluation value indicating the possibility that it is a curb is generated for each horizontal position H. Since the curb 2 is taller than the road, it can be easily detected by converting it into height information.
  • the arithmetic processing unit 420 may increase the evaluation value of a horizontal position with a relatively high height, and lower the evaluation value of a horizontal position with a relatively low height.
  • the arithmetic processing unit 420 calculates the slope at each horizontal position from the height information, and increases the evaluation value of the horizontal position with a relatively large slope, and lowers the evaluation value of the horizontal position with a small slope. good. Calculating the slope requires less calculation processing than calculating the curvature.
  • the arithmetic processing unit 420 determines that the curb 2 exists at the horizontal position H where both the evaluation value based on the brightness image IMG1 (FIG. 5) and the evaluation value based on the distance image IMG2 (FIG. 7) are high.
  • each of the brightness image IMG1 and the distance image IMG2 is divided into n strips STR, and the position of the curb is detected for each strip STR.
  • the computational processing load can be reduced compared to the case where curbs are detected for each of the brightness image IMG1 and the distance image IMG2 as a whole.
  • FIG. 8 is a diagram illustrating pixel defects in distance image IMG2.
  • the sensor 410 illuminates the field of view with light and measures reflected light from objects in the field of view.
  • the reflective surface of the object directly faces the sensor 410, most of the reflected light from the object enters the sensor 410.
  • the reflective surface of the object does not directly face the sensor 410, the light emitted from the sensor 410 is no longer reflected toward the sensor 410. Therefore, reflected light from a portion corresponding to the side surface of the curb 2 is difficult to enter the sensor 410.
  • pixels of the distance image IMG2 are missing from the side surface of the curb 2.
  • px indicates a defective pixel for which distance information cannot be obtained.
  • the arithmetic processing unit 420 interpolates the defective pixel px by signal processing.
  • FIG. 9 is a diagram illustrating interpolation of defective pixels in distance image IMG2.
  • FIG. 9 shows a current frame IMG2 (cur) and a past frame IMG2 (pre).
  • the arithmetic processing unit 420 moves the portion determined to correspond to the side surface of the curb 2 in the past frame IMG2(pre) to the position of the current frame IMG2(ccur) using an optical flow method or the like. Thereby, the value of the defective pixel px of distance image IMG2 can be estimated.
  • ToF camera 100 can be used as sensor 410.
  • FIG. 10 is a block diagram of the ToF camera 100.
  • the ToF camera 100 is a distance image sensor that can generate an image including distance information to an object.
  • ToF camera 100 includes an illumination device 110, an image sensor 120, a camera controller 130, and an arithmetic processing unit 140. Imaging by the ToF camera 100 is performed by dividing the field of view into a plurality of N (N ⁇ 2) ranges RNG 1 to RNG N in the depth direction. Adjacent ranges may overlap in the depth direction at their boundaries.
  • the illumination device 110 irradiates the front of the vehicle with pulsed illumination light L1 in synchronization with the light emission timing signal S1 given from the camera controller 130.
  • the pulsed illumination light L1 is preferably infrared light, but is not limited thereto, and may be visible light or ultraviolet light having a predetermined wavelength.
  • the image sensor 120 includes a plurality of light-receiving pixels, is capable of exposure control in synchronization with the exposure timing signal S2 given from the camera controller 130, and generates an image made up of a plurality of pixels.
  • the image sensor 120 has sensitivity to the same wavelength as the pulsed illumination light L1, and photographs reflected light (return light) L2 reflected by the object OBJ.
  • the camera controller 130 controls the irradiation timing (light emission timing) of the pulsed illumination light L1 by the illumination device 110 and the exposure timing by the image sensor 120.
  • the functions of the camera controller 130 may be realized by software processing, hardware processing, or a combination of software processing and hardware processing.
  • software processing is implemented by a combination of a processor (hardware) such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a microcomputer, and a software program executed by the processor (hardware).
  • the camera controller 130 may be a combination of multiple processors and software programs.
  • the hardware processing is implemented using hardware such as an ASIC (Application Specific Integrated Circuit), a controller IC, and an FPGA (Field Programmable Gate Array).
  • the image (range image) SIMG i generated by the image sensor 120 is input to the arithmetic processing unit 140 .
  • the arithmetic processing unit 140 processes a plurality of range images SIMG 1 to SIMG N obtained for a plurality of ranges RNG 1 to RNG N , and generates final output data CAMERAOUT.
  • the output data CAMERAOUT includes the above-described luminance image IMG1 and distance image IMG2.
  • the arithmetic processing unit 140 may be implemented in the same hardware as the camera controller 130, or may be configured in separate hardware. Alternatively, part or all of the functions of the arithmetic processing unit 140 may be implemented as a processor or digital circuit built into the same module as the image sensor 120.
  • the above is the basic configuration of the ToF camera 100. Next, its operation will be explained.
  • FIG. 11 is a diagram illustrating the basic operation of the ToF camera 100.
  • FIG. 11 shows how the i-th range RNG i is sensed.
  • the lighting device 110 emits light during a light emitting period ⁇ 1 between times t 0 and t 1 in synchronization with the light emitting timing signal S1.
  • the top row shows a ray diagram with time on the horizontal axis and distance on the vertical axis.
  • d MINi be the distance from the ToF camera 100 to the front boundary of range RNG i
  • d MAXi be the distance to the rear boundary of range RNG i .
  • T MINi 2 ⁇ d MINi /c It is. c is the speed of light.
  • T MAXi 2 ⁇ d MAXi /c It is.
  • a timing signal S2 is generated. This is one sensing operation.
  • Sensing of the i-th range RNG i includes multiple sets of light emission and exposure.
  • the camera controller 130 repeats the above sensing operation multiple times at a predetermined period ⁇ 2 .
  • the image sensor 120 is capable of multiple exposure, and the FD area (charge accumulation area) of each light-receiving pixel is exposed multiple times to the reflected light obtained as a result of multiple pulse emission, thereby creating one range image SIMG. may be generated.
  • FIG. 12A and 12B are diagrams illustrating range images obtained by the ToF camera 100.
  • an object (pedestrian) OBJ 2 exists in range RNG 2
  • an object (vehicle) OBJ 3 exists in range RNG 3 .
  • FIG. 12B shows a plurality of range images SIMG 1 to SIMG 3 obtained in the situation of FIG. 12A.
  • the image sensor is exposed only to the reflected light from the range RNG 1 , so that no object image is captured in the range image SIMG 1 .
  • the image sensor When photographing the range image SIMG 2 , the image sensor is exposed only to the reflected light from the range RNG 2 , so only the image of the object OBJ 2 appears in the range image SIMG 2 . Similarly, when photographing the range image SIMG 3 , since the image sensor is exposed only to the reflected light from the range RNG 3 , only the image of the object OBJ 3 appears in the range image SIMG 3 . In this way, according to the ToF camera 100, objects can be photographed separately for each range.
  • the arithmetic processing unit 140 can include an image processing unit that processes a plurality of range images SIMG generated by the image sensor 120 for each range RNG.
  • the image processing unit may calculate distances between two adjacent range images SIMG based on an indirect ToF (Time of Flight) method to generate a distance image DIMG.
  • the pixel value of each pixel represents the distance.
  • N range images SIMG 1 to SIMG N are obtained for N ranges RNG 1 to RNG N.
  • the arithmetic processing unit 140 generates one distance image DIMG 1, 2 using the indirect ToF method for the two adjacent range images SIMG 1 , SIMG 2 .
  • distance images DIMG 2 and DIMG 3 are generated for two adjacent range images SIMG 2 and SIMG 3 .
  • Distance images DIMG i, i+1 are generated for the two range images SIMG i , SIMG i+1 , with 1 ⁇ i ⁇ n.
  • the arithmetic processing unit 140 can generate the brightness image IMG1 by combining the plurality of range images SIMG 1 to SIMG N.
  • the arithmetic processing device 140 can generate one distance image IMG2 by combining (N-1) distance images DIMG 1,2 to DIMG N-1,N .
  • the sensor 410 it is also possible to configure the sensor 410 as a hybrid of a camera and a distance measurement sensor, but in that case, the cost will be high. Furthermore, the number of pixels and aspect ratio of the luminance image IMG1 and the distance image IMG2 may be different. Different aspect ratios and pixel numbers complicate the curb detection process.
  • the ToF camera 100 when used as the sensor 410, the brightness image IMG1 and the distance image IMG2 are generated based on the range image generated by the same image sensor 120. Therefore, the aspect ratio and number of pixels of the brightness image IMG1 and the distance image IMG2 are the same. Thereby, the curb detection process can be simplified.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Image Processing (AREA)

Abstract

車載センシングシステム(400)は、センサ(410)および演算処理装置(420)を備える。センサ(410)は、画素が物体の反射率を表す輝度画像(IMG1)と、画素が物体までの距離を表す距離画像(IMG2)と、を生成する。演算処理装置(420)は、輝度画像(IMG1)と距離画像(IMG2)にもとづいて、車道の境界を規定する縁石を検出する。

Description

車載センシングシステムおよび縁石の検出方法
 本開示は、車載センシングシステムおよび縁石の検出方法に関する。
 自動運転やヘッドランプの配光の自動制御のために、車両の周囲に存在する物体の位置および種類をセンシングする車載センシングシステムが利用される。車載センシングシステムは、センサと、センサの出力を解析する演算処理装置を含む。センサは、カメラ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ミリ波レーダ、超音波ソナーなどの中から、用途、要求精度やコストを考慮して選択される。
日本国特開2009-257981号公報 国際公開WO2017/110417A1
 車載センシングシステムによる重要な検出対象のひとつとして、車道が挙げられる。
 本開示のある態様の例示的な目的のひとつは、車道を検出可能な車載センシングシステムおよび縁石の検出方法の提供にある。
 本開示のある態様の車載センシングシステムは、画素が物体の反射率を表す輝度画像と、画素が物体までの距離を表す距離画像と、を生成するセンサと、輝度画像と距離画像にもとづいて、車道の境界を規定する縁石を検出する演算処理装置と、を備える。
 本開示のある態様の縁石の検出方法は、
 画素が物体の反射率を表す輝度画像を生成し、
 画素が物体までの距離を表す距離画像を生成し、
 輝度画像および距離画像それぞれを、垂直方向に複数n個(n≧2)の領域に分割し、
 輝度画像のi番目の領域について、水平位置ごとに、縁石である可能性を評価し、
 距離画像のi番目の領域について、水平位置ごとに、縁石である可能性を評価し、
 輝度画像のi番目の領域と、距離画像のi番目の領域の両方において、縁石である可能性が高いと評価される水平位置を、縁石であると判定する。
 本開示のある態様によれば、車道を検出できる。
図1は、路面に存在する縁石を示す図である。 図2は、実施形態に係る車載センシングシステムのブロック図である。 図3は、演算処理装置における縁石の検出を説明する図である。 図4は、輝度画像にもとづく縁石の検出処理の一例を説明する図である。 図5は、輝度画像のi番目(1≦i≦n)のストリップの評価の一例を説明する図である。 図6は、距離画像にもとづく縁石の検出処理の一例を説明する図である。 図7は、距離画像のi番目(1≦i≦n)のストリップの評価の一例を説明する図である。 図8は、距離画像の画素欠陥を説明する図である。 図9は、距離画像の欠陥画素の補間を説明する図である。 図10は、ToFカメラのブロック図である。 図11は、ToFカメラの基本動作を説明する図である。 図12Aは、ToFカメラにより得られるレンジ画像を説明する図である。 図12Bは、ToFカメラにより得られるレンジ画像を説明する図である。
(実施形態の概要)
 本開示のいくつかの例示的な実施形態の概要を説明する。この概要は、後述する詳細な説明の前置きとして、実施形態の基本的な理解を目的として、1つまたは複数の実施形態のいくつかの概念を簡略化して説明するものであり、発明あるいは開示の広さを限定するものではない。またこの概要は、考えられるすべての実施形態の包括的な概要ではなく、実施形態の欠くべからざる構成要素を限定するものではない。便宜上、「一実施形態」は、本明細書に開示するひとつの実施形態または複数の実施形態を指すものとして用いる場合がある。実施形態は、実施例や変形例を含む。
 一実施形態に係る車載センシングシステムは、画素が物体の反射率を表す輝度画像と、画素が物体までの距離を表す距離画像と、を生成するセンサと、輝度画像と距離画像にもとづいて、車道の境界を規定する縁石を検出する演算処理装置と、を備える。
 縁石と、車道内のアスファルトは、異なる色、異なる反射率を有する。したがって輝度画像から縁石を抽出することができる。また縁石は、車道よりも高くなっているため、距離画像から縁石を抽出することができる。そして、反射率にもとづく結果と、距離にもとづく結果を統合することにより、縁石を高い精度で検出することができる。
 一実施形態において、演算処理装置は、輝度画像および距離画像それぞれを、垂直方向に複数n個(n≧2)の領域に分割してもよい。そして、演算処理装置は、輝度画像のi番目の領域について、水平位置ごとに、縁石である可能性を評価し、距離画像のi番目の領域について、水平位置ごとに、縁石である可能性を評価してもよい。そして演算処理装置は、輝度画像のi番目の領域と、距離画像のi番目の領域の両方において、縁石である可能性が高いと評価される水平位置を、縁石であると判定してもよい。
 一実施形態において、演算処理装置は、輝度画像のi番目の領域について、画素値が相対的に高い水平位置を、縁石である可能性が高いものと評価してもよい。
 一実施形態において、演算処理装置は、距離画像のi番目の領域から、水平位置と、基準面からの高さの関係を示す高さ情報を生成し、高さ情報にもとづいて、縁石である可能性を評価してもよい。縁石は、車道に比べて高さが高いため、高さ情報に変換することで、検出が容易となる。
 一実施形態において、演算処理装置は、高さ情報から、各水平位置における傾きを算出し、相対的に傾きが大きい水平位置を、縁石である可能性が高いものと評価してもよい。これにより、縁石の側面において傾きが大きいことを利用して、縁石を検出できる。
 一実施形態において、演算処理装置は、距離画像について、過去のフレームを利用して、現在のフレームの画素の欠陥を補間してもよい。縁石の側面に相当する部分は、センサによって距離情報を取得しにくい場合があり、この場合、距離画像の画素が欠落する。この場合に、過去のフレームにおいて、縁石の側面に相当すると判定された部分を、オプティカルフロー法などを利用して、現在のフレームの位置に移動させることで、現在のフレームの画素の欠落を補うことができる。
 一実施形態において、センサは、ToFカメラでもよい。ToFカメラは、パルス照明光を視野に照射する照明装置と、イメージセンサと、照明装置の発光タイミングとイメージセンサの露光タイミングを制御するカメラコントローラと、を含む。ToFカメラは、視野を奥行き方向について複数のレンジに区切り、複数のレンジに対応する複数のレンジ画像を生成する。ToFカメラは、複数のレンジ画像を合成して、輝度画像を生成する。ToFカメラは、複数のレンジ画像の隣接する2枚をペアとし、各ペアについて間接ToF(Time of Flight)の演算を行うことにより、距離画像を生成する。この場合、輝度画像と距離画像は、同じイメージセンサの出力から生成されるため、同一アスペクト比もしくは近いアスペクト比、同一画素数もしくは近い画素数とすることが可能となる。
(実施形態)
 以下、好適な実施形態について図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施形態は、発明を限定するものではなく例示であって、実施形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。
 以下で説明する実施形態は、縁石の検出に関する。図1は、路面に存在する縁石を示す図である。縁石2は、路面1上に、車道4とそれ以外の部分を区画するために設けられる。たとえば、縁石2の形状や構造は、さまざまであり、断続的に設けられるもの(2A)や、連続的に設けられるもの(2B)がある。縁石2は、車道4と歩道6の区画や、対向車線の間の区画に用いられる。
 図2は、実施形態に係る車載センシングシステム400のブロック図である。車載センシングシステム400は、センサ410および演算処理装置420を備える。
 センサ410は、輝度画像IMG1と、距離画像IMG2を生成する。輝度画像IMG1は、画素が物体の反射率を表す。距離画像IMG2は、画素が物体までの距離を表す。
 演算処理装置420は、輝度画像IMG1と距離画像IMG2にもとづいて、車道の境界を規定する縁石を検出する。たとえば演算処理装置420は、検出結果にもとづく出力データOUTを出力する。この出力データは、縁石の位置を示してもよいし、車道の範囲を示してもよい。
 以上が車載センシングシステム400の基本構成である。続いて車載センシングシステム400の動作を説明する。
 図3は、演算処理装置420における縁石の検出を説明する図である。図3の上段には、輝度画像IMG1が、下段には距離画像IMG2が示される。
 輝度画像IMG1を参照すると、縁石2と、車道4内のアスファルトは、異なる色、異なる反射率を有するため、輝度画像IMG1上で異なる画素値を有する。したがって輝度画像IMG1から縁石2を抽出することができる。
 距離画像IMG2を参照すると、縁石2は、車道4よりも高くなっているため、距離画像IMG2からも縁石2を抽出することができる。なお、白線(ペイント)8は、車道4と同じ高さであるため、距離画像IMG2上では、白線8と車道4は区別されない。
 そして、輝度画像IMG1、すなわち反射率にもとづく結果と、距離画像IMG2、すなわち距離(高さ)にもとづく結果を統合することにより、縁石2を高い精度で検出することができる。
 輝度画像IMG1のみを利用する検出方法では、コンクリート製の縁石2の反射率と、白線8の反射率が近い場合に、縁石2と白線8を誤検知する可能性がある。
 距離画像IMG2のみを利用する検出方法では、縁石2の高さや段差が小さい場合に、うまく検出できない可能性がある。言い換えると、距離画像IMG2のみを利用して縁石2を検出しようとすると、高精度な測距センサが必要となるが、高精度な測距センサは非常に高価である。
 これに対して、本実施形態によれば、輝度画像IMG1と距離画像IMG2を利用して、縁石2を検出するため、輝度画像IMG1のみ、あるいは距離画像IMG2のみを利用する方式に比べて、縁石2の検出精度を高めることができる。本実施形態では、輝度情報と距離情報を利用しているため、高精度な測距センサが不要であり、したがって低コストで構成できる。
 続いて、演算処理装置420における縁石の検出処理の具体例を説明する。
 図4は、輝度画像IMG1にもとづく縁石の検出処理の一例を説明する図である。演算処理装置420は、輝度画像IMG1を、垂直方向にn個の領域(ストリップ)STR1~STRnに分割する。そして、輝度画像IMG1の複数のストリップSTR1~STRnそれぞれについて、水平位置Hごとに、縁石である可能性を評価する。
 図5は、輝度画像IMG1のi番目(1≦i≦n)のストリップSTRiの評価の一例を説明する図である。演算処理装置420は、ストリップSTRiについて、水平位置Hごとに、輝度値にもとづいて、縁石である可能性を示す評価値を生成する。通常の路面では、大部分が車道を占めているため、ストリップSTRi内の大部分の画素は、アスファルトの反射率に応じた輝度値を有している。
 白線のペイントや、縁石のコンクリートは、アスファルトより高い反射率を有する。したがって、白線や縁石は、アスファルトの部分に比べて画素値が大きくなる。演算処理装置420は、画素の相対的な関係にもとづいて、縁石である可能性を評価することができる。以上の処理により、1個のストリップSTRiにおいて、水平位置ごとに、縁石が存在する確率を評価できる。
 図6は、距離画像IMG2にもとづく縁石の検出処理の一例を説明する図である。演算処理装置420は、輝度画像IMG1と同様に、距離画像IMG2を、垂直方向にn個の領域(ストリップ)STR1~STRnに分割する。そして、距離画像IMG2の複数のストリップSTR1~STRnそれぞれについて、水平位置Hごとに、縁石である可能性を評価する。
 図7は、距離画像IMG2のi番目(1≦i≦n)のストリップSTRiの評価の一例を説明する図である。演算処理装置420は、ストリップSTRiについて、水平位置Hごとに、距離データにもとづいて、縁石である可能性を示す評価値を生成する。
 この例において、演算処理装置420は、距離画像IMG2のストリップSTRiにもとづいて、水平位置Hと、基準面からの高さの関係を示す高さ情報を生成してもよい。そして、高さ情報について、水平位置Hごとに、縁石である可能性を示す評価値を生成する。縁石2は、車道に比べて高さが高いため、高さ情報に変換することで、検出が容易となる。
 たとえば演算処理装置420は、相対的に高さが高い水平位置の評価値を高くし、相対的に高さが低い水平位置の評価値を低くしてもよい。
 別のアプローチとして、水平位置ごとの曲率を算出し、曲率が不連続となる位置の評価値を高くすることが考えられるが、演算負荷が重くなる。そこで、演算処理装置420は、高さ情報から、各水平位置における傾きを算出し、相対的に傾きが大きい水平位置の評価値を高くし、傾きが小さい水平位置の評価値を低くしてもよい。傾きの算出は、曲率の算出に比べて、演算処理量が少なくて済む。
 演算処理装置420は、輝度画像IMG1にもとづく評価値(図5)と、距離画像IMG2にもとづく評価値(図7)の両方が高い水平位置Hに、縁石2が存在するものと判定する。
 以上が縁石2の検出処理の一例である。この処理では、輝度画像IMG1と距離画像IMG2それぞれを、n個のストリップSTRに分割し、ストリップSTRごとに、縁石の位置を検出している。これにより輝度画像IMG1、距離画像IMG2それぞれの全体を対象として、縁石を検出する場合に比べて、演算処理の負荷を減らすことができる。
 続いて、距離画像IMG2の補間処理を説明する。
 図8は、距離画像IMG2の画素欠陥を説明する図である。センサ410は、視野に光を照射し、視野の物体からの反射光を測定する。物体の反射面がセンサ410と正対している場合、物体からの反射光の多くは、センサ410に入射する。ところが、物体の反射面が、センサ410に対して正対していない場合、センサ410から放射した光は、センサ410に向かって反射されなくなる。そのため、縁石2の側面に相当する部分からの反射光は、センサ410に入射しにくい。その結果、縁石2の側面の部分において、距離画像IMG2の画素が欠落することとなる。図8において、pxは、距離情報が得られない欠陥画素を示している。演算処理装置420は、信号処理によって欠陥画素pxを補間する。
 図9は、距離画像IMG2の欠陥画素の補間を説明する図である。図9には、現在のフレームIMG2(cur)と、過去のフレームIMG2(pre)が示される。
 演算処理装置420は、過去のフレームIMG2(pre)において、縁石2の側面に相当すると判定された部分を、オプティカルフロー法などを利用して、現在のフレームIMG2(ccur)の位置まで移動させる。これにより、距離画像IMG2の欠陥画素pxの値を推定することができる。
 続いてセンサ410の構成を説明する。センサ410としてToFカメラ100を用いることができる。
 図10は、ToFカメラ100のブロック図である。ToFカメラ100は、物体までの距離情報を含む画像を生成可能な距離画像センサである。
 ToFカメラ100は、照明装置110、イメージセンサ120、カメラコントローラ130、演算処理装置140を含む。ToFカメラ100による撮像は、視野を奥行き方向について複数N個(N≧2)のレンジRNG~RNGに区切って行われる。隣接するレンジ同士は、それらの境界において奥行き方向にオーバーラップしてもよい。
 照明装置110は、カメラコントローラ130から与えられる発光タイミング信号S1と同期して、パルス照明光L1を車両前方に照射する。パルス照明光L1は赤外光であることが好ましいが、その限りでなく、所定の波長を有する可視光や紫外光であってもよい。
 イメージセンサ120は、複数の受光画素を含み、カメラコントローラ130から与えられる露光タイミング信号S2と同期した露光制御が可能であり、複数の画素からなる画像を生成する。イメージセンサ120は、パルス照明光L1と同じ波長に感度を有しており、物体OBJが反射した反射光(戻り光)L2を撮影する。
 カメラコントローラ130は、照明装置110によるパルス照明光L1の照射タイミング(発光タイミング)と、イメージセンサ120による露光のタイミングを制御する。カメラコントローラ130の機能は、ソフトウェア処理で実現してもよいし、ハードウェア処理で実現してもよいし、ソフトウェア処理とハードウェア処理の組み合わせで実現してもよい。ソフトウェア処理は、具体的には、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、マイコンなどのプロセッサ(ハードウェア)と、プロセッサ(ハードウェア)が実行するソフトウェアプログラムの組み合わせで実装される。なおカメラコントローラ130は、複数のプロセッサとソフトウェアプログラムの組み合わせであってもよい。ハードウェア処理は具体的には、ASIC(Application Specific Integrated Circuit)やコントローラIC、FPGA(Field Programmable Gate Array)などのハードウェアで実装される。
 イメージセンサ120により生成された画像(レンジ画像)SIMGは、演算処理装置140に入力される。演算処理装置140は、複数のレンジRNG~RNGについて得られる複数のレンジ画像SIMG~SIMGを処理し、最終的な出力データCAMERAOUTを生成する。出力データCAMERAOUTは、上述の輝度画像IMG1および距離画像IMG2を含む。
 演算処理装置140は、カメラコントローラ130と同じハードウェアに実装してもよいし、別々のハードウェアで構成してもよい。あるいは演算処理装置140の機能の一部あるいは全部は、イメージセンサ120と同じモジュールに内蔵されたプロセッサやデジタル回路として実装してもよい。
 以上がToFカメラ100の基本構成である。続いてその動作を説明する。
 図11は、ToFカメラ100の基本動作を説明する図である。図11にはi番目のレンジRNGをセンシングするときの様子が示される。照明装置110は、発光タイミング信号S1と同期して、時刻t~tの間の発光期間τの間、発光する。最上段には、横軸に時間、縦軸に距離をとった光線のダイアグラムが示される。ToFカメラ100から、レンジRNGの手前の境界までの距離をdMINi、レンジRNGの奥側の境界までの距離をdMAXiとする。
 ある時刻に照明装置110を出発した光が、距離dMINiに到達してその反射光がイメージセンサ120に戻ってくるまでのラウンドトリップ時間TMINiは、
 TMINi=2×dMINi/c
である。cは光速である。
 同様に、ある時刻に照明装置110を出発した光が、距離dMAXiに到達してその反射光がイメージセンサ120に戻ってくるまでのラウンドトリップ時間TMAXiは、
 TMAXi=2×dMAXi/c
である。
 レンジRNGに含まれる物体OBJのみを撮影したいとき、カメラコントローラ130は、時刻t=t+TMINiに露光を開始し、時刻t=t+TMAXiに露光を終了するように、露光タイミング信号S2を生成する。これが1回のセンシング動作である。
 i番目のレンジRNGのセンシングは、発光および露光のセットを複数含む。カメラコントローラ130は、所定の周期τで、上述のセンシング動作を複数回にわたり繰り返す。
 イメージセンサ120は多重露光が可能であり、受光画素毎のFD領域(電荷蓄積領域)に、複数回のパルス発光の結果得られる複数回の反射光を多重露光し、1枚のレンジ画像SIMGを生成してもよい。
 図12Aおよび図12Bは、ToFカメラ100により得られるレンジ画像を説明する図である。図12Aの例では、レンジRNGに物体(歩行者)OBJが存在し、レンジRNGに物体(車両)OBJが存在している。図12Bには、図12Aの状況で得られる複数のレンジ画像SIMG~SIMGが示される。レンジ画像SIMGを撮影するとき、イメージセンサはレンジRNGからの反射光のみにより露光されるため、レンジ画像SIMGにはいかなる物体像も写らない。
 レンジ画像SIMGを撮影するとき、イメージセンサはレンジRNGからの反射光のみにより露光されるため、レンジ画像SIMGには、物体OBJの像のみが写る。同様にレンジ画像SIMGを撮影するとき、イメージセンサはレンジRNGからの反射光のみにより露光されるため、レンジ画像SIMGには、物体OBJの像のみが写る。このようにToFカメラ100によれば、レンジ毎に物体を分離して撮影することができる。
 演算処理装置140は、イメージセンサ120がレンジRNGごとに生成する複数のレンジ画像SIMGを処理する画像処理部を含むことができる。画像処理部は、複数のレンジ画像SIMGのうち隣接する2枚について、間接ToF(Time of Flight)法にもとづいて距離を算出し、距離画像DIMGを生成してもよい。この距離画像DIMGは、各画素の画素値が距離を表す。
 より具体的には、N個のレンジRNG~RNGについて、N枚のレンジ画像SIMG~SIMGが得られる。演算処理装置140は、隣接する2枚のレンジ画像SIMG,SIMGについて、間接ToF法により、1枚の距離画像DIMG1,2を生成する。同様に、隣接する2枚のレンジ画像SIMG,SIMGについて、距離画像DIMG2,3が生成される。1≦i<nとして、2枚のレンジ画像SIMG,SIMGi+1について、距離画像DIMGi,i+1が生成される。
 演算処理装置140は、複数のレンジ画像SIMG~SIMGを合成することにより輝度画像IMG1を生成することができる。
 また、演算処理装置140は、(N-1)枚の距離画像DIMG1,2~DIMGN-1,Nを合成して、1枚の距離画像IMG2を生成することができる。
 センサ410を、カメラと測距センサのハイブリッドで構成することも可能であるが、その場合、コストが高くなる。また輝度画像IMG1と距離画像IMG2の画素数やアスペクト比が異なる可能性ある。アスペクト比や画素数が異なっていると、縁石の検出処理が複雑化する。
 これに対してセンサ410としてToFカメラ100を利用すると、輝度画像IMG1と距離画像IMG2は、同じイメージセンサ120が生成するレンジ画像にもとづいて生成される。このため、輝度画像IMG1と距離画像IMG2のアスペクト比や画素数が揃うこととなる。これにより、縁石の検出処理を簡素化できる。
 実施形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにさまざまな変形例が存在すること、またそうした変形例も本開示または本発明の範囲に含まれることは当業者に理解されるところである。
 本出願は、2022年5月18日出願の日本特許出願2022-81840号に基づくものであり、その内容はここに参照として取り込まれる。
 

Claims (8)

  1.  画素が物体の反射率を表す輝度画像と、画素が物体までの距離を表す距離画像と、を生成するセンサと、
     前記輝度画像と前記距離画像にもとづいて、車道の境界を規定する縁石を検出する演算処理装置と、
     を備える、車載センシングシステム。
  2.  前記演算処理装置は、
     前記輝度画像および前記距離画像それぞれを、垂直方向に複数n個(n≧2)の領域に分割し、前記輝度画像のi番目の領域について、水平位置ごとに、前記縁石である可能性を評価し、前記距離画像のi番目の領域について、水平位置ごとに、前記縁石である可能性を評価し、
     前記輝度画像のi番目の領域と、前記距離画像のi番目の領域の両方において、前記縁石である可能性が高いと評価される水平位置を、前記縁石であると判定する、請求項1に記載の車載センシングシステム。
  3.  前記演算処理装置は、前記輝度画像のi番目の領域について、画素値が相対的に高い水平位置を、前記縁石である可能性が高いものと評価する、請求項2に記載の車載センシングシステム。
  4.  前記演算処理装置は、前記距離画像のi番目の領域から、水平位置と、基準面からの高さの関係を示す高さ情報を生成し、前記高さ情報にもとづいて、前記縁石である可能性を評価する、請求項2に記載の車載センシングシステム。
  5.  前記演算処理装置は、前記高さ情報から、各水平位置における傾きを算出し、相対的に傾きが大きい水平位置を、前記縁石である可能性が高いものと評価する、請求項3に記載の車載センシングシステム。
  6.  前記演算処理装置は、前記距離画像について、過去のフレームを利用して、現在のフレームの画素の欠陥を補間する、請求項1から5のいずれか一項に記載の車載センシングシステム。
  7.  前記センサは、
     パルス照明光を視野に照射する照明装置と、
     イメージセンサと、
     前記照明装置の発光タイミングと前記イメージセンサの露光タイミングを制御するカメラコントローラと、
     を含み、前記視野を奥行き方向について複数のレンジに区切り、前記複数のレンジに対応する複数のレンジ画像を生成するToFカメラであり、
     前記複数のレンジ画像を合成して、前記輝度画像が生成され、
     前記複数のレンジ画像の隣接する2枚をペアとし、各ペアについて間接ToF(Time of Flight)の演算を行うことにより、前記距離画像を生成する、請求項1から5のいずれか一項に記載の車載センシングシステム。
  8.  縁石の検出方法であって、
     画素が物体の反射率を表す輝度画像を生成し、
     画素が物体までの距離を表す距離画像を生成し、
     前記輝度画像および前記距離画像それぞれを、垂直方向に複数n個(n≧2)の領域に分割し、
     前記輝度画像のi番目の領域について、水平位置ごとに、前記縁石である可能性を評価し、
     前記距離画像のi番目の領域について、水平位置ごとに、前記縁石である可能性を評価し、
     前記輝度画像のi番目の領域と、前記距離画像のi番目の領域の両方において、前記縁石である可能性が高いと評価される水平位置を、前記縁石であると判定する、
     縁石の検出方法。
PCT/JP2023/018489 2022-05-18 2023-05-17 車載センシングシステムおよび縁石の検出方法 WO2023224078A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-081840 2022-05-18
JP2022081840 2022-05-18

Publications (1)

Publication Number Publication Date
WO2023224078A1 true WO2023224078A1 (ja) 2023-11-23

Family

ID=88835657

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/018489 WO2023224078A1 (ja) 2022-05-18 2023-05-17 車載センシングシステムおよび縁石の検出方法

Country Status (1)

Country Link
WO (1) WO2023224078A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007110329A (ja) * 2005-10-12 2007-04-26 Ntt Communications Kk 画像補正装置、画像補正方法、および画像補正プログラム
JP2012032378A (ja) * 2010-07-05 2012-02-16 Denso Corp 道路端検出装置、運転者支援装置、および道路端検出方法
JP2013161190A (ja) * 2012-02-02 2013-08-19 Toyota Motor Corp 物体認識装置
WO2019181518A1 (ja) * 2018-03-20 2019-09-26 パナソニックIpマネジメント株式会社 距離測定装置、距離測定システム、距離測定方法、及びプログラム
US20210096263A1 (en) * 2019-09-30 2021-04-01 Zoox, Inc. Power control of sensors using multiple exposures
WO2021060397A1 (ja) * 2019-09-26 2021-04-01 株式会社小糸製作所 ゲーティングカメラ、自動車、車両用灯具、画像処理装置、画像処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007110329A (ja) * 2005-10-12 2007-04-26 Ntt Communications Kk 画像補正装置、画像補正方法、および画像補正プログラム
JP2012032378A (ja) * 2010-07-05 2012-02-16 Denso Corp 道路端検出装置、運転者支援装置、および道路端検出方法
JP2013161190A (ja) * 2012-02-02 2013-08-19 Toyota Motor Corp 物体認識装置
WO2019181518A1 (ja) * 2018-03-20 2019-09-26 パナソニックIpマネジメント株式会社 距離測定装置、距離測定システム、距離測定方法、及びプログラム
WO2021060397A1 (ja) * 2019-09-26 2021-04-01 株式会社小糸製作所 ゲーティングカメラ、自動車、車両用灯具、画像処理装置、画像処理方法
US20210096263A1 (en) * 2019-09-30 2021-04-01 Zoox, Inc. Power control of sensors using multiple exposures

Similar Documents

Publication Publication Date Title
CN113227839B (zh) 具有结构光照明器的飞行时间传感器
JP6471528B2 (ja) 物体認識装置、物体認識方法
US9810785B2 (en) Gated imaging using an adaptive depth of field
CN106458084B (zh) 车辆用照明装置
JP7201592B2 (ja) 車両の周囲を特徴付けるためのシステム
CN110293973B (zh) 驾驶支援系统
WO2020196513A1 (ja) 物体検出装置
JP2010088045A (ja) ナイトビューシステム、夜間歩行者表示方法
WO2015189851A1 (en) Method and system for pattern detection, classification and tracking
US20220207884A1 (en) Object recognition apparatus and object recognition program product
CN116529633A (zh) 用于借助照明装置和光学传感器探测物体的方法、用于执行这种方法的控制装置、具有这种控制装置的探测装置和具有这种探测装置的机动车
WO2023224078A1 (ja) 車載センシングシステムおよび縁石の検出方法
WO2021172478A1 (ja) センサ、自動車および周囲環境のセンシング方法
EP4286895A1 (en) Gated camera, vehicular sensing system, and vehicular lamp
WO2021065138A1 (ja) 測距装置および制御方法
JP7535394B2 (ja) 画像処理装置および測距装置
WO2021166912A1 (ja) 物体検出装置
JP7402129B2 (ja) 電磁波検出装置、測距装置および電磁波検出方法
WO2023224077A1 (ja) ToFカメラ、車両用センシングシステム、および車両用灯具
WO2023085403A1 (ja) センシングシステム
JP2023128481A (ja) 物体認識方法及び物体認識装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23807679

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2024521968

Country of ref document: JP