WO2022186099A1 - 情報処理装置、情報処理方法、プログラム及び記憶媒体 - Google Patents

情報処理装置、情報処理方法、プログラム及び記憶媒体 Download PDF

Info

Publication number
WO2022186099A1
WO2022186099A1 PCT/JP2022/008135 JP2022008135W WO2022186099A1 WO 2022186099 A1 WO2022186099 A1 WO 2022186099A1 JP 2022008135 W JP2022008135 W JP 2022008135W WO 2022186099 A1 WO2022186099 A1 WO 2022186099A1
Authority
WO
WIPO (PCT)
Prior art keywords
measurement data
noise
information processing
threshold
threshold value
Prior art date
Application number
PCT/JP2022/008135
Other languages
English (en)
French (fr)
Inventor
誠 松丸
Original Assignee
パイオニア株式会社
パイオニアスマートセンシングイノベーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社, パイオニアスマートセンシングイノベーションズ株式会社 filed Critical パイオニア株式会社
Publication of WO2022186099A1 publication Critical patent/WO2022186099A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection

Definitions

  • the present invention relates to technology for acquiring surrounding information.
  • the measurement object is irradiated with light and the reflected light from the measurement object is detected, and measurement is performed by measuring the time difference between the timing of irradiating the measurement object with light and the timing of detecting the reflected light from the measurement object.
  • a distance measuring device that calculates the distance to an object is known.
  • Japanese Patent Application Laid-Open No. 2002-201001 discloses a forward vehicle recognition device that detects the distance and inclination of a forward vehicle by changing a lighting pattern for projecting a light projection pattern according to the detection state of the light projection pattern.
  • Some distance measuring devices that use laser light, such as lidar, acquire the reflection intensity value along with the position information of the measurement point corresponding to the detected object.
  • the reflection intensity value is basically determined by the material of the object.
  • such a rangefinder outputs measurement data whose reflection intensity value is smaller than that of the object and whose position is random.
  • Such random measurement data is treated as noise. That is, measurement data whose reflection intensity value is smaller than that of the object is removed as noise using a certain threshold.
  • the reflection intensity value of an object changes depending on the external environment such as the weather (sunny weather/rainy weather) and time (daytime/nighttime). Further, like the reflection intensity value of the object, the noise reflection intensity value described above also changes depending on the external environment. Therefore, if noise is removed by using the threshold value for fine weather in rainy weather, for example, there arises a problem that not only noise but also the measurement points of the object are removed as noise.
  • a main object of the present invention is to remove noise from measurement data using an appropriate threshold according to the external environment.
  • the claimed invention is an information processing apparatus comprising an acquisition means for receiving reflected light corresponding to emitted light and acquiring measurement data; Threshold setting means for acquiring measurement data to be measured and setting a threshold based on the average value of the reflection intensity values of the measurement data, and noise removal means for removing noise contained in the measurement data using the threshold, Prepare.
  • the invention according to another claim is an information processing method executed by an information processing apparatus, comprising: an acquisition step of receiving reflected light corresponding to emitted light to acquire measurement data; A threshold setting step of acquiring measurement data corresponding to an area where a detection target does not exist, and setting a threshold based on an average value of reflection intensity values of the measurement data; and a noise removal step of removing noise.
  • a program comprising: acquisition means for acquiring measurement data obtained by receiving reflected light corresponding to emitted light; Threshold setting means for acquiring measurement data corresponding to and setting a threshold based on the average value of the reflection intensity values of the measurement data, and noise removal means for removing noise contained in the measurement data using the threshold , to function as a computer.
  • 1 shows a schematic configuration of a lidar according to an embodiment
  • It is a figure which shows the example of the measurement data by a rider. It is a figure explaining the method of noise removal by a 1st method.
  • 4 is a flowchart of noise removal processing by the first method
  • 9 is a flowchart of noise removal processing by the second method;
  • the information processing apparatus includes acquisition means for receiving reflected light corresponding to emitted light and acquiring measurement data; Threshold setting means for acquiring measurement data and setting a threshold based on the average value of reflection intensity values of the measurement data, and noise removal means for removing noise contained in the measurement data using the threshold.
  • the acquisition means receives reflected light corresponding to the emitted light and acquires measurement data.
  • the threshold value setting means acquires measurement data corresponding to an area where the detection target does not exist among the measurement data, and sets a threshold value based on the average value of the reflection intensity values of the measurement data.
  • the noise removal means removes noise contained in the measurement data using the threshold. Thereby, noise can be removed using an appropriate threshold according to changes in the external environment.
  • the area where the detection target does not exist includes at least one of an empty area and an area below the ground.
  • the threshold value setting means determines a value obtained by adding a predetermined offset value to the average value as the threshold value. Further, the noise removal means removes measurement data whose reflection intensity is equal to or less than the threshold value as the noise.
  • an information processing method executed by an information processing apparatus includes an acquisition step of receiving reflected light corresponding to emitted light and acquiring measurement data; A threshold setting step of acquiring measurement data corresponding to an area where no object exists, setting a threshold based on an average value of reflection intensity values of the measurement data, and using the threshold to determine noise contained in the measurement data. and a noise removal step of removing the .
  • noise can be removed using an appropriate threshold according to changes in the external environment.
  • the program comprises acquisition means for acquiring measurement data obtained by receiving reflected light corresponding to emitted light; Threshold setting means for acquiring corresponding measurement data and setting a threshold based on the average value of reflection intensity values of the measurement data, and noise removal means for removing noise contained in the measurement data using the threshold, make the computer function as
  • This program can be handled by being stored in a storage medium.
  • FIG. 1 shows a schematic configuration of a lidar 100 according to this embodiment.
  • the rider 100 is fixedly installed on the side of a road or the like.
  • the lidar 100 irradiates laser light (also referred to as “irradiation light”) to a predetermined angle range in the horizontal and vertical directions, and emits light (also referred to as “reflected light”) returned by the irradiation light reflected by an object. ) is received, the distance from the lidar 100 to the object is discretely measured, and point cloud information indicating the three-dimensional position of the object is generated.
  • the lidar 100 mainly includes a transmitter 1, a receiver 2, a beam splitter 3, a scanner 5, a piezo sensor 6, a controller 7, and a memory 8.
  • the transmission unit 1 is a light source that emits pulsed irradiation light toward the beam splitter 3 .
  • the transmitter 1 includes, for example, an infrared laser emitting element.
  • the transmission unit 1 is driven based on the driving signal Sg1 supplied from the control unit 7. FIG.
  • the receiving unit 2 is, for example, an avalanche photodiode, generates a detection signal Sg2 corresponding to the amount of received light, and supplies the generated detection signal Sg2 to the control unit 7.
  • the beam splitter 3 transmits the pulsed irradiation light emitted from the transmitter 1 .
  • the beam splitter 3 also reflects the reflected light incident through the scanner 5 toward the receiver 2 .
  • the scanner 5 is, for example, an electrostatically driven mirror (MEMS mirror), and its tilt (that is, the optical scanning angle) changes within a predetermined range based on the drive signal Sg3 supplied from the controller 7 .
  • the scanner 5 reflects the irradiation light transmitted through the beam splitter 3 toward the outside of the lidar 100 , and emits the reflected light incident from the outside of the lidar 100 toward the beam splitter 3 .
  • a point irradiated with irradiation light within the measurement range of the lidar 100 is also called a “measurement point”.
  • a piezo sensor 6 is provided in the scanner 5 .
  • the piezo sensor 6 detects strain caused by the stress of the torsion bar that supports the mirror portion of the scanner 5 .
  • the piezo sensor 6 supplies the generated detection signal Sg4 to the controller 7 .
  • the detection signal Sg4 is used for detecting the orientation of the scanner 5.
  • the memory 8 is composed of various volatile and nonvolatile memories such as RAM (Random Access Memory), ROM (Read Only Memory), and flash memory.
  • the memory 8 stores programs necessary for the control unit 7 to execute predetermined processing.
  • the memory 8 also stores various parameters referred to by the control unit 7 . Further, the memory 8 stores the latest point cloud information for a predetermined number of frames generated by the control unit 7 .
  • the control unit 7 includes various processors such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit).
  • the control unit 7 executes a predetermined process by executing a program stored in the memory 8 .
  • the control unit 7 is an example of a computer that executes programs. Note that the control unit 7 is not limited to being realized by software programs, and may be realized by any combination of hardware, firmware, and software.
  • the control unit 7 may be a user-programmable integrated circuit such as FPGA (field-programmable gate array) or microcontroller, ASSP (Application Specific Standard Produce), ASIC (Application Specific Integrated Circuit), etc. may be
  • the control unit 7 functionally includes a transmission drive block 70 , a scanner drive block 71 , a point cloud information generation block 72 and a point cloud information processing block 73 .
  • the transmission drive block 70 outputs a drive signal Sg1 for driving the transmission section 1.
  • the drive signal Sg1 includes information for controlling the light emission time of the laser light emitting element included in the transmitter 1 and the light emission intensity of the laser light emitting element.
  • the transmission drive block 70 controls the emission intensity of the laser light emitting element included in the transmission section 1 using the drive signal Sg1.
  • the scanner drive block 71 outputs a drive signal Sg3 for driving the scanner 5.
  • the drive signal Sg3 includes a horizontal drive signal corresponding to the resonance frequency of the scanner 5 and a vertical drive signal for vertical scanning. Further, the scanner drive block 71 monitors the detection signal Sg4 output from the piezo sensor 6 to detect the scanning angle of the scanner 5 (that is, the emission direction of the irradiation light).
  • the point cloud information generation block 72 Based on the detection signal Sg2 supplied from the receiving unit 2, the point cloud information generation block 72 generates point cloud information indicating the distance and direction to the object irradiated with the irradiation light for each measurement point, with the lidar 100 as a reference point. to generate In this case, the point group information generation block 72 calculates the time from when the irradiation light is emitted until the receiving unit 2 detects the reflected light as the time of flight of the light. Then, the point cloud information generation block 72 generates point cloud information indicating the distance corresponding to the calculated flight time and the irradiation direction of the irradiation light corresponding to the reflected light received by the reception unit 2 for each measurement point, The generated point cloud information is supplied to the point cloud information processing block 73 .
  • the point group information obtained by scanning all the measurement points once will be referred to as point group information for one frame.
  • Point cloud information is an example of measurement data.
  • the point cloud information can be regarded as an image in which the measurement points are pixels and the distance indicated by each measurement point is the pixel value.
  • each measurement point has a different irradiation direction of irradiation light at an elevation/depression angle in the vertical direction, and a different irradiation direction of irradiation light at a horizontal angle in the horizontal direction.
  • the horizontal direction of the image (that is, the horizontal direction) is the “X axis”
  • the vertical direction of the image that is, the height direction) is the “Z axis”
  • the distance indicated by the pixel value that is, the distance from the lidar 100 in the depth direction.
  • the XYZ coordinate system shall be a three-dimensional coordinate system with the position of the rider 100 as the origin.
  • the point group information also includes information on the reflection intensity (that is, the received light intensity at each measurement point) for each pixel.
  • the point cloud information processing block 73 removes noise from the point cloud information supplied from the point cloud information generation block 72 . Specifically, the point cloud information processing block 73 determines a reflection intensity value threshold (hereinafter also referred to as a “noise threshold”) for each frame of the supplied point cloud information, and the reflection intensity value is the noise threshold. The following point cloud information is removed as noise.
  • a reflection intensity value threshold hereinafter also referred to as a “noise threshold”
  • the receiving unit 2 is an example of acquisition means
  • the control unit 7 is an example of threshold setting means and noise removal means.
  • the point cloud information stored in the memory 8 may be output to, for example, a device that controls driving support such as automatic driving of a vehicle (also called a "driving support device").
  • the driving support device may be, for example, a vehicle ECU (Electronic Control Unit), or an in-vehicle device such as a car navigation device electrically connected to the vehicle.
  • FIG. 2A shows an example of an image captured by a camera fixedly installed on the side of a road.
  • An image 40 shows a state in which a truck 45 is traveling on a one-lane road.
  • a truck 45 runs in a lane defined by a boundary line 41 and a center line 42 from the front to the back of the drawing. That is, the rear surface of the track 45 is shown in FIG. 2(A).
  • Fences 43 and 44 are provided on both sides of the road.
  • FIG. 2(B) shows an example of coordinate transformation of the point group information obtained by measuring the same range as the image 40 of FIG. Specifically, the coordinates of the point group information obtained by measuring with the lidar 100 are rotated in the vertical direction (pitch direction), and drawn by parallel projection instead of perspective projection.
  • the X-axis indicates the horizontal direction of the ranging range of the lidar 100 and the Z-axis indicates the height direction of the ranging range of the lidar 100 .
  • a dashed line 46 indicates the level of "0" in the height direction, that is, the level of the ground.
  • the point cloud information is composed of measurement data corresponding to a plurality of measurement points.
  • the size of each measurement point corresponds to the reflection intensity value measured at that measurement point, and the larger the size of the measurement point, the larger the reflection intensity value.
  • the measurement data measured by the rider 100 includes a point group P43 corresponding to the fence 43, a point group P44 corresponding to the fence 44, and a track 45. and a point group P45 corresponding to . Since these point groups have large reflection intensity values, they are indicated by large-sized measurement points in FIG. 2(B). In addition to these point clouds, the measurement data contains small size measurement points. A small size measurement point has a small reflection intensity value and corresponds to the noise described above. As shown in FIG. 2B, measurement points corresponding to noise (hereinafter, also referred to as "noise points”) are spread randomly over the entire measurement data.
  • FIG. 2(C) shows an example of measurement data obtained by measuring the same range as the image 40 of FIG. 2(A) with the lidar 100.
  • FIG. 2C the Y-axis indicates the distance from the rider 100 to the measurement point, and the Z-axis indicates the height direction of the distance measurement range of the rider 100 .
  • a dashed line 46 indicates the level of "0" in the height direction, that is, the level of the ground.
  • the obtained plurality of measurement points consist of large-sized measurement points corresponding to the fences 43, 44 and the track 45, and small-sized noise points. include.
  • the noise points are spread within the scanning range of lidar 100 .
  • FIG. 2(D) shows the result of removing noise points from the multiple measurement points shown in FIG. 2(B) using an appropriate threshold.
  • a noise threshold for removing noise points, from all the measurement points shown in FIG. show.
  • a point group P43 corresponding to the fence 43, a point group P44 corresponding to the fence 44, and a point group P45 corresponding to the truck 45 are extracted.
  • noise points can be correctly removed.
  • the reflection intensity value of an object changes depending on the external environment such as weather (sunny weather/rainy weather) and time (daytime/nighttime). Further, like the reflection intensity value of the object, the reflection intensity value of the noise point described above also changes depending on the external environment. Therefore, for example, if noise points are removed using the threshold value for fine weather in rainy weather, there arises a problem that not only noise points but also measurement points of an object are erroneously removed as noise points. Therefore, an appropriate threshold is determined by one of the following methods to remove noise.
  • the control unit 7 normally determines an appropriate noise threshold using reflection intensity values of measurement points belonging to areas where no detection target exists.
  • an empty area and an underground area are examples of the area where the detection target does not exist.
  • FIG. 3(A) shows an example of using an empty area as an area where no detection target exists.
  • the control unit 7 uses an upper sky region (hereinafter referred to as a "sky region") 81 in the measurement range of the lidar 100 as a region where no detection target exists. and find the noise threshold.
  • the control unit 7 obtains the noise threshold using the average value of the reflection intensity values of the measurement points belonging to the sky region 81 among the measurement points actually measured by the rider 100. .
  • the control unit 7 obtains the average value of the reflection intensity values of a plurality of measurement points belonging to the sky region 81, and adds a predetermined offset value to the average value to set the value as the noise threshold.
  • FIG. 3(C) shows an example of using an area below the ground as an area where there are no detection targets.
  • the area 82 below the ground is an area whose Z coordinate is below the level of the ground (hereinafter referred to as "underground area").
  • the control unit 7 obtains the noise threshold using the average value of the reflection intensity values of the measurement points belonging to the underground region 82, that is, the measurement points whose Z coordinate is 0 or less. Specifically, the control unit 7 obtains the average value of the reflection intensity values of a plurality of measurement points belonging to the underground area 82, and adds a predetermined offset value to the average value to set the value as the noise threshold.
  • the control unit 7 determines the noise threshold as a value obtained by adding a predetermined offset value to the average value of the reflection intensity values of the measurement points belonging to the area where the detection target does not exist.
  • control unit 7 may determine the noise threshold using either one of the sky area and the underground area as the area where the detection target does not exist, or may determine the noise threshold using both. good too.
  • FIG. 4 is a flowchart of noise removal processing according to the first method. This processing is realized by executing a program prepared in advance by the control unit 7 shown in FIG. Note that this process is executed each time point group information (measurement data) for one frame is obtained by the lidar 100 .
  • the control unit 7 extracts measurement points belonging to the sky region and/or the underground region from all measurement data (step S11).
  • the control unit 7 calculates the average value of the reflection intensity values of the extracted measurement points (step S12), and adds a predetermined offset value to the average value to obtain the noise threshold (step S13).
  • the control unit 7 removes, as noise, measurement points whose reflection intensity values are equal to or less than the noise threshold among all the measurement points obtained based on the detection signal Sg2 (step S14).
  • the control unit 7 executes this process for each frame of measurement data. Note that the noise threshold obtained in step S13 may be saved for a plurality of frames, the average value thereof may be calculated, and the noise may be removed.
  • the control unit 7 determines the noise threshold using the reflection intensity values of measurement points belonging to a certain range from the detection limit distance of the lidar 100 .
  • the lidar 100 has a limit distance at which an object can be detected, and cannot detect an object located farther than the limit distance.
  • the control unit 7 determines the noise threshold using the reflection intensity values of the measurement points detected within a certain range from the detection limit distance of the lidar 100 .
  • a certain range from the detection limit distance means a distance from a distance shorter than the detection limit distance by a predetermined distance to the detection limit distance. For example, if the detection limit distance is 120 m, the certain range from the detection limit distance is set to a range of 100 to 120 m.
  • FIG. 5 is a flowchart of noise removal processing according to the second method. This processing is realized by executing a program prepared in advance by the control unit 7 shown in FIG. This process is executed each time the lidar 100 obtains measurement data for one frame.
  • the control section 7 extracts measurement points within a certain range from the detection limit distance of the rider 100 from all measurement data (step S21).
  • the control unit 7 calculates the average value of the reflection intensity values of the extracted measurement points (step S22), and adds a predetermined offset value to the average value to obtain the noise threshold (step S23).
  • the control unit 7 removes, as noise, measurement points whose reflection intensity values are equal to or less than the noise threshold among all the measurement points obtained based on the detection signal Sg2 (step S24).
  • the control unit 7 executes this process for each frame of measurement data. Note that the noise threshold obtained in step S23 may be saved for a plurality of frames, the average value thereof may be calculated, and the noise may be removed.
  • step S21 of the noise removal process shown in FIG. 5 when extracting measurement points within a certain range from the detection limit distance of the lidar, the control unit 7 selects measurement points with high reflection intensity values, specifically Measurement points that are equal to or greater than a predetermined value may be excluded.
  • a predetermined value As mentioned above, near the detection limit distance of the lidar, objects are often detected in a state close to noise. Even in the vicinity of the distance, it may be possible to measure with a sufficient reflection intensity value. Therefore, if the measurement points extracted within a certain range from the detection limit distance of the lidar include measurement points with large reflection intensity values due to reflectors, etc., the noise threshold obtained by averaging the reflection intensity values is simply a noise point.
  • control unit 7 excludes measurement points having a high reflection intensity value due to the above-mentioned reflector or the like from the measurement points within a certain range from the detection limit distance of the rider, and then, as shown in steps S22 and S23, each measurement point.
  • the noise threshold may be determined by calculating the mean value of the reflected intensity values.
  • the lidar 100 is fixedly installed on the side of a road or the like, and the noise threshold is determined using the measurement points in the sky region or the underground region. is not necessary, the lidar 100 can be applied to a mobile body such as a vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

情報処理装置において、取得手段は、出射光に対応する反射光を受光し、計測データを取得する。閾値設定手段は、計測データのうち、検出対象物が存在しない領域に相当する計測データを取得し、当該計測データの反射強度値の平均値に基づいて閾値を設定する。そして、ノイズ除去手段は、閾値を用いて、計測データに含まれるノイズを除去する。

Description

情報処理装置、情報処理方法、プログラム及び記憶媒体
 本発明は、周辺の情報を取得する技術に関する。
 従来から、計測対象物に光を照射して計測対象物からの反射光を検出し、計測対象物に光を照射するタイミングと、計測対象物からの反射光を検出するタイミングとの時間差により計測対象物までの距離を算出する測距装置が知られている。特許文献1には、投光パターンの検出状態により、投光パターンを投光するための点灯パターンを変更し、前方車両との距離や傾きを検出する前方車両認識装置が開示されている。
特開2008-082750号公報
 ライダなどのレーザ光を利用した測距装置には、検出した物体に対応する計測点の位置情報とともに反射強度値を取得するものがある。反射強度値は、基本的に物体の材質などにより決まる。このような測距装置は、物体が無い空間では、反射強度値が物体よりも小さく、位置がランダムな計測データを出力するが、このようなランダムな計測データはノイズとして扱われる。即ち、反射強度値が物体より小さい計測データは、ある閾値を用いてノイズとして除去される。
 物体の反射強度値は、天候(晴天/雨天)、時間(昼間/夜間)などの外部環境により変化する。また、物体の反射強度値と同様に、上述したノイズの反射強度値も外部環境により変化する。よって、例えば晴天時の閾値を雨天時に用いてノイズを除去すると、ノイズのみならず、物体の計測点もノイズとして除去されてしまうという問題が生じる。
 本発明の解決しようとする課題としては、上記のものが一例として挙げられる。本発明は、外部環境に応じた適切な閾値を用いて、計測データからノイズを除去することを主な目的とする。
 請求項に記載の発明は、情報処理装置であって、出射光に対応する反射光を受光し、計測データを取得する取得手段と、前記計測データのうち、検出対象物が存在しない領域に相当する計測データを取得し、当該計測データの反射強度値の平均値に基づいて閾値を設定する閾値設定手段と、前記閾値を用いて、前記計測データに含まれるノイズを除去するノイズ除去手段と、を備える。
 他の請求項に記載の発明は、情報処理装置により実行される情報処理方法であって、出射光に対応する反射光を受光し、計測データを取得する取得工程と、前記計測データのうち、検出対象物が存在しない領域に相当する計測データを取得し、当該計測データの反射強度値の平均値に基づいて閾値を設定する閾値設定工程と、前記閾値を用いて、前記計測データに含まれるノイズを除去するノイズ除去工程と、を備える。
 他の請求項に記載の発明は、プログラムであって、出射光に対応する反射光を受光して得た計測データを取得する取得手段と、前記計測データのうち、検出対象物が存在しない領域に相当する計測データを取得し、当該計測データの反射強度値の平均値に基づいて閾値を設定する閾値設定手段と、前記閾値を用いて、前記計測データに含まれるノイズを除去するノイズ除去手段、としてコンピュータを機能させる。
実施例によるライダの概略構成を示す。 ライダによる計測データの例を示す図である。 第1の方法によるノイズ除去の方法を説明する図である。 第1の方法によるノイズ除去処理のフローチャートである。 第2の方法によるノイズ除去処理のフローチャートである。
 本発明の好適な実施形態では、情報処理装置は、出射光に対応する反射光を受光し、計測データを取得する取得手段と、前記計測データのうち、検出対象物が存在しない領域に相当する計測データを取得し、当該計測データの反射強度値の平均値に基づいて閾値を設定する閾値設定手段と、前記閾値を用いて、前記計測データに含まれるノイズを除去するノイズ除去手段と、を備える。
 上記の情報処理装置では、取得手段は、出射光に対応する反射光を受光し、計測データを取得する。閾値設定手段は、計測データのうち、検出対象物が存在しない領域に相当する計測データを取得し、当該計測データの反射強度値の平均値に基づいて閾値を設定する。そして、ノイズ除去手段は、閾値を用いて、計測データに含まれるノイズを除去する。これにより、外部環境の変化に応じた適切な閾値を用いてノイズ除去を行うことができる。好適な例では、検出対象物が存在しない領域は、空の領域、及び、地面より下の領域の少なくとも一方を含む。
 上記の情報処理装置の一態様では、前記閾値設定手段は、前記平均値に所定のオフセット値を加算した値を前記閾値と決定する。また、前記ノイズ除去手段は、反射強度が前記閾値以下の計測データを前記ノイズとして除去する。
 本発明の他の好適な実施形態では、情報処理装置により実行される情報処理方法は、出射光に対応する反射光を受光し、計測データを取得する取得工程と、前記計測データのうち、検出対象物が存在しない領域に相当する計測データを取得し、当該計測データの反射強度値の平均値に基づいて閾値を設定する閾値設定工程と、前記閾値を用いて、前記計測データに含まれるノイズを除去するノイズ除去工程と、を備える。これにより、外部環境の変化に応じた適切な閾値を用いてノイズ除去を行うことができる。
 本発明の他の好適な実施形態では、プログラムは、出射光に対応する反射光を受光して得た計測データを取得する取得手段と、前記計測データのうち、検出対象物が存在しない領域に相当する計測データを取得し、当該計測データの反射強度値の平均値に基づいて閾値を設定する閾値設定手段と、前記閾値を用いて、前記計測データに含まれるノイズを除去するノイズ除去手段、としてコンピュータを機能させる。このプログラムをコンピュータで実行することにより、上記の情報処理装置を実現することができる。このプログラムは、記憶媒体に記憶して取り扱うことができる。
 以下、図面を参照して本発明の好適な実施例について説明する。
 [装置構成]
 図1は、本実施例に係るライダ100の概略構成を示す。本実施例では、ライダ100は、道路脇などに固定設置される。ライダ100は、水平方向および垂直方向の所定の角度範囲に対してレーザ光(「照射光」とも呼ぶ。)を照射し、当該照射光が物体により反射されて戻った光(「反射光」とも呼ぶ。)を受光することで、ライダ100から物体までの距離を離散的に測定し、当該物体の3次元位置を示す点群情報を生成する。
 図1に示すように、ライダ100は、主に、送信部1と、受信部2と、ビームスプリッタ3と、スキャナ5と、ピエゾセンサ6と、制御部7と、メモリ8と、を有する。
 送信部1は、パルス状の照射光をビームスプリッタ3に向けて出射する光源である。送信部1は、例えば、赤外線レーザ発光素子を含む。送信部1は、制御部7から供給される駆動信号Sg1に基づき駆動される。
 受信部2は、例えばアバランシェフォトダイオード(Avalanche PhotoDiode)であり、受光した光量に対応する検出信号Sg2を生成し、生成した検出信号Sg2を制御部7へ供給する。
 ビームスプリッタ3は、送信部1から射出されるパルス状の照射光を透過する。また、ビームスプリッタ3は、スキャナ5を通じて入射した反射光を、受信部2に向けて反射する。
 スキャナ5は、例えば静電駆動方式のミラー(MEMSミラー)であり、制御部7から供給される駆動信号Sg3に基づき、傾き(即ち光走査の角度)が所定の範囲内で変化する。スキャナ5は、ビームスプリッタ3を透過した照射光をライダ100の外部へ向けて反射すると共に、ライダ100の外部から入射する反射光をビームスプリッタ3へ向けて出射する。ライダ100の計測範囲内において照射光が照射される点を「計測点」とも呼ぶ。
 スキャナ5には、ピエゾセンサ6が設けられている。ピエゾセンサ6は、スキャナ5のミラー部を支持するトーションバーの応力により生じる歪みを検出する。ピエゾセンサ6は、生成した検出信号Sg4を制御部7へ供給する。検出信号Sg4は、スキャナ5の向きの検出に用いられる。
 メモリ8は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリなどの各種の揮発性メモリ及び不揮発性メモリにより構成される。メモリ8は、制御部7が所定の処理を実行するために必要なプログラムを記憶する。また、メモリ8は、制御部7により参照される各種パラメータを記憶する。また、メモリ8には、制御部7により生成された最新の所定フレーム数分の点群情報が記憶される。
 制御部7は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などの各種プロセッサを含む。制御部7は、メモリ8に記憶されたプログラムを実行することで、所定の処理を実行する。制御部7は、プログラムを実行するコンピュータの一例である。なお、制御部7は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組合せ等により実現されてもよい。また、制御部7は、FPGA(field-programmable gate array)又はマイクロコントローラ等の、ユーザがプログラミング可能な集積回路であってもよく、ASSP(Application Specific Standard Produce)、ASIC(Application Specific Integrated Circuit)等であってもよい。
 制御部7は、機能的には、送信駆動ブロック70と、スキャナ駆動ブロック71と、点群情報生成ブロック72と、点群情報処理ブロック73と、を有する。
 送信駆動ブロック70は、送信部1を駆動する駆動信号Sg1を出力する。駆動信号Sg1は、送信部1に含まれるレーザ発光素子の発光時間と、当該レーザ発光素子の発光強度を制御するための情報を含む。送信駆動ブロック70は、駆動信号Sg1を用いて送信部1に含まれるレーザ発光素子の発光強度を制御する。
 スキャナ駆動ブロック71は、スキャナ5を駆動するための駆動信号Sg3を出力する。駆動信号Sg3は、スキャナ5の共振周波数に対応する水平駆動信号と、垂直走査するための垂直駆動信号と、を含む。また、スキャナ駆動ブロック71は、ピエゾセンサ6から出力される検出信号Sg4を監視することで、スキャナ5の走査角度(すなわち照射光の射出方向)を検出する。
 点群情報生成ブロック72は、受信部2から供給される検出信号Sg2に基づき、ライダ100を基準点として、照射光が照射された物体までの距離と方向とを計測点毎に示す点群情報を生成する。この場合、点群情報生成ブロック72は、照射光を射出してから受信部2が反射光を検出するまでの時間を、光の飛行時間(Time of Flight)として算出する。そして、点群情報生成ブロック72は、算出した飛行時間に応じた距離と、受信部2が受信した反射光に対応する照射光の照射方向とを計測点毎に示す点群情報を生成し、生成した点群情報を点群情報処理ブロック73に供給する。以後では、全計測点に対する1回分の走査により得られる点群情報を、1フレーム分の点群情報とする。点群情報は、計測データの一例である。
 ここで、点群情報は、計測点を画素とし、各計測点が示す距離を画素値とする画像とみなすことができる。この場合、各計測点は、縦方向の並びにおいて仰俯角における照射光の照射方向が異なり、横方向の並びにおいて水平角における照射光の照射方向が異なる。以後では、画像の横方向(即ち水平方向)を「X軸」、画像の縦方向(即ち高さ方向)を「Z軸」、画素値が示す距離(即ち奥行方向のライダ100からの距離)を「Y軸」としてXYZ座標系を定義する。以後では、XYZ座標系は、ライダ100の位置を原点とする3次元座標系であるものとする。また、点群情報は、画素ごとに反射強度(即ち、各計測点の受光強度)の情報を含んでいる。
 点群情報処理ブロック73は、点群情報生成ブロック72から供給される点群情報からノイズを除去する。具体的には、点群情報処理ブロック73は、供給される点群情報の1フレーム毎に反射強度値の閾値(以下、「ノイズ閾値」とも呼ぶ。)を決定し、反射強度値がノイズ閾値以下である点群情報をノイズとして除去する。
 上記の構成において、受信部2は取得手段の一例であり、制御部7は閾値設定手段及びノイズ除去手段の一例である。
 なお、メモリ8に記憶された点群情報は、例えば、車両の自動運転などの運転支援を制御する装置(「運転支援装置」とも呼ぶ。)に出力されてもよい。この場合、運転支援装置は、例えば、車両のECU(Electronic Control Unit)であってもよく、車両と電気的に接続したカーナビゲーション機器などの車載装置であってもよい。
 [ノイズ除去方法]
 (計測点中のノイズ)
 図2(A)は、道路脇に固定設置されたカメラにより撮影された画像の例を示す。画像40は、片側1車線の道路をトラック45が走行している状態を示している。トラック45は、境界線41と中央線42とで規定される車線を、図面の手前方向から奥方向へ走行している。即ち、図2(A)には、トラック45の後面が映っている。道路の両側にはフェンス43、44が設けられている。
 図2(B)は、図2(A)の画像40と同じ範囲をライダ100で計測することにより得られた点群情報を、視点が地面と水平になるように座標変換した例を示す。具体的には、ライダ100で計測することにより得られた点群情報の座標を縦方向(ピッチ方向)に回転させ、透視投影ではなく平行投影で描画している。図2(B)では、X軸はライダ100による測距範囲の水平方向を示し、Z軸はライダ100による測距範囲の高さ方向を示す。破線46は、高さ方向が「0」のレベル、即ち、地面のレベルを示す。図2(B)に示すように、点群情報は、複数の計測点に対応する計測データにより構成される。ここで、図示の便宜上、各計測点のサイズはその計測点において計測された反射強度値に対応し、計測点のサイズが大きいほど、反射強度値が大きいものとする。
 図2(A)及び図2(B)から理解されるように、ライダ100で計測された計測データは、フェンス43に対応する点群P43と、フェンス44に対応する点群P44と、トラック45に対応する点群P45と、を含む。これらの点群は、反射強度値が大きいため、図2(B)では大きなサイズの計測点で示されている。これらの点群に加えて、計測データには小さいサイズの計測点が含まれている。小さいサイズの計測点は、反射強度値が小さく、前述のノイズに対応する。図2(B)に示すように、ノイズに対応する計測点(以下、「ノイズ点」とも呼ぶ。)は、計測データの全体にランダムに広がっている。
 図2(C)は、図2(A)の画像40と同じ範囲をライダ100で計測することにより得られた計測データの例を示す。図2(C)では、Y軸はライダ100から計測点までの距離を示し、Z軸はライダ100による測距範囲の高さ方向を示す。破線46は、高さ方向が「0」のレベル、即ち、地面のレベルを示す。図2(B)と同様に、図2(C)においても、得られた複数の計測点は、フェンス43、44及びトラック45に対応するサイズの大きい計測点と、サイズの小さいノイズ点とを含む。ノイズ点は、ライダ100の走査範囲内に広がっている。
 図2(D)は、図2(B)に示す複数の計測点から、適切な閾値を用いてノイズ点を除去した結果を示す。具体的には、ノイズ点を除去するためのノイズ閾値を用いて、図2(B)に示す全計測点から、反射強度値が閾値以下の計測点をノイズ点として除去した後の計測点を示す。図示のように、フェンス43に対応する点群P43、フェンス44に対応する点群P44、及び、トラック45に対応する点群P45が抽出されている。このように、適切なノイズ閾値を決定することにより、ノイズ点を正しく除去することができる。
 次に、ノイズ閾値の決定方法について説明する。物体の反射強度値は、天候(晴天/雨天)、時間(昼間/夜間)などの外部環境により変化する。また、物体の反射強度値と同様に、上述したノイズ点の反射強度値も外部環境により変化する。よって、例えば晴天時の閾値を雨天時に用いてノイズ点を除去すると、ノイズ点のみならず、物体の計測点も誤ってノイズ点として除去されてしまうという問題が生じる。そこで、以下のいずれかの方法により適切な閾値を決定し、ノイズを除去する。
 (第1の方法)
 第1の方法では、制御部7は、通常、検出対象物が存在しない領域に属する計測点の反射強度値を用いて適切なノイズ閾値を決定する。ここで、検出対象物が存在しない領域としては、空の領域、及び、地下の領域が挙げられる。
 図3(A)は、検出対象物が存在しない領域として、空の領域を使用する例を示す。図3(A)に示すように、制御部7は、ライダ100による計測範囲のうち、上方の空の領域(以下、「上空領域」と呼ぶ。)81を検出対象物が存在しない領域として使用し、ノイズ閾値を求める。具体的には、ライダ100を道路脇などに固定設置した際に、その計測範囲における上空領域81を予め決定しておく。そして、制御部7は、図3(B)に示すように、実際にライダ100で計測した計測点のうち、上空領域81に属する計測点の反射強度値の平均値を用いてノイズ閾値を求める。具体的には、制御部7は、上空領域81に属する複数の計測点の反射強度値の平均値を求め、これに所定のオフセット値を加算した値をノイズ閾値とする。
 図3(C)は、検出対象物が存在しない領域として、地面より下の領域を使用する例を示す。図3(C)に示すように、地面より下の領域82は、Z座標が地面のレベルより下方の領域(以下、「地下領域」と呼ぶ。)である。制御部7は、ライダ100により得られた計測点のうち、地下領域82に属する計測点、即ち、Z座標が0以下である計測点の反射強度値の平均値を用いてノイズ閾値を求める。具体的には、制御部7は、地下領域82に属する複数の計測点の反射強度値の平均値を求め、これに所定のオフセット値を加算した値をノイズ閾値とする。
 このように、第1の方法では、制御部7は、検出対象物が存在しない領域に属する計測点の反射強度値の平均値に所定のオフセット値を加えた値をノイズ閾値と決定する。これにより、天候や時間帯などの外部環境の変化に起因してノイズの反射強度が変化した場合でも、それに応じてノイズ閾値を変化させることができるので、適切にノイズを除去することが可能となる。
 なお、制御部7は、検出対象物が存在しない領域として、上空領域と地下領域のいずれか一方を使用してノイズ閾値を決定してもよいし、両方を使用してノイズ閾値を決定してもよい。
 図4は、第1の方法に係るノイズ除去処理のフローチャートである。この処理は、図1に示す制御部7が予め用意されたプログラムを実行することにより実現される。なお、この処理は、ライダ100により1フレーム分の点群情報(計測データ)が得られる毎に実行される。
 まず、制御部7は、受信部2から入力された検出信号Sg2に基づいて、全計測データのうち、上空領域及び/又は地下領域に属する計測点を抽出する(ステップS11)。次に、制御部7は、抽出した計測点の反射強度値の平均値を算出し(ステップS12)、平均値に所定のオフセット値を加算してノイズ閾値とする(ステップS13)。そして、制御部7は、検出信号Sg2に基づいて得られた全計測点のうち、反射強度値がノイズ閾値以下の計測点をノイズとして除去する(ステップS14)。制御部7は、この処理を計測データの1フレーム毎に実行する。なお、ステップS13で得られたノイズ閾値を複数フレーム保存し、その平均値を算出して、ノイズ除去しても良い。
 (第2の方法)
 第2の方法では、制御部7は、ライダ100の検出限界距離から一定範囲に属する計測点の反射強度値を用いてノイズ閾値を決定する。ライダ100には、物体を検出可能な限界距離があり、限界距離より遠い位置にある物体を検出することはできない。また、検出限界距離付近では、ライダから出射されたビーム径が大きくなるため、仮に物体があったとしても、ビーム径に対して物体の大きさが小さい場合に反射光が小さくなり、物体はノイズに近い状態で検出される。そこで、第2の方法では、制御部7はライダ100の検出限界距離から一定範囲において検出された計測点の反射強度値を用いてノイズ閾値を決定する。なお、「検出限界距離から一定範囲」とは、検出限界距離のより所定距離短い距離から検出限界距離までを意味する。例えば、検出限界距離が120mである場合、検出限界距離から一定範囲は100~120mの範囲などに設定される。
 図5は、第2の方法に係るノイズ除去処理のフローチャートである。この処理は、図1に示す制御部7が予め用意されたプログラムを実行することにより実現される。なお、この処理は、ライダ100により1フレーム分の計測データが得られる毎に実行される。
 まず、制御部7は、受信部2から入力された検出信号Sg2に基づいて、全計測データのうち、ライダ100の検出限界距離から一定範囲内の計測点を抽出する(ステップS21)。次に、制御部7は、抽出した計測点の反射強度値の平均値を算出し(ステップS22)、平均値に所定のオフセット値を加算してノイズ閾値とする(ステップS23)。そして、制御部7は、検出信号Sg2に基づいて得られた全計測点のうち、反射強度値がノイズ閾値以下の計測点をノイズとして除去する(ステップS24)。制御部7は、この処理を計測データの1フレーム毎に実行する。なお、ステップS23で得られたノイズ閾値を複数フレーム保存し、その平均値を算出して、ノイズ除去しても良い。
 次に、第2の方法の変形例について説明する。図5に示すノイズ除去処理のステップS21において、ライダの検出限界距離から一定範囲内の計測点を抽出する際、制御部7は、反射強度値が高い計測点、具体的には反射強度値が所定値以上である計測点を除外してもよい。前述のように、ライダの検出限界距離付近では、物体はノイズに近い状態で検出される場合が多いが、例えば車両の後部に設けられたリフレクタなどの反射率の高い物体は、ライダの検出限界距離付近であっても十分な反射強度値で計測できることがある。よって、ライダの検出限界距離から一定範囲内で抽出された計測点にリフレクタなどによる反射強度値の大きい計測点が含まれていると、反射強度値を平均化して得たノイズ閾値が単なるノイズ点の平均値より高くなってしまう。そこで、制御部7は、ライダの検出限界距離から一定範囲内の計測点から上記のリフレクタなどによる反射強度値の高い計測点を除外した上で、ステップS22~S23に示すように各計測点の反射強度値の平均値を計算してノイズ閾値を決定すればよい。
 なお、第1の方法ではライダ100を道路脇などに固定設置し、上空領域や地下領域の計測点を用いてノイズ閾値を決定しているが、第2の方法ではライダ100を固定設置することは必要でないため、ライダ100を車両などの移動体に搭載した場合にも適用可能である。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。すなわち、本願発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。
 1 送信部
 2 受信部
 3 ビームスプリッタ
 5 スキャナ
 6 ピエゾセンサ
 7 制御部
 8 メモリ
 100 ライダ

Claims (8)

  1.  出射光に対応する反射光を受光し、計測データを取得する取得手段と、
     前記計測データのうち、検出対象物が存在しない領域に相当する計測データを取得し、当該計測データの反射強度値の平均値に基づいて閾値を設定する閾値設定手段と、
     前記閾値を用いて、前記計測データに含まれるノイズを除去するノイズ除去手段と、
     を備える情報処理装置。
  2.  前記検出対象物が存在しない領域は、空の領域を含む請求項1に記載の情報処理装置。
  3.  前記検出対象物が存在しない領域は、地面より下の領域を含む請求項1又は2に記載の情報処理装置。
  4.  前記閾値設定手段は、前記平均値に所定のオフセット値を加算した値を前記閾値と決定する請求項1乃至3のいずれか一項に記載の情報処理装置。
  5.  前記ノイズ除去手段は、反射強度が前記閾値以下の計測データを前記ノイズとして除去する請求項1乃至4のいずれか一項に記載の情報処理装置。
  6.  情報処理装置により実行される情報処理方法であって、
     出射光に対応する反射光を受光し、計測データを取得する取得工程と、
     前記計測データのうち、検出対象物が存在しない領域に相当する計測データを取得し、当該計測データの反射強度値の平均値に基づいて閾値を設定する閾値設定工程と、
     前記閾値を用いて、前記計測データに含まれるノイズを除去するノイズ除去工程と、
     を備える情報処理方法。
  7.  出射光に対応する反射光を受光して得た計測データを取得する取得手段と、
     前記計測データのうち、検出対象物が存在しない領域に相当する計測データを取得し、当該計測データの反射強度値の平均値に基づいて閾値を設定する閾値設定手段と、
     前記閾値を用いて、前記計測データに含まれるノイズを除去するノイズ除去手段、
     としてコンピュータを機能させるプログラム。
  8.  請求項7に記載のプログラムを格納した記憶媒体。
PCT/JP2022/008135 2021-03-02 2022-02-28 情報処理装置、情報処理方法、プログラム及び記憶媒体 WO2022186099A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-032571 2021-03-02
JP2021032571 2021-03-02

Publications (1)

Publication Number Publication Date
WO2022186099A1 true WO2022186099A1 (ja) 2022-09-09

Family

ID=83154440

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/008135 WO2022186099A1 (ja) 2021-03-02 2022-02-28 情報処理装置、情報処理方法、プログラム及び記憶媒体

Country Status (1)

Country Link
WO (1) WO2022186099A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018138725A1 (en) * 2017-01-24 2018-08-02 Arbe Robotics Ltd Method for separating targets and clutter from noise, in radar signals
JP2020153706A (ja) * 2019-03-18 2020-09-24 株式会社東芝 電子装置および方法
US20200341144A1 (en) * 2019-04-26 2020-10-29 Ouster, Inc. Independent per-pixel integration registers for lidar measurements
US20210048515A1 (en) * 2019-04-22 2021-02-18 Hesai Photonics Technology Co., Ltd. Method for identification of a noise point used for lidar, and lidar system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018138725A1 (en) * 2017-01-24 2018-08-02 Arbe Robotics Ltd Method for separating targets and clutter from noise, in radar signals
JP2020153706A (ja) * 2019-03-18 2020-09-24 株式会社東芝 電子装置および方法
US20210048515A1 (en) * 2019-04-22 2021-02-18 Hesai Photonics Technology Co., Ltd. Method for identification of a noise point used for lidar, and lidar system
US20200341144A1 (en) * 2019-04-26 2020-10-29 Ouster, Inc. Independent per-pixel integration registers for lidar measurements

Similar Documents

Publication Publication Date Title
US11662433B2 (en) Distance measuring apparatus, recognizing apparatus, and distance measuring method
EP3111165B1 (en) Distance measuring device and parallax calculation system
JP4428208B2 (ja) 車両用物体認識装置
JP5267592B2 (ja) 物体認識装置
US20210109205A1 (en) Dynamic calibration of lidar sensors
WO2019082700A1 (ja) 制御装置、制御方法、プログラム及び記憶媒体
JP2008026997A (ja) 歩行者認識装置及び歩行者認識方法
KR101877128B1 (ko) 동적 제어를 이용한 적응형 발광 신호의 광량 제어장치
CN111566507B (zh) 扫描激光雷达中的地形自适应脉冲功率
JP4274028B2 (ja) 車両用レーダ装置
US11961306B2 (en) Object detection device
JP2023101818A (ja) 制御装置、検知装置、制御方法、プログラム及び記憶媒体
US20230065210A1 (en) Optical distance measuring device
US20210109217A1 (en) Dynamic laser power control in light detection and ranging (lidar) systems
JP2021043838A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
WO2022186099A1 (ja) 情報処理装置、情報処理方法、プログラム及び記憶媒体
WO2022186103A1 (ja) 情報処理装置、情報処理方法、プログラム及び記憶媒体
JP3822417B2 (ja) 車両周辺監視装置
WO2022190364A1 (ja) 情報処理装置、情報処理方法、プログラム及び記憶媒体
JP2021032794A (ja) 計測装置、制御方法、プログラム及び記憶媒体
JP6723307B2 (ja) レーザ距離測定装置
JP2021103101A (ja) 物体検出装置
WO2023152870A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP2022139739A (ja) 情報処理装置、情報処理方法、プログラム及び記憶媒体
WO2023152871A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22763155

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22763155

Country of ref document: EP

Kind code of ref document: A1