WO2022191175A1 - センサ装置、制御装置、制御方法、プログラム及び記憶媒体 - Google Patents

センサ装置、制御装置、制御方法、プログラム及び記憶媒体 Download PDF

Info

Publication number
WO2022191175A1
WO2022191175A1 PCT/JP2022/009949 JP2022009949W WO2022191175A1 WO 2022191175 A1 WO2022191175 A1 WO 2022191175A1 JP 2022009949 W JP2022009949 W JP 2022009949W WO 2022191175 A1 WO2022191175 A1 WO 2022191175A1
Authority
WO
WIPO (PCT)
Prior art keywords
spots
sensor device
scanning unit
density distribution
scanning
Prior art date
Application number
PCT/JP2022/009949
Other languages
English (en)
French (fr)
Inventor
宏 永田
亮 出田
Original Assignee
パイオニア株式会社
パイオニアスマートセンシングイノベーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社, パイオニアスマートセンシングイノベーションズ株式会社 filed Critical パイオニア株式会社
Priority to JP2023505571A priority Critical patent/JPWO2022191175A1/ja
Priority to US18/281,269 priority patent/US20240175991A1/en
Priority to EP22767129.4A priority patent/EP4306993A1/en
Publication of WO2022191175A1 publication Critical patent/WO2022191175A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection

Definitions

  • the present invention relates to sensor devices, control devices, control methods, programs and storage media.
  • the sensor device includes a scanning unit such as a MEMS (Micro Electro Mechanical Systems) mirror.
  • the scanning unit reflects a plurality of beams repeatedly emitted from a light source such as a pulse laser to irradiate a plurality of spots within a field of view (FOV).
  • the sensor device detects reflected beams from a plurality of spots with a photodetector element such as an APD (avalanche photodiode).
  • APD active photodiode
  • the sensor device generates a point cloud using the detection results of the photodetector, and detects, recognizes, or identifies an object irradiated with multiple spots.
  • Patent Document 1 describes an example of a sensor device.
  • the sensor device comprises a first LiDAR and a second LiDAR.
  • the first LiDAR emits multiple beams spatially uniformly within the FOV.
  • the second LiDAR irradiates multiple beams spatially non-uniformly within the FOV.
  • the object By controlling the density distribution of the multiple spots that irradiate the object and increasing the density of the multiple spots, the object can be detected, recognized, or identified with relatively high resolution. However, if the density of multiple spots is simply increased, the FOV becomes smaller, resulting in an unnecessarily narrow object detection range or an unnecessarily high density of multiple spots.
  • the density distribution of spots may not be an appropriate distribution.
  • One example of the problem to be solved by the present invention is controlling the density distribution of a plurality of spots to an appropriate distribution.
  • the invention according to claim 1, a scanning unit; a controller for controlling the density distribution of the plurality of spots irradiated by the scanning unit until the plurality of spots irradiated by the scanning unit satisfies a first predetermined condition;
  • a sensor device comprising:
  • the control device comprises a control unit for controlling the density distribution of the plurality of spots irradiated by the scanning unit until the plurality of spots irradiated by the scanning unit satisfies a first predetermined condition.
  • the invention according to claim 16, The control method, wherein the computer controls the density distribution of the plurality of spots irradiated by the scanning unit until the plurality of spots irradiated by the scanning unit satisfies a first predetermined condition.
  • the invention according to claim 17, The computer is provided with a function of controlling the density distribution of the plurality of spots irradiated by the scanning section until the plurality of spots irradiated by scanning by the scanning section satisfies a first predetermined condition.
  • the invention according to claim 18, A storage medium storing the program.
  • FIG. 4 is a flowchart showing an example of control by a control unit according to the embodiment; It is a figure which illustrates the hardware constitutions of a control part. It is a figure which shows the sensor apparatus which concerns on a modification.
  • 4 is a flow chart showing a first example of control by the control unit according to the embodiment; 6 is a diagram for explaining an example of the control shown in FIG. 5; FIG. 6 is a diagram for explaining an example of the control shown in FIG. 5;
  • FIG. 9 is a flow chart showing a second example of control by the control unit according to the embodiment;
  • FIG. 11 is a flowchart showing a third example of control by the control unit according to the embodiment;
  • FIG. 5 is a graph for explaining an example of a first drive signal and a second drive signal for scanning a beam emitted from a light source in a second direction;
  • FIG. 11 is a diagram showing an example of a plurality of spots when the scanning unit is driven by the first drive signal shown in FIG. 10;
  • FIG. 11 is a diagram showing an example of a plurality of spots when the scanning unit is driven by the second drive signal shown in FIG. 10;
  • FIG. 1 is a diagram showing a sensor device 10 according to an embodiment.
  • the arrows indicating the first direction X, the second direction Y, or the third direction Z indicate that the direction from the base end to the tip end of the arrow is the positive direction of the direction indicated by the arrow, and It indicates that the direction from the distal end to the proximal end is the negative direction of the direction indicated by the arrow.
  • the first direction X is one direction parallel to the horizontal direction perpendicular to the vertical direction.
  • the second direction Y is a direction parallel to the vertical direction.
  • the positive direction of the second direction Y is the direction from bottom to top in the vertical direction
  • the negative direction of the second direction Y is the direction from top to bottom in the vertical direction.
  • a third direction Z is a direction parallel to the horizontal direction and perpendicular to the first direction X. As shown in FIG.
  • the positive direction of the third direction Z is from left to right in the horizontal direction
  • the negative direction of the third direction Z is from right to left in the horizontal direction. It is the direction to go.
  • the relationship between the first direction X, the second direction Y, the third direction Z, the horizontal direction, and the vertical direction is not limited to the example described above.
  • the relationship between the first direction X, the second direction Y, the third direction Z, the horizontal direction, and the vertical direction varies depending on the arrangement of the sensor device 10 .
  • the third direction Z may be parallel to the vertical direction.
  • the sensor device 10 includes a scanning section 100 , a light source 110 and a control section 200 .
  • the scanning unit 100 is a MEMS mirror that can rotate or swing about two predetermined rotation axes that are perpendicular to each other. Specifically, the scanning unit 100 rotates or oscillates one of the two rotation axes so that the beam incident on the scanning unit 100 from the light source 110 is shifted to the first plane on a virtual plane perpendicular to the third direction Z. Scanning in direction X. The scanning unit 100 rotates or oscillates the other of the two rotation axes to scan the beam incident on the scanning unit 100 from the light source 110 in the second direction Y on a virtual plane perpendicular to the third direction Z. ing.
  • the scanning unit 100 may be a scanning unit different from the MEMS mirror, such as a polygon mirror or a galvanomirror.
  • the light source 110 is, for example, a pulse laser.
  • the scanning unit 100 scans along a scanning line L with a plurality of beams repeatedly emitted from the light source 110 .
  • a scanning line L shown in FIG. 1 indicates a scanning line projected onto a virtual plane orthogonal to the third direction Z.
  • a dashed line extending from the light source 110 to the scanning line L through the scanning unit 100 in FIG.
  • the scanning unit 100 irradiates a plurality of beams repeatedly emitted from the light source 110 along the scanning line L, thereby irradiating a plurality of spots along the scanning line L.
  • FIG. A field of view (FOV) of the sensor device 10 comprises at least a portion of the area scanned by the scanning unit 100 .
  • FOV field of view
  • the sensor device 10 detects reflected beams from a plurality of spots with a light detection element such as an APD (not shown).
  • the sensor device 10 generates a point cloud using the detection results of the light detection elements, and detects, recognizes, or identifies an object irradiated with a plurality of spots.
  • a target object an object detected, recognized, or identified by the sensor device 10 will be referred to as a target object, as required.
  • the sensor device 10 is a coaxial LiDAR.
  • the optical axis of the beam emitted from the scanning unit 100 toward the plurality of spots and the optical axis of the reflected beam returning from the plurality of spots toward the sensor device 10 are located on the same axis.
  • sensor device 10 may be a biaxial LiDAR. In this case, the optical axis of the beam emitted from the scanning unit 100 toward the plurality of spots and the optical axis of the reflected beam returning from the plurality of spots toward the sensor device 10 are not on the same axis.
  • FIG. 2 is a flowchart showing an example of control by the control unit 200 according to the embodiment.
  • the control unit 200 determines whether or not the plurality of spots irradiated by the scanning unit 100 satisfy a predetermined condition (determination step S20).
  • the control unit 200 controls the density distribution of the plurality of spots irradiated by the scanning unit 100 until the plurality of spots irradiated by the scanning unit 100 satisfy a predetermined condition (No in judgment step S20, control step S40 ).
  • the control unit 200 stops controlling the density distribution of the plurality of spots.
  • the sensor device 10 detects, recognizes or identifies the target object using multiple spots of the density distribution in the state after the decision step S20 and the control step S40.
  • the target object can be detected, recognized or identified with higher resolution than when the determination step S20 and the control step S40 are not performed.
  • the distance from the scanning unit 100 to the target object is relatively long.
  • the spatial spacing of the multiple beams repeatedly emitted from the light source 110 and reflected by the scanning unit 100 toward the target object increases as it travels from the scanning unit 100 toward the target object. Therefore, when the distance from the scanning unit 100 to the target object is relatively long and the determination step S20 and the control step S40 are not performed, the density of the plurality of spots irradiated onto the target object is relatively low. The number of multiple spots illuminated on the object may not be large enough.
  • the target object when the determination step S20 and the control step S40 are performed, the target object can be irradiated more effectively than when the determination step S20 and the control step S40 are not performed.
  • the number of multiple spots that are displayed can be increased.
  • the case where the distance from the scanning unit 100 to the target object is relatively long has been described.
  • the resolution of the target object is higher than when determination step S20 and control step S40 are not performed. can be detected, recognized or identified by
  • the predetermined condition in judgment step S20 is that even if the density of the plurality of spots irradiated onto the target object increases, the size of the FOV, that is, the detection range does not become unnecessarily small, or the density of the plurality of spots does not become unnecessarily large.
  • the density distribution of a plurality of spots can be appropriately distributed such that the density does not become too high. Therefore, when the determination step S20 and the control step S40 are performed, the size of the FOV does not become unnecessarily small, and the density of the plurality of spots does not become unnecessarily large compared to the case where the determination step S20 and the control step S40 are not performed. It is possible to control the density distribution of a plurality of spots to an appropriate distribution such that the density does not become high.
  • control unit 200 may control the density distribution of a plurality of spots by controlling the scanning speed of the scanning unit 100.
  • the scanning speed of the scanning unit 100 is determined by the angular velocity of the MEMS mirror.
  • the scanning speed of the scanning unit 100 is controlled. By doing so, the density distribution of a plurality of spots is controlled.
  • the density of the plurality of spots when the scanning speed of the scanning unit 100 is made slower than a predetermined speed is It is higher than the density of multiple spots at a given speed.
  • the density of the plurality of spots when the scanning speed of the scanning unit 100 is made faster than the predetermined speed is is lower than the density of multiple spots in .
  • the control method of the density distribution of the plurality of spots by the control unit 200 is not limited to the example described above.
  • control unit 200 may control the density distribution of a plurality of spots by controlling the size of the entire FOV. For example, the density of the plurality of spots when the overall size of the FOV is smaller than a predetermined size is higher than the density of the plurality of spots when the overall size of the FOV is the predetermined size. The density of the plurality of spots when the size of the entire FOV is larger than the predetermined size is lower than the density of the plurality of spots when the size of the entire FOV is the predetermined size.
  • the control unit 200 may make the density distribution of the spots in one part of the FOV different from the density distribution of the spots in another part of the FOV.
  • the rate of change in density of the plurality of spots by the control unit 200 may differ according to the direction of the plurality of spots. For example, if the target object is an object whose longitudinal direction is in the second direction Y rather than in the first direction X, such as a person, a very high resolution in the second direction Y may not be required. In this case, the controller 200 makes the density increase rate of the plurality of spots in the first direction X higher than the density increase rate of the plurality of spots in the second direction Y. FIG. In this control, the control unit 200 does not have to change the density distribution in the second direction Y of the multiple spots.
  • the controller 200 makes the density increase rate of the plurality of spots in the second direction Y higher than the density increase rate of the plurality of spots in the first direction X.
  • the control unit 200 does not have to change the density distribution in the first direction X of the multiple spots.
  • control unit 200 may assign an identifier to an object detected, recognized, or identified using a point group generated from a plurality of spots. Identified objects can be detected, recognized or identified by a tracking process without the need to illuminate multiple spots at relatively high densities. Therefore, after the identifiers are assigned, the control unit 200 may return the density distribution of the plurality of spots to the initial density distribution, that is, the density distribution before control shown in FIG. In this case, the control unit 200 may be able to control the density distribution of a plurality of spots irradiated on another object different from the object to which the identifier is assigned.
  • the control unit 200 may stop controlling the density distribution of the plurality of spots when the plurality of spots irradiated by the scanning unit 100 do not satisfy the predetermined condition (No in judgment step S20). After stopping the control of the density distribution of the plurality of spots, the controller 200 may return the density distribution of the plurality of spots to the initial density distribution, that is, the density distribution before control shown in FIG. For example, when the density of at least a portion of the plurality of spots reaches a predetermined upper limit under the control of the control section 200, the control section 200 stops controlling the density distribution of the plurality of spots. Alternatively, for example, when the time for the control section 200 to perform the determination step S20 and the control step S40 reaches a predetermined upper limit time, the control section 200 stops controlling the density distribution of the plurality of spots.
  • the control unit 200 may stop controlling the density distribution of the plurality of spots when the target object remains stationary for a predetermined time or longer. After stopping the control of the density distribution of the plurality of spots, the controller 200 may return the density distribution of the plurality of spots to the initial density distribution, that is, the density distribution before control shown in FIG. In this case, the control unit 200 can control the density distribution of a plurality of spots irradiated on another object that is different from the object that has been stationary for a predetermined time. For example, if the target object is a moving car, but the target object remains stationary for a predetermined time or longer, the control unit 200 determines that the object irradiated with the plurality of spots is a parked or stopped car. can be determined. Alternatively, if the target object is a person and remains stationary for a predetermined time or longer, the control unit 200 determines that the object irradiated with the plurality of spots is another object resembling a person. can do.
  • FIG. 3 is a diagram illustrating the hardware configuration of the control unit 200. As shown in FIG. The controller 200 is implemented using an integrated circuit 300 .
  • the integrated circuit 300 is, for example, a SoC (System-on-a-Chip).
  • Integrated circuit 300 has bus 302 , processor 304 , memory 306 , storage device 308 , input/output interface 310 and network interface 312 .
  • the bus 302 is a data transmission path through which the processor 304, memory 306, storage device 308, input/output interface 310 and network interface 312 exchange data with each other.
  • the method of connecting processor 304, memory 306, storage device 308, input/output interface 310 and network interface 312 together is not limited to bus connections.
  • the processor 304 is an arithmetic processing device implemented using a microprocessor or the like.
  • the memory 306 is a memory implemented using a RAM (Random Access Memory) or the like.
  • the storage device 308 is a storage device implemented using ROM (Read Only Memory), flash memory, or the like.
  • the input/output interface 310 is an interface for connecting the integrated circuit 300 with peripheral devices.
  • the scanning unit 100 is connected to the input/output interface 310 .
  • a network interface 312 is an interface for connecting the integrated circuit 300 to a network.
  • This network is, for example, a CAN (Controller Area Network) network.
  • a method for connecting the network interface 312 to the network may be a wireless connection or a wired connection.
  • the storage device 308 stores program modules for realizing the functions of the control unit 200 .
  • the processor 304 implements the functions of the control unit 200 by reading these program modules into the memory 306 and executing them.
  • the hardware configuration of the integrated circuit 300 is not limited to the configuration shown in FIG.
  • program modules may be stored in memory 306 .
  • integrated circuit 300 may not include storage device 308 .
  • FIG. 4 is a diagram showing a sensor device 10A according to a modification.
  • the sensor device 10A according to the modification is the same as the sensor device 10 according to the embodiment except for the following points.
  • the sensor device 10A further includes a sensor section 500A.
  • the sensor unit 500A is, for example, an imaging unit such as a camera, or a sensor such as LiDAR.
  • an imaging unit such as a camera
  • a sensor such as LiDAR.
  • the FOV of the sensor unit 500A and the FOV obtained by the scanning unit 100 are projected onto a virtual plane perpendicular to the third direction Z, at least part of the FOV of the sensor unit 500A is at least the FOV obtained by the scanning unit 100. partially overlapped. Therefore, even if the FOV of the scanning unit 100 becomes narrower than the FOV in the initial state of the scanning unit 100 under the control of the control unit 200, an object existing outside the FOV of the scanning unit 100 is detected, recognized, or identified by the sensor unit 500A. be able to.
  • FIG. 5 is a flowchart showing a first example of control by the control unit 200 according to the embodiment.
  • the control unit 200 divides at least one region from the FOV obtained by the scanning unit 100 (dividing step S10A). Specifically, in the sectioning step S10A, the control unit 200 detects, recognizes, or identifies a target object such as a person, a car, or the like, such as a point group generated from a plurality of spots irradiated on a road, a floor, a wall, or the like. Point clouds that are relatively close to each other are separated from other point clouds while removing unnecessary point clouds.
  • a partitioned area an area that is partitioned out of the FOV obtained by the scanning unit 100 will be referred to as a partitioned area, as required.
  • the partitioned area is not limited to a rectangular or trapezoidal area partitioned by straight lines, and may be an area partitioned by a free-form curve.
  • the controller 200 selects a dangerous area from among the plurality of areas partitioned from the FOV in the later-described determination step S20A and control step S40A.
  • the density distribution of a plurality of spots in a selected region may be controlled according to predetermined conditions such as intensity.
  • the control unit 200 selects from among a plurality of areas partitioned from the FOV in order of priority from areas with high risk to areas with low risk. control the distribution.
  • the control unit 200 may control the density distribution of the plurality of spots in all of the plurality of regions selected from the FOV, or may control the density distribution of the plurality of spots selected from the FOV.
  • control unit 200 determines that the closer the area to the entrance of the room, the higher the risk, and the farther the area from the entrance to the room, the lower the risk. do. In this case, the control unit 200 selects at least one region from among the plurality of regions partitioned from the FOV in order of priority from the region near the entrance of the room to the region far from the entrance of the room. Control the density distribution of multiple spots.
  • the control unit 200 determines that the area closer to the automobile has a higher degree of danger, and the area farther from the automobile has a lower degree of danger. I judge. In this case, the control unit 200 selects a plurality of spots in at least one region selected from among a plurality of regions partitioned from the FOV in order of priority from a region close to the vehicle to a region far from the vehicle. Control the density distribution.
  • control unit 200 may perform control using the result of calculating the position of the center of gravity of the point group within the division area.
  • the control unit 200 determines whether or not the number of spots in the division area is equal to or greater than a predetermined value (determination step S20A).
  • the control unit 200 controls the density distribution of the plurality of spots until the number of the plurality of spots in the divided area reaches or exceeds a predetermined value (No in judgment step S20A, control step S40A).
  • the control unit 200 stops controlling the density distribution of the spots.
  • the predetermined value in the judgment step S20A is the number of points of a plurality of spots necessary for detecting, recognizing or identifying the target object. Therefore, when the decision step S20A and the control step S40A are performed, the target object can be detected, recognized or identified with a higher resolution than when the decision step S20A and the control step S40A are not performed.
  • the predetermined value in decision step S20A is such that even if the density of the plurality of spots irradiated onto the target object increases, the size of the FOV does not become unnecessarily small or the density of the plurality of spots does not become unnecessarily high. It is possible to set a value such that the density distribution of a plurality of spots becomes an appropriate distribution. Therefore, when the determination step S20A and the control step S40A are performed, the size of the FOV does not become unnecessarily small, and the density of the plurality of spots does not become unnecessarily large compared to the case where the determination step S20A and the control step S40A are not performed. It is possible to control the density distribution of a plurality of spots to an appropriate distribution such that the density does not become high.
  • the predetermined value in determination step S20A may be the total number of the plurality of spots within the divided area, or the number of predetermined directions such as the first direction X and the second direction Y of the plurality of spots within the divided area. may For example, if the target object is an object whose longitudinal direction is in the second direction Y rather than in the first direction X, such as a person, a very high resolution in the second direction Y may not be required. In this case, the predetermined value in the determination step S20A may be the number of spots in the first direction X within the divided area.
  • the predetermined value in the determination step S20A may be the number of spots in the second direction Y within the divided area.
  • FIGS. 6 and 7 are diagrams for explaining an example of the control shown in FIG.
  • the circle with X indicating the third direction Z is the positive direction of the third direction Z from the front to the back of the paper, and the third direction Z is the direction from the back to the front of the paper. is in the negative direction.
  • the scanning unit 100 irradiates a plurality of spots P onto the target object Q, which is a person.
  • the spots P are arranged in three columns in the first direction X and four rows in the second direction Y.
  • the spots P are arranged in five columns in the first direction X and four rows in the second direction Y.
  • the control unit 200 divides at least one spot P that has irradiated the target object Q from at least one spot P that has not irradiated the target object Q.
  • the control unit 200 divides at least one spot P that has irradiated the target object Q from at least one spot P that has not irradiated the target object Q.
  • the target object Q is irradiated with at least part of one spot P in the third row and the second row from the positive direction side in the second direction Y.
  • the control unit 200 identifies the partitioned area containing these spots P with which the target object Q is irradiated.
  • the control unit 200 determines whether or not the number of spots P within the divided area is equal to or greater than a predetermined value in the example shown in FIG. For example, if the predetermined value in determination step S20A is the total number of spots P within the divided area, the control unit 200 determines whether the total number 6 of spots P within the divided area in the example shown in FIG. 6 is equal to or greater than the predetermined value. to judge whether Alternatively, for example, if the predetermined value in determination step S20A is the number of spots P in the first direction X within the divided area, the control unit 200 controls the number of spots P in the first direction X within the divided area in the example shown in FIG. is equal to or greater than the predetermined value.
  • control unit 200 determines in determination step S20A that the number of spots P in the divided area in the example shown in FIG. is controlled to increase the number of spots P in the partitioned area. From the state shown in FIG. 6 to the state shown in FIG. 7, the control unit 200 maintains the number of spots P in the first direction X within the divided area without changing the number of spots P in the second direction Y within the divided area. is increasing. In the example shown in FIG.
  • the target object Q is irradiated with at least part of one spot P on the fifth row from the positive side in the first direction X and the second row from the positive side in the second direction Y.
  • the control unit 200 determines whether or not the number of spots P in the divided area is equal to or greater than a predetermined value, in the same manner as in determination step S20A described using FIG. In the example shown in FIG. 7, when the control unit 200 determines that the number of spots P within the divided area is equal to or greater than a predetermined value, the control unit 200 controls the density distribution of the plurality of spots P within the divided area. Stop.
  • the sensor device 10 detects, recognizes, or identifies the target object Q using a plurality of spots P with the density distribution shown in FIG.
  • FIG. 8 is a flowchart showing a second example of control by the control unit 200 according to the embodiment.
  • control unit 200 performs the division step S10B in the same manner as the division step S10A of the flowchart shown in FIG.
  • control unit 200 determines whether or not the detection, recognition, or identification of the object is successful using the point group generated from the plurality of spots within the divided area (determination step S20B).
  • the control unit 200 controls the density distribution of the plurality of spots until the object is successfully detected, recognized, or identified using the point group generated from the plurality of spots within the divided area (judgment step S20B No, control step S40B).
  • the control unit 200 controls the density distribution of the plurality of spots. Stop.
  • the control unit 200 sets the density distribution of the plurality of spots may stop controlling the After stopping the control of the density distribution of the plurality of spots, the controller 200 may return the density distribution of the plurality of spots to the initial density distribution, that is, the density distribution before control shown in FIG. For example, when the density of at least a portion of the plurality of spots reaches a predetermined upper limit under the control of the control section 200, the control section 200 stops controlling the density distribution of the plurality of spots. Alternatively, for example, when the time for the control section 200 to perform the determination step S20B and the control step S40B reaches a predetermined upper limit time, the control section 200 stops controlling the density distribution of the plurality of spots.
  • the density of the plurality of spots irradiated on the target object is increased until the detection, recognition or identification of the object within the partitioned area is successful.
  • the success or failure of detection, recognition, or identification of the target object is determined, for example, by performing recognition processing such as machine learning on a point group generated using reflected beams from multiple spots irradiated on the target object.
  • the control unit 200 controls the angular pitch of the plurality of beams emitted from the scanning unit 100 to the plurality of spots within the partitioned region to a pitch for successfully detecting, recognizing, or identifying the object within the partitioned region. be able to.
  • the density distribution of the plurality of spots deviates from an appropriate distribution, such as the size of the FOV becoming smaller than necessary or the density of the plurality of spots becoming higher than necessary. Multiple spot densities can be stopped before. Therefore, when judgment step S20B and control step S40B are performed, the size of the FOV does not become unnecessarily small, and the density of a plurality of spots does not become unnecessarily large compared to the case where judgment step S20B and control step S40B are not performed. It is possible to control the density distribution of a plurality of spots to an appropriate distribution such that the density does not become high.
  • FIG. 9 is a flowchart showing a third example of control by the control unit 200 according to the embodiment.
  • control unit 200 performs the division step S10C in the same manner as the division step S10A of the flowchart shown in FIG.
  • control section 200 determines whether or not the overlap rate of the plurality of spots within the divided area is equal to or greater than a predetermined value (determination step S20C).
  • the control unit 200 controls the density distribution of the plurality of spots until the overlap rate of the plurality of spots in the divided area reaches or exceeds a predetermined value (No in judgment step S20C, control step S40C).
  • a predetermined value for example, when increasing the density of the plurality of spots as shown in FIG. 7, at least a portion of adjacent spots within the plurality of spots may overlap.
  • the overlap ratio of the plurality of spots is the portion of the first spot that overlaps the second spot relative to the sum of the area of the first spot and the area of the second spot.
  • the control unit 200 stops controlling the density distribution of the plurality of spots.
  • the predetermined value in the judgment step S20C is an overlap ratio of multiple spots that does not cause any inconvenience in detecting, recognizing or identifying the target object. Therefore, when decision step S20C and control step S40C are performed, the target object can be detected, recognized or identified at a higher resolution than when decision step S20C and control step S40C are not performed.
  • the predetermined value in judgment step S20C is such that even if the density of the plurality of spots irradiated onto the target object increases, the size of the FOV does not become unnecessarily small or the density of the plurality of spots does not become unnecessarily high. It is possible to set a value such that the density distribution of a plurality of spots becomes an appropriate distribution. Even if the overlap rate of multiple spots is greater than a predetermined value, the resolution is not substantially improved. Furthermore, when the overlap ratio of multiple spots is greater than a predetermined value, the possibility of false detection, false recognition, or false identification of an object may increase.
  • FIG. 10 is a graph for explaining an example of the first drive signal S1 and the second drive signal S2 for scanning the beam emitted from the light source 110 in the second direction Y.
  • FIG. FIG. 11 is a diagram showing an example of a plurality of spots when the scanning section 100 is driven by the first drive signal S1 shown in FIG.
  • FIG. 12 is a diagram showing an example of a plurality of spots when the scanning section 100 is driven by the second driving signal S2 shown in FIG.
  • the horizontal axis of the graph indicates time.
  • the vertical axis of the graph indicates the strength of the drive signal.
  • the drive signal is positive in the upward direction of the vertical axis, and negative in the downward direction of the vertical axis.
  • the scanning time interval TFOV from the time slightly after the time when the first drive signal S1 takes the maximum value to the time slightly before the time when the first drive signal S1 takes the next minimum value after the maximum value indicates time intervals in which a plurality of beams are repeatedly emitted from the light source 110 toward the scanning unit 100, that is, measurement time intervals.
  • FIG. 11 and 12 show the FOV projected onto a virtual plane perpendicular to the third direction Z.
  • FIG. FIG. 11 shows a plurality of first scanning lines LA arranged in the second direction Y within the FOV. At least one spot is irradiated on each of the plurality of first scanning lines LA within the FOV.
  • the spots PA irradiated along the three first scanning lines LA in the central portion of the FOV are indicated by white circles.
  • FIG. 12 shows a plurality of second scanning lines LB arranged in the second direction Y within the FOV. At least one spot is irradiated on each of the plurality of second scanning lines LB within the FOV.
  • the spots PB irradiated along the three second scanning lines LB in the central portion of the FOV are indicated by white circles.
  • the first drive signal S1 has a triangular waveform.
  • the first drive signal S1 has a uniform slope in the scanning time interval TFOV.
  • the scanning unit 100 scans a plurality of beams repeatedly emitted from the light source 110 from the positive direction side of the second direction Y to the negative direction of the second direction Y from the beginning to the end of the scanning time interval TFOV. Scanning sideways. Since the slope in the scanning time interval TFOV of the first drive signal S1 is uniform, the plurality of first scanning lines LA are arranged in the second direction Y at regular intervals in the FOV shown in FIG.
  • the second drive signal S2 has a modified shape of a triangular wave. Specifically, the slope of the second drive signal S2 in the central section of the scanning time section TFOV is smaller than the slope of the first driving signal S1 in the scanning time section TFOV. Also, the slope of the second drive signal S2 in both sides of the central section of the scanning time section TFOV is greater than the slope of the first driving signal S1 in the scanning time section TFOV.
  • the scanning unit 100 scans a plurality of beams repeatedly emitted from the light source 110 shown in FIG. is scanned in the negative direction.
  • the interval in the two directions Y is narrower than the interval in the second direction Y between the plurality of first scanning lines LA of the FOV shown in FIG.
  • the slope of the second driving signal S2 in both sides of the central section of the scanning time section TFOV is greater than the slope of the first driving signal S1 in the scanning time section TFOV, both upper and lower sides of the FOV shown in FIG.
  • the intervals in the second direction Y between the plurality of second scanning lines LB are wider than the intervals in the second direction Y between the plurality of first scanning lines LA in the FOV shown in FIG.
  • control unit 200 controls the density distribution of a plurality of spots in the central portion of the FOV in the second direction Y, and the density distribution of the plurality of spots in both side portions of the central portion in the second direction Y of the FOV. are different from the density distribution.
  • Control of the density distribution of a plurality of spots by the controller 200 is not limited to the example shown in FIG. In any part of the FOV in the second direction Y, the interval in the second direction Y between the plurality of second scanning lines LB shown in FIG. Whether to narrow the interval is determined according to which time interval in the scanning time interval TFOV the slope of the second drive signal S2 is made smaller than the slope of the first drive signal S1.
  • the controller 200 controls the density distribution of a plurality of spots in a portion of the FOV. and the density distribution of the spots in another portion of the FOV can be different.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

制御部(200)は、走査部(100)によって照射される複数のスポットが所定条件を満たすか否かを判断する。制御部(200)は、走査部(100)によって照射される複数のスポットが所定条件を満たすまで、走査部(100)によって照射される複数のスポットの密度分布を制御している。

Description

センサ装置、制御装置、制御方法、プログラム及び記憶媒体
 本発明は、センサ装置、制御装置、制御方法、プログラム及び記憶媒体に関する。
 近年、LiDAR(Light Detection And Ranging)等の様々なセンサ装置が開発されている。センサ装置は、MEMS(Micro Electro Mechanical Systems)ミラー等の走査部を備えている。走査部は、パルスレーザ等の光源から繰り返して出射された複数のビームを反射して、視野(FOV)内に複数のスポットを照射する。センサ装置は、複数のスポットからの反射ビームをAPD(アバランシェフォトダイオード)等の光検知素子によって検知する。センサ装置は、光検知素子の検知結果を用いて点群を生成し、複数のスポットが照射された物体を検知、認識又は識別する。
 特許文献1には、センサ装置の一例について記載されている。センサ装置は、第1LiDARと、第2LiDARと、を備えている。第1LiDARは、FOV内の空間的に均一に複数のビームを照射している。第2LiDARは、FOV内の空間的に非均一に複数のビームを照射している。
特表2019-526056号公報
 物体に照射する複数のスポットの密度分布を制御して複数のスポットの密度を増加させることで、当該物体を比較的高解像度で検知、認識又は識別することがある。しかしながら、複数のスポットの密度を単に増加させるだけでは、FOVが小さくなることで、物体の検出範囲が必要以上に狭くなったり、複数のスポットの密度が必要以上に高くなったりする等、複数のスポットの密度分布が適切な分布にならないことがある。
 本発明が解決しようとする課題としては、複数のスポットの密度分布を適切な分布に制御することが一例として挙げられる。
 請求項1に記載の発明は、
 走査部と、
 前記走査部によって照射される複数のスポットが第1の所定条件を満たすまで、前記走査部によって照射される前記複数のスポットの密度分布を制御する制御部と、
を備えるセンサ装置である。
 請求項15に記載の発明は、
 走査部によって照射される複数のスポットが第1の所定条件を満たすまで、前記走査部によって照射される前記複数のスポットの密度分布を制御する制御部を備える制御装置である。
 請求項16に記載の発明は、
 コンピュータが、走査部によって照射される複数のスポットが第1の所定条件を満たすまで、前記走査部によって照射される前記複数のスポットの密度分布を制御する、制御方法である。
 請求項17に記載の発明は、
 コンピュータに、走査部の走査によって照射される複数のスポットが第1の所定条件を満たすまで、前記走査部によって照射される前記複数のスポットの密度分布を制御する機能を持たせるプログラムである。
 請求項18に記載の発明は、
 上記プログラムを記憶した記憶媒体である。
実施形態に係るセンサ装置を示す図である。 実施形態に係る制御部の制御の一例を示すフローチャートである。 制御部のハードウエア構成を例示する図である。 変形例に係るセンサ装置を示す図である。 実施例に係る制御部の制御の第1例を示すフローチャートである。 図5に示した制御の一例を説明するための図である。 図5に示した制御の一例を説明するための図である。 実施例に係る制御部の制御の第2例を示すフローチャートである。 実施例に係る制御部の制御の第3例を示すフローチャートである。 光源から出射されるビームを第2方向に走査するための第1駆動信号及び第2駆動信号の一例を説明するためのグラフである。 図10に示した第1駆動信号によって走査部を駆動した場合の複数のスポットの一例を示す図である。 図10に示した第2駆動信号によって走査部を駆動した場合の複数のスポットの一例を示す図である。
 以下、本発明の実施形態、変形例及び実施例について、図面を用いて説明する。すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
 本明細書において、「第1」、「第2」、「第3」等の序数詞は、特に断りのない限り、同様の名称が付された構成を単に区別するために付されたものであり、構成の特定の特徴(例えば、順番又は重要度)を意味するものではない。
 図1は、実施形態に係るセンサ装置10を示す図である。
 図1において、第1方向X、第2方向Y又は第3方向Zを示す矢印は、当該矢印の基端から先端に向かう方向が当該矢印によって示される方向の正方向であり、かつ当該矢印の先端から基端に向かう方向が当該矢印によって示される方向の負方向であることを示している。
 第1方向Xは、鉛直方向に直交する水平方向に平行な一方向である。第3方向Zの負方向から見て、第1方向Xの正方向は、水平方向の右から左に向かう方向となっており、第1方向Xの負方向は、水平方向の左から右に向かう方向となっている。第2方向Yは、鉛直方向に平行な方向である。第2方向Yの正方向は、鉛直方向の下から上に向かう方向となっており、第2方向Yの負方向は、鉛直方向の上から下に向かう方向となっている。第3方向Zは、水平方向に平行かつ第1方向Xに直交する一方向である。第1方向Xの負方向から見て、第3方向Zの正方向は、水平方向の左から右に向かう方向となっており、第3方向Zの負方向は、水平方向の右から左に向かう方向となっている。第1方向X、第2方向Y、第3方向Z、水平方向及び鉛直方向の関係は、上述した例に限定されない。第1方向X、第2方向Y、第3方向Z、水平方向及び鉛直方向の関係は、センサ装置10の配置に応じて異なる。例えば、第3方向Zが鉛直方向に平行になっていてもよい。
 センサ装置10は、走査部100、光源110及び制御部200を備えている。
 本実施形態において、走査部100は、直交する2つの所定の回転軸の周りに回転又は揺動可能なMEMSミラーである。具体的には、走査部100は、2つの回転軸のうちの一方を回転又は搖動させることで、光源110から走査部100に入射するビームを第3方向Zに垂直な仮想平面上で第1方向Xに走査している。走査部100は、2つの回転軸のうちの他方を回転又は搖動させることで、光源110から走査部100に入射するビームを第3方向Zに垂直な仮想平面上で第2方向Yに走査している。走査部100は、MEMSミラーと異なる走査部、例えばポリゴンミラーやガルバノミラーであってもよい。
 光源110は、例えばパルスレーザである。走査部100は、光源110から時間的に繰り返して出射された複数のビームを走査線Lに沿って走査する。図1に示す走査線Lは、第3方向Zに直交する仮想平面に投影された走査線を示している。図1において光源110から走査部100を経由して走査線Lにかけて延びる破線は、あるタイミングで光源110から出射されて走査部100によって仮想平面に向けて反射されたビームの方向を示している。光源110から時間的に繰り返して出射された複数のビームが走査部100によって走査線Lに沿って照射されることで、走査線Lに沿って複数のスポットが照射される。センサ装置10の視野(FOV)は、走査部100によって走査される領域の少なくとも一部分を有している。
 センサ装置10は、複数のスポットからの反射ビームを不図示のAPD等の光検知素子によって検知している。センサ装置10は、光検知素子の検知結果を用いて点群を生成し、複数のスポットが照射された物体を検知、認識又は識別する。以下、必要に応じて、センサ装置10によって検知、認識又は識別される物体を標的物体という。
 一例において、センサ装置10は、コアキシャルLiDARである。この場合、走査部100から複数のスポットに向けて照射するビームの光軸と、複数のスポットからセンサ装置10に向けて戻る反射ビームの光軸と、が同一軸上に位置している。或いは、センサ装置10は、バイアキシャルLiDARであってもよい。この場合、走査部100から複数のスポットに向けて照射するビームの光軸と、複数のスポットからセンサ装置10に向けて戻る反射ビームの光軸と、は同一軸上にない。
 図2は、実施形態に係る制御部200の制御の一例を示すフローチャートである。
 制御部200は、走査部100によって照射される複数のスポットが所定条件を満たすか否かを判断する(判断ステップS20)。制御部200は、走査部100によって照射される複数のスポットが所定条件を満たすまで、走査部100によって照射される複数のスポットの密度分布を制御している(判断ステップS20のNo、制御ステップS40)。制御部200は、走査部100によって照射される複数のスポットが所定条件を満たす場合(判断ステップS20のYes)、複数のスポットの密度分布の制御を停止する。一例として、次いで、センサ装置10は、判断ステップS20及び制御ステップS40後の状態の密度分布の複数のスポットを用いて、標的物体を検知、認識又は識別する。
 判断ステップS20及び制御ステップS40を行う場合、判断ステップS20及び制御ステップS40を行わない場合と比較して、標的物体を高解像度で検知、認識又は識別することができる。例えば、走査部100から標的物体までの距離が比較的遠距離である場合を想定する。光源110から繰り返して出射されて走査部100によって標的物体に向けて反射される複数のビームの空間的間隔は、走査部100から標的物体に向かうにつれて広がる。したがって、走査部100から標的物体までの距離が比較的遠距離であって判断ステップS20及び制御ステップS40を行わない場合、標的物体に照射される複数のスポットの密度が比較的低くなって、標的物体に照射される複数のスポットの数が十分に多くならないことがある。これに対して、判断ステップS20及び制御ステップS40を行う場合、判断ステップS20及び制御ステップS40を行わない場合と比較して、判断ステップS20の所定条件を適切に設定することで、標的物体に照射される複数のスポットの数を増加させることができる。上記では走査部100から標的物体までの距離が比較的遠距離である場合について説明した。しかしながら、判断ステップS20及び制御ステップS40を行う場合、走査部100から標的物体までの距離の大きさにかかわらず、判断ステップS20及び制御ステップS40を行わない場合と比較して、標的物体を高解像度で検知、認識又は識別することができる。
 判断ステップS20における所定条件は、標的物体に照射される複数のスポットの密度が増加しても、FOVの大きさ、すなわち検出範囲が必要以上に小さくならなかったり、複数のスポットの密度が必要以上に高くならなかったりする等、複数のスポットの密度分布を適切な分布にすることができる。したがって、判断ステップS20及び制御ステップS40を行う場合、判断ステップS20及び制御ステップS40を行わない場合と比較して、FOVの大きさが必要以上に小さくならなかったり、複数のスポットの密度が必要以上に高くならなかったりする等、複数のスポットの密度分布を適切な分布に制御することができる。
 一例として、制御ステップS40において、制御部200は、走査部100の走査速度を制御することで、複数のスポットの密度分布を制御してもよい。例えば走査部100がMEMSミラーである場合、走査部100の走査速度は、MEMSミラーの角速度で決まる。例えば、光源110から繰り返して出射されるビームの繰り返し時間を短くすることで複数のスポットの密度分布を増加させることが、アイセーフ等の要因から認められない場合、走査部100の走査速度を制御することで、複数のスポットの密度分布を制御する。具体的には、光源110から繰り返して出射されるビームの繰り返し時間が一定の場合、走査部100の走査速度を所定速度より遅くしたときの複数のスポットの密度は、走査部100の走査速度を所定速度にしたときの複数のスポットの密度より高くなる。光源110から繰り返して出射されるビームの繰り返し時間が一定の場合、走査部100の走査速度を所定速度より速くしたときの複数のスポットの密度は、走査部100の走査速度を所定速度にしたときの複数のスポットの密度より低くなる。制御部200による複数のスポットの密度分布の制御方法は、上述した例に限定されない。
 一例として、制御ステップS40において、制御部200は、FOV全体の大きさを制御することで複数のスポットの密度分布を制御してもよい。例えば、FOV全体の大きさを所定の大きさより小さくしたときの複数のスポットの密度は、FOV全体の大きさが所定の大きさであるときの複数のスポットの密度より高くなる。FOV全体の大きさを所定の大きさより大きくしたときの複数のスポットの密度は、FOV全体の大きさが所定の大きさであるときの複数のスポットの密度より低くなる。或いは、制御ステップS40において、制御部200は、FOVの一部分の複数のスポットの密度分布と、FOVの他の一部分の複数のスポットの密度分布と、を異ならせてもよい。
 一例として、制御ステップS40において、制御部200による複数のスポットの密度の変化の割合は、複数のスポットの方向に応じて異なっていてもよい。例えば、標的物体が、人等、第1方向Xよりも第2方向Yに長手方向を有する物体である場合、第2方向Yにあまり高い解像度を要求されないことがある。この場合、制御部200は、複数のスポットの第1方向Xの密度の増加率を複数のスポットの第2方向Yの密度の増加率より高くする。この制御において、制御部200は、複数のスポットの第2方向Yにおける密度分布を変化させなくてもよい。或いは、例えば、標的物体が、自動車等、第2方向Yよりも第1方向Xに長手方向を有する物体である場合、第1方向Xにあまり高い解像度を要求されないことがある。この場合、制御部200は、複数のスポットの第2方向Yの密度の増加率を複数のスポットの第1方向Xの密度の増加率より高くする。この制御において、制御部200は、複数のスポットの第1方向Xにおける密度分布を変化させなくてもよい。制御部200による複数のスポットの密度の変化の割合を複数のスポットの方向に応じて適切に異ならせることで、標的物体に応じて複数のスポットの第1方向X及び第2方向Yの適切な粗密度合いを設定することができ、標的物体の認識又は識別に適した点群を生成することができる。
 一例として、制御部200は、複数のスポットから生成される点群を用いて検知、認識又は識別された物体に識別子を付与してもよい。識別子が付与された物体は、比較的高密度の複数のスポットを照射しなくても、トラッキング処理によって検知、認識又は識別することができる。このため、識別子が付与された後、制御部200は、複数のスポットの密度分布を初期の密度分布、すなわち、図2に示す制御前の密度分布に戻してもよい。この場合、制御部200は、識別子が付与された物体と異なる他の物体に照射される複数のスポットの密度分布を制御することができる場合がある。
 一例として、制御部200は、走査部100によって照射される複数のスポットが所定条件を満たさない場合(判断ステップS20のNo)、複数のスポットの密度分布の制御を停止してもよい。複数のスポットの密度分布の制御を停止した後、制御部200は、複数のスポットの密度分布を初期の密度分布、すなわち、図2に示す制御前の密度分布に戻してもよい。例えば、制御部200の制御によって複数のスポットの少なくとも一部分の密度が所定の上限値に達したとき、制御部200は、複数のスポットの密度分布の制御を停止する。或いは、例えば、制御部200が判断ステップS20及び制御ステップS40を行う時間が所定の上限時間に達したとき、制御部200は、複数のスポットの密度分布の制御を停止する。
 一例として、制御部200は、標的物体が所定時間以上静止している場合、複数のスポットの密度分布の制御を停止してもよい。複数のスポットの密度分布の制御を停止した後、制御部200は、複数のスポットの密度分布を初期の密度分布、すなわち、図2に示す制御前の密度分布に戻してもよい。この場合、制御部200は、所定時間静止していた物体と異なる他の物体に照射される複数のスポットの密度分布を制御することができる。例えば、移動する自動車を標的物体としているにもかかわらず標的物体が所定時間以上静止している場合、制御部200は、複数のスポットが照射されている物体が駐車又は停車している自動車であると判断することができる。或いは、人を標的物体としているにもかかわらず標的物体が所定時間以上静止している場合、制御部200は、複数のスポットが照射されている物体が人に近似した別の物体であると判断することができる。
 図3は、制御部200のハードウエア構成を例示する図である。制御部200は、集積回路300を用いて実装されている。集積回路300は、例えばSoC(System-on-a-Chip)である。
 集積回路300は、バス302、プロセッサ304、メモリ306、ストレージデバイス308、入出力インタフェース310及びネットワークインタフェース312を有する。バス302は、プロセッサ304、メモリ306、ストレージデバイス308、入出力インタフェース310及びネットワークインタフェース312が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ304、メモリ306、ストレージデバイス308、入出力インタフェース310及びネットワークインタフェース312を互いに接続する方法は、バス接続に限定されない。プロセッサ304は、マイクロプロセッサ等を用いて実現される演算処理装置である。メモリ306は、RAM(Random Access Memory)等を用いて実現されるメモリである。ストレージデバイス308は、ROM(Read Only Memory)やフラッシュメモリ等を用いて実現されるストレージデバイスである。
 入出力インタフェース310は、集積回路300を周辺デバイスと接続するためのインタフェースである。入出力インタフェース310には走査部100が接続されている。
 ネットワークインタフェース312は、集積回路300をネットワークに接続するためのインタフェースである。このネットワークは、例えばCAN(Controller Area Network)ネットワークである。ネットワークインタフェース312がネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。
 ストレージデバイス308は、制御部200の機能を実現するためのプログラムモジュールを記憶している。プロセッサ304は、これらのプログラムモジュールをメモリ306に読み出して実行することで、制御部200の機能を実現する。
 集積回路300のハードウエア構成は、図3に示した構成に限定されない。例えば、プログラムモジュールはメモリ306に格納されてもよい。この場合、集積回路300は、ストレージデバイス308を備えていなくてもよい。
 図4は、変形例に係るセンサ装置10Aを示す図である。変形例に係るセンサ装置10Aは、以下の点を除いて、実施形態に係るセンサ装置10と同様である。
 センサ装置10Aは、センサ部500Aをさらに備えている。センサ部500Aは、例えば、カメラ等の撮像部や、LiDAR等のセンサである。センサ部500AのFOVと、走査部100によって得られるFOVと、を第3方向Zに垂直な仮想平面に投影した場合、センサ部500AのFOVの少なくとも一部分は、走査部100によって得られるFOVの少なくとも一部分と重なっている。したがって、走査部100のFOVが制御部200の制御によって走査部100の初期状態におけるFOVより狭くなっても、走査部100のFOVの外側に存在する物体をセンサ部500Aによって検知、認識又は識別することができる。
 図5は、実施例に係る制御部200の制御の第1例を示すフローチャートである。
 まず、制御部200は、走査部100によって得られるFOVの中から少なくとも1つの領域を区画する(区画ステップS10A)。具体的には、区画ステップS10Aにおいて、制御部200は、道路、床、壁等に照射された複数のスポットから生成される点群等、人、自動車等の標的物体の検知、認識又は識別に不要な点群を除きつつ、互いに比較的近接している点群を他の点群から区画している。以下、必要に応じて、走査部100によって得られるFOVの中から区画された領域を区画領域という。区画領域は、長方形や台形のような直線で区切られたものに限らず、自由曲線で区切られた領域でもよい。
 一例として、区画ステップS10AにおいてFOVの中から複数の領域が区画された場合、後述する判断ステップS20A及び制御ステップS40Aにおいて、制御部200は、FOVの中から区画された複数の領域の中から危険度等の所定条件に応じて選択された領域の複数のスポットの密度分布を制御してもよい。例えば、制御部200は、FOVの中から区画された複数の領域の中から、危険度が高い領域から危険度が低い領域への優先順位で選択された少なくとも1つの領域の複数のスポットの密度分布を制御する。この制御において、制御部200は、FOVの中から選択された複数の領域のすべての領域の複数のスポットの密度分布を制御してもよいし、又はFOVの中から選択された複数の領域のすべての領域の複数のスポットの密度分布を制御しなくてもよい。例えば、センサ装置10が特定の部屋にセキュリティ用途で設けられる場合、制御部200は、その部屋の入口に近い領域ほど危険度が高く、その部屋の入口から遠い領域ほど危険度が低いものと判断する。この場合、制御部200は、FOVの中から区画された複数の領域の中から、その部屋の入口に近い領域からその部屋の入口から遠い領域への優先順位で選択された少なくとも1つの領域の複数のスポットの密度分布を制御する。また、例えば、センサ装置10が特定の自動車に自動運転の用途で搭載されている場合、制御部200は、その自動車に近い領域ほど危険度が高く、その自動車から遠い領域ほど危険度が低いものと判断する。この場合、制御部200は、FOVの中から区画された複数の領域の中から、その自動車に近い領域からその自動車から遠い領域への優先順位で選択された少なくとも1つの領域の複数のスポットの密度分布を制御する。
 一例において、区画ステップS10Aにおいて、制御部200は、区画領域内の点群の重心位置を算出した結果を用いて制御してもよい。
 区画ステップS10A後、制御部200は、区画領域内の複数のスポットの数が所定値以上であるか否かを判断する(判断ステップS20A)。制御部200は、区画領域内の複数のスポットの数が所定値以上となるまで、複数のスポットの密度分布を制御している(判断ステップS20AのNo、制御ステップS40A)。制御部200は、区画領域内の複数のスポットの数が所定値以上である場合(判断ステップS20AのYes)、複数のスポットの密度分布の制御を停止する。
 判断ステップS20Aにおける所定値は、標的物体に応じて標的物体の検知、認識又は識別に必要な複数のスポットの点の数となっている。したがって、判断ステップS20A及び制御ステップS40Aを行う場合、判断ステップS20A及び制御ステップS40Aを行わない場合と比較して、標的物体を高解像度で検知、認識又は識別することができる。
 判断ステップS20Aにおける所定値は、標的物体に照射される複数のスポットの密度が増加しても、FOVの大きさが必要以上に小さくならなかったり、複数のスポットの密度が必要以上に高くならなかったりする等、複数のスポットの密度分布が適切な分布になる値にすることができる。したがって、判断ステップS20A及び制御ステップS40Aを行う場合、判断ステップS20A及び制御ステップS40Aを行わない場合と比較して、FOVの大きさが必要以上に小さくならなかったり、複数のスポットの密度が必要以上に高くならなかったりする等、複数のスポットの密度分布を適切な分布に制御することができる。
 判断ステップS20Aにおける所定値は、区画領域内の複数のスポットの総数であってもよいし、又は区画領域内の複数のスポットの第1方向X、第2方向Y等の所定方向の数であってもよい。例えば、標的物体が、人等、第1方向Xよりも第2方向Yに長手方向を有する物体である場合、第2方向Yにあまり高い解像度を要求されないことがある。この場合、判断ステップS20Aにおける所定値は、区画領域内の複数のスポットの第1方向Xの数としてもよい。或いは、例えば、標的物体が、自動車等、第2方向Yよりも第1方向Xに長手方向を有する物体である場合、第1方向Xにあまり高い解像度を要求されないことがある。この場合、判断ステップS20Aにおける所定値は、区画領域内の複数のスポットの第2方向Yの数としてもよい。
 図6及び図7は、図5に示した制御の一例を説明するための図である。
 図6及び図7において、第3方向Zを示すX付き丸は、紙面の手前から奥に向かう方向が第3方向Zの正方向であり、紙面の奥から手前に向かう方向が第3方向Zの負方向であることを示している。
 図6及び図7では、走査部100によって、人である標的物体Qに複数のスポットPが照射されている。図6において、複数のスポットPは、第1方向Xに3列かつ第2方向Yに4行並んでいる。図7において、複数のスポットPは、第1方向Xに5列かつ第2方向Yに4行並んでいる。
 まず、区画ステップS10Aとして、図6に示す例において、制御部200は、標的物体Qに照射された少なくとも1つのスポットPを、標的物体Qに照射されていない少なくとも1つのスポットPから区画する。図6に示す例では、第1方向Xの正方向側から1列目かつ第2方向Yの正方向側から2行目の1つのスポットPの少なくとも一部分と、第1方向Xの正方向側から2列目かつ第2方向Yの正方向側から1行目、2行目、3行目及び4行目の4つのスポットPの各々の少なくとも一部分と、第1方向Xの正方向側から3列目かつ第2方向Yの正方向側から2行目の1つのスポットPの少なくとも一部分と、が標的物体Qに照射されている。制御部200は、標的物体Qに照射されたこれらのスポットPを含む区画領域を特定する。
 次いで、判断ステップS20Aとして、制御部200は、図6に示す例おいて区画領域内のスポットPの数が所定値以上であるか否かを判断する。例えば、判断ステップS20Aにおける所定値が区画領域内のスポットPの総数である場合、制御部200は、図6に示す例における区画領域内のスポットPの総数6が当該所定値以上であるか否かを判断する。或いは、例えば、判断ステップS20Aにおける所定値が区画領域内のスポットPの第1方向Xの数である場合、制御部200は、図6に示す例における区画領域内のスポットPの第1方向Xの数3が当該所定値以上であるか否かを判断する。
 判断ステップS20Aにおいて制御部200が図6に示す例における区画領域内のスポットPの数が所定値以上でないと判断した場合、制御ステップS40Aとして、制御部200は、図6に示す状態から図7に示す状態にかけて、区画領域内のスポットPの数を増加させるように制御する。図6に示す状態から図7に示す状態にかけて、制御部200は、区画領域内のスポットPの第2方向Yの数は変化させずに、区画領域内のスポットPの第1方向Xの数を増加させている。図7に示す例では、第1方向Xの正方向側から1列目かつ第2方向Yの正方向側から2行目の1つのスポットPの少なくとも一部分と、第1方向Xの正方向側から2列目、3列目及び4列目かつ第2方向Yの正方向側から1行目、2行目、3行目及び4行目の12のスポットPの各々の少なくとも一部分と、第1方向Xの正方向側から5列目かつ第2方向Yの正方向側から2行目の1つのスポットPの少なくとも一部分と、が標的物体Qに照射されている。
 次いで、判断ステップS20Aとして、図6を用いて説明した判断ステップS20Aと同様にして、制御部200は、区画領域内のスポットPの数が所定値以上であるか否かを判断する。図7に示す例において、制御部200が、区画領域内のスポットPの数が所定値以上であると判断した場合、制御部200は、区画領域内の複数のスポットPの密度分布の制御を停止する。
 次いで、センサ装置10は、図7に示す状態の密度分布の複数のスポットPを用いて、標的物体Qを検知、認識又は識別する。
 図8は、実施例に係る制御部200の制御の第2例を示すフローチャートである。
 まず、制御部200は、図5に示したフローチャートの区画ステップS10Aと同様にして、区画ステップS10Bを行う。
 次いで、制御部200は、区画領域内の複数のスポットから生成される点群を用いての物体の検知、認識又は識別の成否を判断する(判断ステップS20B)。制御部200は、区画領域内の複数のスポットから生成される点群を用いての物体の検知、認識又は識別が成功するまで、複数のスポットの密度分布を制御している(判断ステップS20BのNo、制御ステップS40B)。制御部200は、区画領域内の複数のスポットから生成される点群を用いての物体の検知、認識又は識別が成功した場合(判断ステップS20BのYes)、複数のスポットの密度分布の制御を停止する。
 一例として、制御部200は、区画領域内の複数のスポットから生成される点群を用いての物体の検知、認識又は識別が成功しない場合(判断ステップS20BのNo)、複数のスポットの密度分布の制御を停止してもよい。複数のスポットの密度分布の制御を停止した後、制御部200は、複数のスポットの密度分布を初期の密度分布、すなわち、図8に示す制御前の密度分布に戻してもよい。例えば、制御部200の制御によって複数のスポットの少なくとも一部分の密度が所定の上限値に達したとき、制御部200は、複数のスポットの密度分布の制御を停止する。或いは、例えば、制御部200が判断ステップS20B及び制御ステップS40Bを行う時間が所定の上限時間に達したとき、制御部200は、複数のスポットの密度分布の制御を停止する。
 判断ステップS20B及び制御ステップS40Bを行う場合、区画領域内の物体の検知、認識又は識別が成功するまで標的物体に照射される複数のスポットの密度が増加される。標的物体の検知、認識又は識別の成否は、例えば、標的物体に照射された複数のスポットからの反射ビームを用いて生成される点群を機械学習等の認識処理にかけることによって判断される。或いは、例えば、検知、認識又は識別の対象となる物体の大きさと、走査部100から区画領域内の複数のスポットの重心位置までの距離との関係から、走査部100から区画領域内の複数のスポットに照射する複数のビームの角度ピッチをいずれのピッチにすれば区画領域内の物体の検知、認識又は識別が成功するかが、機械学習の結果等から予め決定されている場合がある。この場合、制御部200は、走査部100から区画領域内の複数のスポットに照射する複数のビームの角度ピッチを、区画領域内の物体の検知、認識又は識別が成功するためのピッチに制御することができる。
 判断ステップS20B及び制御ステップS40Bを行う場合、FOVの大きさが必要以上に小さくなったり、複数のスポットの密度が必要以上に高くなったりする等、複数のスポットの密度分布が適切な分布からずれる前に複数のスポットの密度の増加を停止することができる。したがって、判断ステップS20B及び制御ステップS40Bを行う場合、判断ステップS20B及び制御ステップS40Bを行わない場合と比較して、FOVの大きさが必要以上に小さくならなかったり、複数のスポットの密度が必要以上に高くならなかったりする等、複数のスポットの密度分布を適切な分布に制御することができる。
 図9は、実施例に係る制御部200の制御の第3例を示すフローチャートである。
 まず、制御部200は、図5に示したフローチャートの区画ステップS10Aと同様にして、区画ステップS10Cを行う。
 次いで、制御部200は、区画領域内の複数のスポットのオーバラップ率が所定値以上であるか否かを判断する(判断ステップS20C)。制御部200は、区画領域内の複数のスポットのオーバラップ率が所定値以上となるまで、複数のスポットの密度分布を制御している(判断ステップS20CのNo、制御ステップS40C)。例えば、図7に示したように複数のスポットの密度を増加させた場合、複数のスポット内の隣り合うスポットの少なくとも一部分が重なり合うことがある。少なくとも一部分が重なり合う第1スポット及び第2スポットについての複数のスポットのオーバラップ率は、第1スポットの面積と第2スポットの面積との和に対する、第1スポットのうちの第2スポットに重なる部分の面積と第2スポットのうちの第1スポットに重なる部分の面積との和の比となる。制御部200は、区画領域内の複数のスポットのオーバラップ率が所定値以上となった場合(判断ステップS20CのYes)、複数のスポットの密度分布の制御を停止する。
 判断ステップS20Cにおける所定値は、標的物体に応じて標的物体の検知、認識又は識別に不都合のない複数のスポットのオーバラップ率となっている。したがって、判断ステップS20C及び制御ステップS40Cを行う場合、判断ステップS20C及び制御ステップS40Cを行わない場合と比較して、標的物体を高解像度で検知、認識又は識別することができる。
 判断ステップS20Cにおける所定値は、標的物体に照射される複数のスポットの密度が増加しても、FOVの大きさが必要以上に小さくならなかったり、複数のスポットの密度が必要以上に高くならなかったりする等、複数のスポットの密度分布が適切な分布になる値にすることができる。複数のスポットのオーバラップ率が所定値より大きくなっても、実質的な解像度は向上しない。さらに、複数のスポットのオーバラップ率が所定値より大きくなると、物体の誤検知、誤認識又は誤識別の可能性が高まる場合がある。したがって、判断ステップS20C及び制御ステップS40Cを行う場合、判断ステップS20C及び制御ステップS40Cを行わない場合と比較して、FOVの大きさが必要以上に小さくならなかったり、複数のスポットの密度が必要以上に高くならなかったりする等、複数のスポットの密度分布を適切な分布に制御することができる。
 図10は、光源110から出射されるビームを第2方向Yに走査するための第1駆動信号S1及び第2駆動信号S2の一例を説明するためのグラフである。図11は、図10に示した第1駆動信号S1によって走査部100を駆動した場合の複数のスポットの一例を示す図である。図12は、図10に示した第2駆動信号S2によって走査部100を駆動した場合の複数のスポットの一例を示す図である。
 図10において、グラフの横軸は、時間を示している。グラフの縦軸は、駆動信号の強度を示している。このグラフでは、縦軸の上方向が駆動信号の正となっており、縦軸の下方向が駆動信号の負となっている。図10において、第1駆動信号S1が最大値をとる時間から僅か後の時間から第1駆動信号S1が当該最大値の次の最小値をとる時間から僅か前の時間にかけての走査時間区間TFOVは、光源110から走査部100に向けて複数のビームが繰り返して出射されている時間区間、すなわち計測時間区間を示している。
 図11及び図12は、第3方向Zに垂直な仮想平面に投影されたFOVを示している。図11では、FOV内に第2方向Yに並ぶ複数の第1走査線LAが示されている。FOV内の複数の第1走査線LAの各々には、少なくとも1つのスポットが照射されている。図11では、説明のため、FOV内の中央部分の3つの第1走査線LAに沿って照射されたスポットPAが白丸で示されている。図12では、FOV内に第2方向Yに並ぶ複数の第2走査線LBが示されている。FOV内の複数の第2走査線LBの各々には、少なくとも1つのスポットが照射されている。図12では、説明のため、FOV内の中央部分の3つの第2走査線LBに沿って照射されたスポットPBが白丸で示されている。
 図10に示すように、第1駆動信号S1は、三角波形状となっている。第1駆動信号S1は、走査時間区間TFOVにおいて、一様な傾きを有している。図11に示すFOVにおいて、走査時間区間TFOVの始期から終期にかけて、走査部100は、光源110から繰り返して出射される複数のビームを第2方向Yの正方向側から第2方向Yの負方向側に向けて走査している。第1駆動信号S1の走査時間区間TFOVにおける傾きが一様であるため、図11に示すFOVにおいて複数の第1走査線LAは、第2方向Yに等間隔に並んでいる。
 図10に示すように、第2駆動信号S2は、三角波の変形形状となっている。具体的には、走査時間区間TFOVの中央区間における第2駆動信号S2の傾きは、走査時間区間TFOVにおける第1駆動信号S1の傾きより小さくなっている。また、走査時間区間TFOVのうちの中央区間の両側区間における第2駆動信号S2の傾きは、走査時間区間TFOVにおける第1駆動信号S1の傾きより大きくなっている。図12に示すFOVにおいて、走査時間区間TFOVの始期から終期にかけて、走査部100は、図1又は図4に示した光源110から繰り返して出射される複数のビームを第2方向Yの正方向側から負方向側に向けて走査している。走査時間区間TFOVの中央区間における第2駆動信号S2の傾きが走査時間区間TFOVにおける第1駆動信号S1の傾きより小さいため、図12に示すFOVの中央部分における複数の第2走査線LBの第2方向Yの間隔は、図11に示すFOVの複数の第1走査線LAの第2方向Yの間隔より狭くなっている。また、走査時間区間TFOVのうちの中央区間の両側区間における第2駆動信号S2の傾きが走査時間区間TFOVにおける第1駆動信号S1の傾きより大きいため、図12に示すFOVのうち上下の両側部分における複数の第2走査線LBの第2方向Yの間隔は、図11に示すFOVの複数の第1走査線LAの第2方向Yの間隔より広くなっている。
 制御部200は、図12に示すように、FOV内の第2方向Yの中央部分の複数のスポットの密度分布と、FOV内のうち中央部分の第2方向Yの両側部分の複数のスポットの密度分布と、を異ならせている。制御部200による複数のスポットの密度分布の制御は、図12に示す例に限定されない。FOV内の第2方向Yのいずれの部分において図12に示した複数の第2走査線LBの第2方向Yの間隔を図11に示した複数の第1走査線LAの第2方向Yの間隔よりも狭めるかは、走査時間区間TFOVにおけるいずれの時間区間において第2駆動信号S2の傾きを第1駆動信号S1の傾きより小さくするかに応じて決定されている。したがって、走査時間区間TFOVにおけるいずれの時間区間において第2駆動信号S2の傾きを第1駆動信号S1の傾きより小さくするかに応じて、制御部200は、FOVの一部分の複数のスポットの密度分布と、FOVの他の一部分の複数のスポットの密度分布と、を異ならせることができる。
 以上、図面を参照して本発明の実施形態、変形例及び実施例について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
 この出願は、2021年3月10日に出願された日本出願特願2021-038057号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10 センサ装置
10A センサ装置
100 走査部
110 光源
200 制御部
300 集積回路
302 バス
304 プロセッサ
306 メモリ
308 ストレージデバイス
310 入出力インタフェース
312 ネットワークインタフェース
500A センサ部
L 走査線
LA 第1走査線
LB 第2走査線
P スポット
PA スポット
PB スポット
Q 標的物体
S1 第1駆動信号
S10A 区画ステップ
S10B 区画ステップ
S10C 区画ステップ
S2 第2駆動信号
S20 判断ステップ
S20A 判断ステップ
S20B 判断ステップ
S20C 判断ステップ
S40 制御ステップ
S40A 制御ステップ
S40B 制御ステップ
S40C 制御ステップ
TFOV 走査時間区間
X 第1方向
Y 第2方向
Z 第3方向

Claims (18)

  1.  走査部と、
     前記走査部によって照射される複数のスポットが第1の所定条件を満たすまで、前記走査部によって照射される前記複数のスポットの密度分布を制御する制御部と、
    を備えるセンサ装置。
  2.  請求項1に記載のセンサ装置において、
     前記制御部は、前記走査部の走査速度を制御することで、前記密度分布を制御する、センサ装置。
  3.  請求項1又は2に記載のセンサ装置において、
     前記第1の所定条件は、前記走査部によって得られる視野の中から区画された領域内の前記複数のスポットの数が所定値以上であるか否かを含む、センサ装置。
  4.  請求項3に記載のセンサ装置において、
     前記所定値は、前記領域内の前記複数のスポットの所定方向の点の数である、センサ装置。
  5.  請求項1~4のいずれか一項に記載のセンサ装置において、
     前記第1の所定条件は、前記走査部によって得られる視野の中から区画された領域内の前記複数のスポットから生成される点群を用いての物体の検知、認識又は識別の成否を含む、センサ装置。
  6.  請求項1~5のいずれか一項に記載のセンサ装置において、
     前記第1の所定条件は、前記走査部の走査によって得られる視野の中から区画された領域内の前記複数のスポットのオーバラップ率が所定値以上であるか否かを含む、センサ装置。
  7.  請求項1~6のいずれか一項に記載のセンサ装置において、
     前記制御部は、前記走査部によって得られる視野の中から区画された複数の領域の中から第2の所定条件に応じて選択された領域の前記複数のスポットの前記密度分布を制御する、センサ装置。
  8.  請求項7に記載のセンサ装置において、
     前記第2の所定条件は、前記複数の領域の各々の危険度を含む、センサ装置。
  9.  請求項1~8のいずれか一項に記載のセンサ装置において、
     前記制御部は、前記複数のスポットから生成される点群を用いて検知、認識又は識別された物体に識別子を付与する、センサ装置。
  10.  請求項1~9のいずれか一項に記載のセンサ装置において、
     視野の少なくとも一部分が、前記走査部によって得られる視野の少なくとも一部分と重なるセンサ部をさらに備えるセンサ装置。
  11.  請求項1~10のいずれか一項に記載のセンサ装置において、
     前記制御部は、前記複数のスポットが前記第1の所定条件を満たさない場合、前記密度分布の制御を停止する、センサ装置。
  12.  請求項1~11のいずれか一項に記載のセンサ装置において、
     前記制御部は、前記走査部によって得られる視野の中から区画された領域内の前記複数のスポットから生成される点群を用いて検知、認識又は識別された物体が所定時間以上静止している場合、前記密度分布の制御を停止する、センサ装置。
  13.  請求項1~12のいずれか一項に記載のセンサ装置において、
     前記制御部による前記複数のスポットの密度の変化の割合が前記複数のスポットの方向に応じて異なる、センサ装置。
  14.  請求項1~13のいずれか一項に記載のセンサ装置において、
     前記制御部は、前記走査部によって得られる視野の一部分の前記複数のスポットの前記密度分布と、前記視野の他の一部分の前記複数のスポットの前記密度分布と、を異ならせる、センサ装置。
  15.  走査部によって照射される複数のスポットが第1の所定条件を満たすまで、前記走査部によって照射される前記複数のスポットの密度分布を制御する制御部を備える制御装置。
  16.  コンピュータが、走査部によって照射される複数のスポットが第1の所定条件を満たすまで、前記走査部によって照射される前記複数のスポットの密度分布を制御する、制御方法。
  17.  コンピュータに、走査部の走査によって照射される複数のスポットが第1の所定条件を満たすまで、前記走査部によって照射される前記複数のスポットの密度分布を制御する機能を持たせるプログラム。
  18.  請求項17に記載のプログラムを記憶した記憶媒体。
PCT/JP2022/009949 2021-03-10 2022-03-08 センサ装置、制御装置、制御方法、プログラム及び記憶媒体 WO2022191175A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2023505571A JPWO2022191175A1 (ja) 2021-03-10 2022-03-08
US18/281,269 US20240175991A1 (en) 2021-03-10 2022-03-08 Sensor device, control device, control method, program, and storage medium
EP22767129.4A EP4306993A1 (en) 2021-03-10 2022-03-08 Sensor device, control device, control method, program, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-038057 2021-03-10
JP2021038057 2021-03-10

Publications (1)

Publication Number Publication Date
WO2022191175A1 true WO2022191175A1 (ja) 2022-09-15

Family

ID=83228055

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/009949 WO2022191175A1 (ja) 2021-03-10 2022-03-08 センサ装置、制御装置、制御方法、プログラム及び記憶媒体

Country Status (4)

Country Link
US (1) US20240175991A1 (ja)
EP (1) EP4306993A1 (ja)
JP (1) JPWO2022191175A1 (ja)
WO (1) WO2022191175A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001050723A (ja) * 1999-08-11 2001-02-23 Minolta Co Ltd 距離測定装置
JP2007093347A (ja) * 2005-09-28 2007-04-12 Nissan Motor Co Ltd 停止車両判別装置、自動車及び停止車両判別方法
JP2012189366A (ja) * 2011-03-09 2012-10-04 Ihi Corp 監視方法及び監視装置
JP2013156138A (ja) * 2012-01-30 2013-08-15 Ihi Corp 移動物体検出装置
US20160245903A1 (en) * 2015-02-20 2016-08-25 Apple Inc. Dynamic beam spot size for light beam scanning device
JP2021038057A (ja) 2019-09-03 2021-03-11 株式会社ミツバ ローラコンベヤ装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001050723A (ja) * 1999-08-11 2001-02-23 Minolta Co Ltd 距離測定装置
JP2007093347A (ja) * 2005-09-28 2007-04-12 Nissan Motor Co Ltd 停止車両判別装置、自動車及び停止車両判別方法
JP2012189366A (ja) * 2011-03-09 2012-10-04 Ihi Corp 監視方法及び監視装置
JP2013156138A (ja) * 2012-01-30 2013-08-15 Ihi Corp 移動物体検出装置
US20160245903A1 (en) * 2015-02-20 2016-08-25 Apple Inc. Dynamic beam spot size for light beam scanning device
JP2021038057A (ja) 2019-09-03 2021-03-11 株式会社ミツバ ローラコンベヤ装置

Also Published As

Publication number Publication date
JPWO2022191175A1 (ja) 2022-09-15
US20240175991A1 (en) 2024-05-30
EP4306993A1 (en) 2024-01-17

Similar Documents

Publication Publication Date Title
US11953626B2 (en) LiDAR device
JP5267592B2 (ja) 物体認識装置
JP5541410B2 (ja) レーザレーダ装置
JP6250080B2 (ja) レーザレーダ装置及び走行体
JP5488518B2 (ja) 道路端検出装置、運転者支援装置、および道路端検出方法
JP2010151958A (ja) 光走査装置及びレーザレーダ装置
US20190162858A1 (en) Detector designs for improved resolution in lidar systems
EP2058678A2 (en) In-vehicle radar device
JP2003149338A (ja) 物体認識装置及び距離測定装置
JP2000147124A (ja) 車載レーダ装置
JP4960599B2 (ja) 衝突防止装置及び衝突防止装置搭載車両
JP5716902B2 (ja) 監視方法及び監視装置
KR102633680B1 (ko) 라이다 장치
JP4379791B2 (ja) 走査装置
EP2574877B1 (en) Optical probe
US20170307874A1 (en) Scanning Optical System And Radar
WO2022191175A1 (ja) センサ装置、制御装置、制御方法、プログラム及び記憶媒体
US20220146682A1 (en) Lidar device
JP4561499B2 (ja) 車両用運転支援装置
JP2009156810A (ja) 物体検出装置
JP5266866B2 (ja) 障害物検出装置
JP6569328B2 (ja) 光走査装置、及び、車載システム
JP4033041B2 (ja) 先行車検出装置
US11543493B2 (en) Distance measuring unit
CN116430360A (zh) 激光雷达的扫描方法、装置、存储介质、激光雷达及车辆

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22767129

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023505571

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18281269

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2022767129

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022767129

Country of ref document: EP

Effective date: 20231010