WO2023223659A1 - 認識システム、認識装置、認識方法、認識プログラム、認識データ生成方法 - Google Patents

認識システム、認識装置、認識方法、認識プログラム、認識データ生成方法 Download PDF

Info

Publication number
WO2023223659A1
WO2023223659A1 PCT/JP2023/011006 JP2023011006W WO2023223659A1 WO 2023223659 A1 WO2023223659 A1 WO 2023223659A1 JP 2023011006 W JP2023011006 W JP 2023011006W WO 2023223659 A1 WO2023223659 A1 WO 2023223659A1
Authority
WO
WIPO (PCT)
Prior art keywords
recognition
scanning
point group
reflector
data
Prior art date
Application number
PCT/JP2023/011006
Other languages
English (en)
French (fr)
Inventor
駿 山▲崎▼
健二 武藤
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2023038950A external-priority patent/JP2023171241A/ja
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2023223659A1 publication Critical patent/WO2023223659A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present disclosure relates to recognition technology that recognizes moving objects.
  • Patent Document 1 discloses a recognition technique for solving a situation where a virtual image is erroneously recognized as a moving body due to the generation of a virtual image due to reflection of laser light, which is irradiation light.
  • An object of the present disclosure is to provide a recognition system with high recognition accuracy. Another object of the present disclosure is to provide a recognition device with high recognition accuracy. Another object of the present disclosure is to provide a recognition method with high recognition accuracy. Yet another object of the present disclosure is to provide a recognition program with high recognition accuracy.
  • a first aspect of the present disclosure includes: A recognition system having a processor and recognizing a target moving object capable of moving in a scanning space scanned by illumination light from a scanning device in a host vehicle,
  • the processor is In a scanning direction in which a reflector whose reflection characteristic for irradiation light is in a range of interest on the high reflection side is scanned, scanning data including a point group on the far side is acquired as a scanning point group at a position on the far side of the reflector.
  • symmetrical points are set in the symmetric area with respect to the reflector as a real image scanning point group that makes a virtual image appear at a position farther back than the reflector.
  • the group is configured to generate recognition data by excluding the existing back point group.
  • a second aspect of the present disclosure includes: A recognition device that recognizes a target moving object that has a processor, is configured to be mounted on a host vehicle, and is movable in a scanning space scanned by irradiation light from a scanning device in the host vehicle,
  • the processor is In a scanning direction in which a reflector whose reflection characteristic for irradiation light is in a range of interest on the high reflection side is scanned, scanning data including a point group on the far side is acquired as a scanning point group at a position on the far side of the reflector.
  • symmetrical points are set in the symmetric area with respect to the reflector as a real image scanning point group that makes a virtual image appear at a position farther back than the reflector.
  • the group is configured to generate recognition data by excluding the existing back point group.
  • a third aspect of the present disclosure is A recognition method performed by a processor for recognizing a target moving object movable in a scanning space scanned by illumination light from a scanning device in a host vehicle, the method comprising: In a scanning direction in which a reflector whose reflection characteristic for irradiation light is in a range of interest on the high reflection side is scanned, scanning data including a point group on the far side is acquired as a scanning point group at a position on the far side of the reflector. , In the scanning data, from the back side point group that is the object of recognition of the target moving body, symmetrical points are set in the symmetric area with respect to the reflector as a real image scanning point group that makes a virtual image appear at a position farther back than the reflector. and generating recognition data by excluding the deep point group that exists in the group.
  • a fourth aspect of the present disclosure is: A recognition program comprising instructions stored in a storage medium and executed by a processor for recognizing a target moving object movable in a scanning space scanned by illumination light from a scanning device in a host vehicle, the recognition program comprising:
  • the command is In a scanning direction in which a reflector whose reflection characteristic for irradiated light is in a range of interest on a high reflection side is scanned, scanning data including a point group on the far side is obtained as a scan point group at a position on the far side of the reflector.
  • symmetrical points are set in the symmetric area with respect to the reflector as a real image scanning point group that makes a virtual image appear at a position farther back than the reflector. and generating recognition data by excluding the deep point group that exists in the group.
  • a fifth aspect of the present disclosure is: 1.
  • symmetrical points are set in the symmetric area with respect to the reflector as a real image scanning point group that makes a virtual image appear at a position farther back than the reflector. and generating recognition data by excluding the deep point group that exists in the group.
  • the scanning point group at the back side of the reflector is Scan data containing side points is acquired. Therefore, according to the first to fourth aspects, from the back side point group to be recognized of the target moving body in the scanning data, the real image scanning point group that causes a virtual image to appear at a position farther back than the reflector is used as the real image scanning point group regarding the reflector. Recognition data is generated by excluding the back point group where a symmetric point group exists in the symmetric area with the back position.
  • the back point group observed as a virtual image of the symmetric point group at the back position of the reflector can be excluded from the recognition target of the target moving object, while the back point group is observed as a real image at the back side of the reflector.
  • the far side point group can be appropriately recognized as a target moving object. Therefore, it is possible to suppress erroneous recognition caused by the generation of virtual images and improve the recognition accuracy of the target moving body.
  • FIG. 1 is a block diagram showing the overall configuration of a recognition system according to a first embodiment.
  • FIG. 3 is a schematic diagram showing the relationship between the scanning device of the host vehicle and the target moving object according to the first embodiment.
  • FIG. 1 is a block diagram showing the functional configuration of a recognition system according to a first embodiment. It is a flowchart which shows the recognition flow by a first embodiment.
  • FIG. 3 is a schematic plan view for explaining a recognition flow according to the first embodiment.
  • FIG. 3 is a schematic plan view for explaining a recognition flow according to the first embodiment.
  • FIG. 3 is a schematic plan view for explaining a recognition flow according to the first embodiment.
  • FIG. 3 is a schematic plan view for explaining a recognition flow according to the first embodiment.
  • FIG. 3 is a schematic plan view for explaining a recognition flow according to the first embodiment.
  • FIG. 3 is a schematic plan view for explaining a recognition flow according to the first embodiment.
  • FIG. 3 is a schematic plan view for explaining a recognition flow according to the first embodiment.
  • FIG. 3 is a schematic plan view for explaining a recognition flow according to the first embodiment.
  • FIG. 3 is a schematic perspective view for explaining a recognition flow according to the first embodiment.
  • FIG. 3 is a schematic perspective view for explaining a recognition flow according to the first embodiment.
  • FIG. 3 is a schematic plan view for explaining a recognition flow according to the first embodiment.
  • FIG. 7 is a schematic perspective view for explaining a recognition flow according to a second embodiment. It is a flowchart which shows the recognition flow by a third embodiment.
  • FIG. 7 is a characteristic diagram for explaining a recognition flow according to a third embodiment.
  • FIG. 7 is a schematic perspective view for explaining a recognition flow according to a third embodiment.
  • FIG. 7 is a schematic perspective view for explaining a recognition flow according to a third embodiment. It is a flowchart which shows the recognition flow by the modification of the third embodiment to which the second embodiment is applied. It is a flowchart which shows the recognition flow by the modification of a second embodiment.
  • the recognition system 1 of the first embodiment shown in FIG. 1 recognizes a target moving object Ot that is movable in a scanning space 30 scanned by irradiation light from a scanning device 3 in a host vehicle 2 as shown in FIG. .
  • the host vehicle 2 to which the recognition system 1 is applied is a vehicle, such as a car, that can run on a road with a passenger on board.
  • the target moving objects Ot to be recognized by the recognition system 1 are of multiple types, such as vehicles other than the host vehicle 2, motorcycles, people, animals, autonomous robots, and remote robots.
  • the automatic driving mode is executed so that the levels are divided according to the degree of manual intervention by the occupant in the dynamic driving task.
  • Automated driving modes may be realized through autonomous driving control, such as conditional driving automation, advanced driving automation, or full driving automation, where the system when activated performs all dynamic driving tasks.
  • Automated driving modes may be implemented through advanced driving assistance controls, such as driving assistance or partial driving automation, where the occupant performs some or all of the dynamic driving tasks.
  • the automatic driving mode may be realized by either one, a combination, or switching between autonomous driving control and advanced driving support control.
  • the host vehicle 2 is equipped with a sensor system 4, a communication system 5, and an information presentation system 6 shown in FIG.
  • the sensor system 4 acquires sensor information for the external and internal worlds of the host vehicle 2 that can be used for driving control of the host vehicle 2 including recognition control in the recognition system 1 .
  • the sensor system 4 includes an external sensor 40 and an internal sensor 41.
  • the external world sensor 40 acquires information about the external world, which is the surrounding environment of the host vehicle 2, as sensor information.
  • the external world sensor 40 includes a scanning device 3 that acquires sensor information by scanning a scanning space 30 in the external world of the host vehicle 2 with irradiation light.
  • a scanning device 3 is a three-dimensional LiDAR (Light Detection and Ranging/Laser Imaging Detection and Ranging) that scans the scanning space 30 using an infrared laser beam as irradiation light.
  • the external world sensor 40 other than the scanning device 3 may include at least one type of, for example, a camera, a sonar, etc. that senses the external world of the host vehicle 2.
  • the scanning device 3 generates sensor information by scanning with irradiation light a scanning space 30 (see FIG. 2) that is determined according to the viewing angle set toward the outside world of the host vehicle 2.
  • the sensor information generated by the scanning device 3 of the first embodiment is scanning data Ds that three-dimensionally represents the state of a scanning point group observed as a reflection point of irradiated light by an object in the scanning space 30.
  • the scanning data Ds includes a state value regarding at least one type of, for example, distance, azimuth, position coordinates, speed, and beam reflection intensity.
  • the distance preferably represents a value measured by dTOF (direct time of flight) based on the flight time until receiving a reflected echo as reflected light with respect to the irradiation light.
  • the azimuth angle preferably represents a scanning direction that changes in at least one of the horizontal direction and the vertical direction with respect to the scanning space 30.
  • the internal world sensor 41 acquires information about the internal world, which is the internal environment of the host vehicle 2, as sensor information.
  • the internal world sensor 41 may include a physical quantity detection type that detects a specific motion physical quantity in the internal world of the host vehicle 2 .
  • the physical quantity detection type internal sensor 41 is, for example, at least one type of a traveling speed sensor, an acceleration sensor, an inertial sensor, or the like.
  • the internal world sensor 41 may include an occupant detection type sensor that detects a specific state of the occupant in the internal world of the host vehicle 2 .
  • the occupant detection type internal sensor 41 is at least one type of, for example, a driver status monitor (registered trademark), a biological sensor, a seating sensor, an actuator sensor, an in-vehicle device sensor, or the like.
  • the communication system 5 acquires communication information that can be used for driving control of the host vehicle 2, including recognition control in the recognition system 1, through wireless communication.
  • the communication system 5 may include a V2X type system that transmits and receives communication signals between the host vehicle 2 and a V2X system existing in the outside world.
  • the V2X type communication system 5 is at least one type of, for example, a DSRC (Dedicated Short Range Communications) communication device, a cellular V2X (C-V2X) communication device, or the like.
  • the communication system 5 may include a positioning type in which a positioning signal is received from a GNSS (Global Navigation Satellite System) satellite existing outside the host vehicle 2 .
  • the positioning type communication system 5 is, for example, a GNSS receiver.
  • the communication system 5 may include a terminal communication type that transmits and receives communication signals to and from terminals existing within the host vehicle 2 .
  • the terminal communication type communication system 5 is at least one type of, for example, a Bluetooth (registered trademark) device, a Wi-Fi (registered trademark) device, an infrared communication device, or the like.
  • the information presentation system 6 presents notification information to the occupants in the host vehicle 2.
  • the information presentation system 6 may be of a visual stimulation type that stimulates the occupant's vision through display.
  • the visual stimulation type information presentation system 6 is, for example, at least one type of a HUD (Head-Up Display), an MFD (Multi-Function Display), a combination meter, a navigation unit, and the like.
  • the information presentation system 6 may be of an auditory stimulation type that stimulates the passenger's hearing with sound.
  • the auditory stimulation type information presentation system 6 is, for example, at least one type of a speaker, a buzzer, a vibration unit, or the like.
  • the recognition system 1 is connected to a sensor system 4, a communication system 5, and an information presentation system 6 via at least one of, for example, a LAN (Local Area Network) line, a wire harness, an internal bus, and a wireless communication line. ing.
  • the recognition system 1 includes at least one dedicated computer.
  • the dedicated computer configuring the recognition system 1 may be a recognition control ECU (Electronic Control Unit) that controls object recognition in the scanning space 30 based on the scanning data Ds by the scanning device 3.
  • the recognition control ECU may have a function of integrating sensor information from a plurality of external sensors 40 including the scanning device 3.
  • the dedicated computer constituting the recognition system 1 may be a driving control ECU that controls the driving of the host vehicle 2.
  • the dedicated computer configuring the recognition system 1 may be a navigation ECU that navigates the travel route of the host vehicle 2.
  • the dedicated computer constituting the recognition system 1 may be a locator ECU that estimates self-state quantities including the self-position of the host vehicle 2 .
  • the dedicated computer configuring the recognition system 1 may be an HCU (HMI (Human Machine Interface) Control Unit) that controls information presentation by the information presentation system 6 in the host vehicle 2.
  • the dedicated computer constituting the recognition system 1 may be a computer other than the host vehicle 2, which constructs an external center or mobile terminal capable of communicating with the communication system 5, for example.
  • the dedicated computer that constitutes the recognition system 1 has at least one memory 10 and at least one processor 12.
  • the memory 10 is at least one type of non-transitory physical storage medium, such as a semiconductor memory, a magnetic medium, and an optical medium, that non-temporarily stores computer-readable programs and data. It is a tangible storage medium.
  • the processor 12 is, for example, at least one type of CPU (Central Processing Unit), GPU (Graphics Processing Unit), RISC (Reduced Instruction Set Computer)-CPU, DFP (Data Flow Processor), and GSP (Graph Streaming Processor). It contains as a core.
  • the memory 10 stores map information that can be used to control the operation of the host vehicle 2.
  • the memory 10 acquires and stores the latest map information through communication with an external center through the V2X type communication system 5, for example.
  • the map information in the first embodiment is map data Dm (see FIG. 3), such as a high-precision map or a dynamic map, which represents the driving environment of the host vehicle 2 in three dimensions.
  • map data Dm represents the state of a mapping point group in which objects at fixed positions existing in the driving environment of the host vehicle 2 are mapped.
  • the map data Dm includes, for example, three-dimensional state values regarding at least one type of the target object's position coordinates, distance, azimuth, shape, and the like.
  • the objects mapped to the map data Dm include, for example, roads, signs, traffic lights, structures, railroad crossings, vegetation, space demarcation objects, space demarcation lines, marking lines, and the like, which are located at least at fixed points.
  • the processor 12 executes a plurality of instructions included in the recognition program stored in the memory 10 in order to recognize the target moving object Ot in the scanning space 30 by the scanning device 3 of the host vehicle 2.
  • the recognition system 1 constructs a plurality of functional blocks for recognizing the target moving object Ot in the scanning space 30.
  • the plurality of functional blocks constructed in the recognition system 1 include a scanning block 100 and a recognition block 110, as shown in FIG.
  • recognition flow The flow of the recognition method (hereinafter referred to as recognition flow) in which the recognition system 1 recognizes the target moving object Ot in the scanning space 30 through the cooperation of these blocks 100 and 110 will be described below with reference to FIG.
  • the algorithm cycle of the recognition flow is repeatedly executed during startup of the host vehicle 2. Note that each "S" in the recognition flow means a plurality of steps executed by a plurality of instructions included in the recognition program.
  • the scanning block 100 acquires scanning data Ds of the entire scanning space 30 according to the viewing angle from the scanning device 3.
  • the scan data is processed so that the state values observed for each of a plurality of pixels in the scanning device 3 include at least the three-dimensional distance and/or three-dimensional position coordinates of the scan point group. Ds is obtained.
  • the scanning block 100 detects that the reflector Or among the objects existing in the scanning space 30 moves in the entire scanning direction (i.e., the irradiation direction of the irradiation light) ⁇ s scanned by the scanning device 3, as shown in FIGS. 5 to 8. , specified in the scan data Ds.
  • the reflector Or is defined as an object at a fixed position whose reflection characteristics for the irradiated light are in the range of interest on the high reflection side.
  • the range of interest regarding the reflector Or means, for example, a range in which at least one type of reflection characteristic among reflectance, reflection intensity, etc. is equal to or greater than a reflection threshold value or exceeds a reflection threshold value.
  • the area of interest is that, as shown in FIGS. 5 to 7, the reflected light from another object Oa of the irradiated light reflected by the reflector Or in a direction different from the scanning direction ⁇ s is re-reflected by the reflector Or to the scanning device 3.
  • the scanning point group of the virtual image Iv is set within the range of reflection characteristics observed.
  • the scanning block 100 in S101 stores map data Dm to which identification information ⁇ i of an object existing in the scanning space 30 is added to the memory 10 shown in FIG.
  • the map is read from the map storage area 10m.
  • map data Dm including at least the three-dimensional distance and/or three-dimensional position coordinates of the mapping point group is read out as the mapped state value. Therefore, as map data Dm acquired from an infrastructure database of an infrastructure system (for example, an external center, etc.) that can communicate with the recognition system 1 via the communication system 5, identification information ⁇ i is associated with each of a plurality of voxels 300 as described below. The obtained three-dimensional spatial information may be read out.
  • identification information ⁇ i is included as information for identifying the optical characteristics of an object in the scanning space 30 in association with the position coordinates of the object.
  • the optical characteristics identified by the identification information ⁇ i include the reflection characteristics described above as well as the transmission characteristics for the irradiation light. Therefore, the identification information ⁇ i is a material such as a reflector Or that allows transmission of the irradiation light if at least one type of transmission characteristic such as transmittance and transmission intensity is greater than or equal to the transmission threshold. It is added to the map data Dm to represent the object.
  • the identification information ⁇ i is set in the map data Dm so as to represent an object, such as a reflector Or, whose transmission of the irradiation light is restricted because at least one kind of transmission characteristic is less than or equal to the transmission threshold. It has been added.
  • the scanning block 100 in S101 three-dimensionally specifies the scanning direction ⁇ s in which the scanning device 3 scans the reflector Or as shown in FIGS. 5 to 8.
  • the self-position of the host vehicle 2 which is the starting point of the scanning direction ⁇ s in which the reflector Or is scanned, is estimated.
  • the self-position estimation is based on at least one of sensor information from a physical quantity detection type internal sensor 41 such as an inertial sensor, communication information from a positioning type communication system 5, map data Dm, and the like.
  • the scanning block 100 in S101 determines whether the scanning direction ⁇ s in which the reflector Or exists has been identified as shown in FIG. As a result, if an affirmative determination is made, the recognition flow moves to S102.
  • the scanning block 100 was observed at a position further back (i.e., on the far side) than the reflector Or as viewed from the scanning device 3 in the entire scanning direction ⁇ s in which the reflector Or was scanned as shown in FIGS. 5 to 8.
  • a back point group Pb as a scanning point group is specified in the scanning data Ds.
  • the back point group Pb is included in the scanning data Ds as a scanning point group whose distance from the scanning device 3 in the scanning direction ⁇ s is farther than the reflector Or specified in S101.
  • the scanning block 100 in S102 determines whether the back point group Pb has been identified as shown in FIG. As a result, if an affirmative determination is made, the recognition flow moves to S103.
  • the recognition block 110 searches the scanning data Ds for a group of transmission limiting points Pbl at a position further back than the reflector Or where the identification information ⁇ i represents the optical characteristic that limits the transmission of the irradiation light, as shown in FIG. .
  • the transmission restriction point group Pbl is located at a point group Pb on the back side that is farther from the scanning device 3 than the reflector Or where at least one type of transmission characteristic based on the identification information ⁇ i is less than or equal to the transmission threshold at a fixed point position. defined.
  • the scanning block 100 in S103 determines whether or not the back point group Pb specified in S102 is the transmission restriction point group Pbl, as shown in FIG. As a result, when an affirmative determination is made, the recognition flow moves to S104, and as shown in FIG. The mobile body Ot is excluded from the recognition target. On the other hand, if a negative determination is made as shown in FIG. 4, the recognition flow moves to S105.
  • the recognition block 110 defines the quasi-transmission restriction point group Pbpl as the transmission permissible point group Pbp at the back side of the reflector Or where the identification information ⁇ i represents the optical characteristic that allows the transmission of the irradiation light, as shown in FIG. is searched from the scan data Ds.
  • the transmission permissible point group Pbp is set to a point group Pb on the back side that is farther from the scanning device 3 than the reflector Or where at least one type of transmission characteristic based on the identification information ⁇ i is equal to or greater than the transmission threshold at a fixed point position. defined.
  • the quasi-transmission restriction point group Pbpl at least one kind of transmission characteristic based on the identification information ⁇ i is less than or equal to the transmission threshold at a fixed point position on the back side of the reflector Or, especially among the transmission permissible point group Pbp. It is defined as a group of points Pb on the back side that is farther from the scanning device 3 than the fixed point object Ol.
  • the quasi-transmission-restricted point group Pbpl is a back-side point group Pb specified at a position farther back than the fixed point object Ol whose identification information ⁇ i represents the optical characteristic that limits further transmission of the irradiated light that has passed through the reflector Or. becomes.
  • the scanning block 100 in S105 determines whether the back point group Pb specified in S102 is a quasi-transmission restricted point group Pbpl, as shown in FIG. As a result, when an affirmative determination is made, the recognition flow moves to S106, and as shown in FIG. The mobile body Ot is excluded from the recognition target. On the other hand, if a negative determination is made as shown in FIG. 4, the recognition flow moves to S107.
  • the recognition block 110 defines the virtual image point group Pbpv as the transmission permissible point group Pbp at the back side of the reflector Or where the identification information ⁇ i represents the optical characteristic that allows the transmission of the irradiation light, as shown in FIGS. and the real image point group Pbpa is searched from the scan data Ds.
  • the virtual image point group Pbpv is a scanning point group of the real image Ia that causes the virtual image Iv to appear at a position further back than the reflector Or that allows transmission.
  • a symmetrical point group Ps is defined as a far side point group Pb in a symmetrical area As that satisfies symmetry with the position within the search range.
  • the real image point group Pbpa has a symmetric point group Ps in the symmetric area As that satisfies the symmetry with the back position regarding the transmission-permitting reflector Or within the search range. It is defined as the back side point group Pb that does not occur.
  • the point group Pbpv, Pbpa is a transmission permissible point group Pbp whose plane of symmetry is a virtual plane Fv perpendicular to the normal line passing through a point on the scanning direction ⁇ s on the reflective surface of the reflector Or.
  • the determination is made based on the presence or absence of the symmetric point group Ps within the search range of the symmetric area As that includes the plane symmetrical position with respect to the symmetric point group Ps.
  • the search range in which the symmetric point group Ps is searched as the outermost range of the symmetric area is set in consideration of at least one of, for example, the scanning error in S100 and the self-position estimation error in S101. be done.
  • Such a search for the symmetric point group Ps is performed on the scanning point group included in the scanning data Ds in the entire scanning space 30, but if at least a part of the symmetrical area As is outside the scanning space 30, The mapping point group of the data Dm may be replaced by the scanning point group.
  • the recognition block 110 in S107 scans a three-dimensional back area Ab for determining point groups Pbpv and Pbpa with respect to a three-dimensional symmetric area As for searching for a symmetric point group Ps. Set to space 30.
  • the back area Ab and the symmetrical area As are assumed to have substantially the same size so that they have a plane symmetrical positional relationship with respect to the transmission-permitting reflector Or (specifically, the virtual plane Fv). Therefore, the recognition block 110 in S107 further divides the back area Ab and the symmetrical area As into a plurality of three-dimensional voxels 300, respectively.
  • Each of these voxels 300 is defined in a three-dimensional grid space of a cube or rectangular parallelepiped having six sides along three-dimensional absolute coordinate axes assigned to the scanning space 30.
  • each voxel 300 in the back area Ab will be referred to as a back voxel 300b
  • each voxel 300 in the symmetric area As will be referred to as a symmetric voxel 300s.
  • the recognition block 110 in S107 compares the voxels 300b and 300s that are plane symmetrical.
  • the comparison at this time is the point group distribution between the scanning point groups in the back voxel 300b to which the transmission permissible point group Pbp belongs as the back point group Pb and the symmetric voxel 300s where the symmetric point group Ps is searched.
  • the degree of similarity between the back voxel 300b and the symmetrical voxel 300s is calculated using at least one of the following: ICP (Iterative Closest Point) algorithm, Mahalanobis distance, SHOT (Signature of Histograms of OrienTations) features, etc. Ru.
  • the transmission permissible point group Pbp is determined as the virtual image point group Pbpv in which the symmetric point group Ps exists.
  • the permissible point group Pbp is symmetrical as shown in FIGS. 8, 10, and 11. It is determined that the real image point group Pbpa does not include the point group Ps.
  • the recognition block 110 in S107 further performs data analysis on the transmission permissible point group Pbp belonging to the back voxel 300b that is determined to be similar to the symmetrical voxel 300s, thereby improving the discrimination accuracy of the point groups Pbpv and Pbpa. It may be increased.
  • this data analysis for example, after clustering processing is performed based on the distance between points and the normal direction of each point, the velocity and traveling direction are estimated by tracking processing using an extended Kalman filter for the same cluster. Based on the data analysis results, the recognition block 110 recognizes that a vehicle moving in the opposite direction to the host vehicle 2 at a target relative speed (hereinafter simply referred to as the target relative speed) according to the traveling speed of the host vehicle 2, as shown in FIG.
  • the allowable point group Pbp is recognized as a true virtual image point group Pbpv.
  • the recognition block 110 recognizes that the transparent point group Pbp that moves in the opposite direction to the host vehicle 2 and moves in the same direction as the host vehicle 2 out of the relative velocity of interest, and the transparent point group Pbp that moves in the same direction as the host vehicle 2 are both false.
  • the virtual image point group Pbpv is recognized as the real image point group Pbpa.
  • the relative speed of interest which is a criterion for determining the point groups Pbpv and Pbpa, is the speed between the traveling speed of the host vehicle 2 measured by the speed sensor as the internal sensor 41 and the estimated speed of the permissible point group Pbp by tracking processing. Defined by difference. Therefore, the transmission permissible point group Pbp, which moves in the opposite direction to the host vehicle 2 and whose target relative speed is less than or equal to the speed threshold, is determined to be the virtual image point group Pbpv.
  • the recognition block 110 in S107 determines which of the virtual image point group Pbpv and the real image point group Pbpa the back point group Pb specified in S102 is.
  • the recognition flow moves to S108, and the recognition block 110 selects the virtual image points that are determined to be the scanning point group of the virtual image Iv, as shown in FIG.
  • the group Pbpv is excluded from the recognition target of the target moving object Ot.
  • the real image point group Pbpa is the real image point group as shown in FIG.
  • the determined real image point group Pbpa is extracted as a recognition target of the target moving object Ot.
  • the recognition flow moves to S110. Even if a negative determination is made in each of S101 and S102, the recognition flow moves to S110.
  • the recognition block 110 converts the back side point group Pb, which was determined to be out of the recognition target in the previous step, out of the transmission restriction point group Pbl, the semi-transmission restriction point group Pbpl, and the virtual image point group Pbpv, to the recognition target in the scanning data Ds. Execute recognition processing by excluding the At this time, the recognition process uses, for example, a machine learning model such as Point Pillars, or a background subtraction method with the map data Dm.
  • the recognition block 110 in S110 generates recognition data Dr representing the results of such recognition processing.
  • recognition data Dr is generated in which the target moving body Ot represented by the real image point group Pbpa is recognized.
  • the recognition block 110 in S110 further stores the generated recognition data Dr in the recognition storage area 10r of the memory 10 shown in FIG.
  • the stored recognition data Dr is used, for example, to control the operation of the host vehicle 2.
  • the recognition block 110 in S110 may control the display of the generated or stored recognition data Dr in order to display it on the information presentation system 6 in the host vehicle 2.
  • the back point group Pb that is not the recognition target may be hidden, or the back point group Pb that is not the recognition target is displayed with a warning such as "virtual image". may be done.
  • the recognition block 110 in S110 may control the transmission so that the generated or stored recognition data Dr is transmitted from the host vehicle 2 to the outside (for example, an external center or another vehicle) via the communication system 5. . With the above, the current execution of the recognition flow is completed.
  • the scanning point group at the back side of the reflector Or is Scanning data Ds containing the point group Pb is acquired. Therefore, according to the first embodiment, from the back side point group Pb which is the recognition target of the target moving body Ot in the scanning data Ds, the scanning point group of the real image Ia that makes the virtual image Iv appear at a position farther back than the reflector Or is used.
  • the recognition data Dr is generated by excluding the symmetric point group Ps, which exists in the symmetrical area As with respect to the rear position of the reflector Or, and the rear point group Pb.
  • the back point group Pb observed as the virtual image Iv of the symmetric point group Ps at the back position of the reflector Or can be excluded from the recognition target of the target moving body Ot, while the back point group Pb observed at the back position of the reflector Or
  • the back point group Pb observed as the real image Ia at the position can be appropriately recognized as the target moving object Ot. Therefore, it is possible to suppress erroneous recognition caused by the generation of the virtual image Iv and improve the recognition accuracy of the target moving body Ot.
  • the back side point group Pb in which the symmetric point group Ps exists in the symmetric area As with the position on the back side of the reflector Or where the identification information ⁇ i represents the optical property that allows the transmission of irradiation light is as follows. Excluded from recognition targets. According to this, the back point group Pb observed at the back position of the reflector Or as the virtual image Iv of the symmetric point group Ps cannot be used in the search for the symmetric point group Ps when the reflector Or allows transmission of the irradiated light. Accordingly, the target moving body Ot may be excluded from the recognition target. Therefore, it is possible to suppress erroneous recognition caused by the generation of the virtual image Iv and improve the recognition accuracy of the target moving body Ot.
  • the identification information ⁇ i represents an optical property that allows transmission of irradiation light, and the position is further from the reflector Or, and the optical property that restricts the transmission of irradiation light is located further from a fixed point object Ol, which the identification information ⁇ i represents.
  • the far side point group Pb at the far side position is excluded from the recognition target.
  • the back point group Pb observed at the back position of the reflector Or as the virtual image Iv of the symmetric point group Ps is the one that allows the irradiation light to pass through even if the reflector Or allows the irradiation light to pass through.
  • the target moving body Ot can be excluded from the recognition target according to the identification of the fixed point object Ol that limits the target moving body Ot. Therefore, it is possible to increase the recognition accuracy of the target moving object Ot while speeding up the processing necessary to suppress erroneous recognition caused by the generation of the virtual image Iv as much as possible.
  • the group of points Pb on the back side of the reflector Or, whose identification information ⁇ i represents an optical property that limits transmission of irradiation light, is excluded from the recognition target.
  • the back point group Pb observed at the back side position of the reflector Or as the virtual image Iv of the symmetric point group Ps is changed to the target moving body O according to the identification of the reflector Or that limits the transmission of the irradiation light. may be excluded from recognition. Therefore, it is possible to increase the recognition accuracy of the target moving object Ot while speeding up the processing necessary to suppress erroneous recognition caused by the generation of the virtual image Iv as much as possible.
  • a back voxel 300b to which the back point group Pb belongs and a symmetric voxel 300s where the symmetric point group Ps is searched are defined. Therefore, according to the first embodiment, the back point group Pb belonging to the back voxel 300b whose point group distribution is similar to the symmetrical voxel 300s within an allowable range is excluded from the recognition target. According to this, it is possible to accurately specify the back point group Pb, which is the observed virtual image Iv of the symmetric point group Ps by the reflector Or, based on the similarity of the point group distribution in the local range of voxels 300b and 300s. can. Therefore, it is possible to increase the reliability in suppressing erroneous recognition caused by the generation of the virtual image Iv, and furthermore, the reliability in highly accurate recognition of the target moving object Ot.
  • the back point group Pb that moves in the opposite direction to the host vehicle 2 at a relative speed according to the traveling speed of the host vehicle 2 is excluded from the recognition target. According to this, it is possible to accurately specify the back point group Pb, which is the observed virtual image Iv of the symmetric point group Ps by the reflector Or, based on the relative speed and movement direction of the back point group Pb with respect to the host vehicle 2. Can be done. Therefore, it is possible to increase the reliability in suppressing erroneous recognition caused by the generation of the virtual image Iv, and furthermore, the reliability in highly accurate recognition of the target moving object Ot.
  • the second embodiment is a modification of the first embodiment.
  • the recognition block 110 sets the optical characteristics that allow the transmission of the irradiation light to the aerial point as a group of transmission permissible points Pbp at a position further back than the reflector Or represented by the identification information ⁇ i (see FIG. 3 of the first embodiment). Search the group Pbpx.
  • the aerial point group Pbpx is the three-dimensional position of the aerial area Ax that exists at a position further back than the reflector Or, as shown in FIG. 15, among the identification information ⁇ i included in the map data Dm. The search is performed based on information for identifying the coordinates.
  • the aerial point group Pbpx to be searched is a scanning point group of the virtual image Iv with respect to the real image Ia, and is the back point group Pb existing in the aerial area Ax represented by the identification information ⁇ i among the positions farther back than the reflector Or. is defined.
  • the recognition flow moves to S2108, and the recognition block 110 excludes the aerial point group Pbpx from the recognition target of the target moving body Ot. After that, S110 is executed.
  • the recognition flow moves to S107, and the transmission permissible point group Pbp excluding the semi-transmission restricted point group Pbpl and the aerial point group Pbpx is changed from the first embodiment. Similarly, it is determined as either the virtual image point group Pbpv or the real image point group Pbpa.
  • the back point group Pb existing in the aerial area Ax represented by the identification information ⁇ i among the positions farther back than the reflector Or is excluded from the recognition target.
  • the back point group Pb which is to be observed at the back position of the reflector Or as the virtual image Iv of the symmetric point group Ps, is moved to the target moving object O according to the identification of the location in the aerial area Ax. may be excluded from recognition. Therefore, it is possible to suppress erroneous recognition caused by the generation of the virtual image Iv and improve the recognition accuracy of the target moving body Ot.
  • the third embodiment is a modification of the first embodiment.
  • S3100 and S3107 are executed in place of S100 and S107, respectively.
  • the scanning block 100 acquires scanning data Ds by receiving the reflected echo Er from the scanning space 30 with respect to the irradiation light for each of a plurality of pixels in the scanning device 3.
  • the scanning block 100 acquires scanning data Ds by receiving the reflected echo Er from the scanning space 30 with respect to the irradiation light for each of a plurality of pixels in the scanning device 3.
  • Rt the threshold value
  • each pixel of the third embodiment includes a scanning point group whose state value corresponding to the reflected echo Erm of the maximum intensity Rm among the received reflected echoes Er is a three-dimensional distance and/or three-dimensional position coordinate.
  • Maximum intensity scan data Dsm is defined as the scan data Ds.
  • the scanning data Ds includes all received reflected echoes Er of intensities and a scanning point group whose corresponding state values are three-dimensional distances and/or three-dimensional position coordinates.
  • the total intensity scan data Dsa is defined as .
  • maximum intensity scanning data Dsm is acquired by the scanning block 100 to be used in the subsequent processes of S101 to S103, S105, and S110.
  • the full intensity scan data Dsa is acquired by the scanning block 100 in S3100 (FIG. 16 is an example) or S3107 to be used by the process in S3107.
  • the full intensity scan data Dsa that is acquired before the virtual image point group Pbpv is determined in S3107 may be acquired as point group data of state values in all pixel areas, or may be compared as described below. It may also be acquired as point group data of state values in a partial pixel region including the voxels 300s and 300b.
  • the recognition block 110 uses the semi-transparent point group Pbp with the full intensity scanning data Dsa shown in FIG.
  • the transmission permissible point group Pbp excluding the restriction point group Pbpl is used as a discrimination target for the virtual image point group Pbpv and the real image point group Pbpa. Therefore, the recognition block 110 in S3107 determines that among the transmission permissible point group Pb other than the quasi-transmission restricted point group Pbpl in the full intensity scan data Dsa, the point group distribution is similar to the symmetrical voxel 300s within the permissible range according to the first embodiment.
  • the virtual image point group Pbpv belonging to the far side voxel 300b is searched for. As a result, as shown in FIG. 16, the recognition flow moves from S3107 to S108, and the determined virtual image point group Pbpv is excluded from the recognition target of the target moving object Ot.
  • the reflected echo Er of the irradiation light from the scanning space 30 is received by each of a plurality of pixels in the scanning device 3. Therefore, in the maximum intensity scanning data Dsm that includes a scanning point group corresponding to the reflected echo Er of the maximum intensity Rm received for each pixel, if there is a symmetrical point group Ps with respect to the far side point group Pb, Additionally, full intensity scan data Dsa is utilized.
  • the point group distribution is within the allowable range and the symmetrical voxel
  • the back point group Pb belonging to the back voxel 300b similar to 300s is excluded from the recognition target.
  • the number of point groups that fit particularly in the back voxel 300b is defined as the number of reflected echoes of the total intensity as the back point group Pb that observed the virtual image Iv of the symmetric point group Ps by the reflector Or. It can be increased accordingly. Therefore, based on the similarity between the point cloud distributions between the voxels 300b and 300s, the accuracy of determining the far side point group Pb obtained by observing the virtual image Iv can be improved. As described above, it is possible to ensure high reliability in suppressing erroneous recognition caused by the generation of the virtual image Iv, and in turn, high reliability in highly accurate recognition of the target moving object Ot.
  • the point group Pb on the back side of the objects Or, Ol which have optical characteristics that limit transmission of the irradiation light, has a maximum intensity that is lower than the total intensity scanning data Ds, with the number of point groups being suppressed.
  • the scanning data Dsm can be searched in a short time with high discrimination accuracy based on the identification information ⁇ i.
  • the maximum intensity scanning data Dsm if there is a symmetrical point group Ps with respect to the point group Pb located further back than the reflector Or having optical properties that allow transmission of the irradiation light, the total intensity is further increased.
  • Scan data Dsa is used.
  • the far side point group Pb belonging to the far side voxel 300b whose point cloud distribution is similar to the symmetrical voxel 300s within the permissible range has a guaranteed number of points than the maximum intensity scanning data Dsm.
  • the intensity scan data Dsa can be searched with high discrimination accuracy. According to the above, it is possible to increase the processing speed and to ensure high reliability in suppressing misrecognition caused by the generation of the virtual image Iv, and furthermore, high reliability in highly accurate recognition of the target moving body Ot.
  • the dedicated computer that constitutes the recognition system 1 may have at least one of a digital circuit and an analog circuit as a processor.
  • digital circuits include, for example, ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), SOC (System on a Chip), PGA (Programmable Gate Array), and CPLD (Complex Programmable Logic Device). , at least one type.
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • SOC System on a Chip
  • PGA Programmable Gate Array
  • CPLD Complex Programmable Logic Device
  • At least one of the set of S103 and S104 and the set of S105 and S106 may be omitted.
  • S103 to S109, S2107, S2108, and S3107 may be executed independently for each scanning direction ⁇ s of the plurality of reflectors Or identified in S101.
  • the identification of the reflector Or in S101 may be realized based on past scanning data Ds instead of or in addition to being based on map data Dm.
  • S2107 and S2108 of the second embodiment may be applied to the third embodiment, as shown in FIG.
  • the recognition flow of the second embodiment may shift to S103 when a negative determination is made in S2107, which is executed following the affirmative determination in S102, as shown in FIG. 21.
  • the point groups Pbl, Pbpl, Pbpv, and Pbpa to be searched in the subsequent steps S103, S105, and S107 are scanned as the scanning point group at the back side of the reflector Or.
  • the aerial point group Pbx is removed from the recognition target in S2108. It would be nice to be excluded.
  • the host vehicle 2 to which the recognition system 1 is applied may be, for example, an autonomous robot capable of transporting luggage or collecting information by autonomous driving or remote driving.
  • the above-described embodiments and modified examples include a processing circuit (for example, a processing ECU, etc.) as a control device that is configured to be mounted on the host vehicle 2 and has at least one processor 12 and one memory 10.
  • a processing circuit for example, a processing ECU, etc.
  • it may be implemented in the form of a semiconductor device (eg, a semiconductor chip, etc.).
  • a recognition system comprising a processor (12) and recognizing a target moving object (Ot) capable of moving in a scanning space (30) scanned by illumination light from a scanning device (3) in a host vehicle (2).
  • the processor is In the scanning direction ( ⁇ s) of scanning a reflector (Or) whose reflection characteristics for irradiated light are in the range of interest on the high reflection side, the far side point group (Pb) is included as a scanning point group at a position further back than the reflector.
  • the real image (Ia) is scanned as a scanning point group of a real image (Ia) that makes a virtual image (Iv) appear at a position farther back than the reflector.
  • a recognition system configured to generate recognition data (Dr) by excluding a deep point group in which a symmetric point group (Ps) exists in a symmetric area (As).
  • the generation of the recognition data includes: Any one of technical ideas 2 to 5 including excluding from the recognition target the group of points on the far side that exist in the aerial area (Ax) represented by the identification information among the positions on the back side of the reflector.
  • the acquisition of the scan data includes: receiving a reflected echo (Er) from the scanning space with respect to the irradiation light for each of a plurality of pixels in the scanning device; Obtaining maximum intensity scanning data (Dsm) as the scanning data that includes the scanning point group corresponding to the reflected echo of maximum intensity received for each pixel; acquiring total intensity scanning data (Dsa) as the scanning data that includes the scanning point group corresponding to the reflected echoes of all intensities received for each pixel;
  • the generation of the recognition data includes: When the symmetric point group for the back point group exists in the maximum intensity scan data, the point group distribution in the total intensity scan data belongs to the back voxel that is similar to the symmetric voxel within a tolerance range.
  • the generation of the recognition data includes: Searching for the point group on the far side of the object (Or, Ol) having optical characteristics that restricts transmission of the irradiation light in the maximum intensity scanning data, and excluding it from the recognition target; In the maximum intensity scanning data, when the symmetrical point group exists with respect to the point group on the back side of the reflector having optical characteristics that allow transmission of the irradiation light,
  • the recognition system according to technical idea 8 including searching for the back point group belonging to the back voxel whose point cloud distribution is similar to the symmetrical voxel within a permissible range, and excluding it from the recognition target. .
  • the above-mentioned technical ideas 1 to 13 may be realized in the form of a recognition device, a recognition method, a recognition program, and a recognition data generation method.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

ホスト車両において走査デバイスからの照射光により走査された走査空間を移動可能なターゲット移動体を、認識する認識システムのプロセッサは、照射光に対する反射特性が高反射側の注目範囲にある反射体(Or)を走査した走査方向(ψs)において、反射体(Or)よりも奥側位置の走査点群として奥側点群(Pb)を内包する走査データ(Ds)を、取得することと、走査データに(Ds)においてターゲット移動体の認識対象とする奥側点群(Pb)から、反射体(Or)よりも奥側位置に虚像を現出させる実像の走査点群として反射体(Or)に関する当該奥側位置との対称エリアに対称点群が、存在する奥側点群(Pb)を除外して認識データ(Dr)を生成することとを、実行するように構成される。

Description

認識システム、認識装置、認識方法、認識プログラム、認識データ生成方法 関連出願の相互参照
 この出願は、2022年5月19日に日本に出願された特許出願第2022-82484号、及び2023年3月13日に日本に出願された特許出願第2023-38950号を基礎としており、基礎の出願の内容を、全体的に、参照により援用している。
 本開示は、移動体を認識する認識技術に、関する。
 走査デバイスからの照射光により走査された走査空間に存在する移動体を認識する認識技術は、広く知られている。特許文献1には、照射光であるレーザ光の反射に起因する虚像の発生により、当該虚像が移動体として誤認識される事態を解消するための認識技術が、開示されている。
特許第6962365号公報
 特許文献1に開示の認識技術では、移動体が存在していない状態での走査結果となる背景の距離画像よりも、手前にある画素が認識対象の移動体として抽出される。しかし、虚像の発生要因となる反射体が照射光を透過する場合、走査デバイスから視て奥側に実在している移動体が認識外となってしまう。こうした課題は、特許文献1のように電車のホームに設置される走査デバイスを用いた認識技術では着目され難いが、車両に搭載される走査デバイスを用いた認識技術では解消が期待されることになる。
 本開示の課題は、認識精度の高い認識システムを、提供することにある。本開示の別の課題は、認識精度の高い認識装置を、提供することにある。本開示のまた別の課題は、認識精度の高い認識方法を、提供することにある。本開示のさらに別の課題は、認識精度の高い認識プログラムを、提供することにある。
 以下、課題を解決するための本開示の技術的手段について、説明する。
 本開示の第一態様は、
 プロセッサを有し、ホスト車両において走査デバイスからの照射光により走査された走査空間を移動可能なターゲット移動体を、認識する認識システムであって、
 プロセッサは、
 照射光に対する反射特性が高反射側の注目範囲にある反射体を走査した走査方向において、反射体よりも奥側位置の走査点群として奥側点群を内包する走査データを、取得することと、
 走査データにおいてターゲット移動体の認識対象とする奥側点群から、反射体よりも奥側位置に虚像を現出させる実像の走査点群として反射体に関する当該奥側位置との対称エリアに対称点群が、存在する奥側点群を除外して認識データを生成することとを、実行するように構成される。
 本開示の第二態様は、
 プロセッサを有し、ホスト車両に搭載可能に構成され、ホスト車両において走査デバイスからの照射光により走査された走査空間を移動可能なターゲット移動体を、認識する認識装置であって、
 プロセッサは、
 照射光に対する反射特性が高反射側の注目範囲にある反射体を走査した走査方向において、反射体よりも奥側位置の走査点群として奥側点群を内包する走査データを、取得することと、
 走査データにおいてターゲット移動体の認識対象とする奥側点群から、反射体よりも奥側位置に虚像を現出させる実像の走査点群として反射体に関する当該奥側位置との対称エリアに対称点群が、存在する奥側点群を除外して認識データを生成することとを、実行するように構成される。
 本開示の第三態様は、
 ホスト車両において走査デバイスからの照射光により走査された走査空間を移動可能なターゲット移動体を、認識するためにプロセッサにより実行される認識方法であって、
 照射光に対する反射特性が高反射側の注目範囲にある反射体を走査した走査方向において、反射体よりも奥側位置の走査点群として奥側点群を内包する走査データを、取得することと、
 走査データにおいてターゲット移動体の認識対象とする奥側点群から、反射体よりも奥側位置に虚像を現出させる実像の走査点群として反射体に関する当該奥側位置との対称エリアに対称点群が、存在する奥側点群を除外して認識データを生成することとを、含む。
 本開示の第四態様は、
 ホスト車両において走査デバイスからの照射光により走査された走査空間を移動可能なターゲット移動体を、認識するために記憶媒体に記憶され、プロセッサにより実行される命令を含む認識プログラムであって、
 命令は、
 照射光に対する反射特性が高反射側の注目範囲にある反射体を走査した走査方向において、反射体よりも奥側位置の走査点群として奥側点群を内包する走査データを、取得させることと、
 走査データにおいてターゲット移動体の認識対象とする奥側点群から、反射体よりも奥側位置に虚像を現出させる実像の走査点群として反射体に関する当該奥側位置との対称エリアに対称点群が、存在する奥側点群を除外して認識データを生成させることとを、含む。
 本開示の第五態様は、
 ホスト車両において走査デバイスからの照射光により走査された走査空間を移動可能なターゲット移動体を、認識して認識データを生成するためにプロセッサにより実行される認識データ生成方法であって、
 照射光に対する反射特性が高反射側の注目範囲にある反射体を走査した走査方向において、反射体よりも奥側位置の走査点群として奥側点群を内包する走査データを、取得することと、
 走査データにおいてターゲット移動体の認識対象とする奥側点群から、反射体よりも奥側位置に虚像を現出させる実像の走査点群として反射体に関する当該奥側位置との対称エリアに対称点群が、存在する奥側点群を除外して認識データを生成することとを、含む。
 このように第一~第五態様では、照射光に対する反射特性が高反射側の注目範囲にある反射体を走査した走査デバイスの走査方向において、反射体よりも奥側位置の走査点群として奥側点群を内包する走査データが、取得される。そこで第一~第四態様によると、走査データにおいてターゲット移動体の認識対象とする奥側点群から、反射体よりも奥側位置に虚像を現出させる実像の走査点群として反射体に関する当該奥側位置との対称エリアに対称点群が、存在する奥側点群を除外して認識データは生成される。これによれば、反射体の奥側位置に対称点群の虚像として観測された奥側点群は、ターゲット移動体の認識対象から除外され得る一方、反射体の奥側位置に実像として観測された奥側点群は、ターゲット移動体として適正に認識され得る。故に、虚像の発生に起因する誤認識を抑制して、ターゲット移動体の認識精度を高めることが可能となる。
第一実施形態による認識システムの全体構成を示すブロック図である。 第一実施形態によるホスト車両の走査デバイスとターゲット移動体との関係を示す模式図である。 第一実施形態による認識システムの機能構成を示すブロック図である。 第一実施形態による認識フローを示すフローチャートである。 第一実施形態による認識フローを説明するための平面模式図である。 第一実施形態による認識フローを説明するための平面模式図である。 第一実施形態による認識フローを説明するための平面模式図である。 第一実施形態による認識フローを説明するための平面模式図である。 第一実施形態による認識フローを説明するための平面模式図である。 第一実施形態による認識フローを説明するための平面模式図である。 第一実施形態による認識フローを説明するための斜視模式図である。 第一実施形態による認識フローを説明するための斜視模式図である。 第一実施形態による認識フローを説明するための平面模式図である。 第二実施形態による認識フローを示すフローチャートである。 第二実施形態による認識フローを説明するための斜視模式図である。 第三実施形態による認識フローを示すフローチャートである。 第三実施形態による認識フローを説明するための特性図である。 第三実施形態による認識フローを説明するための斜視模式図である。 第三実施形態による認識フローを説明するための斜視模式図である。 第二実施形態を適用した第三実施形態の変形例による認識フローを示すフローチャートである。 第二実施形態の変形例による認識フローを示すフローチャートである。
 以下、本開示の実施形態を図面に基づき複数説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことで、重複する説明を省略する場合がある。また、各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。さらに、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合わせることができる。
 図1に示す第一実施形態の認識システム1は、図2に示すようにホスト車両2において走査デバイス3からの照射光により走査された走査空間30を移動可能なターゲット移動体Otを、認識する。ここで、認識システム1の適用されるホスト車両2は、例えば自動車等、乗員の搭乗状態において道路を走行可能な車両である。認識システム1の認識対象とするターゲット移動体Otは、例えばホスト車両2以外の他車両、バイク、人、動物、自律走行ロボット、及び遠隔走行ロボット等のうち、複数種類である。
 ホスト車両2では、動的運転タスクにおける乗員の手動介入度に応じてレベル分けされるように、自動運転モードが実行される。自動運転モードは、条件付運転自動化、高度運転自動化、又は完全運転自動化といった、作動時のシステムが全ての動的運転タスクを実行する自律走行制御により、実現されてもよい。自動運転モードは、運転支援、又は部分運転自動化といった、乗員が一部若しくは全ての動的運転タスクを実行する高度運転支援制御により、実現されてもよい。自動運転モードは、それら自律走行制御と高度運転支援制御とのいずれか一方、組み合わせ、又は切り替えにより実現されてもよい。
 ホスト車両2には、図1に示すセンサ系4、通信系5、及び情報提示系6が搭載される。センサ系4は、認識システム1での認識制御を含むホスト車両2の運転制御に利用可能なセンサ情報を、ホスト車両2の外界と内界とに対して取得する。そのためにセンサ系4は、外界センサ40と内界センサ41とを含んで構成される。
 外界センサ40は、ホスト車両2の周辺環境となる外界の情報を、センサ情報として取得する。外界センサ40には、ホスト車両2の外界のうち走査空間30を照射光により走査することでセンサ情報を取得する走査デバイス3が、含まれている。このような走査デバイス3は、照射光に赤外域のレーザ光を用いて走査空間30を走査する、三次元LiDAR(Light Detection and Ranging / Laser Imaging Detection and Ranging)である。尚、走査デバイス3以外の外界センサ40には、ホスト車両2の外界をセンシングする、例えばカメラ、及びソナー等のうち、少なくとも一種類が含まれていてもよい。
 ここで走査デバイス3は、ホスト車両2の外界へ向けて設定された視野角に応じて決まる走査空間30(図2参照)を照射光により走査することで、センサ情報を生成する。特に第一実施形態の走査デバイス3が生成するセンサ情報は、走査空間30において物体による照射光の反射点として観測された走査点群の状態を三次元で表す、走査データDsである。走査データDsは、例えば距離、方位角、位置座標、速度、及びビーム反射強度等のうち、少なくとも一種類に関する状態値を含んでいる。走査データDsに含まれる状態値のうち距離は、照射光に対する反射光としての反射エコーを受光するまでの飛行時間に基づいたdTOF(direct Time Of Flight)による測定値を、表しているとよい。走査データDsに含まれる状態値のうち方位角は、走査空間30に対して水平方向及び垂直方向のうち少なくとも一方に変化する走査方向を、表しているとよい。
 内界センサ41は、ホスト車両2の内部環境となる内界の情報を、センサ情報として取得する。内界センサ41には、ホスト車両2の内界において特定の運動物理量を検知する、物理量検知タイプが含まれていてもよい。物理量検知タイプの内界センサ41は、例えば走行速度センサ、加速度センサ、及び慣性センサ等のうち、少なくとも一種類である。内界センサ41には、ホスト車両2の内界において乗員の特定状態を検知する、乗員検知タイプが含まれていてもよい。乗員検知タイプの内界センサ41は、例えばドライバーステータスモニター(登録商標)、生体センサ、着座センサ、アクチュエータセンサ、及び車内機器センサ等のうち、少なくとも一種類である。
 通信系5は、認識システム1での認識制御を含むホスト車両2の運転制御に利用可能な通信情報を、無線通信により取得する。通信系5には、ホスト車両2の外界に存在するV2Xシステムとの間において通信信号を送受信する、V2Xタイプが含まれていてもよい。V2Xタイプの通信系5は、例えばDSRC(Dedicated Short Range Communications)通信機、及びセルラV2X(C-V2X)通信機等のうち、少なくとも一種類である。通信系5には、ホスト車両2の外界に存在するGNSS(Global Navigation Satellite System)の人工衛星から測位信号を受信する、測位タイプが含まれていてもよい。測位タイプの通信系5は、例えばGNSS受信機等である。通信系5には、ホスト車両2の内界に存在する端末との間において通信信号を送受信する、端末通信タイプが含まれていてもよい。端末通信タイプの通信系5は、例えばブルートゥース(Bluetooth:登録商標)機器、Wi-Fi(登録商標)機器、及び赤外線通信機器等のうち、少なくとも一種類である。
 情報提示系6は、ホスト車両2において乗員へ向けた報知情報を提示する。情報提示系6は、乗員の視覚を表示により刺激する、視覚刺激タイプであってもよい。視覚刺激タイプの情報提示系6は、例えばHUD(Head-Up Display)、MFD(Multi-Function Display)、コンビネーションメータ、及びナビゲーションユニット等のうち、少なくとも一種類である。情報提示系6は、乗員の聴覚を音により刺激する、聴覚刺激タイプであってもよい。聴覚刺激タイプの情報提示系6は、例えばスピーカ、ブザー、及びバイブレーションユニット等のうち、少なくとも一種類である。
 認識システム1は、例えばLAN(Local Area Network)回線、ワイヤハーネス、内部バス、及び無線通信回線等のうち、少なくとも一種類を介してセンサ系4、通信系5、及び情報提示系6に接続されている。認識システム1は、少なくとも一つの専用コンピュータを含んで構成されている。
 認識システム1を構成する専用コンピュータは、走査デバイス3による走査データDsに基づき走査空間30における物体認識を制御する、認識制御ECU(Electronic Control Unit)であってもよい。ここで認識制御ECUは、走査デバイス3を含む複数外界センサ40のセンサ情報を統合する機能を、有していてもよい。認識システム1を構成する専用コンピュータは、ホスト車両2の運転制御を担う、運転制御ECUであってもよい。認識システム1を構成する専用コンピュータは、ホスト車両2の走行経路をナビゲートする、ナビゲーションECUであってもよい。認識システム1を構成する専用コンピュータは、ホスト車両2の自己位置を含む自己状態量を推定する、ロケータECUであってもよい。認識システム1を構成する専用コンピュータは、ホスト車両2において情報提示系6による情報提示を制御する、HCU(HMI(Human Machine Interface) Control Unit)であってもよい。認識システム1を構成する専用コンピュータは、例えば通信系5との間において通信可能な外部センタ又はモバイル端末等を構築する、ホスト車両2以外のコンピュータであってもよい。
 認識システム1を構成する専用コンピュータは、メモリ10とプロセッサ12とを、少なくとも一つずつ有している。メモリ10は、コンピュータにより読み取り可能なプログラム及びデータ等を非一時的に記憶する、例えば半導体メモリ、磁気媒体、及び光学媒体等のうち、少なくとも一種類の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。プロセッサ12は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、RISC(Reduced Instruction Set Computer)-CPU、DFP(Data Flow Processor)、及びGSP(Graph Streaming Processor)等のうち、少なくとも一種類をコアとして含んでいる。
 認識システム1においてメモリ10は、ホスト車両2の運転制御に利用可能な地図情報を、記憶する。メモリ10は、例えばV2Xタイプの通信系5を通じた外部センタとの通信等により、最新の地図情報を取得して記憶する。特に第一実施形態の地図情報は、ホスト車両2の走行環境を三次元で表す、例えば高精度マップ又はダイナミックマップ等といった、マップデータDm(図3参照)である。このようなマップデータDmは、ホスト車両2の走行環境に存在する定点位置の物体をマッピングした、マッピング点群の状態を表している。マップデータDmは、例えば物標の位置座標、距離、方位角、及び形状等のうち、少なくとも一種類に関する三次元状態値を内包している。マップデータDmにマッピングされる物体は、例えば道路、標識、信号機、構造物、踏切、植生、スペース区画物、スペース区画線、及び標示線等のうち、少なくとも定点に位置する複数種類である。
 認識システム1においてプロセッサ12は、ホスト車両2の走査デバイス3による走査空間30においてターゲット移動体Otを認識するために、メモリ10に記憶された認識プログラムに含まれる複数の命令を、実行する。これにより認識システム1は、走査空間30におけるターゲット移動体Otを認識するための機能ブロックを、複数構築する。認識システム1において構築される複数の機能ブロックには、図3に示すように走査ブロック100、及び認識ブロック110が含まれる。
 これら各ブロック100,110の共同により、認識システム1が走査空間30におけるターゲット移動体Otを認識する認識方法のフロー(以下、認識フローという)を、図4に従って以下に説明する。認識フローのアルゴリズムサイクルは、ホスト車両2の起動中において繰り返し実行される。尚、認識フローにおける各「S」は、認識プログラムに含まれた複数命令によって実行される複数ステップを、それぞれ意味する。
 S100において走査ブロック100は、視野角に応じた走査空間30全域の走査データDsを、走査デバイス3から取得する。このとき特に第一実施形態の認識フローでは、走査デバイス3における複数の画素毎に観測された状態値として、走査点群の三次元距離及び/又は三次元位置座標を少なくとも含むように、走査データDsが取得される。
 S101において走査ブロック100は、図5~8に示すように走査空間30に存在する物体のうち反射体Orが、走査デバイス3によって走査された全走査方向(即ち、照射光の照射方向)ψsを、走査データDsにおいて特定する。このとき反射体Orは、照射光に対する反射特性が高反射側の注目範囲にある、定点位置の物体に定義される。反射体Orに関する注目範囲は、例えば反射率、及び反射強度等のうち少なくとも一種類の反射特性が反射閾値以上又は反射閾値超過となる範囲を、意味する。そこで注目範囲は、図5~7の如く反射体Orにより走査方向ψsとは異方向へ反射された照射光の別物体Oaによる反射光が、反射体Orにより走査デバイス3へと再反射されることで、虚像Ivの走査点群が観測される反射特性の範囲に、設定される。
 S101における走査ブロック100は、走査方向ψsの特定対象となる反射体Orを識別するために、走査空間30に存在する物体の識別情報σiが付加されたマップデータDmを、図3に示すメモリ10のマップ記憶領域10mから読み出す。このとき特に第一実施形態の認識フローでは、マッピングされた状態値として、マッピング点群の三次元距離及び/又は三次元位置座標を少なくとも含むマップデータDmが、読み出される。そこで、通信系5を介して認識システム1と通信可能なインフラシステム(例えば外部センタ等)のインフラデータベースから取得されたマップデータDmとして、後述の如き複数のボクセル300毎に識別情報σiの紐付けられた三次元空間情報が、読み出されてもよい。
 S101の読み出し対象となるマップデータDmにおいて識別情報σiは、走査空間30における物体の光学特性を識別するための情報として、当該物体の位置座標と関連付けて内包されている。識別情報σiにより識別される光学特性には、上述の反射特性と共に第一実施形態では、照射光に対する透過特性が含まれている。そこで識別情報σiは、例えば透過率、及び透過強度等のうち少なくとも一種類の透過特性が透過閾値以上又は透過閾値超過であることで、照射光の透過が許容される、例えば反射体Or等の物体を表すようにマップデータDmに付加されている。さらに識別情報σiは、そうした少なくとも一種類の透過特性が透過閾値未満又は透過閾値以下であることで、照射光の透過が制限される、例えば反射体Or等の物体を表すようにマップデータDmに付加されている。
 S101における走査ブロック100は、図5~8の如く走査デバイス3が反射体Orを走査した走査方向ψsを、三次元で特定する。このとき、反射体Orを走査した走査方向ψsの起点となる、ホスト車両2の自己位置が推定される。自己位置の推定は、例えば慣性センサといった物理量検知タイプの内界センサ41によるセンサ情報、測位タイプの通信系5による通信情報、及びマップデータDm等のうち、少なくとも一種類に基づく。
 S101における走査ブロック100は、図4に示すように反射体Orの存在する走査方向ψsを特定したか否かを、判定する。その結果、肯定判定が下された場合には、認識フローがS102へ移行する。
 S102において走査ブロック100は、図5~8の如く反射体Orを走査した全走査方向ψsにおいて、走査デバイス3から視て反射体Orよりも奥側(即ち、遠方側)の位置に観測された走査点群としての奥側点群Pbを、走査データDsにおいて特定する。このとき奥側点群Pbは、走査方向ψsにおける走査デバイス3からの距離が、S101により特定された反射体Orよりも遠い走査点群として、走査データDsに内包されている。
 S102における走査ブロック100は、図4に示すように奥側点群Pbを特定したか否かを、判定する。その結果、肯定判定が下された場合には、認識フローがS103へ移行する。
 S103において認識ブロック110は、図5に示すように照射光の透過を制限する光学特性を識別情報σiが表す反射体Orよりも奥側位置に、透過制限点群Pblを走査データDsから探索する。このとき透過制限点群Pblは、識別情報σiに基づく少なくとも一種類の透過特性が定点位置において透過閾値未満又は透過閾値以下となる反射体Orよりも、走査デバイス3から遠い奥側点群Pbに定義される。
 S103における走査ブロック100は、図4に示すようにS102によって特定された奥側点群Pbが透過制限点群Pblであるか否かを、判定する。その結果、肯定判定が下された場合には認識フローがS104へ移行することで、図5に示すように虚像Ivの走査点群と判断される透過制限点群Pblを認識ブロック110は、ターゲット移動体Otの認識対象から除外する。一方、図4に示すように否定判定が下された場合には、認識フローがS105へ移行する。
 S105において認識ブロック110は、図6に示すように照射光の透過を許容する光学特性を識別情報σiが表す反射体Orよりも奥側位置の透過許容点群Pbpとして、準透過制限点群Pbplを走査データDsから探索する。このとき透過許容点群Pbpは、識別情報σiに基づく少なくとも一種類の透過特性が定点位置において透過閾値以上又は透過閾値超過となる反射体Orよりも、走査デバイス3から遠い奥側点群Pbに定義される。そこで準透過制限点群Pbplは、透過許容点群Pbpの中でも特に、反射体Orよりも奥側の定点位置において識別情報σiに基づく少なくとも一種類の透過特性が透過閾値未満又は透過閾値以下となる定点物体Olよりも、走査デバイス3から遠い奥側点群Pbに定義される。即ち準透過制限点群Pbplは、反射体Orを透過した照射光のさらなる透過までは制限する光学特性を識別情報σiが表す定点物体Olよりも、奥側位置に特定される奥側点群Pbとなる。
 S105における走査ブロック100は、図4に示すようにS102によって特定された奥側点群Pbが準透過制限点群Pbplであるか否かを、判定する。その結果、肯定判定が下された場合に認識フローがS106へ移行することで、図6に示すように虚像Ivの走査点群と判断される準透過制限点群Pbplを認識ブロック110は、ターゲット移動体Otの認識対象から除外する。一方、図4に示すように否定判定が下された場合には、認識フローがS107へ移行する。
 S107において認識ブロック110は、図7,8に示すように照射光の透過を許容する光学特性を識別情報σiが表す反射体Orよりも奥側位置の透過許容点群Pbpとして、虚像点群Pbpv及び実像点群Pbpaを走査データDsから探索する。このとき、図7,9に示すように虚像点群Pbpvは、透過許容の反射体Orよりも奥側位置に虚像Ivを現出させる実像Iaの走査点群として、反射体Orに関する当該奥側位置との対称性を探索範囲内にて満した対称エリアAsに、対称点群Psが存在する奥側点群Pbに定義される。一方、図8,10に示すように実像点群Pbpaは、透過許容の反射体Orに関する奥側位置との対称性を探索範囲内にて満した対称エリアAsには、対称点群Psが存在しない奥側点群Pbに定義される。
 そこで図9,10の如く点群Pbpv,Pbpaは、反射体Orの反射面において走査方向ψs上の点を通る法線に対して垂直な仮想面Fvを対称面とした、透過許容点群Pbpとの面対称位置を包含する対称エリアAsの探索範囲内にて、対称点群Psの有無により判別される。このとき、対称エリアAsの最外範囲として対称点群Psの探索される探索範囲は、例えばS100での走査誤差、及びS101での自己位置推定誤差等のうち、少なくとも一種類を考慮して設定される。こうした対称点群Psの探索は、走査空間30全域の走査データDsに内包された走査点群に対して行われるが、対称エリアAsの少なくとも一部が走査空間30外となる場合には、マップデータDmのマッピング点群が当該走査点群に代替されてもよい。
 S107における認識ブロック110は、図11,12に示すように対称点群Psを探索する三次元の対称エリアAsに対して、点群Pbpv,Pbpaを判別する三次元の奥側エリアAbを、走査空間30に設定する。このとき奥側エリアAbと対称エリアAsとは、透過許容の反射体Or(具体的には仮想面Fv)に関する面対称の位置関係となるように、実質同一サイズに想定される。そこで、S107における認識ブロック110はさらに、奥側エリアAbと対称エリアAsとを、それぞれ複数ずつの三次元ボクセル300に分割する。これら各ボクセル300は、走査空間30に割り当てられる三次元絶対座標軸に沿って六辺を有した、立方体又は直方体の三次元格子状空間に定義される。以下では、奥側エリアAbの各ボクセル300をそれぞれ奥側ボクセル300bと称する一方、対称エリアAsの各ボクセル300をそれぞれ対称ボクセル300sと称する。
 S107における認識ブロック110は、面対称関係のボクセル300b,300s同士を対比する。このときの対比は、奥側点群Pbとして透過許容点群Pbpが属する奥側ボクセル300bと、対称点群Psが探索される対称ボクセル300sとの、各々における走査点群同士での点群分布の類似度に基づく。そこで奥側ボクセル300bと対称ボクセル300sとの類似度は、例えばICP(Iterative Closest Point)アルゴリズム、マハラノビス距離、及びSHOT(Signature of Histograms of OrienTations)特徴量等のうち、少なくとも一種類を用いて演算される。
 このようなS107では、奥側ボクセル300bと対称ボクセル300sとの類似度が許容範囲内に収まる、即ちそれらボクセル300b,300sが許容範囲内にて類似すると判断される場合、図7,9,12の如く透過許容点群Pbpは対称点群Psの存在する虚像点群Pbpvと判別される。一方、奥側ボクセル300bと対称ボクセル300sとの類似度が許容範囲から外れる、即ちそれらボクセル300b,300sが非類似と判断される場合、図8,10,11の如く透過許容点群Pbpは対称点群Psの存在しない実像点群Pbpaと判別される。
 S107における認識ブロック110は、対称ボクセル300sとは類似と判断された奥側ボクセル300bに属する透過許容点群Pbpに対して、さらにデータ分析を実行することで、点群Pbpv,Pbpaの判別精度を高めてもよい。このときのデータ分析は、例えば点間の距離、及び各点の法線方向等に基づくクラスタリング処理後において、同一クラスタに対する拡張カルマンフィルタを用いてのトラッキング処理により速度及び進行方向を推定する。こうしたデータ分析結果から認識ブロック110は、図13に示すようにホスト車両2の走行速度に応じて注目する相対速度(以下、単に注目相対速度という)にてホスト車両2と逆方向に移動する透過許容点群Pbpを、真の虚像点群Pbpvに認定する。これに対して認識ブロック110は、注目相対速度を外れてホスト車両2と逆方向に移動する透過許容点群Pbp、及びホスト車両2と同方向に移動する透過許容点群Pbpを、いずれも偽の虚像点群Pbpvとして実像点群Pbpaに認定する。
 ここで、点群Pbpv,Pbpaの判別基準となる注目相対速度は、内界センサ41としての速度センサによるホスト車両2の走行速度と、トラッキング処理による透過許容点群Pbpの推定速度との、速度差に定義される。そこで、ホスト車両2とは逆方向移動の注目相対速度が速度閾値未満又は速度閾値以下となる透過許容点群Pbpが、虚像点群Pbpvと判別される。
 S107における認識ブロック110は、図4に示すようにS102によって特定された奥側点群Pbが虚像点群Pbpv及び実像点群Pbpaのうち、いずれであるかを判定する。その結果、虚像点群Pbpvとの判定が下された場合には、認識フローがS108へ移行することで認識ブロック110は、図7に示すように虚像Ivの走査点群と判断される虚像点群Pbpvを、ターゲット移動体Otの認識対象から除外する。一方、図4に示すように実像点群Pbpaとの判定が下された場合には、認識フローがS109へ移行することで認識ブロック110は、図8に示すように実像Iaの走査点群と判断される実像点群Pbpaを、ターゲット移動体Otの認識対象として抽出する。
 S104,S106,S108,S109のいずれの実行後においても認識フローは、S110へ移行する。S101,S102において、それぞれ否定判定が下された場合にも、認識フローはS110へ移行する。S110において認識ブロック110は、透過制限点群Pbl、準透過制限点群Pbpl、及び虚像点群Pbpvのうち直前ステップにおいて認識対象外と判断された奥側点群Pbを、走査データDsにおける認識対象からは除外して、認識処理を実行する。このとき認識処理には、例えばPoint Pillars等の機械学習モデル、又はマップデータDmとの背景差分法等が、用いられる。
 S110における認識ブロック110は、こうした認識処理による結果を表した認識データDrを、生成する。このとき、直前ステップのS109によって実像点群Pbpaが認識対象と判断された場合には、当該実像点群Pbpaの表すターゲット移動体Otを認識した認識データDrが、生成される。S110における認識ブロック110はさらに、生成された認識データDrを、図3に示すメモリ10の認識記憶領域10rに記憶する。記憶された認識データDrは、例えばホスト車両2の運転制御等に利用される。
 S110における認識ブロック110は、生成又は記憶された認識データDrを、ホスト車両2において情報提示系6により表示させるために、当該表示を制御してもよい。このとき表示される認識データDrでは、認識対象外の奥側点群Pbが非表示に制御されてもよいし、認識対象外の奥側点群Pbが例えば「虚像」等の注意表記と共に表示されてもよい。S110における認識ブロック110は、生成又は記憶された認識データDrを、通信系5によりホスト車両2から外部(例えば外部センタ若しくは他車両等)へと送信するように、当該送信を制御してもよい。以上により、認識フローの今回実行が終了する。
 (作用効果)
 以上説明した第一実施形態の作用効果を、以下に説明する。
 第一実施形態では、照射光に対する反射特性が高反射側の注目範囲にある反射体Orを走査した走査デバイス3の走査方向ψsにおいて、反射体Orよりも奥側位置の走査点群として奥側点群Pbを内包する走査データDsが、取得される。そこで第一実施形態によると、走査データDsにおいてターゲット移動体Otの認識対象とする奥側点群Pbから、反射体Orよりも奥側位置に虚像Ivを現出させる実像Iaの走査点群として反射体Orに関する当該奥側位置との対称エリアAsに対称点群Psが、存在する奥側点群Pbを除外して認識データDrは生成される。これによれば、反射体Orの奥側位置に対称点群Psの虚像Ivとして観測された奥側点群Pbは、ターゲット移動体Otの認識対象から除外され得る一方、反射体Orの奥側位置に実像Iaとして観測された奥側点群Pbは、ターゲット移動体Otとして適正に認識され得る。故に、虚像Ivの発生に起因する誤認識を抑制して、ターゲット移動体Otの認識精度を高めることが可能となる。
 第一実施形態によると、走査空間30に存在する物体を識別するためにマップデータDmに内包される情報としてメモリ10から読み出された、識別情報σiに基づき特定される反射体Orの奥側位置に、奥側点群Pbを内包する走査データDsが取得される。これによれば、対称点群Psの反射体Orによる虚像Ivとして観測された奥側点群Pbの候補を、識別情報σiを基に適正に絞り込んでおくことができる。故に、虚像Ivの発生に起因する誤認識の抑制に必要な処理を可及的に高速化しつつ、ターゲット移動体Otの認識精度を高めることが可能となる。
 第一実施形態によると、照射光の透過を許容する光学特性を識別情報σiが表す反射体Orよりも奥側位置との対称エリアAsに対称点群Psが存在する奥側点群Pbは、認識対象から除外される。これによれば、対称点群Psの虚像Ivとして反射体Orの奥側位置に観測された奥側点群Pbは、反射体Orによる照射光の透過許容状況では、対称点群Psの探索に応じてターゲット移動体Otの認識対象から除外され得る。故に、虚像Ivの発生に起因する誤認識を抑制して、ターゲット移動体Otの認識精度を高めることが可能となる。
 第一実施形態によると、照射光の透過を許容する光学特性を識別情報σiが表す反射体Orよりも奥側位置且つ照射光の透過を制限する光学特性を識別情報σiが表す定点物体Olよりも奥側位置の奥側点群Pbは、認識対象から除外される。これによれば、対称点群Psの虚像Ivとして反射体Orの奥側位置に観測された奥側点群Pbは、反射体Orによる照射光の透過許容状況であっても、照射光の透過を制限する定点物体Olの識別に応じてターゲット移動体Otの認識対象から除外され得る。故に、虚像Ivの発生に起因する誤認識の抑制に必要な処理を可及的に高速化しつつ、ターゲット移動体Otの認識精度を高めることが可能となる。
 第一実施形態によると、照射光の透過を制限する光学特性を識別情報σiが表す反射体Orよりも奥側位置の奥側点群Pbは、認識対象から除外される。これによれば、対称点群Psの虚像Ivとして反射体Orの奥側位置に観測された奥側点群Pbは、照射光の透過を制限する反射体Orの識別に応じてターゲット移動体Otの認識対象から除外され得る。故に、虚像Ivの発生に起因する誤認識の抑制に必要な処理を可及的に高速化しつつ、ターゲット移動体Otの認識精度を高めることが可能となる。
 第一実施形態では、走査空間30を分割した複数の三次元ボクセル300として、奥側点群Pbの属する奥側ボクセル300b、及び対称点群Psが探索される対称ボクセル300sが定義される。そこで第一実施形態によると、点群分布が許容範囲内にて対称ボクセル300sと類似した奥側ボクセル300bに属する奥側点群Pbが、認識対象からは除外される。これによれば、反射体Orによる対称点群Psの虚像Ivを観測した奥側点群Pbを、ボクセル300b,300sという局所範囲での点群分布の類似度を基に正確に特定することができる。故に、虚像Ivの発生に起因する誤認識の抑制における信頼性、ひいてはターゲット移動体Otの高精度認識に対する信頼性を、高めることが可能となる。
 第一実施形態によると、ホスト車両2の走行速度に応じた相対速度にてホスト車両2と逆方向に移動する奥側点群Pbが、認識対象から除外される。これによれば、反射体Orによる対称点群Psの虚像Ivを観測した奥側点群Pbを、ホスト車両2に対する奥側点群Pbの相対速度及び移動方向を基に、正確に特定することができる。故に、虚像Ivの発生に起因する誤認識の抑制における信頼性、ひいてはターゲット移動体Otの高精度認識に対する信頼性を、高めることが可能となる。
 (第二実施形態)
 第二実施形態は、第一実施形態の変形例である。
 図14に示すように第二実施形態の認識フローでは、S105により否定判定が下されると、S2107へ移行する。S2107において認識ブロック110は、照射光の透過を許容する光学特性を識別情報σi(第一実施形態の図3参照)が表す反射体Orよりも奥側位置の透過許容点群Pbpとして、空中点群Pbpxを探索する。このとき空中点群Pbpxは、第二実施形態ではマップデータDmに内包される識別情報σiのうち、図15に示すように反射体Orよりも奥側位置に存在する空中エリアAxの三次元位置座標を識別するための情報に基づき、探索される。換言すれば、探索される空中点群Pbpxは、実像Iaに対する虚像Ivの走査点群として、反射体Orよりも奥側位置のうち識別情報σiが表す空中エリアAxに存在する奥側点群Pbに、定義される。
 図14に示すように、S2107において肯定判定が下された場合、第二実施形態では認識フローがS2108へ移行することで、認識ブロック110が空中点群Pbpxをターゲット移動体Otの認識対象から除外した後、S110が実行される。一方、S2107において否定判定が下された場合には、認識フローがS107へ移行することで、準透過制限点群Pbplと空中点群Pbpxとを除く透過許容点群Pbpが、第一実施形態と同様に虚像点群Pbpv及び実像点群Pbpaのいずれかとして、判別される。
 このように第二実施形態によると、反射体Orよりも奥側位置のうち、識別情報σiが表す空中エリアAxに存在する奥側点群Pbは、認識対象から除外される。これによれば、対称点群Psの虚像Ivとして反射体Orの奥側位置に観測されることになった奥側点群Pbは、空中エリアAxにおける存在箇所の識別に応じてターゲット移動体Otの認識対象から除外され得る。故に、虚像Ivの発生に起因する誤認識を抑制して、ターゲット移動体Otの認識精度を高めることが可能となる。
 (第三実施形態)
 第三実施形態は、第一実施形態の変形例である。
 図16に示すように第三実施形態の認識フローでは、S100,S107にそれぞれ代わるS3100,S3107が実行される。具体的にS3100において走査ブロック100は、照射光に対する走査空間30からの反射エコーErを、走査デバイス3における複数の画素毎に受光することで、走査データDsを取得する。このとき各画素毎では、図17に示すように閾値Rtを超える強度の反射エコーErとして、走査デバイス3における各画素毎に少なくとも一エコーが受光されると、走査点群の状態値がデジタルデータ化されてメモリ10に記憶される。
 そこで第三実施形態の各画素毎では、受光された反射エコーErのうち、最大強度Rmの反射エコーErmと対応する状態値が三次元距離及び/又は三次元位置座標である走査点群を内包する走査データDsとして、最大強度走査データDsmが定義される。それと共に第三実施形態の各画素毎では、受光された全ての強度の反射エコーErとそれぞれ対応する状態値が三次元距離及び/又は三次元位置座標である走査点群を内包する走査データDsとして、全強度走査データDsaが定義される。
 これらの定義の下、図16に示すS3100では、それに後続するS101~S103,S105,S110の各処理によって用いられるように、最大強度走査データDsmが走査ブロック100によって取得される。一方で全強度走査データDsaは、S3107の処理によって用いられるようにS3100(図16はこちらの例)、又はS3107において走査ブロック100により取得される。但し、S3107において虚像点群Pbpvの判別前に取得されることとなる場合の全強度走査データDsaは、全画素領域での状態値の点群データとして取得されてもよいし、後述の如く比較されるボクセル300s,300bを含んだ一部画素領域での状態値の点群データとして取得されてもよい。
 さらにS3107において認識ブロック110は、図18に示す最大強度走査データDsmでの準透過制限点群Pbplを除いた透過許容点群Pbpに代えて、図19に示す全強度走査データDsaでの準透過制限点群Pbplを除いた透過許容点群Pbpを、虚像点群Pbpv及び実像点群Pbpaの判別対象とする。そこでS3107における認識ブロック110は、全強度走査データDsaにおける準透過制限点群Pbpl以外の透過許容点群Pbのうち、第一実施形態に準じて点群分布が許容範囲内で対称ボクセル300sと類似した奥側ボクセル300bに属する虚像点群Pbpvを、探索する。その結果、図16に示すように認識フローがS3107からS108へと移行することで、判別された虚像点群Pbpvがターゲット移動体Otの認識対象から除外される。
 ここまで説明した第三実施形態によると、照射光に対する走査空間30からの反射エコーErは、走査デバイス3における複数の画素毎に受光される。そこで、各画素毎に受光された最大強度Rmの反射エコーErと対応する走査点群が内包される最大強度走査データDsmにおいて、奥側点群Pbに対する対称点群Psが存在する場合には、さらに全強度走査データDsaが利用される。ここで具体的には、各画素毎に受光された全ての強度の反射エコーErとそれぞれ対応する走査点群が内包される全強度走査データDsaにおいて、点群分布が許容範囲内にて対称ボクセル300sと類似した奥側ボクセル300bに属する奥側点群Pbが、認識対象から除外される。
 このような第三実施形態によれば、反射体Orによる対称点群Psの虚像Ivを観測した奥側点群Pbとして、特に奥側ボクセル300bに収まる点群数を、全強度の反射エコー数に応じて増大させることができる。故に、ボクセル300b,300s間での点群分布同士の類似度に基づくことで、虚像Ivを観測した奥側点群Pbの判別精度が高められ得る。以上より、虚像Ivの発生に起因する誤認識の抑制における高信頼性、ひいてはターゲット移動体Otの高精度認識に対する高信頼性を、担保することが可能となる。
 さらに第三実施形態によると、照射光の透過を制限する光学特性の物体Or,Olよりも奥側位置の奥側点群Pbは、全強度走査データDsよりは点群数の抑えられる最大強度走査データDsmにおいて短時間に、識別情報σiに基づく高い判別精度にて探索され得る。一方で最大強度走査データDsmにおいて、照射光の透過を許容する光学特性の反射体Orよりも奥側位置の奥側点群Pbに対して対称点群Psが存在する場合には、さらに全強度走査データDsaが利用される。ここで具体的には、点群分布が許容範囲内にて対称ボクセル300sと類似した奥側ボクセル300bに属する奥側点群Pbは、最大強度走査データDsmよりも点群数の確保された全強度走査データDsaにおいて、高い判別精度にて探索され得る。以上によれば、処理の高速化と共に、虚像Ivの発生に起因する誤認識の抑制における高信頼性、ひいてはターゲット移動体Otの高精度認識に対する高信頼性を、担保することが可能となる。
 (他の実施形態)
 以上、複数の実施形態について説明したが、本開示は、それらの実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態に適用することができる。
 変形例において認識システム1を構成する専用コンピュータは、デジタル回路及びアナログ回路のうち、少なくとも一方をプロセッサとして有していてもよい。ここでデジタル回路とは、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、SOC(System on a Chip)、PGA(Programmable Gate Array)、及びCPLD(Complex Programmable Logic Device)等のうち、少なくとも一種類である。またこうしたデジタル回路は、プログラムを記憶したメモリを、有していてもよい。
 変形例においてS103,S104の組、及びS105,S106の組のうち、少なくとも一方は省かれてもよい。変形例においてS103~S109,S2107,S2108,S3107は、S101により識別される複数反射体Orの走査方向ψs毎に、それぞれ独立して実行されてもよい。変形例においてS101による反射体Orの識別は、マップデータDmに基づくことに代えて又は加えて、過去の走査データDsに基づき実現されてもよい。
 変形例において第二実施形態のS2107,S2108は、図20に示すように、第三実施形態に対して適用されてもよい。変形例において第二実施形態の認識フローは、図21に示すように、S102の肯定判定に続いて実行されるS2107により否定判定が下された場合に、S103へ移行してもよい。但し、このS102での肯定判定に続くS2107では、反射体Orよりも奥側位置の走査点群として、後続する各S103,S105,S107での探索対象の点群Pbl,Pbpl,Pbpv,Pbpaが未探索状態にある奥側点群Pbの中から、識別情報σiの表している空中エリアAxに存在の空中点群Pbxが探索されることで、S2108にて当該空中点群Pbxが認識対象から除外されるとよい。
 変形例において認識システム1の適用されるホスト車両2は、例えば自律走行又はリモート走行により荷物搬送若しくは情報収集等の可能な自律走行ロボットであってもよい。ここまでの説明形態の他に上述の実施形態及び変形例は、ホスト車両2に搭載可能に構成されてプロセッサ12及びメモリ10を少なくとも一つずつ有する制御装置として、処理回路(例えば処理ECU等)又は半導体装置(例えば半導体チップ等)の形態で実施されてもよい。
 (付言)
 本明細書には、以下に列挙する複数の技術的思想と、それらの複数の組み合わせが開示されている。
 (技術的思想1)
 プロセッサ(12)を有し、ホスト車両(2)において走査デバイス(3)からの照射光により走査された走査空間(30)を移動可能なターゲット移動体(Ot)を、認識する認識システムであって、
 プロセッサは、
 照射光に対する反射特性が高反射側の注目範囲にある反射体(Or)を走査した走査方向(ψs)において、反射体よりも奥側位置の走査点群として奥側点群(Pb)を内包する走査データ(Ds)を、取得することと、
 走査データにおいてターゲット移動体の認識対象とする奥側点群から、反射体よりも奥側位置に虚像(Iv)を現出させる実像(Ia)の走査点群として反射体に関する当該奥側位置との対称エリア(As)に対称点群(Ps)が、存在する奥側点群を除外して認識データ(Dr)を生成することとを、実行するように構成される認識システム。
 (技術的思想2)
 走査空間に存在する物体を識別するための識別情報(σi)を、内包するマップデータ(Dm)を記憶する記憶媒体(10)を、有し、
 走査データの取得は、
 記憶媒体から読み出された識別情報に基づき識別される反射体よりも奥側位置の奥側点群を、内包する走査データを取得することを、含む技術的思想1に記載の認識システム。
 (技術的思想3)
 認識データの生成は、
 照射光の透過を許容する光学特性を識別情報が表す反射体よりも奥側位置との対称エリアに対称点群が存在する奥側点群を、認識対象から除外することを、含む技術的思想2に記載の認識システム。
 (技術的思想4)
 認識データの生成は、
 照射光の透過を許容する光学特性を識別情報が表す反射体よりも奥側位置且つ照射光の透過を制限する光学特性を識別情報が表す定点物体(Ol)よりも奥側位置の奥側点群を、認識対象から除外することを、含む技術的思想3に記載の認識システム。
 (技術的思想5)
 認識データの生成は、
 照射光の透過を制限する光学特性を識別情報が表す反射体よりも奥側位置の奥側点群を、認識対象から除外することを、含む技術的思想3又は4に記載の認識システム。
 (技術的思想6)
 前記認識データの生成は、
 前記反射体よりも奥側位置のうち前記識別情報が表す空中エリア(Ax)に存在する前記奥側点群を、前記認識対象から除外することを、含む技術的思想2~5のいずれか一項に記載の認識システム。
 (技術的思想7)
 認識データの生成は、
 走査空間を分割した複数の三次元ボクセルとして、奥側点群の属する奥側ボクセル(300b)、及び対称点群の探索される対称ボクセル(300s)を定義すると、点群分布が許容範囲内にて対称ボクセルと類似した奥側ボクセルに属する奥側点群を、認識対象から除外することを、含む技術的思想1~6のいずれか一項に記載の認識システム。
 (技術的思想8)
 前記走査データの取得は、
 前記照射光に対する前記走査空間からの反射エコー(Er)を、前記走査デバイスにおける複数の画素毎に受光することと、
 各前記画素毎に受光された最大強度の前記反射エコーと対応する前記走査点群を、内包する前記走査データとしての最大強度走査データ(Dsm)を取得することと、
 各前記画素毎に受光された全ての強度の前記反射エコーとそれぞれ対応する前記走査点群を、内包する前記走査データとしての全強度走査データ(Dsa)を取得することとを、含み、
 前記認識データの生成は、
 前記最大強度走査データにおいて前記奥側点群に対する前記対称点群が存在する場合に、前記全強度走査データにおける点群分布が許容範囲内にて前記対称ボクセルと類似した前記奥側ボクセルに属する前記奥側点群を、前記認識対象から除外することを、含む技術的思想7に記載の認識システム。
 (技術的思想9)
 前記認識データの生成は、
 前記最大強度走査データにおいて前記照射光の透過を制限する光学特性の物体(Or,Ol)よりも奥側位置の前記奥側点群を探索して、前記認識対象から除外することと、
 前記最大強度走査データにおいて前記照射光の透過を許容する光学特性の前記反射体よりも奥側位置の前記奥側点群に対して前記対称点群が存在する場合に、前記全強度走査データにおける点群分布が許容範囲内にて前記対称ボクセルと類似した前記奥側ボクセルに属する前記奥側点群を探索して、前記認識対象から除外することを、含む技術的思想8に記載の認識システム。
 (技術的思想10)
 認識データの生成は、
 ホスト車両の走行速度に応じた相対速度にてホスト車両と逆方向に移動する奥側点群を、認識対象から除外することを、含む技術的思想1~9のいずれか一項に記載の認識システム。
 (技術的思想11)
 認識データの生成は、
 ホスト車両における記憶媒体(10)へ認識データを記憶することを、含む技術的思想1~10のいずれか一項に記載の認識システム。
 (技術的思想12)
 認識データの生成は、
 ホスト車両における認識データの表示を制御することを、含む技術的思想1~11のいずれか一項に記載の認識システム。
 (技術的思想13)
 認識データの生成は、
 ホスト車両からの認識データの送信を制御することを、含む技術的思想1~12のいずれか一項に記載の認識システム。
 尚、上述した技術的思想1~13は、認識装置、認識方法、認識プログラム、及び認識データ生成方法の各形態で実現されてもよい。

Claims (17)

  1.  プロセッサ(12)を有し、ホスト車両(2)において走査デバイス(3)からの照射光により走査された走査空間(30)を移動可能なターゲット移動体(Ot)を、認識する認識システムであって、
     前記プロセッサは、
     前記照射光に対する反射特性が高反射側の注目範囲にある反射体(Or)を走査した走査方向(ψs)において、前記反射体よりも奥側位置の走査点群として奥側点群(Pb)を内包する走査データ(Ds)を、取得することと、
     前記走査データにおいて前記ターゲット移動体の認識対象とする前記奥側点群から、前記反射体よりも奥側位置に虚像(Iv)を現出させる実像(Ia)の走査点群として前記反射体に関する当該奥側位置との対称エリア(As)に対称点群(Ps)が、存在する前記奥側点群を除外して認識データ(Dr)を生成することとを、実行するように構成される認識システム。
  2.  前記走査空間に存在する物体を識別するための識別情報(σi)を、内包するマップデータ(Dm)を記憶する記憶媒体(10)を、有し、
     前記走査データの取得は、
     前記記憶媒体から読み出された前記識別情報に基づき識別される前記反射体よりも奥側位置の前記奥側点群を、内包する前記走査データを取得することを、含む請求項1に記載の認識システム。
  3.  前記認識データの生成は、
     前記照射光の透過を許容する光学特性を前記識別情報が表す前記反射体よりも奥側位置との前記対称エリアに前記対称点群が存在する前記奥側点群を、前記認識対象から除外することを、含む請求項2に記載の認識システム。
  4.  前記認識データの生成は、
     前記照射光の透過を許容する光学特性を前記識別情報が表す前記反射体よりも奥側位置且つ前記照射光の透過を制限する光学特性を前記識別情報が表す定点物体(Ol)よりも奥側位置の前記奥側点群を、前記認識対象から除外することを、含む請求項3に記載の認識システム。
  5.  前記認識データの生成は、
     前記照射光の透過を制限する光学特性を前記識別情報が表す前記反射体よりも奥側位置の前記奥側点群を、前記認識対象から除外することを、含む請求項3に記載の認識システム。
  6.  前記認識データの生成は、
     前記反射体よりも奥側位置のうち前記識別情報が表す空中エリア(Ax)に存在する前記奥側点群を、前記認識対象から除外することを、含む請求項2に記載の認識システム。
  7.  前記認識データの生成は、
     前記走査空間を分割した複数の三次元ボクセルとして、前記奥側点群の属する奥側ボクセル(300b)、及び前記対称点群の探索される対称ボクセル(300s)を定義すると、点群分布が許容範囲内にて前記対称ボクセルと類似した前記奥側ボクセルに属する前記奥側点群を、前記認識対象から除外することを、含む請求項1~6のいずれか一項に記載の認識システム。
  8.  前記走査データの取得は、
     前記照射光に対する前記走査空間からの反射エコー(Er)を、前記走査デバイスにおける複数の画素毎に受光することと、
     各前記画素毎に受光された最大強度の前記反射エコーと対応する前記走査点群を、内包する前記走査データとしての最大強度走査データ(Dsm)を取得することと、
     各前記画素毎に受光された全ての強度の前記反射エコーとそれぞれ対応する前記走査点群を、内包する前記走査データとしての全強度走査データ(Dsa)を取得することとを、含み、
     前記認識データの生成は、
     前記最大強度走査データにおいて前記奥側点群に対する前記対称点群が存在する場合に、前記全強度走査データにおける点群分布が許容範囲内にて前記対称ボクセルと類似した前記奥側ボクセルに属する前記奥側点群を、前記認識対象から除外することを、含む請求項7に記載の認識システム。
  9.  前記認識データの生成は、
     前記最大強度走査データにおいて前記照射光の透過を制限する光学特性の物体(Or,Ol)よりも奥側位置の前記奥側点群を探索して、前記認識対象から除外することと、
     前記最大強度走査データにおいて前記照射光の透過を許容する光学特性の前記反射体よりも奥側位置の前記奥側点群に対して前記対称点群が存在する場合に、前記全強度走査データにおける点群分布が許容範囲内にて前記対称ボクセルと類似した前記奥側ボクセルに属する前記奥側点群を探索して、前記認識対象から除外することを、含む請求項8に記載の認識システム。
  10.  前記認識データの生成は、
     前記ホスト車両の走行速度に応じた相対速度にて前記ホスト車両と逆方向に移動する前記奥側点群を、前記認識対象から除外することを、含む請求項1~6のいずれか一項に記載の認識システム。
  11.  前記認識データの生成は、
     前記ホスト車両における記憶媒体(10)へ前記認識データを記憶することを、含む請求項1~6のいずれか一項に記載の認識システム。
  12.  前記認識データの生成は、
     前記ホスト車両における前記認識データの表示を制御することを、含む請求項1~6のいずれか一項に記載の認識システム。
  13.  前記認識データの生成は、
     前記ホスト車両からの前記認識データの送信を制御することを、含む請求項1~6のいずれか一項に記載の認識システム。
  14.  プロセッサ(12)を有し、ホスト車両(2)に搭載可能に構成され、前記ホスト車両において走査デバイス(3)からの照射光により走査された走査空間(30)を移動可能なターゲット移動体(Ot)を、認識する認識装置であって、
     前記プロセッサは、
     前記照射光に対する反射特性が高反射側の注目範囲にある反射体(Or)を走査した走査方向(ψs)において、前記反射体よりも奥側位置の走査点群として奥側点群(Pb)を内包する走査データ(Ds)を、取得することと、
     前記走査データにおいて前記ターゲット移動体の認識対象とする前記奥側点群から、前記反射体よりも奥側位置に虚像(Iv)を現出させる実像(Ia)の走査点群として前記反射体に関する当該奥側位置との対称エリア(As)に対称点群(Ps)が、存在する前記奥側点群を除外して認識データ(Dr)を生成することとを、実行するように構成される認識装置。
  15.  ホスト車両(2)において走査デバイス(3)からの照射光により走査された走査空間(30)を移動可能なターゲット移動体(Ot)を、認識するためにプロセッサ(12)により実行される認識方法であって、
     前記照射光に対する反射特性が高反射側の注目範囲にある反射体(Or)を走査した走査方向(ψs)において、前記反射体よりも奥側位置の走査点群として奥側点群(Pb)を内包する走査データ(Ds)を、取得することと、
     前記走査データにおいて前記ターゲット移動体の認識対象とする前記奥側点群から、前記反射体よりも奥側位置に虚像(Iv)を現出させる実像(Ia)の走査点群として前記反射体に関する当該奥側位置との対称エリア(As)に対称点群(Ps)が、存在する前記奥側点群を除外して認識データ(Dr)を生成することとを、含む認識方法。
  16.  ホスト車両(2)において走査デバイス(3)からの照射光により走査された走査空間(30)を移動可能なターゲット移動体(Ot)を、認識するために記憶媒体(10)に記憶され、プロセッサ(12)により実行される命令を含む認識プログラムであって、
     前記命令は、
     前記照射光に対する反射特性が高反射側の注目範囲にある反射体(Or)を走査した走査方向(ψs)において、前記反射体よりも奥側位置の走査点群として奥側点群(Pb)を内包する走査データ(Ds)を、取得させることと、
     前記走査データにおいて前記ターゲット移動体の認識対象とする前記奥側点群から、前記反射体よりも奥側位置に虚像(Iv)を現出させる実像(Ia)の走査点群として前記反射体に関する当該奥側位置との対称エリア(As)に対称点群(Ps)が、存在する前記奥側点群を除外して認識データ(Dr)を生成させることとを、含む認識プログラム。
  17.  ホスト車両(2)において走査デバイス(3)からの照射光により走査された走査空間(30)を移動可能なターゲット移動体(Ot)を、認識して認識データ(Dr)を生成するためにプロセッサ(12)により実行される認識データ生成方法であって、
     前記照射光に対する反射特性が高反射側の注目範囲にある反射体(Or)を走査した走査方向(ψs)において、前記反射体よりも奥側位置の走査点群として奥側点群(Pb)を内包する走査データ(Ds)を、取得することと、
     前記走査データにおいて前記ターゲット移動体の認識対象とする前記奥側点群から、前記反射体よりも奥側位置に虚像(Iv)を現出させる実像(Ia)の走査点群として前記反射体に関する当該奥側位置との対称エリア(As)に対称点群(Ps)が、存在する前記奥側点群を除外して前記認識データを生成することとを、含む認識データ生成方法。
PCT/JP2023/011006 2022-05-19 2023-03-20 認識システム、認識装置、認識方法、認識プログラム、認識データ生成方法 WO2023223659A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2022-082484 2022-05-19
JP2022082484 2022-05-19
JP2023038950A JP2023171241A (ja) 2022-05-19 2023-03-13 認識システム、認識装置、認識方法、認識プログラム、認識データ生成方法
JP2023-038950 2023-03-13

Publications (1)

Publication Number Publication Date
WO2023223659A1 true WO2023223659A1 (ja) 2023-11-23

Family

ID=88835292

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/011006 WO2023223659A1 (ja) 2022-05-19 2023-03-20 認識システム、認識装置、認識方法、認識プログラム、認識データ生成方法

Country Status (1)

Country Link
WO (1) WO2023223659A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015230566A (ja) * 2014-06-04 2015-12-21 トヨタ自動車株式会社 運転支援装置
JP2018165654A (ja) * 2017-03-28 2018-10-25 沖電気工業株式会社 走行路情報推定装置および走行路情報推定方法
WO2021241540A1 (ja) * 2020-05-29 2021-12-02 パナソニックIpマネジメント株式会社 レーダ装置及びレーダシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015230566A (ja) * 2014-06-04 2015-12-21 トヨタ自動車株式会社 運転支援装置
JP2018165654A (ja) * 2017-03-28 2018-10-25 沖電気工業株式会社 走行路情報推定装置および走行路情報推定方法
WO2021241540A1 (ja) * 2020-05-29 2021-12-02 パナソニックIpマネジメント株式会社 レーダ装置及びレーダシステム

Similar Documents

Publication Publication Date Title
CA3028659C (en) Systems and methods for identifying and positioning objects around a vehicle
US11860640B2 (en) Signal processing device and signal processing method, program, and mobile body
US10671860B2 (en) Providing information-rich map semantics to navigation metric map
CN113496290A (zh) 使用采用模拟对象增强的图像训练机器学习模型
GB2558716A (en) Road sign recognition
JP2019045892A (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
WO2019026715A1 (ja) 制御装置、および制御方法、プログラム、並びに移動体
WO2019026714A1 (ja) 情報処理装置、および情報処理方法、プログラム、並びに移動体
CN113168691A (zh) 信息处理装置、信息处理方法、程序、移动体控制装置和移动体
JP2020016541A (ja) 車両用表示制御装置、車両用表示制御方法、及び制御プログラム
CN113743171A (zh) 目标检测方法及装置
CN115136148A (zh) 投影使用鱼眼镜头捕获的图像用于自主机器应用中的特征检测
CN116710961A (zh) 使用图形切割进行地面分割的方法和系统
JP2020125033A (ja) 表示制御装置および表示制御プログラム
WO2023223659A1 (ja) 認識システム、認識装置、認識方法、認識プログラム、認識データ生成方法
CN112105956A (zh) 用于自动驾驶的系统和方法
US20240151855A1 (en) Lidar-based object tracking
JP2023171241A (ja) 認識システム、認識装置、認識方法、認識プログラム、認識データ生成方法
CN115991207A (zh) 驾驶应用中真标志和图像标志检测的识别
Li et al. Composition and application of current advanced driving assistance system: A review
WO2023157394A1 (ja) 認識システム、認識装置、認識方法、認識プログラム
US20230260254A1 (en) Information processing device, information processing method, and program
JP2023118655A (ja) 認識システム、認識装置、認識方法、認識プログラム
JP7444136B2 (ja) 物体認識システム、物体認識方法、物体認識プログラム
JP2021047609A (ja) 周辺認識装置、周辺認識方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23807274

Country of ref document: EP

Kind code of ref document: A1