WO2024005063A1 - 物体追跡装置 - Google Patents

物体追跡装置 Download PDF

Info

Publication number
WO2024005063A1
WO2024005063A1 PCT/JP2023/023958 JP2023023958W WO2024005063A1 WO 2024005063 A1 WO2024005063 A1 WO 2024005063A1 JP 2023023958 W JP2023023958 W JP 2023023958W WO 2024005063 A1 WO2024005063 A1 WO 2024005063A1
Authority
WO
WIPO (PCT)
Prior art keywords
point
observation
predicted
target
tracking device
Prior art date
Application number
PCT/JP2023/023958
Other languages
English (en)
French (fr)
Inventor
雅樹 米田
高志 小川
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2024005063A1 publication Critical patent/WO2024005063A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles

Definitions

  • the present disclosure relates to technology for tracking objects such as vehicles.
  • EOT Extended object tracking
  • Patent Document 1 As a countermeasure for this, for example, a technique described in Patent Document 1 below has been proposed. As shown in the lower part of Figure 17, this technology defines the probability of an observation point as a likelihood function based on the state distribution of the tracked target predicted at a certain time, and the likelihood function is calculated according to the number of observation points. This is a technique that suppresses deterioration in tracking accuracy and tracking failures due to sparse observation information by updating the state distribution after correcting (that is, adjusting the weights).
  • Patent Document 1 discloses that a prediction distribution that can be taken by a particle filter is changed to deal with the occurrence of a prediction error. In other words, it is described that improving tracking performance (for example, improving tracking loss, etc.) is achieved by generating a plurality of hypotheses for predicted state distribution.
  • Patent Document 1 As a result of detailed study by the inventor, the following problems were discovered with respect to the conventional technology. Specifically, the technique described in Patent Document 1 generates a plurality of hypotheses for the predicted state distribution, so there is a problem in that the computational load for this increases.
  • the number of hypotheses that can be generated is limited due to the limited amount of calculation, so there is a limit to the range of prediction deviations that can be accommodated, making it difficult to perform highly accurate tracking. It's not easy to do.
  • the state vector indicating the state quantity of the target becomes high-dimensional, there is a problem that the range of prediction deviation becomes significantly narrower.
  • One aspect of the present disclosure provides a technique that can accurately track an object and reduce the calculation load when tracking the object.
  • One aspect of the present disclosure is an object tracking device (1) that senses the surrounding environment in a predetermined cycle using a sensor (5) and tracks an object (3) that is a target based on information obtained by the sensing. ) regarding.
  • the object tracking device includes a tracking processing section (9).
  • the tracking processing unit is configured to estimate a state quantity indicating the state of the object in the current cycle using information of observation points indicating the object obtained by the sensor, and at least the state quantity of the object is estimated as the state quantity of the object. State quantities related to the position and shape of the object are used.
  • the tracking processing section (9) includes an observation point extraction section (31), a predicted point generation section (33), a position alignment section (35), a residual calculation section (37), and a state update section (39).
  • the tracking processing unit is configured to estimate a state quantity indicating the state of the object in the current cycle using information on an observation point indicating the object obtained by the sensor.
  • the observation point extraction unit is configured to extract observation points obtained from the object in the current cycle based on the state quantity of the object estimated in the previous cycle (that is, the cycle immediately before the current cycle). Note that in the case of the initial cycle, the configuration may be such that all obtained observation points are extracted.
  • the predicted point generation unit is configured to generate at least one predicted point at a predicted position where an observation point can be expected, based on the state quantity of the object estimated in the previous cycle.
  • the alignment unit is configured to align the observation point obtained from the object in the current cycle and the predicted point generated by the predicted point generation unit by scan matching.
  • the residual calculation unit calculates the corresponding point of the object at the predicted position corresponding to the observation point from the observation point obtained from the current cycle and the predicted point aligned, and calculates the residual difference between the observation point and the corresponding point. is configured to calculate.
  • the state updating section is configured to update the state quantity of the object based on the residual calculated by the residual calculating section.
  • the object calculations for tracking can be performed efficiently. Therefore, the calculation load when tracking an object can be reduced, and the object can be tracked suitably.
  • FIG. 1 is a block diagram showing the overall configuration of an object tracking device according to a first embodiment.
  • FIG. 1 is a block diagram functionally showing an object tracking device according to a first embodiment. It is a flowchart which shows the control process of the object tracking device of 1st Embodiment.
  • 4 is an explanatory diagram showing the procedure in S100 of FIG. 3 among the object tracking procedures of the first embodiment.
  • FIG. 4 is an explanatory diagram showing the procedure in S110 of FIG. 3 among the object tracking procedures of the first embodiment.
  • FIG. 4 is an explanatory diagram showing the procedure in S120 of FIG. 3 among the object tracking procedures of the first embodiment.
  • FIG. 4 is an explanatory diagram showing the procedure in S130 of FIG. 3 among the object tracking procedures of the first embodiment.
  • FIG. 4 is an explanatory diagram showing the procedure in S140 of FIG. 3 among the object tracking procedures of the first embodiment.
  • FIG. FIG. 3 is an explanatory diagram showing a scan matching method.
  • 4 is an explanatory diagram showing the procedure in S150 of FIG. 3 among the object tracking procedures of the first embodiment.
  • FIG. 4 is an explanatory diagram showing the procedure in S160 of FIG. 3 among the object tracking procedures of the first embodiment.
  • FIG. FIG. 3 is an explanatory diagram showing a method of calculating a residual vector.
  • FIG. 3 is an explanatory diagram showing a method of updating state quantities.
  • FIG. 14A is an explanatory diagram showing a scan matching method for object tracking according to the second embodiment
  • FIG. 14B is an explanatory diagram showing an unfavorable scan matching method.
  • FIG. 14A is an explanatory diagram showing a scan matching method for object tracking according to the second embodiment
  • FIG. 14B is an explanatory diagram showing an unfavorable scan matching method.
  • FIG. 12 is an explanatory diagram showing a state in which the spread of observation points is small in the object tracking procedure of the third embodiment.
  • FIG. 7 is an explanatory diagram showing the relationship between the area of a rectangle and the covariance of observation points in the object tracking procedure of the third embodiment.
  • FIG. 2 is an explanatory diagram of a prior art.
  • an object tracking device mounted on a vehicle eg, own vehicle
  • a vehicle eg, own vehicle
  • an example is an object tracking device that uses a sensor to scan (i.e., sense) the surrounding environment around its own vehicle in a predetermined cycle, and then tracks a target object based on the information obtained through the sensing. List and explain.
  • an object tracking device 1 is a device that is mounted on a vehicle (eg, own vehicle) and tracks objects (ie, targets) 3 such as other vehicles around the own vehicle.
  • a vehicle eg, own vehicle
  • objects ie, targets
  • the object tracking device 1 is a device that realizes EOT, which recognizes a spread target 3 and performs tracking processing of the target 3 from at least one observation point where the target 3 is observed, as will be described in detail later. .
  • a vehicle such as a car is used as an example of the target 3, but other moving objects such as a motorbike or a pedestrian can also be used. Also included are stationary objects having a certain shape.
  • the object tracking device 1 includes a surrounding sensor that senses the surroundings of the own vehicle, such as a range sensor 5, a behavior sensor group 7 that detects the state of the own vehicle, and a tracking processing unit that performs processing for tracking the target 3. Equipped with 9th grade.
  • Examples of the ranging sensor 5 include various types of sensors that can obtain information regarding the position of the target 3, such as the distance between the object tracking device 1 and the target 3, and the direction of the target 3 with respect to the object tracking device 1.
  • Examples include at least one of the well-known radar, lidar, sonar, stereo camera, and monocular camera. Note that as the sensor, one that can observe three-dimensional information (x, y, z) indicating a position in space, or one that can observe Doppler velocity or signal intensity can also be adopted.
  • the ranging sensor 5 performs sensing of the target 3 (i.e., scanning and detecting with a radar etc.) and observation of a reflection point group indicating the portion reflected by the target 3 at a predetermined time interval (i.e., a predetermined time interval). cycle). Then, as will be described later, in the tracking processing unit 9, the reflection point group is recognized by the ranging sensor 5 at a specific time k as at least one observation point with respect to the target 3 at the same time k.
  • the behavior sensor group 7 various sensors capable of detecting behavior such as the amount of movement of the own vehicle, such as an inertial measurement unit (i.e., IMU) or odometry, can be employed.
  • IMU inertial measurement unit
  • Examples of the information detected by the behavior sensor group 7 include the amount of accelerator pedal operation, the amount of brake pedal operation, steering angle, vehicle speed, and vehicle acceleration.
  • the tracking processing unit 9 is an electronic control device mainly composed of a microcomputer, which includes a control unit 11 that performs various processes such as tracking the target 3, and a storage unit 13 that stores various data and programs. It is.
  • control unit 11 includes a well-known processor (for example, CPU 11a), and the storage unit 13 includes, for example, a semiconductor memory such as RAM or ROM (hereinafter referred to as memory 13a).
  • CPU 11a a well-known processor
  • storage unit 13 includes, for example, a semiconductor memory such as RAM or ROM (hereinafter referred to as memory 13a).
  • control unit 11 The functions of the control unit 11 are realized by the CPU 11a executing a program stored in a non-transitional physical recording medium (ie, the memory 13a). Also, by executing this program, a method corresponding to the program is executed.
  • control unit 11 the method for realizing the various functions of the control unit 11 is not limited to software, and some or all of the elements may be realized using one or more pieces of hardware.
  • the electronic circuit may be realized by a digital circuit including a large number of logic circuits, an analog circuit, or a combination thereof.
  • control unit 11 is a part that performs arithmetic processing for tracking.
  • the tracking processing unit 9 (specifically, the control unit 11) functionally includes an observation point extraction unit 31, a predicted point generation unit 33, an alignment unit 35, a residual calculation unit 37, and a state update unit 31. It has a section 39 and a state prediction section 41.
  • the tracking processing unit 9 is configured to estimate a state quantity (i.e., a state vector) indicating the state of the target 3 in the current cycle, using information on observation points indicating the target 3 obtained by the ranging sensor 5. ing.
  • a state quantity i.e., a state vector
  • state quantities related to at least the position of the target 3 and the shape of the target 3 can be used.
  • the observation point extraction unit 31 is configured to extract observation points obtained from the target 3 in the current cycle based on the state quantity of the target 3 estimated in the previous cycle (that is, the cycle immediately before the current cycle). ing.
  • the predicted point generation unit 33 is configured to generate at least one predicted point at a predicted position where an observation point can be expected, based on the state quantity of the target 3 estimated in the previous cycle.
  • the alignment unit 35 is configured to align the observation point obtained from the target 3 of the current cycle and the predicted point generated by the predicted point generation unit 33 by scan matching.
  • the residual calculation unit 37 calculates the corresponding point of the object at the predicted position corresponding to the observation point from the observation point obtained from the current cycle and the predicted point aligned, and calculates the residual difference between the observation point and the corresponding point. (that is, a residual vector).
  • the state update unit 39 is configured to update the state quantity of the target 3 based on the residual calculated by the residual calculation unit 37.
  • the state prediction section 41 is configured to predict the state amount of the next cycle (that is, the cycle immediately after the current cycle) based on the state amount updated by the state update section 39.
  • step (hereinafter referred to as S) 100 in FIG. 3 initial values of the motion and shape of the target 3 are set based on observation points obtained in the most recent predetermined period.
  • step (hereinafter referred to as S) 100 in FIG. 3 initial values of the motion and shape of the target 3 are set based on observation points obtained in the most recent predetermined period.
  • subsequent S110 the motion and shape of the target 3 at the current time are predicted.
  • an observation point expected to be on the contour (that is, the actual contour) of the target 3 is extracted from the associated observation points.
  • expected observation points i.e., predicted points
  • predicted contour i.e., predicted contour
  • a residual error (ie, residual vector) is obtained from the observation point and the corresponding point, and the state quantity (ie, state vector) at the current time is updated. Thereafter, using the updated state quantity, the process returns to S110 and repeats the same process.
  • the motion includes the position and velocity of the mass point of the target 3 (i.e., the magnitude and direction of the velocity), and the shape includes the size of the target 3 (i.e., the spatial extent of the target 3) and the orientation ( In other words, the shape includes the direction in which the target 3 is facing.
  • the size of the target 3 is constant, the size (for example, width, depth, height, etc.) and direction of the target 3 may be taken into consideration as the shape.
  • the position includes coordinates in a predetermined coordinate system (for example, a coordinate system that defines east, west, north, south, or a coordinate system based on a predetermined vehicle such as the own vehicle).
  • a plurality of observation points at the target 3 at the lower left of the figure can be obtained by sensing in the first cycle, and by sensing in the second cycle, the same Assume that a plurality of observation points at target 3 in the upper right corner of the figure are obtained.
  • the observation point is a reflection point on the target 3 of radar waves or the like.
  • observation points are indicated by circles with fine mesh inside. Note that in other drawings, circles with similar meshes inside indicate observation points.
  • the position of the target 3 in the first cycle can be determined from the center of gravity of the plurality of observation points in the first cycle (i.e., the center of gravity 1), and the center of gravity of the plurality of observation points in the second cycle (i.e., the center of gravity 2) From this, the position of target 3 in the second cycle can be found. Furthermore, the velocity of the target 3 (that is, the movement of the target 3) can be determined from the movement vector from the center of gravity 1 to the center of gravity 2.
  • the outer peripheral shape of the target 3 i.e., the outline including the size of the target 3 when the target 3 is viewed from above (i.e., planar view) is known in advance.
  • the outline of the target 3 is rectangular, as shown by the square frame in the same figure, by arranging the plurality of observation points to match the outline of the target 3 (i.e., by fitting), the target 3 can be The shape (i.e., size and orientation) of No. 3 in plan view can be seen. That is, as shown by the rectangular frame in the figure, the shape of the target in plan view is known, and the center of gravity of each target 3 can be found from the shape of each target 3.
  • the position of the target 3 can be determined from the position of the center of gravity of the target 3 in the first cycle and the second cycle, and the movement of the target 3 can be determined from the movement vector of the center of gravity.
  • the center of gravity of the target 3 in the first cycle can be set as the initial value of the position of the target 3
  • the velocity obtained from the movement vector can be set as the initial value of the velocity of the target 3 in the second cycle.
  • planar shape of the target 3 will be described using, for example, a rectangle that matches the outer peripheral shape (i.e., contour) of the vehicle.
  • the position and speed of the target 3 at the time one cycle before are known, the position and speed of the target 3 in the current cycle can be predicted.
  • the contour of the predicted target is shown by a broken line.
  • the predicted position of the target 3 can be found.
  • the predicted speed at the position of the target 3 may be the speed at the previous time.
  • the actual moving state of the target 3 is shown by a solid line arrow
  • the observation points actually observed at the current time are shown by large and small circles
  • the outline of the actual target 3 at the current time i.e., the arrow (the outline of the tip) is shown by a solid line.
  • observation points located on the outline of the target 3 are shown larger than the observation points located inside the target 3. Note that usually many observation points can be obtained from the contour (ie, the outer periphery).
  • the actual position of the target 3 and the predicted position of the target 3 may deviate from each other, so the actual position of the target 3 is usually located near the predicted position of the target 3, e.g. , is estimated to be within a connection range such as a predetermined distance from the predicted target 3.
  • observation points within the connection range that is, observation points represented by large and small circles in FIG. 6 are selected as the actual observation points of the target 3 at the current time. Furthermore, among these observation points, observation points that are expected to be on or near the actual outline of the target 3 (i.e., the actual outline) (i.e., the large circles with mesh inside in Figure 6) are Observation points expressed) are extracted. That is, since the outline of the target 3 is a rectangle, observation points that are considered to be on or near the rectangular frame are extracted.
  • expected observation points i.e., predicted points
  • predicted contour i.e., predicted contour
  • predicted points are set at predetermined intervals on the predicted contour of the rectangular frame-shaped target 3.
  • predicted points are shown as circles with a plurality of dots inside. Note that in other drawings, circles with similar dots indicate predicted points.
  • the predicted contour and the actual contour are overlapped as much as possible.
  • the prediction points can be translated (i.e., parallel) or rotated so that there is a one-to-one correspondence between the prediction points and the observation points. Processing is performed to bring the plurality of predicted points as close as possible (ie, geometric transformation estimation and transition processing).
  • the ICP algorithm which is widely used as a basic method for aligning three-dimensional shapes, can be used.
  • the ICP algorithm performs two processes: calculating correspondence using nearest neighbor points and estimating geometric transformation from the corresponding points until convergence conditions are satisfied. This is a method of performing final alignment by repeating alternately.
  • a prediction point (that is, a corresponding point) on the prediction contour corresponding to the observation point is determined by, for example, a radial projection method. For example, with the predicted position of the mass point of target 3 as the center of radiation, draw a straight line toward the observation point on the actual contour, and then draw the observation point on the straight line or the closest position to the straight line and the predicted point. Make a one-to-one correspondence.
  • the radiation projection method is a known technique as described in the following document [3], for example.
  • the predicted point associated with this observation point is the corresponding point on the predicted contour of the predicted target 3, as shown in FIG.
  • the state quantity of the target 3 can be expressed as a state vector, as is well known.
  • the state vector expressed as a vector using these state quantities as elements [x, y, vx, vy]T.
  • the lateral direction is the vehicle width direction
  • the longitudinal direction is a direction perpendicular to the vehicle width direction.
  • the residual vector i.e., ⁇
  • the residual i.e., ⁇
  • the predicted value i.e., the predicted estimated value
  • H is an observation model.
  • the i-th element of the residual ⁇ becomes the residual vector ⁇ i. Note that although a tilde " ⁇ " is added above x of the predicted value xt as shown in FIG. 12, it is omitted here.
  • the prediction point (group) is P
  • the i-th point belonging to it is pi
  • the observation point (group) is Z
  • the j-th point belonging to it is zz.
  • pi and zz are associated with each other based on the association information obtained in advance.
  • the information held by pi and zz includes, for example, point position information (x, y).
  • point position information x, y
  • other dimensions such as point velocity information (vx, vy) may be added.
  • vx, vy point velocity information
  • the following document [4] describes a specific calculation method for obtaining a residual vector from correspondence information in a B-spline model.
  • the process After updating the state quantity at the current time, the process returns to step 110 and repeats the same process using the updated state quantity. That is, the updated information amount is used to predict the state amount of the target 3 in the next cycle.
  • the process of predicting the state quantity of the target 3 in the next cycle is publicly known.
  • the predicted value xt of the state quantity of target 3 in the next cycle is the state quantity x(t-1) of target 3 in the previous cycle (time t-1) and the state transition of target 3. It can be calculated using the following motion model (see formula [Equation 1] below).
  • the tracking processing unit 9 uses observation point information indicating the target 3 obtained by the ranging sensor 5 to generate a state quantity (i.e., a state vector) indicating the state of the target 3 in the current cycle.
  • a state quantity i.e., a state vector
  • the observation point extraction unit 31 extracts observation points obtained from the target 3 in the current cycle based on the state quantity of the target 3 estimated in the previous cycle.
  • the predicted point generation unit 33 generates at least one predicted point at a predicted position where an observation point can be expected, based on the state quantity of the target 3 estimated in the previous cycle.
  • the alignment unit 35 aligns the observation point obtained from the target 3 of the current cycle and the predicted point generated by the predicted point generation unit 33 by scan matching.
  • the residual calculation unit 37 calculates the corresponding point of the target 3 at the predicted position corresponding to the observation point from the observation point obtained from the current cycle and the predicted point aligned, and calculates the residual between the observation point and the corresponding point. Calculate the difference (ie, residual vector).
  • the state updating unit 39 updates the state quantity of the target 3 based on the residual.
  • the state prediction unit 41 predicts the state amount for the next cycle based on the updated state amount.
  • the object tracking device 1 of the first embodiment is able to track the target 3 with high accuracy and reduce the calculation load when tracking the target 3.
  • the calculation load when tracking the target 3 can be reduced, and the target 3 can be tracked with high accuracy.
  • the object tracking device 1 corresponds to an object tracking device
  • the target 3 corresponds to a target
  • the ranging sensor 5 corresponds to a sensor
  • the tracking processing section 9 corresponds to a tracking processing section
  • the observation point extraction section 31 corresponds to an observation point.
  • the prediction point generation section 33 corresponds to the extraction section
  • the prediction point generation section 33 corresponds to the prediction point generation section
  • the alignment section 35 corresponds to the alignment section
  • the residual calculation section 37 corresponds to the residual calculation section
  • the state update section 39 corresponds to the extraction section. corresponds to the state update section.
  • the hardware configuration of the second embodiment is the same as that of the first embodiment, so a description thereof will be omitted.
  • the second embodiment is characterized by the scan matching method, so the scan matching method will be described.
  • observation points of the actual contour are the observation points on the lower right two sides of the actual contour, but the predicted points of the predicted contour are the two left sides of the predicted contour. Even if scan matching is performed between observation points and prediction points, it may not be possible to correctly associate the observation points and prediction points.
  • a process is performed to re-acquire the predicted points used for scan matching. Specifically, a process is performed in which predicted points in a fan-shaped range (for example, a radar wave irradiation range) that can be directly detected from a sensor are re-taken as predicted points used for scan matching. In other words, among all predicted points along the predicted contour, points that can be observed from the sensor are sequentially reviewed.
  • a fan-shaped range for example, a radar wave irradiation range
  • the second embodiment has the same effects as the first embodiment.
  • the second embodiment it is possible to prevent incorrect matching with the side surface of the target 3, etc. in scan matching. Therefore, it is possible to perform appropriate residual calculation, and thus the tracking accuracy can be improved.
  • the hardware configuration of the third embodiment is the same as that of the first embodiment, so a description thereof will be omitted.
  • the third embodiment shows processing when there are few observation points.
  • the spatial extent of points i.e., observation point group
  • a sensor e.g., ranging sensor 5
  • the extent is within a narrow range below a certain level. In this case, do not perform scan matching.
  • the spatial spread the spread in plan view may be adopted.
  • the spatial extent of points that can be observed from the sensor i.e., observation point group
  • the state quantity is updated.
  • the weight of observation information which is information about observation points, is lowered.
  • observation noise can be expressed by a covariance matrix Rt and follows a multivariate normal distribution with zero mean.
  • the covariance matrix Rt is defined as a diagonal matrix, as shown in the following formula [Equation 2].
  • observation noise here means, for example, an error in distance measurement information obtained from the distance measurement sensor 5 (for example, a distance error or a Doppler velocity error).
  • a very large value for example, 10 ⁇ 2
  • the components of the covariance matrix are adjusted according to the area, for example, in a relationship as shown in FIG. 16.
  • the Kalman gain K in the extended Kalman filter is calculated using the above-mentioned covariance matrix Rt in the well-known formula described in [Equation 3] above.
  • the covariance matrix Rt is in the denominator term, so if the covariance matrix Rt is large, the Kalman gain K becomes small. Then, as the Kalman gain K becomes smaller, the observation weight decreases.
  • the object tracking device described in the present disclosure can be applied to an automatic driving system, a monitoring system, etc. of a vehicle, etc.
  • the object tracking device according to the present disclosure is provided by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. May be realized.
  • the object tracking device described in this disclosure may be implemented by a dedicated computer provided by a processor configured with one or more dedicated hardware logic circuits.
  • an object tracking device may be configured by a combination of a processor and memory configured to perform one or more functions and a processor configured by one or more hardware logic circuits. It may also be implemented by one or more dedicated computers.
  • the computer program may also be stored as instructions executed by a computer on a computer-readable non-transitory tangible storage medium.
  • the method of realizing the functions of each part included in the object tracking device does not necessarily need to include software, and all the functions may be realized using one or more pieces of hardware.
  • the present disclosure can be made in various forms, such as a program for making the computer of the object tracking device function, a non-transitional tangible recording medium such as a semiconductor memory in which this program is recorded, and an object tracking method. It is also possible to realize
  • An object tracking device (1) that senses the surrounding environment in a predetermined cycle with a sensor (5) and tracks a target object (3) based on information obtained by the sensing, comprising a tracking processing unit (9) configured to estimate a state quantity indicating the state of the object in the current cycle using information on an observation point indicating the object obtained by the sensor;
  • the tracking processing unit includes: As the state quantity of the object, the state quantity regarding at least the position of the object and the shape of the object is used, an observation point extraction unit (31) configured to extract the observation point obtained from the object in the current cycle based on the state quantity of the object estimated in the previous cycle; a predicted point generation unit (33) configured to generate at least one predicted point at a predicted position where the observation point can be expected based on the state quantity of the object estimated in the previous cycle; an alignment unit (35) configured to align the observation point obtained from the object in the current cycle and the prediction point generated by the prediction point generation unit by scan matching; From the observation point obtained from the current cycle and the
  • the object tracking device according to item 1,
  • the alignment unit extracts the observation points located on the contour of the object or in the vicinity of the contour within a predetermined range from the observation points obtained from the object in the current cycle, and configured to use for the scan matching, Object tracking device.
  • the object tracking device according to item 1 or item 2,
  • the alignment unit is configured to perform a review to select the predicted point that can be observed by the sensor from among the predicted points generated by the predicted point generation unit during the alignment process of the scan matching.
  • Ta Object tracking device.
  • the object tracking device according to any one of items 1 to 3,
  • the alignment unit is configured to determine the spatial extent of a point group of the observation points that can be observed by the sensor, and not to perform the scan matching if the spatial extent is less than a predetermined range.
  • Ta Object tracking device.
  • the object tracking device determines the spatial extent of the point group of the observation points that can be observed by the sensor, and when the spatial extent is less than or equal to a predetermined range, compared to a case where it is not less than or equal to the predetermined range, configured to reduce weighting of the observation point when updating the state quantity using the observation point; Object tracking device.

Abstract

物体追跡装置(1)の観測点抽出部(31)では、前サイクルにて推定したターゲット(3)の状態量に基づいて、現サイクルのターゲット(3)から得られた観測点を抽出する。予測点生成部(33)では、前サイクルにて推定したターゲット(3)の状態量に基づいて、観測点が期待できる予測する位置に予測点を生成する。位置合わせ部(35)では、現サイクルのターゲット(3)から得られた観測点と予測点生成部(33)で生成した予測点とをスキャンマッチングにより位置合わせする。残差計算部(37)では、現サイクルから得られた観測点と位置合わせされた予測点から、観測点に対応する予測された位置における物体の対応点を求め、観測点と対応点との残差を算出する。

Description

物体追跡装置 関連出願の相互参照
 本国際出願は、2022年7月1日に日本国特許庁に出願された日本国特許出願第2022-107182号に基づく優先権を主張するものであり、日本国特許出願第2022-107182号の全内容を本国際出願に参照により援用する。
 本開示は、車両等の物体を追跡する技術に関する。
 従来、レーダー等のセンサを用いて、自車両の周囲の他車両等の物体(即ち、ターゲット)を追跡(即ち、トラッキング)する技術として、図17の上図左側に示すように、ターゲットを一つの質点と仮定して追跡する質点追跡の技術が知られている。
 また、近年では、質点追跡による課題(即ち、追跡が不安定になるという課題)を改善するために、図17の上図右側に示すように、ターゲットの運転状態に加えて、ターゲットの形状も含めてモデルに織り込んで追跡する拡張物体追跡(即ち、EOT)が知られている。なお、EOTは、Extended Object Trackingの略であり、この技術は、例えば、非特許文献1等に開示されている。
 しかし、この拡張物体追跡の技術においては、図17の中図に示すように、ターゲットや自車両の動きが急に変化した場合や、追跡初期のように、ターゲットの観測情報が十分でない場合には、ターゲットの追跡を精度良く行えないことがあった。
 この対策として、例えば、下記特許文献1に記載の技術が提案されている。この技術とは、図17の下図に示すように、ある時刻で予測された追跡対象の状態分布から、観測点の確からしさを尤度関数として定義し、観測点の数に併せて尤度関数を補正(即ち、重みを調整)した後で状態分布を更新することで、疎な観測情報での追跡精度の劣化および追跡失敗を抑制する技術である。
 この特許文献1の公報には、パーティクルフィルタで取りうる予測分布を振って、予測誤差が生じたときに対応することが示されている。つまり、予測状態分布の仮説を複数生成することで、追跡性の改善(例えば、トラッキングロス等の改善)を図ることが記載されている。
K.Granstrom,M.Baum, and S.Reuter,"Extended object tracking:Intro-duction,overview, and applications,"Journal of Advances in Information Fusion,vol.12,no.2,2017. 特開2021-67482号公報
 発明者の詳細な検討の結果、従来の技術について、下記のような課題が見出された。
 具体的には、特許文献1に記載の技術では、予測状態分布の仮説を複数生成するので、そのための演算の負荷が大きくなるという問題がある。
 つまり、自車両のコンピュータ等の電子制御装置では、その演算能力には制限があるので、上述のように予測状態分布の仮説を複数生成する場合には、演算の負担が大きいという問題がある。
 すなわち、電子制御装置にて演算を行う場合において、限られた計算量の制約下では、生成できる仮説数は限定されるので、対応できる予測ズレの範囲には限界があり、精度の高い追跡を行うことは容易ではない。特に、ターゲットの状態量を示す状態ベクトルが高次元になる場合は、予測ズレの範囲が顕著に狭くなるという問題がある。
 本開示の一局面は、物体を精度良く追跡することができるとともに、物体を追跡する際の演算の負荷を低減できる技術を提供することが望ましい。
 本開示の一態様は、センサ(5)により、周辺環境を所定のサイクルにてセンシングし、当該センシングによって得られた情報に基づいて、ターゲットである物体(3)を追跡する物体追跡装置(1)に関する。
 物体追跡装置は、追跡処理部(9)を備える。追跡処理部は、センサによって得られた物体を示す観測点の情報を用いて、現サイクルにおける物体の状態を示す状態量を推定するように構成されており、物体の状態量として、少なくとも物体の位置と物体の形状とに関する状態量を用いる。
 追跡処理部(9)は、観測点抽出部(31)と予測点生成部(33)と位置合わせ部(35)と残差計算部(37)と状態更新部(39)とを備える。
 追跡処理部は、センサによって得られた物体を示す観測点の情報を用いて、現サイクルにおける物体の状態を示す状態量を推定するように構成されている。
 観測点抽出部は、前サイクル(即ち、現サイクルの直前のサイクル)にて推定した物体の状態量に基づいて、現サイクルの物体から得られた観測点を抽出するように構成されている。なお、初期サイクルの場合は、得られた観測点全てを抽出するように構成されていてもよい。
 予測点生成部は、前サイクルにて推定した物体の状態量に基づいて、観測点が期待できる予測する位置に、少なくとも一つの予測点を生成するように構成されている。
 位置合わせ部は、現サイクルの物体から得られた観測点と、予測点生成部で生成した予測点と、をスキャンマッチングにより位置合わせするように構成されている。
 残差計算部は、現サイクルから得られた観測点と位置合わせされた予測点から、観測点に対応する予測された位置における物体の対応点を求め、観測点と対応点との残差を算出するように構成されている。
 状態更新部は、残差算出部にて算出した残差に基づいて、物体の状態量を更新するように構成されている。
 このような構成により、本開示の一態様の物体追跡装置では、物体を精度良く追跡することができるとともに、物体を追跡する際の演算の負荷を低減することができる。
 つまり、本開示では、従来のように、予測を複数振るのではなく、観測点と予測形状(即ち、予測点)とのズレ(即ち、対応関係)を計算した残差を用いることにより、物体の追跡のための演算を効率的に行うことができる。従って、物体の追跡を行う際の演算の負荷を低減でき、好適に物体を追跡することができる。
 また、この欄及び請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。
第1実施形態の物体追跡装置の全体構成を示すブロック図である。 第1実施形態の物体追跡装置を機能的に示すブロック図である。 第1実施形態の物体追跡装置の制御処理を示すフローチャートである。 第1実施形態の物体追跡の手順のうち、図3のS100における手順を示す説明図である。 第1実施形態の物体追跡の手順のうち、図3のS110における手順を示す説明図である。 第1実施形態の物体追跡の手順のうち、図3のS120における手順を示す説明図である。 第1実施形態の物体追跡の手順のうち、図3のS130における手順を示す説明図である。 第1実施形態の物体追跡の手順のうち、図3のS140における手順を示す説明図である。 スキャンマッチングの方法を示す説明図である。 第1実施形態の物体追跡の手順のうち、図3のS150における手順を示す説明図である。 第1実施形態の物体追跡の手順のうち、図3のS160における手順を示す説明図である。 残差ベクトルの算出方法を示す説明図である。 状態量の更新の方法を示す説明図である。 図14Aは第2実施形態の物体追跡のスキャンマッチングの方法を示す説明図、図14Bは好ましくないスキャンマッチングの方法を示す説明図である。 第3実施形態の物体追跡の手順のうち、観測点の広がりが少ない状態を示す説明図である。 第3実施形態の物体追跡の手順のうち、矩形の面積と観測点の共分散との関係を示す説明図である。 従来技術の説明図である。
 以下、本開示の例示的な実施形態について図面を参照しながら説明する。
 [1.第1実施形態]
 本第1実施形態では、車両(例えば、自車両)に搭載された物体追跡装置を例に挙げて説明する。即ち、センサにより、自車両の周囲の周辺環境を所定のサイクルにて走査(即ち、センシング)し、当該センシングによって得られた情報に基づいて、ターゲットである物体を追跡する物体追跡装置を例に挙げて説明する。
 [1-1.全体構成]
 まず、本第1実施形態の物体追跡装置1の全体構成を、図1に基づいて説明する。
 図1に示すように、物体追跡装置1は、車両(例えば、自車両)に搭載されて、自車両の周囲の他車両等の物体(即ち、ターゲット)3を追跡する装置である。
 つまり、物体追跡装置1は、後に詳述するように、ターゲット3を観測した少なくとも1つの観測点から、広がりのあるターゲット3を認識してターゲット3の追跡処理を行うEOTを実現する装置である。
 なお、ここでは、ターゲット3として、自動車等の車両を例に挙げているが、それ以外にも、バイクや歩行者などの移動する物体が挙げられる。また、一定の形状を有する静止物も挙げられる。
 この物体追跡装置1は、自車両の周囲をセンシングする周囲センサである例えば測距センサ5、自車両の状態を検出する挙動センサ群7、ターゲット3の追跡を行うための処理を行う追跡処理部9等を備える。
 測距センサ5としては、ターゲット3の位置に関する情報、例えば、物体追跡装置1とターゲット3との距離や、物体追跡装置1に対するターゲット3の方向の情報が得られる各種のセンサが挙げられる。
 例えば、周知の、レーダー(Rader)、ライダー(LiDAR)、ソナー(Sonar)、ステレオカメラ、単眼カメラのうち、少なくとも1種が挙げられる。なお、前記センサとしては、空間における位置を示す3次元情報(x、y、z)を観測できるものや、ドップラー速度や信号強度を観測できるものも採用できる。
 この測距センサ5は、ターゲット3のセンシング(即ち、レーダー等により走査して検出すること)と、ターゲット3にて反射した部分を示す反射点群の観測とを、所定時間間隔(即ち、所定のサイクル)で繰り返す。そして、後述するように、追跡処理部9では、特定時刻kにおいて測距センサ5により反射点群が、ターゲット3に対する同時刻kでの少なくとも一つの観測点として認識される。
 挙動センサ群7としては、慣性計測ユニット(即ち、IMU)やオドメトリなど、自車両の移動量等の挙動を検出できる各種のセンサを採用できる。この挙動センサ群7により検出される情報としては、例えば、アクセルペダルの操作量、ブレーキペダルの操作量、操舵角、車両速度、車両加速度などが挙げられる。
 追跡処理部9は、ターゲット3の追跡等の各種の処理を行う制御部11と、各種のデータやプログラムを記憶する記憶部13と、を備えたマイクロコンピュータを中心にして構成された電子制御装置である。
 詳しくは、制御部11は、周知のプロセッサ(例えば、CPU11a)を備え、記憶部13は、例えば、RAM又はROM等の半導体メモリ(以下、メモリ13aとする)を備える。
 制御部11の機能は、非遷移的実体的記録媒体(即ち、メモリ13a)に格納されたプログラムをCPU11aが実行することにより実現される。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。
 なお、制御部11の各種機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素について、一つあるいは複数のハードウェアを用いて実現してもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現してもよい。
 <追跡処理部の機能的な構成>
 ここで、追跡処理部9の機能的な構成について説明する。なお、制御部11は、追跡のための演算処理を行う部分である。
 図2に示すように、追跡処理部9(詳しくは、制御部11)は、機能的に、観測点抽出部31と予測点生成部33と位置合わせ部35と残差計算部37と状態更新部39と状態予測部41とを有する。
 追跡処理部9は、測距センサ5によって得られたターゲット3を示す観測点の情報を用いて、現サイクルにおけるターゲット3の状態を示す状態量(即ち、状態ベクトル)を推定するように構成されている。なお、状態量として、少なくともターゲット3の位置とターゲット3の形状とに関する状態量を用いることができる。
 観測点抽出部31は、前サイクル(即ち、現サイクルの直前のサイクル)にて推定したターゲット3の状態量に基づいて、現サイクルのターゲット3から得られた観測点を抽出するように構成されている。
 予測点生成部33は、前サイクルにて推定したターゲット3の状態量に基づいて、観測点が期待できる予測する位置に、少なくとも一つの予測点を生成するように構成されている。
 位置合わせ部35は、現サイクルのターゲット3から得られた観測点と、予測点生成部33で生成した予測点と、をスキャンマッチングにより位置合わせするように構成されている。
 残差計算部37は、現サイクルから得られた観測点と位置合わせされた予測点から、観測点に対応する予測された位置における物体の対応点を求め、観測点と対応点との残差(即ち、残差ベクトル)を算出するように構成されている。
 状態更新部39は、残差計算部37にて算出した残差に基づいて、ターゲット3の状態量を更新するように構成されている。
 状態予測部41は、状態更新部39で更新した状態量に基づいて、次サイクル(即ち、現サイクルの直後のサイクル)の状態量を予測するように構成されている。
 [1-2.追跡処理部による全体の処理]
 次に、図3のフローチャートに基づいて、本第1実施形態の物体追跡装置1の全体的な処理の概略の手順を説明する。なお、各ステップの内容については、後に詳述する。
 まず、図3のステップ(以下、S)100では、直近の所定期間で得られた観測点に基づいて、ターゲット3の運動と形状の初期値を設定する。
 続くS110では、現時刻におけるターゲット3の運動と形状を予測する。
 続くS120では、対応付いた観測点から、ターゲット3の輪郭(即ち、実際輪郭)上にあると期待される観測点を抽出する。
 続くS130では、予測したターゲット3の形状の輪郭(即ち、予測輪郭)から期待される観測点(即ち、予測点)をサンプリングする。
 続くS140では、予測点と観測点とを、スキャンマッチングによって位置合わせする。
 続くS150では、観測点と対応する予測輪郭上の対応点を計算する。
 続くS160では、観測点と対応点とから残差(即ち、残差ベクトル)を求め、現時刻の状態量(即ち、状態ベクトル)の更新を行う。
 その後、更新された状態量を用いて、前記S110に戻って、同様な処理を繰り返す。
 [1-3.追跡処理部による各処理の内容]
 次に、図3の追跡処理部9における各処理(即ち、S100~S160)の内容について、順を追って詳細に説明する。
 (1)S100の処理の内容
 このステップでは、直近の所定期間で得られた観測点に基づいて、ターゲット3の運動とターゲット3の形状の初期値を設定する。
 ここで、運動には、ターゲット3の質点における位置や速度(即ち、速度の大きさや方向)を含み、形状には、ターゲット3の大きさ(即ち、ターゲット3の空間的な広がり)や向き(即ち、形状においてターゲット3がどちらを向いているかの向き)を含むとする。なお、ターゲット3の大きさは一定であるので、形状としては、ターゲット3の大きさ(例えば、横幅や奥行や高さなど)及び向きを考慮してもよい。なお、位置としては、所定の座標系(例えば、東西南北を規定した座標系や、自車両等の所定の車両を基準とした座標系など)における座標が挙げられる。
 図4に示すように、レーダー等の測距センサ5を用いて、例えば、1サイクル目におけるセンシングによって、同図左下のターゲット3における複数の観測点が得られ、2サイクル目のセンシングよって、同図右上のターゲット3における複数の観測点が得られたとする。なお、観測点とは、レーダー波等のターゲット3における反射点である。図4では、観測点を、内部に細かいメッシュを付した丸で示してある。なお、他の図面においても、同様な内部にメッシュを付した丸は観測点を示している。
 この場合、例えば、1サイクル目の複数の観測点の重心(即ち、重心1)から、1サイクル目のターゲット3の位置が分かり、2サイクル目の複数の観測点の重心(即ち、重心2)から、2サイクル目のターゲット3の位置が分かる。また、重心1から重心2への移動ベクトルから、ターゲット3の速度(即ち、ターゲット3の運動)が分かる。
 また、これとは別に、ターゲット3を上方から見た場合(即ち、平面視)のターゲット3の外周形状(即ち、ターゲット3の大きさを含む輪郭)が予め分かっている場合について説明する。例えば、同図に四角枠で示すように、ターゲット3の輪郭が長方形の場合には、前記複数の観測点をターゲット3の輪郭に合わせるように配置すること(即ち、フィッティングすること)により、ターゲット3の平面視での形状(即ち、大きさや向き)が分かる。即ち、同図の四角枠で示すように、ターゲットの平面視における形状が分かり、また、各ターゲット3の形状から各ターゲット3の重心が分かる。
 このように、ターゲット3の1サイクル目及び2サイクル目における重心の位置からターゲット3の位置が分かり、また、重心の移動ベクトルにより、ターゲット3の運動が分かる。
 従って、例えば、1サイクル目のターゲット3の重心を、ターゲット3の位置の初期値として設定でき、また、その移動ベクトルから得られる速度を、2サイクル目のターゲット3の速度の初期値として設定できる。
 なお、以下では、ターゲット3の平面形状として、例えば車両の外周形状(即ち、輪郭)に合わせた長方形を例に挙げて説明する。
 (2)S110の処理の内容
 このステップでは、現時刻におけるターゲット3の運動と形状を予測する。
 図5に示すように、1サイクル前の時刻(即ち、前時刻)におけるターゲット3の位置や速度が分かっている場合には、現サイクルにおけるターゲット3の位置や速度が予測可能である。なお、同図では、予測したターゲットの輪郭を破線で示す。
 つまり、前時刻におけるターゲット3の位置から前時刻におけるターゲット3の速度で移動したと予測することにより、予測したターゲット3の位置が分かる。なお、予測したターゲット3の位置における速度は、前時刻と速度であるとしてもよい。
 また、同図では、実際のターゲット3の移動状態を実線の矢印で示し、現時刻において実際に観測された観測点を大小の丸で示し、現時点の実際のターゲット3の輪郭(即ち、矢印の先の輪郭)を実線で示す。
 なお、実際に観測された複数の観測点のうち、ターゲット3の輪郭に位置する観測点を、ターゲット3の内部に位置する観測点よりも大きく示してある。なお、通常は、輪郭(即ち、外周)から多くの観測点が得られる。
 (3)S120の処理の内容
 このステップでは、対応付いた観測点から、ターゲット3の輪郭上にあると期待される観測点を抽出する。
 図6に示すように、実際のターゲット3の位置と予測したターゲット3の位置がずれている場合があるので、通常は、実際のターゲット3の位置は、予測したターゲット3の位置の近傍、例えば、予測したターゲット3から所定の距離の範囲等の接続範囲内にあると推定する。
 そして、接続範囲内の複数の観測点(即ち、図6の大小の丸で表現される観測点)を、現時刻における実際のターゲット3の観測点として選択する。
 更に、これらの観測点のうち、実際のターゲット3の輪郭(即ち、実際輪郭)上又は輪郭の近傍にあると期待される観測点(即ち、図6にて内部にメッシュを付した大きな丸で表現される観測点)を抽出する。つまり、ターゲット3の輪郭は長方形であるので、長方形の枠上又はその近傍にあると思われる観測点を抽出する。
 (4)S130の処理の内容
 このステップでは、予測したターゲット3の輪郭(即ち、予測輪郭)から期待される観測点(即ち、予測点)をサンプリングする。
 図7に示すように、ここでは、予測した四角枠状のターゲット3の輪郭上において、所定に間隔毎に、予測点を設定する。図7では、予測点を内部に複数のドットを付した丸で示してある。なお、他の図面においても、同様なドットを付した丸は予測点を示している。
 (5)S140の処理の内容
 このステップでは、予測輪郭の予測点と実際輪郭において抽出された観測点(即ち、実際輪郭に沿った観測点)とを、スキャンマッチングによって位置合わせする。
 図8に示すように、公知のスキャンマッチングの手法により、予測点と観測点とを位置合わせすることにより、予測輪郭と実際輪郭とをできる限り重ね合わせるようにする。
 例えば、図9に示すように、予測点と観測点とが1対1の対応関係となるように、予測点の並進移動(即ち、平行移動)や回転移動を行って、複数の観測点と複数の予測点とをできる限り近づけるような処理(即ち、幾何変換の推定と遷移の処理)を行う。
 つまり、複数の予測点の配置による形状(例えば、L字形状)と複数の抽出された観測点の配置による形状(例えば、L字形状)とが、できる限り一致するように、例えば、複数の予測点の配置による形状を維持したままで、複数の予測点を移動させる。
 ここで、スキャンマッチングの基本的な内容について説明する。
 スキャンマッチングの手法としては、例えば、3次元形状の位置合わせの基本的な手法として広く用いられているICPアルゴリズムを使うことができる。ICPアルゴリズムは、予測点群をソース点群、観測点をターゲット点群としたとき、最近傍点による対応付けの計算と、対応点からの幾何変換の推定の2つの処理を収束条件を満足するまで交互に繰り返すことで、最終的な位置合わせを行う手法である。
 このスキャンマッチングの手法は、下記文献[1]、文献[2]に記載されている。なお、下記文献[1]は、ICPアルゴリズムの元論文を示しており、この文献[1]には、詳細なステップが記載されている。また、文献[2]はICPアルゴリズムの概要を説明したチュートリアルである。
 文献[1]:Besl,Paul J. and Neil D.McKay.“A Method for Registration of 3-D Shapes.”IEEE Trans. Pattern Anal. Mach. Intell.14 (1992): 239-256.
 文献[2]:増田健,“Icpアルゴリズム,”情報処理学会研究報告,vol.2009,no.2,pp.1-8,2009.
 (6)S150の処理の内容
 このステップでは、観測点と対応する予測輪郭上の対応点を計算して求める。
 図10に示すように、スキャンマッチングにされた観測点と予測点とに対して、例えば放射投影法によって、観測点と対応する予測輪郭上の予測点(即ち、対応点)を求める。
 例えば、予測したターゲット3の質点の位置を放射の中心として、実際輪郭上の観測点に向けて直線を引き、その直線上にある又はその直線と最も近い位置にある観測点と予測点とを1対1に対応付ける。
 なお、放射投影法については、例えば、下記文献[3]に記載のように公知技術である。
 文献[3]:M.Michaelis,P.Berthold,T.Luettel,D.Meissner,and H.J.Wuensche,“Extended object tracking with an improved measurement-to-contour association,”Proc.2020 23rd Int.Conf.Inf.Fusion,FUSION 2020,no.July,2020,doi:10.23919/FUSION45008.2020.9190439.
 この観測点に対応づけられた予測点が、図11に示すように、予測したターゲット3の予測輪郭における対応点である。
 (7)S160の処理の内容
 このステップでは、図11に示すように、観測点と対応点(即ち、観測点と対応した予測点)とから残差ベクトルを求め、現時刻のターゲット3の状態量の更新を行う。
 なお、ターゲット3の状態量は、周知のように、状態ベクトルとして示すことができる。
 例えば、ターゲット3の状態量を、横方位位置x、縦方位位置y、横方向速度vx、縦方向速度vyで表す場合には、これらの状態量を要素として、ベクトル表現した状態ベクトルは、X=[x、y、vx、vy]Tで表すことができる。なお、例えば、横方向は車幅方向であり、縦方向は車幅方向に垂直な方向である。
 ここで、残差ベクトルについて説明する。
 図12に示すように、行列で表現される残差(即ち、Δ)は、現時刻におけるターゲット3の状態量の予測値(即ち、予測した推定値)xtと、観測点を示す値(即ち、観測値)Zとの差Δ=Z-H(xt)である。
 Hは、観測モデルである。残差δのi番目の要素が、残差ベクトルδiになる。なお、予測値xtのxの上には図12に示すようにチルダ「~」が付記されるが、ここでは省略して示している。
 例えば、予測点(群)をP、それに属するi番目の点をpi、観測点(群)をZ、それに属するj番目の点をzjとする。また、事前に求めた対応付けの情報から、piとzjとが対応づいたとする。このとき、残差ベクトルδiは、δi=zj-pi(即ち、点zjと点piのもつ情報の差分:ベクトルzjとベクトルpiの差)として計算される。
 ここで、piやzjが持つ情報として、例えば点の位置情報(x、y)がある。なお、点の速度情報(vx、vy)などの他の次元が加えられても良い。
 なお、下記文献[4]には、B-splineモデルにおける対応付け情報からの残差ベクトルを求める具体的な計算方法が記載されている。
 文献[4]:H.Kaulbersch,J.Honer, and M.Baum,“A Cartesian B-Spline Vehicle Model for Extended Object Tracking,”2018 21st Int. Conf.Inf.Fusion,FUSION 2018,no.December 2019, pp.1771-1778,2018,doi:10.23919/ICIF.2018.8455717.
 また、下記文献[5]には、Star-convexモデルにおける点の速度情報(Doppler Range Rate)を考慮した残差の定式化について記載がある。
 文献[5]:K.Thormann,M.Baum, and J.Honer,“Extended Target Tracking Using Gaussian Processes with High-Resolution Automotive Radar,”2018 21st Int.Conf.Inf.Fusion,FUSION 2018,no.December 2019,pp.1764-1770,2018, doi:10.23919/ICIF.2018.8455630.
 次に、現時刻の状態量の更新の手法について説明するが、公知技術(例えば、特開2021-4737号公報等参照)であるので、簡単に説明する。
 図13に示すように、現時刻におけるターゲット3の状態量の予測値xtと、観測点の観測値Zから、残差Δ=Z-H(xt)を計算し、周知の非線形カルマンフィルタ(例えば、拡張カルマンフィルタやシグマポイントカルマンフィルタなど)を使い、物体の状態量を更新する。
 そして、現時刻の状態量を更新した後に、更新された状態量を用いて、前記ステップ110に戻って、同様な処理を繰り返す。つまり、更新された情報量を用いて、次サイクルのターゲット3の状態量を予測する。
 なお、次サイクルのターゲット3の状態量を予測する処理については公知である。例えば、次のサイクル(時刻t)のターゲット3の状態量の予測値xtは、前のサイクル(時刻t-1)におけるターゲット3の状態量x(t-1)と、ターゲット3の状態遷移を表す運動モデル(下記式[数1]参照)と、を用いて計算することができる。
Figure JPOXMLDOC01-appb-M000001
 [1-4.効果]
 本第1実施形態によれば、以下の効果が得られる。
 本第1実施形態では、追跡処理部9により、測距センサ5によって得られたターゲット3を示す観測点の情報を用いて、現サイクルにおけるターゲット3の状態を示す状態量(即ち、状態ベクトル)を推定する。観測点抽出部31では、前サイクルにて推定したターゲット3の状態量に基づいて、現サイクルのターゲット3から得られた観測点を抽出する。予測点生成部33では、前サイクルにて推定したターゲット3の状態量に基づいて、観測点が期待できる予測する位置に、少なくとも一つの予測点を生成する。位置合わせ部35では、現サイクルのターゲット3から得られた観測点と、予測点生成部33で生成した予測点と、をスキャンマッチングにより位置合わせする。残差計算部37では、現サイクルから得られた観測点と位置合わせされた予測点から、観測点に対応する予測された位置におけるターゲット3の対応点を求め、観測点と対応点との残差(即ち、残差ベクトル)を算出する。状態更新部39では、残差に基づいて、ターゲット3の状態量を更新する。状態予測部41では、更新した状態量に基づいて、次サイクルの状態量を予測する。
 このような構成により、本第1実施形態の物体追跡装置1では、ターゲット3を精度良く追跡することができるとともに、ターゲット3を追跡する際の演算の負荷を低減することができる。
 つまり、本第1実施形態では、従来のように、予測を複数振るのではなく、観測点と予測形状(即ち、予測点)とのズレ(即ち、対応関係)を計算することにより、効率的に計算ができる。従って、ターゲット3の追跡を行う際の演算の負荷を低減できるとともに、精度良くターゲット3を追跡することができる。
 [1-5.対応関係]
 次に、本第1実施形態と本開示との関係について説明する。
 物体追跡装置1は物体追跡装置に対応し、ターゲット3はターゲットに対応し、測距センサ5はセンサに対応し、追跡処理部9は追跡処理部に対応し、観測点抽出部31は観測点抽出部に対応し、予測点生成部33は予測点生成部に対応し、位置合わせ部35は位置合わせ部に対応し、残差計算部37は残差計算部に対応し、状態更新部39は状態更新部に対応する。
 [2.第2実施形態]
 第2実施形態は、基本的な構成は第1実施形態と同様であるため、以下では主として第1実施形態との相違点について説明する。なお、第1実施形態と同じ符号は、同一構成を示すものであって、先行する説明を参照する。
 本第2実施形態のハード構成は、第1実施形態と同じであるので、その説明は省略する。
 本第2実施形態では、スキャンマッチングの手法に特徴があるので、スキャンマッチングの手法について説明する。
 本第2実施形態では、スキャンマッチングの位置合わせの過程で、予測点生成部33で生成した予測点のうち、センサ(例えば、測距センサ5)から観測できる点を逐次的に見直す処理を行う。以下、詳細に説明する。
 [2-1.処理の内容]
 図14Aの左端の図に示すように、センシングにより実際輪郭に沿った観測点が得られ、また、予測輪郭(例えば、長方形の枠)に沿った予測点が算出された場合を考える。ここでは、長方形の枠に沿った全ての予測点(即ち、丸で示す予測点)のうち、センサから見て、例えばレーダー波の照射範囲において反射波が得られると考えられる範囲の予測点(即ち、内部に複数のドットを付した丸で示す予測点)を選択する。
 ここで、図14Aの左端の図に示すように、実際輪郭に沿った観測点(即ち、内部に細かいメッシュを付した丸)と予測輪郭の予測点(即ち、内部に複数のドットを付した丸)とに対して、前記文献[3]に記載のスキャンマッチングによって、そのまま位置合わせを行うと、場合によっては、図14Bに示すように、適切な位置合わせが行えないことがある。
 つまり、実際輪郭の観測点は、実際輪郭の右下側の2つの側面の観測点であるが、予測輪郭の予測点は、予測輪郭の左側の2つ側面の予測点であるので、これらの観測点と予測点とのスキャンマッチングを行っても、観測点と予測点とを正しく対応付けることができないことがある。
 そこで、本第2実施形態では、まず、図14Aの左から2番目の図に示すように、スキャンマッチングに用いる予測点を取り直す処理を行う。
 具体的には、スキャンマッチングに用いる予測点として、センサから直接に検出できる扇状の範囲(例えば、レーダー波の照射範囲)の予測点を取り直す処理を行う。つまり、予測輪郭に沿った全ての予測点のうち、センサから観測できる点を逐次的に見直すようにする。
 そして、図14Aの右端の図に示すように、実際輪郭の観測点と予測輪郭の取り直した予測点とを用いて、スキャンマッチングを行う。
 [2-2.効果]
 本第2実施形態は、第1実施形態と同様な効果を奏する。
 また、本第2実施形態では、スキャンマッチングにおいて、誤ったターゲット3側面等に対応付くことを防ぐことができる。よって、適切な残差計算が可能となるため、追跡精度を向上できる。
 なお、ターゲット3の予測形状(即ち、予測輪郭)のうち、観測できる位置を対応付けの計算に採用すること自体は、前記文献[3]に記載があるが、本第2実施形態においては、スキャンマッチングの過程で、予測点を取りなおすこと(即ち、逐次的に見直すこと)に特徴がある。
 [3.第3実施形態]
 第3実施形態は、基本的な構成は第1実施形態と同様であるため、以下では主として第1実施形態との相違点について説明する。なお、第1実施形態と同じ符号は、同一構成を示すものであって、先行する説明を参照する。
 本第3実施形態のハード構成は、第1実施形態と同じであるので、その説明は省略する。
 本第3実施形態は、観測点が少ない場合の処理を示している。
 [3-1.処理の内容1]
 本第3実施形態の一つの例では、センサ(例えば、測距センサ5)から観測できる点(即ち、観測点群)の空間的な広がりを判断し、その広がりが一定以下の狭い範囲である場合には、スキャンマッチングを行わないようにする。なお、空間的な広がりとしては、平面視における広がりを採用してもよい。
 つまり、図15に示すように、観測点群の広がりが狭い場合には、観測点と予測点との対応付けが難しく、適切にスキャンマッチングが行えない可能性があるので、そのような場合には、スキャンマッチングを行わないようにする。
 これにより、不適切なスキャンマッチングに起因する物体の追跡性の低下を抑制できる。
 [3-2.処理の内容2]
 本第3実施形態の他の例では、センサから観測できる点(即ち、観測点群)の空間的な広がりを判断し、その広がりが一定以下の狭い範囲である場合には、状態量を更新する際に、観測点の情報である観測情報の重みを低下させる。
 つまり、実際輪郭等の幾何学的な特徴(例えば、四角形の枠の形状)が得られないことを判断し、スキャンマッチングが破綻する可能性があることを想定し、そのような場合には、観測情報の重みを低下させる。
 以下、詳細に説明する。
 観測ノイズが、共分散行列Rtで表現でき、ゼロ平均の多変数正規分布に従うとする。観測が独立であるときは、下記式[数2]に示すように、共分散行列Rtは対角行列として定義される。なお、ここで、観測ノイズとは、例えば、測距センサ5から得られる測距情報の誤差(例えば、距離の誤差やドップラー速度の誤差)のことを意味する。
Figure JPOXMLDOC01-appb-M000002
 観測点が1点しかない場合は、空間的な広がりが無い(即ち、面積ゼロ)と判断できるため、共分散行列の成分に非常に大きな値(例えば、10σ)を設定する。2点以上の場合は、例えば点群に外接する矩形の面積を計算し、その面積に応じて、例えば図16に示すような関係で共分散行列の成分を調整する。
 このように、幾何的な特徴が得られないことを判断し、スキャンマッチングが破綻するような場合に、観測ノイズを増大させ、相対的に観測情報の重みを低下させ、予測重視な推定を行うこと(即ち、予測点を用いた推定を重視すること)を行うことで、ロバスト性向上を図ることがでる。
 例えば、下記文献[6](下記URL参照)の「非線形カルマンフィルタの基礎」の「命題2(非線形カルマンフィルタ)」に示される下記式[数3]を用いた処理を行うことにより、観測情報の重みを低下させ、予測重視な推定を行うことができる。
 文献[6]:https://www.jstage.jst.go.jp/article/sicejl/56/9/56_638/_pdf
Figure JPOXMLDOC01-appb-M000003
 つまり、公知の前記[数3]に記載の式に、上述した共分散行列Rtを用いて、拡張カルマンフィルタにおけるカルマンゲインKを計算する。ここでは、共分散行列Rtが分母項にくるため、共分散行列Rtが大きいと、カルマンゲインKが小さくなる。そして、カルマンゲインKが小さくなることにより、観測重みが低下する。
 このように、観測点を用いた推定よりも、予測点を用いた推定を重視することで、そうでない場合に比べて、物体の追跡性を向上させることができる。
 [4.他の実施形態]
 以上、本開示の実施形態について説明したが、本開示は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
 (4a)本開示に記載の物体追跡装置は、車両等の自動運転システムや監視システムなどに適用することができる。
 (4b)本開示に記載の物体追跡装置は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。
 あるいは、本開示に記載の物体追跡装置は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。
 もしくは、本開示に記載の物体追跡装置は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。
 また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。物体追跡装置に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
 (4c)上述した物体追跡装置の他、当該物体追跡装置のコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移有形記録媒体、物体
追跡方法など、種々の形態で本開示を実現することもできる。
 (4d)上記各実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記各実施形態の構成の一部を省略してもよい。また、上記各実施形態の構成の少なくとも一部を、他の実施形態の構成に対して付加または置換してもよい。
[本明細書が開示する技術思想]
 [項目1]
 センサ(5)により、周辺環境を所定のサイクルにてセンシングし、当該センシングによって得られた情報に基づいて、ターゲットである物体(3)を追跡する物体追跡装置(1)であって、
 前記センサによって得られた前記物体を示す観測点の情報を用いて、現サイクルにおける前記物体の状態を示す状態量を推定するように構成された追跡処理部(9)を備え、
 前記追跡処理部は、
 前記物体の状態量として、少なくとも前記物体の位置と前記物体の形状とに関する前記状態量を用いるものであり、
 前サイクルにて推定した前記物体の状態量に基づいて、前記現サイクルの前記物体から得られた前記観測点を抽出するように構成された観測点抽出部(31)と、
 前記前サイクルにて推定した前記物体の状態量に基づいて、前記観測点が期待できる予測する位置に、少なくとも一つの予測点を生成するように構成された予測点生成部(33)と、
 前記現サイクルの前記物体から得られた前記観測点と、前記予測点生成部で生成した前記予測点と、をスキャンマッチングにより位置合わせするように構成された位置合わせ部(35)と、
 前記現サイクルから得られた前記観測点と前記位置合わせされた前記予測点から、前記観測点に対応する前記予測された位置における前記物体の対応点を求め、前記観測点と前記対応点との残差を算出するように構成された残差計算部(37)と、
 前記残差計算部にて算出した残差に基づいて、前記物体の状態量を更新するように構成された状態更新部(39)と、
 を備えた、物体追跡装置。
 [項目2]
 項目1に記載の物体追跡装置であって、
 前記位置合わせ部は、前記現サイクルの前記物体から得られた前記観測点から、前記物体の輪郭上又は前記輪郭の所定範囲内の近傍にある前記観測点を抽出し、前記抽出した前記観測点を前記スキャンマッチングに用いるように構成された、
 物体追跡装置。
 [項目3]
 項目1または項目2に記載の物体追跡装置であって、
 前記位置合わせ部は、前記スキャンマッチングの位置合わせの過程で、前記予測点生成部で生成した前記予測点のうち、前記センサにより観測できる前記予測点を選択するように見直しを行うように構成された、
 物体追跡装置。
 [項目4]
 項目1から項目3までのいずれか1項に記載の物体追跡装置であって、
 前記位置合わせ部は、前記センサにより観測できる前記観測点の点群の空間的な広がりを判断し、前記空間的な広がりが所定範囲以下の場合には、前記スキャンマッチングを行わないように構成された、
 物体追跡装置。
 [項目5]
 項目1から項目4までのいずれか1項に記載の物体追跡装置であって、
 前記位置合わせ部は、前記センサにより観測できる前記観測点の点群の空間的な広がりを判断し、前記空間的な広がりが所定範囲以下の場合には、前記所定範囲以下でない場合に比べて、前記観測点を用いて前記状態量を更新する際に、前記観測点の重み付けを低減するように構成された、
 物体追跡装置。

Claims (5)

  1.  センサ(5)により、周辺環境を所定のサイクルにてセンシングし、当該センシングによって得られた情報に基づいて、ターゲットである物体(3)を追跡する物体追跡装置(1)であって、
     前記センサによって得られた前記物体を示す観測点の情報を用いて、現サイクルにおける前記物体の状態を示す状態量を推定するように構成された追跡処理部(9)を備え、
     前記追跡処理部は、
     前記物体の状態量として、少なくとも前記物体の位置と前記物体の形状とに関する前記状態量を用いるものであり、
     前サイクルにて推定した前記物体の状態量に基づいて、前記現サイクルの前記物体から得られた前記観測点を抽出するように構成された観測点抽出部(31)と、
     前記前サイクルにて推定した前記物体の状態量に基づいて、前記観測点が期待できる予測する位置に、少なくとも一つの予測点を生成するように構成された予測点生成部(33)と、
     前記現サイクルの前記物体から得られた前記観測点と、前記予測点生成部で生成した前記予測点と、をスキャンマッチングにより位置合わせするように構成された位置合わせ部(35)と、
     前記現サイクルから得られた前記観測点と前記位置合わせされた前記予測点から、前記観測点に対応する前記予測された位置における前記物体の対応点を求め、前記観測点と前記対応点との残差を算出するように構成された残差計算部(37)と、
     前記残差計算部にて算出した残差に基づいて、前記物体の状態量を更新するように構成された状態更新部(39)と、
     を備えた、物体追跡装置。
  2.  請求項1に記載の物体追跡装置であって、
     前記位置合わせ部は、前記現サイクルの前記物体から得られた前記観測点から、前記物体の輪郭上又は前記輪郭の所定範囲内の近傍にある前記観測点を抽出し、前記抽出した前記観測点を前記スキャンマッチングに用いるように構成された、
     物体追跡装置。
  3.  請求項1に記載の物体追跡装置であって、
     前記位置合わせ部は、前記スキャンマッチングの位置合わせの過程で、前記予測点生成部で生成した前記予測点のうち、前記センサにより観測できる前記予測点を選択するように見直しを行うように構成された、
     物体追跡装置。
  4.  請求項1に記載の物体追跡装置であって、
     前記位置合わせ部は、前記センサにより観測できる前記観測点の点群の空間的な広がりを判断し、前記空間的な広がりが所定範囲以下の場合には、前記スキャンマッチングを行わないように構成された、
     物体追跡装置。
  5.  請求項1に記載の物体追跡装置であって、
     前記位置合わせ部は、前記センサにより観測できる前記観測点の点群の空間的な広がりを判断し、前記空間的な広がりが所定範囲以下の場合には、前記所定範囲以下でない場合に比べて、前記観測点を用いて前記状態量を更新する際に、前記観測点の重み付けを低減するように構成された、
     物体追跡装置。
PCT/JP2023/023958 2022-07-01 2023-06-28 物体追跡装置 WO2024005063A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022107182 2022-07-01
JP2022-107182 2022-07-01

Publications (1)

Publication Number Publication Date
WO2024005063A1 true WO2024005063A1 (ja) 2024-01-04

Family

ID=89382383

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/023958 WO2024005063A1 (ja) 2022-07-01 2023-06-28 物体追跡装置

Country Status (1)

Country Link
WO (1) WO2024005063A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019152575A (ja) * 2018-03-05 2019-09-12 株式会社デンソーアイティーラボラトリ 物体追跡装置、物体追跡方法及び物体追跡用コンピュータプログラム
EP3561542A1 (en) * 2018-04-27 2019-10-30 Veoneer Sweden AB Generic object tracking based on significant points
JP2021004737A (ja) * 2019-06-25 2021-01-14 株式会社Soken 追跡装置
CN112946625A (zh) * 2021-02-04 2021-06-11 江南大学 基于b样条形状驱动多扩展目标航迹跟踪及分类方法
US20220105946A1 (en) * 2020-10-06 2022-04-07 Hyundai Motor Company Method of simultaneously estimating movement and shape of target vehicle using preliminary distribution model of tracklet

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019152575A (ja) * 2018-03-05 2019-09-12 株式会社デンソーアイティーラボラトリ 物体追跡装置、物体追跡方法及び物体追跡用コンピュータプログラム
EP3561542A1 (en) * 2018-04-27 2019-10-30 Veoneer Sweden AB Generic object tracking based on significant points
JP2021004737A (ja) * 2019-06-25 2021-01-14 株式会社Soken 追跡装置
US20220105946A1 (en) * 2020-10-06 2022-04-07 Hyundai Motor Company Method of simultaneously estimating movement and shape of target vehicle using preliminary distribution model of tracklet
CN112946625A (zh) * 2021-02-04 2021-06-11 江南大学 基于b样条形状驱动多扩展目标航迹跟踪及分类方法

Similar Documents

Publication Publication Date Title
CN108332758B (zh) 一种移动机器人的走廊识别方法及装置
US8649557B2 (en) Method of mobile platform detecting and tracking dynamic objects and computer-readable medium thereof
CN110554376A (zh) 用于运载工具的雷达测程法
CN108762309B (zh) 一种基于假设卡尔曼滤波的人体目标跟随方法
CN110663060B (zh) 一种用于表示环境元素的方法、装置、系统、以及车辆/机器人
US11263774B2 (en) Three-dimensional position estimation device and program
WO2018221455A1 (ja) 更新装置、制御方法、プログラム及び記憶媒体
KR102547274B1 (ko) 이동 로봇 및 이의 위치 인식 방법
US20230386076A1 (en) Target detection method, storage medium, electronic device, and vehicle
US11574480B2 (en) Computerized device for driving assistance
CN113570629A (zh) 去除动态物体的语义分割方法及系统
CN111402328B (zh) 一种基于激光里程计的位姿计算方法及装置
CN115349138A (zh) 图像处理系统和方法
Suhr et al. Dense stereo-based robust vertical road profile estimation using Hough transform and dynamic programming
CN113932799A (zh) 激光地图更新方法、系统、电子设备、介质及程序产品
CN113281718A (zh) 一种基于激光雷达场景流估计的3d多目标跟踪系统及方法
WO2024005063A1 (ja) 物体追跡装置
JP6988873B2 (ja) 位置推定装置および位置推定用コンピュータプログラム
Munz et al. A sensor independent probabilistic fusion system for driver assistance systems
US11756312B2 (en) Orientation-agnostic lane tracking in a vehicle
CN114817765A (zh) 基于地图的目标航向消歧
CN110749327B (zh) 一种合作环境下的车辆导航方法
CN114613002B (zh) 基于光线投影原理的运动视角下动态物体检测方法及系统
US11798295B2 (en) Model free lane tracking system
US20230358877A1 (en) Method, Computer Program, Storage Medium, Device for Tracking an Object

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23831503

Country of ref document: EP

Kind code of ref document: A1