WO2021200037A1 - 道路劣化判定装置、道路劣化判定方法、及び、記録媒体 - Google Patents

道路劣化判定装置、道路劣化判定方法、及び、記録媒体 Download PDF

Info

Publication number
WO2021200037A1
WO2021200037A1 PCT/JP2021/010096 JP2021010096W WO2021200037A1 WO 2021200037 A1 WO2021200037 A1 WO 2021200037A1 JP 2021010096 W JP2021010096 W JP 2021010096W WO 2021200037 A1 WO2021200037 A1 WO 2021200037A1
Authority
WO
WIPO (PCT)
Prior art keywords
road
point
image
deterioration
priority
Prior art date
Application number
PCT/JP2021/010096
Other languages
English (en)
French (fr)
Inventor
奈々 十文字
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2022511768A priority Critical patent/JPWO2021200037A5/ja
Priority to US17/910,314 priority patent/US20230127338A1/en
Publication of WO2021200037A1 publication Critical patent/WO2021200037A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/55External transmission of data to or from the vehicle using telemetry
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • This disclosure relates to a road deterioration determination device, a road deterioration determination method, and a recording medium.
  • Patent Document 1 An example of such a device is disclosed in Patent Document 1.
  • Patent Document 1 excludes images that may interfere with normal analysis, such as images in which shadows of trees and buildings are reflected on the road surface, images of wet road surfaces, and the like. It is disclosed that images are selected and used for analysis.
  • the values of various attributes related to image capture may differ depending on the location (environment) on the road.
  • the analysis accuracy of the image captured in time zone A at a certain point depends on the image captured in time zone B due to the difference in road brightness depending on the time zone. Even if it is higher than the analysis accuracy, the analysis accuracy of the image captured in the time zone A may be lower than the analysis accuracy of the image captured in the time zone B at other points.
  • Patent Document 1 does not disclose the use of different selection conditions depending on the location (environment).
  • One of the purposes of the present disclosure is to provide a road deterioration determination device, a road deterioration determination method, and a recording medium capable of solving the above-mentioned problems and improving the determination accuracy at various points in the road deterioration determination. be.
  • the road deterioration determination device is a point on the road based on the priority of the attribute value related to the acquisition of the image of the road surface taken at the point set for each point on the road. It is provided with a selection means for selecting an image of the road surface taken in 1 and a determination means for determining road deterioration at the one point by using the selected image and a model for determining road deterioration from the image.
  • the road deterioration determination method in one aspect of the present disclosure is based on the priority of the attribute value related to the taking of the image of the road surface taken at the point set for each point on the road, and the one point on the road.
  • the image of the road surface taken in is selected, and the road deterioration at the one point is determined by using the selected image and the model for determining the road deterioration from the image.
  • the computer-readable recording medium in one aspect of the present disclosure is based on the priority of the value of the attribute related to the acquisition of the image of the road surface taken at the point set on the computer for each point on the road.
  • An image of the road surface taken at one point on the road is selected, and a process of determining the road deterioration at the one point is executed by using the selected image and a model for determining the road deterioration from the image.
  • the effect of this disclosure is that the judgment accuracy at various points can be improved in the road deterioration judgment.
  • FIG. 1 is a schematic view showing an outline of the road deterioration determination system 10 according to the first embodiment.
  • the road deterioration determination system 10 includes a plurality of image pickup devices 20_1, 20_2, ... 20_N (N represents a natural number) (hereinafter, collectively referred to as an image pickup device 20), a road deterioration determination device 30, and a road deterioration determination device 30.
  • a plurality of vehicles 40_1, 40_2, ... 40_N N represents a natural number) (hereinafter, collectively referred to as vehicle 40).
  • the imaging devices 20_1, 20_2, ... 20_N are mounted on vehicles 40_1, 40_2, ... 40_N belonging to an organization that manages the road, such as a local government or a road management company, respectively. Further, in the road deterioration determination system 10, the road deterioration determination device 30 and the image pickup devices 20_1, 20_2, ... 20_N are connected so as to be able to communicate via, for example, a communication network.
  • the road deterioration determination device 30 may be arranged in a place other than the road management department of the above-mentioned engine.
  • the road deterioration determination device 30 may be realized by a cloud computing system.
  • the image pickup device 20 may be, for example, a drive recorder mounted on a vehicle.
  • the image pickup device 20 may be mounted on another moving body such as a bicycle or a drone, or a person may carry the image pickup device 20 with him / her.
  • FIG. 2 is a block diagram showing a configuration of the road deterioration determination system 10 according to the first embodiment.
  • the structure may be a structure in a social infrastructure such as a road (for example, a road surface, a sign, and a ceiling and a side wall such as a tunnel), a railroad, a port, a dam, and a communication facility.
  • a road for example, a road surface, a sign, and a ceiling and a side wall such as a tunnel
  • the structure may be a structure in life-related social capital such as schools, hospitals, parks, and social welfare facilities.
  • the image pickup apparatus 20 includes an image pickup unit 21, a time acquisition unit 22, a point acquisition unit 23, a storage unit 24, and a transmission unit 25.
  • the imaging unit 21 photographs the road on which the vehicle 40 travels.
  • the imaging unit 21 photographs the surroundings of the vehicle 40 at predetermined intervals while the vehicle 40 is traveling on the road.
  • the image obtained by photographing includes the road in front of the vehicle 40 and its surroundings. Further, the image obtained by photographing is an image of the road on which the moving body moves and the surroundings when the imaging device 20 is mounted on the moving body in general, and in the case of a person, the road on which the person moves and the image. , The image around it.
  • the time acquisition unit 22 acquires the date and time (hereinafter, also referred to as the shooting date and the shooting time) when the image capturing unit 21 took the image.
  • the time acquisition unit 22 outputs the shooting date and the shooting time to the imaging unit 21.
  • the point acquisition unit 23 acquires points on the road (hereinafter, also referred to as shooting points) taken by the imaging unit 21.
  • the point acquisition unit 23 is, for example, a GPS (Global Positioning System) receiver, and may be provided in the imaging unit 21 or may be a separate body.
  • the point acquisition unit 23 outputs the shooting point to the image pickup unit 21.
  • the imaging unit 21 acquires the shooting date and the shooting time from the time acquisition unit 22, acquires the shooting point from the point acquisition unit 23, and associates the shooting date, the shooting time, and the shooting point with the shot image. , As image information, it is stored in the storage unit 24.
  • the storage unit 24 stores the vehicle ID (Identifier). In addition, the storage unit 24 stores image information.
  • the storage unit 24 may be a portable storage medium such as a RAM (Random Access Memory) or a USB (Universal Serial Bus) memory.
  • the storage unit 24 is a portable storage medium such as a USB memory
  • the image of the USB memory may be directly read by the road deterioration determination device 30.
  • the driver of the vehicle 40 may pass the USB memory in which the image is stored to the operator of the road deterioration determination device 30, and the operator may cause the road deterioration determination device 30 to read the USB memory.
  • the transmission unit 25 acquires image information from the storage unit 24 and transmits it to the road deterioration determination device 30 via the communication network.
  • the transmission of the image information may be, for example, a form in which the image information including the image is transmitted each time the image is taken, and the image information including each of the one or more images taken in each period is transmitted at a predetermined period. It may be in the form of transmission.
  • the road deterioration determination device 30 includes an image acquisition unit 31, an image storage unit 32, a model storage unit 33, a deterioration status storage unit 34, a priority determination unit 35, a priority storage unit 36, and a selection unit 37. , And the determination unit 38.
  • the components of the road deterioration determination device 30 may be realized by the cloud computing system as described above.
  • the road deterioration determination device 30 determines deterioration on the road surface of the road.
  • the deterioration on the road surface is, for example, unevenness, ruts, cracks, potholes, etc. on the road surface.
  • the image acquisition unit 31 receives the image information transmitted from the image pickup device 20 via the communication network.
  • the image acquisition unit 31 adds a value (hereinafter, also referred to as an attribute value) to the acquired image information for at least one attribute, and stores the image information in the image storage unit 32.
  • FIG. 3 is a diagram showing an example of image information to which an attribute is added in the first embodiment.
  • the information ID is added to the vehicle ID, the shooting date, the shooting time, the shooting point, and the image file included in the image information transmitted from the image pickup apparatus 20.
  • the information ID is an identifier for identifying image information.
  • the vehicle type, weather, and time zone are added as attributes.
  • a name or an identifier representing the type of the vehicle 40 is set in the vehicle type.
  • the vehicle type may be set to the type of the vehicle 40 such as a sedan, a van, or a wagon.
  • the weather for example, the weather type (sunny, cloudy, rain, etc.) of the shooting point at the shooting time included in the image information acquired from the Japan Meteorological Agency or a weather site on the Internet is set.
  • the time zone for example, a predetermined time zone determined by the shooting date and the shooting time included in the image information is set.
  • the attributes added to the image information may further include the vehicle interior environment (windshield reflection status, windshield dirt status) and road conditions.
  • windshield reflection status for example, the level of reflection in the vehicle on the windshield is set.
  • windshield stain status for example, the level of windshield stain is set.
  • road condition the presence / absence of shadow in the road area, the presence / absence of snow, the dryness level, the type of pavement, and the like are set.
  • the image acquisition unit 31 may read (acquire) image information from a storage medium such as a USB memory.
  • the image storage unit 32 stores image information to which attributes have been added by the image acquisition unit 31.
  • the model storage unit 33 stores the road deterioration determination model input in advance by the operator or the like.
  • the road deterioration determination model is a model for determining (estimating) the presence or absence of road deterioration from an image of a road area (road surface), and is obtained, for example, by learning an image of road deterioration by machine learning or deep learning.
  • the road deterioration determination model outputs a road deterioration determination result when an image of a road area (road surface) is input.
  • FIG. 4 is a diagram showing an example of a judgment result of road deterioration in the first embodiment.
  • a plurality of rectangles are shown along the determined road deterioration (cracks).
  • the rectangle indicates a partial area where it is determined that there is road deterioration (crack) when the road area is divided into a plurality of partial areas and the presence or absence of road deterioration (crack) is determined for each partial area. ..
  • the road deterioration determination model outputs an image showing a partial area where it is determined that there is road deterioration in the road area, for example, as shown in FIG. 4, as the judgment result of the road deterioration.
  • the deterioration status storage unit 34 stores the road deterioration status at each point on the road, which is input in advance by the operator or the like, together with the acquisition time of the deterioration status.
  • the road deterioration situation is the actual deterioration situation of the road.
  • the road deterioration status is used as "correct answer data" when the priority determination unit 35 determines the priority of the attribute value at each point.
  • an inspector or the like confirms the image or the actual road surface condition with respect to the judgment result of each partial area of the image by the road deterioration judgment model as shown in FIG. 4, and the judgment result. Obtained by modifying. In this case, as the acquisition time, the shooting time of the image used for the determination by the road deterioration determination model is used.
  • the road deterioration condition can be obtained by another well-known method such as a result obtained by running a vehicle equipped with a laser scanner and an acceleration sensor. It may be a thing.
  • the priority determination unit 35 determines the priority of the attribute value added to the image for each point on the road.
  • the priority is used to select an image (select an image having a high priority) when performing a road deterioration determination using the road deterioration determination model.
  • the priority determination unit 35 acquires the road deterioration status of the target point for calculating the priority (hereinafter, also referred to as the priority calculation target point) and the acquisition time of the deterioration status from the deterioration status storage unit 34.
  • the priority determination unit 35 acquires image information within the period for which the priority is calculated (hereinafter, also referred to as the priority calculation target period) for the shooting time from the image storage unit 32.
  • the priority calculation target period is a period in which it is expected that the deterioration status has not changed significantly from the road deterioration status (correct answer data) acquired from the deterioration status storage unit 34. For example, acquisition of the deterioration status. Any period within a predetermined time from the time. Further, the priority determination unit 35 acquires a road deterioration determination model from the model storage unit 33.
  • the priority determination unit 35 inputs each of the images included in the image information of the priority calculation target period into the road deterioration determination model, and acquires the road deterioration determination result. Then, the priority determination unit 35 compares each of the acquired determination results with the road deterioration status (correct answer data) acquired from the deterioration status storage unit 34. Here, the priority determination unit 35 calculates and compares the deterioration rate in the road region of the image for each of the determination result by the road deterioration determination model and the road deterioration status (correct answer data).
  • the deterioration rate in the road area is, for example, the ratio of the area of the partial area determined to be road deterioration to the area of the entire road area on the image.
  • FIG. 5 is a diagram showing an example of the deterioration rate calculated from the determination result by the road deterioration determination model in the first embodiment.
  • the deterioration rate is shown in addition to the image information of each point.
  • FIG. 6 is a diagram showing an example of the deterioration rate calculated from the road deterioration state (correct answer data) in the first embodiment. In the example of FIG. 6, the deterioration rate at each point is shown.
  • the priority determination unit 35 may compare the presence or absence of road deterioration and the number of road deteriorations.
  • the priority determination unit 35 determines the priority of the attribute value based on the result of the above comparison.
  • the priority determination unit 35 calculates, for example, the agreement rate between the determination result by the road deterioration determination model and the road deterioration status (correct answer data) for each image. Then, the priority determination unit 35 determines the priority so that the higher the match rate, the higher the priority of the attribute value, based on the match rate calculated for each image and the attribute value of each image. ..
  • the priority determination unit 35 calculates, for example, the average value of the match rate for each possible attribute value of each attribute. Then, the priority determination unit 35 determines the priority of the attribute value so that the larger the average value of the matching rate, the higher the priority.
  • the priority determination unit 35 obtains an attribute having a correlation with the matching rate (an attribute having a degree of correlation equal to or higher than a predetermined value) by, for example, a statistical method such as multivariate analysis, and the attribute having the correlation is an attribute.
  • the average value of the match rate for each value may be calculated.
  • FIG. 7 is a diagram showing an example of priority of attribute values in the first embodiment.
  • the attribute values are shown in descending order of priority (lowest priority value).
  • the priority determination unit 35 stores the priority of the attribute value at each determined point in the priority storage unit 36.
  • the priority storage unit 36 stores the priority of the attribute value at each point determined by the priority determination unit 35.
  • the selection unit 37 acquires the priority of the attribute value of the target point for determining the road deterioration (hereinafter, also referred to as the determination target point) from the priority storage unit 36. From the image information stored in the image storage unit 32, the selection unit 37 is the image information in which the shooting point is the determination target point and the shooting time is the target period to be determined (hereinafter, also referred to as the determination target period). , Select the image information having a high priority of the attribute value (highest priority or higher priority than a predetermined value). The determination target period may be different from or overlap with the priority calculation target period described above.
  • the determination unit 38 determines the road deterioration at the determination target point using the road deterioration determination model.
  • the determination unit 38 inputs the image included in the image information selected by the selection unit 37 into the road deterioration determination model, and obtains the determination result of the road deterioration.
  • the determination unit 38 outputs (displays) the determination result to a display device or the like (not shown).
  • FIG. 8 is a flowchart showing the priority setting process in the first embodiment.
  • the priority setting process is executed, for example, in response to an instruction from an operator or the like when a plurality of image information can be acquired for each point on the road.
  • the image information as shown in FIG. 3 is stored in the image storage unit 32. Further, it is assumed that the road deterioration determination model is stored in the model storage unit 33 in advance, and the road deterioration status at each point is stored in the deterioration status storage unit 34.
  • the priority determination unit 35 selects one priority calculation target point from the points on the road (step S101).
  • the priority determination unit 35 acquires the road deterioration status of the priority calculation target point and the acquisition time of the deterioration status from the deterioration status storage unit 34 (step S102).
  • the priority determination unit 35 acquires image information from the image storage unit 32 that the shooting point is the priority calculation target point and the shooting time is within the priority calculation target period (step S103).
  • the priority determination unit 35 inputs each of the images included in the image information of the priority calculation target period into the road deterioration determination model, and acquires the road deterioration determination result (step S104).
  • the priority determination unit 35 compares each of the acquired determination results with the road deterioration status (correct answer data) acquired from the deterioration status storage unit 34 (step S105). For example, the priority determination unit 35 calculates the deterioration rate for the point A1-1, based on each of the acquired determination results, as shown in FIG. Further, the priority determination unit 35 calculates the deterioration rate at the point A1-1, as shown in FIG. 6, based on the road deterioration condition. The priority determination unit 35 calculates the matching rate of these deterioration rates.
  • the priority determination unit 35 determines the priority of the attribute value based on the result of the comparison (step S106). For example, the priority determination unit 35 determines the priority of the attribute value for the point A1-1, as shown in FIG. 7, based on the matching rate and the attribute value calculated for each image.
  • the priority determination unit 35 stores the determined priority of the attribute value in the priority storage unit 36 (step S107).
  • the priority determination unit 35 repeats the process from step S101 at all points on the road (step S108).
  • the priority determination process is performed at the timing when a sufficient number of image information for the priority calculation target period is obtained.
  • the priority of the attribute value may change due to changes in the road environment (for example, growth of trees, new structures around it, etc.). Therefore, it is preferable that the priority setting process is performed periodically while updating the priority calculation target period to, for example, the latest period.
  • FIG. 9 is a flowchart showing the road deterioration determination process in the first embodiment.
  • the road deterioration determination process is executed in response to an instruction from an operator or the like after the priority of the attribute value at each point is determined by the priority setting process described above.
  • the execution instruction for example, the above-mentioned determination target point and the determination target period are specified.
  • the priority of the attribute value at each point as shown in FIG. 7 is stored in the priority storage unit 36. Further, it is assumed that the road deterioration determination model is stored in the model storage unit 33 in advance.
  • the selection unit 37 acquires the priority of the attribute value of the determination target point from the priority storage unit 36 (step S201). For example, the selection unit 37 acquires the priority of the attribute value as shown in FIG. 7 for the point A1-1.
  • the selection unit 37 acquires image information from the image storage unit 32 whose shooting point is the determination target point and whose shooting time is within the determination target period (step S202).
  • the selection unit 37 selects the image information from the image information acquired in step S202 based on the priority of the attribute value acquired in step S201 (step S203).
  • the selection unit 37 selects, for example, image information having the highest priority or an attribute value having a priority equal to or higher than a predetermined value.
  • the selection unit 37 acquires image information having "attribute: weather, attribute value: cloudy" having a priority of 1 based on the priority of FIG. 7 for the point A1-1.
  • the determination unit 38 inputs the image included in the image information acquired in step S203 into the road deterioration determination model, and acquires the determination result of road deterioration (step S204).
  • the determination unit 38 outputs (displays) the determination result to a display device or the like (not shown) (step S205). For example, the determination unit 38 outputs the determination result in the same format as in FIG.
  • the road deterioration may be calculated by using information other than the image information in addition to the image information.
  • the road deterioration may be calculated using the acceleration detected by using an acceleration sensor or the like.
  • the rutting amount may be used as an index of road deterioration.
  • the value of the road deterioration index is generally an integer of 0 or more (unit: mm).
  • a rational number may be used as the value of the rut digging amount.
  • each embodiment may use the International Roughness Index (IRI: International Roughness Index) as an index of road deterioration.
  • the value of the degree of deterioration is a rational number (unit: mm / m) of 0 or more.
  • each embodiment may use a maintenance index (Maintenance Control Index (MCI)) as an index of road deterioration.
  • MCI is a composite deterioration index obtained from the crack rate, the amount of rutting, and the flatness.
  • the determination accuracy at various points can be improved.
  • the reason is as follows. That is, the selection unit 37 of the road deterioration determination device 30 sets one point on the road based on the priority of the attribute value related to the shooting of the image of the road surface taken at the point set for each point on the road. Select the road surface image taken in. Then, the determination unit 38 determines the road deterioration at one point by using the selected image and the model for determining the road deterioration from the images.
  • the priority determination unit 35 of the road deterioration determination device 30 determines the road deterioration result obtained by using the image and the model of the road surface taken at the point for each point on the road, and the point. This is to determine the priority of the attribute value at the relevant point based on the state of road deterioration.
  • the image information is selected based on the total value of the scores given to the attribute value of each attribute by using the priority. Different from.
  • FIG. 10 is a block diagram showing an example of the configuration of the road deterioration determination system 10 according to the second embodiment.
  • the road deterioration determination device 30 in the second embodiment further includes a priority score storage unit 39 in addition to the configuration of the road deterioration determination device 30 in the first embodiment.
  • the priority determination unit 35 and the selection unit 37 of the road deterioration determination device 30 in the first embodiment are replaced by the priority determination unit 35A and the selection unit 37A, respectively.
  • the priority determination unit 35A generates a score table for the attributes added to the image for each point on the road.
  • the score table shows the priority score of the attribute value of each attribute. Similar to the priority of the first embodiment, the priority score is used to select an image (select an image having a large total priority score) when performing a road deterioration determination using the road deterioration determination model. Used.
  • the priority determination unit 35A inputs each of the images included in the image information of the priority calculation target period into the road deterioration determination model, and the road deterioration is obtained. Each of the determination results of the above is compared with the road deterioration status (correct answer data) acquired from the deterioration status storage unit 34. The priority determination unit 35A determines the priority of the attribute value for each attribute based on the result of the comparison. The priority determination unit 35 calculates, for example, the matching rate between the determination result by the road deterioration determination model and the road deterioration status (correct answer data) for each image. Then, the priority determination unit 35A determines the priority for each attribute by the same method as in the first embodiment so that the higher the matching rate, the higher the priority of the attribute value.
  • FIG. 11 is a diagram showing an example of the priority of the attribute value for each attribute in the second embodiment.
  • the priority values "1", “2", and “3" are set for the attribute values “cloudy”, “sunny”, and “rain”, respectively.
  • the priority determination unit 35A generates a score table by determining the priority score for each attribute so that the higher the priority, the higher the priority score.
  • FIG. 12 is a diagram showing an example of a score table in the second embodiment.
  • the priorities "1", “2”, and “3" are set to the scores "30", "20”, and "0", respectively.
  • the priority score storage unit 39 stores the score table of each point generated by the priority determination unit 35A.
  • the selection unit 37A acquires the score table of the determination target point from the priority score storage unit 39. Then, in the selection unit 37A, from the image information stored in the image storage unit 32, the shooting point is the determination target point, the image information is within the determination target period, and the total score of the attribute values is high (the total score is high). Select the image information with the highest value or the total score equal to or higher than a predetermined value. The total score is obtained by summing the priority scores for the attribute values of each attribute, as indicated by the score table.
  • FIG. 13 is a flowchart showing a priority setting process of the second embodiment.
  • the processes steps S301 to S305 up to the comparison between the road deterioration determination result by the road deterioration determination model and the road deterioration status (correct answer data) are the first embodiment. This is the same as in steps S101 to S105 in the priority setting process of.
  • the priority determination unit 35A determines the priority of the attribute value for each attribute based on the result of the comparison (step S306). For example, the priority determination unit 35A determines the priority of the attribute value for each attribute at the point A1-1, based on the matching rate and the attribute value calculated for each image, as shown in FIG.
  • the priority determination unit 35A generates a score table by determining a priority score for each attribute (step S307). For example, the priority determination unit 35A generates a score table for the point A1-1, as shown in FIG.
  • the priority determination unit 35A stores the determined score table in the priority score storage unit 39 (step S308).
  • the priority determination unit 35A repeats the process from step S301 at all points on the road (step S309).
  • FIG. 14 is a flowchart of the road deterioration determination process of the second embodiment.
  • the selection unit 37A acquires the priority of the attribute value of the determination target point from the priority score storage unit 39 (step S401). For example, the selection unit 37A acquires a score table as shown in FIG. 12 for the point A1-1.
  • the selection unit 37A acquires image information from the image storage unit 32, the shooting point being the determination target point and the shooting time within the determination target period (step S402).
  • the selection unit 37A calculates the total score for each image information acquired in step S402 based on the score table acquired in step S401 (step S403).
  • FIG. 15 is a diagram showing an example of the total score calculated for the image information in the second embodiment.
  • the selection unit 37A calculates the total score for the three image information as shown in FIG.
  • the selection unit 37A selects the image information from the image information acquired in step S402 based on the total score calculated in step S403 (step S404).
  • the selection unit 37A selects, for example, image information having the highest total score or having a total score of a predetermined value or more.
  • the selection unit 37A has a total score of 80 for point A1-1, based on the total score of FIG. 15, "attribute: vehicle type, attribute value: SUV”, “attribute: weather, attribute value: cloudy”, “attribute: Acquire image information having "time zone, attribute value: 12: 00-14: 00".
  • the determination unit 38 inputs the image included in the image information acquired in step S404 into the road deterioration determination model, and acquires the determination result of road deterioration (step S405).
  • the determination unit 38 outputs (displays) the determination result to a display device or the like (not shown) (step S406).
  • the determination unit 38 determines the road deterioration at one point by using the selected image and the model for determining the road deterioration from the images.
  • FIG. 16 is a block diagram showing an example of the configuration of the road deterioration determination device 30 according to the third embodiment.
  • the road deterioration determination device 30 in the third embodiment includes a selection unit 37 and a determination unit 38.
  • the selection unit 37 and the determination unit 38 are embodiments of the selection means and the determination means of the present disclosure, respectively.
  • the selection unit 37 sets an image of the road surface taken at one point on the road based on the priority of the attribute value related to taking the image of the road surface taken at the point set for each point on the road. select.
  • the determination unit 38 determines the road deterioration at one point by using the selected image and the model for determining the road deterioration from the images.
  • the determination accuracy at various points can be improved.
  • the reason is as follows. That is, the selection unit 37 of the road deterioration determination device 30 sets one point on the road based on the priority of the attribute value related to the shooting of the image of the road surface taken at the point set for each point on the road. Select the road surface image taken in. Then, the determination unit 38 determines the road deterioration at one point by using the selected image and the model for determining the road deterioration from the images.
  • each component of each device indicates a block of functional units. Some or all of the components of each device may be realized by any combination of the computer 500 and the program.
  • FIG. 17 is a block diagram showing an example of the hardware configuration of the computer 500.
  • the computer 500 includes, for example, a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, a RAM (Random Access Memory) 503, a program 504, a storage device 505, a drive device 507, and a communication interface 508. , Input device 509, output device 510, input / output interface 511, and bus 512.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • Program 504 includes instructions for realizing each function of each device.
  • the program 504 is stored in the ROM 502, the RAM 503, and the storage device 505 in advance.
  • the CPU 501 realizes each function of each device by executing the instructions included in the program 504.
  • the CPU 501 of the road deterioration determination device 30 executes the instructions included in the program 504 to realize the functions of the image acquisition unit 31, the priority determination unit 35, the selection unit 37, the determination unit 38, and the like.
  • the RAM 503 of the road deterioration determination device 30 may store the data of the image storage unit 32, the model storage unit 33, the deterioration status storage unit 34, and the priority storage unit 36.
  • the drive device 507 reads and writes the recording medium 506.
  • the communication interface 508 provides an interface with the communication network.
  • the input device 509 is, for example, a mouse, a keyboard, or the like, and receives input of information from an operator or the like.
  • the output device 510 is, for example, a display, and outputs (displays) information to an operator or the like.
  • the input / output interface 511 provides an interface with peripheral devices. Bus 512 connects each component of these hardware.
  • the program 504 may be supplied to the CPU 501 via the communication network, or may be stored in the recording medium 506 in advance, read by the drive device 507, and supplied to the CPU 501.
  • FIG. 17 is an example, and components other than these may be added, or some components may not be included.
  • each device may be realized by any combination of computers and programs that are different for each component.
  • a plurality of components included in each device may be realized by any combination of one computer and a program.
  • each component of each device may be realized by a general-purpose or dedicated circuitry including a processor or the like, or a combination thereof. These circuits may be composed of a single chip or a plurality of chips connected via a bus. A part or all of each component of each device may be realized by a combination of the above-mentioned circuit or the like and a program.
  • each component of each device when a part or all of each component of each device is realized by a plurality of computers, circuits, etc., the plurality of computers, circuits, etc. may be centrally arranged or distributed.
  • the road deterioration determination device 30 may be arranged in the vehicle 40, or may be arranged in a place different from the vehicle 40 and connected to the image pickup device 20 via a communication network.

Abstract

道路劣化判定において、さまざまな地点における判定精度を向上させることができる、道路劣化判定装置を提供する。道路劣化判定装置30は、選択部37、及び、判定部38を含む。選択部37は、道路上の地点ごとに設定された、当該地点で撮影された路面の画像の撮影に関する属性の値の優先度に基づき、道路上の一の地点で撮影された路面の画像を選択する。判定部38は、選択した画像と画像から道路劣化を判定するモデルとを用いて、一の地点における道路劣化を判定する。

Description

道路劣化判定装置、道路劣化判定方法、及び、記録媒体
 本開示は、道路劣化判定装置、道路劣化判定方法、及び、記録媒体に関する。
 道路劣化判定では、車両から撮影した道路画像をコンピュータで解析することにより、道路劣化を自動で検出する装置の導入が進められている。
 このような装置の一例が、特許文献1に開示されている。特許文献1には、解析の精度を向上させるために、正常な解析を妨げる可能性がある画像、例えば、木や建物の影が路面に写り込んだ画像、濡れた路面の画像等を除いた画像を選定し、解析に用いることが開示されている。
特開2016-57861号公報
 道路画像の解析の精度を向上させるために、画像撮影に関する様々な属性の値を、解析に用いる画像の選定条件に設定することが考えられる。しかしながら、このような選定条件は、道路における地点(環境)によって異なる可能性がある。例えば、画像を撮影した時間帯に関する条件を設定する場合、時間帯による道路の明るさの違いにより、ある地点では時間帯Aで撮像された画像による解析精度が時間帯Bで撮像された画像による解析精度より高くても、他の地点では時間帯Aで撮像された画像による解析精度が時間帯Bで撮像された画像による解析精度より低い可能性がある。
 特許文献1に開示された技術では、地点(環境)に応じて異なる選定条件を用いることは開示されていない。
 本開示の目的の一つは、上述の課題を解決し、道路劣化判定において、さまざまな地点における判定精度を向上できる、道路劣化判定装置、道路劣化判定方法、及び、記録媒体を提供することである。
 本開示の一態様における道路劣化判定装置は、道路上の地点ごとに設定された、当該地点で撮影された路面の画像の撮影に関する属性の値の優先度に基づき、前記道路上の一の地点で撮影された路面の画像を選択する選択手段と、前記選択した画像と画像から道路劣化を判定するモデルとを用いて、前記一の地点における道路劣化を判定する、判定手段と、を備える。
 本開示の一態様における道路劣化判定方法は、道路上の地点ごとに設定された、当該地点で撮影された路面の画像の撮影に関する属性の値の優先度に基づき、前記道路上の一の地点で撮影された路面の画像を選択し、前記選択した画像と画像から道路劣化を判定するモデルとを用いて、前記一の地点における道路劣化を判定する。
 本開示の一態様におけるコンピュータが読み取り可能な記録媒体は、コンピュータに、道路上の地点ごとに設定された、当該地点で撮影された路面の画像の撮影に関する属性の値の優先度に基づき、前記道路上の一の地点で撮影された路面の画像を選択し、前記選択した画像と画像から道路劣化を判定するモデルとを用いて、前記一の地点における道路劣化を判定する、処理を実行させるプログラムを格納する。
 本開示の効果は、道路劣化判定において、さまざまな地点における判定精度を向上できることである。
第1の実施形態における道路劣化判定システム10の概要を示す概略図である。 第1の実施形態における道路劣化判定システム10の構成を示すブロック図である。 第1の実施形態における、属性が付加された画像情報の例を示す図である。 第1の実施形態における、道路劣化の判定結果の例を示す図である。 第1の実施形態における、道路劣化判定モデルによる判定結果から算出した劣化割合の例を示す図である。 第1の実施形態における、道路劣化状況(正解データ)から算出した劣化割合の例を示す図である。 第1の実施形態における、属性値の優先度の例を示す図である。 第1の実施形態における、優先度設定処理を示すフローチャートである。 第1の実施形態における、道路劣化判定処理を示すフローチャートである。 第2の実施形態における道路劣化判定システム10の構成を示すブロック図である。 第2の実施形態における、属性ごとの属性値の優先度の例を示す図である。 第2の実施形態における、スコアテーブルの例を示す図である。 第2の実施形態の優先度設定処理を示すフローチャートである。 第2の実施形態の道路劣化判定処理のフローチャートである。 第2の実施形態における、画像情報に対して算出された合計スコアの例を示す図である。 第3の実施形態における道路劣化判定装置30の構成の例を示すブロック図である。 コンピュータ500のハードウェア構成の例を示すブロック図である。
 実施形態について図面を参照して詳細に説明する。なお、各図面、及び、明細書記載の各実施形態において、同様の構成要素には同一の符号を付与し、説明を適宜省略する。
 (第1の実施形態)
 第1の実施形態について説明する。
 はじめに、第1の実施形態における道路劣化判定システムの構成を説明する。図1は、第1の実施形態における道路劣化判定システム10の概要を示す概略図である。図1を参照すると、道路劣化判定システム10は、複数の撮像装置20_1、20_2、…20_N(Nは自然数を表す)(以下、まとめて、撮像装置20とも記載)、道路劣化判定装置30、及び、複数の車両40_1、40_2、…40_N(Nは自然数を表す)(以下、まとめて、車両40とも記載)を含む。
 道路劣化判定システム10では、撮像装置20_1、20_2、…20_Nは、それぞれ、例えば、地方自治体や、道路管理会社等、道路を管理する機関に属する車両40_1、40_2、…40_Nに搭載される。また、道路劣化判定システム10では、道路劣化判定装置30、及び、撮像装置20_1、20_2、…20_Nが、例えば、通信ネットワークを介して通信可能なように接続される。
 道路劣化判定装置30、例えば、上述の機関の道路管理部門に配置される。なお、道路劣化判定装置30、上述の機関の道路管理部門以外の場所に配置されてもよい。この場合、道路劣化判定装置30は、クラウドコンピューティングシステムにより実現されてもよい。なお、本実施形態では、撮像装置20が車両40に搭載される場合について説明する。この場合、撮像装置20は、例えば、車両に搭載されるドライブレコーダでもよい。また、撮像装置20は、自転車やドローン等の他の移動体に搭載されてもよく、また、人が撮像装置20を持ち歩いてもよい。
 次いで、図2を参照しながら、各装置の構成を説明する。図2は、第1の実施形態における道路劣化判定システム10の構成を示すブロック図である。
 また、本開示では、道路を対象とする劣化を判定するが、道路以外の構造物にも適用できる。例えば、構造物は、道路(例えば、路面、標識、並びに、トンネルなどの天井及び側壁)、鉄道、港湾、ダム、及び通信施設などの社会基盤における構造物でもよい。あるいは、構造物は、学校、病院、公園、及び、社会福祉施設など生活関連の社会資本における構造物でもよい。
 (撮像装置の構成)
 撮像装置20は、図2に示すように、撮像部21、時刻取得部22、地点取得部23、記憶部24、及び、送信部25を含む。
 撮像部21は、車両40が走行する道路を撮影する。撮像部21は、車両40が道路を走行中に、所定の間隔で、車両40の周囲を撮影する。撮影により得られる画像は、車両40の前方の道路、及びその周囲を含む。また、撮影により得られる画像は、撮像装置20が移動体全般に搭載される場合、当該移動体が移動する道路、及び、その周囲の画像であり、人の場合、人が移動する道路、及び、その周囲の画像である。
 時刻取得部22は、撮像部21が画像を撮影した、日付、及び、時刻(以下、撮影日、及び、撮影時刻とも記載)を取得する。時刻取得部22は、撮影日、及び、撮影時刻を、撮像部21に出力する。
 地点取得部23は、撮像部21が撮影した、道路上の地点(以下、撮影地点とも記載)を取得する。地点取得部23は、例えば、GPS(Global Positioning System)受信機であり、撮像部21が備えるものであっても、別体でもよい。地点取得部23は、撮影地点を、撮像部21に出力する。
 撮像部21は、時刻取得部22から撮影日、及び、撮影時刻を取得し、地点取得部23から撮影地点を取得し、撮影した画像に、撮影日、撮影時刻、及び、撮影地点を関連付けて、画像情報として、記憶部24に記憶させる。
 記憶部24は、車両ID(Identifier)を記憶する。また、記憶部24は、画像情報を記憶する。記憶部24は、例えば、RAM(Random Access Memory)、またはUSB(Universal Serial Bus)メモリなどの可搬型の記憶媒体であってもよい。
 また、記憶部24がUSBメモリのような可搬型の記憶媒体の場合、USBメモリの画像が、道路劣化判定装置30により直接読み出されてもよい。この場合、例えば、車両40の運転者が、画像が記憶されたUSBメモリを、道路劣化判定装置30のオペレータに渡し、当該オペレータが道路劣化判定装置30にUSBメモリを読み取らせてもよい。
 送信部25は、記憶部24から画像情報を取得し、通信ネットワークを介して、道路劣化判定装置30に送信する。画像情報の送信は、例えば、画像を撮影する度に当該画像を含む画像情報を送信する形態でもよく、所定の期間ごとに、各期間に撮影された1以上の画像のそれぞれを含む画像情報を送信する形態でもよい。
 (道路劣化判定装置の構成)
 道路劣化判定装置30は、図2に示すように、画像取得部31、画像記憶部32、モデル記憶部33、劣化状況記憶部34、優先度決定部35、優先度記憶部36、選択部37、及び、判定部38を含む。
 なお、道路劣化判定装置30の構成要素の一部又は全部が、上述のように、クラウドコンピューティングシステムにより実現されてもよい。
 また、道路劣化判定装置30は、道路の路面上の劣化を判定する。ここで、路面上の劣化とは、例えば、路面の凹凸、轍、ひび割れ、及び、ポットホール等である。
 画像取得部31は、撮像装置20から送信される画像情報を、通信ネットワークを介して受信する。画像取得部31は、取得した画像情報に、少なくとも1つの属性について、その値(以下、属性値とも記載)を付加して、画像記憶部32に記憶させる。
 図3は、第1の実施形態における、属性が付加された画像情報の例を示す図である。図3の例では、画像情報は、撮像装置20から送信された画像情報に含まれる、車両ID、撮影日、撮影時刻、撮影地点、及び、画像ファイルに、情報IDが付加されている。情報IDは画像情報を識別するための識別子である。さらに、属性として、車種、天候、時間帯が付加されている。
 ここで、車種には、例えば、車両40の形式を表す名前や識別子が設定される。また、車種には、セダン、バン、ワゴン等の車両40のタイプが設定されてもよい。天候には、例えば、気象庁やインターネット上の気象サイト等から取得した、画像情報に含まれる撮影時間における撮影地点の天候種別(晴れ、曇り、雨等)が設定される。時間帯には、例えば、画像情報に含まれる撮影日及び撮影時刻により決定される、所定の時間帯が設定される。
 また、画像情報に付加する属性は、さらに、車内環境(フロントガラス映り込み状況、フロントガラス汚れ状況)や道路状況を含んでいてもよい。フロントガラス映り込み状況には、例えば、フロントガラスへの車内の映り込みのレベルが設定される。フロントガラス汚れ状況には、例えば、フロントガラスの汚れのレベルが設定される。道路状況には、道路領域における影の有無、積雪の有無、乾燥レベル、舗装の種別等が設定される。これら車内環境や道路状況は、例えば、画像情報に含まれる画像に、パターンマッチング等の周知の画像分析技術や、機械学習やディープラーニングにより学習させたAI(Artificial Intelligence)モデルに適用することにより、取得される。
 また、画像取得部31は、USBメモリなどの記憶媒体から、画像情報を読み出しても(取得しても)よい。
 画像記憶部32は、画像取得部31により属性が付加された画像情報を記憶する。
 モデル記憶部33は、オペレータ等により予め入力された、道路劣化判定モデルを記憶する。道路劣化判定モデルは、道路領域(路面)の画像から道路劣化の有無を判定(推定)するためのモデルであり、例えば、道路劣化の画像を機械学習やディープラーニングにより学習することにより得られる。道路劣化判定モデルは、道路領域(路面)の画像を入力すると、道路劣化の判定結果を出力する。
 図4は、第1の実施形態における、道路劣化の判定結果の例を示す図である。図4では、道路領域において、複数の矩形が、判定された道路劣化(ひび割れ)に沿って示されている。ここで、矩形は、道路領域を複数の部分領域に分割して、部分領域ごとに道路劣化(ひび割れ)の有無を判定する場合において、道路劣化(ひび割れ)が有りと判定された部分領域を示す。
 道路劣化判定モデルは、道路劣化の判定結果として、例えば、図4のように、道路領域において、道路劣化が有りと判定された部分領域を示した画像を出力する。
 劣化状況記憶部34は、オペレータ等により予め入力された、道路上の各地点における道路劣化状況を、当該劣化状況の取得時間とともに記憶する。道路劣化状況は、道路の実際の劣化の状況である。道路劣化状況は、優先度決定部35により、各地点における属性値の優先度を決定するときに「正解データ」として用いられる。道路劣化状況は、例えば、図4のような、道路劣化判定モデルによる画像の各部分領域の判定結果に対して、検査員等が、画像、或いは、実際の路面の状況を確認し、判定結果を修正することにより得られる。この場合、取得時間には、道路劣化判定モデルによる判定に用いた画像の撮影時間が用いられる。
 なお、道路の実際の劣化の状況を表していれば、道路劣化状況は、例えば、レーザースキャナー及び加速度センサを搭載した車両を走行させて得られた結果等、他の周知の方法で得られたものでもよい。
 優先度決定部35は、道路上の地点ごとに、画像に付加されている属性値の優先度を決定する。優先度は、道路劣化判定モデルを用いた道路劣化判定を行うときに、画像を選択する(優先度の高い画像を選択する)ために用いられる。
 優先度決定部35は、劣化状況記憶部34から、優先度を算出する対象の地点(以下、優先度算出対象地点とも記載)の道路劣化状況と、当該劣化状況の取得時間とを取得する。また、優先度決定部35は、画像記憶部32から、撮影時間が、優先度を算出する対象の期間(以下、優先度算出対象期間とも記載)内の画像情報を取得する。ここで、優先度算出対象期間は、劣化状況記憶部34から取得した道路劣化状況(正解データ)から、劣化の状況が大きく変わっていないことが予想される期間であり、例えば、劣化状況の取得時間から、所定時間以内の任意の期間である。さらに、優先度決定部35は、モデル記憶部33から道路劣化判定モデルを取得する。
 優先度決定部35は、優先度算出対象期間の画像情報に含まれる画像の各々を、道路劣化判定モデルに入力し、道路劣化の判定結果を取得する。そして、優先度決定部35は、取得した判定結果の各々と、劣化状況記憶部34から取得した道路劣化状況(正解データ)とを比較する。ここで、優先度決定部35は、道路劣化判定モデルによる判定結果と道路劣化状況(正解データ)とのそれぞれについて、画像の道路領域における劣化割合を算出し、比較する。道路領域における劣化割合は、例えば、画像上の道路領域全体の面積に対する、道路劣化と判定された部分領域の面積の割合である。
 図5は、第1の実施形態における、道路劣化判定モデルによる判定結果から算出した劣化割合の例を示す図である。図5の例では、各地点の画像情報に加えて、劣化割合が示されている。また、図6は、第1の実施形態における、道路劣化状況(正解データ)から算出した劣化割合の例を示す図である。図6の例では、各地点における、劣化割合が示されている。
 なお、優先度決定部35は、上述の劣化割合以外に、道路劣化の有無や、道路劣化の数を比較してもよい。
 優先度決定部35は、上述の比較の結果に基づき、属性値の優先度を決定する。優先度決定部35は、例えば、画像ごとに、道路劣化判定モデルによる判定結果と道路劣化状況(正解データ)との一致率を算出する。そして、優先度決定部35は、各画像に対して算出された一致率と各画像の属性値に基づき、一致率が高いほど、属性値の優先度が高くなるように、優先度を決定する。ここで、優先度決定部35は、例えば、各属性のとり得る属性値ごとに一致率の平均値を算出する。そして、優先度決定部35は、一致率の平均値が大きいほど、優先度が高くなるように、属性値の優先度を決定する。また、優先度決定部35は、例えば、多変量解析等の統計的手法により、一致率と相関を有する属性(相関の度合いが所定値以上の属性)を求め、当該相関を有する属性について、属性値ごとの一致率の平均値を算出してもよい。
 図7は、第1の実施形態における、属性値の優先度の例を示す図である。図7の例では、優先度の高い順(優先度の値の小さい順)に、属性値が示されている。
 優先度決定部35は、決定した各地点における属性値の優先度を、優先度記憶部36に保存する。
 優先度記憶部36は、優先度決定部35により決定された、各地点における属性値の優先度を記憶する。
 選択部37は、優先度記憶部36から、道路劣化を判定する対象の地点(以下、判定対象地点とも記載)の属性値の優先度を取得する。選択部37は、画像記憶部32に記憶されている画像情報から、撮影地点が判定対象地点であり、撮影時間が判定する対象の期間(以下、判定対象期間とも記載)内の画像情報であり、属性値の優先度が高い(優先度が最も高い、或いは、優先度が所定値以上の)画像情報を選択する。判定対象期間は、上述の優先度算出対象期間と異なっていてもよいし、重なっていてもよい。
 判定部38は、判定対象地点について、道路劣化判定モデルを用いて、道路劣化を判定する。判定部38は、選択部37により選択された画像情報に含まれる画像を、道路劣化判定モデルに入力して、道路劣化の判定結果を得る。判定部38は、判定結果を、図示しない表示装置等に出力する(表示させる)。
 次に、第1の実施形態の動作について説明する。
 (優先度設定処理)
 優先度設定処理について説明する。
 図8は、第1の実施形態における、優先度設定処理を示すフローチャートである。優先度設定処理は、例えば、道路上の各地点について、複数の画像情報が取得できた時点で、オペレータ等の指示に応じて実行される。
 ここでは、図3のような画像情報が画像記憶部32に記憶されているとする。また、道路劣化判定モデルが予めモデル記憶部33に記憶され、各地点の道路劣化状況が劣化状況記憶部34に記憶されているとする。
 優先度決定部35は、道路上の地点から、優先度算出対象地点を一つ選択する(ステップS101)。
 優先度決定部35は、劣化状況記憶部34から、優先度算出対象地点の道路劣化状況と、当該劣化状況の取得時間とを取得する(ステップS102)。
 優先度決定部35は、画像記憶部32から、撮影地点が優先度算出対象地点であり、撮影時間が優先度算出対象期間内の画像情報を取得する(ステップS103)。
 優先度決定部35は、優先度算出対象期間の画像情報に含まれる画像の各々を、道路劣化判定モデルに入力し、道路劣化の判定結果を取得する(ステップS104)。
 優先度決定部35は、取得した判定結果の各々と、劣化状況記憶部34から取得した道路劣化状況(正解データ)とを比較する(ステップS105)。例えば、優先度決定部35は、地点A1_1について、取得した判定結果の各々に基づき、図5のように、劣化割合を算出する。また、優先度決定部35は、道路劣化状況に基づき、地点A1_1について、図6のように、劣化割合を算出する。優先度決定部35は、これらの劣化割合の一致率を算出する。
 優先度決定部35は、比較の結果に基づき、属性値の優先度を決定する(ステップS106)。例えば、優先度決定部35は、地点A1_1について、各画像について算出した一致率と属性値に基づき、図7のように、属性値の優先度を決定する。
 優先度決定部35は、決定した属性値の優先度を、優先度記憶部36に保存する(ステップS107)。
 優先度決定部35は、道路上のすべての地点について、ステップS101からの処理を繰り返す(ステップS108)。
 なお、地点によっては、優先度算出対象期間の画像情報の数が少なく、適切な優先度が決定できないことが考えられる。したがって、優先度決定処理は、優先度算出対象期間の十分な数の画像情報が得られたタイミングで行うことが好ましい。また、道路環境の変化(例えば、樹木の成長や、周囲の新たな構造物等)により、属性値の優先度は変化する可能性がある。したがって、優先度設定処理は、優先度算出対象期間を、例えば、直近の期間に更新しながら、定期的に行うことが好ましい。
 (道路劣化判定処理)
 道路劣化判定装置30における、道路劣化判定処理について説明する。
 図9は、第1の実施形態における、道路劣化判定処理を示すフローチャートである。道路劣化判定処理は、上述した優先度設定処理により、各地点における属性値の優先度が決定された後に、オペレータ等の指示に応じて実行される。実行指示では、例えば、上述の判定対象地点、及び、判定対象期間が指定される。
 ここでは、図7のような、各地点における属性値の優先度が、優先度記憶部36に記憶されていると仮定する。また、道路劣化判定モデルが予めモデル記憶部33に記憶されていると仮定する。
 選択部37は、優先度記憶部36から、判定対象地点の属性値の優先度を取得する(ステップS201)。例えば、選択部37は、地点A1_1について、図7のような、属性値の優先度を取得する。
 選択部37は、画像記憶部32から、撮影地点が判定対象地点であり、撮影時間が判定対象期間内の画像情報を取得する(ステップS202)。
 選択部37は、ステップS202で取得した画像情報から、ステップS201で取得した属性値の優先度に基づき、画像情報を選択する(ステップS203)。ここで、選択部37は、例えば、優先度が最も高い、或いは、優先度が所定値以上の属性値を有する画像情報を選択する。例えば、選択部37は、地点A1_1について、図7の優先度に基づき、優先度が1である「属性:天候、属性値:曇り」を有する画像情報を取得する。
 判定部38は、ステップS203で取得した画像情報に含まれる画像を、道路劣化判定モデルに入力し、道路劣化の判定結果を取得する(ステップS204)。
 判定部38は、判定結果を、図示しない表示装置等に出力する(表示させる)(ステップS205)。例えば、判定部38は、図4と同様の形式で判定結果を出力する。
 以上により、第1の実施形態の動作が完了する。
 なお、各実施形態は、画像情報に加えて、画像情報以外の情報を用いて道路劣化を算出してもよい。例えば、各実施形態は、加速度センサなどを用いて検出した加速度を用いて、道路劣化を算出してもよい。また、各実施形態は、道路劣化の指標として、わだち掘れ量を用いてもよい。この場合、道路劣化の指標の値は、一般的に、0以上の整数(単位は、mm)となる。なお、わだち掘れ量の値としては、有理数が用いられてもよい。あるいは、各実施形態は、道路劣化の指標として、国際ラフネス指数(IRI:Internaional Roughness Index)を用いてもよい。この場合、劣化度の値は、0以上の有理数(単位は、mm/m)となる。あるいは、各実施形態は、道路劣化の指標として、維持管理指数(Maintenance Contorl Index(MCI))を用いてもよい。MCIは、ひび割れ率、わだち掘れ量、及び、平たん性から求められる複合劣化指標である。
 次に、第1の実施形態の効果を説明する。
 第1の実施形態によれば、道路劣化判定において、さまざまな地点における判定精度を向上できる。その理由は、以下による。すなわち、道路劣化判定装置30の選択部37が、道路上の地点ごとに設定された、当該地点で撮影された路面の画像の撮影に関する属性の値の優先度に基づき、道路上の一の地点で撮影された路面の画像を選択する。そして、判定部38が、選択した画像と画像から道路劣化を判定するモデルとを用いて、一の地点における道路劣化を判定するためである。
 また、第1の実施形態によれば、道路劣化判定において、さまざまな地点における判定精度を向上できるような、路面の画像の撮影に関する属性の値の優先度を決定できる。その理由は、以下による。すなわち、道路劣化判定装置30の優先度決定部35が、道路上の地点ごとに、当該地点で撮影された路面の画像とモデルとを用いて得られた道路劣化の判定結果、及び、当該地点の道路劣化の状態に基づき、当該地点における属性の値の優先度を決定するためである。
 (第2の実施形態)
 第2の実施形態について説明する。
 第2の実施形態では、属性値の優先度の代わりに、優先度を用いて各属性の属性値に付与されたスコアの合計値に基づいて、画像情報を選択する点で第1の実施形態と異なる。
 第2の実施形態において、第1の実施形態と同様の機能を有する構成の部分については、説明を省略し、異なる機能を有する構成についてのみ説明する。
 (道路劣化判定装置の構成)
 図10は、第2の実施形態における道路劣化判定システム10の構成の例を示すブロック図である。
 第2の実施形態における道路劣化判定装置30は、第1の実施形態における道路劣化判定装置30の構成に加えて、さらに、優先スコア記憶部39を含む。第1の実施形態における道路劣化判定装置30の優先度決定部35、選択部37が、それぞれ、優先度決定部35A、選択部37Aに置き換わっている。
 優先度決定部35Aは、道路上の地点ごとに、画像に付加されている属性についてのスコアテーブルを生成する。スコアテーブルは、各属性の属性値の優先スコアを示す。優先スコアは、第1の実施形態の優先度と同様に、道路劣化判定モデルを用いた道路劣化判定を行うときに、画像を選択する(優先スコアの合計値の大きい画像を選択する)ために用いられる。
 優先度決定部35Aは、第1の実施形態の優先度決定部35と同様に、優先度算出対象期間の画像情報に含まれる画像の各々を道路劣化判定モデルに入力して得られた道路劣化の判定結果の各々と、劣化状況記憶部34から取得した道路劣化状況(正解データ)とを比較する。優先度決定部35Aは、比較の結果に基づき、属性ごとに、属性値の優先度を決定する。優先度決定部35は、例えば、画像ごとに、道路劣化判定モデルによる判定結果と道路劣化状況(正解データ)との一致率を算出する。そして、優先度決定部35Aは、属性ごとに、第1の実施形態と同様の手法で、一致率が高いほど、属性値の優先度が高くなるように、優先度を決定する。
 図11は、第2の実施形態における、属性ごとの属性値の優先度の例を示す図である。図11の例では、例えば、属性「天候」について、属性値「曇り」、「晴れ」、「雨」にそれぞれ、優先度「1」、「2」、「3」が設定されている。
 さらに、優先度決定部35Aは、属性ごとに、優先度が高いほど優先スコアが高くなるように、優先スコアを決定することにより、スコアテーブルを生成する。
 図12は、第2の実施形態における、スコアテーブルの例を示す図である。図12の例では、優先度「1」、「2」、「3」に、それぞれ、スコア「30」、「20」、「0」が設定されている。
 優先スコア記憶部39は、優先度決定部35Aにより生成された、各地点のスコアテーブルを記憶する。
 選択部37Aは、優先スコア記憶部39から、判定対象地点のスコアテーブルを取得する。そして、選択部37Aは、画像記憶部32に記憶されている画像情報から、撮影地点が判定対象地点であり、判定対象期間内の画像情報であり、属性値の合計スコアが高い(合計スコアが最も高い、或いは、合計スコアが所定値以上の)画像情報を選択する。合計スコアは、スコアテーブルによって示される、各属性の属性値に対する優先スコアを合計することにより得られる。
 次に、第2の実施形態の動作について説明する。
 (優先度設定処理)
 図13は、第2の実施形態の優先度設定処理を示すフローチャートである。第2の実施形態の優先度設定処理における、道路劣化判定モデルによる道路劣化の判定結果と道路劣化状況(正解データ)との比較までの処理(ステップS301~ステップS305)は、第1の実施形態の優先度設定処理における、ステップS101~ステップS105と同じである。
 優先度決定部35Aは、比較の結果に基づき、属性ごとに、属性値の優先度を決定する(ステップS306)。例えば、優先度決定部35Aは、地点A1_1について、各画像について算出した一致率と属性値に基づき、図11のように、属性ごとの属性値の優先度を決定する。
 優先度決定部35Aは、属性ごとに優先スコアを決定することにより、スコアテーブルを生成する(ステップS307)。例えば、優先度決定部35Aは、地点A1_1について、図12のように、スコアテーブルを生成する。
 優先度決定部35Aは、決定したスコアテーブルを、優先スコア記憶部39に保存する(ステップS308)。
 優先度決定部35Aは、道路上のすべての地点について、ステップS301からの処理を繰り返す(ステップS309)。
 (画像情報選択処理)
 図14は、第2の実施形態の道路劣化判定処理のフローチャートである。
 選択部37Aは、優先スコア記憶部39から、判定対象地点の属性値の優先度を取得する(ステップS401)。例えば、選択部37Aは、地点A1_1について、図12のような、スコアテーブルを取得する。
 選択部37Aは、画像記憶部32から、撮影地点が判定対象地点であり、撮影時間が判定対象期間内の画像情報を取得する(ステップS402)。
 選択部37Aは、ステップS402で取得した各画像情報について、ステップS401で取得したスコアテーブルに基づき、合計スコアを算出する(ステップS403)。
 図15は、第2の実施形態における、画像情報に対して算出された合計スコアの例を示す図である。例えば、選択部37Aは、3つの画像情報について、図15のように合計スコアを算出する。
 選択部37Aは、ステップS402で取得した画像情報から、ステップS403で算出した合計スコアに基づき、画像情報を選択する(ステップS404)。ここで、選択部37Aは、例えば、合計スコアが最も高い、或いは、合計スコアが所定値以上の画像情報を選択する。例えば、選択部37Aは、地点A1_1について、図15の合計スコアに基づき、合計スコアが80である「属性:車種、属性値:SUV」、「属性:天候、属性値:曇り」、「属性:時間帯、属性値:12:00-14:00」を有する画像情報を取得する。
 判定部38は、ステップS404で取得した画像情報に含まれる画像を、道路劣化判定モデルに入力し、道路劣化の判定結果を取得する(ステップS405)。
 判定部38は、判定結果を、図示しない表示装置等に出力する(表示させる)(ステップS406)。
 以上により、第2の実施形態の動作が完了する。
 次に、第2の実施形態の効果を説明する。
 第2の実施形態によれば、第1の実施形態と同様に、道路劣化判定において、さまざまな地点における判定精度を向上できる。その理由は、以下による。すなわち、道路劣化判定装置30の選択部37Aが、道路上の地点ごとに設定された、属性ごとの各値の優先スコアの合計値に基づき、道路上の一の地点で撮影された路面の画像を選択する。そして、判定部38が、選択した画像と画像から道路劣化を判定するモデルとを用いて、一の地点における道路劣化を判定するためである。
 (第3の実施形態)
 第3の実施形態について説明する。
 図16は、第3の実施形態における道路劣化判定装置30の構成の例を示すブロック図である。図16を参照すると、第3の実施形態における道路劣化判定装置30は、選択部37、及び、判定部38を含む。選択部37、及び、判定部38は、それぞれ、本開示の選択手段、及び、判定手段の一実施形態である。
 選択部37は、道路上の地点ごとに設定された、当該地点で撮影された路面の画像の撮影に関する属性の値の優先度に基づき、道路上の一の地点で撮影された路面の画像を選択する。
 判定部38は、選択した画像と画像から道路劣化を判定するモデルとを用いて、一の地点における道路劣化を判定する。
 第3の実施形態によれば、道路劣化判定において、さまざまな地点における判定精度を向上できる。その理由は、以下による。すなわち、道路劣化判定装置30の選択部37が、道路上の地点ごとに設定された、当該地点で撮影された路面の画像の撮影に関する属性の値の優先度に基づき、道路上の一の地点で撮影された路面の画像を選択する。そして、判定部38が、選択した画像と画像から道路劣化を判定するモデルとを用いて、一の地点における道路劣化を判定するためである。
 (ハードウェア構成)
 上述した各実施形態において、各装置(撮像装置20、道路劣化判定装置30等)の各構成要素は、機能単位のブロックを示している。各装置の各構成要素の一部又は全部は、コンピュータ500とプログラムとの任意の組み合わせにより実現されてもよい。
 図17は、コンピュータ500のハードウェア構成の例を示すブロック図である。図17を参照すると、コンピュータ500は、例えば、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503、プログラム504、記憶装置505、ドライブ装置507、通信インタフェース508、入力装置509、出力装置510、入出力インタフェース511、及び、バス512を含む。
 プログラム504は、各装置の各機能を実現するための命令(instruction)を含む。プログラム504は、予め、ROM502やRAM503、記憶装置505に格納される。CPU501は、プログラム504に含まれる命令を実行することにより、各装置の各機能を実現する。例えば、道路劣化判定装置30のCPU501がプログラム504に含まれる命令を実行することにより、画像取得部31、優先度決定部35、選択部37、及び、判定部38等の機能を実現する。また、例えば、道路劣化判定装置30のRAM503が、画像記憶部32、モデル記憶部33、劣化状況記憶部34、及び、優先度記憶部36のデータを記憶してもよい。
 ドライブ装置507は、記録媒体506の読み書きを行う。通信インタフェース508は、通信ネットワークとのインタフェースを提供する。入力装置509は、例えば、マウスやキーボード等であり、オペレータ等からの情報の入力を受け付ける。出力装置510は、例えば、ディスプレイであり、オペレータ等へ情報を出力(表示)する。入出力インタフェース511は、周辺機器とのインタフェースを提供する。バス512は、これらハードウェアの各構成要素を接続する。なお、プログラム504は、通信ネットワークを介してCPU501に供給されてもよいし、予め、記録媒体506に格納され、ドライブ装置507により読み出され、CPU501に供給されてもよい。
 なお、図17に示されているハードウェア構成は例示であり、これら以外の構成要素が追加されていてもよく、一部の構成要素を含まなくてもよい。
 各装置の実現方法には、様々な変形例がある。例えば、各装置は、構成要素毎にそれぞれ異なるコンピュータとプログラムとの任意の組み合わせにより実現されてもよい。また、各装置が備える複数の構成要素が、一つのコンピュータとプログラムとの任意の組み合わせにより実現されてもよい。
 また、各装置の各構成要素の一部または全部は、プロセッサ等を含む汎用または専用の回路(circuitry)や、これらの組み合わせによって実現されてもよい。これらの回路は、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組み合わせによって実現されてもよい。
 また、各装置の各構成要素の一部又は全部が複数のコンピュータや回路等により実現される場合、複数のコンピュータや回路等は、集中配置されてもよいし、分散配置されてもよい。
 また、道路劣化判定装置30は車両40に配置されてもよいし、車両40とは異なる場所に配置され、通信ネットワークを介して撮像装置20と接続されてもよい。
 以上、実施形態を参照して本開示を説明したが、本開示は上記実施形態に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。また、各実施形態における構成は、本開示のスコープを逸脱しない限りにおいて、互いに組み合わせることが可能である。
 この出願は、2020年3月31日に出願された日本出願特願2020-062853を基礎とする優先権を主張し、その開示のすべてをここに取り込む。
 10  道路劣化判定システム
 20  撮像装置
 21  撮像部
 22  時刻取得部
 23  地点取得部
 24  記憶部
 25  送信部
 30  道路劣化判定装置
 31  画像取得部
 32  画像記憶部
 33  モデル記憶部
 34  劣化状況記憶部
 35,35A  優先度決定部
 36  優先度記憶部
 37,37A  選択部
 38  判定部
 39  優先スコア記憶部
 40  車両
 500  コンピュータ
 501  CPU
 502  ROM
 503  RAM
 504  プログラム
 505  記憶装置
 506  記録媒体
 507  ドライブ装置
 508  通信インタフェース
 509  入力装置
 510  出力装置
 511  入出力インタフェース
 512  バス

Claims (9)

  1.  道路上の地点ごとに設定された、当該地点で撮影された路面の画像の撮影に関する属性の値の優先度に基づき、前記道路上の一の地点で撮影された路面の画像を選択する選択手段と、
     前記選択した画像と画像から道路劣化を判定するモデルとを用いて、前記一の地点における道路劣化を判定する、判定手段と、
    を備えた、
    道路劣化判定装置。
  2.  さらに、
     前記道路上の地点ごとに、当該地点で撮影された路面の画像と前記モデルとを用いて得られた道路劣化の判定結果、及び、当該地点の道路劣化の状態に基づき、当該地点における前記属性の値の優先度を決定する、決定手段と、
    を備えた、請求項1に記載の道路劣化判定装置。
  3.  前記選択手段は、前記道路上の地点ごとに設定された、前記属性ごとの各値の優先スコアの合計値に基づき、前記道路上の一の地点で撮影された路面の画像を選択する、
    請求項1に記載の道路劣化判定装置。
  4.  さらに、
     道路上の地点ごとに、当該地点で撮影された路面の画像と前記モデルとを用いて得られた道路劣化の判定結果、及び、当該地点の道路劣化の状態に基づき、当該地点における前記属性ごとの各値の優先度を決定し、当該優先度に基づき、当該地点における前記属性ごとの各値の優先スコアを決定する、決定手段と、
    を備えた、請求項3に記載の道路劣化判定装置。
  5.  前記決定手段は、前記画像と前記モデルとを用いて得られた道路劣化の判定結果と、当該地点の道路劣化の状態と、の一致率を算出し、当該一致率が大きいほど、優先度が高くなるように、優先度を決定する、
     請求項2または4に記載の道路劣化判定装置。
  6.  前記決定手段は、前記画像と前記モデルとを用いて得られた道路劣化の判定結果と、当該地点の道路劣化の状態と、の一致率を算出し、当該一致率と相関を有する属性について、優先度を決定する、
     請求項2、4、及び、5のうちのいずれか一項に記載の道路劣化判定装置。
  7.  前記属性は、画像を撮影した車両の車種、画像を撮影した時刻における天候、画像を撮影した時刻を含む時間帯のうちの少なくとも1つを含む、
     請求項1乃至6のうちのいずれか一項に記載の道路劣化判定装置。
  8.  道路上の地点ごとに設定された、当該地点で撮影された路面の画像の撮影に関する属性の値の優先度に基づき、前記道路上の一の地点で撮影された路面の画像を選択し、
     前記選択した画像と画像から道路劣化を判定するモデルとを用いて、前記一の地点における道路劣化を判定する、
    道路劣化判定方法。
  9.  コンピュータに、
     道路上の地点ごとに設定された、当該地点で撮影された路面の画像の撮影に関する属性の値の優先度に基づき、前記道路上の一の地点で撮影された路面の画像を選択し、
     前記選択した画像と画像から道路劣化を判定するモデルとを用いて、前記一の地点における道路劣化を判定する、
    処理を実行させるプログラムを格納する、コンピュータが読み取り可能な記録媒体。
PCT/JP2021/010096 2020-03-31 2021-03-12 道路劣化判定装置、道路劣化判定方法、及び、記録媒体 WO2021200037A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022511768A JPWO2021200037A5 (ja) 2021-03-12 道路劣化判定装置、道路劣化判定方法、及び、プログラム
US17/910,314 US20230127338A1 (en) 2020-03-31 2021-03-12 Road deterioration determination device, road deterioration determination method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-062853 2020-03-31
JP2020062853 2020-03-31

Publications (1)

Publication Number Publication Date
WO2021200037A1 true WO2021200037A1 (ja) 2021-10-07

Family

ID=77929206

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/010096 WO2021200037A1 (ja) 2020-03-31 2021-03-12 道路劣化判定装置、道路劣化判定方法、及び、記録媒体

Country Status (2)

Country Link
US (1) US20230127338A1 (ja)
WO (1) WO2021200037A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024090444A1 (ja) * 2022-10-24 2024-05-02 ソフトバンクグループ株式会社 情報処理装置、車両、情報処理方法及びプログラム
WO2024090443A1 (ja) * 2022-10-24 2024-05-02 ソフトバンクグループ株式会社 情報処理装置、車両及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057861A (ja) * 2014-09-10 2016-04-21 雄章 石川 路面状態管理装置及び路面状態管理プログラム
JP2018081404A (ja) * 2016-11-15 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 識別方法、識別装置、識別器生成方法及び識別器生成装置
JP2018087484A (ja) * 2015-07-21 2018-06-07 株式会社東芝 ひび割れ解析装置、ひび割れ解析方法及びひび割れ解析プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057861A (ja) * 2014-09-10 2016-04-21 雄章 石川 路面状態管理装置及び路面状態管理プログラム
JP2018087484A (ja) * 2015-07-21 2018-06-07 株式会社東芝 ひび割れ解析装置、ひび割れ解析方法及びひび割れ解析プログラム
JP2018081404A (ja) * 2016-11-15 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 識別方法、識別装置、識別器生成方法及び識別器生成装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024090444A1 (ja) * 2022-10-24 2024-05-02 ソフトバンクグループ株式会社 情報処理装置、車両、情報処理方法及びプログラム
WO2024090443A1 (ja) * 2022-10-24 2024-05-02 ソフトバンクグループ株式会社 情報処理装置、車両及びプログラム

Also Published As

Publication number Publication date
US20230127338A1 (en) 2023-04-27
JPWO2021200037A1 (ja) 2021-10-07

Similar Documents

Publication Publication Date Title
CN109459734B (zh) 一种激光雷达定位效果评估方法、装置、设备及存储介质
KR102094341B1 (ko) 인공지능 기반의 도로 노면 불량 객체 정보 분석 시스템 및 방법
WO2021218314A1 (zh) 基于位置定位的事件识别方法、装置、设备及存储介质
CN102208013B (zh) 风景匹配参考数据生成系统和位置测量系统
JP2021531462A (ja) トポロジーマップに基づくインテリジェントナビゲーションの方法及びシステム
JP2019144538A (ja) 電子地図を更新する方法、装置、およびコンピュータ読み取り可能な記憶媒体
WO2021200037A1 (ja) 道路劣化判定装置、道路劣化判定方法、及び、記録媒体
CN110597937B (zh) 一种无人智能巡检的方法、装置、设备及存储介质
CN111539402B (zh) 基于深度学习的车道线检测方法、装置、终端及存储介质
CN111667545B (zh) 高精度地图生成方法、装置、电子设备及存储介质
CN107392252A (zh) 计算机深度学习图像特征并量化感知度的方法
WO2024060529A1 (zh) 一种道路病害识别方法、系统、设备及存储介质
CN113191030A (zh) 一种自动驾驶测试场景构建方法及装置
CN114140592A (zh) 高精地图生成方法、装置、设备、介质及自动驾驶车辆
CN114397685A (zh) 弱gnss信号区域的车辆导航方法、装置、设备及存储介质
CN111539401B (zh) 基于人工智能的车道线检测方法、装置、终端及存储介质
CN113553304A (zh) 一种针对自动驾驶的数据存储系统
CN113758492A (zh) 地图检测方法和装置
CN113902047B (zh) 图像元素匹配方法、装置、设备以及存储介质
CN114821513B (zh) 一种基于多层网络的图像处理方法及装置、电子设备
CN115631002A (zh) 基于计算机视觉的车险智能定损方法及系统
US20210348938A1 (en) Sensor calibration for space translation
JP2022124993A (ja) 識別装置、識別プログラム、および識別方法
CN112802191A (zh) 一种城市规划实时模拟展示系统
CN115905247A (zh) 高精地图的更新方法、系统、介质、终端及服务器端

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21780443

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022511768

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21780443

Country of ref document: EP

Kind code of ref document: A1