WO2023228239A1 - 道路状態検出装置および道路状態検出方法 - Google Patents

道路状態検出装置および道路状態検出方法 Download PDF

Info

Publication number
WO2023228239A1
WO2023228239A1 PCT/JP2022/021086 JP2022021086W WO2023228239A1 WO 2023228239 A1 WO2023228239 A1 WO 2023228239A1 JP 2022021086 W JP2022021086 W JP 2022021086W WO 2023228239 A1 WO2023228239 A1 WO 2023228239A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
photographing
damage location
damage
target vehicle
Prior art date
Application number
PCT/JP2022/021086
Other languages
English (en)
French (fr)
Inventor
義典 上野
鉄平 ▲濱▼田
光生 下谷
哲 木谷
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2022/021086 priority Critical patent/WO2023228239A1/ja
Publication of WO2023228239A1 publication Critical patent/WO2023228239A1/ja

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E01CONSTRUCTION OF ROADS, RAILWAYS, OR BRIDGES
    • E01CCONSTRUCTION OF, OR SURFACES FOR, ROADS, SPORTS GROUNDS, OR THE LIKE; MACHINES OR AUXILIARY TOOLS FOR CONSTRUCTION OR REPAIR
    • E01C23/00Auxiliary devices or arrangements for constructing, repairing, reconditioning, or taking-up road or like surfaces
    • E01C23/01Devices or auxiliary means for setting-out or checking the configuration of new surfacing, e.g. templates, screed or reference line supports; Applications of apparatus for measuring, indicating, or recording the surface configuration of existing surfacing, e.g. profilographs
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles

Definitions

  • the present disclosure relates to detection of road conditions.
  • Patent Document 1 describes a technology that automatically detects and photographs damaged locations on the road by detecting vibrations when a vehicle passes over uneven road surfaces and photographing the vibration detection position with a rear camera mounted on the vehicle. is disclosed.
  • the impact applied to a vehicle is measured with an acceleration sensor to detect road surface deterioration. Therefore, when the damaged area is located in the center of the road, there is a problem in that the damaged area cannot be detected because the wheels straddle the damaged area, and the damaged area cannot be photographed. Furthermore, even when the damaged area is at the edge of the road, the tire passes over the damaged area without stepping on it, making it impossible to detect and photograph the damaged area.
  • the technology of the present disclosure is intended to solve the above-mentioned problems, and aims to suppress the failure to take pictures of damaged parts of the road.
  • the road condition detection device of the present disclosure includes a first image input section, a second image input section, an image processing section, and a control section.
  • the first image input unit acquires a first image that is a photographed image of the vicinity of the target vehicle by a first photographing device mounted on the target vehicle.
  • the second image input unit acquires a second image that is a photographed image of a narrower photographing range of the surroundings of the target vehicle than the first image, taken by a second photographing device mounted on the target vehicle.
  • the image processing unit analyzes the first image to estimate a road damage location candidate included in the shooting range of the first image as a first damage location candidate, and also estimates the probability of estimation for the first damage location candidate. Calculate the reliability representing.
  • the control unit calculates the timing at which the first damage location candidate is included in the imaging range of the second imaging device as the imaging timing when the reliability of the first damage location candidate is less than or equal to a predetermined reference value.
  • the image processing unit analyzes the second image taken at the shooting timing to estimate a road damage location candidate included in the shooting range of the second image as a second damage location candidate, and Reliability is calculated for the candidates, and first damage location candidates and second damage location candidates whose reliability exceeds a reference value are detected as damage locations.
  • the road condition detection device of the present disclosure when the reliability of the first damage location candidate estimated from the first image is low, the first damage location candidate is re-detected with high resolution using the second imaging device with a narrowed imaging range. Since it is possible to take pictures, it is possible to prevent the damage from being missed. Objects, features, aspects, and advantages of the present disclosure will become more apparent from the following detailed description and accompanying drawings.
  • FIG. 1 is a block diagram showing the configuration of a road condition detection device according to Embodiment 1.
  • FIG. 3 is a diagram showing the photographing ranges of the first photographing device and the second photographing device in the first embodiment.
  • FIG. 3 is a diagram showing a photographed image of the first photographing device in Embodiment 1.
  • FIG. 3 is a diagram showing a photographing range of a second photographing device in the first embodiment.
  • 5 is a flowchart regarding analysis processing of a first image by the road condition detection device according to the first embodiment.
  • 7 is a flowchart regarding analysis processing of a second image by the road condition detection device according to the first embodiment.
  • FIG. 2 is a block diagram showing the configuration of a road condition detection device according to a second embodiment.
  • FIG. 3 is a diagram showing the imaging cycle of the first imaging device.
  • FIG. 7 is a diagram showing a photographing cycle in a comparative example in which the first photographing device is installed facing downward.
  • FIG. 3 is a diagram showing a first photographing device that photographs a wide range. It is a figure which shows the 2nd photographing device which photographs a narrow range downward.
  • FIG. 3 is a block diagram showing the configuration of a road condition detection device according to a third embodiment.
  • 7 is a flowchart showing processing related to the first image of the road condition detection device according to Embodiment 3.
  • FIG. It is a flowchart of notification control by a control part.
  • FIG. 7 is a block diagram showing the configuration of a road condition detection device according to a first modification of the third embodiment.
  • FIG. 7 is a block diagram showing the configuration of a road condition detection device according to a second modification of the third embodiment.
  • FIG. 3 is a block diagram showing the configuration of a road condition detection device according to a fourth embodiment.
  • 7 is a flowchart showing processing related to the first image of the road condition detection device according to Embodiment 4.
  • FIG. 19 is a detailed flowchart of the information transmission process in step S506 of FIG. 18.
  • FIG. It is a diagram showing the hardware configuration of a road condition detection device. It is a diagram showing the hardware configuration of a road condition detection device.
  • FIG. 1 is a block diagram showing the configuration of a road condition detection device 101 according to the first embodiment.
  • the road condition detection device 101 detects the state of deterioration of the road around the vehicle by analyzing images taken by the first photographing device 21 and the second photographing device 22 mounted on the vehicle.
  • the road condition detection device 101 is connected to the first photographing device 21 and the second photographing device 22, and is configured to be able to use them.
  • the first photographing device 21 and the second photographing device 22 are cameras mounted on the vehicle.
  • the vehicle in which the first photographing device 21 and the second photographing device 22 are mounted will be referred to as a target vehicle.
  • FIG. 2 is a diagram illustrating the photographing ranges of the first photographing device 21 and the second photographing device 22.
  • the first photographing device 21 is a front camera that photographs the traveling direction of the target vehicle 50, and is configured as, for example, a drive recorder type terminal attached to the windshield of the target vehicle 50.
  • a photographing area 51 of the first photographing device 21 is located in front of the target vehicle 50, and a road photographing region 52 is the range of the road photographed by the first photographing device 21.
  • the second photographing device 22 photographs the side opposite to the direction of movement of the target vehicle 50.
  • the second photographing device 22 is, for example, a rear camera attached to the rear window or near the rear bumper of the target vehicle.
  • a photographing area 53 of the second photographing device 22 is located behind the target vehicle 50, and a road photographing region 54 is the range of the road photographed by the second photographing device 22.
  • the photographing direction of the second photographing device 22 is not limited to the rear of the target vehicle 50, but may be the front. However, the photographing range of the second photographing device 22 needs to be behind the photographing range of the first photographing device 21 in the traveling direction of the target vehicle 50.
  • FIG. 3 shows an image taken by the first photographing device 21, and FIG. 4 shows a photographing range by the second photographing device 22.
  • the image taken by the first photographing device 21 will also be referred to as a first image
  • the image taken by the second photographing device 22 will also be referred to as a second image.
  • the second photographing device 22 photographs a narrower range than the first photographing device 21.
  • the road condition detection device 101 includes a first image input section 11 , a second image input section 12 , an image processing section 13 , a determination result storage section 14 , a control section 15 , and a photographing device control section 16 .
  • the first image input unit 11 acquires a first image from the first imaging device and outputs it to the image processing unit 13.
  • the second image input unit 12 acquires a second image from the second imaging device and outputs it to the image processing unit 13.
  • the image processing unit 13 acquires the first image from the first image input unit 11 and analyzes the first image to detect potential damage points on the road included in the shooting range of the first image, and Calculate the reliability that represents the certainty of. In addition, the image processing unit 13 acquires a second image from the second image input unit 12 and analyzes the second image to detect potential damage points on the road included in the shooting range of the second image, and The confidence level representing the certainty of the detection is calculated.
  • the damage location candidates extracted from the first image are also referred to as first damage location candidates
  • the damage location candidates extracted from the second image are also referred to as second damage location candidates.
  • the image processing unit 13 determines the highly reliable first damage location candidate and second damage location candidate as damage locations, and stores information on the damage locations in the determination result storage unit 14 .
  • the judgment result storage unit 14 stores information on the damage locations detected by the image processing unit 13.
  • the information on the damaged area includes, for example, the position of the damaged area, an image of the damaged area, the number of the lane where the damaged area is located, or the type of the damaged area.
  • the control unit 15 attempts to photograph the first damage location candidate again using the second imaging device 22. Therefore, the control unit 15 calculates the timing at which the first damage location candidate is included in the imaging range of the second imaging device.
  • the timing at which the first damage location candidate is included in the imaging range of the second imaging device will be referred to as imaging timing.
  • the photographing timing is calculated as a period having a certain degree of temporal width, taking into account the increase or decrease in the speed of the target vehicle after photographing by the first photographing device 21.
  • the imaging device control unit 16 controls the second imaging device 22 so that the second imaging device 22 performs imaging at the imaging timing calculated by the control unit 15.
  • FIG. 5 is a flowchart regarding the processing of the first image by the road condition detection device 101. The processing of the first image will be described below along the flow shown in FIG.
  • the first photographing device 21 photographs a first area.
  • the first photographing device 21 is automatically activated and starts photographing when the first photographing device 21 is powered on.
  • the first photographing device 21 starts photographing.
  • the first photographing device 21 does not interrupt photographing until it receives an instruction to stop photographing, and continues photographing the first image at a constant cycle.
  • the image processing unit 13 analyzes the first image taken by the first imaging device 21, and estimates whether the road shown in the first image includes a damaged part. For example, the image processing unit 13 can estimate the damage location by image analysis using artificial intelligence (AI).
  • AI machine learning methods include "supervised learning,” “unsupervised learning,” and “reinforcement learning,” but any machine learning method is used in this embodiment.
  • Typical examples of road damage include linear cracks, tortoise shell cracks, white line scuffs, crosswalk scuffs, and potholes.
  • the image processing unit 13 estimates whether there is road damage in the first image, and if there is damage, calculates its position and reliability indicating the certainty of the estimation.
  • the reliability is a value in which the higher the value, the higher the possibility that the estimation result is correct.
  • the damage location estimated from the first image by the image processing unit 13 will be referred to as a first damage location candidate.
  • step S103 the image processing unit 13 determines whether the first image includes the first damage location candidate based on the estimation result in step S102. If the first image includes the first damage location candidate, the process of the road condition detection device 101 moves to step S104. If the first image does not include the first damage location candidate, the process of the road condition detection device 101 moves to step S107.
  • step S107 the road condition detection device 101 determines whether or not to stop photographing by the first photographing device 21. For example, the road condition detection device 101 determines to stop photographing when receiving an instruction to stop photographing from an operation input unit (not shown) or the like. If the road condition detection device 101 determines in step S107 not to stop photographing, the process returns to step S101, and if it determines to stop photographing, it ends the process.
  • step S104 the image processing unit 13 determines whether the reliability of the first damage location candidate is higher than a predetermined reference value. If the reliability of the first damaged location candidate is higher than the reference value, the process of the road condition detection device 101 moves to step S105, and if it is lower than the reference value, the process of the road condition detection device 101 moves to step S106.
  • step S105 the image processing unit 13 determines the first damage location candidate having a reliability higher than the reference value as the damage location, and records information on the damage location in the determination result storage unit 14. After step S105, the process of the road condition detection device 101 moves to step S107.
  • step S106 the road condition detection device 101 starts processing regarding the second image.
  • step S107 the process of the road condition detection device 101 moves to step S107.
  • FIG. 6 is a flowchart of processing regarding the second image by the road condition detection device 101. Processing related to the second image will be described below along the flowchart of FIG.
  • step S201 the control unit 15 calculates the imaging timing of the second imaging device 22.
  • This step is processed when the reliability of the first damage location candidate is less than or equal to the reference value (No in step S104 in FIG. 5).
  • the control unit 15 determines (1) the distances between the first photographing device 21 and the second photographing device 22 that have been measured in advance, and (2) the distance from the target vehicle. Based on the distance to the damage point candidate and (3) the most recent average speed of the target vehicle, the timing at which the damage point candidate is expected to be included in the imaging range of the second image capturing device 22 is determined by the second image capturing device 22. Calculate as timing.
  • the control unit 15 calculates the photographing timing of the second photographing device 22 as a photographing period having a certain degree of temporal width, taking into account the increase or decrease in the speed of the target vehicle after photographing by the first photographing device 21.
  • the second photographing device 22 starts photographing in step S202.
  • the control unit 15 outputs the imaging timing calculated in step S201 to the imaging device control unit 16.
  • the photographing device control section 16 controls the second photographing device 22 to perform photographing at the photographing timing calculated by the control section 15.
  • the second photographing device 22 starts photographing at the start time of the photographing timing and ends photographing at the end time of the photographing timing.
  • the control unit 15 controls the second photographing device to photograph the second image only at the photographing timing calculated in step S201.
  • step S203 the image processing unit 13 analyzes the second image photographed by the second photographing device 22, and estimates whether the road shown in the second image includes a damaged location candidate.
  • the estimation method in this step is the same as the estimation method in the first image described in step S102, so a detailed explanation will be omitted.
  • the image processing unit 13 estimates a damage location candidate in the second image, and further calculates the position and reliability of the damage location candidate.
  • the recommended location candidates estimated from the second image are referred to as second recommended location candidates.
  • step S204 the image processing unit 13 determines whether the second damage location candidate is included in the second image based on the estimation result in step S203. If the second damage location candidate is included in the second image, the process of the road condition detection device 101 moves to step S205, and if it is not included, the process of the road condition detection device 101 regarding the second image ends.
  • step S205 the image processing unit 13 determines whether the reliability of the second damage location candidate is higher than a predetermined reference value. If the reliability of the second damage point candidate is higher than the reference value, the process of the road condition detection device 101 moves to step S206, and if it is lower than the reference value, the process of the road condition detection device 101 regarding the second image ends.
  • step S206 the image processing unit 13 determines the second damage location candidate having a reliability higher than the reference value as the damage location, and records information on the damage location in the determination result storage unit 14. Thereafter, the processing regarding the second image by the road condition detection device 101 ends.
  • the road condition detection device 101 of this embodiment includes a first image input section, a second image input section, an image processing section, and a control section.
  • the first image input unit 11 acquires a first image that is a photographed image of the surroundings of the target vehicle by a first photographing device mounted on the target vehicle.
  • the second image input unit 12 acquires a second image that is a photographed image of a narrower photographing range than the first image around the target vehicle, taken by a second photographing device mounted on the target vehicle.
  • the image processing unit 13 analyzes the first image to estimate damage location candidates on the road included in the shooting range of the first image as the first damage location candidates, and also confirms the estimation of the first damage location candidates. Calculate the reliability that represents the authenticity.
  • the control unit 15 calculates the timing at which the first damage location candidate is included in the imaging range of the second imaging device as the imaging timing.
  • the image processing unit analyzes the second image taken at the shooting timing to estimate a road damage location candidate included in the shooting range of the second image as a second damage location candidate, and Reliability is calculated for the candidates, and first damage location candidates and second damage location candidates whose reliability exceeds a reference value are detected as damage locations.
  • control unit 15 calculated the imaging timing of the second imaging device 22, and the imaging device control unit 16 controlled the second imaging device 22 to perform imaging only at the imaging timing.
  • the second photographing device 22 is caused to constantly photograph, and the control unit 15 identifies at least one second image in which the first damage location candidate is photographed from among the plurality of second images photographed at all times,
  • the image processing unit 13 may be controlled to analyze only the specified second image.
  • the second image capturing device 22 captures the second image at both the capturing timing and the timing other than the capturing timing, and the image processing unit 13 performs image analysis on only the second image captured at the capturing timing, thereby detecting the second damage. Estimate location candidates.
  • a plurality of second imaging devices 22 may be used. Each second photographing device 22 is responsible for photographing different ranges in the width direction of the road.
  • the control unit 15 selects one second imaging device 22 capable of photographing the first damaged location candidate, depending on the position of the first damaged location candidate in the width direction of the road. Then, the photographing device control section 16 causes one second photographing device 22 selected by the control section 15 to perform photographing.
  • the photographing direction of the second photographing device 22 may be lower than the photographing direction of the first photographing device 21.
  • the second range that is the photographing range of the second photographing device 22 becomes narrower, but in the second image that is the photographed image of the second photographing device 22, the unit area of the road is The resolution of the hit will be higher.
  • FIG. 7 is a block diagram showing the configuration of road condition detection device 102 according to the second embodiment.
  • the road condition detection device 102 differs from the road condition detection device 101 according to the first embodiment in that the image processing section 13 includes a first image processing section 131 and a second image processing section 132.
  • the first image processing unit 131 analyzes the first image acquired from the first image input unit 11, and extracts damage location candidates and their reliability in the first image.
  • the analysis of the first image by the first image processing unit 131 is lightweight image processing.
  • Light-weight image processing is processing that can be completed in a time shorter than the imaging interval required for the first photographing device 21 to photograph the road seamlessly. Light-weight image processing is performed using an image processing algorithm with a light calculation processing load.
  • the second image processing unit 132 analyzes the second image obtained from the second image input unit 12, and extracts damage location candidates and their reliability in the second image.
  • the analysis of the second image by the second image processing unit 132 is weight image processing.
  • Heavy image processing is processing that can perform damage detection with higher accuracy than light image processing. To obtain this high accuracy, heavy image processing requires longer processing time than light image processing.
  • Weight image processing is executed by an image processing algorithm that has a heavier computational processing load than the image processing algorithm used for weight image processing.
  • the second image processing unit 132 operates only when the first image processing unit 131 determines that the reliability of the first damage location candidate is equal to or less than the reference value. As long as the time required for weight image processing is shorter than the time interval at which the first damage location candidate whose reliability is less than the reference value is extracted in the first image processing unit 131, the road condition detection device 102 detects the damage location in real time. can do.
  • the operational flow of the road condition detection device 102 is similar to the operational flow of the first embodiment shown in FIGS. 5 and 6.
  • FIG. 8 shows the imaging cycle of the first imaging device 21.
  • the first photographing device 21 In order for the first photographing device 21 to photograph the road seamlessly, it is necessary to photograph the road at a certain frequency. For example, if the target vehicle 50 travels at 80 km/h, that is, 22 m/s, and the effective photographing distance of the first photographing device 21 is 10 m, photographing at 2 fps is required. In this case, the imaging interval of the first imaging device 21 is 500 ms. If the time required for the light image processing by the first image processing unit 131 is 500 ms or less, the light image processing will be completed by the time the first image capturing device 21 takes the next image, and the load on the first image processing unit 131 will not increase.
  • FIG. 9 shows the imaging cycle in a comparative example in which the first imaging device 21 is installed facing downward.
  • the resolution of the road surface in the first image is improved, so it can be expected that the accuracy of detecting damaged locations will be improved.
  • the photographing range becomes narrower, it is necessary to shorten the photographing cycle.
  • the first photographing device 21 that photographs a wide range and the second photographing device 22 that photographs a narrow range downward are used together.
  • FIG. 10 shows a first photographing device 21 that photographs a wide range.
  • FIG. 11 shows a second photographing device 22 that photographs a narrow range downward.
  • the imaging cycle of the second imaging device 22 is shorter than the imaging cycle of the first imaging device 21.
  • the second image processing unit 132 buffers a plurality of second images taken by the second photographing device 22 during a certain period of time.
  • the control unit 15 detects a second image in which the damage location candidate 55 is photographed. specify. Then, the second image processing unit 132 performs weight image processing only on the second image designated by the control unit 15.
  • the weight image processing by the second image processing unit 132 is executed only when a damage location candidate 55 with low reliability is detected from the first image, so there is a long interval until the next processing. Therefore, the second image processing unit 132 can complete the weight image processing before starting the next processing.
  • the image processing algorithm used by the image processing unit 13 to analyze the second image has a heavier calculation load than the image processing algorithm used to analyze the first image. Therefore, according to the road condition detection device 102, the state of deterioration of the entire road can be detected using the first image, and an advanced road deterioration judgment that requires processing of several frames can be performed for areas where road deterioration is suspected. This improves the accuracy of road deterioration detection.
  • Embodiment 3 by outputting information on the first damage location candidate recognized by the image processing unit 13 to the outside of the road condition detection device, the second imaging device 22 can accurately photograph the first damage location candidate. Adjust the position of the target vehicle 50.
  • FIG. 12 is a block diagram showing the configuration of road condition detection device 103 according to the third embodiment.
  • the road condition detection device 103 is configured such that the control unit 15 can obtain information from the positioning device 23 and control the notification device 24, and is otherwise similar to the road condition detection device 101 according to the first embodiment. be.
  • the positioning device 23 measures the position of the target vehicle 50.
  • the positioning device 23 may detect the traveling direction and travel lane of the target vehicle 50.
  • the notification device 24 notifies the driver in response to instructions from the control unit 15.
  • Typical examples of notification methods include the following. (1) Notification by image on the display inside the vehicle interior of the target vehicle 50. (2) Audio notification from a speaker inside the vehicle interior of the target vehicle 50. (3) Notification by lighting or flashing of the warning light inside the meter.
  • FIG. 13 is a flowchart showing processing related to the first image by the road condition detection device 103. Steps S301 to S305 and S307 in the flow of FIG. 13 are the same as steps S101 to S105 and S107 of FIG. 5 described in Embodiment 1, so their explanation will be omitted.
  • the control unit 15 performs notification control in step S306. Specifically, the control unit 15 determines the first image based on the position of the damage location candidate included in the first image captured by the first imaging device 21, the lane in which the target vehicle is currently traveling, and the driving position of the target vehicle. 2. The driver is notified that the driver should change lanes and correct the driving position so that the photographing device 22 can accurately photograph the damaged location candidate.
  • FIG. 14 is a flowchart of notification control by the control unit 15. The notification control will be explained below along the flow shown in FIG.
  • step S401 the control unit 15 determines in which lane among the plurality of lanes included in the road the loss location candidate extracted from the first image by the image processing unit 13 is located. Note that this determination process may be performed by the image processing section 13 instead of the control section 15, and the determination result may be transmitted from the image processing section 13 to the control section 15.
  • step S402 the control unit 15 acquires the position information of the target vehicle from the positioning device 23, and determines the lane in which the target vehicle is traveling based on this position information. Note that this determination process may be performed by the positioning device 23 instead of the control unit 15, and the determination result may be transmitted from the positioning device 23 to the control unit 15.
  • step S403 the control unit 15 determines whether the loss location candidate is within the lane in the traveling direction of the target vehicle, based on the results of steps S401 and S402. If the loss location candidate is included in the lane in the traveling direction of the target vehicle, the process of the control unit 15 moves to step S404. If the loss point candidate is not included in the lane in the traveling direction of the target vehicle, such as in the oncoming lane or a side road running parallel to the road on which the target vehicle is traveling, the processing of the control unit 15 ends.
  • step S404 the control unit 15 determines whether the loss location candidate is within the travel lane of the target vehicle based on the results of step S401 and step S402. If the loss location candidate is within the travel lane of the target vehicle, the process of the control unit 15 moves to step S408. If the loss location candidate is not within the travel lane of the target vehicle, the process of the control unit 15 moves to step S405.
  • step S408 the road condition detection device 103 starts processing the second image.
  • the processing of the second image is as shown in FIG. 6, so a description thereof will be omitted.
  • step S405 the control unit 15 calculates the photographing time of the second photographing device 22. This process is similar to step S201 in FIG. 6, so the explanation will be omitted.
  • step S406 the control unit 15 determines whether the photographing time of the second photographing device 22 calculated in step S405 has passed. If the photographing time of the second photographing device 22 has passed, the control unit 15 ends the notification control. If the photographing time of the second photographing device 22 has not yet passed, the process of the control unit 15 proceeds to step S407.
  • step S407 the control unit 15 uses the notification device 24 to notify the driver of a lane change to a lane that includes the damaged location candidate.
  • the driver receives this notification and changes the lane of the target vehicle to the lane that includes the damage location candidate, the second photographing device 22 can more accurately photograph the damage location candidate.
  • step S404 the process of the control unit 15 returns to step S404, and it is determined again whether the damaged location candidate is included in the driving lane of the target vehicle.
  • control unit 15 may display the mark object on the HUD (Head Up Display) so as to overlap the damage location candidate. Further, the control unit 15 may display a display object on the HUD that allows the user to see the position of the lane in which the damaged location candidate exists or which lane to move to.
  • HUD Head Up Display
  • the notification device 24 may output a voice such as "Run on the right side of the lane” or “Move to the right lane.”
  • the control unit 15 causes the control unit 15 to include the first damage location in the imaging range of the second imaging device when the reliability of the first damage location candidate is equal to or less than a predetermined reference value.
  • the notification device 24 mounted on the target vehicle 50 is caused to issue a notification urging the driver to change the position of the target vehicle 50 in the width direction of the road so that the candidates are included.
  • FIG. 15 is a block diagram showing the configuration of a road condition detection device 103A according to a first modification of the third embodiment.
  • the control unit 15 is connected to a vehicle control device 25 instead of the notification device 24, and controls this.
  • the road condition detection device 103A is similar to the road condition detection device 103.
  • the vehicle control device 25 receives instructions from the control unit, controls the device on the target vehicle side, and corrects the lane change or driving position of the target vehicle.
  • Devices on the target vehicle include the steering wheel 26, the accelerator 27, the brake 28, and the like.
  • the road condition detection device 103 In the road condition detection device 103, it was necessary for the driver who received the notification to change the lane of the target vehicle or correct the driving position. In contrast, the road condition detection device 103A automatically changes lanes or corrects the traveling position of the target vehicle.
  • the control unit 15 controls the vehicle to change lanes or correct the traveling position of the target vehicle so that the target vehicle travels at a position where the damage location candidate detected from the first image can be photographed more accurately by the second imaging device. Instruct the device 25.
  • the control unit 15 causes the first damage location candidate to be included in the imaging range of the second imaging device 22 when the reliability of the first damage location candidate is less than or equal to a predetermined reference value.
  • the vehicle control device 25, which performs automatic driving control of the target vehicle 50 changes the position of the target vehicle 50 in the width direction of the road. Therefore, the position of the target vehicle 50 is adjusted so that the second photographing device 22 can easily photograph the first damage location candidate, so the photographing range of the second photographing device 22 can be narrowed. As a result, the resolution of the captured image of the first damage location candidate by the second imaging device 22 increases, and the damage location can be detected with high accuracy.
  • FIG. 16 is a block diagram showing the configuration of a road condition detection device 103B according to a second modification of the third embodiment.
  • the control unit 15 is connected to the second photographing device control device 29 instead of the notification device 24, and controls this.
  • the road condition detection device 103B is similar to the road condition detection device 103.
  • the second photographing device control device 29 adjusts at least one of the position or the photographing direction of the second photographing device 22 in response to instructions from the control unit 15.
  • the control unit 15 causes the image processing unit 13 to include the first damage location candidate in the imaging range of the second imaging device 22 when the reliability of the first damage location candidate extracted from the first image is below a reference value.
  • the position or photographing direction of the second photographing device 22 is determined, and the second photographing device control device 29 is instructed to do so.
  • Embodiment 4 In this embodiment, based on the estimation result of the first damage location candidate by the image processing unit 13, information regarding the first damage location candidate is transmitted to inspection vehicles other than the target vehicle.
  • FIG. 17 is a block diagram showing the configuration of road condition detection device 104 according to the fourth embodiment.
  • the control unit 15 is connected to the communication device 30, and other points are the same as the road condition detection device 101 according to the first embodiment.
  • the communication device 30 Based on instructions from the control unit 15, the communication device 30 transmits information regarding the first damage location candidate to the cloud server 31 via the communication network.
  • the information regarding the first damage location candidate transmitted to the cloud server 31 includes latitude and longitude information representing the position of the first damage location candidate, a route name that specifies the lane where the first damage location candidate is located, and the traveling direction (up or information on the downlink) or information on the damage type of the first damage location candidate.
  • the cloud server 31 transmits the information received from the communication device 30 via the communication network to other inspection vehicles 32, 33, and 34 other than the target vehicle.
  • the inspection vehicles 32, 33, and 34 are equipped with a road condition detection device 104, a first photographing device 21, a second photographing device 22, a positioning device 23, and a communication device 30, like the target vehicle.
  • the inspection vehicles 32, 33, and 34 photograph the first damage location candidate using the second photographing device 22 based on the information received from the cloud server 31.
  • FIG. 18 is a flowchart showing processing related to the first image by the road condition detection device 104. Steps S501 to S505 and S507 in FIG. 18 are the same as steps S101 to S105 and S107 in FIG. 5 described in Embodiment 1, so their explanation will be omitted here.
  • the road condition detection device 104 performs information transmission processing in step S506.
  • FIG. 19 is a detailed flowchart of the information transmission process in step S506 of FIG. 18. The information transmission process will be described below along the flow shown in FIG.
  • Steps S601 to S604 and S606 in FIG. 19 are similar to steps S401 to S404 and S408 in FIG. 14 described in the third embodiment.
  • step S603 If the damage point candidate is outside the lane in the traveling direction of the target vehicle (No in step S603), or if it is in the lane in the traveling direction of the target vehicle but not in the travel lane (No in step S604), the control unit 15 determines that the damaged location candidate is not suitable for imaging by the second imaging device 22, and proceeds to the process of step S605.
  • step S605 the control unit 15 transmits information about damage location candidates to the cloud server 31 via the communication device 30.
  • the cloud server 31 which has received the information on the damage location candidates from the communication device 30, transmits the information on the damage location candidates to inspection vehicles 32, 33, and 34 that have inspection equipment equivalent to that of the target vehicle.
  • the cloud server 31 manages the positions or states of the inspection vehicles 32, 33, and 34, determines the priority order of the inspection vehicle for photographing damage location candidates according to the position or state, and inspects information on the priority order. It may also be transmitted to vehicles 32, 33, and 34.
  • control unit 15 allows the second imaging device 22 to accurately photograph the first damage location candidate based on the position of the first damage location candidate, the current driving lane of the target vehicle, and the position. If it is determined that this is not possible, information on the first damage location candidate is transmitted to inspection vehicles 32, 33, and 34 that have similar inspection equipment.
  • the inspection vehicles 32, 33, and 34 photograph the first damage location candidate with the second photographing device 22 provided in their own vehicles
  • the photographed images are sent to the road condition detection device of the target vehicle 50 via the cloud server 31. 104.
  • the image processing unit 13 analyzes the captured images obtained from the inspection vehicles 32, 33, and 34, extracts road damage location candidates, identifies highly reliable damage location candidates as damaged locations, and The judgment result is stored in the judgment result storage section 14.
  • the inspection vehicles 32, 33, and 34 do not necessarily need to transmit the photographed images to the target vehicle 50.
  • the captured images may be analyzed by the image processing section, and highly reliable damage location candidates may be stored in the determination result storage section.
  • each inspection vehicle 32 , 33 , 34 may perform up to analysis of the captured image, and highly reliable damage location candidates may be stored in the cloud server 31 .
  • the control unit 15 assigns the first damage location to the inspection vehicle 32, 33, 34 equipped with the second imaging device 22 other than the target vehicle 50.
  • the candidate information is transmitted, and the second photographing device 22 mounted on the inspection vehicle 32, 33, 34 photographs the first damage point candidate. In this way, by leaving the photographing of the first damage location candidate that is difficult to photograph with the second photographing device 22 of the target vehicle 50 to the other inspection vehicles 32, 33, and 34, it is possible to prevent the damage location from being missed.
  • the unit 16 is realized by a processing circuit 81 shown in FIG. That is, the processing circuit 81 includes a first image input section 11, a second image input section 12, an image processing section 13, a determination result storage section 14, a control section 15, and an imaging device control section 16 (hereinafter referred to as the first image input section 11). etc.).
  • Dedicated hardware may be applied to the processing circuit 81, or a processor that executes a program stored in memory may be applied.
  • the processor is, for example, a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a DSP (Digital Signal Processor), or the like.
  • the processing circuit 81 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Circuit). Gate Array), or a combination of these.
  • the functions of each section such as the first image input section 11 may be realized by a plurality of processing circuits 81, or the functions of each section may be realized by a single processing circuit.
  • the processing circuit 81 When the processing circuit 81 is a processor, the functions of the first image input unit 11 and the like are realized by a combination of software and the like (software, firmware, or software and firmware). Software etc. are written as programs and stored in memory. As shown in FIG. 21, a processor 82 applied to a processing circuit 81 realizes the functions of each part by reading and executing a program stored in a memory 83. That is, when the road condition detection devices 101, 102, 103, 103A, 103B, and 104 are executed by the processing circuit 81, the functions of each section such as the first image input section 11 are executed as a result.
  • a memory 83 is provided for storing programs.
  • this program can be said to cause the computer to execute the procedure or method of the first image input section 11 and the like.
  • the memory 83 is a non-volatile or Volatile semiconductor memory, HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disk) and its drive device, etc., or any storage media that will be used in the future. You can.
  • each function of the first image input unit 11 and the like is realized by either hardware or software.
  • the present invention is not limited to this, and a configuration may be adopted in which a part of the first image input section 11 and the like is realized by dedicated hardware, and another part is realized by software or the like.
  • the function of the image processing unit 13 is realized by a processing circuit as dedicated hardware, and the function of other parts is realized by the processing circuit 81 as the processor 82 reading and executing a program stored in the memory 83. It is possible to realize this.
  • the processing circuit can realize each of the above functions using hardware, software, etc., or a combination thereof.
  • the determination result storage unit 14 is composed of a memory 83.
  • First image input unit 12 Second image input unit, 13 Image processing unit, 14 Judgment result storage unit, 15 Control unit, 16 Imaging device control unit, 21 First imaging device, 22 Second imaging device, 23 Positioning device , 24 Notification device, 25 Vehicle control device, 26 Steering wheel, 27 Accelerator, 28 Brake, 29 Second imaging device control device, 30 Communication device, 31 Cloud server, 32 Inspection vehicle, 33 Inspection vehicle, 34 Inspection vehicle, 50 Target vehicle , 51 photographing area, 52 road photographing area, 53 photographing area, 54 road photographing area, 55 damage point candidate, 81 processing circuit, 82 processor, 83 memory, 101 road condition detection device, 102 road condition detection device, 103 road condition detection Device, 103A road condition detection device, 103B road condition detection device, 104 road condition detection device, 131 first image processing section, 132 second image processing section.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

本開示は、道路の損傷箇所の撮り逃がしを抑制することを目的とする。道路状態検出装置(101)は、第1撮影装置(21)により撮影された第1画像を画像解析することにより道路の損傷箇所候補を第1損傷箇所候補として推定すると共に、第1損傷箇所候補の信頼度を算出する画像処理部(13)と、第1損傷箇所候補の信頼度が基準値以下の場合に、第1撮影装置(21)より狭い第2撮影装置(22)の撮影範囲に第1損傷箇所候補が含まれる撮影タイミングを算出する制御部(15)と、を備える。画像処理部(13)は、撮影タイミングで撮影された第2画像を画像解析することにより、第2画像の撮影範囲に含まれる道路の損傷箇所候補を第2損傷箇所候補として推定すると共に、第2損傷箇所候補について信頼度を算出し、信頼度が基準値を超える第1損傷箇所候補および第2損傷箇所候補を損傷箇所として検出する。

Description

道路状態検出装置および道路状態検出方法
 本開示は、道路状態の検出に関する。
 従来、人の目視により道路の劣化状況の確認が行われていた。しかし、最近、車両に搭載された撮影装置により撮影された動画から道路の損傷箇所を検出する技術が開発されている。
 特許文献1には、車両が路面の凹凸を通過した際の振動を検出し、車両に搭載されたリアカメラで振動検出位置を撮影することにより、道路の損傷箇所を自動で検出および撮影する技術が開示されている。
特開2020-086669号公報
 特許文献1に開示された技術では、例えば、車両にかかる衝撃を加速度センサで測定して路面の劣化を検出する。そのため、損傷箇所が道路の中央部にある場合には、車輪が損傷箇所を跨ぐために損傷箇所の検知ができず、損傷箇所の撮影ができないという問題があった。また、損傷箇所が道路の端にある場合にも、タイヤが損傷箇所を踏むことなく通過してしまうため、損傷箇所の検知および撮影ができないという問題があった。
 本開示の技術は、上記の問題点を解決するためのものであり、道路の損傷箇所の撮り逃がしを抑制することを目的とする。
 本開示の道路状態検出装置は、第1画像入力部、第2画像入力部、画像処理部、および制御部を備える。第1画像入力部は、対象車両に搭載された第1撮影装置による対象車両の周辺の撮影画像である第1画像を取得する。第2画像入力部は、対象車両に搭載された第2撮影装置による、対象車両の周辺の第1画像より狭い撮影範囲の撮影画像である第2画像を取得する。画像処理部は、第1画像を画像解析することにより、第1画像の撮影範囲に含まれる道路の損傷箇所候補を第1損傷箇所候補として推定すると共に、第1損傷箇所候補について推定の確からしさを表す信頼度を算出する。制御部は、第1損傷箇所候補の信頼度が予め定められた基準値以下の場合に、第2撮影装置の撮影範囲に第1損傷箇所候補が含まれるタイミングを撮影タイミングとして算出する。画像処理部は、撮影タイミングで撮影された第2画像を画像解析することにより、第2画像の撮影範囲に含まれる道路の損傷箇所候補を第2損傷箇所候補として推定すると共に、第2損傷箇所候補について信頼度を算出し、信頼度が基準値を超える第1損傷箇所候補および第2損傷箇所候補を損傷箇所として検出する。
 本開示の道路状態検出装置によれば、第1画像から推定した第1損傷箇所候補の信頼度が低い場合に、撮影範囲を絞った第2撮影装置により高解像度で第1損傷箇所候補を再び撮影することが出来るため、損傷箇所の撮り逃がしを抑制できる。本開示の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1に係る道路状態検出装置の構成を示すブロック図である。 実施の形態1における第1撮影装置および第2撮影装置の撮影範囲を示す図である。 実施の形態1における第1撮影装置の撮影画像を示す図である。 実施の形態1における第2撮影装置の撮影範囲を示す図である。 実施の形態1に係る道路状態検出装置による第1画像の解析処理に関するフローチャートである。 実施の形態1に係る道路状態検出装置による第2画像の解析処理に関するフローチャートである。 実施の形態2に係る道路状態検出装置の構成を示すブロック図である。 第1撮影装置の撮影周期を示す図である。 第1撮影装置を下向きに設置した比較例における撮影周期を示す図である。 広範囲を撮影する第1撮影装置を示す図である。 下向きで狭い範囲を撮影する第2撮影装置を示す図である。 実施の形態3に係る道路状態検出装置の構成を示すブロック図である。 実施の形態3に係る道路状態検出装置の第1画像に関する処理を示すフローチャートである。 制御部による報知制御のフローチャートである。 実施の形態3の変形例1に係る道路状態検出装置の構成を示すブロック図である。 実施の形態3の変形例2に係る道路状態検出装置の構成を示すブロック図である。 実施の形態4に係る道路状態検出装置の構成を示すブロック図である。 実施の形態4に係る道路状態検出装置の第1画像に関する処理を示すフローチャートである。 図18のステップS506における情報送信処理の詳細なフローチャートである。 道路状態検出装置のハードウェア構成を示す図である。 道路状態検出装置のハードウェア構成を示す図である。
 <A.実施の形態1>
 <A-1.構成>
 図1は、実施の形態1に係る道路状態検出装置101の構成を示すブロック図である。道路状態検出装置101は、車両に搭載された第1撮影装置21および第2撮影装置22の撮影画像を解析することにより、車両の周辺の道路の劣化状況を検出する。
 道路状態検出装置101は、第1撮影装置21および第2撮影装置22と接続され、これらを利用可能に構成されている。
 第1撮影装置21および第2撮影装置22は、車両に搭載されたカメラである。以下、第1撮影装置21および第2撮影装置22が搭載された車両を対象車両と称する。
 図2は、第1撮影装置21および第2撮影装置22の撮影範囲を例示する図である。図2において、第1撮影装置21は対象車両50の進行方向を撮影するフロントカメラであり、例えば対象車両50のフロントガラスに取付けられたドライブレコーダ型端末として構成される。第1撮影装置21の撮影領域51は対象車両50の前方にあり、そのうち道路撮影領域52が第1撮影装置21により撮影される道路の範囲である。
 また、図2において、第2撮影装置22は対象車両50の進行方向とは反対側を撮影する。第2撮影装置22は、例えば対象車両のリアガラスまたはリアバンパー付近に取付けられたリアカメラである。第2撮影装置22の撮影領域53は対象車両50の後方にあり、そのうち道路撮影領域54が第2撮影装置22により撮影される道路の範囲である。第2撮影装置22の撮影方向は対象車両50の後方に限らず、前方であってもよい。しかし、第2撮影装置22の撮影範囲は、第1撮影装置21の撮影範囲よりも対象車両50の進行方向における後ろ側である必要がある。
 図3は第1撮影装置21による撮影画像を示し、図4は第2撮影装置22による撮影範囲を示している。以下、第1撮影装置21による撮影画像を第1画像とも称し、第2撮影装置22による撮影画像を第2画像とも称する。第2撮影装置22は第1撮影装置21よりも狭い範囲を撮影する。
 道路状態検出装置101は、第1画像入力部11、第2画像入力部12、画像処理部13、判断結果記憶部14、制御部15、および撮影装置制御部16を備える。
 第1画像入力部11は、第1撮影装置から第1画像を取得し、画像処理部13に出力する。
 第2画像入力部12は、第2撮影装置から第2画像を取得し、画像処理部13に出力する。
 画像処理部13は、第1画像入力部11から第1画像を取得し、第1画像を解析することにより、第1画像の撮影範囲に含まれる道路の損傷箇所候補を検出すると共に、その検出の確からしさを表す信頼度を算出する。また、画像処理部13は、第2画像入力部12から第2画像を取得し、第2画像を解析することにより、第2画像の撮影範囲に含まれる道路の損傷箇所候補を検出すると共に、その検出の確からしさを表す信頼度を算出する。以下、第1画像から抽出された損傷箇所候補を第1損傷箇所候補とも称し、第2画像から抽出された損傷箇所候補を第2損傷箇所候補とも称する。画像処理部13は、信頼度の高い第1損傷箇所候補および第2損傷箇所候補を損傷箇所と判断し、損傷箇所の情報を判断結果記憶部14に格納する。
 判断結果記憶部14には、画像処理部13が検出した損傷箇所の情報が記憶される。損傷箇所の情報は、例えば損傷箇所の位置、損傷箇所の画像、損傷箇所がある車線の番号、または損傷箇所の種類を含む。
 制御部15は、第1損傷箇所候補の信頼度が低い場合に、第2撮影装置22により第1損傷箇所候補を再び撮影することを試みる。そのため、制御部15は、第2撮影装置の撮影範囲に第1損傷箇所候補が含まれるタイミングを算出する。以下、第2撮影装置の撮影範囲に第1損傷箇所候補が含まれるタイミングを撮影タイミングと称する。撮影タイミングは、第1撮影装置21による撮影後の対象車両の速度の増減を考慮し、ある程度の時間的な幅を有する期間として算出される。
 撮影装置制御部16は、制御部15が算出した撮影タイミングに第2撮影装置22が撮影を行うよう、第2撮影装置22を制御する。
 <A-2.動作>
 図5は、道路状態検出装置101による第1画像の処理に関するフローチャートである。以下、図5のフローに沿って第1画像の処理を説明する。
 まず、ステップS101において、第1撮影装置21が第1領域の撮影を行う。第1撮影装置21は、第1撮影装置21へ電源が投入されると自動的に起動し、撮影を開始する。あるいは、第1撮影装置21に設けられた録画開始ボタンをユーザが押下することにより、第1撮影装置は撮影を開始する。第1撮影装置21は、撮影停止の指示を受けるまでは撮影を中断せず、一定周期で第1画像の撮影を続ける。
 次に、ステップS102において、画像処理部13が第1撮影装置21の撮影画像である第1画像を解析し、第1画像に映った道路が損傷箇所を含むか否かを推定する。例えば、画像処理部13は人工知能(AI:Artificial Intelligence)による画像解析により、損傷箇所を推定することができる。AIの機械学習方法には、「教師あり学習」、「教師なし学習」、「強化学習」があるが、本実施の形態では任意の機械学習方法が用いられる。
 道路の損傷箇所の代表例として、線状ひび割れ、亀甲ひび割れ、白線擦れ、横断歩道擦れ、ポットホールなどが挙げられる。
 画像処理部13は、第1画像内に道路の損傷が存在するかを推定し、損傷があればその位置と、推定の確からしさを表す信頼度とを算出する。信頼度は、その値が高いほど推定結果が正解である可能性が高いとみなせる値である。以下、画像処理部13が第1画像から推定した損傷箇所を第1損傷箇所候補と称する。
 その後、ステップS103において、画像処理部13は、ステップS102の推定結果に基づき、第1画像が第1損傷箇所候補を含むか否かを判断する。第1画像が第1損傷箇所候補を含む場合、道路状態検出装置101の処理はステップS104に移行する。第1画像が第1損傷箇所候補を含まない場合、道路状態検出装置101の処理はステップS107に移行する。ステップS107において、道路状態検出装置101は第1撮影装置21の撮影を停止するか否かを判断する。例えば、道路状態検出装置101は、図示しない操作入力部などから撮影停止の指示入力を受けた場合に、撮影を停止すると判断する。道路状態検出装置101はステップS107において、撮影を停止しないと判断すればステップS101の処理に戻り、撮影を停止すると判断すれば処理を終了する。
 ステップS104において画像処理部13は、第1損傷箇所候補の信頼度が予め定められた基準値より高いか否かを判断する。第1損傷箇所候補の信頼度が基準値より高い場合、道路状態検出装置101の処理はステップS105に移行し、基準値より低い場合、道路状態検出装置101の処理はステップS106に移行する。
 ステップS105において、画像処理部13は、基準値より高い信頼度を有する第1損傷箇所候補を損傷箇所と決定し、損傷箇所の情報を判断結果記憶部14に記録する。ステップS105の後、道路状態検出装置101の処理はステップS107に移行する。
 ステップS106において、道路状態検出装置101は第2画像に関する処理を開始する。ステップS106の後、道路状態検出装置101の処理はステップS107に移行する。図6は、道路状態検出装置101による第2画像に関する処理のフローチャートである。以下、図6のフローに沿って第2画像に関する処理を説明する。
 ステップS201において、制御部15は、第2撮影装置22の撮影タイミングを算出する。
 本ステップは、第1損傷箇所候補の信頼度が基準値以下(図5のステップS104でNo)の場合に処理される。具体的には、制御部15は、対象車両が進行方向に走行している場合、(1)予め計測済みの第1撮影装置21および第2撮影装置22の距離と、(2)対象車両から損傷箇所候補までの距離と、(3)対象車両の直近の平均速度とに基づき、損傷箇所候補が第2撮影装置22の撮影範囲に含まれると予想されるタイミングを第2撮影装置22の撮影タイミングとして算出する。制御部15は、第1撮影装置21による撮影後の対象車両の速度の増減を考慮し、ある程度の時間的な幅を持った撮影期間として第2撮影装置22の撮影タイミングを算出する。
 ステップS201の後、ステップS202において、第2撮影装置22が撮影を開始する。具体的には、制御部15がステップS201で算出した撮影タイミングを撮影装置制御部16に出力する。そして、撮影装置制御部16は、制御部15が算出した撮影タイミングに撮影を行うように第2撮影装置22を制御する。第2撮影装置22は、撮影タイミングの開始時刻に撮影を開始し、撮影タイミングの終了時刻に撮影を終了する。いいかえれば、制御部15は、ステップS201で算出した撮影タイミングにのみ第2画像を撮影するよう、第2撮影装置を制御する。
 ステップS202の後、ステップS203において、画像処理部13は第2撮影装置22で撮影された第2画像を解析し、第2画像に映った道路が損傷箇所候補を含むか否かを推定する。本ステップにおける推定方法は、ステップS102で説明した第1画像における推定方法と同様であるため、詳細な説明は省略する。画像処理部13は、第2画像内の損傷箇所候補を推定し、さらに損傷箇所候補の位置と信頼度とを算出する。第2画像から推定される推奨箇所候補を第2推奨箇所候補と称する。
 ステップS203の後、ステップS204において、画像処理部13は、ステップS203の推定結果に基づき、第2画像に第2損傷箇所候補が含まれるか否かを判定する。第2画像に第2損傷箇所候補が含まれる場合、道路状態検出装置101の処理はステップS205に移行し、含まれない場合、道路状態検出装置101の第2画像に関する処理は終了する。
 ステップS205において、画像処理部13は、第2損傷箇所候補の信頼度が予め定められた基準値より高いか否かを判断する。第2損傷箇所候補の信頼度が基準値より高ければ、道路状態検出装置101の処理はステップS206に移行し、基準値より低ければ、道路状態検出装置101の第2画像に関する処理は終了する。
 ステップS206において、画像処理部13は基準値より高い信頼度を有する第2損傷箇所候補を損傷箇所と決定し、その損傷箇所の情報を判断結果記憶部14に記録する。その後、道路状態検出装置101の第2画像に関する処理は終了する。
 <A-3.効果>
 本実施の形態の道路状態検出装置101は、第1画像入力部、第2画像入力部、画像処理部および制御部を備える。第1画像入力部11は、対象車両に搭載された第1撮影装置による対象車両の周辺の撮影画像である第1画像を取得する。第2画像入力部12は、対象車両に搭載された第2撮影装置による、対象車両の周辺の第1画像より狭い撮影範囲の撮影画像である第2画像を取得する。画像処理部13は、第1画像を画像解析することにより、第1画像の撮影範囲に含まれる道路の損傷箇所候補を第1損傷箇所候補として推定すると共に、第1損傷箇所候補について推定の確からしさを表す信頼度を算出する。制御部15は、第1損傷箇所候補の信頼度が予め定められた基準値以下の場合に、第2撮影装置の撮影範囲に第1損傷箇所候補が含まれるタイミングを撮影タイミングとして算出する。画像処理部は、撮影タイミングで撮影された第2画像を画像解析することにより、第2画像の撮影範囲に含まれる道路の損傷箇所候補を第2損傷箇所候補として推定すると共に、第2損傷箇所候補について信頼度を算出し、信頼度が基準値を超える第1損傷箇所候補および第2損傷箇所候補を損傷箇所として検出する。以上の構成により、道路状態検出装置101によれば、第1撮影装置21が損傷箇所を上手く撮影できない場合でも、撮影範囲を絞った第2撮影装置により損傷箇所を撮影し、検出することができる。これにより、損傷箇所の位置または対象車両の形状に関わらず、損傷箇所の撮り逃がしが抑制され、損傷箇所の点検業務の自動化が可能となる。
 <A-4.変形例1>
 実施の形態1では、制御部15が第2撮影装置22の撮影タイミングを算出し、撮影装置制御部16が当該撮影タイミングにのみ撮影を行うよう第2撮影装置22を制御した。しかし、第2撮影装置22に常時撮影を行わせ、制御部15は常時撮影された複数の第2画像の中から、第1損傷箇所候補が撮影された少なくとも1つの第2画像を特定し、当該特定した第2画像のみを解析するよう画像処理部13を制御してもよい。
 すなわち、第2撮影装置22は撮影タイミングと撮影タイミング以外の両方で第2画像を撮影し、画像処理部13は、撮影タイミングに撮影された第2画像のみを画像解析することにより、第2損傷箇所候補を推定する。
 <A-5.変形例2>
 1台の第2撮影装置22の撮影範囲では道路の幅方向の全体をカバーできない場合、複数台の第2撮影装置22が用いられてもよい。各第2撮影装置22は、道路の幅方向の異なる範囲の撮影を担当する。この場合、制御部15は第1損傷箇所候補の道路の幅方向における位置に応じて、第1損傷箇所候補を撮影可能な1台の第2撮影装置22を選択する。そして、撮影装置制御部16は、制御部15が選択した1台の第2撮影装置22に撮影を行わせる。
 <A-6.変形例3>
 第2撮影装置22の撮影方向は第1撮影装置21の撮影方向より下向きであってもよい。第2撮影装置22が下向きに設置されると、第2撮影装置22の撮影範囲である第2範囲は狭くなるが、第2撮影装置22の撮影画像である第2画像において、道路の単位面積当たりの解像度が高くなる。
 さらに、第2撮影装置22の撮影方向が路面に対して垂直な方向に近づくほど、道路の損傷の状態をより正確に捉えることができる。その結果、画像処理部13における画像解析結果の正解率が高まる。
 <B.実施の形態2>
 <B-1.構成>
 図7は、実施の形態2に係る道路状態検出装置102の構成を示すブロック図である。道路状態検出装置102は、画像処理部13が第1画像処理部131および第2画像処理部132を備える点で、実施の形態1に係る道路状態検出装置101と異なる。
 第1画像処理部131は、第1画像入力部11から取得した第1画像の解析を行い、第1画像中の損傷箇所候補とその信頼度を抽出する。第1画像処理部131による第1画像の解析は、軽量画像処理である。軽量画像処理とは、第1撮影装置21が道路を切れ目なく撮影するのに必要な撮像間隔以下の時間で処理を終えることができる規模の処理である。軽量画像処理は、演算処理負荷の軽い画像処理アルゴリズムにより実行される。
 第2画像処理部132は、第2画像入力部12から取得した第2画像の解析を行い、第2画像中の損傷箇所候補とその信頼度を抽出する。第2画像処理部132による第2画像の解析は、重量画像処理である。重量画像処理とは、軽量画像処理よりも高い精度の損傷検知を行うことができる処理である。この高い精度を得るために、重量画像処理は軽量画像処理よりも長い処理時間を要する。重量画像処理は、計量画像処理に用いられる画像処理アルゴリズムよりも演算処理負荷の重い画像処理アルゴリズムにより実行される。
 第2画像処理部132は、第1画像処理部131が第1損傷箇所候補の信頼度が基準値以下の場合にのみ動作する。第1画像処理部131において信頼度が基準値以下の第1損傷箇所候補が抽出される時間間隔よりも、重量画像処理に要する時間が短い限り、道路状態検出装置102はリアルタイムに損傷箇所を検知することができる。
 <B-2.動作>
 道路状態検出装置102の動作フローは図5および図6に示した実施の形態1の動作フローと同様である。
 図8は、第1撮影装置21の撮影周期を示している。第1撮影装置21が道路を切れ目なく撮影するためには、一定の頻度で撮影する必要がある。例えば、対象車両50が時速80km、すなわち秒速22mで走行し、第1撮影装置21の有効な撮影距離を10mとすると、2fpsでの撮影が必要である。この場合、第1撮影装置21の撮影間隔は500msである。第1画像処理部131の軽量画像処理に要する時間が500ms以下であれば、第1撮影装置21の次回撮影までに軽量画像処理が完了し、第1画像処理部131の負荷は増加しない。
 図9は、第1撮影装置21を下向きに設置した比較例における撮影周期を示している。第1撮影装置21を下向きに設置すると、第1画像における路面の解像度が向上するため、損傷箇所の検出精度の向上が期待できる。しかし、撮影範囲が狭くなるため、撮影周期を短くする必要がある。撮影周期内に第1画像処理部131の軽量画像処理を終わらせるには、第1画像処理部131の処理速度を上げる必要があり負荷が増加してしまう。
 そこで、本実施の形態では、広範囲を撮影する第1撮影装置21と、下向きで狭い範囲を撮影する第2撮影装置22とを併用する。
 図10は、広範囲を撮影する第1撮影装置21を示している。図11は、下向きで狭い範囲を撮影する第2撮影装置22を示している。第2撮影装置22の撮影周期は第1撮影装置21の撮影周期より短い。第2画像処理部132は、第2撮影装置22が一定期間に撮影した複数枚の第2画像をバッファリングする。第1画像処理部131が、第1撮影装置21が撮影した第1画像から信頼度の低い損傷箇所候補55を検出すると、制御部15は当該損傷箇所候補55が撮影されている第2画像を指定する。そして、第2画像処理部132は、制御部15に指定された第2画像のみに対して重量画像処理を実行する。第2画像処理部132の重量画像処理は、第1画像から信頼度の低い損傷箇所候補55を検出された場合にのみ実行されるため、次回の処理までの間隔は長い。従って、第2画像処理部132は、次回の処理開始までに重量画像処理を完了することが可能である。
 <B-3.効果>
 実施の形態2の道路状態検出装置102において、画像処理部13が第2画像の画像解析に用いる画像処理アルゴリズムは、第1画像の画像解析に用いる画像処理アルゴリズムよりも演算負荷が重い。従って、道路状態検出装置102によれば、第1画像により道路全体の劣化状況を検出すると共に、道路劣化が疑わしいエリアに対しては数フレームの処理を必要とする高度な道路劣化判断を実行できるようになり、道路劣化検出の精度が向上する。
 <C.実施の形態3>
 本実施の形態では、画像処理部13が認識した第1損傷箇所候補の情報を道路状態検出装置の外部に出力することにより、第1損傷箇所候補を第2撮影装置22が正確に撮影できるよう対象車両50の位置を調整する。
 <C-1.構成>
 図12は、実施の形態3に係る道路状態検出装置103の構成を示すブロック図である。道路状態検出装置103は、制御部15が測位装置23の情報を入手し報知装置24を制御可能に構成されており、その他の点で、実施の形態1に係る道路状態検出装置101と同様である。
 測位装置23は、対象車両50の位置を測定する。測位装置23は、対象車両50の進行方向および走行車線を検出してもよい。
 報知装置24は、制御部15の指示を受けて運転手に報知を行う。報知方法の代表例としては以下が挙げられる。(1)対象車両50の車室内のディスプレイによる画像による報知。(2)対象車両50の車室内のスピーカーによる音声による報知。(3)メーター内部の警告灯の点灯または点滅による報知。
 <C-2.動作>
 図13は、道路状態検出装置103の第1画像に関する処理を示すフローチャートである。図13のフローのうちステップS301からステップS305およびステップS307は、実施の形態1で説明した図5のステップS101からステップS105およびステップS107と同様であるため、説明を省略する。
 画像処理部13が第1画像から抽出した損傷箇所候補の信頼度が基準値以下である場合(ステップS304でNo)、制御部15はステップS306で報知制御を行う。具体的には、制御部15は、第1撮影装置21による第1画像内に含まれる損傷箇所候補の位置と、対象車両が現在走行中の車線と、対象車両の走行位置とに基づき、第2撮影装置22が損傷箇所候補を正確に撮影できるよう、運転手に車線変更および走行位置を補正すべき旨を報知する。
 図14は、制御部15による報知制御のフローチャートである。以下、図14のフローに沿って報知制御を説明する。
 まず、ステップS401において、制御部15は、画像処理部13が第1画像から抽出した損失箇所候補が、道路に含まれる複数の車線のうちどの車線に位置するかを判定する。なお、この判定処理は制御部15ではなく画像処理部13が行い、画像処理部13から制御部15に判定結果が伝えられてもよい。
 次に、ステップS402において、制御部15は、測位装置23から対象車両の位置情報を取得し、この位置情報に基づき対象車両の走行中の車線を判定する。なお、この判定処理は制御部15ではなく測位装置23が行い、測位装置23から制御部15に判定結果が伝えられてもよい。
 その後、ステップS403において、制御部15は、ステップS401とステップS402の結果に基づき、損失箇所候補が対象車両の進行方向の車線内にあるか否かを判断する。損失箇所候補が対象車両の進行方向の車線内に含まれる場合、制御部15の処理はステップS404に移行する。損失箇所候補が対向車線または対象車両の走行道路と並走する側道にある場合など、対象車両の進行方向の車線内に含まれない場合、制御部15の処理は終了する。
 ステップS404において、制御部15は、ステップS401とステップS402の結果に基づき、損失箇所候補が対象車両の走行車線内にあるか否かを判断する。損失箇所候補が対象車両の走行車線内にある場合、制御部15の処理はステップS408に移行する。損失箇所候補が対象車両の走行車線内にない場合、制御部15の処理はステップS405に移行する。
 ステップS408において、道路状態検出装置103は第2画像の処理を開始する。第2画像の処理は、図6に示した通りであるため、説明を省略する。
 ステップS405において、制御部15は、第2撮影装置22の撮影時刻を算出する。この処理は、図6のステップS201と同様であるため、説明を省略する。
 ステップS405の後、ステップS406において、制御部15は、ステップS405で算出した第2撮影装置22の撮影時刻を過ぎているか否かを判断する。第2撮影装置22の撮影時刻を過ぎている場合、制御部15は報知制御を終了する。第2撮影装置22の撮影時刻を過ぎていない場合、制御部15の処理はステップS407へ進む。
 ステップS407において、制御部15は、報知装置24により、損傷箇所候補を含む車線への車線変更を運転者に報知する。運転者がこの報知を受けて損傷箇所候補を含む車線へ対象車両の車線変更を行うことにより、第2撮影装置22は損傷箇所候補をより正確に撮影することができる。
 その後、制御部15の処理はステップS404へ戻り、損傷箇所候補が対象車両の走行車線に含まれるか、再度判定を行う。
 ステップS407の報知において、制御部15は、HUD(Head Up Display)において損傷箇所候補と重畳するようにマークオブジェクトを表示させてもよい。また、制御部15は、HUDにおいて損傷箇所候補が存在する車線の位置、またはどの車線に移動すればよいかが分かるような表示オブジェクトを表示させてもよい。
 音声報知の場合、報知装置24は、「車線内の右の位置を走行」、または「右車線に移動」などの音声を出力してもよい。
 <C-3.効果>
 実施の形態3に係る道路状態検出装置104において、制御部15は、第1損傷箇所候補の信頼度が予め定められた基準値以下の場合に、第2撮影装置の撮影範囲に第1損傷箇所候補が含まれるよう、運転者に対して対象車両50の道路の幅方向における位置の変更を促す報知を、対象車両50に搭載された報知装置24に行わせる。これにより、対象車両が車線変更することによって、第2撮影装置22の撮影範囲を狭くし、高解像度に損傷箇所候補を撮影し、精度よく損傷箇所を検出することができる。
 <C-4.変形例1>
 図15は、実施の形態3の変形例1の道路状態検出装置103Aの構成を示すブロック図である。道路状態検出装置103Aでは、制御部15が報知装置24に代えて車両制御装置25と接続され、これを制御する。その他の点で、道路状態検出装置103Aは道路状態検出装置103と同様である。
 車両制御装置25は、制御部からの指示を受けて対象車両側のデバイスを制御し、対象車両の車線変更または走行位置を補正する。対象車両側のデバイスには、ハンドル26、アクセル27またはブレーキ28などが挙げられる。
 道路状態検出装置103では、報知を受けた運転者自身が対象車両の車線変更または走行位置の補正を行う必要があった。これに対して道路状態検出装置103Aでは、対象車両の車線変更または走行位置の補正が自動で行われる。制御部15は、第1画像から検出された損傷箇所候補をより正確に第2撮影装置で撮影できるような位置を対象車両が走行するよう、対象車両の車線変更または走行位置の補正を車両制御装置25に指示する。
 道路状態検出装置103Aにおいて、制御部15は、第1損傷箇所候補の信頼度が予め定められた基準値以下の場合に、第2撮影装置22の撮影範囲に第1損傷箇所候補が含まれるよう、対象車両50の道路の幅方向における位置の変更を、対象車両50の自動運転制御を行う車両制御装置25に行わせる。従って、第2撮影装置22が第1損傷箇所候補を撮影しやすくなるように対象車両50の位置が調整されるため、第2撮影装置22の撮影範囲を狭くすることができる。その結果、第2撮影装置22による第1損傷箇所候補の撮影画像の解像度が高まり、精度よく損傷箇所を検出することができる。
 <C-5.変形例2>
 図16は、実施の形態3の変形例2の道路状態検出装置103Bの構成を示すブロック図である。道路状態検出装置103Bでは、制御部15が報知装置24に代えて第2撮影装置制御装置29と接続され、これを制御する。その他の点で、道路状態検出装置103Bは道路状態検出装置103と同様である。
 第2撮影装置制御装置29は、制御部15からの指示を受けて第2撮影装置22の位置または撮影方向の少なくとも一方を調整する。
 制御部15は、画像処理部13が第1画像から抽出された第1損傷箇所候補の信頼度が基準値以下の場合に、第2撮影装置22の撮影範囲に第1損傷箇所候補が含まれるよう、第2撮影装置22の位置または撮影方向を決定し、第2撮影装置制御装置29に指示する。
 <D.実施の形態4>
 本実施の形態では、画像処理部13による第1損傷箇所候補の推定結果に基づき、対象車両以外の点検車両に第1損傷箇所候補に関する情報を送信する。
 <D-1.構成>
 図17は、実施の形態4に係る道路状態検出装置104の構成を示すブロック図である。道路状態検出装置104では、制御部15が通信装置30と接続されており、その他の点は実施の形態1に係る道路状態検出装置101と同様である。
 通信装置30は、制御部15からの指示に基づき、通信網を介してクラウドサーバー31に第1損傷箇所候補に関する情報を送信する。ここでクラウドサーバー31に送信される第1損傷箇所候補に関する情報は、第1損傷箇所候補の位置を表す緯度経度情報、第1損傷箇所候補がある車線を特定する路線名称および進行方向(上りまたは下り)の情報、または第1損傷箇所候補の損傷種類の情報を含む。
 クラウドサーバー31は、通信装置30から通信網を介して受け取った情報を、対象車両以外の他の点検車両32,33,34に送信する。
 点検車両32,33,34は、対象車両と同様に道路状態検出装置104、第1撮影装置21、第2撮影装置22、測位装置23および通信装置30を備えている。点検車両32,33,34は、クラウドサーバー31から受信した情報に基づき、第1損傷箇所候補を第2撮影装置22で撮影する。
 <D-2.動作>
 図18は、道路状態検出装置104の第1画像に関する処理を示すフローチャートである。図18のステップS501からステップS505およびステップS507は、実施の形態1で説明した図5のステップS101からステップS105およびステップS107と同様であるため、ここでは説明を省略する。
 道路状態検出装置104は、画像処理部13が第1画像から抽出した損傷箇所候補の信頼度が基準値以下である場合に(ステップS504でNo)、ステップS506で情報送信処理を行う。
 図19は、図18のステップS506における情報送信処理の詳細なフローチャートである。以下、図19のフローに沿って情報送信処理を説明する。
 図19のステップS601からステップS604およびステップS606は、実施の形態3で説明した図14のステップS401からステップS404およびステップS408と同様である。
 損傷箇所候補が対象車両の進行方向の車線外にある場合(ステップS603でNo)と、対象車両の進行方向の車線内にあるが走行車線にはない場合(ステップS604でNo)、制御部15は、損傷箇所候補が第2撮影装置22による撮影に適していないと判断し、ステップS605の処理に進む。
 ステップS605において制御部15は、通信装置30を介してクラウドサーバー31へ損傷箇所候補の情報を送信する。通信装置30から損傷箇所候補の情報を受信したクラウドサーバー31は、対象車両と同等の点検設備を有する点検車両32,33,34に、損傷箇所候補の情報を送信する。クラウドサーバー31は、点検車両32,33,34の位置または状態を管理し、当該位置または状態に応じて損傷箇所候補の撮影を行う点検車両の優先順位を決定し、当該優先順位の情報を点検車両32,33,34に送信してもよい。
 このように、本実施の形態では、制御部15は、第1損傷箇所候補の位置、対象車両の現在の走行車線、および位置から、第2撮影装置22で第1損傷箇所候補を正確に撮影できないと判断した場合には、同様の点検設備を有する点検車両32,33,34へ第1損傷箇所候補の情報を送信する。
 点検車両32,33,34は、自身の車両に備えられた第2撮影装置22で第1損傷箇所候補を撮影すると、その撮影画像を、クラウドサーバー31を介して対象車両50の道路状態検出装置104に送信する。対象車両50において、画像処理部13は点検車両32,33,34から取得した撮影画像を解析して、道路の損傷箇所候補を抽出し、信頼度の高い損傷箇所候補を損傷箇所と識別して判断結果記憶部14に格納する。なお、点検車両32,33,34は撮影画像を必ずしも対象車両50に送信する必要はない。各点検車両32,33,34において、画像処理部により撮影画像が解析され、信頼度の高い損傷箇所候補が判断結果記憶部に格納されてもよい。また、各点検車両32,33,34では撮影画像の解析までが行われ、信頼度の高い損傷箇所候補はクラウドサーバー31に格納されてもよい。
 <D-3.効果>
 制御部15は、第1損傷箇所候補の信頼度が予め定められた基準値以下の場合に、対象車両50以外の第2撮影装置22を搭載する点検車両32,33,34に第1損傷箇所候補の情報を送信し、点検車両32,33,34に搭載された第2撮影装置22が第1損傷箇所候補を撮影する。このように、対象車両50の第2撮影装置22で撮影が困難な第1損傷箇所候補の撮影を他の点検車両32,33,34に任せることにより、損傷箇所の撮り逃がしが抑制される。
 <E.ハードウェア構成>
 上述した道路状態検出装置101,102,103,103A,103B,104における第1画像入力部11、第2画像入力部12、画像処理部13、判断結果記憶部14、制御部15および撮影装置制御部16は、図20に示す処理回路81により実現される。すなわち、処理回路81は、第1画像入力部11、第2画像入力部12、画像処理部13、判断結果記憶部14、制御部15および撮影装置制御部16(以下、第1画像入力部11等と称する)を備える。処理回路81には、専用のハードウェアが適用されても良いし、メモリに格納されるプログラムを実行するプロセッサが適用されても良い。プロセッサは、例えば中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)等である。
 処理回路81が専用のハードウェアである場合、処理回路81は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。第1画像入力部11等の各部の機能それぞれは、複数の処理回路81で実現されてもよいし、各部の機能をまとめて一つの処理回路で実現されてもよい。
 処理回路81がプロセッサである場合、第1画像入力部11等の機能は、ソフトウェア等(ソフトウェア、ファームウェアまたはソフトウェアとファームウェア)との組み合わせにより実現される。ソフトウェア等はプログラムとして記述され、メモリに格納される。図21に示すように、処理回路81に適用されるプロセッサ82は、メモリ83に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、道路状態検出装置101,102,103,103A,103B,104は、処理回路81により実行されるときに、第1画像入力部11等の各部の機能が結果的に実行されることになるプログラムを格納するためのメモリ83を備える。換言すれば、このプログラムは、第1画像入力部11等の手順または方法をコンピュータに実行させるものであるともいえる。ここで、メモリ83は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disk)及びそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
 以上、第1画像入力部11等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、第1画像入力部11等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。例えば画像処理部13については専用のハードウェアとしての処理回路でその機能を実現し、それ以外についてはプロセッサ82としての処理回路81がメモリ83に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 以上のように、処理回路は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。なお、判断結果記憶部14はメモリ83から構成される。
 なお、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。上記の説明は、すべての態様において、例示である。例示されていない無数の変形例が想定され得るものと解される。
 11 第1画像入力部、12 第2画像入力部、13 画像処理部、14 判断結果記憶部、15 制御部、16 撮影装置制御部、21 第1撮影装置、22 第2撮影装置、23 測位装置、24 報知装置、25 車両制御装置、26 ハンドル、27 アクセル、28 ブレーキ、29 第2撮影装置制御装置、30 通信装置、31 クラウドサーバー、32 点検車両、33 点検車両、34 点検車両、50 対象車両、51 撮影領域、52 道路撮影領域、53 撮影領域、54 道路撮影領域、55 損傷箇所候補、81 処理回路、82 プロセッサ、83 メモリ、101 道路状態検出装置、102 道路状態検出装置、103 道路状態検出装置、103A 道路状態検出装置、103B 道路状態検出装置、104 道路状態検出装置、131 第1画像処理部、132 第2画像処理部。

Claims (11)

  1.  対象車両に搭載された第1撮影装置による前記対象車両の周辺の撮影画像である第1画像を取得する第1画像入力部と、
     前記対象車両に搭載された第2撮影装置による、前記対象車両の周辺の前記第1画像より狭い撮影範囲の撮影画像である第2画像を取得する第2画像入力部と、
     前記第1画像を画像解析することにより、前記第1画像の撮影範囲に含まれる道路の損傷箇所候補を第1損傷箇所候補として推定すると共に、前記第1損傷箇所候補について推定の確からしさを表す信頼度を算出する画像処理部と、
     前記第1損傷箇所候補の前記信頼度が予め定められた基準値以下の場合に、前記第2撮影装置の撮影範囲に前記第1損傷箇所候補が含まれるタイミングを撮影タイミングとして算出する制御部と、を備え、
     前記画像処理部は、前記撮影タイミングで撮影された前記第2画像を画像解析することにより、前記第2画像の撮影範囲に含まれる道路の損傷箇所候補を第2損傷箇所候補として推定すると共に、前記第2損傷箇所候補について前記信頼度を算出し、前記信頼度が前記基準値を超える前記第1損傷箇所候補および前記第2損傷箇所候補を損傷箇所として検出する、
    道路状態検出装置。
  2.  前記制御部は、前記撮影タイミングにのみ前記第2画像を撮影するよう前記第2撮影装置を制御する、
    請求項1に記載の道路状態検出装置。
  3.  前記第2撮影装置は前記撮影タイミングと前記撮影タイミング以外の両方で前記第2画像を撮影し、
     前記画像処理部は、前記撮影タイミングに撮影された前記第2画像のみを画像解析することにより、前記第2損傷箇所候補を推定する、
    請求項1に記載の道路状態検出装置。
  4.  前記第2撮影装置の撮影方向は前記第1撮影装置の撮影方向より下向きである、
    請求項1から請求項3のいずれか1項に記載の道路状態検出装置。
  5.  前記第1撮影装置は、前記対象車両の前方を撮影し、
     前記第2撮影装置は、前記対象車両の後方を撮影する、
    請求項1から請求項4のいずれか1項に記載の道路状態検出装置。
  6.  前記画像処理部が前記第2画像の画像解析に用いる画像処理アルゴリズムは、前記第1画像の画像解析に用いる画像処理アルゴリズムよりも演算負荷が重い、
    請求項1から請求項5のいずれか1項に記載の道路状態検出装置。
  7.  前記制御部は、前記第1損傷箇所候補の前記信頼度が予め定められた基準値以下の場合に、前記第2撮影装置の撮影範囲に前記第1損傷箇所候補が含まれるよう、前記対象車両の運転者に対して前記対象車両の前記道路の幅方向における位置の変更を促す報知を、前記対象車両に搭載された報知装置に行わせる、
    請求項1から請求項6のいずれか1項に記載の道路状態検出装置。
  8.  前記制御部は、前記第1損傷箇所候補の前記信頼度が予め定められた基準値以下の場合に、前記第2撮影装置の撮影範囲に前記第1損傷箇所候補が含まれるよう、前記対象車両の前記道路の幅方向における位置の変更を、前記対象車両の自動運転制御を行う車両制御装置に行わせる、
    請求項1から請求項6のいずれか1項に記載の道路状態検出装置。
  9.  前記制御部は、前記第1損傷箇所候補の前記信頼度が予め定められた基準値以下の場合に、前記第2撮影装置の撮影範囲に前記第1損傷箇所候補が含まれるよう、前記第2撮影装置の位置または撮影方向を制御する、
    請求項1から請求項6のいずれか1項に記載の道路状態検出装置。
  10.  前記制御部は、前記第1損傷箇所候補の前記信頼度が予め定められた基準値以下の場合に、前記対象車両以外の前記第2撮影装置を搭載する点検車両に前記第1損傷箇所候補の情報を送信し、
     前記点検車両に搭載された前記第2撮影装置が前記第1損傷箇所候補を撮影する、
    請求項1から請求項6のいずれか1項に記載の道路状態検出装置。
  11.  第1画像入力部が、対象車両に搭載された第1撮影装置による前記対象車両の周辺の撮影画像である第1画像を取得し、
     第2画像入力部が、前記対象車両に搭載された第2撮影装置による、前記対象車両の周辺の前記第1画像より狭い撮影範囲の撮影画像である第2画像を取得し、
     画像処理部が、前記第1画像を画像解析することにより、前記第1画像の撮影範囲に含まれる道路の損傷箇所候補を第1損傷箇所候補として推定すると共に、前記第1損傷箇所候補について推定の確からしさを表す信頼度を算出し、
     制御部が、前記第1損傷箇所候補の前記信頼度が予め定められた基準値以下の場合に、前記第2撮影装置の撮影範囲に前記第1損傷箇所候補が含まれるタイミングを撮影タイミングとして算出し、
     前記撮影タイミングで撮影された前記第2画像を画像解析することにより、前記第2画像の撮影範囲に含まれる道路の損傷箇所候補を第2損傷箇所候補として推定すると共に、前記第2損傷箇所候補について前記信頼度を算出し、前記信頼度が前記基準値を超える前記第1損傷箇所候補および前記第2損傷箇所候補を損傷箇所として検出する、
    道路状態検出方法。
PCT/JP2022/021086 2022-05-23 2022-05-23 道路状態検出装置および道路状態検出方法 WO2023228239A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/021086 WO2023228239A1 (ja) 2022-05-23 2022-05-23 道路状態検出装置および道路状態検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/021086 WO2023228239A1 (ja) 2022-05-23 2022-05-23 道路状態検出装置および道路状態検出方法

Publications (1)

Publication Number Publication Date
WO2023228239A1 true WO2023228239A1 (ja) 2023-11-30

Family

ID=88918818

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/021086 WO2023228239A1 (ja) 2022-05-23 2022-05-23 道路状態検出装置および道路状態検出方法

Country Status (1)

Country Link
WO (1) WO2023228239A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021002162A (ja) * 2019-06-20 2021-01-07 矢崎総業株式会社 画像処理装置及び画像処理用プログラム
JP2021026353A (ja) * 2019-07-31 2021-02-22 株式会社リコー 路面性状調査システム、路面性状調査方法、及び路面性状調査プログラム
WO2021186989A1 (ja) * 2020-03-16 2021-09-23 日本電気株式会社 劣化診断装置、劣化診断システム、劣化診断方法、及び、記録媒体
WO2021200038A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 道路劣化診断装置、道路劣化診断方法、及び、記録媒体
JP2022026287A (ja) * 2020-07-30 2022-02-10 株式会社リコー 撮影システム、移動体、撮影方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021002162A (ja) * 2019-06-20 2021-01-07 矢崎総業株式会社 画像処理装置及び画像処理用プログラム
JP2021026353A (ja) * 2019-07-31 2021-02-22 株式会社リコー 路面性状調査システム、路面性状調査方法、及び路面性状調査プログラム
WO2021186989A1 (ja) * 2020-03-16 2021-09-23 日本電気株式会社 劣化診断装置、劣化診断システム、劣化診断方法、及び、記録媒体
WO2021200038A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 道路劣化診断装置、道路劣化診断方法、及び、記録媒体
JP2022026287A (ja) * 2020-07-30 2022-02-10 株式会社リコー 撮影システム、移動体、撮影方法及びプログラム

Similar Documents

Publication Publication Date Title
JP7218535B2 (ja) 交通違反車両識別システム及びサーバ
JP6416293B2 (ja) 自動車に接近する対象車両を自動車のカメラシステムにより追跡する方法、カメラシステムおよび自動車
JP5421072B2 (ja) 接近物体検知システム
WO2013011952A1 (ja) 車線認識装置
JP5663352B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2010097561A (ja) 車両周辺監視装置
JP4702149B2 (ja) 車両位置測位装置
JP2007310574A (ja) 衝突危険性判定システム及び警告システム
KR20150022076A (ko) 차량 카메라의 영상 처리 방법 및 이를 이용하는 영상 처리 장치
JP7195200B2 (ja) 車載装置、車載システムおよび周辺監視方法
JP4930256B2 (ja) 隣接車両検出装置および隣接車両検出方法
KR20170055738A (ko) 영상 기반 주행 차로 판단 장치 및 방법
US11120292B2 (en) Distance estimation device, distance estimation method, and distance estimation computer program
JP2009146153A (ja) 移動体検出装置、移動体検出方法および移動体検出プログラム
WO2023228239A1 (ja) 道路状態検出装置および道路状態検出方法
JP2007018451A (ja) 道路区画線検出装置
JP6611315B2 (ja) 映像基準点決定システム、映像基準点決定方法および映像基準点決定プログラム
JP6302205B2 (ja) 車載器
JP2009181310A (ja) 道路パラメータ推定装置
JP2018073049A (ja) 画像認識装置、画像認識システム、及び画像認識方法
JP7062959B2 (ja) 車両検知器、車両検知方法、および車両検知プログラム
JP2012181691A (ja) 路面上パターン認識方法および車両用情報記録装置
JP2008066953A (ja) 画像監視装置
KR20200009759A (ko) 차량용 레이더 제어 장치 및 방법
WO2019013253A1 (ja) 検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22943647

Country of ref document: EP

Kind code of ref document: A1