WO2019216393A1 - 路面状態推定方法、路面状態推定装置および路面状態推定システム - Google Patents

路面状態推定方法、路面状態推定装置および路面状態推定システム Download PDF

Info

Publication number
WO2019216393A1
WO2019216393A1 PCT/JP2019/018649 JP2019018649W WO2019216393A1 WO 2019216393 A1 WO2019216393 A1 WO 2019216393A1 JP 2019018649 W JP2019018649 W JP 2019018649W WO 2019216393 A1 WO2019216393 A1 WO 2019216393A1
Authority
WO
WIPO (PCT)
Prior art keywords
road surface
information
surface state
vehicle
state estimation
Prior art date
Application number
PCT/JP2019/018649
Other languages
English (en)
French (fr)
Inventor
克洋 金森
達男 伊藤
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2019216393A1 publication Critical patent/WO2019216393A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology

Definitions

  • the present disclosure relates to a road surface state estimation method, a road surface state estimation device, and a road surface state estimation system that estimate a road surface state of a road surface on which a vehicle travels.
  • Patent Document 1 discloses a technique for estimating a road surface state in a non-contact manner.
  • a camera that obtains road surface brightness information by imaging a distant road surface positioned in front of the vehicle and a short-range sensor that obtains information on a road surface near the front of the vehicle and immediately below the bumper are used.
  • the short distance sensor includes a sensor that obtains road surface luminance information, a near infrared sensor that detects the amount of moisture on the road surface, and a temperature sensor that measures the temperature of the road surface.
  • the state of the road surface on which the vehicle is scheduled to travel can be estimated by using these cameras and the short-range sensor together.
  • road surface conditions such as snow accumulation, water pools, and freezing on the basis of road surface brightness information obtained by a camera and road surface wetness and temperature information obtained by a short-range sensor before the vehicle travels.
  • Patent Document 1 observes a distant road surface and a nearby road surface, but considering that there is snow or a puddle on the road surface, it is desirable to observe a road surface as far as possible.
  • a distant road surface it is considered that the road surface is dry if the brightness information obtained from the camera is brighter than the threshold value, and if it is darker than the threshold value, the road surface is considered wet.
  • the threshold value is learned based on luminance information and moisture amount information obtained by a short-range sensor in order to avoid being affected by weather or the like.
  • observation results may differ between the luminance information of a distant road surface obtained by a camera and the luminance information of a nearby road surface obtained by a short-range sensor.
  • different road surface conditions such as snow, ice, puddles, and dry road surfaces appear one after another every several meters on the road surface, so the observation results of distant road surfaces do not correspond to the observation results of nearby road surfaces.
  • the road surface state cannot be estimated with high accuracy in the method of processing by regarding the road surface state of both the far road surface and the nearby road surface as the same.
  • an object of the present disclosure is to provide a road surface state estimation method and the like that can estimate the road surface state with high accuracy.
  • a road surface state estimation method is a road surface state estimation method for estimating a state of a road surface on which a vehicle travels, and uses the image information obtained by capturing the road surface with a camera, and uses the road surface state.
  • Second road surface information in the observation area is obtained from sensing information obtained by detecting the road surface state by a road surface sensor. And the road surface state of the observation area is estimated based on the first road surface information and the second road surface information.
  • a road surface state estimation device is a road surface state estimation device that estimates a state of a road surface on which a vehicle travels, and uses image information obtained by capturing the road surface with a camera, and An observation area determination unit that determines an observation area of a road surface, a first road surface information acquisition unit that acquires first road surface information in the observation area from the image information, and a road surface sensor that detects the road surface state.
  • a second road surface information acquisition unit that acquires second road surface information in the observation region from the obtained sensing information, and estimates a road surface state of the observation region based on the first road surface information and the second road surface information A road surface state estimation unit.
  • a road surface state estimation system includes the road surface state estimation device, a camera that images the road surface, and a road surface sensor that detects the road surface state.
  • the road surface state estimation method and the like of the present disclosure the road surface state can be estimated with high accuracy.
  • FIG. 1 is a top view of a vehicle on which the road surface state estimation system according to the first embodiment is mounted.
  • FIG. 2 is a side view of a vehicle on which the road surface state estimation system according to the first embodiment is mounted.
  • FIG. 3 is a block diagram illustrating the road surface state estimation system according to the first embodiment.
  • FIG. 4 is a flowchart illustrating the road surface state estimating method according to the first embodiment.
  • FIG. 5 is a block diagram illustrating the road surface state estimation system and the road surface state estimation device according to the first embodiment.
  • FIG. 6 is a schematic diagram showing image information when the vehicle goes straight.
  • FIG. 7 is a schematic diagram showing an optical flow when the vehicle goes straight.
  • FIG. 8 is a flowchart showing a method for determining an observation region and a time delay.
  • FIG. 9 is a schematic diagram showing image information when the vehicle curves to the left.
  • FIG. 10 is a schematic diagram showing an optical flow when the vehicle curves to the left.
  • FIG. 11 is a schematic diagram showing image information when the vehicle turns left.
  • FIG. 12 is a schematic diagram showing an optical flow when the vehicle turns left.
  • FIG. 13 is a side view of a vehicle on which the road surface state estimation system of the second embodiment is mounted.
  • FIG. 14 is a block diagram illustrating a road surface state estimation system and a road surface state estimation device according to the second embodiment.
  • FIG. 15 is a flowchart for determining whether or not the observation region passes through the tire position.
  • FIG. 16 is a schematic diagram showing image information when the vehicle goes straight.
  • FIG. 17 is a schematic diagram showing image information when the vehicle curves to the left.
  • FIG. 18 is a schematic diagram illustrating image information when the vehicle turns left.
  • FIG. 19 is a block diagram illustrating a road surface state estimation system and a road surface state estimation device according to the third embodiment.
  • FIG. 20 is a flowchart showing a method for determining an observation region and a time delay.
  • FIG. 21 is a schematic diagram showing one of the problems in deriving an optical flow from image information.
  • FIG. 22 is a schematic diagram showing an optical flow when the vehicle goes straight.
  • a road surface state estimation method is a road surface state estimation method for estimating a state of a road surface on which a vehicle travels, and uses the image information obtained by capturing the road surface with a camera, and uses the road surface state.
  • Second road surface information in the observation area is obtained from sensing information obtained by detecting the road surface state by a road surface sensor. And the road surface state of the observation area is estimated based on the first road surface information and the second road surface information.
  • the road surface observation region is determined using the image information, and the road surface state is estimated based on the first road surface information and the second road surface information in the observation region, so that the road surface state is estimated with high accuracy. be able to.
  • the sensing information may include at least one information among reflected light luminance, moisture amount and temperature of the road surface detected by the road surface sensor.
  • the second road surface information can be acquired with high accuracy.
  • the first road surface information and the first road surface information that are the same in the observation area based on a movement vector and a movement time of the observation area that relatively move according to the traveling of the vehicle. 2 road surface information may be selected, and the road surface state may be estimated based on the selected first road surface information and second road surface information.
  • the road surface state in the observation area can be estimated with high accuracy.
  • the observation area may be further determined using steering information and vehicle speed information of the vehicle.
  • a road surface state estimation device is a road surface state estimation device that estimates a state of a road surface on which a vehicle travels, and uses image information obtained by capturing the road surface with a camera, and An observation area determination unit that determines an observation area of a road surface, a first road surface information acquisition unit that acquires first road surface information in the observation area from the image information, and a road surface sensor that detects the road surface state.
  • a second road surface information acquisition unit that acquires second road surface information in the observation region from the obtained sensing information, and estimates a road surface state of the observation region based on the first road surface information and the second road surface information A road surface state estimation unit.
  • the road surface condition can be estimated with high accuracy.
  • the sensing information may include at least one information among reflected light luminance, moisture amount and temperature of the road surface detected by the road surface sensor.
  • the second road surface information acquisition unit can acquire the second road surface information with high accuracy.
  • the road surface state estimation device includes an optical flow deriving unit that derives an optical flow until the observation area that moves relatively according to the traveling of the vehicle matches a detection position of the road surface sensor, and a response according to the traveling of the vehicle. And a time delay calculation unit that calculates a time delay that is a time until the observation region that relatively moves matches the detection position of the road surface sensor, wherein the road surface state estimation unit includes the optical flow and the time delay. Based on the first road surface information and the second road surface information in which the observation area is the same, and the road surface state is determined based on the selected first road surface information and the second road surface information It may be estimated.
  • the road surface state in the observation area is estimated with high accuracy. Can do.
  • an optical flow deriving unit for deriving an optical flow until the observation region that relatively moves according to the traveling of the vehicle matches the tire position of the vehicle, and the observation region that relatively moves according to the traveling of the vehicle Further includes a time delay calculation unit that calculates a time delay that is a time until the vehicle tire position matches the vehicle tire position, and the road surface state estimation unit has the observation region based on the optical flow and the time delay.
  • the first road surface information and the second road surface information that are the same may be selected, and the road surface state may be estimated based on the selected first road surface information and the second road surface information.
  • the road surface state in the observation area is estimated with high accuracy. Can do.
  • the road surface state estimation unit may estimate the road surface state using the second road surface information when the optical flow deriving unit cannot derive the optical flow.
  • the road surface state can be estimated with high accuracy.
  • the road surface state estimation device further includes a steering detection unit that detects steering information of the vehicle, and a vehicle speed detection unit that detects vehicle speed information of the vehicle, and the observation region determination unit further includes the steering information and The observation area may be determined using the vehicle speed information.
  • a road surface state estimation system includes the road surface state estimation device, a camera that images the road surface, and a road surface sensor that detects the road surface state.
  • the observation area of the road surface is determined using the image information obtained from the camera, and based on the first road surface information obtained from the image information and the second road surface information obtained from the road surface sensor.
  • the road surface condition can be estimated. Thereby, a road surface state can be estimated with high accuracy.
  • FIG. 1 is a top view of a vehicle 100 on which the road surface state estimation system 1 according to the first embodiment is mounted.
  • FIG. 2 is a side view of the vehicle 100 on which the road surface state estimation system 1 is mounted.
  • FIG. 3 is a block diagram showing the road surface state estimation system 1.
  • the road surface state estimation system 1 is a road surface state that estimates a state of a camera 101 installed in a driver's seat of a vehicle 100, a road surface sensor 104 installed below a bumper 102, and a road surface 10 on which the vehicle 100 is to travel. And an estimation device 5.
  • the camera 101 images a distant road surface 10 located 2 m to 60 m ahead of the vehicle 100.
  • the camera 101 is, for example, a monochrome camera, a color camera, a polarization camera, or the like that targets visible light.
  • the road surface state estimation device 5 can obtain image information similar to a scene that a user driving the vehicle 100 sees during driving. Since the camera 101 is not easily affected by direct sunlight, shadows, etc., the road surface state estimation device 5 can observe water pools and markings on the road, the degree of snow accumulation, the position of the hail on the road, local irregularities, and the like. it can.
  • the road surface sensor 104 detects the state of the road surface 10 closer to the camera 101, for example, the road surface 10 located 0.4 m or more and 0.6 m or less ahead of the vehicle 100.
  • the road surface sensor 104 irradiates the road surface 10 near the tire 103 of the vehicle 100 with near infrared light or the like having a plurality of wavelengths, and detects the moisture content of the road surface 10 from the reflected light luminance ratio or the like.
  • the road surface sensor 104 includes a temperature sensor using a thermopile or the like, and detects the thickness of the water film on the road surface, the frozen state, and the like.
  • the road surface state estimation apparatus 5 can acquire sensing information (physical information) that cannot be obtained only by image information. .
  • the road surface state is not good, it is required to correctly recognize the road surface state by combining both the image information obtained from the camera 101 and the sensing information obtained from the road surface sensor 104.
  • the camera 101 and the road surface sensor 104 have different observable areas depending on the installation location and the installation direction, it is not easy to recognize the road surface state by combining the image information and the sensing information.
  • the detection area 105 detected by the road surface sensor 104 does not overlap the visual field 106 of the camera 101, and it is difficult to simply match the sensing information and the image information. Therefore, in the road surface state estimation device 5 and the like according to the present embodiment, as shown below, the road surface state is estimated by combining the image information and the sensing information.
  • the road surface state estimation device 5 includes an observation area determination unit 302, a first road surface information acquisition unit 305, a second road surface information acquisition unit 306, and a road surface state estimation unit 307.
  • the function of each component of the road surface state estimation device 5 is realized by a microprocessor, a memory, a program stored in the memory, and the like.
  • the observation area determination unit 302 determines the observation area of the road surface 10 using image information obtained by imaging the road surface 10 with the camera 101.
  • the observation area determination unit 302 determines the observation area using image information including the detection position of the road surface sensor 104 when determining the observation area. The method for determining the observation area will be described later.
  • the first road surface information acquisition unit 305 acquires first road surface information in the observation area from the image information obtained by the camera 101.
  • the first road surface information is, for example, information such as puddles and markings on the road, the degree of snow accumulation, the position of ridges on the road, and local unevenness.
  • the second road surface information acquisition unit 306 acquires second road surface information in the observation region from sensing information obtained by detecting the state of the road surface 10 with the road surface sensor 104.
  • the second road surface information is information indicating a road surface state such as dryness, water, ice, and snow cover.
  • the road surface state estimation unit 307 estimates the road surface state of the observation area based on the first road surface information and the second road surface information. When estimating the road surface state of the road surface 10, the road surface state estimation unit 307 integrates the first road surface information and the second road surface information to estimate the road surface state.
  • FIG. 4 is a flowchart showing the road surface state estimating method according to the first embodiment.
  • an observation area of the road surface 10 is determined using image information obtained by imaging the road surface 10 with the camera 101 (step S100). .
  • first road surface information in the observation area is acquired from the image information (step S200).
  • second road surface information in the observation region is acquired from sensing information obtained by detecting the state of the road surface 10 with the road surface sensor 104 (step S300).
  • the road surface state of the observation area is estimated based on the first road surface information and the second road surface information (step S400).
  • FIG. 5 is a block diagram showing the road surface state estimation system 1 and the road surface state estimation device 5.
  • FIG. 5 also shows a camera 101 and a road surface sensor 104 connected to the road surface state estimation device 5.
  • the road surface state estimation device 5 includes an optical flow deriving unit 301, an observation region determining unit 302, a time delay calculating unit 303, an association calculating unit 304, a first road surface information acquiring unit 305, a second road surface information acquiring unit 306, and a road surface state estimating unit. Part 307 is provided.
  • the optical flow deriving unit 301 derives an apparent movement vector of feature points on the screen, that is, an optical flow, from two temporally different frame images of the moving image captured by the camera 101.
  • a method for deriving an optical flow a method using a constraint equation of spatiotemporal differentiation of an image and a block matching method using template matching are known.
  • a block matching method is used.
  • Non-Patent Document 1 by “Xu Tsuyoshi, Saburo Tsubasa,“ 3D Vision ”, Kyoritsu Publishing, 1998), images are hierarchized and low resolution images are obtained. After template matching is performed, template matching of images with higher resolution is gradually performed.
  • the block matching method generally requires a long processing time, but the processing time can be shortened by using the method described in Non-Patent Document 1.
  • FIG. 6 is a schematic diagram showing image information when the vehicle 100 goes straight.
  • FIG. 6 shows the infinity point E, the observation region R0, and the detection position S0 of the road surface sensor 104.
  • the observation region R0 is a road surface region used as an initial reference when determining the observation region R1 to be observed.
  • Each of the observation regions R0 and R1 is located in the field of view 106 of the camera 101.
  • the detection position S0 of the road surface sensor 104 is the center position of the detection area 105 of the road surface sensor 104. In the present embodiment, the detection position S0 that should be hidden behind the dashboard 107 is visualized on the screen.
  • the detection position S0 is obtained based on the installation location and angle of the camera 101, the installation location and angle of the road surface sensor 104, and the angle of the road surface sensor 104 with respect to the road surface 10.
  • the optical flow deriving unit 301 described above derives the optical flow until the observation region R0 that moves relative to the traveling of the vehicle 100 matches the detection position S0 of the road surface sensor 104.
  • the observation region R0 exists on a straight line connecting the infinity point E and the detection position S0 of the road surface sensor 104.
  • the observation region R0 moves relative to the traveling of the vehicle 100, moves to a position that includes the detection position S0 after a predetermined time has elapsed, and is detected by the road surface sensor 104.
  • FIG. 7 is a schematic diagram showing an optical flow when the vehicle 100 travels straight.
  • FIG. 7 shows a state in which the flow vector of the optical flow spreads radially from the infinity point E.
  • the optical flow corresponds to a field of a two-dimensional mobility vector for each pixel composed of a flow vector in each of M ⁇ N pixels, that is, a pixel moving amount at a frame rate of fps. The amount to be.
  • the flow vector in FIG. 7 is shown only on the grid points on the image.
  • the observation region determination unit 302 determines the observation region R1 based on the detection position S0 of the road surface sensor 104 and the optical flow. In other words, the observation region determination unit 302 determines the observation region R1 based on the detection position S0 and the movement vector of the observation region R0 that moves relative to the vehicle 100 traveling.
  • the time delay calculation unit 303 calculates a time delay ⁇ t that is a time until the observation area R1 that moves relative to the traveling of the vehicle 100 is detected by the road surface sensor 104.
  • FIG. 8 is a flowchart showing a method for determining the observation region R1 and the time delay ⁇ t.
  • FIG. 8 shows an example in which the vehicle 100 is traveling straight. Note that the determination method shown in FIG. 8 is not limited to the case where the vehicle 100 is traveling straight, but is also applied to a left turn or a right turn at an intersection or the like during a curve run.
  • step S111 the flow vector V0 at the detection position S0 of the road surface sensor 104 is acquired.
  • the flow vector V0 two-component vector
  • the detection position S0 two-dimensional coordinates
  • the extrapolation method is arbitrary, and the closest flow vector from the detection position S0 may be used as it is.
  • step S112 the time t, which is a repetition parameter, is set to 0, and in step S113, the inverse vector ( ⁇ V0) of the flow vector V0 is added to the position St at time t, so that the time t (+1) is obtained.
  • a position S (t + 1) is obtained.
  • step S114 the time t is incremented, and in step S115, it is determined whether or not the position St is appropriate as the center position of the observation region R0.
  • step S115 If position St is not appropriate as the center position of observation region R0 (No in S115), the process proceeds to step S118, and if time t is less than time tmax (Yes in S118), the process returns to step S113 and described above. Repeat steps.
  • the determination that the position St is appropriate as the center position of the observation region R0 is that the position St exists below the infinity point E shown in FIG. 6 and near the center of the entire screen.
  • This condition may be replaced with a condition that the vehicle is located at a position on the road surface 10 that is far from the vehicle 100, for example, that the vehicle is located at a position on the road surface 10 that is 2 m or more and 60 m or less from the vehicle 100.
  • step S115 If it is determined in step S115 that the position St is appropriate as the center position of the observation region R0 (Yes), a rectangular observation region R1 centering on the position St is set in step S116.
  • step S117 time delay ⁇ t is calculated as the product of time t and frame rate fps.
  • step S118 If the time t has reached the time tmax in step S118 (No in S118), the observation region R0 detected at the detection position S0 has not been found, and is detected as the observation region R0. The association with the position S0 fails.
  • FIG. 9 is a schematic diagram showing image information when the vehicle 100 curves to the left.
  • FIG. 10 is a schematic diagram showing an optical flow when the vehicle 100 curves to the left.
  • the position St can be determined by performing the iterative process shown in FIG.
  • region R1 can be determined by performing the process after step S115 of FIG. 8 with respect to the position St.
  • FIG. 11 is a schematic diagram showing image information when the vehicle 100 makes a left turn.
  • FIG. 12 is a schematic diagram showing an optical flow when the vehicle 100 makes a left turn.
  • the optical flow shown in FIG. 12 flows almost uniformly in the horizontal direction, and thus the observation region R0 corresponding to the detection position S0 of the road surface sensor 104 cannot be found. For this reason, the association between the detection position S0 and the observation region R0 fails, but in the case of a left turn, since the vehicle is operating at a low speed, the state of the road surface 10 may be estimated using the second road surface information.
  • the time of the second road surface information to be associated with the first road surface information is calculated. For example, when the first road surface information at time t is employed, the second road surface information at time (t + ⁇ t) is employed.
  • first information such as “Dry (dry)”, “Wet (wet)”, “Ice (freeze)”, “Snow (snow)” and the like is obtained from the image information captured by the camera 101. Get road surface information.
  • Non-Patent Document 2 (Muneo Yamada, Koji Ueda, Yasuo Horiba, Sadayuki Tsukawa, Shin Yamamoto, “In-vehicle by image processing” Development of a type road surface state detection sensor ”is described in IEEJ Transactions C, 124, 3 PP753-760 2004), and details thereof are omitted.
  • a polarization camera it is desirable that a single monochrome camera can acquire an H (horizontal) polarization component image and a V (vertical) polarization component image at the same time without any field angle deviation.
  • PolarCam or a polarizing camera (PHX050S-P / Q manufactured by LUCID) may be used.
  • second detection such as “dry”, “water”, “ice”, “snow cover”, etc. is performed from detection of reflected light of the light emitted from the road surface sensor 104 and temperature data of the road surface 10. Get road surface information. Since this method is described in Patent Document 1 described above, detailed description is omitted here. Note that the time (t + ⁇ t) corrected by the association calculation unit 304 is used as the time here.
  • the road surface state estimation unit 307 selects the first road surface information and the second road surface information in which the observation regions R1 are the same based on the movement vector and the movement time of the observation region R1 that moves relative to the traveling of the vehicle 100. To do. Then, the road surface state is estimated based on the selected first road surface information and second road surface information. This estimation method is different depending on whether the correspondence is “success” or “failure”.
  • the first road surface information on the distant road surface 10 that is the same observation region R1 is close to 2nd road surface information regarding the road surface 10 is obtained.
  • the road surface state estimation unit 307 uses these road surface information to improve the estimation accuracy of the road surface state based on the image information of the distant road surface 10. Specifically, after the time ⁇ t has elapsed with respect to the image information at time t, sensing information obtained from the reflected light luminance and the moisture amount detected by the road surface sensor 104 is added, and the estimation result based on the image information is displayed. Real-time learning while driving. As a result, the first road surface information based on the image information can be highly accurate regardless of the weather and the complexity of the road surface 10, and the road surface state estimation unit 307 can estimate the road surface state with sufficient time even during high-speed traveling.
  • the road surface state estimation device 5 may estimate the road surface state using only the sensing information obtained from the road surface sensor 104.
  • the road surface state estimation device 5 and the like In the road surface state estimation device 5 and the like according to the present embodiment, information on the distant road surface 10 imaged by the camera 101 at a predetermined time is observed again by the nearby road surface sensor 104 with a certain time delay, and the correspondence between both Is realized. For this reason, it is possible to acquire the road surface information of the distant road surface 10 by the camera 101 and the detailed road surface information by the road surface sensor 104 for the same observation region R1 and estimate the road surface state ahead of 2 m to 60 m. Can be made highly accurate. In addition, it is possible to control the vehicle for automatic driving with a sufficient time margin.
  • the road surface state estimation device 5 includes the optical flow deriving unit 301 for deriving the optical flow until the observation region R0 that moves relative to the traveling of the vehicle 100 matches the detection position S0 of the road surface sensor 104, and
  • the time delay calculation part 303 which calculates time delay (DELTA) t which is time until observation area
  • the tire 103 is road surface in the detection position S0 in the above. The same can be said when the tire position is a position in contact with the tire 10.
  • the road surface state estimation device 5 includes an optical flow deriving unit 301 for deriving an optical flow until the observation region R0 that moves relative to the traveling of the vehicle 100 matches the tire position of the vehicle 100, and the observation region R0 includes the observation region R0.
  • a time delay calculation unit 303 that calculates a time delay ⁇ t that is a time until the tire position of the vehicle 100 is matched may be further provided.
  • the road surface state estimation unit 307 selects the first road surface information and the second road surface information with the same observation region R0 based on the optical flow and the time delay ⁇ t, and selects the selected first road surface information and The road surface state may be estimated based on the second road surface information.
  • Embodiment 2 A road surface state estimation system, a road surface state estimation device, and a road surface state estimation method according to Embodiment 2 will be described with reference to FIGS.
  • FIG. 13 is a side view of the vehicle 100 on which the road surface state estimation system 1A according to the second embodiment is mounted, and the same reference numerals are given to the portions common to FIG.
  • the road surface state estimation system 1A estimates the state of the camera 101 installed in the driver's seat of the vehicle 100, the road surface sensor 104A installed in the driver's seat of the vehicle 100, and the road surface 10 on which the vehicle 100 is scheduled to travel. And a road surface state estimating device 5A.
  • the camera 101 images, for example, a distant road surface 10 located 2 m or more and 60 m or less in front of the vehicle 100.
  • the road surface sensor 104A detects, for example, the state of a distant road surface 10 located 2 m to 60 m ahead of the vehicle 100. Unlike the road surface sensor 104 in FIG. 1, the road surface sensor 104A irradiates the road surface 10 with near-infrared LED (Light Emitting Diode) light having a plurality of wavelengths or laser light, and the road surface 10 from the reflected light luminance ratio or the like. By detecting the amount of water, the state of the road surface 10 such as dryness, wetness, freezing and snow is detected.
  • the road surface sensor 104A has a temperature sensor using a thermopile or the like, and detects the thickness of the water film on the road surface, the frozen state, and the like. Thus, since the road surface sensor 104A can distinguish and detect a water film, ice, and snow, it can acquire sensing information that cannot be obtained only by the image information of the camera 101.
  • the detection area 105 ⁇ / b> A of the road surface sensor 104 ⁇ / b> A overlaps the visual field 106 of the camera 101.
  • the problem of associating the camera and the sensor does not occur as in the first embodiment.
  • the second embodiment has a problem that the road surface sensor 104A does not necessarily detect the road surface 10 through which the tire 103 passes.
  • FIG. 14 is a block diagram showing the road surface state estimation system 1A and the road surface state estimation device 5A, and the same components as those in FIG.
  • the road surface state estimation device 5A includes an optical flow deriving unit 301, a passing position determination unit 308, a first road surface information acquisition unit 305, a second road surface information acquisition unit 306, and a road surface state estimation unit 307.
  • the optical flow deriving unit 301 detects the optical flow on the screen from two temporally different frame images of the moving image captured by the camera 101. This optical flow is calculated for all pixels.
  • the optical flow deriving unit 301 derives an optical flow until the observation region R1 that moves relative to the traveling of the vehicle 100 matches a tire position F0 described later. Note that the observation region R1 is obtained by the same method as in the first embodiment.
  • the passage position determination unit 308 determines whether or not the observation region R1 passes through the tire position F0.
  • the tire position F0 is obtained by visualizing the position of the tire 103 that is originally a blind spot on the screen.
  • the passage position determination unit 308 calculates a time delay ⁇ t that is a time until the observation region R1 that moves relative to the traveling of the vehicle 100 matches the tire position F0.
  • FIG. 15 is a flowchart for determining whether or not the observation region R1 passes the tire position F0.
  • FIG. 16 is a schematic diagram showing image information when the vehicle 100 goes straight.
  • FIG. 17 is a schematic diagram illustrating image information when the vehicle 100 curves to the left. The determination method shown in FIG. 15 is applied when the vehicle 100 is traveling straight (see FIG. 16) or when the vehicle 100 is curved (FIG. 17).
  • step S121 the flow vector V0 at the tire position F0 is acquired. Specifically, the flow vector V0 (two-component vector) at the tire position F0 (two-dimensional coordinates) is acquired by extrapolating the optical flow field. The extrapolation method is arbitrary, and the nearest flow vector from the tire position F0 may be used as it is.
  • step S122 the time t, which is a repetition parameter, is set to 0, and at step S123, the inverse vector ( ⁇ V0) of the flow vector V0 is added to the position Ft at time t, so that at time (t + 1). A position F (t + 1) is obtained.
  • step S124 the time t is incremented, and in step S125, it is determined whether or not the position Ft is within the observation region R1.
  • step S128 If position Ft is not within observation region R1 (No in S125), the process proceeds to step S128. If time t is less than time tmax (Yes in S128), the process returns to step S123 and the above steps are repeated. .
  • step S125 If it is determined in step S125 that it is within the observation region R1 (Yes), the time delay ⁇ t is calculated as the product of the time t and the frame rate fps in step S127. If the time t has reached the time tmax in step S128 (No in S128), the observation region R1 does not pass the tire position F0, and the observation region R1 is associated with the tire position F0. Fails.
  • first information such as “Dry (dry)”, “Wet (wet)”, “Ice (freeze)”, “Snow (snow)” and the like is obtained from the image information captured by the camera 101. Get road surface information.
  • the road surface sensor 104A emits an LED or a laser beam, and “dry”, “water”, “ice”, “snow cover” is detected from the detection of the reflected light and the temperature data of the road surface 10.
  • the second road surface information such as “is acquired.
  • the road surface state estimation unit 307 selects the first road surface information and the second road surface information in which the observation regions R1 are the same based on the movement vector and the movement time of the observation region R1 that moves relative to the traveling of the vehicle 100. To do. Then, the road surface state is estimated based on the selected first road surface information and second road surface information.
  • the first road surface information obtained by the camera 101 and the second road surface information obtained by the road surface sensor 104A exist for the same observation region R1, and the time t
  • the road surface information obtained by the camera 101 or the like becomes road surface information when the tire 103 passes after the time delay ⁇ t has elapsed. Therefore, the road surface condition can be estimated with a sufficient time margin even when traveling at high speed.
  • FIG. 18 is a schematic diagram showing image information when the vehicle 100 makes a left turn.
  • the control may be switched to the automatic driving based on information from the brake sensor of the tire 103 itself.
  • the road surface state estimation unit 307 may employ the first road surface information obtained by the camera 101 without employing the second road surface information obtained by the road surface sensor 104A.
  • the observation region R1 may overlap not the road surface 10 but another vehicle.
  • the road surface state estimation unit 307 does not adopt the second road surface information obtained by the road surface sensor 104A, and You may employ
  • Embodiment 3 A road surface state estimation system, a road surface state estimation device, and a road surface state estimation method according to Embodiment 3 will be described with reference to FIGS.
  • the observation region R1 and the tire position F0 are associated with each other by acquiring image information, in particular, an optical flow.
  • image information in particular, an optical flow.
  • the steering information from the steering detection unit that acquires the rotation angle of the steering wheel and the vehicle speed information from the vehicle speed detection unit are used as additional information, and the camera optical system Calculate the theoretical optical flow by performing projection calculations.
  • FIG. 19 is a block diagram showing the road surface state estimation system 1B and the road surface state estimation device 5B according to the third embodiment.
  • the same reference numerals are given to the same blocks as those in FIG.
  • FIG. 19 also shows a steering detection unit 311 and a vehicle speed detection unit 312 that are components of the road surface state estimation system 1B.
  • the road surface state estimation device 5B includes an optical flow deriving unit 301, an observation region determining unit 302, a time delay calculating unit 303, an association calculating unit 304, a first road surface information acquiring unit 305, a second road surface information acquiring unit 306, and a road surface state estimating unit. Part 307 is provided.
  • FIG. 20 is a flowchart for determining the observation region R1 and the time delay ⁇ t.
  • step S130 it is determined whether or not the steering angle ⁇ w of the steering wheel 410 (see FIG. 22) is constant over time.
  • the flow vector TV0 at the detection position S0 is acquired based on the steering information and the vehicle speed information in Step S131.
  • step S139 the flow vector V0 (two-component vector) at the detection position S0 (two-dimensional coordinates) is obtained by extrapolating the optical flow field. If the side flow vector is used as it is, the following problem also occurs.
  • FIG. 21 is a schematic diagram showing one of the problems in deriving an optical flow from image information.
  • FIG. 21 shows a state in which several vehicles are continuously running in the oncoming lane, while no other vehicles are present in the lane of the vehicle 100 and the road surface 10 is observed. Yes.
  • the optical flow at the detection position S0 is obtained using the nearest flow vector, the motion vector 402 of the oncoming vehicle 401 traveling at a high speed in front is used, resulting in an erroneous result.
  • FIG. 22 is a schematic diagram showing an optical flow when the vehicle 100 travels straight.
  • FIG. 22 illustrates an optical flow calculated from the state of the steering wheel 410, the speed of the vehicle 100, and the optical system parameters of the camera 101.
  • this theoretical optical flow calculation method it is only necessary to sequentially perform an operation of perspectively projecting an object on the road surface determined every certain time from the steering angle ⁇ w and the vehicle speed to the focal position of the camera 101. This is realized by using the perspective projection described in the above.
  • step S133 the inverse vector ( ⁇ TV0) of the flow vector TV0 is added to the position St at time t, so that the position S at time (t + 1) is obtained. (T + 1) is obtained.
  • step S137 the time delay ⁇ t, which is the time until the observation region R0 is detected by the road surface sensor 104, is calculated as the product of the time t and the frame rate fps.
  • the present disclosure is useful as a method for estimating the road surface state of the road surface on which the vehicle travels.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Environmental Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

路面状態推定方法は、車両(100)が走行する路面の状態を推定する路面状態推定方法であって、路面(10)をカメラ(101)で撮像して得られた画像情報を用いて、路面(10)の観測領域(R1)を決定し、画像情報から観測領域(R1)における第1の路面情報を取得し、路面(10)の状態を路面センサ(104)で検出して得られたセンシング情報から観測領域(R1)における第2の路面情報を取得し、第1の路面情報および第2の路面情報に基づいて観測領域(R1)の路面状態を推定する。

Description

路面状態推定方法、路面状態推定装置および路面状態推定システム
 本開示は、車両が走行する路面の路面状態を推定する路面状態推定方法、路面状態推定装置および路面状態推定システムに関する。
 車両の自動運転では、車両が走行する路面の路面状態を事前に観測し、路面状態に適した自動運転をリアルタイムに行うことが必要になる。特許文献1には、非接触式で路面状態を推定する技術が開示されている。当該技術では、車両前方に位置する遠くの路面を撮像して路面の輝度情報を得るカメラと、車両前方であってバンパーの直下付近における近くの路面の情報を得る近距離センサとが用いられる。近距離センサは、路面の輝度情報を得るセンサ、路面上の水分量を検出する近赤外線センサ、および、路面の温度を測定する温度センサによって構成される。当該技術では、これらカメラと近距離センサとを併用することにより、車両が走行する予定の路面の状態を推定することができる。例えば、カメラによる路面の輝度情報と、近距離センサによる路面の乾湿および温度に関する情報とに基づいて積雪、水溜まり、凍結などの路面状態を、車両が走行するよりも先に推定することができる。
特開2009-42115号公報
 特許文献1に開示された技術では、遠くの路面と近くの路面とを観測しているが、路面上に積雪や水溜まりなどがあることを考えると、少しでも遠くの路面を観測することが望ましい。遠くの路面を観測する場合、カメラから得られる輝度情報がしきい値よりも明るいと路面が乾燥していると考えられ、しきい値よりも暗いと路面が湿潤していると考えられるが、当該技術では、天候等による影響を受けることを避けるため、近距離センサで得られた輝度情報および水分量情報に基づいて上記しきい値を学習している。
 しかし、路面は理想的なランバート反射面ではないため、カメラで得られる遠くの路面の輝度情報と近距離センサで得られる近くの路面の輝度情報とで、観測結果が異なってしまうことがある。また、降雪後の路面では、路面上の数mごとに雪、氷、水溜まり、乾燥路面など異なる路面状態が次々に現れるため、遠くの路面の観測結果と近くの路面の観測結果とが対応しないことがある。このため、遠くの路面および近くの路面の両者の路面状態を同一とみなして処理する方法では、路面状態を高精度に推定できないという問題がある。
 そこで本開示は、路面状態を高精度に推定できる路面状態推定方法等を提供することを目的とする。
 本開示の一態様に係る路面状態推定方法は、車両が走行する路面の状態を推定する路面状態推定方法であって、前記路面をカメラで撮像して得られた画像情報を用いて、前記路面の観測領域を決定し、前記画像情報から前記観測領域における第1の路面情報を取得し、前記路面の状態を路面センサで検出して得られたセンシング情報から前記観測領域における第2の路面情報を取得し、前記第1の路面情報および前記第2の路面情報に基づいて前記観測領域の路面状態を推定する。
 本開示の一態様に係る路面状態推定装置は、車両が走行する路面の状態を推定する路面状態推定装置であって、前記路面をカメラで撮像することによって得られた画像情報を用いて、前記路面の観測領域を決定する観測領域決定部と、前記画像情報から前記観測領域における第1の路面情報を取得する第1路面情報取得部と、前記路面の状態を路面センサで検出することによって得られたセンシング情報から前記観測領域における第2の路面情報を取得する第2路面情報取得部と、前記第1の路面情報および前記第2の路面情報に基づいて前記観測領域の路面状態を推定する路面状態推定部とを備える。
 本開示の一態様に係る路面状態推定システムは、上記路面状態推定装置と、前記路面を撮像するカメラと、前記路面の状態を検出する路面センサとを備える。
 本開示の路面状態推定方法等によれば、路面状態を高精度に推定することができる。
図1は、実施の形態1の路面状態推定システムが搭載される車両の上面図である。 図2は、実施の形態1の路面状態推定システムが搭載される車両の側面図である。 図3は、実施の形態1の路面状態推定システムを示すブロック図である。 図4は、実施の形態1の路面状態推定方法を示すフローチャートである。 図5は、実施の形態1の路面状態推定システムおよび路面状態推定装置を示すブロック図である。 図6は、車両が直進する場合の画像情報を示す模式図である。 図7は、車両が直進する場合のオプティカルフローを示す模式図である。 図8は、観測領域および時間遅れの決定方法を示すフローチャートである。 図9は、車両が左にカーブする場合の画像情報を示す模式図である。 図10は、車両が左にカーブする場合のオプティカルフローを示す模式図である。 図11は、車両が左折する場合の画像情報を示す模式図である。 図12は、車両が左折する場合のオプティカルフローを示す模式図である。 図13は、実施の形態2の路面状態推定システムが搭載される車両の側面図である。 図14は、実施の形態2の路面状態推定システムおよび路面状態推定装置を示すブロック図である。 図15は、観測領域がタイヤ位置を通過するか否かを判定するフローチャートである。 図16は、車両が直進する場合の画像情報を示す模式図である。 図17は、車両が左にカーブする場合の画像情報を示す模式図である。 図18は、車両が左折する場合の画像情報を示す模式図である。 図19は、実施の形態3の路面状態推定システムおよび路面状態推定装置を示すブロック図である。 図20は、観測領域および時間遅れの決定方法を示すフローチャートである。 図21は、画像情報からオプティカルフローを導出する場合の問題点の1つを示す模式図である。 図22は、車両が直進する場合のオプティカルフローを示す模式図である。
 本開示の一態様に係る路面状態推定方法は、車両が走行する路面の状態を推定する路面状態推定方法であって、前記路面をカメラで撮像して得られた画像情報を用いて、前記路面の観測領域を決定し、前記画像情報から前記観測領域における第1の路面情報を取得し、前記路面の状態を路面センサで検出して得られたセンシング情報から前記観測領域における第2の路面情報を取得し、前記第1の路面情報および前記第2の路面情報に基づいて前記観測領域の路面状態を推定する。
 このように、画像情報を用いて路面の観測領域を決定し、観測領域における第1の路面情報および第2の路面情報に基づいて路面状態を推定することで、路面状態を高精度に推定することができる。
 また、前記センシング情報は、前記路面センサで検出された前記路面の反射光輝度、水分量および温度のうち少なくとも1つの情報を含んでいてもよい。
 これによれば、第2の路面情報を高精度に取得することができる。
 また、前記路面状態を推定する際に、前記車両の走行に応じて相対移動する前記観測領域の移動ベクトルおよび移動時間に基づいて、前記観測領域が同じとなる前記第1の路面情報および前記第2の路面情報を選定し、選定した前記第1の路面情報および前記第2の路面情報に基づいて前記路面状態を推定してもよい。
 このように、観測領域が同じとなる第1の路面情報および第2の路面情報を選定することで、観測領域における路面状態を高精度に推定することができる。
 また、前記観測領域を決定する際に、さらに、前記車両の操舵情報および車速情報を用いて前記観測領域を決定してもよい。
 これによれば、操舵情報および車速情報に応じて、路面状態を推定する際に採用する路面情報を決めることができ、路面状態を高精度に推定することができる。
 本開示の一態様に係る路面状態推定装置は、車両が走行する路面の状態を推定する路面状態推定装置であって、前記路面をカメラで撮像することによって得られた画像情報を用いて、前記路面の観測領域を決定する観測領域決定部と、前記画像情報から前記観測領域における第1の路面情報を取得する第1路面情報取得部と、前記路面の状態を路面センサで検出することによって得られたセンシング情報から前記観測領域における第2の路面情報を取得する第2路面情報取得部と、前記第1の路面情報および前記第2の路面情報に基づいて前記観測領域の路面状態を推定する路面状態推定部とを備える。
 このように、観測領域決定部にて路面の観測領域を決定し、路面状態推定部にて当該観測領域における第1の路面情報および第2の路面情報に基づいて路面状態を推定することで、路面状態を高精度に推定することができる。
 また、前記センシング情報は、前記路面センサで検出された前記路面の反射光輝度、水分量および温度のうち少なくとも1つの情報を含んでいてもよい。
 これによれば、第2路面情報取得部にて第2の路面情報を高精度に取得することができる。
 また、路面状態推定装置は、前記車両の走行に応じて相対移動する前記観測領域が前記路面センサの検出位置に合致するまでのオプティカルフローを導出するオプティカルフロー導出部と、前記車両の走行に応じて相対移動する前記観測領域が前記路面センサの検出位置に合致するまでの時間である時間遅れを計算する時間遅れ計算部とをさらに備え、前記路面状態推定部は、前記オプティカルフローおよび前記時間遅れに基づいて、前記観測領域が同じとなる前記第1の路面情報および前記第2の路面情報を選定し、選定した前記第1の路面情報および前記第2の路面情報に基づいて前記路面状態を推定してもよい。
 このように、上記オプティカルフローおよび上記時間遅れに基づいて、観測領域が同じとなる第1の路面情報および第2の路面情報を選定することで、観測領域における路面状態を高精度に推定することができる。
 また、前記車両の走行に応じて相対移動する前記観測領域が前記車両のタイヤ位置に合致するまでのオプティカルフローを導出するオプティカルフロー導出部と、前記車両の走行に応じて相対移動する前記観測領域が前記車両のタイヤ位置に合致するまでの時間である時間遅れを計算する時間遅れ計算部とをさらに備え、前記路面状態推定部は、前記オプティカルフローおよび前記時間遅れに基づいて、前記観測領域が同じとなる前記第1の路面情報および前記第2の路面情報を選定し、選定した前記第1の路面情報および前記第2の路面情報に基づいて前記路面状態を推定してもよい。
 このように、上記オプティカルフローおよび上記時間遅れに基づいて、観測領域が同じとなる第1の路面情報および第2の路面情報を選定することで、観測領域における路面状態を高精度に推定することができる。
 また、前記路面状態推定部は、前記オプティカルフロー導出部が、前記オプティカルフローを導出できなかった場合に、前記第2の路面情報を用いて前記路面状態を推定してもよい。
 これによれば、オプティカルフロー導出部がオプティカルフローを導出できなかった場合であっても、路面状態を高精度に推定することができる。
 また、路面状態推定装置は、前記車両の操舵情報を検出する操舵検出部と、前記車両の車速情報を検出する車速検出部とをさらに備え、前記観測領域決定部は、さらに、前記操舵情報および前記車速情報を用いて、前記観測領域を決定してもよい。
 これによれば、操舵情報および車速情報に応じて、路面状態を推定する際に採用する路面情報を決めることができ、路面状態を高精度に推定することができる。
 本開示の一態様に係る路面状態推定システムは、上記路面状態推定装置と、前記路面を撮像するカメラと、前記路面の状態を検出する路面センサとを備える。
 この路面状態推定システムによれば、カメラから得た画像情報を用いて路面の観測領域を決定し、画像情報から得た第1の路面情報および路面センサから得た第2の路面情報に基づいて路面状態を推定することができる。これにより、路面状態を高精度に推定することができる。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 以下、本開示の一態様に係る路面状態推定方法、路面状態推定装置および路面状態推定システムについて、図面を参照しながら具体的に説明する。
 なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、本開示の一形態に係る実現形態を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。本開示の実現形態は、現行の独立請求項に限定されるものではなく、他の独立請求項によっても表現され得る。
 (実施の形態1)
 実施の形態1の路面状態推定システム、路面状態推定装置および路面状態推定方法の概略について、図1~図4を参照しながら説明する。
 図1は、実施の形態1の路面状態推定システム1が搭載される車両100の上面図である。図2は、路面状態推定システム1が搭載される車両100の側面図である。図3は、路面状態推定システム1を示すブロック図である。
 路面状態推定システム1は、車両100の運転席内に設置されるカメラ101と、バンパー102の下部に設置される路面センサ104と、車両100が走行する予定の路面10の状態を推定する路面状態推定装置5とを備える。
 カメラ101は、車両100の前方2m以上60m以下に位置する遠くの路面10を撮像する。カメラ101は、例えば、可視光を対象としたモノクロカメラ、カラーカメラまたは偏光カメラ等である。カメラ101を用いることで、路面状態推定装置5は、車両100を運転するユーザが運転時に見るシーンと同じような画像情報を得ることができる。カメラ101は、直射日光や影などの影響を受けにくいので、路面状態推定装置5は、路上の水溜まりやマーキング、積雪の程度、道路上の轍の位置、局所的な凹凸などを観測することができる。
 路面センサ104は、カメラ101よりも近くの路面10、例えば車両100の前方0.4m以上0.6m以下に位置する路面10の状態を検出する。路面センサ104は、複数の波長からなる近赤外光等を車両100のタイヤ103付近の路面10に照射し、反射光輝度比等から当該路面10の水分量を検出する。また、路面センサ104は、サーモパイル等を使った温度センサを有し、路面上の水膜の厚さおよび凍結状態等を検出する。このように路面センサ104は、水膜、氷および雪を区別して検出することができるので、路面状態推定装置5は、画像情報だけでは得られないセンシング情報(物理情報)を取得することができる。
 路面状態が良くない場合には、カメラ101から得られる画像情報、および、路面センサ104から得られるセンシング情報の両方を合わせて路面状態を正しく認識することが求められる。しかし、カメラ101および路面センサ104は設置場所や設置の向きによって観測可能な領域が異なるため、画像情報とセンシング情報とを合わせて路面状態を認識することは容易ではない。例えば、図1および図2に示すように、路面センサ104にて検出する検出領域105は、カメラ101の視野106と重ならず、センシング情報と画像情報とを単純に合わせることは難しい。そこで、本実施の形態の路面状態推定装置5等では、以下で示すように、画像情報とセンシング情報とを合わせて路面状態を推定している。
 図3に示すように、路面状態推定装置5は、観測領域決定部302と、第1路面情報取得部305と、第2路面情報取得部306と、路面状態推定部307とを備える。この路面状態推定装置5の各構成要素が有する機能は、マイクロプロセッサ、メモリ、および、メモリに格納されたプログラム等によって実現される。
 観測領域決定部302は、路面10をカメラ101で撮像して得られた画像情報を用いて、路面10の観測領域を決定する。観測領域決定部302は、観測領域を決定する際に、路面センサ104の検出位置を含む画像情報を用いて観測領域を決定する。なお、観測領域の決定にしかたについては後述する。
 第1路面情報取得部305は、カメラ101で得られた画像情報から観測領域における第1の路面情報を取得する。第1の路面情報は、例えば、路上の水溜まりやマーキング、積雪の程度、道路上の轍の位置、局所的な凹凸などの情報である。
 第2路面情報取得部306は、路面10の状態を路面センサ104で検出して得られたセンシング情報から観測領域における第2の路面情報を取得する。第2の路面情報は、例えば、乾燥、水、氷、積雪などの路面状態を示す情報である。
 路面状態推定部307は、第1の路面情報および第2の路面情報に基づいて観測領域の路面状態を推定する。路面状態推定部307は、路面10の路面状態を推定する際に、第1の路面情報および第2の路面情報を統合して、路面状態を推定する。
 図4は、実施の形態1の路面状態推定方法を示すフローチャートである。
 図4に示すように、実施の形態1の路面状態推定方法では、まず、路面10をカメラ101で撮像して得られた画像情報を用いて、路面10の観測領域を決定する(ステップS100)。次に、上記画像情報から観測領域における第1の路面情報を取得する(ステップS200)。次に、路面10の状態を路面センサ104で検出して得られたセンシング情報から観測領域における第2の路面情報を取得する(ステップS300)。次に、第1の路面情報および第2の路面情報に基づいて観測領域の路面状態を推定する(ステップS400)。これらのステップS100~S400は、車両100の走行中において随時実行されている。
 以下、路面状態推定装置5の詳細について、図5~図12を参照しながら説明する。
 図5は、路面状態推定システム1および路面状態推定装置5を示すブロック図である。図5には、路面状態推定装置5に接続されているカメラ101および路面センサ104も示されている。
 路面状態推定装置5は、オプティカルフロー導出部301、観測領域決定部302、時間遅れ計算部303、対応づけ計算部304、第1路面情報取得部305、第2路面情報取得部306および路面状態推定部307を備えている。
 オプティカルフロー導出部301は、カメラ101で撮像された動画の時間的に異なる2枚のフレーム画像から、画面上の特徴点の見かけ上の移動ベクトル、すなわちオプティカルフローを導出する。オプティカルフローを導出する方法としては、画像の時空間微分の拘束方程式を用いる方法、および、テンプレートマッチングを利用するブロックマッチング法が知られている。本実施の形態では、ブロックマッチング法を用い、例えば、非特許文献1(徐剛、辻三郎著 「3次元ビジョン」 共立出版 1998)に記載されているように、画像を階層化し、低い分解能の画像のテンプレートマッチングを行ってから次第に高い分解能の画像のテンプレートマッチングを行う。ブロックマッチング法は、一般に長い処理時間を必要とするが、非特許文献1に記載されている方法を用いることで、処理時間を短縮することが可能になる。
 図6は、車両100が直進する場合の画像情報を示す模式図である。図6には、無限遠点E、観測領域R0、および、路面センサ104の検出位置S0が示されている。観測領域R0は、観測対象である観測領域R1を決める際に初期基準として使用される路面領域である。観測領域R0およびR1のぞれぞれは、カメラ101の視野106内に位置している。路面センサ104の検出位置S0は、路面センサ104の検出領域105の中心位置である。本実施の形態では、ダッシュボード107に隠れて見えないはずの検出位置S0が、画面上にて視覚化されている。この検出位置S0は、カメラ101の設置場所および角度と、路面センサ104の設置場所および角度と、路面10に対する路面センサ104の角度とに基づいて求められる。前述したオプティカルフロー導出部301は、車両100の走行に応じて相対移動する観測領域R0が路面センサ104の検出位置S0に合致するまでのオプティカルフローを導出する。
 図6に示すように、車両100が直線道路を走行中の場合、観測領域R0は、無限遠点Eと路面センサ104の検出位置S0とを結ぶ直線上に存在する。観測領域R0は、車両100の走行に応じて相対移動し、一定時間経過後に検出位置S0を包含する位置まで移動し、路面センサ104にて検出される。
 図7は、車両100が直進する場合のオプティカルフローを示す模式図である。図7には、オプティカルフローのフローベクトルが無限遠点Eから放射状に広がる様子が示されている。オプティカルフローは、動画サイズがM×N画素である場合、M×N個の各画素におけるフローベクトルから構成される画素ごとの2次元移動度ベクトルの場、すなわちフレームレートfpsの画素移動量に相当する量である。図7におけるフローベクトルは、画像上の格子点上でのみ示されている。
 観測領域決定部302は、路面センサ104の検出位置S0および上記オプティカルフローに基づいて、観測領域R1を決定する。言い換えれば、観測領域決定部302は、検出位置S0と、車両100の走行に応じて相対移動する観測領域R0の移動ベクトルとに基づいて、観測領域R1を決定する。
 時間遅れ計算部303は、車両100の走行に応じて相対移動する観測領域R1が路面センサ104で検出されるまでの時間である時間遅れΔtを計算する。
 図8は、観測領域R1および時間遅れΔtの決定方法を示すフローチャートである。図8には、車両100が直線走行している場合の例が示されている。なお、図8に示す決定方法は、車両100が直線走行している場合に限られず、カーブ走行中、交差点などにおける左折または右折の場合にも適用される。
 まずステップS111にて、路面センサ104の検出位置S0でのフローベクトルV0を取得する。具体的には、路面センサ104の検出位置S0(2次元座標)におけるフローベクトルV0(2成分ベクトル)を、オプティカルフローの場を外挿することによって取得する。外挿方法は任意であり、検出位置S0から最近傍のフローベクトルをそのまま使っても良い。次に、ステップS112にて、繰り返しパラメータである時刻tを0とし、ステップS113にて、フローベクトルV0の逆ベクトル(-V0)を時刻tにおける位置Stに加算することで、時刻(t+1)における位置S(t+1)を求める。
 次に、ステップS114で、時刻tをインクリメントし、ステップS115にて、位置Stが観測領域R0の中心位置として適切であるか否かを判定する。
 位置Stが観測領域R0の中心位置として適切でない場合(S115にてNo)、ステップS118に進み、時刻tが時刻tmaxに満たない時間であれば(S118にてYes)、ステップS113へ戻って上記ステップを繰り返す。位置Stが観測領域R0の中心位置として適切であるという判断は、位置Stが図6に示す無限遠点Eよりも画面における下側に存在すること、かつ、全画面の中心付近に存在することを条件として判断される。この条件は、車両100から見て遠くの路面10の位置にあること、例えば、車両100から2m以上60m以下の路面10の位置にあることという条件に置き換えることもできる。
 ステップS115にて位置Stが観測領域R0の中心位置として適切である(Yes)と判定された場合、ステップS116で位置Stを中心に長方形の観測領域R1が設定される。そしてステップS117にて、時間遅れΔtが、時刻tとフレームレートfpsとの積として算出される。
 なお、ステップS118にて、時刻tが時刻tmaxに到達してしまった場合は(S118にてNo)、検出位置S0で検出される観測領域R0が見つからなかったことになり、観測領域R0と検出位置S0との対応づけが失敗となる。
 図9は、車両100が左にカーブする場合の画像情報を示す模式図である。図10は、車両100が左にカーブする場合のオプティカルフローを示す模式図である。
 図9に示すように車両100がカーブする場合、オプティカルフローは1点から放射状に延びるようなフローベクトルにならないが、この場合でも図10に示すように、最初にフローベクトルV0を決定した後に、図8に示す繰り返し処理を行うことで位置Stを決定することができる。そして、位置Stに対して図8のステップS115以降の処理を実行することで、観測領域R1を決定することができる。
 図11は、車両100が左折する場合の画像情報を示す模式図である。図12は、車両100が左折する場合のオプティカルフローを示す模式図である。
 図11に示すように車両100が左折する場合、図12に示すオプティカルフローは、ほぼ一様に横向きに流れるため、路面センサ104の検出位置S0に対応する観測領域R0を見つけることができない。そのため検出位置S0と観測領域R0との対応づけは失敗となるが、左折の場合は低速度で運転しているので、第2の路面情報を用いて路面10の状態を推定してもよい。
 以下、観測領域R0と検出位置S0との対応づけに成功した場合について説明する。
 図5に示す対応づけ計算部304では、第1の路面情報に対応させるべき第2の路面情報の時刻が計算される。例えば、時刻tの第1の路面情報が採用された場合、時刻(t+Δt)の第2の路面情報が採用される。
 第1路面情報取得部305では、カメラ101で撮像された画像情報から「Dry(乾燥)」、「Wet(湿潤)」、「Ice(凍結)」、「Snow(積雪)」などの第1の路面情報を取得する。この方法として、自然光の環境で偏光カメラを使って画像情報から路面状態を取得する従来技術が、非特許文献2(山田宗男、上田浩次、堀場勇夫、津川定之、山本新著 「画像処理による車載型路面状態検出センサの開発」 電気学会論文誌C,124,3 PP753-760 2004)に記載されているので、詳細は省略する。偏光カメラとしては、1台のモノクロカメラにてH(水平)偏光成分画像とV(垂直)偏光成分画像とを時間的に同時に画角ずれなく取得できるものが望ましく、偏光イメージングカメラ(4DTechnology社製PolarCam)、あるいは、偏光カメラ(LUCID社製PHX050S-P/Q)などを用いればよい。
 第2路面情報取得部306では、路面センサ104から出射した光の反射光の検出と、路面10の温度データとから「乾燥」、「水」、「氷」、「積雪」などの第2の路面情報を取得する。この方法は、前述した特許文献1に記載されているため、ここでは詳細の記載を省略する。なお、ここでの時刻は、対応づけ計算部304で補正された時刻(t+Δt)が使われる。
 路面状態推定部307では、車両100の走行に応じて相対移動する観測領域R1の移動ベクトルおよび移動時間に基づいて、観測領域R1が同じとなる第1の路面情報および第2の路面情報を選定する。そして、選定した第1の路面情報および第2の路面情報に基づいて路面状態を推定する。この推定のしかたは、上記対応づけが「成功」と「失敗」とで異なる。
 例えば図6、図9などで示したように、観測領域R0と検出位置S0との対応づけが成功した場合は、同一の観測領域R1である遠くの路面10に関する第1の路面情報と、近くの路面10に関する第2の路面情報とが得られる。路面状態推定部307では、これらの路面情報を用いて、遠くの路面10の画像情報に基づく路面状態の推定精度を向上させる。具体的には、時刻tの画像情報に対して時間Δtだけ時間が経過した後に、路面センサ104で検出した反射光輝度および水分量から得られるセンシング情報を付加し、画像情報に基づく推定結果を走行中にリアルタイム学習する。これによって、画像情報に基づく第1の路面情報が、天候や路面10の複雑性によらず高精度化でき、路面状態推定部307は、高速走行時にも時間的余裕をもって路面状態を推定できる。
 一方、図11で示したように観測領域R0と検出位置S0との対応づけが失敗した場合、画像情報からの第1の路面情報をそのまま使うことはできない。この場合、路面状態推定装置5は、路面センサ104から得られたセンシング情報のみを用いて路面状態を推定してもよい。
 本実施の形態の路面状態推定装置5等では、所定の時刻にてカメラ101で撮像された遠くの路面10の情報が一定時間遅れて近くの路面センサ104で再度観測され、かつ、両者の対応づけが実現される。このため、同一の観測領域R1について、カメラ101による遠くの路面10の路面情報と路面センサ104による詳細な路面情報とを合わせて取得することができ、2m以上60m以下の先の路面状態の推定を高精度化することができる。また、十分な時間的余裕をもって自動運転の車両制御をすることができる。
 なお上記では、路面状態推定装置5が、車両100の走行に応じて相対移動する観測領域R0が路面センサ104の検出位置S0に合致するまでのオプティカルフローを導出するオプティカルフロー導出部301と、上記観測領域R0が路面センサ104の検出位置S0に合致するまでの時間である時間遅れΔtを計算する時間遅れ計算部303とを備える例について説明したが、上記における検出位置S0を、タイヤ103が路面10に接する位置であるタイヤ位置に置き換えても同様のことが言える。
 すなわち、路面状態推定装置5は、車両100の走行に応じて相対移動する観測領域R0が車両100のタイヤ位置に合致するまでのオプティカルフローを導出するオプティカルフロー導出部301と、上記観測領域R0が車両100のタイヤ位置に合致するまでの時間である時間遅れΔtを計算する時間遅れ計算部303とをさらに備えていてもよい。そして路面状態推定部307が、当該オプティカルフローおよび当該時間遅れΔtに基づいて、観測領域R0が同じとなる第1の路面情報および第2の路面情報を選定し、選定した第1の路面情報および第2の路面情報に基づいて路面状態を推定してもよい。
 (実施の形態2)
 実施の形態2の路面状態推定システム、路面状態推定装置および路面状態推定方法について、図13~図18を参照しながら説明する。
 図13は、実施の形態2の路面状態推定システム1Aが搭載される車両100の側面図であり、図2との共通箇所には同じ符号を記している。
 路面状態推定システム1Aは、車両100の運転席内に設置されるカメラ101と、車両100の運転席内に設置される路面センサ104Aと、車両100が走行する予定の路面10の状態を推定する路面状態推定装置5Aとを備える。
 カメラ101は、例えば、車両100の前方2m以上60m以下に位置する遠くの路面10を撮像する。
 路面センサ104Aは、例えば、車両100の前方2m以上60m以下に位置する遠くの路面10の状態を検出する。路面センサ104Aは、図1の路面センサ104と異なり、複数の波長からなる近赤外のLED(Light Emitting Diode)光またはレーザ光を路面10に照射し、その反射光輝度比等から当該路面10の水分量を検出することで、路面10の乾燥、湿潤、凍結、雪などの状態を検出する。また、路面センサ104Aは、サーモパイル等を使った温度センサを有し、路面上の水膜の厚さおよび凍結状態等を検出する。このように路面センサ104Aは、水膜、氷および雪を区別して検出することができるので、カメラ101の画像情報だけでは得られないセンシング情報を取得することができる。
 図13に示すように、路面センサ104Aの検出領域105Aは、カメラ101の視野106と重なっている。このため実施の形態2の路面状態推定システム1Aでは、実施の形態1のようにカメラとセンサとの関連付の問題は発生しない。しかしながら、実施の形態2では、路面センサ104Aが必ずしもタイヤ103の通る路面10を検出するわけでないという課題がある。
 図14は、路面状態推定システム1Aおよび路面状態推定装置5Aを示すブロック図であり、図5と同一の構成には同一符号を付している。
 路面状態推定装置5Aは、オプティカルフロー導出部301、通過位置判定部308、第1路面情報取得部305、第2路面情報取得部306および路面状態推定部307を備えている。
 オプティカルフロー導出部301は、カメラ101で撮像された動画の時間的に異なる2枚のフレーム画像から画面上のオプティカルフローを検出する。このオプティカルフローは、全画素に対して算出される。オプティカルフロー導出部301は、車両100の走行に応じて相対移動する観測領域R1が後述するタイヤ位置F0に合致するまでのオプティカルフローを導出する。なお、観測領域R1は、実施の形態1と同様の方法で求められる。
 通過位置判定部308は、観測領域R1がタイヤ位置F0を通過するか否かを判定する。タイヤ位置F0とは、本来死角になっているタイヤ103の位置を画面上に可視化したものである。また、通過位置判定部308では、車両100の走行に応じて相対移動する観測領域R1がタイヤ位置F0に合致するまでの時間である時間遅れΔtが計算される。
 図15は、観測領域R1がタイヤ位置F0を通過するか否かを判定するフローチャートである。図16は、車両100が直進する場合の画像情報を示す模式図である。図17は、車両100が左にカーブする場合の画像情報を示す模式図である。図15に示す判定方法は、車両100が直線走行をしている場合(図16参照)または、車両100がカーブする場合(図17)に適用される。
 まずステップS121にて、タイヤ位置F0でのフローベクトルV0を取得する。具体的には、タイヤ位置F0(2次元座標)におけるフローベクトルV0(2成分ベクトル)を、オプティカルフローの場を外挿することによって取得する。外挿方法は任意であり、タイヤ位置F0から最近傍のフローベクトルをそのまま使っても良い。次に、ステップS122にて、繰り返しパラメータである時刻tを0とし、ステップS123にて、フローベクトルV0の逆ベクトル(-V0)を時刻tにおける位置Ftに加算することで、時刻(t+1)における位置F(t+1)を求める。次に、ステップS124で、時刻tをインクリメントし、ステップS125にて、位置Ftが観測領域R1内にあるかどうかを判定する。
 位置Ftが観測領域R1内にない場合(S125にてNo)、ステップS128に進み、時刻tが時刻tmaxに満たない時間であれば(S128にてYes)、ステップS123へ戻って上記ステップを繰り返す。
 ステップS125で観測領域R1内にある(Yes)と判断された場合、ステップS127にて、時間遅れΔtが、時刻tとフレームレートfpsとの積として算出される。またステップS128にて、時刻tが時刻tmaxに到達してしまった場合は(S128にてNo)、観測領域R1がタイヤ位置F0を通過しないケースとなり、観測領域R1とタイヤ位置F0との対応づけが失敗となる。
 第1路面情報取得部305では、カメラ101で撮像された画像情報から「Dry(乾燥)」、「Wet(湿潤)」、「Ice(凍結)」、「Snow(積雪)」などの第1の路面情報を取得する。
 第2路面情報取得部306では、路面センサ104Aにて、LEDまたはレーザ光を発射し、その反射光の検出と路面10の温度データとから「乾燥」、「水」、「氷」、「積雪」などの第2の路面情報を取得する。
 路面状態推定部307では、車両100の走行に応じて相対移動する観測領域R1の移動ベクトルおよび移動時間に基づいて、観測領域R1が同じとなる第1の路面情報および第2の路面情報を選定する。そして、選定した第1の路面情報および第2の路面情報に基づいて路面状態を推定する。
 図16および図17などのシーンでは、同じ観測領域R1に対して、カメラ101で得られた第1の路面情報と、路面センサ104Aで得られた第2の路面情報とが存在し、時刻tにてカメラ101等で得られた路面情報は、時間遅れΔtだけ経過した後にタイヤ103が通過する際の路面情報となる。したがって、高速走行時にも十分な時間的余裕をもって、路面状態を推定できる。
 図18は、車両100が左折する場合の画像情報を示す模式図である。
 図18に示すように、交差点での左折シーンなど観測領域R1をタイヤ位置F0が通過しない場合、第1の路面情報および第2の路面情報は使えない。しかし、このような場合は、車両100が比較的低速の場合に限定されるため、タイヤ103自身が有するブレーキ用センサからの情報に基づいて自動運転を行う制御に切り替えてもよい。
 また、路面センサ104Aの検出領域105Aがタイヤ位置F0を通過しない場合であっても、広視野のカメラ101で撮像された路面10の一部がタイヤ位置F0を通過する場合もある。この場合、路面状態推定部307は、路面センサ104Aで得られた第2の路面情報を採用せず、カメラ101で得られた第1の路面情報を採用してもよい。
 また図18に示すように、観測領域R1が、路面10ではなく他車に重なってしまうこともある。この場合、路面状態推定部307は、カメラ101で得られた画像情報から路面10が観測されていないことを認識した後、路面センサ104Aで得られた第2の路面情報を採用せず、カメラ101で得られた第1の路面情報を採用してもよい。
 (実施の形態3)
 実施の形態3の路面状態推定システム、路面状態推定装置および路面状態推定方法について、図19~図22を参照しながら説明する。
 実施の形態2では、画像情報、特にオプティカルフローの取得によって観測領域R1とタイヤ位置F0とを対応づけていた。しかし視野106内には静止した路面や建物のみならず、人や対向車など多くの移動する物体が存在するため、任意のシーンにおいて車両100の走行のみに起因する正確なオプティカルフローを求めることは困難である。本実施の形態では、このような状況に対応するため、ステアリングホイールの回転角を取得する操舵検出部からの操舵情報と車速検出部からの車速情報を追加情報として用いて、カメラ光学系での投影計算を実施することにより、理論上のオプティカルフローを計算する。
 図19は、実施の形態3の路面状態推定システム1Bおよび路面状態推定装置5Bを示すブロック図であり、図5と同一のブロックには同一符号を付している。なお、図19には、カメラ101、路面センサ104の他に、路面状態推定システム1Bの構成要素である操舵検出部311および車速検出部312も示されている。
 路面状態推定装置5Bは、オプティカルフロー導出部301、観測領域決定部302、時間遅れ計算部303、対応づけ計算部304、第1路面情報取得部305、第2路面情報取得部306および路面状態推定部307を備えている。
 図20は、観測領域R1および時間遅れΔtを決定するためのフローチャートである。
 まずステップS130で、ステアリングホイール410(図22参照)の操舵角θwが時間的に一定であるか否かを判定する。
 操舵角θwが一定である場合は(S130にてYes)、ステップS131にて操舵情報および車速情報に基づき検出位置S0でのフローベクトルTV0を取得する。
 操舵角θwが一定でない場合は(S130にてNo)、ステアリングホイール410の回転角が大きく変動している最中であると判断する。この場合、観測領域R0と路面センサ104の検出位置S0との対応づけが困難であるので、ステップS139の対応づけ失敗に移行する。これは、車両100が交差点にて左折または右折しようとする場合などに、オプティカルフローが大きく横に流れてしまうのと、オプティカルフローには対向車の走行状態なども重ねあわされるため、観測領域R0と検出位置S0との対応づけが極めて困難となるからである。前述した図8のステップS111では、検出位置S0(2次元座標)におけるフローベクトルV0(2成分ベクトル)をオプティカルフローの場を外挿することによって求めているが、現実には検出位置S0から最近傍のフローベクトルをそのまま使って求めると、以下のような問題も生じる。
 図21は、画像情報からオプティカルフローを導出する場合の問題点の1つを示す模式図である。図21には、車両100の車線には他の車は不在で路面10が観測されているのに対し、対向車線には対向車401が数台連続して走行している様子が示されている。この時、検出位置S0のオプティカルフローを最近傍のフローベクトルを使って求めると手前に高速で走行する対向車401の動きベクトル402が使われて、誤った結果となってしまう。
 図22は、車両100が直進する場合のオプティカルフローを示す模式図である。
 図22には、ステアリングホイール410の状態と車両100の速度、およびカメラ101の光学系パラメータから計算されるオプティカルフローが描かれている。この理論上のオプティカルフローの計算手法は、操舵角θwおよび車速から一定時刻ごとに決定される路面上物体をカメラ101の焦点位置に透視投影する演算を逐次的に行えばよく、非特許文献1などに記載されている透視投影を用いることで実現される。
 図22では、操舵角θw=0(初期位置)、かつ、操舵角速度dθ/dt=0(ステアリングホイール回転なし)のため、車両100は直進しており、オプティカルフローは、無限遠点Eから放射状に描かれている。理論上のフローベクトルTV0は、検出位置S0でも計算可能であり、ステップS133において、フローベクトルTV0の逆ベクトル(-TV0)を時刻tにおける位置Stに加算することで、時刻(t+1)における位置S(t+1)を求める。そして、ステップS137にて、観測領域R0が路面センサ104で検出されるまでの時間である時間遅れΔtが、時刻tとフレームレートfpsとの積として算出される。なおこの例では、直進した道路で操舵角θw=0である時を想定しているが、道がゆるやかにカーブしているときの走行状態でもステアリングホイール410は一定角を維持するため、操舵角θwが時間的に一定となり、この場合にも理論上のフローベクトルは計算可能である。
 (その他の実施の形態)
 以上、本開示の一つまたは複数の態様に係る路面状態推定方法等について、各実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の一つまたは複数の態様の範囲内に含まれてもよい。
 本開示は、車両が走行する路面の路面状態を推定する方法等として有用である。
1、1A、1B 路面状態推定システム
5、5A、5B 路面状態推定装置
10  路面
100 車両
101 カメラ
102 バンパー
103 タイヤ
104、104A 路面センサ
105、105A 検出領域
106 視野
107 ダッシュボード
301 オプティカルフロー導出部
302 観測領域決定部
303 時間遅れ計算部
304 対応づけ計算部
305 第1路面情報取得部
306 第2路面情報取得部
307 路面状態推定部
308 通過位置判定部
311 操舵検出部
312 車速検出部
401 対向車
402 動きベクトル
410 ステアリングホイール
E  無限遠点
F0 タイヤ位置
Ft 位置
R0、R1 観測領域
S0 検出位置
St 位置
t、t+1 時刻
Δt 時間遅れ
V0、-V0 フローベクトル
θw 操舵角
dθ/dt 操舵角速度

Claims (11)

  1.  車両が走行する路面の状態を推定する路面状態推定方法であって、
     前記路面をカメラで撮像して得られた画像情報を用いて、前記路面の観測領域を決定し、
     前記画像情報から前記観測領域における第1の路面情報を取得し、
     前記路面の状態を路面センサで検出して得られたセンシング情報から前記観測領域における第2の路面情報を取得し、
     前記第1の路面情報および前記第2の路面情報に基づいて前記観測領域の路面状態を推定する
     路面状態推定方法。
  2.  前記センシング情報は、前記路面センサで検出された前記路面の反射光輝度、水分量および温度のうち少なくとも1つの情報を含む
     請求項1に記載の路面状態推定方法。
  3.  前記路面状態を推定する際に、前記車両の走行に応じて相対移動する前記観測領域の移動ベクトルおよび移動時間に基づいて、前記観測領域が同じとなる前記第1の路面情報および前記第2の路面情報を選定し、選定した前記第1の路面情報および前記第2の路面情報に基づいて前記路面状態を推定する
     請求項1または2に記載の路面状態推定方法。
  4.  前記観測領域を決定する際に、さらに、前記車両の操舵情報および車速情報を用いて前記観測領域を決定する
     請求項1~3のいずれか1項に記載の路面状態推定方法。
  5.  車両が走行する路面の状態を推定する路面状態推定装置であって、
     前記路面をカメラで撮像することによって得られた画像情報を用いて、前記路面の観測領域を決定する観測領域決定部と、
     前記画像情報から前記観測領域における第1の路面情報を取得する第1路面情報取得部と、
     前記路面の状態を路面センサで検出することによって得られたセンシング情報から前記観測領域における第2の路面情報を取得する第2路面情報取得部と、
     前記第1の路面情報および前記第2の路面情報に基づいて前記観測領域の路面状態を推定する路面状態推定部と
     を備える路面状態推定装置。
  6.  前記センシング情報は、前記路面センサで検出された前記路面の反射光輝度、水分量および温度のうち少なくとも1つの情報を含む
     請求項5に記載の路面状態推定装置。
  7.  前記車両の走行に応じて相対移動する前記観測領域が前記路面センサの検出位置に合致するまでのオプティカルフローを導出するオプティカルフロー導出部と、
     前記車両の走行に応じて相対移動する前記観測領域が前記路面センサの検出位置に合致するまでの時間である時間遅れを計算する時間遅れ計算部と
     をさらに備え、
     前記路面状態推定部は、前記オプティカルフローおよび前記時間遅れに基づいて、前記観測領域が同じとなる前記第1の路面情報および前記第2の路面情報を選定し、選定した前記第1の路面情報および前記第2の路面情報に基づいて前記路面状態を推定する
     請求項5または6に記載の路面状態推定装置。
  8.  前記車両の走行に応じて相対移動する前記観測領域が前記車両のタイヤ位置に合致するまでのオプティカルフローを導出するオプティカルフロー導出部と、
     前記車両の走行に応じて相対移動する前記観測領域が前記車両のタイヤ位置に合致するまでの時間である時間遅れを計算する時間遅れ計算部と
     をさらに備え、
     前記路面状態推定部は、前記オプティカルフローおよび前記時間遅れに基づいて、前記観測領域が同じとなる前記第1の路面情報および前記第2の路面情報を選定し、選定した前記第1の路面情報および前記第2の路面情報に基づいて前記路面状態を推定する
     請求項5または6に記載の路面状態推定装置。
  9.  前記路面状態推定部は、前記オプティカルフロー導出部が、前記オプティカルフローを導出できなかった場合に、前記第2の路面情報を用いて前記路面状態を推定する
     請求項7または8に記載の路面状態推定装置。
  10.  前記車両の操舵情報を検出する操舵検出部と、
     前記車両の車速情報を検出する車速検出部と
     をさらに備え、
     前記観測領域決定部は、さらに、前記操舵情報および前記車速情報を用いて、前記観測領域を決定する
     請求項5~9のいずれか1項に記載の路面状態推定装置。
  11.  請求項5~10のいずれか1項に記載の路面状態推定装置と、
     前記路面を撮像するカメラと、
     前記路面の状態を検出する路面センサと
     を備える路面状態推定システム。
PCT/JP2019/018649 2018-05-10 2019-05-09 路面状態推定方法、路面状態推定装置および路面状態推定システム WO2019216393A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862669423P 2018-05-10 2018-05-10
US62/669,423 2018-05-10

Publications (1)

Publication Number Publication Date
WO2019216393A1 true WO2019216393A1 (ja) 2019-11-14

Family

ID=68468201

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/018649 WO2019216393A1 (ja) 2018-05-10 2019-05-09 路面状態推定方法、路面状態推定装置および路面状態推定システム

Country Status (1)

Country Link
WO (1) WO2019216393A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7154459B1 (ja) * 2021-12-14 2022-10-17 三菱電機株式会社 センサシステム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002162343A (ja) * 2000-11-24 2002-06-07 Natl Inst For Land & Infrastructure Management Mlit 可視画像式路面状況把握装置における路面状況判定方法
JP2009042115A (ja) * 2007-08-09 2009-02-26 Mazda Motor Corp 車両用路面状態推定装置
JP2010025915A (ja) * 2008-06-18 2010-02-04 Ricoh Co Ltd 撮像装置及び路面状態判別方法
JP2010109452A (ja) * 2008-10-28 2010-05-13 Panasonic Corp 車両周囲監視装置及び車両周囲監視方法
JP2014228300A (ja) * 2013-05-20 2014-12-08 国立大学法人 東京大学 路面状態推定装置
JP2016197785A (ja) * 2015-04-02 2016-11-24 アイシン精機株式会社 周辺監視装置
JP2017020942A (ja) * 2015-07-13 2017-01-26 株式会社豊田中央研究所 推定装置及び推定プログラム
JP2017138276A (ja) * 2016-02-05 2017-08-10 西日本高速道路エンジニアリング関西株式会社 道路路面撮影システム
US20180005384A1 (en) * 2016-06-29 2018-01-04 Xiaoyi Technology Co., Ltd. Motion determination system and method thereof

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002162343A (ja) * 2000-11-24 2002-06-07 Natl Inst For Land & Infrastructure Management Mlit 可視画像式路面状況把握装置における路面状況判定方法
JP2009042115A (ja) * 2007-08-09 2009-02-26 Mazda Motor Corp 車両用路面状態推定装置
JP2010025915A (ja) * 2008-06-18 2010-02-04 Ricoh Co Ltd 撮像装置及び路面状態判別方法
JP2010109452A (ja) * 2008-10-28 2010-05-13 Panasonic Corp 車両周囲監視装置及び車両周囲監視方法
JP2014228300A (ja) * 2013-05-20 2014-12-08 国立大学法人 東京大学 路面状態推定装置
JP2016197785A (ja) * 2015-04-02 2016-11-24 アイシン精機株式会社 周辺監視装置
JP2017020942A (ja) * 2015-07-13 2017-01-26 株式会社豊田中央研究所 推定装置及び推定プログラム
JP2017138276A (ja) * 2016-02-05 2017-08-10 西日本高速道路エンジニアリング関西株式会社 道路路面撮影システム
US20180005384A1 (en) * 2016-06-29 2018-01-04 Xiaoyi Technology Co., Ltd. Motion determination system and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7154459B1 (ja) * 2021-12-14 2022-10-17 三菱電機株式会社 センサシステム

Similar Documents

Publication Publication Date Title
US11915491B2 (en) Controlling host vehicle based on detected door opening events
US20220398851A1 (en) Autonomous vehicle environmental perception software architecture
JP3822515B2 (ja) 障害物検知装置及びその方法
US9740942B2 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
US9151626B1 (en) Vehicle position estimation system
JP4603970B2 (ja) 道路区画線検出装置
JP5421072B2 (ja) 接近物体検知システム
JP6416293B2 (ja) 自動車に接近する対象車両を自動車のカメラシステムにより追跡する方法、カメラシステムおよび自動車
US20160034771A1 (en) Path sensing using structured lighting
US9483708B2 (en) Method and apparatus for recognizing object reflections
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
WO2015125590A1 (ja) 外界認識システム、車両、及びカメラの汚れ検出方法
JP2004531424A (ja) 車用の感知装置
JP2004531424A5 (ja)
US9398227B2 (en) System and method for estimating daytime visibility
CN107423675B (zh) 对陷阱和行人进行前部碰撞警告的先进警告系统
JP6032034B2 (ja) 物体検知装置
JP6552448B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
WO2019216393A1 (ja) 路面状態推定方法、路面状態推定装置および路面状態推定システム
KR101190789B1 (ko) 차량의 거리 측정 장치 및 방법
WO2018225480A1 (ja) 位置推定装置
JP2009276906A (ja) 走行情報提供装置
JP2007164566A (ja) 感応制御用車両感知システムおよび装置
KR20120086962A (ko) 차량용 내비게이션에서의 영상에서 앞차 검출을 통한 거리 인식 시스템 및 방법
JP2010176592A (ja) 車両用運転支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19800677

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19800677

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP