WO2014192417A1 - 交通量推定装置および交通量推定方法 - Google Patents

交通量推定装置および交通量推定方法 Download PDF

Info

Publication number
WO2014192417A1
WO2014192417A1 PCT/JP2014/060014 JP2014060014W WO2014192417A1 WO 2014192417 A1 WO2014192417 A1 WO 2014192417A1 JP 2014060014 W JP2014060014 W JP 2014060014W WO 2014192417 A1 WO2014192417 A1 WO 2014192417A1
Authority
WO
WIPO (PCT)
Prior art keywords
traffic volume
lane
unit
traffic
speed
Prior art date
Application number
PCT/JP2014/060014
Other languages
English (en)
French (fr)
Inventor
橋本 隆志
渡辺 孝弘
Original Assignee
沖電気工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 沖電気工業株式会社 filed Critical 沖電気工業株式会社
Publication of WO2014192417A1 publication Critical patent/WO2014192417A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons

Definitions

  • the present invention relates to a traffic estimation device and a traffic estimation method.
  • a luminance value change region between a reference image and a captured image captured by a camera is detected, and a ratio of the luminance value change region to a moving object existing region is calculated as a space occupancy rate, based on the space occupancy rate
  • a technique for determining a traffic jam situation is disclosed (for example, see Patent Document 1). According to such a technique, it is possible to accurately determine the traffic jam situation even in a situation where occlusion occurs continuously and the vehicle cannot be individually recognized.
  • sample points that are estimated to be present are detected as existing sample points, and sample points that are estimated to be moving are moved.
  • a technique for detecting a sample point is disclosed (for example, see Patent Document 2).
  • a block including a moving sample point of a predetermined ratio or more is detected as a moving block, an existing sample point deviating from the moving block is detected as a jam sample point, and a block including a congestion sample point of a predetermined ratio or more is detected. Detect as a traffic jam block. According to this technique, it is possible to accurately determine the traffic jam situation based on the jam block.
  • JP 2002-367077 A Japanese Patent No. 3734826
  • an object of the present invention is to provide a vehicle on the near side when measuring traffic based on a captured image captured by a monocular camera.
  • An object of the present invention is to provide a technique for estimating the traffic volume at a time when there is a possibility that the vehicle on the back side may be hidden.
  • a detection unit that detects a non-measurable time during which traffic volume in a predetermined lane cannot be measured, and traffic volume in the measurable time in the predetermined lane
  • a traffic volume estimation device comprising: a target volume measurement unit that measures a traffic volume as a measured traffic volume; and an estimation unit that estimates a traffic volume in the non-measurable time of the predetermined lane as an estimated traffic volume based on the unmeasurable time.
  • the traffic volume estimation device further includes a reference amount measurement unit that measures the traffic volume of the lane closest to the imaging unit as a reference traffic volume, and the estimation unit is based on the unmeasurable time and the reference traffic volume, The estimated traffic volume may be estimated.
  • the estimation unit may estimate the estimated traffic volume by multiplying the reference traffic volume by a ratio of the non-measurable time to the time required for measuring the reference traffic volume.
  • the reference amount measurement unit calculates the speed of the vehicle traveling in the lane as a reference speed based on the speed of the vehicle detected in the region corresponding to the lane closest to the imaging unit, and the estimation unit Based on the reference speed, the speed in the measurement impossible time of the vehicle traveling on the predetermined lane may be specified as the estimated speed.
  • the estimation unit may estimate the estimated traffic volume based on the unmeasurable time and the measured traffic volume.
  • the estimation unit may estimate the estimated traffic volume by multiplying the measured traffic volume by a ratio of the non-measurable time to the time required for measuring the measured traffic volume.
  • the target amount measurement unit calculates, as a measurement speed, a speed in a measurable time of a vehicle traveling in the predetermined lane based on a detected speed in a measurable time of the vehicle generated in an area corresponding to the predetermined lane.
  • the estimation unit may specify a speed in an unmeasurable time of a vehicle traveling on the predetermined lane as an estimated speed based on the measured speed.
  • the traffic estimation device includes a reference amount measurement unit that measures the traffic amount of the lane closest to the imaging unit as a reference traffic amount, and the target amount measurement unit is detected in an area corresponding to the predetermined lane. Based on the speed in the measurable time of the vehicle, the speed in the measurable time of the vehicle traveling in the predetermined lane is calculated as the measured speed, and the reference amount measuring unit is in an area corresponding to the lane closest to the imaging unit. Based on the detected speed of the vehicle, the speed of the vehicle traveling in the lane is calculated as a reference speed, and the estimation unit is based on the non-measurable time, the reference traffic volume, the measured speed, and the reference speed. Thus, the estimated traffic volume may be estimated.
  • the estimation unit estimates the estimated traffic volume by multiplying the ratio of the non-measurable time to the time required for measuring the reference traffic volume, the ratio of the measured speed to the reference speed, and the reference traffic volume. May be.
  • the traffic volume estimation device may include an integration unit that calculates an integrated traffic volume by integrating the measured traffic volume and the estimated traffic volume.
  • the traffic volume estimation device may include an output control unit that outputs a ratio of the estimated traffic volume to the integrated traffic volume as an estimation rate.
  • the traffic estimation device includes a selection unit that selects a model registered in advance based on measured traffic of each of a plurality of lanes, and the estimation unit measures each of the plurality of lanes based on the model. You may estimate the traffic volume in an impossible time as an estimated traffic volume.
  • the target amount measuring unit counts the measured traffic volume by counting the number of detected vehicles generated in the measurable time of the predetermined lane in an area corresponding to the predetermined lane in the captured image captured by the imaging unit. You may measure.
  • the detection unit is detected in an area corresponding to any one of a lane that is close to the image pickup unit and a lane that is close to a predetermined number of lanes in the picked-up image picked up by the image pickup unit. You may detect the time when the vehicle has arisen as the said measurement impossible time.
  • the detection unit corresponds to the detected vehicle and the predetermined lane generated in an area corresponding to any one of a lane approaching the predetermined number of lanes from a lane approaching the imaging unit with the predetermined lane as a reference. You may detect as the said measurement impossible time the time when the speed difference with the detected vehicle produced in the area
  • the detection unit may calculate the predetermined number of lanes based on the height of the imaging unit.
  • a traffic volume estimation method including a step and a step of estimating a traffic volume in the non-measurable time of the predetermined lane as an estimated traffic volume based on the non-measurable time.
  • the vehicle on the back side may be concealed by the vehicle on the near side. It is possible to estimate the traffic volume.
  • a plurality of constituent elements having substantially the same functional configuration may be distinguished by attaching different alphabets or numbers after the same reference numeral.
  • it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration only the same reference numerals are given.
  • FIG. 1 is a first diagram for explaining the purpose of the embodiment of the present invention.
  • the imaging unit C when the imaging unit C is installed as shown in FIG. 1, the vehicle is reflected in the captured image captured by the imaging unit C, but when the imaging unit C is a monocular camera, In general, the position in the depth direction of the vehicle is unknown. Therefore, it is difficult to determine whether the vehicle shown in the captured image is the vehicle M1 traveling in the first lane, the vehicle M2 traveling in the second lane, or the vehicle M3 traveling in the third lane. Therefore, it is difficult to improve the traffic measurement accuracy for each lane. In addition, it is difficult to specify the position in the depth direction of the vehicle shown in the captured image, and thus it is difficult to improve the measurement accuracy of the vehicle speed.
  • one of the objects of the embodiments of the present invention is to measure the traffic accuracy and the vehicle speed for each lane when measuring the traffic volume and the vehicle speed based on the captured image captured by the monocular camera. It is to improve accuracy.
  • FIG. 2 is a second diagram for explaining the purpose of the embodiment of the present invention.
  • FIG. 2 there are a first lane, a second lane, and a third lane on the road.
  • the captured image shows the vehicle M4 traveling in the first lane, but traveling in the third lane with the vehicle M5 traveling in the second lane.
  • the vehicle M6 to be hidden by the vehicle M4 is not reflected in the captured image. Therefore, it is difficult to improve the measurement accuracy of the traffic volume and the vehicle speed only by setting the vehicle shown in the captured image as the measurement target.
  • Another object of the embodiment of the present invention is that there is a possibility that the vehicle on the back side may be concealed by the vehicle on the near side when measuring the traffic volume based on the captured image captured by the monocular camera. It is to estimate the traffic and vehicle speed at a certain time.
  • FIG. 3 is a diagram for explaining the outline of the embodiment of the present invention.
  • the outline of the embodiment of the present invention will be described with reference to FIG.
  • the outline of the embodiment of the present invention is a premise of the first embodiment and the second embodiment of the present invention described below.
  • the traffic estimation device 10 in which the imaging unit is incorporated and the road plane exist in real space. Moreover, the traffic estimation apparatus 10 incorporating the imaging unit is installed in a state where the imaging direction is directed to the road plane.
  • the captured image Img ′ captured by the traffic estimation device 10 shows the boundary line of the lane provided on the road. As shown in FIG. 3, the center of the lens of the traffic estimation device 10 is set to the origin O.
  • FIG. 3 shows an example in which an imaging unit is incorporated in the traffic estimation device 10, but the imaging unit is not incorporated in the traffic estimation device 10 and is installed outside the traffic estimation device 10. It may be.
  • the traffic volume estimation device 10 may acquire the captured image Img ′ by receiving the captured image Img ′ transmitted from the imaging unit.
  • the traffic estimation apparatus 10 may acquire the captured image Img ′ by reading the captured image Img ′ recorded on the recording medium by the imaging unit.
  • the traffic estimation device 10 measures the traffic volume and vehicle speed for each lane from the captured image Img ′.
  • the traffic volume estimation device 10 measures traffic volume based on the captured image captured by the imaging unit
  • the vehicle on the back side may be concealed by the vehicle on the near side. It is possible to estimate the traffic volume and vehicle speed at a certain time.
  • FIG. 4 is a diagram illustrating a functional configuration example of the traffic volume estimation device 10A according to the first embodiment of the present invention.
  • the traffic estimation device 10A according to the first embodiment of the present invention includes a control unit 110A, an imaging unit 170, a storage unit 180, and an output unit 190.
  • the control unit 110A has a function of controlling the entire operation of the traffic volume estimation device 10A.
  • the imaging unit 170 has a function of acquiring a captured image by imaging a real space, and is configured by, for example, a monocular camera.
  • the storage unit 180 can store a program and data for operating the control unit 110A. In addition, the storage unit 180 can temporarily store various data required in the process of operation of the control unit 110A.
  • the output unit 190 has a function of performing output in accordance with control by the control unit 110A.
  • the type of the output unit 190 is not particularly limited, and may be a display device or an audio output device.
  • the imaging unit 170, the storage unit 180, and the output unit 190 exist inside the traffic estimation device 10 ⁇ / b> A, but all or one of the imaging unit 170, the storage unit 180, and the output unit 190.
  • the unit may be provided outside the traffic estimation device 10A.
  • the control unit 110A includes an image acquisition unit 111, a setting unit 112, a reference amount measurement unit 113, a detection unit 114, a target amount measurement unit 115, an estimation unit 116, an integration unit 117, and an output control unit. 118. Functions of these functional units included in the control unit 110A will be described later.
  • calibration can be performed by the traffic estimation device 10A according to the first embodiment of the present invention. More specifically, a process for calculating a road plane formula (hereinafter also referred to as a “road plane type”) and a process for calculating the traveling direction of the vehicle may be performed as calibration.
  • a process for calculating a road plane formula hereinafter also referred to as a “road plane type”
  • a process for calculating the traveling direction of the vehicle may be performed as calibration.
  • the calibration performed by the setting unit 112 will be described with reference to FIGS. 5 and 6.
  • FIG. 5 is a diagram showing parameters used by the setting unit 112.
  • the setting unit 112 first determines the size pix_dot of the captured image Img ′ per unit pixel of the image sensor based on the size of the image sensor that constitutes the image capturing unit 170 and the size of the captured image Img ′ provided to the control unit 110. As a parameter.
  • the captured image Img ′ is generated based on the captured image Img captured on the imaging surface of the image sensor that is separated from the origin O by the focal length. Further, the captured image Img ′ provided to the control unit 110 can be acquired by the image acquisition unit 111 and used by the setting unit 112.
  • the imaging device is a CCD (Charge Coupled Device)
  • the CCD Charge Coupled Device
  • the imaging element may be a CMOS (Complementary Metal Oxide Semiconductor) or the like.
  • the setting unit 112 can calculate pix_dot by the following (Equation 1).
  • the CCD size is represented by the length of the diagonal line of the CCD
  • the CCD size is divided by the square root of the sum of squares in the vertical and horizontal directions of the captured image Img ′ as shown in (Equation 1). Is calculated by
  • the calculation of the parameter pix_dot by such a method is only an example, and the parameter pix_dot may be calculated by another method.
  • the vertical or horizontal length of the CCD may be used instead of the diagonal line of the CCD.
  • the CCD size is easily obtained from the imaging unit 170, for example. Further, the size of the captured image Img ′ is acquired from the storage unit 180, for example. Therefore, the control unit 110 determines, based on these sizes, the three-dimensional coordinates in the real space of the captured image Img captured on the imaging surface of the CCD and the two-dimensional coordinates of the captured image Img ′ provided to the control unit 110.
  • the correspondence can be grasped. That is, the control unit 110 grasps the three-dimensional coordinates in the real space of the captured image Img imaged on the imaging surface of the CCD from the two-dimensional coordinates of the captured image Img ′ provided to the control unit 110 based on this correspondence. can do.
  • Calibration can be performed using the parameters calculated in this way.
  • the calibration performed using the parameters by the setting unit 112 will be described with reference to FIG.
  • FIG. 6 is a diagram for explaining the function of the setting unit 112.
  • an xyz coordinate system real space
  • a traveling direction vector v that is a vector indicating the traveling direction of the vehicle is defined as (vx, vy, vz).
  • a point (focal point) that is separated from the origin O by the focal length f is set on the y axis, and a plane that passes through this focal point and is perpendicular to the y axis is defined as an imaging surface.
  • the captured image Img is captured on the imaging surface, but the setting of each coordinate axis is not limited to such an example.
  • the two points through which the first straight line passes are T1 (x1, y1, z1) and T4 (x4, y4, z4), and the two points through which the second straight line passes are T2.
  • T1 x1, y1, z1
  • T4 x4, y4, z4
  • T2 two points through which the second straight line passes
  • T3 x3, y3, z3
  • the coordinates of the intersections of the straight line connecting each of T1, T2, T3 and T4 and the origin O and the road plane are t1 ⁇ T1, t2 ⁇ T2, t3 ⁇ T3 and t4 ⁇ T4.
  • the setting unit 112 can perform calibration based on the following (Precondition 1).
  • the setting unit 112 can derive the relational expressions shown in the following (Equation 2) and (Equation 3) based on the various data acquired as described above and (Condition 1).
  • the setting unit 112 can derive the relational expression shown in the following (Formula 5) based on the various data acquired as described above and (Condition 3).
  • the setting unit 112 can derive the relational expressions shown in the following (Expression 6) and (Expression 7) based on the various data acquired as described above and (Condition 4).
  • the distance from the origin O to Q1 (xr1, yr1, zr1) on the road plane is a multiple of the distance from the origin O to Q1 ′ (xs1, f, zs1) on the captured image Img. It is a value indicating whether or not
  • the distance from the origin O to Q2 (xr2, yr2, zr2) on the road plane is a multiple of the distance from the origin O to Q2 ′ (xs2, f, zs2) on the captured image Img. It is a value indicating whether or not Therefore, the relational expression shown in the following (Formula 8) can be derived.
  • the setting unit 112 can calculate the measured value Q_dis ′ of the distance between two points (Q1 and Q2) on the road plane from the relational expression shown in (Formula 8) by the following (Formula 9).
  • the setting unit 112 can calculate R1, R2, R3, and R4 when the difference between the measured value Q_dis ′ and the known magnitude Q_dis is the smallest based on (Formula 1) to (Formula 9). .
  • the setting unit 112 can also calculate the road plane equation by another method. For example, if the distance between two parallel straight lines on the road plane is known, the road plane formula is calculated without using (Condition 2) by using the distance between the two parallel straight lines on the road plane. be able to.
  • the setting unit 112 can also calculate the traveling direction vector v (vx, vy, vz). More specifically, the setting unit 112 can calculate the traveling direction vector v by calculating the direction of at least one of two parallel straight lines on the road plane. For example, the setting unit 112 may calculate the difference between the coordinates t2 ⁇ T2 and the coordinates t3 ⁇ T3 as the traveling direction vector v, or the difference between the coordinates t1 ⁇ T1 and the coordinates t4 ⁇ T4 as the traveling direction vector v. It may be calculated.
  • the setting unit 112 can perform calibration by the method described above.
  • FIG. 7 is a first diagram for explaining an example of the function of the detection unit 114
  • FIG. 8 is a second diagram for explaining an example of the function of the detection unit 114
  • FIG. It is a 3rd figure for demonstrating the example of the function of the detection part.
  • the road divided from the first lane to the nth lane is imaged by the imaging unit 170 incorporated in the traffic estimation device 10.
  • n is not particularly limited as long as it is a natural number of 2 or more.
  • the detection unit 114 performs a vehicle detection process that passes from the first lane to the nth lane from the image captured by the image capturing unit 170.
  • Various methods can be applied to the vehicle detection process.
  • the vehicle detection process based on the background difference process will be described, but the vehicle detection process is not limited to the method based on the background difference process.
  • a reference image to be compared with the captured image captured by the imaging unit 170 is captured in advance.
  • the reference image is an image in which the vehicle is not shown in the imaging range, and can correspond to, for example, a captured image Img′-1 as illustrated in FIG.
  • the captured image Img′-1 is also referred to as a reference image Img′-1.
  • k in the kth lane is not particularly limited as long as it is a natural number satisfying 1 ⁇ k ⁇ n ⁇ 1.
  • each of the (k + 1) th lane to the nth lane is traffic. It may be a lane in which the amount cannot be measured (hereinafter also simply referred to as “non-measurable lane”).
  • each of the second lane to the nth lane may be a time that becomes a non-measurable lane (hereinafter also simply referred to as “non-measurable time”). It may be simply referred to as “measurable time”).
  • FIG. 10 is a flowchart illustrating a first example of the operation flow of the detection unit 114.
  • the first example is an example on the premise that the lane on the back side of the lane corresponding to the vehicle detected in the captured image is a non-measurable lane.
  • the detection unit 114 determines whether or not a vehicle is detected in any of the first lane to the x-1th (step S11). If the detection unit 114 determines that a vehicle has been detected in an area corresponding to any of the first lane to the (x ⁇ 1) th (“Yes” in step S11), the measurement impossible time in the xth lane is determined. (Step S18), the process proceeds to step S19.
  • the process proceeds to step S19. Subsequently, when the operation is not finished (“No” in Step S19), the detection unit 114 returns to Step S11, but when the operation is finished (“Yes” in Step S19), the operation is finished. .
  • the detector 114 can detect the non-measurable time in the x-th lane by an operation as shown in FIG. 10 as an example.
  • the detection unit 114 increases the measurement impossible time of the x-th lane by a time width corresponding to the detection cycle, and proceeds to step S19.
  • the detection unit 114 proceeds to step S19.
  • the setting unit 112 sets an area corresponding to the lowermost lane in the captured image as an area A1, and sets areas above the area A1 as areas A2 to An in order from the lower stage. That's fine.
  • the detection unit 114 uses the x-th lane as a reference and the lane that is closer to the imaging unit 170 by a predetermined number of lanes (shown in FIG. 10) than the x-1 lane. In the example, it is possible to detect the time when the vehicle is detected in the region corresponding to any of the first lane), that is, the time when the difference is occurring as the non-measurable time.
  • FIG. 11 is a flowchart showing a second example of the operation flow of the detection unit 114.
  • the second example is based on the assumption that the back lane in which the vehicle is detected is not always a non-measurable lane, and the vehicle speed detected in the x-th lane satisfies a predetermined condition.
  • this is an example of handling when the x-th lane becomes a measurement impossible lane.
  • the detection unit 114 determines whether or not a vehicle is detected in any of the first lane to the x-1th (step S11). If the detection unit 114 determines that the vehicle is detected in any of the first lane to the x ⁇ 1th (“Yes” in step S11), whether or not the vehicle is detected in the xth lane is determined. Is determined (step S12).
  • step S12 If the detection unit 114 determines that a vehicle is detected in the x-th lane (“Yes” in step S12), the speed of the vehicle detected in the x-th lane and the 1st to x ⁇ 1th lanes are detected. It is determined whether or not the vehicle speed difference detected by either of them is below a threshold value (step S13). If the detection unit 114 determines that the speed difference is less than the threshold (“Yes” in step S13), the detection unit 114 increases the non-measurable time in the x-th lane (step S18), and proceeds to step S19. .
  • the detection unit 114 determines that no vehicle is detected from the first lane to the x ⁇ 1th (“No” in step S11), and determines that no vehicle is detected in the xth lane. ("No” in step S12) If it is determined that the difference between the detected vehicle speed in the xth lane and the vehicle speed from the first lane to the (x-1) th lane is not less than the threshold value (in step S13, " No "), go to step S19. Subsequently, when the operation is not finished (“No” in Step S19), the detection unit 114 returns to Step S11, but when the operation is finished (“Yes” in Step S19), the operation is finished. .
  • the detector 114 can detect the non-measurable time in the x-th lane by an operation as shown in FIG. 11 as an example.
  • the detection unit 114 is located anywhere from a lane that is closer to the imaging unit 170 to a lane that is closer to a predetermined number of lanes with the xth lane as a reference. It is possible to detect the time when the difference between the vehicle speed of the corresponding lane and the vehicle speed detected in the x-th lane is below the threshold as the non-measurable time. Therefore, it becomes possible to detect the non-measurable time of the x-th lane with higher accuracy.
  • FIG. 12 is a flowchart showing a third example of the operation flow of the detection unit 114.
  • the third example is based on the assumption that the lane on the far side of the lane in which the vehicle is detected in the captured image is not always a non-measurable lane, and the higher the installation position of the imaging unit 170, the xth This is an example of increasing the possibility of handling a lane as a measurable lane rather than a non-measurable lane.
  • the detection unit 114 calculates the number of lanes a according to the height of the imaging unit 170 (step S10). For example, the lane number a may be smaller as the installation position of the imaging unit 170 is higher. Subsequently, the detecting unit 114 determines whether or not a vehicle is detected in any of the xa-th lane to the x-1th (step S11). When the detection unit 114 determines that the vehicle is detected in any of the xa-th lane to the x-1th (“Yes” in step S11), the measurement impossible time in the xth lane is determined. (Step S18), the process proceeds to step S19.
  • the detection unit 114 determines that the vehicle is not detected in any of the first lane to the x-1th ("No" in step S11), the process proceeds to step S19. Subsequently, when the operation is not finished (“No” in Step S19), the detection unit 114 returns to Step S11, but when the operation is finished (“Yes” in Step S19), the operation is finished. .
  • the detection unit 114 can detect the non-measurable time of the x-th lane by an operation as shown in FIG. 12 as an example.
  • the detection unit 114 may change the possibility that the x-th lane is concealed according to the height of the installation position of the imaging unit 170. It can be handled. Therefore, it is expected that the non-measurable time of the x-th lane can be detected with higher accuracy.
  • the function of the detection unit 114 has been described above.
  • the reference amount measuring unit 113 measures the traffic volume of the first lane as the reference traffic amount Q1.
  • the measurement method of the reference traffic volume Q1 is not particularly limited.
  • the reference amount measurement unit 113 has a difference portion generated in an area corresponding to the first lane between the captured image captured by the imaging unit 170 and the reference image.
  • the reference traffic volume Q1 may be measured by counting the number of passes.
  • the reference amount measuring unit 113 calculates the speed of the vehicle traveling on the first lane as the reference speed v1.
  • the calculation method of the reference speed v1 is not particularly limited, for example, the reference amount measurement unit 113 may calculate the reference speed v1 based on the speed of the difference portion generated in the area corresponding to the first lane. More specifically, the reference amount measurement unit 113 replaces the movement amount per unit time in the captured image of the difference portion generated in the region corresponding to the first lane with a three-dimensional movement amount on the road plane.
  • the reference speed v1 can be calculated.
  • the reference speed v1 may be the speed of any one vehicle, or may be the average speed of a plurality of vehicles.
  • the target amount measuring unit 115 measures the traffic volume in the measurable time of the x-th lane (2 ⁇ x ⁇ n) as the measured traffic volume Qx.
  • each of the second lane to the nth lane may be a measurement impossible time or may be a measurement possible time. Therefore, the target amount measurement unit 115 counts the number of difference points generated in the measurable time of the x-th lane in the region corresponding to the x-th lane between the captured image captured by the imaging unit 170 and the reference image. Thus, the measured traffic volume Qx may be measured.
  • the target amount measuring unit 115 calculates the speed in the measurable time of the vehicle traveling in the xth lane as the measurement speed vx.
  • the calculation method of the measurement speed vx is not particularly limited, for example, the target amount measurement unit 115 may calculate the measurement speed vx based on the speed in the measurable time of the difference portion generated in the area corresponding to the xth lane. Good. More specifically, the target amount measurement unit 115 converts the movement amount per unit time in the captured image of the difference portion generated in the region corresponding to the x-th lane into a three-dimensional movement amount on the road plane.
  • the measurement speed vx can be calculated.
  • the measured speed vx may be the speed of any one vehicle, or may be the average speed of a plurality of vehicles.
  • the estimation unit 116 Based on the non-measurable time Tx, the estimating unit 116 estimates the traffic volume at the non-measurable time Tx of the x-th lane as the estimated traffic volume Qcx. Further, the estimation unit 116 estimates the speed at the measurement impossible time Tx of the vehicle traveling in the xth lane as the estimated speed vcx.
  • the estimation method by the estimation unit 116 is not particularly limited, the first method, the second method, and the third method will be described in detail later as specific examples of the estimation method by the estimation unit 116. Note that the estimation unit 116 may perform estimation after accumulating a measurement amount of a predetermined amount or more in order to ensure estimation accuracy.
  • the integration unit 117 calculates an integrated traffic volume Qtx by integrating the measured traffic volume Qx and the estimated traffic volume Qcx.
  • the method for calculating the integrated traffic volume Qtx is not particularly limited.
  • the integration unit 117 may calculate the integrated traffic volume Qtx by adding the measured traffic volume Qx and the estimated traffic volume Qcx.
  • the integration unit 117 calculates the integrated speed vtx by integrating the measured speed vx and the estimated speed vcx.
  • the method for calculating the integrated speed vtx is not particularly limited.
  • the integration unit 117 cannot measure the x-th lane by multiplying the measurement speed vx by the measurement time (T-Tx) of the x-th lane and the estimated speed vcx.
  • the integrated speed vtx may be calculated by adding the result multiplied by the time Tx and dividing the addition result by the measurement time (time required for measuring the reference traffic volume Q1) T.
  • the output control unit 118 causes the output unit 190 to output at least one of the integrated traffic volume Qtx, the estimated traffic volume Qcx, the integrated speed vtx, and the estimated speed vcx. Further, the output control unit 118 may cause the output unit 190 to output the ratio of the estimated traffic volume Qcx to the integrated traffic volume Qtx as an estimation rate. Further, the output control unit 118 may cause the output unit 190 to output the ratio of the estimated speed vcx to the integrated speed vtx as an estimated rate. By grasping the output estimation rate, the user can know how much of the integrated data is estimated.
  • FIG. 13 is a diagram for explaining a first method of estimation by the estimation unit 116.
  • the estimation unit 116 estimates the estimated traffic volume Qcx based on the non-measurable time Tx and the reference traffic volume Q1. More specifically, as illustrated in FIG. 13, the estimation unit 116 may estimate the estimated traffic volume Qcx by multiplying the reference traffic volume Q1 by the ratio of the non-measurable time Tx to the measurement time T. .
  • the estimation unit 116 specifies the speed at the non-measurable time Tx of the vehicle traveling on the xth lane as the estimated speed vcx based on the reference speed v1 of the first lane. More specifically, as illustrated in FIG. 13, the estimation unit 116 may use the reference speed v1 of the first lane as the estimated speed vcx.
  • the first method is a case where the measurement accuracy is remarkably reduced when the ratio of the measurement impossible time Tx to the measurement time T is increased (for example, a part or all of the characteristics of the vehicle from the feature amount extracted from the captured image). The amount (for example, when the vehicle is measured when the feature amount on the front surface of the vehicle is detected) can be appropriately adopted.
  • FIG. 14 is a diagram for explaining a second method of estimation by the estimation unit 116.
  • the estimation unit 116 estimates the estimated traffic volume Qcx based on the unmeasurable time Tx and the measured traffic volume Qx. More specifically, as illustrated in FIG. 14, the estimation unit 116 may estimate the estimated traffic volume Qcx by multiplying the measured traffic volume Qx by the ratio of the non-measurable time Tx to the measurement time T. .
  • the estimation unit 116 specifies the speed at the non-measurable time Tx of the vehicle traveling in the xth lane as the estimated speed vcx based on the measured speed vx of the xth lane. More specifically, as illustrated in FIG. 14, the estimation unit 116 may use the measurement speed vx of the x-th lane as the estimated speed vcx.
  • FIG. 15 is a diagram for explaining a third method of estimation by the estimation unit 116.
  • the estimation unit 116 estimates the estimated traffic volume Qx based on the unmeasurable time Tx, the reference traffic volume Q1, the measured speed vx, and the reference speed v1. More specifically, as shown in FIG. 15, the estimation unit 116 performs estimation by multiplying the ratio of the measurement impossible time Tx to the measurement time T, the ratio of the measurement speed vx to the reference speed v1, and the reference traffic volume Q1.
  • the traffic volume Qcx may be estimated.
  • the traffic volume measurement accuracy is significantly reduced.
  • Appropriate detection of some or all of the vehicle's feature values for example, feature values at the front of the vehicle
  • measurement of the vehicle when the speed difference at the difference point falls below the threshold can be adopted.
  • the method used by the estimation unit 116 may be the same regardless of the passage of time, or may be switched as appropriate.
  • the estimation unit 116 may use the first method when the ratio of the non-measurable time to the measurement time T (Tx / T) is less than a predetermined time, and may use the second method in other cases. .
  • FIG. 16 is a diagram illustrating a functional configuration example of a traffic estimation device 10B according to the second embodiment of the present invention.
  • the traffic estimation device 10B according to the second embodiment of the present invention includes a control unit 110B, an imaging unit 170, a storage unit 180, and an output unit 190.
  • the control unit 110B has a function of controlling the entire operation of the traffic volume estimation device 10B.
  • the control unit 110B includes an image acquisition unit 111, a setting unit 112, a reference amount measurement unit 113, a detection unit 114, a target amount measurement unit 115, an estimation unit 116, an integration unit 117, and an output control unit 118. And a selection unit 119. The function of the selection unit 119 will be described later.
  • the selection unit 119 selects a model registered in advance based on the measured traffic volume of each of the plurality of lanes. Alternatively, the selection unit 119 may select a model registered in advance based on the measured traffic volume and the measured speed of each of the plurality of lanes. Based on the selected model, the estimation unit 116 estimates the traffic volume in the non-measurable time for each of the plurality of lanes as the estimated traffic volume.
  • FIG. 17 is a diagram for explaining an example of model selection by the selection unit 119.
  • models 1 to 3 are registered in advance, but the number of registered models is not particularly limited.
  • the model includes model values (traffic volume and speed) of each lane, the measured amount of the first lane includes the measured amount (reference traffic volume and reference speed), and the measured amount of the second lane. Includes the measured amount (measured traffic volume and measured speed), but may include only one of the traffic volume and the speed.
  • the number of lanes is not particularly limited as long as it is plural.
  • the model value may be a logical numerical value or a numerical value actually measured.
  • the detection unit 114 that detects the non-measurable time in which the traffic volume in the predetermined lane cannot be measured, and the traffic volume in the measurable time in the predetermined lane are calculated.
  • a traffic volume estimation apparatus 10 comprising: a target volume measuring unit 115 that measures as a measured traffic volume; and an estimation unit 116 that estimates a traffic volume in a non-measurable time of a predetermined lane as an estimated traffic volume based on the unmeasurable time.
  • the traffic estimation apparatus 10A according to the first embodiment of the present invention and the traffic estimation apparatus 10B according to the second embodiment of the present invention may be used in combination.
  • the minimum maximum residual exceeds the threshold value instead of model selection,
  • the estimation by the estimation unit 116 of the traffic volume estimation device 10A according to the first embodiment of the present invention may be performed.
  • Each block configuring the control unit 110 includes, for example, a CPU (Central Processing Unit), a RAM (Random Access Memory), and the program stored in the storage unit 180 is expanded and executed by the CPU.
  • a CPU Central Processing Unit
  • RAM Random Access Memory
  • the function can be realized.
  • each block which comprises the control part 110 may be comprised by the hardware for exclusive use, and may be comprised by the combination of several hardware.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】単眼カメラによって撮像された撮像画像に基づいて交通量を計測する場合において、手前側の車両に奥側の車両が隠蔽されてしまう可能性のある時間における交通量を推定する技術を提供する。 【解決手段】所定レーンの交通量を計測することが不可能な計測不能時間を検出する検出部114と、所定レーンの計測可能時間における交通量を計測交通量として計測する対象量計測部115と、計測不能時間に基づいて、所定レーンの計測不能時間における交通量を推定交通量として推定する推定部116と、を備える、交通量推定装置10が提供される。

Description

交通量推定装置および交通量推定方法
 本発明は、交通量推定装置および交通量推定方法に関するものである。
 近年、単眼カメラによって撮像された撮像画像から交通量を計測する技術が開発されている。かかる技術においては、手前側の物体によって奥側の物体が隠蔽されてしまう状況(以下、「オクルージョン」とも言う。)が生じる可能性がある。このオクルージョンは交通量計測の支障となり得るため、例えば、カメラの設置位置を高くすることによってオクルージョンが生じる可能性を低減させることが考えられる。しかし、カメラの設置に掛かるコストや設置したカメラのメンテナンスに掛かるコストなどが向上してしまう可能性があるため、交通量計測の精度を高めるための他の技術が求められている。
 例えば、基準画像とカメラによって撮像された撮像画像との間における輝度値変化領域を検出し、移動物体存在領域に対する輝度値変化領域の占める割合を空間占有率として算出して、空間占有率に基づいて交通渋滞状況を判定する技術が開示されている(例えば、特許文献1参照)。かかる技術によれば、オクルージョンが連続的に発生し、車両が個別に認識できない状況下であっても、交通渋滞状況を精度よく判定することが可能である。
 また、撮像画像に複数のサンプル点を設定し、車両が存在していると推測されるサンプル点を存在サンプル点として検出し、移動中の車両が存在していると推測されるサンプル点を移動サンプル点として検出する技術が開示されている(例えば、特許文献2参照)。かかる技術では、所定の割合以上の移動サンプル点を含むブロックを移動ブロックとして検出し、移動ブロックから外れた存在サンプル点を渋滞サンプル点として検出し、所定の割合以上の渋滞サンプル点を含むブロックを渋滞ブロックとして検出する。かかる技術によれば、渋滞ブロックに基づいて交通渋滞状況を精度よく判定することが可能である。
特開2002-367077号公報 特許第3834826号
 しかし、上記特許文献1および特許文献2に記載された技術においては、車両の一部が撮像画像に映っている場合にしか、その車両の存在を考慮することができないため、交通量を精度よく計測できない場合が生じ得る。したがって、例えば、奥側の車両が手前側の車両に完全に隠蔽されてしまうような状況が生じた場合には、交通量の計測精度を向上させることが困難となり得る。
 そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、単眼カメラによって撮像された撮像画像に基づいて交通量を計測する場合において、手前側の車両に奥側の車両が隠蔽されてしまう可能性のある時間における交通量を推定する技術を提供することにある。
 上記問題を解決するために、本発明のある観点によれば、所定レーンの交通量を計測することが不可能な計測不能時間を検出する検出部と、前記所定レーンの計測可能時間における交通量を計測交通量として計測する対象量計測部と、前記計測不能時間に基づいて、前記所定レーンの前記計測不能時間における交通量を推定交通量として推定する推定部と、を備える、交通量推定装置が提供される。
 前記交通量推定装置は、撮像部に最も近いレーンの交通量を基準交通量として計測する基準量計測部をさらに備え、前記推定部は、前記計測不能時間と前記基準交通量とに基づいて、前記推定交通量を推定してもよい。
 前記推定部は、前記基準交通量の計測に要した時間に対する前記計測不能時間の割合を、前記基準交通量に対して乗じることにより、前記推定交通量を推定してもよい。
 前記基準量計測部は、前記撮像部に最も近いレーンに対応する領域に検出された車両の速度に基づいて、当該レーンを走行する車両の速度を基準速度として算出し、前記推定部は、前記基準速度に基づいて、前記所定レーンを走行する車両の計測不能時間における速度を推定速度として特定してもよい。
 前記推定部は、前記計測不能時間と前記計測交通量とに基づいて、前記推定交通量を推定してもよい。
 前記推定部は、前記計測交通量の計測に要した時間に対する前記計測不能時間の割合を、前記計測交通量に対して乗じることにより、前記推定交通量を推定してもよい。
 前記対象量計測部は、前記所定レーンに対応する領域に生じた検出された車両の計測可能時間における速度に基づいて、前記所定レーンを走行する車両の計測可能時間における速度を計測速度として算出し、前記推定部は、前記計測速度に基づいて、前記所定レーンを走行する車両の計測不能時間における速度を推定速度として特定してもよい。
 前記交通量推定装置は、撮像部に最も近いレーンの交通量を基準交通量として計測する基準量計測部を備え、前記対象量計測部は、前記所定レーンに対応する領域に生じた検出された車両の計測可能時間における速度に基づいて、前記所定レーンを走行する車両の計測可能時間における速度を計測速度として算出し、前記基準量計測部は、前記撮像部に最も近いレーンに対応する領域に検出された車両の速度に基づいて、当該レーンを走行する車両の速度を基準速度として算出し、前記推定部は、前記計測不能時間と前記基準交通量と前記計測速度と前記基準速度とに基づいて、前記推定交通量を推定してもよい。
 前記推定部は、前記基準交通量の計測に要した時間に対する前記計測不能時間の割合と前記基準速度に対する前記計測速度の割合と前記基準交通量とを乗じることにより、前記推定交通量を推定してもよい。
 前記交通量推定装置は、前記計測交通量と前記推定交通量とを統合することにより統合交通量を算出する統合部を備えてもよい。
 前記交通量推定装置は、前記統合交通量に対する前記推定交通量の割合を推定率として出力させる出力制御部を備えてもよい。
 前記交通量推定装置は、複数のレーンそれぞれの計測交通量に基づいて、あらかじめ登録されているモデルを選択する選択部を備え、前記推定部は、前記モデルに基づいて前記複数のレーンそれぞれの計測不能時間における交通量を推定交通量として推定してもよい。
 前記対象量計測部は、撮像部によって撮像された撮像画像において前記所定レーンに対応する領域に前記所定レーンの計測可能時間に生じた検出された車両の数をカウントすることによって前記計測交通量を計測してもよい。
 前記検出部は、撮像部によって撮像された撮像画像において前記所定レーンを基準として前記撮像部に1つ近づいたレーンから所定のレーン数だけ近づいたレーンまでのいずれかに対応する領域に検出された車両が生じている時間を前記計測不能時間として検出してもよい。
 前記検出部は、前記所定レーンを基準として撮像部に1つ近づいたレーンから所定のレーン数だけ近づいたレーンまでのいずれかに対応する領域に生じた検出された車両と前記所定レーンに対応する領域に生じた検出された車両との速度差が閾値を下回る時間を前記計測不能時間として検出してもよい。
 前記検出部は、前記撮像部の高さに基づいて、前記所定のレーン数を算出してもよい。
 また、本発明のある観点によれば、所定レーンの交通量を計測することが不可能な計測不能時間を検出するステップと、前記所定レーンの計測可能時間における交通量を計測交通量として計測するステップと、前記計測不能時間に基づいて、前記所定レーンの前記計測不能時間における交通量を推定交通量として推定するステップと、を含む、交通量推定方法が提供される。
 以上説明したように本発明によれば、単眼カメラによって撮像された撮像画像に基づいて交通量を計測する場合において、手前側の車両に奥側の車両が隠蔽されてしまう可能性のある時間における交通量を推定することが可能である。
本発明の実施形態の目的を説明するための第1の図である。 本発明の実施形態の目的を説明するための第2の図である。 本発明の実施形態の概要を説明するための図である。 本発明の第1の実施形態に係る交通量推定装置の機能構成例を示す図である。 設定部により使用されるパラメータの例を示す図である。 設定部の機能の例を説明するための図である。 検出部の機能の例を説明するための第1の図である。 検出部の機能の例を説明するための第2の図である。 検出部の機能の例を説明するための第3の図である。 検出部の動作の流れの第1の例を示すフローチャートである。 検出部の動作の流れの第2の例を示すフローチャートである。 検出部の動作の流れの第3の例を示すフローチャートである。 推定部による推定の第1の方式を説明するための図である。 推定部による推定の第2の方式を説明するための図である。 推定部による推定の第3の方式を説明するための図である。 本発明の第2の実施形態に係る交通量推定装置の機能構成例を示す図である。 選択部によるモデル選択の例を説明するための図である。
 以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットまたは数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 [目的の説明]
 まず、本発明の実施形態の目的の例を説明する。図1は、本発明の実施形態の目的を説明するための第1の図である。図1を参照すると、道路には、第1レーン、第2レーンおよび第3レーンが存在している。ここで、図1に示したように撮像部Cが設置されている場合、撮像部Cによって撮像される撮像画像には車両が映るが、撮像部Cが単眼カメラである場合などには、その車両の奥行方向の位置が不明であることが一般的である。そのため、撮像画像に映る車両が、第1レーンを走行する車両M1であるのか、第2レーンを走行する車両M2であるのか、第3レーンを走行する車両M3であるのかを把握することが困難であり、レーン毎の交通量の計測精度を向上させることが困難である。また、撮像画像に映る車両の奥行方向の位置を特定することが困難であるため、車両速度の計測精度を向上させることが困難である。
 本実施形態においては、3次元的な道路平面式を算出することが可能であるため、算出した3次元的な道路平面式を用いて、撮像画像に映る車両の奥行方向の位置を特定することが可能となる。したがって、本発明の実施形態の目的の1つは、単眼カメラによって撮像された撮像画像に基づいて交通量および車両速度を計測する場合において、レーン毎の交通量の計測精度や、車両速度の計測精度を向上させることである。
 また、図2は、本発明の実施形態の目的を説明するための第2の図である。図2を参照すると、道路には、第1レーン、第2レーンおよび第3レーンが存在している。ここで、図2に示したように撮像画像が撮像された場合、撮像画像には第1レーンを走行する車両M4が映っているが、第2レーンを走行する車両M5と第3レーンを走行する車両M6とは、車両M4に隠蔽されてしまい、撮像画像には映っていない。そのため、撮像画像に映っている車両を計測対象とするだけでは、交通量や車両速度の計測精度を向上させることが困難である。
 本発明の実施形態の目的の他の1つは、単眼カメラによって撮像された撮像画像に基づいて交通量を計測する場合において、手前側の車両に奥側の車両が隠蔽されてしまう可能性のある時間における交通量および車両速度を推定することである。
 以上、本発明の実施形態の目的の例を説明した。
 [概要の説明]
 続いて、本発明の実施形態の概要を説明する。図3は、本発明の実施形態の概要を説明するための図である。図3を参照しながら、本発明の実施形態の概要について説明する。なお、本発明の実施形態の概要は、以下に説明する本発明の第1の実施形態および第2の実施形態の前提となる。
 図3に示すように、撮像部が組み込まれた交通量推定装置10および道路平面が実空間に存在する。また、撮像部が組み込まれた交通量推定装置10は、撮像方向が道路平面に向けられた状態で設置されている。交通量推定装置10により撮像された撮像画像Img’には道路に設けられたレーンの境界線が映っている。また、図3に示すように、交通量推定装置10のレンズの中心が原点Oに設定されている。
 図3には、交通量推定装置10に撮像部が組み込まれている例が示されているが、撮像部は交通量推定装置10に組み込まれておらず交通量推定装置10の外部に設置されていてもよい。かかる場合、例えば、交通量推定装置10は、撮像部から送信された撮像画像Img’を受信することにより撮像画像Img’を取得してもよい。また、例えば、交通量推定装置10は、撮像部により記録媒体に記録された撮像画像Img’を読み込むことにより撮像画像Img’を取得してもよい。
 以下に説明するように、本発明の第1の実施形態および第2の実施形態においては、交通量推定装置10により撮像画像Img’からレーン毎の交通量および車両速度が計測される。また、これらの実施形態においては、交通量推定装置10が撮像部によって撮像された撮像画像に基づいて交通量を計測する場合において、手前側の車両に奥側の車両が隠蔽されてしまう可能性のある時間における交通量および車両速度を推定することが可能である。
 以上、本発明の実施形態の概要を説明した。
 [第1の実施形態]
 続いて、本発明の第1の実施形態について説明する。まず、本発明の第1の実施形態に係る交通量推定装置10Aの機能構成について説明する。図4は、本発明の第1の実施形態に係る交通量推定装置10Aの機能構成例を示す図である。図4に示すように、本発明の第1の実施形態に係る交通量推定装置10Aは、制御部110A、撮像部170、記憶部180および出力部190を備える。
 制御部110Aは、交通量推定装置10Aの動作全体を制御する機能を有する。撮像部170は、実空間を撮像することにより撮像画像を取得する機能を有し、例えば、単眼カメラにより構成される。記憶部180は、制御部110Aを動作させるためのプログラムやデータを記憶することができる。また、記憶部180は、制御部110Aの動作の過程で必要となる各種データを一時的に記憶することもできる。出力部190は、制御部110Aによる制御に従って出力を行う機能を有する。出力部190の種類は特に限定されず、表示装置であってもよいし、音声出力装置であってもよい。
 なお、図4に示した例では、撮像部170、記憶部180および出力部190は、交通量推定装置10Aの内部に存在するが、撮像部170、記憶部180および出力部190の全部または一部は、交通量推定装置10Aの外部に備えられていてもよい。また、制御部110Aは、画像取得部111と、設定部112と、基準量計測部113と、検出部114と、対象量計測部115と、推定部116と、統合部117と、出力制御部118とを備える。制御部110Aが備えるこれらの各機能部の機能については、後に説明する。
 以上、本発明の第1の実施形態に係る交通量推定装置10Aの機能構成例について説明した。
 まず、本発明の第1の実施形態に係る交通量推定装置10Aによりキャリブレーションが行われ得る。より詳細には、道路の平面式(以下、「道路平面式」とも言う)を算出する処理と車両の進行方向とを算出する処理とがキャリブレーションとして行われ得る。以下では、図5および図6を参照しながら、設定部112により行われるキャリブレーションについて説明する。
 図5は、設定部112により使用されるパラメータを示す図である。設定部112は、まず、撮像部170を構成する撮像素子のサイズと制御部110に提供される撮像画像Img’のサイズとに基づいて、撮像素子の単位pixel当たりの撮像画像Img’のサイズpix_dotをパラメータとして算出する。撮像画像Img’は、原点Oから焦点距離だけ離れた撮像素子の撮像面上に撮像された撮像画像Imgに基づいて生成される。また、制御部110に提供された撮像画像Img’は、画像取得部111によって取得されて設定部112によって利用され得る。
 図5に示すように、ここでは、撮像素子がCCD(Charge Coupled Device)である場合を例として説明するが、CCDは撮像素子の一例に過ぎない。したがって、撮像素子はCMOS(Complementary Metal Oxide Semiconductor)等であってもよい。
 ここで、CCDサイズをccd_sizeとし、撮像画像Img’(横:width×縦:height)のサイズをimg_sizeとすると、設定部112は、以下の(数式1)によりpix_dotを算出することができる。一般的に、CCDサイズは、CCDの対角線の長さで表されるため、この(数式1)に示されるように、CCDサイズが撮像画像Img’の縦横の2乗和の平方根で除されることにより算出される。しかし、このような手法によるパラメータpix_dotの算出は一例に過ぎないため、他の手法によりパラメータpix_dotが算出されてもよい。例えば、CCDの対角線の代わりにCCDの縦または横の長さが用いられてもよい。
Figure JPOXMLDOC01-appb-M000001
 なお、CCDサイズは、例えば、撮像部170から容易に取得される。また、撮像画像Img’のサイズは、例えば、記憶部180から取得される。したがって、制御部110は、これらのサイズに基づいて、CCDの撮像面に撮像される撮像画像Imgの実空間における3次元座標と制御部110に提供される撮像画像Img’の2次元座標との対応関係を把握することができる。すなわち、制御部110は、この対応関係に基づいて、制御部110に提供される撮像画像Img’の2次元座標からCCDの撮像面に撮像される撮像画像Imgの実空間における3次元座標を把握することができる。
 このように算出されたパラメータを用いてキャリブレーションが行われ得る。以下、図6を参照しながら、設定部112によりパラメータを用いて行われるキャリブレーションについて説明する。
 図6は、設定部112の機能を説明するための図である。図6に示したように、原点Oを基準としたxyz座標系(実空間)を想定する。このxyz座標系において、道路平面式をR1x+R2x+R3z+R4=0とする。また、車両の進行方向を示すベクトルである進行方向ベクトルvを(vx,vy,vz)とする。なお、以下の説明では、図6に示したように、原点Oから焦点距離fだけ離れた点(焦点)をy軸上に設定し、この焦点を通りy軸に垂直な平面を撮像面とし、この撮像面上に撮像画像Imgが撮像されるものとして説明を続けるが、各座標軸の設定はこのような例に限定されない。
 道路平面上には、平行な2直線があらかじめ描かれている。したがって、撮像画像Imgには、この平行な2直線が映されている。また、道路平面上には、既知の大きさQ_dis離れた2点Q1,Q2があらかじめ描かれている。撮像画像Imgには、2点Q1,Q2が、Q1’(xs1,f,zs1),Q2’(xs2,f,zs2)として映される。なお、図6に示した例では、Q1,Q2が道路平面上の平行な2直線の各々上の点として描かれているが、Q1,Q2は、道路平面上の点であれば、特に限定されない。
 また、撮像画像Imgに映る2直線のうち、第1の直線が通る2点をT1(x1,y1,z1)およびT4(x4,y4,z4)とし、第2の直線が通る2点をT2(x2,y2,z2)およびT3(x3,y3,z3)とする。すると、図6に示すように、T1、T2、T3およびT4の各々と原点Oとを結ぶ直線と道路平面との交点の座標は、t1・T1、t2・T2、t3・T3およびt4・T4と表される。設定部112は、例えば、以下に示す(前提条件1)に基づいて、キャリブレーションを行うことができる。
(前提条件1)
 (条件1)道路平面上の平行な2直線の方向ベクトルは同じである。
 (条件2)撮像部170のロールは0である。
 (条件3)原点Oから道路平面までの距離を高さHとする。
 (条件4)道路平面上にQ_dis離れたQ1およびQ2が存在する。
 なお、上記ロールが0であるとは、道路平面に対して垂直な方向に設置されている物体が撮像画像Img上においても縦方向に映るように撮像部170が設置されている状態を意味する。
 設定部112は、以上に示したように取得される各種データと(条件1)とに基づいて、以下の(数式2)および(数式3)に示される関係式を導き出すことができる。
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
 また、設定部112は、以上に示したように取得される各種データと(条件2)とに基づいて、以下の(数式4)に示される関係式を導き出すことができる。なお、ロールが0の状態であれば、道路平面式と平行な軸方向(図6に示した例では、x軸方向)への道路平面に対する垂線の成分が0になるため、計算式が簡略化される(例えば、x軸方向への垂線の成分が0であれば、R1=0として計算できる)。
Figure JPOXMLDOC01-appb-M000004
 また、設定部112は、以上に示したように取得される各種データと(条件3)とに基づいて、以下の(数式5)に示される関係式を導き出すことができる。
Figure JPOXMLDOC01-appb-M000005
 また、設定部112は、以上に示したように取得される各種データと(条件4)とに基づいて、以下の(数式6)および(数式7)に示される関係式を導き出すことができる。
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
 ここで、K1は、原点Oから道路平面上のQ1(xr1,yr1,zr1)までの距離が原点Oから撮像画像Img上のQ1’(xs1,f,zs1)までの距離の何倍になっているかを示す値である。同様に、K2は、原点Oから道路平面上のQ2(xr2,yr2,zr2)までの距離が原点Oから撮像画像Img上のQ2’(xs2,f,zs2)までの距離の何倍になっているかを示す値である。したがって、以下の(数式8)に示される関係式を導き出すことができる。
Figure JPOXMLDOC01-appb-M000008
 設定部112は、(数式8)に示される関係式から、道路平面上の2点(Q1およびQ2)の距離の測定値Q_dis’を、以下の(数式9)により算出することができる。
Figure JPOXMLDOC01-appb-M000009
 設定部112は、測定値Q_dis’と既知の大きさQ_disとの差分が最も小さくなる場合におけるR1、R2、R3およびR4を、(数式1)~(数式9)に基づいて算出することができる。このようにR1、R2、R3およびR4が算出されることにより、道路平面式R1x+R2x+R3z+R4=0が決定される。
 以上に説明したような道路平面式の算出手法は、一例に過ぎない。したがって、設定部112は、他の手法により道路平面式を算出することも可能である。例えば、道路平面上の平行な2直線間の距離が既知であれば、この道路平面上の平行な2直線間の距離を用いることにより、(条件2)を使用しないで道路平面式を算出することができる。
 また、設定部112は、進行方向ベクトルv(vx,vy,vz)を算出することもできる。より詳細には、設定部112は、道路平面上の平行な2直線のうちの少なくともいずれか一方の直線の方向を算出することにより、進行方向ベクトルvを算出することができる。例えば、設定部112は、座標t2・T2と座標t3・T3との差分を進行方向ベクトルvとして算出してもよいし、座標t1・T1と座標t4・T4との差分を進行方向ベクトルvとして算出してもよい。
 以上に説明したような手法により、設定部112は、キャリブレーションを行うことができる。このようなキャリブレーションにより算出された道路平面式R1x+R2x+R3z+R4=0および進行方向ベクトルv(vx,vy,vz)を交通量および車両速度の推定のために利用することができる。
 以上、設定部112により行われるキャリブレーションについて説明した。
 続いて、図7~図9を参照しながら、検出部114の機能について説明する。図7は、検出部114の機能の例を説明するための第1の図であり、図8は、検出部114の機能の例を説明するための第2の図であり、図9は、検出部114の機能の例を説明するための第3の図である。図7~図9に示すように、第1レーンから第nレーンまでに分割された道路が、交通量推定装置10に組み込まれた撮像部170によって撮像されている。nは2以上の自然数であれば特に限定されない。
 検出部114では撮像部170によって撮像された撮像から第1レーンから第nレーンを通過する車両検出処理が行われる。車両検出処理は様々な手法が適用可能である。以下では背景差分処理に基づく車両検出処理について説明するが、車両検出処理は背景差分処理に基づく手法に限定されるものではない。
 背景差分処理に基づく車両検出処理では、撮像部170によって撮像された撮像画像と比較される基準画像があらかじめ撮像されている。基準画像は、撮像範囲に車両が映っていない画像であり、例えば、図7に示したような撮像画像Img’-1に相当し得る。以下では、撮像画像Img’-1を基準画像Img’-1とも言う。また、以下において、第kレーンにおけるkは、1≦k≦n-1を満たす自然数であれば特に限定されない。
 次に、図8を参照すると、図7に示した状態から時間が経過して撮像範囲に車両Mkが突入したため、撮像画像Img’-2には車両Mkが映っている。すなわち、撮像画像Img’-2と基準画像Img’-1との間において差分箇所が生じることで車両が検出されたと見なされる。このとき、第kレーンよりも奥側である第k+1レーンから第nレーンまでのそれぞれは、車両Mkに隠蔽されてしまう状況が生じ得るため、第k+1レーンから第nレーンまでのそれぞれは、交通量の計測を行うことが不可能なレーン(以下、単に「計測不能レーン」とも言う。)となり得る。
 次に、図9を参照すると、図8に示した状態から時間が経過して撮像範囲から車両Mkが脱出したため、撮像画像Img’-3には車両Mkが映っておらず車両は検出されない。すなわち、撮像画像Img’-2と基準画像Img’-1との間において差分箇所が生じていない。このとき、第kレーンを走行する車両Mkに隠蔽されてしまうレーンは存在しないため、第1レーンから第nレーンまでのそれぞれは、交通量の計測を行うことが可能なレーン(以下、単に「計測可能レーン」とも言う。)となり得る。
 以上に説明したようにして、計測不能レーンおよび計測可能レーンを考えた場合、最も手前側に位置する第1レーンは、車両によって遮蔽されてしまうことがないため、常時、計測可能レーンとなり得る。一方、第2レーンから第nレーンまでのそれぞれは、計測不能レーンとなる時間(以下、単に「計測不能時間」とも言う。)になる場合もあり得れば、計測可能レーンとなる時間(以下、単に「計測可能時間」とも言う。)になる場合もあり得る。
 以下、第2レーンから第nレーンまでのそれぞれにおける計測不能時間および計測可能時間の検出手法についてさらに詳細に説明する。なお、以下において、第xレーン(所定レーン)におけるxは、2≦x≦nを満たす自然数であれば特に限定されない。図10は、検出部114の動作の流れの第1の例を示すフローチャートである。第1の例は、撮像画像において検出された車両に対応するレーンの奥側のレーンは、計測不能レーンとなることを前提とした例である。
 図10に示したように、検出部114は、第1レーンから第x-1までのいずれかで車両が検出されたか否かを判定する(ステップS11)。そして、検出部114は、第1レーンから第x-1までのいずれかに対応する領域に車両が検出されたと判定した場合には(ステップS11で「Yes」)、第xレーンの計測不能時間を増加して(ステップS18)、ステップS19に進む。
 一方、検出部114は、第1レーンから第x-1までのいずれかに対応する領域に車両が検出されていないと判定した場合には(ステップS11で「No」)、ステップS19に進む。続いて、検出部114は、動作を終了しない場合には(ステップS19で「No」)、ステップS11に戻るが、動作を終了する場合には(ステップS19で「Yes」)、動作を終了する。検出部114は、一例として図10に示したような動作により、第xレーンの計測不能時間を検出することが可能である。
 具体的な例で考えると、図8に示した例においては、第kレーンに対応する領域Akに差分箇所が生じていることで車両が検出されているとみなされる。したがって、検出部114は、x≧k+1を満たす場合には、第xレーンの計測不能時間を検出周期に相当する時間幅だけ増加して、ステップS19に進む。一方、検出部114は、x≦kを満たす場合には、ステップS19に進む。なお、例えば、設定部112は、撮像画像において最下段に映っているレーンに対応する領域を領域A1として設定し、領域A1よりも上の各領域を下段から順に、領域A2~Anとして設定すればよい。
 図10を参照しながら説明したように、検出部114は、第xレーンを基準として撮像部170に1つ近づいた第x-1レーンから所定のレーン数だけ近づいたレーン(図10に示した例では、第1レーン)までのいずれかに対応する領域に車両が検出される、すなわち差分箇所が生じている時間を計測不能時間として検出することが可能である。
 図11は、検出部114の動作の流れの第2の例を示すフローチャートである。第2の例は、車両が検出された奥側のレーンが常に計測不能レーンとなるとは限らないことを前提とした上で、第xレーンにおいて検出された車両の速度が所定の条件を満たす場合に、第xレーンが計測不能レーンになると取り扱う例である。
 図11に示したように、検出部114は、第1レーンから第x-1までのいずれかで車両が検出されているか否かを判定する(ステップS11)。そして、検出部114は、第1レーンから第x-1までのいずれかで車両が検出されたと判定した場合には(ステップS11で「Yes」)、第xレーンで車両が検出されたか否かを判定する(ステップS12)。
 そして、検出部114は、第xレーンで車両が検出されたと判定した場合には(ステップS12で「Yes」)、第xレーンで検出された車両の速度と1レーンから第x-1までのいずれかで検出された車両の速度差が閾値を下回っているか否かを判定する(ステップS13)。検出部114は、前記速度差が閾値を下回っていると判定した場合には(ステップS13で「Yes」」)、第xレーンの計測不能時間を増加して(ステップS18)、ステップS19に進む。
 一方、検出部114は、第1レーンから第x-1まで車両が検出されていないと判定した場合(ステップS11で「No」)と、第xレーンで車両が検出されていないと判定した場合(ステップS12で「No」)と、第xレーンの検出車両の速度と第1レーンから第x-1まで車両の速度の差が閾値を下回っていないと判定した場合には(ステップS13で「No」)、ステップS19に進む。続いて、検出部114は、動作を終了しない場合には(ステップS19で「No」)、ステップS11に戻るが、動作を終了する場合には(ステップS19で「Yes」)、動作を終了する。検出部114は、一例として図11に示したような動作により、第xレーンの計測不能時間を検出することが可能である。
 検出部114の動作の流れの第2の例によれば、検出部114は、第xレーンを基準として撮像部170に1つ近づいたレーンから所定のレーン数だけ近づいたレーンまでのいずれかに対応するレーンの車両速度と第xレーンで検出された車両速度の差が、閾値を下回る時間を計測不能時間として検出することが可能である。したがって、第xレーンの計測不能時間をより高精度に検出することが可能となる。
 図12は、検出部114の動作の流れの第3の例を示すフローチャートである。第3の例は、撮像画像において車両が検出されたレーンの奥側のレーンが常に計測不能レーンとなるとは限らないことを前提とした上で、撮像部170の設置位置が高くなるほど、第xレーンを計測不能レーンではなく計測可能レーンとして取り扱う可能性を高める例である。
 図12に示したように、検出部114は、撮像部170の高さに応じたレーン数aを算出する(ステップS10)。例えば、レーン数aは、撮像部170の設置位置が高くなるほど小さくなってよい。続いて、検出部114は、第x-aレーンから第x-1までのいずれかに車両が検出されているか否かを判定する(ステップS11)。そして、検出部114は、第x-aレーンから第x-1までのいずれかに車両が検出されていると判定した場合には(ステップS11で「Yes」)、第xレーンの計測不能時間を増加して(ステップS18)、ステップS19に進む。
 一方、検出部114は、第1レーンから第x-1までのいずれかに車両が検出されていないと判定した場合(ステップS11で「No」)ステップS19に進む。続いて、検出部114は、動作を終了しない場合には(ステップS19で「No」)、ステップS11に戻るが、動作を終了する場合には(ステップS19で「Yes」)、動作を終了する。検出部114は、一例として図12に示したような動作により、第xレーンの計測不能時間を検出することが可能である。
 検出部114の動作の流れの第3の例によれば、検出部114は、撮像部170の設置位置の高さに応じて、第xレーンが隠蔽されてしまう可能性が変化し得るものと取り扱うことができる。したがって、第xレーンの計測不能時間をより高精度に検出することが可能となることが期待される。
 以上、検出部114の機能について説明した。
 続いて、基準量計測部113および対象量計測部115について説明する。上記したように、撮像部170に最も近い第1レーンは、車両によって遮蔽されてしまうことがないため、常時、計測可能レーンとなり得る。そこで、基準量計測部113は、第1レーンの交通量を基準交通量Q1として計測する。基準交通量Q1の計測手法は特に限定されないが、例えば、基準量計測部113は、撮像部170によって撮像された撮像画像と基準画像との間において第1レーンに対応する領域に生じた差分箇所の通過数をカウントすることによって基準交通量Q1を計測すればよい。
 また、基準量計測部113は、第1レーンを走行する車両の速度を基準速度v1として算出する。基準速度v1の算出手法は特に限定されないが、例えば、基準量計測部113は、第1レーンに対応する領域に生じた差分箇所の速度に基づいて、基準速度v1を算出すればよい。より詳細には、基準量計測部113は、第1レーンに対応する領域に生じた差分箇所の撮像画像における単位時間当たりの移動量を、道路平面における3次元的な移動量に置き換えることによって、基準速度v1を算出することができる。基準速度v1はいずれか1台の車両の速度であってもよいし、複数の車両の平均速度であってもよい。
 対象量計測部115は、第xレーン(2≦x≦n)の計測可能時間における交通量を計測交通量Qxとして計測する。ここで、上記したように、第2レーンから第nレーンまでのそれぞれは、計測不能時間になる場合もあり得れば、計測可能時間になる場合もあり得る。そこで、対象量計測部115は、撮像部170によって撮像された撮像画像と基準画像との間において第xレーンに対応する領域に第xレーンの計測可能時間に生じた差分箇所の数をカウントすることによって計測交通量Qxを計測すればよい。
 また、対象量計測部115は、第xレーンを走行する車両の計測可能時間における速度を計測速度vxとして算出する。計測速度vxの算出手法は特に限定されないが、例えば、対象量計測部115は、第xレーンに対応する領域に生じた差分箇所の計測可能時間における速度に基づいて、計測速度vxを算出すればよい。より詳細には、対象量計測部115は、第xレーンに対応する領域に生じた差分箇所の撮像画像における単位時間当たりの移動量を、道路平面における3次元的な移動量に変換することによって、計測速度vxを算出することができる。計測速度vxはいずれか1台の車両の速度であってもよいし、複数の車両の平均速度であってもよい。
 続いて、推定部116、統合部117および出力制御部118それぞれの機能について説明する。推定部116は、計測不能時間Txに基づいて、第xレーンの計測不能時間Txにおける交通量を推定交通量Qcxとして推定する。また、推定部116は、第xレーンを走行する車両の計測不能時間Txにおける速度を推定速度vcxとして推定する。推定部116による推定方式は特に限定されないが、推定部116による推定方式の具体例として、第1の方式、第2の方式および第3の方式を後に詳細に説明する。なお、推定部116は、推定精度を確保するため、所定量以上の計測量が蓄積してから推定を行うようにしてもよい。
 統合部117は、計測交通量Qxと推定交通量Qcxとを統合することにより統合交通量Qtxを算出する。統合交通量Qtxの算出手法は特に限定されないが、例えば、統合部117は、計測交通量Qxと推定交通量Qcxとを加算することによって統合交通量Qtxを算出すればよい。
 また、統合部117は、計測速度vxと推定速度vcxとを統合することにより統合速度vtxを算出する。統合速度vtxの算出手法は特に限定されないが、例えば、統合部117は、計測速度vxに第xレーンの計測可能時間(T-Tx)を乗じた結果と推定速度vcxに第xレーンの計測不能時間Txを乗じた結果とを加算し、加算結果を計測時間(基準交通量Q1の計測に要した時間)Tによって除することによって統合速度vtxを算出すればよい。
 出力制御部118は、統合交通量Qtx、推定交通量Qcx、統合速度vtxおよび推定速度vcxの少なくともいずれかを出力部190に出力させる。また、出力制御部118は、統合交通量Qtxに対する推定交通量Qcxの割合を推定率として出力部190に出力させてもよい。また、出力制御部118は、統合速度vtxに対する推定速度vcxの割合を推定率として出力部190に出力させてもよい。ユーザは、出力された推定率を把握することによって、統合されたデータのうち、どの程度が推定されたデータであるのかを知ることが可能となる。
 まず、推定部116による推定の第1の方式を説明する。図13は、推定部116による推定の第1の方式を説明するための図である。第1の方式では、推定部116は、計測不能時間Txと基準交通量Q1とに基づいて、推定交通量Qcxを推定する。より詳細には、図13に示したように、推定部116は、計測時間Tに対する計測不能時間Txの割合を、基準交通量Q1に対して乗じることにより、推定交通量Qcxを推定すればよい。
 また、推定部116は、第1レーンの基準速度v1に基づいて、第xレーンを走行する車両の計測不能時間Txにおける速度を推定速度vcxとして特定する。より詳細には、図13に示すように、推定部116は、推定速度vcxとして第1レーンの基準速度v1を用いればよい。なお、第1の方式は、計測時間Tに対する計測不能時間Txの割合が大きくなると計測精度が著しく低下するような場合(例えば、撮像画像から抽出された特徴量から車両の一部または全部の特徴量(例えば、車両前面の特徴量)を検出したときに車両を計測する場合など)に適切に採用され得る。
 続いて、推定部116による推定の第2の方式を説明する。図14は、推定部116による推定の第2の方式を説明するための図である。第2の方式では、推定部116は、計測不能時間Txと計測交通量Qxとに基づいて、推定交通量Qcxを推定する。より詳細には、図14に示したように、推定部116は、計測時間Tに対する計測不能時間Txの割合を、計測交通量Qxに対して乗じることにより、推定交通量Qcxを推定すればよい。
 また、推定部116は、第xレーンの計測速度vxに基づいて、第xレーンを走行する車両の計測不能時間Txにおける速度を推定速度vcxとして特定する。より詳細には、図14に示すように、推定部116は、推定速度vcxとして第xレーンの計測速度vxを用いればよい。
 続いて、推定部116による推定の第3の方式を説明する。図15は、推定部116による推定の第3の方式を説明するための図である。第3の方式では、推定部116は、計測不能時間Txと基準交通量Q1と計測速度vxと基準速度v1とに基づいて、推定交通量Qxを推定する。より詳細には、図15に示したように、推定部116は、計測時間Tに対する計測不能時間Txの割合と基準速度v1に対する計測速度vxの割合と基準交通量Q1とを乗じることにより、推定交通量Qcxを推定すればよい。
 なお、第3の方式は、計測時間Tに対する計測不能時間Txの割合が大きくなると交通量の計測精度が著しく低下するが、速度については計測精度の低下が小さい場合に(例えば、撮像画像から抽出された特徴量から車両の一部または全部の特徴量(例えば、車両前面の特徴量)を検出し、かつ、差分箇所の速度差が閾値を下回ったときに車両を計測する場合など)、適切に採用され得る。
 また、推定部116によって用いられる方式は、時間の経過によらずに同一であってもよいし、適宜切り替えられてもよい。例えば、推定部116は、計測時間Tに対する計測不能時間の割合(Tx/T)が、所定時間を下回る場合は第1の方式を用い、その他の場合は、第2の方式を用いてもよい。
 以上、本発明の第1の実施形態について説明した。
 [第2の実施形態]
 続いて、本発明の第2の実施形態について説明する。本発明の第2の実施形態においては、モデル選択により推定量が取得される。まず、本発明の第2の実施形態に係る交通量推定装置10Bの機能構成について説明する。図16は、本発明の第2の実施形態に係る交通量推定装置10Bの機能構成例を示す図である。図16に示すように、本発明の第2の実施形態に係る交通量推定装置10Bは、制御部110B、撮像部170、記憶部180および出力部190を備える。
 制御部110Bは、交通量推定装置10Bの動作全体を制御する機能を有する。制御部110Bは、画像取得部111と、設定部112と、基準量計測部113と、検出部114と、対象量計測部115と、推定部116と、統合部117と、出力制御部118と、選択部119とを備える。選択部119の機能については、後に説明する。
 以上、本発明の第2の実施形態に係る交通量推定装置10Bの機能構成例について説明した。
 続いて、選択部119の機能について説明する。選択部119は、複数のレーンそれぞれの計測交通量に基づいて、あらかじめ登録されているモデルを選択する。あるいは、選択部119は、複数のレーンそれぞれの計測交通量と計測速度とに基づいて、あらかじめ登録されているモデルを選択してもよい。推定部116は、選択されたモデルに基づいて複数のレーンそれぞれの計測不能時間における交通量を推定交通量として推定する。図17は、選択部119によるモデル選択の例を説明するための図である。
 図17に示した例では、モデル1からモデル3までがあらかじめ登録されているが、登録されているモデルの数は特に限定されない。また、モデルは、各レーンのモデル値(交通量および速度)を含んでおり、第1レーンの計測量は、計測量(基準交通量および基準速度)を含んでおり、第2レーンの計測量は、計測量(計測交通量および計測速度)を含んでいるが、交通量および速度のうちのいずれか一方だけが含まれていてもよい。また、レーン数は複数であれば特に限定されない。モデル値は、論理的な数値であってもよいし、実際に計測された数値であってもよい。
 選択部119は、例えば、図17に示したように、最大残差が最小となるモデルを選択すればよい。残差の算出は特に限定されないが、選択部119は、例えば、図17に示したように、各モデルにおいて、レーンと計測量とに対応する残差として、残差=|(モデル値-計測量)/モデル値|によって算出することが可能である。
 以上、本発明の第2の実施形態について説明した。
 [効果の説明]
 以上に説明したように、本発明の実施形態によれば、所定レーンの交通量を計測することが不可能な計測不能時間を検出する検出部114と、所定レーンの計測可能時間における交通量を計測交通量として計測する対象量計測部115と、計測不能時間に基づいて、所定レーンの計測不能時間における交通量を推定交通量として推定する推定部116と、を備える、交通量推定装置10が提供される。かかる構成によれば、単眼カメラによって撮像された撮像画像に基づいて交通量を計測する場合において、手前側の車両に奥側の車両が隠蔽されてしまう可能性のある時間における交通量を推定することが可能である。
[変形例の説明]
 以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
 例えば、本発明の第1の実施形態に係る交通量推定装置10Aと本発明の第2の実施形態に係る交通量推定装置10Bとは組み合わされて使用されてもよい。例えば、本発明の第2の実施形態に係る交通量推定装置10Bの選択部119によりモデル選択を試みたものの、最小の最大残差が閾値を超えてしまう場合には、モデル選択の代わりに、本発明の第1の実施形態に係る交通量推定装置10Aの推定部116による推定を行うようにしてもよい。
 制御部110を構成する各ブロックは、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)などから構成され、記憶部180により記憶されているプログラムがCPUによりRAMに展開されて実行されることにより、その機能が実現され得る。あるいは、制御部110を構成する各ブロックは、専用のハードウェアにより構成されていてもよいし、複数のハードウェアの組み合わせにより構成されてもよい。
 尚、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。
 10(10A、10B) 交通量推定装置
 110(110A、110B) 制御部
 111 画像取得部
 112 設定部
 113 基準量計測部
 114 検出部
 115 対象量計測部
 116 推定部
 117 統合部
 118 出力制御部
 119 選択部
 170 撮像部
 180 記憶部
 190 出力部
 
 

Claims (17)

  1.  所定レーンの交通量を計測することが不可能な計測不能時間を検出する検出部と、
     前記所定レーンの計測可能時間における交通量を計測交通量として計測する対象量計測部と、
     前記計測不能時間に基づいて、前記所定レーンの前記計測不能時間における交通量を推定交通量として推定する推定部と、
     を備える、交通量推定装置。
  2.  前記交通量推定装置は、
     撮像部に最も近いレーンの交通量を基準交通量として計測する基準量計測部をさらに備え、
     前記推定部は、前記計測不能時間と前記基準交通量とに基づいて、前記推定交通量を推定する、
     請求項1に記載の交通量推定装置。
  3.  前記推定部は、前記基準交通量の計測に要した時間に対する前記計測不能時間の割合を、前記基準交通量に対して乗じることにより、前記推定交通量を推定する、
     請求項2に記載の交通量推定装置。
  4.  前記基準量計測部は、前記撮像部に最も近いレーンに対応する領域に検出された車両の速度に基づいて、当該レーンを走行する車両の速度を基準速度として算出し、
     前記推定部は、前記基準速度に基づいて、前記所定レーンを走行する車両の計測不能時間における速度を推定速度として特定する、
     請求項2に記載の交通量推定装置。
  5.  前記推定部は、前記計測不能時間と前記計測交通量とに基づいて、前記推定交通量を推定する、
     請求項1に記載の交通量推定装置。
  6.  前記推定部は、前記計測交通量の計測に要した時間に対する前記計測不能時間の割合を、前記計測交通量に対して乗じることにより、前記推定交通量を推定する、
     請求項5に記載の交通量推定装置。
  7.  前記対象量計測部は、前記所定レーンに対応する領域に生じた検出された車両の計測可能時間における速度に基づいて、前記所定レーンを走行する車両の計測可能時間における速度を計測速度として算出し、
     前記推定部は、前記計測速度に基づいて、前記所定レーンを走行する車両の計測不能時間における速度を推定速度として特定する、
     請求項1に記載の交通量推定装置。
  8.  前記交通量推定装置は、
     撮像部に最も近いレーンの交通量を基準交通量として計測する基準量計測部を備え、
     前記対象量計測部は、前記所定レーンに対応する領域に生じた検出された車両の計測可能時間における速度に基づいて、前記所定レーンを走行する車両の計測可能時間における速度を計測速度として算出し、
     前記基準量計測部は、前記撮像部に最も近いレーンに対応する領域に検出された車両の速度に基づいて、当該レーンを走行する車両の速度を基準速度として算出し、
     前記推定部は、前記計測不能時間と前記基準交通量と前記計測速度と前記基準速度とに基づいて、前記推定交通量を推定する、
     請求項1に記載の交通量推定装置。
  9.  前記推定部は、前記基準交通量の計測に要した時間に対する前記計測不能時間の割合と前記基準速度に対する前記計測速度の割合と前記基準交通量とを乗じることにより、前記推定交通量を推定する、
     請求項8に記載の交通量推定装置。
  10.  前記交通量推定装置は、
     前記計測交通量と前記推定交通量とを統合することにより統合交通量を算出する統合部を備える、
     請求項1に記載の交通量推定装置。
  11.  前記交通量推定装置は、
     前記統合交通量に対する前記推定交通量の割合を推定率として出力させる出力制御部を備える、
     請求項10に記載の交通量推定装置。
  12.  前記交通量推定装置は、
     複数のレーンそれぞれの計測交通量に基づいて、あらかじめ登録されているモデルを選択する選択部を備え、
     前記推定部は、前記モデルに基づいて前記複数のレーンそれぞれの計測不能時間における交通量を推定交通量として推定する、
     請求項1に記載の交通量推定装置。
  13.  前記対象量計測部は、撮像部によって撮像された撮像画像において前記所定レーンに対応する領域に前記所定レーンの計測可能時間に生じた検出された車両の数をカウントすることによって前記計測交通量を計測する、
     請求項1に記載の交通量推定装置。
  14.  前記検出部は、撮像部によって撮像された撮像画像において前記所定レーンを基準として前記撮像部に1つ近づいたレーンから所定のレーン数だけ近づいたレーンまでのいずれかに対応する領域に検出された車両が生じている時間を前記計測不能時間として検出する、
     請求項1に記載の交通量推定装置。
  15.  前記検出部は、前記所定レーンを基準として撮像部に1つ近づいたレーンから所定のレーン数だけ近づいたレーンまでのいずれかに対応する領域に生じた検出された車両と前記所定レーンに対応する領域に生じた検出された車両との速度差が閾値を下回る時間を前記計測不能時間として検出する、
     請求項1に記載の交通量推定装置。
  16.  前記検出部は、前記撮像部の高さに基づいて、前記所定のレーン数を算出する、
     請求項15に記載の交通量推定装置。
  17.  所定レーンの交通量を計測することが不可能な計測不能時間を検出するステップと、
     前記所定レーンの計測可能時間における交通量を計測交通量として計測するステップと、
     前記計測不能時間に基づいて、前記所定レーンの前記計測不能時間における交通量を推定交通量として推定するステップと、
     を含む、交通量推定方法。
     
PCT/JP2014/060014 2013-05-30 2014-04-04 交通量推定装置および交通量推定方法 WO2014192417A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-114066 2013-05-30
JP2013114066A JP5900416B2 (ja) 2013-05-30 2013-05-30 交通量推定装置、交通量推定方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2014192417A1 true WO2014192417A1 (ja) 2014-12-04

Family

ID=51988457

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/060014 WO2014192417A1 (ja) 2013-05-30 2014-04-04 交通量推定装置および交通量推定方法

Country Status (2)

Country Link
JP (1) JP5900416B2 (ja)
WO (1) WO2014192417A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7352393B2 (ja) * 2019-06-21 2023-09-28 パナソニックホールディングス株式会社 監視システム、及び、監視方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03250400A (ja) * 1990-02-28 1991-11-08 Sumitomo Electric Ind Ltd 交通流計測装置
JP2002367077A (ja) * 2001-06-07 2002-12-20 Mitsubishi Electric Corp 交通渋滞判定装置及び交通渋滞判定方法
JP2004078459A (ja) * 2002-08-14 2004-03-11 Fujitsu Ltd 通過車両計測装置、通過車両計測プログラム、および通過車両計測方法
JP3834826B2 (ja) * 1996-01-12 2006-10-18 住友電気工業株式会社 交通渋滞計測方法および装置並びに画像処理方法および装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03250400A (ja) * 1990-02-28 1991-11-08 Sumitomo Electric Ind Ltd 交通流計測装置
JP3834826B2 (ja) * 1996-01-12 2006-10-18 住友電気工業株式会社 交通渋滞計測方法および装置並びに画像処理方法および装置
JP2002367077A (ja) * 2001-06-07 2002-12-20 Mitsubishi Electric Corp 交通渋滞判定装置及び交通渋滞判定方法
JP2004078459A (ja) * 2002-08-14 2004-03-11 Fujitsu Ltd 通過車両計測装置、通過車両計測プログラム、および通過車両計測方法

Also Published As

Publication number Publication date
JP2014232487A (ja) 2014-12-11
JP5900416B2 (ja) 2016-04-06

Similar Documents

Publication Publication Date Title
JP4341564B2 (ja) 対象物判定装置
JP5899944B2 (ja) 車種判別装置
CN105335955B (zh) 对象检测方法和对象检测装置
CN105551020B (zh) 一种检测目标物尺寸的方法及装置
CN106952274B (zh) 基于立体视觉的行人检测与测距方法
JP4943034B2 (ja) ステレオ画像処理装置
US20060210116A1 (en) Lane recognition apparatus
JP2015184767A (ja) 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム
EP3304493A1 (en) A computer implemented method of detecting the distance of an object from an image sensor
JPWO2013133129A1 (ja) 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法
JP6694234B2 (ja) 距離測定装置
WO2015015542A1 (ja) 車載ステレオカメラシステム及びそのキャリブレーション方法
JP4586571B2 (ja) 対象物判定装置
EP3082069A1 (en) Stereoscopic object detection device and stereoscopic object detection method
CN104471436B (zh) 用于计算对象的成像比例的变化的方法和设备
JP5109074B2 (ja) 車両速度判定装置および車両速度判定方法
JP5783211B2 (ja) 交通量計測装置および交通量計測方法
JP2004109009A (ja) 目標角速度計測装置および目標角速度計測方法
KR102547333B1 (ko) 깊이 영상 기반 실시간 바닥 검출방법
JP5900416B2 (ja) 交通量推定装置、交通量推定方法およびプログラム
JP2002367077A (ja) 交通渋滞判定装置及び交通渋滞判定方法
JP2017196948A (ja) 電車設備の三次元計測装置及び三次元計測方法
JP4200165B2 (ja) ステレオカメラによるオブジェクトの分類のための方法
JP2017016460A (ja) 交通流計測装置および交通流計測方法
JPWO2021166742A5 (ja) 物体測距装置、方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14804447

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14804447

Country of ref document: EP

Kind code of ref document: A1