WO1997025700A1 - Traffic congestion measuring method and apparatus and image processing method and apparatus - Google Patents

Traffic congestion measuring method and apparatus and image processing method and apparatus Download PDF

Info

Publication number
WO1997025700A1
WO1997025700A1 PCT/JP1997/000020 JP9700020W WO9725700A1 WO 1997025700 A1 WO1997025700 A1 WO 1997025700A1 JP 9700020 W JP9700020 W JP 9700020W WO 9725700 A1 WO9725700 A1 WO 9725700A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
sample
traffic congestion
road
moving
Prior art date
Application number
PCT/JP1997/000020
Other languages
English (en)
French (fr)
Inventor
Masakatsu Higashikubo
Yoshiyuki Ito
Original Assignee
Sumitomo Electric Industries, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries, Ltd. filed Critical Sumitomo Electric Industries, Ltd.
Priority to JP52507997A priority Critical patent/JP3834826B2/ja
Priority to KR1019980705336A priority patent/KR100279333B1/ko
Publication of WO1997025700A1 publication Critical patent/WO1997025700A1/ja
Priority to US09/466,215 priority patent/US6188778B1/en

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats

Definitions

  • the present invention sets a sample point on a moving image of a road photographed by a video camera and a vehicle traveling on the road, and automatically detects a traffic congestion state of the road based on the brightness of the sample point.
  • the present invention also relates to a method and apparatus for processing an image by setting sample points on the image. Background art
  • an ultrasonic traffic congestion measurement system using an ultrasonic sensor and a loop coil type traffic congestion measurement system using a loop coil are well known as sensors for detecting the presence and movement of a vehicle. ing.
  • the traffic congestion measurement system using an ultrasonic sensor arranges an ultrasonic sensor at a position separated from the road surface by a height, and detects the presence of a vehicle near the sensor and the speed of the vehicle using the ultrasonic sensor. It detects traffic congestion on the road.
  • a traffic congestion system using a loop coil embeds a loop coil in the road, detects the presence of the vehicle and the speed of the vehicle from the change in magnetism caused by the vehicle passing above the loop coil, and detects the traffic congestion situation on the road -A traffic congestion measurement system using these ultrasonic sensor loop coils; in this case, only information on the installation points of the ultrasonic sensors and loop coils can be obtained, and the number of passing vehicles at a predetermined time, or At present, traffic congestion is estimated indirectly using the speed of only a specific vehicle among the vehicles passing through the installation point-For this reason, ultrasonic sensors and loop coils were used.
  • the traffic congestion measurement system automatically measures the exact congestion area in traffic congestion in real time. It is difficult. For example, if the above-mentioned ultrasonic sensor or loop coil is used to control the signal switching time according to the length of traffic congestion from an intersection, signal control to quickly alleviate traffic congestion will be implemented. There is a problem that it becomes difficult.
  • a first example is the system disclosed in "woopton Jeffreys CONSULTANTS” "INP ACTS: A New TV Image Processing System for Monitoring Traffic Conditions” or EP 0403! 93.
  • the road on the image captured by the video camera is converted into Bockock for each lane to the size of one car, and each block is moved to an empty block where no car is detected.
  • Image processing is used to determine which of the blocks that have detected the car that has stopped or the block that has detected the car that has stopped, and the existence patterns of the three types of blocks; accordingly, the detection of traffic congestion conditions, for example, , Stagnant completely, moving a little, flowing smoothly.
  • the second example is the system disclosed in “Examination of Road Traffic Congestion Measurement System” in Kitamura et al.
  • three types of features such as vehicle density, vehicle movement, and road surface brightness are extracted from images captured by a video camera, and these three types of features are input to the input layer of a neural network.
  • ii Determine the force value and detect the traffic congestion state in five steps according to the output value, that is, "vacant”, “steady running", " It detects five situations: congestion, moderate traffic, and traffic.
  • the traffic congestion measurement systems of the first conventional example and the second conventional example described above have the following problems.
  • the relationship between the existence pattern of the three types of blocks and the traffic congestion condition is described in each section. It is necessary to learn in advance for each point.
  • it is necessary to perform the Bukkake process for each lane it is not possible to detect traffic congestion over multiple lanes, and it is not possible to accurately detect traffic congestion.
  • the vehicle becomes smaller in a distant place it is difficult to make a block equivalent to one vehicle, and congestion detection over a long distance cannot be performed.
  • the present invention has been made in view of such circumstances, requires less learning in advance, can detect traffic congestion across multiple lanes, and changes in the environment, for example, measurement points, It is an object of the present invention to provide a method and an apparatus for measuring traffic congestion, which can stably detect traffic congestion regardless of time zone, weather, traffic volume, etc. and also detect the length of traffic congestion.
  • a traffic congestion measurement method suitable for highway congestion detection which has the above advantages and can accurately detect traffic congestion caused by a group of vehicles operating at a low speed of, for example, 20 kmZh or less.
  • a traffic congestion measuring method for measuring a traffic congestion state comprising the steps of: (a) setting a plurality of sample points each having a luminance value on the moving image; an image at a predetermined time in the series of images; (B) detecting the sample point at which the vehicle is presumed to be present as the existing sample point; and estimating that the moving vehicle is present at the image at the predetermined time.
  • the state of traffic congestion is measured based on a moving image composed of a series of a plurality of images depicting a road and vehicles traveling on the road, which are captured by a video camera.
  • a traffic congestion measurement device comprising: first means for setting a plurality of sample points each having a luminance value on the moving image; and a vehicle on an image at a predetermined time in the series of images.
  • a traffic congestion measuring device comprising: a sixth means for detecting; and a seventh means for measuring a traffic congestion state on the road at the time and based on the congestion block.
  • the situation of traffic congestion is determined based on a video camera.
  • a traffic congestion measurement method for measuring comprising: a plurality of sample lines each having a luminance value and each being constituted by a plurality of sumps arranged on the moving image in a line in a transverse direction of the road; (A) setting on an image; and (b) creating a reference luminance image taken by the video camera and presumed that the vehicle does not exist on the road.
  • the sample line on the image at the predetermined time in which the difference in brightness between adjacent samples of the sample is larger than a predetermined value, is determined.
  • the vehicle detects both the step ( ⁇ ) detected as an edge line, the difference sample line detected in step (d), and the edge line detected in step (f).
  • (G) detecting a presence sample line that is presumed to be present; and (h) measuring a traffic jam condition based on the presence sample line.
  • the state of traffic congestion is measured based on a moving image composed of a series of multiple west views depicting a road and vehicles traveling on the road, captured by a video camera.
  • a traffic congestion measurement method which has a luminance value and sets a plurality of sample lines, each of which includes a plurality of mumbs ⁇ arranged in a line in a direction transverse to the road; Step (&; based on the brightness of each sample point on the image at a predetermined time in the series of images.
  • B detecting a sample line in which a vehicle is presumed to be present as a presence sample run; and detecting a shadow on the road including a shadow of the vehicle, which is depicted in the image at the predetermined time.
  • a step (e) of measuring the state of traffic is provided, and a method of measuring traffic congestion is provided.
  • a traffic congestion measuring method comprising: setting a plurality of sample lines each having a luminance value and each including a plurality of sambls ⁇ arranged on the moving image in a line in a transverse direction of the road; )), A step (b) of detecting a sample line on the image at the predetermined time, on which the moving vehicle is presumed to be present, as a moving sample line; and And (c) measuring a traffic congestion situation.
  • a traffic congestion measurement method for measuring the number of sample lines, each of which has a luminance value and sets a plurality of sample lines each constituted by a plurality of sample points arranged on the moving image in a line in a transverse direction of the road.
  • a method of measuring traffic congestion comprising setting a plurality of sample lines, each of which is composed of a plurality of sample points arranged on the moving image in a line in a direction transverse to the road, each having a luminance value of ⁇ .
  • a stezza (d) for detecting a sample line in which a moving vehicle is present and which is estimated as a moving sample line as a moving sample line, and a sample line on the image at the time t + ⁇ at the time t E) detecting, as a destination sample line, a sample line that is presumed to be the destination of each of the moving sample lines on the image; and e.g., on a road corresponding to the moving sample line and the destination moving sample line.
  • the state of traffic congestion is measured based on a moving image composed of a series of a plurality of images depicting a road and vehicles traveling on the road, captured by a video camera.
  • a traffic congestion measuring method wherein an image taken by the video camera and assumed to have no vehicle is set as a reference luminance image; and (a) an image at a predetermined time and the reference luminance image (B) detecting the presence of the vehicle on the image at the predetermined time based on the following: (b), after the step (b), updating the reference luminance image (c); (b) and a step (d) that repeats the step (c) at predetermined time intervals.
  • the reference luminance image is updated by the following equation:
  • ⁇ ⁇ + 1 ⁇ + 1 + ⁇ X ( ⁇ — ⁇ )
  • is the luminance value of each pixel of the image at time tn
  • B n is the luminance value of each pixel of the reference luminance image used to detect the presence of the vehicle on the image at time t n
  • 3 r +1 represents the luminance value of each pixel of the reference luminance image used to detect the presence of the vehicle on the image at time t n + 1
  • t riTl—n is equal to the predetermined time interval.
  • is a variable coefficient, and a traffic congestion measurement method is proposed in which the smaller the value of iXn-Bn;
  • the state of traffic congestion is determined on the basis of a moving image composed of a series of a plurality of images depicting a road and vehicles traveling on the road, captured by a video camera.
  • a traffic congestion measurement method for measuring comprising: (a) calculating, for each mesh that divides an image at a predetermined time into a plurality of images, a spatial speed representing an average speed of existing vehicles; Therefore, a traffic congestion measurement method including a step (b) of detecting a mesh in which congestion occurs as a congestion area and a step (c) of detecting the end position of the congestion area is proposed.
  • a traffic congestion state is measured based on a moving image composed of a series of a plurality of images depicting a road and vehicles traveling on the road, which are captured by a video camera.
  • a traffic congestion measurement device wherein a plurality of sample lines each having a brightness value and each being constituted by a plurality of sumble points arranged on the moving image in a line in a transverse direction of the road are set on the moving image.
  • Means for creating a reference luminance image which is taken by the video camera and inferred that the army is present on the road; and a predetermined image in the series of images and the reference luminance.
  • Luminance difference of each sample point on the serial differential image Means for detecting, for each differential samran ranon, a sample line on the plane image at the predetermined time, wherein the difference in luminance from the sample run on the reference luminance image is larger than a predetermined value, based on the value, Means for calculating a differential value of each sample on the difference image by spatially differentiating, and a sample line on the image at the predetermined time based on the differential value of each sample point on the difference image which has been spatially differentiated.
  • a traffic congestion meter comprising: means for detecting as a presence sample Ranone assumed to be estimated; and means for measuring traffic congestion based on the presence sample line.
  • a measuring device is provided.
  • the traffic congestion state is measured based on a moving image composed of a series of a plurality of images depicting a road and vehicles traveling on the road, captured by a video camera.
  • a traffic congestion measuring device characterized by comprising:
  • the traffic congestion state is based on a moving image composed of a series of a plurality of images depicting a road and vehicles traveling on and off the road, captured by a video camera.
  • a traffic congestion measuring device for measuring a plurality of sample lines, each of which has a luminance value, and each of which is constituted by a plurality of samples / arrays arranged on the moving image in a line in a direction transverse to the road. Means for detecting a sample line where a vehicle is presumed to be present based on the brightness of each sample point on the image at a predetermined time in the series of images.
  • Means for calculating the density of vehicles existing on the road at the predetermined time based on the presence sample line; and A traffic congestion measurement device comprising: means for estimating the ratio of vehicles that are larger than a predetermined size to all vehicles, and means for correcting the density of the vehicles based on the ratio.
  • the traffic congestion state is measured based on a moving image composed of a series of a plurality of images depicting a road and vehicles traveling on the road, which are taken by a video camera.
  • Means for setting a plurality of sample lines each having a luminance value and each being constituted by a plurality of sanal points arranged on the moving image in a line in a transverse direction of the road Means for calculating an average luminance value representing an average of the luminance values of the sample points of each sample line on the image at a predetermined time t in the series of images, and '/ at every positive time interval, Means for calculating an average luminance value representing the average of the luminance values of the sample points of each sample line on the image at time t +, and that there is a moving vehicle on the image at time t.
  • a traffic congestion measurement device is provided, comprising: means for calculating the speed of each moving 7-sample line; and means for measuring the traffic congestion state on the road based on the calculated speed of each moving sample line.
  • a step of creating a reference brightness image depicting only the background Calculating a difference image representing a luminance ⁇ difference between the image and the reference luminance image; determining whether a luminance value of each pixel included in the difference image is greater than a predetermined value; A step of changing the predetermined value in accordance with a distance from a camera position to an actual position corresponding to each pixel.
  • the image at the time t and the image at the time t where ⁇ is a positive time interval, representing the luminance difference between the image at the time t and the image at the time t
  • is a positive time interval, representing the luminance difference between the image at the time t and the image at the time t
  • a means for creating a reference brightness image depicting only the background Means for calculating a difference image representing the difference between the brightness of the image and the reference brightness image; means for determining whether the brightness value of each pixel included in the difference image is greater than a predetermined value, Means for changing the predetermined value according to the distance from the position of the camera to the actual position of each pixel.
  • the luminance difference between the image at time t in the series of continuous images captured by the video camera and the image at time t by one with c as a positive time interval is calculated.
  • Means for calculating the second difference image the second difference image is subjected to a binarization process with a predetermined second threshold value, and the second difference image including only pixels having levels of ⁇ 0 '' and ⁇ 1 ''' Means for creating a feature extraction image of the first feature extraction image and the second feature extraction Means for creating a product image by taking a logical product with an image, and from the position of the video camera, at the time t; according to each distance to each actual position corresponding to each pixel included in the image to be imaged. And an means for changing the ⁇ and ⁇ .
  • an image processing apparatus comprising: means for changing the predetermined value.
  • Means for classifying a pixel into one of a first pixel and a second pixel, and a ratio of the number of first pixels to all pixels included in each of a plurality of candidate Buccoues partially constituting each of the images Means for calculating candidate blocks in which the ratio of the first pixels is greater than a predetermined value; anddistances from the camera position to actual positions corresponding to the candidate blocks: Accordingly, there is provided an image processing apparatus including means for changing the size of each candidate block.
  • FIG. 1 is a diagram showing a first embodiment of a traffic control system to which the traffic congestion measuring method and device according to the present invention are applied.
  • FIG. 2 is a perspective view showing an area where the video camera shown in FIG. 1 shoots.
  • Fig. 3 is a view showing the traffic jam measuring device shown in Fig. 1.
  • Fig. 4 is a flowchart showing a traffic jam measuring procedure of the traffic jam measuring system shown in Fig. 1. c
  • FIG. 5 is a diagram showing the relationship between the calculation result of each step of the flowchart shown in FIG. 4 and the detection result.
  • FIG. 6 is a diagram showing sample points set on an image taken by the video camera shown in FIG.
  • FIG. 7 is a flowchart showing the detailed procedure of step S2 of the flowchart shown in FIG. 4:
  • FIG. 8 is a diagram showing existing sample points created in step S2b of the flowchart shown in FIG.
  • FIG. 9 is a diagram showing existing sample points detected in step S2 of the flowchart shown in FIG.
  • FIG. 12 shows a first feature extraction image and a second feature extraction image created at each of the steps S 3 J and S 3 k of the fucco-coat shown in FIG.
  • FIG. 7 is a diagram showing a relationship with a product image created in step S3I of the flowchart of FIG.
  • FIG. 13 is a flowchart showing a detailed procedure of step S4 of the flowchart shown in FIG.
  • FIG. 14 is a diagram showing a moving block detected in step S4 of the flowchart shown in FIG.
  • FIG. 15 is a diagram for explaining a method of detecting a traffic jam sample point detected in step S5 of the flowchart shown in FIG.
  • FIG. 16 is a flowchart showing the detailed procedure of step S6 in the flowchart shown in FIG.
  • FIG. 17 is a diagram showing a traffic jam block detected in step S6 of the flowchart shown in FIG.
  • FIG. 18 is a flowchart showing a detailed procedure of step S7 of the flowchart shown in FIG.
  • FIG. 19 is a T diagram showing the relationship between the congestion range detected in step S7 £ of the flowchart shown in FIG. 18 and the congestion range corrected in step S7c.
  • FIG. 20 is a diagram showing a second embodiment of a traffic control system to which the traffic congestion measuring method and device according to the present invention are applied.
  • FIG. 21 is a diagram showing the relationship between the space measurement area and the traffic flow measurement area of the traffic jam measurement device shown in FIG.
  • FIG. 22 is a flowchart showing a spatial density measuring procedure of the traffic congestion measuring system shown in FIG.
  • FIG. 23 is a diagram showing the relationship between the calculation results and the detection results of each step of the flowchart shown in FIG.
  • FIG. 24 is a diagram showing the relationship between the sample point image created in step # 1 of the fucco-coat shown in FIG. 22 and the sample lines set in the step.
  • FIG. 25 is a flowchart showing a first example of the detailed procedure of step # 4 of the flowchart shown in FIG.
  • FIG. 26 is a flowchart showing a second example of the detailed procedure of step # 4 of the flowchart shown in FIG.
  • FIG. 27 is a flowchart showing a first example of the detailed procedure of step # 5 of the flowchart shown in FIG.
  • FIG. 28 is a flowchart showing a second example of the detailed procedure of step # 5 of the flowchart shown in FIG.
  • FIG. 29 is a flowchart showing the detailed procedure of step # 7 in the flowchart shown in FIG.
  • FIG. 30 is a diagram showing changes before, during, and after the correction of the existing sample line in step # 7 of the flowchart shown in FIG. 22 c
  • FIG. 1 is a flowchart showing a detailed procedure of Step P 8 of fucosyltransferase one Chiya Ichito shown in the second 2 FIG c
  • FIG. 32 is a flowchart showing a detailed procedure of Step P9 of the flowchart shown in FIG. 3
  • FIG. 3 is a Furochiya one bets illustrating a detailed procedure of a second 2 figure indicated fucosyl one Chiya first step P 1 0. c
  • FIG. 34 is a diagram showing the change of the existing sample line before and after the correction of the step PI02 of the flow chart shown in FIG.
  • FIG. 35 is a diagram showing the spatial density of each mesh in step P 12 of the fucco chart shown in FIG. 22.
  • FIG. 36 is a diagram for explaining the reason why it is necessary to correct the space density based on the mixing ratio of large vehicles, which is step P15 of the flowchart shown in FIG. is there.
  • FIG. 37 is a flowchart showing the procedure of measuring the space velocity of the traffic congestion measurement system shown in FIG.
  • FIG. 38 is a diagram showing the relationship between the calculation results and the detection results of each step of the flowchart shown in FIG. 37:
  • FIG. 39 is a flowchart showing a first example of a detailed procedure of step Q4 of the flowchart shown in FIG. 37.
  • FIG. 40 is a diagram showing a second example of the detailed procedure of step Q4 of the flowchart shown in FIG. 37.
  • FIG. 41 shows the moving sample line in step Q4J of the flow chart shown in Fig. 40, the two sample lines before and after the moving sample line, and these moving sample lines and two samples.
  • FIG. 7 is a diagram illustrating a relationship between each line and an expected movement range.
  • FIG. 42 is a flowchart showing a first example of a procedure for measuring the end position of the congestion area in the congestion measurement system shown in FIG. 20.
  • FIG. 43 is a flowchart showing a second example of the measurement procedure of the end of the congestion area of the congestion measurement system shown in FIG. 20.
  • FIG. 44 is a diagram showing the relationship between the calculation results and the detection results of each step of the fucco chart shown in FIGS. 42 and 43.
  • FIG. 45 is a diagram showing the end position of the traffic congestion area, which is measured by the procedure of the flowchart shown in FIG. 42, and is a preferred embodiment of the invention c .
  • the traffic control system consists of video cameras 11 to 14 located near the intersection IS, traffic congestion measurement devices 21 to 24, traffic lights 31 to 34, signal control devices 41 to 44, and relay devices. 50, and a central control unit S) installed in the traffic control center located far away from the intersection ⁇ IS.
  • the video cameras 11 to 14 are located at an intersection, for example, at a height of 1 Om from the road near S, and three lanes at a distance of 15 Om from the position near the intersection. Take a minute area Y.
  • the video cameras 11 to 14 are directed to photograph the upstream side from the downstream side in the traveling direction of the vehicle.
  • the traffic congestion measuring devices 21 to 24 can measure the traffic flow based on the number, speed, and type of vehicles flowing into the intersection IS, and can also measure the traffic congestion range, in other words, the traffic congestion length. As shown in Fig. 3, each of the traffic congestion measurement devices 21 to 24 has a CPU 2, an image memory 3, an input device 4, a display device 5, a storage device 6, a transmission device 7, and a RAM (Random Access Memory). 8 and ROM (ead-only Memory) 9
  • Image data captured by the video cameras 11 to 14 are transmitted to the CPU 2 of the traffic congestion measuring devices 21 to 24, respectively.
  • the transmitted image data is stored in the image memory 3 via the CP 2-ROM 9 stores various programs related to the detection of traffic congestion. Read out the program and execute the program using RAM 8 as a work area.
  • B By executing the program, necessary image data is read from the image memory 3, various calculated values are calculated based on the image data, and finally a measurement result of a state described later is calculated.
  • Various calculated values calculated during the execution of the program are temporarily stored in the image memory 3.Results of the measurement of traffic congestion are displayed on the display device 5, storage device 6, and transmission device 7. Performed:
  • the display device 5 displays the input traffic congestion status.
  • the storage device 6 stores the input traffic jam situation.
  • the transmission device 7 transmits the input congestion status to the central control device 60 of the traffic control center shown in FIG. 1 through the relay device 50.
  • the input device 4 is an input means used for inputting various set values and threshold values and changing them.
  • the central control device 60 of the traffic control center sends a signal control pattern to the signal control device 4 144 via the relay device 50 based on the measurement result of the traffic congestion measurement device 4 144.
  • video camera 1 a traffic jam measuring device 2 1 2 3 that inputs image data from 13 3 has a longer congestion range than a traffic jam measuring device 2 2 2 4 that inputs image data from a video camera 2 14
  • the central controller 60 sets the signal control pattern such that the time interval between the green signals of the traffic lights 3 1 3 3 is longer than the time interval of the green signal of the traffic lights 3 2 3 4.
  • the camera is trying to alleviate the traffic congestion on the road that is being taken by the camera 113.
  • a traffic congestion measuring method executed by the traffic congestion measuring device configured as described above will be schematically described first according to a flowchart of steps S1 to S8 shown in FIG.
  • step S1 a plurality of ampoule points are set on an image taken by a video camera. For example, when the image 71 shown in FIG. 6 is taken by a video talent, the sample points are indicated by “ ⁇ ”.
  • step S2 a sample point on the surface image at time tn at which the vehicle is presumed to be present is detected as an existing sample point.
  • step S3 the moving car on the image at time tn A sample point where both are assumed to exist is detected as a moving sample point.
  • step S4 a rectangular block composed of a plurality of sample points that are joined to each other and that includes a moving sample point of a predetermined ratio or more is detected by the moving Bukkake.
  • step S5 the presence sample s that deviates from the moving block is detected as a congestion sample point.
  • step S6 a rectangular block composed of a plurality of sample points adjacent to each other including a congestion sample point of a predetermined ratio or more is detected as a congestion block.
  • step S7 the state of traffic congestion in the measurement area at time: n is measured based on the congestion block.
  • step S8 set —1 and return to step S2.
  • “N” is a positive integer and t n +! — Tn; is constant. Therefore, each of the above steps S2 to S7 is repeated at regular time intervals.
  • FIG. 5 is a diagram showing a schematic relationship between the detection results or the calculation results in steps S1 to S7. Details of these detection results or calculation results become apparent from the detailed description of each step S 1 to S 7 described below s
  • the lower side of the figure corresponds to an area at a short distance from the video camera
  • the upper side of FIG. C which corresponds to an area far from the video camera.
  • image 71 shows three lanes, and the rectangle shown by a solid line in image 71 shows a vehicle.
  • the sample points are arranged in the cross direction of the road so that the distance between the sample points in the cross direction of the road is equal on the actual road. The sample points are arranged in this way because the distortion of the position is small in the cross-road direction, and it can be easily converted to the actual length.
  • the interval between sample points is narrower at a position far from the video camera, and the interval between sample points is wider at a position near the video camera.
  • the sample points are located near the video camera, where the vehicle can enter.3
  • the running state can be detected even if the sample point is sparse. Otherwise, the traveling state cannot be detected.
  • the sample point interval is set to one pixel interval on the image, and the sample point interval is set wide enough to detect the vehicle at a point closer than the sample point interval.
  • each threshold value TH1 used for the binarization processing described later is set according to the distance from the position on the road of the video camera to each actual position on the road corresponding to each sample point.
  • step S2b a sample point image consisting only of pixels corresponding to the ampoule point of the image at time tn is created.
  • FIG. 8 is a diagram showing an example of the sample point image, which can be understood from FIG. In this way, the sample point image is constructed by converting the sample points on the image at time tn to the orthogonal coordinate system, and is stored in the same two-dimensional array data format memory as the array of sample points shown in FIG.
  • the luminance value of each pixel corresponding to the sample point of the sample point image ⁇ is represented by 8-bit data.
  • a brightness difference value representing a difference between the brightness values of each sample point of the sample point image and the reference brightness image is calculated; a difference image is calculated.
  • the reference luminance image in the first flow of the detection of the presence sample point is only the background of the vehicle, and the environment where the measurement starts. The photograph was taken in a state close to.
  • the first reference luminance image is an image in which no vehicle exists on the road in the traffic congestion measurement area.
  • the reference luminance image also includes only pixels corresponding to the sample points, and has the same configuration as the above-described sample point image.
  • step S2d the next time t n is calculated using the difference image in step S2c.
  • the reference brightness image Bn + 1 used to calculate the difference image corresponding to the +1 sample point image is updated by the following equation.
  • ⁇ 1 ⁇ ⁇ + ⁇ ] ⁇ ( ⁇ ⁇ — ⁇ ⁇ )... (i)
  • X n is the brightness value of each sample point in the sample point image at time tn
  • B n is the sample point image at time tn
  • the brightness value of each sample point of the reference brightness image used to calculate the difference image corresponding to Bn + l is the brightness used to calculate the difference image of the sumbu point image at time t n + 1 Value.
  • is a variable value, and becomes smaller T as X n -B ni is larger or as the degree of congestion is higher.
  • step S2e the difference image is spatially differentiated with sobel molecules in the vehicle traveling direction, and then in step S2 f, binarize each differential value of the sample points of the spatially differentiated difference image with each threshold value TH1 set in step S2a: It can be inferred that there is a vehicle at the “1—level sample point”, which is one of the values of the “1” level, and that no vehicle exists at the “0” level sample point. Since it can be guessed, in step S 2 g, the “1” level sample point is detected as an existing sample point.
  • FIG. 9 shows an example of the arrangement of the existing sample points detected in this way.
  • the threshold value TH1 in step S2a may be set so as to be small enough to identify a sample point corresponding to a position far from the position of the video camera on the road. This is because the image is blurred at a position far from the video camera as compared to a position near the video camera, and the difference in brightness between the vehicle and the background is reduced. In this way, by setting the threshold value at each sample point according to the actual distance from the position on the road of the video camera to each sample ⁇ : this position on the corresponding road, the distance from the video camera is affected. The presence sample point can be detected with the same accuracy at any position without being performed.
  • step S3a the sample point image is divided into M regions.
  • the area far from the video camera, the area at the intermediate distance, the area near So M 3.
  • step S3b time intervals am and ⁇ corresponding to the m-th region and threshold values ⁇ 1 and ⁇ 2 for binarization described later are set.
  • am, ⁇ is a positive time, ⁇ 1 ⁇ 2 ⁇ 3, 1 ⁇ as c this to 2 ⁇ / 93, am, by the following reason to set J3m.
  • Apparent vehicle movement in the image is faster at locations closer to the video camera than at locations farther away.
  • the movement of the vehicle can be sufficiently detected by comparing the images with a short time difference, so the values of am and j3m for the sample points near and at the position close to the video camera are set small.
  • the sample at a position far from the video camera it is difficult to detect the movement of the vehicle by comparing the images with a short time difference, so the sample at a position far from the video camera, 'Kocho am, / 3 m Set a large value.
  • different values may be used for am and ⁇ , it is usually preferable to use.
  • step S3c following step S3b, a sample point image corresponding to time tn, t ⁇ -axr., ⁇ + ⁇ is created.
  • step S3d a first difference area representing the difference in luminance between the m-th area of the sample point image at time n and the th area of the sample point image at time t-am is calculated.
  • step S3e the first difference area is binarized using the threshold value TH1 set in step S3b to calculate a first feature extraction area. As a result, the value of the sample ⁇ in the first feature difference area is any one of the “0” level force ⁇ ”level.
  • step S 3 f the m-th region of the sample point image at time t n and the B temple time t n
  • step S3f Calculate a second difference area representing the difference in luminance from the m-th area of the sample point image of + ⁇ m. Proceeding from step S3f to step S3g, the second difference area is binarized using the threshold value TH2 set in step S3b to calculate a second feature extraction area. As a result, the value of the sample point in the second feature extraction region becomes either the “0” level or the ⁇ level.
  • step S 3 j Creates a first feature extraction image by combining all the first feature extraction regions.
  • step S3k all the second feature extraction regions are combined to create a second feature extraction image.
  • step S31 a product image is created by taking the logical product of the first feature extraction image and the second feature extraction image, and in step S3m, the "1" level sample points of the product image are obtained. Is detected as a moving sample point.
  • the relationship between the first and second feature extraction images and the product image is illustrated in FIG.
  • the detection of the moving sump point using the images before and after time tn is based on the fact that it is attempted to detect the moving sample ⁇ using the image only before or after time tn.
  • the moving vehicle that does not exist in the image at time tn remains in the feature extraction image, and only the first feature extraction image or the second feature extraction image This is because an accurate moving sample point cannot be detected from the image alone.
  • the time intervals am and jS are adjusted so that a sample point of a vehicle moving at a low speed of, for example, 20 kmZh or less is not detected as a moving sample point.
  • Step S 4 of the movable block of FIG. 4 the detection procedure of Step S 4 of the movable block of FIG. 4, according to the flowchart of the scan Tetsupu S 4 a ⁇ S 4 j of the first 3 view, c detailing below
  • step s4a the c candidate blocks for which the calculation start position is set to the upper left corner of the sample point image are sample points that are vertically and horizontally adjacent to each other and partially constitute the sample point image at time tn.
  • This is a rectangular block consisting of, and is a block to be detected as a moving block.
  • step S4b a block size and a threshold TH1 are set according to the distance from the position on the road of the video camera to each position on the road corresponding to each candidate block.
  • step S 4 c the total number of sample points contained in the The ratio of the moving sample points is calculated, and it is determined in step S4d whether or not the ratio of the moving sample points in the candidate bucoque falls within the threshold value THi set in step S4b. If the determination in step S 4 b is “YES”, step S
  • Step S 4 e the determination of c Step S 4 b that detect the candidate block as a moving Bukokku is if "NO", the flow proceeds to step S 4 d or S 4 ⁇ .
  • Steps S 4 f and S 4 g are executed for each candidate block arranged at the right of the sample point pitch in the right direction (right in the cross direction of the road).
  • step S4h following step S4f, the calculation start position of the candidate block is moved to the leftmost end of the sample image.
  • Step S4id Steps S4b to S4h are repeated by step S4j. That is, the detection process for the candidate blocks in one horizontal row is repeated in the downward direction (in front of the vehicle traveling direction). As a result, the detection processing is executed for all the candidate Buccoues included in the sample point image, and all the moving blocks included in the sample point image can be detected.
  • FIG. 14 shows an example in which two movable Bucocks partially overlapping each other have been detected.
  • the moving block shown in Fig. 14 is composed of 5 vertical rows and 3 horizontal rows of sample points, where "@" indicates a moving sample point and " ⁇ " indicates a sample point other than the moving sample point.
  • the ratio of the moving sample points in the detected moving block is 60%, and the threshold value 11 ⁇ 1, which is the criterion for detecting the moving block, is 55%.
  • moving sample points that do not fall within the moving Bukok circle are removed as noise.
  • the size of the candidate block in step S4b may be set as follows.
  • the size of the candidate block is set to approximately match the size of the average vehicle depicted on the image, so that the moving Boocock represents one vehicle on the sampler point image. Therefore, in areas far from the video camera, Since the vehicle can be obtained as a small image, the size of the candidate block should be set small, and in the area close to the video camera, the vehicle can be obtained as a large image and the size of the mouthpiece should be increased.
  • the threshold value TH1 is reduced in the region far from the video camera because the luminance difference between adjacent pixels is small, and is increased in the region close to the video camera. Detection of moving blocks in all areas with the same accuracy
  • step S5 in FIG. 4 the existing sample points that deviate from the above-mentioned moving block are detected as traffic jam sample points.
  • FIG. 15 shows an example of detecting traffic jam sample points. In the first 5, "-" the presence sample points, "0" sample points other than the present sample point, " ⁇ " indicates the congestion sample points c
  • step S6 Set the start position to the upper left corner of the sample point image.
  • the candidate block is a rectangular block formed by vertically and horizontally adjacent sample points, each of which partially forms a sample point image at time t n, and is a block to be detected as a congestion block.
  • step S6b a block size and a threshold T H1 are set according to the distance from the position on the road of the video camera to each position on the road corresponding to each candidate block.
  • step S6c the ratio of the number of congestion sample points to the total number of sample points in the candidate block is calculated, and in step S6d, the ratio of the congestion sample points of the candidate bucoq ⁇ is set in step S6b. It is determined whether it is greater than the threshold value TH1. If the determination in step S6d is "YES”, the process proceeds from step S3d to step S6e, and the candidate block is detected as a congestion block: If the determination in step S6b is "NO”, Then, go from step S6d to S6f.
  • Steps S 6 f and S 6 g allow you to go right (cross road right)
  • the operations of steps S6c to S6f are repeated for all of the candidate blocks arranged at one sample point pitch.
  • step S6f the calculation start position of the candidate block is moved to the leftmost end of the sample point image.
  • Steps S6b to S6h are repeated by steps S6i and S6j.
  • the detection process for one horizontal block of candidate blocks is repeated in the downward direction (in front of the vehicle running direction).
  • the detection process is performed on all the candidate blocks included in the sample point image, and all the traffic jams in the sample point image can be detected.
  • FIG. 17 shows an example in which two congested blocks that partially overlap each other are detected.
  • the congestion block shown in Fig. 17 is composed of sample columns of 5 columns and 3 columns, where " ⁇ " indicates a congestion sample point and "0" indicates a sample point other than the congestion sample point.
  • the threshold value TH1 which is a criterion for detecting the congestion block is 45%
  • the ratio of the congestion sample points of the detected congestion block shown in FIG. 17 is 47%.
  • the congestion sample points that do not fall in traffic blanking opening Tsu the click is removed as noise c
  • the size of the candidate block is set to approximately match the size of the average vehicle depicted on the image, so that the congestion block represents one vehicle on the sample point image. For this reason, in a region far from the video camera, the vehicle is obtained as a small image, so the candidate block size is set small.In a region near the video camera, the vehicle is obtained as a large image. To increase.
  • the threshold value TH1 is set small in a region far from the video camera because the luminance difference between adjacent pixels is small, and is increased in a region close to the camera. In this way, traffic congestion blocks can be detected with the same accuracy in all areas, regardless of the distance from the camera. You.
  • step S7a a urea in which a traffic jam block exists for each lane is detected as a traffic jam area.
  • each congestion block area there is a single congestion block or a plurality of congestion blocks connected to each other or overlapping each other.
  • Fig. 19 ⁇ shows an example of an area where there is a congestion block in the measurement area: If there is a congestion block across two military lines, the congestion block will be in the 10,000 lanes with a large existence range Is determined to exist.
  • step S7b the congestion range detected in each lane is converted into an actual road distance by referring to the above distance table.c
  • the profile of the past congestion position is By removing sudden fluctuations in traffic congestion position as noise and performing correction processing to smooth the traffic congestion position, the congestion range is corrected and output as the final measurement result of the traffic congestion state.
  • the hardware configuration of the device can be simplified, and the cost can be reduced:
  • high-speed processing can be performed, and real-time congestion measurement can be performed.
  • the measurement result can be output almost in real time within 1 to 2 seconds (maximum time interval of time difference + processing time) .
  • the traffic control field according to the traffic jam length as in this embodiment, It is very effective when used for traffic control systems that adjust the green or yellow traffic light time.
  • accurate traffic congestion measurement can be performed immediately after setting up the device, with almost no prior learning. It is possible to measure the traffic congestion state irrespective of changes in time zone, weather, traffic volume, etc., and easily detect the length of traffic congestion. Furthermore, since various parameters such as thresholds, which serve as criteria for various determinations, are changed in accordance with the distance from the position of the video camera on the road to each position on the road corresponding to each sample point, high accuracy is achieved. Traffic jam measurement becomes possible. In addition, since the parameters can be automatically detected based on the distance of each sample point from the video camera, it is effective in the management and operation of the traffic control system.
  • the type of moving block and congested Bocco that is, moving vehicles and congested vehicles are detected as moving vehicle groups and congested army groups :: Moving sample points and congestion sample points that deviate from the block and the congestion block can be easily removed as noise. Furthermore, by arranging a plurality of the video cameras and the traffic congestion measuring devices of this embodiment in a row at a measurable distance on the road, continuous traffic congestion over a long distance can be measured. .
  • the traffic congestion state of the entire measurement area is not directly estimated from the measurement result of a part of the measurement area, but the traffic congestion state of the entire measurement area is directly measured. If an accident or vehicle failure occurs in the measurement area, it can be detected immediately.
  • this embodiment is also a preferred embodiment of the image processing method and apparatus of the present invention.
  • Measurement area Two lanes with a length of 150 m were set from the camera installation position.
  • C Judgment of traffic jam Vehicles running at low speed were considered to be in traffic jam.
  • the farthest traffic position is set as the end of the traffic.
  • the congestion position was output every second, and the average of the peak values of the congestion length every five minutes was measured. This average is used as the average of the peak values of the measured values.
  • the congestion measurement accuracy was calculated based on the following equation.
  • the average of the true peak values means the peak value of the congestion length for each signal cycle, and indicates the average of the peak values every 5 minutes.
  • Traffic congestion measurement accuracy (%) (Average traffic congestion length of peak measured value (m) ⁇
  • Measurement area Two lanes with a length of 100m are set from the camera installation position-Judgment of traffic jam: Vehicles traveling at low speed are considered to be in traffic jam-Traffic is moving halfway, and traffic jam continues thereafter In such a case, the farthest congestion position was taken as the end of the congestion.
  • Traffic congestion position Of the two lanes, the traffic congestion position that occurred closer to the video camera was designated as the traffic congestion head position, and the traffic congestion position that occurred further away from the video camera was regarded as the traffic congestion end position.
  • the output value of the traffic congestion position is as follows with respect to the distance from the camera position.
  • the total stop time was obtained by the following equation for the measured value by the method of the present invention and the true value by the above method, and the ratio was calculated as the congestion measurement accuracy.
  • Total stop time (m, second) congestion length (m) X time (second)
  • a second embodiment of a traffic control system employing the traffic congestion measuring method and device according to the present invention will be described in detail below with reference to FIGS. 20 to 45.
  • the second embodiment of the traffic control system is composed of a video camera 81, a traffic congestion measuring device 82, an information display board 91, a display control device 92, and a central device in the traffic control center. It is constituted by a control device 100.
  • the video cameras 8 1 are arranged on the highway at a predetermined interval from each other.
  • Each video force camera 81 as shown in 2 1 Figure, disposed toward Ke downstream from the traveling direction upstream side of the vehicle, i.e., are arranged so as to photograph the surface side after the vehicle £ By setting the orientation of the video camera in this way, the end position of the congested area can be accurately measured.
  • the video camera in order to measure the start position of the congested area more accurately, the video camera must be mounted on the vehicle. It may be arranged from the downstream side to the upstream side in the traveling direction of the vehicle, that is, so as to photograph the front side of the vehicle c
  • the information display board 91 is disposed on the highway on the upstream side in the vehicle traveling direction with respect to the video camera 81, facing the upstream side in the vehicle traveling direction.
  • the traffic congestion measuring device 82 has the same configuration as the traffic congestion measuring devices 21 to 24 of the first embodiment shown in FIG. 3, so that redundant description is omitted, and the description thereof is omitted here. However, various programs and initial set values for executing the measurement are different from those of the first embodiment.
  • the traffic congestion measuring device 82 of this embodiment measures the traffic congestion in the space measurement area E and the traffic flow measurement area F shown in FIG.
  • the traffic flow measurement area F corresponds to a range of four lanes from a position 10 m away from the video camera 81 in the traveling direction of the vehicle to a position 3 Om in the traveling direction of the vehicle.
  • the number of vehicles passing on the sensing line DL, the speed, the vehicle length, the vehicle type, and the like can be measured together with the vehicle identification.
  • the measurement method in the traffic flow measurement area F is described in Japanese Patent Application Laid-Open No. 5-307695, and the description thereof is omitted here.
  • the spatial measurement area E corresponds to a range of two lanes from a position 1 Om away from the video camera in the traveling direction of the vehicle to 20 Om in the traveling direction of the vehicle.
  • the measurement method in the space measurement area E which will be described in detail below, is for measuring the space density, the space velocity, and the end position of the traffic jam.
  • the measurement result of the traffic jam measuring device 82 is transmitted to the central control device 100 of the traffic control center.
  • the central controller 100 creates traffic information that is useful for the driver on the highway based on the received measurement results, transmits the traffic information to the display controller 92, and sends the information display board 91
  • the traffic information is displayed in the form of “,”.
  • the calculation method of the spatial density performed by the traffic congestion measuring device 82 configured as described above is first described in FIG.
  • the steps F 1 to P 16 shown are described in outline according to the chart.
  • a sample line is set in the image mainly to create a sample point image at time tn.
  • the creation method is the same as the sample point image of the first embodiment described above. The description is omitted.
  • the sample line is composed of sample points for the width of the lane aligned in the cross direction of the road.
  • FIG. 24 shows the relationship between sample points and sample lines on the sample point image.
  • steps P 2 and P 3 following step P 1 are the same as steps S 2 c and S 2 d in FIG. 7 described above, respectively, and a description thereof will be omitted to avoid redundant description. I do.
  • steps P4 and P5 respectively, a difference sample line and an edge sample line are detected based on the difference image.
  • step P6 the difference sample line detected in step P4 and the difference sample line detected in step P5 are respectively detected. Detect existing sample lines based on sample lines and edge sample lines.
  • step P7 the presence sample line is corrected based on the arrangement of the presence sample line, and in step P8, the existence sample line is corrected based on the arrangement of the difference sample line detected in step P4. Is corrected.
  • step P9 a moving sample line is detected based on the sample point image at time tn, time tn-ctm, and time tn + m. Step? At 10, the existing sample line is corrected based on the arrangement of the moving sample line.
  • step P11 the measurement area is divided into a plurality of meshes, and in step P12, the spatial density of each mesh at time tn is calculated based on the existing sample line corrected in step P10.
  • step P13 the mixing ratio of large vehicles in the measurement area at time tn is calculated.
  • step P14 the inter-vehicle distance in the measurement area at time tn is calculated.
  • step P15 the mixing ratio of large vehicles And corrects the spatial density based on the distance between vehicles.
  • step P 16 n ⁇ n + 1 is returned to step P i, where c “r is a positive integer; c is constant up to t n + 1 ⁇ tn U. Therefore, the above steps P l to Each step of P16 is repeated at regular time intervals.
  • FIG. 23 is a diagram showing a schematic relationship between the detection results or the calculation results in the above steps P1 to P15. Details of these detection results or calculation results become apparent from the detailed description of each step P 1 to P 15 to be described later c
  • step P4a set a positive threshold TH1, a negative threshold TH2, and a positive integer threshold TH3 based on the distance from the video camera of the kth sample Ranone consisting of M sample points I do.
  • step P4b it is determined whether the luminance difference value at the m-th sample point of the k-th sample line is greater than TH1.
  • the luminance difference value indicates the value of each sample point of the difference image calculated in step P2 of FIG.
  • step P 4 b determines whether the luminance difference value of the m-th sample point of the k-th sample line is smaller than TH2. If the determination in step P4c is "YE S”, the process proceeds to step P4d. If the judgment in step P4c is "NO”, the flow proceeds to step P4f.
  • Step P4g it is determined whether or not the number of “ON” flags of the k-th sample line is larger than TH3. If the judgment in step P 4 g is “YE S_ For example, the process proceeds to Step P4h, where the k-th sample line is detected as a differential sample line. If the determination in step P4g is "NO", the process proceeds to step P4j, where m is returned to 1 and k is replaced with k + 1. By the step P4i and the step P4j, the operation of the steps P4a to P4h is repeated until k-K is reached.
  • K represents the number of sample lines for one lane in the measurement area. By this repetitive operation, all difference sample lines for one lane of the measurement area are detected.
  • the positive threshold TH1 in step P4a is smaller for a sample line farther from the video camera, and conversely, a negative threshold TH2 is larger for a sample line farther from the video camera. It is better to set as follows. This is because images farther away from the video camera are blurred than near, ', and positions, and the brightness difference between the vehicle and the background is smaller. By setting TH1 and TH2 according to the distance from the video camera, differential sample lines can be detected with almost the same accuracy at any position without being affected by the distance from the video camera. can do.
  • the positive integer threshold value TH3 in step P4a is reduced in a region far from the video camera where the change in luminance difference is small, and is increased in a region close to the camera where the change in luminance difference is large. By doing so, it is possible to detect the difference sample sun lannon at the same detection level in all regions without being affected by the distance from the camera.
  • step P4A set the first and second positive thresholds TH1 and TH2 and the first and second negative thresholds TH3 and TH4 based on the position of the kth sample line from the video camera I do. TH4, TH3, 0, TH1, and TH2.
  • the reason for setting the threshold value separately for positive and negative is as follows. That is, the luminance difference value of the sample points included in each sample line may be a king value or a negative value. If this processing is performed without distinguishing between positive and negative, the positive and negative luminance difference values cancel each other out, noise is easily picked up, and erroneous detection becomes easy due to these effects. In order to avoid such erroneous detection, the above threshold is divided into positive and negative, and the positive luminance difference value and the negative luminance difference value are processed separately.
  • step P4B the average value PM of the luminance difference values of the sample points of the k-th sample line that are larger than the first positive threshold value TH1 is calculated.
  • step P4C among the sample points of the k-th sample line, the average value NM of the luminance difference values of the sample points smaller than the i-th negative threshold value TH3 is calculated. Proceeding from step P4C to step PD, it is determined whether the average value PM is greater than a second positive threshold value TH2. If the determination in step P4D is "YES”, the process proceeds to step P4F, and if the determination in step P4D is "NO", the process proceeds to step P4E.
  • Step P4E it is determined whether the average value NM is smaller than a second negative threshold value TH4. If the determination in step P4E is "YE S”, the flow advances to step P4F to detect the k-th sample line as a difference sample line. If the determination in step P4E is "NO”, the process proceeds to step P4H, where k is replaced with k ⁇ 1. By the steps P4G and P4H, the operations of the steps P4A to P4F are repeated until k- ⁇ is reached. By this repetition, all difference sample lines for one lane of the measurement area are detected.
  • Positive thresholds TH1 and TH2 in step P4A are smaller for sample lines farther from the video camera, while negative thresholds TH3 and TH4 are smaller for sample lines farther from the video camera. It should be set so that the one corresponding to becomes larger.
  • step P5a the difference image calculated in step P2 in FIG. 22 is spatially differentiated by Sobel micromolecules in the vehicle traveling direction, and the spatial differential value of each sample point is calculated.
  • step P5b a positive threshold TH1, a negative threshold TH2, and a positive integer threshold H3 are set based on the position of the kth sample line from the video camera.
  • step P5c following step P5b, it is determined whether or not the spatial differential value of the m-th sample point of the k-th sample line is greater than TH1. If “YES”, proceed to Step P5e, and if the judgment in Step P5c is “NO”, proceed to Step P5d: Step? In 5 d, it is determined whether the spatial differential value of the m-th sample point of the k-th sample line is smaller than ' ⁇ H2.c If the determination in step P 5 d is “YE S”, Proceed to step P5e, and if the determination in step P5d is "NO”, proceed to step P5g.
  • Step P5c the m-th flag of the k-th sample line is set to “ON”, and the process proceeds to Step P5f.
  • the positive threshold value TH1 in step ⁇ 5b is smaller for the sample line farther from the video camera, and the negative threshold value H2 is smaller for the sample line farther from the video camera. It is good to set it to be large. By setting TH1 and TH2 according to the distance from the video camera in this way, the edge sample line can be obtained with almost the same accuracy at any position without being affected by the distance of the video camera. You can inspect it.
  • the positive integer threshold value TH3 in step P5b is reduced in a region far from the video camera where there is no change in luminance difference, and is increased in a region close to the camera where the change in luminance difference is large. By doing so, it becomes possible to detect the edge sample line at the same detection level in all regions without being affected by the distance from the camera.
  • step P5A the differential image obtained in step P2 in FIG. 22 is spatially differentiated by Sobel micromolecules in the vehicle traveling direction, and the spatial differential value of each sample point is calculated.
  • step P5B based on the position of the k-th sample line from the video camera, set the i-th and second positive thresholds TH1, TH2, and the first and second negative thresholds TH3 and TH4. .
  • the reason for setting the threshold value separately for positive and negative is as follows. That is, the spatial derivative of the sample points included in each sample line may be positive or negative. This is processed positively and negatively In such a case, the positive and negative spatial differential values cancel each other out, noise is easily picked up, and erroneous detection is liable to be caused by these influences. positive, divided negative, and positive spatial differential values and negative space finely divided value to handle separately c
  • step P5C an average value PM of the spatial differential values of the sample points larger than the first positive threshold value TH1 among the sample points of the k-th sample line is calculated.
  • step P5D the average value NM of the spatial differential values of the sample points smaller than the first negative threshold value TH3 among the sample points of the k-th sample line is calculated. Proceeding from step P5D to step P5E, it is determined whether the average value PM is greater than a second positive threshold value TH2.- If the determination in step P5E is "YE S", Proceed to step P5G, and if the judgment in step P5E is "N ⁇ -", proceed to step P5F. In step P5F, the average value NM is smaller than the second negative threshold TH4.
  • step P5F determines whether the edge sample lines for one lane of the measurement area are detected.
  • the positive thresholds TH1 and TH2 in step P5B are smaller for sample lines farther from the video camera, and the negative thresholds TH3 and TH4 are smaller for sample lines farther from the video camera. It is good to set so that the corresponding thing becomes large.
  • TH1 to TH4 according to the distance from the video camera in this way, the edge sample line can be detected with almost the same accuracy at any position without being affected by the distance from the video camera. be able to.
  • the presence sample line at step P6 in Fig. 22 is as follows: To detect. That is, if at least one of the difference sample line detected in step P4 of FIG. 22 and the edge sample line detected in step P5 is at least one of the sample lines, the sample line is regarded as an existing sample. Detect as a line.
  • the correction of the presence sample line based on the arrangement of the presence sample lanons is a process for correcting the detection omission of the presence sample line in the vehicle body range in steps P7a to P7e in the first half.
  • Steps P7g to P7m are processing for correcting erroneous detection of a sample line outside the vehicle body range.
  • a threshold TH1 is set based on the positions of the kth and k-1st existence sample lines from the video camera.
  • step P 7 c count the number of sample lines existing between the k-th and k + 1 existing sample lines c
  • the k-th and k + 1st existence samples are detected.
  • the number of sample lines between lines is as follows. 0 sample lines between the first and second existence sample lines and between the second and third existence sample lines from the top, and the area L 1 between the third and fourth existence sample lines 2 sample lines, 0 sample lines between the 4th and 5th existence sample lines, 5 regions in the area L2 between the 5th and 6th existence sample lines. There are seven sample lines between the sample lines, the sixth and seventh existence sample lines, between the seventh and eighth existence sample lines, and between the eighth and ninth existence sample lines. There are 0 sample lines each.
  • the existing sample lines are classified into a plurality of line groups including continuous existing sample lines without including other sample lines.
  • a threshold value TH2 is set based on the position of each line group from the video camera.
  • Step P7i the number of existing sample lines included in the r-th line group is calculated.
  • step P7d if existing sample lines are detected in the arrangement shown in FIG. 30 (b), the number of existing sample lines in the r-th line group is as follows.
  • the first line group, indicated by region L4 has 7 presence sample lines
  • the second line group, indicated by region 5 has one presence sample line
  • the thresholds TH1, TH2 at steps P7a, P7h are matched to the number of sample lines corresponding to 14 of the average vehicle length depicted on the image. For this reason, the threshold values TH1 and TH2 are set small because the vehicle is obtained as a small image in the area far from the video camera, and large in the area close to the video camera because the vehicle is obtained as a large image. By doing so, it is possible to perform correction processing to add or delete existing sample lines with the same accuracy in all regions without being affected by the distance from the camera.
  • the correction of the existing sample line based on the arrangement of the difference sample line is a process for removing the existing sample point detected by erroneously recognizing that the vehicle is present by the shadow of a building or a vehicle.
  • the above-mentioned difference sample line is simply detected from the luminance difference between the sample point image at the time and the reference luminance image, the range of the shadow of the vehicle and the sudden change in the sunshine of the building Shadow range ⁇ Will be erroneously detected as a present sample line. Therefore, it is necessary to correct erroneous detection caused by the shadow of buildings and vehicles from the arrangement of the difference sample lines.
  • step ⁇ 8a a line group consisting of continuous difference sample lines without including edge sample lines is detected.
  • the line group that does not include the edge Kempl line is specified for the following reasons: In general, it is difficult to detect the edge in the shadow area, and the luminance value of the sample point in the shadow area is relatively high. Because of the small size, edge sample lines are not usually detected-therefore, the area where the nudge sample lines are detected can be considered as having shadows or not.
  • thresholds TH 1 and TH 2 are set based on the position of the k-th line group from the video camera:
  • step P 8 c the difference sample lines included in the k-th line group are set. Count the number.
  • step P8d following step P8c, it is determined whether the number of counted lines is greater than a threshold value TH1. If the determination in step P8d is "YES”, the process proceeds to step P8e, where each sample line image on the sample point image at time tn corresponding to each difference sample line of the k-th line group is displayed. Calculate the average value BM of the luminance values at the sample points. ⁇ Set at step P 8 d If “NO”, proceed to step P 8 i and replace k with k + 1. When the process proceeds from step P8e to step P8f, it is determined whether or not the BM is smaller than the threshold value TH2.
  • the threshold value TH1 in step P8b matches the number of sample lines corresponding to 14 of the average vehicle length depicted on the image, Good. For this reason, the threshold value TH1 is set small since the vehicle is obtained as a small image in a region far from the video camera, and is increased in a region close to the video camera because the vehicle is obtained as a large image. Also, the threshold value TH2 in step P8b should be set so as to be smaller in a region farther from the video camera.
  • step P9a a moving sample point is detected.
  • the procedure for detecting the moving sample point is the same as the detection procedure shown in FIG. 10 of the first embodiment described above, and the description is omitted here to avoid redundant description:
  • a threshold value TH1 is set based on the position of the k-th sample line from the video camera.
  • Step P9c the number of moving sample points included in the k-th sample line is counted.
  • the threshold value TH1 in step P9b should be set to be smaller in areas farther from the video camera.Thus, by setting TH1 in accordance with the distance from the video camera, the threshold value TH1 can be reduced. A moving sample line can be detected with the same accuracy at any position without being affected.
  • the correction of the presence sample line based on the arrangement of the moving sample line corrects the detection omission of the presence sample line within the vehicle body range, which was not corrected in steps P7a to P7f in FIG. 29. It is processing for. Specifically, if the contrast with the reference brightness image is small and a vehicle with a small change in brightness within the vehicle range exists on the road, the presence of this vehicle is detected as a difference sample line or an edge sample line. It is not corrected by the processing of the above steps P7a to P7f. The presence of such a vehicle may be detected by a moving sample line, and the omission of detection of the existing sample line is corrected based on the arrangement of the moving sample line.
  • step P10a thresholds TH1 and TH2 are set based on the positions of the kth and k + 1th existing sample lines from the video camera. However, it is THI and TH2.
  • the threshold value TH1 set in this step P10a the same as the threshold value TH1 set in step P7a in Fig. 29: This setting is made in steps P10a ⁇ This is because the sample line to be corrected in the processing at P10g is limited to only those that are out of the correction target in the processing in steps P7a to P7f. As a result, useless processing and correction omission can be prevented.
  • step P10b the number of sample lines existing between the k-th and k + 1-th existing sample lines is counted.
  • step P10c it is determined whether the number of counted lines is equal to or greater than TH1 and smaller than TH2. If the judgment in step P10c is “YE S”, is it a step? ; L advances to 0 d, if the determination in the scan Tetsupu P 1 0 c "NO", the process proceeds from c step PI 0 c proceeds to step P 1 0 g to step P l O d, k-th and k + It is determined whether a moving sample line exists between the first existing sample lines.
  • the k-th and k + 1st existence The number of sample lines between sample lines is as follows. There are 0 sample lines between each of the first to seventh adjacent existing sample lines from the top, 3 sample lines in the area L7 between the 7th and 8th existing sample lines, 0 sample lines between each of the 8th to i 0th adjacent two existing sample lines, i L 0 6 sample lines between the 0th and 11th existing sample lines, 1 There are 0 sample lines between each of the 1st to 14th adjacent two existing sample lines.
  • area 7 has one moving sample line and area L 8 has zero moving sample line.
  • the threshold values TH1 and TH2 in step P10a may be made to match the number of sample lines corresponding to the average vehicle length of 14 and 1Z2 described in the image, respectively. For this reason, the threshold values TH1 and TH2 should be small because the vehicle is obtained as a small image in the region far from the video camera, and large in the region near the video knife, as the vehicle is obtained as a large image. : By doing so, it is possible to correct the existing sample line with the same level of accuracy in all areas without being affected by the distance from the camera.
  • the mesh at step P 11 in FIG. 22 is shown in FIG. This mesh is set so that the vertical noise increases as the distance from the video camera decreases. By setting the mesh size in accordance with the distance from the video camera in this way, the size of each area on the actual road specified by each mesh can be made similar.
  • the spatial density of each mesh at step P 12 in FIG. 22 is calculated according to the following relation.
  • D (m) P S L (m) / ⁇ S L (m)... (vi)
  • D (m) is the spatial density of the m-th mesh, ! !
  • the number of existing sample lines included in the mth mesh, TSL (m) is the total number of sample lines included in the mth mesh.
  • the mixing ratio of large vehicles in step P13 in Fig. 22 is calculated by the following method. calculate.
  • the mixing ratio Rt of large vehicles in the traffic flow measurement area F shown in FIG. 21 within the unit time of 5 minutes or 10 minutes is calculated by the following equation.
  • N L is large number of vehicles that have passed through the sensing line DL of the 2 1 Figure, the New tau, the total number of vehicles that have passed through the sensing lines DL.
  • the traffic flow measurement area F shown in Fig. 21 as described above, the number of vehicles passing, and the distinction between large vehicles and ordinary vehicles can be measured.
  • the correction of the space density based on the ratio of heavy vehicles and the distance between vehicles in step # 15 in Fig. 22 is performed by the following method.
  • the correction due to the mixture of large vehicles is a process for correcting the spatial density calculated based on the apparent vehicle existence range. Specifically, when the vehicle shown by the hatched area in FIG. 36 is a large vehicle, the apparent vehicle existence range becomes much larger than the actual existence range of the vehicle.
  • the spatial density calculated based on this apparent vehicle existence range is corrected: First, the average vehicle height ha and average vehicle length 1a of all vehicles that have passed through the traffic flow measurement area F in the unit time are calculated by the following equations. It is calculated by:
  • the correction factor Re for correcting the apparent vehicle existence range to the actual vehicle existence range is calculated by the following equation.
  • the number of vehicles passing, the classification of large vehicles and ordinary vehicles, the length of vehicles, etc. can be measured.
  • the correction by the complement ratio Re may be used for the measurement results in the spatial measurement area E other than the traffic flow measurement area F.
  • the length of each vehicle can be directly measured, so that the correction rate may be calculated for each vehicle.
  • the correction rate Re calculated as described above can be used as it is if the inter-vehicle distance is long, but if the inter-vehicle distance is short, that is, if the vehicles overlap on the image taken by the video camera, If you can see, (Re calculated by X can not be used as it is, it is necessary to increase. Specifically, the longer the distance between vehicles, the more the recovery rate Re is calculated by equation (xi) The correction factor Re approaches 1 as the distance between the vehicles decreases.
  • the inter-vehicle distance is measured by the space velocity and the traffic flow measurement area F calculated by a method described later.
  • the number of vehicles passing per unit time is used as equivalent to the distance between vehicles. Specifically, as the space velocity increases, the correction rate Re approaches the value calculated by the formula (X), and as the space velocity decreases, the correction rate Re approaches 1. On the other hand, as the number of passing vehicles decreases, When the correction factor Re approaches the value calculated by the formula (X As the number of excess units increases, the correction rate Re approaches 1c
  • step P15 of FIG. 22 the spatial density is corrected by multiplying the spatial density of each mesh by the correction rate Re calculated and corrected as described above.
  • step Q1 a sample image of each of the images at times t n and t n +7 is created.
  • step Q2 the average value of the luminance values of the sample points included in each sample line of each sample point image is calculated, and the line luminance average value of each sample line is calculated.
  • step Q3 a moving sample line on the sample point image at time t n is detected.
  • the moving sample line is detected by the same procedure as in the flowchart of FIG. 32 described above, and the description is omitted here to avoid redundant description.
  • step Q4 the destination of each moving sample line on the sample point image at time t n on the image at time t n + y is detected.
  • step Q5 the speed of the moving sample line where the moving destination is detected is calculated.
  • step Q6 the sample point image at time t n is divided into a plurality of meshes.
  • step Q7 the average speed of the moving sample line that could track the destination in the k-th mesh is calculated.
  • step Q8 the ratio of the number of moving sample lines whose tracking destination can be tracked by the k-th mesh to the total number of sample lines included in the k-th mesh is calculated.
  • step Q9 following step Q8, it is determined whether the ratio of the moving sample line of the k-th mesh is larger than a predetermined threshold.
  • step Q9 Judgment power; if “YES”, proceed to step Q10 to detect the average velocity of the moving sample line of the kth mesh ⁇ as the spatial velocity of the kth mesh c step Q If the judgment at 9 is “N ⁇ j”, proceed to step Ql 1 Set the degree 0 km / h as the space velocity of the k-th mesh.
  • step Q9 the k-th space velocity is exponentially smoothed, and then proceeds to step Q13.
  • the space velocity of each mesh is calculated at time tn of the sample point image c
  • FIG. 38 shows the general relationship between the image data required in the above steps Q1 to Q15 and the data detected or calculated.
  • step Q 4 a based on the position of the k-th moving sample line on the sample point image at time tn and time interval 7, estimate the t ⁇ + ⁇ of the k-th moving sample line on the sample point image. Calculate the movement range.
  • step Q 4 b the luminance representing the difference between the luminance value of the k-th moving sample line on the sample point image at time tn and each sample line within the expected movement range on the sample point image at time t ⁇ + ⁇ Calculate the absolute value of the difference value.
  • step Q4c following step Q4b, it is determined whether or not the absolute value of the minimum luminance difference value is smaller than a predetermined threshold. If the determination in step Q4c is “YE S”, the process proceeds to step Q4d, and the sample line of the absolute value of the minimum luminance difference value is detected as the destination of the k-th moving sample line. If the determination in step Q4d is "NO”, the process proceeds to step Q4e to detect that there is no destination for the k-th moving sample line c
  • step Q 4 A based on the position of the k-th moving sample line on the sample point image at time tn and the time interval ⁇ , the k-th moving sample line on the sample point image of t ⁇ + ⁇ / Calculate the first expected movement range.
  • step Q 4 ⁇ ⁇ a range shifted by about one sample line from the first expected movement range is detected as a second and third expected movement range, respectively.
  • step Q 4 C the luminance values of the k-th moving sample line on the sample point image at time t ⁇ and the m-th sample line of the first expected moving range on the sample point image at time tn + y Calculate the absolute value 1 of the luminance difference value representing the difference between the two.
  • step Q 4 D the sample line immediately before the k-th moving sample line on the sample point image at time tn and the m-th sample in the second expected moving range on the sample point image at time t ⁇ + ⁇
  • the absolute value U2 of the luminance difference value representing the difference between the luminance value and the line is calculated.
  • step Q 4 E the sample line immediately after the k-th moving sample line on the sample point image at time ⁇ and the m-th sample line within the third expected moving range on the sample point image at time tn sub ⁇ Calculate the absolute value U3 of the luminance difference value representing the difference between the luminance value and the luminance value.
  • step Q4F the sum of the brightness difference values is calculated by adding the values of T1 , U2, and '3.
  • step Q4I it is determined whether the smallest Um of the total sum Um is smaller than the threshold. Separate- If the determination in step Q4 I is “YE S”, proceed to step Q4 J to select the m-th sample line within the first expected movement range of the minimum sum Um at the sample point image at time tn Detected as the destination of the k-th moving sample line above. If the determination in step Q4I is "NO”, the flow advances to step Q4K to determine that the k-th moving sample line on the sample point image at time tn has no moving destination.
  • the destinations of all the moving sample lines on the sample point image at time tn on the image at time t ⁇ + ⁇ are detected c
  • a moving sample line MV d is detected on the image of the sample point at time tn, and the first expected moving range is (b) of FIG.
  • PA1 the first expected movement range
  • PA2 the second expected movement range
  • PA3 the third expected movement range.
  • the three sample Ranons corresponding to the minimum sum of the sums Um calculated in the above step Q4 F are the positions b, b—1, and b ⁇ b on the sample point image at time tn + y in (b) of FIG.
  • the sample line is located at b + 1
  • the sample at the position b is the destination of the moving sample line MVa.
  • the speed Vk of each moving sample line in step Q5 in FIG. 37 is calculated by the following equation.
  • La is the coordinate position of each moving sample line on the sample point image at time tn in the vehicle running direction
  • Lb is the movement of each moving sample line on the sample point image at time tn-r ⁇ .
  • V (m, tn) (1- ⁇ ) XV (m, tn-l) + ⁇ XV (-, t ⁇ ) ' ⁇ ⁇ (xiii)
  • V (m, tn) is the space velocity at the time t of the m-th mesh
  • V (m, tn-1) is the space velocity at the time tn-1 of the m-th mesh
  • the space velocity, e is an exponential coefficient with 0 ⁇ ⁇ 1.
  • the noise can be removed by the exponential smoothing of the space velocity.
  • step Z1 the space velocity of each mesh is calculated. There are two methods for calculating this space velocity.
  • the first calculation method is to calculate the space velocity by the procedure according to the flowchart of FIG. 37 described above.
  • the second calculation method uses the spatial density calculated by the flow chart procedure in Fig. 22 and the traffic volume measured in the traffic flow measurement area F in Fig. 21, and This method calculates the space velocity V (m, tn).
  • V (m, tn) (q (tn) X 1 a) / d (m, tn)... (ix) where q (tn) is the traffic volume per unit time in the spatial measurement area at time tn, 1a is the average vehicle length in the space measurement area at time tn, d
  • (m, t n) is the spatial density of the m-th mesh.
  • V (m, tn) (1-) X V (m, tn-1) + ⁇ XV (m, in)
  • step ⁇ 2 to eliminate the effects of noise components and congestion compression waves, the average space velocity Mv (m) of each mesh is calculated by the following equation:
  • Mv (m) is the averaged space velocity in the m-th mesh
  • Mv (m) is the averaged space velocity in the m-th mesh
  • step Z3 of the above averaged space velocity Mv (m)
  • Mv (m) ⁇ Cv
  • All meshes having Mv (m) that satisfy them are detected as congested areas.
  • step Z4 the position of the upstream end of the congested area is detected as the congested end position.
  • Fig. 45 is a diagram showing the relationship between the mesh, the congestion area and the end position of the congestion.
  • step Z1 ' the number of moving sample points included in each mesh is counted.
  • step ⁇ 2 ' the moving density of each mesh Mr (m) is calculated by dividing the number of moving sample points of each mesh by the number of total sample points included in each mesh.
  • step Z 3 ′ a mesh whose spatial density D (m) is larger than the predetermined threshold C 1 and whose movement density Mr (m) is smaller than the predetermined threshold C 2 is detected as a congestion area.
  • step Z4 ' the position of the upstream end of the congestion area is detected as the end position of the congestion.
  • Steps Z1 to Z4 in FIG. 42 and Z1 ′ to ⁇ 4 ′ in FIG. 43 are repeated at predetermined time intervals.
  • the traffic congestion measuring device 82 shown in FIG. 20 is based on the spatial density measured according to the fucco-chart in FIG. 22, the spatial velocity measured according to the fucco chart in FIG. 37, and FIG. 42 or Measured according to the flowchart in Figure 43
  • the end position of the traffic congestion is transmitted to the central control unit 100 of the traffic control center together with the various measurement results measured by the traffic flow measuring device F in FIG.
  • the central controller 100 creates traffic information to inform the driver of the vehicle traveling on the road photographed by the video camera 81 based on the received measurement result, and sends the traffic information to the display controller 92. Send.
  • the display control device 92 displays the received traffic information on the information display board 91.
  • the luminance data of only the pixel corresponding to the specific sample point is processed without processing the luminance data of all the pixels of the image.
  • the cost can be reduced because the hardware configuration of the device can be simplified, and high-speed processing can be performed. Will be possible.
  • the traffic congestion measurement device since the presence or movement of the vehicle is detected in units of sample lines, the spatial velocity and the spatial density of each mesh can be detected.
  • the traffic congestion measurement device is set to recognize the area occupied by a group of vehicles under 40 kmZh as traffic congestion, the speed and density of vehicles in the traffic congestion area ⁇ can be directly measured in real time. Measurement can be performed and detailed traffic information can be provided. Therefore, the traffic control system of the present embodiment is effective when applied to a highway.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

明 細 書 交通渋滞計測方法および装置並びに画像処理方法および装置 技術分野
本発明は、ビデオカメラにより撮影された道路と該道路上を行き来する車両 の動画像上にサンプル点を設定し、 サンプル点の輝度に基づいて道路の渋滞 状況を自動的に検出する方法および装置に関する。 また、 画像にサンプル点 を設定して画像を処理する方法および装置に関する。 背景技術
従来、 道路交通の円滑化を図るために、 交通渋滞の状況を計測する種々の 交通渋滞計測システムが提案されている。 このような交通渋滞計測システム としては、 車両の存在や動きを検知するセンサとして、 超音波センサを用い る超音波式交通渋滞計測システムゃループコイルを用いるループコィル式交 通渋滞計測システムがよく知られている。
超音波センサを用いた交通渋滞計測システムは、 道路の路面から所^高さ 隔てた位置に超音波センサを配置し、 該超音波センサによりセンサ直下近傍 の車両の存在、 車両の速度を検知して、 道路の渋滞状況を検出するものであ る。 ループコイルを用いた交通渋滞システムは、 道路にループコィ を埋め 込み、 ループコイルの上方の車両通過に伴う磁気の変化から、 車両の存在、 車両の速度を検知して、 道路の渋滞状況を検出するものである- これら超音波センサゃル一プコイルを用いた交通渋滞計測システム;こおい ては、 超音波センサやループコイルの設置地点のみの情報しか得られず、 所 定時間における通過台数、 または、 設置地点を通過する車両のうちのごく一 部の特定車の速度を用いて間接的に渋滞状況を推定しているのが現状であ る- このため、 超音波センサやループコイルを用いた交通渋滞計測システム では、 交通渋滞における正確な渋滞範囲をリアルタイムに自動計測するこご は困難である。 例えば、 交差点からの渋滞の長さに応じて信号の切り替え時 期を制御する目的で、 上記の超音波センサやループコイルを採用した場合に は、 交通渋滞を速やかに緩和させるような信号制御が困難になるといった間 題がある。
上記の超音波センサやループコイルを用いた交通渋滞計測システム り正 確な渋滞状況をリアルタイムで計測できるものとして、 ビデオカメラを用い た以下の 2例の交通渋滞計測システムが提案されている。 第 1の例は、 wootton Jeffreys CONSULTANTSの" INP ACTS: A New TV Image Processing System for Monitoring Traffic Conditions"または欧州特許公報 0403 ! 93号 に 開示されているシステムである。 これは、 ビデオカメラにより撮影された画 像上の道路を 1台の車の長さ程度の大きさに車線毎にブコック化し、 それぞ れのブロックが、 車が検知されない空きのブロック、 移動している車を検知 したブロック、 止まっている車を検知したブロックの中のどのブロックに相 当するかを画像処理により調べ、 3種類のプロックの存在パターン;こ応じ て、 渋滞の状況検出、 例えば、 完全に停滞している、 少し移動している、 順 調に流れている等を検出する。
第 2の例は、 北村等による電気学会産業応用部門全国入会資料 ( 1 9 9 1 ) の 「道路交通渋滞計測システムの検討」 に開示されているシステムであ る。 これは、 ビデオカメラにより撮影された画像から車両密度、 車両の移動 量、 路面輝度の 3種の特徴量を抽出し、 これらの 3種の特徴量をニニ一ラル ネットワークの入力層に入力し、 0〜 1の範囲の 0 . 2刻みの 5段階に: ii力値 を求め、 その出力値に応じて、 渋滞の状況を 5段階に検出、 すなわち、 「空 き」 、 「定常走行」 、 「混雑」 、 「やや渋滞」 、 「渋滞」 の 5つの状況を検 出する。
しかしながら、 上述の第 1の従来例と第 2の従来例の交通渋滞計測システ ムには以下のような問題点があった。 すなわち前者の交通渋滞計測システム にあっては、 3種類のプロックの存在パターンと渋滞の状況との関係を各 ¾ 点毎に事前に学習しておく必要がある。 また、 車線毎にブコック化処理が必 要になるので、 複数の車線に跨がった渋滞を検出することができず、 正確な 渋滞状況を検出できない。 更に、 遠方では車両が小さくなるので、 車 1台に 相当するプロック化が困難であり、 長い距離にわたる渋滞検出は行えない。 —方、 後者の交通渋滞計測システムにあっては、 ニニ一ラルネッ、フーク を利用しているので、 予め学習用の大量のデータを用いてニューラル ット ワークを構成しておかなければならず、 前準備が煩雑である。 また、 道路環 境が変化すると、 新たにニューラルネットワークを構成し直さなければなら ない。 さらに、 画像全体を一括して画像処理して渋滞状況を検出しているの で、 画像上の部分的な渋滞状況を検出することができず、 画像上の 分毎の 詳細な情報、 例えば、 「道路上の X 1地点からどの X 2地点まで yメー トル の渋滞が発生」 というような部分的な渋滞の長さの情報を提供できない- どちらの交通渋滞計測システムにも上述のような問題点があり、 実用化す るのは困難である。 本発明は斯かる事情に鑑みてなされたものであり、 事前 の学習量が少なくて良く、 複数の車線に跨がった渋滞も検出することがで き、 環境の変化、 例えば、 計測地点、 時間帯、 天候、 交通量等の変 :こ関わ らずに安定して渋滞状況を検出でき、 しかも渋滞の長さも検出できる交通渋 滞計測方法及び装置を提供することを目的とする。
また、 上記の利点を併せ持ってかつ、 例えば 2 0 k mZ h以下の速度で低 速運転している車両群による渋滞を正確に検出可能な、 高速道路の渋滞検出 に適した交通渋滞計測方法および装置を提供することを目的とする c
さらに、 上記交通渋滞計測万法および装置で採^した処理手順を ^した 画像処理方法およぴ装置を提供することを目的とする。 発明の開示
第 1の発明によれば、 ビデオカメラにより撮影された、 道路と該道路上を行 き来する車両とを描写した一連の複数の画像からなる動画像に基づいて.. 交通 渋滞の状況を計測する交通渋滞計測方法であって、 前記動画像上に、 それぞれ 輝度値を有する複数のサンプル点を設定するステップ (a ) ご、 前記一連の画 像のうちの所定時刻における画像上の、 車両が存在していると推測されるサン プル点を、 存在サンプル点として検出するステップ (b ) と、 前記所定時刻の 画像上の、 移動中の車両が存在していると推測されるサンブル点を、 移動サン プル点として検出するステップ (c ) と、 所定の割合以上の移動サンプノレ点を 含む互いに隣接する複数のサンプル点から構成されるブコックを、 移動プロッ クとして検出するステップ (d ) と、 前記移動ブロックから外れた存在了ンプ ル点を、 渋滞サンプル点として検出するステップ (e ) と、 所定の割合以上の 渋滞サンプル点を含む互いに隣接する複数のサンプル点から構成されるブコッ クを、 渋滞ブロックとして検出するステップ (f ) と、 前記渋滞ブロックに基 づいて、 前記所定時刻における前記道路上の交通渋滞の状況を計測するステツ プ (g ) と、 を備えた交通渋滞計測方法が提供される。
第 2の発明によれば、 ビデオカメラにより撮影された、 道路と該道路上を行 き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、 交通 渋滞の状況を計測する交通渋滞計測装置であって、 前記動画像上に、 それぞれ 輝度値を有する複数のサンプル点を設定する第 1の手段と、 前記一連の画像の うちの所定時刻における画像上の、 車両が存在していると推測される—ンブノ 点を、 存在サンプル点として検出する第 2の手段と、 前記所定時刻の画像上 の、 移動中の車両が存在していると推測されるサンブル点を、 移動サンプル点 として検出する第 3の手段と、 所定の割合以上の移動サンプル点を含む互いに 隣接する複数のサンプル点から構成されるプロックを、 移動プロックとして検 出する第 4の手段と、 前記移動ブロックから外れた存在サンプル点を、 渋滞サ ンプル点として検出する第 5の手段と、 所定の割合以上の渋滞サンブル sを含 む互いに隣接する複数のサンプル点から構成されるブロックを、 渋滞ブコック として検出する第 6の手段と、 前記渋滞ブロックに基づいて、 前記所 時刻に おける前記道路上の交通渋滞の状況を計測する第 7の手段と、 を備えた交通渋 滞計測装置が提供される。 第 3の発明によれば、 ビデオカメラにより撮影された、 道路と該道路上を行 き来する車両とを描写した一連の複数の画像からなる動画像に基づ 、て、 交通 渋滞の状況を計測する交通渋滞計測方法であって、 輝度値をそれぞ 有すると ともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプ によ りそれぞれが構成される複数のサンプルラインを前記動画像上に設定するステ ップ (a ) と、 前記ビデオカメラにより撮影されて、 車両が道路上に存在して いないと推測される基準輝度画像を作成するステップ (b ) と、 前記一運の画 像のうちの所定時刻の画像と前記基準輝度画像との輝度の差を表す差分画像を 算出して、 前記所定時刻の画像と前記基準輝度画像との位置的に対応するサン プル点の輝度の差を表す輝度差分値を算出するステップ (c ) と、 前記差分画 像上の各サンプル点の輝度差分値に基づいて、 前記基準輝度画像上のサンブル ラインとの輝度の差が所定値より大きな前記所定時刻の画像上のサンプルライ ンを、 差分サンプルラインとして検出するステップ (d ) と、 前記差分画像を 空間微分して、 差分画像上の各サンプル点の微分値を算出するステツァ ( e ) と、 空間微分された前記差分画像上の各サンプル点の微分値に基づ'、'、'て、 前記 所定時刻の画像上のサンプルラインのうちの、 隣接するサンブルラノンごの輝 度の差が所定値より大きなサンプルラインを、 エッジラインとして検出するス テツブ ( ί ) と、 前記ステップ (d ) で検出された差分サンプルラインと前記 ステップ (f ) で検出されたエッジラインとの両方を、 車両が存在していると 推測される存在サンプルラインとして検出するステップ (g ) ご、 前記存在サ ンプルラインに基づいて、 交通渋滞の状況を計測するステップ (h ) と、 を備 えた交通渋滞計測方法が提供される。
第 4の発明によれば、 ビデオカメラにより撮影された、 道路と該道路上を行 き来する車両とを描写した一連の複数の西像からなる動画像に基づいて、 交通 渋滞の状況を計測する交通渋滞計測方法であって、 輝度値をそれぞれ有すると ともに前記道路の横断方向に一列に前記動画像上;こ並ぶ複数のマンブ ^ ,こよ りそれぞれが構成される複数のサンプルラインを設定するステップ (&; ご、 前記一連の画像のうちの所定時刻における画像上の各サンブル点の輝度に基づ いて、 車両が存在していると推測されるサンプルラインを、 存在サンプルラノ ンとして検出するステップ (b ) と、 前記所定時刻の画像に描写された、 車両 の影を含む前記道路上の影の領域を推定するステップ (c ) と、 前記影の領域 に基づいて、 前記存在サンプルラインを補正するステップ (d ) と、 該ステツ プ (d ) で補正された存在サンプルラインに基づいて、 交通渋滞の状¾を計測 するステップ (e ) と、 を備えたことを特徴とする交通渋滞計測方法が提供さ れる。
第 5の発明によれば、 ビデオカメラにより撮影された、 道路と該道路上を行 き来する車両とを描写した一連の複数の画像からなる動画像に基づいて. 交通 渋滞の状況を計測する交通渋滞計測方法であって、 輝度値をそれぞれ有すると ともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンブル^によ りそれぞれが構成される複数のサンプルラインを設定するステツァ 、' ) と、 前記所定時刻の画像上の、 移動中の車両が存在していると推測される ンプル ラインを、 移動サンプルラインとして検出するステップ (b ) と、 前記移動サ ンプルラインに基づいて、 交通渋滞の状況を計測するステップ (c ) とを備え たことを特徴とする交通渋滞計測方法が提供される。
第 6の発明によれば、 ビデオカメラにより撮影された、 道路と該道路上を行 き来する車両とを描写した一連の複数の画像からなる動画像に基づ 、'て、 交通 渋滞の状況を計測する交通渋滞計測方法であって、 輝度値をそれぞれ有すると ともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンブル点によ りそれぞれが構成される複数のサンプルラインを設定するステップ ( と、 前記一連の画像のうちの所定時刻における画像上の各サンプル点の輝度;こ基づ いて車両が存在していると推測されるサンプルラインを、 存在サンブルライン として検出するステップ (b ) と、 前記存在サンプルラインに基づいて、 前記 所定時刻の前記道路上に存在する車両の密度を算出するステップ (c ) ご、 前 記所定時刻の画像に描写された全車両に対して、 所定サイズょり大きな車両が 含まれている割合を推定するステップ (d ) と、 該ステップ (d ) で推 され た割合に基づいて、 前記車両の密度を補正するステップ (e ) ご、 前記ステツ プ (e ) で補正された車両の密度に基づいて、 交通渋滞の状況を計測するステ ップ (f ) と、 を備えた交通渋滞計測方法が提供される。
第 7の発明によれば、 ビデオカメラにより撮影された、 道路と該道路上を行 き来する車両とを描写した一連の複数の画像からなる動画像に基づいて. 交通 渋滞の状況を計測する交通渋滞計測方法であって、 輝度値をそれぞれ^丁るご ともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンブル点によ りそれぞれが構成される複数のサンプルラインを設定するステップ (a ) と、 前記一連の画像のうちの所定時刻 tにおける画像上の各サンブルラインのサン ブル点の輝度値の平均を表す平均輝度値を算出するステップ (b ) と, フを正 の時間間隔として、 前記一連の画像のうちの前記時刻 t γにおける画像上の 各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算 丁るス テツプ (c ) と、 前記時刻 tの画像上の、 移動中の車両が存在してい、るご推定 されるサンプルラインを、 移動サンプルラインとして検出するステツァ (d ) と、 前記時刻 t + γにおける画像上のサンプルラインの中から、 前記時刻 tに おける画像上の各移動サンプルラインの移動先と推測されるサンプルライン を、 移動先サンプルラインとして検出するステップ (e ) と、 前記移動サンプ ルラインと前記移動先移動サンプルラインとに対応する道路上の実際 C二つの 位置間の距離と前記時間 yとに基づいて、 各移動サンブルラノンの速度を算出 するステップ (f ) と、 前記ステップ (ί ) で算出された各移動サンアルライ ンの速度に基づいて、 前記道路の交通渋滞の状況を計測するステップ (g ) と、 を備えた交通渋滞計測方法が提供される。
第 8の発明によれば、 ビデオカメラにより撮影された、 道路と該道路上を行 き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、 交通 渋滞の状況を計測する交通渋滞計測方法であって、 前記ビデオカメラにより撮 影されて、 車両が存在していないと推測される画像を基準輝度画像として設定 するステップ (a ) と、 所定時刻の画像と前記基準輝度画像とに基づいて、 前 記所定時刻の画像上の車両の存在を検出するステップ (b ) と、 該ステップ ( b ) 後、 前記基準輝度画像を更新するステップ (c ) と、 前記ステップ ( b ) とステップ (c ) とを所定の時間間隔で繰り返すステツブ (d , こ 、 を備え、 前記ステップ (c ) では、 前記基準輝度画像が、 次式によって更新 され、
Β η+1 = Βη+1 + η X ( Χη— Βη)
ここに、 Χηは、 時刻 t nの画像の各画素の輝度値、 B nは、 時刻 t nの画像 上の車両の存在を検出するのに使われる基準輝度画像の各画素の輝度値、 3 r. +1は、 時刻 t n+1の画像上の車両の存在を検出するのに使われる基準輝度画 像の各画素の輝度値を表し、 t riTl—し nが前記所定の時間間隔に等しく、 η は可変係数であり、 i X n— B n ;が大きレ、ほど小さくするごもに、 萆両の 渋滞度が高くなるほど小さくするようにした交通渋滞計測方法が提^され る。
第 9の発明によれば、 ビデオカメラにより撮影された、 道路と該道路二を行 き来する車両とを描写した一連の複数の画像からなる動画像に基づ 、て、 交通 渋滞の状况を計測する交通渋滞計測方法であって、 所定時刻の画像を複数個に 区分するメッシュ毎に、 存在する車両の平均速度を表す空間速度を算出するス テツプ (a ) と、 前記空問速度に基づいて、 渋滞が発生しているメッシュを渋 滞領域として検出するステップ (b ) と、 前記渋滞領域の末尾位置を検 する ステップ (c ) と、 を備えた交通渋滞計測方法が提洪される,
第 1 0の発明によれば、 ビデオカメラにより撮影された、 道路と該道路上を 行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、 交 通渋滞の状況を計測する交通渋滞計測装置であって、 輝度値をそれぞれ有する とともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンブル点に よりそれぞれが構成される複数のサンプルラインを前記動画像上に設定する手 段と、 前記ビデオカメラにより撮影されて、 軍両が道路上に存在してい ご 推測される基準輝度画像を作成する手段と、 前記一連の画像のうちの所 時 の画像と前記基準輝度画像との輝度の差を表す差分画像を算出して、 前記所定 時刻の面像と前記基準輝度画像との位置的に対応するサンブ /レ点の輝度の差を 表す輝度差分値を算出する手段と、 前記差分画像上の各サンプル点の輝度差分 値に基づいて、 前記基準輝度画像上のサンプルラ ンとの輝度の差が所定値よ り大きな前記所定時刻の面像上のサンプルラインを、 差分サンブルラノンご一 て検出する手段と、 前記差分画像を空間微分して、 差分画像上の各サンプル = の微分値を算出する手段と、 空間微分された前記差分画像上の各サンブル点の 微分値に基づいて、 前記所定時刻の画像上のサンプルラインのうちの、 隣接す るサンプルラインとの輝度の差が所定値より大きなサンプルラインを、 ニッジ ラインとして検出する手段と、 前記差分サンプルラインと前記エッジラインと の両方を、 車両が存在していると推測される存在サンプルラノンとして検出す る手段と、 前記存在サンプルラインに基づいて、 交通渋滞の状況を計測丁る手 段と、 を備えた交通渋滞計測装置が提供される。
第 1 1の発明によれば、 ビデオカメラにより撮影された、 道路と該道路上を 行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、 交 通渋滞の状況を計測する交通渋滞計測装置であって、 輝度値をそれぞれ有する とともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンプル点に よりそれぞれが構成される複数のサンプルラインを設定する手段と、 前記所定 時刻の画像上の、 移動中の車両が存在していると推測されるサンブルライン を、 移動サンプルラインとして検出する手段と、 前記移動サンアルラインに基 づいて、 交通渋滞の状況を計測する手段と、 を備えたことを特徴とする 通渋 滞計測装置が提供される。
第 1 2の発明によれば、 ビデオカメラにより撮影された、 道路と該道路上を 行き来する車両とを描写した一連の複数の画像からなる動画像に基づレ、て、 交 通渋滞の状況を計測する交通渋滞計測装置であって、 輝度値をそれぞれ有する とともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンァ /レ^に よりそれぞれが構成される複数のサンプルラインを設定する手段と、 前記一連 の画像のうちの所定時刻における画像上の各サンプル点の輝度に基づいて車両 が存在していると推測されるサンプルラインを、 存在サンプルラノ ンこ ^て検 出する手段と、 前記存在サンプルラインに基づいて、 前記所定時刻の前記道路 上に存在する車両の密度を算出する手段と、 前記所定時刻の画像に描写された 全車両に対して、 所定サイズより大きな車両が含まれている割合を推定する手 段と、 前記割合に基づいて、 前記車両の密度を補正する手段と、 を備えた交通 渋滞計測装置が提供される。
第 1 3の発明によれば、 ビデオカメラにより撮影された、 道路と該道路上を 行き来する車両とを描写した一連の複数の画像からなる動画像に基づいて、 交 通渋滞の状況を計測する交通渋滞計測装置であって、 輝度値をそれぞれ有する とともに前記道路の横断方向に一列に前記動画像上に並ぶ複数のサンアル点に よりそれぞれが構成される複数のサンプルラインを設定する手段と、 前記一連 の画像のうちの所定時刻 tにおける画像上の各サンプルラインのサンプル点の 輝度値の平均を表す平均輝度値を算出する手段と、 '/を正の時間間隔ご て、 前記一連の画像のうちの時刻 t + における画像上の各サンブルラインのサン プル点の輝度値の平均を表す平均輝度値を算出する手段と、 前記時刻 tの画像 上の、 移動中の車両が存在していると推定されるサンプルラインを、 移動サン プルラインとして検出する手段と、 前記時刻 t + Ύにおける画像上のサンプル ラインの中から、 前記時刻 tにおける画像上の各移動サンプルラインの移動先 と推測されるサンプルラインを、 移動先サンプルラインとして検出する手段 と、 前記移動サンプルラインと前記移動先移動サンプルラインとに対応丁る道 路上の実際の二つの位置間の距離と前記時問 Ύとに基づいて、 各移動 7ンプル ラインの速度を算出する手段と、 算出された各移動サンプルラインの速度に基 づいて、 前記道路の交通渋滞の状況を計測する手段と、 を備えた交通渋滞計測 装置が提供される。
第 1 4の発明によれば、 カメラにより撮影され、 対象物と背景とを一緒に描 写した画像を処理する画像処理方法において、 前記背景のみを描写する基準輝 度画像を作成するステップご、 前記画像と前記基準輝度画像との輝度 ^差を表 す差分画像を算出するステップと、 前記差分画像に含まれた各画素の輝度値が 所定値より大きいか否かを判別するステップと、 前記カメラの位置から各画素 に対応する実際の各位置までの距離に応じて、 前記所定値を変化させるステツ プと、 を備えた画像処理方法が提供される。 第 1 5の発明によれば、 ビデオカメラにより撮影された一連の連続した画像 のうちの時刻 tにおける画像と、 αを正の時間間隔として、 時刻 こおけ る画像との輝度の差を表す第 1の差分画像を算出するステップと、 前記第 1の 差分画像に所定の第 1の閾値で二値化処理を施して、 「0」 および 「1」 のン ベルを有する画素のみからなる第 1の特徴抽出画像を作成するステップご、 前 記一連の連続した画像のうちの時刻 tにおける画像と、 ]3を正の時間間隔とし て、 時刻 t + 3における画像との輝度の差を表す第 2の差分画像を算出するス テツプと、 前記第 2の差分画像に所定の第 2の閾値で二値化処理を施して、 「0」 および 「1」 のレベルを有する画素のみからなる第 2の特徴抽出画像を 作成するステップと、 前記第 1の特徴抽出画像と前記第 2の特徴抽出画像との 論理積をとつて積画像を作成するステップと、 前記ビデオカメラの位置から の、 前記時刻 tにおける画像に含まれる各画素に対応する実際の各位置までの 各距離に応じて、 前記 αおよび 3を変化させるステップと、 を備えた画像処理 方法が提供される。
第 1 6の発明によれば、 カメラにより撮影された画像に含まれる画素の輝度 値に基づいて、 前記画素を第 1の画素と第 2の画素の何れかに分別するステツ プと、 前記画像のそれぞれを部分的に構成する複数の候補ブコックのそれぞれ に含まれる全画素に対する第 1の画素の個数の割合を算出するステツ 7ご、 前 記第 1の画素の割合が所定値より大きい候補プロックを検出するステップと、 前記カメラの位置からの、 前記各候補ブロックに対応する実際の各位置までの 各距離に応じて、 前記所定値を変化させるステップと、 を備えた画像処理方法 が提供される。
第 1 7の発明によれば、 カメラにより撮影された画像に含まれる画素の輝度 値に基づいて、 前記画素を第 1の画素と第 2の画素の何れかに分別するステツ プと、 前記画像のそれぞれを部分的に構成する複数の候補ブコックのそれぞれ に含まれる全画素に対する第 1の画素の個数の割合を算出するステップご、 前 記第 1の画素の割合が所定値より大きい候補プロックを検出するステップと、 前記カメラの位置からの、 前記各候補プロックに対応する実際の各位置までの 各距離に応じて、 各候補ブロックの大きさを変化させるステップと、 を備えた 画像処理方法が提供される。
第 1 8の発明によれば、 カメラにより撮影され、 対象物と背景とを一緒に描 写した画像を処理する画像処理装置において、 前記背景のみを描写する基準輝 度画像を作成する手段と、 前記画像と前記基準輝度画像との輝度の差を表す差 分画像を算出する手段と、 前記差分画像に含まれた各画素の輝度値が所定値よ り大きいか否かを判別する手段と、 前記カメラの位置から各画素に対^する実 際の各位置までの距離に応じて、 前記所定値を変化させる手段と、 を備えた画 像処理装置が提供される。
第 1 9の発明によれば、 ビデオカメラにより撮影された一連の連続した画像 のうちの時刻 tにおける画像と、 c を正の時間間隔として、 時刻 t一 こおけ る画像との輝度の差を表す第 1の差分画像を算出する手段と、 前記第 1の差分 画像に所定の第 1の閾値で二値化処理を施して、 「0」 および i - :, ベル を有する画素のみからなる第 1の特徴抽出画像を作成する手段と、 前記一連の 連続した画像のうちの時刻 tにおける画像と、 j3を正の時間間隔として.、 時刻 t + /3における画像との輝度の差を表す第 2の差分画像を算出する手段ご、 前 記第 2の差分画像に所定の第 2の閾値で二値化処理を施して、 「0」 および 「1」 のレベルを有する画素のみからなる第 2の特徴抽出画像を作成する手段 と、 前記第 1の特徴抽出画像と前記第 2の特徴抽出画像との論理積をとって積 画像を作成する手段と、 前記ビデオカメラの位置からの、 前記時刻 t ;こおける 画像に含まれる各画素に対応する実際の各位置までの各距離に応じて、 前記 α および を変化させる手段と、 を備えた画像処理装置が提供される。
第 2 0の発明によれば、 カメラにより撮影された画像に含まれる画素の輝度 値に基づいて、 前記画素を第 1の画素と第 2の画素の何れかに分 Τる手段 と、 前記画像のそれぞれを部分的に構成する複数の候補ブコックのそ ぞれ;こ 含まれる全画素に対する第 1の画素の個数の割合を算出する手段と、 前記第 1 の画素の割合が所定値より大きい候補プロックを検出する手段と、 前記刀メラ の位置からの、 前記各候補プロックに対応する実際の各位置までの各距離に応 じて、 前記所定値を変化させる手段と、 を備えた画像処理装置が提供される: 第 2 1の発明によれば、 カメラにより撮影された画像に含まれる画素の輝度 値に基づいて、 前記画素を第 1の画素と第 2の画素の何れかに分別する手段 と、 前記画像のそれぞれを部分的に構成する複数の候補ブコックのそれぞれに 含まれる全画素に対する第 1の画素の個数の割合を算出する手段と、 前記第 1 の画素の割合が所定値より大きい候補プロックを検出する手段と、 前記カメラ の位置からの、 前記各候補プロックに対応する実際の各位置までの各距離:こ^ じて、 各候補ブロックの大きさを変化させる手段と、 を備えた画像処理装置が 提供される。 図面の簡単な説明
本発明の上述の目的、 特徴および長所とその他の目的、 特徴および長所 は、 以下の図面と共に、 後述される発明の好適な実施例の詳細な記载 ら明 らカになる。
第 1図は、 本発明に係る交通渋滞計測方法および装置を適用した交通管制 システムの第 1の実施例を示す図である。
第 2図は、 第 1図に示されたビデオカメラが撮影する領域を示す斜視図で ある。
第 3図は、 第 1図に示された渋滞計測装置を示すブコック ¾である: 第 4図は、 第 1図に示された渋滞計測システムの渋滞計測手順を示 フコ —チヤ一トである c
第 5図は、 第 4図に示されたフローチヤ一トの各ステップの算出結果ゃ検 出結果の関係を示す図である。
第 6図は、 第 1図に示されたビデオ力メラで撮影された画像上に設^する サンプル点を示す図である。
第 7図は、 第 4図に示されたフローチャートのステップ S 2の詳細な手順 を示すフローチヤ一トである: 第 8図は、 第 7図に示されたフローチヤ一トのステップ S 2 bで作^さ る存在サンプル点を示す図である。
第 9図は、 第 4図に示されたフロ一チヤ一卜のステップ S 2で検出される 存在サンプル点を示す図である。
第 1 0図は、 第 4図に示されたフコーチャートのステップ S 3の詳細な手 順を示すフローチヤ一トである - 第 1 1図は、 第 1 0図に示されたフローチヤ一トのステップ S 3 a〜ステ ップ S 3 kにより作成される各画像の関係を示す図。
第 1 2図は、 第 1 0図に示されたフコーチヤ一トのステップ S 3 Jおよび S 3 kのそれぞれで作成される第 1の特徴抽出画像および第 2の特徴抽出画 像と、 第 1 0図のフローチヤ一トのステップ S 3 Iで作成される積画像との 関係を示す図である。
第 1 3図は、 第 4図に示されたフローチヤ一トのステップ S 4の詳細な手 順を示すフロ一チヤ一トである。
第 1 4図は、 第 4図に示されたフロ一チャートのステップ S 4で検 され る移動プロックを示す図である。
第 1 5図は、 第 4図に示されたフローチヤ一トのステ プ S 5で検 され る渋滞サンプル点の検出方法を説明する図である。
第 1 6図は、 第 4図に示されたフローチャートのステップ S 6の詳 な手 順を示すフローチャートである。
第 1 7図は、 第 4図に示されたフローチヤ一トのステップ S 6で検出され る渋滞プロックを示す図である。
第 1 8図は、 第 4図に示されたフローチヤ一卜のステッブ S 7の詳細な手 順を示すフロ一チヤ一トである。
第 1 9図は、 第 1 8図に示されたフロ一チヤ一トのステップ S 7 £で検 された渋滞範囲と、 ステップ S 7 cで補正された渋滞範囲の関係を示 T図で ある。 第 2 0図は、 本発明に係る交通渋滞計測方法および装置を適用し ΐΖ通管 制システムの第 2の実施例を示す図である。
第 2 1図は、 第 2 0図に示された渋滞計測装置の空間計測領域と交通流計 測領域との関係を示す図である。
第 2 2図は、 第 2 0図に示された渋滞計測システムの空間密度計測手順を 示すフロ一チヤ一トである。
第 2 3図は、 第 2 2図に示されたフローチヤ一トの各ステップの算 結果 や検出結果の関係を示す図である。
第 2 4図は、 第 2 2図に示されたフコーチヤ一トのステップ Ρ 1で作成さ れるサンプル点画像と、 同ステップで設定されるサンプルラインとの関係を 示す図。
第 2 5図は、 第 2 2図に示されたフローチヤ一トのステップ Ρ 4の詳細な 手順の第 1例を示すフロ一チヤ一トである。
第 2 6図は、 第 2 2図に示されたフローチヤ一トのステップ Ρ 4の詳細な 手順の第 2例を示すフローチャートである。
第 2 7図は、 第 2 2図に示されたフローチヤ一トのステップ Ρ 5の詳細な 手順の第 1例を示すフロ一チヤ一トである。
第 2 8図は、 第 2 2図に示されたフローチヤ一トのステップ Ρ 5の詳細な 手順の第 2例を示すフローチヤ一トである。
第 2 9図は、 第 2 2図に示されたフローチャートのステップ Ρ 7の詳細な 手順を示すフローチヤ一トである。
第 3 0図は、 第 2 2図に示されたフローチヤ一トのステップ Ρ 7に ける 存在サンプルラインの補正前、 途中、 後の変化を示す図である c
第 3 1図は、 第 2 2図に示されたフコ一チヤ一トのステップ P 8の詳細な 手順を示すフローチャートである c
第 3 2図は、 第 2 2図に示されたフロ一チヤ一卜のステップ P 9の詳細な 手順を示すフローチヤ一トである。 第 3 3図は、 第 2 2図に示されたフコ一チヤ一 のステップ P 1 0.の詳細 な手順を示すフローチヤ一トである c
第 3 4図は、 第 2 2図に示されたフローチヤ一トのステップ P I 0二お;丁 る存在サンプルラインの補正前後の変化を示す図。
第 3 5図は、 第 2 2図に示されたフコーチヤ一卜のステップ P 1 2 ,こおけ るメッシュ毎の空間密度を表す図。
第 3 6図は、 第 2 2図に示されたフロ一チヤ一トのステップ P 1 5,こお る大型車混入率に基づく空間密度の補正が必要になる理由を説明するための 図である。
第 3 7図は、 第 2 0図に示された渋滞計測システムの空間速度の計測手順 を示すフロ一チヤ一トである。
第 3 8図は、 第 3 7図に示されたフローチヤ一トの各ステップの算^結杲 や検出結果の関係を示す図である:
第 3 9図は、 第 3 7図に示されたフローチヤ一トのステップ Q 4の詳細な 手順の第 1例を示すフローチャートである。
第 4 0図は、 第 3 7図に示されたフローチヤ一トのステップ Q 4の詳細な 手順の第 2例を示す図である。
第 4 1図は、 第 4 0図に示されたフローチヤ一トのステップ Q 4 Jにおけ る移動サンプルラインおよび該移動サンプルライン前後の 2つのサンプルラ インと、 これら移動サンプルライン、 2つのサンプルラインのそれぞれの予 想移動範囲との関係を示す図である。
第 4 2図は、 第 2 0図に示された渋滞計測システムの渋滞領域末尾位置の 計測手順の第 1例を示すフ口一チャートである。
第 4 3図は、 第 2 0図に示された渋滞計測システムの渋滞領域末尾'立置の 計測手順の第 2例を示すフ ーチヤ一トである。
第 4 4図は、 第 4 2図および第 4 3図に示されたフコーチヤ一トの各ステ ップの算出結果や検出結果の関係を示す図である。 第 4 5図は、 第 4 2図に示されたフローチヤ一トの手順で計測され Γこ渋滞 領域渋滞末尾位置を示す図である c 発明の好ましい実施例
(第 1の実施例)
本発明に係る交通渋滞計測方法および装置を採用した交通管制システムの 第 1の実施例を、 第 1図〜第 1 9図を参照しつつ以下に詳細に説明する- 第 1図に示すように、 交通管制システムは、 交差点 I S近傍に配置された ビデオ力メラ 1 1〜 1 4、 渋滞計測装置 2 1〜 2 4、 信号機 3 1〜 3 4、 信 号制御装置 4 1〜4 4および中継装置 5 0、 並びに、 交差^ I S ら 遠く 離れた所に位置する交通管制センタ一内に設けられた中央制御装置 S )を備 えている。 ビデオカメラ 1 1〜 1 4は、 第 2図に示すように、 交差点: S近 傍の路面から例えば高さ 1 O mの位置に配置され、 交差点近傍位置から 1 5 O mの距離の 3車線分の領域 Yを撮影する。 また本実施例においては、 ビデ ォカメラ 1 1〜1 4は、 車両の進行方向下流側から上流側を撮影する うに 向けられている。
渋滞計測装置 2 1〜2 4は、 交差点 I Sに流入する車両の台数、 速度およ び車種に基づいて交通流量を計測するとともに、 渋滞範囲、 言い換えれば渋 滞長を計測することができる。 渋滞計測装置 2 1〜2 4のそれぞれは、 第 3 図に示すように、 C P U 2、 画像メモリ 3、 入力装置 4、 表示装置 5、 格納 装置 6、 伝送装置 7、 R AM (Random Access Memory) 8および R O M ( ead-only Memory) 9をfeえてレ、る。
ビデオ力メラ 1 1〜1 4により撮影された画像デ一タは、 それぞれ渋滞計 測装置 2 1〜2 4の C P U 2に伝送される。 伝送された画像データは C Pじ 2を介して画像メモリ 3に格納される- R OM 9には、 渋滞検出に関する各 種プログラムが格納されており、 C Pじ 2は、 R OM 9から必要なブコダラ ムを読み出して、 R AM 8を作業エリアとして、 プログラムを実行する。 ブ ログラムの実行により、 画像メモリ 3から必要な画像データが読み出され、 この画像データに基づいて、 種々の計算値が算出され、 最終的には後述の状 態状況の計測結果が算出される。 プログラムの実行中に算出される各種計算 値は、 一時的に、 画像メモリ 3に記憶されるようになっている 渋滞状況の 計測結果は、 表示装置 5、 格納装置 6および伝送装置 7に出刀される: 表示 装置 5は、 入力された渋滞状況を表示する。 格納装置 6は、 入力された渋滞 状況を格納する。 伝送装置 7は、 入力された渋滞状況を中継装置 5 0を通し て、 第 1図に示された交通管制センタ一の中央制御装置 6 0に送信 Tる。 入 力装置 4は、 各種設定値や閾値を入力したり、 これらを変更したりする際に 用いられる入力手段である。
再び第 1図において、 交通管制センタ一の中央制御装置 6 0は、 渋滞計測 装置 4 1 4 4の計測結果に基づいて、 中継装置 5 0を介して信号制御装置 4 1 4 4に信号制御パターンを送信する。 例えば、 ビデオカメラ 1 : 1 3から画像データを入力する渋滞計測装置 2 1 2 3が、 ビデオカメラ】 2 1 4から画像データを入力する渋滞計測装置 2 2 2 4よりも、 長い渋 滞範囲を計測した場合、 中央制御装置 6 0は、 信号機 3 1 3 3の青信号の 時間間隔が、 信号機 3 2 3 4の青信号の時間間隔よりも長くなる うな、 信号制御パターンを信号制御装置 4 :! 4 4に送出して、 ビデ:^カメラ 1 1 3により撮影されている道路上の渋滞を緩和させるようにしている。 ここで、 上述のように構成される交通渋滞計測装置により実行される渋滞 計測方法を、 まず、 第 4図に示されるステップ S 1 S 8のフローチャート に従って、 概略的に説明する。
ステップ S 1で、 ビデオカメラにより撮影された画像上に複数のアンプル 点を設定する。 例えば、 第 6図に示される画像 7 1がビデ才力メラに り撮 影された場合、 サンプル点は 「·」 により示される。 ステップ S 2で、 時刻 t nにおける面像上の、 車両が存在していると推測されるサンブル点を、 存在サ ンプル点として検出する。 ステップ S 3で、 時刻 t nの画像上の、 移動中の車 両が存在していると推測されるサンプル点を、 移動サンプル点と ^て検出丁 る。 ステップ S 4で、 所定の割合以上の移動サンプル点を含む互いに^接丁る 複数のサンプル点から構成される矩形のプロックを、 移動ブコックご ^て検 m する。 ステップ S 5で、 移動ブロックから外れた存在サンプル sを、 渋滞サン プル点として検出する。 ステップ S 6で、 所定の割合以上の渋滞サンブル点を 含む互いに隣接する複数のサンプル点から構成される矩形のプロックを、 渋滞 ブロックとして検出する。 ステップ S 7で、 渋滞ブロックに基づいて、 時刻: nにおける計測領域内の交通渋滞の状況を計測する。 ステップ S 8で、 — 1として、 ステップ S 2に戻る。 「n」 は、 正の整数であり、 t n+!— t n ;は 一定である。 したがって、 上記ステップ S 2〜S 7の各手順は一定の時間間隔 で繰り返される。
第 5図は、 上記ステップ S 1〜S 7における検出結果あるいは算出結果の概 略的な関係を示す図である。 これら検出結果あるいは算出結果の詳細は、 後述 する各ステップ S 1〜S 7の詳細な説明により明らかになる s
上記ステップ S 1のサンプル点の設定について、 下記に詳説する: 第 6図に示された画像 7 1は、 同図の下側がビデオカメラから距離が近い 領域に相当し、 第 6図の上側がビデオカメラから距離が遠い領域に相当す る c また、 画像 7 1には 3車線が示されており、 画像 7 1内の実線で示す矩 形は車両を示している。 第 6図から理解されるように、 サンブル点の道路横 断方向の間隔が実際の道路上で等間隔になるようにサンプル点を道路横断方 向に配置する。 このようにサンプル点を配置するのは、 道路横断方向では位 置の歪みが小さく、 また簡単に実際の長さに変換できるためである
一方、 車両走行方向については、 ビデオカメラから遠い位置ではサンプル 点の間隔を狭くし、 近い位置ではサンプル点の間隔を広くする。 このように サンプル点を配置するのは、 ビデオカメラ近傍では車両が入きく写る 3で ンプル点が疎であってもその走行状態を検出できるが、 遠方では草 R 小さ く写るのでサンプル点を密にしないとその走行状態を検出できない^ であ る。 例えば、 計測範囲内のビデオカメラから最遠地点における走行方向のサ ンプル点間隔を画像上での 1画素間隔とし、 それより近いところでは、 車両 を検知できる程度にサンプル点間隔を広くする。 この場合、 予め決めておい たサンブル点のトータル数の上限値に応じて、 サンプル点間隔を設 する c このようにしておく と、 遠方での車両の走行状態の検出を確保できると共 に、 処理時間を短縮できる。 そして、 ビデオカメラから遠方である領域の検 出を入力画像の限界まで確保しつつ、 サンプル点数の上限を設定したことに より、 検出処理を高速化させるとももに、 高価な専用ハードウェアを不要と することができる。 また、 ビデオカメラの解像度を定数として設定丁るだけ で様々な解像度のビデオカメラを簡単に利用することができる。 この ンフ ル点の設定時に、 ビデオカメラの路面上の位置から各車線に沿った各サンプ ル点までの実際の距離と、 各車線に沿った各サンプル点間の実際の距離を、 車線毎に格納装置 6の記憶領域に作成された距離テ一ブルに記憶しておく。 次に、 第 4図のステップ S 2の存在サンプル点の検出手順を、 第 7図のス テツプ S 2 a〜S 2 gのフローチヤ一トに従って、 下記に詳説する:
ステップ S 2 aで、 後述の二値化処理に用いる各閾値 T H 1を、 ビデオ力 メラの道路上の位置から各サンプル点に対応する道路上の実際の各位置まで の距離に応じて設定する。 ステップ S 2 bでは、 時刻 t nの画像のアンプル 点に対応する画素のみからなるサンプル点画像を作成する- 第 8図は、 サン プル点画像の一例を示す図であり、 同図から理解されるように、 サンプル点 画像は、 時刻 t nの画像上のサンプル点を直行座標系に変換して構成されて おり、 第 8図に示すサンプル点の配列と同じ 2次元配列のデータ形式メモリ 上に記憶されるようになっている: また、 サンプル点画像ヱのサンブ 点に 対応する各画素の輝度値は 8ビットデータで表されるようになっている。 ステップ S 2 bからステップ S 2 cに進むと、 サンプル点画像と基準輝度 画像との各サンプル点の輝度値の差を表す輝度差分値を算出するこご;こより 差分画像を算出する。 存在サンプル点検出の最初のフローにおける基準輝度 画像は、 車両に対する背景のみを描写したものであり、 計測を開始する環境 に近い状態において撮影されたものである。 望ましくは、 最初の基準輝度画 像としては、 渋滞計測領域内の道路上に車両が全く存在していない画像であ ることが望ましい。 しかしながら、 適切な基準輝度画像を予め準備 Tるの は、 天候の変化や時間経過により時々刻々と画像上の輝度が変化するため非 常に困難であるため、 実際には、 車両が存在していないとみなすこと でき る画像、 すなわち、 実際には数台の車両が存在していたとしても、 実際に車 両が全く存在していない場合の画像と近似した画素データを有する画像であ ればよい。 また、 この基準輝度画像もサンプル点に対応する画素のみ^らな り、 上述のサンプル点画像と同様に構成されている。
ステップ S 2 dでは、 ステップ S 2 cでの差分画像を用いて、 次の時刻 t n
+1のサンプル点画像に対応する差分画像を算出するのに使わ る基準輝度 像 Bn+lを次式によって更新する。
Βητ1 = Β η + τ] Χ (Χ η— Β η) … (i) ここに、 X nは、 時刻 t nのサンプル点画像の各サンプル点の輝度値、 B n は、 時刻 tnのサンプル点画像に対応する差分画像を算出するのに使われた基 準輝度画像の各サンプル点の輝度値、 Bn+lは、 時刻 t n+1のサンブ 点画 像の差分画像を算出するのに使われる輝度値とする。 ηは可変値であ 、 X n -B n iが大きいほど、 あるいは、 渋滞度が高いほど、 小さく Tる。
X n— B n Iが大きいほど 7?を小さくするのは、 輝度変化が大きいほど車両 が存在する可能性が高いからである。 このときの Πは、 各サンプル点毎に設 定される。 一方、 渋滞度が高いほど を小さくするのは、 渋滞中の草両の輝 度を基準輝度画像に取り込まないようにするためである: このときの .は、 車線毎あるいは所定の領域毎に設定する。 渋滞度は後述の渋滞範蹈の検出結 果から判定する。
上式 ) で基準輝度画像を更新することにより、 天候や時間経過:こ伴う 日差しの変化に基準輝度画像を自動的に追随させることができる: また、 上 式 ( i ) で基準輝度画像を更新するのは、 ステップ S 2 cで算出する 「X n 一 B n」 の計算値をそのまま利^することができ、 計算量を削減 Tることが できるからである。 なお、 計算量が多くなるが、 基準輝度画像の更新 垤を 次式 ( i i ) を使ってステップ S 2 cの直前に行ってもよい:
Bn+1 = B n + a X (Xn+l - B η ) ■· · (n) ステップ S 2 eで、 差分画像を車両進行方向にソ一ベル微分子で空間微分 し、 次いでステップ S 2 f で、 空間微分された差分画像のサンプル点の各微 分値をステップ S 2 aで設定された各閾値 T H 1で二値化する:. この結果、 サンプル点は、 「0」 レベルか 「1」 レベルのどちらかの値になる 「 1— レベルのサンプル点には、 車両が存在していると推測することができ、 「0」 レベルのサンプル点には、 車両が存在していないと推測するこ -がで きるので、 ステップ S 2 gで、 「1」 レベルのサンプノレ点を、 存在サンプノレ 点として検出する。 このようにして検出された存在サンプル点の配置例を第 9図に示す。
なお、 上記ステップ S 2 aにおける各閾値 T H 1は、 ビデオカメラの道路 上の位置からから遠い位置に対応するサンプル点の識別に ¾いられる のほ ど、 小さくなるように設定するとよい。 これは、 ビデオカメラから遠い位置 では近い位置に比べて画像がぼやけ、 車両と背景との輝度差が小さくなるか らである。 このようにビデオカメラの道路上の位置から各サンプル^ :こ対応 する道路上の各位置までの実際の距離に応じて各サンプル点での閾値を設定 することにより、 ビデオカメラからの距離に影響されることなく、 どの位置 でも同程度の精度で存在サンプル点を検出することができる。
次に、 第 4図のステップ S 3の移動サンプル点の検出手順を、 第 1 G図の ステップ S 3 a〜S 3 mのフローチャートに従って、 下記に詳説する。 な お、 各ステップの説明において、 第 1 1図おょぴ第 1 2図を参照するご理解 が容易になる。
まず、 ステップ S 3 aで、 サンプル点画像を M個の領域に分割する。 不実施 例では、 ビデオカメラから遠い領域、 中間距離の領域、 近い領域の 3つ,こ分割 するので、 M= 3になる。 ステップ S 3 bで、 m番目の領域に対応する時間間 隔 am、 Γηと、 後述の二値化の閾値 ΤΗ 1、 ΤΗ 2を設定する。 ここ 、 a m、 πιは正の時間であり、 α 1 < α 2< α 3、 1 < 2 < /93とする c こ のように、 am、 j3mを設定するのは以下の理由による。 ビデオカメラから近 い位置では遠い位置に比べて、 画像における見かけ上の車両の移動は速くな る。 よって、 ビデオカメラから近い位置では車両の移動を短時間差の画像間 の比較により十分に検出することができるので、 ビデオカメラから近、、位置 にあるサンプル点に対する am、 j3mの値は小さく設定する。 一方、 ビデオ カメラから遠い位置では車両の移動を短時間差の画像間の比較では検^する ことが困難であるので、 ビデオカメラから遠い位置にあるサンプル 、'こお丁 る am、 /3 mの値は大きく設定する。 また、 am、 πには、 異なる値を用 いてもよいが、 通常は、 とするのが好ましい。
上記ステップ S 3 bに続くステップ S 3 cで、 時刻 t n、 t η - a xr., ι η + πιに対応するサンプル点画像を作成する。 ステップ S 3 dで、 時刻 nの サンプル点画像の m番目の領域と、 時刻 t— amのサンプル点画像の 番目の 領域との輝度の差を表す第 1の差分領域を算出する。 ステップ S 3 eでは、 第 1の差分領域をステップ S 3 bで設定された閾値 TH 1で二値化し、 第 1の特 徴抽出領域を算出する。 この結果、 第 1の特徴差分領域のサンプル^の値は 「0」 レベル力 Γΐ」 レベルの何れ力 こなる。
ステップ S 3 f で、 時刻 t nのサンプル点画像の m番目の領域と、 B寺刻 t n
+ β mのサンプル点画像の m番目の領域との輝度の差を表す第 2の差分領域を 算出する。 ステップ S 3 f からステップ S 3 gに進み、 第 2の差分領域をステ ップ S 3 bで設定された閾値 TH 2で二値化し、 第 2の特徴抽出領域を算出す る。 この結果、 第 2の特徴抽出領域のサンプル点の値は 「0」 レベルか Γι」 レベルの何れかになる。
ステップ S 3 gに続くステップ S 3 hとステップ S 3 i とにより、 m = Mに なるまで、 ステップ S 3 b〜S 3 gが繰り返される。 この結果、 3つの第 1の 特徴抽出領域と 3つの第 2の特徴抽出領域が算出される。 ステップ S 3 j で は、 全部の第 1の特徴抽出領域を結合して、 第 1の特徴抽出画像を作成する。 同様に、 ステップ S 3 kでは、 全部の第 2の特徴抽出領域を結合して、 第 2の 特徴抽出画像を作成する。
ステップ S 3 1では、 第 1の特徴抽出画像と第 2の特徴抽出画像との論理積 をとつて、 積画像を作成し、 ステップ S 3 mでは、 積画像の 「1」 レベルのサ ンプル点を、 移動サンプル点として検出する。 第 1、 第 2の特徴抽出画像と積 画像の関係は、 第 1 2図に例示される。
上述のように、 時刻 t nの前後の画像を使って、 移動サンプ 点を検出す るのは、 時刻 t nの前あるいは後だけの画像を使って移動サンプル ^を検出 しょうとすると、 第 1 2図の第 1または第 2の特徴抽出画像から分かるよう に、 時刻 t nの画像には存在していない移動車両が特徴抽出画像に残り、 第 1の特徴抽出画像だけから、 あるいは、 第 2の特徴抽出画像だけからでは、 正確な移動サンプル点を検出することができないからである。
なお、 この移動サンプル点の検出処理において、 時間間隔 a m、 jS を調 整することにより、 例えば 2 0 k mZ h以下の低速で移動する車両について のサンプル点が移動サンプル点として検出されないようにすることも可能で あり、 このように c m、 j3 mを設定することにより、 本実施例を低速萆両に よる渋滞の検出にも適用することができる。
次に、 第 4図のステップ S 4の移動ブロックの検出手順を、 第 1 3図のス テツプ S 4 a〜S 4 jのフローチャートに従って、 下記に詳説する c
ステップ s 4 aで、 計算開始位置を、 サンプル点画像の左上角に設定す る c 候補ブロックとは、 それぞれが時刻 t nのサンプル点画像を部分的に構 成する縦横に隣接して並ぶサンプル点からなる矩形のブロックであ , 移動 ブロックの検出対象になるブロックである。 ステップ S 4 bで、 ビデオカメ ラの道路上の位置からの各候補ブロックに対応する道路上の各位置までの距 離に応じたブ πックサイズおよび閾値 T H 1を設定する。
ステップ S 4 cで、 候捕ブロック内に含まれるサンプル点の総数に対する 移動サンプル点の割合を算出し、 ステップ S 4 dで、 候補ブコック内の移動 サンプル点の割合がステップ S 4 bで設定された閾値 T H iより入きいか否 かが判定される。 ステップ S 4 bの判定が 「Y E S」 であれば、 ステップ S
4 dからステップ S 4 eに進み、 候補ブロックを移動ブコックとして検出す る c ステップ S 4 bの判定が 「N O」 であれば、 ステップ S 4 dか S 4 ί に進む。 ステップ S 4 f とステップ S 4 gによって、 右方向 (道路横断方向 の右) に 1サンプル点ピッチで並ぶ各候補ブロック全部に対して、 ステップ
5 4 c〜S 4 eが繰り返される。
ステップ S 4 f に続くステップ S 4 hでは、 候補ブロックの計算開始位置 をサンブル点画像の最左端に移動する。 ステップ S 4 i d:ステップ S 4 jに よって、 ステップ S 4 b〜S 4 hが繰り返される。 すなわち、 横一列分づっ の候補ブロックに対する検出処理が下方向 (車両走行方向の手前) に繰り返 される。 この結果、 サンプル点画像に含まれる全ての候補ブコックに対して 検出処理が実行され、 サンプル点画像に含まれる移動プロックを全て検出す ることができる。
第 1 4図は、 互いに部分的に重なり合う二つの移動ブコックが検 された 例を示されている。 第 1 4図に示された移動ブロックは、 縦 5列、 横 3列の サンプル点から構成され、 「@」 が移動サンプル点、 「〇」 が移動サンプル 点以外のサンプル点を示す。 検出された移動プロック内の移動サンプル点の 割合は 6 0 %であり、 このときの、 移動ブロック検出の判定基準である閾値 丁1^ 1は5 5 %でぁる。 なお、 第 1 4図に示すように、 移動ブコック円に入 らない移動サンプル点はノイズとして除去する。
上記ステップ S 4 bにおける候補ブロックのサイズ、 すなわち、 候補ブコ ックに含まれるサンプルの総数と、 閾値 T H 1は以下のように設定するとよ い。 候補ブロックのサイズは、 画像上に描写される平均的な車両のサイズに ほぼ一致させるように設定し、 結果的に移動ブコックがサンプレ点画像上で 一つの車両を表すようにする。 このため、 ビデオカメラから遠い領域では、 車両が小さい像として得られるので候補プロックの大きさを小さく設定し、 ビデオ力メラから近い領域では、 車両が大きい像として得られるのでブ口ッ クの大きさを大きくする。 一方、 閾値 T H 1は、 ビデオカメラから遠 領域 では隣接する画素間の輝度差が小さいので小さくし、 ビデオカメラから近い 領域では逆に大きくする このようにすることにより、 ビデオカメラからの 距離に影響されることなく、 すべての領域において同程度の精度で移動プロ ックを検出することができる
第 4図のステップ S 5では、 上記の移動プロックから外れた存在サンプル 点を、 渋滞サンプル点として検出する。 第 1 5図は、 渋滞サンプル点の検^ 例を示している。 第 1 5において、 「·」 は存在サンプル点、 「0」 は存在サ ンプル点以外のサンプル点、 「☆」 は渋滞サンプル点を示している c
次に、 第 4図のステップ S 6の渋滞ブロックの検出手順を、 第 1 6図のス テツプ S 6 a〜S 6 jのフローチヤ一トに従って、 下記に詳説する- ステップ S 6 aで、 計算開始位置を、 サンプル点画像の左上角に設定す る。 候補プロックとは、 それぞれが時刻 t nのサンプル点画像を部分的に構 成する縦横に隣接して並ぶサンプル点からなる矩形のブコックであり、 渋滞 ブロックの検出対象になるブロックである。 ステップ S 6 bで、 ビデオカメ ラの道路上の位置からの各候補プロックに対応する道路上の各位置までの距 離に応じたプロックサイズおよび閾値 T H 1を設定する。
ステップ S 6 cで、 候補ブロック内のサンプル点の総数に対する渋滞サン プル点の数の割合を算出し、 ステップ S 6 dで、 候補ブコック^の渋滞サン プル点の割合がステップ S 6 bで設定された閾値 T H 1より大きいか否かが 判定される。 ステップ S 6 dでの判定が 「Y E S」 であれば、 ステップ S 3 dからステップ S 6 eに進み、 候補ブロックを渋滞ブロックとして検 する: ステップ S 6 bでの判定が 「N O」 であれば、 ステップ S 6 dから S 6 f に 進む。
ステップ S 6 f とステップ S 6 gによって、 右方向 (道路横断方向の右) に 1サンプル点ピッチで並ぶ各候補ブロック全部に対して、 ステップ S 6 c 〜S 6 f の各動作が繰り返される。
ステップ S 6 f からステップ S 6 hに進むと、 候補プロックの計算開始位 置をサンプル点画像の最左端に移動する。 ステップ S 6 i とステップ S 6 j によって、 ステップ S 6 b〜S 6 hが操り返される。 すなわち、 横一列分づ つの候補ブロックに対する検出処理が下方向 (車両走行方向の手前) に繰り 返される。 この結果、 サンプル点画像に含まれる全ての候補ブロックに対し て検出処理が実行され、 サンプル点画像に含まれる渋滞ブコックを全て検出 することができる。
第 1 7図は、 互いに部分的に重なり合う二つの渋滞ブロックが検出された 例を示している。 第 1 7図に示された渋滞ブロックは、 縦 5列、 横 3列のサ ンプル点から構成され、 「☆」 が渋滞サンプル点、 「0」 が渋滞サンプル点 以外のサンプル点を示す。 このときの、 渋滞ブロック検出の判定基準である 閾値 T H 1は 4 5 %であり、 第 1 7図に示す検出された渋滞ブロックの渋滞 サンプル点の割合は、 4 7 %である。 なお、 第 1 7図に示すように、 渋滞ブ 口ック内に入らない渋滞サンプル点はノイズとして除去する c
上記ステップ S 6 bにおける候補プロックのサイズと、 閾値 T H I 前逑 の移動プロックの検出処理における設定と同様にすればよい。 候補ブ πック のサイズは、 画像上に描写される平均的な車両のサイズにほぼ一致させるよ うに設定し、 結果的に渋滞ブロックがサンプル点画像上で一つの車両を表す ようにする。 このため、 ビデオカメラから遠い領域では、 車両が小さ 像と して得られるので候補ブロックの大きさを小さく設定し、 ビデオ力メラから 近い領域では、 車両が大きい像として得られるのでブコックの大きさを大き くする。 一方、 閾値 T H 1は、 ビデオカメラから遠い領域では隣接する画素 間の輝度差が小さいので小さくし、 カメラから近い領域では逆に大きくす る。 このようにすることにより、 カメラからの距離に影響されることなく、 すべての領域において同程度の精度で渋滞プロックを検出することができ る。
次に、 第 4図のステップ S 7の渋滞状況の計測手順を、 第 1 8図のステツ プ S 7 a 〜 S 7 cのフローチヤ一トに従って、 下記に詳説する。
ステップ S 7 aで、 車線毎に渋滞プロックが存在するユリアを渋滞範囲と 検出する。 各渋滞ブロックエリアには、 単独の渋滞プロック、 互いに連結あ るいは互いに重なり合う複数の渋滞ブロックが存在する。 第 1 9図^、 計測 領域内の渋滞ブロックが存在する領域の一例を示している: もし、 2軍線に 跨った渋滞プロックがあるときは、 その存在範囲が大きい万の車線に渋滞ブ ロックが存在するものと判定する。
ステップ S 7 bで、 各車線にて検出した渋滞範囲を、 前述の距離テーブル を参照して、 実際の道路上の距離に変換する c ステップ S 7 cで、 過去の渋 滞位置のプロファイルから、 急激な渋滞位置の変動をノイズとして除去し、 渋滞位置を平滑化する補正処理を行うことにより、 渋滞範囲を補正して、 渋 滞状況の最終的な計測結果として出力する。
上述の実施例によれば、 画像の全ての画素の輝度データを処理ぜずに、 特 定のサンプル点に対応する画素のみの輝度データを処理しているので、 計算 処理に要するデータ量を大幅に削減することができ、 結果的に装置のハード 構成を簡素化することができ、 コストを低減することができる: ま 、 高速 処理が可能になって、 リアルタイムの渋滞計測が可能になる。 詳細に 、 計 測結果を 1〜2秒以内 (時間差分の最大時間間隔 +処理時間)のほぼリアルタイ ムで出力できるので、 交通管制の分野において、 本実施例のように渋滞長に 応じて青または黄信号時間を調整するような交通管制システムに利用すると 非常に効果的である。 また、 上記実施例の説明から理解されるように、 事前 の学習をほとんどすることなく、 装置を設定してから直ぐに精度良い渋滞計 測が可能になり、 また、 環境の変化、 例えば、 計測地点、 時間帯、 天候、 交 通量等の変化に関わらずに安定して渋滞状況を計測することができ、 しかも 渋滞の長さも簡単に検出することができる。 さらにまた、 各種判定の基準になる閾値等の各種パラメータを、 ビデオ力 メラの道路上の位置から各サンプル点に対応する道路上の各位置まで 距離 に応じて変化させているので、 高精度の渋滞計測が可能になる。 また、 丄記 パラメータを各サンプル点のビデオカメラからの距離により自動的に検出で きるため、 交通管制システムの管理運用上の有効である。 さらにま 、 最後 の出力段階まで車線位置を考慮する必要がなく、 2車線に跨った渋滞車両の 計測も可能になり、 安定した渋滞計測が可能になる。 また、 検出された移動 サンプル点および渋滞サンプル点から、 移動ブロックおよぴ渋滞ブコックの 形式、 すなわち、 移動車両および渋滞車両を移動車群および渋滞軍群::して 検出しているので、 移動ブロックおよび渋滞ブロックから外れた移動サンプ ル点および渋滞サンプル点を、 ノイズとして簡単に除去することができる。 さらに、 道路上に計測可能な距離だけ隔てて本実施例のビデオカメラと渋 滞計測装置を、 複数個連ねて配置するようにすれば、 長距離にわたる連続し た渋滞状況を計測することもできる。 さらに、 本実施例は、 計測領¾ の一 部の計測結果から計測領域の全体の渋滞状況を推定しているのではなく、 計 測領域全体の渋滞状況を直接的に計測しているので、 計測領域内で事故や車 両故障が発生した場合に、 直ちにそれを検知することもできる。
なお、 上記の詳細な実施例の説明から理解されるように、 本実施例は、 本 発明の画像処理方法および装置の好適な実施例でもある。
次に、 上記の道路渋滞状況計測装置を、 1 9 9 5年、 東京、 大阪の 2力所 の地点において設定して、 計測を行った結果を以下に説明する。
(東京での計測結果)
(A) 計測条件
場所:東京の内幸町交差点
環境:天候 (晴、 晷、 雨) 、 時間帯 (昼間、 薄暮、 夜間) 、 交通量 (軽 交通、 重交通) の点を考慮して次の 6つの異なる環境で行った。 ① 8月 2日 15:00〜17:00 (昼間、 暴のち雨、 重交通)
② 8月 2日 18:30〜20:30 (薄暮 ·夜間、 暴、 重交通)
③ 8月 3日 14:45〜16:45 (昼間 ·晴、 重交通)
④ 8月 3日 18:30〜20:30 (薄暮'夜間、 晴、 重交通)
⑤ 8月 5日 15:00〜 17:00 (昼間 ·暴、 軽交通)
⑥ 8月 5日 18:30〜20:30 (薄暮,夜間、 蠹、 軽交通)
( B ) 計測方法
計測領域:カメラの設置位置から長さ 150mの 2車線を設定した c 渋滞の判定:低速走行車両は渋滞中にあると見なした。
渋滞の途中が動いており、 その後に渋滞が続いてレヽる場合 には最遠の渋滞位置を渋滞末尾とした。
渋滞位置を 1秒毎に出力し、 5分間毎の渋滞長のピーク値 の平均値を計測した。 この平均値を計測値のピーク値の平 均値とする。
( C ) 計測評価の基準
渋滞計測精度を以下の式に基づいて算出した。 但し、 真値のピーク値 の平均値とは、 信号サイクル毎に渋滞長のピーク値を求め、 その 5分間 毎のピ一ク値の平均値を示す。
渋滞計測精度 (%) = (計測値のピーク値の平均渋滞長 (m) ÷
真値のピーク値の平均渋滞長 (m) } X 100 … (iii)
(D) 精度評価
上記①〜⑥の環境時における渋滞計測精度の結果は以下の うであつ た。
①: 95.4% ②: 96.4% ③: 98.6% ②: 95.5% ⑤: 98.2% ⑥: 95.7%
何れの環境下においても、 ほぼ真値どおりに渋滞状況を計測できてお り、 渋滞長のピーク値も 95%以上の計測精度が得られた。 (大阪での計測結果)
(A) 計測条件
場所:枚方の国道 1号出屋敷南交差点
環境:天候 (晴れ、 雨) 、 時間帯 (昼間、 薄暮、 夜間) の点を考慮して 次の 5つの異なる環境で行った。
(1) 8月 30日 20:45〜21 : 15 (夜間、 雨)
(2) 8月 31日 10:20〜10:50 (昼間、 雨)
(3) 9月 4日 1 1 :00〜11 :30 (昼間、 晴)
(4) 9月 4日 18:20〜18:50 (薄暮、 晴)
(5) 9月 4 S 19:30〜20:00 (夜間、 晴)
( B ) 計測方法
計測領域:カメラの設置位置から長さ 100mの 2車線を設定した - 渋滞の判定:低速走行車両は渋滞中にあると見なした- 渋滞の途中が動いており、 その後に渋滞が続いている場合 には最遠の渋滞位置を渋滞末尾とした。
渋滞位置: 2車線のうち、 よりビデオカメラ近くに発生し 渋滞位置渋 滞先頭位置とし、 よりビデオ力メラ遠くに発生した渋滞位置 を渋滞末尾位置とした。
渋滞位置の出力値はカメラ位置からの距離に対して、 次のよ うにした。
カメラ位置からの距離 X (m ) 出力値 (m)
0 < X≤10 10 10< x≤20 20 20 < x≤30 30 30ぐ x≤40 40 40 < x≤50 50 50< x≤60 60 60 < x≤75
75 < x≤100 10C 渋滞位置を 1秒毎に出力した (
( C ) 真値の計測
8月 30日、 31日においては、 ビデオカメラ位置から 10、 20、 30、 40、 50、 60、 100m地点の渋滞位置の真値をカメラ面像から目視計測した
9月 4日においては、 50、 75 、 100m地点に計測員を配置して渋滞位置 の真値を計測し、 ビデオカメラ位置から 10、 20、 30、 40、 60ιτι地^の渋 滞位置の真値をカメラ画像から目視計測した。
( D ) 計測評価の基準
本発明の手法による計測値と上述の手法による真値とについて、 以下の 式にて総停止時間を求め、 その比を渋滞計測精度として算出した。
総停止時間 (m,秒) =渋滞長 (m) X時間 (秒)
= {渋滞末尾位置 (m) —渋滞先頭位置 ( ) }
X時間 (秒) … (IV)
渋滞計測精度 (%) = {計測値の総停止時間 (m ·秒) ÷
真値の総停止時間 ( '秒) · Ο
… (ν)
( Ε ) 精度評価
上記 (1)〜(5)の環境時における計測値の総停止時間 (a) 、 真値の総停 止時間 (b) 、 渋滞計測精度 (c) の結果は以下のようであつたし
(a) (m ·秒) (b) (m ·秒) (c) (%)
(1) 42350 43775 96.7
(2) 36620 37135 98.6
(3) 38755 39030 99.3
(4) 45940 46695 98.4
(5) 44690 46465 96.2
何れの環境下においても、 ほぼ真値どおりに渋滞状況を計測できてお り、 総停止時間も 96° /。以上の計測精度が得られた。
以上のように、 何れの場合にあっても、 精度評価の結果が示すように、 計 測地点、 時間帯、 天候及び交通量に関わらず、 安定した渋滞長、 渋滞位置の 計測を行えている。
(第 2の実施例)
本発明に係る交通渋滞計測方法および装置を採用した交通管制システムの 第 2の実施例を、 第 2 0図から第 4 5図を参照しつつ以下に詳細に説明す る。
第 2 0図に示すように、 交通管制システムの第 2の実施例は、 ビデオカメ ラ 8 1、 渋滞計測装置 8 2、 情報表示板 9 1、 表示制御装置 9 2および交通 管制センター内の中央制御装置 1 0 0により構成される。 ビデオカメラ 8 1 同士は互いに所定の間隔で高速道路上に配置されている。 また、 各ビデオ力 メラ 8 1は、 第 2 1図に示すように、 車両の進行方向上流側から下流側に向 けて配置、 すなわち、 車両の後面サイドを撮影するように配置されている £ このようにビデオカメラの向きを設定すると、 渋滞範囲の末尾位置を り正 確に計測することができる: 逆に、 渋滞範囲の開始位置をより正確に計測す るためには、 ビデオカメラを車両の進行方向下流側から上流側に向 て配 置、 すなわち、 車両の前面サイ ドを撮影するように配置すればよい c 情報表示板 9 1は、 ビデオカメラ 8 1よりも車両進行方向上流側の高速道 路上に、 車両進行方向上流側に向けて配置されている。 渋滞計測装置 8 2 は、 第 3図に示した第 1の実施例の渋滞計測装置 2 1〜2 4と同様な構成に なっているので、 重複説明をさけるため、 ここではその説明は省略するが、 計測を実行するための各種プログラムや初期設定値は、 第 1実施例のものと は勿論異なるものである。 本実施例の渋滞計測装置 8 2は、 第 2 1図;こ示さ れる空間計測領域 E、 交通流計測領域 Fの渋滞状況を計測するものである。 交通流計測領域 Fは、 ビデオカメラ 8 1から車両の進行方向に 1 0 m離れた 位置から、 車両の進行方向に 3 O mの位置までの 4車線分の範囲に相当す る。 また、 この交通流計測流域 Fでは、 車両の識別とともに、 感知ライン D L上の車両の通過台数、 速度、 車長、 車種等、 通過台数、 を計測することが できる。 この交通流計測領域 Fでの計測手法については、 特開平 5— 3 0 7 6 9 5号公報に記載されているので、 ここでは、 その説明は省略する。
一方、 空間計測領域 Eは、 ビデオカメラから車両の進行方向に 1 O m離れ た位置から、 車両の進行方向に 2 0 O mまでの 2車線分の範囲に相当する。 この空間計測領域 Eにおける計測手法は、 以下に詳述されるが、 空間密度、 空間速度、 渋滞末尾位置を計測するためのものである。
渋滞計測装置 8 2の計測結果は、 交通管制センタ一の中央制御装置 1 0 0 に送信される。 中央制御装置 1 0 0では、 受信した計測結果に基づいて、 高 速道路上のドライバ一にとつて有益となる交通情報を作成して、 表示制御部 9 2に送信し、 情報表示板 9 1に交通情報が表示されるようになって'、' "る。 ここで、 上述のように構成される渋滞計測装置 8 2により実行される空間 密度の算出方法を、 まず、 第 2 2図に示されるステップ P 1〜P 1 6のフコ —チャートに従って、 概略的に説明する。
ステップ P 1で、 時刻 t nにおけるサンプル点画像を作成するとごもに、 画像内にサンプルラインを設定する。 その作成方法については、 前述の第 1 の実施例のサンプル点画像と同様であり、 重複説明を避けるため、 ここでは その説明は省略する。 サンプルラインは、 道路横断方向に並ぶ車線幅分のサ ンプル点により構成される。 第 2 4図は、 サンプル点画像上におけるサンプ ル点とサンプルラインとの関係を示している。
また、 ステップ P 1に続くステップ P 2 、 P 3もそれぞれ、 前述の第 7図 のステップ S 2 c 、 S 2 dと同様の処理であり、 重複説明を避けるため、 こ こでの説明は省略する。
ステップ P 4およびステップ P 5のそれぞれで、 差分画像に基づいて、 差 分サンプルラインおよびエッジサンプルラインをそれぞれ検出する: ステツ プ P 6では、' ステップ P 4およびステップ P 5でそれぞれ検出され 差分サ ンプルラインおよびエッジサンプルラインに基づいて、 存在サンプルライン を検出する。 ステップ P 6に続くステップ P 7では、 存在サンプルラインの 配置に基づいて存在サンプルラインを補正し、 ステップ P 8では、 ステップ P 4で検出された差分サンプルラインの配置に基づいて、 存在サンプルライ ンを補正する。
ステップ P 9では、 時刻 t n、 時刻 t n— ct m、 時刻 t n + mのサンプ ル点画像に基づいて、 移動サンプルラインを検出する。 ステップ? 1 0で は、 移動サンプルラインの配置に基づいて、 存在サンプルラインを補正す る。
ステップ P 1 1では、 計測領域を複数のメッシュに分割し、 ステップ P 1 2では、 ステップ P 1 0で補正された存在サンプルラインに基づいて、 時刻 t nにおけるメッシュ毎の空間密度を算出する。
ステップ P 1 3では、 時刻 t nの計測領域における大型車両の混入率を算 出し、 ステップ P 1 4で、 時刻 t nの計測領域における車間距離を算出し、 ステップ P 1 5で、 大型車の混入率および車間距離に基づいて、 空間密度を 補正する。
ステップ P 1 6で、 n— n +1として、 ステップ P iに戻る c 「 r 、 正^ 整数であり、 ; t n+1— t n Uま一定である c したがって、 上記ステップ P l 〜 P 16の各手順は一定の時間間隔で繰り返される。
第 23図は、 上記ステップ P 1〜P 1 5における検出結果あるいは算出結果 の概略的な関係を示す図である。 これら検出結果あるいは算出結果の詳細は、 後述する各ステップ P 1〜P 15の詳細な説明により明らかになる c
次に、 第 22図のステップ P 4の差分サンプルラインの検出手順の第 1例 を、 第 25図に示すステップ P 4 a〜P 4 jのフローチャートに従って、 以 下に詳説する。
ステップ P 4 aで、 M個のサンプル点からなる k番目のサンプルラノンの ビデオカメラからの距離に基づいて、 正の閾値 TH 1、 負の閾値 TH 2およ び正の整数閾値 TH 3を設定する。 ステップ P 4 bで、 k番目のサンプルラ ィンの m番目のサンプル点の輝度差分値が、 TH 1より大か否かが判別され る。 ここで、 輝度差分値は、 第 22図のステップ P 2で算出された差分画像 の各サンプル点の値を指す。
ステップ P 4 bでの判定が 「YE S」 であれば、 ステップ P 4 dに進み、 ステップ P 4 bでの判定が 「NOj であれば、 ステップ P 4 cに進む。 ステ ップ P 4 cでは、 k番目のサンプルラインの m番目のサンプル点の輝度差分 値が TH2より小さいか否かを判定する。 ステップ P 4 cでの判定が 「YE S」 であれば、 ステップ P 4 dに進み、 ステップ P 4 cの判定が 「NO」 で あれば、 ステップ P 4 f に進む。
ステップ P 4 dでは、 k番目のサンプルラインの m番目のサンプル点のフ ラグを 「ON」 にして、 ステップ P4 eに進む e ステップ P 4 eとステップ P 4 f により、 ステップ P 4 b〜P 4 dの動作が、 m = Mになるまで繰り返 される。 この繰り返しにより、 k番目のサンプルラインの全てのサンプル点 の輝度差分値について、 正の閾値 TH1より大か、 あるいは、 負の閾値 TH 2より小かが判別される。
ステップ P 4 gでは、 k番目のサンプルラインの 「ON」 のフラグ数が T H3より大か否かを判定する。 ステップ P 4 gでの判定が 「YE S_ であれ ば、 ステップ P 4 hに進み、 k番目のサンプノレラインを、 差分サンブルライ ンとして検出する。 ステップ P 4 gの判定が 「NO」 であれば、 ステップ P 4 jに進み、 mを 1に戻し、 kを k+ 1に置き換える。 ステップ P 4 i とス テツプ P 4 jにより、 ステップ P 4 a〜P 4 hの動作が、 k -Kになるまで 繰り返される。 ここに Kは計測領域内の 1車線分のサンプルライン数を表 す。 この繰り返し動作により、 計測領域の一車線分の全ての差分サンプルラ インが検出される。
ステップ P 4 aにおける正の閾値 TH 1は、 ビデオカメラから遠い位置の サンプルラインに対応するものほど小さく、 逆に負の閾値 TH 2は、 ビデオ カメラから遠い位置のサンプルラインに対応するものほど大きくなる うに 設定するとよい。 これは、 これは、 ビデオカメラから遠い位置では近、'、位置 に比べて画像がぼやけ、 車両と背景との輝度差が小さくなるからである。 こ のようにビデオ力メラからの距離に応じて T H 1、 TH 2を設定することに より、 ビデオカメラからの距離に影響されることなく、 どの位置でも同程度 の精度で差分サンプルラインを検出することができる。 ステップ P 4 aにお ける正の整数閾値 TH 3は、 輝度差の変化が少ないビデオカメラから遠い領 域では小さくし、 輝度差の変化が大きいカメラから近い領域では逆に大きく する。 このようにすることにより、 カメラからの距離に影響されることな く、 すべての領域において同程度の検出レベルで差分サンプルサン 7ルラノ ンを検出することが可能になる。
次に、 第 22図のステップ P 4の差分サンプルラインの検出手順の第 2例 を、 第 26図に示すステップ P 4 A〜P 4Hのフローチ 一' に ¾つて、 以 下に詳説する。
ステップ P 4 Aで、 k番目のサンプルラインのビデオカメラからの位置に 基づいて、 第 1、 第 2の正の閾値 TH1、 TH2と、 第 1、 第 2の負の閾値 TH3、 TH 4を設定する。 なお、 TH4く TH3く 0く TH 1く TH2で ある。 このように閾値を、 正負を分けて設定するのは、 以下の理由による。 すなわち、 各サンプルラインに含まれるサンプル点の輝度差分値は、 王の値 のものあれば、 負の値のものもある。 これを、 正、 負の区別なく処理しょう とすると、 正、 負の輝度差分値同士の相殺が生じたりノイズを拾い易くなつ たりして、 これらの影響により誤検出し易くなる。 このような誤検出を避け るために、 上述の閾値を正、 負に分けて、 正の輝度差分値と負の輝度差分値 を別に処理するようにしている
ステップ P 4 Bでは、 k番目のサンプルラインのサンプル点のうち、 第 1 の正の閾値 TH 1より大きなサンプル点の輝度差分値の平均値 PMを算出す る。 P 4 Cでは、 k番目のサンプルラインのサンプル点のうち、 第 iの負の 閾値 TH 3より小さなサンプル点の輝度差分値の平均値 NMを算出する。 ステップ P 4 Cからステップ P Dに進み、 平均値 PMが第 2の正の閾値 TH 2より大か否かが判定される。 ステップ P 4 Dでの判定が 「YE S」 で あれば、 ステップ P 4 Fに進み、 ステップ P 4 Dでの判定が 「NO」 であれ ば、 ステップ P 4 Eに進む。 ステップ P 4Eでは、 平均値 NMが第 2の負の 閾値 TH4より小か否かが判別される。 ステップ P 4 Eでの判定が 「YE S」 であれば、 ステップ P 4 Fに進み、 k番目のサンプルラインを差分サン プルラインとして検出する。 ステップ P 4 Eの判定が 「NO」 であれば、 ス テツプ P 4Hに進み、 kを k丄 1に置き換える。 ステップ P 4Gとステップ P4Hにより、 ステップ P 4 A〜P 4 Fの動作が、 k-Κになるまで繰り返 される。 この繰り返しにより、 計測領域の一車線分の全ての差分サンプルラ インが検出される。
ステップ P 4 Aにおける正の閾値 TH 1、 TH2は、 ビデオカメラから遠 い位置のサンプルラインに対応するものほど小さく、 逆に負の閾値 TH 3、 TH 4は、 ビデオカメラから遠い位置のサンプルラインに対応するものほど 大きくなるように設定するとよレ、。 このようにビデオカメラからの距離に応 じて TH 1〜TH 4を設定することにより、 ビデオカメラからの距離に影響 されることなく、 どの位置でも同程度の精度にて差分サンプルラインを検出 することができる。
次に、 第 22図のステップ P 5のエッジサンプルラインの検出手順の第 i 例を、 第 27図に示すステップ P 5 a〜P 5 kのフローチヤ一卜に従って、 以下に詳説する。
ステップ P 5 aで、 第 22図のステップ P 2で算出された差分画像を車両 進行方向にソ一ベル微分子で空間微分して、 各サンプル点の空間微分値を算 出する。 ステップ P 5 bでは、 k番目のサンプルラインのビデオカメラから の位置に基づいて、 正の閾値 TH 1、 負の閾値 TH2、 正の整数閾値丁 H 3 を設定する。
ステップ P 5 bに続くステップ P 5 cでは、 k番目のサンプルラインの m 番目のサンプル点の空間微分値が T H 1より大か否かが 定される- ステツ プ P 5 cでの判定が 「YES」 ならば、 ステップ P 5 eに進み、 ステップ P 5 cでの判定が 「NO」 であれば、 ステップ P 5 dに進む: ステップ? 5 d では、 k番目のサンプルラインの m番目のサンプル点の空間微分値が 'Γ H 2 より小か否かが判定される c ステップ P 5 dでの判定が 「YE S」 であれ ば、 ステップ P 5 eに進み、 ステップ P 5 dでの判定が 「NO」 であれば、 ステップ P 5 gに進む。
ステップ P 5 cあるいはステップ P 5 dからステップ P 5 eに進むと、 k 番目のサンプルラインの m番目のフラグを 「ON」 にして、 ステップ P 5 f に進む。 ステップ P 5 f とステップ P 5 gにより、 ステップ 50〜 56 の動作が、 m = Mになるまで繰り返される。 この繰り返しにより、 k番目の サンプルラインの全てのサンプル点の空間微分値について、 IEの閾値 TH 1 より大力、、 あるいは、 負の閾値 TH 2より小かが判定される c
ステップ P 5 f からステップ P 5 hに進むと、 Γ〇Ν」 のフラグ数が正の 整数閾値 ΤΗ 3より大か否かが判別される。 ステップ Ρ 5 r:での判 ^が —Y ES」 であれば、 ステップ P 5 iに進み、 k番目のサンブルラインをエッジ サンプルラインとして検出する。 ステップ P 5 hでの判定が 「NO」 であれ ば、 ステップ P 5 kに進み、 mを 1に戻し、 kを k+ 1に置き換える。 ステ ップ P 5 j とステップ P 5 kにより、 ステップ P 5 b〜P 5 iの動作が、 k =Kになるまで繰り返される。 この繰り返しにより、 計測領域の一草線分の 全てのェッジサンプルラインが検出される。
ステップ Ρ 5 bにおける正の閾値 TH 1は、 ビデオカメラから遠い位置の サンプルラインに対応するものほど小さく、 逆に負の閾値丁 H 2は、 ビデオ カメラから遠い位置のサンプルラインに対応するものほど大きくなる うに 設定するとよい。 このようにビデオカメラからの距離に応じて TH 1、 TH 2を設定することにより、 ビデオ力メラカゝらの距離に影響されるこごなく、 どの位置でも同程度の精度にてエッジサンプルラインを検岀するこごができ る。 ステップ P 5 bにおける正の整数閾値 TH3は、 輝度差の変化が^ない ビデオカメラから遠い領域では小さくし、 輝度差の変化が大きいカメラから 近い領域では逆に大きくする。 このようにすることにより、 カメラからの距 離に影響されることなく、 すべての領域において同程度の検出レベルでエツ ジサンプルサンプルラインを検出することが可能になる。
次に、 第 22図のステップ P 5のエッジサンプルラインの検出手順の第 2 例を、 第 28図に示すステップ P 5 A〜P 5 Iのフローチヤ一トに従って、 以下に詳説する。
ステップ P 5 Aで、 第 22図のステップ P 2で箅出された差分画像を車両 進行方向にソーベル微分子で空間微分して、 各サンプル点の空間微分値を算 出する。
ステップ P 5 Bで、 k番目のサンプルラインのビデオカメラからの位置に 基づいて、 第 i、 第 2の正の閾値 TH1、 TH2、 第 1、 第 2の負の閾値 T H3、 TH4を設定する。 なお、 なお、 TH4く TH3く 0く TH 1く TH 2である。 このように閾値を、 正負を分けて設定するのは、 以下の理由によ る。 すなわち、 各サンプルラインに含まれるサンプル点の空間微分値は、 正 の値のものあれば、 負の値のものもある。 これを、 正、 負の区別なく処理し ようとすると、 正、 負の空間微分値同士の相殺が生じたりノイズを拾い易く なったりして、 これらの影響により誤検出し易くなる- このような誤検出を 避けるために、 上述の閾値を正、 負に分けて、 正の空間微分値と負の空間微 分値を別に処理するようにしている c
ステップ P 5 Cでは、 k番目のサンプルラインのサンプル点のうち、 第 1 の正の閾値 TH 1より大きなサンプル点の空間微分値の平均値 PMを算出す る。 P 5Dでは、 k番目のサンプルラインのサンプル点のうち、 第 1の負の 閾値 TH 3より小さなサンプル点の空間微分値の平均値 NMを算出する。 ステップ P 5 Dからステップ P 5 Eに進み、 平均値 PMが第 2の正の閾値 TH 2より大か否かが判別される- ステップ P 5 Eでの判定が 「YE S」 で あれば、 ステップ P 5 Gに進み、 ステップ P 5 Eでの判定が 「N〇― であれ ば、 ステップ P 5 Fに進む。 ステップ P 5 Fでは、 平均値 NMが第 2の負の 閾値 TH 4より小か否かが判定される。 ステップ P 5 Fでの判定が 「YE SJ であれば、 ステップ P 5 Gに進み、 k番目のサンプルラインを差分サン プルラインとして検出する。 ステップ P 5 Fでの判定が ΓΝΟ」 であれば、 ステップ Ρ 5 Ιに進み、 kを k十 1に置き換える。 ステップ P 5Hごステツ プ P 5 1により、 ステップ P 5 B〜P 5 Gの動作が、 k=Kになるまで繰り 返される。 この繰り返しにより、 計測領域の一車線分の全てのエッジサンプ ルラインが検出される。
ステップ P 5 Bにおける正の閾値 TH 1、 TH2は、 ビデオカメラから遠 い位置のサンプルラインに対応するものほど小さく、 逆に負の閾値 TH 3、 TH4は、 ビデオカメラから遠い位置のサンプルラインに対応するものほど 大きくなるように設定するとよい。 このようにビデオ力メラからの距離に応 じて TH 1〜TH 4を設定することにより、 ビデオカメラからの距離に影響 されることなく、 どの位置でも同程度の精度でエッジサンプルラインを検出 することができる。
第 22図のステップ P 6における存在サンプルラインは、 以下のようにし て検出する。 すなわち、 第 2 2図のステップ P 4で検出された差分サンブル ラインと、 ステップ P 5で検出されたエッジサンプルラインのうちの少、なく とも一方のサンプルラインであれば、 そのサンプルラインを存在サンプルラ インとして検出する。
次に、 第 2 2図のステップ P 7の存在サンプルラインの配置に基づいた存 在サンプルラインの補正手順を、 第 2 9図に示すステップ? 7 a〜P 7 mの フローチャートに従って、 以下に詳説する。 この存在サンプルラノンの配置 に基づいた存在サンプルラインの補正は、 前半のステップ P 7 a〜ステップ P 7 eが車体範囲内における、 存在サンプルラインの検出漏れを補正するた めの処理であり、 後半のステップ P 7 g〜P 7 mが車体範囲外の存在サンプ ルラインの誤検出を補正するための処理である。
ステップ P 7 aで、 k番目と k— 1番目の存在サンブルラインのビデオ力 メラからの位置に基づいて、 閾値 T H 1を設定する。 ステップ P 7 cで、 k 番目と k + 1番目の存在サンプルライン間に存在するサンプルラインの数を カウントする c
ステップ P 7 bに続くステップ P 7 cで、 カウントされたライン数が T H 1より小か否かが判定される。 ステップ P 7 cでの判定が 「Y E S」 であれ ば、 ステップ P 7 dに進み、 k番目と k十 1番目の存在サンプルラノンの間 のサンプルラインを存在サンプルラインとして追加する。 ステップ P 7 cで の判定が 「NO」 であれば、 ステップ P 7 f に進み、 kを k + 1に置き換え る。 ステップ P 7 eとステップ P 7 f により、 ステップ P 7 a〜P 7 dの動 作が、 k = Kになるまで繰り返される。 この繰り返しにより、 計測領域の一 車線分の全ての存在サンプルラインに対して、 第 2 2図のステップ P 6で検 出された存在サンプルラインの配置に基づいた存在サンプルラインを追加す る補正がなされたことになる。
例えば、 第 2 2図のステップ P 6で、 第 3 0図の (a ) に示丁ような配置 で存在サンプルラインが検出された場合、 k番目と k + 1番目の存在サンプ ルラインの間のサンプルラインの数は以下のようになる。 上から 1番目と 2 番目の存在サンプルラインの間と、 2番目と 3番目の存在サンプルラインの 間とには 0個のサンプルライン、 3番目と 4番目の存在サンプルラインの間 の領域 L 1には 2個のサンプルライン、 4番目と 5番目の存在サンブルライ ンの間には 0個のサンプルライン、 5番目と 6番目の間の存在サンプルライ ンの間の領域 L 2には 5個のサンプルライン、 6番目と 7番目の存在サンプ ルラインの間には 7個のサンプルライン、 7番目と 8番目の存在サンプルラ ィンの間と、 8番目と 9番目の存在サンプルラインの間には 0個のサンプル ラインがそれぞれ存在する。 したがって、 ステップ P 7 bで閾値 TH 1を T H I =3=—定に設定した場合、 第 30図の (a) および (b) に示すよう に、 領域し 1のサンプルラインのみが存在サンプルラインとして追加され る。
再び第 29図において、 ステップ P 7 eからステップ P 7 gに進むご、 存 在サンプルラインを、 他のサンプルラインを含まないで連続した存在サンプ ルラインからなる複数のライングループに分類する。 ステップ P 7 hで、 各 ライングループのビデオカメラからの位置に基づいて、 閾値 TH 2を設定す る。 ステップ P 7 iでは、 r番目のライングループに含まれる存在サンプル ラインの数を算出する。
ステップ P 7 iに続くステップ P 7 jでは、 カウントされた存在サンプル ラインの数が、 TH2より小か否かが判定される。 ステップ P 7 〗 での判定 力; 「YE S」 であれば、 ステップ P 7 kに進み、 r番目のライングループに 含まれる全ての存在サンプルラインを除去する。 ステップ P 7 jでの判定が 「NO」 であれば、 ステップ P 7mに進み、 rを Γ + lに置き換える- ステ ップ P 7 1 とステップ P 7mにより、 ステップ P 7 g〜P 7 kの動作が、 r =Rになるまで繰り返される。 なお、 Rは計測領域の 1車線分に含まれるラ イングループの総数である。 この繰り返し動作により、 計測領域の一萆線分 の全ての存在サンプルラインに対して、 P 7 dで補正された存在サンプルラ ィンの配置に基づいて存在サンプルラインを除去する補正がなされたことに なる。
ステップ P 7 d終了後に、 第 3 0図 (b ) に示すような配置で存在サンプ ルラインが検出された場合、 r番目のライングループの存在サンプルライン の数は以下のようになる。 領域 L 4で示される 1番目のライングループには 7個の存在サンプルライン、 領域し 5で示される 2番目のライングループに は、 1個の存在サンプルライン、 領域 L 6で示される 3番目のライングルー プには、 3個の存在サンプルラインがそれぞれ存在している。 したがって、 ステップ P 7 hで閾値 T H 2を T H 2 = 3 =一定に設定しておけば、 第 3 0 図の (b ) および (c ) に示すように、 領域 L 5のライングループの存在了 ンプルラインが除去される。
ステップ P 7 a、 P 7 hにおける閾値 T H 1、 T H 2は、 画像上に描写さ れる平均的な車両の長さの 1 4に相当するサンプルライン数に一致させる とよレ、。 このため、 閾値 T H 1、 T H 2は、 ビデオカメラから遠い領域では 車両が小さい像として得られるので、 小さく し、 ビデオカメラから近い領域 では、 車両が大きい像として得られるので、 大きくする = このようにするこ とにより、 カメラからの距離に影響されることなく、 すべての領域において 同程度の精度で存在サンプルラインを追加あるいは削除する補正処理をする ことができる。
次に、 第 2 2図のステップ P 8の差分サンプルラインの配置に基づいた存 在サンプルラインの補正手順の 1例を、 第 3 1図に示すステップ P 8 £〜P 8 iのフローチャートに従って、 以下に詳説する。 この差分サンプルライン の配置に基づいた存在サンプルラインの補正は、 建物や車両等の影を誤って 車両が存在していると認識して検出された存在サンプル点を除去するための 処理である。 詳しくは、 上述の差分サンプルラインは、 時刻 のサンプル 点画像と基準輝度画像との輝度差から単純に検出されるので、 車両の影の範 囲や、 日差しの急激な変化により突然現れた建物の影の範囲 < ンが誤って存在サンプルラインとして検出されることになる。 したがって、 差分サンプルラインの配置から建物や車両の影によって生じる誤検 ώを補正 する必要がある。
ステップ Ρ 8 aで、 エッジサンプルラインを含まないで連続する差分サン プルラインからなるライングループを検出する。 ここで、 エッジケンプルラ インを含まないライングループを特定するのは、 下記の理由による: 一般的 に影の範囲はエッジが検出され難く、 また影の範囲のサンブル点の輝度値も 相対的に小さいため、 通常、 エッジサンプルラインが検出されない- このた め、 ニッジサンプルラインが検出された領域は影が存在してレ、ないとみなす ことができるからである。 ステップ P 8 で、 k番目のライングループの ビデオカメラからの位置に基づいて、 閾値 T H 1、 T H 2を設定する: ステ ップ P 8 cで、 k番目のライングループに含まれる差分サンプルラインの数 をカウントする。
ステップ P 8 cに続くステップ P 8 dで、 カウントされたライン数が閾値 T H 1より大か否かが判別される。 ステップ P 8 dでの判定が 「Y E S」 で あれば、 ステップ P 8 eに進み、 k番目のライングループの各差分サンプル ラインに位置的に対応する時刻 t nのサンプル点画像上の各サンブルライン 内のサンプル点の輝度値の平均値 B Mを算出する。 ステップ P 8 dでの^定 「N O」 であれば、 ステップ P 8 iに進み、 kを k + 1に置き換える。 ステップ P 8 eからステップ P 8 f に進むと、 上記 B Mが閾値 T H 2より 小か否かが判別される。 ステップ P 8 f での判定が 「Y E S j であれば、 ス テツブ P 8 gに進み、 k番目のライングノ! ^一プの差分サンプルライン:こ位置 的に対応する存在サンプルラインを除去する。 ステップ P 8 ίでの判定が 「Ν Ο」 であれば、 ステップ Ρ 8 iに進み、 kを k T lに置き換える: ステ ップ P 8 hとステップ P 8 iにより、 ステップ P 8 b〜P 8 gの動作が、 k = Kになるまで繰り返される。 この繰り返しにより、 計測領域の一車線分の 全ての存在サンプルラインに対して、 差分サンプルラインの配置に基づいて 存在サンプルラインを除去する補正がなされたことになる: ステップ P 8 bにおける閾値 T H 1は、 画像上に描写される平均的な車両 の長さの 1 4に相当するサンプルライン数に一致させるとよい。 このた め、 閾値 T H 1は、 ビデオカメラから遠い領域では車両が小さい像として得 られるので、 小さくし、 ビデオカメラから近い領域では、 車両が大きい像と して得られるので、 大きくする。 またステップ P 8 bにおける閾値 T H 2 は、 ビデオカメラから遠い領域のものほど小さくするように設定するとよ レ、。 これは、 ビデオカメラから遠い位置では近い位置に比べて画像がぼや け、 車両と背景との輝度差が小さくなるからである e このようにビデオカメ ラからの距離に応じて T H 1、 T H 2を設定することにより、 ビデ カメラ からの距離に影響されることなく、 どの位置でも同程度の精度にて存在サン プルラインを除去することができる。
次に、 第 2 2図のステップ P 9の移動サンプルラインの検出手順の 1例 を、 第 3 2図に示すステップ P 9 a〜P 9 gのフローチャートに従って、 以 下に詳説する。
ステップ P 9 aで、 移動サンプル点を検出する。 この移動サンプル点の検 出手順は、 前述の第 1の実施例の第 1 0図に示された検出手順と同じであ り、 重複説明を避けるため、 ここではその説明を省略する:
ステップ P 9 bでは、 k番目のサンプルラインのビデオカメラからの位置 に基づいて、 閾値 T H 1を設定する。 ステップ P 9 cでは、 k番目のサンプ ルラインに含まれる移動サンプル点の数をカウントする。
ステップ P 9 cに続くステップ P 9 dでは、 カウントされた移動サンプル 点数が閾値 T H 1より大か否かが判別される。 ステップ? 9 dでの判定が 「Y E S」 であれば、 ステップ P 9 eに進み、 k番目のサンプルラノ ンを移 動サンプルラインとして検出する。 ステップ P 9 dでの判定が 「N〇- であ れば、 ステップ P 9 gに進み kを k T 1に置き換える。 ステップ P 9 f とス テツプ P 9 gにより、 ステップ P 9 'り〜 P 9 eの動作が、 k = Kになるまで 繰り返される。 この繰り返しにより、 計測領域の一車線分の移動サ.
ィンが全て検出される。
ステップ P 9 bにおける閾値 T H 1は、 ビデオカメラから遠い領域のもの ほど小さくなるように設定するとよい このようにビデオカメラからの距離 に応じて T H 1を設定することにより、 ビデオカメラからの距離に影響され ることなく、 どの位置でも同程度の精度で移動サンプルラインを検出するこ とができる。
次に、 第 2 2図のステップ P 1 0の移動サンプルラノンの配置に基づいた 存在サンプルラインの補正手順の 1例を、 第 3 3図に示すステップ P I 0 a 〜P 1 0 gのフローチャートに従って、 以下に詳説する。 この移動サンブル ラインの配置に基づいた存在サンプルラインの捕正は、 第 2 9図のステップ P 7 a〜P 7 f で補正されなかった、 車体範囲内の存在サンプルラインの検 出漏れを補正するための処理である。 詳しくは、 基準輝度画像とのコントラ ストが小さく、 車体範囲内での輝度変化の小さい車両が道路上に存在してい る場合には、 この車両の存在は差分サンプルラインやエッジサンプルライン として検出され難く、 また上記のステップ P 7 a〜P 7 f の処理では補正さ れない。 このような車両の存在は、 移動サンプルラインによって検 できる ことがあり、 移動サンプルラインの配置に基づいて、 存在サンブルラインの 検出漏れを補正する。
ステップ P 1 0 aで、 k番目と k + 1番目の存在サンプルラインのビデオ カメラからの位置に基づいて、 閾値 T H 1、 T H 2を設定する。 ただし、 T H Iく T H 2である。 このステップ P 1 0 aで設定される閾値 T H 1;ま、 第 2 9図のステップ P 7 aで設定される閾値 T H 1と一致させる: このように 設定するのは、 ステップ P 1 0 a〜P 1 0 gでの処理の補正対象のサンプル ラインを、 ステップ P 7 aから P 7 f での処理の補正対象から外れたものだ けに限定するためである。 この結果、 無駄な処理や補正漏れを防 itするこ ができる。 ステップ P 1 0 bで、 k番目と k+ 1番目の存在サンプルライン間に存在 するサンプルラインの数をカウントする。 ステップ P 1 0 cでは、 カウント されたライン数が TH 1以上かつ、 TH 2より小か否かが判定される。 ステ ップ P 1 0 cでの判定が 「YE S」 であれば、 ステップ?; L 0 dに進み、 ス テツプ P 1 0 cでの判定が 「NO」 であれば、 ステップ P 1 0 gに進む c ステップ P I 0 cからステップ P l O dに進むと、 k番目と k+ 1番目の 存在サンプルラインの間に、 移動サンプルラインが存在するか否かが判定さ れる。 ステップ P 1 0 dでの判定が 「YES」 であれば、 ステップ P l O e に進み、 k番目と k + 1番目の存在サンプルラインの間の移動サンプルライ ンを含むサンブルラインを、 存在サンプルラインに追加する。 ステップ P 1 0 dでの判定が 「NO」 であれば、 ステップ P 1 0 gに進み、 kを k十 1に 置き換える。 ステップ P 10 f とステップ P 1 0 gにより、 ステップ P 1 0 a〜P 1 0 eの動作が、 k =Kになるまで繰り返される。 この繰り返しによ り、 計測領域の一車線分の全ての存在サンプルラインに対して、 移動サンプ ルラインの配置に基づいて、 存在サンプルラインを追加する補正がなされた ことになる。
例えば、 第 22図のステップ Ρ 8、 Ρ 9のそれぞれで、 第 34図の (a) に示すような配置の存在サンプルラインおよび移動サンプルラインが得られ た場合、 k番目と k+ 1番目の存在サンプルラインの間のサンブルラインの 数は以下のようになる。 上から 1番目〜 7番目の隣接する二つの存在サンプ ルラインのそれぞれの間には 0個のサンプルライン、 7番目と 8番目の存在 サンプルラインの間の領域 L 7には 3個のサンプルライン、 8番目〜 i 0番 目の隣接する二つの存在サンプルラインのそれぞれの間には 0個のサンプル ライン、 i 0番目と 1 1番目の存在サンプルラインの間の領域 L 8 6個 のサンプルライン、 1 1番目〜 14番目の隣接する二つの存在サンプルライ ンのそれぞれの間には 0個のサンプルラインが存在している。 一方、 領域し 7には 1個の移動サンプルライン、 領域 L 8には 0個の移動サンブルライン がそれぞれ存在している。 したがって、 ステップ P 1 0 aで閾値 TH 1、 T H 2を TH 1 = 3 =—定、 TH 2 = 5 =—定に設定した場合、 第 3 4図の (a ) および (b) に示すように、 領域 L 7のサンプルラインが存在サンプ ルラインとして追加される。
ステップ P 1 0 aにおける閾値 TH 1、 TH 2は、 それぞれ画像 に描写 される平均的な車両の長さの 1 4、 1Z2に相当するサンプルライン数に 一致させるとよい。 このため、 閾値 TH 1、 TH 2は、 ビデオカメラから遠 い領域では車両が小さい像として得られるので、 小さくし、 ビデオ刀メラか ら近い領域では、 車両が大きい像として得られるので、 大きくする: このよ うにすることにより、 カメラからの距離に影響されることなく、 すべての領 域において同程度の精度にて存在サンプルラインを補正することができる。 第 2 2図のステップ P 1 1におけるメッシュは、 第 3 5図に示される。 こ のメッシュは、 ビデオカメラからの距離が近くなるにつれて、 縦サノズが大 きくなるように設定されている。 このようにメッシュサイズをビデオカメラ からの距離に応じて設定することにより、 各メッシュで指定される実際の道 路上の各領域のサイズを同程度にすることができる。
第 2 2図のステップ P 1 2おける各メッシュの空間密度は、 下記の弍で算 出される。
D (m) =P S L (m) /Ύ S L (m) … (vi) ここに、 D (m) は m番目のメッシュの空間密度、 卩 しは!!!番目のメッ シュに含まれる存在サンプルラインの数、 T S L (m) は、 m番目のメッシ ュに含まれるサンプルラインの総数である。 第 3 5図に示すような配置で存 在サンプルラインが求められた場合、 メッシュ Mlの空間密度は 3 3¾、 メ ッシュ M 2〜M4の空間密度は 1 0 0 %、 メッシュ M 5の空間密度は 7 5 %、 メッシュ M 6の空間密度は 0 %、 メッシュ \ 7の空間密度は 8 0 %と なる。
第 2 2図のステップ P 1 3おける大型車の混入率は、 以下のような手法で 算出する。
ます、 5分または 1 0分間の単位時間内での第 2 1図に示す交通流計測領 域 Fでの大型車両の混入率 R tを次式により箅出する。
Figure imgf000052_0001
ここに、 NLは、 第 2 1図の感知ライン DLを通過した大型車両台数、 Ντ は、 感知ライン DLを通過した全車両台数である。 なお、 第 2 1図に示す交 通流計測領域 Fでは、 前述したように、 車両の通過台数、 車両の大型車、 普 通車の区別を計測できるので、 これらの計測データを利^して、 混入率 R ΐ を算出する。
第 22図のステップ Ρ 14おける車間距離は、 ビデオカメラからの情報か らでは実際に計測するのは困難であるので、 実際には、 車間距離と比例関係 のあると推定される車両の速度あるいは単位時間当たりの通過台数を算出し て、 これらの算出値を車間距離に相当するものとして利用する
第 22図のステップ Ρ 1 5における大型車両混入率と車間距離に基づく空 間密度の補正は、 以下の手法でなされる。 大型車の混入による補正は、 見か け上の車両存在範囲によって算出された空間密度を補正するための^理であ る。 具体的には、 第 36図のハッチング領域で示す車両が大型車両であると き、 車両の実際の存在範囲よりも見かけ上の車両存在範囲が非常に大きくな る。 この見かけ上の車両存在範囲により算出された空間密度が補正される: まず、 上記単位時間内に交通流計測領域 Fを通過した全車両の平均車高 h a、 平均車長 1 aをそれぞれ次式により算出する。
h a =R t X hL-r (l -R t) X hs … (viii)
1 a =R t X 1 L+ ( 1 -R i) X 1 s … (") ここに、 h は大型車両の高さ、 hsは普通車両の高さ、 1 Lは大型車両の長 さ、 〖 sは普通車両の長さである。
次に、 第 36図のハッチング領域で示す車両による隠れ範囲 1 hを次式に より算出する。 1 h = h a XL/ (H— h a) … (x) ここに、 Hはビデオカメラの路面からの高さ、 Lはビデオカメラから車両の 先端位置までの距離である。
上記 1 h、 1 aにより、 見かけ上の車両存在範囲を実際の車両存在範囲に 補正するための補正率 R eを次式により算出する。
Re = l a/ ( l a + l h) … (xi)
なお、 第 21図に示す交通流計測領域 Fでは、 前述したように、 車両の通 過台数、 車両の大型車、 普通車の区別、 車両の長さ等を計測できるので、 こ れらの計測データを利用して、 補正率 Reを算出する。 また、 補三率 R eに よる補正は、 交通流計測領域 F以外の空間計測領域 Eの計測結果に利用すれ ばよい。 交通流計測領域 Fでは、 個々の車両の車長を直接計測することがで きるので、 個々の車両毎に、 補正率を算出すればよい。
上記のようにして算出された補正率 Reは、 車間距離が長ければ、 そのま ま使うことができるが、 車間距離が短くなれば、 すなわち、 ビデオカメラで 撮影された画像上で車両が重なって見えれば、 (Xりで算出された Reをそのま ま使うことができず、 増加させる必要がある。 具体的には、 車間距離が長い ほど、 捕正率 R eを式 (xi)で算出された値に近づけ、 車間距離が短くなるほ ど、 補正率 Reを 1に近づける。
空間計測領域 Eにおいては、 ビデオ力メラからの情報しか渋滞計測装置は 入手することができないため、 複数の車両が重なって撮影されるような車間 距離が短くなつている場合には、 車間距離を計測することができな 。 この ため、 上記の車間距離は、 直接算出するのではなく、 車間距離と比例関係が ある計測値、 本実施例は、 後述の方法で算出される空間速度と交通流計測領 域 Fで計測された単位時間当たりの通過台数を車間距離に相当するものとし て利用する。 具体的には、 空間速度が大きいほど、 補正率 Reを式 (Xりで算出 された値に近づけ、 空間速度が小さいほど、 補正率 Reを 1に近づける。 一 方、 通過台数が少ないほど、 補正率 Reを式 (Xりで算出された値に近づ 、 通 過台数が多いほど、 補正率 R eを 1に近づける c
第 2 2図のステップ P 1 5においては、 上記のようにして算出され補正さ れた補正率 R eを、 各メッシュの空間密度に乗算することにより、 空間密度 を補正する。
次に、 渋滞計測装置 8 2、 8 4により実行される空間速度の算出万法を、 まず、 第 3 7図に示されるステップ Q 1〜Q 1 5のフローチヤ一、に従つ て、 概略的に説明する。
ステップ Q 1で、 時刻 t n、 t n + 7の各画像のサンブル点画像を作成す る。 ステップ Q 2で、 各サンプル点画像の各サンプルラインに含まれるサン プル点の輝度値の平均値を算出して、 各サンプルラインのライン輝度 均値 を算出する。
ステップ Q 3で、 時刻 t nのサンプル点画像上の移動サンプルラインを検 出する。 移動サンプルラインは、 前述の第 3 2図のフローチャートと同じ手 順で検出するので、 重複説明を避けるため、 ここではその説明を省略する。 ステップ Q 4で、 時刻 t nのサンプル点画像上での各移動サンプルライン の時刻 t n + yの画像上での移動先を検出する。 ステップ Q 5では、 移動先 が検出された移動サンプルラインの速度を算出する。
ステップ Q 6で、 時刻 t nのサンプル点画像を複数のメッシュに分割す る。 ステップ Q 7で、 k番目のメッシュ内の移動先を追跡することができた 移動サンプルラインの平均速度を算出する。 ステップ Q 8で、 k番目のメッ シュで移動先を追跡することができた移動サンプルライン数の k番目のメッ シュに含まれる全サンプルライン数に対する割合を算出する。
ステップ Q 8に続くステップ Q 9で、 k番目のメッシュの移動サンプルラ ィンの割合が所定の閾値より大か否かが判別される。 ステップ Q 9で: 判定 力; 「Y E S」 であれば、 ステップ Q 1 0に進み、 k番目のメッシュ^の移動 サンプルラインの平均速度を、 k番目のメッシュの空間速度として検出す る c ステップ Q 9での判定が 「N〇j であれば、 ステップ Q l 1に進み、 速 度 0 km/hを、 k番目のメッシュの空間速度として設定する。
ステップ Q 9からステップ Q 1 2に進むと、 k番目の空間速度を指数平滑 ィ匕して、 ステップ Q 1 3に進む。 ステップ Q 1 3、 Q 1 4により、 k =Kに なるまで、 ステップ Q 7〜ステップ Q1 2が繰り返される。 この結果、 時刻 t nのサンプル点画像における各メッシュの空間速度が算出されたこごにな る c
上記のステップ Q 1〜Q 1 5は、 所定の時間間隔で繰り返される。 上記ステ ップ Q 1〜Q 1 5で必要な画像データや、 検出あるいは算出されるデータの概 略的な関係を、 第 38図に示す。
次に、 第 3 7図のステップ Q 4の移動サンプルラインの移動先を検出する 手順の第 1例を、 第 39図に示すステップ Q 4 a〜Q4 gのフ口一チヤ一ト に従って、 以下に詳説する。
ステップ Q 4 aで、 時刻 t nのサンプル点画像上の k番目の移動サンブル ラインの位置と、 時間間隔 7とに基づいて、 k番目の移動サンプルラインの t η + γのサンプル点画像上の予想移動範囲を算出する。 ステップ Q 4 b で、 時刻 t nのサンプル点画像上の k番目の移動サンプルラインと、 時刻 t η+γのサンプル点画像上の予想移動範囲内の各サンプルラインとの輝度値 の差を表す輝度差分値の絶対値を算出する。
ステップ Q 4 bに続くステップ Q 4 cで、 最小の輝度差分値の絶対値が所 定の閾値より小さいか否かが判別される。 ステップ Q4 cでの判定が 「YE S」 であれば、 ステップ Q4 dに進み、 最小の輝度差分値の絶対値のサンプ ルラインを k番目の移動サンプルラインの移動先として検出する。 ステップ Q4 dでの判定が 「NO」 であれば、 ステップ Q 4 eに進み、 k番目の移動 サンプルラインの移動先を無しと検出する c
ステップ Q 4 dおよびステップ Q 4 eに続くステップ Q 4 ίおよびステツ プ Q4 gにより、 ステップ Q4 a〜ステップ Q4 eの動作が、 k=K:こなる まで繰り返される。 結果的に、 時刻 t nのサンプル点画像上の全ての移動サ ンプルラインの移動先の有無と移動先の位置が検出される。
次に、 第 3 7図のステップ Q 4の移動サンプルラインの移動先を検出する 手順の第 2例を、 第 4 0図に示すステップ Q 4 A〜Q 4 Mのフローチヤ一ト に従って、 以下に詳説する。
ステップ Q 4 Aで、 時刻 t nのサンプル点画像上の k番目の移動サンプル ラインの位置と、 時間間隔 γとに基づいて、 k番目の移動サンプルラインの t η + τ/のサンプル点画像上の第 1の予想移動範囲を算出する。 ステップ Q 4 Βで、 第 1の予想移動範囲の 1サンプルライン分前後にずれた範囲を、 そ れぞれ第 2、 第 3の予想移動範囲として検出する。
ステップ Q 4 Cで、 時刻 t ηのサンプル点画像上の k番目の移動サンプル ラインと、 時刻 t n + yのサンプル点画像上の第 1の予想移動範囲 の m番 目のサンプルラインとの輝度値の差を表す輝度差分値の絶対値じ 1を算出す る。
ステップ Q 4 Dで、 時刻 t nのサンプル点画像上の k番目の移動サンプル ラインの直前のサンプルラインと、 時刻 t η + γのサンプル点画像上の第 2 の予想移動範囲内の m番目のサンプルラインとの輝度値の差を表す輝度差分 値の絶対値 U 2を算出する。
ステップ Q 4 Eで、 時刻 ηのサンプル点画像上の k番目の移動サンブル ラインの直後のサンプルラインと、 時刻 t n屮 γのサンプル点画像上の第 3 の予想移動範囲内の m番目のサンプルラインとの輝度値の差を表す輝度差分 値の絶対値 U 3を算出する。
ステップ Q 4 Fで、 し T l、 U 2、 し' 3を加算して輝度差分値の総 じ を 算出する。 ステップ Q 4 Gとステップ Q 4 Hにより、 m = .Mになるまで、 ス テツプ Q 4 C〜ステップ Q 4 Fを繰り返し、 第 1、 第 2、 第 3の予想移動範 囲の全てのサンプルラインに対する移動サンプルラインとその前後のサンプ ルラインとの輝度差分値の計算とその総和処理を実行する:
ステップ Q 4 Iで、 総和 U mのうちの最小の U mが閾値より小か否かを判 別する- ステップ Q4 Iでの判定が 「YE S」 であれば、 ステップ Q4 Jに 進み、 最小の総和 Umの第 1の予想移動範囲内の m番目のサンプルライン を、 時刻 t nのサンプル点画像上の k番目の移動サンプルラインの移動先と して検出する。 ステップ Q 4 Iでの判定が 「NO」 であれば、 ステップ Q 4 Kに進み、 時刻 t nのサンプル点画像上の k番目の移動サンプルラインの移 動先無しと判定する。
ステップ Q4 Lとステップ Q4Mにより、 k =Kになるまで、 ステップ Q 4 A〜ステップ Q4Kを繰り返す。 この結果的、 時刻 t nのサンプル点画像 上の全ての移動サンプルラインの時刻 t η + γの画像上での移動先が検出さ れる c
ここで、 第 4 1図の (a) に示すように、 時刻 t nのサンブ /レ点画像上 に、 移動サンプルライン MV dが検出され、 第 1の予想移動範囲は第 4 1図 の (b) に示す第 1予想移動範囲 PA 1を得るとすると、 PA2が第 2の予 想移動範囲、 P A3が第 3の予想移動範囲になる。 上記のステップ Q4 Fで 算出される総和 Umのうちの最小の総和に対応する 3つのサンプルラノンが 第 4図の (b) の時刻 t n + yのサンプル点画像上の位置 b、 b— 1、 b + 1に位置するサンプルラインであるとき、 位置 bのサンブルラノンが移動サ ンプルライン MV aの移動先となる。
第 3 7図のステップ Q 5における各移動サンプルラインの速度 Vkは、 次 式により算出される。
Figure imgf000057_0001
ここに、 L aは、 時刻 t nのサンプル点画像上の各移動サンプルラノ ンの車 両走行方向における座標位置、 L bは、 各移動サンプルラインの時刻 t n -r γのサンプル点画像上の移動先の車両走行方向における座標位置である: 第 3 7図のステップ Q 1 2における空間速度の指数平滑化処理は、 次式に 従ってよつて実行される。
V (m, tn) = ( 1 - θ ) XV (m, tn-l) + Θ X V (-, t π) '·■ (xiii) ここに、 V (m, t n) は、 m番目のメッシの時刻 tでの空間速度、 V (m, tn-1) は、 m番目のメッシュの時刻 tn-1での空間速度、 eは指数係 数で 0 < θ < 1である。 この空間速度の指数平滑化処理により、 ノイズを除 去することができる。
次に、 渋滞計測装置 8 2により実行される渋滞領域の末尾位置の検岀方法 の第 1例を、 第 4 2図に示されるステップ Ζ 1〜Ζ 4のフローチヤ一、に従 つて以下に説明する。
ステップ Z 1で、 各メッシュの空間速度を算出する。 この空間速度の算出 方法は下記の 2通りがある。
最初の算出方法は、 前述の第 3 7図のフローチャートに従った手順で空間 速度を算出する方法であり、
二つめの算出方法は、 第 2 2図のフローチヤ一トの手順で算出した空間密 度と、 第 2 1図の交通流計測領域 Fで計測される交通量と、 を用いて次式に より空間速度 V (m, t n) を算出する方法である。
V (m, t n) = (q ( t n) X 1 a ) /d (m, t n) … (ix) ここに、 q ( t n) は時刻 t nにおける空間計測領域内の単位時間あたりの 交通量、 1 aは時刻 t nにおける空間計測領域内の車両の平均車長、 d
(m, t n) は m番目のメッシュの空間密度である。
さらに、 ノイズ成分を除去するために、 空間速度 V (m, t n) を次式で 指数平滑化する。
V (m, t n) = (1 - ) X V (m, tn-1) + μ XV (m, i n)
… (xv) ここに、 μは指数係数で 0 < M < 1である。
ステップ Ζ 2で、 ノイズ成分および渋滞の疎密波による影響を除去 Τるた めに、 各メッシュの平均化空間速度 Mv (m) を次式により算出する:
Figure imgf000059_0001
ここに、 Mv (m) m番目のメッシュにおける平均化空間速度、 M メッシ 二の総数である- ステップ Z 3で、 上記の平均化空間速度 Mv (m) のうち、 Mv (m) < Cvを満たす Mv (m) を有するメッシュを全て渋滞領域として検出する。 C Vは予め設定された速度で、 例えば、 高速道路では、 C v = 40 km/ h、 一般道路では、 C V = 20 km/hとする。 ステップ Z 4で、 渋滞領域 の上流側端部の位置を渋滞末尾位置として検出する。 第 4 5図は、 メッシ ュ、 渋滞領域および渋滞末尾位置との関係を示す図である C
次に、 渋滞計測装置 82、 84により実行される渋滞領域の禾尾位置の検 出方法の第 2例を、 第 43図に示されるステップ Z 1' 〜Ζ 4' のフコーチ ャ一トに従って以下に説明する。
ステップ Z 1' で、 各メッシュ内に含まれる移動サンプル点の数をカウン トする。 ステップ Ζ 2' で、 各メッシュの移動密度 Mr (m) 各メッシュの 移動サンプル点の数を各メッシュに含まれる総サンプル点の数で除算するこ とにより、 算出する。
ステップ Z 3' で、 空間密度 D (m) が所定の閾値 C 1より大で、 移動密 度 Mr (m) が所定の閾値 C 2より小であるメッシュを、 渋滞領域として検 出する。 ステップ Z 4' で、 渋滞領域の上流側端部の位置を渋滞末尾位置と して検出する。
第 42図のステップ Z 1〜Z 4および第 43図の Z 1 ' 〜Ζ 4' 、 所定の 時間間隔で繰り返される。 上記ステップ ζ ι〜ζ4および z i ' 〜τ— ' で必 要な画像データや、 検出あるいは算出されるデータの概略的な関係を第 44図 に示す c
第 20図に示される渋滞計測装置 82は、 第 22図のフコ一チヤ一 :、に従 つて計測した空間密度、 第 3 7図のフコーチャートに従って計測した空間速 度、 並びに、 第 42図あるいは第 43図のフローチャートに従って計測され た渋滞末尾位置を、 第 2 1図の交通流計測装置 Fで計測された各種の計測結 果とともに、 交通管制センターの中央制御装置 1 0 0に送信する。 中央制御 装置 1 0 0は、 受信した計測結果に基づいて、 ビデオカメラ 8 1により撮影 されている道路上を走行中の車両の運転者に知らせる交通情報を作成して、 表示制御装置 9 2に送信する。 表示制御装置 9 2は、 受信した交通情報を情 報表示板 9 1に表示させる。
上述の第 2の実施例によれば、 画像の全ての画素の輝度データを処理ぜず に、 特定のサンプル点に対応する画素のみの輝度データを処理しているの で、 計算処理するデータ量を大幅に削減することができ、 結果的に装置のハ —ド構成を簡素化することができ、 コス トを低減することができる: た、 高速処理が可能になって、 リアルタイムの渋滞計測が可能になる。
また、 第 2の実施例では、 サンプルライン単位で車両の存在や移動を検出 しているので、 メッシュ毎の空間速度および空間密度を検出することができ る。 この結果、 例えば、 4 0 k mZ h以下の車両の一団が占める領域を渋滞 として認識するように渋滞計測装置を設定した場合に、 その渋滞領域^の車 両の速度や密度ををリアルタイムに直接的に計測することができ、 詳細な渋 滞情報を提供することができる。 したがって、 本実施例の交通管制システム は、 高速道路に適用すると効果的である。
また、 事前の学習をほとんどすることなく、 装置を設定してから直ぐに精 度良い渋滞計測が可能になり、 また、 環境の変化、 例えば、 計測地点、 時間 帯、 天候、 交通量等の変化に関わらずに安定して渋滞状況を検出することが でき、 しかも渋滞の長さも簡単に検出することができる。
さらにまた、 各種判別の基準になる閾値等の各種パラメータを、 ビデオ力 メラから各サンプル点での距離に応じて変化させているので、 高精度の渋滞 計測が可能になる。 また、 上記パラメ一タを各サンプル点のカメラからの距 離により自動的に検出できるため、 交通管制システムの管理運用上の有効で ある。 またさらに、 道路上に計測可能な距離だけ隔てて本実施例のビデオカメラ と渋滞計測装置を、 複数個連ねて配置するようにすれば、 長距離にわたる連 続した渋滞状況を計測することもできる。 さらに、 本実施例は、 計測領域内 の一部の計測結果から計測領域の全体の渋滞状況を推定しているのではな く、 計測領域全体の渋滞状況を直接的に計測しているので、 計測領域内で事 故や車両故障が発生した場合に、 直ちにそれを検知できる効果もある。

Claims

請求の範囲
1 . ビデオカメラにより撮影された、 道路と該道路上を行き来丁る車両とを描 写した一連の複数の画像からなる動画像に基づいて、 交通渋滞の汰況を計測す る交通渋滞計測方法であって、
前記動画像上に、 それぞれ輝度値を有する複数のサンブル点を設足丁るステ ップ (a ) と、
前記一連の画像のうちの所定時刻における画像上の、 車両が存在していると 推測されるサンプル点を、 存在サンプル点として検出するステップ (b ) と、 前記所定時刻の画像上の、 移動中の車両が存在しているご推測されるサンブ ル点を、 移動サンプル点として検出するステップ (c ) と、
所定の割合以上の移動サンプル点を含む互いに隣接する複数のサンブル^か ら構成されるブロックを、 移動ブロックとして検出するステップ (d ) と、 前記移動プロックから外れた存在サンプル点を、 渋滞サンプル点として検出 するステップ (e ) と、
所定の割合以上の渋滞サンプル点を含む互レ、に隣接する複数のサン 7 点か ら構成されるブロックを、 渋滞ブロックとして検出するステップ (ί ) と、 前記渋滞プロックに基づいて、 前記所定時刻における前記道路上の交通渋滞 の状況を計測するステップ (g ) と、 を備えた交通渋滞計測方法。
2 . 請求の範囲第 1項記載の交通渋滞計測方法において、 前記ステップ (a ) で設定されたサンプル点のうちの道路の横断方向に並ぶサンブル点の間隔が等 間隔であり、 前記ステップ (a ) で設定されたサンプル点のうちの道路の延在 方向に並ぶサンプル点の間隔が、 前記ビデオカメラの前記道路上の位置から各 サンプル点に対応する前記道路上の実際の各位置までの距離が長いほど小さく なる交通渋滞計測方法。
3 . 請求の範囲第 1項記載の交通渋滞計測方法において、 前記ステップ (b ) 、
前記ビデ才力メラにより撮影されて、 車両が道路上に存在していないと推測 されかつ、 前記サンプル点に対応する画素のみからなる基準輝度画像を作成す るステップ (b 1 ) と、
前記所定時刻の画像に含まれた画素のうち前記サンプル点に対応する画素の みからなるサンプル点画像を作成するステップ (b 2 ) と、 '
前記サンプル点画像と前記基準輝度画像とに基づいて、 前記存在サンプル点 を検出するステップ (b 3 ) と、 を有する交通渋滞計測方法。
4 . 請求の範囲第 3項記載の交通渋滞計測方法において、
前記ステップ (b ) から (g ) が一定の時間間隔で繰り返えされ、
前記ステップ (b ) 、
前記所定時刻を t 1 とし、 時刻 t 1から前記一定の時間間隔前の時刻 ΐ 0に おけるサンプル点画像の存在サンプル点を検出するのに使われた基準輝度面像 と、 時刻 t 1におけるサンプル点画像とに基づいて、 時刻 t 1におけるサンプ ル点画像の存在サンプル点を検出するのに使われる基準輝度画像を作成するス テップを有する交通渋滞計測方法。
5 . 請求の範囲第 1項記載の交通渋滞計測方法において、
前記ステップ (b ) 力
前記ビデオカメラにより撮影されて、 車両が道路上に存在していないと推測さ れる基準輝度画像を作成するステップ (b 1 ) と、
前記所定時刻の画像と前記基準輝度画像との輝度の差を表す差分画像を算出 するステップ (b 2 ) と、
前記差分画像を空間微分するステップ (b 3 ) と、
空間微分された差分画像における所定の閾値以上の微分値を有するアンプル 点を存在サンプル点として検出するステップ (b 4 ) と、
前記閾値を、 前記ビデオカメラの前記道路上の位置から各サンプル点に対応 する前記道路上の実際の各位置までの距離に応じて変化させるステップ (b 5) と、 を有する交通渋滞計測方法。
6. 請求の範囲第 1項記載の交通渋滞計測方法において、
前記ステップ (c) が、
tを前記所定時刻として、 時刻 tの画像に含まれた画素のうちのサンプル点 に対応する画素のみからなるサンプル点画像を作成するステップ (c l ) と、 αを正の時間間隔として、 時刻 t一 αの圃像に含まれた画素のうちのサンブ ル点に対応する画素のみからなるサンプル点画像を作成するステツァ ; c 2: と、
を正の時間間隔として、 時刻 t + の画像に含まれた画素のうちのサンプ ル点に対応する画素のみからなるサンプル点画像を作成するステップ (c 3) と、
前記ステップ (c 1 ) 、 (c 2) および (c 3) で作成された 3つのサンプ ル点画像に基づいて、 移動サンプル点を検出するステップ (c 4) と、 を有す る交通渋滞計測方法。
7. 請求の範囲第 1項記載の交通渋滞計測方法において、
前記ステップ (c) 力
tを前記所定時刻、 aを正の時間間隔として、 時刻 tの画像と時刻 t一ひの 画像との輝度の差を表す第 1の差分画像を算出するステップ (c 1 ) と、 前記第 1の差分画像に所定の第 1の閾値で二値化処理を施して、
「0」 および 「1」 のレベルを有する画素のみからなる第 1の特徴抽岀画像を 作成するステップ (c 2) と、
]3を正の時間間隔として、 時刻 tの画像と時刻 t + 0の画像との輝度の差を 表す第 2の差分画像を算出するステップ (c 3) と、
前記第 1の差分画像に所定の第 2の閾値で二値化処理を施して、
「0」 および 「1」 のレベルを有する画素のみからなる第 2の特徴抽出画像を 作成するステップ (c 4) と、
前記第 1の特徴抽出画像と前記第 2の特徴抽出画像との論理積をとつて積画 像を作成するステップ (c 5) と、
前記積画像における 「1」 のレベルを有する画素に対応するサンプル点を、 移動サンプル点として検出するステップ (c 6) と、
前記第 1および第 2の閾値を、 前記ビデオカメラの前記道路上の位置^ら各 サンプル点に対応する前記道路上の実際の各位置までの距離に応じて変化させ るステップ (c 7) と、 を有する交通渋滞計測方法。
8. 請求の範囲第 1項記載の交通渋滞計測方法において、
前記ステップ (d) が、
前記所定時刻の画像のそれぞれを部分的に構成する複数の候補プロックのそ れぞれに含まれるサンプル点の全個数に対する移動サンプル点の個数の割合を 算出するステップ (d 1) と、
前記ステップ (d l ) で算出された割合が所定値より大きい候補ブコック を、 前記移動ブロックとして検出するステップ (d 2) と、 を有する交通渋滞 計測方法。
9. 請求の範囲第 8項記載の交通渋滞計測方法において、
前記ステップ (d) 1
前記候補プロックの大きさを、 前記ビデオ力メラの前記道路上の位置から各 候補プロックに対応する前記道路上の実際の各位置までの距離に応じて変化さ せるステップ (d 3) を有する交通渋滞計測方法 c
1 0. 請求の範囲第 8項記載の交通渋滞計測方法において、
前記ステップ (d) ί
前記各候補ブロックに用いられる前記所定値を、 前記ビデオ力メラの前記道 路上の位置から各候補プロックに対応する前記道路上の実際の各位置までの距 離に応じて変化させるステップ (d 3) を有する交通渋滞計測方法:
1 1. 請求の範囲第 8項記載の交通渋滞計測方法において、
前記ステップ (d) 力
前記移動ブロックから外れた移動サンプル点を、 ノイズとみなして除去する ステップ (d 3) を有する交通渋滞計測方法。
1 2. 請求の範囲第 1項記載の交通渋滞計測方法において、
前記ステップ (ί) 、
前記所定時刻の画像のそれぞれを部分的に構成する複数の候補ブコックのそ れぞれに含まれるサンプル点の全個数に対する渋滞サンプル点の個数の割合を 算出するステップ (f 1) と、
前記ステップ ( f 1 ) で算出された割合が所定値より大きい候補ブニック を、 前記渋滞ブロックとして検出するステップ ( f 2) と、 を有する交通渋滞 計測方法。
1 3. 請求の範囲第 1 2項記載の交通渋滞計測方法において、
前記ステップ (f ) 、
前記候補プロックの大きさを、 前記ビデオカメラの前記道路上の位置 ら各 候補プロックに対応する前記道路上の実際の各位置までの距離に応じて変化さ せるステップ (f 3) を有する交通渋滞計測方法。
14. 請求の範囲第 1 2項記載の交通渋滞計測方法において、
前記ステップ (f ) 力
前記各候補ブロックに用いられる前記所定値を、 前記ビデオカメラの前記道 路上の位置から各候補ブロックに対応する前記道路上の実際の各位置 での距 離に応じて変化させるステップ (f 3) を有する交通渋滞計測方法
1 5 . 請求の範囲第 1 2項記載の交通渋滞計測方法において、 前記ステップ ( f ) が、
前記渋滞プロックから外れた渋滞サンプル点を、 ノイズとみなして除云する ( f 3 ) を有する交通渋滞計測方法。
1 6 . 請求の範囲第 1項記載の交通渋滞計測方法において、
前記ステップ (g ) 力
前記渋滞プロックの存在する前記所定時刻の画像上の範囲を渋滞範囲である と判定するステツプを有する交通渋滞計測方法。
1 7 . ビデオカメラにより撮影された、 道路と該道路上を行き来する草両とを 描写した一連の複数の画像からなる動画像に基づいて、 交通渋滞の状況を計測 する交通渋滞計測装置であつて、
前記動画像上に、 それぞれ輝度値を有する複数のサンプル を設定する第 1 の手段と、
前記一連の画像のうちの所定時刻における面像上の、 車両が存在していると推 測されるサンプル点を、 存在サンプル点として検出する第 2の手段と、
前記所定時刻の画像上の、 移動中の車両が存在していると推測されるサンプ ル点を、 移動サンプル点として検出する第 3の手段と、
所定の割合以上の移動サンプル点を含む互いに隣接する複数のサンブル点か ら構成されるプロックを、 移動プロックとして検出する第 4の手段と、
前記移動プロックから外れた存在サンプル点を、 渋滞サンプル点として検岀 する第 5の手段と、
所定の割合以上の渋滞サンプル点を含む互いに隣接する複数のサンプル点か ら構成されるプロックを、 渋滞プロックとして検出する第 6の手段と、
前記渋滞プロックに基づいて、 前記所定時刻における前記道路上の交通渋滞 の状況を計測する第 7の手段と、 を備えた交通渋滞計測装置。
1 8 . 請求の範囲第 1 7項記載の交通渋滞計測装置において、 前記第 2の手段が、
前記ビデオカメラにより撮影されて、 車両が道路上に存在していないご推測さ れる基準輝度画像を作成する手段と、
前記所定時刻の画像と前記基準輝度画像との輝度の差を表す差分面像を算出 する手段と、
前記差分画像を空問微分する手段と、
空間微分された差分画像における所定の閾値以上の微分値を有する了ンプ/レ 点を存在サンプル点として検出する手段と、 を有し、
前記第 3の手段が、
tを前記所定時刻、 αを正の時間間隔として、 時刻 tの画像と時刻 — αの 画像との輝度の差を表す第 1の差分画像を算出する手段と、
前記第 1の差分画像に所定の第 1の閾値で二値化処理を施して、
「0」 および 「1」 のレベルを有する画素のみからなる第 1の特徴抽出画像 を作成する手段と、
βを正の時間間隔として、 時刻 tの画像と時刻 t + j3の画像との輝度の差を 表す第 2の差分画像を算出する手段と、
前記第 1の差分画像に所定の第 2の閾値で二値化処理を施して、 「0」 およ び 「1」 のレベルを有する画素のみからなる第 2の特徴抽出画像を作成する手 段と、
前記第 1の特徴抽出画像と前記第 2の特徴抽出画像との論理積をごつて積画 像を作成する手段と、
前記積画像における 「1」 のレベルを有する画素に対応するサンブル点を、 移動サンプル点として検出する手段と、 を有し、
前記第 4の手段が、
前記所定時刻の画像のそれぞれを部分的に構成する複数の候補ブコックのそ れぞれに含まれるサンプル点の全個数に対する移動サンプル点の個数の割合を 算出する手段と、 前記移動サンプル点の割合が所定値より大きい候補プロックを、 前記移動ブ ロックとして検出する手段と、 を有し、
前記第 6の手段が、
前記所定時刻の画像のそれぞれを部分的に構成する複数の候補プロックのそ れぞれに含まれるサンプル点の全個数に対する渋滞サンプル点の個数の割合を 算出する手段と、
前記渋滞サンプル点の割合が所定値より大きい候補プロックを、 前記渋滞ブ ロックとして検出する手段と、 を有し、
前記第 7の手段が、
前記渋滞ブロックの存在する前記動画像上の範囲を渋滞範囲であると判定する ことを特徴とする交通渋滞計測装置。
1 9 . ビデオカメラにより撮影された、 道路と該道路上を行き来する車両とを 描写した一連の複数の画像からなる動画像に基づいて、 交通渋滞の状況を計測 する交通渋滞計測方法であって、
輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上 に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンブルラインを 前記動画像上に設定するステップ (a ) と、
前記ビデオカメラにより撮影されて、 車両が道路上に存在していないと推測 される基準輝度画像を作成するステップ (b ) と、
前記一連の画像のうちの所定時刻の画像と前記基準輝度画像との輝度の差を 表す差分画像を算出して、 前記所定時刻の画像と前記基準輝度画像との位置的 に対応するサンプル点の輝度の差を表す辉度差分値を算出するステップ ( c ) と、
前記差分画像上の各サンプル点の輝度差分値に基づいて、 前記基準輝度画像 上のサンプルラインとの輝度の差が所定値より大きな前記所定時刻の画像上の サンプルラインを、 差分サンプルラインとして検出するステップ (d ) と、 前記差分画像を空間微分して、 差分画像上の各サンプル点の微分値を算出す るステップ (e ) と、
空間微分された前記差分画像上の各サンプル点の微分値に基づいて、 前記所 定時刻の画像上のサンプルラインのうちの、 隣接するサンブルラノン;:の輝度 の差が所定値より大きなサンプルラインを、 ニッジラインとして検 ttするステ ップ ( f ) と、
前記ステップ (d ) で検出された差分サンプルラインと前記ステップ ( ί ) で検出されたニッジラインとの両方を、 車両が存在していると推測される存在 サンブルラインとして検出するステップ (g ) と、
前記存在サンプルラインに基づいて、 交通渋滞の状況を計測 Tるステップ ( h ) と、 を備えた交通渋滞計測方法。
2 0 . 請求の範囲第 1 9項記載の交通渋滞計測方法において、
前記ステップ (a ) で設定されたサンプルライン同士の間隔が、 前記ビデオ カメラの前記道路上の位置から各サンプルラインに対応する道路上の実際の各 位置までの距離が長くなるほど小さくなる交通渋滞計測万法:
2 1 . 請求の範囲第 1 9項記載の交通渋滞計測方法において、
前記ステップ (b ) から (h ) が一定の時間間隔で繰り返えされ、
前記ステップ (b ) I
前記所定時刻を t 1 とし、 時刻 t 1から前記一定の時間間隔前の時刻 ΐ 0に おけるサンプル点画像の存在サンプル点を検出するのに使われた基準輝度画像 と、 時刻で 1におけるサンブル点画像とに基づいて、 時刻 t 1にお;了るすンブ ル点画像の存在サンプル点を検出するのに使われる基準輝度画像を作成するス テツブを有する交通渋滞計測方法。
2 2 . 請求の範囲第 1 9項記載の交通渋滞計測方法において、
前記ステップ (d ) 力
正の所定値より大きな正の輝度差分値を有するサンプル. を検出 Tるステツ プ (d 1) と、
負の所定値より小さな負の輝度差分値を有するサンプル点を検出するステツ プ 2) と、
前記ステップ (d 1) および (d 2) で検出されたサンプル点を含む割合が 所定値よりも大きなサンプルラインを、 差分サンプルラインとして検出するス テツプ (d 3) と、 有する交通渋滞計測方法。
23. 請求の範囲第 22項記載の交通渋滞計測方法において、
前記ステップ (d) が、
各サンプル点の検出に用いられる前記正の所定値および負の所定値を、 前記 ビデオ力メラの前記道路上の位置から各サンプル点に対応する道路上の実際の 位置までの距離に応じて変化させるステップ (d 4) を有する交通渋滞計測方 法 c
24. 請求の範囲第 1 9項記載の交通渋滞計測方法において、
前記ステップ (d) 力
各サンプルラインに含まれるサンプル点の輝度差分値の平均を表す平均輝度 差分値を算出するステップ (d 1 ) と、
正の所定値より大きな正の平均輝度差分値を有するサンプルラインを、 差分 サンプルラインとして検出するステップ (d 2) と、
負の所定値より小さな負の平均輝度差分値を有するサンプルラインを、 差分 サンプルラインとして検出するステップ (d 3) と、 を有する交通渋滞計測方 法。
25. 請求の範囲第 24項記載の交通渋滞計測方法において、
前記ステップ (d) 力 S、
各サンプルラインの検出に用いられる前記正の所定値および負の所定値を、 前記ビデオカメラの前記道路上の位置から各サンプルラインに対応する道路上 の実際の位置までの距離に応じて変化させるステップ (d 4 ) こ、 を有する交 通渋滞計測方法。
2 6 . 請求の範囲第 1 9項記載の交通渋滞計測方法において、
前記存在サンプルラインのなかに、 少なくとも一^ 3のサンプルラインを挟む 隣接する二つの存在サンプルラインがありかつ、 前記二つの存在サンブルライ ンに対応する前記道路上の実際の二つの位置間の距離が所定値より大きいと き、 前記隣接する二つの存在サンプルラインの間に位置するサンプルライン を、 存在サンプルラインとして、 前記ステップ (g ) で検出された存在サンプ ルラインに加えるステップ ( i ) を備えた交通渋滞計測方法 c
2 7 . 請求の範囲第 1 9項記載の交通渋滞計測方法:こおいて、
前記存在サンブルラインのなかに、 連続する複数の存在サンアルラノンがぁ りかつ、 前記連続する存在サンブルラインの両端の存在サンプルライン:こ対応 する前記道路上の実際の二つの位置問の距離が所定値より小さいとき、 前記ス テツプ (g ) 検出された存在サンプルラインの中から、 前記連続した存在サン プルラインを除去するステップ ( i ) を備えた交通渋滞計測方法。
2 8 . 請求の範囲第 1 9項記載の交通渋滞計測方法において、
前記存在サンプルラインのなかに、 差分サンプルラインのみからなる連続す る複数の存在サンプルラインがぁりかつ、 前記連続する存在サンプルラインの 両端の存在サンプルラインに対応する前記道路上の実際の二つの位置間の距離 が所定値より大きくかつ、 前記所定時刻における画像上の前記連続する存在サ ンプルラインのサンプル点の輝度値の平均値が所定値より小さいとき、 前記ス テツプ (g ) 検出された存在サンブルラインの中から、 前記連続した存在サン プルラインを除去するステップ ( i ) を備えた交通渋滞計測方法。
2 9 . 請求の範囲第 1 9項記載の交通渋滞の計測方法において、 前記所定時刻の画像上の、 移動中の車両が存在していると推測されるサンプ ルラインを、 移動サンプルラインとして検出するステップ ( i ) と、
前記二つの存在サンプルラインの間に、 少なく とも一つのサンプルラインが ありかつ、 前記二つの存在サンブルラインに対応する道路上の実際の二つの位 置間の距離が所定値より小さくかつ、 前記二つの存在サンブルラインの に少 なく とも一つの移動サンプルラインがあるとき、 前記二つの存在サンプルライ ンの間の移動サンプルラインを含むサンプルラインを、 存在サンプルラインと して、 前記ステップ (g ) 検出された存在サンプルラインに加えるステップ ( j ) と、 を備えた交通渋滞計測方法。
3 0 . 請求の範囲第 2 9記載の交通渋滞計測方法において、
前記ステップ ( j ) での前記二つのサンプルラインの各組の検出;こ^ ら る前記所定値を、 前記ビデオカメラの前記道路上の位置からサンブルラノンの 各組に対応する道路上の実際の各位置までの各距離に応じて変化させるステツ プ (k ) を備えた交通渋滞計測方法。
3 1 . ビデオカメラにより撮影された、 道路と該道路上を行き来する車両とを 描写した一連の複数の画像からなる動画像に基づいて、 交通渋滞の^ を計 ¾ する交通渋滞計測方法であって、
輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動面像上 に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを 設定するステップ (a ) と、
前記一連の画像のうちの所定時刻における画像上の各サンプル点の輝度に基 づいて、 車両が存在していると推測されるサンプルラインを、 存在 ンプルラ インとして検出するステップ (b ) と、
前記所定時刻の画像に描写された、 車両の影を含む前記道路 の影の領域を 推定するステップ (c ) と、
前記影の領域に基づいて、 前記存在サンブルラインを補正するステップ ( d ) と、
該ステップ (d ) で補正された存在サンプルラインに基づいて、 交通 ¾滞の 状況を計測するステップ (e ) と、 を備えたことを特徴とする交通渋滞計測方 法。
3 2 . ビデオカメラにより撮影された、 道路と該道路上を行き来する直^とを 描写した一連の複数の画像からなる動画像に基づいて、 交通渋滞の状 を計測 する交通渋滞計測方法であつて、
輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上 に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラノンを 設定するステップ (a ) と、
前記所定時刻の画像上の、 移動中の車両が存在していると推測されるサンプ ルラインを、 移動サンプルラインとして検出するステップ (b ) と、
前記移動サンプルラインに基づいて、 交通渋滞の状況を計測するステツブ ( c ) とを備えたことを特徴とする交通渋滞計測方法。
3 3 . 請求の範囲第 3 2項記載の交通渋滞計測方法において、
前記ステップ (b ) お、
tを前記所定時刻、 ひを正の時問間隔として、 時刻 tの画像と時刻: 一 の 画像との輝度の差を表す第 1の差分画像を算出するステップ (b 1 ) ご、 前記第 1の差分画像に所定の第 1の閎値で二値化処理を施して、
Γ θ」 および 「1」 のレベルを有する画素のみからなる第 1の特徴抽出画像を 作成するステップ (b 2 ) と、
βを正の時間間隔として、 時刻 ΐの画像と時刻 t -r βの画像との輝度の差を 表す第 2の差分画像を算出するステップ (b 3 ) と、
前記第 2の差分画像に所定の第 2の閾値で二値化処理を施して、
Γ θ」 および 「1」 のレベルを有する画素のみからなる第 2の特徴抽岀画像を 作成するステップ (b 4 ) と、 前記第 1の特徴抽出画像と前記第 2の特徴抽出画像との論理積を表す積画像 を算出するステップ (b 5 ) と、
前記積画像における 「1」 のレベルを有する画素に対応するサンプル点を、 移動サンプル点として検出するステップ (b 6 ) と、
前記サンプルラインのうち、 所定の割合以上の移動サンプル点を含むサンプ ノレラインを、 移動サンプルラインとして検出するステップ (b 7 ) と、 を備え た交通渋滞計測方法。
3 4 . 請求の範囲第 3 3項記載の交通渋滞計測方法において、
前記ステップ (b 2 ) および (b 4 ) において前記第 1お び第 2の差分画 像の各画素の二値化に用いられる前記第 1および第 2の閾値を、 前記ビデオ力 メラの前記道路上の位置から各画素に対応する道路上の実際の位置までの距離 に応じて変化させるステップ (b 8 ) と、
前記ステップ (b 7 ) で用いられる前記所定の割合を、 前記ビデオ刀メラの 前記道路上の位置から各サンプルラインに対応する道路上の実際の位置までの 距離に応じて変化させるステップ (b 9 ) と、 を有する交通渋滞計測万法:
3 5 . ビデオカメラにより撮影された、 道路と該道路上を行き来丁る車両とを 描写した一連の複数の画像からなる動画像に基づいて、 交通渋滞の状況を計測 する交通渋滞計測方法であつて、
輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上 に並ぶ複数のサンプル点によりそれぞれが構成される複数のサン ルラノ ンを 設定するステップ (a ) と、
前記一連の画像のうちの所定時刻における画像上の各サンプル点の輝度に基 づいて車両が存在していると推測されるサンプルラインを、 存在サンブルライ ンとして検出するステップ (b ) と、
前記存在サンプルラインに基づいて、 前記所定時刻の前記道路上に存在する 車両の密度を算出するステップ (c ) と、 前記所定時刻の画像に描写された全車両に対して、 所定サノズ 0丁、きな草 両が含まれている割合を推定するステップ (d ) と、
該ステップ (d ) で推定された割合に基づいて、 前記車両の密度を^ する ステップ (e ) と、
前記ステップ (e ) で補正された車両の密度に基づいて、 交通渋滞の忒況を 計測するステップ (ί ) と、 を備えた交通渋滞計測方法:
3 6 . 請求の範囲第 3 5項記載の交通渋滞計測方法において、
前記所定時刻における前記道路上の車両の車間 ¾離を推定丁るス ッブ ( g ) を備え、
前記ステップ (e ) では、 前記ステップ (c ) で算出された車両の密度が、 前記ステップ (d ) で推定された割合に加えて、 前記ステップ g ) で算&さ れた車間距離に基づいて補正されるようにした交通渋滞計測方法:
3 7 . ビデオカメラにより撮影された、 道路と該道路上を行き采丁る草 ごを 描写した一連の複数の画像からなる動画像に基づいて、 交通渋獠の^ を計 する交通渋滞計測方法であって、
輝度値をそれぞれ有するごとも 前記道路の横断方向に一列:こ前記 ¾っ画像工 に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンブ ラノンを 設定するステップ (a ) と、
前記一連の画像のうちの所定時刻 tにおける画像上の各サンプルラノ ンのサ ンブル点の輝度値の平均を表す平均輝度値を算出するステツァ (D ., ご、
yを正の時間間隔として、 前記一連の画像のうちの時刻:― ,こお:: -る画像 上の各サンプルラインのケンブル点の輝度値の平均を表す 均輝, 値を算 ¾す るステップ (c ) と、
前記時刻 tの画像上の、 移動甲の車両が存在しているご推 さ るーンブル ラインを、 移動サンプルラインとして検出するステツァ ご、
前記時刻 t + yにおける画像上のサンブルラインの中から, 前記時 ¾ Iにお ける画像上の各移動サンプルラインの移動先と推測されるサンプルラノンを、 移動先サンプルラインとして検出するステップ (e) ご.,
前記移動サンプルラインと前記移動先移動サンプルラインごに対^丁る道路 上の実際の二つの位置間の距離と前記時間 /とに基づいて、 各移動サンブルラ インの速度を算出するステップ (ί) と、
前記ステップ ( f 〉 で算出された各移動サンプルラインの速度に基づいて、 前記道路の交通渋滞の状況を計測するステップ (g) と、 を備えた交通渋滞計 測方法-
3 8. 請求の範囲第 3 7項記载の交通渋滞計測方法において、
前記ステップ (e) 力
前記ビデオカメラの前記道路上の位置からの各移動サンプルラインに対応す る前記道路上の実際の位匱までの距離および前記時間 γに基づいて、 時刻 t yの画像上に時刻 tの画像上の各移動サンプルラインの各移動先範囲を設定す るステップ (e l) と、
時刻 t十 yにおける画像上の前記各移動先範囲内の各サンプルライン^均輝 度値と、 時刻 tにおける画像上の各移動サンプルラノンの平均輝度値ごの差の 絶対値の総和を算出するステップ (e 2) と、
該ステップ (e 2) で算出された総和のなかの最小の総和が、 所定値よりも 小さいか否かを判別するステップ (e 3) と、
該ステップ ( e 3 ) で前記最小の総和が前記所定値よりも小さいと ^別され たとき、 前記最小の総和に対応する時刻 t + yの画像上の各サンプルライン を、 各移動先サンプルラインとして検出するステップ (e 4) と、 を有する交 通渋滞計測方法。
3 9. 請求の範囲第 3 7項記載の交通渋滞計測方法において、
前記ステップ (b) 力;、
時刻 tにおける画像上の各移動サンプルラインの前記道路の上流側および下 流側に隣接する各サンプルラインのサンプル点の輝度値の平均輝度値を算出す るステップを有し、
前記ステップ (e) 力 S、
前記ビデオカメラの前記道路上の位置からの各移動サンプルラインに对応す る前記道路上の実際の位置までの距離および前記時間 γに基づいて、 時亥 ij t 一 yの画像上に時刻 tの画像上の各移動サンプルラインの各第 1の移動先範囲を 設定するステップ (e 1.) と、
前記各第 1の移動先範囲を、 各第 1の移動先範囲の前記道路の上流側にーサ ンプルライン分ずらして構成される各第 2の移動先範囲を設定するステップ (e 2) と、
前記各第 1の移動先範囲を、 各第 1の移動先範囲の前記道路の下流側に一 · ンプルライン分ずらして構成される各第 3の移動先範囲を設定するステップ (e 3) と、
時刻 tにおける画像上の各移動サンプルラインの平均輝度値と、 時刻 t十 における画像上の各第 1の移動先範囲内の各サンプルラインの平均輝度値との 差の絶対値を算出ステップ (e 4) と、
時刻 tにおける画像上の各移動サンブルラインの前記道路の上流側に隣接す るサンプルラインの平均輝度値と、 時刻 t十 γにおける画像上の各第 2の移動 先範囲内の各サンプルラインの平均輝度値との差の絶対値を算出ステップ ( e 5) と、
時刻 tにおける画像上の各移動サンプルラインの前記道路の下流側に隣接す るサンプルラインの平均輝度値と、 時刻 t γにおける画像上の各第 3の移動 先範囲内の各サンプルラインの平均輝度値との差の絶対値を算出ステップ 、ら 6) と、
時刻 tにおける画像上の各移動サンプルラインに対応する前記ステップ (e
4) 、 (e 5) および (e 6) で算出された差の絶対値を、 各移動サンプルラ イン毎に総和するステップ (e 7) と、
該ステップ (e 7) で算出された総和のなかの時刻 tにおける画像上の各移 動サンプルラノン毎の最小の総和が、 所定値よりも小さい 否かを判別丁るス テツブ (e 8 ) と、
該ステップ ( e 8 ) で前記最小の総和が前記所定値よりも小さいと ¾ され たとき、 前記各最小の総和に対応する時刻 t + yの画像上の各サンブルライン を、 時刻 tにおける画像上の各移動サンプルラインに対応する各移動先サンプ ルラインとして検出するステップ (e 9) と、 を有する交通渋滞計測方法:
4 0. 請求の範囲第 3 7項記載の交通渋滞計測方法において、
時刻 zにおける画像に描写された前記道路を複数のメッシ二に分割"^るス亍 ップ (h) と、
前記ステップ (f ) 算出された前記移動サンプルラインの速度の平均を各メ ッシニ毎に算出し、 各平均速度を各メッシュの空問速度として検出するステツ プ ( i ) と、 を備えた交通渋滞計測方法。
4 1 . 請求の範囲第 4 0項記載の交通渋滞計測方法において、
所定値よりも小さい空間速度を、 ゼロに設定するステップ (j ) を備えた交 通渋滞計測方法。
4 2. ビデオカメラにより撮影された、 道路と該道路上を行き来する車両とを 描写した一連の複数の画像からなる動画像に基づいて、 交通渋滞の状況を計測 する交通渋滞計測方法であって、
前記ビデオ力メラにより撮影されて、 車両が存在していないご推測 5れる画 像を基準輝度画像として設 するステップ (a ) と、
所定時刻の画像と前記基準輝度画像とに基づいて、 前記所定時刻の 像上の 車両の存在を検出するステップ ( と、
該ステップ (b ) 後、 前記基準輝度画像を更新するステップ (c ) ご、 前記ステップ (b ) とステップ (c ) とを所定の時間間隔で繰り返 Tステ ッブ (d ) と、 を備え、 前記ステップ (c) では、 前記基準輝度画像が、 次式によって更新され、
Figure imgf000080_0001
ここに、 Xnは、 時刻 の画像の各画素の輝度値、 Bnは、 時刻 t の画像 上の車両の存在を検出するのに使われる基準輝度画像の各画素の輝度値、 Bn +1は、 時刻 tn+1の画像上の車両の存在を検出するのに使われる基準琿度画 像の各画素の輝度値を表し、 in+1— tnが前記所定の時間間隔に等しく、 η は可変係数であり、 ; Χη-Β η ' が大きレ、ほど小さくするともに、 草両の 渋滞度が高くなるほど小さくするようにした交通渋滞計測方法。
4 3. ビデオカメラにより撮影された、 道路と該道路上を行き来する車両とを 描写した一連の複数の画像からなる動画像に基づいて、 交通渋滞の状況を計測 する交通渋滞計測方法であって、
所定時刻の画像を複数個に区分するメッシュ毎に、 存在する車両の平均速度 を表す空間速度を算出するステップ (a) と、
前記空間速度に基づいて、 渋滞が発生しているメッシュを渋滞領域ごして検 出するステップ (b) と、
前記渋滞領域の末尾位置を検出するステップ ( c ) と、 を備えた交通渋滞計 測方法。
44. 請求の範囲 43項記載の交通渋滞計測方法において、
前記メッシュ毎に、 存在している移動甲の車両の密度を表す移動密度を算岀 するステップ (d) を備え、
前記ステップ (b) では、 前記空間速度に加え前記移動密度に基づ'、、て、 渋 滞が発生しているメッシュを渋滞領域として検出する交通渋滞計測方法:
4 5. 請求の範囲第 43項記載の交通渋滞計測方法において、
前記ステップ (c ) で検出された渋滞領域の末尾位置を、 前記ビデオカメラ の撮影領域内の道路に向かおうとしている車両の運転者に、 リアルタイムに通 知するステップ (d ) を備えた交通渋滞計測方法-
4 6 . ビデオカメラにより撮影された、 道路と該道路上を行き来する車両とを 描写した一連の複数の画像からなる動画像に基づいて、 交通渋滞の状^を計測 する交通渋滞計測装置であって、
輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上 に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンブルラインを 前記動画像上に設定する手段と、
前記ビデオ力メラにより撮影されて、 車両が道路上に存在してし、'な ·ご推測 される基準輝度画像を作成する手段と、
前記一連の画像のうちの所定時刻の画像と前記基準輝度画像との輝度の差を 表す差分画像を算出して、 前記所定時刻の画像と前記基準輝度画像との位置的 に対応するサンプル点の輝度の差を表す輝度差分値を算出する手段と、
前記差分画像上の各サンプル点の輝度差分値に基づいて、 前記基準輝度画像 上のサンプルラインとの輝度の差が所定値より大きな前記所定時刻の画像上の サンプルラインを、 差分サンプルラインとして検出する手段と、
前記差分画像を空間微分して、 差分画像上の各サンプル の微分値を算出丁 る手段と、
空間微分された前記差分画像上の各サンプル点の微分値に基づいて、 前記所 定時刻の画像上のサンプルラインのうちの、 隣接するサンプルラインごの輝度 の差が所定値より大きなサンプルラインを、 エッジラインとして検出する手段 と、
前記差分サンプルラインと前記ェッジラインとの両方を、 車両が存在^て、、 ると推測される存在サンプルラインとして検出する手段と、
前記存在サンプルラインに基づいて、 交通渋滞の状況を計測する手段ご、 を 備えた交通渋滞計測装置。
4 7 . ビデオカメラにより撮影された、 道路と該道路上を行き来する車両とを 描写した一連の複数の画像からなる動画像に基づいて、 交通渋滞の状況を計測 する交通渋滞計測装置であって、
輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像ェ に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラノンを 設定する手段と、
前記所定時刻の画像上の、 移動中の車両が存在していると推測される 7ンプ ルラインを、 移動サンプルラインとして検出する手段と、
前記移動サンプルラインに基づいて、 交通渋滞の状況を計測する手段と、 を 備えたことを特徴とする交通渋滞計測装置。
4 8 . ビデオカメラにより撮影された、 道路と該道路上を行き来する車両とを 描写した一連の複数の画像からなる動画像に基づいて、 交通渋滞の状- を計測 する交通渋滞計測装置であつて、
輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上 に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンブ ラノ ンを 設定する手段と、
前記一連の画像のうちの所定時刻における画像上の各サンブル^の輝度に基 づいて車両が存在していると推測されるサンプルラインを、 存在アンアルラノ ンとして検出する手段と、
前記存在サンプルラインに基づいて、 前記所定時刻の前記道路上に存在する 車両の密度を算出する手段と、
前記所定時刻の画像に描写された全車両に対して、 所定サイズより大きな車 両が含まれている割合を推定する手段と、
前記割合に基づいて、 前記車両の密度を補正する手段と、 を備えた交通渋滞 計測装匱。
4 9 . ビデオカメラにより撮影された、 道路と該道路上を行き采する直両ごを 描写した一連の複数の画像からなる動画像に基づいて、 交通渋滞の状 ¾を計 する交通渋滞計測装置であって、
輝度値をそれぞれ有するとともに前記道路の横断方向に一列に前記動画像上 に並ぶ複数のサンプル点によりそれぞれが構成される複数のサンプルラインを 設定する手段と、
前記一連の画像のうちの所定時刻 tにおける画像上の各サンブルラインのサ ンプル点の輝度値の平均を表す平均輝度値を算出する手段と、
yを正の時間間隔として、 前記一連の面像のうちの時刻 t十 Ίにおける画像 上の各サンプルラインのサンプル点の輝度値の平均を表す平均輝度値を算出す る手段と、
前記時刻 tの画像上の、 移動甲の車両が存在していると推 さ る ンプル ラインを、 移動サンプルラインとして検出する手段と、
前記時刻 t + yにおける画像上のサンプルラインの中から、 前記時刻 zにお ける画像上の各移動サンプルラインの移動先と推測されるサンプルラインを、 移動先サンプルラインとして検出する手段と、
前記移動サンプルラインと前記移動先移動サンプルラインとに対応 Tる道路 上の実際の二つの位置間の距離と前記時間 γとに基づいて、 各移動 ンプルラ インの速度を算出する手段と、
算出された各移動サンプルラインの速度に基づいて、 前記道路の交通渋滞の 状況を計測する手段と、 を備えた交通渋滞計測装置。
5 0 . カメラにより撮影され、 対象物と背景とを一緒に描写した画像を処理す る画像処理方法において、
前記背景のみを描写する基準輝度画像を作成するステップと、
前記画像と前記基準輝度画像との輝度の差を表す差分画像を算出するステッ プと、
前記差分画像に含まれた各画素の輝度値が所定値より大きいか否かを判別する ステップと、
前記カメラの位置から各画素に対応する実際の各位置までの距離に じて、 前記所定 を変化させるステップと、 を備えた画像処理方法:
5 1 . ビデオ力メラにより撮影された一連の連続した画像のうちの時刻 zにお ける画像と、 αを正の時間間隔として、 時刻 t一 αにおける画像との輝度の差 を表す第 1の差分画像を算出するステップと、
前記第 1の差分画像に所定の第 1の閾値で二値化処理を施して、 .「0— およ び 「1」 のレベルを有する画素のみからなる第 1の特徴抽出画像を作成するス テツプと、
前記一連の連続した画像のうちの時刻 tにおける画像と、 βを正の埒間間隔 として、 時刻 t + における画像との輝度の差を表す第 2の差分画像を算 す るステップと、
前記第 2の差分画像に所定の第 2の閾値で二値化処理を施して、 「0」 およ び 「1」 のレベルを有する画素のみからなる第 2の特徴抽出画像を作成するス テツブと、
前記第 1の特徴抽出画像と前記第 2の特徴抽出画像との論理積をごつて積画 像を作成するステップと、
前記ビデオカメラの位置からの、 前記時刻 tにおける画像に含まれる各画素 に対応する実際の各位置までの各距離に応じて、 前記 αおよび /3を変化させる ステップと、 を備えた画像処理方法。
5 2 . カメラにより撮影された画像に含まれる画素の輝度値に基づ、、て、 記 画素を第 1の画素と第 2の画素の何れ力、-:こ分別するステップと、
前記画像のそれぞれを部分的に構成する複数の候補ブ ックのそ ぞ に含 まれる全画素に対する第 1の画素の個数の割合を算出するステップと、
前記第 1の画素の割合が所定値より大きい候補プロックを検出するステップ と、
前記力メラの位置からの、 前記各候補ブロックに対応する実際の各位置まで の各距離に応じて、 前記所定値を変化させるステップと、 を備えた画像処理方 法。
5 3 . カメラにより撮影された画像に含まれる画素の輝度値に基づいて、 前記 画素を第 1の画素と第 2の画素の何れかに分別するステップと、
前記画像のそれぞれを部分的に構成する複数の候補プロックのそれぞれに含 まれる全画素に対する第 1の画素の個数の割合を算出するステップと、
前記第 1の画素の割合が所定値より大きい候補プロックを検出するステップ と、
前記力メラの位置からの、 前記各候補プロックに対応する実際の各位置まで の各距離に応じて、 各候補ブロックの大きさを変化させるステップと、 を備え た画像処理方法。
5 4 . カメラにより撮影され、 対象物と背景とを一緒に描写した画像を処理す る画像処理装置において、
前記背景のみを描写する基準輝度画像を作成する手段と、
前記画像と前記基準輝度画像との輝度の差を表す差分画像を算出する手段 と、
前記差分画像に含まれた各画素の輝度値が所定値より大きいか否かを^别する 手段と、
前記カメラの位置から各画素に対応する実際の各位置までの距離に応じて、 前記所定値を変化させる手段と、 を備えた画像処理装置-
5 5 . ビデオカメラにより撮影された一連の連続した画像のうちの時刻:にお ける画像と、 αを正の時間間隔として、 時刻 t— 0:における画像ごの輝度の差 を表す第 1の差分画像を算出する手段と、
前記第 1の差分画像に所定の第 1の閾値で二値化処理を施して、 r C'」 およ び Γ ΐ」 のレベルを有する画素のみからなる第 1の特徴抽出画像を作成する手 段と、 前記一連の連続した画像のうちの時刻 tにおける画像と、 を正の時間間隔 として、 時刻 t + βにおける画像との輝度の差を表す第 2の差分画像を算出す る手段と、
前記第 2の差分画像に所 の第 2の闕値で二値化処理を施して、 「G _ およ び 「1」 のレベルを有する画素のみからなる第 2の特徴抽出画像を作成する手 段と、
前記第 1の特徴抽出画像と前記第 2の特徴抽出画像との論理積をとつて積画 像を作成する手段と、
前記ビデオカメラの位置からの、 前記時刻 tにおける画像に含まれる各画素 に対応する実際の各位置までの各距離に応じて、 前記 αおよび ;3を変化させる 手段と、 を備えた画像処理装置。
5 6 . カメラにより撮影された画像に含まれる画素の輝度値に基づいて、 前記 画素を第 1の画素と第 2の画素の何れかに分別する手段と、
前記画像のそれぞれを部分的に構成する複数の候補ブコックのそれぞれに含 まれる全画素に対する第 1の画素の個数の割合を算出する手段と、
前記第〗の画素の割合が所定値より大きい候補プロックを検出する手段と、 前記カメラの位置からの、 前記各候補プロックに対応する実際の各位置まで の各距離に応じて、 前記所定^:を変化させる手段と、 を備えた画像処理装置-
5 7 . カメラにより撮影された画像に含まれる画素の輝度値に基づいて、 前記 画素を第 1の画素と第 2の画素の何れかに分別する手段と、
前記画像のそれぞれを部分的に構成する複数の候補プロックのそれぞれに含 まれる全画素に対する第 1の画素の個数の割合を算出する手段と、
前記第 1の画素の割合が所定値より大きい候補プロックを検出する手段と、 前記カメラの位置からの、 前記各候補プロックに対応する実際の各位置まで の各距離に応じて、 各候補ブロックの大きさを変化させる手段と、 を備えた画 像処理装置。
PCT/JP1997/000020 1996-01-12 1997-01-09 Traffic congestion measuring method and apparatus and image processing method and apparatus WO1997025700A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP52507997A JP3834826B2 (ja) 1996-01-12 1997-01-09 交通渋滞計測方法および装置並びに画像処理方法および装置
KR1019980705336A KR100279333B1 (ko) 1996-01-12 1997-01-09 교통지체계측방법 및 장치 및 화상처리방법 및 장치
US09/466,215 US6188778B1 (en) 1997-01-09 1999-12-17 Traffic congestion measuring method and apparatus and image processing method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP8/4246 1996-01-12
JP424696 1996-01-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US09/112,989 Continuation US5999635A (en) 1996-01-12 1998-07-10 Traffic congestion measuring method and apparatus and image processing method and apparatus

Publications (1)

Publication Number Publication Date
WO1997025700A1 true WO1997025700A1 (en) 1997-07-17

Family

ID=11579193

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1997/000020 WO1997025700A1 (en) 1996-01-12 1997-01-09 Traffic congestion measuring method and apparatus and image processing method and apparatus

Country Status (5)

Country Link
US (2) US5999635A (ja)
JP (1) JP3834826B2 (ja)
KR (1) KR100279333B1 (ja)
TW (1) TW349211B (ja)
WO (1) WO1997025700A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100390936B1 (ko) * 2000-10-23 2003-07-16 주식회사 지이엔티 영상처리기반의 스필백 판단 시스템 및 방법
JP2006024148A (ja) * 2004-07-09 2006-01-26 Foundation For The Promotion Of Industrial Science 画像における移動物体追跡方法及び装置
CN116935665A (zh) * 2023-09-18 2023-10-24 徐州帝亨网络科技有限公司 用于货物运输的交通控制系统

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6133853A (en) * 1998-07-30 2000-10-17 American Calcar, Inc. Personal communication and positioning system
US6148261A (en) 1997-06-20 2000-11-14 American Calcar, Inc. Personal communication system to send and receive voice data positioning information
CA2347760A1 (en) * 1998-10-21 2000-04-27 American Calcar Inc. Positional camera and gps data interchange device
JP4028135B2 (ja) * 1999-05-27 2007-12-26 本田技研工業株式会社 物体検出装置
JP4391624B2 (ja) * 1999-06-16 2009-12-24 本田技研工業株式会社 物体認識装置
KR100749016B1 (ko) * 1999-10-19 2007-08-14 아메리칸 캘카어 인코포레이티드 사용자 선호도에 기초한 효과적인 내비게이션 기술
EP1224577A4 (en) 1999-10-27 2003-05-28 American Calcar Inc SYSTEM AND METHOD FOR ENABLING A USER TO NAVIGATE
EP1279305B1 (en) * 2000-04-11 2007-10-31 American Calcar, Inc. Gps publication application server
US7375728B2 (en) * 2001-10-01 2008-05-20 University Of Minnesota Virtual mirror
US6977630B1 (en) * 2000-07-18 2005-12-20 University Of Minnesota Mobility assist device
JP2004511839A (ja) 2000-07-28 2004-04-15 アメリカン カルカー インコーポレイティド 情報を有効に編成および通信するための技術
US7139409B2 (en) * 2000-09-06 2006-11-21 Siemens Corporate Research, Inc. Real-time crowd density estimation from video
US7552008B2 (en) * 2001-07-18 2009-06-23 Regents Of The University Of Minnesota Populating geospatial database for onboard intelligent vehicle applications
US7209051B2 (en) * 2002-03-05 2007-04-24 University Of Minnesota Intersection assistance system and method
KR100459476B1 (ko) * 2002-04-04 2004-12-03 엘지산전 주식회사 차량의 대기 길이 측정 장치 및 방법
JP4003623B2 (ja) * 2002-11-19 2007-11-07 住友電気工業株式会社 旋回可能な監視カメラを用いた画像処理システム
JP2004194129A (ja) * 2002-12-13 2004-07-08 Hitachi Ltd 映像情報取引方法および映像情報を添付した工業製品
US7747041B2 (en) * 2003-09-24 2010-06-29 Brigham Young University Automated estimation of average stopped delay at signalized intersections
US7920959B1 (en) 2005-05-01 2011-04-05 Christopher Reed Williams Method and apparatus for estimating the velocity vector of multiple vehicles on non-level and curved roads using a single camera
MX2007015265A (es) * 2005-07-11 2008-02-22 Tomtom Int Bv Metodo para determinar informacion de trafico, y un dispositivo dispuesto para realizar el metodo.
JP4248558B2 (ja) * 2006-03-24 2009-04-02 トヨタ自動車株式会社 道路区画線検出装置
JP4848893B2 (ja) * 2006-08-29 2011-12-28 株式会社デンソー 交差点情報提供システム及び運転支援システム
US9076332B2 (en) * 2006-10-19 2015-07-07 Makor Issues And Rights Ltd. Multi-objective optimization for real time traffic light control and navigation systems for urban saturated networks
JP4454681B2 (ja) * 2006-12-05 2010-04-21 富士通株式会社 交通状況表示方法、交通状況表示システム、車載装置及びコンピュータプログラム
US8103436B1 (en) 2007-11-26 2012-01-24 Rhythm Engineering, LLC External adaptive control systems and methods
TWI353778B (en) * 2007-12-21 2011-12-01 Ind Tech Res Inst Moving object detection apparatus and method
CN101261681B (zh) * 2008-03-31 2011-07-20 北京中星微电子有限公司 智能视频监控中的路面图像提取方法及装置
US8174406B2 (en) * 2008-07-02 2012-05-08 International Business Machines Corporation Detecting and sharing road traffic condition information
US9552726B2 (en) * 2009-08-24 2017-01-24 Here Global B.V. Providing driving condition alerts using road attribute data
DE102010031056A1 (de) * 2010-07-07 2012-01-12 Robert Bosch Gmbh Verfahren zum Kalibrieren eines Messsystems und eines Messplatzes zur Fahrzeugvermessung
US8386156B2 (en) * 2010-08-02 2013-02-26 Siemens Industry, Inc. System and method for lane-specific vehicle detection and control
TW201320025A (zh) * 2011-11-15 2013-05-16 Hon Hai Prec Ind Co Ltd 交通信號智慧控制裝置及方法
KR101486804B1 (ko) * 2013-03-15 2015-01-29 주식회사 엡스 루프없는 속도 측정 방법
JP5900416B2 (ja) * 2013-05-30 2016-04-06 沖電気工業株式会社 交通量推定装置、交通量推定方法およびプログラム
US9582999B2 (en) * 2013-10-31 2017-02-28 Here Global B.V. Traffic volume estimation
US9747505B2 (en) 2014-07-07 2017-08-29 Here Global B.V. Lane level traffic
US10378549B2 (en) 2014-10-17 2019-08-13 Kohler Co. Dual compressor turbocharger
US9556792B2 (en) 2014-10-17 2017-01-31 Kohler, Co. Dual compressor turbocharger
US9659491B2 (en) 2015-03-19 2017-05-23 Here Global B.V. Dynamic location referencing strands
US10635117B2 (en) * 2016-10-25 2020-04-28 International Business Machines Corporation Traffic navigation for a lead vehicle and associated following vehicles
US10733876B2 (en) 2017-04-05 2020-08-04 Carnegie Mellon University Deep learning methods for estimating density and/or flow of objects, and related methods and software
US10373489B2 (en) 2017-08-11 2019-08-06 Cubic Corporation System and method of adaptive controlling of traffic using camera data
US10803740B2 (en) 2017-08-11 2020-10-13 Cubic Corporation System and method of navigating vehicles
US10636299B2 (en) 2017-08-11 2020-04-28 Cubic Corporation System and method for controlling vehicular traffic
US10636298B2 (en) 2017-08-11 2020-04-28 Cubic Corporation Adaptive traffic control using object tracking and identity details
US10395522B2 (en) 2017-08-14 2019-08-27 Cubic Corporation Adaptive traffic optimization using unmanned aerial vehicles
US10935388B2 (en) 2017-08-14 2021-03-02 Cubic Corporation Adaptive optimization of navigational routes using traffic data
US11100336B2 (en) 2017-08-14 2021-08-24 Cubic Corporation System and method of adaptive traffic management at an intersection
US11250699B2 (en) 2017-08-14 2022-02-15 Cubic Corporation System and method of adaptive traffic management at an intersection
US10559198B1 (en) 2018-08-08 2020-02-11 Cubic Corporation System and method of adaptive controlling of traffic using zone based occupancy
KR102189063B1 (ko) * 2020-08-04 2020-12-09 렉스젠(주) 이상 상황 판단을 위한 장치, 시스템 및 방법
CN114067573B (zh) * 2022-01-11 2022-04-12 成都宜泊信息科技有限公司 一种停车场值守方法、系统、存储介质及电子设备
US11715305B1 (en) * 2022-11-30 2023-08-01 Amitha Nandini Mandava Traffic detection system using machine vision

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5636799A (en) * 1979-09-04 1981-04-10 Omron Tateisi Electronics Co Measurement device for traffic flow
JPH02284297A (ja) * 1989-04-26 1990-11-21 Nec Corp 車両空間密度検出装置
JPH04123199A (ja) * 1990-09-13 1992-04-23 Matsushita Electric Ind Co Ltd 駐車場混雑状態判別装置
JPH0540896A (ja) * 1991-08-07 1993-02-19 Hitachi Ltd 交通渋滞度計測装置
JPH0554294A (ja) * 1991-08-21 1993-03-05 Omron Corp 交差点情報通信装置
JPH064795A (ja) * 1992-06-17 1994-01-14 Hitachi Ltd 交通状況監視方法と装置および交通流監視制御システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE394146B (sv) * 1975-10-16 1977-06-06 L Olesen Anordning for metning resp kontroll av ett foremals, i synnerhet ett fordons hastighet.
US4847772A (en) * 1987-02-17 1989-07-11 Regents Of The University Of Minnesota Vehicle detection through image processing for traffic surveillance and control
GB8913946D0 (en) * 1989-06-16 1989-08-02 Univ London Method and apparatus for traffic monitoring
US5301239A (en) * 1991-02-18 1994-04-05 Matsushita Electric Industrial Co., Ltd. Apparatus for measuring the dynamic state of traffic
US5590217A (en) * 1991-04-08 1996-12-31 Matsushita Electric Industrial Co., Ltd. Vehicle activity measuring apparatus
US5509082A (en) * 1991-05-30 1996-04-16 Matsushita Electric Industrial Co., Ltd. Vehicle movement measuring apparatus
EP0567059B1 (en) * 1992-04-24 1998-12-02 Hitachi, Ltd. Object recognition system using image processing
JP2917661B2 (ja) * 1992-04-28 1999-07-12 住友電気工業株式会社 交通流計測処理方法及び装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5636799A (en) * 1979-09-04 1981-04-10 Omron Tateisi Electronics Co Measurement device for traffic flow
JPH02284297A (ja) * 1989-04-26 1990-11-21 Nec Corp 車両空間密度検出装置
JPH04123199A (ja) * 1990-09-13 1992-04-23 Matsushita Electric Ind Co Ltd 駐車場混雑状態判別装置
JPH0540896A (ja) * 1991-08-07 1993-02-19 Hitachi Ltd 交通渋滞度計測装置
JPH0554294A (ja) * 1991-08-21 1993-03-05 Omron Corp 交差点情報通信装置
JPH064795A (ja) * 1992-06-17 1994-01-14 Hitachi Ltd 交通状況監視方法と装置および交通流監視制御システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100390936B1 (ko) * 2000-10-23 2003-07-16 주식회사 지이엔티 영상처리기반의 스필백 판단 시스템 및 방법
JP2006024148A (ja) * 2004-07-09 2006-01-26 Foundation For The Promotion Of Industrial Science 画像における移動物体追跡方法及び装置
JP4555987B2 (ja) * 2004-07-09 2010-10-06 財団法人生産技術研究奨励会 画像における移動物体追跡方法及び装置
CN116935665A (zh) * 2023-09-18 2023-10-24 徐州帝亨网络科技有限公司 用于货物运输的交通控制系统
CN116935665B (zh) * 2023-09-18 2023-11-24 徐州帝亨网络科技有限公司 用于货物运输的交通控制系统

Also Published As

Publication number Publication date
US6075874A (en) 2000-06-13
JP3834826B2 (ja) 2006-10-18
US5999635A (en) 1999-12-07
KR100279333B1 (ko) 2001-01-15
KR19990077195A (ko) 1999-10-25
TW349211B (en) 1999-01-01

Similar Documents

Publication Publication Date Title
WO1997025700A1 (en) Traffic congestion measuring method and apparatus and image processing method and apparatus
CN106297330B (zh) 减少行人过街对平面感知信号控制效率影响的方法及系统
CN108320510B (zh) 一种基于无人机航拍视频交通信息统计方法及系统
CN105512623B (zh) 基于多传感器雾天行车视觉增强与能见度预警系统及方法
US8244027B2 (en) Vehicle environment recognition system
CN104183127B (zh) 交通监控视频检测方法和装置
CN101030256B (zh) 车辆图像分割方法和装置
CN105336169B (zh) 一种基于视频判断交通拥堵的方法和系统
CN109064495A (zh) 一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法
CN101639983B (zh) 一种基于图像信息熵的多车道车流量检测方法
CN104575003B (zh) 一种基于道路监控视频的车辆速度检测方法
CN107229908A (zh) 一种车道线检测方法
CN108645375B (zh) 一种用于车载双目系统快速车辆测距优化方法
CN106951898B (zh) 一种车辆候选区域推荐方法及系统、电子设备
CN106128126B (zh) 利用平面感知技术减少高峰时间遇红灯次数的方法及系统
JP2012203795A (ja) 車両速度計測方法及びそれを利用した車両全体像検出方法並びに車両ナンバープレート情報誤認防止方法
CN107284455A (zh) 一种基于图像处理的adas系统
CN114758504B (zh) 一种基于滤波校正的网联车超速预警方法及系统
CN108764075A (zh) 岸桥下集装箱卡车定位的方法
CN103279748B (zh) 一种基于sift–cof特征光流的道路检测方法
CN103605960A (zh) 一种基于不同焦距视频图像融合的交通状态识别方法
CN106327886B (zh) 减少非机动车对平面感知信号控制效率影响的方法及系统
JP4148274B2 (ja) 画像処理方法および画像処理装置
CN114964445A (zh) 基于车辆识别的多模块动态称重方法
CN114783181A (zh) 一种基于路侧感知的交通流量统计方法和装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP KR SG US

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 09112989

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1019980705336

Country of ref document: KR

CFP Corrected version of a pamphlet front page

Free format text: TITLE IN ENGLISH LANGUAGE CORRECTED

WWP Wipo information: published in national office

Ref document number: 1019980705336

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1019980705336

Country of ref document: KR