WO2023127250A1 - 検知線決定装置 - Google Patents

検知線決定装置 Download PDF

Info

Publication number
WO2023127250A1
WO2023127250A1 PCT/JP2022/039547 JP2022039547W WO2023127250A1 WO 2023127250 A1 WO2023127250 A1 WO 2023127250A1 JP 2022039547 W JP2022039547 W JP 2022039547W WO 2023127250 A1 WO2023127250 A1 WO 2023127250A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection line
determination device
road
unit
detection
Prior art date
Application number
PCT/JP2022/039547
Other languages
English (en)
French (fr)
Inventor
隆仁 齊藤
優馬 實成
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Publication of WO2023127250A1 publication Critical patent/WO2023127250A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors

Definitions

  • One aspect of the present disclosure relates to a detection line determination device that determines a detection line that is a virtual detection line that is set on a road and that detects the passage of an object that crosses the road when the object crosses the road.
  • Patent Document 1 based on a passing line set in a captured image of a predetermined area through which a vehicle passes, it is detected that a vehicle area straddles the passing line, and a traffic flow measuring device determines the passage of the vehicle. is disclosed.
  • a detection line determination device is a virtual detection line set on a road in a road image including a road, and is a virtual detection line that is set on a road, and when an object moving on the road straddles, the object does not pass.
  • a detection line determination device for determining a detection line to be detected comprising: an extraction unit for extracting a plurality of contour lines indicating the contour of a road in a road image; and two contour lines out of the plurality of contour lines extracted by the extraction unit.
  • a calculation unit that calculates a line connecting points at each point as a detection line candidate, and a determination unit that determines a detection line based on the detection line candidate calculated by the calculation unit.
  • the detection line is determined by the detection line determination device. That is, the detection line can be automatically determined.
  • the detection line can be automatically determined.
  • FIG. 3 is a diagram showing an example of at least one road image out of the continuously captured images shown in FIG. 2; 4 is a diagram showing an example of an image after executing Semantic Segmentation on the image shown in FIG. 3;
  • FIG. 5 is a diagram showing an example of a roadway area when noise is included in the roadway area shown in FIG. 4; It is a figure which shows an example of the roadway area
  • FIG. 7 is a diagram showing an example of a roadway area after performing reduction processing on the roadway area shown in FIG.
  • FIG. 9 is a diagram showing an example of edges after performing edge detection on the roadway area shown in FIG. 8;
  • FIG. 10 is a diagram showing an example of line segments after clustering the edges shown in FIG. 9;
  • FIG. 11 is a diagram showing an example of a detection line candidate calculated from a combination of the line segment a and the line segment b shown in FIG. 10;
  • FIG. 11 is a diagram showing an example of a detection line candidate calculated from a combination of the line segment a and the line segment c shown in FIG. 10;
  • FIG. 11 is a diagram showing an example of a detection line candidate calculated from a combination of the line segment b and the line segment c shown in FIG.
  • FIG. 10 is a diagram in which detection line candidates shown in FIGS. 11 to 13 are superimposed;
  • FIG. FIG. 15 is a diagram showing an example of a histogram according to angles of the detection line candidates shown in FIG. 14;
  • FIG. 5 is a diagram showing an example of a relationship between a target movement vector and detection line candidates;
  • FIG. 10 is a diagram showing an example of clusters after clustering detection line candidates;
  • FIG. 18 is a diagram showing an example of detection lines determined based on the clusters shown in FIG. 17;
  • 6 is a flowchart showing an example of detection line determination processing executed by the detection line determination device according to the embodiment; It is a figure which shows an example of the detection line determined with respect to an intersection.
  • a detection line determination device 1 determines (sets) (one or more) detection lines in a road image including a road.
  • a road is a path (road, road) along which an object moves (traverses, comes and goes).
  • the targets are objects, people and animals that move on the road.
  • the target is a vehicle including a passenger car, a large freight vehicle, a bus, a motorcycle and a bicycle, or a person (pedestrian), but is not limited to these.
  • a road image is an image that includes (is reflected in or is shown in) a road.
  • the road image is an image of scenery (landscape, scene) including roads captured by a camera or the like, or an image of a road map, but is not limited to these.
  • the road image may be one of continuous captured images (moving images, moving images), which are a plurality of images obtained by continuously (and fixedly) capturing the road.
  • a detection line is a virtual line set on the road (of the road image).
  • the sensing line can be any line, such as a straight line (straight line), a curved line (a line that is continuously curved), a line with angles, or a line containing more than one of them.
  • a detection line is a target moving on the road (the detection line set on the road) by crossing (the detection line) (moving from one side to the other with the detection line as a boundary). ) is a line for detecting passage (by a device such as the detection line determination device 1).
  • the detection line determination device 1 detects a virtual detection line set on the road in the road image including the road, and detects the passage of the target when the target moving on the road straddles the detection line. to decide.
  • Determining the detection line in the road image means, for example, when the pixels of the road image are represented by xy coordinates, the xy coordinates of the start point (one side) and the end point (the other) of the detection line indicated by a straight line in the road image is determined. one) to determine the xy coordinates of the pixels, but not limited to this.
  • the detection line in the road image determined by the detection line determination device 1 may be used by the detection line determination device 1 or another device for the purpose of detecting the passage of an object on the road indicated by the road image.
  • FIG. 1 is a diagram showing an example of the functional configuration of the detection line determination device 1.
  • the detection line determination device 1 includes a storage unit 10, an acquisition unit 11, an extraction unit 12 (extraction unit), a calculation unit 13 (calculation unit), a determination unit 14 (determination unit), a reception unit 15 (reception section), a measurement section 16 and an output section 17.
  • Each functional block of the detection line determination device 1 is assumed to function within the detection line determination device 1, but is not limited to this.
  • a part of the functional blocks of the detection line determination device 1 is a computer device different from the detection line determination device 1, and the detection line determination device 1 and the It may function while transmitting and receiving information as appropriate.
  • some functional blocks of the detection line determination device 1 may be omitted, a plurality of functional blocks may be integrated into one functional block, or one functional block may be decomposed into a plurality of functional blocks. good too.
  • the storage unit 10 stores arbitrary information used for calculations in the detection line determination device 1, calculation results in the detection line determination device 1, and the like.
  • the information stored by the storage unit 10 may be referred to by each function of the detection line determination device 1 as appropriate.
  • the acquisition unit 11 acquires road images.
  • the acquisition unit 11 may acquire road images from another device via a network, or may acquire road images stored in advance by the storage unit 10 .
  • the acquisition unit 11 may output the acquired road image to another functional block of the detection line determination device 1 or may cause the storage unit 10 to store the acquired road image.
  • the acquisition unit 11 may acquire the continuously captured images and acquire (extract) at least one (one) road image that satisfies an arbitrary criterion from among the acquired continuously captured images.
  • one road image that satisfies an arbitrary criterion may be the top road image (frame) of the continuous captured images, or the middle road image (frame) of the continuous captured images.
  • FIG. 2 is a diagram showing an example of continuously captured images. As shown in FIG. 2, a continuously captured image is composed of a plurality of images.
  • FIG. 3 is a diagram showing an example of at least one road image out of the continuously captured images shown in FIG.
  • the extraction unit 12 extracts a plurality of contour lines that indicate the contour of the road in the road image. More specifically, the extraction unit 12 extracts a plurality of (two or more) contours by performing image processing for extracting contours on the road image acquired (output) by the acquisition unit 11. do.
  • the extraction unit 12 may output the extracted information about the plurality of contour lines to other functional blocks of the detection line determination device 1 or may store the information in the storage unit 10 .
  • FIG. 1 A specific example of processing by the extraction unit 12 will be described with reference to FIGS. 4 to 10.
  • FIG. 1 A specific example of processing by the extraction unit 12 will be described with reference to FIGS. 4 to 10.
  • FIG. 4 is a diagram showing an example of an image after executing Semantic Segmentation on the road image shown in FIG.
  • Semantic Segmentation is an existing technology that classifies each pixel in an image to belong to a specific label in order to recognize what is in the image at the pixel level.
  • the image is divided into semantic regions.
  • the image shown in FIG. 4 is divided into a roadway R area, a sidewalk S area, and a boundary block B area.
  • the area of the roadway R (and other various areas) can be extracted by executing semantic segmentation on the road image.
  • the extracted area of the roadway R is processed, but an area further including at least one of the area of the sidewalk S and the area of the boundary block B may be processed.
  • FIG. 5 is a diagram showing an example of a roadway area (area of roadway R) shown in FIG. 4 when noise is included. As shown in FIG. 5, the area of the roadway R contains three noises (white square areas).
  • FIG. 6 is a diagram showing an example of the roadway area after performing enlargement processing on the roadway area shown in FIG. As shown in FIG. 6, three noises are eliminated by executing the enlargement process.
  • FIG. 7 is a diagram showing an example of the roadway area after execution of the reduction process for the roadway area shown in FIG.
  • the area of the roadway R is restored to the same size as the area of the roadway R (the area of the roadway R shown in FIG. 5) before the enlargement process is executed.
  • the noise shown in FIG. 5 can be eliminated as shown in FIG.
  • FIG. 8 is a diagram showing an example of a roadway area (area of roadway R) to be processed.
  • FIG. 9 is a diagram showing an example of edges after performing edge detection on the roadway area shown in FIG.
  • Edge detection is an existing technology, and is a process of identifying discontinuously changing portions (edges, boundaries) in an image.
  • a simple example of edge detection is the Sobel filter, but it is not limited to this. At the stage after edge detection is executed, it is in a state where it cannot be recognized as a line segment, which will be described later, and is not closed at the edge of the image.
  • FIG. 10 is a diagram showing an example of line segments (outlines) after clustering the edges shown in FIG.
  • a line segment in the embodiment is not limited to a straight line, but may be a line including at least one of a straight line, an angle, and a curve.
  • three contour lines, line segment a, line segment b, and line segment c, are extracted. Since edge detection detects only lines (more precisely, point sets), it is not known which point set constitutes one cluster. In other words, the upper left corner, the upper right corner, and the lower line in FIG. It is possible. Therefore, each is identified by clustering. Examples of clustering include, but are not limited to, a method using the distance between points and a method of looking at the connectivity of points.
  • the extracting unit 12 extracts a region of the roadway R from the road image, performs image processing on the extracted region of the roadway R to extract a plurality of contour lines, and separates the contours into line segments. Identify.
  • the calculation unit 13 calculates, as detection line candidates, lines connecting points on each of two contour lines among the plurality of contour lines extracted (output) by the extraction unit 12 .
  • the calculation unit 13 may calculate detection line candidates based on the distance between points on each of the two contour lines.
  • the points on each of the two contours may be sampled points on the contours.
  • the calculation unit 13 may output the information on the calculated detection line candidates to other functional blocks of the detection line determination device 1 or may cause the storage unit 10 to store the information.
  • FIG. 11 A specific example of processing by the calculation unit 13 will be described with reference to FIGS. 11 to 14.
  • FIG. 11 A specific example of processing by the calculation unit 13 will be described with reference to FIGS. 11 to 14.
  • the calculation unit 13 selects two contour lines from the plurality of contour lines extracted by the extraction unit 12 . For selection, all combinations may be selected, or one or more arbitrary combinations satisfying arbitrary criteria may be selected. In this specific example, all combinations are selected. Next, the calculation unit 13 selects a point on one contour line (point on the contour line) and a point on the other contour line (point on the contour line) for each of the two contour lines in the selected combination, A line connecting the selected points is calculated as a detection line candidate.
  • the selection of points on each of the two contours may be the selection of points that satisfy any criteria.
  • the points on each of the two contours are selected from the sampled points on the contours. This is because, for example, if all pixel points on the contour are selected, the number of points will be enormous.
  • detection line candidates are calculated based on the distance between points on each of the two contour lines. More specifically, DTW (Dynamic Time Warping), which is an existing technology, is used to calculate detection line candidates. DTW is a method used to measure the distance and similarity between time-series data, and is a method of finding the distance between each point in two time-series by round-robin and selecting the points that make the two time-series the shortest. is. It can also be said that the calculation unit 13 calculates detection line candidates by associating elements of line segments with different lengths for each two line segments using DTW.
  • FIG. 11 is a diagram showing an example of detection line candidates calculated from a combination of line segment a and line segment b shown in FIG.
  • the dotted lines in FIG. 11 indicate detection line candidates calculated by DTW for points sampled at intervals of N (N is an integer) on each of line segment a and line segment b. That is, the points used in DTW are sampled.
  • Detection line candidates are also indicated by dotted lines in subsequent drawings.
  • FIG. 12 is a diagram showing an example of detection line candidates calculated from a combination of line segment a and line segment c shown in FIG.
  • the dotted lines in FIG. 12 indicate detection line candidates calculated by DTW for the points sampled at intervals of N points on each of the line segment a and the line segment c.
  • FIG. 13 is a diagram showing an example of detection line candidates calculated from a combination of line segment b and line segment c shown in FIG.
  • the dotted lines in FIG. 13 indicate detection line candidates calculated by DTW for the points sampled at intervals of N points on each of the line segments b and c.
  • FIG. 14 is a diagram in which the detection line candidates shown in FIGS. 11 to 13 are superimposed.
  • the determination unit 14 determines detection lines based on the detection line candidates calculated (output) by the calculation unit 13 .
  • the determination unit 14 may score each detection line candidate based on a predetermined criterion, and determine the detection line based on the score.
  • the determination unit 14 may output information about the determined detection line to another functional block of the detection line determination device 1, may display it on a display that is an output device 1006 described later, or may display it on another device. , or may be stored in the storage unit 10 .
  • the determination unit 14 may determine the detection line based on the angles of the detection line candidates.
  • the determination unit 14 may determine the detection line based on a histogram of the angles of the detection line candidates.
  • FIG. 15 is a diagram showing an example of a histogram according to angles of detection line candidates shown in FIG. 14 (or FIGS. 11 to 13).
  • the determination unit 14 may determine, as detection lines, detection line candidates whose degrees are greater than a predetermined threshold in the histogram.
  • the determination unit 14 may determine the number of angles (directions) by threshold processing or the like, and may determine detection line candidates with angles larger than this number as detection lines.
  • the determination unit 14 may determine the detection line based on the score, which is the frequency of the histogram of the angles of the detection line candidates (for example, the higher the score, the higher the probability of determination as the detection line).
  • the determination unit 14 may determine the detection line based on the moving direction of the target.
  • the determining unit 14 may determine the direction-specific detection lines based on the movement direction of the object.
  • the determining unit 14 may use the movement direction of the target calculated based on the continuously captured images.
  • FIG. 16 is a diagram showing an example of the relationship between the movement vector of the object and the detection line candidates.
  • the movement vector of the target (passenger car in the figure) is calculated by the existing technique based on the consecutively captured images by the determination unit 14, the detection line determination device 1, or another device.
  • the movement vector may be calculated based on the difference between the positions of the same object included in a plurality of road images that are chronologically close among the continuously captured images.
  • the movement vector of the pedestrian may be calculated based on the most frequent direction by obtaining the distribution from the direction of the walking trajectory of the pedestrian.
  • a movement vector includes a movement direction and a movement speed.
  • the motion vector may be replaced by the direction of motion (ie, the speed of motion may not be included).
  • a motion vector based on the motion vector of each target may be calculated and the calculated motion vector may be used.
  • the determination unit 14 determines a detection line candidate having a small inner product (the inner product is equal to or less than a predetermined threshold value) with respect to the calculated movement vector, for example, a detection line candidate at a right angle or near a right angle, as a detection line.
  • the determining unit 14 may determine the detection line based on the score, which is the reciprocal of the inner product with the movement vector (for example, the higher the score, that is, the smaller the inner product, the higher the probability of determining the detection line as the detection line). ).
  • the determination unit 14 determines detection line candidates that rotate counterclockwise (for example, 90 degrees counterclockwise) or clockwise (for example, 90 degrees clockwise) with respect to the calculated movement vector as direction-specific detection lines.
  • a vector V1 directed from right to left (toward the road image) and a vector V2 directed from left to right are calculated.
  • the determination unit 14 may determine a detection line based on clusters obtained by clustering detection line candidates.
  • FIG. 17 is a diagram illustrating an example of clusters after clustering detection line candidates. As shown in FIG. 17, as a result of clustering the detection line candidates, a cluster C1 is generated for the detection line candidates calculated from the combination of the line segment a and the line segment c. A cluster C2 is generated for the detection line candidate calculated from the combination of , and a cluster C3 is generated for the detection line candidate calculated from the combination of the line segment b and the line segment c.
  • the cluster centroids of cluster C1, cluster C2 and cluster C3 are respectively cluster centroid G1, cluster centroid G2 and cluster centroid G3.
  • the determination unit 14 may determine the detection line based on the score, which is the reciprocal of the distance d from the cluster center of gravity of the cluster (own cluster center of gravity), for the detection line candidates forming the cluster (for example, The higher the score, that is, the closer to the cluster centroid, the higher the probability of determining it as a detection line, etc.).
  • the determining unit 14 may determine a predetermined number (for example, one) of sensing lines for each cluster.
  • FIG. 18 is a diagram showing an example of detection lines determined based on the clusters shown in FIG. In FIG. 18, in each of the cluster C1, the cluster C2, and the cluster C3, the detection line L1, which is the detection line closest to the cluster center of gravity G1, the cluster center of gravity G2, and the cluster center of gravity G3 (having a large score in each cluster), A detection line L2 and a detection line L3 are determined.
  • the determination unit 14 may determine the detection line based on the length of the detection line candidate. For example, the determining unit 14 may calculate the length distribution of the detection line candidates and determine the detection line candidates that satisfy a predetermined criterion as the detection lines. The determination unit 14 may calculate the length distribution of the detection line candidates, and determine detection line candidates close to the median value (detection line candidates within a predetermined width from the median value) as the detection lines. This is because a detection line candidate whose length is extremely short is likely to be noise, and a detection line candidate whose length is long has a shape that crosses an intersection (extends the area of the roadway R) as shown in FIG. This is because the possibility of The determination unit 14 may determine the detection line based on the score, with the score closer to the median for the length distribution of the detection line candidates.
  • the reception unit 15 presents the detection line determined (output) by the determination unit 14 to the user, receives selection or correction by the user, and converts the detection line selected or corrected by the user to the detection line determined by the determination unit 14. and Presentation to the user may be made via an output device 1006, such as a display, which will be described later. User input may be received via an input device 1005 such as a mouse and keyboard, which will be described later.
  • the reception unit 15 may further receive an additional (new) detection line from the user, and use the detection line as the detection line determined by the determination unit 14 .
  • the reception unit 15 may output information about the determined detection line to another functional block of the detection line determination device 1 or may cause the storage unit 10 to store the information.
  • the reception unit 15 may present the detection line for each cluster generated by the determination unit 14 (detection line determined based on the cluster) to the user. This allows the user to select a detection line for each cluster.
  • the reception unit 15 may present the detection lines to the user based on the scores of the detection lines scored by the determination unit 14 .
  • the user may be presented with M (M is an integer) (TOP M) detection lines with the highest scores.
  • the measurement unit 16 detects the passage of the target on the road based on the detection line determined (output) by the determination unit 14, and measures information based on the passage.
  • the measurement unit 16 may output the measurement result to another functional block of the detection line determination device 1 or may store the measurement result in the storage unit 10 .
  • the output unit 17 outputs the measurement result measured (output) by the measurement unit 16 .
  • the output unit 17 may display the measurement result on a display or the like that is the output device 1006 described later, may transmit the measurement result to another device via a network, or may transmit the measurement result by the storage unit 10 may be stored.
  • FIG. 19 is a flowchart showing an example of detection line determination processing executed by the detection line determination device 1.
  • the extraction unit 12 extracts a plurality of contour lines indicating the contour of the road in the road image (step S1, extraction step).
  • the calculation unit 13 calculates, as detection line candidates, lines connecting points on each of two contour lines among the plurality of contour lines extracted in S1 (step S2, calculation step).
  • the determination unit 14 determines a detection line based on the detection line candidates calculated in S3 (step S3, determination step).
  • traffic volume visualization using the detection line determination device 1 will be described with reference to FIGS. 20 to 24.
  • FIG. 20 is a diagram showing an example of detection lines determined for intersections.
  • the detection line L_app, the detection line L_left, the detection line L_str, and the detection line L_right are determined (set) by the detection line determination device 1 based on the continuously captured images captured by the portable camera.
  • the detection line L_app is an entry detection line for detecting entry into an intersection.
  • a detection line L_left is a left turn detection line for detecting a left turn at an intersection.
  • the detection line L_str is a straight-travel detection line for detecting straight-ahead travel at an intersection.
  • a detection line L_right is a right turn detection line for detecting a right turn at an intersection.
  • the left-turn detection line, the straight-ahead detection line, and the right-turn detection line are collectively referred to as traffic direction detection lines.
  • a passenger car (ID: 1), a large freight vehicle (ID: 2), and a pedestrian (ID: 3) are extracted from the road image by the detection line determination device 1 or the like.
  • the portable camera may be equipped with a GPS (Global Positioning System), and the GPS may be used to acquire the current position information (latitude, longitude, etc.) of the portable camera. By providing the position information to the detection line determination device 1, the detection line determination device 1 can calculate and output information associated with the position of the road.
  • GPS Global Positioning System
  • FIG. 21 is a flowchart showing another example of the traffic volume visualization process executed by the detection line determination device 1.
  • a portable camera or a fixed camera photographs an intersection for a certain period of time (step S10).
  • the detection line determination device 1 sets an approach detection line for the captured moving image (successively captured images) (step S11).
  • the detection line determination device 1 sets a traffic direction detection line for the captured moving image (step S12).
  • the detection line determination device 1 recognizes the vehicle type of the vehicle appearing in the captured moving image (step S13).
  • the detection line determination device 1 tracks the vehicle appearing between the frames of the moving image of the captured moving image (step S14).
  • the detection line determination device 1 detects passage of the entry detection line set in S11 (step S15). Next, the detection line determination device 1 detects passage of any one of the right-turn detection line, the straight-ahead detection line, and the left-turn detection line set in S12 (step S16). Next, the detection line determination device 1 measures the number of vehicles for each vehicle type (step S17). Next, the detection line determination device 1 visualizes the measurement results according to the traveling direction, vehicle type, and time zone (step S18).
  • FIG. 22 is a diagram showing an example of a pie chart showing the number of cars for each vehicle type.
  • the pie chart shown in FIG. 22 is visualized by the detection line determination device 1, for example, in S18 described above.
  • the objects that passed through the intersection were 10 passenger cars, 6 large freight vehicles, 2 buses, 6 bicycles, and 7 pedestrians, for a total of 24 vehicles and 7 people in the pie chart. is visualized as
  • FIG. 23 is a diagram showing an example of a bar graph showing the total number of vehicles for each time period.
  • the bar graph shown in FIG. 23 is visualized by the detection line determination device 1, for example, in S18 described above.
  • the total number of vehicles passing through the intersection at 9:00, 12:00, 15:00, and 18:00 is visualized as a bar graph.
  • FIG. 24 is a diagram showing an example of a heat map on a map showing the distribution of traffic volume.
  • the heat map shown in FIG. 24 is visualized by the detection line determination device 1, for example, in S18 described above.
  • the traffic volume distribution is visualized as a heat map on the map based on the position information acquired by the portable camera. In addition to the heat map, it may be visualized with markers, for example.
  • the extraction unit 12 extracts a plurality of contour lines indicating the contour of the road in the road image
  • the calculation unit 13 extracts two of the plurality of contour lines extracted by the extraction unit 12.
  • a line connecting points on each contour line is calculated as a detection line candidate
  • the determination unit 14 determines a detection line based on the detection line candidate calculated by the calculation unit 13 .
  • the calculation unit 13 may calculate detection line candidates based on the distance between points on each of the two contour lines. With this configuration, it is possible to determine a detection line in consideration of the distance between points.
  • the points on each of the two contours may be sampled points on the contours.
  • the determination unit 14 may determine the detection line based on the moving direction of the object. With this configuration, it is possible to determine the detection line in consideration of the movement direction of the object.
  • the determination unit 14 may determine the detection line for each direction based on the moving direction of the object. With this configuration, it is possible to determine detection lines for each direction, taking into consideration the moving direction of the object.
  • the road image is one of the continuously captured images obtained by continuously capturing the road
  • the determination unit 14 determines the object calculated based on the continuously captured images. may be used. With this configuration, the direction of movement of the object can be used more reliably.
  • the determination unit 14 may determine a detection line based on clusters resulting from clustering detection line candidates. With this configuration, since detection lines are determined based on clusters, it is possible to determine a representative detection line from, for example, similar detection line candidates.
  • the determination unit 14 may determine the detection line based on the length of the detection line candidate. With this configuration, since the detection line is determined based on the length of the detection line candidate, a more appropriate detection line can be determined, for example, extremely short detection line candidates that are likely to be noise can be eliminated. .
  • the determination unit 14 may score each detection line candidate based on a predetermined standard, and determine the detection line based on the score. With this configuration, it is possible to determine a sensing line along predetermined criteria.
  • the reception unit 15 presents the detection line determined by the determination unit 14 to the user, receives selection or correction by the user, and determines the detection line selected or corrected by the user. It may be a detection line determined by the unit 14 . With this configuration, it is possible to determine a detection line that reflects the user's selection or modification.
  • the detection line determination device 1 can be said to be a traffic volume visualization system using moving images.
  • the detection line determination device 1 may automatically generate a detection line used for counting the number of vehicles in each traffic direction by the following method to assist the user.
  • a movement vector of a vehicle may be obtained from a moving image, and detection lines having a direction perpendicular to the vector (with a small inner product) may be narrowed down as candidates.
  • a vector obtained by averaging movement vectors may be used.
  • ⁇ It is also possible to generate for each direction by using detection line candidates that rotate counterclockwise with respect to this movement vector.
  • Cluster the detection candidate lines assign a higher score to a line closer to the center of gravity of the cluster, and propose to the user for each cluster.
  • ⁇ It is possible to calculate the distribution of the length of the detection candidate line and filter only those that are close to the median value (Extremely short lines are likely to be noise, and long lines are likely to cross the intersection). expensive).
  • TOP M may be proposed.
  • the proposed detection line may be modified or added by the user.
  • each functional block may be implemented using one device physically or logically coupled, or directly or indirectly using two or more physically or logically separated devices (e.g. , wired, wireless, etc.) and may be implemented using these multiple devices.
  • a functional block may be implemented by combining software in the one device or the plurality of devices.
  • Functions include judging, determining, determining, calculating, calculating, processing, deriving, examining, searching, checking, receiving, transmitting, outputting, accessing, resolving, selecting, choosing, establishing, comparing, assuming, expecting, assuming, Broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc.
  • a functional block (component) that performs transmission is called a transmitting unit or transmitter. In either case, as described above, the implementation method is not particularly limited.
  • the detection line determination device 1 may function as a computer that performs the processing of the detection line determination method of the present disclosure.
  • FIG. 25 is a diagram illustrating an example of a hardware configuration of the detection line determination device 1 according to an embodiment of the present disclosure.
  • the detection line determination device 1 described above may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.
  • the term "apparatus” can be read as a circuit, device, unit, or the like.
  • the hardware configuration of the detection line determination device 1 may be configured to include one or more of each device shown in the drawing, or may be configured without some devices.
  • Each function in the detection line determination device 1 is performed by the processor 1001 by loading predetermined software (program) onto hardware such as the processor 1001 and the memory 1002, and the processor 1001 performs calculations, controls communication by the communication device 1004, It is realized by controlling at least one of data reading and writing in the memory 1002 and the storage 1003 .
  • the processor 1001 operates an operating system and controls the entire computer.
  • the processor 1001 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, registers, and the like.
  • CPU central processing unit
  • the acquisition unit 11 , the extraction unit 12 , the calculation unit 13 , the determination unit 14 , the reception unit 15 , the measurement unit 16 , the output unit 17 and the like described above may be realized by the processor 1001 .
  • the processor 1001 reads programs (program codes), software modules, data, etc. from at least one of the storage 1003 and the communication device 1004 to the memory 1002, and executes various processes according to them.
  • programs program codes
  • the program a program that causes a computer to execute at least part of the operations described in the above embodiments is used.
  • the acquisition unit 11, the extraction unit 12, the calculation unit 13, the determination unit 14, the reception unit 15, the measurement unit 16, and the output unit 17 may be stored in the memory 1002 and implemented by a control program that operates on the processor 1001. , other functional blocks may be similarly implemented.
  • FIG. Processor 1001 may be implemented by one or more chips.
  • the program may be transmitted from a network via an electric communication line.
  • the memory 1002 is a computer-readable recording medium, and is composed of at least one of, for example, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), RAM (Random Access Memory), etc. may be
  • ROM Read Only Memory
  • EPROM Erasable Programmable ROM
  • EEPROM Electrical Erasable Programmable ROM
  • RAM Random Access Memory
  • the memory 1002 may also be called a register, cache, main memory (main storage device), or the like.
  • the memory 1002 can store executable programs (program code), software modules, etc. for implementing a wireless communication method according to an embodiment of the present disclosure.
  • the storage 1003 is a computer-readable recording medium, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, a magneto-optical disk (for example, a compact disk, a digital versatile disk, a Blu-ray disk), smart card, flash memory (eg, card, stick, key drive), floppy disk, magnetic strip, and/or the like.
  • Storage 1003 may also be called an auxiliary storage device.
  • the storage medium described above may be, for example, a database, server, or other suitable medium including at least one of memory 1002 and storage 1003 .
  • the communication device 1004 is hardware (transmitting/receiving device) for communicating between computers via at least one of a wired network and a wireless network, and is also called a network device, a network controller, a network card, a communication module, or the like.
  • the communication device 1004 includes a high-frequency switch, a duplexer, a filter, a frequency synthesizer, etc., in order to realize at least one of frequency division duplex (FDD) and time division duplex (TDD).
  • FDD frequency division duplex
  • TDD time division duplex
  • the acquisition unit 11 , the extraction unit 12 , the calculation unit 13 , the determination unit 14 , the reception unit 15 , the measurement unit 16 , the output unit 17 and the like described above may be realized by the communication device 1004 .
  • the input device 1005 is an input device (for example, keyboard, mouse, microphone, switch, button, sensor, etc.) that receives input from the outside.
  • the output device 1006 is an output device (for example, display, speaker, LED lamp, etc.) that outputs to the outside. Note that the input device 1005 and the output device 1006 may be integrated (for example, a touch panel).
  • Each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information.
  • the bus 1007 may be configured using a single bus, or may be configured using different buses between devices.
  • the detection line determination device 1 includes hardware such as a microprocessor, a digital signal processor (DSP), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). part or all of each functional block may be implemented by the hardware.
  • processor 1001 may be implemented using at least one of these pieces of hardware.
  • Each aspect/embodiment described in the present disclosure includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G (4th generation mobile communication system), 5G (5th generation mobile communication system) system), FRA (Future Radio Access), NR (new Radio), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi (registered trademark) )), IEEE 802.16 (WiMAX (registered trademark)), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth (registered trademark), and other suitable systems and extended It may be applied to at least one of the next generation systems. Also, a plurality of systems may be applied in combination (for example, a combination of at least one of LTE and LTE-A and 5G, etc.).
  • Input/output information may be stored in a specific location (for example, memory) or managed using a management table. Input/output information and the like can be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.
  • the determination may be made by a value represented by one bit (0 or 1), by a true/false value (Boolean: true or false), or by numerical comparison (for example, a predetermined value).
  • notification of predetermined information is not limited to being performed explicitly, but may be performed implicitly (for example, not notifying the predetermined information). good too.
  • Software whether referred to as software, firmware, middleware, microcode, hardware description language or otherwise, includes instructions, instruction sets, code, code segments, program code, programs, subprograms, and software modules. , applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like.
  • software, instructions, information, etc. may be transmitted and received via a transmission medium.
  • the software uses at least one of wired technology (coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), etc.) and wireless technology (infrared, microwave, etc.) to website, Wired and/or wireless technologies are included within the definition of transmission medium when sent from a server or other remote source.
  • wired technology coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), etc.
  • wireless technology infrared, microwave, etc.
  • data, instructions, commands, information, signals, bits, symbols, chips, etc. may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of
  • system and “network” used in this disclosure are used interchangeably.
  • information, parameters, etc. described in the present disclosure may be expressed using absolute values, may be expressed using relative values from a predetermined value, or may be expressed using other corresponding information. may be represented.
  • determining and “determining” used in this disclosure may encompass a wide variety of actions.
  • “Judgement” and “determination” are, for example, judging, calculating, computing, processing, deriving, investigating, looking up, search, inquiry (eg, lookup in a table, database, or other data structure), ascertaining as “judged” or “determined”, and the like.
  • “judgment” and “decision” are used for receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, access (accessing) (for example, accessing data in memory) may include deeming that something has been "determined” or "decided”.
  • judgment and “decision” are considered to be “judgment” and “decision” by resolving, selecting, choosing, establishing, comparing, etc. can contain.
  • judgment and “decision” can include considering that some action is “judgment” and “decision”.
  • judgment (decision) may be read as “assuming”, “expecting”, “considering”, or the like.
  • connection means any direct or indirect connection or coupling between two or more elements, It can include the presence of one or more intermediate elements between two elements being “connected” or “coupled.” Couplings or connections between elements may be physical, logical, or a combination thereof. For example, “connection” may be read as "access”.
  • two elements are defined using at least one of one or more wires, cables, and printed electrical connections and, as some non-limiting and non-exhaustive examples, in the radio frequency domain. , electromagnetic energy having wavelengths in the microwave and optical (both visible and invisible) regions, and the like.
  • any reference to elements using the "first,” “second,” etc. designations used in this disclosure does not generally limit the quantity or order of those elements. These designations may be used in this disclosure as a convenient method of distinguishing between two or more elements. Thus, reference to a first and second element does not imply that only two elements can be employed or that the first element must precede the second element in any way.
  • a and B are different may mean “A and B are different from each other.”
  • the term may also mean that "A and B are different from C”.
  • Terms such as “separate,” “coupled,” etc. may also be interpreted in the same manner as “different.”

Abstract

検知線を自動で決定することを課題とする。検知線決定装置1は、道路が含まれる道路画像において、道路上に設定される仮想的な検知線であって道路を移動する対象が跨いだことで当該対象の通過を検知する検知線を決定する検知線決定装置1であって、道路画像において道路の輪郭を示す複数の輪郭線を抽出する抽出部12と、抽出部12によって抽出された複数の輪郭線のうち2つの輪郭線それぞれにおける点を結ぶ線を検知線候補として算出する算出部13と、算出部13によって算出された検知線候補に基づいて検知線を決定する決定部14と、を備える。算出部13は、2つの輪郭線それぞれにおける点同士の距離に基づいて検知線候補を算出してもよい。2つの輪郭線それぞれにおける点は、輪郭線上のサンプリングされた点であってもよい。

Description

検知線決定装置
 本開示の一側面は、道路上に設定される仮想的な検知線であって道路を移動する対象が跨いだことで当該対象の通過を検知する検知線を決定する検知線決定装置に関する。
 下記特許文献1では、車両の通行する所定のエリアの撮像画像において設定された通過線に基づいて、車両領域が当該通過線を跨いだことを検出して車両の通過を判断する交通量計測装置が開示されている。
特開2021-86467号公報
 上記交通量計測装置において、通過線は、操作者が撮像画像をディスプレイで見ながら手動で決定する必要がある(特許文献1の段落0063参照)。そこで、通過線を自動で決定することが望まれている。
 本開示の一側面に係る検知線決定装置は、道路が含まれる道路画像において、道路上に設定される仮想的な検知線であって道路を移動する対象が跨いだことで当該対象の通過を検知する検知線を決定する検知線決定装置であって、道路画像において道路の輪郭を示す複数の輪郭線を抽出する抽出部と、抽出部によって抽出された複数の輪郭線のうち2つの輪郭線それぞれにおける点を結ぶ線を検知線候補として算出する算出部と、算出部によって算出された検知線候補に基づいて検知線を決定する決定部と、を備える。
 このような側面においては、検知線決定装置により検知線が決定される。すなわち、検知線を自動で決定することができる。
 本開示の一側面によれば、検知線を自動で決定することができる。
実施形態に係る検知線決定装置の機能構成の一例を示す図である。 連続撮像画像の一例を示す図である。 図2に示す連続撮像画像のうちの少なくとも1つの道路画像の一例を示す図である。 図3に示す画像に対してSemantic Segmentationを実行した後の画像の一例を示す図である。 図4に示す車道領域にノイズが含まれる場合の車道領域の一例を示す図である。 図5に示す車道領域に対して拡大処理を実行した後の車道領域の一例を示す図である。 図6に示す車道領域に対して縮小処理を実行した後の車道領域の一例を示す図である。 車道領域の一例を示す図である。 図8に示す車道領域に対してエッジ検出を実行した後のエッジの一例を示す図である。 図9に示すエッジに対してクラスタリングした後の線分の一例を示す図である。 図10に示す線分a及び線分bとの組み合わせから算出された検知線候補の一例を示す図である。 図10に示す線分a及び線分cとの組み合わせから算出された検知線候補の一例を示す図である。 図10に示す線分b及び線分cとの組み合わせから算出された検知線候補の一例を示す図である。 図11~図13に示す検知線候補を重畳した図である。 図14に示す検知線候補の角度によるヒストグラムの一例を示す図である。 対象の移動ベクトルと検知線候補との関係の一例を示す図である。 検知線候補に対してクラスタリングした後のクラスタの一例を示す図である。 図17に示すクラスタに基づいて決定された検知線の一例を示す図である。 実施形態に係る検知線決定装置が実行する検知線決定処理の一例を示すフローチャートである。 交差点に対して決定された検知線の一例を示す図である。 実施形態に係る検知線決定装置が実行する交通量可視化処理の別の一例を示すフローチャートである。 車種ごとの台数を示す円グラフの一例を示す図である。 時間帯ごとの合計台数を示す棒グラフの一例を示す図である。 交通量の分布を示す地図上のヒートマップの一例を示す図である。 実施形態に係る検知線決定装置で用いられるコンピュータのハードウェア構成の一例を示す図である。
 以下、図面を参照しながら本開示での実施形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。また、以下の説明における本開示での実施形態は、本発明の具体例であり、特に本発明を限定する旨の記載がない限り、これらの実施形態に限定されないものとする。
 実施形態に係る検知線決定装置1(検知線決定装置)は、道路が含まれる道路画像において(1つ以上の)検知線を決定(設定)する。
 道路は、対象が移動(通行、往来)するみち(道、路)である。
 対象は、道路を移動する物、人及び動物などである。例えば、対象は、乗用車、大型貨物車、バス、自動二輪車及び自転車などを含む車両、又は、人(歩行者)であるが、これらに限るものではない。
 道路画像は、道路が含まれる(映り込んでいる、示されている)画像である。例えば、道路画像は、道路を含む風景(景色、光景)をカメラなどで撮像した画像又は道路地図の画像であるが、これらに限るものではない。道路画像は、道路を連続的に(かつ固定的に)撮像して得られた複数の画像である連続撮像画像(動画像、動画)の1つであってもよい。
 検知線は、(道路画像の)道路上に設定される仮想的な線である。検知線は、直線(まっすぐな線)、曲線(連続的に曲がっている線)、角がある線、又は、それら複数を含む線など任意の線であってもよい。検知線は、道路を移動する対象が(当該検知線を)跨いだこと(当該検知線を境界として片方からもう片方に移動したこと)で当該対象の(道路上に設定された当該検知線の)通過を(検知線決定装置1などの装置が)検知するための線である。
 すなわち、検知線決定装置1は、道路が含まれる道路画像において、道路上に設定される仮想的な検知線であって道路を移動する対象が跨いだことで当該対象の通過を検知する検知線を決定する。
 道路画像において検知線を決定するとは、例えば、道路画像のピクセルがxy座標で表される場合に、道路画像において、直線で示される検知線の始点(片方)のピクセルのxy座標と終点(もう片方)のピクセルのxy座標を決定することであるが、これに限るものではない。
 検知線決定装置1によって決定された道路画像における検知線は、当該検知線決定装置1又は他の装置などによって、道路画像が示す道路において対象の通過を検知する目的で利用されてもよい。
 図1は、検知線決定装置1の機能構成の一例を示す図である。図1に示す通り、検知線決定装置1は、格納部10、取得部11、抽出部12(抽出部)、算出部13(算出部)、決定部14(決定部)、受付部15(受付部)、計測部16及び出力部17を含んで構成される。
 検知線決定装置1の各機能ブロックは、検知線決定装置1内にて機能することを想定しているが、これに限るものではない。例えば、検知線決定装置1の機能ブロックの一部は、検知線決定装置1とは異なるコンピュータ装置であって、検知線決定装置1とネットワーク接続されたコンピュータ装置内において、検知線決定装置1と情報を適宜送受信しつつ機能してもよい。また、検知線決定装置1の一部の機能ブロックは無くてもよいし、複数の機能ブロックを一つの機能ブロックに統合してもよいし、一つの機能ブロックを複数の機能ブロックに分解してもよい。
 以下、図2に示す検知線決定装置1の各機能について説明する。
 格納部10は、検知線決定装置1における算出などで利用される任意の情報及び検知線決定装置1における算出の結果などを格納する。格納部10によって格納された情報は、検知線決定装置1の各機能によって適宜参照されてもよい。
 取得部11は、道路画像を取得する。取得部11は、ネットワークを介して他の装置から道路画像を取得してもよいし、格納部10によって予め格納された道路画像を取得してもよい。取得部11は、取得した道路画像を、検知線決定装置1の他の機能ブロックに出力してもよいし、格納部10によって格納させてもよい。
 取得部11は、連続撮像画像を取得し、取得した連続撮像画像の中から任意の基準を満たす少なくとも1つ(1枚)の道路画像を取得(抽出)してもよい。例えば、任意の基準を満たす1つの道路画像は、連続撮像画像のうち先頭の道路画像(フレーム)であってもよいし、連続撮像画像のうち中間の道路画像(フレーム)であってもよい。
 図2は、連続撮像画像の一例を示す図である。図2に示す通り、連続撮像画像は複数の画像から構成される。図3は、図2に示す連続撮像画像のうちの少なくとも1つの道路画像の一例を示す図である。
 抽出部12は、道路画像において道路の輪郭を示す複数の輪郭線を抽出する。より具体的には、抽出部12は、取得部11によって取得(出力)された道路画像に対して、輪郭線を抽出する画像処理を行うことで、複数(2つ以上)の輪郭線を抽出する。抽出部12は、抽出した複数の輪郭線に関する情報を、検知線決定装置1の他の機能ブロックに出力してもよいし、格納部10によって格納させてもよい。
 抽出部12による処理の具体例を、図4~図10を参照しながら説明する。
 まず、道路画像から車道領域を抽出する処理を説明する。図4は、図3に示す道路画像に対してSemantic Segmentationを実行した後の画像の一例を示す図である。Semantic Segmentationは、既存技術であり、ピクセルレベルで画像内に何があるかを認識するため、画像の各ピクセルを特定のラベルに所属するよう分類する処理である。Semantic Segmentationを実行することで、画像が意味的な領域に分割される。図4に示す画像では、車道Rの領域と、歩道Sの領域と、境界ブロックBの領域とに分割されている。つまり、道路画像に対してSemantic Segmentationを実行することで車道Rの領域(及びその他の各種領域)を抽出することができる。以降の処理では抽出した車道Rの領域を処理対象とするが、歩道Sの領域又は境界ブロックBの領域の少なくとも一方をさらに含んだ領域を処理対象としてもよい。
 抽出部12は、抽出した車道Rの領域内に認識(検知)漏れによる穴がある場合、拡張及び縮小などの画像処理を行ってノイズを処理してもよい。図5は、図4に示す車道領域(車道Rの領域)にノイズが含まれる場合の車道領域の一例を示す図である。図5に示す通り、車道Rの領域に、3つのノイズ(白抜きの四角形領域)が含まれている。図6は、図5に示す車道領域に対して拡大処理を実行した後の車道領域の一例を示す図である。図6に示す通り、拡大処理を実行することで3つのノイズが消えている。図7は、図6に示す車道領域に対して縮小処理を実行した後の車道領域の一例を示す図である。縮小処理を実行することで、拡大処理を実行する前の車道Rの領域(図5に示す車道Rの領域)と同様の大きさに戻す。この一連の画像処理によって、図5に示していたノイズを、図7に示す通り消すことができる。
 次に、抽出した車道領域から複数の輪郭線を抽出する処理を説明する。図8は、処理対象である車道領域(車道Rの領域)の一例を示す図である。図9は、図8に示す車道領域に対してエッジ検出を実行した後のエッジの一例を示す図である。エッジ検出は、既存技術であり、画像のうち不連続に変化している箇所(エッジ、境界)を特定する処理である。エッジ検出の一例として、単純な方法だとSobelフィルタが挙げられるが、これに限るものではない。エッジ検出を実行した後の段階では、後述の線分として認識できていない状態であり、画像端で閉じていない状態である。
 図10は、図9に示すエッジに対してクラスタリングした後の線分(輪郭線)の一例を示す図である。実施形態における線分は、まっすぐな線だけに限らず、まっすぐな線、角又は曲線の少なくとも一つを含む線とする。図10では、3つの輪郭線である線分a、線分b及び線分cが抽出されている。エッジ検出では線(より正確には点集合)のみを検出するため、どの点集合がひとつの塊であるのかが分かっていない状態である。つまり、図9の左上の角、右上の角及び下部の線の3つを3つとして個別識別できておらず、例えば、上部の角二つで1つ、下部の線一つで1つという可能性もあり得てしまう。そのため、クラスタリングすることで、個々を識別している。クラスタリングの一例として、点同士の距離を使う方法、及び、点の連結性をみる方法などが挙げられるが、これらに限るものではない。
 以上の通り、抽出部12は、道路画像から車道Rの領域を抽出し、抽出した車道Rの領域に対して画像処理を行うことで複数の輪郭線を抽出し、輪郭を線分として個別に識別する。
 算出部13は、抽出部12によって抽出(出力)された複数の輪郭線のうち2つの輪郭線それぞれにおける点を結ぶ線を検知線候補として算出する。算出部13は、2つの輪郭線それぞれにおける点同士の距離に基づいて検知線候補を算出してもよい。2つの輪郭線それぞれにおける点は、輪郭線上のサンプリングされた点であってもよい。算出部13は、算出した検知線候補に関する情報を、検知線決定装置1の他の機能ブロックに出力してもよいし、格納部10によって格納させてもよい。
 算出部13による処理の具体例を、図11~図14を参照しながら説明する。
 まず、算出部13は、抽出部12によって抽出された複数の輪郭線のうち2つの輪郭線を選択する。選択としては、全ての組み合わせを選択してもよいし、任意の基準を満たす1つ以上の任意の組み合わせを選択してもよい。本具体例では全ての組み合わせを選択する。次に、算出部13は、選択した組み合わせそれぞれの2つの輪郭線について、片方の輪郭線における点(輪郭線上の点)ともう片方の輪郭線における点(輪郭線上の点)とを選択し、選択した点同士を結ぶ線を検知線候補として算出する。
 2つの輪郭線それぞれの点の選択は、任意の基準を満たす点の選択であってもよい。本具体例では、2つの輪郭線それぞれにおける点は、輪郭線上のサンプリングされた点から選択する。これは、例えば輪郭線上の全ピクセル点から選択した場合、膨大な数になるためである。また、本具体例では、2つの輪郭線それぞれにおける点同士の距離に基づいて検知線候補を算出する。より具体的には、既存技術であるDTW(Dynamic Time Warping;動的時間伸縮法)を用いて検知線候補を算出する。DTWは、時系列データ同士の距離・類似度を測る際に用いる手法であり、2つの時系列の各点の距離を総当たりで求め、2つの時系列が最短となる点同士を選択する手法である。算出部13は、DTWを用いて2つの線分ごとに長さの異なる線分に対して要素間を対応づけることで、検知線候補を算出するとも言える。
 図11は、図10に示す線分a及び線分bとの組み合わせから算出された検知線候補の一例を示す図である。線分a及び線分bそれぞれにおいてN(Nは整数)点間隔でサンプリングされた点について、DTWで対応をとって算出された検知線候補が、図11における点線で示されている。すなわち、DTWで利用する点は、サンプリングされたものである。以降の図においても、検知線候補は点線で示される。
 図11と同様に、図12は、図10に示す線分a及び線分cとの組み合わせから算出された検知線候補の一例を示す図である。線分a及び線分cそれぞれにおいてN点間隔でサンプリングされた点について、DTWで対応をとって算出された検知線候補が、図12における点線で示されている。
 図11と同様に、図13は、図10に示す線分b及び線分cとの組み合わせから算出された検知線候補の一例を示す図である。線分b及び線分cそれぞれにおいてN点間隔でサンプリングされた点について、DTWで対応をとって算出された検知線候補が、図13における点線で示されている。
 図11~図13で示したように、3つの輪郭線である線分a、線分b及び線分cから、線分a及び線分bとの組み合わせと、線分a及び線分cとの組み合わせと、線分b及び線分cとの組み合わせとの全ての組み合わせが選択されている。
 図14は、図11~図13に示す検知線候補を重畳した図である。
 決定部14は、算出部13によって算出(出力)された検知線候補に基づいて検知線を決定する。決定部14は、検知線候補を所定の基準でそれぞれスコア化し、スコアに基づいて検知線を決定してもよい。決定部14は、決定した検知線に関する情報を、検知線決定装置1の他の機能ブロックに出力してもよいし、後述の出力装置1006であるディスプレイに表示してもよいし、他の装置に出力(送信)してもよいし、格納部10によって格納させてもよい。
 以下では、算出部13による様々な決定方法の具体例を説明する。これら具体例のうち複数を組み合わせた決定方法としてもよい。
 決定部14は、検知線候補の角度に基づいて検知線を決定してもよい。決定部14は、検知線候補の角度によるヒストグラムに基づいて検知線を決定してもよい。図15は、図14(又は図11~図13)に示す検知線候補の角度によるヒストグラムの一例を示す図である。例えば、決定部14は、ヒストグラムのうち所定の閾値よりも度数が大きい角度の検知線候補を、検知線として決定してもよい。決定部14は、閾値処理などによって角度(方向)数を決定し、この数より大きい角度の検知線候補を、検知線として決定してもよい。決定部14は、検知線候補の角度によるヒストグラムの度数をスコアとして、スコアに基づいて検知線を決定してもよい(例えば、スコアが高いほど検知線として決定する確率が高くなるなど)。
 決定部14は、対象の移動方向に基づいて検知線を決定してもよい。決定部14は、対象の移動方向に基づいて方向別の検知線を決定してもよい。決定部14は、連続撮像画像に基づいて算出された対象の移動方向を用いてもよい。
 図16は、対象の移動ベクトルと検知線候補との関係の一例を示す図である。対象(図中では乗用車)の移動ベクトルは、決定部14、検知線決定装置1又は他の装置などにより、連続撮像画像に基づいて既存技術で算出される。例えば、連続撮像画像のうち時系列的に近い複数の道路画像に含まれる同一の対象の位置の差分に基づいて移動ベクトルが算出されてもよい。歩行者の移動ベクトルは、歩行者の歩行の軌跡の方向から分布を求め、最頻方向に基づいて算出してもよい。移動ベクトルは、移動方向と移動速度とを含む。実施形態において、移動ベクトルを移動方向に置き換えてもよい(すなわち移動速度を含まなくてもよい)。道路画像において対象が複数存在する場合、それぞれの対象の移動ベクトルに基づく移動ベクトル(例えばそれぞれの対象の移動ベクトルを平均化したベクトル)を算出し、算出した移動ベクトルを用いてもよい。図16に示すように、決定部14は、算出された移動ベクトルに対して内積が小さい(内積が所定の閾値以下の)検知線候補、例えば直角又は直角に近い検知線候補を検知線として決定してもよい。決定部14は、移動ベクトルとの内積の逆数をスコアとして、スコアに基づいて検知線を決定してもよい(例えば、スコアが高い、すなわち内積が小さいほど検知線として決定する確率が高くなるなど)。
 決定部14は、算出された移動ベクトルに対して反時計回り(例えば反時計回りに90度)又は時計回り(例えば時計回りに90度)になる検知線候補を方向別の検知線として決定してもよい。具体例を挙げて説明する。複数の対象の移動ベクトルを算出した結果、(道路画像に向かって)右から左に向かうベクトルV1と、左から右へ向かうベクトルV2とが算出されたとする。ベクトルV1及びベクトルV2の2つそれぞれに直交する(反時計回りに90度の)ベクトルは、上から下に向かうベクトルV3と、下から上に向かうベクトルV4の2つがあり得る。そこで、「反時計回りにV1及びV2を回転させたベクトル」と規定することで、V1に対応する検知線をV3、V2に対応する検知線をV4という具合に方向別で決定できる。
 決定部14は、検知線候補をクラスタリングした結果のクラスタに基づいて検知線を決定してもよい。図17は、検知線候補に対してクラスタリングした後のクラスタの一例を示す図である。図17に示す通り、検知線候補に対してクラスタリングした結果、線分a及び線分bとの組み合わせから算出された検知線候補に対してクラスタC1が生成され、線分a及び線分cとの組み合わせから算出された検知線候補に対してクラスタC2が生成され、線分b及び線分cとの組み合わせから算出された検知線候補に対してクラスタC3が生成されている。クラスタC1、クラスタC2及びクラスタC3それぞれのクラスタ重心が、クラスタ重心G1、クラスタ重心G2及びクラスタ重心G3である。決定部14は、クラスタを構成する検知線候補について、当該クラスタのクラスタ重心(自分のクラスタ重心)との距離dの逆数をスコアとして、スコアに基づいて検知線を決定してもよい(例えば、スコアが高い、すなわちクラスタ重心に近いほど検知線として決定する確率が高くなるなど)。決定部14は、クラスタごとに所定の数(例えば、1つ)の検知線を決定してもよい。
 図18は、図17に示すクラスタに基づいて決定された検知線の一例を示す図である。図18では、クラスタC1、クラスタC2及びクラスタC3それぞれにおいて、クラスタ重心G1、クラスタ重心G2及びクラスタ重心G3それぞれに対して最も距離が近い(各クラスタでスコアが大きい)検知線である検知線L1、検知線L2及び検知線L3が決定されている。
 決定部14は、検知線候補の長さに基づいて検知線を決定してもよい。例えば、決定部14は、検知線候補の長さの分布を算出し、所定の基準を満たす検知線候補を検知線として決定してもよい。決定部14は、検知線候補の長さの分布を算出し、中央値に近い検知線候補(中央値から所定の幅にある検知線候補)を検知線として決定してもよい。なぜなら、検知線候補の長さが極端に短いものはノイズの可能性が高く、検知線候補の長さが長いものは図14に示すように交差点をクロスする(車道Rの領域をはみ出す)形状の可能性が高いためである。決定部14は、検知線候補の長さの分布に対して中央値に近いほど高いスコアとして、スコアに基づいて検知線を決定してもよい。
 受付部15は、決定部14によって決定(出力)された検知線をユーザに提示すると共にユーザによる選定又は修正を受け付け、ユーザにより選定又は修正された検知線を決定部14によって決定された検知線とする。ユーザへの提示は、ディスプレイなどの後述の出力装置1006を介して行われてもよい。ユーザからの受け付けは、マウス及びキーボードなどの後述の入力装置1005を介して行われてもよい。受付部15は、ユーザからの追加(新規)の検知線をさらに受け付け、当該検知線を決定部14によって決定された検知線としてもよい。受付部15は、決定された検知線に関する情報を、検知線決定装置1の他の機能ブロックに出力してもよいし、格納部10によって格納させてもよい。
 受付部15は、決定部14によって生成されたクラスタごとの検知線(当該クラスタに基づいて決定された検知線)をユーザに提示してもよい。これにより、ユーザはクラスタごとに検知線を選定することができる。
 受付部15は、決定部14によってスコア化された検知線のスコアに基づいて、検知線をユーザに提示してもよい。例えば、スコアが上位M(Mは整数)個(TOP M)の検知線をユーザに提示してもよい。
 計測部16は、決定部14によって決定(出力)された検知線に基づいて、道路における対象の通過を検知し、通過に基づく情報を計測する。計測部16は、計測結果を、検知線決定装置1の他の機能ブロックに出力してもよいし、格納部10によって格納させてもよい。
 出力部17は、計測部16によって計測(出力)された計測結果を出力する。具体的には、出力部17は、計測結果を、後述の出力装置1006であるディスプレイなどに表示してもよいし、ネットワークを介して他の装置に送信してもよいし、格納部10によって格納させてもよい。
 続いて、図19を参照しながら、検知線決定装置1が実行する検知線決定処理の例を説明する。図19は、検知線決定装置1が実行する検知線決定処理の一例を示すフローチャートである。
 まず、抽出部12が、道路画像において道路の輪郭を示す複数の輪郭線を抽出する(ステップS1、抽出ステップ)。次に、算出部13が、S1にて抽出された複数の輪郭線のうち2つの輪郭線それぞれにおける点を結ぶ線を検知線候補として算出する(ステップS2、算出ステップ)。次に、決定部14が、S3にて算出された検知線候補に基づいて検知線を決定する(ステップS3、決定ステップ)。
 続いて、図20~図24を参照しながら、検知線決定装置1を用いた交通量可視化の具体例について説明する。本具体例では、可搬式カメラによって撮影した交差点などの映像をもとに、交通量・通行量を推定し、その結果をユーザに統計量として提示する。
 図20は、交差点に対して決定された検知線の一例を示す図である。図20に示す通り、可搬式カメラで撮像された連続撮像画像に基づいて、検知線決定装置1により検知線L_app、検知線L_left、検知線L_str及び検知線L_rightが決定(設定)されている。検知線L_appは、交差点への進入を検知するための進入検知線である。検知線L_leftは、交差点での左折を検知するための左折検知線である。検知線L_strは、交差点での直進を検知するための直進検知線である。検知線L_rightは、交差点での右折を検知するための右折検知線である。左折検知線、直進検知線及び右折検知線を総称して通行方向検知線と呼ぶ。図20に示す通り、検知線決定装置1などにより、道路画像において対象として乗用車(ID:1)、大型貨物車両(ID:2)及び歩行者(ID:3)が抽出されている。可搬式カメラは、GPS(Global Positioning System)を備え、GPSを利用して当該可搬式カメラの現在の位置情報(緯度、経度等)を取得してもよい。そして位置情報を検知線決定装置1に提供することで、検知線決定装置1は道路の位置と絡めた情報を算出及び出力することができる。
 図21は、検知線決定装置1が実行する交通量可視化処理の別の一例を示すフローチャートである。まず、可搬式カメラ(又は固定カメラ)が、交差点を一定時間撮影する(ステップS10)。次に、検知線決定装置1が、撮影動画(連続撮像画像)に対して進入検知線を設定する(ステップS11)。次に、検知線決定装置1が、撮影動画に対して通行方向検知線を設定する(ステップS12)。次に、検知線決定装置1が、検知線決定装置1が、撮影動画に映る車両の車種を認識する(ステップS13)。次に、検知線決定装置1が、撮影動画の動画像のフレーム間に映る車両を追跡する(ステップS14)。次に、検知線決定装置1が、S11で設定された進入検知線の通過を検知する(ステップS15)。次に、検知線決定装置1が、S12で設定された右折検知線、直進検知線又は左折検知線のいずれかの通過を検知する(ステップS16)。次に、検知線決定装置1が、車種ごとに台数を計測する(ステップS17)。次に、検知線決定装置1が、進行方向・車種・時間帯に応じて計測結果を可視化する(ステップS18)。
 図22は、車種ごとの台数を示す円グラフの一例を示す図である。図22に示す円グラフは、例えば上述のS18などで、検知線決定装置1が可視化したものである。図22に示す通り、交差点を通過した対象として、乗用車が10台、大型貨物車が6台、バスが2台、自転車が6台及び歩行者が7人の合計24台・7人が円グラフとして可視化されている。
 図23は、時間帯ごとの合計台数を示す棒グラフの一例を示す図である。図23に示す棒グラフは、例えば上述のS18などで、検知線決定装置1が可視化したものである。図23に示す通り、交差点を通過した対象として、9時台、12時台、15時台、18時台の合計台数が棒グラフとして可視化されている。
 図24は、交通量の分布を示す地図上のヒートマップの一例を示す図である。図24に示すヒートマップは、例えば上述のS18などで、検知線決定装置1が可視化したものである。図24に示す通り、可搬式カメラで取得した位置情報に基づき、地図上にその交通量の分布がヒートマップで可視化されている。ヒートマップ以外にも、例えばマーカーで可視化されてもよい。
 従来の課題について説明する。交通量調査は人手計測が主流であった。常時固定カメラで撮影した動画像による解析は、一部自治体や道路管理者しか対応できず、手軽に交通量を把握することが難しかった。上述の検知線決定装置1を用いた交通量可視化によれば、可搬式なカメラで路面から交差点等を撮影することで、常時固定カメラが設置できない状況下での交通量把握を可能とすることができる。また、スマートフォン等による計測結果の可視化によりユーザへフィードバックを実現することができる。
 続いて、実施形態に係る検知線決定装置1の作用効果について説明する。
 検知線決定装置1によれば、抽出部12が、道路画像において道路の輪郭を示す複数の輪郭線を抽出し、算出部13が、抽出部12によって抽出された複数の輪郭線のうち2つの輪郭線それぞれにおける点を結ぶ線を検知線候補として算出し、決定部14が、算出部13によって算出された検知線候補に基づいて検知線を決定する。この構成により、検知線決定装置1によって検知線が決定される。すなわち、検知線を自動で決定することができる。
 また、検知線決定装置1によれば、算出部13は、2つの輪郭線それぞれにおける点同士の距離に基づいて検知線候補を算出してもよい。この構成により、点同士の距離を考慮した検知線を決定することができる。
 また、検知線決定装置1によれば、2つの輪郭線それぞれにおける点は、輪郭線上のサンプリングされた点であってもよい。この構成により、処理対処とする点が少なくなるため、処理を高速化することができる。
 また、検知線決定装置1によれば、決定部14は、対象の移動方向に基づいて検知線を決定してもよい。この構成により、対象の移動方向を考慮した検知線を決定することができる。
 また、検知線決定装置1によれば、決定部14は、対象の移動方向に基づいて方向別の検知線を決定してもよい。この構成により、対象の移動方向を考慮した、方向別の検知線を決定することができる。
 また、検知線決定装置1によれば、道路画像は、道路を連続的に撮像して得られた連続撮像画像の1つであり、決定部14は、連続撮像画像に基づいて算出された対象の移動方向を用いてもよい。この構成により、対象の移動方向をより確実に用いることができる。
 また、検知線決定装置1によれば、決定部14は、検知線候補をクラスタリングした結果のクラスタに基づいて検知線を決定してもよい。この構成により、クラスタに基づいて検知線が決定されるため、例えば類似した検知線候補から代表となる検知線を決定することができる。
 また、検知線決定装置1によれば、決定部14は、検知線候補の長さに基づいて検知線を決定してもよい。この構成により、検知線候補の長さに基づいて検知線が決定されるため、例えばノイズの可能性が高い極端に短い検知線候補を排除できるなど、より適切な検知線を決定することができる。
 また、検知線決定装置1によれば、決定部14は、検知線候補を所定の基準でそれぞれスコア化し、スコアに基づいて検知線を決定してもよい。この構成により、所定の基準に沿った検知線を決定することができる。
 また、検知線決定装置1によれば、受付部15が、決定部14によって決定された検知線をユーザに提示すると共にユーザによる選定又は修正を受け付け、ユーザにより選定又は修正された検知線を決定部14によって決定された検知線としてもよい。この構成により、ユーザの選定又は修正を反映した検知線を決定することができる。
 検知線決定装置1は、動画像を用いた交通量可視化システムと言える。
 検知線決定装置1は、車両の通行方向ごとの台数計測に利用する検知線を以下のような方法で自動生成し、ユーザを支援してもよい。
(1)車道領域をSemantic Segmentationによって抽出。
・歩道や境界ブロックを含んでもよい。
・抽出した車道領域内に検知漏れによる穴がある場合、拡張及び縮小等の画像処理でノイズを処理してもよい。
(2)画像処理によって輪郭線を取得し、輪郭を線分として個別に認識する。
(3)2つの線分ごとに長さの異なる線分に対して要素間を対応づけ(DTW)、検知候補線を生成。
・DTWで利用する点は、サンプリングしてもよい。
・動画像から車両の移動ベクトルを取得し、これに対して直角な方向(内積が小さい)をもつ検知線を候補として絞っても良い。
・複数車両いる場合は、移動ベクトルを平均化したベクトルを使ってもよい。
・この移動ベクトルに対して反時計回りになる検知線候補を使い、方向別に生成も可能である。
(4)検知候補線をクラスタリングし、クラスタ重心に近いものほどスコアを高し、クラスタごとにユーザへ提案。
・検知候補線の長さの分布を算出し、中央値に近いもののみにフィルタリングしてもよい(極端に短いものはノイズの可能性が高く、長いものは交差点をクロスする形状の可能性が高い)。
・最終的なスコアに基づき、TOP M個を提案してもよい。
・提案した検知線に対してはユーザによる修正や追加を受け付けてもよい。
 なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
 機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。
 例えば、本開示の一実施の形態における検知線決定装置1などは、本開示の検知線決定方法の処理を行うコンピュータとして機能してもよい。図25は、本開示の一実施の形態に係る検知線決定装置1のハードウェア構成の一例を示す図である。上述の検知線決定装置1は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
 なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。検知線決定装置1のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
 検知線決定装置1における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
 プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。例えば、上述の取得部11、抽出部12、算出部13、決定部14、受付部15、計測部16及び出力部17などは、プロセッサ1001によって実現されてもよい。
 また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、取得部11、抽出部12、算出部13、決定部14、受付部15、計測部16及び出力部17は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
 メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
 ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。
 通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置1004は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。例えば、上述の取得部11、抽出部12、算出部13、決定部14、受付部15、計測部16及び出力部17などは、通信装置1004によって実現されてもよい。
 入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
 また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
 また、検知線決定装置1は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
 情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。
 本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、NR(new Radio)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE-Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。
 本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
 入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
 判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
 本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
 以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。
 ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
 また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
 本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
 なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
 本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。
 また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
 上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。
 本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。
 「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。
 本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
 本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
 上記の各装置の構成における「手段」を、「部」、「回路」、「デバイス」等に置き換えてもよい。
 本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
 本開示において、例えば、英語でのa、an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
 本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
 1…検知線決定装置、10…格納部、11…取得部、12…抽出部、13…算出部、14…決定部、15…受付部、16…計測部、17…出力部、1001…プロセッサ、1002…メモリ、1003…ストレージ、1004…通信装置、1005…入力装置、1006…出力装置、1007…バス、a・b・c…線分、d…距離、B…境界ブロック、C1・C2・C3…クラスタ、G1・G2・G3…クラスタ重心、L1・L2・L3・L_app・L_left・L_str・L_right…検知線、R…車道、S…歩道。

Claims (10)

  1.  道路が含まれる道路画像において、道路上に設定される仮想的な検知線であって道路を移動する対象が跨いだことで当該対象の通過を検知する検知線を決定する検知線決定装置であって、
     道路画像において道路の輪郭を示す複数の輪郭線を抽出する抽出部と、
     前記抽出部によって抽出された複数の輪郭線のうち2つの輪郭線それぞれにおける点を結ぶ線を検知線候補として算出する算出部と、
     前記算出部によって算出された検知線候補に基づいて検知線を決定する決定部と、
     を備える検知線決定装置。
  2.  前記算出部は、2つの輪郭線それぞれにおける点同士の距離に基づいて検知線候補を算出する、
     請求項1に記載の検知線決定装置。
  3.  2つの輪郭線それぞれにおける点は、輪郭線上のサンプリングされた点である、
     請求項1又は2に記載の検知線決定装置。
  4.  前記決定部は、前記対象の移動方向に基づいて検知線を決定する、
     請求項1~3の何れか一項に記載の検知線決定装置。
  5.  前記決定部は、前記対象の移動方向に基づいて方向別の検知線を決定する、
     請求項1~4の何れか一項に記載の検知線決定装置。
  6.  道路画像は、道路を連続的に撮像して得られた連続撮像画像の1つであり、
     前記決定部は、連続撮像画像に基づいて算出された前記対象の移動方向を用いる、
     請求項4又は5に記載の検知線決定装置。
  7.  前記決定部は、検知線候補をクラスタリングした結果のクラスタに基づいて検知線を決定する、
     請求項1~6の何れか一項に記載の検知線決定装置。
  8.  前記決定部は、検知線候補の長さに基づいて検知線を決定する、
     請求項1~7の何れか一項に記載の検知線決定装置。
  9.  前記決定部は、検知線候補を所定の基準でそれぞれスコア化し、スコアに基づいて検知線を決定する、
     請求項1~8の何れか一項に記載の検知線決定装置。
  10.  前記決定部によって決定された検知線をユーザに提示すると共にユーザによる選定又は修正を受け付け、ユーザにより選定又は修正された検知線を前記決定部によって決定された検知線とする受付部をさらに備える、
     請求項1~9の何れか一項に記載の検知線決定装置。
PCT/JP2022/039547 2021-12-27 2022-10-24 検知線決定装置 WO2023127250A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-212036 2021-12-27
JP2021212036 2021-12-27

Publications (1)

Publication Number Publication Date
WO2023127250A1 true WO2023127250A1 (ja) 2023-07-06

Family

ID=86998612

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/039547 WO2023127250A1 (ja) 2021-12-27 2022-10-24 検知線決定装置

Country Status (1)

Country Link
WO (1) WO2023127250A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140195138A1 (en) * 2010-11-15 2014-07-10 Image Sensing Systems, Inc. Roadway sensing systems
JP2019207651A (ja) * 2018-05-30 2019-12-05 株式会社Ihi 検知装置及び検知システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140195138A1 (en) * 2010-11-15 2014-07-10 Image Sensing Systems, Inc. Roadway sensing systems
JP2019207651A (ja) * 2018-05-30 2019-12-05 株式会社Ihi 検知装置及び検知システム

Similar Documents

Publication Publication Date Title
Anandhalli et al. A novel approach in real-time vehicle detection and tracking using Raspberry Pi
US11486727B2 (en) Map generation device, map generation method, and map generation computer program
TWI452540B (zh) 影像式之交通參數偵測系統與方法及電腦程式產品
JP5127182B2 (ja) 物体検出装置
WO2019114036A1 (zh) 人脸检测方法及装置、计算机装置和计算机可读存储介质
JP2018523877A (ja) オブジェクト追跡のためのシステムおよび方法
JP6595375B2 (ja) 交通状況解析装置、交通状況解析方法、及び、交通状況解析プログラム
Tschentscher et al. Scalable real-time parking lot classification: An evaluation of image features and supervised learning algorithms
US9349207B2 (en) Apparatus and method for parsing human body image
Zhao et al. Automated traffic surveillance system with aerial camera arrays imagery: Macroscopic data collection with vehicle tracking
Ash et al. Real-time pedestrian traffic light detection
JP2014059655A (ja) 道路状況監視装置、及び道路状況監視方法
JP2009276910A (ja) 画像処理装置、方法及びプログラム
KR20200071655A (ko) 교통상황 정보 제공 장치 및 방법
EP3522073A1 (en) Method and apparatus for detecting road surface marking
WO2023127250A1 (ja) 検知線決定装置
JP6922951B2 (ja) 画像処理装置および画像処理方法
JP2016189084A (ja) 車両状態判定装置
US9183448B2 (en) Approaching-object detector, approaching object detecting method, and recording medium storing its program
Morales Rosales et al. On-road obstacle detection video system for traffic accident prevention
JP5772321B2 (ja) 車両検出装置、車両検出方法及びプログラム
WO2021192873A1 (ja) 測位システム
Xie et al. Dynamic Dual-Peak Network: A real-time human detection network in crowded scenes
JP4479174B2 (ja) 物体検出装置
JP2019124985A (ja) 車両検知器、車両検知方法、および車両検知プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22915484

Country of ref document: EP

Kind code of ref document: A1