WO2017056525A1 - 車載器および車頭間距離算出方法 - Google Patents

車載器および車頭間距離算出方法 Download PDF

Info

Publication number
WO2017056525A1
WO2017056525A1 PCT/JP2016/057031 JP2016057031W WO2017056525A1 WO 2017056525 A1 WO2017056525 A1 WO 2017056525A1 JP 2016057031 W JP2016057031 W JP 2016057031W WO 2017056525 A1 WO2017056525 A1 WO 2017056525A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
distance
dictionary
feature amount
unit
Prior art date
Application number
PCT/JP2016/057031
Other languages
English (en)
French (fr)
Inventor
鈴木 美彦
佐藤 俊雄
横井 謙太朗
雄介 高橋
上野 秀樹
浩 堺
Original Assignee
株式会社東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝 filed Critical 株式会社東芝
Priority to AU2016330733A priority Critical patent/AU2016330733A1/en
Publication of WO2017056525A1 publication Critical patent/WO2017056525A1/ja
Priority to AU2020200802A priority patent/AU2020200802B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • Embodiments of the present invention relate to an on-vehicle device and a head-to-head distance calculation method.
  • Pattern recognition technology is widely used in an object detection apparatus that detects an object such as a vehicle included in a camera image obtained by imaging the front of the vehicle with a camera.
  • the object detection device it is possible to detect the object from the camera video using the pattern recognition technique and calculate the distance from the camera that captured the image to the detected object.
  • the distance from the camera to the tip of the detection target object cannot be calculated, and the detection target object from the camera cannot be calculated. Only the distance to the rear end can be calculated.
  • the vehicle-mounted device of the embodiment includes a reception unit, a storage unit, an extraction unit, a determination unit, and a calculation unit.
  • the receiving unit receives a first image obtained by imaging the front of the first vehicle by the imaging unit.
  • storage part memorize
  • An extraction part extracts the feature-value of the 2nd vehicle in a 1st image.
  • the determination unit reads a dictionary of the vehicle model to be determined from the storage unit, and determines the vehicle type of the second vehicle based on the similarity between the feature value included in the read dictionary and the feature value of the second vehicle.
  • the calculation unit obtains a first distance from the front end of the first vehicle to the rear end of the second vehicle based on the first image, and calculates the first distance and the vehicle length of the vehicle belonging to the vehicle type determined by the determination unit. The sum is calculated as the second distance from the tip of the first vehicle to the tip of the second vehicle.
  • FIG. 1 is a diagram illustrating an example of a configuration of a traffic information detection system according to the first embodiment.
  • FIG. 2 is a diagram illustrating an example of a configuration of a probe car included in the traffic information detection system according to the first embodiment.
  • FIG. 3 is a block diagram illustrating an example of a functional configuration of an information processing unit included in the probe car according to the first embodiment.
  • FIG. 4 is a diagram for explaining an example of the calculation process of the inter-head distance in the probe car according to the first embodiment.
  • FIG. 5 is a flowchart illustrating an example of a schematic flow of a process for calculating the inter-vehicle distance by the probe car according to the first embodiment.
  • FIG. 1 is a diagram illustrating an example of a configuration of a traffic information detection system according to the first embodiment.
  • FIG. 2 is a diagram illustrating an example of a configuration of a probe car included in the traffic information detection system according to the first embodiment.
  • FIG. 3 is a block diagram illustrating an
  • FIG. 6 is a flowchart illustrating an example of a flow of calculation processing of the inter-vehicle head distance by the probe car according to the first embodiment.
  • FIG. 7 is a diagram for explaining an example of a lane detection process in the probe car according to the first embodiment.
  • FIG. 8 is a diagram for explaining an example of attention area setting processing in the probe car according to the first embodiment.
  • FIG. 9 is a diagram for explaining an example of detection region correction processing by the probe car according to the first embodiment.
  • FIG. 10 is a diagram for explaining an example of vehicle type determination processing by the probe car according to the first embodiment.
  • FIG. 11 is a diagram for explaining an example of vehicle type determination processing by the probe car according to the first embodiment.
  • FIG. 12 is a diagram for explaining an example of vehicle type determination processing by the probe car according to the first embodiment.
  • FIG. 13A is a diagram for explaining an example of a calculation process of the inter-vehicle distance by the probe car according to the first embodiment.
  • FIG. 13B is a diagram for explaining an example of a calculation process of the inter-vehicle distance by the probe car according to the first embodiment.
  • FIG. 14 is a diagram illustrating an example of an inter-vehicle distance calculated by the probe car according to the first embodiment.
  • FIG. 15 is a diagram illustrating an example of a standard vehicle length used to calculate the inter-head distance in the probe car according to the first embodiment.
  • FIG. 16 is a diagram for explaining an example of a vehicle position estimation process in the probe car according to the first embodiment.
  • FIG. 17 is a flowchart illustrating an example of a flow of processing for extracting a feature amount of a region of interest in the probe car according to the first embodiment.
  • FIG. 18 is a diagram for explaining an example of a feature amount extraction process for a region of interest in the probe car according to the first embodiment.
  • FIG. 19 is a flowchart illustrating an example of the flow of calculation processing of the inter-head distance by the probe car according to the second embodiment.
  • FIG. 20 is a flowchart illustrating an example of a flow of calculation processing of the inter-head distance by the probe car according to the third embodiment.
  • FIG. 21 is a diagram for explaining an example of the calculation process of the inter-head distance by the probe car according to the third embodiment.
  • FIG. 1 is a diagram illustrating an example of a configuration of a traffic information detection system according to the first embodiment.
  • the traffic information detection system according to the present embodiment includes a probe car V1, a detection target vehicle V2, a GPS (Global Positioning System) satellite ST, a base station B, and a server S. ing.
  • the probe car V1 (an example of the first vehicle) obtains an inter-vehicle head distance (an example of the second distance) that is a distance from the tip of the probe car V1 to the tip of the detection target vehicle V2 (an example of the second vehicle).
  • the detection target vehicle V2 is a vehicle that travels in front of the probe car V1.
  • the GPS satellite ST transmits a GPS signal including time and the like to the ground.
  • the base station B can wirelessly communicate with the probe car V1, and receives data relating to the inter-head distance obtained by the probe car V1 (hereinafter referred to as distance data).
  • the server S generates road traffic information such as traffic jams on the basis of distance data received from the probe car V1 by the base station B and environmental information (for example, weather information) received from a terminal of an environmental information provider. .
  • FIG. 2 is a diagram illustrating an example of a configuration of a probe car included in the traffic information detection system according to the first embodiment.
  • the probe car V ⁇ b> 1 includes a camera 11, an information processing unit 12, a display unit 13, and a speaker 14.
  • the camera 11 (an example of an imaging unit) is provided so that an area including the front of the probe car V1 (hereinafter referred to as a monitoring target area) can be imaged.
  • the camera 11 transmits moving image data obtained by imaging the monitoring target area to the information processing unit 12.
  • the camera 11 includes a monocular camera and a stereo camera, and transmits moving image data obtained by imaging of each camera to the information processing unit 12.
  • the camera 11 is provided according to preset imaging conditions (for example, a predetermined height, depression angle, and rotation angle) in order to image the monitoring target area.
  • the camera 11 is provided in the vehicle of the probe car V1, but the present invention is not limited to this as long as the camera 11 is provided so as to be able to image the front of the probe car V1.
  • the camera 11 may be provided on the road side of the road on which the probe car V1 travels.
  • the information processing unit 12 (an example of the vehicle-mounted device) is mounted inside the probe car V1 together with the camera 11, and is connected to the camera 11 via a wireless communication unit or a cable. Then, the information processing unit 12 receives moving image data from the camera 11 via the wireless communication unit or cable. And the information processing part 12 calculates
  • the information processing unit 12 may generate distance data and transmit the distance data to the base station B each time the vehicle head distance is obtained, or after obtaining the vehicle head distance a predetermined number of times.
  • the distance data may be generated based on the minute head-to-head distance and transmitted to the base station B.
  • the display unit 13 is configured by an LCD (Liquid Crystal Display) or the like, and can display various information such as information (hereinafter referred to as warning information) such as distance data generated by the information processing unit 12.
  • the speaker 14 outputs sound of various information such as warning information.
  • FIG. 3 is a block diagram illustrating an example of a functional configuration of an information processing unit included in the probe car according to the first embodiment.
  • FIG. 4 is a diagram for explaining an example of the calculation process of the inter-head distance in the probe car according to the first embodiment.
  • the information processing unit 12 includes a control unit 121, a communication I / F unit 122, a storage unit 123, and an external storage device 124.
  • the control unit 121 controls the entire information processing unit 12.
  • the control unit 121 is configured by a microcomputer including an MPU (Micro Processing Unit) and the like, and controls the entire information processing unit 12 by executing a control program stored in the storage unit 123 described later. And calculation of the distance between the vehicle heads.
  • MPU Micro Processing Unit
  • the control unit 121 uses the moving image data received from the camera 11 to distance from the front end of the probe car V1 to the rear end of the detection target vehicle V2 (hereinafter referred to as an inter-vehicle distance). An example of the first distance is calculated. Further, the control unit 121 uses the moving image data received from the camera 11 to determine the vehicle type of the detection target vehicle V2. Then, the control unit 121 calculates a length obtained by adding the calculated inter-vehicle distance and the vehicle length of the vehicle type of the detection target vehicle V2 as the inter-vehicle head distance.
  • the vehicle length of a vehicle belonging to the vehicle type (hereinafter referred to as a standard vehicle length) is set in advance for each vehicle type of the detection target vehicle V2. Then, the control unit 121 uses the determined standard vehicle length of the vehicle type as the vehicle length of the detection target vehicle V2 for the calculation of the inter-vehicle head distance. Alternatively, the control unit 121 calculates the inter-vehicle distance to the detection target vehicle V2 and determines the vehicle type, and transmits the calculated inter-vehicle distance and the determined vehicle type to the server S via the base station B. Also good. Then, the server S may obtain the standard vehicle length of the detection target vehicle V2 based on the received vehicle type, and calculate the inter-vehicle distance by adding the standard vehicle length and the received inter-vehicle distance.
  • a standard vehicle length the vehicle length of a vehicle belonging to the vehicle type
  • the communication I / F unit 122 can communicate with external devices such as the camera 11, the display unit 13, and the speaker 14. Further, the communication I / F unit 122 transmits and receives various information such as distance data to and from the base station B by wireless communication.
  • the storage unit 123 is a ROM (Read Only Memory) that is a non-volatile storage unit that stores various types of information such as a control program executed by the control unit 121, and is used as a work area of the control unit 121 and temporarily stores various types of information.
  • RAM Random Access Memory
  • flash memory that is a non-volatile storage unit that stores setting information set in the information processing unit 12
  • VRAM Video Random
  • the external storage device 124 is a large-capacity storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive). Specifically, the external storage device 124 (an example of a storage unit) stores a dictionary that is provided for each vehicle type of the detection target vehicle V2 and includes the feature amount of the vehicle belonging to the vehicle type.
  • HDD Hard Disk Drive
  • SSD Solid State Drive
  • the external storage device 124 stores a plurality of dictionaries including a normal vehicle dictionary that includes feature values of vehicles belonging to ordinary vehicles and a large vehicle dictionary that includes feature values of vehicles belonging to large vehicles.
  • the dictionary for ordinary vehicles includes higher-order feature amounts (higher-order local autocorrelation features) obtained by expanding the feature amounts of vehicles belonging to ordinary vehicles to higher orders.
  • the large vehicle dictionary includes higher-order feature values obtained by expanding higher-order feature values of vehicles belonging to large vehicles.
  • FIG. 5 is a flowchart illustrating an example of a schematic flow of a process for calculating the inter-vehicle distance by the probe car according to the first embodiment.
  • the control unit 121 receives the moving image data obtained by imaging the monitoring target area with the camera 11 from the camera 11 via the communication I / F unit 122 (step S501). Next, the control unit 121 detects a vehicle in a frame constituting the received moving image data (step S502).
  • control unit 121 calculates the inter-vehicle distance based on the position of the vehicle in the frame (step S503). Moreover, the control part 121 determines the vehicle model of the said vehicle based on the feature-value of the vehicle in a flame
  • control unit 121 estimates the determined standard vehicle length of the vehicle type as the vehicle length of the vehicle in the frame (step S505). Then, the control unit 121 calculates a length obtained by adding the calculated inter-vehicle distance and the estimated vehicle length as the inter-vehicle head distance (step S506).
  • FIG. 6 is a flowchart illustrating an example of a flow of calculation processing of the inter-vehicle head distance by the probe car according to the first embodiment.
  • the control unit 121 receives moving image data (an example of a first image) obtained by imaging the monitoring target area by the camera 11 from the camera 11 via the communication I / F unit 122. Receive (step S601).
  • the control unit 121 includes moving image data obtained by imaging a monitoring target area with a monocular camera, and moving image data obtained by imaging a monitoring target area with a stereo camera (an example of a second image). ) Receive both.
  • control unit 121 sets a region (hereinafter referred to as a region of interest) from which a feature amount is extracted in a frame (an example of a first frame) constituting the received moving image data (step S602).
  • a region of interest a region from which a feature amount is extracted in a frame (an example of a first frame) constituting the received moving image data.
  • the control unit 121 sets a rectangular area having a size smaller than the frame as the attention area.
  • control part 121 extracts the feature-value of the set attention area (step S603). Specifically, based on the luminance information of the region of interest, the control unit 121 has high-level information such as low-dimensional edge information, HOG (Histograms of Oriented Gradients) features, and CoHOG (Co-occurrence Histograms of Oriented Gradients) features. The next feature quantity is extracted.
  • the control unit 121 moves the attention area in the frame and extracts the feature amounts of the plurality of attention areas.
  • the control part 121 (an example of an extraction part) extracts the feature-value of the vehicle (detection object vehicle V2) in a flame
  • FIG. 7 is a diagram for explaining an example of a lane detection process in the probe car according to the first embodiment.
  • FIG. 8 is a diagram for explaining an example of attention area setting processing in the probe car according to the first embodiment.
  • the upper left corner of the frame F is the origin O
  • the vertical direction of the frame F is the Y axis
  • the horizontal direction of the frame F is the X axis.
  • FIG. 9 is a diagram for explaining an example of detection region correction processing by the probe car according to the first embodiment.
  • the control unit 121 detects boundary lines L1, L2, and L3 (for example, white lines) between the lanes A1 and A2 included in the frame and regions other than the lanes A1 and A2. Next, the control unit 121 detects the area surrounded by the detected boundary lines L1, L2, and L3 as lanes A1 and A2, and sets the lanes A1 and A2 as setting target areas (predetermined areas). An example of the image).
  • boundary lines L1, L2, and L3 for example, white lines
  • the control unit 121 sets the attention area in the setting target area and does not set the attention area for the areas other than the setting target area. In other words, the control unit 121 prohibits the setting of the attention area for the area other than the setting target area.
  • the control unit 121 sets all the lanes A1, A2 surrounded by the boundary lines L1, L2, L3 in the setting target area, but only sets the lane A1 of the roadway on which the probe car V1 travels. It may be an area.
  • control unit 121 detects the lanes A1 and A2 included in the frame, extracts the feature amount of the vehicle in the lanes A1 and A2 in the frame, and the feature amount in the region other than the lanes A1 and A2 in the frame. Do not extract. As a result, the feature amount is not extracted for regions other than the lanes A1 and A2 in the frame, so that the processing load due to the feature amount extraction from the frame can be reduced.
  • the control unit 121 may set the entire frame as a setting target area. In this case, as illustrated in FIG. 8, the control unit 121 extracts the feature amounts of the plurality of attention areas TA in the frame while moving the attention area TA in the entire frame starting from the origin O. Then, the control unit 121 sets the attention area TA from which the feature amount of the vehicle is extracted among the plurality of attention areas TA as a detection area where the vehicle is detected.
  • control unit 121 is based on a feature amount of a search area (an example of a second area) that is larger than a detection area (an example of a first area) in which a vehicle is detected in a frame and includes the detection area. Then, the end of the vehicle in the search area is detected. And the control part 121 correct
  • the feature amount of the vehicle There is a possibility that the position of the detection area in the frame is deviated from the actual position of the vehicle.
  • the control unit 121 when the horizontal end of the detection area 701 does not coincide with the horizontal end of the vehicle 703, the control unit 121 has a horizontal size larger than that of the detection area 701.
  • a search area 702 that is large and includes the detection area 701 is set.
  • the control unit 121 determines the vehicle 703 based on the depth direction information (distance) distribution 704 of the area corresponding to the search area 702 in the frame F constituting the moving image data obtained by the imaging of the stereo camera.
  • the horizontal ends E1 and E2 are detected.
  • the control unit 121 corrects the detection region 701 so that the horizontal ends E1 and E2 of the vehicle 703 coincide with the horizontal end of the detection region 701.
  • the control unit 121 (an example of a determination unit) reads a part of a dictionary that is different for each frame from the external storage device 124 (step S ⁇ b> 604).
  • the control unit 121 reads out a different dictionary for each frame.
  • the controller 121 reads out a dictionary of a vehicle type to be determined (for example, a normal vehicle and a large vehicle) from the external storage device 124, It is not limited to.
  • the control unit 121 may read all dictionaries of the determination target vehicle type for each frame.
  • the dictionary stored in the external storage device 124 includes the feature quantities of objects included in a plurality of images in which objects (for example, vehicles) of the same category (for example, vehicle type) are captured in different states.
  • the control unit 121 repeatedly reads out the dictionary from the external storage device 124 in a predetermined order (for example, a normal car dictionary and a large car dictionary). That is, the control unit 121 alternately reads the normal vehicle dictionary and the large vehicle dictionary from the external storage device 124. Then, the control unit 121 repeats reading the dictionary from the external storage device 124 until transmission of moving image data from the camera 11 is stopped. Next, the control unit 121 calculates the similarity between the feature amount of the detection area (the feature amount of the vehicle in the frame) and the feature amount included in the read dictionary (step S605). In the present embodiment, the control unit 121 alternately reads two dictionaries from the external storage device 124. However, if the speeds of the vehicle types to be determined are different, a dictionary of high-speed vehicle types is continuously used for N frames. After reading out, the pattern of reading out only one frame of the dictionary of the car model having a low speed may be repeated.
  • a predetermined order for example, a normal car dictionary and a large car
  • control unit 121 determines the vehicle type of the vehicle in the frame based on the calculated similarity (step S606).
  • the control unit 121 determines that the vehicle type corresponding to the read dictionary is the vehicle type in the frame when the calculated similarity is higher than a predetermined threshold.
  • the predetermined threshold is a lower limit of the similarity that is determined to be a vehicle belonging to the vehicle type corresponding to the dictionary.
  • the control unit 121 continues to hold the vehicle feature values extracted from the plurality of frames until all the dictionaries of the determination target vehicle types are read, and all the vehicle feature values to be held are stored.
  • the vehicle type of the vehicle holding the feature amount is determined based on the similarity with the feature amount included in the dictionary.
  • FIGS. 10 to 12 are diagrams for explaining an example of vehicle type determination processing by the probe car according to the first embodiment.
  • the control unit 121 has a similarity of “0.3” between the feature amount of the vehicle extracted from the frame and the feature amount included in the ordinary vehicle dictionary, and the feature of the vehicle extracted from the frame. If the similarity between the amount and the feature amount included in the large vehicle dictionary is “0.5”, a dictionary including a feature amount having a high similarity with the vehicle feature amount extracted from the frame (here, for a large vehicle) “Large-sized vehicle” that is a vehicle type of the dictionary) is determined as the vehicle type of the vehicle extracted from the frame.
  • the control unit 121 acquires the three-dimensional shape of the detection target vehicle V2 obtained by imaging the monitoring target area with the stereo camera. Then, as shown in FIG. 11, the control unit 121 compares the width and height of the detection target vehicle V2 included in the acquired three-dimensional shape with a predetermined vehicle type classification standard, and determines the vehicle type of the detection target vehicle V2. You may judge.
  • the predetermined vehicle type classification standard includes a width and a height for each vehicle type.
  • the control part 121 may determine the vehicle type of the detection object vehicle V2 based on the vehicle type information described in the license plate in the vehicle which a flame
  • control unit 121 (an example of a calculation unit) obtains an inter-vehicle distance from the front end of the probe car V1 to the rear end of the detection target vehicle V2 based on the frames constituting the moving image data. Furthermore, the control unit 121 calculates a distance obtained by adding the inter-vehicle distance and the determined vehicle length of the vehicle type of the detection target vehicle V2 as the inter-vehicle head distance (step S607).
  • FIG. 13A and FIG. 13B are diagrams for explaining an example of an inter-vehicle distance calculation process by the probe car according to the first embodiment.
  • the upper left corner of the frame F is the origin O
  • the vertical direction of the frame F is the Y axis
  • the horizontal direction of the frame F is the X axis.
  • FIG. 14 is a diagram illustrating an example of an inter-vehicle distance calculated by the probe car according to the first embodiment.
  • FIG. 15 is a diagram illustrating an example of a standard vehicle length used to calculate the inter-head distance in the probe car according to the first embodiment.
  • the inter-vehicle distance between vehicles traveling on a road with ups and downs it is obtained by monocular inter-vehicle distance, which is the inter-vehicle distance calculated using moving image data obtained by monocular camera imaging, and stereo camera imaging. This is different from a stereo inter-vehicle distance (an example of a third distance) which is an inter-vehicle distance based on the moving image data. Since the monocular inter-vehicle distance is calculated on the assumption that the road is flat, calculating the inter-vehicle distance between vehicles traveling on a road with up and down causes an error from the actual inter-vehicle distance.
  • the inter-vehicle distance in the stereo system is calculated based on the principle of triangulation, an error from the actual inter-vehicle distance is small.
  • the inter-vehicle distance cannot be calculated if there is no texture in the region (detection region) where the inter-vehicle distance is calculated. Therefore, it is preferable to calculate the actual inter-vehicle distance using the monocular inter-vehicle distance and the stereo inter-vehicle distance.
  • the probe car V1 and the point 1 (or point 2) are calculated.
  • the distance between the monocular inter-vehicle distance and the stereo inter-vehicle distance is small from the actual inter-vehicle distance.
  • the inter-vehicle distance between the probe car V1 and the detection target vehicle V2 at the point 3 is calculated, since the height difference between the probe car V1 and the point 3 is large, the monocular inter-vehicle distance and the stereo inter-vehicle distance The divergence increases.
  • the control unit 121 calculates the monocular inter-vehicle distance and the stereo inter-vehicle distance, and when the difference between the monocular inter-vehicle distance and the stereo inter-vehicle distance is equal to or less than a predetermined value, the monocular inter-vehicle distance The distance between the vehicle heads is obtained using the distance.
  • the control unit 121 corrects the monocular inter-vehicle distance based on the stereo inter-vehicle distance. And the control part 121 calculates
  • the controller 121 determines the distance between the probe car V ⁇ b> 1 and the detection target vehicle V ⁇ b> 2 at the point 3 (in other words, the detection target vehicle V ⁇ b> 2 located at the coordinate of the Y axis in the frame F: 300).
  • the stereo inter-vehicle distance: 80 m is regarded as the monocular inter-vehicle distance. Then, the inter-vehicle distance of the monocular method is corrected.
  • the control unit 121 obtains the vehicle length of the vehicle type in the frame F.
  • the storage unit 123 stores a standard vehicle length table T that stores a vehicle type and a standard vehicle length of a vehicle belonging to the vehicle type in association with each other. Then, when determining the vehicle type of the vehicle in the frame F, the control unit 121 reads out the standard vehicle length stored in association with the determined vehicle type from the standard vehicle length table T, and stores the standard vehicle length in the frame. Specified as the commander of the vehicle. After that, the control unit 121 calculates a distance obtained by adding the monocular inter-vehicle distance and the specified vehicle length as the inter-vehicle head distance. Thereby, even when not all of the vehicles are included in the frame, the inter-vehicle head distance can be calculated.
  • the control unit 121 uses the standard vehicle length stored in association with the determined vehicle type in the standard vehicle length table T as the vehicle length of the vehicle in the frame, but is not limited thereto. .
  • the control unit 121 sets the large vehicle with respect to the number of detection target vehicles V2 whose feature values are extracted from the frame within a preset time (for example, one week).
  • the ratio of the number of vehicles determined as follows (hereinafter referred to as a large vehicle mixing rate) is obtained.
  • the control unit 121 estimates the vehicle length of the detection target vehicle V2 based on the large vehicle mixing ratio, and calculates the sum of the estimated vehicle length and the inter-vehicle distance as the inter-vehicle head distance. For example, the control unit 121 estimates the vehicle length of the detection target vehicle V2 corresponding to the large vehicle mixing ratio from the detection target vehicle V2 whose feature value is extracted from the frame as the vehicle length of the large vehicle.
  • the head-to-head distance closer to the actual value can be obtained as the time during which the probe car V1 is driven becomes longer.
  • the large vehicle mixture rate measured by a fixed traffic counter (sensor) was calculated, or on large roads without sensors, the large vehicle mixture rate was calculated by people.
  • the control unit 121 reads the last read frame (hereinafter referred to as the current frame) and the frames up to a predetermined number (for example, one) before the current frame (hereinafter referred to as the past frame). Based on the position of the detection area of the vehicle, the position where the vehicle is detected is estimated in the frame to be read next (hereinafter referred to as the next frame) (step S608).
  • FIG. 16 is a diagram for explaining an example of a vehicle position estimation process in the probe car according to the first embodiment.
  • the control unit 121 when detecting a vehicle from the second frame, which is the current frame, the control unit 121 apparently moves the position of the detection region R1 of the vehicle detected from the past frame (first frame). Based on the amount and the moving direction, the position of the detection region R2 of the vehicle in the second frame is estimated. Then, when setting the attention area in the second frame, the control unit 121 sets the estimated detection area R2 or the vicinity of the position of the detection area R2 as the attention area, and the estimated detection area R2 or the An area other than the vicinity of the detection area R2 is not set as the attention area.
  • the control unit 121 when detecting a vehicle from the third frame that is the current frame, the control unit 121 detects the apparent movement amount of the detection area R3 of the vehicle detected from the past frame (second frame) and Based on the moving direction, the position of the detection region R4 of the vehicle in the third frame is estimated. Then, when setting the attention area in the third frame, the control unit 121 sets the estimated detection area R4 or the vicinity of the detection area R4 as the attention area, and the estimated detection area R4 or the detection area. An area other than the vicinity of R4 is not set as the attention area. Thereby, it is possible to narrow down the region to be set as the attention region in the next frame, and to increase the extraction efficiency of the vehicle feature amount by extracting the feature amount of the vehicle from the estimated detection region and its vicinity. Can do.
  • the control unit 121 determines whether or not the feature amount of the vehicle has been extracted from all the frames constituting the moving image data received from the camera 11 (step S609).
  • the control unit 121 returns to step S602 and extracts the feature amount of the vehicle from the frames constituting the moving image data. A region of interest in the next frame that has not been set is set.
  • the control unit 121 ends the calculation process of the inter-head distance. Thereafter, the control unit 121 generates distance data using the calculated inter-vehicle head distance, and transmits the distance data to the server S via the base station B.
  • control unit 121 performs the processing from step S602 to step S609 shown in FIG. 6, but the present invention is not limited to this, and the moving image data received from the camera is transmitted to the server S.
  • the server S may be configured to execute part or all of steps S602 to S609 shown in FIG.
  • FIG. 17 is a flowchart illustrating an example of a flow of processing for extracting a feature amount of a region of interest in the probe car according to the first embodiment.
  • FIG. 18 is a diagram for explaining an example of a feature amount extraction process for a region of interest in the probe car according to the first embodiment.
  • the control unit 121 When receiving the moving image data, the control unit 121 generates an image (hereinafter referred to as a multi-scale image) in which each frame constituting the moving image data is reduced to a different size (step S1701). As shown in FIG. 18, in this embodiment, the control unit 121 generates three multiscale images MF1, MF2, and MF3 obtained by reducing the frame F to three different sizes.
  • control unit 121 sets a region of interest for each of the frame and the multiscale image (step S1702). At that time, the control unit 121 sets a region of the same size and the same shape (for example, a rectangular shape) as a region of interest for both the frame and the multiscale image.
  • control unit 121 extracts the feature amount of the attention area set in the frame and the multiscale image (step S1703).
  • the control unit 121 moves the attention area in the entire multiscale image or the setting target area in the multiscale image in the same manner as in the case where the attention area is set for the frame.
  • the control unit 121 extracts the feature amount of each region of interest set in the multiscale image.
  • control unit 121 uses a predetermined dictionary including the background feature amount and the vehicle feature amount, and from among the attention regions in the frame and the multiscale image, the attention region in which the vehicle feature amount is extracted, the background The attention area from which the feature amount is extracted is discriminated (step S1704). And the control part 121 makes the attention area from which the feature-value of the vehicle was extracted a detection area.
  • the vehicle included in the multiscale image If it falls within the attention area, the feature amount extracted from the attention area can be extracted as the feature amount of the vehicle, so that the detection accuracy of the vehicle included in the frame can be improved.
  • the detection target vehicle V2 exists in the distance, the apparent size of the vehicle included in the frame is small, and the feature amount of the vehicle cannot be extracted with the frame as it is, the feature amount of the vehicle included in the multiscale image is extracted. Therefore, the detection accuracy of the vehicle included in the frame can be improved.
  • the traffic information detection system According to the traffic information detection system according to the first embodiment, it is possible to calculate the inter-vehicle head distance even when all the vehicles are not included in the frame.
  • a plurality of dictionaries are read from an external storage device for one frame, and the vehicle type of the vehicle is determined based on the similarity between the feature amount of the vehicle included in the frame and the feature amount included in each read dictionary. It is an example which determines. In the following description, description of the same parts as those in the first embodiment is omitted.
  • FIG. 19 is a flowchart showing an example of the flow of calculation of the inter-head distance by the probe car according to the second embodiment.
  • the control unit 121 reads out dictionaries for all vehicle types to be determined from the external storage device 124.
  • control unit 121 reads out a plurality of dictionaries (hereinafter referred to as read target dictionaries) for all vehicle types to be determined from the external storage device 124 (step S1901). Next, the control unit 121 calculates the similarity between the feature value of the detection area and the feature value included in one read target dictionary among the plurality of read target dictionaries (step S1902). Then, the control unit 121 determines whether or not the similarity between the feature amount included in each of the plurality of read target dictionaries and the feature amount of the detection area has been calculated.
  • read target dictionaries a plurality of dictionaries
  • control unit 121 When the similarity between the feature amount included in all the read target dictionaries and the feature amount of the detection region has not been calculated, the control unit 121 returns to step S1901 and, among the plurality of read target dictionaries, still has the feature of the detection region. A dictionary to be read out for which the degree of similarity with the amount has not been calculated is read out.
  • the control unit 121 compares the similarity between the feature amount of the detection region and the feature amount included in each read target dictionary. (Step S1903). Then, the control unit 121 determines that the vehicle type corresponding to the read target dictionary including the feature amount having the highest similarity with the feature amount of the detection area is the vehicle type of the vehicle in the frame (step S1904).
  • the present embodiment stores an integrated dictionary that includes higher-order feature amounts of vehicles belonging to the vehicle type to be determined (for example, a normal vehicle and a large vehicle), and a similarity to the higher-order feature amount included in the integrated dictionary is predetermined.
  • the vehicle type included in the frame is determined based on the similarity between the feature amount of the vehicle equal to or greater than the threshold and the feature amount included in the read target dictionary.
  • FIG. 20 is a flowchart showing an example of the flow of calculation of the inter-head distance by the probe car according to the third embodiment.
  • FIG. 21 is a diagram for explaining an example of the calculation process of the inter-head distance by the probe car according to the third embodiment.
  • the external storage device 124 stores an integrated dictionary including higher-order feature amounts of vehicles belonging to the determination target vehicle type.
  • the control unit 121 reads the integrated dictionary from the external storage device 124 (step S2001). Then, the control unit 121 calculates the degree of similarity between the feature amount of the detection area and the higher-order feature amount included in the integrated dictionary (step S2002). Then, the control unit 121 selects a detection region having a feature amount whose similarity with a higher-order feature amount included in the integrated dictionary is equal to or greater than a predetermined threshold among the detection regions (step S2003). Thereafter, the process proceeds to step S1901 and subsequent steps, and the control unit 121 determines the vehicle type included in the frame based on the similarity between the feature amount of the selected detection area and the feature amount included in the read target dictionary.
  • the control unit 121 determines, for a detection region that is lower than a predetermined threshold (that is, a detection region that has not been selected), a feature of the detection region for a detection region that has a similarity with a higher-order feature amount included in the integrated dictionary.
  • the vehicle type included in the frame is not determined based on the similarity between the amount and the feature amount included in the read target dictionary.
  • the control unit 121 includes detection areas 2101 and 2102 having a feature quantity whose similarity to a higher-order feature quantity included in the integrated dictionary is equal to or greater than a predetermined threshold among the detection areas in the frame. select. And the control part 121 respond
  • the vehicle type to be used is determined to be a normal vehicle.
  • the control unit 121 sets the vehicle type of the detection region 2101 (detection target vehicle V2) having a feature amount whose similarity with the feature amount included in the large vehicle dictionary in the detection regions 2101 and 2102 is equal to or greater than a predetermined threshold. Judge as a car.
  • the control unit 121 resembles the feature amount of the detection region and the feature amount included in the normal vehicle dictionary and the large vehicle dictionary. Judgment of vehicle type based on degree is prohibited.
  • the reading target dictionary is not read.
  • the processing load due to the determination of the vehicle type can be further reduced, and the processing time required for the determination of the vehicle type can be further shortened.
  • the program executed by the information processing unit 12 of the present embodiment is provided by being incorporated in advance in a ROM or the like.
  • the program executed by the information processing unit 12 of the present embodiment is a file in an installable format or an executable format, and is a computer such as a CD-ROM, flexible disk (FD), CD-R, DVD (Digital Versatile Disk).
  • the information may be provided by being recorded on a recording medium that can be read by the user.
  • the program executed by the information processing unit 12 of the present embodiment may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Further, the program executed by the information processing unit 12 of the present embodiment may be configured to be provided or distributed via a network such as the Internet.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

 実施形態の車載器は、受信部と、記憶部と、抽出部と、判定部と、算出部と、を備える。受信部は、撮像部により第1車両の前方を撮像して得られた第1画像を受信する。記憶部は、車種毎に設けられかつ当該車種の車両の特徴量を含む辞書を記憶する。抽出部は、第1画像内の第2車両の特徴量を抽出する。判定部は、記憶部から、判定対象の車種の辞書を読み出し、当該読み出した辞書が含む特徴量と第3車両の特徴量との類似度に基づいて、第2車両の車種を判定する。算出部は、第1画像に基づいて、第1車両の先端から第2車両の後端までの第1距離を求め、当該第1距離と判定部により判定した車種に属する車両の車長との合計を、第1車両の先端から第2車両の先端までの第2距離として算出する。

Description

車載器および車頭間距離算出方法
 本発明の実施形態は、車載器および車頭間距離算出方法に関する。
 カメラにより車両の前方を撮像して得られたカメラ映像に含まれる車両等のオブジェクトを検出するオブジェクト検出装置では、パターン認識技術が広く用いられている。そして、オブジェクト検出装置では、パターン認識技術を用いて、カメラ映像からオブジェクトを検出し、当該画像を撮像したカメラから、検出したオブジェクトまでの距離を算出することが可能である。
特表2011-529189号公報 特表2003-532959号公報
 しかしながら、上記のオブジェクト検出装置では、検出対象のオブジェクトの全体像がカメラ映像に含まれていない場合には、カメラから検出対象のオブジェクトの先端までの距離は算出できず、カメラから検出対象のオブジェクトの後端までの距離しか算出することができない。
 実施形態の車載器は、受信部と、記憶部と、抽出部と、判定部と、算出部と、を備える。受信部は、撮像部により第1車両の前方を撮像して得られた第1画像を受信する。記憶部は、車種毎に設けられかつ当該車種の車両の特徴量を含む辞書を記憶する。抽出部は、第1画像内の第2車両の特徴量を抽出する。判定部は、記憶部から、判定対象の車種の辞書を読み出し、当該読み出した辞書が含む特徴量と第2車両の特徴量との類似度に基づいて、第2車両の車種を判定する。算出部は、第1画像に基づいて、第1車両の先端から第2車両の後端までの第1距離を求め、当該第1距離と判定部により判定した車種に属する車両の車長との合計を、第1車両の先端から第2車両の先端までの第2距離として算出する。
図1は、第1の実施形態にかかる交通情報検出システムの構成の一例を示す図である。 図2は、第1の実施形態にかかる交通情報検出システムが有するプローブカーの構成の一例を示す図である。 図3は、第1の実施形態にかかるプローブカーが有する情報処理部の機能構成の一例を示すブロック図である。 図4は、第1の実施形態にかかるプローブカーにおける車頭間距離の算出処理の一例を説明するための図である。 図5は、第1の実施形態にかかるプローブカーによる車頭間距離の算出処理の概略的な流れの一例を示すフローチャートである。 図6は、第1の実施形態にかかるプローブカーにより車頭間距離の算出処理の流れの一例を示すフローチャートである。 図7は、第1の実施形態にかかるプローブカーにおける車線の検出処理の一例を説明するための図である。 図8は、第1の実施形態にかかるプローブカーにおける注目領域の設定処理の一例を説明するための図である。 図9は、第1の実施形態にかかるプローブカーによる検出領域の補正処理の一例を説明するための図である。 図10は、第1の実施形態にかかるプローブカーによる車種の判定処理の一例を説明するための図である。 図11は、第1の実施形態にかかるプローブカーによる車種の判定処理の一例を説明するための図である。 図12は、第1の実施形態にかかるプローブカーによる車種の判定処理の一例を説明するための図である。 図13Aは、第1の実施形態にかかるプローブカーによる車間距離の算出処理の一例を説明するための図である。 図13Bは、第1の実施形態にかかるプローブカーによる車間距離の算出処理の一例を説明するための図である。 図14は、第1の実施形態にかかるプローブカーにより算出された車間距離の一例を示す図である。 図15は、第1の実施形態にかかるプローブカーにおける車頭間距離の算出に用いる標準車長の一例を示す図である。 図16は、第1の実施形態にかかるプローブカーにおける車両位置の推定処理の一例を説明するための図である。 図17は、第1の実施形態にかかるプローブカーにおける注目領域の特徴量の抽出処理の流れの一例を示すフローチャートである。 図18は、第1の実施形態にかかるプローブカーにおける注目領域の特徴量の抽出処理の一例を説明するための図である。 図19は、第2の実施形態にかかるプローブカーによる車頭間距離の算出処理の流れの一例を示すフローチャートである。 図20は、第3の実施形態にかかるプローブカーによる車頭間距離の算出処理の流れの一例を示すフローチャートである。 図21は、第3の実施形態にかかるプローブカーによる車頭間距離の算出処理の一例を説明するための図である。
 以下、添付の図面を用いて、本実施形態にかかる車載器および車頭間距離算出方法を適用した交通情報検出システムについて説明する。
(第1の実施形態)
 図1を用いて、本実施形態にかかる交通情報検出システムの構成について説明する。図1は、第1の実施形態にかかる交通情報検出システムの構成の一例を示す図である。図1に示すように、本実施形態にかかる交通情報検出システムは、プローブカーV1と、検出対象車両V2と、GPS(Global Positioning System)衛星ST、基地局Bと、サーバSと、を有している。プローブカーV1(第1車両の一例)は、プローブカーV1の先端から検出対象車両V2(第2車両の一例)の先端までの距離である車頭間距離(第2距離の一例)を求める。検出対象車両V2は、プローブカーV1の前方を走行する車両である。
 GPS衛星STは、時刻等を含むGPS信号を地上に送信する。基地局Bは、プローブカーV1と無線通信可能であり、プローブカーV1により求めた車頭間距離に関するデータ(以下、距離データと言う)を受信する。サーバSは、基地局BによってプローブカーV1から受信した距離データや環境情報提供業者の端末等から受信する環境情報(例えば、気象情報)に基づいて、車両の渋滞等の道路交通情報を生成する。
 次に、図2を用いて、本実施形態にかかるプローブカーV1の構成について説明する。図2は、第1の実施形態にかかる交通情報検出システムが有するプローブカーの構成の一例を示す図である。図2に示すように、本実施形態にかかるプローブカーV1は、カメラ11と、情報処理部12と、表示部13と、スピーカ14と、を有する。カメラ11(撮像部の一例)は、プローブカーV1の前方を含むエリア(以下、監視対象エリアと言う)を撮像可能に設けられている。そして、カメラ11は、監視対象エリアを撮像して得られた動画像データを情報処理部12に送信する。本実施形態では、カメラ11は、単眼カメラおよびステレオカメラを有し、各カメラの撮像により得られた動画像データを情報処理部12に送信する。
 また、本実施形態では、カメラ11は、監視対象エリアを撮像するために、予め設定された撮像条件(例えば、所定の高さ、俯角、回転角)に従って設けられている。本実施形態では、カメラ11は、プローブカーV1の車内に設けられているが、プローブカーV1の前方を撮像可能に設けられていれば、これに限定するものではない。例えば、カメラ11は、プローブカーV1が走行する道路の路側に設けられていても良い。
 情報処理部12(車載器の一例)は、カメラ11とともにプローブカーV1の車内に搭載され、無線通信ユニットまたはケーブルを介してカメラ11と接続されている。そして、情報処理部12は、当該無線通信ユニットまたはケーブルを介して、カメラ11から動画像データを受信する。そして、情報処理部12は、カメラ11から受信した動画像データを用いて、プローブカーV1の先端から検出対象車両V2の先端までの車頭間距離を求める。そして、情報処理部12は、求めた車頭間距離に基づいて、安全運転支援や道路交通情報の生成に用いる距離データを生成して基地局Bに送信する。本実施形態では、情報処理部12は、車頭間距離を求める度に、距離データを生成して、基地局Bに送信しても良いし、所定回数、車頭間距離を求めた後に、所定回数分の車頭間距離に基づいて、距離データを生成して、基地局Bに送信しても良い。表示部13は、LCD(Liquid Crystal Display)等により構成され、情報処理部12により生成された距離データ等の情報(以下、警告情報と言う)等の各種情報を表示可能である。スピーカ14は、警告情報等の各種情報の音声を出力する。
 次に、図3および図4を用いて、本実施形態にかかるプローブカーV1の情報処理部12の機能構成について説明する。図3は、第1の実施形態にかかるプローブカーが有する情報処理部の機能構成の一例を示すブロック図である。図4は、第1の実施形態にかかるプローブカーにおける車頭間距離の算出処理の一例を説明するための図である。
 図3に示すように、本実施形態では、情報処理部12は、制御部121と、通信I/F部122と、記憶部123と、外部記憶装置124と、を有する。制御部121は、情報処理部12全体を制御する。本実施形態では、制御部121は、MPU(Micro Processing Unit)等を備えたマイクロコンピュータにより構成され、後述する記憶部123に記憶される制御プログラムを実行することにより、情報処理部12全体の制御や車頭間距離の算出等を行う。
 また、図4に示すように、制御部121は、カメラ11から受信した動画像データを用いて、プローブカーV1の先端から検出対象車両V2の後端までの距離(以下、車間距離と言う。第1距離の一例)を算出する。さらに、制御部121は、カメラ11から受信した動画像データを用いて、検出対象車両V2の車種を判定する。そして、制御部121は、算出した車間距離と、検出対象車両V2の車種の車長とを足し合わせた長さを、車頭間距離として算出する。本実施形態では、検出対象車両V2の車種毎に、当該車種に属する車両の車長(以下、標準車長と言う)が予め設定されている。そして、制御部121は、判定した車種の標準車長を、当該検出対象車両V2の車長として、車頭間距離の算出に用いる。または、制御部121は、検出対象車両V2までの車間距離の算出と車種の判定とを実行し、算出した車間距離と判定した車種とを、基地局Bを経由してサーバSに送信しても良い。そして、サーバSは、受信した車種に基づいて、検出対象車両V2の標準車長を求め、当該標準車長と、受信した車間距離とを足し合わせて車頭間距離を算出しても良い。
 通信I/F部122は、カメラ11、表示部13、スピーカ14等の外部機器と通信可能である。また、通信I/F部122は、無線通信によって、距離データ等の各種情報を基地局Bと送受信する。記憶部123は、制御部121により実行される制御プログラム等の各種情報を記憶する不揮発性の記憶部であるROM(Read Only Memory)、制御部121の作業領域として用いられかつ各種情報を一時的に記憶するRAM(Random Access Memory)、情報処理部12に設定される設定情報等を記憶する不揮発性の記憶部であるフラッシュROM、カメラ11から受信した動画像データ等を記憶するVRAM(Video Random Access Memory)等を有する。
 外部記憶装置124は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の大容量の記憶装置である。具体的には、外部記憶装置124(記憶部の一例)は、検出対象車両V2の車種毎に設けられかつ当該車種に属する車両の特徴量を含む辞書を記憶する。
 本実施形態では、外部記憶装置124は、普通車に属する車両の特徴量を含む普通車用辞書と、大型車に属する車両の特徴量を含む大型車用辞書と、を含む複数の辞書を記憶する。具体的には、普通車用辞書は、普通車に属する車両の特徴量を高次に拡張した高次特徴量(高次局所自己相関特徴)を含む。また、大型車用辞書は、大型車に属する車両の特徴量を高次に拡張した高次特徴量を含む。
 次に、図5を用いて、本実施形態にかかるプローブカーV1による車頭間距離の算出処理の概要について説明する。図5は、第1の実施形態にかかるプローブカーによる車頭間距離の算出処理の概略的な流れの一例を示すフローチャートである。
 制御部121は、通信I/F部122を介して、カメラ11から、当該カメラ11によって監視対象エリアを撮像して得られた動画像データを受信する(ステップS501)。次いで、制御部121は、受信した動画像データを構成するフレーム内の車両を検出する(ステップS502)。
 そして、制御部121は、フレーム内における車両の位置等に基づいて、車間距離を算出する(ステップS503)。また、制御部121は、フレーム内の車両の特徴量に基づいて、当該車両の車種を判定する(ステップS504)。
 さらに、制御部121は、判定した車種の標準車長を、当該フレーム内の車両の車長と推定する(ステップS505)。そして、制御部121は、算出した車間距離と、推定した車長とを足し合わせた長さを、車頭間距離として算出する(ステップS506)。
 次に、図6を用いて、本実施形態にかかるプローブカーV1による車頭間距離の算出処理の詳細について説明する。図6は、第1の実施形態にかかるプローブカーにより車頭間距離の算出処理の流れの一例を示すフローチャートである。
 制御部121(受信部の一例)は、通信I/F部122を介して、カメラ11から、当該カメラ11によって監視対象エリアを撮像して得られた動画像データ(第1画像の一例)を受信する(ステップS601)。本実施形態では、制御部121は、単眼カメラによって監視対象エリアを撮像して得られた動画像データ、およびステレオカメラによって監視対象エリアを撮像して得られた動画像データ(第2画像の一例)の両方を受信する。
 次いで、制御部121は、受信した動画像データを構成するフレーム(第1フレームの一例)内において特徴量の抽出を行う領域(以下、注目領域と言う)を設定する(ステップS602)。本実施形態では、制御部121は、フレームより小さいサイズの矩形状の領域を注目領域に設定する。
 そして、制御部121は、設定した注目領域の特徴量を抽出する(ステップS603)。具体的には、制御部121は、注目領域の輝度情報に基づいて、低次元のエッジ情報、HOG(Histograms of Oriented Gradients)特徴量、CoHOG(Co-occurrence Histograms of Oriented Gradients)特徴量等の高次特徴量を抽出する。本実施形態では、制御部121は、フレーム内において注目領域を移動させて、複数の注目領域の特徴量を抽出する。これにより、制御部121(抽出部の一例)は、フレーム内の車両(検出対象車両V2)の特徴量を抽出する。そして、制御部121は、複数の注目領域のうち、車両の特徴量を抽出した注目領域を、車両の検出領域とする。
 ここで、図7~9を用いて、本実施形態にかかるプローブカーV1による車両の検出処理について説明する。図7は、第1の実施形態にかかるプローブカーにおける車線の検出処理の一例を説明するための図である。図8は、第1の実施形態にかかるプローブカーにおける注目領域の設定処理の一例を説明するための図である。図8では、フレームFの左上の角を原点Oとし、フレームFの上下方向をY軸とし、フレームFの水平方向をX軸とする。図9は、第1の実施形態にかかるプローブカーによる検出領域の補正処理の一例を説明するための図である。
 例えば、図7に示すように、制御部121は、フレームが含む車線A1,A2と当該車線A1,A2以外の領域との境界線L1,L2,L3(例えば、白線)を検出する。次いで、制御部121は、検出した境界線L1,L2,L3で囲まれる領域を、車線A1,A2として検出し、当該車線A1,A2を、注目領域を設定する領域である設定対象領域(所定の画像の一例)とする。
 そして、制御部121は、設定対象領域内に注目領域を設定し、設定対象領域以外の領域に対して注目領域を設定しない。言い換えると、制御部121は、設定対象領域以外の領域に対する注目領域の設定を禁止する。本実施形態では、制御部121は、境界線L1,L2,L3で囲まれる車線A1,A2を全て設定対象領域に設定しているが、プローブカーV1が走行する車道の車線A1のみを設定対象領域としても良い。
 すなわち、制御部121は、フレームが含む車線A1,A2を検出し、当該フレーム内において車線A1,A2内において車両の特徴量を抽出し、当該フレーム内において車線A1,A2以外の領域の特徴量の抽出を行わない。これにより、フレーム内において車線A1,A2以外の領域に対しては特徴量の抽出が行われないので、フレームからの特徴量の抽出による処理負荷を軽減することができる。
 または、図8に示すように、制御部121は、フレーム全体を設定対象領域としても良い。この場合、図8に示すように、制御部121は、原点Oを始点として、フレーム内全体に注目領域TAを移動させながら、フレーム内の複数の注目領域TAの特徴量を抽出する。そして、制御部121は、複数の注目領域TAのうち、車両の特徴量が抽出された注目領域TAを、車両が検出された検出領域とする。
 また、制御部121は、フレーム内において車両が検出された検出領域(第1領域の一例)より大きくかつ当該検出領域を包含する領域である探索領域(第2領域の一例)の特徴量に基づいて、当該探索領域内の車両の端部を検出する。そして、制御部121は、検出した車両の端部と、検出領域の端部とが一致するように、当該検出領域を補正し、当該補正した検出領域の特徴量を、フレーム内から抽出された車両の特徴量とする。フレーム内において検出領域の位置は、車両の実際の位置に対してずれる可能性がある。特に、検出領域の下側の端部が、車両の実際の下側の位置からずれてしまうと、車間距離の算出結果に大きな誤差が生じる。これに対して、本実施形態では、検出領域の端部が、車両の端部と一致するように、当該検出領域を補正することにより、検出領域の位置が車両の実際の位置からずれることを防止できるので、車間距離の算出結果の誤差を低減することができる。
 例えば、図9に示すように、検出領域701の水平方向の端部が、車両703の水平方向の端部と一致していない場合、制御部121は、水平方向へのサイズが検出領域701より大きくかつ当該検出領域701を包含する探索領域702を設定する。次いで、制御部121は、ステレオカメラの撮像により得られた動画像データを構成するフレームF内において、探索領域702に対応する領域の奥行き方向の情報(距離)の分布704に基づいて、車両703の水平方向の端部E1,E2を検出する。そして、制御部121は、車両703の水平方向の端部E1,E2と検出領域701の水平方向の端部とが一致するように、当該検出領域701を補正する。
 図6に戻り、制御部121(判定部の一例)は、外部記憶装置124から、フレーム毎に異なる一部の辞書を読み出す(ステップS604)。これにより、車頭間距離の算出処理の過程において、フレームが含む車両の車種を判定する際に読み出す辞書を減らすことができるので、辞書の読み出しに用いるメモリのサイズを減らすことができ、車種の判定による処理負荷を小さくし、かつ車種の判定にかかる処理時間を短くすることができる。本実施形態では、制御部121は、フレーム毎に異なる辞書を読み出しているが、外部記憶装置124から、判定対象の車種(例えば、普通車および大型車)の辞書を読み出すものであれば、これに限定するものではない。例えば、制御部121は、各フレームについて、判定対象の車種の辞書を全て読み出しても良い。
 ところで、フレームから人物をオブジェクトとして検出する場合、立っている人、しゃがんでいる人、足を開いている人、足を閉じている人など、同一のカテゴリのオブジェクトであってもその状態が異なる場合には、オブジェクトの特徴量は異なる。そこで、外部記憶装置124に記憶されている辞書は、同一カテゴリ(例えば、車種)のオブジェクト(例えば、車両)が異なる状態で写る複数の画像それぞれが含むオブジェクトの特徴量を含むものとする。
 また、本実施形態では、制御部121は、所定の順番(例えば、普通車用辞書、大型車用辞書の順)で、外部記憶装置124から辞書を繰り返し読み出す。すなわち、制御部121は、外部記憶装置124から、普通車用辞書および大型車用辞書を交互に読み出す。そして、制御部121は、カメラ11からの動画像データの送信が停止するまで、外部記憶装置124からの辞書の読み出しを繰り返す。次に、制御部121は、検出領域の特徴量(フレーム内の車両の特徴量)と、読み出した辞書が含む特徴量との類似度を算出する(ステップS605)。本実施形態では、制御部121は、外部記憶装置124から、2つの辞書を交互に読み出しているが、判定対象の車種の速度が異なる場合には、速度が速い車種の辞書をNフレーム連続して読み出した後、速度が遅い車種の辞書を1フレームだけ読み出すパターンを繰り返しても良い。
 さらに、制御部121(判定部の一例)は、算出した類似度に基づいて、フレーム内の車両の車種を判定する(ステップS606)。本実施形態では、制御部121は、算出した類似度が所定の閾値より高い場合に、読み出した辞書に対応する車種を、フレーム内の車両の車種と判定する。ここで、所定の閾値は、辞書に対応する車種に属する車両と判定する類似度の下限である。また、本実施形態では、制御部121は、判定対象の車種の全ての辞書が読み出されるまで、複数のフレームから抽出した車両の特徴量を保持し続け、当該保持する車両の特徴量と、全ての辞書が含む特徴量との類似度に基づいて、特徴量を保持する車両の車種を判定する。
 ここで、図10~12を用いて、本実施形態にかかるプローブカーV1による車種の判定処理の一例について説明する。図10~12は、第1の実施形態にかかるプローブカーによる車種の判定処理の一例を説明するための図である。
 図10に示すように、制御部121は、フレームから抽出した車両の特徴量と普通車用辞書が含む特徴量との類似度が「0.3」であり、当該フレームから抽出した車両の特徴量と大型車用辞書が含む特徴量との類似度が「0.5」である場合、フレームから抽出した車両の特徴量との類似度が高い特徴量を含む辞書(ここでは、大型車用辞書)の車種である「大型車」を、フレームから抽出した車両の車種と判定する。
 または、制御部121は、ステレオカメラによって監視対象エリアを撮像して得られる検出対象車両V2の三次元形状を取得する。そして、図11に示すように、制御部121は、取得した三次元形状が含む、検出対象車両V2の幅および高さと、所定の車種分類基準とを照らし合わせて、検出対象車両V2の車種を判定しても良い。ここで、所定の車種分類基準は、車種毎の幅および高さを含む。または、図12に示すように、制御部121は、フレームが含む車両内のナンバープレートに記載された車種情報に基づいて、検出対象車両V2の車種を判定しても良い。
 図6に戻り、制御部121(算出部の一例)は、動画像データを構成するフレームに基づいて、プローブカーV1の先端から検出対象車両V2の後端までの車間距離を求める。さらに、制御部121は、車間距離と、判定した検出対象車両V2の車種の車長と、を足し合わせた距離を車頭間距離として算出する(ステップS607)。
 ここで、図13A,13B,14,15を用いて、本実施形態にかかるプローブカーV1による車頭間距離の算出処理の一例について説明する。図13Aおよび図13Bは、第1の実施形態にかかるプローブカーによる車間距離の算出処理の一例を説明するための図である。図13Aでは、フレームFの左上の角を原点Oとし、フレームFの上下方向をY軸とし、フレームFの水平方向をX軸とする。図14は、第1の実施形態にかかるプローブカーにより算出された車間距離の一例を示す図である。図15は、第1の実施形態にかかるプローブカーにおける車頭間距離の算出に用いる標準車長の一例を示す図である。
 アップダウンがある道路を走行する車両間の車間距離を算出した場合、単眼カメラの撮像により得られる動画像データを用いて算出した車間距離である単眼方式の車間距離と、ステレオカメラの撮像により得られる動画像データに基づく車間距離であるステレオ方式の車間距離(第3距離の一例)とは異なる。単眼方式の車間距離は、道路が平坦であることを前提に算出されるため、アップダウンがある道路を走行する車両間の車間距離を算出すると、実際の車間距離との誤差が発生する。一方、ステレオ方式の車間距離は、三角測量の原理に基づいて算出されるため、実際の車間距離との誤差が小さい。ただし、ステレオ方式の車間距離を算出する場合、車間距離を算出する領域(検出領域)にテクスチャが無い場合には、車間距離を算出することができない。よって、単眼方式の車間距離とステレオ方式の車間距離とを用いて、実際の車間距離を算出することが好ましい。
 例えば、図13Aおよび図13Bに示すように、プローブカーV1と、地点1(または地点2)の検出対象車両V2との間の車間距離を算出する場合、プローブカーV1と地点1(または地点2)との高低差が小さいため、単眼方式の車間距離およびステレオ方式の車間距離のいずれも、実際の車間距離との乖離が小さい。一方、プローブカーV1と地点3の検出対象車両V2との間の車間距離を算出する場合、プローブカーV1と地点3との高低差が大きいため、単眼方式の車間距離とステレオ方式の車間距離との乖離が大きくなる。そこで、制御部121は、単眼方式の車間距離およびステレオ方式の車間距離を求め、当該単眼方式の車間距離とステレオ方式の車間距離との差分が所定値以下である場合には、単眼方式の車間距離を用いて車頭間距離を求める。一方、制御部121は、単眼方式の車間距離とステレオ方式の車間距離との差分が所定値より大きい場合には、ステレオ方式の車間距離に基づいて、単眼方式の車間距離を補正する。そして、制御部121は、補正後の単眼方式の車間距離を用いて車頭間距離を求める。
 例えば、図14に示すように、制御部121は、プローブカーV1と地点3の検出対象車両V2(言い換えると、フレームF内におけるY軸の座標:300に位置する検出対象車両V2)との車間距離を算出する場合、単眼方式の車間距離:60mとステレオ方式の車間距離:80mの差分:20mが所定値:10mより大きいため、ステレオ方式の車間距離:80mを、単眼方式の車間距離とみなして、当該単眼方式の車間距離を補正する。
 次いで、制御部121は、フレームF内の車両の車種の車長を求める。図15に示すように、本実施形態では、記憶部123は、車種と、当該車種に属する車両の標準車長とを対応付けて記憶する標準車長テーブルTを記憶している。そして、制御部121は、フレームF内の車両の車種を判定すると、標準車長テーブルTから、当該判定した車種と対応付けて記憶された標準車長を読み出し、当該標準車長を、フレーム内の車両の車長として特定する。その後、制御部121は、単眼方式の車間距離と、特定した車長とを足し合わせた距離を、車頭間距離として算出する。これにより、フレーム内に車両の全てが含まれていない場合でも、車頭間距離を算出することができる。
 本実施形態では、制御部121は、標準車長テーブルTにおいて、判定した車種と対応付けて記憶された標準車長を、フレーム内の車両の車長としているが、これに限定するものではない。例えば、判定対象の車種に大型車が含まれる場合、制御部121は、予め設定された時間(例えば、1週間)内に、フレームから特徴量を抽出した検出対象車両V2の数に対する、大型車と判定された車両の数の割合(以下、大型車混入率と言う)を求める。
 そして、制御部121は、大型車混入率に基づいて、検出対象車両V2の車長を推定し、当該推定した車長と、車間距離との合計を、車頭間距離として算出する。例えば、制御部121は、フレームから特徴量を抽出した検出対象車両V2のうち、大型車混入率分の検出対象車両V2の車長を、大型車の車長と推定する。
 これにより、道路を走行するプローブカーV1の割合が低い場合でも、信頼性の高い車頭間距離を求めることができる。また、大型車混入率を用いて車頭間距離を算出する方法によれば、プローブカーV1を走行させる時間が長くなればなるほど、より実際の値に近い車頭間距離を求めることができる。さらに、従来は、固定式のトラフィック・カウンタ(感知器)にて計測した大型車混入率を算出したり、感知器の無い道路では人によって大型車混入率を求めたりしていたが、フレーム内の車両の特徴量と辞書が含む特徴量とを用いて大型車を判定することで、感知器の設置等にかかる手間やコストを削減することができる。
 図6に戻り、制御部121は、最後に読み出したフレーム(以下、現フレームと言う)と当該現フレームから所定数(例えば、1つ)前のフレーム(以下、過去フレームと言う)までのフレームにおける車両の検出領域の位置に基づいて、次に読み出すフレーム(以下、次フレームと言う)内において、車両が検出される位置を推定する(ステップS608)。
 図16は、第1の実施形態にかかるプローブカーにおける車両位置の推定処理の一例を説明するための図である。図16に示すように、現フレームである2番目のフレームから車両を検出する場合、制御部121は、過去フレーム(1番目のフレーム)から検出された車両の検出領域R1の位置の見かけの移動量および移動方向に基づいて、2番目のフレーム内における車両の検出領域R2の位置を推定する。そして、制御部121は、2番目のフレーム内における注目領域を設定する際、推定された検出領域R2または当該検出領域R2の位置近傍を注目領域に設定し、当該推定された検出領域R2または当該検出領域R2近傍以外の領域を注目領域に設定しない。
 図16に示すように、現フレームである3番目のフレームから車両を検出する場合、制御部121は、過去フレーム(2番目のフレーム)から検出された車両の検出領域R3の見かけの移動量および移動方向に基づいて、3番目のフレーム内における車両の検出領域R4の位置を推定する。そして、制御部121は、3番目のフレーム内における注目領域を設定する際、推定された検出領域R4または当該検出領域R4近傍を注目領域に設定し、当該推定された検出領域R4または当該検出領域R4近傍以外の領域を注目領域に設定しない。これにより、次フレームにおいて注目領域に設定する領域を絞り込むことができ、推定された検出領域およびその近傍から車両の特徴量を重点的に抽出することで、車両の特徴量の抽出効率を高めることができる。
 その後、制御部121は、カメラ11から受信した動画像データを構成する全てのフレームから、車両の特徴量の抽出を行ったか否かを判断する(ステップS609)。全てのフレームから車両の特徴量の抽出を行っていない場合(ステップS609:No)、制御部121は、ステップS602に戻り、動画像データを構成するフレームのうち、車両の特徴量の抽出を行っていない次フレーム内における注目領域を設定する。一方、全てのフレームから車両の特徴量の抽出を行った場合(ステップS609:Yes)、制御部121は、車頭間距離の算出処理を終了する。その後、制御部121は、算出した車頭間距離を用いて距離データを生成し、当該距離データを、基地局Bを介して、サーバSに送信する。
 本実施形態では、制御部121が、図6に示すステップS602~ステップS609までの処理を行っているが、これに限定するものではなく、カメラから受信した動画像データを、サーバSに送信して、図6に示すステップS602~ステップS609の一部または全てをサーバSにおいて実行するように構成することも可能である。
 次に、図17および図18を用いて、図6のステップS602およびステップS603に示す注目領域の特徴量の抽出処理について詳細に説明する。図17は、第1の実施形態にかかるプローブカーにおける注目領域の特徴量の抽出処理の流れの一例を示すフローチャートである。図18は、第1の実施形態にかかるプローブカーにおける注目領域の特徴量の抽出処理の一例を説明するための図である。
 制御部121は、動画像データを受信すると、当該動画像データを構成する各フレームを、異なるサイズに縮小した画像(以下、マルチスケール画像と言う)を生成する(ステップS1701)。図18に示すように、本実施形態では、制御部121は、フレームFを、3つの異なるサイズに縮小した3つのマルチスケール画像MF1,MF2,MF3を生成する。
 次いで、制御部121は、フレームおよびマルチスケール画像それぞれに対して注目領域を設定する(ステップS1702)。その際、制御部121は、フレームおよびマルチスケール画像のいずれに対しても、同じサイズかつ同じ形状(例えば、矩形状)の領域を注目領域に設定する。
 そして、制御部121は、フレーム内およびマルチスケール画像内に設定された注目領域の特徴量を抽出する(ステップS1703)。本実施形態では、制御部121は、フレームに対して注目領域を設定する場合と同様にして、マルチスケール画像全体、若しくはマルチスケール画像内の設定対象領域内において注目領域を移動させる。次いで、制御部121は、マルチスケール画像内に設定された各注目領域の特徴量を抽出する。
 そして、制御部121は、背景の特徴量および車両の特徴量を含む所定の辞書を用いて、フレームおよびマルチスケール画像内の注目領域のうち、車両の特徴量が抽出された注目領域と、背景の特徴量が抽出された注目領域を判別する(ステップS1704)。そして、制御部121は、車両の特徴量が抽出された注目領域を、検出領域とする。
 これにより、例えば、フレームが含む車両の見かけのサイズが大きく、注目領域内に納まらず、当該注目領域から抽出された特徴量を車両の特徴量として抽出できない場合でも、マルチスケール画像が含む車両が、注目領域に納まれば、当該注目領域から抽出された特徴量を車両の特徴量として抽出することができるので、フレームが含む車両の検出精度を向上させることができる。また、検出対象車両V2が遠方に存在し、フレームが含む車両の見かけのサイズが小さく、当該フレームのままでは、車両の特徴量を抽出できない場合でも、マルチスケール画像が含む車両の特徴量を抽出できるので、フレームが含む車両の検出精度を向上させることができる。
 このように、第1の実施形態にかかる交通情報検出システムによれば、フレーム内に車両の全てが含まれていない場合でも、車頭間距離を算出することができる。
(第2の実施形態)
 本実施形態は、1つのフレームについて、外部記憶装置から複数の辞書を読み出し、当該フレームが含む車両の特徴量と、読み出した各辞書が含む特徴量との類似度に基づいて、当該車両の車種を判定する例である。以下の説明では、第1の実施形態と同様の箇所については説明を省略する。
 図19は、第2の実施形態にかかるプローブカーによる車頭間距離の算出処理の流れの一例を示すフローチャートである。以下の説明では、図19において、図6に示す同様のステップについては、同じ符号を付してその説明を省略する。本実施形態では、制御部121は、外部記憶装置124から、判定対象の全ての車種の辞書を読み出す。
 具体的には、制御部121は、外部記憶装置124から、判定対象の全ての車種の複数の辞書(以下、読出対象辞書と言う)を読み出す(ステップS1901)。次に、制御部121は、検出領域の特徴量と、読み出した複数の読出対象辞書のうち一つの読出対象辞書が含む特徴量との類似度を算出する(ステップS1902)。そして、制御部121は、複数の読出対象辞書それぞれが含む特徴量と、検出領域の特徴量との類似度を算出したか否かを判断する。全ての読出対象辞書が含む特徴量と、検出領域の特徴量との類似度を算出していない場合、制御部121は、ステップS1901に戻り、複数の読出対象辞書のうち、未だ検出領域の特徴量との類似度を算出していない読出対象辞書を読み出す。
 全ての読出対象辞書が含む特徴量と検出領域の特徴量との類似度を算出した場合、制御部121は、検出領域の特徴量と各読出対象辞書が含む特徴量との類似度を比較する(ステップS1903)。そして、制御部121は、検出領域の特徴量との類似度が最も高い特徴量を含む読出対象辞書に対応する車種を、フレーム内の車両の車種と判定する(ステップS1904)。
 このように、第2の実施形態にかかる交通情報検出システムによれば、第1の実施形態と同様の作用効果を得ることができる。
(第3の実施形態)
 本実施形態は、判定対象の車種(例えば、普通車および大型車)に属する車両の高次特徴量を含む統合辞書を記憶し、当該統合辞書が含む高次特徴量との類似度が所定の閾値以上の車両の特徴量と、読出対象辞書が含む特徴量との類似度に基づいて、フレームが含む車両の車種を判定する例である。以下の説明では、第2の実施形態と同様の箇所については説明を省略する。
 図20は、第3の実施形態にかかるプローブカーによる車頭間距離の算出処理の流れの一例を示すフローチャートである。図21は、第3の実施形態にかかるプローブカーによる車頭間距離の算出処理の一例を説明するための図である。本実施形態では、外部記憶装置124は、判定対象の車種に属する車両の高次特徴量を含む統合辞書を記憶する。
 制御部121は、注目領域の特徴量の抽出が完了すると、外部記憶装置124から統合辞書を読み出す(ステップS2001)。そして、制御部121は、検出領域の特徴量と統合辞書が含む高次特徴量との類似度を算出する(ステップS2002)。そして、制御部121は、検出領域のうち、統合辞書が含む高次特徴量との類似度が所定の閾値以上の特徴量を有する検出領域を選択する(ステップS2003)。その後、ステップS1901以降のステップに進み、制御部121は、選択した検出領域の特徴量と、読出対象辞書が含む特徴量との類似度に基づいて、フレームが含む車両の車種を判定する。
 一方、制御部121は、検出領域のうち、統合辞書が含む高次特徴量との類似度が所定の閾値より低い検出領域(すなわち、選択されなかった検出領域)については、当該検出領域の特徴量と、読出対象辞書が含む特徴量との類似度に基づく、フレームが含む車両の車種の判定を実施しない。これにより、フレームが含む車両の車種が、車頭間距離を算出する車種の車両でない場合には、読出対象辞書の読み出しを行わないので、車種の判定による処理負荷をより小さくし、かつ車種の判定にかかる処理時間をより短くすることができる。
 例えば、図21に示すように、制御部121は、フレーム内の検出領域のうち、統合辞書が含む高次特徴量との類似度が所定の閾値以上の特徴量を有する検出領域2101,2102を選択する。そして、制御部121は、検出領域2101,2102のうち、普通車用辞書が含む特徴量との類似度が所定の閾値以上の特徴量を有する検出領域2102(すなわち、検出対象車両V2)に対応する車両の車種を普通車と判定する。一方、制御部121は、検出領域2101,2102のうち、大型車用辞書が含む特徴量との類似度が所定の閾値以上の特徴量を有する検出領域2101(検出対象車両V2)の車種を大型車と判定する。また、制御部121は、フレーム内の検出領域2101,2102以外の検出領域(図示しない)については、当該検出領域の特徴量と、普通車用辞書および大型車用辞書が含む特徴量との類似度に基づく、車種の判定を禁止する。
 このように、第3の実施形態にかかる交通情報検出システムによれば、フレームが含む車両の車種が、車頭間距離を算出する車種の車両でない場合には、読出対象辞書の読み出しを行わないので、車種の判定による処理負荷をより小さくし、かつ車種の判定にかかる処理時間をより短くすることができる。
 以上説明したとおり、第1から第3の実施形態によれば、フレーム内に車両が含まれていない場合でも、車頭間距離を算出することができる。
 なお、本実施形態の情報処理部12で実行されるプログラムは、ROM等に予め組み込まれて提供される。本実施形態の情報処理部12で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
 さらに、本実施形態の情報処理部12で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の情報処理部12で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (12)

  1.  撮像部により第1車両の前方を撮像して得られた第1画像を受信する受信部と、
     車種毎に設けられかつ当該車種の車両の特徴量を含む辞書を記憶する記憶部と、
     前記第1画像内の第2車両の特徴量を抽出する抽出部と、
     前記記憶部から、判定対象の車種の前記辞書を読み出し、当該読み出した辞書が含む特徴量と前記第2車両の特徴量との類似度に基づいて、前記第2車両の車種を判定する判定部と、
     前記第1画像に基づいて、前記第1車両の先端から前記第2車両の後端までの第1距離を求め、当該第1距離と前記判定部により判定した車種に属する車両の車長との合計を、前記第1車両の先端から前記第2車両の先端までの第2距離として算出する算出部と、
     を備えた車載器。
  2.  前記判定対象の車種は、大型車を含み、
     前記算出部は、予め設定された時間内に前記抽出部により特徴量が抽出された前記第2車両の数に対する、大型車と判定された車両の数の割合を求め、当該割合に基づいて、前記第2車両の車長を推定し、前記第1距離と推定した車長との合計を前記第2距離として算出する請求項1に記載の車載器。
  3.  前記抽出部は、前記第1画像内において前記第2車両の特徴量を抽出した第1領域より大きくかつ当該第1領域を包含する第2領域内において、前記第2車両の端部を検出し、前記第1領域の端部と前記第2車両の端部とが一致するように、前記第1領域を補正し、当該補正した第1領域の特徴量を、前記第2車両の特徴量とする請求項1に記載の車載器。
  4.  前記撮像部は、単眼カメラであり、
     前記受信部は、ステレオカメラにより前記第1車両の前方を撮像して得られた第2画像を受信し、
     前記算出部は、前記第2画像に基づいて、前記第1車両の先端から前記第2車両の後端までの第3距離を求め、前記第1距離と前記第3距離の差分が所定値より大きい場合、前記第3距離に基づいて前記第1距離を補正する請求項1に記載の車載器。
  5.  前記判定部は、前記記憶部から、前記第2距離の検出対象の車両の高次特徴量を含む統合辞書を読み出し、当該統合辞書が含む前記高次特徴量との類似度が所定の閾値以上の前記第2車両の特徴量と、前記辞書が含む特徴量との類似度に基づいて、前記第2車両の車種を判定し、前記統合辞書が含む前記高次特徴量との類似度が所定の閾値より低い前記第2車両の特徴量と、前記辞書が含む特徴量との類似度に基づく、前記第2車両の車種の判定を禁止する請求項1に記載の車載器。
  6.  前記第1画像は、動画像であり、
     前記判定部は、前記記憶部から、前記動画像を構成するフレーム毎に異なる前記辞書を読み出す請求項1に記載の車載器。
  7.  撮像部により第1車両の前方を撮像して得られた第1画像を受信し、
     前記第1画像内の第2車両の特徴量を抽出し、
     記憶部から、車種毎に設けられかつ判定対象の車種の車両の特徴量を含む辞書を読み出し、
     当該読み出した辞書が含む特徴量と前記第2車両の特徴量との類似度に基づいて、前記第2車両の車種を判定し、
     前記第1画像に基づいて、前記第1車両の先端から前記第2車両の後端までの第1距離を求め、
     当該第1距離と判定した車種に属する車両の車長との合計を、前記第1車両の先端から前記第2車両の先端までの第2距離として算出する、
     ことを含む車頭間距離算出方法。
  8.  前記判定対象の車種は、大型車を含み、
     予め設定された時間内に特徴量が抽出された前記第2車両の数に対する、大型車と判定された車両の数の割合を求め、
     当該割合に基づいて、前記第2車両の車長を推定し、前記第1距離と推定した車長との合計を前記第2距離として算出する、
     ことをさらに含む請求項7に記載の車頭間距離算出方法。
  9.  前記第1画像内において前記第2車両の特徴量を抽出した第1領域より大きくかつ当該第1領域を包含する第2領域内において、前記第2車両の端部を検出し、
     前記第1領域の端部と前記第2車両の端部とが一致するように、前記第1領域を補正し、当該補正した第1領域の特徴量を、前記第2車両の特徴量とする、
     ことをさらに含む請求項7に記載の車頭間距離算出方法。
  10.  前記撮像部は、単眼カメラであり、
     ステレオカメラにより前記第1車両の前方を撮像して得られた第2画像を受信し、
     前記第2画像に基づいて、前記第1車両の先端から前記第2車両の後端までの第3距離を求め、前記第1距離と前記第3距離の差分が所定値より大きい場合、前記第3距離に基づいて前記第1距離を補正する、
     ことをさらに含む請求項7に記載の車頭間距離算出方法。
  11.  前記記憶部から、前記第2距離の検出対象の車両の高次特徴量を含む統合辞書を読み出すことをさらに含み、
     当該統合辞書が含む前記高次特徴量との類似度が所定の閾値以上の前記第2車両の特徴量と、前記辞書が含む特徴量との類似度に基づいて、前記第2車両の車種を判定し、
     前記統合辞書が含む前記高次特徴量との類似度が所定の閾値より低い前記第2車両の特徴量と、前記辞書が含む特徴量との類似度に基づく、前記第2車両の車種の判定を禁止する請求項7に記載の車頭間距離算出方法。
  12.  前記第1画像は、動画像であり、
     前記記憶部から、前記動画像を構成するフレーム毎に異なる前記辞書を読み出す請求項9に記載の車頭間距離算出方法。
PCT/JP2016/057031 2015-09-30 2016-03-07 車載器および車頭間距離算出方法 WO2017056525A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
AU2016330733A AU2016330733A1 (en) 2015-09-30 2016-03-07 Vehicle-mounted device and headway distance calculation method
AU2020200802A AU2020200802B2 (en) 2015-09-30 2020-02-04 Vehicle-mounted device and headway distance calculation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015195319A JP6339058B2 (ja) 2015-09-30 2015-09-30 車載器および車頭間距離算出方法
JP2015-195319 2015-09-30

Publications (1)

Publication Number Publication Date
WO2017056525A1 true WO2017056525A1 (ja) 2017-04-06

Family

ID=58423025

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/057031 WO2017056525A1 (ja) 2015-09-30 2016-03-07 車載器および車頭間距離算出方法

Country Status (3)

Country Link
JP (1) JP6339058B2 (ja)
AU (2) AU2016330733A1 (ja)
WO (1) WO2017056525A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111489552A (zh) * 2020-04-24 2020-08-04 科大讯飞股份有限公司 一种车头时距预测方法、装置、设备及存储介质
CN113936453A (zh) * 2021-09-09 2022-01-14 上海宝康电子控制工程有限公司 一种基于车头时距的信息识别方法及系统

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6877636B2 (ja) * 2018-04-23 2021-05-26 日立Astemo株式会社 車載カメラ装置
US11443619B2 (en) 2018-05-15 2022-09-13 Kabushiki Kaisha Toshiba Vehicle recognition apparatus and vehicle recognition method
JP2020086735A (ja) * 2018-11-21 2020-06-04 株式会社東芝 交通情報取得システム及び交通情報取得方法
US11814080B2 (en) 2020-02-28 2023-11-14 International Business Machines Corporation Autonomous driving evaluation using data analysis
US11644331B2 (en) 2020-02-28 2023-05-09 International Business Machines Corporation Probe data generating system for simulator
US11702101B2 (en) 2020-02-28 2023-07-18 International Business Machines Corporation Automatic scenario generator using a computer for autonomous driving

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011180934A (ja) * 2010-03-03 2011-09-15 Ricoh Co Ltd 車種判別装置及び運転支援装置
JP2012021883A (ja) * 2010-07-14 2012-02-02 Toshiba Corp 車両間隔検出システム、車両間隔検出方法及び車両間隔検出プログラム
JP2014002534A (ja) * 2012-06-18 2014-01-09 Toshiba Corp 車種判別装置及び車種判別方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004127104A (ja) * 2002-10-04 2004-04-22 Ntt Data Corp 交通情報予測システム、及びプログラム
JP4420011B2 (ja) * 2006-11-16 2010-02-24 株式会社日立製作所 物体検知装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011180934A (ja) * 2010-03-03 2011-09-15 Ricoh Co Ltd 車種判別装置及び運転支援装置
JP2012021883A (ja) * 2010-07-14 2012-02-02 Toshiba Corp 車両間隔検出システム、車両間隔検出方法及び車両間隔検出プログラム
JP2014002534A (ja) * 2012-06-18 2014-01-09 Toshiba Corp 車種判別装置及び車種判別方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111489552A (zh) * 2020-04-24 2020-08-04 科大讯飞股份有限公司 一种车头时距预测方法、装置、设备及存储介质
CN113936453A (zh) * 2021-09-09 2022-01-14 上海宝康电子控制工程有限公司 一种基于车头时距的信息识别方法及系统
CN113936453B (zh) * 2021-09-09 2022-08-19 上海宝康电子控制工程有限公司 一种基于车头时距的信息识别方法及系统

Also Published As

Publication number Publication date
JP6339058B2 (ja) 2018-06-06
AU2020200802B2 (en) 2022-01-27
AU2016330733A1 (en) 2018-03-15
JP2017068712A (ja) 2017-04-06
AU2020200802A1 (en) 2020-02-20

Similar Documents

Publication Publication Date Title
JP6339058B2 (ja) 車載器および車頭間距離算出方法
US10558869B2 (en) Location specifying apparatus and non-transitory computer-readable medium
JP6241422B2 (ja) 運転支援装置、運転支援方法、および運転支援プログラムを記憶する記録媒体
JP6595182B2 (ja) マッピング、位置特定、及び姿勢補正のためのシステム及び方法
JP5968064B2 (ja) 走行レーン認識装置および走行レーン認識方法
CN111507130B (zh) 车道级定位方法及系统、计算机设备、车辆、存储介质
US9798938B2 (en) Detecting device, detecting method, and program
US20120281881A1 (en) Method for Estimating the Roll Angle in a Travelling Vehicle
KR102441075B1 (ko) 노면표시기반 차량의 위치추정 방법 및 장치
JP6520740B2 (ja) 物体検出方法、物体検出装置、およびプログラム
TWI504858B (zh) A vehicle specification measuring and processing device, a vehicle specification measuring method, and a recording medium
US11703344B2 (en) Landmark location estimation apparatus and method, and computer-readable recording medium storing computer program programmed to perform method
US20190152487A1 (en) Road surface estimation device, vehicle control device, and road surface estimation method
US20210270625A1 (en) Follow that car
JP6815963B2 (ja) 車両用外界認識装置
JP2020003463A (ja) 自車位置推定装置
US20210264170A1 (en) Compensation for vertical road curvature in road geometry estimation
US11443619B2 (en) Vehicle recognition apparatus and vehicle recognition method
JP2020008462A (ja) 自車位置推定装置
JP2023099851A (ja) 測定装置、測定方法およびプログラム
CN110570680A (zh) 利用地图信息确定对象位置的方法和系统
AU2019203180B2 (en) Vehicle recognition apparatus and vehicle recognition method
JP2022034051A (ja) 測定装置、測定方法およびプログラム
JPWO2018212286A1 (ja) 測定装置、測定方法およびプログラム
JP2014092935A (ja) 先行車認識システム、先行車認識方法、及び先行車認識プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16850703

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016330733

Country of ref document: AU

Date of ref document: 20160307

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16850703

Country of ref document: EP

Kind code of ref document: A1