WO2015104898A1 - 車両用外界認識装置 - Google Patents

車両用外界認識装置 Download PDF

Info

Publication number
WO2015104898A1
WO2015104898A1 PCT/JP2014/080182 JP2014080182W WO2015104898A1 WO 2015104898 A1 WO2015104898 A1 WO 2015104898A1 JP 2014080182 W JP2014080182 W JP 2014080182W WO 2015104898 A1 WO2015104898 A1 WO 2015104898A1
Authority
WO
WIPO (PCT)
Prior art keywords
position information
pedestrian
detection
image
detection unit
Prior art date
Application number
PCT/JP2014/080182
Other languages
English (en)
French (fr)
Inventor
健人 緒方
將裕 清原
耕太 入江
雅男 坂田
吉孝 内田
Original Assignee
クラリオン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クラリオン株式会社 filed Critical クラリオン株式会社
Priority to EP14877969.7A priority Critical patent/EP3093820B1/en
Priority to US15/107,143 priority patent/US9811742B2/en
Publication of WO2015104898A1 publication Critical patent/WO2015104898A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Definitions

  • the present invention relates to an external environment recognition device for a vehicle, and relates to an external environment recognition device for a vehicle that detects an object based on information obtained from an image sensor such as a camera mounted on a vehicle such as an automobile.
  • the object tracking device disclosed in Patent Literature 1 predicts the current position on the road surface of the object based on the position on the road surface of the object obtained from the past image and the vehicle motion information, and the predicted road surface
  • the object detection means for detecting the object from the position on the current image corresponding to the current position on the image and the ground contact position where the object is in contact with the road surface exist within the imaging range
  • the ground contact position on the image and First position estimating means for estimating the current position of the object on the road surface based on the mounting position of the image pickup means on the own vehicle
  • Second position estimating means for estimating a current position of the object on the road surface based on an enlargement ratio of the object size with respect to the object size on the past image
  • the object tracking device disclosed in Patent Document 1 when the contact position is within the imaging range, the current position of the object is estimated based on the contact position, and the contact position is within the imaging range. Even if it does not exist, the current position of the object is estimated based on the magnification rate of the object on the image, so the ground contact position where the object touches the road surface is out of the shooting range or blocked Even in such a case, it is possible to estimate the position of the target object by tracking the target object to the nearest position of the host vehicle.
  • the pedestrian reflected in the end of the field of view of the camera is detected by pattern matching processing due to lens distortion. Is difficult. Therefore, when a pedestrian is detected by such pattern matching processing, the pedestrian is detected only after the pedestrian moving in the horizontal direction moves to the center of the image with little camera distortion. Start of calculation of relative position and relative speed will be delayed. In general, the relative speed is calculated from the difference between the relative positions and is subjected to a smoothing process for removing noise. Therefore, a certain amount of time is required from the start of calculating the relative position to the convergence to the actual relative speed. It is known that it takes.
  • the detection of the pedestrian by the pattern matching process may be interrupted. If detection by the pattern matching process is interrupted in this way, the relative speed is calculated again after detecting the pedestrian again, so more time is required until the calculated relative speed converges to the actual relative speed. In short, it becomes more difficult to accurately grasp the possibility of collision with a pedestrian crossing the course of the own vehicle.
  • an object of the present invention is, for example, a case where an object such as a pedestrian cannot be accurately detected in a part of an image captured around the vehicle.
  • an object of the present invention is to provide a vehicle external environment recognition device that can improve the calculation accuracy of the relative position and relative speed with respect to the object.
  • an external environment recognition apparatus for a vehicle is an external environment recognition apparatus for a vehicle that recognizes a relative distance and / or a relative speed to an object shown in an image obtained by imaging the periphery of the vehicle.
  • a first detection unit that detects first position information of the object in the image
  • a second detection unit that detects second position information of the object in the image by a method different from the first detection unit;
  • a first detection position interpolation unit that calculates information interpolation information; a distance measurement unit that measures a relative distance and / or a relative speed to the object based on the first position information and the first position information interpolation information; It is characterized by providing.
  • the present invention only the first state and the second detection unit in which the first position information and the second position information of the object are detected from the image captured around the host vehicle by the first detection unit and the second detection unit, Based on the first position information in the first state, the second position information, and the second position information in the second state when the second state in which the second position information of the object is detected from the image occurs in time series Calculating the first position information interpolation information for interpolating the first position information of the object in the second state, and measuring the relative distance and / or relative speed to the object using the first position information interpolation information, For example, even if a pedestrian or other object cannot be precisely detected in a part of the image captured by the first detector around the vehicle, the relative position and relative speed with the object can be accurately calculated. Can do.
  • the block diagram which shows the whole structure of 1st embodiment of the external field recognition apparatus for vehicles which concerns on this invention.
  • the schematic diagram which shows typically the image acquired by the image acquisition part shown in FIG. 1, and the 1st detection area and 2nd detection area which are set in the image.
  • the flowchart explaining the processing flow of the 1st detection part shown in FIG. Explanatory drawing which demonstrated typically an example of the raster scan process.
  • Explanatory drawing which demonstrated typically an example of the pattern recognition process.
  • Explanatory drawing which demonstrated typically the division
  • the schematic diagram which shows typically an example of the presence or absence of the detection by the 1st detection part in a process timing, and a 2nd detection part.
  • Explanatory drawing explaining the example of the processing method by the presence or absence of the detection by a 1st detection part and a 2nd detection part, and a distance measurement part in a process timing.
  • Explanatory drawing which illustrates typically the past position interpolation process in process timing T1, T2 shown to FIG. 12A.
  • Explanatory drawing which illustrates typically the present position interpolation process in the process timing T6 shown to FIG. 12A.
  • the figure which shows an example of the measurement result of the pedestrian's lateral movement speed at the time of measuring only by the pattern matching process and the measurement result of the pedestrian's lateral movement speed by the vehicle external environment recognition apparatus shown in FIG. The block diagram which shows the whole structure of 2nd embodiment of the external field recognition apparatus for vehicles which concerns on this invention.
  • the flowchart explaining the processing flow of the output selection part shown in FIG. The block diagram which shows the whole structure of 3rd embodiment of the external field recognition apparatus for vehicles which concerns on this invention.
  • FIG. 1 is a block diagram of an external environment recognition device 10 for a vehicle in the first embodiment.
  • FIG. 2 is a schematic diagram schematically showing an image acquired by the image acquisition unit shown in FIG. 1 and a first detection region and a second detection region set in the image.
  • the vehicle external environment recognition device 10 is incorporated in a camera device mounted on a vehicle such as an automobile or an integrated controller, and is for detecting an object from an image taken by the camera 1 of the camera device.
  • the embodiment is configured to detect a pedestrian among objects around the own vehicle.
  • the vehicle external environment recognition apparatus 10 is configured by a computer having a CPU, a memory, an I / O, and the like, and a predetermined process is programmed to execute the process repeatedly at a predetermined cycle T.
  • the vehicle external environment recognition apparatus 10 includes an image acquisition unit 11, a first detection unit 12, a second detection unit 13, a first detection position interpolation unit 14, a distance measurement unit 15, And an output unit 16.
  • the image acquisition unit 11 acquires an image 200 obtained by photographing the surroundings of the host vehicle from the camera 1 attached at a position where the surroundings of the own vehicle can be captured, and stores the image 200 on the RAM. It is assumed that internal parameters such as lens distortion of the camera 1 and external parameters such as attachment position and angle are acquired in advance by calibration performed at the time of vehicle shipment.
  • the image 200 is a two-dimensional array and is represented by IMGSRC [x] [y].
  • x and y indicate the coordinates of the image, respectively.
  • the first detection unit 12 detects a pattern similar to a pedestrian from the first detection region 120 set in the image 200 acquired by the image acquisition unit 11, and the detection result D1 [n] is output.
  • This detection result D1 [n] is an array of tables whose elements are coordinates (SX, SY, EX, EY) on the detected pedestrian image, and n represents an ID when a plurality of detections are detected. Yes. Details of processing by the first detection unit 12 will be described later.
  • the second detection unit 13 detects a moving body having a motion different from the background from the second detection region 130 set in the image 200 by the image acquisition unit 11, and the detection result D2 [M] is output.
  • This detection result D2 [m] is an array of tables whose elements are the coordinates (SX, SY, EX, EY) on the image of the detected moving object, and m represents an ID when a plurality of detections are detected. Yes. Details of the processing by the second detection unit 13 will be described later.
  • the first detection region 120 in the image 200 set by the first detection unit 12 is smaller than the second detection region 130 in the image 200 set by the second detection unit 13. More specifically, the first detection region 120 in the image 200 set by the first detection unit 12 has less lens distortion than the second detection region 130 in the image 200 set by the second detection unit 13. It is set near the center.
  • the first detection position interpolation unit 14 calculates first position information interpolation information for interpolating the detection result D1 [n] of the first detection unit 12 using the detection result D2 [m] of the second detection unit 13. Details of the processing by the first detection position interpolation unit 14 will be described later.
  • the distance measurement unit 15 uses the detection result D1 [n] of the first detection unit 12 and the first position information interpolation information of the first detection position interpolation unit 14 to determine the relative distance to the pedestrian detected in the image 200. Then, the relative speed is calculated, and the distance measurement result DR [n] is output.
  • This distance measurement result DR [n] includes the relative position (PX, PY) and relative speed (VX, VY) with respect to the detected pedestrian, and n is the detection result D1 [n] of the first detection unit 12. It is common with n. Details of the processing by the distance measuring unit 15 will be described later.
  • the output unit 16 outputs the distance measurement result DR [n] output from the distance measurement unit 15 to an external device such as a vehicle controller or an alarm device provided outside the vehicle external environment recognition device 10.
  • the distance measurement result DR [n] may be output by directly inputting to the external device from the vehicle external environment recognition device 10 or by performing communication using a LAN (Local Area Network). Also good.
  • FIG. 3 is a flowchart illustrating the processing flow of the first detection unit 12.
  • the first detection unit 12 generates a pyramid image IMGPY [p] [x] [y] from an image in the first detection area 120 in the image IMGSRC [x] [y].
  • the pyramid image IMGPY [p] [x] [y] is an image group composed of P images, and is an image obtained by sequentially reducing the image IMGSRC [x] [y] at a predetermined magnification.
  • image distortion correction may be performed based on the camera parameters of the camera 1.
  • step S1202 raster scan processing using a discriminator is performed on the pyramid image IMGPY [p] [x] [y].
  • the raster scan process is a process of scanning the entire processed image while shifting a predetermined size of the subwindow SW by a predetermined amount within the processed image.
  • the size of the sub window SW is 16 pixels wide and 32 pixels high. Then, pattern recognition processing is applied to the image in the subwindow SW at each position.
  • pattern recognition processing for an image in the sub-window SW
  • processing using the following two types of pattern recognition techniques will be described. Any pattern recognition method may be used, but in the present embodiment, the second pattern recognition method is used.
  • the first pattern recognition method is a method using a neural network. Specifically, as shown in FIG. 4B, first, for a certain subwindow SW, an image of the area is cut out from the pyramid image IMGPY [p] [x] [y].
  • the image to be cut out may be only a gray scale value or may include color information. Here, a case where only a gray scale value is cut out will be described.
  • the pixels of the cut image are raster scanned to generate a one-dimensional vector 402, which is used as an input to the neural network 403.
  • the neural network 403 simulates a human brain network, and includes an input layer 4031, an intermediate layer 4033, and an output layer 4035 composed of a plurality of nodes.
  • each node of the input layer 4031 and the intermediate layer 4033 A weighting factor 4032 exists between the nodes, and a weighting factor 4034 exists between each node of the intermediate layer 4033 and each node of the output layer 4035.
  • the output of the neural network 403 is one value of the node of the output layer, and this value is obtained by the product-sum operation of the values of the nodes of all the intermediate layers 4033 connected to this node and its weight coefficient. Further, the value of each node in the intermediate layer 4033 is obtained by multiplying the values of the nodes of all the input layers 4031 connected to each node and its weighting coefficient.
  • the value of each node in the output layer 4035 is calculated by the above-described processing. As a result, if the value of the predetermined node of the output layer 4035 exceeds the threshold value, it is determined that a pedestrian pattern exists.
  • the predetermined node of the output layer 4035 needs to be determined in advance when creating a program.
  • the output of the node of the output layer 4035 exceeds the threshold value.
  • the weighting coefficient between the nodes needs to be adjusted in advance so that the output is below the threshold value.
  • a back propagation method or the like that is a known technique may be used.
  • the second pattern recognition method uses a luminance gradient.
  • the pattern recognition method described with reference to FIGS. 5 to 7 is applied.
  • This recognition method is an improvement of HOG (Histogram of Oriented Gradients), which is known as an effective method for pedestrian detection.
  • FIG. 5 is a flowchart for explaining the processing flow of this pattern recognition method
  • FIG. 6 is an explanatory diagram for schematically explaining a method of dividing the pattern recognition method shown in FIG. 5 into cells.
  • step S201 an image in a certain sub-window SW is divided into small regions called cells (CELL), and a luminance gradient is calculated from pixels belonging to each cell. That is, as shown in FIG. 6, the entire image area for pattern recognition is divided into a plurality of cells. In the present embodiment, the processed image area is divided into horizontal 3 and vertical 6.
  • a luminance gradient histogram is generated in each cell.
  • a histogram H [b] is prepared by dividing 0 to 180 [deg] or 0 to 360 [deg] into a predetermined number (for example, 8 divisions), and all of them are initialized to zero. deep.
  • an SOBEL filter or the like is applied to each pixel in the cell to obtain luminance changes (dX, dY) in the X direction and Y direction, and the intensity and angle (G, ⁇ ) of the luminance change from the amount of change in the X direction and Y direction ) And vote the intensity G for the position b of the histogram corresponding to the angle ⁇ .
  • a histogram H [b] obtained by performing this voting on all the pixels in the cell is a luminance gradient histogram.
  • the luminance gradient histogram is divided into four parts and is represented by a one-dimensional array of H [1] to H [4].
  • symbols p0 (target pixel) and p1 to p8 (peripheral pixels) are assigned to a certain pixel in the cell and eight neighboring pixels around it, respectively, as shown in FIG. Calculate one value.
  • the luminance gradient histogram is divided into 8 parts and is represented by a one-dimensional array of H [1] to H [8].
  • the symbols p0 and p1 to p8 are assigned to a certain pixel in the cell and the eight neighboring pixels around it, respectively, as shown in FIG. Calculate the value.
  • the first detection unit 12 obtains a one-dimensional vector obtained by concatenating the luminance gradient histogram calculated in each cell for each block (BLOCK) composed of a plurality of cells in step S ⁇ b> 202. Generate and normalize the norm. For example, a block of 2 cells ⁇ 2 cells is formed, and the block is set so that one cell extends over a plurality of blocks.
  • step S203 a normalized one-dimensional vector of each block is connected to generate a feature vector.
  • step S204 the feature vector is input to an SVM (Support Vector Machine) to obtain an evaluation value.
  • SVM Small Vector Machine
  • the above feature amount is obtained from image data of a background other than pedestrians and pedestrians to be detected in advance.
  • a feature vector is represented as one point in a space of the number of dimensions (feature space), but in SVM learning, data that is the boundary between the pedestrian and background distribution of the learning data in the feature space (Support Vector) :
  • a support hyperplane is generated in the middle of the support vector. In this identification process, when unknown data enters, an evaluation value is output according to which one is closer based on the hyperplane. If this evaluation value is equal to or greater than the threshold value, it is determined as a pedestrian, and if not, it is determined as a background.
  • the angle (G, ⁇ ) is calculated, and the intensity G is voted for the position b of the histogram corresponding to the angle ⁇ , so only one vote can be performed per pixel.
  • the pattern recognition method of the present embodiment described above four or eight voting opportunities are obtained for each pixel, so that the density of the luminance gradient histogram can be increased. In particular, since a pedestrian who exists at a position away from the own vehicle appears small on the image, the resolution is low.
  • the pattern recognition method of the present embodiment described above since the voting opportunities from one pixel increase, the density of the luminance gradient histogram can be improved and the object identification performance can be improved.
  • the threshold TH is set for the brightness difference
  • the vote value for the corresponding brightness gradient histogram is set as the brightness difference. It may be 1 if it is larger than the threshold value TH, or 0 if the luminance difference is equal to or less than the threshold value TH.
  • a plurality of threshold values TH1 and TH2 are set. If the luminance difference is smaller than the threshold value TH1, the voting value is 0. If the luminance difference is greater than or equal to the threshold value TH1 and less than the threshold value TH2, the voting value is 1. If there is, it may be set in multiple stages so that the vote value is 2.
  • the present method can be applied to other methods based on HOG by replacing the voting part for one cell with the above-described method.
  • CoHOG which is one of known techniques based on HOG
  • the processed image is divided into a plurality of small areas.
  • the luminance difference between d1 to d8 in the above equation (2) is calculated for a certain target pixel in the small area. Then, 1 is stored in the corresponding ba1 to ba8 if the luminance difference between d1 to d8 of the target pixel is larger than the threshold value TH, otherwise 0 is stored.
  • the luminance difference of d1 to d8 in Expression (2) is similarly calculated. Then, 1 is stored in the corresponding bb1 to bb8 if the luminance difference between the reference pixels d1 to d8 is larger than the threshold value TH, otherwise 0 is stored.
  • the co-occurrence histogram is an 8 ⁇ 8 two-dimensional histogram and is represented by a two-dimensional array of H [1] [1] to H [8] [8]. If the target pixel ba1 and the reference pixel bb1 are both 1, 1 is voted for the element H [1] [1]. On the other hand, if either one of the target pixel ba1 or the reference pixel bb1 is 0, the vote is not performed.
  • the above process is performed a total of 64 times for all combinations of the target pixel ba1 to ba8 and the reference pixel bb1 to bb8.
  • the reference pixel is changed while the target pixel is left as it is, and voting is performed on the co-occurrence histogram separately prepared for each reference pixel.
  • the above processing is performed on 30 reference pixels, and voting processing is performed on 30 co-occurrence histograms.
  • a histogram having eight elements is prepared, and the reference pixels ba1 to ba8 are voted for the corresponding histogram BIN.
  • the above processing is performed for all the pixels in one small area. As a result, 30 co-occurrence histograms and 1 histogram are obtained from one small region, and a (64 ⁇ 30 + 8) -dimensional feature amount is obtained. A feature vector is obtained by calculating and vectorizing this feature amount from all small regions.
  • a plurality of threshold values TH1 and TH2 are set, and if the luminance difference is smaller than the threshold value TH1, the voting value is 0, if the threshold value is greater than or equal to the threshold value TH1 and less than the threshold value TH2.
  • the voting value may be set in multiple stages so that the voting value is 1 and the voting value is 2 if it is equal to or greater than the threshold TH2.
  • ba1 to ba8 calculated from the luminance difference between d1 to d8 of the target pixel and the threshold values TH1 and TH2 have three values of 0, 1, and 2.
  • bb1 to bb8 of the reference pixel are 0, 1
  • the vote value for the co-occurrence histogram is the product.
  • the vote value is ba1 ⁇ bb1, and one of 0, 1, 2, and 4 is voted.
  • the voting opportunity from one pixel can be increased, the density of the co-occurrence histogram is improved, and the identification performance is improved. Can be improved.
  • the luminance differences d1 to d8 are converted to 0, 1 or 2 using a threshold value and voted.
  • the luminance difference itself may be used for voting.
  • d1 to d8 are calculated from the eight neighboring pixels of the pixel of interest, and the histogram in eight directions is handled. A similar process may be performed on the 21 neighboring pixels.
  • the 1st detection part 12 stores the detection result of the pedestrian obtained with the above-mentioned pattern recognition method in D1C [p] [q].
  • D1C represents the detected position coordinates (SX, SY, EX, EY) on the image.
  • the detected position coordinates are converted into coordinates on the image IMGSRC [x] [y] based on the reduction ratio at the time of pyramid image generation.
  • the first detection unit 12 integrates the detection results of the raster scan processing in step S1203. Since there are various known techniques for this integration method, a detailed description thereof is omitted here, but in this embodiment, a known technique called MeanShift (mean value shift method) is used, for example. Then, the integration result is stored in D1M [r].
  • D1M represents detected position coordinates (SX, SY, EX, EY) on the image.
  • step S1204 verification processing of the detection / integration result is performed.
  • This verification process is a process for eliminating misrecognition of patterns similar to pedestrians (for example, utility poles, guardrails, etc.) that cannot be eliminated by the pattern recognition process. Since there are various known techniques for this verification process, a detailed description thereof is omitted here, but in this embodiment, for example, a method described in Japanese Patent Application Laid-Open No. 2011-154580 is used. To do. As a result of this verification processing, when it is determined that the person is not a pedestrian, the pattern is deleted from D1M [r].
  • step S1205 a tracking process is performed, and D1M [r] determined to be a pedestrian by the verification process is associated with D1_Z1 [n], which is the result of the previous cycle.
  • FIG. 8 is a flowchart illustrating the tracking processing flow described above.
  • the first detection unit 12 initializes the current detection result D1 [n] in step S101.
  • step S102 the detection result D1_Z1 [n] one cycle before (previous) is acquired, and in step S103, the current detection result D1M [r] is acquired.
  • step S104 the detection result D1_Z1 [n] of the previous cycle is associated with the current detection result D1M [r].
  • a predetermined evaluation value is calculated by comparing the areas (rectangular areas) of the detection result D1_Z1 [n] of the previous cycle and the current detection result D1M [r] one by one. If it is equal to or greater than the threshold value, it is determined that a response has been taken, and if it is less than the threshold value, it is determined that a response has not been taken.
  • there are various methods such as a method using the correlation value of the image itself in the rectangle and a method using the overlap ratio of the rectangles, and any of them may be used as the evaluation value.
  • the predicted position D1_ZP [n] is calculated from the detection result D1_Z1 [n] of the previous cycle, and the rectangular overlap rate obtained from the predicted position D1_ZP [n] and the current detection result D1M [r] is calculated.
  • OVR it is determined that the correspondence has been established for the duplication rate OVR that exceeds the threshold.
  • the predicted position D1_ZP [n] is obtained from the detection result D1_Z1 [n] of the previous cycle and the detection result D1_Z2 [n] of the previous cycle, and the amount is detected as the detection result D1_Z1 [n] of the previous cycle.
  • the rectangular overlap rate OVR is defined as (SXP, SYP, EXP, EYP) for the predicted position D1_ZP [n], and (SXM, SYM, EXM, EYM) for the current detection result D1M [r].
  • the common rectangle (SXC, SYC, EXC, EYC) is calculated by the following equation (3).
  • step S106 among the current detection results D1M [r], a result that cannot be matched with the prediction result D1_ZP [n] is newly registered as a new detection object.
  • This registration is performed by registering the current detection result D1M [r] at a position n where no information is registered in the current detection result D1 [n].
  • the same ID is maintained until the object (pedestrian) once detected disappears, and the tracking performance of information is improved.
  • the pedestrian pattern detection result by the pattern matching process is output as the first detection result (first position information) D1 [n].
  • FIG. 9 is a flowchart illustrating the processing flow of the second detection unit 13.
  • the second detection unit 13 calculates an optical flow from the second detection area 130 of the image IMGSRC [x] [y] and the image IMGSRC_Z1 [x] [y] one cycle before.
  • This optical flow is a vector indicating to which point on one image a coordinate (x, y) has moved, and the X direction component with respect to one image coordinate (x, y). And the Y-direction component are calculated. In the present embodiment, it is calculated which position (pixel) in the image IMGSRC_Z1 [x] [y] one cycle before each pixel of the image IMGSRC [x] [y] corresponds to.
  • the block match method is used. Since the block match method is described in publicly known literature on image processing, detailed description thereof is omitted, but for example, a small point centering on a point (xn, yn) on the image IMGSRC [x] [y].
  • the image corresponding to the image IMGSRC [x] [y] is not limited to the image IMGSRC_Z1 [x] [y] one cycle before, and may be an image before an arbitrary cycle.
  • step S1302 a mobile body flow extraction image MVOBJ [x] [y] is generated from the optical flow.
  • a prediction flow is calculated by predicting the position of the point (xn, yn) on the latest captured image IMGSRC [x] [y] on the image one cycle before.
  • the prediction flow is based on the world coordinates (Xn) assuming that the coordinates (xn, yn) are points on the road surface from the vanishing point and the camera geometry.
  • the error e of the prediction flows PFX, PFY and the above-described OFX [n], OFY [n] is obtained.
  • the error e is the Euclidean distance between the flow vectors, and is obtained by the following equation (4).
  • the second detection unit 13 groups the mobile object flow extraction image MVOBJ [x] [y].
  • the grouping is performed by applying a labeling process to the moving object flow extraction image MVOBJ [x] [y].
  • the result of the labeling process is registered as rectangular information (SX, SY, EX, EY) in the detection result D2M [m] of the second detection unit 13 as a moving object detection result.
  • step S1304 a tracking process is performed. Since this tracking process is the same as the processing content of the first detection unit 12 described with reference to FIG. 8, the detailed description thereof is omitted here. As a result of this tracking processing, the moving object detection result by the optical flow is output as the second detection result (second position information) D2 [m].
  • only one moving object flow extraction image MVOBJ [x] [y] is used.
  • a plurality of moving object flow extraction images MVOBJ [x] [y] are prepared for each moving direction. May be.
  • the host vehicle is traveling straight.
  • the dead reckoning method is used, and the front-rear direction, the left-right direction, and the turning direction speed of the host vehicle are obtained from the left and right wheel speed values. You may use for the said prediction.
  • FIG. 10 is a flowchart illustrating the processing flow of the first detection position interpolation unit 14.
  • step S141 the first detection position interpolation unit 14 outputs the first detection result D1 [n] output from the first detection unit 12 and the second detection result D2 [m] output from the second detection unit 13. ] Is associated with the same object.
  • FIG. 11 is a flowchart for explaining the processing flow of the same object association processing.
  • the process is performed on the entire secured area of the first detection result D1 [n]. The following processing is performed only when information is stored in.
  • the first detection position interpolation unit 14 calculates the matching MATCH between the first detection result D1 [n] and the second detection result D2 [m] in step S1411.
  • the degree of matching MATCH is obtained using a method similar to the method for calculating the overlap rate OVR described in the tracking process described above, and thus detailed description thereof is omitted.
  • step S1412 it is determined whether or not the degree of coincidence MATCH exceeds a threshold value TH_MATCH.
  • the process moves to step S1413, and it is determined that the first detection result D1 [n] and the second detection result D2 [m] are the same object.
  • the same object that is, the same walking
  • the same object that is, the same walking
  • FIG. 12 is a flowchart for explaining the processing flow of the current position interpolation processing.
  • the process is performed on the entire secured area of the second detection result D2 [m]. The following processing is performed only when information is stored in.
  • the first detection position interpolation unit 14 confirms the presence or absence of the first detection result D1 [n ′] determined to be the same object as the second detection result D2 [m] in step S1421.
  • the process moves to step S1422, and is determined to be the same object as the second detection result D2 [m]. If the first detection result D1 [n ′] exists, steps S1422 and S1423 are skipped.
  • step S1422 the past information D2_Z [m] of the second detection result D2 [m] is referred to, and the past information D1_Z [n ′] of the first detection result corresponding to the past information D2_Z [m].
  • the past information is not limited to just one cycle before, and past information several cycles ago may be used. If the past information D1_Z [n ′] corresponding to the past information D2_Z [m] exists, the process proceeds to step S1423, and if the past information D1_Z [n ′] corresponding to the past information D2_Z [m] does not exist, the process proceeds to S1423. skip.
  • step S1423 interpolation processing, specifically, current position interpolation processing of the first detection result D1 [n] is performed.
  • the first detection unit 12 detects the same object in the past as D1_Z [n ′] and D2_Z [m], but the second detection unit does not detect the object. In 31, the object is detected and tracked.
  • the rectangular information of the current second detection result D2 [m] is (SX2, SY2, EX2, EY2)
  • the rectangular information of the past information D1_Z [n ′] and D2_Z [m] is (SX1_Z, SY1_Z, EX1_Z, EY1_Z), (SX2_Z, SY2_Z, EX2_Z, EY2_Z)
  • the current first detection result D1 [n ′] is obtained from the past positional relationship between the first detection result and the second detection result by the following equation (5). Can be guessed.
  • the first detection position interpolation unit 14 interpolates the past position of the first detection result D1 [n] using the second detection result D2 [m] in step S143 ( Perform past position interpolation processing).
  • FIG. 13 is a flowchart for explaining the processing flow of this past position interpolation processing.
  • the process is performed on the entire secured area of the first detection result D1 [n]. The following processing is performed only when information is stored in.
  • the first detection position interpolation unit 14 determines whether or not the first detection result D1 [n] is a new detection result in step S1431. If the first detection result D1 [n] is a newly detected object, the process moves to step S1432, and if the first detection result D1 [n] is not a new detected object, the following steps S1432 to S1434 are skipped.
  • step S1432 the presence or absence of D2 [m ′] determined to be the same object as the first detection result D1 [n] is confirmed. If D2 [m ′] determined to be the same object as the first detection result D1 [n] exists, the process moves to step S1433, and D2 [m ′] determined to be the same object as the first detection result D1 [n]. ] Is not present, the following steps S1433 and S1434 are skipped.
  • step S1433 it is confirmed whether past information D2_Z [m ′] exists in D2 [m ′] determined to be the same object as the first detection result D1 [n], and past information D2_Z [m ′] is confirmed. ] Exists, the process moves to step S1434, and if the past information D2_Z [m ′] does not exist, the process of step S1434 is skipped.
  • step S1434 past information interpolation processing (past position interpolation processing) of the first detection result D1 [n] is performed.
  • the first detection result D1 [n] is a newly detected object, but the past information D2_Z [m is included in D2 [m ′] determined to be the same object as the first detection result D1 [n]. '] Exists.
  • the rectangular information of the current first detection result D1 [n] and the second detection result D2 [m ′] is (SX1, SY1, EX1, EY1) and (SX2, SY2, EX2, EY2), respectively, and the past information
  • the rectangular information of D2_Z [n] is (SX2_Z, SY2_Z, EX2_Z, EY2_Z)
  • the past first detection result D1 is obtained from the current positional relationship between the first detection result and the second detection result by the following equation (6).
  • [N ′] can be estimated.
  • This past information is interpolated as long as there is a past value of D2 [m], such as past information D1_Z1 [n '] one cycle before D2 [m] and past information D1_Z2 [n'] two cycles before. Can do.
  • FIG. 14 is a flowchart illustrating the processing flow of the distance measuring unit 15.
  • the distance measurement unit 15 determines whether the object is based on the first detection result D1 [n] of the first detection unit 12 suitable for calculating the relative speed and the relative distance with the object (pedestrian) on the image. Relative speed and relative distance are calculated.
  • the process is performed on the entire secured area of the first detection result D1 [n]. The following processing is performed only when information is stored in.
  • step S1501 the distance measurement unit 15 determines whether or not the first detection result D1 [n] output from the first detection unit 12 is a new detection object. If the first detection result D1 [n] is a new detected object, the process moves to step S1502, and if the first detection result D1 [n] is not a new detected object, the process moves to step S1503.
  • step S1502 it is determined whether the past value of the first detection result D1 [n] has an interpolation process. If the past value has an interpolation process, the process proceeds to step S1504. If the past value has no interpolation process, the process proceeds to step S1503.
  • the first detection result D1 [n] is not a new detection object or if there is no interpolation processing on the past value, the first detection result (current value) D1 [n] output from the first detection unit 12 in step S1503.
  • step S1504 when the first detection result D1 [n] is a newly detected object and there is an interpolation process on the past value, in step S1504, the first detection result D1 [n] and the first position information interpolation information are used.
  • the past value D1_Z [n] of one detection result D1 [n] a relative distance and a relative speed with respect to the object (pedestrian) are calculated.
  • the same distance measurement as in step S1503 is performed at all past points, and all the obtained relative positions (PX, PY) are (PX_Z1, PY_Z1), (PX_Z2, PY_Z2) etc.
  • step S1505 calculation of relative speed with respect to the object (pedestrian) and filtering processing are performed.
  • the relative speed is obtained from the difference between the relative positions (PX, PY) calculated for each period, and then a filtering process for smoothing is performed.
  • the current value is calculated by recalculating the relative speed and the filtering process from the oldest existing value.
  • the Kalman filter process is performed on the above-described relative positions (PX, PY).
  • the relative distance and relative speed with respect to the object (pedestrian) calculated by the distance measuring unit 15 are output via the output unit 16 to an external device such as a vehicle controller or an alarm device provided outside.
  • FIG. 15A schematically illustrates an example of presence or absence of detection by the first detection unit 12 and the second detection unit 13 at the processing timing when a pedestrian crossing the front of the host vehicle is detected using the vehicle external environment recognition device 10.
  • FIG. 15B is an explanatory diagram illustrating an example of the presence / absence of detection by the first detection unit 12 and the second detection unit 13 and the processing method by the distance measurement unit 15 at the processing timing.
  • FIG. 15A schematically illustrates an example of presence or absence of detection by the first detection unit 12 and the second detection unit 13 at the processing timing when a pedestrian crossing the front of the host vehicle is detected using the vehicle external environment recognition device 10.
  • FIG. 15B is an explanatory diagram illustrating an example of the presence / absence of detection by the first detection unit 12 and the second detection unit 13 and the processing method by the distance measurement unit 15 at the processing timing.
  • the first detection unit 12 detects the pedestrian at times T3 to T5 and time T7, It is assumed that the second detector 13 detects the pedestrian from time T1 to T7.
  • the vehicle external environment recognition device 10 first interpolates the past value of the first detection result D1 [n] by the first detection position interpolation unit 14 (past position interpolation process) at time T3. )I do. That is, as shown in FIG.
  • the first detection result time The object (pedestrian position information) not detected by the first detection unit 12 at T1 and T2 is interpolated, and the relative position and relative speed with the object at time T3 are recalculated.
  • the vehicle external environment recognition device 10 of the first embodiment performs the interpolation process (current position interpolation process) of the first detection result D1 [n] by the first detection position interpolation unit 14 at time T6. That is, as shown in FIG. 15D, the first detection position D1 [n] at time T6 is defined as the relative positional relationship between the first detection result D1 [n] and the second detection result D2 [m] at time T5. Interpolation is performed based on the second detection result D2 [m] at time T6, and the relative position and relative speed with respect to the object at time T6 are calculated.
  • the first detection position D1 [n] at time T6 (first detection at time T6) based on the relative positional relationship between the first detection result D1 [n] and the second detection result D2 [m] at time T7.
  • the position information of the object (pedestrian) that is not detected by the unit 12 may be interpolated.
  • FIG. 16 is a diagram illustrating an example of the measurement result of the pedestrian's lateral movement speed and the measurement result of the pedestrian's lateral movement speed when measured only by the pattern matching process by the vehicle external environment recognition device 10 illustrated in FIG. 1.
  • the vertical axis represents the relative movement speed of the pedestrian in the lateral direction
  • the horizontal axis represents time
  • the broken line in the figure represents the true value of the pedestrian's lateral movement speed
  • the solid line represents the first embodiment.
  • the lateral movement speed of the pedestrian when calculated by the vehicle external environment recognition apparatus 10 and the lateral movement speed of the pedestrian when the alternate long and short dash line is calculated only by pattern matching processing are shown.
  • the object when the calculation is performed only by the pattern matching process (the same process as the first detection unit 12), the object (pedestrian) is first detected at time T3 in the pattern matching process, and the object is lost at time T6. .
  • calculation of the relative distance and relative speed is started after the object is first detected at time T3, and filtering is performed by calculating the relative speed with respect to the object using the detection results at times T4 and T5 after time T3.
  • convergence to the true value is delayed.
  • the calculation result up to that time is lost, and it is necessary to start calculating the relative speed again after detecting the object again at time T7, so that convergence to the true value is further delayed.
  • the second detection unit 13 always detects an object using the optical flow, and the first detection unit 12 detects the object (walking) at time T3.
  • the first detection position interpolation unit 14 first detects the past value of the first detection result, the relative speed equivalent to the case where the relative speed is calculated from the time T1 can be obtained.
  • the relative speed at time T3 is close to a true value to some extent. Even when the first detection unit 12 loses the object at time T6, the first detection position interpolation unit 14 performs interpolation of the first detection result at the time T6, so that the relative speed calculation result is interrupted. And the calculated relative speed is closer to the true value of the pedestrian's lateral movement speed.
  • the first position information of the pedestrian from the image 200 obtained by capturing the surroundings of the vehicle by the first detection unit 12 and the second detection unit 13 ( The first state in which the first detection result) and the second position information (second detection result) are detected, and the second state in which the second position information of the object is detected from the image 200 only by the second detection unit 13.
  • a first position that interpolates the first position information of the object in the second state based on the first position information in the first state and the second position information in the first state and the second position information in the second state when occurring in time series By calculating the information interpolation information, even if the first detection unit 12 cannot detect the position information of an object such as a pedestrian in a part of the image 200, the relative position and relative speed of the object can be detected. Calculation accuracy can be increased. More specifically, for example, position information of a pedestrian crossing the vehicle path is detected by a part of the image 200 by the first detection unit 12 due to camera distortion when using a wide-angle camera or a pedestrian pattern change on the image.
  • the relative position and relative speed between the vehicle and the pedestrian can be calculated with high accuracy.
  • a pedestrian is employed as a detection target of the pattern matching process performed by the first detection unit 12, but the detection target of the first detection unit 12 can be appropriately set.
  • the leg shape of the pedestrian most suitable for calculating the relative distance and the relative speed may be the detection target of the first detection unit 12.
  • FIG. 17 is a block diagram of the vehicle external environment recognition device 20 according to the second embodiment.
  • the vehicle external environment recognition device 20 of the second embodiment shown in FIG. 17 is different from the vehicle external environment recognition device 10 of the first embodiment shown in FIG.
  • Other configurations are the same as those of the vehicle external environment recognition device 10 of the first embodiment. Therefore, in the following, only the configuration different from the vehicle external environment recognition device 10 of the first embodiment will be described in detail, and the same reference numerals will be given to the same configuration as the first embodiment, and the detailed description thereof will be omitted. To do.
  • the vehicle external environment recognition device 20 is incorporated in a camera device mounted on a vehicle such as an automobile or an integrated controller, and is for detecting an object from an image taken by the camera 1 of the camera device.
  • the embodiment is configured to detect a pedestrian among objects around the own vehicle.
  • the vehicle external environment recognition device 20 is configured by a computer having a CPU, a memory, an I / O, and the like, and a predetermined process is programmed to execute the process repeatedly at a predetermined cycle T.
  • the vehicle external environment recognition device 20 includes an image acquisition unit 11, a first detection unit 12, a second detection unit 13, a first detection position interpolation unit 14, a distance measurement unit 15, An output selection unit 26. Below, only the process of the output selection part 26 is demonstrated in detail.
  • FIG. 18 is a flowchart illustrating the processing flow of the output selection unit 26.
  • the process is performed on the entire secured area of the first detection result D1 [n]. The following processing is performed only when information is stored in.
  • step S1601 the output selection unit 26 confirms the presence or absence of the second detection result D2 [m ′] determined to be the same object as the first detection result D1 [n]. If the second detection result D2 [m ′] determined to be the same object as the first detection result D1 [n] exists, the process moves to step S1603, and is determined to be the same object as the first detection result D1 [n]. If the second detection result D2 [m ′] does not exist, the process moves to step S1602.
  • step S1602 the presence / absence of the past value D2_Z [m ′] of the second detection result D2 [m ′] determined to be the same object as the past value D1_Z [n] of the first detection result D1 [n].
  • step S1603 the process moves to step S1603, and the past value D2_Z [m] determined to be the same object as the past value D1_Z [n]. If '] does not exist, the process moves to step S1604.
  • the distance measurement unit 15 uses the first detection result D1 [n] and the like in step S1603.
  • the relative position and relative speed with respect to the object (pedestrian) are output to the outside of the vehicle external environment recognition device 20 via, for example, a LAN. That is, the result output here is a result for an object detected by both the first detection unit 12 and the second detection unit 13 at present or in the past.
  • the distance measurement unit 15 uses the first detection result D1 [n] and the like in step S1604. The relative position and relative speed thus set are not output to the outside of the vehicle external environment recognition device 20. This result is a result for an object that has been detected only by the first detection unit 12 so far.
  • the distance measurement unit 15 calculates the relative position and relative speed with the object, but the output selection unit 26 The relative position and relative speed with respect to the object are not output to an external device provided outside the vehicle external environment recognition device 20.
  • an object that is a detection target in both the first detection unit 12 and the second detection unit 13 at present or in the past. Only when the first position information and the second position information are detected, the relative position and the relative speed measured with respect to the object are provided outside the vehicle external environment recognition device 20. Since the result is output to the external device such as the first detection unit 12 and the second detection unit 13, only the result for the object with high accuracy that is detected by the methods of both the first detection unit 12 and the second detection unit 13 is transmitted to the external device such as the vehicle controller or the alarm device. Can be output.
  • the relative position and relative speed with respect to the object detected only by the 1st detection part 12 are not output to external apparatuses, such as a vehicle controller provided outside the vehicle external field recognition apparatus 20, and an alarm device, as above-mentioned.
  • the calculated relative speed is the same as in the vehicle external environment recognition device 10 of the first embodiment. It becomes close to the true value of the lateral movement speed of the pedestrian, and the accuracy of calculating the relative position and relative speed with the object can be increased.
  • the relative position and the relative speed measured by the distance measurement unit 14 are provided outside the vehicle external environment recognition device 20 at the timing when both the first detection unit 12 and the second detection unit 13 detect the object at the same time.
  • Output to an external device such as a vehicle controller or alarm device, but the relative position and relative speed are calculated in advance by the distance measuring unit 14 from the output, so only the result for an object with high accuracy is obtained.
  • a delay of the calculated relative speed with respect to the true value of the lateral movement speed of the pedestrian can be suppressed.
  • FIG. 19 is a block diagram of the vehicle external environment recognition device 30 according to the third embodiment.
  • the vehicle external environment recognition device 30 of the second embodiment shown in FIG. 19 detects position information of an object (pedestrian) in the image with respect to the vehicle external environment recognition device 10 of the first embodiment shown in FIG.
  • the other methods are the same as those of the vehicle external environment recognition device 10 of the first embodiment. Therefore, in the following, only the configuration different from the vehicle external environment recognition device 10 of the first embodiment will be described in detail, and the same reference numerals will be given to the same configuration as the first embodiment, and the detailed description thereof will be omitted. To do.
  • the vehicle external environment recognition device 30 is incorporated in a camera device mounted on a vehicle such as an automobile or an integrated controller, and is for detecting an object from an image captured by the camera 1 of the camera device.
  • the embodiment is configured to detect a pedestrian among objects around the own vehicle.
  • the vehicle external environment recognition device 30 is configured by a computer having a CPU, a memory, an I / O, and the like, and a predetermined process is programmed to execute the process repeatedly at a predetermined cycle T.
  • the vehicle external environment recognition apparatus 30 includes an image acquisition unit 11, a leg detection unit 32, a head detection unit 33, a leg detection position interpolation unit 34, a distance measurement unit 15, And an output unit 16.
  • an image acquisition unit 11 a leg detection unit 32, a head detection unit 33, a leg detection position interpolation unit 34, a distance measurement unit 15, And an output unit 16.
  • the leg detection unit 32 detects a pattern similar to the pedestrian's leg from the image 200 (see FIG. 2) acquired by the image acquisition unit 11, and outputs the detection result D1 [n].
  • This detection result D1 [n] is an array of tables whose elements are the coordinates (SX, SY, EX, EY) on the detected pedestrian leg image, and n is an ID when a plurality is detected. Represents.
  • FIG. 20 is a flowchart illustrating the processing flow of the leg detection unit 32.
  • the leg detection unit 32 generates a pyramid image IMGPY [p] [x] [y] from the image IMGSRC [x] [y].
  • the pyramid image IMGPY [p] [x] [y] is an image group composed of P images, and is an image obtained by sequentially reducing the image IMGSRC [x] [y] at a predetermined magnification.
  • image distortion correction may be performed based on the camera parameters of the camera 1.
  • a specific shape that is, a pedestrian's leg shape
  • Various methods are conceivable as the detection method of the specific shape, and any detection method may be used.
  • step S303 the detection results of the process (raster scan process) in step S302 are integrated. Since there are various known techniques for this integration method, a detailed description thereof is omitted here, but in this embodiment, a known technique called MeanShift (mean value shift method) is used, for example. Then, the integration result is stored in D1M [r].
  • D1M represents detected position coordinates (SX, SY, EX, EY) on the image.
  • step S304 a tracking process is performed. Since this tracking process is the same as the process content described with reference to FIG. 8 in the first detection unit 12 of the first embodiment, a detailed description thereof is omitted here.
  • leg detection unit 32 As a result of the processing by the leg detection unit 32, a pedestrian leg pattern detection result by pattern matching processing is output as a leg detection result (first position information) D1 [n].
  • the head detection unit 33 detects a pattern similar to the pedestrian's head from the image 200 (see FIG. 2) acquired by the image acquisition unit 11, and outputs the detection result D2 [m].
  • This detection result D2 [m] is an array of tables whose elements are the coordinates (SX, SY, EX, EY) on the detected pedestrian head image, and m is an ID when a plurality is detected. Represents.
  • processing content in the head detection unit 33 is substantially the same as the processing content in the leg detection unit 32 described with reference to FIG. 20, the detailed description thereof is omitted.
  • a circle detection technique can be applied.
  • Techniques for detecting an ⁇ shape or a convex shape from the head to the shoulder can also be applied, but since both are known techniques, detailed description thereof is omitted here.
  • a pedestrian head pattern detection result by pattern matching processing is output as a head detection result (second position information) D2 [m].
  • leg detection position interpolation unit 34 interpolates the detection result D1 [n] output from the leg detection unit 32 using the detection result D2 [m] output from the head detection unit 33 (current position interpolation). Processing and past position interpolation processing) are calculated, and the current value and past value of the detection result D1 [n] are interpolated.
  • the processing content of the interpolation processing by the leg detection position interpolation unit 34 is almost the same as the processing content described with reference to FIGS. 10 to 13 in the first detection position interpolation unit 14 of the first embodiment described above.
  • the leg detection position is described below. Only the determination method of the matching degree determination in the interpolation unit 34 will be described.
  • Equation 7 (A): EY2> SY1 (B): TH_HMIN ⁇ (EY1-SY2) / H ⁇ TH_HMAX (C):
  • the condition (a) shown in Expression (7) is a condition that the head is above the foot.
  • Condition (2) is a condition that the head size ratio of the height (that is, the head and body) is neither too short nor too long.
  • Condition (3) is a condition that the head and feet are arranged substantially vertically. When all the above conditions are satisfied, the leg detection position interpolating unit 34 determines that the leg detection result D1 [n] and the head detection result D2 [m] are based on the same object (that is, by the same pedestrian). )).
  • the head detection unit 33 and the leg detection unit 32 change the shape of the pedestrian's body on the image.
  • a head having a small number of legs and a leg necessary for measuring a relative distance and a relative speed with a pedestrian are detected from an image. Detection by pattern matching process may be interrupted due to large shape change of pedestrian's leg, but detection by pattern matching process etc. is unlikely to be interrupted because the shape of pedestrian's head is small. It is always detected by the part detector 33. Therefore, the current value or past value of the leg detection result (first position information) detected by the leg detection unit 32 using the head detection result (second position information) detected by the head detection unit 33. (Position information of an object (pedestrian leg) not detected by the leg detection unit 32) can be interpolated, and the calculation accuracy of the relative position and relative speed between the own vehicle and the pedestrian can be improved. .
  • the same detection method can be applied to the head detection unit 33 and the leg detection unit 32, and therefore the vehicle external recognition device is concerned.
  • the apparatus configuration of 30 can be simplified.
  • the relative distance or relative to the object when an object to be detected is detected only by the second detection unit 13 or the head detection unit 33, the relative distance or relative to the object (pedestrian) When the speed is not calculated and the first detection unit 12 or the leg detection unit 32 detects an object to be detected, the relative distance and the relative speed with the object (pedestrian) are calculated based on the detection result. In the above description, the calculation result is output to an external device. However, even when an object to be detected is detected only by the second detection unit 13 or the head detection unit 33, the object (pedestrian) is based on the detection result of the second detection unit 13 or the head detection unit 33. Relative distance and relative speed may be calculated.
  • the relative distance and relative speed with respect to the object (pedestrian) by giving priority to the detection results detected by the first detection unit 12 and the leg detection unit 32. That is, the position information of the object to be detected is detected by the second detection unit 13 and the head detection unit 33, and the position of the object to be detected by the first detection unit 12 and the leg detection unit 32 before and after that.
  • the relative distance and relative speed with the object (pedestrian) are measured based on the detection result detected by the second detection unit 13 and the head detection unit 33, and the measurement result is It is preferable to output to equipment.
  • the present invention is not limited to the above-described embodiment, and includes various modifications.
  • the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to one having all the configurations described.
  • a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment.
  • control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

Abstract

 たとえば自車周囲を撮像した画像の一部で歩行者等の物体を精緻に検出し得ない場合であっても、その物体との相対位置や相対速度の算出精度を高めることのできる車両用外界認識装置を提供する。第一検出部12及び第二検出部13によって物体の第一位置情報及び第二位置情報が検出される第一状態と第二検出部13のみによって物体の第二位置情報が検出される第二状態とが時系列で発生した際に、第一状態における第一位置情報及び第二位置情報と第二状態における第二位置情報とに基づいて第二状態における物体の第一位置情報を補間する第一位置情報補間情報を算出し、その第一位置情報と第一位置情報補間情報とに基づいて物体までの相対距離や相対速度を計測する。

Description

車両用外界認識装置
 本発明は、車両用外界認識装置に係り、例えば自動車等の車両に搭載されたカメラ等の画像センサから得られる情報に基づいて対象物を検出する車両用外界認識装置に関する。
 従来から、カメラやソナーといったセンサから得られる情報を用いて車両を制御し、当該車両の運転者をサポートするシステムの開発が進められている。そのようなシステムの一例として、自車前方の障害物と衝突する可能性が生じた際に警報等によって運転者に注意を促し、さらに衝突が避けられない状況になった際には自動ブレーキによって乗員に対する傷害を軽減するプリクラッシュ・セーフティ・システム等が既に実用化されている。
 このようなシステムにおいては、自車と障害物との衝突可能性を精緻に判断するために、自車と障害物との相対位置や相対速度を正確に把握する必要があり、例えば、特許文献1には、対象物が路面に接する接地位置が撮影範囲から外れたり、遮られたりしている場合に、自車両の直近まで対象物を追跡して対象物の路面上の現在位置を推定する技術が開示されている。
 特許文献1に開示されている対象物追跡装置は、過去の画像から求めた対象物の路面上の位置及び車両運動情報に基づいて対象物の路面上での現在位置を予測し、予測した路面上での現在位置に対応する現在の画像上の位置から対象物を検出する対象物検出手段と、対象物が路面に接する接地位置が撮影範囲内に存在する場合に、画像上における接地位置及び撮像手段の自車両への取付位置に基づいて対象物の路面上の現在位置を推定する第1の位置推定手段と、過去の画像から求めた対象物の路面上の位置及び現在の画像上の対象物の大きさの過去の画像上の対象物の大きさに対する拡大率に基づいて対象物の路面上の現在位置を推定する第2の位置推定手段と、対象物検出手段で予測された現在位置、第1の位置推定手段で推定された現在位置、及び第2の位置推定手段で推定された現在位置を統合する統合手段と、を備えているものである。
 特許文献1に開示されている対象物追跡装置によれば、接地位置が撮影範囲内に存在する場合には、接地位置に基づいて対象物の現在位置を推定し、接地位置が撮影範囲内に存在しない場合でも、画像上での対象物の拡大率に基づいて対象物の現在位置を推定するため、対象物が路面に接する接地位置が撮影範囲から外れたり、遮られたりしている場合であっても、自車両の直近まで対象物を追跡して対象物の位置を推定することができる。
特開2011-65338号公報
 ところで、例えば、駐車支援等に使用される広角カメラを用いて自車の進路を横切る歩行者を検出する場合、そのカメラの視野の端に映る歩行者は、レンズ歪によりパターンマッチ処理で検出することが困難である。そのため、そのようなパターンマッチ処理で歩行者を検出する場合には、横方向へ移動する歩行者がカメラ歪が少ない画像中央へ移動してきて初めてその歩行者が検出されるため、当該歩行者に対する相対位置や相対速度の算出開始が遅れてしまう。また、一般に、相対速度は相対位置の差分から算出されると共に、ノイズを除去する平滑化処理が施されるため、相対位置の算出開始から実際の相対速度へ収束するまでにはある程度の時間を要することが知られている。したがって、上記した状況下では、自車と歩行者との相対位置や相対速度の算出開始が遅れると共に、算出される相対速度が実際の相対速度に収束するまでにある程度の時間を要し、自車の進路を横切る歩行者との衝突可能性を正確に把握し得ないといった問題が生じ得る。
 また、自車の進路を横切る歩行者はパターン変化が大きいため、たとえばパターンマッチ処理で安定して検出することが難しく、パターンマッチ処理による歩行者の検出が途切れる場合がある。そのようにパターンマッチ処理による検出が途切れた場合、その歩行者を再検出してから再び相対速度の算出を開始するため、算出される相対速度が実際の相対速度に収束するまでに更に時間を要し、自車の進路を横切る歩行者との衝突可能性を正確に把握することが更に難しくなる。
 本発明は、前記問題に鑑みてなされたものであって、その目的とするところは、たとえば自車周囲を撮像した画像の一部で歩行者等の物体を精緻に検出し得ない場合であっても、その物体との相対位置や相対速度の算出精度を高めることのできる車両用外界認識装置を提供することである。
 上記する課題を解決するために、本発明に係る車両用外界認識装置は、自車周囲を撮像した画像に映る物体までの相対距離及び/又は相対速度を認識する車両用外界認識装置であって、前記画像における前記物体の第一位置情報を検出する第一検出部と、前記第一検出部と異なる手法で前記画像における前記物体の第二位置情報を検出する第二検出部と、前記第一検出部及び前記第二検出部によって前記物体の第一位置情報及び第二位置情報が検出される第一状態と前記第二検出部のみによって前記物体の第二位置情報が検出される第二状態とが時系列で発生した際に、前記第一状態における第一位置情報及び第二位置情報と前記第二状態における第二位置情報とに基づいて前記第二状態における前記物体の第一位置情報を補間する第一位置情報補間情報を算出する第一検出位置補間部と、前記第一位置情報と前記第一位置情報補間情報とに基づいて前記物体までの相対距離及び/又は相対速度を計測する距離計測部と、を備えることを特徴とする。
 本発明によれば、第一検出部及び第二検出部によって自車周囲を撮像した画像から物体の第一位置情報及び第二位置情報が検出される第一状態と第二検出部のみによって前記画像から物体の第二位置情報が検出される第二状態とが時系列で発生した際に、第一状態における第一位置情報及び第二位置情報と第二状態における第二位置情報とに基づいて第二状態における物体の第一位置情報を補間する第一位置情報補間情報を算出し、その第一位置情報補間情報を用いて物体までの相対距離及び/又は相対速度を計測することにより、たとえば第一検出部により自車周囲を撮像した画像の一部で歩行者等の物体を精緻に検出し得ない場合であっても、その物体との相対位置や相対速度を精度良く算出することができる。
 上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明に係る車両用外界認識装置の第一実施の形態の全体構成を示すブロック図。 図1に示す画像取得部により取得される画像とその画像内に設定される第一検出領域と第二検出領域を模式的に示す模式図。 図1に示す第一検出部の処理フローを説明したフローチャート。 ラスタスキャン処理の一例を模式的に説明した説明図。 パターン認識処理の一例を模式的に説明した説明図。 図1に示す第一検出部による識別器ラスタスキャン処理におけるパターン認識手法の処理フローを説明したフローチャート。 図5に示すパターン認識手法のセルへの分割方法を模式的に説明した説明図。 図5に示すパターン認識手法における投票処理の注目画素と周辺画素を説明した説明図。 図1に示す第一検出部の追跡処理フローを説明したフローチャート。 図1に示す第二検出部の処理フローを説明したフローチャート。 図1に示す第一検出位置補間部の処理フローを説明したフローチャート。 図10に示す同一物体対応付け処理の処理フローを説明したフローチャート。 図10に示す現在位置補間処理の処理フローを説明したフローチャート。 図10に示す過去位置補間処理の処理フローを説明したフローチャート。 図1に示す距離計測部の処理フローを説明したフローチャート。 処理タイミングにおける第一検出部及び第二検出部による検出の有無の一例を模式的に示す模式図。 処理タイミングにおける、第一検出部及び第二検出部による検出の有無と距離計測部による処理方法の一例を説明した説明図。 図12Aに示す処理タイミングT1、T2における過去位置補間処理を模式的に説明する説明図。 図12Aに示す処理タイミングT6における現在位置補間処理を模式的に説明する説明図。 図1に示す車両用外界認識装置による歩行者の横移動速度の計測結果とパターンマッチ処理のみによって計測した場合の歩行者の横移動速度の計測結果の一例を示す図。 本発明に係る車両用外界認識装置の第二実施の形態の全体構成を示すブロック図。 図17に示す出力選択部の処理フローを説明したフローチャート。 本発明に係る車両用外界認識装置の第三実施の形態の全体構成を示すブロック図。 図19に示す脚部検出部の処理フローを説明したフローチャート。
 以下、本発明に係る車両用外界認識装置の実施の形態を図面を参照して説明する。
<第一実施の形態>
 まず、本発明に係る車両用外界認識装置の第一実施の形態について図1~図16を用いて詳細に説明する。図1は、第一実施の形態における車両用外界認識装置10のブロック図である。また、図2は、図1に示す画像取得部により取得される画像とその画像内に設定される第一検出領域と第二検出領域を模式的に示す模式図である。
 車両用外界認識装置10は、自動車等の車両に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ装置のカメラ1で撮影した画像から物体を検出するためのものであり、本実施の形態では、自車周囲の物体のうち特に歩行者を検知するように構成されている。
 車両用外界認識装置10は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて予め定められた周期Tで繰り返し処理を実行するようになっている。
 車両用外界認識装置10は、図1に示すように、画像取得部11と、第一検出部12と、第二検出部13と、第一検出位置補間部14と、距離計測部15と、出力部16と、を備えている。
 画像取得部11は、図2に示すように、自車周囲を撮像可能な位置に取り付けられたカメラ1から自車周囲を撮影した画像200を取得してRAM上に記憶する。カメラ1のレンズ歪等の内部パラメータおよび取り付け位置・角度等の外部パラメータは、車両出荷時に行われるキャリブレーションによって予め取得されているものとする。なお、画像200は2次元配列であり、IMGSRC[x][y]で表すものとする。ここで、x、yはそれぞれ画像の座標を示している。
 第一検出部12は、図2に示すように、画像取得部11により取得された画像200内に設定された第一検出領域120内から、歩行者に類似したパターンを検出し、その検出結果D1[n]を出力する。この検出結果D1[n]は、検出された歩行者の画像上の座標(SX,SY,EX,EY)を要素とするテーブルの配列であり、nは複数検出された場合のIDを表している。この第一検出部12による処理の詳細は後述する。
 第二検出部13は、図2に示すように、画像取得部11により画像200内に設定された第二検出領域130内から、背景と異なる動きを有する移動体を検出し、その検出結果D2[m]を出力する。この検出結果D2[m]は、検出された移動体の画像上の座標(SX,SY,EX,EY)を要素とするテーブルの配列であり、mは複数検出された場合のIDを表している。この第二検出部13による処理の詳細は後述する。
 なお、たとえば広角カメラを用いて自車の進路を横切る歩行者を検出する場合、画像200の端に映る歩行者100は、レンズ歪によりパターンマッチ処理で検出することが困難である。そのため、第一検出部12で設定される画像200中の第一検出領域120は、第二検出部13で設定される画像200中の第二検出領域130よりも小さい。より具体的には、第一検出部12で設定される画像200中の第一検出領域120は、第二検出部13で設定される画像200中の第二検出領域130よりもレンズ歪の少ない中央付近に設定されている。
 第一検出位置補間部14は、第二検出部13の検出結果D2[m]を用いて第一検出部12の検出結果D1[n]を補間する第一位置情報補間情報を算出する。この第一検出位置補間部14による処理の詳細は後述する。
 距離計測部15は、第一検出部12の検出結果D1[n]や第一検出位置補間部14の第一位置情報補間情報を用いて、画像200中で検出された歩行者までの相対距離および相対速度を算出し、その測距結果DR[n]を出力する。この測距結果DR[n]は、検出された歩行者との相対位置(PX,PY)および相対速度(VX,VY)を含み、nは第一検出部12の検出結果D1[n]のnと共通である。この距離計測部15による処理の詳細は後述する。
 出力部16は、距離計測部15から出力された測距結果DR[n]を当該車両用外界認識装置10の外部に設けられた車両のコントローラや警報装置等の外部機器へ出力する。なお、測距結果DR[n]は、車両用外界認識装置10から外部機器へ直接入力することにより出力してもよいし、LAN(Local Area Network)を用いた通信を行うことにより出力してもよい。
 以下では、上記した第一検出部12、第二検出部13、第一検出位置補間部14、距離計測部15の処理をより詳細に説明する。
[第一検出部]
 まず、図3~図8を用いて、第一検出部12における処理内容について説明する。図3は、第一検出部12の処理フローを説明したフローチャートである。
 第一検出部12は、まず、ステップS1201にて、画像IMGSRC[x][y]のうち第一検出領域120内の画像からピラミッド画像IMGPY[p][x][y]を生成する。ピラミッド画像IMGPY[p][x][y]はP枚の画像から構成される画像群であり、画像IMGSRC[x][y]を所定の倍率で順次縮小した画像である。本実施の形態においては、ピラミッド画像IMGPY[p][x][y]のp=0における画像は画像IMGSRC[x][y]と同一の画像、p=1における画像はIMGPY[0][x][y]を縮小率0.8で縮小した画像、p=2における画像はIMGPY[1][x][y]を縮小率0.8で縮小した画像、といったように縮小率0.8で順次縮小した画像を格納したものとする。
 ここで、カメラ1のカメラパラメータに基づいて画像の歪補正を実施してもよい。
 つぎに、ステップS1202をピラミッド画像IMGPY[p][x][y]についてp=1からp=Pまで繰り返し処理を行う。このステップS1202では、ピラミッド画像IMGPY[p][x][y]に対して識別器を用いたラスタスキャン処理を実施する。ラスタスキャン処理は、図4Aに示すように、処理画像内で所定サイズのサブウィンドウSWを所定量ずらしながら処理画像全体をスキャンする処理である。本実施の形態では、サブウィンドウSWのサイズを、幅16画素、高さ32画素とする。そして、各位置におけるサブウィンドウSW内の画像に対してパターン認識処理をかける。
 ここから、サブウィンドウSW内の画像に対するパターン認識処理の例として、以下の2種類のパターン認識手法を用いた処理を説明する。いずれのパターン認識手法を用いてもよいが、本実施の形態においては2つ目のパターン認識手法を用いるものとする。
 1つ目のパターン認識手法は、ニューラルネットを用いた方法である。具体的には、図4Bに示すように、まず、あるサブウィンドウSWについて、ピラミッド画像IMGPY[p][x][y]からその領域の画像を切り出す。切り出される画像はグレイスケール値のみでもよいし、カラー情報を含んでいてもよい。ここでは、グレイスケール値のみを切り出した場合を説明する。つぎに、切り出された画像の画素をラスタスキャンして、1次元ベクトル402を生成し、それをニューラルネットワーク403への入力とする。ニューラルネットワーク403は人間の脳のネットワークを模擬したものであり、複数のノードで構成される入力層4031、中間層4033、出力層4035が存在し、さらに入力層4031の各ノードと中間層4033の各ノードの間には重み係数4032が、中間層4033の各ノードと出力層4035の各ノードの間には重み係数4034がそれぞれ存在する。ニューラルネットワーク403の出力は出力層のノードの1つの値であり、この値は、このノードに接続されているすべての中間層4033のノードの値とその重み係数の積和演算により得られる。さらに、中間層4033の各ノードの値は、各ノードに接続されているすべての入力層4031のノードの値とその重み係数の積和演算により得られる。
 歩行者パターン検出では、1次元ベクトル402がそのまま入力層4031へ接続されているため、出力層4035の各ノードの値は上述の処理により算出される。その結果、出力層4035の所定のノードの値が閾値を超えていれば歩行者パターンが存在すると判定される。なお、出力層4035の所定のノードはプログラムを組む際に事前に決定しておく必要があり、入力ノードに歩行者パターンが入ってきた場合にはその出力層4035のノードの出力が閾値以上になり、歩行者以外のパターンが入ってきた場合にはその出力が閾値以下となるように、各ノード間の重み係数は予め調整しておく必要がある。この各ノード間の重み係数の調整方法は、公知技術であるバックプロパゲーション法などを用いればよい。
 2つ目のパターン認識手法は、輝度勾配を用いた方法である。本実施の形態においては、図5~図7を用いて説明するパターン認識手法を適用する。本認識手法は、歩行者検出に有効な手法として知られているHOG(Histogram of Oriented Gradients)を改良したものである。図5は、本パターン認識手法の処理フローを説明したフローチャートであり、図6は、図5に示すパターン認識手法のセルへの分割方法を模式的に説明した説明図である。
 まず、ステップS201にて、あるサブウィンドウSW内の画像をセル(CELL)と呼ばれる小領域へ分割し、各セルに属する画素から輝度勾配を算出する。すなわち、図6に示すように、パターン認識を実施する画像領域全体を複数のセルへ分割する。なお、本実施の形態においては、処理画像領域を横3、縦6へ分割する。
 そして、各セルに属する画素から輝度勾配を算出した後、各セルで輝度勾配ヒストグラムを生成する。従来のHOGにおける輝度勾配ヒストグラムは、0~180[deg]もしくは0~360[deg]を所定個数に分割(例えば8分割)したヒストグラムH[b]を準備し、そのすべてをゼロに初期化しておく。そして、セル内の各画素についてSOBELフィルタ等を適用してX方向、Y方向の輝度変化(dX,dY)を求め、X方向およびY方向の変化量から輝度変化の強度と角度(G,θ)を算出し、角度θに対応するヒストグラムの位置bに対して強度Gを投票する。この投票を、セル内のすべての画素について実施して得られるヒストグラムH[b]が輝度勾配ヒストグラムである。
 一方、本実施の形態における改良型のHOGにおいては、上記した投票処理が従来のHOGと異なる。その投票処理を、図7を用いて2種類説明する。
 まず、輝度勾配ヒストグラムの勾配方向について、方向のみを考慮した場合、すなわち0~180[deg]で考慮した場合について説明する。この場合、輝度勾配ヒストグラムは4分割とし、H[1]~H[4]の1次元配列で表現するものとする。セル内のある画素とその周囲の8つの近傍画素にそれぞれ図7に示すようにp0(注目画素)とp1~p8(周辺画素)の記号を割り振ると、以下の式(1)を用いて4つの値を算出する。
[数1]
  d15=|P1-P5|
  d26=|P2-P6|
  d37=|P3-P7|
  d48=|P4-P8|   ・・・(1)
 そして、d15を輝度勾配ヒストグラムのH[1]へ、d26をH[2]へ、d37をH[3]へ、d48をH[4]へそれぞれ投票する。以上の投票処理をセル内のすべての画素について実施する。
 つぎに、輝度勾配ヒストグラムの勾配方向について、方向および向きを考慮した場合、すなわち0~360[deg]とした場合について説明する。この場合、輝度勾配ヒストグラムは8分割とし、H[1]~H[8]の1次元配列で表現するものとする。上記の場合と同様に、セル内のある画素とその周囲の8つの近傍画素にそれぞれ図7に示すようにp0とp1~p8の記号を割り振ると、以下の式(2)を用いて8つの値を算出する。
[数2]
  d1=MAX(0、p1-p0)
  d2=MAX(0、p2-p0)
  d3=MAX(0、p3-p0)
  d4=MAX(0、p4-p0)
  d5=MAX(0、p5-p0)
  d6=MAX(0、p6-p0)
  d7=MAX(0、p7-p0)
  d8=MAX(0、p8-p0)   ・・・(2)
 そして、d1を輝度勾配ヒストグラムのH[1]へ、d2をH[2]へ、d3をH[3]へ、d4をH[4]へ、d5をH[5]へ、d6をH[6]へ、d7をH[7]へ、d8をH[8]へ、それぞれ投票する。以上の投票処理をセル内のすべての画素について実施する。
 つぎに、第一検出部12は、図5に示すように、ステップS202にて、複数のセルから成る各ブロック(BLOCK)について、各セルで算出された輝度勾配ヒストグラムを連結した1次元ベクトルを生成してノルムを正規化する。たとえば2セル×2セルというブロックを形成し、1つのセルが複数のブロックに跨るように当該ブロックは設定される。
 つぎに、ステップS203にて、各ブロックの正規化した1次元ベクトルを連結して特徴ベクトルを生成する。
 つぎに、ステップS204にて、特徴ベクトルをSVM(Support Vector Machine)へ入力して評価値を得る。SVMは公知の技術であるためその詳細な説明は割愛するが、SVMを用いて識別を実施するためには、事前に検出対象とする歩行者と歩行者以外の背景の画像データから上記特徴量を生成し、SVMを学習する必要がある。特徴ベクトルは、その次元数の空間(特徴空間)における1点として表されるが、SVMの学習においては、特徴空間内における学習データの歩行者と背景の分布の最も境界となるデータ(Support Vector:サポートベクター)の中間に識別の超平面を生成する。この識別の処理では、未知のデータが入ってきたときに、その超平面に基づいて、どちらに近いかに応じて評価値を出力する。この評価値が閾値以上であれば歩行者と判断し、そうでなければ背景と判断する。
 以上説明したように、従来の算出方法であれば、上記した特徴量の算出時に、各セルへの投票処理の際に、X方向およびY方向の輝度変化(dX,dY)から輝度変化の強度と角度(G,θ)を算出し、角度θに対応するヒストグラムの位置bに対して強度Gを投票するため、1画素につき1回の投票しかできない。一方、上述した本実施の形態のパターン認識手法によると、1画素につき4回や8回の投票機会が得られるため、輝度勾配ヒストグラムの密度を高めることができる。特に、自車から離れた位置に存在する歩行者は画像上で小さく映るために解像度が低い。よって、従来の算出手法を適用すると1つのセルに属する画素数が減り、輝度勾配ヒストグラムが疎となるために識別性能が過敏(センシティブ)となる。一方、上述した本実施の形態のパターン認識手法によると、1画素からの投票機会が増加するため、輝度勾配ヒストグラムの密度が向上して物体の識別性能を向上させることができる。
 なお、上述した手法では、1つのセルへの投票において、輝度差をそのまま投票値としていたが、輝度差に対して閾値THを設定し、該当する輝度勾配ヒストグラムへの投票値を、輝度差が閾値THよりも大きければ1、輝度差が閾値TH以下であれば0としてもよい。さらに、複数の閾値TH1、TH2(TH1<TH2)を設定し、輝度差が閾値TH1よりも小さければ投票値を0、閾値TH1以上かつ閾値TH2未満であれば投票値を1、閾値TH2以上であれば投票値を2とするように、多段階に設定してもよい。
 また、上述した手法はHOG特徴量に対して適用したが、1つのセルに対する投票部分を上述した手法に置き換えることで、HOGをベースとする他の手法へも本手法を適用可能である。以下、HOGをベースとする公知技術の1つであるCoHOGに適用する場合の処理の流れを説明する。
 まず、HOGと同様に、処理画像を複数の小領域に分割する。
 つぎに、小領域内のある注目画素に対し、上述した式(2)のd1~d8の輝度差を算出する。そして、注目画素のd1~d8の輝度差が閾値THよりも大きければ1、そうでなければ0を、対応するba1~ba8へ格納する。
 つづいて、注目画素から所定距離の参照画素において、同様に式(2)のd1~d8の輝度差を算出する。そして、参照画素のd1~d8の輝度差が閾値THよりも大きければ1、そうでなければ0を、対応するbb1~bb8へ格納する。
 つぎに、共起ヒストグラムの投票処理を行う。共起ヒストグラムは、8×8の2次元ヒストグラムであり、H[1][1]~H[8][8]の2次元配列で表現するものとする。注目画素のba1と参照画素のbb1がともに1であれば、要素H[1][1]に1を投票する。一方、注目画素のba1と参照画素のbb1のいずれか一方が0であれば、投票しない。以上の処理を、注目画素のba1~ba8、参照画素のbb1~bb8のすべての組み合わせに対して計64回実施する。
 つづいて、注目画素はそのままにして、参照画素を変更し、参照画素ごとに別途準備した共起ヒストグラムへ投票を行う。以上の処理を、参照画素30点に対して実施し、30個の共起ヒストグラムに投票処理を行う。
 さらに、要素が8つのヒストグラムを用意し、参照画素のba1~ba8を対応するヒストグラムのBINへ投票する。
 上記の処理を、1つの小領域内のすべての画素に対して実施する。その結果、1つの小領域から30個の共起ヒストグラム、および、1個のヒストグラムが得られることとなり、(64×30+8)次元の特徴量が得られる。この特徴量をすべての小領域から算出してベクトル化したものを特徴ベクトルとする。
 特徴ベクトルに対する識別処理は、HOGと同様にSVMを用いるため、その説明は割愛する。
 さらに、上述したCoHOGへ拡張した方法において、複数の閾値TH1、TH2(TH1<TH2)を設定し、輝度差が閾値TH1よりも小さければ投票値を0、閾値TH1以上かつ閾値TH2未満であれば投票値を1、閾値TH2以上であれば投票値を2とするように、多段階に設定してもよい。この場合、注目画素のd1~d8の輝度差と閾値TH1、TH2から算出されるba1~ba8は0、1、2の3値を持ち、参照画素のbb1~bb8も同様に、0、1、2の3値となるため、共起ヒストグラムへの投票値はその積とする。たとえばba1とbb1の共起を取る場合、投票値はba1×bb1とし、0、1、2、4のいずれかを投票する。
 以上で説明したように、CoHOG特徴量において上述したような方法にて特徴量を取ることにより、1画素からの投票機会を増加させることができ、共起ヒストグラムの密度が向上し、識別性能を向上させることができる。
 なお、上述した手法では、輝度差d1~d8を、閾値を用いて0、1、あるいは2へ変換して投票しているが、輝度差そのものを投票に用いてもよい。
 また、上述したHOGの拡張とCoHOGの拡張のいずれにおいても、今回は注目画素の8つの近傍画素からd1~d8を計算して8方向のヒストグラムを扱ったが、例えば8つの近傍画素のさらに外側の21つの近傍画素に対して同様の処理を実施してもよい。
 第一検出部12は、上記したパターン認識手法で得られた歩行者の検出結果をD1C[p][q]へ格納する。ここで、D1Cは画像上の検出位置座標(SX,SY,EX,EY)を表している。なお、この検出位置座標は、ピラミッド画像生成時の縮小率に基づいて画像IMGSRC[x][y]上の座標へ変換される。以上のステップS1202での処理を、p=1からp=Pまで繰り返し処理を行う。
 つぎに、第一検出部12は、図3に示すように、ステップS1203にて、ラスタスキャン処理の検出結果を統合する。この統合方法は、種々の公知技術が存在するため、ここではその詳細な説明を割愛するが、本実施の形態においては、たとえばMeanShift(平均値シフト法)と呼ばれる公知技術を使用する。そして、その統合結果をD1M[r]へ格納する。ここで、D1Mは画像上の検出位置座標(SX,SY,EX,EY)を表している。
 つぎに、ステップS1204にて、検出・統合した結果の検証処理を実施する。この検証処理は、パターン認識処理で排除できない、歩行者に類似したパターン(たとえば、電柱、ガードレール等)に対する誤認識を排除する処理である。この検証処理については、種々の公知技術が存在するため、ここではその詳細な説明を割愛するが、本実施の形態においては、たとえば特開2011-154580号公報に記載された方法を用いることとする。この検証処理の結果、歩行者ではないと判定された場合にはそのパターンをD1M[r]から削除する。
 つぎに、ステップS1205にて、追跡処理を実施し、検証処理により歩行者であると判定されたD1M[r]と、その1周期前の結果であるD1_Z1[n]の対応付けを行う。
 図8は、上記した追跡処理フローを説明したフローチャートである。
 まず、第一検出部12は、ステップS101において、今回の検出結果D1[n]を初期化する。つぎに、ステップS102において、1周期前(前回)の検出結果D1_Z1[n]を取得し、ステップS103において、今回の検出結果D1M[r]を取得する。
 つぎに、ステップS104において、1周期前の検出結果D1_Z1[n]と今回の検出結果D1M[r]の対応付けを行う。この対応付けは、1周期前の検出結果D1_Z1[n]と今回の検出結果D1M[r]の領域(矩形領域)を1つずつ比較して所定の評価値を算出し、その評価値が所定の閾値以上であれば対応がとれたものと判断し、閾値以下であれば対応がとれなかったものと判断する。ここで、評価値としては、たとえば、矩形内の画像そのものの相関値を用いる方法や矩形の重複率を用いる方法等、種々の方法が存在するがいずれを用いてもよい。本実施の形態においては、1周期前の検出結果D1_Z1[n]から予測位置D1_ZP[n]を算出し、予測位置D1_ZP[n]と今回の検出結果D1M[r]から得られる矩形の重複率OVRを使用して、重複率OVRが閾値を超えたものについて対応付けがとれたと判定する。なお、予測位置D1_ZP[n]は、1周期前の検出結果D1_Z1[n]と2周期前の検出結果D1_Z2[n]から移動量を求め、その量を1周期前の検出結果D1_Z1[n]へ加算したものである。また、矩形の重複率OVRは、予測位置D1_ZP[n]の矩形を(SXP,SYP,EXP,EYP)とし、今回の検出結果D1M[r]の矩形を(SXM,SYM,EXM,EYM)とした場合に、以下の式(3)により共通矩形(SXC,SYC,EXC,EYC)を算出することで求められる。
[数3]
  SXC=MAX(SXP,SXM)
  SYC=MAX(SYP,SYM)
  EXC=MIN(EXP,EXM)
  EYC=MIN(EYP,EYM)
  AP=(EXP-SXP)×(EYP-SYP)
  AM=(EXM-SXM)×(EYM-SYM)
  AC=(EXC-SXC)×(EYC-SYC)
  OVR=(2AC)/(AP+AM)        ・・・(3)
 つぎに、ステップS105において、予測結果D1_ZP[n]と今回の検出結果D1M[r]で対応がとれたものについて、今回の検出結果D1[n]の物体IDがnの位置に今回の検出結果D1M[r]を登録する。
 つぎに、ステップS106において、今回の検出結果D1M[r]のうち、予測結果D1_ZP[n]と対応が取れなかった結果を新規検出物体として新規に登録する。この登録は、今回の検出結果D1[n]のうち情報が登録されていないnの位置に今回の検出結果D1M[r]を登録することで行われる。
 以上のような追跡処理を実施することにより、一度検出した物体(歩行者)が消失するまで同じIDを持つことになり、情報の追跡性が向上する。また、新規物体を登録する際、過去数周期まで物体が存在したnには登録しないようにすることで、ある物体が消失してすぐに別の物体が登録されることを抑止することができる。なお、この追跡処理の結果、パターンマッチ処理による歩行者パターン検出結果が第一検出結果(第一位置情報)D1[n]として出力される。
[第二検出部]
 つぎに、図9を用いて、第二検出部13における処理内容について説明する。図9は、第二検出部13の処理フローを説明したフローチャートである。
 第二検出部13は、まず、ステップS1301にて、画像IMGSRC[x][y]および1周期前の画像IMGSRC_Z1[x][y]の第二検出領域130内からオプティカルフローを算出する。このオプティカルフローは、一方の画像のある座標(x,y)の点が他方の画像のどの点に移動したかを表すベクトルであり、1つの画像座標(x,y)に対してX方向成分とY方向成分が算出される。本実施の形態においては、画像IMGSRC[x][y]の各画素が1周期前の画像IMGSRC_Z1[x][y]のどの位置(画素)に対応するかを算出する。
 上記したオプティカルフローの算出方法は種々紹介されており、そのいずれの算出手法を用いてもよいが、本実施の形態ではブロックマッチ法を用いることとする。ブロックマッチ法については、画像処理に関する公知の文献に記載されているため、その詳細な説明は割愛するが、たとえば、画像IMGSRC[x][y]上の点(xn,yn)を中心に小領域のテンプレート画像TPを作成し、そのテンプレート画像TPが1周期前の画像IMGSRC_Z1[x][y]内で最もよくマッチする位置(xn’,yn’)を探索し、そのX方向成分OFX[n]=(x1’-x1)とY方向成分OFY[n]=(yn’-yn)を算出する方法である。なお、画像IMGSRC[x][y]と対応をとる画像は、1周期前の画像IMGSRC_Z1[x][y]に限定されず、任意の周期前の画像であってもよい。
 つぎに、ステップS1302にて、オプティカルフローから移動体フロー抽出画像MVOBJ[x][y]を生成する。
 具体的には、まず、移動体フロー抽出画像MVOBJ[x][y]にすべてゼロを入力して初期化する。つぎに、最新の取り込み画像IMGSRC[x][y]上の点(xn,yn)の位置が1周期前の画像上でどの位置にあるかを予測して予測フローを算出する。本実施の形態では、自車が直進していると仮定すると、その予測フローは、まず、消失点とカメラ幾何から、座標(xn,yn)が路面上の点と仮定して世界座標(Xn,Yn,0)を求め、自車速VSPと処理周期Tから移動量P=VSP×Tを算出して予測位置(Xn,Yn+P,0)を求め、予測位置(Xn,Yn+P,0)の画像座標位置(xnp,ynp)を算出し、これにより、予測フローは、PFX=(xnp-xn),PFY=(ynp-yn)となる。
 つぎに、予測フローPFX,PFYと、上記したOFX[n],OFY[n]の誤差eを求める。本実施の形態では、誤差eはフローベクトル間のユークリッド距離とし、以下の式(4)により求められる。
[数4]
  e=(OFX[n]―PFX)^2+(OFY[n]―PFY)^2 ・・・(4)
 つぎに、誤差eと閾値thを比較し、誤差eが閾値thよりも大きければ移動体フローと判定して移動体フロー抽出画像MVOBJ[xn][yn]に「1」を代入する。以上の処理を第二検出領域130内の全点に対して実施することにより、移動体フロー抽出画像MVOBJ[x][y]が生成される。
 つぎに、第二検出部13は、ステップS1303にて、移動体フロー抽出画像MVOBJ[x][y]をグルーピングする。本実施の形態においては、そのグルーピングは、移動体フロー抽出画像MVOBJ[x][y]に対してラベリング処理を施すことにより実施する。ラベリング処理の結果は、移動体検出結果として第二検出部13の検出結果D2M[m]へ矩形情報(SX,SY,EX,EY)として登録する。
 つぎに、ステップS1304にて、追跡処理を実施する。この追跡処理は、図8を用いて説明した第一検出部12の処理内容と同一であるため、ここではその詳細な説明を割愛する。なお、この追跡処理の結果、オプティカルフローによる移動体検出結果が第二検出結果(第二位置情報)D2[m]として出力される。
 なお、上記した実施の形態では、移動体フロー抽出画像MVOBJ[x][y]を1枚しか用いていないが、たとえば移動方向別に移動体フロー抽出画像MVOBJ[x][y]を複数準備してもよい。
 また、上述した説明では、自車が直進していると仮定したが、例えばデッドレコニング法を使用し、左右の車輪速値から自車の前後方向、左右方向、および旋回方向の速度を求めて、上記予測に用いてもよい。
[第一検出位置補間部]
 つぎに、図10~図13を用いて、第一検出位置補間部14における処理内容について説明する。図10は、第一検出位置補間部14の処理フローを説明したフローチャートである。
 第一検出位置補間部14は、まず、ステップS141にて、第一検出部12から出力された第一検出結果D1[n]と第二検出部13から出力された第二検出結果D2[m]の同一物体対応付けを行う。図11はこの同一物体対応付け処理の処理フローを説明したフローチャートである。
 まず、第一検出結果D1[n]について、n=1からNまでの繰り返し処理を実施する。ここで、第一検出結果D1[n]は追跡処理の結果、情報が抜けている部分が存在するため、その処理は第一検出結果D1[n]の確保領域全体に対して実施し、そこに情報が格納されている場合のみ、以下の処理を実施する。
 つぎに、第二検出結果D2[m]について、m=1からMまでの繰り返し処理を実施する。第一検出結果D1[n]と同様に、第二検出結果D2[m]は追跡処理の結果、情報が抜けている部分が存在するため、その処理は第二検出結果D2[m]の確保領域全体に対して実施し、そこに情報が格納されている場合のみ、以下の処理を実施する。
 第一検出位置補間部14は、ステップS1411にて、第一検出結果D1[n]と第二検出結果D2[m]の一致度MATCHを算出する。本実施の形態において、一致度MATCHは、上記した追跡処理で説明した重複率OVRの算出方法と同様の方法を用いて求められるため、その詳細な説明は割愛する。
 つぎに、ステップS1412にて、一致度MATCHが閾値TH_MATCHを超えたか否かを判定する。一致度MATCHが閾値TH_MATCHを超えた場合は、ステップS1413へ移動し、第一検出結果D1[n]と第二検出結果D2[m]は同一物体であると判定する。
 上記した処理をm=1からMまで繰り返し実行し、さらに、n=1からNまで繰り返し実行する。以上の処理により、第一検出部12から出力された第一検出結果D1[n]と第二検出部13から出力された第二検出結果D2[m]のうち同一物体(すなわち、同一の歩行者)からの検出結果が判明する。
 つぎに、第一検出位置補間部14は、図10に示すように、ステップS142にて、第二検出結果D2[m]を用いた第一検出結果D1[n]の補間処理(現在位置補間処理)を実施する。図12はこの現在位置補間処理の処理フローを説明したフローチャートである。
 まず、第二検出結果D2[m]について、m=1からMまでの繰り返し処理を実施する。ここで、第二検出結果D2[m]は追跡処理の結果、情報が抜けている部分が存在するため、その処理は第二検出結果D2[m]の確保領域全体に対して実施し、そこに情報が格納されている場合のみ、以下の処理を実施する。
 第一検出位置補間部14は、ステップS1421にて、第二検出結果D2[m]と同一物体と判定された第一検出結果D1[n’]の有無を確認する。第二検出結果D2[m]と同一物体と判定された第一検出結果D1[n’]が存在しない場合はステップS1422へ移動し、第二検出結果D2[m]と同一物体と判定された第一検出結果D1[n’]が存在する場合はステップS1422、S1423をスキップする。
 つぎに、ステップS1422にて、第二検出結果D2[m]の過去情報D2_Z[m]を参照し、その過去情報D2_Z[m]と対応した第一検出結果の過去情報D1_Z[n’]の存在の有無を確認する。ここで、過去情報は1周期前のみに限定されず、数周期前の過去情報を用いてもよい。過去情報D2_Z[m]と対応した過去情報D1_Z[n’]が存在する場合はステップS1423へ移動し、過去情報D2_Z[m]と対応した過去情報D1_Z[n’]が存在しない場合はS1423をスキップする。
 つぎに、ステップS1423にて補間処理、具体的には第一検出結果D1[n]の現在位置補間処理を行う。ステップS1423に到達する場合、過去にD1_Z[n’]とD2_Z[m]にて同一物体として検知されたものの、現在の第一検出部12ではその物体を検知していないが、第二検出部31ではその物体を検知・追跡していることになる。よって、現在の第二検出結果D2[m]の矩形情報を(SX2、SY2,EX2,EY2)、過去情報D1_Z[n’]、D2_Z[m]の矩形情報をそれぞれ(SX1_Z、SY1_Z,EX1_Z,EY1_Z)、(SX2_Z、SY2_Z,EX2_Z,EY2_Z)とすると、以下の式(5)により、第一検出結果と第二検出結果の過去の位置関係から現在の第一検出結果D1[n’]を推測することができる。
[数5]
  SX1P=(SX1_Z-SX2_Z)+SX2
  SY1P=(SY1_Z-SY2_Z)+SY2
  EX1P=(EX1_Z-EX2_Z)+EX2
  EY1P=(EY1_Z-EY2_Z)+EY2   ・・・(5)
 上記の演算により得られる矩形情報(SX1P,SY1P,EX1P,EY1P)を、第一検出結果を補間する第一位置情報補間情報D1[n’]としてD1[n]内へ登録する。このとき、上述したように、第一検出部12の追跡処理により、同じ物体を同じIDへ登録するようにしているため、n=n’へ登録すればよい。上記した処理をm=1からMまで繰り返し実行する。
 つぎに、第一検出位置補間部14は、図10に示すように、ステップS143にて、第二検出結果D2[m]を用いた第一検出結果D1[n]の過去位置の補間処理(過去位置補間処理)を実施する。図13はこの過去位置補間処理の処理フローを説明したフローチャートである。
 まず、第一検出結果D1[n]について、n=1からNまでの繰り返し処理を実施する。ここで、第一検出結果D1[n]は追跡処理の結果、情報が抜けている部分が存在するため、その処理は第一検出結果D1[n]の確保領域全体に対して実施し、そこに情報が格納されている場合のみ、以下の処理を実施する。
 第一検出位置補間部14は、ステップS1431にて、第一検出結果D1[n]が新規検出結果であるか否かを判定する。第一検出結果D1[n]が新規検出物体であれば、ステップS1432へ移動し、第一検出結果D1[n]が新規検出物体でなければ以下のステップS1432~S1434の処理をスキップする。
 つぎに、ステップS1432にて、第一検出結果D1[n]と同一物体と判定されたD2[m’]の有無を確認する。第一検出結果D1[n]と同一物体と判定されたD2[m’]が存在する場合はステップS1433へ移動し、第一検出結果D1[n]と同一物体と判定されたD2[m’]が存在しない場合は以下のステップS1433、S1434の処理をスキップする。
 つぎに、ステップS1433にて、第一検出結果D1[n]と同一物体と判定されたD2[m’]に過去情報D2_Z[m’]が存在するかを確認し、過去情報D2_Z[m’]が存在すればステップS1434へ移動し、過去情報D2_Z[m’]が存在しなければステップS1434の処理をスキップする。
 つぎに、ステップS1434にて、第一検出結果D1[n]の過去情報の補間処理(過去位置補間処理)を行う。ステップS1434に到達する場合、第一検出結果D1[n]は新規検出物体であるものの、第一検出結果D1[n]と同一物体と判定されたD2[m’]には過去情報D2_Z[m’]が存在する。よって、現在の第一検出結果D1[n]、第二検出結果D2[m’]の矩形情報をそれぞれ(SX1,SY1,EX1,EY1)、(SX2、SY2,EX2,EY2)とし、過去情報D2_Z[n]の矩形情報を(SX2_Z、SY2_Z,EX2_Z,EY2_Z)とすると、以下の式(6)により、第一検出結果と第二検出結果の現在の位置関係から過去の第一検出結果D1[n’]を推測することができる。
[数6]
  SX1_ZP=(SX1-SX2)+SX2_Z
  SY1_ZP=(SY1-SY2)+SY2_Z
  EX1_ZP=(EX1-EX2)+EX2_Z
  EY1_ZP=(EY1-EY2)+EY2_Z   ・・・(6)
 上記の演算により得られる矩形情報(SX1_ZP,SY1_ZP,EX1_ZP,EY1_ZP)を、第一検出結果を補間する第一位置情報補間情報としての第一検出結果D1[n]の過去情報(過去位置)として登録する。この過去情報は、D2[m]よりも1周期前の過去情報D1_Z1[n’]、2周期前の過去情報D1_Z2[n’]等、D2[m]の過去値が存在する限り補間することができる。なお、本実施の形態においては、最大で10周期前までを補間するように配列を確保し、D2[m]の過去値が10周期以下である場合はその周期分、D2[m]の過去値が10周期よりも多い場合は10周期分まで補間する。上記した処理をn=1からNまで繰り返し実行する。
[距離計測部]
 つぎに、図14を用いて、距離計測部15における処理内容について説明する。図14は、距離計測部15の処理フローを説明したフローチャートである。ここで、距離計測部15は、画像上の物体(歩行者)との相対速度や相対距離の算出に適した第一検出部12の第一検出結果D1[n]に基づいてその物体との相対速度や相対距離を算出するようになっている。
 距離計測部15は、まず、第一検出結果D1[n]について、n=1からNまでの繰り返し処理を実施する。ここで、第一検出結果D1[n]は追跡処理の結果、情報が抜けている部分が存在するため、その処理は第一検出結果D1[n]の確保領域全体に対して実施し、そこに情報が格納されている場合のみ、以下の処理を実施する。
 距離計測部15は、ステップS1501にて、第一検出部12から出力された第一検出結果D1[n]が新規検出物体であるか否かを判定する。第一検出結果D1[n]が新規検出物体であればステップS1502へ移動し、第一検出結果D1[n]が新規検出物体でなければステップS1503へ移動する。
 つぎに、ステップS1502にて、第一検出結果D1[n]の過去値に補間処理があるか否かを判定する。過去値に補間処理があればステップS1504へ移動し、過去値に補間処理がなければステップS1503へ移動する。
 第一検出結果D1[n]が新規検出物体でない場合や過去値に補間処理がない場合、ステップS1503にて、第一検出部12から出力された第一検出結果(現在値)D1[n]を用いて物体(歩行者)との相対距離および相対速度を算出する。第一検出結果D1[n]の矩形情報(SX1,SY1,EX1,EY1)から自車と物体との相対距離を算出する方法は、カメラパラメータが既知という条件下であれば種々の方法が存在する。たとえば、歩行者の身長や幅を仮定し、カメラパラメータと画像上の高さや幅から相対距離を算出する方法がある。また、矩形情報の下端中央の画像座標(すなわち、接地座標)とカメラパラメータから相対距離を算出する方法がある。さらに、矩形情報内から歩行者の足元(すなわち、接地座標)を検出し、検出された座標とカメラパラメータを用いて相対距離や相対速度を算出する方法がある。本実施の形態では、たとえば、矩形情報の下端中央の画像座標(すなわち、接地座標)とカメラパラメータから算出する方法を用いて自車の車両先端中央から物体(歩行者)までの相対位置(PX,PY)を測定する。
 一方、第一検出結果D1[n]が新規検出物体である場合且つ過去値に補間処理がある場合、ステップS1504にて、第一検出結果D1[n]および第一位置情報補間情報としての第一検出結果D1[n]の過去値D1_Z[n]を用いて物体(歩行者)との相対距離および相対速度を算出する。過去値D1_Z[n]を用いた算出方法では、過去の全地点においてステップS1503と同様の距離計測を実施し、得られた相対位置(PX,PY)をすべて(PX_Z1,PY_Z1)、(PX_Z2,PY_Z2)等として保存する。
 つぎに、ステップS1505にて、物体(歩行者)との相対速度の算出およびフィルタリング処理を行う。相対速度は、周期毎に算出する相対位置(PX,PY)の差分により求められ、その後に平滑化のためのフィルタリング処理が実施される。このとき、ステップS1504を介して過去値が存在する場合は、存在する最も過去の値から相対速度およびフィルタリング処理を再計算して現在値を算出する。あるいは、上記した相対位置(PX,PY)に対してカルマンフィルタ処理を実施する。このカルマンフィルタ処理は公知の技術であるため、その詳細な説明は割愛するが、観測値を相対位置(PX,PY)とし、内部状態として少なくとも相対位置(PX,PY)および相対速度(VX,VY)を入れるように設定することで、カルマンフィルタ処理により相対位置および相対速度を平滑化しながら求めることができる。上記した処理をn=1からNまで繰り返し実行する。
 なお、距離計測部15で算出された物体(歩行者)との相対距離や相対速度は、出力部16を介して外部に設けられた車両のコントローラや警報装置等の外部機器へ出力される。
[第一実施の形態の作用効果]
 以上で説明した第一実施の形態における車両用外界認識装置10の作用効果について、図15A~図16を用いて説明する。図15Aは、車両用外界認識装置10を用いて自車前方を横切る歩行者を検出した場合の、処理タイミングにおける第一検出部12及び第二検出部13による検出の有無の一例を模式的に示す模式図であり、図15Bは、処理タイミングにおける、第一検出部12及び第二検出部13による検出の有無と距離計測部15による処理方法の一例を説明した説明図である。なお、図15B中、第一検出部12および第二検出部13の列では、物体(歩行者)の位置情報を検出できた場合に丸(○)、検出できなかった場合にバツ(×)を記載している。また、距離計測部15の列では、物体(歩行者)との相対距離の計測を実施しなかった場合にバツ(×)、第一検出結果(現在値)D1[n]を用いて相対距離の計測を実施した場合(図14のステップS1503参照)に丸(○)、第一検出結果D1[n]および第一検出結果を補間する第一位置情報補間情報を用いて相対距離の計測を実施した場合(図14のステップS1504参照)に二重丸(◎)を記載している。
 図15Aに示すように、歩行者が時間T1からT7までに亘って自車前方を横切った例において、第一検出部12では、時間T3~T5と時間T7でその歩行者を検出し、第二検出部13では、時間T1からT7でその歩行者を検出したとする。このとき、本第一実施の形態の車両用外界認識装置10は、まず時間T3において、第一検出位置補間部14により第一検出結果D1[n]の過去値の補間処理(過去位置補間処理)を行う。すなわち、図15Cに示すように、時間T3における第一検出結果D1[n]と第二検出結果D2[m]の相対的な位置関係に基づいて、時間T1、T2における第一検出結果(時間T1、T2において第一検出部12にて検出されなかった物体(歩行者)の位置情報)を補間し、時間T3における物体との相対位置や相対速度を再計算する。
 また、本第一実施の形態の車両用外界認識装置10は、時間T6において、第一検出位置補間部14によって第一検出結果D1[n]の補間処理(現在位置補間処理)を行う。すなわち、図15Dに示すように、時間T6における第一検出位置D1[n]を、時間T5における第一検出結果D1[n]と第二検出結果D2[m]の相対的な位置関係と、時間T6における第二検出結果D2[m]に基づいて補間し、時間T6における物体との相対位置や相対速度を計算する。
 なお、時間T7における第一検出結果D1[n]と第二検出結果D2[m]の相対的な位置関係に基づいて、時間T6における第一検出位置D1[n](時間T6において第一検出部12にて検出されなかった物体(歩行者)の位置情報)を補間してもよい。
 図16は、図1に示す車両用外界認識装置10による歩行者の横移動速度の計測結果とパターンマッチ処理のみによって計測した場合の歩行者の横移動速度の計測結果の一例を示す図である。図16中、縦軸が歩行者の横方向の相対的な移動速度、横軸が時間であり、図中の破線が歩行者の横移動速度の真値、実線が本第一実施の形態における車両用外界認識装置10で算出した場合の歩行者の横移動速度、一点鎖線がパターンマッチ処理のみで算出した場合の歩行者の横移動速度を示している。
 図示するように、パターンマッチ処理(第一検出部12と同様の処理)のみによって算出した場合、パターンマッチ処理では時間T3で物体(歩行者)を最初に検知し、時間T6で物体をロストする。この場合、時間T3で物体を最初に検知してから相対距離や相対速度の計算を開始し、時間T3以降で時間T4、T5の検出結果を用いて物体との相対速度を算出してフィルタリングを行うため、真値への収束が遅くなる。また、時間T6で物体をロストするため、それまでの算出結果が失われ、時間T7で再び物体を検知してから再び相対速度の算出を始める必要があるため、真値への収束が更に遅くなる。
 一方、図1に示す車両用外界認識装置10によって算出する場合には、第二検出部13がオプティカルフローを用いて物体を常時検出しており、第一検出部12が時間T3で物体(歩行者)を最初に検知した時点で第一検出位置補間部14により第一検出結果の過去値の補間が行われるため、時間T1から相対速度を算出した場合と同等の相対速度を得ることができ、時間T3での相対速度がある程度真値へ近くなる。また、第一検出部12が時間T6で物体をロストした場合でも、第一検出位置補間部14によりその時間T6での第一検出結果の補間を実施するため、相対速度の算出結果が途切れることがなく、算出される相対速度が歩行者の横移動速度の真値に更に近くなる。
 このように、本第一実施の形態の車両用外界認識装置10によれば、第一検出部12及び第二検出部13によって自車周囲を撮像した画像200から歩行者の第一位置情報(第一検出結果)及び第二位置情報(第二検出結果)が検出される第一状態と第二検出部13のみによってその画像200から物体の第二位置情報が検出される第二状態とが時系列で発生した際に、第一状態における第一位置情報及び第二位置情報と第二状態における第二位置情報とに基づいて第二状態における物体の第一位置情報を補間する第一位置情報補間情報を算出することにより、第一検出部12によって画像200の一部で歩行者等の物体の位置情報を検出し得ない場合であっても、その物体との相対位置や相対速度の算出精度を高めることができる。より具体的には、たとえば広角カメラを用いる際のカメラ歪や画像上の歩行者のパターン変化により、第一検出部12によって画像200の一部で自車進路を横切る歩行者の位置情報を検出し得ない場合であっても、第二検出部13によって検出される歩行者の第二位置情報を用いて第一検出部12によって検出される歩行者の第一位置情報の過去値や現在値を補間することができるため、自車と歩行者との相対位置や相対速度を精度良く算出することができる。
 なお、上記した第一実施の形態では、第一検出部12で行うパターンマッチ処理の検出対象として歩行者を採用したが、当該第一検出部12の検出対象は適宜に設定することができる。たとえば、相対距離や相対速度の算出に最も適した歩行者の脚部形状のみを第一検出部12の検出対象としてもよい。
<第二実施の形態>
 つぎに、本発明に係る車両用外界認識装置の第二実施の形態について図17、図18を用いて詳細に説明する。図17は、第二実施の形態における車両用外界認識装置20のブロック図である。図17に示す第二実施の形態の車両用外界認識装置20は、図1に示す第一実施の形態の車両用外界認識装置10に対して、出力選択部26の構成が相違しており、その他の構成は第一実施の形態の車両用外界認識装置10と同様である。したがって、以下では、第一実施の形態の車両用外界認識装置10と異なる構成のみを詳述し、第一実施の形態と同様の構成には同一の符号を付してその詳細な説明は省略する。
 車両用外界認識装置20は、自動車等の車両に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ装置のカメラ1で撮影した画像から物体を検出するためのものであり、本実施の形態では、自車周囲の物体のうち特に歩行者を検知するように構成されている。
 車両用外界認識装置20は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて予め定められた周期Tで繰り返し処理を実行するようになっている。
 車両用外界認識装置20は、図17に示すように、画像取得部11と、第一検出部12と、第二検出部13と、第一検出位置補間部14と、距離計測部15と、出力選択部26と、を備えている。以下では、出力選択部26の処理のみを詳細に説明する。
[出力選択部]
 図18を用いて、出力選択部26における処理内容について説明する。図18は、出力選択部26の処理フローを説明したフローチャートである。
 出力選択部26は、まず、第一検出結果D1[n]について、n=1からNまでの繰り返し処理を実施する。ここで、第一検出結果D1[n]は追跡処理の結果、情報が抜けている部分が存在するため、その処理は第一検出結果D1[n]の確保領域全体に対して実施し、そこに情報が格納されている場合のみ、以下の処理を実施する。
 出力選択部26は、ステップS1601にて、第一検出結果D1[n]と同一物体と判定された第二検出結果D2[m’]の有無を確認する。第一検出結果D1[n]と同一物体と判定された第二検出結果D2[m’]が存在する場合にはステップS1603へ移動し、第一検出結果D1[n]と同一物体と判定された第二検出結果D2[m’]が存在しない場合にはステップS1602へ移動する。
 つぎに、ステップS1602にて、第一検出結果D1[n]の過去値D1_Z[n]と同一物体と判定された第二検出結果D2[m’]の過去値D2_Z[m’]の有無を確認する。過去値D1_Z[n]と同一物体と判定された過去値D2_Z[m’]が存在する場合にはステップS1603へ移動し、過去値D1_Z[n]と同一物体と判定された過去値D2_Z[m’]が存在しない場合にはステップS1604へ移動する。
 第一検出結果D1[n]と同一物体と判定された第二検出結果D2[m’]が存在する場合や第一検出結果D1[n]の過去値D1_Z[n]と同一物体と判定された第二検出結果D2[m’]の過去値D2_Z[m’]が存在する場合には、ステップS1603にて、第一検出結果D1[n]等を用いて距離計測部15で計測された物体(歩行者)との相対位置および相対速度をたとえばLANを介して車両用外界認識装置20の外部へ出力する。すなわち、ここで出力される結果は、現在もしくは過去に第一検出部12と第二検出部13の双方で検出された物体に対する結果である。
 一方、第一検出結果D1[n]と同一物体と判定された第二検出結果D2[m’]が存在しない場合且つ第一検出結果D1[n]の過去値D1_Z[n]と同一物体と判定された第二検出結果D2[m’]の過去値D2_Z[m’]が存在しない場合には、ステップS1604にて、第一検出結果D1[n]等を用いて距離計測部15で計測された相対位置および相対速度を車両用外界認識装置20の外部へ出力しない。この結果は、これまでに第一検出部12のみで検出された物体に対する結果である。すなわち、これまでに第一検出部12のみで物体(歩行者)を検出した場合には、距離計測部15でその物体との相対位置および相対速度は演算するものの、出力選択部26は、その物体に対する相対位置および相対速度を車両用外界認識装置20の外部に設けられた外部機器へ出力しない。
[第二実施の形態の作用効果]
 以上で説明したように、本第二実施の形態の車両用外界認識装置20によれば、現在もしくは過去に第一検出部12と第二検出部13の双方で検出対象となる物体(歩行者)の第一位置情報と第二位置情報とが検出されて初めて、その物体に対して計測された相対位置および相対速度が車両用外界認識装置20の外部に設けられた車両のコントローラや警報装置等の外部機器へ出力されるため、第一検出部12と第二検出部13の双方の手法で検出されるような確度が高い物体に対する結果のみを車両のコントローラや警報装置等の外部機器へ出力することができる。また、第一検出部12のみで検出された物体に対する相対位置および相対速度は車両用外界認識装置20の外部に設けられた車両のコントローラや警報装置等の外部機器へ出力されないものの、上記したように、そのような物体に対しても距離計測部14により相対位置および相対速度の演算は実施しているため、第一実施の形態の車両用外界認識装置10と同様、算出される相対速度が歩行者の横移動速度の真値に近くなり、その物体との相対位置や相対速度の算出精度を高めることができる。言い換えれば、距離計測部14により計測された相対位置および相対速度は、第一検出部12と第二検出部13の双方で物体が同時に検出されたタイミングで車両用外界認識装置20の外部に設けられた車両のコントローラや警報装置等の外部機器へ出力されるものの、その相対位置および相対速度は距離計測部14により前記出力よりも事前に演算されているため、確度が高い物体に対する結果のみを車両のコントローラや警報装置等の外部機器へ出力しながら、算出される相対速度の歩行者の横移動速度の真値に対する遅れを抑制することができる。
<第三実施の形態>
 つぎに、本発明に係る車両用外界認識装置の第三実施の形態について図19、図20を用いて詳細に説明する。図19は、第三実施の形態における車両用外界認識装置30のブロック図である。図19に示す第二実施の形態の車両用外界認識装置30は、図1に示す第一実施の形態の車両用外界認識装置10に対して、画像における物体(歩行者)の位置情報を検出する手法が相違しており、その他の構成は第一実施の形態の車両用外界認識装置10と同様である。したがって、以下では、第一実施の形態の車両用外界認識装置10と異なる構成のみを詳述し、第一実施の形態と同様の構成には同一の符号を付してその詳細な説明は省略する。
 車両用外界認識装置30は、自動車等の車両に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ装置のカメラ1で撮影した画像から物体を検出するためのものであり、本実施の形態では、自車周囲の物体のうち特に歩行者を検知するように構成されている。
 車両用外界認識装置30は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて予め定められた周期Tで繰り返し処理を実行するようになっている。
 車両用外界認識装置30は、図19に示すように、画像取得部11と、脚部検出部32と、頭部検出部33と、脚部検出位置補間部34と、距離計測部15と、出力部16と、を備えている。以下では、脚部検出部32と頭部検出部33と脚部検出位置補間部34の処理のみを詳細に説明する。
[脚部検出部]
 脚部検出部32は、画像取得部11により取得された画像200(図2参照)内から、歩行者の脚部に類似したパターンを検出し、その検出結果D1[n]を出力する。この検出結果D1[n]は、検出された歩行者脚部の画像上の座標(SX,SY,EX,EY)を要素とするテーブルの配列であり、nは複数検出された場合のIDを表している。
 図20を用いて、脚部検出部32における処理内容について説明する。図20は、脚部検出部32の処理フローを説明したフローチャートである。
 脚部検出部32は、まず、ステップS301にて、画像IMGSRC[x][y]からピラミッド画像IMGPY[p][x][y]を生成する。ピラミッド画像IMGPY[p][x][y]はP枚の画像から構成される画像群であり、画像IMGSRC[x][y]を所定の倍率で順次縮小した画像である。本実施の形態においては、ピラミッド画像IMGPY[p][x][y]のp=0における画像は画像IMGSRC[x][y]と同一の画像、p=1における画像はIMGPY[0][x][y]を縮小率0.8で縮小した画像、p=2における画像はIMGPY[1][x][y]を縮小率0.8で縮小した画像、といったように縮小率0.8で順次縮小した画像を格納したものとする。
 ここで、カメラ1のカメラパラメータに基づいて画像の歪補正を実施してもよい。
 つぎに、ステップS302をピラミッド画像IMGPY[p][x][y]についてp=1からp=Pまで繰り返し処理を行う。このステップS302では、ピラミッド画像IMGPY[p][x][y]から特定形状(すなわち、歩行者の脚部形状)を検出する。この特定形状の検出方法には様々な方法が考えられるが、如何なる検出方法を用いてもよい。たとえば、歩行者の歩行パターンから代表的な脚部の形状を抽出し、上記の第一実施の形態で説明したテンプレートマッチングによって検出してもよい。上記した処理を、p=1からp=Pまで繰り返し処理を行う。
 つぎに、ステップS303にて、ステップS302での処理(ラスタスキャン処理)の検出結果を統合する。この統合方法は、種々の公知技術が存在するため、ここではその詳細な説明を割愛するが、本実施の形態においては、たとえばMeanShift(平均値シフト法)と呼ばれる公知技術を使用する。そして、その統合結果をD1M[r]へ格納する。ここで、D1Mは画像上の検出位置座標(SX,SY,EX,EY)を表している。
 つぎに、ステップS304にて、追跡処理を実施する。この追跡処理は、上記した第一実施の形態の第一検出部12において図8を用いて説明した処理内容と同一であるため、ここではその詳細な説明を割愛する。
 この脚部検出部32による処理の結果、パターンマッチ処理による歩行者脚部パターン検出結果が脚部検出結果(第一位置情報)D1[n]として出力される。
[頭部検出部]
 頭部検出部33は、画像取得部11により取得された画像200(図2参照)内から、歩行者の頭部に類似したパターンを検出し、その検出結果D2[m]を出力する。この検出結果D2[m]は、検出された歩行者頭部の画像上の座標(SX,SY,EX,EY)を要素とするテーブルの配列であり、mは複数検出された場合のIDを表している。
 頭部検出部33における処理内容は、図20を用いて説明した脚部検出部32における処理内容とほぼ同一であるため、その詳細な説明は割愛する。ただし、画像から歩行者の頭部を検出する場合、図20に示すステップS302における特定形状検出においては、上述したパターンマッチ手法やテンプレートマッチングの他、円検出技術も適用し得るし、歩行者の頭部から肩部にかけてのΩ形状や凸形状を検出する手法も適用し得るが、いずれも公知技術であるため、ここではその詳細な説明は割愛する。
 この頭部検出部33による処理の結果、パターンマッチ処理による歩行者頭部パターン検出結果が頭部検出結果(第二位置情報)D2[m]として出力される。
[脚部検出位置補間部]
 歩行者の脚部は形状の変化が大きいためにパターンマッチ処理による検出が途切れることがあるが、歩行者の頭部は形状の変化が少ないためにパターンマッチ処理等による検出が途切れる可能性が低い。そこで、脚部検出位置補間部34は、頭部検出部33から出力された検出結果D2[m]を用いて脚部検出部32から出力された検出結果D1[n]を補間(現在位置補間処理や過去位置補間処理)する補間情報を算出して、前記検出結果D1[n]の現在値や過去値を補間する。
 脚部検出位置補間部34による補間処理の処理内容は、上記した第一実施の形態の第一検出位置補間部14において図10~図13を用いて説明した処理内容とほぼ同一である。ただし、頭部検出結果D2[m]と脚部検出結果D1[n]の一致度判定の判定方法には、図11に示すステップS1411における算出方法が適用できないため、以下では、脚部検出位置補間部34における一致度判定の判定方法のみを説明する。
 脚部検出位置補間部34は、脚部検出結果D1[n]と頭部検出結果D2[m]の矩形情報をそれぞれ(SX1,SY1,EX1,EY1)、(SX2,SY2,EX2,EY2)とすると、まず、歩行者の頭部の大きさH=EY2-SY2、脚部検出結果D1[n]と頭部検出結果D2[m]のそれぞれのX座標中点CX1=(SX1+EX1)/2、CX2=(SX2+EX2)/2を算出する。そして、以下の式(7)に示す条件(a)~(c)に基づいて、脚部検出結果D1[n]と頭部検出結果D2[m]とが同一物体によるもの(すなわち、同一の歩行者によるもの)であるか否かを判定する。
[数7]
 (a):EY2 > SY1
 (b):TH_HMIN < (EY1-SY2)/H < TH_HMAX
 (c):|CX1-CX2| < TH_dCX    ・・・(7)
 ここで、式(7)に示す条件(a)は、頭が足の上方にあるという条件である。条件(2)は、身長の頭サイズ比(すなわち頭身)が短すぎず、且つ長すぎないという条件である。条件(3)は、頭と足とが略垂直に並んでいるという条件である。以上の条件をすべて満たした場合に、脚部検出位置補間部34は、脚部検出結果D1[n]と頭部検出結果D2[m]とが同一物体によるもの(すなわち、同一の歩行者によるもの)であると判定する。
[第三実施の形態の作用効果]
 以上で説明したように、本第三実施の形態の車両用外界認識装置30によれば、頭部検出部33と脚部検出部32とによって、歩行者の体のうち画像上での形状変化が少ない頭部と、歩行者との相対距離や相対速度の計測に必要な脚部とを画像から検出する。歩行者の脚部は形状変化が大きいためにパターンマッチ処理による検出が途切れることがあるが、歩行者の頭部は形状変化が少ないためにパターンマッチ処理等による検出が途切れる可能性が低く、頭部検出部33により常時検出される。そのため、頭部検出部33により検出される頭部検出結果(第二位置情報)を用いて、脚部検出部32により検出される脚部検出結果(第一位置情報)の現在値や過去値(脚部検出部32にて検出されなかった物体(歩行者脚部)の位置情報)を補間することができ、自車と歩行者との相対位置や相対速度の算出精度を高めることができる。
 また、本第三実施の形態の車両用外界認識装置30では、頭部検出部33と脚部検出部32とで同様の検出手法(パターンマッチ処理)を適用できるため、当該車両用外界認識装置30の装置構成を簡素化できるといった利点もある。
 なお、上記した第一~第三実施の形態では、第二検出部13や頭部検出部33のみによって検出対象となる物体が検出された場合に、物体(歩行者)との相対距離や相対速度が算出されず、第一検出部12や脚部検出部32によって検出対象となる物体が検出された場合に、その検出結果に基づいて物体(歩行者)との相対距離や相対速度が算出され、その算出結果が外部機器へ出力される形態について説明した。しかし、第二検出部13や頭部検出部33のみによって検出対象となる物体が検出された場合にも、第二検出部13や頭部検出部33の検出結果に基づいて物体(歩行者)との相対距離や相対速度を算出してもよい。ただし、その場合には、第一検出部12や脚部検出部32によって検出された検出結果を優先して物体(歩行者)との相対距離や相対速度を算出することが好ましい。すなわち、第二検出部13や頭部検出部33によって検出対象となる物体の位置情報が検出され、かつ、その前後で第一検出部12や脚部検出部32によって検出対象となる物体の位置情報が検出されなかった場合に、第二検出部13や頭部検出部33によって検出される検出結果に基づいて物体(歩行者)との相対距離や相対速度を計測し、その計測結果を外部機器へ出力することが好ましい。
 なお、本発明は上記した実施形態に限定されるものではなく、様々な変形形態が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
10、20、30 車両用外界認識装置
1  カメラ
11 画像取得部
12 第一検出部
13 第二検出部
14 第一検出位置補間部
15 距離計測部
16 出力部
26 出力選択部
32 脚部検出部
33 頭部検出部
34 脚部検出位置補間部

Claims (9)

  1.  自車周囲を撮像した画像に映る歩行者までの距離を認識する車両用外界認識装置であって、
     前記画像における歩行者の第一位置情報を検出する第一検出部と、
     前記第一検出部と異なる手法で前記画像における移動体の第二位置情報を検出する第二検出部と、
     前記第一検出部によって検出された前記歩行者の第一位置情報と前記第二検出部によって検出された前記移動体の第二位置情報とに基づいて同一物体対応付けを行い、同一物体としての第一位置情報と第二位置情報とが検出される第一状態と、前記第二検出部のみによって前記移動体の第二位置情報が検出される第二状態とが時系列で発生した際に、前記第一状態における前記移動体の第二位置情報に対する前記歩行者の第一位置情報の相対位置に基づいて前記第二状態における前記歩行者の第一位置情報を補間する第一位置情報補間情報を算出する第一検出位置補間部と、
     前記第一位置情報と前記第一位置情報補間情報とに基づいて前記歩行者までの距離を計測する距離計測部と、を備えることを特徴とする車両用外界認識装置。
  2.  前記第一位置情報は、前記歩行者の前記画像における接地座標を含むことを特徴とする、請求項1に記載の車両用外界認識装置。
  3.  前記第一検出位置補間部は、前記第二状態が発生した後に前記第一状態が発生した際に、前記第一状態における前記移動体の第二位置情報に対する前記歩行者の第一位置情報の相対位置に基づいて前記第二状態における前記歩行者の第一位置情報を補間する第一位置情報補間情報を算出し、
     前記距離計測部は、前記第一位置情報補間情報を用いて前記第二状態における前記歩行者までの距離を再計算することを特徴とする、請求項1に記載の車両用外界認識装置。
  4.  前記第一検出位置補間部は、前記第一状態が発生した後に前記第二状態が発生した際に、前記第一状態における前記移動体の第二位置情報に対する前記歩行者の第一位置情報の相対位置に基づいて前記第二状態における前記歩行者の第一位置情報を補間する第一位置情報補間情報を算出し、
     前記距離測定部は、前記第一位置情報補間情報を用いて前記第二状態における前記歩行者までの距離を計測することを特徴とする、請求項1に記載の車両用外界認識装置。
  5.  前記距離計測部は、前記第二状態が発生した場合であって前記第一状態と前記第二状態とが時系列で発生しなかった場合に、前記第二位置情報に基づいて前記歩行者までの距離を計測することを特徴とする、請求項1に記載の車両用外界認識装置。
  6.  前記第一検出部は、パターンマッチ処理を用いて前記画像における前記歩行者の前記第一位置情報を検出し、前記第二検出部は、オプティカルフローを用いて前記画像における前記移動体の前記第二位置情報を検出することを特徴とする、請求項1に記載の車両用外界認識装置。
  7.  前記第一検出部で設定される前記画像中の第一検出領域は、前記第二検出部で設定される前記画像中の第二検出領域よりも小さいことを特徴とする、請求項6に記載の車両用外界認識装置。
  8.  前記第一検出部は、歩行者の脚部形状に基づくパターンマッチ処理を用いて前記画像における前記歩行者の前記第一位置情報を検出し、前記第二検出部は、歩行者の頭部形状に基づくパターンマッチ処理を用いて前記画像における前記移動体の前記第二位置情報を検出することを特徴とする、請求項1に記載の車両用外界認識装置。
  9.  前記車両用外界認識装置は、前記距離計測部により計測された距離のうち、これまでに前記第一検出部及び前記第二検出部によって第一位置情報及び第二位置情報が検出された前記歩行者までの距離を選択して出力する選択出力部を更に備えることを特徴とする、請求項1に記載の車両用外界認識装置。
PCT/JP2014/080182 2014-01-09 2014-11-14 車両用外界認識装置 WO2015104898A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP14877969.7A EP3093820B1 (en) 2014-01-09 2014-11-14 Vehicle-surroundings recognition device
US15/107,143 US9811742B2 (en) 2014-01-09 2014-11-14 Vehicle-surroundings recognition device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-002549 2014-01-09
JP2014002549A JP6184877B2 (ja) 2014-01-09 2014-01-09 車両用外界認識装置

Publications (1)

Publication Number Publication Date
WO2015104898A1 true WO2015104898A1 (ja) 2015-07-16

Family

ID=53523739

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/080182 WO2015104898A1 (ja) 2014-01-09 2014-11-14 車両用外界認識装置

Country Status (4)

Country Link
US (1) US9811742B2 (ja)
EP (1) EP3093820B1 (ja)
JP (1) JP6184877B2 (ja)
WO (1) WO2015104898A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019008482A1 (ja) * 2017-07-07 2019-01-10 株式会社半導体エネルギー研究所 表示システム、および表示システムの動作方法
EP3410420A4 (en) * 2016-07-27 2019-01-23 JVC Kenwood Corporation PERSONNEL DETECTION DEVICE, PASSENGER RECORDING SYSTEM, PERSONNEL RECORDING PROCEDURE AND PERSONNEL RECORDING PROGRAM

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014216008A1 (de) * 2014-08-13 2016-02-18 Conti Temic Microelectronic Gmbh Steuervorrichtung, Serversystem und Fahrzeug
US20160180158A1 (en) * 2014-12-18 2016-06-23 Magna Electronics Inc. Vehicle vision system with pedestrian detection
US10713506B2 (en) * 2014-12-18 2020-07-14 Magna Electronics Inc. Vehicle vision system with 3D registration for distance estimation
KR101569411B1 (ko) * 2015-04-01 2015-11-27 주식회사 피엘케이 테크놀로지 보행자 인식 장치 및 그 방법
JP6072212B1 (ja) * 2015-12-15 2017-02-01 三菱電機株式会社 衝突判定装置
JP6642306B2 (ja) * 2016-06-29 2020-02-05 アイシン精機株式会社 周辺監視装置
DE102016114168A1 (de) * 2016-08-01 2018-02-01 Connaught Electronics Ltd. Verfahren zum Erfassen eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs mit Vorhersage der Bewegung des Objekts, Kamerasystem sowie Kraftfahrzeug
US10469333B2 (en) * 2016-08-10 2019-11-05 Rohde & Schwarze GmbH & Co. KG Network analyzer systems and methods for operating a network analyzer
CN106504266B (zh) * 2016-09-29 2019-06-14 北京市商汤科技开发有限公司 行走行为的预测方法和装置、数据处理装置和电子设备
JP6849387B2 (ja) * 2016-10-24 2021-03-24 キヤノン株式会社 画像処理装置、画像処理システム、画像処理装置の制御方法、及びプログラム
JP6983049B2 (ja) * 2017-12-06 2021-12-17 日本放送協会 オブジェクト追跡装置及びそのプログラム
CN108596116B (zh) * 2018-04-27 2021-11-05 深圳市商汤科技有限公司 测距方法、智能控制方法及装置、电子设备和存储介质
KR102587090B1 (ko) * 2018-11-20 2023-10-11 현대자동차주식회사 차량의 객체 인식 장치, 시스템 및 방법
US20220164963A1 (en) * 2019-03-19 2022-05-26 Nec Corporation Information processing device, estimation method, and nontransitory computer readable medium
JP7438684B2 (ja) * 2019-07-30 2024-02-27 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2020099741A (ja) * 2020-03-18 2020-07-02 株式会社ユニバーサルエンターテインメント 遊技機
JP7476151B2 (ja) 2021-09-24 2024-04-30 キヤノン株式会社 画像処理システム、画像処理方法、およびコンピュータプログラム
JP7467402B2 (ja) 2021-09-24 2024-04-15 キヤノン株式会社 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム
US20230128104A1 (en) * 2021-10-25 2023-04-27 Motional Ad Llc Accessibility system for assisting a user in interacting with a vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1141521A (ja) * 1997-05-20 1999-02-12 Matsushita Electric Ind Co Ltd 撮像装置および車間距離計測装置ならびに車間距離計測方法
JP2011065338A (ja) 2009-09-16 2011-03-31 Toyota Central R&D Labs Inc 対象物追跡装置及びプログラム
JP2011086163A (ja) * 2009-10-16 2011-04-28 Mitsubishi Heavy Ind Ltd 移動体追尾装置およびその方法
JP2011154580A (ja) 2010-01-28 2011-08-11 Hitachi Automotive Systems Ltd 車両用外界認識装置
JP2013069045A (ja) * 2011-09-21 2013-04-18 Honda Elesys Co Ltd 画像認識装置、画像認識方法および画像認識プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6163022A (en) 1997-05-20 2000-12-19 Matsushita Electric Industrial Co., Ltd. Imaging apparatus, distance measurement apparatus and method for measuring distance
EP2763405B1 (en) * 2011-09-29 2017-06-28 Toyota Jidosha Kabushiki Kaisha Image display device and image display method
WO2013133463A1 (en) * 2012-03-09 2013-09-12 Lg Electronics Inc. Image display device and method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1141521A (ja) * 1997-05-20 1999-02-12 Matsushita Electric Ind Co Ltd 撮像装置および車間距離計測装置ならびに車間距離計測方法
JP2011065338A (ja) 2009-09-16 2011-03-31 Toyota Central R&D Labs Inc 対象物追跡装置及びプログラム
JP2011086163A (ja) * 2009-10-16 2011-04-28 Mitsubishi Heavy Ind Ltd 移動体追尾装置およびその方法
JP2011154580A (ja) 2010-01-28 2011-08-11 Hitachi Automotive Systems Ltd 車両用外界認識装置
JP2013069045A (ja) * 2011-09-21 2013-04-18 Honda Elesys Co Ltd 画像認識装置、画像認識方法および画像認識プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3410420A4 (en) * 2016-07-27 2019-01-23 JVC Kenwood Corporation PERSONNEL DETECTION DEVICE, PASSENGER RECORDING SYSTEM, PERSONNEL RECORDING PROCEDURE AND PERSONNEL RECORDING PROGRAM
US10521679B2 (en) 2016-07-27 2019-12-31 Jvckenwood Corporation Human detection device, human detection system, human detection method, and human detection program
WO2019008482A1 (ja) * 2017-07-07 2019-01-10 株式会社半導体エネルギー研究所 表示システム、および表示システムの動作方法
US11676547B2 (en) 2017-07-07 2023-06-13 Semiconductor Energy Laboratory Co., Ltd. Display system and operation method of the display system

Also Published As

Publication number Publication date
JP6184877B2 (ja) 2017-08-23
EP3093820A4 (en) 2017-08-16
EP3093820B1 (en) 2020-08-26
JP2015132879A (ja) 2015-07-23
US20160364619A1 (en) 2016-12-15
US9811742B2 (en) 2017-11-07
EP3093820A1 (en) 2016-11-16

Similar Documents

Publication Publication Date Title
JP6184877B2 (ja) 車両用外界認識装置
CN107272021B (zh) 使用雷达和视觉定义的图像检测区域的对象检测
US7899211B2 (en) Object detecting system and object detecting method
JP4899424B2 (ja) 物体検出装置
JP4203512B2 (ja) 車両周辺監視装置
CN108692719B (zh) 物体检测装置
WO2009088035A1 (ja) 車線認識装置、車線認識方法および車線認識プログラム
CN107463890B (zh) 一种基于单目前视相机的前车检测与跟踪方法
US20170140229A1 (en) External environment recognizing device for vehicle and vehicle behavior control device
JP6808586B2 (ja) 車両用外界認識装置
JP4797846B2 (ja) 区画線検出装置及び車線検出装置
WO2009130827A1 (ja) 車両周辺監視装置
WO2014002692A1 (ja) ステレオカメラ
KR101483742B1 (ko) 지능형 차량의 차선 검출방법
CN112329776A (zh) 基于改进CenterNet网络的车牌检测方法及装置
JP2017181476A (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
KR101583797B1 (ko) 탑뷰 이미지 변환을 적용한 차선 인식 장치 및 방법
JP2007011994A (ja) 道路認識装置
JP2014062415A (ja) 軌道検出装置及び軌道監視装置
WO2013069453A1 (ja) 画像処理装置及び画像処理方法
CN111033316B (zh) 识别传感器及其控制方法、汽车、车辆用灯具、对象识别系统、对象的识别方法
JP4788399B2 (ja) 歩行者検出方法、装置、およびプログラム
JP5785515B2 (ja) 歩行者検出装置及び方法、並びに車両用衝突判定装置
JP6569416B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム
JP7064400B2 (ja) 物体検知装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14877969

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2014877969

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014877969

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15107143

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE