WO2015025897A1 - 対象物推定装置および対象物推定方法 - Google Patents

対象物推定装置および対象物推定方法 Download PDF

Info

Publication number
WO2015025897A1
WO2015025897A1 PCT/JP2014/071800 JP2014071800W WO2015025897A1 WO 2015025897 A1 WO2015025897 A1 WO 2015025897A1 JP 2014071800 W JP2014071800 W JP 2014071800W WO 2015025897 A1 WO2015025897 A1 WO 2015025897A1
Authority
WO
WIPO (PCT)
Prior art keywords
value
acquired
transition information
information
estimated value
Prior art date
Application number
PCT/JP2014/071800
Other languages
English (en)
French (fr)
Inventor
裕丈 石神
白井 孝昌
利之 松原
Original Assignee
株式会社デンソー
トヨタ自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー, トヨタ自動車株式会社 filed Critical 株式会社デンソー
Priority to US14/912,885 priority Critical patent/US9767367B2/en
Priority to DE112014003818.0T priority patent/DE112014003818T5/de
Priority to CN201480046274.2A priority patent/CN105474265B/zh
Publication of WO2015025897A1 publication Critical patent/WO2015025897A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the present invention relates to an object estimation apparatus and an object estimation method for estimating the position and speed of an object from an image obtained by photographing the object.
  • Patent Document 1 Patent Document 1
  • Non-patent document 1 a detection device
  • the object is detected, and the distance from the vehicle (camera) to the object and the movement (speed) of the object are measured (estimated).
  • Non-Patent Document 1 discloses a method for estimating the three-dimensional position and velocity of an object from images taken by two cameras. Specifically, in the method of Non-Patent Document 1, parallax is obtained for each pixel from two images taken by both cameras. Further, a transition (optical flow) for each pixel is calculated from continuous frame images acquired by one camera. Then, using these parallax and optical flow as input, the current position and velocity of the object are estimated by the Kalman filter.
  • parallax and optical flow acquired from video captured by a camera inevitably include errors due to camera resolution and errors (tracking errors) due to erroneous tracking of objects.
  • the estimated value of the calculated object also includes an error.
  • One embodiment provides an object estimation device and an object estimation method that can appropriately estimate an estimated value when an abnormal value is detected in disparity information and transition information, and accurately estimate the position and speed of the object. provide.
  • the object estimation apparatus estimates the position and speed of an object in the image based on a plurality of images taken from different positions by the image acquisition unit.
  • the target object estimation device includes a transition information acquisition unit that acquires temporal transition information of the position of a corresponding pixel from a temporally preceding and following frame in a reference image serving as a reference among the plurality of images, and the plurality of the plurality of images Based on the parallax information acquisition unit that acquires the parallax information of each corresponding pixel from the image based on the reference image, the transition information acquired by the transition information acquisition unit, and the parallax information acquired by the parallax information acquisition unit , Estimated value acquisition means for estimating an estimated value of the position and velocity of the object in a three-dimensional space using a filter, transition information acquired by the transition information acquisition means, and disparity information acquired by the disparity information acquisition means Is a correction means for correcting the estimated value acquired by the estimated value acquiring means based on the determination result of the determining means
  • the correction unit determines that the determination unit determines that the transition information acquired by the transition information acquisition unit is an abnormal value, and the determination that the parallax information acquired by the parallax information acquisition unit is an abnormal value.
  • the estimated value acquired by the estimated value acquiring means is corrected by a different method when the means determines.
  • the block diagram which shows the system configuration
  • the conceptual diagram which shows the state which the target object estimation apparatus which concerns on embodiment estimates a target object.
  • (A) is a figure which shows the image by which the other vehicle as a target object was image
  • (b) is a figure which shows parallax information
  • (c) is a figure which shows transition information.
  • the figure explaining the case where an abnormal value arises in transition information and an estimated value is corrected.
  • the flowchart which shows the control flow at the time of estimating the state of a target object with the target object estimation method which concerns on embodiment.
  • Embodiment demonstrates the case where the target object estimation apparatus is mounted in the motor vehicle (normal passenger car) as a vehicle.
  • FIG. 1 is a block diagram showing a system configuration of an automobile on which an object estimation device 10 according to this embodiment is mounted.
  • the object estimation device 10 is electrically connected to an image acquisition unit 12 (image acquisition unit) and a vehicle information acquisition unit 14.
  • the target object estimation apparatus 10 is based on the input from the image acquisition part 12 and the vehicle information acquisition part 14, and the state (position) of the target object (for example, another vehicle or a pedestrian) imaged by the image acquisition part 12 And speed).
  • the object estimation device 10 is electrically connected to a driving support device (not shown), and the estimated value of the object obtained by the object estimation device 10 is output to the driving support device.
  • the driving support device uses the estimated value that has been input to, for example, warn the driver of the presence of an object or automatically control the brake to assist the driver in driving.
  • the image acquisition unit 12 is attached, for example, to a vehicle compartment side of a windshield (windshield glass) (not shown) of an automobile and photographs the front in the traveling direction of the automobile.
  • the image acquisition unit 12 of the present embodiment is a stereo camera including a pair of cameras 16 and 18 that are spaced apart from each other (horizontal direction perpendicular to the traveling direction of the automobile).
  • the left camera is referred to as the first camera 16 (first photographing means)
  • the right camera is referred to as the second camera 18 (second photographing means).
  • the first camera 16 and the second camera 18 are synchronized in shooting timing so that frames are shot at the same time.
  • the first camera 16 and the second camera 18 capture the front in the traveling direction of the automobile from different positions to obtain a first image (reference image) and a second image, respectively.
  • the vehicle information acquisition unit 14 detects the running state of the automobile, and includes a yaw rate sensor 20 that detects the yaw rate of the automobile and a vehicle speed sensor 22 that detects the vehicle speed (traveling speed) of the automobile.
  • the yaw rate and vehicle speed acquired by the vehicle information acquisition unit 14 are output to an estimated value acquisition unit 26 described later of the target object estimation device 10.
  • the object estimation device 10 has an input value acquisition unit 24 and an estimated value acquisition unit 26 as a basic configuration.
  • the input value acquisition unit 24 includes a transition information calculation unit 28 (transition information acquisition unit) and a parallax information calculation unit 30 (parallax information acquisition unit).
  • the input value acquisition unit 24 acquires input values (disparity information and transition information described later) to be input to the estimated value acquisition unit 26 based on the first image and the second image acquired by the image acquisition unit 12.
  • the transition information calculation unit 28 is electrically connected to the first camera 16 and receives the first image acquired by the first camera 16.
  • the transition information calculation unit 28 includes a rewritable storage unit (not shown) such as a RAM, and stores and updates the first image one frame before in the storage unit as needed.
  • the transition information calculation unit 28 is a temporal transition information of the position of the corresponding pixel from the first image of the current frame and the first image one frame before (stored temporally) stored in the storage unit. (Optical flow) is acquired.
  • the transition information is defined as a position component u in the horizontal direction (x direction) of the pixel and a position component v in the vertical direction (y direction) of the pixel with the optical axis center of the first camera 16 as the origin.
  • transition information calculation unit 28 calculates the transition information (u, v), for example, the concentration gradient method or the Horn-Schunkck method (BK P. Horn and BG Schunck, Determining Optical Flow, AI (17) , No. 1-3, 1981, pp. 185-203), etc., are used.
  • the concentration gradient method for example, the concentration gradient method or the Horn-Schunkck method (BK P. Horn and BG Schunck, Determining Optical Flow, AI (17) , No. 1-3, 1981, pp. 185-203), etc.
  • the parallax information calculation unit 30 is electrically connected to both the first camera 16 and the second camera 18, and the first image and the second image acquired by both the cameras 16 and 18 are respectively input thereto.
  • the parallax information calculation unit 30 calculates the parallax (parallax information d) for each pixel based on the input first image and second image.
  • the parallax information d is calculated by, for example, image processing by Semi-Global Matching.
  • the parallax information calculation unit 30 is set to calculate the parallax information d with reference to the first image. That is, the parallax information d is uniquely associated with the depth position of the pixel (the distance from the first camera 16 to the object) with the optical axis center of the first camera 16 as the origin. Note that tracking between frames of each pixel is performed based on transition information (u, v) (that is, optical flow) calculated by the transition information calculation unit 28.
  • transition information (u, v) calculated by the transition information calculation unit 28 and the parallax information d calculated by the parallax information calculation unit 30 are output to the estimated value acquisition unit 26.
  • the estimated value acquiring unit 26 includes a calculating unit 32 (estimated value acquiring unit), a determining unit 34 (determining unit), and a correcting unit 36 (correcting unit).
  • the calculation unit 32 uses the transition information (u, v) and the parallax information d as input values, and executes a Kalman filter (Kalman Filter) having a predetermined process model and observation model, thereby estimating the position and speed of the object. Is calculated. In the present embodiment, the calculation unit 32 calculates an estimated value using the first image as a reference.
  • a Kalman filter Kalman Filter
  • the calculation unit 32 does not calculate the estimated value for all the pixels of the first image in order to suppress the calculation amount, but for example, the estimated value for the pixels in a predetermined range excluding the peripheral portion of the first image. Is set to calculate.
  • FIG. 2 is a conceptual diagram when the object estimation device 10 estimates the state of the object.
  • the coordinate system is set as shown in FIG. 2 with the optical axis center of the first camera 16 as the origin, and the calculation unit 32 determines the position (X, Y, Z) and velocity (V X , V Y , V z ) of the object. ).
  • the calculation unit 32 is set with a process model for modeling the position and speed of an object by constant-velocity linear motion, as shown in Equation (1).
  • v follows a multivariate normal distribution with mean zero and covariance matrix Q.
  • the vehicle speed is a value detected by the vehicle speed sensor 22, and the yaw rate is a value detected by the yaw rate sensor 20.
  • the calculation unit 32 includes the disparity information d and the transition information (u, v), and the position (X, Y, Z) and speed (Vx, Vy, Vz) of the object.
  • An observation model that defines the relationship is set.
  • H is a 3D ⁇ 2D projective transformation matrix.
  • the focal length in the horizontal direction of the first image is fx [pix]
  • the focal length in the vertical direction is fy [pix]
  • the base line length (inter-optical axis distance) of the first camera 16 and the second camera 18 is B
  • H is expressed by the following equation (5).
  • Equation 6 is a non-linear function
  • the Kalman filter cannot be applied as it is. Therefore, in order to linearly approximate the equation (6), as shown in the equation (7), the Taylor expansion is performed around the predicted value (calculated from the process model) of the position of the object at time t (t frame). The items up to are adopted.
  • w is zero mean and follows a multivariate normal distribution of covariance matrix R.
  • the calculation unit 32 executes a Kalman filter based on the process model and the observation model. That is, as shown below, the calculation unit 32 performs prediction based on the process model (Formula 12 to Formula 14) and update based on the observation model (Formula 15 to Formula 20) for each frame using the first image as a reference. repeat. Thereby, the calculation unit 32 estimates the state (position / velocity) of the object. Equations 10 and 11 show the estimated value of the Kalman filter at t frame and the covariance matrix of the error of the estimated value, respectively.
  • Equation 11 represents the true value of the state (position / velocity) of the object. [prediction]
  • the calculation unit 32 is preset with an initial value (Equation 21) of an estimated value and an initial value (Equation 22) regarding an error covariance matrix of the estimated value.
  • the determination unit 34 determines whether or not the transition information (u, v) calculated by the transition information calculation unit 28 and the parallax information d calculated by the parallax information calculation unit 30 are abnormal values.
  • the transition information (u, v) and the parallax information d occur will be described with specific examples.
  • FIG. 3 (a) a vehicle that travels in front of the traveling direction of the vehicle on which the object estimation device 10 is mounted (hereinafter referred to as another vehicle 38) is the object, and the state by the object estimation device 10 Assume that estimation is performed.
  • FIG. 3B shows the parallax information d in the t ⁇ 1 frame, the t frame, and the t + 1 frame calculated by the parallax information calculation unit 30.
  • the 3B indicates a pixel (tracking point) that is normally tracked (that is, the transition information is properly calculated).
  • the disparity information d in the pixel changes from the t-1 frame to the t frame, regardless of whether the pixel in the surrounding line is the same location of the object.
  • the parallax information d is corrected in the t + 1 frame. That is, the parallax information d of the pixels in the encircling line calculated by the parallax information calculating unit 30 in the t frame is an abnormal value (outlier) deviated from the true value.
  • Such an abnormal value is caused by an influence of noise included in the first image and the second image, an error generated when each image is partitioned by finite pixels, or the like.
  • the reason that the parallax information d is corrected in the t + 1 frame is that the parallax information calculation unit 30 independently calculates the parallax information d for each frame. That is, since the disparity information calculation unit 30 calculates the disparity information d without depending on the disparity information d calculated in the past, even if an abnormal value occurs once in the disparity information d, the appropriate disparity information in the t + 1 frame. This is because d is calculated.
  • FIG. 3C shows the transition information (u, v) in the t′ ⁇ 1 frame, the t ′ frame, and the t ′ + 1 frame calculated by the transition information calculation unit 28.
  • the tracking point has moved from the other vehicle 38 to the scenery (side wall) other than the other vehicle 38 or to another vehicle 40 at the location indicated by the surrounding line in the t ′ frame. That is, the transition information (u, v) calculated by the transition information calculation unit 28 for the pixels with a surrounding line of the t ′ frame is an abnormal value (outlier).
  • Such abnormal values of the transition information (u, v) are mainly caused by pattern matching errors.
  • the tracking point that is out of the other vehicle 38 is tracked as it is. That is, once an abnormal value occurs in the transition information (u, v), the tracking point is not corrected (it does not return to the tracking point on the other vehicle 38). This is due to the fact that the transition information (u, v) (optical flow) is calculated over the temporally changing frames and depends on the transition information (u, v) calculated in the past.
  • the determination unit 34 determines whether the transition information (u, v) and the parallax information d are based on the difference between the transition information (u, d) and the parallax information d and the predicted value (Equation 13) calculated by the calculation unit 32. It is determined whether it is an abnormal value.
  • the determination unit 34 obtains the prediction corresponding to the transition information (u, v) obtained from the transition information (u, v) calculated by the transition information calculation unit 28 and the predicted value calculated by the calculation unit 32. Based on the difference from the transition information, it is determined whether or not the transition information (u, v) is an abnormal value.
  • the determination unit 34 also obtains the disparity based on the difference between the disparity information d calculated by the disparity information calculation unit 30 and the predicted value calculated by the calculation unit 32 and the predicted disparity information corresponding to the disparity information d. It is determined whether the information d is an abnormal value.
  • the determination unit 34 uses the residual of the observed value and the predicted value (Equation 16) calculated when the calculating unit 32 updates the Kalman filter.
  • the determination unit 34 determines the observation value (disparity information d , Transition information (u, d)) is determined to be an abnormal value.
  • the determination unit 34 determines that the transition information (u, v) is an abnormal value.
  • the determination unit 34 determines that the parallax information d is an abnormal value.
  • the thresholds Th u , Th v , Th d fixed values obtained by simulations or experiments are adopted.
  • the threshold value does not necessarily have to be a fixed value.
  • the disparity information d of a distant object is greatly influenced by noise or the like of a captured image, and the error of the calculated disparity information d tends to increase.
  • the determination unit 34 may always determine that the parallax information d is an abnormal value.
  • a threshold value as a variable may be used instead of the threshold value as a fixed value in order to carry out the determination in consideration of variations in the observed value and the predicted value.
  • the threshold may be adjusted (variation) of.
  • the determination unit 34 determines that the observed value is an abnormal value.
  • the determination unit 34 determines that the transition information (u, v) is an abnormal value.
  • the determination unit 34 determines that the parallax information d is an abnormal value.
  • the correction unit 36 corrects the estimated value calculated by the calculation unit 32 when the determination unit 34 determines that any of the observed values is an abnormal value. On the other hand, when the observed value is not an abnormal value, the correction unit 36 does not correct the estimated value calculated by the calculation unit 32.
  • the correction unit 36 corrects the estimated value by different methods when it is determined that the transition information (u, v) is an abnormal value and when it is determined that the parallax information d is an abnormal value. To do.
  • the tracking (transition information) of the portion (tracking point A) shown in the encircled line in the figure is normally performed until the t'-1 frame. Therefore, the estimated value calculated by the calculating unit 32 is a value estimated by observing the tracking point A on the other vehicle 38.
  • the tracking point changes from A on the other vehicle 38 to B on the background (side wall). That is, the transition information (u, v) calculated by the transition information calculation unit 28 in the t ′ frame is an abnormal value that satisfies Equation 24 or Equation 25 (or Equation 28 or Equation 29).
  • the estimated value for the tracking point B in the t ′ frame calculated using the estimated value for the tracking point A in the t′ ⁇ 1 frame is an error value obtained by tracking a different object. Become.
  • the correction unit 36 cancels (invalidates) the estimated value in the t ′ frame calculated by the calculation unit 32 and resets the Kalman filter to the initial state.
  • the correction unit 36 resets the estimated value to the initial value of Equation 21. .
  • transition information (u, v) is an abnormal value
  • tracking for the pixel is invalid
  • the correction unit 36 sets an invalid value as the output of the object estimation device 10. That is, an invalid value is output as the estimated value for the pixel for which the transition information (u, v) is determined to be an abnormal value, and the estimation for the pixel ends.
  • the calculation unit 32 calculates the estimated value for the tracking point B using the above-described initial value. In the subsequent frames, an estimated value for the tracking point B is calculated.
  • the correcting unit 36 When it is determined that the transition information (u, v) is not an abnormal value, the correcting unit 36 outputs the estimated value to the output of the object estimating apparatus 10 without correcting the estimated value calculated by the calculating unit 32. Set to.
  • FIG. 5 shows the parallax information d calculated by the parallax information calculation unit 30, and is the same as that described in FIG. 3B. Further, the right image in FIG. 5 shows tracking (transition information) in a corresponding frame of the left image. In addition, the circular surrounding line in a figure has shown the same location (tracking point C) of the target object, and the parallax information d becomes an abnormal value in t frame. Note that the transition information (u, d) is calculated appropriately in all frames. That is, tracking for the tracking point C is accurately performed.
  • the correction unit 36 sets the estimated value calculated by the calculation unit 32 as an output.
  • the disparity information d calculated by the disparity information calculating unit 30 in the t frame is an abnormal value that satisfies Equation 26 (or Equation 30).
  • the predicted value obtained in Equation 13 more accurately represents the state of the object than the estimated value (Equation 19) calculated using the parallax information d that is an abnormal value (by the true value). It is considered close. Therefore, when it is determined that the parallax information d is an abnormal value, the correction unit 36 cancels the estimated value calculated from Equation 19 and adopts the predicted value obtained in Equation 13 as the estimated value. And the correction
  • the correction unit 36 adopts the estimated value calculated by the calculation unit 32 without correcting it. That is, in the t + 1 frame, the estimated value calculated by the calculating unit 32 using the estimated value (predicted value) obtained in the t frame is used as it is. And the correction
  • the flowchart of FIG. 6 shows the control flow at the time of the target object estimation apparatus 10 estimating the state of a target object in arbitrary frames (t frames).
  • the first camera 16 and the second camera 18 capture a landscape in front of the traveling direction of the automobile and acquire a first image and a second image, respectively.
  • the first image and the second image acquired by the image acquisition unit 12 are input to the object estimation device 10 (input value acquisition unit 24) (step S10).
  • the transition information calculation unit 28 stores the input first image in the storage unit (step S12).
  • the first image of the t frame stored in the storage unit is used when the transition information calculating unit 28 calculates the transition information (u, v) in the next frame (t + 1 frame).
  • step S14 the yaw rate and vehicle speed of the automobile acquired by the vehicle information acquisition unit 14 are input to the object estimation device 10 (estimated value acquisition unit 26) (step S14). That is, the yaw rate detected by the yaw rate sensor 20 and the vehicle speed of the automobile detected by the vehicle speed sensor 22 are input to the object estimation device 10.
  • the transition information calculation unit 28 reads the first image one frame before (t ⁇ 1 frame) from the storage unit (step S16). Then, the transition information calculation unit 28, based on the first image in the frame (t frame) input from the image acquisition unit 12 and the first image one frame before, the transition information (u, v ) Is calculated (step S18).
  • the parallax information calculation unit 30 calculates the parallax information d based on the first image and the second image input from the image acquisition unit 12 (step S20). At this time, the parallax information calculation unit 30 calculates the parallax information d for each pixel of the first image with reference to the first image. The parallax information d and the transition information (u, v) acquired by the input value acquisition unit 24 are output to the estimated value acquisition unit 26.
  • the estimated value acquisition unit 26 acquires an estimated value of the state of the object for each pixel in a predetermined range of the first image (steps S22 to S38). That is, based on the disparity information d and the transition information (u, v) input from the input value acquisition unit 24, the calculation unit 32 performs the Kalman filter based on prediction (Equation 12 to Equation 14) and update (Equation 15 to Equation 20). Is executed (step S24).
  • the determination unit 34 determines whether or not the transition information (u, v) calculated by the transition information calculation unit 28 is an abnormal value (step S26). That is, the determination unit 34 determines whether each component of the transition information (u, v) satisfies Expressions 24 and 25 (or Expressions 28 and 29).
  • each component of the transition information (u, v) does not satisfy Equation 24, Equation 25 (or Equation 28, Equation 29).
  • the determination unit 34 determines that the transition information (u, v) calculated by the transition information calculation unit 28 is not an abnormal value (No in step S26).
  • Step S26 determines whether or not the parallax information d calculated by the parallax information calculation unit 30 in Step S16 is an abnormal value (Step S28). That is, the determination unit 34 determines whether or not the parallax information d satisfies Equation 26 (or Equation 30).
  • the determination unit 34 determines that the parallax information d calculated by the parallax information calculation unit 30 is not an abnormal value (No in step S28).
  • the correction unit 36 adopts the estimated value calculated by the calculation unit 32 in step S24 without correcting it. That is, the correction unit 36 sets the estimated value calculated in step S24 as it is as the output of the estimated value for the pixel (step S30).
  • step S26 determines that the transition information (u, v) is an abnormal value (Yes in step S26).
  • the correction unit 36 If it is determined that the transition information (u, v) is an abnormal value, the correction unit 36 resets the Kalman filter to the initial state without adopting the estimated value calculated in step S24 (step S32). That is, the correction unit 36 sets a preset initial value (Equation 21) in the Kalman filter. Then, the correction unit 36 sets an invalid value as the estimated value output for the pixel (step S34).
  • the correction unit 36 cancels the estimated value calculated based on the transition information (u, v).
  • the estimated value at the pixel is invalidated. Accordingly, it is possible to prevent an estimated value including a large error from being output by using an estimation result for a pixel that has not been properly tracked.
  • the determination unit 34 determines that the parallax information d is an abnormal value (Yes in step S28). If it is determined that the parallax information d is an abnormal value, the correction unit 36 cancels the estimated value calculated by the calculation unit 32 in step S24. And the correction
  • the correction unit 36 cancels the estimated value because the estimated value calculated by the calculating unit 32 includes an error. Then, the correction unit 36 sets a predicted value that is considered to be more accurate than the estimated value calculated by the calculating unit 32 as the estimated value for the pixel. Thereby, even if the error is included in the parallax information d, a more appropriate value is adopted as the estimated value of the object, and the reliability of the object estimation device 10 can be improved. it can.
  • the correction unit 36 does not reset the Kalman filter to the initial state as in the case where the transition information (u, v) is an abnormal value, and the subsequent estimation for the pixel is continued.
  • the correction unit 36 sets the value of the estimated value as the estimated value, and sets the value of the estimated value as the output value of the pixel (step S30).
  • the estimated value acquisition unit 26 executes steps S26 to S36 for the next pixel.
  • the estimated value acquisition unit 26 outputs the estimated value set as the output to the driving support device (step S40). Then, the process for the current frame is terminated.
  • Equation 1 the process model of the Kalman filter shown in Equation 1 is expressed as follows.
  • the covariance matrix R shown in Equation 9 of the observation model employs a fitness value obtained in a simulation performed in advance.
  • the following values were set as the initial values of the Kalman filter.
  • the position is calculated from the initial value (u 0 , v 0 , d 0 ) of the input value, and the speed is obtained by a simulation performed in advance.
  • a fitness value (0.00) was used.
  • equations 28 to 30 are used as the input value determination by the determination unit 34.
  • the state of the object was estimated by the object estimation device 10 from 0 frame to 20 frames.
  • the estimation result of the distance (Z) to the other vehicle 44 is shown in the graph of FIG.
  • a result estimated without using a Kalman filter (Comparative Example 1) and a result estimated under the condition that correction by the correction unit 36 is not performed even when the parallax information d is an abnormal value (Comparative Example 2) are also shown.
  • the true value in the graph indicates the actual distance to the other vehicle 44.
  • Comparative Example 2 in which the estimated value is not corrected, the same locus as the experimental example is drawn up to 8 frames. However, in the nine frames in which the parallax information d has an abnormal value, the estimated value calculated from the parallax information d is used as it is, and it can be seen that the estimation result is out of the true value. Further, after 10 frames, the estimation result deviated from the true value continues due to the influence of the estimation value including the error in 9 frames.
  • the estimation value gradually approaches the true value from the start of estimation, and the estimation result is close to the true value even in 9 frames in which the parallax information d is an abnormal value. This is because the predicted value is used as the estimated value in 9 frames instead of the estimated value calculated by the calculating unit 32. In addition, even after 10 frames, the estimation result is close to the true value. Thus, it can be seen that the experimental example most accurately estimates the distance of the object.
  • the correction unit 36 corrects the estimated value calculated by the calculation unit 32 based on the determination result of the determination unit 34. Therefore, the accuracy of the estimated value is improved, and the state of the object can be accurately estimated.
  • the correction unit 36 resets the Kalman filter to the initial state (sets the estimated value to the initial value) and calculates the calculation unit 32.
  • the estimated value calculated by is set as an invalid value. Thereby, it is possible to prevent the estimated value calculated using the transition information (u, v), which is an abnormal value, from being output as it is. That is, the reliability of the object estimation device can be increased by invalidating the estimated value obtained from the pixel in which the tracking error has occurred.
  • the tracking point can be tracked from the initial state after the tracking point has changed due to a tracking error. That is, the estimation can be continued as a new tracking point different from the tracking point where the abnormal value has occurred.
  • the disparity information d is calculated for each frame, and the abnormal value of the disparity information d is also generated independently for each frame.
  • the correction unit 36 sets a predicted value that is considered to be more accurate than the estimated value calculated by the calculating unit 32 as an estimated value. . Thereby, when the parallax information d is an abnormal value, the error of the estimated value of the object can be reduced.
  • the correction unit 36 does not reset the Kalman filter to the initial state unlike when an abnormal value occurs in the transition information (u, v). Therefore, in the next frame, the estimation for the pixel can be continued using the estimated value set as the predicted value.
  • the determination unit 34 determines the difference between the transition information (u, v) calculated by the transition information calculation unit 28 and the predicted transition information calculated from the predicted value (see formula 24, formula 25 or formula 28, formula 29). ) To determine whether or not the transition information (u, v) is an abnormal value. Therefore, the determination unit 34 can appropriately determine whether or not the transition information (u, v) calculated by the transition information calculation unit 28 is an abnormal value.
  • the determination unit 34 determines whether the disparity information d is based on the difference between the disparity information d calculated by the disparity information calculation unit 30 and the predicted disparity information calculated from the predicted value (see Expression 26 or Expression 30). Judged as an abnormal value. Therefore, the determination unit 34 can appropriately determine whether or not the parallax information d calculated by the parallax information calculation unit 30 is an abnormal value.
  • a Kalman filter that estimates the state of an object by repeating prediction (Equation 12 to Equation 14) and update (Equation 15 to Equation 20) is used as a filter.
  • the Kalman filter is not limited to the embodiment, and for example, an unscented Kalman filter or a particle filter may be employed.
  • a filter it is not limited to a Kalman filter like embodiment, for example, other filters, such as a Hinfinity filter, are employable.
  • the image acquisition unit including the first camera and the second camera is exemplified as the image acquisition unit.
  • the image acquisition means only needs to acquire a plurality of images from different positions, and may include three or more cameras.
  • the parallax information is calculated from the first image and the second image acquired by the first camera and the second camera.
  • the parallax information is obtained from three or more images captured by three or more cameras. You may make it calculate.
  • the state of the object is estimated using the image acquired by the first camera as the reference image, but the estimated value may be calculated using the image acquired by the second camera as the reference image.
  • the second camera is the first photographing means
  • the first camera is the second photographing means
  • the image photographed by the second camera is the first image
  • the image photographed by the first camera is the second image.
  • the transition information is calculated from successive frames of the first image, but it is not always necessary to calculate the transition information from successive frames as long as the frames are temporally mixed.
  • the transition information may be calculated from the frames that are before and after one frame (that is, t frames and t + 2 frames).
  • the first camera and the second camera photograph the front in the traveling direction of the automobile and estimate the object in front of the automobile is shown.
  • the first camera and the second camera may capture the side (left-right direction) and the rear of the automobile. Thereby, it becomes possible to estimate a state about objects (for example, back vehicles) other than the front of a car.
  • the object estimation device is mounted on an ordinary passenger car, but the object estimation device can be mounted on any vehicle such as a large vehicle such as a bus or a truck or a motorcycle. Further, the object estimation device may be mounted in an experimental facility such as a simulation device.
  • the translational motion is calculated by the vehicle speed sensor, but even if the translational motion of the automobile is calculated from the first image acquired by the first imaging unit or the second image acquired by the second imaging unit. Good.
  • the rotational motion of the automobile may be calculated from the first image or the second image without adopting the yaw rate sensor.
  • the Kalman filter is executed for pixels in a predetermined range of the first image and the estimated value is calculated, but the estimated values may be calculated for all the pixels of the first image.
  • the object estimation apparatus estimates the position and speed of the object in the image based on a plurality of images taken from different positions by the image acquisition means.
  • the target object estimation device includes a transition information acquisition unit that acquires temporal transition information of the position of a corresponding pixel from a temporally preceding and following frame in a reference image serving as a reference among the plurality of images, and the plurality of the plurality of images Based on the parallax information acquisition unit that acquires the parallax information of each corresponding pixel from the image based on the reference image, the transition information acquired by the transition information acquisition unit, and the parallax information acquired by the parallax information acquisition unit , Estimated value acquisition means for estimating an estimated value of the position and velocity of the object in a three-dimensional space using a filter, transition information acquired by the transition information acquisition means, and disparity information acquired by the disparity information acquisition means Is a correction means for correcting the estimated value acquired by the estimated value acquiring means based on the determination result of the determining means and
  • the correction unit determines that the determination unit determines that the transition information acquired by the transition information acquisition unit is an abnormal value, and the determination that the parallax information acquired by the parallax information acquisition unit is an abnormal value.
  • the estimated value acquired by the estimated value acquiring means is corrected by a different method when the means determines.
  • the determination means determines whether the transition information and the parallax information are abnormal values.
  • the correcting unit corrects the estimated value acquired by the estimated value acquiring unit based on the determination result of the determining unit. Therefore, when the transition information or the parallax information is an abnormal value, the estimated value including the error acquired by the estimated value acquisition unit is corrected, and the position and speed of the object can be estimated with high accuracy.
  • the correcting means changes the method of correcting the estimated value when the determining means determines that the transition information is an abnormal value and when the parallax information is determined to be an abnormal value. That is, the state of the object can be estimated more accurately by appropriately correcting the estimated value according to the type of input value (transition information, parallax information) in which an abnormal value has occurred.
  • the correction means invalidates the estimated value acquired by the estimated value acquisition means when the determination means determines that the transition information acquired by the transition information acquisition means is an abnormal value, and the filter To the initial state.
  • the transition information acquisition means acquires transition information from frames that are temporally changed in the reference image. That is, the transition information is acquired depending on the transition information acquired in the past. Therefore, once the transition information becomes an abnormal value (tracking error), the transition information acquired in subsequent frames includes a large error due to the influence of the transition information of the abnormal value.
  • the correcting unit sets the estimated value acquired by the estimated value acquiring unit as an invalid value and resets the filter to the initial state. That is, for pixels for which transition information is determined to be an abnormal value, estimation is stopped in the frame. Accordingly, it is possible to prevent the pixel in which the tracking error has occurred from being estimated as the same object, and to improve the reliability of the object estimation device.
  • the filter is reset to the initial state, tracking of a pixel in which an abnormal value has occurred is newly started, and an estimated value for the pixel can be obtained.
  • the estimated value acquisition means acquires the predicted position and speed of the object from the estimated values acquired in the past, assuming that the object follows a preset process model.
  • the correction unit acquires the estimation value acquired by the estimation value acquisition unit. The predicted value is corrected.
  • the disparity information acquisition unit acquires disparity information from a plurality of images in the same frame. That is, since the disparity information is calculated independently in time, the past disparity information does not affect the disparity information calculated thereafter. Accordingly, the abnormal value of the parallax information is generated independently for each frame.
  • the correcting unit corrects the estimated value acquired by the estimated value acquiring unit to a predicted value. That is, by changing an estimated value including an error acquired using disparity information that is an abnormal value to a predicted value, the error of the estimated value in the frame can be reduced.
  • the correction unit continues the estimation for the pixel in the subsequent frames without resetting the filter to the initial state. That is, when an abnormal value occurs in the disparity information, the disparity information in the frame can be set as a predicted value, and estimation for the pixel can be continued in the subsequent frames.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

 対象物推定装置は、画像取得手段が異なる位置から撮影した複数の画像に基づいて、当該画像中の対象物の位置および速度を推定する。前記対象物推定装置は、前記複数の画像のうち基準となる基準画像において、時間的に前後するフレームから対応する画素の位置の時間的な推移情報を取得する推移情報取得手段と、前記複数の画像から対応する各画素の視差情報を前記基準画像を基準として取得する視差情報取得手段と、前記推移情報取得手段が取得した推移情報と、前記視差情報取得手段が取得した視差情報とに基づいて、前記対象物の3次元空間上の位置および速度の推定値をフィルタを用いて推定する推定値取得手段と、前記推移情報取得手段が取得した推移情報および前記視差情報取得手段が取得した視差情報が、それぞれ異常値であるか否か判定する判定手段と、前記判定手段の判定結果に基づいて、前記推定値取得手段が取得した前記推定値を補正する補正手段とを備える。前記補正手段は、前記推移情報取得手段が取得した前記推移情報が異常値であると前記判定手段が判定した場合と、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合とで、前記推定値取得手段が取得した推定値を異なる方法で補正する。

Description

対象物推定装置および対象物推定方法
 本発明は、対象物を撮影した画像から当該対象物の位置および速度を推定する対象物推定装置および対象物推定方法に関する。
 例えば、自動車等の車両に搭載したカメラにより車両の前方を撮影して、撮影された画像から歩行者や他の車両等の対象物を検出する検出装置が各種提案されている(特許文献1,非特許文献1参照)。このような検出装置では、対象物を検出して、車両(カメラ)から対象物までの距離および対象物の動き(速度)を測定(推定)する。
 このような対象物の位置および速度を把握することで、当該対象物が車両にとって危険であるか否かを判定することが可能となる。そして、対象物が車両にとって危険となり得る場合には、ドライバーにその旨を警告したり、ブレーキを自動制御したりして、ドライバーの運転を支援することが可能となる。
 非特許文献1には、2つのカメラで撮影した画像から対象物の3次元上の位置および速度を推定する方法が開示されている。具体的には、非特許文献1の方法では、両カメラで撮影した2つの画像から画素毎に視差が求められる。また、一方のカメラで取得された連続するフレーム画像から画素毎の推移(オプティカルフロー)が算出される。そして、これらの視差およびオプティカルフローを入力として、カルマンフィルタにより対象物の現在の位置および速度を推定する。
国際公開第2006/081906号公報
クレメンス・ラーベ(Clemens Rabe)、ウェ・フランケ(Uwe Franke)、およびステファン・ギリグ(Stefan Gehrig)著、「複雑な背景における移動体の高速検出」(Fast detection of moving objects in complex scenarios)、インテリジェント自動車シンポジウム,2007IEEE(Intelligent Vehicles Symposium, 2007IEEE)、(イスタンブール)、2007年6月13日、p. 398-403
 ところで、カメラで撮影した映像から取得される視差やオプティカルフローは、カメラの解像度に起因する誤差や、対象物を誤って追跡することによる誤差(トラッキングエラー)等が不可避的に生ずる。そして、このような誤差(異常値)を含んだ視差やオプティカルフローが入力されると、算出される対象物の推定値も誤差を含んだものとなる。
 すなわち、視差やオプティカルフローの入力値が異常値である場合に、フィルタで算出された推定値を適切に補正して、対象物の状態(位置・速度)を高い精度で推定し得る装置は提供されていなかった。
 一実施形態は、視差情報および推移情報に異常値が検出された場合に推定値を適切に補正して、対象物の位置および速度を精度よく推定し得る対象物推定装置および対象物推定方法を提供する。
 一実施形態の対象物推定装置は、画像取得手段が異なる位置から撮影した複数の画像に基づいて、当該画像中の対象物の位置および速度を推定する。前記対象物推定装置は、前記複数の画像のうち基準となる基準画像において、時間的に前後するフレームから対応する画素の位置の時間的な推移情報を取得する推移情報取得手段と、前記複数の画像から対応する各画素の視差情報を前記基準画像を基準として取得する視差情報取得手段と、前記推移情報取得手段が取得した推移情報と、前記視差情報取得手段が取得した視差情報とに基づいて、前記対象物の3次元空間上の位置および速度の推定値をフィルタを用いて推定する推定値取得手段と、前記推移情報取得手段が取得した推移情報および前記視差情報取得手段が取得した視差情報が、それぞれ異常値であるか否か判定する判定手段と、前記判定手段の判定結果に基づいて、前記推定値取得手段が取得した前記推定値を補正する補正手段とを備える。前記補正手段は、前記推移情報取得手段が取得した前記推移情報が異常値であると前記判定手段が判定した場合と、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合とで、前記推定値取得手段が取得した推定値を異なる方法で補正する。
実施形態に係る対象物推定装置が搭載された自動車のシステム構成を示すブロック図。 実施形態に係る対象物推定装置が対象物を推定する状態を示す概念図。 (a)は対象物としての他車両が撮影された画像を示す図、(b)は視差情報を示す図、(c)は推移情報を示す図。 推移情報に異常値が生じて推定値を補正する場合を説明した図。 視差情報に異常値が生じて推定値を補正する場合を説明した図。 実施形態に係る対象物推定方法により対象物の状態推定をする際の制御フローを示すフローチャート。 実験例の実験条件を示す図。 実験例の実験結果を示すグラフ。
 次に、実施形態に係る対象物推定装置および対象物推定方法について説明する。実施形態では、車両としての自動車(普通乗用車)に対象物推定装置を搭載した場合を説明する。
 [実施形態]
 図1は、本実施形態に係る対象物推定装置10が搭載された自動車のシステム構成を示すブロック図である。対象物推定装置10は、画像取得部12(画像取得手段)および車両情報取得部14に電気的に接続されている。そして、対象物推定装置10は、画像取得部12および車両情報取得部14からの入力に基づいて、画像取得部12で撮影された対象物(例えば、他の車両や歩行者)の状態(位置および速度)を推定する。
 なお、対象物推定装置10は、図示しない運転支援装置に電気的に接続され、対象物推定装置10で得られた対象物の推定値が運転支援装置に出力される。運転支援装置では、入力された推定値を用いて、例えばドライバーに対象物の存在を警告したり、ブレーキを自動制御したりして、ドライバーの運転を支援する。
 (画像取得部について)
 画像取得部12は、例えば自動車のフロントガラス(ウインドシールドガラス)(図示せず)の車両室側に取り付けられ、自動車の進行方向の前方を撮影する。本実施形態の画像取得部12は、左右(自動車の進行方向に対し垂直な水平方向)に離間する一対のカメラ16,18を備えたステレオカメラである。なお、以下の説明では、左側のカメラを第1カメラ16(第1撮影手段)、右側のカメラを第2カメラ18(第2撮影手段)とそれぞれ指称する。
 第1カメラ16および第2カメラ18は、同一時刻にフレームが撮影されるよう撮影タイミングの同期が図られている。第1カメラ16および第2カメラ18は、互いに異なる位置から自動車の走行方向の前方を撮影して、それぞれ第1の画像(基準画像)および第2の画像を取得する。
 (車両情報取得部について)
 車両情報取得部14は、自動車の走行状態を検出するものであって、自動車のヨーレートを検出するヨーレートセンサ20および自動車の車速(走行速度)を検出する車速センサ22を備えている。車両情報取得部14で取得されたヨーレートおよび車速は、対象物推定装置10の後述する推定値取得部26に出力される。
 (対象物推定装置について)
 図1に示すように、対象物推定装置10は、入力値取得部24および推定値取得部26を基本構成としている。
 (入力値取得部について)
 入力値取得部24は、推移情報算出部28(推移情報取得手段)および視差情報算出部30(視差情報取得手段)を備えている。入力値取得部24は、画像取得部12が取得した第1の画像および第2の画像に基づいて、推定値取得部26に入力する入力値(後述する視差情報および推移情報)を取得する。
 推移情報算出部28は、第1カメラ16に電気的に接続され、第1カメラ16で取得された第1の画像が入力される。また、推移情報算出部28は、RAM等の書き換え可能な記憶部(図示せず)を備え、1フレーム前の第1の画像を記憶部に随時記憶および更新する。
 推移情報算出部28は、現在のフレームの第1の画像と記憶部に記憶された1フレーム前の第1の画像(時間的に前後するフレーム)から対応する画素の位置の時間的な推移情報(オプティカルフロー)を取得する。
 実施形態では、推移情報は、第1カメラ16の光軸中心を原点として、当該画素の横方向(x方向)の位置成分u、当該画素の縦方向(y方向)の位置成分vとして定義される。
 なお、推移情報算出部28が推移情報(u,v)を算出する際には、例えば濃度勾配法や、Horn-Schunckの方法(B.K. P. Horn and B.G. Schunck, Determining Optical Flow, AI(17), No. 1-3, 1981, pp. 185-203)等、公知の手法が用いられる。
 視差情報算出部30は、第1カメラ16および第2カメラ18の双方に電気的に接続され、両カメラ16,18で取得された第1の画像および第2の画像がそれぞれ入力される。視差情報算出部30は、入力された第1の画像および第2の画像に基づいて、画素毎に視差(視差情報d)を算出する。
 具体的には、第1の画像の各画素と、第2の画像の対応する各画素について、例えばSemi-Global Matchingによる画像処理によって視差情報dを算出する。本実施形態では、視差情報算出部30は、第1の画像を基準として視差情報dを算出するよう設定されている。すなわち、視差情報dは、第1カメラ16の光軸中心を原点とする当該画素の奥行き位置(第1カメラ16から対象物までの距離)と一意に対応付けられる。なお、各画素のフレーム間のトラッキングは、推移情報算出部28が算出する推移情報(u,v)(すなわち、オプティカルフロー)に基づいて行われる。
 推移情報算出部28で算出された推移情報(u,v)および視差情報算出部30で算出された視差情報dは、推定値取得部26に出力される。
 図1に示すように、推定値取得部26は、算出部32(推定値取得手段)、判定部34(判定手段)、および補正部36(補正手段)を備えている。
 算出部32は、推移情報(u,v)および視差情報dを入力値とし、所定のプロセスモデルおよび観測モデルを持つカルマンフィルタ(Kalman Filter)を実行することで、対象物の位置および速度の推定値を算出する。なお、本実施形態では、算出部32は、第1の画像を基準として推定値を算出する。
 ここで、算出部32は、計算量を抑制するため、第1の画像の全ての画素について推定値を算出するのではなく、例えば第1の画像の周縁部を除く所定範囲の画素について推定値を算出するように設定されている。
 図2は、対象物推定装置10が対象物の状態を推定する際の概念図である。座標系は、第1カメラ16の光軸中心を原点として図2に示すように設定され、算出部32が対象物の位置(X,Y,Z)および速度(V,V,V)を推定する。算出部32には、数1に示すように、対象物の位置および速度を等速直線運動でモデル化するプロセスモデルが設定されている。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
ここで、vは、平均ゼロ、共分散行列Qの多変数正規分布に従う。
Figure JPOXMLDOC01-appb-M000003
なお、車速は、車速センサ22での検出値、ヨーレートは、ヨーレートセンサ20での検出値である。
 また、算出部32には、数4に示すように、視差情報dおよび推移情報(u,v)と、対象物の位置(X,Y,Z)および速度(Vx,Vy,Vz)との関係を規定する観測モデルが設定されている。
Figure JPOXMLDOC01-appb-M000004
ここで、Hは、3D→2D射影変換行列である。第1の画像の横方向の焦点距離をfx[pix]、縦方向の焦点距離をfy[pix]、第1カメラ16および第2カメラ18の基線長(光軸間距離)をBとすると、Hは数5の式のように表される。
Figure JPOXMLDOC01-appb-M000005
これを数4の式に代入する。
Figure JPOXMLDOC01-appb-M000006
 数6の式は、非線形な関数であるため、このままでは、カルマンフィルタを適用できない。そこで、数6の式を線形近似するため、数7の式に示すように、時刻t(tフレーム)における対象物の位置の予測値(プロセスモデルから算出)の周りでテイラー展開して1次の項までを採用する。
Figure JPOXMLDOC01-appb-M000007
 数7の式を整理すると、
Figure JPOXMLDOC01-appb-M000008
となる。ここで、wは平均ゼロ、共分散行列Rの多変数正規分布に従う。
Figure JPOXMLDOC01-appb-M000009
 算出部32は、上記のプロセスモデルおよび観測モデルに基づいて、カルマンフィルタを実行する。すなわち、算出部32は、以下に示すように、プロセスモデルに基づく予測(数12~数14)および観測モデルに基づく更新(数15~数20)を、第1の画像を基準としてフレーム毎に繰り返す。これにより、算出部32は、対象物の状態(位置・速度)を推定する。カルマンフィルタのtフレームでの推定値および当該推定値の誤差の共分散行列を、それぞれ数10および数11に示す。
Figure JPOXMLDOC01-appb-M000010
Figure JPOXMLDOC01-appb-M000011
数11のxは、対象物の状態(位置・速度)の真値を表す。
 [予測]
Figure JPOXMLDOC01-appb-M000012
Figure JPOXMLDOC01-appb-M000013
Figure JPOXMLDOC01-appb-M000014
 [更新]
Figure JPOXMLDOC01-appb-M000015
Figure JPOXMLDOC01-appb-M000016
Figure JPOXMLDOC01-appb-M000017
Figure JPOXMLDOC01-appb-M000018
Figure JPOXMLDOC01-appb-M000019
Figure JPOXMLDOC01-appb-M000020
 算出部32には、上記予測および更新を実行するため、推定値の初期値(数21)および推定値の誤差の共分散行列についての初期値(数22)が予め設定されている。
Figure JPOXMLDOC01-appb-M000021
Figure JPOXMLDOC01-appb-M000022
これらの初期値は、カルマンフィルタを実行するモデルや条件に合わせて、適当な定数を設定したり、シミュレーションや実験等で求めた値を採用したりすることができる。
 判定部34は、推移情報算出部28で算出された推移情報(u,v)および視差情報算出部30で算出された視差情報dが異常値であるか否かを判定する。以下、推移情報(u,v)および視差情報dの異常値が発生する場合について、具体例を挙げて説明する。
 図3(a)に示すように、対象物推定装置10が搭載された自動車の走行方向の前方を走行する自動車(以下、他車両38と称する)を対象物とし、対象物推定装置10による状態推定を行う場合を想定する。図3(b)は、視差情報算出部30が算出したt-1フレーム、tフレーム、t+1フレームでの視差情報dを表している。
 図3(b)の各フレームに付した円形の囲み線は、正常にトラッキング(すなわち、適正に推移情報が算出)された画素(追跡点)を示している。図3(b)から分かるように、囲み線内の画素は対象物の同一箇所であるのに拘らず、t-1フレームからtフレームにかけて、当該画素での視差情報dが変化している。また、t+1フレームでは、視差情報dが修正されているのが分かる。すなわち、tフレームにおいて視差情報算出部30が算出した囲み線内の画素の視差情報dは、真値からズレた異常値(外れ値)となっている。
 このような異常値は、第1の画像および第2の画像に含まれるノイズの影響や、各画像を有限の画素で区画していることに伴い発生する誤差等に起因する。一方、t+1フレームで視差情報dが修正されているのは、視差情報算出部30がフレーム毎に視差情報dを独立して算出することに起因する。すなわち、視差情報算出部30は、過去に算出した視差情報dに依存することなく視差情報dを算出するため、一旦、視差情報dに異常値が生じたとしても、t+1フレームで適正な視差情報dが算出されたからである。
 図3(c)は、推移情報算出部28が算出したt’-1フレーム、t’フレーム、t’+1フレームでの推移情報(u,v)を表している。t’フレームでの囲み線を付した箇所では、追跡点が他車両38から他車両38以外の風景(側壁)や別の車両40に移ってしまっている。すなわち、t’フレームの囲み線を付した画素について推移情報算出部28が算出した推移情報(u,v)は、異常値(外れ値)となっている。このような、推移情報(u,v)の異常値は、主としてパターンマッチングのエラーによって生じる。
 ここで、t’+1フレームでは、他車両38から外れた追跡点がそのままトラッキングされている。すなわち、一旦、推移情報(u,v)に異常値が発生すると、追跡点が修正されることはない(他車両38上の追跡点に復帰することはない)。これは、推移情報(u,v)(オプティカルフロー)が時間的に前後するフレーム間に亘って算出されて、過去に算出した推移情報(u,v)に依存することに起因する。
 上述のように、推移情報算出部28が算出した推移情報(u,v)や、視差情報算出部30が算出した視差情報dは、エラーによる異常値である可能性がある。そこで、判定部34は、推移情報(u,d)および視差情報dと算出部32が算出した予測値(数13)との差に基づいて、推移情報(u,v)および視差情報dが異常値であるか否かを判定する。
 具体的には、判定部34は、推移情報算出部28が算出した推移情報(u,v)と、算出部32が算出した予測値から得られ、推移情報(u,v)に対応する予測推移情報との差に基づいて、当該推移情報(u,v)が異常値であるか否かを判定する。また、判定部34は、視差情報算出部30が算出した視差情報dと、算出部32が算出した予測値から得られ、視差情報dに対応する予測視差情報との差に基づいて、当該視差情報dが異常値であるか否かを判定する。
 すなわち、判定部34は、算出部32がカルマンフィルタを更新する際に算出する観測値および予測値の残差(数16)を用いる。
Figure JPOXMLDOC01-appb-M000023
 そして、推移情報と予測情報との差および視差情報と予測視差情報との差が、それぞれ所定の閾値Th,Th,Thよりも大きい場合に、判定部34は観測値(視差情報d、推移情報(u,d))がそれぞれ異常値であると判定する。
Figure JPOXMLDOC01-appb-M000024
Figure JPOXMLDOC01-appb-M000025
Figure JPOXMLDOC01-appb-M000026
 すなわち、数24及び数25の式の少なくとも1つを満たす場合、判定部34は、推移情報(u,v)が異常値であると判定する。また、数26を満たす場合、判定部34は、視差情報dが異常値であると判定する。この閾値Th,Th,Thとしては、シミュレーションや実験等で得られた固定値が採用される。
 但し、閾値としては、必ずしも固定値とする必要はない。例えば、遠方の対象物の視差情報dは、撮影された画像のノイズ等が大きく影響し、算出される視差情報dの誤差も大きくなり易くなる。その結果、固定の閾値を採用した場合には、判定部34が視差情報dを常に異常値であると判定してしまう虞がある。
 そこで、観測値および予測値のばらつきを考慮した判定を実施するため、固定値としての閾値に代えて、変数としての閾値を用いてもよい。
 すなわち、数17に示す残差の共分散行列であるSの要素を用いて、閾値を調整(変動)してもよい。
Figure JPOXMLDOC01-appb-M000027
 そして、以下の場合に、判定部34は観測値が異常値であると判定する。
Figure JPOXMLDOC01-appb-M000028
Figure JPOXMLDOC01-appb-M000029
Figure JPOXMLDOC01-appb-M000030
 すなわち、数28及び数29の式の少なくとも1つを満たす場合、判定部34は、推移情報(u,v)が異常値であると判定する。また、数30を満たす場合、判定部34は、視差情報dが異常値であると判定する。
 補正部36は、判定部34が観測値の何れかが異常値であると判定した場合、算出部32が算出した推定値を補正する。一方、観測値が異常値ではない場合、補正部36は、算出部32で算出された推定値を補正することはない。
 ここで、補正部36は、推移情報(u,v)が異常値であると判定された場合と、視差情報dが異常値であると判定された場合とで、推定値を異なる方法で補正する。
 (推移情報が異常値であると判定された場合について)
 先ず始めに、推移情報(u,v)が異常値であると判定された場合に、補正部36が推定値を補正する方法について、図4を用いて説明する。なお、図4に示す画像は、推移情報算出部28が算出した推移情報(u,v)を示すものであって、図3(c)で説明したものと同一である。
 図4に示すように、t’-1フレームまでは、図中の囲み線内で示す箇所(追跡点A)のトラッキング(推移情報)は、正常に行われている。従って、算出部32で算出される推定値は、他車両38上の追跡点Aを観測して推定された値となっている。
 t’フレームにおいて、トラッキングエラーが発生すると、追跡点が他車両38上のAから背景(側壁)上のBに推移している。すなわち、t’フレームで推移情報算出部28が算出した推移情報(u,v)は、数24または数25(もしくは数28または数29)を満たす異常値となる。この場合に、t’-1フレームでの追跡点Aについての推定値を用いて算出したt’フレームでの追跡点Bについての推定値は、異なる対象物を追跡して得られたエラー値となる。
 そこで、補正部36は、推移情報(u,v)が異常値である場合、算出部32が算出したt’フレームでの推定値をキャンセル(無効)すると共に、カルマンフィルタを初期状態にリセットする。このように、トラッキングエラーが発生した場合には、その後、推移情報(u,v)が正常値に修正されることはないため、補正部36は、推定値を数21の初期値にリセットする。
 推移情報(u,v)が異常値である場合、当該画素についてのトラッキングは無効となるため、補正部36は、対象物推定装置10の出力として無効値を設定する。すなわち、推移情報(u,v)が異常値と判断された当該画素についての推定値としては、無効値が出力され、当該画素についての推定が終了する。
 なお、カルマンフィルタが初期状態にリセットされた後も、追跡点Bについてのトラッキングは継続される。従って、t’+1フレームでは、算出部32が追跡点Bについての推定値を前述した初期値を用いて算出する。そして、以降のフレームでは、追跡点Bについての推定値が算出されることとなる。
 なお、推移情報(u,v)が異常値でないと判定された場合、補正部36は、算出部32で算出された推定値を補正することなく、当該推定値を対象物推定装置10の出力に設定する。
 (視差情報が異常値であると判定された場合について)
 次に、視差情報dが異常値であると判定された場合に、補正部36が推定値を補正する方法について、図5を用いて説明する。なお、図5の左側の画像は、視差情報算出部30が算出した視差情報dを示すものであって、図3(b)で説明したものと同一である。また、図5の右側の画像は、左側の画像の対応するフレームでのトラッキング(推移情報)を示したものである。なお、図中の円形の囲み線は、対象物の同一箇所(追跡点C)を示しており、tフレームにおいて視差情報dが異常値となっている。なお、推移情報(u,d)については、全てのフレームにおいて適正に算出されたものとする。すなわち、追跡点Cについてのトラッキングは、正確に行われている。
 t-1フレームでは、視差情報dが正しく算出されており、算出部32が算出する推定値も適正なものとなる。従って、補正部36は、算出部32が算出した推定値を出力として設定する。
 tフレームでは、トラッキングは正常に実行されているものの、視差情報dに誤差が生じている。すなわち、tフレームで視差情報算出部30が算出する視差情報dは、数26(または数30)を満たす異常値となる。
 この場合、異常値である視差情報dを用いて算出された推定値(数19)よりも、数13で得られる予測値の方が対象物の状態をより正確に表している(真値により近い)と考えられる。そこで、補正部36は、視差情報dが異常値であると判定されると、数19から算出された推定値をキャンセルすると共に、数13で得られる予測値を推定値として採用する。そして、補正部36は、対象物推定装置10の出力として、予測値の値に補正された推定値を設定する。
 t+1フレームでは、視差情報dが修正されて、適正な値が算出されている。この場合、補正部36は、算出部32が算出した推定値を補正することなく採用する。すなわち、t+1フレームでは、算出部32がtフレームで得られた推定値(予測値)を用いて算出した推定値がそのまま採用される。そして、補正部36は、当該推定値を出力として設定する。
 次に、本実施形態の対象物推定装置10による推定方法について、図6のフローチャートを参照して説明する。なお、図6のフローチャートは、任意のフレーム(tフレーム)において、対象物推定装置10が対象物の状態を推定する際の制御フローを示すものである。
 第1カメラ16および第2カメラ18(画像取得部12)は、自動車の走行方向前方の風景を撮影し、それぞれ第1の画像および第2の画像を取得する。画像取得部12で取得された第1の画像および第2の画像は、対象物推定装置10(入力値取得部24)に入力される(ステップS10)。
 推移情報算出部28は、入力された第1の画像を記憶部に記憶する(ステップS12)。この記憶部に記憶されたtフレームの第1の画像は、次のフレーム(t+1フレーム)において推移情報算出部28が推移情報(u,v)を算出する際に用いられる。
 次に、車両情報取得部14が取得した自動車のヨーレートおよび車速が対象物推定装置10(推定値取得部26)に入力される(ステップS14)。すなわち、ヨーレートセンサ20で検出されたヨーレートおよび車速センサ22で検出された自動車の車速が対象物推定装置10に入力される。
 次いで、推移情報算出部28は、記憶部から1フレーム前(t-1フレーム)の第1の画像を読み出す(ステップS16)。そして、推移情報算出部28は、画像取得部12から入力された当該フレーム(tフレーム)での第1の画像と、1フレーム前の第1の画像とに基づいて、推移情報(u,v)を算出する(ステップS18)。
 視差情報算出部30は、画像取得部12から入力された第1の画像および第2の画像に基づいて、視差情報dを算出する(ステップS20)。このとき、視差情報算出部30は、第1の画像を基準として、当該第1の画像の画素毎に視差情報dを算出する。入力値取得部24で取得された視差情報dおよび推移情報(u,v)は、推定値取得部26に出力される。
 推定値取得部26では、第1の画像の所定範囲の各画素について対象物の状態の推定値を取得する(ステップS22~S38)。すなわち、入力値取得部24から入力された視差情報dおよび推移情報(u,v)に基づいて、算出部32は、予測(数12~数14)および更新(数15~数20)によるカルマンフィルタを実行する(ステップS24)。
 次に、判定部34は、推移情報算出部28で算出された推移情報(u,v)が異常値であるか否かを判定する(ステップS26)。すなわち、判定部34は、推移情報(u,v)の各成分が、数24および数25(または数28および数29)の式をそれぞれ満たすか否かを判定する。
 ここで、当該画素についてのトラッキングが正しく行われている場合、推移情報(u,v)の各成分は、何れも数24,数25(または数28,数29)を満たすことはない。この場合、判定部34は、推移情報算出部28で算出された推移情報(u,v)が異常値ではないと判定する(ステップS26のNo)。
 ステップS26で否定されると、次に、判定部34は、ステップS16で視差情報算出部30が算出した視差情報dが異常値であるか否かを判定する(ステップS28)。すなわち、判定部34は、視差情報dが数26(または数30)を満たすか否かを判定する。
 ここで、当該画素についての視差情報dが適切に算出されている場合、視差情報dが数26(または数30)を満たすことはない。この場合、判定部34は、視差情報算出部30で算出された視差情報dが異常値でないと判定する(ステップS28のNo)。
 判定部34が推移情報(u,v)および視差情報dが何れも異常値でないと判定すると、補正部36は、ステップS24で算出部32が算出した推定値を補正することなく採用する。すなわち、補正部36は、ステップS24で算出された推定値をそのまま当該画素における推定値の出力として設定する(ステップS30)。
 一方、ステップS26において、当該画素に対するトラッキングが適正に行われていなかった場合、推移情報(u,v)の少なくとも1つの成分が数24,数25(数28,数29)を満たすことになる。この場合、判定部34は、推移情報(u,v)が異常値であると判定する(ステップS26のYes)。
 推移情報(u,v)が異常値であると判定されると、補正部36は、ステップS24で算出された推定値を採用することなく、カルマンフィルタを初期状態にリセットする(ステップS32)。すなわち、補正部36は、予め設定された初期値(数21)をカルマンフィルタにセットする。そして、補正部36は、当該画素における推定値の出力として無効値を設定する(ステップS34)。
 このように、推移情報算出部28が算出した推移情報(u,v)が異常値である場合、補正部36は、当該推移情報(u,v)に基づいて算出された推定値をキャンセルして、当該画素における推定値を無効とする。これにより、適切にトラッキングされなかった画素についての推定結果を用いることで、大きな誤差を含んだ推定値が出力されるのを防止し得る。
 一方、ステップS28において、当該画素における視差情報dに誤差が生じていた場合、視差情報dは数26(または数30)を満たすことになる。この場合、判定部34は、視差情報dが異常値であると判定する(ステップS28のYes)。視差情報dが異常値であると判定されると、補正部36は、ステップS24で算出部32が算出した推定値をキャンセルする。そして、補正部36は、算出部32がカルマンフィルタを実行する際に算出した予測値(数13参照)の値を推定値に設定する(ステップS36)。
 すなわち、補正部36は、視差情報dが異常値である場合には、算出部32が算出した推定値も誤差を含んでいることから、当該推定値をキャンセルする。そして、補正部36は、算出部32が算出した推定値よりも正確と考えられる予測値を当該画素における推定値に設定する。これにより、視差情報dに誤差が含まれている場合であっても、対象物の推定値として、より適切な値が採用されることになり、対象物推定装置10の信頼性を高めることができる。
 しかも、視差情報dは、フレーム毎に独立して算出されるから、現在のフレームの視差情報dが異常値であったとしても、後のフレームでの視差情報dの算出に影響を与えることがない。従って、補正部36は、推移情報(u,v)が異常値の場合のようにカルマンフィルタを初期状態にリセットすることはなく、当該画素に対する以後の推定は継続される。
 補正部36は、推定値として予測値の値を設定すると、当該推定値の値を当該画素における出力値として設定する(ステップS30)。
 推定値取得部26は、当該画素についての推定値が決定すると、ステップS26~S36を次の画素について実行する。そして、第1の画像の所定範囲にある全ての画素について推定値が決定すると(ステップS38)、推定値取得部26は、出力に設定された推定値を運転支援装置に出力し(ステップS40)、現在のフレームについての処理を終了する。
 [実験例]
 次に、前述した対象物推定装置10の効果を確認するべく、視差情報dに異常値が生じる場合での実証実験(実験例)を行った。図7に示すように、対象物推定装置10が搭載された自動車42は、車速25km/hで道路を直進するものとする。そして、自動車42の走行方向の前方を走行する車両(以下、他車両44という)を対象物として、当該他車両44の位置および速度を推定した。なお、座標系は、図7に示す通りであり、第1カメラ16のレンズの中心を原点位置とした。
 ここで、車速センサ22の車速は7.32m/s、ヨーレートセンサ20のヨーレートは、0.15deg/sであるとする(何れも誤差を含む)。この場合、数1に示すカルマンフィルタのプロセスモデルは、以下のように表される。
Figure JPOXMLDOC01-appb-M000031
 ここで、数31の共分散行列Qは、以下に示すように、事前に行ったシミュレーションにおいて得られた適合値を採用した。
Figure JPOXMLDOC01-appb-M000032
 また、観測モデルの数9に示す共分散行列Rは、以下に示すように、事前に行ったシミュレーションにおいて得られた適合値を採用した。
Figure JPOXMLDOC01-appb-M000033
 また、本実験例においては、カルマンフィルタの初期値として、以下のような値を設定した。推定値の初期値(数21参照)において、位置については、入力値の初期値(u0,v,d)から算出し、また、速度については、事前に行ったシミュレーションで得られた適合値(0.00)を用いた。
Figure JPOXMLDOC01-appb-M000034
 また、数22に示す推定値の誤差の共分散行列の初期値については、共分散行列の一部の要素については、事前に行ったシミュレーションで求めた(u,v,d)の分散(σ ,σ ,σ )に基づいて算出した。また、共分散行列のその他の要素については、当該シミュレーションで求めた適合値を直接採用した。
Figure JPOXMLDOC01-appb-M000035
Figure JPOXMLDOC01-appb-M000036
 また、実験例では、判定部34による入力値の判定として、数28~数30の式を用いた。
 以上の条件下において、0フレームから20フレーム間に亘って、対象物推定装置10による対象物の状態推定を行った。そして、他車両44までの距離(Z)の推定結果を図8のグラフに示す。なお、実験例では、9フレーム目において、視差情報dに異常値が生じたものとする。また、比較のため、カルマンフィルタを用いないで推定した結果(比較例1)と、視差情報dが異常値であっても補正部36による補正を行わない条件で推定した結果(比較例2)とを併せて示す。なお、グラフ中の真値は、他車両44までの実際の距離を示している。
 図8のグラフから分かるように、フィルタを用いない比較例1では、視差情報dが異常値となった9フレームにおいて、真値に対して大きくズレていることが分かる。
 また、推定値の補正を行わない比較例2については、8フレームまでは実験例と同様な軌跡を描いている。しかしながら、視差情報dが異常値となる9フレームでは、当該視差情報dから算出された推定値がそのまま採用されることで、推定結果が真値から外れていることが分かる。また、10フレーム以降では、9フレームでの誤差を含む推定値の影響で、真値からズレた推定結果が続いている。
 一方、実験例では、推定の開始から徐々に真値に近づき、視差情報dが異常値となる9フレームにおいても、真値に近い推定結果となっている。これは、9フレームでは、算出部32が算出した推定値ではなく、予測値の値が推定値として採用されたためである。また、10フレーム以降においても、真値に近い推定結果となっている。このように、実験例が、対象物の距離を最も正確に推定していることが分かる。
 以上に説明した実施形態に係る対象物推定装置10および対象物推定方法によれば、以下の効果を奏する。
 (1)補正部36は、判定部34の判定結果に基づいて、算出部32が算出した推定値を補正する。従って、推定値の精度が向上して、対象物の状態を正確に推定することができる。
 (2)推移情報(u,v)が異常値であると判定部34が判定した場合、補正部36は、カルマンフィルタを初期状態にリセット(推定値を初期値に設定)すると共に、算出部32が算出した推定値を無効値とする。これにより、異常値である推移情報(u,v)を用いて算出した推定値をそのまま出力するのを防止することができる。すなわち、トラッキングエラーが生じた画素から得られた推定値を無効として、対象物推定装置の信頼性を高めることができる。
 なお、カルマンフィルタを初期状態にリセットすることで、トラッキングエラーにより追跡点が推移した後は、当該追跡点を初期状態から追跡することができる。すなわち、異常値が生じた追跡点とは異なる新たな追跡点として、推定を継続させることができる。
 (3)視差情報dは、フレーム毎に算出されて、視差情報dの異常値もフレーム単位で独立して発生する。このような視差情報dの特性に鑑み、視差情報dが異常値である場合、補正部36は、算出部32が算出した推定値よりも精度の高いと考えられる予測値を推定値として設定する。これにより、視差情報dが異常値である場合に、対象物の推定値の誤差を小さくすることができる。
 しかも、補正部36は、推移情報(u,v)に異常値が生じた場合のようにカルマンフィルタを初期状態にリセットすることはない。従って、次のフレームでは、予測値に設定された推定値を用いて当該画素についての推定を継続することができる。
 (4)判定部34は、推移情報算出部28が算出した推移情報(u,v)と、予測値から算出される予測推移情報との差(数24,数25または数28,数29参照)に基づいて、当該推移情報(u,v)が異常値であるか否かを判定する。従って、推移情報算出部28が算出した推移情報(u,v)が異常値であるか否かを判定部34が適切に判定することができる。
 (5)判定部34は、視差情報算出部30が算出した視差情報dと、予測値から算出される予測視差情報との差(数26または数30参照)に基づいて、当該視差情報dが異常値であると判定する。従って、視差情報算出部30が算出した視差情報dが異常値であるか否かを判定部34が適切に判定することができる。
 (6)ここで、判定部34が判定する際の閾値として、数24~数26に示す固定値を採用した場合には、推移情報(u,d)および視差情報dの判定を効率的に行うことができ、判定部34の処理負担を軽減することができる。
 (7)一方、閾値として数28~数30に示す変数値を採用した場合には、観測値や推測値のばらつきを考慮して適切な判定をすることができる。これにより、例えば、対象物が遠方にあって視差情報dがノイズの影響を受け易い場合には、閾値の値が大きくなって、異常値であると判定され難くするといったことが可能となる。一方、対象物が近くにあって視差情報dに対するノイズの影響が小さい場合には、閾値が小さくなって、視差情報dの異常値を正確に捉えることが可能となる。
 (変更例)
 前述した実施形態に係る対象物推定装置は、以下のように変更することが可能である。
 ・実施形態では、フィルタとして、予測(数12~数14)および更新(数15~数20)を繰り返すことで対象物の状態を推定するカルマンフィルタを採用した。しかしながら、カルマンフィルタとしては、実施形態に限定されるものではなく、例えば、アンセンテッドカルマンフィルタやパーティクルフィルタ等を採用してもよい。
 ・また、フィルタとしては、実施形態のようにカルマンフィルタに限定されるものではなく、例えばHフィルタ等の他のフィルタを採用することができる。
 ・実施形態では、画像取得手段として、第1カメラおよび第2カメラを備えた画像取得部を例示した。しかしながら、画像取得手段としては、異なる位置から複数の画像を取得するものであればよく、3つ以上のカメラを備えていてもよい。また、実施形態では、第1カメラおよび第2カメラが取得した第1の画像および第2の画像から視差情報を算出したが、3つ以上のカメラで撮影した3つ以上の画像から視差情報を算出するようにしてもよい。
 ・実施形態では、第1カメラが取得した画像を基準画像として、対象物の状態を推定したが、第2カメラが取得した画像を基準画像として推定値を算出してもよい。この場合、第2カメラが第1撮影手段、第1カメラが第2撮影手段となり、第2カメラが撮影した画像が第1の画像、第1カメラが撮影した画像が第2の画像となる。
 ・実施形態では、第1の画像の連続するフレームから推移情報を算出したが、時間的に前後するフレームであれば、必ずしも連続するフレームから推移情報を算出する必要はない。例えば、1フレームおいて前後するフレーム間(すなわち、tフレームおよびt+2フレーム)から推移情報を算出するようにしてもよい。
 ・実施形態では、第1カメラおよび第2カメラが自動車の走行方向の前方を撮影して、自動車の前方の対象物を推定する場合を示した。しかしながら、例えば、第1カメラおよび第2カメラが自動車の側方(左右方向)や後方を撮影するようにしてもよい。これにより、自動車の前方以外の対象物(例えば、後方車両)について、状態を推定することが可能となる。
 ・実施形態では、対象物推定装置を普通乗用車の自動車に搭載した場合を例示したが、対象物推定装置は、バスやトラック等の大型車や自動二輪車等、あらゆる車両に搭載することができる。また、対象物推定装置をシミュレーション装置等の実験施設に搭載してもよい。
 ・実施形態では、車速センサで並進運動を算出したが、第1撮影手段で取得された第1の画像または第2撮影手段で取得された第2の画像から自動車の並進運動を算出してもよい。同様に、回転運動についても、ヨーレートセンサを採用することなく、第1の画像または第2の画像から自動車の回転運動を算出してもよい。
 ・実施形態では、第1の画像の所定範囲の画素についてカルマンフィルタを実行し、推定値を算出したが、第1の画像の全ての画素について推定値を算出してもよい。
 上記対象物推定装置は、画像取得手段が異なる位置から撮影した複数の画像に基づいて、当該画像中の対象物の位置および速度を推定する。前記対象物推定装置は、前記複数の画像のうち基準となる基準画像において、時間的に前後するフレームから対応する画素の位置の時間的な推移情報を取得する推移情報取得手段と、前記複数の画像から対応する各画素の視差情報を前記基準画像を基準として取得する視差情報取得手段と、前記推移情報取得手段が取得した推移情報と、前記視差情報取得手段が取得した視差情報とに基づいて、前記対象物の3次元空間上の位置および速度の推定値をフィルタを用いて推定する推定値取得手段と、前記推移情報取得手段が取得した推移情報および前記視差情報取得手段が取得した視差情報が、それぞれ異常値であるか否か判定する判定手段と、前記判定手段の判定結果に基づいて、前記推定値取得手段が取得した前記推定値を補正する補正手段とを備える。前記補正手段は、前記推移情報取得手段が取得した前記推移情報が異常値であると前記判定手段が判定した場合と、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合とで、前記推定値取得手段が取得した推定値を異なる方法で補正する。
 判定手段は、推移情報および視差情報がそれぞれ異常値であるか否か判定する。そして、補正手段は、判定手段の判定結果に基づいて、推定値取得手段が取得した推定値を補正する。従って、推移情報や視差情報が異常値の場合に、推定値取得手段が取得した誤差を含む推定値が補正されて、対象物の位置および速度を精度よく推定することができる。
 ここで、補正手段は、判定手段が推移情報を異常値であると判定した場合と、視差情報を異常値であると判定した場合とで、推定値を補正する方法を変更する。すなわち、異常値が生じた入力値(推移情報,視差情報)の種類に応じて推定値を適切に補正することで、対象物の状態をより正確に推定することができる。
 前記補正手段は、前記推移情報取得手段が取得した前記推移情報を前記判定手段が異常値であると判定した場合に、前記推定値取得手段が取得した前記推定値を無効にすると共に、前記フィルタを初期状態にリセットする。
 推移情報取得手段は、基準画像の時間的に前後するフレームから推移情報を取得する。すなわち、推移情報は、過去に取得した推移情報に依存して取得される。従って、一旦、推移情報が異常値(トラッキングエラー)となると、以降のフレームで取得される推移情報は、当該異常値の推移情報の影響を受けて大きな誤差を含む。
 そこで、補正手段は、推移情報が異常値である場合に、推定値取得手段が取得した推定値を無効値とすると共に、フィルタを初期状態にリセットする。すなわち、推移情報が異常値であると判定された画素については、当該フレームにおいて推定を中止する。これにより、トラッキングエラーが生じた画素を同一の対象物として推定するのを防止して、対象物推定装置の信頼性を高めることができる。しかも、フィルタが初期状態にリセットされることで、異常値が生じた画素についての追跡が新たに開始され、当該画素についての推定値を得ることができる。
 前記推定値取得手段は、前記対象物が予め設定したプロセスモデルに従うと仮定して、過去に取得した前記推定値から前記対象物の位置および速度の予測値を取得する。前記補正手段は、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合に、前記推定値取得手段が取得した前記推定値を当該推定値取得手段が取得した前記予測値の値に補正する。
 視差情報取得手段は、同一フレームにおける複数の画像から視差情報を取得する。すなわち、視差情報は、時間的に独立して算出されるから、過去の視差情報が以後に算出される視差情報に影響を与えることはない。従って、視差情報の異常値についても、フレーム毎に独立して発生することになる。
 視差情報が異常値である場合に、補正手段は、推定値取得手段が取得した推定値を予測値に補正する。すなわち、異常値である視差情報を用いて取得された誤差を含む推定値を予測値に変更することで、当該フレームでの推定値の誤差を小さくすることができる。
 そして、視差情報が異常値である場合、補正手段は、フィルタを初期状態にリセットすることなく、以後のフレームで当該画素についての推定を継続させる。すなわち、視差情報に異常値が生じた場合は、当該フレームでの視差情報を予測値に設定すると共に、以後のフレームで当該画素についての推定を継続させることができる。
 12…画像取得部、28…推移情報算出部、30…視差情報算出部、32…算出部、34…判定部、36…補正部、d…視差情報。

Claims (10)

  1.  画像取得手段(12)が異なる位置から撮影した複数の画像に基づいて、当該画像中の対象物の位置および速度を推定する対象物推定装置であって、
     前記複数の画像のうち基準となる基準画像において、時間的に前後するフレームから対応する画素の位置の時間的な推移情報を取得する推移情報取得手段(28)と、
     前記複数の画像から対応する各画素の視差情報を前記基準画像を基準として取得する視差情報取得手段(30)と、
     前記推移情報取得手段が取得した推移情報と、前記視差情報取得手段が取得した視差情報とに基づいて、前記対象物の3次元空間上の位置および速度の推定値をフィルタを用いて推定する推定値取得手段(32)と、
     前記推移情報取得手段が取得した推移情報および前記視差情報取得手段が取得した視差情報が、それぞれ異常値であるか否か判定する判定手段(34)と、
     前記判定手段の判定結果に基づいて、前記推定値取得手段が取得した前記推定値を補正する補正手段(36)とを備え、
     前記補正手段は、前記推移情報取得手段が取得した前記推移情報が異常値であると前記判定手段が判定した場合と、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合とで、前記推定値取得手段が取得した推定値を異なる方法で補正する
    ことを特徴とする対象物推定装置。
  2.  前記補正手段は、前記推移情報取得手段が取得した前記推移情報を前記判定手段が異常値であると判定した場合に、前記推定値取得手段が取得した前記推定値を無効にすると共に、前記フィルタを初期状態にリセットする請求項1記載の対象物推定装置。
  3.  前記推定値取得手段は、前記対象物が予め設定したプロセスモデルに従うと仮定して、過去に取得した前記推定値から前記対象物の位置および速度の予測値を取得し、
     前記補正手段は、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合に、前記推定値取得手段が取得した前記推定値を当該推定値取得手段が取得した前記予測値の値に補正する請求項1または2記載の対象物推定装置。
  4.  前記判定手段は、前記推移情報取得手段が取得した前記推移情報と、前記推定値取得手段が取得した前記予測値から算出され、前記推移情報に対応する予測推移情報との差に基づいて、当該推移情報が異常値であるか否かを判定する請求項3記載の対象物推定装置。
  5.  前記判定手段は、前記視差情報取得手段が取得した前記視差情報と、前記推定値取得手段が取得した前記予測値から算出され、前記視差情報に対応する予測視差情報との差に基づいて、当該視差情報が異常値であるか否か判定する請求項3または4記載の対象物推定装置。
  6.  画像取得手段(12)が異なる位置から撮影した複数の画像に基づいて、当該画像中の対象物の位置および速度を推定する対象物推定方法であって、
     前記複数の画像のうち基準となる基準画像において、時間的に前後するフレームから対応する画素の位置の時間的な推移情報を推移情報取得手段(28)が取得するステップ(S18)と、
     前記複数の画像から対応する各画素の視差情報を前記基準画像を基準として視差情報取得手段(30)が取得するステップ(S20)と、
     前記推移情報取得手段が取得した推移情報と、前記視差情報取得手段が取得した視差情報とに基づいて、前記対象物の3次元空間上の位置および速度の推定値をフィルタを用いて推定値取得手段(32)が推定するステップ(S24)と、
     前記推移情報取得手段が取得した推移情報および前記視差情報取得手段が取得した視差情報が、それぞれ異常値であるか否かを判定手段(34)が判定するステップ(S26,S28)と、
     前記判定手段の判定結果に基づいて、前記推定値取得手段が取得した前記推定値を補正手段(36)が補正するステップ(S32,S34,S36)とを備え、
     前記補正手段は、前記推移情報取得手段が取得した前記推移情報が異常値であると前記判定手段が判定した場合と、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合とで、前記推定値取得手段が取得した推定値を異なる方法で補正する
    ことを特徴とする対象物推定方法。
  7.  前記補正手段は、前記推移情報取得手段が取得した前記推移情報を前記判定手段が異常値であると判定した場合に、前記推定値取得手段が取得した前記推定値を無効にすると共に(S34)、前記フィルタを初期状態にリセットする(S32)請求項6記載の対象物推定方法。
  8.  前記推定値取得手段は、前記対象物が予め設定したプロセスモデルに従うと仮定して、過去に取得した前記推定値から前記対象物の位置および速度の予測値を取得し、
     前記補正手段は、前記視差情報取得手段が取得した前記視差情報が異常値であると前記判定手段が判定した場合に、前記推定値取得手段が取得した前記推定値を前記推定値取得手段が取得した前記予測値の値に補正する(S36)請求項6または7記載の対象物推定方法。
  9.  前記判定手段は、前記推移情報取得手段が取得した前記推移情報と、前記推定値取得手段が取得した前記予測値から算出され、前記推移情報に対応する予測推移情報との差に基づいて、当該推移情報が異常値であるか否か判定する請求項8記載の対象物推定方法。
  10.  前記判定手段は、前記視差情報取得手段が取得した前記視差情報と、前記推定値取得手段が取得した前記予測値から算出され、前記視差情報に対応する予測視差情報との差に基づいて、当該視差情報が異常値であるか否か判定する請求項8または9記載の対象物推定方法。
PCT/JP2014/071800 2013-08-21 2014-08-20 対象物推定装置および対象物推定方法 WO2015025897A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/912,885 US9767367B2 (en) 2013-08-21 2014-08-20 Object estimation apparatus and object estimation method
DE112014003818.0T DE112014003818T5 (de) 2013-08-21 2014-08-20 Objektschätzvorrichtung und Objektschätzverfahren
CN201480046274.2A CN105474265B (zh) 2013-08-21 2014-08-20 对象物推断装置以及对象物推断方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-171774 2013-08-21
JP2013171774A JP6110256B2 (ja) 2013-08-21 2013-08-21 対象物推定装置および対象物推定方法

Publications (1)

Publication Number Publication Date
WO2015025897A1 true WO2015025897A1 (ja) 2015-02-26

Family

ID=52483668

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/071800 WO2015025897A1 (ja) 2013-08-21 2014-08-20 対象物推定装置および対象物推定方法

Country Status (5)

Country Link
US (1) US9767367B2 (ja)
JP (1) JP6110256B2 (ja)
CN (1) CN105474265B (ja)
DE (1) DE112014003818T5 (ja)
WO (1) WO2015025897A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9767367B2 (en) 2013-08-21 2017-09-19 Denso Corporation Object estimation apparatus and object estimation method
US11407411B2 (en) * 2016-09-29 2022-08-09 Denso Corporation Other lane monitoring device

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101832189B1 (ko) * 2015-07-29 2018-02-26 야마하하쓰도키 가부시키가이샤 이상화상 검출장치, 이상화상 검출장치를 구비한 화상 처리 시스템 및 화상 처리 시스템을 탑재한 차량
JP6815856B2 (ja) * 2016-12-14 2021-01-20 日立オートモティブシステムズ株式会社 先行車両の走行軌跡予測装置及びその搭載車両
US10146225B2 (en) * 2017-03-02 2018-12-04 GM Global Technology Operations LLC Systems and methods for vehicle dimension prediction
EP3407273A1 (de) * 2017-05-22 2018-11-28 Siemens Aktiengesellschaft Verfahren und anordnung zur ermittlung eines anomalen zustands eines systems
JP6849569B2 (ja) * 2017-09-29 2021-03-24 トヨタ自動車株式会社 路面検出装置
JP6936098B2 (ja) * 2017-09-29 2021-09-15 トヨタ自動車株式会社 対象物推定装置
JP7142468B2 (ja) * 2018-05-30 2022-09-27 スズキ株式会社 移動体追跡装置
JP7223587B2 (ja) * 2019-02-04 2023-02-16 日産自動車株式会社 物体運動推定方法及び物体運動推定装置
WO2020170462A1 (ja) * 2019-02-22 2020-08-27 公立大学法人会津大学 動画像距離算出装置および動画像距離算出用プログラムを記録したコンピュータ読み取り可能な記録媒体
JP7196789B2 (ja) * 2019-07-02 2022-12-27 株式会社デンソー 車載センサ装置
DE102020201505A1 (de) 2020-02-07 2021-08-12 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum kamerabasierten Ermitteln einer Geschwindigkeit eines Fortbewegungsmittels
CN112435475B (zh) * 2020-11-23 2022-04-29 北京软通智慧科技有限公司 一种交通状态检测方法、装置、设备及存储介质

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5109425A (en) * 1988-09-30 1992-04-28 The United States Of America As Represented By The United States National Aeronautics And Space Administration Method and apparatus for predicting the direction of movement in machine vision
ATE203844T1 (de) * 1992-03-20 2001-08-15 Commw Scient Ind Res Org Gegenstands-überwachungsystem
JPH0894320A (ja) 1994-09-28 1996-04-12 Nec Corp 移動物体計測装置
US7321386B2 (en) * 2002-08-01 2008-01-22 Siemens Corporate Research, Inc. Robust stereo-driven video-based surveillance
US7450735B1 (en) * 2003-10-16 2008-11-11 University Of Central Florida Research Foundation, Inc. Tracking across multiple cameras with disjoint views
JP4151631B2 (ja) 2004-09-08 2008-09-17 日産自動車株式会社 物体検出装置
DE102005008131A1 (de) 2005-01-31 2006-08-03 Daimlerchrysler Ag Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen
JP5063023B2 (ja) * 2006-03-31 2012-10-31 キヤノン株式会社 位置姿勢補正装置、位置姿勢補正方法
KR100927096B1 (ko) * 2008-02-27 2009-11-13 아주대학교산학협력단 기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법
JP4985516B2 (ja) 2008-03-27 2012-07-25 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
WO2010097943A1 (ja) * 2009-02-27 2010-09-02 トヨタ自動車株式会社 車両相対位置推定装置及び車両相対位置推定方法
JP4733756B2 (ja) * 2009-04-28 2011-07-27 本田技研工業株式会社 車両周辺監視装置
JP5528151B2 (ja) * 2010-02-19 2014-06-25 パナソニック株式会社 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム
JP5389002B2 (ja) * 2010-12-07 2014-01-15 日立オートモティブシステムズ株式会社 走行環境認識装置
US20130197736A1 (en) * 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
GB2506338A (en) * 2012-07-30 2014-04-02 Sony Comp Entertainment Europe A method of localisation and mapping
US9641763B2 (en) * 2012-08-29 2017-05-02 Conduent Business Services, Llc System and method for object tracking and timing across multiple camera views
JP6014440B2 (ja) * 2012-09-26 2016-10-25 日立オートモティブシステムズ株式会社 移動物体認識装置
JP6110256B2 (ja) 2013-08-21 2017-04-05 株式会社日本自動車部品総合研究所 対象物推定装置および対象物推定方法
JP6225889B2 (ja) * 2014-11-19 2017-11-08 株式会社豊田中央研究所 車両位置推定装置及びプログラム
US9710712B2 (en) * 2015-01-16 2017-07-18 Avigilon Fortress Corporation System and method for detecting, tracking, and classifiying objects

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CLEMENS RABE ET AL.: "Fast detection of moving objects in complex scenarios", 2007 IEEE INTELLIGENT VEHICLES SYMPOSIUM, 13 June 2007 (2007-06-13), pages 398 - 403, XP031126977 *
SHIGEAKI HARAD A ET AL.: "A method of detecting network anomalies and determining their termination", IEICE TECHNICAL REPORT, IN 2006- 114 TO 137, INFORMATION NETWORKS, vol. 106, no. 420, 7 December 2006 (2006-12-07), pages 115 - 120 *
TOBI VAUDREY ET AL.: "Integrating Disparity Images by Incorporating Disparity Rate", 2ND WORKSHOP ROBOT VISION, 2008 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9767367B2 (en) 2013-08-21 2017-09-19 Denso Corporation Object estimation apparatus and object estimation method
US11407411B2 (en) * 2016-09-29 2022-08-09 Denso Corporation Other lane monitoring device

Also Published As

Publication number Publication date
CN105474265B (zh) 2017-09-29
US9767367B2 (en) 2017-09-19
US20160203376A1 (en) 2016-07-14
JP6110256B2 (ja) 2017-04-05
CN105474265A (zh) 2016-04-06
DE112014003818T5 (de) 2016-05-04
JP2015041238A (ja) 2015-03-02

Similar Documents

Publication Publication Date Title
JP6110256B2 (ja) 対象物推定装置および対象物推定方法
US9729858B2 (en) Stereo auto-calibration from structure-from-motion
KR101961001B1 (ko) 단일-카메라 거리 추정
US20180308364A1 (en) Obstacle detection device
JP6743171B2 (ja) 自動車両の道路付近の物体を検出するための方法、コンピュータデバイス、運転者支援システム、及び、自動車両
JP6565188B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
KR102507248B1 (ko) 에고모션 추정 시스템 및 방법
JP7212486B2 (ja) 位置推定装置
JP2007263669A (ja) 3次元座標取得装置
JP2016148512A (ja) 単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置
JP6455164B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP2019066302A (ja) 対象物推定装置
JP6543935B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP2009139324A (ja) 車両用走行路面検出装置
JP2011209070A (ja) 画像処理装置
EP3435286B1 (en) Imaging control device and imaging control method
JP6747176B2 (ja) 画像処理装置、撮影装置、プログラム、機器制御システム及び機器
JP7457574B2 (ja) 画像処理装置
JP7223587B2 (ja) 物体運動推定方法及び物体運動推定装置
JP3951734B2 (ja) 車両用外界認識装置
KR102002228B1 (ko) 동적 객체 검출 장치 및 방법
JP5682266B2 (ja) 移動量推定装置および移動量推定方法
JP2021043486A (ja) 位置推定装置
KR102479253B1 (ko) 차량용 카메라 영상 기반 공차 보정 방법
JP2020087210A (ja) キャリブレーション装置及びキャリブレーション方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480046274.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14837572

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14912885

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112014003818

Country of ref document: DE

Ref document number: 1120140038180

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14837572

Country of ref document: EP

Kind code of ref document: A1