WO2008044592A1 - Mobile object recognizing device, mobile object recognizing method, and computer program - Google Patents

Mobile object recognizing device, mobile object recognizing method, and computer program Download PDF

Info

Publication number
WO2008044592A1
WO2008044592A1 PCT/JP2007/069463 JP2007069463W WO2008044592A1 WO 2008044592 A1 WO2008044592 A1 WO 2008044592A1 JP 2007069463 W JP2007069463 W JP 2007069463W WO 2008044592 A1 WO2008044592 A1 WO 2008044592A1
Authority
WO
WIPO (PCT)
Prior art keywords
optical flow
moving object
image
point
feature points
Prior art date
Application number
PCT/JP2007/069463
Other languages
English (en)
French (fr)
Inventor
Tokihiko Akita
Keita Hayashi
Original Assignee
Aisin Seiki Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Kabushiki Kaisha filed Critical Aisin Seiki Kabushiki Kaisha
Priority to US12/442,286 priority Critical patent/US8290209B2/en
Priority to EP07829201.8A priority patent/EP2081154B9/en
Publication of WO2008044592A1 publication Critical patent/WO2008044592A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Definitions

  • Moving object recognition apparatus moving object recognition method and computer program
  • the present invention relates to a moving object recognition device that recognizes a moving object using an image, a moving object recognition method, and a computer program.
  • Patent Document 1 the technology of Patent Document 1 is based on the fact that an optical flow derived from a captured image matches an optical flow corresponding to the traveling speed of the vehicle by the vehicle speed sensor.
  • Patent Document 2 describes a technique for recognizing another vehicle even when traveling in a certain place.
  • the technique of Patent Document 2 detects, as an optical flow, a movement in a direction diverging from an infinite point of the point at the same point in a predetermined time period after a predetermined time after imaging the rear side of the own vehicle. Then, the position of the infinity point of the optical flow is changed by the movement amount calculated based on the traveling direction information and the traveling distance information of the own vehicle.
  • Patent Document 3 describes a technology for recognizing a moving object around a vehicle from an optical flow obtained even when the vehicle is traveling straight! There is.
  • the technique of Patent Document 3 classifies optical flows calculated from time-series images into a plurality of groups in which changes are continuous.
  • the optical flow is corrected based on the movement direction of the vehicle estimated from the vehicle speed sensor and the rate sensor. Then, the moving object is extracted from the corrected optical flow group, and the relative velocity is calculated.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 6-130076
  • Patent Document 2 Japanese Patent Application Laid-Open No. 9 86314
  • Patent Document 3 Japanese Patent Application Laid-Open No. 6-282655 Disclosure of the invention
  • the prior art uses an image to recognize an approaching vehicle from the rear side.
  • the moving object is detected from the difference between the optical flow and the vehicle speed.
  • the vehicle speed corresponds to the optical flow in the background.
  • the directional force of the optical flow from the infinity point is the force that is detecting the moving body. Also in appearance (on the image plane), the flow can not be grouped.
  • grouping can not be performed because the geometric size is different at the position on the image only by the continuity of the force change in which the change divides the continuous optical flow into a plurality of groups. There is.
  • the direction and size may change, making grooving difficult and making a mistake.
  • the present invention has been made in view of the above circumstances, and an object thereof is to provide a moving object recognition device capable of accurately detecting a moving object from an image.
  • a moving object recognition apparatus comprising: imaging means for capturing an image of a time series; and each of the time series images captured by the imaging means Optical flow generation means for extracting feature points and optical flow generation means for generating an optical flow which is a vector connecting the feature points having the same pattern by comparing the feature points of the time-series images among different images
  • the extension line of the optical flow intersects at one vanishing point within a predetermined error range, and one end point of the optical flow in the extension line of the optical flow is set as an external dividing point
  • An optical flow in which an external division ratio of a line segment connecting the other end point of the optical flow and the vanishing point is equal within a predetermined error range to one moving object Suruo And grouping means for selecting as a schematic flow.
  • the image processing apparatus further comprises an image correction unit for correcting the image picked up by the image pickup unit into a perspective view in accordance with the characteristics of the lens of the image pickup unit, and the feature point extraction unit comprises the image correction unit. Extracting the feature points of the image corrected by
  • optical flow grouped by the grouping unit may be provided with a distance calculation unit that calculates the distance from the imaging unit to the moving object.
  • a moving object recognition apparatus is an imaging means for imaging time-series images, and feature point extraction for extracting feature points of each of the time-series images imaged by the imaging means.
  • the optical flow from the optical flow including the distance detection means for detecting the distance to at least one feature point extracted by the point extraction means, the distance to the feature point detected by the distance detection means, and the feature point
  • a displacement calculating means for calculating the displacement of the feature points in the image, and a feature point having the same displacement calculated by the displacement calculating means is selected as a feature point belonging to one moving object
  • Displacement point selecting means characterized in that it comprises a.
  • the image processing apparatus further comprises an image correction unit that corrects an image picked up by the image pickup unit into a perspective view in accordance with the characteristics of the lens of the image pickup unit, and the feature point extraction unit includes the image correction unit. Extracting the feature points of the image corrected by the image correction unit.
  • the distance detection means intersects the extension of the optical flow at one vanishing point within a predetermined error range, and the optical flow at the extension of the optical flow.
  • the optical flow belonging to one moving object is an optical flow in which the external division ratio of the line connecting the other end of the optical flow and the vanishing point is equal to each other with a predetermined error range.
  • a distance calculating unit that calculates a distance from the imaging unit to the moving object using the grouping unit selected as a flow and the optical flow grouped by the grouping unit, and the calculation is performed by the distance calculating unit. This distance may be taken as the distance to the feature point.
  • the distance detection means may be configured to measure the distance to the moving object by physical means using light, electromagnetic waves, sound waves or the like.
  • a moving object recognition method includes an imaging step of inputting a time-series image, and extracting feature points of each of the time-series images input in the imaging step. Generating an optical flow which is a vector connecting the characteristic points of the time-series images by comparing the characteristic points of the time-series images among different images; an optical flow generation step of the optical flow generation step; The extension line of the optical flow intersects at one vanishing point within a predetermined error range, and one end point of the optical flow in the extension line of the optical flow is an external dividing point.
  • the method further comprises an image correction step of correcting the image input in the imaging step into a perspective view in accordance with the characteristics of the lens of the imaging means, the feature point extraction step correcting the image point in the image correction step. Extracting the feature points of the extracted image.
  • a computer program comprises a computer, an image input unit for inputting a time-series image from an imaging unit, and feature points of each image in time series input by the image input unit.
  • the feature point extracting means for extracting and the feature point of the time-series image are compared between different images, and the optical point, which is a vector connecting the feature points having the same pattern whose position is changed on the image, is
  • the optical flow generation means to generate and the extension line of the optical flow in the optical flow intersect at one vanishing point within a predetermined error range, and one end point of the optical flow in the extension line of the optical flow And the external division ratio of the line connecting the other end of the optical flow and the vanishing point is equal within a predetermined error range. It is characterized in that it functions as grouping means for selecting an optical flow as an optical flow belonging to one moving object.
  • the feature point extracted from the time-series image is copied
  • the temporal flow can be correctly grouped for each moving object to detect the moving object.
  • FIG. 1 is a block diagram showing a logical configuration of a moving object recognition apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing an example of a physical configuration of a moving object recognition device.
  • FIG. 3 is a diagram for explaining an optical flow.
  • FIG. 6 is an example of the distortion-corrected image of FIG. 5;
  • FIG. 7 is a view showing an image obtained by normalizing the image of FIG.
  • FIG. 8 is a diagram showing an example of optical flow.
  • FIG. 10 is a diagram in which world coordinates of the optical flow are projected on the XY plane.
  • FIG. 11 is a flowchart showing an example of an operation of moving object recognition.
  • FIG. 12 is a block diagram showing an example of a logical configuration of a moving object recognition device according to a second embodiment.
  • FIG. 13 is a flowchart showing an example of the operation of moving object recognition according to the second embodiment. Explanation of sign
  • control unit feature point extraction means, optical flow generation means, grouping means, displacement calculation means, equal displacement point selection means, image correction means
  • Image correction unit (image correction means)
  • Grouping Processing Unit Grouping Means
  • Equal displacement point extraction processing unit (displacement calculation unit, equal displacement point selection unit)
  • FIG. 1 is a block diagram showing a logical configuration of a moving object recognition apparatus according to an embodiment of the present invention.
  • the moving object recognition apparatus 1 includes a camera 2, an image input unit 21, an image correction unit 22, a feature point extraction unit 23, an optical flow generation unit 24, a grouping processing unit 25, data It comprises a holding unit 5, a moving object determination unit 26, a display processing unit 27, a display device 7, and the like.
  • the data holding unit 5 stores and holds collected time-series image data 51, corrected time-series image data 52, feature point data 53, optical flow data 54, and grouping data 55.
  • the moving object recognition device 1 recognizes whether or not there is a moving object around the vehicle, and what kind of moving object it is. In particular, the moving object recognition device 1 detects a vehicle or the like approaching from the rear in the traveling direction of the vehicle.
  • FIG. 3 is a diagram for explaining an optical flow.
  • FIG. 3 schematically shows the case where the vehicle approaches the camera 2 as a moving object.
  • x2i be the feature point corresponding to xli in the past image ⁇ .
  • Current image
  • the optical flow of one object moving parallel to the camera coordinates has the following relationship when the image is a perspective view.
  • xli is the coordinates of the current image ⁇ ⁇ 1 feature point on the image
  • x2i is the coordinates of the past image ⁇ 2 feature point on the image
  • xfoe is the coordinates of the vanishing point on the image
  • C is a constant is there.
  • the camera 2 captures an image and converts it into digital image data.
  • the image input unit 21 inputs time-series image data from the camera 2 at fixed time intervals, and stores the image data as collected time-series image data 51 in the data holding unit 5.
  • a camera 2 for monitoring the rear of the vehicle 4 as shown in FIG. 4 can be used as the camera 2 for capturing a moving object.
  • the moving object recognition device 1 can be configured at low cost without the need to newly provide the camera 2.
  • the parking assist rear monitor camera is a wide-angle lens, the periphery of the image is distorted, and the resolution in the distance is low. Also, the rear monitor camera has a low mounting position. These conditions make it difficult to recognize approaching moving objects, which are inconvenient to process the image as real world coordinates.
  • the image correction unit 22 in FIG. 1 corrects distortion of the captured image according to the characteristics of the lens, and converts the image into a perspective image.
  • the image correction unit 22 stores the corrected image in the data holding unit 5 as correction time-series image data.
  • the coordinates (X, y) of the image in the perspective view and the coordinates ( ⁇ ′, y ′) of the corresponding uncorrected image have the following relationship.
  • (xO, yO) is the distortion center coordinates of the corrected image
  • (x'0, (x'0, y0) y'0) is the distortion center coordinates of the image before correction.
  • fn (r) is a camera lens distortion characteristic function.
  • 0 represents the tilt angle of the camera 2
  • represents a scale factor
  • e 0 represents the distance between the vanishing point before image conversion and the image center
  • H [hij] represents an image conversion matrix
  • FIG. 5 is an example of an image captured by a rear monitor camera with a wide-angle lens.
  • FIG. 6 is an example of the distortion-corrected image of FIG.
  • the white line of the road surface is curved, but in the corrected image of FIG. 6, the white line of the straight road is corrected to be straight.
  • FIG. 7 shows an image obtained by normalizing the image of FIG. This is further converted to an image captured with the camera 2 oriented horizontally.
  • the vertical line converges to a lower point.
  • the direction of the camera 2 is corrected to be horizontal! /, So the vertical lines become parallel! /.
  • feature points to be compared between the images are extracted from the corrected time-series image data.
  • the feature point extraction unit 23 extracts feature points from the corrected time-series image data 52 and stores the feature points in the data holding unit 5 as feature point data 53.
  • the optical flow generation unit 24 compares feature points between images and generates a vector connecting feature points with high pattern correlation as an optical flow.
  • the optical flow generation unit 24 stores the generated optical flow as optical flow data 54 in the data holding unit 5. The method of feature point extraction and optical flow generation will be described next.
  • a motion vector is calculated for a search area obtained by the background difference.
  • template matching can be adopted for various possible forces. It is important to select an image block that is easy to track for template matching. For example, KLT feature point calculation can be used.
  • a template is set around the obtained feature points, and it is an image after time series
  • NCC Normalized correlation
  • I is a luminance value vector of an area of N rows and M columns
  • T is a luminance value vector of a template area of N rows and M columns.
  • the bars above the variables represent the mean values within each area.
  • the movement restriction amount of the object is estimated according to the situation, and only the restricted area is searched to reduce the amount of calculation. For example, it does not search except in the approaching direction. Or, we do not search for areas with low physical possibility based on the amount of movement in the past.
  • objects close to camera 2 have a large amount of movement on the image, and therefore, they are hierarchized. It is possible to reduce the computational complexity by narrowing the search area by matching in the upper layer and performing the detailed search.
  • FIG. 8 shows an example of optical flow.
  • An open square indicates the feature point of the previous frame
  • an open circle indicates the point of the latest frame with a high correlation value.
  • optical flows that intersect at one vanishing point and have an equal external division ratio of several 1 are grouped as an optical cross of one object.
  • the grouping processing unit 25 groups optical flows, for example, as follows.
  • the number 1 has two parameters (disappearing point and external division ratio constant), and it is a grouping condition that the parameters have similar values for each optical flow. So we transform the number 1 into a straight line equation for two variables.
  • FIG. 9 (a) shows the x component of dxi with respect to the x coordinate of xli.
  • Figure 9 (b) shows the y component of dxi with respect to the y coordinate of xli.
  • RANSAC Random SAmple Consensu s
  • the optical flow belonging to another moving object is glued to another moving object by selecting a point that is on a straight line while allowing a certain error except for the points classified into one group. Can This can be repeated to recognize multiple moving objects.
  • the grouping processing unit 25 stores the grouped optical flow data as grouping data 55 in the data holding unit 5.
  • the moving object determination unit 26 determines a moving object from the grouping data 55. For example, the size of a moving object, the type of vehicle, etc. are determined from the arrangement of feature points.
  • the moving object determination unit 26 also calculates the distance to the moving object.
  • the distance to the moving object can be calculated by the following equation.
  • the distance Z is the direction cosine of the distance from the camera to the feature point of the object in the imaging direction.
  • the imaging direction is the direction of the optical axis of the camera, but when the image is normalized in the horizontal direction, it is in the horizontal direction (parallel to the road surface). In the following, the imaging direction is horizontal (parallel to the road surface).
  • image plane coordinates be (u, V)
  • world coordinates be (X, ⁇ , Z)
  • image center coordinates be (cu, cv).
  • f is the focal length of the camera 2
  • ⁇ u and ⁇ v are the physical intervals of the pixels in the horizontal and vertical directions, respectively
  • h is the camera height from the road surface.
  • R [rij] is a rotation matrix of projective transformation matrix coefficients
  • T [tk] T is a translation vector of projective transformation matrix coefficients.
  • the display processing unit 27 displays the result determined by the moving object determination unit 26 on the display device 7.
  • the relationship between the position of the rear approaching car and the host vehicle is shown in a plan view.
  • the display on the display 7 may be accompanied by sounds such as voice or chime.
  • FIG. 2 is a block diagram showing an example of the physical configuration of the moving object recognition device 1.
  • the moving object recognition apparatus 1 of the present invention shown in FIG. 1 is, as hardware shown in FIG. 2, as a control unit 11, a main storage unit 12, an external storage unit 13, an operation unit 14, a screen display unit 15, and transmission / reception. It consists of a unit 16, a camera 2, a distance measuring instrument 3 and a display 7.
  • the control unit 11, the main storage unit 12, the external storage unit 13, the operation unit 14, the screen display unit 15, and the transmission / reception unit 16 are all connected to the control unit 11 via the internal bus 10.
  • Control unit 11 includes a CPU (Central Processing Unit) and the like, and according to a program stored in external storage unit 13, image input unit 21, image correction unit 22, feature point extraction unit 23, optical flow
  • the processing of the generation unit 24, the grouping processing unit 25, the moving object determination unit 26, and the display processing unit 27 is executed.
  • the image input unit 21, the image correction unit 22, the feature point extraction unit 23, the optical flow generation unit 24, the grouping processing unit 25, the moving object determination unit 26 and the display processing unit 27 are executed by the control unit 11 It is realized by a program.
  • the main storage unit 12 is configured by a RAM (Random-Access Memory) or the like, and is used as a work area of the control unit 11.
  • the data holding unit 5 is stored and held in a part of the main storage unit 12 as a structure of a storage area.
  • the external storage unit 13 is a nonvolatile memory such as a flash memory, a hard disk, a DVD (Digital Versatile Disc), a DVD-RAM (Digital Versatile Disc Random-Access Memory), a DVD-RW (Digit al Versatile Disc Rewritable), etc. Configured in advance, stores in advance a program for causing the control unit 11 to perform the above-described processing, and supplies data of the program to the control unit 11 according to an instruction of the control unit 11. Store data. For example, time-series image data may be stored in the external storage unit 13.
  • the operation unit 14 includes a key switch, a jog dial, a pointing device such as a keyboard and a mouse, and an interface device for connecting them to the internal bus 10 so that the operator gives a command to the mobile object recognition device 1.
  • a command to input moving object recognition determination conditions and start of moving object recognition is input via the operation unit 14 and supplied to the control unit 11.
  • the display device 7 is composed of a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display) or the like, and the collection time-series image data is received by an instruction of the control unit 11 according to an instruction input from the operation unit 14. 51, correction time-series image data 52, moving object determination results and the like are displayed.
  • the screen display unit 15 converts data of a screen displayed on the display device 7 into a signal for driving the display device 7.
  • the display device 7 may include a speaker or a buzzer. In that case, the screen display unit 15 causes the display device 7 to output sound such as voice or chime.
  • the camera 2 converts the image of the lens into an electrical signal using a CCD or the like, and Output digitalized image data.
  • the distance measuring device 3 is, for example, a millimeter wave radar, a laser distance meter, an ultrasonic distance meter, etc., and outputs the distance to the object as an electrical signal. In the first embodiment, the distance measuring device 3 is not used. It is used to measure the distance to the object in the second embodiment described later.
  • the transmission / reception unit 16 is composed of a modem or network termination device, and a serial interface or LAN (Local Area Network) interface connected thereto.
  • the control unit 11 inputs time-series data from the camera 2 or the distance measuring device 3 via the transmission / reception unit 16.
  • control unit 11 performs the operation of the moving object recognition device 1 in cooperation with the main storage unit 12, the external storage unit 13, the operation unit 14, the screen display unit 15, and the transmission / reception unit 16.
  • FIG. 11 is a flowchart showing an example of the operation of moving object recognition.
  • the control unit 11 inputs a time-series image from the camera 2 via the transmission / reception unit 16 (step Al). Then, as described above, the image is corrected according to the lens characteristics of the camera 2 (step A2). Furthermore, the tilt angle of the camera 2 may be corrected to normalize the image in the horizontal direction.
  • the control unit 11 extracts feature points of the corrected image, for example, by the above-described KLT feature point extraction method (step A3).
  • the control unit 11 compares the extracted feature points between time-series images, and generates an optical flow by the template matching described above (step A4).
  • optical flows are grouped (step A5). As described above, among the points plotted as shown in FIG. 9, a point on a straight line is grouped as an optical flow belonging to the same moving object while allowing a certain error. Use RANSAC, for example, to determine if it is on a straight line. Then, a moving object is determined from the pattern of feature points belonging to the grouped optical flows (step A6). Furthermore, assuming that the lowest point of the optical flow is the road surface (on the same plane as the vehicle), the distance to the moving object may be calculated by the method shown in Eq.
  • step A7 When a moving object is recognized (step A7; Yes), the control unit 11 displays the information on the display device 7 through the screen display unit 15 (step A8). For example, the position of the rear approaching car is shown in plan view in relation to the host vehicle. Also, the display device 7 may allow the driver to hear sounds or sounds such as a chime. And, time-series image data input (step A1) Back, repeat moving object recognition. If the moving object is not recognized (step A 7; No), the moving object recognition is repeated without displaying (step Al).
  • the moving object recognition device 1 of the present invention it is possible to correctly group, for each moving object, an optical flow generated from time-series image data. As a result, it is possible to accurately recognize moving objects S.
  • the image is corrected according to the lens characteristics of the camera 2, for example, even for a rear camera using a wide-angle lens, the corrected image data, the generated optical flow, Group correctly.
  • FIG. 12 is a block diagram showing an example of a logical configuration of a mobile object recognition device 1 according to Embodiment 2 of the present invention.
  • the moving object recognition device 1 includes a camera 2, a distance measurement device 3, a data acquisition unit 28, an image correction unit 22, a feature point extraction unit 23, an optical flow generation unit 24, an equal displacement point extraction processing unit 29, data It comprises a holding unit 5, a moving object determination unit 26, a display processing unit 27, a display device 7, and the like.
  • the data holding unit 5 stores and holds collected time-series image data 51, distance data 56, corrected time-series image data 52, feature point data 53, optical flow data 54, and grouping data 55.
  • the camera 2, the image correction unit 22, the feature point extraction unit 23, the optical flow generation unit 24, the moving object determination unit 26, the display processing unit 27, and the display device 7 are the same as in the first embodiment.
  • the distance measuring device 3 is a measuring device that measures the distance by a physical method such as a millimeter wave radar, a laser distance meter, an ultrasonic distance meter, etc. Measure the distance.
  • the data acquisition unit 28 acquires time-series images from the camera 2 and stores the images in the data holding unit 5 as collection time-series image data 51. Further, the data acquisition unit 28 acquires data of the distance measuring device 3 and stores the data as the distance data 56 in the data holding unit 5.
  • the equal displacement point extraction processing unit 29 calculates the displacement of the feature point in the optical flow from the optical flow including the distance to the feature point and the feature point. Also, equal displacement The point extraction processing unit 29 groups feature points having the same calculated displacement as feature points belonging to one moving object. Then, the equal displacement point extraction processing unit 29 stores the data of the grouped optical flow as the grouping data 55 in the data holding unit 5. From the distance to the feature point which is the end point of the optical flow, World coordinates (X, Y) can be calculated. The distance Z here is the direction cosine of the distance from the camera to the feature point of the object in the imaging direction.
  • the imaging direction is the direction of the optical axis of the camera, but when the image is normalized in the horizontal direction, it is in the horizontal direction (parallel to the road surface). In the following, the shooting direction is horizontal (parallel to the road surface). Coordinates of the feature point in the image plane are (u, V), world coordinates are (X, ⁇ , Z), and image center coordinates are (cu, cv). (Xnum, Ynum) are world coordinates of the start point of the optical flow.
  • the force S can be obtained by using the previously calculated value as the world coordinate of the start point.
  • the z coordinate of the start point can be the value calculated previously, and the z coordinate of the end point can be the value calculated by Formula 9 assuming that the lowest point of the optical flow is a road surface. That is, the distance Z calculated in the first embodiment can be used. In that case, the distance measuring device 3 may not be used.
  • feature points with equal displacement (vector) in world coordinates can be averaged as belonging to one moving object.
  • the distance Z to the feature point of the processing area may be represented by one value, and the world coordinates may be calculated assuming that the distance z (direction cosine in the imaging direction) is the same.
  • grouping is performed as follows.
  • FIG. 13 is a flowchart showing an example of the operation of moving object recognition according to the second embodiment.
  • the control unit 11 inputs a time-series image from the camera 2 via the transmission / reception unit 16 (step BD o and the control unit 11 inputs distance data 56 from the distance measuring instrument 3 (step B2). Assuming that Z is the value calculated by the number 9 assuming that the lowest point of the optical flow is the road surface, Use the previous value. As described above, the control unit 11 corrects the image according to the lens characteristic of the camera 2 (step B3). Furthermore, the tilt angle of the camera 2 may be corrected to normalize the image in the horizontal direction.
  • the control unit 11 extracts the feature points of the corrected image, for example, by the above-mentioned KLT feature point extraction method (step B4).
  • the control unit 11 compares the extracted feature points between time-series images, and generates an optical flow by the template matching described above (step B5).
  • step B6 world coordinates of the feature point are calculated from the optical flow and the distance Z (step B6).
  • the distance Z is a value calculated by Equation 9 assuming that the lowest point of the optical flow is a road surface
  • the distance Z is calculated from the optical flow of the feature point that was the previous lowest point.
  • equidistant points are grouped (step B7). As described above, among the vectors plotted as shown in FIG. 10, a certain error is allowed, and vectors having the same direction and magnitude are grouped as optical flows belonging to the same moving object.
  • a moving object is determined from the pattern of feature points belonging to the grouped optical flows (step B8). Furthermore, assuming that the lowest point of the optical flow is a road surface (on the same plane as the vehicle), the distance to the moving object may be calculated by the method shown in Eq.
  • step B 9 If a moving object is recognized (step B 9; Yes), the control unit 11 displays the information on the display device 7 via the screen display unit 15 (step B 10). For example, the position of the rear approaching car is shown in plan view in relation to the host vehicle. In addition, the display device 7 may cause the driver to use sound or sound such as a chime. Then, the moving object recognition is repeated according to the time-series image data input (step B1). If the moving object is not recognized (step B9; No), the moving object recognition is repeated without displaying (step Bl).
  • the moving object recognition device 1 of the present invention it is possible to correctly group, for each moving object, an optical flow generated from time-series image data. As a result, it is possible to accurately recognize moving objects S.
  • the moving object recognition device 1 corrects the image according to the lens characteristics of the camera 2, for example, even with a rear camera using a wide-angle lens, the optical flow generated from the corrected image data is You can go straight on every moving object.
  • a center for performing processing of the moving object recognition device 1 including the control unit 11, main storage unit 12, external storage unit 13, operation unit 14, screen display unit 15, transmission / reception unit 16 and internal bus 10
  • This part can be realized using a normal computer system, not a dedicated system.
  • a computer program for executing the above operation may be stored in a recording medium (flexible disc, CD-ROM, DVD-ROM, etc.) readable by a computer and distributed, and the computer program may be installed in the computer.
  • the moving object recognition apparatus 1 may be configured to execute the above process.
  • the computer program may be stored in a storage device of a server device on a communication network such as the Internet, and the moving object recognition device 1 may be configured by downloading by a normal computer system.
  • the function of the moving object recognition device 1 is realized by sharing the OS (operating system) and the application program, or by the cooperation of the OS and the application program, etc., only the application program portion is recorded And may be stored in a storage device.
  • the computer program may be posted on a bulletin board (BBS, Bulletin Board System) on a communication network, and the computer program may be distributed via the network. Then, the computer program may be started up and executed in the same manner as other application programs under the control of the OS so that the above process may be executed.
  • BSS bulletin Board System
  • the present invention can be used for a moving object recognition apparatus for detecting moving objects by correctly grouping the optical flows of feature points extracted from time-series images for each moving object.

Description

明 細 書
移動物体認識装置、移動物体認識方法及びコンピュータプログラム 技術分野
[0001] 本発明は、画像を用いて移動物体を認識する移動物体認識装置、移動物体認識 方法及びコンピュータプログラムに関する。
背景技術
[0002] 近年、車両をより安全に運転できるように運転者に他車の接近を知らせる目的で、 車両に接近してくる移動物体、とりわけ進行方向の後方から接近する車両等を検知 する技術が提案されている。
[0003] 例えば、特許文献 1の技術は、撮像画像から導出されたオプティカルフローと、車 速センサによる自車の走行速度に対応したオプティカルフローとの一致、不一致に 基づいて、斜め後方の走行車を検出するものである。
[0004] 特許文献 2は、喑所を走行している場合においても他車両を認識するための技術 が記載されている。特許文献 2の技術は、自車両の後側方を撮像した所定時間相前 後する 2画像中における同一点について、当該点の無限遠点から発散する方向の移 動をオプティカルフローとして検出する。そして、自車両の走行方向情報及び走行距 離情報に基づいて算出した移動量により、オプティカルフローの無限遠点の位置を 変更する。
[0005] 特許文献 3は、自車が直進走行して!/、な!/、状況にお!/、ても得られたオプティカルフ ローから車両周囲の移動物体を認識する技術が記載されている。特許文献 3の技術 は、時系列の画像から算出されたオプティカルフローを、変化が連続的な複数群に 分類する。一方、車速センサ及びョーレートセンサから推定した自車の運動方向に 基づいてオプティカルフローを補正する。そして、補正されたオプティカルフロー群か ら移動物体を抽出し、相対速度を演算する。
特許文献 1:特開平 6— 130076号公報
特許文献 2:特開平 9 86314号公報
特許文献 3 :特開平 6— 282655号公報 発明の開示
発明が解決しょうとする課題
[0006] 従来技術は画像を使って後側方からの接近車を認識するものである力 これらは、
2枚の時系列画像からオプティカルフローを抽出し、オプティカルフローから接近車 両を検出する技術を基本としてレ、る。
[0007] 特許文献 1の技術では、オプティカルフローと自車速の差から移動体を検出してい る。画像面上では自車速は背景のオプティカルフローに対応している。背景とは異な るオプティカルフローを移動体と認識できる力 S、オプティカルフローをグルーピングし ないので、移動体ごとの対応が取れない。
[0008] 特許文献 2は、無限遠点からのオプティカルフローの方向力 移動体を検出してい る力 これも見かけ上 (画像面上)のフローをグルーピングすることはできない。
[0009] 特許文献 3は、変化が連続的なオプティカルフローを複数群に分けている力 変化 の連続性だけでは画像上の位置で幾何学的な大きさが異なる為、グルーピングがで きない場合がある。特に広角レンズを使用する場合、同一移動物体のオプティカルフ ローであっても接近時に広がりが大きいため、方向や大きさが変わってしまいグルー ビングが難しく、間違えてしまう場合があった。
[0010] 本発明は、上記事情に鑑みてなされたものであり、画像から移動物体を正確に検 出できる移動物体認識装置を提供することを目的とする。
課題を解決するための手段
[0011] 上記目的を達成するため、本発明の第 1の観点に係る移動物体認識装置は、時系 列の画像を撮像する撮像手段と、前記撮像手段で撮像した前記時系列の各画像の 特徴点を抽出する特徴点抽出手段と、前記時系列の画像の特徴点を異なる画像間 で比較して、同じパターンを有する前記特徴点を結ぶベクトルであるオプティカルフ ローを生成するオプティカルフロー生成手段と、前記オプティカルフローのうち、前記 オプティカルフローの延長線が所定の誤差範囲で 1点の消失点で交わり、かつ、前 記オプティカルフローの延長線において前記オプティカルフローの一方の端点を外 分点として、前記オプティカルフローの他方の端点と前記消失点とを結ぶ線分の外 分比が所定の誤差範囲で等しいオプティカルフローを、 1つの移動物体に属するォ プティカルフローとして選択するグルーピング手段と、を備えることを特徴とする。
[0012] 好ましくは、前記撮像手段で撮像した画像を、前記撮像手段のレンズの特性に合 わせて、透視図に補正する画像補正手段を備え、前記特徴点抽出手段は、前記画 像補正手段で補正された画像の特徴点を抽出することを特徴とする。
[0013] さらに、前記グルーピング手段でグルーピングしたオプティカルフローを用いて、前 記撮像手段から前記移動物体までの距離を算出する距離算出手段を備えてもよい。
[0014] 本発明の第 2の観点に係る移動物体認識装置は、時系列の画像を撮像する撮像 手段と、前記撮像手段で撮像した前記時系列の各画像の特徴点を抽出する特徴点 抽出手段と、前記時系列の画像の特徴点を異なる画像間で比較して、同じパターン を有する前記特徴点を結ぶベクトルであるオプティカルフローを生成するォプティカ ルフロー生成手段と、前記撮像手段から、前記特徴点抽出手段で抽出した少なくと も 1つの特徴点までの距離を検知する距離検知手段と、前記距離検知手段で検知し た特徴点までの距離と前記特徴点を含むオプティカルフローから、前記オプティカル フローにおける特徴点の変位を算出する変位算出手段と、前記変位算出手段で算 出された変位が等しい特徴点を 1つの移動物体に属する特徴点として選択する等変 位点選択手段と、を備えることを特徴とする。
[0015] 好ましくは、前記撮像手段で撮像した画像を、前記撮像手段のレンズの特性に合 わせて、透視図に補正する画像補正手段を備え、前記特徴点抽出手段は、前記画 像補正手段で補正された画像の特徴点を抽出することを特徴とする。
[0016] さらに、前記距離検知手段は、前記オプティカルフローのうち、前記オプティカルフ ローの延長線が所定の誤差範囲で 1点の消失点で交わり、かつ、前記オプティカル フローの延長線において前記オプティカルフローの一方の端点を外分点として、前 記オプティカルフローの他方の端点と前記消失点とを結ぶ線分の外分比が所定の誤 差範囲で等しいオプティカルフローを、 1つの移動物体に属するオプティカルフロー として選択するグルーピング手段と、前記グルーピング手段でグルーピングしたォプ ティカルフローを用いて、前記撮像手段から前記移動物体までの距離を算出する距 離算出手段と、を備え、前記距離算出手段で算出した距離を特徴点までの距離とし てもよい。 [0017] なお、前記距離検知手段は、光、電磁波もしくは音波などを用いる物理的手段によ つて前記移動物体までの距離を計測する構成としてもよい。
[0018] 本発明の第 3の観点に係る移動物体認識方法は、時系列の画像を入力する撮像 ステップと、前記撮像ステップで入力した前記時系列の各画像の特徴点を抽出する 特徴点抽出ステップと、前記時系列の画像の特徴点を異なる画像間で比較して、同 じパターンを有する前記特徴点を結ぶベクトルであるオプティカルフローを生成する オプティカルフロー生成ステップと、前記オプティカルフローのうち、前記ォプティカ ルフローの延長線が所定の誤差範囲で 1点の消失点で交わり、かつ、前記ォプティ カルフローの延長線において前記オプティカルフローの一方の端点を外分点として
、前記オプティカルフローの他方の端点と前記消失点とを結ぶ線分の外分比が所定 の誤差範囲で等しレ、オプティカルフローを選択するグルーピングステップと、を備え ることを特徴とする。
[0019] 好ましくは、前記撮像ステップで入力した画像を、前記撮像手段のレンズの特性に 合わせて、透視図に補正する画像補正ステップを備え、前記特徴点抽出ステップは 、前記画像補正ステップで補正された画像の特徴点を抽出することを特徴とする。
[0020] 本発明の第 4の観点に係るコンピュータプログラムは、コンピュータを、時系列の画 像を撮像手段から入力する画像入力手段と、画像入力手段で入力した時系列の各 画像の特徴点を抽出する特徴点抽出手段と、前記時系列の画像の特徴点を異なる 画像間で比較して、画像上で位置が変化した同じパターンを有する前記特徴点を結 ぶベクトルであるオプティカルフ口一を生成するオプティカルフロー生成手段と、前記 オプティカルフローのうち、前記オプティカルフローの延長線が所定の誤差範囲で 1 点の消失点で交わり、かつ、前記オプティカルフローの延長線において前記ォプティ カルフローの一方の端点を外分点として、前記オプティカルフローの他方の端点と前 記消失点とを結ぶ線分の外分比が所定の誤差範囲で等しいオプティカルフローを、 1つの移動物体に属するオプティカルフローとして選択するグルーピング手段、として 機能させることを特徴とする。
発明の効果
[0021] 本発明の移動物体認識装置によれば、時系列の画像から抽出した特徴点のォプ ティカルフローを、移動物体毎に正しくグルーピングして移動物体を検出できる。 図面の簡単な説明
[図 1]本発明の一実施の形態である移動物体認識装置の論理的な構成を示すブロッ ク図である。
[図 2]移動物体認識装置の物理的な構成の一例を示すブロック図である。
[図 3]オプティカルフローを説明する図である。
園 4]車両のカメラ取り付け位置の例を示す図である。
園 5]広角レンズの後方モニタカメラで撮像した画像の例である。
[図 6]図 5の歪みを補正した画像の例である。
[図 7]図 6の画像を正規化した画像を示す図である。
[図 8]オプティカルフローの例を示す図である。
園 9]オプティカルフローと消失点の外分比を変形した直線の式の X成分(a)と y成分
Figure imgf000007_0001
[図 10]オプティカルフローの世界座標を XY平面に投影した図である。
[図 11]移動物体認識の動作の一例を示すフローチャートである。
[図 12]実施の形態 2に係る移動物体認識装置の論理的な構成の例を示すブロック図 である。
[図 13]実施の形態 2の移動物体認識の動作の一例を示すフローチャートである。 符号の説明
1 移動物体認識装置
2 カメラ (撮像手段)
3 距離計測器 (距離検知手段)
5 データ保持部
7 表示装置
10 内部バス
11 制御部(特徴点抽出手段、オプティカルフロー生成手段、グルーピング手段、 変位算出手段、等変位点選択手段、画像補正手段)
12 主記憶部 13 外部記憶部
14 操作部
15 画面表示部
16 送受信部
21 画像入力部
22 画像補正部(画像補正手段)
23 特徴点抽出部 (特徴点抽出手段)
24 オプティカルフロー生成部(オプティカルフロー生成手段)
25 グルーピング処理部(グルーピング手段)
26 移動物体判定部
27 表示処理部
28 データ取得部
29 等変位点抽出処理部 (変位算出手段、等変位点選択手段)
51 収集時系列画像データ
52 補正時系列画像データ
53 特徴点データ
54 オプティカルフローデータ
55 グルーピングデータ
56 距離データ
発明を実施するための最良の形態
[0024] 以下、この発明の実施の形態について図面を参照しながら詳細に説明する。なお、 図中同一または相当部分には同一符号を付し、その説明は繰り返さない。本発明に 係る移動物体認識装置の一実施の形態として、車両の移動物体認識装置につ!/、て 、図を参照して説明する。
[0025] (実施の形態 1)
図 1は、本発明の一実施の形態である移動物体認識装置の論理的な構成を示す ブロック図である。移動物体認識装置 1は、カメラ 2、画像入力部 21、画像補正部 22 、特徴点抽出部 23、オプティカルフロー生成部 24、グルーピング処理部 25、データ 保持部 5、移動物体判定部 26、表示処理部 27、表示装置 7などから構成される。デ ータ保持部 5には、収集時系列画像データ 51、補正時系列画像データ 52、特徴点 データ 53、オプティカルフローデータ 54、グルーピングデータ 55が記憶保持される。 移動物体認識装置 1は、車両の周囲に移動物体があるかどうか、また、どのような移 動物体であるかを認識する。特に、移動物体認識装置 1は、車両進行方向の後方か ら接近する車両等を検出する。
[0026] ここで、オプティカルフローとそのグルーピング手法について説明する。図 3は、ォ プティカルフローを説明する図である。図 3では、移動物体として車両がカメラ 2の方 に近づいてくる場合を模式的に示す。現在の画像 Π における特徴点を xli (i= l . . . n)とする。過去の画像 Π における xliに対応する特徴点を x2iとする。現在の画像
2
Π に過去の画像 Π の特徴点 x2iを重ねて表したときに、 x2iから xliに向力、うベクトル
Figure imgf000009_0001
[0027] 画像が透視図である場合は、カメラ 2に固定された座標(カメラ座標)に対して平行 に(カメラ座標で直進)運動する物体の特徴点のオプティカルフローを延長すると、画 像上で、ある 1点で交わる(図 3)。カメラ座標に対して各特徴点は平行な直線を描く ので、これを透視図法で見れば平行線は 1点で交わるからである。この点を消失点( FOE : Focus Of Expansion)という。異なる移動物体が互いに平行に移動していなけ れば、それらのオプティカルフローは異なる消失点で交わる。
[0028] カメラ座標に対して平行に移動している 1つの物体のオプティカルフローは、画像 が透視図の場合は次の関係が成り立つ。
Figure imgf000009_0002
ここで、 xliは現在の画像 Π 1の特徴点の画像上の座標、 x2iは過去の画像 Π 2の特 徴点の画像上の座標、 xfoeは消失点の画像上の座標、 Cは定数である。
[0029] すなわち、オプティカルフローの一方の端点である現在の画像の特徴点 xliを外分 点として、オプティカルフローの過去の画像の特徴点 x2i (他方の端点)と消失点 xfoe とを結ぶ線分の外分比力 1つの平行移動する物体では一定である。したがって、 1 点の消失点で交わり、かつ、上記の外分比が等しいオプティカルフローを 1つの物体 のオプティカルフローとしてグルーピングできる。外分比としては上記のほかに、例え ば、消失点を外分点として、オプティカルフローの外分比をとつても 1つの平行移動 物体では一定である。
[0030] 図 1に戻って、移動物体認識装置 1の各部の作用を説明する。カメラ 2は画像を撮 像しデジタル画像データに変換する。画像入力部 21は、一定時間間隔でカメラ 2か ら時系列の画像データを入力し、画像データを収集時系列画像データ 51としてデー タ保持部 5に保存する。
[0031] 移動物体を撮像するカメラ 2として、例えば図 4に示すような車両 4の後方モニタ用 のカメラ 2を利用することができる。後方モニタ用のカメラ 2を用いることによって、新た にカメラ 2を設ける必要がなぐ低コストで移動物体認識装置 1を構成できる。
[0032] 駐車支援の後方モニタカメラは広角レンズであるので、画像の周辺が歪んでおり、 遠方の分解能が低い。また、後方モニタカメラは取り付け位置が低い。これらの条件 は、実世界座標として画像を処理するのに都合が悪ぐ接近する移動物体を認識す るのを難しくしている。
[0033] そこで、撮像した画像の歪みを補正する。図 1の画像補正部 22は、撮像した画像を レンズの特性に応じて歪みを補正し、透視図の画像に変換する。画像補正部 22は、 補正した画像を補正時系列画像データとしてデータ保持部 5に保存する。
[0034] 透視図の画像の座標 (X, y)とそれに対応する補正前画像の座標 (χ' , y' )は次の 式の関係がある。
Figure imgf000010_0001
χ' = r'! r . (x - x0 ) + χ'0 , ν'= /·' / r - y - ν0 ) + y ここで、 (xO, yO)は補正画像の歪み中心座標、(x'0、y'0)は補正前の画像の歪み中 心座標である。 fn(r)はカメラレンズ歪み特性関数である。
さらに、カメラ 2の向きを水平にした場合の画像に変換してもよい。カメラ 2の向きを 変える場合の変換は、変換前の座標を (χ' , y )、変換後の座標を (χ' , y )として、次 の式で表される。
國 χ,,_ ^ ( -y'。)+ ^ (v'— '。)+ ニ + 4 . 二 ! „ ' ヌ,,― _e0
Figure imgf000011_0001
ここで、 0はカメラ 2のチルト角、 ζはスケール因子、 e0は画像変換前の消失点と画像 中心の距離、 H= [hij]は画像変換行列をそれぞれ表す。
[0036] 図 5は、広角レンズの後方モニタカメラで撮像した画像の例である。図 6は、図 5の 歪みを補正した画像の例である。図 5では、路面の白線が湾曲しているが、図 6の補 正画像では直線道路の白線が補正されて直線になっている。図 7は図 6の画像を正 規化した画像を示す。これは、さらにカメラ 2の向きを水平にして撮像した画像に変換 したものである。図 6では、鉛直線が下方の 1点に収束する力 図 7ではカメラ 2の向き を水平に補正して!/、るので、鉛直線が平行になって!/、る。
[0037] 次に補正された時系列の画像データから、画像間の比較を行うための特徴点を抽 出する。特徴点抽出部 23は、補正時系列画像データ 52から特徴点を抽出し、特徴 点を特徴点データ 53としてデータ保持部 5に保存する。オプティカルフロー生成部 2 4は、特徴点を画像間で比較してパターンの相関の高い特徴点を結ぶベクトルをォ プティカルフローとして生成する。オプティカルフロー生成部 24は、生成したォプティ カルフローをオプティカルフローデータ 54としてデータ保持部 5に保存する。特徴点 抽出とオプティカルフロー生成の方法を次に説明する。
[0038] 背景差分によって得られた探索領域に対して、接近物体を検出するため、動きべク トルを算出する。動きベクトルの算出方法には各種考えられる力 比較的環境の変化 に強!/、テンプレートマッチングを採用することができる。テンプレートマッチングには 追跡しやすい画像ブロックを選択することが重要である。例えば、 KLT特徴点計算 法を用いることができる。
[0039] 輝度勾配 VI= [Ix, Iy] Tのモーメント行列を、
[数 4] b Ixly
Iylx ダ とおく。ここで、
[数 5コ
Ix =— , Iv =—
dx dy である。 KLT特徴量を λ 2/ λ 1 (行列 Μ (χ, y)の条件数 =固有値の比)、もしくは m in ( λ 2, λ ΐ)として、 KLT特徴点計算法は次の計算式で表される。
[数 6]
Ix1 + Iy1 (Ix1—か2 )2 2
=—— ^—— + J , + W
Figure imgf000012_0001
[0040] 得られた特徴点の周りにテンプレートを設定し、時系列の後の画像か
トと相関の高い領域を探索する。その移動ベクトルが動きベクトル (オプティカルフロ 一)として得られる。テンプレートマッチングの手法として、正規化相関法 (NCC)を採 用できる。正規化相関法の類似度 RNCCは次の式によって求められる。
[数 7]
Figure imgf000012_0002
ここで、 Iは N行 X M列の領域の輝度値ベクトル、 Tは N行 X M列のテンプレート領 域の輝度値ベクトルである。変数の上のバーはそれぞれの領域内の平均値を表す。
[0041] 領域の全探索を行うと計算量が大きいので、状況に応じて物体の移動制約量を想 定し、その制約された領域のみを探索して計算量を低減する。例えば、接近方向以 外は探索しない。または、過去の移動量から物理的に可能性が低い領域は探索しな い、等である。さらに、カメラ 2に近い物体は画像上で移動量が大きいので階層化処 理を行い、上位階層でのマッチングで探索領域を絞った上で詳細探索することによ つて、計算量を低減できる。
[0042] 図 8は、オプティカルフローの例を示す。 白抜きの四角が前回フレームの特徴点、 白抜きの丸がそれと相関値の高い最新フレームの点を表す。 1つの移動物体のォプ ティカルフローであっても、例えば、フロントグリルのオプティカルフローと後輪のォプ ティカルフローでは、方向と長さが異なり、 1つの移動物体のオプティカルフローとし てグノレ一ビングするのは難し!/、。
[0043] そこで、前述のとおり、 1点の消失点で交わり、かつ、数 1の外分比が等しいォプテ ィカルフローを 1つの物体のォプティカルフ口一としてグルーピングする。グルーピン グ処理部 25は、例えば、次のようにオプティカルフローをグルーピングする。
[0044] 数 1は 2つのパラメータ(消失点と外分比定数)があり、各オプティカルフローに対し て、パラメータが同様の値であることがグルーピングの条件である。そこで、数 1を 2つ の変数に対する直線の式に変形する。
[数 8コ
dxi =し - xli― C丄
ここで、 dxi = xli— x2i、 C l = C * xfoeである。
[0045] 各オプティカルフローに対して、 dxiと xliを X座標と y座標それぞれについて平面に プロットすると、図 9のようになる。図 9 (a)は、 xliの X座標に対する dxiの X成分を示す 。図 9 (b)は、 xliの y座標に対する dxiの y成分を示す。
[0046] 図 9のようにプロットした点のうち、ある誤差を許容して直線上にある点を同一の移 動物体に属するオプティカルフローとしてグルーピングできる。直線上にあるかどうか を判定するには種々の方法がある力 s、例えば、 RANSAC (RANdom SAmple Consensu s)を用いること力 Sできる。 RANSACは任意の 2点を選んで、その 2点を結ぶ直線の一 定許容幅内にある点の数を数え、最も点数の多レ、直線を選択するアルゴリズムであ る。選択された直線の一定許容幅内にある点を 1つのオプティカルフローのグループ とする。
[0047] 1つのグループに分類された点を除いて、さらにある誤差を許容して直線上にある 点を選択することによって、別の移動物体に属するオプティカルフローをグルーピン グできる。これを繰り返して、複数の移動物体を認識することができる。
[0048] グルーピング処理部 25は、グルーピングしたオプティカルフローのデータをグルー ビングデータ 55としてデータ保持部 5に保存する。移動物体判定部 26は、グルーピ ングデータ 55から移動物体を判定する。例えば、特徴点の配置から移動物体の大き さ、車種などを判定する。また、移動物体判定部 26は、移動物体までの距離を算出 することあでさる。
[0049] オプティカルフローの最下点を路面(自車と同じ平面上にある)と仮定して、次の式 で移動物体までの距離を算出することができる。ここでの距離 Zは、カメラから物体の 特徴点までの距離の撮像方向への方向余弦である。撮像方向はカメラの光軸の向き であるが、画像を水平方向に正規化した場合は、水平方向(路面に平行)である。以 下は、撮像方向を水平 (路面に平行)とする。画像平面座標を (u, V)、世界座標を( X, Υ, Z)、画像中心座標を(cu、 cv)とする。 U = u— cu、 V =v—cvとおく。
[数 9コ
Figure imgf000014_0001
ここで、 fはカメラ 2の焦点距離、 δ u、 δ νはそれぞれ横方向、縦方向の画素の物理 的間隔、 hは路面からのカメラ高さである。また、 R= [rij]は射影変換行列係数の回 転行列、 T= [tk]Tは射影変換行列係数の平行移動ベクトルである。
[0050] 表示処理部 27は、移動物体判定部 26で判定した結果を表示装置 7に表示する。
例えば、後方の接近車の位置の自車両との関係を平面図で示す。また、表示装置 7 の表示は、音声又はチャイムなどの音響を伴ってもょレ、。
[0051] 図 2は、移動物体認識装置 1の物理的な構成の一例を示すブロック図である。図 1 に示す本発明の移動物体認識装置 1は、ハードウェアとしては図 2に示すように、制 御部 11、主記憶部 12、外部記憶部 13、操作部 14、画面表示部 15、送受信部 16、 カメラ 2、距離計測器 3及び表示装置 7から構成される。制御部 11、主記憶部 12、外 部記憶部 13、操作部 14、画面表示部 15及び送受信部 16はいずれも内部バス 10を 介して制御部 11に接続されて!/、る。 [0052] 制御部 11は CPU (Central Processing Unit)等から構成され、外部記憶部 13に記 憶されているプログラムに従って、画像入力部 21、画像補正部 22、特徴点抽出部 2 3、オプティカルフロー生成部 24、グルーピング処理部 25、移動物体判定部 26及び 表示処理部 27の処理を実行する。画像入力部 21、画像補正部 22、特徴点抽出部 2 3、オプティカルフロー生成部 24、グルーピング処理部 25、移動物体判定部 26及び 表示処理部 27は、制御部 11とその上で実行されるプログラムで実現される。
[0053] 主記憶部 12は RAM (Random-Access Memory)等から構成され、制御部 11の作 業領域として用いられる。データ保持部 5は、主記憶部 12の一部に記憶領域の構造 体として記憶保持される。
[0054] 外部記憶部 13は、フラッシュメモリ、ハードディスク、 DVD (Digital Versatile Disc)、 DVD― RAM (Digital Versatile Disc Random-Access Memory)、 DVD— RW (Digit al Versatile Disc Rewritable)等の不揮発性メモリから構成され、前記の処理を制御 部 11に行わせるためのプログラムを予め記憶し、また、制御部 11の指示に従って、こ のプログラムのデータを制御部 11に供給し、制御部 11から供給されたデータを記憶 する。例えば、時系列画像データは、外部記憶部 13に格納されている場合がある。
[0055] 操作部 14は、オペレータが移動体認識装置 1に指令を与えるために、キースィッチ 、ジョグダイヤル、キーボード及びマウスなどのポインティングデバイス等と、それらを 内部バス 10に接続するインタフェース装置を備える。操作部 14を介して、移動物体 認識判定条件の入力、移動物体認識の開始などの指令が入力され、制御部 11に供 糸 m る。
[0056] 表示装置 7は、 CRT (Cathode Ray Tube)または LCD (Liquid Crystal Display)など から構成され、操作部 14から入力された指令に応じた制御部 11の命令によって、収 集時系列画像データ 51、補正時系列画像データ 52、移動物体判定結果などを表 示する。画面表示部 15は、表示装置 7に表示する画面のデータを、表示装置 7を駆 動する信号に変換する。
[0057] 表示装置 7は、スピーカ又はブザーなどを備えてもよい。その場合、画面表示部 15 は、音声又はチャイムなどの音響を表示装置 7から出力させる。
[0058] カメラ 2は、例えば、 CCDなどでレンズの結像を電気信号に変換し、画素ごとにデ ジタル化した画像データを出力する。距離計測器 3は、例えば、ミリ波レーダ、レーザ 距離計、超音波距離計などであって、物体までの距離を電気信号として出力する。 実施の形態 1では、距離計測器 3は用いない。後述する実施の形態 2で物体までの 距離を測定するのに用いる。
[0059] 送受信部 16は、モデム又は網終端装置、及びそれらと接続するシリアルインタフエ ース又は LAN (Local Area Network)インタフェースから構成されている。制御部 11 は、送受信部 16を介して、カメラ 2又は距離計測器 3から時系列データを入力する。
[0060] つぎに、移動物体認識装置 1の動作について説明する。なお、上述のように、移動 物体認識装置 1の動作は、制御部 11が主記憶部 12、外部記憶部 13、操作部 14、 画面表示部 15及び送受信部 16と協働して行う。
[0061] 図 11は、移動物体認識の動作の一例を示すフローチャートである。制御部 11は送 受信部 16を介してカメラ 2から時系列の画像を入力する (ステップ Al)。そして、前述 のとおり、カメラ 2のレンズ特性に応じて画像を補正する(ステップ A2)。さらに、カメラ 2のチルト角を補正して水平方向の画像に正規化してもよい。
[0062] 制御部 11は、補正された画像の特徴点を、例えば前述の KLT特徴点抽出法で抽 出する(ステップ A3)。制御部 11は、抽出した特徴点を時系列の画像間で比較し、 前述のテンプレートマッチングでオプティカルフローを生成する(ステップ A4)。
[0063] 次にオプティカルフローをグルーピングする(ステップ A5)。前述のとおり、図 9のよ うにプロットした点のうち、ある誤差を許容して直線上にある点を同一の移動物体に 属するオプティカルフローとしてグルーピングする。直線上にあるかどうかを判定する には、例えば、 RANSACを用いる。そして、グルーピングされたオプティカルフローに 属する特徴点のパターンから、移動物体を判定する(ステップ A6)。さらに、ォプティ カルフローの最下点を路面(自車と同じ平面上にある)と仮定して、数 9に示した方法 で移動物体までの距離を算出してもよい。
[0064] 移動物体が認識された場合は(ステップ A7; Yes)、制御部 11は、画面表示部 15 を介して、表示装置 7にその情報を表示する(ステップ A8)。例えば、後方の接近車 の位置を自車両との関係で平面図に示す。また、表示装置 7は、音声又はチャイムな どの音響で運転者にしらせてもよい。そして、時系列画像データ入力(ステップ A1) にもどって、移動物体認識を繰り返す。移動物体が認識されない場合は (ステップ A 7 ; No)、表示を行わずに移動物体認識を繰り返す (ステップ Al)。
[0065] 本発明の移動物体認識装置 1によれば、時系列の画像データから生成されたォプ ティカルフローを、移動物体ごとに正しくグルーピングできる。その結果、移動物体を 正確に認識すること力 Sできる。また、カメラ 2のレンズ特性に応じて画像を補正するの で、例えば、広角レンズを使用する後方カメラなどであっても、補正された画像データ 力、ら生成されたオプティカルフローを、移動物体ごとに正しくグルーピングできる。
[0066] (実施の形態 2)
次に、オプティカルフローにおける特徴点の座標を算出し、 2つの画像間の変位が 等しい特徴点を 1つの移動物体に属する特徴点としてグルーピングする場合の移動 物体認識装置 1について説明する。図 12は、本発明の実施の形態 2に係る移動物 体認識装置 1の論理的な構成の例を示すブロック図である。
[0067] 移動物体認識装置 1は、カメラ 2、距離計測器 3、データ取得部 28、画像補正部 22 、特徴点抽出部 23、オプティカルフロー生成部 24、等変位点抽出処理部 29、デー タ保持部 5、移動物体判定部 26、表示処理部 27、表示装置 7などから構成される。 データ保持部 5には、収集時系列画像データ 51、距離データ 56、補正時系列画像 データ 52、特徴点データ 53、オプティカルフローデータ 54、グルーピングデータ 55 が記憶保持される。
[0068] カメラ 2、画像補正部 22、特徴点抽出部 23、オプティカルフロー生成部 24、移動物 体判定部 26、表示処理部 27、表示装置 7は、実施の形態 1と同様である。
[0069] 距離計測器 3は、例えば、ミリ波レーダ、レーザ距離計、超音波距離計などの物理 的方法によって距離を測定する計測器であって、カメラ 2で撮像する方向にある物体 までの距離を計測する。データ取得部 28は、カメラ 2から時系列の画像を取得して、 該画像を収集時系列画像データ 51としてデータ保持部 5に保存する。また、データ 取得部 28は、距離計測器 3のデータを取得し、該データを距離データ 56としてデー タ保持部 5に保存する。
[0070] 等変位点抽出処理部 29は、特徴点までの距離とその特徴点を含むオプティカルフ ローから、そのオプティカルフローにおける特徴点の変位を算出する。また、等変位 点抽出処理部 29は、算出した変位が等しい特徴点を 1つの移動物体に属する特徴 点としてグルーピングする。そして、等変位点抽出処理部 29は、グルーピングしたォ プティカルフローのデータをグルーピングデータ 55としてデータ保持部 5に保存する オプティカルフローの端点である特徴点までの距離 から、以下の式で特徴点の世 界座標 (X, Y)を算出することができる。ここでの距離 Zは、カメラから物体の特徴点ま での距離の撮像方向への方向余弦である。撮像方向はカメラの光軸の向きであるが 、画像を水平方向に正規化した場合は、水平方向(路面に平行)である。以下は、撮 像方向を水平 (路面に平行)とする。特徴点の画像平面における座標を (u, V)、世界 座標を(X, Υ, Z)、画像中心座標を(cu、 cv)とする。 (Xnum, Ynum)はオプティカル フローの始点の世界座標である。始点の世界座標として、前回計算した値を用いるこ と力 Sできる。
[数 10]
+ (cu -u)(ri2t2 -r22ti)Sv +(cv -vXr12ti-ri2t1)Su +(rut2 -r22t1)SliSv
-― " X num.
Ynum = (cu — ")(''21'w— + - v r,iru - rn} )SuZ + - }n} )SuS,Z
+ — ") ' 3— ^Λ) +^v -vXr31t1 -r11ti)Su +(r21t1 -r11t2)SuSv γ― Y num
icu -ii ''3i''22 -ri2rn)Sv +(cv - v)(rnri2 - r12r31)^ + (rnr22 - r12rn )SuSv ここで、 Su、 Svはスケールファクタ、 R=[rij]は射影変換行列係数の回転行歹 IJ、 T = [tk]Tは射影変換行列係数の平行移動ベクトルである。すなわち、 6 Pan、 Θ Tilt, Θ Rollをカメラ取り付け角度、 T、 T、 Tをカメラ取り付け位置として、射影変換行列
X Y Z
係数は次の式で表される。
[数 11]
Figure imgf000019_0001
' ^ θραη 。 θ 0、[ 。 。 0、(co - sin ¾oii 。 0丫 1 0 。 Τχ
0 1 0 0 0 cos ¾;i - ^ em 0 sin 9Roll cos ¾oii 0 0 0 1 0 Γ7
~ - sm 0Pa„ 0 cos OPa„ 0 0 sm θΉΙί cos OTlJl 0 0 0 1 0 0 0 1
、 0 0 0 1 j、0 0 0 1 0 0 0 1 J o 0 0 \ J
[0072] 端点の zに関して、始点の z座標は前回計算した値、終点の z座標はオプティカル フローの最下点を路面と仮定して数 9で計算した値とすることができる。すなわち、実 施の形態 1で計算した距離 Zを用いることができる。その場合、距離計測器 3は用い なくてもよい。
[0073] 特徴点それぞれの距離 Zを計測して、特徴点の世界座標を計算すれば、世界座標 における変位 (ベクトル)が等しい特徴点を 1つの移動物体に属するものとして、グノレ 一ビングできる。近似的には、処理領域の特徴点までの距離 Zを 1つの値で代表して 、距離 z (撮像方向への方向余弦)が同じとみなして世界座標を計算してもよい。近 似的には、例えば次のようにグルーピングする。
[0074] 算出した端点を始点から終点へのベクトルとして、(X, Y)座標を平面にプロットす ると、図 10のようになる。このベクトルの方向と長さが同様のもの、すなわち、変位が 所定の誤差範囲で等しいオプティカルフローを、 1つの移動物体に属する特徴点とし てグルーピングする。グルーピングされたオプティカルフローから移動物体を判定し、 表示処理することは、実施の形態 1と同様である。
[0075] 次に、オプティカルフローにおける特徴点の座標を算出し、 2つの画像間の変位が 等しい特徴点を 1つの移動物体に属する特徴点としてグルーピングする場合の移動 物体認識装置 1の動作につ!/、て説明する。実施の形態 2における移動物体認識装 置 1の物理的な構成は、例えば図 2で示される。図 13は、実施の形態 2の移動物体 認識の動作の一例を示すフローチャートである。
[0076] 制御部 11は送受信部 16を介してカメラ 2から時系列の画像を入力する(ステップ B D oまた、制御部 11は距離計測器 3から距離データ 56を入力する (ステップ B2)。距 離 Zをオプティカルフローの最下点を路面と仮定して数 9で計算した値とする場合は 、前回の値を用いる。前述のとおり、制御部 11はカメラ 2のレンズ特性に応じて画像 を補正する(ステップ B3)。さらに、カメラ 2のチルト角を補正して水平方向の画像に 正規化してもよい。
[0077] 制御部 11は、補正された画像の特徴点を、例えば前述の KLT特徴点抽出法で抽 出する(ステップ B4)。制御部 11は、抽出した特徴点を時系列の画像間で比較し、前 述のテンプレートマッチングでオプティカルフローを生成する(ステップ B5)。
[0078] 次に、オプティカルフローと距離 Zから特徴点の世界座標を計算する(ステップ B6) 。距離 Zをオプティカルフローの最下点を路面と仮定して数 9で計算した値とする場 合は、前回の最下点だった特徴点のオプティカルフローから距離 Zを計算する。そし て、等変位点をグルーピングする(ステップ B7)。前述のとおり、図 10のようにプロット したベクトルのうち、ある誤差を許容して同じ方向と大きさのベクトルを同一の移動物 体に属するオプティカルフローとしてグルーピングする。
[0079] グルーピングされたオプティカルフローに属する特徴点のパターンから、移動物体 を判定する(ステップ B8)。さらに、オプティカルフローの最下点を路面(自車と同じ平 面上にある)と仮定して、数 9に示した方法で移動物体までの距離を算出してもよい。
[0080] 移動物体が認識された場合は(ステップ B9 ; Yes)、制御部 11は、画面表示部 15を 介して、表示装置 7にその情報を表示する(ステップ B 10)。例えば、後方の接近車の 位置を自車両との関係で平面図に示す。また、表示装置 7は、音声又はチャイムなど の音響で運転者にしらせてもよい。そして、時系列画像データ入力(ステップ B1)にも どって、移動物体認識を繰り返す。移動物体が認識されない場合は (ステップ B9 ; N o)、表示を行わずに移動物体認識を繰り返す (ステップ Bl)。
[0081] 本発明の移動物体認識装置 1によれば、時系列の画像データから生成されたォプ ティカルフローを、移動物体ごとに正しくグルーピングできる。その結果、移動物体を 正確に認識すること力 Sできる。また、移動物体認識装置 1は、カメラ 2のレンズ特性に 応じて画像を補正するので、例えば、広角レンズを使用する後方カメラなどであって も、補正された画像データから生成されたオプティカルフローを、移動物体ごとに正し くグノレーピングできる。
[0082] その他、前記のハードウェア構成やフローチャートは一例であり、任意に変更及び 修正が可能である。
[0083] 制御部 11、主記憶部 12、外部記憶部 13、操作部 14、画面表示部 15、送受信部 1 6及び内部バス 10などから構成される移動物体認識装置 1の処理を行う中心となる 部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能で ある。例えば、前記の動作を実行するためのコンピュータプログラムを、コンピュータ が読みとり可能な記録媒体(フレキシブルディスク、 CD-ROM, DVD-ROM等)に格納 して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、 前記の処理を実行する移動物体認識装置 1を構成してもよい。また、インターネット 等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプロダラ ムを格納しておき、通常のコンピュータシステムがダウンロード等することで移動物体 認識装置 1を構成してもよい。
[0084] また、移動物体認識装置 1の機能を、 OS (オペレーティングシステム)とアプリケー シヨンプログラムの分担、または OSとアプリケーションプログラムとの協働により実現 する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格 納してもよい。
[0085] また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信する ことも可能である。たとえば、通信ネットワーク上の掲示板 (BBS, Bulletin Board Syste m)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプロ グラムを配信してもよい。そして、このコンピュータプログラムを起動し、 OSの制御下で 、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行で さるように構成してあよい。
[0086] 今回開示された実施の形態はすべての点で例示であって制限的なものではないと 考えられるべきである。本発明の範囲は上記の説明ではなくて請求の範囲によって 示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが 意図される。
[0087] 本出願は、 2006年 10月 6日に出願された日本国特許出願 2006— 275387号に基づ く。本明細書中に日本国特許出願 2006— 275387号の明細書、特許請求の範囲、図 面全体を参照として取り込むものとする。 産業上の利用可能性
本発明は、時系列の画像から抽出した特徴点のオプティカルフローを、移動物体 毎に正しくグルーピングして移動物体を検出するための移動物体認識装置に利用で きる。

Claims

請求の範囲
[1] 時系列の画像を撮像する撮像手段と、
前記撮像手段で撮像した前記時系列の各画像の特徴点を抽出する特徴点抽出手 段と、
前記時系列の画像の特徴点を異なる画像間で比較して、同じパターンを有する前 記特徴点を結ぶベクトルであるオプティカルフローを生成するオプティカルフロー生 成手段と、
前記オプティカルフローのうち、前記オプティカルフローの延長線が所定の誤差範 囲で 1点の消失点で交わり、かつ、前記オプティカルフローの延長線において前記ォ プティカルフローの一方の端点を外分点として、前記オプティカルフローの他方の端 点と前記消失点とを結ぶ線分の外分比が所定の誤差範囲で等しいオプティカルフロ 一を、 1つの移動物体に属するオプティカルフローとして選択するグルーピング手段 と、
を備えることを特徴とする移動物体認識装置。
[2] 前記撮像手段で撮像した画像を、前記撮像手段のレンズの特性に合わせて、透視 図に補正する画像補正手段を備え、
前記特徴点抽出手段は、前記画像補正手段で補正された画像の特徴点を抽出す ることを特徴とする請求項 1に記載の移動物体認識装置。
[3] 前記グルーピング手段でグルーピングしたオプティカルフローを用いて、前記撮像 手段から前記移動物体までの距離を算出する距離算出手段を備えることを特徴とす る請求項 1に記載の移動物体認識装置。
[4] 時系列の画像を撮像する撮像手段と、
前記撮像手段で撮像した前記時系列の各画像の特徴点を抽出する特徴点抽出手 段と、
前記時系列の画像の特徴点を異なる画像間で比較して、同じパターンを有する前 記特徴点を結ぶベクトルであるオプティカルフローを生成するオプティカルフロー生 成手段と、
前記撮像手段から、前記特徴点抽出手段で抽出した少なくとも 1つの特徴点までの 距離を検知する距離検知手段と、
前記距離検知手段で検知した特徴点までの距離と前記特徴点を含むオプティカル フローから、前記オプティカルフローにおける特徴点の変位を算出する変位算出手 段と、
前記変位算出手段で算出された変位が等しい特徴点を 1つの移動物体に属する 特徴点として選択する等変位点選択手段と、
を備えることを特徴とする移動物体認識装置。
[5] 前記撮像手段で撮像した画像を、前記撮像手段のレンズの特性に合わせて、透視 図に補正する画像補正手段を備え、
前記特徴点抽出手段は、前記画像補正手段で補正された画像の特徴点を抽出す ることを特徴とする請求項 4に記載の移動物体認識装置。
[6] 前記距離検知手段は、
前記オプティカルフローのうち、前記オプティカルフローの延長線が所定の誤差範 囲で 1点の消失点で交わり、かつ、前記オプティカルフローの延長線において前記ォ プティカルフローの一方の端点を外分点として、前記オプティカルフローの他方の端 点と前記消失点とを結ぶ線分の外分比が所定の誤差範囲で等しいオプティカルフロ 一を、 1つの移動物体に属するオプティカルフローとして選択するグルーピング手段 と、
前記グルーピング手段でグルーピングしたオプティカルフローを用いて、前記撮像 手段から前記移動物体までの距離を算出する距離算出手段と、を備え、
前記距離算出手段で算出した距離を特徴点までの距離とすることを特徴とする請 求項 4に記載の移動物体認識装置。
[7] 前記距離検知手段は、物理的手段によって前記移動物体までの距離を計測するこ とを特徴とする請求項 4に記載の移動物体認識装置。
[8] 時系列の画像を入力する撮像ステップと、
前記撮像ステップで入力した前記時系列の各画像の特徴点を抽出する特徴点抽 前記時系列の画像の特徴点を異なる画像間で比較して、同じパターンを有する前 記特徴点を結ぶベクトルであるオプティカルフローを生成するオプティカルフロー生 前記オプティカルフローのうち、前記オプティカルフローの延長線が所定の誤差範 囲で 1点の消失点で交わり、かつ、前記オプティカルフローの延長線において前記ォ プティカルフローの一方の端点を外分点として、前記オプティカルフローの他方の端 点と前記消失点とを結ぶ線分の外分比が所定の誤差範囲で等しいオプティカルフロ 一を選択するグルーピングステップと、
を備えることを特徴とする移動物体認識方法。
[9] 前記撮像ステップで入力した画像を、前記撮像手段のレンズの特性に合わせて、 透視図に補正する画像補正ステップを備え、
前記特徴点抽出ステップは、前記画像補正ステップで補正された画像の特徴点を 抽出することを特徴とする請求項 8に記載の移動物体認識方法。
[10] コンピュータを、
時系列の画像を撮像手段から入力する画像入力手段と、
前記画像入力手段で入力した時系列の各画像の複数の特徴点を抽出する特徴点 抽出手段と、
前記時系列の画像の特徴点を異なる画像間で比較して、画像上で位置が変化し た同じパターンを有する前記特徴点を結ぶベクトルであるオプティカルフローを生成 するオプティカルフロー生成手段と、
前記オプティカルフローのうち、前記オプティカルフローの延長線が所定の誤差範 囲で 1点の消失点で交わり、かつ、前記オプティカルフローの延長線において前記ォ プティカルフローの一方の端点を外分点として、前記オプティカルフローの他方の端 点と前記消失点とを結ぶ線分の外分比が所定の誤差範囲で等しいオプティカルフロ 一を、 1つの移動物体に属するオプティカルフローとして選択するグルーピング手段 として機能させることを特徴とするコンピュータプログラム。
PCT/JP2007/069463 2006-10-06 2007-10-04 Mobile object recognizing device, mobile object recognizing method, and computer program WO2008044592A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/442,286 US8290209B2 (en) 2006-10-06 2007-10-04 Mobile object recognizing device, mobile object recognizing method, and computer program thereof
EP07829201.8A EP2081154B9 (en) 2006-10-06 2007-10-04 Mobile object recognizing device, mobile object recognizing method, and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006275387A JP4367475B2 (ja) 2006-10-06 2006-10-06 移動物体認識装置、移動物体認識方法及びコンピュータプログラム
JP2006-275387 2006-10-06

Publications (1)

Publication Number Publication Date
WO2008044592A1 true WO2008044592A1 (en) 2008-04-17

Family

ID=39282796

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/069463 WO2008044592A1 (en) 2006-10-06 2007-10-04 Mobile object recognizing device, mobile object recognizing method, and computer program

Country Status (4)

Country Link
US (1) US8290209B2 (ja)
EP (1) EP2081154B9 (ja)
JP (1) JP4367475B2 (ja)
WO (1) WO2008044592A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8184857B2 (en) 2007-01-30 2012-05-22 Aisin Seiki Kabushiki Kaisha Moving object recognizing apparatus
JP2013133098A (ja) * 2011-12-23 2013-07-08 Hyundai Motor Co Ltd アラウンドビューモニタートップビュー基盤の駐車支援システム
WO2015170706A1 (ja) * 2014-05-07 2015-11-12 日本電産エレシス株式会社 移動物検知方法、及びプログラム

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4720859B2 (ja) * 2008-07-09 2011-07-13 カシオ計算機株式会社 画像処理装置、画像処理方法およびプログラム
US20130124147A1 (en) 2008-08-15 2013-05-16 Hailin Jin Random Sample Consensus for Groups of Data
KR101239566B1 (ko) 2008-09-30 2013-03-05 주식회사 만도 다물체 인식 방법 및 그 장치
JP5004923B2 (ja) * 2008-10-29 2012-08-22 本田技研工業株式会社 車両の運転支援装置
JP5152144B2 (ja) * 2009-10-07 2013-02-27 株式会社デンソーアイティーラボラトリ 画像処理装置
JP5644097B2 (ja) * 2009-12-08 2014-12-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
CN102111530B (zh) * 2009-12-24 2013-01-02 财团法人工业技术研究院 移动物体检测装置与方法
JP5533323B2 (ja) * 2010-06-21 2014-06-25 日産自動車株式会社 移動量推定装置及び移動量推定方法
US9342746B1 (en) * 2011-03-17 2016-05-17 UtopiaCompression Corporation Maneuverless passive range estimation using monocular image sequences
US10235577B1 (en) 2011-03-17 2019-03-19 UtopiaCompression Corporation Maneuverless passive range estimation using monocular image sequences
EP2698778B1 (en) 2011-04-13 2015-07-01 Nissan Motor Co., Ltd Driving assistance device and adjacent vehicle detection method therefor
US9547795B2 (en) * 2011-04-25 2017-01-17 Magna Electronics Inc. Image processing method for detecting objects using relative motion
JP5776769B2 (ja) * 2011-05-24 2015-09-09 富士通株式会社 物体接近検知装置、物体接近検知方法、及びプログラム
US9046364B2 (en) * 2011-06-14 2015-06-02 Nissan Motor Co., Ltd. Distance measurement device and environment map generation apparatus
JP5866238B2 (ja) * 2012-03-27 2016-02-17 富士重工業株式会社 車外環境認識装置および車外環境認識方法
JP5973843B2 (ja) * 2012-08-24 2016-08-23 富士重工業株式会社 車外環境認識装置および車外環境認識方法
US20160035107A1 (en) * 2013-04-25 2016-02-04 Wenming Zheng Moving object detection
CN103324932B (zh) * 2013-06-07 2017-04-12 东软集团股份有限公司 基于视频的车辆检测跟踪方法和系统
KR101738995B1 (ko) 2013-08-19 2017-05-23 젠텍스 코포레이션 에고 모션 검출을 구비한 촬상 시스템 및 방법
CN103679172B (zh) * 2013-10-10 2017-02-08 南京理工大学 一种通过转动红外探测器检测地面远距离运动目标的方法
WO2015125022A2 (en) * 2014-02-20 2015-08-27 Mobileye Vision Technologies Ltd. Navigation based on radar-cued visual imaging
JP6119643B2 (ja) * 2014-03-03 2017-04-26 トヨタ自動車株式会社 周辺監視装置及び物体判定方法
JPWO2015162910A1 (ja) * 2014-04-24 2017-04-13 パナソニックIpマネジメント株式会社 車載用表示装置、車載用表示装置の制御方法、プログラム
CN106796648B (zh) 2014-06-03 2020-11-24 御眼视觉技术有限公司 用于检测对象的系统和方法
US10042047B2 (en) * 2014-09-19 2018-08-07 GM Global Technology Operations LLC Doppler-based segmentation and optical flow in radar images
US10215851B2 (en) 2014-09-19 2019-02-26 GM Global Technology Operations LLC Doppler-based segmentation and optical flow in radar images
JP6265095B2 (ja) * 2014-09-24 2018-01-24 株式会社デンソー 物体検出装置
DE102014117708A1 (de) * 2014-12-02 2016-06-02 Connaught Electronics Ltd. Verfahren zum Klassifizieren eines Flussvektors, Fahrerassistenzsystem und Kraftfahrzeug
KR101531530B1 (ko) * 2014-12-31 2015-06-25 (주)스타넥스 이미지 분석 방법, 장치 및 컴퓨터로 판독가능한 장치
JP2016157197A (ja) * 2015-02-23 2016-09-01 株式会社リコー 自己位置推定装置、自己位置推定方法およびプログラム
JP6657925B2 (ja) * 2015-06-04 2020-03-04 ソニー株式会社 車載カメラ・システム並びに画像処理装置
US9430840B1 (en) * 2015-07-23 2016-08-30 Mitsubishi Electric Research Laboratories, Inc. Method and system for segmenting an image based on motion vanishing points
US11062174B2 (en) 2017-02-28 2021-07-13 Nec Solution Innovators, Ltd. Mobile entity detection apparatus, mobile entity detection method, and computer-readable recording medium
DE102017117211B3 (de) 2017-07-31 2018-09-06 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur trajektorienbasierten Merkmalszuordnung in einem von einer Bilderfassungseinheit eines Fahrzeugs erfassten Bild
CN109522910B (zh) * 2018-12-25 2020-12-11 浙江商汤科技开发有限公司 关键点检测方法及装置、电子设备和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0591513A (ja) * 1991-09-27 1993-04-09 Toshiba Corp 画像監視装置
US5265172A (en) 1989-10-13 1993-11-23 Texas Instruments Incorporated Method and apparatus for producing optical flow using multi-spectral images
JPH11211738A (ja) 1998-01-27 1999-08-06 Omron Corp 移動体の速度計測方法およびその方法を用いた速度計測装置
JP2001216519A (ja) 2000-02-04 2001-08-10 Fujitsu Ltd 交通監視装置
JP2002099906A (ja) 2000-09-22 2002-04-05 Mazda Motor Corp 物体認識装置
US6480615B1 (en) 1999-06-15 2002-11-12 University Of Washington Motion estimation within a sequence of data frames using optical flow with adaptive gradients
JP2003306102A (ja) * 2002-04-11 2003-10-28 Toshiba Corp 追越車両検出装置と運転支援システムの後側方警報装置
US20040062420A1 (en) 2002-09-16 2004-04-01 Janos Rohaly Method of multi-resolution adaptive correlation processing

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5036474A (en) 1989-03-31 1991-07-30 Honeywell Inc. Motion detection and tracking from a mobile platform
CA2054344C (en) * 1990-10-29 1997-04-15 Kazuhiro Itsumi Video camera having focusing and image-processing function
JP2940582B2 (ja) 1992-10-15 1999-08-25 ダイハツ工業株式会社 斜め後方走行車検出方法
JP3239521B2 (ja) 1993-03-30 2001-12-17 トヨタ自動車株式会社 移動体認識装置
JP3485135B2 (ja) 1995-09-27 2004-01-13 矢崎総業株式会社 車両用後側方監視装置
US6049619A (en) * 1996-02-12 2000-04-11 Sarnoff Corporation Method and apparatus for detecting moving objects in two- and three-dimensional scenes
US6124647A (en) * 1998-12-16 2000-09-26 Donnelly Corporation Information display in a rearview mirror
JP3580475B2 (ja) * 1998-09-14 2004-10-20 矢崎総業株式会社 周辺監視装置
JP3862015B2 (ja) * 2002-10-25 2006-12-27 オムロン株式会社 車載用レーダ装置
WO2005081178A1 (en) 2004-02-17 2005-09-01 Yeda Research & Development Co., Ltd. Method and apparatus for matching portions of input images

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5265172A (en) 1989-10-13 1993-11-23 Texas Instruments Incorporated Method and apparatus for producing optical flow using multi-spectral images
JPH0591513A (ja) * 1991-09-27 1993-04-09 Toshiba Corp 画像監視装置
JPH11211738A (ja) 1998-01-27 1999-08-06 Omron Corp 移動体の速度計測方法およびその方法を用いた速度計測装置
US6480615B1 (en) 1999-06-15 2002-11-12 University Of Washington Motion estimation within a sequence of data frames using optical flow with adaptive gradients
JP2001216519A (ja) 2000-02-04 2001-08-10 Fujitsu Ltd 交通監視装置
JP2002099906A (ja) 2000-09-22 2002-04-05 Mazda Motor Corp 物体認識装置
JP2003306102A (ja) * 2002-04-11 2003-10-28 Toshiba Corp 追越車両検出装置と運転支援システムの後側方警報装置
US20040062420A1 (en) 2002-09-16 2004-04-01 Janos Rohaly Method of multi-resolution adaptive correlation processing

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2081154A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8184857B2 (en) 2007-01-30 2012-05-22 Aisin Seiki Kabushiki Kaisha Moving object recognizing apparatus
JP2013133098A (ja) * 2011-12-23 2013-07-08 Hyundai Motor Co Ltd アラウンドビューモニタートップビュー基盤の駐車支援システム
WO2015170706A1 (ja) * 2014-05-07 2015-11-12 日本電産エレシス株式会社 移動物検知方法、及びプログラム

Also Published As

Publication number Publication date
US20090252377A1 (en) 2009-10-08
EP2081154B9 (en) 2015-02-25
US8290209B2 (en) 2012-10-16
EP2081154B1 (en) 2014-11-26
EP2081154A4 (en) 2011-05-04
EP2081154A1 (en) 2009-07-22
JP2008097126A (ja) 2008-04-24
JP4367475B2 (ja) 2009-11-18

Similar Documents

Publication Publication Date Title
WO2008044592A1 (en) Mobile object recognizing device, mobile object recognizing method, and computer program
US9811742B2 (en) Vehicle-surroundings recognition device
JP5867273B2 (ja) 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
JP4832321B2 (ja) カメラ姿勢推定装置、車両、およびカメラ姿勢推定方法
WO2010067770A1 (ja) 立体物出現検知装置
JP6891954B2 (ja) 物体検知装置、物体検知方法、及びプログラム
JP2002197469A (ja) 車線検出装置
JP5146446B2 (ja) 移動体検知装置および移動体検知プログラムと移動体検知方法
JP5240149B2 (ja) 車両周辺監視装置
US10152816B2 (en) Top-view image generating apparatus and method
JP6032034B2 (ja) 物体検知装置
JP2003028635A (ja) 画像測距装置
JP5155204B2 (ja) 白線検出装置
JP3395393B2 (ja) 車両周囲表示装置
JP2013069045A (ja) 画像認識装置、画像認識方法および画像認識プログラム
WO2010044127A1 (ja) 車外障害物高度検出装置
JP2008286648A (ja) 距離計測装置、距離計測システム、距離計測方法
JP4106163B2 (ja) 障害物検出装置及びその方法
JP2011070580A (ja) 運転支援装置
JP3951734B2 (ja) 車両用外界認識装置
JP2009077022A (ja) 運転支援システム及び車両
JP2004272694A (ja) 物体認識装置および物体認識方法
JP2004038760A (ja) 車両用走行路認識装置
JP4055785B2 (ja) 移動物体の高さ検出方法及び装置並びに物体形状判定方法及び装置
JP6488697B2 (ja) オプティカルフロー算出装置、オプティカルフロー算出方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07829201

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12442286

Country of ref document: US

Ref document number: 2007829201

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE