WO2012014627A1 - 車両周辺監視装置 - Google Patents

車両周辺監視装置 Download PDF

Info

Publication number
WO2012014627A1
WO2012014627A1 PCT/JP2011/065092 JP2011065092W WO2012014627A1 WO 2012014627 A1 WO2012014627 A1 WO 2012014627A1 JP 2011065092 W JP2011065092 W JP 2011065092W WO 2012014627 A1 WO2012014627 A1 WO 2012014627A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
edge
edge image
outer shape
vehicle
Prior art date
Application number
PCT/JP2011/065092
Other languages
English (en)
French (fr)
Inventor
洋介 坂本
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to EP11812220.9A priority Critical patent/EP2557540B1/en
Priority to US13/702,610 priority patent/US8867788B2/en
Priority to CN201180030094.1A priority patent/CN102985947B/zh
Priority to JP2012526390A priority patent/JP5718920B2/ja
Publication of WO2012014627A1 publication Critical patent/WO2012014627A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Definitions

  • the present invention relates to a vehicle periphery monitoring device that uses an in-vehicle camera to detect an object existing outside the vehicle.
  • Patent Document 1 a three-dimensional position of an object existing in front of a vehicle is calculated based on a stereo image in front of the vehicle acquired by two in-vehicle cameras, and based on the three-dimensional position information.
  • a technique for detecting a white line of a road on which a vehicle is traveling and a position of a side wall object is disclosed.
  • Patent Document 2 describes a technique for detecting saddle-shaped lane marks such as dots / botts and cat's eyes based on the shape of an object in a captured image acquired by an in-vehicle camera.
  • a travel line such as a white line from the captured image
  • a pylon arranged to indicate a road construction area or the like it may be necessary to identify whether the contained object is a pylon.
  • the white line on the road surface is distinguished from the side wall object based on the height of the object.
  • the technique found in Patent Document 1 does not specify what kind of structure the side wall object is composed of.
  • the luminance edge that indicates the outline of the object is extracted only when there is a significant difference in luminance between the object and the surrounding background in the captured image. To get. For this reason, there are many cases where a luminance edge can be extracted only with a part of the outline of the object depending on how the light strikes the object and the color of the object and its background.
  • the present invention has been made in view of such a background, and an object of the present invention is to provide a vehicle periphery monitoring device that can increase the accuracy of identifying the type of an object in a captured image acquired by an in-vehicle camera.
  • the vehicle periphery monitoring device of the present invention is the vehicle periphery monitoring device that detects an object existing outside the vehicle based on a captured image of the vehicle periphery acquired by the in-vehicle camera. Based on the luminance component of the image, a first edge as a discontinuous change portion of the value of the luminance component is extracted from the captured image, and a first edge that is an image constituted by the extracted first edge First edge image generating means for generating an image, and extracting a second edge as a discontinuous change portion of the value of the hue component or saturation component based on the hue component or saturation component of the captured image A second edge image generating means for generating a second edge image that is an image composed of the extracted second edges, and a composition obtained by combining the generated first edge image and the second edge image.
  • a combined edge image generating means for generating a wedge image, and an outer shape of the object indicated by an object outline image which is an image constituting an outline of an object included in the captured image among the generated synthesized edge images
  • Object type specifying means for determining whether the object matches the outer shape of the predetermined type of structure and specifying whether the object is the predetermined type of structure based on at least the determination result It is characterized by providing.
  • the first edge extracted from the captured image by the first edge image generation means is a discontinuous change portion of the luminance component value of the captured image (the magnitude of the luminance component value is This is an edge extracted as a portion that changes relatively rapidly. Therefore, the first edge is an edge extracted depending on the distribution of the luminance component of the captured image.
  • the second edge extracted from the captured image by the second edge image generation means is a discontinuous change portion (hue component or saturation component value) of the hue component or saturation component value of the captured image.
  • This is an edge that is extracted as a portion where the size of the change changes relatively rapidly. Therefore, the second edge is an edge extracted depending on the distribution of the hue component or the saturation component of the captured image.
  • the distribution of the hue component or the saturation component of the captured image is generally different from the distribution of the luminance component of the captured image. For this reason, even if it is a part which is not extracted as said 1st edge among the outlines of the object in a captured image, the probability extracted as a 2nd edge increases. Conversely, a part that is not extracted as the second edge in the outline of the object in the captured image may be extracted as the first edge.
  • the synthesized edge image obtained by synthesizing the first edge image and the second edge image by the synthesized edge image generating means the whole or many parts of the outline of the object included in the captured image are the first. It is included as an edge or a second edge.
  • the object type specifying means includes an outer shape of the object indicated by an object outer shape image that is an image constituting an outer shape line of the object included in the captured image in the generated synthesized edge image. Is determined to match the outer shape of the predetermined type of structure. Then, the object type specifying means specifies whether or not the object is the predetermined type of structure based on at least the determination result.
  • the reliability of the outer shape of the object indicated by the object outer shape image is high. For this reason, the reliability of the determination result as to whether or not the outer shape of the object indicated by the object outer shape image matches the outer shape of the predetermined type of structure is increased. Thereby, according to this invention, the specific precision of the kind of object in the captured image acquired by the vehicle-mounted camera can be improved.
  • the outer surface thereof is divided into a plurality of colored regions by a plurality of boundary lines extending parallel to each other in the horizontal direction or the oblique direction on the outer surface.
  • a structure for example, a pylon
  • the object type specifying means matches the outer shape of the object indicated by the object outer shape image to the outer shape of the predetermined type of structure, and is parallel to each other inside the object outer shape image.
  • the block diagram which shows the principal part structure of the vehicle periphery monitoring apparatus in embodiment of this invention.
  • the figure which shows the example of the 1st edge image obtained from the captured image of FIG. The figure which shows the example of the 2nd edge image obtained from the captured image of FIG.
  • a vehicle periphery monitoring device 1 is mounted on a vehicle (not shown) and includes an in-vehicle camera 2 and an image processing unit 3.
  • the in-vehicle camera 2 is mounted on the front part of the vehicle.
  • the in-vehicle camera 2 captures an image in front of the vehicle.
  • This in-vehicle camera 2 is constituted by a CCD camera or the like.
  • the in-vehicle camera 2 is a camera that captures an image in front of the vehicle as a color image. Therefore, the in-vehicle camera 2 generates and outputs a color video image signal.
  • the in-vehicle camera 2 may be a camera that captures an image of the rear or side of the vehicle.
  • the image processing unit 3 is an electronic circuit unit including a CPU, a RAM, a ROM, an interface circuit, etc. (not shown).
  • the image processing unit 3 receives a color video image signal generated by the in-vehicle camera 2.
  • This image processing unit 3 includes functions such as an image acquisition unit 4, a first edge image generation unit 5, a second edge image generation unit 6, an image composition unit 7, and an object type that are realized by executing the installed program.
  • a specifying unit 8 is provided.
  • the color video image signal generated by the in-vehicle camera 2 is taken into the image acquisition unit 4 of the image processing unit 3 at a predetermined calculation processing cycle.
  • the image acquisition unit 4 converts an image signal (an image signal for each pixel) that is an analog signal input from the in-vehicle camera 2 into digital data, and stores and stores the digital signal in an image memory (not shown).
  • the image acquisition unit 4 includes a luminance component image obtained by converting a luminance component of an input color video image signal into digital data, and a hue component and a saturation component of the image signal.
  • a hue component image obtained by converting a hue component into digital data is stored and held in an image memory. Accordingly, a luminance component image (an image in which the value of each pixel becomes the value of the luminance component) as a luminance component in the captured image acquired by the in-vehicle camera 2 and a hue component image (a value of each pixel) as a hue component. are stored in the image memory.
  • the luminance component image and the hue component image are given to the first edge image generation unit 5 and the second edge image generation unit 6, respectively. Then, the processes of the first edge image generation unit 5 and the second edge image generation unit 6 are executed next.
  • the first edge image generation unit 5 and the second edge image generation unit 6 have functions as a first edge image generation unit and a second edge image generation unit in the present invention, respectively.
  • the first edge image generation unit 5 to which the luminance component image is given performs processing of a known edge extraction filter such as a differential filter on the luminance component image. Accordingly, the first edge image generation unit 5 extracts the first edge as a discontinuous change portion (a portion where the luminance component value changes relatively abruptly) in the captured image. Further, the first edge image generation unit 5 generates a first edge image that is an image (binarized image) constituted by the first edges. Then, the first edge image generation unit 5 stores and holds the first edge image in an image memory (not shown).
  • a known edge extraction filter such as a differential filter
  • the first edge image generation unit 5 extracts the first edge as a discontinuous change portion (a portion where the luminance component value changes relatively abruptly) in the captured image. Further, the first edge image generation unit 5 generates a first edge image that is an image (binarized image) constituted by the first edges. Then, the first edge image generation unit 5 stores and holds the first edge image in an image memory (not shown).
  • the second edge image generation unit 6 to which the hue component image is given performs the same processing as the edge extraction filter on the hue component image. Thereby, the second edge image generation unit 6 extracts the second edge as a discontinuous change portion of the hue component value in the captured image (a portion where the value of the hue component changes relatively abruptly). Further, the second edge image generation unit 6 generates a second edge image that is an image (binarized image) constituted by the second edges. Then, the second edge image generation unit 6 stores and holds the second edge image in an image memory (not shown).
  • FIGS. 1-10 an example of a captured image acquired by the in-vehicle camera 2 and an example of the first edge image and the second edge image obtained from the captured image are shown in FIGS.
  • FIG. 2 shows an example of a captured image acquired by the in-vehicle camera 2.
  • images of the pylon 52 installed on the road 51 and its surroundings are taken.
  • the pylon 52 in the illustrated example is a structure including a base 53 and a conical main body 54 (cone part) projecting on the base 53.
  • subjected the referential mark 51a, 51b has shown the white line of the road 51.
  • the outer surface of the main body 54 of the pylon 52 is colored with two colors of red and white. More specifically, the outer surface of the main body 54 has a plurality of (in the illustrated example, a plurality of (in the illustrated example, two) boundary lines 55a and 55b that extend in the horizontal direction in parallel with each other. 3) colored regions 56a, 56b and 56c.
  • the boundary lines 55 a and 55 b are annular lines coaxial with the main body portion 54.
  • the uppermost colored area 56a and the lowermost colored area 56c which are colored areas with stippling, are colored in red, and the middle stage located between these colored areas 56a and 56c.
  • the colored region 56b is colored white. Therefore, the colored regions (56a, 56b) and (56b, 56c) that are adjacent to each other across the boundary lines 55a, 55b are colored with different colors.
  • the color of the base 53 of the pylon 52 is black or a color close thereto.
  • FIG. 3 shows an example of a first edge image generated by the first edge image generation unit 5 from the captured image shown in FIG.
  • the first edge from which the white portion in FIG. 3 is extracted is shown.
  • a part of the outline of the main body 54 of the pylon 52 in the captured image of FIG. 2 is extracted as the first edge indicated by reference numerals 57a, 57b, 57c, and 57d.
  • boundary lines 55a and 55b of the main body 54 of the pylon 52 are extracted as first edges indicated by reference numerals 57e and 57f.
  • the brightness difference between the white colored area 56b (particularly the side where the light strikes) of the main body 54 of the pylon 52 is relatively prominent with respect to the road 51 and the red colored areas 56a and 56c. Therefore, many portions of the outline of the main body 54 and the boundary lines 55a and 55b in the white colored region 56b are extracted as the first edges 57a to 57f.
  • the red colored areas 56 a and 56 c and the base 53 of the main body 54 of the pylon 52 are unlikely to have a luminance difference from the road 51. Therefore, the outline of the main body 52 and the outline of the base 53 in the red colored areas 56a and 56c are difficult to be extracted as the first edge.
  • the first edges indicated by reference numerals 57 g and 57 h are the first edges corresponding to the white lines 51 a and 51 b of the road 51.
  • the first edge indicated by reference numeral 57 i is a first edge extracted from an image such as grassy grass on the side of the road 51.
  • FIG. 4 shows an example of a second edge image generated by the second edge image generation unit 6 from the captured image shown in FIG.
  • the second edge from which the white portion in FIG. 4 is extracted is shown.
  • a part of the outline of the main body 54 of the pylon 52 in the captured image of FIG. 2 is extracted as the second edge indicated by reference numerals 58a, 58b, 58c, 58d, 58e, and 58f.
  • boundary lines 55a and 55b of the main body 54 of the pylon 52 are extracted as second edges indicated by reference numerals 58g and 58h.
  • the hue difference between the red colored areas 56a and 56c of the main body 54 of the pylon 52 and the road 51 and the white colored area 56b is relatively prominent. Therefore, many portions of the outline of the main body 54 and the boundary lines 55a and 55b in the red colored region 56b are extracted as the second edge.
  • the second edge indicated by reference numeral 58 i is a first edge corresponding to the outline of the base 53 of the pylon 52. Further, the second edge indicated by reference numeral 58j is a second edge extracted from an image of grass on the side of the road 51 or the like.
  • the first edge image and the second edge image generated and stored as described above are given to the image composition unit 7. Then, the process of the image generation unit 7 is executed next.
  • the image composition unit 7 has a function as a composite edge image generation means in the present invention.
  • the image synthesizing unit 7 synthesizes the first edge image and the second edge image (more specifically, synthesizes the values of pixels corresponding to each other in both edge images), thereby synthesizing the edge image (binarized image). Is generated. Then, the image composition unit 7 stores and holds the composite edge image in an image memory (not shown).
  • the image composition unit 7 sets the value of each pixel of the composite edge image (the value indicating whether an edge exists), the value of the pixel of the first edge image corresponding to the pixel, and the second value. It is set according to the pixel value of the edge image. That is, for each pixel of the composite edge image, the image composition unit 7 determines whether the value of the pixel of the first edge image corresponding to the pixel is a value indicating the presence of the first edge, or corresponds to the pixel When the value of the pixel of the second edge image is a value indicating the presence of the second edge, the value of the pixel of the composite edge image is set to a value indicating that the edge exists at the position of the pixel. .
  • the image composition unit 7 indicates that the value of the pixel of the first edge image corresponding to the pixel is a value indicating that the first edge does not exist, and the pixel If the value of the pixel of the second edge image corresponding to is a value indicating that the second edge does not exist, the value of the pixel of the composite edge image is set to indicate that no edge exists at the position of the pixel. Set to the value shown.
  • a combined edge image is generated by combining the first edge image and the second edge image. Therefore, in the composite edge image, the portion that becomes an edge is a portion in which at least one of the first edge and the second edge is extracted. Further, the portion that does not become an edge is a portion where both the first edge and the second edge are not extracted.
  • an edge in the composite edge image is referred to as a composite edge.
  • FIG. 5 shows an example of a composite edge image generated as described above.
  • This illustrated example is a combined edge image obtained by combining the first edge image and the second edge image shown in FIGS. 3 and 4 respectively.
  • a part of the outline of the main body 54 of the pylon 52 in the captured image of FIG. 2 is represented by a composite edge indicated by reference numerals 59a, 59b, 59c, 59d, 59e, and 59f.
  • the boundary lines 55a and 55b of the main body 54 of the pylon 52 are represented by synthetic edges indicated by reference numerals 59g and 59h.
  • the composite edge indicated by reference numeral 59 i is a composite edge corresponding to the outline of the base 53 of the pylon 52.
  • the composite edges indicated by reference numerals 59j and 59k are composite edges corresponding to the white lines 51a and 51b of the road 51.
  • the composite edge indicated by reference numeral 59m is a composite edge corresponding to an image such as grass on the side of the road 51.
  • the composite edge image generated / stored / held as described above is given to the object type identification unit 8. Then, the processing of the object type identification unit 8 is executed next.
  • the object type specifying unit 8 has a function as object type specifying means in the present invention.
  • the object type specifying unit 8 specifies whether or not the object included in the captured image acquired by the in-vehicle camera 2 is a predetermined type of structure.
  • the pylon 52 having the structure shown in FIG. 2 is one of the predetermined types of structures.
  • the object type identification unit 8 has a function of identifying whether or not the object included in the captured image acquired by the in-vehicle camera 2 is the same type of object as the pylon 52 having the structure shown in FIG. ing.
  • the processing of the object type identification unit 8 is performed as follows. That is, the object type identification unit 8 first extracts a composite edge (hereinafter referred to as an object composition composite edge) that is a component of the same object from a given composite edge image.
  • a composite edge hereinafter referred to as an object composition composite edge
  • the distance to the object in the imaging region of the in-vehicle camera 2 can be detected based on a stereo image, radar, or the like, the distance is approximately the same in the synthesized edge image. Extract included synthetic edges. This makes it possible to extract a composite edge (object structure composite edge) that is a component of the same object.
  • composite edges 59a to 59i are extracted as object constituent composite edges.
  • the object type specifying unit 8 determines that the outer shape (two-dimensional outer shape) of the object indicated by the object configuration combined edge corresponding to the outline of the object among the extracted object configuration combined edges is the pylon 52. It is determined whether or not the outer shape matches (hereinafter referred to as shape determination).
  • the object type identification unit 8 has an object configuration synthesis edge corresponding to the outline of the object among the object configuration synthesis edges (this corresponds to the object outline image in the present invention. ). Thereby, the object type identification unit 8 creates an image indicating the outer shape of the object. Then, the object type identification unit 8 compares the shape of the image with a shape pattern set in advance as indicating the outer shape of the pylon 52, so that the shape of the image matches the outer shape of the pylon 52. It is determined whether or not.
  • the image showing the outer shape of the object has a shape that approximates an isosceles triangle having an apex angle in a certain angle range, for example, it is determined that the shape of the image matches the outer shape of the pylon 52.
  • the composite edges 59a to 59f among the object constituent composite edges 59a to 59i and the outer periphery of the composite edge 59i are the object contour composite edges. Then, the shape of the image formed by connecting these object outline composite edges is compared with a shape pattern set in advance as indicating the outer shape of the pylon 52. In this case, the shape of the image is determined to match the outer shape of the pylon 52. Therefore, the determination result of the shape determination is positive.
  • the object type identification unit 8 includes a plurality of object configuration composite edges (in a region surrounded by the object contour composite edge) among the object configuration composite edges (a region surrounded by the object contour composite edge) extending in parallel to each other in the horizontal direction (
  • pattern determination it is determined whether or not there is an in-object horizontal composite edge (hereinafter referred to as pattern determination).
  • the in-object horizontal composite edge does not need to extend strictly in the horizontal direction.
  • the in-object horizontal composite edge may extend in an inclined direction within a predetermined angle range near zero with respect to the horizontal direction.
  • the composite edges 59g and 59h among the object constituent composite edges 59a to 59i are extracted as the horizontal composite edges in the object.
  • the pattern determination may be omitted.
  • the object type specifying unit 8 specifies whether or not the type of the object in the captured image is the same as that of the pylon 52 based on these determination results. .
  • the object type specifying unit 8 specifies that the type of the object in the captured image is the same as that of the pylon 52 when the determination results of both the shape determination and the pattern determination are affirmative. Further, the object type identification unit 8 identifies that the type of the object in the captured image is different from the pylon 52 when the determination result of either the shape determination or the pattern determination is negative.
  • the determination results of both the shape determination and the pattern determination are positive as described above.
  • the type of the object in the captured image acquired by the in-vehicle camera 2 is specified to be the same as that of the pylon 52.
  • the first edge image generated based on the luminance component of the captured image acquired by the imaging camera 2 and the second edge image generated based on the hue component of the captured image are combined.
  • the edge image it is specified whether or not the type of the object in the captured image is the same as that of the pylon 52.
  • the luminance component and the hue component of the captured image generally have different distribution patterns. Therefore, an edge that is not included in the first edge image is included in the second edge image as the second edge, or an edge that is not included in the second edge image is included in the first edge image as the first edge. become. Therefore, by combining the first edge image and the second edge image, the edges that are not extracted in the processes of the first edge image generation unit 5 and the second edge image generation unit 6 are complemented with each other.
  • a composite edge image as an image can be generated. That is, the composite edge image is an image including many portions of the outline of the object and the boundary line of the colored region in the captured image as the composite edge.
  • the reliability of these determination results can be increased by performing the above-described shape determination and pattern determination using the composite edge image. As a result, the type of the object in the captured image can be specified with high reliability.
  • the object in the captured image is the same type as the pylon 52. Therefore, it is possible to prevent the image of the pylon 52 from being confused with other objects or white lines on the road. As a result, an object other than the pylon 52 and a white line on the road can be detected from the captured image separately from the pylon 52.
  • the second edge image generation unit 6 generates the second edge image from the hue component image as the hue component in the captured image acquired by the vehicle-mounted camera 2.
  • the second edge image may be generated from a saturation component image as a saturation component in the captured image.
  • the saturation component of the captured image generally has a distribution pattern different from the luminance component of the captured image. For this reason, even if it produces
  • the object in the captured image is the same type of structure as the pylon 52 having the structure shown in FIG.
  • the type of the object is the same as another type of pylon having a structure different from that of the pylon 52.
  • the type of pylon to be specified may be the pylon 71 having the structure shown in FIG. 6 or the pylon 81 having the structure shown in FIG.
  • a pylon 71 illustrated in FIG. 6 is a structure including a base 72 and a columnar main body 73 projecting from the base 72.
  • the outer surface of the main body 73 of the pylon 71 is colored with two colors of red and white. More specifically, the outer surface of the main body 73 is formed by a plurality of (two in the illustrated example) boundary lines 75a and 74b extending in a diagonal direction (spiral) in parallel with each other on the outer surface (see FIG. It is divided into two colored regions 75a and 75b in the example shown.
  • a colored region 75a which is a colored region marked with stippling, is colored red, and a colored region 75b adjacent to the colored region 75a is colored white.
  • the image processing unit 3 When specifying whether or not the object in the captured image acquired by the in-vehicle camera 2 is the same type as the pylon 71 shown in FIG. 6, the image processing unit 3 acquires the image in the same manner as in the above embodiment. The process of the part 4, the 1st edge image generation part 5, the 2nd edge image generation part 6, and the image synthetic
  • an image (an image showing the outer shape of the object) obtained by connecting the object outline synthesis edges among the object configuration synthesis edges in the synthesis edge image generated by the image synthesis unit 7 is obtained.
  • a comparison is made with a shape pattern set in advance to indicate the outer shape of the pylon 71.
  • the object type identification unit 8 determines whether or not the shape of the image matches the outer shape of the pylon 71.
  • the pylon 81 illustrated in FIG. 7 is a structure including a base 82 and a barrel-shaped main body 83 protruding from the base 82.
  • the outer surface of the main body 83 of the pylon 81 is colored with two colors of red and white. More specifically, the outer surface of the main body portion 83 is defined by a plurality of (four in the illustrated example) boundary lines (annular lines) 84a, 84b, 84c, and 84d that extend in the horizontal direction in parallel with each other on the outer surface. It is divided into a plurality (five in the illustrated example) of colored areas 85a, 85b, 85c, 85d, and 85e.
  • the colored regions 85a, 85c, and 85e which are colored regions marked with stippling in FIG. 6, are colored in red. Further, a colored region 85b sandwiched between the red colored regions 85a and 85c and a colored region 85d sandwiched between the red colored regions 85c and 85e are colored white.
  • the image processing unit 3 When specifying whether or not the object in the captured image acquired by the in-vehicle camera 2 is the same type as the pylon 81 shown in FIG. 7, the image processing unit 3 acquires the image as in the above embodiment. The process of the part 4, the 1st edge image generation part 5, the 2nd edge image generation part 6, and the image synthetic
  • an image (an image showing the outer shape of the object) formed by connecting the object outline synthesis edges among the object configuration synthesis edges in the synthesis edge image generated by the image synthesis unit 7 is obtained.
  • a comparison is made with a shape pattern set in advance to indicate the outer shape of the pylon 81.
  • the object type identification unit 8 determines whether or not the shape of the image matches the outer shape of the pylon 81.
  • shape determination and pattern determination are performed.
  • the object in the captured image is the same type as the pylon 52 (or pylon 71 or pylon 81). It may be.
  • the present invention is useful as one that can accurately identify the type of an object existing outside a vehicle from an image captured by a vehicle-mounted camera.
  • SYMBOLS 1 Vehicle periphery monitoring apparatus, 2 ... In-vehicle camera, 5 ... This 1 edge image generation part (1st edge image generation means), 6 ... 2nd edge image generation part (2nd edge image generation means), 7 ... Image composition Parts (composite edge image generating means), 8... Object type specifying part (object type specifying means), 52, 71, 81... Pylon (a predetermined type of structure).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

 車載カメラ2により取得した撮像画像の輝度成分に基づいて第1エッジ画像を生成する第1エッジ画像生成手段5と、撮像画像の色相成分又は彩度成分に基づいて第2エッジ画像を生成する第2エッジ画像生成手段6と、第1エッジ画像及び第2エッジ画像を合成してなる合成エッジ画像を生成する合成エッジ画像生成手段7と、合成エッジ画像により示される物体の外形状に基づいて、物体が所定種類の構造物であるか否かを特定する物体種別特定手段8とを備える。

Description

車両周辺監視装置
 本発明は、車載カメラを使用して、車両の外部に存在する物体を検出する車両周辺監視装置に関する。
 車両の走行支援等を目的として、車載カメラによって車両周辺の撮像画像を取得し、その撮像画像を基に、車両の外部に存在する物体を監視する技術が従来より知られている。
 例えば特許文献1には、2台の車載カメラによって取得した車両前方のステレオ画像を基に、車両前方に存在する物体の三次元的な位置を算出し、この三次元的な位置情報を基に、車両が走行している道路の白線や、側壁物の位置を検出する技術が開示されている。
 また、例えば特許文献2には、車載カメラによって取得した撮像画像における物体の形状を基に、ドット・ボッツ、キャッツアイ等の鋲状のレーンマークを検出する技術が記載されている。
特許第3324821号 特許第4358147号
 車両周辺の撮像画像を基に、車両の外部に存在する物体を監視する場合に、ある特定の(所定種類の)構造物を、他の物体と区別して検出する必要が生じる場合がある。
 例えば、撮像画像から、白線等の走行区分線を検出する場合に、道路の工事領域等を示すために配列されるパイロンが走行区分線として検出されるのを防止するために、撮像画像中に含まれる物体がパイロンであるか否かを特定する必要が生じる場合がある。
 この場合、前記特許文献1に見られる技術では、物体の高さに基づいて、路面上の白線と、側壁物との区別はしている。ただし、特許文献1に見られる技術は、側壁物がどのような種類の構造物によって構成されたものであるかを特定するものではない。
 一方、撮像画像中の物体の種類を特定する場合、通常、特許文献2に記載されている如く、撮像画像中の物体の形状を検出し、この形状に基づいて物体の種類を特定することが行なわれる。
 このように物体の形状を検出する場合、撮像画像の輝度成分に基づいて、その輝度の不連続的な変化部としての輝度エッジを抽出し、この輝度エッジにより物体の形状を認識する手法が一般に知られている。
 しかるに、物体の外形線(物体とその周囲の背景との境界線)を示すものとしての輝度エッジは、撮像画像における物体とその周囲の背景との輝度差が顕著に発生する場合にのみ抽出し得るものである。このため、物体に対する光の当たり具合や、物体とのその背景との色合いによっては、物体の外形線の一部でしか、輝度エッジを抽出できない場合も多々ある。
 例えば、物体の一側面に光が当たり、反対側の側面が影になっているような場合には、反対側の側面の外形線に対応する輝度エッジは抽出され難い。また、例えば、物体の色とその周囲の背景色とが共に暗めの色合いである場合には、それらの色の境界での輝度エッジは抽出され難い。
 そして、このように物体の外形線の一部でしか、輝度エッジが抽出されない場合には、該物体の外形状を正しく認識することができない。このため、該物体の種別を正しく特定することができないという不都合がある。
 本発明は、かかる背景に鑑みてなされたものであり、車載カメラにより取得された撮像画像中の物体の種類の特定精度を高めることができる車両周辺監視装置を提供することを目的とする。
 本発明の車両周辺監視装置は、かかる目的を達成するために、車載カメラにより取得された車両周辺の撮像画像に基づいて、車両の外部に存在する物体を検出する車両周辺監視装置において、前記撮像画像の輝度成分に基づいて、該輝度成分の値の不連続的な変化部としての第1エッジを前記撮像画像から抽出し、その抽出された第1エッジにより構成される画像である第1エッジ画像を生成する第1エッジ画像生成手段と、前記撮像画像の色相成分又は彩度成分に基づいて、該色相成分又は彩度成分の値の不連続的な変化部としての第2エッジを抽出し、その抽出された第2エッジにより構成される画像である第2エッジ画像を生成する第2エッジ画像生成手段と、前記生成された第1エッジ画像と第2エッジ画像とを合成してなる合成エッジ画像を生成する合成エッジ画像生成手段と、前記生成された合成エッジ画像のうち、前記撮像画像に含まれる物体の外形線を構成する画像である物体外形画像により示される該物体の外形状が所定種類の構造物の外形状に合致するか否かを判定し、少なくとも該判定結果に基づいて、該物体が前記所定種類の構造物であるか否かを特定する物体種別特定手段とを備えることを特徴とする。
 かかる本発明において、前記第1エッジ画像生成手段が、前記撮像画像から抽出する前記第1エッジは、前記撮像画像の輝度成分の値の不連続的な変化部(輝度成分の値の大きさが比較的急激に変化する部分)として抽出されるエッジである。従って、該第1エッジは、前記撮像画像の輝度成分の分布に依存して抽出されるエッジである。
 一方、前記第2エッジ画像生成手段が前記撮像画像から抽出する前記第2エッジは、前記撮像画像の色相成分又は彩度成分の値の不連続的な変化部(色相成分又は彩度成分の値の大きさが比較的急激に変化する部分)として抽出されるエッジである。従って、該第2エッジは、前記撮像画像の色相成分又は彩度成分の分布に依存して抽出されるエッジである。
 この場合、前記撮像画像の色相成分又は彩度成分の分布は、一般には、該撮像画像の輝度成分の分布とは相違する。このため、撮像画像中の物体の外形線のうち、前記第1エッジとして抽出されない部分であっても、第2エッジとして抽出される確率が高まる。また、逆に、前記撮像画像中の物体の外形線のうち、第2エッジとして抽出されない部分が、第1エッジとして抽出される場合もある。
 従って、前記第1エッジ画像と第2エッジ画像とを前記合成エッジ画像生成手段により合成してなる合成エッジ画像においては、前記撮像画像に含まれる物体の外形線の全体もしくは多くの部分が第1エッジ又は第2エッジとして含まれるようになる。
 そこで、本発明では、前記物体種別特定手段は、前記生成された合成エッジ画像のうち、前記撮像画像に含まれる物体の外形線を構成する画像である物体外形画像により示される該物体の外形状が所定種類の構造物の外形状に合致するか否かを判定する。そして、物体種別特定手段は、少なくとも該判定結果に基づいて、該物体が前記所定種類の構造物であるか否かを特定する。
 この場合、前記物体外形画像により示される物体の外形状の信頼性が高いものとなる。このため、物体外形画像により示される該物体の外形状が所定種類の構造物の外形状に合致するか否かの判定結果の信頼性が高まる。これにより本発明によれば、車載カメラにより取得された撮像画像中の物体の種類の特定精度を高めることができる。
 かかる本発明においては、前記所定種類の構造物としては、例えば、その外表面が、該外表面上で互いに平行に水平方向もしくは斜め方向に延在する複数の境界線によって複数の着色領域に区分けされていると共に各境界線を挟んで互いに隣合う着色領域が互いに異なる色で着色されている構造物(例えばパイロン)が挙げられる。そして、この場合、前記物体種別特定手段は、前記物体外形画像により示される物体の外形状が前記所定種類の構造物の外形状に合致し、且つ、該物体外形画像の内側に、互いに平行に水平方向もしくは斜め方向に延在する複数の前記第1エッジ又は第2エッジが存在する場合に、該物体が前記所定種類の構造物であると判定することが好ましい。
 これによれば、前記物体外形画像により示される物体の外形状が前記所定種類の構造物の外形状に合致するものであることに加えて、該物体外形画像の内側に、互いに平行に水平方向もしくは斜め方向に延在する複数の前記第1エッジ又は第2エッジが存在する場合に、該物体が前記所定種類の構造物であると判定される。このため、該物体が前記所定種類の構造物であるか否かの特定精度をより一層高めることができる。
本発明の実施形態における車両周辺監視装置の要部構成を示すブロック図。 所定種類の物体(パイロン)を含む撮像画像の例を示す図。 図2の撮像画像から得られる第1エッジ画像の例を示す図。 図2の撮像画像から得られる第2エッジ画像の例を示す図。 図3の第1エッジ画像と図4の第2エッジ画像とを合成してなる合成エッジ画像の例を示す図。 図2の物体とは異なる種類の物体(パイロン)を含む撮像画像の例を示す図。 図2の物体とは異なる種類の物体(パイロン)を含む撮像画像の例を示す図。
 本発明の一実施形態を図1~図5を参照して説明する。
 図1を参照して、本実施形態の車両周辺監視装置1は、車両(図示省略)に搭載されたものであり、車載カメラ2と、画像処理ユニット3とを備える。
 車載カメラ2は、車両の前部に搭載されている。そして、車載カメラ2は、車両前方の画像を撮像する。この車載カメラ2は、CCDカメラ等により構成される。この場合、車載カメラ2は、車両前方の画像をカラー画像として撮像するカメラである。従って、車載カメラ2は、カラー映像の画像信号を生成して出力する。なお、車載カメラ2は、車両の後方又は側方の画像を撮像するカメラであってもよい。
 画像処理ユニット3は、図示を省略するCPU、RAM、ROM、インターフェース回路等を含む電子回路ユニットである。そして、画像処理ユニット3には、車載カメラ2で生成されたカラー映像の画像信号が入力される。
 この画像処理ユニット3は、実装されたプログラムを実行することによって実現される機能として、画像取得部4、第1エッジ画像生成部5、第2エッジ画像生成部6、画像合成部7及び物体種別特定部8を備える。
 以下に、画像処理ユニット3の各機能部の処理を含めて、該画像処理ユニット3の全体処理の詳細を説明する。
 車載カメラ2で生成されるカラー映像の画像信号は、所定の演算処理周期で画像処理ユニット3の画像取得部4に取り込まれる。この画像取得部4は、車載カメラ2から入力されるアナログ信号である画像信号(各画素毎の画像信号)をデジタルデータに変換し、図示しない画像メモリに記憶保持する。
 より詳しくは、画像取得部4は、入力されるカラー映像の画像信号のうちの輝度成分をデジタルデータに変換してなる輝度成分画像と、該画像信号のうちの色相成分及び彩度成分のいずれか一方、例えば色相成分をデジタルデータに変換してなる色相成分画像とを画像メモリに記憶保持する。これにより、車載カメラ2により取得された撮像画像のうちの輝度成分としての輝度成分画像(各画素の値が輝度成分の値となる画像)と、色相成分としての色相成分画像(各画素の値が色相成分の値となる画像)とが画像メモリに記憶保持される。
 上記輝度成分画像と色相成分画像とは、それぞれ、第1エッジ画像生成部5、第2エッジ画像生成部6に与えられる。そして、これらの第1エッジ画像生成部5、第2エッジ画像生成部6の処理が次に実行される。これらの第1エッジ画像生成部5、第2エッジ画像生成部6は、それぞれ、本発明における第1エッジ画像生成手段、第2エッジ画像生成手段としての機能を有するものである。
 輝度成分画像が与えられる第1エッジ画像生成部5は、該輝度成分画像に、微分フィルタ等の公知のエッジ抽出用フィルタの処理を施す。これにより、第1エッジ画像生成部5は、撮像画像における輝度成分の値の不連続的な変化部(輝度成分の値が比較的急激に変化する部分)としての第1エッジを抽出する。さらに、第1エッジ画像生成部5は、この第1エッジにより構成される画像(2値化画像)である第1エッジ画像を生成する。そして、第1エッジ画像生成部5は、この第1エッジ画像を図示しない画像メモリに記憶保持する。
 また、色相成分画像が与えられる第2エッジ画像生成部6は、該色相成分画像に、上記エッジ抽出用フィルタと同様の処理を施す。これにより、第2エッジ画像生成部6は、撮像画像における色相成分の値の不連続的な変化部(色相成分の値が比較的急激に変化する部分)としての第2エッジを抽出する。さらに、第2エッジ画像生成部6は、この第2エッジにより構成される画像(2値化画像)である第2エッジ画像を生成する。そして、第2エッジ画像生成部6は、この第2エッジ画像を図示しない画像メモリに記憶保持する。
 ここで、車載カメラ2により取得される撮像画像の一例と、この撮像画像から得られる上記第1エッジ画像及び第2エッジ画像の一例を図2~図4に示す。
 図2は、車載カメラ2により取得される撮像画像の一例を示している。この例では、道路51上に設置されたパイロン52とその周辺の画像が撮像されている。図示例のパイロン52は、基台53と、この基台53上に突設された円錐状の本体部54(コーン部)とを備える構造物である。なお、参照符号51a,51bを付した部分は、道路51の白線を示している。
 この場合、パイロン52の本体部54の外表面は、赤及び白の2色で着色されている。より詳しくは、本体部54の外表面は、該外表面上で互いに平行に水平方向に延在する複数(図示例では2つ)の境界線55a,55bによって、上下方向に複数(図示例では3つ)の着色領域56a,56b,56cに区分けされている。境界線55a,55bは、本体部54と同軸心の円環状の線である。
 そして、図2において点描を付した着色領域である最上段の着色領域56aと最下段の着色領域56cとが赤色に着色されていると共に、これらの着色領域56a,56cの間に位置する中段の着色領域56bが白色に着色されている。従って、各境界線55a,55bを挟んで互いに隣合う着色領域(56a,56b)、(56b,56c)が互いに異なる色で着色されている。なお、パイロン52の基台53の色は、黒もしくはそれに近い色である。
 図3は、図2に示す撮像画像から前記第1エッジ画像生成部5により生成される第1エッジ画像の例を示している。この図3における白抜き部分が抽出された第1エッジを示している。この例では、図2の撮像画像中のパイロン52の本体部54の外形線の一部が、参照符号57a,57b,57c,57dで示す第1エッジとして抽出されている。さらに、パイロン52の本体部54の境界線55a,55bが、参照符号57e,57fで示す第1エッジとして抽出されている。
 この場合、パイロン52の本体部54の白色の着色領域56b(特に光が当たっている側)は、道路51や、赤色の着色領域56a,56cとの輝度差が比較的顕著に生じやすい。そのため、その白色の着色領域56bにおける本体部54の外形線や境界線55a,55bの多くの部分が第1エッジ57a~57fとして抽出される。
 一方、パイロン52の本体部54の赤色の着色領域56a,56cや基台53は、道路51との輝度差が生じ難い。そのため、赤色の着色領域56a,56cにおける本体部52の外形線や基台53の外形線は、第1エッジとして抽出され難くなる。
 なお、図3中で、参照符号57g,57hで示す第1エッジは、道路51の白線51a,51bに相当する第1エッジである。また、参照符号57iで示す第1エッジは、道路51の側方の草むら等の画像から抽出される第1エッジである。
 図4は、図2に示す撮像画像から前記第2エッジ画像生成部6により生成される第2エッジ画像の例を示している。この図4における白抜き部分が抽出された第2エッジを示している。この例では、図2の撮像画像中のパイロン52の本体部54の外形線の一部が、参照符号58a,58b,58c,58d,58e,58fで示す第2エッジとして抽出されている。さらに、パイロン52の本体部54の境界線55a,55bが、参照符号58g,58hで示す第2エッジとして抽出されている。
 この場合、パイロン52の本体部54の赤色の着色領域56a,56cは、道路51や、白色の着色領域56bとの色相差が比較的顕著に生じやすい。そのため、その赤色の着色領域56bにおける本体部54の外形線や境界線55a,55bの多くの部分が第2エッジとして抽出される。
 一方、パイロン52の本体部54の白色の着色領域56bは、道路51との色相差が生じ難い。そのため、白色の着色領域56bにおける本体部54の外形線は、第2エッジとして抽出され難くなる。
 なお、図4中で、参照符号58iで示す第2エッジは、パイロン52の基台53の外形線に相当する第1エッジである。また、参照符号58jで示す第2エッジは、道路51の側方の草むら等の画像から抽出される第2エッジである。
 上記の如く生成・記憶保持された第1エッジ画像と第2エッジ画像とは、画像合成部7に与えられる。そして、この画像生成部7の処理が次に実行される。この画像合成部7は、本発明における合成エッジ画像生成手段としての機能を有するものである。
 画像合成部7は、第1エッジ画像と第2エッジ画像とを合成する(より詳しくは、両エッジ画像の互いに対応する画素の値を合成する)ことによって、合成エッジ画像(2値化画像)を生成する。そして、画像合成部7は、その合成エッジ画像を図示しない画像メモリに記憶保持する。
 具体的には、画像合成部7は、合成エッジ画像の各画素の値(エッジが存在するか否かを示す値)を、その画素に対応する第1エッジ画像の画素の値と、第2エッジ画像の画素の値とに応じて設定する。すなわち、画像合成部7は、合成エッジ画像の各画素に対して、該画素に対応する第1エッジ画像の画素の値が第1エッジの存在を示す値であるか、又は、該画素に対応する第2エッジ画像の画素の値が第2エッジの存在を示す値である場合には、合成エッジ画像の該画素の値を、該画素の位置にエッジが存在することを示す値に設定する。
 また、画像合成部7は、合成エッジ画像の各画素に対して、該画素に対応する第1エッジ画像の画素の値が、第1エッジが存在しないことを示す値であり、且つ、該画素に対応する第2エッジ画像の画素の値が、第2エッジが存在しないことを示す値である場合には、合成エッジ画像の該画素の値を、該画素の位置にエッジが存在しないことを示す値に設定する。
 これにより、第1エッジ画像と第2エッジ画像とを合成してなる合成エッジ画像が生成される。従って、該合成エッジ画像において、エッジとなる部分は、第1エッジ及び第2エッジのうちの少なくともいずれか一方が抽出された部分である。また、エッジとならない部分は、第1エッジ及び第2エッジの両方が抽出されない部分である。以降、合成エッジ画像におけるエッジを合成エッジという。
 図5は、上記の如く生成される合成エッジ画像の一例を示している。この図示例は、図3及び図4にそれぞれ示した第1エッジ画像と第2エッジ画像とを合成してなる合成エッジ画像である。この場合、図2の撮像画像中のパイロン52の本体部54の外形線の一部が、参照符号59a,59b,59c,59d,59e,59fで示す合成エッジにより表される。また、パイロン52の本体部54の境界線55a,55bが、参照符号59g,59hで示す合成エッジにより表される。
 なお、図5中で、参照符号59iで示す合成エッジは、パイロン52の基台53の外形線に相当する合成エッジである。また、参照符号59j,59kで示す合成エッジは、道路51の白線51a,51bに相当する合成エッジである。また、参照符号59mで示す合成エッジは、道路51の側方の草むら等の画像に相当する合成エッジである。
 上記の如く生成・記憶保持された合成エッジ画像は、物体種別特定部8に与えられる。そして、この物体種別特定部8の処理が次に実行される。この物体種別特定部8は、本発明における物体種別特定手段としての機能を有するものである。該物体種別特定部8は、車載カメラ2により取得した撮像画像中に含まれる物体が、所定種類の構造物であるか否かを特定する。
 この場合、本実施形態では、図2に示した構造のパイロン52を、上記所定種類の構造物の1つとする。そして、物体種別特定部8は、車載カメラ2により取得した撮像画像中に含まれる物体が、図2に示した構造のパイロン52と同一種類の物体であるか否かを特定する機能を有している。
 この物体種別特定部8の処理は次のように行われる。すなわち、物体種別特定部8は、まず、与えられた合成エッジ画像から、同一物体の構成要素となる合成エッジ(以下、物体構成合成エッジという)を抽出する。
 この場合、例えばステレオ画像やレーダ等を基に、車載カメラ2の撮像領域内の物体までの距離を検出することができる場合には、合成エッジ画像内において、当該距離がほぼ同一となる領域に含まれる合成エッジを抽出する。これにより、同一物体の構成要素となる合成エッジ(物体構成合成エッジ)を抽出することができる。
 図5に示した合成エッジ画像の例では、合成エッジ59a~59iが物体構成合成エッジとして抽出される。
 次いで、物体種別特定部8は、抽出した物体構成合成エッジのうちの、物体の外形線に相当する物体構成合成エッジによって示さる物体の外形状(二次元的な外形状)が、パイロン52の外形状に合致するか否かの判定(以下、形状判定という)を行なう。
 この形状判定では、物体種別特定部8は、物体構成合成エッジのうちの物体の外形線に相当する物体構成合成エッジ(これは本発明における物体外形画像に相当する。以下、物体外形合成エッジという)をつなぎ合わせる。これにより、物体種別特定部8は、物体の外形状を示す画像を作成する。そして、物体種別特定部8は、この画像の形状を、パイロン52の外形状を示すものとしてあらかじめ設定された形状パターンと比較することによって、該画像の形状が、パイロン52の外形状に合致するか否かを判定する。
 この場合、物体の外形状を示す画像が、例えば、ある角度範囲の頂角を有する二等辺三角形に近似する形状を有する場合に、該画像の形状が、パイロン52の外形状に合致すると判定される。
 図5に示した合成エッジ画像の例では、物体構成合成エッジ59a~59iのうちの合成エッジ59a~59fと、合成エッジ59iの外周部とが物体外形合成エッジとされる。そして、これらの物体外形合成エッジをつなぎ合わせてなる画像の形状が、パイロン52の外形状を示すものとしてあらかじめ設定された形状パターンと比較される。そして、この場合は、該画像の形状は、パイロン52の外形状に合致するものと判定されることとなる。従って、前記形状判定の判定結果が肯定的となる。
 さらに物体種別特定部8は、物体構成合成エッジのうちの物体外形合成エッジの内側(物体外形合成エッジにより囲まれた領域)に、互いに平行に水平方向に延在する複数の物体構成合成エッジ(以下、物体内水平合成エッジという)が存在するか否かの判定(以下、模様判定という)を行なう。なお、物体内水平合成エッジは、厳密に水平方向に延在するものである必要はない。該物体内水平合成エッジは、水平方向に対して、ゼロ近傍の所定角度範囲内で、傾斜した方向に延在するものであってもよい。
 図5に示した合成エッジ画像の例では、物体構成合成エッジ59a~59iのうちの合成エッジ59g,59hが物体内水平合成エッジとして抽出される。そして、この場合には、物体外形合成エッジの内側に、互いに平行に水平方向に延在する複数の物体内水平合成エッジが存在するものと判定されることとなる。従って、前記模様判定の判定結果が肯定的となる。
 なお、前記形状判定の判定結果が否定的となる場合には、前記模様判定を行なうことを省略してもよい。
 物体種別特定部8は、上記の如く形状判定及び模様判定を行なった後、これらの判定結果に基づいて、撮像画像中の物体の種類が、前記パイロン52と同一であるか否かを特定する。
 すなわち、物体種別特定部8は、前記形状判定及び模様判定の両方の判定結果が肯定的となる場合に、撮像画像中の物体の種類がパイロン52と同一であると特定する。また、物体種別特定部8は、前記形状判定及び模様判定のいずれかの判定結果が否定的となる場合に、撮像画像中の物体の種類がパイロン52と異なるものであると特定する。
 図5に示した合成エッジ画像の例では、前記した如く形状判定及び模様判定の両方の判定結果が肯定的となる。このため、図2に示す如く車載カメラ2により取得された撮像画像中の物体の種類がパイロン52と同じであると特定されることとなる。
 以上が本実施形態における画像処理ユニット3が実行する処理の詳細である。かかる本実施形態によれば、撮像カメラ2により取得した撮像画像の輝度成分に基づき生成した第1エッジ画像と、該撮像画像の色相成分に基づき生成した第2エッジ画像とを合成してなる合成エッジ画像を使用して、該撮像画像中の物体の種類がパイロン52と同一であるか否かが特定される。
 この場合、撮像画像の輝度成分と色相成分とは、一般には、互いに異なる分布パターンとなる。このため、第1エッジ画像に含まれないエッジが第2エッジとして第2エッジ画像に含まれたり、あるいは、第2エッジ画像に含まれないエッジが第1エッジとして第1エッジ画像に含まれるようになる。このため、これらの第1エッジ画像と第2エッジ画像とを合成することによって、第1エッジ画像生成部5及び第2エッジ画像生成部6のそれぞれの処理では抽出されないエッジを相互に補完してなる画像としての合成エッジ画像を生成することができる。すなわち、該合成エッジ画像は、撮像画像内の物体の外形線や着色領域の境界線の多くの部分を合成エッジとして含むような画像となる。
 そして、かかる合成エッジ画像を使用して、前記した形状判定及び模様判定を行なうことにより、これらの判定結果の信頼性を高めることができる。ひいては、撮像画像内の物体の種類の特定を高い信頼性で行なうことができる。
 また、撮像画像内の物体がパイロン52と同一種類であるか否かの特定を高い信頼性で行なうことができる。そのため、パイロン52の画像が、他の物体や道路の白線等と混同して認識してしまうようなことを防止することができる。ひいては、撮像画像から、パイロン52以外の物体や道路の白線をパイロン52と区別して検出することができる。
 次に、以上説明した実施形態の変形態様をいくつか説明する。
 前記実施形態では、第2エッジ画像生成部6は、車載カメラ2により取得された撮像画像のうちの色相成分としての色相成分画像から、前記第2エッジ画像を生成した。ただし、該撮像画像のうちの彩度成分としての彩度成分画像から、前記第2エッジ画像を生成するようにしてもよい。ここで、撮像画像の彩度成分は、色相成分の場合と同様に、一般には、該撮像画像の輝度成分と互いに異なる分布パターンとなる。このため、彩度成分画像から第2エッジ画像を生成するようにしても、色相成分画像から第2エッジ画像を生成する場合と同様の効果を得ることができる。
 また、前記実施形態では、撮像画像中の物体が図2に示した構造のパイロン52と同一の種類の構造物であるか否かを特定するようにした。ただし、該物体の種類が、パイロン52と異なる構造の他の種類のパイロンと同一であるか否かを特定するようにすることもできる。
 例えば、特定しようとする種類のパイロンが、図6に示す構造のパイロン71や、図7に示す構造のパイロン81であってもよい。
 図6に例示するパイロン71は、基台72と、この基台72上に突設された円柱状の本体部73とを備える構造物である。このパイロン71の本体部73の外表面は、赤及び白の2色で着色されている。より詳しくは、本体部73の外表面は、該外表面上で互いに平行に斜め方向に(螺旋状に)延在する複数(図示例では2つ)の境界線75a,74bによって、複数(図示例では2つ)の着色領域75a,75bに区分けされている。
 そして、図6において点描を付した着色領域である着色領域75aが赤色に着色されていると共に、この着色領域75aに隣接する着色領域75bが白色に着色されている。
 車載カメラ2により取得された撮像画像中の物体が、図6に示すパイロン71と同一種類であるか否かを特定する場合には、画像処理ユニット3は、前記実施形態と同様に、画像取得部4、第1エッジ画像生成部5、第2エッジ画像生成部6、画像合成部7の処理を実行する。
 一方、物体種別特定部8の処理では、画像合成部7により生成した合成エッジ画像における物体構成合成エッジのうちの物体外形合成エッジをつなぎ合わせてなる画像(物体の外形状を示す画像)を、パイロン71の外形状を示すものとしてあらかじめ設定された形状パターンと比較する。これにより、物体種別特定部8は、該画像の形状が、パイロン71の外形状に合致するか否かの形状判定を行なう。
 さらに、物体種別特定部8の処理では、物体構成合成エッジのうちの物体外形合成エッジの内側に、互いに平行に斜め方向に延在する複数の物体内水平合成エッジが存在するか否かの模様判定を行なう。
 そして、前記実施形態と同様に、形状判定及び模様判定の両方の判定結果が肯定的となる場合に、撮像画像中の物体の種類がパイロン71と同一であると特定する。また、形状判定及び模様判定のいずれかの判定結果が否定的となる場合に、撮像画像中の物体の種類がパイロン71と異なるものであると特定する。
 また、図7に例示するパイロン81は、基台82と、この基台82上に突設された樽型の本体部83とを備える構造物である。このパイロン81の本体部83の外表面は、赤及び白の2色で着色されている。より詳しくは、本体部83の外表面は、該外表面上で互いに平行に水平方向に延在する複数(図示例では4つ)の境界線(環状線)84a,84b,84c,84dによって、複数(図示例では5つ)の着色領域85a,85b,85c,85d,85eに区分けされている。
 そして、図6において点描を付した着色領域である着色領域85a,85c,85eが赤色に着色されている。さらに、この赤色の着色領域85a,85cの間に挟まれた着色領域85bと、赤色の着色領域85c,85eの間に挟まれた着色領域85dとが白色に着色されている。
 車載カメラ2により取得された撮像画像中の物体が、図7に示すパイロン81と同一種類であるか否かを特定する場合には、画像処理ユニット3は、前記実施形態と同様に、画像取得部4、第1エッジ画像生成部5、第2エッジ画像生成部6、画像合成部7の処理を実行する。
 一方、物体種別特定部8の処理では、画像合成部7により生成した合成エッジ画像における物体構成合成エッジのうちの物体外形合成エッジをつなぎ合わせてなる画像(物体の外形状を示す画像)を、パイロン81の外形状を示すものとしてあらかじめ設定された形状パターンと比較する。これにより、物体種別特定部8は、該画像の形状が、パイロン81の外形状に合致するか否かの形状判定を行なう。
 さらに、物体種別特定部8の処理では、物体構成合成エッジのうちの物体外形合成エッジの内側に、互いに平行に水平方向に延在する複数の物体内水平合成エッジが存在するか否かの模様判定を行なう。
 そして、前記実施形態と同様に、形状判定及び模様判定の両方の判定結果が肯定的となる場合に、撮像画像中の物体の種類がパイロン81と同一であると特定する。また、形状判定及び模様判定のいずれかの判定結果が否定的となる場合に、撮像画像中の物体の種類がパイロン81と異なるものであると特定する。
 また、前記実施形態における物体種別特定部8の処理では、形状判定と模様判定とを行なうようにした。これに対して、形状判定だけを行い、該形状判定の判定結果が肯定的となる場合に、撮像画像中の物体がパイロン52(又はパイロン71又はパイロン81)と同一種類であると特定するようにしてもよい。但し、パイロン52,71,81のように複数の色で着色されている構造物を特定する場合には、その特定精度を高める上では、形状判定に加えて、模様判定を行なうことが望ましい。
 本発明は、車載カメラによる撮像画像から車両の外部に存在する物体の種別を精度よく特定し得るものとして有用である。
 1…車両周辺監視装置、2…車載カメラ、5…該1エッジ画像生成部(第1エッジ画像生成手段)、6…第2エッジ画像生成部(第2エッジ画像生成手段)、7…画像合成部(合成エッジ画像生成手段)、8…物体種別特定部(物体種別特定手段)、52,71,81…パイロン(所定種類の構造物)。

Claims (2)

  1.  車載カメラにより取得された車両周辺の撮像画像に基づいて、車両の外部に存在する物体を検出する車両周辺監視装置において、
     前記撮像画像の輝度成分に基づいて、該輝度成分の値の不連続的な変化部としての第1エッジを前記撮像画像から抽出し、その抽出された第1エッジにより構成される画像である第1エッジ画像を生成する第1エッジ画像生成手段と、
     前記撮像画像の色相成分又は彩度成分に基づいて、該色相成分又は彩度成分の値の不連続的な変化部としての第2エッジを抽出し、その抽出された第2エッジにより構成される画像である第2エッジ画像を生成する第2エッジ画像生成手段と、
     前記生成された第1エッジ画像と第2エッジ画像とを合成してなる合成エッジ画像を生成する合成エッジ画像生成手段と、
     前記生成された合成エッジ画像のうち、前記撮像画像に含まれる物体の外形線を構成する画像である物体外形画像により示される該物体の外形状が所定種類の構造物の外形状に合致するか否かを判定し、少なくとも該判定結果に基づいて、該物体が前記所定種類の構造物であるか否かを特定する物体種別特定手段とを備えることを特徴とする車両周辺監視装置。
  2.  請求項1記載の車両周辺監視装置において、
     前記所定種類の構造物は、その外表面が、該外表面上で互いに平行に水平方向もしくは斜め方向に延在する複数の境界線によって複数の着色領域に区分けされていると共に各境界線を挟んで互いに隣合う着色領域が互いに異なる色で着色されている構造物であり、
     前記物体種別特定手段は、前記物体外形画像により示される物体の外形状が前記所定種類の構造物の外形状に合致し、且つ、該物体外形画像の内側に、互いに平行に水平方向もしくは斜め方向に延在する複数の前記第1エッジ又は第2エッジが存在する場合に、該物体が前記所定種類の構造物であると判定することを特徴とする車両周辺監視装置。
PCT/JP2011/065092 2010-07-29 2011-06-30 車両周辺監視装置 WO2012014627A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP11812220.9A EP2557540B1 (en) 2010-07-29 2011-06-30 Vehicle periphery monitoring device
US13/702,610 US8867788B2 (en) 2010-07-29 2011-06-30 Vehicle periphery monitoring device
CN201180030094.1A CN102985947B (zh) 2010-07-29 2011-06-30 车辆周围监测装置
JP2012526390A JP5718920B2 (ja) 2010-07-29 2011-06-30 車両周辺監視装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010170045 2010-07-29
JP2010-170045 2010-07-29

Publications (1)

Publication Number Publication Date
WO2012014627A1 true WO2012014627A1 (ja) 2012-02-02

Family

ID=45529846

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/065092 WO2012014627A1 (ja) 2010-07-29 2011-06-30 車両周辺監視装置

Country Status (5)

Country Link
US (1) US8867788B2 (ja)
EP (1) EP2557540B1 (ja)
JP (1) JP5718920B2 (ja)
CN (1) CN102985947B (ja)
WO (1) WO2012014627A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019525346A (ja) * 2016-08-31 2019-09-05 ヴィオニア スウェーデン エービー 自動車用視覚システム及び方法
JP2020027468A (ja) * 2018-08-13 2020-02-20 Kyb株式会社 画像処理装置、画像処理方法及び画像処理システム
JP2020140633A (ja) * 2019-03-01 2020-09-03 クラリオン株式会社 画像処理装置
JP2023170536A (ja) * 2022-05-19 2023-12-01 キヤノン株式会社 画像処理装置、画像処理方法、移動体、及びコンピュータプログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101251793B1 (ko) * 2010-11-26 2013-04-08 현대자동차주식회사 차량내 운전자 실제 얼굴 인증 방법
NO345502B1 (no) 2012-03-28 2021-03-08 Logined Bv Omforming av seismisk attributtfargemodell
US10503983B2 (en) * 2015-08-19 2019-12-10 Mitsubishi Electric Corporation Lane recognition apparatus and lane recognition method
EP3323237A4 (en) 2015-08-26 2019-07-31 Zhejiang Dahua Technology Co., Ltd METHODS AND SYSTEMS FOR MONITORING TRAFFIC
KR102275310B1 (ko) * 2017-04-20 2021-07-12 현대자동차주식회사 자동차 주변의 장애물 검출 방법
DE102017215718B4 (de) * 2017-09-07 2019-06-13 Audi Ag Verfahren zum Auswerten eines optischen Erscheinungsbildes in einer Fahrzeugumgebung und Fahrzeug
AU2018427622B2 (en) 2018-06-13 2021-12-02 Fujitsu Limited Acquiring method, generating method acquiring program, generating program, and information processing apparatus
CN109993046B (zh) * 2018-06-29 2021-04-09 长城汽车股份有限公司 基于视觉摄像机的自阴影物体边缘识别方法、装置及车辆

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001145092A (ja) * 1999-11-18 2001-05-25 Meidensha Corp 映像監視システムおよび映像監視方法
JP3324821B2 (ja) 1993-03-12 2002-09-17 富士重工業株式会社 車輌用車外監視装置
JP2009151602A (ja) * 2007-12-21 2009-07-09 Shima Seiki Mfg Ltd 輪郭抽出装置と輪郭抽出方法及び輪郭抽出プログラム
JP4358147B2 (ja) 2005-04-28 2009-11-04 本田技研工業株式会社 車両及びレーンマーク認識装置
JP2010109451A (ja) * 2008-10-28 2010-05-13 Panasonic Corp 車両周囲監視装置及び車両周囲監視方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683962A (ja) * 1992-05-21 1994-03-25 Sanyo Electric Co Ltd 画像認識方法
US5493392A (en) * 1992-12-15 1996-02-20 Mcdonnell Douglas Corporation Digital image system for determining relative position and motion of in-flight vehicles
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
JP2986439B2 (ja) * 1998-01-12 1999-12-06 松下電器産業株式会社 車両用画像処理装置
JP3990375B2 (ja) * 2004-03-30 2007-10-10 東芝ソリューション株式会社 画像処理装置および画像処理方法
JP4365350B2 (ja) * 2005-06-27 2009-11-18 本田技研工業株式会社 車両及び車線認識装置
JP4365352B2 (ja) * 2005-07-06 2009-11-18 本田技研工業株式会社 車両及びレーンマーク認識装置
JP4632987B2 (ja) * 2006-03-28 2011-02-16 株式会社パスコ 道路画像解析装置及び道路画像解析方法
JP5083658B2 (ja) * 2008-03-26 2012-11-28 本田技研工業株式会社 車両用車線認識装置、車両、及び車両用車線認識プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3324821B2 (ja) 1993-03-12 2002-09-17 富士重工業株式会社 車輌用車外監視装置
JP2001145092A (ja) * 1999-11-18 2001-05-25 Meidensha Corp 映像監視システムおよび映像監視方法
JP4358147B2 (ja) 2005-04-28 2009-11-04 本田技研工業株式会社 車両及びレーンマーク認識装置
JP2009151602A (ja) * 2007-12-21 2009-07-09 Shima Seiki Mfg Ltd 輪郭抽出装置と輪郭抽出方法及び輪郭抽出プログラム
JP2010109451A (ja) * 2008-10-28 2010-05-13 Panasonic Corp 車両周囲監視装置及び車両周囲監視方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2557540A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019525346A (ja) * 2016-08-31 2019-09-05 ヴィオニア スウェーデン エービー 自動車用視覚システム及び方法
JP2020027468A (ja) * 2018-08-13 2020-02-20 Kyb株式会社 画像処理装置、画像処理方法及び画像処理システム
JP7129270B2 (ja) 2018-08-13 2022-09-01 Kyb株式会社 画像処理装置、画像処理方法及び画像処理システム
JP2020140633A (ja) * 2019-03-01 2020-09-03 クラリオン株式会社 画像処理装置
JP7244301B2 (ja) 2019-03-01 2023-03-22 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置
JP2023170536A (ja) * 2022-05-19 2023-12-01 キヤノン株式会社 画像処理装置、画像処理方法、移動体、及びコンピュータプログラム
JP7483790B2 (ja) 2022-05-19 2024-05-15 キヤノン株式会社 画像処理装置、画像処理方法、移動体、及びコンピュータプログラム

Also Published As

Publication number Publication date
EP2557540A1 (en) 2013-02-13
EP2557540A4 (en) 2013-12-11
JPWO2012014627A1 (ja) 2013-09-12
CN102985947B (zh) 2015-06-10
US20130083968A1 (en) 2013-04-04
CN102985947A (zh) 2013-03-20
EP2557540B1 (en) 2014-11-12
JP5718920B2 (ja) 2015-05-13
US8867788B2 (en) 2014-10-21

Similar Documents

Publication Publication Date Title
JP5718920B2 (ja) 車両周辺監視装置
CN104952254B (zh) 车辆识别方法、装置和车辆
JP5254102B2 (ja) 環境認識装置
JP5083658B2 (ja) 車両用車線認識装置、車両、及び車両用車線認識プログラム
CN102314602B (zh) 使用最优定向线性轴线去除由基于车辆的相机捕获的图像中的阴影
US9197860B2 (en) Color detector for vehicle
US8319854B2 (en) Shadow removal in an image captured by a vehicle based camera using a non-linear illumination-invariant kernel
JP2006338556A (ja) 車両及び路面標示認識装置
JP2011081736A (ja) 歩行者検出システム
WO2009130827A1 (ja) 車両周辺監視装置
JP2011076214A (ja) 障害物検出装置
WO2010007718A1 (ja) 車両周辺監視装置
WO2019013252A1 (ja) 車両周囲認識装置
CN114173066A (zh) 成像系统和方法
JP6375911B2 (ja) カーブミラー検出装置
JP2006259885A (ja) カラー画像を用いた看板および標識の認識方法
JP2009230530A (ja) 車両認識装置、車両、及び車両認識用プログラム
JP4336755B2 (ja) カラー画像を用いた看板の認識方法
JP4821399B2 (ja) 物体識別装置
JP2005284377A (ja) 標識認識装置及び標識認識方法
KR20140062334A (ko) 장애물 검출 장치 및 방법
JP6173962B2 (ja) レーンマーク認識装置
US11138445B2 (en) Vision system and method for a motor vehicle
JP2011221613A (ja) 物体認識装置
TWI476701B (zh) 燈號觸發事件偵測方法與裝置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180030094.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11812220

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012526390

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2011812220

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13702610

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE