WO2013161407A1 - 物体検出装置およびプログラム - Google Patents

物体検出装置およびプログラム Download PDF

Info

Publication number
WO2013161407A1
WO2013161407A1 PCT/JP2013/056733 JP2013056733W WO2013161407A1 WO 2013161407 A1 WO2013161407 A1 WO 2013161407A1 JP 2013056733 W JP2013056733 W JP 2013056733W WO 2013161407 A1 WO2013161407 A1 WO 2013161407A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
symmetry
value
pixel
symmetry evaluation
Prior art date
Application number
PCT/JP2013/056733
Other languages
English (en)
French (fr)
Inventor
長谷川 弘
Original Assignee
株式会社メガチップス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社メガチップス filed Critical 株式会社メガチップス
Priority to EP13781887.8A priority Critical patent/EP2830020B1/en
Priority to US14/387,922 priority patent/US9330318B2/en
Publication of WO2013161407A1 publication Critical patent/WO2013161407A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the present invention relates to a detection apparatus and a detection method for a symmetrical object included in an image.
  • Patent Document 1 There is an image processing technology that uses the symmetry of objects.
  • the correlation between the left and right image regions of the target pixel is evaluated by calculating the left and right correlation of the target pixel. Then, the pixel of interest having the highest correlation is detected as the center position of the symmetrical object.
  • Object detection technology is used in various fields and has a wide range of applications.
  • object detection information not only the position of the object but also the size of the object is important information.
  • an object of the present invention is to provide a technique for detecting important information of an object (for example, information on the position and size of the object) with a small amount of calculation.
  • a first invention is an object detection device including an image input unit, an image feature amount extraction unit, and a symmetry evaluation unit.
  • the image input unit inputs an image.
  • the image feature quantity extraction unit extracts a predetermined image feature quantity from the image and generates a feature quantity extracted image.
  • the symmetry evaluation unit performs symmetry for the first direction on the image for each target pixel to be processed with respect to the feature amount extracted image generated by extracting a predetermined image feature amount from the input image.
  • the symmetry evaluation region which is a region for evaluating the symmetry, is set to be symmetric about the central axis in the second direction orthogonal to the first direction, and the symmetry evaluation region is changed while changing the size.
  • the symmetry is calculated based on the value obtained by weighting the correlation value of the image feature amount of the pixel group existing at the position symmetric with respect to the central axis by the image feature amount of the pixel group. Since the evaluation value is acquired, the symmetry in the first direction can be evaluated with high accuracy.
  • the width of the “symmetry evaluation region” in the second direction may be a width of one pixel or a width of a plurality of pixels.
  • the “pixel group existing at a position symmetric with respect to the central axis” means that on the image, (1) Two pixels that are equidistant from the central axis in the opposite directions (for example, if the first direction is a horizontal direction, the pixel P1 that is separated by a distance k to the left in the horizontal direction from the central axis and the horizontal from the central axis) A total of two pixels P2 separated by a distance k to the right in the direction), (2) A plurality of pixels equidistant from the central axis in the opposite directions to each other (for example, when the first direction is a horizontal direction, a group of n pixels and a center separated by a distance k from the central axis to the left in the horizontal direction) A group of n pixels separated by a distance k to the right in the horizontal direction from the axis.
  • the “correlation value of the image feature amount” is a value indicating the degree of correlation between the image feature amounts. For example, when the correlation between the pixel values of two pixels on the feature amount extracted image is high (for example, the 2 When the difference between the two pixel values is small or the ratio between the two pixel values is close to “1”, a value indicating a high correlation is taken.
  • a symmetry evaluation part is a magnitude
  • the size of the symmetry evaluation area (for example, the width in the first direction) is set. Evaluate symmetry while changing. Therefore, in this object detection device, when it is determined that the symmetry of the predetermined image region is high, the size of the image region determined to have high symmetry (for example, the width in the first direction) can be acquired at the same time. . That is, in this object detection device, it is possible to extract the position and size of an object at the same time using the symmetry of the object included in the image.
  • this object detection apparatus can detect an object with high symmetry and high accuracy with a small amount of calculation.
  • 3rd invention is 1st or 2nd invention, Comprising:
  • the symmetry evaluation part takes a large value, so that the pixel value on a feature-value extraction image takes 0 or a positive value, and an image feature-value is large.
  • the pixel value of the pixel of interest at the coordinate (i, j) on the feature amount extraction image is set to Pmax, a predetermined value that is greater than or equal to the maximum possible pixel value on the feature amount extraction image, and Pi Pixels separated by k pixels (k is a natural number) from a first search direction that is one direction of the first direction (for example, when the first direction is a horizontal direction, the first search direction is the left direction in the horizontal direction).
  • Pi-k Pi-k
  • a second search direction that is opposite to the first search direction in the first direction from the target pixel
  • the second search direction is the horizontal right
  • Pi + k is the pixel value of a pixel that is k pixels away in the direction.
  • the (Equation 1) the correlation value of the image feature amount of the pixel group existing in a symmetrical position about the central axis relative to the (Pmax-
  • the value of Pmax may be a maximum value that can be taken by the pixel value on the feature amount extraction image, or may be a predetermined value that is equal to or greater than the maximum value.
  • the 4th invention is 1st or 2nd invention, Comprising:
  • the symmetry evaluation part takes a large value, so that the pixel value on a feature-value extraction image takes 0 or a positive value, and an image feature-value is large.
  • Pmax is a predetermined value that is greater than or equal to the maximum possible pixel value on the feature quantity extraction image
  • P i, j is the pixel value of the pixel at coordinates (i, j) on the feature quantity extraction image
  • P i ⁇ k ⁇ P i + k ) of the image feature amount of the pixel group existing at a position symmetric with respect to the central axis is obtained by (Expression 2) or (Expression 3).
  • the symmetry evaluation value is obtained based on the average value obtained by integrating the values obtained by weighting the pixel group with the image feature amount (P i ⁇ k ⁇ P i + k ) in the second direction. Therefore, the evaluation of the symmetry in the first direction can be performed with high accuracy.
  • the value of Pmax may be a maximum value that can be taken by a pixel value on the feature amount extraction image, or may be a predetermined value that is equal to or greater than the maximum value.
  • , and (3) d (m) c1 ⁇ exp ( ⁇ c2 ⁇ (m ⁇ j) ⁇ 2) (C1 and c2 are predetermined positive coefficients) Any one of them.
  • the weighting when integrating in the second direction can be set to a desired one.
  • the third to 5 any one of the symmetry evaluation unit, SYM w (i, j) to acquire the maximum value maxSYM of, SYM w (i, j) is The symmetry width is determined based on the width 2w + 1 in the first direction of the symmetry evaluation region at the maximum value.
  • this object detection device when it is determined that the symmetry of the predetermined image area is high, the size (for example, the width in the first direction) of the image area determined to be high can be acquired at the same time. it can. That is, in this object detection device, it is possible to extract the position and size of an object at the same time using the symmetry of the object included in the image.
  • this object detection apparatus can detect an object with high symmetry and high accuracy with a small amount of calculation.
  • the seventh invention is any one of the first to sixth inventions, wherein the symmetry evaluation unit assumes that the number of pixels in the first direction of the image is H (H is a natural number).
  • H is a natural number.
  • the symmetry evaluation region is guaranteed to be a bilaterally symmetric region centered on the target pixel, and the largest region among the symmetric regions centered on the target pixel is determined.
  • the symmetry evaluation value can be calculated by using this.
  • the eighth invention is any one of the first to seventh inventions, wherein the image feature amount is an edge strength of the image.
  • an object with high symmetry can be detected in consideration of the edge component of the image, and therefore, an object with high symmetry about the contour (outer frame) of the object can be detected with high accuracy.
  • the ninth invention is any one of the first to seventh inventions, and the image feature amount is an intensity of a specific color component of the image.
  • an object with high symmetry can be detected in consideration of a specific color component (for example, red component) of an image, and therefore, an object with high symmetry is detected with high accuracy for a specific color. be able to.
  • a specific color component for example, red component
  • the tenth aspect of the invention is a program for causing a computer to execute an object detection method including an image input step, an image feature amount extraction step, and a symmetry evaluation step.
  • an image is input.
  • a predetermined image feature amount is extracted from the input image to generate a feature amount extracted image.
  • a symmetry evaluation region which is a region for evaluating the symmetry in the first direction on the image, is set as the first direction for each target pixel to be processed with respect to the feature amount extraction image. It is set so as to be symmetric with respect to the central axis that is a predetermined axis in the second direction orthogonal to each other, and is included in the symmetry evaluation region while being symmetric about the central axis while changing the size of the symmetry evaluation region.
  • a symmetric evaluation value indicating the degree of symmetry in the first direction is obtained by deriving a value obtained by weighting the correlation value of the image feature amount of the pixel group existing at the position with the image feature amount of the pixel group. get.
  • the present invention by using the symmetry of an object on an input image and detecting the position and size of the object, important information about the object (for example, the position and size of the object is detected with a small amount of calculation). Information) can be realized.
  • FIG. 1 is a block diagram of an object detection system 1000 according to a first embodiment.
  • the block diagram of the object detection part 22 which concerns on 1st Embodiment.
  • FIG. The figure which shows an example of the image acquired in each step of the object detection process performed in the object detection system which concerns on 2nd Embodiment.
  • FIG. The figure which shows the synthesized image (output image) 207 with which the area
  • FIG. 1 is a block diagram showing an object detection system 1000 according to the first embodiment.
  • the object detection system 1000 includes an imaging device 1, an object detection device 2, and a display device 3.
  • An imaging apparatus 1 includes an optical system (not shown) that collects light from a subject, and an imaging element (for example, a CCD image) that acquires subject light collected by the optical system as an image signal (electrical signal) by photoelectric conversion. Sensor or CMOS image sensor) (not shown).
  • the imaging device 1 outputs an image (image signal) captured by the imaging device to the object detection device 2.
  • the object detection device 2 receives an image signal output from the imaging device 1, detects a symmetric object included in an image formed by the input image signal, and displays an image (image) indicating the detection result. Signal) to the display device 3.
  • the object detection device 2 is mounted on a vehicle.
  • the imaging device 1 When the imaging device 1 is installed in the front part of the vehicle, the imaging device 1 captures an image (scene) in front of the vehicle.
  • the imaging device 1 is equipped in the rear part of a vehicle, and images the image (scene) of the back of a vehicle.
  • the display device (monitor) 3 is equipped, for example, in the driver's seat of the vehicle.
  • the display device 3 may also be used as a monitor for the navigation system.
  • the object detection device 2 includes an image input unit 21, an object detection unit 22, and a synthesis unit 23.
  • the image input unit 21 inputs an image (image signal) output from the imaging device 1.
  • the image pickup apparatus 1 is an image pickup apparatus using a CCD image sensor having a color filter with an RGB Bayer array
  • the image input unit 21 receives, for example, a pixel signal including an R component signal, a G component signal, and a B component signal. A column is entered.
  • the image input unit 21 converts the input image signal into a predetermined format as necessary, and outputs the converted image signal (or an unconverted image signal if not converted) to the object detection unit 22. Further, the image input unit 21 outputs the input image signal to the synthesis unit 23.
  • the “conversion to a predetermined format” is, for example, color space conversion (for example, conversion from the RGB color space to the YCbCr color space).
  • the image input unit 21 converts an input RGB color space image signal (R component signal, G component signal, and B component signal), for example, a YCbCr color space signal (Y component signal, Cb component signal) as necessary. And Cr component signal).
  • the image input unit 21 receives the input RGB color space image signal (R component signal, G component signal and B component signal) as a YCbCr color space signal (Y component signal, A case where the signals are converted into (Cb component signal and Cr component signal) will be described as an example.
  • the object detection unit 22 receives an image (image signal) output from the image input unit 21, performs predetermined image processing on the input image, and performs an image (an image (for example, an image formed by the image signal (for example, Frame image)) is detected (the image area corresponding to the object having symmetry is specified). Then, the object detection unit 22 outputs a detection result (for example, information for specifying an image region corresponding to an object having symmetry) to the synthesis unit 23.
  • an image for example, an image formed by the image signal (for example, Frame image)
  • a detection result for example, information for specifying an image region corresponding to an object having symmetry
  • the object detection unit 22 includes an image feature amount extraction unit 221, a symmetry evaluation unit 222, a center detection unit 223, and an object region detection unit 224.
  • the image feature amount extraction unit 221 calculates (extracts) an image feature amount from the image output from the image input unit 21. Specifically, the image feature quantity extraction unit 221 uses, for example, a Sobel filter from a Y component image (luminance component image) formed by a Y component signal (luminance component signal) output from the image input unit 21. The edge component is extracted as an image feature amount by the differential operation processing. Then, the image feature quantity extraction unit 221 outputs an image (feature quantity extraction image) having the extracted edge component as the pixel value of each pixel as an image feature quantity extraction image to the symmetry evaluation unit 222 and the object region detection unit 224. To do.
  • a Sobel filter from a Y component image (luminance component image) formed by a Y component signal (luminance component signal) output from the image input unit 21.
  • the edge component is extracted as an image feature amount by the differential operation processing.
  • the image feature quantity extraction unit 221 outputs an image (feature quantity extraction image) having the extracted edge component as the pixel
  • the symmetry evaluation unit 222 receives the image (feature amount extraction image) extracted by the image feature amount extraction unit 221 as an input. Then, the symmetry evaluation unit 222 evaluates (determines) symmetry in a predetermined direction (for example, the horizontal direction) on the image for each pixel from the feature amount extraction image and the width of the image region having high symmetry. (Width of the predetermined direction (for example, horizontal direction)) is determined (estimated). Then, for each pixel, the symmetry evaluating unit 222 specifies information (for example, pixel coordinates) for specifying the pixel (processing target pixel) and a value indicating the degree of symmetry evaluated (determined) (or the value). Symmetry evaluation map data in which a correlation value is associated with each other is acquired.
  • a predetermined direction for example, the horizontal direction
  • the symmetry evaluation unit 222 specifies information (for example, pixel coordinates) for specifying the pixel (processing target pixel) and a value indicating the degree of symmetry evaluated
  • the symmetry evaluation unit 222 specifies information (for example, pixel coordinates) for specifying the pixel (processing target pixel), and the width of the determined (estimated) image area with high symmetry (the predetermined predetermined value). Symmetric width map data in which a value indicating a direction (for example, a width in the horizontal direction) (or a value correlated with the value) is associated is acquired.
  • the symmetry evaluation unit 222 outputs the acquired symmetry evaluation map data to the center detection unit 223. Further, the symmetry evaluation unit 222 outputs the acquired symmetry width map data to the object region detection unit 224.
  • the center detection unit 223 receives the symmetry evaluation map data acquired by the symmetry evaluation unit 222 as an input.
  • the center detection unit 223 uses the symmetry evaluation map data as a two-dimensional image (an image generated by mapping the symmetry evaluation value as the pixel value of each pixel), a predetermined direction (for example, a horizontal direction) on the image.
  • a pixel or a pixel region that takes a local maximum value (or a value near the local maximum value) is identified, and the position of the central axis of the highly symmetric object is determined (estimated) based on the identified pixel or pixel region.
  • the center detection unit 223 outputs information related to the position (on the image) of the center axis of the determined (estimated) highly symmetric object to the object region detection unit 224.
  • the object region detection unit 224 includes the symmetry width map data acquired by the symmetry evaluation unit 222 and information regarding the position (on the image) of the center axis of the highly symmetric object output from the center detection unit 223. As input.
  • the object region detection unit 224 detects a highly symmetric object based on the symmetry width map data and information on the position (on the image) of the center axis of the highly symmetric object, and detects the detected symmetry. Identify areas on high object images. Then, the object region detection unit 224 outputs information about the region on the image of the identified highly symmetric object to the synthesis unit 23.
  • the synthesizing unit 23 inputs the image output from the image input unit 21 and the information specifying the region on the image of the detected highly symmetric object output from the object region detection unit 224 of the object detection unit 22. And The synthesizing unit 23 has high symmetry on the image output from the image input unit 21 based on the information specifying the region on the image of the detected highly symmetric object output from the object region detection unit 224. An image that clearly shows an image area corresponding to the object is generated (synthesized). For example, the combining unit 23 generates (combines) an image such that a square frame that clearly indicates an image region corresponding to a highly symmetric object is displayed on the image output from the image input unit 21. Then, the synthesis unit 23 outputs the synthesized image to the display device 3.
  • the display device 3 receives an image output from the combining unit 23 of the object detection device 2 and displays the image.
  • FIG. 3 is a diagram showing an example of an image acquired at each stage of the object detection process executed in the object detection system 1000.
  • FIG. 4A is a diagram illustrating a captured image 101 captured by the imaging device 1 and input to the object detection device 2.
  • the captured image 101 includes a vehicle 110 as a subject, as shown in FIG. 4A.
  • the vehicle 110 includes left and right tail lamps 111L and 111R.
  • the left and right tail lamps 111L and 111R are arranged symmetrically with respect to the central axis 112 in the vehicle width direction of the vehicle 110.
  • the captured image 101 illustrated in FIG. 4A is acquired in the imaging device 1 and the captured image 101 is processed by the object detection device 2 will be described as an example.
  • the captured image 101 (image signal forming the captured image 101) acquired by the imaging device 1 is input to the image input unit 21 of the object detection device 2.
  • the captured image 101 is an image formed by an R component signal, a G component signal, and a B component signal.
  • the image input unit 21 performs a color space conversion process on the input captured image. Specifically, the image input unit 21 performs a process of converting the RGB color space into, for example, a YCbCr color space, and forms the captured image 101 with the R component signal, the G component signal, and the B component signal as the Y component. Signal, Cb component signal, and Cr component signal are converted.
  • the image input unit 21 outputs a Y image (luminance image) formed by the Y component signal (luminance signal) to the image feature amount extraction unit 221 of the object detection unit 22. Further, the image input unit 21 outputs the input captured image to the synthesis unit 23.
  • FIG. 4B shows a Y image (luminance image) 102 acquired by the image input unit 21.
  • the color space conversion processing in the image input unit 21 is not limited to the above.
  • the RGB color space is converted into another color space such as a Lab color space or a YPbPr color space. May be.
  • the luminance image 102 may be generated using a G signal in the RGB color space.
  • a G signal may be generated by interpolation processing.
  • the color space processing may be executed using a memory (not shown) that can store an image signal such as a frame memory.
  • the image feature amount extraction unit 221 executes processing for calculating (extracting) an image feature amount with respect to the Y image (luminance image) 102 acquired by the image input unit 21.
  • a physical quantity correlated with the edge component of luminance is used as the image feature quantity.
  • the image feature quantity extraction unit 221 performs edge detection processing on the luminance image 102 and generates a feature quantity extraction image (edge image) 103.
  • FIG. 4C is a diagram illustrating a feature amount extraction image (edge image) 103 acquired by the image feature amount extraction unit 221.
  • the image feature amount extraction unit 221 generates a feature amount extraction image (edge image) 103 by performing, for example, differentiation processing (for example, filter processing using a Sobel filter) on the luminance image 102.
  • differentiation processing for example, filter processing using a Sobel filter
  • the symmetry evaluation unit 222 evaluates the symmetry of the edge image 103 acquired by the image feature amount extraction unit 221.
  • a method for evaluating symmetry will be described.
  • Symmetry evaluation unit 222 evaluates the symmetry with respect to the target pixel P i shown in FIG.
  • the pixel of interest P i is a pixel included in the edge image 103.
  • a target pixel P i indicates a pixel at coordinates (i, j) in the edge image 103.
  • the notation of pixel P x indicates a pixel at coordinates (x, j) in the edge image 103. That is, the notation of pixel P x indicates the pixel in the xth column in the horizontal direction and the pixel in the jth row in the vertical direction.
  • P x denote the pixel value of the pixel P x.
  • P x takes a value in the range of 0 to 255. Note that P x takes a larger value as the image feature amount (edge component amount in the present embodiment) is larger (as the degree of the image feature amount of interest is stronger).
  • FIG. 5 shows w pixels (P i-w to P i-1 ) located on the left side of the pixel of interest P i of the pixel and w pixels (w is a natural number) located on the right side of the pixel of interest P i.
  • Pixels (P i + 1 to P i + w ) are drawn.
  • An arithmetic expression for evaluating the symmetry of the 2w + 1 pixels (P i ⁇ w to P i + w ) is shown below (Formula 4).
  • SYM w (i, j) represents an evaluation value of symmetry.
  • k is an integer that takes values from 1 to w.
  • the pixel P i ⁇ k and the pixel P i + k are pixels that are located symmetrically about the target pixel P i .
  • has a minimum value of 0.
  • ) is the maximum value 255.
  • Symmetry evaluation unit 222 with respect to the pixel of interest P i, by changing the w, w to calculate the SYM w (i, j) for. Then, the symmetry evaluation unit 222 calculates the maximum value maxSYM of SYM w (i, j) for the pixel of interest P i as shown in (Formula 5) below.
  • N is the maximum value of w. Assuming that the number of pixels in the horizontal direction of the edge image 103 is H, N is (i ⁇ 1) when the column i indicating the horizontal position of the pixel of interest is (H / 2) or less. If the column i indicating the horizontal position of the pixel of interest is larger than (H / 2), N is (Hi).
  • max () is a function for obtaining the maximum value of the element. That is, according to (Equation 5), maxSYM contains the maximum value of SYM 1 (i, j) to SYM N (i, j).
  • FIGS. 6A to 6F show examples of feature amount extraction images, and are diagrams schematically showing feature amount extraction images of images obtained by imaging a bilaterally symmetric object with the axis C1 as a symmetry axis. is there.
  • a region R1 indicates a region that is calculated symmetrically according to (Equation 4).
  • the image feature amount (pixel value) P x of the pixel included in the white portion is “255”, and the image of the pixel included in the other black portion is displayed.
  • FIG. 6A In the case of FIG. 6A: 0.0 In the case of FIG. 6B: 0.2 In the case of FIG. 6C: 0.4 In the case of FIG. 6D: 0.6 In the case of FIG. 6E: 0.4 In the case of FIG. 6 (f): 0.3
  • the symmetry evaluation unit 222 performs processing corresponding to (Equation 4) and (Equation 5) for all the pixels for which symmetry is to be evaluated, (1) Symmetry evaluation map data associating a processing target pixel with a value of maxSYM corresponding to the pixel (or a value correlated with the value of maxSYM); (2) Symmetric width map data in which a processing target pixel is associated with a value of wa (a value of w when taking the maximum value maxSYM) (or a value correlated with the value of wa); Is generated (obtained).
  • FIG. 4D is a symmetry evaluation map image 104 derived from the symmetry evaluation map data.
  • the symmetry evaluation map image 104 is an image in which the pixel value of each pixel is a corresponding value of maxSYM (or a value correlated with the value of maxSYM).
  • FIG. 4E shows a symmetric width map image 105 derived from the symmetric width map data.
  • the symmetrical width map image 105 is an image in which the pixel value of each pixel is the corresponding wa value (the value of w when taking the maximum value maxSYM) (or a value correlated with the value of wa).
  • the symmetry evaluation unit 222 uses all the pixels of the edge image 103 as target pixels (evaluation pixels) for evaluating symmetry. That is, for all the pixels included in the edge image 103, the symmetry evaluation unit 222 calculates SYM w (i, j) and calculates maxSYM.
  • the symmetry evaluation unit 222 uses a part of pixels included in the edge image 103 (thinning out pixels) and performs the same processing as described above.
  • symmetry evaluation map data and symmetry width map data may be acquired.
  • the symmetry evaluation unit 222 may use only odd lines or only even lines in the horizontal (or vertical) direction as pixels (evaluation pixels) to be evaluated for symmetry.
  • the number of evaluation pixels may be reduced by selecting evaluation pixels at intervals of three lines.
  • the symmetry evaluation map data is map data having, as components, the value of maxSYM (or a value correlated with the value of maxSYM) calculated for each evaluation pixel.
  • Each evaluation pixel may be considered as an image having a pixel value of the value of maxSYM (or a value correlated with the value of maxSYM) calculated for the evaluation pixel.
  • FIG. 4D depicts the symmetry evaluation map data as an image (symmetry evaluation map image 104). Note that the symmetry evaluation unit 222 only needs to obtain the value of maxSYM (or a value correlated with the value of maxSYM) calculated for each evaluation pixel, and the image (symmetry evaluation) shown in FIG. The map image 104) may not be acquired. That is, the symmetry evaluation unit 222 only needs to acquire data in which each evaluation pixel is associated with the value of maxSYM.
  • the symmetry evaluation map image 104 sets the pixel values of all the pixels of the edge image 103 to the value of maxSYM (or the value of maxSYM). Is a grayscale image replaced with a value correlated with
  • the symmetry evaluation map image 104 When SYM w (i, j) is calculated by the above (Equation 4), it becomes 24-bit data, and the symmetry evaluation map image 104 having the value of maxSYM as the pixel value as it is may be acquired.
  • the symmetry evaluation map image 104 may be acquired by performing dynamic range conversion, for example.
  • the dynamic range is set so that the range determined from the minimum value to the maximum value of maxSYM calculated for an input image for one frame is a range of 0 to 255 (8-bit range). Adjustment may be performed (or normalization processing, clip processing at a predetermined value, gain adjustment processing (for example, processing corresponding to (Equation 6)), or the like may be performed).
  • each component of the symmetry evaluation map image 104 can take a value of 0 to 255, respectively.
  • a color close to white indicates that the value of SYM w (i, j) is large (close to 255). That is, in FIG. 4D, the whitish region is a region highly evaluated for symmetry, and shows the vicinity of the center of the symmetric object. On the other hand, in FIG. 4D, a dark area is an area where the symmetry is not high. Note that the dynamic range conversion is an example, and SYM w (i, j) may be converted into a range other than the range of 0 to 255.
  • the symmetry evaluation unit 222 generates (acquires) symmetry width map data for all evaluation pixels for which symmetry is to be evaluated.
  • Symmetric width map data is map data having a symmetrical width wa giving maxSYM for each evaluation pixel as a component. Each evaluation pixel may be considered as an image having a symmetric width wa as a pixel value.
  • FIG. 4E depicts the symmetrical width map data as an image (symmetric width map image 105).
  • the symmetrical width map image 105 is a grayscale image in which all the pixels of the edge image 103 are replaced with the symmetrical width wa.
  • the symmetry width wa can take a value from 1 to N. Therefore, each component of the symmetrical width map image 105 can take a value of 1 to N.
  • the value of N varies depending on the pixel position. In FIG. 3E, a region where the color is close to white indicates a region where the symmetry width wa is large. In FIG. 3E, a region where the color is close to black indicates a region where the symmetry width wa is small.
  • the center detection unit 223 refers to the symmetry evaluation map data (symmetry evaluation map image 104) generated by the symmetry evaluation unit 222, and generates symmetry center map data (symmetry center map image 106).
  • the center detection unit 223 determines (estimates) a pixel (or a pixel group near the maximum point) that provides a maximum point of maxSYM for each horizontal line of the symmetry evaluation map image 104.
  • FIG. 7 is a diagram showing changes in the horizontal direction of the symmetry evaluation map image 104. Specifically, FIG. 7 is a diagram illustrating a change in maxSYM for one horizontal line of the symmetry evaluation map image 104.
  • the center detection unit 223 specifies (estimates) a region (pixel or pixel group) that gives a maximum point (region near the maximum point) for all the horizontal lines.
  • the area specified (estimated) by the center detection unit 223 is referred to as a “symmetric center pixel area”.
  • FIG. 4F is a symmetric center map image 106 in which the symmetric center pixel region specified (estimated) by the center detection unit 223 is clearly shown.
  • a component (pixel value) “1” is set to a pixel determined to be included in the symmetric center pixel area, and a pixel determined not to be included in the symmetric center pixel area is set to It can be seen as an image acquired by setting the component (pixel value) “0”.
  • the white part shows the pixel specified as the symmetrical central pixel region.
  • the determination as to whether or not the processing target pixel (target pixel) is included in the symmetric central pixel region may be performed together with the following processing, for example.
  • the pixel value is compared with a preset threshold value, and only when it exceeds the threshold value, it is determined as a candidate for the maximum point.
  • the position of the maximum point is specified.
  • the object region detection unit 224 detects the horizontal width and the vertical width of the symmetrical object included in the input image.
  • the object region detection unit 224 detects the horizontal width of the object using the symmetric center map data (symmetric center map image 106) and the symmetric width map data (symmetric width map image 105).
  • the object region detection unit 224 detects the horizontal width of the object by, for example, the following processes (1) to (5).
  • the horizontal line including the pixel having the pixel value “1” is first assumed to be the j-th line.
  • the pixel value “1” is given to the pixels constituting the center axis of the object having symmetry. Therefore, the object region detection unit 224 extracts a pixel having a pixel value “1” in the symmetric center map image 106 and acquires the symmetric width of the extracted pixel from the symmetric width map image 105.
  • AVRG () is a function that takes an average value of elements
  • MAX () is a function that takes a maximum value of elements.
  • the symmetry width W (i, j) calculated by the above (1A) or (1B) in the j-th horizontal line is denoted as W (i0, j).
  • the horizontal position is substantially equal to the pixel extracted in (1) (for example, coordinate position (ia, j + 1) to coordinate position (i + a, j + 1)).
  • A is a predetermined threshold (a value for determining whether or not the horizontal direction is substantially equal)), and if there is a pixel whose pixel value is “1”, Similar to 1), the symmetric width of the pixel is extracted from the symmetric width map data.
  • the object region detection unit 224 calculates the symmetric width W (i1, j) of the pixel (i 1 , j + 1) in the same manner as the processing (1). (3) The same processing as above is repeated for the horizontal lines after the j + 2th row.
  • the pixel extracted in the above (1) is substantially equal in position in the horizontal direction (for example, a pixel included in the range of the coordinate position (i ⁇ a, j + 1) to the coordinate position (i + a, j + 1).
  • the above process is repeated until no pixel having the pixel value “1” appears in the threshold value (a value for determining whether or not the positions in the horizontal direction are substantially equal).
  • the object region detection unit 224 obtains the maximum value maxW of the symmetry width calculated by the processes (1) to (3). That is, the object region detection unit 224 obtains the maximum value maxW of the symmetric width by executing a process corresponding to the following (Equation 7).
  • the pixels extracted in (1) above are substantially equal in position in the horizontal direction (for example, pixels included in the range of coordinate position (ia, j + 1) to coordinate position (i + a, j + 1)).
  • A is a horizontal line in which a pixel having a pixel value “1” appears within a predetermined threshold value (a value for determining whether or not the horizontal directions are substantially equal) from the j-th line to the j + m ⁇ 1-th line. It is going to be.
  • the object region detection unit 224 detects the calculated maximum value maxW of the symmetric width as the object width (the distance from the center of the object in the horizontal direction to one end).
  • the object area detection unit 224 detects the vertical width of the object using the vertical width (length) of the symmetric central pixel area. That is, the object region detection unit 224 specifies the upper end of the symmetrical central pixel arranged continuously in the vertical direction as the upper end of the object, and uses the lower end of the symmetrical central pixel arranged continuously in the vertical direction as the lower end of the object. Identify.
  • the object region detection unit 224 has the upper ends of the symmetrical central pixels arranged continuously in the vertical direction at the horizontal line position of the j-th row and arranged continuously in the vertical direction.
  • the region R1 surrounded by a rectangle whose upper left vertex coordinates are (i k1 ⁇ maxW, j) and lower right vertex coordinates are (i k1 + maxW, j + m ⁇ 1) is highly symmetric. It is determined (specified) that the image area corresponds to an object.
  • the object area detection unit 224 synthesizes information indicating the image area of the specified object (object having high symmetry) (for example, information for specifying the area R1 (for example, coordinate information of the rectangular area)). To the unit 23.
  • the object region detection unit 224 has described a case in which an image region of a highly symmetric object is specified by a rectangular region, but is not limited thereto.
  • the object region detection unit 224 may specify an image region of a highly symmetric object for each horizontal line based on the symmetry width extracted from the symmetry width map data.
  • a region having a length corresponding to the symmetric width from the symmetric central pixel (the pixel included in the symmetric central pixel region) to the left and right is specified as the image region of the highly symmetric object.
  • the image area of the object with high symmetry finally detected has a shape that substantially matches the shape of the object with high symmetry (for example, substantially matches the shape of the outer frame of the vehicle 110 in FIG. 4A). Will be in the form).
  • the synthesizing unit 23 outputs the image (input image 101) output from the image input unit 21 based on the information specifying the region on the image of the detected highly symmetric object output from the object region detecting unit 224. Then, an image that clearly shows an image area corresponding to an object with high symmetry is generated (synthesized). For example, the combining unit 23 generates (combines) an image such that a square frame that clearly indicates an image region corresponding to a highly symmetric object is displayed on the image output from the image input unit 21. Then, the synthesis unit 23 outputs the synthesized image to the display device 3.
  • the display device 3 displays an image in which an image region corresponding to a highly symmetric object is clearly output, which is output from the synthesis unit 23 of the object detection device 2.
  • FIG. 3G shows a composite image 107 in which an area frame 130 indicating an area of the vehicle 110 that is an object having symmetry is combined with the input image 101.
  • the area frame is not rectangular but has a shape that conforms to the outer shape of the object (a shape that substantially matches the shape of the outer frame of the vehicle 110).
  • the object detection system 1000 in order to evaluate symmetry in a predetermined direction (horizontal direction) with respect to an image obtained by extracting image feature amounts of an input image (captured image), The symmetry is evaluated while changing the width (the width in the predetermined direction (horizontal direction)). Therefore, in the object detection system 1000 according to the present embodiment, when it is determined that the predetermined image area has high symmetry, the width in the predetermined direction (horizontal direction) of the image area determined to have high symmetry can be acquired at the same time. it can. That is, in the object detection system 1000 of the present embodiment, it is possible to simultaneously extract the position and size of an object using the symmetry of the object included in the image.
  • the object detection system 1000 can detect the central axis of an object with high symmetry using the evaluation data for symmetry in a predetermined direction (horizontal direction). Therefore, the object detection system 1000 of the present embodiment can detect an object with high symmetry and high accuracy with a small amount of calculation.
  • the configuration of the object detection system of this modification is the same as that of the first embodiment. Below, the point which is different from 1st Embodiment in this modification is demonstrated. In addition, about the part similar to 1st Embodiment, the same code
  • the symmetry evaluation unit 222 of the present modification executes processing corresponding to the following (Formula 8) instead of (Formula 4). That is, in (Equation 4), the region on the image for calculating the symmetry evaluation value is a region composed of one horizontal line. On the other hand, in (Equation 8), the area on the image for calculating the symmetry evaluation value is the horizontal line (2n + 1) lines ((2n + 1) horizontal lines centering on the horizontal line where the target pixel exists). ) (N is a natural number).
  • the symmetry evaluation unit 222 calculates a symmetry evaluation value for each of (2n + 1) horizontal lines according to (Equation 8), and integrates the calculated symmetry evaluation values of the horizontal lines. Then, the average value is obtained by dividing the integrated value by the number of horizontal lines. Then, the symmetry evaluation unit 222 sets the acquired average value as the symmetry evaluation value SYM w (i, j) of the target pixel (i, j).
  • P x, y indicates an image feature amount (pixel value) of a pixel at coordinates (x, y) on the feature amount extracted image (hereinafter the same).
  • the symmetry evaluation unit 222 determines the vertical width of the target region for calculating the symmetry evaluation value for the horizontal line including the target pixel and the horizontal line including the target pixel.
  • the symmetry evaluation value is calculated as the width corresponding to the total (2n + 1) lines of the n lines positioned above and the n lines positioned below, but the target pixel is near the upper end or lower end of the image, and When n lines cannot be secured above and below the horizontal line including the pixels, the vertical width of the target region for calculating the symmetry evaluation value may be changed.
  • a region for a total of (n1 + n + 1) lines up to (j + n) lines may be a target region for calculating a symmetry evaluation value.
  • the symmetry evaluation unit 222 of the present modification performs processing corresponding to (Equation 8), and acquires w giving the maximum value maxSYM as the symmetry width wa, as in the above-described embodiment.
  • the center detection unit 223, the object region detection unit 224, and the synthesis unit 23 of the present modification perform the same processing as described above.
  • the symmetry evaluation unit 222 calculates a symmetry evaluation value for each of (2n + 1) horizontal lines according to (Equation 8).
  • the symmetry evaluation values SYM w (i, j) of the target pixel (i, j) are obtained by adding the symmetry evaluation values of the horizontal lines and dividing the integrated value by the number of horizontal lines. Is calculated. That is, in the object detection system of this modification, an image area having a predetermined width in the vertical direction is a target for symmetry evaluation, and therefore a symmetric area having high correlation in the vertical direction (for example, a symmetry axis (center axis)) Can be detected with high accuracy.
  • the symmetry evaluation unit 222 may calculate the symmetry evaluation value SYM w (i, j) using (Expression 9) instead of (Expression 8).
  • the symmetry evaluation unit 222 first performs symmetry evaluation in the horizontal direction, and then integrates in the vertical direction to obtain the average value, thereby obtaining the target pixel (i, The symmetry evaluation value SYM w (i, j) of j) is calculated.
  • the symmetry evaluation unit 222 first performs vertical integration processing (average value calculation processing) of each term, and then performs symmetry evaluation in the horizontal direction.
  • a symmetry evaluation value SYM w (i, j) of the pixel of interest (i, j) is calculated.
  • the symmetry evaluation unit 222 of the present modification executes processing corresponding to the following (Equation 10) instead of (Equation 8). That is, in (Equation 10), the vertical weighting is “1” (no weighting) in all horizontal lines, but in (Equation 10), the horizontal weighting function d (m) A weighting process determined by the function d (m) is performed for each line.
  • d (m) n + 1 ⁇
  • And d (m) c1 ⁇ exp ( ⁇ c2 ⁇ (m ⁇ j) ⁇ 2)
  • C1 is a coefficient (positive coefficient) for determining the maximum value of d (m).
  • C2 is a coefficient for range adjustment in the vertical direction (positive coefficient).
  • the symmetry evaluation unit 222 may calculate the symmetry evaluation value SYM w (i, j) using (Expression 11) instead of (Expression 10).
  • the symmetry evaluation unit 222 first performs symmetry evaluation in the horizontal direction, and then integrates in the vertical direction to obtain an average value, thereby obtaining the target pixel (i, The symmetry evaluation value SYM w (i, j) of j) is calculated.
  • the symmetry evaluation unit 222 first performs vertical integration processing (average value calculation processing) of each term, and then performs symmetry evaluation in the horizontal direction.
  • a symmetry evaluation value SYM w (i, j) of the pixel of interest (i, j) is calculated.
  • the configuration of the object detection system of this embodiment is the same as that of the first embodiment.
  • differences of the present embodiment from the first embodiment will be described.
  • symbol is attached
  • the image feature quantity extraction unit 221 uses an edge component as an image feature quantity of an object. Then, the symmetry was evaluated based on the edge component extracted as the image feature amount.
  • the image feature amount extraction unit 221 uses a specific color component as the image feature amount of the object. For example, the image feature amount extraction unit 221 extracts a red component as the image feature amount.
  • FIG. 8A is a diagram showing an example of an image acquired at each stage of the object detection process executed in the object detection system of the present embodiment.
  • the image input unit 21 converts an RGB color space image signal (R component signal, G component signal, and B component signal) input from the imaging apparatus 1 into a YCbCr color space signal (Y component signal, Cb component signal, and Cr component). Signal). Then, the image input unit 21 outputs the Cr component signal (Cr component image 202) to the image feature amount extraction unit 221.
  • the image feature amount extraction unit 221 executes processing for extracting an image feature amount with respect to the Cr component image (color-difference red component image) 202 acquired by the image input unit 21.
  • a physical quantity having a correlation with the Cr component is used as the image feature quantity.
  • the image feature quantity extraction unit 221 performs Cr component enhancement processing (enhancement processing) on the Cr component image 202, and a feature quantity extraction image (R component image (Cr component enhancement image)) 203. Is generated.
  • the subsequent processing is the same as in the first embodiment. After replacing the edge image in the first embodiment with the R component image, the same processing is executed to detect a symmetrical object.
  • the symmetry evaluation unit 222 performs the same processing as that of the first embodiment on the feature amount extraction image (R component image (Cr component emphasized image)) 203 illustrated in FIG. (Corresponding to the symmetry evaluation map image 204 shown in FIG. 8D) and symmetry width map data (corresponding to the symmetry width map image 205 shown in FIG. 8E) are acquired.
  • the center detection unit 223 performs the same processing as in the first embodiment on the symmetry evaluation map data (corresponding to the symmetry evaluation map image 204 shown in FIG. 8D), and the symmetry center map data (FIG. Corresponding to the symmetry center map image 206 shown in FIG. 8F).
  • the object region detection unit 224 performs the same processing as in the first embodiment using the symmetry center map data (corresponding to the symmetry center map image 206 shown in FIG. 8F) and the symmetry width map data (the symmetry width map image 205). Then, the horizontal width of the object is detected, and further the vertical width of the object is detected.
  • the combining unit 23 is output from the image input unit 21 based on the information that is output from the object region detection unit 224 and that specifies the region on the image of the detected object with high symmetry. On the image (input image 101), an image that clearly shows an image region corresponding to an object with high symmetry is generated (synthesized).
  • FIG. 8G shows an example of an image (output image 207) acquired by the synthesis unit 23. As shown in FIG. 8G, a region having a red image region (image region 230) at a symmetrical position is appropriately detected.
  • FIG. 8G is a diagram showing the composite image 207 displayed on the display device 3 in the second embodiment.
  • the entire vehicle is extracted as the size of the object.
  • the second embodiment since the symmetry of the object is evaluated around the red color of the tail lamp of the vehicle, it can be seen that the area (image area 230) including the tail lamp is extracted.
  • a predetermined direction (horizontal direction) with respect to an image an image obtained by extracting a specific color component
  • the symmetry is evaluated while changing the width (the width in the predetermined direction (horizontal direction)). Therefore, in the object detection system of the present embodiment, when it is determined that the predetermined image area has high symmetry, the width in the predetermined direction (horizontal direction) of the image area determined to have high symmetry can be acquired at the same time. . That is, in the object detection system of the present embodiment, it is possible to extract the position and size of an object at the same time using the symmetry of the object included in the image.
  • the object detection system of the present embodiment it is possible to detect the central axis of a highly symmetric object using the symmetry evaluation data in a predetermined direction (horizontal direction). Therefore, the object detection system of the present embodiment can detect an object with high symmetry and high accuracy with a small amount of calculation. Furthermore, in the object detection system of the present embodiment, processing is performed using an image extracted for a specific color component, so that a highly symmetric object including a large amount of the specific color component can be detected with high accuracy.
  • the vertical and horizontal widths and positions of the object are specified with respect to the edge image. Further, the vertical and horizontal widths and positions of the object are specified using a specific color component image.
  • the position and size of the object can be specified by taking the average value. Alternatively, the position and size of the object may be specified by weighting either the value obtained based on the edge image or the value obtained based on the color component.
  • processing is performed while paying attention to the red component.
  • the present invention is not limited to this, and processing is performed while paying attention to other color components (for example, the green component and the blue component). You may make it detect the object with high symmetry about a predetermined color.
  • the color space conversion for extracting the image feature amount is not limited to that described in the present embodiment, and other color space conversion is performed in order to extract a signal of a specific color component, A desired color component signal (color component image) may be extracted.
  • an object having symmetry with respect to the horizontal direction is detected.
  • an object having symmetry with respect to the vertical direction may be detected. That is, the processing in the first embodiment and the second embodiment is executed by reversing the processing in the horizontal direction and the processing in the vertical direction in the first embodiment and the second embodiment, thereby having symmetry in the vertical direction. An object may be detected.
  • each functional unit may perform processing using a shared memory (for example, a frame memory).
  • a shared memory for example, a frame memory
  • the shared memory is stored in the predetermined frame by the object detection device.
  • a memory having a memory capacity sufficient to process a color image at a rate is preferable.
  • each block is individually one chip by a semiconductor device such as an LSI (including an integrated circuit, a programmable FPGA (Field Programmable Gate Array), etc.). It may be formed into one chip so as to include a part or all of it. Further, in the object detection system or the object detection apparatus described in the above embodiment, each block may be realized by a plurality of chips (semiconductor devices such as LSIs).
  • part or all of the processing of each functional block in each of the above embodiments may be realized by a program.
  • a part or all of the processing of each functional block in each of the above embodiments is performed by a central processing unit (CPU) in the computer.
  • a program for performing each processing is stored in a storage device such as a hard disk or a ROM, and is read out and executed in the ROM or the RAM.
  • each process of the above embodiment may be realized by hardware, or may be realized by software (including a case where it is realized together with an OS (operating system), middleware, or a predetermined library). Further, it may be realized by mixed processing of software and hardware. Needless to say, when the object detection system or the object detection apparatus according to the above embodiment is realized by hardware, it is necessary to adjust the timing for performing each process. In the above embodiment, for convenience of explanation, details of timing adjustment of various signals generated in actual hardware design are omitted.
  • execution order of the processing methods in the above embodiment is not necessarily limited to the description of the above embodiment, and the execution order can be changed without departing from the gist of the invention.
  • a computer program that causes a computer to execute the above-described method and a computer-readable recording medium that records the program are included in the scope of the present invention.
  • the computer-readable recording medium include a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, a BD (Blu-ray Disc (registered trademark)), and a semiconductor memory.
  • a flexible disk a hard disk
  • a CD-ROM an MO
  • DVD DVD-ROM
  • DVD-RAM DVD-RAM
  • BD Blu-ray Disc
  • the computer program is not limited to the one recorded on the recording medium, but may be transmitted via a telecommunication line, a wireless or wired communication line, a network represented by the Internet, or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

少ない演算量で物体の重要な情報を検出することを課題とする。物体検出部(22)は、カラー画像からエッジ画像を生成する。物体検出部(22)は、エッジ画像に含まれる画像の対称性を評価する。物体検出部(22)は、対称性を有する物体の対称中心画素を特定する。物体検出部(22)は、対称中心画素ごとに物体幅を検出する。物体検出部(22)は、対称中心画素の垂直方向の幅から物体の垂直方向の幅を特定し、対称中心画素ごとに特定された物体幅から物体の水平方向の幅を特定する。

Description

物体検出装置およびプログラム
 本発明は、画像に含まれる対称性のある物体の検出装置および検出方法に関する。
 物体の対称性を利用した画像処理技術が存在する。下記特許文献1では、注目画素の左右の相関を計算することにより、注目画素の左右の画像領域の相関を評価する。そして、相関の最も高くなる注目画素を対称性のある物体の中央位置として検出している。
特開2010-267257号公報
 物体の検出技術は様々な分野で利用され、その用途が広い。物体の検出情報を利用するアプリケーションにとって、物体の位置のみならず、物体の大きさも重要な情報となる。
 しかしながら、画像中に含まれる物体の位置と大きさの両方の情報を、処理負荷を大きくすることなく、精度良く取得することは困難であった。
 そこで、本発明は上記課題に鑑み、少ない演算量で物体の重要な情報(例えば、物体の位置と大きさについての情報)を検出する技術を提供することを目的とする。
 上記課題を解決するために、第1の発明は、画像入力部と、画像特徴量抽出部と、対称性評価部と、を備える物体検出装置である。
 画像入力部は、画像を入力する。
 画像特徴量抽出部は、画像から所定の画像特徴量を抽出して特徴量抽出画像を生成する。
 対称性評価部は、入力された画像から所定の画像特徴量を抽出して生成された特徴量抽出画像に対して、処理対象である注目画素ごとに、画像上の第1方向についての対称性を評価するための領域である対称性評価領域を、第1方向と直交する第2方向の中心軸を中心として対称となるように設定し、対称性評価領域の大きさを変化させながら、対称性評価領域に含まれ、中心軸について対称となる位置に存在する画素群の画像特徴量の相関値に対して、画素群の画像特徴量による重み付けを行った値を導出することで、第1方向の対称性の度合いを示す対称性評価値を取得する。
 これにより、この物体検出装置では、中心軸について対称となる位置に存在する画素群の画像特徴量の相関値に対して、画素群の画像特徴量による重み付けを行った値に基づいて、対称性評価値を取得するので、第1方向の対称性の評価を高い精度で行うことができる。
 したがって、この物体検出装置により取得された対称性評価値を用いることで、少ない演算量で、精度良く、対称性の高い物体の検出を行うことができる。
 なお、「対称性評価領域」の第2方向(第1方向と直交する方向)の幅は、1画素分の幅であってもよいし、また、複数画素分の幅であってもよい。
 また、「中心軸について対称となる位置に存在する画素群」とは、画像上において、
(1)中心軸から、互いに逆方向に、等距離離れた2つ画素(例えば、第1方向を水平方向とすると、中心軸から水平方向左に距離kだけ離れた画素P1および中心軸から水平方向右に距離kだけ離れた画素P2の合計2つの画素)や、
(2)中心軸から、互いに逆方向に、等距離離れた複数の画素(例えば、第1方向を水平方向とすると、中心軸から水平方向左に距離kだけ離れたn個の画素群および中心軸から水平方向右に距離kだけ離れたn個の画素群)を含む概念である。
 また、「画像特徴量の相関値」とは、画像特徴量の相関の程度を示す値であり、例えば、特徴量抽出画像上の2つの画素の画素値の相関が高い場合(例えば、当該2つの画素値の差が小さい場合や当該2つの画素値の比が「1」に近い場合)に、相関が高いことを示す値をとるものである。
 第2の発明は、第1の発明であって、対称性評価部は、対称性評価値が第1方向についての対称性が最大であることを示す値である場合の対称性評価領域の大きさに基づいて、第1方向に関する対称幅を決定する。
 この物体検出装置では、入力画像の画像特徴量を抽出した画像に対して、第1方向についての対称性を評価するために、対称性評価領域の大きさ(例えば、第1方向の幅)を変化させながら対称性の評価を行う。したがって、この物体検出装置では、所定の画像領域の対称性が高いと判定した場合、対称性が高いと判定した画像領域の大きさ(例えば、第1方向の幅)も同時に取得することができる。つまり、この物体検出装置では、画像に含まれる物体の対称性を利用して、物体の位置と大きさを同時に抽出することが可能である。
 したがって、この物体検出装置では、少ない演算量で、精度良く、対称性の高い物体の検出を行うことができる。
 第3の発明は、第1または第2の発明であって、対称性評価部は、特徴量抽出画像上の画素値が0または正の値をとり、画像特徴量が大きい程、大きな値をとるものとし、特徴量抽出画像上の画素値の取り得る最大値以上の所定の値をPmaxとし、特徴量抽出画像上の座標(i,j)の注目画素の画素値をPiとし、注目画素から第1方向の一方向である第1探索方向(例えば、第1方向を水平方向としたとき、第1探索方向は水平方向左方向である。)にk画素(kは自然数)離れた画素の画素値をPi-kとし、注目画素から第1方向の第1探索方向と逆方向である第2検索方向(例えば、第1方向を水平方向としたとき、第2探索方向は水平方向右方向である。)にk画素離れた画素の画素値をPi+kとし、対称性評価領域の第1方向の幅を2w+1とするとき、対称性評価領域の第1方向の幅2w+1(wは自然数)を変化させながら、下記(数式1)に基づいて、注目画素の対称性評価値を算出する。
Figure JPOXMLDOC01-appb-M000004
 これにより、この物体検出装置では、(数式1)により、中心軸について対称となる位置に存在する画素群の画像特徴量の相関値(Pmax-|Pi-k-Pi+k|)に対して、画素群の画像特徴量による重み付け(Pi-k×Pi+k)を行った値に基づいて、対称性評価値を取得するので、第1方向の対称性の評価を高い精度で行うことができる。
 したがって、この物体検出装置により取得された対称性評価値を用いることで、少ない演算量で、精度良く、対称性の高い物体の検出を行うことができる。
 なお、上記(数式1)に相当する処理において、SYM(i、j)が取り得る範囲を調整するために、ゲイン調整(係数調整)や、正規化処理や、所定の値でのクリップ処理等を行うようにしてもよい(上記(数式1)を修正した処理を行ってもよい)。
 また、Pmaxの値は、特徴量抽出画像上の画素値の取り得る最大値であってもよいし、当該最大値以上の所定の値であってもよい。
 第4の発明は、第1または第2の発明であって、対称性評価部は、特徴量抽出画像上の画素値が0または正の値をとり、画像特徴量が大きい程、大きな値をとるものとし、特徴量抽出画像上の画素値の取り得る最大値以上の所定の値をPmaxとし、特徴量抽出画像上の座標(i,j)の画素の画素値をPi,jとし、対称性評価領域の第1方向の幅を2w+1とし、対称性評価領域の第2方向の幅を2n+1とし、所定の重み付け関数をd(m)とするとき、対称性評価領域の第1方向の幅w(wは自然数)を変化させながら、下記(数式2)に基づいて、注目画素の対称性評価値を算出する。
Figure JPOXMLDOC01-appb-M000005
または、
Figure JPOXMLDOC01-appb-M000006
 これにより、この物体検出装置では、(数式2)または(数式3)により、中心軸について対称となる位置に存在する画素群の画像特徴量の相関値(Pmax-|Pi-k-Pi+k|)に対して、画素群の画像特徴量による重み付け(Pi-k×Pi+k)を行った値を第2方向に積算して取得される平均値に基づいて、対称性評価値を取得するので、第1方向の対称性の評価を高い精度で行うことができる。
 したがって、この物体検出装置により取得された対称性評価値を用いることで、少ない演算量で、精度良く、対称性の高い物体の検出を行うことができる。
 なお、Pmaxの値は、特徴量抽出画像上の画素値の取り得る最大値であってもよいし、当該最大値以上の所定の値であってもよい。
 第5の発明は、第4の発明であって、重み付け関数d(m)は、
(1)d(m)=1、
(2)d(m)=n+1-|m-j|、および
(3)d(m)=c1×exp(-c2×(m-j)^2)
(c1およびc2は、所定の正の係数)
のいずれか一つである。
 これにより、この物体検出装置では、第2方向に積算する場合の重み付けを所望のものに設定することができる。例えば、(1)d(m)=1の場合、第2方向に積算する場合の重み付けは均等であり、(2)d(m)=n+1-|m-j|の場合、第2方向に積算する場合の重み付けは、対称性評価領域の第2方向における中央付近のときに、強くなされ(m=jのとき、最も強く重み付けされる。)、(3)d(m)=c1×exp(-c2×(m-j)^2)の場合、第2方向に積算する場合の重み付けは、対称性評価領域の第2方向における中央付近のときに、強くなされる(m=jのとき、最も強く重み付けされる。)。
 第6の発明は、第3から第5のいずれかの発明であって、対称性評価部は、SYM(i、j)の最大値maxSYMを取得するとともに、SYM(i、j)が最大値となるときの対称性評価領域の第1方向の幅2w+1に基づいて、対称幅を決定する。
 これにより、この物体検出装置では、所定の画像領域の対称性が高いと判定した場合、対称性が高いと判定した画像領域の大きさ(例えば、第1方向の幅)も同時に取得することができる。つまり、この物体検出装置では、画像に含まれる物体の対称性を利用して、物体の位置と大きさを同時に抽出することが可能である。
 したがって、この物体検出装置では、少ない演算量で、精度良く、対称性の高い物体の検出を行うことができる。
 第7の発明は、第1から第6のいずれかの発明であって、対称性評価部は、画像の第1方向の画素数をH(Hは自然数)とすると、
(1)注目画素の第1方向の位置を示す列iが(H/2)以下の場合、対称性評価領域の第1方向の幅の半分であるwを、1≦w≦(i-1)の範囲で変化させて、対称性評価値を算出し、
(2)注目画素の第1方向の位置を示す列iが(H/2)より大きい場合、対称性評価領域の第1方向の幅の半分であるwを、1≦w≦(H-i)の範囲で変化させて、対称性評価値を算出する。
 これにより、この物体検出装置では、対称性評価領域が、注目画素を中心にした左右対称な領域であることが保証されるとともに、注目画素を中心にした左右対称な領域のうち最大の領域を用いて対称性評価値を算出することができる。
 第8の発明は、第1から第7のいずれかの発明であって、画像特徴量は、画像のエッジ強度である。
 この物体検出装置では、画像のエッジ成分を考慮して対称性の高い物体を検出することができるので、物体の輪郭(外枠)についての対称性の高い物体を、精度良く検出することができる。
 第9の発明は、第1から第7のいずれかの発明であって、画像特徴量は、画像の特定の色成分の強度である。
 この物体検出装置では、画像の特定色成分(例えば、赤色成分)を考慮して対称性の高い物体を検出することができるので、特定の色について、対称性の高い物体を、精度良く検出することができる。
 第10の発明は、画像入力ステップと、画像特徴量抽出ステップと、対称性評価ステップと、を備える物体検出方法をコンピュータに実行させるためのプログラムである。
 画像入力ステップは、画像を入力する。
 画像特徴量抽出ステップは、入力された画像から所定の画像特徴量を抽出して特徴量抽出画像を生成する。
 対称性評価ステップは、特徴量抽出画像に対して、処理対象である注目画素ごとに、画像上の第1方向についての対称性を評価するための領域である対称性評価領域を第1方向と直交する第2方向の所定の軸である中心軸を中心として対称となるように設定し、対称性評価領域の大きさを変化させながら、対称性評価領域に含まれ、中心軸について対称となる位置に存在する画素群の画像特徴量の相関値に対して、画素群の画像特徴量による重み付けを行った値を導出することで、第1方向の対称性の度合いを示す対称性評価値を取得する。
 これにより、第1の発明と同様の効果を奏する物体検出方法をコンピュータに実行させるためのプログラムを実現することができる。
 本発明によれば、入力画像上の物体の対称性を利用し、物体の位置と大きさを検出することで、少ない演算量で物体に関する重要な情報(例えば、物体の位置と大きさについての情報)を検出する技術を実現することができる。
第1実施形態に係る物体検出システム1000のブロック図。 第1実施形態に係る物体検出部22のブロック図。 第1実施形態に係る物体検出システム1000において実行される物体検出処理の各段階において取得される画像の一例を示す図。 対称性を有する物体を含む入力画像101を示す図。 入力画像101から輝度成分を抽出して生成された輝度画像102を示す図。 輝度画像102から生成されたエッジ画像103を示す図。 対称性評価マップ画像104を示す図。 対称幅マップ画像105を示す図。 対称中心マップ画像106を示す図。 領域枠130が合成された合成画像(出力画像)107を示す図。 注目画素Pの左右に配置された画素を示す図。 対称幅waを取得する方法を説明するための図。 対称性評価マップ画像104の水平方向の変化(一例)を示す図。 第2実施形態に係る物体検出システムにおいて実行される物体検出処理の各段階において取得される画像の一例を示す図。 入力画像101からCr成分を抽出して生成されたCr成分画像202を示す図。 特徴量抽出画像(R成分画像(Cr成分強調画像))203を示す図。 対称性評価マップ画像204を示す図。 対称幅マップ画像205を示す図。 対称中心マップ画像206を示す図。 領域枠230が合成された合成画像(出力画像)207を示す図。
 [第1実施形態]
 第1実施形態について、図面を参照しながら、以下、説明する。
 <1.1:物体検出システムの構成>
 図1は、第1実施形態に係る物体検出システム1000を示すブロック図である。物体検出システム1000は、撮像装置1と、物体検出装置2と、表示装置3とを備えている。
 撮像装置1は、被写体からの光を集光する光学系(不図示)と、当該光学系により集光された被写体光を光電変換により画像信号(電気信号)として取得する撮像素子(たとえばCCDイメージセンサやCMOSイメージセンサ)(不図示)とを備えている。撮像装置1は、撮像素子により撮像した画像(画像信号)を、物体検出装置2に出力する。
 物体検出装置2は、撮像装置1から出力される画像信号を入力とし、入力された画像信号により形成される画像中に含まれる対称性を有する物体を検出し、検出した結果を示す画像(画像信号)を表示装置3に出力する。
 たとえば、物体検出装置2は車両に搭載される。撮像装置1が車両の前部に装備される場合には、撮像装置1は、車両の前方の画像(シーン)を撮像する。あるいは、撮像装置1は車両の後部に装備され、車両の後方の画像(シーン)を撮像する。
 表示装置(モニタ)3は、例えば、車両の運転席に装備される。表示装置3は、ナビゲーションシステム用のモニタと兼用してもよい。
 図1に示すように、物体検出装置2は、画像入力部21と、物体検出部22と、合成部23とを備えている。
 画像入力部21は、撮像装置1から出力される画像(画像信号)を入力する。たとえば、撮像装置1がRGBベイヤ配列の色フィルタを備えたCCDイメージセンサを用いる撮像装置である場合、画像入力部21には、例えば、R成分信号、G成分信号およびB成分信号を含む画素信号列が入力される。画像入力部21は、入力された画像信号を、必要に応じて、所定の形式に変換し、変換した画像信号(変換されない場合は、無変換の画像信号)を物体検出部22出力する。また、画像入力部21は、入力された画像信号を、合成部23に出力する。
 なお、「所定の形式への変換」とは、例えば、色空間の変換(例えば、RGB色空間からYCbCr色空間への変換)である。画像入力部21は、入力されたRGB色空間の画像信号(R成分信号、G成分信号およびB成分信号)を、必要に応じて、例えば、YCbCr色空間の信号(Y成分信号、Cb成分信号およびCr成分信号)に変換する。
 なお、以下では、説明便宜のため、画像入力部21において、入力されたRGB色空間の画像信号(R成分信号、G成分信号およびB成分信号)が、YCbCr色空間の信号(Y成分信号、Cb成分信号およびCr成分信号)に変換される場合を例に説明する。
 物体検出部22は、画像入力部21から出力される画像(画像信号)を入力とし、入力された画像に対して所定の画像処理を実行し、画像(画像信号により形成される画像(例えば、フレーム画像))に含まれる対称性を有する物体を検出する(対称性を有する物体に相当する画像領域を特定する)。そして、物体検出部22は、検出結果(例えば、対称性を有する物体に相当する画像領域を特定するための情報)を合成部23に出力する。
 物体検出部22は、図2に示すように、画像特徴量抽出部221と、対称性評価部222と、中心検出部223と、物体領域検出部224と、を備える。
 画像特徴量抽出部221は、画像入力部21から出力される画像から画像特徴量を算出(抽出)する。具体的には、画像特徴量抽出部221は、例えば、画像入力部21から出力されるY成分信号(輝度成分信号)により形成されるY成分画像(輝度成分画像)から、Sobelフィルタ等を用いた微分演算処理により、エッジ成分を画像特徴量として抽出する。そして、画像特徴量抽出部221は、抽出したエッジ成分を各画素の画素値とする画像(特徴量抽出画像)を画像特徴量抽出画像として、対称性評価部222および物体領域検出部224に出力する。
 なお、以下では、説明便宜のため、特徴量抽出画像の各画素の画素値は、抽出対象の画像特徴量の程度が大きい程、大きな値をとるものとして、説明する。
 対称性評価部222は、画像特徴量抽出部221が抽出した画像(特徴量抽出画像)を入力とする。そして、対称性評価部222は、当該特徴量抽出画像から、各画素において、画像上の所定の方向(例えば、水平方向)の対称性を評価(判定)するとともに対称性の高い画像領域の幅(上記所定の方向(例えば、水平方向)の幅)を決定(推定)する。そして、対称性評価部222は、画素ごとに、当該画素(処理対象画素)を特定する情報(例えば、画素の座標)と、評価(判定)した対称性の度合いを示す値(または当該値と相関のある値)と、を対応付けた対称性評価マップデータを取得する。
 さらに、対称性評価部222は、画素ごとに、当該画素(処理対象画素)を特定する情報(例えば、画素の座標)と、決定(推定)した対称性の高い画像領域の幅(上記所定の方向(例えば、水平方向)の幅)を示す値(または当該値と相関のある値)と、を対応づけた対称幅マップデータを取得する。
 そして、対称性評価部222は、取得した対称性評価マップデータを中心検出部223に出力する。また、対称性評価部222は、取得した対称幅マップデータを物体領域検出部224に出力する。
 中心検出部223は、対称性評価部222により取得された対称性評価マップデータを入力とする。中心検出部223は、対称性評価マップデータを2次元画像(対称性評価値を各画素の画素値としてマッピングし生成した画像)としたとき、当該画像上の所定の方向(例えば、水平方向)において極大値(または極大値付近の値)をとる画素または画素領域を特定し、特定した画素または画素領域に基づいて、対称性の高い物体の中心軸の位置を決定(推定)する。そして、中心検出部223は、決定(推定)した対称性の高い物体の中心軸の(画像上の)位置に関する情報を物体領域検出部224に出力する。
 物体領域検出部224は、対称性評価部222により取得された対称幅マップデータと、中心検出部223から出力される対称性の高い物体の中心軸の(画像上の)位置に関する情報と、を入力とする。物体領域検出部224は、対称幅マップデータと、対称性の高い物体の中心軸の(画像上の)位置に関する情報と、に基づいて、対称性の高い物体を検出し、検出した対称性の高い物体の画像上の領域を特定する。そして、物体領域検出部224は、特定した対称性の高い物体の画像上の領域についての情報を合成部23に出力する。
 合成部23は、画像入力部21から出力される画像と、物体検出部22の物体領域検出部224から出力される検出した対称性の高い物体の画像上の領域を特定する情報と、を入力とする。合成部23は、物体領域検出部224から出力される検出した対称性の高い物体の画像上の領域を特定する情報に基づいて、画像入力部21から出力される画像上に、対称性の高い物体に相当する画像領域を明示する画像を生成(合成)する。合成部23は、例えば、画像入力部21から出力される画像上に、対称性の高い物体に相当する画像領域を明示する四角い枠が表示されるように画像を生成(合成)する。そして、合成部23は、合成した画像を表示装置3に出力する。
 表示装置3は、物体検出装置2の合成部23から出力される画像を入力とし、当該画像を表示する。
 <1.2:物体検出システムの動作>
 以上のように構成された物体検出システム1000の動作について、図面を用いながら、以下、説明する。
 図3は、物体検出システム1000において実行される物体検出処理の各段階において取得される画像の一例を示した図である。
 図4Aは、撮像装置1により撮像され、物体検出装置2に入力される撮像画像101を示す図である。
 撮像画像101は、図4Aに示すように、被写体として車両110を含む。車両110は、左右のテールランプ111L・111Rを備えている。左右のテールランプ111L・111Rは、車両110の車幅方向に関する中心軸112に対して左右対称に配置されている。
 以下では、撮像装置1において、図4Aに示した撮像画像101が取得され、撮像画像101が物体検出装置2で処理される場合を例に説明する。
 撮像装置1で取得された撮像画像101(撮像画像101を形成する画像信号)は、物体検出装置2の画像入力部21に入力される。なお、撮像画像101は、R成分信号、G成分信号およびB成分信号により形成される画像であるものとする。
 画像入力部21は、入力された撮像画像に対して、色空間変換処理を行う。具体的には、画像入力部21は、RGB色空間を、例えば、YCbCr色空間に変換する処理を行い、撮像画像101を形成する、R成分信号、G成分信号およびB成分信号を、Y成分信号、Cb成分信号、および、Cr成分信号に変換する。
 そして、画像入力部21は、Y成分信号(輝度信号)により形成されるY画像(輝度画像)を、物体検出部22の画像特徴量抽出部221に出力する。また、画像入力部21は、入力された撮像画像を合成部23に出力する。
 図4Bに、画像入力部21により取得されたY画像(輝度画像)102を示す。
 なお、画像入力部21での色空間の変換処理は、上記に限定されることはなく、例えば、RGB色空間を、Lab色空間やYPbPr色空間等の他の色空間に変換するものであってもよい。
 あるいは、RGB色空間のG信号を利用して輝度画像102を生成してもよい。R・B成分を有する画素については補間処理によりG信号を生成すればよい。
 なお、色空間処理は、フレームメモリ等の画像信号を記憶することができるメモリ(不図示)を用いて実行してもよい。
 画像特徴量抽出部221は、画像入力部21により取得されたY画像(輝度画像)102に対して、画像特徴量を算出(抽出)する処理を実行する。なお、本実施形態では、画像特徴量として、輝度のエッジ成分に相関のある物理量を利用する。
 つまり、本実施形態では、画像特徴量抽出部221は、輝度画像102に対してエッジ検出処理を実行し、特徴量抽出画像(エッジ画像)103を生成する。
 図4Cは、画像特徴量抽出部221により取得された特徴量抽出画像(エッジ画像)103を示す図である。画像特徴量抽出部221は、輝度画像102に、例えば、微分演算処理(例えば、Sobelフィルタを用いたフィルタ処理)を施すことで特徴量抽出画像(エッジ画像)103を生成する。
 次に、対称性評価部222は、画像特徴量抽出部221により取得されたエッジ画像103の対称性を評価する。以下、対称性の評価方法について説明する。
 (1.2.1:対称性の評価方法)
 対称性評価部222は、図5に示す注目画素Pに関して対称性を評価する。注目画素Pは、エッジ画像103に含まれる画素である。注目画素Pは、エッジ画像103における座標(i、j)の画素を示している。以下の説明において、画素Pという表記は、エッジ画像103における座標(x、j)の画素を示す。つまり、画素Pという表記は、水平方向にx列目で、垂直方向にj行目の画素を示している。また、数式においては、Pは、画素Pにおける画素値を示すものとする。本実施形態においては、Pは0~255の範囲の値をとる。なお、Pは、画像特徴量(本実施形態ではエッジ成分量)が大きい程(注目している画像特徴量の度合いが強い程)、大きな値をとるものとする。
 図5には、画素の注目画素Pの左側に位置するw個の画素(Pi-w~Pi-1)、および、注目画素Pの右側に位置するw個(wは自然数)の画素(Pi+1~Pi+w)が描かれている。この2w+1個の画素(Pi-w~Pi+w)の対称性を評価する演算式を下記(数式4)に示す。
Figure JPOXMLDOC01-appb-M000007
 (数式4)において、SYM(i、j)は、対称性の評価値を示す。(数式4)において、kは、1~wまでの値をとる整数である。
 画素Pi-kと画素Pi+kは、注目画素Pを中心として左右対称の位置にある画素である。画素Pi-kと画素Pi+kの画素値が等しいとき、その差分|Pi-k-Pi+k|は最小値0となる。このとき、(255-|Pi-k-Pi+k|)は、最大値255となる。
 そして、(255-|Pi-k-Pi+k|)は、Pi-kおよびPi+kを乗算されることで、注目画素Pから左右にk画素離れた画素の画像特徴量で重み付けされる。これにより、画像特徴量が小さい画素を対称性の評価から除外することができる。つまり、エッジ画像103において、エッジではない部分のPi-kおよびPi+kは、「0」に近い値をとるので、エッジでない部分では、(255-|Pi-k-Pi+k|)×Pi-k×Pi+kは、「0」に近い値をとることになる。
 つまり、(数式4)においては、注目している画像特徴量(本実施形態ではエッジ成分量)についての対称性が高いほどSYM(i、j)は、大きな値をとる。
 対称性評価部222は、注目画素Pに関して、wを変化させて、wについてSYM(i、j)を算出する。そして、対称性評価部222は、下記(数式5)に示すように、注目画素PについてSYM(i、j)の最大値maxSYMを算出する。
Figure JPOXMLDOC01-appb-M000008
 (数式5)において、Nはwの最大値である。エッジ画像103の水平方向の画素数をHとすると、注目画素の水平方向の位置を示す列iが(H/2)以下の場合には、Nは(i-1)である。注目画素の水平方向の位置を示す列iが(H/2)より大きい場合には、Nは(H-i)である。
 また、(数式5)においてmax()は、要素の最大値を取得する関数である。つまり、(数式5)により、maxSYMには、SYM(i,j)~SYM(i,j)のうちの最大値が入る。
 また、対称性評価部222は、最大値maxSYMを与えるwを、対称幅waとして取得する。つまり、SYM(i、j)は、w=waのとき、最大値maxSYMをとる。対称幅waを用いて、maxSYMは、下式のように表すことができる。
  maxSYM=SYMwa(i,j)
 ここで、図6を用いて、上記(数式4)および(数式5)に相当する処理について、説明する。図6(a)~(f)は、特徴量抽出画像の一例を示しており、軸C1を対称軸とする左右対称な物体を撮像した画像の特徴量抽出画像を模式的に示した図である。また、図6(a)~(f)において、領域R1は、(数式4)の算出対称となる領域を示している。なお、説明便宜上、図6(a)~(f)において、白い部分に含まれる画素の画像特徴量(画素値)Pは「255」であり、それ以外の黒い部分に含まれる画素の画像特徴量Pは「0」であるものとする。なお、SYM(i、j)の取り得る範囲を0~255とするため、下記(数式6)のように係数の調整を行い処理を実行する場合について、説明する。
 また、図6(a)~(f)において、領域R1に含まれる画像特徴量(画素値)Pが「255」である画素の割合は、以下であるものとする。
  図6(a)の場合:0.0
  図6(b)の場合:0.2
  図6(c)の場合:0.4
  図6(d)の場合:0.6
  図6(e)の場合:0.4
  図6(f)の場合:0.3
Figure JPOXMLDOC01-appb-M000009
 図6(a)の場合、算出対称領域R1に含まれる画素の画像特徴量(画素値)は、すべて「0」であるので、(数式6)より、SYM(i、j)=0となる。
 図6(b)の場合、算出対称領域R1において、画像特徴量(画素値)が「255」である画素の割合は、「0.2」であるので、(数式6)より、
  SYM(i、j)=0.2×255
となる。
 図6(c)の場合、算出対称領域R1において、画像特徴量(画素値)が「255」である画素の割合は、「0.4」であるので、(数式6)より、
  SYM(i、j)=0.4×255
となる。
 図6(d)の場合、算出対称領域R1において、画像特徴量(画素値)が「255」である画素の割合は、「0.6」であるので、(数式6)より、
  SYM(i、j)=0.6×255
となる。
 図6(e)の場合、算出対称領域R1において、画像特徴量(画素値)が「255」である画素の割合は、「0.4」であるので、(数式6)より、
  SYM(i、j)=0.4×255
となる。
 図6(f)の場合、算出対称領域R1において、画像特徴量(画素値)が「255」である画素の割合は、「0.3」であるので、(数式6)より、
  SYM(i、j)=0.3×255
となる。
 以上より、図6(d)の場合に、SYM(i、j)が最大値をとるので、図6(d)の場合のSYM(i、j)(=0.6×255)がmaxSYMとなり、このときのw(図6(d)の場合のw)がwaとなる。つまり、図6(d)の場合、画像特徴量(画素値)が「255」である画素の割合が最大となるので、対称性評価部222は、図6に示した特徴量抽出画像を処理対象とする場合、図6(d)の場合のSYM(i、j)(=0.6×255)をmaxSYMとして取得し、このときのw(図6(d)の場合のw)をwaとして取得する。
 対称性評価部222は、対称性を評価する対象となる全ての画素について、(数式4)および(数式5)に相当する処理を行い、
(1)処理対象画素と、当該画素に対応するmaxSYMの値(または、maxSYMの値と相関のある値)と、を対応づけた対称性評価マップデータと、
(2)処理対象画素と、waの値(最大値maxSYMをとるときのwの値)(または、waの値と相関のある値)と、を対応づけた対称幅マップデータと、
を生成(取得)する。
 図4Dは、対称性評価マップデータから導出した対称性評価マップ画像104である。対称性評価マップ画像104は、各画素の画素値を、対応するmaxSYMの値(または、maxSYMの値と相関のある値)とする画像である。
 また、図4Eは、対称幅マップデータから導出した対称幅マップ画像105である。対称幅マップ画像105は、各画素の画素値を、対応するwaの値(最大値maxSYMをとるときのwの値)(または、waの値と相関のある値)とする画像である。
 なお、本実施形態において、対称性評価部222は、対称性を評価する対象画素(評価画素)としてエッジ画像103の全ての画素を利用している。つまり、エッジ画像103に含まれる全ての画素について、対称性評価部222は、SYM(i、j)を算出するとともに、maxSYMを算出している。
 しかし、演算量を減らすために、あるいは、処理速度を向上させるために、対称性評価部222は、エッジ画像103に含まれる一部の画素を用いて(画素を間引いて)、上記同様の処理を行うことで、対称性評価マップデータおよび対称幅マップデータを取得するようにしてもよい。対称性評価部222は、たとえば、対称性の評価対象とする画素(評価画素)として水平(あるいは垂直)方向の奇数ラインのみ、あるいは偶数ラインのみを利用してもよい。あるいは、3ライン間隔で評価画素を選択するなど、評価画素の数を少なくしてもよい。
 対称性評価マップデータは、各評価画素について、その評価画素について算出されたmaxSYMの値(または、maxSYMの値と相関のある値)を成分とするマップデータである。各評価画素について、その評価画素について算出されたmaxSYMの値(または、maxSYMの値と相関のある値)を画素値とする画像と考えてもよい。図4Dは、対称性評価マップデータを画像(対称性評価マップ画像104)として描画している。なお、対称性評価部222は、各評価画素について算出されたmaxSYMの値(または、maxSYMの値と相関のある値)を取得すればよく、必ずしも、図4Dに示すような画像(対称性評価マップ画像104)として取得しなくてもよい。つまり、対称性評価部222は、各評価画素と、そのmaxSYMの値とを関連づけたデータを取得すればよい。
 本実施形態においては、評価画素としてエッジ画像103の全ての画素が利用されているので、対称性評価マップ画像104は、エッジ画像103の全画素の画素値をmaxSYMの値(または、maxSYMの値と相関のある値)に置き換えたグレースケールの画像である。
 なお、SYM(i、j)は、上記(数式4)により算出する場合、24ビットのデータとなり、maxSYMの値をそのまま画素値とする対称性評価マップ画像104を取得するようにしてもよいが、例えば、ダイナミックレンジ変換を行い、対称性評価マップ画像104を取得するようにしてもよい。つまり、例えば、1フレーム分の入力画像に対して算出されたmaxSYMの値の最小値から最大値で決定される範囲が、0~255の範囲(8ビットの範囲)となるように、ダイナミックレンジ調整を行っても良い(あるいは、正規化処理や所定の値でのクリップ処理やゲイン調整処理(例えば、(数式6)に相当する処理)等を行ってもよい。)。
 このように、SYM(i、j)が0~255の値をとるように調整した場合、対称性評価マップ画像104の各成分は、それぞれ0~255の値を取り得る。図4Dにおいて、白に近い色はSYM(i、j)の値が大きい(255に近い)ことを示している。つまり、図4Dにおいて、白っぽい領域は対称性が高く評価された領域であり、対称となる物体の中心付近を示している。一方、図4Dにおいて、黒っぽい領域は対称性が高くない領域である。なお、上記ダイナミックレンジ変換は一例であり、SYM(i、j)を、0~255の範囲以外の範囲にダイナミックレンジ変換するようにしてもよい。
 また、対称性評価部222は、対称性を評価する対象となる全ての評価画素について、対称幅マップデータを生成(取得)する。
 対称幅マップデータは、各評価画素についてmaxSYMを与える対称幅waを成分とするマップデータである。各評価画素について、対称幅waを画素値とする画像と考えてもよい。図4Eは、対称幅マップデータを画像(対称幅マップ画像105)として描画している。本実施形態においては、評価画素としてエッジ画像103の全ての画素が利用されているので、対称幅マップ画像105は、エッジ画像103の全画素を対称幅waに置き換えたグレースケールの画像である。
 上述したように、本実施形態においては、対称幅waは1からNまでの値を取り得る。したがって、対称幅マップ画像105の各成分は、それぞれ1~Nの値を取り得る。Nの値は画素位置によって異なる。図3Eにおいて、色が白に近い領域は、対称幅waが大きい領域を示している。図3Eにおいて、色が黒に近い領域は、対称幅waが小さい領域を示している。
 続いて、中心検出部223は、対称性評価部222が生成した対称性評価マップデータ(対称性評価マップ画像104)を参照し、対称中心マップデータ(対称中心マップ画像106)を生成する。中心検出部223は、対称性評価マップ画像104の水平方向の各ラインについて、maxSYMの極大点を与える画素(または、極大点付近の画素群)を決定(推定)する。
 図7は、対称性評価マップ画像104の水平方向の変化を示す図である。具体的には、図7は、対称性評価マップ画像104の水平方向の1ラインについてmaxSYMの変化を表す図である。
 図7では、水平方向位置を示す列(i座標)が、330~332である3つの画素(i=330の画素、i=331の画素、および、i=332の画素)において、画素値、すなわち、対称性の評価値(maxSYMの値)が極大となっている。したがって、中心検出部223は、図7に示す水平方向の1ラインについて、i=330の画素、i=331の画素、および、i=332の画素の3つの画素が対称性の評価値(maxSYMの値)の極大点(極大点付近領域)であると判定する。
 同様にして、中心検出部223は、水平方向の全てのラインについて極大点(極大点付近領域)を与える領域(画素または画素群)を特定(推定)する。なお、中心検出部223により特定(推定)された領域を「対称中心画素領域」という。
 図4Fは、中心検出部223により特定(推定)された対称中心画素領域を明示した対称中心マップ画像106である。対称中心マップ画像106は、例えば、対称中心画素領域に含まれると判定された画素に、成分(画素値)「1」を設定し、対称中心画素領域に含まれないと判定された画素に、成分(画素値)「0」を設定することで取得された画像と見ることができる。図4Fにおいて、白色の部分が対称中心画素領域として特定された画素を示している。
 なお、処理対象画素(注目画素)が対称中心画素領域に含まれる否かの判定は、例えば、以下の処理とともに行うようにしてもよい。
(1)対称性評価マップ画像104の各画素において、画素値を予め設定された閾値と比較し、閾値を上回る場合にのみ、極大点の候補とする。
(2)対称性評価マップ画像104の水平方向に平滑化処理(処理対象の水平ラインに対して平滑化処理)を行ってから、極大点の位置(水平位置)を特定する。
 これにより、細かな変動により生まれる極大点を排除することができる。その結果、精度の良い対称中心マップ画像を取得することができる。
 続いて、物体領域検出部224は、入力画像に含まれる対称性を有する物体の水平方向の幅および垂直方向の幅を検出する。
 物体領域検出部224は、対称中心マップデータ(対称中心マップ画像106)および対称幅マップデータ(対称幅マップ画像105)を利用して、物体の水平方向の幅を検出する。
 具体的には、物体領域検出部224は、例えば、以下の(1)~(5)の処理により、物体の水平方向の幅を検出する。なお、説明便宜上、対称中心マップ画像106において、最初に、画素値「1」の画素を含む水平ラインがj行目のラインであるものとして、説明する。
(1)対称中心マップ画像106は、対称性を有する物体の中心軸を構成する画素に画素値「1」が与えられている。したがって、物体領域検出部224は、対称中心マップ画像106において画素値「1」を有する画素を抽出し、その抽出された画素の対称幅を対称幅マップ画像105から取得する。
(1A):
 画素値「1」の画素が水平方向に単独で(水平方向に連続せずに)検出された場合、物体領域検出部224は、抽出された画素値「1」の画素(当該画素の座標を(i,j)とする。)の対称幅W(i,j)を、対称幅マップデータから抽出する。
(1B):
 画素値「1」の画素が水平方向に連続して検出された場合、当該複数の画素(水平方向に連続して存在する画素)の対称幅の平均値を対称幅とする。例えば、画素(i-1,j)、画素(i,j)および画素(i+1,j)の3つの画素の画素値が「1」である場合において、それぞれの対称幅を、W(i-1,j)、W(i,j)およびW(i+1,j)とすると、
  W(i,j)=AVRG(W(i-1,j),W(i,j),W(i+1,j))
あるいは、
  W(i,j)=MAX(W(i-1,j),W(i,j),W(i+1,j))
としてもよい。なお、AVRG()は、要素の平均値をとる関数であり、MAX()は、要素の最大値をとる関数である。
 また、j行目の水平ラインにおいて、上記(1A)または(1B)により算出された対称幅W(i,j)をW(i0、j)と表記する。
(2)次に、j+1行目の水平ラインにおいて、上記(1)で抽出した画素と水平方向の位置がほぼ等しく(例えば、座標位置(i-a,j+1)~座標位置(i+a,j+1)の範囲に含まれる画素。aは、所定の閾値(水平方向がほぼ等しいか否かの判断を行うための値))、かつ、その画素値が「1」である画素がある場合、処理(1)と同様に、当該画素の対称幅を、対称幅マップデータから抽出する。
 j+1行目の水平ラインにおいて、画素値が「1」である画素位置(水平方向の画素値「1」の画素が連続して複数ある場合は、当該画素群の中心位置の画素)を(i,j+1)とすると、物体領域検出部224は、処理(1)と同様にして、画素(i、j+1)の対称幅W(i1,j)を算出する。
(3)j+2行目以降の水平ラインについても、上記と同様の処理を繰り返す。
 なお、上記(1)で抽出した画素と水平方向の位置がほぼ等しい(例えば、座標位置(i-a,j+1)~座標位置(i+a,j+1)の範囲に含まれる画素。aは、所定の閾値(水平方向の位置がほぼ等しいか否かの判断を行うための値))範囲に、画素値「1」の画素が出現しなくなるまで、上記処理を繰り返す。
(4)物体領域検出部224は、上記(1)~(3)の処理で算出した対称幅の最大値maxWを求める。つまり、物体領域検出部224は、下記(数式7)に相当する処理を実行することで、対称幅の最大値maxWを求める。
 なお、(数式7)では、上記(1)で抽出した画素と水平方向の位置がほぼ等しい(例えば、座標位置(i-a,j+1)~座標位置(i+a,j+1)の範囲に含まれる画素。aは、所定の閾値(水平方向がほぼ等しいか否かの判断を行うための値))範囲に、画素値「1」の画素が出現する水平ラインがj行目からj+m-1行目までであるとしている。
Figure JPOXMLDOC01-appb-M000010
(5)そして、物体領域検出部224は、算出した対称幅の最大値maxWを、物体幅(物体の水平方向の中心からの片方の端までの距離)として検出する。図4Fでは、j+k1行目の水平ラインにおいて、対称幅が最大となる場合について例示している。つまり、maxW=W(ik1,j+k1)である場合を例示している。
 物体領域検出部224は、対称中心画素領域の垂直方向の幅(長さ)を利用して、物体の垂直方向の幅を検出する。つまり、物体領域検出部224は、垂直方向に連続して配列された対称中心画素の上端を物体の上端として特定し、垂直方向に連続して配列された対称中心画素の下端を物体の下端として特定する。
 図4Fに示すように、物体領域検出部224は、例えば、垂直方向に連続して配列された対称中心画素の上端が、j行目の水平ライン位置に存在し、垂直方向に連続して配列された対称中心画素の下端が、j+m-1行目の水平ライン位置に存在し、maxW(=W(ik1,j+k1))をとる水平ラインの画素の中心位置が(ik1,j+k1)であるとき、左上の頂点の座標が(ik1-maxW,j)であり、右下の頂点の座標が(ik1+maxW,j+m-1)である四角形で囲まれる領域R1を、対称性が高い物体に相当する画像領域であると判定(特定)する。
 そして、物体領域検出部224は、特定した物体(対称性の高い物体)の画像領域を示す情報(例えば、上記領域R1を特定するための情報(例えば、矩形領域の座標情報等))を合成部23に出力する。
 なお、上記において、物体領域検出部224は、対称性の高い物体の画像領域を矩形領域により特定する場合について説明しているが、これに限定されることはない。例えば、物体領域検出部224は、水平ラインごとに、対称幅マップデータから抽出される対称幅に基づいて、対称性の高い物体の画像領域を特定するようにしてもよい。つまり、この場合、水平ラインごとに、対称中心画素(対称中心画素領域に含まれる画素)から左右に対称幅に相当する長さの領域が、対称性の高い物体の画像領域として特定される。このため、最終的に検出される対称性の高い物体の画像領域は、当該対称性の高い物体の形状と略一致する形となる(例えば、図4Aの車両110の外枠の形状と略一致する形となる)。
 合成部23は、物体領域検出部224から出力される検出した対称性の高い物体の画像上の領域を特定する情報に基づいて、画像入力部21から出力される画像(入力画像101)上に、対称性の高い物体に相当する画像領域を明示する画像を生成(合成)する。合成部23は、例えば、画像入力部21から出力される画像上に、対称性の高い物体に相当する画像領域を明示する四角い枠が表示されるように画像を生成(合成)する。そして、合成部23は、合成した画像を表示装置3に出力する。
 表示装置3は、物体検出装置2の合成部23から出力された、対称性の高い物体に相当する画像領域が明示された画像を表示する。図3Gは、対称性を有する物体である車両110の領域を示す領域枠130が入力画像101に合成された合成画像107を示している。なお、水平方向ラインごとに物体幅が決定された場合には、領域枠は矩形ではなく、物体の外形に沿うような形状(車両110の外枠の形状と略一致する形状)となる。
 以上のように、本実施形態の物体検出システム1000では、入力画像(撮像画像)の画像特徴量を抽出した画像に対して、所定の方向(水平方向)についての対称性を評価するために、幅(所定方向(水平方向)の幅)を変化させながら対称性の評価を行う。したがって、本実施形態の物体検出システム1000では、所定の画像領域の対称性が高いと判定した場合、対称性が高いと判定した画像領域の所定方向(水平方向)の幅も同時に取得することができる。つまり、本実施形態の物体検出システム1000では、画像に含まれる物体の対称性を利用して、物体の位置と大きさを同時に抽出することが可能である。
 また、本実施形態の物体検出システム1000では、所定の方向(水平方向)についての対称性の評価データを用いて、対称性の高い物体の中心軸を検出することができる。したがって、本実施形態の物体検出システム1000では、少ない演算量で、精度良く、対称性の高い物体の検出を行うことができる。
 ≪第1変形例≫
 次に、第1実施形態の第1変形例について、説明する。
  本変形例の物体検出システムの構成は、第1実施形態と同様である。以下では、本変形例において、第1実施形態と相違する点について、説明する。なお、第1実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
 本変形例の対称性評価部222は、(数式4)の代わりに、下記(数式8)に相当する処理を実行する。つまり、(数式4)では、対称性評価値を算出するための画像上の領域が水平ライン1ライン分からなる領域であった。それに対して、(数式8)では、対称性評価値を算出するための画像上の領域が水平ライン(2n+1)ライン分(注目画素が存在する水平ラインを中心とした(2n+1)個の水平ライン)(nは自然数)からなる領域である。
 つまり、本変形例の対称性評価部222は、(数式8)により、(2n+1)個の水平ラインについて、それぞれ、対称性評価値を算出し、算出した各水平ラインの対称性評価値を積算し、積算した値を水平ライン数で除算することで、平均値を取得する。そして、対称性評価部222は、取得した平均値を、注目画素(i,j)の対称性評価値SYM(i、j)とする。なお、(数式8)において、Px,yは、特徴量抽出画像上の座標(x,y)の画素の画像特徴量(画素値)を示している(以下、同様)。
Figure JPOXMLDOC01-appb-M000011
 なお、対称性評価部222は、(数式8)に示すように、対称性評価値を算出する対象領域の垂直方向の幅を、注目画素が含まれる水平ライン、注目画素が含まれる水平ラインの上に位置するnラインおよび下に位置するnラインの合計(2n+1)ライン分に相当する幅として、対称性評価値を算出するが、注目画素が画像上端付近または下端付近であり、かつ、注目画素が含まれる水平ラインの上下にnライン分ずつ確保できない場合、対称性評価値を算出する対象領域の垂直方向の幅を変化させてもよい。例えば、注目画素が画像上端付近であり、注目画素が含まれる水平ラインの上に、(画像上端まで)n1ライン分(n1<nとする)存在している場合、(j-n1)ラインから(j+n)ラインまでの合計(n1+n+1)ライン分の領域を、対称性評価値を算出する対象領域としてもよい。
 本変形例の対称性評価部222は、前述の実施形態と同様に、(数式8)に相当する処理を行い、最大値maxSYMを与えるwを、対称幅waとして取得する。
 そして、本変形例の中心検出部223、物体領域検出部224、および、合成部23は、前述と同様の処理を行う。
 このように、本変形例の物体検出システムでは、本変形例の対称性評価部222は、(数式8)により、(2n+1)個の水平ラインについて、それぞれ、対称性評価値を算出し、算出した各水平ラインの対称性評価値を積算し、積算した値を水平ライン数で除算することで取得した平均値により、注目画素(i,j)の対称性評価値SYM(i、j)を算出する。つまり、本変形例の物体検出システムでは、垂直方向に所定の幅を有する画像領域を対称性評価の対象とするので、垂直方向に高い相関性を有する対称領域(例えば、対称軸(中心軸)と平行な辺を有する四角形の物体等)を精度良く検出することができる。
 なお、対称性評価部222は、(数式8)の代わりに、(数式9)を用いて、対称性評価値SYM(i、j)を算出してもよい。
Figure JPOXMLDOC01-appb-M000012
 つまり、(数式8)の処理では、対称性評価部222は、まず、水平方向において対称性評価を行い、次に、垂直方向に積算して、平均値を求めることで、注目画素(i,j)の対称性評価値SYM(i、j)を算出する。
 一方、(数式9)の処理では、対称性評価部222は、まず、各項の垂直方向の積算処理(平均値算出処理)を行い、次に、水平方向において対称性評価を行うことで、注目画素(i,j)の対称性評価値SYM(i、j)を算出する。
 対称性評価部222が(数式9)による処理を行うことで、(数式8)の処理と同様の処理結果を取得することができる。
 ≪第2変形例≫
 次に、第1実施形態の第2変形例について、説明する。
 本変形の物体検出システムの構成は、前述の実施形態と同様である。以下では、本実施形態において、前述の実施形態と相違する点について、説明する。なお、前述の実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
 本変形例の対称性評価部222は、(数式8)の代わりに、下記(数式10)に相当する処理を実行する。つまり、(数式10)では、垂直方向の重み付けが、全ての水平ラインにおいて、「1」(重み付けなし)であったが、(数式10)では、垂直方向の重み付け関数d(m)により、水平ラインごとに、関数d(m)で決定される重み付け処理がなされる。
Figure JPOXMLDOC01-appb-M000013
 例えば、
  d(m)=n+1-|m-j|

  d(m)=c1×exp(-c2×(m-j)^2)
  (c1は、d(m)の最大値を決定するための係数(正の係数)。c2は垂直方向のレンジ調整用の係数(正の係数)。)
とすることで、注目画素(i,j)が存在する水平ラインでの重み付けを大きくし、注目画素(i,j)が存在する水平ラインから離れる程、重み付けを小さくすることができる。
 これにより、注目画素(i,j)が存在する水平ライン付近において、左右対称性が高い領域が存在する場合に、対称性評価値が高くなるようにすることができる。
 なお、対称性評価部222は、(数式10)の代わりに、(数式11)を用いて、対称性評価値SYM(i、j)を算出してもよい。
Figure JPOXMLDOC01-appb-M000014
 つまり、(数式10)の処理では、対称性評価部222は、まず、水平方向において対称性評価を行い、次に、垂直方向に積算して、平均値を求めることで、注目画素(i,j)の対称性評価値SYM(i、j)を算出する。
 一方、(数式11)の処理では、対称性評価部222は、まず、各項の垂直方向の積算処理(平均値算出処理)を行い、次に、水平方向において対称性評価を行うことで、注目画素(i,j)の対称性評価値SYM(i、j)を算出する。
 対称性評価部222が(数式11)による処理を行うことで、(数式10)の処理と同様の処理結果を取得することができる。
 [第2実施形態]
 次に、第2実施形態について、説明する。
 本実施形態の物体検出システムの構成は、第1実施形態と同様である。以下では、本実施形態において、第1実施形態と相違する点について、説明する。なお、上記実施形態と同様の部分については、上記実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
 第1実施形態では、画像特徴量抽出部221は、物体の画像特徴量としてエッジ成分を利用した。そして、画像特徴量として抽出したエッジ成分に基づき、対称性の評価を行った。
 第2実施形態では、画像特徴量抽出部221は、物体の画像特徴量として特定の色成分を利用する。たとえば、画像特徴量抽出部221は、画像特徴量として赤色成分を抽出する。
 以下、本実施形態の物体検出システムの動作について、説明する。
 図8Aは、本実施形態の物体検出システムにおいて実行される物体検出処理の各段階において取得される画像の一例を示した図である。
 なお、本実施形態においても、撮像装置1において、図4Aに示した撮像画像101が取得され、撮像画像101が物体検出装置2で処理される場合を例に説明する。
 画像入力部21は、撮像装置1から入力されたRGB色空間の画像信号(R成分信号、G成分信号およびB成分信号)を、YCbCr色空間の信号(Y成分信号、Cb成分信号およびCr成分信号)に変換する。そして、画像入力部21は、Cr成分信号(Cr成分画像202)を画像特徴量抽出部221に出力する。
 画像特徴量抽出部221は、画像入力部21により取得されたCr成分画像(色差赤色成分画像)202に対して、画像特徴量を抽出する処理を実行する。なお、本実施形態では、画像特徴量として、Cr成分に相関のある物理量を利用する。
 つまり、本実施形態では、画像特徴量抽出部221は、Cr成分画像202に対してCr成分強調処理(エンハンス処理)を実行し、特徴量抽出画像(R成分画像(Cr成分強調画像))203を生成する。
 この後の処理は第1実施形態と同様である。第1実施形態におけるエッジ画像をR成分画像に置き換えた上で、同様の処理を実行し、対称性のある物体を検出する。
 つまり、対称性評価部222は、第1実施形態と同様の処理を、図8Cに示す特徴量抽出画像(R成分画像(Cr成分強調画像))203に対して実行し、対称性評価マップデータ(図8Dに示す対称性評価マップ画像204に対応。)および対称幅マップデータ(図8Eに示す対称幅マップ画像205に対応。)を取得する。
 そして、中心検出部223は、第1実施形態と同様の処理を、対称性評価マップデータ(図8Dに示す対称性評価マップ画像204に対応。)に対して実行し、対称中心マップデータ(図8Fに示す対称中心マップ画像206に対応。)を取得する。
 物体領域検出部224は、第1実施形態と同様の処理を、対称中心マップデータ(図8Fに示す対称中心マップ画像206に対応。)および対称幅マップデータ(対称幅マップ画像205)を利用して、物体の水平方向の幅を検出し、さらに、物体の垂直方向の幅を検出する。
 合成部23は、第1実施形態と同様に、物体領域検出部224から出力される検出した対称性の高い物体の画像上の領域を特定する情報に基づいて、画像入力部21から出力される画像(入力画像101)上に、対称性の高い物体に相当する画像領域を明示する画像を生成(合成)する。
 そして、合成部23により生成(合成)された画像は、表示装置3により表示される。図8Gに合成部23により取得された画像(出力画像207)の一例を示す。図8Gに示すように、左右対称の位置に赤色の画像領域(画像領域230)を有する領域が適切に検出されている。
 図8Gは、第2実施形態において表示装置3に表示された合成画像207を示す図である。第1実施形態においては、エッジ成分により物体の対称性を評価したので、車両の全体が物体の大きさとして抽出されている。これに対して、第2実施形態においては、車両のテールランプの赤色を中心に物体の対称性が評価されたので、テールランプを含む領域(画像領域230)が抽出されていることが分かる。
 以上のように、本実施形態の物体検出システムでは、入力画像(撮像画像)の画像特徴量を抽出した画像(特定の色成分を抽出した画像)に対して、所定の方向(水平方向)についての対称性を評価するために、幅(所定方向(水平方向)の幅)を変化させながら対称性の評価を行う。したがって、本実施形態の物体検出システムでは、所定の画像領域の対称性が高いと判定した場合、対称性が高いと判定した画像領域の所定方向(水平方向)の幅も同時に取得することができる。つまり、本実施形態の物体検出システムでは、画像に含まれる物体の対称性を利用して、物体の位置と大きさを同時に抽出することが可能である。
 また、本実施形態の物体検出システムでは、所定の方向(水平方向)についての対称性の評価データを用いて、対称性の高い物体の中心軸を検出することができる。したがって、本実施形態の物体検出システムでは、少ない演算量で、精度良く、対称性の高い物体の検出を行うことができる。さらに、本実施形態の物体検出システムでは、特定の色成分について抽出した画像を用いて処理を行うので、特定の色成分を多く含む対称性の高い物体を精度良く検出することができる。
 なお、第1実施形態と第2実施形態の両方を組み合わせてもよい。エッジ画像に対して物体の垂直方向および水平方向の幅および位置を特定する。さらに、特定の色成分画像を利用して物体の垂直方向および水平方向の幅および位置を特定する。そして、それらの平均値をとることで物体の位置および大きさを特定することができる。あるいは、エッジ画像に基づいて求められた値と色成分に基づいて求められた値のいずれかに重みづけを行って物体の位置および大きさを特定してもよい。
 また、上記では、赤色成分に注目して処理を行う場合について説明したが、これに限定されることはなく、他の色成分(例えば、緑色成分や青色成分)に注目して処理を行い、所定の色についての対称性の高い物体を検出するようにしてもよい。
 また、画像特徴量を抽出するための色空間変換は、本実施形態で説明したものに限定されることはなく、特定の色成分の信号を抽出するために、他の色空間変換を行い、所望の色成分信号(色成分画像)を抽出するようにしてもよい。
 また、本実施形態においても、第1実施形態の第1変形例および第2変形例と同様の処理を実行するようにしてもよい。
 [他の実施形態]
 上述の実施形態および変形例の一部または全部を組み合わせてもよい。
 上述の実施形態においては、水平方向に関して対称性を有する物体を検出した。同様に、垂直方向に関して対称性を有する物体を検出してもよい。つまり、第1実施形態および第2実施形態における水平方向の処理と垂直方向の処理を逆にして、第1実施形態および第2実施形態の処理を実行することで、垂直方向に関して対称性を有する物体を検出してもよい。
 また、上述の実施形態の物体検出装置2において、各機能部の全部または一部が、共有のメモリ(例えば、フレームメモリ)を用いて、処理を行うようにしてもよい。
 また、上述の実施形態の物体検出システムにおいて、撮像装置が、所定のフレームレート(例えば、15fps)でカラー画像を撮像する場合であれば、上記共有のメモリは、物体検出装置が当該所定のフレームレート(例えば、15fps)のカラー画像を処理できるだけのメモリ容量を有するメモリとすることが好ましい。
 また、上述の実施形態において、(数式4)等、8ビットのデータ(0~255のデータ)を前提として処理を行っている部分があるが、ビット数が、上記で説明したビット数(データの取り得る範囲)に限定されないのは言うまでもない。
 また、上記実施形態で説明した物体検出システム又は物体検出装置において、各ブロックは、LSIなどの半導体装置(集積回路やプログラム可能なFPGA(Field Programmable Gate Array)等を含む。)により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。また、上記実施形態で説明した物体検出システム又は物体検出装置において、各ブロックは、複数のチップ(LSIなどの半導体装置)により実現されるものであってもよい。
 また、上記各実施形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記各実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
 また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。なお、上記実施形態に係る物体検出システム又は物体検出装置をハードウェアにより実現する場合、各処理を行うためのタイミング調整を行う必要があるのは言うまでもない。上記実施形態においては、説明便宜のため、実際のハードウェア設計で生じる各種信号のタイミング調整の詳細については省略している。
 また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。
 前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc(登録商標))、半導体メモリを挙げることができる。
 上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
 なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。
1000 物体検出システム
1 撮像装置
2 物体検出装置
3 表示装置(モニタ)
21 画像入力部
22 物体検出部
23 合成部
221 画像特徴量抽出部
222 対称性評価部
223 中心検出部
224 物体領域検出部
23 合成部

Claims (10)

  1.  画像を入力する画像入力部と、
     前記画像から所定の画像特徴量を抽出して特徴量抽出画像を生成する画像特徴量抽出部と、
     前記特徴量抽出画像に対して、処理対象である注目画素ごとに、前記画像上の第1方向についての対称性を評価するための領域である対称性評価領域を前記第1方向と直交する第2方向の中心軸を中心として対称となるように設定し、前記対称性評価領域の大きさを変化させながら、前記対称性評価領域に含まれ、前記中心軸について対称となる位置に存在する画素群の画像特徴量の相関値に対して、前記画素群の画像特徴量による重み付けを行った値を導出することで、前記第1方向の対称性の度合いを示す対称性評価値を取得する対称性評価部と、
    を備える物体検出装置。
  2.  前記対称性評価部は、前記対称性評価値が第1方向についての対称性が最大であることを示す値である場合の前記対称性評価領域の大きさに基づいて、前記第1方向に関する対称幅を決定する、
     請求項1に記載の物体検出装置。
  3.  前記対称性評価部は、
     前記特徴量抽出画像上の画素値が0または正の値をとり、前記画像特徴量が大きい程、大きな値をとるものとし、前記特徴量抽出画像上の画素値の取り得る最大値以上の所定の値をPmaxとし、
     前記特徴量抽出画像上の座標(i,j)の注目画素の画素値をPとし、前記注目画素から前記第1方向の一方向である第1探索方向にk画素(kは自然数)離れた画素の画素値をPi-kとし、前記注目画素から前記第1方向の前記第1探索方向と逆方向である第2検索方向にk画素離れた画素の画素値をPi+kとし、
     前記対称性評価領域の前記第1方向の幅を2w+1とするとき、
     前記対称性評価領域の前記第1方向の幅2w+1(wは自然数)を変化させながら、
    Figure JPOXMLDOC01-appb-I000001
    に基づいて、前記注目画素の前記対称性評価値を算出する、
     請求項1または2に記載の物体検出装置。
  4.  前記対称性評価部は、
     前記特徴量抽出画像上の画素値が0または正の値をとり、前記画像特徴量が大きい程、大きな値をとるものとし、前記特徴量抽出画像上の画素値の取り得る最大値以上の所定の値をPmaxとし、
     前記特徴量抽出画像上の座標(i,j)の画素の画素値をPi,jとし、
     前記対称性評価領域の前記第1方向の幅を2w+1とし、
     前記対称性評価領域の前記第2方向の幅を2n+1とし、
     所定の重み付け関数をd(m)とするとき、
     前記対称性評価領域の前記第1方向の幅2w+1(wは自然数)を変化させながら、
    Figure JPOXMLDOC01-appb-I000002
    または、
    Figure JPOXMLDOC01-appb-I000003
    に基づいて、前記注目画素の前記対称性評価値を算出する、
     請求項1または2に記載の物体検出装置。
  5.  前記重み付け関数d(m)は、
    (1)d(m)=1、
    (2)d(m)=n+1-|m-j|、および
    (3)d(m)=c1×exp(-c2×(m-j)^2)
    (c1およびc2は、所定の正の係数)
    のいずれか一つである、
     請求項4に記載の物体検出装置。
  6.  前記対称性評価部は、
     前記SYM(i、j)の最大値maxSYMを取得するとともに、前記SYM(i、j)が最大値となるときの前記対称性評価領域の前記第1方向の幅2w+1に基づいて、前記対称幅を決定する、
     請求項3から5のいずれかに記載の物体検出装置。
  7.  前記対称性評価部は、
     前記画像の前記第1方向の画素数をH(Hは自然数)とすると、
    (1)前記注目画素の前記第1方向の位置を示す列iが(H/2)以下の場合、前記対称性評価領域の前記第1方向の幅の半分であるwを、1≦w≦(i-1)の範囲で変化させて、前記対称性評価値を算出し、
    (2)前記注目画素の第1方向の位置を示す列iが(H/2)より大きい場合、前記対称性評価領域の前記第1方向の幅の半分であるwを、1≦w≦(H-i)の範囲で変化させて、前記対称性評価値を算出する、
     請求項1から6のいずれかに記載の物体検出装置。
  8.  画像特徴量は、前記画像のエッジ強度である、
     請求項1から7のいずれかに記載の物体検出装置。
  9.  画像特徴量は、前記画像の特定の色成分の強度である、
     請求項1から7のいずれかに記載の物体検出装置。
  10.  画像を入力する画像入力ステップと、
     前記画像から所定の画像特徴量を抽出して特徴量抽出画像を生成する画像特徴量抽出ステップと、
     前記特徴量抽出画像に対して、処理対象である注目画素ごとに、前記画像上の第1方向についての対称性を評価するための領域である対称性評価領域を前記第1方向と直交する第2方向の中心軸を中心として対称となるように設定し、前記対称性評価領域の大きさを変化させながら、前記対称性評価領域に含まれ、前記中心軸について対称となる位置に存在する画素群の画像特徴量の相関値に対して、前記画素群の画像特徴量による重み付けを行った値を導出することで、前記第1方向の対称性の度合いを示す対称性評価値を取得する対称性評価ステップと、
    を備える物体検出方法をコンピュータに実行させるためのプログラム。
PCT/JP2013/056733 2012-04-26 2013-03-12 物体検出装置およびプログラム WO2013161407A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP13781887.8A EP2830020B1 (en) 2012-04-26 2013-03-12 Object detection device and program
US14/387,922 US9330318B2 (en) 2012-04-26 2013-03-12 Object detection apparatus and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012100673A JP5911062B2 (ja) 2012-04-26 2012-04-26 物体検出装置およびプログラム
JP2012-100673 2012-04-26

Publications (1)

Publication Number Publication Date
WO2013161407A1 true WO2013161407A1 (ja) 2013-10-31

Family

ID=49482747

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/056733 WO2013161407A1 (ja) 2012-04-26 2013-03-12 物体検出装置およびプログラム

Country Status (4)

Country Link
US (1) US9330318B2 (ja)
EP (1) EP2830020B1 (ja)
JP (1) JP5911062B2 (ja)
WO (1) WO2013161407A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6464706B2 (ja) * 2014-12-05 2019-02-06 富士通株式会社 物体検出方法、物体検出プログラムおよび物体検出装置
JP6393230B2 (ja) * 2015-04-20 2018-09-19 株式会社日立製作所 オブジェクト検出方法及び画像検索システム
RU2603495C1 (ru) * 2015-06-16 2016-11-27 Общество с ограниченной ответственностью "Аби Девелопмент" Классификация изображений документов на основе параметров цветовых слоев
CN105512653A (zh) * 2016-02-03 2016-04-20 东南大学 一种基于车辆对称特征的城市交通场景中车辆的检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10162118A (ja) * 1996-11-29 1998-06-19 Canon Inc 画像処理装置及び方法
JP2000039306A (ja) * 1998-07-22 2000-02-08 Nec Corp 車両領域検出装置及び車両領域検定方法
JP2010267257A (ja) 2009-04-16 2010-11-25 Panasonic Corp 画像処理装置、画像処理方法及び画像処理プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0356727A3 (en) * 1988-08-09 1991-06-05 Schlumberger Technologies Inc Symmetrie-based target position measurement
EP1474782B1 (en) * 2002-01-18 2008-05-07 Agency for Science, Technology and Research (A*STAR) Method and apparatus for determining symmetry in 2d and 3d images
CN101029824B (zh) 2006-02-28 2011-10-26 东软集团股份有限公司 基于车辆特征的车辆定位方法和装置
US8331637B2 (en) * 2006-03-03 2012-12-11 Medic Vision-Brain Technologies Ltd. System and method of automatic prioritization and analysis of medical images
US8204278B2 (en) * 2006-11-28 2012-06-19 Fujitsu Limited Image recognition method
WO2008065717A1 (fr) 2006-11-29 2008-06-05 Fujitsu Limited Système et procédé de détection de piéton
JP4917961B2 (ja) 2007-05-22 2012-04-18 株式会社日本自動車部品総合研究所 車載用車両灯検出装置および車両用照明装置
JP2010177780A (ja) 2009-01-27 2010-08-12 Toyota Motor Corp 撮像装置
JP5316337B2 (ja) 2009-09-17 2013-10-16 日本電気株式会社 画像認識システム、方法、及び、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10162118A (ja) * 1996-11-29 1998-06-19 Canon Inc 画像処理装置及び方法
JP2000039306A (ja) * 1998-07-22 2000-02-08 Nec Corp 車両領域検出装置及び車両領域検定方法
JP2010267257A (ja) 2009-04-16 2010-11-25 Panasonic Corp 画像処理装置、画像処理方法及び画像処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2830020A4

Also Published As

Publication number Publication date
US9330318B2 (en) 2016-05-03
EP2830020A1 (en) 2015-01-28
EP2830020A4 (en) 2015-05-06
US20150078666A1 (en) 2015-03-19
EP2830020B1 (en) 2019-05-01
JP5911062B2 (ja) 2016-04-27
JP2013228901A (ja) 2013-11-07

Similar Documents

Publication Publication Date Title
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
CN102685511B (zh) 图像处理设备和图像处理方法
WO2013073167A1 (ja) 画像処理装置、撮像装置および画像処理方法
JP2015197745A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP5779089B2 (ja) エッジ検出装置、エッジ検出プログラム、およびエッジ検出方法
US8774551B2 (en) Image processing apparatus and image processing method for reducing noise
JP6477369B2 (ja) 情報埋め込み装置、情報埋め込み方法、及び情報埋め込みプログラム
JP5911062B2 (ja) 物体検出装置およびプログラム
WO2018147059A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6340228B2 (ja) 物体検出装置
JP5911063B2 (ja) 物体検出装置およびプログラム
JP6008367B2 (ja) 物体検出装置およびプログラム
JP5891751B2 (ja) 画像間差分装置および画像間差分方法
JP2013232023A5 (ja)
JP5446641B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6552248B2 (ja) 画像処理装置及び方法、撮像装置、並びにプログラム
JP2016062447A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP6314281B1 (ja) 画像処理方法及び前景領域取得方法
JP5605492B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2015001967A (ja) エッジ検出装置およびエッジ検出方法
JP2009070402A (ja) 画像処理装置、画像処理方法、そのプログラム、およびそのプログラムを記録したコンピュータ読取り可能な記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13781887

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14387922

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2013781887

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE