WO2005071611A1 - 画像中の人物候補領域抽出方法及び人物候補領域抽出システム、人物候補領域抽出プログラム、並びに人物像の天地判定方法及び天地判定システム、天地判定プログラム - Google Patents

画像中の人物候補領域抽出方法及び人物候補領域抽出システム、人物候補領域抽出プログラム、並びに人物像の天地判定方法及び天地判定システム、天地判定プログラム Download PDF

Info

Publication number
WO2005071611A1
WO2005071611A1 PCT/JP2005/001568 JP2005001568W WO2005071611A1 WO 2005071611 A1 WO2005071611 A1 WO 2005071611A1 JP 2005001568 W JP2005001568 W JP 2005001568W WO 2005071611 A1 WO2005071611 A1 WO 2005071611A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
person
human
line
vertical
Prior art date
Application number
PCT/JP2005/001568
Other languages
English (en)
French (fr)
Inventor
Toshinori Nagahashi
Takashi Hyuga
Original Assignee
Seiko Epson Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corporation filed Critical Seiko Epson Corporation
Priority to EP05704381A priority Critical patent/EP1710747A4/en
Publication of WO2005071611A1 publication Critical patent/WO2005071611A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Definitions

  • Patent application title Method of human candidate area extraction in image and human candidate area extraction system, human candidate area extraction program, method of judging top and bottom of person image, top and bottom judgment system, top and bottom judgment program
  • the present invention relates to pattern recognition, recognition, and object recognition technology, and in particular, it is possible to determine the top and bottom of an image including a human image and to extract an area having a high possibility of the existence of a human from the image.
  • the present invention relates to a method of extracting a human candidate region and a human candidate region extraction system in an image, a human object candidate region extraction program, a method of determining a top and bottom of a human image, a top and bottom determination system, and a top and bottom determination program.
  • JP-A-H09-105258 first, a skin color area in an image is extracted, mosaic data is created according to the extracted area, this is compared with an image dictionary, and the degree of coincidence is calculated. To detect the face image area.
  • the skin color area does not necessarily coincide with the human face area, and if the skin color area is broadly defined, unnecessary areas are extracted, and if it is narrowly defined, extraction leakage occurs.
  • the present invention has been devised to effectively solve such problems, and its main purpose is to determine the orientation of the image including the human image and the human image in the image.
  • Human candidate area extraction method and person candidate area extraction system in novel images capable of extracting areas robustly and rapidly, person candidate area extraction program, person image top-and-bottom determination method and image It provides a judgment system and a Tenchi judgment program. Disclosure of the invention
  • the human candidate extraction method in an image according to Invention 1 is a method for extracting an area in which a person image is present from an image including a person image, and For each vertical line and horizontal line consisting of pixel rows, the variance value of each image feature quantity is determined, and the area where the variance value of each image feature quantity exceeds the threshold value in each of the vertical line direction and the horizontal line direction
  • the present invention is characterized in that an area in the image which is selected and overlapped with each other in each selected line direction is extracted as an area in which the person exists.
  • the variances of the image feature amounts are determined for the vertical line consisting of the pixel rows in the vertical direction and the horizontal line consisting of the pixel rows in the horizontal direction that constitute the image
  • the variance value of this image feature value is an area where a person exists as will be described in detail later. Then, it tends to be higher and lower in background areas where there are no people.
  • a threshold value is set for the variance value of the image feature obtained for each of the vertical line direction and the horizontal line direction, and the areas exceeding the threshold are selected, and the selected line direction areas overlap with each other.
  • the human candidate area extraction method in an image according to Invention 2 is a method for extracting an area where the human image is present from an image including a human image, The vertical direction is determined, and the image is rotated based on the determination result to correct the human image in the actual vertical direction. Thereafter, vertical lines and horizontal lines made up of vertical and horizontal pixel rows constituting the image are corrected. While determining the variance value of each image feature quantity, selecting the area where the variance value of each image feature quantity exceeds the threshold value in the vertical line direction and the horizontal line direction, and overlapping the selected line direction areas It is characterized in that the region in the image is extracted.
  • the orientation of the person image in the image is determined, and the person image is corrected to the actual orientation so that the person's face is made to match the original orientation. It is
  • the vertical line consisting of the pixel line in the vertical direction constituting the image and the horizontal line consisting of the pixel line in the horizontal direction are arranged similarly to the invention 1
  • the variances of the respective image feature quantities are determined for each of A threshold value is set for the variance value of the extracted image feature amount, regions exceeding the threshold value are respectively selected, and regions in the image in which the regions in the respective selected line directions overlap are specified.
  • the discrimination of the vertical direction of the person image in the image is characterized in that the image is surrounded by a polygonal frame having a triangle or more and included in the image. If the image of the person being photographed is a part centered on the upper body or head, the variance value of the image feature value is determined for the pixel row constituting the line on or near each side of the image frame, and the variance value It is characterized in that the side with the largest side or the side near the line is directed to the ground.
  • the human image included in the target image is a part centered on the upper body or head, it is normal that a part of the human image is cut at any side of the image frame. It is.
  • the variance value of the image feature amount is determined for the pixel sequence constituting the side of each side or each side of the image frame, and the dispersion value is the largest. Since it can be regarded as a broken part, by setting the side to the ground direction, it is possible to perform the judgment of the human figure of the image in a reliable and easy manner.
  • Invention 3 In the human candidate area extraction method according to the third aspect, a plurality of lines of the image are selected in close proximity, and the average value of the variance value of the image feature amount for each line is used. It is characterized by
  • the human candidate area extraction method in an image according to the fifth aspect of the present invention is characterized in that, in the human candidate area extraction method according to any one of the first to fourth aspects, the vertical line and the horizontal line are width directions and heights of the image. It is characterized in that lines at constant intervals in the direction are used.
  • the dispersion value of the image special amount may be calculated using all the lines in the width direction and height direction of the image, but as in the present invention, the dispersion value is obtained using lines at regular intervals. Since the amount of information processing to be performed is greatly reduced, it is possible to extract an area in which a person image exists faster.
  • a person candidate region extraction method in an image of invention 6 is
  • the image feature amount may be an edge intensity or a hue angle of each pixel of a pixel row constituting each line, or both of them. It is characterized in that it is calculated based on that.
  • the edge of the image can be calculated at high speed by using a known edge detection operator, and the influence of illumination can be reduced. Therefore, if this is adopted as the image feature amount, the variance value can be calculated. It is possible to calculate accurately and quickly.
  • a person candidate region extraction method in an image of invention 7 is
  • Invention according to the sixth aspect of the present invention is characterized in that the edge strength uses an edge detection operator of S b b 1.
  • the most representative method for detecting rapid gradation change in an image is Find the derivative about. Then, since the differentiation of the digital image is substituted by the difference, the edge portion in which the gradation in the image is rapidly changed by first differentiating the image in the face detection frame
  • the present invention uses the known S obe 1 edge detection operator with excellent detection performance as the first-order differential edge detection operator (filter). It is possible to reliably detect the human figure in the image.
  • Image feature quantity calculation means for calculating the respective image feature quantities for the line and the horizontal line, and variance values of the respective image feature quantities for the vertical line direction and the horizontal line direction obtained by the image feature quantity calculation means A variance value calculation means, and a region in which the person exists is detected from the line direction regions in which the variance value of the image feature amount obtained by the variance value calculation means exceeds the threshold value in the vertical line direction and the horizontal line direction.
  • a human candidate area detection means for extracting an area in which a person image is present from an image including a person image, the image reading means for reading the image, and a vertical line comprising pixel rows constituting the image read by the image reading means.
  • invention 9 is a human candidate capture area extraction system according to
  • a system for extracting an area in which a person image is present from an image including a person image, the image reading means for reading the image, and the orientation of the person image in the image read by the image reading means The vertical direction correcting means for correcting the human image in the actual direction of the earth by rotating the image based on the result of the vertical direction judging means; Image feature amount calculating means for calculating image feature amounts of vertical lines and horizontal lines made up of the pixel rows constituting the image after being extracted; vertical line directions obtained by the image feature amount calculating means; Dispersion value calculation means for calculating the dispersion value of each image feature amount in the horizontal line direction, and each dispersion value of the image feature amount obtained by the dispersion value calculation means exceeds the threshold value in the vertical line direction and the horizontal line direction A person candidate area detecting means for detecting an area where the person exists from an area in the line direction.
  • the top-bottom determining means for determining the top-bottom direction of the human image in the image the image is surrounded by a polygonal frame having a triangle or more.
  • the variance of the image feature value is determined for each side of the image or the line near each side, and the variance is the largest. It is characterized in that the large side or the side near the line is directed to the ground.
  • the cut edge of the human image in the image frame can be detected, it is possible to reliably and easily determine the vertical position of the human image of the image.
  • the top-bottom discrimination means for discriminating the top-bottom direction of the human image in the image selects a plurality of lines of the image in close proximity, and It is characterized in that an average value of variance values of image feature amounts for each line is used.
  • an average value of variance values of image feature amounts for each line is used.
  • the image feature quantity calculation means as the vertical line and the horizontal line, has a constant interval in the width direction and the height direction of the image. It is characterized in that each line is used.
  • the amount of information processing for obtaining the variance value is greatly reduced as in the fifth aspect of the invention, so that it is possible to extract an area where a human image exists faster. .
  • the image feature quantity calculating unit is configured to: determine the image feature quantity; an edge of each pixel of a pixel row constituting each line It is characterized in that it is calculated based on either or both of the intensity and the hue angle.
  • the image feature amount calculating means is configured to calculate the edge intensity using an edge detection operator of S obe 1. It is said that.
  • Dispersion value calculation means for obtaining the variance value of each image feature amount in the vertical line direction and horizontal line direction obtained by the image feature amount calculation means
  • a person candidate area for detecting an area in which the person is present from the area in the line direction in which the dispersion value of the image feature amount obtained by the dispersion value calculation means exceeds a threshold in each of the vertical line direction and the horizontal line direction; It is characterized in that the detection means and the computer are made to function.
  • Image feature quantity calculation means for calculating image feature quantities for vertical lines and horizontal lines consisting of pixel rows constituting the image after the vertical direction correction means corrects the vertical direction and the image feature quantity calculation means
  • the variance value calculation means for obtaining the variance value of each image feature quantity in the vertical line direction and the horizontal line direction obtained in the above, and the variance value of the image feature quantity obtained by the variance value calculation means is the longitudinal line direction
  • a person candidate area detecting means for detecting an area in which the person exists from areas in the line directions exceeding a threshold respectively in the horizontal line direction, and a function of causing the computer to function.
  • Invention 16 In the human candidate area extraction program in an image according to 6, the top-bottom determination means for determining the top-bottom direction of the human image in the image, the image is surrounded by a polygon or more polygon frame.
  • the variance value of the image feature value is determined for the line on each side of the image or in the vicinity of the side, and The feature is that the side with the largest variance value or the side near the line is directed to the ground.
  • the top-bottom discrimination means for discriminating the top-bottom direction of the person image in the image, selects a plurality of lines of the image in proximity to each other, It is characterized in that the average value of the variance value of the image feature amount for each line is used.
  • invention 1 The human candidate area extraction program in the image of nineteen,
  • the image feature quantity calculation means as the vertical line and the horizontal line, has a constant interval in the width direction and the height direction of the image. It is characterized in that each line is used.
  • the image feature quantity calculation means is characterized in that: the image feature quantity; edge strength of each pixel of a pixel row constituting each line It is characterized in that it is calculated based on either or both of the hue angles.
  • Invention 2 The method of determining the image of a person according to 2
  • a method for determining the vertical direction of a human figure in an image in which a human figure centered on the upper body or head is present in a polygonal frame of a triangle or more comprising: lines on each side of the image or lines near the sides It is characterized in that the variance value of the image feature quantity of the pixel row constituting the image is determined, and the side with the largest variance value or the side near the line is determined as the ground direction.
  • the variance value of the image feature amount is determined for the pixel array constituting the side of each side or each side of the image frame, and the side with the largest dispersion value or the side near the line is the cut of the person image.
  • a program for determining the vertical direction of a human figure in an image in which a human figure centered on the upper body or head is present in a polygonal frame of a triangle or more the computer comprising: Dispersion value calculation means for calculating the dispersion value of the image feature quantity of the pixel row constituting the line near each side, and the side with the largest dispersion value obtained by the dispersion value calculation means or the side side near the line toward the ground It is characterized in that it is made to function as a top-bottom discrimination means for discriminating.
  • the top-and-bottom judgment of the human figure can be carried out reliably and easily, and the software is implemented using a general-purpose computer (hardware) such as a personal computer (PC).
  • a general-purpose computer such as a personal computer (PC).
  • FIG. 1 is a block diagram showing an embodiment of a person candidate area extraction system according to the present invention.
  • FIG. 2 is a block diagram showing hardware available in the system of the present invention.
  • FIG. 3 is a flowchart showing the process flow of the person candidate area extraction method of the present invention.
  • FIG. 4 is a view showing an example of an image to be a human candidate extraction area.
  • FIG. 5 is a diagram showing an operator of S o b e 1.
  • FIG. 6 is a diagram showing changes in the image feature quantity variance value for each line in the vertical and horizontal directions.
  • FIG. 7 is a conceptual diagram showing a state in which regions where the variance value exceeds the threshold overlap each other.
  • FIG. 1 shows an embodiment of a person candidate area extraction system 100 in an image according to the present invention.
  • the person candidate area extraction system 100 includes an image reading means 10 for reading an image G to be a person candidate area extraction target, and a person in the image G read by the image reading means 10.
  • a top-bottom determination means 1 1 for determining the top-bottom direction of the image
  • a top-bottom correction means 12 for correcting the human image in the actual top-to-bottom direction based on the result of the top-bottom determination means 1 1
  • Image feature quantity calculation means 1 3 for calculating the image feature quantity of the image G after the vertical direction is corrected in 2 and variance value of the image feature quantity obtained by the image feature quantity calculation means 1 3
  • Mainly composed of calculation means 14 and person candidate area detection means 15 for detecting an area where a person exists based on the variance value of the image feature amount obtained by the variance value calculation means 14.
  • the image reading means 10 is for identification cards such as passports and driver's licenses.
  • An image that includes a human figure centered on the upper body or head within a rectangular frame (edge) with uniform or complicated background, such as a photograph of a part or a part of a snapshot.
  • an imaging sensor such as C CD (charge coupled device) or CMOS (complementary memory), R (red) and G (green). It is designed to provide functions such as reading and capturing as digital image data consisting of respective pixel data of and B (blue).
  • a digital still camera a CCD such as a digital video camera, a CMOS camera, a vidicon camera, an image scanner, a drum scanner, etc.
  • the face image G read optically by the imaging sensor is subjected to AZD conversion It is designed to provide a function of sequentially sending digital image data of the above to the top-bottom discrimination means 11.
  • the image reading means 10 is provided with a data storage function, and the read face image data can be suitably stored in a storage device such as a hard disk drive (HDD) or a storage medium such as a DVD-ROM. It has become. Also, when the image G is supplied as digital image data via a network, storage medium, etc., this image reading means 10 becomes unnecessary, or DCE, D ata C icuit t e r e ing e quiment It functions as a communication means (I / F) etc., such as C CU (C ommu nication C ontrol U nit) CCP (C o m ic u on C ontrol Pro cessor).
  • a communication means I / F
  • the top-bottom determination means 11 provides a function to determine the top-bottom direction of the image G in which a human image centered on the upper body or head is present in a polygon image frame having a triangle or more.
  • the one side of the image frame in which the human figure is missing is detected, and the vertical direction of the image G is determined with this side as the ground direction. That is, for example, an image G read by the image reading means 10 is such that a human image of an upper body substantially above the chest is present in a rectangular image frame F as shown in FIG.
  • the image frame F has four sides f 1, f 2, f 3, f 4, or four lines L 1, L 2, L 3, L 4, which are set in the vicinity, are obtained from the pixel row
  • the orientation of the human image is determined on the basis of the variance value of the image feature amount.
  • the specific calculation method of the variance value of the image feature amount obtained from the pixel row constituting each line set in or near each side of the image frame F will be described in detail later.
  • the heavens and earth correction means 12 provides a function to correct the human figure in the actual vertical direction based on the result of the heaven and earth judgment means 11. For example, in the example of FIG. Rotate the entire image counterclockwise 90 ° (or 2 70 ° clockwise) so that the middle left side, that is, the side f 4 on which the human figure is cut, is the ground direction. The vertical direction is corrected to match the actual vertical direction.
  • the image feature quantity calculation means 13 provides a function of calculating the image feature quantity of the pixels constituting the image G after the vertical direction correction means 12 corrects the vertical direction, and specifically, Edge calculation unit 2 0 or hue angle calculation unit 2 1 Detects and detects either or both of the edge intensity or hue angle of each pixel of the pixel line constituting the vertical line and horizontal line consisting of vertical and horizontal pixel lines The image feature amount of each pixel is calculated based on the calculated value.
  • the variance value calculating means 14 is configured to provide a function of obtaining the variance value of the image feature amount obtained by the image feature amount calculating means 13. A specific example will be described later.
  • the person candidate area detection means 15 provides a function of detecting an area where a person is present based on the variance value of the image feature obtained by the variance value calculation means 14; Regions in which the variances of the respective image feature amounts exceed the threshold value in the horizontal line direction are respectively selected, and the region in the overlapping image of the regions in each of the selected line directions is the region where the person exists. Are to be extracted.
  • each of the means 10, 11, 12, 13, 14 and 15 constituting the person candidate area extraction system 100 according to the present invention is actually shown in FIG. Is realized by a computer system such as a personal computer (PC) consisting of hardware such as CPU and RAM, and a dedicated computer program (software) describing algorithms as shown in Fig. 3 etc. .
  • PC personal computer
  • software software
  • the hardware for realizing this person candidate area extraction system 100 is a CPU (Central Processing Unit) which is a central processing unit responsible for various control and arithmetic processing. ) RAM and RAM used for main storage (Ma in S torage)
  • CPU Central Processing Unit
  • RAM and RAM used for main storage Mo in S torage
  • ROM Read Only Memory 41
  • ROM Read Only Memory 42
  • secondary storage such as a node disk drive (HDD) and semiconductor memory (S economic)
  • Output device 44 consisting of a monitor (L CD (Liquid Crystal Display) or C RT (Cathode Ray Tube)), etc., an image scanner, a keyboard, a mouse, a C CD (Corge C ou d ed D evice ) And input / output interface (I / F) 46, etc., between the input device 45 consisting of an imaging sensor such as CMO S (C Peripheral C omponent I nterconnect) Nos and I SA (I ndustria 1 Standard Architecture; bus), etc., each processor bus, memory bus, system bus, I / O bus, etc. It is bus connected by the intra-species bus 4 7.
  • CMO S C Peripheral C omponent I nterconnect
  • I SA I ndustria 1 Standard Architecture; bus
  • control programs supplied via a storage medium such as a CD-ROM, a DVD-ROM, a flexible disk (FD), or a communication network (LAN, WANs Internet, etc.)
  • N data Is installed in the auxiliary storage device 43, and the program and data are loaded into the main storage device 41 if necessary, and the CPU 40 executes various resources according to the program loaded in the main storage device 41.
  • the control and arithmetic processing is performed by full use, and the processing result (processing data) is output to the output unit 44 via the bus 47 and displayed, and the data is stored as required. It is intended to be stored and saved (updated) as appropriate in the database formed by 3.
  • FIG. 3 is a flow chart showing an example of the flow of processing relating to person candidate area extraction according to the present invention.
  • each side forming the image frame of the image G or a line close to each side
  • the variance value of the image feature quantity is calculated. For example, when the image G read by the image reading means 11 has a rectangular image frame F as shown in FIG.
  • the image frame F has four sides f 1, f 2, f 3 and f 4, each of the pixels constituting the four sides f 1, f 2, f 3 and f 4, or each of these sides f 1, f 2, f 3,
  • f 1, f 2, f 3 For each pixel constituting a line L 1, L 2, L 3, L 4 which is in the vicinity of f 4 and extends parallel to the respective sides f 1, f 2, f 3, f 4, respectively, Calculate the image feature based on the hue angle or both.
  • edge strength and “hue angle” in the present invention have the same meaning as generally defined in the image processing field.
  • the edge strength for example, the luminance (Y) of each pixel is calculated in advance, and the known primary differential type (differential type) represented by “the edge detection operator of Sobe 1” or the like is calculated based on the luminance value. It can be calculated easily by using the edge detection operator.
  • Figures 9 (a) and (b) show this “Sobel edge detection operator”, and the operator (filter) shown in (a) of the figure shows the eight pixel values surrounding the pixel of interest. Among them, the edge in the horizontal direction is enhanced by adjusting the three pixel values respectively located in the left and right columns, and the operator shown in FIG.
  • the hue angle is an attribute that indicates the difference in color
  • the “hue angle” is a reference color using a color index chart such as “Mensel's hue circle” or “Munsell's color solid”. It means the angle to the position of the color of the hair when. For example, according to the “Munsell hue circle”, when the background color to be used as the reference is “B lue”, the color of the hair is more “Y ellow” or “R ed” than “G reen”. Is large (image feature quantity is large).
  • step S102 the image feature quantity calculated in each side fl, f2, f3, f4 or lines LI, L2, L3, L4 in the vicinity thereof. Select the one with the largest variance value of, and consider the part with that side or line as the ground direction.
  • a part of each of the sides fl, f 2, f 3, f 4 or the line L 1, L 2, L 3, L 4 in the vicinity thereof excluding the side f 4 or the line L 4 is one Of the background f 4 or the line L 4 consisting of only Because the part of the person (chest) is on the part, the variance of the image feature of side f 4 or line L 4 is the largest. As a result, the side f 4 on the left side of the figure or the line L 4 side is regarded as the ground direction.
  • step S104 the process proceeds to step S104, and the image G is rotated in alignment with the top-bottom direction.
  • the side f 4 or the line L 4 side is regarded as the ground direction, so that the side f 4 or the line L 4 side is directed to the actual ground direction as shown by the arrow in the figure.
  • the process proceeds to the next step S106 and the image features for all vertical lines. Find the variance of the quantity.
  • each image feature amount is calculated for each vertical line consisting of 3 0 0 0 pixel rows arranged in the straight direction, so for each of the 5 0 0 vertical lines in total.
  • the process proceeds to the next step S108, and a threshold is set for the variance, and the threshold is exceeded.
  • Vertical lines are searched inward from the left side (left frame) and right side (right frame) of image G in order, and regions exceeding the threshold are regarded as human candidate regions, and the center of each horizontal position is made the center of human candidate regions. .
  • step S 1 10 in which, in the same manner as described above, each variance value is determined for all horizontal lines.
  • each variance value is determined for all horizontal lines.
  • the dispersion value is calculated for each of the vertical lines of 500 in total.
  • a threshold is set for the variances in the same manner as in step S 1 0 8 above, and the process proceeds to the next step S 1 1 2.
  • the horizontal line exceeding the threshold is searched downward in order from the upper side (upper frame) of the image G, and the area below the threshold is regarded as a human candidate area.
  • the region above point c in the horizontal direction is identified as the human candidate region because the threshold value is exceeded at point c.
  • the point c will be identified as the top of the figure, that is, the top of the head. Note that, as described above, in this image G, a region covered with a part of the person is always located in the direction of the ground, so that a search from the lower side is unnecessary.
  • the process proceeds to the next step S114, and when the regions exceeding the dispersion value in the vertical direction and the horizontal direction are respectively identified, the overlapping regions of the respective regions are identified.
  • the area can be extracted as a person candidate area. .
  • the overlapping area of the area a-b and the area below c is extracted as a human candidate area.
  • the present invention makes use of the fact that the variance of the image feature value tends to be high in the region where a person is present and low in the background region etc where no person is present. Because the regions in which the variance values exceed the threshold are respectively selected and regions in the selected line direction overlap with each other are extracted as human candidate regions. Of course, it is possible to robustly (robust) and rapidly extract the region where the human figure in the image G exists, as well as correcting the vertical direction of G.
  • the case of the image G of the rectangular image frame F has been described. Even in the case of the force S, the triangular image frame F and the polygonal image frame, it is possible to easily discriminate the vertical direction and extract the human scout region by the same method. In the case of a circular or elliptical image frame F, if its outer edge is divided at a constant distance and judged, as in the case of the polygon image frame F, the determination of the vertical direction and the extraction of the person candidate area It will be possible to do.
  • the specific setting method of the threshold is not particularly limited, but as shown in FIG. 6, when there is a noticeable difference in the dispersion value of the image feature amount between the background portion and the human portion, If the threshold is set low, it is possible to extract the person candidate region more accurately. However, if no significant difference is seen due to the fact that something other than the person is shown in the background, the threshold is more Need to set higher.
  • the usual threshold value is considered to be appropriate around the variance value around the image frame plus about 1 ⁇ 4 of the maximum variance value.
  • edge intensity as the image feature value can be calculated at high speed and can reduce the effects of illumination, but there is something other than a person in the background and the difference in edge intensity between the background and person Since it is not appropriate to use the edge strength in cases where is small, etc., it is possible to more reliably contribute to the extraction of the human candidate area by using the hue angle in such a case.
  • determination of the orientation of the human image in the image and its correction are performed before extraction of the human region.
  • all directions of the human image in the target image are actual.
  • these judgments and corrections can be omitted in cases that are consistent with the vertical direction.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

人物像が含まれる画像の天地方向を判別し、その判別結果に基づいて前記画像を実際の天地方向に修正した後、当該画像を構成する縦横の画素列からなる縦ライン及び横ラインについてそれぞれの画像特徴量の分散値を求めると共に、前記縦ライン方向及び横ライン方向についてそれぞれの画像特徴量の分散値が閾値を超える領域をそれぞれ選択し、選択された各ライン方向の領域同士の重なり合う画像中の領域を抽出する これによって、画像中の人物像が存在する領域を頑健かつ高速に抽出できる。

Description

明細書 画像中の人物候補領域抽出方法及び人物候補領域抽出システム、 人物候 補領域抽出プログラム、 並びに人物像の天地判定方法及び天地判定システ ム、 天地判定プログラム 技術分野
本発明は、 パターン認、識 (P a t t e r n r e c o g n i t i o n) やオブジェク ト認識技術に係り、 特に人物像が含まれる画像の天地判定及 ぴ当該画像中から人物が存在する可能性が高い領域を抽出することを目的 とした画像中の人物候補領域抽出方法及び人物候補領域抽出システム、 人 物候補領域抽出プログラム、 並びに人物像の天地判定方法及び天地判定シ ステム、 天地判定プログラムに関するものである。 背景技術
近年のパターン認識技術やコンピュータ等の情報処理装置の高性能化に 伴ってマシンによる文字や音声の認識精度は飛躍的に向上してきている力 S、 人物や物体 ·景色等が映っている画像、 例えば、 デジタルスチルカメラ等 によって取り込まれた画像のパターン言忍識のうち、 特にその画像中に人の 顔が映っているか否かを正確かつ高速に識別するといった点に関しては未 だに極めて困難な作業であることが知られている。
しかしながら、 このように画像中に人の顔が映っているか否か、 さらに はその人物が誰であるのかをコンピュータ等によって自動的に正確に識別 することは、 生体認識技術の確立やセキュ リ ティの向上、 犯罪捜査の迅速 化、 画像データの整理■検索作業の高速化等を実現する上で極めて重要な テーマとなってきている。
このよ うに将来極めて有用性が高い顔認識技術を確立するためには、 先 ず、 検出対象となる画像中の人物顔が存在する領域を可能な限り迅速にか つ正確に検出して特定する技術が必要となってくる。
例えば、 特開平 9一 5 0 5 2 8号公報では、 先ず画像中の肌色領域を抽 出し、 抽出した領域に合わせてモザイクデータを作成し、 これを画像辞書 と比較してその一致度を計算して顔画像镩域を検出するようにしている。 しかしながら、 肌色領域は必ずしも人間の顔領域とは一致せず、 肌色領 域を広く定義すれば、 不要な領域を抽出し、 反対に狭く定義すれば抽出漏 れを起こすといった不都合がある。
一方、 顔画像の検出対象画像中から人物顔を高速で探索する場合は、 そ の画像中の探索領域をできるだけ絞り込むことが重要となってくる。
そこで、 本発明はこのような課題を有効に解決するために案出されたも のであり、 その主な目的は、 人物像が含まれる画像の天地判別及び当該画 像中の人物像が存在する領域を頑健 (ロバス ト) かつ高速に抽出すること ができる新規な画像中の人物候補領域抽出方法及び人物候補領域抽出シス テム、 人物候補領域抽出プログラム、 並びに人物像の天地判定方法及ぴ天 地判定システム、 天地判定プログラムを提供するものである。 発明の開示
上記課題を解決するために発明 1の画像中の人物候捕領域抽出方法は、 人物像が含まれる画像中から当該人物像が存在する領域を抽出する方法 であって、 前記画像を構成する縦横の画素列からなる縦ライン及ぴ横ライ ンについてそれぞれの画像特徴量の分散値を求めると共に、 前記縦ライン 方向及び横ライン方向についてそれぞれの画像特徴量の分散値が閾値を超 える領域をそれぞれ選択し、 選択された各ライン方向の領域同士の重なり 合う画像中の領域を前記人物が存在する領域として抽出するようにしたこ とを特徴とするものである。
このように画像を構成する縦方向の画素列からなる縦ライン及ぴ横方向 の画素列からなる横ラインについてそれぞれの画像特徴量の分散値を求め るのは、 一般にこの画像特徴量の分散値は、 証明写真を撮影するような、 一様、 あるいは一定のパターンで構成される背景の場合、 後に詳述するよ うに人物が存在している領域では高くなり、 人物が存在していない背景領 域等では低くなる傾向があるからである。
従って、 前記縦ライン方向及び横ライン方向についてそれぞれ得られた 画像特徴量の分散値について閾値を設定し、 その閾値を超える領域をそれ ぞれ選択し、 選択された各ライン方向の領域同士が重なり合う画像中の領 域を特定するようにすれば、 画像中の人物像が存在する領域を頑健 (ロバ ス ト) かつ高速に抽出することができる。
上記課題を解決するために発明 2の画像中の人物候補領域抽出方法は、 人物像が含まれる画像中から当該人物像が存在する領域を抽出する方法 であって、 前記画像中の人物像の天地方向を判別し、 その判別結果に基づ いて前記画像を回転させて前記人物像を実際の天地方向に修正し、 その後、 当該画像を構成する縦横の画素列からなる縦ライン及び横ラインについて それぞれの画像特徴量の分散値を求めると共に、 前記縦ライン方向及び横 ライン方向についてそれぞれの画像特徴量の分散値が閾値を超える領域を それぞれ選択し、 選択された各ライン方向の領域同士の重なり合う画像中 の領域を抽出するようにしたことを特徴とするものである。
すなわち、 発明 1のように画像特徴量の分散値を利用して人物像が存在 する領域を頑健かつ高速に抽出するためには、 その前提として、 対象とな る画像の天地方向と実際の天地方向とがー致していなければならない。 そ のため、 本発明では、 先ず、 その画像中の人物像の天地方向を判別してそ の人物像を実際の天地方向に修正することで人物顔を本来の天地方向に一 致させるようにしたものである。
そして、 このようにして人物顔の位置の修正が終了したならば、 その後 は発明 1 と同様にその画像を構成する縦方向の画素列からなる縦ライン及 ぴ横方向の画素列からなる横ラインについてそれぞれの画像特徴量の分散 値を求めた後、 前記縦ライン方向及び横ライン方向についてそれぞれ得ら れた画像特徴量の分散値について閾値を設定し、 その閾値を超える領域を それぞれ選択し、 選択された各ライン方向の領域同士が重なり合う画像中 の領域を特定する。
これによつて、 発明 1 と同様に画像中の人物像が存在する領域を頑健か つ高速に抽出できることに加え、 その画像中の人物像の天地方向の判別及 びその修正を自動的に行うことが可能となるため、 より容易に人物像が存 在する領域を抽出することができる。
発明 3の画像中の人物候捕領域抽出方法は、
発明 2に記載の画像中の人物候補領域抽出方法において、 前記画像中の 人物像の天地方向の判別は、 前記画像が三角形以上の多角形の枠で囲まれ ており、 かつ当該画像中に含まれる人物像が上半身または頭部を中心とし た一部であるときは、 当該画像枠の各辺または各辺近傍のラインを構成す る画素列について画像特徴量の分散値を求め、 その分散値が最も大きい辺 またはライン近傍の辺側を地面方向とするようにしたことを特徴とするも のである。
すなわち、 対象となる画像中に含まれる人物像が上半身または頭部を中 心とした一部であるときは、 その人物像の一部が画像枠のいずれかの辺で 切れているのが通常である。
従って、 その画像枠の各辺または各辺近傍のラインを構成する画素列に ついて画像特徴量の分散値を求め、 その分散値が最も大きい.辺またはライ ン近傍の辺側を当該人物像の切れている部分とみなすことができるため、 その辺側を地面方向とすることで画像の人物像の天地判定を確実かつ容易 に行うことができる。
発明 4の画像中の人物候補領域抽出方法は、
発明 3に記載の画像中の人物候補領域抽出方法において、 前記画像の各 ラインを複数本近接して選択し、 当該各ラインについての画像特徴量の分 散値の平均値を用いるようにしたことを特徴とするものである。
これによつて、 画像の辺近傍にノイズや汚れが存在していても、 その影 響による誤検出を回避して各辺毎の的確な分散値を求めることができる。 発明 5の画像中の人物候補領域抽出方法は、 ' 発明 1〜 4のいずれかに記載の画像中の人物候補領域抽出方法において、 前記縦ライン及び横ラインは、 前記画像の幅方向及び高さ方向に一定間隔 毎のラインを用いるようにしたことを特徴とするものである。
前記画像特著量の分散値は、 その画像の幅方向及び高さ方向の全ライン を用いて算出しても良いが、 本発明のように一定間隔毎のラインを用いれ ば、 分散値を得るための情報処理量が大幅に削減されるため、 より高速に 人物像が存在する領域を抽出することができる。
発明 6の画像中の人物候補領域抽出方法は、
発明 1〜 6のいずれかに記載の画像中の人物候補領域抽出方法において、 前記画像特徴量は、 前記各ラインを構成する画素列の各画素のエッジ強度 または色相角のいずれか、 あるいは双方に基づいて算出するようにしたこ とを特徴とするものである。
すなわち、 画像のエッジは公知のエッジ検出オペレータを利用すること で高速に算出できる上に、 照明の影響等を軽減することができるため、 こ れを画像特徴量として採用すれば、 その分散値を正確かつ高速に算出する ことが可能となる。
—方、 背景と人物像のエッジ強度の差異が小さい場合等には、 色相角を 用いることにより、 その分散値を正確かつ高速,に算出することが可能とな る。
さらに、 画像の種類等、 必要に応じてこれらの双方を画像特徴量として 採用すれば、 その分散値をより正確かつ高速に算出することが可能となる。 発明 7の画像中の人物候補領域抽出方法は、
発明 6に記載の画像中の人物候捕領域抽出方法において、 前記エッジ強 度は、 S o b e 1のエッジ検出オペレータを用いるようにしたことを特徴 とするものである。
すなわち、 画像中の急激な濃淡変化を検出する最も代表的な方法は濃淡 に関する微分を求めることである。 そして、 デジタル画像の微分は差分で 代用されることから前記顔検出枠内の画像を一次微分することによって当 該画像中の濃淡が急激に変化しているエッジ部
分を効果的に検出することができる。
そして、 本発明は、 この一次微分型のエッジ検出オペレータ (フィル タ) として、 検出性能に優れている公知の S o b e 1 のエッジ検出オペレ ータを用いるようにしたものであり、 これによつて前記画像内の人物像の ェッジを確実に検出することができる。
発明 8の画像中の人物候捕領域抽出システムは、
人物像が含まれる画像中から当該人物像が存在する領域を抽出するシス テムであって、 前記画像を読み取る画像読取手段と、 当該画像読取手段で 読み取られた画像を構成する画素列からなる縦ライン及ぴ横ラインについ てそれぞれの画像特徴量を算出する画像特徴量算出手段と、 当該画像特徴 量算出手段で得られた縦ライン方向及び横ライン方向についてそれぞれの 画像特徴量の分散値を求める分散値算出手段と、 当該分散値算出手段で得 られた画像特徴量の分散値が縦ライン方向及び横ライン方向でそれぞれ閾 値を超える各ライン方向の領域から前記人物が存在する領域を検出する人 物候補領域検出手段と、 を備えたことを特徴とするものである。
これによつて、 発明 1 と同様に、 画像中の人物像が存在する領域を頑健 (ロバス ト) かつ高速に抽出することができる。
また、 これら各手段を専用の回路やコンピュータシステムを利用して実 現することで、 これらの作用 ·効果を自動的に発揮することが可能となる。 発明 9の画像中の人物候捕領域抽出システムは、
人物像が含まれる画像中から当該人物像が存在する領域を抽出するシス テムであって、 前記画像を読み取る画像読取手段と、 当該画像読取手段で 読み取った画像中の人物像の天地方向を判別する天地判別手段と、 当該天 地判別手段の結果に基づいて前記画像を回転させて前記人物像を実際の天 地方向に修正する天地修正手段と、 当該天地修正手段で天地方向が修正さ. れた後の当該画像を構成する画素列からなる縦ライン及ぴ横ラインについ てそれぞれの画像特徴量を算出する画像特徴量算出手段と、 当該画像特徴 量算出手段で得られた縦ライン方向及び横ライン方向についてそれぞれの 画像特徴量の分散値を求める分散値算出手段と、 当該分散値算出手段で得 られた画像特徴量の分散値が縦ライン方向及び横ライン方向でそれぞれ閾 値を超える各ライン方向の領域から前記人物が存在する領域を検出する人 物候補領域検出手段と、 を備えたことを特徴とするものである。
これによつて、 発明 2と同様に、 画像中の人物像が存在する領域を頑健 かつ高速に抽出することができる。
また、 発明 8と同様にこれら各手段を専用の回路やコンピュータシステ ムを利用して実現することで、 これらの作用 ■効果を自動的に発揮するこ とが可能となる。
発明 1 0の画像中の人物候補領域抽出システムは、
発明 9に記載の画像中の人物候補領域抽出システムにおいて、 前記画像 中の人物像の天地方向を判別する天地判別手段は、 前記画像が三角形以上 の多角形の枠で囲まれており、 かつ当該画像中に含まれる人物像が上半身 または頭部を中心とした一部であるときは、 当該画像の各辺または各辺近 傍のラインについて画像特徴量の分散値を求め、 その分散値が最も大きい 辺またはライン近傍の辺側を地面方向とするようになつていることを特徴 とするものである。
これによつて、 発明 3と同様に、 画像枠の人物像の切れている辺を検出 することができるため、 前記画像の人物像の天地判定を確実かつ容易に行 うことができる。
発明 1 1の画像中の人物候捕領域抽出システムは、
発明 1 0に記載の画像中の人物候補領域抽出方システムにおいて、 前記 画像中の人物像の天地方向を判別する天地判別手段は、 前記画像の各ライ ンを複数本近接して選択し、 当該各ラインについての画像特徴量の分散値 の平均値を用いるようになつていることを特徴とするものである。 これによつて、 発明 4と同様に画像の辺近傍にノイズや汚れが存在して いても、 その影響による誤検出を回避して各辺毎の的確な分散値を求める ことができる。 . 発明 1 2の画像中の人物候補領域抽出システムは、
発明 9〜 1 1のいずれかに記載の画像中の人物候補領域抽出システムに おいて、 画像特徴量算出手段は、 前記縦ライン及び横ラインとして、 前記 画像の幅方向及び高さ方向に一定間隔毎のラインを用いるようになつてい ることを特徴とするものである。
これによつて、 発明 5と同様に分散値を得るための情報処理量が大幅に 削減されるため、 より高速に人物像が存在する領域を抽出することができ る。 .
発明 1 3の画像中の人物候捕領域抽出システムは、
発明 9〜 1 2のいずれかに記載の画像中の人物候捕領域抽出システムに おいて、 画像特徴量算出手段は、 前記画像特徴量を、 前記各ラインを構成 する画素列の各画素のエッジ強度または色相角のいずれか、 あるいは双方 に基づいて算出するようになつていることを特徴とするものである。
これによつて、 発明 5と同様に画像特徴量の分散値をより正確かつ高速 に算出することが可能となる。
発明 1 4の画像中の人物候補領域抽出システムは、
発明 1 3に記載の画像中の人物候捕領域抽出システムにおいて、 画像特 徴量算出手段は、 前記エッジ強度を、 S o b e 1 のエッジ検出オペレータ を用いて算出するようになつていることを特徴とするものである。
これによつて、 発明 7と同様に画像のエッジ部分を確実に検出すること ができる。
発明 1 5の画像中の人物候補領域抽出プログラムは、
人物像が含まれる画像中から当該人物が存在する領域を抽出するプログ ラムであって、
前記画像を構成する画素列からなる縦ライン及び横ラインについてそれ ぞれの画像特徴量.を算出する画像特徴量算出手段と、 当該画像特徴量算出 手段で得られた縦ライン方向及び横ライン方向についてそれぞれの画像特 徴量の分散値を求める分散値算出手段と、 当該分散値算出手段で得られた 画像特徴量の分散値が縦ライン方向及び横ライン方向でそれぞれ閾値を超 える各.ライン方向の領域から前記人物が存在する領域を検出する人物候補 領域検出手段と、 をコンピュータに機能させることを特徴とするものであ る。
これによつて、 発明 1 と同様な効果を得られると共に、 パソコン (P C ) 等の汎用のコンピュータ (ハードウエア) を用いてソフトウェア上で その機能を実現することが可能となるため、 専用の装置を作成して実現す る場合に比べて経済的かつ容易に実現することができる。 また、 多くの場 合プログラムの書き換えだけでその機能の変更、 改良等のパージョンァッ プを容易に達成することが可能となる。
発明 1 6の画像中の人物候補領域抽出プログラムは、
人物像が含まれる画像中から当該人物が存在する領域を抽出するプログ ラムであって、 前記画像中の人物像の天地方向を判別する天地判別手段と、 当該天地判別手段の結果に基づいて前記画像を回転させて前記人物像を実 , 際の天地方向に修正する天地修正手段と、
当該天地修正手段で天地方向が修正された後の当該画像を構成する画素 列からなる縦ライン及び横ラインについてそれぞれの画像特徴量を算出す る画像特徴量算出手段と、 当該画像特徴量算出手段で得られた縦ライン方 向及び横ライン方向についてそれぞれの画像特徴量の分散値を求める分散 値算出手段と、 当該分散値算出手段で得られた画像特徴量の分散値が縦ラ ィン方向及び横ライン方向でそれぞれ閾値を超える各ライン方向の領域か ら前記人物が存在する領域を検出する人物候補領域検出手段と、 をコンビ ユ ータに機能させることを特徴とするものである。
これによつて、 発明 2と同様な効果を得られると共に、 発明 1 5と同様 にパソコン ( P C ) 等の汎用のコンピュータ (ハードウエア) を用いてソ フ トウェア上でその機能を実現することが可能となるため、 専用の装置を 作成して実現する場合に比べて経済的かつ容易に実現することができる。 また、 多くの場合プログラムの書き換えだけでその機能の変更、 改良等の バージョンァップを容易に達成することが可能となる。
発明 1 7の画像中の人物候捕領域抽出プログラムは、
発明 1 6に記載の画像中の人物候補領域抽出プログラムにおいて、 前記画 像中の人物像の天地方向を判別する天地判別手段は、 前記画像が三角形以 上の多角形の枠で囲まれており、 かつ当該画像中に含まれる人物像が上半 身または頭部を中心とした一部であるときは、 当該画像の各辺または各辺 近傍のラインについて画像特徴量の分散値を求め、 その分散値が最も大き い辺またはライン近傍の辺側を地面方向とするようになっていることを特 徴とするものである。
これによつて、 発明 3と同様な効果が得られると共に、 発明 1 5と同様 に、 より経済的かつ容易に実現することが可能となる。
発明 1 8の画像中の人物候補領域抽出プログラムは、
発明 1 7に記載の画像中の人物候補領域抽出方プログラムにおいて、 前 記画像中の人物像の天地方向を判別する天地判別手段は、 前記画像の各ラ インを複数本近接して選択し、 当該各ラインについての画像特徴量の分散 値の平均値を用いるようになつていることを特徴とするものである。
これによつて、 発明 4と同様に的確な分散値を求めることができると共 に、 発明 1 5と同様により経済的かつ容易に実現することが可能となる。 発明 1 9の画像中の人物候捕領域抽出プログラムは、
発明 1 5 ~ 1 8のいずれかに記載の画像中の人物候補領域抽出プログラ ムにおいて、 画像特徴量算出手段は、 前記縦ライン及び横ラインとして、 前記画像の幅方向及び高さ方向に一定間隔毎のラインを用いるようになつ ていることを特徴とするものである。
これによつて、 発明 5と同様により高速に人物像が存在する領域を抽出 できると共に、 発明 1 5と同様により経済的かつ容易に実現することが可 能となる。
発明 2 0の画像中の人物候捕領域抽出プログラムは、
発明 1 5〜 1 9のいずれかに記載の画像中の人物候補領域抽出プログラ ムにおいて、 画像特徴量算出手段は、 前記画像特徴量を、 前記各ラインを 構成する画素列の各画素のエッジ強度または色相角のいずれか、 あるいは 双方に基づいて算出するようになつていることを特徴とするものである。
これによつて、 発明 6と同様に画像特徴量の分散値をより正確かつ高速 に算出することが可能となると共に、 発明 1 5 と同様により経済的かつ容 易に実現することが可能となる。
発明 2 1の画像中の人物候補領域抽出プログラムは、
発明 2 0に記載の画像中の人物候補領域抽出プログラムにおいて、 画像 特徴量算出手段は、 前記エッジ強度を、 S o b e 1 のエッジ検出オペレー タを用いて算出するようになつていることを特徴とするものである。
これによつて、 発明 7と同様に画像のエッジ部分を確実に検出すること ができると共に、 発明 1 5と同様により経済的かつ容易に実現することが 可能となる。
発明 2 2の人物像の天地判定方法は、
三角形以上の多角形の枠内に上半身または頭部を中心とした人物像が存在 する画像中の当該人物像の天地方向を判別する方法であって、 前記画像の 各辺または各辺近傍のラインを構成する画素列の画像特徴量の分散値を求 め、 その分散値が最も大きい辺またはライン近傍の辺側を地面方向と判別 するようにしたことを特徴とするものである。
すなわち、 三角形以上の多角形の枠内に上半身または頭部を中心と した 人物像が存在する画像の場合では、 その人物像の一部が画像枠のいずれか の辺で切れているのが通常である。
そのため、 その画像枠の各辺または各辺近傍のラインを構成する画素列 について画像特徴量の分散値を求め、 その分散値が最も大きい辺またはラ ィン近傍の辺側を当該人物像の切れている部分とみなすことができる。 従って、 その人物像の切れている辺側を地面方向とすることで、 人物像 の天地判定を確実かつ容易に行うことができる。
発明 2 3の人物像の天地判定システムは、
三角形以上の多角形の枠内に上半身または頭部を中心とした人物像が存 在する画像中の当該人物像の天地方向を判別するシステムであって、 前記 画像の各辺または各辺近傍のラインを構成する画素列の画像特徴量の分散 値を算出する分散値算出手段と、.当該分散値算出手段で得られた分散値が 最も大きい辺またはライン近傍の辺側を地面方向と判別する天地判別手段 と、 を備えたことを特徴とするものである。
これによつて、 発明 2 2と同様に人物像の天地判定を確実かつ容易に行 うことができると共に、 これらの処理を専用の回路やコンピュータシステ ムを利用して実現することで、 その判定を自動的に行うことが可能となる。 発明 2 4の人物像の天地判定プログラムは、
三角形以上の多角形の枠内に上半身または頭部を中心とした人物像が存 在する画像中の当該人物像の天地方向を判別するプログラムであって、 コ ンピュータを、 前記画像の各辺または各辺近傍のラインを構成する画素列 の画像特徴量の分散値を算出する分散値算出手段と、 当該分散値算出手段 で得られた分散値が最も大きい辺またはライン近傍の辺側を地面方向と判 別する天地判別手段と、 して機能させることを特徴とするものである。
これによつて、 発明 2 2と同様に人物像の天地判定を確実かつ容易に行 うことができると共に、 パソコン ( P C ) 等の汎用のコンピュータ (ハー ドウエア) を用いてソフ トウェ
ァ上でその機能を実現することが可能となるため、 専用の装置を作成して 実現する場合に比べて経済的かつ容易に実現することができる。 また、 多 くの場合プログラムの書き換えだけでその機能の変更、 改良等のバージョ ンァップを容易に達成することが可能となる。 図面の簡単な説明 図 1は、 本発明の人物候補領域抽出システムの実施の一形態を示すプロ ック図である。
図 2は、 本発明システムで利用可能なハードウエアを示す構成図である。 図 3は、 本発明の人物候補領域抽出方法の処理の流れを示すフローチヤ ート図である。
図 4は、 人物候捕領域抽出対象となる画像の一例を示す図である。
図 5は、 S o b e 1のオペレータを示す図である。
図 6は、 垂直及び水平方向の各ライン毎の画像特徴量分散値の変化を示 した図である。
図 7は、 分散値が閾値を超える領域同士が重なり合った状態を示す概念 図である。 発明を実施するための最良の形態
以下、 本発明を実施するための最良の形態を添付図面を参照しながら詳 述する。
図 1は、 本発明に係る画像中の人物候補領域抽出システム 1 0 0の実施 の一形態を示したものである。
図示するように、 この人物候補領域抽出システム 1 0 0は、 人物候補領 域抽出の対象となる画像 Gを読み取る画像読取手段 1 0と、 この画像読取 手段 1 0で読み取った画像 G中の人物像の天地方向を判別する天地判別手 段 1 1 と、 この天地判別手段 1 1の結果に基づいてその人物像を実際の天 地方向に修正する天地修正手段 1 2と、 この天地修正手段 1 2で天地方向 が修正された後の画像 Gの画像特徴量を算出する画像特徴量算出手段 1 3 と、 この画像特徴量算出手段 1 3で得られた画像特徴量の分散値を求める 分散値算出手段 1 4と、 この分散値算出手段 1 4で得られた画像特徴量の 分散値に基づいて人物が存在する領域を検出する人物候補領域検出手段 1 5とから主に構成されている。
先ず、 画像読取手段 1 0は、 パスポートや運転免許証等の身分証明書用 の写真や一部のスナップ写真等のように、 背景が一様か、 あるいは複雑な 変化がない、 矩形状の枠 (縁) 内に上半身または頭部を中心とした人物像 が含まれる画像 Gを、 C CD (C h a r g e C o u l e d D e v i c e : 電荷結合素子) や、 CMO S (C o m l e m e n t a r y Me t a 1 O i d e S e m i c o n d u c t o r ) 等の撮像センサを利 用して、 R (赤) 、 G (緑) 、 B (青) のそれぞれの画素データからなる' デジタル画像データとして読み取って取り込むような機能を提供するよう になっている。
具体的には、 デジタルスチルカメラゃデジタルビデオ力メラ等の C C D、 CMO Sカメラやビジコンカメラ、 イメージスキャナ、 ドラムスキャナ等 であり、 前記撮像センサ光学的に読み込んだ顔画像 Gを AZD変換してそ のデジタル画像データを天地判別手段 1 1へ順次送る機能を提供するよう になっている。
なお、 この画像読取手段 1 0にはデータ保存機能が備えられており、 読 み込んだ顔画像データをハードディスク ドライブ装置 (HDD) 等の記憶 装置や DVD— ROM等の記憶媒体等に適宜保存可能となっている。 また、 画像 Gがネッ トワークや記憶媒体等を介してデジタル画像データとして供 給される場合には、 この画像読取手段 1 0は不要となるか、 あるいは、 D C E 、D a t a C i r c u i t T e r m i n a t i n g E q u i m e n tリ ゃ C CU (C ommu n i c a t i o n C o n t r o l U n i t ) C C P (C o mmu n i c a t i o n C o n t r o l P r o c e s s o r ) 等の通信手段ゃィンターフェース ( I /F) 等として機 能することになる。
次に、 天地判別手段 1 1は、 三角形以上の多角形の画像枠内に上半身ま たは頭部を中心とした人物像が存在する画像 Gの天地方向を判別する機能 を提供するものであり、 その人物像が欠けている画像枠の一つの辺を検出 し、 この辺を地面方向としてその画像 Gの天地方向を判別するようになつ ている。 すなわち、 例えば、 画像読取手段 1 0で読み取られた画像 Gが、 図 4に 示すような矩形状の画像枠 F内にほぼ胸部より上の上半身の人物像が存在 しているようなものである場合、 その画像枠 Fの 4つの辺 f 1、 f 2、 f 3、 f 4、 またはその近傍に設定された 4つのライン L 1、 L 2、 L 3、 L 4を構成する画素列から得られる画像特徴量の分散値に基づいてその人 物像の天地方向を判別するようになっている。 なお、 この画像枠 Fの各辺 またはその近傍に設定された各ラインを構成する画素列から得られる画像 特徴量の分散値の具体的な算出方法などについては後に詳述する。
次に、 天地修正手段 1 2は、 この天地判別手段 1 1の結果に基づいてそ の人物像を実際の天地方向に修正する機能を提供するものであり、 例えば、 図 4の例では、 図中左側の辺、 すなわち、 人物像が切れている側の辺 f 4 が地面方向となるよ'うに画像 G全体を反時計回りに 9 0 ° (あるいは時計 回りに 2 7 0 ° ) 回転させてその天地方向を実際の天地方向と一致するよ うに修正するようになっている。
画像特徴量算出手段 1 3は、 前記天地修正手段 1 2で天地方向が修正さ れた後の画像 Gを構成する画素の画像特徴量を算出する機能を提供するも のであり、 具体的にはエッジ算出部 2 0または色相角算出部 2 1によって. 縦横の画素列からなる縦ライン及び横ラインを構成する画素列の各画素の エッジ強度または色相角のいずれか、 あるいは双方を検出し、 検出された 値に基づいて各画素の画像特徴量を算出するようになっている。
また、 分散値算出手段 1 4は、 この画像特徴量算出手段 1 3で得られた 画像特徴量の分散値を求める機能を提供するようになっており、 その具体 例については後述する。
人物候補領域検出手段 1 5は、 この分散値算出手段 1 4で得られた画像 特徴量の分散値に基づいて人物が 在する領域を検出する機能を提供する ものであり、 前記縦ライン方向及び横ライン方向についてそれぞれの画像 特徴量の分散値が閾値を超える領域をそれぞれ選択し、 選択された各ライ ン方向の領域同士の重なり合う画像中の領域を前記人物が存在する領域と して抽出するようになっている。
なお、 このよ うな本発明の人物候補領域抽出システム 1 0 0を構成する 各手段 1 0、 1 1, 1 2, 1 3, 1 4 , 1 5等は、 実際には、 図 2に示す ように C PUや RAM等からなるハードウエアと、 図 3等に示すようなァ ルゴリズムを記述した専用のコンピュータプログラム (ソフトウェア) と からなるパソコン (P C) 等のコンピュータシステムによって実現される ようになつている。
すなわち、 この人物候補領域抽出システム 1 0 0を実現するためのハー ドウ アは、 図 2に示すように、 各種制御や演算処理を担う中央演算処理 装置である C PU (C e n t r a l P r o c e s s i n g U n i t ) 4 0と、 主記憶装置 (Ma i n S t o r a g e ) に用いられる RAM
(R a n d o m A c c e s s Me m o r y) 4 1 と、 読み出し専用の 記憶装置である ROM (R e a d O n l y Me m o r y) 4 2と、 ノヽ ードディスク ドライブ装置 (HDD) や半導体メモリ等の補助記憶装置 (S e c o n d a r y S t o r a g e ) 4 3、 及びモニタ (L CD (液 晶ディスプレイ) や C RT (陰極線管) ) 等からなる出力装置 44、 ィメ ージスキャナやキーボード、 マウス、 C CD (C h a r g e C o u 1 e d D e v i c e ) や CMO S (C o mp l e m e n t a r y M e t a 1 O i d e S e m i c o n d u c t o r ) 等の撮像センサ等から なる入力装置 4 5と、 これらの入出力インターフェース ( I /F) 4 6等 との間を、 P C I (P e r i p h e r a l C o m p o n e n t I n t e r c o n n e c t ) ノ スや I SA ( I n d u s t r i a 1 S t a n d a r d A r c h i t e c t u r e ; アイサ) バス等力、らなるプロセッサ バス、 メモリバス、 システムバス、 入出力バス等の各種内外バス 4 7によ つてバス接続したものである。
そして、 例えば、 C D— R OMや D VD— R OM、 フレキシブルディス ク (F D) 等の記憶媒体、 あるいは通信ネッ トワーク (LAN、 WANs インターネッ ト等) Nを介して供給される各種制御用プログラムやデータ を補助記憶装置 4 3等にインス トールすると共にそのプログラムやデータ を必要に応じて主記憶装置 4 1にロードし、 その主記憶装置 4 1にロード されたプログラムに従って C P U 4 0が各種リ ソースを駆使して所定の制 御及び演算処理を行い、 その処理結果 (処理データ) をバス 4 7を介して 出力装置 4 4に出力して表示すると共に、 そのデータを必要に応じて補助 記憶装置 4 3によって形成されるデータベースに適宜記憶、 保存' (更新) 処理するようにしたものである。
次に、 このような構成をした本発明の人物候補領域抽出システム 1 0 0 を用いた人物候補領域抽出方法の一例を図 4〜図 7を用いて説明する。 · 図 3は、 本発明の人物候補領域抽出に関する処理の流れの一例を示した フローチャートである。
先ず、 画像読取手段 1 1によって対象となる画像 Gを読み取ったならば、 最初のステップ S 1 0 0に示すように、 その画像 Gの画像枠を構成する各' 辺、 または各辺に近いラインを構成する画素毎の画像特徴量を算出すると 共にその画像特徴量の分散値を算出する。 例えば、 画像読取手段 1 1によ つて読み取られた画像 Gが図 4に示すような矩形状の画像枠 Fを有するも のである場合、 その画像枠 Fは 4つの辺 f 1 , f 2, f 3, f 4からなつ ていること力 ら、 その 4つの辺 f 1 , f 2 , f 3 , f 4をそれぞれ構成す' る各画素、 または、 これら各辺 f 1, f 2 , f 3 , f 4の近傍であってそ れぞれ各辺 f 1, f 2 , f 3 , f 4と平行に延びるライン L 1 , L 2 , L 3 , L 4を構成する各画素について、 エッジ強度または色相角、 あるいは 双方に基づく画像特徴量を算出する。
ここで、 本発明でいう 「エッジ強度」 及び 「色相角」 とは、 画像処理分 野で一般的に定義されている意味と同じ意味である。
すなわち、 エッジ強度は、 例えば、 予め各画素の輝度 (Y ) を算出し、 その輝度値を基に 「S o b e 1のエッジ検出オペレータ」 等に代表される 公知の一次微分型 (差分型) のエッジ検出オペレータを用いることで容易 に算出することができる。 図 9 ( a ) 、 (b ) は、 この 「S o b e lのエッジ検出オペレータ」 を 示したものであり、 同図 (a ) に示すオペレータ (フィルタ) は、 注目画 素を囲む 8つの画素値のうち、 左列及び右列に位置するそれぞれ 3つの画 素値を調整することで横方向のエッジを強調し、 同図 (b ) に示すオペレ ータは、 注目画素を囲む 8つの画素値のうち、 上行及び下列に位置するそ れぞれ 3つの画素値を調整して縦方向のエッジを強調することで縦横のェ ッジを検出するものである。 そして、 このようなオペレータで生成した結 果を二乗和した後、 平方根をとることでエッジの強度を求めることができ るようになっている。 また、 この 「S o b e 1のオペレータ」 に代えて 「R o b e r t s」 「P r e w i t t」 等の他の一次微分型のエツジ検 出オペレータ等を適用することも可能である。
—方、 色相角は、 色の違いを示す属性であり、 「色相角」 とは 「マンセ ルの色相環」 や 「マンセルの色立体」 等の色指標図を用いて、 その背景色 を基準と したときの頭髪の色の位置までの角度をいうものである。 例えば、 「マンセルの色相環」 によれば、 基準となる背景色を 「B l u e」 とした 場合、 頭髪の色が 「 G r e e n」 よりも 「Y e l l o w」 や 「R e d」 の 方が色相角が大きい (画像特徴量が大きい) ということになる。
そして、 このようにして各辺 f l, f 2 , f 3 , f 4またはその近傍の ライン L I , L 2 , L 3 , L 4を構成する各画素について画像特徴量が算 出されたならば、 その各辺 f 1, f 2 , f 3 , f 4またはその近傍のライ ン L l, L 2 , L 3 , L 4毎の画像特徴量の分散値を算出する。
次に、 ステップ S 1 0 2に移行して、 各辺 f l, f 2, f 3 , f 4また はその近傍のライン L I , L 2 , L 3, L 4のなかで算出された画像特徴 量の分散値が最も大きいものを選択し、 その辺またはラインがある部分を 地面方向であるとみなす。
図 4の例では、 各辺 f l, f 2 , f 3 , f 4またはその近傍のライン L 1 , L 2, L 3 , L 4のうち、 辺 f 4またはライン L 4を除く部分が、 一 様あるいは変化の少ない背景のみで構成され、 辺 f 4またはライン L 4の 部分に人物の一部 (胸部) がかかっていることから、 辺 f 4またはライン L 4の画像特徴量の分散値が最も大きくなる。 その結果、 図中左側の辺 f 4またはライン L 4側が地面方向とみなされることになる。
そして、 このようにして人物候捕領域抽出対象となる画像 Gの天地方向 が判別されたならば、 ステップ S 1 0 4に移行してその画像 Gを天地方向 に合わせて回転させる。
図 4の例では辺 f 4またはライン L 4側が地面方向とみなされたこと力 ら、 辺 f 4またはライン L 4側が図中矢印で示すような実際の地面方向に 向く ように、 その画像 Gを反時計回りに 9 0 ° 、 あるいは時計回りに 2 7 0 ° 回転させる。 . 次に、 このようにして画像 Gを回転させてその天地方向を実際の天地方 向に一致させたならば、 次のステップ S 1 0 6に移行して全ての垂直ライ ンについてその画像特徴量の分散値を求める。
例えば、 図 6に示すように、 ある画像 Gが、 縦 (図中 Y方向) 3 0 0画 素 X横 (図中 X方向) 5 0 0画素からなるものである場合には、 縦 (垂 直) 方向に並んだ 3 0 0個の画素列からなる一つの垂直ライン毎にそれぞ れの画像特徴量の分散値を算出することになることから、 合計 5 0 0の垂 直ラインについてそれぞれの分散値を求めることになる。
そして、 このようにして全ての垂直ライン毎の画像特徴量の分散値を算 出したならば、 次のステップ S 1 0 8に移行して、 その分散値に閾値を設 定し、 閾値を超える垂直ラインを画像 Gの左辺 (左枠) 及び右辺 (右枠) から順に内側に探索し、 閾値を超える領域を人物候補領域とみなすと共に、 それぞれの水平位置の中心を人物候補領域の中心とする。
図 6の例では、 左辺 (左枠) 及び右辺 (右枠) から順に内側に探索した 結果、 点 a及び点 bの部分で閾値を超えたことから、 垂直方向では点 a及 び点 b間が人物候補領域であると特定され、 また、 点 a及び点 b間の中点 が人物像の中心であると特定されることになる。
次に、 このようにして垂直方向の人物候捕領域が特定されたならば、 次 のステップ S 1 1 0に移行して、 前記と同様に今度は全ての水平ラインに ついてそれぞれの分散値を求める。 図 6の例では、 画素が縦 (垂直) 方向 に 3 0 0個並んでいることから、 合計 5 0 0の垂直ラインについてそれぞ れの分散値を求めることになる。 '
このようにして全ての水平ライン毎の分散値を求めたならば、 前記ステ ップ S 1 0 8 と同様に、 その分散値に閾値を設定し、 次のステップ S 1 1 2に移行して、 閾値を超える水平ラインを画像 Gの上辺 (上枠) から順に 下方向に探索し、 閾値を超えるその下部の領域を人物候補領域とみなす。 図 6の例では、 上辺 (上枠) から順に下方に探索した結果、 点 cの部分 で閾値を超えたことから、 水平方向では点 c以下の領域が人物候補領域で あると特定され、 また、 点 c付近が人物像の頂点、 すなわち、 頭頂部であ ると特定されることになる。 なお、 前述したように、 この画像 Gはその人 物の一部がかかった領域が必ず地面方向に位置していることから 下辺からの探索は不要である。
そして、 次のステップ S 1 1 4に移行して、 垂直方向及び水平方向でそ れぞれ分散値を超える領域が特定されたならば、 それら各領域の重なり合 つた領域を特定することで、 その領域を人物候補領域として抽出すること ができる。 .
図 6の例では図 7に示すように、 a — b領域と c以下領域との重なり合 つた領域が人物候補領域として抽出されることになる。
このように本発明は、 画像特徴量の分散値が人物が存在している領域で は高くなり、 人物が存在していない背景領域等では低くなる傾向があるこ とを利用して画像の天地方向を判別すると共に、 その分散値が閾値を超え る領域をそれぞれ選択し、 選択された各ライン方向の領域同士が重なり合 う画像中の領域を人物候補領域として抽出するようにしたことから、 画像 Gの天地方向の修正は勿論、 その画像 G中の人物像が存在する領域を頑健 (ロバス ト) かつ高速に抽出することができる。
なお、 本実施の形態では、 矩形状の画像枠 Fの画像 Gの場合で説明した 力 S、 三角形の画像枠 Fやそれ以上の多角形の画像枠の場合でも同様な手法 によって容易にその天地方向の判別及び人物候捕領域の抽出を行うことが できる。 また、 真円形や楕円形の画像枠 Fでもその外縁部を一定の距離毎 に分割して判断すれば、 多角形の画像枠 Fと同様にその天地方向の判別及 ぴ人物候補領域の抽出を行うことが可能となる。
また、 閾値の具体的な設定方法も特に限定されるものではないが、 図 6 に示すように、 背景部分と人物部分とで画像特徴量の分散値に顕著な違い が見られる場合には、 その閾値を低く設定すれば人物候補領域をより正確 に抽出することが可能となるが、 背景に人物以外のものが写っている等の 理由によって顕著な違いが見られない場合はその閾値はより高く設定する 必要がある。 通常の閾値は、 画像枠付近の分散値に、 最大分散値の 1 / 4 程度を足した付近が適当であると考えられる。
また、 画像特徴量としてエッジの強度を用いれば、 高速に算出できる上 に照明の影響を軽減できるといった効果が得られる反面、 背景に人物以外 のものが写っていて背景と人物のエッジ強度の差異が小さいなどの場合に はエッジ強度を用いることが適当でないため、 このような場合は、 色相角 を用いればより確実に人物候補領域の抽出に寄与することができる。
また、 天地判定に利用するラインは、 各辺毎に 1本ずつであれば天地判 定が可能であるが、 画像 Gのノイズや汚れ等を考慮して複数本選択し、 各 ラインの分散値の平均値を用いるようにしても良く、 また、 人物候捕領域 を抽出する場合には全てのラインを使う他に、 適宜一定間隔毎の一部のラ インを用いるようにすれば、 正確性はやや劣るものの、 その分だけ分 m値 等の計算量が大幅に減ることになるため、 より迅速に人物候補領域を抽出 することが可能となる。
また、 本実施の形態では、 人物領域の抽出前に画像中の人物像の天地方 向の判定及びその修正を行うようにしたが、 対象となる画像中の人物像の 天地方向が全て実際の天地方向と一致しているようなケースでは、 これら の判定及び修正処理を省略できることは勿論である。

Claims

請求の範囲
1 . 人物像が含まれる画像中から当該人物像が存在する領域を抽出する方 法であって、
前記画像を構成する縦横の画素列からなる縦ライン及び横ラインについ てそれぞれの画像特徴量の分散値を求めると共に、 前記縦ライン方向及び 横ライン方向についてそれぞれの画像特徴量の分散値が閾値を超える領域 をそれぞれ選択し、 選択された各ライン方向の領域同士の重なり合う画像 中の領域を前記人物が存在する領域として抽出するようにしたことを特徴 とする画像中の人物候補領域抽出方法。
2 . 人物像が含まれる画像中から当該人物像が存在する領域を抽出する方 法であって、
前記画像中の人物像の天地方向を判別し、 その判別結果に基づいて前記 画像を回転させて前記人物像を実際の天地方向に修正し、 その後、 当該画 像を構成する縦横の画素列からなる縦ライン及び横ラインについてそれぞ れの鲔像特徴量の分散値を求めると共に、 前記縦ライン方向及び横ライン 方向についてそれぞれの画像特徴量の分散値が閾値を超える領域をそれぞ れ選択し、 選択された各ライン方向の領域同士の重なり合う画像中の領域 を前記人物が存在する領域として抽出するようにしたことを特徴とする画 像中の人物候補領域抽出方法。
3 . 請求項 2に記載の画像中の人物候補領域抽出方法において、
前記画像中の人物像の天地方向の判別は、 前記画像が三角形以上の多角 形の枠で囲まれており、 かつ当該画像中に含まれる人物像が上半身または 頭部を中心とした一部であるときは、 当該画像枠の各辺または各辺近傍の ラインを構成する画素列について画像特徴量の分散値を求め、 その分散値 が最も大きい辺またはライン近傍の辺側を地面方向とするようにしたこと を特徴とする画像中の人物候補領域抽出方法。
4 . 請求項 3に記載の画像中の人物候補領域抽出方法において、 前記画像の各ラインを複数本近接して選択し、 当該各ラインについての 画像特徴量の分散値の平均値を用いるようにしたことを特徴とする画像中 の人物候補領域抽出方法。
5 . 請求項 1〜 4のいずれか 1項に記載の画像中の人物候捕領域抽出方法 において、
前記縦ライン及び横ラインは、 前記画像の幅方向及び高さ方向に一定間 隔毎のラインを用いるようにしたことを特徴とする画像中の人物候補領域 抽出方法。
6 . 請求項 1〜 5のいずれか 1項に記載の画像中の人物候補領域抽出方法 において、
前記画像特徴量は、 前記各ラインを構成する画素列の各画素のエッジ強 度または色相角のいずれか、 あるいは双方に基づいて算出するようにした ことを特徴とする画像中の人物候補領域抽出方法。
7 . 請求項 6に記載の画像中の人物候補領域抽出方法において、
前記エッジ強度は、 S o b e 1のエッジ検出オペレータを用いるように したことを特徴とする画像中の人物候補領域抽出方法。
8 . 人物像が含まれる画像中から当該人物像が存在する領域を抽出するシ ステムであって、
前記画像を読み取る画像読取手段と、
当該画像読取手段で読み取られた画像を構成する画素列からなる縦ライ ン及び横ラインについてそれぞれの画像特徴量を算出する画像特徴量算出 手段と、
当該画像特徴量算出手段で得られた縦ライン方向及び横ライン方向につ いてそれぞれの画像特徴量の分散値を求める分散値算出手段と、
当該分散値算出手段で得られた画像特徴量の分散値が縦ライン方向及び 横ライン方向でそれぞれ閾値を超える各ライン方向の領域から前記人物が 存在する領域を検出する人物候補領域検出手段と、
を備えたことを特徴とする画像中の人物候補領域抽出システム。
9 . 人物像が含まれる画像中から当該人物像が存在する領域を抽出するシ ステムであって、
前記画像を読み取る画像読取手段と、
当該画像読取手段で読み取った画像中の人物像の天地方向を判別する天 地判別手段と、
当該天地半 ϋ別手段の結果に基づいて前記画像を回転させて前記人物像を 実際の天地方向に修正する天地修正手段と、
当該天地修正手段で天地方向が修正された後の当該画像を構成する画素 列からなる縦ライン及び横ラインについてそれぞれの画像特徴量を算出す る画像特徴量算出手段と、
当該画像特徴量算出手段で得られた縦ライン方向及ぴ横ライン方向につ いてそれぞれの画像特徴量の分散値を求める分散値算出手段と、
当該分散値算出手段で得られた画像特徴量の分散値が縦ライン方向及び 横ライン方向でそれぞれ閾値を超える各ライン方向の領域から前記人物が 存在する領域を検出する人物候補領域検出手段と、
を備えたことを特徴とする画像中の人物候補領域抽出システム。
1 0 . 請求項 9に記載の画像中の人物候補領域抽出システムにおいて、 前記画像中の人物像の天地方向を判別する天地判別手段は、 前記画像が 三角形以上の多角形の枠で囲まれており、 かつ当該画像中に含まれる人物 像が上半身または頭部を中心とした一部であるときは、 当該画像の各辺ま たは各辺近傍のラインについて画像特徴量の分散値を求め、 その分散値が 最も大きい辺またはライン近傍の辺側を地面方向とするようになつている ことを特徴とする画像中の人物候補領域抽出システム。
1 1 . 人物像が含まれる画像中から当該人物が存在する領域を抽出するプ ログラムであって、
前記画像中の人物像の天地方向を判別する天地判別手段と、
当該天地判別手段の結果に基づいて前記画像を回転させて前記人物像を 実際の天地方向に修正する天地修正手段と、 当該天地修正手段で天地方向が修正された後の当該画像を構成する画素 列からなる縦ライン及び横ラインについてそれぞれの画像特徴量を算出す る画像特徴量算出手段と、
当該画像特徴量算出手段で得られた縦ライン方向及び横ライン方向につ いてそれぞれの画像特徴量の分散値を求める分散値算出手段と、
当該分散値算出手段で得られた画像特徴量の分散値が縦ライン方向及び 横ライン方向でそれぞれ閾値を超える各ライン方向の領域から前記人物が 存在する領域を検出する人物候補領域検出手段と、
をコンピュータに機能させることを特徴とする画像中の人物候補領域抽 出プログラム。
1 2 . 請求項 1 1に記載の画像中の人物候補領域抽出プログラムにおいて、 前記画像中の人物像の天地方向を判別する天地判別手段は、 前記画像が 三角形以上の多角形の枠で囲まれており、 かつ当該画像中に含まれる人物 像が上半身または頭部を中心と した一部であるときは、 当該画像の各辺ま たは各辺近傍のラインについて画像特徴量の分散値を求め、 その分散値が 最も大きい辺またはライン近傍の辺側を地面方向とするようになつている ことを特徴とする画像中の人物候補領域抽出プログラム。
1 3 . 三角形以上の多角形の枠内に上半身または頭部を中心とした人物像 が存在する画像中の当該人物像の天地方向を判別する方法であって、
前記画像の各辺または各辺近傍のラインを構成する画素列の画像特徴量 の分散値を求め、 その分散値が最も大きい辺またはライン近傍の辺側を地 面方向と判別するようにしたことを特徴とする人物像の天地判定方法。
1 4 . 三角形以上の多角形の枠内に上半身または頭部を中心とした人物像 が存在する画像中の当該人物像の天地方向を判別するシステムであって、 前記画像の各辺または各辺近傍のラインを構成する画素列の画像特徴量 の分散値を算出する分散値算出手段と、
当該分散値算出手段で得られた分散値が最も大きい辺またはライン近傍 の辺側を地面方向と判別する天地判別手段と、 を備えたことを特徴とする人物像の天地判定システム。
1 5 . 三角形以上の多角形の枠内に上半身または頭部を中心とした人物像 が存在する画像中の当該人物像の天地方向を判別するプログラムであって、 コンピュータを、
前記画像の各辺または各辺近傍のラインを構成する画素列の画像特徴量 の分散値を算出する分散値算出手段と、
当該分散値算出手段で得られた分散値が最も大きい辺またはライン近傍 の辺側を地面方向と判別する天地判別手段と、
して機能させることを特徴とする人物像の天地判定プログラム。
PCT/JP2005/001568 2004-01-27 2005-01-27 画像中の人物候補領域抽出方法及び人物候補領域抽出システム、人物候補領域抽出プログラム、並びに人物像の天地判定方法及び天地判定システム、天地判定プログラム WO2005071611A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP05704381A EP1710747A4 (en) 2004-01-27 2005-01-27 METHOD FOR EXTRACTING A PERSONAL CANDIDATE AREA IN A PICTURE, PERSONAL CANDIDATE RANGE EXTRACTION SYSTEM, PERSONAL CANDIDATE RANGE EXTRACTION PROGRAM, METHOD FOR DETERMINING ABOVE AND BELOW A PERSON PICTURE, SYSTEM FOR DECISIONS ABOVE AND BELOW AND PROGRAM FOR DECISIONS ABOVE AND BELOW

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-018376 2004-01-27
JP2004018376A JP3714350B2 (ja) 2004-01-27 2004-01-27 画像中の人物候補領域抽出方法及び人物候補領域抽出システム並びに人物候補領域抽出プログラム

Publications (1)

Publication Number Publication Date
WO2005071611A1 true WO2005071611A1 (ja) 2005-08-04

Family

ID=34805567

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/001568 WO2005071611A1 (ja) 2004-01-27 2005-01-27 画像中の人物候補領域抽出方法及び人物候補領域抽出システム、人物候補領域抽出プログラム、並びに人物像の天地判定方法及び天地判定システム、天地判定プログラム

Country Status (6)

Country Link
US (1) US20050196044A1 (ja)
EP (1) EP1710747A4 (ja)
JP (1) JP3714350B2 (ja)
KR (1) KR20060129332A (ja)
CN (1) CN1910613A (ja)
WO (1) WO2005071611A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894272A (zh) * 2010-08-10 2010-11-24 福州展旭电子有限公司 两凝胶图像间的蛋白质点自动匹配方法

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8345918B2 (en) * 2004-04-14 2013-01-01 L-3 Communications Corporation Active subject privacy imaging
US7386150B2 (en) * 2004-11-12 2008-06-10 Safeview, Inc. Active subject imaging with body identification
JP4992212B2 (ja) * 2005-09-06 2012-08-08 ソニー株式会社 画像処理装置、画像判定方法及びプログラム
JP2007101573A (ja) * 2005-09-30 2007-04-19 Fujifilm Corp プリント注文受付装置
JP5107342B2 (ja) * 2006-04-21 2012-12-26 ティーピー ビジョン ホールディング ビー ヴィ 精度平滑特性を増大させる画像改善
US7995106B2 (en) * 2007-03-05 2011-08-09 Fujifilm Corporation Imaging apparatus with human extraction and voice analysis and control method thereof
CN101937563B (zh) * 2009-07-03 2012-05-30 深圳泰山在线科技有限公司 一种目标检测方法和设备及其使用的图像采集装置
KR101636370B1 (ko) 2009-11-10 2016-07-05 삼성전자주식회사 영상 처리 장치 및 방법
CN102375988B (zh) * 2010-08-17 2013-12-25 富士通株式会社 文件图像处理方法和设备
CN102831425B (zh) * 2012-08-29 2014-12-17 东南大学 一种人脸图像快速特征提取方法
JP6265640B2 (ja) * 2013-07-18 2018-01-24 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6423625B2 (ja) * 2014-06-18 2018-11-14 キヤノン株式会社 画像処理装置および画像処理方法
JP6017005B2 (ja) * 2015-11-04 2016-10-26 キヤノン株式会社 画像検索装置、画像検索方法及びプログラム
JP6841232B2 (ja) * 2015-12-18 2021-03-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9996902B2 (en) * 2016-01-19 2018-06-12 Google Llc Image upscaling
CN105741300B (zh) * 2016-02-03 2018-07-20 浙江科澜信息技术有限公司 一种区域分割截图方法
CN105761253B (zh) * 2016-02-03 2018-07-24 浙江科澜信息技术有限公司 一种三维空间虚拟数据高清截图方法
CN112686851B (zh) * 2020-12-25 2022-02-08 合肥联宝信息技术有限公司 一种图像检测方法、装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08138024A (ja) * 1994-11-04 1996-05-31 Konica Corp 画像の向き判定方法
JP2001014455A (ja) * 1999-07-01 2001-01-19 Nissha Printing Co Ltd 画像処理方法およびこれに用いる画像処理装置、記録媒体
JP2001111806A (ja) * 1999-10-05 2001-04-20 Minolta Co Ltd 画像作成装置並びに画像の上下を認識する装置及び方法
JP2002501234A (ja) * 1998-01-08 2002-01-15 シャープ株式会社 人間の顔の追跡システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4870694A (en) * 1987-03-24 1989-09-26 Fuji Photo Film Co., Ltd. Method of determining orientation of image
US5150433A (en) * 1989-12-01 1992-09-22 Eastman Kodak Company Histogram/variance mechanism for detecting presence of an edge within block of image data
US5781665A (en) * 1995-08-28 1998-07-14 Pitney Bowes Inc. Apparatus and method for cropping an image
US6137893A (en) * 1996-10-07 2000-10-24 Cognex Corporation Machine vision calibration targets and methods of determining their location and orientation in an image
US6173087B1 (en) * 1996-11-13 2001-01-09 Sarnoff Corporation Multi-view image registration with application to mosaicing and lens distortion correction
US6055326A (en) * 1997-06-16 2000-04-25 Lockheed Martin Management Method for orienting electronic medical images
US6128397A (en) * 1997-11-21 2000-10-03 Justsystem Pittsburgh Research Center Method for finding all frontal faces in arbitrarily complex visual scenes
US6434271B1 (en) * 1998-02-06 2002-08-13 Compaq Computer Corporation Technique for locating objects within an image
JP2000048184A (ja) * 1998-05-29 2000-02-18 Canon Inc 画像処理方法及び顔領域抽出方法とその装置
AUPP400998A0 (en) * 1998-06-10 1998-07-02 Canon Kabushiki Kaisha Face detection in digital images
US6263113B1 (en) * 1998-12-11 2001-07-17 Philips Electronics North America Corp. Method for detecting a face in a digital image
FR2795206B1 (fr) * 1999-06-17 2001-08-31 Canon Kk Procede de modification d'orientation geometrique d'une image
JP2001134772A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
JP4778158B2 (ja) * 2001-05-31 2011-09-21 オリンパス株式会社 画像選出支援装置
AUPR541801A0 (en) * 2001-06-01 2001-06-28 Canon Kabushiki Kaisha Face detection in colour images with complex background
US6915025B2 (en) * 2001-11-27 2005-07-05 Microsoft Corporation Automatic image orientation detection based on classification of low-level image features
US7430303B2 (en) * 2002-03-29 2008-09-30 Lockheed Martin Corporation Target detection method and system
US7116823B2 (en) * 2002-07-10 2006-10-03 Northrop Grumman Corporation System and method for analyzing a contour of an image by applying a Sobel operator thereto
US7983446B2 (en) * 2003-07-18 2011-07-19 Lockheed Martin Corporation Method and apparatus for automatic object identification

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08138024A (ja) * 1994-11-04 1996-05-31 Konica Corp 画像の向き判定方法
JP2002501234A (ja) * 1998-01-08 2002-01-15 シャープ株式会社 人間の顔の追跡システム
JP2001014455A (ja) * 1999-07-01 2001-01-19 Nissha Printing Co Ltd 画像処理方法およびこれに用いる画像処理装置、記録媒体
JP2001111806A (ja) * 1999-10-05 2001-04-20 Minolta Co Ltd 画像作成装置並びに画像の上下を認識する装置及び方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1710747A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894272A (zh) * 2010-08-10 2010-11-24 福州展旭电子有限公司 两凝胶图像间的蛋白质点自动匹配方法

Also Published As

Publication number Publication date
US20050196044A1 (en) 2005-09-08
EP1710747A4 (en) 2008-07-30
JP2005215760A (ja) 2005-08-11
EP1710747A1 (en) 2006-10-11
CN1910613A (zh) 2007-02-07
JP3714350B2 (ja) 2005-11-09
KR20060129332A (ko) 2006-12-15

Similar Documents

Publication Publication Date Title
WO2005071611A1 (ja) 画像中の人物候補領域抽出方法及び人物候補領域抽出システム、人物候補領域抽出プログラム、並びに人物像の天地判定方法及び天地判定システム、天地判定プログラム
CN103679636B (zh) 基于点、线双重特征的快速图像拼接方法
JP4505362B2 (ja) 赤目検出装置および方法並びにプログラム
EP2833288B1 (en) Face calibration method and system, and computer storage medium
KR100480781B1 (ko) 치아영상으로부터 치아영역 추출방법 및 치아영상을이용한 신원확인방법 및 장치
JP5456159B2 (ja) 背景から前景の頭頂部を分離するための方法および装置
US20090245625A1 (en) Image trimming device and program
US8526684B2 (en) Flexible image comparison and face matching application
US10404912B2 (en) Image capturing apparatus, image processing apparatus, image capturing system, image processing method, and storage medium
WO2005055143A1 (ja) 人物顔の頭頂部検出方法及び頭頂部検出システム並びに頭頂部検出プログラム
JP2016018422A (ja) 画像処理方法、画像処理装置、プログラム、記録媒体、生産装置、及び組立部品の製造方法
JP6107372B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2018055367A (ja) 画像処理装置、画像処理方法、及びプログラム
CN115049689A (zh) 一种基于轮廓检测技术的乒乓球识别方法
US7349558B2 (en) Image processing method, image processing apparatus, storage medium and program
JP2006127056A (ja) 画像処理方法、画像処理装置
US8538142B2 (en) Face-detection processing methods, image processing devices, and articles of manufacture
WO2005055144A1 (ja) 人物顔のあご検出方法及びあご検出システム並びにあご検出プログラム
JP2005309717A (ja) マーカ処理方法、マーカ処理装置、プログラム、および、記録媒体
JP5095501B2 (ja) 注目度算出装置および方法並びにプログラム
WO2011065419A1 (ja) 家屋倒壊領域抽出システム、家屋倒壊領域抽出方法、及び家屋倒壊領域抽出プログラム
WO2024047847A1 (ja) 検出装置、検出方法、および検出プログラム
JP2005346663A (ja) オブジェクト画像判別方法およびオブジェクト画像判別システム、オブジェクト画像判別プログラム、並びに誤検出判別方法、誤検出判別システム、誤検出判別プログラム
KR101373405B1 (ko) 식물 영상에 대한 객체 검출 방법 및 장치
JP6558978B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005704381

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 200580003126.3

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 1020067015241

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2005704381

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020067015241

Country of ref document: KR